1) Suponiendo un Perceptrón de dos entradas, utiliza el algoritmo

Anuncio
20381 – BIOINFORMÁTICA
Examen de la 2ª Convocatoria (12/07/06)
Nombre y apellidos:
-
Cada pregunta errónea del test descuenta ¼ de pregunta acertada.
No desgrapar las hojas
Tema 1. (2 puntos): Backpropagation
- Regla delta generalizada
Tema 2. (2 puntos): Mapas de Kohonen
- Introducción.- Radio de influencia.- Algoritmo de aprendizaje.- Descenso del
gradiente.
Preguntas tipo test (6 puntos):
1) Si inmediatamente después ( 10-4 segundos) de producirse un potencial de
acción en una neurona, la neurona recibe un estímulo suficiente grande como
para producir otro potencial de acción:
a)
b)
c)
d)
e)
El nuevo potencial de acción es mayor que el anterior.
No es posible que se reciba un estímulo tan seguido.
No se puede producir un nuevo potencial de acción inmediatamente.
Se mantiene el potencial de acción anterior durante más tiempo.
Ninguna de las anteriores.
2) Cual de las siguientes respuestas es cierta:
a)
b)
c)
d)
e)
McCulloch publicó su modelo de neurona formal en los años 60.
Rossemblatt presentó el Adaline en los años 70.
Rumelhard publicó el algoritmo del Backpropagation en los 80.
Kohonen presentó sus resultados más conocidos en los 90.
Ninguna de las anteriores
3) En la practica 2 cual es el valor para Ym-1 de la 1ª capa oculta.
a)
b)
c)
d)
e)
El valor de la salida de la capa anterior.
El valor de las variables del conjunto t.
El valor de las variables del conjunto x.
No utilizábamos en ningún momento el valor Ym-1
Ninguna de las anteriores.
4) Que problemas se pueden encontrar al implementar una backpropagation por
pattern (patrón).
a) No es fácilmente paralelizable.
b) Presenta olvido.
c) Tiene más problemas con los mínimos locales que si fuera implementada
por epoch (época).
d) La a) y la b).
e) Ninguna de las anteriores.
5) La memorización es el fenómeno por el cual la red deja de generalizar para
pasar a memorizar (aprender los casos especiales de patrones mal clasificados;
outlyers, fuera de lugar).
a) La utilización del Error Relativo como criterio de terminación del algoritmo
provoca la memorización.
b) El Delta-bar-delta soluciona parte del problema de la memorización.
c) La Cross-validation o validación cruzada soluciona parte del problema de
la memorización.
d) La a) y la c) son verdad.
e) Ninguna de las anteriores es verdad.
6) Cual de las siguientes afirmaciones es verdad.
a) El momentum sirve para evitar mínimos locales.
b) La inicialización de Nguyen-Widrow sirve para acelerar el
aprendizaje.
c) Las técnicas para re-dimensionar automáticamente la red y evitar la
memorización eliminando nodos de una red inicialmente grande se
conocen como net-pruning..
d) Todas las anteriores son verdad.
e) Ninguna de las anteriores son verdad.
7) En las redes RBF, es cierto que:
a) Son redes supervisadas.
b) Usan funciones radiales anisótropas.
c) Pueden funcionar como interpoladores de funciones.
d) a) y c)
e) Ninguna de las anteriores.
8) Con respecto a los algoritmos de ajuste óptimo de los centros de los nodos
ocultos de una red RBF, es cierto que:
a) El entrenamiento supervisado siempre incluye el entrenamiento de las
variancias.
b) El método aleatorio (data subset) consiste en escoger los centros de
forma aleatoria de entre los patrones de entrada.
c) El entrenamiento supervisado siempre incluye el entrenamiento de los
pesos de los nodos ocultos (RBF).
d) a) y c).
e) Ninguna de las anteriores.
9) Dada la red RBF de la figura: consistente en dos nodos ocultos con centros
inicialmente en c1 = (0.72, 0.11) y c2 = (0.38, 0.23), con varianzas σ12 = 0.3
y σ22 = 0.3, con un único nodo de salida y con pesos promediadores w1 = 1.2,
w2 =1.3 y bias b = −1.
Esquema de la red RBF
¿Qué unidad oculta se activará con mayor intensidad cuando se presente el
vector de entrada x = (0.55, 0.17)?
a) La unidad 1.
b) La unidad 2.
c) Ambas por igual.
d) Los pesos de salida compensaran la diferencia de activación.
e) Ninguna de las anteriores.
10) En una red SOM de Kohonen con matriz de pesos
W =  0.6 1.0 2.0


 0.8 0.0 1.5 
Si el patrón de entrada a la red es x = (0.5, 1.0), la neurona ganadora será:
a) La neurona 2 con el criterio de la distancia euclídea al cuadrado (de2) y
3 con el criterio del producto escalar(p.e.).
b) La 3 con de2 y la 2 con p.e.
c) La 1 con de2 y la 2 con p.e.
d) La 1 con de2 y la 3 con p.e.
e) Ninguna de los anteriores.
11) En una red SOM de Kohonen, implementada con el criterio de la distancia
euclídea al cuadrado (de2), matriz de pesos.
W =  0.9 0.5 0.1


 0.1 0.2 0.9


 0.0 1.0 0.7
y con coeficiente de aprendizaje η = 0.3, al realizar un paso de aprendizaje con
el patrón x = (1.0 ,0.0 ,0.0), el peso actualizado correspondiente a la unidad
ganadora será:
a) (0.93, 0.07, 0.00).
b) (1.17, 0.17, 0.21).
c) (0.93, 0.35, 0.07).
d) (1.05, 0.04, 0.30).
e) Ninguna de las anteriores.
12) En el algoritmo competitivo básico:
a) Se puede utilizar la distancia euclídea.
b) El resultado final depende del orden en que se entran los patrones.
c) El resultado final es dependiente de la inicialización.
d) Todas las anteriores son ciertas.
e) Ninguna de las anteriores
13) En una red SOM Kohonen sin vecindad, sea d la dimensión (número de
componentes) de los patrones de entrada, n el número de unidades de la capa
competitiva y m el número de patrones usados, entonces se cumple que:
a) El número total de pesos de la red es (d +1)·m.
b) Cada neurona de la capa competitiva tiene asociados n pesos.
c) El valor de d ha de ser igual a n
d) Cada neurona de la capa competitiva tiene asociados m pesos.
e) Ninguna de las anteriores.
14) En las
a)
b)
c)
d)
e)
redes SOM:
Solo actualizan los pesos de la unidad ganadora.
Son multicapa.
Resuelven el problema del viajante de comercio en tiempo lineal.
Su auto-organización proviene de la vecindad.
Ninguna de las anteriores.
15) En referencia a la práctica 3, indique la respuesta correcta:
a) El producto escalar de dos vectores normalizados es el coseno del ángulo
entre ambos.
b) Las redes SOM sin vecindad sólo sirven para clasificar en dos clases.
c) En el criterio del producto escalar es necesario normalizar los vectores
de pesos.
d) a) y c).
e) Ninguna de las anteriores
a)
b)
c)
d)
e)
1.
2.
3.
x
x
x
4.
5.
6.
7.
8.
9.
10. 11. 12. 13. 14. 15.
x
x
x
x
x
x
x
x
x
x
x
x
Descargar