Examen de gráficos 11 de Julio de 2000

Anuncio
20381 Bioinformática
Examen de primera convocatoria (29/01/04)
-
Permutación 1
Cada pregunta fallada descuenta ¼ de pregunta acertada.
No desgrapar las hojas
1) Si inmediatamente después ( 10-4 segundos) de producirse un potencial
de acción en una neurona, la neurona recibe un estímulo suficiente como
para producir otro potencial de acción:
a)
b)
c)
d)
e)
El nuevo potencial de acción es mayor que el anterior.
No es posible que se reciba un estímulo tan seguido.
No se puede producir un nuevo potencial de acción inmediatamente.*
Se mantiene el potencial de acción anterior durante más tiempo.
Ninguna de las anteriores.
2) En una neurona el potencial de membrana en condiciones de reposo.
a)
b)
c)
d)
e)
Vale cero.
Puede valer entre –80mV y +30 mV.
Es siempre positivo.
Es igual en el interior que en el exterior de la neurona.
Ninguna de las anteriores.*
3) En una red multicapa hacemos que la función de activación sea lineal
para todas las neuronas
a) La red solamente aprende funciones linealmente separables.*
b) La red puede aprender cualquier tipo de función siempre que tenga
suficientes capas.
c) Aumenta la potencia de la red.
d) Es el tipo más aconsejable de función de activación ya que es la más
simple y el aprendizaje es más rápido.
e) Ninguna de las anteriores
4) En un red supervisada el “training set” es el conjunto de parejas de
vectores en que las componentes de cada pareja son:
a) Todas las entradas usadas para el aprendizaje tomadas de dos en
dos.
b) Un patrón de entrada y su correspondiente vector de salida calculada
por la red.
c) Un patrón de entrada y el correspondiente vector de salida deseada.
d) Un vector de salida calculada y el correspondiente vector de salida
deseada.
e) Ninguna de las anteriores
5) Las redes neuronales artificiales se caracterizan fundamentalmente por:
a) Estar formadas por elementos complejos de procesamiento.
b) Ser sistemas secuenciales
c) Ser adaptativas.
d) Ser binarias como el sistema nervioso.
f) Ninguna de las anteriores.
6) Cual de las siguientes respuestas es cierta:
a)
b)
c)
d)
e)
McCulloch público su modelo de neurona formal en los años 50.
Rossemblatt público el algoritmo del Backpropagation en los 70.
Rumelhard presentó el Adaline en los 80.
Kohonen presentó sus más conocidos resultados en los 60.
Ninguna de las anteriores
7) Esta red de McCulloch se comporta de la manera siguiente
2
a
b
3
1
a)
b)
c)
d)
e)
La neurona 3 no se puede disparar nunca
La neurona 2 no se puede disparar nunca
La neurona 3 se dispara si la neurona 1 se dispara en t=1,3,5, ...
La neurona 2 se dispara si la neurona 1 se dispara en t=1,3,5, ...
Ninguna de las anteriores
8) Como mínimo cuantas capas y cuantas neuronas en total hacen falta
para implementar A-B en una red formada por perceptrones:
A-B
A
a)
b)
c)
d)
e)
B
1 capa y 6 neuronas.
2 capas y 7 neuronas.
3 capas y 9 neuronas
4 capas y 12 neuronas
Ninguna de las anteriores
9) En el algoritmo del Perceptron el paso 2 contiene 3 posibilidades. Cual es
la que está bien escrita:
2.1) Si y = d  (wi(t - 1) = wi(t))
2.2) Si y  d y y = 0 (d=1)  (wi(t - 1) = wi(t) - xi)
2.3) Si y  d y y = 1 (d=0)  (wi(t + 1) = wi(t) + xi)
2.3’) Si y  d y y = 1 (d=0)  (wi(t - 1) = wi(t) - xi)
a)
b)
c)
d)
e)
La 2.1)
La 2.2)
La 2.3)
La2.3’)
Ninguna de las anteriores
10) El “Adaline” basa su aprendizaje en la minimización de la expresión
P
P


E ( w)   E p ( w)   (d p  y p ) 2
p 1
a)
b)
c)
d)
e)
p 1
Donde E es la energía del descenso del gradiente
P es el conjunto de patrones de aprendizaje y no-aprendizaje
E es el error cuadrático
Los valores dp, yp son vectores de p componentes
Ninguna de las anteriores
11) Una de los pasos de la demostración del teorema de convergencia es
utilizar la expresión:



2 
( (k ). * ) 2   (k ) .  *
2
a)
b)
c)
d)
Basada en la desigualdad de Cauchy-Schwartz
Basada en distancia de Hamming
Basada en la distancia de Hausdorff.
Si se utiliza esta expresión no se puede demostrar el teorema de
convergencia.
e) Ninguna de las anteriores
12) La función tangente hiperbólica
f ( x) 
e x  e x
e x  ex
se utiliza como función de activación entre otras cosas porque tiene una
derivada simple. La derivada es:
f s(net)  f s (net)(1  f s (net))
a)
f s(net)  f s (net)(1  f s (net))
b)
f s(net)  f s (net)( f s (net)  1)
c)
f s(net)  ( f s (net)  1)(1  f s (net))
d)
e) Ninguna de las anteriores
13) La regla delta generalizada se basa en la expresión que permite hallar
la propagación del error en las capas ocultas. Esta expresión tiene la
forma general:
E p
whim1
nm
 (    mj wijm )  ( f s( net im1 ))  y hm2
j 1
En esta expresión puede haberse cometido o no un error voluntario.
Escoger la respuesta correcta.
a) La expresión es correcta
b) Los superíndices en el sumando de delta y de w han de ser m-1 y
no m.
c) La f’ ha de ser f y no la derivada f’.
d) El superíndice de yh ha de ser m-1.
e) Ninguna de las anteriores
14) El algoritmo de Backpropagation ha de tener en cuenta que:
a) Es necesario probar todos los patrones
b) Los patrones de entrenamiento han de tener el menor ruido
posible
c) Los patrones se deben entrar clase a clase
d) Los términos de error de una capa se calculan después de
actualizar los de la capa anterior
e) Ninguna de las anteriores
15) En una red MLP Backpropagation,
a) La inicialización de los pesos condiciona la velocidad de aprendizaje.
b) La mejor manera de detener el aprendizaje es detenerlo después de
un número grande de iteraciones.
c) La representación de los datos (binarios o continuos) es
independiente del problema.
d) El coeficiente de aprendizaje ha de ser constante durante todo el
eprendizaje.
e) Ninguna de las nteriores
16) La utilización del momentum en una red MLP Backpropagation no es
recomendable cuando la red,
a)
b)
c)
d)
e)
Es muy grande.
Es muy pequeña.
Utiliza datos binarios.
Utiliza la inicialización de Nguyen-Widrow.
Ninguna de las anteriores.
17) La red ”sombrero mejicano”,
a)
b)
c)
d)
e)
Es una red hebbiana.
Una red bioinspirada en la inhibición lateral.
Se puede considerar como una sub-red feedforward.
Utiliza el momentum para no caer en mínimos locales.
Ninguna de las anteriores.
18) En el algoritmo competitivo básico
a)
b)
c)
d)
Se debe utilizar siempre la distancia euclídea
El resultado final no depende del orden de los patrones.
El resultado final es independiente de la inicialización.
Usa la combinación convexa para evitar utilizar más neuronas de las
necesarias.
e) Ninguna de las anteriores.
19) El algoritmo “k-means”
a)
b)
c)
d)
e)
Se inicializa con el método de Nguyen-Widrow
Se actualiza la neurona ganadora.
Se actualiza el centroide de cada clase.
El algoritmo que se explicó tiene un número de clases variable.
Ninguna de las anteriores
20) Los mapas autoorganizativos de Kohonen
a)
b)
c)
d)
e)
Son redes competitivas
Son redes hebianas
Se basan en el descenso del gradiente
Todas las anteriores
Ninguna de las anteriores.
21) Las redes de Hopfield explicadas a clase son :
a)
b)
c)
d)
e)
Competitivas
Realimentadas
Feedforward
Con valores continuos
Ninguna de las anteriores
22) La red ART1
a)
b)
c)
d)
e)
Es jerárquica.
Utiliza patrones continuos.
Es feedforward.
Es competitiva.
Ninguna de las anteriores.
23) Las redes RBF,
a)
b)
c)
d)
e)
Tienen dos capas lineales.
Son competitivas de dos niveles.
El bias del primer nivel es discreto.
Las funciones del primer nivel son isotropas.
Ninguna de las anteriores.
24) El punto más importante a tener en cuenta en los proyectos de
aplicaciones de redes neuronales es:
a) Crear prototipos.
b) Centrarse en el desarrollo de nuevos algoritmos.
c) Introducir los datos directamente en la red según se obtienen de la
fuente de datos.
d) Determinar la solución en la fase de diseño.
e) Ninguna de las anteriores.
Descargar