Examen_Bio_Febrer_G2

Anuncio
20381 BIOINFORMÁTICA
EXAMEN de primera convocatoria (29/01/04)
-
Permutación #2
Cada pregunta fallada descuenta ¼ de pregunta acertada.
No desgrapar las hojas.
1) Para resolver el problema del viajante de comercio (TSP) entre 6
ciudades con una SOM, es mejor usar:
a)
b)
c)
d)
e)
Una Kohonen de 6 entradas y 6 salidas en malla rectangular.
Una Kohonen de 2 entradas y 6 salidas en malla rectangular.
Una red competitiva básica (o simple) de 2 entradas y 6 salidas.
Una Kohonen de 2 entradas y 6 salidas en anillo unidimensional.
Ninguna de las anteriores.
2) En una neurona el potencial de membrana en condiciones de reposo.
a)
b)
c)
d)
e)
Vale cero.
Puede valer entre –80mV y +30 mV.
Es igual en el interior que en el exterior de la neurona.
Es siempre positivo.
Ninguna de las anteriores.
3) Si inmediatamente después ( 10-5 segundos) de producirse un potencial
de acción en una neurona, la neurona recibe un estímulo suficiente como
para producir otro potencial de acción normal:
a)
b)
c)
d)
e)
El nuevo potencial de acción es mayor que el anterior.
No es posible que se reciba un estímulo tan seguido.
No se puede producir un nuevo potencial de acción inmediatamente.
Se mantiene el potencial de acción anterior durante más tiempo.
Ninguna de las anteriores.
4) Si queremos diseñar a mano una red de perceptrones para clasificar
correctamente el conjunto A-B de la figura, cual es el número mínimo de
capas y neuronas que necesitaremos?
A-B
A
a)
b)
c)
d)
e)
1 capa y 6 neuronas.
4 capas y 12 neuronas.
2 capas y 7 neuronas.
3 capas y 9 neuronas.
Ninguna de las anteriores.
B
5) El Adaline basa su aprendizaje en la minimización de la expresión
P
P


E ( w)   E p ( w)   (d p  y p ) 2
p 1
p 1
donde
a)
b)
c)
d)
e)
E es la energía del descenso del gradiente.
E es el error cuadrático medio.
P es el conjunto de patrones de aprendizaje y no-aprendizaje.
E es el error cuadrático.
Ninguna de las anteriores.
6) En una red supervisada el “training set” es el conjunto de parejas de
vectores en que las componentes de cada pareja son:
a) Todas las entradas usadas para el aprendizaje tomadas de dos en
dos.
b) Un vector de salida calculada y el correspondiente vector de salida
deseada.
c) Un patrón de entrada y su correspondiente vector de salida calculada
por la red.
d) Un patrón de entrada y el correspondiente vector de salida deseada.
e) Ninguna de las anteriores.
7) En una red SOM de Kohonen de dos unidades y 3 entradas, la matriz de
pesos inicial es: w1=(0.3, 0.8, 0.6), w2=(1.1, 0.7, 0.1). Si usamos la
distancia euclídea al cuadrado (De2), vecindad NK=2 y coeficiente de
aprendizaje =0.5: ¿Cuál es la matriz de pesos resultante al presentar el
vector de entrada (1,0,1) durante el entrenamiento?
a)
b)
c)
d)
e)
w1=(0.3, 0.8, 0.6), w2=(1.15, 0.35, 0.55).
w1=(0.65, 1.2, 0.8), w2=(1.15, 1.05, 0.55).
w1=(0.65, 1.2, 0.8), w2=(1.1, 0.7, 0.1).
w1=(0.65, 0.4, 0.8), w2=(1.15, 0.35, 0.55).
Ninguna de las anteriores.
8) Las redes neuronales artificiales se caracterizan fundamentalmente por:
a) Ser binarias como el sistema nervioso.
b) Estar formadas por elementos complejos de procesamiento.
c) Ser sistemas secuenciales.
d) Aprender de forma adaptativa.
e) Ninguna de las anteriores.
9) Las RBFN
a)
b)
c)
d)
e)
Solo se usan en problemas de aproximación.
Son redes supervisadas.
Funcionan mejor que las MLP en problemas de clasificación.
No presentan problemas de memorización.
Todas las anteriores.
10)
Esta red de McCulloch& Pitts se comporta de la manera siguiente:
2
a
b
1
a)
b)
c)
d)
e)
11)
3
La neurona 2 se dispara si la neurona 1 se dispara en t=1,3,5, ...
La neurona 2 no se puede disparar nunca.
La neurona 3 no se puede disparar nunca.
La neurona 3 se dispara si la neurona 1 se dispara en t=1,3,5, ...
Ninguna de las anteriores.
Cual de las siguientes respuestas es cierta:
a) Kohonen presentó sus más conocidos resultados en los 60.
b) McCulloch & Pitts publicaron su modelo de neurona formal en los
años 50.
c) Rossemblatt público el algoritmo del Backpropagation en los 70.
d) Rumelhard presentó el Adaline en los 80.
e) Ninguna de las anteriores.
12) Dada la siguiente recta de separación para una TLU binaria de dos
entradas con vector de pesos w=(0.5, 2), cual es el valor del umbral
()?
2
1
1
a)
b)
c)
d)
e)
2
–0.5
1
0.5
2
Ninguna de las anteriores.
13) El punto más importante a tener en cuenta en los proyectos de
aplicaciones de redes neuronales es:
a) Determinar la solución óptima en la fase de diseño.
b) Introducir los datos directamente en la red según se obtienen de la
fuente de datos.
c) Probar con diferentes prototipos.
d) Centrarse en el desarrollo de nuevos algoritmos.
e) Ninguna de las anteriores.
14)
Los mapas auto-organizativos de Kohonen
a)
b)
c)
d)
e)
15)
Se basan en el descenso del gradiente.
Son redes competitivas.
Son redes hebianas.
Todas las anteriores.
Ninguna de las anteriores.
En el algoritmo competitivo básico o simple
a) Se debe utilizar siempre la distancia euclídea.
b) El resultado final es independiente de la inicialización.
c) Se puede usar la combinación convexa para optimizar
clasificación.
d) El resultado final no depende del orden de los patrones.
e) Ninguna de las anteriores.
la
16) Estamos entrenando una TLU bipolar de dos entradas, con vector de
pesos w = (1,2) y función de activación lineal (y=NET) mediante el
algoritmo LMS con =0.7. Presentamos el primer patrón de
entrenamiento P = [xp=(1,-1), tp=1]. ¿Cuál es el nuevo valor del vector
de pesos tras esta iteración del LMS?
a)
b)
c)
d)
e)
17)
w=(–0.8, 2.8)
w=(0.9, 2.1)
w=(2.4, 0.6)
w=(1.4, 3.4)
Ninguna de las anteriores.
La función tangente hiperbólica
f ( x) 
e x  e x
e x  ex
se utiliza como función de activación entre otras cosas porque tiene una
derivada simple. La derivada es:
f s(net)  f s (net)(1  f s (net))
a)
f s(net)  f s (net)(1  f s (net))
b)
f s(net)  f s (net)( f s (net)  1)
c)
f s(net)  ( f s (net)  1)(1  f s (net))
d) dddddddddddddddddddddddddd
e) Ninguna de las anteriores.
18)
Las redes de Hopfield explicadas en clase son:
a)
b)
c)
d)
e)
Feedforward.
Competitivas.
Realimentadas.
Con valores continuos.
Ninguna de las anteriores.
19)
La red ART1
a)
b)
c)
d)
e)
20)
Es competitiva.
Es jerárquica.
Utiliza patrones continuos.
Es feedforward.
Ninguna de las anteriores.
Las técnicas de net pruning
a) Se aplican solo en redes MLP.
b) Acostumbran a usar términos de penalización de complejidad.
c) Optimizan las redes neuronales añadiendo nodos ocultos cuando es
necesario.
d) Se basan en el mismo principio que el método Nyguen & Widrow.
e) Ninguna de las anteriores.
21)
El uso de un conjunto de patrones de validación
a)
b)
c)
d)
e)
22)
Pertenece a las redes MLP con backpropagation.
Puede provocar efectos de memorización.
Mejora la capacidad de generalización de la red.
Permite disminuir el error sobre los patrones de aprendizaje.
Ninguna de las anteriores.
Las redes RBF,
a)
b)
c)
d)
e)
23)
El bias del primer nivel es discreto.
Tienen dos capas lineales.
Las funciones del primer nivel son isótropas.
Son competitivas de dos niveles.
Ninguna de las anteriores.
En la red SOM de Kohonen
a) La auto-organización proviene del concepto de vecindad.
b) Las conexiones de la capa auto-organizativa corresponden a
centroides de los clusters de entradas.
c) Solo se actualizan los pesos de la unidad ganadora.
d) La capa auto-organizativa es bidimensional y no tiene pesos en sus
conexiones.
e) Ninguna de las anteriores.
24)
a)
b)
c)
d)
e)
En el modelo neuronal de McCulloch & Pitts
Una sinapsis inhibidora se contrarresta con dos excitadoras.
Se pueden entrenar redes neuronales de forma adaptativa.
No se tiene en cuenta ningún tipo de retardo.
Se puede implementar una XOR.
Ninguna de las anteriores.
25)
En prácticas,
a) El algoritmo de backpropagation solo podía usar la sigmoidea bipolar
como función de activación.
b) La función som.m creaba la estructura de una red de Kohonen con
vecindad 0.
c) La condición de parada del backpropagation era función del error de
validación.
d) El LMS se aplicaba a redes mono-capa con función de activación
sigmoidea.
e) Todas las anteriores.
26)
La diferencia entre una RBFN y una CPN es que:
a) La RBFN no tiene pesos explícitos en la capa oculta.
b) En una RBFN varias unidades de la capa de entrada se pueden activar
simultáneamente.
c) La respuesta de las unidades RBF es gradual, en lugar de todo-nada.
d) La RBFN puede entrenarse usando solo el descenso del gradiente.
e) Todas las anteriores.
27) En prácticas, al entrenar una red para que aprenda a cazar moscas
como una rana (modelo inverso),
a) Es imprescindible normalizar las salidas o cambiar la función de
activación para poder modelar el caso real de forma efectiva.
b) Le proporcionamos como entradas a la red los ángulos y la distancia
necesarios para calcular la posición de la presa.
c) Es imprescindible normalizar las entradas para que éstas contribuyan
uniformemente al aprendizaje.
d) La función frog.m realiza una función análoga a la de la red
entrenada.
e) Todas las anteriores.
28)
El algoritmo de Backpropagation ha de tener en cuenta que:
a) Es necesario probar todos los patrones.
b) Los términos de error de una capa se calculan después de
actualizar los pesos de la capa anterior.
c) Los patrones de entrenamiento han de tener el menor ruido
posible.
d) Los patrones se deben entrar clase a clase.
e) Ninguna de las anteriores.
29) Para clasificar un conjunto de datos con frontera circular, el
paradigma de red más apropiado es:
a)
b)
c)
d)
e)
RBF
SOM
CPN
MLP
Ninguna las anteriores.
30) ¿Cuál de estas técnicas no se usa para evitar problemas de
memorización en MLP con backpropagation?
a)
b)
c)
d)
e)
Introducir ruido aleatorio en los patrones de entrenamiento.
Añadir el término de momento en el algoritmo.
Aumentar la densidad de patrones en las zonas de decisión.
Reducir el número de nodos ocultos.
Todas las anteriores se pueden usar.
31) En una RBFN de dos entradas y una salida, con unidades RBF
definidas por c1=(0.5,1), 1=0.25 y c2=(1,2), 2=1, y vector de pesos de
salida w=(1,1), que unidad oculta contribuirá más a la salida de la red al
presentar la entrada (1,1)?
a)
b)
c)
d)
e)
La unidad ganadora.
La unidad #2.
Ambas por igual.
La unidad #1.
Ninguna de las anteriores.
32) El algoritmo backpropagation es completamente equivalente al LMS si
y solo si (condición necesaria y suficiente):
a)
b)
c)
d)
e)
33)
El problema no es linealmente separable.
Las entradas y salidas están acotadas en el intervalo [0,1] (o [-1,1]).
La red a entrenar es mono-capa.
La inicialización de pesos es aleatoria.
Ninguna de las anteriores.
En una red MLP con Backpropagation:
a) El coeficiente de aprendizaje ha de ser constante durante todo el
aprendizaje.
b) La representación de los datos (binarios o continuos) es
independiente del problema.
c) La inicialización de los pesos condiciona la velocidad de aprendizaje.
d) La mejor manera de detener el aprendizaje es detenerlo después de
un número grande de iteraciones.
e) Ninguna de las anteriores.
34) En una red MLP con n pesos, si deseamos un error inferior a f sobre
el conjunto de validación, el número mínimo de patrones de
entrenamiento (P) está acotado por:
a)
b)
c)
d)
e)
P > log[n/(1-f)] · n / (1-f)
P > 2n / f
P > 10 · n
P > n / (1-f)
Ninguna de las anteriores.
35)
La red ”sombrero mejicano”,
a)
b)
c)
d)
e)
36)
Se puede considerar como una sub-red feedforward.
Utiliza el momentum para no caer en mínimos locales.
Una red bioinspirada en la inhibición lateral.
Es una red hebbiana.
Ninguna de las anteriores.
En biología molecular,
a) El lamarckismo defiende que los rasgos genotípicos son heredables.
b) La síntesis de proteínas a partir de DNA se fundamenta en dos pasos
esenciales (transcripción y traducción).
c) Hay pocos sistemas conocidos de regulación de la expresión
genética.
d) Existen dos variedades de RNA.
e) Todas las anteriores.
37)
En biología computacional,
a) El plegamiento de una proteína se simula fácilmente a nivel
electroquímico.
b) Solo unos pocos campos de la informática convencional están
implicados.
c) Los alineamientos de secuencias se hacen típicamente con
secuencias de DNA porque estas están más conservadas que las de
proteínas.
d) El número de secuencias publicadas anualmente supera el índice de
crecimiento de la capacidad de cómputo enunciado por Gordon
Moore.
e) Todas las anteriores.
GLOSARIO DE ACRÓNIMOS:
Adaline – Adaptative Linear Element/Neuron
ART – Adaptative Resonance Theory
CPN – Counter-Propagation Network
LMS- Least Mean Square
MLP – Multi-Layer Perceptron
RBF – Radial Basis Function
RBFN – Radial Basis Function Network
SOM – Self-Organizing (Feature) Map
TLU – Threshold Logic Unit
TSP – Traveling Salesman Problem
Descargar