Examen_bio_Junio_09_perm2_sol

Anuncio
20381 – BIOINFORMATICA
Examen de la 2ª Convocatoria (29/06/09)
Permutación 2
Nombre y apellidos:
Cada pregunta errónea del test descuenta ¼ de pregunta acertada.
No quitéis las grapas de las hojas
El examen consta de 1 Test, 1 Tema y 1 Problema.
-
TEST: (6 puntos)
1.
Que tres elementos definen una red neuronal:
a) El número de capas, el número de neuronas por capa y el número de conexiones por neurona.
b) La arquitectura, la función de activación y el tipo de aprendizaje.
c) La arquitectura, el tipo de aprendizaje y el potencial de acción.
d) La arquitectura, el patrón de pesos y el tipo de aprendizaje.
e) Ninguna de las anteriores.
2.
Suponiendo un Perceptrón de dos entradas, utiliza el algoritmo del Perceptrón para conseguir que este modele una
puerta lógica AND, utilizando valores bipolares de entrada (-1,1), e inicializando los pesos a w = (0,0) y un umbral
fijo θ = 1. ¿Cuales son los valores del vector de pesos resultante?
a) w = (0, 1).
b) w = (0, 0).
c) w = (1, 1).
d) w = (1, 0).
e) Ninguna de las anteriores.
3.
¿Cuál de las siguientes afirmaciones es CIERTA?
a) Un coeficiente de aprendizaje pequeño hace que la red aprenda rápidamente.
b) Una red Backpropagation es una red competitiva.
c) En la técnica de crossvalidation o validación cruzada el espacio de muestras se divide siempre en 2 conjuntos
distintos.
d) Tanto la a) como la c) son ciertas.
e) Todas son falsas.
4.
¿Cuál de las siguientes afirmaciones es CIERTA?
a) En una red multicapa entrenada con Backpropagation se cumple que a mayor capacidad de especialización de la
red, mayor probabilidad de caer en mínimos locales.
b) El método iterativo o de coeficiente maximal es utilizado para acelerar la convergencia del algoritmo de
Backpropagation.
c) Poner muchas neuronas en las capas ocultas puede dar problemas de memorización.
d) Tanto la a) como la c) son ciertas.
e) Todas las afirmaciones son ciertas.
5.
En
a)
b)
c)
d)
e)
6.
Queremos utilizar una red RBF de dos entradas binarias, una salida binaria y una capa oculta para aproximar la
una red neuronal monocapa con dos entradas y una salida, cual afirmación es CIERTA:
Puede clasificar correctamente cualquier conjunto de puntos.
La salida no depende de las entradas.
No puede clasificar correctamente la función XOR.
Todas las anteriores son ciertas.
Ninguna es cierta.
función
a)
b)
c)
d)
e)
7.
En
a)
b)
c)
d)
e)
. Lo podemos conseguir, ajustando bien los parámetros, si situamos los centros en:
,
,
,
Tanto en a) como en b).
Ninguna de las anteriores.
la practica 2, en la red multicapa, cual es el valor de las entradas de una capa oculta m:
El valor de las entradas de la capa anterior m-1.
El valor de las salidas de la capa anterior m-1.
El valor de la salida de la última capa.
El valor del error de la capa siguiente m+1.
Ninguna de las anteriores.
8.
¿Cuál de las siguientes afirmaciones (a), b), c), o d)) sobre técnicas de coeficientes adaptativos es FALSA?
a) Las técnicas de coeficientes adaptativos incrementan la velocidad de convergencia, y en algunos casos también la
mejoran al permitir saltar mínimos locales.
b) El Steepest descent busca el descenso de gradiente más vertical, y es la técnica más rápida de coeficientes
adaptativos.
c) El Delta-bar-delta consiste en modificar el coeficiente de aprendizaje de forma inversamente proporcional al error
evaluado en ese momento.
d) El Momentum, o momento de inercia, tiene en cuenta una parte del historial de actualizaciones de los pesos.
e) Todas las anteriores afirmaciones son ciertas.
9.
Tomando como referencia los diagramas siguientes, que muestran la aplicación de una red entrenada a distintos
casos de clasificación, ¿para cuál de los problemas está PEOR inicializada la red?
a)
b)
c)
d)
e)
10. Un
a)
b)
c)
d)
e)
Para (a)
Para (b)
Para (c)
Igual en todos los casos
Ninguna de las anteriores
(a)
(b)
(c)
Vector de
pesos
Vector de
entradas
sistema bioinspirado pretende,
Medir parámetros de un proceso vivo.
Actuar sobre un sistema vivo.
Funcionar como lo hace un sistema electrónico.
Funcionar como lo hace un sistema vivo.
Ninguna de las anteriores
11. En una red SOM de Kohonen, con coeficiente de aprendizaje 0.5, criterio de distancia euclídea al cuadrado (
matriz de pesos
al realizar un paso de aprendizaje con el patrón
a)
La primera, de pesos
b)
La segunda, de pesos
c)
La tercera, de pesos
d)
e)
La cuarta, de pesos
Ninguna neurona ganará.
y
, la unidad ganadora será
12. Considerando los mismos datos de la pregunta 11, el peso actualizado correspondiente a la unidad ganadora será:
a) (0.85, 0.10, 0.05, 0.00)
b) (0.80, 0.10, 0.10, 0.00)
c) (0.80, 0.13, 0.07, 0.00)
d) (0.60, 0.40, 0.00, 0.00)
e) Ninguna de las anteriores.
13. ¿Qué afirmación es CIERTA acerca del Early Stopping (parada anticipada)?
a) No se utiliza nunca para solucionar fenómenos de memorización.
b) Se aplica a modelos de entrenamientos basados en descenso por gradiente.
c) El algoritmo de entrenamiento se detiene cuando el error relativo del conjunto de entrenamiento deja de
disminuir.
d) Tanto la a) como la c) son ciertas.
e) Todas son falsas.
14. Cual de las siguientes afirmaciones es cierta para las redes SOM:
a) El proceso de aprendizaje de una SOM es competitivo y supervisado.
b) El proceso de aprendizaje de una SOM es no-competitivo y no-supervisado.
c) El proceso de aprendizaje es no-competitivo y supervisado.
d) El proceso de aprendizaje es competitivo y no-supervisado.
e) Ninguna de las anteriores.
15. Cual de las siguientes afirmaciones es verdad para la red SOM usada en la Practica 3,
a) El algoritmo de Kohonen es usado para el entrenamiento.
b) El algoritmo de Backpropagation es usado para el entrenamiento.
c) Las redes SOM se pueden utilizar para la segmentación de imágenes.
d) La a) y la c) son ciertas.
e) Ninguna de las anteriores es cierta.
-------------------------------------------------------------------------------------------------------------------------Tema 1: (1 punto)
1. Enuncia y explica 2 razones por que el entrenamiento por epoca (batch) es mejor que el entrenamiento por
patrón (pattern), y 2 razones por que el entrenamiento por epoca (batch) es peor.
- 1ª Razón mejor:
* Explicación:
- 2ª Razón mejor:
* Explicación:
- 1ª Razón peor:
* Explicación:
- 2ª Razón peor:
* Explicación:
Problema 1: (3 puntos)
1. Estamos entrenado una red BPN como la de la figura con un coeficiente de aprendizaje de  = 0.8.
Importante: Este problema contiene 4 apartados y es necesario escribir las operaciones realizadas para conseguir los
resultados.
a)
Encuentra el valor de las salidas de la capa oculta cuando se presenta con patrón de entrenamiento

{ x =(0,1), t=1}, suponiendo una función de activación sigmoïdal binaria. (1 punto)
Utilizar tablas adjuntas para el cálculo de la función de activación sigmoïdal.
σ (0.0)=0.5
σ (0.5)=0.6
Σ (0.1)=0.5
Σ (0.6)=0.6
* Salida capa oculta =>

y
=(
σ (0.2)=0.5
σ (0.7)=0.7
,
σ (0.3)=0.6
σ (0.8)=0.7
σ (0.4)=0.6
σ (0.9)=0.7
)
- Cálculos:
b) Encuentra el valor de los términos de error (delta) de las salidas de la capa oculta. (1 punto)
Redondear a 1 decimal el resultado de la NET de la capa de salida para utilizar la tabla de sigmoideas. Y redondear
también a 1 decimal el término de error (delta) de la capa de salida, para facilitar las multiplicaciones.
Ejemplo redondeo a 1 decimal: 0.14=0.1; 0.15=0.2; 0.16=0.2;
Resultado final redondeado a 1 decimal.
* Valor de los términos de error (delta) =>
- Cálculos:


=(
,
)
c)
Encuentra el valor de los nuevos pesos de la capa de salida. (0.5 puntos)
Resultado final redondeado a 1 decimal.
* Valor de los nuevos pesos de la capa de salida =>
- Cálculos:

w
=(
,
)
d) Encuentra el valor de los nuevos bias de la capa de salida. (0.5 puntos)
Resultado final redondeado a 1 decimal.
* Valor de los nuevos bias de la capa de salida =>
- Cálculos:
b=
Descargar