Soluci n examen diciembre 2014

Anuncio
Inteligencia Artificial 4º
15 de diciembre del 2014
APELLIDOS:
NOMBRE:
Duración: 30 min
No se permiten móviles, libros, apuntes, ni calculadora
El examen consiste en preguntas de respuesta múltiple. Se deben completar las frases
que se muestran a continuación con las alternativas especificadas. En concreto, en cada
una de las casillas de la siguiente tabla, debe indicarse "V" o "F" para respuestas
verdaderas y falsas, respectivamente. Las respuestas acertadas suman 2 puntos, las
equivocadas restan 1 punto (sobre un total de 100 puntos)
Respuesta
(a)
(b)
(c)
(d)
(e)
1
F
V
V
F
F
2
V
F
F
V
V
3
F
F
F
F
V
4
F
F
V
F
F
5
V
V
V
F
V
6
F
F
V
V
F
7
V
F
F
V
F
8
V
F
F
F
V
9
V
F
F
F
F
10
F
V
F
V
F
Pregunta
Pág. 1 / 4
Inteligencia Artificial 4º
15 de diciembre del 2014
APELLIDOS:
Duración: 30 min
NOMBRE:
No se permiten móviles, libros, apuntes, ni calculadora
1. ¿Cuál(es) de las siguientes afirmaciones acerca del videojuego Buscaminas
(suministrado con Windows – ver figura) son verdaderas y cuáles son falsas?
(a) Es un juego bipersonal de suma nula.
(b) El entorno es discreto.
(c) El entorno es estático.
(d) El entorno es accesible.
(e) El juego es parcialmente cooperativo.
2. Sea S es conjunto de estados del mundo. El conocimiento a
priori de un agente de búsqueda incluye
(a) Un estado inicial s0∈S
(b) Una función acción: a
s que a cada acción a le
asigna un estado s∈S
(c) Una función suspensión: s
v; v∈ℵ que determina en qué nivel de
profundidad se deja de buscar
(d) Una función expandir: s
{s1, ..., sn} que asigna un conjunto finito de
sucesores si∈S a cada estado s∈S
(e) Una función meta?: s
verdad | falso que determina si un estado s∈S es un
estado meta
3. Contemple el problema de búsqueda de la figura 1. ¿Cuál es factor
de ramificación del árbol generado por la búsqueda en amplitud, si
no se filtran estados repetidos?
(a) 0.5
(b) 2
(c) 4
(d) 6
(e) 8
. . .
2
1
0 ...
...
−1
−2
. . .
−2
−1
0
1
2
4. Contemple el problema de búsqueda de la figura 1. Suponga que se Figura 1. Red 2D regular e infinito.
necesitan 2 movimientos desde el estado inicial para llegar al mejor • Estado inicial (0,0).
nodo meta. ¿Cuántos nodos expandiría la búsqueda en amplitud en el • Estado meta (x,y); x,y∈Z.
• Movimiento entre estados directamente
peor caso (suponiendo que no se filtran estados repetidos)?
conectados a coste 1
(a) 16
(b) 24
(c) 73
(d) 85
(e) Un número infinito de nodos.
Pág. 2 / 4
Inteligencia Artificial 4º
15 de diciembre del 2014
APELLIDOS:
Duración: 30 min
NOMBRE:
No se permiten móviles, libros, apuntes, ni calculadora
5. Si se aplica el algoritmo A* con una función heurística h1*, tal que h1*(n)=0 para
todos los nodos n, entonces
(a) la función h1* es optimista.
(b) se puede asegurar que el algoritmo A* es óptimo y completo.
(c) todas las funciones heurísticas optimistas h2* son más informadas que h1*.
(d) no existe ninguna función heurística optimistas h2* con la que el algoritmo
A* expande menos nodos que con h1*
(e) el algoritmo A* expande los mismos nodos que la búsqueda de coste
uniforme.
6. La incorporación de la poda α-β en el algoritmo Mínimax…
(a) …suele mejorar la calidad de la solución (i.e. se elige una mejor jugada que
el Mínimax simple)
(b) …en algunos casos, puede empeorar la calidad de la solución (i.e. es
posible que se elija una jugada peor que el Mínimax simple)
(c) …produce siempre la misma solución (i.e. se elige la misma jugada) que el
Mínimax simple.
(d) …puede mejorar la velocidad con la que se encuentra una solución (i.e. se
elige una jugada más rápidamente que el Mínimax simple)
(e) …suele empeorar la velocidad con la que se encuentra una solución (i.e. se
elige una jugada más lentamente que el Mínimax simple)
7. ¿Cuáles de las siguientes afirmaciones acerca de los problemas de satisfacción de
restricciones es (son) verdadera(s)?
(a) El algoritmo de vuelta atrás cronológica (cronological backtracking) realiza
una búsqueda en profundidad en el espacio de asignaciones parciales de
valores a variables.
(b) El algoritmo de vuelta atrás cronológica (cronological backtracking) realiza
una búsqueda en amplitud en el espacio de asignaciones totales de valores a
variables.
(c) El algoritmo MAC (Maintaining Arc Consistency) combina el algoritmo de
comprobación hacia delante (forward checking) y el algoritmo de arco
consistencia.
(d) El algoritmo MAC (Maintaining Arc Consistency) combina el algoritmo de
vuelta atrás cronológica (cronological backtracking) y el algoritmo de arco
consistencia.
(e) El algoritmo de comprobación hacia delante (forward checking) realiza una
búsqueda A* en el espacio de asignaciones totales de valores a variables.
Pág. 3 / 4
Inteligencia Artificial 4º
15 de diciembre del 2014
APELLIDOS:
Duración: 30 min
NOMBRE:
No se permiten móviles, libros, apuntes, ni calculadora
8. Sea X = {A,B,C} un conjunto de variables y R = {RA,B, RA,C, RB,C,} un conjunto de
restricciones tal que RA,B ≡ (A = B * 2); RA,C ≡ (A > C); y
RB,C ≡ (B ≠ C). ¿Con cual(es) de los siguientes conjuntos de dominios
D = {DA,DB,DC} se formaría un Problema de Satisfacción de Restricciones (X,D,R)
que es arco-consistente?
(a) DA = {2,4}; DB = {1,2}; DC = {1,3}
(b) DA = {2,4}; DB = {2}; DC = {1}
(c) DA = {2,3,4}; DB = {1,2}; DC = {}
(d) DA = {2,4,6} DB = {1,2,3}; DC = {1}
(e) DA = {2,4,6} DB = {1,2,3}; DC = {0}
9. La Anomalía de Susmann descubre el hecho de que
(a)
la planificación con heurística STRIPS no siempre es óptima
(b)
la planificación con heurística STRIPS no siempre es completa.
(c)
en la planificación con heurística STRIPS es anormal que haya una
regresión de operadores
(d)
en la planificación con heurística STRIPS es anormal que haya estados
repetidos
(e)
el algoritmo A* se comporta de forma anormal si h*=0 para todos los nodos
n
10. ¿Cuáles de las siguientes afirmaciones acerca de los algoritmos de aprendizaje son
verdaderas y cuáles son falsas?
(a) El aprendizaje inductivo infiere hechos concretos a partir de predicados más
generales.
(b) El algoritmo ID3 para aprender árboles de decisión es un ejemplo de
aprendizaje inductivo.
(c) El algoritmo ID3 para aprender árboles de decisión es un algoritmo de
aprendizaje no supervisado.
(d) El Q-learning es un algoritmo de aprendizaje no supervisado.
(e) Dado un problema de clasificación binaria, con 30 ejemplos pertenecientes a
la clase A y 30 ejemplos pertenecientes a la clase B, un clasificador que
clasifica correctamente el 40% de los ejemplos es mejor que un clasificador
que asigna a cada ejemplo una de las clases de manera aleatoria.
Pág. 4 / 4
Descargar