Tema 5 - Dpto. Ciencias de la Computación e Inteligencia Artificial

Anuncio
Inteligencia Artificial II
Razonamiento con incertidumbre
J. L. Ruiz Reina
Dpto. Ciencias de la Computación e Inteligencia Artificial
Universidad de Sevilla
Inteligencia Artificial II - Tema 5 – p. 1/41
Contenido
•
•
•
•
•
•
•
•
Incertidumbre y conocimiento
Variables aleatorias
Probabilidad incondicional
Probabilidad condicional: inferencia probabilística
Independencia
La regla de Bayes
Independencia condicional
Ejemplos de razonamiento probabilístico
Inteligencia Artificial II - Tema 5 – p. 2/41
Incertidumbre y conocimiento
• Ejemplo de regla
Si S INTOMA=DOLOR DE MUELAS
Entonces E NFERMEDAD=CARIES
• ¿Expresa esta regla un conocimiento correcto?
• Quizás sería mejor un conocimiento más exhaustivo
Si S INTOMA=DOLOR DE MUELAS
Entonces E NFERMEDAD=CARIES O
E NFERMEDAD=SINUSITIS O
E NFERMEDAD=MUELA DEL JUICIO O
...
Inteligencia Artificial II - Tema 5 – p. 3/41
Inconvenientes del conocimiento categórico
• ¿Por qué a veces el conocimiento exacto y preciso no nos sirve?
• Posibles razones
Demasiado trabajo ser exhaustivo
• Desconocimiento teórico: no tenemos información completa
• Desconocimiento práctico: aún conociendo todas las reglas, no
podemos aplicarlas
•
Inteligencia Artificial II - Tema 5 – p. 4/41
Incertidumbre y conocimiento
• Otra forma de expresar el conocimiento: grado de creencia
Creemos, basándonos en nuestras percepciones, que un paciente
que tenga dolor de muelas, tiene caries con una probabilidad del
80%
• En teoría de la probabilidad, se expresa como
P (Caries = true|Dolor = true) = 0.8
• La probabilidad expresa el grado de creencia, no el grado de verdad
• Por tanto, la probabilidad puede cambiar a medida que se conocen
nuevas evidencias
•
• La teoría de la probabilidad servirá como medio de representación de
conocimiento incierto
Inteligencia Artificial II - Tema 5 – p. 5/41
Variables aleatorias
• Variables aleatorias: una “parte” del mundo cuyo estado podemos
desconocer
Ejemplo: la variable aleatoria Caries describe el hecho de que un
paciente pueda o no tener caries
• Nuestra descripción del mundo vendrá dada por un conjunto de
variables aleatorias
•
• Una variable aleatoria puede tomar diferentes valores de su dominio
Los posibles valores de Caries son true y f alse
• Notación: variables aleatorias en mayúsculas y sus valores en
minúsculas
•
Inteligencia Artificial II - Tema 5 – p. 6/41
Variables aleatorias
• Tipos de variables aleatorias:
Booleanas (notación: caries y ¬caries son equivalentes a
Caries = true y Caries = f alse, respectivamente)
• Discretas (incluyen a las booleanas)
• Continuas
•
• En lo que sigue, nos centraremos en las variables discretas
Inteligencia Artificial II - Tema 5 – p. 7/41
Proposiciones
• Usando las conectivas proposicionales y las variables aleatorias,
podemos expresar proposiciones
• Ejemplos:
caries ∧ ¬dolor
• Caries = true ∨ T iempo = nublado
• T irada1 = 5 ∧ (T irada2 = 4 ∨ T irada2 = 5 ∨ T irada2 = 6)
•
• Asignaremos probabilidades a las proposiciones para expresar nuestro
grado de creencia en las mismas
Inteligencia Artificial II - Tema 5 – p. 8/41
Eventos atómicos
• Dado un conjunto de variables aleatorias que describen nuestro
“mundo”, un evento atómico es un tipo particular de proposición
•
Conjunción de proposiciones elementales, que expresan un valor
concreto para todas y cada una de las variables
• Ejemplo: si Caries y Dolor son todas las variables aleatorias en
nuestra descripción del mundo, los posibles eventos atómicos son
caries ∧ dolor
• caries ∧ ¬dolor
• ¬caries ∧ dolor
• ¬caries ∧ ¬dolor
•
Inteligencia Artificial II - Tema 5 – p. 9/41
Eventos atómicos
• Características de los eventos atómicos:
Mútuamente excluyentes
• Todos los eventos atómicos son exhaustivos (alguno debe ocurrir)
• Un evento atómico implica la verdad o falsedad de toda proposición
• Toda proposición es equivalente a la disyunción de un conjunto de
eventos atómicos: por ejemplo, caries es equivalente a
(caries ∧ dolor) ∨ (caries ∧ ¬dolor)
•
Inteligencia Artificial II - Tema 5 – p. 10/41
Probabilidad incondicional
• Probabilidad incondicional (o a priori) asociada a una proposición a
Grado de creencia sobre a, en ausencia de cualquier otra
información o evidencia, notada P (a)
• Ejemplo: P (caries) = 0.1, P (caries ∧ ¬dolor) = 0.05
• Notación: P (caries, ¬dolor) es equivalente a P (caries ∧ ¬dolor)
•
• Distribución de probabilidad de una variable aleatoria
Ejemplo: T iempo es una v.a. con valores lluvia, sol, nubes y nieve;
una distribución de probabilidad viene dada por las probabilidades
de que la variable pueda tomar los diferentes valores
• P (T iempo = sol) = 0.7, P (T iempo = lluvia) = 0.2,
P (T iempo = nubes) = 0.08, P (T iempo = nieve) = 0.02
•
Inteligencia Artificial II - Tema 5 – p. 11/41
Probabilidad incondicional
• Notación: usaremos P (en negrita), para expresar de manera compacta
una distribución de probabilidad (fijado un orden entre sus valores)
•
Ejemplo: P (T iempo) = h0.7, 0.2, 0.08, 0.02i
• Distribución de probabilidad conjunta: probabilidad de cada
combinación de valores de dos o más variables aleatorias
Notación P (X, Y ): manera compacta de denotar a una tabla con
esas probabilidades
• P (T iempo, Caries) denota una tabla con 4 × 2 entradas
•
• Distribución de probabilidad conjunta y completa (DCC): probabilidad
de cada evento atómico
•
Una DCC es una especificación completa de la incertidumbre que
se tiene sobre el “mundo” descrito
Inteligencia Artificial II - Tema 5 – p. 12/41
Probabilidad condicional
• Probabilidad condicional (o a posteriori) asociada a a dada b (a y b
proposiciones):
Grado de creencia sobre a, dado que todo lo que sabemos es que b
ocurre, notada P (a|b)
• Ejemplo: P (caries|dolor) = 0.8 significa que una vez sabido que un
paciente tiene dolor de muelas (y sólamente sabemos eso), nuestra
creencia es que el paciente tendrá caries con probabilidad 0.8
•
Inteligencia Artificial II - Tema 5 – p. 13/41
Probabilidad condicional
• Relación entre probabilidad condicional e incondicional:
•
P (a|b) =
P (a∧b)
P (b) ,
o también
P (a ∧ b) = P (a|b)P (b) (regla del producto)
• O, análogamente, P (a ∧ b) = P (b|a)P (a)
•
• Notación P (X|Y ) para expresar la tabla de probabilidades
condicionales
Forma compacta de la regla del producto: P (X, Y ) = P (X|Y )P (Y )
• Nota: la fórmula anterior no expresa un producto de matrices, sino
la relación existente entre las correspondientes entradas de las
tablas
•
Inteligencia Artificial II - Tema 5 – p. 14/41
Probabilidad condicional vs implicación lógica
• La probabilidad condicional formaliza el hecho de que los grados de
creencia se actualizan a medida que se van conociendo nuevas
evidencias en el mundo incierto
• La probabilidad condicional no es lo mismo que una implicación lógica
con incertidumbre
P (a|b) = 0.8 no es lo mismo que decir que “siempre que b sea
verdad, entonces P (a) = 0.8”
• Ya que P (a|b) refleja que b es la única evidencia conocida
•
Inteligencia Artificial II - Tema 5 – p. 15/41
Axiomas de probabilidad
• Interpretación de la función P
Frecuentista: casos posibles entre casos totales
• Subjetiva: grado de creencia basado en nuestras percepciones
•
• Axiomas sobre la función de probabilidad
0 ≤ P (a) ≤ 1
• P (true) = 1 y P (f alse) = 0 donde true y f alse representan a
cualquier proposición tautológica o insatisfactible, respectivamente
• P (a ∨ b) = P (a) + P (b) − P (a ∧ b)
•
Inteligencia Artificial II - Tema 5 – p. 16/41
Cálculo de probabilidades
• El cálculo de probabilidades se construye sobre los tres axiomas
anteriores. Por ejemplo:
P (¬a) = 1 − P (a)
Pn
•
i=1 P (D = di ) = 1, siendo D una v.a. y di , i = 1, . . . , n sus
posibles valores
P
• P (a) =
ei ∈e(a) P (ei ), siendo a una proposición y e(a) el conjunto
de eventos atómicos cuya disyunción es equivalente a a
•
Inteligencia Artificial II - Tema 5 – p. 17/41
Inferencia probabilı́stica
• Por inferencia probabilística entendemos el cálculo de la probabilidad
de una proposición dada condicionada por la observación de
determinadas evidencias
Es decir, cálculos del tipo P (a|b) donde a es la proposición que se
consulta y b es la proposición que se ha observado
• El conocimiento base vendrá dado por una DCC (representada de
alguna manera eficiente, como ya veremos)
•
• Ejemplo de DCC:
caries
¬caries
dolor
hueco
dolor
¬hueco
¬dolor
hueco
¬dolor
¬hueco
0.108
0.016
0.012
0.064
0.072
0.144
0.008
0.576
Inteligencia Artificial II - Tema 5 – p. 18/41
Inferencia probabilı́stica a partir de una DCC
• Cálculo P
de probabilidades incondicionales basado en la ecuación
P (a) =
ei ∈e(a) P (ei )
P (caries ∨ dolor) =
P (caries, dolor, hueco) + P (caries, dolor, ¬hueco) +
P (caries, ¬dolor, hueco) + P (caries, ¬dolor, ¬hueco) +
P (¬caries, dolor, hueco) + P (¬caries, dolor, ¬hueco) =
0.108 + 0.012 + 0.072 + 0.008 + 0.016 + 0.064 = 0.28
• P (caries) =
P (caries, dolor, hueco) + P (caries, dolor, ¬hueco) +
P (caries, ¬dolor, hueco) + P (caries, ¬dolor, ¬hueco) =
0.108 + 0.012 + 0.072 + 0.008 = 0.2
•
Inteligencia Artificial II - Tema 5 – p. 19/41
Inferencia probabilı́stica a partir de una DCC
• En general:
P
P (Y ) = z P (Y , z) (regla de marginalización)
• Notación
•
Y es un vector de variables aleatorias, simbolizando cualquier
combinación de valores de esas variables
• z representa una combinación de valores concretos para un
conjunto Z de variables aleatorias (las restantes)
• Hay un sumando para cada posible z
P
• Variante: P (Y ) = z P (Y |z) · P (z) (regla de condicionantes)
•
Inteligencia Artificial II - Tema 5 – p. 20/41
Inferencia probabilı́stica a partir de una DCC
• Podemos calcular probabilidades condicionales usando la DCC
• Por ejemplo: probabilidad de tener caries, observado que hay dolor
P (caries ∧ dolor)
P (caries|dolor) =
=
P (dolor)
=
0.108 + 0.012
= 0.6
0.108 + 0.012 + 0.016 + 0.064
• Como comprobación podemos calcular el opuesto, de la misma manera
P (¬caries ∧ dolor)
P (¬caries|dolor) =
=
P (dolor)
0.016 + 0.064
=
= 0.4
0.108 + 0.012 + 0.016 + 0.064
Inteligencia Artificial II - Tema 5 – p. 21/41
Inferencia probabilı́stica a partir de una DCC
• P (dolor) puede verse como una constante que normaliza la
distribución P (Caries|dolor) haciendo que sume 1:
P (Caries|dolor) = αP (Caries, dolor) =
= α[P (Caries, dolor, hueco) + P (Caries, dolor, ¬hueco)] =
= α[h0.108, 0.016i + h0.012, 0.064i] = αh0.12, 0.08i = h0.6, 0.4i
Inteligencia Artificial II - Tema 5 – p. 22/41
Inferencia probabilı́stica a partir de una DCC
• En general, dada una variable aleatoria X , un conjunto de variables
observadas E (con valor concreto e), se tiene:
P (X|e) = αP (X, e) = α
X
P (X, e, y)
y
un sumando para cada combinación y de valores de las variables
restantes Y no observadas
• α es una constante de normalización, que hace que la distribución
de probabilidades sume 1
•
Inteligencia Artificial II - Tema 5 – p. 23/41
Inferencia probabilı́stica a partir de una DCC
• Dada una DCC, la fórmula anterior nos da un método para realizar
inferencia probabilística
• Problema en la práctica: exponencialidad
Con n variables, procesar la DCC necesita un tiempo O(2n )
• En un problema real, podría haber cientos o miles de variables
•
• Sin embargo, veremos que la posible independencia existente entre los
eventos que describen las distintas variables aleatorias nos puede
ayudar a reducir esta complejidad
Inteligencia Artificial II - Tema 5 – p. 24/41
Independencia probabilı́stica
• En muchos casos prácticos, algunas de las variables de un problema
son independientes entre sí
Ejemplo:
P (T iempo = nublado|dolor, caries, hueco) = P (T iempo = nublado)
• Si la variable T iempo (con 4 posibles valores) formara parte de una
descripción en la que están Caries, Hueco y Dolor:
• No necesitaríamos una tabla con 32 entradas para describir la
DCC, sino dos tablas independientes (8+4 entradas)
• Esto reduce la complejidad de la representación
•
Inteligencia Artificial II - Tema 5 – p. 25/41
Independencia probabilı́stica
• Dos variables aleatorias X e Y son independientes si P (X|Y ) = P (X)
(equivalentemente, P (Y |X) = P (Y ) ó P (X, Y ) = P (X) · P (Y ))
•
En general, dos proposiciones a y b son independientes si
P (a|b) = P (a)
• Asumir independencia entre ciertas variables ayuda a que la
representación del mundo sea más manejable
Reduce la exponencialidad (factorización del problema)
• El asumir que dos variables son independientes está basado
normalmente en el conocimiento previo del dominio que se modela
•
Inteligencia Artificial II - Tema 5 – p. 26/41
La regla de Bayes
• De P (a ∧ b) = P (a|b)P (b) = P (b|a)P (a) podemos deducir la siguiente
fórmula, conocida como regla de Bayes
P (a|b)P (b)
P (b|a) =
P (a)
• Regla de Bayes para variables aleatorias:
P (X|Y )P (Y )
P (Y |X) =
P (X)
•
recuérdese que esta notación representa un conjunto de
ecuaciones, una para cada valor específico de las variables
• Generalización, en presencia de un conjunto e de observaciones:
P (X|Y, e)P (Y |e)
P (Y |X, e) =
P (X|e)
Inteligencia Artificial II - Tema 5 – p. 27/41
Uso de la regla de Bayes
• La regla de Bayes nos permite diagnosticar en función de nuestro
conocimiento de relaciones causales
• Ejemplo:
Sabemos que la probabilidad de que un paciente de meningitis
tenga el cuello hinchado es 0.5 (relación causal)
• También sabemos la probabilidad (incondicional) de tener
1
meningitis ( 50000
) y de tener el cuello hinchado (0.05)
• Estas probabilidades provienen del conocimiento y la experiencia
• La regla de Bayes nos permite diagnosticar la probabilidad de tener
meningitis una vez que se ha observado que el paciente tiene el
cuello hinchado
•
1
0.5 × 50000
P (h|m)P (m)
=
= 0.0002
P (m|h) =
P (h)
0.05
Inteligencia Artificial II - Tema 5 – p. 28/41
Uso de la regla de Bayes
• Una variante del ejemplo anterior:
•
Si M es una variable aleatoria booleana, podríamos calcular con la
siguiente fórmula, donde α es el factor de normalización
P (M |h) = αhP (h|m)P (m), P (h|¬m)P (¬m)i
•
Respecto de lo anterior, esto evita el cálculo de P (m) pero obliga a
saber P (h|¬m)
• Versión para variables aleatorias: P (Y |X) = αP (X|Y )P (Y )
Inteligencia Artificial II - Tema 5 – p. 29/41
Uso de la regla de Bayes
• ¿Por qué calcular el diagnóstico en función del conocimiento causal y
no al revés?
Porque es más fácil y robusto disponer de probabilidades causales
que de probabilidades de diagnóstico
• La información probabilística está generalmente disponible en la
forma P (ef ecto|causa)
• Y usamos la regla de Bayes para calcular P (causa|ef ecto)
•
Inteligencia Artificial II - Tema 5 – p. 30/41
La regla de Bayes: combinando evidencias
• Cuando manejamos varias variables para representar distintas
evidencias (y es lo habitual), el uso de la regla de Bayes puede
necesitar una cantidad exponencial de probabilidades de tipo
P (ef ecto|causa)
• Un ejemplo
Supongamos que tenemos evidencias sobre oquedades en los
dientes (Hueco) y sobre dolor en el paciente (Dolor), y queremos
diagnosticar si tiene caries (Caries)
• Por la regla de Bayes:
P (Caries|Dolor, Hueco) = αP (Dolor, Hueco|Caries)P (Caries)
•
Inteligencia Artificial II - Tema 5 – p. 31/41
Evidencias múltiples y exponencialidad
• En general, si se tienen n variables booleanas de evidencia,
deberiamos tener 2n probabilidades condicionales (por cada valor de
una variable de diagnóstico) en nuestra base de conocimiento
• Esta exponencialidad no se maneja bien desde el punto de vista
práctico
• Nuevamente, asumir cierta noción de independencia entre variables
simplificará la cuestión
Inteligencia Artificial II - Tema 5 – p. 32/41
Independencia condicional
• Sin embargo, en nuestro ejemplo Dolor y Hueco no son independientes
•
Ambas dependen de Caries
• Pero son independientes una vez conocido el valor de Caries
Es decir: P (Dolor|Hueco, Caries) = P (Dolor|Caries) o
equivalentemente P (Hueco|Dolor, Caries) = P (Hueco|Caries)
• También equivalente:
P (Hueco, Dolor|Caries) = P (Hueco|Caries)P (Dolor|Caries)
•
• En general, dos v.a. X e Y son independientes dada una v.a. Z si
P (X, Y |Z) = P (X|Z)P (Y |Z)
•
O equivalentemente P (X|Y, Z) = P (X|Z) ó P (Y |X, Z) = P (Y |Z)
Inteligencia Artificial II - Tema 5 – p. 33/41
Independencia condicional
• La existencia de relaciones de independencia condicional simplifica la
inferencia probabilística
P (Caries|Dolor, Hueco) =
= αP (Dolor|Caries)P (Hueco|Caries)P (Caries)
Sólo es necesario saber las probabilidades causales de cada
variable por separado
• Esto “reduce” la exponencialidad
•
Inteligencia Artificial II - Tema 5 – p. 34/41
Independencia condicional
• La independencia condicional entre algunas variables es esencial para
un almacenamiento eficiente de las DCCs. Por ejemplo
P (Dolor, Hueco, Caries) = P (Dolor, Hueco|Caries)P (Caries) =
= P (Dolor|Caries)P (Hueco|Caries)P (Caries)
•
En lugar de tener una tabla con 7 números independientes sólo
necesitamos 5 números independientes (en tres tablas)
Inteligencia Artificial II - Tema 5 – p. 35/41
Independencia condicional
• Si Caries tuviera n efectos independientes entre sí (dado Caries), el
tamaño de la representación de la DCC crece O(n) en lugar de O(2n )
• En general, con una Causa con n efectos Ei independientes entre sí
dado Causa, se tiene
P (Causa, E1 , . . . , En ) = P (Causa)
Y
P (Ei |Causa)
i
• No siempre se dan estas condiciones de independencia tan fuertes,
aunque a veces compensa asumirlas
Inteligencia Artificial II - Tema 5 – p. 36/41
Ejemplo
• Consideremos la siguiente información sobre el cáncer de mama
Un 1% de las mujeres de más de 40 años que se hacen un chequeo
tienen cáncer de mama
• Un 80% de las que tienen cáncer de mama se detectan con una
mamografía
• El 9.6% de las que no tienen cáncer de mama, al realizarse una
mamografía se le diagnostica cáncer erróneamente
•
Inteligencia Artificial II - Tema 5 – p. 37/41
Ejemplo
• Pregunta 1: ¿cuál es la probabilidad de tener cáncer si la mamografía
así lo diagnostica?
Variables aleatorias: C (tener cáncer de mama) y M (mamografía
positiva)
• P (C|m) = αP (C, m) = αP (m|C)P (C) =
αhP (m|c)P (c), P (m|¬c)P (¬c)i = αh0.8 · 0.01, 0.096 · 0.99i =
αh0.008, 0.09504i = h0.0776, 0.9223i
• Luego el 7.8% de las mujeres diagnosticadas positivamente con
mamografía tendrán realmente cáncer de mama
•
Inteligencia Artificial II - Tema 5 – p. 38/41
Ejemplo
• Pregunta 2: ¿cuál es la probabilidad de tener cáncer si tras dos
mamografías consecutivas en ambas se diagnostica cáncer?
•
•
•
•
•
Variables aleatorias: M1 (primera mamografía positiva) y M2
(segunda mamografía positiva)
Obviamente, no podemos asumir independencia incondicional entre
M1 y M2
Pero es plausible asumir independencia condicional de M1 y M2
dada C
Por tanto, P (C|m1 , m2 ) = αP (C, m1 , m2 ) = αP (m1 , m2 |C)P (C) =
αP (m1 |C)P (m2 |C)P (C) =
αhP (m1 |c)P (m2 |c)P (c), P (m2 |¬c)P (m2 |¬c)P (¬c)i =
αh0.8 · 0.8 · 0.01, 0.096 · 0.096 · 0.99i = h0.412, 0.588i
Luego aproximadamente el 41% de las mujeres doblemente
diagnosticadas positivamente con mamografía tendrán realmente
cáncer de mama
Inteligencia Artificial II - Tema 5 – p. 39/41
Redes Bayesianas
• En general, las relaciones de independencia condicional permiten
simplificar drásticamente las DCCs, haciendo que se puedan usar en la
práctica
• Las Redes Bayesianas constituyen un método de representación de
DCCs que saca partido a las relaciones de independencia condicional
Permitiendo un tratamiento manejable de la inferencia probabilística
• Es lo que veremos en el próximo tema
•
Inteligencia Artificial II - Tema 5 – p. 40/41
Bibliografı́a
• Russell, S. y Norvig, P. Inteligencia artificial (Un enfoque moderno)
(Prentice–Hall Hispanoamericana, 1996)
•
Cap. 13: “Incertidumbre”
Inteligencia Artificial II - Tema 5 – p. 41/41
Descargar