Cadenas de Markov

Anuncio
Probabilidad condicional - CADENAS DE MARKOV
2.3
CADENAS DE MARKOV
Procesos estocásticos
Supóngase que una oficina de negocios tiene cinco líneas telefónicas y que en un
instante de tiempo dado puede haber un número cualquiera de líneas ocupadas. Durante
un periodo de tiempo se observan las líneas telefónicas a intervalos regulares de 2
minutos y se anota el número de líneas ocupadas en cada momento. Sea X1 el número
de líneas ocupadas cuando se observan al principio del periodo; sea X2 el número de
líneas ocupadas cuando se observan en el segundo instante de tiempo, 2 minutos
más tarde; y en general, para n = 1,2,..., sea Xn el número de líneas ocupadas cuando
se observan en el instante de tiempo n-ésimo.
La sucesión de observaciones X1, X2 ...., se denomina proceso estocástico, o proceso aleatorio, porque los valores de estas observaciones no se pueden predecir
exacta-mente de antemano, pero se pueden especificar las probabilidades para los
distintos valores posibles en cualquier instante de tiempo. Un proceso estocástico como
el que se acaba de describir se llama proceso de parámetro discreto, ya que las líneas
se observan solamente en puntos discretos o separados en el tiempo, en lugar de
continuamente en el tiempo.
En un proceso estocástico la primera observación X1 se denomina estado inicial
del proceso y para n = 2, 3,..., la observación Xn se denomina estado del proceso
en el instante de tiempo n. En el ejemplo anterior, el estado del proceso en cualquier
instante de tiempo es el número de líneas que están siendo utilizadas en ese instante.
Por tanto, cada estado debe ser un entero entre 0 y 5. En el resto del capítulo se
considerarán únicamente procesos estocásticos para los cuales sólo existe un número
finito de estados posibles en cualquier tiempo determinado.
En un proceso estocástico de parámetro discreto, el estado del proceso varía
aleatoriamente en cada instante. Para describir un modelo de probabilidad
completo para un proceso, es necesario especificar una probabilidad para cada uno
de los valores posibles del estado inicial X1 y especificar también, para cada uno de
los sucesivos estados xn+1 (n = 1,2,...), la siguiente probabilidad condicional:
Pr(Xn +1 = x n+1 │X 1 = x 1 ,X 2 = x 2 ,... ,X n = x n ).
En otras palabras, para cada instante de tiempo n, el modelo de probabilidad
debe especificar la probabilidad condicional de que el proceso esté en el estado
x n+1 en el tiempo n + 1, dado que en los instantes de tiempo 1,..., n el
proceso estaba en los estados, x 1 ... X n .
Cadenas de Markov
Definición. Una cadena de Markov es un tipo especial de proceso estocástico,
que se puede describir como sigue: En cualquier instante de tiempo n dado,
cuando el estado actual Xn y todos los estados previos X1,..., Xn-1 del proceso
son conocidos, las probabilidades de los estados futuros Xj (j > n) dependen
solamente del estado actual Xn y no dependen de los estados anteriores X1,... ,
Xn-1. Formalmente, una cadena de Markov es un proceso estocástico tal que
para n = 1,2,... y para cualquier sucesión posible de estados xi,x2 , ...,x n + i,
Pr( X n+1 = x n+1 │X 1 = x 1 , X 2 = x 2 ,..., X n = x n ) = Pr(X n+1 = x n+1 │X n = x n ) .
Probabilidad y Estadística
Probabilidad condicional - CADENAS DE MARKOV
Utilizando la regla de la multiplicación para probabilidades condicionales
presentada en la sección 2.1 se deduce que las probabilidades de una cadena de
Markov deben satisfacer la relación
Pr(X 1 = x 1 , X 2 = x 2 ,... ,X n = x n ) = Pr( X 1 = x 1 ) Pr( X 2 = x 2 │X 1 = x 1 ) =
Pr(X 3 = x 3 │X 2 = x 2 ).. Pr ( X n = x n |X n-1 = x n-1 )
Cadenas de Markov finitas con probabilidades de transición estacionarias. Se
considerará ahora una cadena de Markov para la cual existe sólo un número finito k
de estados posibles s1,..., Sk y en cualquier instante de tiempo la cadena debe estar
en uno de estos k estados. Una cadena de Markov de este tipo se denomina
cadena de Markov finita. La probabilidad condicional Pr(Xn+1 = sj │Xn = si) de
que la cadena de Markov esté en el estado sj en el instante de tiempo n + 1 si está
en el estado s, en el instante de tiempo n se denomina probabilidad de transición.
Si para una cadena de Markov esta probabilidad de transición tiene el mismo valor
para todos los instantes de tiempo n (n = 1,2,...), se dice que la cadena de Markov
tiene probabilidades de transición estacionarias. En otras palabras, una cadena de
Markov tiene probabilidades de transición estacionarias si, para cualquier par de
estados si y sj, existe una probabilidad de transición pij tal que
Pr (X n + 1 = s j \ X n = si) = pij
para n = 1 , 2 , . . .
Para ilustrar la aplicación de estas definiciones se considerará de nuevo el
ejemplo de la oficina con cinco líneas telefónicas. Para que este proceso estocástico
sea una cadena de Markov, la probabilidad de cada posible número de líneas
ocupadas en cualquier instante de tiempo deben depender solamente del número
de líneas que estaban ocupadas cuando el proceso fue observado 2 minutos antes y
no debe depender de ninguno de los otros valores observados obtenidos
previamente. Por ejemplo, si en el instante de tiempo n había tres líneas
ocupadas, entonces la probabilidad especificada para el instante de tiempo n + 1
debe ser la misma, con independencia de si estaban ocupadas 0, 1, 2, 3, 4 ó 5
líneas en el instante de tiempo n — 1. En realidad, sin embargo, la observación
en el instante de tiempo n — 1 podría proporcionar información sobre el tiempo
que cada una de las tres líneas en uso en el instante de tiempo n había estado
ocupada y esta información podría ser útil para determinar la probabilidad en
el instante de tiempo n + 1. No obstante, se supone que este proceso es una
cadena de Markov. Si esta cadena de Markov ha de tener probabilidades de
transición estacionarias, debe verificarse que la proporción entre llamadas
telefónicas entrantes y salientes y el promedio de duración de las mismas no
cambie durante el periodo cubierto por el proceso. Este requisito significa que el
periodo completo no puede incluir intervalos de tiempo densos en que se
esperan más llamadas o intervalos de tiempo tranquilos en qué se esperan pocas
llamadas. Por ejemplo, si en un instante de tiempo, sea cual sea, sólo hay una
línea ocupada, entonces debe haber una probabilidad específica p1j de que 2
minutos más tarde exactamente j líneas estén en uso.
Probabilidad y Estadística
Probabilidad condicional - CADENAS DE MARKOV
Matriz de transición
Matriz de transición para un sólo paso. Considérese una cadena de Markov
con k estados posibles s1,..., sk y probabilidades de transición estacionarias.
Para i = 1,..., k y j = 1,..., k, se denota de nuevo por pij la probabilidad
condicional de que el proceso esté en el estado sj en un instante de tiempo si está
en el estado si, en el instante anterior. La matriz de transición de la cadena de
Markov se define como la matriz k x k P con elementos pij Por tanto,
P =
p 11 … p 1k
p21 … p2k
…………….
pk1 … pkk
(1)
Probabilidad y Estadística
Probabilidad condicional - CADENAS DE MARKOV
Una matriz cuadrada cuyos elementos son no negativos y en la que la suma de
los elementos de cada fila es 1 se denomina matriz estocástica. Resulta pues
que la matriz; transición P de cualquier cadena de Markov finita con
probabilidades de transición estacionarias debe ser una matriz estocástica.
Inversamente, cualquier matriz estocástica x k puede servir como la matriz de
transición de una cadena de Markov con k estados posibles y probabilidades de
transición estacionaria.
Ejemplo 1: Matriz de transición para el número de líneas telefónicas ocupadas.
Supóngase que en el ejemplo de la oficina con cinco líneas telefónicas los
números de líneas que están siendo utilizadas en los instantes de tiempo 1,2,...
constituyen una cadena de Markov con probabilidades de transición
estacionarías. Esta cadena tiene seis estados posibles b0, b1, … b5, donde bi, es el
estado en el que se están utilizando exactamente i líneas en un instante de tiempo
determinado (i = 0,1,..., 5). Supóngase que la matriz de transición P es la
siguiente:
(a) Suponiendo que las cinco líneas están ocupadas en un instante de tiempo
concreto, se determinará la probabilidad de que en el siguiente instante de
tiempo haya exactamente cuatro líneas ocupadas, (b) Suponiendo que en un
instante de tiempo no hay ninguna línea ocupada, se determinará la probabilidad
de que en el instante de tiempo siguiente haya al menos una línea ocupada.
(a) Esta probabilidad es el elemento de la matriz P en la fila
correspondiente al estado 65 y la columna correspondiente al estado b4. Se
observa que este valor es 0.4.
(b) Si en un instante de tiempo no hay ninguna línea ocupada, entonces el
elemento de la esquina superior izquierda de la matriz P proporciona la
probabilidad de que en el instante siguiente no haya ninguna línea ocupada. Se
observa que este valor es 0.1.
Por tanto, la probabilidad de que en el siguiente instante de tiempo se esté
utilizando al menos un línea es 1 - 0.1 = 0,9.
Matriz de transición para varios pasos. Considérese de nuevo una cadena de
Markov arbitraría con k estados posibles s1,..., sk y la matriz de transición P de
la ecuación (1) y supóngase que la cadena está en el estado si en un instante de
tiempo n. Se determinará ahora la probabilidad de que la cadena esté en el estado
sj en el instante de tiempo n + 2. En otras palabras, se determinará la probabilidad
de que la cadena pase del estado s¡ al estado sj en dos pasos. La notación para
esta probabilidad es
Para n = 1,2,..., sea Xn el estado de la cadena en el instante de tiempo n.
Entonces, si sr representa el estado al que ha pasado la cadena en el instante de
tiempo n + 1,
Probabilidad y Estadística
Probabilidad condicional - CADENAS DE MARKOV
Ejemplo 2: Matrices de transición de dos y tres pasos para el número de líneas
telefónicas ocupadas. Considérese nuevamente la matriz de transición P de la
ecuación (2) para la cadena de Markov basada en cinco líneas telefónicas.
Supóngase en primer lugar que en un instante de tiempo hay i líneas ocupadas y
se determinará la probabilidad de que dos instantes de tiempo después haya
exactamente j líneas ocupadas.
Si se multiplica la matriz P por sí misma, se obtiene la siguiente matriz de
transición de dos pasos:
A partir de esta matriz se puede calcular cualquier probabilidad de transición de
dos pasos le la cadena como sigue:
(1) Si dos líneas están ocupadas en un instante de tiempo concreto, entonces la
probabilidad de que dos instantes después haya cuatro líneas ocupadas es
0.17.
(2) Si en un instante de tiempo hay tres líneas ocupadas, entonces la probabilidad
de que dos instantes después haya de nuevo tres líneas ocupadas es 0.20.
Supóngase ahora que i líneas están ocupadas en un instante de tiempo
concreto y se determinará la probabilidad de que tres instantes después haya
exactamente j líneas ocupadas.
S¡ se calcula la matriz P3 = P2P, se obtiene la siguiente matriz de
transición de tres pasos:
Probabilidad y Estadística
Probabilidad condicional - CADENAS DE MARKOV
S¡ se calcula la matriz P3 = P2P, se obtiene la siguiente matriz de
transición de tres pasos:
A partir de esta matriz se puede calcular cualquier probabilidad de transición de
tres pasos para la cadena como sigue:
(1) Si las cinco líneas están ocupadas en un instante de tiempo, entonces la
probabilidad de que no haya líneas ocupadas tres instantes después es
0.116.
(2) Si una línea está ocupada en un instante de tiempo, entonces la probabilidad
de que tres instantes después haya de nuevo exactamente una línea ocupada
es 0.207.
Vector de probabilidades iniciales
Supóngase que una cadena de Markov finita con probabilidades de transición
estacionarias tiene k estados posibles s1,..., sk y que la cadena puede estar en
cualquiera de estos k estados en el tiempo de observación inicial n = 1.
Supóngase también que, para i = 1,..., k, la probabilidad de que la cadena esté
en el estado s, al inicio del proceso es vi, donde vi ≥ 0 y vi +… + vk. = 1.
Cualquier vector w = ( w 1 , . . . , w k ) tal que w i ≥ 0 para i = 1,..., k y
también
wi = 1 se denomina vector de probabilidades.
El vector de probabilidades v = (v1 , ..., vk), que especifica las
probabilidades de diversos estados de la cadena en la observación inicial de
tiempo, se denomina vector de probabilidades iniciales de la cadena.
El vector de probabilidades iniciales y la matriz de transición determinan la
probabilidad de que la cadena esté en un estado en un instante de tiempo. Si v es
el vector de probabilidades iniciales de la cadena, entonces Pr(X 1 = s¡) = v i ,
para i = 1,... , k . Si la matriz de transición de la cadena es la matriz k x k P de
elementos p¡j que se indica en la ecuación (1), entonces para j = 1,..., k,
Probabilidad y Estadística
Probabilidad condicional - CADENAS DE MARKOV
Puesto que
es la componente j-ésima del vector vP, resulta que las
probabilidades para el estado de la cadena en el segundo instante de tiempo se
especifican por el vector de probabilidades vP.
En general, supóngase que en un instante de tiempo n la probabilidad de que
la cadena esté en el estado si es Pr(Xn = si) = wi, para i = 1,..., k. Entonces,
En otras palabras, si las probabilidades de los diversos estados en el instante de
tiempo n se especifican por el vector de probabilidades w, entonces las probabilidades
en el instante de tiempo n + 1 se especifican por el vector de probabilidades wP.
Resulta pues que si el vector de probabilidades iniciales para una cadena con
probabilidades de transición estacionarías es v, entonces las probabilidades de los
diversos estados en el instante de tiempo n + 1 se especifican por el vector de
probabilidades vPn.
Ejemplo 3: Probabilidades para el número de líneas telefónicas ocupadas.
Considérese de nuevo la oficina con cinco líneas telefónicas y la cadena de Markov
para la cual la matriz de transición P está dada por la ecuación (2). Supóngase que al
inicio del proceso de observación en el instante de tiempo n = 1 la probabilidad de
que no haya líneas ocupadas es 0.5, la probabilidad de que haya una línea ocupada
es 0.3 y la probabilidad de que haya dos líneas ocupadas es 0.2. Entonces el vector
de probabilidades iniciales es v = (0.5, 0.3, 0.2, 0,0,0). En primer lugar, se
determinará la probabilidad de que exactamente j líneas estén ocupadas en el
instante de tiempo 2, un instante después. Por medio de cálculos elementales resulta
que
Puesto que la primera componente de este vector de probabilidades es 0.13, la
probabilidad de que no haya líneas ocupadas en el instante de tiempo 2 es 0.13;
puesto que la segunda componente es 0.33, la probabilidad de que exactamente una
línea esté ocupada en el instante de tiempo 2 es 0.33 y así sucesivamente.
Se determinará a continuación, la probabilidad de que haya exactamente j líneas
ocupadas en el instante de tiempo 3.
Utilizando la ecuación (3), se deduce
Puesto que la primera componente de este vector de probabilidades es 0.133, la
probabilidad de que no haya líneas ocupadas en el instante de tiempo 3 es 0.133;
puesto que la segunda componente es 0.227, la probabilidad de que exactamente
una línea esté ocupada en el instante de tiempo 3 es 0.227, y así sucesivamente.
Probabilidad y Estadística
Probabilidad condicional - CADENAS DE MARKOV
EJERCICIOS
1. Supóngase que el clima sólo puede ser soleado o nublado y que las
condiciones del clima en mañanas sucesivas forman una cadena de Markov con
probabilidades de transición estacionarias. Supóngase también que la matriz
de transición es la siguiente:
(a) Si un día concreto está nublado, ¿cuál es la probabilidad de que también
esté nublado el día siguiente?
(b) Si un día concreto hace sol, ¿cuál es la probabilidad de que durante los dos
días siguientes continúe haciendo sol?
(c) Si un día concreto está nublado, ¿cuál es la probabilidad de que al menos
uno de los tres días siguientes haga sol?
2. Considérese de nuevo la cadena de Markov descrita en el ejercicio 1.
(a) Si un miércoles hace sol, ¿cuál es la probabilidad de que el sábado
siguiente haga sol?
(b) Si un miércoles está nublado, ¿cuál es la probabilidad de que el sábado
siguiente haga sol?
3. Considérense de nuevo las hipótesis de los ejercicios 1 y 2.
(a) Si un miércoles hace sol, ¿cuál es la probabilidad de que el sábado y
domingo siguientes haga sol?
(b) Si un miércoles está nublado, ¿cuál es la probabilidad de que el sábado y
el domingo siguientes haga sol?
4. Considérese de nuevo la cadena de Markov descrita en el ejercicio 1.
Supóngase que la probabilidad de que un miércoles haga sol es 0.2 y que la
probabilidad de que esté nublado es 0.8.
(a) Determínese la probabilidad de que esté nublado el jueves siguiente.
(b) Determínese la probabilidad de que esté nublado el viernes.
(c) Determínese la probabilidad de que esté nublado el sábado.
Probabilidad y Estadística
Probabilidad condicional - CADENAS DE MARKOV
5. Supóngase que un estudiante llegará a tiempo o tarde a una clase y que los
sucesos de que llegue a tiempo o tarde a clase en días sucesivos forman una
cadena de Markov con probabilidades de transición estacionarias. Supóngase
también que si llega tarde un día, entonces la probabilidad de que llegue a tiempo
el día siguiente es 0.8. Además, si llega a tiempo un día, entonces la probabilidad
de que llegue tarde al día siguiente es 0.5.
(a) Si el estudiante llega tarde un día, ¿cuál es la probabilidad de que llegue
a tiempo los tres días siguientes?
(b) Si el estudiante llega a tiempo un día, ¿cuál es la probabilidad de que
llegue tarde los tres días siguientes?
6. Considérese de nuevo la cadena de Markov descrita en el ejercicio 5.
(a) Si el estudiante llega tarde el primer día de clase, ¿cuál es la probabilidad de
que llegue a tiempo el cuarto día?
(b) Si el estudiante llega a tiempo el primer día de clase, ¿cuál es la
probabilidad de que llegue a tiempo el cuarto día?
7. Considérense de nuevo las hipótesis de los ejercicios 5 y 6. Supóngase que la
probabilidad de que el estudiante llegue tarde en el primer día de clase es 0.7 y
que la probabilidad de que llegue a tiempo es 0.3
(a) Determínese la probabilidad de que llegue tarde el segundo día de clase.
(b) Determínese la probabilidad de que llegue a tiempo el cuarto día de clase.
8. Supóngase que una cadena de Markov tiene cuatro estados s1, s2, s3, s4 y probabilidades de transición estacionarías como se especifica en la matriz de
transición siguiente:
(a) Si la cadena está en el estado s3 en un instante de tiempo n, ¿cuál es la
probabilidad de que esté en el estado s¡ en el instante de tiempo n + 2?
(b) S¡ la cadena está en el estado «j en un instante de tiempo n, ¿cuál es la probabilidad de que esté en el estado 53 en el instante de tiempo n + 3?
9. Sea X1 el estado inicial en el instante de tiempo 1 de la cadena de Markov con la
matriz de transición especificada en el ejercicio 8 y supóngase que las
probabilidades iniciales son las siguientes:
Determínense las probabilidades de que la cadena esté en los estados s1, s2, s3, y
Probabilidad y Estadística
Probabilidad condicional - CADENAS DE MARKOV
s4 en el instante de tiempo n para cada uno de los siguientes valores de n: (a)
n = 2; (b) n = 3; (c) n = 4.
10. Cada vez que un cliente compra un tubo de pasta de dientes, elige la marca
A o la marca B. Supóngase que la probabilidad de que elija la misma marca
que en la compra anterior es 1/3 y que la probabilidad de que cambie de
marca es 2/3.
(a) Si la primera compra es de la marca A, ¿cuál es la probabilidad de que la
quinta compra sea de la marca B?
(b) Si la primera compra es de la marca B, ¿cuál es la probabilidad de que la
quinta compra sea de la marca B?
11. Supóngase que tres niños A, B y C se pasan una pelota uno a otro. Cuando A
tiene la pelota se la pasa a B con probabilidad 0.2 y a C con probabilidad
0.8. Cuando B tiene la pelota se la pasa a A con probabilidad 0.6 y a C con
probabilidad 0.4.
Cuando C tiene la pelota es igualmente probable que se la pase a A que a B.
(a) Considérese este proceso como una cadena de Markov y calcúlese la matriz
de transición.
(b) Si es igualmente verosímil que cada uno de los tres niños tenga la pelota
en un tiempo n concreto, ¿qué niño tendrá la pelota con mayor
probabilidad en el instante de tiempo n + 2?
12. Supóngase que se lanza repetidamente una moneda de forma que en un
lanzamiento es igualmente probable que aparezca una cara que una cruz y que
los lanzamientos son independientes, con la siguiente excepción: Cuando se
han obtenido tres caras o tres cruces en tres lanzamientos sucesivos, entonces
el resultado del siguiente lanzamiento es siempre del otro tipo. En el
tiempo n (n ≥ 3), el estado de este proceso es el especificado por los
resultados de los lanzamientos n — 2, n - 1 y n. Demuéstrese que este
proceso es una cadena de Markov con probabilidades de transición
estacionarias y calcúlese la matriz de transición.
13. Existen dos urnas A y B, conteniendo cada una bolas rojas y verdes.
Supóngase que la urna A contiene una bola roja y dos verdes y que la urna B
contiene ocho bolas rojas y dos verdes. Considérese el siguiente proceso: Se
extrae aleatoriamente una bola de la urna A y se extrae aleatoriamente una
bola de la urna B. La bola extraída de la urna A se introduce en la urna B y
la bola extraída de la urna B se introduce en la urna A. Estas operaciones se
repiten indefinidamente. Demuéstrese que los números de bolas rojas en la urna
A constituyen una cadena de Markov con probabilidades de transición
estacionarias y calcúlese la matriz de transición de la cadena de Markov.
Probabilidad y Estadística
Descargar