SESIÓN 2.a CADENAS DE MARKOV. INTRODUCCIÓN 1. Noción de Proceso Estocástico. Definición. P.E. asociados a un sistema. 2. Definición de Cadena de Markov Propiedad Markoviana y estacionariedad 3. Matriz de Probabilidades de transición y Diagrama de estados. 4. Ejemplos de Cadenas de Markov. Cap. 14 Hillier F.S., Lieberman G.J. “Introduction to Operations Research” Holden day Inc. 1986. I.O.E. Diplomatura de Estadística Cadenas de Markov. Introducción. SEMANA 1 UPC Ciclo metodológico de la I.O. Identificar el problema Planificación del estudio SISTEMA REAL Implementar las soluciones Recogida de datos Formular e Implementar el modelo Pruebas del modelo Resultados Insatisfactorios I.O.D. Diplomatura de de Estadística Estadística I.O.E. Diplomatura Validar el modelo Ensayo de alternativas Análisis de resultados MODELO(s) UPC Definición de proceso estocástico. Es una colección indexada de variables aleatories {X t t ∈ T }, t pertenece a un conjunto T conocido. Espacio de Estados I : Conjunto de valores que puede tomar cada Xt Conjunto de Índices T Discreto Espacio Discreto de Estados I Continuo Cadena de Cadena de parámetro discreto parámetro continuo Proceso estocástico de Continuo parámetro discreto y de estados continuo Proceso estocástico de paràmetre continuo y estados continuo Clasificación de los procesos estocásticos I.O.E. Diplomatura de Estadística Cadenas de Markov. Introducción UPC SISTEMA FÍSICO. PROCESOS ESTOCÁSTICOS INVOLUCRADOS COLA CLIENTES EMPLEADO TIENDA - {N {X t k k =1, 2,K } Número de clientes en la cola al salir de la tienda el k-ésimo. I = {0,1, 2, K },. t ∈T } Número de clientes en el instante t. I = {0,1, 2,K }, T = {t 0 ≤ t < ∞ } , - {Wk k ∈T } Tiempo que espera el cliente k antes de ser atendido: I = { w 0 ≤ w < ∞ } , T = {1, 2, 3, K} - {Yt t ∈T } Tiempo total de trabajo del empleado hasta el instante t : I = [0, ∞) , I.O.E. Diplomatura de Estadística T = { t 0 ≤ t < ∞ }. Cadenas de Markov. Introducción UPC y Se registra su posición cada 0,5 seg. (xk-1,yk-1) (xk,yk) (xk+1,yk+1) ?? P(xk+1=x , yk+1=y | (xk , yk), (xk-1 , yk-1), … ) I.O.E. Diplomatura de Estadística Cadenas de Markov. Introducción x UPC CADENA de MARKOV FINITA ( I Finito ) 1. Propiedad Markoviana: El proceso ha tomado una secuencia de valores: x0 , x1, x2, … xk-1=j ∈ I X k +1 = j Ρ = K = = = = = , , , , , X i X x X x X x X x 1 1 0 0 k k −1 k −1 k −2 k −2 X =j = Ρ k +1 = X i k para todo valor k y toda secuencia de estados x0 , x1, x2, … xk-1= j , xk= i ∈ I. 2. Estacionariedad: Para todo par de estados i, j ∈ I se cumple: X k +1 = j = X j = 1 Ρ = Ρ = = X i X i 0 k I.O.E. Diplomatura de Estadística p ij Cadenas de Markov. Introducción , k = 0,1, 2,K UPC CADENA de MARKOV FINITA. Las probabilidades pij forman una matriz de Probabilidades de Transición: Para I={0,1,2,3,…M} p00 L p0 M O M , Ρ= M pM 0 L pMM M ∑ j =0 pij = 1, pij ≥ 0, i = 0,1,2,...M (Matriz estocástica) pji = 0 . Diagrama de transiciones: j i pij > 0 I.O.E. Diplomatura de Estadística Cadenas de Markov. Introducción UPC CADENA de MARKOV FINITA. (Ejemplos) Aprobar una asignatura Xk = Resultado del examen final en el k-ésimo intento. 1= suspender, 0= aprobar. Si Xk-1=1 Si Xk-1=0 presenta una distribución de Bernuoilli: P(Xk =0| Xk-1=1 )=α P(Xk =1| Xk-1=1 )=1-α P(Xk =0| Xk-1=0 )=1 P(Xk =1| Xk-1=0 )=0 p11 P= p21 p12 1 0 = p22 α 1 − α I.O.E. Diplomatura de Estadística α 1 0 Cadenas de Markov. Introducción 1 1−α UPC CADENA de MARKOV FINITA. (Ejemplos) Ejemplo de la Ruina del jugador. Dos jugadores A, B de poker. A tiene una probabilidad p de ganar una mano (q de perder) Apuestan 1 € en cada mano. Entre los dos tienen 4 € {Xk}, Colección de variables aleatorias. Xk = cantidad en el bolsillo del jugador A tras la k-ésima mano. q A pierde la partida Inicio de partida X0 =2 q q 1 1 0 1 2 p Supongamos que en la mano k, Xk = 2, P(Xk+1=4| Xk = 2) = 0 P(Xk+1=3| Xk = 2) = p P(Xk+1=2| Xk = 2) = 0 P(Xk+1=1| Xk = 2) = q P(Xk+1=0| Xk = 2) = 0 I.O.E. Diplomatura de Estadística 3 p 4 A gana la partida p 1 q P = 0 0 0 0 0 0 0 q p 0 0 p 0 q 0 0 0 0 Cadenas de Markov. Introducción 0 0 0 p 1 UPC CADENA de MARKOV FINITA. (Ejemplos) Tiempo de funcionamiento de un aparato. ( Limitada a < k+1 periodos ) Avería segura 0 0 1 2 P= M M k −1 k 1 q0 q 1 q2 M M q k −1 1 2 p0 0 0 M M 0 0 3 0 p1 0 M M 0 0 k-1 k 0 0 L L p2 0 O O O L L L L I.O.E. Diplomatura de Estadística O 0 p k −1 0 0 L L L 0 0 0 M M k+1 q0 p0 0 p1 1 q1 p2 pk-1 3 2 q2 … q3 Cadenas de Markov. Introducción k1q k-1 (pk=0) kk kk qk=1 UPC Siguiente Tema ECUACIONES DE CHAPMAN KOLMOGOROV Probabilidades condicionales en n transiciones: Xn = j = p (n Ρ ij X i = 0 p ≥ 0 para (n ij P (n M n = 0, 1, 2, K ∀ i,j p11( n = M p M( n1 L O L p1(Mn M (n p MM p =1 para n = 0, 1, 2, K ∀ i. j =1 ∑ (n ij FORMA MATRICIAL DE LAS EC. DE CHAPMAN KOLMOGOROV: P = P ⋅ PLP = P = P (n I.O.E. Diplomatura de Estadística n ( n −1 Clasificación de Cadenas de Markov ⋅P UPC CLASES DE EQUIVALENCIA DE UNA CADENA DE MARKOV . (n p Accesibilidad: un estado j es accesible desde el i si ∃ n tal que ij ( Notación: i → j ) >0 Es posible encontrar un paso que conecte i con j sobre el diagrama de transiciones. Ejemplo: 2 → 7, pero 7 → 2 Dos estados i, j comunican entre sí si i → j & j → i ( Notación: i ↔ j ) • ↔ es relación de equivalencia: a) i ↔j ⇒ j ↔i b) i ↔ j , j ↔ k ⇒ i ↔ k (Se admite i ↔i ) Definición de clase: 4 .4 C(i )={ j | i ↔ j } .6 1 j ∈ C(i) ⇒ C(i) = C(j) j ∉ C(i) ⇒ C(i) ∩ C(j) =Ø .6 .4 .2 9 3 .6 1. .6 .6 .2 1. .3 2 .6 .1 .6 5 .4 8 7 .8 6 .3 I.O.E. Diplomatura de Estadística Clasificación de Cadenas de Markov . UPC PROBABILIDADES DE ABSORCIÓN Presencia de clases absorbentes. Estructura de la matriz de probabilidades de transición. B A Estados 1, 2 Estado 3 Estados 4,5 Estado 6 Contrato eventual Despedido Contrato fijo Excedencia. 1 4 3 6 5 2 0 0 0 0 0 3 1 0 4 0 1 / 3 1 / 3 1 / 3 0 P A 0 5 0 1/ 3 1/ 3 1/ 3 0 P= =0 0 1/ 2 0 0 6 0 1/ 2 R A 0 0 . 2 0 .2 1 0 .5 0 .08 0.02 0 0 .1 0 .6 2 0.2 0 .08 0.02 I.O.E. Diplomatura de Estadística 0 PB RB 0 0 Q PAbs 0 P= R Q Clasificación de Cadenas de Markov UPC PROBABILIDADES A LARGO TÉRMINO Para los estados i,j dentro de una clase C cerrada se verifica: limn→∞ No depende de i E[Y ij( n ] 1 n (k = limn→∞ ∑ pij = π j , j ∈ C n n k =1 Interpretación:πj = fracción de los periodos en que se visita j. 1/πj = µjj = tiempo medio de recurrencia del estado j verifican: ∑ i∈C π i =1, π i ≥ 0, i ∈ C . Ejemplo: 1. 1. 1 2 1. I.O.E. Diplomatura de Estadística 3 π1 =1/3 π2 =1/3 π3 =1/3 Estado Estacionario en C. de M. SEMANA 3 UPC CADENAS ERGÓDICAS. Definición. Sólo hay una clase y ésta es aperiódica. 2 1 Ejemplo de la tienda de cámaras: Tras 8 transiciones, las probabilidades (n p condicionales ij de los estados no 3 4 dependen de la situación inicial. Las filas de la matriz P(8 son idénticas (a 3 dígitos de precisión). El estado inicial es irrelevante: p(8) T 0.286 = p(0 ) ⋅ P (8 ) = [* * * *] 00..286 0.286 286 T I.O.E. Diplomatura de Estadística 0.285 0.285 0.285 0.285 0.286 0.286 (8 (4 (4 8 P = P ⋅P = P = 0.286 0.286 0.264 0.264 0.264 0.264 0.166 0.166 0.166 0.166 0.285 0.264 0.166 0.285 0.264 0.166 0.285 0.264 0.166 0.285 0.264 0.166 = [0.286 0.285 0.264 0.166] Estado Estacionario en C. de M. SEMANA 3 UPC SESION DE PROBLEMAS Una tienda de fotografía almacena un modelo particular de cámaras. Para reponer el stock puede efectuar pedidos semanales a su distribuidor. La demanda Dk de unidades del modelo en la semana k es una v.a. Poisson con E[Dk] = 1. Sea Y0=3 el número inicial de cámaras, Y1 el número de cámaras al final de la 1ª semana, Y2 al final de la segunda etc. Los sábados por la noche se efectúa un pedido de S = 3 cámaras al distribuidor si la tienda el nivel de existencias es <s (=1). El pedido es servido puntualmente el lunes por la mañana. Si durante una semana no pueden satisfacerse las demandas de los clientes, éstas se pierden. I.O.E. Diplomatura de Estadística Cadenas de Markov. Introducción UPC 1k −1 p00 = P(Dt ≥ 3) =1 − P({Dt < 3}) =1 − FD (2 ) =1 − ∑ e = 1 − e −1 (1 + 1 + 12 ) = 0.080 k =0 k ! k k 2 1 −1 1 1 −1 p01 = P(Dt = 2) = FD (2) − FD (1) = ∑ e − ∑ e = 0.184 k =0 k ! k =0 k ! k k 1 1 −1 0 1 −1 p02 = P(Dt = 1) = FD (1) − FD (0 ) = ∑ e − ∑ e = 0.368 k =0 k ! k =0 k ! k 0 1 −1 p03 = P(Dt = 0 ) = FD (0) = ∑ e = 0.368 k =0 k ! 2 t t t t t t p10 = P(Dt ≥ 1) = 1 − FD (0 ) = 0.632 t 1k −1 p11 = P(Dt = 0) = FD (0) = ∑ e = 0.368 , p12 = p13 = p23 = 0 k =0 k ! 0 t 1k −1 p20 = P(Dt ≥ 2 ) = 1 − FD (1) = 1 − ∑ e = 0.264 k =0 k ! k k 1 1 −1 0 1 −1 p21 = P(Dt = 1) = FD (1) − FD (0 ) = ∑ e − ∑ e = 0.368 k =0 k ! k =0 k ! k 0 1 −1 p22 = P(Dt = 0) = FD (0 ) = ∑ e = 0.368 k =0 k ! 1 t t t t 1k −1 p30 = P(Dt ≥ 3) =1 − P({Dt < 3}) =1 − FD (2 ) =1 − ∑ e = 1 − e −1 (1 + 1 + 12 ) = 0.080 k =0 k ! 2 t I.O.E. Diplomatura de Estadística Cadenas de Markov. Introducción UPC 1k −1 1 1k −1 p31 = P(Dt = 2 ) = FD (2 ) − FD (1) = ∑ e − ∑ e = 0.184 k =0 k ! k =0 k ! 2 t t 1k −1 0 1k −1 p32 = P(Dt = 1) = FD (1) − FD (0 ) = ∑ e − ∑ e = 0.368 , k =0 k ! k =0 k ! 1 t t 1k −1 p33 = P({Dt = 0}) = FD (0) = ∑ e = 0.368 k =0 k ! 0 t p00 p P = 10 p20 p30 p01 p02 p11 p21 p12 p22 p31 p32 p03 0.080 p13 0.632 = p23 0.264 p33 0.080 1 0.184 0.368 0.368 0.368 0 0 0.368 0.368 0 0.184 0.368 0.368 2 3 4 I.O.E. Diplomatura de Estadística Cadenas de Markov. Introducción UPC