Cadenas de Markov ∣ 10 2 CADENAS DE MARKOV HOMOGÉNEAS DE PARÁMETRO DISCRETO En la primera parte del capı́tulo se estudian las probabilidades condicionales de transición -definidas en (l.5) y (1.6) - e incondicionales de estado - definida en (1.1) - en las cadenas de Markov homogéneas, y se desarrollan las ecuaciones que rigen su comportamiento, las que luego se aplican al estudio del comportamiento de dichas cadenas en los regı́menes transitorio y permanente. 2.1 Estudio de las probabilidades en las cadenas de markov homogéneas 2.1.1) Probabilidad condicional de transición a) Definición general Tal como se ha expresado en (1.6), la probabilidad condicional de transición del estado i al estado j en un intervalo Δ𝑡: 𝑝𝑖𝑗 (Δ𝑡) en una cadena de Markov homogénea de parámetro discreto es la probabilidad condicional de que el sistema se encuentre en estado j en el instante 𝑡 + Δ𝑡, habiéndose encontrado en el estado i en el instante t, con t y Δ𝑡 enteros. Matemáticamente es: ⎧ ⎨ 𝑡 = 0, 1, 2, . . . Δ𝑡 = 𝑛 = 0, 1, 2, . . . 𝑝𝑖𝑗 (Δ𝑡) = 𝑃 {𝑋(𝑡+Δ𝑡) = 𝑗/𝑋(𝑡) = 𝑖}; con: (2.1) 𝑖 = 0, 1, 2, . . . , 𝑚 ⎩ 𝑗 = 0, 1, 2, . . . , 𝑚 El intervalo Δ𝑡= n = entero se denomina número de pasos o transiciones o avances de la cadena sobre el parámetro t. El conjunto de probabilidades de transición 𝑝𝑖𝑗 (Δ𝑡) ,∀i,j definen la matriz de probabilidades de transición 𝑃 (Δ𝑡): 𝑖/ 0 1 𝑃 (Δ𝑡) = .. . .. . 𝑚 𝑗 0 𝑝00 (Δ𝑡) 𝑝10 (Δ𝑡) .. . .. . 𝑝𝑚0 (Δ𝑡) 1 𝑝01 (Δ𝑡) 𝑝11 (Δ𝑡) .. . .. . 𝑝𝑚1 (Δ𝑡) ...... ...... ...... ...... 𝑚 𝑝0𝑚 (Δ𝑡) 𝑝1𝑚 (Δ𝑡) .. . .. . 𝑝𝑚𝑚 (Δ𝑡) (2.2) Cadenas de Markov ∣ 11 matriz en la que se cumplen las siguientes condiciones: ⎧ 0 ≤ 𝑝𝑖𝑗 (Δ𝑡) ≤ 1 ; ∀𝑖, 𝑗 (2.3) 𝑚 ⎨ ∑ 𝑝𝑖𝑗 (Δ𝑡) = 1 ; 𝑖 = 0, 1, . . . , 𝑚 (2.4) 𝑗=0 ⎩ con Δ𝑡 = 𝑛 = 1, 2, 3, . . . b) Probabilidad de transición de 1 paso Es un caso particular de la (2.1) y representa la probabilidad condicional de transición del estado i al estado j, en un intervalo Δ𝑡= 1. { 𝑝𝑖𝑗 (1) = 𝑃 {𝑋(𝑡 + 1) = 𝑗/𝑋(𝑡) = 𝑖}; con: 𝑡 = 0, 1, 2, . . . 𝑖 = 0, 1, 2, . . . , 𝑚 𝑗 = 0, 1, 2, . . . , 𝑚 (2.5) Análogamente el conjunto de probabilidades de transición de 1 paso 𝑝𝑖𝑗 ,∀i,j definen la matriz de probabilidades de transición de 1 paso P: 𝑖/ 0 1 𝑃 (Δ𝑡) = .. . .. . 𝑚 𝑗 0 𝑝00 𝑝10 .. . .. . 𝑝𝑚0 1 𝑝01 𝑝11 .. . .. . 𝑝𝑚1 ...... ...... ...... ...... 𝑚 𝑝0𝑚 𝑝1𝑚 .. . .. . 𝑝𝑚𝑚 (2.6) Ejemplo 2.a Si en la cadena de Markov descripta en la experiencia b) del ejemplo l.b se denominan: estado 0 = no estado 1 = si el grafo y la matriz de transición de 1 paso son respectivamente: Cadenas de Markov ∣ 12 𝑖/ 𝑗 𝑃 = 0 1 0 0 1/3 7654 0123 0^ 1 1 2/3 0 1/3 1 0123 7654 1S 2/3 Ejemplo 2.b Si bien la experiencia a) del ejemplo l.b corresponde a 1 proceso de ensayos independientes, se lo puede tratar dentro de la teorı́a de las cadenas de Markov, siendo sus estados, el grafo y la matriz de transición de 1 paso las siguientes: estado 0 = no estado 1 = si 0123 7654 0^ 2/3 1/3 1/3 𝑃 = 0123 7654 1S 1/3 1/3 2/3 2/3 2/3 c) Probabilidad de transición de 2 pasos En forma análoga se define: { 𝑝𝑖𝑗 (2) = 𝑃 {𝑋(𝑡 + 2) = 𝑗/𝑋(𝑡) = 𝑖}; con: 𝑡 = 0, 1, 2, . . . 𝑖 = 0, 1, 2, . . . , 𝑚 𝑗 = 0, 1, 2, . . . , 𝑚 (2.7) Esta probabilidad, en una cadena de Markov, se puede calcular en función de las probabilidades de 1 paso, mediante la ecuación de Chapman-Kolmogorov, cuya expresión, para este caso es: 𝑝𝑖𝑗 (2) = 𝑚 ∑ 𝑘=0 { 𝑝𝑖𝑘 .𝑝𝑘𝑗 ; ∀ 𝑖 = 0, 1, . . . , 𝑚 𝑗 = 0, 1, . . . , 𝑚 (2.8) la cual establece que para todo par de estados i y j separados por un avance Δ𝑡= 2 pasos, la probabilidad de transición se puede expresar Cadenas de Markov ∣ 13 en función de las probabilidades de transición de 1 paso del estado i a un conjunto exhaustivo de estados k (todos los estados posibles) y de las probabilidades de transición de 1 paso de cada uno de los estados k al estado j. Para su demostración se definen los conjuntos A, 𝐵𝑘 y C cuyos elementos son ternas ordenadas de eventos: la primera componente es el estado del sistema en t, la segunda en t+1 y la tercera en t+2 ⎧ 𝐴 : conjunto de ternas cuya primera componente es el estado i en t ⎨ 𝐵𝑘 : cada conjunto de ternas cuya segunda componente es uno de los estados k en t+1 𝐶 : conjunto de ternas cuya tercera componente es el estado j en t+2 ⎩ además se cumple que: 𝑃 (𝐶 ∩ 𝐴) = 𝑃 (𝐶/𝐴).𝑃 (𝐴) 𝑚 ∑ 𝐿𝑖𝑗 (2) = 𝑃 (𝐶/𝐴) = 𝑘=0 𝑚 ∑ 𝑃 (𝐶 ∩ 𝐵𝑘 ∩ 𝐴) 𝑃 (𝐴) = 𝑃 (𝐶/𝐵𝑘 ∩ 𝐴).𝑃 (𝐵𝑘 ∩ 𝐴) 𝑘=0 𝑃 (𝐴) y por ser una cadena de Markov se cumple la (1.4), luego es: 𝑃 (𝐶/𝐵𝑘 ∩ 𝐴) = 𝑃 (𝐶/𝐵𝑘 ) con lo cual queda demostrada la (2.8) pues: Cadenas de Markov ∣ 14 𝑚 ∑ 𝐿𝑖𝑗 (2) = 𝑃 (𝐶/𝐴) = 𝑘=0 𝑃 (𝐶 ∩ 𝐵𝑘 ).𝑃 (𝐵𝑘 /𝐴). 𝑃 (𝐴) = 𝑃 (𝐴) 𝑚 ∑ 𝑝𝑘𝑗 .𝑝𝑖𝑘 𝑘=0 Como antes, el conjunto de probabilidades de transición de 2 pasos: 𝑝𝑖𝑗 (2), ∀ i,j definen la matriz de probabilidades de transición de 2 pasos: 𝑝00 (2) 𝑝10 (2) .. . 𝑃 (2) = .. . 𝑝𝑚0 (2) 𝑝01 (2) . . . . . . 𝑝11 (2) . . . . . . .. . .. . 𝑝𝑚1 (2) . . . . . . 𝑝0𝑚 (2) 𝑝1𝑚 (2) .. . .. . 𝑝𝑚𝑚 (2) (2.9) y aplicando la ecuación de Chapman (2.8) a cada uno de los elementos de la matriz (2.9) queda la expresión matricial de la ecuación de Chapman-Kolmogorov: 𝑝00 (2) . . . .. . 𝑃 (2) = .. . 𝑝𝑚0 (2) . . . P(2)=P.P=𝑃 2 𝑝0𝑚 (2) 𝑝00 𝑝01 . . . . .. ... = .. . .. .. .. . . . 𝑝𝑚𝑚 (2) 𝑝𝑚0 𝑝𝑚1 . . . 𝑝0𝑚 𝑝00 . . . ... x 𝑝10 .. .. . . 𝑝𝑚𝑚 𝑝𝑚0 . . . 𝑝0𝑚 𝑝1𝑚 .. . 𝑝𝑚𝑚 (2.10) Ejemplo 2.c La matriz de transición de 2 pasos de la cadena del Ejemplo n∘ 2.a, aplicando la ecuación (2.10) es: Cadenas de Markov ∣ 15 0123 7654 0^ 𝑃 (2) = 0 1 0, 33 0, 67 0 1 0, 33 0, 67 = 0, 33 0, 67 0, 22 0, 78 0,67 =⇒ 0,33 0,22 7654 0123 1S 0,78 La ecuación de Chapman-Kolmogorov (2.10) es una condición necesaria, pero no suficiente para que una cadena sea Markoviana. d) Expresión qeneral de la ecuación de Chapman-Kolmogorov En forma genérica la probabilidad de transición de n pasos es: ⎧ ⎨ 𝑡 = 0, 1, 2, . . . 𝑛 = 1, 2, . . . 𝑝𝑖𝑗 (𝑛) = 𝑃 {𝑋(𝑡 + 𝑛) = 𝑗/𝑋(𝑡) = 𝑖}; con: (2.11) 𝑖 = 0, 1, 2, . . . , 𝑚 ⎩ 𝑗 = 0, 1, 2, . . . , 𝑚 Repitiendo el proceso descripto en el punto anterior para deducir la ecuación (2.8) se llega a las expresiones algebraicas generales de la ecuación de Chapman-Kolmogorov: ⎧ 𝑚 ⎫ ∑ 𝑝𝑖𝑘 .𝑝𝑘𝑗 (𝑛 − 1) : forma a) { 𝑘=0 ⎨ ⎬ 𝑛 = 1, 2, . . . ; con: 𝑖 = 0, 1, 2, . . . , 𝑚 (2.12) 𝑝𝑖𝑗 (𝑛) = 𝑗 = 0, 1, 2, . . . , 𝑚 𝑚 ∑ 𝑝𝑖𝑘 (𝑛 − 1).𝑝𝑘𝑗 : forma b) ⎩ ⎭ 𝑘=0 Como antes, el conjunto de probabilidades de transición de n pasos 𝑝𝑖𝑗 (𝑛), ∀ij definen la matriz de probabilidades de transición de n casos: Cadenas de Markov ∣ 16 𝑝00 (𝑛) 𝑝10 (𝑛) 𝑃 (𝑛) = .. . 𝑝𝑚0 (𝑛) 𝑝01 (𝑛) . . . . . . 𝑝11 (𝑛) . . . . . . 𝑝0𝑚 (𝑛) 𝑝1𝑚 (𝑛) 𝑝𝑚1 (𝑛) . . . . . . 𝑝𝑚𝑚 (𝑛) (2.13) y la expresión matricial general de la ecuación de Chapman-Kolmogorov, tomando por ejemplo la forma a), queda: 𝑃 (𝑛) = 𝑝00 (𝑛) . . . .. . .. . 𝑝𝑚0 (𝑛) . . . 𝑝0𝑚 (𝑛) 𝑝00 𝑝01 . . . . .. .. = .. . . .. .. .. . . . 𝑝𝑚𝑚 (𝑛) 𝑝𝑚0 𝑝𝑚1 . . . 𝑝0𝑚 𝑝00 (𝑛 − 1) . . . .. x 𝑝10 (𝑛 − 1) . .. .. . . 𝑝𝑚𝑚 𝑝𝑚0 (𝑛 − 1) . . . 𝑝0𝑚 (𝑛 − 1) 𝑝1𝑚 (𝑛 − 1) .. . 𝑝𝑚𝑚 (𝑛 − 1) P(n)=P.P(n-1) extendiendo la ecuación anterior en forma recursiva se obtiene: P(n)= P . P(n-l) = P . P . P(n-2) = P . P . P . P(n-3)= . . . 𝑃 (𝑛) = 𝑃 𝑛 (2.14) que es la expresión genérica matricial de la ecuación de ChapmanKolmogorov. Ejemplo 2.d Las matrices de transición de 3, 4 y 5 pasos de la cadena del ejemplo Cadenas de Markov ∣ 17 2.a son, aplicando la ecuación (2.14): 3 𝑃 (2) = 𝑃 = 𝑃.𝑃 = 4 3 𝑃 (4) = 𝑃 = 𝑃.𝑃 = 5 0 2 4 𝑃 (5) = 𝑃 = 𝑃.𝑃 = 1 0, 33 0, 67 0 1 0, 33 0, 67 0 1 0, 33 0, 67 0, 33 0, 67 x x x 0, 22 0, 78 0, 222 0, 778 0, 259 0, 741 0, 259 0, 741 0, 247 0, 753 = 0, 222 0, 778 0, 259 0, 741 = = 0, 259 0, 741 0, 247 0, 753 0, 247 0, 753 0, 251 0, 749 2.1.2) Probabilidad incondicional de estado (a) Definición general Tal como se ha expresado en (1.1), la probabilidad incondicional de estado p(t) en una cadena de Markov homogénea de paramétro discreto, es la probabilidad de que el sistema se encuentre en el estado i en el instante t: { 𝑡 = 0, 1, 2, . . . 𝑝𝑖 (𝑡) = 𝑝𝑥=𝑖 (𝑡) ; con: (2.15) 𝑖 = 0, 1, 2, . . . , 𝑚 y el conjunto de probabilidades incondicionales de estado 𝑝𝑖 (𝑡) ∀i, definen el vector de probabilidades de estado p(t): 𝑝(𝑡) = 𝑝0 (𝑡) 𝑝1 (𝑡) 𝑝2 (𝑡) . . . 𝑝𝑚 (𝑡) vector en el cual se cumplen las siguientes condiciones: (2.16) Cadenas de Markov ∣ 18 ⎧ 𝑝𝑖 (𝑡) ≤ 1 ; ∀𝑖 ⎨ 0𝑚 ≤ ∑ 𝑝𝑖 (𝑡) = 1 ; con 𝑖 = 0, 1, 2, . . . ⎩ (2.17) (2.18) 𝑖=0 (b) Probabilidad de estado inicial Es un caso particular de la (2.15) para t=0 : 𝑝𝑗 (0) = 𝑃𝑥=𝑖 (𝑡 = 0) ; con 𝑖 = 0, 1, . . . , 𝑚 (2.19) y el conjunto de probabilidades de estado iniciales 𝑝𝑖 (0) ,∀i definen el vector de probabilidades de estado inicial: 𝑝(0) = 𝑝0 (0) 𝑝1 (0) 𝑝2 (0) . . . 𝑝𝑚 (0) (2.20) (c) Probabilidad de estado luego de 1 paso En forma análoga se define: 𝑝𝑖 (1) = 𝑃𝑥=𝑗 (𝑡 = 1) ; con 𝑗 = 0, 1, . . . , 𝑚 (2.21) Esta probabilidad se puede expresar en función de las probabilidades de estado iniciales aplicando el Teorema de la Probabilidad Total, quedando expresada la llamada ecuación de estado: 𝑝𝑗 (1) = 𝑚 ∑ 𝑝𝑖 (0).𝑝𝑘𝑗 ; con 𝑗 = 0, 1, . . . , 𝑚 (2.22) 𝑖=0 Como antes, el conjunto de probabilidades de estado luego de 1 paso 𝑝𝑗 (1), ∀j, definen el vector de probabilidades de estado luego de 1 paso: 𝑝(1) = 𝑝0 (1) 𝑝1 (1) 𝑝2 (1) . . . 𝑝𝑚 (1) (2.23) Cadenas de Markov ∣ 19 y aplicando la ecuación de estado (2.22) a cada uno de los elementos del vector (2.23) queda la expresión matricial de la ecuación de estado: 𝑝(1) = 𝑝0 (1) 𝑝1 (1) . . . 𝑝𝑚 (1) = 𝑝0 (0) 𝑝1 (0) . . . 𝑝𝑚 (0) p(1)= p(0) . P 𝑝00 . . . 𝑝0𝑚 𝑝 𝑝1𝑚 x ..10 .. . . 𝑝𝑚0 . . . 𝑝𝑚𝑚 (2.24) (d) Expresión general de la Ecuación de Estado En forma genérica la probabilidad de estado luego de n pasos es: { 𝑛 = 0, 1, 2, . . . (2.25) 𝑝𝑗 (𝑛) = 𝑝𝑥=𝑗 (𝑡 = 𝑛) ; con: 𝑗 = 0, 1, 2, . . . , 𝑚 Con las mismas consideraciones hechas para deducir la ecuación (2.22) se llega a las expresiones algebraicas generales de la ecuación de estado: ⎧ 𝑚 ⎫ ∑ 𝑝𝑖 (0).𝑝𝑖𝑗 (𝑛) : forma a) { 𝑘=0 ⎨ ⎬ 1, 2, . . . 𝑝𝑗 (𝑛) = (2.26) ; con: 𝑛𝑗 = = 0, 1, 2, . . . , 𝑚 𝑚 ∑ 𝑝𝑖 (𝑛 − 1).𝑝𝑖𝑗 : forma b) ⎩ ⎭ 𝑘=0 Como antes, el conjunto de probabilidades de estado luego de n pasos 𝑝𝑗 (𝑛) definen el vector de probabilidades de estado: 𝑝(𝑛) = 𝑝0 (𝑛) 𝑝1 (𝑛) 𝑝2 (𝑛) . . . 𝑝𝑚 (𝑛) (2.27) y la expresión matricial general de la ecuación de estado (2.26), tomando por ejemplo la forma a), queda: Cadenas de Markov ∣ 20 𝑝(𝑛) = 𝑝0 (0) 𝑝1 (0) . . . 𝑝𝑚 (0) 𝑝00 (𝑛) . . . 𝑝0𝑚 (𝑛) 𝑝 (𝑛) 𝑝1𝑚 (𝑛) x 10.. .. . . 𝑝𝑚0 (𝑛) . . . 𝑝𝑚𝑚 (𝑛) p(n)= p(0) . P(n) (2.29) Las ecuaciones (2.28) y (2.29) constituyen las expresiones genéricas matriciales de la ecuación de estado, las cuales se resumen en la siguiente expresión: 𝑝(𝑛) = ⎧ ⎨ 𝑝(0).𝑃 (𝑛) ⎩ 𝑝(𝑛 − 1).𝑃 (2.30) Las ecuaciones (2.14) y (2.30) permiten calcular la probabilidad de cada uno de los estados de la cadena, luego de un número n cualquiera de pasos, conocidas la probabilidad de estado para un instante dado y la matriz de probabilidades de transición de 1 paso P. Ejemplo 2.e En la cadena del ejemplo 2.a, si se parte de un estado inicial con las siguientes probabilidades: ⎧ ⎨ 𝑝0 (0) = 0, 5 𝑝(0) = 0, 5 0, 5 ⎩ 𝑝1 (0) = 0, 5 las probabilidades de 1, 2, 3 y 4 pasos serán respectivamente: 𝑝(1) = 𝑝(0).𝑃 = 0, 5 0, 5 x 0 1 = 0, 167 0, 833 0, 333 0, 667 𝑝(2) = 𝑝(0).𝑃 2 = 0, 5 0, 5 x 0, 333 0, 667 = 0, 278 0, 722 0, 222 0, 778 Cadenas de Markov ∣ 21 2.2 𝑝(3) = 𝑝(0).𝑃 3 = 0, 5 0, 5 x 0, 222 0, 778 = 0, 241 0, 759 0, 259 0, 741 𝑝(4) = 𝑝(0).𝑃 4 = 0, 5 0, 5 x 0, 259 0, 741 = 0, 253 0, 747 0, 247 0, 753 Clasificación de las cadenas de Markov Homogéneas en ergódicas y no ergódicas A continuación se efectúa una clasificación de las cadenas de Markov homogéneas según la posibilidad o no que tengan de ser reducibles o separables en cadenas más chicas para el estudio de su comportamiento en los llamados regı́menes transitorio y permanente. Esta clasificación dará lugar a la definición de las cadenas ergódicas o irreductibles y las cadenas no ergódicas o separables. Previamente se requiere dar la definición de estados accesibles y comunicantes y luego clasificar los estados en clases. 2.2.1) Definición de estados accesibles y comunicantes Un estado j es accesible desde un estado i si se cumple que para algún paso 𝑛 ≥ 1 es 𝑝𝑖𝑗 (𝑛) > 0, lo cual significa que es posible pasar desde el estado i al estado j luego de un número n de transecciones, y se escribe: 𝑖 → 𝑗. La accesibilidad es una propiedad transitiva, es decir: si 𝑖 → 𝑗 y 𝑗→𝑘 ⇒ 𝑖→𝑘 Ejemplo 2.f En la cadena de la figura el estado 6 es accesible desde el 5 en un paso y desde el 4 en dos pasos, a través del 5. El estado 1 no es accesible desde el 2. Cadenas de Markov ∣ 22 Accesibilidad en una transición 0123 7654 0 70123 / 654 1 7/ 654 0123 0123 7654 /3 2 == @ == == == == 0123 7654 0123 7654 7 =^ = 4S == == == == 0123 7654 0123 7654 o 6K 5 𝑖/ 0 1 2 3 4 5 6 7 𝑗 0 1 2 3 4 5 6 7 𝑥 𝑥 𝑥 𝑥 𝑥 𝑥 𝑥 𝑥 𝑥 𝑥 𝑥 𝑥 𝑥 𝑥 𝑥 𝑥 Dos estados i y j son comunicantes si j es accesible desde i, y viceversa, y se escribe: 𝑖 ↔ 𝑗 La comunicación es también una propiedad transitiva, es decir: si 𝑖 → 𝑗 y 𝑗→𝑘 ⇒ 𝑖→𝑘 En el ejemplo 2.f los estados 5 y 7 son comunicantes. 2.2.2) Clasificación de estados en clases comunicantes y estados sin retorno Una clase comunicante es un conjunto de estados que se comunican todos entre si. Como caso particular la clase puede consistir en un sólo estado. En el ejemplo 2.f se pueden formar las siguientes clases comunicantes: ⎧ ⎨ 𝐶1 = {2} 𝐶2 = {3, 4} ⎩ 𝐶3 = {5, 6, 7} Las clases comunicantes se pueden clasificar en recurrentes y transitorias. (a) Clases recurrentes- Estados absorbentes Una clase es recurrente cuando la probabilidad de que la cadena se encuentre en un estado de dicha clase después de ∞ transiciónes es positiva; esto significa que una vez que la cadena ha alcanzado dicha Cadenas de Markov ∣ 23 clase, siempre regresará a ella. En el ejemplo 2.f la clase 𝐶3 es recurrente. Un caso especial de clases recurrentes lo constituyen los llamados estados absorbentes, que son aquellos estados que una vez que la cadena los ha alcanzado, no puede abandonarlos; es decir, siendo accesibles desde otros estados no absorbentes de la cadena, no se cumple la inversa. De lo anterior se deduce que un estado absorbente i tiene una probabilidad 𝑝𝑖𝑖 = 1. (b) Clases transitorias Una clase es transitoria cuando la probabilidad de que la cadena se encuentre en un estado de dicha clase después de ∞ transiciones es nula; esto significa que una vez que la cadena ha alcanzado dicha clase, existe una probabilidad de que no retorne nunca a ella. En el ejemplo 2.f las clases 𝐶1 y 𝐶2 son transitorias. Estados sin retorno son aquellos estados que no se comunican con ningún otro estado, ni siquiera consigo mismo; esto significa que una vez que la cadena ha alcanzado dicho estado la probabilidad de que retorne a él es nula. En el ejemplo 2.f los estados 0 y 1 son sin retorno. Resumiendo lo anterior, los estados pueden clasificarse de la siguiente manera: ⎧ ⎨ Estados sin retorno { transitorias { ⎩ Clases comunicantes recurrentes estados absorbentes 2.2.3) Clasificación de las cadenas de Markov homogéneas en ergódicas y no ergódicas Una cadena de Markov homogénea es ergódica o irreductible cuando todos sus estados se comunican, es decir constituyen una única clase comunicante recurrente. Las cadenas ergódicas pueden ser clasificadas en regulares y periódicas. Cadenas de Markov ∣ 24 (a) Cadenas regulares Una cadena ergódica es regular o aperiódica cuando todos los estados pueden comunicarse simultáneamente en una cantidad r de pasos; en estas condiciones la potencia r de la matriz P : 𝑃 𝑟 es una matriz con todos sus elementos no nulos. Un criterio para comprobar que una cadena es regular consiste en calcular las sucesivas potencias de P hasta encontrar un número r de pasos tal que la matriz 𝑃 𝑟 tiene todos sus elementos no nulos. Ejemplo 2.g Dada la siguiente cadena: 0,5 0,5 0,2 " 0123 7654 0123 7654 01X 1b 1 11 1 0,2 1 11 0,6 1 0123 7654 2 0, 5 0, 5 𝑃 = 0, 2 0, 2 0, 6 1 se cumple que para r = 3 0, 545 0, 245 0, 210 𝑃 = 0, 518 0, 398 0, 084 0, 350 0, 350 0, 300 3 todos sus elementos son no nulos, por lo tanto es una cadena ergódica regular. Como ejemplo: desde el estado 3 se puede acceder al mismo estado recién en 3 pasos. (b) Cadenas periódicas Una cadena ergódica es periódica cuando no se puede encontrar una potencia r de P para la cual todos los elementos de 𝑃 𝑟 sean no nulos; en estas condiciones las sucesivas potencias de la matriz 𝑃 𝑟 denotan un patrón periódico que permite asegurar siempre la presencia de al menos un cero en 𝑃 𝑟 . Ejemplo 2.h Dada la cadena siguiente: Cadenas de Markov ∣ 25 1 1/2 7654 0123 0g ' 7654 0123 :1 1 z 7654 0123 2 0 1 0 𝑃 = 1/2 0 1/2 0 1 0 1/2 es ergódica periódica pues sus sucesivas potencias son: 1/2 0 1/2 𝑃 = 0 1 0 ; 1/2 0 1/2 2 0 1 0 𝑃 = 1/2 0 1/2 ; 0 1 0 3 1/2 0 1/2 𝑃 = 0 1 0 1/2 0 1/2 4 como puede observarse se cumple el patrón de repetición periódico: { 𝑃 = 𝑃 3 = 𝑃 5 = . . . = 𝑃 𝑚 ; con m : impar 𝑃 2 = 𝑃 4 = 𝑃 6 = . . . = 𝑃 𝑛 ; con n : par con la presencia siempre de ceros en las matrices. Una cadena de Markov homogénea es no ergódica o reducible o separable cuando no todos sus estados se comunican, en esas condiciones la cadena es separable en un conjunto de clases comunicantes y estados sin retorno. Ejemplo 2.i Dada la siguiente cadena: 0,5 0,3 0123 7654 0f 7654 0123 2f 0,5 0,2 0,7 0,6 & 7654 0123 1S 0,8 & 7654 0123 3S 0,4 0, 5 0, 8 𝑃 = 0 0 0, 5 0, 2 0 0 0 0 0, 7 0, 6 0 0 0, 3 0, 4 es separable en dos clases comunicantes recurrentes 𝐶1 = {0, 1} y 𝐶2 = {2, 3} La cadena del ejemplo 2.f es separable en: Cadenas de Markov ∣ 26 ⎧ ⎨ 1 clase comunicante recurrente : 𝐶3 = {5, 6, 7} 2 clase comunicante transitoria : 𝐶1 = {2} y 𝐶2 = {3, 4} ⎩ 2 estados sin retorno :0 𝑦 1 Dentro de las cadenas no ergódicas merecen especial atención dos tipos particulares de cadenas denominadas respectivamente cadenas absorbentes y cadenas cı́clicas. (a) Cadenas absorbentes Una cadena absorbente es una cadena no ergódica separable en ∙ 1 o varios estados absorbentes y ∙ 1 o varios estados no absorbentes, constituı́dos por clases comunicantes transitorias o estados sin retorno, desde los cuales se puede acceder a por lo menos un estado absorbente Ejemplo 2.j Dada la siguiente cadena: 0,3 0123 7654 0g 𝑖/ 0,7 ' 7654 0123 1 0,5 1 0,5 0123 7654 2 𝑃 = 𝑗 0 1 2 0 1 2 0, 7 0, 3 0, 5 0, 5 1 es una cadena absorbente separable en una clase comunicante transitoria C={ 0,1} y un estado absorbente 2, para el cual se cumple que 𝑝22 = 1 (b) Cadenas cı́clicas Una cadena cı́clica es una cadena no ergódica en la cual el proceso pasa de un estado a otro cı́clicamente según un cierto patrón de comportamiento. El ciclo es un camino cerrado entre estados de una clase recurrente. Para que una cadena sea cı́clica debe cumplirse que: ∙ tenga por lo menos un ciclo, y Cadenas de Markov ∣ 27 ∙ sea posible entrar en el ciclo Ejemplo 2.k Dada la siguiente cadena: 0,5 7654 0123 0 1 111 0,2 110,3 1 11 ' 0123 7654 0123 7654 1g 2 1 𝑖/ 𝑃 = 0 1 2 𝑗 0 1 2 0, 5 0, 2 0, 3 1 1 es una cadena cı́clica separable en una clase comunicante transitorı́a 𝐶1 ={ 0 } una clase comunicante recurrente 𝐶2 ={ 1, 2 } , que forma un ciclo. Muchas caracterı́sticas de comportamiento de las cadenas no ergódicas después que se han producido un número elevado de transiciciones (en lo que luego se definirá como régimen permanente), se estudian mediente el análisis de sus clases comunicantes recurrentes como si fueran cadenas ergódicas independientes. En resumen las cadenas de Markov homogéneas se pueden clasificar en: { ⎧ regulares Cadenas ergódicas: una clase comunicante recurrente periódicas ⎨ ⎩ Cadenas no ergódicas: separables en clases comunicantes más estados sin retorno { absorbentes cı́clicas A partir de esta clasificación en los puntos siguientes se estudia el comportamiento de las cadenas ergódicas y no ergódicas mencionadas. 2.3 Estudio del Comportamiento de las Cadenas Ergódicas en el Régimen Permanente Se define como régimen permanente o estado estacionario de una cadena de Markov homogénea a la situación que el sistema alcanza luego de un periodo relativamente largo de tiempo. En dicho régimen la cadena ya ha entrado en una condición de equilibrio estocástico, lo cual significa que sus probabilidades Cadenas de Markov ∣ 28 de estado devienen estables en el tiempo. En cambio régimen transitorio es la situación en que el sistema se encuentra luego de un perı́odo relativamente corto de tiempo. En dicho régimen la cadena no ha encontrado todavı́a una condición particular de equilibrio estocástico, es decir sus probabilidades de estado no son estables en el tiempo. Dentro de las cadenas ergódicas regulares y periódicas interesa estudiar especı́ficamente sus comportamientos en el régimen permanente, y sus conclusiones, según se ha dicho más arriba, son extensibles a las clases recurrentes de las cadenas no ergódicas. 2.3.1) Estudio del comportamiento de las cadenas regulares en el régimen permanente Tal como se ha definido en 2.2.3, una cadena regular es una cadena ergódica en la cual todos sus estados pueden comunicarse simultáneamente en una cantidad r de pasos. Para describir el comportamiento de una cadena regular en el régimen permanente o a lago plazo es preciso conocer las probabilidades de transición y de estado cuando el número n de transiciones tiende a ∞. Se puede demostrar que si la cadena es regular, el lı́mite de la matriz de probabilidades de transición P(n) cuando n tiende a ∞ es una matriz regular (todos sus elementos son positivos), con todas sus filas iguales, es decir, de (2.14) es: 𝑝0 . . . .. . 𝑛 lim 𝑃 (𝑛) = lim 𝑃 = 𝑝0 . . . 𝑛→∞ .. . 𝑝0 . . . 𝑝𝑗 . . . .. . 𝑝𝑗 . . . .. . 𝑝𝑗 . . . 𝑝𝑚 .. . 𝑝𝑚 .. . 𝑝𝑚 (2.31) y el lı́mite del vector de probabilidades de estado queda, tomando la 1ra. igualdad de la (2.30): Cadenas de Markov ∣ 29 𝑝0 . . . .. . lim 𝑝(𝑛) = 𝑝(0). lim 𝑃 (𝑛) = 𝑝0 (0) . . . 𝑝𝑖 (0) . . . 𝑝𝑚 (0) x 𝑝0 . . . 𝑛→∞ 𝑛→∞ .. . 𝑝0 . . . y por cumplirse que: 𝑚 ∑ 𝑝𝑗 . . . ... 𝑝𝑗 . . . .. . 𝑝𝑗 . . . 𝑝𝑚 ... 𝑝𝑚 .. . 𝑝𝑚 𝑝𝑖 (0) = 1, queda: 𝑖=0 lim 𝑝(𝑛) = 𝑝0 . . . 𝑝𝑗 . . . 𝑝𝑚 (2.32) 𝑛→∞ las (2.31) y (2.32) expresan que en una cadena de Markov regular, luego de un número suficientemente grande de transiciones (𝑛 → ∞), sus probabilidades de transición 𝑝𝑖𝑗 (𝑛) y de estado 𝑃𝑗 (𝑛) se estabilizan en valores lı́mites iguales para cada estado j, e independientes del estado inicial i. Este estado se conoce como régimen permanente o estacionario, y sus probabilidades de estado 𝑝𝑗 representan los porcentajes de tiempo que la cadena permanece en cada estado j luego de un perı́odo largo de tiempo. Esta distribución de estados lı́mites se puede determinar mediante tres caminos alternativos. (a) mediante el lı́mite de la ecuación (2.31):lim 𝑃 (𝑛) = lim 𝑃 𝑛 ; 𝑛 → ∞ (b) mediante una ecuación que se deriva de la 2da. igualdad de la ecuación de estado (2.30). Para 𝑛 → ∞, según lo expresado más arriba se cumple que: lim 𝑝(𝑛) = lim 𝑝(𝑛 − 1) = 𝑝 𝑛→∞ 𝑛→∞ reemplazando en la 2da. igualdad de la (2.30) quedan: 𝑝 siendo: 𝑚 ∑ 𝑗=0 = 𝑝𝑗 = 1 𝑝 . 𝑃 (2.33) (2.34) Cadenas de Markov ∣ 30 luego con las ecuaciones (2.33) y (2.34), conocida la matriz de transición P de la cadena regular, se puede calcular el vector de probabilidades p del régimen permanente. (c) mediante la llamada “ecuación de balance de flujos probabilı́sticos”, que se deriva de la ecuación (2.33). En efecto, si se desarrolla ésta última es: 𝑃 = 𝑝 0 . . . 𝑝𝑗 . . . 𝑝𝑚 = 𝑝 0 . . . 𝑝𝑖 . . . 𝑝𝑚 𝑝00 . . . .. . x 𝑝𝑖0 . . . .. . 𝑝𝑚0 . . . 𝑝0𝑗 . . . .. . 𝑝𝑖𝑗 . . . .. . 𝑝𝑚𝑗 . . . 𝑝0𝑚 .. . 𝑝𝑖𝑚 .. . 𝑝𝑚𝑚 en la cual el elemento genérico 𝑝𝑗 es: 𝑚 𝑚 ∑ ∑ 𝑝𝑖 .𝑝𝑖𝑗 = 𝑝𝑖 .𝑝𝑖𝑗 + 𝑝𝑗 .𝑝𝑗𝑗 𝑝𝑗 = 𝑖=0 ∀𝑖∕=𝑗 agrupando queda: 𝑚 ∑ 𝑝𝑖 .𝑝𝑖𝑗 = 𝑝𝑗 (1 − 𝑝𝑗𝑗 ) ∀𝑖∕=𝑗 y aplicando la ecuación (2.4) a las transiciones del estado j a un conjunto exhaustivo de estados k es: ∑ 𝑝𝑗𝑘 = 1 ∴ 1 − 𝑝𝑗𝑗 = ∀𝑘 ∑ ∀𝑘∕=𝑗 reemplazando queda: ∑ ∑ 𝑝𝑖 .𝑝𝑖𝑗 = 𝑝𝑗 . 𝑝𝑗𝑘 ∀𝑖∕=𝑗 𝑝𝑗𝑘 ∀𝑘∕=𝑗 ; 𝑗 = 0, . . . , 𝑛 (2.35) Cadenas de Markov ∣ 31 que es la ecuación de balance de flujos ⎧ probabilı́sticos, la cual expresa que “para un nodo genérico j la suma de ⎨ los flujos probabilı́sticos que concur- 𝑖 ren al nodo es igual a la suma de los flujos probabilı́sticos que salen del ⎩ nodo”. == @ == = JJ == u: JJ = uuu JJ == u JJ uuu $ WPQRS / / VUT 𝑗 JJ u: @ == JJ u == JJ uu uu == JJ$ uu == == ⎫ ⎬ ⎭ 𝑘 Ejemplo 2.l Dada la siguiente cadena: 0,5 0,2 " 0123 7654 0123 7654 01X 1b 1 11 1 0,2 1 11 0,6 1 0123 7654 2 0,5 0, 5 0, 5 0 𝑃 = 0, 2 0, 2 0, 6 1 0 0 la cual es ergódica regular pues 𝑃 3 : 0, 35 0, 35 0, 30 𝑃 = 0, 74 0, 14 0, 12 0, 50 0, 50 0 2 ∴ 0, 545 0, 245 0, 210 𝑃 = 0, 518 0, 398 0, 084 0, 350 0, 350 0, 300 3 tiene todos sus elementos no nulos, se puede determinar el vector de probabilidades p del régimen permanente mediante el cálculo de las sucesivas potencias de 𝑃 𝑛 : 0, 5315 0, 3215 0, 1470 𝑃 = 0, 4226 0, 3386 0, 2388 0, 5450 0, 2450 0, 2100 4 𝑃 16 0, 4985 0, 3158 0, 1858 ; 𝑃 = 0, 4979 0, 3090 0, 1931 0, 5077 0, 3096 0, 1827 8 0, 5 0, 3125 0, 1875 = 0, 5 0, 3125 0, 1875 = 𝑝17 = 𝑝18 = lim 𝑃 𝑛 𝑛→∞ 0, 5 0, 3125 0, 1875