Cadenas de Markov Homogéneas - Facultad de Ciencias Económicas

Anuncio
Cadenas de Markov homogéneas
Leandro Gorno1
[email protected]
Facultad de Ciencias Económicas
Universidad de Buenos Aires
Mayo 2003
RESUMEN
El propósito de estas notas es presentar de forma básica ciertos conceptos generales relativos a la
teoría de las cadenas de Markov finitas, así como estudiar algunas clases particulares de este tipo de
procesos. En este último sentido más específico, se abordan las cadenas ergódicas, las cadenas
absorbentes y las cadenas cíclicas.
E
l propósito de estas notas es presentar de forma básica ciertos conceptos generales
relativos a la teoría de las cadenas de Markov, así como estudiar algunas clases
particulares de este tipo de procesos.
De esta forma, en la primera sección se introducen conceptos preliminares, en la segunda sección
trata el tema de las distribuciones invariantes, mientras que en la tercera sección se desarrollan
brevemente algunas nociones acerca de la estructura topológica que subyace a una cadena de
Markov.
Luego se aborda el sentido más específico mencionado arriba, tratándose en secciones separadas
las cadenas ergódicas, las cadenas absorbentes y las cadenas cíclicas.
Sobre la notación, se utilizan letras griegas mayúsculas para denotar conjuntos (salvo en los casos
de conjuntos habituales o cuando se indique explícitamente lo contrario). Además, se utilizan
negritas en la primera mención de un concepto y también para representar matrices y vectores.
Para explicitar algún objeto de estos últimos en función de sus componentes, en esta nota
utilizamos la convención de utilizar doble corchete, indexando las filas de una matriz con
subíndices y las columnas con supraíndices. De esta forma, por ejemplo, si I es un conjunto de
índices naturales, a j = [[aij ]]i ∈I es un vector columna mientras que A = [[aij ]]ij∈∈II es una matriz.
1
Se advierte al lector que estas notas aún presentan un estado bastante preliminar, por lo que cualquier
corrección es bienvenida. En particular agradezco las sugerencias y correcciones realizadas por Julio Fabris a un
borrador anterior de este trabajo. Obviamente, la responsabilidad sobre las deficiencias del material resultante es
exclusivamente mía.
I.
Conceptos preliminares
Un proceso estocástico es una familia de variables aleatorias indexadas por medio de un conjunto
ordenado. El conjunto ordenado suele denominarse dominio del tiempo, mientras que el
codominio de las variables aleatorias (que usualmente se supone idéntico para todas ellas) suele
denominarse espacio de estados2.
Una clase particular de procesos estocásticos es la formada por los llamados procesos de
Markov. A su vez, una clase particular de procesos de Markov es la formada por las cadenas de
Markov. En este trabajo se estudiará el concepto de cadena de Markov homogénea, un tipo
particular de cadena de Markov. Sin embargo, para definir una cadena de Markov es
conveniente definir previamente el concepto más general de proceso de Markov.
Si bien existen definiciones formalmente precisas, para los propósitos de estas notas bastará una
definición intuitiva. De esta forma, un proceso de Markov es un proceso estocástico tal que si
fijamos un instante cualquiera que divida el tiempo en pasado, presente y futuro, la estructura
probabilística del proceso futuro solamente puede depender del estado realizado en el presente.
En otras palabras, la historia pasada de un proceso de Markov es irrelevante para determinar las
características (estocásticas) de su futuro.
Como en todo proceso estocástico, en un proceso de Markov existen relaciones de dependencia
entre las distribuciones de sus componentes. Si el tipo de dependencia es invariante en el tiempo,
el proceso suele llamarse homogéneo.
En general, las cadenas de Markov son procesos de Markov discretos tanto en el espacio de
estados como en el dominio del tiempo. El hecho de que el dominio del tiempo sea discreto,
permite que podamos definir un mecanismo de transición estocástico entre el presente del
sistema y el futuro inmediatamente siguiente. Las cadenas de Markov homogéneas son aquellas
cadenas de Markov que presentan un mecanismo de transición independiente del tiempo
calendario. En los siguientes párrafos se desarrollan más formalmente sus principales
características.
Sea un número n ∈ ` . Por conveniencia en la notación, se asumirá que el espacio de estados es
Ω = { ω ∈ ` : ω ≤ n } y que el dominio del tiempo es ] . Si este no fuera el caso, siempre sería
posible encontrar una biyección que reduzca los conjuntos a los tratados aquí. Claramente, n
indica el número de estados del sistema3.
Sea entonces Y (t ) la variable aleatoria que representa el estado del sistema en el momento t y,
por ende, sea {Y (t ) }t ∈] el proceso estocástico de interés. Definamos la probabilidad de transición
(a un período) como
pij (t ) := prob  Y (t ) = i Y (t − 1) = j  = pij
Nótese que estamos suponiendo que pij (t ) = pij no depende de t . El supuesto de que estas
probabilidades condicionales son invariantes en el tiempo, es la propiedad que identifica las
cadenas de Markov homogéneas dentro de la clase más general de las cadenas de Markov.
De esta forma se puede definir una distribución a un período dado el estado j como un vector
∈Ω
[[ pij ]]i ∈Ω y una distribución condicional completa como una matriz P = [[ pij ]]ij∈Ω
. La matriz P se
denomina usualmente matriz de transición o matriz asociada a la cadena de Markov.
2
Debe señalarse que en una formalización probabilística más precisa, los verdaderos estados de un sistema son
los elementos del conjunto conformante de un espacio de probabilidad subyacente. Este conjunto constituye el
dominio de todas las variables aleatorias y es el verdadero espacio de estados.
3
Si hubiésemos fijado n = ∞ , tendríamos Ω = ` y podríamos desarrollar una teoría para un infinito
numerable de estados. Sin embargo, la extensión al caso infinito-dimensional no es siempre trivial y en estas
notas supondremos que n < ∞ .
El conjunto de distribuciones para una variable aleatoria discreta unidimensional con n estados
puede representarse entonces con un simplex unitario. Llamando
a la norma aditiva
habitual, definida como x = ∑ i ∈Ω x i donde x = [[x i ]]i ∈Ω , dicho simplex tiene dimensión n − 1 y
se define como:
S n −1 := { x ∈ [0,1]n : x = 1 }
Llamemos x(t ) ∈ S n −1 a la distribución incondicional de Y en un momento t , es decir la
distribución incondicional de la variable aleatoria Y (t ) .
Entonces es claro que, para todo t ∈ ] , la sucesión de distribuciones incondicionales { x(t ) }t ∈]
debe obedecer las ecuaciones
x i (t + 1) =
∑p
ij
.x j (t )
i ∈Ω
j ∈Ω
Matricialmente, este sistema de ecuaciones puede expresarse como
x(t + 1) = P. x(t )
(1)
La matriz P puede verse alternativamente como un elemento de S n −1 ×Ω o como una función
Ω → Ω que transforma probabilidades incondicionales con un período de separación. La
probabilidad de que estando el sistema en el estado j en el período t se halle en el estado i en el
período t + k es
pij(k ) := prob  Y (t + k ) = i Y (t ) = j 
(2)
Es evidente que pij(1) = pij . Iterando k veces la ecuación (1) obtenemos una relación entre la
distribución en el período t y la distribución en el período t + k
x(t + k ) = P k . x(t )
La matriz P k contiene entonces las probabilidades condicionales que transforman distribuciones
incondicionales que están separadas por k períodos. En otras palabras, considerando la definición
∈Ω
hecha en (2), se verifica P k = [[ pij(k ) ]]ij∈Ω
.
II. Distribuciones invariantes
En esta sección se estudian las distribuciones invariantes que puede presentar una cadena de
Markov. Antes de proseguir, parece conveniente definir que se entiende por distribución
invariante
DEFINICIÓN II.1 (distribución invariante)
Dada una cadena de Markov con una matriz de transición P , una distribución invariante es un vector
x ∗ ∈ S n −1 tal que x ∗ = P. x ∗ .
Este tipo de distribuciones son de interés debido a que, en una variedad importante de cadenas,
están estrechamente relacionadas con el comportamiento que el proceso estocástico presenta a
largo plazo. Uno de los principales resultados que sustentan este interés es que la sucesión de
vectores de distribución incondicional de la variable de estado en aquellas cadenas que presentan
una única distribución invariante x ∗ y no presentan ciclos, converge asintóticamente a x ∗ 4.
Como puede notarse en la definición dada arriba, una distribución invariante es un punto fijo del
operador P (que relaciona el espacio de distribuciones incondicionales del proceso estocástico,
S n −1 , consigo mismo). Como es claro, dada una matriz de transición P , el espacio de puntos fijos
fix( P ) es la intersección de S n −1 con la solución de la ecuación matricial
( I − P ). x ∗ = 0
O, a nivel de componentes,
∑ (δ
ij
− pij ).x j∗ = 0
i ∈Ω
j ∈Ω
donde δ es la delta de Kronecker5. El conjunto solución de esta ecuación se denota ker( I − P ) y es
un espacio vectorial. La matriz P es una matriz que contiene vectores de distribución condicional,
por lo que siempre tiene un número positivo de autovalores iguales a 16. Esta propiedad implica
directamente la existencia de autovalores nulos en la matriz I − P 7, lo que determina que su
rango no puede ser completo. Formalmente, rank( I − P ) < n , lo que implica dim[ker( I − P )] ≥ 1 8.
La normalización reduce la dimensión del espacio solución en uno, con lo que
dim[fix( P )] = dim[ker( P )] − 1 ≥ n − rank( I − P ) − 1
La diferencia entre n y el rango de la matriz I − P es igual a la cantidad de autovalores iguales
a 1 de la matriz P . Por ende, estudiar el espectro de la matriz de transición, sp( P ) , es esencial
para
caracterizar
fix( P ) .
Sin
embargo,
sin
supuestos
adicionales
sólo
sabemos
que
max { abs [ sp( P ) ] } = 1 (i.e. que sp( P ) tiene radio unitario en el plano complejo). En secciones
posteriores, se definirán clases más específicas de matrices estocásticas, lo que permitirá obtener
resultados más concretos acerca de esas clases.
4
La unicidad es necesaria para evitar que el límite de cada sucesión dependa de la distribución inicial. La
ausencia de ciclos es necesaria para garantizar la convergencia de cada sucesión.
5
La delta de Kronecker se define como δij = 1 si i = j , δij = 0 si i ≠ j .
6
Esto puede verse como una propiedad algebraica bastante general. Cualquier matriz cuadrada no negativa
cuyas columnas sumen una constante c tiene un autovalor real λ = c que, al menos débilmente, domina en
módulo al resto de sus autovalores (propiedad de Frobenius).
7
Es sencillo demostrar que si A es cualquier matriz cuadrada y λ A es uno de sus autovalores, k − λ A es un
autovalor de la matriz k .I − A .
8
Por el teorema de la dimensión, se tiene dim[ker( P )] = n − rank( I − P ) .
III. Algunos conceptos de comunicación entre estados
En esta sección se definirán algunos conceptos relacionados con la comunicación entre los estados
de una cadena de Markov. Adicionalmente, se ilustrará como, a partir de estos conceptos, es
posible construir una topología.
Se dice que un estado j ∈ Ω se comunica con un estado i ∈ Ω si existe k ∈ ` tal que pij(k ) > 0 (es
decir, si el estado i es estocásticamente accesible desde el estado j o está comunicado con el
estado j ). Este hecho suele notarse
j →i
Dos estados i, j ∈ Ω están mutuamente comunicados si j → i y también i → j . Esto se nota
j ↔ i . El conjunto de todos los estados que se comunican con un estado i se denomina clase
comunicante de i , y se puede definir como
Γi := { j ∈ Ω : ∃k ∈ ` / pij(k ) > 0 }
La clase comunicante de un conjunto de estados Ψ ⊂ Ω es la unión de las clases comunicantes de
los estados en Ψ . Nótese que la clase comunicante de ∅ es ∅ . Un conjunto de estados Ψ se
denomina irreducible si ningún subconjunto no vacío de Ψ tiene la misma clase comunicante.
Para entender esto, pensemos que si un conjunto de estados no es irreducible, existe algún estado
en él que puede eliminarse sin alterar la clase comunicante del conjunto resultante.
Sean dos conjuntos de estados Ψ, ϒ ⊂ Ω . Se dice que el conjunto Ψ se comunica con ϒ si existe
un j ∈ Ψ y un i ∈ ϒ tal que j → i . Este concepto es equivalente a la condición Γ ϒ ∩ Ψ ≠ ∅ . Se
dice que Ψ y ϒ están mutuamente comunicados si Ψ se comunica con ϒ y ϒ se comunica con
Ψ . El conjunto Ψ está completamente comunicado con el conjunto ϒ si j ∈ Ψ implica j → i
para algún i ∈ ϒ . Esto se expresa en términos de clases comunicantes como i ∈ ϒ ⇒ Ψ ⊆ Γi .
Además, dos conjuntos están mutua y completamente comunicados si todos los estados de Ψ
están mutuamente comunicados con todos los estados ϒ .
Dado un conjunto de estados Ψ ⊆ Ω , se dice que el conjunto es cerrado o aislado si Ψ no está
comunicado con el complemento de Ψ con respecto a Ω . En otras palabras, Ψ es cerrado si y sólo
si verifica Ψ ∩ ΓΩ / Ψ = ∅ . Nótese que tanto ∅ como Ω son cerrados. Conceptualmente, si Ψ es
cerrado, ningún estado de Ψ está comunicado con un estado externo a Ψ (i.e. los estados de
Ω / Ψ ). Si un conjunto no aislado de estados está completamente comunicado consigo mismo, no
puede contener subconjuntos aislados.
El complemento de un conjunto cerrado, se denomina abierto. De la definición de conjunto
cerrado se desprende que los abiertos son conjuntos de estados que no son accesibles desde
estados externos al conjunto. La definición formal es que Ψ es abierto si (Ω / Ψ ) ∩ Γ Ψ = ∅ .
Considerando esto, la clase de todos los conjuntos abiertos es
Π := { Ψ ⊆ Ω : (Ω / Ψ ) ∩ Γ Ψ = ∅ }
No es difícil comprobar que la intersección de dos conjuntos abiertos es abierta. En efecto, sean
Ψ 1 y Ψ 2 dos conjuntos abiertos y supóngase buscando una contradicción que Ψ 1 ∩ Ψ 2 no es
abierto. Luego, existe un estado i ∈ Ψ 1 ∩ Ψ 2 y un estado j ∈ Ω /(Ψ 1 ∩ Ψ 2 ) tal que j → i . Pero
j ∈ Ω /(Ψ 1 ∩ Ψ 2 ) implica que j ∉ Ψ 1 o j ∉ Ψ 2 , por lo que o Ψ 1 no es abierto o Ψ 1 no es abierto.
Esto prueba que Ψ 1 ∩ Ψ 2 es abierto.
De forma similar, es posible establecer que la unión de conjuntos abiertos es abierta. Para ver
esto, asúmase nuevamente que Ψ 1 y Ψ 2 son dos conjuntos abiertos y supóngase buscando una
contradicción que Ψ 1 ∪ Ψ 2 no lo es. Luego, existe un estado i ∈ Ψ 1 ∪ Ψ 2 y otro estado
j ∈ Ω /(Ψ 1 ∪ Ψ 2 ) = (Ω / Ψ 1 ) ∩ (Ω / Ψ 2 ) tal que
j → i . Pero i ∈ Ψ 1 ∪ Ψ 2 implica i ∈ Ψ 1 o i ∈ Ψ 2 ,
mientras que j ∈ (Ω / Ψ 1 ) ∩ (Ω / Ψ 2 ) implica j ∈ (Ω / Ψ 1 ) y j ∈ (Ω / Ψ 2 ) . Luego, Ψ 1 no es abierto o Ψ 2
no es abierto. Esto prueba que Ψ 1 ∪ Ψ 2 es abierto.
Como, además, ∅ y Ω son abiertos, la clase Π de todos los conjuntos abiertos conforma una
topología sobre Ω 9. Luego, la dupla (Ω, Π) es un espacio topológico finito. Esto fundamenta el uso
de los términos “abierto” y “cerrado” para los tipos de conjuntos definidos más arriba10.
9
Recuérdese que una topología sobre un conjunto Ω es una clase de subconjuntos tal que: i) el conjunto vacío y
el conjunto pertenecen a la clase, ii) la intersección finita de conjuntos de la clase pertenece a la clase, y iii) la
unión arbitraria de conjuntos de la clase pertenece a la clase. Obviamente, si Ω es finito, basta con comprobar
que la clase es invariante ante la unión e intersección de pares de conjuntos.
10
Recuérdese que el concepto de conjunto abierto es en verdad una primitiva topológica. Cualquier elemento de
una topología es, por definición, una conjunto abierto. De la misma forma, el complemento de un conjunto
abierto es, por definición, cerrado.
IV. Cadenas ergódicas
Como las cadenas de Markov presentan una gran variedad de comportamientos, resulta
beneficioso estudiarlas a partir de la construcción de clasificaciones. En este sentido, pueden
definirse tres categorías no exhaustivas y no excluyentes, pero particularmente representativas:
las cadenas ergódicas, las cadenas absorbentes y las cadenas cíclicas. En esta sección
estudiaremos las cadenas ergódicas, mientras que en las siguientes exploraremos las dos
categorías restantes. Antes de proseguir, definamos una cadena ergódica.
DEFINICIÓN IV.1 (cadena ergódica)
Una cadena de Markov es ergódica si para cualquier i, j ∈ Ω , i se comunica con j .
Como resulta claro de las definiciones, en una cadena ergódica, el conjunto de estados Ω está
completamente comunicado consigo mismo. Una clase particular de cadenas ergódicas son las
llamadas cadenas regulares.
DEFINICIÓN IV.2 (cadena regular)
Una cadena de Markov se dice regular si para todo i, j ∈ Ω , existe un k ∈ ` tal que pij(k ) > 0 .
Es decir, si una cadena es regular, existe algún período en el cual todos los estados tienen una
probabilidad de transición positiva hacia cualquier estado del sistema. Dicho de otra forma, existe
k ∈ ` tal que es posible acceder a cualquier estado del sistema en no más de k períodos, sin
importar de qué estado del que se parta. Es claro que la regularidad implica ergodicidad,
mientras que la proposición inversa no es cierta en general. Matricialmente, la condición de
∈Ω
. Por otro lado, no es
regularidad equivale a exigir que exista algún k ∈ ` tal que P k > [[0]]ij∈Ω
difícil ver que la no negatividad de las probabilidades implica que la condición de ergodicidad es
equivalente a la existencia de un número k ∈ ` tal que
k
∑P
s
∈Ω
> [[0]]ij∈Ω
(3)
s =1
Una cadena ergódica tiene propiedades interesantes, como la siguiente
TEOREMA IV.1
Una cadena de Markov ergódica tiene una única distribución invariante. En esa distribución, todos los
estados tienen probabilidad positiva.
Podemos construir una demostración de este teorema, basada puramente en los teoremas de
Perron y Frobenius. Antes que nada notemos que una distribución invariante de la cadena
definida por la matriz P , satisface P.v = v . En otras palabras es un autovector asociado a una
raíz 1.
Teniendo en cuenta que la condición (3) se verifica por hipótesis, consideremos conocido el número
k y definamos
k
∈Ω
S = ∑ P s > [[0]]ij∈Ω
s =1
Si λ es un autovalor de P con un autovector v , es sencillo demostrar por inducción que
P i .v = λ i .v . Sumando sobre i , vemos que esto implica que S.v = α(λ).v donde hemos definido una
función α(λ) = λ.(1 + λ + ... + λ k −1 ) que nos devuelve el autovalor de S correspondiente a cada
autovalor de P . Notemos que v es también autovector de S . El teorema de Frobenius afirma que
debido a que P es no negativa, existe un autovalor real λ ∗ (no necesariamente simple) que
domina débilmente en módulo a todos los demás autovalores. Además, este autovalor está
asociado con al menos un autovector v ∗ de norma unitaria cuyas componentes son no negativas.
Para toda matriz de Markov, λ ∗ = 1 , de donde se deduce que abs(λ) ≤ 1 para cualquier λ .
Claramente, α(λ ∗ ) = α(1) = k . Además, notemos que α(λ ∗ ) = k es real y que si λ ∗ = 1 fuera un
autovalor múltiple, necesariamente α(λ ∗ ) = k sería múltiple. A continuación, mostramos que
max α(λ) = k (i.e. que α(λ ∗ ) domina débilmente a todos lo demás autovalores de S )- Para esto,
abs(λ )≤1
probamos max α(λ) ≤ k
abs(λ )≤1
max α(λ) ≤ max abs[λ.(1 + λ + ... + λk −1 )]
abs(λ )≤1
abs(λ )≤1
≤ max abs(λ).[1 + abs(λ) + ... + abs(λk −1 )]
abs(λ )≤1
max abs(λ)  .  1 + max abs(λ) + ... + max abs(λk −1 ) 
=  abs(

abs(λ )≤1
abs(λ )≤1
 
 λ )≤1
=k
y utilizamos α(1) = k para establecer la igualdad. Finalmente, el teorema de Perron nos dice que
como S es positiva (aquí es donde entra la hipótesis de ergodicidad), tiene un autovalor real y
simple que domina estrictamente a todos los demás autovalores, y que tiene asociado
exactamente un autovector de norma unitaria con todos sus componentes positivos. Si un
autovalor es estrictamente dominante, es el único que domina débilmente a los demás. Como
hemos demostrado que α(λ ∗ ) = k es débilmente dominante entre los autovalores de S , el teorema
de Perron implica que α(λ ∗ ) = k debe ser simple y tener asociado un único autovector de norma
unitaria v ∗ con todos sus componentes positivos. Esto implica que λ ∗ = 1 es simple y basta para
probar que el único autovector de asociado con λ ∗ = 1 es v ∗ . Es decir, la distribución invariante
es única y tiene todos sus componentes positivos, lo que completa la demostración ,
V.
Cadenas absorbentes
Un estado absorbente es un estado que no está comunicado con ningún otro estado. Es decir, un
estado absorbente conforma un conjunto aislado compuesto por un solo elemento. Formalmente,
un estado absorbente es un j ∈ Ω tal que pij = δij para todo i ∈ Ω . Con este concepto, definimos
una cadena absorbente:
DEFINICIÓN V.1 (cadena absorbente)
Una cadena absorbente es una cadena de Markov donde hay al menos un estado absorbente y donde
todos los estados no absorbentes se comunican con algún estado absorbente.
Como es obvio, una cadena absorbente no es ergódica. A continuación emprendemos un análisis
breve de las cadenas absorbentes. Sea Θ el conjunto de estados absorbentes y Φ el conjunto de
estados no absorbentes, de forma tal que Θ ∩ Φ = ∅ y Θ ∪ Φ = Ω . Formalmente, una cadena
absorbente se caracteriza por Θ ≠ ∅ y ΓΘ = Φ .
Siempre podemos construir una biyección Ω → Ω (permutación) que disponga los estados no
absorbentes y los estados absorbentes en forma sucesiva, garantizando que la matriz de
transición presente la estructura
H
P = 
 G
N
I




(4)
∈Φ
∈Φ
∈Θ
∈Θ
∈Θ
∈Θ
, G := [[ pij ]]ij∈Θ
, N := [[ pij ]]ij∈Φ
= [[0]]ij∈Φ
y I := [[ pij ]]ij∈Θ
= [[δij ]]ij∈Θ
. Esto se justifica,
donde H := [[ pij ]]ij∈Φ
considerando que, por definición de estado absorbente, es obvio que Θ no se comunica con Φ .
Además, la definición dada implica que Φ debe comunicarse con Θ 11. El supuesto de que todos
los estados no absorbentes se comunican con algún estado absorbente significa que Φ no contiene
conjuntos cerrados. Esto permite evitar la consideración de ciclos, para cuya ocurrencia es
necesario que exista un subconjunto aislado en Φ . Además, el supuesto de que Φ no tiene
conjuntos cerrados y la ley de cierre para las probabilidades condicionales, permite probar que la
matriz H tiene sus autovalores dentro del círculo unidad12. No es difícil ver que la k − potencia
de la matriz particionada (4) es

Hk
N 
P k = 
−1
k

 G.( I − H ) .( I − H ) I 
(5)
cuyos elementos son las probabilidades de transición a k períodos, pij(k ) . Debe notarse que al
efectuar los k productos de P , resulta la suma matricial
k −1
∑H
s
= ( I − H )−1 .( I − H k )
s =0
Esta expresión ha sido utilizada en (5) y es válida debido a que ( I − H )−1 siempre existe si la
matriz H tiene sus autovalores dentro del círculo unidad.
Debemos notar que si Φ no estuviera comunicado con Θ , el sistema podría particionarse en dos subsistemas
autónomos que podrían estudiarse por separado.
12
La ausencia de conjuntos cerrados en Φ implica que ∑ i ∈Φ pij < ∑ i ∈Ω pij para todo j ∈ Φ . Como, la ley de
11
cierre implica
∑
i ∈Ω
abs[sp( H )] ⊂ [0,1) .
pij = 1 para todo j ∈ Φ , tenemos que
∑
i ∈Φ
pij < 1 , lo que basta para probar que
El comportamiento de largo plazo del sistema puede obtenerse a partir del comportamiento
asintótico de la matriz de transición a k períodos. De esta forma,
P
∞


lim H k

N  
N
k →∞
:= lim P = 
=

−1
−1
k
k →∞
 lim G.( I − H ) .( I − H )
  G.( I − H )
→∞
I
k


k
N 
I 
∈Φ
∈Φ
también implicada por la
donde hemos usado la propiedad lim H k = [[lim pij(k ) ]]ij∈Φ
= [[0]]ij∈Φ
k →∞
k →∞
restricciones en el espectro de H . La interpretación de esto es simplemente que el sistema
abandona el conjunto de estados no absorbentes casi con certeza si se dejan transcurrir
suficientes períodos. La matriz G.( I − H )−1 da las probabilidades asintóticas de transición entre
estados de Φ y estados de Θ .
Con respecto a las distribuciones invariantes, puede demostrarse que si la cadena es absorbente
dim(V ) = card(Θ) 13, con lo que
(6)
dim[fix( P )] = card(Θ) − 1
Esto significa que la cantidad de estados absorbentes determina completamente la dimensión del
espacio de distribuciones invariantes. De hecho, un corolario de (6) es que una cadena de Markov
absorbente presenta una única distribución invariante si y sólo si tiene un único estado
absorbente (como es obvio, si ese estado es el j , la distribución invariante es el vector [[δij ]]i ∈Ω ).
Una propiedad interesante es que la matriz ( I − H )−1 contiene en su diagonal la esperanza
matemática del tiempo que el sistema permanece en un estado de Φ si parte de ese estado. Más
en general, esta matriz contiene en la posición (i, j ) las esperanzas matemáticas del tiempo en el
que sistema se encontrará en el estado i , condicionales a que el sistema parta del estado j . Esto
puede demostrarse considerando que la probabilidad de que el sistema esté en el estado i en el
período t + k si está en el estado j en t está dada por pij(k ) . Esto nos permite construir una
variable aleatoria
∞
Ti = ∑ µi (t + k )
i ∈Φ
k =0
donde las variables aleatorias µi (t + k ) tienen distribuciones condicionales a µ(t ) dada por
prob  µi (t + k ) = 1 µj (t ) = 1  = pij(k )
prob  µi (t + k ) = 0 µj (t ) = 1  = 1 − pij(k )
k ∈`
Como nos interesa la esperanza condicional a Y (t ) = j , se supone que para todo s ∈ Ω , µs (t ) = δsj .
Intuitivamente, µ(t + k ) es un vector aleatorio que se utiliza instrumentalmente para poder
sumar el tiempo que el sistema permanece en cada estado (ya que su componente i vale 1 con
exactamente la probabilidad de que el sistema se encuentre en el estado i en el período t + k ,
dado que el sistema se encontraba en el estado j en t ). La variable Ti representa entonces el
tiempo total (aleatorio) que el sistema pasa en el estado i si parte del estado j .
13
La demostración se basa en que la cantidad de estados absorbentes, card(Θ) , será la cantidad de autovalores
iguales a 1 (lo cuál utiliza propiedades algebraicas acerca de ciertas matrices por bloques demostradas por
ejemplo en [Gorno 2003], junto con el supuesto de que abs[sp( H )] ⊂ [0,1) ). Dada esta proposición, es claro que
card(Θ) = dim[ker( I − P )] = dim(V ) .
La esperanza condicional de Ti es
∞
∞
k =0
k =0
E  Ti µj (t ) = 1  = ∑ E  µi (t + k ) µj (t ) = 1  = ∑  1.pij(k ) + 0.(1 − pij(k ) )  =
∞
∑p
(k )
ij
k =0
Por otro lado, podemos formar la matriz de esperanzas y sumar la expresión resultante
 ∞
  ∑ pij(k )
  k =0
j ∈Φ
∞

∈Φ

= ∑ [[ pij(k ) ]]ij∈Φ
=
  i ∈Φ
k =0
∞
∑H
k =0
k
= lim  ( I − H )−1 .( I − H k )  = ( I − H )−1
k →∞
donde la segunda igualdad surge de observar que las entradas de H k coinciden con las de P k en
el bloque de filas y columnas en Φ (basta con ver (5)). Esto nos lleva a concluir que
j ∈Φ
( I − H )−1 =   E  Ti µj (t ) = 1   
  i ∈Φ

lo que completa la demostración ,
Otro análisis interesante, es el estudio del tiempo que el sistema permanece en un estado de Φ
antes de abandonarlo. Para esto, definamos Κi como una variable aleatoria que representa la
cantidad de períodos que el sistema se mantiene en el estado i (habiendo comenzado allí). Es
claro que Κi sigue una distribución
prob(Κi = k ) = Fi (k ) = (pii )k
k ∈ `0
La permanencia esperada es
∞
E (Κi ) = ∑ k .(pii )k =
k =0
pii
(1 − pii )2
Finalmente, podemos estudiar el tiempo de salida τi del estado i si el sistema está en el estado i
en el período t . Esto no es tarea difícil, si consideramos que la probabilidad de abandonar un
estado i ∈ Φ exactamente en k períodos (habiendo permanecido en él hasta entonces) está dada
por la expresión Fi (k − 1).(1 − pii ) , con lo que el tiempo de salida sigue una distribución
prob(τi = k ) = Gi (k ) = (pii )k −1 .(1 − pii )
k ∈`
El tiempo esperado de salida será
E (τi ) =
∞
∑ k.(p
ii
k =1
)k −1 .(1 − pii ) =
1 − pii
1
.E (Κi ) =
1 − pii
pii
VI. Cadenas cíclicas
En esta sección estudiaremos aquellas cadenas de Markov que presentan una estructura cíclica.
Los ciclos están asociados a autovalores con módulo unitario (pero distintos de 1). Por ende,
debemos considerar como posibles generadores de ciclos autovalores iguales a −1 y pares
autovalores complejos. Antes de proseguir definamos precisamente que entendemos por una
cadena cíclica.
DEFINICIÓN (cadenas cíclicas)
Una cadena de Markov se denomina cíclica si existe un número s ∈ ` tal que P k = P k +s para todo
k ∈ `.
La interpretación de esta definición es clara. Si una cadena es cíclica la distribución a cierto
futuro coincide con la distribución de los estados en un futuro posterior, cualquiera sea la
distribución (incondicional) inicial. El número s se denomina período de la cadena.
A continuación estudiaremos la relación entre el período de la cadena y los autovalores de una
matriz P asociada a una cadena cíclica. Si P es cíclica, por definición, P k = P k +s . Si llamamos J
a la forma de Jordan de P y T al isomorfismo reductor, es claro que podemos escribir
T .J k .T −1 = T .J k +s .T −1 , lo que implica J k = J k +s para todo k ∈ ` . Si la matriz J no es diagonal,
esta ecuación es incompatible. Esto implica que sólo las matrices de transición diagonalizables
pueden representar cadenas cíclicas. Además, los elementos de la diagonal principal son los
autovalores de P y deben satisfacer λik = λik +s para todo k ∈ ` y para i ∈ Ω . Por lo tanto, λi = 0
ó λis = 1 . Para λi ≠ 0 , la ley de De Moivre determina que
λis = abs(λi )s . { cos[arg(λi ).s ] + i.sen[arg(λi ).s ] }
i ∈Ω
Por lo tanto, la condición λis = 1 implica abs(λi ) = 1 y sen[arg(λi ).s ] = 0 (nótese que la última
condición implica abs { cos[arg(λi ).s ] } = 1 ) . En ausencia de raíces nulas, la primera condición es
necesaria para que una cadena sea cíclica, mientras que la segunda nos permite determinar el
período. Para ver esto, podemos despejar si = π / arg(λi ) para i ∈ Ω , donde debemos definir
arg : ^ → [0, 2π) para que los si sean positivos como se requiere. El período queda entonces
determinado por la fórmula
s = lcm(si ) = lcm[π / arg(λi )]
i ∈Ω
i ∈Ω
REFERENCIAS
.
El
[Gorno 2003]
.
Gorno, L. “De los autovalores de las matrices
triangulares por bloques”. Notas no publicadas, 2003.
[Billingsley 1995]
.
Billingsley, P. Probability and Measure. Tercera
edición. Wiley & Sons, 1995.
[González-Landro 1997]
.
González, M. y Landro, A. Cuadernos de teoría de la
probabilidad y sus aplicaciones; el problema de la
predicción en el mercado financiero. Impresos Centro,
1997.
[Aiub 1985]
Aiub, A. Ecuaciones
Coloquio, 1985.
en
Diferencias
Finitas.
[Cramér 1946]
.
Cramér, H. Mathematical Methods of Statistics.
Princeton University Press, 1946.
Descargar