Subido por Karina Hernández

Apuntes Procesos Estocásticos

Anuncio
INSTITUTO POLITÉCNICO
NACIONAL
ESCUELA SUPERIOR DEFÍSICA Y M ATEMÁTICAS
Procesos Estocásticos
Apuntes
Profesor Jorge Rubén Villanueva López
2022
Procesos Estocásticos |2
Elementos de un sistema estocástico
Un proceso o sucesión de eventos que se desarrolla en el tiempo en el cual el resultado en cualquier etapa
contiene algún elemento que depende del azar se denomina proceso aleatorio o proceso estocástico.
por ejemplo, la sucesión podría ser las condiciones del tiempo en el país en una serie de días consecutivos:
el clima cambia día a día de una manera que en apariencia es algo aleatoria.
o bien, la sucesión podría consistir en los precios de las acciones que cotizan en la bolsa en donde otra vez
interviene cierto grado de aleatoriedad.
un ejemplo simple de un proceso estocástico es una sucesión de ensayos de Bernoulli, por ejemplo, una
sucesión de lanzamientos de una moneda.
en este caso, el resultado en cualquier etapa es independiente de todos los resultados previos (esta
condición de independencia es parte de la definición de los ensayos de Bernoulli).
sin embargo, en la mayoría de los procesos estocásticos, cada resultado depende de lo que sucedió en
etapas anteriores del proceso.
por ejemplo, el tiempo en un día determinado no es aleatorio por completo, sino que es afectado en cierto
grado por el tiempo de días previos.
el precio de una acción al cierre de cualquier día depende en cierta medida del comportamiento de la bolsa
en días previos.
el caso más simple de un proceso estocástico en que los resultados dependen de otros ocurre cuando el
resultado en cada etapa sólo depende del resultado de la etapa anterior y no de cualquiera de los resultados
previos.
el proceso se denomina proceso de Markov o cadena de Markov (Una cadena de eventos, cada evento ligado
al precedente).
estas cadenas reciben su nombre en honor del matemático ruso Andrei Andreevitch Markov (1856-1922).
Como mencionamos anteriormente, estas cadenas tienen memoria, recuerdan el último evento y eso
condiciona las posibilidades de los eventos futuros.
Procesos Estocásticos |3
esto justamente las distingue de una serie de eventos independientes como el hecho de tirar una moneda.
este tipo de proceso presenta una forma de dependencia simple, pero muy útil en muchos modelos, entre
las variables aleatorias que forman un proceso esto.
se utilizan, por ejemplo, para analizar patrones de compra de deudores morosos, para planear necesidades
de personal, para analizar el reemplazo de un equipo, entre otros.
podemos definir un proceso estocástico como una colección indexada de variables aleatorias {𝑋𝑡 }, Donde
el índice 𝑡 toma valores de un conjunto 𝑇 dado, considerándose generalmente a 𝑡 como un momento
particular en el tiempo y a 𝑇 el conjunto de instantes de tiempo en los cuales 𝑋𝑡 tomará valores.
de esta manera se define a 𝑋𝑡 como una característica de interés que evoluciona en el tiempo de manera
probabilística.
veamos ahora los conceptos fundamentales de los procesos estocásticos.
supóngase un proceso estocástico elemental con una variable aleatoria indexada {𝑋𝑡 }.
Definiremos los componentes básicos de este proceso estocástico atendiendo al alcance de este curso.
Instantes de tiempo 𝒕
Corresponden a “momentos en el tiempo” donde probablemente se producen cambios de la variable
aleatoria.
en un experimento se puede decir que 𝑡 ∈ 𝑇 son los momentos de observación del fenómeno aleatorio,
donde se verifican los cambios de estado de la variable aleatoria (o variables aleatorias).
ejemplos de representación de los instantes de tiempo son los siguientes:
𝑡0𝑡0 = 0
𝑡1 = 1 𝑝𝑚
𝑡2 = 2 𝑝𝑚 …
𝑡0 = 𝐸𝑛𝑒𝑟𝑜
𝑡1 = 𝐹𝑒𝑏𝑟𝑒𝑟𝑜
𝑡2 = 𝑀𝑎𝑟𝑧𝑜 …
𝑡0 = 𝐸𝑛𝑒𝑟𝑜
𝑡1 = 𝐹𝑒𝑏𝑟𝑒𝑟𝑜
𝑡2 = 𝑂𝑐𝑡𝑢𝑏𝑟𝑒 …
𝑡>0
o
2 < 𝑡 < 10
Instantes de
tiempo
discretos
Instantes de tiempo continuos dentro de
un intervalo
Tenga en cuenta que los momentos 𝑡 que se definan dentro del conjunto 𝑇 de instantes de tiempo, son
aquellos momentos donde nos interese inspeccionar el estado de la variable.
como ejemplo, supóngase el estudio de la variable demanda de un producto, y que además dicha demanda
puede variar mes a mes.
para estudiar este fenómeno aleatorio se puede establecer que los meses en los cuales se quiere verificar
el valor que toma la demanda son únicamente enero, febrero y octubre, esto por motivo de que, en los
demás meses, esta variable se comporta de manera estable y uniforme, siendo factible en estos otros meses
determinar con algo de certeza cuál será su valor.
en este caso, estos 3 meses serían los instantes de tiempo, y el proceso demanda se consideraría un proceso
estocástico ya que no se sabe cuál será la demanda en dichos meses con exactitud, aunque se disponga de
cierta información probabilística o se espere disponer de ella.
Procesos Estocásticos |4
Estado
un estado es un valor que toma la variable aleatoria en cada momento 𝑡.
en otras palabras, en cada momento 𝑡 el proceso estocástico {𝑋𝑡 } se encuentra en un determinado estado.
los Estados son mutuamente excluyentes para cada 𝑡, y pueden ser finitos o infinitos, cualitativos o
cuantitativos.
Ejemplo
sea 𝑋𝑡 = El número de camiones que esperan hacer descargados en un muelle de recepción de mercancías
en un tiempo 𝑡, como se muestra en la siguiente tabla:
Instantes de tiempo 𝒕
𝑡
𝑡
𝑡
𝑡
=0
=1
=2
=3
8:00 am
9:00 am
10:00 am
11:00 am
Estados de la variable {𝑿𝒕 }
𝑋0 = 2 camiones
𝑋1 = 1 camiones
𝑋2 = 4 camiones
𝑋3 = 0 camiones
Estados posibles (espacio de
Estados 𝛀)
Ω = {0,1,2,3,4,5}
En este estudio se estableció (tercera columna de la tabla) que la variable podía tener sólo 6 valores posibles,
no pudiendo haber más de 5 camiones esperando a descargarse.
Introducción a las cadenas de Markov
¿Qué utilidad se busca en las cadenas de Markov?
la idea es encontrar una herramienta telescópica que permita aproximarnos objetivamente al futuro.
el análisis del Markov, permite encontrar la probabilidad de que un sistema se encuentre en un estado
futuro, en particular, en un momento dado.
con esta información probabilística se pretende entonces predecir el comportamiento del sistema a través
del tiempo.
cadenas de Markov
Procesos de predicción y planeación
La memoria temporal de las cadenas de Markov
sea la siguiente secuencia del Estado por el proceso estocástico {𝑋𝑡 }.
𝑋𝑡+1 = 𝑗
Estado futuro
𝑋𝑡 = 𝑖
Estado actual
𝑋𝑡−1 = 𝑘𝑡−1 , 𝑋𝑡−2 = 𝑘𝑡−2 …
Estados pasados
Procesos Estocásticos |5
Las cadenas de Markov tienen la propiedad particular de que las probabilidades que describen la forma en
que el proceso evolucionará en el futuro, dependen sólo del Estado actual en que se encuentra el proceso,
y, por lo tanto, son independientes de los eventos ocurridos en el pasado.
cadenas de Markov
definición
una cadena de Markov es una sucesión de ensayos similares u observaciones en la cual cada ensayo tiene
el mismo número finito de resultados posibles y en donde la probabilidad de que cada resultado para un
ensayo dado depende sólo del resultado del ensayo inmediatamente precedente y no de cualquier resultado
previo.
Propiedad de Markov
dada una secuencia de variables aleatorias 𝑋1 , 𝑋2 , 𝑋3 , … , tales que el valor de 𝑋𝑡 es el estado del proceso en
el tiempo 𝑡. Si la distribución de probabilidad condicional de 𝑋𝑡+1 en Estados pasados es una función de 𝑋𝑡
por sí sola, entonces:
𝑃(𝑋𝑡+1 |𝑋𝑡 = 𝑥𝑡 , 𝑋𝑡−1 = 𝑥𝑡−1 , … , 𝑋2 = 𝑥2 , 𝑋1 = 𝑥1 ) = 𝑃(𝑋𝑡+1 = 𝑥𝑡+1 |𝑋𝑡 = 𝑥𝑡 )
Donde 𝑥𝑖 es el estado del proceso instante 𝑖.
esta identidad es la denominada propiedad de Markov.
el estado en 𝑡 + 1 sólo depende del Estado en 𝑡 y no de la evolución anterior del sistema.
a los posibles valores que pueda tomar la variable aleatoria se le denominaran Estados, por lo que se puede
tener un espacio de Estados discreto y un espacio de Estados continuo.
Por otro lado, la variable tiempo puede ser de tipo discreto o de tipo continuo.
en el caso del tiempo discreto se podría tomar como ejemplo que los cambios de Estado ocurran cada día,
cada mes, cada año, etc.
en el caso del tiempo continuo, los cambios de Estado se podrían realizar en cualquier instante.
el principal interés del estudio a realizar en el caso discreto es el cálculo de probabilidades de ocupación
de cada estado a partir de las probabilidades de cambio de Estado.
Si en el instante 𝑡 se está en el estado 𝑖, ¿con qué probabilidad se estará en el estado 𝑗 en el estado
siguiente 𝑡 + 1?
Llamemos 𝑃𝑖𝑗 la probabilidad de estar en el estado 𝑗 en el momento 𝑡 + 1, conocidos los Estados anteriores:
𝑃𝑖𝑗 = 𝑃{𝑋𝑡+1 = 𝑗 |𝑋𝑡 = 𝑖, 𝑋𝑡−1 = 𝑘𝑡−1 , … , 𝑋1 = 𝑘1 , 𝑋0 = 𝑘0 } = 𝑃{𝑋𝑡+1 = 𝑗 |𝑋𝑡 = 𝑖}
𝑃𝑖𝑗 = 𝑃{𝑋𝑡+1 = 𝑗 |𝑋𝑡 = 𝑖}
A la probabilidad condicional 𝑃(𝑋𝑡+1 = 𝑗|𝑋𝑡+1 = 𝑗 ) se le llama probabilidad de transición del Estado 𝒊 al
estado 𝒋 y se seguirá simbolizando simplemente como 𝑷𝒊𝒋 .
A las probabilidades del tipo 𝑃(𝑋𝑡 = 𝑥𝑡 ) se les denomina probabilidades de ocupación de Estado.
A continuación, se dan unos ejemplos de procesos estocásticos de tiempo discreto.
Procesos Estocásticos |6
Ejemplo 1
la ruina del jugador. en el tiempo 0 tengo $ 2,000. en los tiempos 1, 2, …
se participa en un juego en el que sólo se puede apostar $1000. se gana con probabilidad 𝑝, y se pierde
con probabilidad 1 − 𝑝. el objetivo es aumentar el capital a $4000, y tan pronto como se logre se suspende
el juego. el juego también se suspende si el capital se reduce a $0.
a)
b)
c)
d)
determine el conjunto de Estados
¿𝑋𝑡 Es un proceso estocástico discreto o continuo?
¿cuáles son las variables aleatorias involucradas?
determine las siguientes probabilidades de transición: 𝑃00 , 𝑃01 , 𝑃20 , 𝑃22 , 𝑃33 , 𝑃32 , 𝑃42 , 𝑃44
Solución
Sea 𝑡 el tiempo después de determinada la 𝑡 − é𝑠𝑖𝑚𝑎 partida y 𝑋𝑡 la variable aleatoria que representa el
capital que poseo después del juego cuando el tiempo es 𝑡, si es que lo hay.
a) los Estados que puede tomar el sistema son
estado 0 tener $0
estado 1 tener $1000
estado 2 tener $2000
estado 3 tener $3000
estado 4 tener $4000
b) {𝑋𝑡 } Es un proceso estocástico de tiempo discreto
c) Nótese que 𝑋0 = 2 es una constante conocida, pero que 𝑋1 y las demás 𝑋𝑡 son aleatorias.
d) determine las siguientes probabilidades de transición:
𝑃00 = 1
𝑃01 = 0
Si en el estado es 0 a 4 no juego
𝑃20 = 0
más y, por lo tanto, el estado no
𝑃22 = 0
puede cambiar, entonces
𝑃33 = 0
𝑃32 = 1 − 𝑝
𝑃00 = 𝑃44 = 1
𝑃42 = 𝑝
𝑃44 = 1
Por razones obvias, a estos casos se les llama problema de la ruina del jugador.
Ejemplo 2
una urna contiene 2 esferas, las cuales se encuentran sin pintar. se selecciona una esfera al azar y se lanza
una moneda. Si la esfera elegida no está pintada y la moneda sale sol, pintamos la esfera de rojo; si la
moneda sale águila, la pintamos de negro. Si la esfera ya está pintada, Entonces cambiamos el color de la
esfera de rojo a negro o de negro a rojo, independientemente de si la moneda produce sol o águila. para
modelar este caso como proceso estocástico, definimos a 𝑡 como el tiempo después que la moneda lanzada
por 𝑡 −ésima vez y se ha pintado la esfera escogida. en cualquier tiempo se puede representar el estado
del sistema mediante el vector [𝑢, 𝑟, 𝑏], Donde 𝑢 es el número de esferas sin pintar en la urna, 𝑟 el número
de esferas rojas y 𝑏 el de esferas negras.
a) Determine el conjunto de Estados
Procesos Estocásticos |7
b) determinar la probabilidad de pasar del Estado: [1,1,0] Al estado [0,0,2], [1,1,0] Al estado [0,2,0] y
de [1,1,0] Al estado [1,0,1].
Solución
a) Los estados que puede tomar el sistema son:
Estado 1 [2,0,0]
Estado 2 [1,1,0]
Estado 3 [1,0,1]
Estado 4 [0,1,1]
Estado 5 [0,2,0]
Estado 6 [0,0,2]
b) La probabilidad de pasar del estado [1,1,0] al estado [0,0,2]
Dadas las condiciones del problema, no es posible pasar de [1,1,0] al estado [0,0,2]. Por lo tanto,
la probabilidad es cero.
La probabilidad de pasar del estado [1,1,0] al estado [0,2,0]
1
Para que ocurra esto, debe ocurrir que se seleccione una esfera sin pintar (con probabilidad 2) y
1
que el resultado del lanzamiento de la moneda sea cara (con probabilidad 2), lo que da una
1
4
probabilidad de .
La probabilidad de pasar del estado [1,1,0] al estado [1,0,1]
1
2
Si se escoge la esfera roja (con probabilidad de ), sin importar el resultado del lanzamiento de
1
2
la moneda a esta se le cambiará el color y se alcanza así el estado [1,0,1] con probabilidad .
Es la matriz conformada por las probabilidades condicionales de transición de estados, desde el instante 𝑡
hasta el instante 𝑡 + 1.
Se puede intuir que se llama de un paso puesto que se evalúan las probabilidades condicionales después
de pasada una unidad de tiempo.
Esta matriz se representa como en la siguiente tabla.
Estados
actuales
Estado
1
⋮
𝑖
⋮
𝑟
𝟏
𝑃11
⋯
⋯
⋯
𝑃𝑟1
Estados futuros
𝒋
𝒓
⋯
𝑃1𝑟
⋯
⋯
𝑃𝑖𝑗
⋯
⋯
⋯
⋯
𝑃𝑟𝑟
𝑃11
𝑃21
[
⋮
𝑃𝑠1
𝑃12
𝑃22
⋮
𝑃𝑠2
⋯ 𝑃1𝑠
⋯ 𝑃2𝑠
]
⋱
⋮
⋯ 𝑃𝑠𝑠
El elemento en la fila 𝑖, columna 𝑗, 𝑃𝑖𝑗 = 𝑃(𝑋𝑛 = 𝑠𝑗 |𝑋𝑛−1 = 𝑠𝑖 ), representa la probabilida de transición de
un paso.
Dado que el estado es 𝑖 en el tiempo 𝑡, el proceso debe estar en algún lugar en el tiempo 𝑡 + 1.
Esto significa que para cada 𝑖,
Procesos Estocásticos |8
𝑠
∑ 𝑃(𝑋𝑡+1 = 𝑗 |𝑋𝑡 = 𝑖) = 1
𝑗=1
O bien que
𝑠
∑ 𝑃𝑖𝑗 = 1
𝑗=1
También sabemos que cada elemento de la matriz de transición debe ser no negativa.
Por lo tanto, todos los elementos de la matriz de probabilidad de transición son no negativos y, además,
los elementos de cada renglón deben sumar 1.
El estudio de las cadenas de Markov también necesita que se defina 𝑞𝑖 como la probabilidad de que la
cadena se encuentre en el estado 𝑖 en el tiempo 0; en otras palabras, 𝑃(𝑋0 = 𝑖) = 𝑞𝑖 .
Al vector 𝑞 = [𝑞1 , 𝑞2 , … , 𝑞𝑠 ] se le llama distribución inicial de la cadena de Markov.
Definición
Un proceso estocástico de tiempo discreto es una cadena de Markov si para 𝑡 = 0,1,2, … y todos los estados,
𝑃(𝑋𝑡+1 = 𝑖𝑡+1 | 𝑋𝑡 = 𝑖𝑡 , 𝑋𝑡−1 = 𝑖𝑡−1 , … , 𝑋1 = 𝑖, 𝑋0 = 𝑖0 ) = 𝑃(𝑋𝑡+1 = 𝑖𝑡+1 |𝑋𝑡 = 𝑖𝑡 ) … (1)
En esencia, la ecuación (1) dice que la distribución de probabilidad del estado en el tiempo 𝑡 + 1 depende
del estado en el tiempo 𝑡(𝑖𝑡 ) y no depende de los estados por los cuales paso la cadena para llegar a 𝑖𝑡 ,
ene le tiempo 𝑡 , es decir, el estado que tomara el sistema en el futuro inmediato solo depende del presente
más no del pasado.
Si para cualquier par de estado 𝑖 y 𝑗 ocurre 𝑃(𝑋𝑡+1 = 𝑗|𝑋𝑡 = 𝑖) toma el mismo valor para todo 𝑡, se dice que
la cadena de Markov es estacionaria en el tiempo y se puede escribir:
𝑃(𝑋𝑡+1 = 𝑗|𝑋𝑡 = 𝑖) = 𝑃(𝑋1 = 𝑗|𝑋0 = 𝑖)
… (2)
Donde 𝑃𝑖𝑗 es la probabilidad de que dado el sistema está en el estado 𝑖 en el tiempo 𝑡, el sistema estará en
el estado 𝑗 en el tiempo 𝑡 + 1.
Con frecuencia, en una cadena de Markov, a las 𝑃𝑖𝑗 , se les conoce con el nombre de probabilidades de
transición estacionarias.
La ec. (2) indica que la ley de probabilidad que relaciona el estado tomado en el siguiente periodo con el
estado actual del sistema no cambia, o que permanece estacionaria, en el tiempo.
Por este motivo, a menudo se llama Hipótesis de estabilidad a la ecuación (2).
Toda cadena estacionaria de Markov que cumple con la ec. (2) se llama cadena estacionaria de Markov.
Ejemplo 3
Encuentre la matriz de transición del ejemplo 1.
Procesos Estocásticos |9
Solución
La matriz de transición es la siguiente:
0
0
1
1
0
0
0
1 1−𝑃
𝑃=2
0
1−𝑃
3
0
0
4 [ 0
0
2 3
0
𝑃
0
1−𝑃
0
0
0
𝑃
0
0
4
0
0
0
𝑃
1]
Una matriz de transición se puede representar con una gráfica en la que cada nodo represente un estado y
𝑎𝑟𝑐(𝑖, 𝑗) represente la probabilidad de transición 𝑃𝑖𝑗 .
La siguiente figura es una representación gráfica de la matriz de probabilidad de transición para este
ejemplo.
1-P
1
0
1-P
P
1
2
1-P
P
3
4
P
Ejemplo 4
Determine la matriz de transición del ejemplo 2.
Solución
[0,1,1]
0
[0,1,1]
[0,2,0]
𝑃 = [0,0,2]
[2,0,0]
[1,1,0]
[
[1,0,1]
[0,2,0] [0,0,2] [2,0,0] [1,1,0] [1,0,1]
0 1/2 1/2
0
0
0
0
0
0
1
0
0
0
0
0
1
0
0
0 1/2 1/2
0
0
0
1/4 1/4
0
0
0
1/2
1/4
0
1/4 0 1/2
0]
En la siguiente figura se da una representación gráfica de esta matriz de transición.
∎
1
P r o c e s o s E s t o c á s t i c o s | 10
Se denotará a 𝜋𝑖 (𝑡) como la probabilidad de alcanzar el estado 𝑖 en el instante 𝑡
𝑃(𝑋𝑡 = 𝑖) = 𝜋𝑖 (𝑡)
Siguiendo la lógica de la notación, escribiremos la Ley de Probabilidades asociada a 𝑋𝑡 como:
𝜋(𝑡) = [𝜋1 (𝑡), 𝜋2 (𝑡), … , 𝜋𝑟 (𝑡)]
Se simboliza entonces a la Ley inicial del Sistema como:
𝜋(0) = [𝜋1 (0), 𝜋2 (0), … , 𝜋𝑟 (0)
Ejemplo
Después de mucho estudio sobre el clima, hemos visto que si un día esta soleado, en el 70% de los
casos el día siguiente, continúa soleado y en el 30% se pone nublado. En términos de probabilidad, lo que
nos sirve entonces para predecir el clima, vemos que la probabilidad de que continúe soleado el día siguiente
es de 0.7 y la probabilidad de que al día siguiente esté nublado es 0.3. también nos fijamos en que, si un
día está nublado, la probabilidad de que este soleado el día siguiente es 0.6 y la probabilidad de que se
ponga nublado es 0.4. sí hoy está nublado, ¿cuál es la probabilidad de que mañana continúe nublado?
Solución
analicemos este caso a través de las cadenas de Markov. la información que nos proporcionan es la siguiente:
Espacio de estados: {𝑠𝑜𝑙𝑒𝑎𝑑𝑜, 𝑛𝑢𝑏𝑙𝑎𝑑𝑜}
Periodo de tiempo de transición de estados: un día
Matriz de probabilidades de transición de un paso:
𝑃(𝑥1 = 𝑛𝑢𝑏𝑙𝑎𝑑𝑜 | 𝑋0 = 𝑛𝑢𝑏𝑙𝑎𝑑𝑜) = 0.4
𝑃(𝑥1 = 𝑛𝑢𝑏𝑙𝑎𝑑𝑜 | 𝑋0 = 𝑠𝑜𝑙𝑒𝑎𝑑𝑜) = 0.3
𝑃(𝑥1 = 𝑠𝑜𝑙𝑒𝑎𝑑𝑜 | 𝑋0 = 𝑛𝑢𝑏𝑙𝑎𝑑𝑜) = 0.6
𝑃(𝑥1 = 𝑠𝑜𝑙𝑒𝑎𝑑𝑜 | 𝑋0 = 𝑠𝑜𝑙𝑒𝑎𝑑𝑜) = 0.7
Matriz de transición de un paso, del tiempo 𝑡 al tiempo 𝑡 + 1
𝑡
𝑃𝑡+1
=
ESTADOS
soleado
nublado
soleado
0.7
0.6
nublado
0.3
0.4
Ley inicial del sistema: Hoy está nublado (condición inicial) y por tanto la ley inicial es:
𝜋𝑠𝑜𝑙𝑒𝑎𝑑𝑜 (0) = 𝑃(𝑋0 = 𝑠𝑜𝑙𝑒𝑎𝑑𝑜) = 0
𝜋𝑛𝑢𝑏𝑙𝑎𝑑𝑜 (0) = 𝑃(𝑋0 = 𝑛𝑢𝑏𝑙𝑎𝑑𝑜) = 1
𝜋(0) = [𝜋𝑠𝑜𝑙𝑒𝑎𝑑𝑜 (0), 𝜋𝑛𝑢𝑏𝑙𝑎𝑑𝑜 (0)] = [0,1]
La pregunta entonces es, dada la ley inicial en 𝑡 = 0, hallar las leyes de probabilidad un día después, es
decir, en 𝑡 = 1.
P r o c e s o s E s t o c á s t i c o s | 11
Para lograr esto debemos recordar el Teorema de Probabilidad Total, que lo aplicaríamos de la siguiente
forma:
𝑃(𝑋1 = 𝑛𝑢𝑏𝑙𝑎𝑑𝑜) = 𝑃(𝑋0 = 𝑛𝑢𝑏𝑙𝑎𝑑𝑜)𝑃(𝑋1 = 𝑛𝑢𝑏𝑙𝑎𝑑𝑜 | 𝑋0
= 𝑛𝑢𝑏𝑙𝑎𝑑𝑜) + 𝑃(𝑋0 = 𝑠𝑜𝑙𝑒𝑎𝑑𝑜)𝑃(𝑋1 = 𝑛𝑢𝑏𝑙𝑎𝑑𝑜 | 𝑋0 = 𝑠𝑜𝑙𝑒𝑎𝑑𝑜)
Por lo tanto, 𝑃(𝑋1 = 𝑛𝑢𝑏𝑙𝑎𝑑𝑜) = (1 ∗ 0.4) + (0 ∗ 0.3) = 40%
Se puede notar que en el día de mañana hay más probabilidad de que este el día soleado.
Se calcula en este caso 𝑃(𝑋1 = 𝑠𝑜𝑙𝑒𝑎𝑑𝑜) se dará cuenta que es igual al 60%, y, por lo tanto, la ley de
Probabilidades del día de mañana dada la condición inicial de nublado será:
𝜋(1) = [𝜋𝑠𝑜𝑙𝑒𝑎𝑑𝑜 (1), 𝜋𝑛𝑢𝑏𝑙𝑎𝑑𝑜 (1)] = [60%, 40%]
Y que pasa si quisiéramos predecir de alguna manera lo que ocurrirá mañana, cuando no tengo precisión
acerca de la Ley inicial del sistema.
Para esto, supongamos que en vez de afirmar tan rotundamente que hoy está nublado, dijéramos que está
nublado con una precisión del 80% en nuestra afirmación, es decir, que está bastante nublado, pero no
tanto como para afirmar que está totalmente nublado.
En este caso podemos decir que la Ley inicial del sistema es:
𝜋(0) = [𝜋𝑠𝑜𝑙𝑒𝑎𝑑𝑜 (0), 𝜋𝑛𝑢𝑏𝑙𝑎𝑑𝑜 (0)] = [20%, 80%]
Y de nuevo hacemos la pregunta ¿cuál es la probabilidad de que mañana esté nublado?
𝑃(𝑋1 = 𝑛𝑢𝑏𝑙𝑎𝑑𝑜) = (0.8 ∗ 0.4) + (0.2 ∗ 0.3) = 0.38∎
En cualquiera de los dos casos anteriores observemos que:
[𝜋𝑠𝑜𝑙𝑒𝑎𝑑𝑜 (0), 𝜋𝑛𝑢𝑏𝑙𝑎𝑑𝑜 (0)] × [0.7 0.3] = [𝜋𝑠𝑜𝑙𝑒𝑎𝑑𝑜 (1), 𝜋𝑛𝑢𝑏𝑙𝑎𝑑𝑜 (1)]
0.6 0.4
[(0.2 ∗ 0.7) + (0.8 ∗ 0.6), (0.2 ∗ 0.3) + (0.8 ∗ 04)] = [0.62 0.38]
Continuando con el ejemplo anterior, si hoy está nublado, ¿Cuál es la probabilidad de que pasado mañana
continue nublado?
Solución
Podría pensarse que
[𝜋𝑠𝑜𝑙𝑒𝑎𝑑𝑜 (1), 𝜋𝑛𝑢𝑏𝑙𝑎𝑑𝑜 (1)] × [0.7 0.3] = [𝜋𝑠𝑜𝑙𝑒𝑎𝑑𝑜 (2), 𝜋𝑛𝑢𝑏𝑙𝑎𝑑𝑜 (2)]
0.6 0.4
Con lo cual:
[𝜋𝑠𝑜𝑙𝑒𝑎𝑑𝑜 (2), 𝜋𝑛𝑢𝑏𝑙𝑎𝑑𝑜 (2)] = [0.62 0.38] × [0.7 0.3] = [0.662 0.338]
0.6 0.4
Por, lo tanto la probabilidad de que pasado mañana continue nublado es de 0.338.
En general, se tiene que para cualquier cadena de Markov
𝜋(1) = 𝜋(0) × 𝑃10
… (1)
P r o c e s o s E s t o c á s t i c o s | 12
Esta es una primera generalización de las Leyes de Probabilidad.
A partir de (1), obtenemos:
𝑡
𝜋(𝑡 + 1) = 𝜋(𝑡)𝑃𝑡+1
… (2)
Y si usamos de una manera inductiva esta última ecuación, tendremos que:
𝜋(𝑛) = 𝜋(0)𝑃10 𝑃21 … 𝑃𝑛𝑛+1
… (3)
La ecuación (3) corresponde a la ley de probabilidades a priori para el estado del sistema en un instante
futuro 𝑛, y se observa que depende exclusivamente de la ley inicial 𝜋(0) y del conjunto de matrices de
𝑡
transición de un paso {𝑃𝑡+1
}.
supongamos ahora que nos interesa conocer la ley de probabilidad del proceso estocástico {𝑋𝑡 } pero en el
instante 𝑡 + 2.
según la ecuación (2) tenemos que:
𝑡+1
𝜋(𝑡 + 2) = 𝜋(𝑡 + 1)𝑃𝑡+2
pero por la misma ecuación (2) podemos reemplazar 𝜋(𝑡 + 1) por su equivalente:
𝑡
𝑡+1
𝜋(𝑡 + 2) = 𝜋(𝑡)𝑃𝑡+1
𝑃𝑡+2
… (4)
con base en la ecuación (4) se puede definir la matriz de transición de dos pasos como:
𝑡
𝑡
𝑡+1
𝑃𝑡+2
= 𝑃𝑡+1
𝑃𝑡+2
… (5)
𝑡
los elementos de la matriz de transición de dos pasos 𝑃𝑡+2
[𝑖, 𝑗] representan por tanto las 𝑝 condicionales
de que el sistema evolucione a un estado 𝑗 en el instante 𝑡 + 2, dado que el instante 𝑡 se encuentra en el
estado 𝑖.
la ecuación de Chapman-Kolmogorov corresponde a una generalización de la ecuación (5) y afirma que:
dados tres instantes de tiempo cualquiera 𝑛, 𝑘 y 𝑚, tal que 𝑛 ≤ 𝑘 ≤ 𝑚, se cumple siempre que:
𝑃𝑚𝑛 = 𝑃𝑘𝑛 𝑃𝑚𝑘
∀𝑛, 𝑘, 𝑚
con 𝑛 ≤ 𝑘 ≤ 𝑚 … (6)
a la ecuación (6) se le conoce como la ecuación de Chapman-Kolmogorov y es una consecuencia directa de
la definición de probabilidades condicionales.
Cadenas de Markov homogéneas
el resto de este capítulo se enfocará en los pasos especiales en que la probabilidad de evolución del sistema
no depende de 𝑡, es decir que se tienen las siguientes igualdades:
𝑡
𝑃01 = 𝑃21 = 𝑃31 = ⋯ = 𝑃𝑡+1
=𝑃
es decir, lo anterior es equivalente a imponer que las probabilidades de transición de un paso son
constantes, independientes de 𝑡:
𝑡
𝑃𝑡+1
=𝑃
∀𝑡
esto se le llama probabilidades de transición estacionarias u homogéneas.
P r o c e s o s E s t o c á s t i c o s | 13
esto implica que la evolución del sistema en cadenas de Markov homogéneas, es decir, las leyes de
probabilidad "𝑛" períodos de tiempo hacia el futuro, viene dada por:
𝜋(𝑛) = 𝜋(0)𝑃10 𝑃21 … 𝑃𝑛𝑛−1 = 𝜋(0) ∙ (𝑃)𝑛
𝜋(𝑛) = 𝜋(0) ∙ 𝑃(𝑛) … (7)
A 𝑃(𝑛) se le denomina matriz de transición de 𝑛 pasos, y como puede notarse es igual a multiplicar “n veces”
la matriz única 𝑃.
en cadenas de Markov la evolución del sistema queda plenamente definida entonces solamente la ley inicial
del sistema 𝜋(0), y la matriz de transición de un paso única 𝑃.
considérese la siguiente matriz de probabilidades de transición de un paso para el caso de 3 estados 𝐴, 𝐵, 𝐶
de un proceso estocástico cualquiera
0
𝐴
𝑃=
𝐵
𝐶
𝐴
0.2
[0.7
0.3
𝐵
0.5
0.2
0.6
𝐶
0.3
0.1]
0.1
en general, una de las propiedades de la matriz de transición 𝑃 es que la sumatoria de los elementos de las
filas suman "1", es decir:
𝑟
∑ 𝑃𝑖𝑗 = 1
𝑖 = 1,2, … , 𝑟
𝑗=1
esta misma propiedad de 𝑃 la tienen como es razonable todas las matrices 𝑃(𝑛)
0.48 0.38 0.14
0.2 0.5 0.3 0.2 0.5 0.3
𝑃(2) = [0.7 0.2 0.1] [0.7 0.2 0.1] = [0.31 0.45 0.24]
0.51 0.33 0.16
0.3 0.6 0.1 0.3 0.6 0.1
observe que la sumatoria de los elementos de cada fila suman "1", tal como debe esperarse.
la interpretación de los elementos de la matriz 𝑃(2) puede verse con estos dos ejemplos:
Existe una probabilidad del 48% de que el proceso evolucione después de dos períodos de tiempo
hacia el estado 𝐴, dado que actualmente se encuentra en el estado 𝐴.
Hay una probabilidad de 24% de que el proceso evolucione después de dos periodos de tiempo
hacia el estado 𝐶, dado que actualmente se encuentre en el estado 𝐵.
la probabilidad de pasar por primera vez del estado 𝑖 al 𝑗 después de 𝑛 periodos se simboliza como:
(𝑛)
𝑓𝑖𝑗
Veamos una forma general de hallar esta probabilidad de primera pasada, utilizando la información de las
matrices 𝑃 y 𝑃(𝑛) .
(1)
(1)
dado que por lógica simple se tiene que 𝑓𝐵𝐴 = 𝑃𝐵𝐴 , observe cuidadosamente la siguiente relación:
(2)
(2)
(1)
(1)
𝑓𝐵𝐴 = 𝑃𝐵𝐴 − 𝑓𝐵𝐴 ∙ 𝑃𝐵𝐵 … (8)
P r o c e s o s E s t o c á s t i c o s | 14
con esta fórmula y las matrices 𝑃 y 𝑃2 obtenemos que:
(2)
𝑓𝐵𝐴 = 0.31 − (0.7)(0.2) = 0.17
en la teoría, la fórmula (8) se ha estudiado y se ha generalizado para el cálculo de las probabilidades de
primera pasada así:
(1)
𝑓𝑖𝑗 = 𝑃𝑖𝑗
(2)
(2)
(1)
𝑓𝑖𝑗 = 𝑃𝑖𝑗 − 𝑓𝑖𝑗 ∙ 𝑃𝑖𝑗
⋮
(𝑛)
𝑓𝑖𝑗
(𝑛)
(1)
(𝑛−1)
= 𝑃𝑖𝑗 − 𝑓𝑖𝑗 ∙ 𝑃𝑖𝑗
(2)
(𝑛−2)
− 𝑓𝑖𝑗 ∙ 𝑃𝑖𝑗
(𝑛−1)
− ⋯ − 𝑓𝑖𝑗
∙ 𝑃𝑖𝑗
(𝑛)
para dos estados cualquiera 𝑖 y 𝑗, las probabilidades 𝑓𝑖𝑗 , son números no negativos tales que:
∞
(𝑛)
∑ 𝑓𝑖𝑗
≤1
… (9)
𝑛=1
en este caso de ser la inecuación (9) una desigualdad, estrictamente menor que uno, significa que un
proceso que inició en el estado 𝑖 “puede no llegar nunca al estado j”.
esto quiere decir también que si la relación (9) hizo una estricta igualdad se asegura por tanto la transición
del estado 𝑖 al 𝑗.
Tiempo promedio de primera pasada
vamos a hallar ahora un dato generalmente muy buscado en procesos estocásticos, y es cuánto tiempo en
promedio debe pasar para que partiendo de un estado 𝑖 se llegue por primera vez a un estado 𝑗.
A este tiempo se le denota como 𝜇𝑖𝑗 y se le llama “tiempo promedio de primera pasada”.
Para calcular 𝜇𝑖𝑗 , primeramente, hay que decir que 𝜇𝑖𝑗 tomará valores siempre y cuando la fórmula (9)
corresponda a una igualdad, es decir:
∞
∞
𝜇𝑖𝑗 =
𝑆𝑖
∑
𝑛=1
∞
∞
{
∑
𝑆𝑖
𝑛=1
∑
𝑛=1
(𝑛)
𝑓𝑖𝑗
(𝑛)
𝑓𝑖𝑗
≤1
… (10)
=1
supongamos que actualmente estamos en el estado 𝑖.
Entonces con probabilidad 𝑃𝑖𝑗 , se necesitará una transición para pasar del estado 𝑖 al estado 𝑗.
luego para 𝑘 ≠ 𝑗, con probabilidad 𝑃𝑖𝑘 se pasará al estado 𝑘.
en este caso, tomará un promedio de 1 + 𝜇𝑘𝑗 transiciones para ir de 𝑖 a 𝑗.
este razonamiento implica que:
P r o c e s o s E s t o c á s t i c o s | 15
𝜇𝑖𝑗 = 𝑃𝑖𝑗 (1) + ∑ 𝑃𝑖𝑘 (1 + 𝜇𝑘𝑗 )
𝑘≠𝑗
Como 𝑃𝑖𝑗 + ∑𝑘≠𝑗 𝑃𝑖𝑘 = 1
podemos reescribir la ecuación anterior como
𝜇𝑖𝑗 = 1 + ∑ 𝑃𝑖𝑘 ∙ 𝜇𝑘𝑗
… (11)
𝑘≠𝑗
= 1 + 𝑃𝑖1 ∙ 𝜇1𝑗 + 𝑃𝑖2 ∙ 𝜇2𝑗 + 𝑃𝑖3 ∙ 𝜇3𝑗 + ⋯
Donde 𝑃𝑖𝑘 son probabilidades condicionales, que corresponden a datos de la conocida matriz 𝑃.
por ejemplo, calculemos el tiempo de primera pasada del estado 𝐵 al 𝐴 en el caso ya visto, se construye
entonces la ecuación según la fórmula (11):
𝜇21 = 1 + 𝑃21 ∙ 𝜇11 + 𝑃22 ∙ 𝜇21 + 𝑃23 ∙ 𝜇31
o
𝜇𝐵𝐴 = 1 + 𝑃𝐵𝐵 ∙ 𝜇𝐵𝐴 + 𝑃𝐵𝐶 ∙ 𝜇𝐶𝐴 … (12)
Dado que en esta ecuación se tiene a 𝜇𝐶𝐴 como incógnita, entonces construimos también la ecuación
respectiva:
𝜇𝐶𝐴 = 1 + 𝑃𝐶𝐵 ∙ 𝜇𝐵𝐴 + 𝑃𝐶𝐶 ∙ 𝜇𝐶𝐴 … (13)
Ahora, con las ecuaciones (12) y (13) y nuestra última matriz de transición es se hace un sistema de
ecuaciones que tiene en este caso la siguiente estructura
𝜇𝐵𝐴 = 1 + 0.2𝜇𝐵𝐴 + 0.1𝜇𝐶𝐴
𝜇𝐶𝐴 = 1 + 0.6𝜇𝐵𝐴 + 0.1𝜇𝐶𝐴
La solución de este sistema arroja el resultado buscado:
̅̅̅ periodos de tiempo.
𝜇𝐵𝐴 = 1. ̅51
Es decir, el tiempo promedio que debe pasar para que partiendo del estado 𝐵 se llegué por primera vez al
estado 𝐴.
Ejercicio: Determine 𝜇𝐴𝐵
Solución
𝜇𝐴𝐵 = 1 + 𝑃𝐴𝐴 ∙ 𝜇𝐴𝐵 + 𝑃𝐴𝐵 ∙ 𝜇𝐵𝐵 + 𝑃𝐴𝐶 ∙ 𝜇𝐶𝐵
o
𝜇12 = 1 + 𝑃11 ∙ 𝜇12 + 𝑃12 ∙ 𝜇22 + 𝑃13 ∙ 𝜇32
Luego
𝜇𝐶𝐵 = 1 + 𝑃𝐴𝐴 ∙ 𝜇𝐴𝐵 + 𝑃𝐴𝐵 ∙ 𝜇𝐵𝐵 + 𝑃𝐴𝐶 ∙ 𝜇𝐶𝐵
P r o c e s o s E s t o c á s t i c o s | 16
𝜇32 = 1 + 𝑃11 ∙ 𝜇12 + 𝑃12 ∙ 𝜇22 + 𝑃13 ∙ 𝜇32
Entonces
𝜇𝐴𝐵 = 1 + 0.2𝜇𝐴𝐵 + 0.3𝜇𝐶𝐵
𝜇𝐶𝐵 = 1 + 0.3𝜇𝐴𝐵 + 0.1𝜇𝐶𝐵
Por lo tanto, la solución
𝜇𝐴𝐵 =
40
21
≈ 1.9048 periodos de tiempo
Clasificación de estados de una cadena de Markov
la siguiente matriz de transición se usará para mostrar la mayoría de las definiciones siguientes.
0.4 0.6 0
0
0
0.5 0.5 0
0
0
𝑃= 0
0 0.3 0.7 0
0
0 0.5 0.4 0.1
[0
0
0 0.8 0.2]
representación gráfica de la matriz de transición
Definición
Dados dos estados 𝑖 y 𝑗, la trayectoria de 𝑖 a 𝑗 es la sucesión de transiciones que comienzan en 𝑖 y termina
en 𝑗, di modo que cada transición de la secuencia tenga probabilidad positiva de presentarse.
Definición
Un estado 𝑗 es alcanzable desde un estado 𝑖 si hay una trayectoria que vaya de 𝑖 a 𝑗, es decir, sí para algún
𝑛 ≥ 1, 𝑃𝑖𝑗 (𝑛) > 0.
Entonces, que el estado 𝑗 sea alcanzable desde el estado 𝑖 significa que es posible que el sistema llegue
eventualmente al estado 𝑗 si comienza en el estado 𝑖.
para la matriz 𝑃 de probabilidad de transición anterior, el estado 5 es alcanzable desde el trayecto 3 (a
través de la trayectoria 3-4-5), pero el estado 5 no es alcanzable desde el estado uno (no hay trayectoria
que vaya de 1 a 5).
P r o c e s o s E s t o c á s t i c o s | 17
Definición
se dice que dos estados 𝑖 y 𝑗 se comunican si 𝑗 es alcanzable desde 𝑖, e 𝑖 es alcanzable desde 𝑗(𝑖 ⟷ 𝑗).
Una propiedad importante es que al tener 3 estados 𝐸𝑖 , 𝐸𝑗 e 𝐸𝑘 , se cumple que:
Si 𝐸𝑖 ⟷ 𝐸𝑗 y también 𝐸𝑖 ⟷ 𝐸𝑘 , entonces se tiene que 𝐸𝑗 ⟷ 𝐸𝑘 .
Para a matriz 𝑃 de probabilidad de transición anterior, los estados 1 y 2 se comunican: podemos pasar de
1 a 2 y de 2 a 1.
Definición
Un conjunto de estados 𝑆 en una cadena de Markov es un conjunto cerrado si ningún estado fuera de 𝑆 es
alcanzable desde un estado en 𝑆.
De la cadena de Markov con la matriz 𝑃 anterior, tanto 𝑆1 = {1,2} como 𝑆2 = {3,4,5} son conjuntos cerrados.
Observe que una vez que entramos a un conjunto cerrado no podemos dejarlo nunca,
En el grafo de la matriz P, ningún arco comienza en 𝑆1 y termina en 𝑆2 o principia en 𝑆2 y termina en 𝑆1 .
Es evidente que todos los estados de un conjunto cerrado se comunican y por lo tanto estos no son más
que clases de equivalencia inducidos por la relación de comunicación.
Definición
una cadena de Markov es irreducible si todos sus estados pertenecen al mismo conjunto cerrado.
lo anterior significa que todos los estados de la cadena pertenecen a la misma clase de equivalencia inducida
por la relación de comunicación y por lo tanto todos sus estados se comunican.
Definición
Un estado 𝑖 es estado absorbente sí 𝑃𝑖𝑖 = 1.
siempre que entramos a un estado de absorción, nunca lo podremos dejar.
en el ejemplo de la ruina del jugador, los estados 0 y 4 son absorbentes.
es natural que un estado absorbente sea un conjunto cerrado que solo contenga un estado.
Definición
Un estado 𝑖 es estado transitorio si existe un estado 𝑗 alcanzable desde 𝑖, pero el estado 𝑖 no es alcanzable
desde el estado j.
En otras palabras, un estado 𝑖 es transitorios hay manera de dejar el estado 𝑖 de tal modo que nunca se
regrese a él.
en el ejemplo de la ruina del jugador, los estados 1, 2 y 3 son estados transitorios.
por ejemplo, desde el estado 2 es imposible pasar por la trayectoria 2-3-4, pero no hay modo de regresar
al estado 2 desde el estado 4.
Igualmente, en el ejemplo de las esferas y la moneda, [2,0,0], [1,1,0] y [1,0,1] son estados transitorios.
P r o c e s o s E s t o c á s t i c o s | 18
en este caso hay una trayectoria desde [1,0,1] a [0,0,2], pero una vez que se hayan pintado ambas esferas,
no hay manera de regresar a [1,0,1].
después de un gran número de períodos, la probabilidad de encontrarse en cualquier estado de transición
𝑖 es 0.
cada vez que entramos a un estado 𝑖 de transición, hay una probabilidad positiva de dejar 𝑖 para siempre y
terminar en el estado 𝑗 descrito en la definición de estado transitorio.
Así, al final, tenemos la seguridad de entrar al estado 𝑗 (y en este caso nunca regresaremos al estado 𝑖).
Así, suponga nuevamente que en el ejemplo de las esferas en la moneda nos encontramos en el estado
transitorio [1,0,1].
Con probabilidad 1, la esfera no pintada la pintaremos finalmente y nunca regresaremos a ese estado [1,0,1].
Definición
Si un estado muy transitorio, se llama estado recurrente.
todo estado absorbente es recurrente.
Lo contrario no es cierto.
en el ejemplo de la ruina del jugador, los estados 0 y 4 son estados recurrentes (y también estados
absorbentes).
en el ejemplo de las esferas y la moneda, los estados [0,2,0], [0,0,2], [0,1,1] Son estados recurrentes.
para la matriz de transición
0.4 0.6 0
0
0
0.5 0.5 0
0
0
𝑃= 0
0 0.3 0.7 0
0
0 0.5 0.4 0.1
[0
0
0 0.8 0.2]
cuya gráfica es
todos los estados son recurrentes.
La recurrencia es una propiedad de clase, es decir, todos los estados de una clase (o conjunto cerrado) son
recurrentes o son transitorios.
Entonces, todos los estados de una cadena de Markov de estado finito irreducible son recurrentes.
P r o c e s o s E s t o c á s t i c o s | 19
Definición
Un estado 𝑖 es periódico con período 𝑘 > 1 sí 𝑘 es el menor número tal que todas las trayectorias que
parten del estado 𝑖 y regresan al estado 𝑖 tienen una longitud múltiplo de 𝑘.
sí un estado recurrente no es periódico, se llama aperiódico.
al igual que la recurrencia es una propiedad de clase, también lo es la periodicidad.
esto es, si el estado 𝑖 en una clase tiene periodo 𝑘, todos los estados de esta clase (o conjunto cerrado)
tienen periodo 𝑘.
Ejemplo
Para la cadena de Markov cuya matriz de transición es
0
𝑄 = [0
1
1 0
0 1]
0 0
a. Hacer una gráfica
b. indicar el periodo de cada estado
Cada estado tiene periodo 3.
por ejemplo, si comenzamos en el estado uno, la única manera de regresar a ese estado es seguir
la trayectoria 1-2-3-1 durante, digamos, 𝑚 veces.
por lo tanto, cualquier regreso al estado 1 tomará 3𝑚 transiciones de modo que el estado 1 tiene
periodo 3.
donde nos encontremos, tenemos la seguridad de regresar allí 3 periodos después.
Definición
si todos los estados una cadena son recurrentes, aperiódicos y se comunican entre sí, se dice que la cadena
es ergódica.
el ejemplo de la ruina del jugador no es una cadena ergódica porque, por ejemplo, los estados 3 y 4 no se
comunican.
el ejemplo de las esferas y la moneda tampoco es una cadena ergódica porque, por ejemplo, [2,0,0] y [0,1,1]
No se comunican.
Ejemplo
de las siguientes tres cadenas de Markov indicar cuál de ellas es el ergódica:
𝑃1 =
1
2
3
1
3
2
[0
0
1
4
0
1
2
3
; 𝑃2 =
4]
1
1
2
1
2
1
2
2
0 0
[0 0
0 0
1
1
0 0
4
2
2
1
3
3
2
2
1
3
1
3
3
4
; 𝑃3 =
4]
[0
3
1
4
0
1
3]
P r o c e s o s E s t o c á s t i c o s | 20
solución
Las cadenas de Markov, 𝑃1 y 𝑃3 son ergódicas y 𝑃2 no es ergódica.
𝑃2 no es ergódica porque hay 2 clases cerradas de estados (la clase 1 = {1,2} Y la clase 2 = {3,4} y los
estados en clases diferentes no se comunican entre sí.
Periodicidad de las clases recurrentes
para una clase recurrente, se puede obtener el periodo (𝑝) como el máximo común divisor (MCD) de las
longitudes de los ciclos que puede encontrarse en esa clase.
partiendo de la observación de un grafo, un ciclo es una ruta que sale de un estado y regresa a él mismo.
veamos los siguientes ejemplos.
Ejemplo 1
Para determinar el periodo de este de cualquier otra clase
recurrente, pueden obviarse los valores de las probabilidades
asociadas a los arcos y únicamente observar los ciclos existentes.
registraremos entonces las longitudes de dichos ciclos:
• ciclos de longitud 2 (ejemplo: 3-4-3 o 5-4-5)
• Ciclos de longitud 3 (ejemplo: 3-4-5-3)
𝑀𝐶𝐷(2; 3) = 1
⟹ 𝑝𝑒𝑟𝑖𝑜𝑑𝑜 𝑝 = 1
Ejemplo 2
•
•
•
ciclos de longitud 2 (ejemplo: B-C-B, etc.)
Ciclos de longitud 4 (ejemplo: B-C-D-A-B, A-B-C-B-A, etc.)
Ciclos de longitud 6 (ejemplo: A-B-C-D-C-B-A, etc.)
𝑀𝐶𝐷(2; 4; 6) = 2
⟹ 𝑝𝑒𝑟𝑖𝑜𝑑𝑜 𝑝 = 2
Ejemplo 3
En este caso, por existir un ciclo de longitud uno, (B-B), el máximo común
divisor será de cualquier forma también igual a uno, y por lo tanto se dice
que esta clase recurrente tiene periodo 𝑝 = 1.
considerando lo anterior se definen dos tipos de clases recurrentes
▪
▪
Clase recurrente aperiódica: aquella que tenga periodo 𝑝 = 1.
clase recurrente periódica: aquella que tenga período 𝑝 > 1.
P r o c e s o s E s t o c á s t i c o s | 21
Clases recurrentes aperiódicas
cuando una cadena de marco finita homogénea posee una única clase la cual es recurrente aperiódica, se
dice que la cadena es ergódica o totalmente aleatoria.
y aquí es necesario mencionar ciertos aspectos importantes del concepto clásico de ergodicidad de
Boltzman.
Veamos el ejemplo de ergodicidad.
supongamos que disponemos de 2 estanques A y B unidos por una tubería, la que contiene una llave de
paso originalmente cerrada.
El estanque A contiene oxígeno una presión 𝑃𝑎 y el B helio a una presión 𝑃𝑏 .
si la válvula se abre, las moléculas de oxígeno evolucionan hacia el estanque B, mientras que las de helio lo
hacen hacia el estanque A.
un esquema aleatorio puede perfectamente representar la evolución de las presiones parciales de las
mezclas en cada estanque.
se constata que rápidamente un equilibrio se alcanza, las presiones y los estanques A y B se igualan y
mantiene este comportamiento que se mantengan los intercambios moleculares entre ambos estanques.
Un estado permanente se ha alcanzado, en el cual el estado del sistema definido únicamente por las
presiones parciales se mantiene constante.
más aún, el estado final que ha alcanzado el sistema es independiente de las condiciones iniciales, el
resultado sería el mismo si las cantidades de oxígeno y helio hubiesen sido arbitrariamente repartidas desde
el inicio en los estanques A y B.
esto es lo que en general se conoce como principio de ergodicidad de Boltzman, Y señala que en un sistema
complejo evolucionando en forma aleatoria, su repetición en el tiempo tiende a regularizar su
comportamiento pese a los caprichos del azar que intervienen en cada instante.
Algunos autores han definido sistema ergódico como un sistema en evolución Markoviana, Homogéneo en
el tiempo, con una única clase recurrente aperiódica.
veamos con los siguientes ejemplos la forma en que las cadenas ergódicas llegan al equilibrio,
independientemente de las condiciones iniciales del proceso.
Ejemplo 1
Considérese la siguiente matriz de probabilidades de transición 𝑃∗ para un proceso estocástico con dos
estados:
0
𝑃∗ = 1
2
1 2
0.2 0.8
[
]
0.6 0.4
P r o c e s o s E s t o c á s t i c o s | 22
Observemos que esta matriz la conforma una única clase la cuál es recurrente aperiódica.
Detalle la evolución de esta cadena de Markov hasta llegar al equilibrio.
Solución
calculemos las potencias sucesivas 𝑃 ∗ que denota la evolución del sistema en el tiempo:
𝑃(2) , 𝑃(3) , 𝑃(4) , …
Hasta que se obtenga la estabilidad.
0.52 0.48
𝑃(2) = [
]
0.36 0.64
0.392 0.608
𝑃(3) = [
]
0.456 0.544
𝑃(4) = [
𝑃(8) = [
0.4432 0.5568
]
0.4176 0.5824
0.42894592 0.57105408
]
0.42829056 0.57170944
𝑃(16) = [
0.42857167 0.57142833
]
0.42857124 0.57142876
⋮
𝑃(24) = [
0.42857143 0.57142857
]
0.42857143 0.57142857
observemos que, con el paso del tiempo, no importa si inicialmente se arrancó en el estado 1 o en el estado
2, la probabilidad de a largo plazo de permanecer en el estado 1 es constante igual a 42.857143%
para ambos estados las probabilidades estabilizan con el pasar del tiempo y se vuelven probabilidades
absolutas independientes de la condición inicial (principio de ergodicidad).
Ejemplo 2
Sea la siguiente matriz 𝑃 con una única clase la cual es recurrente aperiódica
0
𝑃=1
2
1 2
0
1
[
]
0.6 0.4
determinar si esta cadena de Markov llega a la estabilidad. en el caso en que su respuesta sea afirmativa,
indique el número de períodos en que se llega a la estabilidad.
Solución
La estabilidad se llega después de evolucionar 37 períodos, es decir, en 𝑃(37), Tal como se muestra a
continuación:
0
1 2
𝑃(37) = 1 0.375 0.625
[
]
2 0.375 0.625
P r o c e s o s E s t o c á s t i c o s | 23
Si observa aquí, también que el proceso estocástico ha llegado a unas probabilidades estables que se
sostienen de allí en adelante y a través del tiempo.
Definición 1
Toda clase recurrente aperiódica evoluciona en el largo plazo (cuando 𝑛 ⟶ ∞) hacia una única ley estable
representada en una matriz de probabilidades de estado estable o probabilidades estacionarias.
Definición 2
Una cadena de Markov ergódica, la cual tiene una única clase recurrente aperiódica, posee una única ley
estable.
Definición 3
una cadena de Markov ergódica se dice que es totalmente aleatoria puesto que en el largo plazo todos sus
estados tienen asociadas cierta probabilidad de ocurrencia (representada en la ley estable) lo cual hace
imposible una predicción exacta.
Cadenas semiergódicas
Una cadena de Markov finita homogénea es semi-ergódica sí tiene varias clases, entre las cuales puede
haber una o más clases transitorias, pero tan sólo una clase recurrente aperiódica.
veamos este concepto con el siguiente ejemplo
0
1
𝑃=2
3
4
1 2 3 4
0.5 0.4 0.1 0
0.3 0.3 0.4 0
[
]
0
0 0.2 0.8
0
0 0.6 0.4
en esta cadena de Markov representada por la matriz 𝑃 existen las siguientes clases:
clase 1: transitoria e incluye los estados 1 y 2.
clase 2: recurrente e incluye los estados 3 y 4.
observe que la clase recurrente aquí considerada es igual a la matriz 𝑃∗ analizada anteriormente.
es de imaginar, sin necesidad de verificar la evolución de la matriz como en los casos anteriores, que en el
largo plazo la probabilidad de permanecer en una clase transitoria debe ser cero, ya que por definición estas
son clases de paso.
reafirmemos esto observando la evolución en el tiempo de esta matriz:
𝑃(16)
0.00800518 0.00695264 0.42392446 0.56111773
0.00521448 0.00452886 0.42554426 0.5647124
=[
]
0
0
0.42857167 0.57142833
0
0
0.42857124 0.57142876
Nótese que después de 16 periodos de tiempo, en la matriz 𝑃(16), las probabilidades estacionarias
asociadas a la única clase transitoria (estados 1 y 2) ya tendían a cero.
P r o c e s o s E s t o c á s t i c o s | 24
observe que el largo plazo, después de evolucionar el proceso 4242 unidades de tiempo, finalmente la clase
transitoria toma el valor estable de cero, tal como le corresponde por ser clase transitoria.
𝑃
(4242)
0
0
=[
0
0
0
0
0
0
0.42857143
0.42857143
0.42857143
0.42857143
0.57142857
0.57142857
]
0.57142857
0.57142857
note que las probabilidades estacionarias encontradas aquí son iguales a las encontradas anteriormente
cuando analizamos la matriz 𝑃∗ .
Definición 4
En las cadenas semi-ergódicas, para estudiar la estabilidad del sistema en el largo plazo, solo basta con
estudiar las probabilidades estacionarias de la única clase recurrente aperiódica de la matriz, No siendo
necesario estudiar la(s) clase(s) transitoria(s) ya que en el largo plazo es siempre improbable estar en ellas.
Definición 5
las cadenas semi-ergódicas no se consideran totalmente aleatorias ya que, por tener clases transitorias, es
posible predecir con exactitud que los estados pertenecientes a dichas clases no ocurrirán en el futuro.
cálculo algebraico de las probabilidades de estado estable
a las probabilidades de estado estable o estacionarias se les suele simbolizar como 𝜋𝑗 .
El estudio de las probabilidades estacionarias se entiende como el estudio del comportamiento a largo plazo
de las cadenas de Markov.
retomemos el ejemplo 1 visto anteriormente pero ahora calculemos las probabilidades estacionarias
algebraicamente:
𝜋1 𝜋2
0.2
0.8
𝑃∗ = [
]
0.6 0.4
0
Sean:
𝜋1 : la probabilidad de estado estable asociada al estado 1
𝜋2 : la probabilidad de estado estable asociada al estado 2
recordando que el teorema de la probabilidad total dice que:
𝑃(𝐴) = 𝑃(𝐵)𝑃(𝐴|𝐵) + 𝑃(𝐶)𝑃(𝐴|𝐶) + 𝑃(𝐷)𝑃(𝐴|𝐷) + ⋯
se puede generalizar más este teorema y decir que:
𝑃(𝐴) = 𝑃(𝐵)𝑃(𝐴|𝐴) + 𝑃(𝐵)𝑃(𝐴|𝐵) + 𝑃(𝐶)𝑃(𝐴|𝐶) + 𝑃(𝐷)𝑃(𝐴|𝐷) + ⋯
ahora podemos construir las ecuaciones de las dos probabilidades totales 𝜋1 y 𝜋2 de la siguiente manera:
𝜋1 = 𝜋1 𝑃11 + 𝜋2 𝑃21
𝜋2 = 𝜋2 𝑃22 + 𝜋1 𝑃12
P r o c e s o s E s t o c á s t i c o s | 25
a estas ecuaciones construidas le agregamos la siguiente ecuación que siempre debe cumplirse en matrices
estocásticas:
𝜋1 + 𝜋2 = 1
De acuerdo con la matriz 𝑃∗
𝜋1 = 𝜋1 (0.2) + 𝜋2 (0.6)
𝜋2 = 𝜋2 (0.4) + 𝜋1 (0.8)
𝜋1 + 𝜋2 = 1
Escogiendo sólo 2 de estas 3 ecuaciones, obtenemos la solución:
𝜋1 =
0.8
= 0.571428571;
1.4
𝜋2 =
0.6
= 0.428571428
1.4
Probabilidades estacionarias encontradas anteriormente.
veamos este otro ejemplo ilustrativo:
con la siguiente matriz de transición de un paso 𝑃′ con cuatro estados
0
1 2
1 0.080 0.184
𝑃′ = 2 0.632 0.368
[
3 2.264 0.368
4 0.080 0.184
3 4
0.368 0.368
0
0
]
0.368
0
0.368 0.368
antes del cálculo algebraico debe corroborarse si esta matriz es ergódica o semi ergódica a través de grafos:
0 ⟷ 1 y 0 ⟷ 3 por lo que: 1 ⟷ 3
0 ⟷ 2 y 0 ⟷ 3 por lo que: 2 ⟷ 3
Dado que 1 ⟷ 3 y 2 ⟷ 3, Entonces 1 ⟷ 2.
De lo anterior se tiene que los estados 0,1,2 y 3, se comunican entre sí, formando una única clase, que por
ser única también es recurrente, y además se observa que es aperiódica.
por lo tanto, la cadena es ergódica.
se construyen ahora las ecuaciones.
𝜋0 = 𝜋0 𝑃00 + 𝜋1 𝑃10 + 𝜋2 𝑃20 + 𝜋3 𝑃30
𝜋1 = 𝜋0 𝑃01 + 𝜋1 𝑃11 + 𝜋2 𝑃21 + 𝜋3 𝑃31
P r o c e s o s E s t o c á s t i c o s | 26
𝜋2 = 𝜋0 𝑃02 + 𝜋1 𝑃12 + 𝜋2 𝑃22 + 𝜋3 𝑃32
𝜋3 = 𝜋0 𝑃03 + 𝜋1 𝑃13 + 𝜋2 𝑃23 + 𝜋3 𝑃33
𝜋0 + 𝜋1 + 𝜋2 + 𝜋3 = 1
𝜋0
𝜋1
𝜋2
𝜋3
= 𝜋0 0.080 + 𝜋1 0.632 + 𝜋2 2.264 + 𝜋3 0.080
= 𝜋0 0.184 + 𝜋1 0.368 + 𝜋2 0.368 + 𝜋3 0.184
= 𝜋0 0.368 + 𝜋1 0 + 𝜋2 0.368 + 𝜋3 0.368
= 𝜋0 0.368 + 𝜋1 0 + 𝜋2 0 + 𝜋3 0.368
𝜋0 + 𝜋1 + 𝜋2 + 𝜋3 = 1
escogiendo tan sólo cuatro de estas ecuaciones (siempre hay una redundante, excepto la última), Se obtienen
las probabilidades estacionarias o de largo plazo:
𝜋0 = 0.286,
𝜋1 = 0.285,
𝜋2 = 0.264,
𝜋3 = 0.166
Estos resultados pueden comprobarse, obteniéndose la estabilidad después de 8 periodos de tiempo:
0
𝑃′
(8)
=
𝜋1
0.286
0.286
[
0.286
0.286
𝜋2
0.285
0.285
0.285
0.285
𝜋3
0.264
0.264
0.264
0.264
𝜋4
0.166
0.166
]
0.166
0.166
Ejemplo
El director de una escuela técnica que se especializa en capacitar a programadores y operadores de
computadoras (A), está preocupado por la matrícula decreciente. con el paso de los años, ha habido mucha
competencia entre las escuelas A, B y C.
las tres compiten Por brindar educación en las áreas de programación, operación de computadora y
habilidades secretariales básicas.
para entender mejor cuál de estas escuelas está surgiendo como líder, el director decidió realizar una
encuesta, en la cual observó el número de estudiantes qué se cambiaban de una escuela a otra durante sus
carreras académicas.
en promedio, A puedes retener al 65% de los estudiantes inscritos originalmente. de los estudiantes
inscritos originales, 20% se cambian a B y 15% a C.
Bradley School, International Technology y Career Academy (A, B y C).
B Tienen la tasa de retención más alta; 90% de sus estudiantes permanecen B el programa académico
completo. el director estima que cerca de la mitad de los estudiantes que dejan B se van a A, y la otra mitad
a C. C puede retener al 80% de sus estudiantes después de que se inscriben. de los estudiantes inscritos
originales, 10% se cambian de C a A.
Actualmente, A tiene 40% del mercado. B, una escuela mucho más nueva, tiene 35% del mercado. el
porcentaje restante, 25%, consiste en estudiantes de C. el director desea determinar la participación en el
mercado de A para el siguiente año. ¿cuáles son las participaciones de mercado en equilibrio para A, B y
C?
P r o c e s o s E s t o c á s t i c o s | 27
Solución
Estados absorbentes y matriz fundamental: cuentas por cobrar
en los ejemplos estudiados hasta ahora, suponemos que es posible que el proceso o sistema vaya de un
estado a cualquier otro, entre cualesquiera 2 periodos.
sin embargo, en algunos casos no se puede ir a otro estado en el futuro.
en otras palabras, cuando se encuentra en un estado dado, este lo “absorbe”, y permanecerá en ese estado.
cualquier estado que tiene tal propiedad se llama estado absorbente; un ejemplo es la aplicación de las
cuentas por cobrar.
un sistema de cuentas por cobrar generalmente coloca las deudas o las cuentas por cobrar de sus clientes
en una de varias categorías o estados, dependiendo de lo atrasada que esté la cuenta sin pagar más antigua.
desde luego, las categorías o los estados exactos dependen de la política establecida por cada compañía.
cuatro estados o categorías típicos para una aplicación de cuentas por cobrar son los siguientes:
estado 1 (𝜋1 ); Pagadas, todas las cuentas.
estado 2 (𝜋2 ); deuda incobrable, atrasada por más de 3 meses.
estado 3 (𝜋3 ); atrasada a menos de un mes.
estado 4 (𝜋4 ); atrasada entre 1 y 3 meses.
en un período dado en este caso un mes, cliente puede estar en uno de estos cuatro estados.
para el ejemplo se supondrá que, si la cuenta sin pagar más antigua es de más de 3 meses, automáticamente
se coloca en la categoría de deuda incobrable.
por lo tanto, un cliente puede pagar todo (estado 1), tener su deuda más antigua atrasada a menos de un
mes (estado 3), tener su deuda más antigua trazada entre 1 y 3 meses (estado 4), o bien, tener una deuda
atrasada más de 3 meses, que es una deuda incobrable (estado 2).
Igual que en otros procesos de Markov, establecemos una matriz de probabilidades de transición para los
cuatro estados.
la matriz reflejará la proclividad de los clientes a moverse entre las cuatro categorías de cuentas por cobrar
de un mes al siguiente.
P r o c e s o s E s t o c á s t i c o s | 28
la probabilidad de estar en la categoría pagada para cualquier cuenta en un mes futuro, dado que el cliente
está en la categoría de pagada por una compra este mes, es de 100% o 1.
es imposible que un cliente que pagó totalmente un producto este mes deba dinero de esta cuenta en un
mes futuro.
otro estado absorbente es el de deuda incobrable.
sí una cuenta no se paga en 3 meses, suponemos que la compañía la cancela y no trata de cobrarla en el
futuro.
Así, una vez que una persona está en la categoría de deuda incobrable, esa persona permanecerá ahí para
siempre.
para cualquier estado absorbente, la probabilidad de que un cliente esté en ese estado en el futuro es de
1, en tanto que la probabilidad de que un cliente esté en otro estado es de 0.
estos valores se colocan en la matriz de probabilidades de transición.
no obstante, antes de elaborar esa matriz, necesitamos conocer las probabilidades para los otros 2 estados:
deuda de menos de un mes y deuda de uno a 3 meses de antigüedad.
para un individuo en la categoría de menos de un mes, existe una probabilidad de 0.60 de estar en la
categoría de pagada, una probabilidad de 0 listar en la categoría de deuda incobrable, una probabilidad de
0.20 de permanecer en la categoría de menos de un mes, y una probabilidad de 0.20 de estar en la categoría
de entre 1 y 3 meses en el siguiente periodo.
note que la probabilidad de estar en la categoría de deuda incobrable el siguiente mes es de 0, porque en
tan solo un mes es imposible ir del estado 3, menos de un mes, al estado 2, más de 3 meses.
para una persona en la categoría entre 1 y 3 meses, hay una probabilidad de 0.40 de estar en la categoría
de pagada, una probabilidad de 0.1 de estar en la deuda incobrable, una probabilidad de 0.30 de estar en
la categoría de menos de un mes, y una probabilidad de 0.20 de permanecer en la categoría de entre 1 y
3 meses y el siguiente mes.
¿cómo obtenemos la probabilidad de 0.30 de estar en la categoría entre 1 y 3 meses durante un mes y
estar en la categoría de menos de un mes el siguiente?
como tales categorías se determinan por la cuenta sin pagar más antigua, es posible pagar una cuenta que
tiene entre 1 y 3 meses atrasada, y todavía tener otra cuenta que tiene un mes o menos.
en otras palabras, cualquier cliente puede tener más de una cuenta atrasada en un momento dado.
con esta información, es posible elaborar la matriz de las probabilidades de transición del problema.
Este mes
Pagada
Deuda incobrable
Menos de un mes
1 a 3 meses
entonces
Pagada
1
0
0.6
0.4
SIGUIENTE MES
Deuda incobrable
<1 mes
0
0
1
0
0
0.2
0.1
0.3
1 a 3 meses
0
0
0.2
0.2
P r o c e s o s E s t o c á s t i c o s | 29
1
0
0
0
0
1
0
0
𝑃=[
]
0.6 0 0.2 0.2
0.4 0.1 0.3 0.2
sí conocemos la fracción de personas en cada una de las 4:00 categorías o estados para un periodo
determinado, es posible determinar la fracción de personas en estos cuatro estados o categorías, para
cualquier período futuro.
estas fracciones se colocan en un vector de probabilidades de estado y se multiplican por la matriz de
probabilidades de transición.
las condiciones de equilibrio son aún más interesantes.
desde luego, a la larga, todos estarán en la categoría de pagada o deuda incobrable, lo cual se debe a que
las categorías son estados absorbentes.
¿pero cuántas personas, o cuánto dinero, estarán en cada categoría?
si encontramos la cantidad total de dinero que quedará como pagada o deuda incobrable, ayudamos a la
compañía a manejar sus deudas incobrables y sus flujos de efectivo.
un análisis así requiere lo que se conoce como matriz fundamental.
para obtener la matriz fundamental, es necesario hacer una partición de la matriz de probabilidades de
transición, 𝑃.
Como existen estados absorbentes, entonces se divide la matriz, separando los estados absorbentes de los
transitorios.
esta matriz es de la forma:
𝑃=
𝑄
0
𝑅
𝐼
sin importar el orden de las sub matrices. para nuestro caso:
𝐼
0
1 0
0 0
0
1
0 0 ]
𝑃=[
0.6 0 0.2 0.2
0.4 0.1 0.3 0.2
𝑅
𝑄
la matriz fundamental se calcula como:
𝐹(𝐼 − 𝑄)−1
Observaciones:
1. la matriz (𝐼 − 𝑄)−1 nos da el número promedio de periodos que se espera pasar en cada estado
antes de caer en un estado absorbente.
2. la matriz (𝐼 − 𝑄)−1 ∙ 𝑅 nos da la probabilidad de que partiendo de un estado transitorio se llegue a
un estado absorbente
P r o c e s o s E s t o c á s t i c o s | 30
⇒ 𝐹 = ([
1 0
0.2 0.2 −1
]−[
])
0 1
0.3 0.2
0.8 −0.2 −1
𝐹=[
]
−0.3 0.8
recordemos que
[
1
𝑏 −1
𝑑
] =
[
𝑑
det (𝐴) −𝑐
𝑎
𝑐
⇒𝐹=
−𝑏
]
𝑎
1 0.8 0.2
1.38 0.34
[
]=[
]
0.52 1.38
0.58 0.3 0.8
ahora estamos en posición de usar la matriz fundamental para calcular la cantidad de dinero en deuda
incobrable que experimentaríamos a la larga.
primero necesitamos multiplicar la matriz fundamental, 𝐹, por la matriz 𝑅.
𝐹𝑅 = [
1.38 0.34 0.6 0
0.97 0.03
]∙[
]=[
]
0.52 1.38 0.4 0.1
0.86 0.14
la nueva matriz 𝐹𝑅 tiene un significado importante.
indica la probabilidad de que una cantidad que está en uno de los estados no absorbentes termine en uno
de ellos.
el renglón superior de esta matriz indica las probabilidades de que una cantidad en la categoría de menos
de un mes termina en la categoría de pagada o deuda incobrable.
la probabilidad de que esta cantidad en menos de un mes termine pagada es de 0.97, en tanto que la
probabilidad de que una cantidad de menos de un mes termine como deuda incobrable es de 0.03.
el segundo renglón tiene una interpretación similar para el otro estado no absorbente: la categoría de entre
1 y 3 meses.
por lo tanto, 0.86 es la probabilidad de que una cantidad atrasada entre 1 y 3 meses termine pagada y
0.14 es la probabilidad de que una cantidad atrasada entre 1 y 3 meses nunca se pague y se convierta en
deuda incobrable.
esta matriz se utiliza de varias maneras.
sí conocemos las cantidades en las categorías de menos de un mes y de entre 1 y 3 meses, determinamos
la cantidad de dinero que se pagará y la cantidad que se convertirá en deuda incobrable.
sea la matriz 𝑀 la cantidad de dinero que está en cada estado no absorbente de la siguiente manera:
𝑀 = (𝑀1 , 𝑀2 , 𝑀3 , … , 𝑀𝑛 )
Donde
𝑛 = número de estados no absorbentes
𝑀1 = cantidad en el primer estado o categoría
𝑀2 = cantidad en el segundo estado o categoría
P r o c e s o s E s t o c á s t i c o s | 31
𝑀𝑛 = En el n-ésimo estado o categoría
suponga que hay $ 2,000 en la categoría de menos de un mes, y $ 5,000 en la de uno a 3 meses.
Entonces,
𝑀 se representaría de la siguiente manera:
𝑀 = (2000,5000)
la matriz 𝑀 representa el dinero en los estados absorbentes: pagada o deuda incobrable.
las cantidades de dinero que determinarán como pagada y como deuda incobrable se calculan multiplicando
la matriz 𝑀 Por la matriz 𝐹𝑅 qué se calcularon antes.
los cálculos son:
cantidad pagada y cantidad de deuda incobrable=𝑀𝐹𝑅
𝑀𝐹𝑅 = (2000, 5000) ∙ [
0.97 0.03
] = [6240,
0.86 0.14
760 ]
Entonces, del total de $7000 ($2000 en la categoría de menos de un mes y $5000 en la de uno a 3 meses),
$6240 se pagarán al final y $760 terminarán como deuda incobrable.
Descargar