Cadenas de Nacimiento y Muerte, Colas y Ramificación

Anuncio
Cadenas de Nacimiento y Muerte, Colas y Ramificación
Prof. Vı́quez
CA406
Universidad de Costa Rica
[email protected]
Martes 1 y Viernes 4 de Abril
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
1 / 49
Cadenas de Nacimiento y Muerte
Definición y Ejemplos
Cadenas de Nacimiento y Muerte
Considere una cadena de Markov con espacio de estados S = {0, 1, 2, . . . }
o S = {0, 1, 2, . . . , d}, y de manera que si está en x, la cadena solo se
puede ir a x − 1, x o x + 1 en un paso. La función de transición está dada
por


qx ,
y = x − 1,



r ,
y = x,
x
P(x, y ) =
px ,
y = x + 1,



0,
de otro modo,
donde px , qx y rx son no-negativos tal que px + rx + qx = 1.
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
2 / 49
Cadenas de Nacimiento y Muerte
Definición y Ejemplos
Cadenas de Nacimiento y Muerte
Considere una cadena de Markov con espacio de estados S = {0, 1, 2, . . . }
o S = {0, 1, 2, . . . , d}, y de manera que si está en x, la cadena solo se
puede ir a x − 1, x o x + 1 en un paso. La función de transición está dada
por


qx ,
y = x − 1,



r ,
y = x,
x
P(x, y ) =
px ,
y = x + 1,



0,
de otro modo,
donde px , qx y rx son no-negativos tal que px + rx + qx = 1.
Se conoce ası́ por que se aplica a ejemplos en los que los estados
representa una población, y pasar de x a x + 1 significa un nacimiento,
ası́ como ir de x a x − 1 es una muerte.
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
2 / 49
Cadenas de Nacimiento y Muerte
Definición y Ejemplos
Cadenas de Nacimiento y Muerte
Considere una cadena de Markov con espacio de estados S = {0, 1, 2, . . . }
o S = {0, 1, 2, . . . , d}, y de manera que si está en x, la cadena solo se
puede ir a x − 1, x o x + 1 en un paso. La función de transición está dada
por


qx ,
y = x − 1,



r ,
y = x,
x
P(x, y ) =
px ,
y = x + 1,



0,
de otro modo,
donde px , qx y rx son no-negativos tal que px + rx + qx = 1.
Se conoce ası́ por que se aplica a ejemplos en los que los estados
representa una población, y pasar de x a x + 1 significa un nacimiento,
ası́ como ir de x a x − 1 es una muerte.
PRECAUCIÓN: Noten que p0 puede ser positivo, aún cuando no hay
“población”, por lo que el nombre puede desviar de la idea real.
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
2 / 49
Cadenas de Nacimiento y Muerte
Definición y Ejemplos
Ejemplo 1: Caminata Aleatoria
Sean ξ1 , ξ2 , . . . , variables aleatorias iid, con densidad común f . Sea X0
una variable aleatoria independiente de los ξ 0 s, y defina
Xn := X0 + ξ1 + · · · + ξn . La secuencia Xn , con valores en los enteros, se
conoce como Caminata Aleatoria y es una cadena de Markov con función
de transición dada por P(x, y ) = f (y − x).
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
3 / 49
Cadenas de Nacimiento y Muerte
Definición y Ejemplos
Ejemplo 1: Caminata Aleatoria
Sean ξ1 , ξ2 , . . . , variables aleatorias iid, con densidad común f . Sea X0
una variable aleatoria independiente de los ξ 0 s, y defina
Xn := X0 + ξ1 + · · · + ξn . La secuencia Xn , con valores en los enteros, se
conoce como Caminata Aleatoria y es una cadena de Markov con función
de transición dada por P(x, y ) = f (y − x).
Para que una caminata aleatoria sea una cadena de nacimiento y muerte,
es necesario de que no pueda pasar del estado x al estado y > x + 1 en un
paso, i.e., f (1) = p, f (0) = r y f (−1) = q. La función de transición serı́a:


q
if y = x − 1,



r
if y = x,
P(x, y ) =

p
if y = x + 1,



0
de lo contrario.
Además se requiere que el espacio de estados sea S = {0, 1, . . . }, por lo
que se necesita imponer la condición de que P(0, x) = 0 para todo x < 0.
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
3 / 49
Cadenas de Nacimiento y Muerte
Definición y Ejemplos
Ejemplo 2: Cadena de Ehrenfest
Suponga que se tienen dos cajas, etiquetadas 1 y 2; y d bolas etiquetadas
1, . . . , d. Inicialmente algunas bolas están en la caja 1 y las restantes están
en la caja 2. Se selecciona un entero aleatoriamente, y se pasa la bola
etiquetada con ese entero a la otra caja. Se repite este proceso
indefinidamente con selecciones independientes. Sea Xn el número de bolas
en la caja 1 después de n experimentos. Xn es una cadena de Markov en
S = {0, 1, . . . , d} con función de transición dada por

x

if y = x − 1,
d
P(x, y ) = 1 − dx
if y = x + 1,


0
de lo contrario.
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
4 / 49
Cadenas de Nacimiento y Muerte
Definición y Ejemplos
Ejemplo 2: Cadena de Ehrenfest
Suponga que se tienen dos cajas, etiquetadas 1 y 2; y d bolas etiquetadas
1, . . . , d. Inicialmente algunas bolas están en la caja 1 y las restantes están
en la caja 2. Se selecciona un entero aleatoriamente, y se pasa la bola
etiquetada con ese entero a la otra caja. Se repite este proceso
indefinidamente con selecciones independientes. Sea Xn el número de bolas
en la caja 1 después de n experimentos. Xn es una cadena de Markov en
S = {0, 1, . . . , d} con función de transición dada por

x

if y = x − 1,
d
P(x, y ) = 1 − dx
if y = x + 1,


0
de lo contrario.
Aquı́ rx = 0 y p0 = 1 > 0.
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
4 / 49
Cadenas de Nacimiento y Muerte
Definición y Ejemplos
Ejemplo 3: Cadena de Ehrenfest Modificada
Suponga que se tienen dos cajas, etiquetadas 1 y 2; y d bolas etiquetadas
1, . . . , d. Inicialmente algunas bolas están en la caja 1 y las restantes están
en la caja 2. Se selecciona un entero en {1, . . . , d} aleatoriamente, y se
remueve la bola etiquetada con ese entero de su caja. Luego se selecciona,
aleatoriamente, una de las dos cajas y se mete ahı́ la bola. Se repite este
proceso indefinidamente con selecciones independientes. Sea Xn el número
de bolas en la caja 1 después de n experimentos. Xn es una cadena de
Markov en S = {0, 1, . . . , d} con función de transición dada por
P(x, y ) =
Prof. Vı́quez (UCR)

1x


2d


1
2
1


2 1−


0
x
d
Cadenas de Markov
if y = x − 1,
if y = x,
if y = x + 1,
de lo contrario.
Martes 1 y Viernes 4 de Abril
5 / 49
Cadenas de Nacimiento y Muerte
Definición y Ejemplos
Ejemplo 3: Cadena de Ehrenfest Modificada
Suponga que se tienen dos cajas, etiquetadas 1 y 2; y d bolas etiquetadas
1, . . . , d. Inicialmente algunas bolas están en la caja 1 y las restantes están
en la caja 2. Se selecciona un entero en {1, . . . , d} aleatoriamente, y se
remueve la bola etiquetada con ese entero de su caja. Luego se selecciona,
aleatoriamente, una de las dos cajas y se mete ahı́ la bola. Se repite este
proceso indefinidamente con selecciones independientes. Sea Xn el número
de bolas en la caja 1 después de n experimentos. Xn es una cadena de
Markov en S = {0, 1, . . . , d} con función de transición dada por
P(x, y ) =
Aquı́ rx =
1
2

1x


2d


1
2
1


2 1−


0
x
d
if y = x − 1,
if y = x,
if y = x + 1,
de lo contrario.
> 0.
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
5 / 49
Cadenas de Nacimiento y Muerte
Definición y Ejemplos
Ejemplo 4: Cadena de la Ruina del Jugador
Supongan que un jugador empieza con un capital inicial en dólares, y hace
una serie de apuestas contra la casa de $1. Asuman que tiene probabilidad
p de ganar y probabilidad q = 1 − p de perder cada apuesta, y si su capital
llega a $0, el jugador queda arruinado y su capital sigue siendo $0. Sea Xn
el capital del apostador en el tiempo n. Esta es una cadena de Markov en
el cual 0 es un estado absorbente, y para x ≥ 1:


if y = x − 1,
q
P(x, y ) = p
if y = x + 1,


0
de lo contrario.
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
6 / 49
Cadenas de Nacimiento y Muerte
Definición y Ejemplos
Ejemplo 4: Cadena de la Ruina del Jugador
Supongan que un jugador empieza con un capital inicial en dólares, y hace
una serie de apuestas contra la casa de $1. Asuman que tiene probabilidad
p de ganar y probabilidad q = 1 − p de perder cada apuesta, y si su capital
llega a $0, el jugador queda arruinado y su capital sigue siendo $0. Sea Xn
el capital del apostador en el tiempo n. Esta es una cadena de Markov en
el cual 0 es un estado absorbente, y para x ≥ 1:


if y = x − 1,
q
P(x, y ) = p
if y = x + 1,


0
de lo contrario.
Esta cadena está en S = {0, 1, . . . }, aunque puede modificarse para que si
el jugador alcanza un nivel de d dólares, entonces él decide dejar de jugar,
i.e., S = {0, 1, . . . , d}, con 0 y d siendo estados absorbentes.
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
6 / 49
Cadenas de Nacimiento y Muerte
Cadenas Recurrentes y Cadenas Transientes
Cadenas con Infinitos Estados
Sabemos que para una cadena de Markov irreducible, todo estado es
transiente o todo estado es recurrente, i.e., una cadena de Markov
irreducible es recurrente o transiente.
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
7 / 49
Cadenas de Nacimiento y Muerte
Cadenas Recurrentes y Cadenas Transientes
Cadenas con Infinitos Estados
Sabemos que para una cadena de Markov irreducible, todo estado es
transiente o todo estado es recurrente, i.e., una cadena de Markov
irreducible es recurrente o transiente.
Si la cadena tiene un número finito de estados, entonces debe ser una
cadena recurrente.
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
7 / 49
Cadenas de Nacimiento y Muerte
Cadenas Recurrentes y Cadenas Transientes
Cadenas con Infinitos Estados
Sabemos que para una cadena de Markov irreducible, todo estado es
transiente o todo estado es recurrente, i.e., una cadena de Markov
irreducible es recurrente o transiente.
Si la cadena tiene un número finito de estados, entonces debe ser una
cadena recurrente.
Pero...
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
7 / 49
Cadenas de Nacimiento y Muerte
Cadenas Recurrentes y Cadenas Transientes
Cadenas con Infinitos Estados
Sabemos que para una cadena de Markov irreducible, todo estado es
transiente o todo estado es recurrente, i.e., una cadena de Markov
irreducible es recurrente o transiente.
Si la cadena tiene un número finito de estados, entonces debe ser una
cadena recurrente.
Pero... qué pasa cuando la cadena tiene un número infinito de estados?
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
7 / 49
Cadenas de Nacimiento y Muerte
Cadenas Recurrentes y Cadenas Transientes
Probabilidad de Arribo
Px [Ta < Tb ]
Para probar recurrencia es necesario conocer la probabilidad de que
partiendo de x llegue al estado a antes de llegar al estado b. Esta
probabilidad está dada por:
Pb−1
y =x
Px [Ta < Tb ] = Pb−1
γy
y =a γy
,
a < x < b,
donde
1 ···qy
p1 ···py
0<y <d
1
0 = y.
(q
γy :=
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
8 / 49
Cadenas de Nacimiento y Muerte
Cadenas Recurrentes y Cadenas Transientes
Probabilidad de Arribo
Px [Ta < Tb ]
Para probar recurrencia es necesario conocer la probabilidad de que
partiendo de x llegue al estado a antes de llegar al estado b. Esta
probabilidad está dada por:
Pb−1
y =x
Px [Ta < Tb ] = Pb−1
γy
y =a γy
,
a < x < b,
donde
1 ···qy
p1 ···py
0<y <d
1
0 = y.
(q
γy :=
Por irreducibilidad, se está asumiendo que pi > 0 para todo 0 < i < d.
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
8 / 49
Cadenas de Nacimiento y Muerte
Cadenas Recurrentes y Cadenas Transientes
Probabilidad de Arribo
Px [Ta < Tb ]
Para probar recurrencia es necesario conocer la probabilidad de que
partiendo de x llegue al estado a antes de llegar al estado b. Esta
probabilidad está dada por:
Pb−1
y =x
Px [Ta < Tb ] = Pb−1
γy
y =a γy
,
a < x < b,
donde
1 ···qy
p1 ···py
0<y <d
1
0 = y.
(q
γy :=
Por irreducibilidad, se está asumiendo
que pi > 0 para todo 0 < i < d.
P
Igualmente, Px [Tb < Ta ] =
x−1
y =a
γy
Pb−1
γy
y =a
Prof. Vı́quez (UCR)
, para a < x < b.
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
8 / 49
Cadenas de Nacimiento y Muerte
Cadenas Recurrentes y Cadenas Transientes
Prueba
Sea u(x) = Px [Ta < Tb ]. Entonces,
u(y ) = qy u(y − 1) + ry u(y ) + py u(y + 1).
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
9 / 49
Cadenas de Nacimiento y Muerte
Cadenas Recurrentes y Cadenas Transientes
Prueba
Sea u(x) = Px [Ta < Tb ]. Entonces,
u(y ) = qy u(y − 1) + ry u(y ) + py u(y + 1).
Como ry = 1 − py − qy , se puede reescribir la expresión anterior de la
siguiente forma:
qy qy −1
qy
u(y ) − u(y − 1) =
u(y − 1) − u(y − 2)
py
py py −1
γy
= ··· =
u(a + 1) − u(a) .
(1)
γa
u(y + 1) − u(y ) =
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
9 / 49
Cadenas de Nacimiento y Muerte
Cadenas Recurrentes y Cadenas Transientes
Prueba
Sea u(x) = Px [Ta < Tb ]. Entonces,
u(y ) = qy u(y − 1) + ry u(y ) + py u(y + 1).
Como ry = 1 − py − qy , se puede reescribir la expresión anterior de la
siguiente forma:
qy qy −1
qy
u(y ) − u(y − 1) =
u(y − 1) − u(y − 2)
py
py py −1
γy
= ··· =
u(a + 1) − u(a) .
(1)
γa
u(y + 1) − u(y ) =
Sumando sobre y = a, . . . b −1 y recordando que u(a) = 1 y u(b) = 0, se
γa
obtiene que u(a + 1) − u(a) = − Pb−1
. Sustituyendo en (1) se obtiene
que u(y ) − u(y + 1) =
γy
Pb−1
y =a
y =a
γy
γy
. Sumando sobre y = x, . . . , b − 1 se
obtiene la fórmula final.
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
9 / 49
Cadenas de Nacimiento y Muerte
Cadenas Recurrentes y Cadenas Transientes
Aplicación
Suponga que un apostador juega ruleta con una serie de apuestas de 1
9
dolar. Él tiene probabilidades de ganar y perder, respectivamente, de 19
y
10
.
El
jugador
renuncia
tan
pronto
su
ganancia
neta
llegue
a
25
dólares
o
19
su pérdida neta llegue a 10 dólares.
1
2
Encuentre la Probabilidad de que cuando él deje de jugar, haya
ganado $25.
Encuentre su pérdida esperada.
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
10 / 49
Cadenas de Nacimiento y Muerte
Cadenas Recurrentes y Cadenas Transientes
Aplicación
Suponga que un apostador juega ruleta con una serie de apuestas de 1
9
dolar. Él tiene probabilidades de ganar y perder, respectivamente, de 19
y
10
.
El
jugador
renuncia
tan
pronto
su
ganancia
neta
llegue
a
25
dólares
o
19
su pérdida neta llegue a 10 dólares.
1
2
Encuentre la Probabilidad de que cuando él deje de jugar, haya
ganado $25.
Encuentre su pérdida esperada.
Xn , siendo el capital del jugador, es una cadena de markov irreducible, de
10
9
y qx = 19
.
nacimiento y muerte en S = {0, 1, . . . 35}, con px = 19
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
10 / 49
Cadenas de Nacimiento y Muerte
Cadenas Recurrentes y Cadenas Transientes
Aplicación
Suponga que un apostador juega ruleta con una serie de apuestas de 1
9
dolar. Él tiene probabilidades de ganar y perder, respectivamente, de 19
y
10
.
El
jugador
renuncia
tan
pronto
su
ganancia
neta
llegue
a
25
dólares
o
19
su pérdida neta llegue a 10 dólares.
1
2
Encuentre la Probabilidad de que cuando él deje de jugar, haya
ganado $25.
Encuentre su pérdida esperada.
Xn , siendo el capital del jugador, es una cadena de markov irreducible, de
10
9
y qx = 19
.
nacimiento y muerte en S = {0, 1, . . . 35}, con px = 19
0 y 35 son estados absorbentes. Aplicando
la
fórmula
para
a
=
0,
x = 10,
10 y
b = 35, concluimos que γy = 9 , 0 ≤ y ≤ 34, i.e.,
P9
10 y
y =0
P10 [T35 < T0 ] = P34
y =0
Prof. Vı́quez (UCR)
Cadenas de Markov
9
10 y
9
= 0,047.
Martes 1 y Viernes 4 de Abril
10 / 49
Cadenas de Nacimiento y Muerte
Cadenas Recurrentes y Cadenas Transientes
Aplicación
Suponga que un apostador juega ruleta con una serie de apuestas de 1
9
dolar. Él tiene probabilidades de ganar y perder, respectivamente, de 19
y
10
.
El
jugador
renuncia
tan
pronto
su
ganancia
neta
llegue
a
25
dólares
o
19
su pérdida neta llegue a 10 dólares.
1
2
Encuentre la Probabilidad de que cuando él deje de jugar, haya
ganado $25.
Encuentre su pérdida esperada.
Xn , siendo el capital del jugador, es una cadena de markov irreducible, de
10
9
y qx = 19
.
nacimiento y muerte en S = {0, 1, . . . 35}, con px = 19
0 y 35 son estados absorbentes. Aplicando
la
fórmula
para
a
=
0,
x = 10,
10 y
b = 35, concluimos que γy = 9 , 0 ≤ y ≤ 34, i.e.,
P9
10 y
y =0
P10 [T35 < T0 ] = P34
y =0
9
10 y
9
= 0,047.
La pérdida esperada es E[P] = 10 − 0,953 · 0 − 0,047 · 35 = $8,36
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
10 / 49
Cadenas de Nacimiento y Muerte
Cadenas Recurrentes y Cadenas Transientes
Cadena Irreducible con Infinitos Estados
En este caso d = ∞, y por irreducibilidad, px > 0 para x ≥ 0, y qx > 0
para x ≥ 1. Cuándo es Transiente y cuándo es Recurrente?
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
11 / 49
Cadenas de Nacimiento y Muerte
Cadenas Recurrentes y Cadenas Transientes
Cadena Irreducible con Infinitos Estados
En este caso d = ∞, y por irreducibilidad, px > 0 para x ≥ 0, y qx > 0
para x ≥ 1. Cuándo es Transiente y cuándo es Recurrente?
Condición suficiente y necesaria
Una cadena irreducible de Nacimiento y Muerte en S = {0, 1, 2, . . . }, es
recurrente si y solo si
∞
X
q1 · · · qx
= ∞.
p1 · · · px
x=1
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
11 / 49
Cadenas de Nacimiento y Muerte
Cadenas Recurrentes y Cadenas Transientes
Prueba
Utilizando la fórmula de arribo, tenemos que P1 [T0 < Tn ] = 1 −
1
Pn−1
y =0
γy
,
n > 1.
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
12 / 49
Cadenas de Nacimiento y Muerte
Cadenas Recurrentes y Cadenas Transientes
Prueba
Utilizando la fórmula de arribo, tenemos que P1 [T0 < Tn ] = 1 −
1
Pn−1
y =0
γy
,
n > 1.
Como la cadena solo puede hacer saltos de 1 paso, sabemos que
1 ≤ T2 < T3 < · · · . Esto quiere decir que Tn → ∞ y
1
P1 [T0 < ∞] = lı́m P1 [T0 < Tn ] = lı́m 1 − Pn−1
n→∞
Prof. Vı́quez (UCR)
n→∞
Cadenas de Markov
y =0 γy
1
= 1 − P∞
y =0 γy
Martes 1 y Viernes 4 de Abril
.
12 / 49
Cadenas de Nacimiento y Muerte
Cadenas Recurrentes y Cadenas Transientes
Prueba
Utilizando la fórmula de arribo, tenemos que P1 [T0 < Tn ] = 1 −
1
Pn−1
y =0
γy
,
n > 1.
Como la cadena solo puede hacer saltos de 1 paso, sabemos que
1 ≤ T2 < T3 < · · · . Esto quiere decir que Tn → ∞ y
1
P1 [T0 < ∞] = lı́m P1 [T0 < Tn ] = lı́m 1 − Pn−1
n→∞
n→∞
y =0 γy
1
= 1 − P∞
y =0 γy
.
Si laP
cadena es recurrente, entonces P1 [T0 < ∞] = ρ1 0 = 1 lo que implica
que ∞
y =0 γy = ∞.
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
12 / 49
Cadenas de Nacimiento y Muerte
Cadenas Recurrentes y Cadenas Transientes
Prueba
Utilizando la fórmula de arribo, tenemos que P1 [T0 < Tn ] = 1 −
1
Pn−1
y =0
γy
,
n > 1.
Como la cadena solo puede hacer saltos de 1 paso, sabemos que
1 ≤ T2 < T3 < · · · . Esto quiere decir que Tn → ∞ y
1
P1 [T0 < ∞] = lı́m P1 [T0 < Tn ] = lı́m 1 − Pn−1
n→∞
n→∞
y =0 γy
1
= 1 − P∞
y =0 γy
.
Si laP
cadena es recurrente, entonces P1 [T0 < ∞] = ρ1 0 = 1 lo que implica
que ∞
y =0 γy = ∞.
P
Para la otra dirección, asuma que ∞
y =0 γy = ∞ y por ende que
P1 [T0 < ∞] = 1. Como P(0, y ) = 0, para y ≥ 2, se tiene que
ρ0 0 = P0 [T0 < ∞] = P(0, 0)+P(0, 1)P1 [T0 < ∞] = P(0, 0)+P(0, 1) = 1,
por lo tanto, 0 es recurrente. La irreducibilidad hace el resto.
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
12 / 49
Cadenas de Nacimiento y Muerte
Cadenas Recurrentes y Cadenas Transientes
Ejemplo
Considere la cadena de nacimiento y muerte en S = {0, 1, 2, . . . }, con
probabilidades definidas por
px =
x +2
2(x + 1)
qx =
x
.
2(x + 1)
Determine si esta cadena es transiente o recurrente.
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
13 / 49
Cadenas de Nacimiento y Muerte
Cadenas Recurrentes y Cadenas Transientes
Ejemplo
Considere la cadena de nacimiento y muerte en S = {0, 1, 2, . . . }, con
probabilidades definidas por
px =
x +2
2(x + 1)
qx =
x
.
2(x + 1)
Determine si esta cadena es transiente o recurrente.
x
Solución: como qpxx = x+2
, se sigue que
1 · 2···x
q1 · · · qx
2
=
γx =
=
=2
p1 · · · px
3 · 4 · · · (x + 2)
(x + 1)(x + 2)
Prof. Vı́quez (UCR)
Cadenas de Markov
1
1
−
x +1 x +2
Martes 1 y Viernes 4 de Abril
.
13 / 49
Cadenas de Nacimiento y Muerte
Cadenas Recurrentes y Cadenas Transientes
Ejemplo
Considere la cadena de nacimiento y muerte en S = {0, 1, 2, . . . }, con
probabilidades definidas por
px =
x +2
2(x + 1)
qx =
x
.
2(x + 1)
Determine si esta cadena es transiente o recurrente.
x
Solución: como qpxx = x+2
, se sigue que
1 · 2···x
q1 · · · qx
2
=
γx =
=
=2
p1 · · · px
3 · 4 · · · (x + 2)
(x + 1)(x + 2)
1
1
−
x +1 x +2
.
Es una telescópica que converge, i.e.,
∞
∞ X
X
1
1
1
γx = 2
−
= 2 · = 1 < ∞,
x +1 x +2
2
x=1
x=1
por lo tanto, la cadena es transiente.
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
13 / 49
Cadenas de Nacimiento y Muerte
Distribuciones Estacionarias
Distribución Estacionaria
Considere una cadena irreducible de Nacimiento y Muerte, i.e., px > 0,
para 0 ≤ x < d, y qx > 0, para 0 < x ≤ d (d puede ser infinito).
Existencia y Unicidad de la Distribución Estacionaria
Una cadena irreducible de Nacimiento y Muerte tiene una única
distribución estacionaria, dada por
πx
π(x) = Pd
y =0 πy
donde πx :=
p0 ···px−1
q1 ···qx ,
para 1 ≤ x ≤ d, y π0 := 1; si y solo si
∞
X
p0 · · · px−1
x=1
Prof. Vı́quez (UCR)
x ≥ 0,
,
q1 · · · qx
< ∞.
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
14 / 49
Cadenas de Nacimiento y Muerte
Distribuciones Estacionarias
Prueba
El sistema de ecuaciones
P
x∈S
π(x)P(x, y ) = π(y ) se vuelve
π(0)r0 + π(1)q1 = π(0)
π(y − 1)py −1 + π(y )ry + π(y + 1)qy +1 = π(y )
Prof. Vı́quez (UCR)
Cadenas de Markov
y ≥ 1.
Martes 1 y Viernes 4 de Abril
15 / 49
Cadenas de Nacimiento y Muerte
Distribuciones Estacionarias
Prueba
El sistema de ecuaciones
P
x∈S
π(x)P(x, y ) = π(y ) se vuelve
π(0)r0 + π(1)q1 = π(0)
π(y − 1)py −1 + π(y )ry + π(y + 1)qy +1 = π(y )
y ≥ 1.
Utilizando la identidad py + qy + ry = 1 (y q0 = 0), se obtiene que
π(1)q1 − π(0)p0 = 0
π(y + 1)qy +1 − π(y )py = π(y )qy − π(y − 1)py −1
Prof. Vı́quez (UCR)
Cadenas de Markov
y ≥ 1.
Martes 1 y Viernes 4 de Abril
15 / 49
Cadenas de Nacimiento y Muerte
Distribuciones Estacionarias
Prueba
El sistema de ecuaciones
P
x∈S
π(x)P(x, y ) = π(y ) se vuelve
π(0)r0 + π(1)q1 = π(0)
π(y − 1)py −1 + π(y )ry + π(y + 1)qy +1 = π(y )
y ≥ 1.
Utilizando la identidad py + qy + ry = 1 (y q0 = 0), se obtiene que
π(1)q1 − π(0)p0 = 0
π(y + 1)qy +1 − π(y )py = π(y )qy − π(y − 1)py −1
y ≥ 1.
Entonces, qy +1 π(y + 1) − py π(y ) = 0, es decir,
π(x) =
px−1
p0 · · · px−1
π(x − 1) = · · · =
π(0) = πx π(0).
qx
q1 · · · qx
P
Si dx=0 πx < ∞, claramente
(al sumar) se tiene la fórmula para π(x). De
P
lo contrario π ≡ 0 o x∈S π(x) = ∞, i.e., no hay distribución estacionaria.
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
15 / 49
Cadenas de Nacimiento y Muerte
Distribuciones Estacionarias
Ejercicio
Considere una cadena irreducible (infinita) de Nacimiento y Muerte.
Encuentre las condiciones suficientes y necesarias para que la cadena sea
recurrente positiva, recurrente nula y transiente.
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
16 / 49
Cadenas de Nacimiento y Muerte
Distribuciones Estacionarias
Ejercicio
Considere una cadena irreducible (infinita) de Nacimiento y Muerte.
Encuentre las condiciones suficientes y necesarias para que la cadena sea
recurrente positiva, recurrente nula y transiente.
Recurrente Positiva: La cadena es recurrente positiva si y solo si existe
una única distribución estacionaria si y solo si
∞
X
p0 · · · px−1
< ∞.
(2)
q1 · · · qx
x=1
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
16 / 49
Cadenas de Nacimiento y Muerte
Distribuciones Estacionarias
Ejercicio
Considere una cadena irreducible (infinita) de Nacimiento y Muerte.
Encuentre las condiciones suficientes y necesarias para que la cadena sea
recurrente positiva, recurrente nula y transiente.
Recurrente Positiva: La cadena es recurrente positiva si y solo si existe
una única distribución estacionaria si y solo si
∞
X
p0 · · · px−1
< ∞.
(2)
q1 · · · qx
x=1
Transiente: La cadena irreducible es transiente si y solo si
∞
X
q1 · · · qx
< ∞.
p1 · · · px
(3)
x=1
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
16 / 49
Cadenas de Nacimiento y Muerte
Distribuciones Estacionarias
Ejercicio
Considere una cadena irreducible (infinita) de Nacimiento y Muerte.
Encuentre las condiciones suficientes y necesarias para que la cadena sea
recurrente positiva, recurrente nula y transiente.
Recurrente Positiva: La cadena es recurrente positiva si y solo si existe
una única distribución estacionaria si y solo si
∞
X
p0 · · · px−1
< ∞.
(2)
q1 · · · qx
x=1
Transiente: La cadena irreducible es transiente si y solo si
∞
X
q1 · · · qx
< ∞.
p1 · · · px
(3)
x=1
Recurrente Nula: Es recurrente nula si ninguna de las otras dos posibles
opciones, (2) y (3), se cumple, i.e.,
∞
X
p0 · · · px−1
x=1
Prof. Vı́quez (UCR)
q1 · · · qx
=∞
y
∞
X
q1 · · · qx
x=1
Cadenas de Markov
p1 · · · px
= ∞.
Martes 1 y Viernes 4 de Abril
16 / 49
Cadenas de Nacimiento y Muerte
Distribuciones Estacionarias
Ejercicio
Establezca la periodicidad de una cadena irreducible de nacimiento y
muerte, y determine la convergencia a la distribución estacionaria para el
caso recurrente positiva.
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
17 / 49
Cadenas de Nacimiento y Muerte
Distribuciones Estacionarias
Ejercicio
Establezca la periodicidad de una cadena irreducible de nacimiento y
muerte, y determine la convergencia a la distribución estacionaria para el
caso recurrente positiva.
Si rx > 0 para algún x: Entonces P(x, x) = rx > 0 y la cadena es
aperiódica. Esto implica que,
lı́m P n (x, y ) = π(y ),
n→∞
Prof. Vı́quez (UCR)
Cadenas de Markov
x, y ∈ S.
Martes 1 y Viernes 4 de Abril
17 / 49
Cadenas de Nacimiento y Muerte
Distribuciones Estacionarias
Ejercicio
Establezca la periodicidad de una cadena irreducible de nacimiento y
muerte, y determine la convergencia a la distribución estacionaria para el
caso recurrente positiva.
Si rx > 0 para algún x: Entonces P(x, x) = rx > 0 y la cadena es
aperiódica. Esto implica que,
lı́m P n (x, y ) = π(y ),
n→∞
x, y ∈ S.
Si rx = 0 para todo x: Entonces solo podrı́a regresar a x en un número
par de pasos. Como P 2 (0, 0) = p0 q1 > 0, entonces el periodo es 2.
Si y − x es par, entonces P 2m+1 (x, y ) = 0, para todo m ≥ 0, y
lı́m P 2m (x, y ) = 2π(y ).
m→∞
Si y − x es impar, entonces P 2m (x, y ) = 0, para todo m ≥ 0, y
lı́m P 2m+1 (x, y ) = 2π(y ).
m→∞
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
17 / 49
Cadenas de Nacimiento y Muerte
Distribuciones Estacionarias
Ejercicio
Calcule la distribución estacionaria de la cadena de Ehrenfest y de la
cadena de Ehrenfest modificada para d = 3, y determine el
comportamiento asintótico de la matriz P n en cada caso.
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
18 / 49
Cadenas de Nacimiento y Muerte
Distribuciones Estacionarias
Ejercicio: Distribución Estacionaria Cadena Ehrenfest
La matriz de transición serı́a
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
19 / 49
Cadenas de Nacimiento y Muerte
Distribuciones Estacionarias
Ejercicio: Distribución Estacionaria Cadena Ehrenfest
La matriz de transición serı́a
Usando la fórmula para la distribución estacionaria en cadenas irreducibles
de Nacimiento y Muerte:
π0 = 1; π1 =
Prof. Vı́quez (UCR)
1
1
3
= 3; π2 =
1 · 23
1 · 32 · 13
=
3;
π
=
=1
3
1 2
1 2
·
·
·
1
3 3
3 3
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
19 / 49
Cadenas de Nacimiento y Muerte
Distribuciones Estacionarias
Ejercicio: Distribución Estacionaria Cadena Ehrenfest
La matriz de transición serı́a
Usando la fórmula para la distribución estacionaria en cadenas irreducibles
de Nacimiento y Muerte:
π0 = 1; π1 =
1
1
3
= 3; π2 =
1 · 23
1 · 32 · 13
=
3;
π
=
=1
3
1 2
1 2
·
·
·
1
3 3
3 3
La única distribución estacionaria serı́a
1
3
3
1
π(0) = ; π(1) = ; π(2) = ; π(3) =
8
8
8
8
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
19 / 49
Cadenas de Nacimiento y Muerte
Distribuciones Estacionarias
Ejercicio: Convergencia Distribución Estacionaria Cadena
Ehrenfest
En este caso rx = 0 para todo 0 ≤ x ≤ 3, por lo que es una cadena con
periodo 2. Es decir, si x − y es par, entonces P 2m+1 (x, y ) = 0 para todo
m, y lı́mm→∞ P 2m (x, y ) = 2π(y ); y si x − y es impar, entonces
P 2m (x, y ) = 0 para todo m, y lı́mm→∞ P 2m+1 (x, y ) = 2π(y ).
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
20 / 49
Cadenas de Nacimiento y Muerte
Distribuciones Estacionarias
Ejercicio: Convergencia Distribución Estacionaria Cadena
Ehrenfest
En este caso rx = 0 para todo 0 ≤ x ≤ 3, por lo que es una cadena con
periodo 2. Es decir, si x − y es par, entonces P 2m+1 (x, y ) = 0 para todo
m, y lı́mm→∞ P 2m (x, y ) = 2π(y ); y si x − y es impar, entonces
P 2m (x, y ) = 0 para todo m, y lı́mm→∞ P 2m+1 (x, y ) = 2π(y ).
Conclusión:
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
20 / 49
Cadenas de Nacimiento y Muerte
Distribuciones Estacionarias
Ejercicio: Convergencia Distribución Estacionaria Cadena
Ehrenfest
En este caso rx = 0 para todo 0 ≤ x ≤ 3, por lo que es una cadena con
periodo 2. Es decir, si x − y es par, entonces P 2m+1 (x, y ) = 0 para todo
m, y lı́mm→∞ P 2m (x, y ) = 2π(y ); y si x − y es impar, entonces
P 2m (x, y ) = 0 para todo m, y lı́mm→∞ P 2m+1 (x, y ) = 2π(y ).
Conclusión:
1

3
Si n es par:
4 0 4 0
0 3 0 1 
4
4
Pn ≈ 
 1 0 3 0
4
4
0 34 0 41
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
20 / 49
Cadenas de Nacimiento y Muerte
Distribuciones Estacionarias
Ejercicio: Convergencia Distribución Estacionaria Cadena
Ehrenfest
En este caso rx = 0 para todo 0 ≤ x ≤ 3, por lo que es una cadena con
periodo 2. Es decir, si x − y es par, entonces P 2m+1 (x, y ) = 0 para todo
m, y lı́mm→∞ P 2m (x, y ) = 2π(y ); y si x − y es impar, entonces
P 2m (x, y ) = 0 para todo m, y lı́mm→∞ P 2m+1 (x, y ) = 2π(y ).
Conclusión:
1

3
Si n es par:
4 0 4 0
0 3 0 1 
4
4
Pn ≈ 
 1 0 3 0
4
4
0 34 0 41
Si n es impar:

0
1
4
Pn ≈ 
0
1
4
Prof. Vı́quez (UCR)
3
4
0
3
4
0
Cadenas de Markov
0
3
4
0
3
4
1
4
0

1
4
0
Martes 1 y Viernes 4 de Abril
20 / 49
Cadenas de Nacimiento y Muerte
Distribuciones Estacionarias
Ejercicio: Distribución Estacionaria Cadena Ehrenfest
Modificada
La matriz de transición serı́a
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
21 / 49
Cadenas de Nacimiento y Muerte
Distribuciones Estacionarias
Ejercicio: Distribución Estacionaria Cadena Ehrenfest
Modificada
La matriz de transición serı́a
Usando la fórmula para la distribución estacionaria en cadenas irreducibles
de Nacimiento y Muerte:
π0 = 1; π1 =
Prof. Vı́quez (UCR)
1
2
1
6
= 3; π2 =
1
2
1
6
·
·
1
3
1
3
= 3; π3 =
Cadenas de Markov
1
2
1
6
·
·
1
3
1
3
·
·
1
6
1
2
=1
Martes 1 y Viernes 4 de Abril
21 / 49
Cadenas de Nacimiento y Muerte
Distribuciones Estacionarias
Ejercicio: Distribución Estacionaria Cadena Ehrenfest
Modificada
La matriz de transición serı́a
Usando la fórmula para la distribución estacionaria en cadenas irreducibles
de Nacimiento y Muerte:
π0 = 1; π1 =
1
2
1
6
= 3; π2 =
1
2
1
6
·
·
1
3
1
3
= 3; π3 =
1
2
1
6
·
·
1
3
1
3
·
·
1
6
1
2
=1
La única distribución estacionaria serı́a
1
3
3
1
π(0) = ; π(1) = ; π(2) = ; π(3) =
8
8
8
8
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
21 / 49
Cadenas de Nacimiento y Muerte
Distribuciones Estacionarias
Ejercicio: Convergencia Distribución Estacionaria Cadena
Ehrenfest Modificada
En este caso rx > 0 para todo 0 ≤ x ≤ 3, por lo que es una cadena
aperiódica. Es decir, para todo x, y ∈ S, lı́mn→∞ P n (x, y ) = π(y )
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
22 / 49
Cadenas de Nacimiento y Muerte
Distribuciones Estacionarias
Ejercicio: Convergencia Distribución Estacionaria Cadena
Ehrenfest Modificada
En este caso rx > 0 para todo 0 ≤ x ≤ 3, por lo que es una cadena
aperiódica. Es decir, para todo x, y ∈ S, lı́mn→∞ P n (x, y ) = π(y )
Conclusión:
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
22 / 49
Cadenas de Nacimiento y Muerte
Distribuciones Estacionarias
Ejercicio: Convergencia Distribución Estacionaria Cadena
Ehrenfest Modificada
En este caso rx > 0 para todo 0 ≤ x ≤ 3, por lo que es una cadena
aperiódica. Es decir, para todo x, y ∈ S, lı́mn→∞ P n (x, y ) = π(y )
Conclusión:
1
8
1
8
n
P ≈
1
8
1
8
Prof. Vı́quez (UCR)
3
8
3
8
3
8
3
8
3
8
3
8
3
8
3
8
Cadenas de Markov
3
8
1
8

1
8
1
8

Martes 1 y Viernes 4 de Abril
22 / 49
Cadenas de Colas
Definición
Definición
Consideren un escenario como la caja de un supermercado o de un banco,
donde la gente llega en distintos momentos y son eventualmente
atendidos. Los que no han sido atendidos, forman una cola.
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
23 / 49
Cadenas de Colas
Definición
Definición
Consideren un escenario como la caja de un supermercado o de un banco,
donde la gente llega en distintos momentos y son eventualmente
atendidos. Los que no han sido atendidos, forman una cola.
Cadena de Colas
Suponga que el tiempo se mide en periodos convenientes (como minutos).
Asuma que que exactamente una persona es atendida en cada
periodo. Si no hay clientes esperando, ninguna persona será atendida
en ese periodo.
Sea ξn el número de nuevos clientes llegando en el periodo n. Asuma
que ξ1 , ξ2 , . . . son variables aleatorias no-negativas i.i.d., con densidad
f . µ será el número esperado de clientes llegando en cada periodo.
Sea X0 el número de clientes presentes inicialmente. Xn serı́a el
número de clientes presentes al final de periodo n.
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
23 / 49
Cadenas de Colas
Definición
Formalización del Modelo
De la información se deduce que
Si Xn = 0, entonces Xn+1 = ξn+1 ,
Si Xn > 0, entonces Xn+1 = Xn + ξn+1 − 1.
Claramente Xn es una cadena de Markov en S = {0, 1, . . . } con función de
transición dada por:
P(0, y ) = f (y ),
y
P(x, y ) = f (y − x + 1),
Prof. Vı́quez (UCR)
Cadenas de Markov
x ≥ 1.
Martes 1 y Viernes 4 de Abril
24 / 49
Cadenas de Colas
Cadenas Irreducibles, Recurrentes y Transientes
Condición Suficiente y Necesaria para Irreduibilidad
Irreducibilidad en Cadena de Colas
Una cadena de colas es irreducible si y solo si
f (0) > 0
Prof. Vı́quez (UCR)
f (0) + f (1) < 1.
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
25 / 49
Cadenas de Colas
Cadenas Irreducibles, Recurrentes y Transientes
Prueba
P(x, x − 1) = f (0) > 0, lo que implica que
P x−y (x, y ) > P(x, x − 1) · · · P(y + 1, y ) > 0. Entonces ρxy > 0, para todo
0 ≤ y < x.
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
26 / 49
Cadenas de Colas
Cadenas Irreducibles, Recurrentes y Transientes
Prueba
P(x, x − 1) = f (0) > 0, lo que implica que
P x−y (x, y ) > P(x, x − 1) · · · P(y + 1, y ) > 0. Entonces ρxy > 0, para todo
0 ≤ y < x.
Como f (0) + f (1) < 1, existe x0 > 1 tal que P(0, x0 ) = f (x0 ) > 0. Aún
más P n+1 (0, x0 + n(x0 − 1)) ≥ (f (x0 ))n+1 > 0. Para todo y > x existe un
n ≥ 0 tal que x0 + n(x0 − 1) > y , por lo que
P x+(n+1)+(x0 +n(x0 −1)−y ) (x, y ) ≥
P x (x, 0)P n+1 (0, x0 + n(x0 − 1))P x0 +n(x0 −1)−y (x0 + n(x0 − 1), y ) > 0, i.e.,
ρxy > 0.
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
26 / 49
Cadenas de Colas
Cadenas Irreducibles, Recurrentes y Transientes
Prueba
P(x, x − 1) = f (0) > 0, lo que implica que
P x−y (x, y ) > P(x, x − 1) · · · P(y + 1, y ) > 0. Entonces ρxy > 0, para todo
0 ≤ y < x.
Como f (0) + f (1) < 1, existe x0 > 1 tal que P(0, x0 ) = f (x0 ) > 0. Aún
más P n+1 (0, x0 + n(x0 − 1)) ≥ (f (x0 ))n+1 > 0. Para todo y > x existe un
n ≥ 0 tal que x0 + n(x0 − 1) > y , por lo que
P x+(n+1)+(x0 +n(x0 −1)−y ) (x, y ) ≥
P x (x, 0)P n+1 (0, x0 + n(x0 − 1))P x0 +n(x0 −1)−y (x0 + n(x0 − 1), y ) > 0, i.e.,
ρxy > 0.
La cadena es irreducible!
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
26 / 49
Cadenas de Colas
Cadenas Irreducibles, Recurrentes y Transientes
Prueba
P(x, x − 1) = f (0) > 0, lo que implica que
P x−y (x, y ) > P(x, x − 1) · · · P(y + 1, y ) > 0. Entonces ρxy > 0, para todo
0 ≤ y < x.
Como f (0) + f (1) < 1, existe x0 > 1 tal que P(0, x0 ) = f (x0 ) > 0. Aún
más P n+1 (0, x0 + n(x0 − 1)) ≥ (f (x0 ))n+1 > 0. Para todo y > x existe un
n ≥ 0 tal que x0 + n(x0 − 1) > y , por lo que
P x+(n+1)+(x0 +n(x0 −1)−y ) (x, y ) ≥
P x (x, 0)P n+1 (0, x0 + n(x0 − 1))P x0 +n(x0 −1)−y (x0 + n(x0 − 1), y ) > 0, i.e.,
ρxy > 0.
La cadena es irreducible!
Por otro lado, si f (0) = 0, siempre llegarán (en cada periodo) al menos
una persona, por lo que la cadena nunca alcanzará estados menores a x,
i.e., ρxy = 0 para todo y < x.
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
26 / 49
Cadenas de Colas
Cadenas Irreducibles, Recurrentes y Transientes
Prueba
P(x, x − 1) = f (0) > 0, lo que implica que
P x−y (x, y ) > P(x, x − 1) · · · P(y + 1, y ) > 0. Entonces ρxy > 0, para todo
0 ≤ y < x.
Como f (0) + f (1) < 1, existe x0 > 1 tal que P(0, x0 ) = f (x0 ) > 0. Aún
más P n+1 (0, x0 + n(x0 − 1)) ≥ (f (x0 ))n+1 > 0. Para todo y > x existe un
n ≥ 0 tal que x0 + n(x0 − 1) > y , por lo que
P x+(n+1)+(x0 +n(x0 −1)−y ) (x, y ) ≥
P x (x, 0)P n+1 (0, x0 + n(x0 − 1))P x0 +n(x0 −1)−y (x0 + n(x0 − 1), y ) > 0, i.e.,
ρxy > 0.
La cadena es irreducible!
Por otro lado, si f (0) = 0, siempre llegarán (en cada periodo) al menos
una persona, por lo que la cadena nunca alcanzará estados menores a x,
i.e., ρxy = 0 para todo y < x.
Y si f (0) + f (1) = 1, siempre llegará una persona o ninguna, pero siempre
se atiende a una en cada periodo (si hay clientes), por lo que la cadena
nunca alcanzará estados mayores, i.e., ρxy = 0 para todo 1 ≤ x < y .
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
26 / 49
Cadenas de Colas
Cadenas Irreducibles, Recurrentes y Transientes
Ejercicio
En una cadena no irreducible, cuáles estados son absorbentes, cuales son
recurrentes, y cuales son transientes? Considere los siguientes cuatro
casos:
1
f (1) = 1.
2
f (0) > 0, f (1) > 0, y f (0) + f (1) = 1.
3
f (0) = 1.
4
f (0) = 0 y f (1) < 1.
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
27 / 49
Cadenas de Colas
Cadenas Irreducibles, Recurrentes y Transientes
Solución
Si f (1) = 1, entonces siempre entra 1 persona a la fila, y con certeza
(por el modelo), sale una persona de la fila, es decir, si se está en el
estado x > 0, entonces se estará en ese estado siempre. x > 0 es un
estado absorbente. Sin embargo, si no hubiera nadie en la fila, con
certeza entra una persona a la fila pero no se atiende a ninguna, por
lo que de 0 se pasarı́a al estado 1, el cual es absorbente, i.e., 0 es
transiente.
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
28 / 49
Cadenas de Colas
Cadenas Irreducibles, Recurrentes y Transientes
Solución
Si f (1) = 1, entonces siempre entra 1 persona a la fila, y con certeza
(por el modelo), sale una persona de la fila, es decir, si se está en el
estado x > 0, entonces se estará en ese estado siempre. x > 0 es un
estado absorbente. Sin embargo, si no hubiera nadie en la fila, con
certeza entra una persona a la fila pero no se atiende a ninguna, por
lo que de 0 se pasarı́a al estado 1, el cual es absorbente, i.e., 0 es
transiente.
Si f (0) > 0, f (1) > 0, y f (0) + f (1) = 1, quiere decir que con certeza
entra una persona a la fila o ninguna persona llega. Si se está en el
estado 0, se puede quedar en 0 (al no entrar nadie) o se puede pasar
al estado 1 (entrando 1 persona). Del estado 1, solo se puede
permanecer ahı́ (si entra 1 persona) o pasar al estado 0 (al no entrar
nadie), i.e., {0, 1} es cerrado e irreducible, por lo tanto,
x recurrente. Si
se está en el estado x > 1, entonces P x (x, 0) = f (0) > 0, i.e., x
conecta con 0. Como x conecta con 0 y 0 es recurrente pero no
conecta con x, entonces x es transiente, para todo x > 1.
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
28 / 49
Cadenas de Colas
Cadenas Irreducibles, Recurrentes y Transientes
Solución (cont.)
Si f (0) = 1, entonces nunca entra alguien a la fila, y con certeza (por
el modelo), sale una persona de la fila, es decir, si se está en el estado
x > 0, entonces se pasarı́a al estado x − 1 siempre. Esto continuarı́a
hasta llegar al estado 0. Una vez en el estado 0, no entrarı́a nadie a la
fila ni se atenderı́a a nadie, por lo tanto, se permanecerı́a ahı́ siempre,
i.e., 0 es absorbente.
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
29 / 49
Cadenas de Colas
Cadenas Irreducibles, Recurrentes y Transientes
Solución (cont.)
Si f (0) = 1, entonces nunca entra alguien a la fila, y con certeza (por
el modelo), sale una persona de la fila, es decir, si se está en el estado
x > 0, entonces se pasarı́a al estado x − 1 siempre. Esto continuarı́a
hasta llegar al estado 0. Una vez en el estado 0, no entrarı́a nadie a la
fila ni se atenderı́a a nadie, por lo tanto, se permanecerı́a ahı́ siempre,
i.e., 0 es absorbente.
Si f (0) = 0 y f (1) < 1, siempre entra al menos una persona a la fila.
Si se está en el estado x, se puede quedar en ahı́ (al entrar 1 persona)
o se puede pasar al estado x + 1 (entrando más de 1 persona), pero
nunca se llegará al estado x − 1. Por lo tanto, todos los estados son
transientes.
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
29 / 49
Cadenas de Colas
Cadenas Irreducibles, Recurrentes y Transientes
Cadenas Transientes y Recursivas de Colas
Recurrencia y Transiencia
Si µ ≤ 1 y la cadena de colas es irreducible, entonces la cadena es
recurrente.
Si µ > 1, la cadena de colas es transiente.
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
30 / 49
Cadenas de Colas
Cadenas Irreducibles, Recurrentes y Transientes
Cadenas Transientes y Recursivas de Colas
Recurrencia y Transiencia
Si µ ≤ 1 y la cadena de colas es irreducible, entonces la cadena es
recurrente.
Si µ > 1, la cadena de colas es transiente.
Interpretación:
Si µ > 1, el número esperado de personas que van a llegar será más
que una persona, pero solo será atendida una persona en cada
periodo. Es de esperar que la cola aumente en el largo plazo,
volviendo cada estado transiente.
Si µ ≤ 1, se espera que en promedio lleguen a lo más 1 persona, y
como se atiende una persona en cada periodo, entonces la fila deberı́a
desaparecer en el largo plazo, sin importar su longitud inicial. En
particular, 0 serı́a recurrente, y como la cadena es irreducible,
entonces todo estado serı́a recurrente.
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
30 / 49
Cadenas de Colas
Cadenas Irreducibles, Recurrentes y Transientes
Resultado Preliminar
Función Generatriz de Probabilidad
P
k
Sea φ = ∞
k=0 f (0)t , la función generatriz de probabilidad de una
variable aleatoria no-negativa ξ, y sea µ = E[ξ] (con µ = ∞ si ξ no tiene
esperanza finita). Si µ ≤ 1 y P[ξ = 1] < 1, la ecuación
φ(t) = t
(4)
no tiene raı́ces en [0, 1). Si µ > 1, entonces (4) tiene una única raı́z ρ0 en
[0, 1).
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
31 / 49
Cadenas de Colas
Cadenas Irreducibles, Recurrentes y Transientes
Prueba: φ(ρ) = ρ
Noten que P(0, z) ≡ P(1, z), entonces ρ := ρ00 = ρ10 .
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
32 / 49
Cadenas de Colas
Cadenas Irreducibles, Recurrentes y Transientes
Prueba: φ(ρ) = ρ
Noten que P(0, z) ≡ P(1, z), entonces ρ := ρ00 = ρ10 .
Por ejercicio 9(b) del libro (probarlo como práctica)
∞
∞
X
X
ρ = ρ00 = P(0, 0) +
P(0, y )ρy 0 = f (0) +
f (y )ρy 0 .
y =1
Prof. Vı́quez (UCR)
Cadenas de Markov
y =1
Martes 1 y Viernes 4 de Abril
32 / 49
Cadenas de Colas
Cadenas Irreducibles, Recurrentes y Transientes
Prueba: φ(ρ) = ρ
Noten que P(0, z) ≡ P(1, z), entonces ρ := ρ00 = ρ10 .
Por ejercicio 9(b) del libro (probarlo como práctica)
∞
∞
X
X
ρ = ρ00 = P(0, 0) +
P(0, y )ρy 0 = f (0) +
f (y )ρy 0 .
y =1
y =1
El evento {Ty −1 = n} ocurre si y solo si
m
m
X
X
n = mı́n{m > 0 / y +
(ξk −1) = y −1} = mı́n{m > 0 /
ξk = m−1}
k=1
Prof. Vı́quez (UCR)
k=1
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
32 / 49
Cadenas de Colas
Cadenas Irreducibles, Recurrentes y Transientes
Prueba: φ(ρ) = ρ
Noten que P(0, z) ≡ P(1, z), entonces ρ := ρ00 = ρ10 .
Por ejercicio 9(b) del libro (probarlo como práctica)
∞
∞
X
X
ρ = ρ00 = P(0, 0) +
P(0, y )ρy 0 = f (0) +
f (y )ρy 0 .
y =1
y =1
El evento {Ty −1 = n} ocurre si y solo si
m
m
X
X
n = mı́n{m > 0 / y +
(ξk −1) = y −1} = mı́n{m > 0 /
ξk = m−1}
k=1
k=1
Entonces, ρy ,y −1 = Py [Ty −1 < ∞] es independiente de y , para todo y > 0
i.e., ρy ,y −1 = ρy −1,y −2 = · · · = ρ10 = ρ00 = ρ.
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
32 / 49
Cadenas de Colas
Cadenas Irreducibles, Recurrentes y Transientes
Prueba: φ(ρ) = ρ
Noten que P(0, z) ≡ P(1, z), entonces ρ := ρ00 = ρ10 .
Por ejercicio 9(b) del libro (probarlo como práctica)
∞
∞
X
X
ρ = ρ00 = P(0, 0) +
P(0, y )ρy 0 = f (0) +
f (y )ρy 0 .
y =1
y =1
El evento {Ty −1 = n} ocurre si y solo si
m
m
X
X
n = mı́n{m > 0 / y +
(ξk −1) = y −1} = mı́n{m > 0 /
ξk = m−1}
k=1
k=1
Entonces, ρy ,y −1 = Py [Ty −1 < ∞] es independiente de y , para todo y > 0
i.e., ρy ,y −1 = ρy −1,y −2 = · · · = ρ10 = ρ00 = ρ.
Como la cadena solo puede descender un estado, para ir de y a 0, debe
pasar por todos los estados intermedios (ejercicio 39 de libro), i.e.,
ρy 0 = ρy ,y −1 ρy −1,y −2 · · · ρ1,0 = ρy .
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
32 / 49
Cadenas de Colas
Cadenas Irreducibles, Recurrentes y Transientes
Prueba: φ(ρ) = ρ
Noten que P(0, z) ≡ P(1, z), entonces ρ := ρ00 = ρ10 .
Por ejercicio 9(b) del libro (probarlo como práctica)
∞
∞
X
X
ρ = ρ00 = P(0, 0) +
P(0, y )ρy 0 = f (0) +
f (y )ρy 0 .
y =1
y =1
El evento {Ty −1 = n} ocurre si y solo si
m
m
X
X
n = mı́n{m > 0 / y +
(ξk −1) = y −1} = mı́n{m > 0 /
ξk = m−1}
k=1
k=1
Entonces, ρy ,y −1 = Py [Ty −1 < ∞] es independiente de y , para todo y > 0
i.e., ρy ,y −1 = ρy −1,y −2 = · · · = ρ10 = ρ00 = ρ.
Como la cadena solo puede descender un estado, para ir de y a 0, debe
pasar por todos los estados intermedios (ejercicio 39 de libro), i.e.,
ρy 0 = ρy ,y −1 ρy −1,y −2 · · · ρ1,0 = ρy . Finalmente,
ρ = f (0) +
∞
X
f (y )ρy = φ(ρ)
y =1
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
32 / 49
Cadenas de Colas
Cadenas Irreducibles, Recurrentes y Transientes
Prueba: µ ≤ 1 e irreducible
La cadena es irreducible, entonces P[ξ = 1] = f (1) < 1, y µ ≤ 1, entonces
ρ = φ(ρ) no tiene soluciones en [0, 1), y como 1 = φ(1), entonces
ρ00 = ρ = 1, i.e., 0 es un estado recurrente. Por irreducibilidad, la cadena
es recurrente.
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
33 / 49
Cadenas de Colas
Cadenas Irreducibles, Recurrentes y Transientes
Prueba: µ > 1
Tome ρn := P1 [T0 ≤ n]. Por el hecho de que Py [Ty −1 ≤ n] es
independiente de n (misma argumentación que antes), y que
Py [T0 ≤ n] ≤ Py [Ty −1 ≤ n] · · · P1 [T0 ≤ n] (ejercicio 39 del libro), se
concluye que Py [T0 ≤ n] ≤ (P1 [T0 ≤ n])y .
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
34 / 49
Cadenas de Colas
Cadenas Irreducibles, Recurrentes y Transientes
Prueba: µ > 1
Tome ρn := P1 [T0 ≤ n]. Por el hecho de que Py [Ty −1 ≤ n] es
independiente de n (misma argumentación que antes), y que
Py [T0 ≤ n] ≤ Py [Ty −1 ≤ n] · · · P1 [T0 ≤ n] (ejercicio 39 del libro), se
concluye que Py [T0 ≤ n] ≤ (P1 [T0 ≤ n])y .Por ejercicio 9 del libro,
ρn+1 =
∞
X
y =0
Prof. Vı́quez (UCR)
P(1, y )Py [T0 ≤ n] ≤
∞
X
f (y ) (ρn )y = φ (ρn ) .
y =0
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
34 / 49
Cadenas de Colas
Cadenas Irreducibles, Recurrentes y Transientes
Prueba: µ > 1
Tome ρn := P1 [T0 ≤ n]. Por el hecho de que Py [Ty −1 ≤ n] es
independiente de n (misma argumentación que antes), y que
Py [T0 ≤ n] ≤ Py [Ty −1 ≤ n] · · · P1 [T0 ≤ n] (ejercicio 39 del libro), se
concluye que Py [T0 ≤ n] ≤ (P1 [T0 ≤ n])y .Por ejercicio 9 del libro,
ρn+1 =
∞
X
P(1, y )Py [T0 ≤ n] ≤
y =0
∞
X
f (y ) (ρn )y = φ (ρn ) .
y =0
Como ρ0 := P1 [T0 ≤ 0] = 0 ≤ ρ, por inducción, si se cumple que ρn ≤ ρ,
y como φ es creciente,
ρ10 ←−−− ρn+1 = φ (ρn ) ≤ φ(ρ) = ρ.
n→∞
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
34 / 49
Cadenas de Colas
Cadenas Irreducibles, Recurrentes y Transientes
Prueba: µ > 1
Tome ρn := P1 [T0 ≤ n]. Por el hecho de que Py [Ty −1 ≤ n] es
independiente de n (misma argumentación que antes), y que
Py [T0 ≤ n] ≤ Py [Ty −1 ≤ n] · · · P1 [T0 ≤ n] (ejercicio 39 del libro), se
concluye que Py [T0 ≤ n] ≤ (P1 [T0 ≤ n])y .Por ejercicio 9 del libro,
ρn+1 =
∞
X
P(1, y )Py [T0 ≤ n] ≤
y =0
∞
X
f (y ) (ρn )y = φ (ρn ) .
y =0
Como ρ0 := P1 [T0 ≤ 0] = 0 ≤ ρ, por inducción, si se cumple que ρn ≤ ρ,
y como φ es creciente,
ρ10 ←−−− ρn+1 = φ (ρn ) ≤ φ(ρ) = ρ.
n→∞
Concluimos que como µ > 1, existe una solución de ρ = φ(ρ) en [0, 1), y
por lo anterior ρ00 = ρ10 = ρ < 1, y 0 es transiente. Si la cadena es
irreducible, todos sus estados son transientes, y si no es irreducible,
entonces se debe cumplir que f (0) = 0 y f (1) < 1; y todos los estados son
transientes.
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
34 / 49
Cadenas de Colas
Distribución Estacionaria
Existencia y Unicidad
Condiciones Suficientes y Necesarias
Considere una cadena de colas irreducible recurrente. Entonces
1
, y se cumple que,
m0 = 1−µ
Si µ < 1, la cadena es recurrente positiva.
Si µ = 1, la cadena es recurrente nula.
En particular, existe una distribución estacionaria si y solo si µ < 1.
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
35 / 49
Cadenas de Colas
Distribución Estacionaria
Prueba: G (t) = tφ G (t)
Por la propiedad de Markov, y el hecho de que solo puede descender un
estado en cada periodo, implica que si estamos en el estado x, los tiempos
Tx , Tx−2 − Tx−1 , . . . , T0 − T1 son i.i.d. Si G (t) := G10 (t) es la función
generatriz de T0 partiendo del estado 1, y como
T0 = Tx + (Tx−2 − Tx−1 ) + · · · + (T0 − T1 ) si partimos de x, entonces,
∞
X
x
0
G (t) = Gx (t) :=
t n Px [T0 = n].
n=1
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
36 / 49
Cadenas de Colas
Distribución Estacionaria
Prueba: G (t) = tφ G (t)
Por la propiedad de Markov, y el hecho de que solo puede descender un
estado en cada periodo, implica que si estamos en el estado x, los tiempos
Tx , Tx−2 − Tx−1 , . . . , T0 − T1 son i.i.d. Si G (t) := G10 (t) es la función
generatriz de T0 partiendo del estado 1, y como
T0 = Tx + (Tx−2 − Tx−1 ) + · · · + (T0 − T1 ) si partimos de x, entonces,
∞
X
x
0
G (t) = Gx (t) :=
t n Px [T0 = n].
n=1
Entonces
∞
∞
∞
X
X
X
n+1
n
G (t) :=
t
P1 [T0 = n + 1] = tP(0, 1) + t
t
P(1, y )Py [T0 = n]
n=0
= tf (0) + t
n=1
∞
X
y =1
f (y )
∞
X
y =1
t n Py [T0 = n] = tf (0) + t
n=1
∞
X
y
f (y ) G (t)
y =1
= tφ G (t) .
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
36 / 49
Cadenas de Colas
Prueba: m0 =
Distribución Estacionaria
1
1−µ
Diferenciando ambos lados y despejando para G 0 (t)
φ G (t)
0
, 0 ≤ t < 1.
G (t) =
1 − tφ0 G (t)
Cuando t → 1,G (t) → 1, y φ G (t) → 1, y por definición de φ,
lı́mt→1 φ0 G (t) = φ0 (1) = µ.
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
37 / 49
Cadenas de Colas
Prueba: m0 =
Distribución Estacionaria
1
1−µ
Diferenciando ambos lados y despejando para G 0 (t)
φ G (t)
0
, 0 ≤ t < 1.
G (t) =
1 − tφ0 G (t)
Cuando t → 1,G (t) → 1, y φ G (t) → 1, y por definición de φ,
lı́mt→1 φ0 G (t) = φ0 (1) = µ.
Como P(1, x) = P(0, x), para todo x, entonces la distribución de T0 es la
misma empezando
en 0 que empezando en 1, es decir,
P
n P [T = n]. Entonces,
G (t) := ∞
t
0
0
n=1
lı́m G 0 (t) = lı́m
t→1
t→1
Prof. Vı́quez (UCR)
∞
X
n=1
nt n−1 P0 [T0 = n] =
∞
X
nP0 [T0 = n] = E0 [T0 ] = m0 .
n=1
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
37 / 49
Cadenas de Colas
Prueba: m0 =
Distribución Estacionaria
1
1−µ
Diferenciando ambos lados y despejando para G 0 (t)
φ G (t)
0
, 0 ≤ t < 1.
G (t) =
1 − tφ0 G (t)
Cuando t → 1,G (t) → 1, y φ G (t) → 1, y por definición de φ,
lı́mt→1 φ0 G (t) = φ0 (1) = µ.
Como P(1, x) = P(0, x), para todo x, entonces la distribución de T0 es la
misma empezando
en 0 que empezando en 1, es decir,
P
n P [T = n]. Entonces,
G (t) := ∞
t
0
0
n=1
lı́m G 0 (t) = lı́m
t→1
t→1
Entonces m0 =
∞
X
n=1
1
1−µ ,
Prof. Vı́quez (UCR)
nt n−1 P0 [T0 = n] =
∞
X
nP0 [T0 = n] = E0 [T0 ] = m0 .
n=1
y las conclusiones se siguen inmediatamente.
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
37 / 49
Cadenas de Colas
Distribución Estacionaria
Resumen de Resultados
Si µ > 1: La cadena de colas es transiente, i.e., todos sus estados
son transientes y no existe ninguna distribución estacionaria.
Si µ ≤ 1:
Cadena Irreducible f (0) > 0, y f (0) + f (1) < 1 : La cadena de colas
es recurrente, i.e., todos sus estados son recurrentes.
Si µ = 1: Todos sus estados son recurrentes nulos y no existe ninguna
distribución estacionaria.
Si µ < 1: Todos sus estados son recurrentes positivos y existe una
única distribución estacionaria.
Cadena No-Irreducible:
Si µ = 1 f (1) = 1 : Todos los estados son absorbentes (recurrentes)
excepto el 0 que es transiente, y existen infinitas distribuciones
estacionarias.
Si 0 < µ < 1 f (0) > 0, f (1) > 0, y f (0) + f (1) = 1 : Todos los
estados son transientes excepto el 0 y el 1, que forman un conjunto
cerrado irreducible de estados recurrentes (C = {0, 1}), y existe una
única distribución estacionaria.
Si µ = 0 f (0) = 1 : Todos los estados son transientes excepto el 0
que es absorbente (recurrente) y existe una única distribución
estacionaria..
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
38 / 49
Ramificaciones
Definición
Cadenas de Ramificaciones
Considere particulas como neutrones o bacterias, que pueden generar
nuevas particulas del mismo tipo. La cantidad inicial de estos objetos se
llama la generación 0, y cada objeto serı́a un miembro de esta genración 0.
Las particulas generadas por la generación n, se llaman miembros de la
generación n + 1. Xn cuenta el número de particulas en la generación n.
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
39 / 49
Ramificaciones
Definición
Cadenas de Ramificaciones
Considere particulas como neutrones o bacterias, que pueden generar
nuevas particulas del mismo tipo. La cantidad inicial de estos objetos se
llama la generación 0, y cada objeto serı́a un miembro de esta genración 0.
Las particulas generadas por la generación n, se llaman miembros de la
generación n + 1. Xn cuenta el número de particulas en la generación n.
PRECAUCIÓN: No se exige que las particulas tengan descendencia en
cada periodo, por lo que particulas de varias generaciones pueden coexistir
simultaneamente.
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
39 / 49
Ramificaciones
Definición
Ejemplo: Cadenas de Ramificaciones
Ejemplo: una partı́cula genera dos particulas. X0 = 1 y X1 = 2. Una de
estas partı́culas genera 3 partı́culas, mientras que la otra solo genera 1
partı́cula. Entonces X2 = 4. Y ası́ sucesivamente.
Figura: Representación gráfica del ejemplo de ramificación
Noten que X4 = 0, por lo que Xn = 0 para todo n ≥ 4.
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
40 / 49
Ramificaciones
Definición
Formalización del Modelo
.
La particula i genera ξi particulas en la siguiente generación,
ξ1 , ξ2 , . . . , ξx son i.i.d. y no-negativas, con densidad f . µ serı́a el
número esperado de partı́culas generadas por una partı́cula.
Claramente Xn es una cadena de Markov en S = {0, 1, . . . }, con 0 como
un estado absorbente, y con función de transición dada por:
P(x, y ) = P[ξ1 + ξ2 + · · · + ξx = y ]
Prof. Vı́quez (UCR)
Cadenas de Markov
si x > 0.
Martes 1 y Viernes 4 de Abril
41 / 49
Ramificaciones
Definición
Formalización del Modelo
.
La particula i genera ξi particulas en la siguiente generación,
ξ1 , ξ2 , . . . , ξx son i.i.d. y no-negativas, con densidad f . µ serı́a el
número esperado de partı́culas generadas por una partı́cula.
Claramente Xn es una cadena de Markov en S = {0, 1, . . . }, con 0 como
un estado absorbente, y con función de transición dada por:
P(x, y ) = P[ξ1 + ξ2 + · · · + ξx = y ]
si x > 0.
Si los descendientes de una partı́cula mueren (o desaparecen), se dice que
se extinguieron. Lo interesante de esta cadena consiste en averiguar la
probabilidad de una eventual extinción, es decir, determinar ρ := ρ10 ya
que una vez que se sabe esto, se puede utilizar la independencia para
estimar ρx0 = ρx .
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
41 / 49
Ramificaciones
Estados Recurrentes y Transientes
Ejercicio
Determine cuales estados son recurrentes y cuales son transientes. Divida
los casos:
f (1) = 1,
f (1) < 1.
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
42 / 49
Ramificaciones
Estados Recurrentes y Transientes
Ejercicio
Determine cuales estados son recurrentes y cuales son transientes. Divida
los casos:
f (1) = 1,
f (1) < 1.
Solución:
Si f (1) = 1, todo estado es absorbente.
Si f (1) < 1, 0 es absorbente y el resto de estados son transientes.
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
42 / 49
Ramificaciones
Estados Recurrentes y Transientes
Caracterización
Condiciones para la Extinción Total
Si f (1) = 1, la cadena se mantiene en su estado siempre.
Si f (1) < 1 y µ ≤ 1, la extinción total se da con certeza.
Si f (1) < 1 y µ > 1, la probabilidad de que ocurra la extinción total
es menor que 1.
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
43 / 49
Ramificaciones
Estados Recurrentes y Transientes
Caracterización
Condiciones para la Extinción Total
Si f (1) = 1, la cadena se mantiene en su estado siempre.
Si f (1) < 1 y µ ≤ 1, la extinción total se da con certeza.
Si f (1) < 1 y µ > 1, la probabilidad de que ocurra la extinción total
es menor que 1.
Prueba: Como ρx0 = ρx , entonces
∞
∞
X
X
ρ = ρ10 =
P(1, y )ρy 0 =
f (y )ρy = φ(ρ).
y =0
Prof. Vı́quez (UCR)
y =0
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
43 / 49
Ramificaciones
Estados Recurrentes y Transientes
Caracterización
Condiciones para la Extinción Total
Si f (1) = 1, la cadena se mantiene en su estado siempre.
Si f (1) < 1 y µ ≤ 1, la extinción total se da con certeza.
Si f (1) < 1 y µ > 1, la probabilidad de que ocurra la extinción total
es menor que 1.
Prueba: Como ρx0 = ρx , entonces
∞
∞
X
X
ρ = ρ10 =
P(1, y )ρy 0 =
f (y )ρy = φ(ρ).
y =0
y =0
Por el Lema anterior, si µ ≤ 1, esta ecuación no tiene raı́ces en [0,1), y
como 1 = φ(1), se tiene que la probabilidad de extinción total es ρx0 = 1.
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
43 / 49
Ramificaciones
Estados Recurrentes y Transientes
Caracterización
Condiciones para la Extinción Total
Si f (1) = 1, la cadena se mantiene en su estado siempre.
Si f (1) < 1 y µ ≤ 1, la extinción total se da con certeza.
Si f (1) < 1 y µ > 1, la probabilidad de que ocurra la extinción total
es menor que 1.
Prueba: Como ρx0 = ρx , entonces
∞
∞
X
X
ρ = ρ10 =
P(1, y )ρy 0 =
f (y )ρy = φ(ρ).
y =0
y =0
Por el Lema anterior, si µ ≤ 1, esta ecuación no tiene raı́ces en [0,1), y
como 1 = φ(1), se tiene que la probabilidad de extinción total es ρx0 = 1.
Por ese mismo Lema, si µ > 1, existe una solución ρ0 < 1 para la
ecuación. Utilizando los mismos argumentos anteriores, se demuestra que
ρ ≤ ρ0 < 1, por lo que se concluye que la probabilidad de extinción total
es menor que 1.
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
43 / 49
Ramificaciones
Estados Recurrentes y Transientes
Ejercicio
Suponga que todo hombre tiene exactamente 3 descendientes, con
probabilidad 0.5 de ser hombre o mujer. Suponga que el número de
hombres en la generación n forma una cadena de ramificación. Encuentrae
la probabilidad de que el linage de hombres se extinga.
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
44 / 49
Ramificaciones
Estados Recurrentes y Transientes
Ejercicio
Suponga que todo hombre tiene exactamente 3 descendientes, con
probabilidad 0.5 de ser hombre o mujer. Suponga que el número de
hombres en la generación n forma una cadena de ramificación. Encuentrae
la probabilidad de que el linage de hombres se extinga.
La densidad de hijos de un hombre es una binomial con parámetros (3, 12 ).
Entonces f (0) = 18 , f (1) = 38 , f (2) = 83 , f (3) = 18 , y f (x) = 0 para x ≥ 4.
µ=0·
Prof. Vı́quez (UCR)
1
3
3
1
3
+ 1 · + 2 · + 3 · = > 1.
8
8
8
8
2
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
44 / 49
Ramificaciones
Estados Recurrentes y Transientes
Ejercicio
Suponga que todo hombre tiene exactamente 3 descendientes, con
probabilidad 0.5 de ser hombre o mujer. Suponga que el número de
hombres en la generación n forma una cadena de ramificación. Encuentrae
la probabilidad de que el linage de hombres se extinga.
La densidad de hijos de un hombre es una binomial con parámetros (3, 12 ).
Entonces f (0) = 18 , f (1) = 38 , f (2) = 83 , f (3) = 18 , y f (x) = 0 para x ≥ 4.
1
3
3
1
3
+ 1 · + 2 · + 3 · = > 1.
8
8
8
8
2
La probabilidad de exinción es la menor raı́z positiva de la ecuación
1 3
3
1
+ t + t 2 + t 3 = t.
8 8
8
8
µ=0·
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
44 / 49
Ramificaciones
Estados Recurrentes y Transientes
Ejercicio
Suponga que todo hombre tiene exactamente 3 descendientes, con
probabilidad 0.5 de ser hombre o mujer. Suponga que el número de
hombres en la generación n forma una cadena de ramificación. Encuentrae
la probabilidad de que el linage de hombres se extinga.
La densidad de hijos de un hombre es una binomial con parámetros (3, 12 ).
Entonces f (0) = 18 , f (1) = 38 , f (2) = 83 , f (3) = 18 , y f (x) = 0 para x ≥ 4.
1
3
3
1
3
+ 1 · + 2 · + 3 · = > 1.
8
8
8
8
2
La probabilidad de exinción es la menor raı́z positiva de la ecuación
1 3
3
1
+ t + t 2 + t 3 = t.
8 8
8
8
Sabiendo que 1 es una raı́z, se hace división sintética y se obtienen que
µ=0·
(t − 1)(t 2 + 4t − 1) = 0,
√
√
√
con raı́ces 1, − 5 − 2 y 5 − 2, por lo que ρ = 5 − 2.
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
44 / 49
Martingalas
Definición
Una Martingala es la escencia de un “juego justo”, es decir, cuando el
valor esperado de Xn+1 , dado el pasado X0 , X1 , . . . , Xn , es igual al valor
presente Xn , i.e.,
E[Xn+1 |X0 = x0 , . . . , Xn−1 = xn−1 , Xn = x] = x.
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
45 / 49
Martingalas
Definición
Una Martingala es la escencia de un “juego justo”, es decir, cuando el
valor esperado de Xn+1 , dado el pasado X0 , X1 , . . . , Xn , es igual al valor
presente Xn , i.e.,
E[Xn+1 |X0 = x0 , . . . , Xn−1 = xn−1 , Xn = x] = x.
Si Xn es el capital de un apostador después del tiempo n, y si todas las
apuestas son “justas”, esto es, la ganancia esperada del apostador es 0;
entonces Xn es una martingala.
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
45 / 49
Martingalas
Martingalas en Cadenas de Markov
Cadena de Markov Martingala
Considere una cadena de Markov, S = {0, . . . , d}, tal que
d
X
yP(x, y ) = x.
y =0
Entonces Xn es una martingala, con 0 y d como estados absorbentes. Si
no existen otros estados absorbentes, entonces todos los estados restantes
son transientes, y ρ{0} (x) = ρx0 = 1 − dx , ası́ como ρ{d} (x) = ρxd = dx .
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
46 / 49
Martingalas
Martingalas en Cadenas de Markov
Cadena de Markov Martingala
Considere una cadena de Markov, S = {0, . . . , d}, tal que
d
X
yP(x, y ) = x.
y =0
Entonces Xn es una martingala, con 0 y d como estados absorbentes. Si
no existen otros estados absorbentes, entonces todos los estados restantes
son transientes, y ρ{0} (x) = ρx0 = 1 − dx , ası́ como ρ{d} (x) = ρxd = dx .
NOTA: La cadena de la ruina del jugador, si p = q = 12 , es una
martingala. El apostador tendrá probabilidad dx de salir ganancioso y 1 −
de quebrar, si inicia con x dólares.
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
x
d
46 / 49
Martingalas
Prueba
Claramente (y por la propiedad de Markov), Xn es una martingala,
E[Xn+1 |X0 = x0 , . . . , Xn−1 = xn−1 , Xn = x]
=
d
X
y P[Xn+1 = y |X0 = x0 , . . . , Xn−1 = xn−1 , Xn = x] =
y =0
Prof. Vı́quez (UCR)
d
X
yP(x, y ) = x
y =0
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
47 / 49
Martingalas
Prueba
Claramente (y por la propiedad de Markov), Xn es una martingala,
E[Xn+1 |X0 = x0 , . . . , Xn−1 = xn−1 , Xn = x]
=
d
X
y P[Xn+1 = y |X0 = x0 , . . . , Xn−1 = xn−1 , Xn = x] =
y =0
d
X
yP(x, y ) = x
y =0
Pd
También, y =0 yP(0, y ) = 0, o sea, P(0, i) = 0, para todo i 6= 0. 0 es un
estado absorbente. Analogamente se demuestra que d es absorbente.
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
47 / 49
Martingalas
Prueba
Claramente (y por la propiedad de Markov), Xn es una martingala,
E[Xn+1 |X0 = x0 , . . . , Xn−1 = xn−1 , Xn = x]
=
d
X
y P[Xn+1 = y |X0 = x0 , . . . , Xn−1 = xn−1 , Xn = x] =
y =0
d
X
yP(x, y ) = x
y =0
Pd
También, y =0 yP(0, y ) = 0, o sea, P(0, i) = 0, para todo i 6= 0. 0 es un
estado absorbente. Analogamente se demuestra que d es absorbente.
x conecta con algún yP< x, de lo contrario
Pd P(x, y ) = 0 para todo y < x.
d
Eso implica que x = y =0 yP(x, y ) = y =x yP(x, y ) > x, lo cual es
imposible. Entonces todo x conecta con 0 pero 0 no conecta con x, por lo
tanto, x es transiente.
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
47 / 49
Martingalas
Prueba
Claramente (y por la propiedad de Markov), Xn es una martingala,
E[Xn+1 |X0 = x0 , . . . , Xn−1 = xn−1 , Xn = x]
=
d
X
y P[Xn+1 = y |X0 = x0 , . . . , Xn−1 = xn−1 , Xn = x] =
y =0
d
X
yP(x, y ) = x
y =0
Pd
También, y =0 yP(0, y ) = 0, o sea, P(0, i) = 0, para todo i 6= 0. 0 es un
estado absorbente. Analogamente se demuestra que d es absorbente.
x conecta con algún yP< x, de lo contrario
Pd P(x, y ) = 0 para todo y < x.
d
Eso implica que x = y =0 yP(x, y ) = y =x yP(x, y ) > x, lo cual es
imposible. Entonces todo x conecta con 0 pero 0 no conecta con x, por lo
tanto, x es transiente.
Finalmente (por la propiedad de la torre)
x = Ex [Xn+1 ] =
d−1
X
y =1
Prof. Vı́quez (UCR)
n→∞
yP n (x, y ) + d P n (x, d) −−−→ dρxd .
| {z }
= Px [Td ≤n]
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
47 / 49
Martingalas
References
Hoel, P., Port, S., Stone, C (1987)
Introduction to Stocastic Processes.
Waveland Press, USA.
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
48 / 49
Martingalas
Final de clase
Prof. Vı́quez (UCR)
Cadenas de Markov
Martes 1 y Viernes 4 de Abril
49 / 49
Descargar