Introducción a las cadenas de Markov: II Tiempo continuo

Anuncio
Introducción a las cadenas de Markov: II Tiempo continuo
Introducción a las cadenas de Markov: II
Tiempo continuo
Vı́ctor RIVERO
Centro de Investigación en Matemáticas A. C.
XI Escuela de Probabilidad y Estadı́stica, 29 de Febrero a 2 de Marzo,
2012, CIMAT
1/ 30
Introducción a las cadenas de Markov: II Tiempo continuo
Tiempos exponenciales
Una variable aleatoria exponencial, T ∼ Exp(λ), si
P(T ≤ t) = 1 − e −λt ,
E(T ) = λ1 ,
Var (T ) =
t ≥ 0.
1
λ2 .
2/ 30
Introducción a las cadenas de Markov: II Tiempo continuo
Tiempos exponenciales
Una variable aleatoria exponencial, T ∼ Exp(λ), si
P(T ≤ t) = 1 − e −λt ,
E(T ) = λ1 , Var (T ) =
Perdida de memoria,
t ≥ 0.
1
λ2 .
P(T > t + s|T > t) = e −λs ,
s ≥ 0.
Dicho de otro modo, distribución de T − t condicionalmente a
T > t, es Exp(λ).
2/ 30
Introducción a las cadenas de Markov: II Tiempo continuo
Tiempos exponenciales
Una variable aleatoria exponencial, T ∼ Exp(λ), si
P(T ≤ t) = 1 − e −λt ,
E(T ) = λ1 , Var (T ) =
Perdida de memoria,
t ≥ 0.
1
λ2 .
P(T > t + s|T > t) = e −λs ,
s ≥ 0.
Dicho de otro modo, distribución de T − t condicionalmente a
T > t, es Exp(λ).
Si T1 , . . . , Tn son variables aleatorias independientes, tales que
Ti ∼ Exp(λi ), i = 1, . . . , n; λi > 0.
T = min{T1 , . . . , Tn } ∼ Exp(λ1 + λ2 + · · · + λn ).
2/ 30
Introducción a las cadenas de Markov: II Tiempo continuo
Tiempos exponenciales
Una variable aleatoria exponencial, T ∼ Exp(λ), si
P(T ≤ t) = 1 − e −λt ,
E(T ) = λ1 , Var (T ) =
Perdida de memoria,
t ≥ 0.
1
λ2 .
P(T > t + s|T > t) = e −λs ,
s ≥ 0.
Dicho de otro modo, distribución de T − t condicionalmente a
T > t, es Exp(λ).
Si T1 , . . . , Tn son variables aleatorias independientes, tales que
Ti ∼ Exp(λi ), i = 1, . . . , n; λi > 0.
T = min{T1 , . . . , Tn } ∼ Exp(λ1 + λ2 + · · · + λn ).
P(Ti = T ) =
λi
,
λ1 + · · · + λn
i + 1, . . . , n.
2/ 30
Introducción a las cadenas de Markov: II Tiempo continuo
Tiempos exponenciales
Distribución Gamma Γ(λ, r ), λ, r > 0
Z t
λr
P(Sr ≤ t) =
s r −1 e −λs ds,
Γ(r ) 0
R∞
donde Γ(r ) = 0 s r −1 e −s ds, r > 0.
t ≥ 0;
3/ 30
Introducción a las cadenas de Markov: II Tiempo continuo
Tiempos exponenciales
Distribución Gamma Γ(λ, r ), λ, r > 0
Z t
λr
P(Sr ≤ t) =
s r −1 e −λs ds,
Γ(r ) 0
R∞
donde Γ(r ) = 0 s r −1 e −s ds, r > 0.
t ≥ 0;
Si R1 , P
. . . , Rn son v.a.i.i.d. con distribución Exp(λ) entonces
n
Sn := i=1 Ri ∼ Γ(λ, n).
3/ 30
Introducción a las cadenas de Markov: II Tiempo continuo
Procesos de Poisson
Procesos de Poisson
Modelan fenómenos que se repiten, entre dos ocurrencias del fenómeno
transcurre un tiempo aleatorio de distribución exponencial (λ). El
proceso N (0) = 0, N (t) = #ocurrencias del fenómeno en el intervalo
(0, t], para t ≥ 0, recibe el nombre de Proceso de Poisson.
4/ 30
Introducción a las cadenas de Markov: II Tiempo continuo
Procesos de Poisson
Procesos de Poisson
Modelan fenómenos que se repiten, entre dos ocurrencias del fenómeno
transcurre un tiempo aleatorio de distribución exponencial (λ). El
proceso N (0) = 0, N (t) = #ocurrencias del fenómeno en el intervalo
(0, t], para t ≥ 0, recibe el nombre de Proceso de Poisson.
Supongamos Tn denota el tiempo de la n-ésima ocurrencia del fenómeno
de intéres, n ≥ 1. Tn − Tn−1 ∼ Exp(λ), n ≥ 1 v.a.i.i.d. Entonces
X
N (t) = #{k ≥ 1 : Tk ≤ t} =
1{Tn ≤t} ,
t ≥ 0,
n≥1
4/ 30
Introducción a las cadenas de Markov: II Tiempo continuo
Procesos de Poisson
Procesos de Poisson
Modelan fenómenos que se repiten, entre dos ocurrencias del fenómeno
transcurre un tiempo aleatorio de distribución exponencial (λ). El
proceso N (0) = 0, N (t) = #ocurrencias del fenómeno en el intervalo
(0, t], para t ≥ 0, recibe el nombre de Proceso de Poisson.
Supongamos Tn denota el tiempo de la n-ésima ocurrencia del fenómeno
de intéres, n ≥ 1. Tn − Tn−1 ∼ Exp(λ), n ≥ 1 v.a.i.i.d. Entonces
X
N (t) = #{k ≥ 1 : Tk ≤ t} =
1{Tn ≤t} ,
t ≥ 0,
n≥1
satisface
N (0) = 0, N (t) ∈ Z+ .
Incrementos independientes:
(N (t1 ) − N (t0 ), N (t2 ) − N (t1 ), . . . , N (tk ) − N (tk −1 )), son variables
aleatorias independientes, para todo
0 ≤ t0 ≤ t1 ≤ t2 ≤ · · · ≤ tk < ∞, k ≥ 1.
Incrementos estacionarios
e −λs (λs)k
P(N (t + s) − N (t) = k ) =
,
k ∈ Z+ ,
∀t, s ≥ 0.
k!
4/ 30
Introducción a las cadenas de Markov: II Tiempo continuo
Procesos de Poisson
La propiedad de incrementos independientes y estacionarios es
equivalente a decir que para todo t ≥ 0 la ley del proceso
e (s) := N (t + s) − N (t),
N
s ≥ 0,
e tiene
es independiente de la ley del proceso (N (u), u ≤ t), y además N
las mismas propiedades que N , es una copia aleatoria de N .
5/ 30
Introducción a las cadenas de Markov: II Tiempo continuo
Procesos de Poisson
Definición alternativa
Definición
Diremos que un proceso estocástico {N (t), t ≥ 0} que toma valores en
{0, 1, 2, . . .} es un proceso de Poisson de parámetro λ si
N (0) = 0; si s < t, entonces N (s) ≤ N (t),


m=1
λh + o(h),
P(N (t + h) = n + m|N (t) = n) = o(h)
m>1


1 − λh + o(h), m = 0
para s, t ≥ 0, las variables aleatorias N (t + s) − N (t) y N (t) son
independientes.
6/ 30
Introducción a las cadenas de Markov: II Tiempo continuo
Procesos de Poisson
• [Sobreposición] Si (NA (t), t ≥ 0) y (NR (t), t ≥ 0) son procesos de
Poisson independientes con intensidades λA , λR > 0,
respectivamente, entonces (NA (t) + NB (t), t ≥ 0) es un proceso de
Poisson de parámetro λA + λR .
7/ 30
Introducción a las cadenas de Markov: II Tiempo continuo
Procesos de Poisson
• [Sobreposición] Si (NA (t), t ≥ 0) y (NR (t), t ≥ 0) son procesos de
Poisson independientes con intensidades λA , λR > 0,
respectivamente, entonces (NA (t) + NB (t), t ≥ 0) es un proceso de
Poisson de parámetro λA + λR .
• [Enrarecimiento] Si N es un proceso de Poisson con parámetro
λ > 0, formado por ocurrencias de fenómenos del tipo A ó R, y tal
que la probabilidad de que un fenómeno es del tipo A es pA , y del
tipo R es pR , pA + pR = 1, entonces los procesos de conteo de
fenómenos del tipo A, respectivamente del tipo R, son procesos de
Poisson independientes con parámetros λpA y λpR , respectivamente.
7/ 30
Introducción a las cadenas de Markov: II Tiempo continuo
Procesos de Poisson
Procesos de Poisson Compuesto
Ejemplo (Proceso de Poisson Compuesto)
Sea {Sn , n ≥ 0} una caminata aleatoria en R, y {N (t), t ≥ 0} un
proceso de Poisson de parámetro λ > 0; los procesos son independientes.
El proceso (Z (t) = SN (t) , t ≥ 0), recibe el nombre de proceso de Poisson
(λ, F ) con F (x ) = P(S1 − S0 ≤ x ), x ∈ R .
Muy utilizado en teorı́a de la ruina.
8/ 30
Introducción a las cadenas de Markov: II Tiempo continuo
Cadenas de Markov subordinadas
Una manera de construir procesos que tienen la propiedad de Markov a
tiempo continuo es utilizando una cadena de Markov {Yn , n ≥ 0}, con
matriz de transición {Px ,y , x , y ∈ E }, y un proceso de Poisson de
parámetro λ > 0, y supondremos que ambos procesos son independientes.
Sea {X (t), t ≥ 0} el proceso definido mediante la relación
X (t) = YN (t) ,
t ≥ 0.
Es decir, que X (t) = Yn si Tn ≤ t < Tn+1 , con
Tk = inf{t > 0 : N (t) = k }.
9/ 30
Introducción a las cadenas de Markov: II Tiempo continuo
Cadenas de Markov subordinadas
Una manera de construir procesos que tienen la propiedad de Markov a
tiempo continuo es utilizando una cadena de Markov {Yn , n ≥ 0}, con
matriz de transición {Px ,y , x , y ∈ E }, y un proceso de Poisson de
parámetro λ > 0, y supondremos que ambos procesos son independientes.
Sea {X (t), t ≥ 0} el proceso definido mediante la relación
X (t) = YN (t) ,
t ≥ 0.
Es decir, que X (t) = Yn si Tn ≤ t < Tn+1 , con
Tk = inf{t > 0 : N (t) = k }.
Tiene la propiedad de Markov: El estado del proceso al tiempo t + s
solamente depende del estado al tiempo t y no de lo ocurrido en tiempos
anteriores.
P(Xt+s = y | Xt = x , (Xu , u < t))
= P(Xt+s = y | Xt = x )
= P(Xs = y | X0 = x ),
x, y ∈ E,
t, s ≥ 0.
9/ 30
Introducción a las cadenas de Markov: II Tiempo continuo
Cadenas de Markov subordinadas
Utilizando una cadena de Markov {Yn , n ≥ 0}, con matriz de transición
{Px ,y , x , y ∈ E }, y un proceso de Poisson de parámetro λ > 0, se tiene
que
∞
X
e −λs (λs)k (k )
Px ,y ,
P(Xt+s = y | Xt = x ) =
k!
k =0
para todo s, t ≥ 0, x , y ∈ E .
10/ 30
Introducción a las cadenas de Markov: II Tiempo continuo
Cadenas de Markov subordinadas
Utilizando una cadena de Markov {Yn , n ≥ 0}, con matriz de transición
{Px ,y , x , y ∈ E }, y un proceso de Poisson de parámetro λ > 0, se tiene
que
∞
X
e −λs (λs)k (k )
Px ,y ,
P(Xt+s = y | Xt = x ) =
k!
k =0
para todo s, t ≥ 0, x , y ∈ E .
Para observar verdaderas transiciones supondremos que Px ,x = 0, para
todo x ∈ E .
10/ 30
Introducción a las cadenas de Markov: II Tiempo continuo
Cadenas de Markov subordinadas
Probabilidades de transición infinitesimales
Para h > 0 pequeño, se tiene
P(Xh = y | X0 = x )
= P(Xh = y, N (h) = 0| X0 = x ) + P(Xh = y, N (h) = 1| X0 = x )
+ P(Xh = y, N (h) ≥ 2| X0 = x )
= P(Y0 = y|Y0 = x ) P(N (h) = 0) + P(Y1 = y|Y0 = x ) P(N (h) = 1)
+ P(Xh = y, N (h) ≥ 2| X0 = x )
Tenemos que
11/ 30
Introducción a las cadenas de Markov: II Tiempo continuo
Cadenas de Markov subordinadas
Probabilidades de transición infinitesimales
Para h > 0 pequeño, se tiene
P(Xh = y | X0 = x )
= P(Xh = y, N (h) = 0| X0 = x ) + P(Xh = y, N (h) = 1| X0 = x )
+ P(Xh = y, N (h) ≥ 2| X0 = x )
= P(Y0 = y|Y0 = x ) P(N (h) = 0) + P(Y1 = y|Y0 = x ) P(N (h) = 1)
+ P(Xh = y, N (h) ≥ 2| X0 = x )
Tenemos que
P(Y0 = y|Y0 = x ) P(N (h) = 0) = δx (y)(1−λh+o(h)) = δx (y)(1−λh)+o(h),
11/ 30
Introducción a las cadenas de Markov: II Tiempo continuo
Cadenas de Markov subordinadas
Probabilidades de transición infinitesimales
Para h > 0 pequeño, se tiene
P(Xh = y | X0 = x )
= P(Xh = y, N (h) = 0| X0 = x ) + P(Xh = y, N (h) = 1| X0 = x )
+ P(Xh = y, N (h) ≥ 2| X0 = x )
= P(Y0 = y|Y0 = x ) P(N (h) = 0) + P(Y1 = y|Y0 = x ) P(N (h) = 1)
+ P(Xh = y, N (h) ≥ 2| X0 = x )
Tenemos que
P(Y0 = y|Y0 = x ) P(N (h) = 0) = δx (y)(1−λh+o(h)) = δx (y)(1−λh)+o(h),
P(Y1 = y|Y0 = x ) P(N (h) = 1) = Px ,y (λh + o(h)) = Px ,y λh + o(h),
11/ 30
Introducción a las cadenas de Markov: II Tiempo continuo
Cadenas de Markov subordinadas
Probabilidades de transición infinitesimales
Para h > 0 pequeño, se tiene
P(Xh = y | X0 = x )
= P(Xh = y, N (h) = 0| X0 = x ) + P(Xh = y, N (h) = 1| X0 = x )
+ P(Xh = y, N (h) ≥ 2| X0 = x )
= P(Y0 = y|Y0 = x ) P(N (h) = 0) + P(Y1 = y|Y0 = x ) P(N (h) = 1)
+ P(Xh = y, N (h) ≥ 2| X0 = x )
Tenemos que
P(Y0 = y|Y0 = x ) P(N (h) = 0) = δx (y)(1−λh+o(h)) = δx (y)(1−λh)+o(h),
P(Y1 = y|Y0 = x ) P(N (h) = 1) = Px ,y (λh + o(h)) = Px ,y λh + o(h),
P(Xh = y, N (h) ≥ 2| X0 = x ) ≤ P(N (h) ≥ 2) = o(h).
11/ 30
Introducción a las cadenas de Markov: II Tiempo continuo
Cadenas de Markov subordinadas
Se sigue que para x , y ∈ E y h > 0 pequeño
P(Xh = y | X0 = x ) − δx (y)
o(h)
= −λδx (y) + λPx ,y +
,
h
h
12/ 30
Introducción a las cadenas de Markov: II Tiempo continuo
Cadenas de Markov subordinadas
Se sigue que para x , y ∈ E y h > 0 pequeño
P(Xh = y | X0 = x ) − δx (y)
o(h)
= −λδx (y) + λPx ,y +
,
h
h
P(Xh = y | X0 = x ) − δx (y)
= λ(Px ,y − δx (y))
Qx ,y : = lim
h→0+
h


si x 6= y
λPx ,y ,
P
= −λ(1 − Px ,x ) = −λ z ∈E \{x } Px ,z , si x = y.

|{z}

=0
12/ 30
Introducción a las cadenas de Markov: II Tiempo continuo
Cadenas de Markov subordinadas
Se sigue que para x , y ∈ E y h > 0 pequeño
P(Xh = y | X0 = x ) − δx (y)
o(h)
= −λδx (y) + λPx ,y +
,
h
h
P(Xh = y | X0 = x ) − δx (y)
= λ(Px ,y − δx (y))
Qx ,y : = lim
h→0+
h


si x 6= y
λPx ,y ,
P
= −λ(1 − Px ,x ) = −λ z ∈E \{x } Px ,z , si x = y.

|{z}

=0
La matriz Q = {Qx ,y , x , y ∈ E } puede ser representada como
Q = λ(P − I ),
con λ > 0 el parametro del proceso de Poisson, P la matriz de transición
de Y , I la matriz identidad en E . Q contiene toda la información
necesaria para describir a la cadena de Markov {Xt , t ≥ 0}.
12/ 30
Introducción a las cadenas de Markov: II Tiempo continuo
Cadenas de Markov subordinadas
Se sigue que para x , y ∈ E y h > 0 pequeño
P(Xh = y | X0 = x ) − δx (y)
o(h)
= −λδx (y) + λPx ,y +
,
h
h
P(Xh = y | X0 = x ) − δx (y)
= λ(Px ,y − δx (y))
Qx ,y : = lim
h→0+
h


si x 6= y
λPx ,y ,
P
= −λ(1 − Px ,x ) = −λ z ∈E \{x } Px ,z , si x = y.

|{z}

=0
La matriz Q = {Qx ,y , x , y ∈ E } puede ser representada como
Q = λ(P − I ),
con λ > 0 el parametro del proceso de Poisson, P la matriz de transición
de Y , I la matriz identidad en E . Q contiene toda la información
necesaria para describir a la cadena de Markov {Xt , t ≥ 0}.
Q tiene la propiedad de Qx ,y ≥ 0 si x 6= y ∈ E , y
X
X
X
Qx ,y = λ(
Px ,y − 1) ⇒ λ =
Qx ,y = −Qx ,x ,
x ∈ E.
0=
y∈E
y∈E
y6=x
12/ 30
Introducción a las cadenas de Markov: II Tiempo continuo
Cadenas de Markov subordinadas
Una cadena de Markov subordinada tiene la propiedad de Markov, el
tiempo de permanencia en un estado sigue una distribución exponencial
con parámetro λ, independiente del estado, y las transiciones se dan
siguiendo a la cadena de Markov subyacente {Yn , n ≥ 0} si el proceso se
encuentra en el estado x y ocurre un salto este será al estado y ∈ E con
probabilidad Px ,y .
13/ 30
Introducción a las cadenas de Markov: II Tiempo continuo
Cadenas de Markov
Un modelo más general permitirı́a que el tiempo de permanencia siga una
distribución exponencial con un paramétro que dependa de la posición en
la que se encuentra el proceso.
14/ 30
Introducción a las cadenas de Markov: II Tiempo continuo
Cadenas de Markov
Un modelo más general permitirı́a que el tiempo de permanencia siga una
distribución exponencial con un paramétro que dependa de la posición en
la que se encuentra el proceso.
Para x ∈ E ,
P(Xh = y | X0 = x ) − δx (y)
o(h)
= −λx δx (y) + λx Px ,y +
,
h
h
14/ 30
Introducción a las cadenas de Markov: II Tiempo continuo
Cadenas de Markov
Un modelo más general permitirı́a que el tiempo de permanencia siga una
distribución exponencial con un paramétro que dependa de la posición en
la que se encuentra el proceso.
Para x ∈ E ,
P(Xh = y | X0 = x ) − δx (y)
o(h)
= −λx δx (y) + λx Px ,y +
,
h
h
P(Xh = y | X0 = x ) − δx (y)
Qx ,y : = lim
= λx (Px ,y − δx (y))
h→0+
h


si x 6= y
λx Px ,y ,
P
= −λx (1 − Px ,x ) = −λx z ∈E \{x } Px ,z , si x = y.

|{z}

=0
14/ 30
Introducción a las cadenas de Markov: II Tiempo continuo
Cadenas de Markov
Un modelo más general permitirı́a que el tiempo de permanencia siga una
distribución exponencial con un paramétro que dependa de la posición en
la que se encuentra el proceso.
Para x ∈ E ,
P(Xh = y | X0 = x ) − δx (y)
o(h)
= −λx δx (y) + λx Px ,y +
,
h
h
P(Xh = y | X0 = x ) − δx (y)
Qx ,y : = lim
= λx (Px ,y − δx (y))
h→0+
h


si x 6= y
λx Px ,y ,
P
= −λx (1 − Px ,x ) = −λx z ∈E \{x } Px ,z , si x = y.

|{z}

=0
La matriz P
Q = {Qx ,y , x , y ∈ E } satisface Qx ,y ≥ 0 si x 6= y;
Qx ,x = − z ∈E \{x } Qx ,z = −λx .
14/ 30
Introducción a las cadenas de Markov: II Tiempo continuo
Cadenas de Markov
Un modelo más general permitirı́a que el tiempo de permanencia siga una
distribución exponencial con un paramétro que dependa de la posición en
la que se encuentra el proceso.
Para x ∈ E ,
P(Xh = y | X0 = x ) − δx (y)
o(h)
= −λx δx (y) + λx Px ,y +
,
h
h
P(Xh = y | X0 = x ) − δx (y)
Qx ,y : = lim
= λx (Px ,y − δx (y))
h→0+
h


si x 6= y
λx Px ,y ,
P
= −λx (1 − Px ,x ) = −λx z ∈E \{x } Px ,z , si x = y.

|{z}

=0
La matriz P
Q = {Qx ,y , x , y ∈ E } satisface Qx ,y ≥ 0 si x 6= y;
Qx ,x = − z ∈E \{x } Qx ,z = −λx . Además, conociendo Q se obtiene P :
para x 6= y, Px ,y =
Qx ,y
−Qx ,x
, y ∈ E \ {x }, Px ,x = 0.
14/ 30
Introducción a las cadenas de Markov: II Tiempo continuo
Cadenas de Markov
Sea {Πx ,y , x , y ∈ E } una matriz de transición y (Zt , t ≥ 0) un proceso
estocástico que toma valores en E y tiene la siguiente dinámica:
15/ 30
Introducción a las cadenas de Markov: II Tiempo continuo
Cadenas de Markov
Sea {Πx ,y , x , y ∈ E } una matriz de transición y (Zt , t ≥ 0) un proceso
estocástico que toma valores en E y tiene la siguiente dinámica:
Iniciando en Z0 = x , permanece en esa posición por un tiempo
exponencial de parámetro λx , digamos T1 ;
15/ 30
Introducción a las cadenas de Markov: II Tiempo continuo
Cadenas de Markov
Sea {Πx ,y , x , y ∈ E } una matriz de transición y (Zt , t ≥ 0) un proceso
estocástico que toma valores en E y tiene la siguiente dinámica:
Iniciando en Z0 = x , permanece en esa posición por un tiempo
exponencial de parámetro λx , digamos T1 ;
al tiempo T1 el proceso se desplaza por un salto a alguna posición
en E \ {x }, digamos y, con probabilidad Πx ,y ,
15/ 30
Introducción a las cadenas de Markov: II Tiempo continuo
Cadenas de Markov
Sea {Πx ,y , x , y ∈ E } una matriz de transición y (Zt , t ≥ 0) un proceso
estocástico que toma valores en E y tiene la siguiente dinámica:
Iniciando en Z0 = x , permanece en esa posición por un tiempo
exponencial de parámetro λx , digamos T1 ;
al tiempo T1 el proceso se desplaza por un salto a alguna posición
en E \ {x }, digamos y, con probabilidad Πx ,y ,
a partir del tiempo T1 el proceso se comporta como si su estado
inicial fuera y, es decir, permanece en y un tiempo exponencial de
parámetro λy , digamos T2 − T1 , independiente del tiempo T1 y de
las posiciones anteriores, al tiempo T2 se mueve a alguna posición
z ∈ E \ {y}, con probabilidad Πy,z ....
15/ 30
Introducción a las cadenas de Markov: II Tiempo continuo
Cadenas de Markov
El proceso (Zt , t ≥ 0) tiene la propiedad de Markov: el estado del
proceso al tiempo t + s solamente depende del estado al tiempo t y no
de lo ocurrido en tiempos anteriores.
P(Zt+s = y | Zt = x , (Zu , u < t))
= P(Zt+s = y | Zt = x )
= P(Zs = y | Z0 = x ),
x, y ∈ E,
t, s ≥ 0.
16/ 30
Introducción a las cadenas de Markov: II Tiempo continuo
Cadenas de Markov
Las probabilidades de transición de (Zt , t ≥ 0) satisfacen para
t ≥ 0, x , y ∈ E .
P(Zt = y|Z0 = x ) =: Px ,y (t)

Z t
X
= δx (y)e −λx t +
λx e −λx s 
0
= δx (y)e −λx t + e −λx t

Πx ,z Pz ,y (t − s) ds
z ∈E \{x }
Z
0
t

λx e λx u 

X
Πx ,z Pz ,y (u) du
z ∈E \{x }
17/ 30
Introducción a las cadenas de Markov: II Tiempo continuo
Cadenas de Markov
Entonces, para t pequeño
P(Zt = y|Z0 = x ) − δx (y)
t
= −δx (y)
(1 − e
t
−λx t
)
+
e
−λx t
t
X
= −δx (y)λx + o(1) + λx
t
Z

λx e λx u 
0

X
Πx ,z Pz ,y (u) du
z ∈E \{x }
Πx ,z Pz ,y (0) + o(1)
z ∈E \{x }
= −δx (y)λx + λx Πx ,y + o(1)
De donde que para x , y ∈ E ,
P(Zt = y|Z0 = x ) − δx (y)
t
= −δx (y)λx + λx Πx ,y
(
λx Πx ,y , si x 6= y
=
−λx ,
si x = y.
Qx ,y = lim
t→0
18/ 30
Introducción a las cadenas de Markov: II Tiempo continuo
Cadenas de Markov
Receta
En una cadena de Markov a tiempo continuo, las entradas de la Q-matriz
son:
para x =
6 y, Qx ,y es el parámetro del tiempo exponencial al cual se
realiza una transición del estado x al estado y,
−Qx ,x es el parámetro del tiempo exponencial alPcual del estado x
se realiza una transición, por lo tanto −Qx ,x = z ∈E \{x } Qx ,z .
19/ 30
Introducción a las cadenas de Markov: II Tiempo continuo
Cadenas de Markov
Ejemplo (Sistema de espera M /M /1)
Imaginemos un banco con un solo cajero que da servicio a clientes, estos
se forman en una única fila en espera de ser atendidos si el cajero está
ocupado. Los clientes llegan según un proceso de Poisson de parámetro
λ, y los tiempos de servicio son independientes entre si y del número de
clientes en espera, y siguen una ley exponencial de parámetro µ. Sea
X (t) el numero de clientes en el banco al tiempo t. {X (t), t ≥ 0} es una
cadena de Markov con espacio de estados E = Z+ y Q-matriz
20/ 30
Introducción a las cadenas de Markov: II Tiempo continuo
Cadenas de Markov
Ejemplo (Sistema de espera M /M /1)
Imaginemos un banco con un solo cajero que da servicio a clientes, estos
se forman en una única fila en espera de ser atendidos si el cajero está
ocupado. Los clientes llegan según un proceso de Poisson de parámetro
λ, y los tiempos de servicio son independientes entre si y del número de
clientes en espera, y siguen una ley exponencial de parámetro µ. Sea
X (t) el numero de clientes en el banco al tiempo t. {X (t), t ≥ 0} es una
cadena de Markov con espacio de estados E = Z+ y Q-matriz


si y = x + 1
λ,
Qx ,y = µ,
si y = x − 1, x , y ∈ Z+ ;


−(λ + µ), si y = x ,

λ

 λ+µ , si y = x + 1
µ
Πx ,y = λ+µ
, si y = x − 1, , x , y ∈ Z+


0,
en otro caso,
20/ 30
Introducción a las cadenas de Markov: II Tiempo continuo
Cadenas de Markov
Ejemplo (Sistema de espera M /M /∞)
Un sistema de servicio tiene una infinidad de servidores, ası́ que no se
forma una fila de espera. Clientes llegan al sistema según un proceso de
Poisson de parámetro λ > 0. Los tiempos de servicio (inician
inmediatamente al integrarse al sistema) son independientes y tienen una
duración exponencial(µ). Sea Xt el número de servidores ocupados al
tiempo t, t ≥ 0.
21/ 30
Introducción a las cadenas de Markov: II Tiempo continuo
Cadenas de Markov
Ejemplo (Sistema de espera M /M /∞)
Un sistema de servicio tiene una infinidad de servidores, ası́ que no se
forma una fila de espera. Clientes llegan al sistema según un proceso de
Poisson de parámetro λ > 0. Los tiempos de servicio (inician
inmediatamente al integrarse al sistema) son independientes y tienen una
duración exponencial(µ). Sea Xt el número de servidores ocupados al
tiempo t, t ≥ 0. X = {Xt , t ≥ 0} es una cadena de Markov con espacio
de estados E = Z+ , y Q matriz,


si y = x + 1
λ,
Qx ,y = x µ,
si y = x − 1, x , y ∈ Z+ ;


−(λ + µx ), si y = x ,
Πx ,y

λ

 λ+x µ , si y = x + 1
xµ
= λ+x µ , si y = x − 1, ,


0,
en otro caso,
x , y ∈ Z+
21/ 30
Introducción a las cadenas de Markov: II Tiempo continuo
Cadenas de Markov
Ejemplo (Sistema de espera M /M /k /s,)
Ocurren llegadas de agentes al sistema según un proceso de Poisson de
parámetro λ, hay k servidores cuyos respectivos tiempos de atención se
distribuyen exponencialmente con parametro µ, los servicios inician
inmediatamente al ingresar un agente al sistema y que un servidor está
libre, en caso contrario el agente espera su turno en una fila de espera; el
sistema solamente puede recibir s ≥ k clientes, incluyendo los que están
en servicio. El proceso estocástico {X (t), t ≥ 0}, donde X (t) denota el
número de clientes en el sistema al tiempo t es una Cadena de Markov
con espacio de estados E = {0, 1, . . . , k , . . . , s}.
22/ 30
Introducción a las cadenas de Markov: II Tiempo continuo
Cadenas de Markov
Ejemplo (Sistema de espera M /M /k /s,)
Ocurren llegadas de agentes al sistema según un proceso de Poisson de
parámetro λ, hay k servidores cuyos respectivos tiempos de atención se
distribuyen exponencialmente con parametro µ, los servicios inician
inmediatamente al ingresar un agente al sistema y que un servidor está
libre, en caso contrario el agente espera su turno en una fila de espera; el
sistema solamente puede recibir s ≥ k clientes, incluyendo los que están
en servicio. El proceso estocástico {X (t), t ≥ 0}, donde X (t) denota el
número de clientes en el sistema al tiempo t es una Cadena de Markov
con espacio de estados E = {0, 1, . . . , k , . . . , s}.

λ,
si 0 ≤ x < s, y = x + 1,





si 0 < x ≤ s, y = x − 1,
(x ∧ k )µ,


−(µ(x ∧ k ) + λ), si 0 < x = y < s
Qx ,y =

−µk ,
si x = s = y,





−λ,
si
x = 0 = y,



0,
en otro caso.
donde a ∧ b = min{a, b}, para a, b ∈ R .
22/ 30
Introducción a las cadenas de Markov: II Tiempo continuo
Cadenas de Markov
Ejemplo
Después de reparar una máquina esta funciona durante un tiempo
exponencial de parámetro λ y falla de nuevo. Cuando esto ocurre un
proceso de reparación inicia. Este consiste en una sucesión de k distintas
etapas. Primero viene la etapa 1, luego la 2, y ası́ sucesivamente. Los
tiempos necesarios para concluir estas etapas son independientes, y la
i -ésima etapa dura un tiempo exponencial de parámetro µi , para
i ∈ {1, . . . , k }. Estos tiempos son también independientes del tiempo de
funcionamiento de la maquina. Sea X (t) la etapa en la que se encuentra
la máquina, entendiendo al estado 0 como en funcionamiento,
E = {0, 1, . . . , k }. X es una cadena de Markov con Q-matriz


−λ
λ
0
0
0
0
 0 −µ1 µ1
0
0
0 


 0
0
−µ
µ
0
0 
2
2



.. ..
Q =
 0
.
.
0
0
0 



..
.. 
 0

.
.
0
0
0
µk
0
0
0
0 −µk
23/ 30
Introducción a las cadenas de Markov: II Tiempo continuo
Cadenas de Markov
Ejemplo
La superficie de una bacteria consiste de varios sitios que moléculas
extranjeras, malignas y benignas, ocupan durante cierto tiempo.
Consideramos un sitio y suponemos que las moléculas llegan a este
según un proceso de Poisson de parámetro λ, de entre la cuales una
proporción 0 < α < 1 es benigna.
24/ 30
Introducción a las cadenas de Markov: II Tiempo continuo
Cadenas de Markov
Ejemplo
La superficie de una bacteria consiste de varios sitios que moléculas
extranjeras, malignas y benignas, ocupan durante cierto tiempo.
Consideramos un sitio y suponemos que las moléculas llegan a este
según un proceso de Poisson de parámetro λ, de entre la cuales una
proporción 0 < α < 1 es benigna.
Las moléculas malignas se quedan en el sitio durante un tiempo
exponencial de parámetro µ1 , mientras que las benignas lo hacen
durante un tiempo exponencial de parámetro µ2 .
24/ 30
Introducción a las cadenas de Markov: II Tiempo continuo
Cadenas de Markov
Ejemplo
La superficie de una bacteria consiste de varios sitios que moléculas
extranjeras, malignas y benignas, ocupan durante cierto tiempo.
Consideramos un sitio y suponemos que las moléculas llegan a este
según un proceso de Poisson de parámetro λ, de entre la cuales una
proporción 0 < α < 1 es benigna.
Las moléculas malignas se quedan en el sitio durante un tiempo
exponencial de parámetro µ1 , mientras que las benignas lo hacen
durante un tiempo exponencial de parámetro µ2 .
Una molécula que llega al sitio lo ocupa solamente si el sitio se
encuentra libre de moléculas.
24/ 30
Introducción a las cadenas de Markov: II Tiempo continuo
Cadenas de Markov
Ejemplo
La superficie de una bacteria consiste de varios sitios que moléculas
extranjeras, malignas y benignas, ocupan durante cierto tiempo.
Consideramos un sitio y suponemos que las moléculas llegan a este
según un proceso de Poisson de parámetro λ, de entre la cuales una
proporción 0 < α < 1 es benigna.
Las moléculas malignas se quedan en el sitio durante un tiempo
exponencial de parámetro µ1 , mientras que las benignas lo hacen
durante un tiempo exponencial de parámetro µ2 .
Una molécula que llega al sitio lo ocupa solamente si el sitio se
encuentra libre de moléculas.
¿Se puede usar una Cadena de Markov a tiempo continuo para modelar
el estado de la bacteria?
24/ 30
Introducción a las cadenas de Markov: II Tiempo continuo
Cadenas de Markov
Ejemplo
La superficie de una bacteria consiste de varios sitios que moléculas
extranjeras, malignas y benignas, ocupan durante cierto tiempo.
Consideramos un sitio y suponemos que las moléculas llegan a este
según un proceso de Poisson de parámetro λ, de entre la cuales una
proporción 0 < α < 1 es benigna.
Las moléculas malignas se quedan en el sitio durante un tiempo
exponencial de parámetro µ1 , mientras que las benignas lo hacen
durante un tiempo exponencial de parámetro µ2 .
Una molécula que llega al sitio lo ocupa solamente si el sitio se
encuentra libre de moléculas.
¿Se puede usar una Cadena de Markov a tiempo continuo para modelar
el estado de la bacteria? Suponiendo que el sitio ha sido observado
durante un periodo de tiempo suficientemente prolongado ¿cuál es la
proporción de tiempo que el sitio se encuentra ocupado por con una
molécula benigna (maligna)?
24/ 30
Introducción a las cadenas de Markov: II Tiempo continuo
Cadenas de Markov
En cualquier tiempo el sitio puede estar desocupado {0} u ocupado por
una molécula maligna {1} u ocupado por una molécula benigna {2}. Sea
{X (t), t ≥ 0} el estado de la cadena al tiempo t.


−λ λ(1 − α) λα
−µ1
0 .
Q =  µ1
µ2
0
−µ2
25/ 30
Introducción a las cadenas de Markov: II Tiempo continuo
Cadenas de Markov
Ejemplo (Open Jackson Netwoks)
Consideremos una red que consiste de N estaciones de servicio
inter-conectadas.
La estación “p”, 1 ≤ p ≤ N , recibe clientes procedentes del exterior
y aquellos enviados de otras estaciones.
26/ 30
Introducción a las cadenas de Markov: II Tiempo continuo
Cadenas de Markov
Ejemplo (Open Jackson Netwoks)
Consideremos una red que consiste de N estaciones de servicio
inter-conectadas.
La estación “p”, 1 ≤ p ≤ N , recibe clientes procedentes del exterior
y aquellos enviados de otras estaciones.
Las llegadas a la estación p constituyen un proceso de Poisson de
parámetro λ0p .
26/ 30
Introducción a las cadenas de Markov: II Tiempo continuo
Cadenas de Markov
Ejemplo (Open Jackson Netwoks)
Consideremos una red que consiste de N estaciones de servicio
inter-conectadas.
La estación “p”, 1 ≤ p ≤ N , recibe clientes procedentes del exterior
y aquellos enviados de otras estaciones.
Las llegadas a la estación p constituyen un proceso de Poisson de
parámetro λ0p .
Cada estación tiene su fila de espera. La tasa a la cual los clientes
dejan la estación p es µp (n), si n es el número de clientes presentes
en la estación p. Por ejemplo,
(
µp 1{n>0} ,
si la fila es M /M /1
µp (n) =
.
(n ∧ sp )µp , si la fila es M /M /sp
26/ 30
Introducción a las cadenas de Markov: II Tiempo continuo
Cadenas de Markov
Ejemplo (Open Jackson Netwoks)
Consideremos una red que consiste de N estaciones de servicio
inter-conectadas.
La estación “p”, 1 ≤ p ≤ N , recibe clientes procedentes del exterior
y aquellos enviados de otras estaciones.
Las llegadas a la estación p constituyen un proceso de Poisson de
parámetro λ0p .
Cada estación tiene su fila de espera. La tasa a la cual los clientes
dejan la estación p es µp (n), si n es el número de clientes presentes
en la estación p. Por ejemplo,
(
µp 1{n>0} ,
si la fila es M /M /1
µp (n) =
.
(n ∧ sp )µp , si la fila es M /M /sp
Un cliente que deja la estación “p” va a la estación “q” con
probabilidad rp,q , 1 ≤ q ≤ N . Y deja el sistema con proba rp,0 .
rp,p = 0.
26/ 30
Introducción a las cadenas de Markov: II Tiempo continuo
Cadenas de Markov
Ejemplo (Open Jackson Netwoks (continuación))
El proceso Xt = (Xt1 , Xt2 , . . . , XtN ) del número de clientes presentes
en las N estaciones al tiempo t es una cadena de Markov a tiempo
continuo con espacio de estados E = (Z+ )N .
27/ 30
Introducción a las cadenas de Markov: II Tiempo continuo
Cadenas de Markov
Ejemplo (Open Jackson Netwoks (continuación))
El proceso Xt = (Xt1 , Xt2 , . . . , XtN ) del número de clientes presentes
en las N estaciones al tiempo t es una cadena de Markov a tiempo
continuo con espacio de estados E = (Z+ )N .
Sea ep = (0, . . . , 0, 1, 0, . . . , 0) el p-ésimo vector canónico.
27/ 30
Introducción a las cadenas de Markov: II Tiempo continuo
Cadenas de Markov
Ejemplo (Open Jackson Netwoks (continuación))
El proceso Xt = (Xt1 , Xt2 , . . . , XtN ) del número de clientes presentes
en las N estaciones al tiempo t es una cadena de Markov a tiempo
continuo con espacio de estados E = (Z+ )N .
Sea ep = (0, . . . , 0, 1, 0, . . . , 0) el p-ésimo vector canónico.
Las entradas fuera de la diagonal de la Q-matriz que no son cero
son:
Qx ,x +ep = λ0p ,
x ∈ E, 1 ≤ p ≤ N ,
Qx +ep ,x = µp (xp + 1)rp,0 ,
Qx +ep ,x +eq = µp (xp + 1)rp,q ,
x ∈ E, 1 ≤ p ≤ N ,
1 ≤ p 6= q ≤ N , x ∈ E .
27/ 30
Introducción a las cadenas de Markov: II Tiempo continuo
Cadenas de Markov
Ecuación Backward
Derivando en t la igualdad
P(Zt = y|Z0 = x ) =: Px ,y (t)

Z t
X
= δx (y)e −λx t + e −λx t
λx e λx u 
0

Πx ,z Pz ,y (u) du
z ∈E \{x }
se tiene
Px0 ,y (t) = −λx Px0 ,y (t) +
X
λx Πx ,z Pz ,t (t)
z ∈E \{x }
=
X
Qx ,z Pz ,t (t) = (QP (t))x ,y .
z ∈E
Equivalentemente, P 0 (t) = QP (t), t ≥ 0.
28/ 30
Introducción a las cadenas de Markov: II Tiempo continuo
Cadenas de Markov
Si E es finito se puede verificar que la solución a la ecuación backward se
escribe
∞
X
t n (n)
tQ
Q ,
t ≥ 0,
P (t) = e :=
n!
n=0
es decir
Px ,y (t) = e tQ |x ,y :=
∞
X
t n (n)
Q ,
n! x ,y
n=0
t ≥ 0, x , y ∈ E .
29/ 30
Introducción a las cadenas de Markov: II Tiempo continuo
Cadenas de Markov
Ecuación Forward
P 0 (t) = P (t)Q,
Px0 ,y (t) =
X
Px ,z (t)Qz ,y ,
t ≥ 0.
t ≥ 0, x , y ∈ E .
z ∈E
30/ 30
Descargar