Capítulo 6 - Departamento de Informática

Anuncio
Capítulo 6
Héctor Allende O.
!
#$ %
"
!
#
!
&
$
% '
∈
(
ω
&
∈
ω ∈Ω
∀ ∈
Ω ℑ
!
!
"
!
!
)
$
%
, $ω %
&
'
.%
,$ %
&
-
%
.
()
ω
'
* +
$*
'
"
'/
#
0
0
1
∈
2 +
!
3
4
∈
5 +
!
4
µ
σ
- →ℜ
→µ
→σ
= , +
σ
)
µ
)
= ,
→ℜ
-
+=
= , +=
=
− , +
∀ ∈
∀∈
!
4
!
*
0
*6
4
0
∈
7 +
.
*
∈
7 +
!
!
4
4
ρ
- × →ℜ
→
=
,
−µ
=
- × →ℜ
+
→ρ
−µ
=
,
σ
+
σ
/
0
*6
=
*
!
1
+
'
+
− ,
=
8
4
4
,
= ,
0
+
−
− ,
Ωℑ
- Ω×
&9
!
++
−
=
= ,
+=
=
=
!!!
=
-8
+
τ =
,
+τ + = γ τ
.
-
!!!!
∈
∈Ν
→ℜ
!
5:
,
+
!
#
5:
$
%&
;
!
'
!
$
*
!!!!
+<∞ ∀ ∈
,
τ
+τ
8
[ ]≡ σ
$[2 ] < ∞
!
*+
= µ −µ <∞ ∀ ∈
,$ %
$$
∀ ∈
+ τ !!!!
+τ
%
*
;
"% &
!
%&
'
!
!
'
*"
$
("
"
!
$
;
!
$
,$ %
!
;
#
;
4 %
'
4
;
%
,
<#$ %=>
+=
)
& )
()
!
)
& )
()
& !
=
0
%
<#$ % #$ ?τ%= > @$τ%
%6
"
#
;
;
"
;
!
!
$
!
'
%
+
!
−
+
> B2C
@
;
,$ %
!
!
A
, %
4
;
−
*
−
<
.
1
"
≤
=
D
6
3
=
=
−
1
3
;
=
3
≤
1
D
,$ %
!
1
D
!!!
=
−
<
−
D
1
< !!!!
=
!!
−
−
=
<
3
!!!
D
!!!
3
−
×
−
=
!!!
3
3
×
−
!!!
−
=
−
!!!
−
−
−
!!!
−
−
!
)
8
1
D
∏
=
!!!
3
−
=
/
1
0
D
6
6
"
!
'
( $ %
1
D
A
#
;
<B 9 =
'
"
3
"
1
−
4
D
@
;
τ
+τ 3
−
+τ =
3
−
0
(
5
()
&
&
6
(
*
;
"
;
#
$E
;
*
*
*
F
#$ %
!
#$ %
*
G
(
%
;
'
0
(
"
!
!
'
G
@
#
H
I
1
H
*
,$ %
"
H
'
*
'
I
F
($ %
"
4
% ,$ %
% &
% <,$ %=>B
% ,$B%>B
% ( $ %
% ( $B%>B
%
A
!
'
%υ
$
τ
;
υτ
;
J
;
+
4
H
*
+τ −
=
=
−υτ
υτ
= 0 !!!
6
'
"
#
I
!
;
+τ −
,
+=
,
6
4
+
0
0<
)
−
#
I
<τ
#
+
#
'
+=
A
!! !
+ ,$ %
,
,
"
,
'
ν
+τ −
=ν τ −
−
0
)
0<
−
<τ
=
!! !
D #
!
−
=
= −
4
*
E
.
I
1
+
+
1
∈
∈
+
7
0σ
∀ ∈
∀
!!!
+θ
'
−
+ !!!!! + θ
−
∈
!
(
G
+
−
θ !!!! θ ∈ ℜ θ ≠ 0
+ = δ ×σ
,
%
+θ
=
+=0
,
%
7
∈
/
0
"
;
E1
∈
+
;
=φ
+φ
−
+ !!! + φ
−
−
+
=φ
'
7
(
I
"
*
;
!
' B ≤ ε$ % ≤ 5π
−
+
+θ
−
+ !!! + θ
−
∈
7
Generación de Procesos Estocásticos
;
ω0 + ε
=
#
ωB >
+ !!! + φ
Generación de Procesos Estocásticos
'
#$ %
#$ %
−
%
φ !!!! φ θ !!! θ ∈ ℜ φ ≠ 0 θ ≠ 0
∈
(
;
$
φ !!!! φ ∈ ℜ φ ≠ 0
'
∈
+
ε$ %
B≤ $ % ≤ ∞
$ % '
'
Generación de Familias de v.a. {2t}t ∈T
Comenzaremos con las cadenas de Markov homogéneas.
Cadena de Markov en Tiempo Discreto
Para generar una cadena de Markov con espacio de estado S
y matriz de transición P = [ pij ] donde p ij = P(2n+1=j / 2 = i). La
forma más simple de simular la transición (n+1)-ésima,
conocida 2n, es generar 2n+1~{pxnj : j ∈ S}
π
ω
0
π
ω
0
π
ω
0
π
ω
0
π
ω
0
Generación de Procesos Estocásticos
Generación de Procesos Estocásticos
Alternativamente se puede simular Tn, el tiempo hasta el
siguiente cambio de estado y, después el nuevo estado
2n+Tn. Si 2n = s, Tn ~ Geo (pss) y 2n+Tn tiene una distribución
discreta con cuantía {psj / (1 - pss) : j ∈ S \ {s}}.
Para muestrear N transiciones de la cadena suponiendo
2o = io
Algoritmo
Hacer t=0, 2o = io
Mientras t < N
Generar h ~ Geo(pxtxt)
Generar 2t+h ~ {pxtj / (1 - pxtxt) : j ∈ S \ {s}}.
Hacer t=t+h
"
OBS. 1) La primera forma de simular una cadena de
Markov, que corresponde a una estrategia
sincrónica, es decir en la que el tiempo de
simulación avanza a instantes iguales.
2) La estrategia asincrónica es más complicada de
simular [Ver. B. Ripley 1996]
#
#
Generación de Procesos Estocásticos
Generación de Procesos Estocásticos
Cadenas de Markov en Tiempo Continuo
La simulación asincrónica de cadenas de Markov en
tiempo continuo es sencilla de implantar.
- Las cadenas de Markov de Tiempo Continuo vienen
caracterizadas por los parámetros vi de las distribuciones
exponenciales de tiempo de permanencia en el estado i y
la matriz de transición P; con pii = 0; pij = 1
- Sea Pi la distribución de la fila i-ésima. Entonces si 2o= io,
para simular hasta T se tiene :
≠
Algoritmo
Hacer t = 0, 2o = io , j = 0
Mientras t < N
Generar tj ~ exp(vxj)
Hacer t = t + tj
Hacer j = j + 1
Generar 2j ~ Pxj-1
*
Generación de Procesos Estocásticos
.
Generación de Procesos Estocásticos
Proceso de Poisson
1) Para procesos de Poisson no homogéneos, con
En el Proceso de Poisson P(λ), el número de eventos NT
en un intervalo (0,T) es P(λT) y los NT ~ (0,T)
intensidad λ(t) y u(t) =
0
- Generar NT ~ P(u(t))
Algoritmo
- Generar
1,
2
,...,
4T
~
λ(s) ds . Entonces
λ
µ
,0
+
-Generar NT ~ P(λT)
- Generar
1,
...,
T
2) Los procesos de Poisson son un caso particular
de los procesos de renovación. La forma de generar
los primeros se extiende a los procesos de
renovación.
~ (0,T)
/
Generación de Procesos Estocásticos
- Sean S0 = 0,
S1, S2, ...
Los tiempos de ocurrencia
- Ti = Si - Si-1 los tiempos entre sucesos.
- Para un proceso de renovación, los Ti son v.a.i.i.d. según
cierta distribución τ.
- Simular hasta el instante T.
Hacer S0 = 0
Mientras Si < T
Generar Ti ~ τ
Hacer Si = Ti + Si-1
Hacer i = i + 1
0
Generación de Procesos Estocásticos
Procesos no Puntuales (Movimiento Browniano)
- La simulación de procesos (no puntuales) en tiempo
continuo es más complicada que la simulación de procesos
puntuales.
-Una solución es generar procesos en suficientes instantes
discretos y aproximar la trayectoria por interpolación.
*
Generación de Procesos Estocásticos
Generación de Procesos Estocásticos
Como ejemplo, consideremos el movimiento Browniano
con parámetro σ2
Entonces para ∆t fijo,
Hacer 20 = 0
- 20 = 0
Desde i = 1 hasta n
- Para s1 ≤ t1 s2 ≤ t2 ..... ≤ sn ≤ tn las v.a.
2t1 - 2s1, ..., 2tn - 2sn son independientes
Generar 8i ~ N(0, (t-s) σ2)
Hacer 2i∆t = 2(i-1)∆t + Yi
2t - 2s ~ N(0, (t-s) σ2)
- Para s < t,
Interpolar la trayectoria en {(i∆t, 2i∆t)}
-Las trayectorias son continuas
Otros ejemplos de Simulación de Procesos continuos [Ver
B. Ripley 1987]
Generación de Procesos Estocásticos
Generación de Procesos Estocásticos
El Proceso de Gibbs
El creciente interés en los métodos de cadenas de Markov,
se debe al uso en Inferencia Bayesiana del Muestrador de
Gibbs. [Geman and Geman (1984)]
P(2=1)
= p2 + p4 (Marginal)
P(2/8=1)
=
Las Distribuciones condicionales
Ejemplo: Sean (2,8) v.a.d. Bernoulli con distribución
x
0
1
0
1
y P(2,8)
0
p1
0
p2
1
p3
1
p4
=0
=
P(2=1/8=1) =
= 09 = 0
= 09 =
=
=
=
=
pi > 0
+
+
+
= 9 =0
= 9 =
+
+
"
#
Generación de Procesos Estocásticos
Algoritmo
Escoger 80 = y0 , j =1
Repetir
Generar 2j ~ 2/8 = yj-1
Generar 8j ~ 8/2 = xj
j=j+1
Generación de Procesos Estocásticos
Como las probabilidades pi > 0, la cadena es ergódica y
tiene distribución límite, que es la marginal de 2
=
+
+
+
+
Entonces {Xn} define una cadena de Markov con matriz de
transición
A = Ayx Axy
*
2n
2 ; 8n
1)
El procedimiento descrito se llama muestrador de
Gibbs [Gibbs Sampler] y nos proporciona una
cadena de Markov, con distribución límite deseada y
se puede generalizar.
8 ; (2n, 8n)
(2,8)
Para muestrear un vector aleatorio p-variante
2 = (21, 22, ..., 2p) con distribución π, conociendo
las distribuciones condicionadas 2s/2r, r ≠ s
.
.
Generación de Procesos Estocásticos
Generación de Procesos Estocásticos
Se puede verificar que 2n = (21n, 22n,..., 2pn) define una
cadena de Markov con Matriz de transición
Sea π (:s/:r, r ≠ s) Distribución Condicionada
El [Gibbs Sampler] en este caso es
Pg (2n, 2n+1) =
- Escoger 210, 220,..., 2p0 ; j = 1
Repetir
Generar 21j ~ 21/ 22j-1,..., 2pj-1
Generar 22j ~ 22/ 21j, 23j-1,..., 2pj-1
....
Generar 2pj ~ 2p/ 21j, 22j,..., 2p-1j
j = j+1
∏π
+
9
>
+
<
=
Bajo condiciones suficientemente generales [Ver Roberts
Smith (1994)]
/
Generación de Procesos Estocásticos
Generación de Procesos Estocásticos
El muestreador Gibbs
Ejemplo : Muestrear la densidad
π (:1/:2) =
π
:),−
+
Escoger x20 ; j = 1
+
Repetir
siendo D = R+ × R
π (:1/:2) = π π
= :),−
:),
−
+
π (:2/:1) =
:1/:2 ~
:), +
"0
+
Generar X1j ~ exp[1+(x2j-1)2]
+
Generar X2j ~ N(0, 1/2:1j)
OBS: Las secuencias podrían efectuarse en forma
aleatoria en lugar de usar la secuenciación natural
+
Estudiar el Algoritmo de Metropolis-Hastings.
:2/:1 ~ N(0, σ2=(1/2:1))
"
0
&
2*
&
(
I
!
'
K
;
4
5B 52 CK B
L
'
;
@
6
A
;
;
5*+
!
"
!
$)
"
E 1
*++,
1
$59295%
- . $/ +
"
/
Descargar