Procesos Estocásticos (conceptos básicos!) Estabilidad: Conceptos Repaso procesos estocásticos Ramsés H. Mena Grupo de Estadı́stica Bayesiana No-Paramétrica IIMAS-UNAM. 2016 Procesos Estocásticos (conceptos básicos!) 1 Procesos estocásticos: super rápido Elementos básicos Procesos gaussianos Procesos con Incrementos Independientes Procesos de Markov Estabilidad: Conceptos Procesos Estocásticos (conceptos básicos!) 1 Procesos estocásticos: super rápido Elementos básicos Procesos gaussianos Procesos con Incrementos Independientes Procesos de Markov 2 Estabilidad: Conceptos Estabilidad: Conceptos Procesos Estocásticos (conceptos básicos!) Estabilidad: Conceptos Elementos básicos Definición (Clásica) Sea (Ω, F, P) un espacio de probabilidad, T un conjunto de indices y (X, X ) un espacio medible. A process estocástico es una colección de variables aleatorias (X, X )-valuadas indexadas en T . Lo denotaremos como X = {X (t, ω); t ∈ T , ω ∈ Ω} Tipicamente T ⊆ R, e.g. Z, Z+ , R or R+ . Para t fijo, X (t, ω) es X -medible. Denotemos como XT := {f : T → X | f is a function } el espacio de trayectorias de X, i.e. para ω ∈ Ω fijo t → X (t, ω) Dependiendo del contexto se usará la notación Xt (ω), Xt , XS , S ⊂ T Procesos Estocásticos (conceptos básicos!) Estabilidad: Conceptos Elementos básicos Con XT en mente, el proceso X se pude ver alternativamente como una v.a. (XT , X T )-valuada X : Ω → XT , X−1 : X T → F, ω 7→ X(ω) → Claramente induce una relación entre X con valores en un espacio Polaco X y medidas de probabilidad sobre (XT , X T ) Dado πt : XT → X, denotemos la proyección sobre la t-ésima coordenada como πt (f ) := f (t) Para S := {t1 , . . . , tn } ⊂ T , p/algún 1 ≤ n < ∞, define πS la restricción πS := f |S que es (X T /X S )-medible Procesos Estocásticos (conceptos básicos!) Estabilidad: Conceptos Elementos básicos Definición (Ley del proceso) La ley del proceso estocástico en Definición 1 es la medida de probabilidad µ := P ◦ X−1 on (XT , X T ) En otras palabras es la ley de la v.a. X. Para S ⊂ T no vacı́o, define πS X : Ω → XS vı́a (πS X)(ω) := πS (X(ω)) = X|S = {Xt : t ∈ S} y µS := P ◦ (πS X)−1 En otros términos µS (B) = PXS (B) = P(XS ∈ B) = P(X ∈ πS−1 (B)), ∀B ∈ X S (1) Procesos Estocásticos (conceptos básicos!) Estabilidad: Conceptos Elementos básicos Definición (Distribuciones finito dimensionales) Sea Fidis(T ) el conjunto de subconjuntos finitos no vacı́os de T . Las medidas de probabilidad {µS : S ∈ Fidis(T )} se denominan las distribuciones finito dimensionales de X. Definición (Consistencia de distribuciones finito dimensionales) Si U, V ∈ Fidis(T ) y U ⊆ V and if πUV la restricción de XV a XU entonces se tiene la condición de compatibildad o propiedad proyectiva µU = µV ◦ (πUV )−1 Ejercicio: Checar que esta propiedad corresponde a µXt1 ,...,Xtn = µX%1 ,...,X%n µXt1 ,...,Xtn−1 ,Xtn (A1 , . . . , An−1 , X) = µXt1 ,...,Xtn−1 (A1 , . . . , An−1 ) para todo n ≥ 1 finito, ti ∈ T , % permutación de {ti }ni=1 , y Ai ∈ X . (2) Procesos Estocásticos (conceptos básicos!) Estabilidad: Conceptos Elementos básicos Theorem (Daniell – Kolmogorov (una versión)) Sea X un espacio Polaco, dorado con su σ-álgebra X = B(X). Sea T un conjunto de ı́ndices. Supóngase que para S ∈ Fidis(T ), existe una media de probabilidad consistente µS on (XS , X S ). Entonces existe una única medida µ sobre (XT , X T ) tal que µS = µ ◦ πS−1 on (XS , X S ) donde πS es la restricción de XT a XS . Ejemplo: Sea X = R, T = [0, ∞) y µS gaussiano con m(t) = 0 y σ(s, t) = mı́n(s, t). Esto se puede denominar un pre-movimiento Browniano, dado que incluye toda possible función de [0, ∞) a R como “ trayectorias ”, no sólo funciones continuas. Claro, la teorı́a serı́a muy simple si µ(C ) = 1 ( con C la restricción de XT al conjunto de funciones continuas). Procesos Estocásticos (conceptos básicos!) Estabilidad: Conceptos Elementos básicos El ejemplo anterior sugiere los siguientes enfoques en el estudio y construcción de procesos escocásticos: El enfoque distribucional El enfoque trayectorial Procesos Estocásticos (conceptos básicos!) Estabilidad: Conceptos Elementos básicos El ejemplo anterior sugiere los siguientes enfoques en el estudio y construcción de procesos escocásticos: El enfoque distribucional El enfoque trayectorial Gran parte de la teorı́a moderna se enfoca en esta última, llevando a maneras indirectas de definir un proceso escolástico, e.g. SDE para construir procesos de difusión. Procesos Estocásticos (conceptos básicos!) Estabilidad: Conceptos Elementos básicos El ejemplo anterior sugiere los siguientes enfoques en el estudio y construcción de procesos escocásticos: El enfoque distribucional El enfoque trayectorial Gran parte de la teorı́a moderna se enfoca en esta última, llevando a maneras indirectas de definir un proceso escolástico, e.g. SDE para construir procesos de difusión. Cada enfoque tiene sus ventajas y desventajas Procesos Estocásticos (conceptos básicos!) Estabilidad: Conceptos Elementos básicos El ejemplo anterior sugiere los siguientes enfoques en el estudio y construcción de procesos escocásticos: El enfoque distribucional El enfoque trayectorial Gran parte de la teorı́a moderna se enfoca en esta última, llevando a maneras indirectas de definir un proceso escolástico, e.g. SDE para construir procesos de difusión. Cada enfoque tiene sus ventajas y desventajas → Usando el enfoque distribuciones, el conjunto T puede ser arbitrario y la medibilidad de las trayectorias no es necesaria, pero por el contrario propiedades como la monotonı́a de una trayectoria o la ley del supt Xt no se podrı́an estudiar directamente. Procesos Estocásticos (conceptos básicos!) Estabilidad: Conceptos Elementos básicos El ejemplo anterior sugiere los siguientes enfoques en el estudio y construcción de procesos escocásticos: El enfoque distribucional El enfoque trayectorial Gran parte de la teorı́a moderna se enfoca en esta última, llevando a maneras indirectas de definir un proceso escolástico, e.g. SDE para construir procesos de difusión. Cada enfoque tiene sus ventajas y desventajas → Usando el enfoque distribuciones, el conjunto T puede ser arbitrario y la medibilidad de las trayectorias no es necesaria, pero por el contrario propiedades como la monotonı́a de una trayectoria o la ley del supt Xt no se podrı́an estudiar directamente. Una de las preguntas más importante en la teorı́a de proc. estoc. es la relación entre estos enfoques. Es decir: cómo, la medida µ, construida bajo el T. DK afecta propiedades trayectororiales? Procesos Estocásticos (conceptos básicos!) Estabilidad: Conceptos Elementos básicos Definición (Version) Dos proc. estocásticos, X y Y, se denominan versiones si comparten las mismas Fidis. Definición (Modificación) X = {Xt }t∈T se denomina modificación de Y = {Yt }t∈T si tienen el mismo espacio de estados, (X, X ), están definidos en (Ω, F, P) y P(Xt = Yt ) = 1 para cada t ∈ T . Definición (Indestinguible) Sea X y Y dos procesos definidos como en Def. 6. Decimos que son indistinguibles si P(Xt = Yt , far all t ∈ T ) = 1. Procesos Estocásticos (conceptos básicos!) Estabilidad: Conceptos Elementos básicos Como en la teorı́a de funciones, la pro. de continuidad se relaciona con convergencia de sucesiones • i.e. diferentes tipos de convergencia ⇒ diferentes tipos de continuidad Procesos Estocásticos (conceptos básicos!) Estabilidad: Conceptos Elementos básicos Como en la teorı́a de funciones, la pro. de continuidad se relaciona con convergencia de sucesiones • i.e. diferentes tipos de convergencia ⇒ diferentes tipos de continuidad Definición (Trayectorias continuas) X = {Xt (ω); t ∈ T } tiene trajectories cont. con prob 1 si P(ω : t 7→ Xt (ω) es continua ) = 1. Lo que se puede re-frasear en términos de convergence en prob. Sea S ⊂ T , si p/c suc. {tn }, ||tn − t|| → 0 cuando n → ∞, entonces P(ω : |Xtn (ω) − Xt (ω)| → 0 cuando n → ∞) = 1 para todo t ∈ S Procesos Estocásticos (conceptos básicos!) Estabilidad: Conceptos Elementos básicos Como en la teorı́a de funciones, la pro. de continuidad se relaciona con convergencia de sucesiones • i.e. diferentes tipos de convergencia ⇒ diferentes tipos de continuidad Definición (Trayectorias continuas) X = {Xt (ω); t ∈ T } tiene trajectories cont. con prob 1 si P(ω : t 7→ Xt (ω) es continua ) = 1. Lo que se puede re-frasear en términos de convergence en prob. Sea S ⊂ T , si p/c suc. {tn }, ||tn − t|| → 0 cuando n → ∞, entonces P(ω : |Xtn (ω) − Xt (ω)| → 0 cuando n → ∞) = 1 para todo t ∈ S Un refinamiento de esta de última, que especifica la máxima posible suavidad de las trayectorias es la siguiente Procesos Estocásticos (conceptos básicos!) Estabilidad: Conceptos Elementos básicos Definición X is localmente Hölder continuo con exponente γ si para algún c < ∞ y v.a. h(ω) > 0, P({ω : |Xt (ω) − Xs (ω)| ≤ c}) = 1 |t − s|γ 0≤s,t,≤T ,|t−s|≤h(ω) sup Cundo γ = 1 decimos que la función es Lipschitz continua. Teorema (Criterio de continuidad de Kolmogorov) Dado X = {Xt , t ∈ [0, T ]}, supóngase que existe α, β, c, h > 0 tal que E(|Xt+h − Xt |α ) ≤ ch1+β , para todo 0 ≤ t ≤ t + h ≤ T. ⇒ existe una modificación continua Z de X t.q. es localmente Hölder continua con exponente γ para cualquier 0 < γ < β/α. Procesos Estocásticos (conceptos básicos!) Estabilidad: Conceptos Elementos básicos Definición Decimos que X = {Xt (ω)}t≥0 tiene trajectories continuas por la derecha con lı́mites por la izquierda (CDLI), si para a.e. ω ∈ Ω, la trayectoria t 7→ Xt (ω) CDLI para cualquier t ≥ 0. (i.e, para h ↓ 0 ambos Xt+h (ω) − Xt (ω) y el lı́mite Xt−h (ω) existen) Procesos Estocásticos (conceptos básicos!) Estabilidad: Conceptos Elementos básicos Definición Decimos que X = {Xt (ω)}t≥0 tiene trajectories continuas por la derecha con lı́mites por la izquierda (CDLI), si para a.e. ω ∈ Ω, la trayectoria t 7→ Xt (ω) CDLI para cualquier t ≥ 0. (i.e, para h ↓ 0 ambos Xt+h (ω) − Xt (ω) y el lı́mite Xt−h (ω) existen) Sea X = {Xn : n ∈ N0 } y Y = {Yn : n ∈ N0 } dos process discretos modificación uno del otro, entonces son indistinguibles. Procesos Estocásticos (conceptos básicos!) Estabilidad: Conceptos Elementos básicos Definición Decimos que X = {Xt (ω)}t≥0 tiene trajectories continuas por la derecha con lı́mites por la izquierda (CDLI), si para a.e. ω ∈ Ω, la trayectoria t 7→ Xt (ω) CDLI para cualquier t ≥ 0. (i.e, para h ↓ 0 ambos Xt+h (ω) − Xt (ω) y el lı́mite Xt−h (ω) existen) Sea X = {Xn : n ∈ N0 } y Y = {Yn : n ∈ N0 } dos process discretos modificación uno del otro, entonces son indistinguibles. → Entonces el hecho que en cursos básicos de proc. estocásticos no se hace diferenciación entre los enfoques distribuciones y trayectoriales Procesos Estocásticos (conceptos básicos!) Estabilidad: Conceptos Elementos básicos Definición Decimos que X = {Xt (ω)}t≥0 tiene trajectories continuas por la derecha con lı́mites por la izquierda (CDLI), si para a.e. ω ∈ Ω, la trayectoria t 7→ Xt (ω) CDLI para cualquier t ≥ 0. (i.e, para h ↓ 0 ambos Xt+h (ω) − Xt (ω) y el lı́mite Xt−h (ω) existen) Sea X = {Xn : n ∈ N0 } y Y = {Yn : n ∈ N0 } dos process discretos modificación uno del otro, entonces son indistinguibles. → Entonces el hecho que en cursos básicos de proc. estocásticos no se hace diferenciación entre los enfoques distribuciones y trayectoriales Sea X = {Xt : t ≥ 0} y Y = {Yt : t ≥ 0} dos process a tiempo continuo ambos con trajectories continuas por la derecha y valores en un esp. Polaco (X, X ). Son modificaciones uno del otro ssi son indistinguibles. Hölder ⇒ Continua c.p.1 ⇒ CDLI. Procesos Estocásticos (conceptos básicos!) Estabilidad: Conceptos Clasificación por estructuras de dependencia: Simetrı́as distribucionales Proc. independiente: las v.a’s que definen X son independientes, e.o.p Ft1 ,...,tn (A1 , . . . , An ) = n Y Fti (Ai ) i=1 Proc. intercambiable: las v.a’s que definen X son intercambiables, e.o.p d {X1 , X2 , . . . , Xn } = {Xρ1 , Xρ2 , . . . , Xρn } ∀ n > 1 y permutación ρ Proc. estacionario fuertemente: las v.a’s que definen X satisfacen d {Xt1 , . . . , Xtn } = {Xt1 +h , . . . , Xtn +h } ∀ h, n, t1 , . . . , tn con ti , ti + h ∈ T →Las Fidis son invariantes ante traslaciones del “ tiempo ” Proc. reversible: las v.a’s que definen X satisfacen d {Xt1 , Xt2 , . . . Xtn } = {Xtn , Xtn−1 , . . . Xt1 } para todo t1 , . . . , tn ∈ T y n = 1, 2, . . . Procesos Estocásticos (conceptos básicos!) Estabilidad: Conceptos Procesos gaussianos Definición Una v.a. G , Rd -valuada, se dice gaussiana (o vector aleatorio gaussiano) si existe µ ∈ Rd y una matrix Σ ∈ Rd × Rd t.q. Pdun vector d (j) j ∀s ∈ R , G · s = j=1 s G es una v.a. gaussiana, R-valueda, con media µ · sy varianza s 0 Σs. El vector µ se denomina el vector media, y Σ se llama la matrix de covarianzas de G . Si Σ es no-singular (|Σ| > 0) ⇒ para x ∈ Rd tenemos la densidad 1 1 −1 0 p Nd (x; µ, Σ) = exp − (x − µ)Σ (x − µ) . 2 (2π)d/2 |Σ| Equivalentemente, G ∼ Nd (µ, σ) si ∀ t ∈ Rd y ξ ∈ R d d X d 2 X X ξ t (j) t (k) σ(i, j) , E [exp(iξ(G · t))] = exp iξ t (j) µ(j) − 2 j=1 donde σ(i, j) denota el elemento ij de Σ. j=1 k=1 Procesos Estocásticos (conceptos básicos!) Estabilidad: Conceptos Procesos gaussianos Teorema Dado un vector µ ∈ Rd y cualquier matrix simétrica positive definida Σ ∈ Rd × Rd , se puede construir la v.a., Rd -valuada, G ∼ Nd (µ, Σ). Contrariamente, si G ∼ Nd (µ, Σ) entonces Σ puede ser simétrica y es siempre real y positiva definida. → Sup. G ∼ Nd (µ, Σ), donde Σ(i,j) = 0 para i 6= j. Entonces G (1) , . . . , G (d) son v.a.’s gaussianas independientes. Definición Un proceso X se denominate un process gaussiano si para today t1 , . . . , tk ∈ T las Fidis son Nk (µ, Σ). Si T ⊂ Rn entonces se conoce como campo gaussiano aleatorio. Procesos Estocásticos (conceptos básicos!) Estabilidad: Conceptos Procesos gaussianos Teorema Dado un conjunto abstracto T , una función arbitrary µ : T → R, y una función simétrica positive definida Σ : T × T → R, existe un proceso gaussiano X con funciones de media y covarianza µ y Σ respectivamente. Tareita: Demostrar que Nk (µ, Σ) es una familia de Fidis consistente. Hint. Usar el hecho de que la forma cuadrática 12 (x − µ)Σ−1 (x − µ)0 y que |Σ| son invariantes bajo permutaciones de x y t1 , . . . , tn Procesos Estocásticos (conceptos básicos!) Estabilidad: Conceptos Procesos con Incrementos Independientes Definición Un process estocástico con valores en R, X := {Xt ; t ≥ 0}, se denomina un proceso con incrementos independientes (PII) si (i) Tiene trayectorias t 7→ Xt CDLI c.s., i.e. Xt+ = Xt y Xt− existen. (ii) Para toda n ≥ 1 y 0 ≤ t0 < t1 < · · · < tn , las v.a.’s Xt0 , {Xtj+1 − Xtj }nj=1 son indep. (Incrementos independientes) Si además d (iii)∗ {Xt+s − Xt } = Xs para toda s, t ≥ 0 (Incrementos estacionarios) (iv)∗ X0 = 0 c.s. entonces X se conoce como un proceso de Lévy. → → → → Condición (i) ⇒ sólo discontinuidades por brincos pueden ocurrir Se dice que X tiene un brinco fijo en t > 0 si P(Xt 6= Xt− ) > 0 La prop. (iii)∗ excluye la posibilidad de brincos fijos en proc. de Lévy. Condición (iv)∗ está implı́cita en (iii)∗ (escoge s = 0). Procesos Estocásticos (conceptos básicos!) Estabilidad: Conceptos Procesos de Markov • El futuro y el pasado son independientes dados el presente. . . Una filtración {Ft : t ∈ T } es una familia creciente de sub σ-algebras de F, i.e. Ft ⊂ Fs . Decimos que X es adaptado a Ft , si ω 7→ Xt (ω) es una v.a. en (Ω, Ft ) p/c t ∈ T , i.e. σ(Xt ) ⊆ Ft → X es siempre adaptado a su filtración natural FtX = σ(Xs : s ≤ t) Definición Sea X = {Xt : t ∈ T } con valores en (X, X ). Decimos que X es un proceso de Markov, respecto a {Ft : t ∈ T } si Xt es Ft -adaptado y Ft y σ(Xs : s ≥ t) son condicionalmente independientes dado σ(Xt ), es decir P(A ∩ B | σ(Xt )) = P(A | σ(Xt )) P(B | σ(Xt )) para todo A ∈ Ft y B ∈ σ(Xs : s ≥ t). ⇒ P(B | Ft ) = P(B | σ(Xt )), ∀B ∈ σ(Xs : s ≥ t) y t ∈ T (3) Procesos Estocásticos (conceptos básicos!) Estabilidad: Conceptos Procesos de Markov Definición Sea (X, X ) un esp. medible. Una función Pt,s (x, A) definida para 0 ≤ t < s < ∞, x ∈ X, A ∈ X se denomina función de transición Markoviana sobre (X, X ) si A 7→ Pt,s (x, A) es una med. de prob. en X para cada t, s y x x 7→ Pt,s (x, A) es una función X -medible para cada t, s y A si 0 ≤ t < s < u, entonces Z Pt,u (x, A) = Pt,s (x, dy ) Ps,u (y , A) (4) A (4) se le conoce como la ecuación de Chapman-Kolmogorov. Procesos Estocásticos (conceptos básicos!) Estabilidad: Conceptos Procesos de Markov Si ∃ Pt (x, A) s.t. Ps−t (x, A) = Pt,s (x, A) ∀ t, s, x y A se dice que la transición es temporalmente homogénea y CK eq. se simplifica Z Pt+s (x, A) = Pt (x, dy ) Ps (y , A) (5) Similarmente, una transición se dice espacialmente homogénea si Pt,s (x, A) = Pt,s (0, A − x) donde A − x = {y − x : y ∈ A} ⇒ que el procesos tiene incrementos independientes Definición Sea X con valores en (X, X ), {Ft }-adaptado, y Pt,s (x, A) una transición en (X, X ). X es un proc. de Markov con transición Pt,s (x, A) si E (f ◦ Xs | Ft ) = Pt,s (x, f ) R con f una func. adotada X -medible y Pt,s (x, f ) := Pt,s (x, dy )f (y ). Entonces CK ec. se convierte en la prop. de semigrupo Pt+s = Pt Ps . Procesos Estocásticos (conceptos básicos!) Estabilidad: Conceptos Procesos de Markov • La interpretación de la función de transición es : Pt,s (x, A) = P(Xt ∈ A | Xs = x), 0≤s<t → Si X0 ∼ π entonces las fidis Z E [f (Xt1 , . . . , Xtn )] = Z π(dx0 ) Z P0,t1 (x0 , dx1 ) Z ··· Ptn−1 ,tn (xn−1 , dxn )f (x1 , . . . , xn ) lo cual implica en particular P(X0 ∈ dx0 , Xt1 ∈ dx1 , . . . , Xtn ∈ dxn ) = π(dx0 )P0,t1 (x0 , dx1 ) · · · Ptn−1 ,tn (xn−1 , dxn ). Procesos Estocásticos (conceptos básicos!) Estabilidad: Conceptos Procesos de Markov: homogéneo en el tiempo Si existe una medida finita, π, en X, X t.q. satisface Z π(A) = Pt (x, A) π(dx) (6) X para cada t y A ∈ X se dice que es una medida invariante o estacionaria cuando π(X) = 1. Tareita: Dem. que cualquier P. de Markov homogéneo con dist. estacionaria π, es estrictamente estacionario En particular, (6) se satisface si X es π-reversible, i.e. Z Z Pt (x, B 0 )π(dx) = Pt (x, B)π(dx) B B0 para todo B, B 0 ∈ X . Si (7) se satisface para π finita, decimos que Pt es una transición π-reversible. (7) Procesos Estocásticos (conceptos básicos!) Estabilidad: Conceptos Procesos de Markov: homogéneo en el tiempo • π se dice que es la distribución lı́mite o ergódica si Pt (x, ·) → π(·), cuando n → ∞ • En el caso T numerable, X = (Xn )n=0,1,... , denotaremos P n (x, A) = P(Xn ∈ A | X0 = x) la transición en n-pasos. CK se escriben como Z n P (x, B) = P m (x, dy )P n−m (x, B), 0 ≤ m ≤ n, B ∈ X X → Cuando X = S ⊆ N0 entonces se habla de una cadena de Markov con valores en (S, S) y se usa la notación Pn,n+1 = P(Xn+1 = j | Xn = i) ij abreviada en el caso homogéneo pij := Pij , i, j ∈ S. Procesos Estocásticos (conceptos básicos!) Estabilidad: Conceptos Procesos de Markov: homogéneo en el tiempo Ejemplo: Cónsiderese el proceso de Markov X = (Xn )n=0,1,... con valores en (R, B) y función de transición Z (2 + s)s x , dy P(x, A) = N y| s + 1 (s + 1)2 A con s > 0. Ası́ tenemos P n (x, ·) = N · | x 1 ,1 − (s + 1)n (s + 1)2n Entonces P n (x, ·) → N(· | 0, 1) cuando n → ∞ Procesos Estocásticos (conceptos básicos!) Estabilidad: Conceptos Construcción de X con invariante, π, dada Sup. que queremos construir X = {Xn }∞ n=1 markoviano con medida invariante π • Usando la idea de “ aumentación ” mencionada anteriormente, e.g. Z η(dx, dy ) π(dx) = Y con condicionales ηy (dx) y ηx (dy ) definimos una transición Markoviana Z P(x, A) = ηy (A)ηx (dy ) → P(x, A) deja invariante a π (Tareita!) → El proceso X modulado por P(x, A) es π-reversible. (Tareita!) Procesos Estocásticos (conceptos básicos!) Estabilidad: Conceptos Construcción de X con invariante, π, dada Una manera de proponer η(·, ·) es mediante la propuesta de una dist. condicional µx (dy ) con valores en un espacio arbitrario (Y, Y) pero que satisfaga Supp{π} ⊆ {x ∈ X; µx (A) > 0}, ∀A ∈ Y Es decir η(dx, dy ) = µx (dy )π(dx) Ejemplo Si π = Po(λ), i.e. buscamos una cadena de Markov X = {Xn }∞ n=1 que toma valores en N0 . → Siguiendo la construcción antes mencionada con ηx (y ) = Bin(y ; x, ξ) ηy (x) = d [λ(1 − ξ)]x−y −λ(1−ξ) e I[y ,∞) (x) (x − y )! es decir {X | Y } = Y + Po(λ(1 − ξ)). Procesos Estocásticos (conceptos básicos!) Estabilidad: Conceptos Ejemplo Siguiendo con la construcción del proceso, la probabilidad a un paso esta definida como ∞ X p(x0 , x1 ) = fX |Y (x1 | y )fY |X (y | x0 ) y =0 ∞ X x0 y [λ(1 − ξ)]x1 −y −λ(1−ξ) e I[y ,∞) (x1 ) ξ (1 − ξ)x0 −y I[0,x0 ] (y ) (x! − y )! y y =0 h iy ξ xX 0 ∧x1 2 (1−ξ) λ = e −λ(1−ξ) (1 − ξ)x0 +x1 λx1 x0 ! (8) (x0 − y )!(x1 − y )!y ! = y =0 Si utilizamos la definición de la función hipergeométrica generalizada dada por Qp ∞ X z k i=1 (ni )k Q q Fp (n; d; z) := k! qj=1 (dj )k k=0 donde (z)a = Γ(z + a)/Γ(a) Procesos Estocásticos (conceptos básicos!) Estabilidad: Conceptos Ejemplo Entonces la transición se puede re-expresar como x0 p(x0 , x1 ) = Po(x1 ; λ(1 − ξ)) (1 − ξ) 2 F0 −x0 , −x1 ; ξ (1 − ξ)2 λ donde Po(x; λ) denota la densidad de masa de una distribución Poisson. Por construcción tenemos: p(x0 , x1 ) satisface las ecuaciones de Chapman-Kolmogorov p(x0 , x1 ) deja invariante a Po(λ), es decir Po(λ) es una distribución estacionaria para el proceso X = {Xn }∞ n=1 El proceso X es Po(λ)-reversible en el tiempo. Procesos Estocásticos (conceptos básicos!) Estabilidad: Conceptos Tiempo continuo ¿Que ocurre si quiero construir ahora un proceso a tiempo continuo X = (Xt )t≥0 usando esta misma idea de construcción? Siguiendo la misma idea, necesitamos encontrar Z Pt (x, A) = ηyt (A)ηxt (dy ), para toda t ≥ 0. Tal que las ecuaciones de Chapman-Kolmogorov se satisfacen. Una idea es calcular la transición a n-pasos del proceso a tiempo discreto y substituir n por t. . . no siempre es fácil calcular una expresión analı́tica para la transición en n-pasos. Alternativamente se podrı́a imponer una dependencia en t, e.g. a través de los parámetros en ηx (dy ). Claro, a dicha construcción se le podrı́an verificar ciertas propiedades de tal forma que podamos afirmar la existencia de versiones CDLI o c.s. continuas. Procesos Estocásticos (conceptos básicos!) Estabilidad: Conceptos Tiempo continuo: cont. ejemplo con invariante Po(λ) El único parámetro en ηx (y ) es ξ (“ el parámetro de dependencia ”) ⇒ Cuál es la forma de t 7→ ξt t.q. 0 < ξt < 1 y CK ec. se satisface? La ley de Xt | X0 más manejable vı́a su transformada de Laplace φ Si Z ∼ Po(λ) entonces LZ (φ) = e λ(e −1) Si Z ∼ Bin(N, p) entonces LZ (φ) = (1 − p + pe φ )N ⇒ se puede verificar que Y ∼ Po(λξ) LY (φ) = E{E[e φY | X ]} = E[(1 − ξ + ξe φ )X ] = LX (log ψ) = e λ(ψ−1) = e λξ(e φ −1) con ψ := (1 − ξ + ξe φ ). De la misma manera se puede ver que LY |X =x (φ) = (1 − ξ + ξe φ )x y LX |Y =y (φ) = e y φ e λ(1−ξ)(e φ −1) y por lo tanto LXt |X0 =x0 (φ) = E LXt |Y (φ) | X0 = x0 = e λ(1−ξt )(e = e φ −1) λ(1−ξt )(e φ −1) LY |X0 =x0 (φ) (1 − ξt + ξt e φ )x0 (9) Procesos Estocásticos (conceptos básicos!) Estabilidad: Conceptos Tiempo continuo: cont. ejemplo con invariante Po(λ) Chapman-Kolmogorov se satisfacen si y sólo si E LXt |Xs (φ) | X0 = x0 = LXt+s |X0 =x0 (φ) (10) Entonces h i φ E LXt |Xs (φ) | X0 = x0 = e λ(1−ξt )(e −1) E (1 − ξt + ξt e φ )Xs | X0 = x0 = e λ(1−ξt )(e φ −1) LXs |X0 =x0 (log ψt ) con ψt := (1 − ξt + ξt e φ ) o n φ φ = e λ(e −1)(1−ξt ) e λ(e −1)(1−ξs )ξt (1 − ξs + ξs (1 − ξt + ξt e φ ))x0 x0 φ = e λ(e −1)(1−ξs ξt ) 1 − ξs ξt + ξs ξt e φ . Esta última ecuación es igual a LXt+s |X0 =x0 (φ) si y sólo si ξt+s = ξt ξs ⇒ ξt = e −αt , con α > 0. Procesos Estocásticos (conceptos básicos!) Estabilidad: Conceptos Tiempo continuo: cont. ejemplo con invariante Po(λ) Con esto el proceso X se puede representar como : Xt = e −αt ◦ X0 + εt , con εt ∼ Po(λ(1 − e −αt )) (11) con εt independiente de (Xt )t≥0 y ξ ◦ X el operador de adelgazamiento binomial, i.e. dado X , se tiene que ξ ◦ X ∼ Bin(X , ξ). Entonces (Xt )t≥0 es una cadena de Markov con dist. estacionaria Po(λ) y Po(λ)-reversible. Una pregunta obligada es, podemos hablar de la transición de un estado a otro “ en t pasos ”, ¿Cuál es la unidad de tiempo? Claramente se necesita el concepto de “ intensidad de cambio ” o “ intensidad del proceso ”. Procesos Estocásticos (conceptos básicos!) Estabilidad: Conceptos Generador: caso espacio de estados discreto Bajo el supuesto de regularidad lı́m pij (t) = δij t↓0 (12) donde pij (t) := Pt (i, j), i, j ∈ X, X numerable, y con la notación P(t) := {pij (t)}i,j∈X se tiene el siguiente resultado: Teorema Sea {P(t)}t≥0 el semigrupo de transición sobre X. Para cualquier estado i, existe 1 − pii (h) qi := lı́m ∈ [0, ∞] h↓0 h y para cualquier (i, j) ∈ X2 , i 6= j, qij := lı́m h↓0 pij (h) ∈ [0, ∞) h Procesos Estocásticos (conceptos básicos!) Estabilidad: Conceptos Generador: caso espacio de estados discreto A la matriz Q definida con qij como en el teorema anterior se le conoce como el generador infinitesimal de la cadena de Markov a tiempo continuo. De forma más compacta, se estila escribir Q = lı́m h↓0 P(h) − P(0) h es decir la derivada derecha en 0 de la función matricial t 7→ P(t) En el caso de nuestro ejemplo con transiciones dadas por (8) el generador infinitesimal esta dado por −α(i + λ), j = i ( − lı́mt↓0 1−ptt (i,i) , j = i αλ, j =i +1 qij = = pt (i,j) iα, j =i −1 lı́mt↓0 t , i 6= j 0, e.o.c, ⇒ ∃ otras formas de construir un proceso de nacimiento y muerte. Ver Mena y Walker (2009) para detalles y ejemplos de esta construcción. Procesos Estocásticos (conceptos básicos!) Estabilidad: Conceptos Procesos de Difusión Qué ocurre cuando X es no-numerable y t ∈ R+ ?? • En el caso de un proceso Markoviano X := (Xt ; t ≥ 0) homogéneo en el tiempo y con valores en un espacio métrico, compacto y separable (X, d). Si se tiene que 1 lı́m Pt (x, B(x, ε)c ) , t↓0 t para cada x ∈ X and ε > 0 con B(x, ε) := {z ∈ X; d(z, x) < ε} ⇒ P(X ∈ CX [0, ∞)) = 1, es decir ∃ una modificación con trayectorias continuas c.s. A X se le denomina un proceso de Difusión Procesos Estocásticos (conceptos básicos!) Estabilidad: Conceptos Procesos de Difusión: Caso X = R En el caso real la condición de arriba se traduce a Z 1 lı́m Pt (x, dy ) = 0 t↓0 t |y −x|>ε que usando la desigualdad de Chebyshev se satisface si 1 lı́m E[|Xt − X0 |h | X0 = x] = 0 t↓0 t para h > 2 de ser el caso a 1 µ(x) := lı́m E[|Xt −X0 | | X0 = x] t↓0 t 1 y σ 2 (x) := lı́m E[|Xt −X0 |2 | X0 = x] t↓0 t se les conoce como los coeficientes de deriva, µ(·), y difusión, σ(·). Procesos Estocásticos (conceptos básicos!) Estabilidad: Conceptos Relación con SDE’s Bajo ciertas condiciones de regularidad del proc. de difusión X, µ(·) y σ(·) se puede ver que existe una versión de X que coincide con la solución (débil) a la SDE dXt = µ(Xt )dt + σ(Xt )dBt , donde (Bt ; t ≥ 0) denota un movimiento Browniano estándar. Ejemplo Usando la construcción con marginales dadas Fija la distribución invariante como π = Ga(a, b) Asume que ηx (dy ) = Po(y ; xφ) y verifica que ηy (dx) = Ga(dx; a + y , b + φ) Encuentra la forma de φt t.q. Z Pt (x, A) = ηyt (A)ηxt (dy ), para toda t ≥ 0. satisface la ec. de CK. Es un proceso de Difusión? Procesos Estocásticos (conceptos básicos!) Estabilidad: Conceptos Estabilidad de procesos markovianos Vimos que podemos construir cadenas y procesos de Markov a tiempo discreto y continuo con marginales dadas. Que ocurre cuando no conocemos la forma de la dist. invariante π ? → Esta pregunta es fundamental en métodos MCMC Irreducibilidad: Un X := {Xn } se dice ψ-irreducible si existe ψ sobre X t.q. siempre que ψ(A) > 0 se tiene que P(τA < ∞ | X0 = x) > 0, para toda x ∈ X y A ∈ X donde τA := mı́n{n ≥ 1 : Xn ∈ A} → Irreducibilidad asegura que A será visitado por el proceso {Xn }, pero tal vez no lo suficientemente seguido → Algún concepto de “ recurrencia ” a A se debe manejar para asegurar la estabilidad de X Procesos Estocásticos (conceptos básicos!) Estabilidad: Conceptos Periodicidad Un proceso X ψ-irreducible tiene periodo d si X se puede particionar en conjuntos disjuntos N , D1 , . . . , Dd ∈ X para los cuales ψ(N ) = 0 P(x, Di+1 ) = 1 ∀x ∈ Di y i = 0, . . . , d − 1 y P(x, D1 ) = 1 para x ∈ Dd . El proceso X se dice periódico si d ≥ 2 y aperiódico si d = 1 Procesos Estocásticos (conceptos básicos!) Estabilidad: Conceptos Recurrencia Si denotamos el tiempo de ocupación en A como, ηA , tenemos ηA = ∞ X I{Xn ∈ A} i=1 Es decir el número de visitas a A después del tiempo 0. Recurrencia: Un proceso X := {Xn }∞ n=0 se dice recurrente (transitorio) si es ψ-irreducible Ex [ηA ] = ∞ X n=1 Pn (x, A) = ∞ (< ∞) Procesos Estocásticos (conceptos básicos!) Estabilidad: Conceptos Recurrencia Un A ∈ X se dice Harris recurrente si P(ηA = ∞ | X0 = x) = 1 para todo x ∈ X Se dice que el proceso X es Harris recurrente si es ψ-irreducible y cada A ∈ X es Harris. Notemos que esta prop. ⇒ Ex [ηA ] = ∞ Sea π es una medida invariante para X. Se dice que es positiva recurrente si π es finita. E.o.c. se dice que X es recurrente nula o transitoria → Si X es Harris recurrente positiva y aperiodica, entonces Z lı́m Pn (x, A)µ(dx) − π(A) = 0, ∀A ∈ X n→∞ TV para toda dist. inicial µ y donde ||µ − ν||TV := supA∈X |µ(A) − ν(A)| Procesos Estocásticos (conceptos básicos!) Estabilidad: Conceptos Teorema Ergodico Teorema Supóngase que un proceso de Markov X es Harris positivo con distribución invariante π. También supóngase que Eπ |g (X )| < ∞ para alguna función g : X → R. Entonces, para cualesquiera x ∈ X n−1 1X g (Xi ) → Eπ (g (X ) ĝn := n c.s. cuando n → ∞ i=0 → Harris positiva recurrente y aperiódica garantiza la convergencia a la distribución ergódica, sin detallar la velocidad de convergencia → Si X no es Harris pero es ψ-irreducible y aperiódica con invariante π, ||Pn (x, ·) − π(·)|| → 0 (*) cuando n → ∞ para casi todo(π) x ∈ X, i.e. π(A) = 0 donde A denota el conjunto de puntos iniciales x para los cuales (∗) no se satisface. Procesos Estocásticos (conceptos básicos!) Estabilidad: Conceptos Ergodicidad geométrica Un proceso X ψ-irreducible y aperiódico con dist. invariante π se dice geometricamente ergódico si existe una función η : X → R y una constante 0 < ρ < 1 t.q. ||Pn (x, ·) − π(·)|| ≤ η(x)ρn , para todo x ∈ X Si η es acotada entonces se dice que es uniformemente ergódico → Si x no es un valor inicial malo, i.e. η(x) no es grande, la ergodicidad geométrica garantiza una convergencia rápida del proceso. → Ergodicidad geométrica y uniforme se cumple para toda cadena de Markov periódica con espacio de estados finito. Cómo podemos asegurar que X tiene una ergodicidad geométrica? Procesos Estocásticos (conceptos básicos!) Estabilidad: Conceptos Ergodicidad geométrica: criterios Dos condiciones son suficientes para ergodicidad geométrica. Definición Se dice que la condición de tendencia del tipo I satisface si existe una función V : X → R+ y constantes 0 < γ < 1 y L < ∞ t.q. Z PV (x) := P(x, dy )V (y ) ≤ γV (x) + L para cualquier x ∈ X A V y γ se les denomina la función y tasa de tendencia resp. Definición Se dice que la condición de minorización sobre C ∈ X se cumple si existe m, ε > 0 y una med. de prob. Q, (X, X )-valuada, t.q. Pm (x, A) ≥ εQ(A) ∀ x ∈ C, A ∈ X A C se le denomina pequeño y a Q medida de minorización. Procesos Estocásticos (conceptos básicos!) Estabilidad: Conceptos Ergodicidad geométrica: criterios Teorema Si X is irreducible, periódico con distribución invariante π. Entonces X es geométricamente ergódico si la condición de tendencia del tipo I se satisface y existe alguna constante d > 2L/(1 − γ) para la condición de minorización se cumple con m = 1 con C = {x : V (x) ≤ d} Entonces (de la Def. de erg. geométrica) podemos tomar η(x) ∝ V (x) + 1 ⇒ Iniciar el proceso en X0 = x ∗ , donde x ∗ minimiza V (x), es ideal para una tasa de convergencia geométrica. ⇒ Harris recurrente Procesos Estocásticos (conceptos básicos!) Estabilidad: Conceptos Ergodicidad geométrica: criterios Proposición Sea X ψ-irreducible y recurrente entonces existe C ∈ X pequeño t.q. ψ(C ) > 0. Más aun la medida minorizante Q se puede definir t.q. Q(C ) > 0. Sup. X Harris recurrente positivo con dist. invariante π ⇒ m, ε > 0 y Q t.q. ∀A ∈ X Pm (x, A) ≥ εQ(A), para todo x ∈ C Si m = 1 y verificamos que P(x, A) = εQ(A) + (1 − ε)R(x, A) con R(x, A) = P(x, A) − εQ(A) 1−ε Procesos Estocásticos (conceptos básicos!) Estabilidad: Conceptos Ergodicidad geométrica: criterios Nótese que R(x, ·) es una medida de prob., (X, X )-valuada, para toda x ∈ C . ⇒ P se puede ver como una mezcla de distribuciones, donde solo R depende de x. Argumento de acoplamiento. ∞ Sean {Zn }∞ n=1 y {Yn }n=1 los procesos asociados a cada componente 1 Mientras Zn 6= Yn Si (Zn , Yn ) ∈ / C × C . Genera Zn+1 ∼ P(Zn , ·) y Yn+1 ∼ P(Yn , ·) Si (Zn , Yn ) ∈ C × C Genera δn ∼ Ber(ε) Si δn = 0 Genera Zn+1 ∼ R(Zn , ·) y Yn+1 ∼ R(Yn , ·) Si δn = 1 Genera Zn+1 = Yn+1 ∼ Q(·) 2 Cuando Zn = x = Yn Genera Zn+1 = Yn+1 ∼ P(x, ·) Denotemos por T el tiempo (aleatorio) de acoplamiento. Entonces se da la siguiente desigualdad de acoplamiento (demostración en clase) ||Pn (x, ·) − π(·)|| ≤ Px (T > n) Procesos Estocásticos (conceptos básicos!) Estabilidad: Conceptos Ergodicidad geométrica: criterios Si C = X entonces T ∼ Geo(ε) entonces ||Pn (x, ·) − π(·)|| ≤ Px (T > n)) = (1 − ε)n y por lo tanto se alcanza una ergodicidad uniforme. Ejemplo (Metropolis-Hastings independiente) Consideremos una distribución propuesta q y distribución estacionaria π. Un proceso markoviano, reversible y homogéneo en el tiempo se puede construir con la transición dada como sigue: (i) Selecciona un valor inicial X0 = x0 (ii) En la iteración I, dado un valor anterior XI−1 = x, genera XI como sigue: Genera y ∼ q y u ∼ U(0, 1) de manera independiente Calcula π(y )q(x) α(x, y ) = mı́n ,1 π(x)q(y ) Si u < α(x, y ), XI = y E.o.c XI = x Procesos Estocásticos (conceptos básicos!) Estabilidad: Conceptos Si las colas de q son lo suficientemente pesadas en comparación de las colas de π, i.e. existe κ > 0 t.q. π(x) ≤κ q(x) para cualquier x ∈ X Es decir ||Pn (x, ·) − π(·)|| ≤ (1 − κ−1 )n Cuando C 6= X la dist. de T es tipicamente complicada → No siempre se conoce Px (T > n) Sin embargo, que X sea Harris recurrente ⇒ Px (T < ∞) = 1 ∀ x ∈ X y Px (T > n) → 0, en otras palabras ||Pn (x, ·) − π(·)|| ≤ Px (T > n) → 0 → La convergencia es geometrica si las colas de T tiene colas ligeras, e.g. cuando existe un β > 1 t.q. E[β T ] < ∞