MODELOS DE REGIMENES CAMBIANTES ESTOCÁSTICOS “Markov switching regimes” • Comportamiento dinámico de las variables dependen del estado de la economía • Modelos TAR y STAR: varios regímenes en función del valor de una variable de estado que es observable ⇒ los regímenes que han tenido lugar en el pasado y el presente se conocen • Otra posibilidad: la variable estado no es observable, está determinada por un proceso estocástico no observable subyacente ⇒ no se sabe con certeza qué régimen ha tenido lugar en cada momento del tiempo; se asignan probabilidades a cada estado posible. Técnicas de Predicción Universidad de Murcia - 2004-2005 1 A.Beyaert Ejemplo: 2 regímenes para la tasa de crecimiento del PIB: auge y recesión régimen en t no observable, determinado por proceso no observable, denotado st , con st = 1 ó 2 . ⎧ϕ 0,1 + ϕ1,1 yt −1 + ε t si st = 1 Si yt ∼ AR(1) en cada régimen (generalizable): yt = ⎨ ⎩ϕ 0, 2 + ϕ1, 2 yt −1 + ε t si st = 2 ó yt = ϕ 0,s + ϕ1,s yt −1 + ε t t t Supuesto más “popular” sobre st (Hamilton[1989]): proceso de Markov de primer orden (“modelos Markov-Switching”) ⇒ régimen actual st sólo depende de st −1 ⇒ modelo se completa con probabilidades de transición de un estado a otro: p( st = 1 st −1 = 1) = p11 p( st = 2 st −1 = 1) = p12 p( st = 1 st −1 = 2) = p21 p( st = 2 st −1 = 2) = p22 Técnicas de Predicción Universidad de Murcia - 2004-2005 2 A.Beyaert Pero p11 + p12 = p 21 + p 22 = 1 ⇒ sólo estimar 2 probabilidades. Probabilidades no condicionadas: Técnicas de Predicción P(s t = 1) = 1 − p 22 2 − p11 − p 22 P(s t = 2) = 1 − p11 2 − p11 − p 22 Universidad de Murcia - 2004-2005 3 A.Beyaert ⇒ tarea: • especificar el modelo (orden del AR) • estimar los parámetros (coeficientes y probabilidades) • validar • predecir Técnicas de Predicción Universidad de Murcia - 2004-2005 4 A.Beyaert 1) ESTIMACIÓN: Parámetros: ⎧β = (ϕ0 ,1 , ϕ0 , 2 , ϕ1,1 , ϕ1, 2 , σ 2 ) θ=⎨ ⎩p i , j i, j = 1,2 con pij = 1 − p ii Otra información de interés: ¿en qué régimen se encontró / encuentra / encontrará la economía en fecha t, dado la información disponible en fecha τ? ≡ P(s t = j / Yτ ; θ) ⎧τ > t ⎫ ⎪ ⎬ → inferencia con ⎨ó τ = t ⎭ ⎪ó τ < t → predicción ⎩ Técnicas de Predicción Universidad de Murcia - 2004-2005 donde Yτ = [y1, y2 ,L, yτ ] 5 A.Beyaert Sea Si ξt / τ ⎡P(s t = 1 / Yτ ; θ) ⎤ =⎢ ⎥ ⎣P(s t = 2 / Yτ ; θ)⎦ . θ conocido: Se demuestra que: ∗ ξ̂ t / t es función de ξˆ t / t −1 y de θ 1 − p 22 ⎤ ⎡ p ∗ ξˆ t +1 / t = P.ξˆ t / t con P = ⎢ 11 p 22 ⎥⎦ ⎣1 − p11 Consecuencia: 1) posible algoritmo de cálculo de las probabilidades de estado para a) escoger valor inicial para ξ̂1 / 0 θ conocido: (por ejemplo usar probabilidades incondicionales) ξ̂1 / 1 con ello, calcular ξ̂ 2 / 1 b) con ello, calcular c) Técnicas de Predicción Universidad de Murcia - 2004-2005 6 A.Beyaert d) con ello, calcular ξ̂ 2 / 2 e) etc.... 2) "smoothed probabilities": ≡ ξ̂ t / N , donde N=tamaño muestral y t ≤ N Indica probabilidad de estar en cierto estado en t, dada toda la información muestral Se pueden calcular recursivamente a partir de las Técnicas de Predicción ξ̂ t / t y ξˆ t +1 / t Universidad de Murcia - 2004-2005 7 A.Beyaert Abandonemos ahora el supuesto " θ conocido": Por Máxima Verosimilitud, bajo Normalidad de los errores: N p̂ij = ∑ P(s t =2 t = j, s t −1 = i / YN ; θˆ ) N ∑ P(s t =2 t −1 = i / YN ; θˆ ) ⇒ usa los ξ̂ t / N (1) −1 N N ˆφ j = ⎛⎜ ∑ x t ( j) x t ( j)' ⎞⎟ ⎛⎜ ∑ x t ( j) y t ( j) ⎞⎟ ⎝ t =1 ⎠ ⎝ t =1 ⎠ ⎧ y t ( j) = y t P(s t = j / YN ; θˆ ) ⎪ ⎪ ˆ) con ⎨x t ( j) = x t P (s t = j / YN ; θ ⇒ ⎪ con x t = ( y t −1 ,L, y t −p ) ⎪⎩ 1 N 2 2 σˆ = ∑∑ ( y t − φ' j x t ) 2 P(s t = j / YN ; θˆ ) ⇒ N t =1 j=1 Técnicas de Predicción (2) usa los ξ̂ t / N usa los ξ̂ t / N (3) Universidad de Murcia - 2004-2005 8 A.Beyaert Consecuencia: Todas las estimaciones están interrelacionadas ⇒ recurrir a algoritmo de optimización: 1) escoger valores iniciales para 2) calcular los vectores θ ξ̂ t , N 3) calcular nuevos valores para p̂ ij usando (1) φˆ y σˆ 2 usando fórmulas (2) y (3) con estos nuevos valores de θ̂ , llevar a cabo una nueva iteración, hasta convergencia 4) calcular nuevo valor de 5) Técnicas de Predicción Universidad de Murcia - 2004-2005 9 A.Beyaert 2) CONTRASTE DE LINEALIDAD φs =1 = φs =2 ) (e.d. φs =1 ≠ φs =2 ) H0 : AR(p) lineal (e.d. HA : AR(p)-MS t t t t - Idea de partida: test LR LRMS = l MS − l AR donde l MS , l AR = log función de verosimilitud del modelo MS y del modelo AR, respectivamente. - Problema y solución (Hansen[1992]): LR MS sigue distribución desconocida, no estándar bajo la nula (ya que probabilidades de transición no identificadas bajo la nula) => obtener el valor crítico por simulación Técnicas de Predicción Universidad de Murcia - 2004-2005 10 A.Beyaert 3) VALIDACIÓN, Hamilton(1996) • Elemento básico: "score" h t ( θ) = • Idea de partida: ∂ log f ( y t / Yt ; θ) ∂θ ∂ log f ( y t / Yt ; θ) ∂θ θ=θ => h t −1 (θ0 ) no debe contener ninguna información útil para h t (θ0 ) Si modelo bien especificado, se demuestra que imposible predecir el valor de la información disponible en (t-1) h t (θ0 ) = con la 0 ⇒ los "scores" no deben presentar correlación serial ⇒ se pueden hacer contrastes de correlación serial sobre los "scores" respecto de cada uno de los parámetros del modelo, valorándolos en θ̂ . • Además: • Test de no correlación de los scores respecto de los términos constantes ≡ test de no autocorrelación de los residuos • Test de no correlación de los scores respecto de las varianzas ≡ test de efecto ARCH. • Test de no correlación de los scores respecto de las probabilidades de transición pii , i=1,2 ≡ test de validez del proceso de Markov de orden 1. Ver Hamilton(1996) y literatura posterior para más detalles. Técnicas de Predicción Universidad de Murcia - 2004-2005 11 A.Beyaert 4) PREDICCIÓN: a) Predicción de la probabilidad de estado en (T+m), m>0: ⎡P(s = 1 / YT , θˆ ) ⎤ ˆξT+m / T = ⎢ T+m ⎥ ˆ ⎢⎣P(s T+m = 2 / YT , θ)⎥⎦ = P̂ξˆ T+m−1/ T = P̂ ⋅ P̂ξˆ T+m−2 / T = P̂ 2 ξˆ T+m−2 / T M = P̂ m ξˆ T / T Técnicas de Predicción Universidad de Murcia - 2004-2005 12 A.Beyaert b) Predicción de yT+1 yT+1 seguirá modelo del estado 1 con probabilidad de que el estado sea 1 en (T+1) y seguirá modelo del estado 2 con probabilidad de que el estado sea 2 en (T+1) ŷ T (1) = ŷ T (1) s T +1 =1 + ŷ T (1) s ⇒ [ = ŷ T (1) s [ T +1 = 2 T +1 =1 = ŷ T (m) s Técnicas de Predicción ⋅ P̂(s T+1 = 1 / YT ; θˆ ) ⋅ P̂(s T+1 = 2 / YT ; θˆ ) , ŷ T (1) s T +1 =1 T +1 = 2 , ŷ T ( m) s ⎡P̂(s T+1 = 1 / YT ; θˆ ) ⎤ ⋅⎢ ⎥ ˆ ⎢⎣P̂(s T+1 = 2 / YT ; θ)⎥⎦ ] T +1 = 2 ]⋅ P̂ ⋅ ξˆ T/T Universidad de Murcia - 2004-2005 13 A.Beyaert 5) DURACIÓN ESPERADA DE LOS ESTADOS: • Sea Dj = duración del estado j • 1 − p 22 ⎤ ⎡ p11 Matriz de transición P = ⎢ p 22 ⎥⎦ ⎣1 − p11 • Sus elementos diagonales indican la probabilidad de quedar durante 2 períodos sucesivos en el mismo estado ⇒ contienen información útil para estimar duración de los estados. • D j = 1 si s t = j , s t +1 ≠ j ⇒ P(D j = 1) = 1 − p jj = p ji D j = 2 si s t = s t +1 = j , s t + 2 ≠ j ⇒ P(D j = 2) = p jj (1 − p jj ) D j = 3 si s t = s t +1 = s t + 2 = j , s t + 3 ≠ j ⇒ P(D j = 2) = p 2 jj (1 − p jj ) , etc ∞ E(D j ) = ∑ iP( D j = i) i =1 ⇒ = (1 − p jj ) + 2p jj (1 − p jj ) + 3p 2 jj (1 − p jj ) + ... = 1 1 − p jj Técnicas de Predicción Universidad de Murcia - 2004-2005 14 A.Beyaert