Econometrı́a de series de tiempo aplicada a macroeconomı́a y finanzas Series de Tiempo Estacionarias (Multivariadas) Carlos Capistrán Carmona ITAM Vectores Autorregresivos (VARs) 1 Principios de Pronóstico. 2 Pruebas de Hipótesis. 3 Estimación por Máxima Verosimilitud. 4 Vectores Autorregresivos. Vectores Autorregresivos (VARs) Principios de pronóstico y1t−1 , y1t−2 , . . . , y1t−p y2t−1 , y2t−2 , . . . , y2t−p Queremos pronosticar y1t con base en: .. . ynt−1 , ynt−2 , . . . , y3n−p En adición, podemos agregar funciones determinı́sticas del tiempo, como 1, t, cos( πt 6 ), dummies estacionales, etc. Vectores Autorregresivos (VARs) Principios de pronóstico Definimos: yt (nx1) xt (kx1) = (y1t , y2t , ..., ynt )0 = (1, y0 t−1 , y0 t−2 , ..., y0 t−p )0 k = np + 1 Vectores Autorregresivos (VARs) Principios de pronóstico Consideramos el pronóstico lineal: ŷ1t|t−1 = β0 xt El mejor pronóstico es: el valor de β que minimiza: E(y1t − β0 xt )2 Vectores Autorregresivos (VARs) Principios de pronóstico Proposición: Si yt es estacionario en covarianza, y E(xt xt ) es no-singular, el pronóstico óptimo utiliza: β∗ = E(xt xt )−1 E(xt yt ) Vectores Autorregresivos (VARs) Principios de pronóstico Definición: El pronóstico lineal óptimo ŷ1t|t−1 = β∗0 xt es llamado “proyección lineal poblacional” de y1t sobre xt . Vectores Autorregresivos (VARs) Principios de pronóstico Definición: La estimación de Mı́nimos Cuadrados Ordinarios (OLS por sus siglas en inglés) está dada por: T β̂ = ∑ xt x 0 t ! −1 t=1 T Proposición: Si yt es ergódica, entonces p β̂→ β∗ ∑ xt yt t=1 ! Vectores Autorregresivos (VARs) Principios de pronóstico Prueba (Ley de los grandes números): T T − 1 ∑ xt x 0 t β̂ = ! −1 t=1 p −1 T T −1 ∑ xt yt → E(xt x0t ) E(xt yt ) t=1 ! Vectores Autorregresivos (VARs) 1 Principios de Pronóstico. 2 Pruebas de Hipótesis. 3 Estimación por Máxima Verosimilitud. 4 Vectores Autorregresivos. Vectores Autorregresivos (VARs) Pruebas de hipótesis Hasta ahora hemos asumido que: I I yt es estacionaria y ergódica E(xt x0t ) es no singular a partir de eso concluimos que: I Mı́nimos cuadrados ordinarios (OLS) arroja estimadores consistentes de los pesos de pronóstico óptimos. Vectores Autorregresivos (VARs) Pruebas de hipótesis Supongamos que deseamos hacer una prueba de hipótesis, e.g. H0 : y2,t−1 , y2,t−2 , . . . , y2,t−p no ayudan a pronosticar y1t Vectores Autorregresivos (VARs) Pruebas de hipótesis Necesitamos supuestos mas fuertes para hacer pruebas de hipótesis: ε t = y1t − β∗0 xt E( ε t E(ε2t ) E(ε4t ) | y1t , y2t , ..., y1 ) = 0 = σ2 < ∞ Entonces: todas las pruebas usuales de OLS t o F sobre β̂ son válidas para obtener conclusiones acerca de β∗ Vectores Autorregresivos (VARs) Pruebas de hipótesis Siguiendo con el ejemplo, la prueba de hipótesis, H0 : y2,t−1 , y2,t−2 , . . . , y2,t−p no ayudan a pronosticar y1t se puede llevar a cabo usando una prueba F usual. Si los coeficientes de y2,t−1 , y2,t−2 , . . . , y2,t−p son todos cero (i.e. si no rechazamos la hipótesis nula), entonces decimos que “y2 no causa a la Granger a y1 ” Vectores Autorregresivos (VARs) 1 Principios de Pronóstico. 2 Pruebas de Hipótesis. 3 Estimación por Máxima Verosimilitud. 4 Vectores Autorregresivos. Vectores Autorregresivos (VARs) Estimación por máxima verosimilitud Ahora hagamos un supuesto más fuerte: ε t | yt−1 , yt−2 , ..., y1 ∼ N (0, σ2 ) En este caso, la función de (log) verosimilitud condicional muestral serı́a: T ∑ log f (y1t | yt−1 , yt−2 , ..., yt−p ) t=1 T T = − log(2πσ2 ) − 2 ∑ (y1t − β0 xt ) t=1 2σ2 2 Vectores Autorregresivos (VARs) Estimación por máxima verosimilitud El valor de β que maximiza la (log) verosimilitud es el estimador de OLS β̂. El estimador de máxima verosimilitud (MLE) de σ2 es: T σ2 = T −1 ∑ (y1t − β̂0 xt )2 t=1 Vectores Autorregresivos (VARs) Estimación por máxima verosimilitud Una opción es maximizar la función de verosimilitud incluso si no creemos el supuesto sobre la distribución, en ese caso, tenemos estimación por cuasi-máxima verosimilitud. Si el supuesto de la distribución es incorrecto (lo cierto es que ε t ∼Student t), entonces MLE aún es consistente, pero ya no es eficiente. Vectores Autorregresivos (VARs) Estimación por máxima verosimilitud Por otro lado, si estamos convencidos de que los errores siguen una distribución t de Student, es mejor escoger ( β, σ, ν) para T maximizar ∑ qt : t=1 qt = log Γ ν+1 2 1 log(σ2 νπ ) 2 2 ν+1 (yt − β0 xt )2 − log 1 + 2 νσ2 − log Γ ν − Vectores Autorregresivos (VARs) 1 Principios de Pronóstico. 2 Pruebas de Hipótesis. 3 Estimación por Máxima Verosimilitud. 4 Vectores Autorregresivos. Vectores Autorregresivos (VARs) Hasta ahora, sólo hemos considerado el pronóstico de y1t , el primer elemento del vector yt , usando: y1t = π10 xt + ε 1t xt (kx1) = (1, yt0 −1 , yt0 −2 , . . . , yt0 −p )0 k = np + 1 ε 1t = error al pronosticar la variable 1 Vectores Autorregresivos (VARs) Obviamente, es posible establecer modelos análogos para pronosticar la segunda variable: y2t = π20 xt + ε 2t xt (kx1) = (1, yt0 −1 , yt0 −2 , . . . , yt0 −p )0 Vectores Autorregresivos (VARs) Apilando las ecuaciones en un sistema de vectores, tenemos: 0 ε 1t π1 y1t ε 2t y2t π 0 2 .. = .. xt + .. . . . ynt πn0 ε nt Vectores Autorregresivos (VARs) yt (nx1) = Π0 xt (nxk) (kx1) + εt (nx1) Π 0 xt = c Φ1 Φ2 · · · 1 yt−1 Φp yt−2 .. . yt−p Vectores Autorregresivos (VARs) yt = c + Φ1 yt−1 + Φ2 yt−2 + . . . + Φp yt−p + ε t Llamado un Vector Autorregresivo (VAR) Vectores Autorregresivos (VARs) Si todos los escalares z (incluso complejos) que satisfacen | In − Φ1 z − Φ2 z2 − ... − Φp zp |= 0 tambien satisfacen ||z|| > 1, entonces yt es estacionario en covarianza. Vectores Autorregresivos (VARs) Ahora hacemos el supuesto de que ε t ∼ N (0, Ω): log f yt , y2 , . . . , yT | y0 , y−1 , . . . , y−p+1 T = ∑ log f yt | yt−1 , yt−2 , . . . , yt−p t=1 = 0 −Tn T 1 T log (2π ) − log |Ω| − ∑ yt − Π0 xt Ω−1 yt − Π0 xt 2 2 2 t=1 Vectores Autorregresivos (VARs) Resultado 1: el i-ésimo renglón del estimador de máxima verosimilitud de Π0 está dado por: bt0 = π T ∑ yit xt0 t=1 ! T ∑ xt xt0 t=1 Es decir, es OLS ecuación por ecuación. ! −1 Vectores Autorregresivos (VARs) Resultado 2: el estimador de máxima verosimilitud Ω está dado por: T b = T −1 ∑ b Ω ε tb ε0t t=1 Vectores Autorregresivos (VARs) Resultado 3: el valor máximo de la log-verosimilitud está dado por: T −Tn b [1 + log (2π )] − log Ω 2 2 Vectores Autorregresivos (VARs) Aplicación del resultado 3: prueba (contraste) de la razón de verosimilitud Prueba con la muestra completa de: H0 : p − 1 rezagos HA : p rezagos donde T b (p − 1 ) = T −1 ∑ b Ω ε t (p − 1) b ε0t (p − 1) t=1 T b (p ) = T −1 ∑ b Ω ε t (p) b ε0t (p) t=1 b ε t (s) = residuales de un VAR con s rezagos Vectores Autorregresivos (VARs) entonces, dos veces la razón de verosimilitud es: i h b b ( p ) ∼ χ 2 n2 (p − 1) − log Ω T log Ω la corrección de Sims para muestras pequeñas: i h b b (p − 1) − log Ω (p) ∼ χ2 n2 (T − k) log Ω Vectores Autorregresivos (VARs) Criterio de información de Akaike: 2 pn b minimizar log Ω(p) + 2 T Criterio de información de Schwarz: 2 pn b minimizar log Ω(p) + log T T “Regla de dedo”: p ≥ 4 para datos trimestrales, usar rezagos 1 − 6 y 11 − 13 para datos mensuales Vectores Autorregresivos (VARs)