TEMA 3. VECTORES AURORREGRESIVOS (PARTE 1) Manuel Alejandro Hidalgo Pérez Universidad Pablo de Olavide Dpto. de Economía 1 h Introducción Los vectores autorregresivos (VAR) se hacen popular en economía gracias a la introducción de los mismos por Sims (1980) para la estimación de ecuaciones simultáneas. Una de las razones fue la disponibilidad de series de tiempo cada vez más largas, lo que permitía realizar análisis dinámicos más detallados. Una de las ventajas (posible inconveniente) es que los VAR consideran a todas las variables endógenas, eludiendo las exogeneidades a juicio del investigador 5 2 h No obstante, extensiones de los VAR permiten establecer restricciones que determinan si algunas variables son más o menos exógenas. Los VAR pueden utilizarse para el análisis económico, mediante las funciones de impulso-respuesta. Así, se pueden introducir restricciones sobre las relaciones entre las variables para obtener análisis económicos derivados de modelos predeterminados (VAR estructurales). Obviamente, los VAR también pueden usarse para realizar predicciones. Por último, es posible desligar estas relaciones entre variables entre aquellas que se establecen en el largo plazo, con aquellas que lo hacen en el corto plazo (Vectores de Correción del Error, VCE). 6 3 h Antes de entrar con los VAR es necesario recordar algunos conceptos utilizados en las series de tiempo. 1. Estacionariedad de las variables. Decimos que una variable yt es estacionaria cuando E (yt ) = µ. Esto implica que la esperanza de la variable en cuestión no depende del tiempo. 2. Integración de las variables. Se dice que una variable yt es integrada de orden I (d ), cuando es necesaria una diferenciación en ese orden para obtener una serie estacionaria. Por ejemplo, si d = 1, entonces ∆yt = yt − yt−1 es estacionaria cuando yt no lo era. 7 4 h Definición Sims (1980). Generalización de los modelos univariantes (ARIMA): supongamos que Yt es un vector compuesto por tres variables, entonces Yt = (zt , xt , vt ). Así, si queremos represetar vectorialmente el siguiente sistema: p p p 1 1 zt = c1 + φ1 11 zt−1 + ... + φ11 zt−p + φ12 xt−1 + ... + φ12 xt−p + φ13 vt−1 + ... + φ13 vt−p + a1t p p p 1 1 xt = c2 + φ21 zt−1 + ... + φ21 zt−p + φ22 xt−1 + ... + φ22 xt−p + φ1 23 vt−1 + ... + φ23 vt−p + a2t p p p 1 1 1 vt = c3 + φ31 zt−1 + ... + φ31 zt−p + φ32 xt−1 + ... + φ32 xt−p + φ33 vt−1 + ... + φ33 vt−p + a3t puede representarse como: Yt = C + Φ1 Yt−1 + ... + Φp Yt−p + at donde E (at ) = 0 yE (at as� ) = Ω si t = s y 0 en caso contrario. En este caso p muestra el retardo del sistema. 8 5 h Cada matriz de coeficientes Φn tiene n φ11 Φn = φn21 φn31 la forma: φn12 φn22 φn32 φn13 φn23 φn33 con dimensión (k × k) con k como número de variables en el sistema y Yt−n zt−n Yt−n = xt−n vt−n con dimenasión (1 × k). 9 6 h Condición de estabilidad Al igual que las series individuales, los VAR deben se estacionarios. Para ellos se “expande” lo conocido hasta ahora: Yt − Φ1 Yt−1 + ... − Φp Yt−p = C + at , Yt (1 − Φ1 L + ... − Φp Lp ) = Φ(L)Yt = C + at , donde Φ(L) es una matriz (k × k) polinomial en el operador de retardos L. Así, cada elemento ij de la matriz φ(L) tiene la forma: [δij − φ1ij L... − φpij Lp ] donde δij = 1 si i = j y cero en caso i �= j. 10 7 h Podemos decir que el VAR es estable si las raíces del sistema |Ik − Φ1 L + ... − Φp Lp | = 0 están fuera del círculo de la unidad. 11 8 h Una consecuencia inmediata de tal condición es que el VAR puede representarse mediante un proceso de media móvil de orden infinito: Yt = µ + at + Ψ1 at−1 + Ψ2 at−2 + ... = µ + Ψ(L)at (1) donde µ = (Ik − Φ1 − Φ2 − ... − Φp )−1 c y Ψ(L) = (Ik + Ψ1 L + Ψ2 L + ...) Recordemos para más adelante que Ψ0 = I . Esta expresión de MA será muy útil más adelante. 12 9 h Estimación de los VAR La estimación se realiza como si estuviéramos ante MCO, aunque desde el punto de vista multivariante. Asi, escribamos de forma más compacta el VAR. Cualquier Var(p) puede expresarse como un VAR de orden 1. Para ello supongamos que podemos expresar un VAR de orden p de la siguiente manera: Yt C Yt−1 at Yt−1 0 Yt−2 0 Yt−2 0 Yt−3 0 = +B + .. .. .. .. . . . . Yt−p−1 0 Yt−p 0 13 10 h donde B es una matrix cuyos elementos son 0, Ik y las matrices Φ. De forma compacta, es posible reescribir el VAR como Y = BZ + A De este modo, podemos obtener la estimación de los elemento de B, y por ello de los Φ a partir de la expresión: B̂ = (Z � Z )−1 Z � Y 14 11 h También puede derivarse la estimación a partir de la máxima verosimilitud. Supongamos que podemos observar cada una de las k variables durante T + p períodos. Para la estimación podemos condicionar cada observación a partir del período p + 1 a partir de los p anteriores. Así, podemos expresar la probabilidad condicional de obtener la muestra observada dentro del vector Yt como: f (YT , YT −1 , ..., Y1 |Y0 , Y1 , ..., Y−p+1 ; θ) donde θ es un vector que contiene los elementos de C , Φ1 , ..., Φp y Ω. Para cualquier yt condicionado a los valores de y desde t − 1, tiene como expresión la suma de una constante C + Φ1 yt−1 + Φ2 yt−2 + ... + Φp yt−p y at ∼ N(0, Ω). Por lo tanto, yt |yt−1 , ..., yt−p ∼ N(C + Φ1 yt−1 + Φ2 yt−2 + ... + Φp yt−p , Ω) 15 12 h Definamos Π� = [C Φ1 Φ2 ...Φp ] Xt� = [1Yt−1 Yt−2 ...Yt−p ] por lo que Yt = Π� Xt + at y yt |yt−1 , ..., yt−p ∼ N(Π� Xt , Ω) 16 13 h La densidad condicional de yt |yt−1 , ..., yt−p es: fyt |yt−1 ,...,yt−p (yt |yt−1 , ..., yt−p , θ) = = (2π)−k/2 |Ω−1 |−1/2 exp[(−1/2)(yt − Π� Xt )� Ω−1 (yt − Π� Xt )] Así, la densidad conjunta de las observaciones 1 a t condicionados a los valores y0 , y1 , ..., y−p+1 satisface fyt yt−1 ,...,y1 |y0 ,y1 ,...,y−p+1 (yt yt−1 , ..., y1 |y0 , y1 , ..., y−p+1 ; θ) = = fyt−1 ,...,y1 |y0 ,y1 ,...,y−p+1 (yt−1 , ..., y1 |y0 , y1 , ..., y−p+1 ; θ) ×fyt |yt−1 ,yt−2 ,...,y−p+1 (yt |yt−1 , yt−2 , ..., y−p+1 ; θ) 17 14 h Aplicando esta fórmula de forma recursiva, obtenemos que para el conjunto de la muestra yT , yT −1 , ..., yT −p condicionado a y0 , y1 , ..., y−p+1 , la probabilidad conjunta es el producto de las probabilidades individuales condicionadas: fyT ,yT −1 ,...,y1 |y0 ,y1 ,...,y−p+1 (yT , yT −1 , ..., y1 |y0 , y1 , ..., y−p+1 ; θ) = = T � t=1 fyt |yt−1 ,yt−2 ,...,y−p+1 (yt |yt−1 , yt−2 , ..., y−p+1 ; θ) 18 15 h Resumiendo, la máxima verosimilitud se expresa como L(θ) = t � t=1 logf (Yt |past; θ) concretamente, la verosimilitud tiene la forma que sigue: L(θ) = −(Tk/2)log (2π) + (T /2)log |Ω−1 | −(1/2) T � � t=1 (Yt − Π� Xt )� Ω−1 (Yt − Π� Xt ) (2) � Resulta conveniente considerar que la estimación por máxima verosimilitud ofrece el estimador que es el mismo que se obtendría si hiciéramos la regresión de Yt respecto a Zt . Por lo tanto ambas estimaciones, MVL y MCO son similares en los VAR. 19 16 h La estimación de (2) nos permite obtener tanto el valor de Π̂k×(kp×1) como de Ω̂k×k . Donde Π̂ = y � T � t=1 Xt� Xt �−1 � Ω̂ = (1/T ) T � T � Xt� Yt t=1 � ât ât� t=1 donde ât = Yt − Π̂� Xt 20 17 h Determinación del orden del VAR (p) Para conocer el orden del VAR (p) es necesario previamente definir el Test de Ratio de Verosimilitud. Supongamos que hemos estimado Π̂ y Ω̂. En este caso obtendríamos un valor para la función de verosimilitud (que sería el máximo dada las estimaciones): L(Π̂, Ω̂) = −(Tk/2)log (2π) + (T /2)log |Ω̂ −1 | − (1/2) T � � ât� Ω̂.1 ât t=1 � Bajo una serie de hipótesis el último apartado del término de la derecha de la anterior expresión es igual a Tk/2 por lo que L(Π̂, Ω̂) = −(Tk/2)log (2π) + (T /2)log |Ω̂−1 | − (Tn/2) 21 18 h Supongamos que quiero saber si determinado lag p1 es preferible a una especificación alternativa p0 donde p1 > p0 . Para ello estimo mediante MCO Ω̂0 y Ω̂1 . Obtendremos de esta manera L0 y L1 . Mediante la diferencia: 2(L1 − L0 ) = T {log |Ω̂0 | − log |Ω̂1 |} que bajo la hipótesis nula se distribuye como una χ2 (k 2 (p1 − p0 )), p1 − p0 restricciones por cada variable y ecuación estimada, por ello k(p1 − p0 ) restricciones por ecuación. Como hay k ecuaciones, los grados de libertad son k 2 (p1 − p0 ). 22 19 h Por ejemplo, supongamos que p1 = 4 frente a p0 = 3. Supongamos que tenemos 50 observaciones para dos variables (k = 2). Así T = 46, ya que estimamos con 4 lags. Supongamos que: � � 2.0 1.0 Ω̂0 = 1.0 2.5 y Ω̂1 = de este modo: � 1.8 0.9 0.9 2.2 � 2(L1 − L0 ) = 46(1.386 − 1.147)=10.99 como los grados de libertad son 22 (4 − 3) = 4, entonces 10.99 > 9.49 (el valor crítico del 5% para una χ2 (4), la hipótesis nula es rechazada. Un lag de 4 parece más razonable que uno de 3. 23 20 h Representación MA y teorema de Wald La estimación de Π̂ no resulta útil pues su interpretación económica es j difícil de obtener. Esto es así en gran parte ya que la variable yt−p puede j h , por ejemplo. Esto estar fuertemente correlacionada con yt−p−1 o con yt−p genera fuerte multicolinealidad entre los elementos de Π. Para intentar estimaciones que tengan significado económico, lo que se hace es representar el VAR en términos de medias móviles o MA. Retomando la expresión (1) Yt = µ + at + Ψ1 at−1 + Ψ2 at−2 + ... = µ + Ψ(L)at y obteniendo Ψ̂ a partir de las estimaciones Π̂, podemos obtener la especificación MA. 24 21 h Por ejemplo, en términos de la variable i, la especificación MA puede expresarse como: yti = γi + ∞ � t=0 y j ψijp at−p donde ψijp expresa el efecto de la j innovación en la variable i de hace p períodos. No obstante la estimación de ψijp directamente de esta especificación no es totalmente correcto. 25 22 h Volvamos a (1). En este caso, la covarianza de los “regresores” es E (at at� ) = Ω que no es la matriz identidad. Es por ello que existe multicolinealidad entre los regresores y esto afecta a las estimaciones de los coeficientes ψ. Por ello es necesario una leve modificación para obtener coeficientes que no incluyan ruido derivado de la multicolinealidad. Hagamos los siguientes cambios: C (L) = Ψ(L)Ω1/2 ηt = Ω−1/2 at De esta manera Yt = µ + Ψ(L)Ω1/2 Ω−1/2 at = µ + C (L)ηt donde ahora E (ηt ηt� ) = D es una matriz diagonal. 26 23 h hagamos la representación de la ecuación para la variable i. yti = µi + ∞ � n � p=0 j=1 j cijp ηt−p donde ahora el coeficiente cijp sí puede expresarse como el efecto que la j innovación ηt−p tiene sobre la variable yti . Esta modificación es la llamada Descomposición Ortogonal de Wald. En la terminología de VAR, cijp es la llamada función de impulso-respuesta. 27 24