Tema 3 experto universitario (PARTE 1)

Anuncio
TEMA 3. VECTORES AURORREGRESIVOS
(PARTE 1)
Manuel Alejandro Hidalgo Pérez
Universidad Pablo de Olavide
Dpto. de Economía
1
h
Introducción
Los vectores autorregresivos (VAR) se hacen popular en economía gracias a
la introducción de los mismos por Sims (1980) para la estimación de
ecuaciones simultáneas.
Una de las razones fue la disponibilidad de series de tiempo cada vez más
largas, lo que permitía realizar análisis dinámicos más detallados.
Una de las ventajas (posible inconveniente) es que los VAR consideran a
todas las variables endógenas, eludiendo las exogeneidades a juicio del
investigador
5
2
h
No obstante, extensiones de los VAR permiten establecer restricciones que
determinan si algunas variables son más o menos exógenas.
Los VAR pueden utilizarse para el análisis económico, mediante las
funciones de impulso-respuesta. Así, se pueden introducir restricciones
sobre las relaciones entre las variables para obtener análisis económicos
derivados de modelos predeterminados (VAR estructurales).
Obviamente, los VAR también pueden usarse para realizar predicciones.
Por último, es posible desligar estas relaciones entre variables entre aquellas
que se establecen en el largo plazo, con aquellas que lo hacen en el corto
plazo (Vectores de Correción del Error, VCE).
6
3
h
Antes de entrar con los VAR es necesario recordar algunos conceptos
utilizados en las series de tiempo.
1. Estacionariedad de las variables.
Decimos que una variable yt es estacionaria cuando E (yt ) = µ. Esto
implica que la esperanza de la variable en cuestión no depende del tiempo.
2. Integración de las variables.
Se dice que una variable yt es integrada de orden I (d ), cuando es necesaria
una diferenciación en ese orden para obtener una serie estacionaria. Por
ejemplo, si d = 1, entonces ∆yt = yt − yt−1 es estacionaria cuando yt no
lo era.
7
4
h
Definición
Sims (1980).
Generalización de los modelos univariantes (ARIMA):
supongamos que Yt es un vector compuesto por tres variables, entonces
Yt = (zt , xt , vt ). Así, si queremos represetar vectorialmente el siguiente
sistema:
p
p
p
1
1
zt = c1 + φ1
11 zt−1 + ... + φ11 zt−p + φ12 xt−1 + ... + φ12 xt−p + φ13 vt−1 + ... + φ13 vt−p + a1t
p
p
p
1
1
xt = c2 + φ21 zt−1 + ... + φ21 zt−p + φ22 xt−1 + ... + φ22 xt−p + φ1
23 vt−1 + ... + φ23 vt−p + a2t
p
p
p
1
1
1
vt = c3 + φ31 zt−1 + ... + φ31 zt−p + φ32 xt−1 + ... + φ32 xt−p + φ33 vt−1 + ... + φ33 vt−p + a3t
puede representarse como:
Yt = C + Φ1 Yt−1 + ... + Φp Yt−p + at
donde E (at ) = 0 yE (at as� ) = Ω si t = s y 0 en caso contrario. En este caso
p muestra el retardo del sistema.
8
5
h
Cada matriz de coeficientes Φn tiene
 n
φ11
Φn =  φn21
φn31
la forma:
φn12
φn22
φn32
φn13
φn23
φn33


con dimensión (k × k) con k como número de variables en el sistema y
Yt−n


zt−n
Yt−n =  xt−n 
vt−n
con dimenasión (1 × k).
9
6
h
Condición de estabilidad
Al igual que las series individuales, los VAR deben se estacionarios. Para
ellos se “expande” lo conocido hasta ahora:
Yt − Φ1 Yt−1 + ... − Φp Yt−p = C + at ,
Yt (1 − Φ1 L + ... − Φp Lp ) = Φ(L)Yt = C + at ,
donde Φ(L) es una matriz (k × k) polinomial en el operador de retardos L.
Así, cada elemento ij de la matriz φ(L) tiene la forma:
[δij − φ1ij L... − φpij Lp ]
donde δij = 1 si i = j y cero en caso i �= j.
10
7
h
Podemos decir que el VAR es estable si las raíces del sistema
|Ik − Φ1 L + ... − Φp Lp | = 0
están fuera del círculo de la unidad.
11
8
h
Una consecuencia inmediata de tal condición es que el VAR puede
representarse mediante un proceso de media móvil de orden infinito:
Yt = µ + at + Ψ1 at−1 + Ψ2 at−2 + ... = µ + Ψ(L)at
(1)
donde µ = (Ik − Φ1 − Φ2 − ... − Φp )−1 c y Ψ(L) = (Ik + Ψ1 L + Ψ2 L + ...)
Recordemos para más adelante que Ψ0 = I .
Esta expresión de MA será muy útil más adelante.
12
9
h
Estimación de los VAR
La estimación se realiza como si estuviéramos ante MCO, aunque desde el
punto de vista multivariante.
Asi, escribamos de forma más compacta el VAR. Cualquier Var(p) puede
expresarse como un VAR de orden 1. Para ello supongamos que podemos
expresar un VAR de orden p de la siguiente manera:

 


 

Yt
C
Yt−1
at
 Yt−1   0 
 Yt−2   0 

 


 

 Yt−2   0 
 Yt−3   0 

=
+B
+








..
..
..
.. 







.
.
.
. 
Yt−p−1
0
Yt−p
0
13
10
h
donde B es una matrix cuyos elementos son 0, Ik y las matrices Φ.
De forma compacta, es posible reescribir el VAR como
Y = BZ + A
De este modo, podemos obtener la estimación de los elemento de B, y por
ello de los Φ a partir de la expresión:
B̂ = (Z � Z )−1 Z � Y
14
11
h
También puede derivarse la estimación a partir de la máxima verosimilitud.
Supongamos que podemos observar cada una de las k variables durante
T + p períodos. Para la estimación podemos condicionar cada observación
a partir del período p + 1 a partir de los p anteriores. Así, podemos
expresar la probabilidad condicional de obtener la muestra observada dentro
del vector Yt como:
f (YT , YT −1 , ..., Y1 |Y0 , Y1 , ..., Y−p+1 ; θ)
donde θ es un vector que contiene los elementos de C , Φ1 , ..., Φp y Ω.
Para cualquier yt condicionado a los valores de y desde t − 1, tiene como
expresión la suma de una constante
C + Φ1 yt−1 + Φ2 yt−2 + ... + Φp yt−p
y at ∼ N(0, Ω). Por lo tanto,
yt |yt−1 , ..., yt−p ∼ N(C + Φ1 yt−1 + Φ2 yt−2 + ... + Φp yt−p , Ω)
15
12
h
Definamos
Π� = [C Φ1 Φ2 ...Φp ]
Xt� = [1Yt−1 Yt−2 ...Yt−p ]
por lo que
Yt = Π� Xt + at
y
yt |yt−1 , ..., yt−p ∼ N(Π� Xt , Ω)
16
13
h
La densidad condicional de yt |yt−1 , ..., yt−p es:
fyt |yt−1 ,...,yt−p (yt |yt−1 , ..., yt−p , θ) =
= (2π)−k/2 |Ω−1 |−1/2 exp[(−1/2)(yt − Π� Xt )� Ω−1 (yt − Π� Xt )]
Así, la densidad conjunta de las observaciones 1 a t condicionados a los
valores y0 , y1 , ..., y−p+1 satisface
fyt yt−1 ,...,y1 |y0 ,y1 ,...,y−p+1 (yt yt−1 , ..., y1 |y0 , y1 , ..., y−p+1 ; θ) =
= fyt−1 ,...,y1 |y0 ,y1 ,...,y−p+1 (yt−1 , ..., y1 |y0 , y1 , ..., y−p+1 ; θ)
×fyt |yt−1 ,yt−2 ,...,y−p+1 (yt |yt−1 , yt−2 , ..., y−p+1 ; θ)
17
14
h
Aplicando esta fórmula de forma recursiva, obtenemos que para el conjunto
de la muestra yT , yT −1 , ..., yT −p condicionado a y0 , y1 , ..., y−p+1 , la
probabilidad conjunta es el producto de las probabilidades individuales
condicionadas:
fyT ,yT −1 ,...,y1 |y0 ,y1 ,...,y−p+1 (yT , yT −1 , ..., y1 |y0 , y1 , ..., y−p+1 ; θ) =
=
T
�
t=1
fyt |yt−1 ,yt−2 ,...,y−p+1 (yt |yt−1 , yt−2 , ..., y−p+1 ; θ)
18
15
h
Resumiendo, la máxima verosimilitud se expresa como
L(θ) =
t
�
t=1
logf (Yt |past; θ)
concretamente, la verosimilitud tiene la forma que sigue:
L(θ) = −(Tk/2)log (2π) + (T /2)log |Ω−1 |
−(1/2)
T
�
�
t=1
(Yt − Π� Xt )� Ω−1 (Yt − Π� Xt )
(2)
�
Resulta conveniente considerar que la estimación por máxima verosimilitud
ofrece el estimador que es el mismo que se obtendría si hiciéramos la
regresión de Yt respecto a Zt .
Por lo tanto ambas estimaciones, MVL y MCO son similares en los VAR.
19
16
h
La estimación de (2) nos permite obtener tanto el valor de Π̂k×(kp×1) como
de Ω̂k×k . Donde
Π̂ =
y
�
T
�
t=1
Xt� Xt
�−1 �
Ω̂ = (1/T )
T
�
T
�
Xt� Yt
t=1
�
ât ât�
t=1
donde ât = Yt − Π̂� Xt
20
17
h
Determinación del orden del VAR (p)
Para conocer el orden del VAR (p) es necesario previamente definir el Test
de Ratio de Verosimilitud.
Supongamos que hemos estimado Π̂ y Ω̂. En este caso obtendríamos un
valor para la función de verosimilitud (que sería el máximo dada las
estimaciones):
L(Π̂, Ω̂) = −(Tk/2)log (2π) + (T /2)log |Ω̂
−1
| − (1/2)
T �
�
ât� Ω̂.1 ât
t=1
�
Bajo una serie de hipótesis el último apartado del término de la derecha de
la anterior expresión es igual a Tk/2 por lo que
L(Π̂, Ω̂) = −(Tk/2)log (2π) + (T /2)log |Ω̂−1 | − (Tn/2)
21
18
h
Supongamos que quiero saber si determinado lag p1 es preferible a una
especificación alternativa p0 donde p1 > p0 . Para ello estimo mediante
MCO Ω̂0 y Ω̂1 . Obtendremos de esta manera L0 y L1 .
Mediante la diferencia:
2(L1 − L0 ) = T {log |Ω̂0 | − log |Ω̂1 |}
que bajo la hipótesis nula se distribuye como una χ2 (k 2 (p1 − p0 )), p1 − p0
restricciones por cada variable y ecuación estimada, por ello k(p1 − p0 )
restricciones por ecuación. Como hay k ecuaciones, los grados de libertad
son k 2 (p1 − p0 ).
22
19
h
Por ejemplo, supongamos que p1 = 4 frente a p0 = 3. Supongamos que
tenemos 50 observaciones para dos variables (k = 2). Así T = 46, ya que
estimamos con 4 lags. Supongamos que:
�
�
2.0 1.0
Ω̂0 =
1.0 2.5
y
Ω̂1 =
de este modo:
�
1.8 0.9
0.9 2.2
�
2(L1 − L0 ) = 46(1.386 − 1.147)=10.99
como los grados de libertad son 22 (4 − 3) = 4, entonces 10.99 > 9.49 (el
valor crítico del 5% para una χ2 (4), la hipótesis nula es rechazada. Un lag
de 4 parece más razonable que uno de 3.
23
20
h
Representación MA y teorema de Wald
La estimación de Π̂ no resulta útil pues su interpretación económica es
j
difícil de obtener. Esto es así en gran parte ya que la variable yt−p
puede
j
h , por ejemplo. Esto
estar fuertemente correlacionada con yt−p−1
o con yt−p
genera fuerte multicolinealidad entre los elementos de Π.
Para intentar estimaciones que tengan significado económico, lo que se
hace es representar el VAR en términos de medias móviles o MA.
Retomando la expresión (1)
Yt = µ + at + Ψ1 at−1 + Ψ2 at−2 + ... = µ + Ψ(L)at
y obteniendo Ψ̂ a partir de las estimaciones Π̂, podemos obtener la
especificación MA.
24
21
h
Por ejemplo, en términos de la variable i, la especificación MA puede
expresarse como:
yti = γi +
∞
�
t=0
y
j
ψijp at−p
donde ψijp expresa el efecto de la j innovación en la variable i de hace p
períodos.
No obstante la estimación de ψijp directamente de esta especificación no es
totalmente correcto.
25
22
h
Volvamos a (1). En este caso, la covarianza de los “regresores” es
E (at at� ) = Ω
que no es la matriz identidad. Es por ello que existe multicolinealidad entre
los regresores y esto afecta a las estimaciones de los coeficientes ψ. Por
ello es necesario una leve modificación para obtener coeficientes que no
incluyan ruido derivado de la multicolinealidad.
Hagamos los siguientes cambios:
C (L) = Ψ(L)Ω1/2
ηt = Ω−1/2 at
De esta manera
Yt = µ + Ψ(L)Ω1/2 Ω−1/2 at = µ + C (L)ηt
donde ahora E (ηt ηt� ) = D es una matriz diagonal.
26
23
h
hagamos la representación de la ecuación para la variable i.
yti = µi +
∞ �
n
�
p=0 j=1
j
cijp ηt−p
donde ahora el coeficiente cijp sí puede expresarse como el efecto que la
j
innovación ηt−p
tiene sobre la variable yti . Esta modificación es la llamada
Descomposición Ortogonal de Wald.
En la terminología de VAR, cijp es la llamada función de impulso-respuesta.
27
24
Descargar