Series de Tiempo Estacionarias (Multivariadas)

Anuncio
Econometrı́a de series de tiempo aplicada a
macroeconomı́a y finanzas
Series de Tiempo Estacionarias (Multivariadas)
Carlos Capistrán Carmona
ITAM
Vectores Autorregresivos (VARs)
1
Principios de Pronóstico.
2
Pruebas de Hipótesis.
3
Estimación por Máxima Verosimilitud.
4
Vectores Autorregresivos.
Vectores Autorregresivos (VARs)
Principios de pronóstico
y1t−1 , y1t−2 , . . . , y1t−p
y2t−1 , y2t−2 , . . . , y2t−p
Queremos pronosticar y1t con base en:
..
.
ynt−1 , ynt−2 , . . . , y3n−p
En adición, podemos agregar funciones determinı́sticas del
tiempo, como 1, t, cos( πt
6 ), dummies estacionales, etc.
Vectores Autorregresivos (VARs)
Principios de pronóstico
Definimos:
yt
(nx1)
xt
(kx1)
= (y1t , y2t , ..., ynt )0
= (1, y0 t−1 , y0 t−2 , ..., y0 t−p )0
k = np + 1
Vectores Autorregresivos (VARs)
Principios de pronóstico
Consideramos el pronóstico lineal:
ŷ1t|t−1 = β0 xt
El mejor pronóstico es: el valor de β que minimiza:
E(y1t − β0 xt )2
Vectores Autorregresivos (VARs)
Principios de pronóstico
Proposición: Si yt es estacionario en covarianza, y E(xt xt ) es
no-singular, el pronóstico óptimo utiliza:
β∗ = E(xt xt )−1 E(xt yt )
Vectores Autorregresivos (VARs)
Principios de pronóstico
Definición: El pronóstico lineal óptimo
ŷ1t|t−1 = β∗0 xt
es llamado “proyección lineal poblacional” de y1t sobre xt .
Vectores Autorregresivos (VARs)
Principios de pronóstico
Definición: La estimación de Mı́nimos Cuadrados Ordinarios
(OLS por sus siglas en inglés) está dada por:
T
β̂ =
∑ xt x 0 t
! −1
t=1
T
Proposición: Si yt es ergódica, entonces
p
β̂→ β∗
∑ xt yt
t=1
!
Vectores Autorregresivos (VARs)
Principios de pronóstico
Prueba (Ley de los grandes números):
T
T − 1 ∑ xt x 0 t
β̂ =
! −1
t=1
p
−1
T
T −1 ∑ xt yt
→ E(xt x0t ) E(xt yt )
t=1
!
Vectores Autorregresivos (VARs)
1
Principios de Pronóstico.
2
Pruebas de Hipótesis.
3
Estimación por Máxima Verosimilitud.
4
Vectores Autorregresivos.
Vectores Autorregresivos (VARs)
Pruebas de hipótesis
Hasta ahora hemos asumido que:
I
I
yt es estacionaria y ergódica
E(xt x0t ) es no singular
a partir de eso concluimos que:
I
Mı́nimos cuadrados ordinarios (OLS) arroja estimadores
consistentes de los pesos de pronóstico óptimos.
Vectores Autorregresivos (VARs)
Pruebas de hipótesis
Supongamos que deseamos hacer una prueba de hipótesis, e.g.
H0 : y2,t−1 , y2,t−2 , . . . , y2,t−p
no ayudan a pronosticar y1t
Vectores Autorregresivos (VARs)
Pruebas de hipótesis
Necesitamos supuestos mas fuertes para hacer pruebas de
hipótesis:
ε t = y1t − β∗0 xt
E( ε t
E(ε2t )
E(ε4t )
| y1t , y2t , ..., y1 ) = 0
= σ2
< ∞
Entonces: todas las pruebas usuales de OLS t o F sobre β̂ son
válidas para obtener conclusiones acerca de β∗
Vectores Autorregresivos (VARs)
Pruebas de hipótesis
Siguiendo con el ejemplo, la prueba de hipótesis,
H0 : y2,t−1 , y2,t−2 , . . . , y2,t−p
no ayudan a pronosticar y1t
se puede llevar a cabo usando una prueba F usual.
Si los coeficientes de y2,t−1 , y2,t−2 , . . . , y2,t−p son todos cero (i.e. si
no rechazamos la hipótesis nula), entonces decimos que “y2 no
causa a la Granger a y1 ”
Vectores Autorregresivos (VARs)
1
Principios de Pronóstico.
2
Pruebas de Hipótesis.
3
Estimación por Máxima Verosimilitud.
4
Vectores Autorregresivos.
Vectores Autorregresivos (VARs)
Estimación por máxima verosimilitud
Ahora hagamos un supuesto más fuerte:
ε t | yt−1 , yt−2 , ..., y1 ∼ N (0, σ2 )
En este caso, la función de (log) verosimilitud condicional
muestral serı́a:
T
∑ log f (y1t
|
yt−1 , yt−2 , ..., yt−p )
t=1
T
T
= − log(2πσ2 ) −
2
∑ (y1t − β0 xt )
t=1
2σ2
2
Vectores Autorregresivos (VARs)
Estimación por máxima verosimilitud
El valor de β que maximiza la (log) verosimilitud es el estimador
de OLS β̂.
El estimador de máxima verosimilitud (MLE) de σ2 es:
T
σ2 = T −1 ∑ (y1t − β̂0 xt )2
t=1
Vectores Autorregresivos (VARs)
Estimación por máxima verosimilitud
Una opción es maximizar la función de verosimilitud incluso si no
creemos el supuesto sobre la distribución, en ese caso, tenemos
estimación por cuasi-máxima verosimilitud.
Si el supuesto de la distribución es incorrecto (lo cierto es que
ε t ∼Student t), entonces MLE aún es consistente, pero ya no es
eficiente.
Vectores Autorregresivos (VARs)
Estimación por máxima verosimilitud
Por otro lado, si estamos convencidos de que los errores siguen
una distribución t de Student, es mejor escoger ( β, σ, ν) para
T
maximizar ∑ qt :
t=1
qt = log Γ
ν+1
2
1
log(σ2 νπ )
2
2
ν+1
(yt − β0 xt )2
−
log 1 +
2
νσ2
− log Γ
ν
−
Vectores Autorregresivos (VARs)
1
Principios de Pronóstico.
2
Pruebas de Hipótesis.
3
Estimación por Máxima Verosimilitud.
4
Vectores Autorregresivos.
Vectores Autorregresivos (VARs)
Hasta ahora, sólo hemos considerado el pronóstico de y1t , el
primer elemento del vector yt , usando:
y1t = π10 xt + ε 1t
xt
(kx1)
= (1, yt0 −1 , yt0 −2 , . . . , yt0 −p )0
k = np + 1
ε 1t = error al pronosticar la variable 1
Vectores Autorregresivos (VARs)
Obviamente, es posible establecer modelos análogos para
pronosticar la segunda variable:
y2t = π20 xt + ε 2t
xt
(kx1)
= (1, yt0 −1 , yt0 −2 , . . . , yt0 −p )0
Vectores Autorregresivos (VARs)
Apilando las ecuaciones en un sistema de vectores, tenemos:



  0 
ε 1t
π1
y1t
 ε 2t 
 y2t   π 0 



  2 
 ..  =  ..  xt +  .. 
 . 
 .   . 
ynt
πn0
ε nt
Vectores Autorregresivos (VARs)
yt
(nx1)
= Π0
xt
(nxk) (kx1)
+ εt
(nx1)

Π 0 xt =
c Φ1 Φ2 · · ·
1
 yt−1


Φp  yt−2
 ..
 .
yt−p







Vectores Autorregresivos (VARs)
yt = c + Φ1 yt−1 + Φ2 yt−2 + . . . + Φp yt−p + ε t
Llamado un Vector Autorregresivo (VAR)
Vectores Autorregresivos (VARs)
Si todos los escalares z (incluso complejos) que satisfacen
| In − Φ1 z − Φ2 z2 − ... − Φp zp |= 0
tambien satisfacen ||z|| > 1, entonces yt es estacionario en
covarianza.
Vectores Autorregresivos (VARs)
Ahora hacemos el supuesto de que ε t ∼ N (0, Ω):
log f yt , y2 , . . . , yT | y0 , y−1 , . . . , y−p+1
T
=
∑ log f
yt | yt−1 , yt−2 , . . . , yt−p
t=1
=
0
−Tn
T
1 T
log (2π ) − log |Ω| − ∑ yt − Π0 xt Ω−1 yt − Π0 xt
2
2
2 t=1
Vectores Autorregresivos (VARs)
Resultado 1: el i-ésimo renglón del estimador de máxima
verosimilitud de Π0 está dado por:
bt0 =
π
T
∑ yit xt0
t=1
!
T
∑ xt xt0
t=1
Es decir, es OLS ecuación por ecuación.
! −1
Vectores Autorregresivos (VARs)
Resultado 2: el estimador de máxima verosimilitud Ω está dado
por:
T
b = T −1 ∑ b
Ω
ε tb
ε0t
t=1
Vectores Autorregresivos (VARs)
Resultado 3: el valor máximo de la log-verosimilitud está dado
por:
T
−Tn
b
[1 + log (2π )] − log Ω
2
2
Vectores Autorregresivos (VARs)
Aplicación del resultado 3: prueba (contraste) de la razón de
verosimilitud
Prueba con la muestra completa de:
H0 : p − 1 rezagos
HA : p rezagos
donde
T
b (p − 1 ) = T −1 ∑ b
Ω
ε t (p − 1) b
ε0t (p − 1)
t=1
T
b (p ) = T −1 ∑ b
Ω
ε t (p) b
ε0t (p)
t=1
b
ε t (s) = residuales de un VAR con s rezagos
Vectores Autorregresivos (VARs)
entonces, dos veces la razón de verosimilitud es:
i
h
b
b
( p ) ∼ χ 2 n2
(p − 1) − log Ω
T log Ω
la corrección de Sims para muestras pequeñas:
i
h
b
b
(p − 1) − log Ω
(p) ∼ χ2 n2
(T − k) log Ω
Vectores Autorregresivos (VARs)
Criterio de información de Akaike:
2
pn
b
minimizar log Ω(p) + 2
T
Criterio de información de Schwarz:
2
pn
b
minimizar log Ω(p) + log T
T
“Regla de dedo”: p ≥ 4 para datos trimestrales, usar rezagos 1 − 6
y 11 − 13 para datos mensuales
Vectores Autorregresivos (VARs)
Descargar