7 Autocorrelación

Anuncio
7 Autocorrelación
Definición y causas de autocorrelación
Definición: valores están relacionados en momentos diferentes en el tiempo.
Un valor positivo (o negativo) de u t genera una sucesión de valores positivos (o
negativos). Esto es autocorrelación positiva. Autocorrelación también puede
manifestarse por la alternancia de signos en la sucesión de valores. Entonces se llama
autocorrelación negativa.
Causas:
La existencia de ciclos y/o tendencias
Valores pueden mostrar tendencias crecientes en el tiempo. Si el variable dependiente
tiene este comportamiento y las variables explicativas no consiguen captarlo, la
perturbación presentaría autocorrelación positiva.
Variables pueden tener un comportamiento cíclico, fluctuaciones en el entorno de un
valor medio (fases de expansión y depresión). Si las variables explicativas no consiguen
captar este ciclo, también presentaría una autocorrelación positiva.
Relaciones no lineales
Un estimación lineal de una relación non lineal provocará errores con autocorrelación
positiva.
y = β 1 + β 2 x 2t + β 3 x 22t + u t
correcta
y = β 1 + β 2 x 2t + v t
estimada
La omisión de variables relevantes
y = β 1 + β 2 x 2 i + β 3 x 3t + u t
correcta
y = β 1 + β 2 x 2t + v t
estimada
donde vt = u t + β 3 x3t
Los residuos no serán independientes del tiempo.
Modelos lineales que permiten caracterizar al fenómeno de la autocorrelacion: los
esquemas autorregresivos (AR) y media-móvil (MA).
AR( p ); u t = φ1u t −1 + φ 2 u t − 2 + ... + φ p u t − p + ε t
con ε t ≈ N (0, σ ε2 )
donde φi (i = 1,2,..., p ) representa el peso asignado a cada retardo de la variable. ε t es
un término aleatorio, independiente e idénticamente distribuido (“ruido blanco”).
MA(q); ut = ε t + θ1ε t −1 + θ 2ε t − 2 + ... + θ qε t − q
con ε t ≈ N (0,σ ε2 )
donde θi
(i = 1,2,..., q ) representa el peso asignado a cada retardo del error ruido
blanco. ε t es un término aleatorio, independiente e idénticamente distribuido (“ruido
blanco”).
Ejemplo: AR(1), MA(1).
AR(1): La correlación entre momentos diferentes del tiempo, no se limita a dos
periodos sucesivitos (t , t − 1) , sino que se mantiene para cualquier distancia entre esos
dos momentos del tiempo (t , t − k ) . (Memoria ilimitada).
MA(1): La correlación en momentos diferentes del tiempo sólo se mantiene en dos
períodos inmediatamente sucesivos (t , t − 1) , (t − 1, t − 2) etc., desapareciendo cuando la
distancia en el tiempo es superior al orden (q ) del MA. (Memoria limitada).
AR(1)
 1
φ
φ2

φ
φ
1
2 
σε  2
φ
φ
1
1−φ2 
M
M
 M
φ N −1 φ N − 2 φ N − 3

L φ N −1 

L φ N −2 
L φ N −3 

O
M 
L
1 
MA(1)
1 θ
θ 1 θ

 θ 1 O
(1 − θ 2 )σ ε2 
O O


0
θ


0
θ
1
θ






θ

1 
Estimación
AR(1):
βˆ MCG = ( X ' Ω −1 X ) −1 X ' Ω −1 y
βˆ MCG = ( X * ' X * ) −1 X * ' y*
donde : y* = Ty, X * = TX, u * = Tu
El matriz de transformación puede expresares como;
 1−φ 2

 −φ

T =




1
O O
O
0
O
−φ


0


.


1

− φ 1
Los datos para el modelo transformado son,
 1−φ2 y 
1


 y2 − φy1 
y* =  y3 − φy2 ,


M




 yT − φyT −1 
 1−φ2 x 
1


 x2 − φx1 
X * =  x3 − φx2 


M




 xT − φxT −1 
Hay que estimar el parámetro φ . Este se explica en la parte de estimación mas tarde.
Antes tenemos que averiguar si tenemos autocorrelación en los residuos.
Las funciones de autocorrelación simples (FAS) y parcial (FAP) de los
residuos.
Autocorrelación simple:
N
∑e e
t t −k
ρ̂ =
t =k
N
∑e
2
t
t =1
ρ̂1 (1er orden) mide la correlación entre et y et −1 . ρ̂ 2 (2º orden) mide la correlación
entre et y et − 2 etc. Se puede usar la varianza para determinar la significación
estadística.
vâr( ρˆ k ) =
k −1
1

1 + 2∑ ρˆ k2 
N
k =1

Un valor de ρ̂ k se puede considerar distinto de 0 cuando ρˆ k > 2 vâr( ρˆ k ) .
Se puede usar FAS para distinguir entre procesos AR y MA. Recuerda que AR tiene
memoria ilimitada mientras MA tiene memoria limitada:
MA: ρˆ1 , ρˆ 2 ,..., ρˆ k ≠ 0, pero ρˆ k +1 ≈ 0.
AR: valores decrecientes, pero > 0.
Función de autocorrelación parcial
Se puede calcular FAP a través distintas regresiones con et como variable
dependiente y et −1 , et − 2 etc. como variables explicativas.
et = φ11et −1 + vt
et = φ11et −1 + φ 22 et −2 + vt
M
et = φ k1et −1 + φ k 2 et − 2 + ... + φ kk et −k vt
⇒ φˆ11
⇒ φˆ22
M
M
ˆ
⇒ φ kk
FAP orden 1
FAP orden 2
M
FAP orden k
vâr(φˆkk ) = 1 / N
2
Cuando φˆkk >
rechazamos la hipótesis de φˆkk = 0 .
N
FAP puede determinar el orden autoregresivo. Por ejemplo, si φˆ22 ≠ 0 , se trata de
por lo menos AR(2).
FAS y FAP pueden ilustrarse en correlogramas.
[Gráfico]
Contrastes de autocorrelación
1. la hipótesis nula es no autocorrleación.
2. la construcción esta basada en los residuos de la estimación por MCO (sin considerar
la posible autocorrelación).
[Gráfico]
Durbin-Watson
Hipótesis alternativa: AR(1).
1) Obtener residuos a través de la estimación MCO sin considerar posible
autocorrelación.
2) El estadístico de contraste es:
N
∑ (e
DW =
t
− et −1 ) 2
t =2
N
∑e
2
t
H 0 : ut = ε t


 H A : u t = φu t −1 + ε t
t =1
Cuando N → ∞ , DW = 2(1 − ρ ) , donde ρ es el coeficiente de correlación simple
entre et y et −1 .
N
∑e e
t t −1
ρ̂ =
es φˆ , la estimación del parámetro del esquema AR(1) para u t .
t =2
N
∑e
2
t
t =1
− 1 < ρˆ < 1 y entonces 0 < DW < 4 y la interpretación únicamente cuando N → ∞
es:
DW → 0 ( ρ → 1) ⇒ autocorrelación (φ > 0)
DW → 2 ( ρ → 0) ⇒ no autocorrelación (φ = 0)
DW → 4 ( ρ → −1) ⇒ autocorrelación (φ < 0)
En muestras finitas hay que aplicar una tabla con valores críticos
( d inf , d sup ). (Ve página 172 y …)
DW < 2
DW > 2
d inf ≤ DW ≤ d sup
si DW < d inf autocorrelación positiva

 si DW > d sup no autocorrelación
si DW > 4 − d inf autocorrelación negativa

si DW < d sup no autocorrelación

o 4 − d sup ≤ DW ≤ 4 − d inf {inde
Limitaciones:
1) Su potencia es limitada para otras hipótesis alternativas. (AR(>1), MA).
2) No se puede usar los valores d inf , d sup cuando la regresión incluye la variable
endógena retardada. (Modelos dinámicos).
Breusch-Godfrey
1) Estima el modelo original por MCO para conseguir los residuos.
2) Utiliza los residuos como la variable endógena en una regresión auxiliar con
k + r regresores: k = regresores en el modelo. r = cantidad de retardos de los
residuos ( et −1 , et − 2 ,..., et −r ) . r depende del supuesto sobre la estructura de la
perturbación. et = β1 + β 2 x 2,t + ... + β k x k ,t + γ 1et −1 + γ 2 et − 2 + ... + γ r et − r + vt .
3) El estadístico de contraste es:
H 0 : ut = ε t

 H : u = φ u + ... + φ u + ε ( AR ( p )) o
1 t −1
p t− p
t
G ( χ [r ]) = NR  A t

ut = ε t + φ1ε t −1 + ... + φqut − q ( MA(q ))

2
2
*
H 0 : ut = ε t


G( χ 2 [ r ]) = ( N − r )R*2  H A : ut = φ1ut −1 + ... + φ p ut − p + ε t ( AR( p )) o

ut = ε t + φ1ε t −1 + ... + φq ut − q ( MA( q ))

donde R*2 es el coeficiente de determinación de la regresión auxiliar. El valor de
NR*2 ( N − r )R*2 se compara con el valor critico en la distribución χ 2 , con r grados
de libertad.
X ' e = 0 (ortogonalidad entre regresores y residuos) y un R*2 > 0 viene cuando los
retardos de los residuos puedan explicar (por lo menos algo) de los residuos.
Notas:
1) La regresión puede incluir la variable endógena retardada.
2) Se puede usar el contraste para procesos MA(q).
3) Si no sabemos la cantidad de retardos necesarios, hay que experimentar.
Estimación por MCG: Estimación Cochrane-Orcutt y Prais-Winsten
Cochrane-Orcutt
yt = β1 + β 2 x2, t + ... + β k xk , t + ut
donde ut = φut −1 + ε t
Cuando la perturbación sigue un esquema AR(1) la transformación de las variables es
equivalente, a partir de la 2ª observación a:
1) retardar las variables un periodo;
2) multiplicar las variables por φ .
3) Restar este último resultado a los valores originales.
yt − φy t −1 = β 1 (1 − φ ) + β 2 ( x 2,t − φx 2,t ) + ... + β k ( x k ,t − φx k ,t −1 ) + u t − φu t −1
t≥2
Etapa 1: Estimar por MCO los parámetros β j , considerando un valor arbitrario de
φ , por ejemplo 0.
Etapa 2: Estimar por MCO el parámetro φ utilizando las estimaciones de β j de
etapa 1. (Y volver a etapa 1…)
( y t − β 1 − β 2 x 2,t − ... − β k x k ,t ) = φ ( y t −1 − β1 − β 2 x 2,t −1 − ... − β k x k ,t −1 ) + u t − φu t −1
El método es un proceso iterativo. Hay que fijar límites:
(….) 168.
Inconvenientes:
(1) Sensibilidad a valor arbitrario de φ .
(2) La primera observación se elimina. Si la muestra es pequeña estimar sin esta
observación puede resultar en una perdida de precisión.
Nota: solo es valido cuando la perturbación sigue una esquema AR(1).
Prais-Winsten
Usar la primera observación a través de su transformación particular (en lugar de
eliminarla) como en el método de Cochrane-Orcutt.
Ty1 = 1 − φ 2 y1 , Tx1,1 = 1 − φ 2 ,..., Tx k ,1 = 1 − φ 2 x k ,1 ;
El método es como Cochrane-Orcutt, pero incluyendo la primera observación. x1,1 es el
constante en el modelo.
Durbin
Este método intenta tratar la arbitrariedad del valor escogida para el parámetro φ en
etapa 1.
Estimar por MCO:
yt = β1 (1 − φ ) + β 2 x 2,t + ... + β k x k ,t + β 2φx 2,t −1 + ... + β k φx k ,t −1 + φy t −1 + (u t − φu t −1 )
Que viene de Etapa 1 arriba, ignorando en la estimación;
(i)
la autocorrelación de la perturbación
las restricciones existentes entre los parámetros β y φ .
(ii)
(iii) La existencia de la variable endógena retardada como regresor.
La estimación da el parámetro φ para iniciar el método de Cochrane-Orcutt.
Predicción con modelos de autocorrelación
(Greene, Econometric Analysis)
Consideramos un modelo AR(1), con φ conocida.
βˆ MCG = ( X * ' X * ) −1 X * ' y*
donde : y* = Ty, X * = TX, u * = Tu
 1−φ2 y 
1


 y2 − φy1 
y* =  y3 − φy2 ,


M




 yT − φyT −1 
 1−φ2 x 
1


 x2 − φx1 
X * =  x3 − φx2 


M




 xT − φxT −1 
La predicción de yˆ*0T +1 dado xT0 +1 y xT ( x*0T +1 = xT0 +1 − φxT ) es,
yˆ *0T +1 = x*0T +1´β̂
Recuerda, yˆ*0T +1 = yˆT0 +1 − φyT . Entonces,
yˆT0 +1 − φyT = xT0 +1´βˆ − φxT ´βˆ
yˆ 0 = x 0 ´βˆ + φ ( y − x ´βˆ )
T +1
0
T +1
yˆ
T +1
T
T
= x ´βˆ + φeT
0
T +1
Un parte de los residuos se lleva al periodo siguiente. Para un predicción de n
periodos sería,
yˆT0 + n = xT0 + n´βˆ + φ n eT
Para un modelo AR(2),
yˆT0 + n = xT0 + n´βˆ + φ1eT + n −1 + φ2eT + n − 2
Para residuos fuera del periodo de la muestra se usa, es = φ1es −1 + φ2es − 2 .
Consideramos un modelo MA(1).
yˆ T0 +1 = xT0 +1´βˆ + εˆT +1
donde εˆT +1 = uˆT +1 − λuˆT
Como consecuencia, para la predicción de εˆT +1 se usa todos los residuos anteriores.
Acumulando εˆT +1 ,
uˆ t = εˆt + λuˆ t −1
uˆT +1 = uˆ 0 = 0 y εˆt = ( y t − xt ´βˆ ) . Después del primero periodo fuera de la muestra,
εˆT + n = uˆT + n − λuˆT + n −1 = 0
Descargar