7 Autocorrelación Definición y causas de autocorrelación Definición: valores están relacionados en momentos diferentes en el tiempo. Un valor positivo (o negativo) de u t genera una sucesión de valores positivos (o negativos). Esto es autocorrelación positiva. Autocorrelación también puede manifestarse por la alternancia de signos en la sucesión de valores. Entonces se llama autocorrelación negativa. Causas: La existencia de ciclos y/o tendencias Valores pueden mostrar tendencias crecientes en el tiempo. Si el variable dependiente tiene este comportamiento y las variables explicativas no consiguen captarlo, la perturbación presentaría autocorrelación positiva. Variables pueden tener un comportamiento cíclico, fluctuaciones en el entorno de un valor medio (fases de expansión y depresión). Si las variables explicativas no consiguen captar este ciclo, también presentaría una autocorrelación positiva. Relaciones no lineales Un estimación lineal de una relación non lineal provocará errores con autocorrelación positiva. y = β 1 + β 2 x 2t + β 3 x 22t + u t correcta y = β 1 + β 2 x 2t + v t estimada La omisión de variables relevantes y = β 1 + β 2 x 2 i + β 3 x 3t + u t correcta y = β 1 + β 2 x 2t + v t estimada donde vt = u t + β 3 x3t Los residuos no serán independientes del tiempo. Modelos lineales que permiten caracterizar al fenómeno de la autocorrelacion: los esquemas autorregresivos (AR) y media-móvil (MA). AR( p ); u t = φ1u t −1 + φ 2 u t − 2 + ... + φ p u t − p + ε t con ε t ≈ N (0, σ ε2 ) donde φi (i = 1,2,..., p ) representa el peso asignado a cada retardo de la variable. ε t es un término aleatorio, independiente e idénticamente distribuido (“ruido blanco”). MA(q); ut = ε t + θ1ε t −1 + θ 2ε t − 2 + ... + θ qε t − q con ε t ≈ N (0,σ ε2 ) donde θi (i = 1,2,..., q ) representa el peso asignado a cada retardo del error ruido blanco. ε t es un término aleatorio, independiente e idénticamente distribuido (“ruido blanco”). Ejemplo: AR(1), MA(1). AR(1): La correlación entre momentos diferentes del tiempo, no se limita a dos periodos sucesivitos (t , t − 1) , sino que se mantiene para cualquier distancia entre esos dos momentos del tiempo (t , t − k ) . (Memoria ilimitada). MA(1): La correlación en momentos diferentes del tiempo sólo se mantiene en dos períodos inmediatamente sucesivos (t , t − 1) , (t − 1, t − 2) etc., desapareciendo cuando la distancia en el tiempo es superior al orden (q ) del MA. (Memoria limitada). AR(1) 1 φ φ2 φ φ 1 2 σε 2 φ φ 1 1−φ2 M M M φ N −1 φ N − 2 φ N − 3 L φ N −1 L φ N −2 L φ N −3 O M L 1 MA(1) 1 θ θ 1 θ θ 1 O (1 − θ 2 )σ ε2 O O 0 θ 0 θ 1 θ θ 1 Estimación AR(1): βˆ MCG = ( X ' Ω −1 X ) −1 X ' Ω −1 y βˆ MCG = ( X * ' X * ) −1 X * ' y* donde : y* = Ty, X * = TX, u * = Tu El matriz de transformación puede expresares como; 1−φ 2 −φ T = 1 O O O 0 O −φ 0 . 1 − φ 1 Los datos para el modelo transformado son, 1−φ2 y 1 y2 − φy1 y* = y3 − φy2 , M yT − φyT −1 1−φ2 x 1 x2 − φx1 X * = x3 − φx2 M xT − φxT −1 Hay que estimar el parámetro φ . Este se explica en la parte de estimación mas tarde. Antes tenemos que averiguar si tenemos autocorrelación en los residuos. Las funciones de autocorrelación simples (FAS) y parcial (FAP) de los residuos. Autocorrelación simple: N ∑e e t t −k ρ̂ = t =k N ∑e 2 t t =1 ρ̂1 (1er orden) mide la correlación entre et y et −1 . ρ̂ 2 (2º orden) mide la correlación entre et y et − 2 etc. Se puede usar la varianza para determinar la significación estadística. vâr( ρˆ k ) = k −1 1 1 + 2∑ ρˆ k2 N k =1 Un valor de ρ̂ k se puede considerar distinto de 0 cuando ρˆ k > 2 vâr( ρˆ k ) . Se puede usar FAS para distinguir entre procesos AR y MA. Recuerda que AR tiene memoria ilimitada mientras MA tiene memoria limitada: MA: ρˆ1 , ρˆ 2 ,..., ρˆ k ≠ 0, pero ρˆ k +1 ≈ 0. AR: valores decrecientes, pero > 0. Función de autocorrelación parcial Se puede calcular FAP a través distintas regresiones con et como variable dependiente y et −1 , et − 2 etc. como variables explicativas. et = φ11et −1 + vt et = φ11et −1 + φ 22 et −2 + vt M et = φ k1et −1 + φ k 2 et − 2 + ... + φ kk et −k vt ⇒ φˆ11 ⇒ φˆ22 M M ˆ ⇒ φ kk FAP orden 1 FAP orden 2 M FAP orden k vâr(φˆkk ) = 1 / N 2 Cuando φˆkk > rechazamos la hipótesis de φˆkk = 0 . N FAP puede determinar el orden autoregresivo. Por ejemplo, si φˆ22 ≠ 0 , se trata de por lo menos AR(2). FAS y FAP pueden ilustrarse en correlogramas. [Gráfico] Contrastes de autocorrelación 1. la hipótesis nula es no autocorrleación. 2. la construcción esta basada en los residuos de la estimación por MCO (sin considerar la posible autocorrelación). [Gráfico] Durbin-Watson Hipótesis alternativa: AR(1). 1) Obtener residuos a través de la estimación MCO sin considerar posible autocorrelación. 2) El estadístico de contraste es: N ∑ (e DW = t − et −1 ) 2 t =2 N ∑e 2 t H 0 : ut = ε t H A : u t = φu t −1 + ε t t =1 Cuando N → ∞ , DW = 2(1 − ρ ) , donde ρ es el coeficiente de correlación simple entre et y et −1 . N ∑e e t t −1 ρ̂ = es φˆ , la estimación del parámetro del esquema AR(1) para u t . t =2 N ∑e 2 t t =1 − 1 < ρˆ < 1 y entonces 0 < DW < 4 y la interpretación únicamente cuando N → ∞ es: DW → 0 ( ρ → 1) ⇒ autocorrelación (φ > 0) DW → 2 ( ρ → 0) ⇒ no autocorrelación (φ = 0) DW → 4 ( ρ → −1) ⇒ autocorrelación (φ < 0) En muestras finitas hay que aplicar una tabla con valores críticos ( d inf , d sup ). (Ve página 172 y …) DW < 2 DW > 2 d inf ≤ DW ≤ d sup si DW < d inf autocorrelación positiva si DW > d sup no autocorrelación si DW > 4 − d inf autocorrelación negativa si DW < d sup no autocorrelación o 4 − d sup ≤ DW ≤ 4 − d inf {inde Limitaciones: 1) Su potencia es limitada para otras hipótesis alternativas. (AR(>1), MA). 2) No se puede usar los valores d inf , d sup cuando la regresión incluye la variable endógena retardada. (Modelos dinámicos). Breusch-Godfrey 1) Estima el modelo original por MCO para conseguir los residuos. 2) Utiliza los residuos como la variable endógena en una regresión auxiliar con k + r regresores: k = regresores en el modelo. r = cantidad de retardos de los residuos ( et −1 , et − 2 ,..., et −r ) . r depende del supuesto sobre la estructura de la perturbación. et = β1 + β 2 x 2,t + ... + β k x k ,t + γ 1et −1 + γ 2 et − 2 + ... + γ r et − r + vt . 3) El estadístico de contraste es: H 0 : ut = ε t H : u = φ u + ... + φ u + ε ( AR ( p )) o 1 t −1 p t− p t G ( χ [r ]) = NR A t ut = ε t + φ1ε t −1 + ... + φqut − q ( MA(q )) 2 2 * H 0 : ut = ε t G( χ 2 [ r ]) = ( N − r )R*2 H A : ut = φ1ut −1 + ... + φ p ut − p + ε t ( AR( p )) o ut = ε t + φ1ε t −1 + ... + φq ut − q ( MA( q )) donde R*2 es el coeficiente de determinación de la regresión auxiliar. El valor de NR*2 ( N − r )R*2 se compara con el valor critico en la distribución χ 2 , con r grados de libertad. X ' e = 0 (ortogonalidad entre regresores y residuos) y un R*2 > 0 viene cuando los retardos de los residuos puedan explicar (por lo menos algo) de los residuos. Notas: 1) La regresión puede incluir la variable endógena retardada. 2) Se puede usar el contraste para procesos MA(q). 3) Si no sabemos la cantidad de retardos necesarios, hay que experimentar. Estimación por MCG: Estimación Cochrane-Orcutt y Prais-Winsten Cochrane-Orcutt yt = β1 + β 2 x2, t + ... + β k xk , t + ut donde ut = φut −1 + ε t Cuando la perturbación sigue un esquema AR(1) la transformación de las variables es equivalente, a partir de la 2ª observación a: 1) retardar las variables un periodo; 2) multiplicar las variables por φ . 3) Restar este último resultado a los valores originales. yt − φy t −1 = β 1 (1 − φ ) + β 2 ( x 2,t − φx 2,t ) + ... + β k ( x k ,t − φx k ,t −1 ) + u t − φu t −1 t≥2 Etapa 1: Estimar por MCO los parámetros β j , considerando un valor arbitrario de φ , por ejemplo 0. Etapa 2: Estimar por MCO el parámetro φ utilizando las estimaciones de β j de etapa 1. (Y volver a etapa 1…) ( y t − β 1 − β 2 x 2,t − ... − β k x k ,t ) = φ ( y t −1 − β1 − β 2 x 2,t −1 − ... − β k x k ,t −1 ) + u t − φu t −1 El método es un proceso iterativo. Hay que fijar límites: (….) 168. Inconvenientes: (1) Sensibilidad a valor arbitrario de φ . (2) La primera observación se elimina. Si la muestra es pequeña estimar sin esta observación puede resultar en una perdida de precisión. Nota: solo es valido cuando la perturbación sigue una esquema AR(1). Prais-Winsten Usar la primera observación a través de su transformación particular (en lugar de eliminarla) como en el método de Cochrane-Orcutt. Ty1 = 1 − φ 2 y1 , Tx1,1 = 1 − φ 2 ,..., Tx k ,1 = 1 − φ 2 x k ,1 ; El método es como Cochrane-Orcutt, pero incluyendo la primera observación. x1,1 es el constante en el modelo. Durbin Este método intenta tratar la arbitrariedad del valor escogida para el parámetro φ en etapa 1. Estimar por MCO: yt = β1 (1 − φ ) + β 2 x 2,t + ... + β k x k ,t + β 2φx 2,t −1 + ... + β k φx k ,t −1 + φy t −1 + (u t − φu t −1 ) Que viene de Etapa 1 arriba, ignorando en la estimación; (i) la autocorrelación de la perturbación las restricciones existentes entre los parámetros β y φ . (ii) (iii) La existencia de la variable endógena retardada como regresor. La estimación da el parámetro φ para iniciar el método de Cochrane-Orcutt. Predicción con modelos de autocorrelación (Greene, Econometric Analysis) Consideramos un modelo AR(1), con φ conocida. βˆ MCG = ( X * ' X * ) −1 X * ' y* donde : y* = Ty, X * = TX, u * = Tu 1−φ2 y 1 y2 − φy1 y* = y3 − φy2 , M yT − φyT −1 1−φ2 x 1 x2 − φx1 X * = x3 − φx2 M xT − φxT −1 La predicción de yˆ*0T +1 dado xT0 +1 y xT ( x*0T +1 = xT0 +1 − φxT ) es, yˆ *0T +1 = x*0T +1´β̂ Recuerda, yˆ*0T +1 = yˆT0 +1 − φyT . Entonces, yˆT0 +1 − φyT = xT0 +1´βˆ − φxT ´βˆ yˆ 0 = x 0 ´βˆ + φ ( y − x ´βˆ ) T +1 0 T +1 yˆ T +1 T T = x ´βˆ + φeT 0 T +1 Un parte de los residuos se lleva al periodo siguiente. Para un predicción de n periodos sería, yˆT0 + n = xT0 + n´βˆ + φ n eT Para un modelo AR(2), yˆT0 + n = xT0 + n´βˆ + φ1eT + n −1 + φ2eT + n − 2 Para residuos fuera del periodo de la muestra se usa, es = φ1es −1 + φ2es − 2 . Consideramos un modelo MA(1). yˆ T0 +1 = xT0 +1´βˆ + εˆT +1 donde εˆT +1 = uˆT +1 − λuˆT Como consecuencia, para la predicción de εˆT +1 se usa todos los residuos anteriores. Acumulando εˆT +1 , uˆ t = εˆt + λuˆ t −1 uˆT +1 = uˆ 0 = 0 y εˆt = ( y t − xt ´βˆ ) . Después del primero periodo fuera de la muestra, εˆT + n = uˆT + n − λuˆT + n −1 = 0