6 Heteroscedasticidad

Anuncio
6 Heteroscedasticidad
Definición y causas de heteroscedasticidad
Definición: la varianza de la perturbación no es constante.
Causas:
La naturaleza de la relación entre las variables
Ejemplo 1: relación gasto-renta; Hogares con ingresos más bajos tienen una dispersión
de gasto familiar en bienes y servicios más pequeña.
La transformación de variables
Si tenemos acceso a los agregados de las observaciones originales.
Si tenemos información sobre promedios de las variables originales.
Estas transformaciones generan una perturbación con varianza non constante, a pesar de
una perturbación homoscedastica en los datos originales. MCO sería más ineficiente si
la varianza es muy diferente entre los grupos.
Ejemplo: datos de las diversas Comunidades Autónomas.
La omisión de variables relevantes
y = β 1 + β 2 x 2 i + β 3 x 3i + u i
correcta
y = β 1 + β 2 x 2i + vi
estimada
donde vi = u i + β 3 x3i
vi tendrá una varianza que depende de el variable omitida, x3i , var(vi ) = σ 2 + β 32 x32i .
Solución: ¡Reformular el modelo especificado! (Recuerda que el modelo con variables
omitidas no sólo es ineficiente pero también inconsistente.)
Contrastes de heteroscedasticidad
1. la hipótesis nula es homoscedasticidad.
2. la construcción está basada en los residuos de la estimación por MCO (sin considerar
la posible heteroscedasticidad).
Goldfeld-Quandt
Puede ser útil cuando la heteroscedasticidad depende de una única variable.
(1) Ordena las variables según los valores de la variables posiblemente cause la
heteroscedasticidad.
(2) Elimina p observaciones centrales de la muestra ordenada para crear dos
muestras de idéntico tamaño, n1 = n2 = ( N − p) / 2 . La recomendación es
eliminar aprox. p ≈ N / 3 .
(3) Haz dos regresiones por MCO y calcula V E1 = e1 ' e1 /( n1 − K ) y
V E 2 = e2 ' e2 /( n1 − K ) .
(4) El estadístico de contraste es:
V E2
GQ( F [n2 − k , n1 − k ]) =
V E1
 H 0 : σ i2 = σ u2

2
2
 H A : σ i = σ u xi
donde se supone que la segunda muestra tiene la varianza mayor. GQ se compara con el
valor crítico en la distribución F con [n2 − k , n1 − k ] grados de libertad.
Breusch-Pagan
Puede ser útil cuando la heteroscedasticidad depende de una función de variables.
(1) Estima el modelo original por MCO para conseguir los residuos.
e2
(2) Construye la variable g i = −1 i 2 que se utilizará como variable dependiente
n ∑ ei
en la regresión auxiliar, g i = α1 + α 2 z2i + ... + α p z pi + vi , donde las variables
explicativos son todos las variables exógenos del modelo original que pueda
tener una influencia en la varianza no constante del término de perturbación.
Estima el modelo auxiliar por MCO y calcula VE
( VE = gˆ ' gˆ = ( Zαˆ )' ( Zαˆ ) = αˆ ' Z ' g = g ' Z ( Z ' Z ) −1 Z ' g ).
(3) El estadístico de contraste es:
A
 H 0 : σ i2 = σ u2 = α1

2
 H A : σ i = f (Z )
VE
BP(→ χ [ p − 1]) =
2
2
BP se compara con el valor crítico en la distribución χ 2 con [ p − 1] grados de
libertad.
Una versión modificado (Koenker y Bassett, 1982) es estimar la regresión auxiliar,
ei2 = α1 + α 2 z2i + ... + α p z pi + vi , donde ei2 es el cuadrado de los residuos del modelo
original.
A
BP(m)(→ χ 2 [ p − 1]) =
VEm
m
m=
1 N 2
(ei − n −1 ∑ ei2 ) 2
∑
N i =1
 H 0 : σ i2 = σ u2 = α1

2
 H A : σ i = f (Z )
VEm = (u − u i )' Z(Z' Z) −1 Z' (u − u i ) , donde u = (e12 , e22 ,..., en2 ) , i es una n × 1 columna
de 1s. u = e' e / n ., i = 11 ,...1n .
BP(m) se compara con el valor crítico en la distribución χ 2 con [ p − 1] grados de
libertad. Bajo normalidad los dos contrastes tienen la misma distribución asintótica,
pero VEm puede ser más potente en situaciones cuando esto no este cumplido.
White
Puede ser útil cuando la heteroscedasticidad depende de una función de variables.
(1) Estima el modelo original por MCO para conseguir los residuos.
(2) Los residuos cuadrados se utilizan con variable endógena en una regresión
auxiliar con p = k (k + 1) / 2 regresores: un término independiente, las variables
exógenas del modelo original, el cuadrado de las variables exógenas originales y
los productos por pares de esas variables:
k
k
j =2
j =2
ei2 = α1 + ∑α j x ji + ∑ β j ( x ji ) 2 + ∑ γ s ,t ( xsi xti ) + vi .
(3) El estadístico de contraste es:
s ,t
 H 0 : σ i2 = σ u2 = α 1
W ( χ [ p − 1]) = NR 
2
 H A : σ i = f (Z )
donde R*2 es el coeficiente de determinación de la regresión auxiliar.
2
2
*
W se compara con el valor crítico en la distribución χ 2 con [ p − 1] grados de
libertad.
Nota: Si rechazamos la hipótesis nula, puede ser por causa de una especificación
erróneas en el modelo que da la consecuencia de heteroscedasticidad. Por ejemplo,
una variable tiene un efecto non lineal, o hay interacciones, que no estén incluidas.
Después que el contraste rechaza la hipótesis nula, el contraste no indica que
debemos hacer.
Estimación por MCG: Mínimo cuadrados ponderados.
Estimador mínimo cuadrático generalizado (MCG).
βˆ MCG = ( X ' Ω −1 X ) −1 X ' Ω −1 y
var(βˆ MCG ) = σ 2 ( X ' Ω −1 X ) −1
2
donde : σ 2 = s MCG
=
e´Ω −1e
n−k
MCG es lineal, insesgado y óptimo (ELIO). Bajo el supuesto de normalidad su
distribución muestral es: βˆ MCG → N ( β , σ 2 ( X ' Ω −1 X ) −1 ).
Necesitamos conocer la matriz Ω .
¿Que forma tiene la heteroscedasticidad o autocorrelación?
Si no se sabe: Hay que estimar Ω̂ .
Cuando sepamos Ω se puedo transformar el modelo MCO con perturbaciones no
esféricas para obtener un modelo con perturbación esférica.
Se puede aplicar MCO al modelo transformado.
y = Xβ + u ,
E (uu´) = σ 2 Ω
y* = X * β + u* ,
E (u*u*´) = σ 2 I
donde : y* = Ty, X * = TX, u * = Tu
Hay que elegir la matriz de transformación, T, para que TΩT ' = I (así, T ´T = Ω −1 ).
1. A través de un hipótesis sobre la función de heteroscedasticidad o autocorrelacion.
Ejemplo: heteroscedasticidad: suponemos que la varianza depende de una variable
explicativa.
2. A través de funciones más complicadas.
1a etapa: Estimar los parámetros de la función heteroscedastica para obtener de los
elementos de Ω .
2a etapa: Aplica los formulas del estimador MCG.
[Comparación entre el estimador MCO y MCG.]
Métodos de estimación en presencia de heteroscedasticidad;
Perturbación conocida:
En este caso la perturbación depende de forma monótona de alguna(s) variable(s)
exógena(s), se utilizan las siguientes hipótesis. ( y = β1 + β 2 x 2i + β k x ki + u i )
(i ) σ i2 = σ 2 x 2i
(ii ) σ i2 = σ 2 x 22i
(iii ) σ i2 = σ 2 ( x 2i + x3i )
k
(iv) σ i2 = σ 2 ∑ x ji
j=2
Ejemplos:
(1) la estructura de la varianza para (ii) es la matriz,
 x22,1

2
2 0
E (uu ' ) = σ Ω = σ u
 M

 0
0
2
2, 2
x
M
0
0 

L 0 
O M 

L x22, N 
L
(2) el caso de transformación de variables, agregadas,
 N1
0
2
2
E (uu ' ) = σ Ω = σ u
M

0
0
N2
M
0
L 0 
L 0 
O M 

L NR 
(3) el caso de transformación de variables, promedios,
0
1 / N1
 0
1/ N 2
E (uu ' ) = σ 2Ω = σ u2 
 M
M

0
 0
L
0 
L
0 
O
M 

L 1/ N R 
Con esta información, para ejemplo (1) se defina la matriz T para transformar el
modelo.
1 / x22,1
0

0
1 / x22, 2
−1

Ω =
 M
M

0
 0
0 

L
0 
O
M 

L 1 / x22, N 
L
Recuerda que T ´T = Ω −1 .
1 / x2,1
0

0
1 / x2, 2
T =
 M
M

0
 0
0 

L
0 
O
M 

L 1 / x2, N 
L
[Estimador de mínimos cuadrados ponderados]
−1
 n
  n

β̂ = ∑ wi xi xi ' ∑ wi xi yi 
 i =1
  i =1

Donde wi =
1
.
x 22,i
Observaciones con varianza más pequeña tiene un peso mas elevada en la sumatoria y
así también en su influencia en el estimador.
Para ejemplo (2) se defina la matriz T para transformar el modelo.
0
1 / N1
 0
1/ N 2
Ω −1 = 
 M
M

0
 0
L
0 
L
0 
O
M 

L 1/ N R 
Recuerda que T ´T = Ω −1 .
1 /

T =



N1
0
0
1/ N2
M
0
M
0


L
0 
O
M 

L 1 / N R 
L
0
Para ejemplo (3) se defina la matriz T para transformar el modelo.
 N1
0
Ω −1 = 
M

0
0
N2
M
0
L 0 
L 0 
O M 

L NR 
Recuerda que T ´T = Ω −1 .


T =



N1
0
L
0
N2
L
M
0
M
0
O
L
0 

0 
M 

N R 
Perturbación desconocida:
1a etapa: Estimar los parámetros de la función de la varianza.
Estimar por MCO la regresión auxiliar ei2 = α 1 + α 2 x 2i + vi , donde ei representa los
residuos de la estimación MCO del modelo original, sin tener en cuenta la posible
ˆ −1 y también Tˆ .
heteroscedasticidad. El resultado de la regresión auxiliar defina Ω̂ , Ω
0
αˆ1 + αˆ 2 x2,1

αˆ1 + αˆ 2 x2, 2
0
ˆ =
Ω

M
M

0
0

L
0


L
0


O
M

L αˆ1 + αˆ 2 x2, N 
0
1 /(αˆ1 + αˆ 2 x2,1 )

0
1 /(αˆ1 + αˆ 2 x2, 2 )
ˆ −1 = 
Ω

M
M

0
0

L
0


L
0


O
M

L 1 /(αˆ1 + αˆ 2 x2, N )
1 / (αˆ1 + αˆ 2 x2,1 )
0

0
1 / (αˆ1 + αˆ 2 x2, 2 )

Tˆ = 
M
M


0
0


L
0


O
M

L 1 / (αˆ1 + αˆ 2 x2, N ) 
L
0
2a etapa: Aplica las formulas del estimador MCG, es decir estimar la relación
T̂y = T̂Xβ + T̂u por MCO.
yi
x2i
xki
ui
1
= β1
+ β2
+ ... + β k
+
αˆ1 + αˆ 2 x2i
αˆ1 + αˆ 2 x2i
αˆ1 + αˆ 2 x2,1
αˆ1 + αˆ 2 x2i
αˆ1 + αˆ 2 x2i
Matriz de varianza, covarianza robusto (White)
En algunos casos es difícil a priori efectuar supuestos para el comportamiento de la
función heteroscedástica. Es posible utilizar la estimación puntual MCO, corrigiendo la
estimación de su varianza.
var(βˆ MCO ) = σ 2 ( X ' X ) −1 X ' ΩX ( X ' X ) −1 =
1

N ( X ' X ) −1  σ 2 X ' ΩX ( X ' X ) −1
N

e12

0
1
1 2

X '
 σ X ' ΩX  se puede estimar a través de
N M
N


 0
0
e22
M
0
L 0

L 0
X.
O M 

L e N2 
donde [•] = σ u2 Ω y ei representan los residuos de la estimación MCO, y sus cuadrados
se utilizan para aproximar los elementos desconocidos para σ 2 Ω .
Descargar