Conferencia 6

Anuncio
MAESTRIA EN EVALUACION DE PROYECTOS
ITBA-UCEMA
METODOS ECONOMETRICOS
PROFESOR: DANIEL LEMA
Notas de Clase 4
Extensiones del modelo de regresión
El problema de la Multicolinearidad
El problema de multicolinearidad existe en modelos de regresión múltiples en los que hay un
alto grado de correlación entre las variables independientes. Esto no implica causalidad entre
las variables independientes, el problema simplemente surge de la correlación entre las
variables independientes.
La consecuencia de multicolinearidad es que las varianzas de los estimadores aumentarán con
la correlación entre las variables independientes. Esto resultará en estimadores de parámetros
imprecisos, que tendrá el efecto de reducir los estadísticos t asociados. En otras palabras
multicolinearidad alta hará difícil separar la influencia precisa de cada una de las variables
independientes. El resultado podría ser que los estadísticos t sean insignificantes y será
difícil determinar si esto resulta de la irrelevancia teórica de la variable, o el hecho de que los
datos de la muestra están muy correlacionados.
Sin embargo, se puede demostrar que los estimadores por MCO serán MELI (BLUE), y por
lo tanto no hay ningún estimador superior de los parámetros cuando un alto grado de
multicolinearidad está presente.
El tema central es en qué medida este problema impide la evaluación del modelo estimado.
Desafortunadamente, no hay una respuesta inequívoca para esta pregunta, y en la práctica la
multicolinearidad tiene que ser aceptada como una consecuencia inevitable del proceso de
muestreo. Puede ser interpretado como resultar de tener que usar el modelo de regresión
múltiple en lugar de realizar el análisis bajo condiciones del laboratorio donde hay control
directo sobre las condiciones del experimento.
Para comprender el problema de la multicolinearidad podemos expresar la varianza de los
estimadores minimocuadráticos como:
Var ( ˆ j ) 
2
STC j (1  R j )
2
Donde
n
STC j   ( xij  x j ) 2 es la varianza muestral total de xj, y Rj2 es el R cuadrado de la
j 1
regression de xj contra el resto de las variables independientes.
1
El término Rj2 es importante, ya que muestra que una mayor relación lineal entre la variable
xj y el resto de los regresores implicará una mayor varianza del estimador. Claramente,
cuando existe una relación perfecta (Rj2 = 1) la varianza está indeterminada (tiende a
infinito).
Una solución al problema de incremento de la varianza de los estimadores que genera la
multicolinearidad es incrementar el tamaño de la muestra para reducir la STCj. Dado que los
estimadores por MCO en presencia de multicolinearidad son MELI, el problema a atacar es la
alta varianza de los estimadores.
Es decir el “problema” de la multicolinearidad no es para la estimación sino para la
inferencia. Claramente, si todo lo demás es constante es mejor tener una menor correlación en
la xj y el resto de las variables independientes para estimar el parámetro. La mejor solución es
recopilar más datos para incrementar la muestra.
En general, si tenemos alta correlación entre variables, la solución de eliminar alguna de ellas
puede llevar a mala especificación o sesgo por variable omitida. Muchas veces se incorporan
variables en los modelos como “controles” y estos pueden estar correlacionados entre si. Si
no hay correlación con la variable de interés, no existe inconveniente en mantener estos
controles aun cuando estén correlacionados, dado que no afectarán la estimación de la
varianza del estimador relevante.
El problema de la Heteroscedasticidad
Recordemos que uno de los supuestos del MCO es que la distribución del término de error en
cada punto de la distribución es idéntica. Típicamente, se supone que la distribución es
normal con media cero y varianza constante  2 .
El problema de la heteroscedasticidad tiene que ver con este supuesto, en particlar:
Var( i )   2
para todo i
Si este supuesto se cumple, entonces el término de error se dice homoscedástico. Si la
variancia del término de error cambia entre puntos de la muestra causa el problema de
heteroscedasticidad, y los términos de error serán heteroscedásticos.
Por lo tanto, si los términos de error son heteroscedasticos una de las suposiciones del modelo
de regresión básico es violada, y tenemos que determinar qué implica para nuestra estimación
y para la evaluación de hipótesis.
La naturaleza del problema
Supongamos un modelo de Consumo (C) en función del ingreso (D) para una muestra de
corte transversal donde el subindice i identifica familias:
Ci     Di   i
Presentamos los datos de muestra en el siguiente gráfico;
2
10000.0
C 9000.0
8000.0
7000.0
6000.0
5000.0
4000.0
3000.0
2000.0
1000.0
0.0
0
2000
4000
6000
8000
10000
12000
D
La característica notable de los datos es su tendencia a "desplegarse en abanico" cuando los
ingresos aumentan. La muestra puede haber estado generada vía un proceso aleatorio de
selección de una familia al azar en cada nivel de ingreso, y luego recolectar el gasto de
consumo de la familia seleccionada.
Una característica de este proceso parecería ser que las familias de ingresos más altos
presentan una variabilidad más grande en sus gastos de consumo. Es decir hay una tendencia
en conjunto del gasto de consumo a aumentar con el nivel de ingreso, pero además, las
familias de ingresos más altos parecen presentar más variabilidad de gasto que familias de
menor ingreso. Este problema suele ser característico de muestras de corte transversal.
Las consecuencias de Heteroscedasticidad
Puede demostrarse que los estimadores por MCO en presencia de heteroscedasticidad son
insesgados, pero no serán los mejores estimadores (no tendrán variancia mínima). Se puede
obtener un mejor estimador (con menor variancia). Este estimador se obtiene incorporando en
el proceso de estimación el valor de las varianzas individuales de los términos de error en
cada punto muestral (o por lo menos una estimación aproximada de estas variancias).
También una consecuencia más seria de la heteroscedasticidad es que si usamos el estimador
insesgado pero ineficiente por MCO, las expresiones usuales de las varianzas de los
estimadores son sesgadas. En otras palabras, los estadísticos t son incorrectos en presencia de
heteroscedasticidad y suministran una base poco fiable para la inferencias.
En la práctica, el problema es cómo calcular las variancias de los errores en cada punto de
muestra.
Existe un método para estimar las varianzas de los errores en cada punto de muestra y
corregir los estimadores por MCO. El método es atribuible a White, y se conoce como
3
corrección de la matriz de varianzas y covarianzas de White (White’s heteroscedasticitycorrected variances).
El método usa los estimadores (ineficientes) por MCO pero ajusta las varianzas para que sean
válidas en la inferencia. El método genera variancias consistentes de los estimadores cuya
confianza aumenta a medida que se incrementa el tamaño de muestra.
En particular, para el modelo de regresión simple se define:
Wi 
(Xi  X )
 ( X i  X )2
Y la varianza del estimadores por MCO corregido es:

Var( ˆ )  Wi 2 ei2
Esta alternativa de corrección está disponible en EViews: White’s heteroscedasticity-adjusted
standard errors. Para utilizarla: en Estimate click en Options y check en ‘Heteroskedasticity
consistent coefficient variance’
Pruebas de Heteroscedasticidad
Para testear la presencia de heteroscedasticidad el enfoque de EViews es permitir que  i2
pueda estar relacionada con cualquiera de las variables independientes. En particular, que  i2
está relacionada con el cuadrado de una o mas variables independientes.
La prueba hace corriendo la regresión sin heteroscedasticidad y luego se obtienen los
términos de error. Se obtienen los cuadrados de los términos de error y luego se corren estos
errores al cuadrado contra los valores estimados de la variable dependiente y los cuadrados de
los valores estimados. Si hubiera alguna tendencia de los valores absolutos a incrementarse (o
disminuir) con el nivel y los cuadrados de los valores estimados entonces tendríamos un R 2
significativo y esto podría sugerir la presencia de heteroscedasticidad.
Formalmente el test se conoce como el test de heteroscedasticidad de White y está disponible
en EViews (luego de correr la regresión de interés): View/Residual Tests/White
Heteroskedasticity (no cross terms)
El resultado relevante son los estadísticos de prueba que se presentan para un ejemplo:
White Heteroskedasticity Test:
F-statistic
Obs*R-squared
8.561240
13.35139
Probability
Probability
0.000675
0.001261
El F-statistic contrasta la hipótesis nula de ausencia de heteroscedasticidad (todos los
regresores de la regresión auxiliar de prueba son cero –homoscedasticidad-) y se distribuye
como una F con k-1, n-k grados de libertad.
4
El estadístico Obs*R-squared es equivalente y contrasta la misma hipótesis. Se distribuye
como una 2 con k-1 grados de libertad.
El problema de la Autocorrelación serial de los errores
El problema de autocorrelación existe cuando el supuesto de independencia de los términos
no se cumple:
E( s  t )  0
para todo s  t
No
En este caso se dice que los errores están autocorrelacionados.
La naturaleza del problema
La autocorrelación es un problema que existe en modelos de series de tiempo. Por ejemplo,
considere el caso de una compañía productora cuyo nivel del producto en cualquier punto de
tiempo es determinado por la cantidad del trabajo y el nivel capital usado durante ese período
de tiempo (una función de producción simple). Considere la interpretación del término de
error dentro de tal contexto. En cualquier punto de tiempo, el producto es explicado por el
nivel del trabajo y el capital, más cualquier acontecimiento aleatorio o imprevisible.
Suponga que una materia prima importante usada en el proceso de producción está sujeta a
imprevisibilidad en su suministro. El efecto que esto tiene es que cuando la materia prima es
escasa el producto desciende (aunque la firma no cambia trabajo ni capital) y cuando la
materia prima es abundante el producto aumenta.
El fabricante se las arregla con este problema acumulando niveles relativamente grandes del
producto terminado para que la demanda pueda ser cubierta durante los períodos de escasez
de materia prima reduciendo existencias. En los períodos de abundancia recompone stocks.
La manera que este proceso se refleja en los datos observados es que mientras el trabajo y el
capital se relacionan con el nivel de producto de largo plazo, el producto está sujeto a un
grado de la fluctuación de corto plazo como consecuencia de la variabilidad de corto plazo en
suministros de materia prima.
Esta "perturbación aleatoria" estará vinculada entre distintos puntos del tiempo. Los períodos
de producto excepcionalmente bajo serían seguidos por períodos de niveles de producto
relativamente alto cuando se recomponen stocks.
Como consecuencia de esta autocorrelación en los términos de error, hay un grado de
previsibilidad en la manera en la que los términos de error se observan en el tiempo. En
particular, los períodos de error negativo (suministros de materia prima bajo) serían seguidos
por períodos positivos. Por lo tanto una especificación de modelo completa debe incluir este
elemento sistemático en los términos de error para asegurar que toda variación sistemática en
la variable dependiente se refleja en la especificación de modelo.
La descripción sugiere una relación entre el error en momentos sucesivos:
 t  f ( t 1 )
Asumiendo una relación lineal simple:
 t  t 1  ut
7.3
5
Dónde ; es un parámetro a estimar  es un término de error adicional que suponemos iid
Las consecuencias de Autocorrelación
Las consecuencias de la autocorrelación son idénticas a las de la heteroscedasticidad. Los
estimadores por MCO son insesgados pero ineficientes. Estimadores eficientes pueden ser
obtenidos incorporando la estructura específica de la autocorrelación del error en el proceso
de estimación.
Las expresiones convencionales para las variancias de los estimadores por MCO serán
sesgadas y por lo tanto, toda hipótesis de prueba será inválida. En particular la presencia de
autocorrelación serial sesga negativamente las varianzas de los estimadores, generando
estadísticos t artificialmente altos.
Métodos de cálculo alternativos
Los enfoques para el cálculo en presencia de autocorrelación involucran el cálculo explícito
de la estructura en el término de error, como en la ecuación presentada, lo que implica una
estimación del parámetro  , y su incorporación al modelo.
Considere el modelo simple:
Yt     X t   t
Dónde
 t    t 1  ut
Rezagando la ecuación del modelo un período, multiplicando por rho y restándo esta nueva
ecuación de la original tenemos:
Yt   Yt 1   (1   )   ( X t   X t 1 )   t    t 1
Note que
 t    t 1  ut
A partir del modelo original pueden recuperarse los errores y obtener una estimación de rho.
Esta estimación se utiliza para redefinir las variables:
Wt  Yt   Yt 1
7.14
y
Vt  X t   X t 1
Luego Wt puede ser corrido contra Vt , donde el coeficiente de Vt será una estmación del
 , y tamibién es posibe recuperar  a partir de la constante dividida 1   .
6
El procedimiento conocido como “Cochrane – Orcutt” realiza esto de manera iterativa para
ajustar el valor del rho a partir de sucesivas regresiones del término de error y recalculando la
regresión en variables transformadas por cada nuevo valor obtenido del rho. Este proceso
iterativo continúa hasta que las diferencias en el  estimado son minimas. La mayoría de los
paquetes econométricos para computadora contienen una rutina para los estimadores
Cochrane – Orcutt.
En EViews la rutina se invoca incorporando el término AR(1) al final de la ecuación a
estimar.
Pruebas de Autocorrelación
La prueba clásica es el test d de Durbin y Watson, para el cuál las hipótesis son:
H 0 : el error es iid.
H 1 : el error está generado por un proceso autorregresivos de primer orden
El estadístico de prueba:
n
d
 (e
t 2
t
 et 1 ) 2
n
e
t 1
2
t
El valor del d en la población (  )es:
n
 
 (
t 2
t
  t 1 ) 2
n

t 1
2
t
Que puede ser reescrito como:
  2(1   )
Entonces si   1 (autocorrelación positiva perfecta),  vale 0.
Si   1 (autocorrelación perfect negativa) entonces  vale 4.
Si   0 ; (ausencia de autocorrelación)  vale 2.
Para determinar si el valor observado de d es significativamente diferente de 2 (por lo tanto:
presencia de autocorrelación) debemos referirnos a las tablas del estadístico DW.
Ubicamos el tamaño de muestra, n y el número de variables independientes, K, para
encontrar el valor crítico del estadístico.
En las tablas hay dos entradas una cota inferior ( d L ) y una cota superior ( dU ). Si el valor
observado de d es menor a 2 entonces este valor es comparado directamente contra los
7
valores tabulados. Si d es menor que d L (cercano a cero) entonces H 0 debe ser rechazada.
Si d es mayor que dU (cercano a 2) entonces H 0 se acepta
Si d esta en entre d L y dU el resultado es inconclusivo o de duda.
Si el valor observado de d es mayor a 2 se obtienen los valores de d L y dU de la misma
manera pero se deben sustraer de 4.
Si el valor observado del d es mayor que el más alto de los dos valores recalculados ( d
cercano a 4) la H 0 se rechaza (evidencia de autocorrelación negative)
Si d es menor que el menor valor recalculado (cercano a 2), entonces H 0 debe ser aceptada
(no hay autocorrelación)
Si d está en un valor intermedio, el resultado es de duda.
En EViews el estadístico d es reportado como DW con cada salida de regresión.
Variables Dummy
Una variable Dummy (o una binaria) es una variable explicativa que puede adquirir 2 valores:
0 o 1 solamente. Estas variables son utilizadas para modelar la presencia (un valor de 1) o la
ausencia (un valor de 0) de algún factor explicativo o característica en cada punto de muestra.
Por ejemplo, suponga que requerimos un modelo que explique la diferencia en los niveles de
ingresos en un corte transversal de asalariados. La edad podría ser un factor relevante, la
cantidad de años de educación podría ser otro. Sin embargo, el género podría ser también
relevante, teniendo en cuenta compatible la intuición general de que los hombres ganan más
que las mujeres.
Para solamente considerar (sin explicar por qué) la posibilidad de que los hombres ganen más
que las mujeres podemos incluir una variable Dummy a nuestro modelo. Asumiría el valor 1
si el empleado fuera hombre, y 0 si fuera de sexo femenino.
Si Y es ingreso y G la variable dummy
Yi   0  1Gi  f (otros factores)
Observe que para los hombres el modelo es:
Yˆi  ˆ0  ˆ1  f (otros factores)
Mientras que para las mujeres
Yˆi  ˆ0  f (otros factores)
Si el coeficiente estimado es positivo y significativo, los hombres tienen un diferencial
positivo que se refleja como una mayor constante en el modelo.
8
Otro uso de las variables Dummy es en contextos de series temporales. Puede modelarse un
evento particular introduciendo una variable que asume el valor uno en un período específico
y cero en el resto. O asumir un valor de uno a partir de un momento en el tiempo.
El efecto es idéntico al ilustrado anteriormente. La magnitud y significación del coeficiente
reflejará un cambio en la ordenada al origen en el momento de la intervención o a partir del
mismo.
Por ejemplo, supongamos la siguiente función de producción :
Q  AK  L e
Donde Q es producción de carbón, K es capital y L trabajo.
Linearizando la relación :
ln(Q)  ln(A)   ln(K )   ln(L)  
Suponga que estimamos esta relación para un conjunto de firmas con datos entre 1964 y 1995
Dependent Variable: LQ
Method: Least Squares
Sample: 1964 1995
Included observations: 32
Variable
Coefficient
Std. Error
t-Statistic
Prob.
LK
LL
C
-0.081630
0.514055
2.016529
0.372281
0.134102
1.567196
-0.219270
3.833302
1.286711
0.8280
0.0006
0.2084
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.765001
0.748794
0.176469
0.903098
11.67652
1.391450
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)
Los resultados son poco significativos en general.
Si observamos los datos reales y estimados:
9
4.733464
0.352090
-0.542283
-0.404870
47.20242
0.000000
of
A ctu a l
and
F itte d
V a lu e
5.5
5.0
4.5
4.0
3.5
3.0
1964
1966
1968
1970
1972
1974
1976
1978
1980
1982
1984
1986
1988
1990
1992
1994
Years
LQ
Fitted
El modelo estimado no capta una caida de la producción importante en 1984, debido por
ejemplo, a un conflicto sindical en este año.
Si creamos una variable Dummy que asume el valor 1 en el año 84 y reestimamos.
Dependent Variable: LQ
Method: Least Squares
Sample: 1964 1995
Included observations: 32
Variable
Coefficient
Std. Error
t-Statistic
Prob.
LK
LL
D84
C
0.442091
0.687479
-0.894778
-0.125119
0.180722
0.064697
0.087038
0.759079
2.446254
10.62611
-10.28027
-0.164830
0.0210
0.0000
0.0000
0.8703
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.950780
0.945506
0.082192
0.189153
36.68891
1.374391
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)
Las mejoras son notables.
El grafico de valores estimados muestra:
10
4.733464
0.352090
-2.043057
-1.859840
180.2902
0.000000
of
A ctu a l
and
F itte d
V a lu e
5.5
5.0
4.5
4.0
3.5
3.0
1964
1966
1968
1970
1972
1974
1976
1978
1980
1982
1984
1986
1988
1990
1992
1994
Years
LQ
Fitted
Si tenemos información que en los años 72, 74 y 85 también hubo problemas sindicales
menores, podemos incorporar una nueva variable que tiene valor uno en estos años.
Dependent Variable: LQ
Method: Least Squares
Date: 03/08/05 Time: 10:00
Sample: 1964 1995
Included observations: 32
Variable
Coefficient
Std. Error
t-Statistic
Prob.
LK
LL
D84
D727485
C
0.394813
0.680368
-0.905385
-0.174127
0.039151
0.139566
0.049847
0.067068
0.038728
0.585691
2.828854
13.64913
-13.49953
-4.496207
0.066845
0.0087
0.0000
0.0000
0.0001
0.9472
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.971854
0.967684
0.063294
0.108166
45.63120
0.760847
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)
4.733464
0.352090
-2.539450
-2.310429
233.0690
0.000000
Vemos que también mejora la estimación, indicando la nueva variable un efecto negativo de
menor magnitud que el ocurrido en 1984.
11
Descargar