12/10/2010 Varianza del error no constante: heteroscedasticidad Fortino Vela Peón Universidad Autónoma Metropolitana [email protected] 12/10/2010 Octubre, 2010 México, D. F. 1 Introducción Con bastante regularidad los datos no se ajustan a las condiciones idealizadas del modelo de regresión lineal clásico. Así, por ejemplo, es frecuente encontrar errores heteroscedasticos, particularmente en datos de corte transversal. Una razón de ello radica en que la varianza en la variable dependiente raramente se mantiene constante cuando el nivel de una (o más) variable(s) explicativa(s) aumenta o disminuye. Por ejemplo, no sólo el nivel de consumo de los “ricos” es mucho mayor al de los “pobres”, sino que también es más variable. Los pobres tienen pocas opciones para dedicar sus ingresos a bienes distintos a los de la canasta básica; los ricos por su parte disfrutan del privilegio de considerar más opciones. 12/10/2010 2 Una implicación para el análisis estadístico es que no se podrá aplicar el modelo de regresión lineal clásico a los datos de manera inmediata. Una transformación matemática bien elegida puede ayudar a corregir a la heteroscedasticidad dado que menudo es debida a la asimetría en la distribución de Y (transformaciones Box-Cox, por ejemplo). Desafortunadamente, no siempre es posible hacer esto. 12/10/2010 3 1 12/10/2010 Si el resto de los supuestos del modelo de regresión resultan validos, es decir, la existencia de una relación lineal, independencia y esperanza cero del término del error, se puede demostrar que los errores heteroscedásticos no afectan la propiedad de insesgamiento de los coeficientes estimados mediante MCO. No obstante, la precisión en los valores de los coeficientes no es la mejor. Es decir, los estimadores de MCO dejan de ser los mejores estimadores linealmente insesgados (MELI) aspirando a ser solamente estimadores lineales e insesgados. Así, los errores estándar no serán los correctos, puesto que se basan en el supuesto de homoscedasticidad. 12/10/2010 4 El modelo bajo errores heteroscedasticos y = Xβ + u donde E (u ) = 0 E (uu' ) = σ 2 I Sea …(1) Bajo heteroscedasticidad se tiene …(2) βˆ = (X' X)−1 X' Y −1 = (X' X) X' ( Xβ + u) …(3) = β + (X' X)−1 X' u E (βˆ ) = β insesgado 12/10/2010 5 Ahora su varianza [ Var[βˆ ] = E (X'X)−1 X'uu' X(X'X)−1 ] bajo “homo” E (uu' ) = σ 2 I pero bajo “hetero” E (uu' ) ≠ σ 2 I = σ 2 Ω Por lo tanto, bajo heteroscedasticidad se tiene Var[βˆ ] = (X'X)−1 (X'ΩX)(X'X)−1 donde Ω es E (uu' ) = σ 2 Ω = Σ u matriz de varianzas-covarianzas 12/10/2010 6 2 12/10/2010 Tipos de Σu σ 12 0 Σu = . 0 Heteroscedasticidad 0 ... σ ... . . ... 2 2 . 0 ρ1 1 ρ 1 1 Σu = . . ρn−1 ρ2n−3 Autocorrelación 12/10/2010 0 0 . σ n2 ρn−1 ... ρ2n−a ... . . ... 7 . 1 Autocorrelación y heteroscedasticidad (modelos ARCH, GARCH,..) σ 12 ρ1 Σu = . ρ n −1 ρ1 σ 22 ... . . ρ n −1 ρ 2 n −3 ... . σ n2 . ρ 2 n −3 ... 12/10/2010 8 Identificación de heteroscedasticidad: métodos gráficos Si no existe información a priori sobre la naturaleza de la heteroscedasticidad, es común llevar a cabo la estimación del modelo de regresión para luego hacer un análisis de los residuos que se generan. La forma inicial del análisis de residuos es mediante gráficos. Los residuales se definen como ui = yi − yˆ i . Entre las propiedades importantes de los residuales se encuentran que tienen media cero y su varianza se aproxima por: ∑ ( uˆ − u ) ∑ uˆ SCE n n 2 2 12/10/2010 σˆ 2 = i =1 i n−k = i =1 i n−k = n−k 9 3 12/10/2010 Tipos de residuales En ocasiones resulta mejor considerar a los residuales escalados. Son útiles además para identificar puntos atípicos o valores extremos. Residuales estandarizados que se definen como uˆ dˆi = i 2 σ Residuales estudentizados que se definen como rˆi = 12/10/2010 uˆ i σ ⋅ (1 − hii ) 2 10 Patrones hipóteticos de los residuos para la identificación de heteroscedasticidad Los gráficos siguientes muestran un diagrama de dispersión entre û 2 y Yˆ . Fuente: Tomado de Gujarati y Porter (2010, 377) 12/10/2010 11 Los gráficos siguientes muestran un diagrama de dispersión entre û 2 y X . Fuente: Tomado de Gujarati y Porter (2010, 378) 12/10/2010 12 4 12/10/2010 Pruebas gráficas en Stata Stata tiene implementado dentro de sus rutinas ambos tipos de gráficas para la identificación de heteroscedasticidad en los residuales. Despues de estimar el modelo de regresión la sintaxis a utilizar es: rvfplot y rvpplot. rvfplot muestra el diagrama de dispersión entre residuales y valores ajustados. Por su parte, rvpplot elabora el diagrama de dispersión entre residuales y cualquiera de las variables predictoras (X’s), razón por la requiere que se señale cual es la variable a considerar, esto es, por ejemplo: rvpplot x2 12/10/2010 13 Calculo de residuales en Stata Stata permite el calculo de estandarizados y estudentizados. los residuales Una vez estimado una ecuación de regresión, la sintaxis es la siguiente: predict residual, resid (residuales simples) predict rstand, rstand (residuales estandarizados) predict rstud, rstuden (residuales estudentizados) 12/10/2010 14 Métodos formales: pruebas de Park, Glesjer y Breusch-Pagan-Godfrey Las tres pruebas son en esencia muy similares. Cada una de ellas es una prueba del Multiplicador de Lagrange (LM), por lo que siguen el mismo procedimiento general. Dado el modelo de regresión: yi = β1 + β 2 x2i + β 3 x3i + ... + β k xki + ui se realizan los pasos siguientes: 1.- Se estima el modelo de regresión y se obtienen los residuales: uˆ = y − yˆ i i i 2.- Se estiman las regresiones auxiliares siguientes y obtienen sus R2. 12/10/2010 15 5 12/10/2010 a) Para la prueba de Park la regresión auxiliar es ln uˆi2 = α1 + α 2 ln Z 2i + ... + α p ln Z pi + ε i b) Para la prueba de Glesjer la regresión auxiliar es uˆi2 = α1 + α 2 Z 2i + ... + α p Z pi + ε i c) Para la prueba de Breusch-Pagan-Godfrey la regresión auxiliar es u~i2 = α1 + α 2 Z 2i + ... + α p Z pi + ε i donde n u~i2 = uˆi2 / ∑ uˆi2 / n i =1 12/10/2010 16 En cada regresión auxiliar, las Zi's pueden ser algunos o todos los regresores 3.- A continuación se calcula el estadístico de prueba LM. Bajo Ho: homoscedasticidad, se puede demostrar que el producto del tamaño de la muestra “n” por la R2 obtenida de las regresiones auxiliares sigue asintoticamente una distribución Ji-cuadrada con un número de grados de libertad igual al número de regresores. Esto es: nR 2 = χ p2 Es importante observar que los estadísticos de prueba propuestos originalmente por Park y Glesjer son estadísticos de prueba de Wald. Sin embargo, según lo precisado por Engle (1984), puesto que todas estas pruebas son diseñadas para muestras grandes, operacionalmente son equivalentes a la prueba LM. 12/10/2010 17 4.- Una vez que se encuentra el estadístico de prueba se compara a nR2 con el valor crítico de Ji-cuadrada. Así, 2 2 si nR > χ p , la conclusión es que hay heteroscedasticidad; 2 2 por el contrario, si nR < χ p hay homoscedasticidad. Las pruebas Park, Glesjer, y de Breusch-PaganGodfrey requieren el conocimiento sobre la fuente de heteroscedasticidad, es decir, la(s) variable(s) Z que puede ser causa del problema. En la prueba de Park, el término de error en la regresión auxiliar puede no satisfacer los supuestos del modelo de regresión lineal clásico y puede ser heteroscedástico en sí mismo. 12/10/2010 18 6 12/10/2010 En la prueba de Glejser, el término del error ui es diferente a cero, puede tener autocorrelación y es, irónicamente, heteroscedástico. En la prueba de Breusch-Pagan-Godfrey el término de error es absolutamente sensible al supuesto de normalidad (principalmente en pequeñas muestras). La hipótesis nula de la prueba Breusch-Pagan/CookWeisberg es que la varianza del error es la misma versus la alternativa de que la varianza del error es una función multiplicativa de una o más variables independientes. 12/10/2010 19 Prueba Breusch-Pagan-Godfrey en Stata La prueba Breusch-Pagan-Godfrey implementada en Stata. La sintaxis es estat hettest Las opciones posibles son: ha sido estat hettest varlist especifica las variables explicativas consideradas en la prueba (en caso de omisión se realiza con los valores ajustados de la dependiente, yhat). estat hettest,normal calcula la prueba suponiendo que los residuales de la regresión se distribuyen normalmente (es la opción por defecto). estat hettest,iid provoca que se calcule la versión N*R2 versión del estadístico de prueba, el cuál elimina el supuesto de normalidad. 12/10/2010 estat hettest,fstat provoca que se calcule la versión basada en el estadístico F. 20 Ejemplo Verificamos la prueba hettest de forma manual. Para ello se considera la influencia que se sobre el ingreso (income) presentan las variables: escolaridad (educ), la experiencia laboral (jobexp) y la raza (race) en una muestra de 20 individuos, información que se encuentra en el archivo labora1 ubicado en: http://www.nd.edu/~rwilliam/stats2/statafile Una vez recuperado el archivo de datos se calculan algunas estadísticas descriptivas de la variables en análisis. 12/10/2010 21 7 12/10/2010 use http://www.nd.edu/~rwilliam/stats2/statafiles/reg01.dta, clear sum reg income educ jobexp Variable | Obs Mean Std. Dev. Min Max -------------+-------------------------------------------------------income | 20 24.415 9.788354 5 48.3 educ | 20 12.05 4.477723 2 21 jobexp | 20 12.65 5.460625 1 21 race | 20 .5 .5129892 0 1 Del listado se puede señalar que el ingreso promedio de los individuos en la muestra alcanzo los 24.42 dólares; su nivel escolaridad promedio fue de 12 años al igual que los años de experiencia laboral. 12/10/2010 22 graph matrix income educ jobexp race 0 10 20 0 .5 1 50 income 0 20 educ 10 0 20 jobexp 10 0 1 race .5 0 0 50 0 10 20 12/10/2010 23 reg income educ jobexp Source | SS df MS -------------+-----------------------------Model | 1538.22521 2 769.112605 Residual | 282.200265 17 16.6000156 -------------+-----------------------------Total | 1820.42548 19 95.8118671 Number of obs F( 2, 17) Prob > F R-squared Adj R-squared Root MSE = = = = = = 20 46.33 0.0000 0.8450 0.8267 4.0743 -----------------------------------------------------------------------------income | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------educ | 1.933393 .2099494 9.21 0.000 1.490438 2.376347 jobexp | .6493654 .1721589 3.77 0.002 .2861417 1.012589 _cons | -7.096855 3.626412 -1.96 0.067 -14.74792 .5542052 ------------------------------------------------------------------------------ estat hettest Breusch-Pagan / Cook-Weisberg test for heteroskedasticity Ho: Constant variance Variables: fitted values of income chi2(1) 12/10/2010 Prob > chi2 = = 0.12 0.7238 24 8 12/10/2010 -10 -5 Residuals 0 5 10 rvfplot, yline(0) 0 10 20 30 Fitted values 40 12/10/2010 50 25 rvpplot educ, yline(0) -1 0 -1 0 -5 -5 R e s id u a ls 0 R e s id u a ls 0 5 5 10 10 rvpplot jobexp, yline(0) 0 5 10 educ 15 20 12/10/2010 0 5 10 jobexp 15 20 26 predict yhat predict e, resid gen e2= e^2 / (e(rss)/e(N)) reg e2 yhat Source | SS df MS -------------+-----------------------------Model | .249695098 1 .249695098 Residual | 24.8679862 18 1.38155479 -------------+-----------------------------Total | 25.1176813 19 1.32198323 Number of obs F( 1, 18) Prob > F R-squared Adj R-squared Root MSE = = = = = = 20 0.18 0.6758 0.0099 -0.0451 1.1754 -----------------------------------------------------------------------------e2 | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------yhat | .0127408 .0299691 0.43 0.676 -.050222 .0757036 _cons | .6889345 .7774684 0.89 0.387 -.944466 2.322335 ------------------------------------------------------------------------------ display "Chi Square (1) = " e(mss) / 2 Chi Square (1) = .12484755 display "Prob > chi2 = " chi2tail(1, e(mss)/ 2) Prob > chi2 = .72383527 12/10/2010 27 9 12/10/2010 Prueba Goldfeld-Quandt Idea: “Si los errores son homoscedásticos entonces tienen la misma varianza en toda la muestra, razón por la que la varianza de los residuales de una parte de las observaciones de la muestra debe tener igual varianza a la de cualquier otra parte de las observaciones en la muestra”. El acercamiento consiste en probar la presencia de heteroscedasticidad mediante una prueba de igualdad de varianzas de los residuales mediante la estadística F. Se parte del modelo de regresión siguiente: yi = β1 + β 2 x2i + β 3 x3i + ... + β k xki + ui 12/10/2010 28 Procedimiento H 0 : ui homoscedasticos 1. Identificar una variable con la que la varianza de los errores este relacionada. Con propósito ilustrativo, suponga que es con X1 positivamente. 2. Ordenar en forma ascendente a las observaciones según los valores de X1. 3. Omitir C observaciones centrales donde C es especificada a priori, dividiendo a las restantes n-C observaciones en dos grupos cada uno con un total de (n-C)/2 observaciones La determinación de C es arbitraria. Sin embargo, suele considerarse como criterios el omitir entre un 20 y un 25% de las observaciones totales. 12/10/2010 4. 29 Estimar dos regresiones separadas correspondientes a los dos grupos; la primera considerando las (n-C)/2 observaciones y la segunda con las (n-C)/2 observaciones. De estas se obtienen la suma de cuadrados de los errores respectivas: SCE1 que corresponde a los valores más pequeños de X1 y SCE2 a la de los valores más grandes de X1 (el grupo grande de la variación), y se calcula el estadístico de prueba F. F= SCE2 / υ 2 SCE1 / υ1 donde los grados de libertad son υ1 = υ 2 = 12/10/2010 n−C 2 30 10 12/10/2010 5. Si ui se distribuye normalmente, la regla de decisión es: Rechazar Ho ssi Fc>Ft donde Ft= F(n-C)/2 , (n-C)/2 Comentarios - Esta prueba depende fuertemente tanto de la identificación de la variable X que genera la heteroscedasticidad como del valor de C. - Adicionalmente la prueba no puede considerar situaciones donde la fuente de heteroscedasticidad es por la combinación de varias variables. En este caso, debido a que no existe una sola variable que cause del problema, la prueba de Goldfeld-Quandt concluirá probablemente que no existe heteroscedasticidad cuando de hecho si la hay. 12/10/2010 31 Prueba de White (1980) Establece como hipótesis nula que la varianza de los errores es constante (homoscedasticidad). Para probar esto se estima una regresión auxiliar donde se regresa a los residuales al cuadrado sobre sus regresores (originales), el cuadrado de los regresores y los productos cruzados de los regresores. La prueba no requiere ningún conocimiento previo sobre la fuente de heteroscedasticidad. La prueba no depende del supuesto de normalidad de los errores. Sea yi = β1 + β 2 x2i + β 3 x3i + ui 12/10/2010 32 Procedimiento 1. 2. Estimar el modelo de regresión y obtener sus residuales. Estimar la regresión auxiliar siguiente y obtener su R2 asociada: uˆi2 = γ 1 + γ 2 x2i + γ 3 x3i + γ 4 x22i + γ 5 x32i + γ 4 x22i x32i + ε i 3. Calcular la estadística de prueba dado por el producto de n y R2 obtenido de la regresión auxiliar, el cual sigue de manera asintótica una distribución Ji-cuadrada con grados de libertad igual al número de regresores (sin incluir al término constante) en la regresión auxiliar. Esto es, nR 2 = χ 52 4. Si nR2>χ2 la conclusión heteroscedasticidad. 12/10/2010 es que existe 33 11 12/10/2010 Prueba de White en Stata La prueba de White se puede estimar vía la sintaxis estat imtest, white o simplemente imtest, white, o bien whitetst. Stata computa la prueba extendida de White considerando en la regresión auxiliar a los residuales al cuadrado contra todos los regresores, los productos cruzados y los cuadrados de los distintos regresores. 12/10/2010 34 Ejemplo 2 Se desea establecer la influencia que se sobre el número de hijos nacidos vivos (ceb) por mujer presentan las variables: edad de la madre (age), edad al primer nacimiento (agefbrth) y la escolaridad (educ). Para ello se considera la información de 4361 mujeres en los Estados Unidos misma que se encuentra en el archivo fertil2 ubicado en: http://www.stata-press.com/data/imeus/fertil2 Una vez recuperado el archivo de datos, lo primero a resolver es determinar qué variables presentan valores perdidos (missing values). 12/10/2010 35 use http://www.stata-press.com/data/imeus/fertil2, clear keep age educ ceb agefbrth Para ello se puede recurrir al archivo mdesc el cual realiza un conteo del número de valores perdidos para cada una de las variables numéricas (findit mdesc). mdesc Variable Missing Total Missing/Total ------------------------------------------------age 0 4361 0 educ 0 4361 0 ceb 0 4361 0 agefbrth 1088 4361 .249484 dis 4361- 1088 =3273 drop if missing(agefbrth) 12/10/2010 36 12 12/10/2010 sum ceb educ age agefbrth Variable | Obs Mean Std. Dev. Min Max -------------+-------------------------------------------------------age | 3273 30.04277 7.984743 15 49 educ | 3273 5.406355 4.067566 0 20 ceb | 3273 3.253284 2.253429 1 13 agefbrth | 3273 19.0113 3.092333 10 38 La edad promedio de las mujeres captadas en la muestra (con registros validos) fue de 30 años con una edad al primer nacimiento de 19 años. No obstante, hubo quienes tuvieron a su primer hijo a los 10 años. En promedio el número de hijos nacidos vivos por mujer es de 3.2. La escolaridad promedio fue de 5.4 años. 12/10/2010 37 Se espera que el número de hijos nacidos vivos (ceb): - aumente con la edad actual de la madre (age); - disminuya con la edad al primer nacimiento (agefbrth); - disminuya con mayores niveles de escolaridad (esc) 12/10/2010 38 graph matrix ceb age agefbrth educ 0 50 0 10 20 15 10 ceb 5 0 50 a ge 0 40 30 agefbrth 20 10 20 e duc 10 0 0 12/10/2010 5 10 15 10 20 30 40 39 13 12/10/2010 regress ceb age agefbrth educ estimates store original Source | SS df MS -------------+-----------------------------Model | 9805.3274 3 3268.44247 Residual | 6809.6998 3269 2.08311404 -------------+-----------------------------Total | 16615.0272 3272 5.0779423 Number of obs = F( 3, 3269) Prob > F R-squared Adj R-squared Root MSE 3273 = 1569.02 = 0.0000 = 0.5901 = 0.5898 = 1.4433 -----------------------------------------------------------------------------ceb | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------age | .2108335 .0035151 59.98 0.000 .2039414 .2177255 agefbrth | -.2372357 .0088494 -26.81 0.000 -.2545867 -.2198847 educ | -.0729918 .0066071 -11.05 0.000 -.0859462 -.0600374 _cons | 1.824042 .1671298 10.91 0.000 1.496352 2.151732 ------------------------------------------------------------------------------ 12/10/2010 40 -10 -5 Residuals 0 5 rvfplot 0 2 4 6 8 10 Fitted values 12/10/2010 41 rvpplot agefbrth -10 -10 -5 -5 Residuals Residuals 0 0 5 5 rvpplot age 10 12/10/2010 20 30 age 40 50 10 20 30 40 agefbrth 42 14 12/10/2010 predict resid, resid gen resid2= resid^2 sc resid2 agefbrth 0 0 10 10 20 20 r e s id 2 resid2 30 30 40 40 50 50 sc resid2 age 10 20 30 age 40 50 12/10/2010 10 20 30 40 agefbrth 43 Prueba Goldfeld-Quandt sort agefbrth gen m=. replace m=1 in 1/1452 replace m=2 in 1820/3273 regress ceb age agefbrth educ if m==1 scalar scrm1=e(rss) scalar df1=e(df_r) Source | SS df MS -------------+-----------------------------Model | 4611.97745 3 1537.32582 Residual | 3098.72434 1448 2.140003 -------------+-----------------------------Total | 7710.70179 1451 5.3140605 Number of obs F( 3, 1448) Prob > F R-squared Adj R-squared Root MSE = = = = = = 1452 718.38 0.0000 0.5981 0.5973 1.4629 -----------------------------------------------------------------------------ceb | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------age | .2123868 .0053677 39.57 0.000 .2018575 .2229161 agefbrth | -.1071605 .0297124 -3.61 0.000 -.1654445 -.0488765 educ | -.0940836 .0113811 -8.27 0.000 -.1164087 -.0717585 _cons | -.3348579 .5045349 -0.66 0.507 -1.324555 .6548397 12/10/2010 44 ------------------------------------------------------------------------------ Prueba Goldfeld-Quandt regress ceb age agefbrth educ if m==2 scalar scrm2=e(rss) scalar df2=e(df_r) scalar F= ((scrm2/df2)/(scrm1/df1)) display F Source | SS df MS -------------+-----------------------------Model | 3939.75191 3 1313.25064 Residual | 2814.2646 1450 1.94087214 -------------+-----------------------------Total | 6754.01651 1453 4.64832519 Number of obs F( 3, 1450) Prob > F R-squared Adj R-squared Root MSE = = = = = = 1454 676.63 0.0000 0.5833 0.5825 1.3932 -----------------------------------------------------------------------------ceb | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------age | .2060849 .0051318 40.16 0.000 .1960182 .2161515 agefbrth | -.2807764 .0141002 -19.91 0.000 -.3084354 -.2531173 educ | -.0602906 .0085651 -7.04 0.000 -.0770919 -.0434892 _cons | 2.851509 .3012148 9.47 0.000 2.260645 3.442372 ------------------------------------------------------------------------------ 12/10/2010 45 15 12/10/2010 Prueba Goldfeld-Quandt describe sort agefbrth dis dis dis dis dis dis dis 3273*.25 3273*.25 =368.25 367/2 =183.5 (3273+1)/2 =1637 1637-184 =1453 1637+184 =1821 1821-1453 =368 drop in 1452/1820 12/10/2010 46 hettest age agefbrth Breusch-Pagan / Cook-Weisberg test for heteroskedasticity Ho: Constant variance Variables: age agefbrth chi2(2) = 1613.76 Prob > chi2 = 0.0000 hettest Breusch-Pagan / Cook-Weisberg test for heteroskedasticity Ho: Constant variance Variables: fitted values of ceb chi2(1) = 1633.15 Prob > chi2 = 0.0000 12/10/2010 47 imtest, white White's test for Ho: homoskedasticity against Ha: unrestricted heteroskedasticity chi2(9) Prob > chi2 = = 850.98 0.0000 Cameron & Trivedi's decomposition of IM-test --------------------------------------------------Source | chi2 df p ---------------------+----------------------------Heteroskedasticity | 850.98 9 0.0000 Skewness | 56.38 3 0.0000 Kurtosis | 69.03 1 0.0000 ---------------------+----------------------------Total | 976.38 13 0.0000 --------------------------------------------------- 12/10/2010 48 16 12/10/2010 regress ceb age agefbrth educ,robust estimates store robustos Linear regression Number of obs F( 3, 3269) Prob > F R-squared Root MSE = = = = = 3273 837.36 0.0000 0.5901 1.4433 -----------------------------------------------------------------------------| Robust ceb | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------age | .2108335 .0046423 45.42 0.000 .2017314 .2199355 agefbrth | -.2372357 .00958 -24.76 0.000 -.2560191 -.2184523 educ | -.0729918 .006377 -11.45 0.000 -.0854952 -.0604885 _cons | 1.824042 .1615009 11.29 0.000 1.507389 2.140695 ------------------------------------------------------------------------------ 12/10/2010 49 estimates table original b(%9.4f) se(%5.3f) t(%5.2f) robustos, -------------------------------------Variable | original robustos -------------+-----------------------age | 0.2108 0.2108 | 0.004 0.005 | 59.98 45.42 agefbrth | -0.2372 -0.2372 | 0.009 0.010 | -26.81 -24.76 educ | -0.0730 -0.0730 | 0.007 0.006 | -11.05 -11.45 _cons | 1.8240 1.8240 | 0.167 0.162 | 10.91 11.29 -------------------------------------12/10/2010 50 Soluciones al problema de heteroscedasticidad Cuando de presenta una estructura de errores heteroscedastica se puede proceder por alguna de las siguientes rutas: a) Emplear una transformación de Y del tipo Box-Cox; b) Aplicar mínimos cuadrados ponderados; c) Corregir los errores estándar por heteroscedasticidad. 12/10/2010 51 17 12/10/2010 Transformaciones Box-Cox Box y Cox (1964) propusieron realizar la transformación paramétrica Yλ sobre la variable de respuesta Y de manera tal que Yλ cumpliera con los supuestos del modelo de regresión lineal (corrige asimetría, no linealidad y heteroscedasticidad). Las transformaciones consideradas por los autores forman parte de la familia de las transformaciones potencia y raíz. Su propuesta original fue y λ −1 12/10/2010 y (λ ) = λ , ln y , si λ≠0 si λ=0 52 El valor de λ se estima a partir de los datos. Kutner et. al. (2005) señalan que puede emplearse simplemente la transformación y iλ = β 1 + β 2 x i + u i La forma de determinar el valor de λ considera: i. el método de máxima verosimilitud, el cual además de estimar a λ también estima β1, β2 y σ2; ii. un proceso de búsqueda numérica mediante el cual se minimice a la SCE. 12/10/2010 53 Respecto al procedimiento de busca numérica, Kutner et. al (2005: 135) apuntan que cada valor de λ las observaciones yiλ deben ser estandarizadas a fin de que la SCE no dependa del valor de λ, donde wi = K 1 ( y1λ − 1), K 2 (ln y i ), si λ≠0 …(A) si λ=0 donde n K 2 = ∏ y i i =1 K1 = 12/10/2010 1 λ K 2λ −1 1/ n 54 18 12/10/2010 Ejemplo Considerando los datos de la tabla 3.9 de Kutner et.al. (2005) en la cual se presentan los datos de 25 niños sanos respecto a su edad (X) y su nivel de plasma poliamina (Y), moléculas que afectan los aspectos del desarrollo, crecimiento, senescencia y respuesta al estrés, se pide encontrar el valor de λ más adecuado para transformar a la variable Y. Empleando (A) se obtienen para los valores λ= 1, .9, .7, .5, .3, .1, 0, -.1, -.3, -.4, .5. -.6, -.7, -.9 y 1.0 siguientes: 12/10/2010 55 k1 1.0000 1.3765 2.7163 5.8365 14.9298 68.7428 --105.5061 -53.9767 -50.1526 -49.7059 -51.3159 -54.4917 -65.0484 -72.5278 lambda 1.0 0.9 0.7 0.5 0.3 0.1 0.0 -0.1 -0.3 -0.4 -0.5 -0.6 -0.7 -0.9 -1.0 k2 8.5163 8.5163 8.5163 8.5163 8.5163 8.5163 8.5163 8.5163 8.5163 8.5163 8.5163 8.5163 8.5163 8.5163 8.5163 12/10/2010 56 child age y 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 0 0 0 0 0 1 1 1 1 1 2 2 2 2 2 3 3 3 3 3 4 4 4 4 4 13.44 12.84 11.91 20.09 15.60 10.11 11.38 10.28 8.96 8.59 9.83 9.00 8.65 7.85 8.88 7.94 6.01 5.14 6.90 6.77 4.86 5.10 5.67 5.75 6.23 SCE 12/10/2010 1 w1 12.4400 11.8400 10.9100 19.0900 14.6000 9.1100 10.3800 9.2800 7.9600 7.5900 8.8300 8.0000 7.6500 6.8500 7.8800 6.9400 5.0100 4.1400 5.9000 5.7700 3.8600 4.1000 4.6700 4.7500 5.2300 77.9831 0.9 w2 12.8908 12.3162 11.4203 19.1098 14.9388 9.6658 10.9067 9.8327 8.5286 8.1597 9.3901 8.5684 8.2196 7.4171 8.4490 7.5077 5.5381 4.6304 6.4532 6.3203 4.3350 4.5883 5.1850 5.2683 5.7655 70.3505 0.7 w3 14.0276 13.5008 12.6694 19.4689 15.8688 11.0021 12.1868 11.1632 9.8902 9.5235 10.7350 9.9295 9.5832 8.7755 9.8113 8.8675 6.8158 5.8275 7.7833 7.6444 5.4990 5.7809 6.4351 6.5253 7.0588 57.8369 Valor de λ 0.5 w4 15.5606 15.0775 14.3059 20.3240 17.2160 12.7215 13.8526 12.8768 11.6341 11.2696 12.4627 11.6731 11.3293 10.5162 11.5560 10.6097 8.4719 7.3958 9.4948 9.3497 7.0304 7.3442 8.0613 8.1590 8.7315 48.3707 0.3 w5 17.6220 17.1790 16.4629 21.7941 19.1104 14.9570 16.0371 15.1069 13.8937 13.5314 14.7063 13.9323 13.5909 12.7725 13.8163 12.8674 10.6394 9.4676 11.7209 11.5693 9.0610 9.4105 10.1966 10.3024 10.9167 41.3634 0.1 w6 20.3961 19.9899 19.3252 24.0523 21.7345 17.8940 18.9253 18.0386 16.8541 16.4939 17.6510 16.8922 16.5532 15.7295 16.7774 15.8258 13.5032 12.2271 14.6468 14.4884 11.7748 12.1638 13.0256 13.1402 13.7994 36.3689 0 w7 22.1274138 21.7384729 21.0981568 25.5508639 23.396649 19.7027286 20.7104856 19.8447402 18.6743416 18.3151955 19.4635383 18.7122762 18.3744741 17.5480007 18.5979615 17.6450846 15.2733861 13.9416743 16.449462 16.2874788 13.4646355 13.8751402 14.7774326 14.8967526 15.5795614 34.5195 57 19 12/10/2010 reg w1 age Source | SS df MS -------------+-----------------------------Model | 238.0562 1 238.0562 Residual | 77.9830686 23 3.3905682 -------------+-----------------------------Total | 316.039268 24 13.1683028 reg Number of obs F( 1, 23) Prob > F R-squared Adj R-squared Root MSE = = = = = = 25 70.21 0.0000 0.7532 0.7425 1.8413 Number of obs F( 1, 23) Prob > F R-squared Adj R-squared = = = = = 25 75.86 0.0000 0.7673 0.7572 Number of obs F( 1, 23) Prob > F R-squared Adj R-squared Root MSE = = = = = = 25 88.19 0.0000 0.7931 0.7841 1.5858 Number of obs F( 1, 23) Prob > F R-squared Adj R-squared Root MSE = = = = = = 25 101.57 0.0000 0.8154 0.8073 1.4502 w2 age Source | SS df MS -------------+-----------------------------Model | 232.034312 1 232.034312 Residual | 70.3505047 23 3.0587176 -------------+-----------------------------reg w3 age Source | SS df MS -------------+-----------------------------Model | 221.762335 1 221.762335 Residual | 57.8368633 23 2.51464623 -------------+-----------------------------Total | 279.599198 24 11.6499666 reg w4 age Source | SS df MS -------------+-----------------------------Model | 213.615737 1 213.615737 Residual | 48.3707214 23 2.10307484 -------------+-----------------------------Total | 261.986458 24 10.9161024 12/10/2010 58 -0.1 w8 24.1411 23.7686 23.1518 27.3470 25.3447 21.7913 22.7760 21.9307 20.7742 20.4161 21.5558 20.8120 20.4754 19.6461 20.6982 19.7440 17.3220 15.9322 18.5314 18.3659 15.4291 15.8622 16.8070 16.9312 17.6385 33.0559 -0.3 w9 29.2204 28.8788 28.3063 32.0329 30.3029 27.0129 27.9533 27.1475 26.0182 25.6622 26.7848 26.0555 25.7213 24.8866 25.9429 24.9859 22.4598 20.9460 23.7388 23.5658 20.3863 20.8685 21.9043 22.0388 22.7979 31.1768 -0.4 w10 32.4134 32.0863 31.5348 35.0482 33.4400 30.2736 31.1926 30.4058 29.2899 28.9350 30.0491 29.3270 28.9940 28.1565 29.2149 28.2566 25.6764 24.0966 26.9918 26.8149 23.5062 24.0150 25.0995 25.2396 26.0259 30.7182 Valor de l -0.5 -0.6 w11 w12 36.1475 35.8344 35.3030 38.6163 37.1211 34.0733 34.9714 34.2031 33.1003 32.7465 33.8522 33.1373 32.8054 31.9651 33.0257 32.0660 29.4305 27.7816 30.7832 30.6024 27.1589 27.6958 28.8314 28.9771 29.7917 30.5595 40.5212 40.2213 39.7093 42.8346 41.4446 38.5103 39.3880 38.6378 37.5480 37.1952 38.2927 37.5848 37.2541 36.4110 37.4738 36.5126 33.8204 32.0994 35.2116 35.0268 31.4426 32.0091 33.1983 33.3499 34.1937 30.6875 -0.7 w13 45.6518 45.3646 44.8714 47.8199 46.5275 43.7021 44.5599 43.8274 42.7505 42.3987 43.4879 42.7870 42.4575 41.6116 42.6765 41.7139 38.9636 37.1674 40.3944 40.2055 36.4746 37.0724 38.3175 38.4754 39.3495 31.0902 -0.9 w14 -1 w15 58.7725 67.1314 58.5091 66.8792 58.0513 66.4381 60.6777 68.9176 59.5603 67.8786 56.9395 65.3539 57.7587 66.1545 57.0603 65.4725 56.0086 64.4332 55.6589 64.0845 56.7319 65.1496 56.0448 64.4691 55.7175 64.1431 54.8659 63.2886 55.9353 64.3602 54.9698 63.3933 52.0990 60.4599 50.1421 58.4173 53.6124 62.0165 53.4150 61.8147 49.3714 57.6044 50.0369 58.3066 51.4022 59.7363 51.5732 59.9142 52.5113 60.8861 32.7042 33.9088872 59 30 40 50 SCE 60 70 80 12/10/2010 -1 12/10/2010 -.5 0 lambda .5 1 60 20 12/10/2010 Transformaciones Box-Cox en Stata λ yi Stata tiene incluida la rutina para encontrar el valor de y utilizando el método de máxima versosimitud. boxcox y age Number of obs LR chi2(1) Prob > chi2 Log likelihood = -37.983365 = = = 25 50.33 0.000 -----------------------------------------------------------------------------y | Coef. Std. Err. z P>|z| [95% Conf. Interval] -------------+---------------------------------------------------------------/theta | -.5049226 .2926884 -1.73 0.085 -1.078581 .068736 -----------------------------------------------------------------------------Estimates of scale-variant parameters ---------------------------| Coef. -------------+-------------Notrans | age | -.0792865 _cons | 1.456585 -------------+-------------/sigma | .0440194 -----------------------------------------------------------------------------------Test Restricted LR statistic P-value H0: log likelihood chi2 Prob > chi2 --------------------------------------------------------theta = -1 -39.283475 2.60 0.107 theta = 0 -39.506554 3.05 0.081 theta = 1 -49.693662 23.42 0.000 --------------------------------------------------------- 12/10/2010 61 Transformación de las variables del modelo Con el fin de encontrar un estimador con mayor precisión que el ofrecido por MCO bajo heteroscedasticidad, la idea es encontrar una transformación adecuada para ui, de manera tal que cumpla con el supuesto de homocedasticidad. Una posibilidad es multiplicar a ui por xi-1/2, para entonces u Var 1i/ 2 x i 1 = Var (ui ) = 1 σ 2 xi = σ 2 x xi i el cual es homoscedastico. 12/10/2010 62 Mínimos Cuadrados Generalizados (MCG) Si el supuesto de homoscedasticidad no se cumple entonces se tiene E (uu' ) = σ 2 Ω donde Ω es una matriz simétrica nxn que depende de X pero es diferente de I. Bajo heteroscedasticidad se tiene ω1 0 2 σ Ω = Σu = . 0 12/10/2010 0 ... ω2 ... . . 0 ... . 0 0 . ω n 63 21 12/10/2010 Dado que la varianzas dependen de los valores de X (heteroscedastidad condicional), se puede reescribir a Σu como: σ2x1 0 2 0 σ x2 E(uu') = Σu = . . 0 0 0 x1 0 ... 0 0 x ... 0 ... 0 2 2 2 . . =σ . . . . =σ V . . . . 2 0 0 ... xn ... σ xn ... Se puede encontrar a una matriz P, llamada matriz de transformación, tal que al modificar al vector u de forma u * = Pu 12/10/2010 64 ofrezca una matriz de var-cov del vector de errores transformado homoscedastica Var (u* ) = E (u*u * ' ) = σ 2 I La matriz de transformación P es de dimensión nxn. La forma precisa que toma P depende de los elementos de la matriz Σu. Es posible considerar multiplicar todo el modelo por la matriz P 12/10/2010 65 El modelo bajo MCG Sea Py = PXβ + Pu y * = X*β + u* βˆ = (X* ' X* ) −1 X* ' Y* son MELI ¿Cómo encontrar a P? Si σi2 fueran conocidas la corrección sería directa, ya que se puede considerar para encontrar a P Lo más realista es que σi2 sean desconocidas. Afortunadamente existen algunos supuestos razonables para establecer el patrón de heteroscedasticidad los cuales pueden surgir del examen gráfico. 12/10/2010 66 22 12/10/2010 Patrones de heteroscedasticidad Uno de los patrones más comunes es que la varianza del error sea proporcional a Xi2, esto es E (u 2i ) = σ 2 X i La transformación a considerar es dividir a todas las observaciones sobre X i1 / 2 . Así, x1−1/ 2 0 −1/ 2 0 x2 P= . . 0 0 12/10/2010 ... ... . . ... 0 0 . . xn−1/ 2 67 Bajo este patrón, las variables transformadas serán x1−1/ 2 0 −1/ 2 0 x2 y* = . . 0 0 x1−1/2 0 −1/2 0 x2 X* = . . 0 0 0 0 0 0 . . ... 1 1 . . ⋅. . . . ... xn−1/2 1 ... ... y1 y1 / x11/ 2 1/ 2 y2 y2 / x1 ⋅ . = . . . −1/ 2 1/ 2 y xn n yn / x1 ... ... . . x11 ... xk1 x1−1/2 x111/2 x12 ... xk2 x−21/2 x112/2 . . . = . . . . . . . x1n ... xkn xn−1/2 x11n/2 12/10/2010 ... xk1 / x111/2 ... x2 / x112/2 . . . . 1/2 ... xkn / x1n 68 El vector de errores transformados u1 / x11/ 2 1/ 2 u2 / x1 * u = . . u / x1/ 2 n 1 P esta dado por x1−1/2 0 −1/ 2 0 x2 P= . . 0 0 12/10/2010 ... 0 ... 0 . . ⋅ . . ... xn−1/2 69 23 12/10/2010 Así, Py = PXβ + Pu y * = X*β + u* βˆ = (X* ' X* ) −1 X* ' Y* βˆ = (X' P' PX) −1 X' P' PY donde x1−1 0 −1 0 x2 P'P = . . 0 0 ... ... . . ... 0 x1 0 0 . = . . xn−1 0 0 x2 . 0 12/10/2010 −1 0 0 −1 . . =V . . ... xn ... ... 70 Míminos cuadrados ponderados en Stata Considerando los datos que se muestran a continuación sobre los gastos en comida e ingreso de 40 hogares así como el modelo: comidai = β1 + β 2ingresoi + ui a. Presente el diagrama de dispersión correspondiente; b. Estime el modelo señalado; c. Identifique si el modelo cumple con el supuesto de homoscedasticidad; d. De no cumplir con lo apuntado en (c) corrija mediante MCP: 12/10/2010 71 Datos sobre gastos en comida e ingreso de 40 hogares. ID 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 12/10/2010 COMIDA 9.46 10.56 14.81 21.71 22.79 18.19 22.00 18.12 23.13 19.00 19.46 17.83 32.81 22.13 23.46 16.81 21.35 14.87 33.00 25.19 INGRESO 25.83 34.31 42.50 46.75 48.29 48.77 49.65 51.94 54.33 54.87 56.46 58.83 59.13 60.73 61.12 63.10 65.96 66.40 70.42 70.48 ID 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 COMIDA 17.77 22.44 22.87 26.52 21.00 37.52 21.69 27.40 30.69 19.56 30.58 41.12 15.38 17.87 25.54 39.00 20.44 30.10 20.90 48.71 INGRESO 71.98 72.00 72.23 72.23 73.44 74.25 74.77 76.33 81.02 81.85 82.56 83.33 83.40 91.81 91.81 92.96 95.17 101.40 114.13 115.46 72 24 12/10/2010 10 20 COMIDA 30 40 50 Diagrama de dispersión entre los gastos en comida e ingreso 20 40 60 80 100 120 INGRESO 12/10/2010 73 regress comida ingreso Source | SS df MS -------------+-----------------------------Model | 826.635228 1 826.635228 Residual | 1780.4125 38 46.8529606 -------------+-----------------------------Total | 2607.04773 39 66.8473777 Number of obs F( 1, 38) Prob > F R-squared Adj R-squared Root MSE = = = = = = 40 17.64 0.0002 0.3171 0.2991 6.8449 -----------------------------------------------------------------------------comida | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------ingreso | .2322533 .0552934 4.20 0.000 .1203176 .344189 _cons | 7.383217 4.008356 1.84 0.073 -.7312761 15.49771 -----------------------------------------------------------------------------12/10/2010 74 -20 -10 Residuals 0 10 20 rvfplot 15 12/10/2010 20 25 F itted values 30 35 75 25 12/10/2010 -20 -10 Residuals 0 10 20 rvpplot ingreso 20 40 60 80 100 120 INGRESO 12/10/2010 76 whitetst White's general test statistic : 14.58151 Chi-sq( 2) P-value = 6.8e-04 hettest Breusch-Pagan / Cook-Weisberg test for heteroskedasticity Ho: Constant variance Variables: fitted values of comida chi2(1) = Prob > chi2 = 11.28 0.0008 12/10/2010 regress 77 comida ingreso [aweight=1/ ingreso] Source | SS df MS -------------+-----------------------------Model | 1027.51018 1 1027.51018 Residual | 1432.39609 38 37.6946339 -------------+-----------------------------Total | 2459.90627 39 63.0745196 Number of obs = F( 1, 38) Prob > F R-squared Adj R-squared Root MSE = = = = = 40 27.26 0.0000 0.4177 0.4024 6.1396 -----------------------------------------------------------------------------comida | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------ingreso | .2551922 .0488781 5.22 0.000 .1562437 .3541407 _cons | 5.782084 3.256587 1.78 0.084 -.8105315 12.3747 ------------------------------------------------------------------------------ 12/10/2010 78 26 12/10/2010 Errores estándar corregidos por heteroscedasticidad Si los errores son heteroscedasticos condicionalmente, es psoible aplicar un enfoque robusto. Hubber (1967) y White (1980) propusieron el estimador “sandwich” de la varianza de los errores, el cual corrige la hetersoscedasticidad. Se ha señalado que bajo heteroscedasticidad [ Var[βˆ ] = E (X'X)−1 X' E(uu')X(X'X)−1 [ Var[βˆ ] = E (X'X)−1 X'Σu X(X'X)−1 12/10/2010 79 ] ] Ejemplo Para los datos de gastos en comida e ingreso se obtienen los errores estándar corregidos de acuerdo al estimador de Hubber y White. En Stata se tiene regress comida ingreso, robust Linear regression Number of obs = F( 1, 38) = Prob > F = R-squared = Root MSE = 40 10.73 0.0023 0.3171 6.8449 -----------------------------------------------------------------------------| Robust comida | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------ingreso | .2322533 .0709056 3.28 0.002 .0887125 .3757942 _cons | 7.383217 4.403557 1.68 0.102 -1.531318 16.29775 ------------------------------------------------------------------------------ 12/10/2010 80 0 .1 Density .2 .3 .4 histogram resid, normal -10 -5 0 5 Residuals 12/10/2010 81 27 12/10/2010 Prueba Jarque_Bera sum resid, detail scalar nobs=r(N) scalar s=r(skewness) scalar k=r(kurtosis) scalar JB=(nobs/6)*(s^2+((k-3)^2)/4) scalar chi2_95=invchi2(2,.95) scalar pval=1-chi2(2,JB) di JB di chi2_95 di pval JB= 657.94501 chi2_95= 5.9914645 pvalue=0 12/10/2010 82 Prueba SK sktest resid Skewness/Kurtosis tests for Normality ------- joint -----Variable | Obs Pr(Skewness) Pr(Kurtosis) adj chi2(2) Prob>chi2 -------------+--------------------------------------------------------------resid | 3.3e+03 0.0000 0.0000 . 0.0000 12/10/2010 83 28