ANÁLISIS COMPARATIVO DE LA ECONOMETRIA TRADICIONAL CON LA DE SERIES DE TIEMPO Ejercicio 1: Análisis econométrico A. Enfoque tradicional Del ejercicio en el capitulo VIII del libro capturar la siguiente información: obs 1993 1994 1995 1996 1997 1998 1999 2000 2001 2002 I. Y 3 2 4 5 5 7 6 8 9 12 X1 1 2 2.5 3 4 5 7 8 9 15 “Introducción a la econometría” X2 8 15 10 9 7 6 8 4 3 1 X3 16 17 18 15 17 20 19 21 22 23 Marco teórico: Teoría del consumo Con Y: consumo, X1: Ingreso, X2: Inflación, X3: Inversión, con una serie de 10 años para cada una de las variables, haciendo Y=f(X1, X2) Verificar la teoría económica de que el consumo, Y varia en razón directa del ingreso X1, y en razón inversa de la inflación, X2. Lo anterior significa, entre otras cosas, comprobar que el coeficiente del regresor o variable exógena, X1, tiene signo positivo, en tanto que el coeficiente de la otra variable exógena, X2, tiene signo negativo. Así, vamos al programa EVIEWS, colocamos el cursor en Quick/ estimate equation/ escribimos Y X1 X2 ok y aparece el siguiente cuadro Dependent Variable: Y Method: Least Squares Sample: 1993 2002 Included observations: 10 Variable C X1 X2 R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat Coefficient 5.800837 0.442193 -0.309751 Std. Error 0.976443 0.076017 0.081265 t-Statistic 5.940785 5.817014 -3.811615 0.973305 0.965678 0.555441 2.159601 -6.526078 2.464587 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic) Prob. 0.0006 0.0007 0.0066 6.100000 2.998148 1.905216 1.995991 127.6122 0.000003 1 Que le llamaremos “ecuación para predecir” II. Diagnóstico 1. La ecuación de regresión Y = 5.800837488 + 0.4421934197*X1 0.3097507478*X2 en lo que se refiere a los signos de los coeficientes de X1, X2 cumplen con lo especificado por la teoría del consumo. 2. Las pruebas de significación estadísticamente usando α=5% realizadas con 2 t, para β 1, β 2 y F para R tienen una probabilidad de casí cero, lo cual, corrobora que X1 y X2 e xplican satisfactoriamente a Y. 3. En ese sentido R2= 0.973305 como R 2 = 0.965678 muestra que X1, X2 son suficientes para explicar a Y; no se necesita otra variable para determinar el comportamiento presente y futuro de Y. 4. Sin embargo, independientemente de verificar si fueron o no violados algunos supuestos del modelo estimado con el método de mínimos cuadrados, digamos la homocedasticidad, la eficiencia, ausencia de autocorrelación o de multicolinealidad entre las variables exógenas, con este ejercicio haremos otras pruebas con el propósito de asegurarnos que la ecuación de regresión múltiple antes descrita sirva para pronósticar y visualizar escenarios futuros, es decir, para hacer planeación sobre el consumo. Dichas pruebas adicionales son: III. Pruebas de especificación del modelo. 1.- Omisión de variables explicativas, digamos X3. Para verificar si omitimos algún regresor explicativo en el modelo aplicamos la 2 X cuadrada en su “razón de verosimilitud” como el estadístico F, que permiten incorporar; uno o varios regresores explicativos y probar si su contribución al modelo es significativo estadísticamente. Así, planteamos con α=5% Ho: una o varias variable(s) explicativa(s) no es (son) significativa(s) estadísticamente. No debe(n) incorporarse al modelo: en este caso X3. Ha: Todo lo contrario de Ho, es decir, que si verificamos que es (son) significativa(s) estadísticamente, entonces debemos incorporarlo(s) al modelo porque también determina(n) el comportamiento de la variable endógena Y. Para contrastar la contribución de las variables explicativas nuevas se requiere que éstas, también llamadas “omitidas”, tengan el mismo tamaño de muestra que Y, X1, X2; además, que el modelo especifique la ordenada al origen; C, y, Y, X1, X2 . Así, de la ecuación partimos, de su cuadro, nos colocamos en view/coefficient tests/omitted variables- likelihood ratio/y en la caja de “omitted – redundant variable test, escribimos X3/ok y obtenemos el siguiente cuadro: 2 Omitted Variables: X3 F-statistic Log likelihood ratio 0.193073 0.316720 Probability Probability 0.675754 0.573585 Test Equation: Dependent Variable: Y Method: Least Squares Sample: 1993 2002 Included observations: 10 Variable Coefficient Std. Error t-Statistic Prob. C X1 X2 X3 4.609288 0.407127 -0.303439 0.071535 2.903669 0.113580 0.087583 0.162801 1.587402 3.584513 -3.464580 0.439401 0.1635 0.0116 0.0134 0.6758 R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat 0.974138 0.961206 0.590519 2.092274 -6.367718 2.324024 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic) 6.100000 2.998148 2.073544 2.194578 75.33212 0.000037 La diferencia entre ambas F’s es la siguiente, la F asociada a la prueba de omisión de variables y la F que asume un valor de 75.33212 es la evaluación de la R 2 / k −1 regresión Y f(X1 ,X2) y se construye F = (1 − R 2 ) / n − k Como la probabilidad de F y la razón de verosimilitud >5%, aceptamos Ho y decidimos no incluir en el modelo X3 como variable explicativa. Si hubiéramos aceptado Ha usaríamos la nueva ecuación de regresión Y=f(X1 , X2, X3). 2. Variables explicativas redundantes, digamos X2. En Eviews la prueba “Redundant variables- likelihood ratio contrasta la significación estadística de una o varias variables exógenas, con el fin de cerciorarse de que no sobran o de que son redundantes. Así con α=5% supóngase que Ho: X2 es redundante Ha: X2 no es redundante Como en el ejemplo anterior partimos del cuadro de la ecuación de regresión en que Y=f(X1 , X2), colocamos el cursor en view/coefficient tests/redundant 3 variables-likelihood ratio/ escribimos X2 en “omitted redundant variables test/ok y aparece el cuadro siguiente: Redundant Variables: X 2 F-statistic Log likelihood ratio 14.52841 11.23463 Probability Probability 0.006614 0.000803 Test Equation: Dependent Variable: Y Method: Least Squares Sample: 1993 2002 Included observations: 10 Variable Coefficient Std. Error t-Statistic Prob. C X1 2.263158 0.679087 0.497606 0.071805 4.548090 9.457435 0.0019 0.0000 R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat 0.917901 0.907638 0.911169 6.641826 -12.14339 2.526715 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic) 6.100000 2.998148 2.828679 2.889196 89.44309 0.000013 2 Vemos que las probabilidades de F y de X en la razón de verosimilitud son menores que 5%, por lo que aceptamos H a y al no ser redundante el X2, la conservamos en el modelo como regresor explicativo de Y. IV. Pruebas de estabilidad estructural I. Contraste de Chow Se usa cuando se piensa que dentro de la serie de años hay un año en que por razones extremas cambió la trayectoria de la variable endógena; en nuestro caso con 10 años suponga que en el año 6, ocurrió el desquiciamiento de la economía, es decir, que el año 6 es 1998. Por el desequilibrio económico hay razones de peso para pensar que cambió el valor de Y. Para verificarlo, con α=5% establecemos la hipótesis nula de estabilidad estructural. Ho: Hay un solo modelo para todos los datos (modelo restringido) Ha: Cada subgrupo en que se dividen los datos tiene un comportamiento diferente: no hay un solo modelo hay dos. Luego si no hay diferencias estadísticas significativas entre el modelo restringido y el otro aceptamos Ho: de estabilidad estructural del modelo; en caso contrario, aceptamos Ha y decimos que hubo un cambio estructural en el año 6 que fue 1998, en que todo el sistema económico se trastoco. Para probar Ho dividimos en dos muestras nuestros datos: la primera del año 1993 a 1998 y la segunda del año 1999 a 2002. Como siempre partimos del cuadro que muestra Y=f(X1 ,X2), de view/stability tests/chow break point test/ damos click y en la ventana que aparece escribimos 6 /ok genera el cuadro: 4 Chow Breakpoint Test: 1998 F-statistic Log likelihood ratio 0.962950 5.436099 Probability Probability 0.491917 0.142511 Al ver que la probabilidad de F y de la ra zón de verosimilitud es mayor que 5%, aceptamos H0. 2. Contraste de predicción de Chow Con α=5% planteamos: H0: Hay estabilidad estructural, en un modelo restringio a un solo comportamiento de todos los datos, cuyos residuos se comparan con los del período más largo de los dos en los que la serie ha sido dividida. Partimos de la ecuación de regresión Y=f(X1 , X2) e iniciamos el siguiente proceso: view/stability test/chow forecast tests/click y en “Chow test” escribimos el año en que pensamos a partir del cual pudo haber ocurrido un cambio estructural: 1998 / ok y aparece el cuadro: Chow Forecast Test: Forecast from 1998 to 2002 F-statistic Log likelihood ratio 0.630146 9.459914 Probability Probability 0.707345 0.092067 Variable Coefficient Std. Error t-Statistic Prob. C X1 X2 4.376115 0.688921 -0.234532 1.536202 0.305989 0.109844 2.848659 2.251456 -2.135147 0.1043 0.1532 0.1663 Test Equation: Dependent Variable: Y Method: Least Squares Sample: 1993 1997 Included observations: 5 R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat 0.876682 0.753364 0.647519 0.838561 -2.630928 2.091172 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic) 3.800000 1.303840 2.252371 2.018034 7.109128 0.123318 Aceptamos H0 ya que la probabilidad de los estadísticos es mayor que 5% y concluimos diciendo que hay estabilidad estructural, con esta muestra. 3. Estimación recursiva Es útil cuando se trabaja con datos temporales como estos y se desconoce el año en que se produjo el cambio estructural. Esta prueba consiste en la estimación secuencial del modelo especificado para distintos tamaños 5 muéstrales. Si k=número de parámetros, entonces la primera muestra, su tamaño es k+1, que usamos para estimar el modelo: de 1993 a 1995 porque son dos parámetros. En las siguientes muestras añadimos una a una todas las observaciones hasta agotar el total de la información (Carrascal; et al; 2000:193). De las sucesivas estimaciones del modelo con el resto de las muestras se generan “las series de los llamados coeficientes recursivos y residuos recursivos”. Si no hay cambio estructural: Ho. “Las estimaciones de los parámetros se mantendrán constantes al ir aumentando las muestras secuencialmente y los residuos no se desviarán ampliamente de cero” Así, de View/stability tests/Recursive Estimate (OLS only)/ok y en la caja de diálogo por default aceptamos C(1) C(2) / ok y aparece esta gráfica: 1 .5 1 .0 0 .5 0 .0 -0 .5 -1 .0 -1 .5 1 99 6 19 97 1 9 98 1 99 9 R ec ur sive R es idu als 2 00 0 2 00 1 20 02 ± 2 S .E . Claramente constatamos que hay estabilidad en el modelo en el período. Los residuos recursivos no se salen de las bandas construidas con dos errores estándar alrededor de Y ± 2S.E. 4. Errores de especificación en la forma funcional/ RESET Estos errores se analizan con el contraste RESET elaborado por RAMSEY en 1969, con el cual se verifica si se esta usando una forma funcional lineal incorrecta y cualquier error de omisión o la presencia de correlaciones entre las variables explicativas y la perturbación (Carrascal et. al, 2000:203) Con α=5% la probabilidad de rechazar una hipótesis cierta, establecemos; Ho: Hay linealidad en el modelo Ha: No hay linealidad en el modelo 6 Dar View/Stability tests/Ramsey Reset Test/ clic y aparece el cuadro de diálogo “RESET Specification” y escribimos el número de potencias de la variable endógena ajustada a incluir empezando por el cuadrado; así si indicamos se añadirá el cuadrado de dicha variable, si ponemos 2 se incluirá el cuadrado y el cubo, etc. Si dejamos la celda en blanco el programa entiende que se añadirá la variable al cuadrado. 2 El resultado son las variables de F y χ de ra zón de verosimilitud junto con la ecuación estimada. Luego de View/ Stability tests/Ramsey RESET y escribimos en la celda en blanco 1 /ok y aparece el cuadro. Ramsey RESET Test: F-statistic Log likelihood ratio 0.192822 0.316314 Test Equation: Dependent Variable: Y Method: Least Squares Sample: 1993 2002 Included observations: 10 Variable Coefficient C 5.911835 X1 0.541787 X2 -0.330648 FITTED^2 -0.011652 R-squared 0.974136 Adjusted R-squared 0.961205 S.E. of regression 0.590531 Sum squared resid 2.092359 Log likelihood -6.367921 Durbin-Watson stat 2.643707 Probability Probability 0.675950 0.573831 Std. Error t-Statistic 1.068461 5.533039 0.240775 2.250178 0.098638 -3.352133 0.026536 -0.439115 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic) Prob. 0.0015 0.0654 0.0154 0.6760 6.100000 2.998148 2.073584 2.194618 75.32899 0.000037 Al tener F y χ 2 de ra zón de verosimilitud probabilidades mayores que 5% aceptamos Ho y concluimos que el modelo es lineal. V. Normalidad entre las perturbaciones Este supuesto es básico para determinar el uso de otro métodos de estimación distintos al de MCO y para hacer inferencias a partir del modelo. Para ello es fundamental plantear con α=5% y verificar: Ho: Hay normalidad en las perturbaciones: JB=0 Ha: No hay normalidad en las perturbaciones: JB ≠ 0 Como no son observables las perturbaciones se estudian con los residuos. Si verificamos Ho ello indica que la distribución empírica de los residuos debe ser similar a la de la distribución normal. Con la probabilidad de JB=0.847292 >5% aceptamos Ho, además de que la kurtosis se acerca a 3, a pesar de que la 7 asimetría no sea cero. De View/Residual tests/Histogram normality test/ click y aparecen el cuadro y la gráfica siguientes: 3.2 Series: Residuals Sample 1993 2002 Observations 10 2.8 2.4 Mean Median Maximum Minimum Std. Dev. Skewness Kurtosis 2.0 1.6 1.2 0.8 0.4 Jarque-Bera Probability 0.0 -1.0 -0.5 0.0 0.5 1.22E-15 -0.069172 0.846700 -0.765025 0.489853 0.315605 2.369937 0.331419 0.847292 1.0 VI. Predicción 1. Partimos de File/open/workfile/clic/ aparece todo el archivo, ahí selecciono solo mi archivo que llamo “ecuación para predecir” /abrir/clic y aparece ese archivo. 2. Expandimos en 3 años el rango del archivo: “ecuación para predecir” con procs/change workfile range: start 1; and 3/ ok 3. Le indicamos a Eviews que ahora deseamos ampliar el tamaño de la muestra con: procs/Sample o sample en el workfile(archivo) en esa caja de diálogo ponemos 1993 a 2005/ok. 4. Damos en la ventana de la ecuación estimate: procs/make regresión group, aparecen Y, X1, X2 en blanco 5. Editamos pulsando edit/ escribir sus valores proyectados ver siguiente cuadro obs 1993 1994 1995 1996 1997 1998 1999 2000 2001 2002 2003 Y 3 2 4 5 5 7 6 8 9 12 X1 1 2 2.5 3 4 5 7 8 9 15 X2 8 15 10 9 7 6 8 4 3 1 8 2004 2005 Para llenar las celdas de X1 , X2 hay 2 procedimiento: 1. Escribimos sus valores como en el siguiente cuadro (llamado grupo 2) mismo que lo guardamos como grupo2 2. En la línea de comando escribir Data X1 X2 enter y aparece el cuadro del grupo 4 y llenamos los años con los datos correspondientes. Grupo 2 obs 1993 1994 1995 1996 1997 1998 1999 2000 2001 2002 2003 2004 2005 Y 3 2 4 5 5 7 6 8 9 12 X1 1 2 2.5 3 4 5 7 8 9 15 13 14 15 X1 1 2 2.5 3 4 5 7 8 9 15 13 14 15 X2 8 15 10 9 7 6 8 4 3 1 1 2 2 X2 8 15 10 9 7 6 8 4 3 1 1 2 2 Grupo 4 obs 1993 1994 1995 1996 1997 1998 1999 2000 2001 2002 2003 2004 2005 Regreso a EQ01: que fue la primera ecuación en el workfile: “ecuación para predecir” y ahí voy a Forecast /aparece una pantalla que además de mostrar YF nos pide sample range for forecast”, por default trae 1993- 2005 / ok y aparece el siguiente cuadro : 9 14 Forecast: YF Actual: Y Forecast sample: 1993 2005 Included observations: 10 12 10 Root Mean Squared Error Mean Absolute Error Mean Abs. Percent Error Theil Inequality Coefficient B ias Proportion V ariance Proportion Covariance Proportion 8 6 4 2 0.4 64715 0.3 69380 7.6 45546 0.0 34564 0.0 00000 0.0 06764 0.9 93236 0 1 994 19 96 1998 2000 2 002 20 04 YF Ahora en la pantalla de workfile: ecuación para predecir, seleccione (sombreo) Y y YF para conocer el valor pronosticado de YF/ open group/clic y aparece el siguiente cuadro que llamo grup03 obs 1993 1994 1995 1996 1997 1998 1999 2000 2001 2002 2003 2004 2005 Y 3 2 4 5 5 7 6 8 9 12 YF 3.76502492522 2.03896311067 3.80881355932 4.33966101695 5.4013559322 6.1533000997 6.41818544367 8.09938185444 8.85132602193 12.1239880359 11.2396011964 11.3720438684 11.8142372881 Este cuadro también se obtendría así: En la línea de comando escribimos “Show Y YF” / enter y aparece igual al caso anterior. Puesto que ya conocemos YF con 13 datos, ahora podemos evaluar estadísticamente dicha predicción analizando en la figura anterior, la gráfica y las estadísticas del cuadro. En el caso de la grafica observamos primero una caída y luego un repunte; ello se debe a que X1, X2 en el período de predicción, primero caen sus valores y luego aumentan. Con respecto a las estadísticas, dado que casi todas (con la excepción de una: mean abs, percent error) tienen valores menores a uno, decimos que es buena estimación de la predicción. Por consiguiente resultó adecuada la ecuación de regresión Y=f(X1, X2) 10 B. ECONOMETRIA D E S ERIES DE TIEMPO La econometría de series de tiempo surgió porque el análisis tradicional aun cuando trabajaba con series de tiempo y suponía que eran estacionarias, es decir, que su media aritmética, µ, al igual que si varianza, σ 2 y su covarianza, γ 0 debían observar constancia en el tiempo, lo anterior no se verificaba como tampoco aspectos interesantes como los siguientes: a) El hecho de que en algunos casos la autocorrelación se gesta porque las series de tiempo en estudio no son estacionarias; b) La aparición de un alto grado de asociación (su coeficiente de determinación cercano a uno) sin sentido alguno y que no es real, al que se le llama regresión espuria, como una consecuencia de que las series de tiempo no son estacionarias; c) En el caso de la predicción, de que las series de tiempo observarán el fenómeno de caminata aleatoria, que de existir, como sucede en una serie de tiempo no estacionaria, reduce el calculo de la predicción a considerar digamos, en el caso de las acciones de una empresa, solamente su precio actual más un choque puramente aleatorio (o término de error), situación que en opinión de Gujaratí (2004:767), si fuera el caso, el pronóstico del precio de las acciones sería un ejercicio inútil. d) La conveniencia de realizar el análisis de la estacionalidad de las series de tiempo antes del análisis de su causalidad. e) Constatar la importancia de contar con una serie que tenga “ruido blanco”, es decir, que no exista autocorrelación, tal que el coeficiente de correlación sea cero. En opinión de las personas que se dedican al estudio de las predicciones, es fundamental corregir, eliminar o comprobar estas irregularidades, ya que limitan de manera significativa la precisión de los pronósticos, situación que en el caso de la planeación es muy importante hacerlo para poder crear escenarios confiables, en corto, mediano y largo plazo. Por otra parte, deb e aclararse que una serie no estacionaria se puede estudiar y usarse para pronosticar solo para el periodo de tiempo bajo consideración, en tanto que con una estacionaria se puede generalizar para todos los periodos, de ahí que se recomiende siempre ob tenerla. Al respecto, dicho en otras palabras, es necesario “descontaminar” la serie de la variable endógena de los elementos irregulares de las estacionalidades que inducen tendencias equivocadas. Esta descontaminación se logra con diversos métodos dentro de los que destacan el de las MA, AR, etc.,que veremos más adelante. Esta “limpia o descontaminación” debe hacerse porque hay datos que transportan componentes indeseables que generan “ruido” en la predicción. Luego hay que limpiar o descontaminar la serie depurándola, eliminándole los componentes irregulares estacionales y quitar la tendencia a que nos están conduciendo equivocadamente. Esta acción de descontaminación también se conoce como filtrado, su resultado es al hacerlo producen ahora una serie con ruido blanco: sin efectos negativos como por ejemplo la autocorrelación. 11 Los “filtros” de mayor uso son, como arriba se indicó: los autorregresivos o diferenciados, (AR: auto regression) y los aditivos o de medias móviles, (MA:moving averages) Dentro de los primeros ( Gabriel Tapia Gómez, et al, 2002) el filtro univariante más sencillo, AR,es aquel en que el operador diferencia, digamos que obtiene la primera diferencia ordinaria y se denota así: AR(1).Con este procedimiento se eliminan las frecuencias bajas pero se acentúan las más altas. Comenta que en series suaves permite obtener estimaciones de los componentes estacional e irregular y aproximar la tasa de crecimiento de la serie original cuando se filtra el logaritmo y, por consiguiente se deduce que se utiliza como indicador del ciclo cuando las series tienen comportamientos suaves. En este contexto es interesante decir que existen otros filtros autoregresivos como el AR de orden mayor, que consiste en obtener la diferencia de orden estacional, con lo que se eliminan las frecuencias bajas y los ciclos armónicos de la frecuencia fraccional correspondiente. El segundo filtro, MA, se útil para extraer componentes en análisis del ciclo, ya que “dejan pasar intacta la información contenida en determinada banda de frecuencias mientras que eliminan o acentúan las restantes”. Con este método se desestacionaliza extra yendo el componente ciclo tendencia. Derivado de lo anterior podemos decir que con los filtros AM y AR, sucesivamente, se tendrán como resultados correspondientes, la atenuación de altas frecuencias y la atenuación de bajas frecuencias, resultando un pico en la función de transferencia de la serie filtrada y una atenuación de determinadas frecuencias intermedias. En opinión del investigador Gabriel Tapia, et al, los filtros más usados son los de Hodrick & Prescott (1980), Prescott (1986) y los de Henderson. Así, de la lectura anterior se deduce que es conveniente completar el análisis de regresión tradicional hasta ahora efectuado, con el de series de tiempo, haciendo hincapié en las pruebas de estacionalidad de las series de tiempo, en aquellas que tienen raíz unitaria, como también en las que presentan correlación espuria etc, para transformarlas en estacionarias. Agréguese a lo anterior que una vez “limpia” la serie, es conveniente hacer las pruebas de cointegración con objeto de que la serie de tiempo expresada en la ecuación de regresión sirva para pronosticar con un alto grado de confianza estableciendo el equilib rio entre el corto y largo plazo. 1.- Pruebas de estacionalidad Se toma como referencia la ecuación de regresión ya familiar, llamada “ECUACIÓN PARA PREDECIR” donde: Yt=f(X1,X2). 1.1 Prueba gráfica En eviews: Quick/graph/escribimos en “Series list: Y/ok luego/en graph type escogemos: Line graph/ok y aparece 12 14 12 10 8 6 4 2 0 19 94 1996 1998 2000 2002 2 004 Y Al analizar la evolución de Yt en 10 años vemos que el consumo (Yt) aumentó porque su gráfica muestra una tendencia ascendente, situación que hace suponer que su µ no ha permanecido constante, sino que ha cambiado, lo cual sugiere que la serie de Yt es no estacionaria: Ahora probemos con una técnica más rigurosa. 1.2 Función de autocorrelación (FAC) y Correlograma Ahora si trabajamos Yt en función de X1 e X2, vamos al archivo general que guarda la “Equation:EQ01” para 10 años (si no se localiza, obtengase con Quick/Estímate Equation/ Y C X1 X2 /ok y aparece; ahí vamos a View/Residual test/Correlogram Q-statistics/lags to include: aceptamos 11 /ok 13 y aparece el siguiente cuadro. Para saber si la serie es estacionaria planteamos. H0: No hay autocorrelación, la serie es estacionaria; ρ k=0 Ha : Si hay autocorrelación, la serie es no estacionaria, ρ k ≠ 0 Donde ρ k= coeficiente de autocorrelación con k rezagos Con α=5% nivel de significación= probabilidad de rechazar H0 aún cuando es verdadera, es decir, para aceptar H0 es necesario que la probabilidad sea mayor a 5%. La columna AC=función de autocorrelación muestral usada para estimar la función de autocorrelación poblacional, muestra los coeficientes de autocorrelación (ρi) para ocho rezagos. Para saber si son estadísticamente significativos , construimos el intervalo de confianza del 95% para cualquier ρk con ρˆ k ± Z α σ pk , como k=8 rezagos y n=10, varianza= 1/10= 0.100 luego el error estándar= 0.10 = 0.31 y como α=5%; ξ =95% en una 1 distribución normal de ρ k que tiene µ=0 y σ 2 = . Fuente Gujarati (2004:786). n Sustituimos ρˆ k ± 1.96( 0. 31) ρˆ k ± 0.61 Tal que Pr ob (ρˆ k − 0.61 ≤ ρ k ≤ ρˆ k + 0. 61) = 95% = ξ Así tenemos que para cualquier ρ k existe un límite inferior (LI) y un límite superior LS). Si estos límites incluyen el cero no se rechaza la hipótesis de que el verdadero ρ κ sea cero; sino incluye el cero, se rechaza la hipótesis de que el verdadero ρ κ sea cero. Si lo anterior lo aplicamos a ρˆ k = −0.371; primer rezago Tendremos LI=-0.371-0.61=-0.98 LS=-0.371+0.61=0.24 También si en el cuadro vemos que: ρˆ k = 0. 159; segundo rezago 14 Tendremos LI=0.159-0.61=-0.45 LS=0.159+0.61=0.77 Igualmente si: ρˆ k = 0. 022; séptimo rezago Tendremos LI=0.022-0.61=-0.59 LS=0.022+0.61=0.63 Vemos que estos y el resto incluyen al cero, luego se tiene la confianza del 95% de que el verdadero ρ k=0, que no es significativamente diferente de cero; que indica que se acepta la H0 de que la serie es estacionaria, lo que contradice a la prueba gráfica quizá porque la curva tiene altibajas. 1.3. Estadística Q Si en lugar de probar la significación estadística de cualquier ρ i, se prueban todos en conjunto, se usa Q. Aquí. H 0 = ρˆ 1 = ρˆ 2 = ... = ρˆ k = 0 donde k=1,2,3,...8 H a = ρˆ 1 ≠ ρˆ 2 ≠ ... ≠ ρˆ k ≠ 0 Q se usa para probar una serie de tiempo si es de ruido blanco (totalmente aleatoria y sin autocorrelación) en muestras grandes como χ2 con m grados de libertad. Si Q>Qα, valor 2 crítico, de la tablas χ se rechaza H0 de que todas las ρ k son iguales a cero; también decimos que si Q> χ α2 se rechaza H0; obviamente algunas son diferentes de cero. Con estas referencias, si con α=5% y 8 gl tenemos χ α2 =2.73 vemos en este caso que algunos Q’s son mayores y otras menores a 2.731 por lo que queda indefinida la decisión por lo pequeño de la muestra. 1.3.1 Estadístico Ljung-Box (LB) Es una variante de Q y se recomienda para muestras pequeñas. Así, decimos que si el valor del estadístico Q<LB aceptamos H0. En el cuadro anterior el valor de Q oscila entre 1.84 y 4.71; vemos que la probabilidad (última columna) de obtener estos valores bajo la H0 de que las ρ k sean cero es muy alta; en cada una de ellas es mayor al 5%=α. En consecuencia aceptamos la H0 y decimos que la serie de tiempo de Yt es estacionaria, que es de un proceso de ruido blanco: puramente aleatorio. 1.4. Correlograma Esto representado gráficamente en la primera y numéricamente en la tercer columna del cuadro con el nombre de AC: autocorrelación, su línea vertical continua representa el cero y las punteadas sus límites de confianza; luego las “barras” a su izquierda expresan valores negativos y las de la derecha positivos de las ρ k . Ejemplo el rezago 1 tiene una autocorrelación negativa –0.371 y por eso está al izquierda del cero; el rezago 7 tiene una autocorreelación =0.022 y por eso está a la derecha del cero. Como ninguna autocorrelación 15 rebasa los límites de confianza, aceptamos H0 de que Yt es una serie estacionaria con ruido blanco, los ρ k no son significativamente diferentes de cero, sus valores son pequeños. 2.- La prueba de raíz Unitaria con un rezago. Dependent Variable: Y Method: Least Squares Sample(adjusted): 1994 2002 Included observations: 9 after adjusting endpoints Variable Coefficient Std. Error C 1.593287 1.945672 X1(-1) 1.020252 0.188746 X2(-1) 0.018857 0.151202 R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat 0.914784 0.886379 0.998670 5.984054 -10.93388 1.728872 t-Statistic 0.818888 5.405423 0.124712 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic) Prob. 0.4442 0.0017 0.9048 6.444444 2.962731 3.096417 3.162159 32.20468 0.000619 Se usa la estadística o prueba tau (τ) de Dickey-Fuller (DF) para verificar si hay o no estacionalidad en la serie con: H0:δ=0, luego ρ=1 y existe raíz unitaria por lo que Yt es una serie de tiempo no estacionaria; Ha :δ ≠0, luego ρ ≠1 y no existe raíz unitaria por lo que Yt es una serie de tiempo estacionaria; Donde δ= coeficiente estimado de la pendiente de X1t-1 y de X2t-1 usadas para estimar Yt, con un rezago para ver si es o no estacionaria. Si se rechaza H0 se puede usar t y no τ. En este caso se gestó un resultado mixto: con X1t-1 se rechaza H0 y con X2t-1 se acepta. Sin embargo con la prueba del correlograma Yt es estacionaria, también lo es con AC y con la estadística de Ljung-Box para muestras pequeñas. Está prueba ha sido muy criticada por expertos como M addala y Kim, quienes sugieren que no se aplique. (Gujarati, 2004:793). MODELOS CON VARIABLES RETARDADAS Comentan los estudiosos del tema que el efecto de una variable exógena sobre una endógena no termina en el periodo de análisis, por el contrario su efecto es prolongado en el tiempo, como lo podemos observar digamos en el caso del ingreso (X1) sobre el consumo(Y), éste continúa por varios periodos de tiempo más. Como la evidencia muestra que lo anterior es cierto, también lo es que se requiere se ha establecido una metodología apropiada dado que al meter el factor tiempo ahora se pasa de un análisis estático a uno dinámico de las series de tiempo. La incorporación de efectos diferidos en el tiempo en un modelo uniecuacional se realiza mediante la incorporación de variables “retardadas o rezagadas”, que es la razón por la que se conoce como modelos con variables retardadas, que pueden ser de dos clases: I.- Los modelos autoregresivos y 16 II.- Los modelos de retardos distribuidos I.-MODELOS AUTORREGRESIVOS ( Carrascal, et al, 294) Estos modelos suponen la violación de la hipótesis establecida en el modelo de regresión lineal clásico: la hipótesis de que los regresores no son aleatorios, ya que la variable endógena retardada depende de la perturbación aleatoria y, por consiguiente, tiene un carácter estocástico. Así, los resultados del modelo están condicionados al tipo de dependencia que exista entre los regresores estocásticos y las perturbaciones. Puede haber 3 tipos de dependencia: 1.- Independencia total, con la que se mantienen todas las propiedades de los estimadores obtenidos con M CO. 2.- Dependencia parcial: aquí el regresor estocástico sólo depende de la perturbación en periodos de tiempo pasados, no existiendo dependencia en tiempos presente y futuros: en este caso el estimador es consistente pero ya es sesgado. 3.- Dependencia total. El regresor estocástico depende de la perturbación en todos los periodos: pasados, presente y futuros. En este caso el estimador además de ser sesgado es inconsistente, obligando a buscar un método alterno de estimación que al menos garantice que sea consistente. Aquí usaremos el método de variables instrumentales, que parte de la definición de una matriz Z de instrumentos que sustituye a la matriz X de regresores del modelo .Las variables que componen Z tienen que cumplir dos requisitos. 1.- estar fuertemente correlacionadas con la variable que instrumentan o sustituyen. 2.- No estar correlacionadas con la perturbación. La forma más común de instrumentar las variables del modelo autoregresivo consiste en sustituir los regresores exógenos por ellos mismos, porque cumplen a la perfección con los dos supuestos exigidos, y la variable endógena retardada por otra variable exógena con la que observe mayor correlación, retardada en el mismo número de periodos. La determinación del tipo de dependencia en este tipo de modelos entre el regresor estocástico ( la variable endógena retardada) y la perturbación, en la práctica se realiza estudiando la existencia de autocorrelación entre las residuos del modelo. Así, la incorrelación de las perturbaciones implica una situación de dependencia parcial, en tanto que la presencia de correlación conlleva a la dependencia total. Para detectarla usaremos h de Durbin modificada, el contraste h; correlogramas, Q y la prueba Breusch- Godfrey. Sean los datos ya conocidos: obs 1993 1994 1995 1996 1997 1998 1999 2000 2001 2002 Y 3.000000 2.000000 4.000000 5.000000 5.000000 7.000000 6.000000 8.000000 9.000000 12.00000 X1 1.000000 2.000000 2.500000 3.000000 4.000000 5.000000 7.000000 8.000000 9.000000 15.00000 X2 8.000000 15.00000 10.00000 9.000000 7.000000 6.000000 8.000000 4.000000 3.000000 1.000000 X3 16.00000 17.00000 18.00000 15.00000 17.00000 20.00000 19.00000 21.00000 22.00000 23.00000 17 Para copiarlos y traerlos hacia acá: Abro el programa “Econometric Views”con Inicio/ file/new/workfile/1993-2002/ok, enseguida escribo en barra de control:data y x1 x2 x3 y voy al archivo en que están estos datos ( unas hojas atrás),baño sus datos ( sólo ellos, es decir, empiezo con el 3 de y y termino con el 23 de x3)/editar /copiar regreso aEviews, ahí le doy enter y aparecen las celdas en blanco de las 4 variables, oprimo el botón derecho del cursor, lo coloco en la primera celda / edit/ paste y se llena el cuadro que aparece arriba. Le doy un nombre al archivo:” modelo autocorrelac”, lo salvo con file/ save as GSB/Econometría/series de tiempo/abrir ejercicio 1/guardar. Obtenemos su ecuación de regresión. Ahora el archivo contiene los datos en Group 1/ lo abro/ voy a “quick”/estimate equation/ en barra de control escribimos y c x1 x2 x3/ok y aparece el siguiente cuadro. Dependent Variable: Y Method: Least Squares Date: 06/27/06 Time: 05:56 Sample: 1993 2002 Included observations: 10 Variable C X1 X2 X3 R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat Coefficient 4.609288 0.407127 -0.303439 0.071535 Std. Error 2.903669 0.113580 0.087583 0.162801 t-Statistic 1.587402 3.584513 -3.464580 0.439401 0.974138 0.961206 0.590519 2.092274 -6.367718 2.324024 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic) Prob. 0.1635 0.0116 0.0134 0.6758 6.100000 2.998148 2.073544 2.194578 75.33212 0.000037 Queremos ver el efecto del tiempo: Planteamos Ho: ρ=0, que significa ausencia de correlaciones y la Ha: ρ<0 ó ρ >0, que expresa la existencia de autocorrelación AR(1) positiva o negativa, con un nivel de significación (alfa) del 5%. Cabe señalar que la especificación de AR(1) significa de orden 1: que sólo hay una autocorrelación entre el último y el penúltimo término de la serie; será de segundo orden cuando haya autocorrelación entre el último y el antepenúltimo término, y así sucesivamente para el resto de las perturbaciones del periodo analizado. La autocorrelación se ve gráficamente por medio del diagrama de dispersión ( una curva) y del correlograma (como una sola barra que se sale del intervalo de confianza establecido para los residuos en estudio, cuando el rezago es de orden uno,AR(1). Al respecto, es lógico suponer que las observaciones cercanas en el tiempo están muy correlacionadas y que las observaciones lejanas entre si apenas tendrán alguna relación, comportamiento que es congruente con las características del modelo AR(1). Al meter la variable tiempo estamos dinamizando el modelo, pasando de un enfoque estático de las variables a uno en movimiento para cualquier lapso de tiempo que deseemos. 18 También reiteremos que ρ es el coeficiente de correlación serial de primer orden y que al no ser observables las correlaciones entre las perturbaciones, se utilizan las variables de los residuos mínimos cuadráticos. Ojo: ver autocorrelación en carrascal, pp 266. Por otra parte, se usa h de Durbin en lugar de la d de Durbin Watson, porque tienen las siguientes ventajas: a).-cuando el tamaño de la muestra es menor que 12 y b).- en la ecuación de regresión se omite la ordenada al origen y c).- se pone la variable endógena en función de si misma, como variable exógena, pero rezagada. Para obtener la h que necesitamos en la prueba de Durbin-Watson modificada, en esta ecuación vamos a proces/ make residual series/ aparece”ordinary y en “name for residual series” escribimos EM CO/OK y aparece la siguiente serie de residuos, que son 10 porque ese es el número de datos Last updated: 06/27/06 06:02 Modified: 1993 2002 // eq04.makere sid -0.733465 -0.088056 0.119651 0.827254 -0.329821 0.745008 -0.390834 -0.154786 0.063112 -0.058064 De esta ecuación genero la serie de rezagos/retardos en un periodo de la siguiente forma: estimate equation/ escribo emco emco(-) y aparece ahora ya para 9 datos por el rezago que hicimos de un año. Dependent Variable: EMCO Method: Least Squares Date: 06/27/06 Time: 06:08 Sample(adjusted): 1994 2002 Included observations: 9 after adjusting endpoints Variable Coefficient Std. Error t-Statistic Prob. 19 EMCO(-1) R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood 0.019677 -0.016503 -0.016503 0.587856 2.764598 -7.458965 0.341350 0.057646 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion Durbin-Watson stat 0.9554 0.071518 0.583065 1.879770 1.901684 2.072389 A continuación calculo “ρ” porque la necesitamos para el cálculo de h, usando la literal r en su lugar . para ello almacenamos la ecuación alterior en un escalar. Escribimos en línea de comandos :scalar r = @coefs(1)/enter y aparece hasta abajo el valor de r=0.0196772976114, que sustituimos en la fórmula para calcular h cuyo valor resulta ser 0.0645623444212. El valor de h también lo podemos obtener en Eviews así: escribimos en la barra de control scalar h = r*@sqrt(@regobs/(1-@regobs*(@stderrs(2))^2)), damos enter y hasta abajo aparece el valor de h antes mencionado. Notas a).- el símbolo anterior se obtiene con “Alt 94”; b).- Cuando abajo no aparece el valor de r o de h, escribimos en la barra de control,”show r” o también “show scalar r” y su valor aparecerá en seguida. Ahora establezco Ho: ρ=0 y la Ha: ρ<0 ó ρ >0 con α=5% en una prueba de dos extremos tenemos que Ζ (distribución normal) de alfa es igual a más menos 1.64> que el estadístico h=0.0645623444212.Así aceptamos la Ho, es decir no hay autocorrelación. Conviene reiterar como ya lo hicimos cuando vimos el problema de la autocorrelación, que ésta provoca que el estimador del parámetro deje de ser eficiente aun cuando sigue siendo insesgado y asintóticamente consistente cuando aumenta el tamaño de la muestra. El resultado obtenido con h, de que no hay autocorrelación también se verifica con el contraste de Breusch-Godfrey en la primer ecuación, ahí vamos a view/ residual test/ serial correlation LM test, lags( rezagos deseados )en este caso son 2/ok que por default aceptamos, y aparece para dos y un rezago/retardo: Breusch-Godfrey Serial Correlation LM Test: F-statistic Obs*R-squared 0.001106 0.000000 Probability Probability Test Equation: Dependent Variable: RESID Method: Least Squares Date: 06/22/06 Time: 23:44 Presample missing value lagged residuals set to zero. Variable Coefficient Std. Error t-Statistic X1 0.001352 0.144885 0.009329 X2 0.000982 0.107654 0.009122 X3 -0.000789 0.082635 -0.009545 RESID(-1) 0.019873 0.449109 0.044249 RESID(-2) 0.007926 0.487570 0.016256 R-squared Adjusted R-squared S.E. of regression Sum squared resid -0.000782 -0.801408 0.770670 2.969661 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion 0.998895 1.000000 Prob. 0.9929 0.9931 0.9928 0.9664 0.9877 0.019064 0.574199 2.623740 2.775032 20 Log likelihood -8.118699 Durbin-Watson stat 1.922721 Los resultados ( sus probabilidades mayores a 5%) para dos y un retardo aceptan la hipótesis nula, decisión que se corrobora porque el valor de F es mayor que 5% aquí también aceptamos la hipótesis nula Ho. Ahora bien,como señala Carrascal et al ( 2002, pp299), si observamos los resultados para dos y un retardo, podemos comprobar la no significación individual de RESID (-1) y RESID (-2) es decir, hay incorrelación.Sin embargo, ello revela la dependencia entre la variable endógena retardada y la perturbación, situación que determina la existencia de un esquema AR(1) y hace que los estimadores mínimos cuadrados ordinarios “ni siquiera sean consistentes, lo que determina la necesidad de obtener estimadores por el método de variables instrumentales, que aprovechamos para exponer en que consiste este método. Método de variables instrumentales. Se requiere encontrar unos instrumentos que sustituyan a los regresores del modelo. Se acostumbra utilizar como instrumento de la variable endógena retardada uno de los regresores también retardado; en nuestro ejemplo usaremos X1(-1) en lugar de Y(-1). Así, nos situamos en la ecuación original y pulsamos el botón Estimate de su barra de herramientas. La ecuación específica seguirá siendo la misma, pero en la celda “method” seleccionamos como método de estimación la opción TSLS- Two stages least squares ( tsls and ARMA). En instrument list indicaremos la lista de instrumentos: x1 x1(-1),x2 x2(-1), x3 x3(-1), porque el número de instrumentos debe ser al menos el número de variables independientes incluidas en el modelo . La peculiaridad de este método( Carrascal et al, 300) consiste en que en la primera etapa calcula las regresiones por M CO de cada uno de los regresores de la ecuación inicial frente a todos los instrumentos seleccionados; en la segunda etapa efectúa la regresión por M CO de la variable endógena original utilizando como variables explicativas los valores estimados de cada una de las regresiones de la primera etapa. Se demuestra que estas dos etapas son equivalentes a la obtención de los estimadores por variables instrumentales cuando se utilizan como instrumentos los valores estimados de cada regresor del modelo frente a todos los instrumentos considerados, en otras palabras, los valores estimados de las regresiones de la primera etapa. Dependent Variable: Y Method: Tw o-Stage Least Squares Date: 06/23/06 Time: 00:21 Sample(adjusted): 1994 2002 Included observations: 9 after adjusting endpoints Instrument list: X1 X1(-1) X2 X2(-1) X3 X3(-1) Variable C X1 X2 X3 Y(-1) R-squared Adjusted R-squared S.E. of regression Coefficient 6.219008 0.321778 -0.372650 0.034205 0.035999 0.982163 0.964327 0.559581 Std. Error 3.232678 0.165332 0.097526 0.158260 0.252038 t-Statistic 1.923795 1.946254 -3.821023 0.216131 0.142832 Mean dependent var S.D. dependent var Sum squared resid Prob. 0.1267 0.1235 0.0188 0.8395 0.8933 6.444444 2.962731 1.252525 21 F-statistic Prob(F-statistic) 55.11518 0.000941 Durbin-Watson stat 3.250657 Sabiendo que Ho: ρ=0 y la Ha: ρ<0 ó ρ >0 ahora usamos la d Durban Watson para contrastar: como d= 3.25 > 2 de manera rápida decimos que hay autocorrelación; sin embargo no debemos de apresurarnos, mejor verifiquemos o corroborémoslo con un análisis pormenorizado de la estimación trabajando ahora con el Correlograma de los residuos Para ello en la ecuación anterior coloco el cursos en view/ Residual test/ Correlogram Qstatistics, mismo que aparecen enseguida como Date: 06/23/06 Time: 08:03 Sample: 1994 2002 Included observations: 9 Autocorrelation *****| . | . |** . | . *| . | . | . | . *| . | . |* . | . | . | Partial Correlation *****| . | . **| . | . | . | . *| . | . **| . | . **| . | . *| . | 1 2 3 4 5 6 7 AC -0.645 0.304 -0.133 0.028 -0.144 0.081 0.002 PAC -0.645 -0.190 -0.040 -0.059 -0.294 -0.291 -0.100 Q-Stat 5.1414 6.4499 6.7416 6.7574 7.2697 7.4856 7.4858 Prob 0.023 0.040 0.081 0.149 0.201 0.278 0.380 Aun cuando el gráfico está defectuoso, en Eviews se ve que ninguna barra se sale de los límites de confianza tanto en la autocorrelación como en la correlación parcial de los residuos, lo cual se corrobora con los valores de las ρ que salvo la excepción del primer rezago en que toman los valores de -0.645, para el resto de ellos son bajos, es decir no hay autocorrelaciones significativas. A una conclusión análoga llegamos con Q, cuyas probabilidades para la mayoría de los rezagos son mayores a 5%, corroborando la hipótesis nula de que no hay autocorrelación. Ahora trabajando con el contraste de BREUSCH-GODFREY que, como recordamos sirve para verificar si es que existe o no correlación serial, partimos de la ecuación inicial y hacemos: view/ Residual tests / Serial Correlation LM Test en la barra de herramientas y aparecen los siguientes resultados para dos y un retardo ( conviene decir que el programa por default nos ofrece 2 retardos, los cuales aceptamos) son: Breusch-Godfrey Serial Correlation LM Test: F-statistic 0.001106 Probability Obs*R-squared 0.000000 Probability 0.998895 1.000000 Test Equation: Dependent Variable: RESID Method: Least Squares Date: 06/23/06 Time: 09:03 Presample missing value lagged residuals set to zero. Variable X1 X2 X3 RESID(-1) Coefficient 0.001352 0.000982 -0.000789 0.019873 Std. Error 0.144885 0.107654 0.082635 0.449109 t-Statistic 0.009329 0.009122 -0.009545 0.044249 Prob. 0.9929 0.9931 0.9928 0.9664 22 RESID(-2) R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood 0.007926 -0.000782 -0.801408 0.770670 2.969661 -8.118699 0.487570 0.016256 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion Durbin-Watson stat 0.9877 0.019064 0.574199 2.623740 2.775032 1.922721 De nuevo aceptamos Ho: ρ=0 y rechazamos la Ha: ρ<0 ó ρ >0 con α=5% en una prueba de dos extremos porque el valor de F es > a 5%, así como también los valores de las probabilidades de RESID (-1) Y RESID(-2), corroborando que los errores muestran un esquema sin autocorrelaciones. Esta decisión de aceptar Ho también se sustenta en el valor de d=1.922721 que es casi igual a 2, indicando que no hay autocorrelación. Ahora bien por la importancia que tiene para hacer análisis de corto y largo plazo ilustremos con estos datos el uso del método de variables instrumentales acompañado de AR(1). Como lo hicimos en el ejercicio anterior pero ahora en la barra de herramientas o de control agregamos AR(1), es decir: quick/estimate equation/ en barra de control escribimos y c x1 x2 x3 y(-1) AR(1), en el method escribimos TSLS , en “instruments list” escribimos x1 x1(-1) x2 x2(-1) x3 x3(-1)/ok y aparecen los siguientes resultados: Dependent Variable: Y Method: Tw o-Stage Least Squares Date: 06/23/06 Time: 11:19 Sample(adjusted): 1995 2002 Included observations: 8 after adjusting endpoints Convergence achieved after 7 iterations Instrument list: X1 X1(-1) X2 X2(-1) X3 X3(-1) Variable C X1 X2 X3 Y(-1) AR(1) Coefficient 7.606910 0.424144 -0.403514 -0.003625 -0.164103 -0.775286 R-squared Adjusted R-squared S.E. of regression F-statistic Prob(F-statistic) 0.990126 0.965440 0.486811 40.09538 0.024512 Inverted AR Roots -.78 Std. Error 2.500207 0.168943 0.200635 0.180319 0.344662 0.831568 t-Statistic 3.042512 2.510579 -2.011184 -0.020105 -0.476127 -0.932317 Mean dependent var S.D. dependent var Sum squared resid Durbin-Watson stat Prob. 0.0932 0.1287 0.1820 0.9858 0.6809 0.4496 7.000000 2.618615 0.473970 2.800310 Interpretación: Con este modelo podemos decir por ejemplo, si sólo interpretamos el efecto de x1 en Y, lo siguiente: el efecto a corto plazo del ingreso (x1) sobre el consumo(Y) es igual a 0.424144, que indica que si el ingreso aumenta en una unidad en el periodo, el consumo crece en 0.424144 unidades en ese mismo lapso. De igual manera esa unidad adicional de ingreso produce efectos sobre el consumo de los periodos siguientes de tal manera que a largo plazo ( Carrascal et al, 305) el efecto del ingreso sobre el consumo es de 0.36 unidades ( 0.424144/1-(-0.164103)=0.36). Este método de interpretación de los 23 coeficientes de las variables explicativas sobre la variable explicada también se puede generalizar para X2 e X3 sobre Y. Corolario: Es importante señalar que si persistiera la autocorrelación la expresaríamos como R(1) de orden 1 ó R(2) de orden 2, trataríamos de eliminarla con retardos o rezagos de las variables explicativas, todos los que fueran necesarios hasta lograr su erradicación. Al respecto, recuerde que R(1) significa autocorrelación de orden 1, interpretación: sólo hay una barra fuera del rango; y R(2) la autocorrelación de orden 2, interpretación: sólo hay dos barras fuera del rango o intervalo de confianza establecido. También es bueno comentar que, como se vio, la d Durban-Watson produjo resultados dudosos, nada confiables, sobre si había o no autocorrelación, de ahí que mejor sea recomendable aplicar su h y complementar dicho contraste con el del autocorrelograma y la Q, así como la prueba Breusch-Godfrey. Finalmente podemos decir que la ausencia de correlación serial en este modelo hace que los estimadores conserven sus propiedades de consistencia, eficiencia, inses gamiento y de suficiencia. Ahora ya podemos usar la ecuación para estudios de estructura y predicción. II.-MODELOS CON RETARDOS DIS TRIBUIDOS II.1.- Finitos En este tipo de modelos son las variables exógenas y no la endógena retardada Las que ejercen efectos subsecuentes o prolongados sobre la variable endógena o dependiente. Aquí hay que tener en cuenta que se debe determinar el número de periodos,M, en los “que se mantiene el efecto”, razón por la que se denominan modelos de retardos distribuidos finitos. Aun cuando no se viola ninguno de los supuestos clásicos del M CO, no obstante tienen las siguientes limitantes, en un modelo de una variable endógena: a).- M ulticolinealidad imperfecta, dado que se incluyen como variable regresoras tanto la exógena como retardos, situación que provoca una fuerte relación lineal entre ellas que deriva en problema de multiolinealidad fuerte. b).-Pérdida de grados de libertad. Se produce por dos razones: la primera, al aumentar el número de retardos se pierden observaciones; la segunda, al aumentar el número de retardos aumenta el número de parámetros ( ahora serán K+ 1+M ), por lo que si K: número de parámetros, T: total de observaciones, M : número de periodos, los grados de libertad del modelo serán T-2M -K-1, la reducción será en 2M . Lo anterior impacta la precisión de los estimadores obtenidos los parámetros del modelo. Para resolver estos dos problemas se incorpora información sobre la forma que adopta la influencia de la variable exógena en el devenir del tiempo, que, en otras palabras significa el establecer restricciones sobre los parámetros. Longitud del retardo: Con estas referencias teóricas ahora empezaremos por ilustrar cómo se determina la longitud del retardo. Dados los valores de Y e X1 de los ejemplos anteriores, es decir si queremos explicar el consumo (Y) a partir de la variable ingreso(X1) retardada en un número diferente de periodos, en Eviews, pasos: 1.-Vamos al archivo file/open/ workfile/modelo autoregresión/las seleccionamos pulsando en Y e X1 CTRL y el botón izquierdo del cursor y luego las abrimos como un grupo 24 haciendo doble clic en cualquier parte del área sombreada y eligiendo tal opción en el el cuadro resultante. Y 3.000000 2.000000 4.000000 5.000000 5.000000 7.000000 6.000000 8.000000 9.000000 12.00000 X1 1.000000 2.000000 2.500000 3.000000 4.000000 5.000000 7.000000 8.000000 9.000000 15.00000 2.- Nombramos el grupo pulsando el cursor en “name” y por default aparece Group01, mismo que aceptamos. 3.- Enseguida calculamos los valores de los coeficientes: En Group01 pulsamos el botón Procs/ make equation de la ventana del objeto grupo. En su cuadro de diálogo especificamos los retardos requeridos para x1. por ejemplo si cero retardos;, escribimos Y C X1/ok y salen los siguientes resultados: Dependent Variable: X1 Method: Least Squares Date: 06/29/06 Time: 02:58 Sample: 1993 2002 Included observations: 10 Variable Y C R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat Coefficient 1.351669 -2.595179 Std. Error 0.142921 0.961936 t-Statistic 9.457435 -2.697872 0.917901 0.907638 1.285497 13.22002 -15.58512 2.500257 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic) Prob. 0.0000 0.0272 5.650000 4.229854 3.517025 3.577542 89.44309 0.000013 4.- Si ahora queremos un solo rezago, reespecificamos el modelo, vamos en su cuadro de diálogo a “estimate “ y especificamos los retardos ahora requeridos para x1, digamos 1, luego escribimos y c x1 x1(-1)/ok y sale: Dependent Variable: Y Method: Least Squares Date: 06/29/06 Time: 03:08 Sample(adjusted): 1994 2002 Included observations: 9 after adjusting endpoints Variable C X1 X1(-1) Coefficient 1.893576 0.318743 0.560664 Std. Error 0.583155 0.231511 0.339015 t-Statistic 3.247123 1.376795 1.653802 Prob. 0.0175 0.2177 0.1493 25 R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat 0.935075 0.913433 0.871703 4.559192 -9.710091 1.974996 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic) 6.444444 2.962731 2.824465 2.890206 43.20702 0.000274 5.- Ahora para dos rezagos, en esa misma equation, vamos en su cuadro de diálogo a “estimate “ y especificamos así : y c x1 x1(-1) x1(-2)/ok y sale: Dependent Variable: Y Method: Least Squares Date: 06/29/06 Time: 03:12 Sample(adjusted): 1995 2002 Included observations: 8 after adjusting endpoints Variable Coefficient Std. Error t-Statistic C 2.691799 0.777559 3.461857 X1 0.383904 0.247584 1.550601 X1(-1) 0.114224 0.702856 0.162514 X1(-2) 0.286175 0.843348 0.339333 R-squared 0.945684 Mean dependent var Adjusted R-squared 0.904948 S.D. dependent var S.E. of regression 0.807333 Akaike info criterion Sum squared resid 2.607147 Schwarz criterion Log likelihood -6.866768 F-statistic Durbin-Watson stat 3.225951 Prob(F-statistic) Prob. 0.0258 0.1959 0.8788 0.7514 7.000000 2.618615 2.716692 2.756413 23.21457 0.005430 6.- Como son pocos datos finalmente probemos con tres rezagos: vamos en su cuadro de diálogo a “estimate “ y especificamos así : y c x1 x1(-1) x1(-2) x1(-3)/ok y obtenemos: Dependent Variable: Y Method: Least Squares Date: 06/29/06 Time: 03:15 Sample(adjusted): 1996 2002 Included observations: 7 after adjusting endpoints Variable C X1 X1(-1) X1(-2) X1(-3) R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat Coefficient 3.336029 0.042132 -0.000381 -0.229475 1.377233 0.944113 0.832340 1.026577 2.107720 -5.731508 3.182406 Std. Error t-Statistic 1.366625 2.441071 0.638635 0.065971 0.945374 -0.000403 1.326342 -0.173014 2.103171 0.654837 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic) Prob. 0.1347 0.9534 0.9997 0.8786 0.5798 7.428571 2.507133 3.066145 3.027509 8.446703 0.108650 7.- Comparemos y hagamos análisis con los siguientes datos: M : No. retardos T: total de Coef.determina. Criterio de Criterio observaciones ajustado información de Schwarz Akaike 0 10 0.92 3.52 3.58 1 9 0.93 2.82 2.89 2 8 0.945 2.72 2.75 de 26 3 7 0.944 3.07 3.03 De acuerdo con estos resultados decidimos seleccionar el modelo que comprende una longitud de dos retardos de la variable X1 porque: a). representa el mayor coeficiente de determinación ajustado; b).- el menor valor del criterio de información de Akaike y c).- el menor valor del criterio de Schwarz, que aparece enseguida. Dependent Variable: Y Method: Least Squares Date: 06/29/06 Time: 03:12 Sample(adjusted): 1995 2002 Included observations: 8 after adjusting endpoints Variable C X1 X1(-1) X1(-2) R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat Coefficient 2.691799 0.383904 0.114224 0.286175 Std. Error 0.777559 0.247584 0.702856 0.843348 t-Statistic 3.461857 1.550601 0.162514 0.339333 0.945684 0.904948 0.807333 2.607147 -6.866768 3.225951 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic) Prob. 0.0258 0.1959 0.8788 0.7514 7.000000 2.618615 2.716692 2.756413 23.21457 0.005430 BIBLIOGRAFÍA Carrascal Ursicino, González Yolanda y Rodríguez Beatriz. Editorial Alfa Omega Ra-M a, España. 2001. Gujarati, Damodar N. Econometría,cuarta edición. M cGraw Hill, julio 2004. Sánchez Barajas, Genaro. Introducción a la Econometría. Facultad de Economía, UNAM ,2005. Tapia Tovar Gabriel –Carmona Rocha José Gerardo. M odelización regional: técnica aplicada al desarrollo regional, en Desarrollo Regional, Local y Empresas.ININEE,UM SNH, PP. 66 Y 67, 2004. 27