Modelo de corrección de error y cointegración en E

Anuncio
MATERIAL DE APOYO/SERIES DE TIEMPO
INDICE
1. GRAFICAR DATOS
1
2. APLICAR A LAS SERIES PRUEBAS DE RAICES UNITARIAS
2
3. CALCULO DE VECTORES AUTOREGRESIVOS
6
4. CORRECCIÓN DE LA VIOLACIÓN DE LOS SUPUESTOS
DEL MODELO.
15
5. ¿LAS VARIABLES COINTEGRAN?
23
6. PRUEBAS DE COINTEGRACIÓN
24
7. APLICACIÓN DEL MODELO CORRECTOR DE ERRORES (MCE)
30
8. MODELO GENERAL A LO ESPECÌFICO
32
9. EL MODELO CORRECTOR DE ERRORES FINAL
38
BIBLIOGRAFIA
40
MODELO DE CORRECCIÓN DE ERRORES Y COINTEGRACIÓN EN E-VIEWS
Este es un ejemplo de un mecanismo corrector de errores realizado en E-views.
Para este caso, plantearemos un modelo de consumo, el cuál podemos expresar
de la siguiente manera:
cp = y + i
Donde:
cp= Consumo privado
y= Ingreso real
i= Inflación
Nota: Las series están expresadas en el mismo año base (1993), tienen
periodicidad trimestral y el periodo es de 1980:1 a 2005:4.
Antes de modelar, transformaremos las series en logaritmos de “y”, “i” y “cp” por
conveniencia.
10. GRAFICAR DATOS
Lo primero que se debe reportar en un trabajo (después de la introducción, el
índice y el marco teórico-histórico) son los gráficos de las series, tanto en niveles
como en logaritmos, así como el significado de cada variable y el período tomado.
Nota: Las transformaciones de las variables a logaritmos y los gráficos pueden hacerlas desde
Excel.
Logaritmo del Consumo Privado
Consumo Privado
1.4E+09
21.1
1.3E+09
21.0
1.2E+09
20.9
20.8
1.1E+09
20.7
1.0E+09
20.6
9.0E+08
20.5
8.0E+08
20.4
7.0E+08
6.0E+08
1980
20.3
1985
1990
1995
CP
2000
2005
20.2
1980
1985
1990
1995
2000
2005
LCP
1
Logaritmo del Ingreso
Ingreso
21.4
2.0E+09
21.3
1.8E+09
21.2
1.6E+09
21.1
1.4E+09
21.0
20.9
1.2E+09
20.8
1.0E+09
8.0E+08
1980
20.7
1985
1990
1995
2000
2005
20.6
1980
1985
1990
Inflación
19.6
3.0E+08
19.4
2.5E+08
19.2
2.0E+08
19.0
1.5E+08
18.8
1985
1990
1995
I
2005
Logaritmo de Inflación
19.8
3.5E+08
1.0E+08
1980
2000
LY
Y
4.0E+08
1995
2000
2005
18.6
1980
1985
1990
1995
2000
2005
LI
Después de los gráficos, lo que se reporta son los resultados sintetizados de las
pruebas de raíces unitarias. De preferencia, se realiza un cuadro personalizado
como en el ejemplo (Cuadro 1 y Cuadro 2) el cual contenga la información más
relevante.
11. APLICAR A LAS SERIES PRUEBAS DE RAICES UNITARIAS
Tendrá que ser un cuadro por prueba (Dickey-Fuller Aumentada y Phillips-Perron)
para cada variable (para este caso: lcp, li y ly):
Cuadro 1. Dickey- Fuller
2
Variable
lcp
Modelo
t-Statistic
5%
Prob
Constante
CyT
None
.982190
-2.731937
2.457502
-2.892536
-3.458326
-1.944286
0.9962
0.2265
0.9965
Constante
.859928
-2.892536
.9946
CyT
-3.335868
-3.457808
.0668
None
2.747065
-1.944286
0.9985
-411141
-2.218209
0.885178
-2.889753
-3.454032
-1.943974
0.9022
0.4743
0.8982
ly
Constante
CyT
None
li
Cuadro 2. Philips- Perron
Variable
lcp
ly
li
Modelo
Constante
CyT
None
Constante
CyT
None
Constante
CyT
None
t-Statistic
-0.057020
-4.567675
3.298468
0.124594
-5.708493
4.033356
-0.732297
-2.482334
0.758533
5%
-2.889753
-3.454032
-1.943974
-2.889753
-3.454032
-1.943974
-2.889753
-3.454032
-1.943974
Prob
0.9503
0.0020
0.9997
0.9662
0.0000
1.0000
0.8330
0.3362
0.8763
Recuerde que para realizar las pruebas de raíces unitarias debe:
1) Seleccionar y abrir la ventana de la variable de nuestro workfile
2) Seleccionar de la barra de botones: View / Unit Root Test y realizar las
pruebas de raíces unitarias.
3) Desplegará una ventana de diálogo, la cual mostrará las opciones para
aplicar las pruebas.
El primer campo tiene un combo de opciones de distintas pruebas en este ejercicio
trabajaremos con la Dickey-Fuller Aumentada y la Phillips-Perron. Para la opción
3
de Lag Lenght utilizaremos el criterio que viene por default (Schwarz), con 12
rezagos.
Para la prueba Dickey-Fuller los cálculos se presentan de la siguiente manera:
(Ejemplo de la variable LCP)
Modelos en niveles (levels):
Cuadro 3. Constante (intercept)
Null Hypothesis: LCP has a unit root
Exogenous: Constant
Lag Length: 9 (Automatic based on SIC, MAXLAG=12)
t-Statistic
Augmented Dickey-Fuller test statistic
0.982190
Test critical values:
1% level
-3.501445
5% level
-2.892536
10% level
-2.583371
*MacKinnon (1996) one-sided p-values.
Prob.*
0.9962
a) Cuadro 4. Constante y tendencia (trend and intercept)
Null Hypothesis: LCP has a unit root
Exogenous: Constant, Linear Trend
Lag Length: 9 (Automatic based on SIC, MAXLAG=12)
t-Statistic
Augmented Dickey-Fuller test statistic
-2.731937
Test critical values:
1% level
-4.058619
5% level
-3.458326
10% level
-3.155161
*MacKinnon (1996) one-sided p-values.
Prob.*
0.2265
b) Cuadro 5. Sin constante y sin tendencia (none)
Null Hypothesis: LCP has a unit root
Exogenous: None
Lag Length: 9 (Automatic based on SIC, MAXLAG=12)
t-Statistic
Augmented Dickey-Fuller test statistic
2.457502
Test critical values:
1% level
-2.589795
5% level
-1.944286
10% level
-1.614487
*MacKinnon (1996) one-sided p-values.
Prob.*
0.9965
En primeras diferencias (1st difference):
4
c) Cuadro 6. Constante (intercept)
Null Hypothesis: D(LCP) has a unit root
Exogenous: Constant
Lag Length: 8 (Automatic based on SIC, MAXLAG=12)
t-Statistic
Augmented Dickey-Fuller test statistic
-3.706008
Test critical values:
1% level
-3.501445
5% level
-2.892536
10% level
-2.583371
*MacKinnon (1996) one-sided p-values.
Prob.*
0.0055
d) Cuadro 7. Constante y tendencia (trend and intercept)
Null Hypothesis: D(LCP) has a unit root
Exogenous: Constant, Linear Trend
Lag Length: 8 (Automatic based on SIC, MAXLAG=12)
t-Statistic
Augmented Dickey-Fuller test statistic
-4.058553
Test critical values:
1% level
-4.058619
5% level
-3.458326
10% level
-3.155161
*MacKinnon (1996) one-sided p-values.
Prob.*
0.0100
e) Cuadro 8. Sin constante y sin tendencia (none)
Null Hypothesis: D(LCP) has a unit root
Exogenous: None
Lag Length: 8 (Automatic based on SIC, MAXLAG=12)
t-Statistic
Augmented Dickey-Fuller test statistic
-2.709354
Test critical values:
1% level
-2.589795
5% level
-1.944286
10% level
-1.614487
*MacKinnon (1996) one-sided p-values.
Prob.*
0.0072
Este mismo proceso habrá que realizarlo para cada variable.
Recordemos que la H0 es que existe raíz unitaria en nuestra serie y H1 es que la
serie es estacionaria. Por tanto, para aprobar H1 la probabilidad debe ser menor a
0.05 (5%) o en su defecto, en términos absolutos al valor crítico del 5% (si no pasa
al 5% podemos flexibilizarnos al 10%). Para aprobar H0, la probabilidad debe ser
mayor a 0.05.
12. CALCULO DE VECTORES AUTOREGRESIVOS
5
El siguiente paso a seguir consiste en construir el modelo VAR. Es necesario
reiterar que tenemos que las variables a utilizar deben ser de orden de integración
1, es decir I(1). La forma de demostrar el orden de integración, como lo vimos
anteriormente, es a través de las pruebas de raíces unitarias.
El VAR es un modelo que implica un sistema de ecuaciones. Todas las variables
son endógenas en el sistema y son explicadas por los rezagos de las mismas, por
tanto, es un modelo dinámico pero ateórico.
Para especificar el VAR en el programa, es necesario seleccionar del menú
principal: Quick/ Estimate VAR... Entonces, se abrirá la siguiente ventana de
diálogo:
En la opción Endogenous Variables pondremos las variables que queremos utilizar
para estimar (lcp, ly y li). En la ventana siguiente (Lag Intervals for ...) se declaran
el número de rezagos que emplearemos en el modelo. Para esta primer etapa,
dejaremos el número de rezagos que aparece por default. También para la opción
6
de la siguiente ventana (Exogenous Variables) se dejará la opción que aparece (c:
constante), oprima el botón Aceptar.
Antes de especificar el número de rezagos a emplear, utilizaremos los criterios de
decisión para el número de rezagos óptimo propuesto por el programa. Para esto,
requerimos de seleccionar View / Lag Structure / Lag Lenght Criteria... en la
ventana abierta de la especificación del VAR. Se despliega una nueva ventana
que pide el número de rezagos a incluir en los criterios. En un modelo con series
trimestrales es recomendable colocar 8, para datos mensuales 16. Para este caso,
pondremos 8.
VAR Lag Order Selection Criteria
Endogenous variables: LCP LY LI
Exogenous variables: C
Date: 10/16/07 Time: 10:52
Sample: 1980:1 2005:4
Included observations: 96
Lag
LogL
LR
FPE
AIC
SC
HQ
0
1
2
3
4
5
6
7
8
300.3780
521.4061
615.7767
660.6556
722.9871
734.7455
739.0205
741.3733
751.7454
NA
423.6373
174.9787
80.40820
107.7815
19.59724*
6.857772
3.627264
15.34208
4.09E-07
4.94E-09
8.35E-10
3.96E-10
1.31E-10
1.24E-10*
1.38E-10
1.59E-10
1.57E-10
-6.195374
-10.61263
-12.39118
-13.13866
-14.24973
-14.30720*
-14.20876
-14.07028
-14.09886
-6.115239
-10.29208
-11.83023
-12.33730
-13.20797*
-13.02502
-12.68618
-12.30729
-12.09547
-6.162982
-10.48306
-12.16443
-12.81474
-13.82863*
-13.78892
-13.59331
-13.35765
-13.28906
* indicates lag order selected by the criterion
LR: sequential modified LR test statistic (each test at 5% level)
FPE: Final prediction error
AIC: Akaike information criterion
SC: Schwarz information criterion
HQ: Hannan-Quinn information criterion
Los asteriscos indican cuál es el número de rezagos óptimo para el modelo. La
7
mayoría de los criterios señalan que el número de rezagos óptimo son 5 (Sólo el
SC muestra que 4 es el número óptimo).
Importante: Cabe aclarar que el número de rezagos óptimo que arrojan los criterios, no
necesariamente son del todo exactos, únicamente nos dan un punto de referencia, es decir, puede
que el número de rezagos óptimo se encuentre entre 3 y 6 rezagos.
En función a los resultados obtenidos, se reestimará el modelo con 5 rezagos.
Vector Autoregression Estimates
Date: 10/16/07 Time: 11:00
Sample(adjusted): 1981:2 2005:4
Included observations: 99 after adjusting endpoints
Standard errors in ( ) & t-statistics in [ ]
LCP
LY
LI
LCP(-1)
0.635209
(0.14180)
[ 4.47962]
-0.006522
(0.11509)
[-0.05667]
-0.151079
(0.38488)
[-0.39253]
LCP(-2)
-0.122657
(0.13405)
[-0.91502]
0.018578
(0.10880)
[ 0.17076]
-0.141770
(0.36384)
[-0.38965]
LCP(-3)
0.081468
(0.13176)
[ 0.61831]
0.022282
(0.10695)
[ 0.20835]
0.400854
(0.35763)
[ 1.12085]
LCP(-4)
0.513876
(0.12353)
[ 4.15978]
-0.249352
(0.10027)
[-2.48685]
-0.403221
(0.33530)
[-1.20255]
LCP(-5)
-0.235578
(0.13880)
[-1.69722]
0.169156
(0.11266)
[ 1.50147]
0.252508
(0.37674)
[ 0.67024]
LY(-1)
-0.249411
(0.19428)
[-1.28379]
0.275059
(0.15769)
[ 1.74432]
-0.206584
(0.52732)
[-0.39176]
LY(-2)
0.709951
(0.13544)
[ 5.24194]
0.534534
(0.10993)
[ 4.86255]
1.229645
(0.36761)
[ 3.34497]
LY(-3)
-0.394992
(0.15428)
[-2.56022]
-0.218568
(0.12522)
[-1.74542]
-0.256767
(0.41876)
[-0.61317]
8
LY(-4)
-0.020874
(0.15692)
[-0.13303]
0.858230
(0.12736)
[ 6.73843]
0.193422
(0.42591)
[ 0.45414]
LY(-5)
0.094843
(0.20451)
[ 0.46376]
-0.401713
(0.16599)
[-2.42005]
-0.613532
(0.55509)
[-1.10527]
LI(-1)
0.263224
(0.05860)
[ 4.49157]
0.261340
(0.04757)
[ 5.49417]
1.242574
(0.15907)
[ 7.81165]
LI(-2)
-0.205622
(0.07038)
[-2.92170]
-0.204634
(0.05712)
[-3.58235]
-0.368439
(0.19102)
[-1.92877]
LI(-3)
-0.049575
(0.07501)
[-0.66087]
-0.011596
(0.06089)
[-0.19046]
-0.250213
(0.20361)
[-1.22888]
LI(-4)
0.022599
(0.07561)
[ 0.29889]
-0.078221
(0.06137)
[-1.27458]
0.183801
(0.20523)
[ 0.89560]
LI(-5)
-0.026484
(0.05909)
[-0.44817]
0.035907
(0.04796)
[ 0.74861]
-0.016337
(0.16040)
[-0.10185]
C
-0.363391
(0.30816)
[-1.17922]
-0.095117
(0.25012)
[-0.38028]
-2.363547
(0.83643)
[-2.82574]
R-squared
Adj. R-squared
Sum sq. resids
S.E. equation
F-statistic
Log likelihood
Akaike AIC
Schwarz SC
Mean dependent
S.D. dependent
0.991668
0.990162
0.034033
0.020249
658.5622
254.3144
-4.814432
-4.395019
20.60104
0.204155
0.993763
0.992636
0.022421
0.016436
881.7040
274.9728
-5.231774
-4.812360
20.95996
0.191531
0.969383
0.963850
0.250729
0.054962
175.1939
155.4611
-2.817395
-2.397982
19.24083
0.289073
Determinant Residual
Covariance
Log Likelihood (d.f. adjusted)
Akaike Information Criteria
Schwarz Criteria
7.93E-11
729.8145
-13.77403
-12.51579
Donde las ecuaciones quedan de la siguiente manera:
VAR Model - Substituted Coefficients:
9
===============================
LCP = 0.6352090578*LCP(-1) - 0.1226568686*LCP(-2) + 0.08146835244*LCP(-3) +
0.5138764094*LCP(-4) - 0.2355782925*LCP(-5) - 0.2494110047*LY(-1) + 0.7099510195*LY(-2) 0.3949922689*LY(-3) - 0.02087417914*LY(-4) + 0.0948430648*LY(-5) + 0.263224497*LI(-1) 0.2056218455*LI(-2) - 0.04957480924*LI(-3) + 0.02259898405*LI(-4) - 0.02648408424*LI(-5) 0.3633912399
LY = - 0.006522011827*LCP(-1) + 0.01857843967*LCP(-2) + 0.02228245194*LCP(-3) 0.2493523974*LCP(-4) + 0.1691563095*LCP(-5) + 0.2750591988*LY(-1) + 0.5345340237*LY(-2) 0.2185676575*LY(-3) + 0.8582304662*LY(-4) - 0.4017127462*LY(-5) + 0.261340012*LI(-1) 0.2046339703*LI(-2) - 0.01159645535*LI(-3) - 0.07822145261*LI(-4) + 0.03590657554*LI(-5) 0.09511654109
LI = - 0.1510791423*LCP(-1) - 0.1417696261*LCP(-2) + 0.4008536103*LCP(-3) 0.4032210695*LCP(-4) + 0.2525084512*LCP(-5) - 0.2065844898*LY(-1) + 1.229645033*LY(-2) 0.2567672366*LY(-3) + 0.1934220338*LY(-4) - 0.6135323087*LY(-5) + 1.242574095*LI(-1) 0.368439102*LI(-2) - 0.2502130014*LI(-3) + 0.1838014295*LI(-4) - 0.01633677359*LI(-5) 2.363546655
No es fundamental reportar los resultados obtenidos por el modelo VAR, ya que
los coeficientes no se pueden interpretar en relación con la teoría económica de
fondo. La finalidad de presentarlo en este ejemplo es la de esclarecer los pasos a
seguir en la metodología.
A continuación se requiere aplicar las pruebas de diagnóstico a los errores del
modelo.
La primera prueba a realizar es una prueba de normalidad. En este caso, el
programa maneja la prueba Jarque-Bera.
La hipótesis nula (Ho) es que existe normalidad en el modelo. Obviamente, la
hipótesis alternativa indica lo contrario. Para aceptar la hipótesis nula, es
necesario que la probabilidad sea mayor a 0.05 (5%) .
Para aplicar la prueba en el programa, seleccionamos en la ventana del modelo la
opción: View / Residual Test / Normality Test...
10
Se desplegará una ventana de diálogo que pedirá cual método de ortogonalización
se desea aplicar la prueba. Para nuestros propósitos seleccionaremos la opción
de Cholesky propuesta por Lütkepol.
VAR Residual Normality Tests
Orthogonalization: Cholesky (Lutkepohl)
H0: residuals are multivariate normal
Date: 10/16/07 Time: 11:08
Sample: 1980:1 2005:4
Included observations: 99
Component
Skewness
Chi-sq
df
Prob.
1
2
3
-0.455317
0.127828
-0.596916
3.420674
0.269609
5.879098
1
1
1
0.0644
0.6036
0.0153
9.569381
3
0.0226
Joint
Component
Kurtosis
Chi-sq
df
Prob.
1
2
3
3.902869
2.392141
4.276467
3.362584
1.524156
6.721139
1
1
1
0.0667
0.2170
0.0095
11.60788
3
0.0089
Joint
Component
Jarque-Bera
df
Prob.
1
2
3
6.783259
1.793765
12.60024
2
2
2
0.0337
0.4078
0.0018
Joint
21.17726
6
0.0017
En primera instancia, los primeros cuadros que reporta la prueba son las pruebas
de Skewness (Simetría) y Kurtosis (Curtosis). La Jarque-Bera es una prueba que
considera las otras dos, por tal motivo, la lectura de la prueba de normalidad se
realiza en el último cuadro reportado. Los resultados remarcados en amarillo
indica la probabilidad del estadístico de la prueba por ecuación. En la columna
Component se hallan las ecuaciones del modelo. Para este ejemplo: 1 representa
11
la ecuación de lcp, 2 la ecuación de ly y 3 la de li. Joint es el resultado de la
prueba en su conjunto, la cual está marcada en color verde.
Como se puede observar en el cuadro anterior, el modelo en la prueba conjunta
tiene problemas, ya que la probabilidad es menor a 0.05. Para poder solucionar el
problema, es necesario revisar las pruebas individuales ecuación por ecuación. En
este modelo, encontramos que tenemos problemas en las ecuaciones 1 y 3 (cp e i
respectivamente). El orden de 1 a 3 representa el orden con el que se introdujeron
las variables.
Antes de solucionar el problema de normalidad hay que realizar las otras pruebas.
La siguiente prueba a realizar será para detectar problemas de Autocorrelación.
Las pruebas que maneja el paquete E-views para la autocorrelación son la
Portmanteu y la prueba LM. Sin embargo, la prueba Portmanteu sólo sirve para un
número de rezagos extenso, por tal motivo, no la registraremos para este trabajo.
La prueba a utilizar será la prueba LM (Lagrange Multiplier) para autocorrelación.
Para realizarla en el programa hay que seleccionar View / Residual Test /
Autocorrelation LM Test... de la ventana del modelo, se abre una ventana de
diálogo que pide el número de rezagos a incluir, el cuál será el número de rezagos
utilizados en el modelo (en este ejemplo 5).
VAR Residual Serial Correlation LM
Tests
H0: no serial correlation at lag order h
Date: 10/16/07 Time: 11:25
Sample: 1980:1 2005:4
Included observations: 99
Lags
LM-Stat
Prob
1
2
8.853678
4.443033
0.4509
0.8799
12
3
4
5
14.28193
20.65970
8.991014
0.1126
0.0143
0.4381
Probs from chi-square with 9 df.
Para analizar el resultado de esta prueba habrá que leer la probabilidad del
estadístico LM de los cinco rezagos.
Importante: Recuerde que la hipótesis nula (Ho) es No Autocorrelación y H1 es Existe
Autocorrelación, por tanto, la probabilidad para aceptar Ho deberá ser mayor a 0.05 ó a 0.01.
En este caso la probabilidad es 0.4381, lo cual indica que no tenemos problemas
de autocorrelación.
A continuación, se aplicará una prueba para heteroscedasticidad: La prueba de
White para términos no cruzados. Para realizar la prueba en el programa hay que
seleccionar View / Residual Test / White Heteroskedasticity en la ventana del
modelo.
VAR Residual Heteroskedasticity Tests: No Cross Terms (only levels and squares)
Date: 10/16/07 Time: 11:29
Sample: 1980:1 2005:4
Included observations: 99
Joint test:
Chi-sq
df
Prob.
220.0670
180
0.0224
Individual components:
Dependent
R-squared
F(30,68)
Prob.
Chi-sq(30)
Prob.
res1*res1
res2*res2
res3*res3
res2*res1
res3*res1
res3*res2
0.336340
0.535706
0.247175
0.362340
0.253473
0.334039
1.148736
2.615293
0.744216
1.287995
0.769615
1.136934
0.3124
0.0005
0.8129
0.1936
0.7838
0.3245
33.29765
53.03485
24.47036
35.87163
25.09382
33.06981
0.3098
0.0059
0.7503
0.2123
0.7205
0.3195
13
Para este caso sólo se observa la probabilidad de la prueba conjunta (la cual está
marcada con color verde en este ejemplo).
Ho en esta prueba indica que la varianza de los errores es homoscedástica y H1
indica que la varianza es heteroscedástica. Por tanto, para aceptar Ho se requiere
que la probabilidad sea mayor a 0.05 y en este caso no es así. Esto implica que
tenemos problemas de heteroscedasticidad en el modelo.
Encontramos, en síntesis, que el modelo presenta problemas de normalidad y de
heteroscedasticidad. El problema de normalidad se podría arreglar con variables
dummy, y el problema de heteroscedasticidad es posible corregirla mediante dos
remedios utilizados frecuentemente: “Uno de ellos es la transformación logarítmica
de las variables y el otro en deflactar todas las variables por alguna medida de
<<tamaño>>”.
Importante:
-
En dado caso que existan problemas de autocorrelación, la solución sería introduciendo
rezagos al modelo.
-
Cuando agregamos variables dummy al modelo probablemente se corrija la normalidad de
alguna de las ecuaciones.
4. CORRECCIÓN DE LA VIOLACIÓN DE LOS SUPUESTOS DEL MODELO
Primero, se intentará corregir la normalidad. Para ello deberá acudir al cuadro en
donde se reporta la prueba, recordemos que los problemas se encuentran en las
ecuaciones de lcp y li.
14
Para ello requeriremos ver el comportamiento de los errores en el tiempo de dicha
ecuación y será a través de los gráficos de los errores al seleccionar la opción
Resids ó View / Residuals / Graph de la ventana del modelo.
LY Residuals
LCP Residuals
.06
.06
.04
.04
.02
.02
.00
.00
-.02
-.02
-.04
-.04
-.06
-.08
1980
1985
1990
1995
2000
-.06
1980
2005
1985
1990
1995
2000
2005
LI Residuals
.1
.0
-.1
-.2
-.3
1980
1985
1990
1995
2000
2005
Para generar los errores y tenerlos como series en nuestro workfile, se necesita
seleccionar Procs / Make Residuals desde la ventana de nuestro VAR. Estos se
abrirán en una ventana de grupo, la cual podemos cerrar porque se generaron
como objetos series en el workfile. El nombre que recibirán los errores por default
serán resid01, resid02 y resid03 los cuales representan los errores de las
ecuaciones LCP, LY e LI, respectivamente. El orden depende de la manera en que
hayamos colocado las variables en el VAR.
15
Importante: Para graficar los errores de manera independiente y copiarlos a WORD hay que seguir
una serie de pasos:
1) Abrir el objeto serie del error o residual que deseamos graficar.
2) Seleccionar View / Graph / Line.
3) Una vez que el gráfico se encuentra en la ventana seleccionar Object / View Options /
Save Metafile to disk... lo cual desplegará una nueva ventana de diálogo que pedirá una
ubicación donde guardar el gráfico y con qué formato desea guardarlo. Habrá que dejar
el formato que aparece por default y deshabilitar la opción Use color con el fin de guardar
el gráfico en blanco y negro, lo cual nos dará un mejor manejo y mayor facilidad. Haga
clic en el botón Aceptar para completar el proceso.
Continuando con el análisis de los gráficos observe que en el primer gráfico, que
corresponde a los errores de la ecuación LCP, podemos observar un pulso en el
año 1995, pero como no sabemos exactamente en que trimestre se da este pulso
16
tenemos que acudir a la serie resid01 de nuestro workfile y encontrar en que
trimestre del año 1995 se da esta situación.
.06
.04
.02
.00
-.02
-.04
-.06
-.08
1980
1985
1990
1995
2000
2005
RESID01
Para regresar a la serie después del gráfico, hay que seleccionar la opción
SpreadSheet del menú de nuestra serie.
1994q1
1994q2
1994q3
1994q4
1995q1
1995q2
1995q3
1995q4
0.023154
0.007128
-0.001449
0.014032
-0.076837
-0.048499
0.008811
0.000942
En esta serie observamos que el impulso se extiende en dos periodos, por tanto,
lo recomendable es generar una variable dummy con dos números 1. En el
periodo 1995Q1 y 1995Q2.
Para crear una variable dummy en Eviews deberá escribir en la ventana de
comando lo siguiente:
genr d95=0,
17
Este proceso generará una serie de ceros en todos los periodos. Para poder
agregar los números 1, tenemos que abrir la serie y seleccionar edit. Después
buscaremos las fechas donde identificamos el impulso para sobrescribir sobre los
número 0 los números 1. Por último, volvemos a seleccionar edit y cerramos la
serie. Ahora nuestra variable dummy está fabricada.
1994Q2
1994Q3
1994Q4
1995Q1
1995Q2
1995Q3
1995Q4
1996Q1
1996Q2
0.000000
0.000000
0.000000
1.000000
1.000000
0.000000
0.000000
0.000000
0.000000
Para revisar los efectos de esta dummy en nuestro modelo, seleccionar Estimate
de la ventana de nuestro modelo VAR, y en la ventana que despliega donde ya
habíamos trabajado anteriormente, agregamos la variable dummy en el campo
Exogenous Variable a lado de la constante (atención: NO HAY QUE BORRAR
LA CONSTANTE PARA INTRODUCIR LA VARIABLE DUMMY). Haga clic en el
botón Aceptar y se realizará un nuevo modelo VAR con la variable D95 incluida en
el sistema.
Nota: No es necesario reportar la salida del VAR como ya lo he mencionado con anterioridad.
18
Para verificar si hubo alguna corrección en la normalidad de la ecuación LCP
necesitamos aplicar la prueba de normalidad una vez más:
Component
Jarque-Bera
df
Prob.
1
2
3
2.016872
2.377500
2.516743
2
2
2
0.3648
0.3046
0.2841
Joint
6.911115
6
0.3291
Observe que la normalidad de dicha ecuación mejoró. Ahora pasa la prueba, ya
que la probabilidad es mayor a 0.05. En caso de que la probabilidad de la
normalidad de las otras ecuaciones fuera menor a 0.05 se debería generar otra
dummy que sirva a nuestros fines. Sin embargo para nuestro caso no es
necesario. Comparemos los gráficos anteriores, con los gráficos siguientes que
incluye la dummy donde observamos que modificó el año 1995.
19
LY Residuals
LCP Residuals
.04
.06
.03
.04
.02
.02
.01
.00
.00
-.01
-.02
-.02
-.04
-.06
1980
-.03
1985
1990
1995
2000
-.04
1980
2005
1985
1990
1995
2000
2005
LI Residuals
.15
.10
.05
.00
-.05
-.10
-.15
-.20
1980
1985
1990
1995
2000
2005
Para efectos de completar las pruebas de diagnóstico, tenemos que realizar las
pruebas restantes:
Autocorrelación:
VAR Residual Serial Correlation LM
Tests
H0: no serial correlation at lag order h
Date: 10/31/07 Time: 13:37
Sample: 1980:1 2005:4
Included observations: 99
Lags
LM-Stat
Prob
1
2
3
4
5
11.68952
6.725507
9.744785
24.90975
11.44807
0.2314
0.6657
0.3715
0.0031
0.2462
Probs from chi-square with 9 df.
Heteroscedasticidad:
20
VAR Residual Heteroskedasticity Tests:
No Cross Terms (only levels and squares)
Date: 10/31/07 Time: 13:39
Sample: 1980:1 2005:4
Included observations: 99
Joint test:
Chi-sq
df
Prob.
234.9897
186
0.0087
La prueba de autocorrelación nos muestra la aceptación de la hipótesis nula,
puesto que es mayor a 0.05, mientras que la de heteroscedasticidad es menor a
0.05, tenemos ahora un VAR que no pasa todas las pruebas de diagnóstico. Sin
embargo, lo mejor es buscar otro modelo que pase las pruebas para tener más
opciones.
Nota: Es necesario hacer hincapié en que las variables dummy que agreguemos a nuestro modelo
tienen que estar justificadas históricamente. Es decir, se necesita expresar las posibles causas que
provocaron que la serie rompiera su ritmo de desarrollo en el tiempo. Por ejemplo, la variable
dummy del 95 puede ser justificada por la crisis del 95 en México la cual provocó cambios en el
movimiento de la mayoría de las variables macroeconómicas.
Ahora especificaré el modelo con 7 rezagos para ver los efectos en mis pruebas.
Normalidad
Component
Jarque-Bera
df
Prob.
1
2
3
1.999258
5.696329
0.751458
2
2
2
0.3680
0.0580
0.6868
Joint
8.447045
6
0.2071
Autocorrelación
Lags
LM-Stat
Prob
21
1
2
3
4
5
6
7
12.31837
8.822315
13.34724
20.91348
9.708506
15.19974
5.474040
0.1960
0.4538
0.1475
0.0130
0.3746
0.0856
0.7912
Probs from chi-square with 9 df.
Heteroscedasticidad
Joint test:
Chi-sq
df
Prob.
292.2160
258
0.0703
Este modelo reporta resultados más contundentes en las pruebas de diagnóstico.
Nota: Este proceso se tiene que seguir con menos o más rezagos, para ver el comportamiento de
los errores a través de las pruebas de diagnóstico, hasta tener más opciones y poder elegir el
mejor de ellos. Hasta esta fase del desarrollo de nuestra metodología: Modelo Corrector de
Errores, no podemos definir si es un buen modelo o no, ya que falta cumplir con otras condiciones
antes de definir al “mejor de todos”.
Mientras tanto, nos quedaremos con este modelo, esperando que cumpla con el
resto de las condiciones. Si no es así, tendré que regresar a esta fase combinando
otras dummy y reespecificando la cantidad de rezagos.
1. ¿LAS VARIABLES COINTEGRAN?
Para el caso de cointegración, nuestras variables deben de ser de orden de
integración 1 ó 2, es decir: I (d). Siguiendo la metodología de Engel y Granger
(1987). Como podemos observar, en el cuadro las pruebas de raíces unitarias
22
sintetizado. En este caso, se realizó la prueba Dickey-Fuller para las tres
variables.
Cuadro 9. Dickey- Fuller en primeras diferencias:
Variable
Modelo
Constante
CyT
None
Constante
CyT
None
Constante
CyT
Lcp
Ly
li
None
t-Statistic
-3.706008
-4.058553
-2.709354
-5.465487
-5.672239
-2.347063
-9.093608
-9.168447
-9.067781
5% Prob
-2.892536
0.0055
-3.458326
0.0100
-1.944286
0.0072
-2.891550
0.0000
-3.456805
0.0000
-1.944248
0.0190
-2.890037
0.0000
-3.454471
0.0000
-1.944006
0.0000
Podemos inferir, a partir de los resultados no pasa las pruebas en ninguno de los
modelos en niveles. Sin embargo, pasa únicamente las pruebas en todos los
modelos en primeras diferencias, por lo tanto LCP es I(1) (orden de integración 1).
Además tenemos que comparar el resultado obtenido respecto al resultado
obtenido por otra prueba (Phillips- Perron).
Importante:
4) Se usará una tercera prueba (KPSS) para que el resultado obtenido permita la toma de
una decisión de mayor contundencia.
5) Para la prueba KPSS, la Ho es que no existe raíz unitaria (la serie es estacionaria), por
tanto, H1 es que existe raíz unitaria. Esto implica que el t-Statistic tiene que ser menor
en términos absolutos que el valor crítico al 5% (o al 10% en su defecto).( Entiendo que
esta explicación se aplica en la prueba KPSS?
Ó está hablando de los resultados del cuadro anterior?
6) La prueba KPSS, en este programa, no reporta la probabilidad.
23
2. PRUEBAS DE COINTEGRACIÓN
Para habilitar la prueba de cointegración de Johansen, se requiere seleccionar en
nuestra ventana del modelo View / Cointegration Test. Esto desplegará otra
ventana de diálogo, la cuál me presenta 6 opciones:
Las opciones que presenta son:
Ecuación de Cointegración
(CE)
Vector Autorregresivo
(VAR)
Asume no tendencia determinística en los datos
No Intercepto o tendencia CE
No intercepto o tendencia
Intercepto (no tendencia) en CE
No intercepto en el VAR
Permite tendencia determinística lineal en los datos
Intercepto no tendencia CE
Intercepto no tendencia
Intercepto y tendencia en CE
No tendencia en el VAR
Permite tendencia determinística cuadrática en los datos
Intercepto y tendencia en CE
Tendencia lineal en el VAR
Resumen
Resumen de los 5 conjuntos de supuestos
24
Se aplicará en primer lugar la 6ª opción para tener una mayor certeza de cuál de
las otras opciones será la más adecuada. Para poder aplicar todas las opciones,
deberá especificar el número de rezagos del modelo (1 7) y deberá eliminar en la
ventanilla de las variables exógenas la variable dummy (d95). Arrojará el siguiente
resultado:
Date: 10/31/07 Time: 14:07
Sample: 1980:1 2005:4
Included observations: 96
Series: LCP LY LI
Lags interval: 1 to 7
Data Trend:
Rank or
No. of CEs
None
None
No Intercept Intercept
No Trend No Trend
Linear
Linear
Quadratic
Intercept
No Trend
Intercept
Trend
Intercept
Trend
Selected (5%
level) Number of
Cointegrating
Relations by Model
(columns)
Trace
Max-Eig
0
0
1
1
1
1
1
1
1
1
729.9371
737.4210
741.0211
741.9977
729.9371
743.5461
750.3993
751.7454
736.3287
749.8739
751.5546
751.7454
736.3287
751.1132
758.9394
760.4301
737.8342
752.2600
758.9807
760.4301
-13.89452
-13.92544
-13.87544
-13.77079
-13.89452
-14.03221
-14.02915
-13.91136
-13.96518
-14.12237
-14.03239
-13.91136
-13.96518
-14.12736
-14.14457*
-14.02979
-13.93405
-14.10958
-14.12460
-14.02979
0
-12.21167*
-12.20219
-12.20219
-12.09092
1
2
3
-12.08231
-11.87204
-11.60712
12.21167*
-12.16237
-11.97233
-11.66756
-12.19911
-11.94885
-11.66756
-12.17738
-12.00761
-11.70585
-12.10619
-11.96093
-11.70585
Log Likelihood by
Rank (rows) and
Model (columns)
0
1
2
3
Akaike Information
Criteria by Rank
(rows) and Model
(columns)
0
1
2
3
Schwarz Criteria
by Rank (rows) and
Model (columns)
25
Esta opción me permite observar, de manera general si alguna de las opciones
anteriores presenta vectores de cointegración al 5%. En esta tabla se puede ver
claramente que si existen vectores de cointegración en alguna de las opciones.
Para facilitar la búsqueda del modelo, se recomienda realizar la prueba de
cointegración con varios rezagos, comenzando con un rezago y utilizando la 6ª
opción.
1 rezago
Data Trend:
None
Rank or No Intercept
No. of CEs No Trend
None
Linear
Linear
Quadratic
Intercept
No Trend
Intercept
No Trend
Intercept
Trend
Intercept
Trend
Selected (5% level) Number of Cointegrating Relations by Model (columns)
Trace
Max-Eig
3
3
2
2
2
2
2
2
3
3
2 rezagos
Data Trend:
None
None
Linear
Linear
Quadratic
Intercept
No Trend
Intercept
No Trend
Intercept
Trend
Intercept
Trend
Rank or No Intercept
No. of CEs No Trend
Selected (5% level) Number of Cointegrating Relations by Model (columns)
Trace
Max-Eig
1
1
1
1
0
0
0
0
0
0
3 rezagos
Data Trend:
None
None
Linear
Linear
Quadratic
Intercept
No Trend
Intercept
No Trend
Intercept
Trend
Intercept
Trend
Rank or No Intercept
No. of CEs No Trend
Selected (5% level) Number of Cointegrating Relations by Model (columns)
Trace
Max-Eig
1
1
1
1
1
1
1
1
1
1
4 rezagos
Data Trend:
None
None
Linear
Linear
Quadratic
Intercept
No Trend
Intercept
No Trend
Intercept
Trend
Intercept
Trend
Rank or No Intercept
No. of CEs No Trend
Selected (5% level) Number of Cointegrating Relations by Model (columns)
Trace
Max-Eig
1
1
1
1
1
1
1
1
1
1
26
5 rezagos
Data Trend:
None
Rank or No Intercept
No. of CEs No Trend
None
Linear
Linear
Quadratic
Intercept
No Trend
Intercept
No Trend
Intercept
Trend
Intercept
Trend
Selected (5% level) Number of Cointegrating Relations by Model (columns)
Trace
Max-Eig
1
0
1
1
0
1
1
1
1
1
6 rezagos
Data Trend:
None
None
Linear
Linear
Quadratic
Intercept
No Trend
Intercept
No Trend
Intercept
Trend
Intercept
Trend
Rank or No Intercept
No. of CEs No Trend
Selected (5% level) Number of Cointegrating Relations by Model (columns)
Trace
Max-Eig
1
0
1
0
0
0
0
1
1
1
7 rezagos
Data Trend:
None
None
Linear
Linear
Quadratic
Intercept
No Trend
Intercept
No Trend
Intercept
Trend
Intercept
Trend
Rank or No Intercept
No. of CEs No Trend
Selected (5% level) Number of Cointegrating Relations by Model (columns)
Trace
Max-Eig
0
0
1
1
1
1
1
1
1
1
Concluimos a través de las tablas presentadas el modelo presenta cointegración
según las pruebas.
Para el modelo con 7 rezagos tenemos que pasa las pruebas de normalidad,
autocorrelación y heteroscedasticidad sin problemas (al 5%). Por tanto, es un
modelo que, de antemano, sabemos que pasa la prueba de cointegración:
2ª OPCIÓN
Date: 10/17/07 Time: 12:14
Sample(adjusted): 1982:1 2005:4
Included observations: 96 after adjusting endpoints
Trend assumption: No deterministic trend (restricted constant)
Series: LCP LY LI
Lags interval (in first differences): 1 to 7
Unrestricted Cointegration Rank Test
27
Hypothesized
No. of CE(s)
Eigenvalue
Trace
Statistic
5 Percent
Critical Value
1 Percent
Critical Value
None **
At most 1
At most 2
0.246874
0.133050
0.027654
43.61664
16.39852
2.692230
34.91
19.96
9.24
41.07
24.60
12.97
*(**) denotes rejection of the hypothesis at the 5%(1%) level
Trace test indicates 1 cointegrating equation(s) at both 5% and 1% levels
Hypothesized
No. of CE(s)
Eigenvalue
Max-Eigen
Statistic
5 Percent
Critical Value
1 Percent
Critical Value
None **
At most 1
At most 2
0.246874
0.133050
0.027654
27.21812
13.70629
2.692230
22.00
15.67
9.24
26.81
20.20
12.97
*(**) denotes rejection of the hypothesis at the 5%(1%) level
Max-eigenvalue test indicates 1 cointegrating equation(s) at both 5% and 1% levels
Unrestricted Cointegrating Coefficients (normalized by b'*S11*b=i):
LCP
-5.063460
-9.019501
48.59542
LY
-16.33484
11.23929
-46.42103
LI
15.50699
-0.362138
-3.839081
C
149.9910
-40.76894
45.72390
Unrestricted Adjustment Coefficients (alpha):
D(LCP)
D(LY)
D(LI)
-0.001378
-0.000465
-0.018747
1 Cointegrating Equation(s):
0.004576
0.005686
0.012005
-0.002258
-9.62E-05
-0.001492
Log likelihood
743.5461
Normalized cointegrating coefficients (std.err. in parentheses)
LCP
LY
LI
C
1.000000
3.226024
-3.062529
-29.62224
(0.85627)
(0.61531)
(7.36743)
Adjustment coefficients (std.err. in parentheses)
D(LCP)
0.006979
(0.01097)
D(LY)
0.002356
(0.00919)
D(LI)
0.094923
(0.02783)
28
2 Cointegrating Equation(s):
Log likelihood
750.3993
Normalized cointegrating coefficients (std.err. in parentheses)
LCP
LY
LI
C
1.000000
0.000000
-0.824376
-4.993289
(0.11083)
(2.11520)
0.000000
1.000000
-0.693780
-7.634461
(0.04900)
(0.93524)
Adjustment coefficients (std.err. in parentheses)
D(LCP)
-0.034293
0.073946
(0.02173)
(0.04166)
D(LY)
-0.048929
0.071505
(0.01749)
(0.03353)
D(LI)
-0.013352
0.441146
(0.05499)
(0.10542)
Podemos observar a través del cuadro que existe un vector de cointegración al
5%. Sin embargo, aún falta comprobar que los signos de dicho vector son los que
esperamos según la teoría.
En el mismo reporte, debajo de la información obtenida, tenemos a los
coeficientes normalizados de cointegración, los cuáles nos darán los valores del
vector de cointegración, que es información de largo plazo:
LCP
1.000000
LY
3.226024
LI
-3.062529
C
-29.62224
Tenemos que esto está realmente expresado de la siguiente manera:
LCP + 3.226024 * LY – 3.062529 * LI - 29.62224 = 0
Lo cual, después de despejar, obtenemos los verdaderos signos:
LCP = - 3.226024 * LY + 3.062529 * LI + 29.62224
29
Los signos del vector son los esperados según la teoría. El ingreso y la inflación
tienen un impacto positivo sobre el consumo. Sin embargo, la variable que tiene
una mayor influencia sobre el consumo es el ingreso
Encontramos que entre las variables existe una relación de largo plazo esperada.
Es decir, el comportamiento de las variables es similar a lo largo del tiempo.
7. APLICACIÓN DEL MODELO CORRECTOR DE ERRORES (MCE).
A continuación, representaremos el modelo corrector de errores. Para ello se
requiere que las variables sean estacionarias. Como las variables utilizadas son
de orden de integración 1, para que sean estacionarias, es necesario aplicarles
primeras diferencias.
Para aplicarles las primeras diferencias a las variables, tenemos que aplicar la
siguiente orden en la ventana de comandos:
Genr dlcp = d(lcp)
Genr dly = d(ly)
Genr dli = d(li)
Estas nuevas variables aparecerán en el workfile.
30
Con estas variables generaremos un nuevo modelo lineal simple, el número de
rezagos para este modelo no depende del modelo VAR hecho con anterioridad. Es
decir, este es un modelo independiente. Para este modelo podríamos utilizar
nuevos componentes (variables dummy, tendencia, componentes estacionales,
etc.).
Por tanto, este modelo lo especificaré con cinco rezagos. Para el mecanismo
corrector de errores (MCE) es necesario introducir el vector de cointegración
obtenido con un rezago.
Para poder introducir el vector en el modelo es necesario crear una variable que
llamaré V, la cual contendrá al vector. La variable se genera de la siguiente
manera. En la barra de comandos escribiremos:
Genr v = lcp + 3.226024 * ly – 3.062529 * li – 29.62224
Una vez generado el vector, lo introducimos en el modelo especificado. Quedaría
de la siguiente manera:
ls dlcp dlcp(-1) dlcp(-2) dlcp(-3) dlcp(-4) dlcp(-5) dly dly(-1) dly(-2) dly(-3) dly(-4)
dly(-5) dli dli(-1) dli(-2) dli(-3) dli(-4) dli(-5) v(-1)
Dependent Variable: DLCP
Method: Least Squares
Date: 10/17/07 Time: 12:38
Sample(adjusted): 1981:3 2005:4
Included observations: 98 after adjusting endpoints
Variable
Coefficient
Std. Error
t-Statistic
Prob.
DLCP(-1)
DLCP(-2)
DLCP(-3)
DLCP(-4)
DLCP(-5)
DLY
DLY(-1)
DLY(-2)
DLY(-3)
DLY(-4)
DLY(-5)
-0.418351
-0.327113
-0.307174
0.403014
0.177017
0.531774
0.266008
0.472324
0.142382
-0.402696
-0.074312
0.107256
0.102699
0.105298
0.101552
0.102004
0.129887
0.155281
0.146207
0.156472
0.155769
0.148545
-3.900497
-3.185166
-2.917189
3.968563
1.735388
4.094142
1.713073
3.230511
0.909949
-2.585210
-0.500270
0.0002
0.0021
0.0046
0.0002
0.0865
0.0001
0.0906
0.0018
0.3656
0.0115
0.6183
31
DLI
DLI(-1)
DLI(-2)
DLI(-3)
DLI(-4)
DLI(-5)
V(-1)
0.143116
0.084400
-0.009241
-0.013337
0.028842
0.002144
-0.009420
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
0.928096
0.912816
0.013909
0.015477
289.8591
0.039622
0.042479
0.038783
0.040119
0.039707
0.040868
0.006380
3.612009
1.986850
-0.238287
-0.332425
0.726360
0.052456
-1.476545
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
Durbin-Watson stat
0.0005
0.0504
0.8123
0.7404
0.4697
0.9583
0.1437
0.006631
0.047106
-5.548145
-5.073355
2.028913
8. MODELO GENERAL A LO ESPECÍFICO
Lo que esperamos de este modelo es que el mecanismo corrector de errores,
implica que nuestra variable v (la que incluye el vector) sea significativa (su
probabilidad sea menor a 0.05) y el valor de su coeficiente sea negativo y menor
que la unidad.
El proceso es ir eliminando de la variable menos significativa a la más significativa
hasta que se cumpla lo anterior, excepto el vector (v(-1)). También el modelo debe
de
aprobar
las
pruebas
de
diagnóstico
(normalidad,
autocorrelación
y
heteroscedasticidad).
Para este caso la variable menos significativa es la que se encuentra en color
verde agua (ecuación anterior). La variable, entonces, a eliminar sería el quinto
rezago de dly. Entonces el modelo quedaría ahora:
Ls dlcp dlcp(-1) dlcp(-2) dlcp(-3) dlcp(-4) dlcp(-5) dly dly(-1) dly(-2) dly(-3) dly(-4)
dp dp(-1) dp(-2) dp(-3) dp(-4) dp(-5) vc(-1)
Dependent Variable: DLCP
Method: Least Squares
Date: 10/18/07 Time: 08:39
Sample(adjusted): 1981:3 2005:4
Included observations: 98 after adjusting endpoints
Variable
Coefficient
Std. Error
t-Statistic
Prob.
32
DLCP(-1)
DLCP(-2)
DLCP(-3)
DLCP(-4)
DLCP(-5)
DLY
DLY(-1)
DLY(-2)
DLY(-3)
DLY(-4)
DLI
DLI(-1)
DLI(-2)
DLI(-3)
DLI(-4)
DLI(-5)
V(-1)
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
-0.404979
-0.335696
-0.325606
0.398512
0.151918
0.522643
0.229759
0.493993
0.170196
-0.369915
0.143108
0.089451
-0.009597
-0.016571
0.027037
-0.009272
-0.008503
0.927871
0.913623
0.013845
0.015525
289.7061
0.103390
0.100786
0.098184
0.100683
0.088401
0.128001
0.136702
0.138996
0.145583
0.140661
0.039438
0.041071
0.038596
0.039412
0.039360
0.033746
0.006083
-3.917008
-3.330785
-3.316295
3.958091
1.718506
4.083110
1.680732
3.554011
1.169069
-2.629839
3.628650
2.177944
-0.248647
-0.420453
0.686931
-0.274775
-1.397978
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
Durbin-Watson stat
0.0002
0.0013
0.0014
0.0002
0.0895
0.0001
0.0967
0.0006
0.2458
0.0102
0.0005
0.0323
0.8043
0.6753
0.4941
0.7842
0.1659
0.006631
0.047106
-5.565430
-5.117017
2.046872
Como podemos observar, la variable v(-1) sigue siendo no significativa y su
coeficiente mayor a cero. Por lo tanto, se tienen que eliminar las variables que no
sean significativas en el sistema. Continuamos este proceso hasta que todas las
variables sean significativas (o por lo menos la mayoría) asimismo el coeficiente
v(-1) sea mayor a -1 y menor a 0.
Dependent Variable: DLCP
Method: Least Squares
Date: 10/18/07 Time: 09:12
Sample(adjusted): 1981:2 2005:4
Included observations: 99 after adjusting endpoints
Variable
Coefficient
Std. Error
t-Statistic
Prob.
DLCP(-1)
DLCP(-2)
DLCP(-3)
DLCP(-4)
DLY
DLY(-2)
DLY(-4)
DLI
DLI(-1)
V(-1)
-0.181062
-0.296968
-0.218691
0.440933
0.384175
0.315330
-0.356188
0.172673
0.081590
-0.012431
0.061532
0.075378
0.056934
0.080926
0.104040
0.075570
0.105520
0.035133
0.030928
0.004356
-2.942559
-3.939736
-3.841135
5.448565
3.692555
4.172689
-3.375536
4.914856
2.638041
-2.854026
0.0041
0.0002
0.0002
0.0000
0.0004
0.0001
0.0011
0.0000
0.0098
0.0054
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
0.918591
0.910358
0.014097
0.017687
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
0.007087
0.047084
-5.590163
-5.328030
33
Log likelihood
286.7131
Durbin-Watson stat
2.379287
La continuación del proceso condujo a este último modelo, el cuál presenta
únicamente que la variable v(-1) es significativa al 5%, puesto que es menor a
0.05 (es más, se aproxima demasiado a ser menor a 0.05), asimismo las demás
variables son significativas. Este cuadro si se tendrá que reportar, ya que expresa
que existe cointegración en nuestras variables. A continuación aplicaremos las
pruebas de diagnóstico al modelo:
Normalidad:
12
Series: Residuals
Sample 1981:2 2005:4
Observations 99
10
Mean
Median
Maximum
Minimum
Std. Dev.
Skewness
Kurtosis
8
6
4
2
Jarque-Bera
Probability
0
-0.025
0.000
0.000777
-0.000276
0.032655
-0.037202
0.013411
0.135535
2.901165
0.343394
0.842234
0.025
Autocorrelación:
Breusch-Godfrey Serial Correlation LM Test:
F-statistic
3.329461
Probability
0.040430
Obs*R-squared
6.726898
Probability
0.034616
Heteroscedasticidad:
White Heteroskedasticity Test:
F-statistic
0.902921
Probability
0.584415
Obs*R-squared
18.61143
Probability
0.547197
Como podemos observar en las pruebas, la prueba de normalidad pasa sin
problemas al 5%, la prueba de heteroscedasticidad también pasa sin problemas.
34
En el caso de la prueba de autocorrelación, la prueba pasa también aunque no tan
holgadamente como en los otros dos casos. Para esta prueba la probabilidad es
mayor a 0.01 y es aceptable el resultado.
Podemos concluir que lo que tenemos aquí es un buen modelo que va acorde a la
teoría y entrega buenos resultados.
Por ultimo, quiero hacer una síntesis de lo que tiene que estar reportado en el
trabajo dentro del contexto técnico:
1. Las variables a utilizar en el modelo, su periodicidad, su interpretación y su
gráfico correspondiente, así como un pequeño análisis del comportamiento
dinámico de la variable. También debemos incluir las variable dummy
creadas.
2. Las pruebas de raíces unitarias: Dickey-Fuller aumentada y Phillips-Perron
(en dado caso de una contradicción entre las pruebas se utilizará la prueba
KPSS). Los resultados obtenidos a través de las pruebas se reportará en un
cuadro que sintetice la información (como ya lo he indicado anteriormente)
para cada prueba y cada una de las variables:
Dfuller
Variable
lcp
ly
li
Modelo
Constante
CyT
None
Constante
CyT
None
Constante
CyT
t-Statistic
5% Prob
35
None
3. Los criterios para el número de rezagos óptimo:
VAR Lag Order Selection Criteria
Endogenous variables: LCP LY LI
Exogenous variables: C
Date: 10/16/07 Time: 10:52
Sample: 1980:1 2005:4
Included observations: 96
Lag
LogL
LR
FPE
AIC
SC
HQ
0
1
2
3
4
5
6
7
8
300.3780
521.4061
615.7767
660.6556
722.9871
734.7455
739.0205
741.3733
751.7454
NA
423.6373
174.9787
80.40820
107.7815
19.59724*
6.857772
3.627264
15.34208
4.09E-07
4.94E-09
8.35E-10
3.96E-10
1.31E-10
1.24E-10*
1.38E-10
1.59E-10
1.57E-10
-6.195374
-10.61263
-12.39118
-13.13866
-14.24973
-14.30720*
-14.20876
-14.07028
-14.09886
-6.115239
-10.29208
-11.83023
-12.33730
-13.20797*
-13.02502
-12.68618
-12.30729
-12.09547
-6.162982
-10.48306
-12.16443
-12.81474
-13.82863*
-13.78892
-13.59331
-13.35765
-13.28906
* indicates lag order selected by the criterion
LR: sequential modified LR test statistic (each test at 5% level)
FPE: Final prediction error
AIC: Akaike information criterion
SC: Schwarz information criterion
HQ: Hannan-Quinn information criterion
VAR Lag Order Selection Criteria
Endogenous variables: LCP LY P
Exogenous variables: C
Sample: 1980Q1 2005Q4
Included observations: 96
Lag
LogL
LR
FPE
AIC
SC
HQ
0
1
2
3
4
5
6
7
8
21.21740
225.1515
288.7351
338.2330
383.5469
399.2383
407.1158
413.9813
423.3963
NA
390.8738
117.8944
88.68388
78.35516
26.15235*
12.63694
10.58426
13.92642
0.000137
2.37e-06
7.59e-07
3.27e-07
1.54e-07
1.35e-07*
1.39e-07
1.46e-07
1.47e-07
-0.379529
-4.440657
-5.577814
-6.421521
-7.178059
-7.317464*
-7.294080
-7.249610
-7.258257
-0.299393
-4.120113
-5.016862
-5.620163
-6.136293*
-6.035290
-5.771498
-5.486621
-5.254860
-0.347137
-4.311088
-5.351068
-6.097599
-6.756960
-6.799188*
-6.678628
-6.536981
-6.448451
4. El modelo VAR final, es decir, el modelo con el cual nos quedamos al final.
En este punto colocaremos también los gráficos de los errores que justifican
36
la introducción de las variables dummy utilizadas en el modelo, así como la
justificación teórica-histórica.
5. Las pruebas de diagnóstico o de los residuales en un cuadro resumen para
el modelo VAR final.
6. La prueba de cointegración de Johansen. Se presentara la séptima opción
que elegimos.
Data Trend:
None
Rank or No Intercept
No. of CEs No Trend
None
Linear
Linear
Quadratic
Intercept
No Trend
Intercept
No Trend
Intercept
Trend
Intercept
Trend
Selected (5% level) Number of Cointegrating Relations by Model (columns)
Trace
Max-Eig
0
0
1
1
1
1
1
1
1
1
Date: 10/17/07 Time: 12:14
Sample(adjusted): 1982:1 2005:4
Included observations: 96 after adjusting endpoints
Trend assumption: No deterministic trend (restricted constant)
Series: LCP LY LI
Lags interval (in first differences): 1 to 7
Unrestricted Cointegration Rank Test
Hypothesized
No. of CE(s) Eigenvalue
None **
At most 1
At most 2
0.246874
0.133050
0.027654
Trace
Statistic
43.61664
16.39852
2.692230
5 Percent
1 Percent
Critical Value Critical Value
34.91
19.96
9.24
41.07
24.60
12.97
*(**) denotes rejection of the hypothesis at the 5%(1%) level
Trace test indicates 1 cointegrating equation(s) at both 5% and 1% levels
Hypothesized
No. of CE(s) Eigenvalue
Max-Eigen
Statistic
5 Percent
1 Percent
Critical Value Critical Value
None **
0.246874
27.21812
22.00
26.81
At most 1
0.133050
13.70629
15.67
20.20
At most 2
0.027654
2.692230
9.24
12.97
*(**) denotes rejection of the hypothesis at the 5%(1%) level
37
Max-eigenvalue test indicates 1 cointegrating equation(s) at both 5% and 1% levels
7. El vector normalizado que arroja la prueba de cointegración
LCP
LY
LI
C
1.000000
3.226024
-3.062529
-29.62224
(0.85627)
(0.61531)
(7.36743)
LCP = - 3.226024 * LY + 3.062529 * LI + 29.62224
9. El modelo corrector de errores final
Dependent Variable: DLCP
Method: Least Squares
Date: 10/18/07 Time: 09:12
Sample(adjusted): 1981:2 2005:4
Included observations: 99 after adjusting endpoints
Variable
Coefficient
Std. Error
t-Statistic
Prob.
DLCP(-1)
DLCP(-2)
DLCP(-3)
DLCP(-4)
DLY
DLY(-2)
DLY(-4)
DLI
DLI(-1)
V(-1)
-0.181062
-0.296968
-0.218691
0.440933
0.384175
0.315330
-0.356188
0.172673
0.081590
-0.012431
0.061532
0.075378
0.056934
0.080926
0.104040
0.075570
0.105520
0.035133
0.030928
0.004356
-2.942559
-3.939736
-3.841135
5.448565
3.692555
4.172689
-3.375536
4.914856
2.638041
-2.854026
0.0041
0.0002
0.0002
0.0000
0.0004
0.0001
0.0011
0.0000
0.0098
0.0054
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
0.918591
0.910358
0.014097
0.017687
286.7131
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
Durbin-Watson stat
0.007087
0.047084
-5.590163
-5.328030
2.379287
Las pruebas de diagnostico realizadas al modelo corrector
PRUEBA
SUPUESTO
ESTADISTICO PROBABILIDAD
JARQUE-BERA NORMALIDAD
0.343394
0.842234
LM TEST
NO AUTOCORRELACIÓN
3.329461
0.040430
HOMOSCEDASTICIDAD
0.902921
0.584415
WHITE (NCT)
38
NOTA: Se deben incluir el sistema de ecuaciones del modelo VAR y el modelo
corrector en su forma de ecuaciones. El reporte final puede estar incluido dentro
del trabajo conforme el análisis va desarrollándose o en un apéndice al final del
trabajo, sin embargo en la segunda opción el análisis deberá estar incluido en el
desarrollo del trabajo y no al final junto con el apéndice, además deberán
señalarse en el desarrollo del trabajo a manera de nota la referencia a cada
cuadro o gráfico del apéndice.
Bibliografía:
•
Maddala G.S., “Econometría”, Ed. McGraw Hill, ed.1985, pp.271
•
Engel R.F y Granger , CWJ “Co-integration and error correction:
representation, estimation and testing” , Ed.
ed. 1987, pp. 251-276
39
Descargar