Cointegracion

Anuncio
Cointegración - Pág. 1
COINTEGRACION
INDICE
1.
INTRODUCCIÓN .............................................. 2
1.1. SERIES NO ESTACIONARIAS .................................. 2
1.2. RELACIÓN DE EQUILIBRIO A LARGO PLAZO ..................... 3
1.3. EJEMPLO HAMILTON (Cáp. 19) .............................. 4
2. PROPIEDADES PROCESOS INTEGRADOS ............................. 5
2.1. DEFINICIONES ............................................. 5
2.2. EJEMPLO BANARJEE ET AL ................................... 7
3. COINTEGRACIÓN ............................................... 8
3.1. DEFINICIÓN GENERAL ....................................... 8
3.2. PROPIEDADES .............................................. 9
4. REPRESENTACIÓN DE UN VECTOR COINTEGRADO .................... 11
5. TEOREMA DE REPRSENTACIÓN DE GRANGER .................15
5.1. TEOREMA ..................................................15
5.2. EJEMPLO BANARJEE ET AL ....................................16
6. PRUEBA CON ECUACIÓN ÚNICA ............................23
6.1. PRUEBAS DE COINTEGRACIÓN .................................23
6.2.
CO-INTEGRATION REGRESSION DURBIN-WATSON (CRDW ..........24
Cointegración - Pág. 2
1. INTRODUCCIÓN
1.1. SERIES NO ESTACIONARIAS
-
Para series ESTACIONARIAS los métodos derivados de la
ECONOMETRÍA TRADICIONAL son bien conocidos.
-
Dos tipos de series NO ESTACIONARIAS:
* series con tendencia creciente; ej.: PBI, M.
* series “deambulatorias” alrededor del valor medio
(tienden a permanecer largos períodos por debajo o
encima del valor central de la serie); ej.: tasas
de interés, inflación (variación de los precios).
-
Las series NO ESTACIONARIAS pueden ser modelizadas en
forma univariante. La pregunta es cómo construir
modelos “estructurales” con series no estacionarias.
-
Las opciones de modelización que se planteaban a
principios de los 70s con series no estacionarias
eran:
o Especificar y estimar modelos con las series en
NIVELES
pero
con
las
series
en
DIFERENCIAS
o Ídem
(suponiendo que las series en niveles son I(1)).
Cointegración - Pág. 3
1.2. RELACIÓN DE EQUILIBRIO A LARGO PLAZO
-
Si bien las series individuales pueden presentar un
comportamiento de tendencia o deambulatorio, se ha
observado recurrentemente que entre algunas series
existe una relación de equilibrio a largo plazo que
“ata” la evolución de las variables individuales.
-
El ejemplo clásico es la relación entre el ingreso y el
consumo privado agregado. Ambas variables son no
estacionarias. Un trabajo de 1978 sobre datos de EEUU
observó que, si bien las series son I(1), tienen una
raíz unitaria, en el largo plazo el consumo tiende a
comportarse como una proporción constante del ingreso,
de manera que las diferencias entre el logaritmo del
consumo y el logaritmo del ingreso parece ser una
variable estacionaria.
-
Otro ejemplo donde recurrentemente se ha encontrado una
relación de equilibrio en el largo plazo corresponde a
la teoría de la paridad de poderes de compra.
-
En
el
otro
extremo,
también
se
ha
observado
recurrentemente la modelización de series que no
presentan una relación de equilibrio, pero que debido a
que las series poseen una o más raíces unitarias,
se
2
observan “buenos” ajustes (medidos por el R o similar)
cuando se estima un modelo de regresión EN NIVELES.
Este fenómeno, bien conocido actualmente, se denomina
REGRESIÓN ESPURIA.
-
Se observa, por ejemplo, cuando se realizan regresiones
entre variables a precios corrientes, en contextos de
inflación moderada o alta. Ejemplo: Regresión entre el
PBI a precios corrientes y el monto del primer premio
de la Lotería Nacional.
Cointegración - Pág. 4
1.3. EJEMPLO HAMILTON (Cáp. 19)
[1]
[2]
donde
u1t
y
u2t
x1t = γ x 2t + u1t
x 2t = x 2t −1 + u 2t
son
ruidos
blancos
incorrelacionados.
La
x2t es una caminata al azar, como
surge de la ecuación [2], mientras que diferenciando [1] se
observa:
representación univariante de
∆ x1t = γ ∆x 2t + ∆u1t =
= γ u 2t + u1t − u1t −1
∆x1t,
al ser la combinación de dos ruidos blancos
incorrelacionados, puede expresarse en general como un proceso MA
invertible:
∆ x1t = vt + θvt −1
Por lo tanto, tanto
x1t
como
con θ ≠ 1
x2t
son procesos I(1) aunque
x
- γ x
existe una combinación lineal de ambos (
1t
2t ) que es
estacionaria. Obsérvese que las conclusiones hubieran sido las mismas
si el modelo hubiera sido:
x1t = µ1 + γ x 2t + u1t
x 2t = µ 2 + x 2t −1 + u 2t
Es decir, si las series correspondieran a una caminata
al azar con deriva y, por lo tanto, tendencia en el tiempo.
Cointegración - Pág. 5
2. PROPIEDADES PROCESOS INTEGRADOS
2.1. DEFINICIONES
Algunas simples reglas relativas a variables integradas:
a) si xt ~ I(0) ⇒ a + b xt ~ I(0)
si xt ~ I(1) ⇒ a + b xt ~ I(1)
En general:
si xt ~ I(d) ⇒ a + b xt ~ I(d )
b) si xt , yt son ambas I(0)
⇒ a xt + b yt ~ I(0)
c) si x t ~ I(0) , y t
I(1)
⇒ a x t + b y t ~ I(1)
Es decir, la conducta dominante es la correspondiente a
I(1).
En general:
si xt ~ I(d) , yt
I(d ′)
⇒ a xt + b yt ~ I(d) si d > d ′
Cointegración - Pág. 6
d) Es generalmente cierto que si
xt ~ I(1) , yt ~ I(1)
a xt + b yt ~ I(1)
• Existen casos en que la regla (d) no se cumple, y que dan
lugar a la siguiente definición:
Si xt y yt son I(1) y existe una combinación lineal zt que
es I(0) y tiene media nula, entonces se dice que xt y yt
están cointegradas.
Si xt y yt son I (1), y existe
z t = m + a x t + b y t es I( 0 ) ⇒
xt y yt están cointegradas
Cointegración - Pág. 7
2.2. EJEMPLO BANARJEE ET AL
(1) x1t + βx 2t = u t
( 2) x1t + αx 2t = et
(3) u t − u t −1 = ε1t
[2.1]
( 4) e t − ρet −1 = ε 2t
 ε 1t 
  ~ N (ϑ , Ω)
 ε 1t 
Es claro que et es estacionario, I(0), mientras que
una caminata al azar, I(1).
El modelo en la forma reducida, suponiendo
xit =
x2 t =
−α
β
ut +
et
β −α
β −α
α ≠ β,
ut
es
es:
[2.2]
1
−1
ut +
et
β −α
β −α
Dado que x1t y x2t se derivan de una CL de una serie I(0) y
una serie I(1), ambas son I(1). Pero existe una CL que da
como resultado una serie I(0), la segunda ecuación del
modelo. Por lo tanto están cointegradas.
El vector [1 α] se denomina vector de cointegración y
+α x2t
plazo.
x1t
corresponde a la relación de equilibrio a largo
Cointegración - Pág. 8
3. COINTEGRACIÓN
3.1. DEFINICIÓN GENERAL
Sea xt un vector de
ellas I(d).
n
variables
xit,
cada una de
xt = ( x1t x2t ... xnt )'
xit ~ I (d ) ⇒ xt ~ I (d )
Si el vector xt no tiene componentes determinísticos
y, por simplicidad, se supone de media nula, puede
plantearse como:
(1 − L) d xt = C ( L)ε t
donde ε t ~ iid (ϑ , Ω)
Las variables xit, y por extensión el vector
dice que están cointegradas de orden d,b si:
xt ,
∃α ≠ ϑ / α xt ~ I (d − b) con d ≥ b > 0
Ello se nota como:
xt ~ CI (d , b)
El vector
α
se denomina vector de cointegración.
se
Cointegración - Pág. 9
3.2. PROPIEDADES
Si el vector
xt
está cointegrado, es claro que existen
infinitos vectores de cointegración. Dado
cointegración,
cointegración.
λα (λ≠0)
es
también
α
un vector de
un
vector
de
De ahí que es práctica común el normalizar el vector de
α1=1).
cointegración (por ejemplo, determinando
Si estamos considerando sólo 2 variables, ambas I(1), si
están cointegradas, en ese caso el vector de cointegración
(una vez normalizado) es único.
PRUEBA:
Volviendo al ejemplo de Banarjee et al:
β
−α
ut +
et
β −α
β −α
−1
1
=
ut +
et
β −α
β −α
xit =
x 2t
Si ut fuera
necesariamente
también I(0), y α
x1t y x2t serían I(0).
≠
β,
entonces
Si xt tiene n > 2, puede existir más de un vector de
cointegración
que
forman
un
conjunto
Linealmente
Independiente (LI).
Generalizando la primera propiedad observada, una CL de
vectores de cointegración LI es también un vector de
cointegración.
Para un vector xt con n componentes, cointegrado, al número
máximo de vectores de cointegración LI se denomina RANGO DE
COINTEGRACIÓN, y se nota como r.
Cointegración - Pág. 10
Se demuestra que
r ≤ n-1
Es posible definir una matriz α de n x r cuyas columnas
son vectores de cointegración que forman un conjunto LI. El
rango de la matriz es r.
Dado un vector xt con n componentes que es I(d), el
problema puede plantearse como:
a)
b)
Determinar si xt está cointegrado
En caso afirmativo, determinar r y los vectores
de cointegración.
Cointegración - Pág. 11
4.
REPRESENTACIÓN DE UN VECTOR COINTEGRADO
Sea xt un vector I(1) de n
simplificación, supondremos que
determinista.
variables
no posee
xit.
Como
tendencia
Admitiendo que el sistema puede ser escrito como un VAR:
xt = µ + φ1 xt −1 + φ2 xt − 2 + ... + φ p xt − p + ... + d(L)εt
(I n -φ1L − φ2 L2 − ... − φ p Lp − ...) xt = µ + d(L)ε t
π ( L) xt = µ + d(L)εt
donde φι son
polinomial.
matrices
de
nxn,
π(L)
es
una
matriz
En el caso de que el VAR sea de orden finito, d(L) será un
polinomio escalar. Sin pérdida de generalidad, el modelo
puede plantearse como:
xt = µ + φ1 xt −1 + φ2 xt − 2 + ... + φ p xt − p + εt
π ( L ) xt = µ + ε t
[4.1]
con π ( L) ≡ I n − φ1L − φ2 L2 − ... − φ p Lp
Cointegración - Pág. 12
Se demuestra que (en forma similar que para los polinomios
escalares):
p −1
[4.2]
π ( L) ≡ (1 − L) I n − (1 − L) ∑ Γ j L j − π Lp
j =1
donde: Γj =
1,2,...,p-1
y
- In + φ 1 + φ 2 + … + φ j
j
=
π = - π(1) = - I + φ1 + φ2 + … + φp
De esta manera, la expresión [4.2] puede rescribirse como:
p −1

j
p
π ( L) xt = (1 − L) I n − (1 − L) ∑ Γ j L − πL  xt =
j =1


p −1

j
p
= (1 − L) I n − ∑ Γ j L (1 − L) − πL  xt =
j =1


p −1
= (1 − L) xt − ∑ Γ j L j (1 − L)xt − πLp xt ⇒
j =1
p −1
π ( L ) x t = ∆x t − ∑ Γ j ∆ x t − j − π x t − p
j =1
Cointegración - Pág. 13
Combinando el resultado anterior con la expresión [4.1] se
tiene:
p −1
∆xt − ∑ Γ j ∆xt − j − πxt − p = µ + ε t ⇒
j =1
p −1
∆xt = µ + ∑ Γ j ∆xt − j + π xt − p + ε t
j =1
SUPUESTOS:
a) El polinomio característico
o mayores que 1.
π(z)
tiene raíces iguales
p −1
π ( z ) ≡ (1 − z ) I n − (1 − z ) ∑ Γ j z j − π z p
j =1
Es decir, si
b) La matriz
z
π
/
π(z)= 0 => |z|>1
tiene rango
o
z=1
r / 0 < r < n.
Este supuesto (2) es condición necesaria y suficiente
para que el vector xt esté cointegrado. Es decir,
xt ∼ CI(1,1)
c) Dado el rango de π, puede ser expresada como el
producto de dos matrices de n x r, cada una de rango
r. Es decir:
∃ αnxr, βnxr / π = β α’
Cointegración - Pág. 15
5.
TEOREMA DE REPRESENTACIÓN DE GRANGER
5.1. TEOREMA
El Teorema de Representación de Granger establece que
dado un vector
decir,
µ=ϑ,
xt, xt ∼ I(1),
con
E(xt)=ϑ
(es
supuesto que se adopta por simplicidad), si
xt
es CI(1,1) entonces:
1.
xt
admite
móviles:
la
representación
de
Wold
de
medias
(1 − L) xt = ∆xt = C ( L)( µ + ε t )
La matriz polinomial C(L) cumple que C(1) es de rango
n-r. Esta es también una condición necesaria y
suficiente para que
2.
xt ∼ CI(1,1).
Existe una representación a partir del Mecanismo de
Corrección de Errores (ECM) con:
zt = α’xt
donde
zt
es un
rx1
vector I(0), de la forma:
π * ( L)(1 − L) xt = − β z t −1 + ε t
π∗(0)=In , π∗(1) es de
π∗(z)= 0 tiene sus raíces fuera
donde
Debe observarse que las matrices
α
rango completo, y
del círculo unidad.
y
β no
son únicas.
Cointegración - Pág. 16
3.
Combinando 1 y 2, las matrices
α
y
C(1) cumplen:
α’C(1) = ϑ
5.2. EJEMPLO BANARJEE ET AL
Retomando el modelo presentado en [2.1], que se reproduce
a continuación:
(1) x1t + βx 2t = u t
( 2) x1t + αx 2t = et
(3) u t − u t −1 = ε 1t
( 4) e t − ρet −1 = ε 2t
 ε 1t 
  ~ N (ϑ , Ω)
 ε 1t 
Como se demostró en 2.2.,
[x1t, x2t]’= xt∼CI(1,1).
Los supuestos sobre los parámetros son: α≠β y ρ<1
Cointegración - Pág. 17
• El modelo admite una representación VAR:
π(L)xt = εt
donde
π(L)= In - φ1L
Ello se obtiene haciendo (1’)=(1)–L(1) y (2’)=(2)-ρL(2)
Es decir, se pasa al modelo:
(1' ) x1t − x1,t −1 + βx2t − βx2 ,t −1 = ε1t
( 2' ) x1t − ρx1,t −1 + αx2t − αρx2 ,t −1 = ε 2t
( 1 − L)x1t + (β − βL)x2t = ε1t
( 1 − ρL) x1t + (α − αρL)x2t = ε2t
β − βL 
 1-L
1 − ρL α − αρL


 x1t  ε 1t 
 x  = ε 
 2t   2t 
En la expresión anterior se obtiene un VAR que no está
normalizado. Es decir, no se cumple
π(L)= In - φ1L
Para ello, se define (1’’)=1/(α−β)*[α(1’)–β(2’)] y
(2’’)=1/(α-β)*[(2’)–(1’)].
Cointegración - Pág. 18
De esta forma, se obtiene:
βρ − α
αβρ − αβ
x1,t −1 +
x 2 ,t −1 = ε 3t
(1' ' ) x1t +
α−β
α−β
β − αρ
1− ρ
x1,t −1 +
x 2 ,t −1 = ε 4 t
( 2' ' ) x 2 t +
α−β
α−β
con ε3t=1/(α−β)*[α ε1t–β ε2t] y ε4t=1/(α-β)*[ ε2t–
ε1t].
De esta forma,
π(L)xt = εt
donde
π(L)= In - φ1L
αβρ − αβ 
 βρ − α
L
1 + α − β L
α−β
π ( L) = 
β − αρ 
1− ρ

1+
L
L
α − β 
 α − β
α − βρ
α−β
φ1 = 
ρ −1

 α − β
αβ − αβρ 
α−β 
αρ − β 

α − β 
La matriz polinomial
(0<r<2).
π(L)cumple r(π(1))=1
Cointegración - Pág. 19
 βρ − α αβρ − αβ 
1 + α − β
α−β 
π (1) = 
=
β − αρ 
1− ρ


1+
α − β 
 α − β
 βρ − β αβρ − αβ 
α−β
α − β  1 − ρ − β
=
=
α − αρ  α − β  1
1− ρ


α − β 
 α − β
Es claro que
y que
− αβ 
α 
π(1)=kte*[(-β)α-1(-αβ)]=0
r(π(1))=1>0
π = -π(1)
Para el ejemplo que se está desarrollando, n=2 y p=1. Por
tanto, la expresión [4.2] es, en este caso:
π ( L) ≡ (1 − L) I 2 − π L
Cointegración - Pág. 20
En efecto:


βρ − α 
αβρ − αβ

1
1
L
L
L
−
+
+




−β
−
α
β
α


=
π ( L) = 
1− ρ
β − αρ  


1 − L + 1 +
L
 L

α−β
α−β  


0 
1 − L
1  βρ − β αβρ − αβ 
=
+
L=



1 − L α − β  1 − ρ
α − αρ 
 0
0  1 − ρ  − β − αβ 
1 − L
=
L=
+



1 − L α − β  1
α 
 0
= (1 − L ) I 2 + π (1) L = (1 − L ) I 2 − ( −π (1)) L = (1 − L ) I 2 − π L
• El modelo admite una representación ECM:
El modelo es:
π(L)xt = εt
A partir del último resultado:
π(L)xt = [(1-L)I2-πL]xt = (1-L)xt-πLxt =
= ∆xt-πxt-1 => ∆xt-πxt-1 = εt =>
∆xt = πxt-1 + εt
La matriz
π,
de 2x2, admite una representación como
Recordemos que la representación no es única.
βα’
Cointegración - Pág. 21
El vector de cointegración elegido es el correspondiente
a la ecuación (2) del modelo:
x1t + αx2t = zt (=et) ∼ I(0)
=>
α’ = [1 α]
Se indica con negrita la matriz (vector) para evitar
confusiones.
 − β − αβ   1 − ρ
= −
 1

α   α−β

 (1 − ρ ) β 
 α−β 
con β = 
1− ρ 

−
 α − β 
1− ρ
π =−
α−β
− β  
 1  [1 α ]


Es decir, el modelo formado por las ecuaciones (1) y (2)
(o sus transformaciones (1’) y (2’)) puede ser reescrito
como:
(1 − ρ ) β
( x1,t −1 + αx2 ,t −1 ) + ε3t
∆x1t =
α−β
1− ρ
( x1,t −1 + αx2 ,t −1 ) + ε4t
∆x 2 t = −
α−β
Cointegración - Pág. 22
• El modelo admite una representación como MA:
A partir de la expresión [2.2] del modelo (forma
reducida):
β
−α
ut +
e
β −α
β −α t
1
−1
x2t =
ut +
e
β −α
β −α t
xit =
Aplicando diferencias a ambas ecuaciones:
−α
β
∆ut +
∆e
β −α
β −α t
1
−1
∆x2t =
∆ut +
∆e
β −α
β −α t
∆xit =
Sustituyendo
et
por
(1-ρL)ε2t
y
∆ut
por
ε1t
se tiene:
−α
β
ε1t +
(1 − L)(1 − ρL)ε 2t
β −α
β −α
−1
1
∆x 2 t =
ε1t +
(1 − L)(1 − ρL)ε 2t
β −α
β −α
∆xit =
De donde:
 −α
β −α
∆xt = C ( L)ε t = 
1

 β − α
β (1 − L)(1 − ρL) 
 ε1t 
β −α
− (1 − L)(1 − ρL)  ε 2t 

β −α

C(L) cumple que r(C(1)) = 1 y
α’C(1) = ϑ
Cointegración - Pág. 23
6. PRUEBA CON ECUACION UNICA
-
Consideremos xt = (x1t , x2t)’. En el caso de que xt es I(1) y
xt ~ CI(1,1), entonces existe un vector
(que en este caso es
único) que cumple:
α
α ′ . x t = x1t + β . x 2t = z t ~ I(0)
donde α ′ = [ 1 β ]
-
Generalizando, consideremos xt = (x1t , x2t, ...,xnt)’. En el caso
de que xt es I(1) y xt ~ CI(1,1), entonces existe al menos un
vector
que cumple:
α
α ′ . x t = z t ~ I(0)
-
En la presente sección analizaremos el caso en que el vector
es único.
α
6.1. PRUEBAS DE COINTEGRACION
-
Dado el vector xt, una vez que se ha comprobado que xt es I(1),
la prueba de cointegración depende de si el vector
es o no
conocido.
-
Si el vector
fuera conocido, la prueba de cointegración
correspondería simplemente a la prueba de raíz unitaria de zt.
Si no se rechaza que zt es I(0), se concluye que xt ~ CI(1,1).
-
no fuera conocido, en forma sintética la prueba
Si el vector
de cointegración corresponde a una prueba de existencia de raíz
unitaria en los residuos estimados o derivados. Esto es una
prueba de que u^ es I(0) donde u^ es:
α
α
α
u t^ = α ^ ′ . x t
Cointegración - Pág. 24
-
Siguiendo a BDGH, pueden plantearse distintas pruebas para el
punto anterior:
* Co-integration Regression Durbin-Watson (CRDW)
* Prueba de Dickey-Fuller (DF)
* Prueba de Dickey-Fuller Aumentada (ADF)
6.2. CO-INTEGRATION REGRESSION DURBIN-WATSON (CRDW)
-
El estadístico es calculado de la misma forma que el test usual
de DW:
T
CRDW =
∑ ( u t^ - u t^-1 )2
t= 2
T
∑ ( u t^2 )
t =1
-
La hipótesis nula, utilizando el CRDW, es de la existencia de
una raíz unitaria (ésto es, que u^ sigue una caminata al azar),
versus un modelo estacionario auto-regresivo de 1er. orden.
Observar la diferencia con el test usual de DW, donde la
hipótesis nula es la ausencia de auto-correlación.
-
Tal como plantean BDGH, el uso de esta estadística es
problemátivo. Plantean distintas limitaciones, pero interesa
remarcar una de ellas. Para la prueba, al igual que en el test
usual de DW, sólo se dispone de los límites de la región crítica
(no es posible formular la distribución del estadístico).
-
Como plantean BDGH, la única esperanza para una inferencia sin
complicaciones depende de disponer de un conjunto de valores
críticos robustos. Esto es, que los valores críticos de la
prueba no sean sensibles, ante cambios en el Proceso Generador
de Datos. En el caso del CRDW, los valores críticos dependen de
la cantidad de regresores y del esquema (Auto-Regresivo) que se
suponga para zt.
-
Los tests de DF y ADF presentan este problema relativizado; son
más robustos que el CRDW.
Descargar