modelos ari

Anuncio
Tema 2
MODELOS
UNIVARIANTES
LINEALES.
1
Estructura del tema
2
1)
Procesos estocásticos estacionarios. Modelos univariantes: la
función de autocorrelación y el correlograma.
2)
El proceso ruido blanco.
3)
El modelo autoregresivo de primer orden AR(1).
4)
Los modelos ARI(1,1).
5)
Generalización a los modelos AR(p). Los procesos ARI(1,p).
6)
Los modelos AR y ARI estacionales.
1. Procesos estocásticos estacionarios


En el tema anterior hemos visto como caracterizar la tendencia
de diferentes maneras. En este tema vamos a ver como
capturar con modelos estocásticos la parte no tendencial del
proceso (eso que llamamos Wt).
Los modelos estadísticos que vamos a tratar en este tema son
modelos univariantes.
–
–
3
Estos modelos se caracterizan porque para conocer la dinámica
de una variable se utiliza información sobre su pasado.
No son modelos econométricos en el sentido que no utilizan
formas funcionales que vienen dadas por la teoría económica. Sin
embargo, la información que proporcionan estos modelos suele
ser de mucha utilidad para el analista económico ya que
proporciona información sobre las características del proceso.
1. Procesos estocásticos estacionarios

4
Los esquemas de raíces unitarias implican
que transformando las series de modo que
en vez de considerar los datos originales se
utilizan sus incrementos o los incrementos
de los incrementos –si la serie presenta
estacionalidad uno de dichos incrementos
será estacional- tales transformaciones no
muestran evolutividad en el nivel y por lo
tanto son estacionarias.
1. Procesos estocásticos estacionarios.


5
La evolución tendencial de una serie que
implica un determinado modelo se define a
partir de su número de diferencias que
incluye además del orden polinomial
determinista.
Veamos algunos ejemplos.
1. Procesos estocásticos estacionarios.
6
1)
xt=xt-1+0.5+wt
2)
xt=2xt-1-xt-2+wt
3)
xt=2+0.5t+wt
4)
xt=2xt-1-xt-2+0.5+wt
1. Procesos estocásticos estacionarios.

7
Indique y explique que evolución tendencial
describen estos modelos. Ejercicio para
casa.
1. Procesos estocásticos estacionarios.



8
Una serie con tendencia lineal determinista
es estacionaria diferenciando 2 veces pero el
termino residual tiene malas propiedades
estocásticas.
Esto se debe al hecho de que la tendencia
se elimina propiamente por regresión.
No obstante la diferenciación también
elimina las tendencias deterministas.
Los elementos determinantes en la
definición de tendencia




9
Los modelos del tipo
Xt=a+bt+Wt
Xt=Xt-1+b+Wt
Pero si los parámetros a y b cambian con el periodo de
predicción, los modelos integrados de orden 2 resultarán
mejores para series con crecimiento sistemático.
Asimismo un modelo integrado de orden 1 sería mejor que un
modelo con un elevado número de rupturas deterministas para
las series con oscilaciones locales de nivel.
Box-Jenkins propone el uso del número máximo de diferencias.
1. Procesos estocásticos estacionarios

10
Supongamos que para una determinada serie eliminamos su
tendencia con d diferencias regulares y D diferencias
estacionales. Es importante tener en cuenta que en series
económicas el número de diferencias totales, d+D, no debe ser
nunca superior a 2.
Por ejemplo, si d+D es 3 significaría asumir que si el modelo no
contiene ningún elemento determinista la serie crece con
tendencia cuadrática y si contiene una constante crecería con
tendencia cúbica. Estos supuestos no son asumibles en series
económicas y empresariales incluso aunque el gráfico de la
serie muestre dicho comportamiento en un momento
determinado.
1. Procesos estocásticos estacionarios.
Por ejemplo, veamos un caso extremo de crecimiento de precios en una
serie mensual.
Indice de precios al consumo en Venezuela
300
250
200
150
100
50
0
2010
2000
1990
1980
1970
1960
1950
11
1. Procesos estocásticos estacionarios.
12

De la observación de la serie se deduce que
su crecimiento es explosivo y no puede
considerarse lineal.

Como hemos visto en el tema 1, series con
un crecimiento exponencial pueden
linearizarse mediante su transformación
logarítmica.
1. Procesos estocásticos estacionarios.
logaritmo natural del índice de precios al
consumo en Venezuela
6
5
4
3
2
1
0
-1
-2
-3
-4
-5
2010
2000
1990
1980
1970
1960
1950
13
1. Procesos estocásticos estacionarios.


14
Incluso tras la transformación logarítmica vemos que
la evolución de la serie es no lineal
aproximadamente en el periodo que va desde 1980
hasta el 2000.
Sin embargo, sería completamente ilógico imponer
un modelo integrado de orden 3 o un modelo
integrado de orden 2 con constante para describir la
evolución de la serie ya que implicaría asumir que
ese comportamiento no lineal se perpetuaría en el
futuro.
1. Procesos estocásticos estacionarios.
Generalmente la tendencia en este tipo de
series se ajustan relativamente bien con un
modelo que incluya sólo dos diferencia y
probablemente un número de variables
artificiales para controlar por los diferentes
cambios estructurales que afectan a su
dinámica.
15
1. Procesos estocásticos estacionarios.

16
Objetivos del tema
–
Entender la definición de estacionariedad y su importancia
en la modelización económica.
–
Familiarizarse con la familia de modelos ARI.
–
Entender como se reflejan las carácterísticas de diferentes
modelos ARI en su función de autocorrelación y su
equivalente muestral (el correlograma).
–
De este modo, en el tema siguiente seremos capaz de
identificar el modelo que mejor se ajusta a una determinada
serie temporal.
1. Procesos estocásticos estacionarios.
17

Las desviaciones de Xt sobre la tendencia y la
estacionalidad que denominaremos Wt muestran
dependencia con desviaciones anteriores.

Habrá que obtener un modelo para Wt
condicionando respecto a las desviaciones pasadas.

Esto se realizará estableciendo un supuesto general
para esa dependencia respecto al pasado.
1. Procesos estocásticos estacionarios.
Una serie temporal es una realización finita de un proceso estocástico.
Proceso estocástico
…x(1) x(2)…x(t)…x(T)…
Serie temporal
(observada)
x1,x2,x3…xT
Otras posibles series x1(1) , x2(1), x3(1),…, xT(1)
temporales
x1(2) , x2(2), x3(2),…, xT(2)
x1(r) , x2(r), x3(r),…, xT(r)
18
1. Procesos estocásticos estacionarios.

19
Importante distinción
–
Proceso estocástico: la inflación mensual en
España.
–
Variable aleatoria: la inflación mensual en el mes t
en España.
–
La inflación observada en el mes t es la realización
de esta variable aleatoria, pero otras realizaciones
podrían ser posibles.
1. Procesos estocásticos estacionarios.


20
Aplicando diferencias regulares y estacionales se
puede eliminar la tendencia y la estacionalidad
Una vez que hemos eliminado las componentes
tendenciales del proceso, estamos interesados en
modelizar. Estas observaciones son dependientes
en el tiempo y no pueden tratarse como si fueran iid.
Ahora vamos a ver que instrumentos estadísticos se
pueden utilizar para estudiar esa dependencia.
yt =f(yt-1,yt-2,…,y1)+at
1. Procesos estocásticos estacionarios.


21
Para representar esta situación vamos a
considerar que la variable que estamos
analizando forma parte de un proceso
estocástico: sucesión de variables aleatorias
indiciadas en el tiempo.
Un proceso estocástico puede generar
infinitas realizaciones durante un periodo
t=1,…,T.
1. Procesos estocásticos estacionarios.

Si dispusiéramos de varias realizaciones de un
proceso entonces la media para cada una de las
variables podría ser estimada mediante:
m
t 
22

j 1
yt( j )
m
1. Procesos estocásticos estacionarios.
-
-
-
23
En embargo en la práctica sólo tenemos una
realización por lo que no es posible estimar
los momentos de las variables que
componen el proceso.
Para poder estimar los momentos de las
variables que componen el proceso es
necesario restringir las propiedades del
proceso estocástico.
Esta restricción se llama de estacionariedad.
1. Procesos estocásticos estacionarios.

Un proceso estocástico es estacionario si:
La media es constante: E(yt)=µ para todo t.
b) La varianza es constante: Var(yt)=σ2
c) La covarianza entre dos variables separadas h
periodos sólo depende de h:
cov(yt, yt+h)=γ(h)
a)
24
1. Procesos estocásticos estacionarios.

25
La primera condición
nos permite calcular la
media que es común a
todas las variables
mediante la media
muestral
T
t 
y
i 1
T
t
1. Procesos estocásticos estacionarios.

26
Lo mismo puede decirse de las otras 2
condiciones.
1. Procesos estocásticos estacionarios.

27
En la práctica la
restricción de
estacionariedad nos
permite estimar las
covarianzas (medida de
dependencia lineal
entre observaciones
separadas h periodos
en el tiempo) mediante
la covarianza muestral.
T
(y
ˆ (h)  t h a
t
 y )( yt  h  y )
T
1. Procesos estocásticos
estacionarios.


28
La estimacion de
correlaciones es mas util
al no depender de las
unidades de medida de
la serie.
El grafico de las
autocorrelaciones para
diferentes valores de k
constituyen el
correlograma.
𝛾(𝑘)
𝜌(𝑘) =
𝛾(0)
2. El proceso ruido blanco
El objetivo de las series temporales es descomponer la
serie observada en una parte que es dependiente
del pasado y otra que es impredecible:
yt =f(yt-1,yt-2,…,y1)+at
El proceso at se conoce como innovación y tiene la
característica de ser ruido blanco
a)
b)
c)
29
E(at)=0
Var(at)=σa2
cov(at, at+h)=0
Teorema de Wald

Si un proceso es
estacionario y no tiene
componentes
deterministas, entonces
donde

2

 i 
i 0
30

yt   i at  i
i 0
0  1
2. El proceso ruido blanco

Un punto a reflexionar: ¿Puede una suma
infinita de términos converger a un número
finito?.
Sí
31
2. El proceso ruido blanco.

Curiosidad:
–
–
32
Zenón de Elea, un filósofo presocrático, propuso la
paradoja de la dicotomía. Si una persona debe andar de un
punto A a un punto B y recorre siempre la mitad de la
distancia que le separa de B en el límite la distancia total
recorrida sería finita aunque el número de pasos sea
infinito.
El supuesto de estacionariedad en el teorema de
descomposición de Wald también impone que la suma
infinita de shocks ruido blanco es un número finito debido a
que estos son cada vez más pequeños (al igual que los
pasos en la paradoja de la dicotomía).
2. El proceso ruido blanco.



33
El teorema de Wald nos permite aproximar la
dependencia dinámica de una variable mediante un
modelo lineal.
Cuando asumimos que las innovaciones son
independientes, entonces la representación lineal es
la única posible.
Sin embargo cuando las innovaciones son
incorreladas pero no independientes entonces la
representación lineal no es la única representación
de dependencia. Puede haber otras dependencias
no lineales.
2. El proceso ruido blanco.




34
La representación lineal depende de infinitos parámetros y por
lo tanto no es operativa en la práctica.
Tenemos que aproximar dicha representación mediante
modelos que tengan un número finito de parámetros.
Como veremos más adelante, los modelos AR (p) pueden ser
representados mediante la ley de descomposición de Wald.
Estudiar las propiedades de estos modelos será uno de los
objetivos del tema.
Los modelos AR(p) juegan un papel muy importante en las
series temporales ya que permiten una representación
parsimoniosa (con relativamente pocos parámetros) de la serie
estacionaria.
2. El proceso ruido blanco.
Las funciones de autocovarianzas y
autocorrelaciones

35
Objetivo: descomponer la serie observada
en una parte que depende de su pasado
más las innovaciones:
yt =f(yt-1,yt-2,…,y1)+at
2. El proceso ruido blanco.


El teorema de Wald nos asegura que f(*) es lineal.
Las autocovarianzas son el instrumento que vamos
a utilizar para medir relaciones lineales
 (h)  Ey t   y t h     Ey t y t h   2
36
2. El proceso ruido blanco.

Las autocorrelaciones no dependen de las
unidades de medida que estemos usando:
 ( h)
 ( h) 
 (0)
37
2. El proceso ruido blanco.

Para estimar la autocorrelación de orden h
utilizamos su análogo muestral.
T
r (h) 
 (y
t h  a
t
T
2
(
y

y
)
 t
t 1
38
 y )(y t h  y )
2. El proceso ruido blanco.

Si (yt) es una secuencia iid,
es decir un ruido blanco,
entonces r(h) es
asintóticamente normal con
media cero y varianza 1/T.
Este resultado puede usarse
para construir bandas de
confianza de las
autocorrelaciones:
±1.96/T1/2
Para contrastar H0 :ρ(1)=
ρ(2)=…= ρ(m)=0 podemos
usar el estadístico de
Ljung-Box-Pierce
39
r ( h) 2
Q(m)  T (T  2)
i 1 (T  h)
m
2. El proceso ruido blanco.

40
Si (yt) es una secuencia iid con momento de
cuarto orden finito, entonces Q(m) es
asintóticamente una Chi cuadrado con m
grados de libertad.
2. El proceso ruido blanco.
Ejemplo

41
Serie de precios de la gasolina en los
Estados Unidos (en logaritmos naturales)
2. El proceso ruido blanco.
5. 6
5. 4
5. 2
5. 0
4. 8
4. 6
4. 4
92
94
96
98
00
E4
42
02
04
06
2. El proceso ruido blanco.
43
2. El proceso ruido blanco.
Primeras diferencias
0. 2
0. 1
0. 0
-0. 1
-0. 2
92
94
96
98
00
DE4
44
02
04
06
2. El proceso ruido blanco.
45
2. El proceso ruido blanco.
46

El correlograma de la serie y el test de
Ljung-Box-Pierce claramente indican que no
puede aceptarse que la serie venga
generada por un proceso ruido blanco.

Existen dependencia dinámica en la serie y
dicha dependencia debe ser caracterizada
mediante un modelo apropiado.
2. El proceso ruido blanco.

Un proceso ruido blanco es un proceso
estacionario que cumple las siguientes
condiciones:
Su media es cero: E(yt)=0 para todo t.
b) La varianza es constante: Var(yt)=σ2
c) La covarianza entre dos variables separadas h
periodos es cero:
cov(yt, yt+h)=0
a)
47
2. El proceso ruido blanco.
48

El ruido blanco se puede interpretar como un
elemento de innovación o sorpresa que
vamos a incorporar en nuestro modelo.

Si todas las series que observamos en la
realidad fuesen ruido blanco serían
impredecibles y no habría ningún modelo
que proponer.
Índice Bursátil en US
real stock market, s
4.25
S
4.00
3.75
3.50
3.25
3.00
2.75
2.50
2.25
2.00
1971
49
1974
1977
1980
1983
1986
1989
1992
1995
1998
2001
2004
Primeras diferencias del índice bursátil
Real stock market in first differences, ds
0.10
DS
0.05
0.00
-0.05
-0.10
-0.15
1971
50
1974
1977
1980
1983
1986
1989
1992
1995
1998
2001
2004
2. El proceso ruido blanco.



51
Los cambios en los precios en mercados eficientes
no son predecibles. Los mercados monetarios, de
divisas, etc están muy cerca de la eficiencia,
En estos mercados, las innovaciones se absorben
completamente cuando se producen y los cambios
en los precios sólo dependen de las innovaciones
contemporáneas.
Las primeras diferencias de índices bursátiles, tipos
de interes o tipos de cambio son tipicamente
procesos que se asumen generados por un ruido
blanco.
3. El modelo autoregresivo de primer
orden AR(1).
Quizá el modelo de series temporales más sencillo consiste en
suponer que el presente depende sólo directamente del pasado
más cercano
𝑤𝑡 = 𝑐 + 𝜙𝑤𝑡−1 + 𝑎𝑡
donde 𝑎𝑡 es un ruido blanco.
Este proceso se denomina AR(1) o proceso autoregresivo de orden
uno.
Resulta interesante conocer las propiedades de este proceso.
52
3. El modelo autoregresivo de
primer orden AR(1).
Su media marginal es
𝐸(𝑤𝑡 ) = 𝑐 + 𝜙𝐸(𝑤𝑡−1 )
Si imponemos la hipótesis de estacionariedad
𝐸 𝑤𝑡 = 𝐸 𝑤𝑡−1 = 𝜇
𝑐
𝜇=
1−𝜙
53
3. El modelo autoregresivo de
primer orden AR(1).
Dos cosas importantes a tener en cuenta:
1)
La esperanza del proceso sólo está definida si 𝜙 ≠ 1.
2) La esperanza de un proceso autoregresivo no es su
constante sino una función de la constante y el
parámetro autoregresivo 𝜙.
54
3. El modelo autoregresivo de
primer orden AR(1).
Sabiendo que
𝑤𝑡 = 𝑐 + 𝜙𝑤𝑡−1 + 𝑎𝑡
𝑐
𝜇=
1−𝜙
el modelo puede escribirse de forma alternativa como
𝑤𝑡 − 𝜇 = 𝜙(𝑤𝑡−1 − 𝜇) + 𝑎𝑡
Esta última expresión resulta especialmente útil a la hora de
escribir la varianza y autocovarianzas del proceso.
55
3. El modelo autoregresivo de
primer orden AR(1).
Así la varianza queda definida como
𝛾 0 = 𝐸(𝑤𝑡 − 𝜇)2 = 𝐸 𝜙(𝑤𝑡−1 − 𝜇) + 𝑎𝑡
= 𝜙 2 𝛾 0 + 𝜎𝑎2
Despejando para 𝛾 0 queda como
𝜎𝑎2
𝛾 0 =
1 − 𝜙2
56
2
3. El modelo autoregresivo de
primer orden AR(1).
Importante:
La varianza sólo está definida si 𝜙 < 1.
57
3. El modelo autoregresivo de
primer orden AR(1).
La autocovarianza de orden uno puede derivarse a partir
de
𝛾 1 = 𝐸(𝑤𝑡 − 𝜇)(𝑤𝑡−1 − 𝜇)
= 𝐸 𝜙(𝑤𝑡−1 − 𝜇) + 𝑎𝑡 (𝑤𝑡−1 − 𝜇) = 𝜙𝛾 0
dado que por definicion, el ruido blanco esta incorrelado
con la informacion pasada.
58
3. El modelo autoregresivo de
primer orden AR(1).
Del mismo modo, las autocovarianzas de orden 2, 3, etc se
obtienen facilmente como
𝛾 2 = 𝐸(𝑤𝑡 − 𝜇)(𝑤𝑡−2 − 𝜇)
= 𝐸 𝜙(𝑤𝑡−1 − 𝜇) + 𝑎𝑡 (𝑤𝑡−2 − 𝜇) = 𝜙𝛾 1
= 𝜙2𝛾 0
𝛾 3 = 𝐸(𝑤𝑡 − 𝜇)(𝑤𝑡−3 − 𝜇)
= 𝐸 𝜙(𝑤𝑡−1 − 𝜇) + 𝑎𝑡 (𝑤𝑡−3 − 𝜇) = 𝜙𝛾 2
= 𝜙3𝛾 0
59
3. El modelo autoregresivo de
primer orden AR(1).
En general, puede definirse la funcion de autocovarianza de
un proceso AR(1) como
𝜎𝑎2
𝛾 0 =
1 − 𝜙2
𝛾 𝑘 = 𝜙 𝑘 𝛾 0 𝑘 = 1,2, …
60
3. El modelo autoregresivo de
primer orden AR(1).
Sin embargo, es la funcion de autocorrelacion la mas
relevante en la identificacion del proceso al no depender
de la unidad de medida
61
3. El modelo autoregresivo de
primer orden AR(1).
Dado que la autocorrelacion se define como
𝛾 𝑘
𝜌 𝑘 =
𝛾 0
La funcion de autocorrelacion (FAC) de un proceso AR(1) sera
𝜌 𝑘 = 𝜙 𝑘 𝑘 = 1,2, …
62
Esto implica que si el proceso es estacionario, 𝜙 < 1
3. El modelo autoregresivo de
primer orden AR(1).
Si el proceso es estacionario y el coeficiente 𝜙 > 0 la FAC
mostrara valores positivos que iran decreciendo
exponencialmente
63
3. El modelo autoregresivo de
primer orden AR(1).
FAC de un proceso AR(1) estacionario
con coeficiente autoregresivo positivo
64
3. El modelo autoregresivo de
primer orden AR(1).
Si por el contrario el proceso es estacionario y el coeficiente
𝜙 < 0 la FAC tambien decaera exponencialmente pero
alternando de signo.
65
3. El modelo autoregresivo de
primer orden AR(1).
FAC de un proceso AR(1) estacionario
con coeficiente autoregresivo negativo
66
3. El modelo autoregresivo de
primer orden AR(1).
La FAC es un concepto teorico y por lo tanto no observable.
Pero en la practica, con series reales podemos computar el
correlograma.
La rapidez de decrecimiento de las correlaciones depende de los
proximo que este el coeficiente de autocorrelacion a la unidad.
67
3. El modelo autoregresivo de
primer orden AR(1).
68
3. El modelo autoregresivo de
primer orden AR(1).
69
3. El modelo autoregresivo de
primer orden AR(1).
70
3. El modelo autoregresivo de
primer orden AR(1).
Puntos a notar en un correlograma
 La rapidez de convergencia hacia cero nos informa sobre
la magnitud del coeficiente.
La alternancia de signos nos informa sobre el signo del
coeficiente.
71
Un correlograma es una estimacion empirica. Sus valores
nunca son exactamente cero. Resulta de interes observar
si es significativamente diferente de cero
3. El modelo autoregresivo de
primer orden AR(1).
Eviews (y tambien otros softwares) muestran informacion
del correlograma parcial que indica la magnitud de una
correlacion entre una serie y sus retardos una vez que
eliminamos la influencia de retardos intermedios.
72
3. El modelo autoregresivo de
primer orden AR(1).
Por ejemplo, en un proceso AR(1)
𝑤𝑡 = 𝑐 + 𝜙𝑤𝑡−1 + 𝑎𝑡
𝑤𝑡−1 = 𝑐 + 𝜙𝑤𝑡−2 + 𝑎𝑡
𝑤𝑡−2 esta correlacionado de forma indirecta con 𝑤𝑡 dado que
𝑤𝑡−2 ejerce influencia sobre 𝑤𝑡−1 y este a su vez ejerce
influencia sobre 𝑤𝑡 .
Sin embargo, en un proceso AR(1) el unico elemento que ejerce
influcenca directa sobre 𝑤𝑡 es 𝑤𝑡−1 . Por lo tanto solo la
correlacion parcial de orden 1 es significativa.
73
3. El modelo autoregresivo de
primer orden AR(1).
Dos conceptos que resultan muy utiles son la esperanza y la
varianza en el periodo 𝑡 condicional a la informacion
disponible en 𝑡 − 1.
74
3. El modelo autoregresivo de
primer orden AR(1).
En el caso de un AR(1) su esperanza condicional seria
𝐸(𝑤𝑡 \Ω𝑡−1 ) = 𝑐 + 𝜙𝑤𝑡−1
donde
Ω𝑡−1 denota toda la informacion hasta el momento 𝑡
𝐸 𝑎𝑡 \Ω𝑡−1 = 0
En este caso 𝑤𝑡−1 no es una variable estocastica sino un dato
que se conoce.
75
3. El modelo autoregresivo de
primer orden AR(1).
Del mismo modo, la varianza condicional seria
𝑉𝑎𝑟(𝑤𝑡 \Ω𝑡−1 ) = 𝜎𝑎2
dado que 𝑤𝑡−1 es un dato conocido y su varianza es cero.
76
3. El modelo autoregresivo de
primer orden AR(1).
Es importante notar que no puede afirmarse que la esperanza
condicional sea mayor o menor que la marginal.
sin embargo, la varianza condicional es siempre menor que la
marginal
𝑉𝑎𝑟 𝑤𝑡 \Ω𝑡−1
77
2
𝜎
𝑎
= 𝜎𝑎2 <
1 − 𝜙2
3. El modelo autoregresivo de
primer orden AR(1).
La explicacion es que el conocimiento del pasado reciente
reduce nuestra incertidumbre sobre el proceso.
Asi, cuando hacemos predicciones, la prediccion un periodo
hacia adelante es mucho mas incierta que la prediccion a largo
plazo.
78
4. El modelo ARI(1,1)
Hemos visto que la condicion de estacionariedad en un
proceso AR(1) es que su coeficiente autoregresivo sea menor
que la unidad en valor absoluto.
Un proceso del tipo
𝑥𝑡 = 𝑥𝑡−1 + 𝑤𝑡 (1)
donde 𝑤𝑡 se asume que es estacionario
implicaria que 𝑥𝑡 es no estacionario. ya que 𝑥𝑡 seria un
proceso no AR(1) con coeficiente igual a uno.
79
4. El modelo ARI(1,1)
Si a su vez se asume que 𝑤𝑡 sigue un proceso AR(1)
estacionario sin constante
𝑤𝑡 = 𝜙𝑤𝑡−1 + 𝑎𝑡 (2)
𝜙 <1
Sustituyendo (1) en (2) puede escribirse el proceso como
∆𝑥𝑡 = 𝜙∆𝑥𝑡−1 + 𝑎𝑡 (3)
80
4. El modelo ARI(1,1)
Un modelo ARI(1,1) se transforma en estacionario tras una
diferencia regular.
81
4. El modelo ARI(1,1)
Si partimos de un periodo inicial 𝑡 − 𝑚 y procedemos
mediante sustituciones recursivas
𝑥𝑡−𝑚 +1 = 𝑥𝑡−𝑚 + 𝑤𝑡−𝑚 +1
𝑥𝑡−𝑚 +2 = 𝑥𝑡−𝑚 + 𝑤𝑡−𝑚 +1 + 𝑤𝑡−𝑚 +2
⋮
𝑥𝑡 = 𝑥𝑡−𝑚 + 𝑤𝑡−𝑚 +1 + 𝑤𝑡−𝑚 +1 + 𝑤𝑡−𝑚 +2 + ⋯ + 𝑤𝑡
82
4. El modelo ARI(1,1)
En este proceso los shocks estocasticos que se incorporan al
sistema 𝑤𝑡 no van disminuyendo su influencia conforme nos
alejamos en el tiempo. No se cumple el principio de la ley de
descomposicion de Wald.
83
4. El modelo ARI(1,1)
Existe una importante diferencia con un proceso 𝑤𝑡
estacionario
𝑤𝑡−𝑚 +1 = 𝜙𝑤𝑡−𝑚 + 𝑎𝑡−𝑚 +1
𝑤𝑡−𝑚 +2 = 𝜙 2 𝑤𝑡−𝑚 + 𝜙𝑎𝑡−𝑚 +1 + 𝑎𝑡−𝑚 +2
⋮
𝑤𝑡 = 𝜙 𝑚 𝑤𝑡−𝑚 + 𝜙 𝑚 −1 𝑎𝑡−𝑚 +1 + 𝜙 𝑚 −2 𝑎𝑡−𝑚 +2 + ⋯ + 𝑎𝑡
84
4. El modelo ARI(1,1)
En un proceso estacionario, el efecto de los shocks
estocasticos termina olvidandose.
85
5. Generalización a los modelos AR(p).
Los procesos ARI(1,p)
En general
(Yt-μ)(1- Φ1L- Φ2L2-…- ΦpLp) =at(1+ΦL+Φ2L2+…+ΦqLq)
La identificación de estos modelos se hace a partir
de su función de autocorrelación.
- Autocorrelación simple: ausencia de estructura
hasta q y a partir de q decrecimiento sistemático.
- Autocorrelación parcial: ausencia de estructura
hasta p y a partir de p decrecimiento sistemático.
86
5. Generalización a los modelos
AR(p). Los procesos ARI(1,p)
Los modelos AR(1) pueden ser facilmente generalizables a
procesos AR(p)
𝑤𝑡 = 𝑐 + 𝜙1 𝑤𝑡−1 + 𝜙2 𝑤𝑡−2 + ⋯ + 𝜙𝑝 𝑤𝑡−𝑝 + 𝑎𝑡
87
5. Generalización a los modelos
AR(p). Los procesos ARI(1,p)
La condicion de estacionariedad en este tipo de procesos se
determina por medio de las raices de la ecuacion
1 − 𝜙1 𝑥 − 𝜙2 𝑥 2 − ⋯ − 𝜙𝑝 𝑥 𝑝 = 0
Si las soluciones de esta ecuacion (ecuacion caracteristica)
son todas mayores que el circulo unidad entonces el proceso
es estacionario.
88
5. Generalización a los modelos
AR(p). Los procesos ARI(1,p)
De forma equivalente, que las soluciones de la siguiente
ecuacion
𝑧 𝑝 − 𝜙1 𝑧 𝑝−1 − 𝜙2 𝑧 𝑝−2 − ⋯ − 𝜙𝑝 = 0
estan dentro del circulo unidad.
89
5. Generalización a los modelos
AR(p). Los procesos ARI(1,p)
Si el proceso AR(p) es estacionario su esperanza se determina
como
𝑐
𝜇=
1 − 𝜙1 − 𝜙2 − ⋯ − 𝜙𝑝
90
5. Generalización a los modelos
AR(p). Los procesos ARI(1,p)
La forma de la FAC en procesos AR(p) con p>1 no se va a
desarrollar analiticamente en este curso.
Sin embargo, de forma general cuando el proceso es
estacionario su FAC decrece con estructura algo mas compleja
que en modelos AR(1).
Esta estructura viene determinada por las raices de su ecuacion
caracteristica. Incluso el decrecimiento puede ser de forma
ciclica cuando existen raices complejas.
91
5. Generalización a los modelos
AR(p). Los procesos ARI(1,p)
92
5. Generalización a los modelos
AR(p). Los procesos ARI(1,p)
Hemos visto que la autocorrelacion parcial nos indica las
autocorrelaciones directas que puede haber en el proceso.
Cuando se trata con series reales, la autocorrelacion parcial es
muy relevante ya que supone una indicacion sobre el orden
del proceso autoregresion que mejor se ajusta a la serie.
93
5. Generalización a los modelos
AR(p). Los procesos ARI(1,p)
Por ejemplo, si las dos primeras autocorrelaciones parciales son
significativamente diferentes de cero probablemente el proceso
viene generado por una AR(2).
En otros casos es muy dificil identificar el orden autoregresivo
que mejor se ajusta a una serie por lo que existen
procedimientos automaticos para determinarloy tambien para
decidir si la serie es o no es estacionaria. Estos metodos seran
estudiados en el tema 3.
94
5. Generalización a los modelos
AR(p). Los procesos ARI(1,p)
Este proceso puede generalizarse a modelos ARI(p,1)
∆𝑥𝑡 = 𝑐 + 𝜙1 ∆𝑥𝑡−1 + 𝜙2 ∆𝑥𝑡−2 + ⋯ + 𝜙𝑝 ∆𝑥𝑡−𝑝 + 𝑎𝑡
95
6. Los modelos AR y ARI
estacionales.
Una manera simple de expresar un modelo AR con un orden
suficientemente alto es mediante el proceso
𝑤𝑡 = 𝑎𝑡 − 𝜃𝑎𝑡−1
a este proceso se le conoce como un MA(1) o medias
moviles de orden uno.
96
6. Los modelos AR y ARI
estacionales.
Para verlo se puede proceder mediante sustituciones
recursivas
𝑤𝑡 = 𝑎𝑡 + 𝜃 𝑤𝑡−1 + 𝜃𝑎𝑡−2
𝑤𝑡 = 𝑎𝑡 + 𝜃 𝑤𝑡−1 + 𝜃 𝑤𝑡−2 + 𝜃𝑎𝑡−3
⋮
𝑤𝑡 = 𝑎𝑡 + 𝜃𝑤𝑡−1 + 𝜃 2 𝑤𝑡−2 + ⋯ + 𝜃 𝑡−1 𝑤1 + 𝜃 𝑡 𝑎0
97
6. Los modelos AR y ARI
estacionales.
Del mismo modo un proceso AR(1) (o cualquier proceso AR
estacionario) puede escribirse como una suma ponderada
de procesos ruido blanco, es decir un proceso de medias
moviles infinito.
Esta caracteristica de ambos procesos se conoce como
representacion dual.
98
6. Los modelos AR y ARI
estacionales.
Para este curso preferimos la representacion AR pura por
diferentes razones:
1) Cualquier proceso MA puede aproximarse por un proceso AR
suficientemente alto.
2) La interpretacion economica de un proceso AR resulta
mucho mas intuitiva que la de un proceso MA.
3) La estimacion de un proceso AR es mucho mas sencilla que
la de un modelo MA (Tema 3).
99
6. Los modelos AR y ARI
estacionales.
El modelo univariante mas general a considerar en el
curso es ARI(p,d)xARI(P,D):
∆𝑑 ∆𝐷 𝑤𝑡 1 − 𝜙1 𝐿 − 𝜙2 𝐿2 − ⋯ − 𝜙𝑝 𝐿𝑝
− Φ2 L2s − ⋯ − ΦP LP = 𝑎𝑡
100
1 − Φ1 Ls
6. Los modelos AR y ARI
estacionales.
donde
𝑑 es el numero de diferencias regulares.
D es el numero de diferencias estacionales.
𝐿 es el operador de retardos.
𝑝 es el orden del polinomio regular.
𝑃 es el orden del polinomio estacional.
101
6. Los modelos AR y ARI
estacionales.
Esta modelizacion impone restricciones en la estructura
del modelo AR
Por ejemplo, un modelo del tipo
(1 − 𝐿) 1 − 𝐿12 𝑤𝑡 1 − 0.9𝐿 1 − 0.8L12 = 𝑎𝑡
seria un ARI(1,1)xARI(1,1)
102
6. Los modelos AR y ARI
estacionales.
El correlograma de una serie generada por dicho proceso
una vez tomada una diferencia regular y una diferencia
anual seria
103
6. Los modelos AR y ARI
estacionales.
104
6. Los modelos AR y ARI
estacionales.
105

Estos procesos son en general dificiles de
distinguir en la practica cuando aparece en
series reales.

El proceso de identificacion de estos
modelos sera un punto esencial del proximo
tema.
Descargar