Proceso Estocástico

Anuncio
Notas del Curso de Series Temporales I. Licenciatura de estadística. Facultad de
Ciencias Económicas y Administración
Proceso Estocástico
Un fenómeno estadístico que evoluciona en el tiempo de acuerdo a leyes probabilísticas
se llama proceso estocástico .
La serie de tiempo puede ser vista como una realización, producto de esa ley
probabilística. Al analizar una serie de tiempo la estamos concibiendo como una
realización de un proceso estocástico (Box-Jenkins-Reinsel 1994).
Cada x t es la realización de cierta variable aleatoria X t . Una serie de tiempo x t de T0
datos, {x t , t ∈ T0 }, es una muestra de tamaño uno del vector de T0 variables aleatorias
ordenadas en el tiempo, es decir, es una realización de la familia de variables aleatorias
{X t , t ∈ T0 }.
Algunas definiciones
Un proceso estocástico es una familia de variables aleatorias {X t , t ∈ T } definidas en un
espacio de probabilidad {Ω, F, P}, donde T es un subconjunto de R, generalmente
puntos del tiempo {0, ±1, ±2, ...}; {0, 1, 2, 3, ...}; [0; ∞]; (-∞; ∞).
Nota: Para cada t ∈ T , X t es una función en Ω. Por otra parte, para cada ω ∈ Ω ,
X t (ω ) es una función en T .
Una realización de un proceso estocástico se define como una función {X (ω ), ω ∈ Ω}
en T, que también se conoce con el nombre de trayectoria del proceso {X t , t ∈ T }.
Otra forma de definir estos conceptos:
Un proceso estocástico es un conjunto de variables aleatorias {Z t } y t toma valores en
cierto conjunto C (días, meses, trimestres, años).
Para cada t ∈ C está definida una v.a. {Z t } y los valores observados en diferentes
momentos forman una serie temporal.
Una serie de T datos ( z1 , z 2 ,..., z T ) es una muestra de tamaño 1 del vector de T variables
aleatorias ordenadas en el tiempo y la serie observada se considera la realización o
trayectoria del proceso estocástico.
El proceso queda caracterizado si definimos la distribución de probabilidad conjunta de
las variables aleatorias ( Z 1 , Z 2 ,..., Z T ), ∀T . Conoceremos la estructura probabilística de
un proceso estocástico cuando se conozcan estas distribuciones.
Ejemplo 1: Sean A y θ variables aleatorias independientes, A ≥ 0; θ ∈ U [0,2π ]. Un
proceso estocástico {X t , t ∈ T } puede definirse en términos de A y θ para cualquier
v ≥ 0 y r > 0:
1
1
X t = A cos(vt + θ ) , ó, más explícitamente, X t (ω ) = A(ω )cos(vt + θ (ω )) con ω ∈ Ω .
r
r
1
Notas del Curso de Series Temporales I. Licenciatura de estadística. Facultad de
Ciencias Económicas y Administración
Las realizaciones de este proceso son las funciones de t que se obtienen al fijar ω , es
decir
1
x (t ) = a cos(vt + θ ) .
r
1. La función de distribución de un proceso estocástico:
{X t , t ∈ T ⊂ R} y Γ el conjunto de vectores
Sea
Γ = { t = (t1 , t 2 , K , t n ) ∈ T n : t1 < t 2 < K < t n ; n = 1,2, K}.
Las funciones de distribución (de dimensión finita) de
{Ft (.), t ∈ Γ} definidas para t = (t1 , t 2 ,K, t n ) por
(
{X t , t ∈ T }
son las funciones
)
Ft ( X ) = P X t1 ≤ x1 , X t2 ≤ x 2 ,...., X tn ≤ x n , X = ( x1 , ..... x n )'∈ R n
.
Cada observación es una variable aleatoria y la misma evoluciona en el tiempo de
acuerdo a ciertas leyes probabilísticas.
X t = ε t + θε t −1 , con E (ε t ) = 0 ; V (ε t ) = σ 2 ; COV (ε t , ε s ) = 0 si t ≠ s . Un
{
}
{
}
grupo particular de ε 0 ,K, ε T produce un conjunto x 0 ,K, xT , un grupo diferente de
épsilons, produciría otro conjunto distinto de x’s. Hay infinitos conjuntos de
realizaciones posibles en t=1, 2, 3, ...,T.
Ejemplo:
{
}
El modelo define así una distribución conjunta para las variables aleatorias X 0 ,K X T .
Los momentos del proceso estocástico se definen con respecto a la distribución de las
variables aleatorias X 0 ,K, X T . Pero el problema es que tenemos sólo una observación
para cada momento del tiempo (t), lo que da paso a la idea de estacionariedad.
La importancia del concepto de estacionariedad radica en que, dado que sólo contamos
con una observación para cada momento del tiempo, una única realización, que las
series manifiesten tener propiedades invariantes en el tiempo cobra una importancia
fundamental. En la práctica pocas series presentan esta característica, la mayoría son no
estacionarias, pero se han diseñado filtros que la transforman en una serie con
comportamiento estable, más adelante veremos qué transformaciones se puede aplicar y
los efectos que inducen. De todos modos hay que considerar que la observación de esta
característica depende del período de observación, esto es, del período que abarca las
observaciones con que contamos, pues una serie puede ser estable durante un período
corto pero no estacionaria en un período mayor. Si consideramos la variable
temperatura de la tierra, esta serie puede ser estacionaria si consideramos un período de
20 años, en cambio, puede mostrar una tendencia creciente si ampliamos
sustancialmente el período de medición.
Hay dos formas equivalentes de enfocar el tema de series de tiempo, desde el dominio
del tiempo y desde el dominio de las frecuencias. El primer enfoque se apoya en una
herramienta fundamental para el análisis, la función de autocovarianzas. El segundo
enfoque se basan en la extensión del análisis de Fourier, que se apoyan en la idea de
que, en un intervalo finito, cualquier función analítica puede ser aproximada, con el
2
Notas del Curso de Series Temporales I. Licenciatura de estadística. Facultad de
Ciencias Económicas y Administración
grado de precisión deseado, aproximándola mediante una suma ponderada de funciones
seno y coseno en las frecuencias armónicas. Un proceso Yt puede ser modelizado
mediante una suma ponderada de componentes periódicos a los que se les superimpone
un componente aleatorio.
Función de medias del proceso
E (Z t ) = µ t
Un caso particular se da cuando todas las variables tienen la misma media , en ese caso
la función de medias es una constante. Las realizaciones del proceso no mostrarán
tendencia y diremos que el proceso es estable en media.
Función de varianzas del proceso
Esta función proporciona las varianzas en cada instante temporal :
V ( Z t ) = σ t2
El proceso es estable en varianza, si esta función es constante en el tiempo.
Un proceso puede ser estable en media y no en varianza y viceversa.
La estructura de dependencia lineal entre las variables aleatorias del proceso se
representa por la funciones de autcovarianzas y autocorrelación.
Función de autocovarianzas del proceso
Es una función que describe las covarianzas entre dos variables de proceso en dos
instantes cualesquiera.
Si {X t , t ∈ T } es un proceso estacionario en media y con V ( X t ) < ∞ para cada t∈T,
entonces la FACov γ X (.,.) de {X t } se define como:
γ (t , t + j ) = Cov( X t , X t + j ) = E[( X t − µ t )( X t − j − µ t )]
γ (t , t ) = Var ( X t ) = σ t2
Las autocovarianzas tienen dimensiones, las del cuadrado de la serie, por lo que son no
convenientes para comparar series medidas en unidades distintas.
Se puede quitar esta dimensión y tener una medida de la dependencia lineal mediante la
función de autocorrelación.
3
Notas del Curso de Series Temporales I. Licenciatura de estadística. Facultad de
Ciencias Económicas y Administración
Estacionariedad estricta
Un proceso es estrictamente estacionario si sus propiedades no se ven afectadas por un
cambio en el período de análisis, si la distribución conjunta asociada a un conjunto de m
observaciones x1, x2,......xm es la misma a la asociada a x1+k, x2+k,.........xm+k.
La serie de tiempo {X t , t ∈ Z } se dice estrictamente estacionaria si las distribuciones
conjuntas de ( X t1 ,...., X tk )' y ( X t1 + h ,...., X tk + h )' son las mismas para todo entero
positivo k, y para todo t1 , K , t k , k ∈ Z . La distribución conjunta de cualquier conjunto
de variables no se modifica si trasladamos las variables en el tiempo.
La obtención de las distribuciones de probabilidad del proceso es posible en ciertas
situaciones, por ejemplo variables climáticas, donde suponer que cada año se observa
una realización del mismo proceso. Pero en ocasiones sólo se observa una realización
del proceso.
El proceso estocástico existe conceptualmente pero no es posible obtener realizaciones
o muestras sucesivas del mismo, entonces para estimar las características transversales
del proceso es necesario suponer que esas propiedades son estables a lo largo del tiempo
(concepto de estacionariedad).
Estacionariedad débil
La serie de tiempo {X t , t ∈ Z }con
débilmente estacionaria si:
E [X t ] = µ ∀t ∈ Z
Z = {0,±1,±2,K} es covarianza estacionaria ó
E [X t − µ ] < ∞ ∀t ∈ Z
γ (t , t + j ) = Cov( X t , X t + j ) = E[( X t − µ t )( X t − j − µ t )] = γ j ∀j.t ∈ Z
2
La estacionariedad débil no garantiza la estabilidad completa del proceso, porque la
distribución de la variable aleatoria Xt puede estar cambiando en el tiempo. Pero si
suponemos que las variables tienen distribución conjunta normal n-dimensional, como
esta queda determinada por las medias, varianzas y covarianzas , entonces todas las
distribuciones de subconjuntos y las marginales serán idénticas, por o tanto, en este
caso, la estacionariedad débil y estricta coinciden.
La función de autocorrelación (FAC) del proceso estacionario {X t } es una medida
normalizada de la función de autocovarianza y se define como
ρ (t , t + j ) =
Cov( X t , X t + j )
σ tσ t + j
=
γj
γ (t , t + j )
= ρj =
γ0
γ (t , t ) γ (t + j , t + j )
A diferencia de la función de autocovarianzas la función de autocorrelación es
independiente de la escala de medidade la serie, γh = ρh σ2 .
La función de autocorrelación simple (FAS) representa los coeficientes de
autocorrelación (ρ k ) en función del retardo k.
4
Notas del Curso de Series Temporales I. Licenciatura de estadística. Facultad de
Ciencias Económicas y Administración
Combinación de procesos estacionarios
Los procesos estacionarios son estables ante combinaciones lineales, los procesos
obtenidos mediante combinaciones lineales de procesos estacionarios son todos
estacionarios.
Ejemplo
Sea Z t un proceso estacionario y Wt = Z t − Z t −1
E (Wt ) = E ( Z t ) − E ( Z t −1 ) = µ − µ = 0
Var (Wt ) = Var ( Z t ) − Var ( Z t −1 ) + 2Cov( Z t , Z t −1 ) = σ 2 + σ 2 + 2γ 1 = 2(σ 2 + γ 1 )
Cov(WtWt + k ) = E[( Z t − Z t +1 )( Z t + k + Z t + k −1 )] = E[ Z t Z t + k − Z t Z t + k −1 − Z t −1 Z t + k + Z t −1 Z t + k −1 ]
= 2 γ k − 2 γ k −1 = 2( γ k − γ k −1 )
⇒ esperanza, varianza y covarianzas no dependen de t ⇒ Wt es estacionario.
Resultado general:
Sea Z t = ( Z 1t ,..., Z kt ) k procesos estacionarios.
Consideremos al proceso escalar definido por :
Yt = c' Z t = c1 Z 1t + ... + c k Z kt ,
con
c' = (c1 ,..., c k )
E (Yt ) = c' E ( Z t ) = c1 E ( Z 1t ) + ... + c k ( Z kt ) = c' µ
µ' = (µ1 ,..., µ k ) vector de medias, como E ( Z ti ) = µ i son constantes ⇒ E (Yt ) es
constante.
Var (Yt ) = E (c' ( Z t − µ)( Z t − µ)c) = c' Γz c
Γz es la matriz de varianzas y covarianzas entre las componentes, como las
componentes son estacionarias, la matriz de covarianzas entre ellas también lo es.
Cov(Yt , Yt + k ) = c' Γz (k )c
Γz (k ) contiene las covarianzas entre los componentes en distintos instantes, que por
hipótesis sólo dependen del retardo.
⇒ Yt es estacionario.
Una consecuencia de este resultado es que las autocovarianzas tienen que cumplir
ciertas condiciones correspondan a un proceso estacionario.
Sea Yt = c1 Z t + c 2 Z t −1 + ... + c k Z t − k
Var (Yt ) = c' Γz (k )c debe ser no negativa
5
Notas del Curso de Series Temporales I. Licenciatura de estadística. Facultad de
Ciencias Económicas y Administración
 γ0

γ
Γ(k ) =  1
 M

 γ k −1
γ1
γ0
L
...
O
L
L
γ k −1 

γ k −2 
M 

γ 0 
la matriz de autocovarianzas de orden k del proceso Z t es definida no negativa.
Para una secuencia de números pueda ser una FACov de un proceso estacionario, esta
secuencia debe verificar que la matriz de autocovarianzas asociada de orden k debe ser
definida no negativa.
Si considero un proceso con γ 0 = 1 ⇒ γ k = ρ k
 1 ρ1 L ρ k −1 
ρ
O
M 
1

→R=
debe ser también definida no negativa.
 M
O M 


ρ k −1 L L 1 
Propiedades de la función de autocovarianzas
a) γ k = γ −k
b) γ 0 = Var (Yt ) > 0
c) γ k ≤ γ 0
d )Γk → matriz _ semidefinida _ positiva
e)ρ k =
γk
γ0
d) Que las matrices de autocovarianza y autocorrelación sean definidas positivas
implica que su determinante y los menores principales sean mayor que 0.
1
• Sea n=2 , ρ1
1
•
Sea n=3
ρ1
ρ2
ρ1
>0→
1
ρ1
1
ρ1
ρ2
ρ1 > 0 ,
1
1 − ρ12 > 0

1 − ρ12 > 0ρ12 > 1  → −1 < ρ1 < 1

ρ12 < 1 
1
ρ1
ρ1
>0
1
1
ρ2
ρ2
>0
1
6
Notas del Curso de Series Temporales I. Licenciatura de estadística. Facultad de
Ciencias Económicas y Administración
implica que: − 1 < ρ1 < 1
− 1 < ρ2 < 1
ρ 2 − ρ12
−1 <
<1
1 − ρ12
Ejercicios:Discutir la estacionariedad
Caso 1.
X t = α cos(θ t ) + β sen(θ t ), t ∈ Z
α y β v.a. no corr.
E (α ) = E ( β ) = 0; V (α ) = V ( β ) = 1; θ fijo.
Note que cos( X ± Y ) = cos( X )cos(Y ) ± sen ( X )sen (Y )
Caso 2.
Y t = X 1 + X 2 + .... + X t
X t → NI (0, σ 2 );
E (Y t ) = 0
Serie de Tiempo Gaussiana o Normal
El proceso {X t } se dice Gaussiano o Normal si y sólo si las funciones de distribución de
{X t } son todas Normales Multivariadas.
Nota: Si {X t , t ∈ Z } es un proceso Gaussiano y débilemnte estacionario, entonces es
estrictamente estacionario, ya que para todo n ∈ {1,2,K} y para todo h, t1 , t 2 K ∈ Z los
vectores ( X t1 ,...., X tk )' y ( X t1 + h ,...., X tk + h )' tienen la misma media y matriz de
covarianzas, y por tanto la misma distribución.
Operador de Rezagos
Notaremos L al operador de rezagos. Es un operador lineal, tal que, aplicado a
x t produce x t −1 :
Lxt = xt −1 .
Se extiende fácilmente a más rezagos L j x t = x t − j , j = 0,1,K
L puede manipularse como cualquier cantidad algebraica.
Una constante se interpreta como una función que es constante en el tiempo, por tanto
aplicar el operador de rezagos a una constante, no da lugar a modificaciones.
L(a) = a , a = cte.
Es un operador lineal, por tanto si:
L(a Xt + b Yt) = a Xt-1 + b Yt-1
Sea un proceso autorregresivo de orden 1
7
Notas del Curso de Series Temporales I. Licenciatura de estadística. Facultad de
Ciencias Económicas y Administración
xt = φ xt −1 + ε t
φ ( L) = (1 − φ L )xt = ε t
∞
∞
j =0
j =0
xt = ∑ φ jε t − j = ∑ (φL ) ε t =
j
1
εt
1 − φL
Se pueden definir polinomios en el operador de rezagos, esto presenta la ventaja de que
se operan de la misma manera que los polinomios algebraicos ordinarios.
Obsérvese que el resultado de la progresión geométrica implica tratar a L como si
tuviera “magnitud” 1, más allá de lo que el término magnitud pueda significar.
Operador de Diferencias
Un caso particular de operador polinómico es el operador diferencias, se define como
∆ = (1 − L ) . Por tanto, ∆x t = (1 − L )x t = x t − x t −1 , y al igual que en el caso del operador
de rezagos, se generaliza fácilmente a cualquier número de diferencias: ∆ j = (1 − L )
j
Note que ∆2 = (1 − L ) = (1 + L2 − 2 L ) , es decir que ∆2 x t = x t + x t − 2 − 2 x t −1
2
Operador Suma
∞
Sea S= (1-L)-1 = 1 + L+ L2 + .....Lp y tiene el siguiente efecto: Sxt = ∑ xt −1
i =0
8
Notas del Curso de Series Temporales I. Licenciatura de estadística. Facultad de
Ciencias Económicas y Administración
PROCESOS ESTOCASTICOS ESTACIONARIOS
Ruido Blanco
El proceso estocástico débilmente estacionario más simple que se puede definir, se
denomina RUIDO BLANCO (RB). Un proceso estocástico estacionario se denomina
Ruido Blanco si:
1) E ( X t ) = 0 ∀t ∈ Z
σ 2 si k = 0
2) γ ( k ) = 
 0 si k ≠ 0
Es un proceso con esperanza cero, varianza constante y donde las variables del proceso
están incorrelacionadas para todos los retardos.
El proceso ruido blanco no es necesariamente estacionario en sentido estricto, sólo se
impone incorrelación, por tanto no necesariamente las variables son independientes. Si
se impone la condición de que las variables del proceso tienen distribución normal, el
proceso será estacionario en sentido estricto. Bajo estas características el proceso se
denomina ruido blanco gaussiano.
Ejemplo:Se simulan 1500 observaciones de un proceso ruido blanco gaussiano
-3
-2
-1
0
w
1
2
3
w=rnorm(1500,0,1)
plot.ts(w)
par(mfrow=c(2,1))
autoc_rb<-acf(w,lag.max=24,main="Autocorrelograma Ruido Blanco")
pacf_rb<-pacf(w,lag.max=24,main="Autocorrelograma Parcial Ruido
Blanco")
autoc_rb
pacf_rb
0
500
1000
1500
Time
9
Notas del Curso de Series Temporales I. Licenciatura de estadística. Facultad de
Ciencias Económicas y Administración
0.4
0.0
AC F
0.8
Au to c o rre lo g ra m a Ru id o B la n c o
0
5
10
15
20
Lag
0.02
-0.04
Partial A C F
Au to c o rre lo g ra m a P a rc ia l Ru id o B la n c o
5
10
15
20
Lag
Autocorrelations of series 'w', by lag
0
1
2
3
4
5
6
7
8
9
10
1.000 0.009 0.020 -0.011 0.006 -0.005 -0.003 -0.019 -0.023 0.022 -0.009
11
12
13
14
15
16
17
18
19
20
21
-0.021 -0.001 -0.009 -0.028 -0.014 0.017 0.020 0.010 0.006 -0.046 -0.017
22
23
24
-0.023 -0.003 0.024
Partial autocorrelations of series 'w', by lag
1
2
3
4
5
6
7
8
9
10
11
0.009 0.020 -0.011 0.006 -0.005 -0.004 -0.018 -0.023 0.023 -0.009 -0.023
12
13
14
15
16
17
18
19
20
21
22
0.000 -0.009 -0.029 -0.014 0.019 0.020 0.007 0.005 -0.046 -0.018 -0.023
23
24
-0.002 0.026
Procesos Autorregresivos
Los modelos autorregresivos se basan enla idea de que los valores corrientes de la serie
puede ser explicados a partir de los p valores pasados, como combinación lineal de los
mismos.
10
Notas del Curso de Series Temporales I. Licenciatura de estadística. Facultad de
Ciencias Económicas y Administración
El proceso {X t , t ∈ T } se dice autorregresivo de orden p; X t → AR ( p ) ⇔
X t = φ1 X t −1 + φ 2 X t − 2 + ..... + φ ` p X t − p + ε t , donde ε t es un ruido blanco y los φ ’s son
coeficientes fijos.
Utilizando el operador de rezagos definido previamente, podemos re-escribir la
expresión anterior:
(1 − φ 1 L − φ 2 L2 − ..... − φ ` p L p ) X t = ε t .
Podemos escribir sintéticamente el polinomio en L:
(1 − φ1 L − φ 2 L2 − ..... − φ` p Lp ) = φ ( L) ⇒ φ ( L) X t = ε t
Xt =
εt
φ (L)
A partir de un RB genero X t . La introducción de los rezagos de X t es lo que introduce
correlación en el proceso (correlación que el RB no tiene).
Cuando p = 1 tenemos un caso muy simple que se presenta a continuación.
Proceso autorregresivo de orden uno, AR(1)
X t = φX t −1 + ε t
Ejemplo:
t
0
1
2
3
4
5
6
εt
-0,12
0,20
0,06
-0,18
-0,04
0,00
X t (φ = 0,5)
0,16
-0,04
0,18
0,15
-0,105
-0,09
-0,045
A partir de t = 1, genero un ruido blanco, a partir de ese ruido, de X 0 y de φ ; genero el
resto de la serie. Con este ejemplo muy simple, vemos que se requiere un punto de
partida, un arranque, X 0 = 0,16 en este caso.
Si consideramos la serie de entrada y la de salida, se aprecia es que ε t tiene un
comportamiento más errático que X t , y ello se debe a la parte φX t −1 que es la que da
inercia.
En el trabajo con series temporales estacionarias, iremos viendo que la “forma“ de los
procesos es lo importante. La “forma” del proceso AR(1) no depende de t, es decir, lo
que vale para t, vale para t - 1, t + 1, etc. Ello nos permite utilizar el procedimiento
recursivo, que resulta muy útil para trabajar la serie:
X t = φX t −1 + ε t = φ (φX t − 2 + ε t −1 ) + ε t = φ 2 X t − 2 + φε t −1 + ε t = ......... =
n −1
φ n X t − n + φ n −1ε t − ( n −1) + φ n − 2 ε t − ( n − 2 ) + ..... + φε t −1 + ε t = φ n X t − n + ∑ φ j ε t − j
j =0
Llegados a este punto, nos preguntamos: Dónde comenzó el proceso? En el momento
0?, En el pasado infinito? Veremos a continuación que esta decisión es importante.
11
Notas del Curso de Series Temporales I. Licenciatura de estadística. Facultad de
Ciencias Económicas y Administración
Estacionariedad e inicio del proceso
1. El proceso comenzó en t = 0 , con X 0 fijo.
Tenemos que:
n −1
X t = φ X t −n + ∑φ j ε t − j .
n
j =0
t −1
Si tomamos n = t, tenemos: X t = φ t X 0 + ∑ φ j ε t − j
j =0
E( X t ) = µt = φ X 0
t
1 − φ 2 t 2
t −1
t −1
 t



σ
φ2 ≠1

V ( X t ) = V  φ X 0 + ∑ φ j ε t − j  = V  ∑ φ j ε t − j  =  1 − φ 2
j =0


 j =0
  tσ 2
φ 2 =1

Obsérvese que la media depende de t, al igual que la varianza, cualquiera sea el valor de
φ. No tenemos por tanto un proceso estacionario.
Veamos la Covarianza:
t + k −1

 t −1
  t −1
E ( X t . X t + k ) = E ∑φ jε t − j ∑φ jε t +k − j  = ∑φ kφ 2 j E (ε 2 t − j ) =
j =0
 j =0
  j =0

 t −1
 φ kV ( X t ) φ 2 ≠ 1
φ k ∑φ 2 jσ 2  = 
φ2 =1
 j =0
 V ( X t )
La covarianza también depende de t (porque la varianza depende de t) como era de
esperar.
Por tanto, si el proceso comenzó en t = 0, con X 0 fijo (no aleatorio), no tenemos
estacionariedad.
El caso φ =1 tampoco es estacionario, pero es un caso muy especial, conocido como
paseo aleatorio.
2. El proceso comienza en t = -∞ (|φ | < 1)
En la medida en que el proceso comenzó en el pasado remoto, (t = -∞) el primer término del
proceso desaparece, con lo cual queda redefinido como:
∞
X t = ∑φ jε t − j
0
E( X t ) = µt = φ t X 0 = 0
∞
 ∞

σ2
V ( X t ) = V  ∑ φ j ε t − j  = σ 2 ∑ φ 2 j =
= γ (0)
1−φ 2
0
 j =0

Cov( X t . X t + k ) = γ (k ) = φ k γ (0)
Por lo tanto, basta con que |φ | < 1 para que el proceso sea estacionario, cuando éste
comenzó en t = -∞ .
Note que ρ ( k ) = γ ( k ) / γ (0) = φ k
12
Notas del Curso de Series Temporales I. Licenciatura de estadística. Facultad de
Ciencias Económicas y Administración
3. El proceso comienza en t = 0, pero con X 0 una variable aleatoria
E( X 0 ) = 0 y V ( X 0 ) =
σ
2
1−φ2
y además, X 0 no está correlacionado con ε 1 , ε 2 ,K etc.
X 0 se piensa como una variable aleatoria que es igual al proceso en estado estacionario.
Además consideramos el caso |φ | < 1.
E ( X t ) = µ t = E (φ t X 0 ) = 0
t −1


 t −1

φ 2t
1 − φ 2t 2
σ2
2
V ( X t ) = V  φ t X 0 + ∑ φ j ε t − j  = V (φ t X 0 ) + V  ∑ φ j ε t − j  =
σ
+
σ
=
2
1−φ 2
1−φ 2
j =0
 j =0
 1−φ


la varianza de la suma es la suma de las varianzas porque la COV [X 0 , (ε 1 , ε 2 ,K)] = 0 .
Calculemos ahora las Covarianzas: COV ( X t , X t + k ) .
t −1
X t = φ t X 0 + ∑φ jε t− j
j =0
X t +k = φ t +k X 0 +
t + k −1
∑φ
j =0
j
ε t +k − j
2t
t −1
σ2
σ2
σ2
k
k
k
2 1−φ
2
2j
2t + k
+ φ σ ∑φ = φ
+φ σ
=φ
E ( X t X t +k ) = φ
1−φ 2
1−φ 2
1−φ 2
1−φ 2
j =0
Como puede verse, ninguno de los momentos depende de t, por lo que el proceso es
estacionario1.
El punto de partida es importante, pero como vimos, no es preciso que comience en -∞,
basta con que lo haga en t = 0, con X 0 en la solución estacionaria pero en ambos casos
2t + k
se requiere que φ < 1 .
4. Si φ = 1 y X 0 ≡ 0 . E ( X t ) = µ t = 0; V ( X t ) = tσ 2 ; COV ( X t ; X s ) = min(t , s )σ 2 .
Este caso es, como puede apreciarse, no estacionario, y se conoce como Camino
Aleatorio. El tipo de no estacionariedad que propone este modelo es interesante.
Obsérvese que:
X t = X t −1 + ε t
X t −1 = X t − 2 + ε t −1 ⇒ X t = X t − 2 + ε t −1 + ε t ⇒
t −1
X t = X 0 + ∑ε t− j
j =0
el efecto de cualquier suceso que ocurra en el pasado se queda para siempre impactando
la dinámica de la serie. Esta es una diferencia clave con los procesos estacionarios,
donde el impacto de lo ocurrido en el pasado remoto tiende a desaparecer, en la medida
en que φ j se hace más y más pequeño.
El tipo de no estacionariedad que se genera cuando φ > 1 es muy especial, genera
procesos explosivos, en la medida en que lo que sucedió en el pasado se hace cada vez
más importante.
Ejemplo
Simulación en R de un camino aleatorio con deriva (random walk with drift)
1
No se ha dicho nada de la distribución de las variables, por lo que no sabemos si es estrictamente estacionario.
13
Notas del Curso de Series Temporales I. Licenciatura de estadística. Facultad de
Ciencias Económicas y Administración
0
10
20
xd
30
40
50
set.seed(154)
w=rnorm(200,0,1);x=cumsum(w)
wd=w+0.2;xd=cumsum(wd)
plot.ts(xd, ylim=c(-5,55))
0
50
100
150
200
Time
autoc=acf(xd,lag.max=40)
0.4
0.0
0.2
AC F
0.6
0.8
1.0
S e rie s x d
0
10
20
30
40
Lag
Simulación en R de un camino aleatorio (random walk )
set.seed(170540)
w=rnorm(200,0,1);x=cumsum(w)
plot.ts(x)
14
0
-5
x
5
Notas del Curso de Series Temporales I. Licenciatura de estadística. Facultad de
Ciencias Económicas y Administración
0
50
100
150
200
Time
Observaciones
Muchas de las consideraciones serán extensibles al modelo AR(p), con p > 1,
1. Diferencia entre esperanza incondicional y esperanza condicional, E ( X t ) y
E ( X t X t −1 )
Sea el proceso: X t = φX t −1 + ε t
La esperanza incondicional, E ( X t ) = 0
En cambio la esperanza condicional, E ( X t X t −1 ) = φ X t −1
donde X t −1 está dado, es un dato y será en general diferente de cero.
2.En el curso, en general supondremos que T representa los números enteros, por lo
que supondremos que el proceso comenzó en -∞.
3. X t está correlacionado con ε t , ε t −1 , ε t −2 ,K , (el pasado ) pero no con ε t +1 , ε t + 2 ,K ,(el
futuro).
∞
Ello resulta evidente en la formulación del proceso como X t = ∑ φ j ε t − j .
La COV (X t , ε t − j ) = φ σ para j > 0 , pero COV (X t , ε t + j ) = 0 .
j
j =0
2
4.El proceso AR(1) es estacionario si φ < 1 y ocurre:
iii-
El proceso comienza en t = −∞ .
El proceso comienza en t = 0 en la solución estacionaria
15
Notas del Curso de Series Temporales I. Licenciatura de estadística. Facultad de
Ciencias Económicas y Administración
Función de autocovarianzas de un AR(1)
Si sabemos que X t ∼ AR (1) es estacionario, entonces
X t = φ X t −1 + ε t
E ( X t ) = E (φX t −1 + ε t ) ⇒ µ = φµ ⇒ µ = 0.
Multiplicando por X t a ambos lados de la definición del proceso, y tomamos esperanza
tenemos:
E ( X t X t ) = φE ( X t X t −1 ) + E ( X t ε t )
γ 0 = φγ 1 + σ 2
Multiplicando X t por X t −1 a ambos lados y tomamos esperanza tenemos:
E ( X t −1 X t ) = φE ( X t −1 X t −1 ) + E ( X t −1ε t )
γ1 = φ γ 0 + 0 = φ γ 0
Si ahora multiplicamos X t por X t −k con k > 1, y tomamos esperanza, tendremos:
γ k = φ γ k −1 ⇒
γ 0 = φγ1 +σ 2
γ1 = φγ 0
γ k = φ γ k −1
En general, γ k = φ k γ 0 ∴ ρ k = φ k
Este método de cálculo para la función de autocovarianza es válido si el proceso es
estacionario.
La expresión de la función de autocorrelación de un proceso AR(1) es igual a las
potencias del perámetro φ y decrece geométricamente hacia cero. Si el parámetro es
positivo, la dependencia lineal del presente de los valores pasados es siempre
positiva. Si el parámetro es negativo, la dependencia es positiva para los rezagos
pares y negativa para los impares.
•
Hasta ahora hemos trabajado con X t ∼ AR (1) con media 0. El proceso se generaliza
fácilmente para media ≠ 0. Podemos pensar en X t con E ( X t ) = µ ≠ 0 . Definamos
entonces X t* = X t − µ .
Este nuevo proceso es tal que:
X t − µ = φ ( X t −1 − µ ) + ε t , de donde X t = φ X t −1 + µ (1 − φ ) + ε t
•
Obsérvese que en la definición del proceso aparecerá una constante, pero esa
constante no es la media del proceso, µ , sino que está multiplicada por (1 − φ ) .
16
Notas del Curso de Series Temporales I. Licenciatura de estadística. Facultad de
Ciencias Económicas y Administración
Existen 2 posibles formas para la función de autocorrelación de un AR(1)
Ejemplo:
Usando R para simular un AR(1)
1. φ = 0.8
0
-4
-2
a r1 .s i m
2
4
ar1.sim<-(arima.sim(list(order=c(1,0,0),ar=0.8),n=200))
plot(ar1.sim)
0
50
100
150
200
Tim e
Función de autocorrelación de la serie simulada
autoc<-acf(ar1.sim,lag.max=20)
ACF
0 .0
0 .2
0 .4
0 .6
0 .8
1 .0
S e r ie s a r 1 .s im
0
5
10
15
20
Lag
autoc
Autocorrelations of series 'ar1.sim', by lag
0
1.000
11
0.092
1
0.776
12
0.048
2
0.625
13
0.020
3
0.501
14
0.006
4
0.376
15
0.001
5
0.279
16
0.009
6
0.217
17
0.022
7
8
9
0.200 0.184 0.132
18
19
20
0.022 -0.014 -0.005
10
0.095
17
Notas del Curso de Series Temporales I. Licenciatura de estadística. Facultad de
Ciencias Económicas y Administración
2 φ = -0.8
1
0
-3
-2
-1
a r1 .s i m
2
3
ar1.sim<-(arima.sim(list(order=c(1,0,0),ar=-0.8),n=200))
plot(ar1.sim)
0
5 0
1 0 0
1 5 0
2 0 0
T im e
autoc<-acf(ar1.sim,lag.max=20)
a r 1 .s im
-0 .5
0 .0
ACF
0 .5
1 .0
S e r ie s
0
5
10
15
20
Lag
autoc
Autocorrelations of series 'ar1.sim', by lag
0
1
1.000 -0.753
11
12
-0.032 0.003
2
3
0.578 -0.392
13
14
0.027 -0.056
4
5
0.281 -0.203
15
16
0.044 -0.082
6
7
0.164 -0.088
17
18
0.053 -0.034
8
9
0.071 -0.066
19
20
0.018 -0.004
10
0.038
Verifique usando el paquete R que, para valores de φ pequeños (en un proceso AR(1)),
la caída a 0 es rápida.
18
Notas del Curso de Series Temporales I. Licenciatura de estadística. Facultad de
Ciencias Económicas y Administración
Otra forma de verificar si un proceso AR(1) es estacionario es verificando el signo de la
raíz de la siguiente ecuación característica (1 − φ L ) = 0 . El proceso es estacionario si la
raíz es > 1 en valor absoluto.
1
(1 − φ L) = 0 ⇒ L =
φ
Esta condición es equivalente a φ < 1 .
Proceso autorregresivo de segundo orden, AR(2)
Muchos de los resultados obtenidos hasta aquí pueden generalizarse a procesos de
mayor orden, pero hay una serie de temas que no aparecen en un proceso AR(1) y que
ahora analizaremos el proceso AR(2).
X t = φ 1 X t −1 + φ 2 X t − 2 + ε t , donde ε t es un proceso ruido blanco.
Como vimos nos interesa particularmente establecer las condiciones de estacionariedad
del proceso.
Si φ1 = φ 2 = 0, obviamente el proceso es estacionario, pues Xt = εt
Reescribamos el proceso como una ecuación en diferencias:
(1 − φ1 L − φ 2 L2 ) X t = ε t ó lo que es lo mismo
φ ( L) X t = ε t ⇒ Ecuación en diferencias
Es una ecuación en diferencias no homogénea2. La solución se halla sumando a la
solución de la homogénea, una solución particular.
Tomando X t − n = 0; X t − ( n +1) = 0; tendremos una solución particular de la forma
n −1
X t = ∑ψ j ε t − j 3.
j =0
2
Al igual que el resto de las ecuaciones matemáticas, las ecuaciones en diferencias admiten una solución para la
variable incógnita, Xt. La solución a la ecuación en diferencias será generalmente otra función, no un único valor.
Esta solución nos informará acerca de cómo se forman los valores de Xt a través del tiempo, de la variable tiempo y
del componente aleatorio, εt .
El procedimiento general de ecuaciones en diferencias parte de la descomposición de la solución completa en dos
partes, la solución homogénea y la solución particular. La ecuación homogénea considera únicamente los valores de
Xt y su pasado, y como todo sistema homogéneo admite la solución trivial o bien un conjunto infinito de soluciones a
partir de dos constantes arbitrarias. La solución particular atiende a la parte formada por el término independiente, si
existe y la perturbación aleatoria εt .El procedimiento de resolución comprenderá cuatro etapas: identificar la
ecuación homogénea y encontrar las n soluciones posibles, encontrar la solución particular, formar la solución
completa como suma de la homogénea y la particular y finalmente eliminar las constantes arbitrarias imponiendo
condiciones iniciales.
3
Se obtiene esta expresión, realizando sustituciones recursivas en
por ejemplo
X t −1 por ( φ1 X t − 2 + φ 2 X t − 3 + ε t −1 )
y
X t = φ 1 X t −1 + φ 2 X t − 2 + ε t , sustituyendo
X t − 2 por ( φ 1 X t − 3 + φ 2 X t − 4 + ε t − 2 )
hasta
19
Notas del Curso de Series Temporales I. Licenciatura de estadística. Facultad de
Ciencias Económicas y Administración
Para encontrar la solución de la ecuación homogénea de (1 − φ1 L − φ 2 L2 ) X t = 0 es
preciso resolver la ecuación característica: (1 − φ1 L − φ 2 L2 ) = 0 , sean m1 y m2 las raíces
de (1 − φ1 L − φ 2 L2 ) = 0 ; c1 y c 2 constantes a determinar de acuerdo a ciertas
condiciones iniciales (en este caso, por donde pasa X t en 2 momentos X0 y X1).
Al resolver la ecuación característica las posibles soluciones a la ecuación homogénea
son:
1. dos raíces reales y distintas ( m1 ≠ m2 ), 2RR≠: X t = c1 (1 / m1 ) + c 2 (1 / m 2 )
t
2. dos raíces reales e iguales ( m1 = m2 = m ): X t = ( c1 + c 2 t )(1 / m )
t
3. dos raíces complejas conjugadas ( m1 ≠ m2 ): X t = c1 (1 / m1 ) + c 2 (1 / m 2 )
t
t
t
La solución de la ecuación en diferencias no homogénea es la suma de la particular y la
homogénea:
n −1
X t = c1 (1 / m1 ) t + c 2 (1 / m 2 ) t + ∑ψ j ε t − j para los casos 1 y 3 y
j =0
n −1
X t = (c1 + c 2 t )(1 / m ) + ∑ψ j ε t − j en el caso 2.
t
j =0
Pero para que podamos decir que el proceso es estacionario, la solución no deberá
depender de las constantes c1 y c 2 , ya que éstas a su vez dependen de las condiciones
iniciales vinculadas a momentos específicos del pasado. Si ello ocurriera, la idea de
estacionariedad se vería comprometida. Para que el proceso sea estacionario, es preciso
que la solución sea independiente de las condiciones iniciales.
En el caso de 2RR≠, m1 ≠ m2 .
Si al tiempo [ t − n ] y [ t − (n + 1) ] cuento con ciertas condiciones iniciales, es decir,
conozco dos valores del proceso, X t −n y X t −(n +1) , tenemos:
X t −n
 1 

= c1 
m
 1
X t − n −1
t −n
 1 

= c1 
 m1 
 1
+ c 2 
 m2
t − n −1



t −n
 1
+ c 2 
 m2



t − n −1
Inicio del Proceso
Nuevamente es preciso discutir diferentes situaciones:
1. El proceso comenzó en t = 0 .
2. El proceso comenzó en t = −∞ (n = ∞ ) .
llegar a
X t − n y X t − ( n +1)
que se asumieron como 0. Desaparecen así las x’s del lado derecho, quedando una suma
sólo en ε’s rezagados.
20
Notas del Curso de Series Temporales I. Licenciatura de estadística. Facultad de
Ciencias Económicas y Administración
3. El proceso comenzó en t = 0 , pero con X t −n y X t −n −1 v.a. en la solución
estacionaria.
Veamos el caso 2. Aquí es preciso que m1 y m2 sean ambos mayores que 1 en valor
absoluto, de manera que al ser elevados a la n = ∞ , c1 y c 2 se hagan 0, y de este modo
se independiza la solución de las condiciones “iniciales” X t −n y X t −n −1 .
0
0
647
48 647
48 ∞
∞
t
La solución queda: X t = c1 (1 / m1 ) + c 2 (1 / m 2 ) t + ∑ψ j ε t − j = ∑ψ j ε t − j , y de esta
j =0
j =0
forma X t se independiza del pasado infinito.
Ejercicio: demostrar que si el proceso comenzó en t = 0 el proceso no es estacionario, y
que si comenzó en t = 0 con X t −n y X t −n −1 variables aleatorias en la solución
estacionaria, el proceso es estacionario, exactamente igual que en el caso AR(1).
Representación del proceso como una suma de innovaciones
Determinación de los ψ k
Trabajaremos de ahora en más suponiendo que el proceso comenzó en el pasado
remoto, en t = −∞ . Por lo tanto, el proceso AR(2), como acabamos de demostrar,
puede escribirse como:
∞
∞
k =0
k =0
X t = ∑ψ k ε t −k = ∑ψ k Lk ε t =ψ ( L)ε t
Por otra parte, en la definición del proceso escribimos:
1
φ ( L) X t = ε t , de donde X t =
εt .
φ ( L)
Igualando los coeficientes de ε t , tenemos:
1
ψ ( L)ε t =
ε ⇒ψ ( L)φ ( L) = 1
φ ( L) t
(ψ 0 + ψ 1 L + ψ 2 L2 +ψ 3L3 + ...)(1 − φ1 L − φ 2 L2 ) = 1
ψ0 =1
ψ 1 −ψ 0φ1 = 0 ⇒ ψ 1 = φ1
ψ 2 −ψ 1φ1 −ψ 0φ 2 = 0; y en general
ψ k −ψ k −1φ1 −ψ k −2φ 2 = 0 ∀k ≥ 2
(1 − φ L − φ L )ψ
2
1
2
k
=0
Esta es la misma ecuación en diferencias que define al proceso AR(2). Además
conocemos condiciones iniciales: ψ 0 = 1 y ψ 1 = φ1 .
21
Notas del Curso de Series Temporales I. Licenciatura de estadística. Facultad de
Ciencias Económicas y Administración
Para qué trabajar con los ψ k ? En ocasiones es más fácil trabajar con el proceso
∞
planteado en la forma X t = ∑ψ k ε t −k , por ejemplo para calcular Esperanzas, Varianzas
k =0
y Covarianzas.
Las soluciones posibles a 1 − φ1 L − φ 2 L2 = 0 son las mismas que mencionáramos
precedentemente, ya que la ecuación característica es la misma:
a) 2 Raíces Reales distintas:
ψ t = c1 (1 / m1 )t + c 2 (1 / m2 )t ; ψ 0 = 1, ψ 1 = φ1
ψ 0 = c1 + c 2 = 1
c1 c 2
+
= φ1
m1 m 2
m1 y m2 a su vez son función de φ1 y de φ 2 por lo cual c1 y c 2 también lo serán.
Una vez determinados c1 y c 2 se reemplazan en la fórmula para calcular ψ t
quedando así determinado ψ t para todo t.
b) 2 Raíces Reales iguales:
ψ t = (c1 + c 2 t )(1 / m )t
ψ 0 = c1 = 1
ψ1 =
c1 + c 2
= φ1
m
Idem al caso anterior, se determinan c1 y c 2 y se reemplazan en la fórmula para
calcular ψ t .
c) 2 Raíces Complejas y Conjugadas:
ψ1 =
Siendo i = − 1 , las raíces de la ecuación característica serán de la forma
m = a ± bi = re ± iθ = r (cos(θ ) ± isen(θ ) ) = re ± iθ
r = a ± bi = a 2 + b 2

cos(θ ) =
θ: 
sen(θ ) =

a
r 
b

r
−π ≤θ ≤ π
Observación:
La igualdad entre la forma trigonométrica y exponencial r (cos(θ ) ± isen(θ ) ) = re ± iθ
Proviene de los siguientes desarrollos de cos θ y de i sen θ en el punto θ = 0 :
 θ2 θ4 θ6

cosθ = 1 −
+
−
+ .......
2! 4! 6!


3
5
7


iθ
iθ
iθ
isenθ = iθ −
+
−
+ .......
3!
5!
7!


22
Notas del Curso de Series Temporales I. Licenciatura de estadística. Facultad de
Ciencias Económicas y Administración


θ 2 iθ 3 θ 4
cosθ + isenθ = 1 + iθ −
−
+
+ ......... = e iθ
2!
3!
4!


A estas representaciones se les denomina forma cartesiana, trigonométrica y
exponencial.
La solución general tiene la misma estructura que se mostró antes:
t
t
t
1
1
1
ψ t = c1   e − iθ t + c 2   e iθt =   [(c 2 + c1 )cos (θ t ) + i (c 2 − c1 )sen (θ t )]
r
r
r
c1 y c 2 serán también complejos conjugados:
con c1 + c2 =A y c2 – c1 = B
A = C cos (δ)
B = C sen (δ)
y es equivalente a escribir:
ψ t = C (1 / r ) t [sen (θ × t − δ )]
t
1
  domina la tendencia. Si r > 1, tiende a 0 al tender t a ∞. Si r < 1, tiende a ∞ al
r
tender t a ∞.
t
t
1
1
El parámetro   define la amplitud de la representación C   . Para que la
r
r
secuencia representada por Yt sea convergente, será necesario que r > 1 en valor
absoluto.
El parámetro θ representa la frecuencia angular y define el número de ciclos por
unidad de tiempo, la inversa del período. La frecuencia se mide en radianes.
El parámetro δ representa la fase, la situación del ciclo en cada momento del tiempo,
define la ordenada en el origen t = 0.
ψ 0 = c1 + c 2 = 1
1
ψ 1 =  [(c 2 + c1 ) cos θ + i (c 2 − c1 ) sen θ ] = φ 1
r
Como c1 y c 2 son complejos conjugados, los ψ t son siempre reales.
Aunque esta expresión es algo compleja de obtener, permite establecer con sencillez
los patrones de evolución temporal del proceso, ya que lo que obtuvimos es una
función trigonométrica sencilla de representar, con claros patrones periódicos.
Cuando las raíces son reales, la convergencia a 0 es exponencial. Cuando las raíces son
complejas, la convergencia a 0 es oscilante.
23
Notas del Curso de Series Temporales I. Licenciatura de estadística. Facultad de
Ciencias Económicas y Administración
Ejemplo: AR(2)
1- (1 − 0,75L + 0,125L2 )X t = ε t
2- (1 − 0,8 L + 0,6 L2 )X t = ε t
−1 
 m2
 n −t

 1
 c1 
1
1  c1 
m1
m1n −t  X t −n 

  + ∑ψ k ε t −k ; y   =

 entonces:
X t =  t
t 
1  X t −n −1 
 c 2  m2 − m1  − m1
 m1 m2  c 2  k =0
 n −t

m2n −t 
 m2
n −1

 m2 m1 

 − 1 1 
1
1
 n − n  X t −n + 
 n + n  X t −n −1 + ∑ψ k ε t −k
X t = 
k =0
 m2 − m1  m1 m2 
 m2 − m1  m1 m2 
n −1
En este caso particular, m1 = 2 y m2 = 4 .
n −1
1 4
2 
1  −1 1 
X t =  n − n  X t −n +  n + n  X t −n −1 + ∑ψ k ε t −k
22
4 
22
4 
k =0
Como las raíces son mayores que 1, a medida que crece n el pasado va perdiendo
importancia, y el proceso depende cada vez menos de condiciones iniciales.
Si hacemos n = 1 :
X t = 0,75 X t −1 − 0,125 X t − 2 + ε t
En el segundo ejemplo las raíces serán complejas:
0,8 ± − 1,76 2
1 − 0,8 z + 0,6 z 2 = 0 ⇒ z = a ± bi =
= ± 1,10554 i . Podemos expresar
1,2
3
esto de diferentes formas más o menos convenientes. Una forma que permite visualizar
el comportamiento tanto de la FAC como de los ψ k es hacer que aparezca el módulo
del complejo: r.
r = a 2 + b 2 = 1,291
cosθ = 0,5164 ⇒θ = 0,3273π
a ± bi = r (cosθ ± i sen θ ) = re ± θi = 1,291e ± 0,3273πi
la fórmula que deriváramos para ψ k era:
k
k
1
1
1
ψ k = c1   e − i θ k + c 2   e i θ k =  
r
r
r
ψk
 1 
=

 1,291 
k
[(c 2
k
[(c 2 + c1 ) cos (θ k ) + i (c 2 − c1 ) sen (θ k )]
+ c 1 ) cos (0,3273 π k ) + i (c 2 − c 1 ) sen (0,3273 π k )]
calculando c1 y c 2 (tarea) obtenemos:
k
ψk
 1 
=
 [cos (0,3273 π k ) − i 0,603 sen (0,3273 π k )]
 1,291 
La expresión del segundo paréntesis oscilará acotada, por lo que (como ya sabemos) la
convergencia estará determinada sólo por la expresión en el primer paréntesis.
En este caso, 1 = 0,7746 < 1 , y por tanto los ψj irán a 0 a medida que k crezca. La
1,291
evolución será precisamente la mostrada en el gráfico de ψj presentado anteriormente.
24
Notas del Curso de Series Temporales I. Licenciatura de estadística. Facultad de
Ciencias Económicas y Administración
Ejemplo en R
0
-4
-2
ar2
2
4
1. Raíces complejas
set.seed(5)
ar2=arima.sim(list(order=c(2,0,0),ar=c(0.8,-0.6)),n=150)
plot.ts(ar2,axes=F);box();axis(2)
axis(1,seq(0,150,25))
abline(v=seq(0,150,10),lty="dotted")
0
25
50
75
100
125
150
Time
Grafico la Función de autocorrelación
-0.5
0.0
acf
0.5
1.0
acf=ARMAacf(ar=c(0.8,-0.6),ma=0,50)
plot(acf,type="h",xlab="lag")
abline(h=0)
0
10
20
30
40
50
lag
25
Notas del Curso de Series Temporales I. Licenciatura de estadística. Facultad de
Ciencias Económicas y Administración
Cálculo de los primeros 50 ψ
ARMAtoMA(ar=c(0.8,-0.6),ma=0,50)
[1]
[6]
[11]
[16]
[21]
[26]
[31]
[36]
[41]
[46]
8.000000e-01
1.997440e-01
-1.593131e-02
-1.922306e-02
-3.214780e-03
7.499849e-04
4.237378e-04
3.985274e-05
-2.371677e-05
-8.593650e-06
4.000000e-02 -4.480000e-01 -3.824000e-01 -3.712000e-02
1.820672e-01 2.580736e-02 -8.859443e-02 -8.635996e-02
3.907093e-02 4.081553e-02 9.209866e-03 -1.712142e-02
-5.105593e-03 7.449361e-03 9.022845e-03 2.748659e-03
-4.221019e-03 -1.447947e-03 1.374254e-03 1.968171e-03
-5.809148e-04 -9.147228e-04 -3.832294e-04 2.422502e-04
1.936401e-04 -9.933059e-05 -1.956485e-04 -9.692047e-05
9.003448e-05 4.811594e-05 -1.552794e-05 -4.129191e-05
5.801733e-06 1.887145e-05 1.161612e-05 -2.029974e-06
-5.656935e-06 6.306415e-07 3.898674e-06 2.740555e-06
Gráfico de los primeros 50 ψ
0.6
0.4
0.2
0.0
-0.2
-0.4
ARMAtoMA(ar = c(0.8, -0.6), ma = 0, 50)
0.8
plot(ARMAtoMA(ar=c(0.8,-0.6),ma=0,50),type="l")
abline(h=0)
0
10
20
30
40
50
Index
2. Raíces complejas
set.seed(5)
ar2=arima.sim(list(order=c(2,0,0),ar=c(1.5,-0.75)),n=150)
plot.ts(ar2,axes=F);box();axis(2)
axis(1,seq(0,150,25))
abline(v=seq(0,150,10),lty="dotted")
26
0
-4
-2
ar2
2
4
6
Notas del Curso de Series Temporales I. Licenciatura de estadística. Facultad de
Ciencias Económicas y Administración
0
25
50
75
100
125
150
Time
Grafico la Función de autocorrelación
-0.4
-0.2
0.0
0.2
acf
0.4
0.6
0.8
1.0
acf=ARMAacf(ar=c(1.5,-0.75),ma=0,50)
plot(acf,type="h",xlab="lag")
abline(h=0)
0
10
20
30
40
50
lag
Cálculo de los primeros 50 ψ
ARMAtoMA(ar=c(1.5,-0.75),ma=0,50)
Gráfico de los primeros 50 ψ
plot(ARMAtoMA(ar=c(1.5,-0.75),ma=0,50),type="l")
27
Notas del Curso de Series Temporales I. Licenciatura de estadística. Facultad de
Ciencias Económicas y Administración
1.0
0.5
0.0
-0.5
ARMAtoMA(ar = c(1.5, -0.75), ma = 0, 50)
1.5
abline(h=0)
0
10
20
30
40
50
Index
3. Raíces reales y distintas
0.0
0.2
0.4
acf
0.6
0.8
1.0
set.seed(25)
ar2=arima.sim(list(order=c(2,0,0),ar=c(0.75,-0.125)),n=150)
plot.ts(ar2,axes=F);box();axis(2)
axis(1,seq(0,150,25))
abline(v=seq(0,150,10),lty="dotted")
acf=ARMAacf(ar=c(0.75,-0.125),ma=0,50)
plot(acf,type="h",xlab="lag")
abline(h=0)
0
10
20
30
40
50
lag
Cálculo de los primeros 50 ψ
ARMAtoMA(ar=c(0.75,-0.125),ma=0,50)
28
Notas del Curso de Series Temporales I. Licenciatura de estadística. Facultad de
Ciencias Económicas y Administración
Gráfico de los primeros 50 ψ
0.6
0.4
0.2
0.0
ARMAtoMA(ar = c(0.75, -0.125), ma = 0, 50)
plot(ARMAtoMA(ar=c(0.75,-0.125),ma=0,50),type="l")
abline(h=0)
0
10
20
30
40
50
Index
Observación 1: Los ψ k se irán a 0 en forma sinusoidal (raíces complejas) o lo harán
como combinación lineal de términos exponenciales.
Observación 2: Condición de estacionariedad
Para que X t sea una serie estacionaria, necesitamos que los momentos no dependan de
t.
∞
∞
k =0
k =0
X t = ∑ψ k ε t −k ; E ( X t ) = 0; V ( X t ) = σ 2 ∑ψ k2 , ambos momentos son independientes de
t. Además la V ( X t ) debe ser finita. Entonces habrá que exigir que
∞
∑ψ
k =0
2
k
<∞.
∞
 1 
 1 
< ∞ ⇒ ∑ψ k2 < ∞ y además ψk ≤ c1  k  + c 2  k 
k =0
k =0
 m1 
 m2 
para el caso de 2 raíces reales y distintas, etc.
∞
∞
∞

COV ( X t X t + s ) = E ∑ψ k ε t −k ∑ψ i ε t + s −i  = σ 2 {ψ 0ψ s + ψ 1ψ s +1 + ... } = σ 2 ∑ψ kψ k + s = γ s
i =0
k =0
 k =0

no depende de t y además es finita.
Estas son las condiciones que deben cumplir la esperanza, varianza y autocovarianzas
∞
Se puede demostrar que si
∑ψ
k
para que un proceso sea estacionario.
29
Notas del Curso de Series Temporales I. Licenciatura de estadística. Facultad de
Ciencias Económicas y Administración
Observación 3: Condición de estacionariedad sobre φ1 y φ 2
Para que las raíces sean mayores que 1 en módulo,
− φ 1 ± φ1 + 4φ 2
2φ 2
> 1 , debe
φ 2 + φ1 < 1

cumplirse que: φ 2 − φ 1 < 1
 φ <1
 2
Y esto se puede graficar:
φ2
2
φ2-φ1=1
1
φ2+φ1=1
0
-3
-2
-1
Raíces0Complejas1
2
φ1
3
-1
-2
4φ2+φ12=1
Para que las raíces sean complejas, φ12 + 4φ 2 < 0 . Además las desigualdades son
estrictas, el borde no entra.
Cálculo de los γ k
Los γ k por definición se calculan como la Covarianza entre X t y X t −k . Pero si
sabemos que el proceso AR(2) es estacionario, una forma más simple es:
X t = φ 1 X t −1 + φ 2 X t − 2 + ε t
(i ) E ( X t ) = µ = φ 1 µ + φ 2 µ ⇒ µ = 0
Multiplicamos ahora el proceso por X t , y tomamos esperanza a ambos lados de la
igualdad:
E ( X t X t ) = φ 1 E ( X t −1 X t ) + φ 2 E ( X t − 2 X t ) + E (ε t X t )
γ 0 = φ 1γ 1 + φ 2 γ 2 + σ 2
multiplicando el proceso por X t −1 y tomando esperanza,
γ 1 = φ1γ 0 + φ 2 γ 1 + 0
multiplicando el proceso por X t −2 y tomando esperanza,
γ 2 = φ 1γ 1 + φ 2 γ 0
y en general,
30
Notas del Curso de Series Temporales I. Licenciatura de estadística. Facultad de
Ciencias Económicas y Administración
γ k = φ1γ k −1 + φ 2 γ k − 2 ∀k > 1 ,
es decir, γ k satisface la misma ecuación en diferencias que el proceso X t :
(1 − φ L − φ L )γ
= 0 ∀k > 1 . Las que serán diferentes serán las condiciones iniciales,
las cuales obtendremos a partir de γ 0 , γ 1 y γ 2 .
2
1
 1

 − φ1
−φ
 2
2
− φ1
1
k
− φ 2  γ 0   σ 2 
   
− φ 1  γ 1  =  0 
1  γ 2   0 
− φ1
Si dividimos en la definición de la ecuación diferencial por γ 0
(1 − φ L − φ L )ρ
tenemos:
= 0 ∀k > 1
A través de los dos ejemplos, tenemos dos modelos para mostrar autocorrelación. Uno
donde los gammas tienden a 0 en forma oscilante, que es el caso de raíces complejas, y
otro donde la evolución hacia cero será una combinación lineal de dos exponenciales.
2
1
2
k
31
Descargar