Series de tiempo Introducción Una serie de tiempo es una colección de observaciones realizadas de forma secuencial a lo largo del tiempo. Una caracterı́stica intrı́nseca muy importante de las series de tiempo, es que, generalmente, hay dependencia entre observaciones adyacentes. La naturaleza de esta dependencia entre las observaciones, es de gran interés práctico. El análisis de series de tiempo consiste en el uso de técnicas estadı́sticas para analizar esta dependencia, que requiere el desarrollo de modelos estocásticos y dinámicos para los datos de series de tiempo y su uso en diversas áreas de aplicación. Ejemplos reales de series de tiempo • IPC, PIB, inflación, precio del petróleo, precio de una acción bursátil, precipitación pluvial, niveles diarios de algún contaminante, nivel de exportaciones de un paı́s, número de robos diarios, consumo de un producto, nivel de agua de un rı́o o presa, y un larguı́simo etc., etc., etc. • Series de tiempo discretas. Una serie de tiempo se considera discreta cuando las observaciones se toman en un conjunto de tiempos discretos, generalmente, igualmente espaciados. El término “discreta” se usa para series con esta caracterı́stica, no obstante que la variable medida sea continua. • Series de tiempo continua. Una serie de tiempo se considera continua cuando las observaciones se hacen de manera continua a lo largo de un intervalo de tiempo. El adjetivo “continua” se usa para este tipo de series, no obstante que la variable medida sólo tome valores en un conjunto discreto. Objetivos del análisis de series de tiempo • Descripción de los datos • Interpretación de los datos • Pronóstico (Uno de los objetivos usualmente más importantes) 1 • Control • Modelación / Pruebas de hipótesis Conceptos asociados a una serie de tiempo • Sea {Xt , t = 0, ±1, ±2, ...} una serie de tiempo. La función media de Xt , se define como µX (t) = E(Xt ) • La función de covarianza de Xt , se define como γX (r, s) = covX (Xr , Xt ) = E [(Xr − µr )(Xs − µs )] Estacionariedad : Hablando vagamente, una serie de tiempo {Xt , t = 0, ±1, ±2, ...} se dice que es estacionaria, si no tiene cambios sistemáticos en la media (no hay tendencia de la serie), si no tiene cambios sistemáticos en la varianza (la varianza es constante a lo largo del tiempo) y si no hay variaciones periódicas (no tiene ciclos). En otras palabras, las caracterı́sticas de un segmento de los datos, son similares a las de cualquier otro segmento. Mucha de la teorı́a de series de tiempo es sobre series estacionarias, por esta razón el análisis de series de tiempo algunas veces requiere de transformaciones de series no estacionarias a estacionarias, para hacer uso de esta teorı́a. • Estacionariedad estricta Una serie de tiempo {Xt , t = 0, ±1, ±2, ...} se dice que es estrictamente estacionaria si la distribución conjunta de X1 , X2 , ..., Xk es la misma que X1+τ , X2+τ , ..., Xk+τ para todo entero k > 0,τ > 0. Esta propiedad es complicada de verificar, por lo que no es usual en la práctica. Una manera más simple y útil es caracterizar una serie a través de sus momentos, en particular, los dos primeros. • Estacionariedad débil Una serie de tiempo {Xt , t = 0, ±1, ±2, ...} se dice que es débilmente estacionaria o estacionaria de segundo orden si • µX (t) es independiente de t. 2 • γX (τ ) = γX (t + τ, t) es independiente de t esto significa que media y varianza son constantes y la función de autocovarianza sólo depende del retrazo(lag) de la serie. • Estrictamente estacionaria ⇒ Débilmente estacionaria • Si X1 , X2 , ..., Xn es normal multivariada ∀i = 1, ..., n y ∀n > 0, entonces Débilmente estacionaria ⇒ Estrictamente estacionaria Los valores de la función de autocovarianza dependen de las unidades de Xt , por lo que es más conveniente considerar la función de autocorrelación definida como ρX (τ ) = γX (τ ) γX (0) 2 con γX (0) = σX , la varianza de la serie. Propiedades de la función de autocorrelación • ρX (0) = 1 • ρX (τ ) = ρX (−τ ) • |ρ(τ )| ≤ 1 Algunas operadores aplicables a las series de tiempo • Operador de retrazo: Definimos el operador de retrazo B, como Bj Xt = Xt−j ∀j ∈ Z • Operador diferencia: Definimos el operador diferencia ∇, como ∇Xt = Xt − Xt−1 = (1 − B)Xt Estimación de las funciones asociadas a una serie de tiempo 3 Estimación de los coeficientes de autocorrelación Dadas las observaciones de una serie de tiempo Xt , la estimación de los coeficientes de autocorrelación son rk = n−k P (Xt − X̄)(Xt+k − X̄)/(n − k) t=1 n P , (Xt − k = 1, 2, ... X̄)2 /n t=1 con la correspondiente estimación de los coeficientes de autocovarianza dados por n−k 1 X (Xt − X̄)(Xt+k − X̄) ck = n − k t=1 El correlograma Una interpretación usual del conjunto de coeficientes de autocorrelación, se hace a través del correlograma, en el que se grafican los coeficientes estimados rk vs. su correspondiente retrazo k, k=0,1,2,...,M, con M usualmente mucho menor que n. Por supuesto, r0 es uno, ya que es la correlación de la serie con ella misma. Una inspección visual del correlograma, puede ser útil para apreciar el grado de asociación que guarda una observación con sus adyacentes, además de su orden (cuántas observaciones atrás se tiene una correlación importante). También ayuda a percibir si la serie tiene ciclos. Para determinar cuántos coeficientes de correlación pueden considerarse importantes, es necesario realizar las pruebas de hipótesis correspondientes H 0 : ρk = 0 vs. Ha : ρ 6= 0 La forma usual de saber qué correlaciones son estadı́sticamente significativas, es graficar las bandas de confianza en el correlograma. Las correlaciones que sobrepasen estas bandas, se considerarán significativamente distintas de cero. El correlograma con correlaciones parciales 4 En muchas ocaciones la correlación entre dos variables se debe a que están correlacionadas con una tercera, y no necesariamente entre sı́. La correlación parcial, es una medida de asociación que remueve la correlación que puede existir entre las variables de interés, con otras variables coleccionadas, para mostrar sólo la correlación entre estas variables, sin considerar la que tienen con el resto del conjunto. El correlograma con correlaciones parciales, es útil para determinar el orden de la serie de tiempo considerada. Series de tiempo vistas como procesos estocásticos La idea de usar modelos matemáticos para describir las caracterı́sticas de un fenómeno fı́sico, es muy común. Algunas veces es posible derivar un modelo con base en alguna ley fı́sica, que permite calcular el valor de alguna caracterı́stica, independiente del tiempo, casi de forma exacta en algún instante de tiempo. Este cálculo es posible, si el modelo es enteramente determinista. Probablemente el fenómeno fı́sico no sea totalmente determinista porque, por ejemplo, desconocemos algunos factores que pueden afectarlo a lo largo del tiempo. En estos casos, es posible derivar modelos que puedan utilizarse para calcular la probabilidad de que un valor futuro esté entre algunos lı́mites especı́ficos. Tales modelos se conocen como modelos de probabilidad o modelos estcásticos. Entonces, una serie de tiempo X1 , X2 , ..., Xn de n sucesivas observaciones, se puede ver como una realización muestral de un población infinita de tales series de tiempo que han sido generadas por el proceso estocástico subyacente. No unicidad de la función de autocorrelación La función de autocorrelación no identifica de manera única el modelo subyacente. Aunque un proceso estocástico dado tiene una única estructura de covarianza, el reverso no es cierto en general. Es posible encontrar muchos procesos normales y no normales con la misma función de autocorrelación, lo que genera dificultades para interpretar la correspondiente función de autocorrelación muestral. Modelos comunes para series de tiempo Existen varios procesos estocásticos que pueden ser apropiados como modelos para una serie de tiempo. Proceso puramente aleatorio Un proceso a tiempo discreto es puramente aleatorio si consiste en una secuencia de variables 5 aleatorias, {Xt }, que son mutuamente independientes e idénticamente distribuidas. General2 mente asumimos que las variables tienen distribución normal con media cero y varianza σX . Estas caracterı́sicas implican que el proceso tiene media y varianza constante. Además, el supuesto de independencia significa que γ(τ ) = Cov(Xt , Xt+τ ) = 2 σX , si k = 0 0, si k = ±1, ±2, ... que significa que no existe corelación entre los diferentes valores de la serie, y la función de autocorrelación esta dada por ρ(τ ) = Cov(Xt , Xt+τ ) = 1, si τ = 0 0, si τ = ±1, ±2, ... ya que la media y la función de autocorrelación no dependen del tiempo, el proceso es estacionario de segundo orden. De hecho, el supuesto de independencia implica que es estricatamente estacionario. Los procesos puramente aleatorios son útiles en muchas situaciones, particularmente para construir procesos más complejos. Los procesos puramente aleatorios reciben también el nombre de ruido blanco, particularmente en ingenierı́a. Caminata aleatoria Suponga que {Zt } es un proceso a tiempo discreto, puramente aleatorio con media µ y varianza σZ2 . Un proceso Xt se dice que es una caminata aleatoria, si Xt = Xt−1 + Zt , X0 = 0 ⇒ X1 = Z1 y Xt = t X Zi i=1 Entonces E(Xt ) = tµ y V ar(Xt ) = tσZ2 , por lo tanto, este proceso no es estacionario. No obstante, es interesante notar que el proceso dado por las diferencias ∇Xt = Xt − Xt−1 = Zt 6 sı́ es estacionario. Ejemplos que pueden ser modelados a través de una caminata aleatoria, son fenómenos que cuyo valor actual depende del valor inmediato anterior más alguna perturbación aleatoria. Por ejemplo, los precios diarios de algún insumo. Proceso de medias móviles Suponga que {Zt } es un proceso puramente aleatorio con media µ y varianza σZ2 . Un proceso Xt se dice que es un proceso de medias móviles de orden q (denotado como MA(q)) , si Xt = β0 Zt + β1 Zt−1 + · · · + βq Zt−q ′ con {βi } constantes. Las Z s, usualmente se escalan para tener β0 = 1. De esta definición se desprende que E(Xt ) = 0 V ar(Xt ) = σZ2 q X βi2 i=0 0, si τ > q q−τ X 2 γ(τ ) = βi βi+τ , si τ = 0, 1, ..., q σZ i=0 γ(−τ ) si τ < 0 Como γ(k) no depende de t, y además la media es constante, el proceso es estacionario de ′ ′ segundo orden. Si las Z s se distribuyen normal, entonces las X s también lo son, y tenemos un proceso normal estrictamente estacionario. La función de autocorrelación del modelo MA(q) está dada por 7 1, si τ = 0 q−τ P βi βi+τ i=0 , si τ = 0, 1, ..., q q P 2 ρ(τ ) = βi i=0 0, si τ > q ρ(−τ ) si τ < 0 No es necesario hacer ninguna restricción de las {βi } para un modelo MA de orden finito, pero generalmente es deseable imponer restricciones sobre estos coeficientes para asegurar que el procso satisface la condición llamada invertibilidad, condición que discutiremos posteriormente. Procesos autorregresivos Suponga que {Zt } es un proceso puramente aleatorio con media cero y varianza σZ2 . Un proceso Xt se dice que es un proceso autorregresivo de orden p (denotado como AR(p)) , si Xt = α1 Xt−1 + α2 Xt−2 + · · · + αp Xp + Zt similar al modelo de regressión lineal múltiple, sólo que Xt tiene como regresores valores anteriores de ella misma, y no variables de otra naturaleza. Esto explica el prefijo auto. Para deducir las caracterı́sticas de este proceso, consideremos el modelo AR(1), también conocido como proceso de Markov. Xt = αXt−1 + Zt Si realizamos sustituciones sucesivas en la expresión anterior, tenemos Xt = α(αXt−1 + Zt−1 ) + Zt = α2 (αXt−3 + Zt−2 ) + αZt−1 + Zt que, eventualmente, puede escribirse como un proceso de medias móviles de orden infinito, de la forma 8 Xt = Zt + αZt−1 + α2 Zt−2 + · · · con −1 < α < 1 para garantizar que la suma converge. La posibilidad de que un proceso AR pueda escribirse como un MA y viceversa, significa que existe una dualidad entre procesos AR y MA, que es útil para diversos propósitos. En lugar de las sustituciones sucesivas, podemos utilizar el operador de retrazo B. Entonces, podemos escribir el AR(1) como (1 − αB)Xt = Zt de donde tenemos que Xt = Zt (1 − αB) = (1 + αB + α2 B2 + · · · )Zt = Zt + αZt−1 + α2 Zt−2 + · · · Dada esta expresión es claro que E(Xt ) = 0 V ar(Xt ) = σZ2 (1 + α2 + α4 + · · · ) Entonces, la varianza será finita, si |α| < 1, en cuyo caso 2 σX = V ar(Xt ) = La función de autocovarianza está dada por γ(τ ) = E [Xt Xt+τ ] =E " = σZ2 ∞ X αi Zt−i i=0 ∞ X αi ατ +i ! ∞ X αj Zt+τ −j j=0 !# para τ ≥ 0 i=0 9 σZ2 1 − α2 = ατ σZ2 (1 − α2 ) para |α| < 1 2 = ατ σX para τ < 0, tenemos γ(τ ) = γ(−τ ). Como γ(τ ), no depende de t, un AR(1) es estacionario de segundo orden, si |α| < 1, y su función de autocorrelación está dada por ρ(τ ) = ατ τ = 0, 1, 2, ... que es una función par, entonces ρ(τ ) = α|τ | Doble representación de un AR(1) Representamos el proceso AR(1) de dos maneras, a saber (1 − αB)Xt = φ(B)Xt = Zt y Xt = Zt = ψ(B)Zt (1 − αB) con ψ(B) = 1 + αB + α2 B2 + · · · En el caso general de un proceso AR(p), de la misma forma como se hizo para el AR(1), se puede escribir como un proceso de medias móviles de orden infinito, a través de las sustituciones sucesivas, o, más fácil, utilizando el operador de retrazo. Xt = α1 BXt + α2 B2 Xt + · · · + αp Bp Xt + Zt ⇒ (1 − α1 B − α2 B2 − · · · − αp Bp )Xt = Zt Entonces, al igual que el AR(1), un AR(p) puede escribirse de las formas φ(B)Xt = Zt y Xt = ψ(B)Zt 10 con φ(B) un polinomio de orden p en B, dado por φ(B) = 1 − α1 B − α2 B2 − · · · − αp Bp y ψ(B) = ψ0 + ψ1 B + ψ2 B2 + · · · En el caso del AR(1) la relación entre los coeficientes de estas dos expresiones del proceso, fue que los coeficientes de ψ(B) resultaron potencias del coeficiente α en φ(B). Pero no es claro cómo se da, en general, la relación entre los coeficientes de ambas expresiones. Ejemplo simple: AR(2) Consideremos el modelo AR(2), dado por Xt = 1.3Xt−1 − 0.4Xt−2 + Zt entonces φ(B) = 1 − 1.3B + 0.4B2 . Nos preguntamos si es posible tratar la parte derecha de φ(B) como si tratara de un AR(1) para obtener la relación entre las representaciones?. Sabemos que el modelo se puede escribir además como Xt = Zt 1 − 1.3B + 0.4B2 Si factorizamos el polinomio de segundo orden en B, tenemos φ(B) = 1 − 1.3B + 0.4B2 = (1 − 0.5B)(1 − 0.8B) note que las raices de φ(B), son los inversos de los coeficientes de B en la factorización del polinomio. Podemos ver que 8 − 35 1 3 = + 1 − 0.5B 1 − 0.8B 1 − 1.3B + 0.4B2 11 entonces 8 − 53 3 Xt = Zt + 1 − 0.5B 1 − 0.8B ∞ X 8 5 i i = − (0.5) + (0.8) Zt−i 3 3 i=0 entonces, concluimos que para la representación en términos de ψ(B) ψk = 5 8 − (0.5)k + (0.8)k 3 3 Y para un AR(p) en general? Supongamos que Xt es AR(p). Entonces Xt = ψ(B)Zt y además como φ(B)Xt = Zt , tenemos φ(B)Xt = Zt = φ(B)ψ(B)Zt entonces φ(B)ψ(B) = 1 equivalentemente φ(B)ψ(B) = 1 + 0B + 0B2 + 0B3 + · · · es decir (1 − φ1 B − φ2 B2 − · · · − αp Bp )(ψ0 + ψ1 B + ψ2 B2 + · · · ) = 1 + 0B + 0B2 + 0B3 + · · · Igualando los coeficientes de ambos desarrollos, tenemos 12 ψ0 = 1 para los coeficientes asociados a B1 , tenemos (ψ1 − φ1 ψ0 )B1 = 0B1 ⇒ ψ1 − φ1 ψ0 = 0 y, ya que ψ0 = 1 ⇒ ψ1 = φ1 para los coeficientes de B2 , tenemos (ψ2 − φ1 ψ1 − φ2 ψ0 )B2 = 0B2 ⇒ ψ2 − φ1 ψ1 − φ2 ψ0 = 0 ⇒ ψ2 = φ1 ψ1 + φ2 ψ0 = φ21 + φ2 En general, para los coeficientes asociados a Bk , tenemos (ψk − φ1 ψk−1 − φ2 ψk−2 − · · · − φp ψk−p )Bk = 0Bk de donde obtenemos el siguiente resultado. Para un proceso estacionario AR(p), φ(B)Xt = Zt , su representación de la forma Xt = ψ(B)Zt , está dada por la forma recursiva de los coeficientes ψk ψk = φ1 ψk−1 + φ2 ψk−2 + · · · + φp ψk−p con los valores iniciales ψ0 = 1, ψk = 0 ∀ k < 0 En nuestro ejemplo Xt = 1.3Xt−1 − 0.4Xt−2 + Zt φ1 = 1.3, φ2 = −0.4 ⇒ ψk = 1.3ψk−1 − 0.4ψk−2 , con ψ0 = 1, ψ−1 = 0 Los primeros valores calculados con esta fórmula recursiva son 1.30000000 1.29000000 1.15700000 0.98810000 0.82173000 0.67300900 0.54621970 0.44088201 0.35465873 0.28470355 0.22825112 0.18284504 0.14639810 0.11717952 0.09377413 0.07503456 0.06003528 0.04803204 mismos que se obtienen evaluando la expresión 13 ψk = 5 8 − (0.5)k + (0.8)k 3 3 para k=1,2,... Observemos que estos coeficientes decrecen a cero, condición necesaria pero no suficiente para que el proceso sea estacionario. Funciones de autocovarianza y autocorrelación de un proceso AR(p) Ahora calcularemos la función de autocorrelación de un AR(p) general. Primero, recordar que γ(k), puede calcularse como γ(k) = ρ(k)γ(0) Entonces, del modelo AR(p), tenemos Xt = φ1 Xt−1 + φ2 Xt−2 + · · · + φp Xp + Zt Si multiplicamos el modelo por Xt en ambos lados de la igualdad, tenemos γ(0) = E [Xt2 ] = φ1 E [Xt Xt−1 ] +φ2 E [Xt Xt−2 ] + · · · + φp E [Xt Xt−p ] + E [Xt Zt ] | {z } | {z } | {z } | {z } γ(1) γ(2) γ(p) 2 σZ sustituyendo el valor de γ(k) = ρ(k)γ(0), y despejando γ(0), se tiene γ(0) = σZ2 1 − φ1 ρ(1) − φ2 ρ(2) − · · · − φp ρ(p) Para calcular la función de autocorrelación, multipliquemos el modelo por Xt−k , y tomemos la esperanza de esa expresión E [Xt Xt−k ] = φ1 E [Xt−1 Xt−k ] +φ2 E [Xt−2 Xt−k ] + · · · + φp E [Xt−p Xt−k ] + E [Zt Xt−k ] | {z } {z } {z } | | {z } | {z } | γ(k) γ(k−1) γ(k−2) γ(k−p) si dividimos por γ(0), obtenemos la forma recursiva para calcular ρ(k) ρ(k) = φ1 ρ(k − 1) + φ2 ρ(k − 2) + · · · + φp ρ(k − p) 14 =0 con ρ(0) = 1 y ρ(−k) = ρ(k). Procesos ARMA(p,q) Los modelos AR(p) son una clase general de procesos estocásticos que son prácticamente suficientes para las aplicaciones reales. No obstante, una forma de ampliar esta clase de modelos para series de tiempo, es incluir un proceso de medias móviles MA(q), para generar el proceso mixto conocido como proceso auto regresivo de medias móviles ARMA(p,q). Entonces, se dice que Xt es un proceso autoregresivo de medias móviles (denotado como ARMA(p,q)) si Xt = φ1 Xt−1 + φ2 Xt−2 + · · · + φp Xt−p + Zt + θ1 Zt−1 + θ2 Zt−2 + · · · θq Zt−q equivalentemente Xt = p X φi Xt−i + Zt + q X θi Zt−i i=1 i=1 o φ(B)Xt = θ(B)Zt Representación como un proceso de medias móviles Antes de hacer la representación general, la ilustraremos con el modelo ARMA(1,1). Entonces, el proceso ARMA(1,1) es Xt = φXt−1 + Zt + θZt−1 que podemos escribir como Xt = (1 − φB)−1 (1 + θB)Zt = (1 + φB + φ2 B2 + · · · )(1 + θB)Zt = ∞ X i=0 ! φi Bi (1 + θB) Zt 15 = 1+ ∞ X φi+1 Bi+1 + i=1 = Zt + (φ + θ) ∞ X θφi Bi+1 i=0 ∞ X ! Zt φi−1 Zt−i i=0 Ahora, desarrollemos las funciones de autocovariaza y de autocorrelación para este proceso particular. Del proceso original Xt = φXt−1 + Zt + θZt−1 multiplicando en ambos lados de la igualdad por Xt y tomando esperanzas γ0 = φE [Xt Xt−1 ] + E [Xt Zt ] + θE [Xt Zt−1 ] Por otro lado, multiplicando la misma igualdad pero ahora por Zt , y tomando esperanzas, tenemos E [Xt Zt ] = φE [Xt−1 Zt ] + E [Zt2 ] + θE [Zt−1 Zt ] = σZ2 ′ ya que Zt−1 depende las Z s hasta el tiempo t-1, pero no depende de Zt . Además 2 E [Xt Zt−1 ] = φE [Xt−1 Zt−1 ] + E [Zt Zt−1 ] + θE Zt−1 = φσZ2 + θσZ2 De estas igualdades tenemos que γ(0) = φγ(1) + [1 + θ(φ + θ)] σZ2 Ahora, para la función de autocovarianza en general, siguiendo el mismo proceso pero multiplicando por Xt−k , tenemos que γk = φE [Xt−k Xt−1 ] + E [Xt−k Zt ] + θE [Xt−k Zt−1 ] φγ(0) + θσz2 , si k = 1 = φγ(k − 1), si k ≥ 2 16 Puede observarse que conocidas las dos primeras autocovarianzas, γ(0) y γ(1), el resto pueden encontrarse fácilmente. Para obtener estas dos primeras, es necesario resolver el sistema γ(0) = φγ(1) + [1 + θ(φ + θ)] σZ2 γ(1) = φγ(0) + θσz2 cuya solución es γ(0) = (1 + 2φθ + θ2 )σZ2 1 − φ2 γ(1) = (1 + φθ)(φ + θ)σZ2 1 − φ2 por lo tanto φk−1 (1 + φθ)(φ + θ)σZ2 γ(k) = , 1 − φ2 k = 1, 2, ... y la correspondiente función de autocorrelación está dada por ρ(k) = φk−1 (1 + φθ)(φ + θ) , 1 + 2φθ + θ2 k = 1, 2, ... Representación de un ARMA(p,q) como un proceso de medias móviles Ahora hagamos la representación de un proceso general ARMA(p,q) como su correspondiente proceso de medias móviles. De la representación del ARMA(p,q) en términos de los operadores de retrazo, se tiene Xt = θ(B) Zt = ψ(B)θ(B)Zt = χ(B)Zt ⇒ θ(B)Zt = φ(B)χ(B)Zt φ(B) entonces, igualando los polinomios en B 1 + θ1 B + θ2 B2 + · · · + θq Bq = (1 − φ1 B − φ2 B2 − · · · − φp Bp )(χ0 + χ1 B + χ2 B2 + · · · ) 17 de donde se desprende que χ0 = 1 χ1 − χ0 φ1 = θ1 χ2 − χ1 φ1 − χ0 φ2 = θ2 .. . y, de forma general χj − p X φk χj−k = θj , j = 0, 1, 2, ... k=1 con θ0 = 1, θj = 0 para j > q y χj = 0 si j < 0. Funciones de autocovarianza y autocorrelación de un ARMA(p,q) Ya que es posible escribir el proceso AR(p,q) como uno de medias móviles infinito, entonces E(Xt ) = 0. Ahora, para deducir las funciones de autocovarianza y autocorrelación, consideremos la expresión del proceso Xt − φ1 Xt−1 − φ2 Xt−2 − · · · − φp Xt−p = Zt + θ1 Zt−1 + · · · + θq Zt−q multiplicando en ambos lados de la igualdad por Xt−k , k = 0, 1, 2... y tomando esperanzas, tenemos γ(k) − φ1 γ(k − 1) − φ2 γ(k − 2) − · · · − φp γ(k − p) = σZ2 q X θj ψj−k , 0 ≤ k < max(p, q + 1) j=0 de donde obtenemos q P θj ψj−k j=0 φ ρ(k − 1) − φ2 ρ(k − 2) − · · · − φp ρ(k − p) + P , 0≤k≤q ∞ 1 2 ψj ρ(k) = j=0 φ1 ρ(k − 1) − φ2 ρ(k − 2) − · · · − φp ρ(k − p), si k > q 18 el resultado del lado derecho de esta igualdad inicial, se desprende del hecho que podemos escribir el proceso Xt como uno de medias móviles infinito y después aplicamos el operador esperanza. Modelos ARIMA(p,d,q) En la introducción del modelo de caminata aleatoria, vimos que no era estacionario, porque tanto su media como su varianza eran funciones de t; sin embargo, el proceso definido por las diferencias ∇Xt = Xt − Xt−1 , sı́ es estacionario. Muchas series presentan dos componentes: un componente de tendencia no estacionario y otro componente de media cero estacionario. Por ejemplo Xt = µt + Zt con µt = β0 + β1 t y Zt un proceso estacionario. Pero, diferenciando este proceso obtenemos uno estacionario ∇Xt = Xt − Xt−1 = β0 + β1 t + Zt − (β0 + β1 (t − 1) + Zt−1 = β1 + Zt − Zt−1 Si el componente de tendencia no estacionaria µt fuera un polinomio de grado k, por ejemP plo, i.e. µt = kj=0 βj tj , entonces necesitarı́amos diferenciar k veces la serie (∇k Xt ) para que fuera estacionaria. El modelo ARMA integrado mejor conocido como ARIMA permite ampliar la clase de modelos ARMA para incluir diferenciación. Modelo ARIMA(p,d,q) Se dice que el proceso Xt es ARIMA(p,d,q), si ∇d Xt = (1 − B)d Xt es un modelo ARMA(p,q). Escribiremos de forma general estos modelos como φ(B)(1 − B)d Xt = θ(B)Zt Por supuesto, si d = 0, entonces el proceso es estacionario, de hecho, es un ARMA(p,q). Los modelos ARIMA son apropiados para modelar datos con tendencia. Estos modelos 19 pueden extenderse para incluir términos estacionales (ciclos), proporcionando un ARIMA no estacionario estacional, conocido como SARIMA. Un modelo ARIMA estacional, utiliza diferencias iguales al periodo de retrazo (ciclo) que se quiere remover. Una serie puede ser no estacionaria también por cambios en la varianza, conocida como heteroscedasticidad, que usualmente da como resultado periodos de volatilidad, en los que hay un claro cambio en la varianza de la serie. Este comportamiento es común en series financieras, pero puede ocurrir también en otras como las series climáticas. Transformaciones Box-Cox Algunas veces la no estacionariedad de la series se debe a que ésta es intrı́nsecamente no lineal. En estos casos, es necesario necesario transformar la serie para lograr que la variabilidad se estabilice. Una transformación particularmente útil para estos fines es la de Box-Cox, definida como Yt = (Xtλ − 1) , λ 6= 0 λ log(Xt ), si λ = 0 Existen diversos métodos para estimar el valor de λ en un caso particular. Algunas veces, esta transformación no sólo estabiliza la varianza, sino también hace que la serie sea lineal y se distribuya normal. 20