Subido por Esmeralda Ramírez

TIME SERIES ANALYSIS

Anuncio
TIME SERIES ANALYSIS
Alexander Aue
University of California, Davis
University of California, Davis
Time Series Analysis
Alexander Aue
This text is disseminated via the Open Education Resource (OER) LibreTexts Project (https://LibreTexts.org) and like the hundreds
of other texts available within this powerful platform, it is freely available for reading, printing and "consuming." Most, but not all,
pages in the library have licenses that may allow individuals to make changes, save, and print this book. Carefully
consult the applicable license(s) before pursuing such effects.
Instructors can adopt existing LibreTexts texts or Remix them to quickly build course-specific resources to meet the needs of their
students. Unlike traditional textbooks, LibreTexts’ web based origins allow powerful integration of advanced features and new
technologies to support learning.
The LibreTexts mission is to unite students, faculty and scholars in a cooperative effort to develop an easy-to-use online platform
for the construction, customization, and dissemination of OER content to reduce the burdens of unreasonable textbook costs to our
students and society. The LibreTexts project is a multi-institutional collaborative venture to develop the next generation of openaccess texts to improve postsecondary education at all levels of higher learning by developing an Open Access Resource
environment. The project currently consists of 14 independently operating and interconnected libraries that are constantly being
optimized by students, faculty, and outside experts to supplant conventional paper-based books. These free textbook alternatives are
organized within a central environment that is both vertically (from advance to basic level) and horizontally (across different fields)
integrated.
The LibreTexts libraries are Powered by NICE CXOne and are supported by the Department of Education Open Textbook Pilot
Project, the UC Davis Office of the Provost, the UC Davis Library, the California State University Affordable Learning Solutions
Program, and Merlot. This material is based upon work supported by the National Science Foundation under Grant No. 1246120,
1525057, and 1413739.
Any opinions, findings, and conclusions or recommendations expressed in this material are those of the author(s) and do not
necessarily reflect the views of the National Science Foundation nor the US Department of Education.
Have questions or comments? For information about adoptions or adaptions contact [email protected]. More information on our
activities can be found via Facebook (https://facebook.com/Libretexts), Twitter (https://twitter.com/libretexts), or our blog
(http://Blog.Libretexts.org).
This text was compiled on 07/18/2023
TABLE OF CONTENTS
Licensing
Materia Frontal
TitlePage
InfoPage
Tabla de Contenidos
Licencias
1: Conceptos básicos en series de tiempo
1.1: Introducción y ejemplos
1.2: Series de Tiempo Estacionarias
1.3: Eliminación de componentes de tendencia
1.4: Eliminación de componentes de tendencia y estacionales
1.5: Evaluación de los Residuales
1.6: Resumen
2: La estimación de la media y las covarianzas
2.1: Estimación de la media
2.2: Estimación de la función de autocovarianza
3: Procesos ARMA
3.1: Introducción a los procesos de media móvil autorregresiva (ARMA)
3.2: Causalidad e invertibilidad
3.3: El PACF de un proceso de ARMA Causal
3.4: Pronósticos
3.5: Estimación de parámetros
3.6: Selección de modelos
3.7: Resumen
4: Análisis espectral
4.1: Introducción al Análisis Espectral
4.2: La densidad espectral y el periodograma
4.3: Propiedades de muestra grande
4.4: Filtrado Lineal
4.5: Resumen
Index
Glossary
Detailed Licensing
Volver Materia
Índice
Glosario
1
https://espanol.libretexts.org/@go/page/160134
Licenciamiento Detallado
2
https://espanol.libretexts.org/@go/page/160134
Licensing
A detailed breakdown of this resource's licensing can be found in Back Matter/Detailed Licensing.
1
https://espanol.libretexts.org/@go/page/160135
CHAPTER OVERVIEW
Materia Frontal
TitlePage
InfoPage
Tabla de Contenidos
Licencias
Materia Frontal is shared under a not declared license and was authored, remixed, and/or curated by LibreTexts.
1
Universidad de California, Davis
Análisis de Series de Tiempo
Alexander Aue
TitlePage is shared under a not declared license and was authored, remixed, and/or curated by LibreTexts.
TitlePage has no license indicated.
This text is disseminated via the Open Education Resource (OER) LibreTexts Project (https://LibreTexts.org) and like the hundreds
of other texts available within this powerful platform, it is freely available for reading, printing and "consuming." Most, but not all,
pages in the library have licenses that may allow individuals to make changes, save, and print this book. Carefully
consult the applicable license(s) before pursuing such effects.
Instructors can adopt existing LibreTexts texts or Remix them to quickly build course-specific resources to meet the needs of their
students. Unlike traditional textbooks, LibreTexts’ web based origins allow powerful integration of advanced features and new
technologies to support learning.
The LibreTexts mission is to unite students, faculty and scholars in a cooperative effort to develop an easy-to-use online platform
for the construction, customization, and dissemination of OER content to reduce the burdens of unreasonable textbook costs to our
students and society. The LibreTexts project is a multi-institutional collaborative venture to develop the next generation of openaccess texts to improve postsecondary education at all levels of higher learning by developing an Open Access Resource
environment. The project currently consists of 14 independently operating and interconnected libraries that are constantly being
optimized by students, faculty, and outside experts to supplant conventional paper-based books. These free textbook alternatives are
organized within a central environment that is both vertically (from advance to basic level) and horizontally (across different fields)
integrated.
The LibreTexts libraries are Powered by NICE CXOne and are supported by the Department of Education Open Textbook Pilot
Project, the UC Davis Office of the Provost, the UC Davis Library, the California State University Affordable Learning Solutions
Program, and Merlot. This material is based upon work supported by the National Science Foundation under Grant No. 1246120,
1525057, and 1413739.
Any opinions, findings, and conclusions or recommendations expressed in this material are those of the author(s) and do not
necessarily reflect the views of the National Science Foundation nor the US Department of Education.
Have questions or comments? For information about adoptions or adaptions contact [email protected]. More information on our
activities can be found via Facebook (https://facebook.com/Libretexts), Twitter (https://twitter.com/libretexts), or our blog
(http://Blog.Libretexts.org).
This text was compiled on 07/18/2023
InfoPage is shared under a not declared license and was authored, remixed, and/or curated by LibreTexts.
TABLE OF CONTENTS
Licensing
Materia Frontal
TitlePage
InfoPage
Tabla de Contenidos
Licencias
1: Conceptos básicos en series de tiempo
1.1: Introducción y ejemplos
1.2: Series de Tiempo Estacionarias
1.3: Eliminación de componentes de tendencia
1.4: Eliminación de componentes de tendencia y estacionales
1.5: Evaluación de los Residuales
1.6: Resumen
2: La estimación de la media y las covarianzas
2.1: Estimación de la media
2.2: Estimación de la función de autocovarianza
3: Procesos ARMA
3.1: Introducción a los procesos de media móvil autorregresiva (ARMA)
3.2: Causalidad e invertibilidad
3.3: El PACF de un proceso de ARMA Causal
3.4: Pronósticos
3.5: Estimación de parámetros
3.6: Selección de modelos
3.7: Resumen
4: Análisis espectral
4.1: Introducción al Análisis Espectral
4.2: La densidad espectral y el periodograma
4.3: Propiedades de muestra grande
4.4: Filtrado Lineal
4.5: Resumen
Index
Glossary
Detailed Licensing
Volver Materia
Índice
Glosario
1
https://espanol.libretexts.org/@go/page/148665
Licenciamiento Detallado
Tabla de Contenidos is shared under a not declared license and was authored, remixed, and/or curated by LibreTexts.
2
https://espanol.libretexts.org/@go/page/148665
Licencias
A detailed breakdown of this resource's licensing can be found in Back Matter/Detailed Licensing.
Licencias is shared under a not declared license and was authored, remixed, and/or curated by LibreTexts.
1
https://espanol.libretexts.org/@go/page/148669
CHAPTER OVERVIEW
1: Conceptos básicos en series de tiempo
El primer capítulo explica las nociones básicas y destaca algunos de los objetivos del análisis de series temporales. En la sección
1.1 se dan varios ejemplos importantes, se discuten sus rasgos característicos y se deduce una aproximación general al análisis de
datos. En la Sección 1.2, los procesos estacionarios se identifican como una clase razonablemente amplia de variables aleatorias
que son capaces de capturar las principales características extraídas de los ejemplos. Finalmente, se discute cómo tratar las
tendencias deterministas y los componentes estacionales en las Secciones 1.3 y 1.4, y cómo evaluar los residuos en la Sección 1.5.
Concluye la sección 1.6.
1.1: Introducción y ejemplos
1.2: Series de Tiempo Estacionarias
1.3: Eliminación de componentes de tendencia
1.4: Eliminación de componentes de tendencia y estacionales
1.5: Evaluación de los Residuales
1.6: Resumen
This page titled 1: Conceptos básicos en series de tiempo is shared under a not declared license and was authored, remixed, and/or curated by
Alexander Aue.
1
1.1: Introducción y ejemplos
La primera definición aclara la noción de análisis de series temporales.
Definición 1.1.1: Series de Tiempo
Sea un conjunto de índices, convenientemente pensándose como “tiempo”. Una familia(X : t ∈ T ) de variables
aleatorias (funciones aleatorias) se denomina proceso estocástico. Una realización de(X : t ∈ T ) se llama serie temporal.
Utilizaremos la notación(x : t ∈ T ) en el discurso.
T ≠∅
t
t
t
Las opciones más comunes para el conjunto de índices T incluyen los enterosZ = {0, ±1, ±2, …}, los enteros positivos
N = {1, 2, …}, los enteros no negativosN = {0, 1, 2, …}, los números realesR = (−∞, ∞) y la hallínea positivaR
= [0, ∞) .
Esta clase se ocupa principalmente de los tres primeros casos que se subsumen bajo la noción de análisis de series de tiempo
discretas.
0
+
A menudo el proceso estocástico(X : t ∈ T ) se denomina en sí mismo como una serie temporal, en el sentido de que una
realización se identifica con el mecanismo generador probabilístico. El objetivo del análisis de series temporales es conocer este
fenómeno aleatorio subyacente a través del examen de una (y típicamente solo una) realización. Esto separa el análisis de series de
tiempo de, digamos, el análisis de regresión para datos independientes.
t
A continuación se dan varios ejemplos que enfatizan la multitud de posibles aplicaciones del análisis de series de tiempo en
diversos campos científicos.
Ejemplo 1.1.1 (números de manchas solares de Wö lfer). En la Figura 1.1, el número de manchas solares (es decir, manchas
oscuras visibles en la superficie del sol) que se observan anualmente se grafica contra el tiempo. El eje horizontal etiqueta el tiempo
en años, mientras que el eje vertical representa los valores observadosx de la variable aleatoria
t
Xt = # of sunspots at time t,
t = 1700, … , 1994.
A la figura se le llama trama de serie temporal. Es un dispositivo útil para un análisis preliminar. Los números de manchas solares
se utilizan para explicar las oscilaciones magnéticas en la superficie solar.
Figura 1.1: La mancha solar de Wölfer de 1700 a 1994.
Para reproducir una versión de la gráfica de series temporales de la Figura 1.1 utilizando el paquete de software libre R (las
descargas están disponibles en http://cran.r-project.org), descargue el archivo sunspots.dat de la página web del curso y
escriba los siguientes comandos:
> spots = leer.table (” sunspots.dat “)
> spots = ts (spots, start=1700, frecuencia=1)
> plot (spots, xlab="time”, ylab= "”, main="Number of Sun spots”)
En la primera línea, el archivo sunspots.dat se lee en los puntos del objeto, que luego en la segunda línea se transforma en
un objeto de serie de tiempo usando la función ts (). El uso de start establece el valor inicial para el eje x en un número
preespecificado, mientras que la frecuencia preestablece el número de observaciones para una unidad de tiempo. (Aquí: una
1.1.1
https://espanol.libretexts.org/@go/page/148673
observación anual.) Finalmente, plot es el comando de plotting estándar en R, donde xlab e ylab determinan las etiquetas para
el eje x y el eje y, respectivamente, y main da el título.
Ejemplo 1.1.2 (datos de lince canadiense). La gráfica de series de tiempo en la Figura 1.2 proviene de un conjunto de datos
biológicos. Contiene los rendimientos anuales de lince en subasta en Londres por la Hudson Bay Company de 1821—1934 (en una
log
escala). Estas son vistas como observaciones del proceso estocástico
10
Xt = log
10
(number of lynx trapped at time 1820 + t),
t = 1, … , 114.
Figura 1.2: Número de lince atrapado en el distrito del río MacKenzie entre 1821 y 1934.
Los datos se utilizan como estimación del número de lince atrapados a lo largo del río MacKenzie en Canadá. Esta estimación, a su
vez, suele tomarse como un proxy del verdadero tamaño poblacional del lince. Se pudo obtener una parcela similar de series de
tiempo para el conejo raqueta de nieve, la principal fuente de alimento del lince canadiense, insinuando una intrincada relación
depredador-presa.
Suponiendo que los datos se almacenan en el archivo lynx.dat, los comandos R correspondientes que conducen a la gráfica de
series de tiempo en la Figura 1.2 son:
> lince = leer.tabla (” lynx.dat “)
> lince = ts (log10 (lince), inicio=1821, frecuencia=1)
> parcela (lince, xlab="”, ylab= "”, main="Número de lince atrapado”)
Ejemplo 1.1.3 (Letras del Tesoro). Otro campo importante de aplicación para el análisis de series temporales se encuentra en el
área de las finanzas. Para cubrir los riesgos de las carteras, los inversionistas suelen utilizar tasas de interés libres de riesgo a corto
plazo, como los rendimientos de letras del Tesoro a tres meses, seis meses y doce meses trazadas en la Figura 1.3. Los datos
(multivariados) mostrados constan de 2 mil 386 observaciones semanales del 17 de julio de 1959 al 31 de diciembre de 1999. Aquí,
Xt = (Xt,1 , Xt,2 , Xt,3 ),
t = 1, … , 2386,
dondeX ,X yX denotan los rendimientos de tres meses, seis meses y doce meses en el tiempo t, respectivamente. Se puede
ver de la gráfica que las tres letras del Tesoro se están moviendo de manera muy similar a lo largo del tiempo, lo que implica una
alta correlación entre los componentes deX .
t,1
t,2
t,3
t
1.1.2
https://espanol.libretexts.org/@go/page/148673
Figura 1.3: Rendimientos de letras del Tesoro del 17 de julio de 1959, al 31 de diciembre de 1999.
Figura 1.4: S&P 500 del 3 de enero de 1972, al 31 de diciembre de 1999.
Para producir la gráfica de series de tiempo de tres variables en la Figura 1.3, utilice el código R
> bills03 = leer.table (” bills03.dat “);
> bills06 = leer.tabla (” bills06.dat “);
> bills12 = leer.tabla (” bills12.dat “);
> par (mfrow=c (3,1))
> plot.ts (bills03, xlab=" (a)”, ylab= "”,
principal="Rendimientos de Letras de Tesorería a 3 meses”)
> plot.ts (bills06, xlab= "(b)”, ylab= "”,
main="Rendimientos de Letras del Tesoro a 6 meses”)
> plot.ts (bills12, xlab= "(c)”, ylab= "”,
main="Rendimientos de Letras del Tesoro a 12 meses”)
1.1.3
https://espanol.libretexts.org/@go/page/148673
De nuevo se asume que los datos se pueden encontrar en los archivos correspondientes bills03.dat, bills06.dat y
bills12.dat. La línea de comandos par (mfrow=c (3,1)) se utiliza para configurar los gráficos. Permite guardar tres
parcelas diferentes en un mismo archivo.
Ejemplo 1.1.4 (S&P 500). El índice Standard and Poor's 500 (S&P 500) es un índice ponderado por valor basado en los precios de
500 acciones que representan aproximadamente el 70% de la capitalización bursátil estadounidense. Es un indicador económico
líder y también se utiliza para cubrir carteras de mercado. La Figura 1.4 contiene los 7,076 precios diarios de cierre del S&P 500
del 3 de enero de 1972 al 31 de diciembre de 1999, en escala logaritmo natural. En consecuencia, es la gráfica de series de tiempo
del proceso
Xt = ln(closing price of S&P 500 at time t),
t = 1, … , 7076.
Obsérvese que la transformación logarítmica se ha aplicado para hacer que los rendimientos sean directamente comparables al
porcentaje de retorno de la inversión. La gráfica de series de tiempo se puede reproducir en R usando el archivo sp500.dat
Hay innumerables otros ejemplos de todas las áreas de la ciencia. Para desarrollar una teoría capaz de manejar amplias
aplicaciones, el estadístico necesita apoyarse en un marco matemático que pueda explicar fenómenos como
tendencias (aparentes en el Ejemplo 1.1.4);
efectos estacionales o cíclicos (aparentes en los Ejemplos 1.1.1 y 1.1.2);
fluctuaciones aleatorias (todos los ejemplos);
dependencia (¿todos los Ejemplos?).
El enfoque clásico tomado en el análisis de series temporales es postular que el proceso estocástico(X : t ∈ T ) investigado puede
dividirse en tendencia determinista y componentes estacionales más un componente aleatorio centrado, dando lugar al modelo
t
Xt = mt + st + Yt ,
t ∈ T
(1.1.1)
donde(m : t ∈ T ) denota la función de tendencia (“componente medio”),(s : t ∈ T ) los efectos estacionales y(Y
proceso estocástico (media cero). Una vez elegido un modelo apropiado, el estadístico podrá apuntar a
t
t:
t
t ∈ T)
un
estimar los parámetros del modelo para una mejor comprensión de las series temporales;
predecir valores futuros, por ejemplo, para desarrollar estrategias de inversión;
comprobando la bondad de ajuste a los datos para confirmar que el modelo elegido es apropiado.
Los procedimientos de estimación y las técnicas de predicción se tratan en detalle en capítulos posteriores de las notas. El resto de
este capítulo se dedicará a introducir las clases de procesos estocásticos estricta y débilmente estacionarios (en la Sección 1.2) y a
proporcionar herramientas para eliminar tendencias y componentes estacionales de una serie temporal determinada (en las
Secciones 1.3 y 1.4), mientras que algunas pruebas de bondad de ajuste se presentarán en Sección 1.5.
Contribuidores
Template:ContribAue
This page titled 1.1: Introducción y ejemplos is shared under a not declared license and was authored, remixed, and/or curated by Alexander Aue.
1.1: Introduction and Examples by Alexander Aue has no license indicated.
1.1.4
https://espanol.libretexts.org/@go/page/148673
1.2: Series de Tiempo Estacionarias
Ajustar variables aleatorias independientes e idénticamente distribuidas a los datos es un concepto demasiado estrecho. Si bien, por
un lado, permiten un tratamiento matemático algo agradable y fácil, su uso es, por otro lado, a menudo difícil de justificar en las
aplicaciones. Por lo tanto, nuestro objetivo es introducir un concepto que mantenga algunas de las propiedades deseables de
variables aleatorias independientes e idénticamente distribuidas (“regularidad”), pero que también amplíe considerablemente la
clase de procesos estocásticos para elegir al permitir la dependencia así como las distribuciones variables. La dependencia entre dos
variables aleatoriasX y generalmenteY se mide en términos decovariance f unction
C ov(X, Y ) = E[(X − E[X])(Y − E[Y ])]
y elcorrelation f unction
C ov(X, Y )
C orr(X, Y ) =
−−−−−−−−−−−
−
√V ar(X)V ar(Y )
.
Con estas notaciones a la mano, se pueden introducir las clases de procesos estocásticos estricta y débilmente dependientes.
Definición 1.2.1 (Estricta Estacionariedad). Un proceso estocástico (X : t ∈ T ) se llama estrictamente estacionario si, para todos
t , . . . , t ∈ T yh tal quet + h, . . . , t + h ∈ T , sostiene que
\ [(
X_ {t_1},\ ldots, X_ {t_n})
\ stackrel {\ cal D} {=}
(X_ {t_1+h},\ ldots, X_ {t_n+h}).
\ nonumber\] Es
decir, las llamadas distribuciones finito-dimensionales del proceso son invariantes bajo los cambios de tiempo. Aquí= indica
igualdad en la distribución.
t
1
n
1
n
D
La definición en términos de la distribución finito-dimensional se puede reformular de manera equivalente en términos de las
igualdades de función de distribución conjunta acumulativa
P (Xt
1
≤ x1 , … , Xt
n
≤ xn ) = P (Xt
1
+h
≤ x1 , … , Xt
n
+h
≤ xn )
manteniéndose fiel para todosx , . . . , x ∈ R,t , . . . , t ∈ T yh tal quet + h, . . . , t + h ∈ T . Esto puede ser bastante difícil de
verificar para una serie temporal determinada, especialmente si el mecanismo generador de una serie temporal está lejos de ser
simple, ya que hay que estimar demasiados parámetros del modelo a partir de los datos disponibles, haciendo imposibles
declaraciones estadísticas concisas. Una posible excepción es proporcionada por el caso de variables aleatorias independientes e
idénticamente distribuidas.
1
n
1
n
1
n
Para sortear estas dificultades, un analista de series temporales normalmente solo especificará los momentos de primer y segundo
orden de las distribuciones conjuntas. Hacerlo entonces lleva a la noción de estacionariedad débil.
Definición 1.2.2 (Estacionariedad débil). Un proceso estocástico(X
t:
t ∈ T)
se llama débilmente estacionario si
los segundos momentos son finitos:E[X ] < ∞ for all t ∈ T ;
los medios son constantes:E[X ] = m para todost ∈ T ;
la covarianza deX yX
dependeh solo de:
2
t
t
t
t+h
γ(h) = γX (h) = C ov(Xt , Xt+h ),
h ∈ T such that t + h ∈ T ,
es independiente det ∈ T y se llama la función de autocovarianza (ACVF). Además,
γ(h)
ρ(h) = ρX (h) =
,
h ∈ T,
γ(0)
se llama la función de autocorrelación (ACF).
1.2.1
https://espanol.libretexts.org/@go/page/148674
OBSERVACIÓN 1.2.1. Si(X : t ∈ T ) ) es un proceso estocástico estrictamente estacionario con segundos momentos finitos,
entonces también es débilmente estacionario. Lo contrario no es necesariamente cierto. Si(X : t ∈ T ) , sin embargo, es débilmente
estacionario y gaussiano, entonces también es estrictamente estacionario. Recordemos que un proceso estocástico se llama
gaussiano si, para algunot , . . . , t ∈ T , el vector aleatorio(X , . . . , X ) es multivariado distribuido normalmente.
t
t
1
n
t1
tn
Esta sección se concluye con ejemplos de procesos estocásticos estacionarios y no estacionarios.
Figura 1.5:100 valores simulados de la serie temporal cíclica (panel izquierdo), la amplitud estocástica (panel medio) y la parte
sinusoidal (panel derecho).
Ejemplo 1.2.1 (Ruido Blanco). Dejar(Z : t ∈ Z) ser una secuencia de variables aleatorias de valor real, por pares no
correlacionadas conE[Z ] = 0 y0 < V ar(Z ) = σ < ∞ para todost ∈ Z . Entonces(Z : t ∈ Z) se llama ruido blanco, abreviado
por(Z : t ∈ Z) ∼ WN(0, σ ) . Define un proceso centrado, débilmente estacionario con ACVF y ACF dados por
\[
\ gamma (h) =\ left\ {\ begin {array} {r@ {\ quad\;} l}\ sigma^2, & h=0,\\ 0, & h\ not=0,\ end {array}\ right.
\ qquad\ mbox {y}\ qquad
\ rho (h) =\ left\ {\ begin {array} {r@ {\ quad\;} l} 1, & h=0,\\ 0, & h\ no=0,\ end {array}\ right.
\ nonumber\]
respectivamente. Si los(Z : t ∈ Z) son además independientes e idénticamente distribuidos, se les llama ruido iid, en breve
(Z : t ∈ Z) ∼ IID(0, σ ) . El panel izquierdo de la Figura 1.6 muestra 1000 observaciones de una secuencia de ruido iid
(Z : t ∈ Z) basada en variables aleatorias normales estándar. Los comandos R correspondientes para producir la gráfica son
t
2
t
t
t
2
t
t
2
t
t
> z = rnorm (1000,0,1)
> plot.ts (z, xlab= "”, ylab= "”, main= "”)
El comando rnorm simula aquí 1000 variables aleatorias normales con media 0 y varianza 1. Hay varios generadores de variables
aleatorias incorporados en R como las funciones runif (n, a, b) y rbinom (n, m, p) que simulan losn valores de una
distribución uniforme en el intervalo(a, b) y una distribución binomial con parámetro de repeticiónm y éxito probabilidadp,
respectivamente.
Figura 1.6:1000 valores simulados de ruido iid N (0, 1) (panel izquierdo) y una caminata aleatoria con innovaciones iid N (0, 1)
(panel derecho).
Ejemplo 1.2.2 (Series de Tiempo Cíclicas). DejarA yB ser variables aleatorias no correlacionadas con media cero y varianzas
V ar(A) = V ar(B) = σ
, y dejarλ ∈ R ser un parámetro de frecuencia. Define
\[
x_t=A\ cos (\ lambda t) +B\ sin (\ lambda t),\ qquad t\ in\ mathbb {R}.
\ nonumber\]
El
proceso
estocástico
resultante(X : t ∈ R)
es
entonces
débilmente
estacionario.
Ya
que
2
t
1.2.2
https://espanol.libretexts.org/@go/page/148674
, el proceso puede representarse como
\[
x_t=R\ sin (\ lambda t+\ varphi),\ qquad t\ in\ mathbb {R},
\ nonumber\]
asíR es la amplitud estocástica yφ ∈ [−π, π] la fase estocástica de una sinusoide. Algunos cálculos muestran que uno debe tener
A = R sin(φ) yB = R cos(φ) . En el panel izquierdo de la Figura 1.5, se(X )
muestran 100 valores observados de una serie.
En ella,λ = π/25 se utilizó, mientras queR yφ fueron variables aleatorias distribuidas uniformemente en el intervalo(−.5, 1) y
(0, 1), respectivamente. El panel central muestra la realización deR , el panel derecho la realización desin(λt + φ) . El uso de series
temporales cíclicas conlleva grandes ventajas cuando se tienen que modelar efectos estacionales, como los fenómenos recurrentes
anuales. Se pueden aplicar los siguientes comandos R:
sin(λt + φ) = sin(φ) cos(λt) + cos(φ) sin(λt)
t
t∈Z
> t = 1:100; R = runif (100, -.5,1); phi = runif (100,0,1); lambda = pi/25
> cyc = R*sin (lambda*t+phi)
> trazos.ts (cyc, xlab= "”, ylab= "”)
Esto produce el panel izquierdo de la Figura 1.5. Los paneles medio y derecho siguen de manera similar.
Ejemplo 1.2.3 (Paseo Aleatorio). Vamos(Z : t ∈ N) ∼ WN(0, σ ) . DejarS = 0 y
\[
s_t=z_1+\ lDots+z_t,\ qquad t\ in\ mathbb {N}.
\ nonumber\]
El proceso estocástico resultante(S : t ∈ N ) se llama caminata aleatoria y es la serie de tiempo no estacionaria más importante.
En efecto, sostiene aquí que, parah > 0 ,
\[
Cov (s_t, S_ {t+h}) =Cov (s_t, s_t+r_ {t, h}) =t\ sigma^2,
\ nonumber\]
dondeR = Z + … + Z
, y el ACVF obviamente depende det . En R, se puede construir una caminata aleatoria, por
ejemplo, con el siguiente comando simple que utiliza las 1000 observaciones normales almacenadas en la matriz z del Ejemplo
1.2.1.
2
t
t
t,h
t+1
0
0
t+h
> rw = cumsum (z)
La función cumsum toma como entrada una matriz y devuelve como salida una matriz de la misma longitud que contiene como su
j ésima entrada la suma de las j primeras entradas de entrada. La gráfica resultante de series de tiempo se muestra en el panel
derecho de la Figura 1.6.
El capítulo 3 analiza en detalle los llamados procesos de promedio móvil autorregresivos que se han convertido en un bloque
central en el análisis de series de tiempo. Se construyen a partir de secuencias de ruido blanco mediante la aplicación de un
conjunto de ecuaciones de diferencia estocásticas similares a las que definen la caminata aleatoria(S : t ∈ N ) del Ejemplo 1.2.3.
t
0
En general, los verdaderos parámetros de un proceso estocástico estacionario(X : t ∈ T ) son desconocidos para el estadístico. Por
lo tanto, tienen que ser estimados a partir de una realizaciónx , . . . , x . Aquí se utilizará el siguiente conjunto de estimadores. La
media muestral dex , . . . , x se define como
\[
\ bar {x} =\ frac 1n\ sum_ {t=1} ^nx_t.
\ nonumber\]
La función de autocovarianza de muestra (ACVF de muestra) viene dada por
\ begin {ecuación}\ label {eq:1.2.1}
\ hat { \ gamma} (h) =
\ frac 1n\ suma_ {t=1} ^ {n-h} (x_ {t+h} -\ bar {x}) (x_t-\ bar {x}),
\ qquad h=0,1,\ lpuntos, n-1.
\ end {ecuación}
Finalmente, la función de autocorrelación de muestra (muestra ACF) es
t
1
1
n
n
\ [\ hat {\ rho} (h) =\ frac {\ hat {\ gamma} (h)} {\ hat {\ gamma} (0)},
\ qquad h=0,1,\ ldots, n-1.
\ nonumber\]
1.2.3
https://espanol.libretexts.org/@go/page/148674
Ejemplo 1.2.4. Dejar(Z : t ∈ Z) ser una secuencia de variables aleatorias estándar independientes normalmente distribuidas (ver
el panel izquierdo de la Figura 1.6 para una realización típica de tamaño n = 1,000). Entonces, claramente,γ(0) = ρ(0) = 1 y
^(h) yρ
^(h) para
γ(h) = ρ(h) = 0 cuando seah ≠ 0 . En el cuadro 1.1 se indican los valores estimados correspondientesγ
h = 0, 1, … , 5.
t
Los valores estimados son todos muy cercanos a los verdaderos, lo que indica que los estimadores funcionan razonablemente bien
para n = 1,000. Efectivamente se puede demostrar que son asintóticamente imparciales y consistentes. Además, las
autocorrelaciones muestralesρ^(h) son aproximadamente normales con media y varianza cero1/1000. Véase también Teorema
1.2.1 a continuación. En R, la función acf se puede utilizar para calcular el ACF de muestra.
Teorema 1.2.1. Dejar(Z : t ∈ Z) ∼ WN(0, σ ) y dejarh ≠ 0 . Bajo un conjunto general de condiciones, se sostiene que el ACF
muestral al rezagoh ρ^(h) , es para grandesn aproximadamente distribuido normalmente con media cero y varianza 1/n.
2
t
El Teorema 1.2.1 y el Ejemplo 1.2.4 sugieren un primer método para evaluar si un conjunto de datos dado puede modelarse
convenientemente mediante una secuencia de ruido blanco: para una secuencia de ruido blanco, aproximadamente el 95% de los
ACF de muestra deben estar dentro del intervalo de confianza±2/√−
n . Usando los archivos de datos en la página web del curso, se
pueden calcular con R los ACF de muestra correspondientes para verificar la blancura de las series temporales subyacentes. Las
propiedades del ACF muestral se revisan en el Capítulo 2.
Figura1.7: Niveles anuales de agua del Lago Huron (panel izquierdo) y la parcela residual obtenida al ajustar una tendencia
lineal a los datos (panel derecho).
This page titled 1.2: Series de Tiempo Estacionarias is shared under a not declared license and was authored, remixed, and/or curated by
Alexander Aue.
1.2: Stationary Time Series by Alexander Aue has no license indicated.
1.2.4
https://espanol.libretexts.org/@go/page/148674
1.3: Eliminación de componentes de tendencia
En esta sección se desarrollan tres métodos diferentes para estimar la tendencia de un modelo de series temporales. Se supone que
tiene sentido postular el modelo (1.1.1) cons = 0 para todost ∈ T , es decir,
t
Xt = mt + Yt , t ∈ T
(1.3.1)
donde (sin pérdida de generalidad)E[Y ] = 0 . En particular, se discuten tres métodos diferentes, (1) la estimación de mínimos
cuadrados dem , (2) suavizado por medio de promedios móviles y (3) diferenciación.
t
t
Método 1 (Estimación de mínimos cuadrados) A menudo es útil suponer que un componente de tendencia puede ser modelado
apropiadamente por un polinomio,
p
mt = b0 + b1 t + … + bp t ,
En este caso, los parámetros desconocidosb
producen la tendencia polinómica estimada
0,
… , bp
p ∈ N0 .
pueden ser estimados por el método de mínimos cuadrados. Combinados,
p
^
^
^
m
^ t = b0 + b1 t + … + bp t ,
t ∈ T,
donde^b , … , ^b denotan las estimaciones correspondientes de mínimos cuadrados. Tenga en cuenta que el orden nop es estimado.
Tiene que ser seleccionado por el estadístico, por ejemplo, inspeccionando la trama de series de tiempo. Los residuosY^ se pueden
obtener como
0
p
t
p
^
^
^
^ t = Xt − ^
Y t = Xt − m
b0 − b1 t − … − bp t ,
t ∈ T.
La forma de evaluar la bondad de ajuste de la tendencia ajustada será objeto de la Sección 1.5 a continuación.
Ejemplo 1.3.1 (Nivel del Lago Huron). El panel izquierdo de la Figura 1.7 contiene la serie temporal de los niveles de agua
promedio anuales en pies (reducidos en 570) del lago Huron de 1875 a 1972. Es una realización del proceso
\[
x_t=\ mbox {(Nivel promedio de agua del Lago Huron en el año $1874+t$)} -570,
\ qquad t=1,\ ldots,98.
\ nonumber\] Parece
haber una disminución lineal en el nivel del agua y por lo tanto es razonable ajustar un polinomio de orden uno a los datos. Evaluar
los estimadores de mínimos cuadrados nos proporciona los valores
^
b 0 = 10.202
and
^
b 1 = −0.0242
para la intercepción y la pendiente, respectivamente. Los residuos observados resultantesy^ = Y^ (ω) se representan frente al
tiempo en el panel derecho de la Figura 1.7. No queda tendencia aparente en los datos. Por otro lado, la trama no soporta
fuertemente la estacionariedad de los residuos. Adicionalmente, hay evidencia de dependencia en los datos.
t
t
Para reproducir el análisis en R, supongamos que los datos están almacenados en el archivo lake.dat. Después usa los
siguientes comandos.
>
>
>
>
>
>
lake = read.table (” lake.dat “)
lake = ts (lago, start=1875)
t = 1:longitud (lago)
lsfit = lm (lake$^\ mathrm {\ sim} $t)
parcela (t, lago, xlab="”, ylab= "”, principal= "”)
líneas (lsfit {\ $} ajuste)
La función lm ajusta un modelo lineal o línea de regresión a los datos de Lake Huron. Para trazar tanto el conjunto de datos
original como la línea de regresión ajustada en la misma gráfica, primero puede trazar los niveles de agua y luego usar la función
lines para superponer el ajuste. Se puede acceder a los residuos correspondientes al ajuste del modelo lineal con el comando
lsfit$resid.
1.3.1
https://espanol.libretexts.org/@go/page/148668
\ end {exmp}
Método 2 (Suavizado con Medias Móviles) Dejar(X : t ∈ Z) ser un proceso estocástico siguiendo el modelo1.3.1. Eligeq ∈ N y
define la media móvil de dos lados
\ begin {ecuación}\ label {eq:wt}
w_t=\ frac {1} {2q+1}\ sum_ {j=-q} ^qx_ {t+j},\ qquad t\ in\ mathbb {Z}. \ tag {1.3.2}\ end {equation}
Las variables aleatorias seW pueden utilizar para estimar el componentem de tendencia de la siguiente manera. Primero tenga en
cuenta que
\[
w_t=\ frac {1} {2q+1}\ sum_ {j=-q} ^qm_ {t+j} +\ frac {1} {2q+1}\ sum_ {j=-q} ^qy_ {t+j}\ approx m_t,
\ nonumber\]
asumiendo que la tendencia es localmente aproximadamente lineal y que el promedio de laY sobreel intervalo[t − q, t + q] es
cerca de cero. Por lo tanto, sem puede estimar por
t
0
t
t
t
t
^ t = Wt ,
m
t = q + 1, … , n − q.
Observe que no hay posibilidad de estimar el primerq y último término den − q deriva debido a la naturaleza de dos lados de las
medias móviles. Por el contrario, también se pueden definir promedios móviles unilaterales dejando
^ 1 = X1 ,
m
^ t = aXt + (1 − a)m
^ t−1 ,
m
t = 2, … , n.
Figura 1.8: La media móvil de dos lados filtra W t para los datos de Lake Huron (panel superior) y sus residuales (panel
inferior) con ancho de banda q = 2 (izquierda), q = 10 (medio) y q = 35 (derecha).
La Figura 1.8 contiene estimadoresm
^
basados en los promedios móviles de dos lados para los datos de Lake Huron del Ejemplo
1.3.1. para elecciones seleccionadas deq (panel superior) y los residuales estimados correspondientes (panel inferior).
t
Los filtros de media móvil para este ejemplo se pueden producir en R de la siguiente manera:
>
>
>
>
>
>
t = 1:longitud (lago)
ma2 = filtro (lago, lados=2, rep (1,5) /5)
ma10 = filtro (lago, lados=2, rep (1,21) /21)
ma35 = filtro (lago, lados=2, rep (1,71) /71)
parcela (t, ma2, xlab= "”, ylab= "”, type="l”)
líneas (t, ma10); líneas (t, ma35)
Allí, los lados determinan si se va a usar un filtro de uno o dos lados. La frase rep (1,5) crea un vector de longitud 5
siendo cada entrada igual a 1.
1.3.2
https://espanol.libretexts.org/@go/page/148668
Se pueden obtener versiones más generales de los suavizadores de media móvil de la siguiente manera. Observe que en el caso de
la versión de dos carasW cada variableX , … , X
obtiene un “peso”a = (2q + 1) . La suma de todos los pesos es así
igual a uno. Lo mismo es cierto para los promedios móviles unilaterales con pesosa y1 − a . Por lo general, uno puede definir un
suavizado dejando
−1
t
t−q
t+q
j
q
^ t = ∑ aj Xt+j ,
m
t = q + 1, … , n − q,
(1.3.3)
j=−q
dondea + … + a = 1 . Estos promedios móviles generales (de dos lados y de un lado) se conocen comúnmente como filtros
lineales. Hay innumerables opciones para los pesos. El de aquí,a = (2q + 1) , tiene la ventaja de que las tendencias lineales
pasan sin distorsiones. En el siguiente ejemplo, se introduce un filtro que pasa tendencias cúbicas sin distorsión.
−q
q
−1
j
Ejemplo 1.3.2 (media móvil de 15 puntos de Spencer). Supongamos que el filtro en visualización1.3.3 está definido por pesos que
satisfacena = 0 if|j| > 7 ,a = a y
\[
(a_0, a_1,\ ldots, a_7) =\ frac {1} {320} (74,67,46,21,3, -5, -6, -3).
\ nonumber\]
Entonces, los filtros correspondientes pasan tendencias cúbicasm = b + b t + b t + b t
sin distorsionar. Para ver esto,
observe que
\ begin {align*}
\ sum_ {j=-7} ^7a_j=1\ qquad\ mbox {y}\ qquad
\ sum_ {j=-7} ^7j^ra_j=0,\ qquad r=1,2,3.
\ end {align*}
Ahora aplica la Proposición 1.3.1 a continuación para llegar a la conclusión. Suponiendo que las observaciones están en los
datos, utilice los comandos R
j
j
−j
2
t
0
1
2
3
3
> a = c (-3, -6, -5, 3, 21, 46, 67, 74, 67, 46, 21, 3, -5, -6, -3) /320
> s15 = filtro (datos, lados=2, a)
para aplicar el filtro Promedio móvil de 15 puntos de Spencer. Este ejemplo también explica cómo especificar un filtro general
hecho a medida para un conjunto de datos dado.
Proposición 1.3.1. Un filtro lineal (1.3.3) pasa un polinomio de gradop si y solo si
\[
\ sum_ {j} a_j=1\ qquad\ mbox {y}\ qquad\ sum_ {j} j^ra_j=0,\ qquad r=1,\ ldots, p.
\ nonumber\]
Prueba. Baste demostrar eso∑ a (t + j) = t parar = 0, … , p. Usando el teorema binomial, escribe
\ begin {align*}
\ sum_ja_j (t+j) ^r
&=\ sum_ja_j\ sum_ {k=0} ^r {r\ elige k} t^kj^ {r-k}\\ [.2cm]
&=\ suma_ {k=0} ^r {r\ elige k} t^k\ left (\ sum_ja_jj^ {r-k}\ derecha)\\ [.2cm]
&=t^r
\ end {align *}
para cualquierar = 0, … , p si y solo si las condiciones anteriores se mantienen.
j
j
r
r
1.3.3
https://espanol.libretexts.org/@go/page/148668
Figura 1.9: Gráficas de series temporales de las secuencias observadas (x t) en el panel izquierdo y (2 x t) en el panel derecho
del diferenciaron los datos de Lake Huron descritos en el Ejemplo 1.3.1.
Método 3 (Diferenciación) Una tercera posibilidad para eliminar términos de deriva de una serie de tiempo dada es la
diferenciación. Para ello, introduce el operador de diferencia∇ como
\[
\ nabla x_t=x_t-x_ {t-1} =( 1-B) x_t,\ qquad t\ in T,
\ nonumber\]
dondeB denota el operador de retrocesoBX = X . La aplicación repetida de∇ se define de la manera intuitiva:
t
t−1
\ [\ nABLA^2x_t=\ nabla (\ nabla x_t) =\ nabla (x_t-x_ {t-1}) =x_t-2x_ {t-1} +X_ {t-2}
\ nonumber\]
y, recursivamente, las representaciones siguen también para potencias superiores de∇. Supongamos que el operador diferencia se
aplica a la tendencia linealm = b + b t , entonces
t
0
1
\ [\ nabla m_t=m_t-m_ {t-1} =b_0+b_1t-b_0-b_1 (t-1) =b_1
\ nonumber\]
que es una constante. Inductivamente, esto lleva a la conclusión de que para un polinomio deriva de gradop, es decir
m =∑
b t ,∇ m = p! b
y por lo tanto constante. Aplicando esta técnica a un proceso estocástico de la forma (1.3.1) con
una deriva polinómicam , produce entonces
\[
\ nAbla^px_t=P! b_p+\ nabla^p y_T,\ qquad t\ in T.
\ nonumber\]
Este es un proceso estacionario con mediap!b . Las gráficas de la Figura 1.9 contienen las diferencias primera y segunda para los
datos de Lake Huron. En R, se pueden obtener de los comandos
p
t
j=0
j
j
p
t
p
t
p
>
>
>
>
>
d1 = diff (lago)
d2 = diff (d1)
par (mfrow=c (1,2))
plot.ts (d1, xlab= "”, ylab= "”)
plot.ts (d2, xlab= "”, ylab= "”)
El siguiente ejemplo muestra que el operador de diferencia también se puede aplicar a una caminata aleatoria para crear datos
estacionarios.
Ejemplo 1.3.3. Dejar(S : t ∈ N ) ser el paseo aleatorio del Ejemplo 1.2.3. Si el operador diferencia∇ se aplica a este proceso
estocástico, entonces
\[
\ nabla s_t=s_t-s_ {t-1} =z_t,\ qquad t\ in\ mathbb {N}.
\ nonumber\]
En otras palabras,∇ no hace otra cosa que recuperar la secuencia original de ruido blanco que se utilizó para construir la caminata
aleatoria.
t
0
1.3.4
https://espanol.libretexts.org/@go/page/148668
This page titled 1.3: Eliminación de componentes de tendencia is shared under a not declared license and was authored, remixed, and/or curated
by Alexander Aue.
1.3: Eliminating Trend Components by Alexander Aue has no license indicated.
1.3.5
https://espanol.libretexts.org/@go/page/148668
1.4: Eliminación de componentes de tendencia y estacionales
Recordemos la descomposición clásica (1.1.1),
\[
x_t=m_t+s_t+y_t,\ qquad t\ in T,
\ nonumber\]
conE[Y ] = 0 . En esta sección se discuten tres métodos que tienen como objetivo estimar tanto la tendencia como los componentes
estacionales en los datos. Como requisito adicional on(s : t ∈ T ) , se asume que
\[
s_ {t+d} =s_t,\ qquad\ sum_ {j=1} ^ds_j=0,
\ nonumber\]
donded denota el periodo del componente estacional. (Si se trata de datos anuales muestreados mensualmente, entonces
obviamented = 12 .) Es conveniente remarcar las observacionesx , … , x en términos del periodo estacionald como
\ [x_ {j, k} =x_ {k+d (j-1)}.
\ nonumber\]
En el caso de los datos anuales, la observación representax así el punto de datos observado para el mesk th del añoj th. Por
conveniencia siempre se hace referencia a los datos de esta manera aunque el periodo real sea algo distinto al 12.
t
t
1
n
j,k
Método 1 (Método de tendencia pequeña) Si los cambios en el término deriva parecen ser pequeños, entonces es razonable
suponer que la deriva en el añoj , digamos,m es constante. Por lo tanto, como estimador natural se puede aplicar
\[
\ hat {m} _j=\ frac {1} {d}\ sum_ {k=1} ^dx_ {j, k}.
\ nonumber\]
Para estimar la estacionalidad en los datos, uno puede en un segundo paso utilizar las cantidades
\[
\ hat {s} _k=\ frac 1N\ sum_ {j=1} ^N (x_ {j, k} -\ hat {m} _j),
\ nonumber\]
dondeN se determina por el n = N d , siempre que los datos hayan sido recolectados a lo largo de ciclosN completos. Los cálculos
directos muestran que estos estimadores poseen la propiedads^ + … + s^ = 0 (como en el caso de los verdaderos componentes
estacionaless ). Para evaluar aún más la calidad del ajuste, es necesario analizar los residuales observados
\[
\ hat {y} _ {j, k} =x_ {j, k} -\ hat {m} _j-\ hat {s} _k.
\ nonumber\]
Obsérvese que debido al remarcaje de las observaciones y al supuesto de una tendencia que cambia lentamente, el el componente
de deriva se describe únicamente por el subíndice “anual”j , mientras que el componente estacional solo contiene el subíndice
“mensual”k .
j
1
d
t
Figura 1.10: Parcelas de series temporales de las ventas de vino tinto en Australia de enero de 1980 a octubre de 1991
(izquierda) y su transformación logarítmica con estimaciones medias anuales (derecha).
1.4.1
https://espanol.libretexts.org/@go/page/148667
Ejemplo 1.4.1 (Ventas de Vino Australiano). El panel izquierdo de la Figura 1.10 muestra las ventas mensuales de vino tinto (en
kilolitros) en Australia de enero de 1980 a octubre de 1991. Dado que hay un aumento aparente en las fluctuaciones a lo largo del
tiempo, el panel derecho de la misma figura muestra la transformación logaritmo natural de los datos. Existe evidencia clara tanto
de tendencia como de estacionalidad. A continuación se estudian los datos transformados logarítmicos. Utilizando el método de
tendencia pequeña como se describió anteriormente, se estiman primero las medias anuales. Ya están incorporadas en la gráfica de
serie temporal correcta de la Figura 1.10. Obsérvese que sólo hay diez meses de datos disponibles para el año 1991, por lo que la
estimación tiene que ajustarse en consecuencia. Los datos detendenciados se muestran en el panel izquierdo de la Figura 1.11. La
gráfica media en la misma figura muestra el componente estacional estimado, mientras que el panel derecho muestra los residuos.
A pesar de que la suposición de pequeños cambios en la deriva es algo cuestionable, los residuos parecen verse bastante bonitos.
Indican que hay dependencia en los datos (ver Sección 1.5 a continuación para más información sobre este tema).
Figura 1.11: La serie logarítmica detendida (izquierda), el componente estacional estimado (centro) y las series residuales
correspondientes (derecha) de los datos de ventas de vino tinto australiano.
Método 2 (Estimación de media móvil) Este método debe preferirse sobre el primero siempre que el componente de tendencia
subyacente no pueda asumirse constante. Se van a aplicar tres pasos a los datos.
1er Paso: Estimación de tendencia. Al principio, enfocarse en la eliminación del componente de tendencia con los filtros lineales
^ =W
discutidos en la sección anterior. Si el periodod es impar, entonces uno puede usar directamentem
como en (1.3.2) conq
especificado por la ecuaciónd = 2q + 1 . Si el periodod = 2q es par, entonces modifica ligeramenteW y usa
\[
\ hat {m} _t=\ frac 1d (.5x_ {t-q} +x_ {t-q+1} +\ ldots+x_ {t+q-1} +.5x_ {t+q}),
\ qquad t=q+1,\ ldots, n-q.
\ nonumber\]
t
t
t
2do Paso: Estimación de estacionalidad. Para estimar el componente estacional, vamos
\ begin {align*}
\ mu_k&=\ frac 1 {N-1}\ sum_ {j=2} ^N (x_ {k+d (j-1)} -\ hat {m} _ {k+d (j-1)}),
\ qquad k=1,\ ldots, q,\\ [.2cm]
\ mu_k&=\ ac 1 {N-1}\ suma_ {j=1} ^ {N-1} (x_ {k+d (j-1)} -\ hat {m} _ _ {k+d (j-1)}),
\ qquad k=q+1,\ ldots, d.
\ end {align*}
Definir ahora
\[
\ hat {s} _k=\ mu_k-\ frac 1d\ sum_ {\ ell=1} ^d\ mu_\ ell,\ qquad k=1,\ ldots, d,
\ nonumber\]
y establecers^ = s^
siemprek > d . Esto nos proporcionará datos desestacionalizados que pueden ser examinados más a fondo.
En el paso final, cualquier tendencia restante se puede eliminar de los datos.
k
k−d
3er Paso: Reestimación de Tendencia. Aplicar cualquiera de los métodos de la Sección 1.3.
Método 3 (Diferenciación al lag d) Introduciendo el operador de diferencia lag-d∇ , definido dejando
d
\ [\ nAbla_dx_t=x_t-x_ {t-d} =( 1-b^d) x_t,\ qquad t=d+1,\ ldots, n,
\ nonumber\]
y asumiendo el modelo (1.1.1), uno llega a las variables aleatorias transformadas
1.4.2
https://espanol.libretexts.org/@go/page/148667
\ [\ nAbla_dx_t=m_t-m_ {t-d} +Y_t-y_ {t-d},\ qquad t=d+1,\ ldots, n.
\ nonumber\]
Tenga en cuenta que se elimina la estacionalidad, ya ques = s . Las variables de ruido restantesY − Y
son estacionarias y
tienen media cero. El nuevo componente de tendenciam − m
puede eliminarse utilizando cualquiera de los métodos
desarrollados en la Sección 1.3.
t
t−d
t
Figura 1.12: Las series observadas diferenciadas∇
de ventas de vino tinto australiano.
12 xt
t
t−d
t−d
(izquierda),∇x (media) y∇∇
t
12 xt
= ∇12 ∇xt
(derecha) para los datos
Ejemplo 1.4.2 (Ventas de vino australiano). Vuelva a visitar los datos de ventas de vino tinto australiano del Ejemplo 1.4.1 y
aplique las técnicas de diferenciación recién establecidas. La gráfica izquierda de la Figura 1.12 muestra los datos después de una
aplicación del operador∇ . Si la tendencia restante en los datos se estima con el método de diferenciación de la Sección 1.3, se
obtiene la gráfica residual dada en el panel derecho de la Figura 1.12. Obsérvese que el orden de aplicación no cambia los
residuales, es decir,∇∇ x = ∇ ∇x . El panel central de la Figura 1.12 muestra los datos diferenciados que aún contienen el
componente estacional.
12
12
t
12
t
This page titled 1.4: Eliminación de componentes de tendencia y estacionales is shared under a not declared license and was authored, remixed,
and/or curated by Alexander Aue.
1.4: Eliminating Trend and Seasonal Components by Alexander Aue has no license indicated.
1.4.3
https://espanol.libretexts.org/@go/page/148667
1.5: Evaluación de los Residuales
En esta subsección se introducen varias pruebas de bondad de ajuste para analizar más a fondo los residuos obtenidos tras la
eliminación de componentes de tendencia y estacionales. El objetivo principal es determinar si estos residuos pueden considerarse
obtenidos o no a partir de una secuencia de variables aleatorias independientes, distribuidas idénticamente o si hay dependencia en
los datos. A lo largoY , … , Y denotan los residuos yy , … , y una realización típica.
1
n
1
n
Método 1 (La muestra ACF) Se pudo observar en el Ejemplo 1.2.4 que, paraj ≠ 0 , los estimadoresρ^(j) de la ACFρ(j) son
asintóticamente independientes y normalmente se distribuyen con media cero y varianzan , siempre que los residuos subyacentes
sean independientes e idénticamente distribuidos con una varianza finita. Por lo tanto, trazando el ACF de muestra para un cierto
−
número de rezagosh , digamos, se espera que aproximadamente el 95% de estos valores estén dentro de los límites±1.96/√n. La
función R acf ayuda a realizar este análisis. (Ver Teorema 1.2.1)
−1
Método 2 (La prueba de Portmanteau) La prueba Portmanteau se basa en el estadístico de prueba
h
2
Q = n∑ρ
^ (j).
j=1
^(j) son normales asintóticamente estándar, se hace evidente que aQ sí misma se
Utilizando el hecho de que las variables√−
nρ
puede aproximar con una distribución chi-cuadrada que poseeh grados de libertad. La hipótesis de residuos independientes e
idénticamente distribuidos es rechazada al nivelα ifQ > χ (h) , dondeχ (h) está el1 − α cuantil de la distribución chicuadrado conh grados de libertad. En la literatura se han establecido varios refinamientos de la prueba Portmanteau original. Nos
referimos aquí solo a los papeles Ljung y Box (1978), y McLeod y Li (1983) para mayor información.
2
2
1−α
1−α
Método 3 (La prueba de rango) Esta prueba es muy útil para encontrar tendencias lineales. Denotar por
Π = #{(i, j) : Yi > Yj , i > j, i = 2, … , n}
el número aleatorio de pares(i, j) que satisfacen las condicionesY > Y yi > j . Hay( ) = n(n − 1) pares(i, j) tales quei > j .
SiY , … , Y son independientes e idénticamente distribuidos, entoncesP (Y > Y ) = 1/2 (asumiendo una distribución continua).
Ahora se deduce esoμ = E[Π] = n(n − 1) y, de igual manera,σ = Var(Π) = n(n − 1)(2n + 5) . Además, para tamaños
de muestra suficientemente grandesn ,Π tiene una distribución normal aproximada con mediaμ y varianzaσ . En consecuencia, la
hipótesis de datos independientes, distribuidos idénticamente sería rechazada a nivelα si
i
1
j
n
i
Π
n
1
2
2
j
1
2
1
4
Π
72
Π
2
Π
|Π − μΠ |
P =
σΠ
dondez
1−α/2
> z1−α/2 ,
denota el1 − α/2 cuantil de la distribución normal estándar.
Método 4 (Pruebas de normalidad) Si hay evidencia de que los datos son generados por variables aleatorias gaussianas, se puede
crear la gráfica qq para verificar la normalidad. Se basa en una inspección visual de los datos. Para ello, denotan por
Y
<… <Y
el orden las estadísticas de los residuosY , … , Y que normalmente se distribuyen con valor esperadoμ y
varianzaσ . Sostiene que
(1)
(n)
1
n
2
\ begin {ecuación}\ label {eq:1.5.1} E [Y_ {(j)}] =\ mu+\ sigma E [X_ {(j)}],\ tag {1.5.1}\ end {ecuación}
dondeX < … < X
están las estadísticas de orden de una distribución normal estándar. La gráfica qq se define como la
gráfica de los pares(E[X ], Y ), … , (E[X ], Y ). Según display (1.5.1), la gráfica resultante será aproximadamente lineal
con la correlación cuadradaR de los puntos cercana a 1. El supuesto de normalidad será así rechazado siR es “demasiado”
pequeño. Es común aproximarseE[X ] ≈ Φ = Φ ((j − .5)/n) (Φsiendo la función de distribución de la distribución normal
estándar). La declaración anterior se hace precisa al dejar
(1)
(n)
(1)
(1)
(n)
(n)
2
2
(j)
−1
j
2
n
[∑
2
R
j=1
=
¯)Φ ]
(Y(j) − Y
j
n
n
2
¯ 2
∑j=1 (Y(j) − Y ) ∑j=1 Φ
,
j
1.5.1
https://espanol.libretexts.org/@go/page/148671
dondeY¯ = (Y + … + Y ) . Los valores críticos paraR están tabulados y se pueden encontrar, por ejemplo en Shapiro y
Francia (1972). La función R correspondiente es qqnorm.
1
n
1
n
2
This page titled 1.5: Evaluación de los Residuales is shared under a not declared license and was authored, remixed, and/or curated by Alexander
Aue.
1.5: Assessing the Residuals by Alexander Aue has no license indicated.
1.5.2
https://espanol.libretexts.org/@go/page/148671
1.6: Resumen
En este capítulo se introdujo la descomposición clásica (1.1.1) de una serie de tiempo en un componente de deriva, un componente
estacional y una secuencia de residuos. Se proporcionaron métodos para estimar la deriva y la estacionalidad. Además, la clase de
procesos estacionarios se identificó como una clase razonablemente amplia de variables aleatorias. Se introdujeron varias formas
para verificar si los residuos resultantes pueden considerarse independientes, distribuidos de manera idéntica. En el Capítulo 3 se
discute en profundidad la clase de procesos de promedio móvil autorregresivo (ARMA), una clase paramétrica de variables
aleatorias que se encuentran en el centro del análisis lineal de series de tiempo porque son capaces de capturar una amplia gama de
estructuras de dependencia y permitir un tratamiento matemático exhaustivo. Antes, las propiedades de la media de la muestra,
ACVF y ACF de la muestra se consideran en el siguiente capítulo.
This page titled 1.6: Resumen is shared under a not declared license and was authored, remixed, and/or curated by Alexander Aue.
1.6: Summary by Alexander Aue has no license indicated.
1.6.1
https://espanol.libretexts.org/@go/page/148672
CHAPTER OVERVIEW
2: La estimación de la media y las covarianzas
En este breve segundo capítulo se recogen algunos resultados relativos a las propiedades asintóticas de la media muestral y la FCA
de la muestra. A lo largo,(X : t ∈ Z) denota un proceso estocástico débilmente estacionario con mediaμ y ACVFγ . En la Sección
1.2 se demostró que dicho proceso se caracteriza completamente por estas dos cantidades. La mediaμ se estimó por la media
muestralx̄ , y la FCAγ por la muestraγ^ se definió en (1.2.1). A continuación, se discuten con más detalle algunas propiedades de
estos estimadores.
t
2.1: Estimación de la media
2.2: Estimación de la función de autocovarianza
This page titled 2: La estimación de la media y las covarianzas is shared under a not declared license and was authored, remixed, and/or curated
by Alexander Aue.
1
2.1: Estimación de la media
Supongamos que hay que encontrar una suposición apropiada paraμ la media desconocida de algún proceso(X : t ∈ Z) estocástico
débilmente estacionario. La media muestralx̄, fácilmente computada como la mediax , … , x den observaciones del proceso, ha
sido identificada como adecuada en la Sección 1.2. Para investigar sus propiedades teóricas, es necesario analizar la variable
aleatoria asociada a ella, es decir,
t
1
¯
Xn =
n
1
n
(X1 + … + Xn ).
Dos hechos se pueden establecer rápidamente.
¯
Xn
es un estimador imparcial paraμ , ya que
¯
E[ X n ] = E [
1
n
n
n
1
∑ Xt ] =
t=1
n
1
∑ E[ Xt ] =
t=1
nμ = μ.
n
Esto quiere decir que “en promedio”, lo verdadero pero desconocidoμ se estima correctamente. Observe que no hay diferencia en
los cálculos entre el caso estándar de variables aleatorias independientes e idénticamente distribuidas y el proceso débilmente
estacionario más general considerado aquí.
¯
Siγ(n) → 0 asn → ∞ , entoncesX
es un estimador consistente paraμ , ya que
n
\ begin {align*}
\ mathrm {Var} (\ bar {X} _n) &=\ mathrm {Cov}\ left (\ frac 1n\ suma_ {s=1} ^nx_s,\ frac 1n\ suma_ {t=1} ^nx_t\ derecha)
=\ frac {1} {n^2}\ sum_ {s=1} ^n\ sum_ {n\ sum_ {s=1} ^n\ sum_ {t=1} ^n\ mathrm {Cov} (x_s, x_t)\\ [.2cm]
&=\ frac {1} {n^2}\ suma_ {s-t=-n} ^n (n-|s-t|)\ gamma (s-t)
=\ frac 1n\ suma_ {h=-n} ^n\ izquierda (1-\ frac {|h|} {n}\ derecha)\ gamma (h).
\ end {alinear*}
Ahora, la cantidad del lado derecho converge a cero comon → ∞ porqueγ(n) → 0 comon → ∞ por suposición. El primer signo
de igualdad en la última matriz de ecuaciones se desprende del hecho de queVar(X) = Cov(X, X) para cualquier variable
aleatoriaX, el segundo signo de igualdad utiliza que la función de covarianza es lineal en ambos argumentos. Para la tercera
igualdad, se puede usar esoCov(X , X ) = γ(s − t) y que cada unoγ(s − t) aparece exactamenten − |s − t| veces en la doble
suma. Finalmente, el lado derecho se obtiene reemplazandos − t conh y tirando de unon dentro de la suma.
s
t
−1
¯
En el caso estándar de variables aleatorias independientes e idénticamente distribuidasnVar(X
) = σ . La condiciónγ(n) → 0 se
satisface automáticamente. Sin embargo, en el caso general de procesos débilmente estacionarios, no puede omitirse.
2
Se puede probar más usando un conjunto apropiado de suposiciones. Los resultados se formulan como teorema sin dar las pruebas.
Teorema2.1.1
Dejar(X : t ∈ Z) ser un proceso estocástico débilmente estacionario con mediaμ y ACVFγ. Entonces, las siguientes
afirmaciones se mantienen verdaderas comon → ∞ .
t
a. Si∑
∞
h=−∞
|γ(h)| < ∞
, entonces
∞
nVar(X̄ n ) →
∑
γ(h) = τ
2
;
h=−∞
b. Si el proceso es “cercano a la Gaussianidad”, entonces
n
−
2
√n (X̄ n − μ) ∼ AN (0, τn ),
2
τn = ∑ (1 −
h=−n
Aquí,∼ AN (0, τ
2
n )
|h|
) γ(h).
n
significa aproximadamente distribuido normalmente con media cero y varianzaτ .
2
n
El teorema2.1.1 puede ser utilizado para construir intervalos de confianza para el parámetro medio desconocidoμ . Para ello, se
debe, sin embargo, estimar el parámetro de varianza desconocidaτ . Para una gran clase de procesos estocásticos, sostiene queτ
n
2.1.1
2
n
https://espanol.libretexts.org/@go/page/148644
converge aτ asn → ∞ . Por lo tanto, podemos utilizarτ como aproximación paraτ . Además,τ se puede estimar por
2
2
2
n
√n
2
^ =
τ
n
2
|h|
∑
^(h),
)γ
(1 −
n
h=−√n
dondeγ^(h) denota el estimador ACVF definido en (1.2.1). Un intervalo de confianza aproximado del 95% para ahora seμ puede
construir como
( X̄ n − 1.96
τ
^n
−
√n
, X̄ n + 1.96
τ
^n
−
√n
).
Ejemplo2.1.1: Autoregressive Processes
Dejar(X
t:
t ∈ Z)
que se den por las ecuaciones
\ begin {ecuación}\ label {eq:2.1.1}
x_t-\ mu=\ phi (X_ {t-1} -\ mu) +z_t,\ qquad t\ in\ mathbb {Z},\ tag {2.1.1}\
\ end {ecuación}
dónde(Z : t ∈ Z) ∼ WN(0, σ ) y|ϕ| < 1 . Se mostrará en el Capítulo 3 que(X : t ∈ Z) define un proceso débilmente
estacionario. Utilizando la diferencia estocástica Ecuaciones\ ref {2.1.1}, se pueden determinar tanto la media como las
autocovarianzas. Eso sostieneE[X ] = ϕE[X ] + μ(1 − ϕ) . Dado que, por estacionariedad, seE[X ] puede sustituir por
E[ X ], se deduce que
2
t
t
t
t−1
t−1
t
E[ Xt ] = μ,
t ∈ Z.
En lo siguiente trabajaremos con el proceso(X : t ∈ Z) dado al dejarX = X − μ . Claramente,E[X ] = 0 . De la definición,
se deduce también que las covarianzas de(X : t ∈ Z) y(X : t ∈ Z) coinciden. Primero computar el segundo momento deX ,
da
c
c
t
t
c
2
E[{ X } ] = E[(ϕX
t
y en consecuencia, ya queE[{X
c
t−1
2
c
2
t
t
c
t
t
2
c
t−1
} ] = E[{ X } ]
c
t
t
c
2
+ Zt ) ] = ϕ E[{ X
2
c
t−1
} ] +σ
por débil estacionariedad de(X
c
t
σ
2
c
E[{ Xt } ] =
2
: t ∈ Z)
,
2
2
,
t ∈ Z.
1 −ϕ
Se hace evidente a partir de esta última ecuación, por qué|ϕ| < 1 se necesitaba la condición en exhibición (2.1.1). En el
siguiente paso, se calcula la función de autocovarianza. Puesh > 0 , sostiene que
γ(h) = E[ X
c
t+h
c
Xt ] = E[(ϕX
c
c
t+h−1
después deh iteraciones. Pero comoγ(0) = E[{X
c
t
2
+ Zt+h )Xt ] = ϕE[ X
} ]
c
t+h−1
h
c
Xt ] = ϕγ(h − 1) = ϕ γ(0)
, por simetría de la ACVF, se deduce que
2
|h|
σ ϕ
γ(h) =
2
,
h ∈ Z.
1 −ϕ
Después de estas consideraciones teóricas, seμ puede construir un intervalo de confianza del 95% (asintótico) para el
parámetro medio. Para verificar si el Teorema 2.1.1 es aplicable aquí, es necesario verificar si las autocovarianzas son
absolutamente sumables:
\ begin {align*}
\ tau^2&=\ sum_ {h=-\ infty} ^\ infty\ gamma (h) =\ frac {\ sigma^2} {1-\ phi^2}\ left (1+2\ sum_ {h=1} ^\ infty\ phi^h\
derecha)
=\ frac {\ sigma^2} {1-\ phi^2}\ izquierda (1+\ frac {2} {1-\ phi} -2\ derecha)\\ [.2cm]
&=\ frac {\ sigma^2} {1-\ phi^2}\ frac {1} {1-\ phi} (1+\ phi) =\ frac {\ sigma^2} {(1- \ phi) ^2} <\ infty.
\ end {alinear*}
Por lo tanto, un intervalo de confianza del 95% para elμ cual se basa en los valores observadosx
1,
2.1.2
… , xn
viene dado por
https://espanol.libretexts.org/@go/page/148644
σ
( x̄ − 1.96
σ
−
√n (1 − ϕ)
, x̄ + 1.96
−
√n (1 − ϕ)
).
En ella, los parámetrosσ yϕ tienen que ser reemplazados por estimadores apropiados. Estos se introducirán en el Capítulo 3.
This page titled 2.1: Estimación de la media is shared under a not declared license and was authored, remixed, and/or curated by Alexander Aue.
2.1: Estimation of the Mean by Alexander Aue has no license indicated.
2.1.3
https://espanol.libretexts.org/@go/page/148644
2.2: Estimación de la función de autocovarianza
En esta sección se aborda la estimación del ACVF y el ACF al rezagoh . Recordemos de la ecuación (1.2.1) que el estimador
1
γ
^(h) =
n
n−|h|
¯
¯
∑ (Xt+|h| − X n )(Xt − X n ),
h = 0, ±1, … , ±(n − 1),
t=1
puede ser utilizado como un proxy para lo desconocidoγ(h). Como estimador para el ACFρ(h),
γ
^(h)
^(h) =
ρ
,
h = 0, ±1, … , ±(n − 1),
^(0)
γ
fue identificado. Algunas de las propiedades teóricas deρ^(h) se recogen brevemente a continuación. No son tan obvias de derivar
como en el caso de la media muestral, y se omiten todas las pruebas. Obsérvese también que declaraciones similaresγ^(h) se
mantienen para también.
El estimadorρ^(h) es generalmente sesgado, es decir,E[ρ^(h)] ≠ ρ(h) . Sostiene, sin embargo, bajo suposiciones no restrictivas
que
^(h)] → ρ(h)
E[ ρ
(n → ∞).
Esta propiedad se denomina falta de sesgo asintótico.
El estimadorρ^(h) es consistente paraρ(h) bajo un conjunto apropiado de supuestos, es decir,Var(ρ^(h) − ρ(h)) → 0 como
n → ∞.
Ya se estableció en la Sección 1.5 cómo seρ^ puede utilizar el ACF de muestra para probar si los residuos consisten en variables de
ruido blanco. Para una inferencia estadística más general, se necesita conocer la distribución muestral deρ^ . Dado que la estimación
deρ(h) se basa en solo unas pocas observaciones parah cerca del tamaño de la muestran , las estimaciones tienden a ser poco
confiables. Como regla general, dada por Box y Jenkins (1976),n debe ser por lo menos 50 eh inferior o igual a n/4.
Teorema2.2.1
Form ≥ 1 , letρ = (ρ(1), … , ρ(m)) yρ^ = (ρ^(1), … , ρ^(m)) , donde
conjunto de supuestos adecuados, sostiene que
T
m
T
T
m
−
^
− ρm ) ∼ AN (0, Σ)
√n (ρ
m
denota la transposición de un vector. Bajo un
(n → ∞),
donde∼ AN (0, Σ) significa aproximadamente distribuido normalmente con vector medio0 y matriz de covarianzaΣ = (σ
dada por la fórmula de Bartlett
ij )
∞
σij = ∑ [ρ(k + i) + ρ(k − i) − 2ρ(i)ρ(k)][ρ(k + j) + ρ(k − j) − 2ρ(j)ρ(k)].
k=1
El apartado se concluye con dos ejemplos. El primero recuerda los resultados ya conocidos para variables aleatorias
independientes, distribuidas idénticamente, el segundo trata sobre el proceso autorregresivo del Ejemplo (2.2.1).
Ejemplo2.2.1
Vamos(X : t ∈ Z) ∼ IID(0, σ
viene dada por
t
2
)
. Entonces,ρ(0) = 1 yρ(h) = 0 para todosh ≠ 0 . Por lo tanto, la matrizΣ de covarianza
σij = 1
if i = j
and
σij = 0
if i ≠ j.
Esto quiere decir queΣ es una matriz diagonal. En vista del Teorema 2.2.1 se sostiene así que los estimadoresρ^(1), … , ρ^(k)
son aproximadamente variables aleatorias normales independientes e idénticamente distribuidas con media 0 y varianza1/n.
Esta fue la base para los Métodos 1 y 2 en la Sección 1.6 (ver también Teorema 1.2.1).
2.2.1
https://espanol.libretexts.org/@go/page/148646
Ejemplo2.2.2
Reconsiderar el proceso autorregresivo(X
t:
t ∈ Z)
del Ejemplo 2.1.1 conμ = 0 . Dividiendoγ(h) porγ(0) rendimientos que
|h|
ρ(h) = ϕ
,
h ∈ Z.
Ahora las entradas diagonales deΣ se calculan como
\ begin {align*}
\ sigma_ {ii} &=\ sum_ {k=1} ^\ infty\ grande [\ rho (k+i) +\ rho (k-i) -2\ rho (i)\ rho (k)\ grande] ^2\\ [.2cm]
&=\ suma_ {k=1} ^i\ phi^ {2i} (\ phi^ {-k} -\ phi^k) ^2+\ sum_ {k=i+1} ^\ infty\ phi^ {2k} (\ phi^ {-i} -\ phi^i) ^2\\ [.2cm]
& =( 1-\ phi^ {2i}) (1+\ phi^2) (1-\ phi^2) ^ {-1} -2i\ phi^ {2i}.
\ end {alinear*}
This page titled 2.2: Estimación de la función de autocovarianza is shared under a not declared license and was authored, remixed, and/or curated
by Alexander Aue.
2.2: Estimation of the Autocovariance Function by Alexander Aue has no license indicated.
2.2.2
https://espanol.libretexts.org/@go/page/148646
CHAPTER OVERVIEW
3: Procesos ARMA
En este capítulo se discuten procesos de media móvil autorregresiva. Desempeñan un papel crucial en la especificación de modelos
de series de tiempo para aplicaciones. Como las soluciones de ecuaciones de diferencia estocástica con coeficientes constantes y
estos procesos poseen una estructura lineal.
3.1: Introducción a los procesos de media móvil autorregresiva (ARMA)
3.2: Causalidad e invertibilidad
3.3: El PACF de un proceso de ARMA Causal
3.4: Pronósticos
3.5: Estimación de parámetros
3.6: Selección de modelos
3.7: Resumen
This page titled 3: Procesos ARMA is shared under a not declared license and was authored, remixed, and/or curated by Alexander Aue.
1
3.1: Introducción a los procesos de media móvil autorregresiva (ARMA)
En este capítulo se discuten procesos de media móvil autorregresiva. Desempeñan un papel crucial en la especificación de modelos
de series de tiempo para aplicaciones. Como las soluciones de ecuaciones de diferencia estocástica con coeficientes constantes y
estos procesos poseen una estructura lineal.
Definición 3.1.1: Procesos ARMA
(a) Un proceso débilmente estacionarioX : t ∈ Z se denomina serie de tiempo de promedio móvil autorregresivo de ordenp, q,
abreviado porARM A(p, q), si satisface las ecuaciones de diferencia
t
\ [\ begin {ecuación}\ label {eq:3.1.1}
x_t=\ phi_1x_ {t-1} +\ ldots+\ pHI_px_ {t-p} +z_t+\ TheTa_1z_ {t-1} +\ ldots+\ TheTa_qz_ {t-q},
\ qquad
t\ in\ mathbb {Z},
\ end ecuación}\ tag {3.1.1}\]
dondeϕ
1,
… , ϕp
yθ
1,
… , θq
son constantes reales,ϕ
p
≠ 0 ≠ θq
, y(Z
t:
2
t ∈ Z) ∼ WN(0, σ )
.
(b) Un proceso estocástico débilmente estacionarioX : t ∈ Z se denomina serieARM A(p, q) temporal con mediaμ si el
procesoX − μ: t ∈ Z satisface el sistema de ecuaciones.
t
t
Se puede obtener una representación más concisa de la Ecuación\ ref {eq:3.1.1} con el uso del operador de retrocesoB . Para ello,
definir el polinomio autorregresivo y el polinomio promedio móvil por
ϕ(z) = 1 − ϕ1 z − ϕ2 z
2
p
− … − ϕp z ,
z ∈ C,
y
θ(z) = 1 + θ1 z + θ2 z
2
q
+ … + θq z ,
z ∈ C,
respectivamente, dondeC denota el conjunto de números complejos. Insertando el operador de retroceso en estos polinomios, las
ecuaciones en (3.1.1) se convierten en
\ [\ begin {ecuación}\ label {eq:3.1.2}
\ phi (B) x_t=\ theta (B) z_t,\ qquad t\ in\ mathbb {Z}.
\ end {ecuación}\ tag {3.1.2}\]
Figura 3.1: Realización de tres procesos de media móvil autorregresiva.
Ejemplo 3.1.1 La Figura 3.1 muestra realizaciones de tres series de tiempo promedio móvil autorregresivas diferentes basadas en
series de tiempo independientes, estándar distribuidas normalmente(Z : t ∈ Z) . The left panel is an ARMA(2,2) process with
parameter specifications ϕ = .2 , ϕ = −.3 , θ = −.5 and θ = .3 . The middle plot is obtained from an ARMA(1,4) process with
parameters ϕ = .3 , θ = −.2 , θ = −.3 , θ = .5 , and θ = .2 , while the right plot is from an ARMA(4,1) with parameters
ϕ = −.2 , ϕ = −.3 , ϕ = .5 and ϕ = .2 and θ = .6 . The plots indicate that ARMA models can provide a flexible tool for
modeling diverse residual sequences. It will turn out in the next section that all three realizations here come from (strictly)
stationary processes. Similar time series plots can be produced in R using the commands
t
1
1
1
2
1
2
1
2
3
2
3
4
4
1
3.1.1
https://espanol.libretexts.org/@go/page/148662
>arima22 =
arima.sim (lista (orden=c (2,0,2), ar=c (.2, -.3), ma=c (-.5, .3)), n=100)
>arima14 =
arima.sim (lista (orden=c (1,0,4), ar=.3, ma=c (-.2, -.3, .5, .2)), n=100)
>arima41 =
arima.sim (lista (orden=c (4,0,1), ar=c (-.2, -.3, .5, .2), ma=.6), n= 100)
Algunos casos especiales cubiertos en los siguientes dos ejemplos tienen particular relevancia en el análisis de series temporales.
Figura 3.2: Realización de tres procesos autorregresivos.
Ejemplo 3.1.2 (Procesos AR) Si el polinomio promedio móvil en (3.1.2) es igual a uno, es decir, siθ(z) ≡ 1 , then the resulting
(X : t ∈ Z) is referred to as autoregressive process of order p , AR(p). These time series interpret the value of the current variable
X as a linear combination of p previous variables X
,…,X
plus an additional distortion by the white noise Z . Figure 3.1.2
displays two AR(1) processes with respective parameters ϕ = −.9 (left) and ϕ = .8 (middle) as well as an AR(2) process with
parameters ϕ = −.5 and ϕ = .3 . The corresponding R commands are
t
t
t−1
t−p
1
1
t
1
2
>ar1neg = arima.sim (lista (orden=c (1,0,0), ar=-.9), n=100)
>ar1pos = arima.sim (lista (orden=c (1,0,0), ar=.8), n=100)
>ar2 = arima.sim (lista (pedido=c (2,0,0), ar=c (-.5, .3)), n=100)
Figura 3.3: Realización de tres procesos de media móvil.
Ejemplo 3.1.3 (Procesos MA) Si el polinomio autorregresivo en (3.1.2) es igual a uno, es decir, siϕ(z) ≡ 1 , then the resulting
(X : t ∈ Z) is referred to as moving average process of order q , MA(q )}. Here the present variable X is obtained as superposition
of q white noise terms Z , … , Z . Figure (3.1.3) shows two MA(1) processes with respective parameters θ = .5 (left) and
θ = −.8 (middle). The right plot is observed from an MA(2) process with parameters θ = −.5 and θ = .3 . In R one may use
t
t
t
t−q
1
1
1
2
> ma1pos = arima.sim (lista (pedido=c (0,0,1), ma=.5), n=100)
> ma1neg = arima.sim (lista (pedido=c (0,0,1), ma=-.8), n=100)
> ma2 = arima.sim (lista (pedido=c (0,0,2), ma=c (-.5, .3)), n=100)
Para el análisis que viene en los próximos capítulos, ahora introducimos procesos de media móvil de orden infinito(q = ∞) . Son
una herramienta importante para determinar soluciones estacionarias a las ecuaciones de diferencia (3.1.1).
Definición 3.1.2 Procesos lineales
Un proceso estocástico(X
∑
| ψ | < ∞ such that
t:
t ∈ Z)
is called linear process or MA(∞) time series if there is a sequence
(ψj : j ∈ N0 )
with
∞
j=0
j
3.1.2
https://espanol.libretexts.org/@go/page/148662
\ [\ begin {ecuación}\ label {eq:3.1.3}
x_t=\ sum_ {j=0} ^\ infty\ psi_jz_ {t-j},\ qquad t\ in\ mathbb {Z},
\ end {ecuación}\ tag {3.1.3}\]
donde(Z : t ∈ Z) ∼ WN(0, σ ) .
2
t
Las series de tiempo promedio móviles de cualquier ordenq son casos especiales de procesos lineales. Solo elige
ψ = θ j = 1, … , q y estableceψ = 0 sij > q . Es común introducir la serie power
j
j
j
∞
j
ψ(z) = ∑ ψj z ,
z ∈ C,
j=0
para expresar un proceso lineal en términos del operador de retroceso. La pantalla (3.1.3) ahora se puede reescribir en forma
compacta
Xt = ψ(B)Zt ,
t ∈ Z.
Con las definiciones de esta sección a la mano, las propiedades de los procesos ARMA, como la estacionariedad e invertibilidad, se
investigan en la siguiente sección. La sección actual se cierra dando sentido a la notaciónX = ψ(B)Z . Note that one is possibly
dealing with an infinite sum of random variables. For completeness and later use, in the following example the mean and ACVF of
a linear process are derived.
t
t
Ejemplo 3.1.4 Media y ACVF de un proceso lineal
Dejar(X
t:
t ∈ Z)
ser un proceso lineal de acuerdo a la Definición 3.1.2. Entonces, sostiene que
∞
∞
E[ Xt ] = E [ ∑ ψj Zt−j ] = ∑ ψj E[ Zt−j ] = 0,
j=0
t ∈ Z.
j=0
Siguiente observar también que
\ begin {align*}
\ gamma (h)
&=\ mathrm {Cov} (X_ {t+h}, x_t)\\ [.2cm]
&=E\ left [\ sum_ {j=0} ^\ infty\ psi_jz_ {t+h-j}\ sum_ {k=0} ^\ infty\ psi_kz_ {t-j k}\ derecha]\\ [.2cm]
&=\ sigma^2\ suma_ {k=0} ^\ infty\ psi_ {k+h}\ psi_k<\ infty
\ end {align*}
por suposición sobre la secuencia(ψ : j ∈ N ) .
j
0
Contribuidores
Template:ContribAue
This page titled 3.1: Introducción a los procesos de media móvil autorregresiva (ARMA) is shared under a not declared license and was authored,
remixed, and/or curated by Alexander Aue.
3.1: Introduction to Autoregressive Moving Average (ARMA) Processes by Alexander Aue has no license indicated.
3.1.3
https://espanol.libretexts.org/@go/page/148662
3.2: Causalidad e invertibilidad
Si bien un proceso de orden promedio móvil siempreq será estacionario sin condiciones sobre los coeficientesθ ,,…θ , se
requieren algunos pensamientos más profundos en el caso de los procesos AR (p) y ARMA (p, q). Por simplicidad, comenzamos
por investigar el proceso autorregresivo del orden uno, que viene dado por las ecuacionesX = ϕX + Z (escrituraϕ = ϕ ).
Las iteraciones repetidas producen que
1
t
t−1
t
q
1
N −1
2
N
Xt = ϕXt−1 + Zt = ϕ Xt−2 + Zt + ϕZt−1 = … = ϕ
j
Xt−N + ∑ ϕ Zt−j .
j=0
DejandoN
→ ∞
, ahora podría demostrarse que, con probabilidad uno,
∞
j
Xt = ∑ ϕ Zt−j
(3.2.2)
j=0
es la solución débilmente estacionaria a las ecuaciones AR (1), siempre que|ϕ| < 1 . These calculations would indicate moreover,
that an autoregressive process of order one can be represented as linear process with coefficients ψ = ϕ .
j
j
Ejemplo3.2.1: Mean and ACVF of an AR(1) process
Dado que un proceso autorregresivo del orden uno ha sido identificado como un ejemplo de un proceso lineal, se puede
determinar fácilmente su valor esperado como
∞
j
E[ Xt ] = ∑ ϕ E[ Zt−j ] = 0,
t ∈ Z.
j=0
Para la ACVF, se obtiene que
\ begin {alinear*}
\ gamma (h)
&= {\ rm Cov} (X_ {t+h}, x_t)\\ [.2cm]
&=E\ left [\ sum_ {j=0} ^\ infty\ phi^jz_ {t+h-j}\ suma_ {k=0} ^\ infty\ phi^Kz_ {t-k}\ derecha]\\ [.2cm]
&=\ sigma^2\ suma_ {k=0} ^\ infty\ phi^ {k+h}\ phi^ {k}
=\ sigma^2\ phi^h\ suma_ {k=0} ^\ infty\ phi ^ {2k}
=\ frac {\ sigma^2\ phi^h} {1-\ phi^2},
\ end {alinear*}
dondeh ≥ 0 . This determines the ACVF for all h using that
ρ(h) = ϕ . See also Example 3.1.1 for comparison.
γ(−h) = γ(h)
. It is also immediate that the ACF satisfies
h
Ejemplo3.2.2: Nonstationary AR(1) processes
En el Ejemplo 1.2.3 hemos introducido la caminata aleatoria como una serie de tiempo no estacionaria. También se puede ver
como un proceso AR (1) no estacionario con parámetroϕ = 1 . En general, los procesos autorregresivos de orden uno con
coeficientes se|ϕ| > 1 denominan {\ it explosivo}\/porque no admiten una solución débilmente estacionaria que pudiera
expresarse como un proceso lineal. No obstante, se podrá proceder de la siguiente manera. Reescribir las ecuaciones
definitorias de un proceso AR (1) como
−1
Xt = −ϕ
−1
Zt+1 + ϕ
Xt+1 ,
t ∈ Z.
Aplica ahora las mismas iteraciones que antes para llegar a
N
−N
Xt = ϕ
−j
Xt+N − ∑ ϕ
Zt+j ,
t ∈ Z.
j=1
Obsérvese que en el caso débilmente estacionario, la presente observación ha sido descrita en términos de innovaciones
pasadas. Sin embargo, la representación en la última ecuación contiene solo observaciones futuras con retardos de tiempo
3.2.1
https://espanol.libretexts.org/@go/page/148651
mayores que el tiempo presentet . Desde el punto de vista estadístico esto no tiene mucho sentido, aunque por argumentos
idénticos a los anteriores podamos obtener
∞
−j
Xt = − ∑ ϕ
Zt+j ,
t ∈ Z,
j=1
como la solución débilmente estacionaria en el caso explosivo.
El resultado del ejemplo anterior conduce a la noción de causalidad lo que significa que el proceso(X : t ∈ Z) tiene una
representación en términos del ruido blanco(Z : s ≤ t) y que, por lo tanto, no está correlacionado con el futuro según lo dado por
(Z : s > t) . Damos la definición para el caso general ARMA.
t
s
s
Definición: Causalidad
Un proceso ARMA (p, q) dado por (3.1.1) es causal si hay una secuencia(ψ
j
tal que∑
∞
: j ∈ N0 )
j=0
| ψj | < ∞
y
∞
Xt = ∑ ψj Zt−j ,
t ∈ Z.
j=0
Causalidad significa que una serie temporal ARMA se puede representar como un proceso lineal. Se vio anteriormente en esta
sección cómo un proceso AR (1) cuyo coeficiente satisface la condición|ϕ| < 1 puede convertirse en un proceso lineal. También se
demostró que esto es imposible si|ϕ| > 1 . Las condiciones sobre el parámetro autorregresivo seϕ pueden replantear en términos del
polinomio autorregresivo correspondiente de laϕ(z) = 1 − ϕz siguiente manera. Sostiene que
|ϕ| < 1
if and only if ϕ(z) ≠ 0 for all |z| ≤ 1,
|ϕ| > 1
if and only if ϕ(z) ≠ 0 for all |z| ≥ 1 .
Resulta que la caracterización en términos de los ceros de los polinomios autorregresivos se traslada del caso AR (1) al caso
general ARMA (p, q). Además, losψ pesos del proceso lineal resultante tienen una representación fácil en términos de los
polinomiosϕ(z) yθ(z) . El resultado se resume en el siguiente teorema.
Teorema 3.2.1
Sea un proceso ARMA (p, q) tal que los polinomiosϕ(z) y noθ(z) tengan ceros comunes. Entonces(X : t ∈ Z) es
causal si y sólo siϕ(z) ≠ 0 para todosz ∈ C con|z| ≤ 1 . Los coeficientes(ψ : j ∈ N ) están determinados por la expansión
de la serie de potencia
(Xt : t ∈ Z)
t
j
∞
ψ(z) = ∑ ψj z
j
0
θ(z)
=
,
|z| ≤ 1.
ϕ(z)
j=0
Un concepto estrechamente relacionado con la causalidad es la invertibilidad. Esta noción está motivada con el siguiente ejemplo
que estudia las propiedades de una serie temporal de promedio móvil de orden 1.
Ejemplo3.2.3
Let(X
t:
t ∈ N)
Ser un proceso MA (1) con parámetroθ = θ . Es un ejercicio fácil calcular el ACVF y el ACF como
1
2
2
(1 + θ )σ ,
⎧
⎪
2
γ(h) = ⎨ θσ ,
⎩
⎪
0
1
⎧
⎪
h = 0,
h = 0.
2
−1
ρ(h) = ⎨ θ(1 + θ )
h =1
⎩
⎪
h > 1,
0
,
h = 1.
h > 1.
Estos resultados llevan a la conclusión de queρ(h) no cambia siθ se reemplaza el parámetro porθ . Además, existen pares
(θ, σ ) que conducen al mismo ACVF, por ejemplo(5, 1) y(1/5, 25). En consecuencia, llegamos al hecho de que los dos
modelos MA (1)
−1
2
1
Xt = Zt +
5
Zt−1 ,
t ∈ Z,
3.2.2
(Zt : t ∈ Z) ∼ iid N (0, 25),
https://espanol.libretexts.org/@go/page/148651
y
~
~
Xt = Z t + 5 Z t−1 ,
~
(Z : t ∈ Z) ∼ iid N (0, 1),
t ∈ Z,
~
son indistinguibles porque solo observamosX pero no las variables de ruidoZ yZ .
t
t
t
Por conveniencia, el estadístico escogerá el modelo que satisfaga el criterio de invertibilidad que se definirá a continuación. Se
especifica que la secuencia de ruido se puede representar como un proceso lineal en las observaciones.
Definición: Invertibilidad
Un proceso ARMA (p, q) dado por (3.1.1) es invertible si hay una secuencia(π
j:
j ∈ N0 )
tal que∑
∞
j=0
| πj | < ∞
y
∞
Zt = ∑ πj Xt−j ,
t ∈ Z.
j=0
Teorema 3.2.2
Sea un proceso ARMA (p, q) tal que los polinomiosϕ(z) y noθ(z) tengan ceros comunes. Entonces(X : t ∈ Z) es
invertible si y solo siθ(z) ≠ 0 para todosz ∈ C con|z| ≤ 1 . Los coeficientes(π )
están determinados por la expansión de
la serie de potencia
(Xt : t ∈ Z)
t
j
∞
j
π(z) = ∑ πj z
j∈N0
ϕ(z)
=
,
|z| ≤ 1.
θ(z)
j=0
A partir de ahora se asume que todas las secuencias de ARMA especificadas en la secuela son causales e invertibles a menos que se
indique explícitamente lo contrario. El último ejemplo de esta sección destaca la utilidad de la teoría establecida. Se ocupa de la
redundancia de parámetros y el cálculo de las secuencias de causalidad e invertibilidad(ψ : j ∈ N ) and (π : j ∈ N ) .
j
0
j
0
Ejemplo3.2.4: Parameter redundancy
Considerar las ecuaciones ARMA
Xt = .4 Xt−1 + .21 Xt−2 + Zt + .6 Zt−1 + .09 Zt−2 ,
que parecen generar una secuencia ARMA (2,2). Sin embargo, los polinomios autorregresivos y de promedio móvil tienen un
cero común:
\ begin {align*}
\ tilde {\ phi} (z) &=1-.4z-.21z^2 =( 1-.7z) (1+.3z),\\ [.2cm]
\ tilde {\ theta} (z) &=1+.6z+.09z^2 =( 1+.3z) ^2.
\ end {alinear*}
Por lo tanto, se pueden restablecer las ecuaciones ARMA a una secuencia de orden (1,1) y obtener
Xt = .7 Xt−1 + Zt + .3 Zt−1 .
Ahora bien, los polinomios correspondientes no tienen raíces comunes. Tenga en cuenta que las raíces deϕ(z) = 1 − .7z y
θ(z) = 1 + .3z son10/7 > 1 y−10/3 < −1, respectivamente. Así, los teoremas 3.2.1 y 3.2.2 implican que existen soluciones
causales e invertibles. A continuación, los coeficientes correspondientes en las expansiones
∞
∞
Xt = ∑ ψj Zt−j
and
Zt = ∑ πj Xt−j ,
j=0
se calculan. Partiendo de la secuencia de causalidad(ψ
j
∞
∑ ψj z
j=0
j
t ∈ Z,
j=0
: j ∈ N0 )
θ(z)
= ψ(z) =
. Redacción, para|z| ≤ 1 ,
1 + .3z
=
ϕ(z)
∞
j
= (1 + .3z) ∑(.7z) ,
1 − .7z
3.2.3
j=0
https://espanol.libretexts.org/@go/page/148651
se puede obtener de una comparación de coeficientes que
ψ0 = 1
j−1
and
ψj = (.7 + .3)(.7 )
Del mismo modo, se computan los coeficientes de invertibilidad(π
j
∞
∑ πj z
j
ϕ(z)
= π(z) =
: j ∈ N0 )
,
j ∈ N.
a partir de la ecuación
∞
1 − .7z
j
=
= (1 − .7z) ∑(−.3z)
1 + .3z
θ(z)
j=0
j−1
= (.7 )
j=0
(|z| ≤ 1 ) como
π0 = 1
and
j
j−1
πj = (−1 ) (.3 + .7)(.3 )
j
j−1
= (−1 ) (.3 )
.
En conjunto, los cálculos anteriores ceden a las representaciones explícitas
∞
∞
j−1
Xt = Zt + ∑(.7 )
Zt−j
j
and
j−1
Zt = Xt + ∑(−1 ) (.3 )
j=1
Xt−j .
j=1
En lo que resta de esta sección, se proporciona una manera general para determinar los pesos(ψ : j ≥ 1) para un proceso causal
ARMA (p, q) dado porϕ(B)X = θ(B)Z , dondeϕ(z) ≠ 0 para todosz ∈ C tales que|z| ≤ 1 . Ya queψ(z) = θ(z)/ϕ(z) para estos
z , el peso seψ puede calcular haciendo coincidir los coeficientes correspondientes en la ecuaciónψ(z)ϕ(z) = θ(z) , es decir,
j
t
t
j
(ψ0 + ψ1 z + ψ2 z
Resolver recursivamente paraψ
0,
ψ1 , ψ2 , …
2
p
q
+ …)(1 − ϕ1 z − … − ϕp z ) = 1 + θ1 z + … + θq z .
da
\ begin {alinear*}
\ psi_0&=1,\
\\ psi_1-\ phi_1\ psi_0&=\ theta_1,\\
\ psi_2-\ phi_1\ psi_1-\ phi_2\ psi_0&=\ theta_2,
\ end {align*}
y así sucesivamente siempre y cuandoj < max{p, q + 1} . La solución general se puede afirmar como
j
ψj − ∑ ϕk ψj−k = θj ,
0 ≤ j < max{p, q + 1},
(3.2.1)
k=1
p
ψj − ∑ ϕk ψj−k = 0,
j ≥ max{p, q + 1},
(3.2.2)
k=1
si definimosϕ = 0 sij > p yθ = 0 sij > q . Por lo tanto, para obtener los coeficientesψ se tiene que resolver la ecuación de
diferencia lineal homogénea (3.2.2) sujeto a las condiciones iniciales especificadas por (3.2.1). Para más información sobre este
tema, véanse la Sección 3.6 de Brockwell y Davis (1991) y la Sección 3.3 de Shumway y Stoffer (2006).
j
j
j
Cálculos de R
En R, estos cálculos se pueden realizar usando el comando ArmaTomA. Por ejemplo, se pueden usar los comandos
>Armatoma (ar=.7, ma=.3,25)
>parcela (ArmaTomA (ar=.7, ma=.3,25))
lo que producirá la salida mostrada en la Figura 3.4. La gráfica muestra muy bien la decadencia exponencial de losψ pesos, que
es típica de los procesos ARMA. En la tabla se muestran los pesos en filaψ , … , ψ . Esto se habilita por la elección de 25 en
el argumento de la función ArmaTomA.
0
24
1.0000000000
0.7000000000
0.4900000000
0.3430000000
0.2401000000
0.1680700000
0.1176490000
0.0823543000
0.0576480100
0.0403536070
0.0282475249
0.0197732674
0.0138412872
0.0096889010
0.0067822307
3.2.4
https://espanol.libretexts.org/@go/page/148651
0.0047475615
0.0033232931
0.0023263051
0.0016284136
0.0011398895
0.0007979227
0.0005585459
0.0003909821
0.0002736875
0.0001915812
Figura 3.4: La salida R para el proceso ARMA (1,1) del Ejemplo 3.2.4
Contribuyentes
Template:ContribAue
This page titled 3.2: Causalidad e invertibilidad is shared under a not declared license and was authored, remixed, and/or curated by Alexander
Aue.
3.2: Causality and Invertibility by Alexander Aue has no license indicated.
3.2.5
https://espanol.libretexts.org/@go/page/148651
3.3: El PACF de un proceso de ARMA Causal
En esta sección se introduce la función de autocorrelación parcial (PACF) para evaluar aún más la estructura de dependencia de los
procesos estacionarios en general y los procesos causales ARMA en particular. Para empezar, calculemos el ACVF de un proceso
de promedio móvil de ordenq
Ejemplo3.3.1: The ACVF of an MA(q ) process
Let(X : t ∈ Z) Ser un proceso MA (q) especificado por el polinomioθ(z) = 1 + θ
sostiene que
1z
t
+ … + θq z
q
. Entonces, dejandoθ
0
=1
,
q
E[ Xt ] = ∑ θj E[ Zt−j ] = 0.
j=0
Solución
Para calcular el ACVF, supongamos queh ≥ 0 y escriba
\ begin {align*}
\ gamma (h) &= Cov (X_ {t+h}, X_ {t}) =E [X_ {t+h} X_ {t}]\\ [.2cm]
&=E\ izquierda [\ izquierda (\ suma_ {j=0} ^q\ TheTa_jz_ {t+h-j}\ derecha)\ izquierda (\ sum_ {j=0} ^q\ TheTa_JZ_ {t+h-j}\
derecha)
\ izquierda (\ sum_ {{k=0} ^q\ theta_kz_ {t-k}\ derecha)\ derecha]\\ [.2cm]
&=\ suma_ {j=0} ^q\ suma_ {k=0} ^q\ theta_j\ theta_ke [Z_ {t+h-j} Z_ {t-k}]\\ [ .2cm]
&=\ left\ {\ begin {array} {l@ {\ qquad} r}
\ displaystyle\ sigma^2\ sum_ {k=0} ^ {q-h}\ theta_ {k+h}\ theta_k,
& 0\ leq h\ leq q.\\ [.2cm]
0, & h>q.
\ end {array} derecha\.
\ end {alinear*}
El resultado aquí es una generalización del caso MA (1), el cual fue tratado en el Ejemplo 3.2.3. También es un caso especial
del proceso lineal en el Ejemplo 3.1.4. La estructura del ACVF para procesos MA indica una estrategia posible para determinar
en la práctica el orden desconocidoq: graficar el ACF de la muestra y seleccionar como ordenq el mayor rezago de tal manera
queρ(h) sea significativamente diferente de cero.
Si bien el ACF de muestra puede revelar potencialmente el verdadero orden de un proceso de MA, lo mismo ya no es cierto en el
caso de los procesos AR. Incluso para las series de tiempo AR (1) se ha mostrado en el Ejemplo 3.2.1 que su ACFρ(h) = ϕ es
distinto de cero para todos los rezagos. Como motivación adicional, sin embargo, discutimos el siguiente ejemplo.
|h|
Ejemplo 3.3.2
Dejar(X
t:
t ∈ Z)
ser un proceso de AR causal (1) con parámetro|ϕ| < 1 . Sostiene que
\ [\ gamma (2) =Cov (X_2, X_ {0})
=Cov (\ phi^2x_ {0} +\ phi Z_ {1} +Z_2, X_ {0})
=\ phi^2\ gamma (0)\ no=0. \ nonumber\]
Para romper la dependencia lineal entreX yX , restarϕX de ambas variables. Cálculo de los rendimientos de covarianza
resultantes
0
2
1
C ov(X2 − ϕX1 , X0 − ϕX1 ) = C ov(Z2 , X0 − ϕX1 ) = 0,
ya que, debido a la causalidad de este proceso AR (1),X
correlacionada conX − ϕX = Z .
0
2
1
− ϕX1
es una función deZ
1,
Z0 , Z−1 , …
y por lo tanto no está
2
El ejemplo anterior motiva la siguiente definición general.
Definición 3.3.1 Función de autocorrelación parcial
3.3.1
https://espanol.libretexts.org/@go/page/148654
Dejar(X
t:
t ∈ Z)
ser un proceso estocástico débilmente estacionario con media cero. Luego, la secuencia(ϕ
hh
: h ∈ N)
dada por
\ begin {align*}
\ phi_ {11} &=\ rho (1) =Corr (X_1, X_0),\\ [.2cm]
\ phi_ {hh} &=Corr (x_h-x_h^ {h-1}, X_0-X_0^ {h-1}),\ qquad
h\ geq 2,
\ end {align*}
se llama la función de autocorrelación parcial (PACF) de(X
t:
t ∈ Z)
.
En ella,
\ begin {align*}
x_h^ {h-1} &=\ mbox {regresión de $x_h$ on
} (X_ {h-1},\ ldots, X_1)\\ [.2cm]
&=\ beta_1x_ {h-1} +\ beta_2x_ {h-2} +\ ldots+\ beta_ {h-1} X_1\ [.3cm]
X_0^ {h-1} &=\ mbox {regresión de $X_0$ en
} (X_1,\ ldots, X_ {h-1})\\ [.2cm]
&=\ beta_1x_1+\ beta_2x_2+\ ldots+\ beta_ {h-1} X_ {h-1}.
\ end {alinear*}
Observe que no hay coeficiente de intercepciónβ en los parámetros de regresión, ya que se supone queE[X
ejemplo demuestra cómo calcular los parámetros de regresión en el caso de un proceso AR (1).
t]
0
=0
. El siguiente
Figura 3.5 Los ACF y PACF de un proceso AR (2) (panel superior), y un proceso MA (3) (panel medio) y un proceso ARMA (1,1)
(panel inferior).
Ejemplo 3.3.3 PACF de un proceso AR (1)]
Si(X : t ∈ Z) es un proceso de AR causal (1), entoncesϕ = ρ(1) = ϕ . Para calcularϕ , calcular primeroX
Este coeficiente se determina minimizando el error cuadrático medio entreX yβX :
t
11
22
2
2
E[ X2 − β X1 ]
1
2
= β X1
, es decirβ.
1
2
= γ(0) − 2βγ(1) + β γ(0)
3.3.2
https://espanol.libretexts.org/@go/page/148654
que se minimiza porβ = ρ(1) = ϕ . (Esto sigue fácilmente tomando la derivada y poniéndola a cero). Por lo tantoX = ϕX . De
igual manera, se calculaX = ϕX y se deduce del Ejemplo 3.3.2 queϕ = 0 . Efectivamente todos los rezagosh ≥ 2 del PACF
son cero.
1
1
2
1
1
0
De
manera
más
general,
ϕ(z) = 1 − ϕ1 z − … − ϕp z
p
considere
22
brevemente
un
proceso
de
AR
causal
(p)
dado
porϕ(B)X
t
= Zt
with
.
Entonces, parah > p ,
p
X
h−1
h
= ∑ ϕj Xh−j
j=1
y consecuentemente
ϕhh = C orr(Xh − X
h−1
h
, X0 − X
h−1
0
) = C orr(Zh , X0 − X
h−1
0
) =0
sih > p por causalidad (el mismo argumento usado en el Ejemplo 3.3.2 también se aplica aquí). Observe, sin embargo, que noϕ
es necesariamente cero sih ≤ p . Lo anterior sugiere que la versión de muestra del PACF puede ser utilizada para identificar el
orden de un proceso autorregresivo a partir de datos: usar comop el mayor retrasoh tal queϕ es significativamente diferente de
cero.
hh
hh
Por otro lado, para un proceso MA (q) invertible, se puede escribirZ
t
= π(B)Xt
o, de manera equivalente,
∞
Xt = − ∑ πj Xt−j + Zt
j=1
lo que demuestra que el PACF de un proceso MA (q) será distinto de cero para todos los rezagos, ya que para una regresión
``perfecta” habría que usar todas las variables pasadas en(X : s < t) lugar de solo la cantidadX
dada en la Definición 3.3.1.
t−1
s
t
En resumen, el PACF invierte el comportamiento del ACVF para procesos autorregresivos y de promedio móvil. Mientras que
estos últimos tienen un ACVF que desaparece después del retrasoq y un PACF que no es cero (aunque en descomposición) para
todos los rezagos, los procesos AR tienen un ACVF que no es cero (aunque en descomposición) para todos los rezagos pero un
PACF que desaparece después del retrasop.
ACVF (ACF) y PACF por lo tanto proporcionan herramientas útiles para evaluar la dependencia de procesos ARMA dados. Si el
ACVF estimado (el PACF estimado) es esencialmente cero después de algún retraso de tiempo, entonces la serie temporal
subyacente se puede modelar convenientemente con un proceso MA (AR), y no se tiene que ajustar ninguna secuencia general de
ARMA. Estas conclusiones se resumen en la Tabla 3.3.1
Cuadro 3.1: Comportamiento de ACF y PACF para los procesos AR, MA y ARMA.
Ejemplo 3.3.4
La Figura 3.5 recoge los ACF y PACF de tres procesos ARMA. El panel superior se toma del proceso AR (2) con parámetros
ϕ = 1.5 yϕ = −.75 . Se puede observar que el ACF se apaga y muestra un comportamiento cíclico (tenga en cuenta que el
polinomio autorregresivo correspondiente tiene raíces complejas). El PACF, sin embargo, corta después del rezago 2. Así,
inspeccionando ACF y PACF, especificaríamos correctamente el orden del proceso AR.
1
2
El panel central muestra el ACF y PACF del proceso MA (3) dado por los parámetrosθ
confirmanq = 3 debido a que el ACF corta después del lag 3 y el PACF fracasa.
1
,
= 1.5 θ2 = −.75
yθ
3
=3
. Las parcelas lo
Finalmente, el panel inferior muestra el ACF y PACF del proceso ARMA (1,1) del Ejemplo 3.2.4. Aquí, la evaluación es mucho
más difícil. Mientras que el ACF fracasa como se predijo (ver Cuadro 3.1), el PACF básicamente corta después del retraso 4 o 5.
Esto podría llevar a la conclusión equivocada de que el proceso subyacente es en realidad un proceso AR de orden 4 o 5. (La razón
3.3.3
https://espanol.libretexts.org/@go/page/148654
de este comportamiento radica en el hecho de que la dependencia en este proceso ARMA (1,1) en particular puede aproximarse
bien por la de una serie de tiempo AR (4) o AR (5).)
Para reproducir las gráficas en R, puede usar los comandos
>ar2.acf=armaACF (ar=c (1.5, -.75), ma=0, 25)
>ar2.pacf=armaACF (ar=c (1.5, -.75), ma=0, 25, PACF=T)
para el proceso AR (2). Los otros dos casos se derivan de adaptaciones directas de este código.
Figura 3.6: La serie de reclutamiento del Ejemplo 3.3.5 (izquierda), su muestra ACF (media) y la muestra PACF (derecha).
Figura 3.7: Matriz de diagrama de dispersión que relaciona el reclutamiento actual con el reclutamiento pasado para los rezagos
h = 1, … , 12 .
Ejemplo 3.3.5 Serie de Reclutamiento
Los datos considerados en este ejemplo consisten en 453 meses de reclutamiento observado (número de peces nuevos) en cierta
parte del Océano Pacífico recolectados a lo largo de los años 1950—1987. La gráfica de series de tiempo correspondiente se da en
el panel izquierdo de la Figura 3.6. Los ACF y PACF correspondientes mostrados en el panel medio y derecho de la misma figura
recomiendan ajustar un proceso AR de ordenp = 2 a los datos de reclutamiento. Suponiendo que los datos están en rec, el código
R a reproducir Figura 3.6 es
> rec = ts (rec, inicio=1950, frecuencia=12)
> parcela (rec, xlab= "”, ylab= "”)
> acf (rec, lag=48)
> pacf (rec, lag=48)
3.3.4
https://espanol.libretexts.org/@go/page/148654
Esta afirmación también es congruente con las tramas de dispersión que relacionan el reclutamiento actual con el reclutamiento
pasado en varios rezagos de tiempo, a saberh = 1, … , 12. Para los rezagos 1 y 2, parece haber una fuerte relación lineal, mientras
que ya no es así parah ≥ 3 . Los comandos R correspondientes son
> lag.plot (rec, lags=12, layout=c (3,4), diag=F)
Denotar porX el reclutamiento en el momentot . Para estimar los parámetros AR (2), ejecutar una regresión sobre los tripletes de
datos observados incluidos en el conjunto(x , x − 1, x − 2): j = 3, … , 453 para ajustarse a un modelo de la forma
t
t
t
t
Xt = ϕ0 + ϕ1 Xt − 1 + ϕ2 Xt − 2 + Zt ,
donde(Z
t)
2
∼ WN (0, σ )
t = 3, … , 453,
. Esta tarea se puede realizar en R de la siguiente manera.
> fit.rec = ar.ols (rec, AIC=F, orden.max=2, demean=F, intercept=T)
Estas estimaciones se pueden evaluar con el comando {\ tt fit.rec} y los errores estándar correspondientes confit. rec$asy. se .
Aquí se obtienen las estimaciones de parámetrosϕ^ = 6.737(1.111)ϕ^ = 1.3541(.042),,ϕ^ = −.4632(.0412) yσ
^ = 89.72. Los
errores estándar se dan entre paréntesis.
2
0
1
2
This page titled 3.3: El PACF de un proceso de ARMA Causal is shared under a not declared license and was authored, remixed, and/or curated
by Alexander Aue.
3.3: The PACF of a Causal ARMA Process by Alexander Aue has no license indicated.
3.3.5
https://espanol.libretexts.org/@go/page/148654
3.4: Pronósticos
Supongamos que las variablesX , … , X de una serie temporal débilmente estacionaria se(X : t ∈ Z) han observado con el
objetivo de predecir o pronosticar los valores futuros deX , X , …. El foco está aquí en los llamados mejores predictores
lineales (BLP) de un solo paso. Estas son, por definición, combinaciones lineales
1
n
t
n+1
n+2
^
X
n+1 = ϕn0 + ϕn1 Xn + … + ϕnn X1
de las variables observadasX
1,
(3.4.1)
que minimizan el error cuadrático medio
… , Xn
2
E [{ Xn+1 − g(X1 , … , Xn )} ]
para funciones g deX , … , X . Las generalizaciones sencillas producen definiciones para los m -step mejores predictores lineales
^
X
X
de arbitrariosm ∈ N de la misma manera. Usando la teoría espacial de Hilbert, se puede probar el siguiente teorema
que será el punto de partida para nuestras consideraciones.
1
n+m
n
n+m
Teorema3.4.1: Best linear prediction (BLP)
Dejar(X : t ∈ Z) ser un proceso estocástico débilmente estacionario del cualX
un solo pasoX
está determinado por las ecuaciones
1,
t
… , Xn
^
se observan. Luego, el BLPX
n+1
de
n+1
^
E [(Xn+1 − X n+1 )Xn+1−j ] = 0
para todosj = 1, … , n + 1 , dondeX
0
=1
.
Las ecuaciones especificadas en Teorema3.4.1 pueden ser utilizadas para calcular los coeficientesϕ , … , ϕ en la Ecuación\ ref
{3.4.1}. Es suficiente enfocarse en los procesos de media cero(X : t ∈ Z) y así establecerϕ = 0 como muestran los siguientes
^
cálculos. Asumir esoE[X ] = μ para todost ∈ Z . Entonces, Teorema3.4.1 da esoE[X
] = E[ X
] = μ (usando la ecuación
conj = n + 1 . En consecuencia, sostiene que
n0
t
nn
n0
t
n+1
n
n+1
n
^
μ = E[ X n+1 ] = E [ ϕn0 + ∑ ϕnℓ Xn+1−ℓ ] = ϕn0 + ∑ ϕnℓ μ.
ℓ=1
Usando ahora esoϕ
n0
= μ(1 − ϕn1 − … − ϕnn )
ℓ=1
, la ecuación\ ref {3.4.1} se puede reescribir como
^
Y n+1 = ϕn1 Yn + … + ϕnn Y1 ,
dondeY^
n+1
^
= X n+1 − μ
Con el ACVFγ de(X
t:
tiene cero medio.
t ∈ Z)
, las ecuaciones en Teorema se3.4.1 pueden expresar como
n
∑ ϕnℓ γ(j − ℓ) = γ(j),
j = 1, … , n.
(3.4.2)
ℓ=1
Obsérvese que debido a la convenciónϕ = 0 , se omite la última ecuación en Teorema3.4.1 (para la cualj = n + 1 ). Más
convenientemente, esto se reformula en notación matricial. Para ello, vamosΓ = (γ(j − ℓ))
,ϕ = (ϕ , … , ϕ ) y
γ = (γ(1), … , γ(n)) , donde
denota la transposición. Con estas notaciones, (3.4.2.) se convierte
n0
n
T
n
j,ℓ=1,…,n
n
n1
nn
T
T
Γn ϕn = γn
⟺
−1
ϕn = Γn
γn ,
(3.4.3)
siempre que noΓ sea singular.
n
La determinación de los coeficientes seϕ ha reducido así a resolver un sistema de ecuaciones lineales y depende únicamente de
las propiedades de segundo orden de las(X : t ∈ Z) cuales son dadas por la ACVFγ.
nℓ
t
^
VamosX = (X , X , … , X ) . Entonces,X
= ϕ X . Para evaluar la calidad de la predicción, se calcula el error
cuadrático medio con la ayuda de la Ecuación\ ref {3.4.3} de la siguiente manera:
T
n
n
n−1
1
n+1
T
n
n
3.4.1
https://espanol.libretexts.org/@go/page/148658
2
^
Pn+1 = E [(Xn+1 − X n+1 ) ]
2
T
= E [(Xn+1 − ϕn Xn ) ]
−1
T
= E [(Xn+1 − γn Γn
= E [X
2
−1
T
n+1
− 2 γn Γn
−1
T
= γ(0) − 2 γn Γn
T
−1
= γ(0) − γn Γn
2
Xn ) ]
T
−1
Xn Xn+1 + γn Γn
T
−1
−1
γn + γn Γn
Γn Γn
T
−1
Xn Xn Γn
γn ]
γn
γn .
(3.4.4)
Como ejemplo inicial, explicamos el procedimiento de predicción para un proceso autorregresivo de orden 2.
Ejemplo3.4.1: Prediction of an AR(2) Process
Sea el proceso causal AR (2)X = ϕ X + ϕ X + Z . Supongamos que soloX se dispone de una
observación de para pronosticar el valor deX . En este caso simplificado, la ecuación de predicción única\ ref {3.4.2} es
(Xt : t ∈ Z)
t
1
t−1
2
t−2
t
1
2
ϕ11 γ(0) = γ(1),
para queϕ
11
= ρ(1)
^
yX
1+1
= ρ(1)X1
.
En el siguiente paso, supongamos que los valores observados deX yX están a la mano para pronosticar el valor deX .
Entonces, de manera similar se obtiene de (3.4.2.) que el predictor puede calcularse a partir de
1
^
X 2+1
T
= ϕ21 X2 + ϕ22 X1 = ϕ
2
γ(0)
2
−1
X2 = (Γ
2
T
γ2 )
X2
−1
γ(1)
= (γ(1), γ(2))(
)
γ(1)
3
(
γ(0)
X2
).
X1
No obstante, aplicando los argumentos que condujeron a la definición del PAC en la Sección 3.3.3., se concluye que
E [{ X3 − (ϕ1 X2 + ϕ2 X1 )} X1 ] = E[ Z3 X1 ] = 0,
E [{ X3 − (ϕ1 X2 + ϕ2 X1 )} X2 ] = E[ Z3 X2 ] = 0.
^
^
De ahí,X
= ϕ X +ϕ X
e inclusoX
= ϕ X +ϕ X
para todosn ≥ 2 , explotar la particular estructura
autorregresiva.
Dado que se pueden probar resultados similares para los procesos de AR causales generales (p), los predictores de un solo paso
tienen la forma
2+1
1
2
2
1
n+1
1
n
2
n−1
^
X n+1 = ϕ1 Xn + … + ϕp Xn−p+1
siempre que el número de variables observadas n sea al menos p.
El principal inconveniente de este enfoque es inmediatamente evidente a partir del ejemplo anterior: Para tamaños de muestra
mayores n, el procedimiento de predicción requiere el cálculo de la matriz inversaΓ que es computacionalmente costosa. En el
resto de esta sección, se introducen dos métodos de predicción recursiva que evitan la inversión por completo. Se les conoce como
algoritmo Durbin-Levinson y algoritmo de innovaciones. Finalmente, se introducen predictores basados en el pasado infinito que a
menudo son fácilmente aplicables para la clase de procesos ARMA causales e invertibles.
−1
n
Método 1: El algoritmo de Durbin-Levinson
Si(X : t ∈ Z) es un proceso débilmente estacionario medio cero con ACVFγ tal queγ(0) > 0 yγ(h) → 0 comoh → ∞ ,
entonces los coeficientesϕ en (3.4.2.) y los errores cuadrados mediosP en (3.4.4.) satisfacen las recursiones
t
nℓ
n
γ(1)
ϕ11 =
,
P0 = γ(0),
γ(0)
y, paran ≥ 1 ,
3.4.2
https://espanol.libretexts.org/@go/page/148658
n−1
1
ϕnn =
⎛
ϕn1
(γ(n) − ∑ ϕn−1,ℓ γ(n − ℓ)) ,
Pn−1
⎞
ℓ=1
⎛
ϕn−1,1
⎞
ϕn−1,n−1
⎛
⎞
⎜
⎜ ⋮
⎟ =⎜
⎟
⎜ ⋮
⎟−ϕ
⎜
nn ⎜ ⋮
⎟
⎟
⎟
⎝
⎠
⎠
⎠
ϕn,n−1
⎝
ϕn−1,n−1
⎝
ϕn−1,1
y
2
Pn = Pn−1 (1 − ϕnn ).
Se puede demostrar que bajo los supuestos hechos sobre el proceso(X : t ∈ Z) , sostiene efectivamente queϕ es igual al valor del
PACF de(X : t ∈ Z) al lag n. El resultado se formula como Corolario 5.2.1 en Brockwell y Davis (1991). Este hecho se destaca en
un ejemplo.
t
nn
t
El PACF de un proceso AR (2)
Dejar(X : t ∈ Z) ser un proceso de AR causal (2). Entonces,ρ(1) = ϕ
calcular recursivamente a partir de
1 /(1
t
y todos los demás valores se pueden
− ϕ2 )
ρ(h) − ϕ1 ρ(h − 1) − ϕ2 ρ(h − 2) = 0,
h ≥ 2.
Obsérvese que la ACVFγ satisface una ecuación de diferencia con los mismos coeficientes, lo cual se ve multiplicando por
esta última ecuaciónγ(0). La aplicación del algoritmo Durbin-Levinson da primero que
γ(1)
ϕ11 =
= ρ(1)
2
and
P1 = P0 (1 − ϕ
11
γ(0)
2
) = γ(0)(1 − ρ(1 ) ).
Ignorando la recursividad para los términos de errorP en lo siguiente, los siguientesϕ
n
nℓ
1
ϕ22 =
P1
2
1
[γ(2) − ϕ11 γ(1)] =
−1
ϕ (1 − ϕ2 )
1
=
valores se obtienen a
2
[ρ(2) − ρ(1 ) ]
2
1 − ρ(1)
−1
+ ϕ2 − [ ϕ1 (1 − ϕ2 )
2
]
1 − [ ϕ1 (1 − ϕ2 )−1 ]2
= ϕ2 ,
ϕ21 = ϕ11 − ϕ22 ϕ11 = ρ(1)(1 − ϕ2 ) = ϕ1 ,
1
ϕ33 =
P2
1
[γ(3) − ϕ21 γ(2) − ϕ22 γ(1)] =
P2
[γ(3) − ϕ1 γ(2) − ϕ2 γ(2)] = 0.
Ahora, refiriéndose a los comentarios posteriores al Ejemplo 3.3.7., no son necesarios más cálculos para determinar el PACF
porqueϕ = 0 para todosn > p = 2 .
nn
Método 2: El algoritmo de innovaciones
En contraste con el algoritmo Durbin-Levinson, este método también se puede aplicar a procesos no estacionarios. Por lo tanto,
en general, debe preferirse sobre el Método 1. El algoritmo de innovaciones obtiene su nombre por el hecho de que se utiliza
directamente la forma de las ecuaciones de predicción en el Teorema 3.4.1. que se establecen en términos de las innovaciones
^
(X
−X
)
. Observe que la secuencia consiste en variables aleatorias no correlacionadas.
t+1
t+1
t∈Z
^
Los predictores de un solo paso seX
n+1
pueden calcular a partir de las recursiones
^
X 0+1 = 0,
P1 = γ(0)
y, paran ≥ 1 ,
3.4.3
https://espanol.libretexts.org/@go/page/148658
n
^
^
X n+1 = ∑ θnℓ (Xn+1−ℓ − X n+1−ℓ )
ℓ=1
n−1
2
Pn+1 = γ(0) − ∑ θ
n,n−ℓ
Pℓ+1 ,
ℓ=0
donde los coeficientes se obtienen de las ecuaciones
ℓ−1
1
θn,n−ℓ =
Pℓ+1
[γ(n − ℓ) − ∑ θℓ,ℓ−i θn,n−i Pi+1 ] ,
ℓ = 0, 1, … , n − 1.
i=0
Como ejemplo mostramos cómo se aplica el algoritmo de innovaciones a una serie temporal de promedio móvil de orden 1.
Ejemplo3.4.3: Prediction of an MA(1) Process
Dejar(X
t:
t ∈ Z)
ser el proceso MA (1)X
t
. Tenga en cuenta que
= Zt + θZt−1
2
2
γ(0) = (1 + θ )σ ,
γ(1) = θσ
2
and
γ(h) = 0
(h ≥ 2).
Usando el algoritmo de innovaciones, se puede calcular el predictor de un solo paso a partir de los valores
\ begin {align*}
\ theta_ {n1} =\ frac {\ theta\ sigma^2} {p_n},\ qquad
\ theta_ {n\ ell} =0\ quad (\ ell=2,\ ldots, n-1),
\ end {align*}
y
2
2
P1 = (1 + θ )σ ,
2
Pn+1 = (1 + θ
− θθn1 )σ
2
como
^
X n+1 =
θσ
2
Pn
^
(Xn − X n ).
Método 3: Predicción basada en el pasado infinito
Supongamos que se analiza un proceso ARMA causal e invertible (p, q). Supongamos además que (de manera poco realista) se
puede almacenar el historial completo del proceso y que así se(X : t ≤ n) puede acceder a todas las variables pasadas. Definir
entonces
t
~
X n+m = E[ Xn+m | Xn , Xn−1 , …],
como el predictor m -step ahead basado en el pasado infinito. Se puede demostrar que, para tamaños de muestra grandes n, la
~
^
diferencia entre los valores deX
yX
desaparece a una tasa exponencial. Aprovechando la causalidad e invertibilidad
~
del proceso ARMA, se puede transformar el predictorX
para que esté en una forma computacionalmente más factible.
Para ello, tenga en cuenta que por causalidad
n+m
n+m
n+m
~
X n+m = E[ Xn+m | Xn , Xn−1 , …]
∞
∣
= E [ ∑ ψj Zn+m−j Xn , Xn−1 , …]
∣
j=0
∞
= ∑ ψj Zn+m−j
(3.4.5)
j=m
3.4.4
https://espanol.libretexts.org/@go/page/148658
porqueE[Z |X , X , …] es igual a cero si t>n y es igual a Z_t ift ≤ n (¡debido a la invertibilidad!). La representación en
~
(3.4.5.) se puede utilizar para calcular el error de predicción cuadrático medioP
. De la causalidad se desprende que
t
n
n−1
n+m
2
m−1
m−1
⎡
⎤
~
~
2
2
2
P n+m = E[(Xn+m − X n+m ) ] = E
( ∑ ψj Zn+m−j )
=σ ∑ψ .
⎣
(3.4.6)
j
⎦
j=0
j=0
~
Por otro lado, la Ecuación\ ref {3.4.5} no permite calcular directamente los pronósticos porqueX
variables de ruidoZ
. En su lugar se utilizará la invertibilidad. Observe primero que
n+m
se da en términos de las
n+m−j
~
X n+m−j ,
j < m.
Xn+m−j ,
j ≥ m.
E[ Xn+m−j | Xn , Xn−1 , …] = {
Por invertibilidad (la parte ``0= "se desprende de nuevo de la causalidad),
0 = E[ Zn+m | Xn , Xn−1 , …]
(3.4.7)
∞
∣
= E [ ∑ πj Xn+m−j Xn , Xn−1 , …]
∣
(3.4.8)
j=0
∞
= ∑ πj E[ Xn+m−j | Xn , Xn−1 , …].
(3.4.9)
j=0
Combinando los dos estados anteriores, rinde
m−1
∞
j=1
j=m
~
~
X n+m = − ∑ πj X n+m−j − ∑ πj Xn+m−j .
(3.4.10)
Las ecuaciones ahora se pueden resolver recursivamente param = 1, 2, … Note, sin embargo, que para cualquieram ≥ 1 la
~
secuencia(X
−X
: t ∈ Z) no consiste en variables aleatorias no correlacionadas. De hecho, sih ∈ N , sostiene
que
n+m+t
n+m+t
0
~
~
E[(Xn+m − X n+m )(Xn+m+h − X n+m+h )]
(3.4.11)
m−1
m+h−1
= E [ ∑ ψj Zn+m−j
j=0
∑
ψi Zn+m+h−i ]
(3.4.12)
i=0
m−1
=σ
2
∑ ψj ψj+h .
(3.4.13)
j=0
Por último, para fines prácticos es necesario truncar el pronóstico dado. Esto se logra estableciendo
∞
∑
πj Xn+m−j = 0.
j=n+m
Las ecuaciones resultantes (ver Ecuación\ ref {3.4.7} para comparación) producen recursivamente los predictores de m -step
truncadosX
:
∗
n+m
m−1
∗
n+m−1
Xn+m = − ∑ πj X
∗
n+m−j
−
∑
πj Xn+m−j .
(3.4.14)
j=m
j=1
Contributores
Template:ContribAue
Template:ContribNakano
This page titled 3.4: Pronósticos is shared under a not declared license and was authored, remixed, and/or curated by Alexander Aue.
3.4.5
https://espanol.libretexts.org/@go/page/148658
3.4: Forecasting by Alexander Aue has no license indicated.
3.4.6
https://espanol.libretexts.org/@go/page/148658
3.5: Estimación de parámetros
Dejar(X
t:
t ∈ Z)
ser un ARMA causal e invertible (p, q)
proceso con órdenes conocidas p y q, posiblemente con mediaμ . Esta sección se refiere a los procedimientos de estimación para el
vector de parámetro desconocido
2
T
β = (μ, ϕ1 , … , ϕp , θ1 , … , θq , σ )
.
(3.5.1)
Para simplificar el procedimiento de estimación, se supone que los datos ya han sido ajustados restando la media y, por lo tanto, la
discusión se restringe a los modelos ARMA de media cero.
A continuación se introducen tres métodos de estimación. El método de los momentos funciona mejor en el caso de los procesos de
RA puros, mientras que no conduce a procedimientos de estimación óptimos para los procesos generales de ARMA. Para estos
últimos, se proporcionan estimadores más eficientes por los métodos de máxima verosimilitud y mínimos cuadrados que se
discutirán posteriormente.
Método 1 (Método de Momentos) Dado que este método solo es eficiente en su caso, la presentación aquí se restringe a los
procesos AR (p)
Xt = ϕ1 Xt−1 + … + ϕp Xt−p + Zt , t ∈ Z,
donde(Z : t ∈ Z) ∼ WN(0, σ ) . βEn consecuencia, el vector de parámetros se reduce a(ϕ, σ
puede estimar usando las ecuaciones de Yule-Walker
2
2
t
Γp ϕ = γp
and σ
2
T
= γ(0) − ϕ
T
)
conϕ = (ϕ
1,
T
… , ϕp )
y se
γp ,
dóndeΓ = (γ(k − j))
yγ = (γ(1), … , γ(p)) . Observe que las ecuaciones se obtienen por los mismos argumentos
aplicados para derivar el algoritmo Durbin-Levinson en la sección anterior. El método de los momentos sugiere reemplazar cada
cantidad en las ecuaciones de Yule-Walker por sus contrapartes estimadas, lo que arroja los estimadores de Yule-Walker
T
p
k,j=1,…,p
p
−1
^
ϕ̂ = Γ
p
σ
^
^
En ella,R
p
−1
^(0 )
=γ
^
Γp
yρ^
−1
p
^(0 )
=γ
^
γ
p
2
=γ
^(0) − γ
^
T
p
−1
γ
^
p
^
=R
p
ρ
^
−1
^
Γ
p
γ
^
p
(3.5.2)
p
=γ
^(0) [1 − ρ
^
T
p
−1
^
R
p
ρ
^ ].
(3.5.3)
p
con
definido como en (1.2.1). Utilizandoγ^(h) como estimador para el ACVF en lagh ,n se obtiene una dependencia del tamaño de
la muestra de manera implícita. Esta dependencia se suprime en la notación aquí utilizada. El siguiente teorema contiene el
comportamiento límite de los estimadores de Yule-Walker ya que n tiende al infinito.
^(h)
γ
Teorema 3.5.1. Si(X
t:
t ∈ Z)
es un proceso causal AR (p), entonces
D
−
2
−1
√n (ϕ̂ − ϕ) ⟶ N (0, σ Γp )
and
σ
^
2
P
⟶ σ
2
asn → ∞ , donde→ indica convergencia en probabilidad.
P
Una prueba de este resultado se da en la Sección 8.10 de Brockwell y Davis (1991). Dado que las ecuaciones (3.5.2) y (3.5.3)
tienen la misma estructura que las ecuaciones correspondientes (3.4.3) y (3.4.4), el algoritmo Durbin-Levinson puede ser utilizado
ˆ
ˆ
ˆ
para resolver recursivamente para los estimadoresϕ
= (ϕ
,…,ϕ
) . Además, dado queϕ
es igual al valor del PACF de
(X : t ∈ Z) al lag h, el estimadorϕ̂
puede ser utilizado como su proxy. Ya que ya se sabe que, en el caso de los procesos AR (p),
ϕ
= 0 si h>p, Teorema (3.5.1) implica inmediatamente el siguiente corolario.
h
t
h1
hh
hh
hh
hh
Corolario 3.5.1 Si(X
t:
t ∈ Z)
es un proceso AR causal (p), entonces
D
−ˆ
√n ϕ hh ⟶ Z
(n → ∞)
para todos h>p, donde Z representa una variable aleatoria normal estándar.
Ejemplo 3.5.1. (Estimaciones de Yule-Walker para procesos AR (2)). Supongamos que seX = 1.5X − .75X + Z han
observadon = 144 valores del proceso autorregresivo, donde(Z : t ∈ Z) se encuentra una secuencia de variables normales
t
t−1
t−2
t
t
3.5.1
https://espanol.libretexts.org/@go/page/148660
estándar independientes. Supongamos además esoγ^(0) = 8.434,ρ^(1) = 0.834 yρ^(2) = 0.476 han sido calculados a partir de los
datos. Los estimadores de Yule-Walker para los parámetros son dados por
−1
ˆ
ϕ1
ˆ
ϕ =(
1.000
0.834
) = (
ϕ̂
0.834
)
0.834
(
1.000
1.439
) =(
0.476
)
−0.725
2
y
σ
^
2
1.439
= 8.434 [1 − (0.834, 0.476) (
)] = 1.215.
−0.725
Para construir intervalos de confianza asintóticos usando el Teorema 3.5.1, esσ
limitante desconocida. Esto se puede hacer usando el estimador
−1
−1
2
^
σ
^ Γ
1
p
=
n
1.000
1.215
144 8.434
)
0.834
−1
Γp
2
0.834
(
2
necesario estimar la matriz de covarianza
0.057
−0.003
−0.003
0.057
=(
1.000
).
2
Luego, el intervalo de confianza de1 − α nivel para los parámetrosϕ yϕ se computan como
1
1.439 ± 0.057 z1−α/2
respectivamente, dondez
1−α/2
2
and
− 0.725 ± 0.057 z1−α/2 ,
está el cuantil normal correspondiente.
Ejemplo 3.5.2 (Serie de Reclutamiento).
Reconsideremos la serie de reclutamiento del Ejemplo 3.3.5. Allí, primero se estableció un modelo AR (2) como apropiado para los
datos y luego se estimaron los parámetros del modelo utilizando un enfoque de mínimos cuadrados ordinarios. Aquí, los
coeficientes se estimarán en cambio con el procedimiento de Yule-Walker. El comando R es
> rec.yw = ar.yw (rec, pedido=2)}
^ = 62.26, mientras que se accede a las estimaciones de
La estimación media se puede obtener de rec.yw$x.mean asμ
parámetros autorregresivos y sus errores estándar con los comandos rec.yw$ar y sqrt (rec.yw$asy.var.coef as
^
^
ϕ = 1.3316(.0422) yϕ = −.4445(.0422). Finalmente, la estimación de varianza se obtiene de rec.yw$var.pred as
^ = 94.7991. Todos los valores son cercanos a sus contrapartes en el Ejemplo 3.3.5.
σ
1
2
2
Ejemplo 3.5.3. Considere el proceso MA invertible (1)X
tiene una representación autorregresiva infinita
t
= Zt + θZt−1
, donde|θ| < 1 . Usando la invertibilidad, cada unoX
t
∞
j
Xt = ∑(−θ) Xt−j + Zt
j=1
que es no lineal en el parámetro desconocidoθ a estimar. El método de los momentos está aquí basado en resolver
^
θ
γ
^(1)
^(1) =
ρ
=
^(0)
γ
^
1+θ
2
.
paraθ^ . La ecuación cuadrática anterior tiene las dos soluciones
^
θ =
−−−−−−−
−
^(1 )2
1 ± √ 1 − 4ρ
,
2ρ
^(1)
de los cuales elegimos el invertible. Obsérvese además, que no necesariamente|ρ^(1)| es menor o igual a 1/2 que se requiere para la
existencia de soluciones reales. (El valor teórico|ρ(1)|, sin embargo, siempre es menor a 1/2 para cualquier proceso MA (1), como
muestra un cálculo fácil). De ahíθ que no siempre se pueda estimar a partir de muestras de datos dadas.
Método 2 (Estimación de máxima verosimilitud) El algoritmo de innovaciones de la sección anterior aplicado a un ARMA
causal (p, q)
proceso(X
t:
t ∈ Z)
da
3.5.2
https://espanol.libretexts.org/@go/page/148660
i
^
^
X i+1 = ∑ θij (Xi+1−j − X i+1−j ),
1 ≤ i < max{p, q},
j=1
p
q
^
^
X i+1 = ∑ ϕj Xi+1−j + ∑ θij (Xi+1−j − X i+1−j ),
j=1
i ≥ max{p, q},
j=1
con error de predicción
2
Pi+1 = σ Ri+1 .
En la última expresión, seσ ha factorizado debido a razones que se harán evidentes a partir de la forma de la función de
^
verosimilitud que se discutirá a continuación. Recordemos que la secuencia(X − X
: i ∈ Z) consiste en variables aleatorias
no correlacionadas si se conocen los parámetros. Asumiendo normalidad por los errores, además obtenemos incluso independencia.
Esto se puede explotar para definir el procedimiento de estimación de máxima verosimilitud (MLE) gaussiana. A lo largo de todo,
se supone que(X : t ∈ Z) tiene cero media (μ = 0 ). Los parámetros de interés se recogen en los vectoresβ = (ϕ, θ, σ ) y
β = (ϕ, θ) , dóndeϕ = (ϕ , … , ϕ )
yθ = (θ , … , θ ) . Supongamos finalmente que hemos observado las variables
X , … , X . Entonces, la función de verosimilitud gaussiana para las innovaciones es
2
i+1
i+1
2
T
t
′
T
T
1
1
T
p
1
q
n
n
1
1/2
L(β) =
(∏ R
(2πσ 2 )n/2
i
2σ
i=1
2
^
(Xj − X j )
n
1
) exp(−
2
∑
j=1
).
(3.5.4)
Rj
Tomando la derivada parcial deln L(β) con respecto a la variableσ revela que el MLE paraσ puede ser
2
2
calculado a partir de
σ
^
2
^ ^
S(ϕ , θ )
=
n
,
^ ^
S(ϕ , θ ) = ∑
n
2
^
(Xj − X j )
.
Rj
j=1
En ella,ϕ^ yθ^ denotan los MLE deϕ yθ obtenidos de minimizar la probabilidad de perfil o probabilidad reducida
S(ϕ, θ)
ℓ(ϕ, θ) = ln(
1
)+
n
n
n
∑ ln(Rj ).
j=1
Observe que la probabilidad del perfil seℓ(ϕ, θ) puede calcular utilizando el algoritmo de innovaciones. La velocidad de estos
cálculos depende en gran medida de la calidad de las estimaciones iniciales. Estos suelen ser proporcionados por el procedimiento
no óptimo de Yule-Walker. Para los métodos numéricos, como el Newton-Raphson y los algoritmos de puntuación, ver Sección 3.6
en Shumway y Stoffer (2006).
La distribución límite del procedimiento MLE se da como el siguiente teorema. Su prueba se encuentra en la Sección 8.8 de
Brockwell y Davis (1991).
Teorema 3.5.2. Dejar(X
t:
t ∈ Z)
(Zt : t ∈ Z)satisf yingE[ Zt ] = 0
E[ Z
2
t
] =σ
2
ser un proceso causal e invertible ARMA (p, q) definido con una secuencia iid
y
′
. Considerar el MLEβ^ deβ que se inicializa con los estimadores de momento de
′
Método 1. Entonces,
′
D
− ^
′
2
−1
√n (β − β ) ⟶ N (0, σ Γp,q )
El resultado es óptimo. La matriz de covarianzaΓ
diversos procesos autorregresivos.
p,q
(n → ∞).
está en forma de bloque y puede evaluarse en términos de covarianzas de
Ejemplo 3.5.4 (Serie de Reclutamiento). El procedimiento de estimación MLE para la serie de reclutamiento se puede aplicar en R
de la siguiente manera:
>rec.mle = ar.mle (rec, pedido=2)
La estimación media se puede obtener de rec.mle$x.mean asμ
^ = 62.26, mientras que se accede a las estimaciones de
parámetros autorregresivos y sus errores estándar con los comandos rec.mle$ar y sqrt (rec.mle$asy.var.coef) as
3.5.3
https://espanol.libretexts.org/@go/page/148660
yϕ^ = −.4099(.0410). Finalmente, la estimación de varianza se obtiene de rec.yw$var.pred as
= 89.3360. Todos los valores están muy cerca de sus contrapartes en el Ejemplo 3.3.5.
^
ϕ 1 = 1.3513(.0410)
σ
^
2
2
Método 3 (Estimación de mínimos cuadrados) Una alternativa al método de los momentos y al MLE es proporcionada por la
estimación de mínimos cuadrados (LSE). Para procesos causales e invertibles ARMA (p, q), se basa en minimizar la suma
ponderada de cuadrados
n
S(ϕ, θ) = ∑j=1
~
2
^
( Xj −X j )
(3.5.5)
Rj
~
con respecto aϕ yθ , respectivamente. Suponiendo queϕ yθ denotan estos LSE, el LSE paraσ se calcula como
~2
σ =
2
~ ~
S(ϕ , θ )
.
n−p −q
El procedimiento de mínimos cuadrados tiene los mismos asintóticos que el MLE.
′
~′
Teorema 3.5.3. El resultado del Teorema 3.5.2. sostiene también siβ^ se sustituye porβ .
Ejemplo 3.5.5 (Serie de Reclutamiento). La estimación de mínimos cuadrados ya se ha discutido en el Ejemplo 3.3.5, incluyendo
los comandos R.
Contribuidores
Template:ContribAue
Template:ContribNakano
This page titled 3.5: Estimación de parámetros is shared under a not declared license and was authored, remixed, and/or curated by Alexander
Aue.
3.5: Parameter Estimation by Alexander Aue has no license indicated.
3.5.4
https://espanol.libretexts.org/@go/page/148660
3.6: Selección de modelos
En esta sección, se proporcionará una guía aproximada para realizar el análisis de datos. Consta de varias partes, la mayoría de las
cuales han sido discutidas previamente. El enfoque principal está en la selecciónp yq en el probable caso de que estos parámetros
sean desconocidos.
Paso 1. Trazar los datos y verificar si la variabilidad permanece o no razonablemente estable durante todo el período de
observación. Si ese no es el caso, utilice transformaciones preliminares para estabilizar la varianza. Una clase popular viene dada
por las
transformaciones de Box-Cox (Box y Cox, 1964)
\ [f_\ lambda (u_t) =\ left\ {\ begin {array} {l@ {\ qquad} l}
\ lambda^ {-1} (u_t^\ lambda-1), & u_t\ geq 0,\;\ lambda>0.\\ [.2cm]
\ ln u__T y U _t>0,\;\ lambda=0. \ end {array}\ right. \ nonumber\]
En la prácticaf o a menudof
son opciones adecuadas. (Recordemos, por ejemplo, los datos de ventas de vino australiano del
Ejemplo 1.4.1.)
0
1/2
Paso 2. Eliminar, si están presentes, los componentes de tendencia y estacionales de los datos. El Capítulo 1 introdujo una serie de
herramientas para hacerlo, basadas en
la descomposición clásica de una serie de tiempo
Yt = mt + st + Xt
en una tendencia, una estacionalidad y un componente residual. Tenga en cuenta que la diferenciación también funciona sin la
representación específica en la última pantalla. Si los datos aparecen estacionarios, pase al siguiente paso. De lo contrario aplicar,
por ejemplo, otro conjunto de operaciones de diferencia.
Paso 3. Supongamos ahora que los Pasos 1 y 2 nos han proporcionado observaciones que están bien descritas por una secuencia
estacionaria(X : t ∈ Z) . El objetivo es entonces encontrar el ARMA (p, q)modelo más adecuado para describir el proceso. En el
improbable caso de quep yq pueda suponerse conocido, utilizar directamente los procedimientos de estimación de la Sección 3.5.
De lo contrario, elíjalos según uno de los siguientes criterios.
t
a) El criterio estándar que normalmente se implementa en paquetes de software es una modificación del criterio de información de
Akaike, véase Akaike (1969), que fue dado por Hurvich y Tsai (1989). En este trabajo se sugiere elegir los parámetros del modelo
ARMA para minimizar la función objetiva
\ begin {ecuación}\ label {eq:3.7.1}
{\ rm AIC} _C (\ phi,\ theta, p, q)
=-2\ ln L (\ phi,\ theta, S (\ phi,\ theta) /n)
+\ frac {2 (p+q+1) n} {n-p-q-2}. \ tag {3.6.1}
\ fin {ecuación}
Aquí,L(ϕ, θ, σ ) denota la verosimilitud gaussiana definida en (3.5.4) yS(ϕ, θ) es la suma ponderada de cuadrados en (3.5.5). Se
puede ver a partir de la definición que elAIC no intenta minimizar directamente la función de verosimilitud logarítmica. La
introducción del término de penalización en el lado derecho de (3.6.1) reduce el riesgo de sobreajuste.
2
C
b) Para procesos autorregresivos puros, Akaike (1969) introdujo un criterio que se basa en una minimización del error de
predicción final. Aquí, el ordenp se elige como el minimizador de la función objetivo
FPE = σ
^
2
n+p
,
n−p
^ denota el MLE de la varianza de ruido desconocidaσ . Para más información sobre este tema y otros procedimientos que
dondeσ
ayudan a encajar un modelo, nos referimos aquí a la Sección 9.3 de Brockwell y Davis (1991).
2
2
Paso 4. El último paso en el análisis se refiere a la comprobación diagnóstica mediante la aplicación de las pruebas de bondad de
ajuste de la Sección 1.5.
3.6.1
https://espanol.libretexts.org/@go/page/148652
This page titled 3.6: Selección de modelos is shared under a not declared license and was authored, remixed, and/or curated by Alexander Aue.
3.6: Model Selection by Alexander Aue has no license indicated.
3.6.2
https://espanol.libretexts.org/@go/page/148652
3.7: Resumen
Se ha introducido la clase de procesos de promedio móvil autorregresivos para modelar procesos estocásticos estacionarios. Se han
examinado propiedades teóricas como causalidad e invertibilidad, las cuales dependen de los ceros de los polinomios
autorregresivos y promedio móvil, respectivamente.
Se ha demostrado cómo la representación causal de un proceso ARMA puede ser utilizada para calcular su función de covarianza
que contiene toda la información sobre la estructura de dependencia. Suponiendo valores de parámetros conocidos, se han discutido
varios procedimientos de pronóstico. El algoritmo Durbin- Levinson funciona bien para procesos de RA puros, mientras que el
algoritmo de innovaciones es particularmente útil para procesos MA puros. Las predicciones usando un pasado infinito funcionan
bien para procesos ARMA causales e invertibles. Para fines prácticos, sin embargo, una versión truncada es más relevante.
Dado que los valores exactos de los parámetros son en general desconocidos, se introdujeron varios procedimientos de estimación.
El procedimiento de Yule-Walker solo es óptimo en el caso AR pero proporciona estimaciones iniciales útiles que pueden ser
utilizadas para la derivación numérica de estimaciones de máxima verosimilitud o mínimos cuadrados.
Por último, se ha proporcionado un marco que puede ser potencialmente útil a la hora de enfrentar el problema de analizar un
conjunto de datos en la práctica.
This page titled 3.7: Resumen is shared under a not declared license and was authored, remixed, and/or curated by Alexander Aue.
3.7: Summary by Alexander Aue has no license indicated.
3.7.1
https://espanol.libretexts.org/@go/page/148655
CHAPTER OVERVIEW
4: Análisis espectral
This page is a draft and is under active development.
En este capítulo se discute un método general para tratar los componentes periódicos de una serie temporal.
4.1: Introducción al Análisis Espectral
4.2: La densidad espectral y el periodograma
4.3: Propiedades de muestra grande
4.4: Filtrado Lineal
4.5: Resumen
This page titled 4: Análisis espectral is shared under a not declared license and was authored, remixed, and/or curated by Alexander Aue.
1
4.1: Introducción al Análisis Espectral
Muchas de las series temporales discutidas en los capítulos anteriores mostraron fuertes componentes periódicos: Los números de
manchas solares del Ejemplo 1.1.1, el número de lince atrapado del Ejemplo 1.1.2 y los datos de ventas de vino australiano del
Ejemplo 1.4.1. A menudo, hay una opción obvia para el periodod de esta parte cíclica como un patrón anual en las ventas de vino.
Dadod , entonces se podría proceder eliminando los efectos estacionales como en la Sección 1.4. En los dos primeros ejemplos es,
sin embargo, algo más difícil determinar el valor preciso ded . En este capítulo, se discute un método general para tratar los
componentes periódicos de una serie temporal. Para complicar las cosas, suele darse el caso de que varios patrones cíclicos se
presentan simultáneamente en una serie de tiempo. Como ejemplo, se recuerdan los datos del índice de oscilación sur (SOI) que
~
exhiben tanto un patrón anual como el denominado patrón El Nin
o.
Las funciones seno y coseno son los prototipos de funciones periódicas. Se van a utilizar aquí para describir el comportamiento
cíclico en series de tiempo. Antes de hacerlo, un ciclo se define como un período completo de una función sinusoidal o coseno en
un intervalo de tiempo de duración2π. Definir también la frecuencia
1
ω =
d
como el número de ciclos por observación, donded denota el periodo de una serie temporal (es decir, el número de observaciones
en un ciclo). Para observaciones mensuales con periodo anual,d = 12 y por endeω = 1/12 = 0.083 ciclos por observación. Ahora
reconsidere el proceso
Xt = R sin(2πωt + φ)
como se introdujo en el Ejemplo 1.2.2, utilizando la convenciónλ = 2πω. Para incluir aleatoriedad en este proceso, elija la
amplitudR y la faseφ para que sean variables aleatorias. Una representación equivalente de este proceso viene dada por
Xt = A cos(2πωt) + B sin(2πωt),
conA = R sin(φ) yB = R cos(φ) generalmente siendo variables normales estándar independientes. Entonces,R = A + B es
una variable aleatoriaχ -cuadrada con 2 grados de libertad yφ = tan (B/A) se distribuye uniformemente sobre(−π, π].
Además,R yφ son independientes. Elegir ahora el valor deω una periodicidad particular se puede describir. Para dar cabida a más
de una, parece natural considerar mezclas de estas series periódicas con múltiples frecuencias y amplitudes:
2
2
2
−1
m
Xt = ∑ [ Aj cos(2π ωj t) + Bj sin(2π ωj t)],
t ∈ Z,
j=1
dondeA , … , A yB , … , B son variables aleatorias independientes con media cero y varianzasσ , … , σ , yω
frecuencias distintas. Se puede demostrar que(X : t ∈ Z) es un proceso débilmente estacionario con lag- h ACVF
1
m
1
2
m
2
m
1
1,
… , ωm
son
t
m
γ(h) = ∑ σ
2
j
cos(2π ωj h),
h ∈ Z.
j=1
Este último resultado arroja en particular esoγ(0) = σ
varianzas de componentes.
2
1
Ejemplo 4.1.1. Dejarm = 2 y elegirA
1
Xt = X
(1)
t
+X
,
= B1 = 1 A2 = B2 = 4
(2)
t
2
+ … + σm
. La varianza deX es consecuentemente la suma de las
t
ser constante así comoω
1
= 1/12
yω
2
= 1/6
. Esto significa que
= [ cos(2πt/12) + sin(2πt/12)] + [4 cos(2πt/6) + 4 sin(2πt/6)]
es la suma de dos componentes periódicos de los cuales uno exhibe un ciclo anual y el otro un ciclo de seis meses. Para todos los
procesos involucrados, las realizaciones den = 48 observaciones (4 años de datos) se muestran en la Figura 4.1. También se
~
muestra una cuarta gráfica de serie de tiempo que contiene el ruido independiente normalX distorsionado por estándar,X . El
código R correspondiente es:
t
t
>t= 1:48
>x1=cos (2*pi*t/12) +sin (2*pi*t/12)
>x2 = 4*cos (2*pi*t/6) +4*sin (2*pi*t/6)
4.1.1
https://espanol.libretexts.org/@go/page/148659
>x=x1+x2
>tildex=x+rnorm (48)
(1)
Tenga en cuenta que la amplitud cuadrada deX es1 + 1 = 2 . Los valores máximo y mínimo deX
−
−
igual manera, obtenemos±√32 para el segundo componente.
2
2
t
(1)
t
–
son por lo tanto±√2. De
Para un estadístico ahora es importante desarrollar herramientas para recuperar las periodicidades a partir de los datos. La rama de
la estadística que se ocupa de este problema se denomina análisis espectral. El método estándar en esta área se basa en el
periodograma que se introduce ahora. Supongamos por el momento que se conoce el parámetro de frecuenciaω = 1/12 en el
Ejemplo 4.1.1. Para obtener estimaciones deA yB , se podría intentar ejecutar una regresión usando las variables explicativas
Y
= cos(2πt/12) oY
= sin(2πt/12) para calcular los estimadores de mínimos cuadrados
1
1
t,1
1
t,2
\ begin {alinear*}
\ hat A_1=&\ dfrac {\ sum_ {t=1} ^nx_ty_ {t,1}} {\ sum_ {t=1} ^ny_ {t,1} ^2} =\ dfrac 2n\ sum_ {t=1} ^nx_t\ cos (2\ pi t/12),\\
[.2cm]
\ sombrero B_1=&\ dfrac {\ sum_ {t=1} ^nx_ty_ {t,2}} {\ suma_ {t=1} ^ny_ {t,2} ^2} =\ dfrac 2n\ suma_ {t=1} ^nx_t\ sin (2\ pi
t/12).
\ end {alinear*}
~
Figura 4.1: Gráficas de series de tiempo de (X t (1)), (X t (2)), (X t) yX
4.1.2
t
https://espanol.libretexts.org/@go/page/148659
Dado que, en general, las frecuencias involucradas no serán conocidas por el estadístico previo al análisis de datos, lo anterior
sugiere escoger una serie de potenciales\(\omega's, say j/n for j = 1, … , n/2 y ejecutar una regresión larga de la forma
n/2
Xt = ∑ [ Aj cos(2πjt/n) + Bj sin(2πjt/n)].
(4.1.1)
j=0
^
^
Esto lleva a estimaciones de mínimos cuadradosA
yB
de las cuales se deben seleccionar las “significativas”. Tenga en cuenta
que la regresión en 4.1.1 es perfecta porque ¡hay tantas incógnitas como variables! Tenga en cuenta también que
j
j
2
2
^
^
P (j/n) = Aj + Bj
es esencialmente (hasta una normalización) un estimador para la correlación entre las series de tiempoX y la suma
correspondiente de las funciones coseno y seno periódicas en frecuenciaj/n. La colección de todosP (j/n) ,j = 1, … , n/2 , se
llama el periodograma escalado. Se puede calcular rápidamente a través de un algoritmo conocido como la transformada rápida de
Fourier (FFT) que a su vez se basa en la transformada discreta de Fourier (DFT)
t
1
d(j/n) =
−
√n
n
∑ Xt exp(−2πijt/n).
t=1
Las frecuenciasj/n se denominan frecuencias de Fourier o fundamentales. Desdeexp(−ix) = cos(x) − i sin(x)
|z| = zz̄ = (a + ib)(a − ib) = a + b
para cualquier número complejoz = a + ib , se deduce que
2
2
y
2
2
I (j/n) = |d(j/n)|
1
=
n
2
n
1
( ∑ Xt cos(2πjt/n))
t=1
+
n
n
2
( ∑ Xt sin(2πjt/n)) .
t=1
La cantidadI (j/n) es referida como el periodograma. De ello se deduce inmediatamente que el periodograma y el periodograma
escalado están relacionados a través de la identidad4I (j/n) = nP (j/n) .
Ejemplo 4.1.2. Usando las expresiones y notaciones del Ejemplo 4.1.1, el periodograma y el periodograma escalado se calculan en
R de la siguiente manera:
>t= 1:48
>l=abs (fft (x) /sqrt (48)) ^ 2
>P=4*I/48
>f= 0:24 /48
>plot (f, P [1:25] , type="l”)
>abline (v=1/12)
>abline (v=1/6)
~
El correspondiente periodograma (escalado) para se(X ) puede obtener de manera similar. Los periodogramas escalados se
~
muestran en el panel izquierdo y medio de la Figura 4.2. El panel derecho muestra el periodograma escalado de otra versión(X )
en la que el ruido normal estándar ha sido reemplazado por ruido normal con varianza 9. De estas parcelas se puede observar que la
periodicidad de seis meses es claramente visible en las gráficas (ver las líneas verticales discontinuas en x=1/6. El ciclo anual
menos pronunciado (línea vertical a x=1/12 sigue siendo visible en los dos primeros periodogramas escalados pero se pierde si la
varianza de ruido se incrementa como en la gráfica derecha. Tenga en cuenta, sin embargo, que la escala y es diferente para las tres
parcelas.
t
t
4.1.3
https://espanol.libretexts.org/@go/page/148659
~ (1)
Figura 4.2: Los periodogramas escalados de (X ),(X
t
t
~ (2)
) (X
)
,
t
En la situación ideal de que observemos el componente periódico sin contaminación adicional por ruido, podemos ver además por
qué el periodograma puede ser útil para descubrir la descomposición de varianza desde arriba. Hemos mostrado en las líneas
(1)
(2)
t
t
anteriores al Ejemplo 4.1.1 que las amplitudes cuadradas deX
yX
son 2 y 32, respectivamente. Estos valores se leen
fácilmente del periodograma escalado en el panel izquierdo de la Figura 4.2. La contaminación con ruido altera estos valores.
En la siguiente sección, se establece que el enfoque de dominio de tiempo (basado en propiedades de la ACVF, es decir, regresión
sobre valores pasados de la serie de tiempo) y el enfoque de dominio de frecuencia (utilizando un enfoque de función periódica a
través de frecuencias fundamentales, es decir, regresión en funciones seno y coseno) son equivalente. Se dan algunos detalles sobre
la densidad espectral (la contraparte poblacional del periodograma) y sobre las propiedades del propio periodograma.
Colaboradores y Atribuciones
Template:ContribAue
Template:ContribNakano
This page titled 4.1: Introducción al Análisis Espectral is shared under a not declared license and was authored, remixed, and/or curated by
Alexander Aue.
4.1: Introduction to Spectral Analysis by Alexander Aue has no license indicated.
4.1.4
https://espanol.libretexts.org/@go/page/148659
4.2: La densidad espectral y el periodograma
El resultado técnico fundamental que se encuentra en el núcleo del análisis espectral establece que cualquier serie temporal
(débilmente) estacionaria puede verse (aproximadamente) como una superposición aleatoria de funciones sinusoidales y cosenales
que varían a diversas frecuencias. En otras palabras, la regresión en (4.1.1) es aproximadamente cierta para todas las series de
tiempo débilmente estacionarias. En los Capítulos 1-3, se muestra cómo se pueden describir las características de un proceso
estocástico estacionario en términos de su ACVFγ(h). El primer objetivo en esta sección es introducir la cantidad correspondiente
γ(h) en el dominio de la frecuencia.
Definición 4.2.1 (Densidad espectral)
Si el ACVFγ(h) de una serie temporal estacionaria (X t) t\ in\ mathbb {Z}\ nonumber\] satisface la condición
∞
∑
|γ(h)| < ∞,
h=−∞
entonces existe una función f definida en (-1/2,1/2] tal que
1/2
γ(h) = ∫
exp(2πiωh)f (ω)dω,
h ∈ Z,
−1/2
y
∞
f (ω) =
∑
γ(h) exp(−2πiωh),
ω ∈ (−1/2, 1/2].
h=−∞
La función f se llama la densidad espectral del procesoX
t:
t ∈ Z)
.
La definición 4.2.1 (que contiene también una parte de teorema) establece que cada proceso débilmente estacionario puede
describirse de manera equivalente en términos de su ACVF o su densidad espectral. También proporciona las fórmulas para
computar una de la otra. En consecuencia, el análisis de series de tiempo se puede realizar ya sea en el dominio del tiempo (usando
γ(h)) o en el dominio de la frecuencia (usando f(ω)) . Qué enfoque es el más adecuado no se puede decidir de manera general sino
que tiene que ser reevaluado para cada aplicación de interés.
A continuación, se recogen varias propiedades básicas de la densidad espectral y se evalúan f para varios ejemplos importantes.
Que la densidad espectral es análoga a una función de densidad de probabilidad se establece en la proposición siguiente.
Proposición 4.2.1
Si f (ω) es la densidad espectral de un proceso débilmente estacionario(X
declaraciones:
t:
t ∈ Z)
, entonces se mantienen las siguientes
a. f (ω)≥ 0 para todosω. Esto se desprende de la definición positiva deγ(h)
b. f (ω) =f (-ω) y f (ω + 1 ) =f (ω)
c. La varianza de (X : t ∈ Z) viene dada por
t
1/2
γ(0) = ∫
f (ω)dω.
−1/2
La parte (c) de la proposición establece que la varianza de un proceso débilmente estacionario es igual a la densidad espectral
integrada en todas las frecuencias. Esta propiedad se vuelve a visitar a continuación, cuando se discutirá un análisis espectral de
varianza (ANOVA espectral). A continuación se presentan tres ejemplos.
Ejemplo 4.2.1 (Ruido blanco)
Si(Z : t ∈ Z) ∼ WN(0, σ ) , entonces su ACVF es distinto de cero solo para h=0, en cuyo casoγ
resultado a la ecuación definitoria de la Definición4.2.1 se obtiene que
t
2
Z (h)
=σ
2
. Al conectar este
2
fZ (ω) = γZ (0) exp(−2πiω0) = σ .
4.2.1
https://espanol.libretexts.org/@go/page/148661
Por lo tanto, la densidad espectral de una secuencia de ruido blanco es constante para todosω ∈ (−1/2, 1/2], lo que significa que
cada frecuenciaω contribuye por igual al espectro general. Esto explica el término ruido ``blanco” (en analogía a la luz ``blanca”).
Ejemplo 4.2.2 (Media móvil)
Dejar(Z
t:
2
t ∈ Z) ∼ WN(0, σ )
y definir las series(X
t:
t ∈ Z)
1
Xt =
2
de tiempo
(Zt + Zt−1 ) ,
t ∈ Z.
Se puede demostrar que
σ
γX (h) =
2
(2 − |h|) ,
h = 0, ±1
4
Figura 4.3: Gráfica de series temporales de ruido blanco(Z
y densidad espectral de(X : t ∈ Z) (derecha).
t:
t ∈ Z)
(izquierda), promedio móvil de dos puntos(X
t:
t ∈ Z)
(medio)
t
y queγ _X=0 de lo contrario. Por lo tanto,
1
fX (ω) = ∑ γX (h) exp(2πiωh)
h=−1
σ
2
=
(exp(−2πiω(−1))) + 2 exp(−2πiω0) + exp(−2πiω1)
4
σ
2
=
(1 + cos(2πω))
2
usando esoexp(ix) = cos(x) + i sin(x) ,cos(x) = cos(−x) ysin(x) = − sin(−x) . Se puede observar a partir de las dos gráficas
de series de tiempo de la Figura 4.3 que la aplicación de la media móvil de dos puntos a la secuencia de ruido blanco suaviza la
trayectoria de la muestra. Esto se debe a una atenuación de las frecuencias más altas que es visible en forma de densidad espectral
en el panel derecho de la Figura 4.3. Todas las parcelas se han obtenido utilizando ruido blanco gaussiano conσ = 1 .
2
Ejemplo 4.2.3 (Proceso AR (2)).
Let(X
t:
t ∈ Z)
Ser un proceso AR (2) que se puede escribir en la forma
Zt = Xt − ϕ1 Xt−1 − ϕ2 Xt−2 ,
4.2.2
t ∈ Z
https://espanol.libretexts.org/@go/page/148661
En esta representación, se puede observar que el ACVFγ de la secuencia de ruido blanco se puede obtener como
Z
γZ (h) = E[(Xt − ϕ1 Xt−1 − ϕ2 Xt−2 )(Xt+h − ϕ1 Xt+h−1 − ϕ2 Xt+h−2 )]
2
= (1 + ϕ
1
2
+ ϕ )γX (h) + (ϕ1 ϕ2 − ϕ1 )[ γX (h + 1) + γX (h − 1)]
2
−ϕ2 [ γX (h + 2) + γX (h − 2)]
Ahora se sabe por la Definición 4.2.1 que
1/2
γX (h) = ∫
exp(2πiωh)fX (ω)dω
−1/2
y
1/2
γZ (h) = ∫
exp(2πiωh)fZ (ω)dω,
−1/2
Figura 4.4: Gráfica de series de tiempo y densidad espectral del proceso AR (2) en el Ejemplo 4.2.3.
dondef
X (ω)
yf
Z (ω)
denotan las densidades espectrales respectivas. En consecuencia,
1/2
γZ (h) = ∫
exp(2πiωh)fZ (ω)dω
−1/2
2
= (1 + ϕ
1
2
+ ϕ )γX (h) + (ϕ1 ϕ2 − ϕ1 )[ γX (h + 1) + γX (h − 1)] − ϕ2 [ γX (h + 2) + γX (h − 2)]
2
1/2
2
=∫
[(1 + ϕ
1
2
+ ϕ ) + (ϕ1 ϕ2 − ϕ1 )(exp(2πiω) + exp(−2πiω))
2
−1/2
−ϕ2 (exp(4πiω) + exp(−4πiω))] exp(2πiωh)fX (ω)dω
1/2
=∫
2
[(1 + ϕ
1
2
+ ϕ ) + 2(ϕ1 ϕ2 − ϕ1 ) cos(2πω) − 2 ϕ2 cos(4πω)] exp(2πiωh)fX (ω)dω.
2
−1/2
Lo anterior implica junto conf
Z (ω)
σ
2
=σ
2
eso
2
= [(1 + ϕ
1
2
+ ϕ ) + 2(ϕ1 ϕ2 − ϕ1 ) cos(2πω) − 2 ϕ2 cos(4πω)] fX (ω).
2
4.2.3
https://espanol.libretexts.org/@go/page/148661
Por lo tanto, la densidad espectral de un proceso AR (2) tiene la forma
fX (ω) = σ
2
2
−1
2
[(1 + ϕ
+ ϕ ) + 2(ϕ1 ϕ2 − ϕ1 ) cos(2πω) − 2 ϕ2 cos(4πω)]
1
2
.
La Figura 4.4 muestra la gráfica de series de tiempo de un proceso AR (2) con parámetrosϕ = 1.35,ϕ = −.41 yσ = 89.34.
Estos valores son muy similares a los obtenidos para la serie de reclutamiento en la Sección 3.5. La misma figura también muestra
la densidad espectral correspondiente usando la fórmula recién derivada.
2
1
2
Con el contenido de esta Sección, hasta el momento se ha establecido que la densidad espectral $f (\ omega) $ es una cantidad
poblacional que describe el impacto de los diversos componentes periódicos. A continuación, se verifica que el periodograma $I (\
omega_j) $ introducido en la Sección\ ref {sec:4.1} es la contraparte muestral de la densidad espectral.
Proposición 4.2.2.
Vamos aω = j/n denotar las frecuencias de Fourier. Si el periodogramaI (ω
un proceso débilmente estacionario(X : t ∈ Z) , entonces
j)
j
2
= |d(ωj )|
se basa en observacionesX
1,
… , Xn
de
t
n−1
I (ωj ) =
∑
^ (h) exp(−2πi ωj h),
γ
n
j ≠ 0.
h=−n+1
Sij = 0 , entoncesI (ω
0)
= I (0) = nX̄
2
.
n
n
Comprobante. Vamos primeroj ≠ 0 . Usando eso∑
t=1
n
1
I (ωj ) =
1
=
n
, se deduce que
n
∑ ∑(Xt − X̄ n )(Xs − X̄ n ) exp(−2πi ωj (t − s))
t=1
n−1
s=1
n−|h|
∑
n
exp(−2πi ωj t) = 0
∑ (Xt+|h| − X̄ n )(Xt − X̄ n ) exp(−2πi ωj h)
h=−n+1
t=1
n−1
=
∑
γ
^ (h) exp(−2πi ωj h),
n
h=−n+1
2
¯
lo que prueba la primera pretensión de la proposición. Sij = 0 , las relacionescos(0) = 1 esin(0) = 0 implican esoI (0) = nX
.
Esto completa la prueba.
n
Se puede decir más sobre el periodograma. De hecho, se puede interpretar el análisis espectral como un análisis espectral de
varianza (ANOVA). Para ver esto, vamos primero
1
dc (ωj ) = Re(d(ωj )) =
n
− ∑ Xt cos(2π ωj t),
√n
t=1
1
ds (ωj ) = Im(d(ωj )) =
n
− ∑ Xt sin(2π ωj t).
√n
t=1
Entonces,I (ω
j)
=
2
dc (ωj )
+
2
ds (ωj )
. Volvamos ahora al ejemplo introductorio y estudiemos el proceso
m
Xt = A0 + ∑ [ Aj cos(2π ωj t) + Bj sin(2π ωj t)],
j=1
dondem = (n − 1)/2 en impar. SupongamosX
antes, se puede ver queA = X̄ y
1,
0
… , Xn
que se han observado. Entonces, usando técnicas de regresión como
n
2
Aj =
n
2
Bj =
n
n
2
∑ Xt cos(2π ωj t) =
t=1
n
− dc (ωj ),
√n
2
∑ Xt sin(2π ωj t) =
t=1
4.2.4
− ds (ωj ).
√n
https://espanol.libretexts.org/@go/page/148661
Por lo tanto,
n
m
2
∑(Xt − X̄ n )
m
2
2
= 2 ∑ [ dc (ωj ) + ds (ωj )] = 2 ∑ I (ωj )
t=1
j=1
j=1
y se obtiene la siguiente tabla ANOVA. Si el proceso estocástico subyacente exhibe un patrón periódico fuerte a cierta frecuencia,
entonces el periodograma probablemente los recogerá.
Ejemplo 4.2.4
Considere los puntos den = 5 datosX = 2 X = 4 ,X = 6 ,X = 2 ,X = 4 y, que muestran un patrón cíclico pero no sinusoidal.
Esto sugiere queω = 1/5 es significativo y noω = 2/5 lo es. En R, el ANOVA espectral se puede producir de la siguiente manera.
1
2
3
5
4
>x = c (2,4,6,4,2), t= 1:5
>cos1 = cos (2*pi*t*1/5)
>sin1 = sin (2*pi*t*1/5)
>cos2 = cos (2*pi*t*2/5)
>sin2 = sin (2*pi*t*2/5)
Esto genera los datos y las variables coseno y seno independientes. Ahora ejecuta una regresión y comprueba la salida del ANOVA.
>reg = lm (x\ ~ {} cos1+sin1+cos2+sin2)
>anova (reg)
Esto lleva a la siguiente salida.
Respuesta: x
Df Suma Cuadrados Media Sq Valor F Pr (>F)
cos1 1 7.1777 7.1777
cos2 1 0.0223 0.0223
sin1 1 3.7889 3.7889
sin2 1 0.2111 0.2111
Residuales 0 0.0000
Según razonamiento previo (¡comprueba la última tabla!) , el periodograma a la frecuenciaω = 1/5 se da como la suma de los
sin1 coeficientescos1
y, es decir,I (1/5) = (d (1/5) + d (1/5))/2 = (7.1777 + 3.7889)/2 = 5.4833. Del mismo modo,
1
c
s
I (2/5) = (dc (2/5) + ds (2/5))/2 = (0.0223 + 0.2111)/2 = 0.1167.
Obsérvese, sin embargo, que el error cuadrático medio se calcula de manera diferente en R. Podemos comparar estos valores con el
periodograma:
> abs (fft (x))ˆ 2/5
[1] 64.8000000 5.4832816 0.1167184 0.1167184 5.4832816
2
¯
El primer valor aquí esI (0) = nX
= 5 ∗ (18/5 ) = 64.8 . El segundo y tercer valor sonI (1/5) yI (2/5), respectivamente, while
I (3/5) = I (2/5) yI (4/5) = I (1/5) completan la lista.
2
n
En la siguiente sección, se discuten algunas propiedades de muestra grande del periodograma para obtener una mejor comprensión
del análisis espectral. \
4.2.5
https://espanol.libretexts.org/@go/page/148661
Contribuidores
Template:ContribAue
Template:ContribNakano
This page titled 4.2: La densidad espectral y el periodograma is shared under a not declared license and was authored, remixed, and/or curated by
Alexander Aue.
4.2: The Spectral Density and the Periodogram by Alexander Aue has no license indicated.
4.2.6
https://espanol.libretexts.org/@go/page/148661
4.3: Propiedades de muestra grande
Dejar(X : t ∈ Z) ser una serie temporal débilmente estacionaria con ACVF mediaμ , absolutamente sumableγ(h) y densidad
espectralf (ω). Procediendo como en el comprobante de la Proposición4.2.2., se obtiene
t
siempreω
j
≠0
n−|h|
n−1
1
I (ωj ) =
∑
n
∑ (Xt+|h| − μ)(Xt − μ) exp(−2πi ωj h),
h=−n+1
(4.3.1)
t=1
. Mediante esta representación, se puede establecer el comportamiento limitante del periodograma.
Proposición 4.3.1
Sea el periodograma basado en observacionesX
cualquierω ≠ 0 ,
I (⋅)
1,
… , Xn
de un proceso débilmente estacionario(X
t:
E[I (ωj:n )] → f (ω)
dondeω
j:n
= jn /n
con(j
n )n∈N
elegido tal queω
j:n
→ ω
t ∈ Z)
, entonces, para
(n → ∞),
comon → ∞ . Siω = 0 , entonces
2
E[I (0)] − nμ
→ f (0)
(n → ∞).
Comprobante. Hay dos límites involucrados en los cálculos de la media del periodograma. Primero, tomar el límite comon → ∞ .
Esto, sin embargo, requiere en segundo lugar que para cada unon tengamos que trabajar con un conjunto diferente de frecuencias
de Fourier. Para ajustarnos a esto, hemos introducido la notaciónω . Siω ≠ 0 es una frecuencia de Fourier (¡n fija!) , luego
j:n
n−1
E[I (ωj )] =
j
n − |h|
∑
(
h=−n+1
n
) γ(h) exp(−2πi ωj h).
Por lo tanto (n → ∞ !) ,
∞
E[I (ωj:n )] →
∑
γ(h) exp(−2πiωh) = f (ω),
h=−∞
2
¯
demostrando así la primera pretensión. El segundo se desprende deI (0) = nX
(véase la Proposición 4.2.2.), para que
E[I (0)] − nμ = n(E[ X̄ ] − μ ) = nVar(X̄ ) → f (0) n → ∞ como en el Capítulo 2. La prueba está completa.
n
2
2
n
2
n
Proposición 4.3.1. muestra que el periodogramaI (ω) es asintóticamente imparcial paraf (ω). Es, sin embargo, inconsistente. Esto
está implícito en la siguiente proposición que se da sin pruebas. No es sorprendente considerando que cada valorI (ω ) es la suma
de cuadrados de sólo dos variables aleatorias independientemente del tamaño de la muestra.
j
Proposición 4.3.2.
Si(X
t:
t ∈ Z)
es una serie temporal (causal o no causal) débilmente estacionaria tal que
∞
Xt =
∑ ψj Zt−j ,
t ∈ Z,
j=−∞
con∑
∞
j=−∞
2
| ψj | < ∞and(Zt )t∈Z ∼ WN(0, σ )
, entonces
4.3.1
https://espanol.libretexts.org/@go/page/148656
(
2I (ω1:n )
,…,
2I (ωm:n )
f (ω1 )
f (ωm )
dondeω , … , ω sonm distintas frecuencias conω
chi-cuadradas distribuidas con dos grados de libertad.
1
m
D
) → (ξ1 , … , ξm ),
j:n
→ ωj
yf (ω
j)
>0
. Las variablesξ
1,
… , ξm
son independientes, idénticas
El resultado de esta proposición puede ser utilizado para construir intervalos de confianza para el valor de la densidad espectral a la
frecuenciaω. Para ello, denotar porχ (α) la menor probabilidad de cola de la variable chi-cuadradoξ , es decir,
2
j
2
2
P (ξj ≤ χ (α)) = α.
2
Entonces, la Proposición 4.3.2. implica que un intervalo de confianza aproximado con nivel1 − α viene dado por
2I (ωj:n )
2
2I (ωj:n )
≤ f (ω) ≤
χ (1 − α/2)
.
2
χ (α/2)
2
2
La Proposición 4.3.2. también sugiere que los intervalos de confianza se pueden derivar simultáneamente para varios componentes
de frecuencia. Antes de que se computen los intervalos de confianza para la frecuencia dominante de los datos de reclutamiento
regresan por un momento al cálculo de la FFT que es la base para el uso del periodograma. Para garantizar un tiempo de cálculo
rápido, sen deben usar enteros altamente compuestos. Para lograr esto en general, la duración de las series de tiempo se ajusta
mediante el relleno de los datos originales pero degradados mediante la adición de ceros. En R, el análisis espectral se realiza con la
función spec.pgram. Para saber cuál $n^\ prime$ se usa para tus datos particulares, escribe nextn (length (x)),
asumiendo que tu serie está en x.
′
Figura 4.6: Periodograma promedio de los datos de reclutamiento discutidos en el Ejemplo 4.3.1.
Ejemplo 4.3.1.
La Figura 4.5 muestra el periodograma de los datos de reclutamiento que se ha discutido en el Ejemplo 3.3.5. Muestra un fuerte
~
componente de frecuencia anual, asíω = 1/12 como varios picos en el vecindario de la frecuencia El Nin
oω = 1/48. Los
componentes de mayor frecuencia conω > .3 están prácticamente ausentes. A pesar de que se ajustó un modelo AR (2) a estos
datos en el Capítulo 3 para producir valores futuros basados en este ajuste, se ve que el periodograma aquí no valida este ajuste ya
que la densidad espectral de un proceso AR (2) (como se computa en el Ejemplo 4.2.3.) es cualitativamente diferente. En R, se
pueden utilizar los siguientes comandos (nextn (length (rec)) dan = 480 aquí si los datos de reclutamiento se
almacenan en rec como antes).
′
>rec.pgram=spec.pgram (rec, taper=0, log="no”)
>abline (v=1/12, lty=2)
>abline (v=1/48, lty=2)
La función spec.pgram le permite ajustar con precisión el análisis espectral. Para nuestros propósitos, siempre utilizamos las
especificaciones dadas anteriormente para el periodograma en bruto (la conicidad le permite, por ejemplo, mirar
exclusivamente una banda de frecuencia particular, log le permite trazar el logaritmo-periodograma y es el estándar R).
Para calcular los intervalos de confianza para las dos frecuencias dominantes1/12 y1/48, puede usar el siguiente código R,
señalando que1/12 = 40/480 y1/48 = 10/480.
>rec.pgram {\ $} spec [40]
[1] 21332.94
4.3.2
https://espanol.libretexts.org/@go/page/148656
>rec.pgram {\ $} spec [10]
[1] 14368.42
>u=qchisq (.025, 2); l=qchisq (.975, 2)
>2*rec.pgram {\ $} espec. [40] /l
>2*rec.pgram {\ $} espec. [40] /u
>2*rec.pgram {\ $} espec. [10] /l
~2*rec.pgram {\ $} espec. [10] /u
Utilizando los valores numéricos de este análisis, se obtienen los siguientes intervalos de confianza en el nivelα = .1 :
f (1/12) ∈ (5783.041, 842606.2)
and
f (1/48) ∈ (3895.065, 567522.5).
Estos son demasiado amplios y se necesitan alternativas al periodograma crudo. Estos son proporcionados, por ejemplo, por un
enfoque de suavizado que utiliza un procedimiento de promediado sobre una banda de frecuencias vecinas. Esto se puede hacer de
la siguiente manera.
>k=kernel (“daniell” ,4)
>rec.ave=spec.pgram (rec, k, taper=0, log="no”)
> abline (v=1/12, lty=2)
> abline (v=1/48, lty=2)
> rec.ave$ancho de banda
[1] 0.005412659\ medskip
El periodograma suavizado resultante se muestra en la Figura 4.6. Es menos ruidoso, como se espera de tomar promedios. Más
precisamente, aquí sem = 4 utilizó un filtro Daniell de dos lados con frecuenciasL = 2m + 1 vecinas
k
ωk = ωj +
,
k = −m, … , m,
n
para calcular el periodograma enω = j/n . La gráfica resultante en la Figura 4.6 muestra, por otra parte, que el pico anual agudo se
−
−
ha aplanado considerablemente. El ancho de banda reportado en R se puede computar comob = L/(√12n) . Para calcular los
intervalos de confianza se tiene que ajustar la fórmula previamente derivada. Esto se hace tomando cambiando los grados de
libertad de 2 adf = 2Ln/n (si se anexan los ceros) y conduce a
j
′
df
2
χ
df
m
∑ f (ωj +
(1 − α/2)
k=−m
k
df
) ≤ f (ω) ≤
n
2
χ
df
m
k
∑ f (ωj +
(α/2)
k=−m
)
n
paraω ≈ ω . Para los datos de reclutamiento se puede utilizar el siguiente código R:
j
>df=techo (rec.ave {\ $} df)
>u=qchisq (.025, df), l~=~qchisq (.975, df)
>df*rec.ave {\ $} espec. [40] /l
>df*rec.ave {\ $} spec [40] /u
>df*rec.ave {\ $} espec. [10] /l
>df*rec.ave {\ $} spec [10] /u
4.3.3
https://espanol.libretexts.org/@go/page/148656
Figura 4.7: El periodograma Daniell modificado de los datos de reclutamiento discutidos en el Ejemplo 4.3.1.
para obtener los intervalos de confianza
f (1/12) ∈ (1482.427, 5916.823)
and
f (1/48) ∈ (4452.583, 17771.64).
El compromiso entre el ruidoso periodograma crudo y el suavizado adicional como se describe aquí (conL = 9 ) invierte la
~
magnitud de la frecuencia1/12 anual y el componente1/48 El Nin
o. Esto se debe a que el pico anual es muy agudo, siendo las
frecuencias vecinas básicamente cero. Para el1/48 componente, hay toda una banda de frecuencia vecina que también aportan que
~
el fenómeno El Nin
o es irregular y sólo aparece en promedio cada cuatro años). Además, el ciclo anual ahora se distribuye en todo
un rango. Una forma de evitar este problema la proporciona el uso de otros núcleos como el kernel Daniell modificado dado en R
como kernel (“modified.daniell”, c (3,3)). Esto conduce a la densidad espectral en la Figura 4.7.
Contribuidores
Template:ContribAue
Template:ContribNakano
Demostración: Me encanta la forma en que4.3.1 se ve Equation.
This page titled 4.3: Propiedades de muestra grande is shared under a not declared license and was authored, remixed, and/or curated by
Alexander Aue.
4.3: Large Sample Properties by Alexander Aue has no license indicated.
4.3.4
https://espanol.libretexts.org/@go/page/148656
4.4: Filtrado Lineal
Un filtro lineal utiliza coeficientes específicos(ψ : s ∈ Z) , llamados función de respuesta de impulso, para transformar una serie de
entrada débilmente estacionaria(X : t ∈ Z) en una serie de salida(Y : t ∈ Z) a través de
s
t
t
∞
Yt =
∑ ψs Xt−s ,
t ∈ Z,
s=−∞
∞
donde∑
s=−∞
| ψs | < ∞
. Luego, la función de respuesta de frecuencia
∞
Ψ(ω) =
∑ ψs exp(−2πiωs)
s=−∞
está bien definido. Obsérvese que la media móvil de dos puntos del Ejemplo 4.2.2 y la secuencia diferenciada∇X son ejemplos de
filtros lineales. Por otro lado, cualquier proceso\/causal ARMA puede identificarse como un filtro lineal aplicado a una secuencia
de ruido blanco. Implícitamente este concepto ya se utilizó para calcular las densidades espectrales en Exampels 4.2.2 y 4.2.3. Para
investigar esto con mayor detalle, vamosγ (h) yγ (h) denotan el ACVF del proceso de entrada(X : t ∈ Z) y el proceso de salida
(Y : t ∈ Z) , respectivamente, y denotan porf (ω) yf (ω) las densidades espectrales correspondientes. El siguiente es el resultado
principal en esta sección.
t
X
t
Y
t
X
Y
Teorema 4.4.1.
Bajo los supuestos que se hacen en este apartado, sostiene quef
2
Y
(ω) = |Ψ(ω)| fX (ω)
.
Comprobante. Primero tenga en cuenta que
γY (h) = E[(Yt+h − μY )(Yt − μY )]
∞
∞
=∑
r=−∞
∞
r=−∞
1/2
∑
s=−∞
∞
−1/2
=∫
s=−∞
∞
=∑
=∫
∑
1/2
(∑
r=−∞
ψr ψs γ(h − r + s)
ψr ψs ∫
1/2
−1/2
exp(2πiω(h − r + s))fX (ω)dω
∞
ψr exp(−2πiωr))( ∑
s=−∞
ψs exp(2πiωs)) exp(2πiωh)fX (ω)dω
2
−1/2
exp(2πiωh)|Ψ(ω)| fX (ω)dω.
Ahora identificarf
Y
2
(ω) = |Ψ(ω)| fX (ω)
, que es la aserción del teorema.
El teorema 4.4.1 sugiere una manera de calcular la densidad espectral de un proceso ARMA causal. Para ello, dejemos(Y
ser tal causal ARMA (p, q) proceso satisfactorioY = ψ(B)Z , donde(Z : t ∈ Z) ∼ WN(0, σ ) y
t
t
θ(z)
ψ(z) =
ϕ(z)
t:
t ∈ Z)
s ∈ N0 )
puede
2
t
∞
s
= ∑ ψs z ,
|z| ≤ 1.
s=0
conθ(z) yϕ(z) siendo el polinomio promedio móvil y autorregresivo, respectivamente. Tenga en cuenta que el(ψ
ser visto como una función especial de respuesta al impulso.
s:
Corolario 4.4.1.
Si(Y
t:
t ∈ Z)
ser un proceso causal ARMA (p, q)\). Entonces, su densidad espectral viene dada por
fY (ω) = σ
2
|θ(e
−2πiω
|ϕ(e
−2πiω
Comprobante. Aplicar Teorema 4.4.1 con secuencia de entrada(Z
respuesta de frecuencia es
t:
2
)|
2
.
)|
t ∈ Z)
. Entoncesf
∞
Ψ(ω) = ∑ ψs exp(−2πiωs) = ψ(e
−2πiω
Z (ω)
θ(e
−2πiω
)
−2πiω
)
) =
ϕ(e
s=0
4.4.1
=σ
2
, y además la función de
.
https://espanol.libretexts.org/@go/page/148653
Ya quef
Y
2
(ω) = |Ψ(ω)| fX (ω)
, la prueba está completa.
El corolario 4.4.1 brinda un enfoque fácil para definir estimaciones de densidad espectral paramétricas para procesos causales
ARMA (p, q) simplemente reemplazando las cantidades de población por homólogos de muestra apropiados. Esto le da al
estimador de densidad espectral
2
^
f (ω) = σ
^
n
2
−2πiω
^
| θ (e
)|
.
2
^
| ϕ (e−2πiω )|
Ahora bien, cualquiera de las técnicas de estimación discutidas en la Sección 3.5 se puede aplicar al momento de calcularf^(ω) .
Contribuidores
Template:ContribAue
Template:ContribNakano
This page titled 4.4: Filtrado Lineal is shared under a not declared license and was authored, remixed, and/or curated by Alexander Aue.
4.4: Linear Filtering by Alexander Aue has no license indicated.
4.4.2
https://espanol.libretexts.org/@go/page/148653
4.5: Resumen
En este capítulo se introdujeron los métodos básicos para el análisis de series de tiempo en el dominio de la frecuencia. Estos se
basan en una regresión de los datos dados sobre las funciones coseno y seno que varían en las frecuencias de Fourier. En el lado
poblacional, las densidades espectrales fueron identificadas como las contrapartes de dominio de frecuencia de funciones de
autocovarianza absolutamente sumables. Éstas se obtienen unas de otras mediante la aplicación de transformadas (inversas) de
Fourier. En el lado de la muestra, se ha demostrado que el periodograma es un estimador para la densidad espectral desconocida. Al
tratarse de un estimador inconsistente, se han discutido diversas técnicas para superar este hecho. Finalmente, se introdujeron filtros
lineales que pueden, por ejemplo, ser utilizados para computar densidades espectrales de procesos causales ARMA y para derivar
estimadores de densidad espectral paramétricos distintos del periodograma.
Contribuidores
Template:ContribAue
Template:ContribNakano
This page titled 4.5: Resumen is shared under a not declared license and was authored, remixed, and/or curated by Alexander Aue.
4.5: Summary by Alexander Aue has no license indicated.
4.5.1
https://espanol.libretexts.org/@go/page/148657
CHAPTER OVERVIEW
Volver Materia
Índice
Glosario
Licenciamiento Detallado
Volver Materia is shared under a not declared license and was authored, remixed, and/or curated by LibreTexts.
1
Índice
A
C
ARMA
Causality
3.1: Introducción a los procesos de media móvil
autorregresiva (ARMA)
ARMA Processes
3.2: Causalidad e invertibilidad
3: Procesos ARMA
autocovariance function
2.2: Estimación de la función de autocovarianza
moving
partial autocorrelation function
Forecasting
average
time
3.1: Introducción a los procesos de media móvil
autorregresiva (ARMA)
autoregressive polynomial
3.1: Introducción a los procesos de media móvil
autorregresiva (ARMA)
B
3.3: El PACF de un proceso de ARMA Causal
3.4: Pronósticos
2.2: Estimación de la función de autocovarianza
periodogram
4.2: La densidad espectral y el periodograma
I
Invertibility
3.2: Causalidad e invertibilidad
S
spectral density
4.2: La densidad espectral y el periodograma
L
stochastic process
linear filtering
1.1: Introducción y ejemplos
4.4: Filtrado Lineal
M
method of moments
BEST LINEAR PREDICTION
3.1: Introducción a los procesos de media móvil
autorregresiva (ARMA)
P
F
asymptotic unbiasedness
autoregressive
series
moving average polynomial
3.5: Estimación de parámetros
Índice is shared under a not declared license
and was authored, remixed, and/or curated by
LibreTexts.
3.4: Pronósticos
1
https://espanol.libretexts.org/@go/page/148647
Glosario
emerg
entes]
Ejemplo y Direcciones
Palab
ras (o
palab
ras
que
tiene
n la
mism
a
defini
ción)
La
defini
ción
es
sensi
ble a
mayú
scula
s
(Opci
onal)
Imag
en
para
mostr
ar con
la
defini
ción
[No
se
muest
ra en
el
Glosa
rio,
solo
en las
págin
as
(Opci
onal)
Leye
nda
para
la
image
n
(Opci
onal)
Enlac
e
exter
no o
intern
o
(Opci
onal)
Fuent
e para
Defin
ición
(Ej.
“Gen
ético,
Here
ditari
o,
ADN
...”)
Glosario is shared under a not declared license
and was authored, remixed, and/or curated by
LibreTexts.
(Ej.
“Rel
acion
ado
con
gene
so
here
ncia”
)
La
infa
me
doble
hélic
e
https:
//bio.
libret
exts.
org/
CCBYSA;
Delm
ar
Larse
n
Glossary has no license indicated.
Entradas en el glosario
Palab Defin Imag
ra (s) ición en
Pala
bra
de
mues
tra 1
Leye
nda
Enlac
e
Fuent
e
Defi
nició
n de
mues
tra 1
1
https://espanol.libretexts.org/@go/page/148648
Index
A
B
ARMA
BEST LINEAR PREDICTION
3.1: Introducción a los procesos de media móvil
autorregresiva (ARMA)
ARMA Processes
3.2: Causalidad e invertibilidad
2.2: Estimación de la función de autocovarianza
autocovariance function
2.2: Estimación de la función de autocovarianza
moving
average
time
3.1: Introducción a los procesos de media móvil
autorregresiva (ARMA)
autoregressive polynomial
3.1: Introducción a los procesos de media móvil
autorregresiva (ARMA)
3.5: Estimación de parámetros
moving average polynomial
Causality
asymptotic unbiasedness
method of moments
3.4: Pronósticos
C
3: Procesos ARMA
autoregressive
series
M
3.1: Introducción a los procesos de media móvil
autorregresiva (ARMA)
P
partial autocorrelation function
F
Forecasting
3.4: Pronósticos
I
Invertibility
3.2: Causalidad e invertibilidad
3.3: El PACF de un proceso de ARMA Causal
periodogram
4.2: La densidad espectral y el periodograma
S
spectral density
4.2: La densidad espectral y el periodograma
stochastic process
L
linear filtering
4.4: Filtrado Lineal
1.1: Introducción y ejemplos
Glossary
Sample Word 1 | Sample Definition 1
Detailed Licensing
Overview
Title: Libro: Análisis de Series Temporales (Aue)
Webpages: 43
All licenses found:
Undeclared: 100% (43 pages)
By Page
Libro: Análisis de Series Temporales (Aue) - Undeclared
3: Procesos ARMA - Undeclared
Front Matter - Undeclared
3.1: Introducción a los procesos de media móvil
autorregresiva (ARMA) - Undeclared
3.2: Causalidad e invertibilidad - Undeclared
3.3: El PACF de un proceso de ARMA Causal Undeclared
3.4: Pronósticos - Undeclared
3.5: Estimación de parámetros - Undeclared
3.6: Selección de modelos - Undeclared
3.7: Resumen - Undeclared
TitlePage - Undeclared
InfoPage - Undeclared
Table of Contents - Undeclared
Licensing - Undeclared
Materia Frontal - Undeclared
TitlePage - Undeclared
InfoPage - Undeclared
Tabla de Contenidos - Undeclared
Licencias - Undeclared
4: Análisis espectral - Undeclared
4.1: Introducción al Análisis Espectral - Undeclared
4.2: La densidad espectral y el periodograma Undeclared
4.3: Propiedades de muestra grande - Undeclared
4.4: Filtrado Lineal - Undeclared
4.5: Resumen - Undeclared
1: Conceptos básicos en series de tiempo - Undeclared
1.1: Introducción y ejemplos - Undeclared
1.2: Series de Tiempo Estacionarias - Undeclared
1.3: Eliminación de componentes de tendencia Undeclared
1.4: Eliminación de componentes de tendencia y
estacionales - Undeclared
1.5: Evaluación de los Residuales - Undeclared
1.6: Resumen - Undeclared
Back Matter - Undeclared
Index - Undeclared
Glossary - Undeclared
Detailed Licensing - Undeclared
2: La estimación de la media y las covarianzas Undeclared
Volver Materia - Undeclared
Índice - Undeclared
Glosario - Undeclared
Licenciamiento Detallado - Undeclared
2.1: Estimación de la media - Undeclared
2.2: Estimación de la función de autocovarianza Undeclared
1
https://espanol.libretexts.org/@go/page/160139
Descargar