TIME SERIES ANALYSIS Alexander Aue University of California, Davis University of California, Davis Time Series Analysis Alexander Aue This text is disseminated via the Open Education Resource (OER) LibreTexts Project (https://LibreTexts.org) and like the hundreds of other texts available within this powerful platform, it is freely available for reading, printing and "consuming." Most, but not all, pages in the library have licenses that may allow individuals to make changes, save, and print this book. Carefully consult the applicable license(s) before pursuing such effects. Instructors can adopt existing LibreTexts texts or Remix them to quickly build course-specific resources to meet the needs of their students. Unlike traditional textbooks, LibreTexts’ web based origins allow powerful integration of advanced features and new technologies to support learning. The LibreTexts mission is to unite students, faculty and scholars in a cooperative effort to develop an easy-to-use online platform for the construction, customization, and dissemination of OER content to reduce the burdens of unreasonable textbook costs to our students and society. The LibreTexts project is a multi-institutional collaborative venture to develop the next generation of openaccess texts to improve postsecondary education at all levels of higher learning by developing an Open Access Resource environment. The project currently consists of 14 independently operating and interconnected libraries that are constantly being optimized by students, faculty, and outside experts to supplant conventional paper-based books. These free textbook alternatives are organized within a central environment that is both vertically (from advance to basic level) and horizontally (across different fields) integrated. The LibreTexts libraries are Powered by NICE CXOne and are supported by the Department of Education Open Textbook Pilot Project, the UC Davis Office of the Provost, the UC Davis Library, the California State University Affordable Learning Solutions Program, and Merlot. This material is based upon work supported by the National Science Foundation under Grant No. 1246120, 1525057, and 1413739. Any opinions, findings, and conclusions or recommendations expressed in this material are those of the author(s) and do not necessarily reflect the views of the National Science Foundation nor the US Department of Education. Have questions or comments? For information about adoptions or adaptions contact [email protected]. More information on our activities can be found via Facebook (https://facebook.com/Libretexts), Twitter (https://twitter.com/libretexts), or our blog (http://Blog.Libretexts.org). This text was compiled on 07/18/2023 TABLE OF CONTENTS Licensing Materia Frontal TitlePage InfoPage Tabla de Contenidos Licencias 1: Conceptos básicos en series de tiempo 1.1: Introducción y ejemplos 1.2: Series de Tiempo Estacionarias 1.3: Eliminación de componentes de tendencia 1.4: Eliminación de componentes de tendencia y estacionales 1.5: Evaluación de los Residuales 1.6: Resumen 2: La estimación de la media y las covarianzas 2.1: Estimación de la media 2.2: Estimación de la función de autocovarianza 3: Procesos ARMA 3.1: Introducción a los procesos de media móvil autorregresiva (ARMA) 3.2: Causalidad e invertibilidad 3.3: El PACF de un proceso de ARMA Causal 3.4: Pronósticos 3.5: Estimación de parámetros 3.6: Selección de modelos 3.7: Resumen 4: Análisis espectral 4.1: Introducción al Análisis Espectral 4.2: La densidad espectral y el periodograma 4.3: Propiedades de muestra grande 4.4: Filtrado Lineal 4.5: Resumen Index Glossary Detailed Licensing Volver Materia Índice Glosario 1 https://espanol.libretexts.org/@go/page/160134 Licenciamiento Detallado 2 https://espanol.libretexts.org/@go/page/160134 Licensing A detailed breakdown of this resource's licensing can be found in Back Matter/Detailed Licensing. 1 https://espanol.libretexts.org/@go/page/160135 CHAPTER OVERVIEW Materia Frontal TitlePage InfoPage Tabla de Contenidos Licencias Materia Frontal is shared under a not declared license and was authored, remixed, and/or curated by LibreTexts. 1 Universidad de California, Davis Análisis de Series de Tiempo Alexander Aue TitlePage is shared under a not declared license and was authored, remixed, and/or curated by LibreTexts. TitlePage has no license indicated. This text is disseminated via the Open Education Resource (OER) LibreTexts Project (https://LibreTexts.org) and like the hundreds of other texts available within this powerful platform, it is freely available for reading, printing and "consuming." Most, but not all, pages in the library have licenses that may allow individuals to make changes, save, and print this book. Carefully consult the applicable license(s) before pursuing such effects. Instructors can adopt existing LibreTexts texts or Remix them to quickly build course-specific resources to meet the needs of their students. Unlike traditional textbooks, LibreTexts’ web based origins allow powerful integration of advanced features and new technologies to support learning. The LibreTexts mission is to unite students, faculty and scholars in a cooperative effort to develop an easy-to-use online platform for the construction, customization, and dissemination of OER content to reduce the burdens of unreasonable textbook costs to our students and society. The LibreTexts project is a multi-institutional collaborative venture to develop the next generation of openaccess texts to improve postsecondary education at all levels of higher learning by developing an Open Access Resource environment. The project currently consists of 14 independently operating and interconnected libraries that are constantly being optimized by students, faculty, and outside experts to supplant conventional paper-based books. These free textbook alternatives are organized within a central environment that is both vertically (from advance to basic level) and horizontally (across different fields) integrated. The LibreTexts libraries are Powered by NICE CXOne and are supported by the Department of Education Open Textbook Pilot Project, the UC Davis Office of the Provost, the UC Davis Library, the California State University Affordable Learning Solutions Program, and Merlot. This material is based upon work supported by the National Science Foundation under Grant No. 1246120, 1525057, and 1413739. Any opinions, findings, and conclusions or recommendations expressed in this material are those of the author(s) and do not necessarily reflect the views of the National Science Foundation nor the US Department of Education. Have questions or comments? For information about adoptions or adaptions contact [email protected]. More information on our activities can be found via Facebook (https://facebook.com/Libretexts), Twitter (https://twitter.com/libretexts), or our blog (http://Blog.Libretexts.org). This text was compiled on 07/18/2023 InfoPage is shared under a not declared license and was authored, remixed, and/or curated by LibreTexts. TABLE OF CONTENTS Licensing Materia Frontal TitlePage InfoPage Tabla de Contenidos Licencias 1: Conceptos básicos en series de tiempo 1.1: Introducción y ejemplos 1.2: Series de Tiempo Estacionarias 1.3: Eliminación de componentes de tendencia 1.4: Eliminación de componentes de tendencia y estacionales 1.5: Evaluación de los Residuales 1.6: Resumen 2: La estimación de la media y las covarianzas 2.1: Estimación de la media 2.2: Estimación de la función de autocovarianza 3: Procesos ARMA 3.1: Introducción a los procesos de media móvil autorregresiva (ARMA) 3.2: Causalidad e invertibilidad 3.3: El PACF de un proceso de ARMA Causal 3.4: Pronósticos 3.5: Estimación de parámetros 3.6: Selección de modelos 3.7: Resumen 4: Análisis espectral 4.1: Introducción al Análisis Espectral 4.2: La densidad espectral y el periodograma 4.3: Propiedades de muestra grande 4.4: Filtrado Lineal 4.5: Resumen Index Glossary Detailed Licensing Volver Materia Índice Glosario 1 https://espanol.libretexts.org/@go/page/148665 Licenciamiento Detallado Tabla de Contenidos is shared under a not declared license and was authored, remixed, and/or curated by LibreTexts. 2 https://espanol.libretexts.org/@go/page/148665 Licencias A detailed breakdown of this resource's licensing can be found in Back Matter/Detailed Licensing. Licencias is shared under a not declared license and was authored, remixed, and/or curated by LibreTexts. 1 https://espanol.libretexts.org/@go/page/148669 CHAPTER OVERVIEW 1: Conceptos básicos en series de tiempo El primer capítulo explica las nociones básicas y destaca algunos de los objetivos del análisis de series temporales. En la sección 1.1 se dan varios ejemplos importantes, se discuten sus rasgos característicos y se deduce una aproximación general al análisis de datos. En la Sección 1.2, los procesos estacionarios se identifican como una clase razonablemente amplia de variables aleatorias que son capaces de capturar las principales características extraídas de los ejemplos. Finalmente, se discute cómo tratar las tendencias deterministas y los componentes estacionales en las Secciones 1.3 y 1.4, y cómo evaluar los residuos en la Sección 1.5. Concluye la sección 1.6. 1.1: Introducción y ejemplos 1.2: Series de Tiempo Estacionarias 1.3: Eliminación de componentes de tendencia 1.4: Eliminación de componentes de tendencia y estacionales 1.5: Evaluación de los Residuales 1.6: Resumen This page titled 1: Conceptos básicos en series de tiempo is shared under a not declared license and was authored, remixed, and/or curated by Alexander Aue. 1 1.1: Introducción y ejemplos La primera definición aclara la noción de análisis de series temporales. Definición 1.1.1: Series de Tiempo Sea un conjunto de índices, convenientemente pensándose como “tiempo”. Una familia(X : t ∈ T ) de variables aleatorias (funciones aleatorias) se denomina proceso estocástico. Una realización de(X : t ∈ T ) se llama serie temporal. Utilizaremos la notación(x : t ∈ T ) en el discurso. T ≠∅ t t t Las opciones más comunes para el conjunto de índices T incluyen los enterosZ = {0, ±1, ±2, …}, los enteros positivos N = {1, 2, …}, los enteros no negativosN = {0, 1, 2, …}, los números realesR = (−∞, ∞) y la hallínea positivaR = [0, ∞) . Esta clase se ocupa principalmente de los tres primeros casos que se subsumen bajo la noción de análisis de series de tiempo discretas. 0 + A menudo el proceso estocástico(X : t ∈ T ) se denomina en sí mismo como una serie temporal, en el sentido de que una realización se identifica con el mecanismo generador probabilístico. El objetivo del análisis de series temporales es conocer este fenómeno aleatorio subyacente a través del examen de una (y típicamente solo una) realización. Esto separa el análisis de series de tiempo de, digamos, el análisis de regresión para datos independientes. t A continuación se dan varios ejemplos que enfatizan la multitud de posibles aplicaciones del análisis de series de tiempo en diversos campos científicos. Ejemplo 1.1.1 (números de manchas solares de Wö lfer). En la Figura 1.1, el número de manchas solares (es decir, manchas oscuras visibles en la superficie del sol) que se observan anualmente se grafica contra el tiempo. El eje horizontal etiqueta el tiempo en años, mientras que el eje vertical representa los valores observadosx de la variable aleatoria t Xt = # of sunspots at time t, t = 1700, … , 1994. A la figura se le llama trama de serie temporal. Es un dispositivo útil para un análisis preliminar. Los números de manchas solares se utilizan para explicar las oscilaciones magnéticas en la superficie solar. Figura 1.1: La mancha solar de Wölfer de 1700 a 1994. Para reproducir una versión de la gráfica de series temporales de la Figura 1.1 utilizando el paquete de software libre R (las descargas están disponibles en http://cran.r-project.org), descargue el archivo sunspots.dat de la página web del curso y escriba los siguientes comandos: > spots = leer.table (” sunspots.dat “) > spots = ts (spots, start=1700, frecuencia=1) > plot (spots, xlab="time”, ylab= "”, main="Number of Sun spots”) En la primera línea, el archivo sunspots.dat se lee en los puntos del objeto, que luego en la segunda línea se transforma en un objeto de serie de tiempo usando la función ts (). El uso de start establece el valor inicial para el eje x en un número preespecificado, mientras que la frecuencia preestablece el número de observaciones para una unidad de tiempo. (Aquí: una 1.1.1 https://espanol.libretexts.org/@go/page/148673 observación anual.) Finalmente, plot es el comando de plotting estándar en R, donde xlab e ylab determinan las etiquetas para el eje x y el eje y, respectivamente, y main da el título. Ejemplo 1.1.2 (datos de lince canadiense). La gráfica de series de tiempo en la Figura 1.2 proviene de un conjunto de datos biológicos. Contiene los rendimientos anuales de lince en subasta en Londres por la Hudson Bay Company de 1821—1934 (en una log escala). Estas son vistas como observaciones del proceso estocástico 10 Xt = log 10 (number of lynx trapped at time 1820 + t), t = 1, … , 114. Figura 1.2: Número de lince atrapado en el distrito del río MacKenzie entre 1821 y 1934. Los datos se utilizan como estimación del número de lince atrapados a lo largo del río MacKenzie en Canadá. Esta estimación, a su vez, suele tomarse como un proxy del verdadero tamaño poblacional del lince. Se pudo obtener una parcela similar de series de tiempo para el conejo raqueta de nieve, la principal fuente de alimento del lince canadiense, insinuando una intrincada relación depredador-presa. Suponiendo que los datos se almacenan en el archivo lynx.dat, los comandos R correspondientes que conducen a la gráfica de series de tiempo en la Figura 1.2 son: > lince = leer.tabla (” lynx.dat “) > lince = ts (log10 (lince), inicio=1821, frecuencia=1) > parcela (lince, xlab="”, ylab= "”, main="Número de lince atrapado”) Ejemplo 1.1.3 (Letras del Tesoro). Otro campo importante de aplicación para el análisis de series temporales se encuentra en el área de las finanzas. Para cubrir los riesgos de las carteras, los inversionistas suelen utilizar tasas de interés libres de riesgo a corto plazo, como los rendimientos de letras del Tesoro a tres meses, seis meses y doce meses trazadas en la Figura 1.3. Los datos (multivariados) mostrados constan de 2 mil 386 observaciones semanales del 17 de julio de 1959 al 31 de diciembre de 1999. Aquí, Xt = (Xt,1 , Xt,2 , Xt,3 ), t = 1, … , 2386, dondeX ,X yX denotan los rendimientos de tres meses, seis meses y doce meses en el tiempo t, respectivamente. Se puede ver de la gráfica que las tres letras del Tesoro se están moviendo de manera muy similar a lo largo del tiempo, lo que implica una alta correlación entre los componentes deX . t,1 t,2 t,3 t 1.1.2 https://espanol.libretexts.org/@go/page/148673 Figura 1.3: Rendimientos de letras del Tesoro del 17 de julio de 1959, al 31 de diciembre de 1999. Figura 1.4: S&P 500 del 3 de enero de 1972, al 31 de diciembre de 1999. Para producir la gráfica de series de tiempo de tres variables en la Figura 1.3, utilice el código R > bills03 = leer.table (” bills03.dat “); > bills06 = leer.tabla (” bills06.dat “); > bills12 = leer.tabla (” bills12.dat “); > par (mfrow=c (3,1)) > plot.ts (bills03, xlab=" (a)”, ylab= "”, principal="Rendimientos de Letras de Tesorería a 3 meses”) > plot.ts (bills06, xlab= "(b)”, ylab= "”, main="Rendimientos de Letras del Tesoro a 6 meses”) > plot.ts (bills12, xlab= "(c)”, ylab= "”, main="Rendimientos de Letras del Tesoro a 12 meses”) 1.1.3 https://espanol.libretexts.org/@go/page/148673 De nuevo se asume que los datos se pueden encontrar en los archivos correspondientes bills03.dat, bills06.dat y bills12.dat. La línea de comandos par (mfrow=c (3,1)) se utiliza para configurar los gráficos. Permite guardar tres parcelas diferentes en un mismo archivo. Ejemplo 1.1.4 (S&P 500). El índice Standard and Poor's 500 (S&P 500) es un índice ponderado por valor basado en los precios de 500 acciones que representan aproximadamente el 70% de la capitalización bursátil estadounidense. Es un indicador económico líder y también se utiliza para cubrir carteras de mercado. La Figura 1.4 contiene los 7,076 precios diarios de cierre del S&P 500 del 3 de enero de 1972 al 31 de diciembre de 1999, en escala logaritmo natural. En consecuencia, es la gráfica de series de tiempo del proceso Xt = ln(closing price of S&P 500 at time t), t = 1, … , 7076. Obsérvese que la transformación logarítmica se ha aplicado para hacer que los rendimientos sean directamente comparables al porcentaje de retorno de la inversión. La gráfica de series de tiempo se puede reproducir en R usando el archivo sp500.dat Hay innumerables otros ejemplos de todas las áreas de la ciencia. Para desarrollar una teoría capaz de manejar amplias aplicaciones, el estadístico necesita apoyarse en un marco matemático que pueda explicar fenómenos como tendencias (aparentes en el Ejemplo 1.1.4); efectos estacionales o cíclicos (aparentes en los Ejemplos 1.1.1 y 1.1.2); fluctuaciones aleatorias (todos los ejemplos); dependencia (¿todos los Ejemplos?). El enfoque clásico tomado en el análisis de series temporales es postular que el proceso estocástico(X : t ∈ T ) investigado puede dividirse en tendencia determinista y componentes estacionales más un componente aleatorio centrado, dando lugar al modelo t Xt = mt + st + Yt , t ∈ T (1.1.1) donde(m : t ∈ T ) denota la función de tendencia (“componente medio”),(s : t ∈ T ) los efectos estacionales y(Y proceso estocástico (media cero). Una vez elegido un modelo apropiado, el estadístico podrá apuntar a t t: t t ∈ T) un estimar los parámetros del modelo para una mejor comprensión de las series temporales; predecir valores futuros, por ejemplo, para desarrollar estrategias de inversión; comprobando la bondad de ajuste a los datos para confirmar que el modelo elegido es apropiado. Los procedimientos de estimación y las técnicas de predicción se tratan en detalle en capítulos posteriores de las notas. El resto de este capítulo se dedicará a introducir las clases de procesos estocásticos estricta y débilmente estacionarios (en la Sección 1.2) y a proporcionar herramientas para eliminar tendencias y componentes estacionales de una serie temporal determinada (en las Secciones 1.3 y 1.4), mientras que algunas pruebas de bondad de ajuste se presentarán en Sección 1.5. Contribuidores Template:ContribAue This page titled 1.1: Introducción y ejemplos is shared under a not declared license and was authored, remixed, and/or curated by Alexander Aue. 1.1: Introduction and Examples by Alexander Aue has no license indicated. 1.1.4 https://espanol.libretexts.org/@go/page/148673 1.2: Series de Tiempo Estacionarias Ajustar variables aleatorias independientes e idénticamente distribuidas a los datos es un concepto demasiado estrecho. Si bien, por un lado, permiten un tratamiento matemático algo agradable y fácil, su uso es, por otro lado, a menudo difícil de justificar en las aplicaciones. Por lo tanto, nuestro objetivo es introducir un concepto que mantenga algunas de las propiedades deseables de variables aleatorias independientes e idénticamente distribuidas (“regularidad”), pero que también amplíe considerablemente la clase de procesos estocásticos para elegir al permitir la dependencia así como las distribuciones variables. La dependencia entre dos variables aleatoriasX y generalmenteY se mide en términos decovariance f unction C ov(X, Y ) = E[(X − E[X])(Y − E[Y ])] y elcorrelation f unction C ov(X, Y ) C orr(X, Y ) = −−−−−−−−−−− − √V ar(X)V ar(Y ) . Con estas notaciones a la mano, se pueden introducir las clases de procesos estocásticos estricta y débilmente dependientes. Definición 1.2.1 (Estricta Estacionariedad). Un proceso estocástico (X : t ∈ T ) se llama estrictamente estacionario si, para todos t , . . . , t ∈ T yh tal quet + h, . . . , t + h ∈ T , sostiene que \ [( X_ {t_1},\ ldots, X_ {t_n}) \ stackrel {\ cal D} {=} (X_ {t_1+h},\ ldots, X_ {t_n+h}). \ nonumber\] Es decir, las llamadas distribuciones finito-dimensionales del proceso son invariantes bajo los cambios de tiempo. Aquí= indica igualdad en la distribución. t 1 n 1 n D La definición en términos de la distribución finito-dimensional se puede reformular de manera equivalente en términos de las igualdades de función de distribución conjunta acumulativa P (Xt 1 ≤ x1 , … , Xt n ≤ xn ) = P (Xt 1 +h ≤ x1 , … , Xt n +h ≤ xn ) manteniéndose fiel para todosx , . . . , x ∈ R,t , . . . , t ∈ T yh tal quet + h, . . . , t + h ∈ T . Esto puede ser bastante difícil de verificar para una serie temporal determinada, especialmente si el mecanismo generador de una serie temporal está lejos de ser simple, ya que hay que estimar demasiados parámetros del modelo a partir de los datos disponibles, haciendo imposibles declaraciones estadísticas concisas. Una posible excepción es proporcionada por el caso de variables aleatorias independientes e idénticamente distribuidas. 1 n 1 n 1 n Para sortear estas dificultades, un analista de series temporales normalmente solo especificará los momentos de primer y segundo orden de las distribuciones conjuntas. Hacerlo entonces lleva a la noción de estacionariedad débil. Definición 1.2.2 (Estacionariedad débil). Un proceso estocástico(X t: t ∈ T) se llama débilmente estacionario si los segundos momentos son finitos:E[X ] < ∞ for all t ∈ T ; los medios son constantes:E[X ] = m para todost ∈ T ; la covarianza deX yX dependeh solo de: 2 t t t t+h γ(h) = γX (h) = C ov(Xt , Xt+h ), h ∈ T such that t + h ∈ T , es independiente det ∈ T y se llama la función de autocovarianza (ACVF). Además, γ(h) ρ(h) = ρX (h) = , h ∈ T, γ(0) se llama la función de autocorrelación (ACF). 1.2.1 https://espanol.libretexts.org/@go/page/148674 OBSERVACIÓN 1.2.1. Si(X : t ∈ T ) ) es un proceso estocástico estrictamente estacionario con segundos momentos finitos, entonces también es débilmente estacionario. Lo contrario no es necesariamente cierto. Si(X : t ∈ T ) , sin embargo, es débilmente estacionario y gaussiano, entonces también es estrictamente estacionario. Recordemos que un proceso estocástico se llama gaussiano si, para algunot , . . . , t ∈ T , el vector aleatorio(X , . . . , X ) es multivariado distribuido normalmente. t t 1 n t1 tn Esta sección se concluye con ejemplos de procesos estocásticos estacionarios y no estacionarios. Figura 1.5:100 valores simulados de la serie temporal cíclica (panel izquierdo), la amplitud estocástica (panel medio) y la parte sinusoidal (panel derecho). Ejemplo 1.2.1 (Ruido Blanco). Dejar(Z : t ∈ Z) ser una secuencia de variables aleatorias de valor real, por pares no correlacionadas conE[Z ] = 0 y0 < V ar(Z ) = σ < ∞ para todost ∈ Z . Entonces(Z : t ∈ Z) se llama ruido blanco, abreviado por(Z : t ∈ Z) ∼ WN(0, σ ) . Define un proceso centrado, débilmente estacionario con ACVF y ACF dados por \[ \ gamma (h) =\ left\ {\ begin {array} {r@ {\ quad\;} l}\ sigma^2, & h=0,\\ 0, & h\ not=0,\ end {array}\ right. \ qquad\ mbox {y}\ qquad \ rho (h) =\ left\ {\ begin {array} {r@ {\ quad\;} l} 1, & h=0,\\ 0, & h\ no=0,\ end {array}\ right. \ nonumber\] respectivamente. Si los(Z : t ∈ Z) son además independientes e idénticamente distribuidos, se les llama ruido iid, en breve (Z : t ∈ Z) ∼ IID(0, σ ) . El panel izquierdo de la Figura 1.6 muestra 1000 observaciones de una secuencia de ruido iid (Z : t ∈ Z) basada en variables aleatorias normales estándar. Los comandos R correspondientes para producir la gráfica son t 2 t t t 2 t t 2 t t > z = rnorm (1000,0,1) > plot.ts (z, xlab= "”, ylab= "”, main= "”) El comando rnorm simula aquí 1000 variables aleatorias normales con media 0 y varianza 1. Hay varios generadores de variables aleatorias incorporados en R como las funciones runif (n, a, b) y rbinom (n, m, p) que simulan losn valores de una distribución uniforme en el intervalo(a, b) y una distribución binomial con parámetro de repeticiónm y éxito probabilidadp, respectivamente. Figura 1.6:1000 valores simulados de ruido iid N (0, 1) (panel izquierdo) y una caminata aleatoria con innovaciones iid N (0, 1) (panel derecho). Ejemplo 1.2.2 (Series de Tiempo Cíclicas). DejarA yB ser variables aleatorias no correlacionadas con media cero y varianzas V ar(A) = V ar(B) = σ , y dejarλ ∈ R ser un parámetro de frecuencia. Define \[ x_t=A\ cos (\ lambda t) +B\ sin (\ lambda t),\ qquad t\ in\ mathbb {R}. \ nonumber\] El proceso estocástico resultante(X : t ∈ R) es entonces débilmente estacionario. Ya que 2 t 1.2.2 https://espanol.libretexts.org/@go/page/148674 , el proceso puede representarse como \[ x_t=R\ sin (\ lambda t+\ varphi),\ qquad t\ in\ mathbb {R}, \ nonumber\] asíR es la amplitud estocástica yφ ∈ [−π, π] la fase estocástica de una sinusoide. Algunos cálculos muestran que uno debe tener A = R sin(φ) yB = R cos(φ) . En el panel izquierdo de la Figura 1.5, se(X ) muestran 100 valores observados de una serie. En ella,λ = π/25 se utilizó, mientras queR yφ fueron variables aleatorias distribuidas uniformemente en el intervalo(−.5, 1) y (0, 1), respectivamente. El panel central muestra la realización deR , el panel derecho la realización desin(λt + φ) . El uso de series temporales cíclicas conlleva grandes ventajas cuando se tienen que modelar efectos estacionales, como los fenómenos recurrentes anuales. Se pueden aplicar los siguientes comandos R: sin(λt + φ) = sin(φ) cos(λt) + cos(φ) sin(λt) t t∈Z > t = 1:100; R = runif (100, -.5,1); phi = runif (100,0,1); lambda = pi/25 > cyc = R*sin (lambda*t+phi) > trazos.ts (cyc, xlab= "”, ylab= "”) Esto produce el panel izquierdo de la Figura 1.5. Los paneles medio y derecho siguen de manera similar. Ejemplo 1.2.3 (Paseo Aleatorio). Vamos(Z : t ∈ N) ∼ WN(0, σ ) . DejarS = 0 y \[ s_t=z_1+\ lDots+z_t,\ qquad t\ in\ mathbb {N}. \ nonumber\] El proceso estocástico resultante(S : t ∈ N ) se llama caminata aleatoria y es la serie de tiempo no estacionaria más importante. En efecto, sostiene aquí que, parah > 0 , \[ Cov (s_t, S_ {t+h}) =Cov (s_t, s_t+r_ {t, h}) =t\ sigma^2, \ nonumber\] dondeR = Z + … + Z , y el ACVF obviamente depende det . En R, se puede construir una caminata aleatoria, por ejemplo, con el siguiente comando simple que utiliza las 1000 observaciones normales almacenadas en la matriz z del Ejemplo 1.2.1. 2 t t t,h t+1 0 0 t+h > rw = cumsum (z) La función cumsum toma como entrada una matriz y devuelve como salida una matriz de la misma longitud que contiene como su j ésima entrada la suma de las j primeras entradas de entrada. La gráfica resultante de series de tiempo se muestra en el panel derecho de la Figura 1.6. El capítulo 3 analiza en detalle los llamados procesos de promedio móvil autorregresivos que se han convertido en un bloque central en el análisis de series de tiempo. Se construyen a partir de secuencias de ruido blanco mediante la aplicación de un conjunto de ecuaciones de diferencia estocásticas similares a las que definen la caminata aleatoria(S : t ∈ N ) del Ejemplo 1.2.3. t 0 En general, los verdaderos parámetros de un proceso estocástico estacionario(X : t ∈ T ) son desconocidos para el estadístico. Por lo tanto, tienen que ser estimados a partir de una realizaciónx , . . . , x . Aquí se utilizará el siguiente conjunto de estimadores. La media muestral dex , . . . , x se define como \[ \ bar {x} =\ frac 1n\ sum_ {t=1} ^nx_t. \ nonumber\] La función de autocovarianza de muestra (ACVF de muestra) viene dada por \ begin {ecuación}\ label {eq:1.2.1} \ hat { \ gamma} (h) = \ frac 1n\ suma_ {t=1} ^ {n-h} (x_ {t+h} -\ bar {x}) (x_t-\ bar {x}), \ qquad h=0,1,\ lpuntos, n-1. \ end {ecuación} Finalmente, la función de autocorrelación de muestra (muestra ACF) es t 1 1 n n \ [\ hat {\ rho} (h) =\ frac {\ hat {\ gamma} (h)} {\ hat {\ gamma} (0)}, \ qquad h=0,1,\ ldots, n-1. \ nonumber\] 1.2.3 https://espanol.libretexts.org/@go/page/148674 Ejemplo 1.2.4. Dejar(Z : t ∈ Z) ser una secuencia de variables aleatorias estándar independientes normalmente distribuidas (ver el panel izquierdo de la Figura 1.6 para una realización típica de tamaño n = 1,000). Entonces, claramente,γ(0) = ρ(0) = 1 y ^(h) yρ ^(h) para γ(h) = ρ(h) = 0 cuando seah ≠ 0 . En el cuadro 1.1 se indican los valores estimados correspondientesγ h = 0, 1, … , 5. t Los valores estimados son todos muy cercanos a los verdaderos, lo que indica que los estimadores funcionan razonablemente bien para n = 1,000. Efectivamente se puede demostrar que son asintóticamente imparciales y consistentes. Además, las autocorrelaciones muestralesρ^(h) son aproximadamente normales con media y varianza cero1/1000. Véase también Teorema 1.2.1 a continuación. En R, la función acf se puede utilizar para calcular el ACF de muestra. Teorema 1.2.1. Dejar(Z : t ∈ Z) ∼ WN(0, σ ) y dejarh ≠ 0 . Bajo un conjunto general de condiciones, se sostiene que el ACF muestral al rezagoh ρ^(h) , es para grandesn aproximadamente distribuido normalmente con media cero y varianza 1/n. 2 t El Teorema 1.2.1 y el Ejemplo 1.2.4 sugieren un primer método para evaluar si un conjunto de datos dado puede modelarse convenientemente mediante una secuencia de ruido blanco: para una secuencia de ruido blanco, aproximadamente el 95% de los ACF de muestra deben estar dentro del intervalo de confianza±2/√− n . Usando los archivos de datos en la página web del curso, se pueden calcular con R los ACF de muestra correspondientes para verificar la blancura de las series temporales subyacentes. Las propiedades del ACF muestral se revisan en el Capítulo 2. Figura1.7: Niveles anuales de agua del Lago Huron (panel izquierdo) y la parcela residual obtenida al ajustar una tendencia lineal a los datos (panel derecho). This page titled 1.2: Series de Tiempo Estacionarias is shared under a not declared license and was authored, remixed, and/or curated by Alexander Aue. 1.2: Stationary Time Series by Alexander Aue has no license indicated. 1.2.4 https://espanol.libretexts.org/@go/page/148674 1.3: Eliminación de componentes de tendencia En esta sección se desarrollan tres métodos diferentes para estimar la tendencia de un modelo de series temporales. Se supone que tiene sentido postular el modelo (1.1.1) cons = 0 para todost ∈ T , es decir, t Xt = mt + Yt , t ∈ T (1.3.1) donde (sin pérdida de generalidad)E[Y ] = 0 . En particular, se discuten tres métodos diferentes, (1) la estimación de mínimos cuadrados dem , (2) suavizado por medio de promedios móviles y (3) diferenciación. t t Método 1 (Estimación de mínimos cuadrados) A menudo es útil suponer que un componente de tendencia puede ser modelado apropiadamente por un polinomio, p mt = b0 + b1 t + … + bp t , En este caso, los parámetros desconocidosb producen la tendencia polinómica estimada 0, … , bp p ∈ N0 . pueden ser estimados por el método de mínimos cuadrados. Combinados, p ^ ^ ^ m ^ t = b0 + b1 t + … + bp t , t ∈ T, donde^b , … , ^b denotan las estimaciones correspondientes de mínimos cuadrados. Tenga en cuenta que el orden nop es estimado. Tiene que ser seleccionado por el estadístico, por ejemplo, inspeccionando la trama de series de tiempo. Los residuosY^ se pueden obtener como 0 p t p ^ ^ ^ ^ t = Xt − ^ Y t = Xt − m b0 − b1 t − … − bp t , t ∈ T. La forma de evaluar la bondad de ajuste de la tendencia ajustada será objeto de la Sección 1.5 a continuación. Ejemplo 1.3.1 (Nivel del Lago Huron). El panel izquierdo de la Figura 1.7 contiene la serie temporal de los niveles de agua promedio anuales en pies (reducidos en 570) del lago Huron de 1875 a 1972. Es una realización del proceso \[ x_t=\ mbox {(Nivel promedio de agua del Lago Huron en el año $1874+t$)} -570, \ qquad t=1,\ ldots,98. \ nonumber\] Parece haber una disminución lineal en el nivel del agua y por lo tanto es razonable ajustar un polinomio de orden uno a los datos. Evaluar los estimadores de mínimos cuadrados nos proporciona los valores ^ b 0 = 10.202 and ^ b 1 = −0.0242 para la intercepción y la pendiente, respectivamente. Los residuos observados resultantesy^ = Y^ (ω) se representan frente al tiempo en el panel derecho de la Figura 1.7. No queda tendencia aparente en los datos. Por otro lado, la trama no soporta fuertemente la estacionariedad de los residuos. Adicionalmente, hay evidencia de dependencia en los datos. t t Para reproducir el análisis en R, supongamos que los datos están almacenados en el archivo lake.dat. Después usa los siguientes comandos. > > > > > > lake = read.table (” lake.dat “) lake = ts (lago, start=1875) t = 1:longitud (lago) lsfit = lm (lake$^\ mathrm {\ sim} $t) parcela (t, lago, xlab="”, ylab= "”, principal= "”) líneas (lsfit {\ $} ajuste) La función lm ajusta un modelo lineal o línea de regresión a los datos de Lake Huron. Para trazar tanto el conjunto de datos original como la línea de regresión ajustada en la misma gráfica, primero puede trazar los niveles de agua y luego usar la función lines para superponer el ajuste. Se puede acceder a los residuos correspondientes al ajuste del modelo lineal con el comando lsfit$resid. 1.3.1 https://espanol.libretexts.org/@go/page/148668 \ end {exmp} Método 2 (Suavizado con Medias Móviles) Dejar(X : t ∈ Z) ser un proceso estocástico siguiendo el modelo1.3.1. Eligeq ∈ N y define la media móvil de dos lados \ begin {ecuación}\ label {eq:wt} w_t=\ frac {1} {2q+1}\ sum_ {j=-q} ^qx_ {t+j},\ qquad t\ in\ mathbb {Z}. \ tag {1.3.2}\ end {equation} Las variables aleatorias seW pueden utilizar para estimar el componentem de tendencia de la siguiente manera. Primero tenga en cuenta que \[ w_t=\ frac {1} {2q+1}\ sum_ {j=-q} ^qm_ {t+j} +\ frac {1} {2q+1}\ sum_ {j=-q} ^qy_ {t+j}\ approx m_t, \ nonumber\] asumiendo que la tendencia es localmente aproximadamente lineal y que el promedio de laY sobreel intervalo[t − q, t + q] es cerca de cero. Por lo tanto, sem puede estimar por t 0 t t t t ^ t = Wt , m t = q + 1, … , n − q. Observe que no hay posibilidad de estimar el primerq y último término den − q deriva debido a la naturaleza de dos lados de las medias móviles. Por el contrario, también se pueden definir promedios móviles unilaterales dejando ^ 1 = X1 , m ^ t = aXt + (1 − a)m ^ t−1 , m t = 2, … , n. Figura 1.8: La media móvil de dos lados filtra W t para los datos de Lake Huron (panel superior) y sus residuales (panel inferior) con ancho de banda q = 2 (izquierda), q = 10 (medio) y q = 35 (derecha). La Figura 1.8 contiene estimadoresm ^ basados en los promedios móviles de dos lados para los datos de Lake Huron del Ejemplo 1.3.1. para elecciones seleccionadas deq (panel superior) y los residuales estimados correspondientes (panel inferior). t Los filtros de media móvil para este ejemplo se pueden producir en R de la siguiente manera: > > > > > > t = 1:longitud (lago) ma2 = filtro (lago, lados=2, rep (1,5) /5) ma10 = filtro (lago, lados=2, rep (1,21) /21) ma35 = filtro (lago, lados=2, rep (1,71) /71) parcela (t, ma2, xlab= "”, ylab= "”, type="l”) líneas (t, ma10); líneas (t, ma35) Allí, los lados determinan si se va a usar un filtro de uno o dos lados. La frase rep (1,5) crea un vector de longitud 5 siendo cada entrada igual a 1. 1.3.2 https://espanol.libretexts.org/@go/page/148668 Se pueden obtener versiones más generales de los suavizadores de media móvil de la siguiente manera. Observe que en el caso de la versión de dos carasW cada variableX , … , X obtiene un “peso”a = (2q + 1) . La suma de todos los pesos es así igual a uno. Lo mismo es cierto para los promedios móviles unilaterales con pesosa y1 − a . Por lo general, uno puede definir un suavizado dejando −1 t t−q t+q j q ^ t = ∑ aj Xt+j , m t = q + 1, … , n − q, (1.3.3) j=−q dondea + … + a = 1 . Estos promedios móviles generales (de dos lados y de un lado) se conocen comúnmente como filtros lineales. Hay innumerables opciones para los pesos. El de aquí,a = (2q + 1) , tiene la ventaja de que las tendencias lineales pasan sin distorsiones. En el siguiente ejemplo, se introduce un filtro que pasa tendencias cúbicas sin distorsión. −q q −1 j Ejemplo 1.3.2 (media móvil de 15 puntos de Spencer). Supongamos que el filtro en visualización1.3.3 está definido por pesos que satisfacena = 0 if|j| > 7 ,a = a y \[ (a_0, a_1,\ ldots, a_7) =\ frac {1} {320} (74,67,46,21,3, -5, -6, -3). \ nonumber\] Entonces, los filtros correspondientes pasan tendencias cúbicasm = b + b t + b t + b t sin distorsionar. Para ver esto, observe que \ begin {align*} \ sum_ {j=-7} ^7a_j=1\ qquad\ mbox {y}\ qquad \ sum_ {j=-7} ^7j^ra_j=0,\ qquad r=1,2,3. \ end {align*} Ahora aplica la Proposición 1.3.1 a continuación para llegar a la conclusión. Suponiendo que las observaciones están en los datos, utilice los comandos R j j −j 2 t 0 1 2 3 3 > a = c (-3, -6, -5, 3, 21, 46, 67, 74, 67, 46, 21, 3, -5, -6, -3) /320 > s15 = filtro (datos, lados=2, a) para aplicar el filtro Promedio móvil de 15 puntos de Spencer. Este ejemplo también explica cómo especificar un filtro general hecho a medida para un conjunto de datos dado. Proposición 1.3.1. Un filtro lineal (1.3.3) pasa un polinomio de gradop si y solo si \[ \ sum_ {j} a_j=1\ qquad\ mbox {y}\ qquad\ sum_ {j} j^ra_j=0,\ qquad r=1,\ ldots, p. \ nonumber\] Prueba. Baste demostrar eso∑ a (t + j) = t parar = 0, … , p. Usando el teorema binomial, escribe \ begin {align*} \ sum_ja_j (t+j) ^r &=\ sum_ja_j\ sum_ {k=0} ^r {r\ elige k} t^kj^ {r-k}\\ [.2cm] &=\ suma_ {k=0} ^r {r\ elige k} t^k\ left (\ sum_ja_jj^ {r-k}\ derecha)\\ [.2cm] &=t^r \ end {align *} para cualquierar = 0, … , p si y solo si las condiciones anteriores se mantienen. j j r r 1.3.3 https://espanol.libretexts.org/@go/page/148668 Figura 1.9: Gráficas de series temporales de las secuencias observadas (x t) en el panel izquierdo y (2 x t) en el panel derecho del diferenciaron los datos de Lake Huron descritos en el Ejemplo 1.3.1. Método 3 (Diferenciación) Una tercera posibilidad para eliminar términos de deriva de una serie de tiempo dada es la diferenciación. Para ello, introduce el operador de diferencia∇ como \[ \ nabla x_t=x_t-x_ {t-1} =( 1-B) x_t,\ qquad t\ in T, \ nonumber\] dondeB denota el operador de retrocesoBX = X . La aplicación repetida de∇ se define de la manera intuitiva: t t−1 \ [\ nABLA^2x_t=\ nabla (\ nabla x_t) =\ nabla (x_t-x_ {t-1}) =x_t-2x_ {t-1} +X_ {t-2} \ nonumber\] y, recursivamente, las representaciones siguen también para potencias superiores de∇. Supongamos que el operador diferencia se aplica a la tendencia linealm = b + b t , entonces t 0 1 \ [\ nabla m_t=m_t-m_ {t-1} =b_0+b_1t-b_0-b_1 (t-1) =b_1 \ nonumber\] que es una constante. Inductivamente, esto lleva a la conclusión de que para un polinomio deriva de gradop, es decir m =∑ b t ,∇ m = p! b y por lo tanto constante. Aplicando esta técnica a un proceso estocástico de la forma (1.3.1) con una deriva polinómicam , produce entonces \[ \ nAbla^px_t=P! b_p+\ nabla^p y_T,\ qquad t\ in T. \ nonumber\] Este es un proceso estacionario con mediap!b . Las gráficas de la Figura 1.9 contienen las diferencias primera y segunda para los datos de Lake Huron. En R, se pueden obtener de los comandos p t j=0 j j p t p t p > > > > > d1 = diff (lago) d2 = diff (d1) par (mfrow=c (1,2)) plot.ts (d1, xlab= "”, ylab= "”) plot.ts (d2, xlab= "”, ylab= "”) El siguiente ejemplo muestra que el operador de diferencia también se puede aplicar a una caminata aleatoria para crear datos estacionarios. Ejemplo 1.3.3. Dejar(S : t ∈ N ) ser el paseo aleatorio del Ejemplo 1.2.3. Si el operador diferencia∇ se aplica a este proceso estocástico, entonces \[ \ nabla s_t=s_t-s_ {t-1} =z_t,\ qquad t\ in\ mathbb {N}. \ nonumber\] En otras palabras,∇ no hace otra cosa que recuperar la secuencia original de ruido blanco que se utilizó para construir la caminata aleatoria. t 0 1.3.4 https://espanol.libretexts.org/@go/page/148668 This page titled 1.3: Eliminación de componentes de tendencia is shared under a not declared license and was authored, remixed, and/or curated by Alexander Aue. 1.3: Eliminating Trend Components by Alexander Aue has no license indicated. 1.3.5 https://espanol.libretexts.org/@go/page/148668 1.4: Eliminación de componentes de tendencia y estacionales Recordemos la descomposición clásica (1.1.1), \[ x_t=m_t+s_t+y_t,\ qquad t\ in T, \ nonumber\] conE[Y ] = 0 . En esta sección se discuten tres métodos que tienen como objetivo estimar tanto la tendencia como los componentes estacionales en los datos. Como requisito adicional on(s : t ∈ T ) , se asume que \[ s_ {t+d} =s_t,\ qquad\ sum_ {j=1} ^ds_j=0, \ nonumber\] donded denota el periodo del componente estacional. (Si se trata de datos anuales muestreados mensualmente, entonces obviamented = 12 .) Es conveniente remarcar las observacionesx , … , x en términos del periodo estacionald como \ [x_ {j, k} =x_ {k+d (j-1)}. \ nonumber\] En el caso de los datos anuales, la observación representax así el punto de datos observado para el mesk th del añoj th. Por conveniencia siempre se hace referencia a los datos de esta manera aunque el periodo real sea algo distinto al 12. t t 1 n j,k Método 1 (Método de tendencia pequeña) Si los cambios en el término deriva parecen ser pequeños, entonces es razonable suponer que la deriva en el añoj , digamos,m es constante. Por lo tanto, como estimador natural se puede aplicar \[ \ hat {m} _j=\ frac {1} {d}\ sum_ {k=1} ^dx_ {j, k}. \ nonumber\] Para estimar la estacionalidad en los datos, uno puede en un segundo paso utilizar las cantidades \[ \ hat {s} _k=\ frac 1N\ sum_ {j=1} ^N (x_ {j, k} -\ hat {m} _j), \ nonumber\] dondeN se determina por el n = N d , siempre que los datos hayan sido recolectados a lo largo de ciclosN completos. Los cálculos directos muestran que estos estimadores poseen la propiedads^ + … + s^ = 0 (como en el caso de los verdaderos componentes estacionaless ). Para evaluar aún más la calidad del ajuste, es necesario analizar los residuales observados \[ \ hat {y} _ {j, k} =x_ {j, k} -\ hat {m} _j-\ hat {s} _k. \ nonumber\] Obsérvese que debido al remarcaje de las observaciones y al supuesto de una tendencia que cambia lentamente, el el componente de deriva se describe únicamente por el subíndice “anual”j , mientras que el componente estacional solo contiene el subíndice “mensual”k . j 1 d t Figura 1.10: Parcelas de series temporales de las ventas de vino tinto en Australia de enero de 1980 a octubre de 1991 (izquierda) y su transformación logarítmica con estimaciones medias anuales (derecha). 1.4.1 https://espanol.libretexts.org/@go/page/148667 Ejemplo 1.4.1 (Ventas de Vino Australiano). El panel izquierdo de la Figura 1.10 muestra las ventas mensuales de vino tinto (en kilolitros) en Australia de enero de 1980 a octubre de 1991. Dado que hay un aumento aparente en las fluctuaciones a lo largo del tiempo, el panel derecho de la misma figura muestra la transformación logaritmo natural de los datos. Existe evidencia clara tanto de tendencia como de estacionalidad. A continuación se estudian los datos transformados logarítmicos. Utilizando el método de tendencia pequeña como se describió anteriormente, se estiman primero las medias anuales. Ya están incorporadas en la gráfica de serie temporal correcta de la Figura 1.10. Obsérvese que sólo hay diez meses de datos disponibles para el año 1991, por lo que la estimación tiene que ajustarse en consecuencia. Los datos detendenciados se muestran en el panel izquierdo de la Figura 1.11. La gráfica media en la misma figura muestra el componente estacional estimado, mientras que el panel derecho muestra los residuos. A pesar de que la suposición de pequeños cambios en la deriva es algo cuestionable, los residuos parecen verse bastante bonitos. Indican que hay dependencia en los datos (ver Sección 1.5 a continuación para más información sobre este tema). Figura 1.11: La serie logarítmica detendida (izquierda), el componente estacional estimado (centro) y las series residuales correspondientes (derecha) de los datos de ventas de vino tinto australiano. Método 2 (Estimación de media móvil) Este método debe preferirse sobre el primero siempre que el componente de tendencia subyacente no pueda asumirse constante. Se van a aplicar tres pasos a los datos. 1er Paso: Estimación de tendencia. Al principio, enfocarse en la eliminación del componente de tendencia con los filtros lineales ^ =W discutidos en la sección anterior. Si el periodod es impar, entonces uno puede usar directamentem como en (1.3.2) conq especificado por la ecuaciónd = 2q + 1 . Si el periodod = 2q es par, entonces modifica ligeramenteW y usa \[ \ hat {m} _t=\ frac 1d (.5x_ {t-q} +x_ {t-q+1} +\ ldots+x_ {t+q-1} +.5x_ {t+q}), \ qquad t=q+1,\ ldots, n-q. \ nonumber\] t t t 2do Paso: Estimación de estacionalidad. Para estimar el componente estacional, vamos \ begin {align*} \ mu_k&=\ frac 1 {N-1}\ sum_ {j=2} ^N (x_ {k+d (j-1)} -\ hat {m} _ {k+d (j-1)}), \ qquad k=1,\ ldots, q,\\ [.2cm] \ mu_k&=\ ac 1 {N-1}\ suma_ {j=1} ^ {N-1} (x_ {k+d (j-1)} -\ hat {m} _ _ {k+d (j-1)}), \ qquad k=q+1,\ ldots, d. \ end {align*} Definir ahora \[ \ hat {s} _k=\ mu_k-\ frac 1d\ sum_ {\ ell=1} ^d\ mu_\ ell,\ qquad k=1,\ ldots, d, \ nonumber\] y establecers^ = s^ siemprek > d . Esto nos proporcionará datos desestacionalizados que pueden ser examinados más a fondo. En el paso final, cualquier tendencia restante se puede eliminar de los datos. k k−d 3er Paso: Reestimación de Tendencia. Aplicar cualquiera de los métodos de la Sección 1.3. Método 3 (Diferenciación al lag d) Introduciendo el operador de diferencia lag-d∇ , definido dejando d \ [\ nAbla_dx_t=x_t-x_ {t-d} =( 1-b^d) x_t,\ qquad t=d+1,\ ldots, n, \ nonumber\] y asumiendo el modelo (1.1.1), uno llega a las variables aleatorias transformadas 1.4.2 https://espanol.libretexts.org/@go/page/148667 \ [\ nAbla_dx_t=m_t-m_ {t-d} +Y_t-y_ {t-d},\ qquad t=d+1,\ ldots, n. \ nonumber\] Tenga en cuenta que se elimina la estacionalidad, ya ques = s . Las variables de ruido restantesY − Y son estacionarias y tienen media cero. El nuevo componente de tendenciam − m puede eliminarse utilizando cualquiera de los métodos desarrollados en la Sección 1.3. t t−d t Figura 1.12: Las series observadas diferenciadas∇ de ventas de vino tinto australiano. 12 xt t t−d t−d (izquierda),∇x (media) y∇∇ t 12 xt = ∇12 ∇xt (derecha) para los datos Ejemplo 1.4.2 (Ventas de vino australiano). Vuelva a visitar los datos de ventas de vino tinto australiano del Ejemplo 1.4.1 y aplique las técnicas de diferenciación recién establecidas. La gráfica izquierda de la Figura 1.12 muestra los datos después de una aplicación del operador∇ . Si la tendencia restante en los datos se estima con el método de diferenciación de la Sección 1.3, se obtiene la gráfica residual dada en el panel derecho de la Figura 1.12. Obsérvese que el orden de aplicación no cambia los residuales, es decir,∇∇ x = ∇ ∇x . El panel central de la Figura 1.12 muestra los datos diferenciados que aún contienen el componente estacional. 12 12 t 12 t This page titled 1.4: Eliminación de componentes de tendencia y estacionales is shared under a not declared license and was authored, remixed, and/or curated by Alexander Aue. 1.4: Eliminating Trend and Seasonal Components by Alexander Aue has no license indicated. 1.4.3 https://espanol.libretexts.org/@go/page/148667 1.5: Evaluación de los Residuales En esta subsección se introducen varias pruebas de bondad de ajuste para analizar más a fondo los residuos obtenidos tras la eliminación de componentes de tendencia y estacionales. El objetivo principal es determinar si estos residuos pueden considerarse obtenidos o no a partir de una secuencia de variables aleatorias independientes, distribuidas idénticamente o si hay dependencia en los datos. A lo largoY , … , Y denotan los residuos yy , … , y una realización típica. 1 n 1 n Método 1 (La muestra ACF) Se pudo observar en el Ejemplo 1.2.4 que, paraj ≠ 0 , los estimadoresρ^(j) de la ACFρ(j) son asintóticamente independientes y normalmente se distribuyen con media cero y varianzan , siempre que los residuos subyacentes sean independientes e idénticamente distribuidos con una varianza finita. Por lo tanto, trazando el ACF de muestra para un cierto − número de rezagosh , digamos, se espera que aproximadamente el 95% de estos valores estén dentro de los límites±1.96/√n. La función R acf ayuda a realizar este análisis. (Ver Teorema 1.2.1) −1 Método 2 (La prueba de Portmanteau) La prueba Portmanteau se basa en el estadístico de prueba h 2 Q = n∑ρ ^ (j). j=1 ^(j) son normales asintóticamente estándar, se hace evidente que aQ sí misma se Utilizando el hecho de que las variables√− nρ puede aproximar con una distribución chi-cuadrada que poseeh grados de libertad. La hipótesis de residuos independientes e idénticamente distribuidos es rechazada al nivelα ifQ > χ (h) , dondeχ (h) está el1 − α cuantil de la distribución chicuadrado conh grados de libertad. En la literatura se han establecido varios refinamientos de la prueba Portmanteau original. Nos referimos aquí solo a los papeles Ljung y Box (1978), y McLeod y Li (1983) para mayor información. 2 2 1−α 1−α Método 3 (La prueba de rango) Esta prueba es muy útil para encontrar tendencias lineales. Denotar por Π = #{(i, j) : Yi > Yj , i > j, i = 2, … , n} el número aleatorio de pares(i, j) que satisfacen las condicionesY > Y yi > j . Hay( ) = n(n − 1) pares(i, j) tales quei > j . SiY , … , Y son independientes e idénticamente distribuidos, entoncesP (Y > Y ) = 1/2 (asumiendo una distribución continua). Ahora se deduce esoμ = E[Π] = n(n − 1) y, de igual manera,σ = Var(Π) = n(n − 1)(2n + 5) . Además, para tamaños de muestra suficientemente grandesn ,Π tiene una distribución normal aproximada con mediaμ y varianzaσ . En consecuencia, la hipótesis de datos independientes, distribuidos idénticamente sería rechazada a nivelα si i 1 j n i Π n 1 2 2 j 1 2 1 4 Π 72 Π 2 Π |Π − μΠ | P = σΠ dondez 1−α/2 > z1−α/2 , denota el1 − α/2 cuantil de la distribución normal estándar. Método 4 (Pruebas de normalidad) Si hay evidencia de que los datos son generados por variables aleatorias gaussianas, se puede crear la gráfica qq para verificar la normalidad. Se basa en una inspección visual de los datos. Para ello, denotan por Y <… <Y el orden las estadísticas de los residuosY , … , Y que normalmente se distribuyen con valor esperadoμ y varianzaσ . Sostiene que (1) (n) 1 n 2 \ begin {ecuación}\ label {eq:1.5.1} E [Y_ {(j)}] =\ mu+\ sigma E [X_ {(j)}],\ tag {1.5.1}\ end {ecuación} dondeX < … < X están las estadísticas de orden de una distribución normal estándar. La gráfica qq se define como la gráfica de los pares(E[X ], Y ), … , (E[X ], Y ). Según display (1.5.1), la gráfica resultante será aproximadamente lineal con la correlación cuadradaR de los puntos cercana a 1. El supuesto de normalidad será así rechazado siR es “demasiado” pequeño. Es común aproximarseE[X ] ≈ Φ = Φ ((j − .5)/n) (Φsiendo la función de distribución de la distribución normal estándar). La declaración anterior se hace precisa al dejar (1) (n) (1) (1) (n) (n) 2 2 (j) −1 j 2 n [∑ 2 R j=1 = ¯)Φ ] (Y(j) − Y j n n 2 ¯ 2 ∑j=1 (Y(j) − Y ) ∑j=1 Φ , j 1.5.1 https://espanol.libretexts.org/@go/page/148671 dondeY¯ = (Y + … + Y ) . Los valores críticos paraR están tabulados y se pueden encontrar, por ejemplo en Shapiro y Francia (1972). La función R correspondiente es qqnorm. 1 n 1 n 2 This page titled 1.5: Evaluación de los Residuales is shared under a not declared license and was authored, remixed, and/or curated by Alexander Aue. 1.5: Assessing the Residuals by Alexander Aue has no license indicated. 1.5.2 https://espanol.libretexts.org/@go/page/148671 1.6: Resumen En este capítulo se introdujo la descomposición clásica (1.1.1) de una serie de tiempo en un componente de deriva, un componente estacional y una secuencia de residuos. Se proporcionaron métodos para estimar la deriva y la estacionalidad. Además, la clase de procesos estacionarios se identificó como una clase razonablemente amplia de variables aleatorias. Se introdujeron varias formas para verificar si los residuos resultantes pueden considerarse independientes, distribuidos de manera idéntica. En el Capítulo 3 se discute en profundidad la clase de procesos de promedio móvil autorregresivo (ARMA), una clase paramétrica de variables aleatorias que se encuentran en el centro del análisis lineal de series de tiempo porque son capaces de capturar una amplia gama de estructuras de dependencia y permitir un tratamiento matemático exhaustivo. Antes, las propiedades de la media de la muestra, ACVF y ACF de la muestra se consideran en el siguiente capítulo. This page titled 1.6: Resumen is shared under a not declared license and was authored, remixed, and/or curated by Alexander Aue. 1.6: Summary by Alexander Aue has no license indicated. 1.6.1 https://espanol.libretexts.org/@go/page/148672 CHAPTER OVERVIEW 2: La estimación de la media y las covarianzas En este breve segundo capítulo se recogen algunos resultados relativos a las propiedades asintóticas de la media muestral y la FCA de la muestra. A lo largo,(X : t ∈ Z) denota un proceso estocástico débilmente estacionario con mediaμ y ACVFγ . En la Sección 1.2 se demostró que dicho proceso se caracteriza completamente por estas dos cantidades. La mediaμ se estimó por la media muestralx̄ , y la FCAγ por la muestraγ^ se definió en (1.2.1). A continuación, se discuten con más detalle algunas propiedades de estos estimadores. t 2.1: Estimación de la media 2.2: Estimación de la función de autocovarianza This page titled 2: La estimación de la media y las covarianzas is shared under a not declared license and was authored, remixed, and/or curated by Alexander Aue. 1 2.1: Estimación de la media Supongamos que hay que encontrar una suposición apropiada paraμ la media desconocida de algún proceso(X : t ∈ Z) estocástico débilmente estacionario. La media muestralx̄, fácilmente computada como la mediax , … , x den observaciones del proceso, ha sido identificada como adecuada en la Sección 1.2. Para investigar sus propiedades teóricas, es necesario analizar la variable aleatoria asociada a ella, es decir, t 1 ¯ Xn = n 1 n (X1 + … + Xn ). Dos hechos se pueden establecer rápidamente. ¯ Xn es un estimador imparcial paraμ , ya que ¯ E[ X n ] = E [ 1 n n n 1 ∑ Xt ] = t=1 n 1 ∑ E[ Xt ] = t=1 nμ = μ. n Esto quiere decir que “en promedio”, lo verdadero pero desconocidoμ se estima correctamente. Observe que no hay diferencia en los cálculos entre el caso estándar de variables aleatorias independientes e idénticamente distribuidas y el proceso débilmente estacionario más general considerado aquí. ¯ Siγ(n) → 0 asn → ∞ , entoncesX es un estimador consistente paraμ , ya que n \ begin {align*} \ mathrm {Var} (\ bar {X} _n) &=\ mathrm {Cov}\ left (\ frac 1n\ suma_ {s=1} ^nx_s,\ frac 1n\ suma_ {t=1} ^nx_t\ derecha) =\ frac {1} {n^2}\ sum_ {s=1} ^n\ sum_ {n\ sum_ {s=1} ^n\ sum_ {t=1} ^n\ mathrm {Cov} (x_s, x_t)\\ [.2cm] &=\ frac {1} {n^2}\ suma_ {s-t=-n} ^n (n-|s-t|)\ gamma (s-t) =\ frac 1n\ suma_ {h=-n} ^n\ izquierda (1-\ frac {|h|} {n}\ derecha)\ gamma (h). \ end {alinear*} Ahora, la cantidad del lado derecho converge a cero comon → ∞ porqueγ(n) → 0 comon → ∞ por suposición. El primer signo de igualdad en la última matriz de ecuaciones se desprende del hecho de queVar(X) = Cov(X, X) para cualquier variable aleatoriaX, el segundo signo de igualdad utiliza que la función de covarianza es lineal en ambos argumentos. Para la tercera igualdad, se puede usar esoCov(X , X ) = γ(s − t) y que cada unoγ(s − t) aparece exactamenten − |s − t| veces en la doble suma. Finalmente, el lado derecho se obtiene reemplazandos − t conh y tirando de unon dentro de la suma. s t −1 ¯ En el caso estándar de variables aleatorias independientes e idénticamente distribuidasnVar(X ) = σ . La condiciónγ(n) → 0 se satisface automáticamente. Sin embargo, en el caso general de procesos débilmente estacionarios, no puede omitirse. 2 Se puede probar más usando un conjunto apropiado de suposiciones. Los resultados se formulan como teorema sin dar las pruebas. Teorema2.1.1 Dejar(X : t ∈ Z) ser un proceso estocástico débilmente estacionario con mediaμ y ACVFγ. Entonces, las siguientes afirmaciones se mantienen verdaderas comon → ∞ . t a. Si∑ ∞ h=−∞ |γ(h)| < ∞ , entonces ∞ nVar(X̄ n ) → ∑ γ(h) = τ 2 ; h=−∞ b. Si el proceso es “cercano a la Gaussianidad”, entonces n − 2 √n (X̄ n − μ) ∼ AN (0, τn ), 2 τn = ∑ (1 − h=−n Aquí,∼ AN (0, τ 2 n ) |h| ) γ(h). n significa aproximadamente distribuido normalmente con media cero y varianzaτ . 2 n El teorema2.1.1 puede ser utilizado para construir intervalos de confianza para el parámetro medio desconocidoμ . Para ello, se debe, sin embargo, estimar el parámetro de varianza desconocidaτ . Para una gran clase de procesos estocásticos, sostiene queτ n 2.1.1 2 n https://espanol.libretexts.org/@go/page/148644 converge aτ asn → ∞ . Por lo tanto, podemos utilizarτ como aproximación paraτ . Además,τ se puede estimar por 2 2 2 n √n 2 ^ = τ n 2 |h| ∑ ^(h), )γ (1 − n h=−√n dondeγ^(h) denota el estimador ACVF definido en (1.2.1). Un intervalo de confianza aproximado del 95% para ahora seμ puede construir como ( X̄ n − 1.96 τ ^n − √n , X̄ n + 1.96 τ ^n − √n ). Ejemplo2.1.1: Autoregressive Processes Dejar(X t: t ∈ Z) que se den por las ecuaciones \ begin {ecuación}\ label {eq:2.1.1} x_t-\ mu=\ phi (X_ {t-1} -\ mu) +z_t,\ qquad t\ in\ mathbb {Z},\ tag {2.1.1}\ \ end {ecuación} dónde(Z : t ∈ Z) ∼ WN(0, σ ) y|ϕ| < 1 . Se mostrará en el Capítulo 3 que(X : t ∈ Z) define un proceso débilmente estacionario. Utilizando la diferencia estocástica Ecuaciones\ ref {2.1.1}, se pueden determinar tanto la media como las autocovarianzas. Eso sostieneE[X ] = ϕE[X ] + μ(1 − ϕ) . Dado que, por estacionariedad, seE[X ] puede sustituir por E[ X ], se deduce que 2 t t t t−1 t−1 t E[ Xt ] = μ, t ∈ Z. En lo siguiente trabajaremos con el proceso(X : t ∈ Z) dado al dejarX = X − μ . Claramente,E[X ] = 0 . De la definición, se deduce también que las covarianzas de(X : t ∈ Z) y(X : t ∈ Z) coinciden. Primero computar el segundo momento deX , da c c t t c 2 E[{ X } ] = E[(ϕX t y en consecuencia, ya queE[{X c t−1 2 c 2 t t c t t 2 c t−1 } ] = E[{ X } ] c t t c 2 + Zt ) ] = ϕ E[{ X 2 c t−1 } ] +σ por débil estacionariedad de(X c t σ 2 c E[{ Xt } ] = 2 : t ∈ Z) , 2 2 , t ∈ Z. 1 −ϕ Se hace evidente a partir de esta última ecuación, por qué|ϕ| < 1 se necesitaba la condición en exhibición (2.1.1). En el siguiente paso, se calcula la función de autocovarianza. Puesh > 0 , sostiene que γ(h) = E[ X c t+h c Xt ] = E[(ϕX c c t+h−1 después deh iteraciones. Pero comoγ(0) = E[{X c t 2 + Zt+h )Xt ] = ϕE[ X } ] c t+h−1 h c Xt ] = ϕγ(h − 1) = ϕ γ(0) , por simetría de la ACVF, se deduce que 2 |h| σ ϕ γ(h) = 2 , h ∈ Z. 1 −ϕ Después de estas consideraciones teóricas, seμ puede construir un intervalo de confianza del 95% (asintótico) para el parámetro medio. Para verificar si el Teorema 2.1.1 es aplicable aquí, es necesario verificar si las autocovarianzas son absolutamente sumables: \ begin {align*} \ tau^2&=\ sum_ {h=-\ infty} ^\ infty\ gamma (h) =\ frac {\ sigma^2} {1-\ phi^2}\ left (1+2\ sum_ {h=1} ^\ infty\ phi^h\ derecha) =\ frac {\ sigma^2} {1-\ phi^2}\ izquierda (1+\ frac {2} {1-\ phi} -2\ derecha)\\ [.2cm] &=\ frac {\ sigma^2} {1-\ phi^2}\ frac {1} {1-\ phi} (1+\ phi) =\ frac {\ sigma^2} {(1- \ phi) ^2} <\ infty. \ end {alinear*} Por lo tanto, un intervalo de confianza del 95% para elμ cual se basa en los valores observadosx 1, 2.1.2 … , xn viene dado por https://espanol.libretexts.org/@go/page/148644 σ ( x̄ − 1.96 σ − √n (1 − ϕ) , x̄ + 1.96 − √n (1 − ϕ) ). En ella, los parámetrosσ yϕ tienen que ser reemplazados por estimadores apropiados. Estos se introducirán en el Capítulo 3. This page titled 2.1: Estimación de la media is shared under a not declared license and was authored, remixed, and/or curated by Alexander Aue. 2.1: Estimation of the Mean by Alexander Aue has no license indicated. 2.1.3 https://espanol.libretexts.org/@go/page/148644 2.2: Estimación de la función de autocovarianza En esta sección se aborda la estimación del ACVF y el ACF al rezagoh . Recordemos de la ecuación (1.2.1) que el estimador 1 γ ^(h) = n n−|h| ¯ ¯ ∑ (Xt+|h| − X n )(Xt − X n ), h = 0, ±1, … , ±(n − 1), t=1 puede ser utilizado como un proxy para lo desconocidoγ(h). Como estimador para el ACFρ(h), γ ^(h) ^(h) = ρ , h = 0, ±1, … , ±(n − 1), ^(0) γ fue identificado. Algunas de las propiedades teóricas deρ^(h) se recogen brevemente a continuación. No son tan obvias de derivar como en el caso de la media muestral, y se omiten todas las pruebas. Obsérvese también que declaraciones similaresγ^(h) se mantienen para también. El estimadorρ^(h) es generalmente sesgado, es decir,E[ρ^(h)] ≠ ρ(h) . Sostiene, sin embargo, bajo suposiciones no restrictivas que ^(h)] → ρ(h) E[ ρ (n → ∞). Esta propiedad se denomina falta de sesgo asintótico. El estimadorρ^(h) es consistente paraρ(h) bajo un conjunto apropiado de supuestos, es decir,Var(ρ^(h) − ρ(h)) → 0 como n → ∞. Ya se estableció en la Sección 1.5 cómo seρ^ puede utilizar el ACF de muestra para probar si los residuos consisten en variables de ruido blanco. Para una inferencia estadística más general, se necesita conocer la distribución muestral deρ^ . Dado que la estimación deρ(h) se basa en solo unas pocas observaciones parah cerca del tamaño de la muestran , las estimaciones tienden a ser poco confiables. Como regla general, dada por Box y Jenkins (1976),n debe ser por lo menos 50 eh inferior o igual a n/4. Teorema2.2.1 Form ≥ 1 , letρ = (ρ(1), … , ρ(m)) yρ^ = (ρ^(1), … , ρ^(m)) , donde conjunto de supuestos adecuados, sostiene que T m T T m − ^ − ρm ) ∼ AN (0, Σ) √n (ρ m denota la transposición de un vector. Bajo un (n → ∞), donde∼ AN (0, Σ) significa aproximadamente distribuido normalmente con vector medio0 y matriz de covarianzaΣ = (σ dada por la fórmula de Bartlett ij ) ∞ σij = ∑ [ρ(k + i) + ρ(k − i) − 2ρ(i)ρ(k)][ρ(k + j) + ρ(k − j) − 2ρ(j)ρ(k)]. k=1 El apartado se concluye con dos ejemplos. El primero recuerda los resultados ya conocidos para variables aleatorias independientes, distribuidas idénticamente, el segundo trata sobre el proceso autorregresivo del Ejemplo (2.2.1). Ejemplo2.2.1 Vamos(X : t ∈ Z) ∼ IID(0, σ viene dada por t 2 ) . Entonces,ρ(0) = 1 yρ(h) = 0 para todosh ≠ 0 . Por lo tanto, la matrizΣ de covarianza σij = 1 if i = j and σij = 0 if i ≠ j. Esto quiere decir queΣ es una matriz diagonal. En vista del Teorema 2.2.1 se sostiene así que los estimadoresρ^(1), … , ρ^(k) son aproximadamente variables aleatorias normales independientes e idénticamente distribuidas con media 0 y varianza1/n. Esta fue la base para los Métodos 1 y 2 en la Sección 1.6 (ver también Teorema 1.2.1). 2.2.1 https://espanol.libretexts.org/@go/page/148646 Ejemplo2.2.2 Reconsiderar el proceso autorregresivo(X t: t ∈ Z) del Ejemplo 2.1.1 conμ = 0 . Dividiendoγ(h) porγ(0) rendimientos que |h| ρ(h) = ϕ , h ∈ Z. Ahora las entradas diagonales deΣ se calculan como \ begin {align*} \ sigma_ {ii} &=\ sum_ {k=1} ^\ infty\ grande [\ rho (k+i) +\ rho (k-i) -2\ rho (i)\ rho (k)\ grande] ^2\\ [.2cm] &=\ suma_ {k=1} ^i\ phi^ {2i} (\ phi^ {-k} -\ phi^k) ^2+\ sum_ {k=i+1} ^\ infty\ phi^ {2k} (\ phi^ {-i} -\ phi^i) ^2\\ [.2cm] & =( 1-\ phi^ {2i}) (1+\ phi^2) (1-\ phi^2) ^ {-1} -2i\ phi^ {2i}. \ end {alinear*} This page titled 2.2: Estimación de la función de autocovarianza is shared under a not declared license and was authored, remixed, and/or curated by Alexander Aue. 2.2: Estimation of the Autocovariance Function by Alexander Aue has no license indicated. 2.2.2 https://espanol.libretexts.org/@go/page/148646 CHAPTER OVERVIEW 3: Procesos ARMA En este capítulo se discuten procesos de media móvil autorregresiva. Desempeñan un papel crucial en la especificación de modelos de series de tiempo para aplicaciones. Como las soluciones de ecuaciones de diferencia estocástica con coeficientes constantes y estos procesos poseen una estructura lineal. 3.1: Introducción a los procesos de media móvil autorregresiva (ARMA) 3.2: Causalidad e invertibilidad 3.3: El PACF de un proceso de ARMA Causal 3.4: Pronósticos 3.5: Estimación de parámetros 3.6: Selección de modelos 3.7: Resumen This page titled 3: Procesos ARMA is shared under a not declared license and was authored, remixed, and/or curated by Alexander Aue. 1 3.1: Introducción a los procesos de media móvil autorregresiva (ARMA) En este capítulo se discuten procesos de media móvil autorregresiva. Desempeñan un papel crucial en la especificación de modelos de series de tiempo para aplicaciones. Como las soluciones de ecuaciones de diferencia estocástica con coeficientes constantes y estos procesos poseen una estructura lineal. Definición 3.1.1: Procesos ARMA (a) Un proceso débilmente estacionarioX : t ∈ Z se denomina serie de tiempo de promedio móvil autorregresivo de ordenp, q, abreviado porARM A(p, q), si satisface las ecuaciones de diferencia t \ [\ begin {ecuación}\ label {eq:3.1.1} x_t=\ phi_1x_ {t-1} +\ ldots+\ pHI_px_ {t-p} +z_t+\ TheTa_1z_ {t-1} +\ ldots+\ TheTa_qz_ {t-q}, \ qquad t\ in\ mathbb {Z}, \ end ecuación}\ tag {3.1.1}\] dondeϕ 1, … , ϕp yθ 1, … , θq son constantes reales,ϕ p ≠ 0 ≠ θq , y(Z t: 2 t ∈ Z) ∼ WN(0, σ ) . (b) Un proceso estocástico débilmente estacionarioX : t ∈ Z se denomina serieARM A(p, q) temporal con mediaμ si el procesoX − μ: t ∈ Z satisface el sistema de ecuaciones. t t Se puede obtener una representación más concisa de la Ecuación\ ref {eq:3.1.1} con el uso del operador de retrocesoB . Para ello, definir el polinomio autorregresivo y el polinomio promedio móvil por ϕ(z) = 1 − ϕ1 z − ϕ2 z 2 p − … − ϕp z , z ∈ C, y θ(z) = 1 + θ1 z + θ2 z 2 q + … + θq z , z ∈ C, respectivamente, dondeC denota el conjunto de números complejos. Insertando el operador de retroceso en estos polinomios, las ecuaciones en (3.1.1) se convierten en \ [\ begin {ecuación}\ label {eq:3.1.2} \ phi (B) x_t=\ theta (B) z_t,\ qquad t\ in\ mathbb {Z}. \ end {ecuación}\ tag {3.1.2}\] Figura 3.1: Realización de tres procesos de media móvil autorregresiva. Ejemplo 3.1.1 La Figura 3.1 muestra realizaciones de tres series de tiempo promedio móvil autorregresivas diferentes basadas en series de tiempo independientes, estándar distribuidas normalmente(Z : t ∈ Z) . The left panel is an ARMA(2,2) process with parameter specifications ϕ = .2 , ϕ = −.3 , θ = −.5 and θ = .3 . The middle plot is obtained from an ARMA(1,4) process with parameters ϕ = .3 , θ = −.2 , θ = −.3 , θ = .5 , and θ = .2 , while the right plot is from an ARMA(4,1) with parameters ϕ = −.2 , ϕ = −.3 , ϕ = .5 and ϕ = .2 and θ = .6 . The plots indicate that ARMA models can provide a flexible tool for modeling diverse residual sequences. It will turn out in the next section that all three realizations here come from (strictly) stationary processes. Similar time series plots can be produced in R using the commands t 1 1 1 2 1 2 1 2 3 2 3 4 4 1 3.1.1 https://espanol.libretexts.org/@go/page/148662 >arima22 = arima.sim (lista (orden=c (2,0,2), ar=c (.2, -.3), ma=c (-.5, .3)), n=100) >arima14 = arima.sim (lista (orden=c (1,0,4), ar=.3, ma=c (-.2, -.3, .5, .2)), n=100) >arima41 = arima.sim (lista (orden=c (4,0,1), ar=c (-.2, -.3, .5, .2), ma=.6), n= 100) Algunos casos especiales cubiertos en los siguientes dos ejemplos tienen particular relevancia en el análisis de series temporales. Figura 3.2: Realización de tres procesos autorregresivos. Ejemplo 3.1.2 (Procesos AR) Si el polinomio promedio móvil en (3.1.2) es igual a uno, es decir, siθ(z) ≡ 1 , then the resulting (X : t ∈ Z) is referred to as autoregressive process of order p , AR(p). These time series interpret the value of the current variable X as a linear combination of p previous variables X ,…,X plus an additional distortion by the white noise Z . Figure 3.1.2 displays two AR(1) processes with respective parameters ϕ = −.9 (left) and ϕ = .8 (middle) as well as an AR(2) process with parameters ϕ = −.5 and ϕ = .3 . The corresponding R commands are t t t−1 t−p 1 1 t 1 2 >ar1neg = arima.sim (lista (orden=c (1,0,0), ar=-.9), n=100) >ar1pos = arima.sim (lista (orden=c (1,0,0), ar=.8), n=100) >ar2 = arima.sim (lista (pedido=c (2,0,0), ar=c (-.5, .3)), n=100) Figura 3.3: Realización de tres procesos de media móvil. Ejemplo 3.1.3 (Procesos MA) Si el polinomio autorregresivo en (3.1.2) es igual a uno, es decir, siϕ(z) ≡ 1 , then the resulting (X : t ∈ Z) is referred to as moving average process of order q , MA(q )}. Here the present variable X is obtained as superposition of q white noise terms Z , … , Z . Figure (3.1.3) shows two MA(1) processes with respective parameters θ = .5 (left) and θ = −.8 (middle). The right plot is observed from an MA(2) process with parameters θ = −.5 and θ = .3 . In R one may use t t t t−q 1 1 1 2 > ma1pos = arima.sim (lista (pedido=c (0,0,1), ma=.5), n=100) > ma1neg = arima.sim (lista (pedido=c (0,0,1), ma=-.8), n=100) > ma2 = arima.sim (lista (pedido=c (0,0,2), ma=c (-.5, .3)), n=100) Para el análisis que viene en los próximos capítulos, ahora introducimos procesos de media móvil de orden infinito(q = ∞) . Son una herramienta importante para determinar soluciones estacionarias a las ecuaciones de diferencia (3.1.1). Definición 3.1.2 Procesos lineales Un proceso estocástico(X ∑ | ψ | < ∞ such that t: t ∈ Z) is called linear process or MA(∞) time series if there is a sequence (ψj : j ∈ N0 ) with ∞ j=0 j 3.1.2 https://espanol.libretexts.org/@go/page/148662 \ [\ begin {ecuación}\ label {eq:3.1.3} x_t=\ sum_ {j=0} ^\ infty\ psi_jz_ {t-j},\ qquad t\ in\ mathbb {Z}, \ end {ecuación}\ tag {3.1.3}\] donde(Z : t ∈ Z) ∼ WN(0, σ ) . 2 t Las series de tiempo promedio móviles de cualquier ordenq son casos especiales de procesos lineales. Solo elige ψ = θ j = 1, … , q y estableceψ = 0 sij > q . Es común introducir la serie power j j j ∞ j ψ(z) = ∑ ψj z , z ∈ C, j=0 para expresar un proceso lineal en términos del operador de retroceso. La pantalla (3.1.3) ahora se puede reescribir en forma compacta Xt = ψ(B)Zt , t ∈ Z. Con las definiciones de esta sección a la mano, las propiedades de los procesos ARMA, como la estacionariedad e invertibilidad, se investigan en la siguiente sección. La sección actual se cierra dando sentido a la notaciónX = ψ(B)Z . Note that one is possibly dealing with an infinite sum of random variables. For completeness and later use, in the following example the mean and ACVF of a linear process are derived. t t Ejemplo 3.1.4 Media y ACVF de un proceso lineal Dejar(X t: t ∈ Z) ser un proceso lineal de acuerdo a la Definición 3.1.2. Entonces, sostiene que ∞ ∞ E[ Xt ] = E [ ∑ ψj Zt−j ] = ∑ ψj E[ Zt−j ] = 0, j=0 t ∈ Z. j=0 Siguiente observar también que \ begin {align*} \ gamma (h) &=\ mathrm {Cov} (X_ {t+h}, x_t)\\ [.2cm] &=E\ left [\ sum_ {j=0} ^\ infty\ psi_jz_ {t+h-j}\ sum_ {k=0} ^\ infty\ psi_kz_ {t-j k}\ derecha]\\ [.2cm] &=\ sigma^2\ suma_ {k=0} ^\ infty\ psi_ {k+h}\ psi_k<\ infty \ end {align*} por suposición sobre la secuencia(ψ : j ∈ N ) . j 0 Contribuidores Template:ContribAue This page titled 3.1: Introducción a los procesos de media móvil autorregresiva (ARMA) is shared under a not declared license and was authored, remixed, and/or curated by Alexander Aue. 3.1: Introduction to Autoregressive Moving Average (ARMA) Processes by Alexander Aue has no license indicated. 3.1.3 https://espanol.libretexts.org/@go/page/148662 3.2: Causalidad e invertibilidad Si bien un proceso de orden promedio móvil siempreq será estacionario sin condiciones sobre los coeficientesθ ,,…θ , se requieren algunos pensamientos más profundos en el caso de los procesos AR (p) y ARMA (p, q). Por simplicidad, comenzamos por investigar el proceso autorregresivo del orden uno, que viene dado por las ecuacionesX = ϕX + Z (escrituraϕ = ϕ ). Las iteraciones repetidas producen que 1 t t−1 t q 1 N −1 2 N Xt = ϕXt−1 + Zt = ϕ Xt−2 + Zt + ϕZt−1 = … = ϕ j Xt−N + ∑ ϕ Zt−j . j=0 DejandoN → ∞ , ahora podría demostrarse que, con probabilidad uno, ∞ j Xt = ∑ ϕ Zt−j (3.2.2) j=0 es la solución débilmente estacionaria a las ecuaciones AR (1), siempre que|ϕ| < 1 . These calculations would indicate moreover, that an autoregressive process of order one can be represented as linear process with coefficients ψ = ϕ . j j Ejemplo3.2.1: Mean and ACVF of an AR(1) process Dado que un proceso autorregresivo del orden uno ha sido identificado como un ejemplo de un proceso lineal, se puede determinar fácilmente su valor esperado como ∞ j E[ Xt ] = ∑ ϕ E[ Zt−j ] = 0, t ∈ Z. j=0 Para la ACVF, se obtiene que \ begin {alinear*} \ gamma (h) &= {\ rm Cov} (X_ {t+h}, x_t)\\ [.2cm] &=E\ left [\ sum_ {j=0} ^\ infty\ phi^jz_ {t+h-j}\ suma_ {k=0} ^\ infty\ phi^Kz_ {t-k}\ derecha]\\ [.2cm] &=\ sigma^2\ suma_ {k=0} ^\ infty\ phi^ {k+h}\ phi^ {k} =\ sigma^2\ phi^h\ suma_ {k=0} ^\ infty\ phi ^ {2k} =\ frac {\ sigma^2\ phi^h} {1-\ phi^2}, \ end {alinear*} dondeh ≥ 0 . This determines the ACVF for all h using that ρ(h) = ϕ . See also Example 3.1.1 for comparison. γ(−h) = γ(h) . It is also immediate that the ACF satisfies h Ejemplo3.2.2: Nonstationary AR(1) processes En el Ejemplo 1.2.3 hemos introducido la caminata aleatoria como una serie de tiempo no estacionaria. También se puede ver como un proceso AR (1) no estacionario con parámetroϕ = 1 . En general, los procesos autorregresivos de orden uno con coeficientes se|ϕ| > 1 denominan {\ it explosivo}\/porque no admiten una solución débilmente estacionaria que pudiera expresarse como un proceso lineal. No obstante, se podrá proceder de la siguiente manera. Reescribir las ecuaciones definitorias de un proceso AR (1) como −1 Xt = −ϕ −1 Zt+1 + ϕ Xt+1 , t ∈ Z. Aplica ahora las mismas iteraciones que antes para llegar a N −N Xt = ϕ −j Xt+N − ∑ ϕ Zt+j , t ∈ Z. j=1 Obsérvese que en el caso débilmente estacionario, la presente observación ha sido descrita en términos de innovaciones pasadas. Sin embargo, la representación en la última ecuación contiene solo observaciones futuras con retardos de tiempo 3.2.1 https://espanol.libretexts.org/@go/page/148651 mayores que el tiempo presentet . Desde el punto de vista estadístico esto no tiene mucho sentido, aunque por argumentos idénticos a los anteriores podamos obtener ∞ −j Xt = − ∑ ϕ Zt+j , t ∈ Z, j=1 como la solución débilmente estacionaria en el caso explosivo. El resultado del ejemplo anterior conduce a la noción de causalidad lo que significa que el proceso(X : t ∈ Z) tiene una representación en términos del ruido blanco(Z : s ≤ t) y que, por lo tanto, no está correlacionado con el futuro según lo dado por (Z : s > t) . Damos la definición para el caso general ARMA. t s s Definición: Causalidad Un proceso ARMA (p, q) dado por (3.1.1) es causal si hay una secuencia(ψ j tal que∑ ∞ : j ∈ N0 ) j=0 | ψj | < ∞ y ∞ Xt = ∑ ψj Zt−j , t ∈ Z. j=0 Causalidad significa que una serie temporal ARMA se puede representar como un proceso lineal. Se vio anteriormente en esta sección cómo un proceso AR (1) cuyo coeficiente satisface la condición|ϕ| < 1 puede convertirse en un proceso lineal. También se demostró que esto es imposible si|ϕ| > 1 . Las condiciones sobre el parámetro autorregresivo seϕ pueden replantear en términos del polinomio autorregresivo correspondiente de laϕ(z) = 1 − ϕz siguiente manera. Sostiene que |ϕ| < 1 if and only if ϕ(z) ≠ 0 for all |z| ≤ 1, |ϕ| > 1 if and only if ϕ(z) ≠ 0 for all |z| ≥ 1 . Resulta que la caracterización en términos de los ceros de los polinomios autorregresivos se traslada del caso AR (1) al caso general ARMA (p, q). Además, losψ pesos del proceso lineal resultante tienen una representación fácil en términos de los polinomiosϕ(z) yθ(z) . El resultado se resume en el siguiente teorema. Teorema 3.2.1 Sea un proceso ARMA (p, q) tal que los polinomiosϕ(z) y noθ(z) tengan ceros comunes. Entonces(X : t ∈ Z) es causal si y sólo siϕ(z) ≠ 0 para todosz ∈ C con|z| ≤ 1 . Los coeficientes(ψ : j ∈ N ) están determinados por la expansión de la serie de potencia (Xt : t ∈ Z) t j ∞ ψ(z) = ∑ ψj z j 0 θ(z) = , |z| ≤ 1. ϕ(z) j=0 Un concepto estrechamente relacionado con la causalidad es la invertibilidad. Esta noción está motivada con el siguiente ejemplo que estudia las propiedades de una serie temporal de promedio móvil de orden 1. Ejemplo3.2.3 Let(X t: t ∈ N) Ser un proceso MA (1) con parámetroθ = θ . Es un ejercicio fácil calcular el ACVF y el ACF como 1 2 2 (1 + θ )σ , ⎧ ⎪ 2 γ(h) = ⎨ θσ , ⎩ ⎪ 0 1 ⎧ ⎪ h = 0, h = 0. 2 −1 ρ(h) = ⎨ θ(1 + θ ) h =1 ⎩ ⎪ h > 1, 0 , h = 1. h > 1. Estos resultados llevan a la conclusión de queρ(h) no cambia siθ se reemplaza el parámetro porθ . Además, existen pares (θ, σ ) que conducen al mismo ACVF, por ejemplo(5, 1) y(1/5, 25). En consecuencia, llegamos al hecho de que los dos modelos MA (1) −1 2 1 Xt = Zt + 5 Zt−1 , t ∈ Z, 3.2.2 (Zt : t ∈ Z) ∼ iid N (0, 25), https://espanol.libretexts.org/@go/page/148651 y ~ ~ Xt = Z t + 5 Z t−1 , ~ (Z : t ∈ Z) ∼ iid N (0, 1), t ∈ Z, ~ son indistinguibles porque solo observamosX pero no las variables de ruidoZ yZ . t t t Por conveniencia, el estadístico escogerá el modelo que satisfaga el criterio de invertibilidad que se definirá a continuación. Se especifica que la secuencia de ruido se puede representar como un proceso lineal en las observaciones. Definición: Invertibilidad Un proceso ARMA (p, q) dado por (3.1.1) es invertible si hay una secuencia(π j: j ∈ N0 ) tal que∑ ∞ j=0 | πj | < ∞ y ∞ Zt = ∑ πj Xt−j , t ∈ Z. j=0 Teorema 3.2.2 Sea un proceso ARMA (p, q) tal que los polinomiosϕ(z) y noθ(z) tengan ceros comunes. Entonces(X : t ∈ Z) es invertible si y solo siθ(z) ≠ 0 para todosz ∈ C con|z| ≤ 1 . Los coeficientes(π ) están determinados por la expansión de la serie de potencia (Xt : t ∈ Z) t j ∞ j π(z) = ∑ πj z j∈N0 ϕ(z) = , |z| ≤ 1. θ(z) j=0 A partir de ahora se asume que todas las secuencias de ARMA especificadas en la secuela son causales e invertibles a menos que se indique explícitamente lo contrario. El último ejemplo de esta sección destaca la utilidad de la teoría establecida. Se ocupa de la redundancia de parámetros y el cálculo de las secuencias de causalidad e invertibilidad(ψ : j ∈ N ) and (π : j ∈ N ) . j 0 j 0 Ejemplo3.2.4: Parameter redundancy Considerar las ecuaciones ARMA Xt = .4 Xt−1 + .21 Xt−2 + Zt + .6 Zt−1 + .09 Zt−2 , que parecen generar una secuencia ARMA (2,2). Sin embargo, los polinomios autorregresivos y de promedio móvil tienen un cero común: \ begin {align*} \ tilde {\ phi} (z) &=1-.4z-.21z^2 =( 1-.7z) (1+.3z),\\ [.2cm] \ tilde {\ theta} (z) &=1+.6z+.09z^2 =( 1+.3z) ^2. \ end {alinear*} Por lo tanto, se pueden restablecer las ecuaciones ARMA a una secuencia de orden (1,1) y obtener Xt = .7 Xt−1 + Zt + .3 Zt−1 . Ahora bien, los polinomios correspondientes no tienen raíces comunes. Tenga en cuenta que las raíces deϕ(z) = 1 − .7z y θ(z) = 1 + .3z son10/7 > 1 y−10/3 < −1, respectivamente. Así, los teoremas 3.2.1 y 3.2.2 implican que existen soluciones causales e invertibles. A continuación, los coeficientes correspondientes en las expansiones ∞ ∞ Xt = ∑ ψj Zt−j and Zt = ∑ πj Xt−j , j=0 se calculan. Partiendo de la secuencia de causalidad(ψ j ∞ ∑ ψj z j=0 j t ∈ Z, j=0 : j ∈ N0 ) θ(z) = ψ(z) = . Redacción, para|z| ≤ 1 , 1 + .3z = ϕ(z) ∞ j = (1 + .3z) ∑(.7z) , 1 − .7z 3.2.3 j=0 https://espanol.libretexts.org/@go/page/148651 se puede obtener de una comparación de coeficientes que ψ0 = 1 j−1 and ψj = (.7 + .3)(.7 ) Del mismo modo, se computan los coeficientes de invertibilidad(π j ∞ ∑ πj z j ϕ(z) = π(z) = : j ∈ N0 ) , j ∈ N. a partir de la ecuación ∞ 1 − .7z j = = (1 − .7z) ∑(−.3z) 1 + .3z θ(z) j=0 j−1 = (.7 ) j=0 (|z| ≤ 1 ) como π0 = 1 and j j−1 πj = (−1 ) (.3 + .7)(.3 ) j j−1 = (−1 ) (.3 ) . En conjunto, los cálculos anteriores ceden a las representaciones explícitas ∞ ∞ j−1 Xt = Zt + ∑(.7 ) Zt−j j and j−1 Zt = Xt + ∑(−1 ) (.3 ) j=1 Xt−j . j=1 En lo que resta de esta sección, se proporciona una manera general para determinar los pesos(ψ : j ≥ 1) para un proceso causal ARMA (p, q) dado porϕ(B)X = θ(B)Z , dondeϕ(z) ≠ 0 para todosz ∈ C tales que|z| ≤ 1 . Ya queψ(z) = θ(z)/ϕ(z) para estos z , el peso seψ puede calcular haciendo coincidir los coeficientes correspondientes en la ecuaciónψ(z)ϕ(z) = θ(z) , es decir, j t t j (ψ0 + ψ1 z + ψ2 z Resolver recursivamente paraψ 0, ψ1 , ψ2 , … 2 p q + …)(1 − ϕ1 z − … − ϕp z ) = 1 + θ1 z + … + θq z . da \ begin {alinear*} \ psi_0&=1,\ \\ psi_1-\ phi_1\ psi_0&=\ theta_1,\\ \ psi_2-\ phi_1\ psi_1-\ phi_2\ psi_0&=\ theta_2, \ end {align*} y así sucesivamente siempre y cuandoj < max{p, q + 1} . La solución general se puede afirmar como j ψj − ∑ ϕk ψj−k = θj , 0 ≤ j < max{p, q + 1}, (3.2.1) k=1 p ψj − ∑ ϕk ψj−k = 0, j ≥ max{p, q + 1}, (3.2.2) k=1 si definimosϕ = 0 sij > p yθ = 0 sij > q . Por lo tanto, para obtener los coeficientesψ se tiene que resolver la ecuación de diferencia lineal homogénea (3.2.2) sujeto a las condiciones iniciales especificadas por (3.2.1). Para más información sobre este tema, véanse la Sección 3.6 de Brockwell y Davis (1991) y la Sección 3.3 de Shumway y Stoffer (2006). j j j Cálculos de R En R, estos cálculos se pueden realizar usando el comando ArmaTomA. Por ejemplo, se pueden usar los comandos >Armatoma (ar=.7, ma=.3,25) >parcela (ArmaTomA (ar=.7, ma=.3,25)) lo que producirá la salida mostrada en la Figura 3.4. La gráfica muestra muy bien la decadencia exponencial de losψ pesos, que es típica de los procesos ARMA. En la tabla se muestran los pesos en filaψ , … , ψ . Esto se habilita por la elección de 25 en el argumento de la función ArmaTomA. 0 24 1.0000000000 0.7000000000 0.4900000000 0.3430000000 0.2401000000 0.1680700000 0.1176490000 0.0823543000 0.0576480100 0.0403536070 0.0282475249 0.0197732674 0.0138412872 0.0096889010 0.0067822307 3.2.4 https://espanol.libretexts.org/@go/page/148651 0.0047475615 0.0033232931 0.0023263051 0.0016284136 0.0011398895 0.0007979227 0.0005585459 0.0003909821 0.0002736875 0.0001915812 Figura 3.4: La salida R para el proceso ARMA (1,1) del Ejemplo 3.2.4 Contribuyentes Template:ContribAue This page titled 3.2: Causalidad e invertibilidad is shared under a not declared license and was authored, remixed, and/or curated by Alexander Aue. 3.2: Causality and Invertibility by Alexander Aue has no license indicated. 3.2.5 https://espanol.libretexts.org/@go/page/148651 3.3: El PACF de un proceso de ARMA Causal En esta sección se introduce la función de autocorrelación parcial (PACF) para evaluar aún más la estructura de dependencia de los procesos estacionarios en general y los procesos causales ARMA en particular. Para empezar, calculemos el ACVF de un proceso de promedio móvil de ordenq Ejemplo3.3.1: The ACVF of an MA(q ) process Let(X : t ∈ Z) Ser un proceso MA (q) especificado por el polinomioθ(z) = 1 + θ sostiene que 1z t + … + θq z q . Entonces, dejandoθ 0 =1 , q E[ Xt ] = ∑ θj E[ Zt−j ] = 0. j=0 Solución Para calcular el ACVF, supongamos queh ≥ 0 y escriba \ begin {align*} \ gamma (h) &= Cov (X_ {t+h}, X_ {t}) =E [X_ {t+h} X_ {t}]\\ [.2cm] &=E\ izquierda [\ izquierda (\ suma_ {j=0} ^q\ TheTa_jz_ {t+h-j}\ derecha)\ izquierda (\ sum_ {j=0} ^q\ TheTa_JZ_ {t+h-j}\ derecha) \ izquierda (\ sum_ {{k=0} ^q\ theta_kz_ {t-k}\ derecha)\ derecha]\\ [.2cm] &=\ suma_ {j=0} ^q\ suma_ {k=0} ^q\ theta_j\ theta_ke [Z_ {t+h-j} Z_ {t-k}]\\ [ .2cm] &=\ left\ {\ begin {array} {l@ {\ qquad} r} \ displaystyle\ sigma^2\ sum_ {k=0} ^ {q-h}\ theta_ {k+h}\ theta_k, & 0\ leq h\ leq q.\\ [.2cm] 0, & h>q. \ end {array} derecha\. \ end {alinear*} El resultado aquí es una generalización del caso MA (1), el cual fue tratado en el Ejemplo 3.2.3. También es un caso especial del proceso lineal en el Ejemplo 3.1.4. La estructura del ACVF para procesos MA indica una estrategia posible para determinar en la práctica el orden desconocidoq: graficar el ACF de la muestra y seleccionar como ordenq el mayor rezago de tal manera queρ(h) sea significativamente diferente de cero. Si bien el ACF de muestra puede revelar potencialmente el verdadero orden de un proceso de MA, lo mismo ya no es cierto en el caso de los procesos AR. Incluso para las series de tiempo AR (1) se ha mostrado en el Ejemplo 3.2.1 que su ACFρ(h) = ϕ es distinto de cero para todos los rezagos. Como motivación adicional, sin embargo, discutimos el siguiente ejemplo. |h| Ejemplo 3.3.2 Dejar(X t: t ∈ Z) ser un proceso de AR causal (1) con parámetro|ϕ| < 1 . Sostiene que \ [\ gamma (2) =Cov (X_2, X_ {0}) =Cov (\ phi^2x_ {0} +\ phi Z_ {1} +Z_2, X_ {0}) =\ phi^2\ gamma (0)\ no=0. \ nonumber\] Para romper la dependencia lineal entreX yX , restarϕX de ambas variables. Cálculo de los rendimientos de covarianza resultantes 0 2 1 C ov(X2 − ϕX1 , X0 − ϕX1 ) = C ov(Z2 , X0 − ϕX1 ) = 0, ya que, debido a la causalidad de este proceso AR (1),X correlacionada conX − ϕX = Z . 0 2 1 − ϕX1 es una función deZ 1, Z0 , Z−1 , … y por lo tanto no está 2 El ejemplo anterior motiva la siguiente definición general. Definición 3.3.1 Función de autocorrelación parcial 3.3.1 https://espanol.libretexts.org/@go/page/148654 Dejar(X t: t ∈ Z) ser un proceso estocástico débilmente estacionario con media cero. Luego, la secuencia(ϕ hh : h ∈ N) dada por \ begin {align*} \ phi_ {11} &=\ rho (1) =Corr (X_1, X_0),\\ [.2cm] \ phi_ {hh} &=Corr (x_h-x_h^ {h-1}, X_0-X_0^ {h-1}),\ qquad h\ geq 2, \ end {align*} se llama la función de autocorrelación parcial (PACF) de(X t: t ∈ Z) . En ella, \ begin {align*} x_h^ {h-1} &=\ mbox {regresión de $x_h$ on } (X_ {h-1},\ ldots, X_1)\\ [.2cm] &=\ beta_1x_ {h-1} +\ beta_2x_ {h-2} +\ ldots+\ beta_ {h-1} X_1\ [.3cm] X_0^ {h-1} &=\ mbox {regresión de $X_0$ en } (X_1,\ ldots, X_ {h-1})\\ [.2cm] &=\ beta_1x_1+\ beta_2x_2+\ ldots+\ beta_ {h-1} X_ {h-1}. \ end {alinear*} Observe que no hay coeficiente de intercepciónβ en los parámetros de regresión, ya que se supone queE[X ejemplo demuestra cómo calcular los parámetros de regresión en el caso de un proceso AR (1). t] 0 =0 . El siguiente Figura 3.5 Los ACF y PACF de un proceso AR (2) (panel superior), y un proceso MA (3) (panel medio) y un proceso ARMA (1,1) (panel inferior). Ejemplo 3.3.3 PACF de un proceso AR (1)] Si(X : t ∈ Z) es un proceso de AR causal (1), entoncesϕ = ρ(1) = ϕ . Para calcularϕ , calcular primeroX Este coeficiente se determina minimizando el error cuadrático medio entreX yβX : t 11 22 2 2 E[ X2 − β X1 ] 1 2 = β X1 , es decirβ. 1 2 = γ(0) − 2βγ(1) + β γ(0) 3.3.2 https://espanol.libretexts.org/@go/page/148654 que se minimiza porβ = ρ(1) = ϕ . (Esto sigue fácilmente tomando la derivada y poniéndola a cero). Por lo tantoX = ϕX . De igual manera, se calculaX = ϕX y se deduce del Ejemplo 3.3.2 queϕ = 0 . Efectivamente todos los rezagosh ≥ 2 del PACF son cero. 1 1 2 1 1 0 De manera más general, ϕ(z) = 1 − ϕ1 z − … − ϕp z p considere 22 brevemente un proceso de AR causal (p) dado porϕ(B)X t = Zt with . Entonces, parah > p , p X h−1 h = ∑ ϕj Xh−j j=1 y consecuentemente ϕhh = C orr(Xh − X h−1 h , X0 − X h−1 0 ) = C orr(Zh , X0 − X h−1 0 ) =0 sih > p por causalidad (el mismo argumento usado en el Ejemplo 3.3.2 también se aplica aquí). Observe, sin embargo, que noϕ es necesariamente cero sih ≤ p . Lo anterior sugiere que la versión de muestra del PACF puede ser utilizada para identificar el orden de un proceso autorregresivo a partir de datos: usar comop el mayor retrasoh tal queϕ es significativamente diferente de cero. hh hh Por otro lado, para un proceso MA (q) invertible, se puede escribirZ t = π(B)Xt o, de manera equivalente, ∞ Xt = − ∑ πj Xt−j + Zt j=1 lo que demuestra que el PACF de un proceso MA (q) será distinto de cero para todos los rezagos, ya que para una regresión ``perfecta” habría que usar todas las variables pasadas en(X : s < t) lugar de solo la cantidadX dada en la Definición 3.3.1. t−1 s t En resumen, el PACF invierte el comportamiento del ACVF para procesos autorregresivos y de promedio móvil. Mientras que estos últimos tienen un ACVF que desaparece después del retrasoq y un PACF que no es cero (aunque en descomposición) para todos los rezagos, los procesos AR tienen un ACVF que no es cero (aunque en descomposición) para todos los rezagos pero un PACF que desaparece después del retrasop. ACVF (ACF) y PACF por lo tanto proporcionan herramientas útiles para evaluar la dependencia de procesos ARMA dados. Si el ACVF estimado (el PACF estimado) es esencialmente cero después de algún retraso de tiempo, entonces la serie temporal subyacente se puede modelar convenientemente con un proceso MA (AR), y no se tiene que ajustar ninguna secuencia general de ARMA. Estas conclusiones se resumen en la Tabla 3.3.1 Cuadro 3.1: Comportamiento de ACF y PACF para los procesos AR, MA y ARMA. Ejemplo 3.3.4 La Figura 3.5 recoge los ACF y PACF de tres procesos ARMA. El panel superior se toma del proceso AR (2) con parámetros ϕ = 1.5 yϕ = −.75 . Se puede observar que el ACF se apaga y muestra un comportamiento cíclico (tenga en cuenta que el polinomio autorregresivo correspondiente tiene raíces complejas). El PACF, sin embargo, corta después del rezago 2. Así, inspeccionando ACF y PACF, especificaríamos correctamente el orden del proceso AR. 1 2 El panel central muestra el ACF y PACF del proceso MA (3) dado por los parámetrosθ confirmanq = 3 debido a que el ACF corta después del lag 3 y el PACF fracasa. 1 , = 1.5 θ2 = −.75 yθ 3 =3 . Las parcelas lo Finalmente, el panel inferior muestra el ACF y PACF del proceso ARMA (1,1) del Ejemplo 3.2.4. Aquí, la evaluación es mucho más difícil. Mientras que el ACF fracasa como se predijo (ver Cuadro 3.1), el PACF básicamente corta después del retraso 4 o 5. Esto podría llevar a la conclusión equivocada de que el proceso subyacente es en realidad un proceso AR de orden 4 o 5. (La razón 3.3.3 https://espanol.libretexts.org/@go/page/148654 de este comportamiento radica en el hecho de que la dependencia en este proceso ARMA (1,1) en particular puede aproximarse bien por la de una serie de tiempo AR (4) o AR (5).) Para reproducir las gráficas en R, puede usar los comandos >ar2.acf=armaACF (ar=c (1.5, -.75), ma=0, 25) >ar2.pacf=armaACF (ar=c (1.5, -.75), ma=0, 25, PACF=T) para el proceso AR (2). Los otros dos casos se derivan de adaptaciones directas de este código. Figura 3.6: La serie de reclutamiento del Ejemplo 3.3.5 (izquierda), su muestra ACF (media) y la muestra PACF (derecha). Figura 3.7: Matriz de diagrama de dispersión que relaciona el reclutamiento actual con el reclutamiento pasado para los rezagos h = 1, … , 12 . Ejemplo 3.3.5 Serie de Reclutamiento Los datos considerados en este ejemplo consisten en 453 meses de reclutamiento observado (número de peces nuevos) en cierta parte del Océano Pacífico recolectados a lo largo de los años 1950—1987. La gráfica de series de tiempo correspondiente se da en el panel izquierdo de la Figura 3.6. Los ACF y PACF correspondientes mostrados en el panel medio y derecho de la misma figura recomiendan ajustar un proceso AR de ordenp = 2 a los datos de reclutamiento. Suponiendo que los datos están en rec, el código R a reproducir Figura 3.6 es > rec = ts (rec, inicio=1950, frecuencia=12) > parcela (rec, xlab= "”, ylab= "”) > acf (rec, lag=48) > pacf (rec, lag=48) 3.3.4 https://espanol.libretexts.org/@go/page/148654 Esta afirmación también es congruente con las tramas de dispersión que relacionan el reclutamiento actual con el reclutamiento pasado en varios rezagos de tiempo, a saberh = 1, … , 12. Para los rezagos 1 y 2, parece haber una fuerte relación lineal, mientras que ya no es así parah ≥ 3 . Los comandos R correspondientes son > lag.plot (rec, lags=12, layout=c (3,4), diag=F) Denotar porX el reclutamiento en el momentot . Para estimar los parámetros AR (2), ejecutar una regresión sobre los tripletes de datos observados incluidos en el conjunto(x , x − 1, x − 2): j = 3, … , 453 para ajustarse a un modelo de la forma t t t t Xt = ϕ0 + ϕ1 Xt − 1 + ϕ2 Xt − 2 + Zt , donde(Z t) 2 ∼ WN (0, σ ) t = 3, … , 453, . Esta tarea se puede realizar en R de la siguiente manera. > fit.rec = ar.ols (rec, AIC=F, orden.max=2, demean=F, intercept=T) Estas estimaciones se pueden evaluar con el comando {\ tt fit.rec} y los errores estándar correspondientes confit. rec$asy. se . Aquí se obtienen las estimaciones de parámetrosϕ^ = 6.737(1.111)ϕ^ = 1.3541(.042),,ϕ^ = −.4632(.0412) yσ ^ = 89.72. Los errores estándar se dan entre paréntesis. 2 0 1 2 This page titled 3.3: El PACF de un proceso de ARMA Causal is shared under a not declared license and was authored, remixed, and/or curated by Alexander Aue. 3.3: The PACF of a Causal ARMA Process by Alexander Aue has no license indicated. 3.3.5 https://espanol.libretexts.org/@go/page/148654 3.4: Pronósticos Supongamos que las variablesX , … , X de una serie temporal débilmente estacionaria se(X : t ∈ Z) han observado con el objetivo de predecir o pronosticar los valores futuros deX , X , …. El foco está aquí en los llamados mejores predictores lineales (BLP) de un solo paso. Estas son, por definición, combinaciones lineales 1 n t n+1 n+2 ^ X n+1 = ϕn0 + ϕn1 Xn + … + ϕnn X1 de las variables observadasX 1, (3.4.1) que minimizan el error cuadrático medio … , Xn 2 E [{ Xn+1 − g(X1 , … , Xn )} ] para funciones g deX , … , X . Las generalizaciones sencillas producen definiciones para los m -step mejores predictores lineales ^ X X de arbitrariosm ∈ N de la misma manera. Usando la teoría espacial de Hilbert, se puede probar el siguiente teorema que será el punto de partida para nuestras consideraciones. 1 n+m n n+m Teorema3.4.1: Best linear prediction (BLP) Dejar(X : t ∈ Z) ser un proceso estocástico débilmente estacionario del cualX un solo pasoX está determinado por las ecuaciones 1, t … , Xn ^ se observan. Luego, el BLPX n+1 de n+1 ^ E [(Xn+1 − X n+1 )Xn+1−j ] = 0 para todosj = 1, … , n + 1 , dondeX 0 =1 . Las ecuaciones especificadas en Teorema3.4.1 pueden ser utilizadas para calcular los coeficientesϕ , … , ϕ en la Ecuación\ ref {3.4.1}. Es suficiente enfocarse en los procesos de media cero(X : t ∈ Z) y así establecerϕ = 0 como muestran los siguientes ^ cálculos. Asumir esoE[X ] = μ para todost ∈ Z . Entonces, Teorema3.4.1 da esoE[X ] = E[ X ] = μ (usando la ecuación conj = n + 1 . En consecuencia, sostiene que n0 t nn n0 t n+1 n n+1 n ^ μ = E[ X n+1 ] = E [ ϕn0 + ∑ ϕnℓ Xn+1−ℓ ] = ϕn0 + ∑ ϕnℓ μ. ℓ=1 Usando ahora esoϕ n0 = μ(1 − ϕn1 − … − ϕnn ) ℓ=1 , la ecuación\ ref {3.4.1} se puede reescribir como ^ Y n+1 = ϕn1 Yn + … + ϕnn Y1 , dondeY^ n+1 ^ = X n+1 − μ Con el ACVFγ de(X t: tiene cero medio. t ∈ Z) , las ecuaciones en Teorema se3.4.1 pueden expresar como n ∑ ϕnℓ γ(j − ℓ) = γ(j), j = 1, … , n. (3.4.2) ℓ=1 Obsérvese que debido a la convenciónϕ = 0 , se omite la última ecuación en Teorema3.4.1 (para la cualj = n + 1 ). Más convenientemente, esto se reformula en notación matricial. Para ello, vamosΓ = (γ(j − ℓ)) ,ϕ = (ϕ , … , ϕ ) y γ = (γ(1), … , γ(n)) , donde denota la transposición. Con estas notaciones, (3.4.2.) se convierte n0 n T n j,ℓ=1,…,n n n1 nn T T Γn ϕn = γn ⟺ −1 ϕn = Γn γn , (3.4.3) siempre que noΓ sea singular. n La determinación de los coeficientes seϕ ha reducido así a resolver un sistema de ecuaciones lineales y depende únicamente de las propiedades de segundo orden de las(X : t ∈ Z) cuales son dadas por la ACVFγ. nℓ t ^ VamosX = (X , X , … , X ) . Entonces,X = ϕ X . Para evaluar la calidad de la predicción, se calcula el error cuadrático medio con la ayuda de la Ecuación\ ref {3.4.3} de la siguiente manera: T n n n−1 1 n+1 T n n 3.4.1 https://espanol.libretexts.org/@go/page/148658 2 ^ Pn+1 = E [(Xn+1 − X n+1 ) ] 2 T = E [(Xn+1 − ϕn Xn ) ] −1 T = E [(Xn+1 − γn Γn = E [X 2 −1 T n+1 − 2 γn Γn −1 T = γ(0) − 2 γn Γn T −1 = γ(0) − γn Γn 2 Xn ) ] T −1 Xn Xn+1 + γn Γn T −1 −1 γn + γn Γn Γn Γn T −1 Xn Xn Γn γn ] γn γn . (3.4.4) Como ejemplo inicial, explicamos el procedimiento de predicción para un proceso autorregresivo de orden 2. Ejemplo3.4.1: Prediction of an AR(2) Process Sea el proceso causal AR (2)X = ϕ X + ϕ X + Z . Supongamos que soloX se dispone de una observación de para pronosticar el valor deX . En este caso simplificado, la ecuación de predicción única\ ref {3.4.2} es (Xt : t ∈ Z) t 1 t−1 2 t−2 t 1 2 ϕ11 γ(0) = γ(1), para queϕ 11 = ρ(1) ^ yX 1+1 = ρ(1)X1 . En el siguiente paso, supongamos que los valores observados deX yX están a la mano para pronosticar el valor deX . Entonces, de manera similar se obtiene de (3.4.2.) que el predictor puede calcularse a partir de 1 ^ X 2+1 T = ϕ21 X2 + ϕ22 X1 = ϕ 2 γ(0) 2 −1 X2 = (Γ 2 T γ2 ) X2 −1 γ(1) = (γ(1), γ(2))( ) γ(1) 3 ( γ(0) X2 ). X1 No obstante, aplicando los argumentos que condujeron a la definición del PAC en la Sección 3.3.3., se concluye que E [{ X3 − (ϕ1 X2 + ϕ2 X1 )} X1 ] = E[ Z3 X1 ] = 0, E [{ X3 − (ϕ1 X2 + ϕ2 X1 )} X2 ] = E[ Z3 X2 ] = 0. ^ ^ De ahí,X = ϕ X +ϕ X e inclusoX = ϕ X +ϕ X para todosn ≥ 2 , explotar la particular estructura autorregresiva. Dado que se pueden probar resultados similares para los procesos de AR causales generales (p), los predictores de un solo paso tienen la forma 2+1 1 2 2 1 n+1 1 n 2 n−1 ^ X n+1 = ϕ1 Xn + … + ϕp Xn−p+1 siempre que el número de variables observadas n sea al menos p. El principal inconveniente de este enfoque es inmediatamente evidente a partir del ejemplo anterior: Para tamaños de muestra mayores n, el procedimiento de predicción requiere el cálculo de la matriz inversaΓ que es computacionalmente costosa. En el resto de esta sección, se introducen dos métodos de predicción recursiva que evitan la inversión por completo. Se les conoce como algoritmo Durbin-Levinson y algoritmo de innovaciones. Finalmente, se introducen predictores basados en el pasado infinito que a menudo son fácilmente aplicables para la clase de procesos ARMA causales e invertibles. −1 n Método 1: El algoritmo de Durbin-Levinson Si(X : t ∈ Z) es un proceso débilmente estacionario medio cero con ACVFγ tal queγ(0) > 0 yγ(h) → 0 comoh → ∞ , entonces los coeficientesϕ en (3.4.2.) y los errores cuadrados mediosP en (3.4.4.) satisfacen las recursiones t nℓ n γ(1) ϕ11 = , P0 = γ(0), γ(0) y, paran ≥ 1 , 3.4.2 https://espanol.libretexts.org/@go/page/148658 n−1 1 ϕnn = ⎛ ϕn1 (γ(n) − ∑ ϕn−1,ℓ γ(n − ℓ)) , Pn−1 ⎞ ℓ=1 ⎛ ϕn−1,1 ⎞ ϕn−1,n−1 ⎛ ⎞ ⎜ ⎜ ⋮ ⎟ =⎜ ⎟ ⎜ ⋮ ⎟−ϕ ⎜ nn ⎜ ⋮ ⎟ ⎟ ⎟ ⎝ ⎠ ⎠ ⎠ ϕn,n−1 ⎝ ϕn−1,n−1 ⎝ ϕn−1,1 y 2 Pn = Pn−1 (1 − ϕnn ). Se puede demostrar que bajo los supuestos hechos sobre el proceso(X : t ∈ Z) , sostiene efectivamente queϕ es igual al valor del PACF de(X : t ∈ Z) al lag n. El resultado se formula como Corolario 5.2.1 en Brockwell y Davis (1991). Este hecho se destaca en un ejemplo. t nn t El PACF de un proceso AR (2) Dejar(X : t ∈ Z) ser un proceso de AR causal (2). Entonces,ρ(1) = ϕ calcular recursivamente a partir de 1 /(1 t y todos los demás valores se pueden − ϕ2 ) ρ(h) − ϕ1 ρ(h − 1) − ϕ2 ρ(h − 2) = 0, h ≥ 2. Obsérvese que la ACVFγ satisface una ecuación de diferencia con los mismos coeficientes, lo cual se ve multiplicando por esta última ecuaciónγ(0). La aplicación del algoritmo Durbin-Levinson da primero que γ(1) ϕ11 = = ρ(1) 2 and P1 = P0 (1 − ϕ 11 γ(0) 2 ) = γ(0)(1 − ρ(1 ) ). Ignorando la recursividad para los términos de errorP en lo siguiente, los siguientesϕ n nℓ 1 ϕ22 = P1 2 1 [γ(2) − ϕ11 γ(1)] = −1 ϕ (1 − ϕ2 ) 1 = valores se obtienen a 2 [ρ(2) − ρ(1 ) ] 2 1 − ρ(1) −1 + ϕ2 − [ ϕ1 (1 − ϕ2 ) 2 ] 1 − [ ϕ1 (1 − ϕ2 )−1 ]2 = ϕ2 , ϕ21 = ϕ11 − ϕ22 ϕ11 = ρ(1)(1 − ϕ2 ) = ϕ1 , 1 ϕ33 = P2 1 [γ(3) − ϕ21 γ(2) − ϕ22 γ(1)] = P2 [γ(3) − ϕ1 γ(2) − ϕ2 γ(2)] = 0. Ahora, refiriéndose a los comentarios posteriores al Ejemplo 3.3.7., no son necesarios más cálculos para determinar el PACF porqueϕ = 0 para todosn > p = 2 . nn Método 2: El algoritmo de innovaciones En contraste con el algoritmo Durbin-Levinson, este método también se puede aplicar a procesos no estacionarios. Por lo tanto, en general, debe preferirse sobre el Método 1. El algoritmo de innovaciones obtiene su nombre por el hecho de que se utiliza directamente la forma de las ecuaciones de predicción en el Teorema 3.4.1. que se establecen en términos de las innovaciones ^ (X −X ) . Observe que la secuencia consiste en variables aleatorias no correlacionadas. t+1 t+1 t∈Z ^ Los predictores de un solo paso seX n+1 pueden calcular a partir de las recursiones ^ X 0+1 = 0, P1 = γ(0) y, paran ≥ 1 , 3.4.3 https://espanol.libretexts.org/@go/page/148658 n ^ ^ X n+1 = ∑ θnℓ (Xn+1−ℓ − X n+1−ℓ ) ℓ=1 n−1 2 Pn+1 = γ(0) − ∑ θ n,n−ℓ Pℓ+1 , ℓ=0 donde los coeficientes se obtienen de las ecuaciones ℓ−1 1 θn,n−ℓ = Pℓ+1 [γ(n − ℓ) − ∑ θℓ,ℓ−i θn,n−i Pi+1 ] , ℓ = 0, 1, … , n − 1. i=0 Como ejemplo mostramos cómo se aplica el algoritmo de innovaciones a una serie temporal de promedio móvil de orden 1. Ejemplo3.4.3: Prediction of an MA(1) Process Dejar(X t: t ∈ Z) ser el proceso MA (1)X t . Tenga en cuenta que = Zt + θZt−1 2 2 γ(0) = (1 + θ )σ , γ(1) = θσ 2 and γ(h) = 0 (h ≥ 2). Usando el algoritmo de innovaciones, se puede calcular el predictor de un solo paso a partir de los valores \ begin {align*} \ theta_ {n1} =\ frac {\ theta\ sigma^2} {p_n},\ qquad \ theta_ {n\ ell} =0\ quad (\ ell=2,\ ldots, n-1), \ end {align*} y 2 2 P1 = (1 + θ )σ , 2 Pn+1 = (1 + θ − θθn1 )σ 2 como ^ X n+1 = θσ 2 Pn ^ (Xn − X n ). Método 3: Predicción basada en el pasado infinito Supongamos que se analiza un proceso ARMA causal e invertible (p, q). Supongamos además que (de manera poco realista) se puede almacenar el historial completo del proceso y que así se(X : t ≤ n) puede acceder a todas las variables pasadas. Definir entonces t ~ X n+m = E[ Xn+m | Xn , Xn−1 , …], como el predictor m -step ahead basado en el pasado infinito. Se puede demostrar que, para tamaños de muestra grandes n, la ~ ^ diferencia entre los valores deX yX desaparece a una tasa exponencial. Aprovechando la causalidad e invertibilidad ~ del proceso ARMA, se puede transformar el predictorX para que esté en una forma computacionalmente más factible. Para ello, tenga en cuenta que por causalidad n+m n+m n+m ~ X n+m = E[ Xn+m | Xn , Xn−1 , …] ∞ ∣ = E [ ∑ ψj Zn+m−j Xn , Xn−1 , …] ∣ j=0 ∞ = ∑ ψj Zn+m−j (3.4.5) j=m 3.4.4 https://espanol.libretexts.org/@go/page/148658 porqueE[Z |X , X , …] es igual a cero si t>n y es igual a Z_t ift ≤ n (¡debido a la invertibilidad!). La representación en ~ (3.4.5.) se puede utilizar para calcular el error de predicción cuadrático medioP . De la causalidad se desprende que t n n−1 n+m 2 m−1 m−1 ⎡ ⎤ ~ ~ 2 2 2 P n+m = E[(Xn+m − X n+m ) ] = E ( ∑ ψj Zn+m−j ) =σ ∑ψ . ⎣ (3.4.6) j ⎦ j=0 j=0 ~ Por otro lado, la Ecuación\ ref {3.4.5} no permite calcular directamente los pronósticos porqueX variables de ruidoZ . En su lugar se utilizará la invertibilidad. Observe primero que n+m se da en términos de las n+m−j ~ X n+m−j , j < m. Xn+m−j , j ≥ m. E[ Xn+m−j | Xn , Xn−1 , …] = { Por invertibilidad (la parte ``0= "se desprende de nuevo de la causalidad), 0 = E[ Zn+m | Xn , Xn−1 , …] (3.4.7) ∞ ∣ = E [ ∑ πj Xn+m−j Xn , Xn−1 , …] ∣ (3.4.8) j=0 ∞ = ∑ πj E[ Xn+m−j | Xn , Xn−1 , …]. (3.4.9) j=0 Combinando los dos estados anteriores, rinde m−1 ∞ j=1 j=m ~ ~ X n+m = − ∑ πj X n+m−j − ∑ πj Xn+m−j . (3.4.10) Las ecuaciones ahora se pueden resolver recursivamente param = 1, 2, … Note, sin embargo, que para cualquieram ≥ 1 la ~ secuencia(X −X : t ∈ Z) no consiste en variables aleatorias no correlacionadas. De hecho, sih ∈ N , sostiene que n+m+t n+m+t 0 ~ ~ E[(Xn+m − X n+m )(Xn+m+h − X n+m+h )] (3.4.11) m−1 m+h−1 = E [ ∑ ψj Zn+m−j j=0 ∑ ψi Zn+m+h−i ] (3.4.12) i=0 m−1 =σ 2 ∑ ψj ψj+h . (3.4.13) j=0 Por último, para fines prácticos es necesario truncar el pronóstico dado. Esto se logra estableciendo ∞ ∑ πj Xn+m−j = 0. j=n+m Las ecuaciones resultantes (ver Ecuación\ ref {3.4.7} para comparación) producen recursivamente los predictores de m -step truncadosX : ∗ n+m m−1 ∗ n+m−1 Xn+m = − ∑ πj X ∗ n+m−j − ∑ πj Xn+m−j . (3.4.14) j=m j=1 Contributores Template:ContribAue Template:ContribNakano This page titled 3.4: Pronósticos is shared under a not declared license and was authored, remixed, and/or curated by Alexander Aue. 3.4.5 https://espanol.libretexts.org/@go/page/148658 3.4: Forecasting by Alexander Aue has no license indicated. 3.4.6 https://espanol.libretexts.org/@go/page/148658 3.5: Estimación de parámetros Dejar(X t: t ∈ Z) ser un ARMA causal e invertible (p, q) proceso con órdenes conocidas p y q, posiblemente con mediaμ . Esta sección se refiere a los procedimientos de estimación para el vector de parámetro desconocido 2 T β = (μ, ϕ1 , … , ϕp , θ1 , … , θq , σ ) . (3.5.1) Para simplificar el procedimiento de estimación, se supone que los datos ya han sido ajustados restando la media y, por lo tanto, la discusión se restringe a los modelos ARMA de media cero. A continuación se introducen tres métodos de estimación. El método de los momentos funciona mejor en el caso de los procesos de RA puros, mientras que no conduce a procedimientos de estimación óptimos para los procesos generales de ARMA. Para estos últimos, se proporcionan estimadores más eficientes por los métodos de máxima verosimilitud y mínimos cuadrados que se discutirán posteriormente. Método 1 (Método de Momentos) Dado que este método solo es eficiente en su caso, la presentación aquí se restringe a los procesos AR (p) Xt = ϕ1 Xt−1 + … + ϕp Xt−p + Zt , t ∈ Z, donde(Z : t ∈ Z) ∼ WN(0, σ ) . βEn consecuencia, el vector de parámetros se reduce a(ϕ, σ puede estimar usando las ecuaciones de Yule-Walker 2 2 t Γp ϕ = γp and σ 2 T = γ(0) − ϕ T ) conϕ = (ϕ 1, T … , ϕp ) y se γp , dóndeΓ = (γ(k − j)) yγ = (γ(1), … , γ(p)) . Observe que las ecuaciones se obtienen por los mismos argumentos aplicados para derivar el algoritmo Durbin-Levinson en la sección anterior. El método de los momentos sugiere reemplazar cada cantidad en las ecuaciones de Yule-Walker por sus contrapartes estimadas, lo que arroja los estimadores de Yule-Walker T p k,j=1,…,p p −1 ^ ϕ̂ = Γ p σ ^ ^ En ella,R p −1 ^(0 ) =γ ^ Γp yρ^ −1 p ^(0 ) =γ ^ γ p 2 =γ ^(0) − γ ^ T p −1 γ ^ p ^ =R p ρ ^ −1 ^ Γ p γ ^ p (3.5.2) p =γ ^(0) [1 − ρ ^ T p −1 ^ R p ρ ^ ]. (3.5.3) p con definido como en (1.2.1). Utilizandoγ^(h) como estimador para el ACVF en lagh ,n se obtiene una dependencia del tamaño de la muestra de manera implícita. Esta dependencia se suprime en la notación aquí utilizada. El siguiente teorema contiene el comportamiento límite de los estimadores de Yule-Walker ya que n tiende al infinito. ^(h) γ Teorema 3.5.1. Si(X t: t ∈ Z) es un proceso causal AR (p), entonces D − 2 −1 √n (ϕ̂ − ϕ) ⟶ N (0, σ Γp ) and σ ^ 2 P ⟶ σ 2 asn → ∞ , donde→ indica convergencia en probabilidad. P Una prueba de este resultado se da en la Sección 8.10 de Brockwell y Davis (1991). Dado que las ecuaciones (3.5.2) y (3.5.3) tienen la misma estructura que las ecuaciones correspondientes (3.4.3) y (3.4.4), el algoritmo Durbin-Levinson puede ser utilizado ˆ ˆ ˆ para resolver recursivamente para los estimadoresϕ = (ϕ ,…,ϕ ) . Además, dado queϕ es igual al valor del PACF de (X : t ∈ Z) al lag h, el estimadorϕ̂ puede ser utilizado como su proxy. Ya que ya se sabe que, en el caso de los procesos AR (p), ϕ = 0 si h>p, Teorema (3.5.1) implica inmediatamente el siguiente corolario. h t h1 hh hh hh hh Corolario 3.5.1 Si(X t: t ∈ Z) es un proceso AR causal (p), entonces D −ˆ √n ϕ hh ⟶ Z (n → ∞) para todos h>p, donde Z representa una variable aleatoria normal estándar. Ejemplo 3.5.1. (Estimaciones de Yule-Walker para procesos AR (2)). Supongamos que seX = 1.5X − .75X + Z han observadon = 144 valores del proceso autorregresivo, donde(Z : t ∈ Z) se encuentra una secuencia de variables normales t t−1 t−2 t t 3.5.1 https://espanol.libretexts.org/@go/page/148660 estándar independientes. Supongamos además esoγ^(0) = 8.434,ρ^(1) = 0.834 yρ^(2) = 0.476 han sido calculados a partir de los datos. Los estimadores de Yule-Walker para los parámetros son dados por −1 ˆ ϕ1 ˆ ϕ =( 1.000 0.834 ) = ( ϕ̂ 0.834 ) 0.834 ( 1.000 1.439 ) =( 0.476 ) −0.725 2 y σ ^ 2 1.439 = 8.434 [1 − (0.834, 0.476) ( )] = 1.215. −0.725 Para construir intervalos de confianza asintóticos usando el Teorema 3.5.1, esσ limitante desconocida. Esto se puede hacer usando el estimador −1 −1 2 ^ σ ^ Γ 1 p = n 1.000 1.215 144 8.434 ) 0.834 −1 Γp 2 0.834 ( 2 necesario estimar la matriz de covarianza 0.057 −0.003 −0.003 0.057 =( 1.000 ). 2 Luego, el intervalo de confianza de1 − α nivel para los parámetrosϕ yϕ se computan como 1 1.439 ± 0.057 z1−α/2 respectivamente, dondez 1−α/2 2 and − 0.725 ± 0.057 z1−α/2 , está el cuantil normal correspondiente. Ejemplo 3.5.2 (Serie de Reclutamiento). Reconsideremos la serie de reclutamiento del Ejemplo 3.3.5. Allí, primero se estableció un modelo AR (2) como apropiado para los datos y luego se estimaron los parámetros del modelo utilizando un enfoque de mínimos cuadrados ordinarios. Aquí, los coeficientes se estimarán en cambio con el procedimiento de Yule-Walker. El comando R es > rec.yw = ar.yw (rec, pedido=2)} ^ = 62.26, mientras que se accede a las estimaciones de La estimación media se puede obtener de rec.yw$x.mean asμ parámetros autorregresivos y sus errores estándar con los comandos rec.yw$ar y sqrt (rec.yw$asy.var.coef as ^ ^ ϕ = 1.3316(.0422) yϕ = −.4445(.0422). Finalmente, la estimación de varianza se obtiene de rec.yw$var.pred as ^ = 94.7991. Todos los valores son cercanos a sus contrapartes en el Ejemplo 3.3.5. σ 1 2 2 Ejemplo 3.5.3. Considere el proceso MA invertible (1)X tiene una representación autorregresiva infinita t = Zt + θZt−1 , donde|θ| < 1 . Usando la invertibilidad, cada unoX t ∞ j Xt = ∑(−θ) Xt−j + Zt j=1 que es no lineal en el parámetro desconocidoθ a estimar. El método de los momentos está aquí basado en resolver ^ θ γ ^(1) ^(1) = ρ = ^(0) γ ^ 1+θ 2 . paraθ^ . La ecuación cuadrática anterior tiene las dos soluciones ^ θ = −−−−−−− − ^(1 )2 1 ± √ 1 − 4ρ , 2ρ ^(1) de los cuales elegimos el invertible. Obsérvese además, que no necesariamente|ρ^(1)| es menor o igual a 1/2 que se requiere para la existencia de soluciones reales. (El valor teórico|ρ(1)|, sin embargo, siempre es menor a 1/2 para cualquier proceso MA (1), como muestra un cálculo fácil). De ahíθ que no siempre se pueda estimar a partir de muestras de datos dadas. Método 2 (Estimación de máxima verosimilitud) El algoritmo de innovaciones de la sección anterior aplicado a un ARMA causal (p, q) proceso(X t: t ∈ Z) da 3.5.2 https://espanol.libretexts.org/@go/page/148660 i ^ ^ X i+1 = ∑ θij (Xi+1−j − X i+1−j ), 1 ≤ i < max{p, q}, j=1 p q ^ ^ X i+1 = ∑ ϕj Xi+1−j + ∑ θij (Xi+1−j − X i+1−j ), j=1 i ≥ max{p, q}, j=1 con error de predicción 2 Pi+1 = σ Ri+1 . En la última expresión, seσ ha factorizado debido a razones que se harán evidentes a partir de la forma de la función de ^ verosimilitud que se discutirá a continuación. Recordemos que la secuencia(X − X : i ∈ Z) consiste en variables aleatorias no correlacionadas si se conocen los parámetros. Asumiendo normalidad por los errores, además obtenemos incluso independencia. Esto se puede explotar para definir el procedimiento de estimación de máxima verosimilitud (MLE) gaussiana. A lo largo de todo, se supone que(X : t ∈ Z) tiene cero media (μ = 0 ). Los parámetros de interés se recogen en los vectoresβ = (ϕ, θ, σ ) y β = (ϕ, θ) , dóndeϕ = (ϕ , … , ϕ ) yθ = (θ , … , θ ) . Supongamos finalmente que hemos observado las variables X , … , X . Entonces, la función de verosimilitud gaussiana para las innovaciones es 2 i+1 i+1 2 T t ′ T T 1 1 T p 1 q n n 1 1/2 L(β) = (∏ R (2πσ 2 )n/2 i 2σ i=1 2 ^ (Xj − X j ) n 1 ) exp(− 2 ∑ j=1 ). (3.5.4) Rj Tomando la derivada parcial deln L(β) con respecto a la variableσ revela que el MLE paraσ puede ser 2 2 calculado a partir de σ ^ 2 ^ ^ S(ϕ , θ ) = n , ^ ^ S(ϕ , θ ) = ∑ n 2 ^ (Xj − X j ) . Rj j=1 En ella,ϕ^ yθ^ denotan los MLE deϕ yθ obtenidos de minimizar la probabilidad de perfil o probabilidad reducida S(ϕ, θ) ℓ(ϕ, θ) = ln( 1 )+ n n n ∑ ln(Rj ). j=1 Observe que la probabilidad del perfil seℓ(ϕ, θ) puede calcular utilizando el algoritmo de innovaciones. La velocidad de estos cálculos depende en gran medida de la calidad de las estimaciones iniciales. Estos suelen ser proporcionados por el procedimiento no óptimo de Yule-Walker. Para los métodos numéricos, como el Newton-Raphson y los algoritmos de puntuación, ver Sección 3.6 en Shumway y Stoffer (2006). La distribución límite del procedimiento MLE se da como el siguiente teorema. Su prueba se encuentra en la Sección 8.8 de Brockwell y Davis (1991). Teorema 3.5.2. Dejar(X t: t ∈ Z) (Zt : t ∈ Z)satisf yingE[ Zt ] = 0 E[ Z 2 t ] =σ 2 ser un proceso causal e invertible ARMA (p, q) definido con una secuencia iid y ′ . Considerar el MLEβ^ deβ que se inicializa con los estimadores de momento de ′ Método 1. Entonces, ′ D − ^ ′ 2 −1 √n (β − β ) ⟶ N (0, σ Γp,q ) El resultado es óptimo. La matriz de covarianzaΓ diversos procesos autorregresivos. p,q (n → ∞). está en forma de bloque y puede evaluarse en términos de covarianzas de Ejemplo 3.5.4 (Serie de Reclutamiento). El procedimiento de estimación MLE para la serie de reclutamiento se puede aplicar en R de la siguiente manera: >rec.mle = ar.mle (rec, pedido=2) La estimación media se puede obtener de rec.mle$x.mean asμ ^ = 62.26, mientras que se accede a las estimaciones de parámetros autorregresivos y sus errores estándar con los comandos rec.mle$ar y sqrt (rec.mle$asy.var.coef) as 3.5.3 https://espanol.libretexts.org/@go/page/148660 yϕ^ = −.4099(.0410). Finalmente, la estimación de varianza se obtiene de rec.yw$var.pred as = 89.3360. Todos los valores están muy cerca de sus contrapartes en el Ejemplo 3.3.5. ^ ϕ 1 = 1.3513(.0410) σ ^ 2 2 Método 3 (Estimación de mínimos cuadrados) Una alternativa al método de los momentos y al MLE es proporcionada por la estimación de mínimos cuadrados (LSE). Para procesos causales e invertibles ARMA (p, q), se basa en minimizar la suma ponderada de cuadrados n S(ϕ, θ) = ∑j=1 ~ 2 ^ ( Xj −X j ) (3.5.5) Rj ~ con respecto aϕ yθ , respectivamente. Suponiendo queϕ yθ denotan estos LSE, el LSE paraσ se calcula como ~2 σ = 2 ~ ~ S(ϕ , θ ) . n−p −q El procedimiento de mínimos cuadrados tiene los mismos asintóticos que el MLE. ′ ~′ Teorema 3.5.3. El resultado del Teorema 3.5.2. sostiene también siβ^ se sustituye porβ . Ejemplo 3.5.5 (Serie de Reclutamiento). La estimación de mínimos cuadrados ya se ha discutido en el Ejemplo 3.3.5, incluyendo los comandos R. Contribuidores Template:ContribAue Template:ContribNakano This page titled 3.5: Estimación de parámetros is shared under a not declared license and was authored, remixed, and/or curated by Alexander Aue. 3.5: Parameter Estimation by Alexander Aue has no license indicated. 3.5.4 https://espanol.libretexts.org/@go/page/148660 3.6: Selección de modelos En esta sección, se proporcionará una guía aproximada para realizar el análisis de datos. Consta de varias partes, la mayoría de las cuales han sido discutidas previamente. El enfoque principal está en la selecciónp yq en el probable caso de que estos parámetros sean desconocidos. Paso 1. Trazar los datos y verificar si la variabilidad permanece o no razonablemente estable durante todo el período de observación. Si ese no es el caso, utilice transformaciones preliminares para estabilizar la varianza. Una clase popular viene dada por las transformaciones de Box-Cox (Box y Cox, 1964) \ [f_\ lambda (u_t) =\ left\ {\ begin {array} {l@ {\ qquad} l} \ lambda^ {-1} (u_t^\ lambda-1), & u_t\ geq 0,\;\ lambda>0.\\ [.2cm] \ ln u__T y U _t>0,\;\ lambda=0. \ end {array}\ right. \ nonumber\] En la prácticaf o a menudof son opciones adecuadas. (Recordemos, por ejemplo, los datos de ventas de vino australiano del Ejemplo 1.4.1.) 0 1/2 Paso 2. Eliminar, si están presentes, los componentes de tendencia y estacionales de los datos. El Capítulo 1 introdujo una serie de herramientas para hacerlo, basadas en la descomposición clásica de una serie de tiempo Yt = mt + st + Xt en una tendencia, una estacionalidad y un componente residual. Tenga en cuenta que la diferenciación también funciona sin la representación específica en la última pantalla. Si los datos aparecen estacionarios, pase al siguiente paso. De lo contrario aplicar, por ejemplo, otro conjunto de operaciones de diferencia. Paso 3. Supongamos ahora que los Pasos 1 y 2 nos han proporcionado observaciones que están bien descritas por una secuencia estacionaria(X : t ∈ Z) . El objetivo es entonces encontrar el ARMA (p, q)modelo más adecuado para describir el proceso. En el improbable caso de quep yq pueda suponerse conocido, utilizar directamente los procedimientos de estimación de la Sección 3.5. De lo contrario, elíjalos según uno de los siguientes criterios. t a) El criterio estándar que normalmente se implementa en paquetes de software es una modificación del criterio de información de Akaike, véase Akaike (1969), que fue dado por Hurvich y Tsai (1989). En este trabajo se sugiere elegir los parámetros del modelo ARMA para minimizar la función objetiva \ begin {ecuación}\ label {eq:3.7.1} {\ rm AIC} _C (\ phi,\ theta, p, q) =-2\ ln L (\ phi,\ theta, S (\ phi,\ theta) /n) +\ frac {2 (p+q+1) n} {n-p-q-2}. \ tag {3.6.1} \ fin {ecuación} Aquí,L(ϕ, θ, σ ) denota la verosimilitud gaussiana definida en (3.5.4) yS(ϕ, θ) es la suma ponderada de cuadrados en (3.5.5). Se puede ver a partir de la definición que elAIC no intenta minimizar directamente la función de verosimilitud logarítmica. La introducción del término de penalización en el lado derecho de (3.6.1) reduce el riesgo de sobreajuste. 2 C b) Para procesos autorregresivos puros, Akaike (1969) introdujo un criterio que se basa en una minimización del error de predicción final. Aquí, el ordenp se elige como el minimizador de la función objetivo FPE = σ ^ 2 n+p , n−p ^ denota el MLE de la varianza de ruido desconocidaσ . Para más información sobre este tema y otros procedimientos que dondeσ ayudan a encajar un modelo, nos referimos aquí a la Sección 9.3 de Brockwell y Davis (1991). 2 2 Paso 4. El último paso en el análisis se refiere a la comprobación diagnóstica mediante la aplicación de las pruebas de bondad de ajuste de la Sección 1.5. 3.6.1 https://espanol.libretexts.org/@go/page/148652 This page titled 3.6: Selección de modelos is shared under a not declared license and was authored, remixed, and/or curated by Alexander Aue. 3.6: Model Selection by Alexander Aue has no license indicated. 3.6.2 https://espanol.libretexts.org/@go/page/148652 3.7: Resumen Se ha introducido la clase de procesos de promedio móvil autorregresivos para modelar procesos estocásticos estacionarios. Se han examinado propiedades teóricas como causalidad e invertibilidad, las cuales dependen de los ceros de los polinomios autorregresivos y promedio móvil, respectivamente. Se ha demostrado cómo la representación causal de un proceso ARMA puede ser utilizada para calcular su función de covarianza que contiene toda la información sobre la estructura de dependencia. Suponiendo valores de parámetros conocidos, se han discutido varios procedimientos de pronóstico. El algoritmo Durbin- Levinson funciona bien para procesos de RA puros, mientras que el algoritmo de innovaciones es particularmente útil para procesos MA puros. Las predicciones usando un pasado infinito funcionan bien para procesos ARMA causales e invertibles. Para fines prácticos, sin embargo, una versión truncada es más relevante. Dado que los valores exactos de los parámetros son en general desconocidos, se introdujeron varios procedimientos de estimación. El procedimiento de Yule-Walker solo es óptimo en el caso AR pero proporciona estimaciones iniciales útiles que pueden ser utilizadas para la derivación numérica de estimaciones de máxima verosimilitud o mínimos cuadrados. Por último, se ha proporcionado un marco que puede ser potencialmente útil a la hora de enfrentar el problema de analizar un conjunto de datos en la práctica. This page titled 3.7: Resumen is shared under a not declared license and was authored, remixed, and/or curated by Alexander Aue. 3.7: Summary by Alexander Aue has no license indicated. 3.7.1 https://espanol.libretexts.org/@go/page/148655 CHAPTER OVERVIEW 4: Análisis espectral This page is a draft and is under active development. En este capítulo se discute un método general para tratar los componentes periódicos de una serie temporal. 4.1: Introducción al Análisis Espectral 4.2: La densidad espectral y el periodograma 4.3: Propiedades de muestra grande 4.4: Filtrado Lineal 4.5: Resumen This page titled 4: Análisis espectral is shared under a not declared license and was authored, remixed, and/or curated by Alexander Aue. 1 4.1: Introducción al Análisis Espectral Muchas de las series temporales discutidas en los capítulos anteriores mostraron fuertes componentes periódicos: Los números de manchas solares del Ejemplo 1.1.1, el número de lince atrapado del Ejemplo 1.1.2 y los datos de ventas de vino australiano del Ejemplo 1.4.1. A menudo, hay una opción obvia para el periodod de esta parte cíclica como un patrón anual en las ventas de vino. Dadod , entonces se podría proceder eliminando los efectos estacionales como en la Sección 1.4. En los dos primeros ejemplos es, sin embargo, algo más difícil determinar el valor preciso ded . En este capítulo, se discute un método general para tratar los componentes periódicos de una serie temporal. Para complicar las cosas, suele darse el caso de que varios patrones cíclicos se presentan simultáneamente en una serie de tiempo. Como ejemplo, se recuerdan los datos del índice de oscilación sur (SOI) que ~ exhiben tanto un patrón anual como el denominado patrón El Nin o. Las funciones seno y coseno son los prototipos de funciones periódicas. Se van a utilizar aquí para describir el comportamiento cíclico en series de tiempo. Antes de hacerlo, un ciclo se define como un período completo de una función sinusoidal o coseno en un intervalo de tiempo de duración2π. Definir también la frecuencia 1 ω = d como el número de ciclos por observación, donded denota el periodo de una serie temporal (es decir, el número de observaciones en un ciclo). Para observaciones mensuales con periodo anual,d = 12 y por endeω = 1/12 = 0.083 ciclos por observación. Ahora reconsidere el proceso Xt = R sin(2πωt + φ) como se introdujo en el Ejemplo 1.2.2, utilizando la convenciónλ = 2πω. Para incluir aleatoriedad en este proceso, elija la amplitudR y la faseφ para que sean variables aleatorias. Una representación equivalente de este proceso viene dada por Xt = A cos(2πωt) + B sin(2πωt), conA = R sin(φ) yB = R cos(φ) generalmente siendo variables normales estándar independientes. Entonces,R = A + B es una variable aleatoriaχ -cuadrada con 2 grados de libertad yφ = tan (B/A) se distribuye uniformemente sobre(−π, π]. Además,R yφ son independientes. Elegir ahora el valor deω una periodicidad particular se puede describir. Para dar cabida a más de una, parece natural considerar mezclas de estas series periódicas con múltiples frecuencias y amplitudes: 2 2 2 −1 m Xt = ∑ [ Aj cos(2π ωj t) + Bj sin(2π ωj t)], t ∈ Z, j=1 dondeA , … , A yB , … , B son variables aleatorias independientes con media cero y varianzasσ , … , σ , yω frecuencias distintas. Se puede demostrar que(X : t ∈ Z) es un proceso débilmente estacionario con lag- h ACVF 1 m 1 2 m 2 m 1 1, … , ωm son t m γ(h) = ∑ σ 2 j cos(2π ωj h), h ∈ Z. j=1 Este último resultado arroja en particular esoγ(0) = σ varianzas de componentes. 2 1 Ejemplo 4.1.1. Dejarm = 2 y elegirA 1 Xt = X (1) t +X , = B1 = 1 A2 = B2 = 4 (2) t 2 + … + σm . La varianza deX es consecuentemente la suma de las t ser constante así comoω 1 = 1/12 yω 2 = 1/6 . Esto significa que = [ cos(2πt/12) + sin(2πt/12)] + [4 cos(2πt/6) + 4 sin(2πt/6)] es la suma de dos componentes periódicos de los cuales uno exhibe un ciclo anual y el otro un ciclo de seis meses. Para todos los procesos involucrados, las realizaciones den = 48 observaciones (4 años de datos) se muestran en la Figura 4.1. También se ~ muestra una cuarta gráfica de serie de tiempo que contiene el ruido independiente normalX distorsionado por estándar,X . El código R correspondiente es: t t >t= 1:48 >x1=cos (2*pi*t/12) +sin (2*pi*t/12) >x2 = 4*cos (2*pi*t/6) +4*sin (2*pi*t/6) 4.1.1 https://espanol.libretexts.org/@go/page/148659 >x=x1+x2 >tildex=x+rnorm (48) (1) Tenga en cuenta que la amplitud cuadrada deX es1 + 1 = 2 . Los valores máximo y mínimo deX − − igual manera, obtenemos±√32 para el segundo componente. 2 2 t (1) t – son por lo tanto±√2. De Para un estadístico ahora es importante desarrollar herramientas para recuperar las periodicidades a partir de los datos. La rama de la estadística que se ocupa de este problema se denomina análisis espectral. El método estándar en esta área se basa en el periodograma que se introduce ahora. Supongamos por el momento que se conoce el parámetro de frecuenciaω = 1/12 en el Ejemplo 4.1.1. Para obtener estimaciones deA yB , se podría intentar ejecutar una regresión usando las variables explicativas Y = cos(2πt/12) oY = sin(2πt/12) para calcular los estimadores de mínimos cuadrados 1 1 t,1 1 t,2 \ begin {alinear*} \ hat A_1=&\ dfrac {\ sum_ {t=1} ^nx_ty_ {t,1}} {\ sum_ {t=1} ^ny_ {t,1} ^2} =\ dfrac 2n\ sum_ {t=1} ^nx_t\ cos (2\ pi t/12),\\ [.2cm] \ sombrero B_1=&\ dfrac {\ sum_ {t=1} ^nx_ty_ {t,2}} {\ suma_ {t=1} ^ny_ {t,2} ^2} =\ dfrac 2n\ suma_ {t=1} ^nx_t\ sin (2\ pi t/12). \ end {alinear*} ~ Figura 4.1: Gráficas de series de tiempo de (X t (1)), (X t (2)), (X t) yX 4.1.2 t https://espanol.libretexts.org/@go/page/148659 Dado que, en general, las frecuencias involucradas no serán conocidas por el estadístico previo al análisis de datos, lo anterior sugiere escoger una serie de potenciales\(\omega's, say j/n for j = 1, … , n/2 y ejecutar una regresión larga de la forma n/2 Xt = ∑ [ Aj cos(2πjt/n) + Bj sin(2πjt/n)]. (4.1.1) j=0 ^ ^ Esto lleva a estimaciones de mínimos cuadradosA yB de las cuales se deben seleccionar las “significativas”. Tenga en cuenta que la regresión en 4.1.1 es perfecta porque ¡hay tantas incógnitas como variables! Tenga en cuenta también que j j 2 2 ^ ^ P (j/n) = Aj + Bj es esencialmente (hasta una normalización) un estimador para la correlación entre las series de tiempoX y la suma correspondiente de las funciones coseno y seno periódicas en frecuenciaj/n. La colección de todosP (j/n) ,j = 1, … , n/2 , se llama el periodograma escalado. Se puede calcular rápidamente a través de un algoritmo conocido como la transformada rápida de Fourier (FFT) que a su vez se basa en la transformada discreta de Fourier (DFT) t 1 d(j/n) = − √n n ∑ Xt exp(−2πijt/n). t=1 Las frecuenciasj/n se denominan frecuencias de Fourier o fundamentales. Desdeexp(−ix) = cos(x) − i sin(x) |z| = zz̄ = (a + ib)(a − ib) = a + b para cualquier número complejoz = a + ib , se deduce que 2 2 y 2 2 I (j/n) = |d(j/n)| 1 = n 2 n 1 ( ∑ Xt cos(2πjt/n)) t=1 + n n 2 ( ∑ Xt sin(2πjt/n)) . t=1 La cantidadI (j/n) es referida como el periodograma. De ello se deduce inmediatamente que el periodograma y el periodograma escalado están relacionados a través de la identidad4I (j/n) = nP (j/n) . Ejemplo 4.1.2. Usando las expresiones y notaciones del Ejemplo 4.1.1, el periodograma y el periodograma escalado se calculan en R de la siguiente manera: >t= 1:48 >l=abs (fft (x) /sqrt (48)) ^ 2 >P=4*I/48 >f= 0:24 /48 >plot (f, P [1:25] , type="l”) >abline (v=1/12) >abline (v=1/6) ~ El correspondiente periodograma (escalado) para se(X ) puede obtener de manera similar. Los periodogramas escalados se ~ muestran en el panel izquierdo y medio de la Figura 4.2. El panel derecho muestra el periodograma escalado de otra versión(X ) en la que el ruido normal estándar ha sido reemplazado por ruido normal con varianza 9. De estas parcelas se puede observar que la periodicidad de seis meses es claramente visible en las gráficas (ver las líneas verticales discontinuas en x=1/6. El ciclo anual menos pronunciado (línea vertical a x=1/12 sigue siendo visible en los dos primeros periodogramas escalados pero se pierde si la varianza de ruido se incrementa como en la gráfica derecha. Tenga en cuenta, sin embargo, que la escala y es diferente para las tres parcelas. t t 4.1.3 https://espanol.libretexts.org/@go/page/148659 ~ (1) Figura 4.2: Los periodogramas escalados de (X ),(X t t ~ (2) ) (X ) , t En la situación ideal de que observemos el componente periódico sin contaminación adicional por ruido, podemos ver además por qué el periodograma puede ser útil para descubrir la descomposición de varianza desde arriba. Hemos mostrado en las líneas (1) (2) t t anteriores al Ejemplo 4.1.1 que las amplitudes cuadradas deX yX son 2 y 32, respectivamente. Estos valores se leen fácilmente del periodograma escalado en el panel izquierdo de la Figura 4.2. La contaminación con ruido altera estos valores. En la siguiente sección, se establece que el enfoque de dominio de tiempo (basado en propiedades de la ACVF, es decir, regresión sobre valores pasados de la serie de tiempo) y el enfoque de dominio de frecuencia (utilizando un enfoque de función periódica a través de frecuencias fundamentales, es decir, regresión en funciones seno y coseno) son equivalente. Se dan algunos detalles sobre la densidad espectral (la contraparte poblacional del periodograma) y sobre las propiedades del propio periodograma. Colaboradores y Atribuciones Template:ContribAue Template:ContribNakano This page titled 4.1: Introducción al Análisis Espectral is shared under a not declared license and was authored, remixed, and/or curated by Alexander Aue. 4.1: Introduction to Spectral Analysis by Alexander Aue has no license indicated. 4.1.4 https://espanol.libretexts.org/@go/page/148659 4.2: La densidad espectral y el periodograma El resultado técnico fundamental que se encuentra en el núcleo del análisis espectral establece que cualquier serie temporal (débilmente) estacionaria puede verse (aproximadamente) como una superposición aleatoria de funciones sinusoidales y cosenales que varían a diversas frecuencias. En otras palabras, la regresión en (4.1.1) es aproximadamente cierta para todas las series de tiempo débilmente estacionarias. En los Capítulos 1-3, se muestra cómo se pueden describir las características de un proceso estocástico estacionario en términos de su ACVFγ(h). El primer objetivo en esta sección es introducir la cantidad correspondiente γ(h) en el dominio de la frecuencia. Definición 4.2.1 (Densidad espectral) Si el ACVFγ(h) de una serie temporal estacionaria (X t) t\ in\ mathbb {Z}\ nonumber\] satisface la condición ∞ ∑ |γ(h)| < ∞, h=−∞ entonces existe una función f definida en (-1/2,1/2] tal que 1/2 γ(h) = ∫ exp(2πiωh)f (ω)dω, h ∈ Z, −1/2 y ∞ f (ω) = ∑ γ(h) exp(−2πiωh), ω ∈ (−1/2, 1/2]. h=−∞ La función f se llama la densidad espectral del procesoX t: t ∈ Z) . La definición 4.2.1 (que contiene también una parte de teorema) establece que cada proceso débilmente estacionario puede describirse de manera equivalente en términos de su ACVF o su densidad espectral. También proporciona las fórmulas para computar una de la otra. En consecuencia, el análisis de series de tiempo se puede realizar ya sea en el dominio del tiempo (usando γ(h)) o en el dominio de la frecuencia (usando f(ω)) . Qué enfoque es el más adecuado no se puede decidir de manera general sino que tiene que ser reevaluado para cada aplicación de interés. A continuación, se recogen varias propiedades básicas de la densidad espectral y se evalúan f para varios ejemplos importantes. Que la densidad espectral es análoga a una función de densidad de probabilidad se establece en la proposición siguiente. Proposición 4.2.1 Si f (ω) es la densidad espectral de un proceso débilmente estacionario(X declaraciones: t: t ∈ Z) , entonces se mantienen las siguientes a. f (ω)≥ 0 para todosω. Esto se desprende de la definición positiva deγ(h) b. f (ω) =f (-ω) y f (ω + 1 ) =f (ω) c. La varianza de (X : t ∈ Z) viene dada por t 1/2 γ(0) = ∫ f (ω)dω. −1/2 La parte (c) de la proposición establece que la varianza de un proceso débilmente estacionario es igual a la densidad espectral integrada en todas las frecuencias. Esta propiedad se vuelve a visitar a continuación, cuando se discutirá un análisis espectral de varianza (ANOVA espectral). A continuación se presentan tres ejemplos. Ejemplo 4.2.1 (Ruido blanco) Si(Z : t ∈ Z) ∼ WN(0, σ ) , entonces su ACVF es distinto de cero solo para h=0, en cuyo casoγ resultado a la ecuación definitoria de la Definición4.2.1 se obtiene que t 2 Z (h) =σ 2 . Al conectar este 2 fZ (ω) = γZ (0) exp(−2πiω0) = σ . 4.2.1 https://espanol.libretexts.org/@go/page/148661 Por lo tanto, la densidad espectral de una secuencia de ruido blanco es constante para todosω ∈ (−1/2, 1/2], lo que significa que cada frecuenciaω contribuye por igual al espectro general. Esto explica el término ruido ``blanco” (en analogía a la luz ``blanca”). Ejemplo 4.2.2 (Media móvil) Dejar(Z t: 2 t ∈ Z) ∼ WN(0, σ ) y definir las series(X t: t ∈ Z) 1 Xt = 2 de tiempo (Zt + Zt−1 ) , t ∈ Z. Se puede demostrar que σ γX (h) = 2 (2 − |h|) , h = 0, ±1 4 Figura 4.3: Gráfica de series temporales de ruido blanco(Z y densidad espectral de(X : t ∈ Z) (derecha). t: t ∈ Z) (izquierda), promedio móvil de dos puntos(X t: t ∈ Z) (medio) t y queγ _X=0 de lo contrario. Por lo tanto, 1 fX (ω) = ∑ γX (h) exp(2πiωh) h=−1 σ 2 = (exp(−2πiω(−1))) + 2 exp(−2πiω0) + exp(−2πiω1) 4 σ 2 = (1 + cos(2πω)) 2 usando esoexp(ix) = cos(x) + i sin(x) ,cos(x) = cos(−x) ysin(x) = − sin(−x) . Se puede observar a partir de las dos gráficas de series de tiempo de la Figura 4.3 que la aplicación de la media móvil de dos puntos a la secuencia de ruido blanco suaviza la trayectoria de la muestra. Esto se debe a una atenuación de las frecuencias más altas que es visible en forma de densidad espectral en el panel derecho de la Figura 4.3. Todas las parcelas se han obtenido utilizando ruido blanco gaussiano conσ = 1 . 2 Ejemplo 4.2.3 (Proceso AR (2)). Let(X t: t ∈ Z) Ser un proceso AR (2) que se puede escribir en la forma Zt = Xt − ϕ1 Xt−1 − ϕ2 Xt−2 , 4.2.2 t ∈ Z https://espanol.libretexts.org/@go/page/148661 En esta representación, se puede observar que el ACVFγ de la secuencia de ruido blanco se puede obtener como Z γZ (h) = E[(Xt − ϕ1 Xt−1 − ϕ2 Xt−2 )(Xt+h − ϕ1 Xt+h−1 − ϕ2 Xt+h−2 )] 2 = (1 + ϕ 1 2 + ϕ )γX (h) + (ϕ1 ϕ2 − ϕ1 )[ γX (h + 1) + γX (h − 1)] 2 −ϕ2 [ γX (h + 2) + γX (h − 2)] Ahora se sabe por la Definición 4.2.1 que 1/2 γX (h) = ∫ exp(2πiωh)fX (ω)dω −1/2 y 1/2 γZ (h) = ∫ exp(2πiωh)fZ (ω)dω, −1/2 Figura 4.4: Gráfica de series de tiempo y densidad espectral del proceso AR (2) en el Ejemplo 4.2.3. dondef X (ω) yf Z (ω) denotan las densidades espectrales respectivas. En consecuencia, 1/2 γZ (h) = ∫ exp(2πiωh)fZ (ω)dω −1/2 2 = (1 + ϕ 1 2 + ϕ )γX (h) + (ϕ1 ϕ2 − ϕ1 )[ γX (h + 1) + γX (h − 1)] − ϕ2 [ γX (h + 2) + γX (h − 2)] 2 1/2 2 =∫ [(1 + ϕ 1 2 + ϕ ) + (ϕ1 ϕ2 − ϕ1 )(exp(2πiω) + exp(−2πiω)) 2 −1/2 −ϕ2 (exp(4πiω) + exp(−4πiω))] exp(2πiωh)fX (ω)dω 1/2 =∫ 2 [(1 + ϕ 1 2 + ϕ ) + 2(ϕ1 ϕ2 − ϕ1 ) cos(2πω) − 2 ϕ2 cos(4πω)] exp(2πiωh)fX (ω)dω. 2 −1/2 Lo anterior implica junto conf Z (ω) σ 2 =σ 2 eso 2 = [(1 + ϕ 1 2 + ϕ ) + 2(ϕ1 ϕ2 − ϕ1 ) cos(2πω) − 2 ϕ2 cos(4πω)] fX (ω). 2 4.2.3 https://espanol.libretexts.org/@go/page/148661 Por lo tanto, la densidad espectral de un proceso AR (2) tiene la forma fX (ω) = σ 2 2 −1 2 [(1 + ϕ + ϕ ) + 2(ϕ1 ϕ2 − ϕ1 ) cos(2πω) − 2 ϕ2 cos(4πω)] 1 2 . La Figura 4.4 muestra la gráfica de series de tiempo de un proceso AR (2) con parámetrosϕ = 1.35,ϕ = −.41 yσ = 89.34. Estos valores son muy similares a los obtenidos para la serie de reclutamiento en la Sección 3.5. La misma figura también muestra la densidad espectral correspondiente usando la fórmula recién derivada. 2 1 2 Con el contenido de esta Sección, hasta el momento se ha establecido que la densidad espectral $f (\ omega) $ es una cantidad poblacional que describe el impacto de los diversos componentes periódicos. A continuación, se verifica que el periodograma $I (\ omega_j) $ introducido en la Sección\ ref {sec:4.1} es la contraparte muestral de la densidad espectral. Proposición 4.2.2. Vamos aω = j/n denotar las frecuencias de Fourier. Si el periodogramaI (ω un proceso débilmente estacionario(X : t ∈ Z) , entonces j) j 2 = |d(ωj )| se basa en observacionesX 1, … , Xn de t n−1 I (ωj ) = ∑ ^ (h) exp(−2πi ωj h), γ n j ≠ 0. h=−n+1 Sij = 0 , entoncesI (ω 0) = I (0) = nX̄ 2 . n n Comprobante. Vamos primeroj ≠ 0 . Usando eso∑ t=1 n 1 I (ωj ) = 1 = n , se deduce que n ∑ ∑(Xt − X̄ n )(Xs − X̄ n ) exp(−2πi ωj (t − s)) t=1 n−1 s=1 n−|h| ∑ n exp(−2πi ωj t) = 0 ∑ (Xt+|h| − X̄ n )(Xt − X̄ n ) exp(−2πi ωj h) h=−n+1 t=1 n−1 = ∑ γ ^ (h) exp(−2πi ωj h), n h=−n+1 2 ¯ lo que prueba la primera pretensión de la proposición. Sij = 0 , las relacionescos(0) = 1 esin(0) = 0 implican esoI (0) = nX . Esto completa la prueba. n Se puede decir más sobre el periodograma. De hecho, se puede interpretar el análisis espectral como un análisis espectral de varianza (ANOVA). Para ver esto, vamos primero 1 dc (ωj ) = Re(d(ωj )) = n − ∑ Xt cos(2π ωj t), √n t=1 1 ds (ωj ) = Im(d(ωj )) = n − ∑ Xt sin(2π ωj t). √n t=1 Entonces,I (ω j) = 2 dc (ωj ) + 2 ds (ωj ) . Volvamos ahora al ejemplo introductorio y estudiemos el proceso m Xt = A0 + ∑ [ Aj cos(2π ωj t) + Bj sin(2π ωj t)], j=1 dondem = (n − 1)/2 en impar. SupongamosX antes, se puede ver queA = X̄ y 1, 0 … , Xn que se han observado. Entonces, usando técnicas de regresión como n 2 Aj = n 2 Bj = n n 2 ∑ Xt cos(2π ωj t) = t=1 n − dc (ωj ), √n 2 ∑ Xt sin(2π ωj t) = t=1 4.2.4 − ds (ωj ). √n https://espanol.libretexts.org/@go/page/148661 Por lo tanto, n m 2 ∑(Xt − X̄ n ) m 2 2 = 2 ∑ [ dc (ωj ) + ds (ωj )] = 2 ∑ I (ωj ) t=1 j=1 j=1 y se obtiene la siguiente tabla ANOVA. Si el proceso estocástico subyacente exhibe un patrón periódico fuerte a cierta frecuencia, entonces el periodograma probablemente los recogerá. Ejemplo 4.2.4 Considere los puntos den = 5 datosX = 2 X = 4 ,X = 6 ,X = 2 ,X = 4 y, que muestran un patrón cíclico pero no sinusoidal. Esto sugiere queω = 1/5 es significativo y noω = 2/5 lo es. En R, el ANOVA espectral se puede producir de la siguiente manera. 1 2 3 5 4 >x = c (2,4,6,4,2), t= 1:5 >cos1 = cos (2*pi*t*1/5) >sin1 = sin (2*pi*t*1/5) >cos2 = cos (2*pi*t*2/5) >sin2 = sin (2*pi*t*2/5) Esto genera los datos y las variables coseno y seno independientes. Ahora ejecuta una regresión y comprueba la salida del ANOVA. >reg = lm (x\ ~ {} cos1+sin1+cos2+sin2) >anova (reg) Esto lleva a la siguiente salida. Respuesta: x Df Suma Cuadrados Media Sq Valor F Pr (>F) cos1 1 7.1777 7.1777 cos2 1 0.0223 0.0223 sin1 1 3.7889 3.7889 sin2 1 0.2111 0.2111 Residuales 0 0.0000 Según razonamiento previo (¡comprueba la última tabla!) , el periodograma a la frecuenciaω = 1/5 se da como la suma de los sin1 coeficientescos1 y, es decir,I (1/5) = (d (1/5) + d (1/5))/2 = (7.1777 + 3.7889)/2 = 5.4833. Del mismo modo, 1 c s I (2/5) = (dc (2/5) + ds (2/5))/2 = (0.0223 + 0.2111)/2 = 0.1167. Obsérvese, sin embargo, que el error cuadrático medio se calcula de manera diferente en R. Podemos comparar estos valores con el periodograma: > abs (fft (x))ˆ 2/5 [1] 64.8000000 5.4832816 0.1167184 0.1167184 5.4832816 2 ¯ El primer valor aquí esI (0) = nX = 5 ∗ (18/5 ) = 64.8 . El segundo y tercer valor sonI (1/5) yI (2/5), respectivamente, while I (3/5) = I (2/5) yI (4/5) = I (1/5) completan la lista. 2 n En la siguiente sección, se discuten algunas propiedades de muestra grande del periodograma para obtener una mejor comprensión del análisis espectral. \ 4.2.5 https://espanol.libretexts.org/@go/page/148661 Contribuidores Template:ContribAue Template:ContribNakano This page titled 4.2: La densidad espectral y el periodograma is shared under a not declared license and was authored, remixed, and/or curated by Alexander Aue. 4.2: The Spectral Density and the Periodogram by Alexander Aue has no license indicated. 4.2.6 https://espanol.libretexts.org/@go/page/148661 4.3: Propiedades de muestra grande Dejar(X : t ∈ Z) ser una serie temporal débilmente estacionaria con ACVF mediaμ , absolutamente sumableγ(h) y densidad espectralf (ω). Procediendo como en el comprobante de la Proposición4.2.2., se obtiene t siempreω j ≠0 n−|h| n−1 1 I (ωj ) = ∑ n ∑ (Xt+|h| − μ)(Xt − μ) exp(−2πi ωj h), h=−n+1 (4.3.1) t=1 . Mediante esta representación, se puede establecer el comportamiento limitante del periodograma. Proposición 4.3.1 Sea el periodograma basado en observacionesX cualquierω ≠ 0 , I (⋅) 1, … , Xn de un proceso débilmente estacionario(X t: E[I (ωj:n )] → f (ω) dondeω j:n = jn /n con(j n )n∈N elegido tal queω j:n → ω t ∈ Z) , entonces, para (n → ∞), comon → ∞ . Siω = 0 , entonces 2 E[I (0)] − nμ → f (0) (n → ∞). Comprobante. Hay dos límites involucrados en los cálculos de la media del periodograma. Primero, tomar el límite comon → ∞ . Esto, sin embargo, requiere en segundo lugar que para cada unon tengamos que trabajar con un conjunto diferente de frecuencias de Fourier. Para ajustarnos a esto, hemos introducido la notaciónω . Siω ≠ 0 es una frecuencia de Fourier (¡n fija!) , luego j:n n−1 E[I (ωj )] = j n − |h| ∑ ( h=−n+1 n ) γ(h) exp(−2πi ωj h). Por lo tanto (n → ∞ !) , ∞ E[I (ωj:n )] → ∑ γ(h) exp(−2πiωh) = f (ω), h=−∞ 2 ¯ demostrando así la primera pretensión. El segundo se desprende deI (0) = nX (véase la Proposición 4.2.2.), para que E[I (0)] − nμ = n(E[ X̄ ] − μ ) = nVar(X̄ ) → f (0) n → ∞ como en el Capítulo 2. La prueba está completa. n 2 2 n 2 n Proposición 4.3.1. muestra que el periodogramaI (ω) es asintóticamente imparcial paraf (ω). Es, sin embargo, inconsistente. Esto está implícito en la siguiente proposición que se da sin pruebas. No es sorprendente considerando que cada valorI (ω ) es la suma de cuadrados de sólo dos variables aleatorias independientemente del tamaño de la muestra. j Proposición 4.3.2. Si(X t: t ∈ Z) es una serie temporal (causal o no causal) débilmente estacionaria tal que ∞ Xt = ∑ ψj Zt−j , t ∈ Z, j=−∞ con∑ ∞ j=−∞ 2 | ψj | < ∞and(Zt )t∈Z ∼ WN(0, σ ) , entonces 4.3.1 https://espanol.libretexts.org/@go/page/148656 ( 2I (ω1:n ) ,…, 2I (ωm:n ) f (ω1 ) f (ωm ) dondeω , … , ω sonm distintas frecuencias conω chi-cuadradas distribuidas con dos grados de libertad. 1 m D ) → (ξ1 , … , ξm ), j:n → ωj yf (ω j) >0 . Las variablesξ 1, … , ξm son independientes, idénticas El resultado de esta proposición puede ser utilizado para construir intervalos de confianza para el valor de la densidad espectral a la frecuenciaω. Para ello, denotar porχ (α) la menor probabilidad de cola de la variable chi-cuadradoξ , es decir, 2 j 2 2 P (ξj ≤ χ (α)) = α. 2 Entonces, la Proposición 4.3.2. implica que un intervalo de confianza aproximado con nivel1 − α viene dado por 2I (ωj:n ) 2 2I (ωj:n ) ≤ f (ω) ≤ χ (1 − α/2) . 2 χ (α/2) 2 2 La Proposición 4.3.2. también sugiere que los intervalos de confianza se pueden derivar simultáneamente para varios componentes de frecuencia. Antes de que se computen los intervalos de confianza para la frecuencia dominante de los datos de reclutamiento regresan por un momento al cálculo de la FFT que es la base para el uso del periodograma. Para garantizar un tiempo de cálculo rápido, sen deben usar enteros altamente compuestos. Para lograr esto en general, la duración de las series de tiempo se ajusta mediante el relleno de los datos originales pero degradados mediante la adición de ceros. En R, el análisis espectral se realiza con la función spec.pgram. Para saber cuál $n^\ prime$ se usa para tus datos particulares, escribe nextn (length (x)), asumiendo que tu serie está en x. ′ Figura 4.6: Periodograma promedio de los datos de reclutamiento discutidos en el Ejemplo 4.3.1. Ejemplo 4.3.1. La Figura 4.5 muestra el periodograma de los datos de reclutamiento que se ha discutido en el Ejemplo 3.3.5. Muestra un fuerte ~ componente de frecuencia anual, asíω = 1/12 como varios picos en el vecindario de la frecuencia El Nin oω = 1/48. Los componentes de mayor frecuencia conω > .3 están prácticamente ausentes. A pesar de que se ajustó un modelo AR (2) a estos datos en el Capítulo 3 para producir valores futuros basados en este ajuste, se ve que el periodograma aquí no valida este ajuste ya que la densidad espectral de un proceso AR (2) (como se computa en el Ejemplo 4.2.3.) es cualitativamente diferente. En R, se pueden utilizar los siguientes comandos (nextn (length (rec)) dan = 480 aquí si los datos de reclutamiento se almacenan en rec como antes). ′ >rec.pgram=spec.pgram (rec, taper=0, log="no”) >abline (v=1/12, lty=2) >abline (v=1/48, lty=2) La función spec.pgram le permite ajustar con precisión el análisis espectral. Para nuestros propósitos, siempre utilizamos las especificaciones dadas anteriormente para el periodograma en bruto (la conicidad le permite, por ejemplo, mirar exclusivamente una banda de frecuencia particular, log le permite trazar el logaritmo-periodograma y es el estándar R). Para calcular los intervalos de confianza para las dos frecuencias dominantes1/12 y1/48, puede usar el siguiente código R, señalando que1/12 = 40/480 y1/48 = 10/480. >rec.pgram {\ $} spec [40] [1] 21332.94 4.3.2 https://espanol.libretexts.org/@go/page/148656 >rec.pgram {\ $} spec [10] [1] 14368.42 >u=qchisq (.025, 2); l=qchisq (.975, 2) >2*rec.pgram {\ $} espec. [40] /l >2*rec.pgram {\ $} espec. [40] /u >2*rec.pgram {\ $} espec. [10] /l ~2*rec.pgram {\ $} espec. [10] /u Utilizando los valores numéricos de este análisis, se obtienen los siguientes intervalos de confianza en el nivelα = .1 : f (1/12) ∈ (5783.041, 842606.2) and f (1/48) ∈ (3895.065, 567522.5). Estos son demasiado amplios y se necesitan alternativas al periodograma crudo. Estos son proporcionados, por ejemplo, por un enfoque de suavizado que utiliza un procedimiento de promediado sobre una banda de frecuencias vecinas. Esto se puede hacer de la siguiente manera. >k=kernel (“daniell” ,4) >rec.ave=spec.pgram (rec, k, taper=0, log="no”) > abline (v=1/12, lty=2) > abline (v=1/48, lty=2) > rec.ave$ancho de banda [1] 0.005412659\ medskip El periodograma suavizado resultante se muestra en la Figura 4.6. Es menos ruidoso, como se espera de tomar promedios. Más precisamente, aquí sem = 4 utilizó un filtro Daniell de dos lados con frecuenciasL = 2m + 1 vecinas k ωk = ωj + , k = −m, … , m, n para calcular el periodograma enω = j/n . La gráfica resultante en la Figura 4.6 muestra, por otra parte, que el pico anual agudo se − − ha aplanado considerablemente. El ancho de banda reportado en R se puede computar comob = L/(√12n) . Para calcular los intervalos de confianza se tiene que ajustar la fórmula previamente derivada. Esto se hace tomando cambiando los grados de libertad de 2 adf = 2Ln/n (si se anexan los ceros) y conduce a j ′ df 2 χ df m ∑ f (ωj + (1 − α/2) k=−m k df ) ≤ f (ω) ≤ n 2 χ df m k ∑ f (ωj + (α/2) k=−m ) n paraω ≈ ω . Para los datos de reclutamiento se puede utilizar el siguiente código R: j >df=techo (rec.ave {\ $} df) >u=qchisq (.025, df), l~=~qchisq (.975, df) >df*rec.ave {\ $} espec. [40] /l >df*rec.ave {\ $} spec [40] /u >df*rec.ave {\ $} espec. [10] /l >df*rec.ave {\ $} spec [10] /u 4.3.3 https://espanol.libretexts.org/@go/page/148656 Figura 4.7: El periodograma Daniell modificado de los datos de reclutamiento discutidos en el Ejemplo 4.3.1. para obtener los intervalos de confianza f (1/12) ∈ (1482.427, 5916.823) and f (1/48) ∈ (4452.583, 17771.64). El compromiso entre el ruidoso periodograma crudo y el suavizado adicional como se describe aquí (conL = 9 ) invierte la ~ magnitud de la frecuencia1/12 anual y el componente1/48 El Nin o. Esto se debe a que el pico anual es muy agudo, siendo las frecuencias vecinas básicamente cero. Para el1/48 componente, hay toda una banda de frecuencia vecina que también aportan que ~ el fenómeno El Nin o es irregular y sólo aparece en promedio cada cuatro años). Además, el ciclo anual ahora se distribuye en todo un rango. Una forma de evitar este problema la proporciona el uso de otros núcleos como el kernel Daniell modificado dado en R como kernel (“modified.daniell”, c (3,3)). Esto conduce a la densidad espectral en la Figura 4.7. Contribuidores Template:ContribAue Template:ContribNakano Demostración: Me encanta la forma en que4.3.1 se ve Equation. This page titled 4.3: Propiedades de muestra grande is shared under a not declared license and was authored, remixed, and/or curated by Alexander Aue. 4.3: Large Sample Properties by Alexander Aue has no license indicated. 4.3.4 https://espanol.libretexts.org/@go/page/148656 4.4: Filtrado Lineal Un filtro lineal utiliza coeficientes específicos(ψ : s ∈ Z) , llamados función de respuesta de impulso, para transformar una serie de entrada débilmente estacionaria(X : t ∈ Z) en una serie de salida(Y : t ∈ Z) a través de s t t ∞ Yt = ∑ ψs Xt−s , t ∈ Z, s=−∞ ∞ donde∑ s=−∞ | ψs | < ∞ . Luego, la función de respuesta de frecuencia ∞ Ψ(ω) = ∑ ψs exp(−2πiωs) s=−∞ está bien definido. Obsérvese que la media móvil de dos puntos del Ejemplo 4.2.2 y la secuencia diferenciada∇X son ejemplos de filtros lineales. Por otro lado, cualquier proceso\/causal ARMA puede identificarse como un filtro lineal aplicado a una secuencia de ruido blanco. Implícitamente este concepto ya se utilizó para calcular las densidades espectrales en Exampels 4.2.2 y 4.2.3. Para investigar esto con mayor detalle, vamosγ (h) yγ (h) denotan el ACVF del proceso de entrada(X : t ∈ Z) y el proceso de salida (Y : t ∈ Z) , respectivamente, y denotan porf (ω) yf (ω) las densidades espectrales correspondientes. El siguiente es el resultado principal en esta sección. t X t Y t X Y Teorema 4.4.1. Bajo los supuestos que se hacen en este apartado, sostiene quef 2 Y (ω) = |Ψ(ω)| fX (ω) . Comprobante. Primero tenga en cuenta que γY (h) = E[(Yt+h − μY )(Yt − μY )] ∞ ∞ =∑ r=−∞ ∞ r=−∞ 1/2 ∑ s=−∞ ∞ −1/2 =∫ s=−∞ ∞ =∑ =∫ ∑ 1/2 (∑ r=−∞ ψr ψs γ(h − r + s) ψr ψs ∫ 1/2 −1/2 exp(2πiω(h − r + s))fX (ω)dω ∞ ψr exp(−2πiωr))( ∑ s=−∞ ψs exp(2πiωs)) exp(2πiωh)fX (ω)dω 2 −1/2 exp(2πiωh)|Ψ(ω)| fX (ω)dω. Ahora identificarf Y 2 (ω) = |Ψ(ω)| fX (ω) , que es la aserción del teorema. El teorema 4.4.1 sugiere una manera de calcular la densidad espectral de un proceso ARMA causal. Para ello, dejemos(Y ser tal causal ARMA (p, q) proceso satisfactorioY = ψ(B)Z , donde(Z : t ∈ Z) ∼ WN(0, σ ) y t t θ(z) ψ(z) = ϕ(z) t: t ∈ Z) s ∈ N0 ) puede 2 t ∞ s = ∑ ψs z , |z| ≤ 1. s=0 conθ(z) yϕ(z) siendo el polinomio promedio móvil y autorregresivo, respectivamente. Tenga en cuenta que el(ψ ser visto como una función especial de respuesta al impulso. s: Corolario 4.4.1. Si(Y t: t ∈ Z) ser un proceso causal ARMA (p, q)\). Entonces, su densidad espectral viene dada por fY (ω) = σ 2 |θ(e −2πiω |ϕ(e −2πiω Comprobante. Aplicar Teorema 4.4.1 con secuencia de entrada(Z respuesta de frecuencia es t: 2 )| 2 . )| t ∈ Z) . Entoncesf ∞ Ψ(ω) = ∑ ψs exp(−2πiωs) = ψ(e −2πiω Z (ω) θ(e −2πiω ) −2πiω ) ) = ϕ(e s=0 4.4.1 =σ 2 , y además la función de . https://espanol.libretexts.org/@go/page/148653 Ya quef Y 2 (ω) = |Ψ(ω)| fX (ω) , la prueba está completa. El corolario 4.4.1 brinda un enfoque fácil para definir estimaciones de densidad espectral paramétricas para procesos causales ARMA (p, q) simplemente reemplazando las cantidades de población por homólogos de muestra apropiados. Esto le da al estimador de densidad espectral 2 ^ f (ω) = σ ^ n 2 −2πiω ^ | θ (e )| . 2 ^ | ϕ (e−2πiω )| Ahora bien, cualquiera de las técnicas de estimación discutidas en la Sección 3.5 se puede aplicar al momento de calcularf^(ω) . Contribuidores Template:ContribAue Template:ContribNakano This page titled 4.4: Filtrado Lineal is shared under a not declared license and was authored, remixed, and/or curated by Alexander Aue. 4.4: Linear Filtering by Alexander Aue has no license indicated. 4.4.2 https://espanol.libretexts.org/@go/page/148653 4.5: Resumen En este capítulo se introdujeron los métodos básicos para el análisis de series de tiempo en el dominio de la frecuencia. Estos se basan en una regresión de los datos dados sobre las funciones coseno y seno que varían en las frecuencias de Fourier. En el lado poblacional, las densidades espectrales fueron identificadas como las contrapartes de dominio de frecuencia de funciones de autocovarianza absolutamente sumables. Éstas se obtienen unas de otras mediante la aplicación de transformadas (inversas) de Fourier. En el lado de la muestra, se ha demostrado que el periodograma es un estimador para la densidad espectral desconocida. Al tratarse de un estimador inconsistente, se han discutido diversas técnicas para superar este hecho. Finalmente, se introdujeron filtros lineales que pueden, por ejemplo, ser utilizados para computar densidades espectrales de procesos causales ARMA y para derivar estimadores de densidad espectral paramétricos distintos del periodograma. Contribuidores Template:ContribAue Template:ContribNakano This page titled 4.5: Resumen is shared under a not declared license and was authored, remixed, and/or curated by Alexander Aue. 4.5: Summary by Alexander Aue has no license indicated. 4.5.1 https://espanol.libretexts.org/@go/page/148657 CHAPTER OVERVIEW Volver Materia Índice Glosario Licenciamiento Detallado Volver Materia is shared under a not declared license and was authored, remixed, and/or curated by LibreTexts. 1 Índice A C ARMA Causality 3.1: Introducción a los procesos de media móvil autorregresiva (ARMA) ARMA Processes 3.2: Causalidad e invertibilidad 3: Procesos ARMA autocovariance function 2.2: Estimación de la función de autocovarianza moving partial autocorrelation function Forecasting average time 3.1: Introducción a los procesos de media móvil autorregresiva (ARMA) autoregressive polynomial 3.1: Introducción a los procesos de media móvil autorregresiva (ARMA) B 3.3: El PACF de un proceso de ARMA Causal 3.4: Pronósticos 2.2: Estimación de la función de autocovarianza periodogram 4.2: La densidad espectral y el periodograma I Invertibility 3.2: Causalidad e invertibilidad S spectral density 4.2: La densidad espectral y el periodograma L stochastic process linear filtering 1.1: Introducción y ejemplos 4.4: Filtrado Lineal M method of moments BEST LINEAR PREDICTION 3.1: Introducción a los procesos de media móvil autorregresiva (ARMA) P F asymptotic unbiasedness autoregressive series moving average polynomial 3.5: Estimación de parámetros Índice is shared under a not declared license and was authored, remixed, and/or curated by LibreTexts. 3.4: Pronósticos 1 https://espanol.libretexts.org/@go/page/148647 Glosario emerg entes] Ejemplo y Direcciones Palab ras (o palab ras que tiene n la mism a defini ción) La defini ción es sensi ble a mayú scula s (Opci onal) Imag en para mostr ar con la defini ción [No se muest ra en el Glosa rio, solo en las págin as (Opci onal) Leye nda para la image n (Opci onal) Enlac e exter no o intern o (Opci onal) Fuent e para Defin ición (Ej. “Gen ético, Here ditari o, ADN ...”) Glosario is shared under a not declared license and was authored, remixed, and/or curated by LibreTexts. (Ej. “Rel acion ado con gene so here ncia” ) La infa me doble hélic e https: //bio. libret exts. org/ CCBYSA; Delm ar Larse n Glossary has no license indicated. Entradas en el glosario Palab Defin Imag ra (s) ición en Pala bra de mues tra 1 Leye nda Enlac e Fuent e Defi nició n de mues tra 1 1 https://espanol.libretexts.org/@go/page/148648 Index A B ARMA BEST LINEAR PREDICTION 3.1: Introducción a los procesos de media móvil autorregresiva (ARMA) ARMA Processes 3.2: Causalidad e invertibilidad 2.2: Estimación de la función de autocovarianza autocovariance function 2.2: Estimación de la función de autocovarianza moving average time 3.1: Introducción a los procesos de media móvil autorregresiva (ARMA) autoregressive polynomial 3.1: Introducción a los procesos de media móvil autorregresiva (ARMA) 3.5: Estimación de parámetros moving average polynomial Causality asymptotic unbiasedness method of moments 3.4: Pronósticos C 3: Procesos ARMA autoregressive series M 3.1: Introducción a los procesos de media móvil autorregresiva (ARMA) P partial autocorrelation function F Forecasting 3.4: Pronósticos I Invertibility 3.2: Causalidad e invertibilidad 3.3: El PACF de un proceso de ARMA Causal periodogram 4.2: La densidad espectral y el periodograma S spectral density 4.2: La densidad espectral y el periodograma stochastic process L linear filtering 4.4: Filtrado Lineal 1.1: Introducción y ejemplos Glossary Sample Word 1 | Sample Definition 1 Detailed Licensing Overview Title: Libro: Análisis de Series Temporales (Aue) Webpages: 43 All licenses found: Undeclared: 100% (43 pages) By Page Libro: Análisis de Series Temporales (Aue) - Undeclared 3: Procesos ARMA - Undeclared Front Matter - Undeclared 3.1: Introducción a los procesos de media móvil autorregresiva (ARMA) - Undeclared 3.2: Causalidad e invertibilidad - Undeclared 3.3: El PACF de un proceso de ARMA Causal Undeclared 3.4: Pronósticos - Undeclared 3.5: Estimación de parámetros - Undeclared 3.6: Selección de modelos - Undeclared 3.7: Resumen - Undeclared TitlePage - Undeclared InfoPage - Undeclared Table of Contents - Undeclared Licensing - Undeclared Materia Frontal - Undeclared TitlePage - Undeclared InfoPage - Undeclared Tabla de Contenidos - Undeclared Licencias - Undeclared 4: Análisis espectral - Undeclared 4.1: Introducción al Análisis Espectral - Undeclared 4.2: La densidad espectral y el periodograma Undeclared 4.3: Propiedades de muestra grande - Undeclared 4.4: Filtrado Lineal - Undeclared 4.5: Resumen - Undeclared 1: Conceptos básicos en series de tiempo - Undeclared 1.1: Introducción y ejemplos - Undeclared 1.2: Series de Tiempo Estacionarias - Undeclared 1.3: Eliminación de componentes de tendencia Undeclared 1.4: Eliminación de componentes de tendencia y estacionales - Undeclared 1.5: Evaluación de los Residuales - Undeclared 1.6: Resumen - Undeclared Back Matter - Undeclared Index - Undeclared Glossary - Undeclared Detailed Licensing - Undeclared 2: La estimación de la media y las covarianzas Undeclared Volver Materia - Undeclared Índice - Undeclared Glosario - Undeclared Licenciamiento Detallado - Undeclared 2.1: Estimación de la media - Undeclared 2.2: Estimación de la función de autocovarianza Undeclared 1 https://espanol.libretexts.org/@go/page/160139