Diapositivas tema 1 Archivo

Anuncio
Extracción de Señales - Tema 1
Profesora: Ana Laura Badagián
I. 
II. 
III. 
IV. 
V. 
Descomposición de una serie de tiempo.
Análisis espectral univariante.
Introducción al análisis de Fourier.
Estimaciones del espectro poblacional.
Introducción al análisis espectral multivariado.
James D. Hamilton, (1994):
Time Series
Analysis, Chapter 6: Spectral Analysis, pp:
152-179. Princeton University Press, New
Jersey
Las razones para desagregar una serie de tiempo
económica en sus componentes inobservables se
explicitan al inicio del capítulo 4 del libro de Espasa y
Cancelo (1993):
“El análisis de la coyuntura de un fenómeno
económico normalmente no se realiza directamente a
través de la evolución de sus datos originales, ya que
éstos contienen muchas oscilaciones de escaso
interés económico que pueden llevar a conclusiones
equivocadas. Por el contrario, dicho análisis se
efectúa a través de señales extraídas de los datos,
que sirven de estimación de lo que un analista puede
considerar como un aspecto esencial del fenómeno
en cuestión.”
Los datos originales de una serie económica
presentan grandes oscilaciones, muchas de las
cuales no son de interés desde el punto de vista
del análisis económico. Así, los aspectos
esenciales de un fenómeno económico no son
directamente observables, con lo cual es
necesario disponer de procedimientos que
permita cuantificarlos a partir de la información
disponible (los datos originales). Al analista
corresponde definir cuál o cuáles componentes o
señales son de interés.
Los componentes inobservables de una serie temporal son
básicamente:
a) 
El componente tendencial o tendencia, Tt , que recoge
aquella parte de la evolución de la serie que se encuentra
relacionada con factores de largo plazo (persistentes).
b) 
El componente estacional, St , se encuentra asociado a
las oscilaciones cuasicíclicas que se cancelan al interior
del año (12 meses, 4 trimestres, etc.).
c) 
El componente cíclico, Ct , que recoge las fluctuaciones
cuya periodicidad es mayor al año, pero inferior al "largo
plazo“.
d) 
El componente irregular, It , cuya estructura es aleatoria y
contiene las oscilaciones no sistemáticas que afectan
puntualmente a la serie considerada. Se suele caracterizar
este componente como un proceso estocástico ruido
blanco.
La serie observada surge, entonces, de la
agregación de los cuatro componentes. El formato
de la agregación depende de que el modelo
subyacente
sea
aditivo
o
multiplicativo,
respectivamente. Así, en el caso aditivo:
Yt = Tt + Ct + St + It ,
mientras que en el multiplicativo,
Yt = Tt . Ct . St . It .
El componente inobservable sobre el que el analista
concentra su atención suele denominarse señal de
interés.
Desde el punto de vista metodológico, existe un
incentivo por utilizar procedimientos que tengan
propiedades conocidas y deseables desde el
punto de vista teórico para analizar las
fluctuaciones macroeconómicas. Este aspecto
implica
contar
con
procedimientos
de
descomposición
que
especifiquen
las
características del componente que se desea
estudiar y que sea posible su estimación a partir
del análisis de los datos originales.
Extracción de señales es una expresión tomada del
campo de la ingeniería: los sistemas de audio tienen
un parámetro, el denominado “coeficiente de señalruido”, que define la calidad de los sonidos emitidos).
En este campo, la extracción de señales se realiza a
partir de un sistema que filtra la “señal de interés” (la
música) eliminando el ruido (distorsiones que afectan
al sistema de audio).
El punto de partida de los procedimientos de extracción
de señales es, entonces, que en la práctica la
información que proporciona la observación y medición
de un fenómeno (económico) se encuentra
contaminada. Por ello, es necesario “filtrar” los datos
de modo de recuperar la “señal” que ellos contienen.
Observación: La señal “pura” nunca se observa, por lo
que siempre se está expuesto a cometer errores.
El tema metodológico planteado no es en absoluto trivial
y se traduce básicamente en un problema de filtrado de
los datos originales.
Un filtro es una combinación lineal de las observaciones
(originales) de una variable para distintos momentos del
tiempo, que se realiza con la finalidad de obtener una
estimación de una señal "deseada" por el analista.
Su aplicación siempre distorsiona el proceso original al
que se aplica. Muchas veces dichas distorsiones no son
precisamente
“deseadas”,
pudiendo
conducir
a
interpretaciones equivocadas sobre el comportamiento de
la variable analizada y a estimaciones sesgadas de sus
componentes inobservables. Por esta razón, resulta
importante contar con herramientas que permitan analizar
las propiedades estadísticas de dichas transformaciones.
La dependencia temporal en series económicas puede estudiarse
en el dominio del tiempo o en el dominio de la frecuencia.
En el primer caso, es necesario partir explicitando el proceso
estocástico que genera los datos como la suma de un
componente sistemático y una perturbación aleatoria
impredecible. La parte sistemática suele formularse como una
simple combinación lineal de observaciones y perturbaciones
pasadas, mientras que la parte impredecible se asimila a un
proceso estocástico ruido blanco.
El análisis en el dominio de la frecuencia, o análisis espectral,
interpreta el proceso estocástico de manera que el
comportamiento en el tiempo de la variable es el resultado de la
combinación (adición) de ciclos de distinta amplitud y duración.
El análisis espectral permite estudiar de qué forma las
diferentes periodicidades o frecuencias contribuyen a la
explicación de la variabilidad total de la serie.
Si bien los dos tipos de análisis aportan la misma
información sobre la serie observada desde diferentes
perspectivas, algunos aspectos del comportamiento de la
serie pueden visualizarse más fácilmente en el dominio del
tiempo y otros en el de la frecuencia.
El enfoque tradicional para el tratamiento de las series
económicas ha sido en el dominio del tiempo. No
obstante, la utilización del análisis espectral se revela
como más conveniente cuando el analista enfrenta un
problema que requiere la estimación de uno o varios de
los componentes inobservables.
Por un lado, cada procedimiento de descomposición
implica la aplicación de diferentes filtros o
transformaciones de los datos originales, los cuáles
tienen fuertes consecuencias en cuanto a la
atenuación de algunos ciclos o al realzamiento de
otros, siendo relevante analizar sus efectos, de modo
de no arribar a conclusiones erróneas respecto a la
señal de interés.
El análisis espectral proporciona las herramientas
para conocer cómo son afectadas las series en este
sentido, aportando información relevante acerca de
los efectos de los filtros que se aplican a series de
tiempo macroeconómicas.
Por otro lado, el análisis del comportamiento cíclico
de una serie macroeconómica en el dominio del
tiempo oculta un conjunto de influencias económicas
que provienen de ciclos de diferentes amplitudes y
longitudes, que pueden evidenciarse realizando la
descomposición de las fluctuaciones en diferentes
frecuencias cíclicas.
El nexo entre el dominio del tiempo y el análisis
espectral es la función generatriz de autocovarianzas,
cuyo análisis constituye la base para el estudio de las
propiedades cíclicas de las series de tiempo. La
función de autocovarianzas y/o la función de
autocorrelaciones contienen toda la información
sobre la dependencia temporal de una serie de
tiempo. En el dominio del tiempo la autocovarianza
de orden τ , que se anota γτ , se define como
para todo t entero, donde
es un proceso estocástico
real o más particularmente, la serie de tiempo en
estudio y µy su esperanza matemática.
De manera general, una función generatriz registra
la información sobre cierta secuencia.
Dada la secuencia ,
, posiblemente
compuesta por infinitos términos, la función
generatriz de dicha secuencia se define como:
La
variable
z
no
necesariamente
tiene
interpretación. Puede decirse que ella es portadora
de información sobre la forma en que se genera la
secuencia.
Sea ahora el proceso estocástico real
, cuya
varianza es igual a γ0 y la τ –ésima autocovarianza
igual a γτ .
Se define
como la secuencia de
autocovarianzas. Si dicha secuencia es absolutamente
sumable, la función generatriz de autocovarianzas
está dada por:
donde el argumento de la función, z, es un escalar
complejo.
Bajo tales condiciones, el proceso yt se puede formular a
través de la representación de Cràmer, es decir como la
suma infinita de funciones periódicas -senos y cosenostal que:
Para ω∈[-π,π], donde los coeficientes cω son
Utilizando que
la formulación de
Cramer puede reescribirse de la siguiente forma:
Esta representación de los procesos covarianza
estacionarios provee una forma matemáticamente
rigurosa de expresar la noción de que las series
macroeconómicas contienen componentes asociados con
fluctuaciones de diferentes frecuencias: los movimientos
lentos o de baja frecuencia asociados intuitivamente al
concepto de tendencia, los de frecuencia media que se
vinculan al ciclo, y por último, los movimientos rápidos o
de alta frecuencia relacionados a los factores estacionales
e irregulares.
La pregunta clave es entonces, ¿qué
frecuencias son dominantes y cuáles de
menor importancia para explicar los
movimientos de yt ? Una respuesta sencilla
a dicha cuestión la proporciona la función de
densidad espectral o espectro poblacional.
Usando el Teorema de De Moivre, cualquier número
complejo z puede expresarse como z = cos(ω)-i sen(ω)
= e-iω , donde i =√-1 y ω es el ángulo en radianes que
forma z con el eje real. Si en la función generatriz de
autocovarianzas z es reemplazado por e-iω y se divide
por 2π , la función resultante de ω se denomina función
de densidad espectral o espectro poblacional (o
sencillamente espectro) de yt :
donde -π < ω < π , o puede escribirse como:
Si la secuencia de autocovarianzas es absolutamente
sumable, el
espectro poblacional existe y tiene un
conjunto de propiedades importantes, a saber:
i)  Es una función de ω, no negativa, continua y real.
ii) Si las γτ 's representan las autocovarianzas de un
proceso estocástico covarianza estacionario, entonces el
espectro será no negativo para todo valor de ω .
iii) Como cos(ωτ ) = cos(-ωτ ), el espectro es simétrico
alrededor de ω = 0 , de forma que Sy(ω) = Sy(-ω).
iv) Como cos(ωτ + 2π kτ ) = cos(ωτ), para cualquier k y τ
entero, el espectro es una función periódica de ω: S(ω)
=S(ω + 2π k). Así, el conocimiento del valor de S(ω) para
cualquier valor de ω en el intervalo [0,π] implica el
conocimiento de S(ω) para cualquier valor de ω .
De esta forma, el espectro constituye un recurso para
realizar la descomposición de la varianza de una serie por
sus frecuencias. El área debajo del espectro en el intervalo
[-π,π], es igual a la varianza de yt .
Esta propiedad brinda alguna idea sobre la interpretación
de la varianza en el dominio del tiempo, ya que la misma
es la suma del espectro a lo largo de todas las frecuencias
entre -π y π . La varianza de una serie económica se
distribuye desigualmente entre las frecuencias -excepto en
el caso de un proceso ruido blanco-, de forma que el
componente de crecimiento, el componente de ciclo
económico (business cycle) y el componente estacional
contribuyen de manera diferente a la variabilidad de la
serie analizada.
Una formulación más general de lo planteado es:
Así, el espectro de un proceso estocástico contiene la
misma información que la función generatriz de
autocovarianzas, ya que el mismo es simplemente una
combinación lineal de las autocovarianzas. Sin
embargo, la diferencia fundamental es que la función
de densidad espectral arroja luz sobre la importancia
de los componentes cíclicos para diferentes
frecuencias.
Puede definirse una función acotada no decreciente F(ω)
llamada función de distribución espectral que cumple:
donde gy(t ) es la función generatriz de momentos. La
función de distribución espectral determina una medida
F(A), llamada distribución espectral de la serie de tiempo,
donde Sy(ω)=F'(ω) y sobre la banda de frecuencias A se
cumple que
El cociente F(A)/γ0, proporciona información sobre la
contribución de los componentes asociados a las
frecuencias incluidas en A a la varianza del proceso.
Así, al visualizar el gráfico de la función de densidad
espectral de una serie, un pico puede interpretarse
como un indicador de un componente cíclico con un
período o longitud de onda constante e igual a 2π/ω
donde ω es la frecuencia correspondiente.
Algunos casos particulares de un espectro son los
siguientes:
1) Si el proceso generador de los datos es un ruido
blanco el espectro es una recta horizontal. Un ruido
blanco yt=εt , tiene varianza
y autocovarianzas
para
.
Así, la función generatriz de momentos es
el espectro es constante e igual a .
y
El gráfico del espectro de un ruido blanco con varianza 2π
se presenta en la figura 1. Se caracteriza por ser plano en
el nivel
para todas las frecuencias. De aquí viene el
término ruido blanco: así como una luz blanca, consiste en
un número infinito de frecuencias cuyo peso es el mismo.
¿Cuánto es el área debajo de la densidad espectral entre
las frecuencias -π y π?
Cuadro 1: Frecuencias y períodos en series trimestrales y anuales
2π
p=
ω
2) El espectro de una serie trimestral con estacionalidad y
tendencia presenta tres picos marcados en las
frecuencias cero, π/2 y π .
Esto significa en términos de períodos, que los
componentes que se asocian a un período infinito,
anual y dos trimestres son importantes para explicar
la variabilidad total de la serie en cuestión,
respectivamente. Justamente, el período infinito se
asocia a una señal suave o con fluctuaciones lentas
(frecuencia cero), que es característica esencial del
componente de tendencia.
Por otra parte, las series trimestrales estacionales
tienen la particularidad de presentar regularidades o
ciclos que se repiten casi sistemáticamente cada año
y al interior del año cada dos trimestres. Esto es
representado por los picos en las frecuencias π /2 y
π.
Si la serie de tiempo contiene una raíz autorregresiva
unitaria, el pico del espectro será infinito en la frecuencia
cero. Considérese el proceso estacionario AR(1):
con perturbaciones ruido blanco. El espectro del proceso
está dado por:
y es sencillo observar que
Una observación importante es que la frecuencia más alta –
período más bajo- sobre la que se tiene información directa
es π, la que se conoce como la frecuencia de Nyquist. Con
datos trimestrales, no se pueden detectar ciclos con una
mayor frecuencia que dos trimestres, ω = π , problema que
se relaciona con el tema de la agregación en el tiempo o
muestreo.
Este se refiere al proceso por el cual una señal continua se
mide a través de una secuencia de números discretos, por
ejemplo de periodicidad trimestral.
El inconveniente más serio relacionado a esto se denomina
aliasing, e implica que si una serie contiene ciclos con una
frecuencia mayor que la trimestral –por ejemplo, mensual-,
estos serán imputados a ciclos con una frecuencia entre
cero y π.
3) Granger (1966) plantea que la mayoría de las series
macreconómicas anuales presentan una "forma espectral
típica". La misma se exhibe en la figura 3. La característica
más evidente de la forma espectral típica identificada por
Granger es la elevada importancia que adquieren los
componentes asociados a las frecuencias bajas, aún
cuando la tendencia del proceso haya sido previamente
removida.
Este aspecto hace que la función de densidad
espectral univariada no sea por sí sola una
herramienta
“productiva”,
sino
que
debe
complementarse con los espectros multivariados, de
forma de comprender mejor las relaciones entre las
variables económicas.
Previo a la definición de los instrumentos del análisis
espectral multivariado se introducen algunos
conceptos del análisis de Fourier y se plantean
alternativas metodológicas para estimar la función de
densidad espectral.
La idea fundamental del análisis de Fourier es que
cualquier función determinística de la frecuencia ω,
puede ser aproximada por una suma infinita de
funciones trigonométricas, y a esta suma se le
denomina representación de Fourier.
Las funciones trigonométricas cos(ω) y sen(ω) son los
“bloques fundamentales” sobre los que se construye el
análisis de Fourier y la aproximación a toda función
periódica. Ambas son funciones cuyo período es 2π y
por tanto, cualquier combinación lineal de estas
funciones es también periódica de período 2π. Si se
considera una función f(ω) de la forma
donde {at} y {bt} son secuencias arbitrarias de
constantes sujetas a la restricción de que la serie infinita
planteada converja para todo ω, entonces f (ω) será una
función cuyo período es 2π.
Sea ahora
complejos con
una secuencia de números reales o
entonces existe una función definida en los complejos,
f (ω), llamada transformación de Fourier perteneciente al
intervalo [- π,π], tal que:
Una función f(ω) que es de particular interés, es el
espectro Sx(ω), que es la transformación de Fourier del
covariograma y como tal, es una especie de función
generatriz de covarianzas.
Por su parte, la inversa de la transformación de Fourier se
define como:
Por otro lado, si las frecuencias toman T valores igualmente
espaciados en el rango [0,2π], y siendo T el número de
observaciones de xt, entonces el intervalo de muestreo es
2π/T , y usando las frecuencias se tiene que:
el resultado es la transformación de Fourier discreta:
y su inversa:
El espectro poblacional fue expresado en función de la
secuencia
que son los momentos poblacionales de
segundo orden. Sea ahora, un conjunto de T
observaciones
. Se puede calcular hasta T-1
autocovarianzas muestrales a partir de las fórmulas
donde
es la media muestral.
Análogamente al espectro poblacional, se define el
periodograma muestral como
o como
De la misma forma que para el espectro poblacional
El periodograma muestral constituye una forma obvia de
estimar el espectro poblacional. Sin embargo, esta
aproximación presenta serias limitaciones. Sea el proceso
donde la secuencia
es absolutamente sumable
y
es una secuencia de variables aleatorias
independientes y semejantes con
Sea Sy(ω) el espectro poblacional y supóngase que Sy
(ω) > 0 para todo ω . Fuller demuestra que para todo ω≠0
y un tamaño de muestra lo suficientemente grande,
Además, para λ≠ω , la variable
y es aproximadamente independiente de la primera. Dado
que una variable que se distribuye χ2(2) tiene esperanza
igual a 2,
y como Sy(ω) es una magnitud poblacional
De esta forma, si el tamaño de muestra es lo
suficientemente grande, el periodograma muestral
proporciona un estimador aproximadamente insesgado del
espectro poblacional.
Sin embargo, el intervalo de confianza a un 95% para una
variable χ2(2), es (0.05, 7.4), de forma que resulta poco
probable que ^Sy(ω) sea menor que 0.025 y/o mayor que
3.7 veces el verdadero valor de Sy(ω) . La gran amplitud de
dicho intervalo permite establecer que el periodograma
muestral como estimador del espectro poblacional es
insatisfactorio.
Por otro lado, se espera que un estimador mejore a
medida que se utiliza un tamaño de muestra mayor.
Sin embargo, ^Sy(ω) no es consistente, es decir que
no se vuelve “más preciso” a medida que aumenta el
tamaño de la muestra, porque con éste también se
incrementa el número de autocovarianzas a estimar.
Otra desventaja es que tiene una apariencia
“irregular”, aún cuando se refiere a un proceso ruido
blanco, pues el número de frecuencias de Fourier en
un intervalo dado se incrementa de forma
aproximadamente lineal con el tamaño de la muestra
Ejemplo: Serie ci
cit = 0,9cit−1 + εt
εt ≡ N(0,1)
ci0 = 0
€
Periodograma
Muestral de ci
Periodograma de ci (Nro de observaciones = 200)
omega
frec escalada
periodos
0.03142
1
200.00
0.06283
2
100.00
0.09425
3
66.67
0.12566
4
50.00
……………………………………………………………….
3.01593
96
2.08
3.04734
97
2.06
3.07876
98
2.04
3.11018
99
2.02
3.14159
100
2.00
densidad espectral
1.5180
36.339
30.545
2.3750
0.12145
0.0038706
0.010269
0.011944
0.011360
Ejemplo PBI trimestral
Máx: 5 trimestres
A) Estimación paramétrica del espectro
Ya sea en el caso de que el verdadero proceso generador
de los datos sea un proceso ARMA(p,q) o que pueda ser
aproximado por el mismo, entonces los parámetros del
proceso pueden estimarse por máxima verosimilitud y el
espectro teórico puede calcularse a partir de ellos. Este
procedimiento consta de dos etapas básicas. En primer
lugar, se estiman los coeficientes de un proceso ARMA(p,q)
por máxima verosimilitud, donde los valores de p y q se
establecen de forma que el modelo se ajuste lo más
adecuadamente posible al verdadero proceso generador de
los datos
En segundo lugar, se sustituyen los parámetros estimados
φ1, φ2, φp, θ1, θ2, θq y σ2 en la expresión del espectro
donde ω∈[0,π].
Parzen (1969) demuestra que si el modelo ajustado es
autorregresivo puro de orden p
es decir que la varianza del espectro se incrementa con p.
Ello plantea un trade-off entre un mejor ajuste del modelo y
la minimización de la varianza del espectro. Por otro lado, p
no puede ser demasiado pequeño, pues el espectro
estimado puede resultar con un fuerte sesgo.
Berk (1974) muestra que el estimador espectral basado
en la modelización ARMA(p,q) es insesgado,
consistente y asintóticamente normal. Al basarse en un
modelo teórico tiende a ser más suave que el estimado
mediante las técnicas no paramétricas, que se verá a
continuación, y parece mostrar una alta resolución
siendo capaz de seleccionar picos angostos (Priestley,
1981). Aún si el modelo está incorrectamente
especificado, si las autocovarianzas del verdadero
proceso se encuentran cercanas a las de una
especificación ARMA(p,q) este procedimiento debería
proporcionar una útil estimación del espectro
poblacional (Hamilton, 1994).
B) Estimación no paramétrica del espectro
El periodograma muestral tiene una apariencia “irregular”,
pues el número de frecuencias de Fourier en un intervalo
dado se incrementa de forma aproximadamente lineal con
el tamaño de la muestra. Dicho problema se soluciona
mediante la suavización del espectro usando la técnica de
las ventanas espectrales, o en otras palabras,
promediando el periodograma muestral para diferentes
frecuencias.
La estimación no paramétrica del espectro parte del
supuesto de que Sy(ω) se encuentra cerca de Sy(λ)
cuando ω está cerca de λ . Esto sugiere que Sy(ω) podría
ser estimado mediante un promedio ponderado de los
valores de ^Sy(λ) para valores de λ en un entorno de ω,
donde los ponderadores dependen de la distancia entre ω
yλ.
Sea ˆSy(ω) una estimación de Sy(ω) y sea ωj = 2πj/T . La
sugerencia es tomar
donde h representa el parámetro de ancho de banda e
indica cuántas frecuencias {ωj±1, ωj±2,…,ωj±h} son utilizadas
para estimar Sy(ω). Por su parte, los términos
,
denominados ponderadores de kernel indican cuál es el
peso relativo de cada frecuencia, y cumplen que
Existen diferentes tipos de funciones kernel. Una
aproximación que se suele utilizar es
proporcional a
, y como
los ponderadores propuestos son
y el estimador del espectro es
Por ejemplo, si h=2
y el estimador del espectro es
Sˆ y (ω j ) =
2
2 + 1− m ˆ
∑ 3 2 Sy (ω j +m ) =
()
m=−2
1
2
3
2
1
= Sˆ y (ω j−2 ) + Sˆ y (ω j−1 ) + Sˆ y (ω j ) + Sˆ y (ω j +1 ) + Sˆ y (ω j +2 )
9
9
9
9
9
El promedio simple de ^Sy(ω) a lo largo de diferentes
frecuencias puede ser representado de manera
equivalente como sigue (véase, Hamilton, 1994; pág. 166):
con
El periodograma muestral (sin promediar) es un caso
particular del estimador de kernel en el que
.
Los ponderadores
son menores o iguales que uno en
valor absoluto, con lo que el estimador del espectro
planteado subpondera las autocovarianzas
en
relación al periodograma muestral.
Un estimador del espectro bastante popular utiliza la
función kernel de Bartlett modificada, la que está dada
por
El estimador de Bartlett es entonces
Las autocovarianzas de orden mayor a q son tratadas
como si fueran cero o como si Yt fuera un proceso MA(q).
La elección de h, el parámetro de ancho de banda y la
del parámetro q, en general se basa en criterios
subjetivos.
Mientras que el periodograma es asintóticamente
insesgado, aunque con varianza grande, el estimador del
espectro poblacional que se basa en el promedio del
periodograma para diferentes frecuencias tiene menor
varianza, pero introduce algún sesgo.
La severidad del sesgo depende de la rapidez con que
desciende el espectro poblacional y del tamaño del
ancho de banda.
Una forma de elegir h y q podría de esta forma, basarse
en los gráficos del espectro estimado usando diferentes
valores de dichos parámetros y hacer un juicio subjetivo
sobre cuáles son los valores más plausibles.
Ejemplo ci
Ejemplo PBI trimestral
Sea
un proceso estocástico estacionario n-dimensional
con vector de medias
y matriz de autocovarianzas de
orden τ dada por
Resulta fácil demostrar que a diferencia del caso univariado,
Γ(τ ) y Γ(−τ) no tienen por qué ser iguales, pero el elemento
ij-ésimo de Γ(τ ) es igual al elemento ji-ésimo de Γ(-τ ), para
τ = 1, 2,…, de modo que Γ(τ ) = Γ’(-τ ).
Si la secuencia
es absolutamente sumable, la
función matricial generatriz de autocovarianzas, también
denominada función generatriz de covarianzas cruzadas
se define como
donde z es un escalar complejo y
es una matriz de
números complejos de dimensión nxn. Se dice que el
vector de procesos estocásticos
es conjuntamente
covarianza estacionario si
no depende
de t, sino solamente de τ.
De la misma forma que para un proceso univariado, el
espectro multivariado o la función de densidad espectral
cruzada se obtiene sustituyendo en la función generatriz
de autocovarianzas z por e−iω y dividiendo por 2π :
donde ahora Sy(ω) es una matriz de dimensión nxn que
se encuentra conformada por los espectros de cada uno
de los procesos componentes del vector en la diagonal
principal y fuera de ella por los denominados espectros
cruzados.
Así, todos los elementos de la diagonal principal son
reales no negativos, mientras que los restantes
elementos son en general complejos para toda
frecuencia ω.
Por otro lado, al igual que la función matricial generatriz
de covarianzas, el espectro multivariado no es en
general simétrico, sino que el elemento ij-ésimo es el
complejo conjugado del elemento ji-ésimo.
El espectro multivariado, de la misma forma que el
univariado cumple que
es decir que el área debajo del espectro multivariado es
la matriz de varianzas y covarianzas condicionales de yt .
Una generalización de esta propiedad es
El caso bivariado permite apreciar de manera sencilla
estos conceptos. Sea
, donde cada uno de los
componentes del vector son procesos estocásticos
conjuntamente estacionarios, con espectros continuos
para toda frecuencia ω , Sy(ω) y Sx(ω) respectivamente.
La matriz de autocovarianzas del proceso bivariado será:
Γ
El espectro cruzado entre yt y xt se define como:
y la matriz del espectro bivariado es
donde Syy(ω), Sxy(ω) y Sxx(ω) se definen de forma
análoga a Syx(ω).
Por otra parte, usando las relaciones trigonométricas e -iωt
= cos(ωt) - i sen(ωt ), sen(ωt) = -sen(-ωt ) y sen(0) = 0,
resultan las siguientes expresiones:
Los elementos que se encuentran fuera de la diagonal
principal son magnitudes complejas y pueden
reformularse utilizando dos
cantidades reales, el
cospectro, co(ω) y la cuadratura espectral, qu(ω). Por
ejemplo, Syx(ω) puede escribirse como
donde
Estas dos funciones tienen las siguientes propiedades:
El cospectro entre yt y xt para una determinada frecuencia
ω se interpreta como la contribución a la covarianza entre
yt y xt que tienen los ciclos correspondientes a dicha
frecuencia. Resulta fácil observar que el cospectro puede
ser positivo para determinadas frecuencias y negativo para
otras, dado que las autocovarianzas pueden tomar ambos
signos.
La cuadratura espectral desde xt a yt para una cierta
frecuencia ω es una magnitud proporcional a la porción de
la covarianza entre yt y xt causada por los ciclos
correspondientes a la frecuencia ω. Estos ciclos pueden
ser muy importantes para cada una de las variables yt y xt
en forma individual, lo que se refleja en altos valores de
Sy(ω) y Sx(ω) y, sin embargo, no producir una alta
covariación contemporánea entre las variables porque para
un período determinado las dos series se encuentran en
diferentes fases del ciclo.
Las funciones de cospectro y cuadratura espectral se
relacionan con los conceptos de ganancia, fase y
coherencia, que son relevantes en el estudio del ciclo
macroeconómico.
Estos permiten realizar un estudio por frecuencias de la
correlación y el cambio de fase entre los principales
agregados macroeconómicos.
La ganancia se define como
es decir, es el cociente entre el espectro cruzado entre
yt y xt y el espectro de xt . Representa el coeficiente de
la regresión de la serie yt sobre xt para una determinada
frecuencia ω. Así, la función de ganancia mide el
incremento en la amplitud del ciclo correspondiente a
una determinada frecuencia ω de una serie yt dado un
incremento en la amplitud del ciclo correspondiente a la
misma frecuencia en la serie xt .
La función de fase expresada en radianes se define como
Para facilitar su interpretación se suele expresar en
unidades temporales a través de la operación Ph(ω)/ω,
que se anotará ph(ω). Esta función proporciona
información sobre el desfase - liderazgo o rezago- de
una serie respecto a la otra. Si ph(ω) es positiva
(negativa), los ciclos de Y asociados a la frecuencia ω
lideran (rezagan) a los ciclos de X caracterizados por la
misma frecuencia y el valor de dicha función indica por
cuántos períodos es el desfase.
Priestley (1981) y Hamilton (1994) plantean que las
funciones de ganancia y fase se relacionan de la
siguiente forma recomponiendo el espectro cruzado:
Por último, la coherencia entre dos series de tiempo se
define como
donde |.| denota la operación módulo. Es una función real
y cumple que 0 ≤ Coh(ω) ≤ 1. Es una medida del grado en
que dos series yt y xt se encuentran conjuntamente
influidas por ciclos correspondientes a una frecuencia ω.
Indica cómo es el movimiento conjunto de un grupo de
series de tiempo a lo largo del ciclo de negocios y cuán
fuerte es la correlación de las series para diferentes
frecuencias. Un valor próximo a uno (cero) para una
determinada frecuencia ω indica una elevada (escasa)
correspondencia entre las fluctuaciones con período 2π/ω
de las dos series.
Descargar