Análisis Empírico de la Volatilidad Estocástica y

Anuncio
Análisis Empírico de la Volatilidad Estocástica y
Saltos para Modelos en Tiempo Continuo de
Índices Bursátiles utilizando el EMM
Ana González
(Universidad del País Vasco)
Septiembre 2008
Resumen
Este artículo analiza, utilizando el Método Eficiente de Momentos EMM, un modelo en
tiempo continuo de difusión para la volatilidad estocástica con y sin saltos en
rentabilidad. Encontramos que la volatilidad estocástica por sí misma no es suficiente
para describir la distribución de rendimientos y que para aproximar con éxito su
dinámica es fundamental, además de considerar volatilidad estocástica, incorporar saltos
en rentabilidad. Con esta especificación logramos reproducir la asimetría y curtosis
existente en los rendimientos de cuatro índices bursátiles distintos: el S&P 500, para
datos diarios entre 1986 y 2005, y el DAX 30, IBEX 35 y CAC 40, estos últimos entre
1988 y 2003, extendiendo así la poca evidencia existente para datos estadounidenses a
otros índices de la zona euro.
Palabras clave: volatilidad estocástica, saltos, Método Eficiente de Momentos (EMM), SNP, polinomios
de Hermite, asimetría, curtosis
JEL: C13, C14, C15, C32
La autora agradece la ayuda económica recibida por el Plan Nacional de I+D+I (proyecto SEJ200606309) y en especial a Mª Paz Espinosa. También quiero agradecer a Alfonso Novales y Gonzalo Rubio
su inestimable ayuda.
1
Introducción
El éxito alcanzado en los últimos treinta años al utilizar modelos de difusión simples
para aproximar el proceso estocástico de los rendimientos de activos financieros no
tiene precedentes. Sin embargo, las llamadas sonrisas de volatilidad calculadas al
utilizar la volatilidad implícita del venerado modelo de Black-Scholes revelan que un
simple proceso geométrico browniano no es suficiente para capturar algunas
características importantes de los datos. Además, la evidencia empírica sugiere que las
decisiones financieras basadas en un marco en tiempo continuo serán satisfactorias sólo
si se construye sobre especificaciones razonables del proceso de rendimientos del activo
subyacente. En otras palabras, es fundamental que la distribución verdadera del
subyacente sea consistente con la distribución impuesta por el modelo teórico.
Datos de rendimientos de alta frecuencia muestran exceso de curtosis (distribuciones de
colas anchas; leptocurtosis), asimetría, efecto apalancamiento y agrupamiento de la
volatilidad. Capturar estas singularidades esenciales con un modelo paramétrico
parsimonioso y a la vez tratable es complicado.
Es aceptado en la literatura que la introducción de volatilidad estocástica o saltos puede
explicar estas características de los rendimientos de activos, pero los resultados para
datos estadounidenses son contradictorios, y muchas veces fracasan a la hora de ajustar
satisfactoriamente la dinámica del proceso de rendimientos del activo subyacente.
Andersen, Benzoni y Lund (2002), Chernov, Gallant, Ghysels y Tauchen (2003) y
Eraker, Johannes y Polson (2003) estiman modelos con volatilidad estocástica, saltos en
precios y, en los dos últimos, saltos en volatilidad. Todos ellos encuentran fuerte
evidencia empírica de la presencia de volatilidad estocástica y saltos en precios, pero no
coinciden respecto a la presencia e importancia de saltos en volatilidad.
Existe un desacuerdo similar respecto a la especificación entre los estudios que utilizan,
en lugar de series temporales de rendimientos del subyacente, datos de precios de
opciones. En este caso, la especificación se evalúa mediante ajuste de precios de
opciones, frente al ajuste de la distribución condicional de las series temporales. Bakshi,
2
Cao y Chen (1997) concluyen que además de la volatilidad estocástica, los saltos en
precios son fundamentales, pero Bates (2000), Eraker (2004) y Pan (2002) dicen que
éstos son económicamente pequeños y que sus beneficios son insignificantes.
En este artículo estimamos para datos diarios de rentabilidades del S&P 500, entre 1986
y 2005, del DAX 30, del IBEX 35 y del CAC 40, estos últimos entre 1998 y 2003, un
modelo en tiempo continuo de difusión para la volatilidad estocástica con y sin saltos en
rentabilidad, y analizamos los resultados sobre todo examinando la forma de la
distribución de rendimientos, en particular, los momentos de tercer y cuarto orden.
Con un modelo que incorpore ambos componentes, volatilidad estocástica y saltos en
rentabilidad, logramos reproducir la asimetría y curtosis existente en los datos de los
cuatro índices estudiados, lo que proporciona evidencia empírica apoyando la presencia
conjunta de ambos factores a la hora de describir la distribución de índices bursátiles
alejados de la normal, no sólo para el caso estadounidense para el que existen ya
evidencias en este sentido sino también para los tres índices europeos restantes,
confirmando el resultado. Encontramos además que incorporar saltos en rentabilidad
mejora el ajuste en términos de especificación del modelo, aunque el hecho de que éste
siga rechazándose sugiere que, a pesar de que junto a la volatilidad estocástica los saltos
en rentabilidad son los dos componentes más importantes para describir la dinámica de
las series temporales de rendimientos, pueden no ser suficientes y haga falta añadir algo
más, como saltos en volatilidad, tal y como documentan Broadie, Chernov y Johannes
(2007) y Eraker, Johannes, y Polson (2003) entre otros. Por otro lado, puede que el no
conseguir en ningún caso buena precisión en la estimación del parámetro de correlación
entre rentabilidad y varianza, sea consecuencia de imponer una correlación constante en
el tiempo. Esto indica una segunda línea de investigación futura: estudiar la posibilidad
de que la correlación dependa de una variable de estado, ya sea la rentabilidad o la
propia varianza, dejando que sea la estimación quién determine si es o no constante.
Estimamos los modelos de interés primero para USA, ya que, que nosotros sepamos,
únicamente existe literatura al respecto en este caso, lo que nos sirve de referencia tanto
en el desarrollo de la metodología de estimación como en el análisis de los resultados
intermedios y finales. Pero el objetivo último de este artículo es analizar las cuestiones
de interés para la zona euro, aportando una visión global sobre mercados del centro-sur
3
de Europa, sobre los que tenemos muy poca evidencia o nada en tiempo continuo. Por
ello, una vez obtenidos los resultados para datos estadounidenses y superadas las
dificultades metodológicas producidas en el proceso de estimación, examinamos los
mismos modelos para datos europeos, en particular, alemanes, españoles y franceses,
extendiendo así la poca evidencia existente a otros índices europeos.
Hasta no hace mucho, el mayor obstáculo en el desarrollo de esta literatura era la falta
de técnicas factibles para la estimación e inferencia de modelos generales en tiempo
continuo utilizando observaciones discretas.
La mayor dificultad a la hora de llevar a cabo una inferencia eficiente para un modelo
en tiempo continuo a partir de datos muestrales discretos, es que generalmente no suelen
estar disponibles expresiones cerradas para la densidad de transición discreta,
especialmente en presencia de variables de estado no observadas y serialmente
correladas. Este último es el caso más usual, por ejemplo, para modelos de volatilidad
estocástica.
La necesidad de un marco general eficiente para la inferencia nos lleva a adoptar una
variante del método simulado de momentos SMM (Simulated Method of Moments) de
Duffie y Singleton (1993), que junto al estimador bayesiano MCMC (Markov Chain
Monte Carlo), dominan al resto de metodologías, en tratabilidad y eficiencia
econométrica, especialmente en situaciones en donde una o más variables son latentes o
el proceso incorpora especificaciones de saltos.
El SMM iguala los momentos muestrales a los momentos simulados obtenidos a partir
de largas series simuladas usando el mecanismo generador de datos asumido (el modelo
estructural elegido). Nosotros empleamos el método de momentos eficiente EMM
(Efficient Method of Moments) propuesto por Bansal, Gallant, Hussey y Tauchen (1993,
1995) y desarrollado por Gallant y Tauchen (1996). El EMM es un procedimiento de
ajuste de momentos basado en simulación pero con ciertas ventajas. Refina el enfoque
SMM dando una receta específica para la generación de condiciones de momentos.
Éstos se obtienen de la expectativa del gradiente de la verosimilitud de un modelo semino-paramétrico auxiliar, SNP, en tiempo discreto que se aproxima a la distribución de
los datos de la muestra discreta, donde el gradiente de la verosimilitud no es más que la
4
primera derivada de la función de log-verosimilitud con respecto a los parámetros del
modelo auxiliar. Los momentos ajustados son por tanto los elementos del gradiente de
la verosimilitud de un modelo auxiliar. Si este modelo auxiliar aproxima bien la
distribución de los datos, entonces, las estimaciones de los parámetros del modelo
estructural son eficientes como si se hubiera empleado máxima-verosimilitud (Tauchen,
1997a; Gallant y Long, 1997). Esta es una característica atractiva del EMM, que obtiene
la misma eficiencia que máxima-verosimilitud cuando el gradiente de la verosimilitud
del modelo auxiliar (asintóticamente) abarca al gradiente de la verosimilitud del modelo
verdadero. Las densidades SNP son buenas candidatas para este propósito y
básicamente consisten en utilizar una densidad gaussiana como término principal al que
se añade una expansión polinómica para recoger las características no gaussianas del
proceso. Debido a la sofisticación de este último término, en este artículo consideramos
primero un modelo auxiliar más sencillo (en particular, un GARCH(1,1), que es
únicamente gaussiano, aunque dentro de la familia SNP) obteniendo unas estimaciones
iniciales para los modelos de volatilidad estocástica con y sin saltos en rentabilidad, que
nos servirán de referencia en las estimaciones al extender mediante polinomios el
modelo auxiliar.
En este sentido, en contra de lo que a priori esperábamos, parece que en general los
polinomios no contribuyen apenas a la capacidad explicativa de los momentos de tercer
y cuarto orden tan bien ajustados por el modelo de volatilidad estocástica con saltos
cuando el modelo auxiliar considerado es el GARCH(1,1). Únicamente para el IBEX 35
el ajuste global de ambas características es mejor al considerar polinomios en la
densidad SNP, aunque también depende de la valoración relativa que se asigne al ajuste
de uno u otro momento, y es que en el caso del IBEX 35, se mejora el ajuste en
asimetría, pero se pierde precisión al aproximar la curtosis. Algo similar ocurre para el
CAC 40. El ajuste conjunto de ambos momentos empeora al extender el modelo auxiliar
porque la asimetría se ajusta muy mal, pero la curtosis se reproduce con una precisión
prácticamente perfecta.
Los resultados se juzgan mediante los test de especificación y diagnosis de modelo
asociados. Al igual que el GMM (Generalized Method of Moments), el EMM se puede
usar para construir un estadístico Chi-cuadrado para un test conjunto de sobre
identificación, que nos dirá si el modelo estimado es el correcto, y que permite
5
comparar representaciones no anidadas. Además, en caso de fracaso del modelo, la
inspección del gradiente de la verosimilitud puede sugerir razones de dicho fracaso, ya
que los diferentes elementos del gradiente de la verosimilitud se corresponden con
diferentes características de los datos.
2
Modelos y Metodología de Estimación
2.1 Modelos
2.1.1 Modelo de Volatilidad Estocástica SV
El agrupamiento de la volatilidad es una característica importante de los datos. La
volatilidad estocástica es una extensión natural de los modelos de difusión ampliamente
utilizados en la literatura de valoración de activos. Hull y White (1987), Melino y
Turnbull (1990), Wiggins (1987) entre otros, generalizan la tradicional especificación
del movimiento browniano geométrico sugiriendo un proceso propio para la volatilidad
estocástica. Así, Heston (1993), en una contribución clave para la literatura de
valoración de opciones admite, a diferencia de los anteriores, la correlación entre los
brownianos del subyacente y la varianza, además de obtener expresiones de valoración
de opciones mediante la inversión de Fourier de la función característica condicional.
El modelo de volatilidad estocástica fue propuesto para describir datos de mercados
financieros por Clark (1973), Tauchen y Pitts (1983), Taylor (1986) y otros. El atractivo
de este modelo es que proporciona una especificación simple para los movimientos en
los precios explicando, en términos cualitativos, singularidades generales de los datos
recogidos de los mercados financieros como son la leptocurtosis y la persistencia en
volatilidad. Además, está relacionado con procesos de difusión utilizados para
valoración de derivados (Harvey et al., 1994; Danielsson, 1994).
Denotamos S t el precio en el instante t de un índice bursátil y consideramos el
siguiente modelo de volatilidad estocástica en raíz cuadrada, SV:
6
dS t
= µdt + Vt dW1,t
St
(1)
donde el proceso de varianza V obedece un proceso de difusión con reversión a la
media:
dV t = (α − β Vt )dt + η Vt dW 2 ,t
(2)
Los factores W1 y W2 son movimientos brownianos estándar con correlación
cov(dW1,t , dW2,t ) = ρdt .
La volatilidad estocástica induce exceso de curtosis gobernada en su mayor parte por los
parámetros de volatilidad α , β y η . Más concretamente, el exceso de curtosis se
genera por la volatilidad de la varianza, η . Si la varianza es muy volátil la probabilidad
de observar grandes shocks en rendimientos aumenta, aumentando así la anchura en las
colas de la distribución. β es la velocidad con la que el proceso revierte a la varianza de
largo plazo ( α β ), y captura la persistencia en varianza. Un valor de β distinto de cero
sugiere persistencia en varianza, mientras que si β es cero, entonces la varianza
condicional seguirá un paseo aleatorio. La asimetría que generalmente se observa en el
proceso de rendimientos se puede capturar mediante una correlación negativa entre
shocks en la varianza y el proceso de rendimientos, es decir, ρ < 0, ya que en este caso
la volatilidad aumenta cuando los precios disminuyen, lo que hace más probable que se
produzcan grandes rendimientos negativos. Esta especificación en raíz cuadrada para la
varianza es particularmente atractiva para aplicaciones en valoración de opciones, desde
que Heston (1993) proporcionara una solución en forma cerrada para el precio de la
opción cuando el proceso subyacente de rendimientos obedece un modelo de este tipo.
El supuesto fundamental es que el precio del riesgo de la varianza se supone
proporcional a la raíz cuadrada del nivel de riesgo.
2.1.2 Modelo de Volatilidad Estocástica con Saltos SVJ
Como ya hemos dicho anteriormente, los modelos de volatilidad estocástica están
específicamente diseñados para capturar las propiedades sobresalientes de la volatilidad
como son la aleatoriedad y la persistencia. Sin embargo, uno de los descubrimientos
7
recientes más importantes es que parece que estos modelos no son capaces de
caracterizar todos los aspectos de la distribución de rendimientos de activos. En efecto,
parece que, dado un ajuste razonable de la dinámica de la volatilidad condicional, los
modelos de volatilidad estocástica no pueden ajustar la alta curtosis condicional de los
rendimientos (colas anchas) documentada en la literatura para muchas clases de activos
financieros.
Extenderemos por tanto la especificación anterior incluyendo un componente salto:
(
)
dS t
= µ − λ(t )k dt + Vt dW1,t + k (t )dq t
St
(3)
donde el proceso de varianza V obedece un proceso de difusión con reversión a la
media dado por la expresión (2):
dVt = (α − βVt )dt + η Vt dW2,t
Los factores W1 y W2 son movimientos brownianos estándar con correlación
cov(dW1,t , dW2,t ) = ρdt ; q es un proceso de Poisson, incorrelado con W1 y W2 y
gobernado por la intensidad de salto λ(t ) , de forma que Pr (dqt = 1) = λ(t )dt donde se
supone que la intensidad de salto es constante λ(t ) = λ0 . El factor k (t ) denota la
magnitud de salto en el proceso de rendimientos si se da un salto en el instante t . Se
supone
que
dicha
(
magnitud
de
salto
se
distribuye
como
una
normal:
)
ln (1 + k (t ) ) ≈ N ln(1 + k ) − 0.5δ 2 , δ 2 . Por último, k mide la magnitud media de salto,
de manera que la tasa de crecimiento media provocada por los saltos es λ(t )k . El
término de corrección λ(t )kdt compensa el componente salto.
Desde un punto de vista económico, los saltos en rendimientos de acciones se justifican
fácilmente. La llegada discreta de nueva información induce una revisión instantánea de
los precios de las acciones. Añadir un componente salto debería mejorar el ajuste a las
series temporales de rendimientos observadas, puesto que los saltos ayudarán a
acomodar los outliers así como la asimetría en la distribución de rendimientos. La
8
presencia de outliers depende de la magnitud y variabilidad del componente salto,
mientras que la asimetría se controla mediante la magnitud media de salto, k , de
manera que si ésta es negativa (positiva) entonces es reflejo de asimetría negativa
(positiva). En este sentido, el modelo con saltos tiene dos posibles fuentes de asimetría:
la magnitud media del salto k y la correlación entre brownianos ρ .
La presencia conjunta de los factores de salto y volatilidad estocástica proporciona
flexibilidad adicional para capturar las características sobresalientes de los
rendimientos, incluyendo la asimetría y leptocurtosis.
2.2 Metodología de Estimación: EMM
La estrategia de estimación es la siguiente: en un primer paso, se obtiene una estimación
de la densidad condicional de la serie de rendimientos del índice, basada en la
estimación por quasi-máxima verosimilitud (QML). Si se implementa con cuidado, los
elementos del gradiente de la verosimilitud QML resultantes proporcionan una
representación adecuada de las singularidades sobresalientes de los datos. En un
segundo paso, se estiman los parámetros estructurales (los del modelo estructural)
buscando el vector de parámetros que permita que la difusión asumida (representada
como el valor esperado del gradiente de la verosimilitud QML) simule las
características esenciales de los datos, de la manera más próxima posible. Formalmente,
en esta etapa el procedimiento sigue al GMM al minimizar una forma cuadrática de los
elementos del gradiente de la verosimilitud esperados. Este paso se implementa
mediante simulación, ya que no es factible calcular el gradiente de la verosimilitud bajo
el modelo real. Consecuentemente, y como ya se ha comentado anteriormente, este
enfoque es, en ciertos aspectos, similar al SMM de Duffie y Singleton (1993). Además,
debido a que el paso final se basa en los principios del GMM, el estadístico Chicuadrado de bondad de ajuste usual de sobre identificación de restricciones sirve aquí
como un test de especificación general, y, en extensión, los elementos individuales del
gradiente de la verosimilitud se asocian a distintas características de los datos, por lo
que el ajuste de cada uno de estos elementos indica cómo de bien se están acomodando
los rasgos particulares de los datos.
2.2.1 Modelo Auxiliar
9
La clave para aplicar con éxito el EMM es elegir un modelo auxiliar que se aproxime
bien a la distribución condicional del proceso de rendimientos. Gallant y Long (1997)
demuestran que, dentro de la clase de modelos en tiempo discreto, las densidades SNP
(Semi-NonParametric) son buenas candidatas para este propósito.
Los modelos SNP se basan en la noción de que puede usarse una expansión polinómica
como estimador no paramétrico de una función de densidad (veáse Gallant y Nychka,
1987). Además, la densidad SNP permite un término principal que puede usarse para
capturar las características sistemáticas dominantes de la dinámica del rendimiento (en
tiempo discreto), dando una representación parsimoniosa para la densidad condicional
de las series observadas. El paso inicial de ajustar dicha densidad condicional con un
modelo semi-no-paramétrico es importante y costoso. La estrategia básica es utilizar
una expansión de polinomios de Hermite al cuadrado como aproximación de la
densidad condicional. En general, esto implica utilizar una densidad gaussiana como
término principal, mientras que los polinomios adaptan las características no gaussianas
del proceso. Esto sugiere una selección cuidadosa del término principal, eligiendo como
modelo el mejor candidato posible para el proceso de rendimientos, mientras que
permitimos que la expansión polinómica de Hermite adapte las desviaciones de este
término principal. Por último, la calidad del ajuste de los distintos modelos se evalúa
utilizando criterios de información estándar, como son los criterios Akaike (AIC),
Bayesiano (BIC) y Hannan-Quinn (HQC), así como mediante test de especificación,
teniendo en cuenta que el comúnmente utilizado criterio de Akaike tiende a
sobreparametrizar los modelos.
Más específicamente, el modelo auxiliar SNP se construye de la forma siguiente. Sean
rt , xt = (rt −1 ,..., rt − L ), t = 1,..., ∞ las variables aleatorias correspondientes a los procesos de
rendimientos
del
índice
y
retardos
de
dichos
rendimientos
y
~
rt , ~
xt = (r~t −1 ,, r~t − L ), t = 1,..., n los datos muestrales observados. El hecho de que la
volatilidad sea una variable latente y serialmente correlada con la serie de rentabilidades
hace que la densidad de transición y por tanto la verosimilitud sea imposible de
computar. El objetivo es entonces estimar la densidad condicional p(rt xt ) que describe
completamente el proceso. Gallant y Tauchen (1989) proponen una clase de densidades
condicionales SNP, f K (r x; ξ ) , muy adecuadas para este propósito, ya que para un K
10
suficientemente alto f K es una buena aproximación de la densidad condicional p(rt xt )
(
)
~
y además, si los parámetros ξ se estiman por QML, f K r x; ξ es un estimador no
paramétrico consistente (Gallant y Nychka, 1987), eficiente (Fenton y Gallant, 1996a;
Gallant y Long, 1997) y con propiedades cualitativas deseables (Fenton y Gallant,
1996b).
El proceso que se está analizando es rt (ψ ) donde ψ son los parámetros del modelo
estructural a estimar. υt (ξ ) = Et −1 [rt (ψ )] es la media condicional del modelo auxiliar,
ht (ξ ) = Vart −1 (rt (ψ ) − υt (ξ )) es la varianza condicional y z t (ξ ) =
rt (ψ ) − υt (ξ )
ht (ξ )
es el
proceso estandarizado, que se supone es i.i.d. De esta forma, una vez elegida la
especificación de la parte principal de la SNP, es decir, una vez elegidos los modelos
para la media, υt , y varianza del proceso, ht , la estimación QML del modelo auxiliar se
lleva a cabo de la forma siguiente:
~
1 n
ξ = arg max ∑ ln [ f K (~
rt | ~
xt ; ξ )]
ξ
n t =1
(4)
donde ξ son los parámetros del modelo auxiliar a estimar mediante QML y f K es la
función de densidad SNP que toma la siguiente forma:

[PK (z t , x t )]2  φ(z t )
f K (rt | x t ; ξ ) =  ν + (1 − ν )
2


∫R [PK (u , x t )] φ(u )du  ht

(5)
con ν pequeño (0.01); esta mixtura en la densidad condicional se utiliza para evitar la
inestabilidad durante la estimación EMM, ya que, en su defecto, pueden darse
problemas numéricos al evaluar la función f K si, para una trayectoria simulada dada,
PK ( z t , xt ) es igual a cero. φ(⋅) es la densidad normal estándar,
11
zt =
rt − υ t
(6)
ht
y PK ( z , x ) es un polinomio en ( z , x ) de grado K = (K z , K x ) dado por la expresión
siguiente:
Kz
Kz

 Kx
PK ( z , x ) = ∑ a i (x )z i = ∑  ∑ a ij x j  z i , a 00 = 1
i = 0  j =0
i =0

(7)
El término constante a 00 se fija en 1 para obtener una representación única. Con esta
normalización, la densidad f K se interpreta como una expansión cuyo término principal
es la densidad normal φ( z ) y cuyos términos de orden superior inducen desviaciones de
la normal.
La ventaja de la expansión rectangular (7) de PK ( z, x ) es que éste se interpreta como un
polinomio en z de grado K z , cuyos coeficientes son a su vez polinomios de grado K x
en x .
La expresión (5) para la densidad SNP, f K , se obtiene aproximando mediante
polinomios PK ( z, x ) 1 la función de densidad de z t y teniendo en cuenta la relación (6)
entre rt y z t . En efecto, debido a esta relación, sabemos que
f (rt xt ) =
1  rt − υt
g
ht  ht




donde g es la función de densidad de z t que se aproxima por
Se toma además una forma específica para los polinomios PK (z , x ) , los llamados polinomios
ortogonales de Hermite (veáse Gallant, Hsieh y Tauchen, 1991 y Fenton y Gallant, 1996a). El Apéndice
A proporciona las expresiones y resultados relativos a estos polinomios.
1
12
g K (z, x ) =
1
[PK (z t , x t )]2 φ(z t )
c(x )
con
c( x ) = ∫ [PK (u, x )] φ(u )du
2
R
para garantizar que la integral (de la función de densidad) sea 1.
Con esta especificación de la SNP, la principal tarea de la expansión polinómica no
paramétrica en la densidad condicional es capturar cualquier exceso de curtosis en el
proceso de rendimientos y también cualquier asimetría que no haya sido acomodada por
el término principal.
2.2.2 EMM
Una vez estimados los parámetros del modelo auxiliar, la esperanza de la función de
densidad SNP de dicho modelo proporciona las condiciones de momentos para la
estimación en tiempo continuo del modelo estructural mediante el método de momentos
simulado.
N
Denotemos {rˆt (ψ ), xˆ t (ψ )}t =1 a una simulación del modelo estructural utilizando el vector
de parámetros ψ . Entonces, la estimación de ψ se define de la forma siguiente:
( )
( )
~ '~
~
ψˆ = arg min m N ψ , ξ I −1m N ψ , ξ 
ψ 

(8)
( )
~
donde m N ψ , ξ es la esperanza de la función f K evaluada en la estimación quasi~
máxima verosímil de los parámetros del modelo auxiliar ξ 2:
2
La
( )
expresión
~
m N ψ, ξ = ∫
(9)
~
∂ ln f K r x; ξ
(
∂ξ
)
es
una
aproximación
(Monte
Carlo)
de
la
expectativa:
dP(r x; ψ ) .
13
( )
~
1
mN ψ, ξ =
N
N
∑
(
~
∂ ln f K rˆt (ψ ) xˆ t (ψ ); ξ
)
(9)
∂ξ
t =1
~
y la matriz de pesos I −1 es una estimación consistente de la matriz de covarianzas
asintótica de f K del modelo auxiliar que se estima a partir del gradiente3:
(
~~ ~

~ 1  ∂ ln f K rt xt ; ξ
I = ∑
∂ξ
n t =1 

n
)  ∂ ln f (~r ~x ; ξ~ )
K
t
∂ξ


'
t
(10)


Los resultados se juzgan mediante los test de especificación y diagnosis de modelo
asociados. Si nos fijamos en la función objetivo, vemos que el estimador EMM es un
estimador Chi-cuadrado para ψ (Gallant y Tauchen, 1996). En otras palabras, el EMM
es un método basado en simulación que usa la función de densidad de un modelo
auxiliar para definir una función objetivo GMM, la cual sabemos se distribuye como
una Chi-cuadrado y puede usarse para contrastar la adecuación del modelo. Más
concretamente,
( )
el
valor
mínimo
alcanzado
por
la
forma
cuadrática
( )
~ '~
~
f = m N ψ , ξ I −1 m N ψ , ξ (función objetivo), multiplicada por el tamaño muestral n ,
se distribuye como una χ gl2 , siendo el número de grados de libertad la diferencia entre el
número de condiciones de ortogonalidad (condiciones de momento) utilizadas, dim(ξ ) ,
y el número de parámetros estructurales estimados, dim(ψ ) . Así, se construye un
estadístico Chi-cuadrado para contrastar la sobre identificación de restricciones
(omnibus test), donde la hipótesis nula es que el modelo estructural está correctamente
especificado y que permite comparar representaciones no anidadas (Gallant, Hsieh y
Tauchen, 1997). Por tanto, bajo la hipótesis nula de que el modelo estructural es el
correcto se deduce que:
(
)
~
∂ ln f K r | x; ξ
~
~
. Lo hacemos numéricamente de la
Para determinar m N ψ , ξ e I , necesitamos calcular
∂ξ
forma siguiente:
Para j = 1,..., lk , donde lk es la longitud de ξ (es decir, el número de parámetros del modelo
auxiliar):
~
~ ~
~
~
~
~ ~
~
~
~
ln f K r | x; ξ 1 ,..., ξ j −1 , ξ j + eps, ξ j +1 ,..., ξ lk − ln f K r | x; ξ 1 ,..., ξ j −1 , ξ j − eps, ξ j +1 ,..., ξ lk
∂ ln f K r | x; ξ
=
∂ξ j
2 × eps
( )
3
(
)
(
)
(
)
donde eps = 0.01.
14
( )
( )
~ '~
~ d
2
n ⋅ m N ψˆ , ξ I −1m N ψˆ , ξ 
→ χ dim
(ξ )−dim (ψ )
es decir,
( )
~
2
n ⋅ f ψˆ , ξ ~ χ dim
(ξ )−dim (ψ )
(11)
( )
~
donde f ψˆ , ξ es el valor final de la función objetivo resultante de la estimación.
En caso de fracaso del modelo, si se rechaza la hipótesis nula, es útil examinar los
~
elementos individuales del gradiente de la verosimilitud m N ψˆ , ξ que nos sugerirán
( )
razones de dicho fracaso, ya que los diferentes elementos del gradiente de la
verosimilitud se corresponden con diferentes características de los datos. Más
concretamente, debemos inspeccionar los estadísticos t , es decir, los elementos del
gradiente de la verosimilitud divididos por sus errores estándar, que vienen dados por la
raíz cuadrada de los elementos diagonales de la matriz:
S=
(
(
1 ~
~
I − Mψ Mψ 'IMψ
n
)
−1
Mψ '
)
(12)
de manera que los estadísticos t son:
tˆ =
( )
~
m N ψˆ , ξ
(13)
diag (S )
( )
~
donde M ψ es la derivada parcial del gradiente de la verosimilitud m N ψˆ , ξ respecto a
ψ 4:
4
Calculamos la matriz M ψ numéricamente. Cada columna j = 1, , dim(ψ ) = lp vendrá dada por:
(
)
(
~
~
m N ψˆ 1 ,..., ψˆ j −1 , ψˆ j + eps, ψˆ j +1 ,..., ψˆ lp , ξ − m N ψˆ 1 ,..., ψˆ j −1 , ψˆ j − eps, ψˆ j +1 ,..., ψˆ lp , ξ
2 × eps
)
donde eps = 0.01.
15
( )
~
∂m N ψˆ , ξ
Mψ =
∂ψ
(14)
Valores altos de estos estadísticos t revelan características que no están bien
aproximadas5.
Para este mismo propósito de encontrar razones de porqué el estadístico Chi-cuadrado
ha rechazado el modelo, los quasi-estadísticos t , que están subestimados, son
generalmente adecuados y son más fáciles de computar porque evitan calcular la
aproximación numérica de M ψ (Gallant y Tauchen, 1997). Estos quasi-estadísticos t se
~
calculan tomando los elementos diagonales de I como aproximaciones de los errores
estándar descritos anteriormente:
∧
qt =
( )
~
m N ψˆ , ξ
diag (qS )
(15)
donde
qS =
1~
I
n
(16)
Pero, como ya hemos dicho, este enfoque ignora el hecho de que el vector gradiente de
la verosimilitud se calcula en una estimación ψ̂ y no en el verdadero valor, por lo que
estos estadísticos t aproximados son parcialmente más bajos, lo que conlleva una
perdida de potencia si se comparan con los percentiles de la distribución normal. A
pesar de ello, Gallant, Hsieh y Tauchen (1997), subrayan que los quasi-estadísticos t
pueden ser suficientes, ya que éstos no se utilizan para inferencia, sino para únicamente
deducir sugerencias de cómo el modelo estructural puede ser mejorado.
5
Aunque se pueden calcular los intervalos de confianza de Wald para ψ j , j = 1,, dim(ψ ) de la forma
usual a partir de errores estándar asintóticos obtenidos como la raíz cuadrada de los elementos diagonales
−1
1
~
de la matriz Cov(ψˆ ) = M ψ ' I M ψ , estos intervalos, que son simétricos, son algo engañosos ya que no
n
reflejan el rápido incremento en la función objetivo EMM cuando se aproxima a un valor para el cual las
simulaciones del modelo estructural se vuelven explosivas.
(
)
16
3
Datos
Disponemos de los precios diarios del índice S&P 500 desde el 2 de enero de 1986
hasta el 30 de diciembre de 2005, una muestra de 5047 observaciones, pero se trabaja
con la serie de rendimientos, más concretamente con las diferencias logarítmicas en
porcentaje, es decir, si {S 0 , S1 ,..., S n } son los precios diarios ( n = 5046), trabajamos con
la serie
st = 100 × {ln S1 − ln S 0 , ln S 2 − ln S1 ,..., ln S n − ln S n−1 } de tamaño
n . La
frecuencia muestral diaria nos permite capturar fluctuaciones de alta frecuencia en el
proceso de rendimientos que son críticas en la identificación del componente de salto.
En cuanto a los índices europeos DAX 30, IBEX 35 y CAC 40, los datos de
rentabilidades diarias van comprendidos entre el 4 de enero de 1988 hasta el 31 de
diciembre de 2003, lo que supone un total de 4023 observaciones en el caso del DAX
30, 3996 observaciones en el caso del IBEX 35 y 4010 para el CAC 40. Al igual que
para el S&P 500 se trabaja con la serie de rendimientos en porcentaje, st , a la que, por
simplicidad, nos referiremos como rendimientos a lo largo de todo el trabajo.
La Tabla 1 presenta la media, desviación típica, asimetría y curtosis muestral de las
cuatro series, el resultado del contraste de Dickey-Fuller aumentado (ADF) de raíces
unitarias y las correlaciones entre los distintos índices. Vemos que la hipótesis de raíz
unitaria se rechaza a favor de la estacionariedad de la serie de rendimientos, condición
necesaria en cualquier método de momentos basado en la estacionariedad del proceso
generador de rendimientos. Los rendimientos de los cuatro índices bursátiles se
representan en la Figura 1. Éstos presentan un exceso de curtosis importante, lo que
implica colas más anchas en comparación con la distribución normal. También se
observa asimetría negativa, es decir, largas colas en la dirección de los rendimientos
negativos. Por tanto, el modelo de generación de datos que se asuma para los
rendimientos debe implicar distribuciones marginales no normales, con colas anchas y
posible asimetría negativa.
17
4
Modelo Auxiliar Sin Parte No Paramétrica
A pesar de que hemos justificado la necesidad de utilizar como modelo auxiliar la SNP,
eligiendo con cuidado, primero el término principal de manera que recoja las
características más importantes de los datos y segundo, el orden de la expansión
polinómica de Hermite, en esta primera aproximación al problema, y debido a la
sofisticación del mismo, nos decantamos por un modelo auxiliar más sencillo con un
doble objetivo, siempre conscientes de las limitaciones que ello conlleva. En primer
lugar, obtendremos unas estimaciones iniciales que pueden servirnos de referencia, y lo
que es más importante, en segundo lugar, este primer ejercicio de estimación nos
ayudará a ir aprendiendo sobre las dificultades metodológicas, así como de los
problemas numéricos e inferenciales que irán surgiendo al analizar en estos modelos
más simples las cuestiones de interés. Consideraremos así un GARCH(1,1) como
modelo auxiliar, sin considerar parte no paramétrica en la densidad. Sin embargo, la
elección de este modelo auxiliar sencillo imposibilita evaluar los resultados mediante
los test de especificación y diagnosis de modelo asociados al método de estimación
EMM. No es posible construir el estadístico Chi-cuadrado del test conjunto de sobre
identificación, ya que para ello es necesario que el número de parámetros estructurales
sea menor o igual que el número de parámetros auxiliares, dim(ψ ) ≤ dim(ξ ) (condición
necesaria, véase Gallant, Hsieh y Tauchen, 1997). Esta condición se precisa también
para poder obtener una estimación de la matriz de covarianzas asintótica de la
estimación del vector de parámetros estructural, así como para calcular los errores
estándar del gradiente de la verosimilitud, necesarios para construir los estadísticos t , es
decir, los elementos del gradiente de la verosimilitud divididos por sus errores estándar,
cuya inspección puede sugerirnos razones del fracaso del modelo estimado, si esto
sucede. No obstante, para este mismo propósito, los quasi-estadísticos t , a pesar de
estar subestimados, son generalmente adecuados y su cálculo es perfectamente factible
en este caso. Además, son más fáciles de computar porque evitan calcular la
aproximación numérica de la derivada parcial del gradiente de la verosimilitud con
respecto a los parámetros estructurales requerida por los estadísticos t . En cualquier
caso, hay que tener en cuenta que este modelo auxiliar está incluido dentro de los
modelos SNP en donde la parte principal de la densidad es la de un GARCH(1,1) y no
se consideran polinomios de Hermite.
18
La elección del modelo no se realiza de manera arbitraria. Es conocido que un modelo
ARMA es un candidato natural para la media condicional, mientras que una
especificación ARCH proporciona generalmente una caracterización razonable de la
pronunciada heterocedasticidad condicional de los rendimientos de acciones. Por tanto,
parece lógico elegir entre un tipo de modelo ARMA-ARCH.
En muchos casos, la especificación ARCH que recoge la estructura de autocorrelación
en varianza precisa de un elevado número de retardos, de manera que para evitar que el
alto número de coeficientes en términos autorregresivos produzca una importante
pérdida de precisión en su estimación, nos decantamos por una parametrización
alternativa, el modelo GARCH(1,1) de Bollerslev (1986).
Por otra parte, debido a la necesidad de introducir un orden relativamente alto en el
término autorregresivo de la ecuación de la media para poder capturar la estructura de
correlación de los rendimientos, y teniendo en cuenta que este comportamiento se ajusta
bastante bien mediante un único término MA(1), decidimos estimar un modelo MA(1)
para eliminar cualquier estructura dinámica de la media y centrarnos así en la dinámica
de la varianza. Tomamos, por tanto, un GARCH(1,1) como modelo auxiliar, aunque en
realidad se está considerando una especificación MA(1) para la esperanza condicional y
un GARCH(1,1) para la varianza condicional.
Por tanto, antes de estimar el modelo auxiliar, prefiltramos los datos usando un modelo
simple MA(1) para los rendimientos diarios y reescalamos los residuos para obtener la
media y varianza muestral del conjunto de datos original y trabajar con los shocks de los
rendimientos en lugar de hacerlo con los propios rendimientos. Más concretamente, se
realiza un procedimiento en dos etapas. En la primera etapa se estima la estructura de
autocorrelación MA(1), st = θ 0 + ε t − θ1 ε t −1 y se construyen los residuos. En la segunda
etapa se estima para
rt = E (s t ) + stdev(st )
εˆt − E (εˆt )
stdev(εˆt )
(17)
el modelo auxiliar dado por las expresiones para la media y varianza del proceso
siguientes:
19
υt = 0
ht = γ 0 + γ 1rt 2−1 + ϑ1ht −1 ~ GARCH (1,1)
(18)
de manera que los parámetros del modelo auxiliar a estimar son ξ = (γ 0 , γ 1 ,ϑ1 ) y se
estiman mediante QML según la expresión (4)6.
A partir de ahora consideraremos esta serie de residuos final rt como la serie de
rendimientos observada.
La Tabla 2 muestra en el Panel A las estimaciones obtenidas para los cuatro índices
bursátiles estudiados7, así como sus correspondientes errores estándar, que no son más
que la raíz cuadrada de los elementos diagonales de la matriz de pesos de la forma
cuadrática a minimizar en la estimación de los parámetros estructurales, es decir, la
inversa de la matriz de información dada por la expresión (10).
4.1 Modelo Estructural
Una vez estimados los parámetros del modelo auxiliar, tenemos que estimar los del
modelo estructural, primero el modelo de volatilidad estocástica SV y segundo el
modelo de volatilidad estocástica con saltos SVJ.
Durante el desarrollo de la estimación, cada vez que se evalúa la forma cuadrática f a
minimizar, se simula una trayectoria distinta a partir del modelo estructural. Este es un
tema importante que complicará la estimación, ya que si las simulaciones son muy
diferentes unas de otras en algún sentido, los parámetros que se caracterizaron como
óptimos con la realización anterior, pueden no ser tan buenos con la nueva, lo que
podría generar dificultades de convergencia.
N
Cada serie de rentabilidades simulada {rˆt (ψ )}t =1 se obtiene, tal y como se detalla en los
Apéndices C, para SV, y D, para SVJ, después de generar dos muestras antitéticas de
6
El modelo auxiliar escogido determina la función de densidad SNP, f K , que entra en la ecuación (4) y
que depende del vector de parámetros ξ . La forma especifica de f K se muestra en el Apéndice B.
En todos los casos γ 0 presenta un valor estimado muy alto, debido a que se trabaja con la serie de
rendimientos en porcentaje, lo que hace que dicho parámetro se multiplique por 1002.
7
20
tamaño (10000 + 1000) x 10 + 1000 a partir del modelo en tiempo continuo mediante
una discretización de Euler de primer orden con frecuencia de paso de 1/10 días. Se
descartan los primeros 1000 valores simulados para eliminar el efecto de las
condiciones iniciales y se suman de 10 en 10 el resto de valores para obtener finalmente
una serie de rentabilidades diarias de tamaño N = 11000.
Es crucial que las realizaciones que se generen para la estimación (las simulaciones)
sigan un proceso similar al de los datos reales, de manera que el modelo estructural
reproduzca las características del proceso que generó los datos. En caso contrario es
muy difícil que se pueda estimar debido a que el método de estimación es numérico.
Por ello, antes de estimar, comprobaremos que las simulaciones generadas a partir del
vector inicial de parámetros ψ 0 toman valores razonables de rentabilidades diarias, y,
por supuesto, también tiene que ser así cuando simulemos a partir de la estimación final
ψ̂ .
Las Tablas 3, 4 y 5 recogen los resultados, siempre en porcentaje y base diaria8,
obtenidos para cada índice y cada modelo estructural (SV y SVJ): en el Panel A cuando
el modelo auxiliar considerado es un GARCH(1,1) sin parte no paramétrica en la
función de densidad (que es el caso que nos ocupa) y en el Panel B cuando este modelo
auxiliar sencillo se generaliza, tal y como veremos más adelante, al admitir polinomios
de Hermite en la función de densidad. Fijémonos, por tanto en el Panel A de dichas
tablas. La Tabla 3 muestra en el Panel A las estimaciones obtenidas, así como el valor
de la función objetivo alcanzado en la minimización, y el Panel A de la Tabla 4 los
valores de los quasi-estadísticos t , calculados a partir de las expresiones (15)-(16), que,
recordemos, a pesar de estar subestimados, son generalmente adecuados y su cálculo
En la minimización imponemos la restricción no lineal η ≤ 2α , que garantiza que el proceso de
varianza sea positivo (Cox et al., 1985). Además, como α , β y η deben ser positivos, tenemos que fijar
una cota inferior distinta pero cercana a cero para estos parámetros. En el caso de β hay que ser
cuidadosos en este punto, ya que si β toma un valor muy próximo a cero, la varianza tomará un primer
valor enorme, debido a que al simular iniciamos el proceso de varianzas en su media incondicional α β
(tal y como se detalla en el Apéndice C), y aún descartando las 1000 primeras observaciones para
eliminar el efecto de las condiciones iniciales, hará que las rentabilidades sean también disparatadas. En
vista de los resultados obtenidos al analizar las simulaciones generadas a partir de distintos valores para
α y β fijamos 10-2 como cota inferior más razonable para β . No se observan complicaciones añadidas
para el resto de parámetros en este sentido.
8
21
perfectamente factible en este caso en el que la elección del modelo auxiliar
GARCH(1,1) imposibilita evaluar los resultados mediante el resto de test de
especificación y diagnosis de modelo asociados al método de estimación EMM. No
podemos calcular los estadísticos t y realizar los contrastes de significatividad
individual de los componentes del gradiente de la verosimilitud, para ver si son
estadísticamente nulos.
Pero, por otro lado, lo que es verdaderamente importante, en nuestra opinión, es
examinar qué aspectos de asimetría, curtosis, son explicados por el vector de
parámetros final que no se recogen con el inicial. ¿Son vectores realmente distintos?.
Para constatarlo examinamos mediante simulación si las propiedades estadísticas que
generan los vectores inicial y final de parámetros son diferentes, y si éstas son más
parecidas a las de la serie real de datos cuando simulamos a partir de la estimación.
Simulamos por tanto 1000 trayectorias a partir de cada uno de los vectores, ψ 0 y ψ̂ ,
para las cuales calculamos la media, desviación típica, asimetría, curtosis, mínimo y
máximo. El Panel A de la Tabla 5 muestra la media de dichos estadísticos sobre las
1000 simulaciones, así como los estadísticos básicos obtenidos para los datos. La
comparación de resultados es importante, así como el grado de ajuste obtenido. Éste lo
cuantificamos mediante una función de pérdida específica que nos indica la capacidad
explicativa de los momentos de tercer y cuarto orden, ya que nos dice qué porcentaje de
la asimetría y curtosis observada en los datos no llegamos a ajustar, tanto individual
como conjuntamente. Los valores obtenidos en cada caso para la función de pérdida
siguiente:
FPasimetría = 100
FPcurtosis = 100
abs (asimetríadatos − asimetríaψ )
abs (asimetríadatos )
abs (curtosisdatos − curtosisψ )
abs (curtosisdatos )
(19)
FPconjunta = 0.5 × FPasimetría + 0.5 × FPcurtosis
se recogen también en el Panel A de la Tabla 5. Señalar que en la función de pérdida
conjunta asignamos el mismo peso a ambos momentos.
22
4.1.1 Modelo Estructural: Volatilidad Estocástica SV
Consideramos en primer lugar el modelo estructural de volatilidad estocástica en raíz
cuadrada dado por las ecuaciones (1) y (2), de manera que los parámetros a estimar son
ψ = ( µ, α, β , η, ρ ) .
En el caso del S&P 500, tomamos como condición inicial el vector de parámetros
ψ 0 = ( µ, α, β , η, ρ ) = (0.0300,0.0070,0.0200,0.0700,-0.6000), que son las estimaciones
obtenidas, mediante el EMM, por Andersen, Benzoni y Lund (2002) para el mismo
modelo estructural de volatilidad estocástica con el que intentan modelar también el
índice S&P 500 pero para un intervalo temporal más amplio, de 02/01/1953 a
31/12/1996.
La falta de trabajos para datos europeos implica desconocer posibles valores para los
parámetros, por lo que decidimos realizar una búsqueda para las condiciones iniciales,
con el objetivo de seleccionarlas en función de lo que se quiere explicar. Tomamos
distintos valores para cada uno de los parámetros estructurales dentro de un intervalo de
valores razonables y simulamos para cada uno de los vectores de parámetros resultantes.
Finalmente, tomamos como vector inicial en la estimación el correspondiente a la f
mínima.
La forma cuadrática f toma valores entre 0.0031 y 2.6514 en el caso del DAX 30 y
ψ 0 = ( µ, α, β , η, ρ ) = (-0.03,0.05,0.015,0.05,-0.2). Se encuentran también otros vectores
de parámetros para los que f es baja (en torno a 10-3), observando que en todos ellos
α = 0.05 y β = 0.015. Para el IBEX 35, ψ 0 = ( µ, α, β , η, ρ ) = (-0.03,0.05,0.01,0.15,-0.4)
que se corresponde con f = 0.0041, mínima. En todos los vectores de parámetros para
los que f es baja (en torno a 10-3), se observa que α = 0.05 y β = 0.01. Por último, en
el caso del CAC 40, ψ 0 = ( µ, α, β , η, ρ ) = (-0.03,0.05,0.01,0.15,-0.4), ya que es el que al
simular tiene la forma cuadrática f mínima (0.0030), observando que en el resto de
vectores de parámetros para los que f es baja y en torno a 10-3, α = 0.05 y β = 0.01,
aunque en un par de casos también se tiene β = 0.015.
23
Para cada índice, al simular partiendo de ψ 0 vemos que la trayectoria de rentabilidades
simulada es consistente con la serie de datos. Las rentabilidades diarias generadas
toman valores razonables y, al igual que para la muestra de datos, no se observan
tendencias ni rachas de signo. Parece entonces que con los valores iniciales de los
parámetros, los valores numéricos que resultan de la simulación son aceptables, en el
sentido de aproximarse a datos de rentabilidades diarias.
No obstante, es cierto que características como la asimetría y curtosis, así como los
saltos que se observan en la serie de datos, no se recogen en las simulaciones. Aunque
esto no debe sorprendernos, ya que el modelo de volatilidad estocástica que estamos
queriendo estimar no tiene en cuenta los saltos, y tampoco suele tener éxito a la hora de
intentar capturar la alta curtosis existente en los datos financieros.
En una estimación inicial vemos que el parámetro µ se estima con baja precisión por lo
que fijamos este parámetro en la media de las rentabilidades observadas y estimamos el
resto condicional en dicho nivel. La idea es que al fijar los valores de los parámetros en
los que se consigue menor precisión, las propiedades del algoritmo de estimación deben
mejorar sustancialmente9. Así ocurre en todos los casos salvo para el IBEX 35, por lo
que en este caso tomamos como estimación final la resultante de no fijar µ .
Al examinar los resultados de la estimación (Tabla 3, Panel A), vemos que, para el S&P
500, el algoritmo se mueve bastante a partir del vector inicial ψ 0 y que la función
objetivo se ha reducido mucho hasta tomar un valor de 0.0003. Destacan los valores
quizá un poco altos de α y β en comparación con lo observado en la literatura, sobre
todo en el caso de α . Sin embargo, éstos han experimentado una reducción importante
con respecto a la estimación inicial en la que no se fijaba el parámetro µ . Además estos
dos parámetros, al igual que η , se estiman con buena precisión. Por otro lado, los
resultados obtenidos para η y ρ son bastante similares a los existentes en la literatura,
resaltando la negatividad del parámetro de correlación ρ que captura la asimetría
observada en el proceso de rendimientos.
9
Este análisis previo a la estimación final para el S&P 500 se detalla en el Apéndice E.
24
En el caso del DAX 30, vemos que no se observan cambios sustanciales en los
parámetros, salvo en el caso del parámetro de correlación ρ , que sigue siendo negativo
y no se estima con buena precisión. La función objetivo tampoco se reduce demasiado
(de 0.0045 para la condición inicial a 0.0038), aunque es cierto que ya inicialmente
toma un valor bastante bajo.
Para el IBEX 35, vemos que el algoritmo se mueve bastante a partir del vector inicial
ψ 0 en el caso de µ , η y ρ , que sigue siendo negativo pero muy bajo (en valor
absoluto) y al igual que η no se estima con precisión. La función objetivo es ya
inicialmente muy baja, 0.0074, y se reduce bastante hasta 0.0029.
Por último, en el caso del índice CAC 40, el algoritmo se mueve bastante a partir del
vector inicial ψ 0 , sobre todo en el caso de η . La función objetivo toma inicialmente
valor 0.0067 y se reduce hasta 0.0046 de la estimación. El parámetro de correlación ρ
es negativo, capturando la asimetría observada en el proceso de rendimientos, pero la
precisión en la estimación de este parámetro es baja.
En todos los casos, los quasi-estadísticos t están bastante cercanos a cero (Tabla 4,
Panel A), así como el gradiente de la verosimilitud evaluado en los datos simulados a
partir de la estimación final ψ̂ , calculado en media sobre las 1000 trayectorias
( )
~
generadas, m N ψˆ , ξ , sobre todo si los comparamos con los elementos del gradiente de
(
)
~
la verosimilitud que obtenemos si tomamos los valores iniciales ψ 0 , m N ψ 0 , ξ ,
calculado también en media sobre las 1000 simulaciones generadas a partir de ψ 0 10.
Únicamente para el índice CAC 40 los quasi-estadísticos t y los elementos del
gradiente de la verosimilitud para la estimación ψ̂ presentan valores un tanto altos.
De todas formas, lo que en realidad importa es la norma del gradiente de la
verosimilitud, para lo que se calcula la forma cuadrática f , que parece difícil que
pueda reducirse aún más, ya que es del orden de 10-4 para el S&P 500 y del orden de
10-3 para los índices europeos estudiados (Tabla 3, Panel A). Esto parece indicar que
( )
(
)
~
~
En particular, para el S&P 500, m N ψˆ , ξ = (0.2664,-0.1781,0.0131)’ y m N ψ 0 , ξ = (-11.1895,0.8865,-2.6284)’.
10
25
tenemos ya una estimación de este modelo estructural de volatilidad estocástica
mediante el método EMM en donde como modelo auxiliar se ha considerado un
GARCH(1,1).
Al examinar los estadísticos básicos en media a través de 1000 trayectorias generadas a
partir de ψ 0 y ψ̂ (Tabla 5, Panel A), vemos que son muy similares y que no capturan
las características de la serie de datos, lo que se refleja también en los valores tan altos
obtenidos para la función de pérdida (Tabla 5, Panel A). Únicamente en el caso del S&P
500 se observa una mejora substancial en el ajuste de la desviación típica, que para la
estimación es completamente distinta a la de la condición inicial y se ajusta a la de la
muestra. Claro que, al igual que para los índices europeos, hay singularidades que no se
explican, como la asimetría y curtosis, pero lo raro sería explicarlo con el modelo que
tenemos. La función de pérdida refleja más de un 90% de falta de ajuste en asimetría y
curtosis para el S&P 500. Para el resto de índices europeos, con valores de la función de
pérdida del 63%, 53% y 46%, para Alemania, España y Francia, respectivamente, la
curtosis se ajusta algo mejor. Pero esta mejora en el ajuste de Europa respecto a USA se
debe a que el modelo SV recoge una curtosis similar, en torno a 3, para todos los
índices, mientras que los valores de curtosis a ajustar (los valores de curtosis de los
datos) son mucho menores para Europa que para USA.
Parece que, para explicar asimetría y curtosis, se necesita otra estructura. Un modelo de
volatilidad estocástica no parece ser suficiente. Para ello, debemos generalizar y estimar
el modelo estructural a incorporar saltos, que es nuestro siguiente gran ejercicio de
estimación.
4.1.2 Modelo Estructural: Volatilidad Estocástica con Saltos SVJ
Extendemos la especificación de volatilidad estocástica anterior incluyendo un
componente salto en el proceso de rendimientos, de manera que el modelo a estimar en
este caso viene dado por las ecuaciones (3) y (2), siendo el vector de parámetros a
estimar ψ = ( µ, α, β , η, ρ, δ , λ0 ) .
Ya hemos hablado de la importancia de que, durante la estimación, las series de
rentabilidades generadas sigan un proceso similar al de los datos, de manera que el
modelo estructural reproduzca las características del proceso que generó los datos.
26
Examinamos, entonces, el componente salto de las simulaciones y ajustamos los
parámetros δ y λ0 para que, una vez fijada una determinada definición inicial de salto
inducida de la serie de rentabilidades observada, en media sobre un conjunto de
simulaciones tengamos una cantidad y magnitud de salto semejante a la de los datos11.
Para el resto de parámetros tomamos los valores de las estimaciones obtenidas en la
sección anterior para un modelo de volatilidad estocástica (sin saltos).
Los resultados de este análisis indican que, en el caso del S&P 500, los valores para δ y
λ0 más razonables son 0.7 y 0.001, respectivamente, aunque quizá la probabilidad de
ocurrencia de salto λ0 podría ser algo más alta. Tomamos así el vector de parámetros
ψ 0 = ( µ, α, β , η, ρ, δ , λ0 ) = (0.0354,0.1005,0.0320,0.1227,-0.2958,0.7000,0.0010)
como
vector de parámetros inicial en la estimación del modelo SVJ. Para el resto de índices
tomamos como condición inicial en la estimación
(0.0342,0.0461,0.0152,0.0529,-0.1063,0.3000,0.0017)
ψ 0 = ( µ, α, β , η, ρ, δ , λ0 ) =
para
el
DAX
30,
ψ 0 = ( µ, α, β , η, ρ, δ , λ0 ) = (0.0126,0.0588,0.0127, 0.1189,-0.0557,0.3000,0.0057) para el
IBEX 35 y ψ 0 = ( µ, α, β , η, ρ, δ , λ0 ) = (0.0317,0.0410,0.0115,0.1052,-0.4214,0.3000,
0.0015) para el CAC 40, ya que el análisis del componente salto indica que λ0 debe ser
igual a 0.0017, 0.0057 y 0.0015 en cada caso, para reproducir los saltos observados en
la muestra, mientras que 0.3 es el valor más razonable para δ . No sorprende que δ
tome el mismo valor en los tres casos, pues todos presentan una magnitud de salto
similar. Tampoco que δ tome un valor más bajo que para el S&P 500, ya que los saltos
que se observan en la serie de rentabilidades de los índices europeos no son tan grandes.
La estimación que se obtiene para el S&P 500 está en posición de mínimo en varias
dimensiones, pero, al igual que para el modelo sin saltos, la precisión de los parámetros
µ y ρ es baja, así como para η y δ , por lo que estimamos de nuevo fijando el
parámetro µ en la media de las rentabilidades observadas. Los valores de los
parámetros han cambiado significativamente desde la condición inicial y la función
objetivo se ha reducido de 0.0297 hasta un valor de 0.0019 (Tabla 3, Panel A). Además,
los parámetros para los que estimábamos con precisión siguen estimándose con
11
El Apéndice F explica el análisis llevado a cabo en este sentido en el caso del S&P 500, determinando
los valores más sensatos para los parámetros de salto y, consecuentemente, también la condición inicial.
27
precisión. α , β y η han disminuido a partir de la condición inicial aproximándose a lo
observado en la literatura, y destacando la importante reducción del parámetro α .
También en el caso del DAX 30, estimamos fijando el parámetro µ en la media de las
rentabilidades observadas, ya que al no hacerlo la precisión de los parámetros estimados
µ y ρ es baja. La estimación obtenida es significativamente distinta de la condición
inicial, sobre todo para α , η y ρ , que sigue estimándose con baja precisión, e incluso
para δ . La función objetivo se ha reducido bastante hasta 0.0011, sobre todo teniendo
en cuenta que ya inicialmente toma un valor bastante bajo (0.0053).
Para el IBEX 35, la precisión para los parámetros estimados µ , η y ρ es baja, pero a
pesar de que a priori debieran mejorar las propiedades de la estimación al fijar µ en la
rentabilidad media observada, no es así, por lo que estimamos dejando libre este
parámetro. Los resultados muestran cambios significativos con respecto al vector de
parámetros inicial. También la función objetivo se ha reducido mucho de 0.0159 de la
condición inicial a 0.0016 de la estimación.
Por último, en el caso del CAC 40, la estimación obtenida, fijando µ en la media
muestral, es muy próxima al vector inicial de parámetros, salvo para el parámetro λ0 , y
la función objetivo se ha reducido de 0.0072 a 0.0024. Todos los parámetros se estiman
con buena precisión salvo, de nuevo, ρ .
Señalar que la disminución observada (excepto para el DAX 30) de la estimación de η
al añadir saltos en el proceso de rendimientos sugiere, que en ausencia de éstos, la
volatilidad de la varianza tiene que ser mayor para que el modelo pueda ajustar la
distribución histórica de rendimientos. Por otro lado, el parámetro de correlación entre
shocks en la varianza y el proceso de rendimientos, ρ , es negativo en todas las
estimaciones, capturando la asimetría negativa en la distribución de rendimientos.
Sorprende quizá para el S&P 500, su alta magnitud, en valor absoluto, en comparación
con los valores habituales en la literatura.
En cuanto al componente salto, observamos que la estimación del parámetro λ0
presenta un valor bastante más bajo para el S&P 500 que para los índices europeos.
28
Estas estimaciones suponen un total de 1 salto anual para el S&P 500 frente a 4, 6 y 5
saltos anuales para el DAX 30, IBEX 35 y CAC 40, respectivamente. La magnitud
media de los saltos estimada, -0.5 δ̂ , es -0.42 para el S&P 500, frente a -0.06 del DAX
30 y el IBEX 35, y -0.04 del CAC 40. Los saltos son menos frecuentes en USA (menor
λ0 estimado) pero de mayor magnitud, lo que explica la gran curtosis de los datos
estadounidenses.
También podemos analizar el componente salto desde otro punto de vista, mediante
simulación. Una vez fijada una determinada definición inicial de salto inducida de la
serie de rentabilidades observadas (tal y como se ha explicado en el Apéndice F),
contamos el número de saltos totales, positivos y negativos realizados en cada una de
las 1000 trayectorias generadas a partir de la estimación ψ̂ , calculando finalmente su
media sobre el total de simulaciones. Se calcula también en media a través de las 1000
simulaciones la magnitud mínima, máxima, así como su media y desviación típica, para
analizar si la magnitud de salto es similar a la de los datos. Obtenemos así para el S&P
500 un total de 1 salto anual aproximadamente (del cual 0.3 es salto positivo y 0.7
negativo), para el DAX 30 2 saltos anuales (0.8 positivos y 1.2 negativos), para el IBEX
35 10 saltos anuales (4.7 positivos y 5.3 negativos) y 2 saltos anuales (1.6 para ser más
precisos, 0.7 positivos y 0.9 negativos), para el CAC 40.
Destaca la reducción del número de saltos realizados en las simulaciones para el DAX
30 y el CAC 40 (2 saltos anuales), frente a los que teóricamente reflejan las
estimaciones obtenidas para el parámetro λ0 (4 y 5 saltos anuales, respectivamente). Lo
que está ocurriendo es que aunque, debido al valor estimado para λ0 , en cada
trayectoria se generen 4 o 5 saltos anuales (según el índice), algunos (aproximadamente
la mitad) presentan una magnitud de salto tan baja que dichos saltos resultan
inapreciables. No se alejan de la rentabilidad media en más de tres desviaciones típicas,
por lo que al contar el numero de saltos no se distinguen del resto y no se contabilizan
como tales.
En el caso del IBEX 35 ocurre algo similar. El número de saltos realizados en las
simulaciones resulta un tanto alto, tanto si lo comparamos con el resto de índices como
si lo comparamos con los 6 saltos anuales que refleja la estimación obtenida para λ0 . Lo
29
que ocurre en este caso es que al simular se están identificando más saltos de los que en
realidad se han dado. Pero la magnitud de la mayoría es baja, de forma que el
componente salto y también las rentabilidades que se generan a partir de la estimación
presentan un comportamiento muy próximo a los datos.
Los quasi-estadísticos t (Tabla 4, Panel A) son un tanto altos para el S&P 500, sobre
todo para γ0 y ϑ1 , lo que se refleja a su vez en el gradiente de la verosimilitud obtenido
para la estimación, que toma valores algo altos, aunque más cercanos a cero que los del
gradiente de la verosimilitud que se obtiene a partir de la condición inicial ψ 0 , ambos
calculados en media sobre 1000 simulaciones. Para el resto de índices, los quasiestadísticos t están bastante próximos a cero, así como el gradiente de la verosimilitud
evaluado de la estimación final, que es además menor que el calculado a partir del
vector de parámetros inicial.
Si nos fijamos en los estadísticos básicos calculados en media sobre 1000 trayectorias
de rentabilidades generadas a partir de ψ 0 y ψ̂ (Tabla 5, Panel A), vemos que ya las
series generadas para ψ 0 se aproximan mucho a la serie de datos original, sobre todo si
lo comparamos con los datos obtenidos previamente para el modelo SV. El ajuste en
asimetría y curtosis ha mejorado significativamente tal y como reflejan los valores
obtenidos para la función de pérdida, destacando principalmente la capacidad
explicativa inicial obtenida para los índices IBEX 35 y CAC 40. No es de extrañar que a
partir de la condición inicial las rentabilidades simuladas presenten propiedades
estadísticas tan próximas a la serie de datos si tenemos en cuenta que este vector de
parámetros es ya una buena estimación. Y es que los valores de los parámetros de
difusión son las estimaciones obtenidas para el modelo SV, y los valores de los
parámetros de salto los obtenidos como razonables en un análisis exhaustivo previo del
componente salto.
Ahora, si nos fijamos en los estadísticos resultantes para la estimación ψ̂ , vemos que el
modelo SVJ proporciona una mejora substancial con respecto a los resultados anteriores
(y por supuesto, también con respecto al modelo SV), con una salvedad, para el IBEX
35, el ajuste global ha empeorado en relación a la condición inicial, puesto que aunque
la curtosis se aproxima mejor con la estimación ψ̂ , perdemos bastante precisión a la
30
hora de ajustar la asimetría. También en el caso del CAC 40 se pierde precisión en
ajustar la asimetría a favor del ajuste en curtosis, pero en este caso el ajuste global no se
ve afectado e incluso es algo mayor. En cuanto al DAX 30, destaca el ajuste bastante
peor de la asimetría en comparación al casi perfecto ajuste de la curtosis.
Entonces, mientras que para EEUU ambos momentos se ajustan muy bien, para Europa
parece que en general tenemos algún problema a la hora de ajustar la asimetría, y es que
el grado de ajuste no es tan bueno como para la curtosis. Y como los índices europeos
presentan una asimetría negativa mucho más baja que el S&P 500, esto parece sugerir
que para que el modelo SVJ ajuste bien la asimetría, necesitamos que los rendimientos
presenten un nivel mínimo de asimetría negativa en los datos.
En cualquier caso, las simulaciones generadas a partir de ψ̂ se aproximan muchísimo a
la serie real de datos siendo sumamente interesante que podamos para todos los índices
estudiados reproducir la asimetría y curtosis existente en los datos, indicando que
además de la volatilidad estocástica los saltos en rentabilidad son fundamentales para
capturar la dinámica de los rendimientos de índices bursátiles. Y esto ocurre no sólo
para EEUU, para el que ya existían evidencias al respecto, sino también para los tres
índices europeos estudiados, lo que aporta confianza sobre este resultado. Así, al
extender el trabajo existente para EEUU a otros índices de la zona euro, se ha
constatado la importancia de considerar ambos factores, volatilidad estocástica y saltos
en rentabilidad, cuando lo que se pretende es describir la distribución de rendimientos
de índices bursátiles alejados de la normal.
5
Modelo Auxiliar Extendido
Sabemos que la elección del modelo auxiliar es un punto vital dentro de la metodología
de estimación EMM y que las densidades SNP son buenas candidatas para este
propósito. Éstas constan de un término principal gaussiano, que debe aproximarse lo
mejor posible al proceso de rendimientos, y de una expansión polinómica de Hermite
que adapte las desviaciones del término principal.
Por tanto, es importante analizar la necesidad de extender el modelo auxiliar que
venimos utilizando en dos direcciones. Por un lado, exploraremos si el término principal
31
elegido (GARCH(1,1)) es el adecuado o por el contrario debemos considerar otra
especificación que ajuste mejor las características de la dinámica del rendimiento. Por
otro lado, tendremos que considerar la expansión de polinomios de Hermite al cuadrado
como aproximación de la densidad condicional y elegir con cuidado el orden de dicha
expansión.
A pesar de que hemos justificado con anterioridad la elección del GARCH(1,1) como
término principal, esta especificación presenta una deficiencia importante que debemos
analizar. Este modelo es simétrico en el sentido de que shocks negativos y positivos
tienen el mismo efecto en la volatilidad, ya que la varianza condicional depende de la
magnitud de las innovaciones retardadas pero no de su signo. No obstante, observamos,
como es habitual, efectos asimétricos en los datos. Las respuestas de la volatilidad ante
posibles shocks suelen ser asimétricas, de forma que las sorpresas negativas tienden a
incrementar la volatilidad más que las sorpresas positivas. Esto nos sugiere, además de
extender el modelo auxiliar considerando polinomios de Hermite en la densidad (parte
no paramétrica), examinar un modelo asimétrico como posible término principal. Sin
embargo, quizá esta última extensión no sea imprescindible, ya que por un lado,
sabemos que la principal tarea de la expansión polinómica no paramétrica en la
densidad condicional es capturar cualquier exceso de curtosis en el proceso de
rendimientos y también cualquier asimetría que no haya sido acomodada por el término
principal. Por tanto, puede que no sea necesario añadir asimetría a dicho término, siendo
suficiente extender el modelo auxiliar GARCH(1,1) añadiendo únicamente parte no
paramétrica en la densidad. Este argumento viene además respaldado por las
estimaciones realizadas en las que se ha conseguido, con un GARCH(1,1) como modelo
auxiliar, ajustar relativamente bien la asimetría y curtosis al estimar el modelo de
volatilidad estocástica con saltos en rendimientos (SVJ).
Por otro lado, al tomar como término principal en el modelo auxiliar un EGARCH(1,1),
modelo que fue precisamente propuesto con el objetivo de recoger los efectos
asimétricos observados en series financieras, observamos que se complica la estimación
de los distintos modelos estructurales. Al repetir las estimaciones para el índice S&P
500, éstas se ralentizan considerablemente, y es que el cálculo del gradiente de la
verosimilitud en cada simulación es computacionalmente más exigente en este caso.
Además, las estimaciones obtenidas apenas difieren de las que ya teníamos. Esto, unido
32
a los argumentos previamente expuestos, nos sugiere extender el modelo auxiliar
únicamente mediante polinomios de Hermite, tomando como término principal más
apropiado un GARCH(1,1).
La estimación QML se lleva a cabo para un modelo auxiliar SNP completamente
especificado, en donde la densidad SNP viene dada por las ecuaciones (5) a (7) y donde
las especificaciones para la media y varianza del proceso se muestran en la expresión
(18), tomando una forma específica para los polinomios, los llamados polinomios
ortogonales de Hermite, los cuales se detallan en el Apéndice A.
Es importante señalar que no sólo introducimos una expansión de polinomios de
Hermite en la densidad condicional considerando K z > 0, sino que además se permite
heterogeneidad en dicha expansión, al permitir que los coeficientes del polinomio de
grado K z en z sean a su vez polinomios de grado K x en x ( K x > 0).
Así,
los
parámetros
del
modelo
auxiliar
a
estimar
ξ = (γ 0 , γ 1 ,ϑ1 , a01 ,, a0 Kx , a10 , a11 ,, a1Kx , a20 , a21 ,, a2 Kx ,, aKz 0 , aKz1 ,, aKzKx )
son
y
se
estiman mediante QML según la expresión (4).
Estimamos a continuación la especificación SNP para distintos valores de K z > 0 y K x
= 0 y 1, calculando para cada caso el valor de los criterios de información Bayesiano
(BIC) y Hannan-Quinn (HQC)12, a partir del valor (maximizado) de la función de logverosimilitud:
~ 1 dim(ξ )
BIC = s n ξ +
ln (n )
2 n
~ dim(ξ )
HQC = s n ξ +
ln (ln(n ))
n
()
()
(20)
donde
12
Es conocido que el criterio de información Bayesiano (BIC) es consistente para modelos ARMA
lineales, seleccionando el modelo asintóticamente correcto, mientras que el criterio de Akaike (AIC)
sobreparametriza el modelo en la mayoría de los casos. Así, aunque los resultados de Eastwood (1991)
sugieren que AIC es óptimo en el marco SNP, la literatura se inclina por la utilización de criterios de
información más conservadores como son BIC y HQC (véase, por ejemplo, Andersen, Benzoni y Lund,
2002). Además, la sobreparametrización del generador del gradiente de la verosimilitud o modelo auxiliar
puede derivar en posibles problemas numéricos, tal y como argumentan Andersen y Lund (1997).
33
()
[ (
~
~
1 n
s n ξ = − ∑ ln f K ~
rt ~
xt ; ξ
n t =1
)]
(21)
y n es el tamaño muestral.
Ambos criterios BIC y HQC señalan para el S&P 500 la especificación GARCH(1,1) +
K z = 10 como modelo auxiliar más apropiado13. Para el resto de índices, los resultados
indican un modelo GARCH(1,1) + K z = 12 como el más adecuado en el caso del DAX
30, un GARCH(1,1) + K z = 9 para el IBEX 35 y un GARCH(1,1) + K z = 6 para el
CAC 40. Las estimaciones de dicho modelo se recogen en el Panel B de la Tabla 2, así
como los correspondientes errores estándar14.
Por último, señalar que la elección de este modelo auxiliar, a diferencia con el anterior,
posibilita evaluar los resultados mediante los test de especificación y diagnosis de
modelo asociados al método de estimación EMM, ya que para los dos modelos
estructurales, SV y SVJ, el número de parámetros es menor que el número de
parámetros auxiliares, dim(ψ ) ≤ dim(ξ ) , condición necesaria para construir tanto el
estadístico Chi-cuadrado del test conjunto de sobre identificación, como los estadísticos
t . Es posible también en este caso calcular la matriz de covarianzas asintótica de la
estimación EMM y determinar, por tanto, los errores estándar asintóticos.
5.1 Modelo Estructural
Una vez tenemos para cada índice las estimaciones del modelo auxiliar extendido,
tenemos que estimar los parámetros del modelo estructural, primero el modelo de
volatilidad estocástica SV y segundo el modelo de volatilidad estocástica con saltos
SVJ. Los resultados obtenidos para el modelo auxiliar sencillo GARCH(1,1) nos
servirán de referencia. En cada caso, tomaremos como vector de parámetros inicial ψ 0
las estimaciones obtenidas para el mismo modelo estructural pero para el modelo
auxiliar sencillo y que vienen dadas en el Panel A de la Tabla 3. Todas las estimaciones
13
Se llega a la misma conclusión al analizar las estimaciones obtenidas para los distintos valores de K z y
K x mediante el test de la razón de verosimilitud y las matrices de correlación entre los parámetros
estimados. El Apéndice G explica en detalle éste análisis.
14
La forma especifica de la función de densidad SNP, f K , de este modelo auxiliar extendido para el caso
S&P 500 viene dada en el Apéndice H.
34
se obtienen fijando el parámetro µ en la rentabilidad media observada, ya que al
estimar dejando libre este parámetro no se consigue estimarlo con buena precisión, lo
que se refleja en el hecho de que la función objetivo apenas cambia al variar
considerablemente el valor de dicho parámetro y fijar el resto en los valores de la
estimación.
Las Tablas 3, 4 y 5 recogen en el Panel B los resultados, en porcentaje y base diaria,
obtenidos para cada índice y cada modelo estructural (SV y SVJ), en este caso en el que
se ha extendido el modelo auxiliar mediante polinomios de Hermite. El Panel B de la
Tabla 3 muestra las estimaciones obtenidas, el valor de la función objetivo alcanzado en
la minimización y el resultado del contraste global Chi-cuadrado de sobre identificación
calculado a partir de la expresión (11). La Tabla 4 recoge en el Panel B.1 los valores de
los estadísticos t , dados por (12)-(14), asociados a los correspondientes parámetros
SNP, junto con su significatividad individual, así como las correlaciones entre los
parámetros estructurales calculadas de la forma usual a partir de la matriz de varianzas y
covarianzas asintótica Cov(ψˆ ) (Panel B.2). Por último, el Panel B de la Tabla 5 muestra
los estadísticos básicos de la serie de rentabilidades observada, así como los mismos
estadísticos en media sobre 1000 trayectorias de rentabilidades generadas a partir de la
condición inicial ψ 0 y la estimación ψ̂ obtenida. Además, dicha tabla recoge, también
en el Panel B, los valores obtenidos para la función de pérdida, que viene dada por la
expresión (19) e indica el grado de ajuste obtenido en asimetría y curtosis, tanto
individual como conjuntamente.
5.1.1 Modelo Estructural: Volatilidad Estocástica SV
Al examinar los resultados de la estimación obtenidos (Tabla 3, Panel B), vemos que
para el S&P 500 el algoritmo se mueve bastante sobre todo en el caso de α y ρ . Sin
embargo, no se observa una reducción en la función objetivo tan importante (que se
reduce de 0.0396 de la condición inicial a 0.0300 de la estimación) como en el caso del
modelo auxiliar sencillo, pero también es cierto que el valor inicial de esta función es
mucho más bajo, lo cual no es de extrañar puesto que la condición inicial es ya una
buena estimación. Todos los parámetros se estiman con precisión a excepción del
parámetro de correlación ρ . En cuanto a los valores de las estimaciones, vemos que α
y β han disminuido bastante desde la condición inicial, sobre todo en el caso de α ,
35
aproximándose a los valores habituales de la literatura. La estimación para η es quizá
un poco alta, y aunque ρ es negativo y significativo (su desviación estándar es baja), su
magnitud es también un tanto alta en valor absoluto.
En el caso del DAX 30, el algoritmo apenas se mueve desde la condición inicial y la
función objetivo tampoco se reduce demasiado (de 0.0296 a 0.0249), sugiriendo que el
vector inicial de parámetros es ya una buena estimación. Los parámetros α y β son
significativos, y ρ es negativo pero no significativo. La precisión con la que se estima
este último parámetro es baja.
Para el IBEX 35, vemos que los valores de los parámetros no se mueven demasiado
desde la condición inicial, salvo en el caso de ρ , que partiendo de un valor negativo
pero muy bajo en valor absoluto se llega a una estimación también negativa pero de
magnitud mucho mayor, aunque este parámetro seguimos sin estimarlo con precisión.
La función objetivo disminuye de 0.0275 a 0.0167.
Por último, en el caso del índice CAC 40, las estimaciones de η y ρ son las que más se
alejan del vector inicial de parámetros. De nuevo, la precisión de la estimación del
parámetro de correlación ρ es baja, y la función objetivo no se reduce en exceso desde
0.0222 a 0.0191.
Es evidente, basándonos en el test Chi-cuadrado de sobre identificación de restricciones
(Tabla 3, Panel B) que el modelo se rechaza rotundamente a cualquier nivel de
significación razonable para todos los índices estudiados, lo que en el caso del S&P 500
y el CAC 40, se refleja también en el alto número de componentes del gradiente de la
verosimilitud significativamente distintos de cero (Tabla 4, Panel B.1). Sin embargo, en
el caso del DAX 30 y el IBEX 35, únicamente tres de los quince y doce estadísticos t ,
según el índice, asociados a los correspondientes parámetros SNP resultan
significativos. Si nos fijamos en las correlaciones entre los parámetros estructurales
estimados (Tabla 4, Panel B.2), vemos que la mitad de ellas (las correspondientes a los
parámetros α , β y η ) son muy elevadas.
36
No sorprende observar propiedades estadísticas semejantes para las simulaciones
realizadas a partir del vector de parámetros inicial ψ 0 y final ψ̂ (Tabla 5, Panel B), ya
que ambos son muy similares para todos los índices. Por ello, aunque al estimar se
mejora algo el ajuste en asimetría y curtosis, éste es muy similar en ambos casos. Al
igual que ocurría al considerar el modelo auxiliar sencillo, con el modelo SV no
conseguimos reproducir la asimetría y curtosis existente en los datos. La función de
pérdida refleja tanto individual como conjuntamente, más de una 90% de falta de ajuste
para el S&P 500. El ajuste es algo mejor para los índices europeos debido a que la
curtosis se aproxima mejor. Pero si nos fijamos, vemos que en realidad el modelo SV
reproduce en todos los casos una curtosis similar y en torno a 3, valor que está muy
alejado de la curtosis del S&P 500 pero no tanto de la del resto de índices.
5.1.2 Modelo Estructural: Volatilidad Estocástica con Saltos SVJ
Para el S&P 500 se observa (Tabla 3, Panel B) una reducción en la función objetivo
considerable, de 0.1081 de la condición inicial a 0.0271 de la estimación, y cambios
substanciales en los parámetros λ0 y ρ , destacando la negatividad y la falta de
precisión de este último.
En el caso del DAX 30, la función objetivo no disminuye mucho (de 0.0326 de la
condición inicial a 0.0243), aunque es cierto que el algoritmo tampoco se mueve
demasiado salvo para los parámetros η y ρ . Este último es significativo pero la
precisión en la estimación es baja.
Para el IBEX 35, no se observa una reducción significativa en la función objetivo, que
disminuye de 0.0236 de la condición inicial a 0.0149 de la estimación. Los valores de
los parámetros, sin embargo, cambian bastante desde ψ 0 sobre todo en el caso de ρ ,
que además de identificarse débilmente, por primera vez es positivo. Esto no tiene
porqué suponer necesariamente un problema. Es cierto que a priori esperaríamos una
correlación entre brownianos, ρ , negativa para capturar la asimetría negativa de los
datos. Sin embargo, en el caso del IBEX 35 la serie de rentabilidades diarias observada
no presenta demasiada asimetría negativa, por lo que para capturarla quizá no sea
necesario tener un ρ < 0 y sea suficiente con añadir saltos en rentabilidad. Recordemos
37
que el hecho de que la magnitud de salto se distribuya como una normal de media
negativa induce más saltos negativos que positivos, produciendo asimetría negativa.
Las estimaciones obtenidas para el índice CAC 40 no difieren mucho del vector de
parámetros inicial. También en este caso, el parámetro de correlación ρ es negativo y,
al igual que el parámetro η , se estima con baja precisión. La función objetivo
disminuye de 0.0276 a 0.0194.
Al igual que ocurría al considerar el modelo auxiliar sencillo, para todos los índices,
salvo para el DAX 30, el parámetro estimado η disminuye al añadir saltos en el proceso
de rendimientos, lo que sugiere que en el modelo de volatilidad estocástica sin saltos, la
volatilidad de la varianza tiene que ser mayor para poder ajustar la distribución de
rendimientos.
En cuanto al componente salto, las conclusiones son similares a las que teníamos para el
modelo auxiliar sencillo. Los saltos son menos frecuentes para USA, ya que la
estimación del parámetro λ0 es menor y supone menos de 1 salto anual en este caso,
frente a los 4 saltos anuales para el DAX 30 y los 6 para el IBEX 35 y el CAC 40. Por
otro lado, la magnitud de los saltos es mayor para el S&P 500, lo que explica la alta
curtosis de los datos estadounidenses. En efecto, la magnitud media de los saltos
estimada, -0.5 δ̂ , es -0.43 para el S&P 500, frente a -0.07 del DAX 30, -0.04 del IBEX
35 y -0.05 del CAC 40.
Si analizamos el componente salto mediante simulación, obtenemos que, en media
sobre 1000 trayectorias generadas a partir de la estimación ψ̂ , se dan aproximadamente
un total de 1 salto anual para el S&P 500 (0.3 positivo y 0.7 negativo), 2 saltos anuales
para el DAX 30 (0.7 positivos y 1.3 negativos), 10 para el IBEX 35 (5 positivos y 5
negativos) y 2 para el CAC 40 (0.8 positivos y 1.2 negativos).
La discrepancia, para los índices europeos, entre los números de saltos realizados en las
simulaciones y las estimaciones de λ0 no suponen una contradicción. Aunque al simular
se generan tantos saltos como indican los valores estimados de λ0 , muchos de ellos
presentan una magnitud tan baja que dichos saltos no se identifican como tales (es el
38
caso del DAX 30 y el CAC 40, que en las simulaciones se cuentan menos saltos que los
que indica la estimación de λ0 ) o que aún identificándose como saltos no tienen un
impacto importante en las rentabilidades (es el caso del IBEX 35, que se contabilizan
más saltos que los que indica la estimación de λ0 ).
Si nos fijamos en el valor del estadístico Chi-cuadrado vemos que, para todos los
índices, añadir saltos en rentabilidad mejora el ajuste, ya que el estadístico disminuye de
valor, de 151.38 a 136.74 para el S&P 500, de 100.21 a 97.63 para el DAX 30, de 66.90
a 59.63 para el IBEX 35 y de 76.49 a 75.12 para el CAC 40, lo que supone una
reducción del 10%, 3%, 11% y 2%, respectivamente. Pero esta reducción no es
suficiente y el modelo se rechaza rotundamente a cualquier nivel de significación
razonable. Esto se refleja también en el alto número de componentes del gradiente de la
verosimilitud significativamente distintos de cero (Tabla 4, Panel B.1), aunque en el
caso del DAX 30 sólo cuatro de los quince estadísticos t asociados a los
correspondientes parámetros SNP resultan significativos. Las correlaciones entre los
parámetros estructurales son en general bastante altas (Tabla 4, Panel B.2), aunque en el
caso
del
S&P
500
el
número
de
correlaciones
elevadas
ha
disminuido
considerablemente en comparación con el modelo SV.
Vemos que las simulaciones generadas a partir de ψ 0 se aproximan mucho a la serie
real de datos (Tabla 5, Panel B), en especial en el caso del índice S&P 500. Para el
DAX 30 y sobre todo para el IBEX 35, la falta de ajuste en asimetría hace que
inicialmente el ajuste global no sea tan bueno. En cualquier caso, ya con el vector inicial
de parámetros ψ 0 la mejora con respecto al modelo SV es notable.
Ahora, si nos fijamos en los resultados obtenidos para la estimación ψ̂ vemos que,
aunque en comparación con SV la mejora es substancial, en contra de lo observado para
el modelo auxiliar sencillo, en general no aumenta la capacidad explicativa de los
momentos de tercer y cuarto orden con respecto a ψ 0 . Únicamente en el caso del IBEX
35 conseguimos con ψ̂ un mejor ajuste, tanto si lo comparamos con ψ 0 como si lo
comparamos con los resultados obtenidos para el modelo auxiliar sencillo. Aunque se
pierde algo de precisión al ajustar la curtosis, la asimetría se aproxima mucho mejor, lo
que hace aumentar el ajuste conjunto de las dos características. Para el DAX 30, se
39
observan propiedades estadísticas similares para ψ 0 y ψ̂ , lo que no es de extrañar ya
que ambos están bastante próximos. En cualquier caso, vemos que al introducir saltos
en el modelo de volatilidad estocástica se ha conseguido ajustar bastante bien la
asimetría y curtosis existente en los datos. Por otro lado, el porcentaje de ajuste es muy
similar al obtenido en el caso del modelo auxiliar sencillo. Para el S&P 500, a pesar de
que la función objetivo se reduce considerablemente a partir de la condición inicial, con
la estimación se genera demasiada asimetría negativa y, sobre todo, curtosis con
respecto a los datos, mientras que, tal y como se ha comentado anteriormente, el ajuste
es muy bueno con el vector de parámetros inicial, que recordemos se corresponde con
las estimaciones obtenidas al considerar un modelo auxiliar sin polinomios de Hermite.
Para el CAC 40 el ajuste conjunto de los momentos de tercer y cuarto orden empeora,
tanto si los comparamos con los resultados de ψ 0 como con los del modelo auxiliar
sencillo. Se pierde bastante precisión a la hora de ajustar la asimetría, pero el ajuste en
curtosis es prácticamente perfecto.
Concluimos por tanto que la incorporación de los polinomios de Hermite al modelo
auxiliar básico GARCH(1,1) no contribuye apenas a la capacidad explicativa de los
momentos de orden superior considerados, ya que únicamente en el caso de uno de los
cuatro índices, en el caso del IBEX 35, se ha observado una mejora substancial en el
ajuste global al extender el modelo auxiliar.
6
Conclusiones
Es aceptado en la literatura que la introducción de volatilidad estocástica o saltos en
modelos en tiempo continuo difusivos puede explicar las características de los
rendimientos de activos financieros. Sin embargo, los resultados obtenidos en la
literatura para datos americanos son contradictorios y muchas veces fracasan a la hora
de aproximar satisfactoriamente la dinámica del proceso de rendimientos del activo
subyacente. Por tanto, el objetivo de este artículo es, por un lado, identificar un modelo
que ajuste adecuadamente dicha dinámica y, por otro, extender la poca evidencia
existente a otros índices europeos. De esta forma, consideramos datos de rentabilidades
diarias del S&P 500, así como del DAX 30, IBEX 35 y CAC 40, aportando una visión
global del centro-sur de Europa.
40
Analizamos un modelo de difusión para la volatilidad estocástica extendiéndolo después
permitiendo saltos de Poisson con intensidad constante en rentabilidad. La estimación
se lleva a cabo mediante una implementación cuidadosa del EMM, considerando
primero un modelo auxiliar simple GARCH(1,1) a partir del cual se obtienen unas
estimaciones iniciales de los parámetros estructurales que sirven de referencia en la
estimación al extender mediante polinomios de Hermite el modelo auxiliar.
Encontramos que un modelo de difusión para la volatilidad estocástica que no incorpore
saltos no es suficiente para acomodar las singularidades de los rendimientos de los
distintos índices bursátiles. Sin embargo, con un modelo que incorpore ambos
componentes, volatilidad estocástica y saltos en rentabilidad, logramos reproducir la
asimetría y curtosis existente en los datos de los cuatro índices estudiados, lo que
proporciona evidencia empírica apoyando la presencia conjunta de ambos factores.
Además, el hecho de que esto se repita no sólo para EEUU sino también para el resto de
índices, nos da confianza sobre este resultado. Por otro lado, el peor ajuste en asimetría
para los índices europeos unido al hecho de que éstos presentan un valor muestral
mucho menor (en valor absoluto) que para EEUU, nos sugiere que para que el modelo
SVJ ajuste bien la asimetría, es necesario que los rendimientos presenten un nivel
mínimo de asimetría negativa.
Además, al añadir saltos en rentabilidad se mejora el ajuste en términos de
especificación del modelo, aunque el hecho de que éste siga rechazándose sugiere que, a
pesar de que junto a la volatilidad estocástica los saltos en rentabilidad son los dos
componentes más importantes para describir la dinámica de las series temporales de
rendimientos, pueden no ser suficientes y haga falta añadir algo más, como saltos en
volatilidad, lo que puede ser una posible extensión para nuestro trabajo. Por otro lado, el
hecho de que sistemáticamente en todas las estimaciones el parámetro de correlación ρ
no se estime con precisión sugiere analizar la posibilidad de que no se esté
introduciendo correctamente en el modelo, y es que una correlación constante en el
tiempo no es lo más razonable. Una posibilidad es considerar que la correlación
depende de una variable de estado, ya sea la rentabilidad o la propia varianza, lo cual es
totalmente sensato, dejando que sea la estimación quién determine si es o no constante
en el tiempo. Esto constituye una posible segunda línea de investigación futura.
41
Por último, vemos que la incorporación de polinomios de Hermite al modelo auxiliar no
parece contribuir a la capacidad explicativa de los momentos de tercer y cuarto orden
tan bien ajustados por el modelo de volatilidad estocástica con saltos cuando el modelo
auxiliar considerado es el GARCH(1,1).
42
Referencias
Andersen, T., L. Benzoni y J. Lund (2002), “An empirical investigation of continuoustime equity return models”, Journal of Finance 57, 1239-1284.
Andersen, T. y J. Lund (1997), “Estimating continuous-time stochastic volatility models
of the short term interest rate”, Journal of Econometrics 77, 343-377.
Bakshi, G., C. Cao y Z. Chen (1997), “Empirical performance of alternative option
pricing models”, Journal of Finance 52, 2003-2049.
Bansal, R., A. R. Gallant, R. Hussey y G. Tauchen (1993), “Computational aspects of
nonparametric simulation estimation”, en D. A. Belsley (ed.), Computational techniques
for econometrics and economic analysis, Kluwer Academic Publishers, Boston, 3-22.
Bansal, R., A. R. Gallant, R. Hussey y G. Tauchen (1995), “Nonparametric estimation
of structural models for high-frequency currency market data”, Journal of Econometrics
66, 251-287.
Bates, D. (2000), “Post-’87 crash fears in S&P 500 futures options”, Journal of
Econometrics 94, 181-238.
Bollerslev, T. (1986), “Generalized autoregressive conditional heteroskedasticity”,
Journal of Econometrics 31, 307-327.
Broadie, M., M. Chernov y M. Johannes (2007), “Model specification and risk premia:
Evidence from futures options”, Journal of Finance 62, 1453-1490.
Chernov, M., A. R. Gallant, E. Ghysels y G. Tauchen (2003), “Alternative models for
stock price dynamics”, Journal of Econometrics 116, 225-257.
Clark, P. K. (1973), “A subordinated stochastic process model with finite variance for
speculative prices”, Econometrica 41, 135-156.
43
Cox, J. C., J. E. Ingersoll, Jr. y S. A. Ross (1985), “A theory of the term structure of
interest rates”, Econometrica 53, 385-407.
Danielsson, J. (1994), “Stochastic volatility in asset prices: Estimation with simulated
maximum likelihood”, Journal of Econometrics 61, 375-400.
Duffie, D. y K. J. Singleton (1993), “Simulated moments estimation of Markov models
of asset prices”, Econometrica 61, 929-952.
Eastwood, B. (1991), “Asymptotic normality and consistency of seminonparametric
regression estimators using an upward F-test rule”, Journal of Econometrics 48, 151183.
Eraker, B. (2004), “Do equity prices and volatility jump? Reconciling evidence from
spot and option prices”, Journal of Finance 59, 1367-1403.
Eraker, B., M. Johannes y N. Polson (2003), “The impact of jumps in equity index
volatility and returns”, Journal of Finance 58, 1269-1300.
Fenton, V. M. y A. R. Gallant (1996a), “Convergence rates of SNP density estimators”,
Econometrica 64, 719-727.
Fenton, V. M. y A. R. Gallant (1996b), “Qualitative and asymptotic performance of
SNP density estimators”, Journal of Econometrics 74, 77-118.
Gallant, A. R., D. A. Hsieh y G. E. Tauchen (1991), “On fitting a recalcitrant series:
The pound/dollar exchange rate 1974-1983”, en W.A. Barnett, J. Powell y G. E.
Tauchen, eds., Nonparametric and semiparametric methods in econometrics and
statistics, Fifth international symposium in economic theory and econometrics,
Cambridge University Press, Cambridge, 199-240.
Gallant, A. R., D. A. Hsieh y G. E. Tauchen (1997), “Estimation of stochastic volatility
models with diagnostics”, Journal of Econometrics 81, 159-192.
44
Gallant, A. R. y J. R. Long (1997), “Estimating stochastic differential equations
efficiently by minimum Chi-square”, Biometrika 84, 125-142.
Gallant, A. R. y D. W. Nychka (1987), “Semi-nonparametric maximum likelihood
estimation”, Econometrica 55, 363-390.
Gallant, A. R. y G. E. Tauchen (1989), “Seminonparametric estimation of conditionally
constrained heterogeneous processes: Asset pricing applications”, Econometrica 57,
1091-1120.
Gallant, A. R. y G. E. Tauchen (1996), “Which moments to match?”, Econometric
Theory 12, 657-681.
Gallant, A. R. y G. E. Tauchen (1997), “Estimation of continuous-time models for stock
returns and interest rates”, Macroeconomic Dynamics 1, 135-168.
Geweke, J. (1996), “Monte Carlo simulation and numerical integration”, en Hans M.
Amman, David A. Kendrick y John Rust, eds.: Handbooks in Economics, vol. 13,
Handbook of Computational Economics, vol. 1, North-Holland, Amsterdam.
Harvey, A. C., E. Ruiz y N. Shephard (1994), “Multivariate stochastic variance
models”, Review of Economic Studies 61, 129-158.
Heston, S. L. (1993), “A closed form solution for options with stochastic volatility with
applications to bond and currency options”, Review of Financial Studies 6, 327-343.
Hull, J. y A. White (1987), “The pricing of options on assets with stochastic volatility”,
Journal of Finance 42, 281-300.
Kloeden, P. E. y E. Platen (1992), Numerical Solutions of Stochastic Differential
Equations, Springer-Verlag, Berlin.
Melino A. y S. M. Turnbull (1990), “Pricing foreign currency options with stochastic
volatility”, Journal of Econometrics 45, 239-265.
45
Merton, R. C. (1976), “Option pricing when the underlying stock returns are
discontinuous”, Journal of Financial Economics 3, 125-144.
Pan, J. (2002), “The jump−risk premia implicit in options: Evidence from an integrated
time-series study”, Journal of Financial Economics 63, 3-50.
Tauchen, G. E. (1997a), “New minimum chi-square methods in empirical finance”, en
Kreps, D.M., Wallis, K.F., eds., Advances in Economics and Econometrics: Theory and
Applications, Seventh World Congress, Cambridge University Press, Cambridge.
Tauchen, G. E. y M. Pitts (1983), “The price variability-volume relationship on
speculative markets”, Econometrica 51, 485-505.
Taylor, S. J. (1986), Modeling financial time series, Wiley, New York, NY.
Wiggins, J. (1987), “Option values under stochastic volatility: Theory and empirical
estimates”, Journal of Financial Economics 19, 351-372.
46
Apéndice A: Polinomios de Hermite en la función de
densidad SNP
En este apéndice se detalla la forma específica de los polinomios PK ( z , x ) de la función
de densidad SNP f K (r x; ξ ) . Dichos polinomios vienen dados por:
Kz
Kz

 Kx
PK ( z , x ) = ∑ ai ( x )Hei ( z ) = ∑  ∑ aij x j  Hei ( z ), a00 = 1
i =0
i =0  j =0

(A.1)
donde Hei ( z ) es el polinomio ortogonal de Hermite de grado i que se determina
mediante la expresión siguiente:
Hei ( z ) = (i!)
−1 / 2
Hei (z )
(A.2)
a partir del correspondiente polinomio de Hermite (no normalizado) de grado i :
Hei ( z ) =
i / 2 
∑ (− 1)
j =0
j
i!
z i −2 j
j!2 (i − 2 j )!
j
el cual satisface
∫ He He
i
j
i≠ j
0
 1 
exp− z 2 dz = 
 2 
 2π i! i = j
Un resultado de esta normalización es que
0 i ≠ j
(
)
(
)
(
)
=
He
u
He
u
φ
u
du

i
j
∫
1 i = j
lo que resulta muy útil en el cálculo de la expresión (5), ya que entonces
47
Kz
2
2
∫R [PK (u, x )] φ(u )du = ∑ ai (x )
(A.3)
i =0
Por último señalar que existe también una relación recursiva muy útil a la hora de
construir los polinomios de Hermite:
Hei +1 ( z ) = zHei ( z ) − iHei −1 ( z )
He0 ( z ) = 1
(A.4)
He1 ( z ) = z
Apéndice B: Función de densidad SNP para el modelo
auxiliar GARCH(1,1) sin parte no paramétrica
En este apéndice se muestra explícitamente la función de densidad SNP f K cuando el
modelo auxiliar considerado es un GARCH(1,1) sin parte no paramétrica.
La forma general de la densidad SNP viene dada por la expresión (5):

[PK (z t , x t )]2  φ(z t )
f K (rt | x t ; ξ ) =  ν + (1 − ν )
2


∫R [PK (u , x t )] φ(u )du  ht

con ν = 0.01, φ(⋅) es la densidad normal estándar, φ( z t ) =
zt =
rt − υ t
ht
, que en este caso es z t =
rt
ht
 z2 
exp − t  , y
2π
 2
1
con ht = γ 0 + γ 1rt 2−1 + ϑ1 ht , ya que la media
y varianza del modelo auxiliar son υt = 0 y ht = γ 0 + γ 1rt 2−1 + ϑ1 ht , respectivamente. Por
otro lado, el término
[PK (z t , xt )]2
2
∫R [PK (u, xt )] φ(u )du
0
es igual a 1, ya que, de la expresión (7),
PK ( z , x ) = P( Kz , Kx ) ( z , x ) = P(0, 0 ) ( z , x ) = ∑ ai = a 0 = 1
y,
de
(A.3)
se
deduce
que
i =0
0
2
2
2
∫R [PK (u, x )] φ(u )du = ∑ ai = a0 = 1 .
i =0
48
Por tanto, la función de densidad SNP f K cuando el modelo auxiliar considerado es un
GARCH(1,1) sin parte no paramétrica es:
f K (rt | x t ; ξ ) =
φ( z t )
ht
 z2 
exp  − t 
2π
 2 =
ht
1
=
 r2 
exp  − t 
2 π ht
 2 ht 
1
con ht = γ 0 + γ 1rt 2−1 + ϑ1 ht .
Apéndice C: Implementación Numérica del EMM para
el modelo SV
En este apéndice se detalla el procedimiento numérico empleado para simular una
trayectoria de rendimientos y obtener su correspondiente gradiente de la verosimilitud a
partir del modelo de volatilidad estocástica SV.
En primer lugar, como hemos utilizado rendimientos en logaritmo para ajustar el
modelo auxiliar, aplicamos el Lema de Ito al modelo en tiempo continuo para obtener
una caracterización del proceso en logaritmos:
dS t
V 

= µdt + Vt dW1,t ⇒ d ln S t =  µ − t dt + Vt dW1,t
L 'I
St
2

y donde la varianza sigue un proceso en raíz cuadrada:
dVt = (α − β Vt )dt + η Vt dW2,t
Así, obtenemos una caracterización del proceso ln S t , por lo que no tenemos más que
calcular su primera diferencia para tener la serie de rentabilidades:
rt = d ln S t − d ln S t −1
49
N
Necesitamos ahora generar una serie {rˆt (ψ )}t =1 a partir del modelo estructural en tiempo
continuo. Esto se hace dividiendo cada día en M subíntervalos, y simulando un total de
N×M
observaciones. Utilizamos la discretización de Euler de orden uno que
reemplaza
V 

d ln S t =  µ − t dt + Vt dW1,t
2

dVt = (α − βVt )dt + η Vt dW2,t
por las aproximaciones de primer orden en tiempo discreto
V 

ln S t = ln S t − ∆ +  µ − t − ∆ ∆ + Vt − ∆ ∆ z1,t − ∆
2 

Vt = Vt − ∆ + (α − βVt − ∆ )∆ + η Vt − ∆ ∆ z 2,t − ∆
donde ∆ =
1
y
252 × M
(z
1,t
, z 2,t ) son dos variables normales estándar N (0,1) con
correlación ρ , es decir,
 0   1 ρ  
 dW1,t   z1,t 

 ≈   ~ N  , 
 
dW
z
0
ρ
1
2
,
t
2
,
t





  

La aproximación de Euler con M = 1 se utiliza frecuentemente para estimar parámetros
de ecuaciones diferenciales estocásticas a partir de datos observados discretos. Como
nosotros estamos utilizando una técnica de estimación basada en simulación, podemos
utilizar cualquier valor de M > 1 que reduce el sesgo de la discretización. Nuestros
resultados están basados en M = 10 subintervalos. Fijado un valor para M , el sesgo de
la discretización puede teóricamente reducirse más utilizando un esquema de simulación
de orden mayor (Kloeden y Platen, 1992). Estos esquemas son similares a las
expansiones de Taylor de mayor orden para funciones deterministas, por lo que son más
costosos computacionalmente. Además, creemos que la técnica de reducción de
varianza (variables antitéticas) explicada más adelante es menos efectiva con un
esquema de orden superior por los términos cuadrados adicionales de z1,t y z 2,t .
50
En el cálculo del gradiente de la verosimilitud se supone implícitamente que las series
temporales simuladas de las rentabilidades, y por tanto la función de densidad SNP, se
generan a partir de una distribución estacionaria. Estrictamente, simular realizaciones
estacionarias es imposible ya que no somos capaces de extraer los valores iniciales de
(ln S 0 , V0 )
ln S t y Vt
de sus distribuciones incondicionales. Pero, iniciamos estas
variables de estado en sus medias incondicionales, µ y α β respectivamente, y
descartamos los primeros N 1 valores simulados de ln S t . Para un valor de N 1
suficientemente alto el efecto de las condiciones iniciales desaparece, por lo que
tenemos una simulación de ln S t a partir de una distribución estacionaria. Lo que
hacemos por tanto es simular mediante la discretización de Euler una trayectoria de
(N + N 2 ) × M + N1 ,
tamaño
donde M es el número de subtintervalos en el que
dividimos un día, M = 10. Se descartan después los primeros N 1 valores simulados de
ln S t para así poder tener una trayectoria de una distribución estacionaria, calculando a
( N + N )× M
continuación las rentabilidades simuladas, {rˆt (ψ )}t =1 2 , y sumando de M en M para
N +N
obtener los rendimientos simulados diarios {rˆt (ψ )}t =1 2 . El siguiente paso consiste en
calcular
el
( )
~
1
mN ψ ,ξ =
N
(
gradiente
N
∑
la
~
∂ ln f K rˆt (ψ ) xˆ t (ψ ); ξ
t =1
~
∂ ln f K rˆt (ψ ) xˆ t (ψ ); ξ
∂ξ
de
(
∂ξ
verosimilitud
del
modelo
auxiliar,
) , para lo que calculamos la derivada parcial
) numéricamente, tal y como ya se ha descrito con anterioridad. A
continuación, con el propósito de obtener una trayectoria del gradiente de la
verosimilitud a partir de una distribución estacionaria, se descartan las primeras N 2
observaciones, ya que el mismo GARCH (modelo auxiliar) depende de las condiciones
iniciales de la varianza. Así, tenemos finalmente una muestra de tamaño N para el
~
gradiente de la verosimilitud, mN ψ , ξ .
( )
Nosotros utilizamos valores de N 1 = N 2 = 1000 y N = 10000. N debe ser lo
suficientemente alto para que el error Monte Carlo del gradiente de la verosimilitud sea
despreciable. El problema está en que se necesitarían millones de observaciones para
que dicho error fuese insignificante (Andersen y Lund, 1997). Utilizamos por ello la
técnica de reducción de varianzas de variables antitéticas (Geweke, 1996), que es
51
bastante efectiva (Andersen y Lund, 1997, entre otros). En rasgos generales, la idea que
está detrás de esta técnica de variables antitéticas es promediar dos estimaciones de la
~
∂ ln f K r x; ξ
~
dP (r x;ψ ) que se supone están negativamente
integral m ψ , ξ = ∫
∂ξ
(
( )
)
correladas. Siguiendo el procedimiento descrito arriba, se calcula primero el gradiente
~
de la verosimilitud utilizando las variables aleatorias (z1,t , z 2,t ) , mN( z1t , z2 t ) ψ , ξ . La
( )
( )
~
segunda estimación, m N(− z1t , − z2 t ) ψ , ξ , se computa usando los mismos números aleatorios
pero
con
signo
( ) [
opuesto,
es
decir,
(− z
1,t
,− z 2,t ) .
Entonces,
finalmente,
( )]
( )
~ 1
~
~
m N ψ , ξ = m N( z1t , z 2 t ) ψ , ξ + m N(− z1t , − z 2 t ) ψ , ξ .
2
Apéndice D: Implementación Numérica del EMM para
el modelo SVJ
En este apéndice detallamos el algoritmo utilizado para simular rentabilidades para el
modelo SVJ.
En primer lugar, y al igual que para el modelo SV, ya que hemos utilizado rendimientos
en logaritmo para ajustar el modelo auxiliar, aplicamos el Lema de Ito al modelo en
tiempo continuo para obtener una caracterización del proceso en logaritmos:
(
)
dS t
= µ − λ(t )k dt + Vt dW1,t + k (t )dq t ⇒
L 'I
St
V

⇒ d ln S t =  µ − λ(t )k − t
L'I
2


 dt + Vt dW1,t + ln (1 + k (t ))dqt

y donde la varianza sigue un proceso en raíz cuadrada:
dVt = (α − βVt )dt + η Vt dW2,t
La serie de rentabilidades la obtenemos de calcular la primera diferencia del proceso
ln St :
52
rt = d ln S t − d ln S t −1
La simulación, discretización, de la parte de volatilidad estocástica se hace de la misma
forma que antes (Apéndice C). Nos centramos por tanto en el componente salto, que se
genera de la forma usual.
Aproximamos los saltos de Poisson dqt mediante una variable binomial Y , que toma
valor 1 en caso de que se dé un salto en el instante t , con probabilidad λ(t ) , y valor 0,
en caso contrario, con probabilidad 1 − λ(t ) . Entonces, dada la probabilidad de
ocurrencia de salto λ(t ) , generamos una variable uniforme U en (0,1) para definir Y de
la forma siguiente:
0
Y (t ) = 
1
si 0 ≤ U (t ) < 1 − λ(t )
si 1 − λ(t ) ≤ U (t ) ≤ 1
En la especificación del modelo estructural, k (t ) denota la magnitud de salto en el
proceso de rendimientos si un salto ocurre en t . Se supone que dicha magnitud de salto
(
)
se distribuye como una normal: Γt ~ ln(1 + k (t ) ) ≈ N ln(1 + k ) − 0.5δ 2 , δ 2 , y se fija
k = 0 . Andersen, Benzoni y Lund (2002) dicen que primeramente estiman el modelo de
Merton (1976) sin imponer esta condición, pero que debido a que la estimación de este
parámetro resulta ser insignificante y pobremente identificado por los momentos del
gradiente de la verosimilitud auxiliar deciden imponerla, lo que se correspondería con
un modelo estructural difusión-salto simétrico. Es cierto que esto no es del todo real
puesto que en principio se esperan más saltos grandes negativos que positivos. Cuando
más adelante consideran en lugar del modelo de Merton un modelo de volatilidad
estocástica con saltos, dicen que el hecho de que en Merton el parámetro k fuese
insignificante y estuviera estimado de forma imprecisa, sugiere que la asimetría se
captura mejor con una correlación negativa entre innovaciones del rendimiento y
varianza de la difusión, es decir, ρ < 0, por lo que también en este caso imponen k = 0.
Por otra parte, el hecho de que en consecuencia la media de la normal Γt (magnitud de
salto) sea -0.5 δ 2 ya hace que tengamos más saltos grandes negativos que positivos. Por
último, destacar que δ caracteriza la variabilidad de la magnitud de salto.
53
Apéndice E: Análisis previo a la estimación final SV
para el S&P 500 ( K z = 0)
En este apéndice se justifica la restricción impuesta en la estimación final de fijar el
parámetro µ en la rentabilidad media, analizando mediante un ejercicio de precisión
individual la estimación que se obtiene previamente al no imponer dicha restricción.
En este último caso se ven indicios positivos en lo siguiente: en primer lugar, el
algoritmo
se
mueve
bastante,
ψ 0 = (0.0300,0.0070,0.0200,0.0700,-0.6000)
desde
la
condición
inicial
hacía
la
estimación
inicial
ψˆ1 = (0.1935,0.3219,0.0807,0.2602,-0.3030), lo que supone un cambio importante.
Además, la función objetivo disminuye considerablemente desde un nivel de 0.8750
hasta 0.0011. Sin embargo, destacan los valores tan altos obtenidos para los parámetros
α , β y η , en comparación con las estimaciones habituales en la literatura, y lo que es
más importante, la precisión con la que se estiman los otros dos parámetros µ y ρ , es
baja.
La precisión individual de cada parámetro estimado se examina mediante un ejercicio
de estimación condicional. Se trata de fijar los valores de todos los parámetros menos
uno, y en lugar de utilizar el minimizador, realizar una red de búsqueda para ver cómo
cambia el valor de la función objetivo. Este ejercicio de sensibilidad puede resultar útil
para investigar indicios de que el mínimo local que se ha alcanzado pueda ser global.
Esencialmente consiste en ver cómo cambia el valor de la función objetivo cuando
varía uno de los parámetros desde la estimación obtenida.
En todo caso, hay que reconocer que la precisión alcanzada puede no ser muy alta para
algunos parámetros, lo que se refleja en que a veces hay variaciones apreciables en
algún parámetro sin que la función objetivo se deteriore mucho.
Tomamos entonces la estimación inicial ψˆ1 , fijamos todos los parámetros menos µ y
simulamos para una red de valores de µ dentro de su intervalo de posibles valores.
Repetimos el mismo ejercicio para el resto de parámetros. La Figura E.1 muestra
54
gráficamente para cada parámetro el cambio en la función objetivo f a lo largo de la
red de búsqueda. Asimismo, se marca en azul el punto de la estimación. Al analizar
estos gráficos se observa, en primer lugar, cómo la precisión para µ (Panel A) y ρ
(Panel E) no es muy alta, puesto que la función objetivo tiene un comportamiento
irregular pero siempre en torno a 0.002. El Panel B1 muestra una f decreciente en
función de α , que toma valores muy altos para valores de α < 0.1 en comparación con
α > 0.1, por lo que para apreciar la situación en el vector de parámetros nos fijamos en
el Panel B2, que muestra la evolución de la función objetivo para valores de α > 0.1.
Vemos que la magnitud más baja de f (0.001) se da para valores de α en torno a la
estimación obtenida. Ocurre algo similar en el caso de β (Panel C). La función
objetivo es creciente de manera que cuando β es mayor que 0.3, f toma ya valores
muy altos y cada vez mayores, mientras que los valores más bajos de f (0.001) se
obtienen para β en torno a 0.1, en torno a la estimación que tenemos. El Panel D
indica también una buena precisión en la estimación del parámetro η , y es que, salvo
algunas excepciones, vemos que para valores de η en torno a la estimación la función
objetivo es baja (alrededor de 0.002).
Dada la enorme complejidad del problema de estimación, este ejercicio proporciona
información tranquilizante respecto al hecho de que, en varias dimensiones,
consideradas individualmente, la estimación está en posición de mínimo. Hemos visto
asimismo, la débil identificación de dos parámetros, el coeficiente de correlación entre
innovaciones y la rentabilidad media.
Percibimos, por tanto, distinto grado de precisión en la estimación de cada parámetro
que nos es útil para ir aprendiendo sobre el problema. De esta forma, observamos que,
en el modelo estructural de volatilidad estocástica, el parámetro µ ajusta la rentabilidad
media, y es el único parámetro que interviene en ello. Pero, tal y como acabamos de
reflejar, estamos teniendo algún problema para identificarlo correctamente. En este
sentido, puesto que nos estamos preguntando por un vector de parámetros estructurales
que explique el comportamiento observado del S&P 500, es totalmente sensato fijar µ
de modo que reproduzca la rentabilidad media, y estimar los demás parámetros
condicional en dicho nivel. De este modo, puede que tengamos una buena idea de por
55
dónde andan los demás parámetros, y con qué precisión se puede aspirar a estimarlos. El
ejercicio consiste en fijar µ en un valor razonable, la media de las rentabilidades
observadas, y esta vez, estimar los demás. La idea es que si uno fija los valores de los
parámetros en los que se consigue menor precisión, las propiedades del algoritmo de
estimación deben mejorar sustancialmente.
Figura E.1: Evolución de la Función Objetivo a lo largo de una red de búsqueda para
cada parámetro estimado SV.
La red de valores de cada parámetro está expresada en base diaria y en porcentaje. Se marca
en azul el punto de la estimación SV. Panel A: Evolución de la Función Objetivo al variar
µ . Panel B1: Evolución de la Función Objetivo al variar α . Panel B2: Evolución de la
Función Objetivo al variar α entre 0.1 y 1. Panel C: Evolución de la Función Objetivo al
variar β . Panel D: Evolución de la Función Objetivo al variar η . Panel E: Evolución de la
Función Objetivo al variar ρ .
Panel A:
-3
2.6
Función Objetivo
x 10
2.4
2.2
f
2
1.8
1.6
1.4
1.2
1
-1
-0.8
-0.6
-0.4
-0.2
0
µ
0.2
0.4
0.6
0.8
1
56
Panel B1:
Función Objetivo
10
9
8
7
f
6
5
4
3
2
1
0
0
0.1
0.2
0.3
0.4
0.5
α
0.6
0.7
0.8
0.9
1
Panel B2:
Función Objetivo
0.07
0.06
0.05
f
0.04
0.03
0.02
0.01
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
α
Panel C:
Función Objetivo
1.4
1.2
1
f
0.8
0.6
0.4
0.2
0
0
0.1
0.2
0.3
0.4
0.5
β
0.6
0.7
0.8
0.9
1
57
Panel D:
Función Objetivo
0.04
0.035
0.03
f
0.025
0.02
0.015
0.01
0.005
0
0
0.1
0.2
0.3
0.4
η
0.5
0.6
0.7
0.8
Panel E:
-3
2.6
Función Objetivo
x 10
2.4
2.2
f
2
1.8
1.6
1.4
1.2
1
-1
-0.8
-0.6
-0.4
-0.2
0
ρ
0.2
0.4
0.6
0.8
1
Apéndice F: Análisis del componente salto para la
determinación de la condición inicial en la estimación
SVJ para el S&P 500 ( K z = 0)
En este apéndice de detalla el análisis llevado a cabo para indagar acerca de cuáles
pueden ser valores razonables para los parámetros de salto λ0 y δ , para que en media
sobre un conjunto de simulaciones tengamos un número de saltos y magnitud próximos
a los de la serie de datos.
58
Examinamos la serie de rentabilidades simulada con una determinada definición inicial
de salto para intentar ajustar el número de saltos simulados con el de la serie de datos
S&P 500. Fijamos entonces que un salto se da si la rentabilidad está separada de la
media en más de 3 desviaciones típicas, lo que es lógico tal y como se refleja en el
Panel A de la Figura F.1, que muestra la serie de datos así como las bandas que limitan
las rentabilidades separadas de la media en no más de 2, 3 y 4 desviaciones típicas. Si
contamos el número de observaciones que se alejan de la media en más de 3
desviaciones típicas se obtienen 58 saltos, de los cuales 31 son positivos y 27 negativos,
lo que, teniendo en cuenta que se dispone de un total de 5046 observaciones (unos
veinte años), suponen 3 saltos anuales, 1.6 positivos y 1.3 negativos. El mayor salto
negativo es de una rentabilidad diaria de -22.87 y el mayor salto positivo de 8.68. La
media de los saltos positivos es de 4.23 y la de los negativos de -5.37. Éstos y otros
datos básicos de la magnitud de salto se muestran en el Panel A de la Tabla F.1.
Una vez determinada la definición inicial de salto, debemos ajustar los parámetros λ0 y
δ para que las simulaciones generadas se aproximen a la serie real de datos.
Comenzamos por λ0 , que definimos como la probabilidad de que en t , una observación
básica (1/10 de día), se produzca un salto. Fijamos dicha probabilidad de manera que,
tal y como hemos observado en los datos, se den 3 saltos anuales. Para ello, λ0 debe ser
igual a 3/2400 (~0.001), ya que un año tiene 2400 observaciones básicas (debido al
hecho de que un mes tiene veinte días de negociación). Fijamos entonces λ0 en 0.001,
mientras que la magnitud de salto δ así como el resto de parámetros, se fijan
inicialmente en las estimaciones de Andersen, Benzoni y Lund (2002) para la misma
especificación SVJ en el que se intenta modelizar también la dinámica del índice S&P
500
y
donde
la
muestra
va
de
03/01/1980
a
31/12/1996:
ψ = ( µ, α, β , η, ρ, δ , λ0 ) = (0.0550,0.0089,0.0134,0.0683,-0.3234,0.0195,0.0010).
La Tabla F.1 recoge en el Panel B los resultados obtenidos en media sobre 1000
simulaciones generadas a partir de dicho vector de parámetros y el Panel B de la Figura
F.1 muestra una de estas realizaciones. El valor fijado para δ es tan bajo que no parece
que se estén generando saltos realmente, ya que éstos tienen una magnitud tan baja que
se confunden con el resto de rentabilidades. Parece claro que debemos por tanto,
59
aumentar el parámetro δ para asignar una media y varianza mayor a la magnitud de
salto.
Simulamos de nuevo 1000 trayectorias para una red de valores de δ entre 0.1 y 1,
estudiando en media la cantidad y magnitud de los saltos realizados. El Panel C de la
Figura F.1 muestra para algunos de los valores de la red una de las 1000 simulaciones.
Vemos que a medida que aumenta δ , se consigue un mejor ajuste del componente
salto, siendo para δ = 0.7, cuando tanto el número de saltos como la magnitud de éstos
presentan un comportamiento más próximo al de la serie de datos, lo que se refleja a su
vez en los valores recogidos en el Panel C de la Tabla F.1, mientras que para δ = 1, se
producen saltos demasiado grandes.
De esta forma, para los parámetros δ y λ0 parece sensato tomar inicialmente los
valores 0.7 y 0.001 que acabamos de obtener como razonables. Sin embargo, para los
parámetros de difusión, nos preguntamos si no será más adecuado tomar como
condición inicial las estimaciones obtenidas en la sección anterior para nuestra muestra,
en lugar de utilizar las estimaciones de Andersen, Benzoni y Lund (2002). Si
calculamos la norma del gradiente de la verosimilitud, f , de 1000 simulaciones
generadas a partir de ambos vectores, obtenemos valores en torno a 0.03 en el primer
caso, frente a valores en torno a 0.76 en el segundo, lo que nos inclina a elegir como
vector
de
parámetros
inicial
el
formado
por
nuestras
estimaciones
SV:
ψ 0 = ( µ, α, β , η, ρ, δ , λ0 ) = (0.0354,0.1005,0.0320,0.1227,-0.2958,0.7000,0.0010).
Tabla F.1: Análisis del Componente Salto.
Todos los datos están expresados en una base diaria y en porcentaje. Panel A: Número y
Magnitud mínima, máxima, media y desviación típica de los saltos anuales totales,
positivos y negativos de la serie de rentabilidades diarias del S&P 500 observada, de
02/01/1986 a 30/12/2005. Panel B: Número y Magnitud mínima, máxima, media y
desviación típica de los saltos anuales totales, positivos y negativos en media sobre el total
de
1000
simulaciones
generadas
a
partir
de
ψ =
(µ , α , β ,η , ρ , δ , λ )
0
=
(0.0550,0.0089,0.0134,0.0683,-0.3234,0.0195,0.0010). Panel C: Número y Magnitud
mínima, máxima, media y desviación típica de los saltos anuales totales, positivos y
60
negativos
ψ =
en media sobre el total de 1000 simulaciones generadas a partir de
(µ , α , β ,η , ρ , δ , λ ) = (0.0550,0.0089,0.0134,0.0683,-0.3234,0.7000,0.0010).
0
Panel A:
Número
2,90
1,55
1,35
Saltos
Saltos +
Saltos -
Mín.
-22,87
3,30
-22,87
Magnitud
Máx.
Media
8,68
-0,24
8,68
4,23
-3,29
-5,37
Desv. típ.
5,47
1,05
3,71
Mín.
-1,71
1,24
-1,71
Magnitud
Máx.
Media
1,68
-0,03
1,68
1,37
-1,27
-1,39
Desv. típ.
1,37
0,12
0,12
Mín.
-16,83
2,26
-16,83
Magnitud
Máx.
Media
12,43
-2,44
12,43
4,86
-2,29
-5,71
Desv. típ.
5,69
2,49
3,15
Panel B:
Número
0,89
0,44
0,45
Saltos
Saltos +
Saltos -
Panel C:
Número
2,33
0,72
1,60
Saltos
Saltos +
Saltos -
Figura F.1: Análisis del Componente Salto.
Todos los datos están expresados en una base diaria y en porcentaje. Panel A: Rendimientos
diarios del S&P 500, de 02/01/1986 a 30/12/2005 (5046 observaciones), y bandas que
limitan las rentabilidades separadas de la media en no más de 2 (en azul), 3 (en verde) y 4
(en magenta) desviaciones típicas. Panel B: Rentabilidades diarias Simuladas SVJ a partir
del vector de parámetros ψ
=
(µ , α , β ,η , ρ , δ , λ ) = (0.0550,0.0089,0.0134,0.0683,-0.3234,
0
0.0195,0.0010). Panel C: Rentabilidades diarias Simuladas SVJ a partir del vector de
parámetros ψ
=
(µ , α , β ,η , ρ , δ , λ )
0
= (0.0550,0.0089,0.0134,0.0683,-0.3234, δ ,0.0010),
donde δ toma valores 0.1 (Panel C1), 0.3 (Panel C2), 0.7 (Panel C3) y 1 (Panel C4).
61
Panel A:
Rendimientos S&P 500
15
10
5
0
-5
-10
-15
-20
-25
-30
02-Ene-1986
01-Sep-1992
03-May-1999
30-Dic-2005
Panel B:
(δ = 0.0195, λ0 = 0.001)
15
10
5
0
-5
-10
-15
-20
-25
-30
0
5000
10000
Panel C1:
(δ = 0.1, λ0 = 0.001)
15
10
5
0
-5
-10
-15
-20
-25
-30
0
5000
10000
62
Panel C2:
(δ = 0.3, λ0 = 0.001)
15
10
5
0
-5
-10
-15
-20
-25
-30
0
5000
10000
Panel C3:
(δ = 0.7, λ0 = 0.001)
15
10
5
0
-5
-10
-15
-20
-25
-30
0
5000
10000
Panel C4:
(δ = 1, λ0 = 0.001)
15
10
5
0
-5
-10
-15
-20
-25
-30
0
5000
10000
63
Apéndice G: Selección del orden de la expansión de
polinomios de Hermite del modelo auxiliar para el
índice S&P 500 ( K z > 0)
En este apéndice se describe el procedimiento seguido a la hora de elegir entre distintas
especificaciones del modelo auxiliar.
La Tabla G.1 muestra en el Panel A los resultados de las estimaciones para distintos
modelos SNP en donde inicialmente se considera un GARCH(1,1) como término
principal y una densidad con innovación homogénea ( K x = 0) para K z = 0, 1, 2, ..., 14.
Ambos criterios BIC y HQC señalan la especificación GARCH(1,1) + K z = 10 como
modelo auxiliar adecuado, aunque es cierto que la tolerancia con la que se discrimina a
favor de dicho modelo con respecto a la mayoría del resto es del orden de 10-3.
Sin embargo, se llega a la misma conclusión al realizar el test de la razón de
verosimilitud para comparar las distintas especificaciones, ya que dicho test indica que
al nivel de significación del 1% se rechaza la hipótesis nula de que los coeficientes que
forman parte del modelo K z = 10, pero no del modelo reducido ( K z = 5, 6, ..., 9), valen
cero (Tabla G.1, Panel B1), mientras que al mismo nivel de significación no existen
evidencias para rechazar la hipótesis nula cuando se considera el modelo K z = 10 como
modelo reducido y el modelo completo es cada uno de los modelos K z = 11, 12, 13 y
14 (Tabla G.1, Panel B2).
Finalmente, dado que una excesiva parametrización se traduce en elevada correlación
entre parámetros se calculan para cada modelo las matrices de correlación entre los
parámetros estimados, observando que para los modelos con K z > 10 las correlaciones
entre parámetros aumentan de manera importante así como el número de correlaciones
altas observadas, indicando de nuevo la especificación GARCH(1,1) + K z = 10 como
modelo auxiliar adecuado.
Además, no encontramos mejores resultados (en términos de mejorar la especificación)
al expandir los polinomios de Hermite a K x = 1 (densidad con innovación no
64
homogénea) y examinar lo obtenido mediante los criterios de información BIC y HQC,
así como mediante el test de la razón de verosimilitud y la matriz de correlación de los
parámetros estimados.
Todo esto nos sugiere elegir el modelo GARCH(1,1) + K z = 10 (y K x = 0) como
modelo auxiliar más apropiado.
Tabla G.1: Criterios BIC y HQC, y Test de la Razón de Verosimilitud para distintas
especificaciones SNP para el índice S&P 500.
Las estimaciones se corresponden con datos diarios de rendimientos del índice S&P 500
expresados en porcentaje, de 02/01/1986 a 30/12/2005, filtrados utilizando un modelo
MA(1) (
n=
5046 observaciones). El modelo auxiliar se corresponde con

[PK (zt , xt )]2  φ(zt ) , ν = 0.01, φ(⋅) densidad
f K (rt | xt ; ξ ) =  ν + (1 − ν )
2

∫R [PK (u , xt )] φ(u )du  ht

υ =0
r − υt
, t
zt = t
ht = γ 0 + γ 1rt2−1 + ϑ1ht −1 ~ GARCH (1,1)
ht
normal estándar,
K
K  K

PK (z , x ) = ∑ ai (x )z i = ∑  ∑ aij x j  z i , a00 = 1
i =0
i =0  j =0

z
z
x
Panel A: Valores LogLik , BIC y HQC para las distintas especificaciones SNP estimadas:
Kz
Kx
= 0, 1, ..., 14 y
= 0 y 1. Panel B1: Cinco Test de la Razón de Verosimilitud donde el
modelo completo es un GARCH(1,1) +
GARCH(1,1) +
Kz
+
Kx
= 0, donde
Kz
Kz
= 10 +
Kx
= 0 y el modelo reducido un
= 5, 6, 7, 8 y 9 según el caso. Panel B2: Cuatro
Test de la Razón de Verosimilitud donde el modelo completo es un GARCH(1,1) +
Kx
= 0 donde
Kz
= 10 +
LogLik
Kx
Kz
Kz
+
= 11, 12, 13 y 14 según el caso, y el modelo reducido un GARCH(1,1) +
= 0.
es el valor de la función de log-verosimilitud obtenida en la estimación QML de los
parámetros del modelo auxiliar, ξ, mientras que
(
χ 2 = 2 × LogLik completo − LogLik reducido
del estadístico del test de la Razón de Verosimilitud con distribución
(
)
g.l. = dim ξ completo − dim (ξ reducido ) ,
y
BIC
y
HQC
) es el valor
χ g2.l . ,
donde
son los valores de los correspondientes criterios
de información Bayesiano (BIC) y Hannan-Quinn (HQC), calculados a partir de la función
de log-verosimilitud de la forma siguiente:
~ 1 dim(ξ )
BIC = s n ξ +
ln (n )
2 n
~ dim(ξ )
HQC = s n ξ +
ln (ln (n ))
n
()
()
()
[ (
~
~
1 n
donde s n ξ = − ∑ ln f K ~rt | ~xt ; ξ
n
t =1
)]
65
Panel B1:
Panel A:
Kx =
0
Modelo completo
Kz
LogLik
BIC
HQC
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
-6855,16
-6790,66
-6765,41
-6750,66
-6766,86
-6658,50
-6657,22
-6641,53
-6647,26
-6626,58
-6612,86
-6621,47
-6614,04
-6615,43
-6611,30
1,3613
1,3494
1,3452
1,3432
1,3472
1,3266
1,3272
1,3249
1,3269
1,3236
1,3218
1,3243
1,3237
1,3248
1,3248
1,3601
1,3477
1,3431
1,3406
1,3443
1,3232
1,3234
1,3207
1,3223
1,3186
1,3163
1,3184
1,3174
1,3181
1,3177
Kz
10
LogLik
Modelo reducido
dim(ξ )
Kz
LogLik
dim(ξ )
g .l .
χ2
13
5
6
7
8
9
-6658,50
-6657,22
-6641,53
-6647,26
-6626,58
8
9
10
11
12
5
4
3
2
1
91,29
88,72
57,35
68,80
27,43
-6612,86
p-value
0
0
2,17E-12
1,11E-15
1,62E-07
Panel B2:
Modelo completo
Kz
LogLik
dim(ξ )
11
12
13
14
-6621,47
-6614,04
-6615,43
-6611,30
14
15
16
17
Modelo reducido
Kz
10
LogLik
-6612,86
dim(ξ )
g .l .
χ2
13
1
2
3
4
-17,21
-2,35
-5,14
3,13
p-value
1,00
1,00
1,00
0,54
66
Apéndice H: Función de densidad SNP para el modelo
auxiliar extendido GARCH(1,1) + K z = 10 del S&P 500
En este apéndice se muestra explícitamente la función de densidad SNP f K cuando el
modelo auxiliar considerado es un GARCH(1,1) + K z = 10, que es el que ha resultado
más apropiado para el índice S&P 500.
Al igual que para el modelo auxiliar sencillo GARCH(1,1) sin parte no paramétrica, la
forma general de la densidad SNP viene dada por la expresión (5):
2

 φ( z )
[
PK (z t , x t )]


t
f K (rt | x t ; ξ ) =  ν + (1 − ν )
2
 h

[
(
)
]
(
)
P
u
x
φ
u
du
,
t
∫R K t


con ν = 0.01, φ(⋅) es la densidad normal estándar, φ( z t ) =
zt =
rt − υ t
ht
, que en este caso es z t =
rt
ht
 z t2 
exp −  , y
2π
 2
1
con ht = γ 0 + γ 1rt 2−1 + ϑ1 ht , ya que la media
y varianza del modelo auxiliar son υt = 0 y ht = γ 0 + γ 1rt 2−1 + ϑ1 ht , respectivamente.
Por
otro
lado,
de
(A.3)
10
10
10
i =0
i =1
i =1
deducimos
que,
2
2
2
2
2
∫R [PK (u, x )] φ(u )du = ∑ ai = a0 + ∑ ai = 1 + ∑ ai .
Sin embargo, al incorporar polinomios de Hermite, el cálculo de PK ( z , x ) se complica.
10
De (A.1) se tiene que, PK ( z , x ) = P( Kz , Kx ) ( z , x ) = P(10,0 ) ( z , x ) = P10 ( z ) = ∑ a i He i ( z ) .
i =0
Calculamos por tanto, el polinomio de Hermite de orden i , Hei ( z ) , para i = 0, ,10, y
su correspondiente polinomio ortogonal de Hermite, He i ( z ) , a partir de las expresiones
(A.4) y (A.2), respectivamente. De esta forma,
67
[ 2 (z − 1)]+ a [ 3!(z − 3z )]+
+ a [ 4!(z − 6 z + 3)] + a [ 5!(z − 10 z + 15 z )] + a [ 6!(z − 15 z + 45 z − 15)] +
+ a [ 7!(z − 21z + 105 z − 105 z )] + a [ 8!(z − 28 z + 210 z − 420 z + 105)] +
+ a [ 9!(z − 36 z + 378 z − 1260 z + 945 z )] +
+ a [ 10!(z − 45 z + 630 z − 3150 z + 4725 z − 945)]
10
PK ( z , x ) = P10 ( z ) = ∑ ai He i ( z ) = 1 + a1 z + a 2
2
3
3
i =0
4
2
5
4
3
6
5
7
5
4
2
6
3
8
7
6
4
2
8
9
7
5
3
9
10
8
6
4
2
10
que escrito en forma de polinomio es:
[
]
PK (z , x ) = P10 (z ) = 1 − 2a 2 + 3 4!a 4 − 15 6!a6 + 105 8!a8 − 945 10!a10 +
[
]
+ [ 2a − 6 4!a + 45 6!a − 420 8!a + 4725 10!a ]z +
+ [ 3!a − 10 5!a + 105 7!a − 1260 9!a ]z +
+ [ 4!a − 15 6!a + 210 8!a − 3150 10!a ]z +
+ [ 5!a − 21 7!a + 378 9!a ]z + [ 6!a − 28 8!a + 630 10!a ]z
+ [ 7!a − 36 9!a ]z + [ 8!a − 45 10!a ]z + 9!a z + 10!a z
+ a1 − 3 3!a3 + 15 5!a5 − 105 7!a 7 + 945 9!a9 z +
2
2
4
6
8
10
3
3
5
7
9
4
6
8
5
7
9
6
7
9
8
10
4
10
5
7
8
6
10
8
9
9
+
10
10
Por tanto, para el S&P 500, la función de densidad SNP f K cuando el modelo auxiliar
considerado es un GARCH(1,1) + K z = 10 es:





2 
[
[P10 (z )]2
P10 (z )]  φ(z t ) 

=
+
f K (rt | x t ; ξ ) = 0 .01 + 0.99
0
.
01
0
.
99
10
10

 h

2
t
+
+
a
a i2
1
1


∑
∑
i 
i =1
i =1






2 
 rt 2 
[
P10 ( z )] 
1


= 0.01 + 0 .99
exp  −
10


 2π h
h
2
2
t 

t
1 + ∑ ai 

i =1


2
 1 exp  − z t 

 2 

=
 2π

ht


con ht = γ 0 + γ 1rt 2−1 + ϑ1 ht .
68
Tabla 1: Rendimientos de los índices S&P 500, DAX 30, IBEX 35 y CAC 40.
Panel A: Estadísticos básicos de las series de rendimientos diarios de los índices S&P 500,
de 02/01/1986 a 30/12/2005 (5046 observaciones), DAX 30, IBEX 35 y CAC 40, estos
últimos de 04/01/1988 a 31/12/2003 (4023, 3996 y 4010 observaciones, respectivamente).
Todas las Figuras y Tablas están expresadas en una base diaria y en porcentaje. Panel B:
Contraste de Dickey-Fuller aumentado (ADF) de raíces unitarias para la serie de
rendimientos rt . El test se basa en la regresión:
12
∆rt = ω + ςt + θrt −1 + ∑ τ j ∆rt − j + ε t
j =1
Panel C: Correlaciones entre las series de rendimientos diarios de los distintos índices.
Panel A: Estadísticos Básicos
S&P 500
DAX 30
IBEX 35
0,0354
0,0342
0,0298
1,0875
1,4754
1,3135
-2,0568
-0,3560
-0,2042
46,4752
8,1054
6,5197
CAC 40
0,0317
1,3613
-0,1169
5,6582
Panel B: Test Dickey-Fuller aumentado
S&P 500
DAX 30
IBEX 35
-19,93
-17,62
-16,76
ADF
-3,41
-3,41
-3,41
valor crítico del 5%
-3,97
-3,97
-3,97
valor crítico del 1%
CAC 40
-17,81
-3,41
-3,97
Media
Desviación típica
Asimetría
Curtosis
S&P 500
DAX 30
IBEX 35
CAC 40
Panel C: Correlaciones
S&P 500
DAX 30
IBEX 35
1
0,41
1
0,35
0,66
1
0,40
0,73
0,73
CAC 40
1
69
Tabla 2: Estimaciones del Modelo SNP.
Las estimaciones se corresponden con datos diarios de rendimientos de los índices S&P 500, de 02/01/1986 a 30/12/2005 (5046 observaciones), DAX 30, IBEX
35 y CAC 40, estos últimos de 04/01/1988 a 31/12/2003 (4023, 3996 y 4010 observaciones, respectivamente), expresados en porcentaje, filtrados utilizando un
modelo MA(1).
Panel A: Modelo auxiliar sin parte no paramétrica ( K z = 0):
f K (rt | xt ; ξ ) =
φ(zt )
ht
, φ(⋅) densidad normal estándar,
zt =
rt − υt
ht
υt = 0
ht = γ 0 + γ 1rt2−1 + ϑ1ht −1 ~ GARCH (1,1)
S&P 500
DAX 30
IBEX 35
CAC 40
GARCH(1,1)
GARCH(1,1)
GARCH(1,1)
GARCH(1,1)
Parámetro Estimación Error Estándar Parámetro Estimación Error Estándar Parámetro Estimación Error Estándar Parámetro Estimación Error Estándar
γ0
γ0
γ0
γ0
0,0191
(0,1535)
0,0619
(0,3495)
0,0503
(0,3747)
0,0552
(0,3769)
γ1
γ1
γ1
γ1
0,1129
(0,2118)
0,1426
(0,5369)
0,1014
(0,6123)
0,1019
(0,5586)
ϑ1
ϑ1
ϑ1
ϑ1
0,8793
(0,3909)
0,8334
(0,6855)
0,8692
(0,7822)
0,8681
(0,6355)
70
Panel B: Modelo auxiliar extendido ( K z > 0):

[PK (zt , xt )]2
f K (rt | xt ; ξ ) =  ν + (1 − ν )
2

∫R [PK (u , xt )] φ(u )du

 φ(z )
t

 h
t

zt =
, ν = 0.01, φ(⋅) densidad normal estándar,
rt − υt
ht
υt = 0
ht = γ 0 + γ 1rt2−1 + ϑ1ht −1 ~ GARCH (1,1)
K
K  K

PK (z , x ) = ∑ ai (x )z i = ∑  ∑ aij x j  z i , a00 = 1
i =0
i =0  j =0

z
z
x
S&P 500
DAX 30
IBEX 35
CAC 40
GARCH(1,1) + K z = 10
GARCH(1,1) + K z = 12
GARCH(1,1) + K z = 9
GARCH(1,1) + K z = 6
Parámetro Estimación Error Estándar Parámetro Estimación Error Estándar Parámetro Estimación Error Estándar Parámetro Estimación Error Estándar
γ0
γ0
γ0
γ0
0,0202
(0,2248)
0,0450
(0,4021)
0,0436
(0,3305)
0,0665
(0,7340)
γ1
γ
γ
γ
0,0859
(0,2343)
0,1015
(0,5473)
0,1128
(0,7295)
0,1054
(0,8625)
1
1
1
ϑ1
ϑ1
ϑ1
ϑ1
0,9141
(0,4376)
0,8985
(0,6616)
0,8872
(0,6132)
0,8946
(0,8203)
a1
a
a
a
0,0240
(0,5123)
0,0211
(0,5165)
0,0059
(0,5143)
0,0107
(0,5193)
1
1
1
a2
a2
a2
a2
-0,0880
(0,7127)
-0,1108
(0,8667)
-0,1123
(0,9923)
-0,1182
(1,3151)
a3
a
a
a
3
3
3
-0,0334
(0,4921)
-0,0029
(0,5432)
-0,0533
(0,5288)
-0,0185
(0,5404)
a4
a4
a4
a4
0,0752
(0,4951)
0,0275
(0,5347)
0,0217
(0,5943)
0,0379
(0,5773)
a5
a5
a5
a5
-0,0067
(0,5510)
0,0550
(0,5080)
-0,0206
(0,5936)
0,0197
(0,5844)
a6
a
a
a6
6
6
-0,0145
(0,6099)
-0,0117
(0,5225)
-0,0229
(0,5266)
-0,0377
(0,5584)
a7
a7
a7
-0,0160
(0,7130)
-0,0118
(0,5843)
0,0162
(0,5651)
a8
a8
a8
0,0197
(0,7636)
0,0199
(0,6498)
0,0123
(0,5151)
a9
a
a
9
9
0,0118
(0,7900)
-0,0231
(0,6590)
0,0364
(0,4966)
a10
a10
-0,0405
(0,7291)
-0,0027
(0,8192)
a11
0,0158
(0,8136)
a12
-0,0325
(0,8805)
71
Tabla 3: Estimaciones EMM del Modelo de Volatilidad Estocástica (SV) y del Modelo de Volatilidad Estocástica con Saltos (SVJ).
Las estimaciones se corresponden con datos diarios de rendimientos de los índices S&P 500, de 02/01/1986 a 30/12/2005 (5046 observaciones), DAX 30, IBEX
35 y CAC 40, estos últimos de 04/01/1988 a 31/12/2003 (4023, 3996 y 4010 observaciones, respectivamente), expresados en porcentaje y se refieren a los
siguientes modelos:
SV:
SVJ:
dSt
= µdt + Vt dW1, t
St
(
, dVt = (α − βVt )dt + η Vt dW 2, t
)
dS t
= µ − λ (t )k dt + Vt dW1, t + k (t )dqt , dVt = (α − βVt )dt + η Vt dW2, t
St
(
ln (1 + k (t ) ) ≈ N ln(1 + k ) − 0.5δ 2 , δ 2
(
)
), k =0 ,
cov dW1, t , dW2, t = ρdt , Pr (dqt = 1) = λ (t )dt
, λ(t ) = λ0 .
Panel A: Modelo auxiliar sin parte no paramétrica ( K z = 0):
S&P 500
GARCH(1,1)
Parámetro
SV
µ
0,0354
α
0,1005
β
0,0320
η
0,1227
ρ
-0,2958
δ
λ0
f
0,0003
SVJ
0,0354
0,0476
0,0162
0,0814
-0,6538
0,9156
0,0004
0,0019
DAX 30
GARCH(1,1)
Parámetro
SV
µ
0,0342
α
0,0461
β
0,0152
η
0,0529
ρ
-0,1063
δ
λ0
f
0,0038
SVJ
0,0342
0,0653
0,0220
0,1319
-0,2126
0,3741
0,0017
0,0011
IBEX 35
GARCH(1,1)
Parámetro
SV
µ
0,0126
α
0,0588
β
0,0127
η
0,1189
ρ
-0,0557
δ
λ0
f
0,0029
SVJ
0,0743
0,0376
0,0111
0,0490
-0,4047
0,3495
0,0024
0,0016
CAC 40
GARCH(1,1)
Parámetro
SV
µ
0,0317
α
0,0410
β
0,0115
η
0,1052
ρ
-0,4214
δ
λ0
f
0,0046
SVJ
0,0317
0,0401
0,0114
0,1012
-0,4377
0,2915
0,0021
0,0024
72
Panel B: Modelo auxiliar extendido ( K z > 0):
Los errores estándar de los parámetros estimados vienen dados entre paréntesis.
S&P 500
GARCH(1,1) + K z = 10
Parámetro
SV
SVJ
µ
0,0354
0,0354
α
β
η
ρ
δ
λ0
f
χ
2
[g .l .]
(p-value)
0,0392
(0,0251)
0,0189
(0,0119)
0,0778
(0,1510)
-0,2499
(0,2243)
0,9226
(0,1241)
0,0003
(0,0002)
0,0300
0,0271
151,38 [9] 136,74 [7]
0
0
DAX 30
GARCH(1,1) + K z = 12
Parámetro
SV
SVJ
µ
0,0342
0,0342
α
0,0440
(0,1549)
0,0196
(0,0592)
0,1518
(0,5046)
-0,6340
(0,3812)
β
η
ρ
δ
λ0
f
χ
2
[g .l .]
(p-value)
0,0612
(0,0440)
0,0209
(0,0132)
0,1198
(0,1357)
-0,2537
(0,1650)
0,3716
(0,0909)
0,0017
(0,0020)
0,0249
0,0243
100,21 [11] 97,63 [9]
1,11E-16
0
IBEX 35
GARCH(1,1) + K z = 9
Parámetro
SV
SVJ
µ
0,0298
0,0298
α
0,0473
(0,0292)
0,0167
(0,0087)
0,0565
(0,2914)
-0,1126
(0,4854)
β
η
ρ
0,0638
(0,1230)
0,0209
(0,0365)
0,1367
(0,2562)
-0,6562
(0,6401)
δ
λ0
f
χ
2
[g .l .]
(p-value)
0,0167
66,90 [8]
2,03E-11
0,0275
(0,0112)
0,0108
(0,0023)
0,0564
(0,3663)
0,2509
(0,2695)
0,2782
(0,0619)
0,0024
(0,0023)
0,0149
59,63 [6]
5,35E-11
CAC 40
GARCH(1,1) + K z = 6
Parámetro
SV
SVJ
µ
0,0317
0,0317
α
β
η
ρ
δ
λ0
f
χ
2
[g .l .]
(p-value)
0,0456
(0,0165)
0,0109
(0,0022)
0,1640
(0,1252)
-0,3427
(0,5554)
0,0431
(0,0386)
0,0130
(0,0076)
0,0914
(0,5254)
-0,4368
(0,4163)
0,3040
(0,0930)
0,0025
(0,0034)
0,0191
0,0187
76,49 [5] 75,12 [3]
4,55E-15 3,33E-16
73
Tabla 4: Diagnosis EMM del Modelo de Volatilidad Estocástica (SV) y del Modelo de Volatilidad Estocástica con Saltos (SVJ).
Las estimaciones se corresponden con datos diarios de rendimientos de los índices S&P 500, de 02/01/1986 a 30/12/2005 (5046 observaciones), DAX 30, IBEX
35 y CAC 40, estos últimos de 04/01/1988 a 31/12/2003 (4023, 3996 y 4010 observaciones, respectivamente), expresados en porcentaje. Panel A: Diagnosis
EMM cuando se considera el modelo auxiliar sin parte no paramétrica ( K z = 0): quasi-estadísticos t de los componentes del gradiente de la verosimilitud. Panel
B: Diagnosis EMM cuando se considera el modelo auxiliar extendido ( K z > 0): Panel B.1: estadísticos t de los componentes del gradiente de la verosimilitud.
Panel B.2: Correlaciones entre las estimaciones EMM. Las correlaciones mayores que 0.5 en valor absoluto se muestran en negrita.
Panel A: Modelo auxiliar sin parte no paramétrica ( K z = 0): quasi-estadísticos t de los componentes del gradiente de la verosimilitud:
Los componentes del gradiente de la verosimilitud se corresponden con los parámetros del modelo auxiliar
f K (rt | xt ; ξ ) =
φ(zt )
ht
, φ(⋅) densidad normal estándar,
zt =
rt − υt
ht
υt = 0
ht = γ 0 + γ 1 rt 2−1 + ϑ1 ht −1 ~ GARCH (1,1)
Los errores estándar aproximados de los componentes del gradiente de la verosimilitud vienen dados entre paréntesis.
S&P 500
GARCH(1,1)
Parámetro
SV
SVJ
γ0
1,0056
6,6064
(0,2649) (0,2649)
γ1
-0,9494
3,2449
(0,1876) (0,1876)
ϑ1
0,0775
(0,1696)
6,1259
(0,1696)
DAX 30
GARCH(1,1)
Parámetro
SV
γ0
-2,6098
(0,1489)
γ1
-3,9555
(0,1183)
ϑ1
-3,5067
(0,1404)
SVJ
-0,1738
(0,1489)
-2,3710
(0,1183)
-1,2512
(0,1404)
IBEX 35
GARCH(1,1)
Parámetro
SV
SVJ
γ0
0,3980
1,0832
(0,2639) (0,2639)
γ1
-1,2954 -1,2187
(0,1148) (0,1148)
ϑ1
0,1353
(0,1941)
0,5286
(0,1941)
CAC 40
GARCH(1,1)
Parámetro
SV
SVJ
γ0
-3,3980
-0,5229
(0,1051) (0,1051)
γ1
-4,6164
-3,1885
( 0,1004) (0,1004)
ϑ1
-3,9810
(0,1137)
-1,7135
(0,1137)
74
Panel B.1: Modelo auxiliar extendido ( K z > 0): estadísticos t de los componentes del gradiente de la verosimilitud:
Los componentes del gradiente de la verosimilitud se corresponden con los parámetros del modelo auxiliar

[PK (zt , xt )]2
f K (rt | xt ; ξ ) =  ν + (1 − ν )
2

∫R [PK (u , xt )] φ(u )du

 φ(z )
t

 h
t

zt =
,
= 0.01, φ(⋅) densidad normal estándar,
ν
rt − υt
ht
υt = 0
ht = γ 0 + γ 1rt2−1 + ϑ1ht −1 ~ GARCH (1,1)
K
K  K

PK (z , x ) = ∑ ai (x )z i = ∑  ∑ aij x j  z i , a00 = 1
i =0
i =0  j =0

z
z
x
Los p-values obtenidos de los contrastes de significatividad individual de los componentes del gradiente de la verosimilitud vienen dados entre paréntesis.
S&P 500
GARCH(1,1) + K z = 10
Parámetro
γ0
γ1
ϑ1
a1
DAX 30
GARCH(1,1) + K z = 12
SV
0,3020
(0,7695)
-0,1617
(0,8751)
SVJ
19,2803*
(0,0000)
3,0103
(0,0197)
Parámetro
0,0699
(0,9458)
8,4782*
(0,0001)
-12,7634* -7,6883*
(0,0000) (0,0001)
IBEX 35
GARCH(1,1) + K z = 9
SV
-2,0505
(0,0649)
-2,8770
(0,0151)
SVJ
-1,5257
(0,1614)
-3,3040*
(0,0092)
Parámetro
ϑ1
-2,7906
(0,0176)
-2,8351
(0,0196)
a1
-6,3998*
(0,0001)
-6,2131*
(0,0002)
γ0
γ1
CAC 40
GARCH(1,1) + K z = 6
SV
-0,2634
(0,7989)
-2,3676
(0,0454)
SVJ
-0,3183
(0,7611)
-4,0996*
(0,0064)
Parámetro
ϑ1
-0,6679
(0,5230)
-1,6315
(0,1539)
a1
-6,1749*
(0,0003)
-7,3971*
(0,0003)
γ0
γ1
SV
-4,3971*
(0,0070)
-4,9334*
(0,0043)
SVJ
-7,6521*
(0,0046)
-15,6475*
(0,0006)
ϑ1
-4,6364*
(0,0057)
-10,9276*
(0,0016)
a1
-11,8735*
(0,0001)
-5,8253
(0,0101)
γ0
γ1
75
a2
-4,9889*
(0,0008)
-6,5876*
(0,0003)
a2
-8,4594*
(0,0000)
-8,8914*
(0,0000)
a2
-4,2795*
(0,0027)
-6,4578*
(0,0007)
a2
-7,7857*
(0,0006)
-21,3332*
(0,0002)
a3
4,8112*
(0,0010)
4,6334*
(0,0024)
a3
3,0654
(0,0107)
4,4550*
(0,0016)
a3
6,0106*
(0,0003)
4,1593*
(0,0059)
a3
3,7030
(0,0140)
10,9456*
(0,0016)
a4
-5,5823*
(0,0003)
-3,6551*
(0,0081)
a4
0,5452
(0,5965)
3,0721
(0,0133)
a4
0,0349
(0,9730)
4,5448*
(0,0039)
a4
0,1227
(0,9072)
6,3862*
(0,0078)
a5
-0,4515
(0,6623)
-0,5438
(0,6035)
a5
-4,4745*
(0,0009)
-3,2038
(0,0108)
a5
0,2480
(0,8104)
-2,1193
(0,0784)
a5
-2,2788
(0,0716)
-1,4170
(0,2515)
a6
1,9928
(0,0774)
2,4731
(0,0426)
a6
0,0288
(0,9775)
-1,2527
(0,2419)
a6
0,9125
(0,3882)
-1,1150
(0,3075)
a6
1,5151
(0,1902)
-5,5399
(0,0116)
a7
1,7779
(0,1091)
2,0463
(0,0800)
a7
1,2957
(0,2216)
1,3249
(0,2179)
a7
-0,7684
(0,4643)
0,8367
(0,4348)
a8
-3,4387*
(0,0074)
-3,5631*
(0,0092)
a8
-0,9408
(0,3670)
1,8916
(0,0911)
a8
-0,3757
(0,7169)
-0,4693
(0,6554)
a9
-1,3488
(0,2104)
-1,0667
(0,3215)
a9
1,3867
(0,1930)
-0,6556
(0,5285)
a9
-1,8654
(0,0991)
0,8906
(0,4074)
a10
4,7963*
(0,0010)
-1,0324
(0,3362)
a10
-0,1531
(0,8811)
-0,7248
(0,4870)
a11
-1,4717
(0,1691)
-0,7371
(0,4798)
a12
2,4599
(0,0317)
-1,4177
(0,1900)
76
Panel B.2: Correlaciones entre las estimaciones EMM:
Los modelos vienen dados por las siguientes expresiones:
SV:
SVJ:
(
dSt
= µdt + Vt dW1, t
St
,
dV t = (α − β Vt )dt + η Vt dW 2 , t
)
dS t
= µ − λ (t )k dt + Vt dW1, t + k (t )dqt , dVt = (α − βVt )dt + η Vt dW2, t
St
(
(
ln (1 + k (t ) ) ≈ N ln(1 + k ) − 0.5δ 2 , δ 2
)
), k =0 ,
cov dW1, t , dW2, t = ρdt , Pr (dqt = 1) = λ (t )dt
, λ(t ) = λ0 .
y las correlaciones se calculan de la forma usual a partir de la matriz de varianzas y covarianzas asintótica Cov(ψˆ ) =
(
~
1
Mψ ' I Mψ
n
)
−1
, donde M ψ =
( ).
~
∂mN ψˆ , ξ
∂ψ
S&P 500
DAX 30
IBEX 35
CAC 40
GARCH(1,1) + K z = 10 / SV GARCH(1,1) + K z = 12 / SV GARCH(1,1) + K z = 9 / SV GARCH(1,1) + K z = 6 / SV
η
β
α
α
η
1
0,99
1
ρ
0,35
0,33
0,48
S&P 500
GARCH(1,1) + K z = 10 / SVJ
α
β
η
ρ
δ
ρ
η
1
0,94
1
ρ
-0,01
-0,04
-0,02
η
1
0,98
1
ρ
0,22
0,23
0,10
DAX 30
GARCH(1,1) + K z = 12 / SVJ
λ0
α
β
η
ρ
δ
ρ
α
β
η
η
1
0,98
0,99
1
0,96
1
ρ
0,01
0,08
-0,11
α
1
1,00
0,98
β
1
η
β
α
α
1
0,99
0,97
β
1
η
β
α
α
1
1,00
0,99
β
α
ρ
β
1
IBEX 35
GARCH(1,1) + K z = 9 / SVJ
λ0
α
β
η
ρ
δ
ρ
1
CAC 40
GARCH(1,1) + K z = 6 / SVJ
λ0
α
β
η
ρ
1
α
1
α
1
α
1
β
0,98
β
0,99
1
β
0,96
1
β
1,00
1
η
0,12 -0,04
η
0,93
0,88
1
η
0,98
0,94
1
η
1,00
0,99
1
ρ
0,05
ρ
0,54
0,52
0,50
1
ρ
0,73
0,68
0,77
1
ρ
0,31
0,30
0,35
δ
0,44
0,37
0,49
0,68
δ
0,15
0,00
0,10
0,07
δ
0,71
0,68
0,69 -0,10
δ
λ0
1
1
0,04 -0,20
-0,33 -0,27 -0,68
0,04
1
0,19
0,19 -0,76 -0,06
1
0,29
1
1 λ0 -0,34 -0,27 -0,40 -0,61 -0,91
1
1 λ0 -0,23 -0,11 -0,19 -0,08 -0,88
δ
λ0
1
1
1 λ0 -0,76 -0,73 -0,75 -0,07 -0,95
1
77
Tabla 5: Estadísticos Básicos de los datos y de las simulaciones SV y SVJ a partir de ψ 0 y ψˆ , y Función de Pérdida individual y conjunta de los
momentos de tercer y cuarto orden.
Las estimaciones se corresponden con datos diarios de rendimientos de los índices S&P 500, de 02/01/1986 a 30/12/2005 (5046 observaciones), DAX 30, IBEX
35 y CAC 40, estos últimos de 04/01/1988 a 31/12/2003 (4023, 3996 y 4010 observaciones, respectivamente), expresados en porcentaje.
La Función de Pérdida viene dada por las expresiones siguientes:
FPasimetría = 100
(
abs asimetría datos − asimetríaψ
abs(asimetría datos )
)
, FPcurtosis = 100
(
abs curtosis datos − curtosisψ
abs(curtosis datos )
)
FPconjunta = 0.5 × FPasimetría + 0.5 × FPcurtosis
y
Panel A: Modelo auxiliar sin parte no paramétrica ( K z = 0):
Estadísticos
Básicos
r
r (ψ 0 )
S&P 500
SV
r (ψˆ )
SVJ
r (ψ 0 )
r (ψˆ )
r
r (ψ 0 )
DAX 30
SV
r (ψˆ )
SVJ
r (ψ 0 )
r (ψˆ )
r (ψ 0 )
r
IBEX 35
SV
r (ψˆ )
SVJ
r (ψ 0 )
r (ψˆ )
r (ψ 0 )
r
CAC 40
SV
r (ψˆ )
SVJ
r (ψ 0 )
r (ψˆ )
0,035 -0,006 -0,061 -0,085 -0,072 0,034 -0,067 -0,059 -0,066 -0,069 0,030 -0,100 -0,091 -0,116 -0,078 0,032 -0,098 -0,070 -0,076 -0,077
Media
Desviación típica 1,088 0,301 0,912 1,095 1,008 1,475 0,940 0,896 0,953 0,972 1,314 1,145 1,106 1,251 1,049 1,361 1,145 0,970 1,016 1,024
-2,046 -0,007 -0,005 -1,442 -1,908 -0,369 -0,001 -0,002 -0,125 -0,295 -0,170 -0,008 -0,003 -0,188 -0,236 -0,105 -0,008 -0,005 -0,097 -0,118
Asimetría
46,263 3,257 3,065 28,534 44,273 8,125 3,012 3,015 5,193 8,349 6,468 3,092 3,056 5,529 6,826 5,648 3,092 3,059 4,621 4,911
Curtosis
-22,869 -1,272 -3,717 -16,981 -19,461 -13,729 -3,743 -3,569 -7,681 -9,516 -8,882 -4,717 -4,483 -9,247 -9,304 -7,660 -4,714 -3,939 -7,632 -7,798
Mínimo
8,678 1,253 3,561 12,512 12,331 7,576 3,584 3,428 6,739 8,137 6,864 4,468 4,295 8,083 8,028 6,813 4,471 3,766 6,689 6,785
Máximo
Función de
Pérdida
FPasimetría
S&P 500
r (ψ 0 )
SV
r (ψˆ )
r (ψ 0 )
DAX 30
SVJ
r (ψˆ )
r (ψ 0 )
SV
r (ψˆ )
r (ψ 0 )
IBEX 35
SVJ
r (ψˆ )
r (ψ 0 )
SV
r (ψˆ )
r (ψ 0 )
CAC 40
SVJ
r (ψˆ )
r (ψ 0 )
SV
r (ψˆ )
r (ψ 0 )
SVJ
r (ψˆ )
FPcurtosis
99,67% 99,76% 29,50%
92,96% 93,37% 38,32%
6,72%
4,30%
99,62% 99,57% 66,29%
62,93% 62,89% 36,09%
20,20%
2,75%
95,18% 98,24% 10,23% 38,62%
52,19% 52,75% 14,52%
5,55%
92,24% 95,36%
8,15% 12,51%
45,26% 45,83% 18,18% 13,05%
FPconjunta
96,31% 96,57% 33,91%
5,51%
81,27% 81,23% 51,19%
11,48%
73,69% 75,49% 12,37% 22,09%
68,75% 70,60% 13,17% 12,78%
78
Panel B: Modelo auxiliar extendido ( K z > 0):
Estadísticos
Básicos
r
r (ψ 0 )
S&P 500
SV
r (ψˆ )
SVJ
r (ψ 0 )
r (ψˆ )
r
r (ψ 0 )
DAX 30
SV
r (ψˆ )
SVJ
r (ψ 0 )
r (ψˆ )
r (ψ 0 )
r
IBEX 35
SV
r (ψˆ )
SVJ
r (ψ 0 )
r (ψˆ )
r (ψ 0 )
r
CAC 40
SV
r (ψˆ )
SVJ
r (ψ 0 )
r (ψˆ )
0,035 -0,061 -0,043 -0,072 -0,052 0,034 -0,059 -0,055 -0,069 -0,068 0,030 -0,091 -0,060 -0,079 -0,058 0,032 -0,070 -0,082 -0,078 -0,077
Media
Desviación típica 1,088 0,909 0,764 1,008 0,864 1,475 0,896 0,865 0,972 0,966 1,314 1,101 0,895 1,048 0,894 1,361 0,970 1,043 1,027 1,021
-2,046 -0,006 -0,011 -1,908 -2,543 -0,369 -0,002 -0,002 -0,294 -0,291 -0,170 -0,005 -0,008 -0,241 -0,157 -0,105 -0,005 -0,011 -0,115 -0,159
Asimetría
46,263 3,070 3,184 44,273 67,104 8,125 3,015 3,018 8,348 8,282 6,468 3,058 3,103 6,916 5,957 5,648 3,059 3,134 4,863 5,640
Curtosis
-22,869 -3,706 -3,211 -19,461 -18,915 -13,729 -3,569 -3,450 -9,521 -9,448 -8,882 -4,482 -3,689 -9,361 -7,407 -7,660 -3,939 -4,342 -7,698 -8,176
Mínimo
8,678 3,548 3,093 12,331 11,722 7,576 3,428 3,316 8,141 8,091 6,864 4,259 3,534 8,099 6,598 6,813 3,766 4,131 6,785 7,150
Máximo
Función de
Pérdida
FPasimetría
S&P 500
r (ψ 0 )
SV
r (ψˆ )
r (ψ 0 )
DAX 30
SVJ
r (ψˆ )
r (ψ 0 )
SV
r (ψˆ )
r (ψ 0 )
IBEX 35
SVJ
r (ψˆ )
r (ψ 0 )
SV
r (ψˆ )
r (ψ 0 )
CAC 40
SVJ
r (ψˆ )
r (ψ 0 )
SV
r (ψˆ )
r (ψ 0 )
SVJ
r (ψˆ )
FPcurtosis
99,71% 99,44%
93,36% 93,12%
6,72%
4,30%
24,33%
45,05%
99,57% 99,54% 20,28%
62,89% 62,85%
2,75%
21,28%
1,93%
96,94% 95,24% 41,39%
52,73% 52,02%
6,93%
7,82%
7,89%
95,36% 90,04%
9,30%
45,83% 44,51% 13,91%
51,41%
0,14%
FPconjunta
96,54% 96,28%
5,51%
34,69%
81,23% 81,19% 11,52%
11,61%
74,83% 73,63% 24,16%
7,86%
70,60% 67,28% 11,61%
25,77%
79
Figura 1: Rendimientos diarios del S&P 500, DAX 30 e IBEX 35.
Todos los datos están expresados en una base diaria y en porcentaje. Panel A: Rendimientos
diarios del S&P 500, de 02/01/1986 a 30/12/2005 (5046 observaciones). Panel B:
Rendimientos diarios del DAX 30, de 04/01/1988 a 31/12/2003 (4023 observaciones).
Panel C: Rendimientos diarios del IBEX 35, de 04/01/1988 a 31/12/2003 (3996
observaciones). Panel D: Rendimientos diarios del CAC 40, de 04/01/1988 a 31/12/2003
(4010 observaciones).
Panel A:
Rendimientos S&P 500
10
5
0
-5
-10
-15
-20
-25
02-Ene-1986
01-Sep-1992
03-May-1999
30-Dic-2005
Panel B:
Rendimientos DAX 30
10
5
0
-5
-10
-15
-20
-25
04-Ene-1988
13-May-1993
15-Sep-1998
30-Dic-2003
80
Panel C:
Rendimientos IBEX 35
10
5
0
-5
-10
-15
-20
-25
04-Ene-1988
14-May-1993
02-Sep-1998
30-Dic-2003
Panel D:
Rendimientos CAC 40
10
5
0
-5
-10
-15
-20
-25
04-Ene-1988
17-May-1993
25-Sep-1998
31-Dic-2003
81
Descargar