Análisis Empírico de la Volatilidad Estocástica y Saltos para Modelos en Tiempo Continuo de Índices Bursátiles utilizando el EMM Ana González (Universidad del País Vasco) Septiembre 2008 Resumen Este artículo analiza, utilizando el Método Eficiente de Momentos EMM, un modelo en tiempo continuo de difusión para la volatilidad estocástica con y sin saltos en rentabilidad. Encontramos que la volatilidad estocástica por sí misma no es suficiente para describir la distribución de rendimientos y que para aproximar con éxito su dinámica es fundamental, además de considerar volatilidad estocástica, incorporar saltos en rentabilidad. Con esta especificación logramos reproducir la asimetría y curtosis existente en los rendimientos de cuatro índices bursátiles distintos: el S&P 500, para datos diarios entre 1986 y 2005, y el DAX 30, IBEX 35 y CAC 40, estos últimos entre 1988 y 2003, extendiendo así la poca evidencia existente para datos estadounidenses a otros índices de la zona euro. Palabras clave: volatilidad estocástica, saltos, Método Eficiente de Momentos (EMM), SNP, polinomios de Hermite, asimetría, curtosis JEL: C13, C14, C15, C32 La autora agradece la ayuda económica recibida por el Plan Nacional de I+D+I (proyecto SEJ200606309) y en especial a Mª Paz Espinosa. También quiero agradecer a Alfonso Novales y Gonzalo Rubio su inestimable ayuda. 1 Introducción El éxito alcanzado en los últimos treinta años al utilizar modelos de difusión simples para aproximar el proceso estocástico de los rendimientos de activos financieros no tiene precedentes. Sin embargo, las llamadas sonrisas de volatilidad calculadas al utilizar la volatilidad implícita del venerado modelo de Black-Scholes revelan que un simple proceso geométrico browniano no es suficiente para capturar algunas características importantes de los datos. Además, la evidencia empírica sugiere que las decisiones financieras basadas en un marco en tiempo continuo serán satisfactorias sólo si se construye sobre especificaciones razonables del proceso de rendimientos del activo subyacente. En otras palabras, es fundamental que la distribución verdadera del subyacente sea consistente con la distribución impuesta por el modelo teórico. Datos de rendimientos de alta frecuencia muestran exceso de curtosis (distribuciones de colas anchas; leptocurtosis), asimetría, efecto apalancamiento y agrupamiento de la volatilidad. Capturar estas singularidades esenciales con un modelo paramétrico parsimonioso y a la vez tratable es complicado. Es aceptado en la literatura que la introducción de volatilidad estocástica o saltos puede explicar estas características de los rendimientos de activos, pero los resultados para datos estadounidenses son contradictorios, y muchas veces fracasan a la hora de ajustar satisfactoriamente la dinámica del proceso de rendimientos del activo subyacente. Andersen, Benzoni y Lund (2002), Chernov, Gallant, Ghysels y Tauchen (2003) y Eraker, Johannes y Polson (2003) estiman modelos con volatilidad estocástica, saltos en precios y, en los dos últimos, saltos en volatilidad. Todos ellos encuentran fuerte evidencia empírica de la presencia de volatilidad estocástica y saltos en precios, pero no coinciden respecto a la presencia e importancia de saltos en volatilidad. Existe un desacuerdo similar respecto a la especificación entre los estudios que utilizan, en lugar de series temporales de rendimientos del subyacente, datos de precios de opciones. En este caso, la especificación se evalúa mediante ajuste de precios de opciones, frente al ajuste de la distribución condicional de las series temporales. Bakshi, 2 Cao y Chen (1997) concluyen que además de la volatilidad estocástica, los saltos en precios son fundamentales, pero Bates (2000), Eraker (2004) y Pan (2002) dicen que éstos son económicamente pequeños y que sus beneficios son insignificantes. En este artículo estimamos para datos diarios de rentabilidades del S&P 500, entre 1986 y 2005, del DAX 30, del IBEX 35 y del CAC 40, estos últimos entre 1998 y 2003, un modelo en tiempo continuo de difusión para la volatilidad estocástica con y sin saltos en rentabilidad, y analizamos los resultados sobre todo examinando la forma de la distribución de rendimientos, en particular, los momentos de tercer y cuarto orden. Con un modelo que incorpore ambos componentes, volatilidad estocástica y saltos en rentabilidad, logramos reproducir la asimetría y curtosis existente en los datos de los cuatro índices estudiados, lo que proporciona evidencia empírica apoyando la presencia conjunta de ambos factores a la hora de describir la distribución de índices bursátiles alejados de la normal, no sólo para el caso estadounidense para el que existen ya evidencias en este sentido sino también para los tres índices europeos restantes, confirmando el resultado. Encontramos además que incorporar saltos en rentabilidad mejora el ajuste en términos de especificación del modelo, aunque el hecho de que éste siga rechazándose sugiere que, a pesar de que junto a la volatilidad estocástica los saltos en rentabilidad son los dos componentes más importantes para describir la dinámica de las series temporales de rendimientos, pueden no ser suficientes y haga falta añadir algo más, como saltos en volatilidad, tal y como documentan Broadie, Chernov y Johannes (2007) y Eraker, Johannes, y Polson (2003) entre otros. Por otro lado, puede que el no conseguir en ningún caso buena precisión en la estimación del parámetro de correlación entre rentabilidad y varianza, sea consecuencia de imponer una correlación constante en el tiempo. Esto indica una segunda línea de investigación futura: estudiar la posibilidad de que la correlación dependa de una variable de estado, ya sea la rentabilidad o la propia varianza, dejando que sea la estimación quién determine si es o no constante. Estimamos los modelos de interés primero para USA, ya que, que nosotros sepamos, únicamente existe literatura al respecto en este caso, lo que nos sirve de referencia tanto en el desarrollo de la metodología de estimación como en el análisis de los resultados intermedios y finales. Pero el objetivo último de este artículo es analizar las cuestiones de interés para la zona euro, aportando una visión global sobre mercados del centro-sur 3 de Europa, sobre los que tenemos muy poca evidencia o nada en tiempo continuo. Por ello, una vez obtenidos los resultados para datos estadounidenses y superadas las dificultades metodológicas producidas en el proceso de estimación, examinamos los mismos modelos para datos europeos, en particular, alemanes, españoles y franceses, extendiendo así la poca evidencia existente a otros índices europeos. Hasta no hace mucho, el mayor obstáculo en el desarrollo de esta literatura era la falta de técnicas factibles para la estimación e inferencia de modelos generales en tiempo continuo utilizando observaciones discretas. La mayor dificultad a la hora de llevar a cabo una inferencia eficiente para un modelo en tiempo continuo a partir de datos muestrales discretos, es que generalmente no suelen estar disponibles expresiones cerradas para la densidad de transición discreta, especialmente en presencia de variables de estado no observadas y serialmente correladas. Este último es el caso más usual, por ejemplo, para modelos de volatilidad estocástica. La necesidad de un marco general eficiente para la inferencia nos lleva a adoptar una variante del método simulado de momentos SMM (Simulated Method of Moments) de Duffie y Singleton (1993), que junto al estimador bayesiano MCMC (Markov Chain Monte Carlo), dominan al resto de metodologías, en tratabilidad y eficiencia econométrica, especialmente en situaciones en donde una o más variables son latentes o el proceso incorpora especificaciones de saltos. El SMM iguala los momentos muestrales a los momentos simulados obtenidos a partir de largas series simuladas usando el mecanismo generador de datos asumido (el modelo estructural elegido). Nosotros empleamos el método de momentos eficiente EMM (Efficient Method of Moments) propuesto por Bansal, Gallant, Hussey y Tauchen (1993, 1995) y desarrollado por Gallant y Tauchen (1996). El EMM es un procedimiento de ajuste de momentos basado en simulación pero con ciertas ventajas. Refina el enfoque SMM dando una receta específica para la generación de condiciones de momentos. Éstos se obtienen de la expectativa del gradiente de la verosimilitud de un modelo semino-paramétrico auxiliar, SNP, en tiempo discreto que se aproxima a la distribución de los datos de la muestra discreta, donde el gradiente de la verosimilitud no es más que la 4 primera derivada de la función de log-verosimilitud con respecto a los parámetros del modelo auxiliar. Los momentos ajustados son por tanto los elementos del gradiente de la verosimilitud de un modelo auxiliar. Si este modelo auxiliar aproxima bien la distribución de los datos, entonces, las estimaciones de los parámetros del modelo estructural son eficientes como si se hubiera empleado máxima-verosimilitud (Tauchen, 1997a; Gallant y Long, 1997). Esta es una característica atractiva del EMM, que obtiene la misma eficiencia que máxima-verosimilitud cuando el gradiente de la verosimilitud del modelo auxiliar (asintóticamente) abarca al gradiente de la verosimilitud del modelo verdadero. Las densidades SNP son buenas candidatas para este propósito y básicamente consisten en utilizar una densidad gaussiana como término principal al que se añade una expansión polinómica para recoger las características no gaussianas del proceso. Debido a la sofisticación de este último término, en este artículo consideramos primero un modelo auxiliar más sencillo (en particular, un GARCH(1,1), que es únicamente gaussiano, aunque dentro de la familia SNP) obteniendo unas estimaciones iniciales para los modelos de volatilidad estocástica con y sin saltos en rentabilidad, que nos servirán de referencia en las estimaciones al extender mediante polinomios el modelo auxiliar. En este sentido, en contra de lo que a priori esperábamos, parece que en general los polinomios no contribuyen apenas a la capacidad explicativa de los momentos de tercer y cuarto orden tan bien ajustados por el modelo de volatilidad estocástica con saltos cuando el modelo auxiliar considerado es el GARCH(1,1). Únicamente para el IBEX 35 el ajuste global de ambas características es mejor al considerar polinomios en la densidad SNP, aunque también depende de la valoración relativa que se asigne al ajuste de uno u otro momento, y es que en el caso del IBEX 35, se mejora el ajuste en asimetría, pero se pierde precisión al aproximar la curtosis. Algo similar ocurre para el CAC 40. El ajuste conjunto de ambos momentos empeora al extender el modelo auxiliar porque la asimetría se ajusta muy mal, pero la curtosis se reproduce con una precisión prácticamente perfecta. Los resultados se juzgan mediante los test de especificación y diagnosis de modelo asociados. Al igual que el GMM (Generalized Method of Moments), el EMM se puede usar para construir un estadístico Chi-cuadrado para un test conjunto de sobre identificación, que nos dirá si el modelo estimado es el correcto, y que permite 5 comparar representaciones no anidadas. Además, en caso de fracaso del modelo, la inspección del gradiente de la verosimilitud puede sugerir razones de dicho fracaso, ya que los diferentes elementos del gradiente de la verosimilitud se corresponden con diferentes características de los datos. 2 Modelos y Metodología de Estimación 2.1 Modelos 2.1.1 Modelo de Volatilidad Estocástica SV El agrupamiento de la volatilidad es una característica importante de los datos. La volatilidad estocástica es una extensión natural de los modelos de difusión ampliamente utilizados en la literatura de valoración de activos. Hull y White (1987), Melino y Turnbull (1990), Wiggins (1987) entre otros, generalizan la tradicional especificación del movimiento browniano geométrico sugiriendo un proceso propio para la volatilidad estocástica. Así, Heston (1993), en una contribución clave para la literatura de valoración de opciones admite, a diferencia de los anteriores, la correlación entre los brownianos del subyacente y la varianza, además de obtener expresiones de valoración de opciones mediante la inversión de Fourier de la función característica condicional. El modelo de volatilidad estocástica fue propuesto para describir datos de mercados financieros por Clark (1973), Tauchen y Pitts (1983), Taylor (1986) y otros. El atractivo de este modelo es que proporciona una especificación simple para los movimientos en los precios explicando, en términos cualitativos, singularidades generales de los datos recogidos de los mercados financieros como son la leptocurtosis y la persistencia en volatilidad. Además, está relacionado con procesos de difusión utilizados para valoración de derivados (Harvey et al., 1994; Danielsson, 1994). Denotamos S t el precio en el instante t de un índice bursátil y consideramos el siguiente modelo de volatilidad estocástica en raíz cuadrada, SV: 6 dS t = µdt + Vt dW1,t St (1) donde el proceso de varianza V obedece un proceso de difusión con reversión a la media: dV t = (α − β Vt )dt + η Vt dW 2 ,t (2) Los factores W1 y W2 son movimientos brownianos estándar con correlación cov(dW1,t , dW2,t ) = ρdt . La volatilidad estocástica induce exceso de curtosis gobernada en su mayor parte por los parámetros de volatilidad α , β y η . Más concretamente, el exceso de curtosis se genera por la volatilidad de la varianza, η . Si la varianza es muy volátil la probabilidad de observar grandes shocks en rendimientos aumenta, aumentando así la anchura en las colas de la distribución. β es la velocidad con la que el proceso revierte a la varianza de largo plazo ( α β ), y captura la persistencia en varianza. Un valor de β distinto de cero sugiere persistencia en varianza, mientras que si β es cero, entonces la varianza condicional seguirá un paseo aleatorio. La asimetría que generalmente se observa en el proceso de rendimientos se puede capturar mediante una correlación negativa entre shocks en la varianza y el proceso de rendimientos, es decir, ρ < 0, ya que en este caso la volatilidad aumenta cuando los precios disminuyen, lo que hace más probable que se produzcan grandes rendimientos negativos. Esta especificación en raíz cuadrada para la varianza es particularmente atractiva para aplicaciones en valoración de opciones, desde que Heston (1993) proporcionara una solución en forma cerrada para el precio de la opción cuando el proceso subyacente de rendimientos obedece un modelo de este tipo. El supuesto fundamental es que el precio del riesgo de la varianza se supone proporcional a la raíz cuadrada del nivel de riesgo. 2.1.2 Modelo de Volatilidad Estocástica con Saltos SVJ Como ya hemos dicho anteriormente, los modelos de volatilidad estocástica están específicamente diseñados para capturar las propiedades sobresalientes de la volatilidad como son la aleatoriedad y la persistencia. Sin embargo, uno de los descubrimientos 7 recientes más importantes es que parece que estos modelos no son capaces de caracterizar todos los aspectos de la distribución de rendimientos de activos. En efecto, parece que, dado un ajuste razonable de la dinámica de la volatilidad condicional, los modelos de volatilidad estocástica no pueden ajustar la alta curtosis condicional de los rendimientos (colas anchas) documentada en la literatura para muchas clases de activos financieros. Extenderemos por tanto la especificación anterior incluyendo un componente salto: ( ) dS t = µ − λ(t )k dt + Vt dW1,t + k (t )dq t St (3) donde el proceso de varianza V obedece un proceso de difusión con reversión a la media dado por la expresión (2): dVt = (α − βVt )dt + η Vt dW2,t Los factores W1 y W2 son movimientos brownianos estándar con correlación cov(dW1,t , dW2,t ) = ρdt ; q es un proceso de Poisson, incorrelado con W1 y W2 y gobernado por la intensidad de salto λ(t ) , de forma que Pr (dqt = 1) = λ(t )dt donde se supone que la intensidad de salto es constante λ(t ) = λ0 . El factor k (t ) denota la magnitud de salto en el proceso de rendimientos si se da un salto en el instante t . Se supone que dicha ( magnitud de salto se distribuye como una normal: ) ln (1 + k (t ) ) ≈ N ln(1 + k ) − 0.5δ 2 , δ 2 . Por último, k mide la magnitud media de salto, de manera que la tasa de crecimiento media provocada por los saltos es λ(t )k . El término de corrección λ(t )kdt compensa el componente salto. Desde un punto de vista económico, los saltos en rendimientos de acciones se justifican fácilmente. La llegada discreta de nueva información induce una revisión instantánea de los precios de las acciones. Añadir un componente salto debería mejorar el ajuste a las series temporales de rendimientos observadas, puesto que los saltos ayudarán a acomodar los outliers así como la asimetría en la distribución de rendimientos. La 8 presencia de outliers depende de la magnitud y variabilidad del componente salto, mientras que la asimetría se controla mediante la magnitud media de salto, k , de manera que si ésta es negativa (positiva) entonces es reflejo de asimetría negativa (positiva). En este sentido, el modelo con saltos tiene dos posibles fuentes de asimetría: la magnitud media del salto k y la correlación entre brownianos ρ . La presencia conjunta de los factores de salto y volatilidad estocástica proporciona flexibilidad adicional para capturar las características sobresalientes de los rendimientos, incluyendo la asimetría y leptocurtosis. 2.2 Metodología de Estimación: EMM La estrategia de estimación es la siguiente: en un primer paso, se obtiene una estimación de la densidad condicional de la serie de rendimientos del índice, basada en la estimación por quasi-máxima verosimilitud (QML). Si se implementa con cuidado, los elementos del gradiente de la verosimilitud QML resultantes proporcionan una representación adecuada de las singularidades sobresalientes de los datos. En un segundo paso, se estiman los parámetros estructurales (los del modelo estructural) buscando el vector de parámetros que permita que la difusión asumida (representada como el valor esperado del gradiente de la verosimilitud QML) simule las características esenciales de los datos, de la manera más próxima posible. Formalmente, en esta etapa el procedimiento sigue al GMM al minimizar una forma cuadrática de los elementos del gradiente de la verosimilitud esperados. Este paso se implementa mediante simulación, ya que no es factible calcular el gradiente de la verosimilitud bajo el modelo real. Consecuentemente, y como ya se ha comentado anteriormente, este enfoque es, en ciertos aspectos, similar al SMM de Duffie y Singleton (1993). Además, debido a que el paso final se basa en los principios del GMM, el estadístico Chicuadrado de bondad de ajuste usual de sobre identificación de restricciones sirve aquí como un test de especificación general, y, en extensión, los elementos individuales del gradiente de la verosimilitud se asocian a distintas características de los datos, por lo que el ajuste de cada uno de estos elementos indica cómo de bien se están acomodando los rasgos particulares de los datos. 2.2.1 Modelo Auxiliar 9 La clave para aplicar con éxito el EMM es elegir un modelo auxiliar que se aproxime bien a la distribución condicional del proceso de rendimientos. Gallant y Long (1997) demuestran que, dentro de la clase de modelos en tiempo discreto, las densidades SNP (Semi-NonParametric) son buenas candidatas para este propósito. Los modelos SNP se basan en la noción de que puede usarse una expansión polinómica como estimador no paramétrico de una función de densidad (veáse Gallant y Nychka, 1987). Además, la densidad SNP permite un término principal que puede usarse para capturar las características sistemáticas dominantes de la dinámica del rendimiento (en tiempo discreto), dando una representación parsimoniosa para la densidad condicional de las series observadas. El paso inicial de ajustar dicha densidad condicional con un modelo semi-no-paramétrico es importante y costoso. La estrategia básica es utilizar una expansión de polinomios de Hermite al cuadrado como aproximación de la densidad condicional. En general, esto implica utilizar una densidad gaussiana como término principal, mientras que los polinomios adaptan las características no gaussianas del proceso. Esto sugiere una selección cuidadosa del término principal, eligiendo como modelo el mejor candidato posible para el proceso de rendimientos, mientras que permitimos que la expansión polinómica de Hermite adapte las desviaciones de este término principal. Por último, la calidad del ajuste de los distintos modelos se evalúa utilizando criterios de información estándar, como son los criterios Akaike (AIC), Bayesiano (BIC) y Hannan-Quinn (HQC), así como mediante test de especificación, teniendo en cuenta que el comúnmente utilizado criterio de Akaike tiende a sobreparametrizar los modelos. Más específicamente, el modelo auxiliar SNP se construye de la forma siguiente. Sean rt , xt = (rt −1 ,..., rt − L ), t = 1,..., ∞ las variables aleatorias correspondientes a los procesos de rendimientos del índice y retardos de dichos rendimientos y ~ rt , ~ xt = (r~t −1 ,, r~t − L ), t = 1,..., n los datos muestrales observados. El hecho de que la volatilidad sea una variable latente y serialmente correlada con la serie de rentabilidades hace que la densidad de transición y por tanto la verosimilitud sea imposible de computar. El objetivo es entonces estimar la densidad condicional p(rt xt ) que describe completamente el proceso. Gallant y Tauchen (1989) proponen una clase de densidades condicionales SNP, f K (r x; ξ ) , muy adecuadas para este propósito, ya que para un K 10 suficientemente alto f K es una buena aproximación de la densidad condicional p(rt xt ) ( ) ~ y además, si los parámetros ξ se estiman por QML, f K r x; ξ es un estimador no paramétrico consistente (Gallant y Nychka, 1987), eficiente (Fenton y Gallant, 1996a; Gallant y Long, 1997) y con propiedades cualitativas deseables (Fenton y Gallant, 1996b). El proceso que se está analizando es rt (ψ ) donde ψ son los parámetros del modelo estructural a estimar. υt (ξ ) = Et −1 [rt (ψ )] es la media condicional del modelo auxiliar, ht (ξ ) = Vart −1 (rt (ψ ) − υt (ξ )) es la varianza condicional y z t (ξ ) = rt (ψ ) − υt (ξ ) ht (ξ ) es el proceso estandarizado, que se supone es i.i.d. De esta forma, una vez elegida la especificación de la parte principal de la SNP, es decir, una vez elegidos los modelos para la media, υt , y varianza del proceso, ht , la estimación QML del modelo auxiliar se lleva a cabo de la forma siguiente: ~ 1 n ξ = arg max ∑ ln [ f K (~ rt | ~ xt ; ξ )] ξ n t =1 (4) donde ξ son los parámetros del modelo auxiliar a estimar mediante QML y f K es la función de densidad SNP que toma la siguiente forma: [PK (z t , x t )]2 φ(z t ) f K (rt | x t ; ξ ) = ν + (1 − ν ) 2 ∫R [PK (u , x t )] φ(u )du ht (5) con ν pequeño (0.01); esta mixtura en la densidad condicional se utiliza para evitar la inestabilidad durante la estimación EMM, ya que, en su defecto, pueden darse problemas numéricos al evaluar la función f K si, para una trayectoria simulada dada, PK ( z t , xt ) es igual a cero. φ(⋅) es la densidad normal estándar, 11 zt = rt − υ t (6) ht y PK ( z , x ) es un polinomio en ( z , x ) de grado K = (K z , K x ) dado por la expresión siguiente: Kz Kz Kx PK ( z , x ) = ∑ a i (x )z i = ∑ ∑ a ij x j z i , a 00 = 1 i = 0 j =0 i =0 (7) El término constante a 00 se fija en 1 para obtener una representación única. Con esta normalización, la densidad f K se interpreta como una expansión cuyo término principal es la densidad normal φ( z ) y cuyos términos de orden superior inducen desviaciones de la normal. La ventaja de la expansión rectangular (7) de PK ( z, x ) es que éste se interpreta como un polinomio en z de grado K z , cuyos coeficientes son a su vez polinomios de grado K x en x . La expresión (5) para la densidad SNP, f K , se obtiene aproximando mediante polinomios PK ( z, x ) 1 la función de densidad de z t y teniendo en cuenta la relación (6) entre rt y z t . En efecto, debido a esta relación, sabemos que f (rt xt ) = 1 rt − υt g ht ht donde g es la función de densidad de z t que se aproxima por Se toma además una forma específica para los polinomios PK (z , x ) , los llamados polinomios ortogonales de Hermite (veáse Gallant, Hsieh y Tauchen, 1991 y Fenton y Gallant, 1996a). El Apéndice A proporciona las expresiones y resultados relativos a estos polinomios. 1 12 g K (z, x ) = 1 [PK (z t , x t )]2 φ(z t ) c(x ) con c( x ) = ∫ [PK (u, x )] φ(u )du 2 R para garantizar que la integral (de la función de densidad) sea 1. Con esta especificación de la SNP, la principal tarea de la expansión polinómica no paramétrica en la densidad condicional es capturar cualquier exceso de curtosis en el proceso de rendimientos y también cualquier asimetría que no haya sido acomodada por el término principal. 2.2.2 EMM Una vez estimados los parámetros del modelo auxiliar, la esperanza de la función de densidad SNP de dicho modelo proporciona las condiciones de momentos para la estimación en tiempo continuo del modelo estructural mediante el método de momentos simulado. N Denotemos {rˆt (ψ ), xˆ t (ψ )}t =1 a una simulación del modelo estructural utilizando el vector de parámetros ψ . Entonces, la estimación de ψ se define de la forma siguiente: ( ) ( ) ~ '~ ~ ψˆ = arg min m N ψ , ξ I −1m N ψ , ξ ψ (8) ( ) ~ donde m N ψ , ξ es la esperanza de la función f K evaluada en la estimación quasi~ máxima verosímil de los parámetros del modelo auxiliar ξ 2: 2 La ( ) expresión ~ m N ψ, ξ = ∫ (9) ~ ∂ ln f K r x; ξ ( ∂ξ ) es una aproximación (Monte Carlo) de la expectativa: dP(r x; ψ ) . 13 ( ) ~ 1 mN ψ, ξ = N N ∑ ( ~ ∂ ln f K rˆt (ψ ) xˆ t (ψ ); ξ ) (9) ∂ξ t =1 ~ y la matriz de pesos I −1 es una estimación consistente de la matriz de covarianzas asintótica de f K del modelo auxiliar que se estima a partir del gradiente3: ( ~~ ~ ~ 1 ∂ ln f K rt xt ; ξ I = ∑ ∂ξ n t =1 n ) ∂ ln f (~r ~x ; ξ~ ) K t ∂ξ ' t (10) Los resultados se juzgan mediante los test de especificación y diagnosis de modelo asociados. Si nos fijamos en la función objetivo, vemos que el estimador EMM es un estimador Chi-cuadrado para ψ (Gallant y Tauchen, 1996). En otras palabras, el EMM es un método basado en simulación que usa la función de densidad de un modelo auxiliar para definir una función objetivo GMM, la cual sabemos se distribuye como una Chi-cuadrado y puede usarse para contrastar la adecuación del modelo. Más concretamente, ( ) el valor mínimo alcanzado por la forma cuadrática ( ) ~ '~ ~ f = m N ψ , ξ I −1 m N ψ , ξ (función objetivo), multiplicada por el tamaño muestral n , se distribuye como una χ gl2 , siendo el número de grados de libertad la diferencia entre el número de condiciones de ortogonalidad (condiciones de momento) utilizadas, dim(ξ ) , y el número de parámetros estructurales estimados, dim(ψ ) . Así, se construye un estadístico Chi-cuadrado para contrastar la sobre identificación de restricciones (omnibus test), donde la hipótesis nula es que el modelo estructural está correctamente especificado y que permite comparar representaciones no anidadas (Gallant, Hsieh y Tauchen, 1997). Por tanto, bajo la hipótesis nula de que el modelo estructural es el correcto se deduce que: ( ) ~ ∂ ln f K r | x; ξ ~ ~ . Lo hacemos numéricamente de la Para determinar m N ψ , ξ e I , necesitamos calcular ∂ξ forma siguiente: Para j = 1,..., lk , donde lk es la longitud de ξ (es decir, el número de parámetros del modelo auxiliar): ~ ~ ~ ~ ~ ~ ~ ~ ~ ~ ~ ln f K r | x; ξ 1 ,..., ξ j −1 , ξ j + eps, ξ j +1 ,..., ξ lk − ln f K r | x; ξ 1 ,..., ξ j −1 , ξ j − eps, ξ j +1 ,..., ξ lk ∂ ln f K r | x; ξ = ∂ξ j 2 × eps ( ) 3 ( ) ( ) ( ) donde eps = 0.01. 14 ( ) ( ) ~ '~ ~ d 2 n ⋅ m N ψˆ , ξ I −1m N ψˆ , ξ → χ dim (ξ )−dim (ψ ) es decir, ( ) ~ 2 n ⋅ f ψˆ , ξ ~ χ dim (ξ )−dim (ψ ) (11) ( ) ~ donde f ψˆ , ξ es el valor final de la función objetivo resultante de la estimación. En caso de fracaso del modelo, si se rechaza la hipótesis nula, es útil examinar los ~ elementos individuales del gradiente de la verosimilitud m N ψˆ , ξ que nos sugerirán ( ) razones de dicho fracaso, ya que los diferentes elementos del gradiente de la verosimilitud se corresponden con diferentes características de los datos. Más concretamente, debemos inspeccionar los estadísticos t , es decir, los elementos del gradiente de la verosimilitud divididos por sus errores estándar, que vienen dados por la raíz cuadrada de los elementos diagonales de la matriz: S= ( ( 1 ~ ~ I − Mψ Mψ 'IMψ n ) −1 Mψ ' ) (12) de manera que los estadísticos t son: tˆ = ( ) ~ m N ψˆ , ξ (13) diag (S ) ( ) ~ donde M ψ es la derivada parcial del gradiente de la verosimilitud m N ψˆ , ξ respecto a ψ 4: 4 Calculamos la matriz M ψ numéricamente. Cada columna j = 1, , dim(ψ ) = lp vendrá dada por: ( ) ( ~ ~ m N ψˆ 1 ,..., ψˆ j −1 , ψˆ j + eps, ψˆ j +1 ,..., ψˆ lp , ξ − m N ψˆ 1 ,..., ψˆ j −1 , ψˆ j − eps, ψˆ j +1 ,..., ψˆ lp , ξ 2 × eps ) donde eps = 0.01. 15 ( ) ~ ∂m N ψˆ , ξ Mψ = ∂ψ (14) Valores altos de estos estadísticos t revelan características que no están bien aproximadas5. Para este mismo propósito de encontrar razones de porqué el estadístico Chi-cuadrado ha rechazado el modelo, los quasi-estadísticos t , que están subestimados, son generalmente adecuados y son más fáciles de computar porque evitan calcular la aproximación numérica de M ψ (Gallant y Tauchen, 1997). Estos quasi-estadísticos t se ~ calculan tomando los elementos diagonales de I como aproximaciones de los errores estándar descritos anteriormente: ∧ qt = ( ) ~ m N ψˆ , ξ diag (qS ) (15) donde qS = 1~ I n (16) Pero, como ya hemos dicho, este enfoque ignora el hecho de que el vector gradiente de la verosimilitud se calcula en una estimación ψ̂ y no en el verdadero valor, por lo que estos estadísticos t aproximados son parcialmente más bajos, lo que conlleva una perdida de potencia si se comparan con los percentiles de la distribución normal. A pesar de ello, Gallant, Hsieh y Tauchen (1997), subrayan que los quasi-estadísticos t pueden ser suficientes, ya que éstos no se utilizan para inferencia, sino para únicamente deducir sugerencias de cómo el modelo estructural puede ser mejorado. 5 Aunque se pueden calcular los intervalos de confianza de Wald para ψ j , j = 1,, dim(ψ ) de la forma usual a partir de errores estándar asintóticos obtenidos como la raíz cuadrada de los elementos diagonales −1 1 ~ de la matriz Cov(ψˆ ) = M ψ ' I M ψ , estos intervalos, que son simétricos, son algo engañosos ya que no n reflejan el rápido incremento en la función objetivo EMM cuando se aproxima a un valor para el cual las simulaciones del modelo estructural se vuelven explosivas. ( ) 16 3 Datos Disponemos de los precios diarios del índice S&P 500 desde el 2 de enero de 1986 hasta el 30 de diciembre de 2005, una muestra de 5047 observaciones, pero se trabaja con la serie de rendimientos, más concretamente con las diferencias logarítmicas en porcentaje, es decir, si {S 0 , S1 ,..., S n } son los precios diarios ( n = 5046), trabajamos con la serie st = 100 × {ln S1 − ln S 0 , ln S 2 − ln S1 ,..., ln S n − ln S n−1 } de tamaño n . La frecuencia muestral diaria nos permite capturar fluctuaciones de alta frecuencia en el proceso de rendimientos que son críticas en la identificación del componente de salto. En cuanto a los índices europeos DAX 30, IBEX 35 y CAC 40, los datos de rentabilidades diarias van comprendidos entre el 4 de enero de 1988 hasta el 31 de diciembre de 2003, lo que supone un total de 4023 observaciones en el caso del DAX 30, 3996 observaciones en el caso del IBEX 35 y 4010 para el CAC 40. Al igual que para el S&P 500 se trabaja con la serie de rendimientos en porcentaje, st , a la que, por simplicidad, nos referiremos como rendimientos a lo largo de todo el trabajo. La Tabla 1 presenta la media, desviación típica, asimetría y curtosis muestral de las cuatro series, el resultado del contraste de Dickey-Fuller aumentado (ADF) de raíces unitarias y las correlaciones entre los distintos índices. Vemos que la hipótesis de raíz unitaria se rechaza a favor de la estacionariedad de la serie de rendimientos, condición necesaria en cualquier método de momentos basado en la estacionariedad del proceso generador de rendimientos. Los rendimientos de los cuatro índices bursátiles se representan en la Figura 1. Éstos presentan un exceso de curtosis importante, lo que implica colas más anchas en comparación con la distribución normal. También se observa asimetría negativa, es decir, largas colas en la dirección de los rendimientos negativos. Por tanto, el modelo de generación de datos que se asuma para los rendimientos debe implicar distribuciones marginales no normales, con colas anchas y posible asimetría negativa. 17 4 Modelo Auxiliar Sin Parte No Paramétrica A pesar de que hemos justificado la necesidad de utilizar como modelo auxiliar la SNP, eligiendo con cuidado, primero el término principal de manera que recoja las características más importantes de los datos y segundo, el orden de la expansión polinómica de Hermite, en esta primera aproximación al problema, y debido a la sofisticación del mismo, nos decantamos por un modelo auxiliar más sencillo con un doble objetivo, siempre conscientes de las limitaciones que ello conlleva. En primer lugar, obtendremos unas estimaciones iniciales que pueden servirnos de referencia, y lo que es más importante, en segundo lugar, este primer ejercicio de estimación nos ayudará a ir aprendiendo sobre las dificultades metodológicas, así como de los problemas numéricos e inferenciales que irán surgiendo al analizar en estos modelos más simples las cuestiones de interés. Consideraremos así un GARCH(1,1) como modelo auxiliar, sin considerar parte no paramétrica en la densidad. Sin embargo, la elección de este modelo auxiliar sencillo imposibilita evaluar los resultados mediante los test de especificación y diagnosis de modelo asociados al método de estimación EMM. No es posible construir el estadístico Chi-cuadrado del test conjunto de sobre identificación, ya que para ello es necesario que el número de parámetros estructurales sea menor o igual que el número de parámetros auxiliares, dim(ψ ) ≤ dim(ξ ) (condición necesaria, véase Gallant, Hsieh y Tauchen, 1997). Esta condición se precisa también para poder obtener una estimación de la matriz de covarianzas asintótica de la estimación del vector de parámetros estructural, así como para calcular los errores estándar del gradiente de la verosimilitud, necesarios para construir los estadísticos t , es decir, los elementos del gradiente de la verosimilitud divididos por sus errores estándar, cuya inspección puede sugerirnos razones del fracaso del modelo estimado, si esto sucede. No obstante, para este mismo propósito, los quasi-estadísticos t , a pesar de estar subestimados, son generalmente adecuados y su cálculo es perfectamente factible en este caso. Además, son más fáciles de computar porque evitan calcular la aproximación numérica de la derivada parcial del gradiente de la verosimilitud con respecto a los parámetros estructurales requerida por los estadísticos t . En cualquier caso, hay que tener en cuenta que este modelo auxiliar está incluido dentro de los modelos SNP en donde la parte principal de la densidad es la de un GARCH(1,1) y no se consideran polinomios de Hermite. 18 La elección del modelo no se realiza de manera arbitraria. Es conocido que un modelo ARMA es un candidato natural para la media condicional, mientras que una especificación ARCH proporciona generalmente una caracterización razonable de la pronunciada heterocedasticidad condicional de los rendimientos de acciones. Por tanto, parece lógico elegir entre un tipo de modelo ARMA-ARCH. En muchos casos, la especificación ARCH que recoge la estructura de autocorrelación en varianza precisa de un elevado número de retardos, de manera que para evitar que el alto número de coeficientes en términos autorregresivos produzca una importante pérdida de precisión en su estimación, nos decantamos por una parametrización alternativa, el modelo GARCH(1,1) de Bollerslev (1986). Por otra parte, debido a la necesidad de introducir un orden relativamente alto en el término autorregresivo de la ecuación de la media para poder capturar la estructura de correlación de los rendimientos, y teniendo en cuenta que este comportamiento se ajusta bastante bien mediante un único término MA(1), decidimos estimar un modelo MA(1) para eliminar cualquier estructura dinámica de la media y centrarnos así en la dinámica de la varianza. Tomamos, por tanto, un GARCH(1,1) como modelo auxiliar, aunque en realidad se está considerando una especificación MA(1) para la esperanza condicional y un GARCH(1,1) para la varianza condicional. Por tanto, antes de estimar el modelo auxiliar, prefiltramos los datos usando un modelo simple MA(1) para los rendimientos diarios y reescalamos los residuos para obtener la media y varianza muestral del conjunto de datos original y trabajar con los shocks de los rendimientos en lugar de hacerlo con los propios rendimientos. Más concretamente, se realiza un procedimiento en dos etapas. En la primera etapa se estima la estructura de autocorrelación MA(1), st = θ 0 + ε t − θ1 ε t −1 y se construyen los residuos. En la segunda etapa se estima para rt = E (s t ) + stdev(st ) εˆt − E (εˆt ) stdev(εˆt ) (17) el modelo auxiliar dado por las expresiones para la media y varianza del proceso siguientes: 19 υt = 0 ht = γ 0 + γ 1rt 2−1 + ϑ1ht −1 ~ GARCH (1,1) (18) de manera que los parámetros del modelo auxiliar a estimar son ξ = (γ 0 , γ 1 ,ϑ1 ) y se estiman mediante QML según la expresión (4)6. A partir de ahora consideraremos esta serie de residuos final rt como la serie de rendimientos observada. La Tabla 2 muestra en el Panel A las estimaciones obtenidas para los cuatro índices bursátiles estudiados7, así como sus correspondientes errores estándar, que no son más que la raíz cuadrada de los elementos diagonales de la matriz de pesos de la forma cuadrática a minimizar en la estimación de los parámetros estructurales, es decir, la inversa de la matriz de información dada por la expresión (10). 4.1 Modelo Estructural Una vez estimados los parámetros del modelo auxiliar, tenemos que estimar los del modelo estructural, primero el modelo de volatilidad estocástica SV y segundo el modelo de volatilidad estocástica con saltos SVJ. Durante el desarrollo de la estimación, cada vez que se evalúa la forma cuadrática f a minimizar, se simula una trayectoria distinta a partir del modelo estructural. Este es un tema importante que complicará la estimación, ya que si las simulaciones son muy diferentes unas de otras en algún sentido, los parámetros que se caracterizaron como óptimos con la realización anterior, pueden no ser tan buenos con la nueva, lo que podría generar dificultades de convergencia. N Cada serie de rentabilidades simulada {rˆt (ψ )}t =1 se obtiene, tal y como se detalla en los Apéndices C, para SV, y D, para SVJ, después de generar dos muestras antitéticas de 6 El modelo auxiliar escogido determina la función de densidad SNP, f K , que entra en la ecuación (4) y que depende del vector de parámetros ξ . La forma especifica de f K se muestra en el Apéndice B. En todos los casos γ 0 presenta un valor estimado muy alto, debido a que se trabaja con la serie de rendimientos en porcentaje, lo que hace que dicho parámetro se multiplique por 1002. 7 20 tamaño (10000 + 1000) x 10 + 1000 a partir del modelo en tiempo continuo mediante una discretización de Euler de primer orden con frecuencia de paso de 1/10 días. Se descartan los primeros 1000 valores simulados para eliminar el efecto de las condiciones iniciales y se suman de 10 en 10 el resto de valores para obtener finalmente una serie de rentabilidades diarias de tamaño N = 11000. Es crucial que las realizaciones que se generen para la estimación (las simulaciones) sigan un proceso similar al de los datos reales, de manera que el modelo estructural reproduzca las características del proceso que generó los datos. En caso contrario es muy difícil que se pueda estimar debido a que el método de estimación es numérico. Por ello, antes de estimar, comprobaremos que las simulaciones generadas a partir del vector inicial de parámetros ψ 0 toman valores razonables de rentabilidades diarias, y, por supuesto, también tiene que ser así cuando simulemos a partir de la estimación final ψ̂ . Las Tablas 3, 4 y 5 recogen los resultados, siempre en porcentaje y base diaria8, obtenidos para cada índice y cada modelo estructural (SV y SVJ): en el Panel A cuando el modelo auxiliar considerado es un GARCH(1,1) sin parte no paramétrica en la función de densidad (que es el caso que nos ocupa) y en el Panel B cuando este modelo auxiliar sencillo se generaliza, tal y como veremos más adelante, al admitir polinomios de Hermite en la función de densidad. Fijémonos, por tanto en el Panel A de dichas tablas. La Tabla 3 muestra en el Panel A las estimaciones obtenidas, así como el valor de la función objetivo alcanzado en la minimización, y el Panel A de la Tabla 4 los valores de los quasi-estadísticos t , calculados a partir de las expresiones (15)-(16), que, recordemos, a pesar de estar subestimados, son generalmente adecuados y su cálculo En la minimización imponemos la restricción no lineal η ≤ 2α , que garantiza que el proceso de varianza sea positivo (Cox et al., 1985). Además, como α , β y η deben ser positivos, tenemos que fijar una cota inferior distinta pero cercana a cero para estos parámetros. En el caso de β hay que ser cuidadosos en este punto, ya que si β toma un valor muy próximo a cero, la varianza tomará un primer valor enorme, debido a que al simular iniciamos el proceso de varianzas en su media incondicional α β (tal y como se detalla en el Apéndice C), y aún descartando las 1000 primeras observaciones para eliminar el efecto de las condiciones iniciales, hará que las rentabilidades sean también disparatadas. En vista de los resultados obtenidos al analizar las simulaciones generadas a partir de distintos valores para α y β fijamos 10-2 como cota inferior más razonable para β . No se observan complicaciones añadidas para el resto de parámetros en este sentido. 8 21 perfectamente factible en este caso en el que la elección del modelo auxiliar GARCH(1,1) imposibilita evaluar los resultados mediante el resto de test de especificación y diagnosis de modelo asociados al método de estimación EMM. No podemos calcular los estadísticos t y realizar los contrastes de significatividad individual de los componentes del gradiente de la verosimilitud, para ver si son estadísticamente nulos. Pero, por otro lado, lo que es verdaderamente importante, en nuestra opinión, es examinar qué aspectos de asimetría, curtosis, son explicados por el vector de parámetros final que no se recogen con el inicial. ¿Son vectores realmente distintos?. Para constatarlo examinamos mediante simulación si las propiedades estadísticas que generan los vectores inicial y final de parámetros son diferentes, y si éstas son más parecidas a las de la serie real de datos cuando simulamos a partir de la estimación. Simulamos por tanto 1000 trayectorias a partir de cada uno de los vectores, ψ 0 y ψ̂ , para las cuales calculamos la media, desviación típica, asimetría, curtosis, mínimo y máximo. El Panel A de la Tabla 5 muestra la media de dichos estadísticos sobre las 1000 simulaciones, así como los estadísticos básicos obtenidos para los datos. La comparación de resultados es importante, así como el grado de ajuste obtenido. Éste lo cuantificamos mediante una función de pérdida específica que nos indica la capacidad explicativa de los momentos de tercer y cuarto orden, ya que nos dice qué porcentaje de la asimetría y curtosis observada en los datos no llegamos a ajustar, tanto individual como conjuntamente. Los valores obtenidos en cada caso para la función de pérdida siguiente: FPasimetría = 100 FPcurtosis = 100 abs (asimetríadatos − asimetríaψ ) abs (asimetríadatos ) abs (curtosisdatos − curtosisψ ) abs (curtosisdatos ) (19) FPconjunta = 0.5 × FPasimetría + 0.5 × FPcurtosis se recogen también en el Panel A de la Tabla 5. Señalar que en la función de pérdida conjunta asignamos el mismo peso a ambos momentos. 22 4.1.1 Modelo Estructural: Volatilidad Estocástica SV Consideramos en primer lugar el modelo estructural de volatilidad estocástica en raíz cuadrada dado por las ecuaciones (1) y (2), de manera que los parámetros a estimar son ψ = ( µ, α, β , η, ρ ) . En el caso del S&P 500, tomamos como condición inicial el vector de parámetros ψ 0 = ( µ, α, β , η, ρ ) = (0.0300,0.0070,0.0200,0.0700,-0.6000), que son las estimaciones obtenidas, mediante el EMM, por Andersen, Benzoni y Lund (2002) para el mismo modelo estructural de volatilidad estocástica con el que intentan modelar también el índice S&P 500 pero para un intervalo temporal más amplio, de 02/01/1953 a 31/12/1996. La falta de trabajos para datos europeos implica desconocer posibles valores para los parámetros, por lo que decidimos realizar una búsqueda para las condiciones iniciales, con el objetivo de seleccionarlas en función de lo que se quiere explicar. Tomamos distintos valores para cada uno de los parámetros estructurales dentro de un intervalo de valores razonables y simulamos para cada uno de los vectores de parámetros resultantes. Finalmente, tomamos como vector inicial en la estimación el correspondiente a la f mínima. La forma cuadrática f toma valores entre 0.0031 y 2.6514 en el caso del DAX 30 y ψ 0 = ( µ, α, β , η, ρ ) = (-0.03,0.05,0.015,0.05,-0.2). Se encuentran también otros vectores de parámetros para los que f es baja (en torno a 10-3), observando que en todos ellos α = 0.05 y β = 0.015. Para el IBEX 35, ψ 0 = ( µ, α, β , η, ρ ) = (-0.03,0.05,0.01,0.15,-0.4) que se corresponde con f = 0.0041, mínima. En todos los vectores de parámetros para los que f es baja (en torno a 10-3), se observa que α = 0.05 y β = 0.01. Por último, en el caso del CAC 40, ψ 0 = ( µ, α, β , η, ρ ) = (-0.03,0.05,0.01,0.15,-0.4), ya que es el que al simular tiene la forma cuadrática f mínima (0.0030), observando que en el resto de vectores de parámetros para los que f es baja y en torno a 10-3, α = 0.05 y β = 0.01, aunque en un par de casos también se tiene β = 0.015. 23 Para cada índice, al simular partiendo de ψ 0 vemos que la trayectoria de rentabilidades simulada es consistente con la serie de datos. Las rentabilidades diarias generadas toman valores razonables y, al igual que para la muestra de datos, no se observan tendencias ni rachas de signo. Parece entonces que con los valores iniciales de los parámetros, los valores numéricos que resultan de la simulación son aceptables, en el sentido de aproximarse a datos de rentabilidades diarias. No obstante, es cierto que características como la asimetría y curtosis, así como los saltos que se observan en la serie de datos, no se recogen en las simulaciones. Aunque esto no debe sorprendernos, ya que el modelo de volatilidad estocástica que estamos queriendo estimar no tiene en cuenta los saltos, y tampoco suele tener éxito a la hora de intentar capturar la alta curtosis existente en los datos financieros. En una estimación inicial vemos que el parámetro µ se estima con baja precisión por lo que fijamos este parámetro en la media de las rentabilidades observadas y estimamos el resto condicional en dicho nivel. La idea es que al fijar los valores de los parámetros en los que se consigue menor precisión, las propiedades del algoritmo de estimación deben mejorar sustancialmente9. Así ocurre en todos los casos salvo para el IBEX 35, por lo que en este caso tomamos como estimación final la resultante de no fijar µ . Al examinar los resultados de la estimación (Tabla 3, Panel A), vemos que, para el S&P 500, el algoritmo se mueve bastante a partir del vector inicial ψ 0 y que la función objetivo se ha reducido mucho hasta tomar un valor de 0.0003. Destacan los valores quizá un poco altos de α y β en comparación con lo observado en la literatura, sobre todo en el caso de α . Sin embargo, éstos han experimentado una reducción importante con respecto a la estimación inicial en la que no se fijaba el parámetro µ . Además estos dos parámetros, al igual que η , se estiman con buena precisión. Por otro lado, los resultados obtenidos para η y ρ son bastante similares a los existentes en la literatura, resaltando la negatividad del parámetro de correlación ρ que captura la asimetría observada en el proceso de rendimientos. 9 Este análisis previo a la estimación final para el S&P 500 se detalla en el Apéndice E. 24 En el caso del DAX 30, vemos que no se observan cambios sustanciales en los parámetros, salvo en el caso del parámetro de correlación ρ , que sigue siendo negativo y no se estima con buena precisión. La función objetivo tampoco se reduce demasiado (de 0.0045 para la condición inicial a 0.0038), aunque es cierto que ya inicialmente toma un valor bastante bajo. Para el IBEX 35, vemos que el algoritmo se mueve bastante a partir del vector inicial ψ 0 en el caso de µ , η y ρ , que sigue siendo negativo pero muy bajo (en valor absoluto) y al igual que η no se estima con precisión. La función objetivo es ya inicialmente muy baja, 0.0074, y se reduce bastante hasta 0.0029. Por último, en el caso del índice CAC 40, el algoritmo se mueve bastante a partir del vector inicial ψ 0 , sobre todo en el caso de η . La función objetivo toma inicialmente valor 0.0067 y se reduce hasta 0.0046 de la estimación. El parámetro de correlación ρ es negativo, capturando la asimetría observada en el proceso de rendimientos, pero la precisión en la estimación de este parámetro es baja. En todos los casos, los quasi-estadísticos t están bastante cercanos a cero (Tabla 4, Panel A), así como el gradiente de la verosimilitud evaluado en los datos simulados a partir de la estimación final ψ̂ , calculado en media sobre las 1000 trayectorias ( ) ~ generadas, m N ψˆ , ξ , sobre todo si los comparamos con los elementos del gradiente de ( ) ~ la verosimilitud que obtenemos si tomamos los valores iniciales ψ 0 , m N ψ 0 , ξ , calculado también en media sobre las 1000 simulaciones generadas a partir de ψ 0 10. Únicamente para el índice CAC 40 los quasi-estadísticos t y los elementos del gradiente de la verosimilitud para la estimación ψ̂ presentan valores un tanto altos. De todas formas, lo que en realidad importa es la norma del gradiente de la verosimilitud, para lo que se calcula la forma cuadrática f , que parece difícil que pueda reducirse aún más, ya que es del orden de 10-4 para el S&P 500 y del orden de 10-3 para los índices europeos estudiados (Tabla 3, Panel A). Esto parece indicar que ( ) ( ) ~ ~ En particular, para el S&P 500, m N ψˆ , ξ = (0.2664,-0.1781,0.0131)’ y m N ψ 0 , ξ = (-11.1895,0.8865,-2.6284)’. 10 25 tenemos ya una estimación de este modelo estructural de volatilidad estocástica mediante el método EMM en donde como modelo auxiliar se ha considerado un GARCH(1,1). Al examinar los estadísticos básicos en media a través de 1000 trayectorias generadas a partir de ψ 0 y ψ̂ (Tabla 5, Panel A), vemos que son muy similares y que no capturan las características de la serie de datos, lo que se refleja también en los valores tan altos obtenidos para la función de pérdida (Tabla 5, Panel A). Únicamente en el caso del S&P 500 se observa una mejora substancial en el ajuste de la desviación típica, que para la estimación es completamente distinta a la de la condición inicial y se ajusta a la de la muestra. Claro que, al igual que para los índices europeos, hay singularidades que no se explican, como la asimetría y curtosis, pero lo raro sería explicarlo con el modelo que tenemos. La función de pérdida refleja más de un 90% de falta de ajuste en asimetría y curtosis para el S&P 500. Para el resto de índices europeos, con valores de la función de pérdida del 63%, 53% y 46%, para Alemania, España y Francia, respectivamente, la curtosis se ajusta algo mejor. Pero esta mejora en el ajuste de Europa respecto a USA se debe a que el modelo SV recoge una curtosis similar, en torno a 3, para todos los índices, mientras que los valores de curtosis a ajustar (los valores de curtosis de los datos) son mucho menores para Europa que para USA. Parece que, para explicar asimetría y curtosis, se necesita otra estructura. Un modelo de volatilidad estocástica no parece ser suficiente. Para ello, debemos generalizar y estimar el modelo estructural a incorporar saltos, que es nuestro siguiente gran ejercicio de estimación. 4.1.2 Modelo Estructural: Volatilidad Estocástica con Saltos SVJ Extendemos la especificación de volatilidad estocástica anterior incluyendo un componente salto en el proceso de rendimientos, de manera que el modelo a estimar en este caso viene dado por las ecuaciones (3) y (2), siendo el vector de parámetros a estimar ψ = ( µ, α, β , η, ρ, δ , λ0 ) . Ya hemos hablado de la importancia de que, durante la estimación, las series de rentabilidades generadas sigan un proceso similar al de los datos, de manera que el modelo estructural reproduzca las características del proceso que generó los datos. 26 Examinamos, entonces, el componente salto de las simulaciones y ajustamos los parámetros δ y λ0 para que, una vez fijada una determinada definición inicial de salto inducida de la serie de rentabilidades observada, en media sobre un conjunto de simulaciones tengamos una cantidad y magnitud de salto semejante a la de los datos11. Para el resto de parámetros tomamos los valores de las estimaciones obtenidas en la sección anterior para un modelo de volatilidad estocástica (sin saltos). Los resultados de este análisis indican que, en el caso del S&P 500, los valores para δ y λ0 más razonables son 0.7 y 0.001, respectivamente, aunque quizá la probabilidad de ocurrencia de salto λ0 podría ser algo más alta. Tomamos así el vector de parámetros ψ 0 = ( µ, α, β , η, ρ, δ , λ0 ) = (0.0354,0.1005,0.0320,0.1227,-0.2958,0.7000,0.0010) como vector de parámetros inicial en la estimación del modelo SVJ. Para el resto de índices tomamos como condición inicial en la estimación (0.0342,0.0461,0.0152,0.0529,-0.1063,0.3000,0.0017) ψ 0 = ( µ, α, β , η, ρ, δ , λ0 ) = para el DAX 30, ψ 0 = ( µ, α, β , η, ρ, δ , λ0 ) = (0.0126,0.0588,0.0127, 0.1189,-0.0557,0.3000,0.0057) para el IBEX 35 y ψ 0 = ( µ, α, β , η, ρ, δ , λ0 ) = (0.0317,0.0410,0.0115,0.1052,-0.4214,0.3000, 0.0015) para el CAC 40, ya que el análisis del componente salto indica que λ0 debe ser igual a 0.0017, 0.0057 y 0.0015 en cada caso, para reproducir los saltos observados en la muestra, mientras que 0.3 es el valor más razonable para δ . No sorprende que δ tome el mismo valor en los tres casos, pues todos presentan una magnitud de salto similar. Tampoco que δ tome un valor más bajo que para el S&P 500, ya que los saltos que se observan en la serie de rentabilidades de los índices europeos no son tan grandes. La estimación que se obtiene para el S&P 500 está en posición de mínimo en varias dimensiones, pero, al igual que para el modelo sin saltos, la precisión de los parámetros µ y ρ es baja, así como para η y δ , por lo que estimamos de nuevo fijando el parámetro µ en la media de las rentabilidades observadas. Los valores de los parámetros han cambiado significativamente desde la condición inicial y la función objetivo se ha reducido de 0.0297 hasta un valor de 0.0019 (Tabla 3, Panel A). Además, los parámetros para los que estimábamos con precisión siguen estimándose con 11 El Apéndice F explica el análisis llevado a cabo en este sentido en el caso del S&P 500, determinando los valores más sensatos para los parámetros de salto y, consecuentemente, también la condición inicial. 27 precisión. α , β y η han disminuido a partir de la condición inicial aproximándose a lo observado en la literatura, y destacando la importante reducción del parámetro α . También en el caso del DAX 30, estimamos fijando el parámetro µ en la media de las rentabilidades observadas, ya que al no hacerlo la precisión de los parámetros estimados µ y ρ es baja. La estimación obtenida es significativamente distinta de la condición inicial, sobre todo para α , η y ρ , que sigue estimándose con baja precisión, e incluso para δ . La función objetivo se ha reducido bastante hasta 0.0011, sobre todo teniendo en cuenta que ya inicialmente toma un valor bastante bajo (0.0053). Para el IBEX 35, la precisión para los parámetros estimados µ , η y ρ es baja, pero a pesar de que a priori debieran mejorar las propiedades de la estimación al fijar µ en la rentabilidad media observada, no es así, por lo que estimamos dejando libre este parámetro. Los resultados muestran cambios significativos con respecto al vector de parámetros inicial. También la función objetivo se ha reducido mucho de 0.0159 de la condición inicial a 0.0016 de la estimación. Por último, en el caso del CAC 40, la estimación obtenida, fijando µ en la media muestral, es muy próxima al vector inicial de parámetros, salvo para el parámetro λ0 , y la función objetivo se ha reducido de 0.0072 a 0.0024. Todos los parámetros se estiman con buena precisión salvo, de nuevo, ρ . Señalar que la disminución observada (excepto para el DAX 30) de la estimación de η al añadir saltos en el proceso de rendimientos sugiere, que en ausencia de éstos, la volatilidad de la varianza tiene que ser mayor para que el modelo pueda ajustar la distribución histórica de rendimientos. Por otro lado, el parámetro de correlación entre shocks en la varianza y el proceso de rendimientos, ρ , es negativo en todas las estimaciones, capturando la asimetría negativa en la distribución de rendimientos. Sorprende quizá para el S&P 500, su alta magnitud, en valor absoluto, en comparación con los valores habituales en la literatura. En cuanto al componente salto, observamos que la estimación del parámetro λ0 presenta un valor bastante más bajo para el S&P 500 que para los índices europeos. 28 Estas estimaciones suponen un total de 1 salto anual para el S&P 500 frente a 4, 6 y 5 saltos anuales para el DAX 30, IBEX 35 y CAC 40, respectivamente. La magnitud media de los saltos estimada, -0.5 δ̂ , es -0.42 para el S&P 500, frente a -0.06 del DAX 30 y el IBEX 35, y -0.04 del CAC 40. Los saltos son menos frecuentes en USA (menor λ0 estimado) pero de mayor magnitud, lo que explica la gran curtosis de los datos estadounidenses. También podemos analizar el componente salto desde otro punto de vista, mediante simulación. Una vez fijada una determinada definición inicial de salto inducida de la serie de rentabilidades observadas (tal y como se ha explicado en el Apéndice F), contamos el número de saltos totales, positivos y negativos realizados en cada una de las 1000 trayectorias generadas a partir de la estimación ψ̂ , calculando finalmente su media sobre el total de simulaciones. Se calcula también en media a través de las 1000 simulaciones la magnitud mínima, máxima, así como su media y desviación típica, para analizar si la magnitud de salto es similar a la de los datos. Obtenemos así para el S&P 500 un total de 1 salto anual aproximadamente (del cual 0.3 es salto positivo y 0.7 negativo), para el DAX 30 2 saltos anuales (0.8 positivos y 1.2 negativos), para el IBEX 35 10 saltos anuales (4.7 positivos y 5.3 negativos) y 2 saltos anuales (1.6 para ser más precisos, 0.7 positivos y 0.9 negativos), para el CAC 40. Destaca la reducción del número de saltos realizados en las simulaciones para el DAX 30 y el CAC 40 (2 saltos anuales), frente a los que teóricamente reflejan las estimaciones obtenidas para el parámetro λ0 (4 y 5 saltos anuales, respectivamente). Lo que está ocurriendo es que aunque, debido al valor estimado para λ0 , en cada trayectoria se generen 4 o 5 saltos anuales (según el índice), algunos (aproximadamente la mitad) presentan una magnitud de salto tan baja que dichos saltos resultan inapreciables. No se alejan de la rentabilidad media en más de tres desviaciones típicas, por lo que al contar el numero de saltos no se distinguen del resto y no se contabilizan como tales. En el caso del IBEX 35 ocurre algo similar. El número de saltos realizados en las simulaciones resulta un tanto alto, tanto si lo comparamos con el resto de índices como si lo comparamos con los 6 saltos anuales que refleja la estimación obtenida para λ0 . Lo 29 que ocurre en este caso es que al simular se están identificando más saltos de los que en realidad se han dado. Pero la magnitud de la mayoría es baja, de forma que el componente salto y también las rentabilidades que se generan a partir de la estimación presentan un comportamiento muy próximo a los datos. Los quasi-estadísticos t (Tabla 4, Panel A) son un tanto altos para el S&P 500, sobre todo para γ0 y ϑ1 , lo que se refleja a su vez en el gradiente de la verosimilitud obtenido para la estimación, que toma valores algo altos, aunque más cercanos a cero que los del gradiente de la verosimilitud que se obtiene a partir de la condición inicial ψ 0 , ambos calculados en media sobre 1000 simulaciones. Para el resto de índices, los quasiestadísticos t están bastante próximos a cero, así como el gradiente de la verosimilitud evaluado de la estimación final, que es además menor que el calculado a partir del vector de parámetros inicial. Si nos fijamos en los estadísticos básicos calculados en media sobre 1000 trayectorias de rentabilidades generadas a partir de ψ 0 y ψ̂ (Tabla 5, Panel A), vemos que ya las series generadas para ψ 0 se aproximan mucho a la serie de datos original, sobre todo si lo comparamos con los datos obtenidos previamente para el modelo SV. El ajuste en asimetría y curtosis ha mejorado significativamente tal y como reflejan los valores obtenidos para la función de pérdida, destacando principalmente la capacidad explicativa inicial obtenida para los índices IBEX 35 y CAC 40. No es de extrañar que a partir de la condición inicial las rentabilidades simuladas presenten propiedades estadísticas tan próximas a la serie de datos si tenemos en cuenta que este vector de parámetros es ya una buena estimación. Y es que los valores de los parámetros de difusión son las estimaciones obtenidas para el modelo SV, y los valores de los parámetros de salto los obtenidos como razonables en un análisis exhaustivo previo del componente salto. Ahora, si nos fijamos en los estadísticos resultantes para la estimación ψ̂ , vemos que el modelo SVJ proporciona una mejora substancial con respecto a los resultados anteriores (y por supuesto, también con respecto al modelo SV), con una salvedad, para el IBEX 35, el ajuste global ha empeorado en relación a la condición inicial, puesto que aunque la curtosis se aproxima mejor con la estimación ψ̂ , perdemos bastante precisión a la 30 hora de ajustar la asimetría. También en el caso del CAC 40 se pierde precisión en ajustar la asimetría a favor del ajuste en curtosis, pero en este caso el ajuste global no se ve afectado e incluso es algo mayor. En cuanto al DAX 30, destaca el ajuste bastante peor de la asimetría en comparación al casi perfecto ajuste de la curtosis. Entonces, mientras que para EEUU ambos momentos se ajustan muy bien, para Europa parece que en general tenemos algún problema a la hora de ajustar la asimetría, y es que el grado de ajuste no es tan bueno como para la curtosis. Y como los índices europeos presentan una asimetría negativa mucho más baja que el S&P 500, esto parece sugerir que para que el modelo SVJ ajuste bien la asimetría, necesitamos que los rendimientos presenten un nivel mínimo de asimetría negativa en los datos. En cualquier caso, las simulaciones generadas a partir de ψ̂ se aproximan muchísimo a la serie real de datos siendo sumamente interesante que podamos para todos los índices estudiados reproducir la asimetría y curtosis existente en los datos, indicando que además de la volatilidad estocástica los saltos en rentabilidad son fundamentales para capturar la dinámica de los rendimientos de índices bursátiles. Y esto ocurre no sólo para EEUU, para el que ya existían evidencias al respecto, sino también para los tres índices europeos estudiados, lo que aporta confianza sobre este resultado. Así, al extender el trabajo existente para EEUU a otros índices de la zona euro, se ha constatado la importancia de considerar ambos factores, volatilidad estocástica y saltos en rentabilidad, cuando lo que se pretende es describir la distribución de rendimientos de índices bursátiles alejados de la normal. 5 Modelo Auxiliar Extendido Sabemos que la elección del modelo auxiliar es un punto vital dentro de la metodología de estimación EMM y que las densidades SNP son buenas candidatas para este propósito. Éstas constan de un término principal gaussiano, que debe aproximarse lo mejor posible al proceso de rendimientos, y de una expansión polinómica de Hermite que adapte las desviaciones del término principal. Por tanto, es importante analizar la necesidad de extender el modelo auxiliar que venimos utilizando en dos direcciones. Por un lado, exploraremos si el término principal 31 elegido (GARCH(1,1)) es el adecuado o por el contrario debemos considerar otra especificación que ajuste mejor las características de la dinámica del rendimiento. Por otro lado, tendremos que considerar la expansión de polinomios de Hermite al cuadrado como aproximación de la densidad condicional y elegir con cuidado el orden de dicha expansión. A pesar de que hemos justificado con anterioridad la elección del GARCH(1,1) como término principal, esta especificación presenta una deficiencia importante que debemos analizar. Este modelo es simétrico en el sentido de que shocks negativos y positivos tienen el mismo efecto en la volatilidad, ya que la varianza condicional depende de la magnitud de las innovaciones retardadas pero no de su signo. No obstante, observamos, como es habitual, efectos asimétricos en los datos. Las respuestas de la volatilidad ante posibles shocks suelen ser asimétricas, de forma que las sorpresas negativas tienden a incrementar la volatilidad más que las sorpresas positivas. Esto nos sugiere, además de extender el modelo auxiliar considerando polinomios de Hermite en la densidad (parte no paramétrica), examinar un modelo asimétrico como posible término principal. Sin embargo, quizá esta última extensión no sea imprescindible, ya que por un lado, sabemos que la principal tarea de la expansión polinómica no paramétrica en la densidad condicional es capturar cualquier exceso de curtosis en el proceso de rendimientos y también cualquier asimetría que no haya sido acomodada por el término principal. Por tanto, puede que no sea necesario añadir asimetría a dicho término, siendo suficiente extender el modelo auxiliar GARCH(1,1) añadiendo únicamente parte no paramétrica en la densidad. Este argumento viene además respaldado por las estimaciones realizadas en las que se ha conseguido, con un GARCH(1,1) como modelo auxiliar, ajustar relativamente bien la asimetría y curtosis al estimar el modelo de volatilidad estocástica con saltos en rendimientos (SVJ). Por otro lado, al tomar como término principal en el modelo auxiliar un EGARCH(1,1), modelo que fue precisamente propuesto con el objetivo de recoger los efectos asimétricos observados en series financieras, observamos que se complica la estimación de los distintos modelos estructurales. Al repetir las estimaciones para el índice S&P 500, éstas se ralentizan considerablemente, y es que el cálculo del gradiente de la verosimilitud en cada simulación es computacionalmente más exigente en este caso. Además, las estimaciones obtenidas apenas difieren de las que ya teníamos. Esto, unido 32 a los argumentos previamente expuestos, nos sugiere extender el modelo auxiliar únicamente mediante polinomios de Hermite, tomando como término principal más apropiado un GARCH(1,1). La estimación QML se lleva a cabo para un modelo auxiliar SNP completamente especificado, en donde la densidad SNP viene dada por las ecuaciones (5) a (7) y donde las especificaciones para la media y varianza del proceso se muestran en la expresión (18), tomando una forma específica para los polinomios, los llamados polinomios ortogonales de Hermite, los cuales se detallan en el Apéndice A. Es importante señalar que no sólo introducimos una expansión de polinomios de Hermite en la densidad condicional considerando K z > 0, sino que además se permite heterogeneidad en dicha expansión, al permitir que los coeficientes del polinomio de grado K z en z sean a su vez polinomios de grado K x en x ( K x > 0). Así, los parámetros del modelo auxiliar a estimar ξ = (γ 0 , γ 1 ,ϑ1 , a01 ,, a0 Kx , a10 , a11 ,, a1Kx , a20 , a21 ,, a2 Kx ,, aKz 0 , aKz1 ,, aKzKx ) son y se estiman mediante QML según la expresión (4). Estimamos a continuación la especificación SNP para distintos valores de K z > 0 y K x = 0 y 1, calculando para cada caso el valor de los criterios de información Bayesiano (BIC) y Hannan-Quinn (HQC)12, a partir del valor (maximizado) de la función de logverosimilitud: ~ 1 dim(ξ ) BIC = s n ξ + ln (n ) 2 n ~ dim(ξ ) HQC = s n ξ + ln (ln(n )) n () () (20) donde 12 Es conocido que el criterio de información Bayesiano (BIC) es consistente para modelos ARMA lineales, seleccionando el modelo asintóticamente correcto, mientras que el criterio de Akaike (AIC) sobreparametriza el modelo en la mayoría de los casos. Así, aunque los resultados de Eastwood (1991) sugieren que AIC es óptimo en el marco SNP, la literatura se inclina por la utilización de criterios de información más conservadores como son BIC y HQC (véase, por ejemplo, Andersen, Benzoni y Lund, 2002). Además, la sobreparametrización del generador del gradiente de la verosimilitud o modelo auxiliar puede derivar en posibles problemas numéricos, tal y como argumentan Andersen y Lund (1997). 33 () [ ( ~ ~ 1 n s n ξ = − ∑ ln f K ~ rt ~ xt ; ξ n t =1 )] (21) y n es el tamaño muestral. Ambos criterios BIC y HQC señalan para el S&P 500 la especificación GARCH(1,1) + K z = 10 como modelo auxiliar más apropiado13. Para el resto de índices, los resultados indican un modelo GARCH(1,1) + K z = 12 como el más adecuado en el caso del DAX 30, un GARCH(1,1) + K z = 9 para el IBEX 35 y un GARCH(1,1) + K z = 6 para el CAC 40. Las estimaciones de dicho modelo se recogen en el Panel B de la Tabla 2, así como los correspondientes errores estándar14. Por último, señalar que la elección de este modelo auxiliar, a diferencia con el anterior, posibilita evaluar los resultados mediante los test de especificación y diagnosis de modelo asociados al método de estimación EMM, ya que para los dos modelos estructurales, SV y SVJ, el número de parámetros es menor que el número de parámetros auxiliares, dim(ψ ) ≤ dim(ξ ) , condición necesaria para construir tanto el estadístico Chi-cuadrado del test conjunto de sobre identificación, como los estadísticos t . Es posible también en este caso calcular la matriz de covarianzas asintótica de la estimación EMM y determinar, por tanto, los errores estándar asintóticos. 5.1 Modelo Estructural Una vez tenemos para cada índice las estimaciones del modelo auxiliar extendido, tenemos que estimar los parámetros del modelo estructural, primero el modelo de volatilidad estocástica SV y segundo el modelo de volatilidad estocástica con saltos SVJ. Los resultados obtenidos para el modelo auxiliar sencillo GARCH(1,1) nos servirán de referencia. En cada caso, tomaremos como vector de parámetros inicial ψ 0 las estimaciones obtenidas para el mismo modelo estructural pero para el modelo auxiliar sencillo y que vienen dadas en el Panel A de la Tabla 3. Todas las estimaciones 13 Se llega a la misma conclusión al analizar las estimaciones obtenidas para los distintos valores de K z y K x mediante el test de la razón de verosimilitud y las matrices de correlación entre los parámetros estimados. El Apéndice G explica en detalle éste análisis. 14 La forma especifica de la función de densidad SNP, f K , de este modelo auxiliar extendido para el caso S&P 500 viene dada en el Apéndice H. 34 se obtienen fijando el parámetro µ en la rentabilidad media observada, ya que al estimar dejando libre este parámetro no se consigue estimarlo con buena precisión, lo que se refleja en el hecho de que la función objetivo apenas cambia al variar considerablemente el valor de dicho parámetro y fijar el resto en los valores de la estimación. Las Tablas 3, 4 y 5 recogen en el Panel B los resultados, en porcentaje y base diaria, obtenidos para cada índice y cada modelo estructural (SV y SVJ), en este caso en el que se ha extendido el modelo auxiliar mediante polinomios de Hermite. El Panel B de la Tabla 3 muestra las estimaciones obtenidas, el valor de la función objetivo alcanzado en la minimización y el resultado del contraste global Chi-cuadrado de sobre identificación calculado a partir de la expresión (11). La Tabla 4 recoge en el Panel B.1 los valores de los estadísticos t , dados por (12)-(14), asociados a los correspondientes parámetros SNP, junto con su significatividad individual, así como las correlaciones entre los parámetros estructurales calculadas de la forma usual a partir de la matriz de varianzas y covarianzas asintótica Cov(ψˆ ) (Panel B.2). Por último, el Panel B de la Tabla 5 muestra los estadísticos básicos de la serie de rentabilidades observada, así como los mismos estadísticos en media sobre 1000 trayectorias de rentabilidades generadas a partir de la condición inicial ψ 0 y la estimación ψ̂ obtenida. Además, dicha tabla recoge, también en el Panel B, los valores obtenidos para la función de pérdida, que viene dada por la expresión (19) e indica el grado de ajuste obtenido en asimetría y curtosis, tanto individual como conjuntamente. 5.1.1 Modelo Estructural: Volatilidad Estocástica SV Al examinar los resultados de la estimación obtenidos (Tabla 3, Panel B), vemos que para el S&P 500 el algoritmo se mueve bastante sobre todo en el caso de α y ρ . Sin embargo, no se observa una reducción en la función objetivo tan importante (que se reduce de 0.0396 de la condición inicial a 0.0300 de la estimación) como en el caso del modelo auxiliar sencillo, pero también es cierto que el valor inicial de esta función es mucho más bajo, lo cual no es de extrañar puesto que la condición inicial es ya una buena estimación. Todos los parámetros se estiman con precisión a excepción del parámetro de correlación ρ . En cuanto a los valores de las estimaciones, vemos que α y β han disminuido bastante desde la condición inicial, sobre todo en el caso de α , 35 aproximándose a los valores habituales de la literatura. La estimación para η es quizá un poco alta, y aunque ρ es negativo y significativo (su desviación estándar es baja), su magnitud es también un tanto alta en valor absoluto. En el caso del DAX 30, el algoritmo apenas se mueve desde la condición inicial y la función objetivo tampoco se reduce demasiado (de 0.0296 a 0.0249), sugiriendo que el vector inicial de parámetros es ya una buena estimación. Los parámetros α y β son significativos, y ρ es negativo pero no significativo. La precisión con la que se estima este último parámetro es baja. Para el IBEX 35, vemos que los valores de los parámetros no se mueven demasiado desde la condición inicial, salvo en el caso de ρ , que partiendo de un valor negativo pero muy bajo en valor absoluto se llega a una estimación también negativa pero de magnitud mucho mayor, aunque este parámetro seguimos sin estimarlo con precisión. La función objetivo disminuye de 0.0275 a 0.0167. Por último, en el caso del índice CAC 40, las estimaciones de η y ρ son las que más se alejan del vector inicial de parámetros. De nuevo, la precisión de la estimación del parámetro de correlación ρ es baja, y la función objetivo no se reduce en exceso desde 0.0222 a 0.0191. Es evidente, basándonos en el test Chi-cuadrado de sobre identificación de restricciones (Tabla 3, Panel B) que el modelo se rechaza rotundamente a cualquier nivel de significación razonable para todos los índices estudiados, lo que en el caso del S&P 500 y el CAC 40, se refleja también en el alto número de componentes del gradiente de la verosimilitud significativamente distintos de cero (Tabla 4, Panel B.1). Sin embargo, en el caso del DAX 30 y el IBEX 35, únicamente tres de los quince y doce estadísticos t , según el índice, asociados a los correspondientes parámetros SNP resultan significativos. Si nos fijamos en las correlaciones entre los parámetros estructurales estimados (Tabla 4, Panel B.2), vemos que la mitad de ellas (las correspondientes a los parámetros α , β y η ) son muy elevadas. 36 No sorprende observar propiedades estadísticas semejantes para las simulaciones realizadas a partir del vector de parámetros inicial ψ 0 y final ψ̂ (Tabla 5, Panel B), ya que ambos son muy similares para todos los índices. Por ello, aunque al estimar se mejora algo el ajuste en asimetría y curtosis, éste es muy similar en ambos casos. Al igual que ocurría al considerar el modelo auxiliar sencillo, con el modelo SV no conseguimos reproducir la asimetría y curtosis existente en los datos. La función de pérdida refleja tanto individual como conjuntamente, más de una 90% de falta de ajuste para el S&P 500. El ajuste es algo mejor para los índices europeos debido a que la curtosis se aproxima mejor. Pero si nos fijamos, vemos que en realidad el modelo SV reproduce en todos los casos una curtosis similar y en torno a 3, valor que está muy alejado de la curtosis del S&P 500 pero no tanto de la del resto de índices. 5.1.2 Modelo Estructural: Volatilidad Estocástica con Saltos SVJ Para el S&P 500 se observa (Tabla 3, Panel B) una reducción en la función objetivo considerable, de 0.1081 de la condición inicial a 0.0271 de la estimación, y cambios substanciales en los parámetros λ0 y ρ , destacando la negatividad y la falta de precisión de este último. En el caso del DAX 30, la función objetivo no disminuye mucho (de 0.0326 de la condición inicial a 0.0243), aunque es cierto que el algoritmo tampoco se mueve demasiado salvo para los parámetros η y ρ . Este último es significativo pero la precisión en la estimación es baja. Para el IBEX 35, no se observa una reducción significativa en la función objetivo, que disminuye de 0.0236 de la condición inicial a 0.0149 de la estimación. Los valores de los parámetros, sin embargo, cambian bastante desde ψ 0 sobre todo en el caso de ρ , que además de identificarse débilmente, por primera vez es positivo. Esto no tiene porqué suponer necesariamente un problema. Es cierto que a priori esperaríamos una correlación entre brownianos, ρ , negativa para capturar la asimetría negativa de los datos. Sin embargo, en el caso del IBEX 35 la serie de rentabilidades diarias observada no presenta demasiada asimetría negativa, por lo que para capturarla quizá no sea necesario tener un ρ < 0 y sea suficiente con añadir saltos en rentabilidad. Recordemos 37 que el hecho de que la magnitud de salto se distribuya como una normal de media negativa induce más saltos negativos que positivos, produciendo asimetría negativa. Las estimaciones obtenidas para el índice CAC 40 no difieren mucho del vector de parámetros inicial. También en este caso, el parámetro de correlación ρ es negativo y, al igual que el parámetro η , se estima con baja precisión. La función objetivo disminuye de 0.0276 a 0.0194. Al igual que ocurría al considerar el modelo auxiliar sencillo, para todos los índices, salvo para el DAX 30, el parámetro estimado η disminuye al añadir saltos en el proceso de rendimientos, lo que sugiere que en el modelo de volatilidad estocástica sin saltos, la volatilidad de la varianza tiene que ser mayor para poder ajustar la distribución de rendimientos. En cuanto al componente salto, las conclusiones son similares a las que teníamos para el modelo auxiliar sencillo. Los saltos son menos frecuentes para USA, ya que la estimación del parámetro λ0 es menor y supone menos de 1 salto anual en este caso, frente a los 4 saltos anuales para el DAX 30 y los 6 para el IBEX 35 y el CAC 40. Por otro lado, la magnitud de los saltos es mayor para el S&P 500, lo que explica la alta curtosis de los datos estadounidenses. En efecto, la magnitud media de los saltos estimada, -0.5 δ̂ , es -0.43 para el S&P 500, frente a -0.07 del DAX 30, -0.04 del IBEX 35 y -0.05 del CAC 40. Si analizamos el componente salto mediante simulación, obtenemos que, en media sobre 1000 trayectorias generadas a partir de la estimación ψ̂ , se dan aproximadamente un total de 1 salto anual para el S&P 500 (0.3 positivo y 0.7 negativo), 2 saltos anuales para el DAX 30 (0.7 positivos y 1.3 negativos), 10 para el IBEX 35 (5 positivos y 5 negativos) y 2 para el CAC 40 (0.8 positivos y 1.2 negativos). La discrepancia, para los índices europeos, entre los números de saltos realizados en las simulaciones y las estimaciones de λ0 no suponen una contradicción. Aunque al simular se generan tantos saltos como indican los valores estimados de λ0 , muchos de ellos presentan una magnitud tan baja que dichos saltos no se identifican como tales (es el 38 caso del DAX 30 y el CAC 40, que en las simulaciones se cuentan menos saltos que los que indica la estimación de λ0 ) o que aún identificándose como saltos no tienen un impacto importante en las rentabilidades (es el caso del IBEX 35, que se contabilizan más saltos que los que indica la estimación de λ0 ). Si nos fijamos en el valor del estadístico Chi-cuadrado vemos que, para todos los índices, añadir saltos en rentabilidad mejora el ajuste, ya que el estadístico disminuye de valor, de 151.38 a 136.74 para el S&P 500, de 100.21 a 97.63 para el DAX 30, de 66.90 a 59.63 para el IBEX 35 y de 76.49 a 75.12 para el CAC 40, lo que supone una reducción del 10%, 3%, 11% y 2%, respectivamente. Pero esta reducción no es suficiente y el modelo se rechaza rotundamente a cualquier nivel de significación razonable. Esto se refleja también en el alto número de componentes del gradiente de la verosimilitud significativamente distintos de cero (Tabla 4, Panel B.1), aunque en el caso del DAX 30 sólo cuatro de los quince estadísticos t asociados a los correspondientes parámetros SNP resultan significativos. Las correlaciones entre los parámetros estructurales son en general bastante altas (Tabla 4, Panel B.2), aunque en el caso del S&P 500 el número de correlaciones elevadas ha disminuido considerablemente en comparación con el modelo SV. Vemos que las simulaciones generadas a partir de ψ 0 se aproximan mucho a la serie real de datos (Tabla 5, Panel B), en especial en el caso del índice S&P 500. Para el DAX 30 y sobre todo para el IBEX 35, la falta de ajuste en asimetría hace que inicialmente el ajuste global no sea tan bueno. En cualquier caso, ya con el vector inicial de parámetros ψ 0 la mejora con respecto al modelo SV es notable. Ahora, si nos fijamos en los resultados obtenidos para la estimación ψ̂ vemos que, aunque en comparación con SV la mejora es substancial, en contra de lo observado para el modelo auxiliar sencillo, en general no aumenta la capacidad explicativa de los momentos de tercer y cuarto orden con respecto a ψ 0 . Únicamente en el caso del IBEX 35 conseguimos con ψ̂ un mejor ajuste, tanto si lo comparamos con ψ 0 como si lo comparamos con los resultados obtenidos para el modelo auxiliar sencillo. Aunque se pierde algo de precisión al ajustar la curtosis, la asimetría se aproxima mucho mejor, lo que hace aumentar el ajuste conjunto de las dos características. Para el DAX 30, se 39 observan propiedades estadísticas similares para ψ 0 y ψ̂ , lo que no es de extrañar ya que ambos están bastante próximos. En cualquier caso, vemos que al introducir saltos en el modelo de volatilidad estocástica se ha conseguido ajustar bastante bien la asimetría y curtosis existente en los datos. Por otro lado, el porcentaje de ajuste es muy similar al obtenido en el caso del modelo auxiliar sencillo. Para el S&P 500, a pesar de que la función objetivo se reduce considerablemente a partir de la condición inicial, con la estimación se genera demasiada asimetría negativa y, sobre todo, curtosis con respecto a los datos, mientras que, tal y como se ha comentado anteriormente, el ajuste es muy bueno con el vector de parámetros inicial, que recordemos se corresponde con las estimaciones obtenidas al considerar un modelo auxiliar sin polinomios de Hermite. Para el CAC 40 el ajuste conjunto de los momentos de tercer y cuarto orden empeora, tanto si los comparamos con los resultados de ψ 0 como con los del modelo auxiliar sencillo. Se pierde bastante precisión a la hora de ajustar la asimetría, pero el ajuste en curtosis es prácticamente perfecto. Concluimos por tanto que la incorporación de los polinomios de Hermite al modelo auxiliar básico GARCH(1,1) no contribuye apenas a la capacidad explicativa de los momentos de orden superior considerados, ya que únicamente en el caso de uno de los cuatro índices, en el caso del IBEX 35, se ha observado una mejora substancial en el ajuste global al extender el modelo auxiliar. 6 Conclusiones Es aceptado en la literatura que la introducción de volatilidad estocástica o saltos en modelos en tiempo continuo difusivos puede explicar las características de los rendimientos de activos financieros. Sin embargo, los resultados obtenidos en la literatura para datos americanos son contradictorios y muchas veces fracasan a la hora de aproximar satisfactoriamente la dinámica del proceso de rendimientos del activo subyacente. Por tanto, el objetivo de este artículo es, por un lado, identificar un modelo que ajuste adecuadamente dicha dinámica y, por otro, extender la poca evidencia existente a otros índices europeos. De esta forma, consideramos datos de rentabilidades diarias del S&P 500, así como del DAX 30, IBEX 35 y CAC 40, aportando una visión global del centro-sur de Europa. 40 Analizamos un modelo de difusión para la volatilidad estocástica extendiéndolo después permitiendo saltos de Poisson con intensidad constante en rentabilidad. La estimación se lleva a cabo mediante una implementación cuidadosa del EMM, considerando primero un modelo auxiliar simple GARCH(1,1) a partir del cual se obtienen unas estimaciones iniciales de los parámetros estructurales que sirven de referencia en la estimación al extender mediante polinomios de Hermite el modelo auxiliar. Encontramos que un modelo de difusión para la volatilidad estocástica que no incorpore saltos no es suficiente para acomodar las singularidades de los rendimientos de los distintos índices bursátiles. Sin embargo, con un modelo que incorpore ambos componentes, volatilidad estocástica y saltos en rentabilidad, logramos reproducir la asimetría y curtosis existente en los datos de los cuatro índices estudiados, lo que proporciona evidencia empírica apoyando la presencia conjunta de ambos factores. Además, el hecho de que esto se repita no sólo para EEUU sino también para el resto de índices, nos da confianza sobre este resultado. Por otro lado, el peor ajuste en asimetría para los índices europeos unido al hecho de que éstos presentan un valor muestral mucho menor (en valor absoluto) que para EEUU, nos sugiere que para que el modelo SVJ ajuste bien la asimetría, es necesario que los rendimientos presenten un nivel mínimo de asimetría negativa. Además, al añadir saltos en rentabilidad se mejora el ajuste en términos de especificación del modelo, aunque el hecho de que éste siga rechazándose sugiere que, a pesar de que junto a la volatilidad estocástica los saltos en rentabilidad son los dos componentes más importantes para describir la dinámica de las series temporales de rendimientos, pueden no ser suficientes y haga falta añadir algo más, como saltos en volatilidad, lo que puede ser una posible extensión para nuestro trabajo. Por otro lado, el hecho de que sistemáticamente en todas las estimaciones el parámetro de correlación ρ no se estime con precisión sugiere analizar la posibilidad de que no se esté introduciendo correctamente en el modelo, y es que una correlación constante en el tiempo no es lo más razonable. Una posibilidad es considerar que la correlación depende de una variable de estado, ya sea la rentabilidad o la propia varianza, lo cual es totalmente sensato, dejando que sea la estimación quién determine si es o no constante en el tiempo. Esto constituye una posible segunda línea de investigación futura. 41 Por último, vemos que la incorporación de polinomios de Hermite al modelo auxiliar no parece contribuir a la capacidad explicativa de los momentos de tercer y cuarto orden tan bien ajustados por el modelo de volatilidad estocástica con saltos cuando el modelo auxiliar considerado es el GARCH(1,1). 42 Referencias Andersen, T., L. Benzoni y J. Lund (2002), “An empirical investigation of continuoustime equity return models”, Journal of Finance 57, 1239-1284. Andersen, T. y J. Lund (1997), “Estimating continuous-time stochastic volatility models of the short term interest rate”, Journal of Econometrics 77, 343-377. Bakshi, G., C. Cao y Z. Chen (1997), “Empirical performance of alternative option pricing models”, Journal of Finance 52, 2003-2049. Bansal, R., A. R. Gallant, R. Hussey y G. Tauchen (1993), “Computational aspects of nonparametric simulation estimation”, en D. A. Belsley (ed.), Computational techniques for econometrics and economic analysis, Kluwer Academic Publishers, Boston, 3-22. Bansal, R., A. R. Gallant, R. Hussey y G. Tauchen (1995), “Nonparametric estimation of structural models for high-frequency currency market data”, Journal of Econometrics 66, 251-287. Bates, D. (2000), “Post-’87 crash fears in S&P 500 futures options”, Journal of Econometrics 94, 181-238. Bollerslev, T. (1986), “Generalized autoregressive conditional heteroskedasticity”, Journal of Econometrics 31, 307-327. Broadie, M., M. Chernov y M. Johannes (2007), “Model specification and risk premia: Evidence from futures options”, Journal of Finance 62, 1453-1490. Chernov, M., A. R. Gallant, E. Ghysels y G. Tauchen (2003), “Alternative models for stock price dynamics”, Journal of Econometrics 116, 225-257. Clark, P. K. (1973), “A subordinated stochastic process model with finite variance for speculative prices”, Econometrica 41, 135-156. 43 Cox, J. C., J. E. Ingersoll, Jr. y S. A. Ross (1985), “A theory of the term structure of interest rates”, Econometrica 53, 385-407. Danielsson, J. (1994), “Stochastic volatility in asset prices: Estimation with simulated maximum likelihood”, Journal of Econometrics 61, 375-400. Duffie, D. y K. J. Singleton (1993), “Simulated moments estimation of Markov models of asset prices”, Econometrica 61, 929-952. Eastwood, B. (1991), “Asymptotic normality and consistency of seminonparametric regression estimators using an upward F-test rule”, Journal of Econometrics 48, 151183. Eraker, B. (2004), “Do equity prices and volatility jump? Reconciling evidence from spot and option prices”, Journal of Finance 59, 1367-1403. Eraker, B., M. Johannes y N. Polson (2003), “The impact of jumps in equity index volatility and returns”, Journal of Finance 58, 1269-1300. Fenton, V. M. y A. R. Gallant (1996a), “Convergence rates of SNP density estimators”, Econometrica 64, 719-727. Fenton, V. M. y A. R. Gallant (1996b), “Qualitative and asymptotic performance of SNP density estimators”, Journal of Econometrics 74, 77-118. Gallant, A. R., D. A. Hsieh y G. E. Tauchen (1991), “On fitting a recalcitrant series: The pound/dollar exchange rate 1974-1983”, en W.A. Barnett, J. Powell y G. E. Tauchen, eds., Nonparametric and semiparametric methods in econometrics and statistics, Fifth international symposium in economic theory and econometrics, Cambridge University Press, Cambridge, 199-240. Gallant, A. R., D. A. Hsieh y G. E. Tauchen (1997), “Estimation of stochastic volatility models with diagnostics”, Journal of Econometrics 81, 159-192. 44 Gallant, A. R. y J. R. Long (1997), “Estimating stochastic differential equations efficiently by minimum Chi-square”, Biometrika 84, 125-142. Gallant, A. R. y D. W. Nychka (1987), “Semi-nonparametric maximum likelihood estimation”, Econometrica 55, 363-390. Gallant, A. R. y G. E. Tauchen (1989), “Seminonparametric estimation of conditionally constrained heterogeneous processes: Asset pricing applications”, Econometrica 57, 1091-1120. Gallant, A. R. y G. E. Tauchen (1996), “Which moments to match?”, Econometric Theory 12, 657-681. Gallant, A. R. y G. E. Tauchen (1997), “Estimation of continuous-time models for stock returns and interest rates”, Macroeconomic Dynamics 1, 135-168. Geweke, J. (1996), “Monte Carlo simulation and numerical integration”, en Hans M. Amman, David A. Kendrick y John Rust, eds.: Handbooks in Economics, vol. 13, Handbook of Computational Economics, vol. 1, North-Holland, Amsterdam. Harvey, A. C., E. Ruiz y N. Shephard (1994), “Multivariate stochastic variance models”, Review of Economic Studies 61, 129-158. Heston, S. L. (1993), “A closed form solution for options with stochastic volatility with applications to bond and currency options”, Review of Financial Studies 6, 327-343. Hull, J. y A. White (1987), “The pricing of options on assets with stochastic volatility”, Journal of Finance 42, 281-300. Kloeden, P. E. y E. Platen (1992), Numerical Solutions of Stochastic Differential Equations, Springer-Verlag, Berlin. Melino A. y S. M. Turnbull (1990), “Pricing foreign currency options with stochastic volatility”, Journal of Econometrics 45, 239-265. 45 Merton, R. C. (1976), “Option pricing when the underlying stock returns are discontinuous”, Journal of Financial Economics 3, 125-144. Pan, J. (2002), “The jump−risk premia implicit in options: Evidence from an integrated time-series study”, Journal of Financial Economics 63, 3-50. Tauchen, G. E. (1997a), “New minimum chi-square methods in empirical finance”, en Kreps, D.M., Wallis, K.F., eds., Advances in Economics and Econometrics: Theory and Applications, Seventh World Congress, Cambridge University Press, Cambridge. Tauchen, G. E. y M. Pitts (1983), “The price variability-volume relationship on speculative markets”, Econometrica 51, 485-505. Taylor, S. J. (1986), Modeling financial time series, Wiley, New York, NY. Wiggins, J. (1987), “Option values under stochastic volatility: Theory and empirical estimates”, Journal of Financial Economics 19, 351-372. 46 Apéndice A: Polinomios de Hermite en la función de densidad SNP En este apéndice se detalla la forma específica de los polinomios PK ( z , x ) de la función de densidad SNP f K (r x; ξ ) . Dichos polinomios vienen dados por: Kz Kz Kx PK ( z , x ) = ∑ ai ( x )Hei ( z ) = ∑ ∑ aij x j Hei ( z ), a00 = 1 i =0 i =0 j =0 (A.1) donde Hei ( z ) es el polinomio ortogonal de Hermite de grado i que se determina mediante la expresión siguiente: Hei ( z ) = (i!) −1 / 2 Hei (z ) (A.2) a partir del correspondiente polinomio de Hermite (no normalizado) de grado i : Hei ( z ) = i / 2 ∑ (− 1) j =0 j i! z i −2 j j!2 (i − 2 j )! j el cual satisface ∫ He He i j i≠ j 0 1 exp− z 2 dz = 2 2π i! i = j Un resultado de esta normalización es que 0 i ≠ j ( ) ( ) ( ) = He u He u φ u du i j ∫ 1 i = j lo que resulta muy útil en el cálculo de la expresión (5), ya que entonces 47 Kz 2 2 ∫R [PK (u, x )] φ(u )du = ∑ ai (x ) (A.3) i =0 Por último señalar que existe también una relación recursiva muy útil a la hora de construir los polinomios de Hermite: Hei +1 ( z ) = zHei ( z ) − iHei −1 ( z ) He0 ( z ) = 1 (A.4) He1 ( z ) = z Apéndice B: Función de densidad SNP para el modelo auxiliar GARCH(1,1) sin parte no paramétrica En este apéndice se muestra explícitamente la función de densidad SNP f K cuando el modelo auxiliar considerado es un GARCH(1,1) sin parte no paramétrica. La forma general de la densidad SNP viene dada por la expresión (5): [PK (z t , x t )]2 φ(z t ) f K (rt | x t ; ξ ) = ν + (1 − ν ) 2 ∫R [PK (u , x t )] φ(u )du ht con ν = 0.01, φ(⋅) es la densidad normal estándar, φ( z t ) = zt = rt − υ t ht , que en este caso es z t = rt ht z2 exp − t , y 2π 2 1 con ht = γ 0 + γ 1rt 2−1 + ϑ1 ht , ya que la media y varianza del modelo auxiliar son υt = 0 y ht = γ 0 + γ 1rt 2−1 + ϑ1 ht , respectivamente. Por otro lado, el término [PK (z t , xt )]2 2 ∫R [PK (u, xt )] φ(u )du 0 es igual a 1, ya que, de la expresión (7), PK ( z , x ) = P( Kz , Kx ) ( z , x ) = P(0, 0 ) ( z , x ) = ∑ ai = a 0 = 1 y, de (A.3) se deduce que i =0 0 2 2 2 ∫R [PK (u, x )] φ(u )du = ∑ ai = a0 = 1 . i =0 48 Por tanto, la función de densidad SNP f K cuando el modelo auxiliar considerado es un GARCH(1,1) sin parte no paramétrica es: f K (rt | x t ; ξ ) = φ( z t ) ht z2 exp − t 2π 2 = ht 1 = r2 exp − t 2 π ht 2 ht 1 con ht = γ 0 + γ 1rt 2−1 + ϑ1 ht . Apéndice C: Implementación Numérica del EMM para el modelo SV En este apéndice se detalla el procedimiento numérico empleado para simular una trayectoria de rendimientos y obtener su correspondiente gradiente de la verosimilitud a partir del modelo de volatilidad estocástica SV. En primer lugar, como hemos utilizado rendimientos en logaritmo para ajustar el modelo auxiliar, aplicamos el Lema de Ito al modelo en tiempo continuo para obtener una caracterización del proceso en logaritmos: dS t V = µdt + Vt dW1,t ⇒ d ln S t = µ − t dt + Vt dW1,t L 'I St 2 y donde la varianza sigue un proceso en raíz cuadrada: dVt = (α − β Vt )dt + η Vt dW2,t Así, obtenemos una caracterización del proceso ln S t , por lo que no tenemos más que calcular su primera diferencia para tener la serie de rentabilidades: rt = d ln S t − d ln S t −1 49 N Necesitamos ahora generar una serie {rˆt (ψ )}t =1 a partir del modelo estructural en tiempo continuo. Esto se hace dividiendo cada día en M subíntervalos, y simulando un total de N×M observaciones. Utilizamos la discretización de Euler de orden uno que reemplaza V d ln S t = µ − t dt + Vt dW1,t 2 dVt = (α − βVt )dt + η Vt dW2,t por las aproximaciones de primer orden en tiempo discreto V ln S t = ln S t − ∆ + µ − t − ∆ ∆ + Vt − ∆ ∆ z1,t − ∆ 2 Vt = Vt − ∆ + (α − βVt − ∆ )∆ + η Vt − ∆ ∆ z 2,t − ∆ donde ∆ = 1 y 252 × M (z 1,t , z 2,t ) son dos variables normales estándar N (0,1) con correlación ρ , es decir, 0 1 ρ dW1,t z1,t ≈ ~ N , dW z 0 ρ 1 2 , t 2 , t La aproximación de Euler con M = 1 se utiliza frecuentemente para estimar parámetros de ecuaciones diferenciales estocásticas a partir de datos observados discretos. Como nosotros estamos utilizando una técnica de estimación basada en simulación, podemos utilizar cualquier valor de M > 1 que reduce el sesgo de la discretización. Nuestros resultados están basados en M = 10 subintervalos. Fijado un valor para M , el sesgo de la discretización puede teóricamente reducirse más utilizando un esquema de simulación de orden mayor (Kloeden y Platen, 1992). Estos esquemas son similares a las expansiones de Taylor de mayor orden para funciones deterministas, por lo que son más costosos computacionalmente. Además, creemos que la técnica de reducción de varianza (variables antitéticas) explicada más adelante es menos efectiva con un esquema de orden superior por los términos cuadrados adicionales de z1,t y z 2,t . 50 En el cálculo del gradiente de la verosimilitud se supone implícitamente que las series temporales simuladas de las rentabilidades, y por tanto la función de densidad SNP, se generan a partir de una distribución estacionaria. Estrictamente, simular realizaciones estacionarias es imposible ya que no somos capaces de extraer los valores iniciales de (ln S 0 , V0 ) ln S t y Vt de sus distribuciones incondicionales. Pero, iniciamos estas variables de estado en sus medias incondicionales, µ y α β respectivamente, y descartamos los primeros N 1 valores simulados de ln S t . Para un valor de N 1 suficientemente alto el efecto de las condiciones iniciales desaparece, por lo que tenemos una simulación de ln S t a partir de una distribución estacionaria. Lo que hacemos por tanto es simular mediante la discretización de Euler una trayectoria de (N + N 2 ) × M + N1 , tamaño donde M es el número de subtintervalos en el que dividimos un día, M = 10. Se descartan después los primeros N 1 valores simulados de ln S t para así poder tener una trayectoria de una distribución estacionaria, calculando a ( N + N )× M continuación las rentabilidades simuladas, {rˆt (ψ )}t =1 2 , y sumando de M en M para N +N obtener los rendimientos simulados diarios {rˆt (ψ )}t =1 2 . El siguiente paso consiste en calcular el ( ) ~ 1 mN ψ ,ξ = N ( gradiente N ∑ la ~ ∂ ln f K rˆt (ψ ) xˆ t (ψ ); ξ t =1 ~ ∂ ln f K rˆt (ψ ) xˆ t (ψ ); ξ ∂ξ de ( ∂ξ verosimilitud del modelo auxiliar, ) , para lo que calculamos la derivada parcial ) numéricamente, tal y como ya se ha descrito con anterioridad. A continuación, con el propósito de obtener una trayectoria del gradiente de la verosimilitud a partir de una distribución estacionaria, se descartan las primeras N 2 observaciones, ya que el mismo GARCH (modelo auxiliar) depende de las condiciones iniciales de la varianza. Así, tenemos finalmente una muestra de tamaño N para el ~ gradiente de la verosimilitud, mN ψ , ξ . ( ) Nosotros utilizamos valores de N 1 = N 2 = 1000 y N = 10000. N debe ser lo suficientemente alto para que el error Monte Carlo del gradiente de la verosimilitud sea despreciable. El problema está en que se necesitarían millones de observaciones para que dicho error fuese insignificante (Andersen y Lund, 1997). Utilizamos por ello la técnica de reducción de varianzas de variables antitéticas (Geweke, 1996), que es 51 bastante efectiva (Andersen y Lund, 1997, entre otros). En rasgos generales, la idea que está detrás de esta técnica de variables antitéticas es promediar dos estimaciones de la ~ ∂ ln f K r x; ξ ~ dP (r x;ψ ) que se supone están negativamente integral m ψ , ξ = ∫ ∂ξ ( ( ) ) correladas. Siguiendo el procedimiento descrito arriba, se calcula primero el gradiente ~ de la verosimilitud utilizando las variables aleatorias (z1,t , z 2,t ) , mN( z1t , z2 t ) ψ , ξ . La ( ) ( ) ~ segunda estimación, m N(− z1t , − z2 t ) ψ , ξ , se computa usando los mismos números aleatorios pero con signo ( ) [ opuesto, es decir, (− z 1,t ,− z 2,t ) . Entonces, finalmente, ( )] ( ) ~ 1 ~ ~ m N ψ , ξ = m N( z1t , z 2 t ) ψ , ξ + m N(− z1t , − z 2 t ) ψ , ξ . 2 Apéndice D: Implementación Numérica del EMM para el modelo SVJ En este apéndice detallamos el algoritmo utilizado para simular rentabilidades para el modelo SVJ. En primer lugar, y al igual que para el modelo SV, ya que hemos utilizado rendimientos en logaritmo para ajustar el modelo auxiliar, aplicamos el Lema de Ito al modelo en tiempo continuo para obtener una caracterización del proceso en logaritmos: ( ) dS t = µ − λ(t )k dt + Vt dW1,t + k (t )dq t ⇒ L 'I St V ⇒ d ln S t = µ − λ(t )k − t L'I 2 dt + Vt dW1,t + ln (1 + k (t ))dqt y donde la varianza sigue un proceso en raíz cuadrada: dVt = (α − βVt )dt + η Vt dW2,t La serie de rentabilidades la obtenemos de calcular la primera diferencia del proceso ln St : 52 rt = d ln S t − d ln S t −1 La simulación, discretización, de la parte de volatilidad estocástica se hace de la misma forma que antes (Apéndice C). Nos centramos por tanto en el componente salto, que se genera de la forma usual. Aproximamos los saltos de Poisson dqt mediante una variable binomial Y , que toma valor 1 en caso de que se dé un salto en el instante t , con probabilidad λ(t ) , y valor 0, en caso contrario, con probabilidad 1 − λ(t ) . Entonces, dada la probabilidad de ocurrencia de salto λ(t ) , generamos una variable uniforme U en (0,1) para definir Y de la forma siguiente: 0 Y (t ) = 1 si 0 ≤ U (t ) < 1 − λ(t ) si 1 − λ(t ) ≤ U (t ) ≤ 1 En la especificación del modelo estructural, k (t ) denota la magnitud de salto en el proceso de rendimientos si un salto ocurre en t . Se supone que dicha magnitud de salto ( ) se distribuye como una normal: Γt ~ ln(1 + k (t ) ) ≈ N ln(1 + k ) − 0.5δ 2 , δ 2 , y se fija k = 0 . Andersen, Benzoni y Lund (2002) dicen que primeramente estiman el modelo de Merton (1976) sin imponer esta condición, pero que debido a que la estimación de este parámetro resulta ser insignificante y pobremente identificado por los momentos del gradiente de la verosimilitud auxiliar deciden imponerla, lo que se correspondería con un modelo estructural difusión-salto simétrico. Es cierto que esto no es del todo real puesto que en principio se esperan más saltos grandes negativos que positivos. Cuando más adelante consideran en lugar del modelo de Merton un modelo de volatilidad estocástica con saltos, dicen que el hecho de que en Merton el parámetro k fuese insignificante y estuviera estimado de forma imprecisa, sugiere que la asimetría se captura mejor con una correlación negativa entre innovaciones del rendimiento y varianza de la difusión, es decir, ρ < 0, por lo que también en este caso imponen k = 0. Por otra parte, el hecho de que en consecuencia la media de la normal Γt (magnitud de salto) sea -0.5 δ 2 ya hace que tengamos más saltos grandes negativos que positivos. Por último, destacar que δ caracteriza la variabilidad de la magnitud de salto. 53 Apéndice E: Análisis previo a la estimación final SV para el S&P 500 ( K z = 0) En este apéndice se justifica la restricción impuesta en la estimación final de fijar el parámetro µ en la rentabilidad media, analizando mediante un ejercicio de precisión individual la estimación que se obtiene previamente al no imponer dicha restricción. En este último caso se ven indicios positivos en lo siguiente: en primer lugar, el algoritmo se mueve bastante, ψ 0 = (0.0300,0.0070,0.0200,0.0700,-0.6000) desde la condición inicial hacía la estimación inicial ψˆ1 = (0.1935,0.3219,0.0807,0.2602,-0.3030), lo que supone un cambio importante. Además, la función objetivo disminuye considerablemente desde un nivel de 0.8750 hasta 0.0011. Sin embargo, destacan los valores tan altos obtenidos para los parámetros α , β y η , en comparación con las estimaciones habituales en la literatura, y lo que es más importante, la precisión con la que se estiman los otros dos parámetros µ y ρ , es baja. La precisión individual de cada parámetro estimado se examina mediante un ejercicio de estimación condicional. Se trata de fijar los valores de todos los parámetros menos uno, y en lugar de utilizar el minimizador, realizar una red de búsqueda para ver cómo cambia el valor de la función objetivo. Este ejercicio de sensibilidad puede resultar útil para investigar indicios de que el mínimo local que se ha alcanzado pueda ser global. Esencialmente consiste en ver cómo cambia el valor de la función objetivo cuando varía uno de los parámetros desde la estimación obtenida. En todo caso, hay que reconocer que la precisión alcanzada puede no ser muy alta para algunos parámetros, lo que se refleja en que a veces hay variaciones apreciables en algún parámetro sin que la función objetivo se deteriore mucho. Tomamos entonces la estimación inicial ψˆ1 , fijamos todos los parámetros menos µ y simulamos para una red de valores de µ dentro de su intervalo de posibles valores. Repetimos el mismo ejercicio para el resto de parámetros. La Figura E.1 muestra 54 gráficamente para cada parámetro el cambio en la función objetivo f a lo largo de la red de búsqueda. Asimismo, se marca en azul el punto de la estimación. Al analizar estos gráficos se observa, en primer lugar, cómo la precisión para µ (Panel A) y ρ (Panel E) no es muy alta, puesto que la función objetivo tiene un comportamiento irregular pero siempre en torno a 0.002. El Panel B1 muestra una f decreciente en función de α , que toma valores muy altos para valores de α < 0.1 en comparación con α > 0.1, por lo que para apreciar la situación en el vector de parámetros nos fijamos en el Panel B2, que muestra la evolución de la función objetivo para valores de α > 0.1. Vemos que la magnitud más baja de f (0.001) se da para valores de α en torno a la estimación obtenida. Ocurre algo similar en el caso de β (Panel C). La función objetivo es creciente de manera que cuando β es mayor que 0.3, f toma ya valores muy altos y cada vez mayores, mientras que los valores más bajos de f (0.001) se obtienen para β en torno a 0.1, en torno a la estimación que tenemos. El Panel D indica también una buena precisión en la estimación del parámetro η , y es que, salvo algunas excepciones, vemos que para valores de η en torno a la estimación la función objetivo es baja (alrededor de 0.002). Dada la enorme complejidad del problema de estimación, este ejercicio proporciona información tranquilizante respecto al hecho de que, en varias dimensiones, consideradas individualmente, la estimación está en posición de mínimo. Hemos visto asimismo, la débil identificación de dos parámetros, el coeficiente de correlación entre innovaciones y la rentabilidad media. Percibimos, por tanto, distinto grado de precisión en la estimación de cada parámetro que nos es útil para ir aprendiendo sobre el problema. De esta forma, observamos que, en el modelo estructural de volatilidad estocástica, el parámetro µ ajusta la rentabilidad media, y es el único parámetro que interviene en ello. Pero, tal y como acabamos de reflejar, estamos teniendo algún problema para identificarlo correctamente. En este sentido, puesto que nos estamos preguntando por un vector de parámetros estructurales que explique el comportamiento observado del S&P 500, es totalmente sensato fijar µ de modo que reproduzca la rentabilidad media, y estimar los demás parámetros condicional en dicho nivel. De este modo, puede que tengamos una buena idea de por 55 dónde andan los demás parámetros, y con qué precisión se puede aspirar a estimarlos. El ejercicio consiste en fijar µ en un valor razonable, la media de las rentabilidades observadas, y esta vez, estimar los demás. La idea es que si uno fija los valores de los parámetros en los que se consigue menor precisión, las propiedades del algoritmo de estimación deben mejorar sustancialmente. Figura E.1: Evolución de la Función Objetivo a lo largo de una red de búsqueda para cada parámetro estimado SV. La red de valores de cada parámetro está expresada en base diaria y en porcentaje. Se marca en azul el punto de la estimación SV. Panel A: Evolución de la Función Objetivo al variar µ . Panel B1: Evolución de la Función Objetivo al variar α . Panel B2: Evolución de la Función Objetivo al variar α entre 0.1 y 1. Panel C: Evolución de la Función Objetivo al variar β . Panel D: Evolución de la Función Objetivo al variar η . Panel E: Evolución de la Función Objetivo al variar ρ . Panel A: -3 2.6 Función Objetivo x 10 2.4 2.2 f 2 1.8 1.6 1.4 1.2 1 -1 -0.8 -0.6 -0.4 -0.2 0 µ 0.2 0.4 0.6 0.8 1 56 Panel B1: Función Objetivo 10 9 8 7 f 6 5 4 3 2 1 0 0 0.1 0.2 0.3 0.4 0.5 α 0.6 0.7 0.8 0.9 1 Panel B2: Función Objetivo 0.07 0.06 0.05 f 0.04 0.03 0.02 0.01 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 α Panel C: Función Objetivo 1.4 1.2 1 f 0.8 0.6 0.4 0.2 0 0 0.1 0.2 0.3 0.4 0.5 β 0.6 0.7 0.8 0.9 1 57 Panel D: Función Objetivo 0.04 0.035 0.03 f 0.025 0.02 0.015 0.01 0.005 0 0 0.1 0.2 0.3 0.4 η 0.5 0.6 0.7 0.8 Panel E: -3 2.6 Función Objetivo x 10 2.4 2.2 f 2 1.8 1.6 1.4 1.2 1 -1 -0.8 -0.6 -0.4 -0.2 0 ρ 0.2 0.4 0.6 0.8 1 Apéndice F: Análisis del componente salto para la determinación de la condición inicial en la estimación SVJ para el S&P 500 ( K z = 0) En este apéndice de detalla el análisis llevado a cabo para indagar acerca de cuáles pueden ser valores razonables para los parámetros de salto λ0 y δ , para que en media sobre un conjunto de simulaciones tengamos un número de saltos y magnitud próximos a los de la serie de datos. 58 Examinamos la serie de rentabilidades simulada con una determinada definición inicial de salto para intentar ajustar el número de saltos simulados con el de la serie de datos S&P 500. Fijamos entonces que un salto se da si la rentabilidad está separada de la media en más de 3 desviaciones típicas, lo que es lógico tal y como se refleja en el Panel A de la Figura F.1, que muestra la serie de datos así como las bandas que limitan las rentabilidades separadas de la media en no más de 2, 3 y 4 desviaciones típicas. Si contamos el número de observaciones que se alejan de la media en más de 3 desviaciones típicas se obtienen 58 saltos, de los cuales 31 son positivos y 27 negativos, lo que, teniendo en cuenta que se dispone de un total de 5046 observaciones (unos veinte años), suponen 3 saltos anuales, 1.6 positivos y 1.3 negativos. El mayor salto negativo es de una rentabilidad diaria de -22.87 y el mayor salto positivo de 8.68. La media de los saltos positivos es de 4.23 y la de los negativos de -5.37. Éstos y otros datos básicos de la magnitud de salto se muestran en el Panel A de la Tabla F.1. Una vez determinada la definición inicial de salto, debemos ajustar los parámetros λ0 y δ para que las simulaciones generadas se aproximen a la serie real de datos. Comenzamos por λ0 , que definimos como la probabilidad de que en t , una observación básica (1/10 de día), se produzca un salto. Fijamos dicha probabilidad de manera que, tal y como hemos observado en los datos, se den 3 saltos anuales. Para ello, λ0 debe ser igual a 3/2400 (~0.001), ya que un año tiene 2400 observaciones básicas (debido al hecho de que un mes tiene veinte días de negociación). Fijamos entonces λ0 en 0.001, mientras que la magnitud de salto δ así como el resto de parámetros, se fijan inicialmente en las estimaciones de Andersen, Benzoni y Lund (2002) para la misma especificación SVJ en el que se intenta modelizar también la dinámica del índice S&P 500 y donde la muestra va de 03/01/1980 a 31/12/1996: ψ = ( µ, α, β , η, ρ, δ , λ0 ) = (0.0550,0.0089,0.0134,0.0683,-0.3234,0.0195,0.0010). La Tabla F.1 recoge en el Panel B los resultados obtenidos en media sobre 1000 simulaciones generadas a partir de dicho vector de parámetros y el Panel B de la Figura F.1 muestra una de estas realizaciones. El valor fijado para δ es tan bajo que no parece que se estén generando saltos realmente, ya que éstos tienen una magnitud tan baja que se confunden con el resto de rentabilidades. Parece claro que debemos por tanto, 59 aumentar el parámetro δ para asignar una media y varianza mayor a la magnitud de salto. Simulamos de nuevo 1000 trayectorias para una red de valores de δ entre 0.1 y 1, estudiando en media la cantidad y magnitud de los saltos realizados. El Panel C de la Figura F.1 muestra para algunos de los valores de la red una de las 1000 simulaciones. Vemos que a medida que aumenta δ , se consigue un mejor ajuste del componente salto, siendo para δ = 0.7, cuando tanto el número de saltos como la magnitud de éstos presentan un comportamiento más próximo al de la serie de datos, lo que se refleja a su vez en los valores recogidos en el Panel C de la Tabla F.1, mientras que para δ = 1, se producen saltos demasiado grandes. De esta forma, para los parámetros δ y λ0 parece sensato tomar inicialmente los valores 0.7 y 0.001 que acabamos de obtener como razonables. Sin embargo, para los parámetros de difusión, nos preguntamos si no será más adecuado tomar como condición inicial las estimaciones obtenidas en la sección anterior para nuestra muestra, en lugar de utilizar las estimaciones de Andersen, Benzoni y Lund (2002). Si calculamos la norma del gradiente de la verosimilitud, f , de 1000 simulaciones generadas a partir de ambos vectores, obtenemos valores en torno a 0.03 en el primer caso, frente a valores en torno a 0.76 en el segundo, lo que nos inclina a elegir como vector de parámetros inicial el formado por nuestras estimaciones SV: ψ 0 = ( µ, α, β , η, ρ, δ , λ0 ) = (0.0354,0.1005,0.0320,0.1227,-0.2958,0.7000,0.0010). Tabla F.1: Análisis del Componente Salto. Todos los datos están expresados en una base diaria y en porcentaje. Panel A: Número y Magnitud mínima, máxima, media y desviación típica de los saltos anuales totales, positivos y negativos de la serie de rentabilidades diarias del S&P 500 observada, de 02/01/1986 a 30/12/2005. Panel B: Número y Magnitud mínima, máxima, media y desviación típica de los saltos anuales totales, positivos y negativos en media sobre el total de 1000 simulaciones generadas a partir de ψ = (µ , α , β ,η , ρ , δ , λ ) 0 = (0.0550,0.0089,0.0134,0.0683,-0.3234,0.0195,0.0010). Panel C: Número y Magnitud mínima, máxima, media y desviación típica de los saltos anuales totales, positivos y 60 negativos ψ = en media sobre el total de 1000 simulaciones generadas a partir de (µ , α , β ,η , ρ , δ , λ ) = (0.0550,0.0089,0.0134,0.0683,-0.3234,0.7000,0.0010). 0 Panel A: Número 2,90 1,55 1,35 Saltos Saltos + Saltos - Mín. -22,87 3,30 -22,87 Magnitud Máx. Media 8,68 -0,24 8,68 4,23 -3,29 -5,37 Desv. típ. 5,47 1,05 3,71 Mín. -1,71 1,24 -1,71 Magnitud Máx. Media 1,68 -0,03 1,68 1,37 -1,27 -1,39 Desv. típ. 1,37 0,12 0,12 Mín. -16,83 2,26 -16,83 Magnitud Máx. Media 12,43 -2,44 12,43 4,86 -2,29 -5,71 Desv. típ. 5,69 2,49 3,15 Panel B: Número 0,89 0,44 0,45 Saltos Saltos + Saltos - Panel C: Número 2,33 0,72 1,60 Saltos Saltos + Saltos - Figura F.1: Análisis del Componente Salto. Todos los datos están expresados en una base diaria y en porcentaje. Panel A: Rendimientos diarios del S&P 500, de 02/01/1986 a 30/12/2005 (5046 observaciones), y bandas que limitan las rentabilidades separadas de la media en no más de 2 (en azul), 3 (en verde) y 4 (en magenta) desviaciones típicas. Panel B: Rentabilidades diarias Simuladas SVJ a partir del vector de parámetros ψ = (µ , α , β ,η , ρ , δ , λ ) = (0.0550,0.0089,0.0134,0.0683,-0.3234, 0 0.0195,0.0010). Panel C: Rentabilidades diarias Simuladas SVJ a partir del vector de parámetros ψ = (µ , α , β ,η , ρ , δ , λ ) 0 = (0.0550,0.0089,0.0134,0.0683,-0.3234, δ ,0.0010), donde δ toma valores 0.1 (Panel C1), 0.3 (Panel C2), 0.7 (Panel C3) y 1 (Panel C4). 61 Panel A: Rendimientos S&P 500 15 10 5 0 -5 -10 -15 -20 -25 -30 02-Ene-1986 01-Sep-1992 03-May-1999 30-Dic-2005 Panel B: (δ = 0.0195, λ0 = 0.001) 15 10 5 0 -5 -10 -15 -20 -25 -30 0 5000 10000 Panel C1: (δ = 0.1, λ0 = 0.001) 15 10 5 0 -5 -10 -15 -20 -25 -30 0 5000 10000 62 Panel C2: (δ = 0.3, λ0 = 0.001) 15 10 5 0 -5 -10 -15 -20 -25 -30 0 5000 10000 Panel C3: (δ = 0.7, λ0 = 0.001) 15 10 5 0 -5 -10 -15 -20 -25 -30 0 5000 10000 Panel C4: (δ = 1, λ0 = 0.001) 15 10 5 0 -5 -10 -15 -20 -25 -30 0 5000 10000 63 Apéndice G: Selección del orden de la expansión de polinomios de Hermite del modelo auxiliar para el índice S&P 500 ( K z > 0) En este apéndice se describe el procedimiento seguido a la hora de elegir entre distintas especificaciones del modelo auxiliar. La Tabla G.1 muestra en el Panel A los resultados de las estimaciones para distintos modelos SNP en donde inicialmente se considera un GARCH(1,1) como término principal y una densidad con innovación homogénea ( K x = 0) para K z = 0, 1, 2, ..., 14. Ambos criterios BIC y HQC señalan la especificación GARCH(1,1) + K z = 10 como modelo auxiliar adecuado, aunque es cierto que la tolerancia con la que se discrimina a favor de dicho modelo con respecto a la mayoría del resto es del orden de 10-3. Sin embargo, se llega a la misma conclusión al realizar el test de la razón de verosimilitud para comparar las distintas especificaciones, ya que dicho test indica que al nivel de significación del 1% se rechaza la hipótesis nula de que los coeficientes que forman parte del modelo K z = 10, pero no del modelo reducido ( K z = 5, 6, ..., 9), valen cero (Tabla G.1, Panel B1), mientras que al mismo nivel de significación no existen evidencias para rechazar la hipótesis nula cuando se considera el modelo K z = 10 como modelo reducido y el modelo completo es cada uno de los modelos K z = 11, 12, 13 y 14 (Tabla G.1, Panel B2). Finalmente, dado que una excesiva parametrización se traduce en elevada correlación entre parámetros se calculan para cada modelo las matrices de correlación entre los parámetros estimados, observando que para los modelos con K z > 10 las correlaciones entre parámetros aumentan de manera importante así como el número de correlaciones altas observadas, indicando de nuevo la especificación GARCH(1,1) + K z = 10 como modelo auxiliar adecuado. Además, no encontramos mejores resultados (en términos de mejorar la especificación) al expandir los polinomios de Hermite a K x = 1 (densidad con innovación no 64 homogénea) y examinar lo obtenido mediante los criterios de información BIC y HQC, así como mediante el test de la razón de verosimilitud y la matriz de correlación de los parámetros estimados. Todo esto nos sugiere elegir el modelo GARCH(1,1) + K z = 10 (y K x = 0) como modelo auxiliar más apropiado. Tabla G.1: Criterios BIC y HQC, y Test de la Razón de Verosimilitud para distintas especificaciones SNP para el índice S&P 500. Las estimaciones se corresponden con datos diarios de rendimientos del índice S&P 500 expresados en porcentaje, de 02/01/1986 a 30/12/2005, filtrados utilizando un modelo MA(1) ( n= 5046 observaciones). El modelo auxiliar se corresponde con [PK (zt , xt )]2 φ(zt ) , ν = 0.01, φ(⋅) densidad f K (rt | xt ; ξ ) = ν + (1 − ν ) 2 ∫R [PK (u , xt )] φ(u )du ht υ =0 r − υt , t zt = t ht = γ 0 + γ 1rt2−1 + ϑ1ht −1 ~ GARCH (1,1) ht normal estándar, K K K PK (z , x ) = ∑ ai (x )z i = ∑ ∑ aij x j z i , a00 = 1 i =0 i =0 j =0 z z x Panel A: Valores LogLik , BIC y HQC para las distintas especificaciones SNP estimadas: Kz Kx = 0, 1, ..., 14 y = 0 y 1. Panel B1: Cinco Test de la Razón de Verosimilitud donde el modelo completo es un GARCH(1,1) + GARCH(1,1) + Kz + Kx = 0, donde Kz Kz = 10 + Kx = 0 y el modelo reducido un = 5, 6, 7, 8 y 9 según el caso. Panel B2: Cuatro Test de la Razón de Verosimilitud donde el modelo completo es un GARCH(1,1) + Kx = 0 donde Kz = 10 + LogLik Kx Kz Kz + = 11, 12, 13 y 14 según el caso, y el modelo reducido un GARCH(1,1) + = 0. es el valor de la función de log-verosimilitud obtenida en la estimación QML de los parámetros del modelo auxiliar, ξ, mientras que ( χ 2 = 2 × LogLik completo − LogLik reducido del estadístico del test de la Razón de Verosimilitud con distribución ( ) g.l. = dim ξ completo − dim (ξ reducido ) , y BIC y HQC ) es el valor χ g2.l . , donde son los valores de los correspondientes criterios de información Bayesiano (BIC) y Hannan-Quinn (HQC), calculados a partir de la función de log-verosimilitud de la forma siguiente: ~ 1 dim(ξ ) BIC = s n ξ + ln (n ) 2 n ~ dim(ξ ) HQC = s n ξ + ln (ln (n )) n () () () [ ( ~ ~ 1 n donde s n ξ = − ∑ ln f K ~rt | ~xt ; ξ n t =1 )] 65 Panel B1: Panel A: Kx = 0 Modelo completo Kz LogLik BIC HQC 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 -6855,16 -6790,66 -6765,41 -6750,66 -6766,86 -6658,50 -6657,22 -6641,53 -6647,26 -6626,58 -6612,86 -6621,47 -6614,04 -6615,43 -6611,30 1,3613 1,3494 1,3452 1,3432 1,3472 1,3266 1,3272 1,3249 1,3269 1,3236 1,3218 1,3243 1,3237 1,3248 1,3248 1,3601 1,3477 1,3431 1,3406 1,3443 1,3232 1,3234 1,3207 1,3223 1,3186 1,3163 1,3184 1,3174 1,3181 1,3177 Kz 10 LogLik Modelo reducido dim(ξ ) Kz LogLik dim(ξ ) g .l . χ2 13 5 6 7 8 9 -6658,50 -6657,22 -6641,53 -6647,26 -6626,58 8 9 10 11 12 5 4 3 2 1 91,29 88,72 57,35 68,80 27,43 -6612,86 p-value 0 0 2,17E-12 1,11E-15 1,62E-07 Panel B2: Modelo completo Kz LogLik dim(ξ ) 11 12 13 14 -6621,47 -6614,04 -6615,43 -6611,30 14 15 16 17 Modelo reducido Kz 10 LogLik -6612,86 dim(ξ ) g .l . χ2 13 1 2 3 4 -17,21 -2,35 -5,14 3,13 p-value 1,00 1,00 1,00 0,54 66 Apéndice H: Función de densidad SNP para el modelo auxiliar extendido GARCH(1,1) + K z = 10 del S&P 500 En este apéndice se muestra explícitamente la función de densidad SNP f K cuando el modelo auxiliar considerado es un GARCH(1,1) + K z = 10, que es el que ha resultado más apropiado para el índice S&P 500. Al igual que para el modelo auxiliar sencillo GARCH(1,1) sin parte no paramétrica, la forma general de la densidad SNP viene dada por la expresión (5): 2 φ( z ) [ PK (z t , x t )] t f K (rt | x t ; ξ ) = ν + (1 − ν ) 2 h [ ( ) ] ( ) P u x φ u du , t ∫R K t con ν = 0.01, φ(⋅) es la densidad normal estándar, φ( z t ) = zt = rt − υ t ht , que en este caso es z t = rt ht z t2 exp − , y 2π 2 1 con ht = γ 0 + γ 1rt 2−1 + ϑ1 ht , ya que la media y varianza del modelo auxiliar son υt = 0 y ht = γ 0 + γ 1rt 2−1 + ϑ1 ht , respectivamente. Por otro lado, de (A.3) 10 10 10 i =0 i =1 i =1 deducimos que, 2 2 2 2 2 ∫R [PK (u, x )] φ(u )du = ∑ ai = a0 + ∑ ai = 1 + ∑ ai . Sin embargo, al incorporar polinomios de Hermite, el cálculo de PK ( z , x ) se complica. 10 De (A.1) se tiene que, PK ( z , x ) = P( Kz , Kx ) ( z , x ) = P(10,0 ) ( z , x ) = P10 ( z ) = ∑ a i He i ( z ) . i =0 Calculamos por tanto, el polinomio de Hermite de orden i , Hei ( z ) , para i = 0, ,10, y su correspondiente polinomio ortogonal de Hermite, He i ( z ) , a partir de las expresiones (A.4) y (A.2), respectivamente. De esta forma, 67 [ 2 (z − 1)]+ a [ 3!(z − 3z )]+ + a [ 4!(z − 6 z + 3)] + a [ 5!(z − 10 z + 15 z )] + a [ 6!(z − 15 z + 45 z − 15)] + + a [ 7!(z − 21z + 105 z − 105 z )] + a [ 8!(z − 28 z + 210 z − 420 z + 105)] + + a [ 9!(z − 36 z + 378 z − 1260 z + 945 z )] + + a [ 10!(z − 45 z + 630 z − 3150 z + 4725 z − 945)] 10 PK ( z , x ) = P10 ( z ) = ∑ ai He i ( z ) = 1 + a1 z + a 2 2 3 3 i =0 4 2 5 4 3 6 5 7 5 4 2 6 3 8 7 6 4 2 8 9 7 5 3 9 10 8 6 4 2 10 que escrito en forma de polinomio es: [ ] PK (z , x ) = P10 (z ) = 1 − 2a 2 + 3 4!a 4 − 15 6!a6 + 105 8!a8 − 945 10!a10 + [ ] + [ 2a − 6 4!a + 45 6!a − 420 8!a + 4725 10!a ]z + + [ 3!a − 10 5!a + 105 7!a − 1260 9!a ]z + + [ 4!a − 15 6!a + 210 8!a − 3150 10!a ]z + + [ 5!a − 21 7!a + 378 9!a ]z + [ 6!a − 28 8!a + 630 10!a ]z + [ 7!a − 36 9!a ]z + [ 8!a − 45 10!a ]z + 9!a z + 10!a z + a1 − 3 3!a3 + 15 5!a5 − 105 7!a 7 + 945 9!a9 z + 2 2 4 6 8 10 3 3 5 7 9 4 6 8 5 7 9 6 7 9 8 10 4 10 5 7 8 6 10 8 9 9 + 10 10 Por tanto, para el S&P 500, la función de densidad SNP f K cuando el modelo auxiliar considerado es un GARCH(1,1) + K z = 10 es: 2 [ [P10 (z )]2 P10 (z )] φ(z t ) = + f K (rt | x t ; ξ ) = 0 .01 + 0.99 0 . 01 0 . 99 10 10 h 2 t + + a a i2 1 1 ∑ ∑ i i =1 i =1 2 rt 2 [ P10 ( z )] 1 = 0.01 + 0 .99 exp − 10 2π h h 2 2 t t 1 + ∑ ai i =1 2 1 exp − z t 2 = 2π ht con ht = γ 0 + γ 1rt 2−1 + ϑ1 ht . 68 Tabla 1: Rendimientos de los índices S&P 500, DAX 30, IBEX 35 y CAC 40. Panel A: Estadísticos básicos de las series de rendimientos diarios de los índices S&P 500, de 02/01/1986 a 30/12/2005 (5046 observaciones), DAX 30, IBEX 35 y CAC 40, estos últimos de 04/01/1988 a 31/12/2003 (4023, 3996 y 4010 observaciones, respectivamente). Todas las Figuras y Tablas están expresadas en una base diaria y en porcentaje. Panel B: Contraste de Dickey-Fuller aumentado (ADF) de raíces unitarias para la serie de rendimientos rt . El test se basa en la regresión: 12 ∆rt = ω + ςt + θrt −1 + ∑ τ j ∆rt − j + ε t j =1 Panel C: Correlaciones entre las series de rendimientos diarios de los distintos índices. Panel A: Estadísticos Básicos S&P 500 DAX 30 IBEX 35 0,0354 0,0342 0,0298 1,0875 1,4754 1,3135 -2,0568 -0,3560 -0,2042 46,4752 8,1054 6,5197 CAC 40 0,0317 1,3613 -0,1169 5,6582 Panel B: Test Dickey-Fuller aumentado S&P 500 DAX 30 IBEX 35 -19,93 -17,62 -16,76 ADF -3,41 -3,41 -3,41 valor crítico del 5% -3,97 -3,97 -3,97 valor crítico del 1% CAC 40 -17,81 -3,41 -3,97 Media Desviación típica Asimetría Curtosis S&P 500 DAX 30 IBEX 35 CAC 40 Panel C: Correlaciones S&P 500 DAX 30 IBEX 35 1 0,41 1 0,35 0,66 1 0,40 0,73 0,73 CAC 40 1 69 Tabla 2: Estimaciones del Modelo SNP. Las estimaciones se corresponden con datos diarios de rendimientos de los índices S&P 500, de 02/01/1986 a 30/12/2005 (5046 observaciones), DAX 30, IBEX 35 y CAC 40, estos últimos de 04/01/1988 a 31/12/2003 (4023, 3996 y 4010 observaciones, respectivamente), expresados en porcentaje, filtrados utilizando un modelo MA(1). Panel A: Modelo auxiliar sin parte no paramétrica ( K z = 0): f K (rt | xt ; ξ ) = φ(zt ) ht , φ(⋅) densidad normal estándar, zt = rt − υt ht υt = 0 ht = γ 0 + γ 1rt2−1 + ϑ1ht −1 ~ GARCH (1,1) S&P 500 DAX 30 IBEX 35 CAC 40 GARCH(1,1) GARCH(1,1) GARCH(1,1) GARCH(1,1) Parámetro Estimación Error Estándar Parámetro Estimación Error Estándar Parámetro Estimación Error Estándar Parámetro Estimación Error Estándar γ0 γ0 γ0 γ0 0,0191 (0,1535) 0,0619 (0,3495) 0,0503 (0,3747) 0,0552 (0,3769) γ1 γ1 γ1 γ1 0,1129 (0,2118) 0,1426 (0,5369) 0,1014 (0,6123) 0,1019 (0,5586) ϑ1 ϑ1 ϑ1 ϑ1 0,8793 (0,3909) 0,8334 (0,6855) 0,8692 (0,7822) 0,8681 (0,6355) 70 Panel B: Modelo auxiliar extendido ( K z > 0): [PK (zt , xt )]2 f K (rt | xt ; ξ ) = ν + (1 − ν ) 2 ∫R [PK (u , xt )] φ(u )du φ(z ) t h t zt = , ν = 0.01, φ(⋅) densidad normal estándar, rt − υt ht υt = 0 ht = γ 0 + γ 1rt2−1 + ϑ1ht −1 ~ GARCH (1,1) K K K PK (z , x ) = ∑ ai (x )z i = ∑ ∑ aij x j z i , a00 = 1 i =0 i =0 j =0 z z x S&P 500 DAX 30 IBEX 35 CAC 40 GARCH(1,1) + K z = 10 GARCH(1,1) + K z = 12 GARCH(1,1) + K z = 9 GARCH(1,1) + K z = 6 Parámetro Estimación Error Estándar Parámetro Estimación Error Estándar Parámetro Estimación Error Estándar Parámetro Estimación Error Estándar γ0 γ0 γ0 γ0 0,0202 (0,2248) 0,0450 (0,4021) 0,0436 (0,3305) 0,0665 (0,7340) γ1 γ γ γ 0,0859 (0,2343) 0,1015 (0,5473) 0,1128 (0,7295) 0,1054 (0,8625) 1 1 1 ϑ1 ϑ1 ϑ1 ϑ1 0,9141 (0,4376) 0,8985 (0,6616) 0,8872 (0,6132) 0,8946 (0,8203) a1 a a a 0,0240 (0,5123) 0,0211 (0,5165) 0,0059 (0,5143) 0,0107 (0,5193) 1 1 1 a2 a2 a2 a2 -0,0880 (0,7127) -0,1108 (0,8667) -0,1123 (0,9923) -0,1182 (1,3151) a3 a a a 3 3 3 -0,0334 (0,4921) -0,0029 (0,5432) -0,0533 (0,5288) -0,0185 (0,5404) a4 a4 a4 a4 0,0752 (0,4951) 0,0275 (0,5347) 0,0217 (0,5943) 0,0379 (0,5773) a5 a5 a5 a5 -0,0067 (0,5510) 0,0550 (0,5080) -0,0206 (0,5936) 0,0197 (0,5844) a6 a a a6 6 6 -0,0145 (0,6099) -0,0117 (0,5225) -0,0229 (0,5266) -0,0377 (0,5584) a7 a7 a7 -0,0160 (0,7130) -0,0118 (0,5843) 0,0162 (0,5651) a8 a8 a8 0,0197 (0,7636) 0,0199 (0,6498) 0,0123 (0,5151) a9 a a 9 9 0,0118 (0,7900) -0,0231 (0,6590) 0,0364 (0,4966) a10 a10 -0,0405 (0,7291) -0,0027 (0,8192) a11 0,0158 (0,8136) a12 -0,0325 (0,8805) 71 Tabla 3: Estimaciones EMM del Modelo de Volatilidad Estocástica (SV) y del Modelo de Volatilidad Estocástica con Saltos (SVJ). Las estimaciones se corresponden con datos diarios de rendimientos de los índices S&P 500, de 02/01/1986 a 30/12/2005 (5046 observaciones), DAX 30, IBEX 35 y CAC 40, estos últimos de 04/01/1988 a 31/12/2003 (4023, 3996 y 4010 observaciones, respectivamente), expresados en porcentaje y se refieren a los siguientes modelos: SV: SVJ: dSt = µdt + Vt dW1, t St ( , dVt = (α − βVt )dt + η Vt dW 2, t ) dS t = µ − λ (t )k dt + Vt dW1, t + k (t )dqt , dVt = (α − βVt )dt + η Vt dW2, t St ( ln (1 + k (t ) ) ≈ N ln(1 + k ) − 0.5δ 2 , δ 2 ( ) ), k =0 , cov dW1, t , dW2, t = ρdt , Pr (dqt = 1) = λ (t )dt , λ(t ) = λ0 . Panel A: Modelo auxiliar sin parte no paramétrica ( K z = 0): S&P 500 GARCH(1,1) Parámetro SV µ 0,0354 α 0,1005 β 0,0320 η 0,1227 ρ -0,2958 δ λ0 f 0,0003 SVJ 0,0354 0,0476 0,0162 0,0814 -0,6538 0,9156 0,0004 0,0019 DAX 30 GARCH(1,1) Parámetro SV µ 0,0342 α 0,0461 β 0,0152 η 0,0529 ρ -0,1063 δ λ0 f 0,0038 SVJ 0,0342 0,0653 0,0220 0,1319 -0,2126 0,3741 0,0017 0,0011 IBEX 35 GARCH(1,1) Parámetro SV µ 0,0126 α 0,0588 β 0,0127 η 0,1189 ρ -0,0557 δ λ0 f 0,0029 SVJ 0,0743 0,0376 0,0111 0,0490 -0,4047 0,3495 0,0024 0,0016 CAC 40 GARCH(1,1) Parámetro SV µ 0,0317 α 0,0410 β 0,0115 η 0,1052 ρ -0,4214 δ λ0 f 0,0046 SVJ 0,0317 0,0401 0,0114 0,1012 -0,4377 0,2915 0,0021 0,0024 72 Panel B: Modelo auxiliar extendido ( K z > 0): Los errores estándar de los parámetros estimados vienen dados entre paréntesis. S&P 500 GARCH(1,1) + K z = 10 Parámetro SV SVJ µ 0,0354 0,0354 α β η ρ δ λ0 f χ 2 [g .l .] (p-value) 0,0392 (0,0251) 0,0189 (0,0119) 0,0778 (0,1510) -0,2499 (0,2243) 0,9226 (0,1241) 0,0003 (0,0002) 0,0300 0,0271 151,38 [9] 136,74 [7] 0 0 DAX 30 GARCH(1,1) + K z = 12 Parámetro SV SVJ µ 0,0342 0,0342 α 0,0440 (0,1549) 0,0196 (0,0592) 0,1518 (0,5046) -0,6340 (0,3812) β η ρ δ λ0 f χ 2 [g .l .] (p-value) 0,0612 (0,0440) 0,0209 (0,0132) 0,1198 (0,1357) -0,2537 (0,1650) 0,3716 (0,0909) 0,0017 (0,0020) 0,0249 0,0243 100,21 [11] 97,63 [9] 1,11E-16 0 IBEX 35 GARCH(1,1) + K z = 9 Parámetro SV SVJ µ 0,0298 0,0298 α 0,0473 (0,0292) 0,0167 (0,0087) 0,0565 (0,2914) -0,1126 (0,4854) β η ρ 0,0638 (0,1230) 0,0209 (0,0365) 0,1367 (0,2562) -0,6562 (0,6401) δ λ0 f χ 2 [g .l .] (p-value) 0,0167 66,90 [8] 2,03E-11 0,0275 (0,0112) 0,0108 (0,0023) 0,0564 (0,3663) 0,2509 (0,2695) 0,2782 (0,0619) 0,0024 (0,0023) 0,0149 59,63 [6] 5,35E-11 CAC 40 GARCH(1,1) + K z = 6 Parámetro SV SVJ µ 0,0317 0,0317 α β η ρ δ λ0 f χ 2 [g .l .] (p-value) 0,0456 (0,0165) 0,0109 (0,0022) 0,1640 (0,1252) -0,3427 (0,5554) 0,0431 (0,0386) 0,0130 (0,0076) 0,0914 (0,5254) -0,4368 (0,4163) 0,3040 (0,0930) 0,0025 (0,0034) 0,0191 0,0187 76,49 [5] 75,12 [3] 4,55E-15 3,33E-16 73 Tabla 4: Diagnosis EMM del Modelo de Volatilidad Estocástica (SV) y del Modelo de Volatilidad Estocástica con Saltos (SVJ). Las estimaciones se corresponden con datos diarios de rendimientos de los índices S&P 500, de 02/01/1986 a 30/12/2005 (5046 observaciones), DAX 30, IBEX 35 y CAC 40, estos últimos de 04/01/1988 a 31/12/2003 (4023, 3996 y 4010 observaciones, respectivamente), expresados en porcentaje. Panel A: Diagnosis EMM cuando se considera el modelo auxiliar sin parte no paramétrica ( K z = 0): quasi-estadísticos t de los componentes del gradiente de la verosimilitud. Panel B: Diagnosis EMM cuando se considera el modelo auxiliar extendido ( K z > 0): Panel B.1: estadísticos t de los componentes del gradiente de la verosimilitud. Panel B.2: Correlaciones entre las estimaciones EMM. Las correlaciones mayores que 0.5 en valor absoluto se muestran en negrita. Panel A: Modelo auxiliar sin parte no paramétrica ( K z = 0): quasi-estadísticos t de los componentes del gradiente de la verosimilitud: Los componentes del gradiente de la verosimilitud se corresponden con los parámetros del modelo auxiliar f K (rt | xt ; ξ ) = φ(zt ) ht , φ(⋅) densidad normal estándar, zt = rt − υt ht υt = 0 ht = γ 0 + γ 1 rt 2−1 + ϑ1 ht −1 ~ GARCH (1,1) Los errores estándar aproximados de los componentes del gradiente de la verosimilitud vienen dados entre paréntesis. S&P 500 GARCH(1,1) Parámetro SV SVJ γ0 1,0056 6,6064 (0,2649) (0,2649) γ1 -0,9494 3,2449 (0,1876) (0,1876) ϑ1 0,0775 (0,1696) 6,1259 (0,1696) DAX 30 GARCH(1,1) Parámetro SV γ0 -2,6098 (0,1489) γ1 -3,9555 (0,1183) ϑ1 -3,5067 (0,1404) SVJ -0,1738 (0,1489) -2,3710 (0,1183) -1,2512 (0,1404) IBEX 35 GARCH(1,1) Parámetro SV SVJ γ0 0,3980 1,0832 (0,2639) (0,2639) γ1 -1,2954 -1,2187 (0,1148) (0,1148) ϑ1 0,1353 (0,1941) 0,5286 (0,1941) CAC 40 GARCH(1,1) Parámetro SV SVJ γ0 -3,3980 -0,5229 (0,1051) (0,1051) γ1 -4,6164 -3,1885 ( 0,1004) (0,1004) ϑ1 -3,9810 (0,1137) -1,7135 (0,1137) 74 Panel B.1: Modelo auxiliar extendido ( K z > 0): estadísticos t de los componentes del gradiente de la verosimilitud: Los componentes del gradiente de la verosimilitud se corresponden con los parámetros del modelo auxiliar [PK (zt , xt )]2 f K (rt | xt ; ξ ) = ν + (1 − ν ) 2 ∫R [PK (u , xt )] φ(u )du φ(z ) t h t zt = , = 0.01, φ(⋅) densidad normal estándar, ν rt − υt ht υt = 0 ht = γ 0 + γ 1rt2−1 + ϑ1ht −1 ~ GARCH (1,1) K K K PK (z , x ) = ∑ ai (x )z i = ∑ ∑ aij x j z i , a00 = 1 i =0 i =0 j =0 z z x Los p-values obtenidos de los contrastes de significatividad individual de los componentes del gradiente de la verosimilitud vienen dados entre paréntesis. S&P 500 GARCH(1,1) + K z = 10 Parámetro γ0 γ1 ϑ1 a1 DAX 30 GARCH(1,1) + K z = 12 SV 0,3020 (0,7695) -0,1617 (0,8751) SVJ 19,2803* (0,0000) 3,0103 (0,0197) Parámetro 0,0699 (0,9458) 8,4782* (0,0001) -12,7634* -7,6883* (0,0000) (0,0001) IBEX 35 GARCH(1,1) + K z = 9 SV -2,0505 (0,0649) -2,8770 (0,0151) SVJ -1,5257 (0,1614) -3,3040* (0,0092) Parámetro ϑ1 -2,7906 (0,0176) -2,8351 (0,0196) a1 -6,3998* (0,0001) -6,2131* (0,0002) γ0 γ1 CAC 40 GARCH(1,1) + K z = 6 SV -0,2634 (0,7989) -2,3676 (0,0454) SVJ -0,3183 (0,7611) -4,0996* (0,0064) Parámetro ϑ1 -0,6679 (0,5230) -1,6315 (0,1539) a1 -6,1749* (0,0003) -7,3971* (0,0003) γ0 γ1 SV -4,3971* (0,0070) -4,9334* (0,0043) SVJ -7,6521* (0,0046) -15,6475* (0,0006) ϑ1 -4,6364* (0,0057) -10,9276* (0,0016) a1 -11,8735* (0,0001) -5,8253 (0,0101) γ0 γ1 75 a2 -4,9889* (0,0008) -6,5876* (0,0003) a2 -8,4594* (0,0000) -8,8914* (0,0000) a2 -4,2795* (0,0027) -6,4578* (0,0007) a2 -7,7857* (0,0006) -21,3332* (0,0002) a3 4,8112* (0,0010) 4,6334* (0,0024) a3 3,0654 (0,0107) 4,4550* (0,0016) a3 6,0106* (0,0003) 4,1593* (0,0059) a3 3,7030 (0,0140) 10,9456* (0,0016) a4 -5,5823* (0,0003) -3,6551* (0,0081) a4 0,5452 (0,5965) 3,0721 (0,0133) a4 0,0349 (0,9730) 4,5448* (0,0039) a4 0,1227 (0,9072) 6,3862* (0,0078) a5 -0,4515 (0,6623) -0,5438 (0,6035) a5 -4,4745* (0,0009) -3,2038 (0,0108) a5 0,2480 (0,8104) -2,1193 (0,0784) a5 -2,2788 (0,0716) -1,4170 (0,2515) a6 1,9928 (0,0774) 2,4731 (0,0426) a6 0,0288 (0,9775) -1,2527 (0,2419) a6 0,9125 (0,3882) -1,1150 (0,3075) a6 1,5151 (0,1902) -5,5399 (0,0116) a7 1,7779 (0,1091) 2,0463 (0,0800) a7 1,2957 (0,2216) 1,3249 (0,2179) a7 -0,7684 (0,4643) 0,8367 (0,4348) a8 -3,4387* (0,0074) -3,5631* (0,0092) a8 -0,9408 (0,3670) 1,8916 (0,0911) a8 -0,3757 (0,7169) -0,4693 (0,6554) a9 -1,3488 (0,2104) -1,0667 (0,3215) a9 1,3867 (0,1930) -0,6556 (0,5285) a9 -1,8654 (0,0991) 0,8906 (0,4074) a10 4,7963* (0,0010) -1,0324 (0,3362) a10 -0,1531 (0,8811) -0,7248 (0,4870) a11 -1,4717 (0,1691) -0,7371 (0,4798) a12 2,4599 (0,0317) -1,4177 (0,1900) 76 Panel B.2: Correlaciones entre las estimaciones EMM: Los modelos vienen dados por las siguientes expresiones: SV: SVJ: ( dSt = µdt + Vt dW1, t St , dV t = (α − β Vt )dt + η Vt dW 2 , t ) dS t = µ − λ (t )k dt + Vt dW1, t + k (t )dqt , dVt = (α − βVt )dt + η Vt dW2, t St ( ( ln (1 + k (t ) ) ≈ N ln(1 + k ) − 0.5δ 2 , δ 2 ) ), k =0 , cov dW1, t , dW2, t = ρdt , Pr (dqt = 1) = λ (t )dt , λ(t ) = λ0 . y las correlaciones se calculan de la forma usual a partir de la matriz de varianzas y covarianzas asintótica Cov(ψˆ ) = ( ~ 1 Mψ ' I Mψ n ) −1 , donde M ψ = ( ). ~ ∂mN ψˆ , ξ ∂ψ S&P 500 DAX 30 IBEX 35 CAC 40 GARCH(1,1) + K z = 10 / SV GARCH(1,1) + K z = 12 / SV GARCH(1,1) + K z = 9 / SV GARCH(1,1) + K z = 6 / SV η β α α η 1 0,99 1 ρ 0,35 0,33 0,48 S&P 500 GARCH(1,1) + K z = 10 / SVJ α β η ρ δ ρ η 1 0,94 1 ρ -0,01 -0,04 -0,02 η 1 0,98 1 ρ 0,22 0,23 0,10 DAX 30 GARCH(1,1) + K z = 12 / SVJ λ0 α β η ρ δ ρ α β η η 1 0,98 0,99 1 0,96 1 ρ 0,01 0,08 -0,11 α 1 1,00 0,98 β 1 η β α α 1 0,99 0,97 β 1 η β α α 1 1,00 0,99 β α ρ β 1 IBEX 35 GARCH(1,1) + K z = 9 / SVJ λ0 α β η ρ δ ρ 1 CAC 40 GARCH(1,1) + K z = 6 / SVJ λ0 α β η ρ 1 α 1 α 1 α 1 β 0,98 β 0,99 1 β 0,96 1 β 1,00 1 η 0,12 -0,04 η 0,93 0,88 1 η 0,98 0,94 1 η 1,00 0,99 1 ρ 0,05 ρ 0,54 0,52 0,50 1 ρ 0,73 0,68 0,77 1 ρ 0,31 0,30 0,35 δ 0,44 0,37 0,49 0,68 δ 0,15 0,00 0,10 0,07 δ 0,71 0,68 0,69 -0,10 δ λ0 1 1 0,04 -0,20 -0,33 -0,27 -0,68 0,04 1 0,19 0,19 -0,76 -0,06 1 0,29 1 1 λ0 -0,34 -0,27 -0,40 -0,61 -0,91 1 1 λ0 -0,23 -0,11 -0,19 -0,08 -0,88 δ λ0 1 1 1 λ0 -0,76 -0,73 -0,75 -0,07 -0,95 1 77 Tabla 5: Estadísticos Básicos de los datos y de las simulaciones SV y SVJ a partir de ψ 0 y ψˆ , y Función de Pérdida individual y conjunta de los momentos de tercer y cuarto orden. Las estimaciones se corresponden con datos diarios de rendimientos de los índices S&P 500, de 02/01/1986 a 30/12/2005 (5046 observaciones), DAX 30, IBEX 35 y CAC 40, estos últimos de 04/01/1988 a 31/12/2003 (4023, 3996 y 4010 observaciones, respectivamente), expresados en porcentaje. La Función de Pérdida viene dada por las expresiones siguientes: FPasimetría = 100 ( abs asimetría datos − asimetríaψ abs(asimetría datos ) ) , FPcurtosis = 100 ( abs curtosis datos − curtosisψ abs(curtosis datos ) ) FPconjunta = 0.5 × FPasimetría + 0.5 × FPcurtosis y Panel A: Modelo auxiliar sin parte no paramétrica ( K z = 0): Estadísticos Básicos r r (ψ 0 ) S&P 500 SV r (ψˆ ) SVJ r (ψ 0 ) r (ψˆ ) r r (ψ 0 ) DAX 30 SV r (ψˆ ) SVJ r (ψ 0 ) r (ψˆ ) r (ψ 0 ) r IBEX 35 SV r (ψˆ ) SVJ r (ψ 0 ) r (ψˆ ) r (ψ 0 ) r CAC 40 SV r (ψˆ ) SVJ r (ψ 0 ) r (ψˆ ) 0,035 -0,006 -0,061 -0,085 -0,072 0,034 -0,067 -0,059 -0,066 -0,069 0,030 -0,100 -0,091 -0,116 -0,078 0,032 -0,098 -0,070 -0,076 -0,077 Media Desviación típica 1,088 0,301 0,912 1,095 1,008 1,475 0,940 0,896 0,953 0,972 1,314 1,145 1,106 1,251 1,049 1,361 1,145 0,970 1,016 1,024 -2,046 -0,007 -0,005 -1,442 -1,908 -0,369 -0,001 -0,002 -0,125 -0,295 -0,170 -0,008 -0,003 -0,188 -0,236 -0,105 -0,008 -0,005 -0,097 -0,118 Asimetría 46,263 3,257 3,065 28,534 44,273 8,125 3,012 3,015 5,193 8,349 6,468 3,092 3,056 5,529 6,826 5,648 3,092 3,059 4,621 4,911 Curtosis -22,869 -1,272 -3,717 -16,981 -19,461 -13,729 -3,743 -3,569 -7,681 -9,516 -8,882 -4,717 -4,483 -9,247 -9,304 -7,660 -4,714 -3,939 -7,632 -7,798 Mínimo 8,678 1,253 3,561 12,512 12,331 7,576 3,584 3,428 6,739 8,137 6,864 4,468 4,295 8,083 8,028 6,813 4,471 3,766 6,689 6,785 Máximo Función de Pérdida FPasimetría S&P 500 r (ψ 0 ) SV r (ψˆ ) r (ψ 0 ) DAX 30 SVJ r (ψˆ ) r (ψ 0 ) SV r (ψˆ ) r (ψ 0 ) IBEX 35 SVJ r (ψˆ ) r (ψ 0 ) SV r (ψˆ ) r (ψ 0 ) CAC 40 SVJ r (ψˆ ) r (ψ 0 ) SV r (ψˆ ) r (ψ 0 ) SVJ r (ψˆ ) FPcurtosis 99,67% 99,76% 29,50% 92,96% 93,37% 38,32% 6,72% 4,30% 99,62% 99,57% 66,29% 62,93% 62,89% 36,09% 20,20% 2,75% 95,18% 98,24% 10,23% 38,62% 52,19% 52,75% 14,52% 5,55% 92,24% 95,36% 8,15% 12,51% 45,26% 45,83% 18,18% 13,05% FPconjunta 96,31% 96,57% 33,91% 5,51% 81,27% 81,23% 51,19% 11,48% 73,69% 75,49% 12,37% 22,09% 68,75% 70,60% 13,17% 12,78% 78 Panel B: Modelo auxiliar extendido ( K z > 0): Estadísticos Básicos r r (ψ 0 ) S&P 500 SV r (ψˆ ) SVJ r (ψ 0 ) r (ψˆ ) r r (ψ 0 ) DAX 30 SV r (ψˆ ) SVJ r (ψ 0 ) r (ψˆ ) r (ψ 0 ) r IBEX 35 SV r (ψˆ ) SVJ r (ψ 0 ) r (ψˆ ) r (ψ 0 ) r CAC 40 SV r (ψˆ ) SVJ r (ψ 0 ) r (ψˆ ) 0,035 -0,061 -0,043 -0,072 -0,052 0,034 -0,059 -0,055 -0,069 -0,068 0,030 -0,091 -0,060 -0,079 -0,058 0,032 -0,070 -0,082 -0,078 -0,077 Media Desviación típica 1,088 0,909 0,764 1,008 0,864 1,475 0,896 0,865 0,972 0,966 1,314 1,101 0,895 1,048 0,894 1,361 0,970 1,043 1,027 1,021 -2,046 -0,006 -0,011 -1,908 -2,543 -0,369 -0,002 -0,002 -0,294 -0,291 -0,170 -0,005 -0,008 -0,241 -0,157 -0,105 -0,005 -0,011 -0,115 -0,159 Asimetría 46,263 3,070 3,184 44,273 67,104 8,125 3,015 3,018 8,348 8,282 6,468 3,058 3,103 6,916 5,957 5,648 3,059 3,134 4,863 5,640 Curtosis -22,869 -3,706 -3,211 -19,461 -18,915 -13,729 -3,569 -3,450 -9,521 -9,448 -8,882 -4,482 -3,689 -9,361 -7,407 -7,660 -3,939 -4,342 -7,698 -8,176 Mínimo 8,678 3,548 3,093 12,331 11,722 7,576 3,428 3,316 8,141 8,091 6,864 4,259 3,534 8,099 6,598 6,813 3,766 4,131 6,785 7,150 Máximo Función de Pérdida FPasimetría S&P 500 r (ψ 0 ) SV r (ψˆ ) r (ψ 0 ) DAX 30 SVJ r (ψˆ ) r (ψ 0 ) SV r (ψˆ ) r (ψ 0 ) IBEX 35 SVJ r (ψˆ ) r (ψ 0 ) SV r (ψˆ ) r (ψ 0 ) CAC 40 SVJ r (ψˆ ) r (ψ 0 ) SV r (ψˆ ) r (ψ 0 ) SVJ r (ψˆ ) FPcurtosis 99,71% 99,44% 93,36% 93,12% 6,72% 4,30% 24,33% 45,05% 99,57% 99,54% 20,28% 62,89% 62,85% 2,75% 21,28% 1,93% 96,94% 95,24% 41,39% 52,73% 52,02% 6,93% 7,82% 7,89% 95,36% 90,04% 9,30% 45,83% 44,51% 13,91% 51,41% 0,14% FPconjunta 96,54% 96,28% 5,51% 34,69% 81,23% 81,19% 11,52% 11,61% 74,83% 73,63% 24,16% 7,86% 70,60% 67,28% 11,61% 25,77% 79 Figura 1: Rendimientos diarios del S&P 500, DAX 30 e IBEX 35. Todos los datos están expresados en una base diaria y en porcentaje. Panel A: Rendimientos diarios del S&P 500, de 02/01/1986 a 30/12/2005 (5046 observaciones). Panel B: Rendimientos diarios del DAX 30, de 04/01/1988 a 31/12/2003 (4023 observaciones). Panel C: Rendimientos diarios del IBEX 35, de 04/01/1988 a 31/12/2003 (3996 observaciones). Panel D: Rendimientos diarios del CAC 40, de 04/01/1988 a 31/12/2003 (4010 observaciones). Panel A: Rendimientos S&P 500 10 5 0 -5 -10 -15 -20 -25 02-Ene-1986 01-Sep-1992 03-May-1999 30-Dic-2005 Panel B: Rendimientos DAX 30 10 5 0 -5 -10 -15 -20 -25 04-Ene-1988 13-May-1993 15-Sep-1998 30-Dic-2003 80 Panel C: Rendimientos IBEX 35 10 5 0 -5 -10 -15 -20 -25 04-Ene-1988 14-May-1993 02-Sep-1998 30-Dic-2003 Panel D: Rendimientos CAC 40 10 5 0 -5 -10 -15 -20 -25 04-Ene-1988 17-May-1993 25-Sep-1998 31-Dic-2003 81