Series temporales: Modelos heterocedásticos condicionales. Una

Anuncio
Series temporales: Modelos
heterocedásticos condicionales. Una
aplicación usando R.
Alexander Carvajal
Universidad de Granada
Departamento de Estadística e Investigación Operativa
Granada, España
2014
Series temporales: Modelos
heterocedásticos condicionales. Una
aplicación usando R
Alexander Carvajal
Trabajo de Fin de Máster presentado como requisito parcial para optar al título de:
Máster en Estadística Aplicada
Director:
Doctor, Francisco Javier Alonso Morales
Línea de Investigación:
Análisis de series temporales. Aplicaciones a riesgos financieros
Universidad de Granada
Departamento de Estadística e Investigación Operativa
Granada, España
2014
Dedicatoria
Para mi señora madre, mi sobrino y Mabel
quienes conforman mí muy querida familia.
Más allá del miedo esta la paz.
Saúl Hernández
Agradecimientos
Particularmente deseo agradecer al Doctor Francisco Alonso, docente del Máster y tutor
del presente TFM, por el aporte bibliográfico y los lineamientos que permitieron la
satisfactoria elaboración de este trabajo. También quisiera agradecer a mi compañera de
estudio Carolina Cabrera por el apoyo y trabajo conjunto, lo cual me permitió superar los
obstáculos que se presentaban mientras desarrollaba el Máster.
Resumen y Abstract
IX
Resumen
Este trabajo se inicia con una descripción de las series temporales y el método BoxJenkins como preámbulo para el estudio de los modelos de heterocedasticidad
condicional
y
, en estos modelos la varianza condicional depende de las
observaciones en periodos anteriores de la serie temporal. Finalmente se realiza una
aplicación práctica a una serie de retornos de los precios de las acciones del Banco de
Bogotá, dicha aplicación se lleva a cabo empleando el software R-Project.
Palabras clave: Modelos
y
, Varianza Condicional, heterocedasticidad, R-
Project, Series temporales.
Abstract
This paper starts with a description of time series and the Box-Jenkins method as a
preamble to study the conditional heteroscedasticity models
and
, in these
models the conditional variance depends of observations in earlier periods of time series.
Finally, it realizes a practice application to series of return of the Banco de Bogotá’s share
price. That application is developed using the software R- Project.
Keywords: Models
project, time series.
and
, conditional variance, heteroscedasticity, R-
Contenido
X
Contenido
Pág.
Resumen......................................................................................................................... IX
Abstract .......................................................................................................................... IX
Introducción .................................................................................................................... 1
1.
Capítulo 1: Fundamentación sobre las series temporales.................................... 3
1.1
Definición e ideas básicas ............................................................................... 3
1.1.1
Objetivos de las series temporales ....................................................... 4
1.1.2
Componentes y clasificación descriptiva de las series temporales........ 4
1.2
Procesos estocásticos ..................................................................................... 5
1.2.1
Procesos estacionarios ......................................................................... 6
1.2.2
Ruido blanco, camino aleatorio y autocorrelación ................................. 7
1.3
Procesos autorregresivos y de media móvil, modelos ARMA y ARIMA .......... 8
1.3.1
Procesos autorregresivos y de media móvil .......................................... 8
1.3.2
Modelos ARMA Y ARIMA. ...................................................................16
2.
Capítulo 2: Metodología de Box - Jenkins ............................................................19
2.1
Paso 1: Identificación. ....................................................................................19
2.1.1
Estabilización de la no estacionariedad. ..............................................20
2.1.2
Identificación de órdenes del proceso. .................................................21
2.2
Paso 2: Estimación. ........................................................................................25
2.2.1
Método de los momentos. ....................................................................26
2.2.2
Algoritmo de máxima verosimilitud.......................................................27
2.2.3
Método de los mínimos cuadrados condicionales. ...............................28
2.2.4
Métodos de optimización no lineal. ......................................................28
2.2.5
Estimadores óptimos. ..........................................................................28
2.3
Paso 3: Diagnóstico del modelo. ....................................................................29
2.3.1
Diagnóstico de los coeficientes estimados ...........................................29
2.3.2
Diagnóstico de los residuos el modelo. ................................................30
2.4
Paso 4: Predicción. ........................................................................................31
3.
Capítulo 3: Modelos heterocedásticos condicionales. ........................................33
3.1
Modelos
..............................................................................................34
3.1.1
Modelo
.................................................................................35
3.1.2
Modelo
.................................................................................38
3.2
Modelos
............................................................................................39
3.3
Extensiones del modelo
....................................................................46
3.4
Test de Heterocedasticidad Condicional.........................................................48
Contenido
3.4.1
3.4.2
3.4.3
XI
Multiplicador de Lagrange ................................................................... 48
Contraste de Portmanteau .................................................................. 48
Contrastes Robustos ........................................................................... 48
4. Capítulo 4: Aplicación usando el Software R .......................................................... 51
4.1
Consideraciones iniciales para la construcción del modelo en R ................... 51
4.2
Estimación del Modelo
...................................................................... 58
4.3
Conclusión ..................................................................................................... 63
Bibliografía .................................................................................................................... 65
ANEXO 1: Código R....................................................................................................... 67
ANEXO 2: Datos Cotización Banco de Bogotá............................................................ 71
Introducción
En el estudio de series de tiempo los modelos de alta volatilidad son de amplio interés
puesto que en la realidad existen muchos datos que se comportan de forma muy volátil y
por consiguiente su pronóstico debe involucrar un modelo que tenga en cuenta esa
acelerada volatilidad, es decir no se puede realizar la estimación basándose en un
modelo de serie estacionaria.
Los Modelos
(AutoRegressive Conditional Heteroscedastic) y
(Generalized
AutoRegressive Conditional Heteroscedasticity) toman en cuenta que la varianza
condicional de la serie temporal no es constante, convirtiéndose así en modelos
apropiados para estudios de la alta volatilidad, normalmente estos modelos se aplican al
estudio de los retornos series financieras y en general para variables económicas donde
la incertidumbre del pronóstico es elevada.
Con este trabajo se busca dar a conocer la teoría existente sobre los modelos
y
y realizar una aplicación a una serie de retornos de las acciones del Banco de
Bogotá,
Para esto el trabajo se divide en cuatro capítulos, en el primero de ellos se
realiza una introducción a las series temporales, explicando su concepto, sus objetivos,
su utilidad y sus componentes, posteriormente se estudian los procesos estocásticos
llegando al definición de estacionariedad y ruido blanco, el capítulo termina con una
explicación teórica de los procesos autorregresivos y de media Móvil
(AutoRegressive Moving Average) y
(AutoRegressive Integrated Moving Average)
los cuales muestran estructuras lineales asociadas a una serie temporal de datos.
En el segundo capítulo se estudia la metodología Box-Jenkins, la cual busca crear una
secuencia de pasos que permiten modelar una serie temporal y obtener una predicción a
corto plazo bajo un modelo
o
.
Los pasos de la metodología son:
identificación, estimación, diagnóstico del modelo y predicción.
2
Introducción
En el capítulo tercero se estudian los
condicionales, como lo son los modelos
,
o
y
principales modelos heterocedásticos
,
y sus extensiones como
, además se introduce al tema de los contrastes de
heterocedasticidad condicional.
Finalmente en el capítulo cuarto se realiza una aplicación práctica de los modelos
estudiados utilizando el software R Project, dicha aplicación se realiza a una serie de
retornos de las cotizaciones, en la Bolsa de Valores de Colombia, de la acción del Banco
de Bogotá.
1. Capítulo 1: Fundamentación sobre las
series temporales
En este capítulo se plantea el los conceptos básicos de las series temporales partiendo
de un modelo general para luego estudiar los procesos estocásticos que serán la base
para comprender los modelos
,
,
y
, procesos que se discuten en
forma introductoria.
1.1 Definición e ideas básicas
Para lograr una aproximación a la definición de series temporales es necesario conocer
su utilidad, la cual es obtener patrones de comportamiento de una variable mediante la
observación de sus datos en el transcurso de un periodo de tiempo.
De lo anterior se puede afirmar que dada una sucesión de observaciones, en distintos
instantes de tiempo, se tiene una serie temporal. En el estudio práctico de las series
temporales se mide el tiempo en periodos aproximadamente equidistantes, como por
ejemplo minutos, horas, días, meses, años etc. Esto a pesar de que el tiempo es una
variable continua.
El estudio de las series temporales permite conocer una variable a lo largo del tiempo y
con ello realizar predicciones. Los comportamientos en la variable estudiada pueden
obedecer a patrones deterministas o a patrones aleatorios.
Las formas de obtener los datos en una serie temporal son básicamente el muestreo y la
agregación (muestreo temporal), el muestreo consiste en observar directamente el valor
de la magnitud en el instante dado y en la agregación se obtienen los valores de la
magnitud observando el valor acumulado durante cierto intervalo de tiempo.
4
Series temporales: Modelos heterocedásticos condicionales. Una aplicación
usando R.
1.1.1 Objetivos de las series temporales
El objetivo general de las series temporales es estudiar el comportamiento evolutivo de
una o varias magnitudes en el tiempo; como objetivos particulares se enuncian los
siguientes:

Describir mediante medidas estadísticas y mediante gráficos las características
principales de la serie.

Predecir mediante métodos sofisticados estimaciones de los valores de las
magnitudes en instantes futuros.

Explicar el efecto de los valores de una magnitud sobre otra en el tiempo.

Controlar los valores de parámetros que puedan influir en el comportamiento de la
serie.
El cumplimiento de estos objetivos permiten a ciencias como la Economia y las Finanzas
a crear modelos que buscan realizar pronosticos de corto y largo plazo en temas de
precios, macroeconomicos, sistemas de inversión entre otros.
1.1.2 Componentes y clasificación descriptiva de las series
temporales
En el análisis clásico de las series temporales se supone que los valores que toma la
variable en observación son consecuencia de las componentes tendencia, estacional y
aleatoria, a saber:

Componente tendencia: Se identifica con movimientos suaves de la serie a largo
plazo, es decir cambios a largo plazo de la media. Este tipo de tendencias es muy
apreciable en temas económicos y temas financieros, como los precios, las
exportaciones, las importaciones entre otras.

Componente estacional: Se identifica con variaciones de cierto periodo (anual,
mensual, diario etc.), en estos casos se procede a desestacionalizar la serie, en
otras palabras corresponde a movimientos de una variable que ocurre
reiteradamente durante una frecuencia homogénea de tiempo, para series de
tiempo cuya periodicidad es diaria, semanal, mensual, trimestral o semestral. Este
elemento se caracteriza por aparecer en un periodo desvanecerse en el siguiente
(Morales, Urrego, Perdomo, & Rosales, 2013)
Capítulo 1: Fundamentación sobre las series temporales

5
Componente aleatoria: La serie se muestra como resultado de factores fortuitos
que le inciden de forma aislada. Esta componente es de naturaleza aleatoria, ya
que su movimientos no vienen definidos es decir son irregulares.
Existen algunas clasificaciones para las series de tiempo en función de criterios
particulares, algunas de estas clasificaciones son:

Deterministas o aleatorias: dependiendo del patrón de comportamiento de la
variable observada, sea este fijo o no lo sea.

Discretas o continuas: dependiendo del tiempo en que se recogen las
observaciones de la serie, sean momentos determinados o de forma continua en
el tiempo.

Univariantes o multivariantes: dependiendo si la serie estudiada se encuentra en
función de su propio pasado o se estudian varias series temporales a la vez para
analizar las interacciones dinámicas entre varias series.
1.2 Procesos estocásticos
Un proceso estocástico se entiende como una secuencia de datos que evolucionan en el
tiempo, siendo así las series temporales un caso particular de los procesos estocásticos
(Villavicencio, 2014). De manera más formal se puede definir un proceso estocástico
como una colección de variables aleatorias ordenadas en el tiempo (Gujarati, 2004)
Definición 1.2.1 Un proceso estocástico es una familia de variables aleatorias {
} definidas sobre un espacio de probabilidad
, donde el conjunto paramétrico T
es un subconjunto de .
El conjunto
suele ser un intervalo o un conjunto de valores discretos, por consiguiente
el proceso estocástico depende de los argumentos,
elemental
. Para cada
fijo,
el tiempo
y el suceso
es una variable aleatoria y, para cada
fijo,
es una realización proceso, por consiguiente una serie temporal es considerada
como una realización de un proceso estocástico.
En síntesis en cada instante
existirá una variable aleatoria distinta
, por tanto en un
proceso estocástico las características de las variables aleatorias varían en el tiempo
6
Series temporales: Modelos heterocedásticos condicionales. Una aplicación
usando R.
1.2.1 Procesos estacionarios
Un proceso estocástico estacionario, débil o de segundo orden, se define como aquel en
que su media y su varianza son constantes en el tiempo y si el valor de la covarianza
entre dos periodos depende solamente de la distancia o retardo entre estos dos periodos
de tiempo y no del tiempo en el cual se ha calculado la covarianza (Gujarati, 2004).
Formalmente se tiene la siguiente definición:
Definición 1.2.2 (Estacionariedad estricta) Un proceso estocástico {
estrictamente estacionario si, para cualquier {
}
que{
(
,
las
distribuciones
}
} se dice
y para cualquier
conjuntas
de
(
tal
)
y
)coinciden.
La estacionariedad en sentido fuerte se debe contrastar por medio de distribuciones
conjuntas para cualquier selección de variables del proceso, por ello se procede a definir
la estacionariedad débil, la cual es de fácil comprobación.
Definición 1.2.3 (Estacionariedad débil) Un proceso estocástico {
} de segundo
orden se dice débilmente estacionario o estacionario en sentido amplio si,
tal que
1.
[ ]
y
, se verifica:
(es constante)
2. Cov(
(depende de sólo de ).
Un proceso estrictamente estacionario y con momentos de segundo orden finitos es
débilmente estacionario. El recíproco no es cierto, debido a que la estacionariedad débil
no impone restricción alguna sobre la distribución de las variables ni los momentos de
orden superior a dos, sin embargo en el caso de los procesos Gausianos los dos tipos
de estacionariedad equivalen.
Capítulo 1: Fundamentación sobre las series temporales
7
1.2.2 Ruido blanco, camino aleatorio y autocorrelación
Ruido Blanco
Dentro de los procesos estocásticos se encuentra un caso simple llamado ruido blanco,
donde los valores son independientes e idénticamente distribuidos a lo largo del tiempo
con media cero e igual varianza, se notan como
(
, esto es:
)
Camino aleatorio
Se define camino aleatorio como un proceso estocástico
obtener su primera diferencia se tiene
, donde
es decir
y al
, siendo este
resultado un ruido blanco.
Definición 1.2.3 Sea {
función de autocovarianzas de
} un proceso estocástico de segundo orden. Se define la
como:
[
Se define la función de autocorrelación de
]
como:
√
La función de autocorrelación es una medida adimensional de la dependencia lineal entre
variables aleatorias de un proceso estocástico. En el caso estacionario las dos funciones
dependen de
1.
y la función de autocorrelación presenta las siguientes propiedades:
.
2.
3.
, es una función par.
8
Series temporales: Modelos heterocedásticos condicionales. Una aplicación
usando R.
1.3 Procesos autorregresivos y de media móvil,
modelos ARMA y ARIMA
Existen modelos que tratan de estructuras estocásticas lineales y su asociación con una
serie temporal de datos. Usualmente este tipo de procesos se presentan como
combinación lineal de variables aleatorias. Si estos procesos siguen una distribución
normal con media cero se presenta la serie como combinación lineal de valores
anteriores infinitos de la misma serie más un ruido blanco.
1.3.1 Procesos autorregresivos y de media móvil
Para la correcta identificación de estos procesos es necesario conocer el teorema de
descomposición de Wold y la siguiente definición de un proceso estocástico lineal:
Teorema 1.3.1 (Teorema de descomposición de Wold) Cualquier proceso estacionario
∑
∑
en donde
,
es una función determinística y
.
Definición 1.3.1 (Proceso estocástico lineal) Un proceso estocástico es un proceso
lineal si para todo
puede ser representado como:
∑
Donde
es un proceso de ruido blanco y {
reales absolutamente sumable, es decir, verifica ∑
}
es una sucesión de constantes
|
|
.
Para la interpretación de estos procesos primero se define el operador de retardos así:
Definición 1.3.2. (Operador de retardos) El operador de retardo de una función del
tiempo en un instante proporciona la función en el instante anterior.
Y presenta las siguientes propiedades:
1.
con una
constante.
Capítulo 1: Fundamentación sobre las series temporales
9
2.
3.
4.
, operador de retardo de orden .
El primer proceso a trabajar son los modelos autorregresivos de orden
como
conocidos
, estos modelos parten del supuesto de que el valor presente de la serie
se explica en función de
valores previos así
, siendo
el número de
retardos necesarios para pronosticar ̂ .
El proceso general de
se puede modelizar bajo la siguiente ecuación:
,
donde:
representa las vv.aa concebidas como realizaciones de un proceso estocástico
en los momentos de tiempo
los cuales se caracterizan por
y la varianza del proceso
que deben ser estimados. Reescribiendo
son los parámetros que definen el modelo y
en términos del operador de retardos se
tiene:
(
)
Proceso Autorregresivo de orden 1:
Un proceso
solo está determinado por el valor pasado más un ruido y se define
mediante la siguiente ecuación:
Este modelo debe ser estacionario en media y en varianza, por tanto se deben probar
estas condiciones.
10
Series temporales: Modelos heterocedásticos condicionales. Una aplicación
usando R.
La estacionariedad en media implica que
y además la
media debe ser constante finita en el tiempo por tanto
; de lo anterior se
tiene que:
Por tanto cuando
el proceso es estacionario.
La estacionariedad en covarianza se cumple si la varianza es constante y finita en el
tiempo, tenemos así
, dada la
[
autocorrelación del proceso se tiene
]
y suponiendo que el proceso es estacionario se tiene
De donde
Por tanto si | |
, entonces:
existirá varianza constante y finita.
Dada la función de autocovarianza de orden ,
[
.
]
(
)(
es decir:
Por lo anterior se tiene:
Por lo que un proceso
es estacionario si y solo si | |
Tenemos además para el proceso
Función de autocovarianza:
:
.
)
Capítulo 1: Fundamentación sobre las series temporales
11
{
Coeficientes de autocorrelación
Función de autocorrelación
{
Siendo la función de autocorrelación de
una función exponencial
De donde
Proceso Autorregresivo de orden 2:
Este proceso está determinado por el valor pasado y el anterior a este. El modelo es una
representación autorregresiva
de segundo orden
y es modelizado por la
ecuación:
Siendo
un ruido blanco. También la ecuación
se puede reescribir de forma más
general como
Además, si se asume estacionariedad para este proceso, se tiene:
Media
12
Series temporales: Modelos heterocedásticos condicionales. Una aplicación
usando R.
[ ]
De lo anterior se puede ver la expresión con media
Función de autocovarianza
Siendo
y
parámetros
quienes proporcionan las dos primeras autocovarianzas en función de los
y
de la varianza del ruido blanco
.
Autocovarianzas de orden , para todo
Función de autocovarianza
{
Coeficientes de autocorrelación
Escritos de forma general
{
Las condiciones de estacionariedad para los dos procesos son las siguientes:
Condición de estacionariedad para el modelo
| |
| |
:
entonces | |
Capítulo 1: Fundamentación sobre las series temporales
13
Condición de estacionariedad para el modelo
|
|
|
√
Si el radicando
|
|
|
√
las raíces son reales y si el radicando
las
raíces son complejas (Villavicencio, 2014).
Proceso de medias móviles
Una serie temporal
de medias móviles de orden
se representa mediante la
ecuación:
Dónde:
es una variable aleatoria concebida como realización de un modelo estocástico en los
momentos de tiempo
, presentando la característica de
.
y la varianza del modelo
, representan los parámetros del modelo a estimar.
representa la variable aleatoria ruido blanco.
La característica fundamental de estos modelos suponen que el valor presente de la
serie
vienen determinados por una fuente externa. La representación de este modelo
en términos del operador de retardos viene dada así:
Proceso de medias móviles de orden 1:
La serie temporal para este proceso se modeliza mediante la ecuación:
Asumiendo estacionariedad para este proceso se tiene:
14
Series temporales: Modelos heterocedásticos condicionales. Una aplicación
usando R.
Media:
Si la esperanza de
viene dada por :
Y como
Por la condición de estacionariedad en media la cual exige que
tiempo y también que sea finita y determinada, esto se cumple si
no sea función del
es finito
. Por
tanto:
Además si se supone que
se tiene que:
La estacionariedad en varianza se cumple automáticamente pues la varianza de un
finito será siempre finita.
Función de autocovarianza:
{
La función de autocovarianza es finita y depende solo de
y no del tiempo, esto es para
cualquier valor del parámetro . Esto implica que no es necesario poner restricciones al
parámetro
para que el
siempre es estacionario.
Función de autocorrelación:
se estacionario (Villavicencio, 2014). Además el proceso
Capítulo 1: Fundamentación sobre las series temporales
15
{
Proceso de medias móviles de orden 2:
Una serie temporal
se puede representar como un
si se puede modelizar por
medio de la siguiente ecuación:
Estacionariedad en media:
La estacionariedad en media se cumple si
y si
varianza si
se tiene
es finito y
. Así un modelo
es finito o determinado y además
Función de autocovarianza
Función de autocorrelación:
Teniendo que
es estacionario en media y
16
Series temporales: Modelos heterocedásticos condicionales. Una aplicación
usando R.
Condiciones de invertibilidad
Invertir un modelo
consiste en transformarlo en su modelo
requisito para que se pueda invertir un modelo
equivalente. El
es que las raíces del polinomio
característico, en modulo, sean menores que la unidad (Cabrer, 2004).
, se parte de
de donde
medias móviles viene dado por
. Por tanto el polinomio de
y resolviendo la ecuación
se
. Así la condición de invertibilidad en este modelo viene dada por | |
tiene
| |
o| |
, se parte de
, de donde
Por tanto
el polinomio de medias móviles viene dado por
ecuación
, y resolviendo la
se tiene:
|
|
|
√
|
|
|
|
√
|
Estas condiciones, se puede apreciar, son similares a las de estacionariedad pero con el
operador aplicado
.
1.3.2 Modelos ARMA Y ARIMA.
Una serie de tiempo
, que presente las características
seguirá un proceso
, con
y
de manera conjunta,
términos autorregresivos y
términos de media
móvil, estos modelos permiten aproximar la estructura de covarianza de un proceso
estacionario hasta el nivel que se fije previamente.
extensión de los
Los modelos
son una
que se utiliza para modelizar algunos procesos no estacionarios.
Definición 1.3.3. (Modelos ARMA) Se dice que la serie estacionaria
tiene estructura
si admite una representación del tipo:
(
)
La definición anterior la podemos escribir por medio del operador de retardos así:
Definiendo los polinomios:
Capítulo 1: Fundamentación sobre las series temporales
El modelo
17
toma la forma:
Definición 1.3.4. (Modelos ARIMA) se dice que un proceso
ARIMA(p,q,d) si existen dos polinomios
y
de grado
y
tiene estructura
, respectivamente,
verificando que
Estacionariedad e invertibilidad
En los modelos ARMA la estacionariedad se representa así:
∑
Siendo
y∑
|
|
Lo que equivale a que las raíces de la ecuación
sean en modulo mayores que .
La invertibilidad es una propiedad similar. Para un proceso
invertible si existe una sucesión de constantes { }
,
una estructura
es
tal que ∑
y
| |
además:
∑
(
)
.
Se puede comprobar que el proceso será invertible si los ceros de la ecuación
tienen todos módulo mayor que 1.
Función de autocorrelación:
Donde
Presentando esta función de autocorrelación un decaimiento exponencial o sinusoidal
amortiguado a partir del retardo .
18
Series temporales: Modelos heterocedásticos condicionales. Una aplicación
usando R.
Función de autocorrelación parcial:
Definición 1.3.5. Se define la función de autocorrelación parcial como aquella función
que para un valor
entero nos proporciona la autocorrelación entre
,…
la información que
Por convenio
y
eliminando
contienen ambas es decir,
.
Siendo esta definición análoga a:
Pues los residuos de la regresión son ortogonales con todas las variables regresoras, la
función de autocorrelación es par y por tanto la varianza del residuo de la regresión de
una variable sobre las
variables sobre el pasado es la misma que la varianza del
residuo de la regresión de una variable sobre las
variables más próximas hacia el
futuro.
Para los procesos
la función de autocorrelación parcial se anula para valores
superiores a , se observa
como el coeficiente
de una regresión sobre
variables, al comparar con la estructura de la serie:
Y con la estructura de la regresión:
Esto verifica que
para valores de
nulo. Para los modelos
o
y los coeficientes
donde
superiores a , por consiguiente
será
hay correspondencia entre los modelos
decaerán hacia cero.
2. Capítulo 2: Metodología de Box - Jenkins
En este capítulo se estudiara la metodología de Box – Jenkins la cual fue desarrollada en
los años 70 por George Box y Gwilym Jenkins, en la actualidad esta metodología ha
adquirido gran relevancia por la aplicabilidad que tenido gracias al desarrollo de los
sistemas de computación.
La idea principal del enfoque Box - Jenkins es proponer un conjunto de procedimientos
para escoger entre los modelos
,
y
el que se ajuste a los
datos de una serie temporal observada y con ello realizar pronósticos sobre ésta. Este
procedimiento plantea cuatro pasos a saber:
1. Identificación: Este primer paso busca establecer los valores apropiados para
.
2. Estimación: Luego se deben estimar los parámetros incluidos en el modelo.
3. Verificación de diagnóstico: Al seleccionar el modelo
particular se debe
comprobar si el modelo se ajusta a los datos (puede existir otro modelo
que presente mejor ajuste). La prueba más simple de ajuste es comprobar si los
residuos obtenidos son ruido blanco.
4. Predicción: El último plazo consiste en la elaboración de los pronósticos de la
serie temporal en particular.
Como desarrollo de la temática para el presente capitulo se procede a estudiar, de forma
más precisa, cada uno de los pasos que comprende el Box - Jenkins
2.1 Paso 1: Identificación.
Este
paso
comprende
identificar
la
estructura
no
estacionaria,
realizar
las
transformaciones a que haya lugar para obtener varianza y media constantes y
finalmente determinar las órdenes del modelo
.
20
Series temporales: Modelos heterocedásticos condicionales. Una aplicación
usando R.
Este análisis nos permite identificar en la serie temporal características como la alta
frecuencia (característica intrínseca de la serie que no es corregible), el comportamiento
no estacionario y la presencia de estacionalidad en los datos.
2.1.1 Estabilización de la no estacionariedad.
Para la estabilización de la no estacionariedad es posible realizar transformaciones de
Box-Cox diferenciaciones, entre otras.
Transformaciones de Box-Cox
Para una serie temporal
, el proceso que se obtiene luego de realizar una
transformación Box-Cox de parámetro
se encuentra definido por:
{
Box-Cox además incluye una familia infinita de funciones como logaritmos raíz cuadrada
etc. También se utiliza esta transformación para solucionar problemas de normalidad de
los datos.
Diferenciación
Este procedimiento implica identificar si la serie temporal tiene un centro de gravedad o si
carece de éste, es decir si se presentan tendencias (para lo cual se usara, sobre todo, el
grafico de la serie) y además se busca identificar en la función de autocorrelación
muestral un decaimiento lento.
Para estabilizar la media se toman diferenciaciones del tipo:
En este caso
los instrumentos gráficos son muy útiles, se utilizan el grafico de la
serie, el grafico de autocorrelación y el de autocorrelación parcial, con ellos se puede
realizar una diferenciación regular
o una diferenciación en la parte estacional
.
Capítulo 2: Metodología de Box - Jenkins
En la diferenciación en
21
el grafico presentará una tendencia clara, la función de
autocorrelación muestral decaerá de forma lenta y lineal y la función de autocorrelación
parcial muestral presentara un coeficiente de primer retardo cercano a 1. Se debe tener
presente que las tendencias lineales se eliminan con
con
periodo
. Para la diferenciación en
y las tendencias cuadráticas
se mostrara un gráfico con pautas repetidas de
y se observara que la función de autocorrelación simple muestral mostrara
coeficientes altos que decrecen de manera lenta en los retardos múltiplos de periodo .
Nota: La diferenciación, a veces, también estabiliza la varianza de la serie
2.1.2 Identificación de órdenes del proceso.
Se proceden a estimar los órdenes
y
, para ello se compara las funciones
estimadas de autocorrelación simple y parcial con sus respectivas funciones teóricas, se
debe seleccionar un conjunto de modelos que se supongan adecuados.
Los coeficientes de autocorrelación muéstrales se estiman mediante la ecuación:
̂
Donde
∑
̅
̅
∑
̅
que representa la serie estacionaria. Para la obtención de
debe primero calcular la covarianza muestral del retardo
se
, ̂ y la varianza muestral, ̂
definidas como (Gujarati):
̂
∑
̂
donde ̅ es la media muestral y
̅
∑
̅
̅
el tamaño de la muestra, por tanto ̂
̂
̂
. Para
identificar los órdenes del modelo es necesario apoyarse en la función de autocorrelación
parcial ya que
(coeficiente de correlación parcial de orden
) mide el grado de
asociación lineal existente entre variables habiendo ajustado el efecto lineal de todas las
variables intermedias, el cálculo se realiza mediante la regresión lineal entre variables
como en
que representada seria
22
Series temporales: Modelos heterocedásticos condicionales. Una aplicación
usando R.
La función de autocorrelación parcial se estima basándose en los datos de la serie y
como función de ̂ . Es claro que si ̂
̂ , la serie
, la serie
es ruido blanco, si por el contrario
no es ruido blanco, por lo anterior se emplea una prueba de significancia
conjunta que determina si los coeficientes estimados estadísticamente equivalen a cero,
pruebas soportadas por los test de Q de Box y Pierce y por la prueba Ljung- Box
(Morales, Urrego, Perdomo, & Rosales, 2013) que se estudian en la sección 2.3.2.
VS
Para identificar órdenes en un proceso estacional se sigue un proceso similar con la
diferencia que se deberán observar los coeficientes en los retardos específicos que
muestren estacionalidad ya que indicaran en la función de autocorrelación y la función de
autocorrelación simple los ordenes
y .
Como ilustración de cómo interpretar correlogramas de la FAC y de la FACP en la
identificación de las órdenes del proceso
se presentan los siguientes casos
(Morales, Urrego, Perdomo, & Rosales, 2013):
La FAC decrece de manera exponencial y simultáneamente el primer retardo FACP está
por fuera de su intervalo de confianza para sus valores positivos.
La FAC presenta movimientos sinusoidales y simultáneamente el primer retardo de la
FACP está por fuera de su intervalo de confianza para sus valores negativos
Capítulo 2: Metodología de Box - Jenkins
23
Figura 2.1 Correlogramas de Identificación AR(1)
La FAC decrece de manera exponencial y simultáneamente los dos primeros retardos de
la FACP están fuera de su intervalo de confianza para sus valores positivos.
La FAC tiene movimientos sinusoidales y simultáneamente los dos primeros retardos de
la FACP están fuera de su intervalo de confianza, intercalándose en su valor positivo y
negativo o solamente hacia el lado de los negativos.
Figura 2.2 Correlogramas de Identificación AR(2)
La FACP tiene movimientos sinusoidales y simultáneamente el primer retardo de la FAC
está fuera de su intervalo de confianza para sus valores positivos.
La FACP no tiene movimientos (o puede presentar un crecimiento exponencial en sus
valores negativos) y el primer retardo de la FAC está fuera de su intervalo de confianza
para sus valores negativos
24
Series temporales: Modelos heterocedásticos condicionales. Una aplicación
usando R.
Figura 2.3 Correlogramas de Identificación MA(1)
La FACP crece de manera exponencial desde los valores negativos hacia los positivos y
los dos primeros retardos de la FAC están fuera de su intervalo de confianza para sus
valores negativos.
La FACP no tiene movimientos o tienen forma sinusoidal y simultáneamente los dos
primeros retardos de la FAC están fuera de su intervalo de confianza para sus valores
negativos.
Figura 2.4 Correlogramas de Identificación MA(2)
La FAC y la FACP decrecen o crecen exponencialmente de manera simultánea desde los
valores positivos hacia los negativos o viceversa, y el primer retardo de ambas está fuera
de su intervalo de confianza para sus valores positivos o negativos.
La FAC y la FACP tienen movimientos sinusoidales y su primer retardo está fuera de su
intervalo de confianza, intercalando sus valores negativos y positivos o solamente hacia
alguno de estos lados.
Capítulo 2: Metodología de Box - Jenkins
25
Figura 2.5 Correlogramas de Identificación ARMA(2)
El modelo
se puede identificar teniendo en cuenta que para la FAC la caída a
cero puede ser oscilatoria a partir del retardo
y para la FACP la caída a cero puede ser
oscilatoria a partir del retardo
2.2 Paso 2: Estimación.
En este paso se realiza la estimación de los parámetros que constituyen el modelo
,
y
,
(si es el caso), esta estimación se obtiene por diferentes métodos a
saber:

Método de los momentos

Algoritmo de máxima verosimilitud

Método de mínimos cuadrados condicionales

Métodos de optimización no lineal

Estimadores óptimos
Estos métodos son de complejo cálculo y de manera enunciativa se presentan en este
apartado.
26
Series temporales: Modelos heterocedásticos condicionales. Una aplicación
usando R.
2.2.1 Método de los momentos.
Este método realiza la estimación de los parámetros sustituyendo momentos teóricos por
momentos
muéstrales
y
luego
resolviendo
las
ecuaciones
correspondientes.
Normalmente se emplean las ecuaciones de Yule- Walker y al solucionarlas se sustituyen
las autocorrelaciones por las estimaciones.
Para una serie temporal que responda a una estructura
como en
las
ecuaciones de Yule-Walker se obtienen mediante la estimación de las covarianzas o
correlaciones de
con
si
, de donde se tienen las ecuaciones en diferencias.
Las ecuaciones de Yule- Walker son de la forma:
̂
̂
̂ (
̂
̂
̂ ̂
̂ )
Donde ̂ y ̂ son estimadores de
tiene que ̂
y
y
respectivamente, además se
. Para muestras grandes, los estimadores
̂
Yule-Walker siguen distribuciones normales y
se aproxima al verdadero valor
poblacional y además, se pueden construir intervalos de confianza para los valores
estimados. Para ello se utiliza la varianza de ,
̂ ( )
para
. Para tamaños muéstrales grandes la distribución del estimador obtenido es
̂
, donde
de donde un intervalo de confianza para
vendría dado por:
√
Siendo
el elemento
de
.
̂
Capítulo 2: Metodología de Box - Jenkins
Este método se utiliza en modelos
y
27
genera peores estimaciones, sin embargo
se utiliza para el cálculo de valores iniciales y luego proceder con estimaciones más
complejas.
En síntesis este método proporciona estimaciones de los parámetros bajo la hipótesis de
que la función de autocorrelación estimada coincida con la teórica para los primeros
retardos.
Normalmente se resuelve haciendo uso de algoritmos como el algoritmo de Burg,
algoritmo de las innovaciones y el algoritmo de Hannan- Rissanen.
2.2.2 Algoritmo de máxima verosimilitud.
Con este método se busca que los estimadores de los parámetros maximicen la función
de verosimilitud con respecto a la varianza del error. Por ello el algoritmo se basa en la
función de verosimilitud en modelos
((
donde
)
)
planteada por Newbold en 1974:
(
)
{
(
)}
representa la función dependiente de los parametros
(
)
donde la esperanza condicional de
∑
[
y
]
se representa [
] dado
{
y
donde
(
es función lineal de los valores iniciales no observables
(
) y
).
La utilización de representaciones de los procesos ARMA como modelos en el espacio
de estados y del filtro de Kalman permite calcular de manera exacta la función de
verosimilitud. Al maximizar
se logran obtener las predicciones.
28
Series temporales: Modelos heterocedásticos condicionales. Una aplicación
usando R.
2.2.3 Método de los mínimos cuadrados condicionales.
Con esta técnica se busca minimizar la suma de cuadrados condicionales
∑
suma que se obtiene
(
)
de la suma de cuadrados no condicionales, donde
son la base de los cálculos de
igualados a cero que corresponde a
su valor esperado.
Para un modelo
la estimación viene dada por al siguiente ecuación:
(
)
∑
De donde se plantean las ecuaciones normales
̂
[
̂
(̂
̂ ) y
siendo:
]
) y por tanto ̂
(
.
2.2.4 Métodos de optimización no lineal.
Los métodos de suma de cuadrados condicional y máxima verosimilitud exacta, al
utilizarse en modelos que contiene términos de medias móviles, generan funciones no
cuadráticas lo que obliga a realizar estimaciones no lineales en la maximización de
y la minimización de la suma de cuadrados condicionales
(
), principalmente se
utiliza el algoritmo de Gauss-Newton, el cual resulta de una variación del método de
optimización de Newton sin el uso de segundas derivadas, este procedimiento es
iterativo por lo cual parte de una estimación inicial del parámetro.
2.2.5 Estimadores óptimos.
Para los modelos
los estimadores de máxima verosimilitud, mínimo
cuadráticos condicionales y no condicionales que se basan en el método de los
momentos,
permiten
obtener
buenos
estimadores
para
sus
parámetros
Capítulo 2: Metodología de Box - Jenkins
29
. El modelo
debe presentar las características de
estacionariedad e invertibilidad y venir dado por:
Donde
donde
y
representan polinomios conocidos cuando
,√
presenta distribución normal multivariante con vector de medias
de covarianzas de dimensión
̂
y una matriz
y que se representa así:
[
]
Siendo:
donde
simple en el retardo
representa el valor de la función de autocorrelación
para un proceso
donde
simple en el retardo
(
)
de la forma
representa el valor de la función de autocorrelación
para un proceso
;
de la forma
donde
.
representa la covarianza cruzada
de los modelos autorregresivos dados por
[
.
y
, por consiguiente
].
2.3 Paso 3: Diagnóstico del modelo.
En este paso se busca verificar que tan adecuado es el modelo, es decir se debe
comprobar que:

Las condiciones de estacionariedad e invertibilidad de los coeficientes
estimados del modelo se cumplan, así como determinar que estos parámetros
estimados sean significativos.

Los residuos se comporten como ruido blanco.
2.3.1 Diagnóstico de los coeficientes estimados
Para los modelos
se plantean los siguientes contrastes de hipótesis:
30
Series temporales: Modelos heterocedásticos condicionales. Una aplicación
usando R.
Siendo
la constante media. Para los coeficientes
presentan distribución asintótica ̂
los cuales
( ̂ ) esto
donde la inversa de la matriz de
información permite estimar la varianza, el estadístico
de contraste con distribución
normal viene dado por:
̂
√ (̂)
La hipótesis nula con
se rechaza cuando: |
̂
|
√ (̂ )
.
Las condiciones de estacionariedad e invertibilidad se comprueban calculando las raíces
del polinomio autorregresivo, ̂
̂
y las raíces del polinomio de medias móviles
, si alguna se encuentra cercana a 1 se puede presumir falta de estacionariedad
o invertibilidad. Por otra parte la matriz de covarianzas permite detectar presencia de
factores comunes al modelo valiéndose de los niveles de correlación entre los modelos.
2.3.2 Diagnóstico de los residuos el modelo.
Para el modelo
se debe comprobar que los residuos presentan un
comportamiento de ruido blanco, media cero, varianza constante y autocorrelaciones
nulas.
Para el contraste de media cero se plantean las hipótesis
El estadístico viene dado por:
√
̅̂
√
̂
Capítulo 2: Metodología de Box - Jenkins
Donde ̅̂ y
31
̂ representan la media y al varianza muestral de los residuos estimados.
También se puede usar el análisis grafico de los residuos que junto con el de dispersión
nos podrá indicar la existencia de varianza constante.
Para determinar la no existencia de correlaciones entre los residuos se utiliza el
estadístico de Ljung-Box el cual viene dado por:
∑
Siendo
el coeficiente de autocorrelación de los residuos estimados,
número de valores de la serie
estadístico
̂
y
representa el
representa el número de parámetros estimados. El
se distribuye como una Chi-cuadrado, donde el número de grados de
libertad es igual a
, siendo
el número de coeficientes utilizados en la suma.
Las hipótesis a probar con este test son:
Gráficamente se pueden observar los coeficientes de las funciones de autocorrelación
muestrales (simple y parcial) que no
deberán ser significativos para considerar la
independencia entre residuos (comparados con las bandas de confianza).
Nota: Alguno puede ser significativo debido al azar.
Si los residuos presentan comportamiento de ruido blanco se procede a calcular las
predicciones, de no cumplirse esto se debe repetir el proceso y proponer un nuevo
modelo en la fase de identificación.
Como conclusión se puede decir que en esta etapa se selecciona la mejor especificación
del modelo para realizar el pronóstico, el cual se estudia en el paso 4.
2.4 Paso 4: Predicción.
Una vez que se cuenta con un modelo estimado que cumpla los criterios de validez
anteriores, este puede ser utilizado para realizar pronósticos (Morales, Urrego, Perdomo,
& Rosales, 2013) para
instantes observados la predicción a realizar es del tipo
viene dada a partir de la ecuación de diferencias:
y
32
Series temporales: Modelos heterocedásticos condicionales. Una aplicación
usando R.
Como suma infinita ponderada de los valores
:
∑
Como suma infinita ponderada de los valores previos más un ruido
∑
Si la predicción de la observación
futuro y se representa por
se denomina predicción de
pasos hacia el
y que se expresa como combinaciones lineales de
valores pasados y presentes, siendo además función de los valores pasados y presentes
del proceso ruido.
∑
Donde
representa los pesos que minimizan el error cuadrático medio de la
predicción, luego el error de la predicción se expresa como:
La varianza de la predicción se representa por:
[
]
Asumiendo que el ruido blanco sea Gaussiano se tiene el siguiente límite de confianza
para un
:
√
3. Capítulo 3: Modelos
condicionales.
heterocedásticos
En este capítulo se continua con una introducción teórica de la series de tiempo, pero
abarcando los modelos
y
, esto es indispensable para comprender los
procedimientos a trabajar en la aplicación a los datos que se realizara en el último
capítulo de este trabajo.
En series financieras lo normal es observar como el precio de algunos activos se
comportan establemente durante un periodo de tiempo determinado para luego presentar
una alta volatilidad y finalmente retomar la estabilidad previa.
Los periodos de alta volatilidad son propios de dichas series de tiempo financieras,
siendo la volatilidad una característica no constante, implicando que los modelos de
series de tiempo clásicos, donde se supone varianza homocedástica, no son idóneos en
la modelación de series financieras.
Los modelos de series de tiempo clásico se refieren a los estudiados en el capítulo 2
(Box-Jenkins) donde se parte de un proceso estocástico estacionario y se supone media
y varianza constantes.
Estos procesos estocásticos, que no siguen un patrón Box-Jenkins, se denominan
modelos heterocedásticos condicionales y con ellos se busca determinar un patrón
estadístico que defina el comportamiento de la varianza.
En este capítulo se estudian los principales modelos heterocedásticos condicionales a
saber:

El modelo
planteado por Engle en 1982 en el cual la varianza condicionada
a la información pasada no es constante, y depende del cuadrado de las
innovaciones pasadas (Casas Monsegny, 2008).
34
Series temporales: Modelos heterocedásticos condicionales. Una aplicación
usando R.

El modelo
planteado por Bollerslev en 1986 el cual resulta de una
generalización del modelo
y donde la varianza condicional no solo depende
de los cuadrados de las perturbaciones, sino además, de
las varianzas
condicionales de periodos anteriores (Casas Monsegny, 2008).

También se estudiaran las familias resultantes de las extensiones del modelo
como por ejemplo Modelos
,
o
y
entre
otros.
En la parte final del capítulo se enuncian los principales contrastes de heterocedasticidad
condicional a saber: los multiplicadores de Lagrange, el test de Portmanteau y los
contrastes robustos.
3.1 Modelos
En un modelo
se supone que en la serie de tiempo
se permiten tener procesos
de ruido blanco formados por variables dependientes, tenemos por tanto:
Los modelos
normalmente se utilizan para modelar series de retornos de activos
financieros, los retornos de cada periodo representan la variación del precio del activo
para cada periodo, si se denota al retorno para cada periodo como
Donde
representa el precio del activo en el periodo . Si se elimina el 1 y se toman
logaritmos, se define el
Entonces podemos reemplazar
Como
, se tiene:
y
que se expresa mediante la ecuación:
, por lo cual:
son procesos estacionarios independientes entre sí;
representa un ruido
blanco normal formado por variables independientes con media cero y varianza unitaria,
Capítulo 3: Modelos heterocedásticos condicionales
35
también es estacionario pero presenta una estructura dinámica en función de los
valores previos que se notara como
La media marginal cero de la serie
.
se garantiza por la independencia entre
y
y
como se muestra en (Contreras, 2007) esto se explica ya que:
La media condicional también es nula ya que:
Y al ser
un proceso estacionario, se tendrá una varianza marginal constante
, la cual
se calcula así:
Que es igual a la varianza del proceso
puesto que
, pero
presenta una
varianza condicionada no constante:
Además que
, se puede ver que
representa la varianza
condicionada de la serie en cada instante, que va variando en el tiempo con cierta
estructura estacionaria (Contreras, 2007).
Para el estudio financiero de estos modelos es también importante tener claro que la
varianza condicional se conoce como volatilidad. Dentro de los modelos
se
estudiaran los modelos
3.1.1 Modelo
Para analizar este modelo se supone que se tiene una serie temporal de retornos
, la
cual normalmente es una secuencia de correlación serial con media cero, esto es cierto
aun cuando presente algunos periodos de volatilidad, por tanto la varianza condicional de
, dada la rentabilidad pasada, no es constante.
36
Series temporales: Modelos heterocedásticos condicionales. Una aplicación
usando R.
La varianza condicional de
al periodo
. Al elevar
se denota por
al cuadrado,
, es decir el condicionamiento se refiere
se pude obtener un estimador insesgado de
.
En el modelo
se supone que la varianza condicional tiene una estructura
y que depende del último valor observado. Este modelo asume que la serie de retornos
se genera así:
Donde
y
son parámetros desconocidos y
es una secuencia de variables aleatorias
independientes e idénticamente distribuidas cada una con media cero y varianza 1,
además es independiente de
y si el valor de
de la siguiente observación condicionada a este valor
probablemente, el valor siguiente de
Como
es alto, la varianza
será alta, por lo cual,
será alto (Cryer y Chan, 2008).
se presume de varianza unitaria, la varianza condicional de
es igual
por consiguiente:
( |
)
(
|
|
)
|
|
|
|
Si bien es cierto que el modelo
es similar a un modelo de regresión, su utilización
no es igual ya que la varianza condicional unitaria no es directamente observable
(variable latente). Por ello si en
observado
|
reemplazamos la varianza condicional por un valor
, donde la innovación
representa una serie incorrelada con
media cero y también es incorrelada con el retorno pasado, al sustituir
se tiene que:
|
,
Capítulo 3: Modelos heterocedásticos condicionales
37
Lo que indica que la serie de retornos al cuadrado
satisface un modelo
supuesto de una serie de retornos con modelo
es lógico que
y
debe ser no negativo,
sean también no negativos, Además, si la serie de retorno es
estacionaria con varianza unitaria
ecuación
; como
bajo el
, reemplazando los retornos en ambos lados de la
, se tiene:
Lo que es igual a
con
, condición necesaria y suficiente para la
estacionariedad débil del modelo
.
La varianza es constante en un proceso débilmente estacionario, la condición
implica que existe una distribución inicial de
para
de tal forma que
como en
y
sea débilmente estacionario. Por tanto para el modelo
la
estacionariedad débil no excluye el proceso de varianza condicional, es decir el modelo
es de ruido blanco y admite un proceso de varianza condicional no constante
que varía con el retardo de uno de los procesos al cuadrado (Cryer y Chan, 2008).
En un modelo
, si la innovación
estacionaria con
tiene distribución normal, su distribución
es de cola gruesa, es decir su curtosis
es mayor
que cero (Cryer y Chan, 2008).
El principal uso de los modelos
es predecir las varianzas condicionales futuras, por
ejemplo se pueden predecir los futuros
pasos de la varianza condicional mediante:
(
|
|
)
Cuando
|
Lo que representa un promedio ponderado de la varianza a largo plazo y el retorno
cuadrado actual. Usando la esperanza iterada (véase (Cryer y Chan, 2008)) se tiene:
|
(
|
|
)
38
Por tanto
Series temporales: Modelos heterocedásticos condicionales. Una aplicación
usando R.
. Siendo otra forma de calcular el futuro
|
paso de la
varianza condicional.
3.1.2 Modelo
El análisis de la sección anterior se puede generalizar para permitir una dependencia de
la varianza condiciona con
retardos.
Las fórmulas de predicción derivadas en la
sección anterior muestran las fortalezas y debilidades de un modelo
como la
previsión de las futuras varianzas condicionales donde sólo se involucra el último retorno
al cuadrado. En la práctica, se puede esperar que la precisión de la predicción mejore
mediante la inclusión de todos los últimos retornos al cuadrado con menor peso de las
volatilidades más distantes.
En 1982 Engle propone el modelo
cuyo enfoque consiste en incluir los retornos
al cuadrado más rezagados en el modelo. Este modelo generaliza la ecuación
así:
|
representa el orden del modelo
. Este modelo implica que las posibilidades de
rachas de alta volatilidad dependerán de los
últimos valores. Para este modelo se tiene
que:
[ (
|
)]
∑
con la restricción de ∑
De donde
se introduce la innovación
. Al igual que en el modelo
y si se sustituye tenemos
|
, de
donde:
La innovación
presenta las mismas propiedades que en el modelo
a saber:
Variables incorreladas de media cero, varianza constante e incorreladas con los
regresores. Por otro lado, estas variables no son independientes entre sí, ni con los
regresores, ya que la positividad de
(Contreras, 2007).
exige que
Capítulo 3: Modelos heterocedásticos condicionales
39
3.2 Modelos
El modelo
presenta dificultades de estimación al aplicarse a estructuras
dinámicas en los cuadrados de las series, tal es el caso de las series financieras donde el
número de retardos a utilizar es muy alto, lo cual llevaría a un gran número de iteraciones
para alcanzar la solución al sistema planteado, incluso podría no encontrarse una
solución (Rafael de Arce y LL Klein, 1998). Partiendo de la ecuación
y aplicando el
enfoque propuesto por Bollerslev (1986) y Taylor (1986) que introducen
retardos de la
varianza condicional, se tiene que
representa el orden del modelo
el modelo se tiene el modelo
, al combinar
llamado heterocedasticidad condicional
autorregresiva generalizada, modelo que representa una fórmula ampliada del modelo
donde la varianza condicional depende de los valores previos de la variable y de
sus propios valores anteriores (Cryer y Chan, 2008), se expresa así.
|
|
|
Para este modelo las varianzas condicionales deben ser no negativas, por tanto los
coeficientes presentan la restricción de no negatividad, sin embargo es conveniente
aclarar que las limitaciones de no negatividad de los parámetros no son necesarias para
que el modelo
tenga varianzas no negativas con probabilidad 1. Para el
desarrollo de este capítulo supondremos la restricción de no negatividad de los
parámetros del modelo
Para el ajuste del modelo
.
se deben seguir los pasos previstos en la metodología
Box-Jenkins, es decir identificación, estimación, diagnóstico y predicción.
La identificación del modelo de órdenes
permite expresar el modelo para las
varianzas condicionales en función de los retornos al cuadrado. Retomando la definición
|
. Como en el modelo
se puede demostrar que { } es una
secuencia no correlacionada en la serie, además
no presenta correlación con los
retornos cuadrados pasados. Si se sustituye la expresión
se obtiene:
|
en la ecuación
40
Series temporales: Modelos heterocedásticos condicionales. Una aplicación
usando R.
Donde
para todos los enteros
que el modelo
y
para todo
. Lo que demuestra
para la series de retornos al cuadrado es un modelo
, lo que implica que se pueden aplicar las técnicas de identificación
de modelos utilizadas en los modelos
Cuando
estimar
de retornos al cuadrado y así identificar
primero se obtiene un modelo
y
y luego se procede a
examinando la significancia de las estimaciones de los coeficientes resultantes
en el modelo
.
Para demostrar la condición de estacionariedad débil se supone que el proceso de
retornos toma un modelo
y además que este proceso es débilmente
estacionario. Al tomar esperanzas en ambos lados de la ecuación
ecuación para la varianza no condicional
se obtiene una
.
∑
de donde
∑
que es finito si
∑
condición necesaria y suficiente para la estacionariedad débil en un modelo
Se supone que
que
y
, además, en adelante se supondrá
.
Para el pronóstico del
recursiva en donde
pasos de la varianza condicional
|
se toma la fórmula
.
|
∑
Generalizando para un valor arbitrario
|
, la formula se torna más compleja
Capítulo 3: Modelos heterocedásticos condicionales
∑
|
|
41
̂
|
donde
|
y
̂
{
|
|
|
El cálculo de las varianzas condicionales puede ilustrarse más claramente con el modelo
. Si se supone que se tienen
|
observaciones
y
|
Para el cálculo de las varianzas condicionales cuando
valor inicial
|
se debe establecer el
. Lo anterior se puede ajustar a la varianza estacionaria no condicional
bajo la suposición de estacionariedad o simplemente como
lo cual se puede calcular
|
por la fórmula que define el modelo
, de
, se puede ver
que:
|
|
Se puede ver que la estimación de un paso por delante de la volatilidad condicional es un
promedio ponderado de la varianza de largo plazo, el retorno cuadrado actual y la
estimación actual de la volatilidad condicional. Además la representación
, de la
varianza condicional implica que:
|
Siendo una media móvil infinita de los retornos al cuadrado pasados, en la formula se
puede ver que los retornos pasados más distantes reciben pesos exponencialmente
decrecientes. En el caso en que
se denomina un modelo
entonces:
el modelo
, donde se supone que
es no estacionario y
y
42
Series temporales: Modelos heterocedásticos condicionales. Una aplicación
usando R.
|
La estimación se basa en el método de máxima verosimilitud de donde la función de
probabilidad del modelo
se puede derivar de manera sencilla para el caso de las
innovaciones normales. Particularmente para el modelo
dados los parámetros
,
y
se parte de tener
de donde se pueden calcular las varianzas condicionales
por la fórmula:
|
Para
|
con valor inicial de
|
, se asume el supuesto de estacionariedad en la
varianza no condicional estacionaria
, e incluyendo la función de
densidad de probabilidad pdf:
|
[
√
]
|
|
Y para la pdf conjunta:
|
Por iteración se obtiene la fórmula para la función de
∑{
:
|
|
}
No hay una solución analítica para los estimadores de máxima verosimilitud
,
y
se pueden calcular maximizando la función numérica de
pero
. Los
estimadores de máxima verosimilitud se distribuyen normalmente y se aproximan a los
valores de la media de los parámetros reales. Sus covarianzas pueden verse en una
matriz identificada por
y que se obtiene como se muestra a continuación:
[ ]
El vector anterior representa el vector de parámetros, donde se escribe el
componente de
como
, de modo que
,
y
. Los elementos
Capítulo 3: Modelos heterocedásticos condicionales
diagonales de
43
representan las varianzas aproximadas de los estimadores y los
elementos por fuera de la diagonal representan sus covarianzas aproximadas. Así el
primer elemento diagonal de
es la varianza aproximada de ̂. El
elemento de
es la covarianza aproximada de ̂ y ̂; y así sucesivamente. Para el desarrollo
matemático en el cálculo de
revisar el capítulo 12 de Time Series Analysis (Cryer y
Chan, 2008)
Para la estimación del modelo
se suponen innovaciones normales, la función de
verosimilitud que resulta con este supuesto se conoce como la verosimilitud de Gauss, y
los estimadores que maximizan esta verosimilitud se conocen como los estimadores de
verosimilitud cuasi máximos (QMLEs) por sus siglas en ingles. Se puede demostrar que,
bajo ciertas condiciones de regularidad leve, incluyendo la estacionariedad, los QMLEs
son aproximadamente normales y con valores medios aproximados a los
parámetros verdaderos, además su matriz de covarianzas es igual [
curtosis de las innovaciones y
] , donde
de los
es la
es la matriz de covarianza, asumiendo que las
innovaciones se distribuyen normalmente. Si no se puede mantener el supuesto de
innovaciones normales, se deben ajustar los errores estándar de los QMLEs
multiplicando los errores estándar de la verosimilitud Gaussiana (basada en el supuesto
de innovaciones normales) por √
, donde
se puede sustituir por la curtosis
muestral de los residuos estandarizados (Cryer y Chan, 2008).
La desviación estándar condicional estimada se denota por
̂|
el residuo
estandarizado se define como:
̂
̂|
El residuo estandarizado del modelo ajustado sustituye las innovaciones y permite
identificar la manera en que se distribuyen dichas innovaciones.
En el paso de diagnóstico se comprueba que el modelo proporciona un ajuste adecuado
a los datos, para ello se debe comprobar la correcta especificación del modelo, esto es,
si los datos apoyan los supuestos del modelo.
Se toma como base la ecuación
que define los residuos estandarizados, los
cuales son aproximadamente independientes e idénticamente distribuidos, si se ha
44
Series temporales: Modelos heterocedásticos condicionales. Una aplicación
usando R.
especificado correctamente el modelo. Los residuos estandarizados son muy útiles para
controlar la especificación del modelo, la hipótesis de normalidad se puede contrastar
con los graficos QQ de probabilidad normal, además, la prueba Shapiro-Wilk y la prueba
Jarque-Bera son útiles para probar formalmente la normalidad de las innovaciones.
El supuesto de que las innovaciones están independiente e idénticamente distribuidas se
comprueba examinando su función de autocorrelación simple (acf) muestral, en este
caso es útil el estadístico de Portmanteau (conocido como estadístico de Box-Pierce y,
en una versión modificada, el estadístico de Ljung-Box) que se define como
∑
̂
, donde ̂
estandarizados y
es la autocorrelación del retardo
de los residuos
representa el número de valores de la serie y
el número de
parámetros estimados. Además se puede demostrar que el estadístico de prueba
presenta una distribución
con
grados de libertad, donde
indica que el modelo
se ha especificado correctamente. Este resultado se basa en el hecho de que las
autocorrelaciones muestrales de los retardos distintos de cero, de una secuencia
independiente e idénticamente distribuida, son aproximadamente independientes y
normalmente distribuidos con media cero y varianza
, resultado que se mantiene para
las autocorrelaciones muestrales de los residuos estandarizados, si los datos son
realmente generados por un modelo
con las mismas ordenes que las del modelo
ajustado.
Otro test para la detección de estructuras no lineales es el Test de Keenan (1985) el cual
es similar al test de Tukey (1949) de no aditividad con un grado de libertad, la prueba de
Keenan está justificada por la aproximación de la expansión de Volterra (Wiener 1958) de
una serie estacionaria de segundo orden (Cryer y Chan, 2008)
∑
Con el estadístico: ̂
donde
cuadrado ajustados y
∑
√∑
∑
̂ , RSS representan los residuos al
es el coeficiente de regresión. Bajo la hipótesis nula de
linealidad, el estadístico de prueba se distribuye, aproximadamente, con distribución F
con
y
grados de libertad.
Capítulo 3: Modelos heterocedásticos condicionales
45
Para los residuos estandarizados absolutos se utiliza el estadístico de prueba de
Portmanteau generalizado:
∑∑
Los
̂
dependen del número de retardos
̂
y son específicos para el verdadero modelo
subyacente, por tanto se deben estimar a partir de los datos. Para los residuos al
cuadrado
toma valores diferentes, los ̂
y ̂
representan las estimaciones de las
autocorrelaciones y de los residuales estandarizados absolutos .
El modelo estudia el cumplimiento de las condiciones para lo no negatividad de las
varianzas condicionales puesto que esto genera que los parámetros del modelo
presenten la restricción de no negatividad, sin embargo esta restricción no implica que se
deba cumplir la no negatividad de las varianzas condicionales. Considerando el caso de
un modelo
, la varianza condicional viene dada por:
|
Suponiendo
retornos consecutivos pueden tomar cualquier conjunto arbitrario de
valores dentro de los números reales. Si uno de los
lleva a que
|
puede ser negativa si
es negativo, por ejemplo
,
es suficientemente grande y el otro
suficientemente cercano a cero, de donde resulta evidente que todo
es
deben ser no
negativos para que las varianzas condicionales sean no negativas. Al igual, si se permite
que los retornos estén cercanos a cero,
debe ser no negativo para que la varianza
condicional no pueda ser negativa.
Para el caso de un modelo
un modelo
modelo
se estudia expresando el modelo
de orden infinito. La varianza condicional del proceso {
como
|
} es un
, donde los retornos al cuadrado cumplen el papel del proceso de
ruido. Un modelo
se puede expresar como un modelo
se asume que las raíces de
que 1, las varianzas condicionales satisfacen:
|
, por lo cual si
tienen una magnitud mayor
46
Series temporales: Modelos heterocedásticos condicionales. Una aplicación
usando R.
donde
[
∑
]
donde las varianzas condicionales son no negativas si y solo si
los enteros
. Los coeficientes del
y
para todos
se refieren a los parámetros del modelo
a través de la igualdad:
Si
entonces se puede comprobar que
para todo
si y solo si
para
y
, de donde
. Para las modelos
de orden
superior véase el capítulo doce al capítulo de Time Series Análisis de Cryer y Chan.
3.3 Extensiones del modelo
En algunos casos se pueden usar un modelo que mejore el modelo
, esto es que
compile de forma más exacta las características y la dinámica de una serie temporal, en
ese caso se utiliza lo que se conoce como extensiones del modelo
El supuesto del modelo
.
de media condicional cero no siempre se cumple en las
series de tiempo, normalmente se utiliza una modelización de un
ruido blanco, con algún modelo
cualquiera con
Representado una serie de tiempo
se tendría:
]
|
|
Las partes
los órdenes
órdenes
, incluido el
|
|
del modelo se muestran después del signo más (+). La identificación de
se realiza sobre la base de la serie temporal, mientras que los
se identifican con los residuos al cuadrado del modelo
La estimación de máxima verosimilitud para el modelo completo (
ajustado.
+
realiza maximizando la función de probabilidad establecida en la ecuación
reemplazando en la notación
por
) se
,
. La independencia de los estimadores de máxima
Capítulo 3: Modelos heterocedásticos condicionales
47
verosimilitud de los parámetros
se
y
se cumple si las innovaciones
distribuyen simétricamente y sus errores estándar vienen dados por el modelo
puro, de igual manera se cumple para los estimadores de los parámetros
sus resultados presentan una distribución similar a la del modelo
donde
puro, sin
embargo, si las innovaciones presentan distribución asimétrica indica que los
estimadores
y
están correlacionados.
Otra generalización del modelo
se da cuando el proceso de volatilidad no es
lineal, esto se puede modelar con los llamados modelos de una variante
(umbral
desconocido y distinto de cero) (Zarraga, 2011), esto es una configuración de un modelo
con modelación de asimetría según la siguiente especificación:
|
Existen otras extensiones del modelo
que estudian el llamado “efecto
apalancamiento” efecto que consiste en incorporar al modelo el impacto asimétrico de la
información externa sobre la serie temporal, tomando la información externa como
innovaciones, se puede decir que existen innovaciones positivas e innovaciones
negativas, las extensiones que estudian esto se conocen como
,y
.
Modelo
este modelo fue propuesto por Nelson (1991) y se conoce como el
modelo
(García Centeno & Ibar Alonso, 2008), el log de su varianza
condicional viene dado por la ecuación:
∑
|
Modelo
|
|
∑
|
, este modelo fue propuesto por Ding, Granger y Engle (1993) y se
conoce como modelo
, su varianza condicional viene dada por al
ecuación:
|
Donde
∑
|
|
es un exponente positivo y
apalancamiento
∑
|
representa los coeficientes del efecto
48
Series temporales: Modelos heterocedásticos condicionales. Una aplicación
usando R.
3.4 Test de Heterocedasticidad Condicional
La detección de la heterocedasticidad condicional se realiza utilizando el análisis gráfico
y unos contrastes formales, en series de tiempo los principales test destinados a esto
son:
3.4.1 Multiplicador de Lagrange
Este contraste fue propuesto por Engle (1982) y busca detectar modelos
(aunque
Lee en 1991 demostró que este contraste es el mismo para procesos
) y
viene dado por
donde
representa el tamaño muestral y
es el coeficiente de
determinación del cuadrado de las observaciones, para el caso de los retornos,
. Se contrasta
vs
, el estadístico
se distribuye asintóticamente como una variable
con
grados de libertad (Carnero
Fernandez, 2003).
3.4.2 Contraste de Portmanteau
Este test fue enunciado previamente en la sección 3.2, propuesto por McLeod y Li (1983)
̂
∑
basado en el estadístico
, se busca contrastar la hipótesis nula
, se distribuye con una
con
grados de libertad.
3.4.3 Contrastes Robustos
Van Dijk (1999) propusieron un contraste robusto que logra diferenciar entre efectos
verdaderos y los espurios que son causados por la presencia de rachas atípicas,
cuestión que el contraste de los multiplicadores de Lagrange no lograba solucionar.
El estadístico usado es el mismo que el contraste de los multiplicadores de Lagrange,
, pero
representa el coeficiente de determinación de la regresión
una constante y
y donde
(
Siendo
y
| |
)
constantes de ajuste,
la función signo y
sobre
viene dada por:
| |
(
y
| |
)
| |
,
es un polinomio de orden 5 que hace que
es
sea dos veces
Capítulo 3: Modelos heterocedásticos condicionales
continuamente diferenciable y
estimador robusto de escala
vendría dada por:
|
la función definida en
|
donde
que viene dada por
y
es un
.
la distancia de Mahalanobis
es una medida robusta de localización de
(Carnero Fernandez, 2003).
, donde
, en este caso el MAD (Mediana de las observaciones
absolutas con respecto a la mediana) y
Siendo
49
la mediana y
.
4. Capítulo 4: Aplicación usando el Software R
4.1 Consideraciones iniciales para la construcción del
modelo en R
Los datos a trabajar corresponden a los a los valores que tomó la acción del Banco de
Bogotá a precio de cierre en la Bolsa de Valores de Colombia. Los datos pertenecen al
periodo comprendido entre 16 de enero de 2012 al 17 de enero de 2014, aunque la Bolsa
de Valores de Colombia no opera fines de semana se supone que la distancia entre los
diferentes datos es la misma, es decir se consideran datos de días seguidos.
El Banco de Bogotá es uno de los Bancos más tradicionales de Colombia con sedes de
operación en casi todos los municipios del país, presta servicios de ahorro y crédito y es
un fuerte participante del mercado público de valores.
Para trabajar series de tiempo en R se pueden instalar los siguientes paquetes: ‘forecast’,
‘lmtest’; ‘timsac’; ‘tseries’; TSA’.
Para iniciar el estudio de la serie se procede a ejecutar la lectura de los datos y realizar
la gráfica respectiva utilizando el software R
50000 55000 60000 65000 70000
Precio de cierre de la Acción
Precio de cierre de la acción de Banco de Bogotá
0
100
200
300
400
500
Tiempo en días
16 de Enero de 2012 al 17 de Enero de 2014
Figura 4.1. Precio de Cierre de la acción Banco de Bogotá desde el 16/01/2012 hasta 17/01/2014
52
Series temporales: Modelos heterocedásticos condicionales. Una aplicación
usando R.
Se observa en la figura 4.1, como varían los precios de las acciones del Banco de Bogotá
a lo largo del tiempo. Se evidencian algunos picos altos y algunos picos bajos que
corresponden a alzas y caídas en el valor de dichas acciones.
Es necesario comprender que los retornos (rendimientos) de los precios tienen
propiedades estadísticas que facilitan el trabajo analítico. Por tanto, en lugar de trabajar
con los precios directamente, se recomienda trabajar con los retornos de estos1.
Se procede a calcular el valor de los retornos y realizar su grafica respectiva en R:
De donde se obtiene la figura siguiente:
0
-5
Rendimientos
5
Rendimientos Diarios Banco de Bogotá 2012-2014
0
100
200
300
400
500
Tiempo
Figura 4.2 retornos Banco de Bogotá
La figura 4.1 muestra que la serie de tiempo de los precios de cierre de las acciones del
Banco de Bogotá presenta un comportamiento con tendencia creciente, donde después
del dato 400 la volatilidad se incrementa, también se debe resaltar el dato 135 que es
bastante atípico en la serie. La figura 4.2 permite ver que los retornos de la serie se
comportan de forma volátil, incrementándose la variabilidad sobre el final de la serie.
1
Se trabaja con la diferencia de los
Capítulo 4: Una aplicación usando R
53
En la figura 4.2 se observa que esta serie presenta los hechos estilizados
frecuentemente vistos en las series financieras: períodos de alta y baja volatilidad, saltos
de precios discontinuos.
Se obtiene la función de autocorrelación (ACF) y la función de autocorrelación parcial
(PACF) en R, los cuales son una buena ayuda gráfica para detectar si hay correlación
serial entre los retornos, y también si hay independencia entre ellos.
-0.15
-0.05
ACF
0.05
0.15
ACF para Rendimientos
0
5
10
15
20
25
20
25
Rezagos
Figura 4.3 ACF retornos Banco Bogotá
-0.05 0.00
-0.15
PACF
0.05
0.10
PACF para Rendimientos
0
5
10
15
Rezagos
Figura 4.4 PACF retornos Banco de Bogotá
Las figuras 4.3 y 4.4, de ACF y PACF, tienen su primer retardo fuera del intervalo de
confianza, además los correlogramas ACF y PACF decrecen sinusoidalmente, por lo cual
54
Series temporales: Modelos heterocedásticos condicionales. Una aplicación
usando R.
se puede pensar que es un modelo
o
, es de tener presente que el retardo
17 en los dos correlogramas está por fuera del intervalo de confianza.
Construcción y Estimación del Modelo:
Ahora interesa construir un modelo de series de tiempo capaz de explicar las
características de la serie. Estas características, como se dijo anteriormente,
corresponden a las de una serie financiera: elevado exceso de curtosis, saltos de precios
discontinuos, períodos de alta y baja volatilidad.
Modelo para la media
El primer paso en esta labor, es construir un modelo para la media, el cual tenga la
capacidad de eliminar toda la dependencia lineal entre los retornos.
Como se vio anteriormente, las correlaciones seriales entre los retornos son muy débiles,
por esto, se presume que un modelo muy simple es suficiente para explicar el
comportamiento medio de los retornos.
Para identificar el modelo para la media, haremos uso de la EACF,
Figura 4.5 EACF retornos Banco de Bogotá
La figura 4.5 indica que el modelo sugerido para la media es el
Capítulo 4: Una aplicación usando R
55
Se calcula el modelo
Resumiendo el proceso de estimación:
Parámetro
Estimación
Error Estándar
Valor-p
Tetha1
-0.1888
0.0460
4.055427e-05
Intercepto
7e-04
4e-04
1.038091e-01
El modelo se encuentra sobre especificado ya que el valor del intercepto no es
significativo dado su
por tanto se estima nuevamente el modelo
seleccionado eliminando este parámetro. Es de resaltar que esta decisión se toma con
una confianza del 95%
Resumiendo el proceso de estimación:
Parámetro
Estimación
Error Estándar
Valor-p
Tetha1
-0.1822
0.0457
6.68034e-05
De esta forma, un posible modelo econométrico para la media de los retornos sería
modelo
, tomando la ecuación
a saber
y al ser el
coeficiente negativo, quedaría de la siguiente forma:
Se proceden a obtener los residuos de este modelo, estandarizándolos y calculando los
gráficos ACF Y PACF, se tiene:
56
Series temporales: Modelos heterocedásticos condicionales. Una aplicación
usando R.
-0.05
ACF
ACF Residuales Estandarizados
0
5
10
15
20
25
20
25
Rezagos
0.15
-0.05
Partial ACF
PACF Residuales Estandarizados
0
5
10
15
Rezagos
Figura 4.6 ACF y PACF residuos MA(1)
En la figura 4.6 se observa que los correlogramas ACF y PACF del modelo
no
muestran correlaciones importantes, por tanto se puede pensar que es ruido blanco, lo
anterior se comprueba con el test de Ljung-Box que presenta un
mayor que
5%, con lo cual se puede aceptar que se trata de ruido blanco, como se puede ver a
continuación:
Es decir:
VS
y como
Resultado test Ljung-Box
Estadístico
df
Valor-p
39.5876
30
0.1131
Siendo el criterio de rechazo que
,
.
Para comprobar la normalidad de los datos se realiza el test de Shapiro Wilk, de donde
se tiene.
Capítulo 4: Una aplicación usando R
57
Shapiro-Wilk normality test
data: resid
W = 0.872, p-value < 2.2e-16
Los residuales del modelo no vienen de una distribución normal, el modelo se ajusta bien
a los datos, sin embargo se debe tener en cuenta que la distribución tiene colas por fuera
de la distribución normal. En este punto se transformaron los datos de la serie mediante
una transformación
de precios, obteniendo un
de 2.2E-16, es decir,
tampoco se cumple el supuesto de normalidad, es de considerar que en los modelos
, comúnmente se emplean tres distribuciones de probabilidad sobre la distribución
del error: la distribución Normal; la distribución t-student, o, la distribución generalizada
del error GED (Montenegro, 2010), en este trabajo se asumirá una distribución t-student.
Se realiza la prueba de Dickey. Fuller Aumentada (ADF) para descartar la
estacionariedad de la serie, en R se tiene:
Augmented Dickey-Fuller Test
data: resid
Dickey-Fuller = -8.453, Lag order = 7, p-value = 0.01
alternative hypothesis: stationary
El test ADF indica que se debe rechazar la hipótesis nula de que la serie no sea
estacionaria.
Sabiendo ya que los residuos del modelo
son ruido blanco (figura 4.6) se grafican
los correlogramas ACF y PACF de los residuales al cuadrado y se realiza el test de
Ljung-Box:
Box-Ljung test
data: resid^2
X-squared = 87.1323, df = 30, p-value = 1.775e-07
58
Series temporales: Modelos heterocedásticos condicionales. Una aplicación
usando R.
-0.1 0.2
ACF
ACF Residuales Estandarizados Cuadrados
0
5
10
15
20
25
Rezagos
0.3
-0.1
Partial ACF
PACF Residuales Estandarizados Cuadrados
0
5
10
15
20
25
Rezagos
Figura 4.7 ACF y PACF de los residuos al cuadrado
Se puede observar en la figura 4.7 que los residuos al cuadrado del modelo
no
son ruido blanco, como confirmación de lo anterior el test de Ljung-Box tiene un
menor que 5% con lo cual se rechaza que se trata de ruido blanco, además se
observa que para el retardo 1 los coeficientes, en la ACF y en la PACF, son significativos;
se hace necesario aplicar un modelo heterocedástico
, lo cual se realiza en la
siguiente sección.
4.2 Estimación del Modelo
Para la estimación de los parámetros del modelo
se utilizara la librería
rugarch2, y para identificar los parámetros del modelo para la varianza, haremos uso de
la EACF de los residuos al cuadrado:
2
Para el estudio de esta librería véase:
http://cran.r-project.org/web/packages/rugarch/vignettes/Introduction_to_the_rugarch_package.pdf
Capítulo 4: Una aplicación usando R
59
Figura 4.8 EACF residuos al cuadrado del modelo para la media
De la figura 4.8, se observa que el modelo sugerido para la varianza es el
, de la
forma:

donde
;
Se realiza la estimación conjunta de las ecuaciones de media y varianza, de donde se
obtiene:
Parámetro
Estimación
Valor p
ma1
-0.139293
0.004115
omega
0.000099
0.002696
alpha
0.999000
0.003975
Se puede observar que todos los parámetros del modelo son significativos, de esta forma
un posible modelo econométrico para la varianza de los retornos seria de la siguiente
forma:
60
Series temporales: Modelos heterocedásticos condicionales. Una aplicación
usando R.
Validación del Modelo:
Con el fin de validar el modelo
los modelos
y
, se estudia la significación de los parámetros en
.
Se realiza la estimación conjunta de las ecuaciones de media y varianza, de donde se
obtiene:
Parámetro
Estimación
Valor p
ma1
-0.131156
0.007808
omega
0.000100
0.004848
alpha1
0.986985
0.003654
alpha2
0.012015
0.891953
Se puede observar que el nuevo parámetro incluido en el modelo no es significativo.
Se realiza la estimación conjunta de las ecuaciones de media y varianza, de donde se
obtiene:
Parámetro
Estimación
Valor p
ma1
-0.129293
0.011088
omega
0.000094
0.012543
alpha1
0.978297
0.003596
beta1
0.020703
0.853733
Se puede observar que el nuevo parámetro incluido en el modelo no es significativo.
Capítulo 4: Una aplicación usando R
61
Los resultados anteriores permiten corroborar que el mejor modelo sigue siendo el
.
Correlación Serial:
Para probar la hipótesis de no correlación entre los retornos, se usa el test de Ljung y
Box sobre los residuos estandarizados. La prueba muestra si las primeras
autocorrelaciones son iguales a cero, es decir, si los retornos no están correlacionados
con sus últimas
realizaciones. Esta prueba es hecha para varios valores de
respectivo es mayor que el nivel de significancia
las primeras
, entonces se concluye que
correlaciones son iguales a cero. Esta prueba es hecha de manera
conjunta. Además se realizan las gráficas ACF y PACF de los residuos.
Los resultados para este modelo son:
Retardo
Estadístico
Valor P
10
0.4478
0.5034
15
1.2151
0.2703
20
3.2010
0.6690
0.05
-0.05
ACF
0.15
Series res_est
0
5
10
15
20
25
20
25
Lag
0.05
-0.05
Partial ACF
0.15
Series res_est
0
. Si el
5
10
15
Lag
Figura 4.9 ACF y PACF de los residuos del modelo- Correlación serial
62
Series temporales: Modelos heterocedásticos condicionales. Una aplicación
usando R.
De esta manera, el modelo es adecuado porque elimina la correlación serial entre los
retornos.
Heteroscedasticidad Condicional:
Para probar la hipótesis de no existencia de heteroscedasticidad condicional, se usa el
test de Ljung y Box sobre los residuales estandarizados al cuadrado. La prueba es hecha
para varios retardos
. La prueba también es conjunta y tiene un nivel de significancia
dado (en este caso igual a 0.05). Además se realizan las gráficas ACF y PACF de los
residuos al cuadrado.
Los resultados para este modelo son:
Retardo
Estadístico
Valor P
10
0.1669
0.6829
15
0.3346
0.5630
20
2.3999
0.7915
-0.05
ACF
0.05
Series res_est^2
0
5
10
15
20
25
20
25
Lag
0.05
-0.05
Partial ACF
Series res_est^2
0
5
10
15
Lag
Figura 4.10 ACF y PACF de los residuos al cuadrado - Heterocedasticidad condicional
De esta manera, el modelo de volatilidad es adecuado porque elimina la
heteroscedasticidad condicional en la serie de retornos.
Capítulo 4: Una aplicación usando R
63
Distribución t de Student Simétrica:
Esta es la distribución que se especificó en el modelo que finalmente fue estimado.
Haciendo un gráfico de probabilidad donde se comparan los cuantiles teóricos de la
0.02
0.00
-0.06
-0.04
-0.02
sort(residuo)
0.04
0.06
distribución con los cuantiles muestrales, se tiene:
-20
-10
0
10
20
qt(ppoints(residuo), 2)
Figura 4.11 Grafico QQ de Normalidad residual ajustada con la distribución t student
En la figura 4.11 se puede observar que las observaciones no están demasiado alejadas
de la recta diagonal. Por tanto esta distribución parece ser la adecuada para modelar el
comportamiento de las innovaciones de la serie.
4.3 Conclusión
El modelo escogido para la diferencia del logaritmo de los retornos del precio la acción
del Banco de Bogotá a precio de cierre en la Bolsa de Valores de Colombia es un
-
, de donde, como modelo en la media fue el modelo
como modelo en varianza fue el modelo
Sobre la utilidad
sin intercepto; y
.
e importancia de este modelo es necesario tener en cuenta que
depende del agente económico interesado en usarlo, por un lado estos modelos no son
una herramienta útil para la medición del riesgo en el sector real, ya que no se pueden
pronosticar suficientes datos para llevar a cabo una predicción que proporcione
información relevante para gestionar de manera efectiva el riesgo al que el sector privado
64
Series temporales: Modelos heterocedásticos condicionales. Una aplicación
usando R.
está expuesto (Montenegro, 2010); sin embargo, para el caso particular del modelo
obtenido
es un modelo útil en el corto plazo, pues existen algunas áreas
financieras donde la medición del riesgo debe incorporar información reciente, siendo un
modelo con la capacidad de realizar estimaciones muy acertadas sobre la variabilidad
observada en los
del precio de la acción del Banco de Bogotá para el
periodo estudiado. El resultado obtenido es el más adecuado a la estructura de la serie
financiera en consideración.
Bibliografía
Alonso J.C, Semaán, P. (Marzo 2010). Calculo del VAR con volatilidad no constante en
R. Cali: Universidad ICESI.
Arce, Rafael de y LL Klein. (Diciembre de 1998). Universidad Autonoma de Madrid.
Obtenido de Introducción a los modelos autorregresivos con heterocedasticidad
condicional: http://www.uam.es/otroscentros/klein/doctras/doctra9806.pdf
Cabrer, B. (2004). Universidad de Valencia- Econometria Empresarial II. Recuperado el
17 de Febrero de 2014, de http://www.uv.es/:
http://www.uv.es/~cabrer/Espanyol/material/Tema8/Tema8.pdf
Carnero Fernandez, M. A. (2003). Heterocedasticiad Condicional, Atipicos y Cambios de
Nivel en Series Temporales Financieras. Getafe: Universidad Carlos III de Madrid.
Casas Monsegny, M. (2008). Cuadernos de Economia V, XXVII,. En Modelos ARCH,
GARCH y EGARCH: Aplicaciones a Series Financieras (págs. 287-319). Bogotá.
Contreras, J. (2007). Universidad de Castilla La Mancha. Recuperado el 15 de Marzo de
2014, de Modelos de Heterocedasticidad Condicional Predicción en sistemas de
energía eléctrica: http://www.uclm.es/area/gsee/aie/doctorado/Javier/tema7.pdf
Cryer y Chan, J. (2008). Time Series Analysis With Applications in R. New York: Springer
Science + Business Media LLC.
García Centeno, M. C., & Ibar Alonso, R. (2008). www.uv.es. Obtenido de Estimación de
modelos de volatilidad estocástica. Departamento Métodos Cuantitativos para la
Economía.Facultad de Ciencias Económicas y Empresariales.Universidad San
Pablo-CEU.: http://www.uv.es/asepuma/XI/28.pdf
Gea, J. y Uriel. E. (1986). Identificación automatica mediante la función de
autocorrelación extendida . Valencia: Universidad Literaria de Valencia.Obtenido
de http://www.uv.es/uriel/publicaciones/EU392.pdf
González Casimiro, M. P. (2009). Análisis de Series temporales: Modelos ARIMA .
Universidad del País Vasco, Sarriko. Obtenido de http://www.sarrikoonline.com/cas/fichas/2009/04-09.pdf
Gujarati, D. N. (2004). Econometria. México DF: McGraw-Hill Interamericana.
66
Series temporales: Modelos heterocedásticos condicionales. Una aplicación
usando R.
Montenegro, R. (2010). Medición de la volatilidad en series de tiempo financieras.
Finanzas y Política Económica. Universidad Catolica de Colombia, 125-132.
Mauricio, J. A. (2007). Introducción al analisis de series Temporales. Madrid: Universidad
Complutense de Madrid. Obtenido de https://www.ucm.es/data/cont/docs/5182013-11-11-JAM-IAST-Libro.pdf
Morales, C. A., Urrego, J., Perdomo, J. A., & Rosales, R. (2013). Fundamentos de
Econometria Intermedia. Bogotá: Ediciones Uniandes.
Novales, A. y Gracia Diez, M (1993). Guía para la estimación de modelos ARCH. Madrid:
Universidad Complutense de Madrid.
Rodriguez Hernández, J.A. (Mayo de 2001). Una introducción a los modelos de series
temporales no lineales. Madrid: Universidad del Rey Juan Carlos.Obtenido de
http://www.jgabriel.net/mnolineales_wp1.pdf
Villavicencio, J. (2014). Instituto de Estadísticas de Puerto Rico. Introducción a Series de
Tiempo. Obtenido de
http://www.estadisticas.gobierno.pr/iepr/LinkClick.aspx?fileticket=4_BxecUaZmg%
3D&tabid=100
Zarraga, A. (2011). Universidad Complutense de Madrid. Obtenido de Modelos de
Heterocedasticidad Condicionada:
http://pendientedemigracion.ucm.es/info/ecocuan/anc/ectriaqf/ARCH%20Ainhoa.p
df
Zea Castro, J. F. (2012). Usos de modelos de volatilidad estocástica para valoración de
riesgo cambiario. Bogotá D.C: Comunicaciones en Estadística Universidad Santo
Tomas. Obtenido de
revistas.usta.edu.co/index.php/estadistica/article/download/153/132
Bibliografía y Anexos
ANEXO 1: Código R
#Librerías
library(lmtest)
library(forecast)
library(TSA)
library(timsac)
library(tseries)
#Lectura y definicion de datos
BancoBogota<-read.table(file.choose(),header=F)
BancoBogota<-ts(BancoBogota, frequency=1)
BancoBogota <-ts(BancoBogota,frequency=1)
BancoBogota
#Gráfico para la serie de precios
plot(BancoBogota,type='l',xlab='Tiempo en días',ylab='Precio de cierre de la
Acción',col='red',main='Precio de cierre de la acción de Banco de Bogotá', sub='16 de
Enero de 2012 al 17 de Enero de 2014')
#Definición de retorno
r.BancoBogota<-diff(log(BancoBogota))
#Gráfico de la serie de retornos
ts.plot(r.BancoBogota,main='Rendimientos Diarios Banco de Bogotá 20122014',ylab='Rendimientos',xlab='Tiempo')
#ACF rendimientos
acf(r.BancoBogota,xlab='Retardos',ylab='ACF',main='ACF para Rendimientos')
acf(r.BancoBogota^2,xlab='Retardos',ylab='ACF',main='ACF para Rendimientos al
Cuadrado')
67
68
Series temporales: Modelos heterocedásticos condicionales. Una aplicación
usando R.
acf(abs(r.BancoBogota))
pacf(r.BancoBogota,xlab='Retardos',ylab='PACF',main='PACF para Rendimientos')
pacf(r.BancoBogota^2,xlab='Retardos',ylab='PACF',main='PACF para Rendimientos')
#Dickey. Fuller Aumentada Test
adf.test(resid)
## escogiendo el modelo, aunque también se podría utilizar
eacf(r.BancoBogota)
ajuste=auto.arima(r.BancoBogota)
###especificando el modelo de media
#Estimación modelo de media
(modelo_M1=arima(r.BancoBogota, c(1, 0, 1), method = c("ML")))
(modelo_M2=arima(r.BancoBogota, c(0, 0, 1), method = c("ML")))
(modelo_M0=arima(r.BancoBogota, c(1, 0, 0), method = c("ML")))
(modelo_M3=arima(r.BancoBogota, c(0, 0, 0), method = c("ML")))
(modelo_M4=arima(r.BancoBogota, c(0, 0, 1), ,include.mean=FALSE,method = c("ML")))
summary(modelo_M2)
est=cbind(Estimacion=modelo_M4$coef, s.e=sqrt(diag(modelo_M4$var.coef)))
z0=est[,1]/est[,2]
vp=pnorm(abs(z0),lower.tail=FALSE)+pnorm(-abs(z0))
##residuos del modelo
resid<-residuals(modelo_M4)
par(mfrow=c(2,1))
acf(resid,main='ACF Residuales Estandarizados',xlab='Retardos')
pacf(resid,main='PACF Residuales Estandarizados',xlab='Retardos')
par(mfrow=c(2,1))
acf(resid^2,main='ACF Residuales Estandarizados Cuadrados',xlab='Retardos')
pacf(resid^2,main='PACF Residuales Estandarizados Cuadrados',xlab='Retardos')
##supuestos del error
Box.test(resid,30,type="Ljung")
Box.test(resid^2,30,type="Ljung")
shapiro.test(resid)
qqnorm(resid);qqline(resid)
plot(qt(ppoints(resid),2),sort(resid))
qqt2linea(resid)
Bibliografía y Anexos
69
#Especificación de modelo (sin tener en cuenta heteroscedasticidad)
library(rugarch)
eacf(resid^2)
##este es el modelo escogido ARCH(1)
modelo<-ugarchspec(variance.model=list(model='sGARCH',garchOrder=c(1,0)),
mean.model=list(armaOrder=c(0,1),include.mean = FALSE, arfima = F),distribution.model
= "std")
reta=as.vector(r.BancoBogota)
(fit1=ugarchfit(modelo, reta ,out.sample=20))
plot(fit1)
residuo<-residuals(fit1)
#par(mfrow=c(2,1))
#acf(residuo,main='ACF Residuales Estandarizados',xlab='Retardos')
#acf(residuo^2,main='ACF Residuales Estandarizados Cuadrados',xlab='Retardos')
#par(mfrow=c(2,1))
#pacf(residuo,main='PACF Residuales Estandarizados',xlab='Retardos')
#pacf(residuo^2,main='PACF Residuales Estandarizados Cuadrados',xlab='Retardos')
##supuestos del error
#Box.test(residuo,30,type="Ljung")
#Box.test(residuo^2,30,type="Ljung")
shapiro.test(residuo)
qqnorm(residuo);qqline(residuo)
plot(qt(ppoints(residuo),2),sort(residuo))
qqt2linea(residuo)
Box.test(residuo^2,30,type="Ljung")
##funcion para la construccion del grafico de cuantil
de la distribucion t
70
Series temporales: Modelos heterocedásticos condicionales. Una aplicación
usando R.
qqt2linea <-function (y, ...)
{
y <- quantile(y[!is.na(y)], c(0.25, 0.75))
x <- qt(c(0.25, 0.75),2)
slope <- diff(y)/diff(x)
int <- y[1] - slope * x[1]
abline(int, slope, ...)
}
plot((fitted(fit1))^2,type='l')
coefic=coef(object=fit1)
fit1_series=as.data.frame(fit1)
res_est=as.ts(fit1_series[,3]/fit1_series[,4])
par(mfrow=c(2,1))
acf(res_est)
acf(res_est^2)
Bibliografía y Anexos
71
ANEXO 2: Datos Cotización Banco de Bogotá3
Fecha
3
Cotización
16/01/2012
49400
17/01/2012
49400
18/01/2012
49140
19/01/2012
48300
20/01/2012
48320
23/01/2012
48200
24/01/2012
48500
25/01/2012
48480
26/01/2012
48040
27/01/2012
48380
30/01/2012
48980
31/01/2012
48960
01/02/2012
48000
02/02/2012
48000
03/02/2012
49000
06/02/2012
49000
07/02/2012
48980
08/02/2012
49000
09/02/2012
48900
10/02/2012
48900
13/02/2012
49100
14/02/2012
49860
15/02/2012
50280
Banco de Bogotá: Precio de Cierre. Fuente: Bolsa de Valores de Colombia (BVC).
72
Series temporales: Modelos heterocedásticos condicionales. Una aplicación
usando R.
16/02/2012
51500
17/02/2012
52060
20/02/2012
51500
21/02/2012
51000
22/02/2012
50980
23/02/2012
50860
24/02/2012
50500
27/02/2012
50000
28/02/2012
50400
29/02/2012
50500
01/03/2012
50020
02/03/2012
50680
05/03/2012
50500
06/03/2012
49900
07/03/2012
50400
08/03/2012
51000
09/03/2012
50700
12/03/2012
50200
13/03/2012
50880
14/03/2012
51400
15/03/2012
51400
16/03/2012
51700
20/03/2012
51400
21/03/2012
51500
22/03/2012
51000
23/03/2012
51000
26/03/2012
51000
27/03/2012
50800
28/03/2012
50400
29/03/2012
50100
30/03/2012
49800
02/04/2012
50380
03/04/2012
51000
04/04/2012
51000
09/04/2012
51000
10/04/2012
50200
11/04/2012
50700
Bibliografía y Anexos
73
12/04/2012
50600
13/04/2012
50700
16/04/2012
50300
17/04/2012
50400
18/04/2012
50200
19/04/2012
50300
20/04/2012
50580
23/04/2012
50160
24/04/2012
50300
25/04/2012
50200
26/04/2012
50000
27/04/2012
50080
30/04/2012
50100
02/05/2012
51000
03/05/2012
51480
04/05/2012
51240
07/05/2012
51100
08/05/2012
51000
09/05/2012
51020
10/05/2012
51580
11/05/2012
51620
14/05/2012
51780
15/05/2012
51300
16/05/2012
51500
17/05/2012
51000
18/05/2012
51000
22/05/2012
51000
23/05/2012
51000
24/05/2012
50820
25/05/2012
50800
28/05/2012
50620
29/05/2012
50520
30/05/2012
50600
31/05/2012
50340
01/06/2012
50340
04/06/2012
50040
05/06/2012
50000
06/06/2012
50340
74
Series temporales: Modelos heterocedásticos condicionales. Una aplicación
usando R.
07/06/2012
50500
08/06/2012
50300
12/06/2012
50000
13/06/2012
49900
14/06/2012
50000
15/06/2012
50060
19/06/2012
50160
20/06/2012
50020
21/06/2012
50000
22/06/2012
50460
25/06/2012
49700
26/06/2012
49800
27/06/2012
49900
28/06/2012
50100
29/06/2012
50300
03/07/2012
50000
04/07/2012
50000
05/07/2012
50340
06/07/2012
50000
09/07/2012
50000
10/07/2012
50000
11/07/2012
50000
12/07/2012
49700
13/07/2012
50000
16/07/2012
49700
17/07/2012
50000
18/07/2012
50500
19/07/2012
50500
23/07/2012
50700
24/07/2012
51300
25/07/2012
50280
26/07/2012
50780
27/07/2012
51300
30/07/2012
50800
31/07/2012
50500
01/08/2012
50020
02/08/2012
50680
Bibliografía y Anexos
75
03/08/2012
50240
06/08/2012
50020
08/08/2012
50600
09/08/2012
50000
10/08/2012
50580
13/08/2012
50000
14/08/2012
49880
15/08/2012
49880
16/08/2012
49780
17/08/2012
50000
21/08/2012
53800
22/08/2012
50000
23/08/2012
49500
24/08/2012
49140
27/08/2012
49700
28/08/2012
49980
29/08/2012
50000
30/08/2012
49980
31/08/2012
49960
03/09/2012
49800
04/09/2012
49500
05/09/2012
49660
06/09/2012
49620
07/09/2012
49640
10/09/2012
49700
11/09/2012
49920
12/09/2012
50000
13/09/2012
50000
14/09/2012
50520
17/09/2012
50500
18/09/2012
50500
19/09/2012
50600
20/09/2012
50460
21/09/2012
50500
24/09/2012
50940
25/09/2012
51040
26/09/2012
51460
27/09/2012
51000
76
Series temporales: Modelos heterocedásticos condicionales. Una aplicación
usando R.
28/09/2012
50720
01/10/2012
50700
02/10/2012
50680
03/10/2012
50700
04/10/2012
50840
05/10/2012
51480
08/10/2012
50700
09/10/2012
50700
10/10/2012
51000
11/10/2012
50760
12/10/2012
51380
16/10/2012
52000
17/10/2012
51800
18/10/2012
52940
19/10/2012
52900
22/10/2012
53000
23/10/2012
53600
24/10/2012
54500
25/10/2012
54200
26/10/2012
54200
29/10/2012
54000
30/10/2012
54000
31/10/2012
54500
01/11/2012
54800
02/11/2012
54080
06/11/2012
53480
07/11/2012
51800
08/11/2012
53000
09/11/2012
52840
13/11/2012
52000
14/11/2012
52780
15/11/2012
54000
16/11/2012
53800
19/11/2012
53800
20/11/2012
53000
21/11/2012
52000
22/11/2012
52400
Bibliografía y Anexos
77
23/11/2012
52300
26/11/2012
52400
27/11/2012
52400
28/11/2012
53000
29/11/2012
53000
30/11/2012
53300
03/12/2012
52980
04/12/2012
52980
05/12/2012
53100
06/12/2012
53480
07/12/2012
53480
10/12/2012
53500
11/12/2012
54000
12/12/2012
54400
13/12/2012
54700
14/12/2012
54500
17/12/2012
54400
18/12/2012
54700
19/12/2012
54740
20/12/2012
54740
21/12/2012
54000
24/12/2012
54500
26/12/2012
54500
27/12/2012
54500
28/12/2012
54500
02/01/2013
54400
03/01/2013
54180
04/01/2013
54480
08/01/2013
54480
09/01/2013
54500
10/01/2013
54440
11/01/2013
54440
14/01/2013
54500
15/01/2013
55260
16/01/2013
55140
17/01/2013
55660
18/01/2013
55720
21/01/2013
55980
78
Series temporales: Modelos heterocedásticos condicionales. Una aplicación
usando R.
22/01/2013
56000
23/01/2013
56000
24/01/2013
56000
25/01/2013
56000
28/01/2013
56000
29/01/2013
56000
30/01/2013
55820
31/01/2013
55820
01/02/2013
56000
04/02/2013
56420
05/02/2013
57940
06/02/2013
57700
07/02/2013
57940
08/02/2013
58000
11/02/2013
58500
12/02/2013
59000
13/02/2013
59420
14/02/2013
59180
15/02/2013
58520
18/02/2013
58040
19/02/2013
58580
20/02/2013
58000
21/02/2013
58000
22/02/2013
58580
25/02/2013
58500
26/02/2013
58500
27/02/2013
58800
28/02/2013
58600
01/03/2013
58600
04/03/2013
58500
05/03/2013
58520
06/03/2013
58040
07/03/2013
58000
08/03/2013
58020
11/03/2013
58380
12/03/2013
58280
13/03/2013
58280
Bibliografía y Anexos
79
14/03/2013
58060
15/03/2013
58100
18/03/2013
58120
19/03/2013
58000
19/03/2013
58500
20/03/2013
58200
21/03/2013
57500
22/03/2013
58000
26/03/2013
58000
27/03/2013
58000
01/04/2013
57720
02/04/2013
57700
03/04/2013
57700
04/04/2013
58000
05/04/2013
57800
08/04/2013
57800
09/04/2013
57800
10/04/2013
57900
11/04/2013
58000
12/04/2013
58220
15/04/2013
58220
15/04/2013
58300
16/04/2013
58500
16/04/2013
58480
17/04/2013
59000
18/04/2013
59000
19/04/2013
58980
22/04/2013
58800
23/04/2013
59000
24/04/2013
59980
25/04/2013
61600
26/04/2013
63000
29/04/2013
63500
30/04/2013
63000
02/05/2013
63300
03/05/2013
64000
06/05/2013
63980
07/05/2013
65000
80
Series temporales: Modelos heterocedásticos condicionales. Una aplicación
usando R.
08/05/2013
66400
09/05/2013
65500
10/05/2013
65400
14/05/2013
65400
15/05/2013
66000
16/05/2013
66200
17/05/2013
66200
20/05/2013
66340
21/05/2013
66500
22/05/2013
65500
23/05/2013
68100
24/05/2013
70000
27/05/2013
70000
28/05/2013
70000
29/05/2013
70000
30/05/2013
70000
31/05/2013
70000
04/06/2013
69980
05/06/2013
69000
06/06/2013
69480
06/06/2013
69000
07/06/2013
67000
11/06/2013
66000
12/06/2013
66000
13/06/2013
66000
14/06/2013
65960
17/06/2013
68800
18/06/2013
69980
19/06/2013
69960
20/06/2013
69760
21/06/2013
69400
24/06/2013
68980
25/06/2013
68880
26/06/2013
69000
27/06/2013
69000
28/06/2013
69000
02/07/2013
69000
Bibliografía y Anexos
81
03/07/2013
69000
04/07/2013
69000
05/07/2013
69000
08/07/2013
67840
09/07/2013
67800
10/07/2013
67800
10/07/2013
67300
11/07/2013
67500
12/07/2013
67480
12/07/2013
67500
15/07/2013
67300
16/07/2013
66600
17/07/2013
66980
18/07/2013
66780
18/07/2013
66960
19/07/2013
66680
22/07/2013
66500
23/07/2013
66300
24/07/2013
68040
25/07/2013
70880
26/07/2013
69760
29/07/2013
70000
30/07/2013
70220
31/07/2013
70980
01/08/2013
70400
02/08/2013
70360
05/08/2013
70400
06/08/2013
70300
08/08/2013
70300
09/08/2013
70480
12/08/2013
70280
13/08/2013
70200
14/08/2013
70200
15/08/2013
70000
16/08/2013
70000
20/08/2013
70100
20/08/2013
69900
21/08/2013
69880
82
Series temporales: Modelos heterocedásticos condicionales. Una aplicación
usando R.
22/08/2013
69880
23/08/2013
69260
26/08/2013
69300
27/08/2013
70000
28/08/2013
69920
29/08/2013
70000
30/08/2013
69980
02/09/2013
69900
03/09/2013
69900
04/09/2013
69000
05/09/2013
69500
06/09/2013
69300
09/09/2013
69400
10/09/2013
69480
11/09/2013
69060
12/09/2013
69480
13/09/2013
69160
13/09/2013
69400
16/09/2013
69060
17/09/2013
69060
18/09/2013
69300
19/09/2013
69860
20/09/2013
72000
23/09/2013
71780
24/09/2013
70720
25/09/2013
69500
26/09/2013
70000
27/09/2013
69940
30/09/2013
67600
01/10/2013
68020
02/10/2013
68020
03/10/2013
68000
04/10/2013
68080
07/10/2013
69000
08/10/2013
69920
09/10/2013
70000
10/10/2013
70000
Bibliografía y Anexos
83
11/10/2013
69940
15/10/2013
69900
16/10/2013
69920
17/10/2013
70000
18/10/2013
69900
21/10/2013
70000
22/10/2013
69200
23/10/2013
69960
24/10/2013
69900
25/10/2013
68600
28/10/2013
69560
29/10/2013
69020
30/10/2013
69000
30/10/2013
68800
31/10/2013
67020
01/11/2013
68520
01/11/2013
68820
05/11/2013
68500
06/11/2013
68480
07/11/2013
66960
08/11/2013
67020
12/11/2013
66100
13/11/2013
66600
14/11/2013
66620
15/11/2013
66400
18/11/2013
67300
19/11/2013
68360
20/11/2013
65000
21/11/2013
67980
22/11/2013
65800
25/11/2013
65120
26/11/2013
65460
26/11/2013
65040
27/11/2013
67840
27/11/2013
65500
28/11/2013
67840
28/11/2013
67840
02/12/2013
66980
84
Series temporales: Modelos heterocedásticos condicionales. Una aplicación
usando R.
02/12/2013
67000
03/12/2013
65100
04/12/2013
65220
05/12/2013
66000
06/12/2013
65740
09/12/2013
64220
10/12/2013
65000
10/12/2013
64900
11/12/2013
67000
12/12/2013
67000
13/12/2013
66800
16/12/2013
65500
17/12/2013
66000
18/12/2013
66040
18/12/2013
66780
19/12/2013
66780
20/12/2013
69000
23/12/2013
68940
24/12/2013
69000
26/12/2013
68900
27/12/2013
69000
30/12/2013
71500
07/01/2014
70000
08/01/2014
68440
09/01/2014
68400
10/01/2014
68400
10/01/2014
68500
13/01/2014
68480
14/01/2014
68440
15/01/2014
68320
16/01/2014
68000
17/01/2014
69000
Descargar