El problema de la valoración de opciones y otros derivados ha

Anuncio
E C O N O M Í A
TESIS de MAGÍSTER
IInstituto
N S T I de
T Economía
U T O
D E
DOCUMENTO
DE TRABAJO
# " I ; 1
www.economia.puc.cl
PONTIFICIA UNIVERSIDAD CATOLICA DE CHILE
INSTITUTO DE ECONOMÍA
EFICIENCIA REAL DEL LSM Y CORRECCIÓN POR
INSTRUMENTOS
FELIPE EDUARDO SAFFIE KATTAN
Tesis para optar al grado de Magíster en Economía
Financiera
Comisión:
AUGUSTO CASTILLO
GONZALO EDWARDS
Santiago de Chile, Diciembre, 2007
© 2007, Felipe Eduardo Saffie Kattan
Índice General
Índice de Tablas
iii
Índice de Figuras
v
Índice de Gráficos
vi
Agradecimientos
vii
Resumen
viii
Abstract
ix
1.- Introducción
1
2.- Revisión de la literatura
2
2.1.- Opciones Financieras
2
2.2.- Modelación Binomial
3
2.3.- Modelo de Black & Scholes
12
2.4.- Resolución por diferencias finitas
15
2.5.- El paso a la simulación
18
2.6.- Barraquand y Martineau
19
3.- El LSM de Longstaff y Schwartz (2001)
23
4.- Estudios acerca del LSM
36
5.- El uso práctico del LSM
39
6.- Eficiencia del uso de parámetros estimados
45
7.- Uso de un activo ficticio como “ancla”
53
8.- Experimentos y eficiencia
66
9.- Conclusiones y extensiones
76
10.- Bibliografía
79
11.- Anexo I: Oportunidades de arbitraje
82
12.- Anexo II: Matriz de varianza y covarianza no estocástica
92
13.- Anexo III: Efecto de la varianza del activo correlacionado
97
ii
Índice de Tablas
Tabla 3-2: Flujo de Caja de la Opción si se Espera hasta el Último
Período
27
Tabla 3-3: Primera Regresión
28
Tabla 3-4: Decisión Óptima en el Segundo Período
28
Tabla 3-5: Matriz de Pagos del Segundo Período
29
Tabla 3-6: Segunda Regresión
29
Tabla 3-7: Regla de Ejercicio Óptimo de la Opción
30
Tabla 3-8: Valor Presente Asociado a las Distintas Trayectorias
30
Tabla 6-1: Características de la Familia de Polinomios de Laguerre
48
Tabla 6-2: Resultados de Stentoft (2004)
49
Tabla 6-3: Aumento de la RECM cuando se Utiliza una Estimación
de la Desviación Estándar
51
Tabla 7-1: Resultados del LSM tradicional de Stentoft (2004)
59
Tabla 7-2: LSM Utilizando el Activo Ficticio como Regresor cuando la
Varianza es Conocida (1)
60
Tabla 7-3: LSM Utilizando el Activo Ficticio como Regresor cuando la
Varianza es Conocida (2)
60
Tabla 7-4: LSM Utilizando el Activo Ficticio como Instrumento
cuando la Varianza es Conocida (1)
61
Tabla 7-5: LSM Utilizando el Activo Ficticio como Instrumento
cuando la Varianza es Conocida (2)
61
Tabla 8-1: LSM Utilizando el Activo Ficticio como Regresor cuando la
Varianza es Desconocida (1)
68
Tabla 8-2: LSM Utilizando el Activo Ficticio como Regresor cuando la
Varianza es Desconocida (2)
68
Tabla 8-3: LSM Utilizando el Activo Ficticio como Instrumento
cuando la Varianza es Desconocida (1)
69
Tabla 8-4: LSM Utilizando el Activo Ficticio como Instrumento
cuando la Varianza es Desconocida (2)
69
iii
Tabla 8-5: LSM Tradicional con Varianza Desconocida
70
Tabla 12-1: LSM con el Activo Ficticio como Regresor con ρ = 0.5 ,
Utilizando σ pero Simulando con ∑ para distintos σ 2 (1)
94
Tabla 12-2: con el Activo Ficticio como Regresor con ρ = 0.5 ,
Utilizando σ pero Simulando con ∑ para distintos σ 2 (2)
94
Tabla 12-3: LSM con el Activo Ficticio como Instrumento, para
Distintos ρ Utilizando ∑ para Simular (1)
95
Tabla 12-4: LSM con el Activo Ficticio como Instrumento, para
Distintos ρ Utilizando ∑ para Simular (2)
95
Tabla 12-5: LSM con el Activo Ficticio como Instrumento, para
Distintos ρ Utilizando ∑ para Simular (3)
96
Tabla 13-1: LSM con el Activo Ficticio como Regresor Utilizando
ρ = 0.5 para Distintos Valores de σ 2 (1)
98
Tabla 13-2: LSM con el Activo Ficticio como Regresor Utilizando
ρ = 0.5 para Distintos Valores de σ 2 (2)
98
Tabla 13-3: LSM con el Activo Ficticio como Instrumento Utilizando
ρ = 0.5 para Distintos Valores de σ 2 (1)
99
Tabla 13-4: LSM con el Activo Ficticio como Instrumento Utilizando
ρ = 0.5 para Distintos Valores de σ 2 (2)
99
iv
Índice de Figuras
Figura 2-1: Árbol de Precios de S
8
Figura 2-2: Pagos de la Opción Americana
9
Figura 2-3: Determinación de la Trayectoria de Ejercicio Óptima
10
Figura 2-4: Espacio de Diferencias Finitas
16
Figura 2-5: Esquema de Barraquand y Martineau (1995)
20
Figura 3-1: Esquema General del LSM
24
Figura 11-1: Nomenclatura de los estados de la Naturaleza
82
Figura 11-2: Precios Contingentes de los Activos de esta Economía
83
Figura 11-3: Patrón de Pagos de la Opción Europea
84
v
Índice de Gráficos
Gráfico 6-1: Comparación de las RECM
51
Gráfico 7-1: RECM del LSM Tradicional y de la Variación al Modo
“Regresor”
62
Gráfico 7-2: RECM del LSM Tradicional y de la Variación al Modo
“Instrumento”
63
Gráfico 7-3: Comparación de las RECM
64
Tabla 8-5: LSM Tradicional con Varianza Desconocida
70
Gráfico 8-1: Desviación Estándar de los Distintos Métodos
72
Gráfico 8-2: Valor Absoluto del Sesgo de los Distintos Métodos
72
Gráfico 8-3: Desviación Estándar Promedio de los Distintos
Métodos
73
Gráfico 8-4: Valor Absoluto del Sesgo Promedio de los Distintos
Métodos
74
Gráfico 8-5: Promedio del Valor Absoluto del Sesgo de los Distintos
Métodos
74
Gráfico 13-1: Desviación estándar Promedio de los Distintos
Métodos
100
Gráfico 13-2: Valor Absoluto del Sesgo Promedio de los Distintos
Métodos
100
Gráfico13-3 Promedio del Valor Absoluto del Sesgo de los Distintos
Métodos
101
vi
Agradecimientos
En primer lugar dedico este trabajo a mis padres: Eduardo y Fernanda,
sin su apoyo nunca estaría optando al grado de Magíster. También quiero
agradecer a mis hermanos, en particular a Gonzalo. A su vez, la compañía
de Daniela fue fundamental en este largo proceso.
La ayuda de mi profesor y amigo Rodrigo Troncoso fue determinante a
la hora de programar, sin él esta empresa habría sido imposible. Así mismo,
el apoyo y la paciencia de la comisión me permitieron dedicarme sin temor a
este proyecto. Quiero agradecer especialmente la confianza de los profesores
Augusto Castillo, Rodrigo Cerda, Gonzalo Cortázar, Raimundo Soto y Felipe
Zurita, que aún sin conocer el proyecto en detalle siempre me exhortaron a
continuar.
Agradezco a su vez el apoyo de mis amigos Felipe Labbé y Nicolás
Birkner además no puedo dejar de mencionar a Carmen Garcés por su
inagotable atención y cariño.
Finalmente quiero dar las gracias a Fernando Luco y a mi primo Juan
Carlos Saffie por ayudarme con infinita paciencia a revisar y editar este
trabajo.
Cabe destacar que ninguna de las personas anteriores es responsable
de los resultados que expongo en este trabajo.
vii
Resumen
El objetivo de esta tesis es estudiar los efectos en la eficiencia del LSM
cuando se toma en cuenta que el investigador trabaja con aproximaciones de
los parámetros verdaderos que rigen el movimiento del subyacente. Para
comenzar, este trabajo elabora una reseña de los distintos métodos que
existen para valorar opciones americanas. Luego se centra en el estudio del
algoritmo LSM (Least Squares Montecarlo) propuesto por Longstaff y Schwartz
(2001). Los experimentos muestran que la varianza del LSM es cien veces
mayor que la sugerida por sus autores. A continuación se evalúa el uso de
algoritmos alternativos cuando se conocen con exactitud los parámetros que
rigen el movimiento del subyacente. Estos algoritmos se comportan incluso
mejor que la versión original. Finalmente se evalúa el uso de estos nuevos
algoritmos cuando se toma en cuenta el problema práctico que surge al no
conocer realmente los parámetros. Aunque el resultado de estos últimos
experimentos refleja alguna mejoría, sobre todo en materia de sesgo, se
concluye que los cambios no logran dar cuenta de la totalidad del problema
en cuestión. Por lo tanto, este trabajo llama a explorar otras posibles
soluciones para la ineficiencia práctica expuesta.
viii
Abstract
This work studies the effects in LSM efficiency when considering the fact
that investigators work with estimations of real parameters which rule the
behavior of the underlying asset. To begin with, it resumes the different
existing methods for evaluating american options. It then moves onto the
study of the LSM algorithm (Least Squares Montecarlo) proposed by Longstaff
& Schwartz (2001). Experiments show that LSM volatility is a hundred times
greater than the one suggested by its authors. The use of alternative
algorithms is then considered, when knowing precisely the parameters that
rule the movement of the underlying asset. These algorithms behave even
better than the original version. Finally the use of these new algorithms is
evaluated when taking account of the practical problem that emerges when
the parameters are unknown. Although the result of these last experiments
reflect some advance, specially in terms of bias, it is concluded that changes
done the original LSM algorithm cannot solve the whole problem. Hence, this
work calls for alternative solutions for the practical inefficiency found.
ix
1.- Introducción:
El problema de la valoración de opciones y otros derivados ha cobrado
protagonismo en materia de economía financiera ganando adeptos incluso
más allá de las fronteras de su propio rubro. En efecto, la contribución de
los métodos de valoración ha trascendido el mundo de las finanzas,
constituyendo actualmente la punta de lanza en materia de valoración de
recursos naturales. Más allá incluso, podría decirse que la valoración
financiera se ha hecho cargo de uno de los problemas centrales de la
economía: la pregunta por el valor económico de un activo riesgoso.
La primera parte de este trabajo se hace cargo de dicha pregunta
exponiendo los principales métodos existentes para valorar opciones
americanas. El último gran avance en materia de valoración de opciones es
sin lugar a dudas el estudio seminal de Longstaff y Schwartz (2001). Sin
embargo, el presente trabajo busca encontrar fundamentos empíricos de
corte econométrico para perfeccionar este algoritmo que ya ha revolucionado
el mundo de la valoración de opciones. El primer resultado de este trabajo
consiste en estudiar los efectos en la eficiencia del algoritmo cuando se
toma en cuenta que los parámetros que éste utiliza son estimaciones
empíricas de los verdaderos. En esta materia se observa que la varianza del
algoritmo puede aumentar hasta cien veces. Un segundo objetivo consiste
en evaluar y proponer aumentos en la eficiencia de las estimaciones si se
reemplaza el método de Mínimos Cuadrados Ordinarios (MICO) por métodos
de regresión más complejos. Luego de presentar la intuición que
fundamenta dicho cambio, se realizan algunos estudios numéricos que
permiten comparar con el original el nuevo algoritmo propuesto para
evaluar si es conveniente invertir un poco más en la econometría del
algoritmo.
1
2.-
Revisión de la Literatura
Esta sección está dedicada al lector menos familiarizado con los
métodos de valoración de opciones financieras. Si usted conoce tanto las
metodologías tradicionales como los últimos avances en valoración de
opciones por simulación, puede obviar esta sección. Sin embargo, si éste no
fuese el caso, se le recomienda comenzar revisando esta sección.
2.1.- Opciones Financieras:
Una opción es un activo financiero que otorga a quien lo posee un
derecho a transar el subyacente en algún momento futuro a un cierto precio
pactado de antemano. Básicamente existen dos tipos de derechos: los
derechos de compra y los derechos de venta. Una Call otorga al poseedor el
derecho a comprar el activo subyacente y una Put el derecho a venderlo a
un precio prefijado. Si el derecho puede ser ejercido solamente al momento
del vencimiento del contrato, hablamos de una opción europea; en cambio,
si el poseedor del derecho puede ejercerlo además en cualquier momento
anterior a dicha fecha, la opción es llamada americana. A modo de ejemplo,
una Put al cobre como subyacente con precio de ejercicio P y fecha de
maduración T será europea, si sólo puede ser ejercida en T . En esa fecha,
el dueño del derecho puede vender una unidad de cobre al precio P
obteniendo una ganancia de P − S , es decir, la diferencia entre el precio al
que la opción le permite vender el cobre y el precio del metal en el mercado
spot en T . Si en cambio, el dueño del derecho puede ejercerla en cualquier
momento t anterior a T entonces la opción será americana. Queda de
manifiesto que la opción americana otorga al poseedor un derecho más
amplio que la opción europea, por lo tanto, el valor de una opción
americana nunca puede ser inferior al de una opción europea de iguales
características.
2
2.2.-
Modelación Binomial:
Para entender la diferencia fundamental en la valoración de opciones
americanas y europeas es conveniente simplificar la realidad y detenerse en
un ejemplo sencillo, donde la incertidumbre puede modelarse a través de un
proceso binomial. Esta modelación fue desarrollada por Cox et al. (1979).
Sea S el precio hoy del activo subyacente, supongamos que dicho
precio puede subir en un
(1 − d ) ×100% con
( u − 1) ×100%
probabilidad
(1 − q ) .
con probabilidad q y caer en un
El retorno esperado de dicho activo
puede expresarse como:
1 + rs =
S ∗ u ∗ q + S ∗ d ∗ (1 − q )
S
(1)
Sin embargo, dicho retorno incluye lo que usualmente llamamos un
premio por riesgo, por ejemplo, el cobre es un activo riesgoso y su retorno
no está asegurado. Por lo tanto, es muy difícil, sin una correcta teoría que
modele dicho premio por riesgo, basarse en rs para valorar los derivados del
cobre. En efecto, el valor de dicho premio por riesgo está anclado en las
preferencias de los individuos, en particular, en el nivel de su aversión al
riesgo, por lo tanto, la teoría financiera se ha alejado de los modelos de
equilibrio que necesitan supuestos acerca de las preferencias de los
individuos hacia modelos que utilizan argumentos de arbitraje. Los modelos
de arbitraje, al suponer completitud en el mercado financiero, pueden
replicar cualquier perfil de pagos en función de un conjunto de activos, de
esta forma, el valor del portafolio equivalente debe ser el mismo que el del
activo a valorar para evitar cualquier oportunidad de arbitraje. Estos
modelos se basan en los precios vigentes de los activos para encontrar los
precios de los derivados que eliminen las oportunidades de arbitrar.
3
Para entender la profundidad de este argumento consideremos una
generalización presentada por Hull 1 (2003). Imaginemos un activo con un
precio hoy de S0 y una opción cuyo precio es hoy f . Manteniendo el
esquema binomial antes descrito, si postulamos un horizonte de tiempo T
en el que existen dos estados de la naturaleza posibles, en uno de ellos el
precio del activo sube y resulta ser S0u con u > 1 . En ese escenario la opción
entrega un monto fu . En el otro escenario el precio del activo es S0 d con
d < 1 y el flujo de la opción resulta ser f d . Postulamos también la existencia
de un activo libre de riesgo con retorno r compuesto continuamente que
entrega el mismo retorno en T sin importar el estado de naturaleza
resultante. Claramente en este ejemplo existen mercados completos, es
decir, como mínimo, existe el mismo número de instrumentos no
redundantes que de posibles estados de la naturaleza y no hemos impuesto
ninguna restricción a la venta corta de activos financieros. Por lo tanto será
posible estructurar un argumento de arbitraje. Imaginemos un portafolio
constituido por Δ posiciones largas de S y una posición corta en la opción.
Buscaremos encontrar el valor de Δ que hace que el portafolio anterior sea
libre de riesgo, es decir, que hace que éste rinda exactamente lo mismo en
cualquiera de los dos estados de la naturaleza. Formalmente buscamos que:
S 0u Δ − f u = S 0 d Δ − f d
1
(2)
Remitirse al capítulo décimo de dicho texto.
4
De donde obtenemos:
Δ=
fu − f d
S 0u − S 0 d
(3)
El portafolio formado replica exactamente al activo libre de riesgo. Es
así como, en esta economía hemos construido dos caminos para asegurar
un flujo de S0u Δ − f u en el próximo período sin importar el estado de
naturaleza. Una forma es invertir ( S0u Δ − fu ) e − rT en el activo libre de riesgo y
la otra es invertir S0 Δ − f en el portafolio libre de riesgo que acabamos de
estructurar. Por lo tanto, para evitar cualquier oportunidad de arbitraje el
costo de ambos caminos ha de ser el mismo:
( S0uΔ − fu ) e− rT
= S0 Δ − f
(4)
f = S0 Δ (1 − ue − rT ) + f u e − rT
(5)
Lo que puede expresarse como:
Reemplazando por el valor de Δ con un poco de álgebra podemos
postular:
f = e− rT ⎡⎣ pf u + (1 − p ) f d ⎤⎦
(6)
Donde:
p=
erT − d
u−d
5
La fórmula anterior no involucra en sentido alguno las probabilidades
de que se dé uno u otro estado de la naturaleza, sorprendentemente puede
valorarse la opción sin nunca hacer uso ni de q ni del retorno rs . Más aún,
en la fórmula final p se presenta claramente como una medida de la
probabilidad de que se dé el estado de naturaleza u . A estas “pseudos”
probabilidades se les conoce como “probabilidades neutrales al riesgo”.
Utilicemos p para calcular la esperanza del precio del subyacente en T .
E ( ST ) = pS0u + (1 − p ) S0 d
(7)
Al reemplazar por la fórmula de p y reordenando obtenemos:
E ( ST ) = S0 e rT
(8)
Por lo tanto, en esperanza bajo el régimen de probabilidad p , el activo
S rinde exactamente la tasa libre de riesgo. En un mundo con agentes
neutrales al riesgo, los individuos sólo se preocupan por el pago esperado de
los activos sin exigir un premio por el riesgo que corren. En esas
condiciones todo activo debe rendir la tasa libre de riesgo. Por lo tanto, al
fijar p como la probabilidad que rige los estados de la naturaleza estamos
valorando los activos como si estuviésemos en un mundo donde todos los
agentes son neutrales al riesgo. El ejemplo anterior pone de manifiesto un
principio fundamental en la valoración de activos financieros: se puede
asumir un mundo neutral al riesgo al momento de valorar activos
financieros y estar completamente seguro de que, bajo mercados completos,
los precios encontrados son válidos en cualquier otro mundo.
Recapitulando, si imaginamos una economía con agentes neutrales al
riesgo en la que se observan los mismos precios de equilibrio que en la
6
economía real, no existe razón para exigir a los activos un premio por riesgo,
todo activo debe rendir, en esperanza con probabilidades neutrales, la tasa
libre de riesgo. De esta forma, al estructurar una teoría de valoración de
activos podemos construir nuevas probabilidades p y (1 − p ) que hagan que
el activo en cuestión rinda en esperanza la tasa libre de riesgo, y al trabajar
con dichas probabilidades podemos estar seguros que eliminamos las
oportunidades de arbitraje.
Derivemos dichas probabilidades neutrales al riesgo por el camino
inverso y en tiempo discreto. Sean p y (1 − p ) las probabilidades que hacen
que el retorno esperado del activo sea libre de riesgo:
( S * u ) p + ( S * d ) * (1 − p ) = 1 + r
S
f
=ρ
(9)
De aquí es posible obtener que:
p=
ρ −d
u−d
y que
1− p =
u−ρ
u−d
Bajo el régimen de probabilidad ajustado por riesgo todo activo debe
rendir la tasa libre de riesgo, y en base a dicho rendimiento podemos valorar
cualquier derivado de S . En particular detengámonos en el siguiente
ejemplo acerca de una opción Put americana con precio de ejercicio de 110
y fecha de maduración T = 2 .
7
El proceso del subyacente ajustado por riesgo puede esquematizarse
como 2 :
Figura 2-1: Árbol de Precios de S
S × u 2 = 169
S × u = 130
S × u × d = 104
S = 100
S × d = 80
S × d 2 = 64
Donde:
S 0 = 100
u = 1.3
d = 0.8
r = 1.1
p=
1.1 − 0.8
= 0.6
1.3 − 0.8
El flujo de la opción en cada nodo, por ser un derecho y no una
obligación, debe entenderse como Vnodo = Máx ( P − St ;0 ) , donde P es el precio
de ejercicio de la opción. Por lo tanto, los flujos asociados al ejercicio de la
opción pueden presentarse como:
2
Tanto u como d están constantes, por lo tanto, la probabilidad neutral al riesgo entre dos escenarios
adyacentes sigue siendo la misma.
8
Figura 2-2: Pagos de la Opción Americana
0
0
6
10
30
46
Si la opción fuese una Put europea, el poseedor no tiene más
alternativa que evaluar su ejercicio en la fecha final 3 , de este modo, existen
tres trayectorias en las cuales ejercería su derecho y una en la que dejaría
que la opción venciese. Si ponderamos por las probabilidades neutrales al
riesgo y descontamos por la tasa libre de riesgo obtenemos el valor de la
opción que impide oportunidades de arbitraje. En este caso, el valor de la
opción europea es:
VE =
2 × 0.4 × 0.6 × 6 + 0.42 × 46
= 8.46 4
2
1.1
Sin embargo, si la opción es americana el poseedor debe decidir en
cada oportunidad de ejercicio previa al vencimiento si ejercerá su derecho o
esperará hasta el período siguiente 5 . Para decidir si le conviene aguardar
Por construcción, incluso si vende el derecho en T = 1 , obtiene en esperanza neutral al riesgo el valor de la
opción.
4
En el primer anexo de este trabajo se demuestra que este precio no permite oportunidades de arbitraje.
5
Cabe destacar que si el poseedor ejerce hoy una opción americana obtiene una ganancia de 10 , por lo tanto,
ese monto es ya un piso para dicho derivado.
3
9
hasta la fecha siguiente el poseedor compara el valor esperado de conservar
la opción con el flujo de caja que obtendría si la ejerce en ese momento.
Para esto se debe comenzar de la fecha T − 1 y comparar el valor de ejercer
en dicha fecha, en cada trayectoria, con el valor esperado de esperar hasta
T . Una vez que se tiene la trayectoria óptima de ejercicio el proceso de
valoración es análogo al caso anterior. Primero calculamos los valores
esperados de aguardar para cada nodo comenzando con el penúltimo:
Vt esperar
= 2;nodo =1 =
0.6*0 + 0.4*6
= 2.18
1.1
Vt esperar
= 2;nodo = 2 =
0.6*6 + 0.4* 46
= 20
1.1
Vt esperar
=1; nodo =1 =
0.6* 2..18 + 0.4*30
= 12.1
1.1
Luego comparamos el valor de esperar con el valor de ejercer:
Figura2-3: Determinación de la Trayectoria de Ejercicio Óptima
0
0 < 2.2
6
10 < 12.1
30 > 20
46
10
Si el subyacente sube su precio en el primer período la opción sólo será
ejercida si en el segundo período el subyacente bajó. En cambio, si el cobre
baja inicialmente, la opción americana será ejercida inmediatamente. De
esta forma, el valor de la opción americana es de 12.1 , claramente superior
al valor de la Put europea. El gran desafío en la valoración de opciones
americanas es determinar el momento óptimo de ejercicio del derecho en
cuestión, problema que en el caso de una opción europea no se enfrenta.
Aunque este método simplifica bastante la realidad, ha sido ocupado
ampliamente para la valoración de opciones americanas. Otros modelos de
esta familia comprenden la lógica extensión hacia árboles trinomiales. Por lo
demás este método es bastante realista si el número de períodos es alto y el
intervalo entre cada fecha es pequeño.
11
2.3.-
Modelo de Black y Scholes (1973):
Si bien es cierto que el modelo binomial simplifica en extremo la
realidad, es un muy buen punto de partida para entender los desarrollos
más importantes en el área de valoración de opciones. Para acercarnos más
a la realidad debemos complejizar el movimiento del subyacente. Un
supuesto aceptado es que el activo subyacente sigue un proceso browniano
geométrico. Consideremos primero el proceso real del subyacente:
ds = S μ s dt + Sσ s dw
Donde
dw = ε dt
ε ∼ N ( 0,1)
Con independencia en los dw para pequeños lapsos de tiempo dt
En esta ecuación, μ s representa el retorno esperado del activo riesgoso
S y σ s 2 la varianza de dicho retorno. Nuevamente, para poder esgrimir
correctamente argumentos de no arbitraje escribimos el proceso bajo el
régimen de probabilidades neutrales al riesgo. Cabe destacar, que si bien el
retorno del subyacente debe coincidir con la tasa libre de riesgo, su varianza
se mantiene inalterada. El proceso neutral al riesgo puede representarse
como:
ds = Srdt + Sσ s dw
(10)
Siguiendo con esta lógica, una opción financiera C , sin importar sus
características, puede ser vista como una función del proceso de su
subyacente y del tiempo que resta para su vencimiento. Por lo tanto,
12
aplicando el lema de Îto podemos encontrar fácilmente el proceso
estocástico de la opción en cuestión:
1
dC ( S ; T ) = Cs ds + CT dT + Css ds 2
2
(11)
1
dC = Cs ( Srdt + Sσ s dw ) − CT dt + S 2σ s2 dt
2
(12)
1
⎛
⎞
dC = ⎜ Cs Sr − CT + S 2σ s2 ⎟ dt + ( Cs Sσ s ) dw
2
⎝
⎠
(13)
Cabe destacar que la opción C debe someterse a su vez al principio de
no arbitraje, es decir, su retorno ajustado por riesgo, el término que
acompaña a dt , debe corresponder a la tasa libre de riesgo. En base a esto
podemos plantear la siguiente ecuación diferencial:
1 2 2⎞
⎛
⎜ Cs Sr − CT + S σ s ⎟ dt = Crdt
2
⎝
⎠
(14)
1
Cs Sr − CT + S 2σ s2 − Cr = 0
2
(15)
La solución de la ecuación diferencial anterior en función de las
condiciones de borde propias de la naturaleza del derivado financiero que se
esté analizando, proporciona el valor del instrumento. En el caso de una
opción Call europea con precio de ejercicio K y madurez T , las condiciones
de borde son las siguientes:
C ( 0; t ) = 0
(16)
C ( S ; T ) = Máx ( S − K ;0 )
(17)
Es decir, si en algún momento el subyacente llega a valer cero la opción
pierde la totalidad de su valor. En este sentido, cuando el precio del activo
13
subyacente toca el suelo es imposible que llegue a recuperarse, de hecho, si
existiese una posibilidad de que esto sucediera, su retorno esperado sería
positivo y por ende el valor del subyacente hoy no podría ser nulo. La
segunda condición expresa claramente la naturaleza de la opción, al
momento de su madurez el derivado tiene, por definición, un valor de
Máx ( S − K ;0 ) si es una opción de compra.
Esta ecuación diferencial fue hallada y resuelta por Black y Scholes
(1973). Dicho trabajo es sin lugar a dudas la piedra angular de toda la
teoría de valoración de activos financieros. Resumiendo la resolución de los
autores, podemos decir que si suponemos que el logaritmo del retorno del
subyacente sigue un proceso normal podemos aplicar fácilmente las
resoluciones clásicas de la física a la ecuación anterior. En concreto, para el
caso de una Call Europea:
⎛S
ln ⎜ T
⎝ S0
⎞
⎛⎛
1 2⎞
2 ⎞
⎟ ~ N ⎜ ⎜ r − σ s ⎟ T ;σ s T ⎟
2 ⎠
⎝⎝
⎠
⎠
(
C = SN ( h ) − Ke − rT N h − σ s T
)
(18)
(19)
Con
⎛S⎞
ln ⎜ ⎟ + rT
1
K
+ σs T
h= ⎝ ⎠
2
σs T
La fórmula anterior, que lleva el nombre de sus autores, es el
procedimiento generalizado para la valoración de opciones de compra
europeas 6 . Sin embargo, aunque la ecuación diferencial antes expuesta es
de validez general para cualquier instrumento financiero, su resolución
analítica en el caso de opciones americanas de plazo finito 7 resulta
imposible. El fondo de esa imposibilidad es la movilidad de las condiciones
6
Existe una variante muy similar de dicha fórmula para opciones de venta.
Con excepción de una Call americana sin dividendos, en cuyo caso el valor coincide con el de la opción Call
europea, pues jamás es óptimo ejercer anticipadamente.
7
14
de borde, en suma, el problema ya mencionado de la determinación de la
trayectoria óptima de ejercicio.
2.4.-
Resolución por diferencias finitas:
Como vimos en la sección anterior, las condiciones de borde de la
ecuación diferencial dificultan enormemente su solución en el caso de una
opción americana. Sin embargo, gran parte del problema radica en el
carácter continuo del tiempo. En efecto, al discretizar la ecuación en
cuestión puede elaborarse una malla de valores que permita encontrar, para
un valor dado del subyacente, el correspondiente valor del derivado. En este
sentido, Brennan y Schwartz (1977) aplican a la ecuación diferencial
anterior la técnica de las diferencias finitas. En esta sección expondremos
esquemáticamente el procedimiento en su versión explícita, siguiendo la
exposición del texto de Hull 8 (2003).
Para comenzar, es necesario definir el dominio del valor de la opción en
función de los parámetros que lo determinan, es decir, el precio del
subyacente y el plazo. Para fines expositivos definiremos de la manera más
simple dicho espacio, dándole una forma rectangular. Para comenzar
dividimos el espacio en pequeñas variaciones de ambos ejes, como muestra
el siguiente recuadro:
8
Remitirse al capítulo décimo octavo de dicho texto.
15
Figura 2-4: Espacio de Diferencias Finitas
Cambio subyacente (j)
Espacio rectangular de diferencias finitas
j ΔS
i Δt
Oportunidades de ejercicio (i)
A continuación se busca expresar de manera discreta la ecuación
diferencial ya mencionada. Imaginemos que se requiere valorar una opción
Put americana con precio de ejercicio P y madurez T que notaremos C . Por
lo tanto la ecuación diferencial es:
1 2 2
σ s S Css + rSCs + Ct − rC = 0
2
(20)
El siguiente paso es encontrar una expresión discreta para las
derivadas de C . Usando las aproximaciones finitas explícitas obtenemos:
⎡Ci +1, j +1 − Ci +1, j −1 ⎤⎦
Cs ≈ ⎣
2ΔS
(21)
⎡Ci +1, j +1 − 2Ci +1, j + Ci +1, j −1 ⎤⎦
Css ≈ ⎣
ΔS 2
(22)
⎡Ct +1, j − Ci , j ⎤⎦
Ct ≈ ⎣
Δt
(23)
16
Ahora, al reemplazar en la ecuación diferencial, podemos obtener una
aproximación robusta del valor de esperar en cada punto del espacio. De
esta forma se puede comparar, en todo punto, el flujo que se obtiene al
ejercer inmediatamente la opción con el valor esperado de aguardar, al que
llamamos valor de transición y definimos como:
Vi ,transición
= a jVi +1, j −1 + b jVt +1, j + c jVi +1, j +1
j
(24)
con :
1 2 2 ⎞
⎛ 1
⎜ − rj Δt + σ s j Δt ⎟
2
2
⎠
aj = ⎝
1 + r Δt
bj
(1 − σ
=
2
s
j 2 Δt )
1 + r Δt
1 2 2 ⎞
⎛1
⎜ rj Δt + σ s j Δt ⎟
2
2
⎠
cj = ⎝
1 + r Δt
Por lo tanto, al definir el valor estado como:
Vi ,estado
= fi , j = máx ( P − j ΔS ;0 )
j
(25)
Podemos encontrar el valor de la opción en cada nodo definido como:
(
Vi , j = Máx Vi ,estado
;Vi ,transición
)
j
j
(26)
17
La resolución de la ecuación diferencial comienza en el último período,
es decir en el borde derecho del espacio, y retrocede calculando primero el
valor de transición para el período inmediatamente anterior. Al comparar
dicho valor con el valor de estado, se obtiene el valor de la opción en el nodo
en cuestión. Repitiendo este proceso se calcula el valor de la opción en cada
punto del espacio. En particular, cuando Δt es 0 , el valor corresponde al de
la opción hoy para distintos valores iniciales del subyacente posibles.
Cabe destacar que si bien se ha demostrado la robustez y consistencia
de este método, cuando los factores de riesgo aumentan, es decir, cuando el
valor del subyacente no es la única fuente de variabilidad en el valor de la
opción, la definición del espacio se hace cada vez más difícil y engorrosa. En
efecto, con más de dos factores de riesgo la resolución por esta vía pasa de
complicada a imposible. A esta falencia se le conoce con el nombre de la
maldición de la dimensionalidad.
2.5.-
El paso a la simulación:
La evaluación de opciones americanas presenta un importante desafío
para la profesión. Desde el ya mencionado trabajo de Black y Scholes (1973)
surgieron diversos intentos para lograr una estrategia analítica que diera
con el valor de dichos instrumentos. Algunos de estos intentos se basan en
métodos de aproximación como Geske y Johnson (1984), a través de
distintos polinomios, o Barone-Adesi y Whaley (1987) con funciones
cuadráticas. Otros intentan basarse en la valoración de opciones europeas y
agregar un premio como Kim (1990) y Carr et al. (1992), pero esta familia de
soluciones requieren simplificar bastante el tipo de opciones por lo que
tienen un radio de acción muy limitado y son de muy poco uso en la
realidad.
18
Paralelamente, surgen los primeros intentos para valorar opciones
europeas por simulación, en particular, Boyle (1977) plantea que esta nueva
estrategia de valoración permite escapar a la ya mencionada maldición de la
dimensionalidad en este tipo de opciones. Sin embargo, la necesidad de
encontrar la trayectoria óptima de ejercicio en el caso de opciones
americanas, es decir, la necesidad de recorrer las trayectorias desde la
última fecha hasta la primera, parecía hacer imposible la utilización de
simulaciones, que se mueven en la dirección contraria, para la valoración de
esta clase de instrumentos.
Si bien es cierto que una estrategia pura de simulación parece estar
destinada al fracaso, los avances teóricos y computacionales permitieron la
aparición de algoritmos más completos que incluyen en las simulaciones
elementos de programación dinámica, es decir, que logren incorporar el
movimiento recursivo necesario para encontrar la trayectoria óptima de
ejercicio. Para clarificar esta nueva vía nos detendremos en el revolucionario
trabajo de Barraquand y Martineau (1995) para luego exponer en detalle, en
la sección siguiente, el algoritmo de Longstaff y Schwartz (2001).
2.6.-
Barraquand y Martineau (1995)
La intuición del método de Barraquand y Martineau (1995) es sin duda
alguna el modelo de árboles de Cox et al. (1979), con el que comenzamos.
En efecto, los autores simulan distintas trayectorias para el subyacente del
instrumento y a partir de esas simulaciones arman una estructura muy
similar a los ya mencionados árboles. Si recordamos el modelo binomial, el
corazón de la resolución consistía en comparar el valor esperado de
continuar con el valor puntual de ejercer la opción, y de esta forma
construir la trayectoria óptima de ejercicio. En particular, para obtener el
valor esperado de continuar se necesitan, además de los flujos de caja del
siguiente período, las probabilidades neutrales al riesgo de pasar del estado
19
actual a cualquiera que lo siga. Para encontrar dichas probabilidades
neutrales al riesgo los autores dividen el espacio en celdas, y, como las
simulaciones fueron hechas de acuerdo a un proceso neutral al riesgo,
puede calcularse una probabilidad de transición entre una celda y cualquier
otra para el siguiente período de manera simple. Luego, con dichas
probabilidades es fácil recorrer el sistema comparando los valores de
continuar con los de ejercer, de manera de obtener la trayectoria óptima y
finalmente valorar la opción.
Formalmente, los autores dividen el espacio del pago de la opción en K
celdas, donde k = 1,..., K . Además en el modelo existen d oportunidades de
ejercicio de la opción igualmente distantes. El siguiente gráfico muestra
dicho procedimiento:
Figura 2-5: Esquema de Barraquand y Martineau (1995)
Pagos
Metódo de Celdas
0
Celda (k o l)
1
2
3
4
5
6
7
8
9
10
11
Tiempo
Trayectoria simulada a partir del precio spot hoy.
En cada celda k y para todo momento t podemos definir el valor de
estado de la opción Vt estado
como el promedio del valor de ejercicio de la
,k
20
opción en el momento t , de todas las trayectorias ωk pertenecientes a la
celda k . Es decir, suponiendo nuevamente una Put con precio de ejercicio
P:
Vt ,estado
=
k
∑ Máx ( P − S (ω ) ;0 )
t
at ( k )
k
(27)
con:
ωk trayectoria que pertenece a la celda k.
at ( k ) número de trayectorias en la celda k en t.
El siguiente punto es definir el valor de transición en el momento t .
Para esto, necesitamos calcular las probabilidades de pasar de la actual
celda k a toda celda l . Como ya dijimos, esas probabilidades pueden
entenderse como simples frecuencias dado el alto número de simulaciones:
pt ( k , l ) =
bt ( k , l )
at ( k )
donde:
bt ( k , l ) corresponde a la cantidad de trayectorias que pasaron de la celda k a la l.
at ( k ) número de trayectorias en la celda k en t.
Con estas probabilidades podemos calcular el valor esperado de
continuar descontado al momento t , es decir Vktransición
:
,t
⎡K
⎤ − r Δt
Vktransición
=
,t
⎢ ∑ pt ( k , l ) Vl ,t +1 ⎥ e
⎣ l =1
⎦
(28)
21
Luego, con los valores de estado y de transición calculados, puede
determinarse la decisión óptima en cada nodo para obtener así el valor de la
opción en cada momento del tiempo:
⎡ ∑ Máx ( P − St (ωk ) ;0 ) ⎡ K
⎤
⎤
Vk,t = Máx ⎢
; ⎢ ∑ pt ( k , l ) Vl ,t +1 ⎥ e − r Δt ⎥
at ( k )
⎣ l =1
⎦
⎦
⎢⎣
(29)
Finalmente, retrocediendo hasta el momento inicial en donde nacen
todas las simulaciones, encontramos el precio de la opción americana en
cuestión. Este trabajo simplifica bastante el problema de valoración
obteniendo buenos resultados cuando existe un solo factor de riesgo. Sin
embargo, cuando existen múltiples factores de riesgo se ha de elegir uno, el
más importante, para definir los distintos estados. Por lo tanto, como es de
esperar, cuando existen varios factores relevantes las aproximaciones son
menos acertadas. Raymar y Swecher (1997) se hacen cargo de este
problema aumentando la dimensión de las celdas, es decir, dentro de cada
celda se realiza una segunda agrupación, sin embargo, el problema se
vuelve más complejo y podría decirse que se cae en una nueva versión de la
maldición de la dimensionalidad.
22
3.- El LSM de Longstaff y Schwartz (2001)
Recordemos que el mayor desafío en la valoración de opciones
americanas consiste en determinar satisfactoriamente la trayectoria óptima
de ejercicio del derivado. Es decir, estimar correctamente el valor esperado
de mantener la opción para así poder compararlo con el flujo que resultaría
de ejercerla inmediatamente. La gran intuición de Longstaff y Schwartz
(2001) consiste en buscar en la econometría dicha respuesta. En efecto,
cuando se realiza una regresión cualquiera, lo que se obtiene es la
esperanza condicional de la variable dependiente en función de los valores
de las independientes. De esta forma, a través del tipo más simple de
regresión, Mínimos Cuadrados Ordinarios (MICO), los autores logran
encontrar el patrón óptimo de ejercicio para la opción.
Dado que esta tesis está directamente basada en el LSM, el algoritmo
será expuesto con la mayor claridad posible. Para comenzar utilizaremos un
esquema simple que ilustre su funcionamiento, luego lo aplicaremos a un
ejemplo sencillo y finalmente expondremos el algoritmo en toda su
formalidad.
La primera aproximación al LSM que presentamos está inspirada en el
trabajo de Stentoft (2004). Imaginemos el caso de una opción Put con un
precio de ejercicio P igual al nivel inicial del subyacente S (0) y maduración
en t2 = T . Por lo tanto, la función de pagos de la opción, cuando es ejercida,
puede definirse como:
G ( P = S ( 0 ) , S (τ ) ,τ ) = Max ( P − S (τ ) , 0 )
(30)
23
Donde τ
indica el momento óptimo de ejercicio de la opción. La
primera parte del método consiste en simular trayectorias para el
subyacente, en este caso, imaginamos seis posibles patrones j donde S j ( ti )
es el valor del subyacente bajo la trayectoria j en el momento ti , los que
pueden representarse como:
Figura 3-1: Esquema General del LSM
S 2 ( ti )
S1 ( ti )
S 4 ( ti )
S6 ( ti )
S1 ( ti )
S ( 0)
S 2 ( ti )
S6 ( ti )
S 5 ( ti )
S 3 ( ti )
Región
“in the
money”
S 4 ( ti )
S 5 ( ti )
S 3 ( ti )
Tiempo
0
t2 = T
t1
Analizando primero el momento t2 = T , es decir, la fecha de expiración
de la opción, donde ya no puede postergarse más el ejercicio, constatamos
que el poseedor siempre ejercerá su derecho si el nivel del subyacente es
menor que P , es decir, si la opción está “in the money”. Para calcular el
momento óptimo de ejercicio para los distintos patrones es útil constatar
que en t1 la opción está “in the money” sólo para tres trayectorias,
particularmente: j = 3,5, 6 . Por lo tanto, sólo en estos tres patrones se nos
plantea
la
disyuntiva
entre
seguir
esperando
hasta
t2
o
ejercer
inmediatamente. Ésta es la primera gran ventaja del LSM, sólo trabaja con
24
las trayectorias “problemáticas”, es decir, las que obligan al poseedor a
decidir si ejercer o esperar. En este punto, los autores proponen correr una
regresión por MICO que cuente con el valor presente de mantener la opción,
e − r ( t2 −t1 ) × Max ( P − S j (T ) , 0 ) , como variable dependiente y como variables
explicativas use transformaciones de S j ( t1 ) . La regresión se realiza sólo con
los datos de los patrones j = 3,5, 6 . Luego de efectuar la regresión, se utiliza
el modelo esperado para obtener la estimación en valor presente de
aguardar. Este valor sirve exclusivamente para decidir si la opción ha de ser
ejercida o no, en este ejemplo sencillo: Si el valor de ejercer en t1 para algún
j es mayor que la esperanza condicional que surge de la regresión,
entonces τ j = t1 para esa trayectoria, de no ser así τ j = T . Si existen más
fechas, el procedimiento se repite hasta llegar al momento inicial, y allí se
toma el promedio del valor de la opción bajo todas las trayectorias. En
suma, el valor de la Put para M trayectorias es:
PLSM =
(
1 M ⎡ − rτ j
× ∑ e × Max P − S j (τ j ) , 0 ) ⎤
⎦
M j =1 ⎣
(31)
Luego de haber expuesto la intuición general del método de Longstaff y
Schwartz (2001), proponemos a continuación una aplicación numérica en
un ejemplo sencillo, inspirado en el trabajo original, que permitirá facilitar
la posterior exposición formal del algoritmo.
Supongamos que se quiere valorar una opción Put americana con
precio de ejercicio 1.10 y vencimiento en T = 3 . Para comenzar simulamos
ocho posibles trayectorias del subyacente a partir del precio actual de 1.00 .
Para estas simulaciones nos basamos en un browniano geométrico simple
expresado por:
25
dS = Srdt + bSdw
con r = 6% y b = 30%
Donde r es la tasa libre de riesgo y b el parámetro de difusión del
proceso.
La siguiente tabla muestra los resultados de dichas simulaciones:
Tabla 3-1: Valores Simulados para el Subyacente
T
Trayectorias
1
2
3
4
5
6
7
8
0
1
1
1
1
1
1
1
1
1
0.59
0.84
0.97
1.14
1.02
1.27
1.51
1.02
2
0.52
0.65
0.91
1.68
0.57
1.49
1.8
1.25
3
0.51
0.59
0.83
1.77
0.55
1.45
2.27
0.84
Para comenzar nos centramos en t = 2 . En esa fecha hay cuatro
trayectorias “in the money”, es decir, sólo en
j = 1, 2,3,5 se plantea la
disyuntiva entre ejercer en t = 2 o esperar hasta t = 3 . Por lo tanto, para
todos esos patrones debemos conocer el valor esperado de continuar. La
siguiente tabla expone el valor obtenido en t = 3 si la opción se ejerce en ese
período:
26
Tabla 3-2: Flujo de Caja de la Opción si se Espera hasta el Último Período
Flujo de caja al ejercer en 3
T
Trayectorias
1
2
3
4
5
6
7
8
0
-
1
-
2
-
3
0.59
0.51
0.27
0
0.55
0
0
0.26
Dicho valor se obtiene aplicando en cada trayectoria la fórmula:
Max (1.10 − S j ( t = 3) , 0 )
(32)
Luego, para formar la primera regresión, utilizamos como variable
explicativa las distintas formas funcionales del subyacente en t = 2 para las
trayectorias “in the money”. El vector de variables explicadas son los valores
descontados que surgen del ejercicio racional en t = 3 en las trayectorias
estudiadas, es decir:
e− r t × Max (1.10 − S j ( t = 3) , 0 ) para j = 1, 2,3,5
(33)
La siguiente tabla resume la regresión que ha de ser efectuada:
27
Tabla 3-3: Primera Regresión
Regresión en t=2
Y
0.56
0.48
0.26
0.52
Trayectorias
1
2
3
5
X
0.52
0.65
0.91
0.57
Luego de correr una regresión con las dos primeras potencias del
subyacente y una constante obtenemos el siguiente modelo estimado:
Y = 0.74 − 0.1X − 0.46 X 2
(34)
Con este modelo podemos obtener la esperanza condicional en t = 2 de
esperar.
En
efecto,
reemplazando
en
cada
trayectoria
los
valores
particulares del subyacente se calcula fácilmente la esperanza condicional
del flujo futuro, en valor presente, en función del precio actual del activo.
Luego ese valor se compara con el flujo que resulta del ejercicio inmediato
en t = 2 y se toma la decisión óptima de continuar o esperar. La siguiente
tabla expone los resultados para este caso:
Tabla 3-4: Decisión Óptima en el Segundo Período
Trayectorias
1
2
3
5
Ejercicio óptimo en 2
Ejercitar
Continuar
0.58
0.56
0.45
0.48
0.19
0.26
0.53
0.53
Decisión
ejercer
continuar
continuar
ejercer
Con esta primera parte de la trayectoria de ejercicio óptima podemos
obtener los flujos de caja de los dos últimos períodos. Cabe destacar, que si
28
se decide continuar en t = 2 , el valor de la opción en el período siguiente no
será su esperanza condicional sino el flujo que surge al ejercer la opción
dado el valor efectivo en esa trayectoria en el período siguiente. Hasta ahora,
la matriz de pagos de la opción es la siguiente:
Tabla 3-5: Matriz de Pagos del Segundo Período
Trayectorias
1
2
3
4
5
6
7
8
1
-
Matriz de Pagos en t=2
T
2
0.58
0
0
0
0.53
0
0
0
3
0
0.51
0.27
0
0
0
0
0.26
Luego se repite el procedimiento para evaluar si, en las trayectorias que
se encuentran “in the money” en t = 1 conviene esperar o ejercer. El
procedimiento es análogo, y la nueva regresión se resume en la siguiente
tabla:
Tabla 3-6: Segunda Regresión
Regresión en t=1
Trayectorias
Y
1
0.54
2
0
3
0
5
0.5
8
0
X
0.59
0.84
0.97
1.02
1.02
Dicha regresión permite completar la regla de movimiento, la que
podemos expresar como:
29
Tabla 3-7: Regla de Ejercicio Óptimo de la Opción
Regla de movimiento: E=ejercitar
T
1
2
E
E
E
E
-
Trayectorias
1
2
3
4
5
6
7
8
-
3
E
-
Finalmente, siguiendo esa regla, descontamos los flujos hasta el primer
período y, dado que suponemos que todas las trayectorias son igualmente
probables, calculamos el valor de la opción como el promedio de los flujos
en t = 0 . En este caso:
Tabla 3-8: Valor Presente Asociado a las Distintas Trayectorias
Trayectorias
1
2
3
4
5
6
Si contamos la posibilidad de ejercer hoy
Flujo de caja al ejercer óptimamente
T
Valor de la trayectoria en 0
1
2
0.51
0.58
0.25
0.26
0.12
0.13
0.1
0.47
0.53
0.1
-
7
0.1
-
-
8
0.22
-
-
3
0.26
Y así el valor de la opción resulta ser hoy el promedio del valor presente
de todas las trayectorias, esto es: 0.23.
Luego de haber expuesto el funcionamiento del algoritmo de Longstaff y
Schwartz (2001), podemos expresarlo en toda su formalidad con suficiente
claridad. La siguiente exposición está basada en el trabajo original y en la
interpretación que Urzúa (2004) hace del algoritmo.
30
A pesar de la gran inversión en notación que se requiere para una
exposición formal de este tipo, es muy útil tener en mente el ejemplo
sencillo presentado en esta misma sección. Para comenzar, se realiza una
partición del espacio temporal en K oportunidades de ejercicio, entre el
instante inicial 0 y la fecha de maduración de la opción T . Por lo tanto, la
secuencia de instantes puede representarse como 0 < t1 < t2 < ... < t K = T . En el
ejemplo anterior K = 3 .
Luego se realizan N simulaciones del conjunto de las h variables
estocásticas subyacentes de la opción que agrupamos en el vector xt de
dimensión h , ω representa una trayectoria particular del conjunto de
patrones generados. Por lo tanto, en cada oportunidad de ejercicio se tiene
una matriz X t de dimensión N × h que agrupa todas las realizaciones de los
subyacentes de la opción. En el ejemplo anterior N = 8 y h = 1 .
El método supone que el dueño de la opción sigue una política de
ejercicio racional, siendo óptima para todo momento s tal que t < s < T . De
esta forma, se define C (ω , s; t , T ) como el flujo de caja de la opción dado que
ésta no ha sido ejercida ni con anterioridad ni en el momento t . Por lo
tanto, en cada oportunidad de ejercicio tk puede construirse un vector Ctk
de dimensión N con los flujos asociados a todas las trayectorias. En el
ejemplo anterior serían las tablas intermedias con el flujo de caja asociado a
cada trayectoria. Asimismo definimos G (ω , ti ) como el valor esperado de
continuar para la realización ω en la oportunidad tk , pero el método
aproxima dicho valor a través de las distintas regresiones, a ese valor
aproximado le llamamos G (ω , ti ) y al vector de dimensión N que agrupa el
las aproximaciones del valor esperado de continuar para todas las
trayectorias lo llamaremos G ( ti ) .
31
El verdadero valor esperado de continuar en cada trayectoria, G (ω , ti )
puede expresarse como:
⎡ K
⎤
⎛ tj
⎞
G (ω , tk ) = E ⎢ ∑ exp ⎜ − ∫ r (ω , s ) ds ⎟ × C (ω , t j , tk , T ) / f tk ⎥
⎜ tk
⎟
⎢ j = k +1
⎥
⎝
⎠
⎣
⎦
Q
(35)
En la expresión anterior se deja abierta la posibilidad de que la tasa
del activo libre de riesgo también siga un proceso estocástico, por esta razón
la notamos como r (ω , t ) . Por otro lado, la medida de probabilidad Q
corresponde a las probabilidades neutrales al riesgo, condicional en la
partición de eventos ftk . El valor de esta función es desconocido, sin
embargo, puede encontrarse una aproximación a dicha función. El gran
supuesto de Longstaff y Schwartz (2001) es que la función anterior
pertenece al espacio de Hilbert y por lo tanto admite una representación en
base a una combinación lineal de funciones finitas. Por lo tanto, podría
encontrarse una representación exacta de la función anterior de la forma:
∞
G (ω , tk ) = ∑ a j L j ( xt )
(36)
j =1
Es decir, existe una forma exacta del valor de continuar que puede ser
expresado mediante funciones L j ( xt ) combinadas según las constantes a j .
El vector xt contiene todas las variables estocásticas contenidas en el
cálculo del valor esperado de continuar. Como ya hemos dicho en varias
ocasiones, el meollo del problema es encontrar el valor de continuación para
poder definir la trayectoria óptima de ejercicio. La novedad del LSM es
modificar la expresión original de la función de continuación y expresarla
como una combinación lineal finita. De esta forma, pueden aplicarse
32
mínimos cuadrados ordinarios para estimar el valor de las constantes y así
poder estimar la verdadera función de continuación con la elección de un
número finito de M polinomios que notamos:
M
( )
G (ω , tk ) = ∑ a j L j xtk
j =1
(37)
Para este proceso, los autores proponen muchas funciones básicas que
dan forma a los polinomios L j ( xt ) . Entre ellas están las familias de
funciones de Laguerre, Chebyshev, Gegenbauer y Jacobi y algunas formas
más simples. En la sección siguiente trataremos brevemente el tema de la
elección del polinomio.
Como ya vimos en el ejemplo anterior, la resolución comienza de atrás
hacia delante. De esta forma, nos situamos en la fecha de maduración de la
opción T , donde el vector de pagos CT es conocido. Si definimos VI (ω , tk −1 )
como el valor de ejercer inmediatamente la opción en la trayectoria ω en el
momento tk −1 , podemos encontrar los flujos de caja para el momento T − 1 . Al
igual que en el simple ejemplo numérico antes visto, debemos comparar el
valor esperado de aguardar sin hacer efectiva la opción con el flujo de caja
que surge del ejercicio inmediato del derecho. Dicha comparación puede
exponerse en los siguientes términos:
Si VI (ω , tk −1 ) ≥ G (ω , tk −1 ) → C (ω , s, tk − 2 , T ) = VI (ω , tk −1 )
⎛ tk −1
⎞
Si VI (ω , tk −1 ) ≤ G (ω , tk −1 ) → C (ω , s, tk − 2 , T ) = C (ω , s, tk −1 , T ) × exp ⎜ − ∫ r (ω , s ) ds ⎟
⎜ t
⎟
⎝ k −2
⎠
En suma, para una trayectoria ω , si el valor esperado de continuar es
menor que el flujo de caja que resulta del ejercicio inmediato de la opción,
33
entonces el pago de la opción en ese momento y para ese patrón, coincide
con el valor de ejercicio inmediato. En caso contrario, como ya se había
señalado, el valor de la opción no es el valor esperado de continuar, sino el
verdadero flujo que se obtiene en caso de continuar. En efecto, según lo
indicado por Bossaerts en el artículo de Longstaff y Schwartz (2001), al
utilizar el valor esperado de continuar el pago de la opción se obtendría
según la siguiente ecuación:
(
C (ω , s, tk − 2 , T ) = Máx VI (ω , tk −1 ) ; G (ω , tk −1 )
)
(38)
Como ya hemos dicho, G (ω , tk −1 ) es una aproximación del valor presente
del flujo que resulta de no ejercer, y como tal, tiene un error de medición,
por lo tanto, dada la convexidad del operador máximo, aplicando la
desigualdad de Jensen puede constatarse que utilizar G (ω , tk −1 ) en el calculo
del flujo de la opción produce un sesgo sistemático al alza.
El procedimiento anterior ha de repetirse hasta el momento inicial, una
vez allí es claro que no puede realizarse una última regresión, ya que todas
las trayectorias comienzan con el mismo vector de valores inicial de los
subyacentes. Por lo tanto, considerando que todas las trayectorias ocurren
con igual probabilidad, se calcula el promedio aritmético de los valores
descontados asociados al patrón óptimo ya obtenido, es decir, el valor
aproximado de continuar en el momento inicial se expresa como:
G ( t0 ) =
1
N
⎛ t1
⎞
×
C
ω
exp
⎜ − ∫ r (ω , s ) ds ⎟
∑
1( )
⎜ t
⎟
ω =1
⎝ 0
⎠
N
(39)
34
Finalmente, si suponemos, al igual que en el ejemplo anterior, que la
opción puede ser ejercida hoy, el valor de dicho derecho en el momento
inicial es:
(
V = Máx VI (ω , t0 ) ; G ( t0 )
)
(40)
Una vez expuesto con claridad el algoritmo, es necesario revisar
algunos estudios acerca del mismo. La siguiente sección presenta los
principales resultados de la literatura acerca del método LSM.
35
4.- Estudios acerca del LSM
En esta sección, nos detendremos brevemente en las especificaciones
de los polinomios utilizados para aproximar la función de continuación del
algoritmo.
Moreno y Navas (2003) estudian la robustez del LSM. En particular, los
autores analizan la sensibilidad del método a la familia de polinomios
utilizada y al número de términos incluidos para aproximar la función de
continuación. Los autores examinan diez especificaciones alternativas e
incluyen hasta veinte términos para cada familia de polinomios. En una
primera parte comparan los distintos resultados del LSM con los del método
binomial para una Put americana. Los resultados de este primer
experimento muestran que, dado un número de términos, las distintas
familias de polinomios arrojan precios similares para el derivado. Sin
embargo, dado un tipo de polinomio, el valor de la opción no aumenta
monotónicamente. Para los cinco primeros términos, el valor suele
aumentar, pero al incluir más polinomios, el valor decrece y luego incluso
puede volver a aumentar. En este sentido, el criterio de Longstaff y Schwartz
(2001) para determinar el largo óptimo del polinomio a utilizar resulta
confuso. En efecto, existe más de un número de términos que cumple con la
propiedad de que el valor de la opción ya no aumente. Por otro lado, aunque
los resultados son bastante cercanos a la solución binomial y las
desviaciones estándar son muy pequeñas, existe una leve pero persistente
tendencia del algoritmo a subestimar el precio la opción, en relación a la
solución binomial. Luego estos autores amplían su análisis a un problema
con más factores de riesgo. El caso que analizan es el de un derivado cuyo
pago depende del máximo valor alcanzado por uno de cinco activos no
correlacionados. El punto de comparación en esta parte es el intervalo de
confianza obtenido por Broadie y Glasserman (1997b). Un primer análisis
indica que se necesitan al menos dos polinomios de alguna familia para
36
entrar a dicho intervalo, y nuevamente, al incluir más elementos el valor del
derivado aumenta, aunque sólo hasta el quinto término. Sin embargo,
algunas familias de polinomios comienzan a distanciarse del resto. En
efecto, tanto en este ejemplo de complejidad intermedia como en el último
experimento de estos autores, resulta evidente que la elección de la familia
del polinomio ya no es irrelevante.
Stentoft (2004) realiza un segundo estudio acerca de las propiedades
del algoritmo. En una primera parte del trabajo, el autor analiza el efecto en
el desempeño del algoritmo que surge de alterar tanto el número de
polinomios que se usa en las regresiones como la cantidad de patrones
simulados. En el trabajo de Longstaff y Schwartz (2001), los autores utilizan
100.000 simulaciones o patrones y se centran en la familia de polinomios de
Laguerre. Stentoft (2004), realiza sus experimentos aumentando el número
de polinomios de la familia de Laguerre desde uno hasta cinco, y para cada
elección varía también el número de patrones comenzando con 10.000
patrones y realiza aumentos sucesivos de 10.000 hasta completar las 100.000
simulaciones. El punto de comparación es el valor que arroja el método
binomial con 50.000 pasos. Al igual que en el estudio de Moreno y Navas
(2003) el autor encuentra que, dada la no monotonicidad del precio
estimado al numero de regresores, el criterio de Longstaff y Schwartz (2001)
para determinar el número óptimo de regresores resulta confuso. Sin
embargo, Stentoft (2004) encuentra que con un número bajo de polinomios
(uno o dos) el precio de la opción se subestima, por lo tanto recomienda la
utilización de tres o cuatro regresores como mínimo. Para resumir sus
conclusiones, los autores realizan una regresión entre el error cuadrático
medio de cada experimento y el logaritmo del número de patrones y del
número de regresores. En términos generales se concluye que el error
cuadrático medio disminuye a medida que aumentan ambas variables y
dichos efectos son estadísticamente significativos. En suma, el algoritmo
parece ser consistente.
37
Por otra parte, Stentoft (2004) analiza el desempeño de distintas
familias de polinomios alternativos. Si bien todas las familias analizadas
muestran la convergencia antes descrita, la familia de Legendre se comporta
mejor que las demás especificaciones, por tener un menor sesgo cuando se
usan pocos regresores. Finalmente, el autor define un trade-off entre el
tiempo computacional requerido y la precisión del método. Sobre esta
materia,
dado
que
la
familia
de
Legendre
puede
ser
reducida
a
combinaciones de polinomios ordinarios y que ésta resulta ser la familia que
exhibe el trade-off más favorable, el autor determina que la elección óptima
radica en utilizar dos o tres regresores de polinomios simples. En la sección
final del trabajo el autor compara la especificación anterior del algoritmo
con distintos métodos alternativos y concluye que el algoritmo de Longstaff
y Schwartz (2001) bajo esta especificación es la mejor alternativa para
valorar opciones americanas con múltiples subyacentes.
En alguna medida la tesis de Urzúa (2004) utiliza los resultados de los
estudios anteriores para sus aplicaciones del algoritmo LSM. En efecto, en
dicho trabajo el autor utiliza en sus regresiones potencias simples de los
precios teóricos que tendrían los contratos futuros del subyacente. Los
resultados que obtiene utilizando solamente las tres primeras potencias de
los contratos son extremadamente eficientes en problemas de opciones
reales clásicos de hasta tres factores de riesgo. Cabe destacar que la
fórmula teórica para la valoración de un contrato futuro incluye tanto al
subyacente como la tasa libre de riesgo y al retorno por conveniencia, por lo
tanto, cuando los tres factores son estocásticos el uso de potencias simples
de futuros reduce considerablemente el número de polinomios necesario
para encontrar un resultado eficiente.
38
5.- El uso práctico del LSM
En la práctica, para poder aplicar correctamente el algoritmo de
Longstaff y Schwartz (2001), es necesario conocer con exactitud el proceso
que sigue el subyacente. Para que el precio teórico del derivado corresponda
a su precio real, el investigador debe estar razonablemente seguro de que lo
que ha simulado, en el proceso de valoración, corresponde al movimiento
del subyacente. Aunque es bastante razonable asumir que los retornos del
subyacente siguen algún tipo de browniano geométrico, los parámetros
concretos que rigen dicho movimiento pueden estar sujetos a controversia.
En efecto, toda estimación de los parámetros fundamentales del browniano
está sujeta a un intervalo de confianza, es decir, no es posible conocer de
manera absolutamente confiable los valores que rigen las simulaciones. En
el trabajo original de Longstaff y Schwartz (2001) y en el estudio de Stentoft
(2004), los autores suponen el conocimiento exacto del patrón de
movimiento del subyacente. En esta sección estudiaremos el efecto de
incluir en las simulaciones el hecho empírico de que los parámetros
fundamentales del proceso están sujetos a variación, es decir, levantamos el
supuesto teórico de que el investigador conoce con exactitud el proceso
verdadero del subyacente.
Siguiendo el texto de Campbell, Lo y Mackinlay 9 (1997) el investigador
sabe que el subyacente que necesita simular sigue un proceso como el
presentado a continuación:
dP ( t ) = a ( P, t ; α ) dt + b ( P, t , β ) dB(t )
9
t ∈ [ 0, T ]
(41)
Remitirse al capítulo noveno de dicho texto.
39
Donde B (t ) es un proceso de Wiener estándar y θ ≡ [α ' β '] es un vector
de parámetros que el investigador desconoce. Como ya fue introducido al
comienzo de este trabajo, las funciones a ( P, t ; α ) y b ( P, t , β ) son la tendencia
y la difusión del proceso. A modo de ejemplo, en el sencillo caso del modelo
de Black y Scholes (1973) estas funciones están dadas por:
a ( P, t ; α ) = μ P
(42)
b ( P, t , β ) = σ P
(43)
Existen diversas formas para estimar el vector de parámetros θ , sin
embargo, incluso las más exactas y complejas están sujetas a un intervalo
de confianza. Es decir, cuando el investigador simula se ve forzado a hacerlo
con el vector θˆ previamente estimado. A continuación, nos centraremos en
la estimación de θˆ por máxima verosimilitud en el caso general, para
posteriormente, encontrar en el caso de Black y Scholes (1973) la varianza
de los parámetros fundamentales usados en las simulaciones.
La forma más directa de encontrar el vector θˆ es estimarlo a partir de
los datos históricos. Supongamos que tenemos una secuencia de n + 1
observaciones históricas de P ( t ) para un conjunto de fechas t0 < t1 < ... < tn . La
distribución de densidad conjunta f de la muestra está dada por:
n
f ( P0 ,..., Pn ;θ ) = f 0 ( P0 ;θ ) ∏ f ( Pk , tk / Pk −1 , tk −1 ;θ )
(44)
k =1
Donde Pk ≡ P ( tk ) , f 0 ( P0 ) es la función de densidad marginal en P0 y
f ( Pk , tk / Pk −1 , tk −1 ;θ ) es la función de densidad condicional de Pk dado Pk −1 ,
40
siguiendo a Campbell, Lo y Mackinlay 10 (1997) llamaremos a esta última
simplemente f k .
Para estimar θˆ por máxima verosimilitud es necesario definir la
función de log-verosimilitud como el logaritmo natural de la función de
densidad conjunta a través de la muestra expresada en función de θ . Es
decir:
n
(θ ) = ∑ log f k
(45)
k =0
El estimador de máxima verosimilitud está dado por:
θ ≡ arg max
(θ )
(46)
Con algunos supuestos de regularidad, puede demostrarse la
consistencia de θˆ y obtenerse su distribución aproximada en el límite:
(
)
n θ − θ ∼ N ( 0, I −1 (θ ) ) ,
a
⎡ ⎡ 1 ∂ 2 (θ ) ⎤ ⎤
I (θ ) ≡ lim ⎢ − E ⎢
⎥⎥
n →∞
⎢⎣ ⎣ n ∂θ ∂θ ' ⎦ ⎥⎦
(47)
Donde I (θ ) corresponde a la matriz de información. Cuando n es
grande, la distribución asintótica anterior permite aproximar la varianza de
θ como:
()
1
Var ⎡θ ⎤ ≈ I −1 θ
⎣ ⎦ n
(48)
Donde la matriz de información puede ser estimada como:
10
Remitirse al capítulo noveno de dicho texto.
41
()
2
1∂ θ
I=
n ∂θ ∂θ '
(49)
Cabe destacar que θ es de todos los estimadores consistentes y
uniformemente asintóticamente normales, el de menor varianza asintótica.
Por lo tanto, éste es el método preferido cuando puede realizarse. A pesar de
que es muy difícil encontrar expresiones exactas para las funciones de
densidad condicional, el texto de Campbell, Lo y Mackinlay 11 (1997) explica
como soslayar este problema.
Si nos concentramos en el proceso utilizado por Black y Scholes (1973),
donde:
1 ⎞
⎛
d log P = ⎜ μ − σ 2 ⎟ dt + σ dB = α dt + σ dB
2 ⎠
⎝
Es común asumir que los precios
(50)
P ( t ) siguen una distribución
lognormal y por simplicidad suponemos que la muestra está dividida en n
intervalos de tiempo constantes de duración h en [ 0, T ] de tal manera que
Pk ≡ P ( kh )
para
k = 0,1,..., n
con
T = nh . Los retornos logarítmicos del
⎛ P ⎞
subyacente, rk ( h ) ≡ log ⎜ k ⎟ son normales e IID con media α h y varianza
⎝ Pk −1 ⎠
σ 2 h . Con esta notación y bajo los supuestos habituales de Black y Scholes
(1973) es simple obtener los estimadores de máxima verosimilitud antes
mencionados.
La función de log-verosimilitud puede expresarse como:
11
Remitirse al capítulo noveno de dicho texto.
42
n
1 n
(α , σ ) = − log ( 2πσ 2 h ) − 2 ∑ ( rk ( h ) − α h )
2
2σ h k =1
2
(51)
Por lo tanto, los estimadores de máxima verosimilitud tienen una forma
finita dada por:
α=
1 n
∑ rk ( h )
nh k =1
(
1 n
σ = ∑ rk ( h ) − α h
nh k =1
2
(52)
)
2
(53)
De esta forma, el estimador de máxima verosimilitud coincide con los
momentos de la muestra. Si aplicamos en este caso las fórmulas de la
varianza asintótica a los estimadores de máxima verosimilitud antes
expuestas obtenemos:
a
Cuando
valoramos
σ2
Var ⎡α ⎤ ≈
⎣ ⎦ T
(54)
a 2σ 4
Var ⎡σ ⎤ ≈
⎣ ⎦ n
(55)
derivados
utilizando
el
algoritmo
LSM,
no
simulamos los procesos reales de los activos, sino los ajustados por riesgo.
De esta forma, el parámetro α puede suponerse conocido con razonable
certeza, ya que corresponde a la tasa libre de riesgo vigente en el mercado.
Sin embargo, el parámetro σ 2 ha de ser estimado, y en la práctica, se utiliza
con frecuencia la varianza histórica de los retornos. Pero, como ya ha sido
expuesto, dicha estimación está sujeta a su vez a una varianza. Por lo tanto,
al momento de estudiar las propiedades del LSM es necesario tomar en
cuenta que el investigador sólo trabaja con una aproximación de los
parámetros verdaderos del browniano del subyacente. En la siguiente
43
sección, se desarrollará un experimento para testear las propiedades del
algoritmo en el caso de un proceso simple cuando se toma en cuenta dicho
problema.
44
6.-
Eficiencia del uso de parámetros estimados
En esta sección buscaremos cuantificar el efecto de la varianza en los
parámetros utilizados, al momento de simular, en la eficiencia del LSM. Con
este fin, diseñaremos un conjunto de experimentos comparables con los
resultados tanto de Longstaff y Schwartz (2001) como de Stentoft (2004).
Por esta razón, recurriremos a las mismas formas funcionales en las
regresiones, los mismos parámetros y el mismo punto de comparación que
los trabajos anteriores. En una primera parte expondremos la forma en que
se han simulado los distintos procesos, luego se mostrará la familia de
polinomios que se utilizó y el número de funciones de dicha familia.
Finalmente se compara la eficiencia de los resultados obtenidos con la de
los resultados de los trabajos antes mencionados.
Siguiendo a Stentoft (2004), buscamos simular un proceso browniano
geométrico con la siguiente ecuación diferencial:
dS ( t ) = rS ( t ) dt + σ S ( t ) dW ( t )
(56)
Donde W es un proceso de Wiener estándar y tanto r como σ se
asumen constantes a través del tiempo. Lo primero es presentar la solución
de la ecuación diferencial anterior, es decir, expresar todos los puntos
futuros en función del punto inicial de la siguiente forma:
⎧⎛
1 ⎞
⎫
S ( t ) = S ( 0 ) exp ⎨⎜ r − σ 2 ⎟ t + σ W ( t ) ⎬
2 ⎠
⎩⎝
⎭
(57)
Si reemplazamos el proceso de Wiener por su forma usual obtenemos:
45
⎧⎛
1 ⎞
⎫
S ( t ) = S ( 0 ) exp ⎨⎜ r − σ 2 ⎟ t + σ tZ ( t ) ⎬
2 ⎠
⎩⎝
⎭
Donde Z ( t ) ∼ N ( 0,1) podemos fácilmente obtener una secuencia de
precios
para
fechas
discretas
arbitrariamente
espaciadas
tal
que
0 < t1 ≤ t2 ... ≤ t N = T utilizando la siguiente expresión:
⎧⎛
1 ⎞
⎫
S ( ti +1 ) = S ( ti ) exp ⎨⎜ r − σ 2 ⎟ ( ti +1 − ti ) + σ ti +1 − ti Z ( ti +1 ) ⎬
2 ⎠
⎩⎝
⎭
(58)
Donde Z ( ti +1 ) ∼ IIN ( 0,1) .
El procedimiento anterior puede extenderse fácilmente para el caso de
activos correlacionados, como en secciones posteriores utilizaremos también
esta herramienta es útil exponer inmediatamente la forma en que esto
puede realizarse. En la última ecuación es necesario reemplazar la
perturbación estocástica Z ( t ) por un vector normal multivariado Z ( t ) con
distribución N ( 0, ∑ ) , donde ∑ corresponde a una matriz de varianza y
covarianza con elemento típico ∑ij = ρijσ iσ j , en que ρij es el coeficiente de
correlación de dos perturbaciones de varianza σ i2 y σ 2j . La forma más
simple de construir este vector es crear en primer lugar L variables
estocásticas normales estándar tal que:
Z ( t ) = ( Z 1 ( t ) , Z 2 ( t ) ,..., Z L ( t ) )
(59)
Y luego escoger una descomposición para ∑ tal que ∑ = CC ' . Por lo
general se suele utilizar una descomposición de Cholesky para este efecto.
46
De esta forma CZ ∼ N ( 0, ∑ ) . Finalmente puede obtenerse el vector Z ( t ) en
función del vector Z ( t ) y de la matriz C :
Z 1 ( t ) = C11Z 1 ( t )
Z 2 ( t ) = C21Z 1 ( t ) + C212 Z 2 ( t )
(60)
...
Z L ( t ) = CL1Z 1 ( t ) + ... + CLL Z L ( t )
En la tercera sección de Longstaff y Schwartz (2001), los autores
calculan el valor de una opción americana usando 100.000 patrones
simulados, en las regresiones utilizan una constante y los primeros tres
polinomios ponderados de Laguerre. Cabe destacar que de las 100.000
simulaciones, 50.000 son variables antitéticas, utilizadas como técnica
estándar para la disminución de varianza. Stentoft (2004) expresa la forma
general de las regresiones usadas por Longstaff y Schwartz (2001) con la
siguiente fórmula:
K
y ( ti ) = α + ∑ β k ω ( x ( ti ) ) Lk −1 ( x ( ti ) ) + υ ( ti )
(61)
k =1
Donde Lk −1 ( x ( ti ) ) es el polinomio número k de la familia de Laguerre
evaluado en x ( ti ) y los parámetros α y β son las variables a estimar.
Stentoft (2004) utiliza en sus regresiones la misma ponderación que
Longstaff y Scwartz (2001), es decir:
⎛ x ( ti ) ⎞
⎟
2 ⎠
⎝
ω ( x ( ti ) ) = exp ⎜ −
(62)
47
Stentoft (2004) no utiliza la fórmula exacta de los polinomios de
Laguerre
sino
una
forma
reducida
que
facilita
enormemente
la
programación. A continuación presentamos las características generales de
esta familia de polinomios:
Tabla 6-1: Características de la Familia de Polinomios de Laguerre
Nombre
Laguerre
Ponderación
e−x
Características Generales
Intervalo
[0,∞)
Definición
Lk
(x ) =
ex d k
k ! dxk
(x
k
e−x
)
Fórmula Recursiva
Primer término
Segundo término
L0 ( x) =1
L1 ( x) =1−x
Tercer término
L2 ( x ) =
x2 − 4x + 2
2
Fórmula General
Lk + 1 ( x ) =
2k + 1 − x
k
Lk ( x ) −
Lk −1 ( x )
k +1
k +1
Stentoft (2004) analiza, en su primer experimento, las propiedades del
LSM aumentando el orden de los polinomios desde K = 1 hasta K = 5 y
variando el número de simulaciones usadas desde 10.000 hasta 100.000 .
Para cada combinación de los parámetros anteriores el autor reporta el
promedio de 100 realizaciones distintas y la correspondiente desviación
estándar. Además, usando como referencia el valor que entrega el método
binomial calcula el sesgo aproximado del LSM. Las características de la
opción analizada por Stentoft (2004) son las mismas que las de uno de los
derivados que analizan Longstaff y Schwartz (2001). Es decir, una Put
americana que expira en un año con diez oportunidades de ejercicio
igualmente espaciadas y un precio de ejercicio de 40 . El subyacente
comienza con un valor de 36 y tiene una volatilidad anualizada del 40% . La
tasa de interés está constante durante el período en un 6% . El valor de
comparación es el entregado por el método binomial con 50.000 pasos que
entrega un valor de 7.071 .
48
Tanto Longstaff y Schwartz (2001) como Stentoft (2004) destacan la
baja desviación estándar de sus experimentos. En el primer trabajo, luego
de constatar la escasa diferencia con la solución de diferencias finitas, los
autores afirman que el error estándar es muy bajo ubicándose entre 0.7 y
2.4 centavos de dólar, valor que pertenece al intervalo del spread entre
oferta y demanda para este tipo de opciones. En el caso de Stentoft (2004) la
eficiencia es también clara, por ejemplo, en el caso de K = 2 la desviación
estándar disminuye desde los 3 centavos para 10.000 simulaciones hasta .9
centavos con 100.000 patrones. A modo de ilustración presentamos el
fragmento en cuestión de la segunda tabla de Stentoft (2004) y agregamos la
raíz del error cuadrático medio definida como:
RECM = σ M2 + ( ρ LSM − ρ MB )
Patrones
10000
20000
30000
40000
50000
60000
70000
80000
90000
100000
2
(63)
Tabla 6-2: Resultados de Stentoft (2004)
K =2
Valor LSM
Des Est.
Sesgo
RECM
7.0670
7.0650
7.0610
7.0660
7.0650
7.0640
7.0640
7.0630
7.0650
7.0630
0.0300
0.0200
0.0170
0.0120
0.0120
0.0100
0.0100
0.0090
0.0090
0.0090
-0.0040
-0.0060
-0.0100
-0.0040
-0.0060
-0.0070
-0.0070
-0.0080
-0.0060
-0.0080
0.0303
0.0209
0.0197
0.0126
0.0134
0.0122
0.0122
0.0120
0.0108
0.0120
Los resultados de Stentoft (2004) son claros, tanto el sesgo como la
varianza del algoritmo son bajos y existe una clara disminución de ambos a
medida que se aumenta el número de simulaciones realizadas. Sin embargo,
como anunciamos en la sección anterior, la volatilidad del subyacente es
49
solamente una aproximación, más o menos acertada, de la varianza
verdadera del proceso verdadero. A continuación analizaremos los efectos
tanto en sesgo como en eficiencia que surgen al tomar en cuenta este
fenómeno. En términos generales, asumiremos los mismos parámetros que
Stentoft (2004), pero, para cada uno de los 100 experimentos, utilizaremos
una estimación de la varianza verdadera fundada en la varianza del método
de máxima verosimilitud expuesto en la sección anterior. Para obtener la
desviación estándar σ que utilizaría un individuo que calcula con datos
históricos el precio de un activo utilizamos la siguiente fórmula:
σ =σ +ε
2σ 4
n
(64)
Donde ε ∼ N ( 0,1) . Además, se asume que el investigador utiliza una
muestra de datos pasados para la estimación de σ del mismo largo y con la
misma periodicidad que el horizonte de simulación.
A continuación presentamos los resultados de un experimento
equivalente al de Stentoft (2004) considerando que en cada uno de los 100
experimentos realizados con los distintos números de simulaciones, se
utiliza el parámetro σ en lugar de σ . Por motivos de simplicidad no se
utiliza ninguna ponderación en los polinomios y nos limitamos al caso de
K = 2 . La siguiente tabla reporta en cada celda el valor promedio de los cien
experimentos, su desviación estándar, su sesgo y la raíz del error cuadrático
tanto para este experimento como el reportado por Stentoft (2004). Donde
σ M2 es la varianza de los cien experimentos realizados con M simulaciones y
los parámetros ρ LSM y ρ MB representan respectivamente el promedio del
valor del derivado por el método LSM y el valor que arroja el modelo
binomial con las características ya mencionadas.
50
Tabla 6-3: Aumento de la RECM cuando se Utiliza una Estimación de la
Desviación Estándar
LSM con K = 2 y σ
M
10000
20000
30000
40000
50000
60000
70000
80000
90000
100000
ρLSM −ρMB RECM σ
ρ LSM
σM
6.8532
7.0852
6.9895
6.9433
6.8162
7.0497
7.0018
6.7699
7.1526
6.9623
0.8992
1.0006
1.1113
0.9745
0.9675
1.1138
0.9493
1.0110
1.0376
0.9844
-0.2178
0.0142
-0.0815
-0.1277
-0.2548
-0.0213
-0.0692
-0.3011
0.0816
-0.1087
0.9252
1.0007
1.1143
0.9828
1.0005
1.1140
0.9518
1.0549
1.0408
0.9904
RECMσ
0.0303
0.0209
0.0197
0.0126
0.0134
0.0122
0.0122
0.012
0.0108
0.012
A continuación se grafica la evolución de la raíz del error cuadrático
medio para ambos experimentos en función del número de simulaciones
utilizadas:
Gráfico 6-1: Comparación de las RECM
RECM en función de M
1.2000
1.0000
RECM con varianza
desconocida
0.6000
RECM con varianza
conocida
0.4000
0.2000
0.0000
10
00
0
20
00
0
30
00
0
40
00
0
50
00
0
60
00
0
70
00
0
80
00
0
90
00
10 0
00
00
RECM
0.8000
M
51
Los resultados del experimento anterior son decidores. La desviación
estándar del LSM cuando se toma en cuenta que el investigador no conoce
con exactitud la desviación estándar que rige el browniano del activo
subyacente es alrededor de cien veces la calculada tanto por Longstaff y
Schwartz (2001) como Stentoft (2004). Además, el sesgo presentado por el
método es significativamente mayor que el reportado por los trabajos
anteriores. Finalmente, no existe ninguna tendencia a la disminución de la
desviación estándar o del valor absoluto del sesgo a medida que se aumenta
el número de simulaciones utilizadas. En este sentido, la difundida creencia
de que las estimaciones mejoran cuando se aumenta el número de patrones
utilizados se ve drásticamente socavada. Es más, éste y otros de los
resultados principales reportados por Stentoft (2004) parecen ser válidos
sólo en el supuesto absolutamente teórico de que el investigador conoce la
desviación estándar verdadera del proceso.
Este primer experimento pone en tela de juicio la aplicación práctica
del algoritmo más utilizado en el mundo de las finanzas. Esta visión crítica
del LSM es el primer resultado del presente trabajo. En las secciones
posteriores proponemos una variación al LSM y estudiamos en que medida
ésta puede lidiar con el problema práctico expuesto.
52
7.- Uso de un activo ficticio como “ancla”
Como expusimos en la sección anterior, el uso práctico del LSM es
bastante menos eficiente de lo que podría pensarse. En la realidad el
operador de una mesa de dinero no conoce el valor exacto de los parámetros
que rigen el movimiento del subyacente. Más aún, dada la velocidad de las
transacciones, es muy poco probable que disponga del tiempo necesario
para realizar una estimación más acertada que la que hemos utilizado en
nuestro ejemplo, y seguramente, aplicará una sola vez el algoritmo,
exponiéndose a la totalidad de la varianza del precio. En el caso de un
modelo simple como el ya presentado, si el investigador conociese el
verdadero valor de σ esto no sería un gran problema. Ya que, en ese
escenario, la desviación estándar de su estimación, como bien dicen
Longstaff y Schwartz (2001), mantiene el precio al interior del intervalo de
oferta y demanda del derivado. Sin embargo, está desviación aumenta
drásticamente cuando se permite un mínimo error en la estimación de σ .
En efecto, la desviación estándar se ubica en la vecindad de un dólar por
unidad de derivado, lo que, dada la intensidad de las transacciones
bursátiles puede ser una verdadera catástrofe. De aquí que sea de absoluta
relevancia la búsqueda de variaciones al algoritmo que permitan lidiar
satisfactoriamente con el problema empírico expuesto.
¿Qué es realmente lo que sucede cuando utilizamos una desviación
estándar distinta de la verdadera en las simulaciones de los procesos
financieros? La desviación estándar en el browniano es también llamada el
parámetro de dispersión, y como tal, da cuenta de la amplitud de los
movimientos del subyacente. Por lo tanto, cuando usamos un σ mayor al
verdadero permitimos que nuestra simulación sobre reaccione con respecto
al proceso real. Sin embargo, el activo subyacente no se encuentra aislado
en el mercado. El inmenso desarrollo de los mercados financieros modernos
53
y la gran rapidez con que fluye la información permiten comparar casi sin
costo los precios de distintos activos. De esta forma, en una mesa de dinero
los operadores no están solamente atentos al movimiento del activo que es
de su interés, sino que observan el mercado como un todo. Las distintas
correlaciones históricas entre los activos aportan información sobre el
movimiento de los mismos. De esta forma, un operador suele estudiar con
mayor detalle el movimiento de un activo desalineado en relación al
mercado o con respecto a otro activo de similares características.
Imaginemos el caso extremo de dos compañías del mismo rubro y de similar
constitución. Claramente sus acciones han de mostrar una alta correlación
histórica. Mientras el movimiento de ambas sea similar, el operador no se
preocupará mayormente de éstas. Pero, si en algún momento, una de ellas
reaccionara fuertemente sin que la otra se alterara en demasía, los
esfuerzos del operador claramente se centrarían en entender las causas.
La idea de esta sección es lograr incluir en el LSM la intuición antes
descrita. Es decir, agregar información sobre otro activo correlacionado con
el subyacente del derivado de manera que el algoritmo “no confíe”
plenamente y sin reservas en σ sino que corrija por la realización del otro
proceso correlacionado. De esta forma, parte del efecto del error de
estimación inherente al σ puede ser amainado por la correlación con el otro
proceso. En el mundo real ningún proceso es conocido con exactitud y
menos las correlaciones entre procesos. Sin embargo, en este caso no
necesitamos verdaderamente conocer el proceso del activo correlacionado,
de hecho, no necesitamos siquiera que dicho activo exista.
Lo que realmente buscamos en el activo correlacionado es un “ancla”
para el proceso del subyacente. Queremos idear una especie de sensor, un
testigo, que alerte al algoritmo cuando el desvío resulte desproporcionado
dada su correlación. Dicho mecanismo, aunque está inspirado en la
54
racionalidad práctica del operador, no necesita tener una contraparte
empírica, y por ende, no tiene porque estar sujeto a su vez a un error de
estimación. Por lo tanto, al momento de simular el proceso estimado del
activo subyacente simularemos también un segundo activo, absolutamente
ficticio, con una desviación estándar arbitraria y un coeficiente de
correlación distinto de cero. Sin embargo, la inclusión de este nuevo proceso
necesita claras variaciones en el método de estimación tradicional del LSM.
En esta sección se presenta una variación del algoritmo original basado en
MICO que incluye la nueva información y que no ensucia mayormente la
estimación en ausencia del problema, es decir, con certeza de σ .
Ya en su trabajo seminal, Longstaff y Schwartz (2001) invitan a la
comunidad a experimentar con otro tipo de regresiones. El problema que los
autores tienen en mente es como lidiar con la posibles heteroscedasticidad
del error en las series financieras. Sobre este tipo de variaciones puede
consultarse el trabajo de Stentoft (2005). Sin embargo, en el presente
trabajo, la inversión en econometría tiene el fin de incluir la información del
activo correlacionado al memento de encontrar la esperanza condicional de
continuar sin ejercer la opción.
El primer paso antes de definir la mejor manera de incluir la
información del activo correlacionado es simularlo. Cabe destacar que la
simulación utilizada ya fue descrita en la sexta sección. La descomposición
de la matriz de varianza-covarianza utilizada a lo largo de este trabajo
corresponde a una descomposición de Cholesky.
Existen a lo menos dos caminos econométricos para incluir la
información del otro proceso, el primero consiste en utilizar el nuevo
proceso como variable de control. Es decir, incluirlo en la regresión del
mismo modo y, por simplicidad con la misma forma funcional, que al activo
55
original. Formalmente, utilizando una ponderación constante e igual a la
unidad la regresión se convierte en:
K
K
k =1
k =1
y ( ti ) = α + ∑ β k1 Lk −1 ( x1 ( ti ) ) + ∑ β k 2 Lk −1 ( x2 ( ti ) ) + υ ( ti )
(65)
Donde x1 ( ti ) representa el valor del activo subyacente y x2 ( ti ) el valor
del proceso correlacionado, υ ( ti ) es el error de la regresión, β k1 y β k 2 los
parámetros a estimar específicos a cada polinomio de activos. Cabe destacar
que utilizamos el mismo tipo y la misma extensión en los polinomios que
dan la forma a los regresores. La estimación de los parámetros se hace
también por MICO, por lo tanto, el único cambio relevante es el cambio en el
modelo de regresión. El resto del proceso de valoración es idéntico al del
algoritmo original. La inclusión de este tipo de variables claramente
introduce colinealidad al modelo lo que aumenta la varianza de los
estimadores.
Sin
embargo,
el
algoritmo
sólo
busca
predecir
consistentemente el valor de la esperanza condicional, por lo tanto esta
maniobra debería ser inofensiva en el cálculo final. Más adelante en esta
sección evaluaremos los efectos de esta metodología. Para mayor detalle de
estas
propiedades
es
conveniente
remitirse
al
libro
de
texto
de
Greene 12 (2003).
Una segunda alternativa consiste en utilizar los datos de la nueva
simulación como instrumentos en la regresión original. En este caso nos
alejamos claramente del modelo de regresión MICO y utilizamos una
estimación por variables instrumentales. Cabe señalar que el tipo de
instrumentos que utilizamos puede entenderse como una regresión de
MICO en dos etapas, nuevamente, el detalle de este tipo de estimaciones
12
Remitirse a los capítulos cuarto y octavo de dicho texto.
56
puede encontrarse en el libro de texto de Greene 13 (2003). En términos
generales, es conveniente para la exposición llamar X a la matriz del
modelo original de Longstaff y Schwartz (2001) que contiene todas las
variables independientes, por lo tanto, la columna de unos y los K
polinomios de la familia elegida evaluados en el activo subyacente e Y como
el vector de variables dependientes. Siguiendo con la notación, lo que
hacemos es formar una matriz de instrumentos a la que llamamos Z
idéntica a X en su forma pero con los polinomios evaluados en el activo
correlacionado. A diferencia del primer camino expuesto para la inclusión
del activo correlacionado, la regresión final utiliza el mismo número de
parámetros que la del modelo LSM original. La obtención formal del vector
de parámetros β VI en términos matriciales es:
(
β VI = X ' Z ( Z ' Z ) Z ' X
−1
)
−1
X ' Z ( Z ' Z ) Z 'Y
−1
(66)
El estimador anterior puede entenderse cuando menos de dos formas.
La primera es definir la matriz de proyecciones PZ como:
Pz = Z ' ( Z ' Z ) Z
−1
(67)
Y utilizarla como instrumento premultiplicando el modelo entero por PZ
y obteniendo el estimador MICO del modelo transformado.
La segunda forma de entender este estimador es constatar que el
instrumento en cuestión, la matriz PZ , realiza proyecciones ortogonales de
cualquier variable en la base Z y por lo tanto, coincide con una estimación
MICO en dos etapas donde se corre una primera regresión de X explicada
13
Remitirse al capítulo quinto de dicho texto.
57
por Z y luego con los valores estimados de X se corre la regresión MICO
que busca predecir Y .
Para analizar correctamente los dos caminos anteriores, introduciremos
la nueva información al algoritmo y realizaremos una prueba de ambos. La
prueba en cuestión busca definir si tienen algún efecto en el algoritmo,
medido en función de la raíz del error cuadrático medio, en ausencia del
problema. El punto de partida serán las estimaciones equivalentes de
Stentoft (2004).
En primer lugar, ambos caminos requieren simular dos procesos
correlacionados. El activo subyacente se simula de la misma manera que en
el caso presentado en la sección anterior pero asumiendo que el
investigador conoce la varianza. El activo correlacionado se modela, según el
marco ya expuesto, utilizando un coeficiente de correlación ρ . Para testear
el impacto de dicho coeficiente se utilizan valores que van desde 0.1 a 0.9
con intervalos constantes de 0.1 . Para poder comparar con las simulaciones
de Stentoft (2004), se realizan experimentos con simulaciones que van
desde los 10.000
patrones hasta los 100.000 , los aumentos son de
10.000 simulaciones. La opción evaluada es una Put Americana que expira en
un año con diez oportunidades de ejercicio igualmente espaciadas y un
precio de ejercicio de 40 . El subyacente comienza con un valor de 36 y tiene
una volatilidad anualizada de 40% , conocida por el investigador. La tasa de
interés está constante durante el período en un
6% . El valor de
comparación es el entregado por el método binomial con 50.000 pasos que
entrega un valor de 7.071 . El proceso del activo correlacionado ficticio se
simula con un valor inicial de 36 y una volatilidad anual constante de 40% ,
cabe destacar que los resultados no dependen en medida alguna de esta
última elección. Nuevamente el valor del algoritmo reportado en la tabla es
58
el promedio de cien experimentos de las características anteriores y la
desviación estándar corresponde a la del mismo conjunto.
La diferencia de los dos métodos consiste en la estrategia de regresión
utilizada. La primera tabla presentada muestra los resultados que obtiene
Stentoft (2004) corriendo el LSM tradicional con un K = 2 . La segunda tabla
muestra el resultado de incluir el segundo proceso en la regresión como una
nueva variable, con la misma forma polinomial del primero y un K = 2 . La
tercera tabla expone los resultados de incluir el nuevo activo como
instrumento. En cada tabla se presenta el número de simulaciones, la
media y la desviación estándar de las cien repeticiones y los parámetros
utilizados en cada caso.
Tabla 7-1: Resultados del LSM tradicional de Stentoft (2004)
LSM tradicional reportado por Stentoft (2004) con K = 2
M
10000
20000
30000
40000
50000
60000
70000
80000
90000
100000
Media
7,067
7,065
7,061
7,066
7,065
7,064
7,064
7,063
7,065
7,063
Des. est.
0,030
0,020
0,017
0,012
0,012
0,010
0,010
0,009
0,009
0,009
Sesgo
-0,004
-0,006
-0,010
-0,004
-0,006
-0,007
-0,007
-0,008
-0,006
-0,008
RECM
0,030
0,021
0,020
0,013
0,013
0,012
0,012
0,012
0,011
0,012
59
Tabla 7-2: LSM Utilizando el Activo Ficticio como Regresor cuando la Varianza es Conocida (1)
M
10000
20000
30000
40000
50000
60000
70000
80000
90000
100000
Rho= 0.1
Media Des. est. Sesgo
7.0759 0.0241 0.0049
7.0697 0.0199 -0.0013
7.0677 0.0176 -0.0033
7.0675 0.0147 -0.0035
7.0682 0.0128 -0.0028
7.0662 0.0119 -0.0048
7.0658 0.0091 -0.0052
7.0641 0.0093 -0.0069
7.0649 0.0096 -0.0061
7.0647 0.0090 -0.0063
RECM
0.0246
0.0199
0.0179
0.0151
0.0131
0.0128
0.0105
0.0116
0.0114
0.0110
Rho=0. 2
Media Des. est. Sesgo
7.0748 0.0289 0.0038
7.0709 0.0203 -0.0001
7.0668 0.0154 -0.0042
7.0663 0.0134 -0.0047
7.0661 0.0135 -0.0049
7.0687 0.0109 -0.0023
7.0658 0.0122 -0.0052
7.0643 0.0096 -0.0067
7.0664 0.0088 -0.0046
7.0664 0.0084 -0.0046
RECM
0.0291
0.0203
0.0160
0.0142
0.0144
0.0111
0.0133
0.0117
0.0099
0.0096
Rho= 0.3
Media Des. est. Sesgo
7.0769 0.0275 0.0059
7.0734 0.0206 0.0024
7.0699 0.0153 -0.0011
7.0641 0.0149 -0.0069
7.0654 0.0124 -0.0056
7.0661 0.0120 -0.0049
7.0654 0.0093 -0.0056
7.0655 0.0091 -0.0055
7.0668 0.0092 -0.0042
7.0659 0.0083 -0.0051
RECM
0.0281
0.0207
0.0153
0.0164
0.0136
0.0130
0.0109
0.0106
0.0101
0.0097
Rho= 0.4
Media Des. est. Sesgo
7.0695 0.0292 -0.0015
7.0647 0.0218 -0.0063
7.0693 0.0151 -0.0017
7.0666 0.0143 -0.0044
7.0677 0.0133 -0.0033
7.0646 0.0129 -0.0064
7.0660 0.0112 -0.0050
7.0658 0.0082 -0.0052
7.0664 0.0095 -0.0046
7.0655 0.0089 -0.0055
RECM
0.0292
0.0227
0.0152
0.0150
0.0137
0.0144
0.0123
0.0097
0.0106
0.0105
Tabla 7-3: LSM Utilizando el Activo Ficticio como Regresor cuando la Varianza es Conocida (2)
M
10000
20000
30000
40000
50000
60000
70000
80000
90000
100000
Media
7.0744
7.0683
7.0692
7.0666
7.0667
7.0672
7.0648
7.0651
7.0643
7.0670
Rho= 0.5
Des. est. Sesgo
0.0295 0.0034
0.0205 -0.0027
0.0153 -0.0018
0.0141 -0.0044
0.0122 -0.0033
0.0116 -0.0038
0.0120 -0.0062
0.0101 -0.0059
0.0081 -0.0067
0.0091 -0.0040
RECM
0.0297
0.0207
0.0154
0.0148
0.0126
0.0122
0.0135
0.0117
0.0105
0.0099
Media
7.0725
7.0686
7.0667
7.0662
7.0666
7.0667
7.0665
7.0658
7.0648
7.0659
Rho=0.6
Des. est. Sesgo
0.0265 0.0015
0.0222 -0.0024
0.0170 -0.0043
0.0132 -0.0048
0.0112 -0.0044
0.0118 -0.0043
0.0101 -0.0045
0.0094 -0.0052
0.0086 -0.0062
0.0079 -0.0051
RECM
0.0265
0.0223
0.0175
0.0140
0.0120
0.0126
0.0111
0.0107
0.0106
0.0094
Media
7.0721
7.0690
7.0689
7.0679
0.0646
7.0666
7.0652
7.0669
7.0675
7.0679
Rho= 0.7
Des. est. Sesgo
0.0284 0.0011
0.0207 -0.0020
0.0177 -0.0021
0.0140 -0.0031
0.0117 -0.0064
0.0113 -0.0044
0.0102 -0.0058
0.0098 -0.0041
0.0088 -0.0035
0.0087 -0.0031
RECM
0.0284
0.0208
0.0178
0.0143
0.0133
0.0121
0.0117
0.0106
0.0095
0.0092
Media
7.0755
7.0668
7.0686
7.0672
7.0675
7.0663
7.0676
7.0644
7.0653
7.0646
Rho= 0.8
Des. est. Sesgo
0.0255 0.0045
0.0199 -0.0042
0.0130 -0.0024
0.0147 -0.0038
0.0142 -0.0035
0.0124 -0.0047
0.0111 -0.0034
0.0098 -0.0066
0.0099 -0.0057
0.0088 -0.0064
RECM
0.0259
0.0203
0.0132
0.0152
0.0146
0.0133
0.0116
0.0118
0.0114
0.0109
Media
7.0749
7.0686
7.0669
7.0690
7.0676
7.0669
7.0656
7.0641
7.0665
7.0646
Rho= 0.9
Des. est. Sesgo
0.0280 0.0039
0.0209 -0.0024
0.0185 -0.0041
0.0132 -0.0020
0.0126 -0.0034
0.0114 -0.0041
0.0103 -0.0054
0.0097 -0.0069
0.0096 -0.0045
0.0083 -0.0064
60
RECM
0.0283
0.0210
0.0189
0.0134
0.0131
0.0121
0.0116
0.0119
0.0106
0.0105
Tabla 7-4: LSM Utilizando el Activo Ficticio como Instrumento cuando la Varianza es Conocida (1)
M
10000
20000
30000
40000
50000
60000
70000
80000
90000
100000
Rho= 0.1
Media Des. est. Sesgo
7.0742 0.0278 0.0032
7.0664 0.0183 -0.0046
7.0667 0.0174 -0.0043
7.0631 0.0142 -0.0079
7.0673 0.0125 -0.0037
7.0652 0.0118 -0.0058
7.0652 0.0094 -0.0058
7.0636 0.0090 -0.0074
7.0649 0.0088 -0.0061
7.0665 0.0089 -0.0045
RECM
0.0280
0.0189
0.0179
0.0162
0.0130
0.0131
0.0110
0.0117
0.0107
0.0100
Rho=0. 2
Media Des. est. Sesgo
7.0723 0.0242 0.0013
7.0665 0.0195 -0.0045
7.0666 0.0158 -0.0044
7.0655 0.0149 -0.0055
7.0658 0.0137 -0.0052
7.0675 0.0113 -0.0035
7.0651 0.0119 -0.0059
7.0633 0.0099 -0.0077
7.0654 0.0090 -0.0056
7.0657 0.0091 -0.0053
RECM
0.0242
0.0200
0.0164
0.0159
0.0147
0.0118
0.0133
0.0125
0.0106
0.0105
Rho= 0.3
Media Des. est. Sesgo
7.0694 0.0267 -0.0016
7.0680 0.0232 -0.0030
7.0687 0.0183 -0.0023
7.0657 0.0156 -0.0053
7.0642 0.0127 -0.0068
7.0665 0.0118 -0.0055
7.0651 0.0093 -0.0059
7.0652 0.0091 -0.0058
7.0651 0.0095 -0.0059
7.0645 0.0087 -0.0065
RECM
0.0267
0.0234
0.0184
0.0165
0.0144
0.0130
0.0110
0.0108
0.0112
0.0109
Rho= 0.4
Media Des. est. Sesgo
7.0722 0.0282 0.0012
7.0646 0.0201 -0.0064
7.0634 0.0172 -0.0076
7.0649 0.0136 -0.0061
7.0670 0.0133 -0.0040
7.0641 0.0128 -0.0069
7.0652 0.0110 -0.0058
7.0656 0.0083 -0.0054
7.0661 0.0095 -0.0049
7.0629 0.0096 -0.0081
RECM
0.0282
0.0211
0.0188
0.0149
0.0139
0.0145
0.0124
0.0099
0.0107
0.0126
Tabla 7-5: LSM Utilizando el Activo Ficticio como Instrumento cuando la Varianza es Conocida (2)
M
10000
20000
30000
40000
50000
60000
70000
80000
90000
100000
Media
7.0668
7.0671
7.0663
7.0657
7.0669
7.0666
7.0644
7.0651
7.0651
7.0664
Rho= 0.5
Des. est. Sesgo
0.0297 -0.0042
0.0194 -0.0039
0.0166 -0.0047
0.0148 -0.0053
0.0124 -0.0041
0.0117 -0.0044
0.0120 -0.0066
0.0101 -0.0059
0.0091 -0.0059
0.0088 -0.0046
RECM
0.0300
0.0198
0.0173
0.0157
0.0131
0.0125
0.0137
0.0117
0.0108
0.0099
Media
7.0705
7.0686
7.0669
7.0652
7.0652
7.0658
7.0657
7.0651
7.0662
7.0644
Rho=0.6
Des. est. Sesgo
0.0306 -0.0005
0.0194 -0.0024
0.0173 0.0041
0.0134 -0.0058
0.0113 -0.0058
0.0115 -0.0052
0.0099 -0.0053
0.0097 -0.0059
0.0101 -0.0048
0.0099 -0.0066
RECM
0.0306
0.0195
0.0178
0.0146
0.0127
0.0126
0.0112
0.0114
0.0112
0.0119
Media
7.0692
7.0677
7.0648
7.0635
7.0645
7.0659
7.0650
7.0660
7.0645
7.0668
Rho= 0.7
Des. est. Sesgo
0.0257 -0.0018
0.0204 -0.0033
0.0166 -0.0062
0.0147 -0.0075
0.0115 -0.0065
0.0114 -0.0051
0.0102 -0.0060
0.0100 -0.0050
0.0102 -0.0065
0.0089 -0.0042
RECM
0.0258
0.0207
0.0177
0.0165
0.0132
0.0125
0.0118
0.0112
0.0121
0.0098
Media
7.0742
7.0720
7.0653
7.0667
7.0663
7.0650
7.0668
7.0637
7.0655
7.0648
Rho= 0.8
Des. est. Sesgo
0.0278 0.0032
0.0215 0.0010
0.0160 -0.0057
0.0128 -0.0043
0.0139 -0.0047
0.0109 -0.0060
0.0116 -0.0042
0.0101 -0.0073
0.0097 -0.0055
0.0082 -0.0062
RECM
0.0280
0.0215
0.0170
0.0135
0.0147
0.0124
0.0123
0.0125
0.0112
0.0103
Media
7.0723
7.0639
7.0691
7.0646
7.0669
7.0667
7.0651
7.0638
7.0662
7.0634
Rho= 0.9
Des. est. Sesgo
0.0242 0.0013
0.0211 -0.0071
0.0146 -0.0019
0.0130 -0.0064
0.0129 -0.0041
0.0111 -0.0043
0.0099 -0.0059
0.0099 -0.0072
0.0093 -0.0048
0.0095 -0.0076
61
RECM
0.0242
0.0223
0.0147
0.0145
0.0135
0.0119
0.0115
0.0122
0.0105
0.0122
Nuestros resultados son coherentes con los de Stentoft (2004) Al igual
que dicho trabajo, encontramos un insignificante pero persistente sesgo
negativo en el algoritmo utilizando polinomios de Laguerre con K = 2 .
También se observa una tendencia a la baja en el sesgo y la varianza del
valor a medida que aumenta el número de simulaciones.
Un resultado interesante es que en ambas formas de incluir el activo
correlacionado, dado un número de simulaciones, no existe una diferencia
significativa entre la RECM calculada con distintos ρ y los resultados de
Stentoft (2004). Este hecho se ve claramente en los dos gráficos presentados
a continuación:
Gráfico 7-1: RECM del LSM Tradicional y de la Variación al Modo
“Regresor”
RECM de Stentoft Comparado con Uso de Activo
Correlacionado como Regresor
0.030
Stentoft
0.025
Rho= 0.1
0.020
Rho=0. 2
Rho= 0.3
0.015
Rho= 0.4
0.010
Rho= 0.5
10
00
00
90
00
0
80
00
0
70
00
0
60
00
0
50
00
0
40
00
0
Rho= 0.7
30
00
0
Rho=0.6
0.000
20
00
0
0.005
10
00
0
RECM
0.035
Rho= 0.8
Rho= 0.9
M
62
Gráfico 7-2: RECM del LSM Tradicional y de la Variación al Modo
“Instrumento”
RECM de Stentoft Comparado con Uso de Activo
Correlacionado como Instrumento
RECM
0.035
0.030
Stentoft
0.025
Rho= 0.1
0.020
Rho=0. 2
Rho= 0.3
0.015
Rho= 0.4
0.010
Rho= 0.5
Rho= 0.8
10
00
00
90
00
0
80
00
0
70
00
0
60
00
0
50
00
0
40
00
0
30
00
0
Rho= 0.7
20
00
0
Rho=0.6
0.000
10
00
0
0.005
Rho= 0.9
M
En los dos gráficos anteriores también puede constatarse que no existe
una
diferencia
significativa
en
las
RECM
calculadas
con
distintas
correlaciones en ninguno de los dos métodos. Para esclarecer aún más este
punto podemos correr para ambos modelos la siguiente regresión:
ln ( RECM ) = α + β1 ln ( M ) + β 2 ln ( ρ ) + υ
(68)
Los resultados de las regresiones anteriores son los siguientes:
Instrumentos:
ln ( RECM ) = −0.0665+ ( -0.3906 ) ln ( M ) + ( -0.0166 ) ln ( ρ ) + υ
( -.3856 ) ( -24.3087 )
( -0.9901)
(69)
R 2 = 0.8717
Regresores:
63
ln ( RECM ) = 0.1116+ ( -0.4101) ln ( M ) + ( -0.0192 ) ln ( ρ ) + υ
( 0.5717 ) ( -22.5290 )
( -1.0126 )
(70)
R 2 = 0.8537
Los números entre paréntesis indican el valor del test t individual. Es
útil constatar que el signo del logaritmo de valores menores que uno como
la RECM y ρ
es negativo. Este experimento no tiene más fin que
fundamentar lo antes dicho. En ambas regresiones se ve que más
simulaciones disminuyen la RECM significativamente y que el efecto de
distintos ρ no es significativo.
Sin embargo, las RECM para los valores intermedios de ρ en ambas
formas de introducir el proceso correlacionado son menores que los
obtenidos por Stentoft (2004). Si nos centramos, por ejemplo, en el caso en
que se realizan 80.000 simulaciones y graficamos la RECM de cada
alternativa en función de la correlación obtenemos el siguiente gráfico:
Gráfico 7-3: Comparación de las RECM
RECM de los distintos métodos para M=80000
0.014
0.012
RECM
0.010
LSM tradicional
0.008
Instrumento
0.006
Regresor
0.004
0.002
0.000
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
Rho
64
El gráfico anterior no sólo ilustra la conclusión enunciada, vale decir,
que para valores moderados de ρ la RECM es menor, sino que además
muestra claramente que en ese rango las variaciones propuestas al LSM
superan la versión original incluso cuando el investigador conoce la
desviación estándar del proceso. Además, este gráfico muestra que utilizar
el activo correlacionado como regresor es marginalmente más eficiente que
hacerlo como instrumento. Estas conclusiones se mantienen prácticamente
incólumes para distintos números de simulaciones. Por lo tanto, las dos
variaciones propuestas para enfrentar los problemas del uso práctico del
LSM demuestran ser incluso más eficientes que el algoritmo original en el
uso meramente teórico donde se conocen los parámetros.
En la siguiente sección evaluaremos ahora si existen ganancias de
eficiencia que resulten de la incorporación de un activo correlacionado
mediante ambos caminos cuando se toma en cuenta que el investigador no
conoce realmente la desviación estándar que rige el proceso del subyacente
de la opción que valora.
65
8.- Experimentos y eficiencia
Al inicio de este trabajo expusimos en detalle la teoría de valoración de
opciones americanas, con especial detención en el algoritmo LSM. Luego
planteamos un problema de orden práctico al que se debe enfrentar el
algoritmo. Finalmente, en la sección anterior estudiamos la inclusión de un
segundo activo en el cálculo tradicional del LSM por dos métodos distintos.
En la presente sección aplicaremos dichos métodos al caso en que el
investigador no conoce con certeza la varianza del subyacente.
Los parámetros y los procedimientos utilizados en las simulaciones de
esta parte de la tesis son equivalentes a los utilizados en secciones
anteriores. De esta forma, volvemos a recurrir a la ecuación (64) para
calcular la varianza del subyacente utilizada en cada intento por el
individuo. Es fundamental utilizar esa misma varianza estimada en la
matriz de varianza y covarianza del conjunto de ecuaciones (60). De no ser
así, sólo se incorpora el efecto en la media del proceso de la varianza de la
desviación estándar estimada, y no el efecto en la volatilidad misma del
proceso. Si se comete el error anterior los resultados de los métodos
probados resultan ser en apariencia extremadamente eficientes, como
muestra el anexo II.
Para analizar el comportamiento de las variaciones al LSM cuando se
utiliza una varianza estimada en las simulaciones, valoraremos la misma
opción que en el resto del trabajo. Es decir, una opción de venta con precio
de ejercicio de 40 que vence en un año y que consta de diez oportunidades
de ejercicio igualmente espaciadas. El activo sobre el que está escrito el
derivado tiene un precio hoy de 36 , la tasa libre de riesgo es de 6% y la
varianza verdadera del proceso es de 40% . Suponemos que el investigador
utiliza los últimos diez datos, es decir, un año, para calcular la varianza por
máxima verosimilitud. En esta ocasión, aumentamos la varianza del activo
66
ficticio fijándola en 0.6 14 , el precio inicial de este activo es el mismo del
subyacente.
Nuevamente realizamos grupos de cien experimentos para distintas
combinaciones del número de simulaciones y del coeficiente de correlación
ρ . Sin embargo, esta vez la simulación más grande realizada es de 50.000 y
la más pequeña de 10.000 . En el caso del coeficiente de correlación su
evaluación comienza con un valor de 0.3 y aumenta cada vez en 0.1 hasta
alcanzar un valor de 0.8 . Las siguientes tablas muestran los resultados
obtenidos bajo ambos métodos.
14
En el tercer anexo se muestra que las conclusiones de esta sección se mantienen para distintos valores de la
varianza del activo ficticio.
67
Tabla 8-1: LSM Utilizando el Activo Ficticio como Regresor cuando la Varianza es Desconocida (1)
M
10000
20000
30000
40000
50000
Promedio
Promedio ABS
Media
6.9639
7.2336
7.1090
6.9704
7.2719
7.1098
7.1098
rho=0.3
Des. est.
Sesgo
0.9917
-0.1071
0.9040
0.1626
1.0328
0.0380
0.9233
-0.1006
0.9431
0.2009
0.9590
0.0388
0.9590
0.1218
RECM
0.9975
0.9185
1.0335
0.9288
0.9643
0.9685
0.9685
Media
6.9822
7.0445
7.1229
7.1147
7.0779
7.0684
7.0684
rho=0.4
Des. est.
Sesgo
0.9489
-0.0888
0.9401
-0.0265
0.8594
0.0519
1.1093
0.0437
0.8897
0.0069
0.9495
-0.0026
0.9495
0.0436
RECM
0.9530
0.9405
0.8610
1.1102
0.8897
0.9509
0.9509
Media
7.1594
7.1326
7.0445
7.1581
6.9243
7.0838
7.0838
rho=0.5
Des. est.
Sesgo
1.0761
0.0884
1.0682
0.0616
0.9977
-0.0265
0.8921
0.0871
1.0324
-0.1467
1.0133
0.0128
1.0133
0.0821
RECM
1.0797
1.0700
0.9981
0.8963
1.0428
1.0174
1.0174
Tabla 8-2: LSM Utilizando el Activo Ficticio como Regresor cuando la Varianza es Desconocida (2)
M
10000
20000
30000
40000
50000
Promedio
Promedio ABS
Media
6.9965
6.9945
6.9676
7.1270
7.2381
7.0647
7.0647
rho=0.6
Des. est.
Sesgo
1.0260
-0.0745
0.8812
-0.0765
0.9466
-0.1034
0.9689
0.0560
0.9924
0.1671
0.9630
-0.0063
0.9630
0.0955
RECM
1.0287
0.8845
0.9522
0.9705
1.0064
0.9685
0.9685
Media
7.1981
7.0085
7.0391
7.1412
7.1080
7.0990
7.0990
rho=0.7
Des. est.
Sesgo
1.0260
0.1271
0.9061
-0.0625
1.0057
-0.0319
0.9613
0.0702
0.9243
0.0370
0.9647
0.0280
0.9647
0.0657
RECM
1.0338
0.9083
1.0062
0.9639
0.9250
0.9674
0.9674
Media
7.0660
6.9724
7.1180
7.3313
6.9838
7.0943
7.0943
rho=0.8
Des. est.
Sesgo
0.9239
-0.0050
0.9738
-0.0986
0.9983
0.0470
0.8808
0.2603
1.0731
-0.0872
0.9700
0.0233
0.9700
0.0996
RECM
0.9239
0.9788
0.9994
0.9185
1.0766
0.9794
0.9794
68
Tabla 8-3: LSM Utilizando el Activo Ficticio como Instrumento cuando la Varianza es Desconocida (1)
M
10000
20000
30000
40000
50000
Promedio
Promedio ABS
Media
7.1207
7.0509
7.1779
7.0981
6.9343
7.0764
7.0764
rho=0.3
Des. est.
Sesgo
0.9479
0.0497
1.1322
-0.0201
0.9784
0.1069
0.9453
0.0271
0.9170
-0.1367
0.9842
0.0054
0.9842
0.0681
RECM
0.9492
1.1324
0.9842
0.9457
0.9271
0.9877
0.9877
Media
7.2659
7.1174
7.2230
7.0947
6.8737
7.1149
7.1149
rho=0.4
Des. est.
Sesgo
0.9403
0.1949
0.8793
0.0464
0.8842
0.1520
0.9628
0.0237
0.9634
-0.1973
0.9260
0.0439
0.9260
0.1229
RECM
0.9603
0.8805
0.8972
0.9631
0.9834
0.9369
0.9369
Media
6.8829
7.1312
7.1340
7.0975
7.0313
7.0554
7.0554
rho=0.5
Des. est.
Sesgo
0.9231
-0.1881
1.0575
0.0602
1.0672
0.0630
0.9328
0.0265
0.8725
-0.0397
0.9706
-0.0156
0.9706
0.0755
RECM
0.9421
1.0592
1.0691
0.9332
0.8734
0.9754
0.9754
Tabla 8-4: LSM Utilizando el Activo Ficticio como Instrumento cuando la Varianza es Desconocida (2)
M
10000
20000
30000
40000
50000
Promedio
Promedio ABS
Media
7.0790
7.1278
7.1538
6.9351
7.0940
7.0779
7.0779
rho=0.6
Des. est.
Sesgo
1.1258
0.0080
0.9863
0.0568
1.0044
0.0828
1.1242
-0.1359
0.9960
0.0230
1.0473
0.0069
1.0473
0.0613
RECM
1.1258
0.9879
1.0078
1.1324
0.9963
1.0500
1.0500
Media
6.9144
7.0453
6.8976
7.1301
7.1410
7.0257
7.0257
rho=0.7
Des. est.
Sesgo
0.8344
-0.1566
0.8560
-0.0257
1.0165
-0.1734
0.9151
0.0591
0.9705
0.0700
0.9185
-0.0453
0.9185
0.0970
RECM
0.8490
0.8564
1.0312
0.9170
0.9730
0.9253
0.9253
Media
6.9339
7.1773
7.0129
6.9691
7.0208
7.0228
7.0228
rho=0.8
Des. est.
Sesgo
0.9454
-0.1371
1.0029
0.1063
1.0075
-0.0581
1.0242
-0.1019
1.0914
-0.0502
1.0143
-0.0482
1.0143
0.0907
RECM
0.9553
1.0085
1.0092
1.0293
1.0926
1.0190
1.0190
69
Como
punto
de
comparación
reproducimos
a
continuación
los
resultados del LSM tradicional de Stentoft (2004) cuando la varianza es
desconocida:
Tabla 8-5: LSM Tradicional con Varianza Desconocida
LSM clásico
M
Media
Des. est.
Sesgo
RECM
10000
6.8532
0.8992
-0.2178
0.9252
20000
7.0852
1.0006
0.0142
1.0007
30000
6.9895
1.1113
-0.0815
1.1143
40000
6.9433
0.9745
-0.1277
0.9828
50000
6.8162
0.9675
-0.2548
1.0005
Promedio
6.9375
0.9906
-0.1335
1.0047
Promedio ABS
6.9375
0.9906
0.1392
1.0047
Las tres tablas anteriores reportan la media, la desviación estándar y la
raíz del error cuadrático medio de cien experimentos realizados con
distintos números de patrones. Para facilitar la comparación de los distintos
métodos hemos reportado tanto los promedios simples como los promedios
absolutos de los cinco experimentos para cada valor del parámetro ρ
escogido. En el caso del LSM tradicional, el promedio es el mismo para
cualquier valor del coeficiente de correlación.
En términos generales, ninguna de las tablas exhibe una clara
tendencia a la baja del sesgo o la desviación estándar a medida que se
aumenta el número de simulaciones. Por lo tanto, una primera conclusión
es que cuando no se conoce con exactitud la varianza del subyacente,
aumentar el número de simulaciones no asegura un valor más acertado
para el precio de la opción. Tampoco se observa el persistente sesgo a la
baja reportado por Stentoft (2004) para el caso de K = 2 en ninguno de los
tres experimentos.
Si nos detenemos en la raíz del error cuadrático medio no hay
diferencias significativas entre ninguno de los tres métodos. Sin embargo, la
70
diferencia en la magnitud de la desviación estándar con respecto al sesgo
ensucia bastante esta medida. En efecto, si centramos nuestra atención en
la desviación estándar de los distintos procesos podemos apreciar algunos
matices entre los distintos métodos. Cuando ρ = 0.3 , utilizar un activo
ficticio como regresor arroja sistemáticamente menores desviaciones
estándar que el LSM tradicional para más de 10.000 simulaciones. Ocurre lo
mismo cuando se usa dicho activo como instrumento y se selecciona un
ρ = 0.4 . Otro caso interesante es el de ρ = 0.7 donde en términos generales
ambas variaciones arrojan resultados más eficientes. Aunque las ganancias
en eficiencia no son de gran magnitud, los resultados son robustos cuando
se repiten los experimentos.
El caso del sesgo es bastante más claro. Para todo valor de ρ , ambos
método tienen valores más ajustados al punto de referencia cuando se
utilizan 10.000 , 40.000 y 50.000 simulaciones. A diferencia del caso anterior,
el sesgo disminuye drásticamente para las simulaciones anteriores. Por lo
tanto, existe una ganancia importante en materia de sesgo cuando se utiliza
activos ficticios en el cálculo del valor de la opción. Los siguientes gráficos
ilustran este fenómeno para el caso de 50.000 simulaciones:
71
Gráfico 8-1: Desviación Estándar de los Distintos Métodos
Desviación estándar para 50.000 simulaciones
1.2
Desviación estándar
1
0.8
LSM tradicional
0.6
Instrumentos
Regresores
0.4
0.2
0
0.3
0.4
0.5
0.6
0.7
0.8
Coeficiente de correlación
Gráfico 8-2: Valor Absoluto del Sesgo de los Distintos Métodos
Valor absoluto del sesgo para 50.000 simulaciones
Valor absoluto del sesgo
0.3
0.25
0.2
LSM tradicional
0.15
Instrumentos
Regresores
0.1
0.05
0
0.3
0.4
0.5
0.6
0.7
0.8
Coeficiente de correlación
Las figuras anteriores muestran que si bien es cierto que no existe una
clara diferencia en materia de la raíz del error cuadrático medio de los
distintos métodos, cuando estudiamos por separado los componentes de
esta medida la conclusión anterior se suaviza. En efecto, aunque en materia
de desviación estándar no existe una dominancia clara de ningún método,
72
las variaciones del LSM tradicional arrojan sistemáticamente un menor
valor absoluto para el sesgo de la estimación.
Por último, si nos centramos en los promedios de los indicadores
estudiados, los resultados son decidores. El sesgo promedio de las distintas
simulaciones de ambas variaciones, para cualquier valor del coeficiente de
correlación es inferior al sesgo promedio del LSM original. En el caso de la
desviación estándar y de la raíz del error cuadrático medio, cuando se
utiliza el activo ficticio como instrumento, el promedio de ambas variables
es inferior al del LSM original para cuatro de los seis casos estudiados.
Cuando se utiliza al activo ficticio como regresor, lo anterior se cumple para
cinco de los seis casos. A continuación graficamos lo componentes del error
cuadrático medio del promedio de los cinco experimentos realizados para
cada valor del coeficiente de correlación estudiado. Para el caso del sesgo se
grafica tanto el promedio del valor absoluto del sesgo como el valor absoluto
del sesgo promedio.
Gráfico 8-3: Desviación Estándar Promedio de los Distintos Métodos
Desviación estándar promedio
Desviación estándar
1.1000
1.0500
LSM tradicional
1.0000
Instrumentos
Regresores
0.9500
0.9000
0.8500
0.3
0.4
0.5
0.6
0.7
0.8
Coeficiente de correlación
73
Gráfico 8-4: Valor Absoluto del Sesgo Promedio de los Distintos Métodos
Valor absoluto del sesgo promedio
Valor absoluto del sesgo
0.1600
0.1400
0.1200
0.1000
LSM tradicional
0.0800
Instrumentos
0.0600
Regresores
0.0400
0.0200
0.0000
0.3
0.4
0.5
0.6
0.7
0.8
Coeficiente de corelación
Gráfico 8-5: Promedio del Valor Absoluto del Sesgo de los Distintos
Métodos
Promedio del valor absoluto del sesgo
Valor absoluto del sesgo
0.16
0.14
0.12
0.1
LSM tradicional
0.08
Instrumentos
0.06
Regresores
0.04
0.02
0
0.3
0.4
0.5
0.6
0.7
0.8
Coeficiente de corelación
Finalmente, podemos decir que aunque la disminución en la desviación
estándar no es muy importante, la baja en el sesgo resulta extremadamente
interesante. Recordemos además que no se obtiene una mejor aproximación
del precio realizando más simulaciones. Por lo tanto, una forma de obtener
una mejor aproximación para el precio, intentando evitar los problemas de
74
eficiencia, puede venir más por aumentar el número de veces que se calcula
el precio que por aumentar el número de patrones utilizados en cada
cálculo.
Más
aún,
si
se
utilizan
activos
ficticios,
se
puede
estar
relativamente seguro que el promedio de dichas repeticiones será bastante
cercano al precio verdadero de la opción.
75
9.- Conclusiones y extensiones
Este trabajo realiza una exposición detallada de los distintos métodos
existentes para la valoración de opciones americanas. Cualquier lector con
algunos conocimientos matemáticos puede obtener de la segunda sección de
este trabajo los conocimientos necesarios para entender los resultados
centrales de las secciones posteriores. Más aún, la exposición hecha en este
trabajo permite que cualquier lector se introduzca en el vasto mundo de la
valoración de opciones financieras.
El método LSM propuesto por Longstaff y Schwartz (2001) es sin lugar
a dudas el algoritmo más utilizado en la valoración de opciones americanas.
Sin embargo, el uso profesional del algoritmo tiene escollos prácticos que los
investigadores teóricos ignoran en sus estudios. En efecto, el operador de la
mesa de dinero que utiliza el algoritmo no conoce realmente los parámetros
que necesita para simular las trayectorias del subyacente, por lo tanto, no
puede acceder a la eficiencia teórica del algoritmo. Esta tesis muestra que
cuando se toma en cuenta este fenómeno la pérdida de eficiencia del método
puede llevar a una verdadera catástrofe financiera.
En tercer lugar, en este estudio se exploran dos variaciones al LSM, dos
formas de incluir más información en el algoritmo. La idea de estos cambios
es incorporar en el método la posibilidad que tiene el agente de observar
distintos activos y sus interrelaciones al momento de tomar decisiones
financieras. Aunque el comportamiento de estos nuevos algoritmos es
satisfactorio en el caso teórico, cuando se incorpora el problema práctico
antes mencionado, sólo se consiguen ganancias marginales. Sin embargo, la
disminución en el sesgo de las estimaciones junto con la no disminución
sistemática de la desviación estándar cuando se utilizan más patrones,
sugiere una estimación basada en el promedio de distintos experimentos
que utilicen activos ficticios en las regresiones.
76
El principal resultado de este trabajo es la puesta en evidencia de la
ineficiencia del método LSM cuando se utilizan parámetros aproximados en
las simulaciones. En la aplicación práctica del algoritmo los agentes
financieros no conocen con exactitud los parámetros que rigen el
movimiento del subyacente que estudian. Por lo tanto, un mayor estudio de
este fenómeno, puede ser de mucha utilidad para la profesión.
El proceso estudiado en este trabajo contiene sólo un factor de riesgo,
sería muy interesante evaluar la ineficiencia del método cuando existen más
factores de riesgo. En particular, podría tomarse un problema clásico de
opciones reales, como la valoración de la mina de Brennan y Schwartz
(1985) o incluso versiones más complejas del mismo problema. Así se podría
comparar el resultado del LSM, utilizando estimaciones para los parámetros
de todos los procesos que siguen los factores de riesgo utilizados, con los
resultados de diferencias finitas.
Otro punto interesante consiste en variar el error en la aproximación de
los parámetros. Por ejemplo, evaluar como cambia la raíz del error
cuadrático medio de las estimaciones tradicionales del LSM cuando la
estimación de los parámetros del subyacente se vuelve más precisa. Cabe
destacar que en la realidad se utilizan filtros de Kalman y otros sofisticados
métodos para aproximar los parámetros del subyacente, que en algunos
casos, pueden ser más correctos en su aproximación que los estimadores de
máxima verosimilitud.
Con respecto a las variaciones del LSM tradicional expuestas, sería
muy interesante analizar su comportamiento cuando existen distintos
factores de riesgo. En particular, si la matriz de varianza y covarianza no
fuese desconocida, es decir, si la varianza del estimador no fuese incierta y,
por ejemplo, la incertidumbre radicara en la tasa del retorno por
conveniencia del activo. En efecto, de esta forma podría simularse sin
77
problemas activos ficticios correlacionados con la matriz de información
verdadera y no con una estimación de esta última.
Otro punto interesante con respecto a estos algoritmos alternativos es
la inclusión de un mayor número de procesos correlacionados y su efecto en
la eficiencia de la estimación. Cabe destacar que un solo activo ficticio logra
tener efectos incluso en el caso abstracto en que se conoce con certeza la
varianza del proceso. Así mismo sería interesante variar el orden de los
polinomios utilizados en las regresiones, rompiendo la simetría que
impusimos entre el activo ficticio y el subyacente, o simplemente
aumentando los miembros utilizados.
Finalmente, este trabajo abre un desafío nuevo para la valoración de
opciones. Se deben explorar nuevos algoritmos que logren lidiar con las
imprecisiones en las estimaciones de los parámetros utilizados en las
simulaciones. Cabe destacar que la ciencia econométrica puede pulir
considerablemente los resultados del LSM alejándose del caso simple de
mínimos cuadrados ordinarios. Sin embargo, siempre debe tenerse en
cuenta que dicho alejamiento tiene un costo y si los beneficios de invertir
aún más en econometría no logran compensar los mayores costos de
programación y de tiempo, claramente la mejor alternativa es mantener el
paradigma de Longstaff y Schwartz (2001).
78
10.-
Bibliografía
-
Barone-Adesi, G and Whaley, R. E. (1987), “Efficient Analytical
Aproximation of American Option Value”, The Journal of Finance,
42:3, 301-320.
-
Barraquand,
J.
and
Martineau,
D.
(1995),
“Numerical
Valuation of High Dimensional Multivariate American Securities”,
Journal of Financial and Quantitative Analysis 30:3, 383-405
-
Black, F. and Scholes M. (1973), “The Pricing of Options and
Corporate Liabilities”, Journal of Political Economy 28, 637-654.
-
Boyle, P. (1977) “Options: A Monte Carlo Approach”, Journal of
Financial and Quantitative Analysis, 323-338.
-
Brennan, M.J. and Schwartz E.S. (1977), “Finite Difference
Methods and Jump Processes arising in the Pricing of Contingent
Claims: A Synthesis”, Journal of Financial and Quantitative Analysis,
13, 462-474.
-
Brennan, M.J. and Schwartz E.S. (1985), “Evaluating Natural
Resources Investments”, Journal of Business 58:2, 135-157.
-
Broadie, M. and Glasserman P. (1997b), “Pricing American-
Style Securities Using Simulation”, Journal of Economic Dynamics and
Control, 21:8 and 9, 1323-1352.
-
Campbell, J.Y., Lo A.W. and Mackinlay A.C. (1997), “The
Econometrics of Financial Markets”, Second Edition, Princeton
University Press.
79
-
Carr, P., Jarrow, R. and Myneni, R. (1992), “Alternative
Characterizations of American Put Options”, Mathematical Finance, 2,
87-106.
-
Cox, J., Ross, S. and Rubinstein, M. (1979), “Option Pricing: A
Simplified Approach”, Journal of Financial Economics, 7, 229-264.
-
Geske, R. and Johnson, H. (1984), “The American Put Option
Valued Analytically”, The Journal of Finance, 39:5, 1511-1524.
-
Greene, W.H., (2003), “Econometric Analysis”, Fifth Edition,
Prentice Hall.
-
Kim, I.J. (1990), “The Analytic Valuation of American Options”,
Review of Financial Studies, 3:4, 547-572.
-
Hull, J.C. (2003), “Options, Futures and other derivatives”,
Fifth Edition, Prentice Hall.
-
Longstaff, F.A., and Schwartz E.S. (2001), “Valuing American
Options by Simulation: A Simple Least-Square Approach”, Review of
Financial Studies 14:1, 113-147.
-
Moreno, M. and Navas J.F. (2003), “On the Robustness of
Least-Squares Montecarlo (LSM) for Pricing American Derivatives”,
Review of Derivatives Research 6, 107-128.
-
Raymar, S. and Zwecher M.J. (1997), “Montecarlo Estimation
of American Call Options on the Maximum of Several Stocks”, Journal
of Derivatives 5:1, 7-23.
80
-
Stentoft, L., (2004), “Assessing the Least Squares Montecarlo
Approach to American Option Valuation”, Review of Derivatives
Research 7, 129-168.
-
Stentoft, L. (2005), ‘Pricing American Options when the
Underlying Asset Follows GARCH Processes’, Journal of Empirical
Finance, 12:4, 576-611.
-
Urzúa, J.L., Tesis para optar al grado de Magíster en Ciencias
de la Ingeniería, Pontificia Universidad Católica de Chile, Supervisor:
Cortázar, G., Mayo 2004.
81
11.-
Anexo I: Oportunidades de Arbitraje
En este apartado 15 ampliaremos el ejemplo de la segunda sección de
este trabajo para demostrar que el precio de la opción europea calculado
no permite oportunidades de arbitraje. En dicho ejemplo se diseña una
economía binomial con tres períodos. Para la siguiente exposición
esquematizamos los distintos escenarios posibles en cada una de las tres
fechas de la siguiente forma:
Figura 11-1: Nomenclatura de los estados de la Naturaleza
D
B
E
A
F
C
G
En cada escenario existen sólo dos trayectorias posibles. Por lo tanto,
basta la existencia de dos activos no redundantes para poder replicar
cualquier vector de pagos. En esta economía existe un activo libre de
15
Esta sección es fruto de una sugerencia del profesor Gonzalo Edwards. La exposición del mismo está
fuertemente influenciada por la cátedra de Economía Financiera que dicta el profesor Felipe Zurita en el
Instituto de Economía de la Pontificia Universidad Católica de Chile.
82
riesgo R y un activo riesgoso Z y no existe ninguna prohibición a la venta
corta de éstos. Decimos por ende, que en esta economía existen mercados
completos y por lo tanto, puede valorarse cualquier activo por métodos de
arbitraje. El activo libre de riesgo R puede modelarse como un bono que
cuesta 100 en A y promete entregar tanto en B como en C un pago de 110,
es decir, ofrece un retorno de 10% libre de riesgo. El activo riesgoso Z
también tiene un precio de 100 en A pero su valor puede subir un 30% si
se da el estado de la naturaleza B o caer en un 20% si de da C. En cada
nodo de esta economía, sin importar el precio contingente de los activos, R
ofrece un retorno libre de riesgo de 10% y el precio de Z puede aumentar o
disminuir en los porcentajes antes especificados. Por lo tanto, los precios
de estos instrumentos en cada escenario son:
Figura 11-2: Precios Contingentes de los Activos de esta Economía
R=121
Z=169
R=110
Z=130
R=121
Z=104
R=Z=100
R=121
Z=104
R=110
Z=80
R=121
Z=64
El derivado estudiado en el ejemplo de la segunda sección es una
opción de venta europea sobre Z que llamaremos P, con vencimiento en el
tercer período y un precio de ejercicio de 110. Este activo financiero tiene
el siguiente patrón de pagos:
83
Figura 11-3: Patrón de Pagos de la Opción Europea
0
0
6
0
6
0
46
A continuación replicaremos el patrón de pagos de P con una sucesión
de portafolios contingentes de R y de Z. Cabe destacar que, sin la
posibilidad de rebalancear el portafolio en el segundo período en esta
economía ya no habría mercados completos. En efecto, desde A se
vislumbrarían tres escenarios posibles: D; E=F y G. Por lo tanto, se
requeriría un tercer activo para completar los mercados.
Llamamos ri y zi al número de unidades de R y de Z que contiene el
portafolio óptimo en el escenario i . Sea Qi la matriz de pagos que se
vislumbra en el escenario i , es decir, si Ri y Z i son los precios vigentes en
el escenario i para los activos de esta economía y en el próximo período los
escenarios posibles son j y v :
⎛R
Qi = ⎜ j
⎝ Rv
Zj ⎞
⎟
Zv ⎠
(71)
El portafolio que se forme en i asegura al agente en j y v los pagos
Pj y Pv tal que:
84
⎛ Rj
⎜
⎝ Rv
Z j ⎞ ⎛ ri ⎞ ⎛ Pj ⎞
⎟⎜ ⎟ = ⎜ ⎟
Z v ⎠ ⎝ zi ⎠ ⎝ Pv ⎠
(72)
El costo Ci de dicho portafolio en el escenario i resulta ser:
Ci = ( ri
⎛R ⎞
zi ) ⎜ i ⎟
⎝ Zi ⎠
(73)
En particular, para encontrar el portafolio que debe construirse en B
para replicar los pagos de la opción en D y E debe solucionarse la
siguiente ecuación:
⎛121 169 ⎞ ⎛ rB ⎞ ⎛ 0 ⎞
⎜
⎟⎜ ⎟ = ⎜ ⎟
⎝121 104 ⎠ ⎝ z B ⎠ ⎝ 6 ⎠
(74)
⎛ 78 ⎞
⎛ rB ⎞ ⎜ 605 ⎟
⎟
⎜ ⎟=⎜
⎝ zB ⎠ ⎜ − 6 ⎟
⎜
⎟
⎝ 65 ⎠
(75)
6 ⎞ ⎛110 ⎞ 24
⎛ 78
CB = ⎜
− ⎟⎜
= 2.18
⎟=
65 ⎠ ⎝130 ⎠ 11
⎝ 605
(76)
De donde:
Lo que tiene un costo de:
De manera análoga el portafolio que debe construirse en C para
replicar los pagos de la opción en F y G tiene las siguientes características:
⎛121 104 ⎞ ⎛ rC ⎞ ⎛ 6 ⎞
⎜
⎟⎜ ⎟ = ⎜ ⎟
⎝121 64 ⎠ ⎝ zC ⎠ ⎝ 46 ⎠
(77)
De donde:
85
⎛ 10 ⎞
⎛ rC ⎞ ⎜ ⎟
⎜ ⎟ = ⎜ 11 ⎟
⎝ zC ⎠
⎝ −1 ⎠
(78)
⎛ 10
⎞ ⎛110 ⎞
CC = ⎜
−1⎟ ⎜
⎟ = 20
⎝ 11
⎠ ⎝ 80 ⎠
(79)
Lo que tiene un costo de:
Para poder formar los portafolios contingentes en cada escenario del
segundo período el agente debe construir hoy un portafolio que le permita
contar con los flujos necesarios para costearlos en cada estado de la
naturaleza. De esta forma el portafolio que debe construirse en A para
poder comprar los portafolios anteriores se obtiene de la siguiente manera:
24 ⎞
⎛
⎛110 130 ⎞ ⎛ rA ⎞ ⎜ CB = ⎟
11
⎜
⎟⎜ ⎟ =
⎝110 80 ⎠ ⎝ z A ⎠ ⎜⎜ C = 20 ⎟⎟
⎝ C
⎠
(80)
⎛ 1334 ⎞
⎛ rA ⎞ ⎜ 3025 ⎟
⎟
⎜ ⎟=⎜
⎝ z A ⎠ ⎜ − 98 ⎟
⎜
⎟
⎝ 275 ⎠
(81)
98 ⎞ ⎛ 100 ⎞ 1024
⎛ 1334
CA = ⎜
−
= 8.4628
⎟=
⎟⎜
275 ⎠ ⎝ 100 ⎠ 121
⎝ 3025
(82)
De donde:
Lo que tiene un costo de:
Por lo tanto, la estrategia de portafolios contingentes que replica
exactamente los pagos de la opción del ejemplo de la segunda sección de
esta tesis tiene el mismo costo que el derivado en cuestión. En conclusión,
el precio de la opción europea no permite oportunidades de arbitraje.
A continuación demostramos formalmente para el caso binomial la
equivalencia de ambos métodos de valoración. Para cada unidad monetaria
86
invertida en un nodo i el agente enfrenta una matriz de retornos brutos
que llamaremos Bi . A modo de ejemplo, en el nodo inicial A el sujeto
enfrenta para cada unidad de su presupuesto la matriz de retornos BA tal
que:
⎛ RB
⎜R
A
BA = ⎜
⎜ RC
⎜R
⎝ A
Z B ⎞ ⎛ 110 130 ⎞
Z A ⎟ ⎜ 100 100 ⎟ ⎛1.1 1.3 ⎞
⎟=⎜
⎟=⎜
⎟
Z C ⎟ ⎜ 110 80 ⎟ ⎝1.1 0.8 ⎠
⎜
⎟
Z A ⎟⎠ ⎝ 100 100 ⎠
(83)
Si definimos un activo puro como un derecho a recibir una unidad
monetaria sólo en uno de los escenarios contingentes que puedan ocurrir
en el futuro 16 .
Derivemos a continuación los precios de los activos puros que rigen
en un nodo i cualquiera para el período adyacente. En este caso, nos
preguntamos cuanto cuesta hoy asegurarse en dicho nodo una unidad
monetaria en cada uno de los dos estados de la naturaleza del período
siguiente. Para ello, volvemos a ocupar el esquema de las ecuaciones (72) a
(74). Para replicar el activo puro que promete una unidad en el escenario
de alza de Z debemos resolver:
⎛r ⎞ ⎛ρ
Bi ⎜ i ⎟ = ⎜
⎝ zi ⎠ ⎝ ρ
u ⎞ ⎛ ri ⎞ ⎛ 1 ⎞
⎟⎜ ⎟ = ⎜ ⎟
d ⎠ ⎝ zi ⎠ ⎝ 0 ⎠
(84)
Donde ρ representa el retorno bruto del activo libre de riesgo en el
período siguiente. Así mismo, u y d son los retornos brutos del activo
riesgoso en cada escenario del siguiente período. Por lo tanto:
16
Nótese que un activo puro en A puede ofrecer un pago unitario en B o en C pero también puede hacerlo en
D, E=F o en G. Pero, dada la estructura binomial de la naturaleza, basta con definir los dos activos puros
adyacentes a un estado particular para poder componer todos los demás.
87
*
⎛ ri ⎞
⎛ d
1
−1 ⎛ 1 ⎞
⎜ ⎟ = Bi ⎜ ⎟ =
⎜
⎝ 0 ⎠ ρ d − ρu ⎝ −ρ
⎝ zi ⎠
d
⎛
⎞
⎜
−u ⎞ ⎛ 1 ⎞
ρ d − ρu ⎟
⎟
⎜
=
ρ ⎟⎠ ⎜⎝ 0 ⎟⎠ ⎜ − ρ ⎟
⎜ ρ d − ρu ⎟
⎝
⎠
(85)
Sea q i , j el precio del activo puro en i que promete entregar una
unidad en el escenario j . Si i es el estado actual, sea u el escenario
adyacente donde Z sube y d el escenario donde Z baja. En este caso, al
aplicar (73):
⎛
d
q i ,u = ⎜
⎝ ρ d − ρu
⎛ RA ⎞
⎜
⎟
d −ρ
ρ −d
− ρ ⎞ ⎜ RA ⎟
=
⎟⎜ Z ⎟ =
ρ d − ρu ⎠ A
ρ d − ρu ρ (u − d )
⎜Z ⎟
⎝ A⎠
(86)
Si aplicamos el mismo razonamiento para el estado en que Z baja,
resolvemos:
⎛r ⎞ ⎛ρ
Bi ⎜ i ⎟ = ⎜
⎝ zi ⎠ ⎝ ρ
u ⎞ ⎛ ri ⎞ ⎛ 0 ⎞
⎟⎜ ⎟ = ⎜ ⎟
d ⎠ ⎝ zi ⎠ ⎝ 1 ⎠
(87)
De donde obtenemos:
*
⎛ ri ⎞
⎛ d
1
−1 ⎛ 0 ⎞
⎜ ⎟ = Bi ⎜ ⎟ =
⎜
⎝ 1 ⎠ ρ d − ρu ⎝ −ρ
⎝ zi ⎠
⎛ −u ⎞
−u ⎞ ⎛ 0 ⎞ ⎜ ρ d − ρ u ⎟
⎟
=⎜
ρ ⎟⎠ ⎜⎝ 1 ⎟⎠ ⎜ ρ
⎟
⎜ ρ d − ρu ⎟
⎝
⎠
(88)
Y al valorar dicho portafolio
88
⎛ −u
qi,d = ⎜
⎝ ρ d − ρu
⎛ RA ⎞
⎜
⎟
⎞ ⎜ RA ⎟
ρ
u−ρ
⎟⎜ Z ⎟ =
ρ d − ρu ⎠ A
ρ (u − d )
⎜Z ⎟
⎝ A⎠
(89)
En el ejemplo de la opción europea ya descrita obtenemos:
q i ,u =
q i,d =
ρ −d
1.1 − 0.8
= 0.54
1.1(1.3 − 0.8 )
(90)
u−ρ
1.3 − 1.1
=
= 0.36
ρ ( u − d ) 1.1(1.3 − 0.8 )
(91)
ρ (u − d )
=
Como es de esperarse, si un individuo compra una unidad de cada
activo puro en el escenario i tiene absolutamente asegurada una
unidad monetaria en el período siguiente, más allá de cuál sea el estado
de la naturaleza. Dicho portafolio replica claramente al activo libre de
riesgo R. El costo de dicho portafolio equivale a:
q i ,u + q i , d =
(u − d ) = 1
ρ −d
u−ρ
+
=
ρ (u − d ) ρ (u − d ) ρ (u − d ) ρ
(92)
Por lo tanto, los precios de los activos puros eliminan por
construcción cualquier oportunidad de arbitraje entre el activo R y la
cartera que lo replica. En el ejemplo anterior es claro que:
q i ,u + q i ,d = 0.54 + 0.36 = 0.90 =
1
1
=
1.1 ρ
(93)
Ahora estamos en condiciones de demostrar que los precios de los
activos puros encontrados aseguran también que no se podrá arbitrar por
medio de ningún otro activo. Imaginemos un activo T que tiene un valor de
89
Tu y Td en cada uno de los dos escenarios posibles. Si buscamos el valor Ti
de este activo en un nodo i cualquiera utilizando las probabilidades
neutrales al riesgo obtenemos:
Ti =
Tu * p + Td * (1 − p )
1+ r
(94)
Donde:
ρ = 1+ r
ρ −d
p=
u−d
u−ρ
1− p =
u−d
Al desarrollar (94) obtenemos:
1
(Tu * ( ρ − d ) + Td * ( u − ρ ) )
u
−
d
Ti =
= Tu
ρ
( ρ − d ) + T (u − ρ )
ρ (u − d ) d ρ (u − d )
(95)
Lo que puede escribirse simplemente como:
Ti = Tu q i ,u + Td q i ,d
(96)
Por lo tanto, los precios de los activos puros, que son la base de
todos los demás precios 17 , impiden toda oportunidad de arbitraje 18 .
Más aún, es totalmente equivalente valorar activos utilizando las
probabilidades neutrales al riesgo que replicándolos con la ayuda de los
demás activos.
17
Valorar por medio de los activos puros equivale indirectamente, a utilizar los activos R y Z para replicar el
derivado que se busca valorar.
18
Siempre y cuando los precios de los activos puros sean positivos.
90
Finalmente, es útil destacar que las probabilidades neutrales al
riesgo son normalizaciones de los precios de los activos puros, de tal
manera que:
p=
q i ,u
q i ,u + q d ,u
(1 − p ) =
q i ,d
q i , u + q d ,u
(97)
(98)
De donde resulta evidente que:
q
p
= i ,u
(1 − p ) q d ,u
(99)
En una economía con dos bienes, consumo en estado de auge
futuro, Cu , y consumo en estado de depresión futura, Cd , donde existen
sólo dos agentes y éstos son neutrales al riesgo. Si los precios que rigen
esta economía, son los mismos que se encuentran vigentes en el
“mundo real”; es decir, si los precios de los bienes de esta economía
neutral corresponden a los precios de los activos puros antes definidos,
entonces el conjunto de equilibrios debe estar caracterizado por (99).
En efecto, para que pueda existir un conjunto de Pareto en esta
economía, la función de utilidad Von Neumann Morgenstern de los
agentes debe ser:
U ( Cu , Cd ) = pCu + (1 − p ) Cd
(100)
De modo de que la tasa marginal de sustitución, que en este caso
corresponde a la razón de probabilidades, se iguale a la razón de
precios. De aquí heredan su nombre las probabilidades neutrales al
riesgo.
91
12.-
Anexo II: Matriz de varianza y covarianza no estocástica
Recordemos la ecuación (58) que muestra como simulamos los
procesos utilizados:
⎧⎛
1 ⎞
⎫
S ( ti +1 ) = S ( ti ) exp ⎨⎜ r − σ 2 ⎟ ( ti +1 − ti ) + σ ti +1 − ti Z ( ti +1 ) ⎬
2 ⎠
⎩⎝
⎭
Donde Z ( ti +1 ) ∼ IIN ( 0,1) .
En esta ecuación la desviación estándar σ afecta tanto la tendencia del
subyacente:
1 2⎞
⎛
⎜r − σ ⎟
2 ⎠
⎝
como las desviaciones con respecto a dicha
tendencia: σ Z ( ti +1 ) . Bajo el supuesto de que la varianza verdadera es
desconocida, ambos efectos deben incluir, ya no la desviación estándar
verdadera, sino σ . Cuando se simulan procesos correlacionados el
procedimiento es análogo, el efecto en las desviaciones de la tendencia debe
estar regido por ∑ y no por ∑ . ¿Cómo podría creerse que el investigador
utilizaría la varianza estimada para simular la tendencia y la verdadera para
las desviaciones?
Es cierto que, el activo ficticio no está realmente correlacionado con el
subyacente por el hecho de utilizar una matriz de varianza y covarianza
estimada, sin embargo, no hacerlo de este modo sería falaz. Si el
investigador no conoce la varianza verdadera no puede utilizarla para
simular el activo ficticio, y a menos que se encuentre una forma de simular
procesos correlacionados independientemente de la matriz de información,
debe utilizarse, en este ejercicio, la estimación de la matriz de varianza y
covarianza para las simulaciones.
A continuación presentamos los resultados que se obtendrían si no se
respetase lo antes dicho. Es decir, si para simular se utilizara la
descomposición verdadera de la matriz de información al momento de
92
incluir los efectos en las desviaciones de la tendencia. Los resultados son
absolutamente distintos, la raíz del error cuadrático medio cae en dos
tercios con respecto al LSM original, sin embargo este resultado está
anclado en la falacia antes descrita. La opción que se valora tiene las
mismas características antes descritas y el paradigma de valoración
tampoco se ha alterado, las sensibilizaciones se indican en el título de cada
tabla.
93
Tabla 12-1: LSM con el Activo Ficticio como Regresor con ρ = 0.5 , Utilizando σ pero Simulando con ∑ para
distintos σ 2 (1)
M
10000
20000
30000
40000
50000
Varianza del correlacionado =0.1
Media
Des. est. Sesgo
RECM
7.1440
0.3766
0.0730
0.3836
7.1200
0.4299
0.0490
0.4327
7.1541
0.3052
0.0831
0.3163
7.0866
0.3206
0.0156
0.3210
7.1378
0.3585
0.0668
0.3647
Media
7.1326
7.0909
7.0658
7.0814
7.1457
Varianza del correlacionado =0.2
Des. est.
Sesgo
0.3907
0.0616
0.3342
0.0199
0.3406
-0.0052
0.3635
0.0104
0.3968
0.0747
RECM
0.3955
0.3348
0.3406
0.3636
0.4038
Media
7.1299
7.1070
7.1018
7.0330
7.0919
Varianza del correlacionado =0.4
Des. est.
Sesgo
0.4009
0.0589
0.3267
0.0360
0.3366
0.0308
0.3402
-0.0380
0.3500
0.0209
RECM
0.4052
0.3287
0.3380
0.3423
0.3506
Tabla 12-2: con el Activo Ficticio como Regresor con ρ = 0.5 , Utilizando σ pero Simulando con ∑ para
distintos σ 2 (2)
M
10000
20000
30000
40000
50000
Varianza del correlacionado =0.6
Media
Des. est. Sesgo
RECM
7.1025
0.3286 0.0315 0.3301
7.0811
0.3090 0.0101 0.3092
7.1650
0.3353 0.0940 0.3482
7.0949
0.3573 0.0239 0.3581
7.0271
0.3017 -0.0439 0.3049
Media
7.1515
7.0698
7.0776
7.0225
7.1020
Varianza del correlacionado =1
Des. est.
Sesgo
0.3586
0.0805
0.3551
-0.0012
0.3405
0.0066
0.3090
-0.0485
0.3970
0.0310
RECM
0.3675
0.3551
0.3406
0.3128
0.3982
Media
7.1492
7.1660
7.0891
7.0731
7.1504
Varianza del correlacionado =4
Des. est.
Sesgo
0.3659
0.0782
0.4429
0.0950
0.2738
0.0181
0.3286
0.0021
0.3224
0.0794
94
RECM
0.3742
0.4530
0.2744
0.3286
0.3320
Tabla 12-3: LSM con el Activo Ficticio como Instrumento, para Distintos ρ Utilizando ∑ para Simular (1)
M
10000
20000
30000
40000
50000
60000
70000
80000
90000
100000
Media
7.0981
7.1075
7.1201
7.1031
7.1129
7.1321
7.1058
7.1089
7.0891
7.0300
Rho= 0.1
Des. est.
Sesgo
0.3818
0.0271
0.3645
0.0365
0.3539
0.0491
0.3491
0.0321
0.3414
0.0419
0.3718
0.0611
0.4000
0.0348
0.3359
0.0379
0.3195
0.0181
0.3550
-0.0410
RECM
0.3828
0.3663
0.3573
0.3506
0.3440
0.3768
0.4015
0.3380
0.3200
0.3574
Media
7.0587
7.0939
7.0474
7.1499
7.0060
7.0930
7.0985
7.0622
7.0749
7.1137
Rho=0. 2
Des. est.
Sesgo
0.3414
-0.0123
0.3426
0.0229
0.3441
-0.0236
0.3890
0.0789
0.3229
-0.0650
0.3329
0.0220
0.3109
0.0275
0.3294
-0.0088
0.3162
0.0039
0.3588
0.0427
RECM
0.3416
0.3434
0.3449
0.3969
0.3294
0.3336
0.3121
0.3295
0.3162
0.3613
Media
7.0654
7.0518
7.0949
7.1177
7.1261
7.1106
7.0562
7.1096
7.1083
7.0300
Rho= 0.3
Des. est.
Sesgo
0.3578
-0.0056
0.3584
-0.0192
0.2964
0.0239
0.3914
0.0467
0.3883
0.0551
0.3419
0.0396
0.3645
-0.0148
0.3555
0.0386
0.4006
0.0373
0.3550
-0.0410
RECM
0.3578
0.3589
0.2974
0.3942
0.3922
0.3442
0.3648
0.3576
0.4023
0.3574
Tabla 12-4: LSM con el Activo Ficticio como Instrumento, para Distintos ρ Utilizando ∑ para Simular (2)
M
10000
20000
30000
40000
50000
60000
70000
80000
90000
100000
Media
7.0981
7.1535
7.0560
7.1359
7.1420
7.0475
7.0595
7.1249
7.1465
7.0269
Rho= 0.4
Des. est.
Sesgo
0.3818
0.0271
0.4135
0.0825
0.3051
-0.0150
0.3770
0.0649
0.3684
0.0710
0.3135
-0.0235
0.2891
-0.0115
0.2917
0.0539
0.3950
0.0755
0.2978
-0.0441
RECM
0.3828
0.4216
0.3055
0.3825
0.3752
0.3144
0.2893
0.2966
0.4022
0.3010
Media
7.0587
7.1320
7.1544
7.1074
7.1433
7.1039
7.1173
7.1570
7.0617
7.1507
Rho= 0.5
Des. est.
Sesgo
0.3414
-0.0123
0.3321
0.0610
0.3990
0.0834
0.3240
0.0364
0.3623
0.0723
0.3166
0.0329
0.3202
0.0463
0.4790
0.0860
0.3071
-0.0093
0.3454
0.0797
RECM
0.3416
0.3377
0.4076
0.3260
0.3694
0.3183
0.3235
0.4867
0.3072
0.3545
Media
7.0654
7.0753
7.0808
7.0834
7.0884
7.1847
7.1469
7.1278
7.1561
7.1603
Rho=0.6
Des. est.
Sesgo
0.3578
0.0056
0.3403
0.0043
0.3332
0.0098
0.3789
0.0124
0.3464
0.0174
0.3541
0.1137
0.3964
0.0759
0.3702
0.0568
0.4043
0.0851
0.3927
0.0893
95
RECM
0.3578
0.3403
0.3333
0.3791
0.3468
0.3719
0.4036
0.3745
0.4132
0.4027
Tabla 12-5: LSM con el Activo Ficticio como Instrumento, para Distintos ρ Utilizando ∑ para Simular (3)
M
10000
20000
30000
40000
50000
60000
70000
80000
90000
100000
Media
7.0708
7.1431
7.1202
7.1317
7.0768
7.1016
7.1655
7.0937
7.1741
7.0937
Rho= 0.7
Des. est.
Sesgo
0.3122
-0.0002
0.4421
0.0721
0.3695
0.0492
0.3306
0.0607
0.3469
0.0058
0.3218
0.0306
0.4197
0.0945
0.3606
0.0227
0.3665
0.1031
0.3338
0.0227
RECM
0.3122
0.4479
0.3728
0.3361
0.3469
0.3233
0.4302
0.3613
0.3807
0.3346
Media
7.1089
7.1075
7.1873
7.0967
7.0776
7.1102
7.1158
7.0560
7.1695
7.0975
Rho= 0.8
Des. est.
Sesgo
0.3728
0.0379
0.3645
0.0365
0.4021
0.1163
0.3559
0.0257
0.3771
0.0066
0.3830
0.0392
0.3406
0.0448
0.3138
-0.0150
0.4209
0.0985
0.3584
0.0265
RECM
0.3747
0.3663
0.4186
0.3568
0.3772
0.3850
0.3435
0.3142
0.4323
0.3594
Media
7.1232
7.0939
7.0703
7.1295
7.0615
7.2349
7.0752
7.1018
7.1462
7.0883
Rho= 0.9
Des. est.
Sesgo
0.3597
0.0522
0.3426
0.0229
0.3031
-0.0007
0.3919
0.0585
0.3456
-0.0095
0.4061
0.1639
0.3191
0.0042
0.2871
0.0308
0.3366
0.0752
0.3526
0.0173
96
RECM
0.3635
0.3434
0.3031
0.3962
0.3457
0.4379
0.3191
0.2887
0.3449
0.3530
13.-
Anexo III: Efecto de la varianza del activo correlacionado
En este apartado se realizan otras aplicaciones de los algoritmos
expuestos en la sección octava de este trabajo. En particular, se aplican las
dos variaciones del método para evaluar una opción de venta americana con
precio de ejercicio de 40 y diez oportunidades de ejercicio durante el año de
vida del derivado. El subyacente tiene en el momento inicial un precio de
36 , la tasa libre de riesgo es de 6% y la varianza verdadera del proceso es de
40% , el investigador no conoce dicha varianza y la estima a través de un
proceso de máxima verosimilitud. En esta ocasión tomamos un coeficiente
de correlación dado de 0.5 para el activo ficticio y hacemos variar la
desviación estándar del activo auxiliar simulado. Para ambas variaciones
del algoritmo original, se realizan cinco experimentos con para cada uno de
los cuatro valores de la desviación estándar del proceso ficticio estudiados.
Cada experimento consta de cien repeticiones con distintos números de
simulaciones.
Las tablas presentadas a continuación exhiben la media, la desviación
estándar, el sesgo y la raíz del error cuadrático medio de cada experimento.
97
Tabla 13-1: LSM con el Activo Ficticio como Regresor Utilizando ρ = 0.5 para Distintos Valores de σ 2 (1)
M
10000
20000
30000
40000
50000
Promedio
Promedio ABS
Media
7.0072
7.0731
6.8928
7.0421
6.8802
6.9791
6.9791
Varianza del correlacionado=0.2
Des. est.
Sesgo
1.0335
-0.0638
0.9500
0.0021
0.9903
-0.1782
0.9622
-0.0289
1.0349
-0.1908
0.9942
-0.0919
0.9942
0.0928
RECM
1.0355
0.9500
1.0062
0.9626
1.0523
1.0013
1.0013
Media
6.9922
7.0504
6.9364
6.8928
7.0216
6.9787
6.9787
Varianza del correlacionado=0.5
Des. est.
Sesgo
1.0995
-0.0788
0.9527
-0.0206
0.9001
-0.1346
0.8127
-0.1782
0.9878
-0.0494
0.9506
-0.0923
0.9506
0.0923
RECM
1.1023
0.9529
0.9101
0.8320
0.9890
0.9573
0.9573
Tabla 13-2: LSM con el Activo Ficticio como Regresor Utilizando ρ = 0.5 para Distintos Valores de σ 2 (2)
M
10000
20000
30000
40000
50000
Promedio
Promedio ABS
Media
7.2583
6.9920
6.9818
7.0086
7.1006
7.0683
7.0683
Varianza del correlacionado=0.8
Des. est.
Sesgo
1.0377
0.1873
0.9900
-0.0790
0.8833
-0.0892
0.9987
-0.0624
0.8367
0.0296
0.9493
-0.0027
0.9493
0.0895
RECM
1.0545
0.9931
0.8878
1.0006
0.8372
0.9547
0.9547
Media
6.8408
7.0937
7.0254
6.9792
7.0370
6.9952
6.9952
Varianza del correlacionado=1
Des. est.
Sesgo
1.1239
-0.2302
1.0413
0.0227
0.9670
-0.0456
0.9568
-0.0918
0.8923
-0.0340
0.9963
-0.0758
0.9963
0.0849
RECM
1.1472
1.0415
0.9681
0.9612
0.8929
1.0022
1.0022
98
Tabla 13-3: LSM con el Activo Ficticio como Instrumento Utilizando ρ = 0.5 para Distintos Valores de σ 2 (1)
M
10000
20000
30000
40000
50000
Promedio
Promedio ABS
Media
6.9896
7.1437
7.0332
7.0457
7.0785
7.0581
7.0581
Varianza del correlacionado=0.2
Des. est.
Sesgo
0.9083
-0.0814
0.9400
0.0727
0.9989
-0.0378
0.9741
-0.0253
1.0931
0.0075
0.9829
-0.0129
0.9829
0.0449
RECM
0.9119
0.9428
0.9996
0.9744
1.0931
0.9844
0.9844
Media
7.1740
7.0152
6.9221
7.1966
7.0678
7.0751
7.0751
Varianza del correlacionado=0.5
Des. est.
Sesgo
0.9928
0.1030
0.8583
-0.0558
1.0043
-0.1489
0.8903
0.1256
0.9254
-0.0032
0.9342
0.0041
0.9342
0.0873
RECM
0.9981
0.8601
1.0153
0.8991
0.9254
0.9396
0.9396
Tabla 13-4: LSM con el Activo Ficticio como Instrumento Utilizando ρ = 0.5 para Distintos Valores de σ 2 (2)
M
10000
20000
30000
40000
50000
Promedio
Promedio ABS
Media
7.1084
6.9387
7.1063
7.1754
7.0632
7.0784
7.0784
Varianza del correlacionado=0.8
Des. est.
Sesgo
0.9966
0.0374
1.0331
-0.1323
1.0021
0.0353
0.9016
0.1044
0.9430
-0.0078
0.9753
0.0074
0.9753
0.0634
RECM
0.9973
1.0415
1.0027
0.9076
0.9430
0.9784
0.9784
Media
6.9671
7.1988
7.0399
6.9964
7.0288
7.0462
7.0462
Varianza del correlacionado=1
Des. est.
Sesgo
0.9834
-0.1039
1.0532
0.1278
0.9148
-0.0311
1.0685
-0.0746
1.0340
-0.0422
1.0108
-0.0248
1.0108
0.0759
RECM
0.9889
1.0609
0.9153
1.0711
1.0349
1.0142
1.0142
99
Los gráficos presentados a continuación ilustran el comportamiento de
la desviación estándar, el valor absoluto del sesgo promedio y el promedio
del valor absoluto del sesgo para los distintos valores de la desviación
estándar del activo subyacente estudiados 19 .
Gráfico 13-1: Desviación estándar Promedio de los Distintos Métodos
Desviación estándar promedio
1.0200
Desviación estándar
1.0000
0.9800
LSM tradicional
0.9600
Instrumentos
0.9400
Regresores
0.9200
0.9000
0.8800
0.2
0.5
0.6
0.8
1.0
Sigma 2
Gráfico 13-2: Valor Absoluto del Sesgo Promedio de los Distintos Métodos
Valor absoluto del sesgo promedio
Valor absoluto del sesgo
0.1600
0.1400
0.1200
0.1000
LSM tradicional
0.0800
Instrumentos
0.0600
Regresores
0.0400
0.0200
0.0000
0.2
0.5
0.6
0.8
1.0
Sigma 2
19
Se ha incluido en el gráfico los valores correspondientes al caso en donde la varianza del correlacionado es
0.6. Dichos valores se encuentran en las tablas de la sección VIII.
100
Gráfico13-3 Promedio del Valor Absoluto del Sesgo de los Distintos
Métodos
Promedio del valor absoluto del sesgo
Valor absoluto del sesgo
0.2
0.1
0.1
0.1
LSM tradicional
0.1
Instrumentos
0.1
Regresores
0.0
0.0
0.0
0.2
0.5
0.6
0.8
1.0
Sigma 2
Al igual que en los resultados analizados en la sección octava, se
observa una ganancia en materia de sesgo. Estos experimentos sugieren
que la elección de la desviación estándar del activo ficticio no afecta
significativamente las propiedades de las variaciones del LSM propuestas.
Salvo que, al menos cuando el coeficiente de correlación es de 0.5, incluir el
activo ficticio como instrumento parece ser una mejor alternativa que
hacerlo como regresor.
101
Descargar