Una aproximación al riesgo de los modelos financieros

Anuncio
Una aproximación al riesgo de los modelos
financieros*
CARLOS HERRERO MALLOL
Agencia Estatal de Administración Tributaria
SUMARIO
1. UTILIDAD DE LOS MODELOS MATEMÁTICOS DEL RIESGO FINANCIERO.—2. INFALIBILIDAD DE LOS MODELOS ESTADÍSTICO­
FINANCIEROS.—3. CONCEPTO DE RIESGO DE MODELO Y OTROS CONCEPTOS AFINES.—4. FUENTES DE ERROR EN LA
MODELIZACIÓN FINANCIERA. PROBLEMAS DE CONSISTENCIA.—5. PROBLEMÁTICA DE LOS MODELOS. EL VALUE AT RISK.—
6. BACKTESTING. SU AMBIGÜEDAD INTERPRETATIVA.—7. CONCLUSIONES.—8. BIBLIOGRAFÍA.
Palabras clave: Fiscalidad financiera, análisis de riesgo, modelos financieros.
1. UTILIDAD
Esta situación sigue dándose en la actualidad,
pero en mucha menor medida. Y no tanto por la
actuación supervisora pública –que se ha manifes­
tado lenta en los pocos casos que se ha realizado y
por ello devenido ineficaz–, sino por la propia
revolución sufrida en los mercados financieros.
Estos se han encontrado en un proceso imparable
de globalización que, como parte de su propia exis­
tencia, necesita una amplísima información pública
de las cantidades y precios de negociación.
Esta realidad se ha reubicado el “nicho” del
diferencial informativo. Ahora los diferenciales de
rentabilidad se sitúan en la rapidez y fiabilidad
computacional de los modelos estadístico-financie­
ros utilizados por los gestores de riesgo para ela­
borar su más adecuada medición. Se han
convertido en un recurso competitivo estratégico
en el negocio global de la industria de los servicios
financieros.
Estos modelos, sin ánimo de ser exhaustivo,
permiten a los gestores manejar una cantidad
ingente de datos y poder, casi automáticamente,
tomar decisiones en tiempo real. Y con ello adelan­
tarse a sus potenciales competidores.
Igualmente les permite, en particular a Entida­
des Financieras y Aseguradoras, mediante la utili­
DE LOS MODELOS
MATEMÁTICOS DEL RIESGO FINANCIERO
Ya FRANCIS BACON, hace cuatrocientos años
acuñó la expresión: “el conocimiento es el poder”.
Si ello fue cierto en su tiempo nunca ha sido más
acertada la expresión que hoy aplicable a los mer­
cados financieros actuales.
¿Pero dónde está ese diferencial de conocimien­
to, que nos permita tener una ventaja comparativa?
En las décadas pasadas, la información sobre los
más significativos parámetros del mercado finan­
ciero (cantidad y precio) estaba reservada a unos
cuantos privilegiados que en razón a su posición
profesional, bien en el ámbito político bien en los
Consejos de Administración de las más importan­
tes empresas, accedían a ellos y los utilizaban en su
propio interés. A pesar de todas las trabas legales
que se establecían en los Ordenamientos Penales
(insider trading) de la mayoría de los Estados. Pero
que conseguían sortearlas con cierta facilidad con
la connivencia o no de los Supervisores Públicos.
Esta privilegiada situación les permitía acceder a
los mercados financieros con mayor y más precisa
información y lo que es más importante: con anti­
cipación.
*
Trabajo presentado al V Curso de Alta Especialización en Fiscalidad Financiera celebrado en la Escuela de la Hacienda Pública del Ins­
tituto de Estudios Fiscales en el primer semestre de 2010.
91
Cuadernos de Formación. Colaboración 6/11. Volumen 12/2011
2. INFALIBILIDAD DE LOS MODELOS
ESTADÍSTICO-FINANCIEROS
zación de estos modelos (Basilea II y Solvencia II)1
minorar los “capitales muertos” necesarios como
colchón por disposición normativa para atenuar
el riesgo de insolvencia empresarial y poder tener
un mayor flujo inversor en los mercados financie­
ros, así como mejorar sustancialmente su renta­
bilidad financiera. Sin sufrir por ello disminución
de su rating. Lo que igualmente les permite acce­
der al mercado de capitales en situación muy
ventajosa, por no ser penalizado su riesgo de cré­
dito2.
Aparte de estos beneficios generados por los
modelos matemáticos de riesgo, nos encontramos
con la gran capacidad que estos permiten de “con­
ducir mercado” por las denominadas “manos fuer­
tes”. En detrimento de aquella infinidad de
partícipes en los mercados financieros que, care­
ciendo de estos modelos computacionales, apenas
les queda la capacidad de decisión de entrar o no
en el mercado, pero poco más y fiarse del principio
bursátil de: the trend is my friend.
Ya ALBERT EINSTEIN expresó “que toda teoría
científica nace con la vocación de ser asesinada por
la realidad”.
El ejercicio 1997 pasó a la historia financiera como
“el año de las pérdidas causadas por los modelos”.
Se evalúa en la literatura financiera norteameri­
cana, como una cifra muy cercana a la realidad, que
las pérdidas sufridas por errores en la elaboración
y gestión de los modelos matemáticos en operacio­
nes con productos derivados en la década 1987­
1997 se elevaron a casi 24 mil millones de dólares.
Ejemplo de ello son a modo de pequeño muestra­
rio: el banco UBS declaró unas pérdidas de 240
millones de dólares por inadecuación de las hipóte­
sis estadísticas en sus modelos de derivados, Natio­
nal Westminster Bank declaró 123 millones de
dólares de pérdidas por mala gestión matemática
de su libro de opciones en renta fija, el Banco de
Tokio-Mitsubishi declaró unas pérdidas de 50 millo­
nes de dólares en la sobrevaloración de la cartera
de permutas de tipo de interés y así una larguísima
relación de errores computacionales de riesgo que
generaron enormes pérdidas.
Ante este panorama ¿cuál ha sido la respuesta de
los principales actores del mercado, a saber: gesto­
res, consultores, supervisores privados y públicos?
Ante todo no generar desconfianza ni en el mer­
cado ni, lo más importante al menos para ellos, no
generar desconfianza en los referidos actores,
amparándose en una sacrosanta revelación divina
de la imperiosa necesidad de máxima confianza de
los inversores en el mercado y en sus principales
actores. El velo informativo en los medios de comu­
nicación masivos e incluso en los ámbitos académi­
cos, también muy interesados en su silenciación, ha
sido arma fundamental para evitar el desprestigio. Y
tanto y tan bien se ha logrado que lejos de haberse
arrinconado allí donde solo habita el silencio, los
modelos matemáticos como paradigma de infalibili­
dad, han recuperado en el siglo XXI toda su vigencia,
al hilo de la desregulación financiera.
No obstante a lo largo de la última década las
autoridades nacionales e internacionales de super­
visión financiera y la industria privada de derivados
han negociado una serie de acuerdos sobre con­
venciones estándares de ingeniería financiera, que
permitieran validar técnicamente y homologar
administrativamente los modelos de medición y
control de riesgos. El ánimo es encauzar armoniza­
damente este proceso de desregulación y de apari­
ción de múltiples sistemas de control interno de
riesgos.
1 Basilea II es el segundo de los Acuerdos de Basilea. Dichos
acuerdos consisten en recomendaciones sobre la legislación y
regulación bancaria y son emitidos por el Comité de supervi­
sión bancaria de Basilea. El propósito de Basilea II, publicado ini­
cialmente en junio de 2004, es la creación de un estándar
internacional que sirva de referencia a los reguladores banca­
rios, con objeto de establecer los requerimientos de capital
necesarios, para asegurar la protección de las entidades frente
a los riesgos financieros y operativos. Se estructura en tres pila­
res o principio:
1
Pilar I: El cálculo de los requisitos mínimos de capital.
1
Pilar II: El proceso de supervisión de la gestión de los fondos
propios.
1
Pilar III: La disciplina de mercado.
1
Solvencia II es, en el seno de la Unión Europea, la Directiva
2009/138/CE del Parlamento Europeo y del Consejo, de 25 de
noviembre de 2009, sobre el seguro de vida, el acceso a la acti­
vidad de seguro y de reaseguro y su ejercicio. Pretende que las
compañías aseguradoras operen dentro de sus ámbitos de res­
ponsabilidad, con un nivel de viabilidad (solvencia) adecuado. El
objetivo principal consiste en mejorar el control y medición de
los riesgos (de mercado, operacionales, de crédito y de liqui­
dez) a los que están expuestos las aseguradoras. Se estructura
en tres pilares o principios:
1
Pilar I: Medida de activos, pasivos y capital.
1
Pilar II: Proceso de supervisión.
1
Pilar III: Requerimientos de transparencia.
2
Resulta significativo que el Parlamento británico haya acepta­
do debatir a partir del próximo noviembre de 2010, una pro­
puesta que supone una auténtica revolución para el actual
sistema bancario. STEVE BAKER y DOUGLAS CARSWELL, diputados
conservadores de la Cámara, presentaron con el apoyo de
otros miembros de su partido, una reforma financiera inédita,
consistente en limitar la reserva fraccionaria de la banca. Es
decir, el privilegio legal por el cual una entidad puede prestar
los depósitos a la vista de sus clientes, expandiendo así el cré­
dito.
92
Una aproximación al riesgo de los modelos financieros
C ARLOS H ERRERO M ALLOL
Esto ha convertido el antiguo supervisor (depo­
sitario de la confianza de los pequeños ahorrado­
res-inversores en la tutela de sus intereses) en
metodólogo, o aún más preciso, en validador de
sistemas de control interno. Una vez habilitado el
método, asume responsabilidad compartida y cer­
cena muy significativamente su futuro interés en
investigar la fiabilidad real del método aprobado,
cerrándose así el círculo de agentes del mercado
financiero unidos por una motivación común: no
desacreditar la validez científico-técnica del sistema
y así trasmitirnos (hacer creer) al universo de res­
tantes partícipes en el mercado financiero que exis­
ten las herramientas adecuadas para su efectivo
control y la más diligente voluntad para ejercerlo.
3. CONCEPTO
Acompañan a este error, padre de todos los
errores, otros que solos o acompañados dinamitan
la validez de un modelo:
a) Asumir de forma errónea que el movimiento
de ciertas variables de carácter estocástico
o aleatorio puede ser imitado con suficiente
calidad por cálculos deterministas.
b) Pensar que la distribución empírica de los
cambios de precios en los mercados finan­
cieros pueda ser descrita mediante una dis­
tribución de frecuencias normalizada, con
un rango de varianza altamente restringido.
c) Pensar que los parámetros numéricos em­
pleados para calibrar el modelo no hayan
sido correctamente estimados.
d) Pensar que se sufran fallos computaciona­
les o bugs.
Algunos ejemplos de ello lo podemos observar
en las premisas matemáticas y estadísticas que se
haya insertas en el sustrato conceptual de los
modelos neoclásicos estándares de valoración de
inversiones, que al confrontarse con las estructuras
y procesos reales de la negociación financiera
sufren serios problemas de consistencia.
Algunas muestras son:
a) Los modelos de valoración en equilibrio
asumen generalizadamente que los agen­
tes, al estar atomizados, no influyen signifi­
cativamente en el mercado. De ahí se sigue
que el contagio imitativo y el comporta­
miento en manada (herd behaviour) suelen
estar extrañados de los modelos teóricos
pese a su muy refutada existencia.
b) Los modelos financieros estándares dan
por hecho que la información financiera es
un bien público simultánea y democrática­
mente accesible por todos los operadores.
Cuando la realidad nos indica, y la existen­
cia y proliferación de modelos internos y
costosísimos computacionales ayuda a eso,
que pese a la aparente globalización de la
información financiera esto es lo más aleja­
do de la realidad. La información que final­
mente llega a la generalidad del mercado
ha sido ya múltiplemente filtrada y su apor­
tación cognoscitiva es mínima, cuando no
es mero ruido informativo.
c) Las convenciones modelizadoras asumen
también que los costes de transacción son
muy bajos y que la liquidez de los mercados
es muy alta, asunciones difíciles de mantener
en muchos y prolongados períodos de crisis
de liquidez, donde apenas nadie compra ni
vende y los saltos de precio son enormes.
DE RIESGO DE MODELO Y
OTROS CONCEPTOS AFINES
El riesgo de modelo ha sido definido como
aquel tipo de riesgo financiero que resulta de la
especificación inapropiada de un modelo teórico o
del uso de un modelo apropiado en un marco
inadecuado o para un propósito inadecuado.
Son múltiples los determinantes económicos
del riesgo de modelo financiero y se identifican, de
acuerdo a la definición anterior, como el conjunto
prácticamente infinito de maneras de construir un
modelo teórico erróneo o bien emplear un mode­
lo correcto de un modo incorrecto.
Igualmente otro concepto que surge conexo al
de riesgo de modelo y particularmente interesante
–pese a su aparente obviedad pero con gran trans­
cendencia en la valoración de los modelos– es el de
Coste de Modelización. Coste de modelización
entendido como la pérdida que se sufre por las
omisiones estratégicas que se cometen al construir
un modelo desaprovechando información real. Es
muy difícil de valorar pero debe permanecer per­
manentemente activo en la mente del modelizador
para su continua actualización y mejora en el pro­
ceso de backtesting3.
4. FUENTES
DE ERROR EN LA MODELIZACIÓN
FINANCIERA.
PROBLEMAS DE CONSISTENCIA
El riesgo de modelo aparece fundamentalmen­
te siempre que deja de tomarse en consideración
algún factor relevante que influye significativamen­
te en las cotizaciones de los mercados.
3 Backtesting (o back-testing) es el proceso de evaluación de
una estrategia, teoría o modelo, mediante la aplicación al
mismo de una serie histórica de datos.
93
Cuadernos de Formación. Colaboración 6/11. Volumen 12/2011
d) Finalmente otras hipótesis estándares de
los modelos neoclásicos de los mercados
eficientes de capital, el principio de igual­
dad crediticia y el de neutralidad regulado­
ra, resultan desbastadas por la realidad.
La introducción de los modelos estocásticos y
de los modelos de comportamiento psicológicofinancieros tratan de solventar algunas de las gran­
des lagunas de los modelos neoclásicos. Pero su
complejidad formal (que les lleva permanentemen­
te a reformular el modelo a hipótesis analíticas sim­
plificadoras –como la continua admisión de la
naturaleza perfectamente estocástica de las series
históricas temporales financieras– pese a su inicial
pretendida complitud formal) y la dificultad de
obtener datos contrastados de comportamientos
colectivos humanos (que les obliga a formular como
datos lo que son meras impresiones más o menos
validadas por la observación a veces objetiva y otras
muchas ya muy pre configurada) hacen hoy por hoy
de ellos unos instrumentos muy manipulables y con
mucho margen interpretativo de sus resultados.
5. PROBLEMÁTICA DE
EL VALUE AT RISK
100 sesiones de negociación las pérdidas podrán
exceder de la cifra de Value at Risk (VaR)5 estableci­
da en el modelo. Pero según las hipótesis del mode­
lo nada impide, salvo costes, proponer un intervalo
de confianza aún mayor si ello fuera necesario.
La gran cuestión que se plantea es si realmente
podemos a priori de forma externa establecer pará­
metros que limiten el margen de maniobra de la
acción social.
Según los modelos imperantes los movimientos
extremos de precios se deben a fenómenos que
operan a muy largo plazo y por tanto son altamen­
te improbables en la escala temporal que estos
manejan, normalmente muy cortoplacistas.
Pero la realidad, fuera ya de los grandes sucesos
de mercado, es que la las fluctuaciones de gran
tamaño de mercado, esto es aquellas que son
superiores a 10 veces la desviación estándar –ocu­
rren de forma muy frecuentemente– del orden de
cada mes-alcanzando las centésimas de probabili­
dad en lugar de unas pocas millonésimas de una
millonésima de millonésima de millonésima previs­
ta por el modelo de carteras eficientes y tampoco
se acercan mucho más otros más prudentes que no
pasan de evaluarlo en una probabilidad del orden
de las millonésimas.
La volatilidad engendra volatilidad, y cada salto
alimenta energía al siguiente. Y esto no lo contem­
plan los modelos usuales y académicos actuales.
LOS MODELOS.
¿Existe frontera entre lo normal y lo excepcio­
nal en la realidad económica?
Primero, enfrentemos el por qué de la pregun­
ta y de su importancia. Los modelos neoclásicos,
donde se fundamentan la práctica mayoría de los
modelos de ingeniera financiera, participan de la
concepción “benigna” del azar económico. Esto es,
el azar económico es una aleatoriedad gaussiana
que permite establecer intervalos de confianza
estadística y en esa medida se configurarán los
parámetros del modelo y sus observaciones según
el grado de seguridad que queramos atribuir al
modelo. Y en ese sentido se pretende disponer de
un modelo todo lo seguro que estemos necesitados
y/o dispuestos a precisar incurriendo, eso sí, en los
costos que de ese perfeccionamiento se derivaran.
Por ejemplo, según lo anterior, establecer un
intervalo de confianza, al modo del Comité de Basi­
lea4, del 99 por 100 implica que solamente 1 de cada
(Continuación.)
Banco de Pagos Internacionales (en inglés BIS, BPI en español),
Basilea, Suiza, donde se encuentra su Secretaría permanente, de
12 miembros. A sus reuniones plenarias, que se celebran cuatro
veces al año, asisten también representantes de la autoridad
nacional supervisora cuando esta función no recae en el banco
central respectivo. El Commité se refiere a menudo como el
Comité del BPI después de su lugar de reunión. Sin embargo, el
BPI y el Comité de Basilea siguen siendo dos entidades distintas.
4 El Comité de Basilea está constituido actualmente por repre­
sentantes de las autoridades de supervisión bancaria de los ban­
cos centrales de Bélgica, Canadá, Francia, Alemania, Italia,
Japón, Países Bajos, Suecia, Suiza, Reino Unido y Estados Uni­
dos, y dos países más que no son miembros del G-10, Luxem­
burgo y España.
4 El Comité formula las normas generales de supervisión y
directrices y recomienda las declaraciones de buenas prácticas
en la supervisión bancaria (ver regulación bancaria o Basilea II,
por ejemplo) con la esperanza de que las autoridades miembro
y las autoridades de países no miembros tomarán medidas para
ponerlas en práctica a través de sus propios sistemas naciona­
les, ya sea en forma legal o de otra manera. Efectivamente, a
pesar de no tener autoridad para hacer cumplir sus recomen­
daciones, la mayoría de los países, miembros o no, tienden a
implementar las políticas dictadas por el Comité.
4
El Comité de Basilea es la denominación usual con la que se
conoce al Comité de Supervisión Bancaria de Basilea (BCBS, sigla de
Basel Committee on Banking Supervision en inglés), la organización
mundial que reúne a las autoridades de supervisión bancaria,
cuya función es fortalecer la solidez de los sistemas financieros.
4 El Comité fue establecido en 1975 por los presidentes de los
bancos centrales de los once países miembros del Grupo de los
Diez (G-10) en aquel momento. Normalmente se reúne en el
5
El Value at Risk (VaR, “Valor en Riesgo”) resume la pérdida
máxima esperada (o peor pérdida) a lo largo de un horizonte
de tiempo objetivo dentro de un intervalo de confianza dado.
(Sigue.)
94
Una aproximación al riesgo de los modelos financieros
C ARLOS H ERRERO M ALLOL
ran irrelevante, un “error” o mera “falla” del siste­
ma; de ahí que POPPER (padre intelectual de FRIED­
MAN) valide tan rápidamente la autorregulación de
los mercados.
Si bien lo que puede ocurrir en ese 1 por 100 es
sencillamente catastrófico, además hay que reco­
nocer que la medición del 99 por 100 es bastante
imprecisa. Como en todo, las teorías de las proba­
bilidades apelan a escenarios más normales que
complejos, por tanto, cuando se rompe toda nor­
malidad, es decir, cuando no tenemos sólo un cisne
negro sino toda una manada, toda esa operatoria
debería apelar a los máximos resguardos, como un
barco en medio de la tormenta. No obstante, se
permite que siga el juego pese a los varios knock­
out técnicos que acumula el sistema.
Sucintamente los problemas con el modelo
propuesto por el Comité de Basilea pueden concre­
tarse en que:
I. El cálculo del Valor en Riesgo está fuerte­
mente condicionado por la caracterización que se
haga de las distribuciones de los precios, cualquie­
ra que sea el método escogido para el cálculo del
VaR. Bien a través de construcciones de matrices
de varianzas y covarianzas –para un VaR paramétri­
co o mediante simulación de MonteCarlo bajo
supuesto de normalidad–, o bien a través de la
serie de precios para un VaR mediante simulación
histórica.
La calidad de esos inputs esenciales del modelo
está influida por múltiples aspectos que en la prác­
tica dificultan la obtención de una cifra de VaR ple­
namente fiable:
— Método de estimación de volatilidades y
correlaciones.
— Método de generación de series de pre­
cios elaborados.
— Existencia de series de variables de merca­
do necesarias para realizar la estimación
de volatilidades y correlaciones o realizar
la simulación histórica.
Respecto al primer punto, los desarrollos teóri­
cos realizados en este área se suceden y existen
multiplicidad de métodos de estimación de la vola­
tilidad, sin embargo, la aplicación práctica de un
modelo a la problemática de la gestión de riesgos
de una entidad financiera restringe la complejidad
del mismo en tanto en cuanto modelos dependien­
tes de múltiples parámetros hacen aumentar nota­
blemente las dificultades de estimación de los
mismos y su uso, complejidad por otro lado tanto
mayor cuanto mayor sea el número de factores de
riesgo que afectan al valor de mercado de las posi­
ciones de la entidad.
El crash del mercado bursátil de 1987 según el
modelo de aleatoriedad normal solo se daría una
vez entre billones de años. La subestimación de
pérdidas se convierte en un hábito usual e incluso
pasivamente admitido por los modelos de aleato­
riedad fina.
Al comparar los resultados del Dow Jones
durante el mes de octubre de 2008, llegamos a dos
cambios diarios con más del 10 por 100. La desvia­
ción estándar para los cambios diarios del período
1971-2008 fue del 1,032 por 100, lo que indica que
los movimientos de la magnitud de los ocurridos en
octubre sólo pueden ocurrir una vez cada 73 a 603
billones de años. Pero ocurrió dos veces en el
mismo mes. Todo un milagro.
“Olvídese del VAN (Valor Actual Neto) y la TIR
(Tasa Interna de Retorno) el VaR (Valor en Riesgo)
es la nueva metodología para el análisis de riesgo."
Así rezaban las campañas promocionales de esta
nueva metodología que cundió en Wall Street y que
la arrastró al precipicio. En términos simples, el VaR
cuantifica la exposición al riesgo de mercado, utili­
zando las técnicas estadísticas tradicionales, pero
en análisis de tiempo demasiado corto.
Esto, que en la teoría funciona perfectamente,
fue adoptado y popularizado a principios de los 90
por un grupo de matemáticos que lo aplicaron en
JP Morgan. El gran atractivo del VaR era su simplici­
dad de cálculos, lo que lo diferenciaba del modelo
CAPM (Capital Asset Pricing Model), ideado por
MARKOWITZ en los años 50 y uno de los más difun­
didos en la cuantificación del riesgo. Los éxitos pri­
merizos del VaR en JP Morgan marcaron una rápida
escalada a la masificación de su uso, pese al excesi­
vo y temerario riesgo que ya, a fines de los 90,
amenazaba con derribar a todo el sistema.
En su forma más común, el VaR mide los límites
de riesgo de una cartera en un período de corta
duración bajo el supuesto de un mercado “nor­
mal”. La sencillez de su razonamiento lo llevó a
adquirir gran popularidad además de que podía
aplicarse a todo tipo de activos.
Hasta el Comité de Basilea de Supervisión Banca­
ria validó esta nueva herramienta autorizando a las
empresas y bancos a recurrir a sus propios cálculos
de VaR para fijar sus requisitos de capital. Con esta
autorización explícita, muchas empresas y bancos
hicieron uso del apalancamiento del 1 por 100.
Lo que nadie advirtió fue lo que podía ocurrir
en el caso de que se diera ese 1 por 100 fatídico,
es decir, que se encontrara un cisne negro. Por lo
general, gran parte de las teorías científicas (positi­
vismo de POPPER) se conforman con explicar el 99
por 100 y el estudio de ese 1 por 100 lo conside­
95
Cuadernos de Formación. Colaboración 6/11. Volumen 12/2011
La ausencia de series de volatilidades implícitas
es muy importante en todos los mercados OTC y en
particular en mercados como el de opciones sobre
renta variable a largo plazo. Este problema es tanto
más importante si se tiene en cuenta que no solo es
necesario captar una volatilidad por subyacente y
plazo sino que determinadas posiciones tienen su
mayor riesgo en el efecto smile9 a través de los dife­
rentes precios de ejercicio. A modo de ejemplo,
una call spread tiene un riesgo vega a movimientos
de un 1 por 100 en la volatilidad implícita muy infe­
rior al que se produce cuando la pendiente del smile
cambia variando un 1 por 100 el diferencial de vola­
tilidades que se aplican a la call comprada y a la call
vendida.
En el caso de la renta fija privada apenas si exis­
ten series históricas de spreads de emisiones de
renta fija lo cual dificulta la realización de una medi­
ción correcta del riesgo de spread implícito en las
posiciones de renta fija privada.
Por último, en el caso de los mercados emer­
gentes, la ausencia de información histórica de cali­
dad es total, lo cual exige realizar la medición del
riego de aquellos mercados por procedimientos
simplificados que reduzcan las exigencias de infor­
mación por parte de los modelos (reducción de
tramos, selección de benchmarks, etc.).
La elección de la dimensionalidad del problema,
es decir, la selección del cuántos y cuales son los
factores de riesgo es también importante de cara al
resultado final. De un lado, el captar todos los efec­
tos que pueden afectar al valor de mercado de una
cartera aconseja introducir tantos factores como
sea posible, sin embargo, por otro lado, un núme­
ro excesivo de parámetros puede conducir a:
Sin embargo, el método escogido en función de
sus peculiaridades afecta a los resultados obteni­
dos, estando condicionada, en todo caso, la selec­
ción del modelo a, entre otros, el holding period
para el cual se calcula el VaR.
II. Un segundo aspecto que condiciona las
volatilidades y correlaciones obtenidas es la utiliza­
ción de series de variables de mercado que no se
observan directamente sino que son el resultado
de un modelo.
Por ejemplo, la utilización de la metodología
desarrollada por Risk-Metrics6 permite captar el
riesgo de base derivado de posiciones de swaps
cubiertas con deuda pública mediante la introduc­
ción como factores de riesgo de los tipos cupón
cero a los distintos plazos tanto de la deuda como
de los IRS’s7. Sin embargo, la curva cupón cero de
deuda solo puede ser obtenida a través de un
modelo econométrico cuyas premisas determina­
rán en buena medida las volatilidades y correlacio­
nes entre plazos y entre curvas, lo cual implica que
la cifra de VaR va a estar condicionada por aquel.
III. Finalmente, y quizá de forma aún más
importante, la ausencia de series de datos para los
factores de riesgo dificulta enormemente la medi­
ción del riesgo de mercado. En particular, existe
una manifiesta ausencia de datos para los siguientes
grupos de variables:
— Volatilidades implícitas de opciones OTC8.
— Series de spreads de emisiones de Renta
Fija Privada.
— Series de variables de mercado de emer­
gentes.
— El problema de la dimensionalidad.
9
Cuando se quiere valorar una opción financiera utilizando la
fórmula Black-Scholes u otros modelos análogos se utilizan
cinco variables: el valor del subyacente, el precio de ejercicio,
el tiempo hasta el vencimiento, el tipo de interés libre de ries­
go y la volatilidad de los rendimientos del subyacente.
9 Si se dibuja la volatilidad implícita en función de los precios de
ejercicio podemos obtener dos tipos de figuras, una función
cuadrática y una función decreciente. La forma cuadrática de la
función se denomina habitualmente como sonrisa de volatilidad
(smile) mientras que la función decreciente es llamada mueca
de volatilidad (skew).
9 La sonrisa toma diferentes formas en cada mercado. En los
mercados de opciones en divisas el efecto es simétrico, sobreto­
do, cuando las dos divisas implicadas son “fuertes” pero si una de
ellas es potencialmente más débil se configura más una mueca
con una mayor volatilidad implícita de las Put fuera de dinero de
la divisa débil que de las correspondientes Call de dicha divisa. En
los mercados de opciones sobre bonos la volatilidad es mayor
para los precios de ejercicio que suponen menores tasas de ren­
dimiento. Y por último, en los mercados de opciones sobre índi­
ces bursátiles, la volatilidad es significativamente mayor para las
Put fuera de dinero en comparación con las Call fuera de dinero.
6
RiskMetrics es un sistema de los modelos financieros que son
utilizados por los inversionistas para medir riesgo de lista. RiskMetrics fue publicado en 1994 por el banco de inversión JP Mor­
gan como Documento técnico de RiskMetrics. El documento téc­
nico fue revisado en 1996. En 2001, fue revisado otra vez en su
documento Vuelta a RiskMetrics. En 2006, se introdujo un
nuevo método para modelizar el comportamiento del factor de
riesgo (denominado RM2006).
7
IRS (Interest Rate Swap). Un swap, o permuta financiera o
préstamo interbancario, es un contrato por el cual dos partes se
comprometen a intercambiar una serie de cantidades de dinero
en fechas futuras. Normalmente los intercambios de dinero
futuros están referenciados a tipos de interés, llamándose IRS
(Interest Rate Swap) aunque de forma más genérica se puede
considerar un swap cualquier intercambio futuro de bienes o
servicios (entre ellos el dinero) referenciado a cualquier variable
observable. Un swap se considera un instrumento derivado.
8 La negociación Over The Counter (OTC) negocia instrumentos
financieros (acciones, bonos, materias primas, swaps o derivados
de crédito) directamente entre dos partes. Este tipo de negocia­
ción se realiza fuera del ámbito de los mercados organizados.
96
Una aproximación al riesgo de los modelos financieros
C ARLOS H ERRERO M ALLOL
— Problemas de mantenimiento de un núme­
ro excesivo de series históricas.
— Problemas de tiempo de proceso.
— Problemas con la selección de parámetros
independientes.
Por poner un ejemplo de este último caso, pen­
semos en el número de factores de riesgo que
habría que introducir para captar todos las posibles
alteraciones que podría sufrir una cartera de swap­
tion10 en una divisa determinada (por ejemplo
euro). Algún broker suministra precios para hasta
195 combinaciones de fechas de ejercicio y venci­
miento del subyacente. Si además se desease cap­
tar el smile por tipos de ejercicio habría que
multiplicar esa cifra al menos por tres. Sin embar­
go, e incluso prescindiendo del smile, que la matriz
de volatilidades presente 195 puntos no quiere
decir que se estén cruzando operaciones en todos
ellos, pese a lo cual, el broker que nos suministra la
matriz está moviendo todos sus puntos mediante
interpolaciones y extrapolaciones de las volatilida­
des de las operaciones que realmente se están cru­
zando en el mercado. Como consecuencia de ello,
las series de precios no son independientes lo cual
nos conduce a matrices no definidas positivas.
Todo estos problemas se multiplican en los
mercados emergentes, cuyo volumen empiezan a
tener significativa importancia.
Los mercados emergentes presentan una serie
de peculiaridades que dificultan enormemente la
estimación del riesgo derivado de posiciones man­
tenidas en los mismos. Entre ellas están:
— Alta volatilidad.
— Se producen saltos discontinuos en las se­
ries de precios.
— Cambios en las condiciones del entorno
político y económico.
— Sistemas financieros débiles.
— Baja calidad de los datos tanto en lo refe­
rente a variables macro como micro.
— Existencia de circunstancias de iliquidez
extrema.
Dichas características de los mercados emer­
gentes hacen que algunas de las premisas sobre las
que se asienta la medición del “Valor en Riesgo” no
puedan ser asumidas sin dificultad en dichos mer­
cados.
La asunción de normalidad es inaplicable a esos
mercados por lo cual el método de varianzas/cova­
rianzas en si mismo no resulta adecuado y la inexis­
tencia de series históricas impide utilizar como
alternativa la simulación histórica y caracterizar
correctamente las distribuciones para realizar
simulación de MonteCarlo.
Alta inestabilidad en los niveles de volatilidades
y correlaciones que hace inútiles las estimaciones
de las mismas realizadas a partir de la historia ante
cambios bruscos en sus niveles.
Resulta complejo establecer un holding period
cuando el período de liquidación de las posiciones
se desconoce a priori dado el alto grado de iliquidez
de estos mercados que puede llegar a ser extrema
en algunas circunstancias.
Esto fue lo que llevó a ALAN GREENSPAN a pedir
excusas cuando comunicó su mea culpa. Tras seña­
lar que había varios Premios Nobel detrás de estas
teorías, declaró:
10
Un swaption es un tipo de derivado financiero. Consiste en
una opción cuyo subyacente es un swap, normalmente un Inte­
rest Rate Swap (IRS). Es decir, ofrece la posibilidad de entrar en
una permuta de tipo de interés.
10 Hay dos tipos de swaption:
10 a) Un swaption pagador (payer) da el derecho (pero no la
obligación) al comprador de la opción, de entrar en un swap
donde se paga un tipo de interés fijo y se recibe un tipo de inte­
rés variable. El vendedor de la opción tiene la obligación de
entrar en el swap si el comprador decide ejecutar su derecho.
10 b) Un swaption receptor (receiver) da el derecho (pero no
la obligación) de entrar en un swap donde se paga un tipo de
interés variable y se recibe un tipo de interés fijo. El vendedor
de la opción tiene la obligación de entrar en el swap si el com­
prador decide ejecutar su derecho.
10 Comprador y vendedor deben acordar unos parámetros:
10 a) El precio (premium) del swaption.
10 b) El strike (que es el precio del IRS o swap en el que se en­
trará).
10 c) Fecha de inicio y vencimiento de la opción y tipo de
opción (europea o americana).
10 d) La duración del IRS subyacente.
10 e) El nocional.
10 f)
La amortización del nocional (si es que existe).
10 g) Frecuencia de los pagos del IRS, tanto de la parte fija
como de la parte variable.
“Todo el edificio intelectual se ha derrumbado
debido a que la introducción de datos en los mode­
los de gestión de los riesgos cubiertos ha tenido en
las últimas décadas un período de euforia. Si los
modelos hubiesen incorporado tiempos más lar­
gos, las exigencias habrían sido mayores y hoy el
mundo financiero estaría en mucho mejor pie.”
Los modelos predominantes, como asegura
BENOIT MANDELBROT, padre de la matemática frac­
tal11 y profesor de Yale, se basan en evaluar un
11
Un fractal es un objeto semigeométrico cuya estructura
básica, fragmentada o irregular, se repite a diferentes escalas. El
término fue propuesto por el matemático BENOÎT MANDELBROT
en 1975 y deriva del latín fractus, que significa quebrado o frac­
turado. Muchas estructuras naturales son de tipo fractal.
(Sigue.)
97
Cuadernos de Formación. Colaboración 6/11. Volumen 12/2011
que se nos plantea: aquellas concebidas en distribu­
ciones de cola gorda.
En estas distribuciones los eventos ordinarios y
extraordinarios se vinculan y los extremos se suce­
den con una frecuencia alocada y ningún tipo de
análisis de desviación estándar puede proporcional
válida información sobre ellos.
En la actualidad se trata de resolver algunos de
estos problemas con la técnica estadística de cópu­
las que permite construir modelos que van más allá
de los estándares en el análisis de dependencia
entre variables estocásticas.
Existen interesantes aportaciones a la nueva
orientación que debe tomar la predicción financie­
ra basada en la matemática fractal, donde básica­
mente la predicción de los saltos se constituye en
la piedra angular del método y considera a estos el
paradigma central de la realidad financiera y no
como la metodología neoclásica que los arrincona
extramuros del intervalo de confianza.
Y es aquí donde se encuentra el sentido de la
pregunta formulada. De admitir la dificultad de
separar y obviar mesurablemente los sucesos
extraordinarios en la previsión financiera se nos
abre un sinfín de interrogantes sin respuesta actual
y que impactan de lleno en el tema central de ries­
go de modelo, esto es en su virtualidad.
campo según la hierba sin atender a los grandes
árboles. Así estos modelos desatendieron los casos
del colapso de Enron en 2001 con una pérdida
extraordinaria del valor de sus acciones o simétri­
camente el caso de la fuerte elevación del valor de
las acciones de Cisco Systems, Inc. en 1990. Se pre­
gunta este autor como cabe desatender la necesi­
dad de contemplar en un modelo posibilidades de
acontecimientos como por ejemplo pasar de una
equivalencia cuatro marcos alemanes por un dólar
antes de la Primera Guerra Mundial a cuatro trillo­
nes de marcos por un dólar al final de ella.
Vivimos en un mundo de winner-take-all. Así por
ejemplo la mitad de la capitalización bursátil norte­
americana está concentrada en 100 compañías de
un total aproximado de 10.000 y todo ello hablan­
do del mercado de acciones más líquido y profundo
del mundo. Los árboles son pocos pero muy altos
para no tenerlos en consideración.
Los momentos también son pocos pero muy
importantes. Si la serie histórica de cotizaciones
bursátiles de los últimos 20 años desde 1995 del
S&P 500 se corrige arriba y abajo en los diez días
más fuertes de variación sufrida nos encontramos
que la cotización del índice en el año 2000 en lugar
de los 1.500 cotizados sobrepasaría los 2.500 pun­
tos. Desviación demasiado significativa como para
desdeñar apriorísticamente los eventos singulares
en las predicciones financieras.
De ello puede deducirse que la aproximación a
la aleatoriedad económica mediante la distribución
normal, absolutamente ninguneante de los sucesos
singulares, esto es aquellos de baja probabilidad
pero alta pérdida, resulta al menos bastante inquie­
tante, y no tanto por la ineficiencia de sus resulta­
dos si no por la principal alternativa metodológica
6. BACKTESTING. SU
AMBIGÜEDAD
INTERPRETATIVA
El backtesting consiste en unos test normalizados
de contraprueba para verificar estadísticamente el
comportamiento de los modelos internos financie­
ros frente a los riegos reales surgidos del mercado.
Es un procedimiento de post-vigilancia que
tiene como objetivo técnico garantizar los requeri­
mientos mínimos de eficiencia predictiva del las
fuentes de información estadística y los modelos
utilizados del que surgirán las decisiones a más alto
nivel de las Entidades Financieras en relación a los
requerimientos de Capital y Reservas de las mis­
mas. El Comité de Basilea recomienda llevar a cabo
exámenes periódicos cada cuatrimestre utilizando
datos de los últimos 12 meses para un horizonte
temporal de un día. Esto es un mínimo muestral de
250 observaciones.
Los supervisores nacionales e internacionales,
de acuerdo a la normativa vigente, periódicamente
revisan los modelos internos de riesgo de las enti­
dades supervisadas de acuerdo a procedimientos
estadísticos normalizados de auditoría de sistemas
de control interno.
(Continuación.)
11
A un objeto geométrico fractal se le atribuyen las siguientes
características:
11 a) Es demasiado irregular para ser descrito en términos
geométricos tradicionales.
11 b) Posee detalle a cualquier escala de observación.
11 c) Es autosimilar (exacta, aproximada o estadística).
11 d) Su dimensión de Hausdorff-Besicovitch es estrictamente
mayor que su dimensión topológica.
11 e) Se define mediante un simple algoritmo recursivo.
11 No nos basta con una sola de estas características para defi­
nir un fractal. Por ejemplo, la recta real no se considera un fractal, pues a pesar de ser un objeto autosimilar carece del resto
de características exigidas.
11 Un fractal natural es un elemento de la naturaleza que puede
ser descrito mediante la geometría fractal. Las nubes, las mon­
tañas, el sistema circulatorio, las líneas costeras o los copos de
nieve son fractales naturales. Esta representación es aproxima­
da, pues las propiedades atribuidas a los objetos fractales idea­
les, como el detalle infinito, tienen límites en el mundo natural.
98
Una aproximación al riesgo de los modelos financieros
C ARLOS H ERRERO M ALLOL
Para evaluar el grado de efectividad del modelo
de medición de riesgos básicamente se hace:
1. Contar cuantas veces la realidad se ha sali­
do fuera de la expectativa del modelo.
2. Valorar si el número de excepciones ha
sido superior o no al nivel requerido de
cobertura según el intervalo de confianza
fijado en el modelo. (en el ámbito de enti­
dades bancarias del 99 por 100, lo cuál sig­
nifica para una muestra de 250 resultados
que sólo se admitan dos excepciones).
Ahora es cuando empieza el verdadero proble­
ma: ¿qué pasa si se supera esa cifra no de una
manera desorbitante si no sólo moderadamente,
por ejemplo cinco o siete excepciones?
El Comité establece zonas de seguridad: verde,
amarilla y roja para evaluar la fortaleza estadística,
pero que teniendo las ventajas de su sencillez,
comodidad y estandarización son muy imperfectas
para valorar la calidad del modelo aplicado y que
puede llevar, en particular a los supervisores públi­
cos a cometer errores consistentes bien en apro­
bar modelos incorrectos bien a desechar modelos
válidos.
Por supuesto que se prevé para evitar estos
errores que en los casos de evidencia confusa
poder solicitar por los supervisores públicos infor­
mación complementaria.
Tema igualmente importante es de quién es la
carga de la prueba de que un modelo es fundamen­
talmente sólido, esto es demostrar que las excepcio­
nes se han debido a casos extremos, históricamente
improbables o irreproducibles y no a maquillaje eco­
nométrico que trasmutase un modelo predictivo
erróneo en un modelo consistente de control de
riesgos.
El informe del Comité de Basilea es en ello tajan­
te: corresponde al banco objeto de supervisión.
Esta determinación no es pacífica y se han ele­
vado muchas voces, en particular desde la industria
financiera, para cuestionar la radical separación de
lo normal y lo excepcional, acusando de arbitrarie­
dad metodológica a la argumentación pública.
Y con ello volvemos al tema de base técnico:
¿son fiables los modelos basados en la aleatoriedad
benigna?
Al menos cabe inicialmente concluir que son
muy ambiguamente controlables y ponen en tela
de juicio la fiabilidad de los procedimientos perió­
dicos de backtesting.
7.
CONCLUSIONES
Cabe preguntarse:
1.—Si los límites de concentración y diversifica­
ción actual de las inversiones de las Entidades
Financieras, Aseguradoras, Fondos de Inversión y
Fondos de Pensiones son los adecuados.
2.—Si son correctos los consejos de diversifica­
ción de los expertos al público o están subestimados.
3.—Si los modelos internos actuales realmente
sirven para evaluar los requerimientos de capital y
reservas que deben tener y dotar las Entidades
Financieras, Aseguradoras y Fondos de Pensiones.
4.—El tipo de responsabilidad que cabe atribuir
a un gestor por haber incurrido en pérdidas por
haber seguido un modelo habilitado.
5.—El tipo de responsabilidad cabe atribuir al
diseñador de un modelo habilitado.
6.—Si tiene sentido la existencia a estos efectos
de un supervisor público habilitador de modelos.
7.—Si el proceso actual de backtesting y de
reingeniería del modelo en los términos en los que
se realiza puede aportar significativamente valor.
8.—Si se debe seguir obviando el riesgo de
modelo dado su muy difícil corrección hoy día con
el grado de conocimiento científico-tecnológico
que se tiene en aras de una estabilidad necesaria
del mercado financiero.
BIBLIOGRAFÍA
BASE COMMITTEE ON BANKING SUPERVISION (BCBS): Working Papers, BIS (Bank for International Settlements), en http://
www.bis.org/dcms.
BLACK, F. y SCHOLES, M. (1973): “The Pricing of Options and Corporate Liabilities”, en Journal of Political Economy, mayojunio, págs. 637-654. Existe traducción al castellano en Análisis financiero, 53, 1991, págs. 18-27.
Directiva 2009/138/CE del Parlamento Europeo y del Consejo, de 25 de noviembre de 2009, sobre el seguro de vida, el acce­
so a la actividad de seguro y de reaseguro y su ejercicio (Solvencia II), Diario Oficial de la Unión Europea, L 335, 17.12.2009.
JORION, Philipp: Financial Risk Manager (FRM), 5th edition, ed, Wiley, 2009.
– Value at Risk, The New Benchmark For Managing Financial Risk, 3rd edition, ed. McGraw-Hill, 2007.
99
Descargar