Una aproximación al riesgo de los modelos financieros* CARLOS HERRERO MALLOL Agencia Estatal de Administración Tributaria SUMARIO 1. UTILIDAD DE LOS MODELOS MATEMÁTICOS DEL RIESGO FINANCIERO.—2. INFALIBILIDAD DE LOS MODELOS ESTADÍSTICO­ FINANCIEROS.—3. CONCEPTO DE RIESGO DE MODELO Y OTROS CONCEPTOS AFINES.—4. FUENTES DE ERROR EN LA MODELIZACIÓN FINANCIERA. PROBLEMAS DE CONSISTENCIA.—5. PROBLEMÁTICA DE LOS MODELOS. EL VALUE AT RISK.— 6. BACKTESTING. SU AMBIGÜEDAD INTERPRETATIVA.—7. CONCLUSIONES.—8. BIBLIOGRAFÍA. Palabras clave: Fiscalidad financiera, análisis de riesgo, modelos financieros. 1. UTILIDAD Esta situación sigue dándose en la actualidad, pero en mucha menor medida. Y no tanto por la actuación supervisora pública –que se ha manifes­ tado lenta en los pocos casos que se ha realizado y por ello devenido ineficaz–, sino por la propia revolución sufrida en los mercados financieros. Estos se han encontrado en un proceso imparable de globalización que, como parte de su propia exis­ tencia, necesita una amplísima información pública de las cantidades y precios de negociación. Esta realidad se ha reubicado el “nicho” del diferencial informativo. Ahora los diferenciales de rentabilidad se sitúan en la rapidez y fiabilidad computacional de los modelos estadístico-financie­ ros utilizados por los gestores de riesgo para ela­ borar su más adecuada medición. Se han convertido en un recurso competitivo estratégico en el negocio global de la industria de los servicios financieros. Estos modelos, sin ánimo de ser exhaustivo, permiten a los gestores manejar una cantidad ingente de datos y poder, casi automáticamente, tomar decisiones en tiempo real. Y con ello adelan­ tarse a sus potenciales competidores. Igualmente les permite, en particular a Entida­ des Financieras y Aseguradoras, mediante la utili­ DE LOS MODELOS MATEMÁTICOS DEL RIESGO FINANCIERO Ya FRANCIS BACON, hace cuatrocientos años acuñó la expresión: “el conocimiento es el poder”. Si ello fue cierto en su tiempo nunca ha sido más acertada la expresión que hoy aplicable a los mer­ cados financieros actuales. ¿Pero dónde está ese diferencial de conocimien­ to, que nos permita tener una ventaja comparativa? En las décadas pasadas, la información sobre los más significativos parámetros del mercado finan­ ciero (cantidad y precio) estaba reservada a unos cuantos privilegiados que en razón a su posición profesional, bien en el ámbito político bien en los Consejos de Administración de las más importan­ tes empresas, accedían a ellos y los utilizaban en su propio interés. A pesar de todas las trabas legales que se establecían en los Ordenamientos Penales (insider trading) de la mayoría de los Estados. Pero que conseguían sortearlas con cierta facilidad con la connivencia o no de los Supervisores Públicos. Esta privilegiada situación les permitía acceder a los mercados financieros con mayor y más precisa información y lo que es más importante: con anti­ cipación. * Trabajo presentado al V Curso de Alta Especialización en Fiscalidad Financiera celebrado en la Escuela de la Hacienda Pública del Ins­ tituto de Estudios Fiscales en el primer semestre de 2010. 91 Cuadernos de Formación. Colaboración 6/11. Volumen 12/2011 2. INFALIBILIDAD DE LOS MODELOS ESTADÍSTICO-FINANCIEROS zación de estos modelos (Basilea II y Solvencia II)1 minorar los “capitales muertos” necesarios como colchón por disposición normativa para atenuar el riesgo de insolvencia empresarial y poder tener un mayor flujo inversor en los mercados financie­ ros, así como mejorar sustancialmente su renta­ bilidad financiera. Sin sufrir por ello disminución de su rating. Lo que igualmente les permite acce­ der al mercado de capitales en situación muy ventajosa, por no ser penalizado su riesgo de cré­ dito2. Aparte de estos beneficios generados por los modelos matemáticos de riesgo, nos encontramos con la gran capacidad que estos permiten de “con­ ducir mercado” por las denominadas “manos fuer­ tes”. En detrimento de aquella infinidad de partícipes en los mercados financieros que, care­ ciendo de estos modelos computacionales, apenas les queda la capacidad de decisión de entrar o no en el mercado, pero poco más y fiarse del principio bursátil de: the trend is my friend. Ya ALBERT EINSTEIN expresó “que toda teoría científica nace con la vocación de ser asesinada por la realidad”. El ejercicio 1997 pasó a la historia financiera como “el año de las pérdidas causadas por los modelos”. Se evalúa en la literatura financiera norteameri­ cana, como una cifra muy cercana a la realidad, que las pérdidas sufridas por errores en la elaboración y gestión de los modelos matemáticos en operacio­ nes con productos derivados en la década 1987­ 1997 se elevaron a casi 24 mil millones de dólares. Ejemplo de ello son a modo de pequeño muestra­ rio: el banco UBS declaró unas pérdidas de 240 millones de dólares por inadecuación de las hipóte­ sis estadísticas en sus modelos de derivados, Natio­ nal Westminster Bank declaró 123 millones de dólares de pérdidas por mala gestión matemática de su libro de opciones en renta fija, el Banco de Tokio-Mitsubishi declaró unas pérdidas de 50 millo­ nes de dólares en la sobrevaloración de la cartera de permutas de tipo de interés y así una larguísima relación de errores computacionales de riesgo que generaron enormes pérdidas. Ante este panorama ¿cuál ha sido la respuesta de los principales actores del mercado, a saber: gesto­ res, consultores, supervisores privados y públicos? Ante todo no generar desconfianza ni en el mer­ cado ni, lo más importante al menos para ellos, no generar desconfianza en los referidos actores, amparándose en una sacrosanta revelación divina de la imperiosa necesidad de máxima confianza de los inversores en el mercado y en sus principales actores. El velo informativo en los medios de comu­ nicación masivos e incluso en los ámbitos académi­ cos, también muy interesados en su silenciación, ha sido arma fundamental para evitar el desprestigio. Y tanto y tan bien se ha logrado que lejos de haberse arrinconado allí donde solo habita el silencio, los modelos matemáticos como paradigma de infalibili­ dad, han recuperado en el siglo XXI toda su vigencia, al hilo de la desregulación financiera. No obstante a lo largo de la última década las autoridades nacionales e internacionales de super­ visión financiera y la industria privada de derivados han negociado una serie de acuerdos sobre con­ venciones estándares de ingeniería financiera, que permitieran validar técnicamente y homologar administrativamente los modelos de medición y control de riesgos. El ánimo es encauzar armoniza­ damente este proceso de desregulación y de apari­ ción de múltiples sistemas de control interno de riesgos. 1 Basilea II es el segundo de los Acuerdos de Basilea. Dichos acuerdos consisten en recomendaciones sobre la legislación y regulación bancaria y son emitidos por el Comité de supervi­ sión bancaria de Basilea. El propósito de Basilea II, publicado ini­ cialmente en junio de 2004, es la creación de un estándar internacional que sirva de referencia a los reguladores banca­ rios, con objeto de establecer los requerimientos de capital necesarios, para asegurar la protección de las entidades frente a los riesgos financieros y operativos. Se estructura en tres pila­ res o principio: 1 Pilar I: El cálculo de los requisitos mínimos de capital. 1 Pilar II: El proceso de supervisión de la gestión de los fondos propios. 1 Pilar III: La disciplina de mercado. 1 Solvencia II es, en el seno de la Unión Europea, la Directiva 2009/138/CE del Parlamento Europeo y del Consejo, de 25 de noviembre de 2009, sobre el seguro de vida, el acceso a la acti­ vidad de seguro y de reaseguro y su ejercicio. Pretende que las compañías aseguradoras operen dentro de sus ámbitos de res­ ponsabilidad, con un nivel de viabilidad (solvencia) adecuado. El objetivo principal consiste en mejorar el control y medición de los riesgos (de mercado, operacionales, de crédito y de liqui­ dez) a los que están expuestos las aseguradoras. Se estructura en tres pilares o principios: 1 Pilar I: Medida de activos, pasivos y capital. 1 Pilar II: Proceso de supervisión. 1 Pilar III: Requerimientos de transparencia. 2 Resulta significativo que el Parlamento británico haya acepta­ do debatir a partir del próximo noviembre de 2010, una pro­ puesta que supone una auténtica revolución para el actual sistema bancario. STEVE BAKER y DOUGLAS CARSWELL, diputados conservadores de la Cámara, presentaron con el apoyo de otros miembros de su partido, una reforma financiera inédita, consistente en limitar la reserva fraccionaria de la banca. Es decir, el privilegio legal por el cual una entidad puede prestar los depósitos a la vista de sus clientes, expandiendo así el cré­ dito. 92 Una aproximación al riesgo de los modelos financieros C ARLOS H ERRERO M ALLOL Esto ha convertido el antiguo supervisor (depo­ sitario de la confianza de los pequeños ahorrado­ res-inversores en la tutela de sus intereses) en metodólogo, o aún más preciso, en validador de sistemas de control interno. Una vez habilitado el método, asume responsabilidad compartida y cer­ cena muy significativamente su futuro interés en investigar la fiabilidad real del método aprobado, cerrándose así el círculo de agentes del mercado financiero unidos por una motivación común: no desacreditar la validez científico-técnica del sistema y así trasmitirnos (hacer creer) al universo de res­ tantes partícipes en el mercado financiero que exis­ ten las herramientas adecuadas para su efectivo control y la más diligente voluntad para ejercerlo. 3. CONCEPTO Acompañan a este error, padre de todos los errores, otros que solos o acompañados dinamitan la validez de un modelo: a) Asumir de forma errónea que el movimiento de ciertas variables de carácter estocástico o aleatorio puede ser imitado con suficiente calidad por cálculos deterministas. b) Pensar que la distribución empírica de los cambios de precios en los mercados finan­ cieros pueda ser descrita mediante una dis­ tribución de frecuencias normalizada, con un rango de varianza altamente restringido. c) Pensar que los parámetros numéricos em­ pleados para calibrar el modelo no hayan sido correctamente estimados. d) Pensar que se sufran fallos computaciona­ les o bugs. Algunos ejemplos de ello lo podemos observar en las premisas matemáticas y estadísticas que se haya insertas en el sustrato conceptual de los modelos neoclásicos estándares de valoración de inversiones, que al confrontarse con las estructuras y procesos reales de la negociación financiera sufren serios problemas de consistencia. Algunas muestras son: a) Los modelos de valoración en equilibrio asumen generalizadamente que los agen­ tes, al estar atomizados, no influyen signifi­ cativamente en el mercado. De ahí se sigue que el contagio imitativo y el comporta­ miento en manada (herd behaviour) suelen estar extrañados de los modelos teóricos pese a su muy refutada existencia. b) Los modelos financieros estándares dan por hecho que la información financiera es un bien público simultánea y democrática­ mente accesible por todos los operadores. Cuando la realidad nos indica, y la existen­ cia y proliferación de modelos internos y costosísimos computacionales ayuda a eso, que pese a la aparente globalización de la información financiera esto es lo más aleja­ do de la realidad. La información que final­ mente llega a la generalidad del mercado ha sido ya múltiplemente filtrada y su apor­ tación cognoscitiva es mínima, cuando no es mero ruido informativo. c) Las convenciones modelizadoras asumen también que los costes de transacción son muy bajos y que la liquidez de los mercados es muy alta, asunciones difíciles de mantener en muchos y prolongados períodos de crisis de liquidez, donde apenas nadie compra ni vende y los saltos de precio son enormes. DE RIESGO DE MODELO Y OTROS CONCEPTOS AFINES El riesgo de modelo ha sido definido como aquel tipo de riesgo financiero que resulta de la especificación inapropiada de un modelo teórico o del uso de un modelo apropiado en un marco inadecuado o para un propósito inadecuado. Son múltiples los determinantes económicos del riesgo de modelo financiero y se identifican, de acuerdo a la definición anterior, como el conjunto prácticamente infinito de maneras de construir un modelo teórico erróneo o bien emplear un mode­ lo correcto de un modo incorrecto. Igualmente otro concepto que surge conexo al de riesgo de modelo y particularmente interesante –pese a su aparente obviedad pero con gran trans­ cendencia en la valoración de los modelos– es el de Coste de Modelización. Coste de modelización entendido como la pérdida que se sufre por las omisiones estratégicas que se cometen al construir un modelo desaprovechando información real. Es muy difícil de valorar pero debe permanecer per­ manentemente activo en la mente del modelizador para su continua actualización y mejora en el pro­ ceso de backtesting3. 4. FUENTES DE ERROR EN LA MODELIZACIÓN FINANCIERA. PROBLEMAS DE CONSISTENCIA El riesgo de modelo aparece fundamentalmen­ te siempre que deja de tomarse en consideración algún factor relevante que influye significativamen­ te en las cotizaciones de los mercados. 3 Backtesting (o back-testing) es el proceso de evaluación de una estrategia, teoría o modelo, mediante la aplicación al mismo de una serie histórica de datos. 93 Cuadernos de Formación. Colaboración 6/11. Volumen 12/2011 d) Finalmente otras hipótesis estándares de los modelos neoclásicos de los mercados eficientes de capital, el principio de igual­ dad crediticia y el de neutralidad regulado­ ra, resultan desbastadas por la realidad. La introducción de los modelos estocásticos y de los modelos de comportamiento psicológicofinancieros tratan de solventar algunas de las gran­ des lagunas de los modelos neoclásicos. Pero su complejidad formal (que les lleva permanentemen­ te a reformular el modelo a hipótesis analíticas sim­ plificadoras –como la continua admisión de la naturaleza perfectamente estocástica de las series históricas temporales financieras– pese a su inicial pretendida complitud formal) y la dificultad de obtener datos contrastados de comportamientos colectivos humanos (que les obliga a formular como datos lo que son meras impresiones más o menos validadas por la observación a veces objetiva y otras muchas ya muy pre configurada) hacen hoy por hoy de ellos unos instrumentos muy manipulables y con mucho margen interpretativo de sus resultados. 5. PROBLEMÁTICA DE EL VALUE AT RISK 100 sesiones de negociación las pérdidas podrán exceder de la cifra de Value at Risk (VaR)5 estableci­ da en el modelo. Pero según las hipótesis del mode­ lo nada impide, salvo costes, proponer un intervalo de confianza aún mayor si ello fuera necesario. La gran cuestión que se plantea es si realmente podemos a priori de forma externa establecer pará­ metros que limiten el margen de maniobra de la acción social. Según los modelos imperantes los movimientos extremos de precios se deben a fenómenos que operan a muy largo plazo y por tanto son altamen­ te improbables en la escala temporal que estos manejan, normalmente muy cortoplacistas. Pero la realidad, fuera ya de los grandes sucesos de mercado, es que la las fluctuaciones de gran tamaño de mercado, esto es aquellas que son superiores a 10 veces la desviación estándar –ocu­ rren de forma muy frecuentemente– del orden de cada mes-alcanzando las centésimas de probabili­ dad en lugar de unas pocas millonésimas de una millonésima de millonésima de millonésima previs­ ta por el modelo de carteras eficientes y tampoco se acercan mucho más otros más prudentes que no pasan de evaluarlo en una probabilidad del orden de las millonésimas. La volatilidad engendra volatilidad, y cada salto alimenta energía al siguiente. Y esto no lo contem­ plan los modelos usuales y académicos actuales. LOS MODELOS. ¿Existe frontera entre lo normal y lo excepcio­ nal en la realidad económica? Primero, enfrentemos el por qué de la pregun­ ta y de su importancia. Los modelos neoclásicos, donde se fundamentan la práctica mayoría de los modelos de ingeniera financiera, participan de la concepción “benigna” del azar económico. Esto es, el azar económico es una aleatoriedad gaussiana que permite establecer intervalos de confianza estadística y en esa medida se configurarán los parámetros del modelo y sus observaciones según el grado de seguridad que queramos atribuir al modelo. Y en ese sentido se pretende disponer de un modelo todo lo seguro que estemos necesitados y/o dispuestos a precisar incurriendo, eso sí, en los costos que de ese perfeccionamiento se derivaran. Por ejemplo, según lo anterior, establecer un intervalo de confianza, al modo del Comité de Basi­ lea4, del 99 por 100 implica que solamente 1 de cada (Continuación.) Banco de Pagos Internacionales (en inglés BIS, BPI en español), Basilea, Suiza, donde se encuentra su Secretaría permanente, de 12 miembros. A sus reuniones plenarias, que se celebran cuatro veces al año, asisten también representantes de la autoridad nacional supervisora cuando esta función no recae en el banco central respectivo. El Commité se refiere a menudo como el Comité del BPI después de su lugar de reunión. Sin embargo, el BPI y el Comité de Basilea siguen siendo dos entidades distintas. 4 El Comité de Basilea está constituido actualmente por repre­ sentantes de las autoridades de supervisión bancaria de los ban­ cos centrales de Bélgica, Canadá, Francia, Alemania, Italia, Japón, Países Bajos, Suecia, Suiza, Reino Unido y Estados Uni­ dos, y dos países más que no son miembros del G-10, Luxem­ burgo y España. 4 El Comité formula las normas generales de supervisión y directrices y recomienda las declaraciones de buenas prácticas en la supervisión bancaria (ver regulación bancaria o Basilea II, por ejemplo) con la esperanza de que las autoridades miembro y las autoridades de países no miembros tomarán medidas para ponerlas en práctica a través de sus propios sistemas naciona­ les, ya sea en forma legal o de otra manera. Efectivamente, a pesar de no tener autoridad para hacer cumplir sus recomen­ daciones, la mayoría de los países, miembros o no, tienden a implementar las políticas dictadas por el Comité. 4 El Comité de Basilea es la denominación usual con la que se conoce al Comité de Supervisión Bancaria de Basilea (BCBS, sigla de Basel Committee on Banking Supervision en inglés), la organización mundial que reúne a las autoridades de supervisión bancaria, cuya función es fortalecer la solidez de los sistemas financieros. 4 El Comité fue establecido en 1975 por los presidentes de los bancos centrales de los once países miembros del Grupo de los Diez (G-10) en aquel momento. Normalmente se reúne en el 5 El Value at Risk (VaR, “Valor en Riesgo”) resume la pérdida máxima esperada (o peor pérdida) a lo largo de un horizonte de tiempo objetivo dentro de un intervalo de confianza dado. (Sigue.) 94 Una aproximación al riesgo de los modelos financieros C ARLOS H ERRERO M ALLOL ran irrelevante, un “error” o mera “falla” del siste­ ma; de ahí que POPPER (padre intelectual de FRIED­ MAN) valide tan rápidamente la autorregulación de los mercados. Si bien lo que puede ocurrir en ese 1 por 100 es sencillamente catastrófico, además hay que reco­ nocer que la medición del 99 por 100 es bastante imprecisa. Como en todo, las teorías de las proba­ bilidades apelan a escenarios más normales que complejos, por tanto, cuando se rompe toda nor­ malidad, es decir, cuando no tenemos sólo un cisne negro sino toda una manada, toda esa operatoria debería apelar a los máximos resguardos, como un barco en medio de la tormenta. No obstante, se permite que siga el juego pese a los varios knock­ out técnicos que acumula el sistema. Sucintamente los problemas con el modelo propuesto por el Comité de Basilea pueden concre­ tarse en que: I. El cálculo del Valor en Riesgo está fuerte­ mente condicionado por la caracterización que se haga de las distribuciones de los precios, cualquie­ ra que sea el método escogido para el cálculo del VaR. Bien a través de construcciones de matrices de varianzas y covarianzas –para un VaR paramétri­ co o mediante simulación de MonteCarlo bajo supuesto de normalidad–, o bien a través de la serie de precios para un VaR mediante simulación histórica. La calidad de esos inputs esenciales del modelo está influida por múltiples aspectos que en la prác­ tica dificultan la obtención de una cifra de VaR ple­ namente fiable: — Método de estimación de volatilidades y correlaciones. — Método de generación de series de pre­ cios elaborados. — Existencia de series de variables de merca­ do necesarias para realizar la estimación de volatilidades y correlaciones o realizar la simulación histórica. Respecto al primer punto, los desarrollos teóri­ cos realizados en este área se suceden y existen multiplicidad de métodos de estimación de la vola­ tilidad, sin embargo, la aplicación práctica de un modelo a la problemática de la gestión de riesgos de una entidad financiera restringe la complejidad del mismo en tanto en cuanto modelos dependien­ tes de múltiples parámetros hacen aumentar nota­ blemente las dificultades de estimación de los mismos y su uso, complejidad por otro lado tanto mayor cuanto mayor sea el número de factores de riesgo que afectan al valor de mercado de las posi­ ciones de la entidad. El crash del mercado bursátil de 1987 según el modelo de aleatoriedad normal solo se daría una vez entre billones de años. La subestimación de pérdidas se convierte en un hábito usual e incluso pasivamente admitido por los modelos de aleato­ riedad fina. Al comparar los resultados del Dow Jones durante el mes de octubre de 2008, llegamos a dos cambios diarios con más del 10 por 100. La desvia­ ción estándar para los cambios diarios del período 1971-2008 fue del 1,032 por 100, lo que indica que los movimientos de la magnitud de los ocurridos en octubre sólo pueden ocurrir una vez cada 73 a 603 billones de años. Pero ocurrió dos veces en el mismo mes. Todo un milagro. “Olvídese del VAN (Valor Actual Neto) y la TIR (Tasa Interna de Retorno) el VaR (Valor en Riesgo) es la nueva metodología para el análisis de riesgo." Así rezaban las campañas promocionales de esta nueva metodología que cundió en Wall Street y que la arrastró al precipicio. En términos simples, el VaR cuantifica la exposición al riesgo de mercado, utili­ zando las técnicas estadísticas tradicionales, pero en análisis de tiempo demasiado corto. Esto, que en la teoría funciona perfectamente, fue adoptado y popularizado a principios de los 90 por un grupo de matemáticos que lo aplicaron en JP Morgan. El gran atractivo del VaR era su simplici­ dad de cálculos, lo que lo diferenciaba del modelo CAPM (Capital Asset Pricing Model), ideado por MARKOWITZ en los años 50 y uno de los más difun­ didos en la cuantificación del riesgo. Los éxitos pri­ merizos del VaR en JP Morgan marcaron una rápida escalada a la masificación de su uso, pese al excesi­ vo y temerario riesgo que ya, a fines de los 90, amenazaba con derribar a todo el sistema. En su forma más común, el VaR mide los límites de riesgo de una cartera en un período de corta duración bajo el supuesto de un mercado “nor­ mal”. La sencillez de su razonamiento lo llevó a adquirir gran popularidad además de que podía aplicarse a todo tipo de activos. Hasta el Comité de Basilea de Supervisión Banca­ ria validó esta nueva herramienta autorizando a las empresas y bancos a recurrir a sus propios cálculos de VaR para fijar sus requisitos de capital. Con esta autorización explícita, muchas empresas y bancos hicieron uso del apalancamiento del 1 por 100. Lo que nadie advirtió fue lo que podía ocurrir en el caso de que se diera ese 1 por 100 fatídico, es decir, que se encontrara un cisne negro. Por lo general, gran parte de las teorías científicas (positi­ vismo de POPPER) se conforman con explicar el 99 por 100 y el estudio de ese 1 por 100 lo conside­ 95 Cuadernos de Formación. Colaboración 6/11. Volumen 12/2011 La ausencia de series de volatilidades implícitas es muy importante en todos los mercados OTC y en particular en mercados como el de opciones sobre renta variable a largo plazo. Este problema es tanto más importante si se tiene en cuenta que no solo es necesario captar una volatilidad por subyacente y plazo sino que determinadas posiciones tienen su mayor riesgo en el efecto smile9 a través de los dife­ rentes precios de ejercicio. A modo de ejemplo, una call spread tiene un riesgo vega a movimientos de un 1 por 100 en la volatilidad implícita muy infe­ rior al que se produce cuando la pendiente del smile cambia variando un 1 por 100 el diferencial de vola­ tilidades que se aplican a la call comprada y a la call vendida. En el caso de la renta fija privada apenas si exis­ ten series históricas de spreads de emisiones de renta fija lo cual dificulta la realización de una medi­ ción correcta del riesgo de spread implícito en las posiciones de renta fija privada. Por último, en el caso de los mercados emer­ gentes, la ausencia de información histórica de cali­ dad es total, lo cual exige realizar la medición del riego de aquellos mercados por procedimientos simplificados que reduzcan las exigencias de infor­ mación por parte de los modelos (reducción de tramos, selección de benchmarks, etc.). La elección de la dimensionalidad del problema, es decir, la selección del cuántos y cuales son los factores de riesgo es también importante de cara al resultado final. De un lado, el captar todos los efec­ tos que pueden afectar al valor de mercado de una cartera aconseja introducir tantos factores como sea posible, sin embargo, por otro lado, un núme­ ro excesivo de parámetros puede conducir a: Sin embargo, el método escogido en función de sus peculiaridades afecta a los resultados obteni­ dos, estando condicionada, en todo caso, la selec­ ción del modelo a, entre otros, el holding period para el cual se calcula el VaR. II. Un segundo aspecto que condiciona las volatilidades y correlaciones obtenidas es la utiliza­ ción de series de variables de mercado que no se observan directamente sino que son el resultado de un modelo. Por ejemplo, la utilización de la metodología desarrollada por Risk-Metrics6 permite captar el riesgo de base derivado de posiciones de swaps cubiertas con deuda pública mediante la introduc­ ción como factores de riesgo de los tipos cupón cero a los distintos plazos tanto de la deuda como de los IRS’s7. Sin embargo, la curva cupón cero de deuda solo puede ser obtenida a través de un modelo econométrico cuyas premisas determina­ rán en buena medida las volatilidades y correlacio­ nes entre plazos y entre curvas, lo cual implica que la cifra de VaR va a estar condicionada por aquel. III. Finalmente, y quizá de forma aún más importante, la ausencia de series de datos para los factores de riesgo dificulta enormemente la medi­ ción del riesgo de mercado. En particular, existe una manifiesta ausencia de datos para los siguientes grupos de variables: — Volatilidades implícitas de opciones OTC8. — Series de spreads de emisiones de Renta Fija Privada. — Series de variables de mercado de emer­ gentes. — El problema de la dimensionalidad. 9 Cuando se quiere valorar una opción financiera utilizando la fórmula Black-Scholes u otros modelos análogos se utilizan cinco variables: el valor del subyacente, el precio de ejercicio, el tiempo hasta el vencimiento, el tipo de interés libre de ries­ go y la volatilidad de los rendimientos del subyacente. 9 Si se dibuja la volatilidad implícita en función de los precios de ejercicio podemos obtener dos tipos de figuras, una función cuadrática y una función decreciente. La forma cuadrática de la función se denomina habitualmente como sonrisa de volatilidad (smile) mientras que la función decreciente es llamada mueca de volatilidad (skew). 9 La sonrisa toma diferentes formas en cada mercado. En los mercados de opciones en divisas el efecto es simétrico, sobreto­ do, cuando las dos divisas implicadas son “fuertes” pero si una de ellas es potencialmente más débil se configura más una mueca con una mayor volatilidad implícita de las Put fuera de dinero de la divisa débil que de las correspondientes Call de dicha divisa. En los mercados de opciones sobre bonos la volatilidad es mayor para los precios de ejercicio que suponen menores tasas de ren­ dimiento. Y por último, en los mercados de opciones sobre índi­ ces bursátiles, la volatilidad es significativamente mayor para las Put fuera de dinero en comparación con las Call fuera de dinero. 6 RiskMetrics es un sistema de los modelos financieros que son utilizados por los inversionistas para medir riesgo de lista. RiskMetrics fue publicado en 1994 por el banco de inversión JP Mor­ gan como Documento técnico de RiskMetrics. El documento téc­ nico fue revisado en 1996. En 2001, fue revisado otra vez en su documento Vuelta a RiskMetrics. En 2006, se introdujo un nuevo método para modelizar el comportamiento del factor de riesgo (denominado RM2006). 7 IRS (Interest Rate Swap). Un swap, o permuta financiera o préstamo interbancario, es un contrato por el cual dos partes se comprometen a intercambiar una serie de cantidades de dinero en fechas futuras. Normalmente los intercambios de dinero futuros están referenciados a tipos de interés, llamándose IRS (Interest Rate Swap) aunque de forma más genérica se puede considerar un swap cualquier intercambio futuro de bienes o servicios (entre ellos el dinero) referenciado a cualquier variable observable. Un swap se considera un instrumento derivado. 8 La negociación Over The Counter (OTC) negocia instrumentos financieros (acciones, bonos, materias primas, swaps o derivados de crédito) directamente entre dos partes. Este tipo de negocia­ ción se realiza fuera del ámbito de los mercados organizados. 96 Una aproximación al riesgo de los modelos financieros C ARLOS H ERRERO M ALLOL — Problemas de mantenimiento de un núme­ ro excesivo de series históricas. — Problemas de tiempo de proceso. — Problemas con la selección de parámetros independientes. Por poner un ejemplo de este último caso, pen­ semos en el número de factores de riesgo que habría que introducir para captar todos las posibles alteraciones que podría sufrir una cartera de swap­ tion10 en una divisa determinada (por ejemplo euro). Algún broker suministra precios para hasta 195 combinaciones de fechas de ejercicio y venci­ miento del subyacente. Si además se desease cap­ tar el smile por tipos de ejercicio habría que multiplicar esa cifra al menos por tres. Sin embar­ go, e incluso prescindiendo del smile, que la matriz de volatilidades presente 195 puntos no quiere decir que se estén cruzando operaciones en todos ellos, pese a lo cual, el broker que nos suministra la matriz está moviendo todos sus puntos mediante interpolaciones y extrapolaciones de las volatilida­ des de las operaciones que realmente se están cru­ zando en el mercado. Como consecuencia de ello, las series de precios no son independientes lo cual nos conduce a matrices no definidas positivas. Todo estos problemas se multiplican en los mercados emergentes, cuyo volumen empiezan a tener significativa importancia. Los mercados emergentes presentan una serie de peculiaridades que dificultan enormemente la estimación del riesgo derivado de posiciones man­ tenidas en los mismos. Entre ellas están: — Alta volatilidad. — Se producen saltos discontinuos en las se­ ries de precios. — Cambios en las condiciones del entorno político y económico. — Sistemas financieros débiles. — Baja calidad de los datos tanto en lo refe­ rente a variables macro como micro. — Existencia de circunstancias de iliquidez extrema. Dichas características de los mercados emer­ gentes hacen que algunas de las premisas sobre las que se asienta la medición del “Valor en Riesgo” no puedan ser asumidas sin dificultad en dichos mer­ cados. La asunción de normalidad es inaplicable a esos mercados por lo cual el método de varianzas/cova­ rianzas en si mismo no resulta adecuado y la inexis­ tencia de series históricas impide utilizar como alternativa la simulación histórica y caracterizar correctamente las distribuciones para realizar simulación de MonteCarlo. Alta inestabilidad en los niveles de volatilidades y correlaciones que hace inútiles las estimaciones de las mismas realizadas a partir de la historia ante cambios bruscos en sus niveles. Resulta complejo establecer un holding period cuando el período de liquidación de las posiciones se desconoce a priori dado el alto grado de iliquidez de estos mercados que puede llegar a ser extrema en algunas circunstancias. Esto fue lo que llevó a ALAN GREENSPAN a pedir excusas cuando comunicó su mea culpa. Tras seña­ lar que había varios Premios Nobel detrás de estas teorías, declaró: 10 Un swaption es un tipo de derivado financiero. Consiste en una opción cuyo subyacente es un swap, normalmente un Inte­ rest Rate Swap (IRS). Es decir, ofrece la posibilidad de entrar en una permuta de tipo de interés. 10 Hay dos tipos de swaption: 10 a) Un swaption pagador (payer) da el derecho (pero no la obligación) al comprador de la opción, de entrar en un swap donde se paga un tipo de interés fijo y se recibe un tipo de inte­ rés variable. El vendedor de la opción tiene la obligación de entrar en el swap si el comprador decide ejecutar su derecho. 10 b) Un swaption receptor (receiver) da el derecho (pero no la obligación) de entrar en un swap donde se paga un tipo de interés variable y se recibe un tipo de interés fijo. El vendedor de la opción tiene la obligación de entrar en el swap si el com­ prador decide ejecutar su derecho. 10 Comprador y vendedor deben acordar unos parámetros: 10 a) El precio (premium) del swaption. 10 b) El strike (que es el precio del IRS o swap en el que se en­ trará). 10 c) Fecha de inicio y vencimiento de la opción y tipo de opción (europea o americana). 10 d) La duración del IRS subyacente. 10 e) El nocional. 10 f) La amortización del nocional (si es que existe). 10 g) Frecuencia de los pagos del IRS, tanto de la parte fija como de la parte variable. “Todo el edificio intelectual se ha derrumbado debido a que la introducción de datos en los mode­ los de gestión de los riesgos cubiertos ha tenido en las últimas décadas un período de euforia. Si los modelos hubiesen incorporado tiempos más lar­ gos, las exigencias habrían sido mayores y hoy el mundo financiero estaría en mucho mejor pie.” Los modelos predominantes, como asegura BENOIT MANDELBROT, padre de la matemática frac­ tal11 y profesor de Yale, se basan en evaluar un 11 Un fractal es un objeto semigeométrico cuya estructura básica, fragmentada o irregular, se repite a diferentes escalas. El término fue propuesto por el matemático BENOÎT MANDELBROT en 1975 y deriva del latín fractus, que significa quebrado o frac­ turado. Muchas estructuras naturales son de tipo fractal. (Sigue.) 97 Cuadernos de Formación. Colaboración 6/11. Volumen 12/2011 que se nos plantea: aquellas concebidas en distribu­ ciones de cola gorda. En estas distribuciones los eventos ordinarios y extraordinarios se vinculan y los extremos se suce­ den con una frecuencia alocada y ningún tipo de análisis de desviación estándar puede proporcional válida información sobre ellos. En la actualidad se trata de resolver algunos de estos problemas con la técnica estadística de cópu­ las que permite construir modelos que van más allá de los estándares en el análisis de dependencia entre variables estocásticas. Existen interesantes aportaciones a la nueva orientación que debe tomar la predicción financie­ ra basada en la matemática fractal, donde básica­ mente la predicción de los saltos se constituye en la piedra angular del método y considera a estos el paradigma central de la realidad financiera y no como la metodología neoclásica que los arrincona extramuros del intervalo de confianza. Y es aquí donde se encuentra el sentido de la pregunta formulada. De admitir la dificultad de separar y obviar mesurablemente los sucesos extraordinarios en la previsión financiera se nos abre un sinfín de interrogantes sin respuesta actual y que impactan de lleno en el tema central de ries­ go de modelo, esto es en su virtualidad. campo según la hierba sin atender a los grandes árboles. Así estos modelos desatendieron los casos del colapso de Enron en 2001 con una pérdida extraordinaria del valor de sus acciones o simétri­ camente el caso de la fuerte elevación del valor de las acciones de Cisco Systems, Inc. en 1990. Se pre­ gunta este autor como cabe desatender la necesi­ dad de contemplar en un modelo posibilidades de acontecimientos como por ejemplo pasar de una equivalencia cuatro marcos alemanes por un dólar antes de la Primera Guerra Mundial a cuatro trillo­ nes de marcos por un dólar al final de ella. Vivimos en un mundo de winner-take-all. Así por ejemplo la mitad de la capitalización bursátil norte­ americana está concentrada en 100 compañías de un total aproximado de 10.000 y todo ello hablan­ do del mercado de acciones más líquido y profundo del mundo. Los árboles son pocos pero muy altos para no tenerlos en consideración. Los momentos también son pocos pero muy importantes. Si la serie histórica de cotizaciones bursátiles de los últimos 20 años desde 1995 del S&P 500 se corrige arriba y abajo en los diez días más fuertes de variación sufrida nos encontramos que la cotización del índice en el año 2000 en lugar de los 1.500 cotizados sobrepasaría los 2.500 pun­ tos. Desviación demasiado significativa como para desdeñar apriorísticamente los eventos singulares en las predicciones financieras. De ello puede deducirse que la aproximación a la aleatoriedad económica mediante la distribución normal, absolutamente ninguneante de los sucesos singulares, esto es aquellos de baja probabilidad pero alta pérdida, resulta al menos bastante inquie­ tante, y no tanto por la ineficiencia de sus resulta­ dos si no por la principal alternativa metodológica 6. BACKTESTING. SU AMBIGÜEDAD INTERPRETATIVA El backtesting consiste en unos test normalizados de contraprueba para verificar estadísticamente el comportamiento de los modelos internos financie­ ros frente a los riegos reales surgidos del mercado. Es un procedimiento de post-vigilancia que tiene como objetivo técnico garantizar los requeri­ mientos mínimos de eficiencia predictiva del las fuentes de información estadística y los modelos utilizados del que surgirán las decisiones a más alto nivel de las Entidades Financieras en relación a los requerimientos de Capital y Reservas de las mis­ mas. El Comité de Basilea recomienda llevar a cabo exámenes periódicos cada cuatrimestre utilizando datos de los últimos 12 meses para un horizonte temporal de un día. Esto es un mínimo muestral de 250 observaciones. Los supervisores nacionales e internacionales, de acuerdo a la normativa vigente, periódicamente revisan los modelos internos de riesgo de las enti­ dades supervisadas de acuerdo a procedimientos estadísticos normalizados de auditoría de sistemas de control interno. (Continuación.) 11 A un objeto geométrico fractal se le atribuyen las siguientes características: 11 a) Es demasiado irregular para ser descrito en términos geométricos tradicionales. 11 b) Posee detalle a cualquier escala de observación. 11 c) Es autosimilar (exacta, aproximada o estadística). 11 d) Su dimensión de Hausdorff-Besicovitch es estrictamente mayor que su dimensión topológica. 11 e) Se define mediante un simple algoritmo recursivo. 11 No nos basta con una sola de estas características para defi­ nir un fractal. Por ejemplo, la recta real no se considera un fractal, pues a pesar de ser un objeto autosimilar carece del resto de características exigidas. 11 Un fractal natural es un elemento de la naturaleza que puede ser descrito mediante la geometría fractal. Las nubes, las mon­ tañas, el sistema circulatorio, las líneas costeras o los copos de nieve son fractales naturales. Esta representación es aproxima­ da, pues las propiedades atribuidas a los objetos fractales idea­ les, como el detalle infinito, tienen límites en el mundo natural. 98 Una aproximación al riesgo de los modelos financieros C ARLOS H ERRERO M ALLOL Para evaluar el grado de efectividad del modelo de medición de riesgos básicamente se hace: 1. Contar cuantas veces la realidad se ha sali­ do fuera de la expectativa del modelo. 2. Valorar si el número de excepciones ha sido superior o no al nivel requerido de cobertura según el intervalo de confianza fijado en el modelo. (en el ámbito de enti­ dades bancarias del 99 por 100, lo cuál sig­ nifica para una muestra de 250 resultados que sólo se admitan dos excepciones). Ahora es cuando empieza el verdadero proble­ ma: ¿qué pasa si se supera esa cifra no de una manera desorbitante si no sólo moderadamente, por ejemplo cinco o siete excepciones? El Comité establece zonas de seguridad: verde, amarilla y roja para evaluar la fortaleza estadística, pero que teniendo las ventajas de su sencillez, comodidad y estandarización son muy imperfectas para valorar la calidad del modelo aplicado y que puede llevar, en particular a los supervisores públi­ cos a cometer errores consistentes bien en apro­ bar modelos incorrectos bien a desechar modelos válidos. Por supuesto que se prevé para evitar estos errores que en los casos de evidencia confusa poder solicitar por los supervisores públicos infor­ mación complementaria. Tema igualmente importante es de quién es la carga de la prueba de que un modelo es fundamen­ talmente sólido, esto es demostrar que las excepcio­ nes se han debido a casos extremos, históricamente improbables o irreproducibles y no a maquillaje eco­ nométrico que trasmutase un modelo predictivo erróneo en un modelo consistente de control de riesgos. El informe del Comité de Basilea es en ello tajan­ te: corresponde al banco objeto de supervisión. Esta determinación no es pacífica y se han ele­ vado muchas voces, en particular desde la industria financiera, para cuestionar la radical separación de lo normal y lo excepcional, acusando de arbitrarie­ dad metodológica a la argumentación pública. Y con ello volvemos al tema de base técnico: ¿son fiables los modelos basados en la aleatoriedad benigna? Al menos cabe inicialmente concluir que son muy ambiguamente controlables y ponen en tela de juicio la fiabilidad de los procedimientos perió­ dicos de backtesting. 7. CONCLUSIONES Cabe preguntarse: 1.—Si los límites de concentración y diversifica­ ción actual de las inversiones de las Entidades Financieras, Aseguradoras, Fondos de Inversión y Fondos de Pensiones son los adecuados. 2.—Si son correctos los consejos de diversifica­ ción de los expertos al público o están subestimados. 3.—Si los modelos internos actuales realmente sirven para evaluar los requerimientos de capital y reservas que deben tener y dotar las Entidades Financieras, Aseguradoras y Fondos de Pensiones. 4.—El tipo de responsabilidad que cabe atribuir a un gestor por haber incurrido en pérdidas por haber seguido un modelo habilitado. 5.—El tipo de responsabilidad cabe atribuir al diseñador de un modelo habilitado. 6.—Si tiene sentido la existencia a estos efectos de un supervisor público habilitador de modelos. 7.—Si el proceso actual de backtesting y de reingeniería del modelo en los términos en los que se realiza puede aportar significativamente valor. 8.—Si se debe seguir obviando el riesgo de modelo dado su muy difícil corrección hoy día con el grado de conocimiento científico-tecnológico que se tiene en aras de una estabilidad necesaria del mercado financiero. BIBLIOGRAFÍA BASE COMMITTEE ON BANKING SUPERVISION (BCBS): Working Papers, BIS (Bank for International Settlements), en http:// www.bis.org/dcms. BLACK, F. y SCHOLES, M. (1973): “The Pricing of Options and Corporate Liabilities”, en Journal of Political Economy, mayojunio, págs. 637-654. Existe traducción al castellano en Análisis financiero, 53, 1991, págs. 18-27. Directiva 2009/138/CE del Parlamento Europeo y del Consejo, de 25 de noviembre de 2009, sobre el seguro de vida, el acce­ so a la actividad de seguro y de reaseguro y su ejercicio (Solvencia II), Diario Oficial de la Unión Europea, L 335, 17.12.2009. JORION, Philipp: Financial Risk Manager (FRM), 5th edition, ed, Wiley, 2009. – Value at Risk, The New Benchmark For Managing Financial Risk, 3rd edition, ed. McGraw-Hill, 2007. 99