CUANTIFICACIÓN DE LAS PÉRDIDAS ECONÓMICAS POR RIESGO OPERACIONAL ASOCIADAS A EVENTOS EXTREMOS JUAN GUILLERMO MURILLO GÓMEZ UNIVERSIDAD NACIONAL DE COLOMBIA – SEDE MEDELLÍN FACULTAD DE MINAS 2009 CUANTIFICACIÓN DE LAS PÉRDIDAS ECONÓMICAS POR RIESGO OPERACIONAL ASOCIADAS A EVENTOS EXTREMOS JUAN GUILLERMO MURILLO GÓMEZ Trabajo de grado presentado como requisito para optar al título de Magíster en Ingeniería Administrativa Director SANTIAGO MEDINA HURTADO Doctor en Estadística e Investigación Operativa Universidad Complutense de Madrid - U.C.M. - España Profesor tiempo completo en la Universidad Nacional – Medellín Facultad de Minas - Área de Trabajo: Finanzas Codirector LUIS GABRIEL AGUDELO VIANA Msc. en Estadística. Universidad Nacional Profesor Tiempo Completo Universidad de Antioquia Área de Trabajo: Asesor en Modelos de Evolución de Riesgos Financieros UNIVERSIDAD NACIONAL DE COLOMBIA – SEDE MEDELLÍN FACULTAD DE MINAS 2009 ii Nota de aceptación __________________________________ __________________________________ __________________________________ __________________________________ Presidente del jurado __________________________________ Jurado __________________________________ Jurado Medellín, Febrero de 2009 iii CONTENIDO Pág. RESUMEN ...............................................................................................................9 ABSTRACT ...........................................................................................................10 INTRODUCCIÓN ...................................................................................................11 1. BASE TEÓRICA DEL MODELO LDA...............................................................15 1.1 INTRODUCCIÓN AL LDA (LOSS DISTRIBUTION APPROACH) EN LA CUANTIFICACIÓN DE LAS PÉRDIDAS POR RIESGO OPERATIVO .................15 1.2 LDA (LOSS DISTRIBUTION APPROACH) COMO TÉCNICA PARA MODELAR LA DISTRIBUCIÓN DE PÉRDIDA EN EL RIESGO OPERACIONAL .16 1.3 PRINCIPALES SUPUESTOS DEL LDA ...................................................17 1.4 MODELIZACIÓN DE LA SEVERIDAD............................................................18 1.5 MODELIZACIÓN DE LA FRECUENCIA .........................................................18 1.6 OBTENCIÓN DE LA DISTRIBUCIÓN DE PÉRDIDAS AGREGADA ...............19 1.7 CÁLCULO DE LA CARGA DE CAPITAL .........................................................20 2. BASE TEÓRICA DE LA TEORÍA DE VALOR EXTREMO...............................22 2.1 TEORÍA DE VALOR EXTREMO PARA EL RIESGO OPERACIONAL ............22 2.2 TEORÍA DE VALOR EXTREMO.....................................................................23 2.2.1 Enfoque POT (peaks over threshold) para la estimación de los parámetros de la cola en la distribución de pérdidas.. .............................................................30 2.2.1.1 Intervalo de confianza para el índice de cola.. ...........................................30 2.2.2 Estimación del umbral u a través del gráfico de exceso medio.....................31 2.2.3 Cálculo del percentil 99.9% en la cola de la distribución. .............................32 2.2.4 Valor esperado en la cola para un nivel de confianza de 99.9% (ES).: .33 3. ANÁLISIS DE DATOS.......................................................................................34 3.1 INTRODUCCIÓN ............................................................................................34 3.2 DESCRIPCIÓN DE LOS DATOS DE FRECUENCIA Y SEVERIDAD .............35 3.3 PRUEBAS DE BONDAD DE AJUSTE PARA LOS DATOS.............................36 3.3.1 Prueba de bondad de ajuste para los datos de la frecuencia.. ..............36 3.3.2 Prueba de bondad de ajuste para los datos de la severidad.. ..................37 3.3.3 Elección de las mejores combinaciones para la distribución de pérdida.. ....37 3.3.4 Parámetros de las distribuciones definidas.. ........................................38 3.4 MODELACIÓN DEL LDA ................................................................................39 3.4.1 Estimación de la distribución de pérdidas para el evento de riesgo: fraude interno.........................................................................................................41 3.4.2 Momentos de la distribución de pérdidas para el evento de riesgo: fraude interno con distribución de severidad weibull..............................................42 3.5 ESTIMACIÓN DE LAS PÉRDIDAS ESPERADAS Y LAS PÉRDIDAS INESPERADAS .....................................................................................................43 iv 3.6 ESTIMACIÓN DE LAS PÉRDIDAS DE BAJA FRECUENCIA Y ALTA SEVERIDAD, APLICACIÓN DEL MÉTODO POT Y LDA. .....................................44 3.6.1 Cálculo del índice de cola (ξ): estimador de Hill (1975). ....................46 3.6.1.1 Intervalo de confianza para el índice de cola. . ..........................................47 3.6.2 Estimación de las pérdidas por encima del percentil 99.9%, por los métodos LDA y POT.............................................................................................................48 3.6.3 Comparación de las pérdidas esperadas en la distribución de la cola..........51 4. CONCLUSIONES ..............................................................................................53 BIBLIOGRAFÍA .....................................................................................................55 ANEXOS................................................................................................................58 v LISTA DE TABLAS Pág. Tabla 1. Matriz de pérdidas...................................................................................15 Tabla 2. Eventos de riesgo presentados en los últimos cinco años.......................35 Tabla 3. Pérdidas económicas por riesgo operacional en los últimos Cinco años.35 Tabla 4. Ajuste de los eventos de riesgo a una distribución de probabilidad con variable discreta.....................................................................................................36 Tabla 5. Ajuste de la severidad a una distribución de probabilidad con variable continua. ................................................................................................................37 Tabla 6. Elección de la distribución de severidad para la distribución de pérdidas. ................................................................................................................38 Tabla 7. Parámetros de las distribuciones utilizadas para hallar la distribución de pérdidas. ................................................................................................................39 Tabla 8 . Estimación de las pérdidas. ....................................................................44 Tabla 9. Estimación de los parámetros de las colas de las distribuciones de pérdidas. ................................................................................................................47 Tabla 10. Estimación de los intervalos de confianza para el parámetro ξ..............47 Tabla 11. Estimación de las pérdidas de baja frecuencia pero de alto impacto económico con los métodos LDA y POT. ..............................................................49 Tabla 12. Estimación de las probabilidades de ocurrencia de las pérdidas...........50 Tabla 13. Estimación de las pérdidas esperadas en la cola. .................................51 vi LISTA DE GRÁFICOS Pág. Gráfico 1. Distribución de pérdidas. .......................................................................16 Gráfico 2. Distribución de pérdidas. .......................................................................21 Gráfico 3. Distribución de pérdidas agregadas. .....................................................23 Gráfico 4. Modelación del LDA. .............................................................................40 Gráfico 5. Estimación de la distribución de pérdidas para el evento de riesgo: fraude interno.........................................................................................................41 Gráfico 6. Distribución de pérdidas para fraude interno.........................................42 Gráfico 7. Fd para la pérdida por fraude interno con severidad weibull. ................43 Gráfico 8. Q-Q para la pérdida por fraude interno con severidad weibull. .............43 Gráfico 9. Intervalo de confianza para el índice de cola. .......................................48 Gráfico 10. Estimación de las pérdidas por encima del percentil 99.9%, por los métodos LDA y POT. .............................................................................................50 Gráfico 11. Comparación de las pérdidas esperadas en la distribución de la cola 52 vii LISTA DE ANEXOS Pág. Anexo A. Distribuciones de pérdida para los eventos de riesgo. ...........................59 Anexo B. Distribuciones de pérdida para los eventos de riesgo y gráficos Q-Q. ...63 Anexo C. Ajuste de distribuciones de probabilidad a las pérdidas en las colas para los eventos de riesgo. ............................................................................................70 Anexo D. Resumen Ejecutivo. ...............................................................................74 viii RESUMEN Título: CUANTIFICACIÓN DE LAS PÉRDIDAS ECONÓMICAS POR RIESGO OPERACIONAL ASOCIADAS A EVENTOS EXTREMOS Autor: JUAN GUILLERMO MURILLO GÓMEZ Director: SANTIAGO MEDINA HURTADO Codirector: LUIS GABRIEL AGUDELO VIANA UNIVERSIDAD NACIONAL DE COLOMBIA – SEDE MEDELLÍN FACULTAD DE MINAS MEDELLÍN 2009 En junio de 2006, el Comité de Basilea publicó las directrices internacionales para las nuevas normas de adecuación de capital (Basilea II), incluyendo algunas técnicas de medición avanzada para riesgo operacional. En ese contexto, este trabajo presenta la combinación de dos técnicas estadísticas para calcular la pérdida esperada, la pérdida inesperada, las pérdidas catastróficas y el capital económico, por riesgo operacional, satisfaciendo los criterios de solidez definidos por Basilea. Dichas técnicas son Loss Distribution Approach (LDA) y Extreme Value Theory (EVT). Palabras claves: LDA, EVT, Capital Económico, Severidad, Frecuencia, Cuerpo de la Distribución, Cola de la Distribución. 9 ABSTRACT Title: QUANTIFICATION OF THE ECONOMIC LOSSES OPERATIONAL RISK ASSOCIATED WITH EXTREME EVENTS CAUSED BY Author: JUAN GUILLERMO MURILLO GÓMEZ Director: SANTIAGO MEDINA HURTADO Codirector: LUIS GABRIEL AGUDELO VIANA NATIONAL UNIVERSITY OF COLOMBIA - MEDELLÍN FACULTY OF MINES 2009 In June of 2006, the Committee of Basilea published the international guidelines for the new rules of capital adequacy (Basilea II), including some techniques of advanced measurement for operational risk. In this context, this paper presents the combination of two statistical techniques to calculate the expected loss, the unexpected loss, the catastrophic losses and the economic capital, because of operational risk, satisfying the criteria of solidity defined by Basilea. The above mentioned techniques are Loss Distribution Approach (LDA) and Extreme Value Theory (EVT). Keys Words: LDA, EVT, The Economic Capital, Severity, Frequency, Distribution Body, Distribution Tail. 10 INTRODUCCIÓN A finales de 2006, el Comité de Basilea publicó el proyecto de directrices internacionales para las nuevas normas de adecuación de capital (Basilea II), el cual propone algunas técnicas de medición avanzada (AMA) del riesgo operacional. En este documento se presenta un marco para los modelos cuantitativos conforme a las normas de medición de riesgos en el marco del Nuevo Acuerdo de Capital de Basilea. La medición y regulación del riesgo operativo es muy distinta de los otros tipos de riesgos bancarios, debido a La diversidad, las perturbaciones internas o externas, Las actividades comerciales y la imprevisibilidad de su incidencia financiera. Si bien algunos tipos de riesgos operativos son medibles, como el fraude o fallo del sistema, otros son más complejos de medir por sus características intrínsecas, y por la ausencia de datos históricos. En la actualidad, los bancos categorizan en el riesgo operativo las pérdidas en pérdida esperada (EL), que son provisionadas por la entidad, y las pérdidas inesperadas (UL), que deben ser cubiertas con capital. Si bien los bancos deben generar suficientes ingreso para apoyar las pérdidas esperadas, también deben disponer de capital económico para las pérdidas inesperadas y recurrir a los seguros para los eventos de baja frecuencia pero con pérdidas extremas. Bajo esta óptica, se espera que los grandes bancos internacionalmente activos utilicen modelos internos para estimar el capital para las pérdidas operacionales inesperadas. Una crítica a la propuesta de Basilea ha sido que las herramientas para modelar el riesgo operacional están en su infancia, haciendo que la estimación del capital sea complejo. En un modelo de Fontnouvelle et al (2005) llevado a cabo con datos aportados por seis bancos internacionalmente activos, para determinar si las regularidades en los datos de pérdida hacen posible modelar las pérdidas operacionales, se encontró que hay semejanza en los resultados de los modelos de pérdida operacional a través de las instituciones, y que dichos resultados son consistentes con las estimaciones del riesgo operacional y el capital de los bancos. Dicho modelo comenzó considerando la cola de la pérdida arrojada por cada banco, la línea de negocio y el tipo de acontecimiento. Tres resultados emergen claramente de este análisis descriptivo. Primero, los datos de pérdida para la mayoría de las líneas de negocio y los tipos de acontecimiento se pueden modelar por una distribución tipo Pareto, pues la mayor parte de los diagramas de la cola son lineales cuando están expresados a una escala de registro-registro. En segundo lugar, la medida de la severidad de los tipos del acontecimiento es constante a través de las instituciones y en tercer lugar, los diagramas de la cola sugieren que las pérdidas para ciertas líneas de negocio y tipos de acontecimiento son muy pesadas. 11 Una contribución de Fontnouvelle, et al (2005) fue demostrar cómo el modelo cuantitativo propuesto por ellos, puede dar lugar a conclusiones más razonables con respecto al grueso de la cola y al capital económico. Procuraron después modelar la distribución de las pérdidas usando una distribución paramétrica de la severidad. Consideraron nueve distribuciones de uso general, cuatro de las cuales son generales y cinco de los cuales tenían colas pesadas. Las distribuciones con colas pesadas proporcionan ajustes buenos a los datos de pérdida, lo que confirma los resultados basados en la inspección visual de los diagramas de la cola. Las distribuciones de tipo general no proporcionaron buenos ajustes. Sin embargo, encontraron que algunas estimaciones del parámetro para las distribuciones de colas pesadas pueden tener implicaciones inverosímiles para el grueso de la cola y el capital económico. Algunos autores plantean que es posible medir el riesgo operacional como una combinación de métodos cualitativos y establecer un panorama de eventos que pueden generar grandes pérdidas. Es decir, es necesario medir el riesgo operacional basados en el comportamiento histórico de los datos pero también hay que establecer un panorama en el cual se identifiquen los rápidos cambios en el entorno que rodea la banca. La combinación de métodos, implicaría un proceso complejo y largo, debido a que se debe empezar por el análisis cualitativo para después finalizar en la medición cuantitativa. En esta última, el análisis de datos del riesgo operacional, ha llegado a ser extenso, las distribuciones de frecuencia y la severidad se están analizando por separado; la severidad la dividen en dos áreas: el cuerpo, hasta un umbral, y la cola. En el cuerpo es de uso frecuente construir una función de distribución empírica, o dado los parámetros a veces se aplica una distribución Lognormal, mientras, la cola se está modelando con teoría del valor extremo (EVT). La teoría del valor extremo (EVT) es una alternativa que está siendo explorada por investigadores, instituciones financieras, y por reguladores. Sin embargo, es bien sabido que las estimaciones en muestras pequeñas no son muy buenas, Fontnouvelle, et al (2005). Huisman, et al (2001) han propuesto una técnica de regresión basada en EVT que corrige la estimación para muestra pequeñas del parámetro de la cola, aplicaron la técnica anterior a seis bancos, obtuvieron estimaciones razonables y consistentes con resultados anteriores usando datos externos, Fontnouvelle et. al. (2003). Es importante resaltar el análisis estadístico de los datos de pérdida operacional, ya que, es un nuevo campo. Los resultados del trabajo de Fontnouvelle, et al (2005) se deben ver como preliminares, esto porque, tienen solamente datos de un año por cada banco. La investigación también plantea varias técnicas para investigaciones futuras, mientras posean datos de series de tiempo más allá de un año. Lo más significativo es que aun cuando en los datos aparecen colas pesadas, no se puede rechazar formalmente las hipótesis de que las distribuciones son del tipo Lognormal. Para investigar esta posibilidad, se propone 12 un análisis del umbral de la distribución Lognormal, esta técnica proporciona una caracterización razonable del comportamiento de la cola de pérdidas operacionales. También examinaron la frecuencia de pérdidas operacionales. Consideraron la distribución de Poisson y la distribución binomial negativa como modelos potenciales para el número de las pérdidas en el que un banco podría incurrir en el curso de un año. Usando la simulación de Monte Carlo para combinar las distribuciones de la frecuencia y de la severidad, obtuvieron una estimación para la distribución de pérdidas operacionales anuales totales. Los cuantiles de esta distribución de la pérdida agregada se interpretan como estimaciones de capitales económicos para el riesgo operacional. Dado lo anterior, las estimaciones para modelar los datos internos de pérdida son consecuentes con estimaciones de capitales usando los datos externos de Fontnouvelle et. al. (2003). Los resultados implican que para una variedad de observaciones con respecto a la frecuencia y la severidad de pérdidas operacionales, el nivel del capital requerido para el riesgo operacional para el típico banco en una muestra estaría en un intervalo del 5 al 9 por ciento del requisito de capital regulador mínimo del banco. Esta gama también parece constante con los 12 a 15 por ciento de capital regulador mínimo que la mayoría de los bancos están asignando actualmente al riesgo operacional, dado que los modelos de los bancos tienen un sistema más amplio de entradas que los usados en este análisis, incluyendo, los datos externos y los riesgo cualitativos. Otra técnica que se está aplicando en la medición del riesgo operacional es una aproximación a la forma para el VaR operacional, en el cual las altas pérdidas de la severidad (es decir, pérdidas sobre un alto umbral) siguen una distribución generalizada de Pareto (GPD) B¨ocker, ( 2006) El riesgo es la probabilidad de ocurrencia de un evento negativo debido a la vulnerabilidad del sistema y a la complejidad de las operaciones financieras, siendo estas origen de una gama de sucesos, de estos, algunos se caracterizan por su baja frecuencia y alta severidad cuyos efectos suelen ser devastadores económicamente, como plantea(González, 2004) en estos casos, en los que la pérdida es elevada, la metodología empleada es la de estudiar la cola de la distribución a partir de la Teoría de Eventos Extremos, aunque ello exige un caudal de información, que probablemente para una entidad en particular no sea suficiente, por lo que sería preciso recurrir a información externa de un conjunto de entidades de crédito. Los clientes, los productos y las prácticas de negocio son el tipo más alto de acontecimiento en la severidad, mientras que las prácticas externas de fraude son la severidad más baja, Stoneburner, et al (2002). Con los argumentos presentados anteriormente, es imprescindible que una entidad financiera posea un modelo estadístico para cuantificar el riesgo operacional a partir de eventos de baja frecuencia y alta severidad que calcule la pérdida esperada, la pérdida inesperada, el capital regulatorio y que satisfaga los criterios de solidez definidos por Basilea. 13 El objetivo de esta tesis es realizar una medición del riesgo operacional en una línea de negocio, comparando dos metodologías, LDA y POT. Lo anterior para calcular las pérdidas esperadas, las pérdidas inesperadas, y las pérdidas por encima de umbral (percentil 99.9%). Se identificarán las características particulares en la medición del riesgo operacional de cada metodología, para ello se dividirá la medición en dos partes, la primera abarcara la medición de las pérdidas esperadas e inesperadas en el cuerpo de la distribución de probabilidad de pérdida con la metodología LDA, y la segunda, será la medición de las pérdidas esperadas e inesperadas en la distribución de la cola, aplicando LDA y POT, estas mediciones son de gran importancia, porque allí se concentran las pérdidas de baja frecuencia pero de alto impacto económico que toda entidad financiera debe considerar en la gestión del riesgo operacional. 14 1. BASE TEÓRICA DEL MODELO LDA 1.1 INTRODUCCIÓN AL LDA (LOSS DISTRIBUTION APPROACH) EN LA CUANTIFICACIÓN DE LAS PÉRDIDAS POR RIESGO OPERATIVO Para cubrir pérdidas económicas por riesgo operativo (OR) los bancos deben calcular la carga de capital, según se estableció en el Nuevo Acuerdo de Capital de Basilea (Basilea II). En virtud de esto, se plantean los modelos de medición avanzada (AMA) como enfoques sofisticados para medir la exposición a este tipo de riesgo. A los bancos se les dará flexibilidad para desarrollar su propio modelo para el cálculo del capital. Esta libertad, en opinión de Basilea, permitirá una rápida evolución en las prácticas utilizadas para la medición de este riesgo. En principio, sólo se exige que las actividades de un banco se clasifiquen en una matriz bidimensional de 56 celdas, en la que las pérdidas operativas son producto de las ocho líneas de negocio por los siete tipos de riesgo y cuya asignación de capital es entonces la suma de las pérdidas esperadas y las pérdidas inesperadas, lo cual es equivalente a calcular el VaR operacional con un nivel de confianza en cada celda de la matriz. Tabla 1. Matriz de pérdidas. Líneas de negocio Eventos de riesgo L1 Fraude Interno Fraude Externo Relaciones laborales Clientes Daños a activos físicos Fallas tecnológicas Ejecución y administración de procesos Total L2 … L8 Total VaR(i, j ) ∑VaR(Ei) ∑VaR( Lj) ∑∑VaR ( i, j ) 7 8 i =1 j =1 Fuente: Elaboración propia del autor. Uno de los aspectos más importantes en el cálculo del capital económico, es garantizar que abarca todas las fuentes de riesgo, por tal motivo, la cuantificación del riesgo operativo debe estar sustentada en una metodología que cumpla los requisitos establecidos por Basilea. En este orden de ideas, el comité de Basilea 15 introduce tres enfoques para la cuantificación del riesgo operacional, dentro de los cuales, la opción más sofisticada es Advanced Measurement Approach (AMA). El enfoque de medición avanzada permite una flexibilidad en la aplicación de las metodologías de evaluación del riesgo operacional, razón por la cual, una de las técnicas heredadas del cálculo actuarial más utilizadas en la medición del cuerpo de la distribución de pérdidas, es el LDA (Loss Distribution Approach). La aplicación del LDA, ha sido compleja debido a la escases de datos y a la rigurosidad de la normatividad existente en cuanto a la exposición por riesgo operacional. El principal objetivo de un modelo LDA es proporcionar las estimaciones de pérdida, tanto por línea de negocio como por evento, dicha distribución de pérdida es producto de los datos de severidad y frecuencia cuyo origen está en los eventos de riesgo. Esta técnica ha sido utilizada en los trabajos de A. Frachot, A, et al (2001); Lee Ch (2001); Cruz, M, (2002); Frachot, A, et al (2003); Frachot, A, et al (2004); Shevchenko, P, (2005); Nešlehová, J, et al (2006); Akkizidis, I, et al (2006); Klaus Böcker (2006); Kabir Dutta, y Jason Perry (2006); Degen, M et al (2006); Falko Aue, y Michael Kalkbrener (2007); Anna Chernobai y Svetlozar T. Rachev (2007) con gran éxito en la modelación del cuerpo(ver gráfico) de la distribución de pérdidas, la cual es fundamental para la matriz de cálculo de capital propuesta por Basilea. Gráfico 1. Distribución de pérdidas. Fuente: Elaboración propia del autor. 1.2 LDA (LOSS DISTRIBUTION APPROACH) COMO TÉCNICA PARA MODELAR LA DISTRIBUCIÓN DE PÉRDIDA EN EL RIESGO OPERACIONAL El LDA consiste, básicamente, en la estimación de una curva de pérdidas por riesgo operacional a partir de los datos internos (o externos) de la entidad. Esto se efectúa procesando de forma separada la frecuencia de los eventos y la severidad de las pérdidas. A partir de estas dos funciones (frecuencia y severidad) se 16 obtiene, mediante simulación de Montecarlo, la función de probabilidad de pérdidas total por riesgo operacional, que a su vez permite obtener los valores de la pérdida esperada y de la pérdida inesperada. 1.3 PRINCIPALES SUPUESTOS DEL LDA En el LDA la pérdida total se define como una suma aleatoria de las distintas Pérdidas: 7 S =∑ i =1 8 ∑s j =1 [1] ij Donde sij es la pérdida total en la celda i, j de la matriz de pérdidas. Las sij se calculan como: ∑X n sij = N [2] N =1 Con N como una variable aleatoria que representa el número de eventos de riesgo en la celda i, j (frecuencia de los eventos) y X N es el monto de la pérdida en la celda i, j (Severidad del evento). En consecuencia, las pérdidas son resultado de dos diferentes fuentes de aleatoriedad, la frecuencia y la severidad. En esencia el modelo LDA tal como se utiliza en el riesgo operativo o en ciencias actuariales asume los siguientes supuestos dentro de cada clase de riesgo: • N y X N la variable frecuencia es una variable aleatoria independiente de la variable aleatoria severidad. • X N las observaciones de tamaño de pérdidas (severidad) dentro de una misma clase se distribuyen idénticamente. • X N las observaciones de tamaño de pérdidas (severidad) dentro de una misma clase son independientes. El primer supuesto admite que la frecuencia y la severidad son dos fuentes independientes de aleatoriedad. Los Supuestos dos y tres, significa que dos diferentes pérdidas dentro de la misma clase son homogéneas, independientes e idénticamente distribuidas, Frachot et al (2004). 17 1.4 MODELIZACIÓN DE LA SEVERIDAD La primera etapa, consiste en ajustar distintos modelos de distribución probabilística a una serie datos históricos de pérdidas operacionales desglosadas por su tipología para una determinada línea de negocio y evento de pérdida. En definitiva, se trata de encontrar la distribución de probabilidad que mejor se ajuste a los datos observados y estimar sus parámetros. Lee, Ch (2001); Cruz, M (2002); González, M (2004); Shevchenko, P (2005); Carrillo (2006), proponen la distribución Lognormal o la de Weibull como las más recomendables a la hora de modelizar la severidad si bien, en la práctica ninguna distribución simple se ajusta a los datos satisfactoriamente; de ahí la necesidad de recurrir a una mixtura de distribuciones para variables aleatorias continuas. Sea X el monto de la pérdida en la celda i, j de la matriz de pérdidas (Severidad del evento). Variable que sigue una distribución de probabilidad Fij ( x ) la cual se define como: Fij ( x ) = Pr o ( X ij ≤ x ) [3] 1.5 MODELIZACIÓN DE LA FRECUENCIA La frecuencia es una variable aleatoria discreta que representa el número de eventos observados durante un periodo de tiempo establecido, con una determinada probabilidad de ocurrencia. Lee, Ch (2001); Cruz, M (2002); González, M (2004); Shevchenko, P (2005) proponen la distribución de Poisson como una candidata con muchas ventajas a la hora de modelizar dicha variable, también recomiendan contemplar otras alternativas como la Binomial o la Binomial Negativa. Sea N ij una variable aleatoria que representa el número de eventos de riesgo en la celda i, j de la matriz de eventos (frecuencia de los eventos). Variable que sigue una distribución de probabilidad pij ( n ) la cual se define como: pij ( n ) = Pr o ( Nij = n ) 18 [4] 1.6 OBTENCIÓN DE LA DISTRIBUCIÓN DE PÉRDIDAS AGREGADA Una vez caracterizadas las distribuciones de severidad y frecuencia, el último paso del proceso consiste en obtener la distribución de pérdidas agregada (LDA), para lo cual se tiene que proceder a la combinación de ambas. A dicho proceso estadístico se le denomina convolución (una convolución es un operador matemático que transforma dos funciones f y g en una tercera función que en cierto sentido representa la magnitud en la que se superponen, f y una versión trasladada e invertida de g.). Como N ij es una variable aleatoria que representa el número de eventos en la celda i, j de la matriz de eventos, para un plazo comprendido entre t y t + τ con una distribución de probabilidad asociada pij ( n ) y X ij otra variable aleatoria que expresa la cuantía de la pérdida para un determinado evento con una función de densidad asociada Fij ( x ) . Asumiendo la independencia entre la frecuencia y la severidad, entonces la pérdida total para un tipo de evento en el intervalo temporal ( t , t + τ ) adopta la expresión dada en la ecuación [2] La función de distribución de la variable sij se obtiene por: ⎧∞ n* ⎪∑ pij ( n ) × F ( x ) S ( x ) = ⎨ n =1 ⎪ p ( n) ⎩ ij para x > 0 para x = 0 Donde, F(x) es la probabilidad de que la cantidad agregada de n pérdidas sea x. El asterisco denota la convolución en la función F, y F n* es n -veces la convolución de F consigo misma. Para la obtención de S(x) se utilizan dos métodos: • Algoritmo de Panjer: Se trata de un procedimiento recursivo, que exige, como paso previo, la discretización de la severidad. Si la función de masa de la frecuencia puede ser escrita como: b⎞ ⎛ pk = p( k −1) ⎜ a + ⎟ , k ∈ Z + k⎠ ⎝ Donde pk representa la probabilidad de que el número de eventos sea k y a y b constantes, el procedimiento recursivo viene dado por: 19 g ( x ) = p(1) f ( x ) + ∫ x 0 y⎞ ⎛ ⎜ a + b ⎟ f ( y ) g ( x − y ) dy x > 0 x⎠ ⎝ Donde, g(x) es la función de densidad de G(x). La limitación de este algoritmo radica en que sólo es válido para distribuciones de probabilidad discretas. Ello implica que la severidad, al ser una variable continua, debe ser discretizada antes de aplicar dicho procedimiento. Sin embargo, el principal inconveniente estriba en la complejidad a la hora de realizar las convoluciones en la práctica, lo cual requiere bastante tiempo. • Enfoque de Simulación por Montecarlo: Estima la distribución de pérdidas agregada utilizando un número suficiente de escenarios hipotéticos, generados aleatoriamente, a partir de las distribuciones de severidad y frecuencia. 1.7 CÁLCULO DE LA CARGA DE CAPITAL Después de calibrar las distribuciones de probabilidad de la frecuencia y de la severidad, el cálculo de la carga de capital es simple. Para ello es necesario precisar algunos conceptos sobre la carga de capital y la forma de calcularla. Si N es el número de eventos (aleatorio), y las pérdidas agregadas son 7 S =∑ i =1 8 ∑s j =1 ij [1] , Donde sij es la pérdida total en la celda i, j de la matriz de pérdidas. Las sij se calculan como: ∑X n sij = N [2] N =1 Entonces se tienen las siguientes definiciones: Definición 1 (OpVaR): La carga de capital es el percentil 99.9% de la distribución de probabilidad de pérdida. Pr {S > OpVaR} = 0.1% 20 Definición 2 (Optar-Únicamente pérdidas inesperadas): Éste es el OpVaR anterior del cual se restan las pérdidas esperadas. Basilea acepta esta definición siempre y cuando la entidad haya provisionado las pérdidas esperadas. Pr {S > OpVaR − E ( S )} = 0.1% ⎡N ⎤ Donde E( S ) son las pérdidas totales esperadas, o sea: E ( S ) = E ⎢∑ X i ⎥ ⎣ i =0 ⎦ Gráfico 2. Distribución de pérdidas. Fuente: Elaboración propia del autor. 21 2. BASE TEÓRICA DE LA TEORÍA DE VALOR EXTREMO 2.1 TEORÍA DE VALOR EXTREMO PARA EL RIESGO OPERACIONAL Existe, bajo Basilea II, un conjunto de métodos cuantitativos para el cálculo de la carga de capital por riesgo operativo, pero no hay consenso sobre los mejores métodos a emplear. Una técnica que se ha vuelto potencialmente atractiva, es la Teoría de Valor Extremo (EVT), la cual no parece ser directamente aplicable a satisfacer las estrictas normas establecidas por Basilea, esto se debe a que simplemente no hay suficientes datos. Los métodos estándar de modelización matemática del riesgo utilizan el lenguaje de Teoría de la probabilidad. Dichos riesgos son variables aleatorias que pueden ser considerados individualmente, o vistos Como parte de un proceso estocástico. Los potenciales valores de una situación de riesgo tienen una distribución de probabilidad para las pérdidas derivadas de los riesgos, pero hay un tipo de información que está en la distribución, llamada “Eventos extremos”, los cuales se producen cuando un riesgo toma valores en la cola derecha de la distribución de pérdidas. En EVT hay dos tipos de enfoques que generalmente se aplican, los cuales se enuncian a continuación:1 • El más tradicional es el modelo de bloques máximos (block-máxima), estos son modelos para grandes observaciones recolectadas a partir de grandes muestras de observaciones idénticamente distribuidas. Consiste fundamentalmente en partir las observaciones por bloques y en estos encontrar el máximo. Este método lleva a producir un error por la mala escogencia del tamaño de los bloques. • Un más moderno y poderoso grupo de modelos son aquellos de exceso de umbral (thershold exceedances), estos son modelos para todo tamaño de observaciones que exceden algún nivel superior (high level), y son en general los más utilizados en aplicaciones prácticas debido a su uso eficacia en el manejo de los valores extremos. Al igual que el método block-máxima, esté lleva a un error en la mala escogencia del umbral. Los métodos de umbrales son más flexibles que los métodos basados en el máximo anual porque primero toman todos los excedentes por arriba de un umbral, adecuadamente alto, y de esta manera se usan mucho más datos. 1 VELANDIA GONZÁLEZ, Oscar E. Director; MORENO G., Vladimir. Comportamiento asintótico del var como medida de valor extremo, de mayo de 2007. p. 2 – 21. 22 Como se expresa arriba, las grandes pérdidas por encima de un umbral establecido, son difíciles de clasificar en el Acuerdo de Basilea II, no obstante, es posible identificar las características de la distribución de pérdidas y desarrollar un modelo de riesgo mediante la selección de una determinada distribución de probabilidad, la cual se puede estimar a través de análisis estadístico de datos empíricos. En este caso, la EVT es una herramienta que trata de darnos la mejor estimación posible de la zona de la cola de la distribución de pérdidas, incluso en ausencia de datos históricos es útil, ya que, puede corregir algunas deficiencias, mediante la definición del comportamiento empírico de las pérdidas, basadas en el conocimiento preciso de la distribución asintótica del comportamiento de las pérdidas. 2.2 TEORÍA DE VALOR EXTREMO2 Si una función de distribución de pérdidas es tratada con los métodos estadísticos convencionales, el efecto del comportamiento de la curva sobre el cálculo de los parámetros, no permite que los modelos convencionales se adapten con precisión a los datos obtenidos en la cola (ver gráfico 3). Una solución a este problema es no tomar en consideración el cuerpo de la distribución (conformado por las pérdidas esperadas y las inesperadas), por ende, el análisis se centraría sólo en las grandes pérdidas establecidas por encima de un umbral. En la práctica, los distintos tipos de pérdidas de acuerdo al volumen económico, se tratan por separado. Pero si el interés es obtener información sobre algunos valores medios de la distribución, el análisis convencional o empírico de los datos ubicados en el cuerpo de la distribución, puede ser útil para tal efecto. Gráfico 3. Distribución de pérdidas agregadas. Fuente: Nuevo Acuerdo de capital de Basilea. 2 MOSCADELLI, M. The modelling of operational risk: experience with the analysis of the data collected by the Basel Committee, 2004. p. 26.53. 23 Ahora, en cuanto a la zona de la cola, un buen número de diferentes distribuciones de probabilidad podrían ser consideradas; por ejemplo, distribuciones como la Lognormal o Pareto son comúnmente aceptadas en el campo de los seguros para el cálculo de grandes pérdidas por reclamaciones. Sin embargo, en este trabajo, se utilizará para las pérdidas de baja frecuencia pero de alto impacto económico (aquellas que se encuentran por encima del percentil 99.9%, ver gráfico 3), la teoría de valor extremo (EVT), la razón radica en la solidez de sus cimientos en la teoría matemática, además, es un enfoque científico y satisfactorio en el tratamiento de eventos de poca frecuencia y de grandes pérdidas. Dicha metodología, se ha aplicado ampliamente en la ingeniería de estructuras, la oceanografía, la hidrología, Fiabilidad, el control total de la calidad, estudios de contaminación, la meteorología, la fuerza material, el tráfico en carretera y, más recientemente, en el ámbito financiero y de seguros. Para una completa fuente Sobre la aplicación de la EVT a las finanzas y los seguros, véase Embrechts et al., 1997, y Reiss Y Thomas, 2001. En general, las pérdidas por riesgo operativo, presentan sin duda, características análogas a las pérdidas presentadas en los ámbitos mencionados (por ejemplo, se pueden encontrar en los seguros, reaseguros, la fiabilidad y el control total de la calidad). De hecho, los datos de pérdida para el riesgo operativo parecen ser caracterizados por dos espectros: el primero, impulsado por la alta frecuencia y el bajo impacto de los eventos, constituyen el cuerpo de la distribución y se refiere a las pérdidas esperadas e inesperadas según Basilea; el segundo, impulsado por la baja frecuencia y el alto impacto de los eventos, constituye la cola de la distribución y se refiere a las pérdidas catastróficas, ósea aquellas que están por encima del percentil 99.9%. En la práctica, los datos que arroja la distribución de pérdida para el cuerpo y la cola no necesariamente pertenecen a la misma distribución, pero pueden presentar distribuciones pertenecientes a la misma familia, en la mayoría de las veces su comportamiento es tan diferente que es difícil identificar un único modelo tradicional que pueda, describir al mismo tiempo, en forma exacta, los dos espectros para los datos de pérdida. En consecuencia, en todos los casos en los que la cola de la distribución de pérdidas es pesada, la EVT parece ser un instrumento útil para investigar las grandes pérdidas, debido a su doble propiedad de centrar el análisis únicamente en la zona de la cola y el tratamiento de grandes pérdidas con un enfoque científico, a diferencia de los métodos tradicionales, no se requiere la hipótesis sobre la naturaleza de la distribución de probabilidad de las observaciones originales, que en general se desconoce. El método usual es el desarrollo de modelos basados en la teoría asintótica, un tipo de teorema central del límite versión valores extremos derivados en un principio por Fisher y Tippet (1928) de una manera heurística, y luego desde un punto de vista más riguroso por Gnedenko (1943), que establece que hay solamente tres tipos de distribuciones limites de los máximos anuales en secuencias aleatorias estacionarias. 24 Como se mencionó anteriormente, en EVT hay dos enfoques que se pueden aplicar a los datos de pérdida de una distribución de probabilidad. El primer enfoque se refiere a los máximos (o Mínimo) valores que toma una variable en períodos sucesivos, por ejemplo, meses o años. Estas observaciones constituyen los fenómenos extremos, también llamado bloques (o por periodo) máximos. En el centro de este enfoque hay "tres tipos de teorema", Fisher y Tippet, (1928), que afirman que sólo hay tres tipos de distribuciones que pueden plantearse como distribuciones limites (limiting distributions) de valores extremos en muestras aleatorias, dichas distribuciones son del tipo Weibull, Gumbel o Frechet. Este resultado es muy importante, ya que la distribución asintótica de los máximos siempre pertenece a una de estas tres distribuciones, independientemente de la distribución original. Por lo tanto, la mayoría de las distribuciones utilizadas en finanzas y en las ciencias actuariales pueden dividirse en tres clases, en función de sus colas pesadas: • Distribuciones de colas delgadas (light-tail distributions): Con momentos finitos y colas que convergen a la curva de Weibull o Beta. • Distribuciones de colas medias (medium-tail distributions): Para todos los momentos finitos y cuya función de distribución acumulada disminuye exponencial en las colas, al igual que la curva de Gumbel, Normal, Gamma o LogNormal. • Distribuciones de colas gruesas (heavy-tail distributions): Cuyas funciones de distribución acumulada disminuyen con fuerza en las colas, al igual que la curva de Frechet , T de Student, Pareto, LogGamma o Cauchy. Las distribuciones Weibull, Gumbel y Frechet pueden ser representadas en un modelo con tres parámetros, conocido como Generalized Extreme Value distribution (GEV): −1 ⎧ ⎛ ⎛ ξ ⎞ x µ − ⎞ ⎛ ⎞ ⎪exp ⎜ − ⎜1 + ξ ⎜ ⎟ ⎟ ⎜ ⎝ σ ⎠ ⎠⎟ ⎟ ⎪ ⎝ ⎝ ⎠ GEVξ , µ ,σ ( X ) = ⎨ ⎪ ⎛ ⎛ x − µ ⎞⎞ ⎪exp ⎜ − exp ⎜ − ⎟⎟ ⎝ σ ⎠⎠ ⎝ ⎩⎪ Con 1 + ξ x > 0 En donde los parámetros corresponden a: 25 si ξ ≠ 0 [1] si ξ = 0 µ parametro de posicion σ parametro de escala parametro de forma ξ El parámetro de forma, indica el espesor de la cola de la distribución. Si el parámetro es grande, la cola de la distribución es más gruesa. El segundo enfoque en EVT es el método llamado “Peaks Over Threshold (POT)”, adaptado para el análisis de datos más grande que presentan umbrales altos. El componente de severidad en el método POT se basa en una distribución (Generalized Pareto Distribution - GPD), cuya función de distribución acumulada es expresada por dos parámetros: −1 ⎧ ⎛ x ⎞⎞ ξ ⎛ ⎪1 − ⎜1 + ξ ⎜ ⎟ ⎟ ⎪ ⎝σ ⎠⎠ GPDξ ,,σ ( X ) = ⎨ ⎝ ⎪ ⎛ x⎞ ⎪1 − exp ⎜ − σ ⎟ ⎝ ⎠ ⎩ si ξ ≠ 0 [ 2] si ξ = 0 Donde: X ≥ 0 si ξ ≥ 0, 0 ≤ X ≤ −σ ξ si ξ < 0 Y ξ , σ son parámetros de forma y escala respectivamente. Es posible ampliar la familia de las distribuciones GPD mediante la adición de un parámetro de posición µ. En este caso, la GPD se define como: −1 ⎧ ⎛ x − µ ⎞⎞ ξ ⎛ ⎪1 − 1 + ξ ⎜ ⎟⎟ ⎪ ⎜⎝ ⎝ σ ⎠⎠ GPDξ , µ ,σ ( X ) = ⎨ ⎪ ⎛ x−µ ⎞ ⎪1 − exp ⎜ − σ ⎟ ⎝ ⎠ ⎩ si ξ ≠ 0 [3] si ξ = 0 La interpretación de ξ en la GDP es la misma que en la GEV, ya que toda la información sobre la cola de la distribución original (desconocida) se inserta en el Parametro ” The maxima of samples of events from GPD are GEV distributed with shape parameter equal to the shape parameter of the parent GPD. There is a simple relationship between the standard GDP and GEV such that GPD ( X ) = 1 + log GEV ( X ) if log GEV ( X ) > −1 ”. Cuando ξ <0 la GPD es conocida como la distribución de Pareto "Tipo II"; cuando ξ = 0 la GPD corresponde a la distribución exponencial; cuando ξ > 0 es la 26 probabilidad más importante para los datos por riesgo operativo, debido a que el GPD toma la forma común de la distribución de Pareto con el índice de cola α = 1 / ξ e indica la presencia de cola pesada; en este caso en particular hay una relación directa entre ξ y los momentos finitos de la distribución: E ( x k ) = ∞ si k ≥ 1 [ 4] ξ Por ejemplo, si ξ ≥ 0,5 la GPD tiene varianza infinita; si ξ ≥ 1 no hay momentos finitos, ni siquiera la media. Esta propiedad tiene una consecuencia directa para el análisis de datos: de hecho, el comportamiento de los datos en la cola puede ser fácilmente detectado directamente con la estimación del parámetro de forma ξ . Sea FX ( X ) una función de distribución (desconocida) de una variable aleatoria X (con un punto final X F a la derecha) que describe el comportamiento por riesgo operativo en una línea de negocio y sea Fu (Y ) una distribución de exceso con un umbral u . La distribución de exceso puede ser definida como una función de distribución condicional, la cual es: F ( x ) − Fx ( u ) Para y = x − u > 0 Fu ( y ) = P ( X − u ≤ y / X > u ) = x [ 5] 1 − Fx ( u ) Esto representa la probabilidad de que una pérdida supere el umbral u en una cantidad de más, habida cuenta de que se supere el umbral. La teoría de Balkema-De Haan, (1974), y Pickands, (1975) sostiene que para unas clases de distribuciones subyacentes, la distribución de exceso Fu (Y ) converge asintóticamente a una GPD como el umbral es progresivamente elevado a la derecha del punto X F de la distribución, entonces: lim sup FU ( y ) − GPDξ , β ( y ) = 0 u→ X F [6] Donde: −1 ⎧ ⎛ y⎞ ξ ⎪1 − ⎜1 + ξ ⎟ si ξ ≠ 0 β⎠ ⎪ ⎝ GPDξ , β (Y ) = ⎨ ⎛ y⎞ ⎪ ⎪1 − exp ⎜ − β ⎟ si ξ = 0 ⎝ ⎠ ⎩ [7] Con Y = X − U = el exceso; ξ = parametro de forma; β = parametro de escala. Y como supuesto Y ∈ [ 0, X F − U ] si ξ ≥ 0; Y ∈ ⎡0, − β ⎤ si ξ < 0 . ξ ⎦⎥ ⎣⎢ 27 En este trabajo, a la GPDξ , β (Y ) se le llamará el "exceso de GPD ", para acentuar el argumento de que representa los excesos, es decir, el rebasamiento de los límites x (es decir, los datos por encima del umbral u) menos el umbral u de sí mismo. Igualmente, la condición del límite [6] plantea el rebasamiento de los límites x, si se utilizan dichos resultados en lugar de la excesos Y, entonces los argumentos Fu (Y ) y GPDξ , β (Y ) se transformarían en Fu ( X ) y GPDξ ,u , β ( X ) , con el umbral u y x > u representaría el parámetro de posición. Por lo tanto, cuando el límite tiende a la derecha de punto final X F la distribución de rebasamiento Fu ( X ) converge asintóticamente a GPD con los parámetros de forma ξ , escala β y de posición µ =u. Una de las propiedades más importantes de la GPD es su estabilidad a partir del umbral. De la expresión [5] se puede definir FX ( X ) como: Fx ( x ) = Fx ( u ) + Fu ( y ) ⎡⎣1 − Fx ( u ) ⎤⎦ En cuanto a la condición del límite [6], ambas la distribución de excesos Fu (Y ) y la distribución de rebasamiento Fu ( X ) se pueden aproximar adecuadamente a GPDs . Mediante el uso de "exceso de GPD ", se obtiene. Fx ( x ) ≈ Fx ( u ) + ⎡⎣1 − Fx ( u ) ⎤⎦ GPDξ ,u , β ( x ) [ 8] Sustituyendo GPDξ ,u , β ( x ) en la expresión [8]: −1 ⎡ ⎛ x −u ⎞ ξ ⎤ ⎥ Fx ( x ) ≈ Fx ( u ) + ⎡⎣1 − Fx ( u ) ⎤⎦ ⎢1 − ⎜ 1 + ξ β ⎟⎠ ⎥ ⎢ ⎝ ⎣ ⎦ El único elemento requerido ahora para identificar FX ( X ) completamente es FX (U ) , es decir, el valor de la función de distribución (desconocida) con el umbral U. Con este fin, el estimador empírico de FX ( X ) que calcula a U puede ser una solución viable: Fn ( u ) = n − nu 1 n 1{xi ≤u} = ∑ n i =1 n 28 [9] Donde n es el número total de observaciones y nu es el numero de observaciones que supera el umbral u. El umbral u debe fijarse en un nivel que permita obtener suficientes observaciones superiores a u para una estimación empírica confiable de Fx ( u ) . Igualmente, FX ( X ) puede ser completamente expresada por los parámetros de la GPDξ , µ ,σ ( X ) y el número de observaciones (total y por encima del umbral). Sustituyendo [9] en [8]: −1 n − nu ⎡ n − nu ⎤ ⎡ ⎛ x −u ⎞ ξ ⎤ ⎢1 − ⎜ 1 + ξ ⎥ + ⎢1 − Fx ( x ) ≈ n n ⎥⎦ ⎢ ⎝ β ⎠⎟ ⎥ ⎣ ⎣ ⎦ Y simplificado, queda: −1 nu ⎡ ⎛ x−u ⎞ ξ ⎤ ⎥ Fx ( x ) ≈ 1 − ⎢1 + ⎜ 1 + ξ β ⎟⎠ ⎥ n ⎢ ⎝ ⎣ ⎦ [10] Esta cantidad es definida como el “estimador de la cola” de FX ( X ) , ya que solo es válido para x > u. Es posible demostrar que el "estimador de la cola" también es GPD: la representación semiparamétrica de GPDξ , µ ,σ referida a todos los datos originales, con los mismos parámetros de forma ξ , posición µ y escala σ , entonces se denomina a GPDξ , µ ,σ la “ GPD completa” debido a que contiene todos los datos de la cola. Las estimaciones de los parámetros de la semiparamétrica " GPD completa " se pueden derivar de los "excesos de GPD ": ξ ⎛n ⎞ σ =β⎜ u ⎟ ⎝n⎠ µ =u− β ξ [11] ⎡ ⎛ nu ⎞ξ ⎤ ⎢1 − ⎜ ⎟ ⎥ ⎢⎣ ⎝ n ⎠ ⎥⎦ [12] La relación entre “GPD completa” y "exceso de GPD "( GPDξ ,u , β ) es uno a uno, también es posible expresar la magnitud de este último parámetro por: β = σ + ξ ( u − µ ) . Cabe señalar que mientras la escala ( β ) de "exceso de GPD "dependa del punto donde se encuentre el umbral, la forma ξ , la posición µ y la escala σ de la “GPD completa” son independientes de los umbrales. Por lo tanto, un buen método práctico para comprobar la solidez del modelo para algunos 29 datos específicos es evaluar el grado de estabilidad de los parámetros en una serie de umbrales Mediante la aplicación de la propiedad de estabilidad para GPD , es posible pasar fácilmente de los datos en exceso (y = x - u) a los datos originales de la cola (x> u), y la distribución de exceso Fu (Y ) a la de distribución (desconocida) FX ( X ) . Una consecuencia inmediata de la aplicación de la propiedad de estabilidad para GPD es que, si los casos de superación de un umbral u siguen una GPDξ ,u , β , el rebasamiento de los límites de un umbral más alto v > u son GPDξ ,v , β +ξ ( v −u ) que es también una distribución GPD con la misma forma ξ , y la posición v (del nuevo umbral) y la escala igual a β + ξ ( v − u ) . Esta propiedad se asumirá durante el presente trabajo. 2.2.1 Enfoque POT (peaks over threshold) para la estimación de los parámetros de la cola en la distribución de pérdidas. A la luz de la EVT el método POT cuyas características se describieron en la sección anterior, será aplicado a un conjunto de datos en una línea con los siete eventos de riesgo, para el ajuste por " exceso de GPD " GPDξ , β (Y ) , al exceso pérdidas por encima de un umbral determinado. Para aplicar el GPD se requieren tres elementos: • • • El umbral (u), que será establecido por el analista; en nuestro caso lo estableceremos en el percentil 99.9%, como lo propone Basilea. El exceso de datos, es decir, los datos originales menos el umbral seleccionado Dos parámetros ( ξ y β ), que se estimaran para el exceso de datos. Un aspecto clave en el modelado de la GPD , es la selección del umbral, que es el punto donde comienza la cola. La elección de u debe ser lo suficientemente grande como para satisfacer la ley de límite, mientras que al mismo tiempo suficiente para la estimación de los parámetros (condición práctica). Además, la inferencia sobre el parámetro de forma que, como se ha señalado, en el cual rige la pesadez de la cola, debe ser insensible a los aumentos por encima del umbral. 2.2.1.1 Intervalo de confianza para el índice de cola3. Las estimaciones del parámetro ξ realizadas en base a la información muestral y por tanto pueden presentar errores. 3 GARCÍA, A. Una aportación al análisis de solvencia: La teoría del valor extremo, En : Tesis Doctoral, Alcalá de Henares, 2006. p. 43-238. 30 Es por ello, que Beirlant, J. et al. (1996) plantean la introducción de un intervalo de confianza: ⎛ ⎜ ˆ ⎜ ξ , ξˆ ⎜ zb zb ⎜ 1+ 2 1− 2 ⎜ k k ⎝ ⎞ ⎟ ⎟ ⎟ ⎟ ⎟ ⎠ [13] 2.2.2 Estimación del umbral u a través del gráfico de exceso medio4. Dado que el gráfico de exceso medio para la distribución Generalizada de Pareto es lineal y tiende a infinito con pendiente positiva, el ajuste a través de la distribución Generalizada de Pareto es razonable si se toma como umbral óptimo el valor a partir del cual el gráfico de exceso medio toma una forma lineal con pendiente positiva. Para ello, es necesaria la representación de la función empírica de exceso medio, obtenida a partir de la muestra disponible y que permitirá ir conociendo la distribución de los datos y su naturaleza. Dada una muestra ordenada de forma descendente (X1,n ≥,..., Xk,n ≥,..., ≥Xn,n), la función empírica de exceso medio viene dada por la siguiente expresión: n eˆn ( u ) = ∑( X i =1 i − u) n ∑1( i =1 + [14] X i >u ) En el numerador se encuentra la suma de los excesos sobre el umbral y en el denominador el número de valores que cumplen la condición de ser superiores al umbral, determinándose así la media aritmética de los valores que exceden del umbral u. Sin embargo, a efectos prácticos, resulta de interés que los propios datos de la muestra actúen como umbrales, esto es, u = X k +1 . Si se toman como umbrales los propios datos, la función de exceso medio empírica que resulta será la media aritmética de los k mayores valores: 4 Ibídem. 31 n Ek ,n = eˆn ( X k ) = ∑X i =1 k i − X k +1 , k = 1, 2,..., n − 1 [15] La representación de la función empírica frente a los umbrales da lugar al gráfico empírico de exceso medio, donde la función empírica eˆn ( u ) es la variable dependiente y u la variable independiente. En el caso en que u = X k +1 , entonces, el gráfico de exceso medio se representará ( ) frente a k, es decir, con el par de valores: k ; Ek , n para k = 1, 2,..., n − 1 . Hay que tener en cuenta, que tomando como variable independiente los valores de k, a medida que se avanza en el eje de abscisas hacia la derecha, el valor empírico de exceso medio se determina con un mayor número de observaciones y, por tanto, con menor umbral (a medida que aumenta k, disminuye el umbral). 2.2.3 Cálculo del percentil 99.9% en la cola de la distribución5. Para calcular la pérdida por encima del umbral con el nivel de confianza determinado, se presentan tres casos: • Para ξˆ > 0 , el valor del percentil (Xp) se calcula: ξˆ ⎧ ⎫ ˆ ⎤ β ⎪⎡ n ⎪ xˆ p = u + ⎨ ⎢ (1 − p ) ⎥ − 1⎬ ξˆ ⎪ ⎣ N u ⎦ ⎩ ⎭⎪ El percentil p indicaría la probabilidad de que una pérdida tomara un valor inferior al valor x = y + u ; su complementario (1 – p) indica la probabilidad de que una pérdida sea superior al valor x = y + u condicionado a haber superado el umbral u. • Para ξˆ < 0 , La distribución mostrará una convergencia hacia un punto final por la derecha, indicativo de cola no gruesa. Un estimador de este punto final derecho de la distribución es: XF = u − 5 Ibídem. 32 βˆ ξˆ • Para ξˆ = 0 , la distribución de la cola es exponencial: ⎡ n ⎤ xˆ p = u + ⎢ ( − ln (1 − p ) ) ⎥ ⎣ Nu ⎦ 2.2.4 Valor esperado en la cola para un nivel de confianza de 99.9% (ES). Para calcular el valor esperado de las pérdidas en la cola, se realiza mediante: βˆ − ξˆu ESα = + 1 − ξˆ 1 − ξˆ xˆα En donde xˆ p es el percentil en la cola, también es equivalente al OpVaR en DA Costa (2004) o en McNeil (2005) se define como el VaR. 33 3. ANÁLISIS DE DATOS 3.1 INTRODUCCIÓN Para la aplicación de la metodología, los datos se obtuvieron de dos fuentes: la primera, la página de la Superfinanciera de Colombia en la cual aparecen registradas las quejas de los consumidores del sector financiero. Se procesaron las quejas mensuales de los últimos cinco años, para luego clasificarlas en los riesgos operativos que establece la circular externa 041 de 2007 de la Superfinanciera (ver Anexo D). La segunda fuente, una entidad financiera del sector cooperativo6, la cual aportó los datos de pérdidas económicas en los últimos cinco años para cada uno de los riesgos operativos en la línea de Banca minorista. Una vez cumplida la actividad anterior, se realizó un análisis exploratorio de los datos, con el fin de obtener información subyacente en los siete eventos de riesgo en la línea de negocio definida. En particular, debido a la conocida naturaleza del riesgo operativo y al objetivo final de cuantificar la carga de capital en la línea de negocio, el análisis se centra en la evaluación de las medidas de La asimetría, la curtosis y el índice de cola de la distribución de pérdidas, en lugar de las medidas de posición y escala. Además, de explorar el conjunto datos de los siete eventos de riesgo en la línea de negocio, se aplicó el procedimiento del LDA para generar la distribución de pérdidas. Para cada casilla de la matriz se realizó una simulación con un millón de iteraciones en el programa @risk. El objetivo de este procedimiento, es fortalecer el poder informativo de los datos sobre los momentos desconocidos de la población y, por otro lado, para proporcionar una mayor protección de la confidencialidad de las pérdidas aportadas por la entidad financiera. Por último, se separo el cuerpo de la distribución y la cola a partir del percentil 99.9% de la distribución de pérdidas, el cuerpo se utilizó para calcular las pérdidas esperadas e inesperadas, y la cola para calcular la pérdida debida a la baja frecuencia y alta severidad (pérdida catastrófica) a partir de las estimaciones de los momentos de la cola. 6 El nombre de la entidad se omite por compromisos de ética y confidencialidad. 34 3.2 DESCRIPCIÓN DE LOS DATOS DE FRECUENCIA Y SEVERIDAD Tabla 2. Eventos de riesgo presentados en los últimos cinco años. Eventos de Riesgo (Frecuencias) Riesgos Operacionales Fraude interno Fraude externo Relaciones laborales Clientes Daños a activos fijos Fallas tecnológicas Ejecución y administración de procesos. Total Porcentaje 2662 1102 3586 7853 157 7378 6.95% 2.88% 9.36% 20.49% 0.41% 19.25% 15587 40.67% 38325 Fuente: Elaboración propia del autor. Como se observa en la tabla 2, la mayor concentración de eventos de riesgo se presento en ejecución y administración de procesos, 15587 eventos que representan el 40.67%, los clientes y las fallas tecnológicas también presentaron frecuencias altas, necesariamente esto no se traduce en montos económicos similares o proporcionales a la cantidad de eventos. Tabla 3. Pérdidas económicas por riesgo operacional en los últimos Cinco años. Pérdidas económicas (Severidad) Riesgos Operacionales Fraude interno Fraude externo Relaciones laborales Clientes Daños a activos fijos Fallas tecnológicas Ejecución y administración de procesos. Total 182´066.136 1.164´038.293 163´858.258 119´499.527 229´047.558 274´332.722 148´565.252 2.281´407.746 Fuente: Elaboración propia del autor. 35 Porcentaje 7.98% 51.02% 7.18% 5.24% 10.04% 12.02% 6.51% La tabla 3 muestra que las mayores pérdidas económicas se presentaron por fraude externo, el 51.02%, aunque esto representaba el 2.88% de los eventos en la tabla anterior, resultó más costoso para la entidad. Fallas tecnológicas y daños a activos físicos también presentaron pérdidas elevadas. Los anteriores datos llevan a concluir que hay una alta concentración de riesgo operativo en ejecución y administración de procesos en cuanto a los eventos, y en fraude externo debido a las pérdidas económicas. 3.3 PRUEBAS DE BONDAD DE AJUSTE PARA LOS DATOS 3.3.1 Prueba de bondad de ajuste para los datos de la frecuencia. Para la frecuencia de los eventos de riesgo, se realizó un ajuste a dos de las distribuciones de probabilidad recomendadas por Pavel Shevchenko y otros, las cuales fueron la distribución de Poisson y la Binomial Negativa, la prueba utilizada para el ajuste es la K-S con un alpha de 0.05. Tabla 4. Ajuste de los eventos de riesgo a una distribución de probabilidad con variable discreta. F. Interno F. Externo Laborales Clientes A. Fijos Tecnológicas Procesos Ajuste de datos a la distribución de probabilidad de Poisson Ajuste de datos a la distribución de probabilidad de Binneg H0: F(x)obs=F(x)teo(Poisson) H0: F(x)obs=F(x)teo(Binneg) K-S, bilateral alpha 0.05 P-value bilateral <0.0001 <0.0001 <0.0001 <0.0001 <0.0069 <0.0001 <0.0001 K-S, bilateral alpha 0.05 P-value bilateral 0.614 0.054 0.088 0.279 0.000* 0.603 0.974 Fuente: Elaboración propia del autor. Los resultados del ajuste, muestran que en cuanto a los datos de frecuencias, no se puede aceptar como representativo el comportamiento propuesto, la distribución de Poisson, dado que sus p- value bilateral fueron muy inferior a 0.05 (se rechaza H0). En cambio, en cuanto al ajuste a la distribución binomial negativa, 36 no se encuentra evidencia estadística para afirmar que los datos siguen otro comportamiento que el propuesto, dado el nivel de significancia (no se rechaza H0), excepto los activos fijos cuyo valor de p es inferior a 0.05. 3.3.2 Prueba de bondad de ajuste para los datos de la severidad. Para la severidad se postularon tres distribuciones de probabilidad: La normal, Lognormal y Weibull, el estadístico de prueba fue el K-S con un alpha de 0.05. Tabla 5. Ajuste de la severidad a una distribución de probabilidad con variable continua. Estadístico de prueba K-S, bilateral alpha 0.05 P-value bilateral Ajuste de datos a la Ajuste de datos a la Ajuste de datos a la distribución de distribución de distribución de probabilidad probabilidad Weibull probabilidad Normal Lognormal H 0: H 0: H 0: F(x)obs=F(x)teo(Normal) F(x)obs=F(x)teo(Weibull) F(x)obs=F(x)teo(Lognormal) F. Interno F. Externo Laborales Clientes A. Fijos Tecnológicas Procesos 0.175 0.277* 0.957* 0.480* 0.404 0.907* 0.753* 0.141 0.064 0.058 0.088 0.131 0.118 0.081 0.336* 0.058 0.462 0.345 0.468* 0.810 0.669 Fuente: Elaboración propia del autor. Los resultados del ajuste, muestran que no se encuentro evidencia estadística para afirmar que los datos siguen otro comportamiento que el propuesto. Dado el nivel de significancia los datos de la severidad se ajustaron a las distribuciones de probabilidad propuestas, cabe observar que los mejores ajustes están en la distribución normal a excepción de las variables fraude interno y activos fijos las cuales se ajustaron mejor a la distribución Weibull. 3.3.3 Elección de las mejores combinaciones para la distribución de pérdida. La tabla 6 muestra las combinaciones que se utilizaron en el cálculo de la distribución de pérdidas, excepto en la variable activos fijos, en la cual se utilizó un distribución general para los eventos. Estas combinaciones se tomaron con base en los mejores estadísticos de prueba (K-S) en cada uno de los ajustes. 37 Tabla 6. Elección de la distribución de severidad para la distribución de pérdidas. F. Interno F. Externo Laborales Clientes A. Fijos Tecnológicas Procesos Estadístico de prueba K-S, bilateral alpha 0.05 P-value bilateral Ajuste de Ajuste de Ajuste de datos Ajuste de datos a la datos a la a la datos a la distribución de distribución de distribución de distribución de probabilidad probabilidad probabilidad probabilidad Binneg Normal Lognormal Weibull (frecuencia) (severidad) (severidad) (severidad) 0.614* 0.175 0.141 0.336* 0.054* 0.277* 0.064 0.058 0.088* 0.957* 0.058 0.462 0.279* 0.480* 0.088 0.345 0.000 0.404 0.131 0.468* 0.603* 0.907* 0.118 0.810 0.974* 0.753* 0.081 0.669 Fuente: Elaboración propia del autor. Para hacer la elección de la distribución de severidad que debe acompañar la distribución de frecuencia, se utilizo el mayor p-value de las distribuciones de severidad, como se muestra en la tabla 6. 3.3.4 Parámetros de las distribuciones definidas. En la distribución de frecuencia se observa que las probabilidades de ocurrencia de los eventos, en general, son muy bajas, se puede apreciar que los procesos tiene 9 eventos, pero la pérdida económica promedio en la distribución normal asciende a $2´476.087,50 pesos, lo cual no indica que a mayor numero de eventos, mayor pérdida. En el caso de la distribución Weibull, el parámetro ß es de forma y representa la pendiente de la recta, para estos casos, a medida que disminuye la pendiente, aumenta a la pérdida, la cual se puede apreciar en el parámetro de escala. Ver tabla 7. 38 Tabla 7. Parámetros de las distribuciones utilizadas para hallar la distribución de pérdidas. Distribución de probabilidad Binneg (frecuencia) n p F. Interno F. Externo Laborales Clientes A. Fijos Tecnológicas Procesos 3 1 1 2 3 9 0.0670 0.0544 0.0169 0.0155 0.0244 0.0343 Distribución de probabilidad Normal (severidad) Distribución de probabilidad Weibull (severidad) µ σ β η 19400638.2 2730970.9 1991658.7 4572212.03 2476087.5 12794784.4 1245892.03 1122186.7 2514104.03 1459752.3 1.18 1.12 - 3205070.1 3963671.9 - Fuente: Elaboración propia del autor. 3.4 MODELACIÓN DEL LDA Para la modelación del LDA se utilizó el enfoque de Simulación Montecarlo, el cual estima la distribución de pérdidas agregada utilizando un número suficiente de escenarios hipotéticos, generados aleatoriamente, a partir de las distribuciones de severidad y frecuencia, con sus respectivos parámetros definidos en la tabla 7. 39 Gráfico 4. Modelación del LDA. Fuente: Marcelo Cruz. All Samad Khan. 40 3.4.1 Estimación de la distribución de pérdidas para el evento de riesgo: fraude interno. Gráfico 5. Estimación de la distribución de pérdidas para el evento de riesgo: fraude interno. Distribución de frecuencia: Binomial Negativa n P 3 0.0670 41 Distribución de pérdidas para Fraude Interno 124102851.4 Distribución de severidad: Weibull β 1.1820 η 3205070.140 3026898.81 ⎧∞ n* ⎪∑ pij ( n ) × F ( x ) S ( x ) = ⎨ n =1 ⎪ ⎩ pij ( n ) para x > 0 para x = 0 Fuente: Elaboración propia del autor. A partir de las distribuciones de severidad y frecuencia, se calcula la distribución de pérdidas S(x), la cual hace estadísticamente: E ( S ) = E ( Frecuencia ) * E ( Severidad ) E ( S ) = 41*3026898.81 E ( S ) = 124102851.4 41 Las demás estimaciones se pueden apreciar en las distribuciones de pérdidas, Anexo A. 3.4.2 Momentos de la distribución de pérdidas para el evento de riesgo: fraude interno con distribución de severidad weibull. Gráfico 6. Distribución de pérdidas para fraude interno. Fuente: Elaboración propia del autor. Las estimaciones de los momentos empíricos indican que las distribuciones de pérdida de los siete eventos en la línea de negocio (ver Anexo A), son muy sesgada a la derecha y, sobre todo, presentan colas muy gruesas con respecto a una distribución normal. Con el fin de apreciar mejor las peculiaridades de estos datos, se puede observar en el gráfico 6 los valores de la asimetría y la curtosis, las cuales son respectivamente, 2.94 y 18.05. Como se puede apreciar en la gráfico 7 (ver Anexo B para las demás distribuciones), la función de distribución presenta una cola gruesa a la derecha de la curva, esto tiene como antecedente una distribución lectocurtica, lo cual puede indicar que la diferencia de las probabilidades entre una pérdida y la siguiente, pueden variar drásticamente. 42 Gráfico 7. Fd para la pérdida por fraude interno con severidad weibull. fd para la pérdida por fraude interno con severidad weibull (X 1.E-10) 8 6 4 2 0 0 1 2 3 4 5 (X 1.E9) Fuente: Elaboración propia del autor. Con una curtosis de 18.05 y el gráfico Q-Q, se confirma la presencia de cola gruesa en la distribución de pérdidas, ya que como se puede apreciar, existe una curva en el extremo izquierdo y en el derecho, ver gráfico 8. Gráfico 8. Q-Q para la pérdida por fraude interno con severidad weibull. Gráfico Q-Q para la pérdida por fraude interno con severidad weibull (X 1.E8) 54 44 34 24 14 4 -6 -6 4 14 24 34 44 Fuente: Elaboración propia del autor. 43 54 (X 1.E8) 3.5 ESTIMACIÓN DE LAS PÉRDIDAS ESPERADAS Y LAS PÉRDIDAS INESPERADAS Tabla 8 . Estimación de las pérdidas. Pérdidas esperadas (E(S)) F. Interno F. Externo Laborales Clientes A. Fijos Tecnológicas Procesos Total 126413166.84 337163651.07 159261066.11 253247482.24 9960586.93 549686341.40 627098198.42 2062830493.01 6.13% 16.34% 7.72% 12.28% 0.48% 26.65% 30.40% Optar (Percentil 99.9%) 1183538087.01 3730908191.79 1488296075.30 1800151844.35 58823078.74 3224128439.40 2648495393.25 14134341109.86 8.37% 26.40% 10.53% 12.74% 0.42% 22.81% 18.74% Pérdidas inesperadas (OpVaR – E(S)) 1057124920.17 3393744540.72 1329035009.19 1546904362.11 48862491.82 2674442098.00 2021397194.84 12071510616.85 8.76% 28.11% 11.01% 12.81% 0.40% 22.15% 16.75% Fuente: Elaboración propia de los autores En la tabla 8, se puede observar que en la variable daños a activos fijos, se presenta la menor pérdida esperada, $ 9´960.586.93 y la mayor se presentara en procesos, $ 627´098.198.42, esto puede tener sentido en una entidad pequeña, en la cual los procesos pueden concentrar sus mayores pérdidas, debido a que en ellos se centra la creación de valor, basados en los productos, servicios y la información, esta última para manejo interno y externo. Otras pérdidas esperadas que pueden ser preocupantes, se presentan en fallos en tecnologías, las cuales pueden tener su origen en Hardware, Software, Telecomunicaciones, Interrupción / incidencias en el suministro de información. Si la entidad provisiona las pérdidas esperadas, Basilea acepta la carga de capital como la diferencia entre OpVaR y E(S), o sea, las correspondientes a la columna 3, que son las pérdidas inesperadas, en caso contrario, la entidad deberá tomar como carga de capital, el percentil 99.9% que corresponde a E(S) + U(S). Los valores del percentil 99.9%, serán los distintos umbrales para los cálculos de las pérdidas de baja frecuencia y alto impacto económico. 3.6 ESTIMACIÓN DE LAS PÉRDIDAS DE BAJA FRECUENCIA Y ALTA SEVERIDAD, APLICACIÓN DEL MÉTODO POT Y LDA. La variable que se pretende modelar es la pérdida económica S por las metodología LDA y POT, dicha variable se deriva de la combinación de la 44 frecuencia de los eventos y la severidad en riesgo operacional. Para este propósito, dado que el modelo de POT estudia el comportamiento de los extremos superiores o excesos por encima del umbral, es necesario aplicar a la variable aleatoria de estudio las dos metodologías, de manera que se obtengan resultados en los dos sentidos y se puedan comparar, los supuestos de estas dos metodologías son: • El método P.O.T.: Se basa en los siguientes supuestos: 9 Los excesos por encima de un umbral, constituyen una secuencia de variables aleatorias independientes e idénticamente distribuidas que ocurren según los momentos de un proceso de Poisson. 9 Las cuantías que exceden un umbral y el momento del tiempo en el que ocurren son independientes. • En el método LDA: En esencia el modelo LDA tal como se utiliza en el riesgo operativo o en ciencias actuariales asume los siguientes supuestos dentro de cada clase de riesgo: 9 N y X N la variable frecuencia es una variable aleatoria independiente de la variable aleatoria severidad. 9 X N las observaciones de tamaño de pérdidas (severidad) dentro de una misma clase se distribuyen idénticamente. 9 X N las observaciones de tamaño de pérdidas (severidad) dentro de una misma clase son independientes. Tal como se indicó anteriormente, la distribución generalizada de Pareto se ajusta aquellos valores que exceden un determinado umbral cuando ese umbral u toma un valor suficientemente grande. La dificultad radica en determinar ese umbral a partir del cual es posible ajustar la distribución Generalizada de Pareto. La selección de un umbral óptimo está sujeta al problema de elección entre varianza y sesgo, es decir, si se incrementa el número de observaciones para formar las series de máximos (disminuyendo el umbral), la estimación del índice de cola será más precisa (con menor varianza) pero sesgada, ya que algunas observaciones del centro de la distribución (no de la cola) se introducirán en la serie. Por otro lado, si se reduce el número de observaciones (con un umbral más elevado), se reduce el sesgo, pero la estimación del índice será más volátil al realizarse con un menor número de observaciones. Para ello, en primer lugar, se ha tomado como umbral el percentil 99.9% calculado en la distribución de pérdidas y definido por 45 Basilea, para contar con una muestra de 1.000 observaciones en cada uno de los siete eventos de riesgo. 3.6.1 Cálculo del índice de cola (ξ): estimador de Hill (1975). Este método se emplea para estimar el parámetro característico de la Distribución Generalizada de Pareto, teniendo en cuenta aquellos valores que exceden un determinado umbral. Según Beirlant J. et al. (1996), si una variable aleatoria sigue una distribución de Pareto con parámetro entonces: lim en ( ln u ) = lim E [ ln x − ln u / x > u ] = ξ u →∞ u →∞ Esta proposición indica que la función de exceso medio del logaritmo de la variable cuando el umbral es suficientemente alto, tiende al parámetro de la distribución. En la práctica, se utilizan los siguientes métodos: • Método 1: ⎛ 1 k −1 ⎞ 1 n ˆ ξ = ∑ θ k , donde θ k = ⎜ x ln para k = 2,..., n ( ) ∑ j ⎟ − ln ( xk ) , − n k =2 k 1 j = 1 ⎝ ⎠ • Método 2: ⎛1 k ⎞ 1 n ˆ ξ = ∑θi , donde θ k = ⎜ ∑ ln ( x j ) ⎟ − ln ( xk ) , para k = 1, 2,..., n n i =1 ⎝ k j =1 ⎠ Mason (1982) comprobó que éste es un estimador consistente del parámetro , para distribuciones de cola gruesa, aunque debe calcularse su sesgo, que además dependerá del número de estadísticos de orden superior empleados. 46 Tabla 9. Estimación de los parámetros de las colas de las distribuciones de pérdidas. F. Interno F. Externo Laborales Clientes A. Fijos Tecnológicas Procesos ξ Distribución K-S D Curtosis Simetría 0.1603 0.1588 0.1443 Exponencial Exponencial Exponencial Beta general Beta general Exponencial Beta general 0.022 0.032 0.032 22.84 12.08 15.06 3.06 2.47 2.64 0.012 8.29 1.89 0.016 7.52 1.77 0.019 10.76 2.17 0.014 6.93 1.74 0.1194 0.1287 0.1117 0.0890 Fuente: Elaboración propia del autor. Como se observa en la tabla 9, el incide de cola indica la presencia de colas gruesa, cabe anotar que las distribuciones de probabilidad que se encontraron en los datos de las colas, son la Exponencial y la Beta General (ver Anexo C). La curtosis de los datos muestra que las distribuciones de las colas son lectocurticas y simétricas positivas. En riesgo operacional, la lectocurtosis implica una alta probabilidad de ocurrencia de una pérdida económica, lo interesante para este caso, por encontrase que las pérdidas están por encima del percentil 99.9%, esto las ubicaría en las pérdidas de baja frecuencia pero de alto impacto económico. 3.6.1.1 Intervalo de confianza para el índice de cola. Los intervalos de confianza para el parámetro ξ en cada evento de riesgo, se presenta en la Tabla 10 el nivel de confianza utilizado es de 99.9%, como lo establece Basilea II, para el cual el valor de Z es de 3.09. Tabla 10. Estimación de los intervalos de confianza para el parámetro ξ. F. Interno F. Externo Laborales Clientes A. Fijos ξ 0.1603 0.1588 0.1443 0.1194 0.1287 Límite inferior 0.14603 0.14466 0.13145 0.10877 0.11724 47 Límite superior 0.17766 0.17600 0.15993 0.13233 0.14264 Tecnológicas Procesos ξ 0.1117 0.089 Límite inferior 0.10176 0.08108 Límite superior 0.12380 0.09864 Fuente: Elaboración propia del autor. Gráfico 9. Intervalo de confianza para el índice de cola. . Fuente: Elaboración propia del autor. En el gráfico se puede apreciar que le parámetro de forma en la cola, se mantiene en el intervalo definido, aunque parece que cuando disminuye de valor, el intervalo se cierra. 3.6.2 Estimación de las pérdidas por encima del percentil 99.9%, por los métodos LDA y POT. Como establece Basilea II en los criterios cuantitativos de solidez “dada la continua evolución de los métodos analíticos de tratamiento del riesgo operativo, el Comité no desea especificar qué método o qué supuestos sobre distribuciones de probabilidad se deben utilizar para estimar el riesgo operativos a efectos de capital regulador. Sin embargo, el banco deberá ser capaz de demostrar que su método identifica eventos situados en las colas de la distribución de probabilidad, generadores de pérdidas graves”. 48 A continuación se presentan las pérdidas calculadas por ambas metodologías, en la tabla 11: Tabla 11. Estimación de las pérdidas de baja frecuencia pero de alto impacto económico con los métodos LDA y POT. F. Interno F. Externo Laborales Clientes A. Fijos Tecnológicas Procesos Total LDA POT EL LDA-EL POT-EL 2859516157.20 1240567654.40 1432407234.21 1427108922.98 -191839579.81 9998388335.09 4002038295.46 4486976866.69 5511411468.40 -484938571.23 4056669688.52 1701909928.62 1759176279.39 2297493409.13 -57266350.77 3472758561.35 2317000825.08 2079065775.86 1393692785.49 237935049.22 173703292.14 112138128.16 106023632.12 67679660.02 6114496.03 6722020577.59 4266311377.78 3678781661.27 3043238916.32 587529716.51 4313335802.25 3846111665.17 2943651592.85 1369684209.40 902460072.32 31596392414.14 17486077874.67 16486083042.39 15110309371.75 999994832.28 Fuente: Elaboración propia del autor. Como se anotó, el modelo LDA incluye las pérdidas esperadas (EL) y las pérdidas no esperadas (UL) (ver numeral 3.4.1), para un nivel de confianza del 99.9% , como se aprecia en la tabla, en la columna dos, las pérdidas calculadas por el método LDA, son muy superiores a las calculadas por POT, se puede apreciar en fraude interno que la diferencia entre los dos métodos es de $1618´948.502.8, la diferencia más baja se presenta en la variable daños a activos fijos, cuya diferencia es de $61´565.163.99. Al comparar las pérdidas de las columnas dos y tres con las pérdidas esperadas (EL), se puede apreciar que la metodología POT no detecta pérdidas superiores a la media en la cola, en los tres primeros eventos de riesgo, pero el LDA detecta pérdidas superiores a la media en todos los eventos de riesgo. Ver gráfico 10. 49 Gráfico 10. Estimación de las pérdidas por encima del percentil 99.9%, por los métodos LDA y POT. Fuente: Elaboración propia del autor. En la tabla 12 se presentan las probabilidades de que dichas pérdidas excedan al umbral definido para cada evento de riesgo, parece que el modelo POT detecta mejor eventos de riesgo, dado que tiene en cuenta los parámetros de forma y escala de la distribución de la cola. Las pérdidas esperadas y las calculadas con la metodología POT presentan mayor probabilidad de ocurrencia que las calculadas con LDA. Tabla 12. Estimación de las probabilidades de ocurrencia de las pérdidas. F. Interno F. Externo Laborales Clientes A. Fijos Tecnológicas Procesos LDA 0.0000134099 0.0000068472 0.0000033977 0.0000100491 0.0000049084 0.0000038291 0.0000086033 POT 0.0008122606 0.0007258564 0.0004983397 0.0001812616 0.0000540116 0.0001292025 0.0000270220 EL 0.0004229455 0.0004249755 0.0004181680 0.0003811504 0.0000717631 0.0003864745 0.0003666146 Fuente: Elaboración propia del autor. Determinar la probabilidad de ocurrencia de estos eventos es importante para una entidad financiera, dado que las pérdidas extremas presentan volúmenes muy 50 altos, y esto puede afectar a la empresa en cuanto a su capital de trabajo, ya que, gran parte de éste se destina para cubrir pérdidas potenciales en un día normal de operaciones. 3.6.3 Comparación de las pérdidas esperadas en la distribución de la cola. Tabla 13. Estimación de las pérdidas esperadas en la cola. F. Interno F. Externo Laborales Clientes A. Fijos Tecnológicas Procesos EL 1432407234.21 4486976866.69 1759176279.39 2079065775.86 106023632.12 3678781661.27 2943651592.85 ES 1572667138.16 5033809293.52 2078652056.70 2696902686.09 137287565.21 4907653278.00 4271788922.91 Fuente: Elaboración propia del autor. En la tabla 13 se puede aprecia las pérdidas esperadas en la distribución de la cola, las EL se obtuvieron identificando la distribución de la cola y la ES se calcularon con el método definido anteriormente. Aunque para algunos eventos, las pérdidas presentan diferencias significativas, se puede apreciar que el cálculo de ES es ajustado a la distribución detectada en la cola, esto se puede apreciar en el gráfico 11. 51 Gráfico 11. Comparación de las pérdidas esperadas en la distribución de la cola Fuente: Elaboración propia del autor. 52 4. CONCLUSIONES • La ausencia de información es un fenómeno recurrente en la cuantificación del riesgo operacional. Cuando esto se presenta, una estrategia a seguir es la consulta a expertos, a partir de los cuales se obtendrá información que permite construir una solución inicial aproximada al problema. • Los datos de frecuencia y severidad muestran que no existe relación directa entre ambas variables, ya que, un evento de pérdida puede producir cualquier severidad y esta severidades varían en el tiempo cundo se aplican correctivos. • La frecuencia se debe modelar a partir de datos internos, ya que, esa variable está en función directa de los controles internos que son específicos a cada entidad. Con respecto a la severidad los datos internos pueden ser combinados con datos externos mediante un adecuado proceso de escalamiento; aunque se debe poner especial atención para no heredar errores de otras entidades. • Los modelos para la estimación del riesgo operacional tienen algunas características muy específicas: deben combinar variables aleatorias continuas y discretas; La distribución de pérdida agregada no corresponde a ningún modelo aleatorio predeterminado; y la relación entre variables del modelo es no lineal. De estas características se concluye la dificultad de estimación del riesgo operacional por métodos analíticos, lo que obliga a recurrir a métodos numéricos, entre los cuales el más flexible es la simulación Montecarlo. • Al comparar los métodos de medición del riesgo operacional, es claro que el modelo LDA presenta medidas mucho más elevadas que el POT para una entidad, pero en esto hay que ser consistentes con lo que sucede en el entorno de la entidad, porque dichos cálculos pueden llevar a estimaciones de capital carentes de sentido económico. • En la modelización de las pérdidas en la cola, el método POT presenta un mejor comportamiento para la entidad, estima pérdidas muy cercanas a la media de la distribución que subyace en la cola. • La modelización de las pérdidas que superan un umbral generan problemas de elección entre varianza y sesgo. Umbrales bajos suponen modelizaciones 53 con mayor número de observaciones y, por tanto, minimizan la varianza aunque pueden incrementar el sesgo por tomar como muestra valores no extremos. Umbrales elevados reducen el sesgo pero generan modelizaciones con mayor varianza. • La elección del umbral puede ser una de las prioridades a la hora de aplicar modelo de valor extremo, porque hay que determinar el valor del umbral que permite una modelización óptima. • Uno de los problemas que se vislumbra con el umbral, es que éste se puede convertir en una variable estocástica que puede condicionar los ajustes óptimos en la distribución de la cola. • Un mayor conocimiento de los riesgos de la entidad permitirá mejor calidad en el modelo de cuantificación, lo cual se debe traducir en una menor carga de capital, lo que dará una ventaja competitiva y una mejor administración del capital de trabajo. • Siempre será preferible para cada entidad disponer del modelo que genere la mínima pérdida operacional total, ya que los supervisores aceptarán este cálculo siempre que la entidad demuestre claramente que su modelo de cálculo satisface los criterios de solidez para modelos de medición avanzada, establecidos por Basilea II. 54 BIBLIOGRAFÍA CONNELL, P., DAVIES, M. Safety First - Scenario Analysis under Basel, II. April de 2006. p. 18. CONVERGENCIA INTERNACIONAL DE MEDIDAS Y NORMAS DE CAPITAL. Basilea, 2006 CRUZ, Marcelo, Modeling, Measuring and Hedging Operational Risk, John Wiley & Sons LTD, 2002. Reprinted August 2005. DA COSTA, N. Operational Risk with excel an VBA. John Wiley & Sons, New Jersey, 2004. p. 203.207. DE FONTNOUVELLE, Patrick; JORDAN, John; ROSENGREN, Eric, Implication of Alternative Operational Risk Modeling Techniques. February 2005. DEGEN, M. (With NESLEHOVA, J.) Quantitative Modeling of Operational Risk: Extremes and Dependence. PDF Talk at the Oberwolfach.Seminar Dependence and Tail Modelling with Applications to Finance, Insuracne, Teletraf _c and Climate, November 23, 2006. DUTTA, Kabir; PERRY, Jason. A Tale of Tails: An Empirical Analysis of Loss Distribution Models for Estimating Operational Risk Capital. FRB of Boston. En : Working Paper No. 06.13. Available at SSRN: http://ssrn.com/abstract=918880 EMBRECHTS P.; KLUPPELBERG C.; MIKOSCH, T. Modelling Extremal Events for insurance and Finance, Springer.Verlag, 1997. FERIA, José M.; JIMÉNEZ, Enrique J. El OpVaR como medida del Riesgo Operacional. En : Documento de trabajo, 2005. FISHER, R. A.; TIPPET, L. H. C. Proc. Cambridge Phil. Soc. 1928. FONTNOUVELLE, P., JORDAN, J., ROSENGREN, E. Implication of Alternative Operational Risk Modeling Techniques, 2005. p. 46. FRACHOT, A.; GEORGES, P.; RONCALLI, T. Loss Distribution Approach for Operational Risk. En : Documento de trabajo, Credit Lyonnais. 55 FRACHOT, A.; MOUDOULAUD, O.; RONCALLI, T. Loss Distribution Approach in Practice. En : Documento de trabajo, Credit Lyonnais, 2003. FRACHOT, A.; RONCALLI T,; SALOMON, E. Operational Risk, 2004. The Correlation Problem in FRANCO, Luis C.; MURILLO Juan G. et al. Riesgo Operacional: Reto actual de las entidades financieras. En : Revista Ingenierías - Universidad de Medellín, 2006. GARCÍA, A. Una aportación al análisis de solvencia: La teoría del valor extremo, En : Tesis Doctoral, Alcalá de Henares, 2006. p. 43-238. GIMÉNEZ, M. A. El tratamiento del riesgo operacional en Basilea II, Dirección General de Supervisión del Banco de España. GNEDENKO, B. V. Sur la Distribution Limite du Terme Maximum dúne Série Aléatoire. Annals of Mathematics, 1943. p. 44, 423.453. GONZÁLEZ, M. Análisis del Nuevo Acuerdo de Capitales de Basilea (BIS.II): Pyme.Risk, Country.Risk y Operational.Risk, 2004. p. 68. JOBST, A. A. Operational Risk - The Sting is Still in the Tail But the Poison Depends on the Dose. Journal of Operational Risk Vol. 2, No. 2, 2007. JUNJI, H.; HIROSHI A. Advancing Operational Risk Management Using Japanese Banking Experiences, Federal Reserve Bank of Chicago, 2002. LEIPPOLD, M.; VANINI, P. The Quanti cation of Operational Risk, 2003. p. 38. MCNEIL, A.; FREY, R.; EMBRECHTS. Quantitative Risk Menagement, New Jersey: Princeton University Press, 2005. p. 264-322. MIGNOLA, G.; UGOCCIONI, R., Tests of Extreme Value Theory applied to Operacional risk data; Operational Risk Management, 2002. MOSCADELLI, M. The modelling of operational risk: experience with the analysis of the data collected by the Basel Committee, 2004. p. 26.53. NESLEHOVA, J.; EMBRECHTS, P. And CHAVEZ.DEMOULIN, V. In_nite mean models and the LDA for operational risk. Journal of Operational Risk, 2006. 1(1), p. 3-25. PICKANDS, J. Statistical Inference Using Extreme Order Statistics. Annals of Statistics, 1975. p. 3, 119, 131. 56 REISS, R.D.; THOMAS, J. A. Statistical Analysis of Extreme Values. Basel: Birkhauser, 2001. SHEVCHENKO, P. Operational Risk Modelling and Quanti_cation, Invited talk for the Fourth International Symposium on Business and Industrial Statistics (ISBIS4), Palm Cove, Australia, Apr 2005. SHEVCHENKO, P. V.; DONNELLY, J. Validation of the Operational Risk LDA Model for Capital Allocation and AMA Accreditation under Basel II. CMIS Con_dential report prepared for Basel II programme ANZ bank. CMIS report number 05, 2005. p. 132. THE FOREIGN EXCHANGE COMMITTEE. Management of Risk Operational in Foreign Exchange, March 2003. TRIPP, M. H.; BRADLEY H. L.; DEVITT, R.; ORROS, G. C.; OVERTON G. L.; PRYOR L. M.; SHAW R. A. Quantifying operational Risk in General. Insurance Companies, 2004. p. 96. VELANDIA GONZÁLEZ, Oscar E. Director; MORENO G., Vladimir. Comportamiento asintótico del var como medida de valor extremo, de mayo de 2007. p. 2 - 21. CIBERGRAFÍA www.ssrn.com. [En línea]. Disponible en: http://ssrn.com/abstract=918880 57 ANEXOS 58 Anexo A. Distribuciones de pérdida para los eventos de riesgo. 59 60 61 62 Anexo B. Distribuciones de pérdida para los eventos de riesgo y gráficos QQ. fd para la pérdida por fraude interno con severidad weibull (X 1.E-10) 8 6 4 2 0 0 1 2 3 63 4 5 (X 1.E9)