sistema de medición cuantitativa del riesgo operacional en

Anuncio
UNIVERSIDAD PONTIFICIA COMILLAS
ESCUELA TÉCNICA SUPERIOR DE INGENIERÍA (ICAI)
INGENIERO EN INFORMÁTICA
PROYECTO FIN DE CARRERA
SISTEMA DE MEDICIÓN CUANTITATIVA
DEL RIESGO OPERACIONAL EN
ENTIDADES FINANCIERAS
AUTOR: JOSÉ IGNACIO GIMÉNEZ MARTÍNEZ
MADRID, JUNIO 2006
INDICE
1.
INTRODUCCIÓN............................................................................................................................... 4
1.1
1.2
INTRODUCCIÓN A BASILEA ............................................................................................................ 4
INTRODUCCIÓN A LA METODOLOGÍA: ........................................................................................... 12
2.
OBJETIVOS Y APORTACIÓN....................................................................................................... 15
3.
DESCRIPCIÓN DE LAS TECNOLOGÍAS..................................................................................... 28
3.1
TECNOLOGÍA UTILIZADA .................................................................................................... 28
3.1.1
BASE TEÓRICA Y PARADIGMAS ........................................................................................ 28
3.1.2
COMPONENTES UTILIZADOS ............................................................................................ 41
3.2
MODELO DE DOMINIO .......................................................................................................... 42
3.3
DIAGRAMA DE CASOS DE USO............................................................................................ 42
3.3.1
CÁLCULO DEL VaR CUANTITATIVO ................................................................................. 44
3.3.2
GESTIÓN DE USUARIOS..................................................................................................... 47
3.3.3
GESTIÓN DE LÍNEAS DE NEGOCIO .................................................................................. 50
3.3.4
GESTIÓN DE CATEGORÍAS DE RIESGO............................................................................ 53
3.4
OTROS REQUISITOS............................................................................................................... 56
3.4.1
REGLAS DE NEGOCIO........................................................................................................ 56
3.4.2
RESTRICCIONES ................................................................................................................. 56
3.4.3
REQUERIMIENTOS NO FUNCIONALES............................................................................. 60
3.5
DIAGRAMA DE ARQUITECTURA ......................................................................................... 61
3.5.1
DIAGRAMA DE PAQUETES ................................................................................................ 61
3.5.2
DESCRIPCIÓN ..................................................................................................................... 61
3.6
MODELO DINÁMICO DETALLADO...................................................................................... 64
3.6.1
DIAGRAMAS DE INTERACCIÓN......................................................................................... 64
3.7
MODELO ESTRUCTURAL DETALLADO .............................................................................. 86
3.7.1
SUBSISTEMA COM.MSSPAIN.SIMCRO.CORE.................................................................... 86
3.7.2
SUBSISTEMA COM.MSSPAIN.SIMCRO.IU.......................................................................... 87
3.7.3
SUBSISTEMA COM.MSSPAIN.SIMCRO.SERVICES............................................................. 90
3.7.4
SUBSISTEMA COM.MSSPAIN.SIMCRO.DAO...................................................................... 91
3.7.5
SUBSISTEMA COM.MSSPAIN.SIMCRO.DOMAIN............................................................... 92
3.8
DISEÑO DE LA BASE DE DATOS.......................................................................................... 93
3.9
DISEÑO DE LA APLICACIÓN ................................................................................................ 94
3.9.1
IDENTIFICACIÓN................................................................................................................ 94
3.9.2
PANTALLA PRINCIPAL ....................................................................................................... 95
3.9.3
INFORME DE EVENTOS DE PÉRDIDA .............................................................................. 96
3.9.4
SELECCIÓN AGRUPACIÓN FRECUENCIA ........................................................................ 97
3.9.5
DISTRIBUCIÓN DE FRECUENCIAS ................................................................................... 98
3.9.6
AJUSTE DE LA DISTRIBUCIÓN .......................................................................................... 99
3.9.7
AJUSTE DE LA DISTRIBUCIÓN II .................................................................................... 100
3.9.8
DISTRIBUCIÓN DE SEVERIDAD ...................................................................................... 101
3.9.9
QQ-PLOT............................................................................................................................ 102
3.9.10
FUNCIÓN DE EXCESO SOBRE LA MEDIA .................................................................. 103
3.9.11
PP – PLOT ..................................................................................................................... 104
3.9.12
PARAMETRIZACIÓN DE LA SIMULACIÓN DE MONTECARLO.................................. 105
3.9.13
INFORME VaR............................................................................................................... 106
2
3.9.14
3.9.15
4.
MÓDULO ADMINISTRACIÓN....................................................................................... 108
MÓDULO ADMINISTRACIÓN II ................................................................................... 109
METODOLOGÍA CUANTITATIVA ............................................................................................ 111
4.1
DESCRIPCIÓN GENERAL DEL MODELO ........................................................................... 111
4.2
MODELIZACIÓN DE LA FUNCIÓN DE LA DISTRIBUCIÓN DE FRECUENCIAS............. 115
4.2.1
“Regla sencilla” ................................................................................................................. 115
4.2.2
Histograma ......................................................................................................................... 118
4.2.3
Test de bondad de ajuste CHI- CUADRADO....................................................................... 119
4.3
MODELIZACIÓN DE LA FUNCIÓN DE LA DISTRIBUCIÓN DE LOS IMPACTOS
(SEVERIDAD)...................................................................................................................................... 126
4.3.1
Método de eliminación de distribuciones candidatas: Gráficos “QQ-plot” ......................... 126
4.3.2
Test de bondad de ajuste: Chi-Cuadrado, Kolmogorov-Smirnov y Cramer-Von Mises......... 131
4.3.3
Gráfico “FUNCIÓN EXCESO SOBRE LA MEDIA” ........................................................... 145
4.3.4
Gráficos – “PP-plot” (utilizando los parámetros estimados) ............................................... 148
4.4
OBTENCIÓN DE LA DISTRIBUCIÓN DE PÉRDIDAS OPERACIONALES PARA CADA
EVENTO / LÍNEA DE NEGOCIO. CÁLCULO DEL VALOR EN RIESGO OPERACIONAL ............. 152
4.5
VERIFICACIÓN DE RESULTADOS Y BACK TESTING DEL MODELO ............................ 157
5.
CONCLUSIONES........................................................................................................................... 165
6.
ESTUDIO ECONÓMICO Y PLANIFICACIÓN........................................................................... 167
6.1
6.2
7.
ESTUDIO ECONÓMICO........................................................................................................ 167
PLANIFICACIÓN ................................................................................................................... 169
BIBLIOGRAFÍA............................................................................................................................. 172
ANEXO 1: TABLA DE KOLMOGOROV-SMIRNOV.......................................................................... 173
ANEXO 2: TABLA DE CRAMER-VON MISES ................................................................................... 176
ANEXO 3: SIMPLIFICACIÓN DEL ESTADÍSTICO DE KOLMOGOROV-SMIRNOV................... 177
ANEXO 4: EXPRESIÓN ANALÍTICA DE LA FUNCIÓN EXCESO SOBRE LA MEDIA ................ 178
ANEXO 5: SIMULACIONES DE LA FUNCIÓN EXCESO SOBRE LA MEDIA ............................... 180
ANEXO 6: FUNCIÓN DE DENSIDAD DE LA PÉRDIDA OPERACIONAL....................................... 183
3
1. Introducción
1.1 Introducción a Basilea
En un seminario realizado en Washington entre el 1 y 3 de Junio de 2004 fue
manifestado que: “Basilea II no es un complemento a la gestión de riesgos, es un marco
regulatorio e incentiva la gestión de riesgos”. Suena importante. Más aún cuando quienes
coincidieron en la afirmación fueron Alan Greenspan (FED) y Jaime Caruana (BIS).
¿Qué es Basilea II?:
Cuando mencionamos a Basilea II nos referimos - en una suerte de simplificación
– al Nuevo Acuerdo de Capital emitido por el Comité de Basilea que debe comenzar a
aplicarse a fines de 2006 y 2007 oficialmente y en prueba a partir de 2006 por los Bancos
que indiquen los Bancos Centrales que conforman el Comité de Basilea.
Este comité tiene sede en la ciudad Suiza del mismo nombre y se reúne en el
edificio del Bank for International Settlements (BIS). El Comité de Basilea es también
conocido como el “Banco Central de los Bancos Centrales” porque está integrado por
representantes de los Bancos Centrales de más de 100 países miembros. Debe aclararse
que Basilea emite recomendaciones que orientan pero que no son mandatorias para los
Supervisores Bancarios (léase bancos centrales) de cada país.
Ya sabemos que es Basilea, ahora ¿por qué II?
Su antecesor, el Acuerdo de Capitales de Basilea (Basilea I), fue pronunciado en
1988 y entró en vigencia en 1992. En 15 años, este Comité no ha emitido sólo dos
recomendaciones sino cientos. En efecto, es ésta una muestra más de la importancia que
el mundo asigna al Nuevo Acuerdo al denominarlo Basilea II.
4
Basilea I, en su momento surgió como una exigencia de los países más
industrializados para aumentar la solvencia de los sistemas financieros. Su rotundo éxito
se debió a la simplicidad de su aplicación y a que permitió uniformar criterios en una
industria que internacionalmente se encontraba con criterios muy dispares.
Entre los problemas más destacados que presenta es que su propia simpleza no
permite una adecuada identificación de los verdaderos riesgos. No olvidemos que ha sido
en la década de los ’90 en la que se han producido avances notables en la medición y en
la gestión de riesgos (modelos no contemplados por Basilea I).
Como resultado de esto paulatinamente se ha venido incrementando el desfase
entre los negocios bancarios cada vez mayores y el capital regulado que permite cumplir
con los objetivos de solvencia y eficiencia que persiguen justamente las regulaciones.
El reconocimiento de esta situación sumado a los nuevos modelos y tendencias
internacionales en materia de riesgo y “corporate governance” han sido los disparadores
materiales e intelectuales del Nuevo Acuerdo de Basilea.
Entre los objetivos que persigue Basilea II se destacan:
- Perfeccionar el acuerdo anterior;
- Promover la seguridad y la salud de los sistemas financieros;
- Fomentar la competencia en igualdad de condiciones;
- Definición de capitales mínimos regulados en base a criterios más
sensibles al riesgo;
- Mejora en “performance” de los procesos bancarios: eficiencia;
- Mejorar la supervisión bancaria (a través de los Bancos Centrales);
- Transparencia en las informaciones.
5
Para lograr los objetivos mencionados Basilea II se basa en tres “pilares”:
Los Pilares del Nuevo Acuerdo:
- Pilar I. Requerimiento mínimo de capital: persigue una adecuada
gestión de riesgos por parte de las entidades bancarias fomentando el
desarrollo de modelos de gestión de riesgos propietarios.
- Pilar II: Proceso de examen supervisor: busca un doble objetivo de aumentar
la fiscalización por parte de los Bancos Centrales a la vez de hacer más
profesional la administración bancaria.
- Pilar III: Disciplina de mercado: se pretende uniformar la gestión de
informaciones a brindar al mercado asegurando su corrección y transparencia.
Pilar I Requerimientos mínimos de Capital:
Sin entrar en cuestiones demasiado técnicas, mencionaremos que Basilea II no
presenta modificaciones en cuanto a regulaciones de capital para riesgo de mercado
entendiendo que está adecuadamente cubierto con el Acuerdo anterior. Sí presenta
importantes modificaciones para el riesgo de crédito e incorpora la gestión de riesgos
operacionales.
Adelantemos que, tanto en los requerimientos de capital regulatorio para riesgo
crediticio como para riesgo operacional Basilea propone tres métodos para su
implementación. Dichos métodos contienen diferente nivel de complejidad y requisitos. Los
más simples son menos costosos en su implementación inicial pero requieren una mayor
integración de capital porque los ponderadores de riesgos son más elevados. Los más
desarrollados, además de la disminución en el capital total regulado, al tener mayores
requisitos para su implementación se verán beneficiados en el mediano y largo plazo al
obtener mayor eficiencia operativa mediante una mejor gestión de riesgos.
El siguiente cuadro demuestra lo mencionado anteriormente:
6
Requerimiento de capital para Riesgo Operacional:
En este caso en el método básico la previsión por riesgo operativo implica
simplemente calcular el 15% del Resultado bruto de la entidad.
Una variante tampoco demasiado buena es la del método estándar (el intermedio
del gráfico) que fija porcentajes a aplicar al resultado bruto por línea de negocio según el
siguiente detalle:
Líneas de Negocio
Valor
Finanzas corporativas
18%
Negociación y ventas
18%
Banca minorista
12%
Banca comercial
15%
Liquidaciones y pagos
18%
Servicios de agencias
15%
Administración de activos
12%
7
Intermediación minorista
12%
Por último, aparece el método avanzado (AMA) con las principales innovaciones
y mejoras. En este caso el capital regulatorio surge como resultado de aplicar sistemas de
gestión de riesgos propietarios suficientemente desarrollados cuyas estimaciones de
pérdidas deberán considerar fallos internos y externos, madurez del ambiente de control
interno, análisis de escenarios, entorno de negocios y, con un interválo de confianza del
99.9%, calcular las estimaciones como sumatoria de las pérdidas esperadas y no
esperadas por la organización.
Los Supervisores bancarios exigirán a las entidades para poder adoptar este
método, además de la solidez del modelo a aplicar, el cumplimiento de requisitos
cualitativos de admisión, tales como:
- Consejo Directivo y los principales ejecutivos involucrados en la gestión de
riesgos;
- La existencia de función de gestión de riesgo operacional independiente,
responsable por la implementación de la estructura de riesgo operacional de la
institución;
- Integración del sistema de medición de riesgo en la rutina diaria de
gestión del riesgo;
- Proceso de reporte regular a la gerencia de la unidad de negocios, ejecutivos y
Consejo Directivo;
- Existencia de sistemas para documentar, monitorear y gestionar los riesgos;
- Validación del sistema de medición de riesgo por los organismos reguladores y
por la auditoría externa.
Pilar II: Proceso de examen supervisor:
Mediante 4 principios se exige a los Bancos contar con un proceso permanente
que permita evaluar la suficiencia de capital total y se pretende de los Supervisores
Bancarios la facultad de fiscalización, de exigencia de medidas correctivas cuando fuere
necesario y en su caso intervenir las entidades que no cumplan con los requerimientos de
capital.
8
Pilar III: Disciplina de mercado:
Establece la necesidad de contar con una política formal de divulgación de las
informaciones que permitirá a los usuarios evaluar aspectos básicos referidos a:
- El ámbito de aplicación;
- Las exposiciones al riesgo;
- Los procesos de evaluación del riesgo;
- La suficiencia de capital de la institución
- La entidad debe contar con un proceso de evaluación permanente de dicha
política.
Quién debe aplicar Basilea II:
La letra pequeña del acuerdo obliga a los Bancos que son internacionalmente
activos. Previendo distintos niveles de consolidación de riesgos para todas las inversiones
del conglomerado financiero, ya sea en Bancos locales, Sociedades de valores, otras
entidades financieras controladas, compañías de seguros, y hasta participaciones en
sociedades comerciales.
Entonces surge la siguiente pregunta: ¿una organización que no pertenece al grupo
anterior no debería preocuparse por Basilea II?
Europa ya ha decidido implantar el Nuevo Acuerdo en todos los Bancos
independientemente que sean internacionales o no, en principio para uniformar el sistema
financiero y permitir a nivel macroeconómico contar con un sistema solvente y que
contribuya al desarrollo económico de los países y, a nivel microeconómico, evitar que
aquéllos Bancos que no lo implanten y permanezcan en Basilea I pierdan competitividad
respecto de aquéllos que implanten Basilea II.
9
Este razonamiento es totalmente trasladable a América Latina que sufrirá
posibles consecuencias de fragmentación de su sistema financiero. Es decir, si el Banco
Central de un país no obliga a implantar Basilea II puede ocurrir que los Bancos de
capitales nacionales continúen con Basilea I y que los de capitales extranjeros lo implanten
o no en función de las exigencias de sus casas matrices.
Por otra parte, se entiende que las entidades que utilicen modelos de gestión de
riesgos antiguo no tendrán la misma calificación crediticia que las de Basilea II con lo cual
su acceso al crédito se verá dificultado y con la necesidad de pagar sobretasas
compensatorias por trasladar al prestador un mayor nivel de riesgo.
¿Basilea II afectará sólo a los Bancos?
Es indudable la influencia que tiene el sistema financiero en la actividad
económica y en las posibilidades de desarrollo de un país. En general los países
importadores de capital pueden verse perjudicados en la medida que los tomadores no
puedan demostrar que tienen una adecuada gestión de riesgos.
Ahora bien, si analizamos la cuestión desde el punto de vista de cada
organización en particular, es fácil percibir que para los nuevos modelos de gestión de
riesgos, Basilea II presenta un incentivo muy importante y la vez una base conceptual para
comenzar a gestionar riesgos de una forma más adecuada.
Es claro que los riesgos de mercado y de crédito no hacen al negocio principal de
una explotación industrial o comercial sin embargo estas podrían aprovechar muchas
lecciones sobre riesgo operacional. Todas ellas sufren (o pueden sufrir) fraudes internos o
externos, fallos tecnológicas, productos mal diseñados, errores en la gestión de clientes,
siniestros, errores de procesamiento, etc.
Por otra parte, presentar un mejor perfil de riesgo por parte de una Empresa
puede ser importante a la hora de negociar condiciones con los Bancos. Explicamos que
Basilea II propone calificar los riesgos de crédito en base a su tasa de recuperación por lo
que los Bancos que lo apliquen van a preferir los clientes sanos en cuanto a riesgo ya que
un cliente que presente problemas de pago va a afectar su tasa de recuperación. Sin duda
la mayor demanda de clientes con buen perfil de riesgos va a generar una competencia a
nivel de pricing.
10
Conclusiones:
El Nuevo Acuerdo de Capitales presenta notorias ventajas respecto del anterior
permitiendo una mejor relación entre capital económico y regulatorio.
Esto se logrará ya que impulsa una gestión de riesgos moderna que incluye:
- La utilización de sistemas integrados de gestión de riesgos de crédito, mercado
y operacional;
- La utilización de indicadores que permitan gestión de riesgos en el día a día;
- Herramientas de estimación de pérdidas futuras;
- El compromiso de la Alta Dirección con la gestión de Riesgos; y
- La figura del “Risk Officer” exigiendo una oficina de riesgos totalmente
independiente de la gestión operativa.
Por otra parte, se alinea también con los modelos más desarrollados de
“Corporate Governance” en su tercer pilar al fomentar la uniformidad de informes
financieros y su transparencia.
La mejora en la gestión de riesgos y una mayor transparencia en las
informaciones son importantes para la sociedad en su conjunto porque ayudan a mejorar
la salud y la solvencia del sistema financiero. A la vez el incentivo a mejorar los niveles de
eficiencia en general hace a dicho sistema más competitivo y con un mejor nivel de
servicio para los usuarios.
Finalmente no debemos dejar de lado la oportunidad de alinearnos con los
avances en materia de gestión de riesgos ya que es una materia que obviamente traerá
beneficios directos e indirectos a la profesión.
11
1.2 Introducción a la metodología:
Una vez se ha explicado brevemente qué es Basilea II pasamos a definir el
objetivo de este proyecto que no es otro que proponer una metodología para la evaluación
1
cuantitativa del Riesgo Operacional basada en los modelos avanzados propuestos por el
2
Comité de Basilea en el Nuevo Acuerdo de Capital (en adelante, Basilea II o BIS II).
La metodología aquí propuesta presenta un enfoque global en cuanto a que
integra (según varias alternativas) las metodologías cuantitativas con información obtenida
a partir de técnicas cualitativas.
El documento se estructura en los siguientes apartados:
•
Descripción de una metodología de evaluación cuantitativa del Riesgo Operacional
(cálculo del VaR Operacional). Esta metodología se fundamenta en el Modelo de
distribución de pérdidas (LDA) propuesto por Basilea II. Incluye este apartado una
descripción de las pruebas de validación y back testing a realizar.
La metodología anterior parte de la modelización de una distribución de pérdidas
operacionales a partir del ajuste de distribuciones de frecuencias y severidades a unos
determinados datos. Estos datos se obtienen a partir de los datos recogidos en una
base de datos de eventos operacionales3.
1
Los modelos avanzados definidos por Basilea son los métodos más ajustados al riesgo. El consumo de
capital calculado a través de ellos será el resultado del sistema interno de medición del riesgo de la
Entidad y de la base de datos de pérdidas operacionales asociada.
2
En enero de 2001, el Comité publicó un primer documento de consulta en el que se desarrollaba el
Nuevo Acuerdo de Capital. Asimismo, en febrero de 2003 publicó las “Sound Practices for Management
and Supervision of Operational Risk”. El Acuerdo de Capital definitivo se publicó a lo largo de 2004 y su
aplicación efectiva está prevista para fin de 2006.
3
La modelización estadística a partir de los datos de eventos operacionales tiene como premisa
fundamental el disponer de una base de datos de eventos de pérdidas íntegra y con un volumen suficiente
de datos para que las cifras de riesgo obtenidas sean fiables. Para el caso de pérdidas de baja frecuencia
y muy alto impacto se podrá optar por la utilización de datos procedentes de bases de datos externas. Ello
requerirá la aplicación de metodologías que permitan el escalado de dichos datos al tamaño de la Entidad.
12
•
Descripción de los mecanismos de integración de las metodologías cualitativas con las
4
cuantitativas . Estos mecanismos, si bien introducen un componente subjetivo en el
resultado final, presentan las siguientes ventajas:
Permiten cubrir y ofrecer una primera estimación cuantitativa en aquellas áreas
5
donde no existen datos de pérdidas .
Facilitan el escalado de las bases de datos históricas, al recoger la visión actual de
los sistemas operativos de la entidad.
Permiten realizar comparaciones con los resultados obtenidos de las metodologías
cuantitativas “puras” y elaborar un plan de acción para su refinamiento.
La integración de ambas metodologías permite obtener una visión más realista de la
situación de cada área al considerar todas las fuentes de información existentes en la
entidad (datos de pérdida y conocimiento de los responsables).
En relación al VaR Operacional y las metodologías a aplicar es relevante
destacar los siguientes aspectos:
•
Observar que en el caso de Riesgo Operacional, y por contraposición a Riesgo de
6
Crédito, el VaR calculado computará de forma íntegra a efectos de capital regulatorio .
4
Basilea II establece que las Entidades podrán utilizar ajustes cualitativos para asignar el capital por
riesgo operacional y recoger de esta forma el posible empeoramiento o mejora futuro de la exposición y
entorno de control actuales. Estos ajustes deberán ser realizados de una manera rigurosa y siguiendo
unos criterios razonables.
5
En principio la aproximación cualitativa por si sola no podrá utilizarse para el cálculo de consumo de
capital de la Entidad.
6
El VaR equivale a la suma de las Pérdidas Esperadas (coste del negocio o valor medio de las pérdidas)
e Inesperadas (volatilidad de las pérdidas). En el caso de Riesgo de Crédito las pérdidas esperadas se
encuentran cubiertas con las provisiones contables realizadas y las pérdidas inesperadas con el capital
regulatorio. Sin embargo, en el caso de Riesgo Operacional, para el que a priori no existen este tipo de
provisionamientos, la legislación establece que “las entidades deben calcular los requerimientos de capital
como la suma de pérdidas esperadas e inesperadas (VaR), a no ser que puedan demostrar que la pérdida
esperada se recoge adecuadamente en su práctica de negocio” (“Working document of the Commission
Services on Capital Requirements for Credit Institutions and Investment Firms”, Comisión Europea, (futuro
CAD 3)).
13
•
Mientras una Entidad no pueda demostrar disponer de un sistema íntegro que permita
calcular estimaciones válidas de correlaciones, el VaR total de la Entidad se calculará
mediante la agregación de los VaR calculados a nivel de cada línea de negocio y
tipología de evento.
•
Las entidades podrán reconocer, a efectos de requerimientos de capital, la mitigación
del riesgo derivada de un contrato de seguros que sea contratado a tales efectos.
Dichos contratos deberán cumplir los requerimientos determinados por el supervisor.
Finalmente, mencionar que la metodología propuesta en este documento sigue
las pautas establecidas por los documentos de trabajo emitidos por el Comité de
Supervisión Bancaria de Basilea.
14
2. OBJETIVOS Y APORTACIÓN
La gestión de riesgos es la función principal de las entidades financieras, en torno
a la cual se deben estructurar el resto de funciones. Ello implica que todas las áreas deben
estar involucradas directa o indirectamente en la función de la gestión de riesgos,
definiéndose la estructura organizativa en sintonía con esta filosofía.
El proceso parte de la Alta Dirección de la Entidad, que aprueba el marco de
actuación de riesgos definiendo los tipos de riesgos que desea, los mecanismos de control
y el modelo de evaluación de las diferentes actividades.
Las unidades involucradas en el desarrollo del negocio identifican nuevas
oportunidades de negocio y deben optimizar el perfil de rentabilidad ajustada al riesgo.
Esta actividad se lleva a cabo por los tomadores del riesgo, realizando un análisis y gestión
de la cartera, de forma que permita adecuar el desarrollo del negocio al perfil de riesgo
deseado.
15
Finalmente, se produce el proceso de la Función de Riesgos, que consiste en la
medición diaria de los riesgos incurridos por las unidades tomadoras, el control de los
niveles de riesgo y la evaluación del desempeño de cada uno de ellos.
Las fases y objetivos de la Función de Riesgos son:
Una vez introducido el concepto de gestión del riesgo, distinguiremos entre tres
tipos de riesgo, extendiéndonos más en el que será objetivo de este proyecto.
RIESGO DE MERCADO
El riesgo de mercado es el riesgo de pérdida al que se halla expuesta la entidad
como consecuencia de movimientos adversos en los precios de las variables del mercado.
Atendiendo a la naturaleza de las variables del mercado, se pueden distinguir los
siguientes riesgos de mercado:
-
Riesgo de precio
Riesgo de volatilidad
Riesgo de correlación
Riesgo de liquidez de mercado
16
RIESGO DE CRÉDITO
El riesgo de crédito es el riesgo derivado de la incapacidad y/o intención de la
contraparte de no cumplir con sus obligaciones contractuales. Se pueden distinguir las
siguientes acepciones del riesgo de crédito:
-
Riesgo de contraparte
Riesgo de entrega
RIESGO OPERACIONAL
La definición de riesgo operacional varía desde visiones amplias (todo aquello
que no pueda ser considerado como riesgo de crédito ni riesgo de mercado en sentido
estricto), hasta visiones más restrictivas (riesgo de pérdidas resultado de procesos internos
inadecuados y/o erróneos, personas , sistemas o sucesos externos).
En este sentido, no estarían contemplados:
-
Riesgos de negocio y estratégicos, es decir, errores en la propia toma de
decisiones estratégicas, por parte de la entidad.
Riesgos reputacionales o de imagen ante clientes o medio de comunicación.
Riesgos sistémicos o del entorno. Por ejemplo, incremento general de los
precios de los seguros ante un atentado terrorista en otra entidad.
En cambio, sí estarían contemplados los riesgos legales y regulatorios, es decir, las
posibles sanciones y multas derivadas de no cumplir, en un momento determinado, el
marco regulatorio establecido.
En cualquier caso, las pérdidas operacionales pueden ser directas (quebranto
financiero), indirectas (pérdida de reputación, clientela, etc.) y de coste de oportunidad
(falta de capacidad para acometer negocios).
17
Con anterioridad a iniciar un proceso de definición e implantación de un sistema
de riesgo operacional, se deben establecer claramente los objetivos en relación con el
mismo. Estos objetivos pueden ser cualitativos, cuantitativos o mixtos.
Objetivos cualitativos:
Detectar los riesgos (actuales y potenciales) para tomar decisiones acerca
de los que no desea mantener y desea reducir.
Detectar aquellos riesgos poco frecuentes pero que podrían suponer
grandes pérdidas.
Mejorar continuamente los procesos y sistemas de control para minimizar los
riesgos en los que se puede incurrir.
Objetivos cuantitativos:
Crear conciencia en la organización sobre el nivel y naturaleza de los
eventos de pérdida operacional.
Asignar fondos para la cobertura del mismo.
Medir correctamente la eficiencia de las líneas de negocio incorporando este
riesgo en el cálculo del RAROC.
Incorporar este coste en el pricing de los productos.
18
Objetivos Mixtos:
Evaluar la conveniencia y eficiencia de implantar procedimientos de control
interno.
Evaluar la eficacia de las medidas reductoras de riesgo.
RIESGO OPERACIONAL Y BASILEA II
El Banco Internacional de Pagos, en adelante BIS, fue creado en 1930 y se
constituye como la principal institución para cooperación entre Bancos Centrales
internacionales.
Integra el Comité de Basilea (creado en 1974, del que forman parte los principales
supervisores bancarios, Banco de España desde 2001).
Sus acuerdos y recomendaciones son seguidas por las Entidades Reguladoras de
los países que participan el en Comité, pero también de la mayor parte del resto del
mundo desarrollado.
Su objetivo es formular prácticas estándares en la supervisión bancaria a la espera
de que las autoridades nacionales den los pases necesarios para la puesta en práctica de
dichos estándares (Directivas, leyes, circulares, etc.), ya que en principio no posee ninguna
autoridad formal y sus conclusiones no tienen fuerza legal por sí solas.
Más de 100 países han adoptado el Acuerdo de capital de 1998 (BIS I), que supuso
un gran avance en su momento, pues suponía calcular el consumo de capital por riesgo de
crédito y por riesgo de mercado de la cartea con unas mismas reglas de juego.
En Junio de 1999, el Comité de Basilea (BIS) publicó un primer documento de
consulta sobre el Nuevo Acuerdo de Capital, en el que por primera vez hace referencia al
riesgo operacional.
19
En Enero 2001, el Comité publicó un nuevo documento de consulta en el que se
desarrolla el Nuevo Acuerdo de Capital, y que supuso la introducción de requerimientos de
capital por Riesgo Operacional.
Finalmente, en Junio de 2004, el Comité ha publicado el documento definitivo del
Nuevo Acuerdo de Capital recogiendo dichos requerimientos.
En Julio de 2004 la Comisión Europea ha publicado una propuesta de
modificaciones a sus Directivas (llamado CAD III) que traspone los requerimientos de
capital por Riesgo Operacional de BIS II que, en su versión definitiva, ha sido aprobada por
el Parlamento Europeo el 28 de Septiembre de 2005.
El nuevo acuerdo de Capital (Basilea II) tiene por objeto establecer las directivas
sobre cómo las entidades deben medir su Capital Regulatorio. ¿Qué se entiende por
Capital Regulatorio? Son aquellos recursos de los que debe disponer toda Entidad para
absorber las posibles pérdidas a las que se puede enfrentar su negocio. Dichas pérdidas
pueden ser:
-
Pérdidas esperadas: Son un coste del negocio, reflejan lo que realmente se
espera perder en promedio (valor medio de las pérdidas).
Pérdidas inesperadas: Son una medida de riesgo (volatilidad de pérdidas) que
surge como consecuencia de que las pérdidas reales pueden ser superiores a
las esperadas.
El capital regulatorio son los recursos que legalmente debe mantener una Entidad
para cubrir las pérdidas inesperadas, entendiendo que las pérdidas esperadas se
encuentran cubiertas con las provisiones contables realizadas. No obstante, en el caso de
Riesgo Operacional, para el que a priori no existen este tipo de provisionamientos, las
entidades calcularían los requerimientos de capital como la suma de pérdidas esperadas e
inesperadas (VaR).
20
Tradicionalmente, la gestión del riesgo desarrollada por las entidades se ha
centrado en medir y controlar los riesgos de mercado y de crédito.
Sin embargo, la cada vez más compleja actividad de las entidades financieras y,
fundamentalmente, las experiencias pasadas han reorientado su tratamiento tradicional
(mitigarlo a través de la implantación de procedimientos de control) hacia una gestión
integral del Riesgo Operacional, incluyendo la utilización de metodologías cuantitativas,
anteriormente no utilizadas, de cara a su medición.
En este sentido, las principales entidades financieras españolas han creado una
función de Riesgo Operacional, con responsabilidades que abarcan la medición y el control
del riesgo operacional en un sentido amplio (con creciente involucración de la Alta
Dirección en su identificación).
El desarrollo de esta área en las diferentes entidades debería ir acompañado de la
implantación de un sistema de medición y gestión de riesgo operacional.
21
Objetivos del proyecto
Una de las metodologías que establece el Nuevo Acuerdo de Capital (Basilea II)
para la medición del Riesgo Operacional es la medición a partir de datos internos de
eventos de pérdidas operacionales que se producen en las Entidades. Para ello es
necesario abordar la construcción de una Base de Datos de pérdidas operacionales
(fraudes, multas o sanciones, el valor de los bienes que se destruyen, etc.).
La construcción de dicha base de datos permite:
-
Conocer las pérdidas actuales en las que la Entidad va incurriendo día a día y
los motivos por los que se producen (Fallos en los sistemas, Error en los
procesos, etc.).
Estimar las pérdidas potenciales o inesperadas, a partir de la aplicación de
técnicas estadísticas.
De acuerdo con lo anterior, el Objetivo del Proyecto es:
22
El objetivo del proyecto es desarrollar una aplicación informática que permita
cuantificar el riesgo operacional en las entidades financieras7.
El proyecto de desarrollo de un sistema de medición cuantitativa del riesgo
operacional ha constado de cinco fases.
1.- Diseño de un modelo de datos que sustentara toda la información necesaria
para los cálculos y la información de gestión / reporting a generar.
2.- Desarrollo e implementación de los algoritmos matemático - estadísticos sobre
los que se sustentan los cálculos cuantitativos del Riesgo Operacional. Dada la
importancia de éstos se ha separado en un paquete propio llamado corelib.
Gracias a corelib, paquete matemático – estadístico anteriormente mencionado,
la aplicación es capaz de modelizar tanto en frecuencia como en severidad los datos que
se albergan en la base de datos (eventos de pérdida), dando como resultado un set de
distribuciones estadísticas con sus parámetros, tests y gráficos poder tomar una decisión
correcta acerca de qué distribución ajusta mejor los datos tanto en frecuencia como en
severidad.
3.- Desarrollo e implementación de un simulador de Monte Carlo. El simulador
realizado es un simulador genérico, es decir, válido para un par cualquiera de
distribuciones de frecuencia y severidad. No es necesario que las distribuciones sean unas
de las preseleccionadas, el sistema está concebido de tal manera que el propio usuario
pueda crear su propia distribución. Esta funcionalidad está pensada para dar soporte a
una necesidad que ha surgido del trabajo con la metodología cuantitativa, necesidad que
recibe el nombre de mixtura de distribuciones consistente en crear una nueva distribución
estadística que se ajusta mejor a los datos a partir de dos o más distribuciones
predefinidas.
7
Pérdidas que pueden producirse en una entidad financiera como consecuencia de fallos de
procesos, sistemas, personas o eventos externos
23
4.- Implementación de todos los cálculos y algoritmos desarrollados en una
aplicación web. Se necesitaba una herramienta que fuera capaz de calcular e informar de
los resultados de una manera distribuida. La solución a ese requisito fue una aplicación
J2EE que llamamos simcro. La funcionalidad de cálculo se agrupó en un paquete llamado
corelib, mencionado en el punto 2.-, de manera que quedó aislada de la capa de
presentación y del acceso a base de datos. Al utilizar la plataforma J2EE, la aplicación web
simcro accede a ese paquete y distribuye los resultados del cálculo.
5.- Incorporación de nuevas tecnologías a la aplicación J2EE desarrollada. Nos
referimos a tecnologías tales como:
Mondrian, herramienta OLAP que nos va a proporcionar informes con capacidad
de consulta multidimensional y dinámica.
JCharts, herramienta que nos va a proporcionar todo el soporte gráfico de la
aplicación, es decir, nos va a permitir visualizar los gráficos de ajuste a los datos de la
distribución estadística, gráficos PP – Plot, QQ – Plot y función de exceso sobre la media.
JSci, paquete de distribuciones estadísticas que nos facilita los cálculos de
parámetros y resultados derivados de las distribuciones.
Metodología de trabajo y recursos a utilizar
24
Dentro del marco descrito por la imagen que podemos ver sobre estas líneas,
arquitectura general de una aplicación de cálculo integral del riesgo operacional,
definiremos la arquitectura sobre la que trabajaremos en este proyecto, subconjunto de la
arquitectura que vemos.
25
La tecnología que utilizaremos será J2EE, por lo que el lenguaje de programación
será Java.
En la siguiente imagen podemos ver la descripción del proceso mediante el cual
enviamos peticiones a un servidor y éste nos contesta con la información pedida, esto es
la parte marcada en azul y denominada Contenedor Web. Esto se realizará mediante el
paradigma de request/response del protocolo HTTP.
26
La base de datos contra la que realizaremos todas nuestras será Oracle 9i.
Utilizaremos para llevar a cabo todos los objetivos el paradigma MVC2, Model
View Controller con Jakarta Struts. En el que podemos identificar a la base de datos como
Model, los JSPs como View y El servlet como Controller.
27
3. DESCRIPCIÓN DE LAS TECNOLOGÍAS
En este apartado se intentarán describir tanto las tecnologías utilizadas como la
estructura y funcionamiento interno de la aplicación.
3.1 TECNOLOGÍA UTILIZADA
En este punto se especificará todo lo necesario para haber realizado la aplicación
de medición de riesgo operacional. En primer lugar se explicarán brevemente algunos
conceptos teóricos y paradigmas en los que nos hemos basado en la realización del
proyecto, tras esta explicación se describirán desde las versiones de los componentes
utilizados hasta cómo hacer que éstos funcionen correctamente.
3.1.1
BASE TEÓRICA Y PARADIGMAS
3.1.1.1 TECNOLOGÍA J2EE
28
3.1.1.2 SERVLETS
PARADIGMA REQUEST/RESPONSE
29
CICLO DE VIDA DE UN SERVLET
30
31
ESTRUCTURA
DESPLIEGUE
32
3.1.1.3 JSP
CICLO DE VIDA DE UNA PÁGINA JSP
3.1.1.4 JDBC
33
DRIVERS JDBC
UTILIZACIÓN JDBC
ESTABLECIMIENTO DE LA CONEXIÓN
34
En nuestro caso estableceremos la conexión por medio de un DataSource,
concepto que pasamos a explicar:
DATASOURCE
Una vez que definimos el DataSource obtenemos un objeto de tipo conexión
mediante el cual podemos realizar consultas a base de datos y una vez que hayamos
terminado de realizar estas consultas debemos cerrar.
3.1.1.5 PATRONES DE DISEÑO
35
PATRÓN LAYERS
NIVELES DE UN SISTEMA J2EE
36
MVC2 O WEB MVC
MODELO
-
Representa los datos de la aplicación
-
Expone servicios genéricos para consultar y actualizar el estado
-
Notifica de cambios de estado
-
Solicita el estado del modelo
-
Presenta el modelo
-
Envía las acciones del usuario
VISTA
CONTROLADOR
-
Define el comportamiento de la aplicación
-
Mapea acciones del usuario a actualizaciones del modelo
-
Selecciona la siguiente vista
37
FRONT CONTROLLER
SESSIÓN FAÇADE
38
DATA ACCESS OBJECT (DAO)
39
3.1.1.6 STRUTS
- Framework para crear aplicaciones Web.
- Basado en MVC2
- Software abierto.
- Albergado por Apache Software Foundation
- http://struts.apache.org
- Versión 1.0 en junio 2001
- 30 desarrolladores
- Arquitecto principal: Craig R. McClanahan
40
3.1.2
COMPONENTES UTILIZADOS
A continuación enumeraremos los componentes software que se han necesitado
para la realización de este proyecto.
- Java SDK 1.4.2
- Entorno de desarrollo Eclipse 3.1
- Herramienta Ant para construcción automática
- Servidor J2EE 1.3 (Servidor de referencia API J2EE 1.3.1)
- Oracle 9i
- Struts
- Mondrian (Herramienta de informes multidimensionales)
- JCharts 0.7.5 (Servidor de gráficos e imágenes)
- JSci (Paquete de funciones matemáticas)
- JaMa (Paquete de tratamiento de matrices)
41
3.2 MODELO DE DOMINIO
3.3 DIAGRAMA DE CASOS DE USO
ACTORES:
Usuario
CASOS DE USO:
Usuario:
-
Calcular VaR.
-
Gestionar Usuarios.
-
Gestionar Líneas de Negocio.
-
Consultar Categorías de Riesgo.
42
Caso de uso: Calcular VaR
El usuario de la aplicación, siguiendo los pasos pertinentes, va a calcular el VaR
en las condiciones definidas por él mismo.
Caso de uso: Gestionar Usuarios
El usuario va a poder dar de alta, baja, modificar y realizar listados de los
usuarios existentes.
Caso de uso: Gestionar Líneas de Negocio
El usuario va a poder dar de alta, baja, modificar y realizar listados de las líneas
de negocio existentes.
Caso de uso: Gestionar Categorías de Riesgo
El usuario va a poder dar de alta, baja, modificar y realizar listados de las
categorías de riesgo existentes.
43
3.3.1
CÁLCULO DEL VaR CUANTITATIVO
ACTOR PRIMARIO: Usuario
ACTORES SECUNDARIOS: No hay
TRIGGER: El usuario desea realizar un lanzamiento del VaR
PRECONDICIONES: No hay
ESCENARIO PRIMARIO:
1. El usuario se identifica mediante su login y contraseña.
2. El usuario introduce los criterios de filtrado de los eventos de pérdida.
3. El sistema propone unas distribuciones de frecuencia y severidad.
4. El usuario selecciona la distribución de frecuencia.
5. El usuario selecciona la distribución de severidad.
6. El usuario introduce los datos de parametrización del simulador de Monte
Carlo y lanza el cálculo del VaR.
7. El sistema devuelve los resultados para la simulación lanzada.
44
EXTENSIONES:
1 a. El usuario se ha identificado incorrectamente.
1. El sistema muestra un aviso de que el login o la contraseña son
incorrectos.
2. Se vuelve al paso 1.
4 a. El usuario selecciona ver el gráfico de ajuste de la distribución a los datos.
1. El usuario pulsa el botón diseñado para este uso.
2.
El sistema muestra el gráfico de la distribución seleccionada.
5 a. El usuario selecciona ver el gráfico PP-Plot.
1. El usuario pulsa el botón diseñado para este uso.
2. El sistema muestra el gráfico de la distribución seleccionada.
5 b. El usuario selecciona ver el gráfico QQ-Plot.
1. El usuario pulsa el botón diseñado para este uso.
2. El sistema muestra el gráfico de la distribución seleccionada.
5 c. El usuario selecciona ver el gráfico de Función de Exceso sobre la Media.
1. El usuario pulsa el botón diseñado para este uso.
2. El sistema muestra el gráfico de la distribución seleccionada.
45
DESCRIPCIÓN DE DATOS:
Identificador de datos 1: Criterios de filtrado.
Slicer.
Nota: Slicer es una variable de tipo String que nos devuelve el informe
de eventos de pérdida según vamos filtrando por unos criterios u otros.
Identificador de datos 2: Datos de la parametrización.
Número de veces a realizar.
Número de escenarios.
Alfa.
OTROS REQUERIMIENTOS:
Reglas de negocio: No aplican
46
3.3.2
GESTIÓN DE USUARIOS
ACTOR PRIMARIO: Usuario
ACTORES SECUNDARIOS: No hay
TRIGGER: El usuario desea realizar una operación que tiene como objeto un usuario
PRECONDICIONES: No hay
ESCENARIO PRIMARIO:
1. El usuario se identifica mediante su login y contraseña.
2. El usuario selecciona gestión de usuarios.
3. El usuario realiza las operaciones que desee.
47
EXTENSIONES:
1 a. El usuario se ha identificado incorrectamente.
1. El sistema muestra un aviso de que el login o la contraseña son
incorrectos.
3. Se vuelve al paso 1.
3 a. El usuario selecciona dar de alta un nuevo usuario.
1. El usuario rellena los datos del usuario.
2. El sistema da de alta al usuario definido anteriormente.
3 b. El usuario selecciona modificar un usuario.
1. El usuario selecciona consulta de usuarios y dentro de esta opción, pulsa
el botón definido para la modificación.
2.
El usuario cambia los datos del usuario que desee del usuario en
cuestión.
3. El sistema modifica los datos solicitados por el usuario.
3 c. El usuario selecciona eliminar un usuario.
1. El usuario selecciona consulta de usuarios y dentro de esta opción, pulsa
el botón definido para la eliminación.
2. El sistema elimina el usuario solicitado por el usuario.
48
DESCRIPCIÓN DE DATOS:
Identificador de datos 1: Datos de un usuario.
Nombre.
Contraseña.
Rol.
OTROS REQUERIMIENTOS:
Reglas de negocio: No aplican
49
3.3.3
GESTIÓN DE LÍNEAS DE NEGOCIO
ACTOR PRIMARIO: Usuario
ACTORES SECUNDARIOS: No hay
TRIGGER: El usuario desea realizar una operación que tiene como objeto una línea de
negocio
PRECONDICIONES: No hay
ESCENARIO PRIMARIO:
4. El usuario se identifica mediante su login y contraseña.
5. El usuario selecciona gestión de líneas de negocio.
6. El usuario realiza las operaciones que desee.
50
EXTENSIONES:
1 a. El usuario se ha identificado incorrectamente.
2. El sistema muestra un aviso de que el login o la contraseña son
incorrectos.
4. Se vuelve al paso 1.
3 a. El usuario selecciona dar de alta una nueva línea de negocio.
1. El usuario rellena los datos de la línea de negocio.
2. El sistema da de alta la línea de negocio definido anteriormente.
3 b. El usuario selecciona modificar una línea de negocio.
1. El usuario selecciona consulta de líneas de negocio y dentro de esta
opción, pulsa el botón definido para la modificación.
2.
El usuario cambia los datos de la línea de negocio que desee de la
línea de negocio en cuestión.
3. El sistema modifica los datos solicitados por el usuario.
3 c. El usuario selecciona eliminar una línea de negocio.
1. El usuario selecciona consulta de líneas de negocio y dentro de esta
opción, pulsa el botón definido para la eliminación.
2. El sistema elimina la línea de negocio solicitada por el usuario.
51
DESCRIPCIÓN DE DATOS:
Identificador de datos 1: Datos de una línea de negocio.
Descripción.
Nivel.
OTROS REQUERIMIENTOS:
Reglas de negocio: No aplican
52
3.3.4
GESTIÓN DE CATEGORÍAS DE RIESGO
ACTOR PRIMARIO: Usuario
ACTORES SECUNDARIOS: No hay
TRIGGER: El usuario desea realizar una operación que tiene como objeto una categoría
de riesgo
PRECONDICIONES: No hay
ESCENARIO PRIMARIO:
7. El usuario se identifica mediante su login y contraseña.
8. El usuario selecciona gestión de categorías de riesgo.
9. El usuario realiza las operaciones que desee.
53
EXTENSIONES:
1 a. El usuario se ha identificado incorrectamente.
3. El sistema muestra un aviso de que el login o la contraseña son
incorrectos.
5. Se vuelve al paso 1.
3 a. El usuario selecciona dar de alta una nueva categoría de riesgo.
1. El usuario rellena los datos de la categoría de riesgo.
2. El sistema da de alta la categoría de riesgo definido anteriormente.
3 b. El usuario selecciona modificar una categoría de riesgo.
1. El usuario selecciona consulta de categorías de riesgo y dentro de esta
opción, pulsa el botón definido para la modificación.
2.
El usuario cambia los datos de la categoría de riesgo que desee del
usuario en ocasión.
3. El sistema modifica los datos solicitados por el usuario.
3 c. El usuario selecciona eliminar una categoría de riesgo.
1. El usuario selecciona consulta de categorías de riesgo y dentro de esta
opción, pulsa el botón definido para la eliminación.
2. El sistema elimina la categoría de riesgo solicitado por el usuario.
54
DESCRIPCIÓN DE DATOS:
Identificador de datos 1: Datos de una categoría de riesgo.
Descripción.
Nivel.
OTROS REQUERIMIENTOS:
Reglas de negocio: No aplican
55
3.4 OTROS REQUISITOS
3.4.1
REGLAS DE NEGOCIO
No aplican.
3.4.2
RESTRICCIONES
La base de datos del sistema será Oracle 9i.
El motor de servlets y el servidor Web será J2EE 1.3.1.
El lenguaje de programación utilizado para la aplicación Web será Java. Los
fuentes deberan ser compatibles, sin errores, y ejecutables con la versión 1.4.2 del JDK de
SUN.
Se utilizarán servlets (versión 2.4) y páginas JSP (versión 2.0) para el nivel de
presentación de la aplicación.
Se utilizará el framework transaccional JOTM versión 2.0.10.
Se utilizará el framework MVC Structs 1.2.
Se utilizará la herramienta Ant para construcción automática..
Se utilizará Mondrian (Herramienta de informes multidimensionales).
Se utilizará JCharts 0.7.5 (Servidor de gráficos e imágenes).
Se utilizará JSci (Paquete de funciones matemáticas).
Se utilizará JaMa (Paquete de tratamiento de matrices).
56
El sistema debe estar acabado a finales de Mayo.
El proyecto se va a dividir en cuatro partes:
-
Diseño de la herramienta.
-
Desarrollo Matemático.
-
Desarrollo de la aplicación J2EE.
-
Integración con otras tecnologías.
-
Documentación
Diseño de la herramienta
Fecha: Navidades; consta de:
Modelo de dominio: uno o varios diagramas de clase mostrando entidades del
dominio, sus propiedades y relaciones relevantes. Un glosario ordenado describiendo cada
una de las clases del modelo.
Modelo de casos de uso: uno o varios diagramas que muestren los casos de uso
y actores del sistema. Una descripción detallada de los casos de uso incluidos en la
iteración.
Otros requisitos: Reglas de negocio, restricciones y requerimientos no
funcionales.
57
Diagrama de la arquitectura: un diagrama de paquetes mostrando los
subsistemas en que se descompone el sistema y las dependencias entre ellos. Una
descripción del contenido y la función de cada uno de los subsistemas.
Modelo dinámico detallado: Diagrama de iteración (secuencia o colaboración)
para cada caso de uso incluido en la iteración. Al menos uno para cada escenario primario.
Al menos un diagrama de actividad, este puede ser para un caso de uso completo o bien
algún algoritmo complejo. Al menos un diagrama de estado para alguna clase compleja.
Modelo estructural detallado: Diagramas de clase detallados de cada uno de los
paquetes o subsistemas de la arquitectura, consistentes con el modelo de dominio
detallado.
Diseño de la base de datos: diseño lógico de a base de datos: tablas, campos y
sus tipos, claves primarias y extranjeras.
Desarrollo matemático
Fecha: Navidades; consta de:
Corelib: Conjunto de clases matemáticas que darán todo el soporte de cálculo a
la herramienta.
Set de pruebas con Matlab: Las clases que se dedican a la realización de
cálculos, clases que acabamos de describir, serán probadas en su totalidad con el
desarrollo de unas pequeñas clases de prueba en Matlab. El objetivo de estas pruebas es
comprobar que nuestro paquete matemático es fiable.
58
Desarrollo de la aplicación J2EE
Fecha: Semana Santa; consta de:
Simcro: Siglas que representan: “Sistema de Medición Cuantitativa de Riesgo
Operacional”. Así es como se ha nombrado a esta aplicación. El desarrollo de la aplicación
no es otra cosa que implementar todo el diseño de la aplicación realizado en la primera
fase de este proyecto.
Integración con otras tecnologías
Fecha: 31 Mayo 2006; consta de:
En esta última fase se ha integrado Simcro con Corelib y con otras tecnologías ya
mencionadas como Mondrian y JCharts principalmente. Como resultado obtenemos una
herramienta de medición de cálculo operacional con unos informes multidimensionales de
los eventos de pérdida que conforman el lanzamiento del cálculo del VaR y apoyo gráfico
para la toma de decisión que hay que realizar al modelizar la pérdida en cuanto a
frecuencia y a severidad.
Documentación
Fecha: A lo largo de todo el proyecto; consta de:
Desarrollo de la memoria del proyecto.
59
3.4.3
REQUERIMIENTOS NO FUNCIONALES
El sistema deberá tener una disponibilidad e 24 x 7.
Un usuario experto en el dominio deberá dominar el sistema en una semana tras
haber recibido un curso básico de formación.
60
3.5 DIAGRAMA DE ARQUITECTURA
3.5.1
DIAGRAMA DE PAQUETES
3.5.2
DESCRIPCIÓN
Se muestra el diagrama de paquetes del sistema. El sistema se divide en cinco
subsistemas:
-
subsistema com.msspain.simcro.core
-
subsistema com.msspain.simcro.iu
-
subsistema com.msspain.simcro.services
-
subsistema com.msspain.simcro.dao
-
subsistema com.msspain.simcro.domain
61
En el subsistema com.msspain.simcro.core están las clases comunes a todo el
proyecto tales como algunas constantes de la aplicación, una clase de excepciones
y la clase ChartServlet que es la que define todo el comportamiento del servidor de
imágenes de la aplicación.
En el subsistema com.msspain.simcro.iu están todos los paquetes que se
encargan de interactuar con el usuario, se han creado tres paquetes:
-
paquete com.msspain.simcro.iu.actions
-
paquete com.msspain.simcro.iu.forms
-
paquete com.msspain.simcro.iu.graphics
El paquete actions recoge todas las acciones que realiza el usuario en nuestra
aplicación, sabe como tratarlas y las encamina a los servicios necesarios para
obtener los resultados deseados por el usuario.
El paquete forms incluye lo que se denominan form-bean, que son clases que
únicamente están formadas por la definición de atributos con sus getters y setteres,
típicamente se utilizan para facilitar la interacción con el usuario.
Por último, el paquete graphics está compuesto por las clases necesarias para
poder visualizar los gráficos solicitados.
Este subsistema depende del subsistema com.msspain.simcro.services y del
subsistema com.msspain.simcro.domain.
En el subsistema com.msspain.simcro.services se han agrupado todos los
servicios que se le ofrecen al subsistema com.msspain.simcro.iu, en ellos están la
lógica del sistema. Este subsistema servicios depende del subsistema
com.msspain.simcro.dao y del subsistema com.msspain.simcro.domain.
62
En el subsistema com.msspain.simcro.dao se han agrupado todos los
paquetes que se encargan de interactuar con la base de datos. Este subsistema
depende del subsistema com.msspain.simcro.domain.
En el subsistema com.msspain.simcro.domain se encuentran todos los
paquetes que se encargan de los objetos que existen en el sistema. En él se
apoyan el resto de subsistemas.
63
3.6 MODELO DINÁMICO DETALLADO
3.6.1
DIAGRAMAS DE INTERACCIÓN
3.6.1.1 CASO DE USO: CÁLCULO DEL VaR
3.6.1.1.1 FILTRADO DE EVENTOS DE PÉRDIDA
64
3.6.1.1.2 PARAMETRIZAR FRECUENCIA
65
3.6.1.1.3 VER HISTOGRAMA DE FRECUENCIAS
66
3.6.1.1.4 SELECCIONAR DISTRIBUCIÓN DE FRECUENCIA
67
3.6.1.1.5 VER GRÁFICO PP – PLOT
68
3.6.1.1.6 VER GRÁFICO QQ – PLOT
69
3.6.1.1.7 VER GRÁFICO FUNCIÓN DE EXCESO SOBRE LA MEDIA
70
3.6.1.1.8 SELECCIONAR DISTRIBUCIÓN DE SEVERIDAD
71
3.6.1.1.9 LANZAR SIMULACIÓN
72
3.6.1.1.10 OBTENER RESULTADOS
73
3.6.1.2 CASO DE USO: GESTIONAR USUARIOS
3.6.1.2.1 DAR DE ALTA UN USUARIO
74
3.6.1.2.2 MODIFICAR UN USUARIO
75
3.6.1.2.3 ELIMINAR UN USUARIO
76
3.6.1.2.4 CONSULTAR UN USUARIO
77
3.6.1.3 CASO DE USO: GESTIONAR LÍNEAS DE NEGOCIO
3.6.1.3.1 DAR DE ALTA UNA LÍNEA DE NEGOCIO
78
3.6.1.3.2 MODIFICAR UNA LÍNEA DE NEGOCIO
79
3.6.1.3.3 ELIMINAR UNA LÍNEA DE NEGOCIO
80
3.6.1.3.4 CONSULTAR UNA LÍNEA DE NEGOCIO
81
3.6.1.4 CASO DE USO: GESTIONAR CATEGORÍAS DE RIESGO
3.6.1.4.1 DAR DE ALTA UNA CATEGORÍA DE RIESGO
82
3.6.1.4.2 MODIFICAR UNA CATEGORÍA DE RIESGO
83
3.6.1.4.3 ELIMINAR UNA CATEGORÍA DE RIESGO
84
3.6.1.4.4 CONSULTAR UNA CATEGORÍA DE RIESGO
85
3.7 MODELO ESTRUCTURAL DETALLADO
3.7.1
SUBSISTEMA COM.MSSPAIN.SIMCRO.CORE
86
3.7.2
SUBSISTEMA COM.MSSPAIN.SIMCRO.IU
87
88
89
3.7.3
SUBSISTEMA COM.MSSPAIN.SIMCRO.SERVICES
90
3.7.4
SUBSISTEMA COM.MSSPAIN.SIMCRO.DAO
91
3.7.5
SUBSISTEMA COM.MSSPAIN.SIMCRO.DOMAIN
92
3.8 DISEÑO DE LA BASE DE DATOS
93
3.9 DISEÑO DE LA APLICACIÓN
3.9.1
IDENTIFICACIÓN
94
3.9.2
PANTALLA PRINCIPAL
95
3.9.3
INFORME DE EVENTOS DE PÉRDIDA
96
3.9.4
SELECCIÓN AGRUPACIÓN FRECUENCIA
97
3.9.5
DISTRIBUCIÓN DE FRECUENCIAS
98
3.9.6
AJUSTE DE LA DISTRIBUCIÓN
99
3.9.7
AJUSTE DE LA DISTRIBUCIÓN II
100
3.9.8
DISTRIBUCIÓN DE SEVERIDAD
101
3.9.9
QQ-PLOT
102
3.9.10 FUNCIÓN DE EXCESO SOBRE LA MEDIA
103
3.9.11 PP – PLOT
104
3.9.12 PARAMETRIZACIÓN DE LA SIMULACIÓN DE MONTECARLO
105
3.9.13 INFORME VaR
106
107
3.9.14 MÓDULO ADMINISTRACIÓN
108
3.9.15 MÓDULO ADMINISTRACIÓN II
109
110
4. METODOLOGÍA CUANTITATIVA
La metodología cuantitativa genera, a partir de la información recogida de la base
de datos de pérdidas operacionales una cifra de VaR Operacional (en adelante, VaR
Operacional Cuantitativo)
4.1 DESCRIPCIÓN GENERAL DEL MODELO
El modelo de distribución de pérdidas (LDA) requiere de la modelización de la
función de distribución de las pérdidas operacionales para cada tipología de evento y
línea de negocio, durante un determinado período de tiempo, de acuerdo con los datos
históricos de pérdidas operacionales recogidas en la base de datos de pérdidas.
Esta modelización se realizará, en un principio, y suponiendo que existiera
información histórica suficiente, sobre tipología de eventos de Nivel 3 (o Nivel 2 en su
caso) de Basilea. Si no existieran datos suficientes a este Nivel, la modelización se
8
realizaría a niveles superiores , documentando debidamente esta decisión.
En algunos casos la Entidad podrá realizar hipótesis sobre la distribución a
utilizar para ajustar la frecuencia y severidad de determinadas tipologías de riesgos (por
ejemplo, una distribución de Poisson en la frecuencia y una distribución Lognormal en la
severidad). Esto podrá ser de especial aplicación en los casos en que exista un problema
de datos.
Realizar la modelización para cada tipología de evento de Nivel 3 (o niveles
superiores en su caso) conlleva cubrir las siguientes etapas:
1. Modelización de la función de distribución de la frecuencia de ocurrencia de los
eventos operacionales.
2. Modelización de la función de distribución de los impactos o pérdidas por evento
(severidades).
3. Obtención de la distribución agregada de pérdidas operacionales para dicho
evento / línea de negocio. Cálculo del Valor en Riesgo Operacional, Pérdidas
esperadas e inesperadas.
8
Este caso podría suponer trabajar con una población de eventos de muy distinta naturaleza lo cual
dificultaría el ajuste de la distribución de pérdidas operacionales.
111
Núm ero de
ev en to s
Núm e ro de
ev en tos
Probabilidad
in
Im
p
div ac
id t o
ua
l
in
Im
p
d iv a ct
id o
ua
l
Probabilidad
Probabilidad
Probabilidad
Núm e ro de
ev en tos
P é rd id a s o p e r a c io n a le s
La necesidad de modelizar de forma separada las distribuciones de probabilidad
de las frecuencias de ocurrencia de los eventos y las pérdidas de los mismos se
fundamenta en que determinadas acciones o inacciones operacionales no suelen afectar a
ambos procesos por igual.
112
Calculados los VaRs Operacionales para cada tipología de evento a un
determinado Nivel (Nivel 3 por ejemplo), el paso a los niveles superiores se llevará a cabo
mediante la suma de los VaRs de los correspondientes eventos de nivel inferior que lo
compongan, obteniendo así el Valor en Riesgo Operacional para cada evento / línea de
negocio.
Recogida y
agrupación de
información
Inputs de la
metodología
•Identificación de
eventos de pérdida
•Recogida en BBDD
corporativa
•Agrupación de
eventos a Nivel III
Modelización de
frecuencias y
severidades
•Ajuste de la
distribución de
frecuencia (Poisson,
Binomial Negativa, etc.)
•Ajuste de la
distribución de
severidades (Weibull,
Lognormal, etc.)
Cálculo de
Value-at-Risk
•Cálculo de VaR a Nivel III
mediante convolución de
distribuciones utilizando
simulaciones de Monte
Carlo.
•El VaR a Nivel II y I se
obtiene sumando los VaR de
Nivel III
BBDD externa
Ajuste distribución Frecuencia
Ajuste distribución Severidad
+
+
VaR
Nivel I
Base de
datos de
Eventos
VaR
Nivel II
Entradas manuales
VaR Nivel
III
Transaccional
III
Eventos
Basilea II
I
II
III
Modelización y
cálculo de VaR
Eventos
Entidad
II
Basilea II
I
Entidad
Entidad
Basilea II
Registros contables
I
II
III
Eventos
* Diagrama realizado para el supuesto de modelización a Nivel 3.
Una vez realizada la modelización para cada evento / línea de negocio, la
Entidad podría aplicar coeficientes de correlación entre los diversos eventos de pérdida y
entre estos y los diferentes factores de Riesgo Operacional a efectos del cálculo del VaR
final.
Para ello debería disponer de datos suficientes y de un modelo de cálculo que le
9
permita su cálculo. En caso contrario el cálculo del capital regulatorio se obtendrá por
mera agregación de los Valores en Riesgo calculados para cada tipología de evento y
línea de negocio (sin considerar, por tanto, el efecto de la correlación).
9
Existen algunos estudios cuantitativos sobre como modelizar dichas correlaciones, si bien se encuentran
todavía en una fase muy preliminar.
113
En los siguientes apartados desarrollamos cada una de las etapas mencionadas
para la obtención del Riesgo Operacional para cada evento / línea de negocio a un
determinado nivel de riesgo.
114
4.2 MODELIZACIÓN DE LA FUNCIÓN DE LA DISTRIBUCIÓN DE
FRECUENCIAS
Las funciones de distribución de probabilidad que mejor modelizan la frecuencia
de ocurrencia de los eventos operacionales son las distribuciones discretas de Poisson,
Binomial y Binomial Negativa, ya que estas distribuciones estadísticas se utilizan para
modelizar experimentos cuyo resultado es, precisamente, la ocurrencia o no de un
determinado evento (en nuestro caso la ocurrencia o no ocurrencia de un evento de riesgo
operacional determinado).
Para seleccionar, de estas 3 distribuciones, la que mejor se ajuste a los datos
disponibles proponemos 3 métodos de análisis complementarios:
“REGLA SENCILLA”
HISTOGRAMA
TEST DE BONDAD DE AJUSTE CHI-CUADRADO.
4.2.1
“Regla sencilla”
Se calcula la media y la varianza de los datos de frecuencia disponibles en el
período de observación. Cuando la varianza y la media son similares, se optaría por la
distribución de Poisson, cuando la media es claramente inferior a la varianza, por la
Binomial Negativa (significa que existe riesgo de grandes pérdidas frente a la media) y, en
el caso contrario, por la distribución Binomial.
Esta regla sencilla es utilizada, más que como regla de selección de
distribuciones, como regla de eliminación. Por ejemplo, el hecho de que la media sea
menor que la varianza elimina la posibilidad de elección de la Binomial ya que no es
posible calcular los parámetros de ésta en dicha situación.
La Binomial queda unívocamente determinada mediante los parámetros n y p, siendo n
un número Natural mayor que 0 y p un número Real entre 0 y 1. El estimador de los momentos para
ellos es:
p estimado =
media − var ianza
media
nestimado =
media 2
media − var ianza
Sólo si la media es mayor que la varianza estos parámetros tomarán valores en sus respectivos
rangos de definición, pues en caso contrario p<0 y n<0.
115
Lo mismo ocurre con la Binomial Negativa, en el caso en que la media sea mayor
que la varianza.
La Binomial Negativa queda unívocamente determinada mediante los parámetros N y p,
siendo N un número Natural mayor que 0 y p un número Real entre 0 y 1. El estimador de los
momentos para ellos es:
p estimado =
N estimado
media
var ianza
media 2
=
var ianza − media
Sólo si la media es menor que la varianza estos parámetros tomarán valores en sus
respectivos rangos de definición, pues en otro caso p>1 y N<0.
Sin embargo, eliminar o no la distribución de Poisson lleva consigo definir el
“significado de similitud” de la media y la varianza. Es decir: ¿qué distancia máxima ha de
existir entre media y varianza para que puedan considerarse similares?
La Poisson queda unívocamente determinada por un único parámetro (λ) que coincide
con la media y la varianza. El estimador de los momentos y de máxima verosimilitud del parámetro
es la media.
λestunado = media
Por este motivo la decisión de eliminar o no la distribución de Poisson no se
tomará en esta fase sino a partir del estudio de los histogramas y los test de ajuste como
se explica a continuación.
EJEMPLO:
Se obtiene de la base de datos de eventos operacionales, el número de fraudes diarios
que se producen en la Red de sucursales de una entidad bancaria.
116
Se calcula la media y la varianza:
MEDIA: Número medio de fraudes que se producen al día.
n
MEDIA =
∑x
i
i =1
n
donde:
n: número de días en los que se han observado la cantidad de fraudes ocurridos.
x i: número de fraudes observados en el día i-ésimo.
117
En el ejemplo la media es 4.8788 y se puede calcular con la función “AVERAGE” de EXCEL.
VARIANZA: Medida del grado de dispersión de los datos en relación con la media.
2
n
VARIANZA =
∑ (x
i =1
i
− media )
n
en la cual n y xi se definen de la misma manera que el apartado anterior.
En el ejemplo la varianza es 10.8338 y se puede calcular con la función “VAR” de EXCEL.
CONCLUSIÓN EJEMPLO:
En este caso la media es menor que la varianza con lo cual la distribución Binomial queda
descartada. La elección ahora está entre la Poisson y la Binomial Negativa. Dado que el número de
observaciones no es muy grande, descartar la Poisson sería arriesgado. Se dejará a los
histogramas y test de bondad de ajuste esta decisión.
Fichero de EXCEL de referencia: frecuencia.xls / método sencillo.
4.2.2
Histograma
El histograma es una representación gráfica de las frecuencias observadas de
distintos sucesos. Cada suceso se representa en el histograma mediante una barra cuya
altura representa la frecuencia de dicho suceso.
En el caso que nos ocupa, los sucesos son el número de eventos de un riesgo
operacional concreto, que se producen en un intervalo de tiempo definido a priori.
Construyendo una gráfica que incluya el histograma y varios ajustes teóricos se
podrá tener una visión gráfica de qué distribución proporciona el mejor ajuste.
EJEMPLO:
Una vez descartada la Binomial, la elección está entre la Poisson y la Binomial negativa.
El gráfico muestra la relación entre frecuencias observadas y esperadas mediante el
histograma y los ajustes Poisson y Binomial Negativa, lo que permite comparar qué distribución se
ajusta mejor a los datos.
118
8
7
6
frec.observadas
5
frec.teórica
Poisson
4
3
frec.teórica
Binomial
Negativa
2
1
0
0
1
2
3
4
5
6
7
8
9 10 11 12 13
CONCLUSIÓN EJEMPLO:
Se observa que la distribución Binomial Negativa ajusta mejor los datos que la Poisson.
Por tanto la conclusión del histograma es que el mejor ajuste es el que proporciona la Binomial
Negativa.
Fichero de EXCEL de referencia: frecuencia.xls / gráficos
4.2.3
Test de bondad de ajuste CHI- CUADRADO
Es el test estadístico más comúnmente utilizado para medir la bondad del
ajuste de los datos empíricos a la distribución teórica, en el caso de distribuciones
discretas.
Este test consiste en medir las distancias entre las frecuencias observadas y las
frecuencias esperadas o ajustadas por la distribución teórica. Si estas distancias son
pequeñas se concluirá que la población se ajusta a la distribución elegida y en caso
contrario se rechazará esa distribución.
El estadístico en el que se fundamenta el test es el Estadístico de Pearson (Tk),
cuya distribución es conocida.
119
Este estadístico para ser calculado precisa dividir el recorrido de la distribución
poblacional en k conjuntos disjuntos A 1, A 2,...., A k y se define del siguiente modo:
k
(Oi − ei )2
i =1
ei
Tk = ∑
k
(Oi − npi 0 )2
i =1
np i 0
=∑
donde:
pi0: probabilidad de cada A i bajo la distribución teórica elegida que denotaremos por F0.
n: tamaño de la población.
Oi: número de observaciones que forman Ai
ei: número de observaciones esperadas para Ai, esto es: ei = n*pi0.
Por tanto, Tk acumula las diferencias al cuadrado entre el número de observaciones en
cada conjunto Ai y el número de ellas que cabría esperar según F0, ponderándolas mediante 1/ei
(puesto que no parece lógico dar la misma importancia a una diferencia de 2, por ejemplo, donde
eran de esperar 20 observaciones que donde había que esperar solamente 5).
2
La distribución del estadístico Tk, cuando n tiende a infinito, converge a una χ k-1-p
siendo k el número de grupos realizados y p el número de parámetros que ha sido necesario
2
estimar para definir la distribución teórica. Luego una χ k-1-p proporciona una distribución
aproximada para Tk. Ahora bien, para que la aproximación sea aceptable, es aconsejable que:
Los conjuntos A i , se elijan de forma que cumpla que npi0 ≥ 5 para cada i=1,2,...,k.
El número k de elementos de la partición no sea inferior a 5 (salvo en ajustes a
distribuciones discretas con menor número de valores posibles) .
Estas dos condiciones determinan el mínimo valor que debe tomar n. El hecho de que k ≥
5 implica que tendrá que ser alguna de las pi0 ≤ 1/5 y como por otro lado npi0 ≥ 5 para todo i, se
deduce que n ha de ser al menos 25, esto es, que al menos se necesitan 25 datos para poder
aplicar este método.
Tenemos por tanto, las dos partes esenciales del método:
Un estadístico que mide la discrepancia entre las frecuencias observadas y las
probabilidades indicadas por el modelo a contrastar.
2
La distribución de este estadístico, que es una distribución conocida (χ k-1-p). Por tanto
2
2
para cualquier k se conoce F(k)= P{χ k-1-p ≤ k} y en consecuencia también P{χ k-1-p > k}.
120
Los pasos a seguir son los siguientes:
PASO 1: Dividir el recorrido de la distribución poblacional en k conjuntos disjuntos: A1,
A2,...., Ak de modo que se cumpla:
k >= 5 (salvo en ajustes a distribuciones discretas con menor número de valores
posibles) .
npi0 >=5 siendo pi0 la probabilidad de cada Ai .
PASO 2: Calcular Oi (número de observaciones que forman cada Ai)
PASO 3: Calcular el estadístico de Pearson:
k
(Oi − ei )2
i =1
ei
Tk = ∑
k
(Oi − npi 0 )2
i =1
np i 0
=∑
PASO 4:
Para un nivel de significación concreto, 1-α, se calcula χ k2−1− p ,α que no es más
que el valor de la χ k2−1− p que deja a la derecha una probabilidad α (es decir, 1- Fχ2k-1-p
( χ k2−1− p ,α ) = α).
Si Tk > χ k2−1− p ,α rechazar la hipótesis nula.
Si Tk < χ k2−1− p ,α aceptar la hipótesis nula.
Pero puede ocurrir:
Que esta decisión esté forzada, esto es, que variaciones muy pequeñas del
nivel de confianza nos lleven a tomar la decisión contraria.
Que no se quiera dar un nivel de significación concreto.
Para ello se recurre a la prueba del p-valor con el fin de que nuestra
argumentación de rechazar o no el ajuste, quede bien justificada.
El p-valor se define como el menor valor de significación a partir del cual se
rechaza la hipótesis nula.
En este caso el p-valor es:
P-valor= P{χ2k-1-p > Tk}.
Por ejemplo, si se supone que se ha realizado el test de Chi-Cuadrado para verificar si
una población es Poisson ,esto es:
121
Hipótesis nula: H0: F = F0 con F0 ≡ Poisson
Hipótesis alternativa: H1: F ≠ F0.
Y se supone que el número de grupos de la partición es 5 (k = 5) y el resultado del test es
T5= 11.34 entonces el p-valor para esta población es P{ {χ23 >11,34 } = 0,01 (probabilidad que está
2
tabulada en las tablas de la χ y que EXCEL permite calcular mediante la función CHIDIST).
Si el p-valor es muy próximo a 0 se rechaza la hipótesis nula con seguridad mientras
que si es próximo a 1 no hay motivos para rechazarla. El baremo que se suele utilizar es el
siguiente:
Si p-valor ∈ [ 0, 0.05] entonces rechazar la hipótesis nula.
Si p-valor ∈ [ 0.1, 1] entonces aceptar la hipótesis nula.
En otro caso analizaremos la situación.
EJEMPLO:
El histograma se decanta por la Binomial Negativa. Los test de bondad de ajuste son
ahora los que deberán ratificar si la Binomial Negativa es mejor ajuste que la Poisson.
Para ello se presenta a continuación el test CHI-CUADRADO para estos dos casos:
CASO F0 = POISSON:
El primer paso es la estimación del parámetro. El estimador del parámetro en la Poisson
es la media, por tanto:
λ estimado = media = 4.8788 (calculado anteriormente).
122
Se divide el rango de número de fraudes que se producen diariamente en 5 subgrupos A1,
A 2,...,A 5 como muestran los colores de la tabla siguiente, tratando que la probabilidad esperada de
cada grupo sean mayores que 5 aproximadamente.
Por tanto la tabla definitiva es:
El valor del estadístico de Pearson es 5,5549.
Como el número de subconjuntos de la partición es 5 y se estima un parámetro, la
2
distribución del estadístico de Pearson es χ 3.
El p-valor en estas condiciones es:
2
p-valor = P{χ 3 > 5.5549} =0.1354
Luego se concluye que no hay motivos para rechazar el ajuste de esta población mediante
una Poisson(4,8788).
123
CASO F0 = BINOMIAL NEGATIVA:
El primer paso es la estimación de los parámetros:
p estimado =
media
= 0.4367
var ianza
N estimado =
media 2
= 3.7821≈ 4
var ianza − media
Se divide el rango de número de fraudes en 5 subgrupos A1, A 2, A 3, A 4, A
muestran los colores de la tabla siguiente.
5
como
La tabla definitiva es:
El valor del estadístico de Pearson es 3.7852.
124
Como el número de subconjuntos de la partición es 5 y se estiman dos parámetros, la
2
distribución del estadístico de Pearson es χ 2 .
El p-valor en estas condiciones es:
2
p-valor = P{χ 2> 3.7851} = 0,1506
Luego se concluye que no hay motivos para rechazar el ajuste de esta población mediante
una Binomial Negativa (0,44; 4).
CONCLUSIÓN EJEMPLO:
Ambas poblaciones pasan el test pero en el caso de la Binomial Negativa el p-valor es
más alto. Por tanto, el test estadístico se decanta por la Binomial Negativa como mejor distribución
de ajuste. En este sentido, se modeliza la frecuencia de ocurrencia de los eventos con una
distribución Binomial Negativa de parámetros N=4 y p= 0,44.
Fichero de EXCEL de referencia: frecuencia.xls / test CHI-CUADRADO.
125
4.3 MODELIZACIÓN DE LA FUNCIÓN DE LA DISTRIBUCIÓN DE
LOS IMPACTOS (SEVERIDAD)
El rango de distribuciones estadísticas que permite modelizar las severidades
puede ser muy amplio: Exponencial, Weibull, Lognormal, Normal, Gamma, etc.
Para seleccionar entre las distribuciones posibles, la que mejor se ajuste a los
datos disponibles, se propone utilizar los siguientes métodos de análisis
complementarios.
Método de eliminación de distribuciones candidatas: Gráficos “QQ-plot”
Método de selección de distribuciones:
4.3.1
o
Tests de bondad de ajuste: Chi-Cuadrado,Kolmogorov-Smirnov y
Cramer-Von Mises
o
Gráfico “Función exceso sobre la media”
o
Gráficos “PP-plot (con parámetros estimados)”
Método de eliminación de distribuciones candidatas: Gráficos “QQ-plot”
Los “QQ-Plots” son test gráficos que enfrentan cada cuantil muestral (cuantil de
la distribución empírica) con el correspondiente cuantil de la distribución teórica propuesta.
Las definiciones de cuantil muestral y cuantil de una distribución teórica continua son:
CUANTIL MUESTRAL:
Se define cuantil muestral, cp para cada p∈ (0,1) como aquel valor que verifica
simultáneamente:
Fn(cp) ≥ p y Fn(cp¯) ≤ p
(siendo F(x¯)= lim y→ x F ( y ) )
Donde Fn es la función de distribución empírica de la muestra x1, x2, ..., xn (que ordenada
se denota por x1:n, x2:n, ..., xn:n) y se define como:
Fn (x) =
nº de observaciones ≤ x card{ i, x i:n ≤ x} 1 n
=
= ∑ I {xi:n ≤ x}
n
n i =1
n
126
Siendo:
card { ...}: Conjunto cardinal o conjunto cantidad de elementos.
I {...}(x): Función indicador de x. Si x∈ {...} su valor es 1 y en otro caso es 0.
Como la función de distribución empírica, Fn, es distribución discreta, los cuantiles
muestrales se expresan cómodamente en función de los elementos de la muestra ordenada x1, x2,
..., xn:
Si np no es un número natural y denotamos por [np] su parte entera: c p = x( [np ]+1):n
Si np es un número natural puede no quedar unívocamente determinado, al poder ser
Fn(x)=p para cualquier x∈[x(np),x(np+1)). Se deshace la ambigüedad fijando:
cp =
x( np ):n + x ( np +1):n
2
Por ejemplo la mediana es el cuantil p=1/2, que es simplemente el valor central de la
muestra ordenada, en el caso en que n es impar, y la semisuma de los dos valores centrales cuando
n es par.
CUANTIL DE UNA DISTRIBUCIÓN CONTINUA F:
Se define cuantil, cp, para cada p∈ (0,1) de una distribución continua F como aquel valor
-1
-1
que verifica
F (cp)=p, siendo F la función inversa de F.
Los pasos a seguir son los siguientes:
Ordenar la población x1, x2,..., xn en orden creciente: x1:n, x2:n, ..., xn:n
Calcular para cada k la CORRECCIÓN DE FISHER:
p k :n =
k − 0,5
n
(En el caso de la Normal y Lognormal la corrección más comúnmente
utilizada es: p k :n =
i − 38
n + 14
)
Calcular F-1(pk:n) siendo F la distribución teórica propuesta.
-1
Dibujar el gráfico (xk:n , F (pk:n)) .
127
Realizar el ajuste lineal. EXCEL realiza este ajuste mediante la opción “ADD
TRENDLINE” con opción de mostrar:
o
La ecuación de la recta de ajuste: y = ax + b
o
El valor de R
2
Con estos datos se puede dar una valoración del ajuste de la distribución teórica
a la población.
2
R ≈1 indica que el ajuste lineal es bueno y por tanto que la función teórica
elegida ajusta bien a la población.
R2≈0 indica que el ajuste lineal es malo y por tanto que la función teórica
elegida no ajusta a la población.
Este test es equivalente al test gráfico PP-Plot. La única diferencia es que el
gráfico que se utiliza en el PP-Plot es (pk:n , F(xk,n)) mientras que el del QQ-Plot es (F
1
(pk:n) , xk,n) .
EJEMPLO:
Se obtiene de la base de datos de eventos poblacionales el valor, en miles de euros, de
las pérdidas diarias que sufre una entidad bancaria por fraudes.
128
El problema a tratar es la modelización de las severidades. Se toman de partida para
ajustar la población las distribuciones Normal, Exponencial , Weibull y Lognormal.
El QQ-PLOT da una idea de cuál o cuáles de ellas son más apropiadas.
QQ-PLOT NORMAL
y = 0,002x - 0,4318
R2 = 0,567
ln(F^(-1)(i-3/8 / 161-1/4
5
4
3
2
1
0
-1 0
500
1000
1500
2000
2500
-2
-3
xi
QQ-PLOT EXPONENCIAL
y = 0,0023x + 0,4796
R2 = 0,8835
F^(-1)(i-0,5/161
6
5
4
3
2
1
0
0
500
1000
1500
2000
2500
xi
129
y = 0,5094x - 2,4518
R2 = 0,996
F^(-1)(i-0,5/161
QQ-PLOT WEIBULL
-8
-6
-4
-2
2
1
0
-1 0
-2
-3
-4
-5
-6
-7
2
4
6
8
10
ln(xi)
QQ-PLOT LOGNORM AL
y = 0,021x - 1,6993
R2 = 0,9583
NORMINV(i-0,5/161
4
3
2
1
0
-1 0
50
100
150
200
-2
-3
-4
ln(xi)
CONCLUSIÓN EJEMPLO:
2
Según R el peor ajuste es el de la Normal. En cuanto a la Exponencial, la Weibull y la
2
Lognormal, tienen un valor de R cercano a 1 con lo cual se dejará la decisión de tomar una u otra a
los métodos de selección de distribuciones.
Fichero de EXCEL de referencia: severidad.xls / QQ-PLOT
130
4.3.2
Test de bondad de ajuste: Chi-Cuadrado, Kolmogorov-Smirnov y Cramer-Von
Mises
Para medir la bondad del ajuste de los datos empíricos a la distribución
estadística seleccionada se utiliza, también, el test Chi-Cuadrado (véase el apartado
anterior sobre Modelización de la función de la distribución de frecuencias).
Sin embargo existen otros tests de bondad de ajuste que solamente son aplicable
a distribuciones continuas10. Es el caso de el test de Kolmogorov-Smirnov y el test de
Cramer-Von Mises los cuales, en general, dan mejores resultados para este tipo de
distribuciones, que el anterior.
Test de KOLMOGOROV-SMIRNOV.
El test de Kolmogorov–Smirnov verifica las diferencias existentes entre la
distribución empírica y la distribución estadística seleccionada F0. Calcula la máxima
distancia existente entre ambas distribuciones, de tal forma que si este valor máximo se
considera “grande” (según unos criterios que veremos a continuación) significa que la
distribución estadística no ajusta bien la población y se rechazaría la hipótesis nula H0: F =
F0 en favor de la hipótesis alternativa H1: F≠ F0. Si por el contrario el valor máximo es
“pequeño” entonces se concluirá que no hay motivos para rechazar este ajuste.
El estadístico en el cual se fundamenta este test es el estadístico de
Kolmogorov-Smirnov (Dn), cuya distribución es conocida.
La expresión de este estadístico es:
Dn= sup Fn ( x) − F0 ( x)
para todo x∈ R
La función de distribución de este estadístico es la siguiente:
z
F(z) = P{ Dn ≤ z } = n!
z+
1
n
n − 2 n −1
z+
n
n
∫ ∫ ... ∫ ∫ I {
1
2
−z −z
n
n
10
z+
n −1
1− z
−z
n
0< u1< u 2<....<un <1}
du1du 2...dun
Por tanto no es aplicable para la distribuciones que modelizan la frecuencia de ocurrencia de los eventos
operacionales.
131
Tal expresión no proporciona un resultado explícito, pero permite tabular la distribución de
Dn. Así existen tablas que a partir de los valores de α (nivel de confianza) y n (tamaño de la muestra)
devuelven el valor de dn,α tal que P{ Dn > dn,α } = α. ( En el ANEXO 1 se muestra la tabla de
Kolmogorov-Smirnov)
Los pasos a seguir son los siguientes:
PASO 1: Dada una población de tamaño n que se denota como x1, x2, ..., xn , se calcula su
distribución empírica Fn del siguiente modo:
Se ordenan los valores de la población que sean distintos de menor a mayor:
x1:n, x2:n, ..., xm:n.
Se calcula la frecuencia relativa de cada xi:n : f1, f2, ... ,fm
∑f
Se calcula la función de distribución empírica: Fn (x) =
i
{i , x i : n ≤ x }
n
En el caso de que todos los datos de nuestra población sean diferentes(f i=1,∀i) la
fórmula se simplifica en:
Fn (x) =
nº de observaciones ≤ x card{ i, x i:n ≤ x} 1 n
=
= ∑ I {xi:n ≤ x}
n i =1
n
n
Siendo:
o
card { ...}: Conjunto cardinal o conjunto cantidad de elementos.
o
I {...}(x): Función indicador de x. Si x∈ {...} su valor es 1 y en otro caso 0.
132
EJEMPLO:
Calculamos en EXCEL la función de distribución empírica, Fn(x):
La columna x(i) representa el valor de las pérdidas diarias que se pueden producir,
ordenadas de menor a mayor.
La columna frecuencia representa el número de días que se han producido pérdidas
por valor de x(i) y la columna frecuencia acumulada, el número de días que se han
producido pérdidas de valor como máximo x(i).
fr.acumulada(x(i)) = nº días que tienen perdidas ≤ x(i)
La última columna, Fn(xi), calcula la función de distribución empírica para cada x(i)
como:
Fn ( x(i )) =
fr.acumulada( x (i ))
n
siendo n el número total de días observados.
Por último y como la función de distribución empírica es discreta (con forma escalonada y
continua por la derecha), para cualquier x tal que cumpla x(i) ≤ x < x(i+1) se tiene Fn(x) = Fn(x(i)).
PASO 2: Calcular el valor del estadístico de Kolmogorov-Smirnov:
Dn= sup { x ∈ R } Fn ( x) − F0 ( x)
siendo F0(x) = P { F0 ≤ x }, esto es, el valor de la función de distribución teórica en x.
133
Ahora bien, el valor de Dn se alcanza cuando x coincide con alguno de los
elementos de la muestra (o a la izquierda de uno de ellos) por ello la fórmula anterior
queda simplificada a la siguiente:
Dn =máx { máx { 1≤ i ≤ n } [ Fn (x (i)) - F0 (x (i))] , máx { 1≤ i ≤ n } [ F0 (x (i)) – Fn (x (i-1))]}
La explicación de la simplificación realizada para calcular Dn se realiza en ANEXO 2.
PASO 3:
Para un nivel de significación concreto, α, buscar en las tablas de Kolmogorov-Smirnov dn,α
(dicha tabla se presenta en el ANEXO 1)
Si Dn> dn,α rechazar la hipótesis nula
Si Dn< dn,α aceptar la hipótesis nula
En caso de no considerar un nivel de significación concreto se realiza la prueba
del p-valor para decidir si rechazar o no el ajuste.
Si el p-valor es muy próximo a 0 se rechaza la hipótesis nula con seguridad
mientras que si es próximo a 1 no hay motivos para rechazarla. El baremo que se suele
utilizar es el siguiente:
Si p-valor ∈ [ 0, 0.05] entonces se rechaza la hipótesis nula en favor de la
alternativa.
Si p-valor ∈ [ 0.1, 1] entonces se acepta la hipótesis nula.
En otros casos se deberá recurrir al resto de métodos propuestos para
seleccionar la mejor distribución.
EJEMPLO :
La decisión está entre la Exponencial, la Weibull y la Lognormal. Se calcula el test de
Kolmogorov-Smirnov para cada una de estas distribuciones.
La media y la varianza de la base de datos de fraudes son:
Media = 230,4192
Varianza = 213.742,5
El primer paso para realizar un test de hipótesis es la estimación de los parámetros de
las distribuciones teóricas a ajustar.
134
Caso Exponencial:
El estimador para λ es:
λestimado =
1
media
En el ejemplo:
λestimado =
1
1
=
≈ 0.0043
media 230,42
Fichero de EXCEL de referencia: severidad.xls/PARÁMETROS EXPYLOGNORMAL
Caso Weibull:
Los estimadores para los parámetros de la Weibull son:
1
η ESTIMADO
1 n
 β estimado
=  ∑ xiβ ESTIMADO 
 n i =1

β ESTIMADO
−1
n
 n β

 n β ESTIMADO 
ESTIMADO
=  ∑ xi
LN ( x i )  ∑ xi
 − n −1 ∑ LN ( xi )
i =1

 i =1
 i =1

−1
La resolución de este sistema se puede llevar a cabo en EXCEL mediante la opción
SOLVER.
En el ejemplo:
βestimado= 0,5126
ηestimado= 123,069
Fichero de EXCEL de referencia: severidad.xls/PARÁMETROS WEIBULL
Caso Lognormal:
Los estimadores de los parámetros son:
µ = 3,6831
o
Media muestral de la serie de los logaritmos neperianos:
o
Desviación típica muestral de la serie de los logaritmos neperianos:
σ = 2,4966
135
Fichero de EXCEL
LOGNORMAL
de
referencia:
severidad.xls/PARÁMETROS
EXP
Y
136
El test de Kolmogorov-Smirnov para cada caso es:
CASO EXPONENCIAL:
El valor del estadístico de Kolmogorov-Smirnov es 0,3085.
El p-valor= P(D161 >0,3085)<0,01 pues P(D161 >0,1284)=0,01. Por tanto hay motivos para rechazar
que la población se distribuya como Exponencial.
La tabla de EXCEL en la cual se realizan los cálculos se muestra a continuación:
137
CASO WEIBULL:
El valor del estadístico de Kolmogorov-Smirnov es 0,0558.
El p-valor= P(D161 >0,0558)>0.2 pues el mayor nivel de significación que se tabula en la
tabla P(D161 >0,08456)=0.2. Por tanto no hay motivos para rechazar la Weibull como posible ajuste
de la población.
La tabla de EXCEL en la cual se realizan los cálculos se muestra a continuación:
138
CASO LOGNORMAL:
El valor del estadístico de Kolmogorov-Smirnov es 0,0979.
El p-valor= P(D161 >0,0979) ≈ 0,1 P(D161 >0,0939)=0,1. Por tanto no hay motivos para
rechazar la Lognormal como posible ajuste de la población.
La tabla de EXCEL en la cual se realizan los cálculos se muestra a continuación:
CONCLUSIÓN EJEMPLO: La Weibull y la Lognormal pasan el test de Kolmogorov-Smirnov y de
entre ellas se decanta por la Weibull(0,51257; 123,069) por tener el p-valor más alto.
Fichero de EXCEL de referencia: severidad.xls / TEST K-S y PP-Plot.
139
Test de CRAMER-VON MISES
El test de Cramer-Von Mises tiene las mismas aplicaciones que el Test de
Kolmogorov-Smirnov.
El estadístico en el cual se fundamenta es el estadístico de Cramer-Von Mises (Tn)
La expresión de este estadístico es:
T n=
n
1
+ ∑ ( Fn ( xi ) − F0 ( x i )) 2
12n i =1
Los valores de la función de distribución de este estadístico están tabulados en tablas
que a partir de los valores de α (nivel de confianza) y n (tamaño de la muestra) devuelven el valor
de tn,α tal que P{ Tn > tn,α } = α. ( En el ANEXO 2 se muestra la tabla de Cramer-Von Mises)
La diferencia entre ellos es la mayor sensibilidad del estadístico de Cramer-Von
Mises a puntos irregulares en la muestra (o puntos aberrantes). Supongamos que tengo
una muestra con un dato falseado (por ejemplo en una muestra que recoge impactos en
miles de euros un dato falseado sería una cifra en euros). Esta muestra no pasaría el Test
de Kolmogorov – Smirnov pues este test se basa en la distancia máxima entre la
distribución teórica y la empírica, pero si pasaría el Test de Cramer - Von Mises pues la
muestra se adapta a la distribución teórica en todos los puntos excepto en el que
corresponde al dato falseado.
La solución que se plantea a este respecto es la siguiente: Si los dos test
mencionados anteriormente no concluyen en el mismo sentido (uno acepta y otro rechaza)
se estudiará la posibilidad de existencia de datos falseados. Los test gráficos son una
importante herramienta para localizar estos posibles puntos aberrantes que habrá que
estudiar detenidamente.
Los pasos a seguir para el cálculo del estadístico de Cramer–Von Mises son los
siguientes:
PASO 1: Dada una población de tamaño n que se denota como x1, x2, ..., xn , se calcula su
distribución empírica Fn como se explicó anteriormente.
PASO 2: Calcular el valor del estadístico de Cramer – Von Mises
T n=
n
1
+ ∑ ( Fn ( xi ) − F0 ( x i )) 2
12n i =1
140
PASO 3:
Para un nivel de significación concreto, α, buscar en la tabla de Cramer–Von Mises tn,α
(dicha tabla se presenta en el ANEXO 2)
Si Tn> tn,α rechazar la hipótesis nula.
Si Tn< tn,α aceptar la hipótesis nula.
En caso de no considerar un nivel de significación concreto se realiza la prueba
del p-valor para decidir si rechazar o no el ajuste.
Si el p-valor es muy próximo a 0 se rechaza la hipótesis nula con seguridad
mientras que si es próximo a 1 no hay motivos para rechazarla. El baremo que se suele
utilizar es el siguiente:
Si p-valor ∈ [ 0, 0.05] entonces se rechaza la hipótesis nula en favor de la
alternativa.
Si p-valor ∈ [ 0.1, 1] entonces se acepta la hipótesis nula.
En otros casos se deberá recurrir al resto de métodos propuestos para
seleccionar la mejor distribución.
141
EJEMPLO :
El test de Cramer-Von Mises para cada caso es:
CASO EXPONENCIAL:
El valor del estadístico de Cramer-Von Mises es 5,2734.
El p-valor= P(T161 >5,2734)<0,01. Por tanto hay motivos para rechazar que la población se
distribuya como Exponencial.
La tabla de EXCEL en la cual se realizan los cálculos se muestra a continuación:
142
CASO WEIBULL:
El valor del estadístico de Cramer-Von Mises es 0,0625.
El p-valor= P(T161 >0,0625) ∈ [0,8;0,85]. Por tanto no hay motivos para rechazar la
Weibull como posible ajuste de la población.
La tabla de EXCEL en la cual se realizan los cálculos se muestra a continuación:
143
CASO LOGNORMAL:
El valor del estadístico de Cramer-Von Mises es 0,3059.
El p-valor= P(T161>0,3059) ∈ [0,1; 0,15]. Por tanto no hay motivos para rechazar la
Lognormal como posible ajuste de la población.
La tabla de EXCEL en la cual se realizan los cálculos se muestra a continuación:
CONCLUSIÓN EJEMPLO: La Weibull y la Lognormal pasan el test de Cramer-Von Mises y de entre
ellas se decanta por la Weibull(0,51257; 123,069) por tener el p-valor más alto.
Fichero de EXCEL de referencia: severidad.xls / TEST K-S y PP-Plot.
144
Es importante señalar que los test de bondad de ajuste nos proporcionan
una medida general del ajuste que la distribución teórica hace a la distribución
empírica. Así puede ocurrir que nuestra distribución pase el test, porque el
ajuste general es bueno y sin embargo el ajuste de las colas no sea apropiado.
Dado que un buen ajuste de las colas es una de nuestras máximas
preocupaciones para el cálculo de una cifra de VaR afinada, es importante
realizar tests que nos permitan decidir cuánto de apropiado es el ajuste
también en las colas.
Los gráficos función exceso sobre la media y los PP-Plot son muy útiles en
este sentido.
4.3.3
Gráfico “FUNCIÓN EXCESO SOBRE LA MEDIA”
Un método gráfico para distinguir entre modelos de colas suaves o pesadas es el
método función exceso sobre la media. Dicho método se basa en la comparación de las
funciones:
Función exceso sobre la media teórica.
Función exceso sobre la media empírica.
FUNCIÓN EXCESO SOBRE LA MEDIA:
Sea X una variable aleatoria con función de distribución F. Se define la función exceso
sobre la media como:
e(u) = E[ X-u / X>u ]
con 0 ≤ u < ∞
esto es, la función que a cada valor u hace corresponder la media de los excesos sobre u de la
población.
La función exceso sobre la media depende de la distribución de la variable aleatoria, X, a
la que se refiere. El siguiente dibujo muestra los gráficos función exceso sobre la media para la
Weibull, Lognormal, Gamma, Exponencial y Pareto:
145
Weibull: β < 1
o lognormal
Pareto
Gamma: α > 1
Exponencial
Weibull: β > 1
Se observa que en distribuciones de colas anchas cuanto más ancha es la cola, más
rápido es el crecimiento de su función exceso sobre la media.
La expresión analítica de estas funciones se desarrolla en el ANEXO 4.
FUNCIÓN EXCESO SOBRE LA MEDIA EMPÍRICO:
Sea x1, x2,..., xn observaciones de severidad de impactos de un determinado riesgo, y sea
Fn la distribución empírica asociada a estas observaciones. Se define la función exceso sobre la
media empírico como:
∞
1
1
e n (u ) =
(1 − Fn ( y ))∂y =
∑ ( xi − u) con u ≥ 0
∫
1 − Fn (u ) u
card∆ n (u ) i∈∆ n ( u )
siendo
∆ n (u ) = { i tal que i=1,..., n y x i >u } y haciendo el convenio de
0
= 0.
0
Dado que una distribución continua queda unívocamente determinada por la
función exceso sobre la media, comparando el gráfico función exceso sobre la media
empírico con los gráficos de exceso sobre la media teórico se podrá decidir qué
distribución ajusta mejor los datos.
146
Por tanto, los pasos a seguir dada una muestra x1, x2, ..., xn que ordenada
denotamos por x1:n, x2:n, ..., xn:n son:
Dibujar el gráfico observaciones contra función exceso sobre la media empírico
para esas observaciónes: (xk:n, en(xk:n))
Comparar este gráfico con los gráficos de exceso sobre la media teórico (xk:n,
e(xk:n)), que se mostraban en la gráfica anterior, eligiendo como mejor ajuste,
aquella distribución teórica cuyo gráfico exceso sobre la media guarde más
semejanzas con el gráfico exceso sobre la media empírico, en el sentido de
seguir una misma tendencia.
En el ANEXO5 se muestran gráficos de comparación de la función exceso sobre la media
teórico de las distribuciones Pareto, Exponencial, Weibull y Lognormal con la función exceso sobre
la media empírico de simulaciones de éstas.
EJEMPLO:
Se dibuja el gráfico “función exceso sobre la media empírico (xk:n, en(xk:n)).
GRÁFICO EXCESO SOBRE LA MEDIA EMPÍRICO
1600
1400
en(u)
1200
1000
800
600
400
200
0
0
100
200
300
400
500
600
700
800
u
Se observa una tendencia creciente pero lenta, características de la función exceso sobre
la media para la Weibull y la Lognormal (véase ANEXO 5).
147
Se desecha, por tanto la Exponencial como posible ajuste ya que la función exceso sobre
la media de ésta es constante y la función exceso sobre la media empírico para nuestra base de
datos, tiene una clara tendencia creciente.
Fichero de EXCEL de referencia: severidad.xls / GRAF.MEDIA
4.3.4
Gráficos – “PP-plot” (utilizando los parámetros estimados)
Los “PP-Plots” son test gráficos que enfrentan la función de distribución empírica
con la función de distribución teórica.
Los pasos a seguir son los siguientes:
Ordenar la población x1, x2,..., xn en orden creciente: x1:n, x2:n, ..., xn:n
Calcular para cada k la CORRECCIÓN DE FISHER:
p k :n =
k − 0,5
n
(En el caso de la Normal y Lognormal la corrección más comúnmente
utilizada es: p k :n =
i − 38
n + 14
)
Se calcula F(xk:n) siendo F la distribución teórica elegida para los parámetros
estimados.
Dibujar el gráfico (pk:n , F(xk:n)) .
Realizar el ajuste lineal. EXCEL realiza este ajuste mediante la opción “ADD
TRENDLINE” con la opción de mostrar:
o
La ecuación de la recta de ajuste: y = ax + b
o
El valor de R2
Con estos datos se puede dar una valoración del ajuste de la distribución teórica
a la población.
R2≈1 indica que el ajuste lineal es bueno y por tanto que la función teórica
elegida ajusta bien a la población.
R2≈0 indica que el ajuste lineal es malo y por tanto que la función teórica
elegida no ajusta a la población.
148
Este test es equivalente al test gráfico QQ-Plot (utilizando parámetros
estimados). Se diferencian en que el gráfico que se utiliza en el PP-Plot (utilizando
parámetros estimados) es (pk:n , F(xk,n)) mientras que el del QQ-Plot (utilizando parámetros
-1
estimados) es (F (pk:n) , xk,n) .
Resaltar que la única diferencia entre el QQ-Plot y QQ-Plot utilizando parámetros
estimados (o equivalentemente el PP-Plot y PP-Plot utilizando parámetros estimados) es
que el primero compara familias paramétricas de distribuciones, esto es, sin considerar
estimaciones de los parámetros, mientras que el segundo compara una única distribución
que esta completamente especificada mediante los parámetros estimados. Por ello la
calidad del ajuste en el caso de los test que utilizan parámetros estimados no sólo es que
2
R este próximo a 1 sino también que la recta del ajuste este próxima a la bisectriz del
primer cuadrante.
EJEMPLO:
Se realizan los PP-PLOT para la Exponencial, la Weibull y la lognormal, con los
parámetros estimados anteriormente.
y = 1,1389x - 0,217
R2 = 0,9192
PP-PLOT EXPONENCIAL
1,2
1
Fo(xi)
0,8
0,6
0,4
0,2
0
-0,2 0
0,2
0,4
0,6
0,8
1
1,2
-0,4
Fn(xi)
149
y = 1,0073x - 0,007
R2 = 0,9956
PP-PLOT WEIBULL
1,2
1
Fo(xi)
0,8
0,6
0,4
0,2
0
-0,2
0
0,2
0,4
0,6
0,8
1
1,2
Fn(xi)
PP-PLOT LOGNORM AL
y = 0,9567x + 0,0413
R2 = 0,9825
1,2
Fo(xi)
1
0,8
0,6
0,4
0,2
0
0
0,2
0,4
0,6
0,8
1
1,2
Fn(xi)
CONCLUSIÓN EJEMPLO:
El PP-PLOT se decanta por la Weibull(0,51257; 123,069) como mejor ajuste ya que el
2
valor R es muy próximo a uno y la recta es prácticamente la bisectriz del primer cuadrante.
150
Resaltar, además, el hecho de que los gráficos en el caso Exponencial y Lognormal
ajustan mal las colas (los puntos del extremo derecho e izquierdo se ajustan mal a la recta) mientras
que el ajuste de la Weibull en éstas es más apropiado.
Fichero de EXCEL de referncia: severidad.xls / TEST K-S Y PP-PLOT
CONCLUSIÓN EJEMPLO MÉTODOS DE SELECCIÓN DE DISTRIBUCIONES:
Los test de bondad de ajuste se inclinan por la Weibull y la Lognormal, si bien la Weibull tiene
un p-valor mayor.
Los test gráficos función exceso sobre la media seleccionan la Weibull y la Lognormal.
Los PP-plot eligen la Weibull y muestran las deficiencias del ajuste que las distribuciones
Exponencial y Lognormal hacen sobre la cola de la distribución empírica.
Por tanto, de los análisis estadísticos realizados se desprende que, en este caso, la Weibull es la
mejor distribución para modelizar las severidades.
151
4.4 OBTENCIÓN
DE
LA
DISTRIBUCIÓN
DE
PÉRDIDAS
OPERACIONALES PARA CADA EVENTO / LÍNEA DE NEGOCIO.
CÁLCULO DEL VALOR EN RIESGO OPERACIONAL
Una vez modelizadas las distribuciones estadísticas de frecuencia de ocurrencia
de los eventos operacionales y severidad, es necesario realizar un proceso de agregación
o convolución de ambas. A partir de ésta ya se puede calcular el Valor en Riesgo
Operacional con el nivel de confianza que se defina.
Denotamos:
gi,j : función de densidad de la variable aleatoria pérdidas operacionales, para el riesgo j
de la línea de negocio i.
pi,j : función de masa de la variable aleatoria frecuencia de impactos, para el riesgo j de
la línea de negocio i.
f i,j : función de densidad de la variable aleatoria severidad del impacto, para el riesgo j de
la línea de negocio i.
Se define la función de densidad de la pérdida operacional del siguiente modo:
∞
∑p
i, j
n*
(n) fi, j (x)
n=1
si x > 0
gi, j (x) =
pi, j (0)
si x = 0
n*
donde * es el operador convolución y f i,j es la convolución de f i,j consigo misma n veces.
(La explicación detallada de esta función de densidad se encuentra en el ANEXO 6)
El proceso de agregación o convolución se puede realizar mediante modelos
paramétricos y no paramétricos. No obstante, dado que los primeros no son muy
exactos ni fáciles de aplicar, se propone un modelo no paramétrico, la simulación de
Monte Carlo.
Para realizar dicha simulación de Monte Carlo se distinguen los siguientes pasos:
152
a. Generar escenarios aleatorios de la frecuencia de ocurrencia de los eventos
operacionales
Para ello se generan números aleatorios de la función de distribución de
frecuencias modelizada.
EJEMPLO:
La función de distribución de frecuencias modelizada es una Poisson con λ = 1,2.
A continuación se generan números aleatorios de Poisson, por ejemplo, 10.000.
Esto se puede hacer con cualquier generador de números aleatorios fiable. Por ejemplo,
en EXCEL se puede realizar a partir del menú TOOLS/DATA ANALYSIS/RANDOM NUMBER
GENERATION.
b. Generar tantos escenarios aleatorios para la severidad como señale la frecuencia
generada para dicho escenario en el paso a. anterior.
Para ello se generan tantos números aleatorios de la función de distribución de
severidades como marque el número de eventos simulado en el paso a. anterior.
Ejemplo:
3,9.
La función de distribución de severidad modelizada es una Lognormal con µ = 7,2 y σ =
A continuación se generan números aleatorios uniformes. Por ejemplo, 3 para el escenario
número 10.
153
Con cada uno de estos números aleatorios se obtiene la severidad a partir de la función
de distribución acumulada de la Lognormal (µ,σ). Para ello utilizamos la función “LOGINV” de
EXCEL.
c. Para cada escenario, sumar las severidades generadas.
Con ello se consigue para cada escenario, un valor simulado de la variable
aleatoria pérdidas operacionales.
Ejemplo:
Siguiendo con el ejemplo anterior, en la hoja de EXCEL se añade una columna “TOTAL”
que contenga la suma de severidades generadas para cada escenario.
154
d. Cálculo del VaR Operacional11 con un nivel de confianza α. Pérdidas esperadas e
inesperadas.
Una vez que se tiene para cada escenario un valor simulado de la variable
aleatoria pérdidas, se calcula el percentil para el nivel de confianza α escogido12. Este
percentil es el valor del VaR Operacional a nivel α.
Las Pérdidas esperadas se calculan como la media de los escenarios de
pérdida generados.
Las Pérdidas inesperadas se calculan como la diferencia entre el VaR
Operacional y las Pérdidas esperadas.
Ejemplo:
La función PERCENTILE de EXCEL aplicada sobre la columna “TOTAL” calculada en el
apartado anterior permite calcular el VaR Operacional con un nivel de confianza α.
Por tanto, para este caso, el VaR Operacional 99,9% resultante es: 220.693.326.
Fichero de EXCEL de referencia: distribuciónPÉRDIDAS.xls
11
Para obtener resultados más afinados utilizando el método de simulación de Monte Carlo, es conveniente
realizar la simulación varias veces (por cada simulación tendremos una cifra de VaR ). El VaR Operacional
definitivo será la media de los anteriores.
12
Basilea II propone un nivel de confianza del 99,9%
155
Cálculo del VaR Operacional con la incorporación de un contrato de seguros:
Una alternativa de mitigación de determinados riesgos operacionales es la
contratación de seguros. En esta línea, los reguladores están considerando la posibilidad
de permitir a las entidades que la contratación de seguros reduzca el consumo de capital
(en determinadas condiciones, y con un máximo de reducción del 20%).
En el método de Monte Carlo se puede incorporar de forma sencilla el efecto del
seguro como mitigante, en aquellos escenarios en los que aplique.
EJEMPLO:
Incorporamos un contrato de seguros con franquicia 100.000 euros en el ejemplo anterior.
Para obtener el VaR Operacional neto del efecto del mitigante se incorpora una nueva
columna (“severidad con seguro”), que muestra el impacto después de aplicar el seguro. Por
ejemplo: si la severidad generada ha sido de 350.000 euros entonces la incorporación del seguro
provoca una disminución de la severidad del impacto, con el mínimo del valor de la franquicia
(100.000 euros).
La suma para cada escenario de las nuevas severidades da lugar a la columna “pérdidas
con seguro”. La cifra de VaR Operacional a nivel α, es el percentil correspondiente de esta nueva
columna.
En la siguiente tabla se muestran estos resultados. Se observa una reducción significativa
en términos de VaR Operacional por el efecto de dicho seguro.
Fichero de EXCEL de referencia: distPÉRDIDAS_SEGURO.xls
156
4.5 VERIFICACIÓN DE RESULTADOS Y BACK TESTING DEL
MODELO
La validación última del modelo cuantitativo se puede realizar a través de un
proceso de back testing que compare las pérdidas operacionales estimadas con las
pérdidas reales obtenidas, en el periodo de cálculo. El estudio de las diferencias entre
ambas pérdidas (estimadas versus reales) proporciona una medida de la calidad de las
predicciones que permite tomar decisiones sobre la necesidad o no de realizar
modificaciones en el modelo de cálculo de riesgos.
La entidad deberá definir el nivel al que realizar el back testing (línea de negocio,
tipo de evento) en base a la información recogida.
La realización de este proceso, requiere la disponibilidad de series históricas de
pérdidas reales y estimadas referidas a un mismo periodo de tiempo.
Basilea II establece que el proceso de back testing deberá realizarse de forma
recurrente.
A continuación se muestra un método posible de Back Testing en Riesgo
Operacional.
Dadas las pérdidas reales y estimadas para n periodos temporales, T1,T2, ..., Tn :
1. Calcular la diferencia entre pérdida real y estimada para cada periodo de tiempo:
Diferencia i = (Pérdida estimada) i – (Pérdida real) i
∀ i = {1, ... n}
2. Calcular el indicador binario BI:
1 si diferencia i < 0
BI (i)=
0 en otro caso
3. Calcular la cantidad de violaciones totales y relativas al total de observaciones
que se han producido.
n
ViolacionesTotales = ∑ BI (i ) = Count[BI = 1]
i =1
157
n
Pr oporciónViolaciones =
∑ B(i)
i =1
n
n
i =1
i =1
∑ B(i) + ∑ (1 − B(i))
=
Count[BI = 1]
Count [BI ]
4. Calcular la violación esperada para un nivel de confianza α:
ViolacionesEsperadas = p * n
siendo p = 1-α y n el número de periodos temporales en la base de datos.
Con estos cálculos se está en disposición de decidir si rechazar o no el modelo:
Se rechaza el modelo si ViolacionesTotales≥ViolacionesEsperadas
equivalentemente si ProporciónViolaciones ≥ p
o
Se acepta el modelo si ViolacionesTotales<ViolacionesEsperadas
equivalentemente si ProporciónViolaciones < p
o
El test estadístico de KUPIEC, basándose en esta metodología y en la distribución
Binomial, es un método sencillo y comúnmente utilizado para decidir sobre la aceptación o
no del modelo.
Dicho test trata de comprobar si la proporción de violaciones que se producen
con respecto al total de observaciones, y dado un nivel de confianza, α*=1-p*, verifica o no
la hipótesis nula H0 : p=p*.
Para ello utiliza el siguiente estadístico:
[
LRUC = −2 Ln (1 − p*)
T −V
 V  T −V  V V 
( p*) + 2 Ln 1 −    
 T   T  
v
]
siendo:
V: número de violaciones.
158
T: total de observaciones.
p*= 1- nivel de confianza elegido para el cálculo del VaR.
cuya distribución es conocida ya que:
LRUC se distribuye según una χ 12 .
El resultado del test será:
Rechazar el modelo si el p-valor = P{ χ 12 > LRuc} ∈ [0; 0,05] o equivalentemente
si LRuc>3,84
Aceptar el modelo si el p-valor = P{ χ 12 > LRuc} ∈ [0,1; 1] o equivalentemente si
LRuc <0,004
Asimismo, se suele completar el proceso de back testing expuesto con los
siguientes análisis gráficos:
Gráfico de la serie temporal del Indicador Binario
Gráfico de las series temporales VaR Operacional y Pérdidas Reales.
Ambos permiten encontrar posibles “clusters” de eventos operacionales, es
decir, conjuntos de eventos en los que el VaR Operacional estimado sea menor que la
pérdida real, para luego investigar la causa o causas que han dado lugar a dichas
pérdidas extraordinarias. De no existir algún tipo de agrupación (dependencia) entre
aquellos eventos en los que el VaR estimado es menor que la pérdida real será necesario
modificar la modelización en busca de un mejor ajuste.
159
EJEMPLO:
Dadas las siguientes series de VaR Operacional y Pérdidas Reales para un periodo de 26
días, realizar el proceso de back testing suponiendo un nivel de confianza para el cálculo del VaR
del 95%, que permita decidir si rechazar o no el modelo de VaR Operacional utilizado.
A continuación se muestran para este ejemplo los pasos explicados anteriormente:
160
1. Cálculo las diferencias entre pérdidas reales y estimadas:
161
2. Cálculo del indicador BI:
3. Cálculo del número de violaciones totales y la proporción de violaciones:
ViolacionesTotales = Count[BI = 1] = 4
Pr oporciónViolaciones =
Count[BI = 1] 4
=
= 0,1535
Count [BI ]
26
4. Calcular la violación esperada:
En este caso el periodo utilizado es 1 día, por tanto, n = 26. Como el nivel de confianza es
un 95%, p = 1 − 0,95 = 0,05
ViolacionesEsperadas = p * n = 0,05 * 26 = 1,3
162
En base a estos resultados la solución del back testing es RECHAZAR el modelo, pues
ViolacionesTotales = 4 > ViolacionesEsperadas = 1,3 .
(equivalentemente
Pr oporciónViolaciones = 0,1535 > p = 0,05 )
El TEST KUPIEC:
[
LRUC = −2 Ln (1 − p*)
T −V
 V  T −V  V  V 
( p*) + 2 Ln 1 −     = 3,898
 T   T  
v
]
ya que:
V: número de violaciones = 4
T: total de observaciones = 26
p*: nivel de confianza elegido para el cálculo del VaR = 0,05
Como 3,898 > 3,84 la decisión es RECHAZAR el modelo.
Los gráficos para este ejemplo son:
Serie temporal del indicador BI:
SERIE TEMPORAL DEL INDICADOR
1
0
18-jul
23-jul
28-jul
02-ago
07-ago
12-ago
17-ago
22-ago
27-ago
163
Series temporales VaR Operacional y Pérdidas Reales:
SERIES TEMPORALES: VaR OP. Y PÉRDIDA OP. REAL
7.000.000
6.000.000
5.000.000
4.000.000
VaR Operacional
3.000.000
Pérdida Operacional Real
2.000.000
1.000.000
0
-ju
20
l
- ju
27
l
o
ag
3-
go
-a
0
1
17
o
ag
24
o
ag
En ambos gráficos se observa un “cluster” entre el 27 y el 31 de Julio, donde se
concentran 3 de las 4 violaciones que se producen en el periodo. Esto es síntoma de que las
violaciones no son independientes, por lo que habría que realizar un análisis de las causas que las
produjeron antes de decidir hacer modificaciones sobre el modelo.
Fichero de EXCEL de referencia: backtesting.xls
164
5. CONCLUSIONES
En este apartado se ha de comentar que se suponen todos los datos de los que
se dispone en la base de datos correctos, tanto en forma como en valor.
Suponiendo los datos correctos tanto en forma como en valor, el sistema es
capaz de modelizar tanto en frecuencia como en severidad los datos de tal manera que
son aproximados por una serie de distribuciones, dando a elegir al usuario una de ellas
para representar a esos datos elegidos tanto en frecuencia como en severidad.
Una vez se han escogido las dos distribuciones no hay más que parametrizar el
simulador. El sistema ya posee una parametrización por defecto que puede ser cambiada,
o no, bajo el criterio del usuario.
Los resultados del simulador es una tabla con los n lanzamientos del simulador y
una media de los resultados.
En un principio, se han realizado los tests de las distribuciones estadísticas con
un 95 % de confianza. Este valor en esta versión del proyecto no es parametrizable y se
ha escogido ese intervalo por ser un estándar en las pruebas estadísticas de este tipo.
Cuanto más reduzcamos este valor del intervalo de confianza, peor se ajustarán
las distribuciones al conjunto de datos seleccionado. Por otro lado, puede llegar un
momento en el que tras aumentar en gran medida ese porcentaje seamos tan exigente en
obtener buenos ajustes que ninguna de las distribuciones pasen los test, por tanto, que
ninguna de las distribuciones sea apta para representar a esos datos.
Como conlcusión se optó por dejar el intervalo de confianza en un 95% como una
medida de compromiso entre obtener buenos ajustes y que las distribuciones pasen los
tests de uan manera razonable.
165
Otro aspecto que hay que tener en cuenta en este análisis de la sensibilidad es el
número de escenarios del simulador de Monte Carlo. Se ha observado que conforme
aumenta el número de escenarios, más estables son los resultados, es decir, menos
varianza hay entre el resultado de una simulación y otra. Por el contrario, cuando el
número de escenarios es muy bajo, la varianza de los resultados de varias simulaciones
aumenta de una manera notable.
Se ha observado que con valores para el número de escenarios entre 10.000 y
50.000 los resultados tienen una varianza moderada, mientras que para valores inferiores
a 10.000 escenarios la varianza es mayor cuanto menor sea el número de escenarios
introducido. Así pues, se propone como número de escenarios estándar 10.000.
Como se ha podido observar a lo largo de toda la memoria, se ha desarrollado un
motor de Riesgo Operacional bajo unas especificaciones de tecnología avanzada.
En la actualidad, el sistema de medición cuantitativa de riesgo operacional es
algo que no abunda en el mercado, más bien escasea, debido a que se terminó de legislar
hacer muy poco todo lo referente a cálculo de capital regulatorio y, aún así, todavía
quedan muchas lagunas y puntos donde hace falta investigar, ahondar y por último
desarrollar cómo se han de medir ciertos riesgos, bajos ciertos parámetros. Por tanto se
puede concluir que se ha realizado un sistema que es pionero en el mercado.
Se han seleccionado técnicas de ajuste estadístico con el apoyo de GMS
Management Solutions S.L. como expertos en riesgos en España.
166
6. ESTUDIO ECONÓMICO Y PLANIFICACIÓN
6.1 ESTUDIO ECONÓMICO
A continuación se mostrará una estimación económica para el desarrollo del
proyecto aquí planteado. Para ello, se dividirá el presupuesto en tres grandes bloques:
HARDWARE
Descripción
Equipo informático
Precio Unitario
1200 €
Subtotal
Total
1200 €
1200 €
SOFTWARE
Descripción
Precio Unitario
Total
Licencia Windows XP +
240 € / licencia
240 €
Ms Office
745 € / licencia
745 €
Licencia Matlab +
2200 € / licencia
2200 €
Optimization Toolbox +
1050 € / licencia
1050 €
Statistics Toolbox
900 € / licencia
900 €
Subtotal
5135€
167
RECURSOS HUMANOS
Descripción
640 horas de consultoría
Precio Unitario
30€/hora
Total
19200 €
Subtotal
19200 €
RESUMEN
Descripción
Total
HARDWARE
1200 €
SOFTWARE
5135 €
RECURSOS HUMANOS
19200 €
TOTAL
25535 €
168
6.2 PLANIFICACIÓN
Documentación -> Octubre 2005
Objetivo 1.- Diseño Base de Datos -> Noviembre 2005
Objetivo 2.- Desarrollo técnicas estadísticas de modelización -> Dic. 2005 / Enero 2006
Objetivo 3.- Desarrollo Simulador Monte Carlo -> Feb. 2006 / Marzo 2006
Objetivo 4.- Diseño e implementación Reporting -> Abril 2006
Desarrollo Memoria -> Mayo 2006
169
1.- Diseño de un modelo de datos que sustentara toda la información necesaria
para los cálculos y la información de gestión / reporting a generar.
2.- Desarrollo e implementación de los algoritmos matemático - estadísticos sobre
los que se sustentan los cálculos cuantitativos del Riesgo Operacional. Dada la
importancia de éstos se ha separado en un paquete propio llamado corelib.
Gracias a corelib, paquete matemático – estadístico anteriormente mencionado,
la aplicación es capaz de modelizar tanto en frecuencia como en severidad los datos que
se albergan en la base de datos (eventos de pérdida), dando como resultado un set de
distribuciones estadísticas con sus parámetros, tests y gráficos poder tomar una decisión
correcta acerca de qué distribución ajusta mejor los datos tanto en frecuencia como en
severidad.
3.- Desarrollo e implementación de un simulador de Monte Carlo. El simulador
realizado es un simulador genérico, es decir, válido para un par cualquiera de
distribuciones de frecuencia y severidad. No es necesario que las distribuciones sean unas
de las preseleccionadas, el sistema está concebido de tal manera que el propio usuario
pueda crear su propia distribución. Esta funcionalidad está pensada para dar soporte a
una necesidad que ha surgido del trabajo con la metodología cuantitativa, necesidad que
recibe el nombre de mixtura de distribuciones consistente en crear una nueva distribución
estadística que se ajusta mejor a los datos a partir de dos o más distribuciones
predefinidas.
4.- Implementación de todos los cálculos y algoritmos desarrollados en una
aplicación web. Se necesitaba una herramienta que fuera capaz de calcular e informar de
los resultados de una manera distribuida. La solución a ese requisito fue una aplicación
J2EE que llamamos simcro. La funcionalidad de cálculo se agrupó en un paquete llamado
corelib, mencionado en el punto 2.-, de manera que quedó aislada de la capa de
presentación y del acceso a base de datos. Al utilizar la plataforma J2EE, la aplicación web
simcro accede a ese paquete y distribuye los resultados del cálculo.
Incorporación de nuevas tecnologías a la aplicación J2EE desarrollada. Nos
referimos a tecnologías tales como:
Mondrian, herramienta OLAP que nos va a proporcionar informes con capacidad
de consulta multidimensional y dinámica.
170
JCharts, herramienta que nos va a proporcionar todo el soporte gráfico de la
aplicación, es decir, nos va a permitir visualizar los gráficos de ajuste a los datos de la
distribución estadística, gráficos PP – Plot, QQ – Plot y función de exceso sobre la media.
JSci, paquete de distribuciones estadísticas que nos facilita los cálculos de
parámetros y resultados derivados de las distribuciones.
171
7. BIBLIOGRAFÍA
[COST--] Costa Lewis, Nigel Da. Operational Risk with Excel and VBA. Applied Statistical
methods for risk management.
[EMBR97] Embrechts, P., Klüppelberg, C. & Mikosch, T. (1997), Modelling extremal events
for insurance and finance, Springer, Berlin.
[KLUG04] Klugman, S, Panjer, H y Willmot, G. Loss Models; from data to decisions, Ed.
Wilwy-Interscience 2004 2nd Edition
[CRUZ02] Cruz, M, Modeling, measuring and hedging operational risk, Ed. John Wiley &
Sons, Ltd. 2002 1st Edition
[LEIP--] Leippold M. The Quantification of Operational Risk
[EBNÖ--] Ebnöther S. Modelling Operational Risk
[BAUD02] Baud, N., Frachot, A., Roncalli, T. (2002) Internal data, external data and
consortium data for operational risk measurement: How to pool data properly?
Groupe de Recherche Operationnelle, Crédit Lyonnais, France.
[FRAC03] Frachot, A., Moudoulaud, O., Roncalli, T., (2003) Loss Distribution Approach in
Practice, Groupe de Recherche Operationnelle, Crédit Lyonnais, France
[MCNE99] McNeil, A. (1999), Extreme Value Theory for Risk Managers, Departement
Mathematik, Zürich.
[FONT03] Fontnouvelle et al, P. de.(2003) Quantification of operational risk,Bank of Italy
172
ANEXO 1: TABLA DE KOLMOGOROV-SMIRNOV
173
174
175
ANEXO 2: TABLA DE CRAMER-VON MISES
176
ANEXO 3: SIMPLIFICACIÓN DEL ESTADÍSTICO DE
KOLMOGOROV-SMIRNOV
Explicación de la simplificación del estadístico de Kolmogorov-Smirnov.
El estadístico de Kolmogorov-Smirnov, Dn se define:
Dn = sup { x ∈ R } Fn ( x) − F0 ( x) =
= máx {sup { x ∈ R } (Fn ( x ) − F0 ( x )) , sup { x ∈ R } (F0 ( x ) − Fn ( x )) }
Se puede expresar de un modo más sencillo atendiendo a las siguientes
simplificaciones:
sup { x ∈ R } (Fn ( x ) − F0 ( x )) = máx { 1≤ i ≤ n } { sup { x (i) ≤ x < x (i-1) } [ Fn (x) - F0 (x)] } =
= máx { 1≤ i ≤ n } [ Fn (x (i)) - F0 (x (i))]
Si todos los valores observados son distintos, se puede llegar mas lejos y así
este supremo se puede escribir como: máx { 1≤ i ≤ n } [
i
- F0 (x (i))]
n
sup { x ∈ R } (F0 ( x ) − Fn ( x) ) = máx { 1≤ i ≤ n } [ F0 (x (i)) – Fn (x (i-1))]
Si todos los valores observados son distintos, se puede llegar mas lejos y así
este supremo se puede escribir como: máx { 1≤ i ≤ n } [ F0 (x (i)) –
i −1
]
n
Por tanto, podemos concluir que:
Dn =máx { máx { 1≤ i ≤ n } [ Fn (x (i)) - F0 (x (i))] , máx { 1≤ i ≤ n } [ F0 (x (i)) – Fn (x (i-1))]}
177
ANEXO 4: EXPRESIÓN ANALÍTICA DE LA FUNCIÓN EXCESO
SOBRE LA MEDIA
La expresión analítica de la función exceso sobre la media para los casos: Lognormal,
Weibull, Exponencial, Gamma y Pareto es:
Función exceso sobre la media para X v.a. que se distribuye según
Lognormal(µ,σ):
e LOGNORMAL (u ) =
σ 2u
ln(u ) − µ
(1 + o(1))
siendo o(1) términos de orden 1 que podemos aproximar a 0.
Función exceso sobre la media para X v.a. que se distribuye según
Weibull(β ,η):
eWEIBULL (u ) =
u 1− β
β
(1 + o(1))
η
siendo o(1) términos de orden 1 que podemos aproximar a 0.
Función exceso sobre la media para X v.a. que se distribuye según
Exponencial(λ ):
e EXPONENCIAL (u ) =
1
λ
Función exceso sobre la media para X v.a. que se distribuye según
Gamma(α,β ):
eGAMMA (u ) =
1  α −1  1 
1 +
+ o  
β  β * u  u  
siendo o(1/u) términos de orden 1/u que podemos aproximar a 0.
178
Función exceso sobre la media para X v.a. que se distribuye según Pareto(a,b):
e PARETO (u ) =
b+u
con a>1
a +1
179
ANEXO 5: SIMULACIONES DE LA FUNCIÓN EXCESO SOBRE
LA MEDIA
A continuación se mostrarán gráficos de comparación de la función exceso sobre la media
teórico de las distribuciones Pareto, Exponencial, Weibull y Lognormal con la función
exceso sobre la media empírico de simulaciones de éstas: (Fichero de EXCEL en el que se
desarrolla: grafexcesomedia.xls)
Si simulamos una Exponencial, estos son los gráficos de exceso sobre la media teórico
y empírico:
0,3
0,25
0,2
teorica
0,15
empirica
0,1
0,05
0
0
0,5
1
1,5
La tendencia es a una función constante.
180
Si simulamos una Weibull con β<1, estos son los gráficos de exceso sobre la media
teórico y empírico:
450
400
350
300
250
teorica
200
empirica
150
100
50
0
0
100
200
300
400
500
La tendencia es creciente pero lenta.
Si simulamos una Lognormal, estos son los gráficos de exceso sobre la media teórico y
empírico:
40000
30000
20000
teorica
10000
empirica
0
0
5000
10000
15000
-10000
-20000
La tendencia es creciente pero lenta.
181
Si simulamos una Pareto, estos son los gráficos de exceso sobre la media teórico y
empírico:
12
10
8
teorica
6
empirica
4
2
0
0
10
20
30
40
50
La tendencia es creciente hacia infinito pero más rápida que los casos Weibull y
Lognormal.
182
ANEXO 6: FUNCIÓN DE DENSIDAD DE LA PÉRDIDA
OPERACIONAL
Se define la función de densidad de la pérdida operacional del siguiente modo:
∞
∑p
i, j
n*
(n) fi, j (x)
n=1
si x > 0
gi, j (x) =
pi, j (0)
si x = 0
Denotamos:
gi,j : función de densidad de la variable aleatoria pérdidas operacionales, para el
riesgo j de la línea de negocio i.
pi,j : función de masa de la variable aleatoria frecuencia de impactos, para el
riesgo j de la línea de negocio i.
fi,j : función de densidad de la variable aleatoria severidad del impacto, para el
riesgo j de la línea de negocio i.
(De ahora en adelante, nos referimos en todo momento a un tipo de riesgo j y a una línea
de negocio i, por ello simplificaremos la notación no utilizando subíndices sino simplemente
g, p y f.)
Veamos intuitivamente que significa esta fórmula:
Denotamos por X v.a. de severidades que se distribuye según F ( y con función de
densidad f).
X1, X2, ...,Xn muestra aleatoria simple de v.a. idénticamente distribuidas según F.
La probabilidad de que la perdida ocasionada por un riesgo sea x es:
la probabilidad de que ocurra un evento y que la severidad de ese evento sea x:
p(1)*fx1(x)
183
bien la probabilidad de que ocurran dos eventos y
severidades de esos eventos sea x: p(2)*fx1+x2(x)
que la suma de las
bien la probabilidad de que ocurran tres evenos y que la suma de las
severidades de esos tres eventos sea x: p(3)*fx1+x2+x3(x)
bien...
por tanto :
∞
g(x) = p(1)*fx1(x) + p(2)*fx1+x2(x) + p(3)*fx1+x2+x3(x) +… =
∑ p( n) f ∑
( x)
n
n =1
xi
i =1
donde :
fx1 es la función de densidad de la severidad del riesgo estudiado, esto es, f.
fx1+x2 es la función de densidad de la v.a. suma X1+X2. Haciendo la hipótesis de
que X1 y X2 son independientes entonces la función de densidad de la v.a. suma
se calcula como convolución de f consigo misma:
f x1+ x 2 ( x ) = f ⊗ f ( x) = ∫ f ( x − t ) f (t )dt
fx1+x2-x3 es la función de densidad de la v.a. suma X1+X2+X3. Haciendo la
hipótesis de que X1, X2 y X3 son independientes la función de densidad de la
v.a. suma se calcula como convolución de f consigo misma 3 veces:
f x1+ x 2+ x3 ( x) = f ⊗ f ⊗ f ( x) = f 3* ( x) = ∫ f x1+ x 2 ( x − t ) f (t )dt
∞
En conclusión:
g(x) =
∑ p( n) f
n*
( x)
si x>0 pues si x=0 la probabilidad de que la
n =1
pérdida sea 0 es la probabilidad de que no se produzca ningún evento, es decir, p(0).
184
Descargar