Agregación de riesgos: escenarios extremos del valor en riesgo y el déficit esperado en presencia de dependencia. Trabajo presentado para el XX Premio de Investigación sobre Seguros y Fianzas 2013 “Antonio Minzoni Consorti” Lic. Bernardo Ramos Aguilera “BARICCO” XX Premio de Investigación sobre Seguros y Fianzas 2013 “Antonio Minzoni Consorti” Primer Lugar Categoría de Seguros Agregación de riesgos: escenarios extremos del valor en riesgo y el déficit esperado en presencia de dependencia. Baricco 26 de agosto de 2013 Índice general 1. Reseña 1 2. El Problema de Cópulas y Dependencia 2.1. Introducción a las cópulas . . . . . . . . . . . . . . . . . . . . . . 2.2. Algunas Cópulas Importantes . . . . . . . . . . . . . . . . . . . . 2.2.1. Cópula Comonotónica . . . . . . . . . . . . . . . . . . . . 2.2.2. Cópula Contramonotónica . . . . . . . . . . . . . . . . . . 2.2.3. Cópula de Independencia . . . . . . . . . . . . . . . . . . 2.2.4. Cópula de Gumbel . . . . . . . . . . . . . . . . . . . . . . 2.2.5. Cópula de Clayton . . . . . . . . . . . . . . . . . . . . . . 2.3. Aplicaciones de las cópulas en la estimación de medidas de riesgo 3 3 6 7 7 8 8 10 11 3. Medidas de riesgo y el algoritmo de reorganización 3.1. Motivación del AR . . . . . . . . . . . . . . . . . . . . 3.2. Algoritmo para encontrar VaRα . . . . . . . . . . . . . 3.3. Algoritmo para encontrar VaRα . . . . . . . . . . . . . 3.4. Algoritmo para encontrar ESα . . . . . . . . . . . . . 3.5. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 16 18 23 25 28 4. Aplicaciones del AR 4.1. Requerimientos de Capital . . . . . . . . . 4.2. Precios de activos . . . . . . . . . . . . . . 4.2.1. Payoffs de instrumentos derivados 4.2.2. Precios futuros . . . . . . . . . . . 4.3. Coberturas de reaseguro . . . . . . . . . . 4.3.1. Stop-loss . . . . . . . . . . . . . . 4.3.2. Exceso de pérdida por riesgo . . . 4.4. Portafolio de derivados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 31 37 39 39 40 40 42 44 5. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 i ÍNDICE GENERAL ii A. Simulación de cópulas 47 B. Relación de P (Y ≥ s) con VaRα (Y ) 48 C. Algoritmos en Octave 50 Bibliography 58 Capı́tulo 1 Reseña La crisis de 2008 desató en el ámbito financiero una alta preocupación de cuantificar correctamente los riesgos, lo que ha llevado a un desarrollo significativo de la estadı́stica que sustenta a la administración de riesgos. Propuestas importantes de regulación internacional de los bancos (Basilea III), aseguradoras (Solvencia II) e instituciones financieras se han concretado en la última década, y con éstas se ha progresado en el estudio de la correcta modelación de pérdidas agregadas. Con especial atención se han estudiado los modelos de cópula -herramienta muy utilizada en la modelación conjunta de variables aleatorias-, ya que se ha observado que presentan importantes limitantes que deben considerarse para su aplicación.1 Particularmente, México está experimentando un cambio significativo de la regulación de las instituciones de seguros para garantizar que el capital de las aseguradoras sea suficiente y asegure su solvencia en el corto y largo plazo. Dentro de estas disposiciones de la nueva Ley de Seguros y Fianzas y la Circular Única de Seguros y Fianzas, se ha establecido un modelo estándar de valuación del requerimiento de capital de solvencia de las aseguradoras.2 Con este modelo, se asignará el requerimiento de capital como el valor en riesgo de la suma de las variables de pérdida, cuya distribución conjunta se asignará mediante una cópula arquimediana jerárquica.3 La crisis nos ha enseñado que hay que tomar con especial cuidado estos modelos, por lo que es importante evaluar si resulta conveniente someter la práctica a modelos que hasta ahora solo se ajustan bien a la teorı́a. 1 Dos excelentes referencias sobre sobre este tema son Donnelly y Embrechts [4] y Das et al. [2]. 2 Para más detalles, véase el borrador de la Nota Metodológica para el cálculo de las variables de pérdida de los seguros de daños y accidentes y enfermedades [1]. 3 Los autores de [1] citan a Savu y Trede [10] como referencia de cópulas arquimedianas jerárquicas. 1 CAPÍTULO 1. RESEÑA 2 Dicho lo anterior, el presente trabajo busca dar una solución a la cuantificación del posible error que se esté cometiendo al estimar medidas de riesgo de componentes agregados mediante cópulas. Con las metodologı́as presentadas, podrá evaluarse fácilmente el impacto de incertidumbre de modelo que se cometa al utilizarlas sin un claro sustento del comportamiento conjunto de las variables de pérdida. El presente trabajo resultará entonces en una aplicación directa para la determinación del error de la estimación del Requerimiento de Capital de Solvencia, cuyo nivel modificarı́a sustancialmente al patrimonio de los accionistas de las instituciones de seguros. De manera general, el presente trabajo muestra algoritmos4 que permiten encontrar numéricamente las cotas al valor en riesgo y el déficit esperado para ciertas funciones de variables aleatorias. Esto permitirá directamente revelar los valores entre los cuales se encontrarán todas las estimaciones de estas medidas de riesgo al asignar un modelo de cópula a la distribución conjunta. En la aplicación del Requerimiento de Capital de Solvencia se tiene que estas cotas permiten revelar los valores máximo y mı́nimo que deberá conservar la aseguradora por concepto de requerimiento de capital. Estas cotas permiten, además, revelar el nivel de conservadurismo del nivel de las medidas de riesgo estimadas con modelos internos y la fórmula estándar. Es importante mencionar que no solo es relevante efectuar este análisis en el ámbito asegurador; no obstante, en este trabajo se le da este enfoque especial para fomentar el estudio del impacto de la nueva regulación de las instituciones de seguros. El estudio propuesto en el presente trabajo podrá implementarse de manera sencilla una vez que se cuentan con las estimaciones de los parámetros de los modelos propuestos por la Comisión Nacional de Seguros y Fianzas, pues con éstos se podrán estimar las distribuciones marginales de pérdida.5 Finalmente, los requerimientos de capital son un ejemplo de un campo en el cual es relevante cuantificar la incertidumbre de selección de un modelo; sin embargo, en distintos contextos se debe lidiar con medir la exposición de agregaciones de riesgos cuyo comportamiento conjunto sea desconocido. 4 Basados en Embrechts et al. [6], Puccetti [8] y los resultados de Puccetti y Rüscendorf 5 Bastarı́a con poder estimar los cuantiles para implementar los análisis propuestos. [9] Capı́tulo 2 El Problema de Cópulas y Dependencia En este capı́tulo de presentará el concepto de cópula y su relación con las funciones de distribución. Se mostrará algunas cópulas importantes, sus propiedades, y se ilustrará la dificultad de modelar con éstas escenarios extremos bajo ciertas dimensiones de dependencia. 2.1. Introducción a las cópulas En numerosas aplicaciones que involucran implı́citamente vectores aleatorios se asume que existe independencia de las variables que lo conforman. Esto resulta un supuesto insostenible en algunos modelos multivariados: en finanzas, por ejemplo, resulta sencillo mostrar evidencia de la influencia del resultado de inversiones de una cartera con respecto a otra para una misma empresa; en seguros, es casi evidente que los resultados de los subramos están relacionados entre sı́. En estos contextos es necesario introducir un grado de dependencia entre variables para dar al modelo un toque más realista. El problema de la modelación de dependencia no tiene un método cuya aprobación sea consensual; sin embargo, una de las herramientas más utilizadas para este fin (y que ha cobrado relevancia por las implicaciones que ha tenido en el sector financiero) es el concepto de cópula. Si bien resultará una tarea difı́cil explicar con ellas toda la estructura de dependencia de un vector aleatorio, sı́ se podrán capturar algunas dimensiones de interrelación entre sus variables. Por esto, es importante conocer en qué sentidos podemos decir que dos variables aleatorias son dependientes. 3 CAPÍTULO 2. EL PROBLEMA DE CÓPULAS Y DEPENDENCIA 4 Sean X y Y variables aleatorias. Existirı́a una notoria dependencia entre X y Y si conocer el valor de X proporcionara información completa acerca del comportamiento de Y ; por ejemplo, si supiéramos que Y = X 3 entonces conocer X nos da información certera acerca de Y . En general, si Y puede expresarse como Y = T (X), donde T es cualquier función uno a uno entonces se habları́a de un caso extremo de dependencia entre X y Y .1 Es posible, sin embargo, que si bien no se pueda predecir con certeza valores de Y , conociendo el valor de X podamos inferir un rango de valores sobre el cual serı́a más probable que Y se encontrara. Por ejemplo, si sabemos que X resultó un valor muy alto, entonces Y necesariamente debe ser alto también. Es decir, puede existir una influencia del resultado de X sobre los posibles resultados de Y , y ésta, regularmente, no es conocida. En estos casos, la estructura de interrelación entre dos variables X y Y toma lugar, y las cópulas se muestran como una posible solución para su modelación. Definición 2.1. Una cópula de dimensión d es una función C : [0, 1]d −→ [0, 1] tal que C es una función de distribución en [0, 1]d con marginales uniformes. La importancia de las cópulas radica en el resultado probado por Sklar (1959), en el que se establece la relación que existe entre las cópulas y la función de distribución de un vector aleatorio. Teorema 2.1 (Sklar, 1959). Sea F una función de distribución conjunta con marginales F1 , . . . , Fd . Entonces existe una cópula C tal que para todo x1 , x2 , . . . , xd en R = [−∞, ∞] F (x1 , . . . , xd ) = C(F1 (x1 ), . . . , Fd (xd )) (2.1) Si las marginales son continuas, entonces C es única; de lo contrario, C definida en Ran(F1 )× Ran(F2 ) × . . . × Ran(Fd ), donde Ran(Fi ) denota el rango de Fi , es única. Equivalentemente, si C es una cópula y F1 , . . . , Fd son funciones de distribución univariadas, entonces F definida en (2.1) es una función de distribución conjunta con marginales F1 , . . . , Fd . Una función de distribución define por completo a una variable aleatoria, por lo que en la cópula se encuentra toda la información que se desee extraer de la relación entre las distribuciones marginales. 1 Notar que esta noción es consistente con el concepto más común de dependencia: la correlación lineal. Efectivamente, si Y = T (X) con T una transformación uno a uno, valores altos de X llevarı́an a valores relativamente altos (bajos) de Y , dependiendo si la transformación T es monótona creciente (decreciente). Existen, sin embargo, nociones de dependencia que no siguen esta misma lı́nea y será importante tenerlo en consideración en adelante. CAPÍTULO 2. EL PROBLEMA DE CÓPULAS Y DEPENDENCIA 5 La importancia del teorema de Sklar radica en que, dadas d distribuciones marginales con funciones de distribución (conocidas) F1 , . . . , Fd , es posible explicar la estructura de dependencia del X al aplicar cuidadosamente una función C a (F (x1 ), F (x2 ), . . . , F (xd )). Además, no se altera la estructura marginal de X pues F (1, . . . , 1, xi , 1, . . . , 1) = C(1, . . . , 1, FXi (xi ), 1, . . . , 1) = FXi (xi ), por tener C marginales uniformes. El teorema de Sklar da el fundamento teórico para emprender la búsqueda de funciones C adecuadas para modelar la interrelación de las variables en X, y es aquı́ donde toma lugar la diversidad de dimensiones de dependencia entre variables aleatorias. Ahora, explicar la estructura de X vı́a cópulas no resulta sencillo, pues tener conocimiento de algunas medidas de dependencia entre las marginales no permite inferir, en general, la forma de la función de distribución de la cual provienen. Se ilustrará esto con un ejemplo. Ejemplo 2.1. Sean X1 y X2 variables aleatorias con distribución uniforme en (0,1), y supongamos que se conoce que la correlación lineal entre estas dos variables es cero. Una posible distribución conjunta F1 estarı́a dada por F1 (x1 , x2 ) = x1 x2 , de modo que X1 y X2 sean variables aleatorias independientes y por lo tanto de correlación cero.2 Sin embargo, la distribución conjunta F2 dada por F2 (x1 , x2 ) = 1 1 máx{u1 + u2 − 1, 0} + mı́n{u1 , u2 } 2 2 cumple que sus marginales son uniformes (0,1) y, además, la correlación lineal entre ellas es cero.3 Sin embargo, bajo F2 , X1 y X2 no resultan ser independientes. Como F2 es muy distinta de la distribución F1 , la elección de la cópula influye en la estructura de (X1 , X2 ). La figura 2.1 muestra las funciones de distribución F1 y F2 , donde puede apreciarse la diferencia entre la forma de la función de distribución conjunta. El ejemplo 2.1 muestra que pueden existir diversas soluciones a un problema de deducción de la función de distribución conjunta sujeto a que se conoce el 2 De hecho, a la distribución conjunta F le corresponderá la cópula de independencia, 1 pues como X1 , X2 ∼ U (0, 1) se RR tiene que C(Fx1 (x1 ), FX2 (x2 )) = FX1 (x1 )FX2 (x2 ) = x1 x2 . 3 Esto pues Cov(X , X ) = [F2 (x1 , x2 ) − FX1 (x1 )FX2 (x2 )]dx1 dx2 = 0 1 2 CAPÍTULO 2. EL PROBLEMA DE CÓPULAS Y DEPENDENCIA (a) F1 (x1 , x2 ) = x1 x2 . 6 (b) F2 (x1 , x2 ) = 1 máx{x + x − 1, 0} + 1 2 2 1 mı́n{x1 , x2 }. 2 Figura 2.1: Gráficas de la función de distribución conjunta de X1 y X2 bajo F1 y F2 . valor de una medida de dependencia. Luego, dadas FX1 y FX2 distribuciones marginales existirá una cantidad considerable de cópulas a elegir, y, por el Teorema de Sklar, tantas funciones de distribución conjunta como cópulas se tengan. Más adelante se verá que la elección de una cópula puede influir notablemente en la información que se quiera obtener de la distribución conjunta, y el efecto sobre ésta dependerá, por supuesto, del tipo de dependencia que se induzca en la distribución conjunta. Considerando lo anterior y la amplia gama de posibles cópulas a elegir para modelar a X, se tiene que la solución al problema de extraer la información adecuada de X no resulta sencilla. 2.2. Algunas Cópulas Importantes En esta sección se expondrán ejemplos de cópulas importantes y se explicará brevemente la relación de dependencia que introducen en las marginales de X. El estudio de la relación introducida en las variables se basará en la densidad de la cópula; esto es, el mapeo de la densidad de C en [0, 1]d . Si C es diferenciable en [0, 1]d , entonces la densidad de la cópula se obtiene como sigue: c(u) = ∂ d C(u1 , . . . , ud ) , ∂u1 . . . ∂ud y con ésta se podrá apreciar geométricamente la relación que se introduce con cópulas para las cuales la densidad existe. CAPÍTULO 2. EL PROBLEMA DE CÓPULAS Y DEPENDENCIA 7 Asimismo, en el análisis de las cópulas comonotónica y contramonotónica se utilizará el siguiente resultado: Teorema 2.2. (Cotas de Fréchet-Hoeffding) Sea C una cópula de dimensión d y u = (u1 , . . . , ud ) ∈ [0, 1]d . Entonces, d X máx{ ui − 1} ≤ C(u) ≤ mı́n{u1 , . . . , ud }. i=1 2.2.1. Cópula Comonotónica Las cotas de Fréchet-Hoeffding indican que las cópulas en dimensión 2 están acotadas por C(u, v) = máx{u + v − 1, 0} y C(u, v) = mı́n{u, v}. Esto significa que (al menos geométricamente) cualquier estructura de dependencia C debe estar dentro de estos valores, por lo que estas cotas se muestran como casos extremos de dependencia en algún sentido. Efectivamente, la cota superior Ccom (u) = mı́n{u1 , . . . , ud } resulta ser una cópula en dimensión d, y se conoce como la cópula comonotónica. Además, esta cópula es obtenida para el vector X cuando (X1 , X2 . . . , Xd ) = (X1 , T1 (X1 ), . . . , Td−1 (X1 )), donde T1 , . . . , Td−1 son funciones monótonas estrictamente crecientes. En este caso, si alguna de las variables (X1 , . . . , Xd ) toma un valor alto, la estructura funcional de las marginales provoca que el resto de las variables lo haga también. De hecho, si Xi = Ti (X1 ), i = 2, . . . , d entonces dado algún valor Xi = xi se puede conocer con certeza el resto de los valores del vector. En este sentido se dice que la estructura de dependencia de X es extrema. 2.2.2. Cópula Contramonotónica Si bien las cotasP de Fréchet indican que toda cópula está acotada por debajo d por C(u) = máx{ i=1 ui − 1}, la función C no resulta ser una cópula en dimensión d > 2. Si d = 2 entonces a Ccon (u1 , u2 ) = máx{u1 + u2 − 1, 0} se le conoce como la cópula contramonotónica. De manera similar a la cópula comonotónica, la cópula contramonotónica se muestra como un caso extremo de dependencia; sin embargo, las componentes de (X1 , X2 ) guardan una relación inversa entre sı́. Esto es, si se conoce que X1 = x1 y éste es muy alto, la variable x2 será muy baja y viceversa. CAPÍTULO 2. EL PROBLEMA DE CÓPULAS Y DEPENDENCIA 2.2.3. 8 Cópula de Independencia La cópula de independencia se define como CI (u) = d Y ui i=1 Es fácil verificar que si X1 , . . . , Xd son independientes, entonces la cópula que define a la distribución conjunta F es la cópula de independencia. La densidad de la cópula CI es cI (u) = ∂ d CI (u1 , . . . , ud ) = 1, ∂u1 . . . ∂ud por lo que la información introducida por CI en el vector u es la misma en la región [0, 1]d ; esto es, la probabilidad de que u suceda bajo la cópula CI es uniforme en [0, 1]d . Figura 2.2: Gráfica de la densidad de la cópula de independencia, cI (u1 , u2 ). En la figura 2.2 se muestra la densidad de la cópula de independencia, cI , para el caso d = 2. En ésta se puede apreciar que no existe alguna región para la cual sea más probable en la que el vector (u1 , u2 ) se encuentre. Luego, esta cópula no introduce ningún grado de dependencia entre u1 = F (x1 ) y u2 = F (x2 ), por lo que X1 y X2 son independientes bajo CI . 2.2.4. Cópula de Gumbel La cópula de Gumbel se define como 1 CθG (u) = exp{−((− ln u1 )θ + (− ln u2 )θ ) θ }, CAPÍTULO 2. EL PROBLEMA DE CÓPULAS Y DEPENDENCIA 9 donde θ ∈ [1, ∞) es el parámetro que define un nivel de dependencia en colas introducido en las marginales. (a) cG θ (u) con θ = 3. (b) cG θ (u) con θ = 2. (c) cG θ (u) con θ = 1,1. (d) cG θ (u) con θ = 1,01. Figura 2.3: Gráficas de la densidad de la cópula de Gumbel, cG θ (u1 , u2 ), con distintos valores de θ. En la figura 2.3 se muestra la densidad de la cópula de Gumbel, en la que puede apreciarse que en los valores cercanos a (0, 0) y (1, 1) la densidad de la cópula repunta. Luego, los valores (u, v) cercanos a estas esquinas tienen una mayor densidad de probabilidad bajo CθG que si éstas se rigieran por la cópula de independencia. Observando las figuras 2.3a y 2.3b puede notarse que este efecto se intensifica conforme θ es mayor. Ahora, como ui = Fi (xi ), valores de ui muy grandes corresponden a valores xi cercanos al extremo derecho del soporte de Xi . Entonces, si valores (u, v) que se aproximan a (1, 1) tienen mayor densidad de probabilidad, quiere decir que C asigna más probabilidad a valores conjuntos (x1 , x2 ) en los que tanto x1 como x2 son muy grandes. Esta noción está ligada con el concepto de dependencia en colas. CAPÍTULO 2. EL PROBLEMA DE CÓPULAS Y DEPENDENCIA 10 Definición 2.2. Sean X y Y variables aleatorias con funciones de distribución FX y FY . El coeficiente de dependencia superior en colas se define como −1 λu = limp%1 P (Y > FY−1 (p)|X > FX (p)). El coeficiente de dependencia en colas inferiores se define como −1 λu = limp&0 P (Y ≤ FY−1 (p)|X ≤ FX (p)). Con la definición 2.2 y al observar la forma creciente de cG θ cerca de las esquinas (0, 0) y (1, 1), se puede apreciar que la cópula de Gumbel establece una relación de dependencia en colas en las marginales. Además, conforme θ → 1, se tiene que cG θ (u1 , u2 ) → 1, que es la densidad de la cópula de independencia. Este hecho puede verificarse observando el comportamiento de cG θ (u1 , u2 ) en las figuras 2.3c y 2.3d, e indica que, ajustando el parámetro θ, se pueden capturar distintas estructuras de dependencia entre las marginales. En resumen, la cópula de Gumbel introduce una dependencia en colas entre X1 y X2 ,4 y conforme θ → 1 se tiene que la estructura de dependencia de las marginales se aproxima a aquélla de la cópula de independencia. 2.2.5. Cópula de Clayton La cópula de Clayton se define como 1 −θ −θ , CθCl (u) = (u−θ 1 + u2 − 1) donde θ ∈ (0, ∞) es el parámetro que regula un nivel de dependencia en colas inferiores introducido en las marginales. En la figura 2.4 se muestra la densidad de la cópula de Clayton, en la que puede apreciarse que en los valores cercanos a (0, 0) la densidad de la cópula repunta. La cópula de Clayton asigna una mayor densidad en valores cercanos al (0, 0) en la distribución acumulada (y éstos corresponden a los cuantiles bajos de X1 y X2 ), por lo que valores en esa vecindad tendrán más probabilidad que, por ejemplo, en la esquina (0, 1). Luego, existirá una alta dependencia en colas inferiores entre X1 y X2 si se le asigna CθCl como la cópula que las rige. Véase la punta de la densidad en (0, 0) en las figuras 2.4a y 2.4b. Nótese también que a medida que θ → 0 se tiene que la densidad cCl θ se aproxima a aquélla de la cópula de independencia (véase figuras 2.4c y 2.4d). De esto se sigue que el parámetro θ regula el nivel de dependencia en colas 4 Más pronunciada en la cola superior, como se observa en la figura 2.3. CAPÍTULO 2. EL PROBLEMA DE CÓPULAS Y DEPENDENCIA (a) cCl θ (u) con θ = 5. (b) cCl θ (u) con θ = 2. (c) cCl θ (u) con θ = 0,5. (d) cCl θ (u) con θ = 0,001. 11 Figura 2.4: Gráficas de la densidad de la cópula de Clayton, cCl θ (u1 , u2 ), con distintos valores de θ. introducido a (X1 , X2 ). Comparando con la densidad de la cópula de Gumbel (figura 2.3), se puede notar que ambas introducen un grado de dependencia en colas; sin embargo, elegir entre una u otra dependerı́a de lo que se pretenda modelar. Por ejemplo, si se busca modelar escenarios de pérdidas en los que se conoce que existe una dependencia en colas superiores, elegir la cópula de Gumbel para modelar el vector conjunto X serı́a más adecuado que optar por la cópula de Clayton. 2.3. Aplicaciones de las cópulas en la estimación de medidas de riesgo Como se vio en la sección anterior, las cópulas pueden capturar distintos grados de dependencia entre las componentes de X. En el caso de las cópulas de Clayton y Gumbel, se lograba emular escenarios intermedios entre dependencia CAPÍTULO 2. EL PROBLEMA DE CÓPULAS Y DEPENDENCIA 12 en colas e independencia. Por su lado, las cópulas comonotónica y contramonotónica se mostraban como escenarios extremos de dependencia entre las marginales en dimensión d = 2. En un sentido, las cópulas mostradas en la sección anterior dan una solución al problema de la modelación de la dependencia. Sin embargo, en ocasiones la elección de la cópula C influirá notablemente en la información que se pretenda extraer del vector X, por lo que habrá una repercusión considerable en las conclusiones que se deseen obtener de su comportamiento. A esto se le conoce como incertidumbre de modelo, y en esta sección se ilustrará cómo la elección de la cópula puede alterar notablemente las conclusiones del fenómeno que se modela. Una importante aplicación de las cópulas a los modelos financieros y de seguros consiste en calcular medidas de riesgo para cuantificar exposición agregada de portafolios y carteras. En estas disciplinas surge de manera natural un problema que involucra cópulas por la dependencia que existe entre los portafolios o los resultados de las lı́neas de negocio de una empresa. En términos matemáticos, dado un vector de marginales X = (X1 , X2 , . . . , Xd ), que pueden interpretarse como las pérdidas individuales de las d carteras que tiene una empresa, se busca conocer una medida ρ de una función de agregación, ψ : Rd −→ R, aplicada a X.5 En un contexto financiero, X = (X1 , X2 , . . . , Xd ) puede representar el vector de pérdidas de las d lı́neas de negocio y el valor ρ(ψ(X)) se puede interpretar como el valor monetario necesario para afrontar la pérdida de ψ(X) en un intervalo de tiempo. Un ejemplo común de función ψ es ψ(X) = X1 + X2 + . . . + Xd (la pérdida agregada de la empresa con lı́neas de negocio X1 , X2 , . . . , Xd ), y ρ puede ser ρ(Y ) = V ar(Y ). Calcular esta medida de riesgo indicarı́a la dispersión de la distribución de la pérdida agregada, que es la suma de las pérdidas individuales de las lı́neas de negocio. Es importante notar que, para el cálculo de la medida de riesgo, X ya deberá contener toda la información de la dependencia de las marginales, y es aquı́ donde la modelación de la dependencia de X vı́a cópulas toma su lugar. En ocasiones resulta complejo obtener analı́ticamente ρ(ψ(X)), especialmente cuando las variables X1 , . . . , Xd no son independientes, por lo que se utilizan métodos Monte Carlo para simular del vector (X1 , . . . , Xd ) y con éste estimar el valor ρ(ψ(X)). El apéndice A muestra el procedimiento para simular vectores aleatorios bajo una cópula C, y en adelante se basarán las simulaciones en estos algoritmos. Como ya se ha mencionado, explicar bien el grado de dependencia puede influir de manera significativa en el resultado de ρ(ψ(X)). Esto se ilustrará con 5 Se recomienda leer los capı́tulos 2 y 6 de McNeil et al. [7] para más detalles sobre las funciones de pérdidas agregadas y las medidas de riesgo. CAPÍTULO 2. EL PROBLEMA DE CÓPULAS Y DEPENDENCIA 13 el siguiente ejemplo: Ejemplo 2.2. Sean X1 y X2 v.a. con distribución P areto(γ), ψ(x1 , x2 ) = x1 + x2 , y para α ∈ (0, 1) sea ρα (ψ(X1 , X2 )) el α-percentil de ψ(X1 , X2 ). A falta de información de la distribución de X1 + X2 , se modelará ésta con tres cópulas distintas: la independiente, la comonotónica y la de Clayton. En la sección 2.2 se mencionó que la cópula comonotónica inducı́a un comportamiento extremo (incluso funcional) en las marginales, por lo que se esperarı́a que la medida de riesgo ρα (ψ(X1 , X2 )) resultara mayor cuando la cópula que une a X1 y X2 es la cópula comonotónica, pues con ésta se modelaban escenarios de dependencia extrema en algún sentido. Sin embargo, como se verá, esto no resulta cierto en general. La siguiente tabla muestra la estimación mediante 100,000 simulaciones de los α-percentiles de ψ(X1 , X2 ) = X1 + X2 para distintos valores de α bajo las cópulas comonotónica (Ccom ), independiente (CI ) y la de Clayton (CθCl ) con θ = 2. α 0.9 0.95 0.975 0.99 ρα (X1 + X2 ) γ =2 CI Ccom CθCl CI 4.08 4.34 4.42 20.69 41.30 6.09 6.90 6.60 8.86 10.50 9.51 83.19 14.26 17.64 14.83 201.35 γ =1 Ccom 17.94 37.43 76.57 187.42 CθCl 21.71 43.17 86.85 209.21 Se puede observar que, para los percentiles mostrados, el ordenamiento de ρα (ψ(X1 , X2 )) por tipo de cópula no resulta ser el mismo cuando el parámetro γ cambia. Por ejemplo, los resultados obtenidos para la cópula de independencia no son siempre inferiores a aquéllos obtenidos por la cópula de Clayton. En la figura 2.5 se muestra el comportamiento de los percentiles para α ∈ [0.9 ,0.99]. Éste fue obtenido mediante 100,000 simulaciones de la distribución de X1 + X2 con los algoritmos mostrados en el apéndice A. Como puede observarse en la tabla y en la figura 2.5a, cuando γ = 2 se tiene que el α-percentil (en este caso ρα (X1 + X2 )) resulta ser más extremo para el caso comonotónico. Sin embargo, sı́ existe una alta diferencia en ρα (X1 + X2 ) comparando el obtenido por la cópula de independencia a aquél obtenido por la cópula comonotónica en la figura 2.5b. Ahora, para el caso en el que γ = 1 se tiene que la cópula de Clayton es aquélla que arroja el resultado extremo de ρα (X1 + X2 ) (más elevado que en el caso independiente, y más aún que el comonotónico). En ciertos contextos serı́a CAPÍTULO 2. EL PROBLEMA DE CÓPULAS Y DEPENDENCIA (a) γ = 2. 14 (b) γ = 1. Figura 2.5: Gráficas de los α-percentiles de ψ(x1 , x2 ) = x1 + x2 para X1 , X2 ∼ P areto(γ). de interés preguntarse: ¿cómo asegurar que éste es el caso de dependencia de mayor magnitud para ρα (X1 + X2 )? Y si no, ¿existe otra cópula cuyo resultado de ρα (X1 + X2 ) resulte mayor que el obtenido por CθCl ? Del ejemplo se puede observar que si bien algunas cópulas se muestran como posibles soluciones para modelar escenarios extremos en ciertos sentidos, no se asegura que la medida de riesgo en cuestión (en este caso el α-percentil de ψ(X1 , X2 )) pudiera ser más elevado para escenarios más laxos (por ejemplo, el independiente en la figura 2.5b). Esto representa una dificultad para seleccionar el modelo ’correcto’ de dependencia entre las marginales de X, pues el efecto sobre ρα (ψ(X)) de seleccionar un resultado puede ser de considerable magnitud. Serı́a entonces de interés conocer qué tanta incertidumbre del modelo existirı́a bajo todas las elecciones de cópulas posibles, o bien conocer cuál es el escenario con el que se modeları́an casos extremos de la medida de riesgo ρ(ψ(X)). Esto pues, en general, escenarios como el del caso comonotónico (que representan un caso extremo de dependencia entre X1 y X2 ) no necesariamente resultará ser el caso extremo de ρ(ψ(X)), al menos para la medida de riesgo presentada en el ejemplo. La solución a esta cuestión no es únicamente de corte teórico, sino que tiene una aplicación directa y de amplia relevancia en un contexto de requerimientos de capital: por un lado, el nivel de requerimiento de capital que se le exija a los accionistas afecta directamente al rendimiento sobre su aportación. De esto se sigue que el efecto de la selección de la cópula (que determina la distribución de la agregación de riesgos) sobre el nivel de VaRα tiene un impacto significativo para su patrimonio. Por otro lado, el nivel de requerimiento de capital debe reflejar correctamente CAPÍTULO 2. EL PROBLEMA DE CÓPULAS Y DEPENDENCIA 15 el comportamiento de los riesgos de la empresa, por lo que los reguladores deben cuidar que el modelo sea adecuado y el requerimiento resultante sea suficiente para afrontar las obligaciones de las empresas. El efecto que se tendrá sobre el nivel de capital depende tanto del comportamiento marginal de los riesgos como de la distribución conjunta que se le asigne, y el efecto de selección de la cópula puede tener consecuencias sobre el requerimiento de considerables magnitudes. Ahora bien, este efecto no siempre es fácil de identificar, y en ocasiones el capital resultante de asumir escenarios extremos (como el de la cópula comonotónica) no resultará más satisfactorio -desde un punto de vista conservadorque suponer independencia. Véase los resultados del ejemplo 2.2, en el que la naturaleza de las distribuciones marginales provocan que la cópula comonotónica se muestre como un caso ’relajado’ de requerimiento de capital. Luego, a pesar de que la cópula seleccionada tenga una influencia significativa en la estructura conjunta, la incertidumbre de modelo también está determinada por el comportamiento de los riesgos marginales. Dado el posible impacto que puede tener tanto para los reguladores (en su labor de determinar un nivel adecuado de requerimiento de capital) como para el rendimiento de los accionistas, resulta de amplia relevancia conocer los escenarios extremos de medidas de riesgo que la conjunción de las distribuciones marginales con las cópulas podrı́an provocar. Con éstos se podrı́a conocer el máximo error que se cometerı́a en la estimación del capital, ası́ como el mı́nimo y el máximo requerimiento resultantes de aplicar un modelo de cópula al conjunto de riesgos. Capı́tulo 3 Medidas de riesgo y el algoritmo de reorganización En el capı́tulo I se ilustró la complejidad del problema de asignación de un modelo conjunto adecuado a variables aleatorias no independientes. Se sugirió que las cópulas representan una opción para la modelación de tales vectores aleatorios y se destacó la importancia de capturar adecuadamente la estructura de la distribución conjunta para estimar medidas de riesgo de posiciones agregadas. En este capı́tulo se presenta el Algoritmo de Reorganización (AR), que permite obtener numéricamente el valor máximo y mı́nimo que puede tomar ρα (ψ(X)) bajo cualquier estructura de dependencia entre las marginales (conocidas) de X para dos casos importantes de medidas de riesgo: el VaRα y el ESα agregado de un portafolio. El algoritmo para encontrar cotas del VaRα se presenta en un caso más general a como se encuentra en Embrechts et al. [6], pues en Pd éste solo se muestra para ψ(X) = i=1 Xi . El desarrollo del algoritmo de reorganización, ası́ como la notación utilizada se basó en Puccetti y Rüschendorf [9], Embrechts et al. [6] y Puccetti [8]. 3.1. Motivación del AR En los modelos financieros y de seguros es de particular interés estimar el Valor en Riesgo de una cartera o portafolio, pues con éste se mide el nivel de confianza que se tiene que una pérdida no superará un cierto valor con una 16 CAPÍTULO 3. MEDIDAS DE RIESGO Y EL ALGORITMO DE REORGANIZACIÓN17 probabilidad no menor a α. Definición 3.1. (Valor en Riesgo) Sea Y una variable aleatoria con función de distribución F y α ∈ [0, 1]. El valor en riesgo a nivel de confianza α, denotado VaRα , es el α-percentil de la variable aleatoria Y , i.e. VaRα (Y ) := F −1 (α), donde F −1 denota la función inversa generalizada. A pesar de las conocidas desventajas que presenta el Valor en Riesgo para ser utilizado como principio de cálculo de requerimiento de capital,1 éste cobra relevancia por el amplio uso que se le da en la regulación actual bancaria y de seguros.2 El ejemplo de la sección 2.3 ilustra que la elección de la cópula C influye notablemente en el resultado del α-percentil de ψ(X), o bien, de VaRα (ψ(X)). Entonces, si bien es cierto que dotar a X de una estructura de dependencia con C resulta más realista que suponer independencia entre X1 , . . . , Xd , el efecto de selección de la cópula sobre VaRα puede arrojar resultados inesperados. Ası́ como la cópula de independencia puede llevar a valores de VaRα superiores a aquél de la cópula comonotónica (véase el ejemplo 2.2), pueden existir otras cópulas C tales que VaRα sea aún mayor. Luego, no se obtendrán escenarios extremos de valor en riesgo bajo la cópula comonotónica a pesar de la perfecta dependencia lineal que induce en las marginales. Este hecho se debe a que, en general, el VaR no es subaditivo.3 Considerando que es necesario prestar atención a las marginales de X y que la dependencia extrema inducida por C no necesariamente determina la posición que tomará VaRα , surge el problema de la búsqueda de cotas en las que se encontrará el valor en riesgo. Definición 3.2. Sean X1 , . . . , Xd variables aleatorias con distribución Fi , i = 1, . . . , d y ψ : Rd −→ R una función medible. Entonces, el VaR del peor escenario a nivel de confianza α de la posición L = ψ(X1 , . . . , Xd ) se define como VaRα (L) := sup{VaRα (L) | Xi ∼ Fi , 1 ≤ i ≤ d}. 1 El capı́tulo 6 de [7] expone la definición de una medida de riesgo coherente, muestra que el VaR no cumple con la propiedad de subaditividad en general y la compara con otras medidas de riesgo 2 Tanto Solvencia II europeo y la nueva regulación mexicana de seguros como Basilea II y Basilea III utilizan el valor en riesgo como principio de cálculo de requerimiento de capital. 3 Véase el capı́tulo 2 de McNeil et. al [7] para más detalles. CAPÍTULO 3. MEDIDAS DE RIESGO Y EL ALGORITMO DE REORGANIZACIÓN18 Por su lado, el VaR del mejor escenario a nivel de confianza α se define como VaRα (L) := ı́nf{VaRα (L) | Xi ∼ Fi , 1 ≤ i ≤ d}. Observación. La connotación de peor y mejor escenarios puede cambiar dependiendo de la aplicación. En un contexto financiero, las variables X1 , . . . , Xd modelan montos de pérdidas y L representa la posición de pérdida agregada, por lo que peor y mejor son adecuados. Los valores VaRα y VaRα representan, respectivamente, el máximo y el mı́nimo valor que puede tomar VaRα (L) de entre todas las estructuras posibles de dependencia entre las marginales Xi . Dicho de otro modo, dadas Xi ∼ Fi , i = 1, . . . , d, los valores de la definición 3.2 representan el mejor y peor VaRα de entre todas las cópulas C relacionando a X1 , . . . , Xd .4 En principio, el cálculo de los escenarios extremos de VaRα y VaRα podrı́a parecer complejo por involucrar el supremo e ı́nfimo sobre VaRα de L = ψ(X1 , . . . , Xd ), que está determinado por la estructura de dependencia de X. Sin embargo, Puccetti y Rüschendorf presentan en [9] una solución numérica que resulta bastante sencilla de implementar. A esta solución se le conoce como el Algoritmo de Reorganización. 3.2. Algoritmo para encontrar VaRα En esta sección se presentará el Algoritmo de Reorganización, con el cual se encontrarán numéricamente las cotas descritas en la definición 3.2. Antes de mostrar el algoritmo en su forma general, se explicará el procedimiento con un ejemplo sencillo: Supongamos que conocemos que X1 y X2 son variables aleatorias con función de masa de probabilidad dada por la siguiente tabla: x 1 2 3 4 PX1 (X1 = x) 1/4 1/4 1/4 1/4 x 1 3 6 10 PX2 (X2 = x) 1/4 1/4 1/4 1/4 Y supongamos que queremos encontrar el peor VaR para el caso ψ(x1 , x2 ) = x1 + x2 con α = 0.75. Es decir, buscamos rearreglar las probabilidades de ocurrencia de (X1 , X2 ) de tal modo que VaRα (X1 + X2 ) sea máximo. 4 Recordar que el converso del teorema de Sklar establece que dotar de dependencia a un vector aleatorio vı́a una cópula, en la manera en que la ecuación (2.1) indica, equivale a asignar una distribución conjunta F al vector aleatorio. CAPÍTULO 3. MEDIDAS DE RIESGO Y EL ALGORITMO DE REORGANIZACIÓN19 La solución se puede encontrar al aplicar cópulas conocidas a (X1 , X2 ) y de este modo encontrar VaRα . Sin embargo, no se garantizarı́a encontrar el peor valor con ellas. Esto se debe a que no se conoce qué función de distribución FX1 ,X2 resultará en los valores extremos de VaR(X1 + X2 ). Para esto, el AR arreglará manualmente los valores de la matriz de cuantiles de tal forma que el percentil 0.75 de la distribución de la suma sea lo más alto posible. Una posible matriz de cuantiles para la distribución conjunta FX1 ,X2 es α 0.25 0.5 0.75 1 F −1 (α) (1,1) (2,3) (3,6) (4,10) O bien: x1 1 2 3 4 x2 1 3 6 10 Donde cada renglón representa las entradas del cuantil correspondiente a las probabilidades 0.25,0.5,0.75 y 1, respectivamente. Modificar la estructura de los cuantiles equivale a rearreglar la estructura de la distribución conjunta FX1 ,X2 , y ésta determina la distribución de X1 + X2 . De esto se sigue que el problema se reduce a encontrar el máximo valor de VaR0.75 (X1 + X2 ) arreglando las entradas de la matriz de cuantiles de las distribuciones marginales. El Algoritmo de Reorganización trabajará entonces con la matriz antes mostrada para maximizar la suma de los elementos del renglón correspondiente al cuantil α (en este caso, el tercer renglón), y éste corresponderá al percentil 0.75 de la distribución de la suma de las marginales. No es difı́cil resolver el problema de maximización para el caso antes mostrado. Los siguientes arreglos de la matriz de cuantiles muestran posibles soluciones a la maximización de VaR0.75 (X1 + X2 ): x1 2 1 4 3 x2 1 3 6 10 x1 + x2 3 4 10 13 x1 1 2 4 3 x2 1 3 6 10 x1 + x2 2 5 10 13 CAPÍTULO 3. MEDIDAS DE RIESGO Y EL ALGORITMO DE REORGANIZACIÓN20 x1 3 1 4 2 x2 1 3 6 10 x1 + x2 4 4 10 12 x1 2 3 4 1 x2 1 3 6 10 x1 + x2 3 6 10 11 En este caso, el valor encontrado para VaRα (X1 + X2 ) es 10, pues es el valor que maximiza la suma de los elementos del tercer renglón. Nótese que los primeros dos renglones no juegan un papel importante en la búsqueda de la maximización de la suma de las entradas del tercer renglón, pues son valores pequeños y no agregan posibilidades de incrementar mucho las combinaciones de x1 + x2 . De manera general, el problema de maximización del VaRα se puede restringir a la maximización de los renglones de la matriz a partir del renglón correspondiente al cuantil α siempre que las columnas de la matriz estén arregladas en forma creciente. En este caso, el problema de encontrar VaRα se puede solucionar de manera más sencilla trabajando con la submatriz de los renglones posteriores al tercero, obteniendo la siguiente matriz X α : x1 3 4 x2 6 10 Luego, maximizar la suma del tercer renglón de la matriz original se reduce a maximizar la suma del primer renglón de X α . Una vez más, se obtiene que la matriz que maximiza este renglón es x1 4 3 x2 6 10 x1 + x2 10 13 Por lo que el resultado no se ve alterado si los cuantiles inferiores a α no son tomados en cuenta en la permutación de los percentiles. Este hecho se muestra en [9], y representa un paso importante a encontrar la solución algorı́tmica para encontrar VaRα . En el caso general, donde se busca maximizar (o minimizar) VaRα (ψ(X)), se harán los siguientes supuestos sobre la función ψ: ψ es una función medible, simétrica, y creciente en cada coordenada. ψ está definida recursivamente. Esto es, ψ = ψ d donde ψ i : Ri −→ R, 3 ≤ i ≤ d se puede definir iterativamente como ψ i (xj , x−j ) = ψ 2 (ψ 1 (xj ), ψ i−1 (x−j )), (3.1) CAPÍTULO 3. MEDIDAS DE RIESGO Y EL ALGORITMO DE REORGANIZACIÓN21 donde x−j denota el vector x ∈ Rd al remover su j-ésima coordenada, y las funciones ψ 1 : R −→ R y ψ 2 : R2 −→ R son medibles, simétricas y crecientes en cada coordenada. El AR para encontrar VaRα (ψ(X)) y VaRα (ψ(X)) se basa en los resultados mostrados en [9] para encontrar cotas óptimas de P (ψ(X) > s). El procedimiento es análogo a como Embrechts et al. [6] lo utilizan para el caso Pd ψ(X) = i=1 Xi . En este trabajo se expone el algoritmo de reorganización para el caso general de función ψ que cumpla con las condiciones antes mencionadas, y su sustento teórico se muestra en el apéndice B. Definiciones y notación En lo siguiente, se entenderá que dos vectores a, b ∈ Rn están opuestamente ordenados si para 1 ≤ j ≤ N y 1 ≤ k ≤ N se tiene que (aj − ak )(bj − bk ) ≤ 0. También, para W una matriz de N ×d sean s(W ) y t(W ) los operadores definidos por s(W ) = mı́n ψ(wi,1 , . . . , wi,d ), 1≤i≤N t(W ) = máx ψ(wi,1 , . . . , wi,d ), 1≤i≤N Esto es, el mı́nimo y el máximo valor de los renglones de W aplicados a la función ψ. Se definen las siguientes funciones aplicadas a matrices W de (N × d): Ψ como ψ d (x1,1 , . . . , x1,d ) .. . d ψ (x , . . . , x ) Ψ(W ) = i,1 i,d .. . d ψ (xN,1 , . . . , xN,d ) Ψ−j como la función que aplica ψ d−1 a los renglones de la matriz W−j (la matriz resultante de eliminar la columna j-ésima de W ), d−1 ψ (x1,1 , . . . , x1,j−1 , x1,j+1 , . . . , x1,d ) .. . d−1 (xi,1 , . . . , xi,j−1 , xi,j+1 , . . . , xi,d ) Ψ−j (W ) = ψ , .. . ψ d−1 (xN,1 , . . . , xN,j−1 , xN,j+1 , . . . , xN,d ) CAPÍTULO 3. MEDIDAS DE RIESGO Y EL ALGORITMO DE REORGANIZACIÓN22 Ψj (W ) el vector resultante de aplicar la función ψ 1 a las entradas de la columna j-ésima de W, ψ 1 (x1,j ) .. 1 . Ψj (W ) = ψ (xi,j ) . .. . ψ 1 (xN,j ) Algoritmo de Reorganización para encontrar VaRα (Basado en Embrechts et. al [6] y Puccetti y Rüschendorf [9]) 1. Sea N un entero positivo fijo y > 0 el nivel deseado de precisión. α α 2. Define las matrices W α = (wα i,j ) y W = (w i,j ) como (1 − α)(i − 1) (1 − α)i −1 −1 α y w , wα = F α + = F α + i,j i,j j j N N (3.2) para 1 ≤ i ≤ N y 1 ≤ j ≤ d. α 3. Permutar aleatoriamente los elementos de las columnas de W α y W . 4. Rearreglar iterativamente la j-ésima columna de la matriz W α hasta que Ψj (W α ) se encuentre opuestamente ordenada con respecto a 5 Ψ−j (W α ). Llámese a esta última matriz W α ∗. 5. Repetir el paso anterior, utilizando a W α como W α ∗ , y obtener una nueva matriz W α hasta que se tenga que ∗ |s(W α ) − s(W α ∗ )| < . Sea W ∗ la matriz que cumple con lo anterior. 6. Repetir los pasos 4. y 5. con la matriz W matriz resultante del paso 5. 7. Definir α y obtener W ∗ como la ∗ sN = s(W ∗ ) y sN = s(W ). Entonces, se tiene que sN ≤ sN y en la práctica encontramos que sN ' sN ' VaRα (ψ(X)) cuando N → ∞. CAPÍTULO 3. MEDIDAS DE RIESGO Y EL ALGORITMO DE REORGANIZACIÓN23 3.3. Algoritmo para encontrar VaRα (Basado en Embrechts et. al [6] y Puccetti y Rüschendorf [9]) 1. Sea N un entero positivo fijo y > 0 el nivel deseado de precisión. α α 2. Define las matrices Z α = (z α i,j ) y Z = (z i,j ) como zα i,j = Fj−1 α(i − 1) N y zα i,j = Fj−1 αi N , (3.3) para 1 ≤ i ≤ N y 1 ≤ j ≤ d. α 3. Permutar aleatoriamente los elementos de las columnas de Z α y Z . 4. Rearreglar iterativamente la j-ésima columna de la matriz Z α hasta que Ψj (Z α ) se encuentre opuestamente ordenada con respecto a Ψ−j (Z α ). Llámese a esta última matriz Z α ∗. 5. Repetir el paso anterior, utilizando a Z α como Z α ∗ , y obtener una nueva matriz Z α ∗ hasta que se tenga que |t(Z α ) − t(Z α ∗ )| < . Sea Z ∗ la matriz que cumple con lo anterior. ∗ α 6. Repetir los pasos 4. y 5. con la matriz Z y obtener Z como la matriz resultante del paso 5. 7. Definir ∗ tN = t(Z ∗ ) y tN = t(Z ). Entonces, se tiene que tN ≤ tN y en la práctica encontramos que tN ' tN ' VaRα (ψ(X)) cuando N → ∞. Notas sobre el algoritmo En Embrechts et al. [6] se hacen las siguientes observaciones sobre el algoritmo: 5 Si ψ 1 tiene inversa, basta rearreglar la columna de Ψ (Z α ) de tal manera que esté opuesj tamente ordenada con respecto a Ψ−j (Z α ). Posteriormente, aplicar (ψ 1 )−1 a las entradas de Ψj (Z α ) para obtener la nueva columa j-ésima de Z α . Por lo regular se tiene que ψ(x) = x, por lo que Ψj (Z α ) = Zj y no hace falta hacer el procedimiento anterior. CAPÍTULO 3. MEDIDAS DE RIESGO Y EL ALGORITMO DE REORGANIZACIÓN24 La longitud de (sN − sN ) depende de la dimesión d del portafolio de riesgo en cuestión, ası́ como de N , el tamaño de la discretización de las colas superiores e inferiores de las marginales. Lo anterior es aplicable también para (tN − tN ). Las matrices definidas en el (3.2) corresponden a los cuantiles de una discretización de las distribuciónes Fj , aproximándolas por abajo mediante la distribución n−1 1X 1 −1 i Fj = , n i=0 [Fj ( n ),∞) y por arriba con n Fj = 1X . 1 −1 i n i=1 [Fj ( n ),∞) Ambas distribuciones se distribuyen uniformemente en los puntos Fj−1 ( i−1 n ), i = −1 i 1, ..., n y Fj ( n ), i = 1, ..., n, respectivamente, y se tiene que F j ≤ Fj ≤ F j . Por último, nótese que la elección de n es arbitraria, y en lo descrito en α el algoritmo para F j y F j es tal que las matrices W α y W tienen N renglones. No existe una prueba analı́tica a los resultados mostrados en el paso 7 del algoritmo. Sin embargo, en esta aproximación sı́ se cumple que sN ≤ VaRα (ψ(X)), mientras que para N grande sN ' VaRα (ψ(X)). Para el caso de VaRα , se tiene que VaRα (ψ(X)) ≤ tN , mientras que para N grande VaRα (ψ(X)) ' tN . Véase el Apéndice B para más detalles sobre la demostración de estos hechos. Estas aproximaciones dependen de la elección de la matriz inicial, por lo que en el paso 3 se introduce la elección de ésta como aleatoria. Con esto CAPÍTULO 3. MEDIDAS DE RIESGO Y EL ALGORITMO DE REORGANIZACIÓN25 se sugiere que, para N grande, se obtienen aproximaciones satisfactorias de las cotas del VaR.6 Notar que no se hicieron supuestos sobre las marginales X1 , . . . , Xd , por lo que éstas pueden elegirse arbitrariamente. Esto es importante considerando que las soluciones analı́ticas conocidas para VaRα requieren, por lo regular, que X1 , . . . , Xd sean idénticamente distribuidas. Este algoritmo resulta poderoso por este hecho, además de que será posible estimar las cotas para dimensiones d relativamente grandes. 3.4. Algoritmo para encontrar ESα Una medida alternativa para medir el riesgo agregado de un portafolio es el déficit esperado (expected shortfall). Definición 3.3. (Déficit Esperado) Sea α ∈ [0, 1] y Y una variable aleatoria con distribución F que cumple E(|Y |) < ∞. El déficit esperado a nivel de confianza α es Z 1 1 VaRq (Y )dq = E(Y |Y > VaRα (Y )). ESα (Y ) := 1−α α Esta medida representa el valor esperado de la pérdida de Y dado que se superó el α-percentil de la distribución de Y , o bien, la pérdida esperada dado que se incurrió en un déficit sobre el capital VaRα . El déficit esperado presenta ciertas propiedades deseables con las que el VaRα no cuenta,7 por lo que es importante medir el impacto cuantitativo de la agregación del riesgo de un portafolio desde ambas perspectivas. Considerando esto, es preciso conocer las cotas sobre las cuales se encuentra ESα (ψ(X)) cuando éste exista. Definición 3.4. Sean X1 , . . . , Xd variables aleatorias con distribución Fi , i = 1, . . . , d y ψ : Rd −→ R una función medible. Entonces, el peor escenario del déficit esperado con nivel de confianza α de la posición L = ψ(X1 , . . . , Xd ) se define como ESα (L) := sup{ESα (L) | Xi ∼ Fi , 1 ≤ i ≤ d}. 6 De hecho, aún es un problema abierto mostrar la prueba de convergencia del AR utilizando la selección aleatoria de la matriz inicial. Sin embargo, en [6] se contrastan los resultados del algoritmo para probar que efectivamente arroja buenas aproximaciones de las cotas cuyos resultados de VaRα son ya conocidos analı́ticamente. 7 El déficit esperado cumple con ser una medida coherente de riesgo, mientras que el VaR no lo es por no cumplir con ser subaditivo. Para más detalles, véase el capı́tulo 6 de McNeil et. al [7]. CAPÍTULO 3. MEDIDAS DE RIESGO Y EL ALGORITMO DE REORGANIZACIÓN26 Por su lado, el mejor escenario del déficit esperado con nivel de confianza α se define como ESα (L) := ı́nf{ESα (L) | Xi ∼ Fi , 1 ≤ i ≤ d}. Pd Observación. En el caso ψ(X) = i=1 Xi , se sabe por la subaditividad de ESα Pd Pd que i=1 ESα (Xi ) es una cota de ESα ( i=1 Xi ). Además, se tiene que d d X X ESα ( Xi ) = ESα (Xi ) i=1 i=1 cuando la distribución conjunta de (X1 , . . . , Xd ) se rige por la cópula comonotónica,8 por lo que es fácil conocer la cota superior de ESα si se conoce el comportamiento probabilı́stico de las marginales.PPor esta razón, el único valor d que se buscará estimar con el algoritmo es ESα ( i=1 Xi ). Es importante destacar que el algoritmo de reorganización solo podrá ser Pd utilizado para calcular ESα cuando ψ(X1 , . . . , Xd ) = i=1 Xi , hecho que es mostrado por Puccetti [8]. Definiciones y notación Si W es una matriz de (N × d) y α ∈ (0, 1) cuyos componentes son wi,j , definimos N X d X 1 wi,j . hk (W ) = (1 − α)N j=1 i=k Algoritmo de Reorganización para encontrar ESα (Puccetti [8]) 1. Sea N un entero positivo tal que αN = k̃ para algún entero positivo k̃ ≤ N , y > 0 el nivel de precisión deseado. α α 2. Define las matrices W α = (wα i,j ) y W = (w i,j ) como wα i,j = Fj−1 i−1 N y wα i,j = Fj−1 i N , para 1 ≤ i ≤ N y 1 ≤ j ≤ d. α 3. Permutar aleatoriamente los elementos de las columnas de W α y W . 8 Para una demostración de este hecho, véase Dhaene et al. [3] CAPÍTULO 3. MEDIDAS DE RIESGO Y EL ALGORITMO DE REORGANIZACIÓN27 4. Rearreglar iterativamente la j-ésima columna de la matriz W α hasta que ésta se encuentre opuestamente ordenada con respecto a la suma del resto de las columnas de W α . Llámese a esta última matriz W α ∗. 5. Repetir el paso anterior, utilizando a W α como W α ∗ , y obtener una nueva matriz W α ∗ hasta que se tenga que |s(W α ) − s(W α ∗ )| < . Sea W ∗ la matriz que cumple con lo anterior. 6. Repetir los pasos 4. y 5. con la matriz W matriz resultante del paso 5. 7. Definir α y obtener W ∗ como la α hN = hk̃ (W α ∗ ) y hN = hk̃ (W ∗ ). Entonces, se tiene que hN ≤ hN y en la práctica encontramos que hN ' hN ' ESα (X1 + · · · + Xd ) cuando N → ∞. Notas sobre el AR para encontrar ESα En Puccetti [8] se hacen las siguientes observaciones: Para ciertos modelos se tiene que ESα = ∞, por lo que éste se deberá estimar únicamente cuando ESα (ψ(X)) < ∞. En el caso particular de ψ = + basta con que ESα (Xi ) < ∞ para i = 1, . . . , d. La justificación del uso del algoritmo de reorganización para encontrar ESα se encuentra en Puccetti [8], y utiliza el hecho de que X es menor que Y en orden convexo si y sólo si ESα (X) ≤ ESα (Y ) para toda α ∈ (0, 1).9 En la misma referencia se muestra que hN ' ESα (X1 + · · · + Xd ) ≤ hN . Sin embargo, alguna de las distribuciones Fj puede no estar acotada por arriba y por lo tanto h = +∞. En estos casos no es útil el estimador del lado derecho de la igualdad y se utiliza hN como el estimador de ESα . 9 X es menor que Y en orden convexo si E(f (X)) ≤ E(f (Y )) para toda función f : R → R para la cual E(f (X)), E(f (Y )) < ∞. CAPÍTULO 3. MEDIDAS DE RIESGO Y EL ALGORITMO DE REORGANIZACIÓN28 3.5. Ejemplos En esta sección se muestran resultados de los algoritmos presentados en las secciones 3.2, 3.3 y 3.4 y se comparan los valores de VaRα , VaRα y ESα con los casos comonotónico e independiente de VaRα y ESα . Las distribuciones marginales fueron elegidas homogéneas (esto es, idénticamente distribuidas) por simplicidad.10 Los algoritmos fueron implementados en Octave 3.6.4 y el código se incluye en el apéndice C. Los resultados mostrados en los ejemplos tomaron en total un tiempo de procesamiento de 37 segundos en una Intel Core 2 Duo Optiplex 760 de 2GB RAM. Ejemplo 3.1 (AR para obtener VaRα y VaRα ). En este ejemplo se muestran resultados del algoritmo de reorganización en dimensión d = 3 para el caso X1 , X2 , X3 ∼ U (0, 1) tomando =0.1 y N = 100. La figura 3.1 muestra los valores de VaRα y VaRα estimados con los presentados en las secciones 3.2 y 3.3, ası́ como VaRα bajo la cópula de independencia y la comonotónica, obtenidos mediante simulación. Figura 3.1: Gráfica de VaRα (X1 + X2 + X3 ) para cuatro casos: el peor escenario del VaR (estimado con el AR), el mejor escenario del VaR (estimado con el AR), la cópula comonotónica y la cópula de independencia. De la figura se puede observar la diferencia entre VaRα y VaRα bajo la cópula comonotónica, lo que verifica que VaRα no es máximo en el caso co10 Es importante recordar que el algoritmo es aplicable para cualesquiera distribuciones marginales, y por lo tanto también distribuciones empı́ricas. Esto es relevante pues, en aplicaciones, los modelos de pérdidas agregadas no recaen en el caso homogéneo y el AR podrá utilizarse para encontrar VaRα , VaRα y ESα . CAPÍTULO 3. MEDIDAS DE RIESGO Y EL ALGORITMO DE REORGANIZACIÓN29 monotónico. Se puede observar también que existe una amplia diferencia entre VaRα y VaRα bajo el caso independiente, y que VaRα no necesariamente tiende al extremo del soporte de X1 + X2 + X3 , (en este caso, 3). El siguiente ejemplo muestra los resultados del algoritmo de reorganización para encontrar ESα en dimensión d = 3 para el caso en el que las marginales son uniformes y tomando = 0,1 y N = 100. En éste se contrasta lo obtenido mediante el algoritmo con los resultados ya conocidos de ESα y ESα . Ejemplo 3.2 (AR para obtener ESα ). La figura 3.2 muestra los resultados de ESα utilizando el algoritmo presentado en la sección 3.4 para el caso d = 3 y X1 , X2 , X3 ∼ U (0, 1). También se muestra ESα bajo la cópula comonotónica, de independencia, y el comportamiento de ESα para distintos valores de α. Resulta fácil mostrar que ESα (X1 + . . . + Xd ) = d utilizando el hecho de que ESα (X) = 1+α 2 1+α 2 si X ∼ U (0, 1) y que ESα (X1 + . . . + Xd ) = ESα (X1 ) + . . . + ESα (Xd ) si la distribución conjunta de (X1 , . . . , Xd ) se rige por la cópula comonotónica. En la figura 3.2 se comprueba este hecho, notando el comportamiento de los estimadores de ESα en el caso analı́tico y el obtenido mediante simulaciones de la cópula comonotónica. También, como es mencionado en Puccetti [8], es ya conocido analı́ticamente el valor de ESα cuando X1 , . . . , Xd ∼ U (0, 1), y éste es d/2 independientemente del valor de α. Comparando con lo mostrado en la figura 3.2 se verifica que el algoritmo estima de manera satisfactoria ESα (en este caso el valor analı́tico de ESα es 1.5 y el algoritmo arroja como resultado un valor muy cercano a éste). Si bien los ejemplos mostrados son simples y se eligieron distribuciones homogéneas con pocos riesgos, el algoritmo puede ser implementado para distribuciones no idénticamente distribuidas y para dimensiones d arbitrariamente grandes. Además, para el caso de VaRα , se puede utilizar cualquier función ψ siempre que cumpla con ser simétrica, medible, creciente en cada coordenada y que se pueda definir recursivamente. Estas consideraciones permiten que el algoritmo de reorganización sea suficientemente flexible para ser aplicado en distintos contextos. CAPÍTULO 3. MEDIDAS DE RIESGO Y EL ALGORITMO DE REORGANIZACIÓN30 Figura 3.2: Gráfica de ESα (X1 + X2 + X3 ) para cuatro casos: el peor escenario del ES, el mejor escenario del ES, la cópula comonotónica y la cópula de independencia. Capı́tulo 4 Aplicaciones del AR En el capı́tulo 3 se introdujo el concepto de peor y mejor escenario de las medidas de riesgo VaR y ES y se presentó el algoritmo de reorganización para estimarlos numéricamente. Por un lado, estas cotas responden a una necesidad de conocer el posible error de los estimadores de ρα (ψ(X)) según la selección del modelo conjunto de X, pues ρα y ρα reflejan la incertidumbre que se puede tener al seleccionar un modelo arbitrario de cópula. Por otro lado, como las cotas ρα y ρα son óptimas y para cada valor de ρα existe una estructura conjunta que induce este comportamiento, encontrar ρα y ρα mediante el algoritmo de reorganización permite modelar escenarios extremos de dependencia entre X1 , . . . , Xd desde el punto de vista de la magnitud de la medida de riesgo. Tomando la perspectiva anterior, se utilizarán las cotas de las medidas de riesgo para encontrar escenarios extremos en distintas aplicaciones. Se sugiere con este capı́tulo que la amplia flexibilidad del algoritmo de reorganización sea aprovechada, además de exponer la pertinencia y facilidad de ser aplicado en el sector financiero y asegurador. 4.1. Requerimientos de Capital La nueva regulación de seguros establece un Requerimiento de Capital de Solvencia (RCS) basado en el VaR de la pérdida agregada de las lı́neas de negocio por tipo de producto y riesgo. La modelación de dependencia que se contempla implementar entre ellas está basada en cópulas, por lo que estarı́a en orden preguntarse: para una aseguradora en particular, con Li , i = 1, . . . , d las v.a. de 31 CAPÍTULO 4. APLICACIONES DEL AR 32 Pd las pérdidas por los i riesgos a los que se encuentra expuesta y L = i=1 Li su pérdida agregada, ¿cuál debe ser el mı́nimo valor de RCS que se le debe pedir? y ¿cuál deberı́a ser el monto máximo? Las cotas presentadas en el capı́tulo 3 para el RCS y el algoritmo de reorganización permiten obtener estos valores. Sea RCS = VaRα (L) donde α es el nivel de confianza determinado por la regulación vigente. Entonces, el procedimiento a seguir para estimar el máximo y mı́nimo requerimiento de capital es el siguiente: 1. Estimar la distribución de las variables aleatorias para cada uno de los riesgos que enfrenta la aseguradora. Por lo regular éstas no tendrán una forma sencilla, por lo que puede estimarse la distribución empı́rica mediante N simulaciones de las realizaciones de las pérdidas marginales de los riesgos. N influirá en la precisión de la estimación del RCS por lo que debe ser suficientemente grande. 2. Definir > 0 como el grado de precisión. 3. Si la forma de la distribución es conocida analı́ticamente, proceder con el paso 2 del algoritmo de reorganización. Si la forma no es conocida, estimar las matrices del paso 2 mediante suavización de percentiles de la distribución empı́rica. 4. Continuar con el paso 3 y el resto del algoritmo de reorganización hasta obtener RCS L y RCS L , donde RCS L y RCS L denotan el máximo y el mı́nimo requerimiento capital de solvencia, respectivamente, para el portafolio agregado de seguros L. Resulta conveniente tanto para el regulador como para las aseguradoras estimar las cotas del RCS de sus componentes de riesgo por las siguientes razones: La implementación del algoritmo de reorganización es sencilla y el tiempo de cómputo de las cotas es reducido. RCS L y RCS L reveları́an el máximo y el mı́nimo requerimiento de capital que se le pedirı́a a una aseguradora con pérdidas de lı́neas de negocio representadas por L1 , . . . , Ld , lo que les permite tomar decisiones importantes de apetito de riesgo. Las cotas del RCS funcionan para validación y comparación de resultados contra modelos internos y la fórmula estándar. La posición del RCS regulatorio con respecto a RCS L y RCS L determina del nivel de conservadurismo desde el punto de vista de dependencia de las variables aleatorias. CAPÍTULO 4. APLICACIONES DEL AR 33 Con RCS L y RCS L se obtiene la posible incertidumbre de modelo que subyace en asignar dependencia mediante la cópula con la que se modelará a (L1 , . . . , Ld ). Ejemplo 4.1. En este ejemplo se mostrará el resultado de aplicar el algoritmo de reorganización para un caso real de una aseguradora con tres lı́neas de negocio. Se calculará RCS L y RCS L con α =0.95 para la suma de las pérdidas futuras de cada ramo. De manera general, el modelo que se utilizó para estimar las pérdidas futuras de cada lı́nea de negocio considera lo siguiente:1 1. El monto mensual de siniestros ocurridos se rige por un modelo compuesto, i.e. Ni X Xj , i = 1, 2, . . . , t Mi = j=1 donde • • • • Mi es el monto total ocurrido de siniestros en el mes i, Ni es el número de siniestros ocurridos en el mes i, Xj es el monto ocurrido de un siniestro individual, t es el número de mes futuro tal que la exposición de la cartera se haya extinguido. 2. Se asume que la frecuencia relativa mensual se rige por una misma distribución de probabilidad. Ésta determinará para cada mes futuro el valor de Ni . 3. Se asume que la severidad se rige por una misma distribución de probabilidad, con la cual se simula la severidad individual de los siniestros futuros considerando un factor por inflación. 4. Las distribuciones estimadas tanto de frecuencia relativa como de severidad se eligieron como aquellas cuyo estadı́stico de Cramer VonMises fuera menor al ser ajustados por un catálogo de distribuciones. 5. Los parámetros de las distribuciones resultantes del punto anterior se ajustaron con datos de frecuencia relativa mensuales de los últimos tres años, ası́ como siniestros individuales ocurridos en los últimos dos años. 6. La exposición futura está definida por efectos de caducidad de pólizas vigentes y otros decrementos múltiples, dentro de los cuales se encuentra la cancelación. 1 La explicación detallada del modelo está fuera del alcance de este trabajo. Sin embargo, se menciona la metodologı́a general para ilustrar cómo se obtuvieron los datos que se utilizaron para estimar el RCS. CAPÍTULO 4. APLICACIONES DEL AR 34 Finalmente, con las distribuciones, los parámetros estimados y los datos de la exposición futura del portafolio, se simulan los siniestros ocurridos por la cartera en los próximos meses y los montos se actualizan con una tasa de interés de inversión adecuada. Puesto que no resulta fácil estimar la distribución exacta de los siniestros futuros con los supuestos anteriores, se toman los resultados de la simulación como datos empı́ricos de los pagos futuros de la aseguradora. Los datos simulados se considerarán entonces como la distribución empı́rica de los pagos de siniestros para cada ramo y para los cuales se busca estimar el RCS. α La siguiente matriz corresponde a la denotada W con N = 30 en el algoritmo de reorganización para encontrar VaRα (sección 3.2) para los datos del modelo antes descrito. En la última columna se muestra la suma de las primeras tres columnas, que corresponde a los últimos percentiles de la distribución de L = X1 + X2 + X3 . A esta matriz se le arreglarán los elementos por columnas para maximizar el valor mı́nimo de la cuarta columna. CAPÍTULO 4. APLICACIONES DEL AR x1 1,566,378,197 1,567,709,091 1,569,506,723 1,570,974,374 1,572,879,535 1,574,797,557 1,576,452,204 1,577,666,522 1,578,672,721 1,580,911,726 1,582,255,747 1,584,019,995 1,585,762,443 1,588,182,521 1,590,498,160 1,592,397,663 1,594,126,757 1,597,226,083 1,600,480,288 1,604,697,994 1,607,370,137 1,610,310,782 1,615,804,350 1,620,328,218 1,627,756,290 1,633,163,429 1,640,992,740 1,653,433,934 1,669,424,372 1,724,100,342 x2 2,430,662,695 2,432,034,800 2,432,651,720 2,434,007,195 2,435,254,592 2,436,306,377 2,437,344,952 2,438,539,273 2,439,534,116 2,440,830,357 2,442,566,679 2,444,157,199 2,446,087,000 2,448,342,308 2,450,493,724 2,453,734,264 2,455,999,529 2,458,637,623 2,461,371,855 2,464,466,959 2,466,654,047 2,469,366,039 2,474,098,935 2,477,170,199 2,482,504,607 2,489,293,067 2,496,481,235 2,508,087,804 2,524,805,540 2,610,523,783 x3 2,657,563,908 2,658,964,289 2,660,431,345 2,661,952,210 2,663,735,720 2,665,809,991 2,667,714,454 2,670,268,139 2,672,083,113 2,673,515,251 2,675,574,800 2,677,044,098 2,679,538,844 2,681,942,078 2,683,030,312 2,685,809,613 2,688,263,427 2,690,409,641 2,692,765,656 2,696,142,233 2,698,374,761 2,703,236,920 2,708,924,315 2,714,616,517 2,720,347,948 2,726,054,797 2,734,881,741 2,743,379,433 2,763,038,709 2,809,402,020 35 P3 i=1 xi 6,654,604,800 6,658,708,180 6,662,589,788 6,666,933,779 6,671,869,847 6,676,913,925 6,681,511,610 6,686,473,934 6,690,289,950 6,695,257,334 6,700,397,226 6,705,221,292 6,711,388,287 6,718,466,907 6,724,022,196 6,731,941,540 6,738,389,713 6,746,273,348 6,754,617,799 6,765,307,186 6,772,398,946 6,782,913,741 6,798,827,600 6,812,114,935 6,830,608,845 6,848,511,293 6,872,355,716 6,904,901,171 6,957,268,621 7,144,026,145 Una vez que se aplica el algoritmo de reorganización con = 0.1 a la matriz anterior -de modo que se cumpla que las columnas de la matriz se encuentran opuestamente ordenadas con respecto a la suma de las otras-, se obtiene la siguiente matriz: CAPÍTULO 4. APLICACIONES DEL AR x1 1,627,756,290 1,604,697,994 1,633,163,429 1,620,328,218 1,590,498,160 1,597,226,083 1,615,804,350 1,592,397,663 1,585,762,443 1,600,480,288 1,582,255,747 1,607,370,137 1,640,992,740 1,594,126,757 1,584,019,995 1,578,672,721 1,577,666,522 1,588,182,521 1,610,310,782 1,576,452,204 1,572,879,535 1,580,911,726 1,574,797,557 1,653,433,934 1,570,974,374 1,669,424,372 1,569,506,723 1,567,709,091 1,724,100,342 1,566,378,197 x2 2,444,157,199 2,446,087,000 2,442,566,679 2,461,371,855 2,455,999,529 2,464,466,959 2,458,637,623 2,437,344,952 2,474,098,935 2,453,734,264 2,482,504,607 2,450,493,724 2,439,534,116 2,477,170,199 2,440,830,357 2,489,293,067 2,438,539,273 2,448,342,308 2,469,366,039 2,466,654,047 2,436,306,377 2,508,087,804 2,496,481,235 2,435,254,592 2,524,805,540 2,434,007,195 2,432,651,720 2,432,034,800 2,430,662,695 2,610,523,783 36 x3 2,677,044,098 2,698,374,761 2,673,515,251 2,667,714,454 2,703,236,920 2,688,263,427 2,675,574,800 2,720,347,948 2,690,409,641 2,696,142,233 2,685,809,613 2,692,765,656 2,670,268,139 2,679,538,844 2,726,054,797 2,683,030,312 2,734,881,741 2,714,616,517 2,672,083,113 2,708,924,315 2,743,379,433 2,663,735,720 2,681,942,078 2,665,809,991 2,661,952,210 2,660,431,345 2,763,038,709 2,809,402,020 2,658,964,289 2,657,563,908 P3 i=1 xi 6,748,957,587 6,749,159,755 6,749,245,359 6,749,414,527 6,749,734,609 6,749,956,469 6,750,016,773 6,750,090,563 6,750,271,019 6,750,356,785 6,750,569,967 6,750,629,518 6,750,794,995 6,750,835,800 6,750,905,149 6,750,996,100 6,751,087,536 6,751,141,346 6,751,759,934 6,752,030,566 6,752,565,345 6,752,735,250 6,753,220,870 6,754,498,517 6,757,732,124 6,763,862,912 6,765,197,152 6,809,145,911 6,813,727,326 6,834,465,888 El valor mı́nimo de los percentiles de L = X1 + X2 + X3 es 6.7489×109 , por lo que éste se utilizará como estimador de RCS L . Corriendo el algoritmo de reorganización con =0.1 y distintos valores de N 2 se obtienen los siguientes resultados: N 30 103 104 RCS L 6.2619×109 6.2357×109 6.2348×109 RCS L 6.7489×109 6.7456×109 6.7454×109 2 Los valores utilizados como estimadores son los definidos en el algoritmo de la sección 3.2 como sN y en la sección 3.3 como tN . CAPÍTULO 4. APLICACIONES DEL AR 37 Para estos riesgos, el VaR bajo el caso comonotónico es de 6.650×109 . Puede observarse entonces la diferencia en proporción del valor del RCS bajo el caso comonotónico no es muy distinta de aquél de RCS L . Sin embargo, en cifras absolutas sı́ existe una diferencia significativa. Obsérvese también que la diferencia entre RCS L y RCS L es de 510 millones de pesos, lo que representa una considerable suma de dinero y cuya posible inversión está sujeta a la selección del modelo de distribución conjunta. Para estos riesgos, el mejor estimador de la reserva (entendido como el valor esperado) es de 6.260×109 , por lo que la suma máxima de capital de los accionistas que pudiera dejarse de invertir en otros negocios serı́a del 8.1 % de la reserva total. Finalmente, como los valores de RCS L y RCS L indican que el valor del RCS que debe estar entre 6,234 y 6,745 millones de pesos, con éstos se puede conocer el nivel de conservadurismo del actual requerimiento de capital: la distancia que habrá entre la estimación del RCS bajo un modelo y el resultado de la cota superior permitirı́a conocer este nivel de aseguramiento con respecto al escenario extremo de dependencia. Un procedimiento análogo se puede efectuar para los modelos internos y estándar, con los cuales bastarı́a estimar los percentiles de la distribución de pagos futuros. Con éstos se tendrı́an los elementos suficientes para estimar las cotas del RCS de la posición agregada de la compañı́a. 4.2. Precios de activos En series financieras es común observar que existe dependencia entre las series de los rendimientos instantáneos de un activo. A pesar de esto, en modelos comúnmente utilizados se asume que los rendimientos en periodos excluyentes son independientes e idénticamente distribuidos. En esta sección se mostrará una aplicación del algoritmo de reorganización para encontrar intervalos de confianza de precios de activos considerando la estructura de dependencia que subyace en los rendimientos instantáneos. Sea St el precio de un activo al tiempo t ≥ 0, y sea δt,t+∆t la tasa continua de rendimiento del activo efectiva en el periodo [t, t + ∆t]. Entonces, el precio del activo al tiempo T = n∆t está dado por ST = S0 e δ0,∆t +δ∆t,2∆t +···+δ(n−1)∆t,n∆t = S0 n−1 Y eδi∆t,(i+1)∆t (4.1) i=0 En el modelo de Black-Scholes, se asume que los rendimientos δi∆t,(i+1)∆t siguen una distribución normal y que son independientes. Para algunos activos CAPÍTULO 4. APLICACIONES DEL AR 38 del mercado no se cumplen estos supuestos, especialmente en episodios de alta volatilidad del mercado. En estos casos la dependencia toma un papel importante y es pertinente conocer intervalos de confianza del activo St . El procedimiento para encontrar el intervalo de confianza a un α × 100 % para ST tomando en consideración la dependencia de sus rendimientos es el siguiente: 1. Definir α ∈ (0, 1) como el nivel de confianza del intervalo y ∆t como la longitud de los subintervalos de la discretización de [0, T ].3 2. Estimar la distribución de los rendimientos diarios, δi∆t,(i+1)∆t , i = 0, . . . , n− 1. Ésta se puede obtener mediante una distribución empı́rica de la serie de precios con los datos de los rendimientos históricos del activo. 4 3. Con la distribución de los rendimientos δi∆t,(i+1)∆t , i = 0, . . . , n − 1 , obtener la distribución de Xi = eδi∆t,(i+1)∆t , i = 0, . . . , n − 1 aplicando el teorema de transformación, FXi (x) = Fδi∆t,(i+1)∆t (log(x)). Qd 4. Aplicar el algoritmo de reorganización con ψ(x1 , . . . , xd ) = i=1 xi para encontrar VaR1− 1−α (X) y VaR 1−α (X). Con ésta se obtienen las cotas 2 2 para el rendimiento efectivo del activo en el tiempo [0, T ]. 5. Definir S T,1− 1−α = S0 VaR1− 1−α (X) y S T, 1−α = S0 VaR 1−α (X) 2 2 2 2 Estos valores corresponderán a los α-percentiles de ST pues ST = S0 X y por lo tanto VaRα (ST ) = S0 VaRα (X). 6. Finalmente, (S T, 1−α , S T,1− 1−α ) muestran los valores en los cuales se en2 2 contrará el precio del subyacente a un nivel de confianza α × 100 % considerando la dependencia de los rendimientos de St . Observaciones En el paso 2 se contemplan distribuciones arbitrarias de los rendimientos en [0, T ], mostrándose como un caso más general del modelo de BlackScholes en tanto que se elimina el supuesto de normalidad. 3 Nota: se deberá contar con observaciones de los rendimientos de los periodos de longitud 1 ∆t. Por ejemplo, si ∆t = 360 se debe contar con suficientes observaciones diarias de St . 4 Para remover el efecto de dependencia en la serie de rendimientos se puede tomar como muestra aleatoria elementos de la serie que estén lo suficientemente lejanos en el tiempo entre sı́. Este criterio se puede establecer mediante un análsis de autocorrelaciones de los rendimientos observados. CAPÍTULO 4. APLICACIONES DEL AR 39 La libertad de distribución de los rendimientos permite modelar colas pesadas y asimetrı́a, caracterı́sticas que se observan en algunos activos del mercado. En el paso 2 se menciona que se debe estimar la distribución de los rendimientos; sin embargo, éstos pueden tomarse normales para hacer un comparativo de los resultados mostrados por Black-Scholes y aquéllos que no asumen independencia de rendimientos. El algoritmo puede soportar dimensiones d arbitrariamente grandes, por lo que el horizonte sobre el cual se puede estimar el intervalo para el 1 , entonces con d = 60 precio puede ser elevado. Por ejemplo, si ∆t = 360 se estiman las cotas para un periodo de 2 meses. Se puede suponer que δi∆t,(i+1)∆t , i = 0, . . . , n−1 tienen la misma distribución, lo que facilitarı́a su estimación. Sin embargo, si se sabe que el activo no tiene un comportamiento homogéneo en algún subintervalo de [0, T ], se puede seleccionar un periodo k∆t a partir del cual δi∆t,(i+1)∆t , i = k, . . . , n dejen de ser idénticamente distribuidas. Determinar un intervalo de confianza tomando en cuenta la estructura de dependencia de los rendimientos puede tener numerosas ventajas. En lo siguiente se presentarán algunas aplicaciones de valor para instituciones financieras que requieren de esta clase de estimaciones. 4.2.1. Payoffs de instrumentos derivados Una vez que se conocen los valores extremos de St a nivel de confianza α con el procedimiento presentado en la seccion 4.2, se pueden conocer cotas superiores e inferiores para las pérdidas o ganancias de instrumentos derivados a un nivel de confianza α. Esto se puede efectuar de manera sencilla al evaluar los valores S T, 1−α y S T,1− 1−α en las funciones de pago de los instrumentos derivados. 2 2 Ejemplo 4.2 (Aplicación a opciones). La función de ganancia al vencimiento para una posición larga en un call con precio de ejercicio K y vencimiento en T es P = máx{ST − K, 0}. Esta función es creciente con respecto a ST y por lo tanto al evaluar los valores S T, 1−α y S T,1− 1−α se otendrán los escenarios de ganancias al vencimiento del 2 2 call europeo bajo los escenarios extremos de ST al nivel de confianza α. 4.2.2. Precios futuros El procedimiento mostrado de la seccion 4.2 puede ser aplicado para encontrar cotas de precios futuro con un mismo vencimiento al final del periodo [0, T ]. CAPÍTULO 4. APLICACIONES DEL AR 40 Una importante aplicación de determinar un intervalo de confianza para los precios futuros es la determinación de los márgenes iniciales de las cámaras de compensación: si se determina el nivel de confianza α como la probabilidad de no superar el margen inicial en [0, T ], entonces los valores P − S0 M = F T,1− 1−α 2 y m = S0 − F P T, 1−α 2 se pueden utilizar para determinar el nivel de margen inicial por unidad de subyacente con precio inicial S0 en el contrato de futuro. Tomar M I = máx{M, m} como nivel de margen inicial se asegurarı́a con un α × 100 % que las pérdidas en [0, T ] no superarán el margen en un caso extremo de dependencia de los rendimientos diarios de FT . 4.3. Coberturas de reaseguro Las cotas a las medidas de riesgo presentadas en el capı́tulo 3 tienen una aplicación directa para medir la exposición al riesgo en las que incurren las reaseguradoras al cubrir portafolios de seguros. En esta sección se muestran estas aplicaciones considerando las particularidades de cada cobertura. 4.3.1. Cobertura stop-loss La cobertura de exceso agregado (o stop-loss) establece una prioridad ` de pérdida para la suma de las pérdidas de la aseguradora en un intervalo de tiempo (regularmente de un año), a partir del cual el reasegurador comenzará a pagar el exceso sobre `. El reasegurador debe evaluar el nivel de riesgo en el que incurre al otorgar esta cobertura a un portafolio de seguros, por lo que conocer las cotas del VaR y el déficit esperado del portafolio permite revelar el nivel de aseguramiento sobre el portafolio cubierto. Sean X1 , . . . , Xd las componentes de pérdida agregada del portafolio. Éstas pueden ser, por ejemplo, las variables aleatorias de pérdida mensual experimentada por la aseguradora (que no necesariamente serán idénticamente distribuidas si se reconocen las diferencias en exposición por periodos). Éstas podrı́an representar también las pérdidas esperadas por los subramos de la lı́nea de negocio reasegurada. Pd En este caso, es de interés estimar las medidas de riesgo para ψ = + (X = i=1 Xi ), pues la cobertura stop-loss cubre las pérdidas aditivas del portafolio en el periodo de vigencia. VaR agregado del stop-loss Estimar las cotas del VaR agregado para del portafolio reasegurado es útil para evaluar los resultados de modelos del reasegurador y estimar los posibles CAPÍTULO 4. APLICACIONES DEL AR 41 niveles de confianza sobre los cuales se tiene que VaRα (X1 + . . . + Xd ) ≤ ` ≤ VaRα (X1 + . . . + Xd ). El ejercicio es el siguiente: 1. Tomar δ > 0 como el nivel de precisión de los extremos del conjunto A = {α ∈ (0, 1) : VaRα (X) ≤ ` ≤ VaRα (X)}. 2. Estimar la distribución de X1 , . . . , Xd , las componentes de riesgo cubiertas por el contrato. 3. Definir a = 0, b = 1, k = 0 y α0 ∈ (0, 1) como valor inicial. 4. Aplicar el algoritmo de reorganización para encontrar VaRαk (X). 5. Si |VaRαk (X) − `| < δ, tomar α∗ = αk como estimador del lı́mite inferior de A. De lo contrario, tomar a = αk si (VaRαk (X) − `) > 0, o b = αk si (VaRαk (X) − `) < 0. 6. Definir αk+1 = a+b 2 . 7. Repetir para k = 1, 2, . . . los pasos 4-6 hasta que se verifique que |VaRαk (X)− `| < δ, y definir α∗ como el estimador del lı́mite superior de A. Un intervalo de longitud pequeña indicarı́a que los posibles arreglos de dependencia entre X1 , . . . , Xd no generan casos muy extremos de VaRα . Por otro lado, si ambos extremos del intervalo resultan suficientemente elevados, el portafolio se encontrará adecuadamente cubierto por `, y por lo tanto no se superará el lı́mite de reaseguro con un alto nivel de confianza. ES agregado del stop-loss El algoritmo de reorganización de la sección 3.4 puede ser utilizado para encontrar el mejor escenario del déficit esperado de X = X1 + . . . + Xd dado que se superó la prioridad `.5 Con éste se conocerı́an las pérdidas del reasegurador en un evento de caso extremo de dependencia de X1 , . . . , Xd . El procedimiento para encontrar el mejor escenario de E(X|X > `) utilizando el AR para encontrar ESα es el siguiente: 1. Estimar la distribución de las componentes de pérdida X1 , . . . , Xd . Éstas pueden ser empı́ricas y se pueden obtener mediante simulaciones para contemplar el efecto de exposición futura del portafolio. 2. Definir N un entero positivo y > 0 como el grado de precisión. 5 Para hacer esto se deberá hacer una modificación al algoritmo para fijar α tal que VaRα = ` y que por lo tanto ESα sea un estimador del mejor escenario de E(X|X > `). CAPÍTULO 4. APLICACIONES DEL AR 42 3. Seguir los pasos 2-6 del algoritmo de reorganización (sección 3.4) hasta ∗ obtener W ∗ y W . 4. Definir +W el vector de (N × 1) cuyas entradas son los componentes ordenados de la suma de los elementos por columnas de W , i.e. (+W)i = d X wγ(i),j , i = 1, . . . , N, j=1 donde γ(i) son tales que (+W)1 ≤ (+W)2 ≤ . . . ≤ (+W)N , y definir k` := mı́n{n ∈ N : (+W)n ≥ `}. Este número representa el número de componentes de X = X1 + . . . + Xd que superan la prioridad `. 5. Para N suficientemente grande, los estimadores del mejor escenario de E(X|X > `) son q= N X d X 1 w∗i,j N − k` j=1 i=k` y q= N X d X 1 w∗i,j . N − k` j=1 i=k` Observación. El estimador de E(X|X > `) corresponde a ESα para α tal que VaRα (X) = `, por lo que el algoritmo fue modificado en su último paso para fijar ` como VaRα . Con los estimadores q y q las reaseguradoras pueden evaluar el nivel de confianza en el que se encuentra su portafolio bajo el mejor caso de dependencia. Una ventaja importante para éstas es que pueden determinar, según su apetito de riesgo, el nivel de confianza en el que se desea estar con respecto a la pérdida agregada de portafolio reasegurado bajo el mejor escenario. Es importante mencionar que en este caso no es fácil conocer el peor escenario de E(X|X > `) pues el algoritmo de reorganización de la sección 3.4 no es útil para estimar ESα . Sin embargo, la información que proporciona el mejor escenario del déficit esperado es de suficiente valor para tomar decisiones sobre el portafolio reasegurado. 4.3.2. Cobertura de exceso de pérdida por riesgo La cobertura de reaseguro no proporcional conocida como working cover o cobertura riesgo por riesgo, establece un lı́mite ` a partir del cual se comienzan a pagar pérdidas en exceso de siniestros individuales. En estos casos, el reasegurador debe evaluar el riesgo de exceder el lı́mite establecido durante la cobertura, o bien hacer un análisis para establecer un valor de ` adecuado al negociar el CAPÍTULO 4. APLICACIONES DEL AR 43 contrato de reaseguro. Sean X1 , . . . , Xd las componentes de riesgo del asegurador (pueden representar las pérdidas en un intervalo de tiempo considerando la exposición de cada periodo, o la pérdida de las unidades expuestas al riesgo) y X = máx{X1 , . . . , Xd }. Entonces, estimar VaRα (X) para distintos valores de α permite conocer el nivel de aseguramiento que tiene el portafolio de no sobrepasar ` en casos extremos de dependencia. En el siguiente ejemplo se muestran los resultados de efectuar este análisis para un portafolio de 100 unidades. Se eligió un comportamiento exponencial en las variables de pérdida por no contar con colas pesadas ni ligeras. Finalmente, se compara el resultado de utilizar el algoritmo de reorganización con el de la aproximación de máximos de variables aleatorias exponenciales por la distribución Gumbel. Ejemplo 4.3. Supóngase que se reasegura un portafolio cuyas componentes de riesgo, X1 , . . . , X100 , siguen una distribución Exp(1000). Supóngase también que la cobertura convenida es un working cover, y que la reaseguradora busca establecer un nivel ` tal que se tenga un α × 100 % de no superarlo durante el periodo de cobertura. La siguiente tabla compara estimaciones del percentil 95 de la distribución de X = máx{X1 , . . . , X100 } mediante tres acercamientos distintos: el primero, estimando el percentil de simulaciones independientes de Xi ∼ Exp(1000); el segundo, mediante una aproximación de X = máx{X1 , . . . , X100 } por la distribución de Gumbel;6 el tercero, mediante el algoritmo de reorganización para encontrar VaRα (X). α 0.90 0.95 Simulación 6894.8 7643.0 Gumbel 6886.7 7648.7 VaRα (X) 7013.1 7706.3 Estos resultados se muestran como posibles valores de ` tales que se cumpla con el criterio establecido. Desde una perspectiva conservadora, se puede establecer ` = 7013.1 para asegurar que el lı́mite no se superará con un nivel de confianza del 90 % aún en casos extremos de dependencia de X1 , . . . , X100 . Nótese que este análisis puede hacerse para casos en los que X1 , . . . , Xd no son idénticamente distribuidas, pues en el algoritmo se permiten distribuciones arbitrarias de X1 , . . . , Xd . Este hecho representa una importante ventaja sobre el acercamiento de distribuciones de máximos con teorı́a de valores extremos, ya que éste requiere de supuestos de convergencia a un dominio de atracción del 6 Esto pues la distribución exponencial pertenece al dominio de atracción del máximo de Gumbel. Véase la sección 7 de McNeil et al. [7] para más detalles. CAPÍTULO 4. APLICACIONES DEL AR 44 máximo. 4.4. Portafolio de derivados Supóngase que se tiene un portafolio de d derivados con distribución de pérdida actualizada X1 , . . . , Xd , 7 y que éstos dependen de subyacentes correlacionados en el mercado. Dada la posibilidad de que los derivados muestren un alto grado de dependencia, es importante hacer un análisis de mediante indicadores del portafolio. Para una función de agregación ψ que cumple con las caracterı́sticas mencionadas en la sección 3.2, y para un portafolio de activos X1 , . . . , Xd cuyas distribuciones marginales son conocidas, 8 obtener VaRα (ψ(X)) y ESα (ψ(X)) permite obtener conclusiones importantes sobre el riesgo y la dependencia de los derivados que componen el portafolio. Algunas funciones ψ a tomar podrı́an ser: 1. ψ(X) = mı́n{X1 , . . . , Xd }: En este caso la medida de riesgo VaRα permitirı́a conocer la ganancia máxima (o pérdida mı́nima) del portafolio para casos extremos de dependencia entre los instrumentos con un nivel de confianza α. Pd 2. ψ(X) = i=1 Xi : Para esta función, conocer ESα y ESα permitirı́a conocer la posible pérdida en un evento de catástrofe. También, con VaRα y VaRα se pueden tomar decisiones de inversión seleccionando derivados que minimicen el riesgo de déficit. Reconocer el nivel de dependencia que existe entre los instrumentos derivados es de fundamental importancia para evaluar la posición de riesgo de los portafolios, por lo que efectuar este análisis presentarı́a numerosas ventajas para los administradores de riesgos financieros. La alternativa presentada en esta sección permite contar con una mejor visión de los valores entre los cuales juegan los indicadores ρα en presencia de dependencia. 7 Se pueden contemplar posiciones largas y cortas ajustando el signo de la distribución para que valores positivos contemplen pérdidas. 8 Éstas pueden ser conocidas analı́ticamente, o se puede estimar la distribución empı́rica vı́a simulación. Por ejemplo, si las trayectorias de los precios de los subyacentes pueden ser modeladas marginalmente, con éstos se podrı́a simular las pérdidas ocasionadas por los instrumentos derivados. Capı́tulo 5 Conclusiones En la modelación de pérdidas agregadas del ámbito financiero y asegurador es necesario reconocer una estructura de dependencia entre las componentes de riesgo. Entre los métodos más utilizados se encuentran las cópulas, que permiten dotar de dependencia a un vector aleatorio sin alterar la estructura marginal. Los modelos de cópulas logran capturar ciertas dimensiones de relación en la distribución conjunta; sin embargo, la influencia de la selección de la cópula sobre la medida de riesgo a estimar puede ser significativa. Un ejemplo de esto se observa para la cópula comonotónica y la medida de riesgo ρα = VaRα , pues bajo la cópula comonotónica ésta no es siempre mayor que la independiente a pesar de la perfecta correlación positiva que induce en las marginales. Resulta entonces pertinente conocer la magnitud de la incertidumbre de modelo, ası́ como los valores máximo y mı́nimo que tomarı́an las medidas de riesgo por el efecto que introducen las cópulas en ρα . El algoritmo de reorganización permite conocer, mediante una aproximación por distribuciones uniformes discretas, las cotas óptimas de las medidas de riesgo VaRα y ESα para cualesquiera distribuciones marginales y para dimensiones d arbitrariamente grandes, tomando en consideración la influencia de la dependencia de X1 , . . . , Xd en ρα (ψ(X1 , . . . , Xd )). Además, este algoritmo permite obtener cotas del VaR para cualquier función de agregación ψ : Rd → R que cumpla con ser simétrica y creciente en cada coordenada. Para la medida de riesgo ρα = ESα se pueden estimar las cota inferior, ESα , únicamente para función de agregación aditiva. Para el peor caso de ESα se tiene que ESα (X1 + . . . + Xd ) = ESα (X1 ) + . . . + ESα (Xd ), por lo que no es necesario estimarlo mediante un algoritmo si se conoce el comportamiento marginal de (X1 , . . . , Xd ). Con las metodologı́as presentadas es posible efectuar un análisis de los lı́mi- 45 CAPÍTULO 5. CONCLUSIONES 46 tes en los que juega el valor en riesgo y el déficit esperado agregados con pocas restricciones. En comparación con las metodologı́as comunes para encontrar las medidas de riesgo, el algoritmo permite una alta flexibilidad en cuanto a dos importantes consideraciones: las posibles funciones de agregación (ψ) y la no homogeneidad de las distribuciones marginales. Esta flexibilidad le permite aplicaciones directas en los seguros y las finanzas, además de que el algoritmo es sencillo de implementar en muchos paquetes de programación. En la aplicación resulta de particular interés para el sector financiero y asegurador cuantificar la influencia de la dependencia extrema en las medidas de riesgo: las metodologı́as de requerimiento de capital de la nueva regulación de seguros podrı́an presentar una significativa incertidumbre de modelo y es importante estimarla.1 Por último, conocer las cotas a las medidas de riesgo presenta numerosas ventajas para los análisis internos de las instituciones de seguros: primero, permite introducir en los análisis de las medidas de riesgo una perspectiva de dependencia adecuada para tomar importantes decisiones de apetito de riesgo; segundo, las cotas revelan la posible dispersión de los indicadores de riesgo por efecto de la dependencia inducida en las marginales; finalmente, permite a los administradores de riesgos evaluar los niveles de confianza de los niveles de capital agregado. 1 En la aplicación al Requerimiento de Capital de Solvencia bastará con contar con la información de los parámetros de los modelos que el EIQ arrojará (es decir, poder estimar las variables aleatorias de pérdida marginales) para efectuar este análisis. Apéndice A Simulación de cópulas Los algoritmos de simulación se basarán en el método de inversión y en la siguiente relación: P (U2 ≤ u2 , U1 ∈ (u1 − , u1 + ]) P (U1 ∈ (u1 − , u1 + ) C(u1 + , u2 ) − C(u1 − , u2 ) = lı́m →0 C(u1 + , 1) − C(u1 − , 1) C(u1 + , u2 ) − C(u1 − , u2 ) = lı́m →0 2 ∂C(u1 , u2 ) = ∂u1 P (U2 ≤ u2 |U1 = u1 ) = lı́m →0 (A.1) El procedimiento a simular una realización de (X1 , X2 ) con cópula C será, en general, el siguiente: 1. Obtener una realización de X1 por el método de inversión ; esto es, x1 = −1 FX (u1 ) donde u1 proviene de una distribución U1 ∼ U (0, 1). 1 Aquı́ F −1 (x) denota la función inversa generalizada, F −1 (α) := ı́nf{x : F (x) > α}, α ∈ [0, 1]. y con éste obtener u2 = G−1 (u1 , u3 ). Aquı́ u3 2. Definir G(u, v) = ∂C(u,v) ∂u proviene de una realización de U3 ∼ U (0, 1) y u1 es el valor utilizado en el paso anterior para obtener x1 .1 −1 3. Obtener x2 = FX (u2 ) como una realización de X2 . 2 1 El valor u corresponde a la realización de la variable aleatoria U |U = u , como es 2 2 1 1 mostrado en (A.1). Éste se utiliza para obtener w, que toma el papel de generador de X2 bajo la estructura de C. 47 Apéndice B Relación de P (Y ≥ s) con VaRα(Y ) Puccetti y Rüschendorf desarrollaron en Computation of sharp bounds on the distribution of a function of dependent risks [9] el algoritmo de reorganización para encontrar cotas óptimas de P (ψ(X1 , . . . , Xd ) ≥ s), s ∈ R dado que Xi ∼ Fi , i = 1, . . . , d, donde Fi son funciones de distribución conocidas. El problema de maximización que se resuelve en este caso es el siguiente: dada una función ψ con las caracterı́sticas mencionadas en la sección 3.2 , s ∈ R fija y F1 , . . . , Fd funciones de distribución, se busca encontrar Mψ (s) = sup{P (ψ(X1 , . . . , Xd ) ≥ s) : Xj ∼ Fj , 1 ≤ j ≤ d} (B.1) mψ (s) = ı́nf{P (ψ(X1 , . . . , Xd ) > s) : Xj ∼ Fj , 1 ≤ j ≤ d} (B.2) Las probabilidades en (B.1) y (B.2) se definen de manera distinta para garantizar que el supremo y el ı́nfimo son alcanzados. El AR para encontrar Mψ y mψ es igual al mostrado en el capı́tulo 3, y su demostración se encuentra en [9] . La diferencia entre éstos se encuentra en el ∗ valor tomado de las matrices W y W ∗ (paso número 7. del AR presentado en la sección 3.2). Entonces, la relación que guarda el AR para encontrar Mψ y mψ con el AR para encontrar VaRα y VaRα es la siguiente: α Sea α ∈ (0, 1) y W = W la matriz obtenida por el paso 2 en el AR, y tomemos el caso particular s = mı́n{ψ(X)}. Por construcción de la matriz W se tiene que 48 APÉNDICE B. RELACIÓN DE P (Y ≥ S) CON VARα (Y ) P (ψ(X) ≥ mı́n{Ψ(W )}) ≥ 1 − α. 49 (B.3) Entonces, α ≥ 1 − P (ψ(X) ≥ mı́n{Ψ(W )}) = Fψ(X) (mı́n{Ψ(W )}) −1 por lo que aplicando Fψ(X) de ambos lados se obtiene que α VaRα (ψ(X)) ≥ mı́n{Ψ(W )}. (B.4) Por otro lado, si se toma la matriz W = W α , en la ecuación (B.3) se tiene P (ψ(X) ≥ mı́n{Ψ(W )}) ' 1 − α, y procediendo análogamente se observa que VaRα (ψ(X)) ' mı́n{Ψ(W α )}. (B.5) Luego, considerando (B.4) y (B.5) podemos aproximar VaRα como VaRα (ψ(X)) = máx mı́n{Ψ(W̃ )}. W̃ ∈P(W ) Donde P(W ) denota el conjunto de todas las posibles permutaciones por columnas de la matriz W . De esto se sigue que el Algoritmo de Reorganización propuesto por Puccetti y Rüschendorf puede utilizarse para computar VaRα como se propone en [6]. Análogamente, tomando Z = Z α como la matriz que se utiliza para encontrar VaRα , se tiene que tN ' VaRα (ψ(X)) ≤ tN y por lo tanto VaRα se puede aproximar como VaRα (ψ(X)) = mı́n máx{Ψ(Z̃)}. Z̃∈P(Z) Apéndice C Algoritmos en Octave En este apéndice se muestran las funciones utilizadas para implementar el algoritmo de reorganización para encontrar cotas de VaRα y de ESα en Octave. 1 % Con e s t a f u n c i o n s e computa sup o i n f rho para e l rho= VaR o rho=ES ( segun s e i n d i q u e en l a v a r i a b l e VaR : 1 e s VaR y 0 e s ES) . Esta f u n c i o n r e q u i e r e de l a f u n c i o n RAPsiV03 . 2 3 % INPUTS 4 5 6 7 8 9 10 % En UpperQ debe s e r l a m a t r i z que s e denota X b a r r a alpha , que debe c o n t e n e r l o s c u a n t i l e s de l a s m a r g i n a l e s . % En LowerQ debe s e r l a m a t r i z que s e denota X subrayado alpha , que debe c o n t e n e r l o s c u a n t i l e s de l a s m a r g i n a l e s . % sup i n d i c a s i s e busca e l worst−c a s e rho ( sup =1) o e l b e s t −c a s e rho ( sup =0) . % VaR : S i d i c e 1 , d e v u e l v e en l o w e r y upper l o s e s t i m a d o r e s de supVaR ( s i sup=1 y VaR=1) infVaR ( s i sup=0 y VaR=1) o i n f E S ( s i VaR=0) con l a s m a t r i c e s UpperQ y LowerQ % p s i e s l a f u n c i o n para l a c u a l s e o b t i e n e rho ( p s i (X) ) . Para o b t e n e r i n f E S s o l o s e puede con p s i =’x+y ’ . Ejemplos de p s i : p s i =’max( x , y ) ’ , p s i =’x∗y ’ , p s i =’min ( x , y ) ’ . % S i o r d e r =1, en l a s m a t r i c e s l M a t r i x y uMatrix s e d e v u e l v e l a m a t r i z de l o s c u a n t i l e s de l a d i s t r i b u c i o n de l a suma de manera ordenada . 50 APÉNDICE C. ALGORITMOS EN OCTAVE 51 % a l p h a e s e l n i v e l de c o n f i a n z a a l c u a l s e p r e t e n d e e s t i m a r ( e s n e c e s a r i o para computar infES ) . % e p s i l o n e s e l n i v e l de p r e c i s i o n d e l e s t i m a d o r . 11 12 13 14 % OUTPUTS 15 % l o w e r e s e l e s t i m a d o r de rho c o r r e s p o n d i e n t e a l a m a t r i z LowerQ . % upper e s e l e s t i m a d o r de rho c o r r e s p o n d i e n t e a l a m a t r i z UpperQ . % PsiLMatrix e s l a m a t r i z de l o s c u a n t i l e s de P s i (X) para e l e s c e n a r i o b e s t ( o w o r s t s i sup =0) c o r r e s p o n d i e n t e a l a m a t r i z LowerQ % PsiUMatrix e s l a m a t r i z de l o s c u a n t i l e s de P s i (X) para e l e s c e n a r i o b e s t ( w o r s t s i sup =0) c o r r e s p o n d i e n t e a l a m a t r i z UpperQ % l M a t r i x e s l a m a t r i z de l o s c u a n t i l e s de l a s m a r g i n a l e s para e l e s c e n a r i o b e s t ( w o r s t s i sup =0) c o r r e s p o n d i e n t e a l a m a t r i z LowerQ % uMatrix e s l a m a t r i z de l o s c u a n t i l e s de l a s m a r g i n a l e s para e l e s c e n a r i o b e s t ( w o r s t s i sup =0) c o r r e s p o n d i e n t e a l a m a t r i z UpperQ 16 17 18 19 20 21 22 % 23 ∗ l o s ultimos 4 outputs estaran or d e n a d o s en orden c r e c i e n t e s i e l i n p u t o r d e r =1. 24 25 26 f u n c t i o n [ lower , upper , PsiLMatrix , PsiUMatrix , l M a t r i x , uMatrix ]= supinfVaRES ( LowerQ , UpperQ , sup , VaR, p s i , o r d e r , alpha , e p s i l o n ) 27 28 29 30 31 32 c u e n t a =0; [ n ,m]= s i z e ( UpperQ ) ; Matrix1=z e r o s ( n ,m) ; Matrix2=z e r o s ( n ,m) ; k t i l d e=a l p h a ∗n ; 33 34 if 35 36 37 38 end ( k t i l d e −f l o o r ( k t i l d e )>0 && VaR˜=1) d i s p l a y ( ’ E r r o r : a l p h a ∗N no e s un e n t e r o y no s e podra o b t e n e r ESalpha ’ ) k t i l d e=f l o o r ( k t i l d e ) ; APÉNDICE C. ALGORITMOS EN OCTAVE 39 40 41 42 52 % Aqui f i j a m o s que s o l o s e obtenga i n f E S en c a s o de que s e s o l i c i t e e l Expected S h o r t f a l l y no VaR i f (VaR==0) sup =0; end 43 44 45 46 i f (VaR==0 && p s i ˜= ’ x+y ’ ) d i s p l a y ( ’ E r r o r : i n f E S s o l o s e puede c a l c u l a r para e l c a s o p s i ( x , y )=x+y . S a l d r a un e r r o r o l o s resultados seran i n c o r r e c t o s . ’ ) ; end 47 48 49 50 51 % Este f o r e s para permutar l a s columnas de l a m a t r i z UpperQ f o r j =1:m Matrix2 ( : , j )=UpperQ ( randperm ( n ) , j ) ; end 52 53 % Corre e l a l g o r i t m o por l o menos una vez 54 55 [ min2 , PsiMatrix , Matrix2 ]=RApsiV03 ( Matrix2 , sup , p s i ) ; 56 57 58 59 60 % En c a s o de que s e t r a t e d e l e x p e c t e d s h o r t f a l l obtenemos e l e s t i m a d o r d e l e x p e c t e d s h o r t f a l l i f (VaR˜=1) min2=mean ( P s i M a t r i x ( PsiMatrix >=( s o r t ( P s i M a t r i x ) ( ktilde ) ) ) ) ; end 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 do Matrix1=Matrix2 ; min1=min2 ; [ min2 , PsiMatrix , Matrix2 ]=RApsiV03 ( Matrix1 , sup , p s i ); i f (VaR˜=1) min2=mean ( P s i M a t r i x ( PsiMatrix >=( s o r t ( PsiMatrix ) ( k t i l d e ) ) ) ) ; end c u e n t a=c u e n t a +1; % d i s p l a y ( cuenta ) ; % d i s p l a y ( min2 ) ; u n t i l ( abs ( min1−min2 )<e p s i l o n ) upper=min2 ; PsiUMatrix=P s i M a t r i x ; APÉNDICE C. ALGORITMOS EN OCTAVE 76 77 78 79 80 81 82 83 84 85 86 87 53 %Se ordena l a m a t r i z por orden de l a suma en c a s o de que s e haya p e d i d o en l a v a r i a b l e o r d e r i f ( o r d e r ==1) PsiUMatrix=s o r t ( PsiUMatrix ) ; Usums=z e r o s ( n , 1 ) ; f o r i =1:n Usums ( i )=sum ( Matrix2 ( i , : ) ) ; end [ UQSums, Uindex ]= s o r t ( Usums ) ; f o r i =1:n uMatrix ( i , : ) =Matrix2 ( Uindex ( i ) , : ) ; end end 88 89 %Mismo p r o c e s o para LowerQ : 90 91 %Este f o r e s para permutar l a s columnas de l a m a t r i z LowerQ 92 93 94 95 f o r j =1:m Matrix2 ( : , j )=LowerQ ( randperm ( n ) , j ) ; end 96 97 [ max2 , PsiMatrix , Matrix2 ]=RApsiV03 ( Matrix2 , sup , p s i ) ; 98 99 100 101 i f (VaR˜=1) max2=mean ( P s i M a t r i x ( PsiMatrix >=( s o r t ( P s i M a t r i x ) ( ktilde ) ) ) ) ; end 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 do Matrix1=Matrix2 ; max1=max2 ; [ max2 , PsiMatrix , Matrix2 ]=RApsiV03 ( Matrix1 , sup , p s i ); i f (VaR˜=1) max2=mean ( P s i M a t r i x ( PsiMatrix >=( s o r t ( PsiMatrix ) ( k t i l d e ) ) ) ) ; end c u e n t a=c u e n t a +1; % d i s p l a y ( cuenta ) ; % d i s p l a y ( min2 ) ; u n t i l ( abs ( max1−max2 )<e p s i l o n ) l o w e r=max2 ; PsiLMatrix=P s i M a t r i x ; APÉNDICE C. ALGORITMOS EN OCTAVE 117 118 119 120 121 122 123 124 125 126 127 128 54 %Se ordena l a m a t r i z por orden de l a suma en c a s o de que s e haya p e d i d o en l a v a r i a b l e o r d e r i f ( o r d e r ==1) PsiLMatrix=s o r t ( PsiLMatrix ) ; Lsums=z e r o s ( n , 1 ) ; f o r i =1:n Lsums ( i )=sum ( Matrix2 ( i , : ) ) ; end [ LQSums , Lindex ]= s o r t ( Lsums ) ; f o r i =1:n l M a t r i x ( i , : ) =Matrix2 ( Lindex ( i ) , : ) ; end end 129 130 1 end % Como p r i m e r i n p u t s e t i e n e l a m a t r i z de cuantiles . 2 3 4 % El segundo argumento e s t a b l e c e s i s e busca e l maximo o e l minimo de l a suma de l o s r e n g l o n e s ( para b u s c a r e l minimo s e i n s e r t a 1 , y e l maximo s e i n s e r t a c e r o ) . %Output : d e v u e l v e e l minimo s i e l segundo argumento e s i g u a l a 1 ( o maximo en c a s o de que e l argumento max s e a i g u a l a c e r o ) de l a suma de l o s r e n g l o n e s de l a m a t r i z r e s u l t a n t e de p r o c e s a r l a m a t r i z ( e s t o es , para cada columna , a r r e g l a r h a s t a que e s t a opuestamente ordenada con r e s p e c t o a l a suma de l a s o t r a s columnas ) %Nota : s e asume que p s i ( x )=x , pues por l o g e n e r a l e s a s i . 5 6 % =1; p s i =’x+y ’ ; , psi ) ; q u a n t i l e s =[1 2 3 ; 3 4 6 ; 7 9 1 0 ] ; minimum [ minmax , PsiQ ,Q]=RApsi ( q u a n t i l e s , minimum 7 8 f u n c t i o n [ minmax , PsiQ ,Q]=RApsiV03 ( q u a n t i l e s , minimum , p s i ) 9 10 [ n ,m]= s i z e ( q u a n t i l e s ) ; 11 12 13 14 15 16 17 f u n c=i n l i n e ( p s i ) ; % R e a r r e g l a r cada columna f o r j =1:m % Crear un v e c t o r de l a suma de l a s o t r a s columnas i f ( strcmp ( p s i , ’ x+y ’ ) | | strcmp ( p s i , ’ x∗y ’ ) | | strcmp ( p s i , ’max( x , y ) ’ ) | | strcmp ( p s i , ’ min ( x , y ) ’)) i f strcmp ( p s i , ’ x+y ’ ) APÉNDICE C. ALGORITMOS EN OCTAVE 18 19 else 20 21 else 22 23 24 25 26 27 else 55 o t h e r c o l= sum ( [ quantiles (: ,1: j −1) quantiles (: , j +1: end ) ] ,2) ; i f strcmp ( p s i , ’ x∗y ’ ) o t h e r c o l= prod ( [ quantiles (: ,1: j −1) quantiles (: , j +1: end ) ] ,2) ; i f strcmp ( p s i , ’max( x , y ) ’ ) o t h e r c o l= max ( [ quantiles (: ,1: j −1) quantiles (: , j +1: end ) ] ,[] ,2) ; i f strcmp ( p s i , ’ min ( x , y ) ’ ) o t h e r c o l= min ( [ quantiles (: ,1: j −1) quantiles (: , j +1: end ) ] ,[] ,2) ; end end end APÉNDICE C. ALGORITMOS EN OCTAVE end 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 56 else o t h e r c o l=z e r o s ( n , 1 ) ; f o r k1 =1:n i f ( j ˜=1) p s i c o l=q u a n t i l e s ( k1 , 1 ) ; k3 =2; else p s i c o l=q u a n t i l e s ( k1 , 2 ) ; k3 =3; end f o r k2=k3 :m i f ( k2˜= j ) p s i c o l=f u n c ( psicol , q u a n t i l e s ( k1 , k2 ) ) ; end end o t h e r c o l ( k1 )=p s i c o l ; end end % V e r i f i c a r que e s t a n opuestamente o r d e n a d o s y , en c a s o de no c u m p l i r l o , i n t e r c a m b i a r con e l e l e m e n t o que l o interrumpe . f o r i =1:n−1 rows=f i n d ( ( ( q u a n t i l e s ( : , j )−q u a n t i l e s ( i , j ) ) . ∗ ( o t h e r c o l −o t h e r c o l ( i ) ) ) >0 ,1) ; w h i l e ( min ( rows ) >0) temp=q u a n t i l e s ( i , j ) ; q u a n t i l e s ( i , j )=q u a n t i l e s ( rows ( 1 ) , j); q u a n t i l e s ( rows ( 1 ) , j )=temp ; rows=f i n d ( ( ( q u a n t i l e s ( : , j )− quantiles ( i , j ) ) .∗( othercol − o t h e r c o l ( i ) ) ) >0 ,1) ; end i=i +1; end end 59 60 61 % Obtener e l minimo o e l maximo . PsiQ=z e r o s ( n , 1 ) ; 62 63 i f ( strcmp ( p s i , ’ x+y ’ ) | | strcmp ( p s i , ’ x∗y ’ ) | | strcmp ( p s i , ’max( x , y ) ’ ) | | strcmp ( p s i , ’ min ( x , y ) ’ ) ) APÉNDICE C. ALGORITMOS EN OCTAVE i f strcmp ( p s i , ’ x+y ’ ) 64 65 else 66 67 else 68 69 else 70 71 72 73 74 else f o r i =1:n PsiQ ( i )=q u a n t i l e s ( i , 1 ) ; f o r j =2:m PsiQ ( i )=f u n c ( PsiQ ( i ) , q u a n t i l e s ( i , j)); end end 77 78 79 80 81 82 83 PsiQ=sum ( q u a n t i l e s , 2 ) ; i f strcmp ( p s i , ’ x∗y ’ ) PsiQ=prod ( q u a n t i l e s , 2 ) ; i f strcmp ( p s i , ’max( x , y ) ’ ) PsiQ=max( q u a n t i l e s , [ ] , 2 ) ; i f strcmp ( p s i , ’ min ( x , y ) ’ ) PsiQ=min ( q u a n t i l e s , [ ] , 2 ) ; end end end end 75 76 end 84 85 if 86 87 88 89 90 ( minimum==1) minmax=min ( PsiQ ) ; else minmax=max( PsiQ ) ; end Q=q u a n t i l e s ; 91 92 57 end Bibliografı́a [1] Comisión Nacional de Seguros y Fianzas (2013). Nota metodológica: cálculo de las variables de pérdida de los seguros de daños y accidentes y enfermedades. Requerimiento de capital por riesgos técnicos y financieros de seguros (Borrador al 8 de abril de 2013). [2] Das, B., Embrechts, P. y V. Fasen, (2012). Four theorems and a financial crisis. International Journal of Approximate Reasoning, Vol. 54, No. 6., pp. 701-716. [3] Dhaene, J. (2004). Risk measures and comonotonicity: a review. Stochastic Models, Vol. 44, No. 4, pp. 573-606. [4] Donnelly, C. y P. Embrechts, (2010). The devil is in the tails: actuarial mathematics and the subprime mortgage crisis. ASTIN Bulletin, 40, pp. 133. [5] Embrechts, P. y G. Puccetti, (2010). Risk Aggregation. En Copula theory and its applications, Vol. 198 de Lecture Notes in Statistics, pp. 111-126. Springer Berlin Heidelberg. [6] Embrechts, P., Puccetti, G. y L. Rüschendorf, (2012). Model Uncertainty and VaR Aggregation. Journal of Banking and Finance Vol. 37, No. 8, pp. 2750-2764. [7] McNeil, A., Frey, R. y P. Embrechts (2005). Quantitative Risk Management: Concepts, Techniques, Tools. Princeton, NJ: Princeton University Press. [8] Puccetti, G. (2013). Sharp bounds on the expected shortfall for a sum of dependent random variables. Statistics and Probability Letters Vol. 83, No. 4, pp. 1227-1232. [9] Puccetti, G. y L. Rüschendorf (2012). Computation of sharp bounds on the distribution of a function of dependent risks. J. Comput. Appl. Math. Vol. 236, No. 7, pp. 1833-1840. 58 BIBLIOGRAFÍA 59 [10] Savu, C. y M. Trede, (2010). Hierarchies of Archimedean copulas. Quantitative Finance, Vol. 10, No. 3, pp. 295-304. [11] Schmidt, T. (2006). Coping with Copulas. En Copulas: from Theory to Application in Finance de J. Rank, pp. 1-31. Londres: Risk Books. [12] Sklar, A. (1959). Fonctions de répartition à n dimensions et leurs marges. Publications de l’Institut de Statistique de l’Université de Paris 8, pp. 229231.