Primer Lugar Seguros

Anuncio
Agregación de riesgos: escenarios extremos del
valor en riesgo y el déficit esperado en presencia
de dependencia.
Trabajo presentado para el XX Premio de Investigación
sobre Seguros y Fianzas 2013
“Antonio Minzoni Consorti”
Lic. Bernardo Ramos Aguilera
“BARICCO”
XX
Premio de Investigación
sobre Seguros y Fianzas 2013
“Antonio Minzoni Consorti”
Primer Lugar
Categoría de Seguros
Agregación de riesgos: escenarios extremos del
valor en riesgo y el déficit esperado en presencia
de dependencia.
Baricco
26 de agosto de 2013
Índice general
1. Reseña
1
2. El Problema de Cópulas y Dependencia
2.1. Introducción a las cópulas . . . . . . . . . . . . . . . . . . . . . .
2.2. Algunas Cópulas Importantes . . . . . . . . . . . . . . . . . . . .
2.2.1. Cópula Comonotónica . . . . . . . . . . . . . . . . . . . .
2.2.2. Cópula Contramonotónica . . . . . . . . . . . . . . . . . .
2.2.3. Cópula de Independencia . . . . . . . . . . . . . . . . . .
2.2.4. Cópula de Gumbel . . . . . . . . . . . . . . . . . . . . . .
2.2.5. Cópula de Clayton . . . . . . . . . . . . . . . . . . . . . .
2.3. Aplicaciones de las cópulas en la estimación de medidas de riesgo
3
3
6
7
7
8
8
10
11
3. Medidas de riesgo y el algoritmo de reorganización
3.1. Motivación del AR . . . . . . . . . . . . . . . . . . . .
3.2. Algoritmo para encontrar VaRα . . . . . . . . . . . . .
3.3. Algoritmo para encontrar VaRα . . . . . . . . . . . . .
3.4. Algoritmo para encontrar ESα . . . . . . . . . . . . .
3.5. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
16
16
18
23
25
28
4. Aplicaciones del AR
4.1. Requerimientos de Capital . . . . . . . . .
4.2. Precios de activos . . . . . . . . . . . . . .
4.2.1. Payoffs de instrumentos derivados
4.2.2. Precios futuros . . . . . . . . . . .
4.3. Coberturas de reaseguro . . . . . . . . . .
4.3.1. Stop-loss . . . . . . . . . . . . . .
4.3.2. Exceso de pérdida por riesgo . . .
4.4. Portafolio de derivados . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
31
31
37
39
39
40
40
42
44
5. Conclusiones
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
45
i
ÍNDICE GENERAL
ii
A. Simulación de cópulas
47
B. Relación de P (Y ≥ s) con VaRα (Y )
48
C. Algoritmos en Octave
50
Bibliography
58
Capı́tulo
1
Reseña
La crisis de 2008 desató en el ámbito financiero una alta preocupación de
cuantificar correctamente los riesgos, lo que ha llevado a un desarrollo significativo de la estadı́stica que sustenta a la administración de riesgos. Propuestas
importantes de regulación internacional de los bancos (Basilea III), aseguradoras
(Solvencia II) e instituciones financieras se han concretado en la última década,
y con éstas se ha progresado en el estudio de la correcta modelación de pérdidas agregadas. Con especial atención se han estudiado los modelos de cópula
-herramienta muy utilizada en la modelación conjunta de variables aleatorias-,
ya que se ha observado que presentan importantes limitantes que deben considerarse para su aplicación.1
Particularmente, México está experimentando un cambio significativo de la
regulación de las instituciones de seguros para garantizar que el capital de las
aseguradoras sea suficiente y asegure su solvencia en el corto y largo plazo. Dentro de estas disposiciones de la nueva Ley de Seguros y Fianzas y la Circular
Única de Seguros y Fianzas, se ha establecido un modelo estándar de valuación
del requerimiento de capital de solvencia de las aseguradoras.2 Con este modelo,
se asignará el requerimiento de capital como el valor en riesgo de la suma de
las variables de pérdida, cuya distribución conjunta se asignará mediante una
cópula arquimediana jerárquica.3 La crisis nos ha enseñado que hay que tomar
con especial cuidado estos modelos, por lo que es importante evaluar si resulta
conveniente someter la práctica a modelos que hasta ahora solo se ajustan bien
a la teorı́a.
1 Dos excelentes referencias sobre sobre este tema son Donnelly y Embrechts [4] y Das et
al. [2].
2 Para más detalles, véase el borrador de la Nota Metodológica para el cálculo de las
variables de pérdida de los seguros de daños y accidentes y enfermedades [1].
3 Los autores de [1] citan a Savu y Trede [10] como referencia de cópulas arquimedianas
jerárquicas.
1
CAPÍTULO 1. RESEÑA
2
Dicho lo anterior, el presente trabajo busca dar una solución a la cuantificación del posible error que se esté cometiendo al estimar medidas de riesgo
de componentes agregados mediante cópulas. Con las metodologı́as presentadas, podrá evaluarse fácilmente el impacto de incertidumbre de modelo que se
cometa al utilizarlas sin un claro sustento del comportamiento conjunto de las
variables de pérdida. El presente trabajo resultará entonces en una aplicación
directa para la determinación del error de la estimación del Requerimiento de
Capital de Solvencia, cuyo nivel modificarı́a sustancialmente al patrimonio de
los accionistas de las instituciones de seguros.
De manera general, el presente trabajo muestra algoritmos4 que permiten
encontrar numéricamente las cotas al valor en riesgo y el déficit esperado para
ciertas funciones de variables aleatorias. Esto permitirá directamente revelar los
valores entre los cuales se encontrarán todas las estimaciones de estas medidas de riesgo al asignar un modelo de cópula a la distribución conjunta. En la
aplicación del Requerimiento de Capital de Solvencia se tiene que estas cotas
permiten revelar los valores máximo y mı́nimo que deberá conservar la aseguradora por concepto de requerimiento de capital. Estas cotas permiten, además,
revelar el nivel de conservadurismo del nivel de las medidas de riesgo estimadas
con modelos internos y la fórmula estándar.
Es importante mencionar que no solo es relevante efectuar este análisis en el
ámbito asegurador; no obstante, en este trabajo se le da este enfoque especial
para fomentar el estudio del impacto de la nueva regulación de las instituciones
de seguros. El estudio propuesto en el presente trabajo podrá implementarse de
manera sencilla una vez que se cuentan con las estimaciones de los parámetros
de los modelos propuestos por la Comisión Nacional de Seguros y Fianzas, pues
con éstos se podrán estimar las distribuciones marginales de pérdida.5 Finalmente, los requerimientos de capital son un ejemplo de un campo en el cual es
relevante cuantificar la incertidumbre de selección de un modelo; sin embargo,
en distintos contextos se debe lidiar con medir la exposición de agregaciones de
riesgos cuyo comportamiento conjunto sea desconocido.
4
Basados en Embrechts et al. [6], Puccetti [8] y los resultados de Puccetti y Rüscendorf
5
Bastarı́a con poder estimar los cuantiles para implementar los análisis propuestos.
[9]
Capı́tulo
2
El Problema de Cópulas y
Dependencia
En este capı́tulo de presentará el concepto de cópula y su relación con las
funciones de distribución. Se mostrará algunas cópulas importantes, sus propiedades, y se ilustrará la dificultad de modelar con éstas escenarios extremos bajo
ciertas dimensiones de dependencia.
2.1.
Introducción a las cópulas
En numerosas aplicaciones que involucran implı́citamente vectores aleatorios se asume que existe independencia de las variables que lo conforman. Esto
resulta un supuesto insostenible en algunos modelos multivariados: en finanzas,
por ejemplo, resulta sencillo mostrar evidencia de la influencia del resultado de
inversiones de una cartera con respecto a otra para una misma empresa; en
seguros, es casi evidente que los resultados de los subramos están relacionados
entre sı́. En estos contextos es necesario introducir un grado de dependencia
entre variables para dar al modelo un toque más realista.
El problema de la modelación de dependencia no tiene un método cuya aprobación sea consensual; sin embargo, una de las herramientas más utilizadas para
este fin (y que ha cobrado relevancia por las implicaciones que ha tenido en el
sector financiero) es el concepto de cópula. Si bien resultará una tarea difı́cil
explicar con ellas toda la estructura de dependencia de un vector aleatorio, sı́ se
podrán capturar algunas dimensiones de interrelación entre sus variables. Por
esto, es importante conocer en qué sentidos podemos decir que dos variables
aleatorias son dependientes.
3
CAPÍTULO 2. EL PROBLEMA DE CÓPULAS Y DEPENDENCIA
4
Sean X y Y variables aleatorias. Existirı́a una notoria dependencia entre
X y Y si conocer el valor de X proporcionara información completa acerca del
comportamiento de Y ; por ejemplo, si supiéramos que Y = X 3 entonces conocer
X nos da información certera acerca de Y . En general, si Y puede expresarse
como Y = T (X), donde T es cualquier función uno a uno entonces se habları́a
de un caso extremo de dependencia entre X y Y .1
Es posible, sin embargo, que si bien no se pueda predecir con certeza valores
de Y , conociendo el valor de X podamos inferir un rango de valores sobre el
cual serı́a más probable que Y se encontrara. Por ejemplo, si sabemos que X
resultó un valor muy alto, entonces Y necesariamente debe ser alto también. Es
decir, puede existir una influencia del resultado de X sobre los posibles resultados de Y , y ésta, regularmente, no es conocida.
En estos casos, la estructura de interrelación entre dos variables X y Y toma
lugar, y las cópulas se muestran como una posible solución para su modelación.
Definición 2.1. Una cópula de dimensión d es una función C : [0, 1]d −→ [0, 1]
tal que C es una función de distribución en [0, 1]d con marginales uniformes.
La importancia de las cópulas radica en el resultado probado por Sklar
(1959), en el que se establece la relación que existe entre las cópulas y la función
de distribución de un vector aleatorio.
Teorema 2.1 (Sklar, 1959). Sea F una función de distribución conjunta con
marginales F1 , . . . , Fd . Entonces existe una cópula C tal que para todo x1 , x2 , . . . , xd
en R = [−∞, ∞]
F (x1 , . . . , xd ) = C(F1 (x1 ), . . . , Fd (xd ))
(2.1)
Si las marginales son continuas, entonces C es única; de lo contrario, C definida
en Ran(F1 )× Ran(F2 ) × . . . × Ran(Fd ), donde Ran(Fi ) denota el rango de Fi ,
es única.
Equivalentemente, si C es una cópula y F1 , . . . , Fd son funciones de distribución univariadas, entonces F definida en (2.1) es una función de distribución
conjunta con marginales F1 , . . . , Fd .
Una función de distribución define por completo a una variable aleatoria,
por lo que en la cópula se encuentra toda la información que se desee extraer
de la relación entre las distribuciones marginales.
1 Notar que esta noción es consistente con el concepto más común de dependencia: la correlación lineal. Efectivamente, si Y = T (X) con T una transformación uno a uno, valores altos
de X llevarı́an a valores relativamente altos (bajos) de Y , dependiendo si la transformación
T es monótona creciente (decreciente). Existen, sin embargo, nociones de dependencia que no
siguen esta misma lı́nea y será importante tenerlo en consideración en adelante.
CAPÍTULO 2. EL PROBLEMA DE CÓPULAS Y DEPENDENCIA
5
La importancia del teorema de Sklar radica en que, dadas d distribuciones
marginales con funciones de distribución (conocidas) F1 , . . . , Fd , es posible explicar la estructura de dependencia del X al aplicar cuidadosamente una función
C a (F (x1 ), F (x2 ), . . . , F (xd )). Además, no se altera la estructura marginal de
X pues
F (1, . . . , 1, xi , 1, . . . , 1) = C(1, . . . , 1, FXi (xi ), 1, . . . , 1) = FXi (xi ),
por tener C marginales uniformes.
El teorema de Sklar da el fundamento teórico para emprender la búsqueda
de funciones C adecuadas para modelar la interrelación de las variables en X,
y es aquı́ donde toma lugar la diversidad de dimensiones de dependencia entre
variables aleatorias. Ahora, explicar la estructura de X vı́a cópulas no resulta
sencillo, pues tener conocimiento de algunas medidas de dependencia entre las
marginales no permite inferir, en general, la forma de la función de distribución
de la cual provienen. Se ilustrará esto con un ejemplo.
Ejemplo 2.1. Sean X1 y X2 variables aleatorias con distribución uniforme en
(0,1), y supongamos que se conoce que la correlación lineal entre estas dos variables es cero.
Una posible distribución conjunta F1 estarı́a dada por
F1 (x1 , x2 ) = x1 x2 ,
de modo que X1 y X2 sean variables aleatorias independientes y por lo tanto
de correlación cero.2
Sin embargo, la distribución conjunta F2 dada por
F2 (x1 , x2 ) =
1
1
máx{u1 + u2 − 1, 0} + mı́n{u1 , u2 }
2
2
cumple que sus marginales son uniformes (0,1) y, además, la correlación lineal
entre ellas es cero.3 Sin embargo, bajo F2 , X1 y X2 no resultan ser independientes.
Como F2 es muy distinta de la distribución F1 , la elección de la cópula influye
en la estructura de (X1 , X2 ). La figura 2.1 muestra las funciones de distribución
F1 y F2 , donde puede apreciarse la diferencia entre la forma de la función de
distribución conjunta.
El ejemplo 2.1 muestra que pueden existir diversas soluciones a un problema
de deducción de la función de distribución conjunta sujeto a que se conoce el
2 De hecho, a la distribución conjunta F le corresponderá la cópula de independencia,
1
pues como X1 , X2 ∼ U (0, 1) se RR
tiene que C(Fx1 (x1 ), FX2 (x2 )) = FX1 (x1 )FX2 (x2 ) = x1 x2 .
3 Esto pues Cov(X , X ) =
[F2 (x1 , x2 ) − FX1 (x1 )FX2 (x2 )]dx1 dx2 = 0
1
2
CAPÍTULO 2. EL PROBLEMA DE CÓPULAS Y DEPENDENCIA
(a) F1 (x1 , x2 ) = x1 x2 .
6
(b)
F2 (x1 , x2 )
=
1
máx{x
+
x
−
1,
0}
+
1
2
2
1
mı́n{x1 , x2 }.
2
Figura 2.1: Gráficas de la función de distribución conjunta de X1 y X2 bajo F1
y F2 .
valor de una medida de dependencia. Luego, dadas FX1 y FX2 distribuciones
marginales existirá una cantidad considerable de cópulas a elegir, y, por el Teorema de Sklar, tantas funciones de distribución conjunta como cópulas se tengan.
Más adelante se verá que la elección de una cópula puede influir notablemente
en la información que se quiera obtener de la distribución conjunta, y el efecto
sobre ésta dependerá, por supuesto, del tipo de dependencia que se induzca en
la distribución conjunta. Considerando lo anterior y la amplia gama de posibles
cópulas a elegir para modelar a X, se tiene que la solución al problema de extraer
la información adecuada de X no resulta sencilla.
2.2.
Algunas Cópulas Importantes
En esta sección se expondrán ejemplos de cópulas importantes y se explicará brevemente la relación de dependencia que introducen en las marginales de
X.
El estudio de la relación introducida en las variables se basará en la densidad
de la cópula; esto es, el mapeo de la densidad de C en [0, 1]d . Si C es diferenciable
en [0, 1]d , entonces la densidad de la cópula se obtiene como sigue:
c(u) =
∂ d C(u1 , . . . , ud )
,
∂u1 . . . ∂ud
y con ésta se podrá apreciar geométricamente la relación que se introduce con
cópulas para las cuales la densidad existe.
CAPÍTULO 2. EL PROBLEMA DE CÓPULAS Y DEPENDENCIA
7
Asimismo, en el análisis de las cópulas comonotónica y contramonotónica se
utilizará el siguiente resultado:
Teorema 2.2. (Cotas de Fréchet-Hoeffding) Sea C una cópula de dimensión d y u = (u1 , . . . , ud ) ∈ [0, 1]d . Entonces,
d
X
máx{
ui − 1} ≤ C(u) ≤ mı́n{u1 , . . . , ud }.
i=1
2.2.1.
Cópula Comonotónica
Las cotas de Fréchet-Hoeffding indican que las cópulas en dimensión 2 están
acotadas por C(u, v) = máx{u + v − 1, 0} y C(u, v) = mı́n{u, v}. Esto significa
que (al menos geométricamente) cualquier estructura de dependencia C debe
estar dentro de estos valores, por lo que estas cotas se muestran como casos
extremos de dependencia en algún sentido.
Efectivamente, la cota superior
Ccom (u) = mı́n{u1 , . . . , ud }
resulta ser una cópula en dimensión d, y se conoce como la cópula comonotónica.
Además, esta cópula es obtenida para el vector X cuando
(X1 , X2 . . . , Xd ) = (X1 , T1 (X1 ), . . . , Td−1 (X1 )),
donde T1 , . . . , Td−1 son funciones monótonas estrictamente crecientes. En este
caso, si alguna de las variables (X1 , . . . , Xd ) toma un valor alto, la estructura
funcional de las marginales provoca que el resto de las variables lo haga también.
De hecho, si Xi = Ti (X1 ), i = 2, . . . , d entonces dado algún valor Xi = xi se
puede conocer con certeza el resto de los valores del vector. En este sentido se
dice que la estructura de dependencia de X es extrema.
2.2.2.
Cópula Contramonotónica
Si bien las cotasP
de Fréchet indican que toda cópula está acotada por debajo
d
por C(u) = máx{ i=1 ui − 1}, la función C no resulta ser una cópula en
dimensión d > 2. Si d = 2 entonces a
Ccon (u1 , u2 ) = máx{u1 + u2 − 1, 0}
se le conoce como la cópula contramonotónica.
De manera similar a la cópula comonotónica, la cópula contramonotónica se
muestra como un caso extremo de dependencia; sin embargo, las componentes
de (X1 , X2 ) guardan una relación inversa entre sı́. Esto es, si se conoce que
X1 = x1 y éste es muy alto, la variable x2 será muy baja y viceversa.
CAPÍTULO 2. EL PROBLEMA DE CÓPULAS Y DEPENDENCIA
2.2.3.
8
Cópula de Independencia
La cópula de independencia se define como
CI (u) =
d
Y
ui
i=1
Es fácil verificar que si X1 , . . . , Xd son independientes, entonces la cópula que
define a la distribución conjunta F es la cópula de independencia.
La densidad de la cópula CI es
cI (u) =
∂ d CI (u1 , . . . , ud )
= 1,
∂u1 . . . ∂ud
por lo que la información introducida por CI en el vector u es la misma en
la región [0, 1]d ; esto es, la probabilidad de que u suceda bajo la cópula CI es
uniforme en [0, 1]d .
Figura 2.2: Gráfica de la densidad de la cópula de independencia, cI (u1 , u2 ).
En la figura 2.2 se muestra la densidad de la cópula de independencia, cI ,
para el caso d = 2. En ésta se puede apreciar que no existe alguna región para la
cual sea más probable en la que el vector (u1 , u2 ) se encuentre. Luego, esta cópula
no introduce ningún grado de dependencia entre u1 = F (x1 ) y u2 = F (x2 ), por
lo que X1 y X2 son independientes bajo CI .
2.2.4.
Cópula de Gumbel
La cópula de Gumbel se define como
1
CθG (u) = exp{−((− ln u1 )θ + (− ln u2 )θ ) θ },
CAPÍTULO 2. EL PROBLEMA DE CÓPULAS Y DEPENDENCIA
9
donde θ ∈ [1, ∞) es el parámetro que define un nivel de dependencia en colas
introducido en las marginales.
(a) cG
θ (u) con θ = 3.
(b) cG
θ (u) con θ = 2.
(c) cG
θ (u) con θ = 1,1.
(d) cG
θ (u) con θ = 1,01.
Figura 2.3: Gráficas de la densidad de la cópula de Gumbel, cG
θ (u1 , u2 ), con
distintos valores de θ.
En la figura 2.3 se muestra la densidad de la cópula de Gumbel, en la que
puede apreciarse que en los valores cercanos a (0, 0) y (1, 1) la densidad de la
cópula repunta. Luego, los valores (u, v) cercanos a estas esquinas tienen una
mayor densidad de probabilidad bajo CθG que si éstas se rigieran por la cópula
de independencia. Observando las figuras 2.3a y 2.3b puede notarse que este
efecto se intensifica conforme θ es mayor.
Ahora, como ui = Fi (xi ), valores de ui muy grandes corresponden a valores
xi cercanos al extremo derecho del soporte de Xi . Entonces, si valores (u, v) que
se aproximan a (1, 1) tienen mayor densidad de probabilidad, quiere decir que C
asigna más probabilidad a valores conjuntos (x1 , x2 ) en los que tanto x1 como
x2 son muy grandes. Esta noción está ligada con el concepto de dependencia en
colas.
CAPÍTULO 2. EL PROBLEMA DE CÓPULAS Y DEPENDENCIA
10
Definición 2.2. Sean X y Y variables aleatorias con funciones de distribución
FX y FY . El coeficiente de dependencia superior en colas se define como
−1
λu = limp%1 P (Y > FY−1 (p)|X > FX
(p)).
El coeficiente de dependencia en colas inferiores se define como
−1
λu = limp&0 P (Y ≤ FY−1 (p)|X ≤ FX
(p)).
Con la definición 2.2 y al observar la forma creciente de cG
θ cerca de las esquinas (0, 0) y (1, 1), se puede apreciar que la cópula de Gumbel establece una
relación de dependencia en colas en las marginales. Además, conforme θ → 1,
se tiene que cG
θ (u1 , u2 ) → 1, que es la densidad de la cópula de independencia.
Este hecho puede verificarse observando el comportamiento de cG
θ (u1 , u2 ) en las
figuras 2.3c y 2.3d, e indica que, ajustando el parámetro θ, se pueden capturar
distintas estructuras de dependencia entre las marginales.
En resumen, la cópula de Gumbel introduce una dependencia en colas entre
X1 y X2 ,4 y conforme θ → 1 se tiene que la estructura de dependencia de las
marginales se aproxima a aquélla de la cópula de independencia.
2.2.5.
Cópula de Clayton
La cópula de Clayton se define como
1
−θ
−θ
,
CθCl (u) = (u−θ
1 + u2 − 1)
donde θ ∈ (0, ∞) es el parámetro que regula un nivel de dependencia en colas
inferiores introducido en las marginales.
En la figura 2.4 se muestra la densidad de la cópula de Clayton, en la que
puede apreciarse que en los valores cercanos a (0, 0) la densidad de la cópula
repunta. La cópula de Clayton asigna una mayor densidad en valores cercanos
al (0, 0) en la distribución acumulada (y éstos corresponden a los cuantiles bajos
de X1 y X2 ), por lo que valores en esa vecindad tendrán más probabilidad que,
por ejemplo, en la esquina (0, 1). Luego, existirá una alta dependencia en colas
inferiores entre X1 y X2 si se le asigna CθCl como la cópula que las rige. Véase
la punta de la densidad en (0, 0) en las figuras 2.4a y 2.4b.
Nótese también que a medida que θ → 0 se tiene que la densidad cCl
θ se
aproxima a aquélla de la cópula de independencia (véase figuras 2.4c y 2.4d).
De esto se sigue que el parámetro θ regula el nivel de dependencia en colas
4
Más pronunciada en la cola superior, como se observa en la figura 2.3.
CAPÍTULO 2. EL PROBLEMA DE CÓPULAS Y DEPENDENCIA
(a) cCl
θ (u) con θ = 5.
(b) cCl
θ (u) con θ = 2.
(c) cCl
θ (u) con θ = 0,5.
(d) cCl
θ (u) con θ = 0,001.
11
Figura 2.4: Gráficas de la densidad de la cópula de Clayton, cCl
θ (u1 , u2 ), con
distintos valores de θ.
introducido a (X1 , X2 ).
Comparando con la densidad de la cópula de Gumbel (figura 2.3), se puede
notar que ambas introducen un grado de dependencia en colas; sin embargo,
elegir entre una u otra dependerı́a de lo que se pretenda modelar. Por ejemplo,
si se busca modelar escenarios de pérdidas en los que se conoce que existe una
dependencia en colas superiores, elegir la cópula de Gumbel para modelar el
vector conjunto X serı́a más adecuado que optar por la cópula de Clayton.
2.3.
Aplicaciones de las cópulas en la estimación
de medidas de riesgo
Como se vio en la sección anterior, las cópulas pueden capturar distintos
grados de dependencia entre las componentes de X. En el caso de las cópulas de
Clayton y Gumbel, se lograba emular escenarios intermedios entre dependencia
CAPÍTULO 2. EL PROBLEMA DE CÓPULAS Y DEPENDENCIA
12
en colas e independencia. Por su lado, las cópulas comonotónica y contramonotónica se mostraban como escenarios extremos de dependencia entre las marginales en dimensión d = 2.
En un sentido, las cópulas mostradas en la sección anterior dan una solución
al problema de la modelación de la dependencia. Sin embargo, en ocasiones la
elección de la cópula C influirá notablemente en la información que se pretenda
extraer del vector X, por lo que habrá una repercusión considerable en las conclusiones que se deseen obtener de su comportamiento. A esto se le conoce como
incertidumbre de modelo, y en esta sección se ilustrará cómo la elección de la
cópula puede alterar notablemente las conclusiones del fenómeno que se modela.
Una importante aplicación de las cópulas a los modelos financieros y de seguros consiste en calcular medidas de riesgo para cuantificar exposición agregada
de portafolios y carteras. En estas disciplinas surge de manera natural un problema que involucra cópulas por la dependencia que existe entre los portafolios o los
resultados de las lı́neas de negocio de una empresa. En términos matemáticos,
dado un vector de marginales X = (X1 , X2 , . . . , Xd ), que pueden interpretarse
como las pérdidas individuales de las d carteras que tiene una empresa, se busca
conocer una medida ρ de una función de agregación, ψ : Rd −→ R, aplicada a
X.5
En un contexto financiero, X = (X1 , X2 , . . . , Xd ) puede representar el vector
de pérdidas de las d lı́neas de negocio y el valor ρ(ψ(X)) se puede interpretar
como el valor monetario necesario para afrontar la pérdida de ψ(X) en un intervalo de tiempo. Un ejemplo común de función ψ es ψ(X) = X1 + X2 + . . . + Xd
(la pérdida agregada de la empresa con lı́neas de negocio X1 , X2 , . . . , Xd ), y ρ
puede ser ρ(Y ) = V ar(Y ). Calcular esta medida de riesgo indicarı́a la dispersión
de la distribución de la pérdida agregada, que es la suma de las pérdidas individuales de las lı́neas de negocio. Es importante notar que, para el cálculo de la
medida de riesgo, X ya deberá contener toda la información de la dependencia
de las marginales, y es aquı́ donde la modelación de la dependencia de X vı́a
cópulas toma su lugar.
En ocasiones resulta complejo obtener analı́ticamente ρ(ψ(X)), especialmente cuando las variables X1 , . . . , Xd no son independientes, por lo que se utilizan
métodos Monte Carlo para simular del vector (X1 , . . . , Xd ) y con éste estimar
el valor ρ(ψ(X)). El apéndice A muestra el procedimiento para simular vectores
aleatorios bajo una cópula C, y en adelante se basarán las simulaciones en estos
algoritmos.
Como ya se ha mencionado, explicar bien el grado de dependencia puede
influir de manera significativa en el resultado de ρ(ψ(X)). Esto se ilustrará con
5 Se recomienda leer los capı́tulos 2 y 6 de McNeil et al. [7] para más detalles sobre las
funciones de pérdidas agregadas y las medidas de riesgo.
CAPÍTULO 2. EL PROBLEMA DE CÓPULAS Y DEPENDENCIA
13
el siguiente ejemplo:
Ejemplo 2.2. Sean X1 y X2 v.a. con distribución P areto(γ), ψ(x1 , x2 ) =
x1 + x2 , y para α ∈ (0, 1) sea ρα (ψ(X1 , X2 )) el α-percentil de ψ(X1 , X2 ).
A falta de información de la distribución de X1 + X2 , se modelará ésta con
tres cópulas distintas: la independiente, la comonotónica y la de Clayton.
En la sección 2.2 se mencionó que la cópula comonotónica inducı́a un comportamiento extremo (incluso funcional) en las marginales, por lo que se esperarı́a
que la medida de riesgo ρα (ψ(X1 , X2 )) resultara mayor cuando la cópula que
une a X1 y X2 es la cópula comonotónica, pues con ésta se modelaban escenarios
de dependencia extrema en algún sentido. Sin embargo, como se verá, esto no
resulta cierto en general.
La siguiente tabla muestra la estimación mediante 100,000 simulaciones de
los α-percentiles de ψ(X1 , X2 ) = X1 + X2 para distintos valores de α bajo las
cópulas comonotónica (Ccom ), independiente (CI ) y la de Clayton (CθCl ) con
θ = 2.
α
0.9
0.95
0.975
0.99
ρα (X1 + X2 )
γ =2
CI
Ccom
CθCl
CI
4.08
4.34
4.42
20.69
41.30
6.09
6.90
6.60
8.86 10.50 9.51
83.19
14.26 17.64 14.83 201.35
γ =1
Ccom
17.94
37.43
76.57
187.42
CθCl
21.71
43.17
86.85
209.21
Se puede observar que, para los percentiles mostrados, el ordenamiento de
ρα (ψ(X1 , X2 )) por tipo de cópula no resulta ser el mismo cuando el parámetro
γ cambia. Por ejemplo, los resultados obtenidos para la cópula de independencia
no son siempre inferiores a aquéllos obtenidos por la cópula de Clayton.
En la figura 2.5 se muestra el comportamiento de los percentiles para α ∈ [0.9
,0.99]. Éste fue obtenido mediante 100,000 simulaciones de la distribución de
X1 + X2 con los algoritmos mostrados en el apéndice A.
Como puede observarse en la tabla y en la figura 2.5a, cuando γ = 2 se tiene
que el α-percentil (en este caso ρα (X1 + X2 )) resulta ser más extremo para el
caso comonotónico. Sin embargo, sı́ existe una alta diferencia en ρα (X1 + X2 )
comparando el obtenido por la cópula de independencia a aquél obtenido por la
cópula comonotónica en la figura 2.5b.
Ahora, para el caso en el que γ = 1 se tiene que la cópula de Clayton es
aquélla que arroja el resultado extremo de ρα (X1 + X2 ) (más elevado que en el
caso independiente, y más aún que el comonotónico). En ciertos contextos serı́a
CAPÍTULO 2. EL PROBLEMA DE CÓPULAS Y DEPENDENCIA
(a) γ = 2.
14
(b) γ = 1.
Figura 2.5: Gráficas de los α-percentiles de ψ(x1 , x2 ) = x1 + x2 para X1 , X2 ∼
P areto(γ).
de interés preguntarse: ¿cómo asegurar que éste es el caso de dependencia de
mayor magnitud para ρα (X1 + X2 )? Y si no, ¿existe otra cópula cuyo resultado
de ρα (X1 + X2 ) resulte mayor que el obtenido por CθCl ?
Del ejemplo se puede observar que si bien algunas cópulas se muestran como posibles soluciones para modelar escenarios extremos en ciertos sentidos, no
se asegura que la medida de riesgo en cuestión (en este caso el α-percentil de
ψ(X1 , X2 )) pudiera ser más elevado para escenarios más laxos (por ejemplo, el
independiente en la figura 2.5b). Esto representa una dificultad para seleccionar
el modelo ’correcto’ de dependencia entre las marginales de X, pues el efecto
sobre ρα (ψ(X)) de seleccionar un resultado puede ser de considerable magnitud.
Serı́a entonces de interés conocer qué tanta incertidumbre del modelo existirı́a
bajo todas las elecciones de cópulas posibles, o bien conocer cuál es el escenario
con el que se modeları́an casos extremos de la medida de riesgo ρ(ψ(X)). Esto
pues, en general, escenarios como el del caso comonotónico (que representan un
caso extremo de dependencia entre X1 y X2 ) no necesariamente resultará ser el
caso extremo de ρ(ψ(X)), al menos para la medida de riesgo presentada en el
ejemplo.
La solución a esta cuestión no es únicamente de corte teórico, sino que tiene
una aplicación directa y de amplia relevancia en un contexto de requerimientos
de capital: por un lado, el nivel de requerimiento de capital que se le exija a los
accionistas afecta directamente al rendimiento sobre su aportación. De esto se
sigue que el efecto de la selección de la cópula (que determina la distribución de
la agregación de riesgos) sobre el nivel de VaRα tiene un impacto significativo
para su patrimonio.
Por otro lado, el nivel de requerimiento de capital debe reflejar correctamente
CAPÍTULO 2. EL PROBLEMA DE CÓPULAS Y DEPENDENCIA
15
el comportamiento de los riesgos de la empresa, por lo que los reguladores deben
cuidar que el modelo sea adecuado y el requerimiento resultante sea suficiente
para afrontar las obligaciones de las empresas. El efecto que se tendrá sobre el
nivel de capital depende tanto del comportamiento marginal de los riesgos como
de la distribución conjunta que se le asigne, y el efecto de selección de la cópula
puede tener consecuencias sobre el requerimiento de considerables magnitudes.
Ahora bien, este efecto no siempre es fácil de identificar, y en ocasiones el
capital resultante de asumir escenarios extremos (como el de la cópula comonotónica) no resultará más satisfactorio -desde un punto de vista conservadorque suponer independencia. Véase los resultados del ejemplo 2.2, en el que la naturaleza de las distribuciones marginales provocan que la cópula comonotónica
se muestre como un caso ’relajado’ de requerimiento de capital. Luego, a pesar
de que la cópula seleccionada tenga una influencia significativa en la estructura
conjunta, la incertidumbre de modelo también está determinada por el comportamiento de los riesgos marginales.
Dado el posible impacto que puede tener tanto para los reguladores (en su
labor de determinar un nivel adecuado de requerimiento de capital) como para
el rendimiento de los accionistas, resulta de amplia relevancia conocer los escenarios extremos de medidas de riesgo que la conjunción de las distribuciones
marginales con las cópulas podrı́an provocar. Con éstos se podrı́a conocer el
máximo error que se cometerı́a en la estimación del capital, ası́ como el mı́nimo
y el máximo requerimiento resultantes de aplicar un modelo de cópula al conjunto de riesgos.
Capı́tulo
3
Medidas de riesgo y el algoritmo
de reorganización
En el capı́tulo I se ilustró la complejidad del problema de asignación de un
modelo conjunto adecuado a variables aleatorias no independientes. Se sugirió que las cópulas representan una opción para la modelación de tales vectores
aleatorios y se destacó la importancia de capturar adecuadamente la estructura
de la distribución conjunta para estimar medidas de riesgo de posiciones agregadas.
En este capı́tulo se presenta el Algoritmo de Reorganización (AR), que permite obtener numéricamente el valor máximo y mı́nimo que puede tomar
ρα (ψ(X))
bajo cualquier estructura de dependencia entre las marginales (conocidas)
de X para dos casos importantes de medidas de riesgo: el VaRα y el ESα agregado de un portafolio. El algoritmo para encontrar cotas del VaRα se presenta
en un caso más general a como se encuentra en Embrechts et al. [6], pues en
Pd
éste solo se muestra para ψ(X) = i=1 Xi .
El desarrollo del algoritmo de reorganización, ası́ como la notación utilizada
se basó en Puccetti y Rüschendorf [9], Embrechts et al. [6] y Puccetti [8].
3.1.
Motivación del AR
En los modelos financieros y de seguros es de particular interés estimar el
Valor en Riesgo de una cartera o portafolio, pues con éste se mide el nivel de
confianza que se tiene que una pérdida no superará un cierto valor con una
16
CAPÍTULO 3. MEDIDAS DE RIESGO Y EL ALGORITMO DE REORGANIZACIÓN17
probabilidad no menor a α.
Definición 3.1. (Valor en Riesgo) Sea Y una variable aleatoria con función
de distribución F y α ∈ [0, 1]. El valor en riesgo a nivel de confianza α, denotado
VaRα , es el α-percentil de la variable aleatoria Y , i.e.
VaRα (Y ) := F −1 (α),
donde F −1 denota la función inversa generalizada.
A pesar de las conocidas desventajas que presenta el Valor en Riesgo para
ser utilizado como principio de cálculo de requerimiento de capital,1 éste cobra
relevancia por el amplio uso que se le da en la regulación actual bancaria y de
seguros.2
El ejemplo de la sección 2.3 ilustra que la elección de la cópula C influye
notablemente en el resultado del α-percentil de ψ(X), o bien, de VaRα (ψ(X)).
Entonces, si bien es cierto que dotar a X de una estructura de dependencia con
C resulta más realista que suponer independencia entre X1 , . . . , Xd , el efecto de
selección de la cópula sobre VaRα puede arrojar resultados inesperados.
Ası́ como la cópula de independencia puede llevar a valores de VaRα superiores a aquél de la cópula comonotónica (véase el ejemplo 2.2), pueden existir
otras cópulas C tales que VaRα sea aún mayor. Luego, no se obtendrán escenarios extremos de valor en riesgo bajo la cópula comonotónica a pesar de la
perfecta dependencia lineal que induce en las marginales. Este hecho se debe a
que, en general, el VaR no es subaditivo.3
Considerando que es necesario prestar atención a las marginales de X y que
la dependencia extrema inducida por C no necesariamente determina la posición que tomará VaRα , surge el problema de la búsqueda de cotas en las que se
encontrará el valor en riesgo.
Definición 3.2. Sean X1 , . . . , Xd variables aleatorias con distribución Fi , i =
1, . . . , d y ψ : Rd −→ R una función medible. Entonces, el VaR del peor escenario
a nivel de confianza α de la posición L = ψ(X1 , . . . , Xd ) se define como
VaRα (L) := sup{VaRα (L) | Xi ∼ Fi , 1 ≤ i ≤ d}.
1 El capı́tulo 6 de [7] expone la definición de una medida de riesgo coherente, muestra
que el VaR no cumple con la propiedad de subaditividad en general y la compara con otras
medidas de riesgo
2 Tanto Solvencia II europeo y la nueva regulación mexicana de seguros como Basilea II y
Basilea III utilizan el valor en riesgo como principio de cálculo de requerimiento de capital.
3 Véase el capı́tulo 2 de McNeil et. al [7] para más detalles.
CAPÍTULO 3. MEDIDAS DE RIESGO Y EL ALGORITMO DE REORGANIZACIÓN18
Por su lado, el VaR del mejor escenario a nivel de confianza α se define como
VaRα (L) := ı́nf{VaRα (L) | Xi ∼ Fi , 1 ≤ i ≤ d}.
Observación. La connotación de peor y mejor escenarios puede cambiar dependiendo de la aplicación. En un contexto financiero, las variables X1 , . . . , Xd
modelan montos de pérdidas y L representa la posición de pérdida agregada,
por lo que peor y mejor son adecuados.
Los valores VaRα y VaRα representan, respectivamente, el máximo y el
mı́nimo valor que puede tomar VaRα (L) de entre todas las estructuras posibles de dependencia entre las marginales Xi . Dicho de otro modo, dadas
Xi ∼ Fi , i = 1, . . . , d, los valores de la definición 3.2 representan el mejor y
peor VaRα de entre todas las cópulas C relacionando a X1 , . . . , Xd .4
En principio, el cálculo de los escenarios extremos de VaRα y VaRα podrı́a
parecer complejo por involucrar el supremo e ı́nfimo sobre VaRα de L = ψ(X1 , . . . , Xd ),
que está determinado por la estructura de dependencia de X. Sin embargo, Puccetti y Rüschendorf presentan en [9] una solución numérica que resulta bastante
sencilla de implementar. A esta solución se le conoce como el Algoritmo de
Reorganización.
3.2.
Algoritmo para encontrar VaRα
En esta sección se presentará el Algoritmo de Reorganización, con el cual
se encontrarán numéricamente las cotas descritas en la definición 3.2. Antes de
mostrar el algoritmo en su forma general, se explicará el procedimiento con un
ejemplo sencillo:
Supongamos que conocemos que X1 y X2 son variables aleatorias con función de masa de probabilidad dada por la siguiente tabla:
x
1
2
3
4
PX1 (X1 = x)
1/4
1/4
1/4
1/4
x
1
3
6
10
PX2 (X2 = x)
1/4
1/4
1/4
1/4
Y supongamos que queremos encontrar el peor VaR para el caso ψ(x1 , x2 ) =
x1 + x2 con α = 0.75. Es decir, buscamos rearreglar las probabilidades de ocurrencia de (X1 , X2 ) de tal modo que VaRα (X1 + X2 ) sea máximo.
4 Recordar que el converso del teorema de Sklar establece que dotar de dependencia a un
vector aleatorio vı́a una cópula, en la manera en que la ecuación (2.1) indica, equivale a asignar
una distribución conjunta F al vector aleatorio.
CAPÍTULO 3. MEDIDAS DE RIESGO Y EL ALGORITMO DE REORGANIZACIÓN19
La solución se puede encontrar al aplicar cópulas conocidas a (X1 , X2 ) y de
este modo encontrar VaRα . Sin embargo, no se garantizarı́a encontrar el peor
valor con ellas. Esto se debe a que no se conoce qué función de distribución
FX1 ,X2 resultará en los valores extremos de VaR(X1 + X2 ). Para esto, el AR
arreglará manualmente los valores de la matriz de cuantiles de tal forma que el
percentil 0.75 de la distribución de la suma sea lo más alto posible.
Una posible matriz de cuantiles para la distribución conjunta FX1 ,X2 es
α
0.25
0.5
0.75
1
F −1 (α)
(1,1)
(2,3)
(3,6)
(4,10)
O bien:
x1
1
2
3
4
x2
1
3
6
10
Donde cada renglón representa las entradas del cuantil correspondiente a las
probabilidades 0.25,0.5,0.75 y 1, respectivamente.
Modificar la estructura de los cuantiles equivale a rearreglar la estructura de
la distribución conjunta FX1 ,X2 , y ésta determina la distribución de X1 + X2 .
De esto se sigue que el problema se reduce a encontrar el máximo valor de
VaR0.75 (X1 + X2 ) arreglando las entradas de la matriz de cuantiles de las distribuciones marginales. El Algoritmo de Reorganización trabajará entonces con
la matriz antes mostrada para maximizar la suma de los elementos del renglón
correspondiente al cuantil α (en este caso, el tercer renglón), y éste corresponderá al percentil 0.75 de la distribución de la suma de las marginales.
No es difı́cil resolver el problema de maximización para el caso antes mostrado. Los siguientes arreglos de la matriz de cuantiles muestran posibles soluciones
a la maximización de VaR0.75 (X1 + X2 ):
x1
2
1
4
3
x2
1
3
6
10
x1 + x2
3
4
10
13
x1
1
2
4
3
x2
1
3
6
10
x1 + x2
2
5
10
13
CAPÍTULO 3. MEDIDAS DE RIESGO Y EL ALGORITMO DE REORGANIZACIÓN20
x1
3
1
4
2
x2
1
3
6
10
x1 + x2
4
4
10
12
x1
2
3
4
1
x2
1
3
6
10
x1 + x2
3
6
10
11
En este caso, el valor encontrado para VaRα (X1 + X2 ) es 10, pues es el valor
que maximiza la suma de los elementos del tercer renglón.
Nótese que los primeros dos renglones no juegan un papel importante en
la búsqueda de la maximización de la suma de las entradas del tercer renglón,
pues son valores pequeños y no agregan posibilidades de incrementar mucho las
combinaciones de x1 + x2 . De manera general, el problema de maximización
del VaRα se puede restringir a la maximización de los renglones de la matriz a
partir del renglón correspondiente al cuantil α siempre que las columnas de la
matriz estén arregladas en forma creciente.
En este caso, el problema de encontrar VaRα se puede solucionar de manera
más sencilla trabajando con la submatriz de los renglones posteriores al tercero,
obteniendo la siguiente matriz X α :
x1
3
4
x2
6
10
Luego, maximizar la suma del tercer renglón de la matriz original se reduce
a maximizar la suma del primer renglón de X α .
Una vez más, se obtiene que la matriz que maximiza este renglón es
x1
4
3
x2
6
10
x1 + x2
10
13
Por lo que el resultado no se ve alterado si los cuantiles inferiores a α no son
tomados en cuenta en la permutación de los percentiles. Este hecho se muestra
en [9], y representa un paso importante a encontrar la solución algorı́tmica para
encontrar VaRα .
En el caso general, donde se busca maximizar (o minimizar) VaRα (ψ(X)),
se harán los siguientes supuestos sobre la función ψ:
ψ es una función medible, simétrica, y creciente en cada coordenada.
ψ está definida recursivamente. Esto es, ψ = ψ d donde ψ i : Ri −→ R,
3 ≤ i ≤ d se puede definir iterativamente como
ψ i (xj , x−j ) = ψ 2 (ψ 1 (xj ), ψ i−1 (x−j )),
(3.1)
CAPÍTULO 3. MEDIDAS DE RIESGO Y EL ALGORITMO DE REORGANIZACIÓN21
donde x−j denota el vector x ∈ Rd al remover su j-ésima coordenada, y
las funciones ψ 1 : R −→ R y ψ 2 : R2 −→ R son medibles, simétricas y
crecientes en cada coordenada.
El AR para encontrar VaRα (ψ(X)) y VaRα (ψ(X)) se basa en los resultados mostrados en [9] para encontrar cotas óptimas de P (ψ(X) > s). El procedimiento es análogo a como Embrechts et al. [6] lo utilizan para el caso
Pd
ψ(X) = i=1 Xi . En este trabajo se expone el algoritmo de reorganización para
el caso general de función ψ que cumpla con las condiciones antes mencionadas,
y su sustento teórico se muestra en el apéndice B.
Definiciones y notación
En lo siguiente, se entenderá que dos vectores a, b ∈ Rn están opuestamente
ordenados si para 1 ≤ j ≤ N y 1 ≤ k ≤ N se tiene que
(aj − ak )(bj − bk ) ≤ 0.
También, para W una matriz de N ×d sean s(W ) y t(W ) los operadores definidos
por
s(W ) = mı́n ψ(wi,1 , . . . , wi,d ),
1≤i≤N
t(W ) = máx ψ(wi,1 , . . . , wi,d ),
1≤i≤N
Esto es, el mı́nimo y el máximo valor de los renglones de W aplicados a la función ψ.
Se definen las siguientes funciones aplicadas a matrices W de (N × d):
Ψ como

ψ d (x1,1 , . . . , x1,d )


..


.
 d


ψ
(x
,
.
.
.
,
x
)
Ψ(W ) = 
i,1
i,d




..


.
d
ψ (xN,1 , . . . , xN,d )

Ψ−j como la función que aplica ψ d−1 a los renglones de la matriz W−j (la
matriz resultante de eliminar la columna j-ésima de W ),
 d−1

ψ
(x1,1 , . . . , x1,j−1 , x1,j+1 , . . . , x1,d )


..


.
 d−1


(xi,1 , . . . , xi,j−1 , xi,j+1 , . . . , xi,d ) 
Ψ−j (W ) =  ψ
,


..


.
ψ d−1 (xN,1 , . . . , xN,j−1 , xN,j+1 , . . . , xN,d )
CAPÍTULO 3. MEDIDAS DE RIESGO Y EL ALGORITMO DE REORGANIZACIÓN22
Ψj (W ) el vector resultante de aplicar la función ψ 1 a las entradas de la
columna j-ésima de W,

ψ 1 (x1,j )


..



 1 .

Ψj (W ) =  ψ (xi,j ) 
.


..


.
ψ 1 (xN,j )

Algoritmo de Reorganización para encontrar VaRα
(Basado en Embrechts et. al [6] y Puccetti y Rüschendorf [9])
1. Sea N un entero positivo fijo y > 0 el nivel deseado de precisión.
α
α
2. Define las matrices W α = (wα
i,j ) y W = (w i,j ) como
(1 − α)(i − 1)
(1 − α)i
−1
−1
α
y
w
,
wα
=
F
α
+
=
F
α
+
i,j
i,j
j
j
N
N
(3.2)
para 1 ≤ i ≤ N y 1 ≤ j ≤ d.
α
3. Permutar aleatoriamente los elementos de las columnas de W α y W .
4. Rearreglar iterativamente la j-ésima columna de la matriz W α hasta que Ψj (W α ) se encuentre opuestamente ordenada con respecto a
5
Ψ−j (W α ). Llámese a esta última matriz W α
∗.
5. Repetir el paso anterior, utilizando a W α como W α
∗ , y obtener una
nueva matriz W α
hasta
que
se
tenga
que
∗
|s(W α ) − s(W α
∗ )| < .
Sea W ∗ la matriz que cumple con lo anterior.
6. Repetir los pasos 4. y 5. con la matriz W
matriz resultante del paso 5.
7. Definir
α
y obtener W
∗
como la
∗
sN = s(W ∗ ) y sN = s(W ).
Entonces, se tiene que sN ≤ sN y en la práctica encontramos que
sN ' sN ' VaRα (ψ(X))
cuando N → ∞.
CAPÍTULO 3. MEDIDAS DE RIESGO Y EL ALGORITMO DE REORGANIZACIÓN23
3.3.
Algoritmo para encontrar VaRα
(Basado en Embrechts et. al [6] y Puccetti y Rüschendorf [9])
1. Sea N un entero positivo fijo y > 0 el nivel deseado de precisión.
α
α
2. Define las matrices Z α = (z α
i,j ) y Z = (z i,j ) como
zα
i,j
=
Fj−1
α(i − 1)
N
y
zα
i,j
=
Fj−1
αi
N
,
(3.3)
para 1 ≤ i ≤ N y 1 ≤ j ≤ d.
α
3. Permutar aleatoriamente los elementos de las columnas de Z α y Z .
4. Rearreglar iterativamente la j-ésima columna de la matriz Z α hasta que Ψj (Z α ) se encuentre opuestamente ordenada con respecto a
Ψ−j (Z α ). Llámese a esta última matriz Z α
∗.
5. Repetir el paso anterior, utilizando a Z α como Z α
∗ , y obtener una
nueva matriz Z α
∗ hasta que se tenga que
|t(Z α ) − t(Z α
∗ )| < .
Sea Z ∗ la matriz que cumple con lo anterior.
∗
α
6. Repetir los pasos 4. y 5. con la matriz Z y obtener Z como la matriz
resultante del paso 5.
7. Definir
∗
tN = t(Z ∗ ) y tN = t(Z ).
Entonces, se tiene que tN ≤ tN y en la práctica encontramos que
tN ' tN ' VaRα (ψ(X))
cuando N → ∞.
Notas sobre el algoritmo
En Embrechts et al. [6] se hacen las siguientes observaciones sobre el algoritmo:
5 Si ψ 1 tiene inversa, basta rearreglar la columna de Ψ (Z α ) de tal manera que esté opuesj
tamente ordenada con respecto a Ψ−j (Z α ). Posteriormente, aplicar (ψ 1 )−1 a las entradas de
Ψj (Z α ) para obtener la nueva columa j-ésima de Z α .
Por lo regular se tiene que ψ(x) = x, por lo que Ψj (Z α ) = Zj y no hace falta hacer el
procedimiento anterior.
CAPÍTULO 3. MEDIDAS DE RIESGO Y EL ALGORITMO DE REORGANIZACIÓN24
La longitud de (sN − sN ) depende de la dimesión d del portafolio de riesgo
en cuestión, ası́ como de N , el tamaño de la discretización de las colas
superiores e inferiores de las marginales. Lo anterior es aplicable también
para (tN − tN ).
Las matrices definidas en el (3.2) corresponden a los cuantiles de una
discretización de las distribuciónes Fj , aproximándolas por abajo mediante
la distribución
n−1
1X
1 −1 i
Fj =
,
n i=0 [Fj ( n ),∞)
y por arriba con
n
Fj =
1X
.
1 −1 i
n i=1 [Fj ( n ),∞)
Ambas distribuciones se distribuyen uniformemente en los puntos Fj−1 ( i−1
n ), i =
−1 i
1, ..., n y Fj ( n ), i = 1, ..., n, respectivamente, y se tiene que
F j ≤ Fj ≤ F j .
Por último, nótese que la elección de n es arbitraria, y en lo descrito en
α
el algoritmo para F j y F j es tal que las matrices W α y W tienen N
renglones.
No existe una prueba analı́tica a los resultados mostrados en el paso 7 del
algoritmo. Sin embargo, en esta aproximación sı́ se cumple que
sN ≤ VaRα (ψ(X)),
mientras que para N grande
sN ' VaRα (ψ(X)).
Para el caso de VaRα , se tiene que
VaRα (ψ(X)) ≤ tN ,
mientras que para N grande
VaRα (ψ(X)) ' tN .
Véase el Apéndice B para más detalles sobre la demostración de estos hechos.
Estas aproximaciones dependen de la elección de la matriz inicial, por lo
que en el paso 3 se introduce la elección de ésta como aleatoria. Con esto
CAPÍTULO 3. MEDIDAS DE RIESGO Y EL ALGORITMO DE REORGANIZACIÓN25
se sugiere que, para N grande, se obtienen aproximaciones satisfactorias
de las cotas del VaR.6
Notar que no se hicieron supuestos sobre las marginales X1 , . . . , Xd , por
lo que éstas pueden elegirse arbitrariamente. Esto es importante considerando que las soluciones analı́ticas conocidas para VaRα requieren, por lo
regular, que X1 , . . . , Xd sean idénticamente distribuidas. Este algoritmo
resulta poderoso por este hecho, además de que será posible estimar las
cotas para dimensiones d relativamente grandes.
3.4.
Algoritmo para encontrar ESα
Una medida alternativa para medir el riesgo agregado de un portafolio es el
déficit esperado (expected shortfall).
Definición 3.3. (Déficit Esperado) Sea α ∈ [0, 1] y Y una variable aleatoria
con distribución F que cumple E(|Y |) < ∞. El déficit esperado a nivel de
confianza α es
Z 1
1
VaRq (Y )dq = E(Y |Y > VaRα (Y )).
ESα (Y ) :=
1−α α
Esta medida representa el valor esperado de la pérdida de Y dado que se
superó el α-percentil de la distribución de Y , o bien, la pérdida esperada dado
que se incurrió en un déficit sobre el capital VaRα .
El déficit esperado presenta ciertas propiedades deseables con las que el
VaRα no cuenta,7 por lo que es importante medir el impacto cuantitativo de la
agregación del riesgo de un portafolio desde ambas perspectivas. Considerando
esto, es preciso conocer las cotas sobre las cuales se encuentra ESα (ψ(X)) cuando éste exista.
Definición 3.4. Sean X1 , . . . , Xd variables aleatorias con distribución Fi , i =
1, . . . , d y ψ : Rd −→ R una función medible. Entonces, el peor escenario del
déficit esperado con nivel de confianza α de la posición L = ψ(X1 , . . . , Xd ) se
define como
ESα (L) := sup{ESα (L) | Xi ∼ Fi , 1 ≤ i ≤ d}.
6 De hecho, aún es un problema abierto mostrar la prueba de convergencia del AR utilizando
la selección aleatoria de la matriz inicial. Sin embargo, en [6] se contrastan los resultados del
algoritmo para probar que efectivamente arroja buenas aproximaciones de las cotas cuyos
resultados de VaRα son ya conocidos analı́ticamente.
7 El déficit esperado cumple con ser una medida coherente de riesgo, mientras que el VaR
no lo es por no cumplir con ser subaditivo. Para más detalles, véase el capı́tulo 6 de McNeil
et. al [7].
CAPÍTULO 3. MEDIDAS DE RIESGO Y EL ALGORITMO DE REORGANIZACIÓN26
Por su lado, el mejor escenario del déficit esperado con nivel de confianza α se
define como
ESα (L) := ı́nf{ESα (L) | Xi ∼ Fi , 1 ≤ i ≤ d}.
Pd
Observación. En el caso ψ(X) = i=1 Xi , se sabe por la subaditividad de ESα
Pd
Pd
que i=1 ESα (Xi ) es una cota de ESα ( i=1 Xi ). Además, se tiene que
d
d
X
X
ESα (
Xi ) =
ESα (Xi )
i=1
i=1
cuando la distribución conjunta de (X1 , . . . , Xd ) se rige por la cópula comonotónica,8 por lo que es fácil conocer la cota superior de ESα si se conoce el
comportamiento probabilı́stico de las marginales.PPor esta razón, el único valor
d
que se buscará estimar con el algoritmo es ESα ( i=1 Xi ).
Es importante destacar que el algoritmo de reorganización
solo podrá ser
Pd
utilizado para calcular ESα cuando ψ(X1 , . . . , Xd ) =
i=1 Xi , hecho que es
mostrado por Puccetti [8].
Definiciones y notación
Si W es una matriz de (N × d) y α ∈ (0, 1) cuyos componentes son wi,j ,
definimos
N X
d
X
1
wi,j .
hk (W ) =
(1 − α)N
j=1
i=k
Algoritmo de Reorganización para encontrar ESα
(Puccetti [8])
1. Sea N un entero positivo tal que αN = k̃ para algún entero positivo
k̃ ≤ N , y > 0 el nivel de precisión deseado.
α
α
2. Define las matrices W α = (wα
i,j ) y W = (w i,j ) como
wα
i,j
=
Fj−1
i−1
N
y
wα
i,j
=
Fj−1
i
N
,
para 1 ≤ i ≤ N y 1 ≤ j ≤ d.
α
3. Permutar aleatoriamente los elementos de las columnas de W α y W .
8
Para una demostración de este hecho, véase Dhaene et al. [3]
CAPÍTULO 3. MEDIDAS DE RIESGO Y EL ALGORITMO DE REORGANIZACIÓN27
4. Rearreglar iterativamente la j-ésima columna de la matriz W α hasta
que ésta se encuentre opuestamente ordenada con respecto a la suma
del resto de las columnas de W α . Llámese a esta última matriz W α
∗.
5. Repetir el paso anterior, utilizando a W α como W α
∗ , y obtener una
nueva matriz W α
∗ hasta que se tenga que
|s(W α ) − s(W α
∗ )| < .
Sea W ∗ la matriz que cumple con lo anterior.
6. Repetir los pasos 4. y 5. con la matriz W
matriz resultante del paso 5.
7. Definir
α
y obtener W
∗
como la
α
hN = hk̃ (W α
∗ ) y hN = hk̃ (W ∗ ).
Entonces, se tiene que hN ≤ hN y en la práctica encontramos que
hN ' hN ' ESα (X1 + · · · + Xd )
cuando N → ∞.
Notas sobre el AR para encontrar ESα
En Puccetti [8] se hacen las siguientes observaciones:
Para ciertos modelos se tiene que ESα = ∞, por lo que éste se deberá estimar únicamente cuando ESα (ψ(X)) < ∞. En el caso particular de ψ = +
basta con que ESα (Xi ) < ∞ para i = 1, . . . , d.
La justificación del uso del algoritmo de reorganización para encontrar
ESα se encuentra en Puccetti [8], y utiliza el hecho de que X es menor que
Y en orden convexo si y sólo si ESα (X) ≤ ESα (Y ) para toda α ∈ (0, 1).9
En la misma referencia se muestra que
hN ' ESα (X1 + · · · + Xd ) ≤ hN .
Sin embargo, alguna de las distribuciones Fj puede no estar acotada por
arriba y por lo tanto h = +∞. En estos casos no es útil el estimador del
lado derecho de la igualdad y se utiliza hN como el estimador de ESα .
9 X es menor que Y en orden convexo si E(f (X)) ≤ E(f (Y )) para toda función f : R → R
para la cual E(f (X)), E(f (Y )) < ∞.
CAPÍTULO 3. MEDIDAS DE RIESGO Y EL ALGORITMO DE REORGANIZACIÓN28
3.5.
Ejemplos
En esta sección se muestran resultados de los algoritmos presentados en las
secciones 3.2, 3.3 y 3.4 y se comparan los valores de VaRα , VaRα y ESα con los
casos comonotónico e independiente de VaRα y ESα . Las distribuciones marginales fueron elegidas homogéneas (esto es, idénticamente distribuidas) por
simplicidad.10
Los algoritmos fueron implementados en Octave 3.6.4 y el código se incluye
en el apéndice C. Los resultados mostrados en los ejemplos tomaron en total un
tiempo de procesamiento de 37 segundos en una Intel Core 2 Duo Optiplex 760
de 2GB RAM.
Ejemplo 3.1 (AR para obtener VaRα y VaRα ). En este ejemplo se muestran
resultados del algoritmo de reorganización en dimensión d = 3 para el caso
X1 , X2 , X3 ∼ U (0, 1) tomando =0.1 y N = 100.
La figura 3.1 muestra los valores de VaRα y VaRα estimados con los presentados en las secciones 3.2 y 3.3, ası́ como VaRα bajo la cópula de independencia
y la comonotónica, obtenidos mediante simulación.
Figura 3.1: Gráfica de VaRα (X1 + X2 + X3 ) para cuatro casos: el peor escenario
del VaR (estimado con el AR), el mejor escenario del VaR (estimado con el AR),
la cópula comonotónica y la cópula de independencia.
De la figura se puede observar la diferencia entre VaRα y VaRα bajo la
cópula comonotónica, lo que verifica que VaRα no es máximo en el caso co10 Es importante recordar que el algoritmo es aplicable para cualesquiera distribuciones marginales, y por lo tanto también distribuciones empı́ricas. Esto es relevante pues, en aplicaciones,
los modelos de pérdidas agregadas no recaen en el caso homogéneo y el AR podrá utilizarse
para encontrar VaRα , VaRα y ESα .
CAPÍTULO 3. MEDIDAS DE RIESGO Y EL ALGORITMO DE REORGANIZACIÓN29
monotónico. Se puede observar también que existe una amplia diferencia entre
VaRα y VaRα bajo el caso independiente, y que VaRα no necesariamente tiende
al extremo del soporte de X1 + X2 + X3 , (en este caso, 3).
El siguiente ejemplo muestra los resultados del algoritmo de reorganización
para encontrar ESα en dimensión d = 3 para el caso en el que las marginales
son uniformes y tomando = 0,1 y N = 100. En éste se contrasta lo obtenido
mediante el algoritmo con los resultados ya conocidos de ESα y ESα .
Ejemplo 3.2 (AR para obtener ESα ). La figura 3.2 muestra los resultados de
ESα utilizando el algoritmo presentado en la sección 3.4 para el caso d = 3 y
X1 , X2 , X3 ∼ U (0, 1). También se muestra ESα bajo la cópula comonotónica,
de independencia, y el comportamiento de ESα para distintos valores de α.
Resulta fácil mostrar que
ESα (X1 + . . . + Xd ) = d
utilizando el hecho de que ESα (X) =
1+α
2
1+α
2
si X ∼ U (0, 1) y que
ESα (X1 + . . . + Xd ) = ESα (X1 ) + . . . + ESα (Xd )
si la distribución conjunta de (X1 , . . . , Xd ) se rige por la cópula comonotónica.
En la figura 3.2 se comprueba este hecho, notando el comportamiento de los
estimadores de ESα en el caso analı́tico y el obtenido mediante simulaciones de
la cópula comonotónica.
También, como es mencionado en Puccetti [8], es ya conocido analı́ticamente
el valor de ESα cuando X1 , . . . , Xd ∼ U (0, 1), y éste es d/2 independientemente
del valor de α. Comparando con lo mostrado en la figura 3.2 se verifica que
el algoritmo estima de manera satisfactoria ESα (en este caso el valor analı́tico
de ESα es 1.5 y el algoritmo arroja como resultado un valor muy cercano a éste).
Si bien los ejemplos mostrados son simples y se eligieron distribuciones homogéneas con pocos riesgos, el algoritmo puede ser implementado para distribuciones no idénticamente distribuidas y para dimensiones d arbitrariamente
grandes. Además, para el caso de VaRα , se puede utilizar cualquier función ψ
siempre que cumpla con ser simétrica, medible, creciente en cada coordenada
y que se pueda definir recursivamente. Estas consideraciones permiten que el
algoritmo de reorganización sea suficientemente flexible para ser aplicado en
distintos contextos.
CAPÍTULO 3. MEDIDAS DE RIESGO Y EL ALGORITMO DE REORGANIZACIÓN30
Figura 3.2: Gráfica de ESα (X1 + X2 + X3 ) para cuatro casos: el peor escenario del ES, el mejor escenario del ES, la cópula comonotónica y la cópula de
independencia.
Capı́tulo
4
Aplicaciones del AR
En el capı́tulo 3 se introdujo el concepto de peor y mejor escenario de las
medidas de riesgo VaR y ES y se presentó el algoritmo de reorganización para
estimarlos numéricamente.
Por un lado, estas cotas responden a una necesidad de conocer el posible
error de los estimadores de ρα (ψ(X)) según la selección del modelo conjunto de
X, pues ρα y ρα reflejan la incertidumbre que se puede tener al seleccionar un
modelo arbitrario de cópula.
Por otro lado, como las cotas ρα y ρα son óptimas y para cada valor de ρα
existe una estructura conjunta que induce este comportamiento, encontrar ρα y
ρα mediante el algoritmo de reorganización permite modelar escenarios extremos de dependencia entre X1 , . . . , Xd desde el punto de vista de la magnitud de
la medida de riesgo.
Tomando la perspectiva anterior, se utilizarán las cotas de las medidas de
riesgo para encontrar escenarios extremos en distintas aplicaciones. Se sugiere
con este capı́tulo que la amplia flexibilidad del algoritmo de reorganización sea
aprovechada, además de exponer la pertinencia y facilidad de ser aplicado en el
sector financiero y asegurador.
4.1.
Requerimientos de Capital
La nueva regulación de seguros establece un Requerimiento de Capital de Solvencia (RCS) basado en el VaR de la pérdida agregada de las lı́neas de negocio
por tipo de producto y riesgo. La modelación de dependencia que se contempla implementar entre ellas está basada en cópulas, por lo que estarı́a en orden
preguntarse: para una aseguradora en particular, con Li , i = 1, . . . , d las v.a. de
31
CAPÍTULO 4. APLICACIONES DEL AR
32
Pd
las pérdidas por los i riesgos a los que se encuentra expuesta y L = i=1 Li su
pérdida agregada, ¿cuál debe ser el mı́nimo valor de RCS que se le debe pedir?
y ¿cuál deberı́a ser el monto máximo? Las cotas presentadas en el capı́tulo 3
para el RCS y el algoritmo de reorganización permiten obtener estos valores.
Sea RCS = VaRα (L) donde α es el nivel de confianza determinado por la
regulación vigente. Entonces, el procedimiento a seguir para estimar el máximo
y mı́nimo requerimiento de capital es el siguiente:
1. Estimar la distribución de las variables aleatorias para cada uno de los
riesgos que enfrenta la aseguradora. Por lo regular éstas no tendrán una
forma sencilla, por lo que puede estimarse la distribución empı́rica mediante N simulaciones de las realizaciones de las pérdidas marginales de
los riesgos. N influirá en la precisión de la estimación del RCS por lo que
debe ser suficientemente grande.
2. Definir > 0 como el grado de precisión.
3. Si la forma de la distribución es conocida analı́ticamente, proceder con
el paso 2 del algoritmo de reorganización. Si la forma no es conocida,
estimar las matrices del paso 2 mediante suavización de percentiles de la
distribución empı́rica.
4. Continuar con el paso 3 y el resto del algoritmo de reorganización hasta
obtener RCS L y RCS L , donde RCS L y RCS L denotan el máximo y
el mı́nimo requerimiento capital de solvencia, respectivamente, para el
portafolio agregado de seguros L.
Resulta conveniente tanto para el regulador como para las aseguradoras estimar las cotas del RCS de sus componentes de riesgo por las siguientes razones:
La implementación del algoritmo de reorganización es sencilla y el tiempo
de cómputo de las cotas es reducido.
RCS L y RCS L reveları́an el máximo y el mı́nimo requerimiento de capital
que se le pedirı́a a una aseguradora con pérdidas de lı́neas de negocio representadas por L1 , . . . , Ld , lo que les permite tomar decisiones importantes
de apetito de riesgo.
Las cotas del RCS funcionan para validación y comparación de resultados
contra modelos internos y la fórmula estándar.
La posición del RCS regulatorio con respecto a RCS L y RCS L determina
del nivel de conservadurismo desde el punto de vista de dependencia de
las variables aleatorias.
CAPÍTULO 4. APLICACIONES DEL AR
33
Con RCS L y RCS L se obtiene la posible incertidumbre de modelo que
subyace en asignar dependencia mediante la cópula con la que se modelará a (L1 , . . . , Ld ).
Ejemplo 4.1. En este ejemplo se mostrará el resultado de aplicar el algoritmo de reorganización para un caso real de una aseguradora con tres
lı́neas de negocio. Se calculará RCS L y RCS L con α =0.95 para la suma
de las pérdidas futuras de cada ramo.
De manera general, el modelo que se utilizó para estimar las pérdidas
futuras de cada lı́nea de negocio considera lo siguiente:1
1. El monto mensual de siniestros ocurridos se rige por un modelo compuesto, i.e.
Ni
X
Xj , i = 1, 2, . . . , t
Mi =
j=1
donde
•
•
•
•
Mi es el monto total ocurrido de siniestros en el mes i,
Ni es el número de siniestros ocurridos en el mes i,
Xj es el monto ocurrido de un siniestro individual,
t es el número de mes futuro tal que la exposición de la cartera
se haya extinguido.
2. Se asume que la frecuencia relativa mensual se rige por una misma
distribución de probabilidad. Ésta determinará para cada mes futuro
el valor de Ni .
3. Se asume que la severidad se rige por una misma distribución de
probabilidad, con la cual se simula la severidad individual de los
siniestros futuros considerando un factor por inflación.
4. Las distribuciones estimadas tanto de frecuencia relativa como de
severidad se eligieron como aquellas cuyo estadı́stico de Cramer VonMises fuera menor al ser ajustados por un catálogo de distribuciones.
5. Los parámetros de las distribuciones resultantes del punto anterior se
ajustaron con datos de frecuencia relativa mensuales de los últimos
tres años, ası́ como siniestros individuales ocurridos en los últimos
dos años.
6. La exposición futura está definida por efectos de caducidad de pólizas vigentes y otros decrementos múltiples, dentro de los cuales se
encuentra la cancelación.
1 La explicación detallada del modelo está fuera del alcance de este trabajo. Sin embargo, se
menciona la metodologı́a general para ilustrar cómo se obtuvieron los datos que se utilizaron
para estimar el RCS.
CAPÍTULO 4. APLICACIONES DEL AR
34
Finalmente, con las distribuciones, los parámetros estimados y los datos
de la exposición futura del portafolio, se simulan los siniestros ocurridos
por la cartera en los próximos meses y los montos se actualizan con una
tasa de interés de inversión adecuada. Puesto que no resulta fácil estimar
la distribución exacta de los siniestros futuros con los supuestos anteriores,
se toman los resultados de la simulación como datos empı́ricos de los pagos
futuros de la aseguradora. Los datos simulados se considerarán entonces
como la distribución empı́rica de los pagos de siniestros para cada ramo y
para los cuales se busca estimar el RCS.
α
La siguiente matriz corresponde a la denotada W con N = 30 en el
algoritmo de reorganización para encontrar VaRα (sección 3.2) para los
datos del modelo antes descrito. En la última columna se muestra la suma
de las primeras tres columnas, que corresponde a los últimos percentiles
de la distribución de L = X1 + X2 + X3 . A esta matriz se le arreglarán
los elementos por columnas para maximizar el valor mı́nimo de la cuarta
columna.
CAPÍTULO 4. APLICACIONES DEL AR
x1
1,566,378,197
1,567,709,091
1,569,506,723
1,570,974,374
1,572,879,535
1,574,797,557
1,576,452,204
1,577,666,522
1,578,672,721
1,580,911,726
1,582,255,747
1,584,019,995
1,585,762,443
1,588,182,521
1,590,498,160
1,592,397,663
1,594,126,757
1,597,226,083
1,600,480,288
1,604,697,994
1,607,370,137
1,610,310,782
1,615,804,350
1,620,328,218
1,627,756,290
1,633,163,429
1,640,992,740
1,653,433,934
1,669,424,372
1,724,100,342
x2
2,430,662,695
2,432,034,800
2,432,651,720
2,434,007,195
2,435,254,592
2,436,306,377
2,437,344,952
2,438,539,273
2,439,534,116
2,440,830,357
2,442,566,679
2,444,157,199
2,446,087,000
2,448,342,308
2,450,493,724
2,453,734,264
2,455,999,529
2,458,637,623
2,461,371,855
2,464,466,959
2,466,654,047
2,469,366,039
2,474,098,935
2,477,170,199
2,482,504,607
2,489,293,067
2,496,481,235
2,508,087,804
2,524,805,540
2,610,523,783
x3
2,657,563,908
2,658,964,289
2,660,431,345
2,661,952,210
2,663,735,720
2,665,809,991
2,667,714,454
2,670,268,139
2,672,083,113
2,673,515,251
2,675,574,800
2,677,044,098
2,679,538,844
2,681,942,078
2,683,030,312
2,685,809,613
2,688,263,427
2,690,409,641
2,692,765,656
2,696,142,233
2,698,374,761
2,703,236,920
2,708,924,315
2,714,616,517
2,720,347,948
2,726,054,797
2,734,881,741
2,743,379,433
2,763,038,709
2,809,402,020
35
P3
i=1 xi
6,654,604,800
6,658,708,180
6,662,589,788
6,666,933,779
6,671,869,847
6,676,913,925
6,681,511,610
6,686,473,934
6,690,289,950
6,695,257,334
6,700,397,226
6,705,221,292
6,711,388,287
6,718,466,907
6,724,022,196
6,731,941,540
6,738,389,713
6,746,273,348
6,754,617,799
6,765,307,186
6,772,398,946
6,782,913,741
6,798,827,600
6,812,114,935
6,830,608,845
6,848,511,293
6,872,355,716
6,904,901,171
6,957,268,621
7,144,026,145
Una vez que se aplica el algoritmo de reorganización con = 0.1 a la
matriz anterior -de modo que se cumpla que las columnas de la matriz se
encuentran opuestamente ordenadas con respecto a la suma de las otras-,
se obtiene la siguiente matriz:
CAPÍTULO 4. APLICACIONES DEL AR
x1
1,627,756,290
1,604,697,994
1,633,163,429
1,620,328,218
1,590,498,160
1,597,226,083
1,615,804,350
1,592,397,663
1,585,762,443
1,600,480,288
1,582,255,747
1,607,370,137
1,640,992,740
1,594,126,757
1,584,019,995
1,578,672,721
1,577,666,522
1,588,182,521
1,610,310,782
1,576,452,204
1,572,879,535
1,580,911,726
1,574,797,557
1,653,433,934
1,570,974,374
1,669,424,372
1,569,506,723
1,567,709,091
1,724,100,342
1,566,378,197
x2
2,444,157,199
2,446,087,000
2,442,566,679
2,461,371,855
2,455,999,529
2,464,466,959
2,458,637,623
2,437,344,952
2,474,098,935
2,453,734,264
2,482,504,607
2,450,493,724
2,439,534,116
2,477,170,199
2,440,830,357
2,489,293,067
2,438,539,273
2,448,342,308
2,469,366,039
2,466,654,047
2,436,306,377
2,508,087,804
2,496,481,235
2,435,254,592
2,524,805,540
2,434,007,195
2,432,651,720
2,432,034,800
2,430,662,695
2,610,523,783
36
x3
2,677,044,098
2,698,374,761
2,673,515,251
2,667,714,454
2,703,236,920
2,688,263,427
2,675,574,800
2,720,347,948
2,690,409,641
2,696,142,233
2,685,809,613
2,692,765,656
2,670,268,139
2,679,538,844
2,726,054,797
2,683,030,312
2,734,881,741
2,714,616,517
2,672,083,113
2,708,924,315
2,743,379,433
2,663,735,720
2,681,942,078
2,665,809,991
2,661,952,210
2,660,431,345
2,763,038,709
2,809,402,020
2,658,964,289
2,657,563,908
P3
i=1 xi
6,748,957,587
6,749,159,755
6,749,245,359
6,749,414,527
6,749,734,609
6,749,956,469
6,750,016,773
6,750,090,563
6,750,271,019
6,750,356,785
6,750,569,967
6,750,629,518
6,750,794,995
6,750,835,800
6,750,905,149
6,750,996,100
6,751,087,536
6,751,141,346
6,751,759,934
6,752,030,566
6,752,565,345
6,752,735,250
6,753,220,870
6,754,498,517
6,757,732,124
6,763,862,912
6,765,197,152
6,809,145,911
6,813,727,326
6,834,465,888
El valor mı́nimo de los percentiles de L = X1 + X2 + X3 es 6.7489×109 ,
por lo que éste se utilizará como estimador de RCS L .
Corriendo el algoritmo de reorganización con =0.1 y distintos valores de
N 2 se obtienen los siguientes resultados:
N
30
103
104
RCS L
6.2619×109
6.2357×109
6.2348×109
RCS L
6.7489×109
6.7456×109
6.7454×109
2 Los valores utilizados como estimadores son los definidos en el algoritmo de la sección
3.2 como sN y en la sección 3.3 como tN .
CAPÍTULO 4. APLICACIONES DEL AR
37
Para estos riesgos, el VaR bajo el caso comonotónico es de 6.650×109 .
Puede observarse entonces la diferencia en proporción del valor del RCS
bajo el caso comonotónico no es muy distinta de aquél de RCS L . Sin embargo, en cifras absolutas sı́ existe una diferencia significativa.
Obsérvese también que la diferencia entre RCS L y RCS L es de 510 millones de pesos, lo que representa una considerable suma de dinero y cuya
posible inversión está sujeta a la selección del modelo de distribución conjunta. Para estos riesgos, el mejor estimador de la reserva (entendido como
el valor esperado) es de 6.260×109 , por lo que la suma máxima de capital
de los accionistas que pudiera dejarse de invertir en otros negocios serı́a
del 8.1 % de la reserva total.
Finalmente, como los valores de RCS L y RCS L indican que el valor del
RCS que debe estar entre 6,234 y 6,745 millones de pesos, con éstos se
puede conocer el nivel de conservadurismo del actual requerimiento de capital: la distancia que habrá entre la estimación del RCS bajo un modelo
y el resultado de la cota superior permitirı́a conocer este nivel de aseguramiento con respecto al escenario extremo de dependencia.
Un procedimiento análogo se puede efectuar para los modelos internos y
estándar, con los cuales bastarı́a estimar los percentiles de la distribución
de pagos futuros. Con éstos se tendrı́an los elementos suficientes para estimar las cotas del RCS de la posición agregada de la compañı́a.
4.2.
Precios de activos
En series financieras es común observar que existe dependencia entre las series de los rendimientos instantáneos de un activo. A pesar de esto, en modelos
comúnmente utilizados se asume que los rendimientos en periodos excluyentes
son independientes e idénticamente distribuidos. En esta sección se mostrará una
aplicación del algoritmo de reorganización para encontrar intervalos de confianza de precios de activos considerando la estructura de dependencia que subyace
en los rendimientos instantáneos.
Sea St el precio de un activo al tiempo t ≥ 0, y sea δt,t+∆t la tasa continua
de rendimiento del activo efectiva en el periodo [t, t + ∆t]. Entonces, el precio
del activo al tiempo T = n∆t está dado por
ST = S0 e
δ0,∆t +δ∆t,2∆t +···+δ(n−1)∆t,n∆t
= S0
n−1
Y
eδi∆t,(i+1)∆t
(4.1)
i=0
En el modelo de Black-Scholes, se asume que los rendimientos δi∆t,(i+1)∆t
siguen una distribución normal y que son independientes. Para algunos activos
CAPÍTULO 4. APLICACIONES DEL AR
38
del mercado no se cumplen estos supuestos, especialmente en episodios de alta
volatilidad del mercado. En estos casos la dependencia toma un papel importante y es pertinente conocer intervalos de confianza del activo St .
El procedimiento para encontrar el intervalo de confianza a un α × 100 %
para ST tomando en consideración la dependencia de sus rendimientos es el
siguiente:
1. Definir α ∈ (0, 1) como el nivel de confianza del intervalo y ∆t como la
longitud de los subintervalos de la discretización de [0, T ].3
2. Estimar la distribución de los rendimientos diarios, δi∆t,(i+1)∆t , i = 0, . . . , n−
1. Ésta se puede obtener mediante una distribución empı́rica de la serie
de precios con los datos de los rendimientos históricos del activo. 4
3. Con la distribución de los rendimientos δi∆t,(i+1)∆t , i = 0, . . . , n − 1 ,
obtener la distribución de Xi = eδi∆t,(i+1)∆t , i = 0, . . . , n − 1 aplicando el
teorema de transformación,
FXi (x) = Fδi∆t,(i+1)∆t (log(x)).
Qd
4. Aplicar el algoritmo de reorganización con ψ(x1 , . . . , xd ) = i=1 xi para
encontrar VaR1− 1−α (X) y VaR 1−α (X). Con ésta se obtienen las cotas
2
2
para el rendimiento efectivo del activo en el tiempo [0, T ].
5. Definir
S T,1− 1−α = S0 VaR1− 1−α (X) y S T, 1−α = S0 VaR 1−α (X)
2
2
2
2
Estos valores corresponderán a los α-percentiles de ST pues ST = S0 X y
por lo tanto VaRα (ST ) = S0 VaRα (X).
6. Finalmente, (S T, 1−α , S T,1− 1−α ) muestran los valores en los cuales se en2
2
contrará el precio del subyacente a un nivel de confianza α × 100 % considerando la dependencia de los rendimientos de St .
Observaciones
En el paso 2 se contemplan distribuciones arbitrarias de los rendimientos
en [0, T ], mostrándose como un caso más general del modelo de BlackScholes en tanto que se elimina el supuesto de normalidad.
3 Nota: se deberá contar con observaciones de los rendimientos de los periodos de longitud
1
∆t. Por ejemplo, si ∆t = 360
se debe contar con suficientes observaciones diarias de St .
4 Para remover el efecto de dependencia en la serie de rendimientos se puede tomar como
muestra aleatoria elementos de la serie que estén lo suficientemente lejanos en el tiempo
entre sı́. Este criterio se puede establecer mediante un análsis de autocorrelaciones de los
rendimientos observados.
CAPÍTULO 4. APLICACIONES DEL AR
39
La libertad de distribución de los rendimientos permite modelar colas pesadas y asimetrı́a, caracterı́sticas que se observan en algunos activos del
mercado.
En el paso 2 se menciona que se debe estimar la distribución de los rendimientos; sin embargo, éstos pueden tomarse normales para hacer un
comparativo de los resultados mostrados por Black-Scholes y aquéllos que
no asumen independencia de rendimientos.
El algoritmo puede soportar dimensiones d arbitrariamente grandes, por
lo que el horizonte sobre el cual se puede estimar el intervalo para el
1
, entonces con d = 60
precio puede ser elevado. Por ejemplo, si ∆t = 360
se estiman las cotas para un periodo de 2 meses.
Se puede suponer que δi∆t,(i+1)∆t , i = 0, . . . , n−1 tienen la misma distribución, lo que facilitarı́a su estimación. Sin embargo, si se sabe que el activo
no tiene un comportamiento homogéneo en algún subintervalo de [0, T ], se
puede seleccionar un periodo k∆t a partir del cual δi∆t,(i+1)∆t , i = k, . . . , n
dejen de ser idénticamente distribuidas.
Determinar un intervalo de confianza tomando en cuenta la estructura de
dependencia de los rendimientos puede tener numerosas ventajas. En lo siguiente
se presentarán algunas aplicaciones de valor para instituciones financieras que
requieren de esta clase de estimaciones.
4.2.1.
Payoffs de instrumentos derivados
Una vez que se conocen los valores extremos de St a nivel de confianza α con
el procedimiento presentado en la seccion 4.2, se pueden conocer cotas superiores
e inferiores para las pérdidas o ganancias de instrumentos derivados a un nivel
de confianza α. Esto se puede efectuar de manera sencilla al evaluar los valores
S T, 1−α y S T,1− 1−α en las funciones de pago de los instrumentos derivados.
2
2
Ejemplo 4.2 (Aplicación a opciones). La función de ganancia al vencimiento
para una posición larga en un call con precio de ejercicio K y vencimiento en T
es
P = máx{ST − K, 0}.
Esta función es creciente con respecto a ST y por lo tanto al evaluar los valores
S T, 1−α y S T,1− 1−α se otendrán los escenarios de ganancias al vencimiento del
2
2
call europeo bajo los escenarios extremos de ST al nivel de confianza α.
4.2.2.
Precios futuros
El procedimiento mostrado de la seccion 4.2 puede ser aplicado para encontrar cotas de precios futuro con un mismo vencimiento al final del periodo [0, T ].
CAPÍTULO 4. APLICACIONES DEL AR
40
Una importante aplicación de determinar un intervalo de confianza para los
precios futuros es la determinación de los márgenes iniciales de las cámaras de
compensación: si se determina el nivel de confianza α como la probabilidad de
no superar el margen inicial en [0, T ], entonces los valores
P
− S0
M = F T,1− 1−α
2
y
m = S0 − F P
T, 1−α
2
se pueden utilizar para determinar el nivel de margen inicial por unidad de subyacente con precio inicial S0 en el contrato de futuro.
Tomar M I = máx{M, m} como nivel de margen inicial se asegurarı́a con un
α × 100 % que las pérdidas en [0, T ] no superarán el margen en un caso extremo
de dependencia de los rendimientos diarios de FT .
4.3.
Coberturas de reaseguro
Las cotas a las medidas de riesgo presentadas en el capı́tulo 3 tienen una
aplicación directa para medir la exposición al riesgo en las que incurren las
reaseguradoras al cubrir portafolios de seguros. En esta sección se muestran
estas aplicaciones considerando las particularidades de cada cobertura.
4.3.1.
Cobertura stop-loss
La cobertura de exceso agregado (o stop-loss) establece una prioridad ` de
pérdida para la suma de las pérdidas de la aseguradora en un intervalo de tiempo (regularmente de un año), a partir del cual el reasegurador comenzará a
pagar el exceso sobre `. El reasegurador debe evaluar el nivel de riesgo en el que
incurre al otorgar esta cobertura a un portafolio de seguros, por lo que conocer
las cotas del VaR y el déficit esperado del portafolio permite revelar el nivel de
aseguramiento sobre el portafolio cubierto.
Sean X1 , . . . , Xd las componentes de pérdida agregada del portafolio. Éstas
pueden ser, por ejemplo, las variables aleatorias de pérdida mensual experimentada por la aseguradora (que no necesariamente serán idénticamente distribuidas si se reconocen las diferencias en exposición por periodos). Éstas podrı́an
representar también las pérdidas esperadas por los subramos de la lı́nea de negocio reasegurada.
Pd En este caso, es de interés estimar las medidas de riesgo para
ψ = + (X = i=1 Xi ), pues la cobertura stop-loss cubre las pérdidas aditivas
del portafolio en el periodo de vigencia.
VaR agregado del stop-loss
Estimar las cotas del VaR agregado para del portafolio reasegurado es útil
para evaluar los resultados de modelos del reasegurador y estimar los posibles
CAPÍTULO 4. APLICACIONES DEL AR
41
niveles de confianza sobre los cuales se tiene que
VaRα (X1 + . . . + Xd ) ≤ ` ≤ VaRα (X1 + . . . + Xd ).
El ejercicio es el siguiente:
1. Tomar δ > 0 como el nivel de precisión de los extremos del conjunto
A = {α ∈ (0, 1) : VaRα (X) ≤ ` ≤ VaRα (X)}.
2. Estimar la distribución de X1 , . . . , Xd , las componentes de riesgo cubiertas
por el contrato.
3. Definir a = 0, b = 1, k = 0 y α0 ∈ (0, 1) como valor inicial.
4. Aplicar el algoritmo de reorganización para encontrar VaRαk (X).
5. Si |VaRαk (X) − `| < δ, tomar α∗ = αk como estimador del lı́mite inferior
de A. De lo contrario, tomar a = αk si (VaRαk (X) − `) > 0, o b = αk si
(VaRαk (X) − `) < 0.
6. Definir αk+1 =
a+b
2 .
7. Repetir para k = 1, 2, . . . los pasos 4-6 hasta que se verifique que |VaRαk (X)−
`| < δ, y definir α∗ como el estimador del lı́mite superior de A.
Un intervalo de longitud pequeña indicarı́a que los posibles arreglos de dependencia entre X1 , . . . , Xd no generan casos muy extremos de VaRα . Por otro
lado, si ambos extremos del intervalo resultan suficientemente elevados, el portafolio se encontrará adecuadamente cubierto por `, y por lo tanto no se superará el
lı́mite de reaseguro con un alto nivel de confianza.
ES agregado del stop-loss
El algoritmo de reorganización de la sección 3.4 puede ser utilizado para
encontrar el mejor escenario del déficit esperado de X = X1 + . . . + Xd dado que
se superó la prioridad `.5 Con éste se conocerı́an las pérdidas del reasegurador en
un evento de caso extremo de dependencia de X1 , . . . , Xd . El procedimiento para
encontrar el mejor escenario de E(X|X > `) utilizando el AR para encontrar
ESα es el siguiente:
1. Estimar la distribución de las componentes de pérdida X1 , . . . , Xd . Éstas
pueden ser empı́ricas y se pueden obtener mediante simulaciones para
contemplar el efecto de exposición futura del portafolio.
2. Definir N un entero positivo y > 0 como el grado de precisión.
5
Para hacer esto se deberá hacer una modificación al algoritmo para fijar α tal que VaRα =
` y que por lo tanto ESα sea un estimador del mejor escenario de E(X|X > `).
CAPÍTULO 4. APLICACIONES DEL AR
42
3. Seguir los pasos 2-6 del algoritmo de reorganización (sección 3.4) hasta
∗
obtener W ∗ y W .
4. Definir +W el vector de (N × 1) cuyas entradas son los componentes
ordenados de la suma de los elementos por columnas de W , i.e.
(+W)i =
d
X
wγ(i),j , i = 1, . . . , N,
j=1
donde γ(i) son tales que (+W)1 ≤ (+W)2 ≤ . . . ≤ (+W)N , y definir
k` := mı́n{n ∈ N : (+W)n ≥ `}.
Este número representa el número de componentes de X = X1 + . . . + Xd
que superan la prioridad `.
5. Para N suficientemente grande, los estimadores del mejor escenario de
E(X|X > `) son
q=
N X
d
X
1
w∗i,j
N − k`
j=1
i=k`
y
q=
N X
d
X
1
w∗i,j .
N − k`
j=1
i=k`
Observación. El estimador de E(X|X > `) corresponde a ESα para α tal que
VaRα (X) = `, por lo que el algoritmo fue modificado en su último paso para
fijar ` como VaRα .
Con los estimadores q y q las reaseguradoras pueden evaluar el nivel de confianza en el que se encuentra su portafolio bajo el mejor caso de dependencia.
Una ventaja importante para éstas es que pueden determinar, según su apetito
de riesgo, el nivel de confianza en el que se desea estar con respecto a la pérdida
agregada de portafolio reasegurado bajo el mejor escenario.
Es importante mencionar que en este caso no es fácil conocer el peor escenario de E(X|X > `) pues el algoritmo de reorganización de la sección 3.4 no
es útil para estimar ESα . Sin embargo, la información que proporciona el mejor
escenario del déficit esperado es de suficiente valor para tomar decisiones sobre
el portafolio reasegurado.
4.3.2.
Cobertura de exceso de pérdida por riesgo
La cobertura de reaseguro no proporcional conocida como working cover o
cobertura riesgo por riesgo, establece un lı́mite ` a partir del cual se comienzan a
pagar pérdidas en exceso de siniestros individuales. En estos casos, el reasegurador debe evaluar el riesgo de exceder el lı́mite establecido durante la cobertura,
o bien hacer un análisis para establecer un valor de ` adecuado al negociar el
CAPÍTULO 4. APLICACIONES DEL AR
43
contrato de reaseguro.
Sean X1 , . . . , Xd las componentes de riesgo del asegurador (pueden representar las pérdidas en un intervalo de tiempo considerando la exposición de cada periodo, o la pérdida de las unidades expuestas al riesgo) y X = máx{X1 , . . . , Xd }.
Entonces, estimar VaRα (X) para distintos valores de α permite conocer el nivel
de aseguramiento que tiene el portafolio de no sobrepasar ` en casos extremos
de dependencia.
En el siguiente ejemplo se muestran los resultados de efectuar este análisis
para un portafolio de 100 unidades. Se eligió un comportamiento exponencial
en las variables de pérdida por no contar con colas pesadas ni ligeras. Finalmente, se compara el resultado de utilizar el algoritmo de reorganización con
el de la aproximación de máximos de variables aleatorias exponenciales por la
distribución Gumbel.
Ejemplo 4.3. Supóngase que se reasegura un portafolio cuyas componentes
de riesgo, X1 , . . . , X100 , siguen una distribución Exp(1000). Supóngase también
que la cobertura convenida es un working cover, y que la reaseguradora busca
establecer un nivel ` tal que se tenga un α × 100 % de no superarlo durante el
periodo de cobertura.
La siguiente tabla compara estimaciones del percentil 95 de la distribución
de X = máx{X1 , . . . , X100 } mediante tres acercamientos distintos: el primero,
estimando el percentil de simulaciones independientes de Xi ∼ Exp(1000); el
segundo, mediante una aproximación de X = máx{X1 , . . . , X100 } por la distribución de Gumbel;6 el tercero, mediante el algoritmo de reorganización para
encontrar VaRα (X).
α
0.90
0.95
Simulación
6894.8
7643.0
Gumbel
6886.7
7648.7
VaRα (X)
7013.1
7706.3
Estos resultados se muestran como posibles valores de ` tales que se cumpla
con el criterio establecido. Desde una perspectiva conservadora, se puede establecer ` = 7013.1 para asegurar que el lı́mite no se superará con un nivel de
confianza del 90 % aún en casos extremos de dependencia de X1 , . . . , X100 .
Nótese que este análisis puede hacerse para casos en los que X1 , . . . , Xd no
son idénticamente distribuidas, pues en el algoritmo se permiten distribuciones
arbitrarias de X1 , . . . , Xd . Este hecho representa una importante ventaja sobre
el acercamiento de distribuciones de máximos con teorı́a de valores extremos,
ya que éste requiere de supuestos de convergencia a un dominio de atracción del
6 Esto pues la distribución exponencial pertenece al dominio de atracción del máximo de
Gumbel. Véase la sección 7 de McNeil et al. [7] para más detalles.
CAPÍTULO 4. APLICACIONES DEL AR
44
máximo.
4.4.
Portafolio de derivados
Supóngase que se tiene un portafolio de d derivados con distribución de
pérdida actualizada X1 , . . . , Xd , 7 y que éstos dependen de subyacentes correlacionados en el mercado. Dada la posibilidad de que los derivados muestren un
alto grado de dependencia, es importante hacer un análisis de mediante indicadores del portafolio.
Para una función de agregación ψ que cumple con las caracterı́sticas mencionadas en la sección 3.2, y para un portafolio de activos X1 , . . . , Xd cuyas
distribuciones marginales son conocidas, 8 obtener VaRα (ψ(X)) y ESα (ψ(X))
permite obtener conclusiones importantes sobre el riesgo y la dependencia de
los derivados que componen el portafolio. Algunas funciones ψ a tomar podrı́an
ser:
1. ψ(X) = mı́n{X1 , . . . , Xd }: En este caso la medida de riesgo VaRα permitirı́a conocer la ganancia máxima (o pérdida mı́nima) del portafolio
para casos extremos de dependencia entre los instrumentos con un nivel
de confianza α.
Pd
2. ψ(X) = i=1 Xi : Para esta función, conocer ESα y ESα permitirı́a conocer la posible pérdida en un evento de catástrofe. También, con VaRα y
VaRα se pueden tomar decisiones de inversión seleccionando derivados que
minimicen el riesgo de déficit.
Reconocer el nivel de dependencia que existe entre los instrumentos derivados es de fundamental importancia para evaluar la posición de riesgo de los
portafolios, por lo que efectuar este análisis presentarı́a numerosas ventajas para
los administradores de riesgos financieros. La alternativa presentada en esta sección permite contar con una mejor visión de los valores entre los cuales juegan
los indicadores ρα en presencia de dependencia.
7 Se pueden contemplar posiciones largas y cortas ajustando el signo de la distribución
para que valores positivos contemplen pérdidas.
8 Éstas pueden ser conocidas analı́ticamente, o se puede estimar la distribución empı́rica vı́a simulación. Por ejemplo, si las trayectorias de los precios de los subyacentes pueden
ser modeladas marginalmente, con éstos se podrı́a simular las pérdidas ocasionadas por los
instrumentos derivados.
Capı́tulo
5
Conclusiones
En la modelación de pérdidas agregadas del ámbito financiero y asegurador
es necesario reconocer una estructura de dependencia entre las componentes de
riesgo. Entre los métodos más utilizados se encuentran las cópulas, que permiten dotar de dependencia a un vector aleatorio sin alterar la estructura marginal.
Los modelos de cópulas logran capturar ciertas dimensiones de relación en
la distribución conjunta; sin embargo, la influencia de la selección de la cópula
sobre la medida de riesgo a estimar puede ser significativa. Un ejemplo de esto
se observa para la cópula comonotónica y la medida de riesgo ρα = VaRα , pues
bajo la cópula comonotónica ésta no es siempre mayor que la independiente a
pesar de la perfecta correlación positiva que induce en las marginales. Resulta
entonces pertinente conocer la magnitud de la incertidumbre de modelo, ası́ como los valores máximo y mı́nimo que tomarı́an las medidas de riesgo por el
efecto que introducen las cópulas en ρα .
El algoritmo de reorganización permite conocer, mediante una aproximación por distribuciones uniformes discretas, las cotas óptimas de las medidas de
riesgo VaRα y ESα para cualesquiera distribuciones marginales y para dimensiones d arbitrariamente grandes, tomando en consideración la influencia de la
dependencia de X1 , . . . , Xd en ρα (ψ(X1 , . . . , Xd )). Además, este algoritmo permite obtener cotas del VaR para cualquier función de agregación ψ : Rd → R
que cumpla con ser simétrica y creciente en cada coordenada. Para la medida de riesgo ρα = ESα se pueden estimar las cota inferior, ESα , únicamente para función de agregación aditiva. Para el peor caso de ESα se tiene que
ESα (X1 + . . . + Xd ) = ESα (X1 ) + . . . + ESα (Xd ), por lo que no es necesario
estimarlo mediante un algoritmo si se conoce el comportamiento marginal de
(X1 , . . . , Xd ).
Con las metodologı́as presentadas es posible efectuar un análisis de los lı́mi-
45
CAPÍTULO 5. CONCLUSIONES
46
tes en los que juega el valor en riesgo y el déficit esperado agregados con pocas
restricciones. En comparación con las metodologı́as comunes para encontrar
las medidas de riesgo, el algoritmo permite una alta flexibilidad en cuanto a
dos importantes consideraciones: las posibles funciones de agregación (ψ) y la
no homogeneidad de las distribuciones marginales. Esta flexibilidad le permite
aplicaciones directas en los seguros y las finanzas, además de que el algoritmo
es sencillo de implementar en muchos paquetes de programación.
En la aplicación resulta de particular interés para el sector financiero y asegurador cuantificar la influencia de la dependencia extrema en las medidas de
riesgo: las metodologı́as de requerimiento de capital de la nueva regulación de
seguros podrı́an presentar una significativa incertidumbre de modelo y es importante estimarla.1 Por último, conocer las cotas a las medidas de riesgo presenta
numerosas ventajas para los análisis internos de las instituciones de seguros: primero, permite introducir en los análisis de las medidas de riesgo una perspectiva
de dependencia adecuada para tomar importantes decisiones de apetito de riesgo; segundo, las cotas revelan la posible dispersión de los indicadores de riesgo
por efecto de la dependencia inducida en las marginales; finalmente, permite a
los administradores de riesgos evaluar los niveles de confianza de los niveles de
capital agregado.
1 En la aplicación al Requerimiento de Capital de Solvencia bastará con contar con la
información de los parámetros de los modelos que el EIQ arrojará (es decir, poder estimar las
variables aleatorias de pérdida marginales) para efectuar este análisis.
Apéndice
A
Simulación de cópulas
Los algoritmos de simulación se basarán en el método de inversión y en la
siguiente relación:
P (U2 ≤ u2 , U1 ∈ (u1 − , u1 + ])
P (U1 ∈ (u1 − , u1 + )
C(u1 + , u2 ) − C(u1 − , u2 )
= lı́m
→0 C(u1 + , 1) − C(u1 − , 1)
C(u1 + , u2 ) − C(u1 − , u2 )
= lı́m
→0
2
∂C(u1 , u2 )
=
∂u1
P (U2 ≤ u2 |U1 = u1 ) = lı́m
→0
(A.1)
El procedimiento a simular una realización de (X1 , X2 ) con cópula C será, en
general, el siguiente:
1. Obtener una realización de X1 por el método de inversión ; esto es, x1 =
−1
FX
(u1 ) donde u1 proviene de una distribución U1 ∼ U (0, 1).
1
Aquı́ F −1 (x) denota la función inversa generalizada,
F −1 (α) := ı́nf{x : F (x) > α}, α ∈ [0, 1].
y con éste obtener u2 = G−1 (u1 , u3 ). Aquı́ u3
2. Definir G(u, v) = ∂C(u,v)
∂u
proviene de una realización de U3 ∼ U (0, 1) y u1 es el valor utilizado en
el paso anterior para obtener x1 .1
−1
3. Obtener x2 = FX
(u2 ) como una realización de X2 .
2
1 El valor u corresponde a la realización de la variable aleatoria U |U = u , como es
2
2 1
1
mostrado en (A.1). Éste se utiliza para obtener w, que toma el papel de generador de X2 bajo
la estructura de C.
47
Apéndice
B
Relación de
P (Y ≥ s) con VaRα(Y )
Puccetti y Rüschendorf desarrollaron en Computation of sharp bounds on the
distribution of a function of dependent risks [9] el algoritmo de reorganización
para encontrar cotas óptimas de
P (ψ(X1 , . . . , Xd ) ≥ s), s ∈ R
dado que Xi ∼ Fi , i = 1, . . . , d, donde Fi son funciones de distribución conocidas.
El problema de maximización que se resuelve en este caso es el siguiente:
dada una función ψ con las caracterı́sticas mencionadas en la sección 3.2 , s ∈ R
fija y F1 , . . . , Fd funciones de distribución, se busca encontrar
Mψ (s) = sup{P (ψ(X1 , . . . , Xd ) ≥ s) : Xj ∼ Fj , 1 ≤ j ≤ d}
(B.1)
mψ (s) = ı́nf{P (ψ(X1 , . . . , Xd ) > s) : Xj ∼ Fj , 1 ≤ j ≤ d}
(B.2)
Las probabilidades en (B.1) y (B.2) se definen de manera distinta para garantizar que el supremo y el ı́nfimo son alcanzados.
El AR para encontrar Mψ y mψ es igual al mostrado en el capı́tulo 3, y su
demostración se encuentra en [9] . La diferencia entre éstos se encuentra en el
∗
valor tomado de las matrices W y W ∗ (paso número 7. del AR presentado en
la sección 3.2). Entonces, la relación que guarda el AR para encontrar Mψ y mψ
con el AR para encontrar VaRα y VaRα es la siguiente:
α
Sea α ∈ (0, 1) y W = W la matriz obtenida por el paso 2 en el AR, y
tomemos el caso particular s = mı́n{ψ(X)}. Por construcción de la matriz W
se tiene que
48
APÉNDICE B. RELACIÓN DE P (Y ≥ S) CON VARα (Y )
P (ψ(X) ≥ mı́n{Ψ(W )}) ≥ 1 − α.
49
(B.3)
Entonces,
α ≥ 1 − P (ψ(X) ≥ mı́n{Ψ(W )})
= Fψ(X) (mı́n{Ψ(W )})
−1
por lo que aplicando Fψ(X)
de ambos lados se obtiene que
α
VaRα (ψ(X)) ≥ mı́n{Ψ(W )}.
(B.4)
Por otro lado, si se toma la matriz W = W α , en la ecuación (B.3) se tiene
P (ψ(X) ≥ mı́n{Ψ(W )}) ' 1 − α,
y procediendo análogamente se observa que
VaRα (ψ(X)) ' mı́n{Ψ(W α )}.
(B.5)
Luego, considerando (B.4) y (B.5) podemos aproximar VaRα como
VaRα (ψ(X)) =
máx mı́n{Ψ(W̃ )}.
W̃ ∈P(W )
Donde P(W ) denota el conjunto de todas las posibles permutaciones por columnas de la matriz W . De esto se sigue que el Algoritmo de Reorganización
propuesto por Puccetti y Rüschendorf puede utilizarse para computar VaRα como se propone en [6].
Análogamente, tomando Z = Z α como la matriz que se utiliza para encontrar VaRα , se tiene que
tN ' VaRα (ψ(X)) ≤ tN
y por lo tanto VaRα se puede aproximar como
VaRα (ψ(X)) = mı́n máx{Ψ(Z̃)}.
Z̃∈P(Z)
Apéndice
C
Algoritmos en Octave
En este apéndice se muestran las funciones utilizadas para implementar el
algoritmo de reorganización para encontrar cotas de VaRα y de ESα en Octave.
1
% Con e s t a f u n c i o n s e computa sup o i n f rho para e l rho=
VaR o rho=ES ( segun s e i n d i q u e en l a v a r i a b l e VaR : 1
e s VaR y 0 e s ES) . Esta f u n c i o n r e q u i e r e de l a f u n c i o n
RAPsiV03 .
2
3
%
INPUTS
4
5
6
7
8
9
10
% En UpperQ debe s e r l a m a t r i z que s e denota X
b a r r a alpha , que debe c o n t e n e r l o s c u a n t i l e s
de l a s m a r g i n a l e s .
% En LowerQ debe s e r l a m a t r i z que s e denota X
subrayado alpha , que debe c o n t e n e r l o s
c u a n t i l e s de l a s m a r g i n a l e s .
% sup i n d i c a s i s e busca e l worst−c a s e rho ( sup
=1) o e l b e s t −c a s e rho ( sup =0) .
% VaR : S i d i c e 1 , d e v u e l v e en l o w e r y upper l o s
e s t i m a d o r e s de supVaR ( s i sup=1 y VaR=1)
infVaR ( s i sup=0 y VaR=1) o i n f E S ( s i VaR=0)
con l a s m a t r i c e s UpperQ y LowerQ
% p s i e s l a f u n c i o n para l a c u a l s e o b t i e n e rho (
p s i (X) ) . Para o b t e n e r i n f E S s o l o s e puede con
p s i =’x+y ’ .
Ejemplos de p s i :
p s i =’max( x , y ) ’
, p s i =’x∗y ’ , p s i =’min ( x , y ) ’ .
% S i o r d e r =1, en l a s m a t r i c e s l M a t r i x y uMatrix
s e d e v u e l v e l a m a t r i z de l o s c u a n t i l e s de l a
d i s t r i b u c i o n de l a suma de manera ordenada .
50
APÉNDICE C. ALGORITMOS EN OCTAVE
51
% a l p h a e s e l n i v e l de c o n f i a n z a a l c u a l s e
p r e t e n d e e s t i m a r ( e s n e c e s a r i o para computar
infES ) .
% e p s i l o n e s e l n i v e l de p r e c i s i o n d e l e s t i m a d o r .
11
12
13
14
%
OUTPUTS
15
% l o w e r e s e l e s t i m a d o r de rho c o r r e s p o n d i e n t e a
l a m a t r i z LowerQ .
% upper e s e l e s t i m a d o r de rho c o r r e s p o n d i e n t e a
l a m a t r i z UpperQ .
% PsiLMatrix e s l a m a t r i z de l o s c u a n t i l e s de P s i
(X) para e l e s c e n a r i o b e s t ( o w o r s t s i sup =0)
c o r r e s p o n d i e n t e a l a m a t r i z LowerQ
% PsiUMatrix e s l a m a t r i z de l o s c u a n t i l e s de P s i
(X) para e l e s c e n a r i o b e s t ( w o r s t s i sup =0)
c o r r e s p o n d i e n t e a l a m a t r i z UpperQ
% l M a t r i x e s l a m a t r i z de l o s c u a n t i l e s de l a s
m a r g i n a l e s para e l e s c e n a r i o b e s t ( w o r s t s i
sup =0) c o r r e s p o n d i e n t e a l a m a t r i z LowerQ
% uMatrix e s l a m a t r i z de l o s c u a n t i l e s de l a s
m a r g i n a l e s para e l e s c e n a r i o b e s t ( w o r s t s i
sup =0) c o r r e s p o n d i e n t e a l a m a t r i z UpperQ
16
17
18
19
20
21
22
%
23
∗ l o s ultimos 4 outputs estaran
or d e n a d o s en orden c r e c i e n t e s i e l
i n p u t o r d e r =1.
24
25
26
f u n c t i o n [ lower , upper , PsiLMatrix , PsiUMatrix , l M a t r i x ,
uMatrix ]= supinfVaRES ( LowerQ , UpperQ , sup , VaR, p s i , o r d e r ,
alpha , e p s i l o n )
27
28
29
30
31
32
c u e n t a =0;
[ n ,m]= s i z e ( UpperQ ) ;
Matrix1=z e r o s ( n ,m) ;
Matrix2=z e r o s ( n ,m) ;
k t i l d e=a l p h a ∗n ;
33
34
if
35
36
37
38
end
( k t i l d e −f l o o r ( k t i l d e )>0 && VaR˜=1)
d i s p l a y ( ’ E r r o r : a l p h a ∗N no e s un e n t e r o y no s e
podra o b t e n e r ESalpha ’ )
k t i l d e=f l o o r ( k t i l d e ) ;
APÉNDICE C. ALGORITMOS EN OCTAVE
39
40
41
42
52
% Aqui f i j a m o s que s o l o s e obtenga i n f E S en c a s o de que
s e s o l i c i t e e l Expected S h o r t f a l l y no VaR
i f (VaR==0)
sup =0;
end
43
44
45
46
i f (VaR==0 && p s i ˜= ’ x+y ’ )
d i s p l a y ( ’ E r r o r : i n f E S s o l o s e puede c a l c u l a r para
e l c a s o p s i ( x , y )=x+y . S a l d r a un e r r o r o l o s
resultados seran i n c o r r e c t o s . ’ ) ;
end
47
48
49
50
51
% Este f o r e s para permutar l a s columnas de l a m a t r i z
UpperQ
f o r j =1:m
Matrix2 ( : , j )=UpperQ ( randperm ( n ) , j ) ;
end
52
53
% Corre e l a l g o r i t m o por l o menos una vez
54
55
[ min2 , PsiMatrix , Matrix2 ]=RApsiV03 ( Matrix2 , sup , p s i ) ;
56
57
58
59
60
% En c a s o de que s e t r a t e d e l e x p e c t e d s h o r t f a l l
obtenemos e l e s t i m a d o r d e l e x p e c t e d s h o r t f a l l
i f (VaR˜=1)
min2=mean ( P s i M a t r i x ( PsiMatrix >=( s o r t ( P s i M a t r i x ) (
ktilde ) ) ) ) ;
end
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
do
Matrix1=Matrix2 ;
min1=min2 ;
[ min2 , PsiMatrix , Matrix2 ]=RApsiV03 ( Matrix1 , sup , p s i
);
i f (VaR˜=1)
min2=mean ( P s i M a t r i x ( PsiMatrix >=( s o r t (
PsiMatrix ) ( k t i l d e ) ) ) ) ;
end
c u e n t a=c u e n t a +1;
%
d i s p l a y ( cuenta ) ;
%
d i s p l a y ( min2 ) ;
u n t i l ( abs ( min1−min2 )<e p s i l o n )
upper=min2 ;
PsiUMatrix=P s i M a t r i x ;
APÉNDICE C. ALGORITMOS EN OCTAVE
76
77
78
79
80
81
82
83
84
85
86
87
53
%Se ordena l a m a t r i z por orden de l a suma en c a s o de que
s e haya p e d i d o en l a v a r i a b l e o r d e r
i f ( o r d e r ==1)
PsiUMatrix=s o r t ( PsiUMatrix ) ;
Usums=z e r o s ( n , 1 ) ;
f o r i =1:n
Usums ( i )=sum ( Matrix2 ( i , : ) ) ;
end
[ UQSums, Uindex ]= s o r t ( Usums ) ;
f o r i =1:n
uMatrix ( i , : ) =Matrix2 ( Uindex ( i ) , : ) ;
end
end
88
89
%Mismo p r o c e s o para LowerQ :
90
91
%Este f o r e s para permutar l a s columnas de l a m a t r i z
LowerQ
92
93
94
95
f o r j =1:m
Matrix2 ( : , j )=LowerQ ( randperm ( n ) , j ) ;
end
96
97
[ max2 , PsiMatrix , Matrix2 ]=RApsiV03 ( Matrix2 , sup , p s i ) ;
98
99
100
101
i f (VaR˜=1)
max2=mean ( P s i M a t r i x ( PsiMatrix >=( s o r t ( P s i M a t r i x ) (
ktilde ) ) ) ) ;
end
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
do
Matrix1=Matrix2 ;
max1=max2 ;
[ max2 , PsiMatrix , Matrix2 ]=RApsiV03 ( Matrix1 , sup , p s i
);
i f (VaR˜=1)
max2=mean ( P s i M a t r i x ( PsiMatrix >=( s o r t (
PsiMatrix ) ( k t i l d e ) ) ) ) ;
end
c u e n t a=c u e n t a +1;
%
d i s p l a y ( cuenta ) ;
%
d i s p l a y ( min2 ) ;
u n t i l ( abs ( max1−max2 )<e p s i l o n )
l o w e r=max2 ;
PsiLMatrix=P s i M a t r i x ;
APÉNDICE C. ALGORITMOS EN OCTAVE
117
118
119
120
121
122
123
124
125
126
127
128
54
%Se ordena l a m a t r i z por orden de l a suma en c a s o de que
s e haya p e d i d o en l a v a r i a b l e o r d e r
i f ( o r d e r ==1)
PsiLMatrix=s o r t ( PsiLMatrix ) ;
Lsums=z e r o s ( n , 1 ) ;
f o r i =1:n
Lsums ( i )=sum ( Matrix2 ( i , : ) ) ;
end
[ LQSums , Lindex ]= s o r t ( Lsums ) ;
f o r i =1:n
l M a t r i x ( i , : ) =Matrix2 ( Lindex ( i ) , : ) ;
end
end
129
130
1
end
%
Como p r i m e r i n p u t s e t i e n e l a m a t r i z de
cuantiles .
2
3
4
%
El segundo argumento e s t a b l e c e s i s e
busca e l maximo o e l minimo de l a suma de l o s
r e n g l o n e s ( para b u s c a r e l minimo s e i n s e r t a 1 , y e l
maximo s e i n s e r t a c e r o ) .
%Output : d e v u e l v e e l minimo s i e l segundo argumento e s
i g u a l a 1 ( o maximo en c a s o de que e l argumento max
s e a i g u a l a c e r o ) de l a suma de l o s r e n g l o n e s de l a
m a t r i z r e s u l t a n t e de p r o c e s a r l a m a t r i z ( e s t o es , para
cada columna , a r r e g l a r h a s t a que e s t a opuestamente
ordenada con r e s p e c t o a l a suma de l a s o t r a s columnas )
%Nota : s e asume que p s i ( x )=x , pues por l o g e n e r a l e s a s i .
5
6
%
=1; p s i =’x+y ’ ;
, psi ) ;
q u a n t i l e s =[1 2 3 ; 3 4 6 ; 7 9 1 0 ] ; minimum
[ minmax , PsiQ ,Q]=RApsi ( q u a n t i l e s , minimum
7
8
f u n c t i o n [ minmax , PsiQ ,Q]=RApsiV03 ( q u a n t i l e s , minimum , p s i )
9
10
[ n ,m]= s i z e ( q u a n t i l e s ) ;
11
12
13
14
15
16
17
f u n c=i n l i n e ( p s i ) ;
% R e a r r e g l a r cada columna
f o r j =1:m
% Crear un v e c t o r de l a suma de l a s o t r a s columnas
i f ( strcmp ( p s i , ’ x+y ’ ) | | strcmp ( p s i , ’ x∗y ’ ) | |
strcmp ( p s i , ’max( x , y ) ’ ) | | strcmp ( p s i , ’ min ( x , y )
’))
i f strcmp ( p s i , ’ x+y ’ )
APÉNDICE C. ALGORITMOS EN OCTAVE
18
19
else
20
21
else
22
23
24
25
26
27
else
55
o t h e r c o l=
sum ( [
quantiles
(: ,1: j
−1)
quantiles
(: , j
+1: end
) ] ,2) ;
i f strcmp ( p s i , ’ x∗y ’ )
o t h e r c o l=
prod ( [
quantiles
(: ,1: j
−1)
quantiles
(: , j
+1: end
) ] ,2) ;
i f strcmp ( p s i , ’max( x , y ) ’ )
o t h e r c o l=
max ( [
quantiles
(: ,1: j
−1)
quantiles
(: , j
+1: end
)
] ,[] ,2)
;
i f strcmp ( p s i , ’ min ( x , y ) ’ )
o t h e r c o l=
min ( [
quantiles
(: ,1: j
−1)
quantiles
(: , j
+1: end
)
] ,[] ,2)
;
end
end
end
APÉNDICE C. ALGORITMOS EN OCTAVE
end
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
56
else
o t h e r c o l=z e r o s ( n , 1 ) ;
f o r k1 =1:n
i f ( j ˜=1)
p s i c o l=q u a n t i l e s ( k1 , 1 ) ;
k3 =2;
else
p s i c o l=q u a n t i l e s ( k1 , 2 ) ;
k3 =3;
end
f o r k2=k3 :m
i f ( k2˜= j )
p s i c o l=f u n c (
psicol ,
q u a n t i l e s ( k1 ,
k2 ) ) ;
end
end
o t h e r c o l ( k1 )=p s i c o l ;
end
end
% V e r i f i c a r que e s t a n opuestamente o r d e n a d o s y , en c a s o
de no c u m p l i r l o , i n t e r c a m b i a r con e l e l e m e n t o que l o
interrumpe .
f o r i =1:n−1
rows=f i n d ( ( ( q u a n t i l e s ( : , j )−q u a n t i l e s ( i , j )
) . ∗ ( o t h e r c o l −o t h e r c o l ( i ) ) ) >0 ,1) ;
w h i l e ( min ( rows ) >0)
temp=q u a n t i l e s ( i , j ) ;
q u a n t i l e s ( i , j )=q u a n t i l e s ( rows ( 1 ) ,
j);
q u a n t i l e s ( rows ( 1 ) , j )=temp ;
rows=f i n d ( ( ( q u a n t i l e s ( : , j )−
quantiles ( i , j ) ) .∗( othercol −
o t h e r c o l ( i ) ) ) >0 ,1) ;
end
i=i +1;
end
end
59
60
61
% Obtener e l minimo o e l maximo .
PsiQ=z e r o s ( n , 1 ) ;
62
63
i f ( strcmp ( p s i , ’ x+y ’ ) | | strcmp ( p s i , ’ x∗y ’ ) | | strcmp ( p s i ,
’max( x , y ) ’ ) | | strcmp ( p s i , ’ min ( x , y ) ’ ) )
APÉNDICE C. ALGORITMOS EN OCTAVE
i f strcmp ( p s i , ’ x+y ’ )
64
65
else
66
67
else
68
69
else
70
71
72
73
74
else
f o r i =1:n
PsiQ ( i )=q u a n t i l e s ( i , 1 ) ;
f o r j =2:m
PsiQ ( i )=f u n c ( PsiQ ( i ) , q u a n t i l e s ( i ,
j));
end
end
77
78
79
80
81
82
83
PsiQ=sum ( q u a n t i l e s , 2 ) ;
i f strcmp ( p s i , ’ x∗y ’ )
PsiQ=prod ( q u a n t i l e s , 2 ) ;
i f strcmp ( p s i , ’max( x , y ) ’ )
PsiQ=max( q u a n t i l e s , [ ] , 2 ) ;
i f strcmp ( p s i , ’ min ( x , y ) ’ )
PsiQ=min ( q u a n t i l e s , [ ] , 2 ) ;
end
end
end
end
75
76
end
84
85
if
86
87
88
89
90
( minimum==1)
minmax=min ( PsiQ ) ;
else
minmax=max( PsiQ ) ;
end
Q=q u a n t i l e s ;
91
92
57
end
Bibliografı́a
[1] Comisión Nacional de Seguros y Fianzas (2013). Nota metodológica:
cálculo de las variables de pérdida de los seguros de daños y accidentes y
enfermedades. Requerimiento de capital por riesgos técnicos y financieros
de seguros (Borrador al 8 de abril de 2013).
[2] Das, B., Embrechts, P. y V. Fasen, (2012). Four theorems and a financial crisis. International Journal of Approximate Reasoning, Vol. 54, No.
6., pp. 701-716.
[3] Dhaene, J. (2004). Risk measures and comonotonicity: a review. Stochastic Models, Vol. 44, No. 4, pp. 573-606.
[4] Donnelly, C. y P. Embrechts, (2010). The devil is in the tails: actuarial
mathematics and the subprime mortgage crisis. ASTIN Bulletin, 40, pp. 133.
[5] Embrechts, P. y G. Puccetti, (2010). Risk Aggregation. En Copula
theory and its applications, Vol. 198 de Lecture Notes in Statistics, pp.
111-126. Springer Berlin Heidelberg.
[6] Embrechts, P., Puccetti, G. y L. Rüschendorf, (2012). Model Uncertainty and VaR Aggregation. Journal of Banking and Finance Vol. 37,
No. 8, pp. 2750-2764.
[7] McNeil, A., Frey, R. y P. Embrechts (2005). Quantitative Risk Management: Concepts, Techniques, Tools. Princeton, NJ: Princeton University
Press.
[8] Puccetti, G. (2013). Sharp bounds on the expected shortfall for a sum
of dependent random variables. Statistics and Probability Letters Vol. 83,
No. 4, pp. 1227-1232.
[9] Puccetti, G. y L. Rüschendorf (2012). Computation of sharp bounds
on the distribution of a function of dependent risks. J. Comput. Appl. Math.
Vol. 236, No. 7, pp. 1833-1840.
58
BIBLIOGRAFÍA
59
[10] Savu, C. y M. Trede, (2010). Hierarchies of Archimedean copulas. Quantitative Finance, Vol. 10, No. 3, pp. 295-304.
[11] Schmidt, T. (2006). Coping with Copulas. En Copulas: from Theory to
Application in Finance de J. Rank, pp. 1-31. Londres: Risk Books.
[12] Sklar, A. (1959). Fonctions de répartition à n dimensions et leurs marges.
Publications de l’Institut de Statistique de l’Université de Paris 8, pp. 229231.
Descargar