fundamentación en riesgo con risk simulator tabla de

Anuncio
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
FUNDAMENTACIÓN EN RIESGO CON RISK SIMULATOR
1.
TABLA DE CONTENIDO
RIESGO................................................................................................................................... 3
2.
TIPOS DE RIESGO ................................................................................................................... 4
2.1 RIESGO DE MERCADO ......................................................................................................... 4
2.1.1 Valor en Riesgo ............................................................................................................. 6
2.1.2 Cópulas ......................................................................................................................... 6
2.1.3 Teoría del Valor Extremo.............................................................................................. 7
3.
RIESGO DE CRÉDITO .......................................................................................................... 7
3.1 Pérdida Esperada............................................................................................................. 8
3.1.1 Probabilidad de Incumplimiento (PD) ......................................................................... 8
3.1.2 Exposición (EAD) .......................................................................................................... 8
3.1.3 Severidad de la Pérdida (LGD) ...................................................................................... 8
3.2 Métodos de Pérdida Esperada ........................................................................................... 9
3.3 Técnicas Paramétricas ....................................................................................................... 10
3.3.1 Regresion lineal .......................................................................................................... 10
3.3.2 Análisis discriminante ................................................................................................ 11
3.3.3 Modelo Logit y Probit ................................................................................................. 13
3.4 Técnicas no Paramétricas .................................................................................................. 16
3.4.1 Árboles de decisión .................................................................................................... 16
3.4.2 Redes neuronales ....................................................................................................... 16
3.5 Pruebas de Evaluación ...................................................................................................... 16
3.5.1 Kolmogorov- Smirnov ................................................................................................ 17
3.5.2 Curva ROC....................................................................................................................... 17
3.5.3 Chi-Square .................................................................................................................. 18
3.5.4 Hosmer - Lemeshow....................................................................................................... 19
2.3 RIESGO OPERACIONAL ...................................................................................................... 20
4.
2.3.1
Modelo del Indicador Básico (BIA) ...................................................................... 21
2.3.2
Método Estándar (STDAOp) y Estándar Alternativo (ASA) ................................. 21
2.3.3
Método de Medición Avanzada (AMA) ............................................................... 21
2.3.3.1
Medición de la Frecuencia .............................................................................. 22
2.3.3.2
Medición de la Severidad ................................................................................ 22
RISK SIMULATOR ................................................................................................................. 23
4.1 INTRODUCCIÓN A RISK SIMULATOR ..................................................................................... 24
1
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
4.2 SIMULACIÓN CON RISK SIMULATOR ................................................................................. 26
4.2.1 DEFINIENDO PERFIL .................................................................................................... 27
4.2.2 DEFINIENDO VARIABLES SUPUESTOS ......................................................................... 28
4.2.3 DEFINIENDO VARIABLES PRONÓSTICO ...................................................................... 29
4.2.4 EJECUTANDO LA SIMULACIÓN ................................................................................... 29
4.2.5 RESULTADOS DE LA SIMULACIÓN .............................................................................. 30
4.2 EJEMPLO DE COSTOS TOTALES ......................................................................................... 32
4.3 VaR por Método de Simulación de Montecarlo ................................................................ 35
4.4 Ejemplo de Evaluación de Proyectos ................................................................................ 35
4.5 OPTIMIZACIÓN CON RISK SIMULATOR.............................................................................. 39
4.5.1 DEFINIENDO VARIABLES DECISIÓN ............................................................................ 40
4.5.2 DEFINIENDO VARIABLES OBJETIVO ............................................................................ 40
4.5.3 DEFINIENDO RESTRICCIONES ..................................................................................... 41
4.5.4 EJECUTAR LA SIMULACIÓN......................................................................................... 41
4.5.5 RESULTADOS DE LA OPTIMIZACIÓN ........................................................................... 42
4.6 ANÁLISIS DE SENSIBILIDAD Y TORNADO ........................................................................... 43
4.7 PRONÓSTICO ..................................................................................................................... 46
4.7.1 Regresión Lineal ......................................................................................................... 47
4.7.2 Análisis de Series de tiempo....................................................................................... 49
4.7.3 Pronósticos Box-Jenkins ARIMA ................................................................................. 52
4.7.3.1 identificación de un modelo arima ........................................................................ 52
4.7.3.2 Estimación ............................................................................................................... 55
4.7.3.3 Diagnostico .............................................................................................................. 55
4.7.3.4 pronostico ............................................................................................................... 56
4.7.4 ESTIMACIÓN POR RS .................................................................................................. 56
4.8. PROCESOS ESTOCÁSTICOS ............................................................................................... 59
4.9 MODELOS LOGIT- PROBIT – TOBIT .................................................................................... 62
4.10 HERRAMIENTAS ESTADÍSTICAS Y ANALÍTICAS ................................................................ 65
5.
BIBLIOGRAFÍA ...................................................................................................................... 72
2
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
1.
REAL OPTIONS VALUATION
RIESGO
El interés por la administración del riesgo se ha incrementado de manera vertiginosa
esto en parte es causa de la globalización; en vista del gran número de transacciones que se
presentan a diario entre empresas de diferentes lugares del mundo, hay presencia de efectos
aleatorios los cuales pueden modificar los resultados de las transacciones, pero estos efectos
pueden presentarse desde cualquier contexto: cambios en el precio de una acción, la
volatilidad en el tasa de cambio de un país con respecto a otro, el daño de una máquina de
producción, la sequía o el exceso de lluvias, el cambio en la normatividad de un país, son sólo
algunos ejemplos de los efectos aleatorios que se encuentran en la realidad.
Estos efectos aleatorios se pueden clasificar en dos, uno al que llamaremos riesgo y
otro incertidumbre, aunque ambos están relacionados, el primero es la posibilidad de que
ocurra un evento o impacto adverso, que puede ser interno o externo, que genere en cierto
período de tiempo una variación en los resultados esperados de una situación dada, esta
posibilidad es medible. Mientras la incertidumbre se diferencia con el riesgo en que no es
medible debido a que incluye variables que se desconocen.
Es importante que las organizaciones tengan claro qué es el riesgo y además que
tengan conocimiento de los tipos de riesgos que se pueden presentar para así poder
establecer políticas de gestión del riesgo de una forma más acertada. Pero, ¿por qué es
importante la administración del riesgo?. El riesgo es una variable importante en la toma de
decisiones, si no se tienen en cuenta los riesgos a los que se enfrenta un individuo, una
empresa, un sector o un país, los resultados podrían no ser los esperados. Un ejemplo claro es
la decisión de una inversión, si se desea invertir en la Bolsa de Valores de Colombia, en la
acción de la empresa A que tiene un valor por acción de $ 10.000, y el inversionista desea
obtener ganancia, él esperará que para cierto período de tiempo la acción suba y de esta
manera vender y obtener una ganancia. Pero qué ocurre si en vez de subir, la acción baja, el
inversionista se enfrenta a una pérdida. Pero ¿qué puede causar ésta pérdida?, puede ser
desde un efecto por alguna noticia sobre la empresa A, hasta por el anunció de la Reserva
Federal en Estados Unidos de un incremento en la tasa de referencia. El inversionista debe
tener en cuenta todos estos factores de riesgo (variables aleatorias que no se conocen en el
futuro ni su comportamiento exacto) para su decisión. Así mismo se puede presentar el caso
donde la acción A llega a niveles superiores a los que esperaba el inversionista. Para poder
controlar todos esos factores es importante desarrollar una buena administración del riesgo.
La correcta gestión del riesgo incluye procedimientos capaces de generar y ofrecer un
buen entendimiento de los conceptos y factores de riesgo así como las clases de riesgo a los
que está expuesta una entidad, esto permitirá realizar una planificación para anticiparse a los
posibles resultados y consecuencias.
3
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
2.
REAL OPTIONS VALUATION
TIPOS DE RIESGO
A continuación se presentarán las clases de riesgo a las que una entidad puede
enfrentarse:
Riesgo de Crédito: Son las posibles pérdidas que se pueden generar por deterioro de la
situación financiera de terceros o contraparte que tienen obligaciones con la entidad
Riesgo de Mercado: Posibles pérdidas que se pueden dar por variaciones en tasas de interés,
tasas de cambio, precios y demás factores de riesgo.
Riesgo de Liquidez: Posibilidad de pérdidas que se pueden generar por la imposibilidad de
vender activos o de adquirir pasivos ante necesidades de liquidez
Riesgo Operacional: Es la posibilidad de que se incurra en una pérdida causada por una
insuficiencia o falla de procesos, del personal, procedimientos, de maquinaria o cualquier
elemento que influya en las labores de la empresa.
Riesgo Legal: Riesgo de pérdida debido a los cambios en la normatividad de un país que afecta
los acuerdos contractuales, procesos legales o sentencias adversas.
Riesgo ambiental: Posibilidad de pérdida causada por un efecto ambiental o climático.
Cada clase de riesgo contiene un grupo de factores de riesgo, por ejemplo, en el riesgo
de mercado, algunos factores de riesgo son la tasa de interés, la tasa de cambio y el precio,
entre otros.
Como primer paso se deben definir los factores de riesgo de una empresa y
posteriormente se determina un mapa de riesgos, el tercer paso medir el riesgo asignando un
conjunto de números a las posibilidades de ocurrencia de los hechos inciertos, cuarto paso la
medición de la exposición y por último determinar una medida integral del riesgo. Una vez se
tenga una medida de riesgo, el personal encargado de la administración de riesgo tiene
diferentes alternativas para la gestión, ellas son:
 Eludir la exposición eliminando la fuente de riesgo
 Transferir el riesgo pagando por ello
 Cubrir el riesgo
 Mitigar
 Asumir
2.1 RIESGO DE MERCADO
A continuación se realizará una descripción teórica de algunas metodologías para la
medición del riesgo de mercado, estas metodologías están enfocadas principalmente a la
4
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
medición del riesgo para activos financieros, por lo cual su análisis se realiza para entidades
que cotizan en bolsa o que tengan inversiones en activos financieros.
Algunas de las metodologías referenciadas en este trabajo son aplicables a empresas
del sector real que no invierten en la bolsa o no tienen relación con activos financieros, así
como las que si se relacionan.
El análisis del riesgo de mercado se basa en cálculo de la volatilidad a la que está
enfrentado un activo financiero, tales como acciones, bonos, futuros, así como variables
financieras fundamentales como son la tasa de interés y la tasa de cambio de referencia. Estas
metodologías se calculan con base en los retornos simples de un activo
definidos como
1
para
donde
indica el precio del activo en el período , [2] presentan otras formas del
cálculo de los retornos las cuales ofrecen ventajas estadísticas y matemáticas, en éste trabajo
se usará el concepto de retorno simple presentado en la ecuación (20) para facilidad en los
cálculos y su análisis. En el caso de un portafolio, el retorno
puede escribirse como:
para el siguiente período
(1)
donde las ponderaciones
están indexadas por el tiempo, para reconocer la
naturaleza dinámica de las operaciones dentro de los portafolios,
un activo
en el período
indica el retorno para
.
Como el interés es medir el riesgo de mercado de un activo2, tal como lo menciona [2],
una forma de medirlo es por medio de la función de distribución de probabilidad de las
pérdidas y ganancias de los activos.
La primera forma de medir el riesgo es por medio de la desviación estándar
la cual
se calcula de la distribución de probabilidad de las pérdidas y ganancias, la desviación estándar
mide la volatilidad de los retornos de un portafolio, se define como:
donde
es el vector de participaciones
,
es la matriz de varianzas y covarianzas de los activos y
,
1
La ecuación (1) se supone con dividendos iguales a cero.
2
Se usará la palabra Activo para un conjunto de activos financieros donde
mismo significado que Portafolio el cual es un conjunto de activos financieros.
5
teniendo el
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
2.1.1 Valor en Riesgo
El Valor en Riesgo o VaR3 es una medida estadística que cuantifica la exposición al
riesgo de mercado, a través de la estimación de la pérdida máxima que podría registrar un
portafolio en un intervalo de tiempo y con cierto nivel de confianza, es decir, el VaR es la
mínima pérdida esperada en una posición para un horizonte temporal, con un nivel de
confianza (probabilidad) y moneda de referencia específicos. Esta metodología fue difundida
por JP Morgan en 1994, donde se exponía que al considerar la diversificación de portafolios y
analizar las correlaciones entre los rendimientos de los activos se podía disminuir el riesgo a
causa de las volatilidades de los mercados financieros, bajo condiciones normales del mercado,
ya que en momentos de crisis y turbulencias económicas la pérdida esperada se define por
pruebas de estrés.
Usando una definición estadística, el VaR es el nivel de pérdidas que se sitúa entre los
peores resultados esperados y los
mejores resultados esperados en un
período de tiempo de la función de distribución de pérdidas y ganancias del activo.
De acuerdo a la definición anterior, si el VaR diario de una cartera es de 1 millón de
dólares, con una probabilidad del 95%, significa que, en el período que comprende las
próximas 24 horas, existe una probabilidad del 5% de que la pérdida será superior al millón de
dólares o dicho de otra forma, la probabilidad de que las pérdidas sean inferiores a 1 millón de
dólares es del 95%. Existen diferentes métodos de calcular el VaR, el más común es el de
varianzas y covarianzas, también conocido como método paramétrico o analítico, otras
metodologías se basan en la simulación, que son de mayor uso en inversiones en derivados.
Entre estos métodos se destacan la simulación por Montecarlo y la simulación histórica.
2.1.2 Cópulas
Utilizando la teoría en espacios métricos, Abe Sklar (1959) desarrolla un conjunto de
funciones denominadas cópulas, funciones que unen una función de distribución multivariada
a sus marginales unidimensionales. La cópula logra capturar la estructura de dependencia
entre las variables, ya que se encuentra definida por la transformación uniforme de las
distribuciones marginales, independiente de la distribución de probabilidad que tengan cada
una. Bajo esta premisa, no se hace necesario exigir distribuciones de probabilidad normales
para las distribuciones marginales de las variables. Una Cópula es la función que vincula las
distribuciones marginales de las variables con su distribución conjunta.
El objetivo de las cópulas es encontrar la función de distribución conjunta H que mejor
refleje la relación entre X y Y; aquélla que garantice que la distribución condicionada que se
3
Value at Risk
6
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
asocie represente fielmente esa relación de dependencia y pueda ser utilizada en el cálculo del
VaR. Las cópulas permiten definir distribuciones de probabilidad conjuntas entre variables,
adicionales a las distribuciones multivariadas estándar que limitan los tipos de dependencia a
los que se puede representar. En este sentido, es posible concluir que la cópula logra capturar
toda la información que exista sobre dependencia en un conjunto de variables.
2.1.3 Teoría del Valor Extremo
La teoría del valor extremo introducida en los años cincuenta por el matemático
alemán Emil Julius Gumbel, soluciona los problemas que se presentan en la medición del
riesgo cuando la distribución de los retornos o precios de los activos financieros presenta colas
pesadas y por ende cuando existe una mayor probabilidad de ocurrencia de eventos extremos.
Existen dos tipos de metodologías para la identificación de los valores extremos en las
series. El primero es conocido como máximo por bloques, cuyo campo de aplicación radica en
las observaciones más grandes de una muestra amplia de observaciones idénticamente
distribuidas. Por lo tanto, este modelo considera el máximo valor que toma una variable
aleatoria en periodos sucesivos de tiempo. Dichas observaciones son consideradas como los
valores extremos de la serie para cada uno de los periodos seleccionados.
El segundo tipo de metodología es conocido como picos sobre el umbral (POT por sus
siglas en inglés), los cuales se basan en las observaciones de una muestra que exceden un
límite o umbral previamente definido. Estos modelos a su vez se encuentran divididos en
aquellos que son semiparamétricos, como los construidos alrededor del estimador de Hill, y los
totalmente paramétricos, basados en la Distribución Generalizada de Pareto (GPD). En este
caso, la serie original no es dividida en bloques, sino que se define un umbral a lo largo de su
historia, y aquellas observaciones que lo exceden se consideran valores extremos. Una de las
grandes ventajas que ofrece el modelo POT es que gracias al uso más eficiente de la
información, es considerado como el modelo más útil en aplicaciones prácticas
3.
RIESGO DE CRÉDITO
En un mundo altamente competitivo, el paisaje empresarial está cambiando
rápidamente. No hace mucho tiempo, los acreedores ofrecían crédito a título personal, a
menudo eran a vecinos de la ciudad o grupos sociales conocidos. Como la toma de decisiones
se hizo más centralizada, el método tradicional de revisión por un agente de crédito ya no era
factible y tampoco rentable. Para realizar un proceso de decisión más racional y cuantificable,
el acceso a información más predictiva se convirtió en un elemento imperativo y la
información de crédito se volvió extremadamente valiosa, [12].
7
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
Actualmente el tema del riesgo en las organizaciones se ha convertido en uno de los
principales temas a tratar en las agendas de las compañías, especialmente el riesgo crediticio
pues gran parte de la actual crisis se debe a falencias en la administración de este tipo de
riesgo. Como se mencionó anteriormente el riesgo crediticio son las posibles pérdidas que se
pueden generar por deterioro de la situación financiera de terceros que tienen obligaciones
con la entidad, este tipo de riesgo se mide para activos con naturaleza crediticia por ejemplo
préstamos comerciales, hipotecas, créditos de consumo, entre otros.
A continuación se presentarán los elementos de medición del riesgo de crédito:
3.1 Pérdida Esperada
El objetivo de la medición del riesgo crediticio es obtener la distribución asociada a las
pérdidas de incumplimiento esperadas y no esperadas, y el promedio de esta distribución es la
Pérdida Esperada (Expected Loss), es decir, el monto de capital que podría perder una entidad
en un plazo determinado si la contraparte no cumpliera con las obligaciones contraídas. Este
cálculo se debe realizar constantemente ya que permite afrontar futuras pérdidas y tomar
medidas oportunas tales como hacer provisiones. Para su cálculo son necesarios los siguientes
elementos:
3.1.1 Probabilidad de Incumplimiento (PD)
Es la probabilidad de que un cliente caiga en incumplimiento en un período
determinado. Su mínimo valor es cero, lo cual indicaría que es imposible que incumpla con sus
obligaciones, y su máximo valor es uno cuando es seguro que incumpla.
3.1.2 Exposición (EAD)
Estima la cantidad que el cliente adeudará al momento de que caiga en
incumplimiento.
3.1.3 Severidad de la Pérdida (LGD)
Es el porcentaje estimado de lo que la institución perdería en caso de que el cliente
cayera en incumplimiento
Teniendo estos tres componentes, la Pérdida Esperada es simplemente el producto de
ellos:
(1)
8
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
3.2 Métodos de Pérdida Esperada
El elemento más importante en la estimación de la pérdida esperada, es la
probabilidad de incumplimiento. Para ello actualmente el método más utilizado de medición
es el credit scoring que es objetivo pues utiliza herramientas más técnicas, haciendo que las
entidades tengan un menor rol y hayan menos elementos subjetivos sobre la aprobación de un
crédito. Aunque por supuesto el conocimiento y la experiencia de los analistas también juega
un papel esencial, especialmente cuando la información relevante no puede ser capturada por
un modelo Score, [12].
Los modelos de pérdida esperada son más conocidos como modelos de Credit Scoring
están enfocados a identificar y medir el riesgo de crédito derivado del incumplimiento, el cual
se asocia a la pérdida potencial, causada por la incapacidad de la contraparte de cumplir con
sus obligaciones, [4]. El término de Credit Scoring hace referencia al uso de modelos
estadísticos que transforman información relevante en medidas (numerales) que permiten
tener un criterio o una guía para la toma de decisiones financieras particularmente decisiones
en relación a la evaluación del crédito (aprobación o no de un crédito). A través de modelos de
predicción (algoritmos, regresiones), las instituciones pueden predecir el comportamiento de
un cliente basados en la historia crediticia del cliente y las referencias de prestamistas
anteriores. De esta forma, los clientes se clasifican en buenos o malos, asociándoles un bajo o
alto riesgo, respectivamente y se define cuales de esos clientes potenciales serán
efectivamente aceptados por la entidad, [17]. Un scoring se refiere al uso de un numeral para
ordenar o clasificar casos (personas, compañías, países) de acuerdo a percepciones cualitativas
o cuantitativas, con el objetivo de discriminar, dividir o separar los distintos casos. Los Scores
son usualmente presentados como un numeral que representan una característica, mientras
los rangos son presentados usualmente como letras (A, B, C, etc) que representan una o más
cualidades. Los score son creados por procesos probabilísticos (estocásticos) y no por procesos
determinísticos. Usualmente en lugar de ver los modelos scoring como una herramienta de
predicción, son usados para conocer la probabilidad de un evento futuro basándose en las
experiencias del pasado, dependiendo la información que se tenga acerca del crédito los
modelos se pueden clasificar en dos tipos, de iniciación o de comportamiento. Los modelos de
iniciación son construidos utilizando variables socio demográficas del cliente y una vez
obtenida la probabilidad de incumplimiento asociada al cliente se utiliza como un criterio para
otorgar o no una solicitud de crédito, una vez se tenga un historial de pagos del cliente de
variables como moras, número de solicitudes, número de pagos, etc., luego se procede a la
construcción de los modelos de comportamiento los cuales permiten realizar provisiones de
acuerdo a la probabilidad de incumplimiento hallada por medio de los modelos.
Con el transcurso de los años y la evolución de herramientas estadísticas utilizadas en
el scoring se han desarrollado especialmente dos técnicas de modelos de predicción de la
probabilidad de incumplimiento: las paramétricas y las no-paramétricas. La técnica
paramétrica se vale de modelos de probabilidad lineal, análisis de discriminación y regresiones
logísticas. Por otra parte, las técnicas no-paramétricas dejan de lado la implementación de
9
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
supuestos y se valen de nuevos sistemas de aprendizaje como son redes neuronales,
algoritmos genéticos y K-nn (estimación basada en un conjunto de entrenamientos o
prototipos). Pero, precisamente por la implementación de las mencionadas metodologías la
técnica no-paramétrica ha recibido críticas dirigidas a la falta de transparencia y
sobreestimación de las probabilidades, [18].
3.3 Técnicas Paramétricas
Básicamente podemos hablar de tres técnicas importantes de tipo paramétrico
(aquellas que requieren supuestos sobre los datos subyacentes) las cuales son:
3.3.1 Regresion lineal
Esta técnica se dedica a la búsqueda de relaciones de tipo lineal entre las variables,
donde la variable objetivo se denomina variable dependiente y es explicada por un conjunto
de variables independientes o explicativas, cuyo objetivo es explicar la primera en términos de
las demás variables o en estudiar cómo varia la primera con los cambios en cada una de las
variables explicativas. El modelo de regresión es dado por
(2)
donde
es el intercepto,
mide el cambio en
manteniendo los demás factores fijos y
otros factores que además de
influyen en
con respecto a
, para
es el término de error que agrupa a
.
Para los modelos de scoring la variable dependiente es una variable binaria,
dicotómica o dummy, donde la variable toma los valores de uno o cero. Para modelos de
crédito ésta variable se relaciona con aprobación o no del crédito, calificación del cliente
(bueno o malo), entre otros. Supóngase que para cada individuo o unidad experimental se
define la siguiente variable aleatoria:
Y=
Los modelos con variables dummy son los modelos de escogencia discreta, dentro de
éste grupo se encuentra la regresión lineal, pero se le da el nombre de modelo lineal de
probabilidad.
En los modelos lineales de probabilidad se encuentran algunos inconvenientes como
son la violación del supuesto de heteroscedasticidad, pero la principal debilidad del
procedimiento de estimación es que no hay posibilidad de restringir que los valores estimados
estén entre 0 y 1, es decir,
.
10
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
3.3.2 Análisis discriminante
Es una técnica que permite construir un modelo predictivo para pronosticar el grupo al
que pertenece una observación a partir de determinadas características observadas que
delimitan su perfil. El análisis discriminante es una técnica de clasificación y segmentación ad
hoc que permite asignar o clasificar nuevos individuos u observaciones dentro de grupos o
segmentos previamente definidos. Su objetivo es producir una regla o esquema de
clasificación que permita predecir la población a la que es más probable que tenga que
pertenecer una nueva observación o individuo, [16]. El modelo predictivo que pronostica el
grupo de pertenencia de una observación en virtud del perfil define la relación entre una
variable dependiente que es categórica y varias variables independientes. Por tanto, la
expresión funcional del análisis discriminante puede escribirse como
. Las
categorías de la variable dependiente definen los posibles grupos de pertenencia de las
observaciones o los individuos y las variables independientes definen el perfil conocido de
cada observación.
El objetivo principal del análisis discriminante es utilizar los valores conocidos de las
variables independientes medidas sobre un individuo u observación para predecir qué
categoría le corresponde para clasificar el individuo en la categoría adecuada, otra finalidad del
análisis discriminante es poder determinar las diferencias entre los grupos y su interpretación,
esto se realiza por medio de las variables discriminantes, cuando se valoriza las características
que diferencian un grupo de otro se le denomina análisis discriminante descriptivo y el uso del
análisis discriminante para la predicción del grupo de pertenencia se denomina función
discriminante.
Cada caso o individuo deben ser mutuamente excluyente, es decir, debe corresponder
a uno y sólo a un grupo; el modelo discriminante tiene los siguientes supuestos básicos:
normalidad multivariante, homocedasticidad, linealidad y ausencia de multicolinealidad. Una
vez comprobados los supuestos, se obtienen una serie de funciones lineales a partir de las
variables independientes que permitan interpretar diferencias entre grupos y clasificar los
individuos. Las funciones lineales son llamadas funciones discriminantes y son combinaciones
lineales de las variables discriminantes, en un caso donde la variable dependiente tiene G
grupos
denominado análisis discriminante múltiple, el número máximo de funciones
lineales viene dado por
, donde
Cada una de las funciones discriminantes
de las
es el número de variables explicativas.
viene dada por la siguiente función lineal
variables explicativas
(3)
Los
ejes discriminantes vienen definidos respectivamente por los vectores
definidos mediante las siguientes expresiones
11
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
Sea
la matriz within-group de la suma de cuadrados y de productos cruzados y sea
la
matriz between-groups de la suma de cuadrados y de productos cruzados. [8], sustentó la
función discriminante lineal basada en los valores y vectores propios de
. Para obtener
el primer coeficiente discriminante ponderado
, debemos maximizar
son los valores propios en orden decreciente, tenemos para
, donde
(4)
La solución a este problema se obtiene derivando
cero, es decir
respecto de
e igualando a
(5)
(6)
(7)
Es decir que la obtención de un vector propio
está asociado a la matriz no simétrica
, obteniendo hasta
ejes discriminantes los cuales no son ortogonales. Una vez
obtenidas las funciones discriminantes, el siguiente paso es su interpretación la cual se realiza
analizando la contribución de las variables independientes en la función discriminante
correspondiente, para un individuo
, al sustituir los valores de cada variable independiente
en la función discriminante correspondiente se obtendrá la puntuación discriminante, cada
coeficiente
representará el cambio producido en caso de que una variable
cambie.
Para realizar la clasificación de los individuos es necesario basarse en las funciones de
clasificación por grupos, las cuales realizan la clasificación de acuerdo a cuanto mayor sea la
proximidad del individuo al grupo correspondiente, una vez teniendo las puntuaciones
correspondientes se procede a establecer el grupo al que debe ser asignado, tomando el
mayor valor de la puntuación y ese será su grupo. Otro procedimiento para realizar la
clasificación es el de funciones de distancia generalizada, éste procedimiento se basa en el
cálculo de la distancia de un caso a los centroides de cada uno de los grupos, los centroides se
calculan reemplazando en cada función discriminante los valores de las
12
por su valor medio
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
en cada . Para el cálculo de esta distancia se usa la distancia de Mahalanobis, [14], por lo
tanto se asignará un individuo a un grupo de acuerdo a la menor distancia de Mahalanobis
calculada.
Un procedimiento muy utilizado es usando las probabilidaddes de pertenencia al
grupo, donde simplemente un individuo será clasificado donde su probabilidades de
pertenencia sea mayor, éste método supone que todos los grupos poseen un tamaño similar,
pero en caso de que los tamaños sean diferentes, se incorpora el cálculo de probabilidades a
priori usando para ello técnicas bayesianas de estimación, lo cual permite mejorar la
predicción y disminuir el error de clasificación; con la regla de bayes es posible calcular la
probabilidad a posteriori que sería la probabilidad de pertenencia en cada grupo.
3.3.3 Modelo Logit y Probit
A causa de las limitaciones del modelo lineal de probabilidad, se debe buscar otra
herramienta que permita transformar
en una probabilidad, se
debe buscar una función tal que:
(8)
De tal modo que, la probabilidad de que
es una función
de las variables
exógenas, así que para que
tome valores entre cero y uno,
debe ser una
función de probabilidad. Para esto en la medición del credit scoring se han usado dos
funciones de distribución de probabilidad, la primera la distribución normal estándar la cual se
denomina modelo PROBIT y la segunda es una función logística llamada LOGIT, ambos que
hacen parte de los modelos de selección discreta.
La distribución normal no es la que mejor describe el comportamiento de la variable
respuesta, la distribución Bernoulli es la que describe el comportamiento de la variable
aleatoria
, donde es posible que el evento tome dos valores (0,1)
Para
, cuando
para
tiene distribución Bernoulli con
parámetro , la función de densidad de probabilidad tiene la forma:
(9)
13
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
Para
y
REAL OPTIONS VALUATION
. Esta distribución se encuentra dentro de la familia exponencial con
parámetro natural
.En la distribución Bernoulli, el valor esperado de
es
igual a la probabilidad de observar el evento de interés, la media se restringe al intervalo
y la varianza es una función particular de la media. Un modelo que cumple con estas
condiciones es
(10)
donde
es el vector de
, donde
y
variables explicativas para el individuo
. La anterior expresión es conocida como función de
regresión logística. Si
este modelo se satisface que
,
cuando
y
cuando
, para
(11)
El lado izquierdo de la expresión en (??) es llamado la función logit y es equivalente al
logaritmo del cociente de la probabilidad de observar el evento sobre la probabilidad de no
observarlo, es decir
, donde
(12)
(13)
El cociente es llamado razón de disparidad (odds ratio) o como los momios a favor de
la opción
.
Para la ecuación (8) se tiene otra función de distribución asociada para
la función logística
a parte de
y es la función de distribución normal estándar, esto es
con media cero y varianza uno, así tenemos que:
14
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
(14)
Así el modelo puede ser expresado de la siguiente manera
(15)
Que se puede expresar como
(16)
Dado que la distribución normal es simétrica es posible expresar (16) como
(17)
De tal forma se puede resumir la probabilidad de que la variable
cero y uno de la siguiente forma
tome valores de
(18)
(19)
La diferencia entre las distribuciones normal y logística es que ésta última da más peso
a las colas en la distribución, la estimación de estos modelos no es posible realizarla por el
método de mínimos cuadrados ordinarios debido al incumplimiento de las propiedades de los
estimadores ya que no son insesgados, por lo tanto la estimación es realizada por el método
de Máxima Verosimilitud. Este método selecciona como estimador aquel valor del parámetro
que tiene la propiedad de maximizar el valor de la probabilidad de la muestra observada, para
lo cual es necesario construir una función de verosimilitud que expresa la probabilidad de
obtener valores observados en función de los parámetros desconocidos. Se han realizado
varios estudios para determinar cuál es el mejor método, el Probit o el Logit, aún no se ha
llegado a una conclusión pero para modelos de scoring el modelo logístico ha tomado ventaja
por su mejor poder predictivo, [5] hace una extensa explicación sobre esta conclusión.
15
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
3.4 Técnicas no Paramétricas
Ahora se tratará lo referente a las técnicas no paramétricas. Mientras que las técnicas
paramétricas requieren muchos supuestos sobre los datos subyacentes, las técnicas no
paramétricas requieren pocos o ninguno. Dentro de este grupo se encuentran técnicas como
los árboles de decisión, redes neuronales, entre otros.
3.4.1 Árboles de decisión
Los árboles de decisión son una herramienta gráfica, con una rama o raíz como la
estructura de las cajas y líneas, que se utiliza para mostrar las posibles vueltas de eventos que
pueden-o no-ser controlables, incluso el nombre implica que cada rama supone que
representa opciones a disposición de una toma de decisiones. Los árboles de decisión también
se utilizan para la visualización de datos en la clasificación y predicción de problemas.
En general, los árboles de decisión no están bien adaptados para elaboración de
modelos de predicción, pero hay casos en que se puede considerar. Un ejemplo de ello son los
datos disponibles para un sistema de puntuación para el desarrollo de un nuevo producto.
Esto podría ser abordado mediante la definición de una primera estructura de árbol usando los
datos disponibles, y, posteriormente, la utilización de arranque (muestreo con reemplazo) para
calcular las diferentes probabilidades de nodo terminal que luego se promedia.
3.4.2 Redes neuronales
La humanidad en los últimos siglos ha tratado de sustituir los esfuerzos del hombre
con las máquinas. Recientemente, este esfuerzo se ha extendido más allá del trabajo en el
dominio del pensamiento y la toma de decisiones. Si bien el objetivo es hacer la vida más fácil,
muchas personas temen que las computadoras, con el tiempo, obtengan la capacidad de
pensar y funcionar de manera similar a los seres humanos. De hecho, el uso de cualquier
modelo predictivo como parte de un proceso de decisión podría ser interpretada como la
influenza aviar. Estas son las redes neuronales, que pueden describirse como elementos de
cálculo de redes que pueden responder a los insumos, y aprender a adaptarse al medio
ambiente. Éstas son, supuestamente capaces de imitar la manera en que funciona el cerebro
humano, especialmente cuando se trata de auto-organización y aprendizaje. El resultado final
es algo así como un árbol de decisión, excepto que el detalle es mucho más fino.
3.5 Pruebas de Evaluación
16
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
3.5.1 Kolmogorov- Smirnov
La prueba de Kolmogorov-Smirnov (KS) ([10]; [19]) es una prueba que se fundamenta
en la curva de Lorenz en las teorías de crecimiento. En el caso de credit scoring, este
estadístico se utiliza para evaluar el poder predictivo del sistema. La metodología que se lleva a
cabo es la de tomar dos distribuciones, se fija un valor crítico y si el valor de KS es menor que
ese valor crítico entonces habrá evidencia para decir que esas dos distribuciones son iguales y
que el modelo tiene un buen nivel predictivo.
La hipótesis nula de la prueba K-S es que las dos muestras provienen de poblaciones
con la misma función de distribución
Y se evalúa por medio de la siguiente estadística
y la hipótesis nula es rechazada al nivel
si
Finalmente, el estadístico KS mide la diferencia entre dos distribuciones. Para el caso
aplicado al scoring se evalúa si éste puede hacer distinción entre los préstamos buenos y
malos. Por lo tanto hace una distinción en la distribución de scoring entre los buenos y los
malos. Generalmente, el rango que toma el KS se encuentra entre 20 y 70. Se debe considerar
que para la creación del este indicador se necesita de las frecuencias acumuladas tanto de los
buenos como de los malos.
3.5.2 Curva ROC
Basados en la curva de Lorenz y el indicador de Gini, se han usado estos conceptos
como herramientas para el scoring y determinar el poder de predicción de una scoring.
La Curva de Características Operativas (ROC)4 permite cuantificar la precisión
discriminatoria de un modelo, este análisis se realiza por medio de una gráfica denominada
curva ROC, el cual es un análisis de sensibilidad, sensitivity, que es la habilidad para marcar
valores positivos que están correctamente clasificados y especificidad, specificity, que es la
habilidad de marcar valores negativos que están correctamente clasificados, por lo tanto la
sensibilidad es la verdadera tasa de valores positivos y la especificidad la tasa de valores
4
Receiver Operating Characteristic
17
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
negativos. Cuando esta curva tiende hacia la izquierda, entonces se dice que el modelo tiene
un buen poder de predicción.
Para todos los posibles puntos de corte o criterios de clasificación que se seleccionen
para discriminar dos poblaciones, en este caso buenos y malos clientes, siempre habrá casos
en los que se clasificarán correctamente a los buenos clientes como buenos (A: fracción
positiva verdadera) y algunos casos en donde los buenos clientes serán clasificados como
malos (B: fracción de falsos negativos). Por otro lado, algunos clientes malos serán clasificados
como buenos (C: fracción de falsos positivos) y algunos clientes malos serán correctamente
clasificados como malos (D: fracción negativa falsa). Lo anterior lo podemos describir por
medio de la siguiente tabla:
Buenos
Malos
Total
Buenos
A
C
A+C
Malos
B
D
B+D
Total
A+B
C+D
Modelo/Observado
Tabla 1: Clasificación de clientes del modelo vs. Observado
De acuerdo a lo anterior, se define lo siguiente:
• Sensibilidad =
• Especificidad =
El rendimiento global de una prueba de diagnóstico se suele resumir el área bajo la
curva ROC. Esta área se puede interpretar como la probabilidad de que el resultado de una
prueba de diagnóstico de un sujeto anormal, seleccionado al azar será mayor que el resultado
de la prueba de diagnóstico mismo de un sujeto normal seleccionado al azar. Cuanto mayor es
el área bajo la curva ROC, mejor será el rendimiento global de la prueba de diagnóstico.
3.5.3 Chi-Square
Es utilizada para medir o evaluar una hipótesis, comparando los datos reales con los
estimados, en esta prueba se establece un límite de confianza, y se busca la relación lineal
entre las variables, y por medio del p - valor establece una medida de confianza.
Sin embargo el uso de esta prueba no garantiza plenamente la independencia o la
dependencia de las variables, ya que está sujeto al nivel de confianza y al p - valor que
18
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
utilicemos para aceptar o rechazar la hipótesis nula, pero entre mayor sea el nivel de
significancia utilizado menor será la probabilidad de rechazar erróneamente la hipótesis nula.
Esta prueba es utilizada dentro del riesgo financiero, para estimar en cierta medida la
tendencia de las variables con relación al tiempo, y estimar el riesgo con relación a las
personas consideradas buenas o malas.
Dentro del crédito es necesario tener en cuenta que el uso de esta prueba esta
estimando unos datos, que en la realidad estos pueden verse afectados por otras variables. Los
clientes son aceptados o rechazados dentro de los créditos dependiendo del grado de riesgo
que se determine. Sin embargo el comportamiento de los créditos es dinámico y puede verse
afectado por la infraestructura, la competitividad, los cambios en la economía, etc. Variables
que no son independientes y por el contrario pueden estar muy correlacionadas entre sí.
3.5.4 Hosmer - Lemeshow
El test propuesto por [9], comprueba que las variables que se están teniendo en
cuenta en el modelo son las apropiadas dado que ayudan a identificar clientes buenos y malos.
Este test es aplicado a los modelos de regresión logística. Por lo tanto, si las variables
determinan el tipo de clientes, se deduce también que los modelos de regresión logística van a
tener un buen nivel de predicción.
Para calcular este test se debe tomar un muestra de los préstamos; de esta muestra se
deben generar grupos y a partir de estos separar los clientes buenos y malos y hacer la
diferencia entre los actuales malos y los que se esperan.
Con cada grupo se hace la anterior operación y se realiza la sumatoria de los mismos,
este gran total se divide entre los malos esperados multiplicados por la tasa de buenos.
Un analista de riesgo debe tener presente todos estos indicadores que en conjunto
van a evaluar el estado del modelo creado, no se debe desconocer que tanto la prueba KS
como la curva de ROC son los más utilizados, sin embargo, es ideal contrastar con otro tipo de
estadísticos que aumenten la certeza que se tiene sobre el modelo o que generen inquietudes
sobre tales modelos.
En definitiva el credit scoring es una herramienta indispensable y eficaz para la
medición de riesgo, que debe complementarse con las funciones apropiadas y la moderación
de los resultados, de tal forma que sea confiable en el momento de tomar una decisión o
realizar una predicción. Adicionalmente, el calcular un nivel de riesgo permite a los
prestamistas estimar un nivel de pérdidas (por probabilidad de impago de los clientes) o
probabilidades de ganancia, según sea el caso. Por lo tanto, el uso de credit scoring es común
en escenarios de oferta fija, aunque su uso en otros campos está creciendo actualmente, bajo
la tendencia de expectativas de pérdida, en donde es tradicional el uso del valor en riesgo
(VaR). Este modelo VaR es usado para la determinación de los requerimientos mínimos de
capital que deben hacer los bancos, adoptado en el comité de Basilea II, [17]. A la hora de
19
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
escoger una técnica para modelar el riesgo de crédito se debe tener en cuenta la información
con la que se cuenta, así como las herramientas tecnológicas disponibles y la experticia de
quien vaya a modelar. Sin embargo la tendencia general es que no se llegue a un acuerdo
sobre cuál modelo es superior o mejor ya que simplemente pueden ser construidos bajo
técnicas o metodologías diferentes como por ejemplo aquellos que usan redes neuronales, ó
los tradicionales de análisis estadístico, [11].
2.3 RIESGO OPERACIONAL
En los últimos años hemos asistido a un crecimiento progresivo de la preocupación de las
entidades financieras por el riesgo operacional, un riesgo que, aunque siempre ha existido en
la banca, quizás ahora se manifiesta con mayor intensidad, debido a factores como las mejoras
experimentadas en las tecnologías y la creciente complejidad y globalización del sistema
financiero.
Como respuesta a este fenómeno, las entidades han ido incrementando paulatinamente los
recursos asignados a este riesgo, pasando de la simple mejora de los sistemas de control al
desarrollo de modelos de medición y gestión del riesgo operacional que intentan obtener una
estimación razonable del impacto de futuras pérdidas.
El Comité de Basilea ha venido a recoger la preocupación y la importancia que los supervisores
otorgan a este riesgo, al haber introducido en el Nuevo Acuerdo de Capital de Basilea, unas
exigencias de capital explícitas por riesgo operacional.
Definición
•
Basilea II define el riesgo operacional como el riesgo de pérdida resultante de una falta
de adecuación o de un fallo de los procesos, el personal o los sistemas internos, o bien
como consecuencia de acontecimientos externos. Esta definición incluye el riesgo
legal, pero excluye el riesgo estratégico y el riesgo reputacional.
•
Se asocian a errores que comete la entidad mandante, que se generan por:
•
Instrucciones equívocas dadas a la parte que ejecuta las órdenes
•
Por infidelidades de los funcionarios con la entidad.
•
Fallas en los sistemas, procedimientos, en los modelos, falla en capacitación,
etc.
20
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
2.3.1 Modelo del Indicador Básico (BIA)
El cálculo se realiza multiplicando un factor de 15% por promedio de los tres últimos años de
los ingresos netos anuales positivos de la institución.
2.3.2 Método Estándar (STDAOp) y Estándar Alternativo (ASA)
STDAOp: Se clasifican los activos en ocho líneas de negocio y se les asigna un factor β que
puede ser del 12%, 15% ó 18%. Cada factor se multiplica al promedio de los tres últimos años
de los ingresos netos positivos; en caso de que el ingreso neto total sea negativo en algún año,
entonces se sustituye el valor de ese año por cero.
ASA: Se calcula igual que el STDAOp a excepción de dos líneas de negocio, la banca comercial y
la minorista. En el caso de estas líneas de negocio, los préstamos y los anticipos son
multiplicados por un factor fijo m = 0.035, y el resultado sustituye a los ingresos brutos como
indicador de riesgo.
2.3.3 Método de Medición Avanzada (AMA)
•
División de la entidad en líneas de negocio y topologías de riesgo
•
Capital basado en el cálculo de las pérdidas esperadas e inesperadas (VaR del 99,9% en
un horizonte temporal de un año.
•
Requiere de 2 funciones distribución: Frecuencia y Severidad.
•
De la combinación de ambas funciones deriva la distribución de perdidas por riesgo
operacional VaR.
21
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
2.3.3.1 Medición de la Frecuencia


La frecuencia del riesgo operacional se refiere a la periodicidad en que se presente
determinado fallo operacional.
Las funciones de distribución más aplicadas a estos fenómenos: Binomial, Poisson,
Binomial Negativa, Hipergeométrica  Dsicretas
2.3.3.2 Medición de la Severidad
 La severidad hace referencia a la pérdida monetaria incurrida por la ocurrencia de un
fallo operacional.
 Se trata entonces de variables de naturaleza continua.
22
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
4.
REAL OPTIONS VALUATION
RISK SIMULATOR
Risk Simulator es un software de simulación Monte Carlo, pronóstico y optimización. El
software está escrito en Microsoft .Net y C# y funciona junto con Excel como complemento.
Risk Simulator contiene los siguientes módulos:
-
Simulación de Monte Carlo
Pronóstico
Optimización
Modelación y herramientas de análisis
Los requisitos mínimos para Risk Simulator son:





Procesador Pentium IV
Windows XP o Vista
MS Excel XP, 2003 ó 2007
80 MB en Disco Duro
1GB de RAM
23
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
4.1 INTRODUCCIÓN A RISK SIMULATOR
Risk Simulator funciona como un complemento a MS Excel facilitando su manipulación por
medio de un menú de funciones que están disponibles en diferentes idiomas, inglés, español,
francés, italiano, alemán, etc., además permite acceder a cada herramienta por medio de
diferentes alternativas como son íconos, menús y el clic derecho del mouse.
Gráfica 1. Menú Simulador de Riesgo
En la gráfica 1 se observan cada uno de los íconos que contienen las funciones de Risk
Simulator, a continuación se mencionará la funcionalidad de cada una de los íconos.
ICONO
FUNCIONALIDAD
Es el ícono principal de Risk Simulator ya que permite acceder a todas las
funcionalidad del software por medio de un menú de opciones, son las
mismas funcionalidades de los demás íconos pero en un solo listado.
Crea un nuevo perfil de simulación para almacenar todos los supuestos
de entrada y pronósticos de salida. Puede tener múltiples perfiles en un
solo modelo
Permite seleccionar, eliminar o duplicar entre varios perfiles activos uno
para realizar la simulación.
Edita las preferencias del perfil activo, como son número de iteraciones,
valor semilla de simulación, activación de correlaciones y el nombre del
perfil.
Establece en la celda activa un supuesto de entrada de distribución. La
celda debe contener un valor y no una función.
Establece en la celda activa como pronóstico de salida. La celda debe
contener una función o ecuación.
Copia un supuesto de simulación, la variable de pronóstico o de decisión
con sus parámetros o vínculos a celdas correspondientes.
24
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
Pega las celdas copiadas con el ícono Copiar, supuestos de simulación,
variables de pronóstico o decisión. Si después de dar Copiar se da ESC se
copian los parámetros pero no los valores de la celda copiada.
Quita el supuesto de simulación, variable de pronóstico o decisión.
Corre la simulación a una velocidad regular (útil en modelos pequeños o
cuando la súper velocidad no puede ser aplicada debido a errores en el
modelo.
La simulación se ejecuta a súper velocidad primero examinando el
modelo y luego convirtiéndolo a código puro. No todos los modelos
pueden correr a súper velocidad, por ejemplo cuando se tienen datos
externos o funciones VBA.
Corre la simulación paso a paso. Esto es muy útil para pronóstico de
ilustración o para revisar si una celda de supuesto o pronóstico esta
cambiando correctamente.
Restablece la simulación a su estado inicial.
El ícono Pronóstico emerge el listado de las opciones de pronóstico
disponibles en el programa
Ejecuta optimizaciones estáticas, estocásticas y dinámicas, crea un
reporte si elige la optimización estocástica, lo anterior si se ha definido
correctamente los supuestos, las variables de decisión y objetivo.
Objetivo: Establece la celda la cual se maximizará o minimizará la
optimización
Decisión: Establece la celda la cual está relacionada con la celda objetivo
Restricción: Son las restricciones generadas por las variables de decisión o
de objetivo.
El ícono emerge el listado de todas las herramientas analíticas disponibles
en el simulador de riesgo, por ejemplo análisis estadístico, econométrico,
distribución, etc.
Cambia las opciones del programa como idioma, colores en los supuestos,
pronósticos o decisión y permite que Risk Simulator inicie o no
automáticamente con Excel.
Permite obtener ayuda en línea sobre el programa, manual de usuario,
modelos de ejemplo, información de contacto y otras fuentes de
información
Permite la administración de la licencia del software (instalación y
actualización)
25
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
Despliega diferentes íconos de Risk Simulator para las opciones de
Simulación, Pronóstico, Optimización y Herramientas de Análisis.
4.2 SIMULACIÓN CON RISK SIMULATOR
Simulación es un modelo matemático o lógico, representativo de un sistema o un problema de
decisión, con el que se obtienen resultados acerca del desempeño de las variables de interés
para asistir al proceso de toma de decisiones.
Dado un conjunto de valores para las variables de decisión, un estudio de simulación permite
estimar cual es la distribución probabilística que siguen los resultados, junto a sus
probabilidades de ocurrencia.
El MÉTODO DE MONTE CARLO (propuesto por J. Von Neumann y S. Ulam) es una técnica de
selección de números aleatorios a través de una o más distribuciones de probabilidad, para
utilizarlas en una simulación.
En un Monte Carlo, el muestreo artificial o simulado trata de crear un universo teórico descrito
completamente por una LEY DE PROBABILIDAD que se supone conocida o adecuada.
Posteriormente, de este universo se obtiene una MUESTRA aleatoria mediante una sucesión
de números aleatorios.
La simulación de Montecarlo consta de:
•
Un procedimiento de generación de números aleatorios
•
Un procedimiento de extracción de valores de las variables aleatorias
•
Un procedimiento de cálculo de las variables a pronosticar (el modelo)
•
Un procedimiento de acumulación de los resultados
•
Un procedimiento de repetición del experimento
26
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
X
X
Las variables aleatorias
independientes
X
X
Las Constantes
El Modelo
K
X
Las Variables
Pronosticadas
Las variables de decisión
D
Gráfica 2. Proceso de Simulación
En la gráfica 2 se observa la relación que debe existir entre las variables y el modelo para
realizar la simulación, de igual forma este procedimiento se debe realizar para hacer
optimizaciones y para hacer optimización estocástica.
Los pasos para realizar la simulación de Monte Carlo debe seguir los siguientes pasos por Risk
Simulator:
1.
2.
3.
4.
5.
Definir un perfil
Definir variables supuestos
Definir variable pronóstico
Ejecutar la simulación
Obtener reportes y/o datos
4.2.1 DEFINIENDO PERFIL
Por medio del ícono Nuevo Perfil se definen las características para la nueva simulación, en el
gráfico 3 se observa la ventana emergente del Nuevo Perfil, en esta ventana se define el
nombre de la simulación, el número de iteraciones, si se activan las correlaciones, especificar
la semilla del número aleatorio y si en el caso de encontrar errores en la simulación pausar o
continuar la simulación.
27
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
Gráfica 3. Nuevo Perfil de Simulación
En el caso en que ya se tengan varios perfiles de simulación, entonces se debe proceder a
seleccionar un perfil de los disponibles en el libro activo.
4.2.2 DEFINIENDO VARIABLES SUPUESTOS
Una vez activado o seleccionado el perfil de simulación, colocando el cursor sobre una celda
que contenga un valor que vaya a ser seleccionada como variable de supuesto se da clic en el
ícono de Supuesto de Entrada o clic derecho y la misma opción y se selecciona una distribución
dependiendo si la variable es discreta o continua.
•
Tanto continuas como discretas
•
También se puede ajustar una función a los datos del comportamiento de la variable
aleatorias
•
Es posible definir una función a la medida de los datos
28
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
Gráfica 4. Definir Supuestos
Como se observa en la gráfica 4, hay un listado de posibles distribuciones que se ajustan de
acuerdo al tipo de información disponible, al modelo o a la experiencia del analista. Cada
distribución necesita unos parámetros que deben ser ingresados por el usuario o son el
resultado de un ajuste de distribución anterior.
4.2.3 DEFINIENDO VARIABLES PRONÓSTICO
Antes de la definición de una variable como pronóstico se debe hacer con anterioridad una
definición del modelo tal como se explica en la gráfica 2, la variable pronóstico debe contener
una función y/o fórmula que vincule las variables de supuesto y el modelo.
Gráfica 5. Variable Pronóstico
En la gráfica 5 se observa la ventana emergente como resultado de activar el ícono de
Pronóstico de Salida, en esta ventana es posible definir el nombre de la celda de pronóstico, el
nivel de precisión que por default es del 95%, el nivel de error y si se desea que haya una
dinámica entre la simulación y la ventana de pronóstico.
4.2.4 EJECUTANDO LA SIMULACIÓN
Finalizado el proceso de definición de variables supuesto y pronóstico se procede a ejecutar la
simulación, se tienen las alternativas de Paso a Paso, Correr y Súper Velocidad.
Gráfica 6. Ejecución de la Simulación
29
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
4.2.5 RESULTADOS DE LA SIMULACIÓN
Al momento de finalizar la simulación se obtienen los resultados correspondientes de acuerdo
a los criterios seleccionados en el perfil de simulación, las variables supuesto y de pronóstico,
se genera una gráfica de cada una de las variables pronóstico en el caso de haber sido activada
la opción correspondiente.
Gráfica 7. Gráfica de Pronóstico
SI se desea obtener un reporte del modelo se va a Herramientas Analíticas  Crear un reporte
(gráfica 8) el cual muestra cuales fueron los supuestos y las variables de pronóstico.
Gráfica 8. Reporte del modelo
Si se desea obtener solamente los resultados del pronóstico Herramientas Analíticas  Crear
la Tabla Estadística del Pronóstico, de lo cual emerge la ventana de la gráfica 9.
30
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
Gráfica 9. Tabla Estadística de Pronóstico
La tabla estadística de pronóstico (gráfica 9), permite obtener los resultados de los estadísticos
descriptivos básicos de la variable de pronóstico, así como los percentiles que el usuario desee.
Recordando en la gráfica 10 el procedimiento de la simulación de Monte Carlo
Gráfica 10. Etapas de una Simulación
La simulación de Montecarlo tiene varias ventajas entre las cuales tenemos:
31
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
•
Además de la función estimada, otro resultado de la simulación es una medida del
error entre la función calculada a partir de la muestra y la de la población.
•
En efecto, la desviación estándar de la muestra permite tener una medida de la calidad
del estimativo, pero también de la mejora en este estimativo a medida que se
incrementa el número de experimentos.
•
Así, la potencia del método de simulación de Monte Carlo descansa en su capacidad de
entregar estimaciones muy cercanas a la de la población
•
Muestra la frecuencia de los valores estimados
•
Análisis de Certidumbre
•
Estadísticas y Percentiles
PARA TENER EN CUENTA
•
Los supuestos son la clave para los procesos de simulación
•
Siempre ponga nombre a cada supuesto
•
Utilice datos si se tienen disponibles
•
Siempre considere las correlaciones posibles
4.2 EJEMPLO DE COSTOS TOTALES
La empresa ABC desea hacer una mejor estimación de sus costos de producción dado que se
encuentran enfrentados a muchos eventos aleatorios principalmente por la variación de los
precios internacionales de las mercancías que usan como materias primas, para eso se usará
Risk Simulator como herramienta para poder mejorar en la toma de decisiones.
El primer paso es crear un perfil de simulación tal como se explicó en la sección anterior, se
usarán 10.000 simulaciones y una semilla de simulación de 123456. A continuación se
establece en MS Excel © el modelo correspondiente de tipo deterministico.
32
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
En este caso la relación es Costos totales = Costos fijos + Costos Variables, pero los Costos
Variables es igual al Costo Unitario * Unidades producidas.
El área de producción le comenta a usted la situación de la empresa, en la cual se ha tenido
como histórico que el Costo Unitario (CU) han tenido un comportamiento de $ 1 por unidad,
llegando a un máximo de $6, pero que en promedio es $3 el valor más común, luego le
comentan que las Unidades Producidas (UP) es de mínimo 500 y máximo 1000.
De acuerdo a lo anterior las celdas de CU y UP se asignaran como Supuestos de Entrada, la
primera como una distribución triangular y la segunda como uniforme discreta.
Posteriormente el objetivo de la simulación es la celda del Costo Total por lo tanto se
selecciona como Pronóstico de Salida
33
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
Se recuerda que para que una celda se pueda definir como de Pronóstico debe tener una
función y/o formula que se vincule con las celdas a simular. El modelo quedará visualizado de
la siguiente forma:
A continuación se realiza la simulación completa dando clic en el botón de Súper Velocidad.
34
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
Por lo tanto ya se puede conocer con un nivel de certeza a cuánto ascenderán los costos
totales ante diferentes escenarios.
4.3 VaR por Método de Simulación de Montecarlo
Para el cálculo del VaR por simulación de Montecarlo usaremos la ecuación de movimiento
Browniano discreta dada por:
Donde S es el precio de mercado, μ el rendimiento del activo, t el horizonte de estudio, σ la
volatilidad del activo y ε una variable aleatorio normal estándar.
AL valor del 95% de la cola derecha se le resta el precio final y este es el VaR para una acción.
4.4 Ejemplo de Evaluación de Proyectos
Una empresa de confecciones considera un proyecto de inversión para una nueva planta de
confecciones en un distrito de Lima, cuyas ventas se estiman en 30,000 unidades anuales
durante los siguientes 5 años, con un precio de venta por unidad de S/.75 y un costo variable
unitario de S/.25. Se estima un costo fijo de S/. 630,000. La inversión inicial fue de S/.
35
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
2´800,000. La tasa de descuento que se utiliza es de 15% anual, con un horizonte de 10 años y
un valor residual de S/. 350,000.
Se pide calcular los indicadores de rentabilidad del Proyecto de Inversión, así como también
realizar el análisis de riesgos correspondiente.
Se debe considerar los siguientes datos para algunas variables:
Escenarios
Datos
Bajo
Medio
Alto
Volumen de ventas en unidades
27,000
30,000
39,000
Precios unitario
65
75
90
Costo unitario
20
25
35
El primer paso es crear un perfil de simulación, se usarán 10.000 simulaciones. A continuación
se establece en MS Excel © el modelo correspondiente de tipo determinístico.
36
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
En este caso lo que se busca es construir el flujo de caja futuro del proyecto para un horizonte
de 10 años, del cual el objetivo fundamental es obtener el valor del VAN.
De acuerdo a lo anterior las celdas correspondientes a “Volumen de ventas”, “Precio Unitario”
y “Costo Unitario” se asignarán como Supuestos de Entrada, todas como una distribución
triangular.
37
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
El objetivo de la simulación es la celda del VAN (tal y como se mencionó líneas arriba) por lo
tanto se selecciona como Pronóstico de Salida.
A continuación se realiza la simulación completa dando clic en el botón de Súper Velocidad.
Usando la gráfica de pronóstico como intervalos de confianza, tenemos:
38
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
Dentro de la Evaluación Económica de Proyectos de Inversión, un tema importante siempre ha
sido el garantizar que el VAN sea mayor o igual a cero, dado que esto garantizaría que el
proyecto es factible de ejecutarse.
En este caso, calculamos la probabilidad de que el VAN sea mayor a Cero, y obtenemos una
Certeza del 98% de que esto suceda.
4.5 OPTIMIZACIÓN CON RISK SIMULATOR
Cuando se tienen restricciones presupuestales, de capacidad en planta, dinero, etc., el método
de optimización genera la mejor solución, mayor rentabilidad ó minimizar el riesgo de una
inversión, satisfaciendo ciertas condiciones pre establecidas o especificadas. Por ejemplo:
•
Cuáles acciones colocar en un portafolio, y qué participación darle a cada una.
•
Optimización de Inventarios.
•
Precios óptimos y tasas de regalías
•
Utilización de empleados para planeamiento de la fuerza de trabajo
•
Configuración de máquinas para programación de producción.
•
Optimización del equipo de trabajo para una línea de producción.
•
Localización de bodegas para distribución.
•
Flexibilidad en el diseño de manufacturas.
•
Políticas de tratamiento en administración de residuos.
Los procedimientos de optimización son posibles con variables Continuas, discretas y discretas
y continuas mezcladas. Los métodos de optimización disponible en Risk Simulator son:
•
Lineal
•
No lineal
•
Estática: Estimados rápidos de un solo punto
•
Dinámica: Simulación con Optimización
•
Estocástica: Múltiples iteraciones con distribuciones de variables de decisión
Para realizar un proceso de Optimización con Risk Simulator se debe seguir el siguiente
procedimiento:
1. Definir un perfil
39
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
2.
3.
4.
5.
6.
REAL OPTIONS VALUATION
Definir variables de decisión
Definir variable objetivo
Definir las restricciones
Ejecutar la optimización
Obtener reportes y/o datos
El procedimiento de definición de perfiles es similar al de la simulación de Montecarlo.
4.5.1 DEFINIENDO VARIABLES DECISIÓN
Las variables de decisión son aquellas que necesitan ser ajustadas y probadas de acuerdo a
unas restricciones que pueden ser un rango de valores discretos o continuos o tomar valores
binarios, la combinación de estas variables permite llegar a una optimización de la variable
objetivo.
Para definir las variables de decisión en la sección de Optimización se da clic sobre el ícono
Decisión de lo cual emerge la ventana que se observa en el gráfico 11.
Gráfico 11. Variable de Decisión
En la celda activa se establecerán los rangos que la variable puede tomar, entre ellos valores
continuos o discretos y además está la opción de que la celda tome valores binarios 0 ó 1.
Finalmente la celda queda por default resaltada con un color Azul que indica que es una
variable de decisión.
4.5.2 DEFINIENDO VARIABLES OBJETIVO
Las variable objetivo son aquellas que se maximizaran o minimizaran de acuerdo al modelo
planteado, estas variables deben contener una formula o función que esté relacionada directa
o indirectamente con las variables de decisión.
40
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
Al dar clic sobre Objetivo de la sección de Optimización, se debe estar previamente ubicado en
la celda que será el objetivo. La ventana emergente (gráfica 12) necesita solamente que se
indique el tipo de optimización.
Gráfico 12. Variable Objetivo
4.5.3 DEFINIENDO RESTRICCIONES
La definición de las restricciones puede ser antes o después de la definición de la variable
objetivo, las restricciones pueden ser de igualdad “=”, mayor o igual que “>=” o menor o igual
que “<=”.
Gráfica 13. Definición Restricciones
4.5.4 EJECUTAR LA SIMULACIÓN
Al finalizar el proceso de definición de variables y restricciones se procede a seleccionar el
método de optimización, el cual puede ser estático, dinámico o estocástico, en la gráfica 14 se
puede observar las opciones correspondientes.
41
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
Gráfica 14. Configuración Optimización
En la ventana Resumen de Optimización del gráfico 14, es posible editar opciones con respecto
a la optimización, tales como seleccionar de un conjunto de variables de decisión una o varias,
de igual forma para las restricciones y se puede modificar la celda objetivo. Al finalizar la
configuración se da clic en OK.
4.5.5 RESULTADOS DE LA OPTIMIZACIÓN
Al finalizar el proceso de optimización se genera una ventana de resultado de la optimización,
donde se presenta la gráfica de evolución de la optimización, así como el proceso de iteración
correspondiente, en la gráfica 15 se puede observar un ejemplo de una optimización, una vez
se tiene el resultado de la optimización se procede a reemplazar los valores iniciales por los
valores optimizados.
42
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
Gráfica 15. Resultado de Optimización
Finalizado el procedimiento es posible obtener reportes de la misma forma que se realizaba
con la simulación de Montecarlo.
Una herramienta muy poderosa que tiene Risk Simulator es la posibilidad de ejecutar
optimizaciones estocásticas, ésta metodología es la inclusión de simulaciones de Montecarlo y
Optimizaciones, la forma de modelación es la vinculación de los temas tratados anteriormente.
4.6 ANÁLISIS DE SENSIBILIDAD Y TORNADO
A partir del Risk Simulator se pueden realizar análisis de sensibilidad y de tornado los cuales
permiten identificar los factores, variables, supuestos, etc., que pueden influenciar de forma
positiva o negativa en la(s) variable(s) objetivo.
Para la ejecución de estas herramientas se hace de la siguiente manera, primero se ejecuta el
procedimiento de optimización ya sea con o sin simulación, posteriormente se ubica en la
celda objetivo de la optimización y en el ícono de Herramientas Analíticas  Análisis de
Sensibilidad o Análisis Tornado.
A continuación en el Simulador de Riesgo  Modelos de Ejemplo, seleccione el número 22
Análisis Tornado y Sensibilidad (lineal).
43
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
El ejemplo consiste en un Flujo de Caja de un proyecto de inversión, para realizar el análisis
tornado se debe seleccionar una celda objetivo en este caso el Valor Presente Neto, por lo
tanto se va a Herramientas Analíticas – Análisis Tornado
44
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
El análisis Tornado se realiza previó a las simulaciones dado que va analizar la relación que
existe entre todas las variables del modelo y la variable objetivo, para lo cual usa un análisis de
escenarios, por defecto el programa hace un incremento y una disminución del 10% sobre el
valor base de cada variable en el modelo y observa como ante cambios en cada variable afecta
a la variable objetivo.
Gráfica 17. Análisis Tornado
El reporte generado por el software explica cómo se debe realizar la interpretación y análisis
de los resultados, el aporte principal del análisis tornado es que permite analizar cuáles son las
variables que más importancia tienen con respecto al objetivo. Esto facilita parametrizar las
simulaciones dado que se tendría como prioridad las variables de mayor relevancia dadas por
la herramienta Tornado.
El análisis de Sensibilidad se realiza posterior a las simulaciones, este procedimiento consiste
en realizar múltiples perturbaciones para ver el resultado en la variable objetivo, para realizar
el análisis de sensibilidad posteriormente a la simulación se debe ubicar en la celda objetivo ir
a Herramientas Analíticas- Análisis de Sensibilidad.
45
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
Gráfica 16. Análisis de Sensibilidad
4.7 PRONÓSTICO
Hay una preocupación por conocer lo que va a suceder en el futuro, dado que permite adaptar
las acciones presentes a posibles resultados esperados o no deseables.
Predecir anticipadamente el futuro de los aspectos de cada proyecto que tienen
incertidumbre, a través de la medición de variables económicas, utilizando las herramientas
apropiadas para cada variable, escenario o proyecto, las cuales pueden ser cualitativas o
cuantitativas
Risk Simulator provee al usuario de varias metodologías de pronóstico:
•
Box- Jenkins Arima
•
Regresión Lineal Múltiple
•
Extrapolación No Lineal
•
Pronóstico Estocástico
•
Análisis de Series de Tiempo
•
Cadenas de Markov
•
Modelos GARCH
46
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
4.7.1 Regresión Lineal
Uno de los principales objetivos de los modelos de regresión es explicar el comportamiento de
un fenómeno –variable dependiente– a partir de un conjunto de regresores –variables
independientes–. Con frecuencia la forma funcional que define la relación entre la(s)
variable(s) dependiente(s) y los regresores ha sido establecida por alguna ciencia o disciplina.
Sin duda, por su facilidad de interpretación, los modelos de regresión lineal son los más
populares, los más empleados y los más fáciles de interpretar.
Los pasos para realizar la regresión son, primero seleccione los datos que se encuentran
ordenados en su archivo de Excel, segundo en el Simulador de Riesgo seleccione Pronóstico –
Análisis de Regresión
Tercero, seleccione la variable dependiente, y seleccione si es el caso, varias rezagas o incluir al
modelo la transformación logaritmo natural a las variables independientes. Obteniendo un
reporte como el siguiente:
47
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
Una vez tenga el modelo estimado y haya evaluada la significancia de cada una de las
variables, evalué los supuestos del modelo de regresión lineal, para ello seleccione la base de
datos y diríjase a Herramientas Analíticas – Herramientas de Diagnóstico, lo que le permitirá
evaluar no multicolinealidad, no autocorrelación, homocedasticidad, normalidad, evidencia de
procesos estocásticos, valores atípicos, entre otros.
Lo que deberá seleccionar es la variable dependiente del modelo, y posteriormente obtendrá
un archivo temporal de Excel en el cual encontrará todos los resultados del modelo.
48
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
4.7.2 Análisis de Series de tiempo
El análisis de series de tiempo consiste principalmente en identificar los componentes que
tiene la serie de tiempo (estacionalidad, tendencia, ciclo y aleatorio) para poder realizar los
pronósticos correspondientes. Risk Simulator cuenta con los siguientes modelos de análisis de
series de tiempo
Por ejemplo se cuenta con el siguiente histórico de ventas y se desea analizar con base en su
comportamiento pasado el futuro de las ventas.
49
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
De acuerdo al gráfico se observa un comportamiento tendencial y evidencia de estacionalidad
en la serie, para lo cual de acuerdo a los modelos se podría realizar una estimación por el
método Aditivo o Multiplicativo de Holt- Winters. Al seleccionar los datos e ir al módulo de
pronóstico – Análisis de Series de Tiempo emerge la siguiente ventana:
50
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
En la cual el usuario tiene varias posibilidades, entre ellas la primera y más sencilla, y es que el
software seleccione el mejor modelo de los 8 posibles y adicionalmente que encuentre los
parámetros que minimizan el RMSE (Root Mean Square Error). La segunda opción es que el
usuario seleccione el modelo que considera evaluar de acuerdo a los datos, en este caso puede
seleccionar entre que el software encuentre los parámetros que minimizan de igual forma el
RMSE o por el contrario el usuario puedo ingresarlos manualmente.
Al ejecutar Selección Ejemplar Automática
51
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
Se generan dos resultados el primero una tabla con los 8 modelos posibles con sus parámetros
y el RMSE correspondiente, la tabla presenta el orden de selección de los modelos, en este
caso el modelo seleccionado es un Holt-Winter Multiplicativo, en una hoja adicional se
presenta la descripción del modelo y su interpretación similar a la siguiente imagen.
4.7.3 Pronósticos Box-Jenkins ARIMA
Uno de los modelos más usado son los ARIMA (Modelos Autorregresivos (AR) Integrados (I) y
de media móvil (MA)), los cuales buscan explicar el comportamiento de una serie por medio de
su pasado y de los choques aleatorios o de error que haya sufrido en el tiempo, a este tipo de
modelos se denomina dinámico.
Para poder realizar un modelo ARIMA se debe partir que la serie es estacionaria, es decir que
tanto su media como su varianza no cambian y no dependen del tiempo, se recomienda para
este tipo de modelos tamaños muestrales amplios ya que permiten modelar mejor el
comportamiento de la variable de estudio.
Para el estudio de los modelos ARIMA se usa la metodología de Box – Jenkins, el primer paso
es la identificación del modelo, segundo la estimación, tercero el diagnóstico y por último el
pronóstico.
4.7.3.1 identificación de un modelo arima
La correcta identificación de un modelo ARIMA requiere poder contar con la paciencia
suficiente para poder realizar cambios, pruebas, estimaciones, etc., pero ante todo se debe
tener claro que una correcta identificación puede evitar problemas futuros con los demás
pasos.
52
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
Antes que nada se debe verificar el supuesto fundamental de los modelos ARIMA y es que la
serie sea estacionaria, la primera aproximación es realizar una gráfica de la serie, para este
ejemplo se usará una serie del IPP (índice de precios al productor) de Colombia, observemos la
gráfica, para pegar una gráfica a Word se da clic derecho sobre el gráfico Copiar se selecciona
el formato y se pega en la ubicación deseada.
La gráfica nos da una primera conclusión de que la serie no es estacionaria, si se toman
diferentes períodos muéstrales las medias y las varianzas serán distintas, cuando una serie es
no estacionaria se dice de igual forma que la serie tiene raíz unitaria.
Con Risk Simulator usted podrá verificar si la serie es estacionaria por medio de la herramienta
de Análisis de Estadísticas en el menú de Herramientas Analíticas. Una vez seleccionados los
datos:
53
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
Se debe seleccionar en el menú desplegable de Correr  Series de tiempo
Emerge una hoja nueva, en este caso se selecciona la hoja de Estocásticos y en la sección de
Resumen Estadísticos, se observa la Probabilidad de Ajuste del Modelo Estocástico, si es mayor
al 5% indica que la serie es no estacionaria. El otro método es por medio de la autocorrelación,
en este mismo archivo se encontrará una hoja con ese nombre, por medio del gráfico de
correlaciones se puede determinar si la serie es estacionaria o no dependiendo si la serie
decrece lentamente o no.
54
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
Las autocorrelaciones parciales nos indican el componente AR y las simples el componente
MA, en este caso dado que se diferenció una vez se dice que la serie es Integrada de orden (1).
4.7.3.2 Estimación
Una vez se tenga la variable estacionaria y los posibles modelos identificados se procede a
realizar la estimación del o los modelos propuestos.
Los resultados de la estimación por RS nos permite revisar los coeficientes, la probabilidad
asociada, estadísticos descriptivos y algunas pruebas.
El segundo paso de la estimación es verificar la significancia de los rezagos y de los errores en
este caso el rezago AR(2) y el MA(1) no son significativos, en los modelos ARIMA al igual que
en MCO una variable puede ser la causante de la insignificancia de algunas variables, para ello
se recomienda eliminar las variables con mayor probabilidad de ser no significativas.
4.7.3.3 Diagnostico
El siguiente paso de acuerdo a la metodología de Box – Jenkins es realizar la diagnosis del
modelo es decir verificar los supuestos del modelo y su correcta especificación y estimación, si
55
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
el modelo no presenta inconvenientes y cumple la teoría se procede a pronosticar o hacer
impulso respuesta; en el caso de no cumplir algún supuesto o se presenta una mala definición
del modelo se procede al primer paso la identificación del modelo.
El primer paso es realizar la gráfica de los residuales y verificar si presentan problemas con su
varianza, lo que puede ser efecto de coeficientes no incluidos o de outliers en la historia de la
serie, ahora es conveniente realizar una prueba más robusta para ello usamos el Correlograma
del modelo estimado, este correlograma es sobre los residuos del modelo si hay algún
coeficiente significativo se debe incluir en la estimación.
Una vez se tengan los modelos evaluados (recuerde tener por lo menos dos modelos) y que
cumplan los supuestos de los modelos ARIMA, se debe seleccionar el mejor modelo
ESTIMADO, para ello se usan los criterios de información que RS presenta: AIC (Akaike
Information Criteria), BIC o SIC (Bayesian o Schuartz Information Criteria) y Hannan – Quinn, el
mejor modelo será aquel que tenga los criterios de información más pequeños.
4.7.3.4 pronostico
Como se mencionó anteriormente debe tener claro el usuario que se quiere con el modelo si
una correcta estimación para lo cual para seleccionar el mejor modelo usa los criterios de
información, pero si su objetivo es pronosticar se usan los criterios de evaluación de
pronóstico.
RS imprime los resultados de los estadísticos RMSE, MAE, MAPE y U-Theil para poder evaluar
el o los modelos, si se tienen dos o más modelos, el mejor modelo será aquel que tenga éstos
estadísticos más pequeños y una U-Theil menor que 1.
4.7.4 ESTIMACIÓN POR RS
Risk Simulator cuenta con dos herramientas para la estimación de modelos ARIMA, la primera
es la AUTO ARIMA, la cual realiza el procedimiento de identificación, estimación, verificación y
pronóstico de manera automática. Primero se seleccionan los datos y en el menú de
Pronóstico se selecciona AUTO-ARIMA
56
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
RS reporta los modelos que evaluó por medio del siguiente cuadro:
Es importante anotar que en esta herramienta RS utiliza el criterio del R2 ajustado como
herramienta de selección del mejor modelo.
El reporte incluye una explicación estadísticas del procedimiento realizado por RS y de igual
forma presenta los pronósticos del modelo y una gráfica para la estimación y otra para los
residuales del modelo.
57
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
La otra forma de estimación es similar a la anterior, en Pronóstico se selecciona la opción
ARIMA:
58
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
En este caso el usuario debe ingresar los parámetros del modelo ARIMA, es decir el
componente Autorregresivo (AR), el integrado (I) y el de media móvil (MA). Generando un
reporte como el siguiente:
4.8. PROCESOS ESTOCÁSTICOS
Un Proceso Estocástico en una secuencia de eventos o caminos generados por las leyes de
probabilidad. Esto significa que eventos aleatorios pueden ocurrir en el tiempo, pero son
regidos por leyes estadísticas y probabilísticas especificas. Los principales Procesos
Estocásticos incluyen la Caminata Aleatoria o Proceso Browniano, Regresión a la Media y los
Saltos de Difusión. Estos procesos pueden ser utilizados para pronosticas una multitud de
variables que aparentemente sigan tendencias aleatorias pero que están restringidas por las
59
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
leyes de la probabilidad. Podemos usar los Procesos Estocásticos del Simulador de Riesgo para
simular y crear estos procesos. Estos procesos también pueden ser usados para pronosticar
una multitud de datos de series de tiempo que incluyen, precios de acciones, tasas de interés,
tasas de inflación, precios del petróleo, precios de la electricidad, p
recios de bienes básicos o commodities , y muchos más.
Usted tiene dos posibilidades para utilizar la herramienta de procesos estocásticos ubicada en
el modulo de pronóstico, la primera es ingresar valores aleatorios en los parámetros de cada
modelo para verificar algún tipo de comportamiento, el segundo es ajustar a una serie de
datos histórica los parámetros correspondientes.
Para la segunda opción debemos ingresar a Herramientas Analíticas – Análisis de Estadísticas
Y seleccionar la opción de Estimación de Parámetro Estocástico, lo cual nos genera el siguiente
reporte:
60
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
Una vez conocidos los parámetros del proceso estocástico, se procederá a realizar los
pronósticos correspondientes por la ruta – Pronóstico – Avanzado - Procesos Estocásticos
Una vez se ingresan los parámetros correspondientes se realiza el correspondiente reporte de
las simulaciones que realizó el software de acuerdo al modelo y los parámetros ingresados.
61
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
4.9 MODELOS LOGIT- PROBIT – TOBIT
Las Variables Dependientes Limitadas describen las situaciones donde la variable dependiente
contiene datos que están limitados en alcance y rango, como binarias (0 o 1), truncadas,
ordenadas o datos censurados. Por ejemplo, dado un conjunto de variables independientes
(p.ej., edad, ingreso, educación, cupo de tarjeta de crédito o tenencia de préstamo
hipotecario), podemos calcular la probabilidad de incumplimiento utilizando la estimación de
máxima verosimilitud (MLE – por sus siglas en ingles).
La respuesta o variable dependiente Y es binaria, es decir, puede tener solamente dos posibles
resultados que denotaremos como 1 y 0 (p.ej., Y puede representar la ausencia/presencia de
una condición especifica, cumplimiento/incumplimiento de un préstamo previo, éxito/fracaso
de algunos dispositivos, respuesta si/no en estudios, etc.). También tenemos un vector de
variables independientes o regresores de X, los cuales se asumen con influencia en el resultado
Y. Una típica aproximación con una regresión de mínimos cuadrados ordinarios es incorrecta
porque los errores de la regresión son heteroscedasticos y no normales; y los resultados
estimados de probabilidad resultantes serian valores sin sentido sobre 1 o debajo de 0. MLE se
ocupa de estos problemas de análisis utilizando una rutina de optimización iterativa que
maximiza la función logarítmica de verosimilitud cuando las variables dependientes son
limitadas.
Una regresión Logit o Logística es usada para predecir la probabilidad de ocurrencia de un
evento para datos ajustados a una curva logística. Esto es generalizado en el modelo lineal
utilizado para la regresión binomial. MLE aplicado en un análisis logístico multivariado binario
es usado para modelar variables dependientes para determinar la probabilidad esperada de
éxito de pertenecer a un cierto grupo. Los coeficientes estimados por el modelo Logit son
cocientes logarítmicos de probabilidad, y no pueden interpretarse directamente como
probabilidades. Un rápido cálculo es requerido primero y luego la aproximación es sencilla.
Específicamente, el modelo Logit es especificado como Estimado Y= LN[Pi/(1–Pi)] o en cambio,
, Pi = EXP(Estimado Y)/(1+EXP(Y Estimado)), y los coeficientes βi son cocientes logarítmicos de
probabilidad, a fin de tomar el antilogaritmo o EXP(βi) obtenemos los cocientes de
probabilidad de Pi/(1–Pi). Esto significa que un incremento en una unidad de βi incrementa la
probabilidad en este monto. Finalmente, la tasa de cambio en la probabilidad dP/dX = βiPi(1–
Pi). El Error Estándar mide la precisión de los coeficientes, y la t-estadística son los coeficientes
de cada Coeficiente respecto a sus errores estándar, los cuales son usados en la prueba de
hipótesis para calcular el nivel de significancia de cada parámetro estimado. Para estimar la
probabilidad éxito de pertenecer a un grupo especifico (p. ej., predecir si un fumador
desarrollara complicaciones pulmonares dado el monto de cigarrillos consumidos por año),
simplemente calcule el valor Estimado Y utilizando los coeficientes MLE. Por ejemplo, si el
modelo es Y = 1.1 + 0.005 (Cigarrillos) entonces para una persona que fume paquetes de
cigarrillos por año tiene un Y Estimado de 1.1 + 0.005(100) = 1.6. Después, calcule la inversa
62
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
del antilogaritmo para el valor encontrado previamente de probabilidad EXP(Y Estimado)/[1 +
EXP(Y Estimado)] = EXP(1.6)/(1+ EXP(1.6)) = 0.8320. Por lo tanto una persona tiene un 82.20%
de probabilidad de desarrollar algún tipo de complicación pulmonar en vida.
Un modelo Probit (algunas veces conocido como modelo Normit) es una alternativa popular de
especificación para un modelo binario en cual emplea una función probit utilizando una
estimación de máxima verosimilitud y la aproximación es llamada regresión probit. Los
modelos de regresión Probit o Logistica tienden a producir predicciones similares, donde los
parámetros estimados en una regresión logística son entre 1.6 y 1.8 veces más altos que los
correspondientes a los coeficientes de un modelo Probit. La elección de un modelo Probit o
Logit es enteramente relacionado con la conveniencia particular, y la principal distinción entre
ambos se basa en el hecho que la distribución logística tiene una mayor curtosis (colas gordas)
para tener en cuenta en los valores extremos. Por ejemplo, suponga que una familia tiene la
decisión de adquirir una vivienda y su respuesta es una variable binaria (comprar o no comprar
la vivienda) y depende de una serie de variables independientes Xi como son el ingreso, la
edad, tal que Ii = β0 + β1X1 +...+ βnXn, donde el mayor valor de li, significa una mayor
probabilidad de ser propietario de la vivienda. Para cada familia, existe un umbral crítico I*,
donde si es superado la casa es comprada por alguien más, es decir, la cas ano es comprada, y
la probabilidad de salida (P) se asume distribuida normalmente, tal que Pi=CDF(I) utilizando
una función de distribución acumulada normal estándar (CDF). Por lo tanto, usa los
coeficientes estimados exactamente igual a los de un modelo de regresión, utilizando el valor
Estimado Y, y aplicar la distribución normal estándar (usted puede usar la función Excel
DISTR.NORM.ESTAND o la herramienta de Análisis de Distribución seleccionando la
distribución Normal y ajustando la media en 0 y la desviación estándar en 1). Finalmente, para
obtener un Probit o unidad de probabilidad, defina li + 5 (esto es porque siempre la
probabilidad Pi < 0.5, el estimado li es negativo, debido al hecho que la distribución normal es
simétrica alrededor de una media de cero).
El modelo Tobit (Tobit Censurado) es un método de modelación biométrica y econométrica
usada para describir la relación entre una variable dependiente no-negativa Yi y una o más
variables independientes Xi. Un modelo Tobit es un modelo econométrico en el cual la variable
dependiente es censurada; esto es, la variable dependiente es censurada porque los valores
debajo de cero no son observados. El modelo Tobit asume que existe una variable
inobservable latente Y*. Esta variable es linealmente dependiente de las variables Xi vía un
vector de coeficientes βi, que determina sus interrelaciones. En adición, el término del error Ui
está distribuido normalmente para capturar la influencia aleatoria en esta relación. La variable
observable Yi es definida como la igualdad de la variable latente siempre que las variables
latentes sean superiores a cero y Yi es asumido como cero en otro caso. Esto es, Yi = Y* si Y* >
0 y Yi = 0 si Y* = 0. Si el parámetro de relación βi es estimado utilizando una regresión de
mínimos cuadrados ordinarios de los observados Yi en Xi, los estimadores de la regresión
calculada son inconsistentes y el coeficiente de la pendiente se encuentra insesgada hacia
abajo y el intercepto insesgado hacia arriba. Únicamente el MLE podría ser consistente para un
modelo Tobit. En el modelo Tobit, se tiene un complemento estadístico llamado Sigma, el cual
e equivalente al error estándar de la estimación en una regresión de mínimos cuadrados
63
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
ordinarios y los coeficientes estimados son usados en el mismo sentido que en el análisis de
regresión.
Usando la siguiente base de datos, seleccione los datos y diríjase a Pronóstico – Avanzado –
Modelo de Máxima Verosimilitud
64
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
Seleccione el modelo correspondiente, por ejemplo, LOGIT, y obtendrá el siguiente resultado:
Como se comentó anteriormente, los coeficientes no son interpretados, se debe realizar la
transformación Z / 1-Z, para conocer los coeficientes que permiten interpretar el aumento o
disminución de probabilidades.
4.10 HERRAMIENTAS ESTADÍSTICAS Y ANALÍTICAS
Risk Simulator cuenta con un gran número de herramientas estadísticas y analíticas que le
permiten al usuario poder sacar la mejor información posible de sus datos o de sus
simulaciones, pronósticos u optimizaciones. Entre las herramientas disponibles tenemos:

Ajuste de distribución, simple y múltiple

Exportar o Importar datos
65
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS

Herramientas de Diagnóstico

Análisis de Estadísticas
REAL OPTIONS VALUATION
66
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
A manera de resumen:
Ejemplo de un Modelo de Evaluación de Proyectos
Usted está decidiendo invertir en un proyecto de venta de pescado fresco y se considerarán 3
estrategias respecto a la capacidad de la planta y terreno, calidad de equipos y calidad del
personal y gerencia. Dado que dispone de poco capital se asume que se tendría que financiar
el 80% con deuda y a una tasa de 15% anual a 4 años sin posibilidad de refinanciamiento. Se
asume liquidación de todos los activos al término de los 5 años. Los datos estimados son los
siguientes:








Se estima ventas en efectivo el año 1 en 2MM y a una tasa de incremento de 10% por
año y las cuentas por cobrar al final del año serían de 10% de las ventas anuales
totales.
La inversión en terreno, obras civiles y equipos se estima en 0.5MM, 1MM y 0.7MM.
El capital de trabajo se estima en 0.8MM al inicio y a incrementarse en 8% anual del
aumento de ventas.
La planilla + costos laborales y otros gastos de personal se estima en 810M por año.
Los costos variables se estiman cumplen lo siguiente CV = 30%*Ventas + 20,000*t ,
t=1,2,3,4,5, donde 30% es el porcentaje de costo en materia prima respecto a las
ventas, y los 20,000 son otros costos variables.
Se asume que el Capital de Trabajo se recupera íntegramente en la liquidación y las
obras civiles se deprecian en 10% y los equipos en 15% anual.
El impuesto a la renta se estima en 30%.
Se estima la tasa de descuento en 14%.
a) Elabore el Flujo de Caja y el Estado de Pérdidas y Ganancias con los datos mencionados.
b) Identifique cuales son las variables que tienen un mayor impacto en el VPN del Proyecto
mediante el diagrama de tornado asumiendo una distribución triangular para todas las
variables del modelo y emplee simulación de Monte Carlo para analizar el riesgo involucrado.
67
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
c) Con los escenarios bajo, medio y alto aproxime una distribución normal para asignar a las
variables del modelo, corra la simulación con estas distribuciones y analice los resultados. .
d) Corra la simulación con 1,000 y 10,000 iteraciones. Compare la precisión de ambas.
e) Suponga que hay la opción de continuar el negocio por 2 años más luego de conocer todas
las incertidumbres. Como modelaría esta situación asumiendo que para ello a inicios del 6to
año se tendría que invertir un 50% de la inversión inicial en terreno y obras civiles y 100% en
maquinaria y equipo, y el valor de liquidación se mantiene igual y solo se descuenta la misma
depreciación de los años anteriores. Los demás supuestos se mantienen iguales en los 2 años.
Use Simulación para contestar las siguientes preguntas:
– ¿Se incrementa el VPN esperado?
– ¿Se incrementa la probabilidad de pérdida?
– ¿Cuál es el valor de la opción?
f) Suponga ahora que el nivel de ventas estará ahora restringido a una capacidad de la planta
determinada de 3500 MM en ventas (se define la capacidad en términos monetarios). Es decir
las ventas anuales no pueden ser mayor a esta capacidad. Corra la simulación con estos
supuestos y compare los resultados con la anterior situación.
2. DETERMINACIÓN DE COSTOS DE UN PROCESO DE PRODUCCIÓN
El objetivo del taller es tomar un ejemplo clásico de estimación de costos de una empresa del
sector real, usando para ello las diferentes herramientas del software Risk Simulator:
-
Ajuste de distribución
Establecer supuestos de entrada y salida
Pronóstico con modelos ARIMA, Series de tiempo y Extrapolación
Análisis de Escenarios
Gráficas sobrepuestas
La empresa de Aceros ABC desea determinar los costos de su proceso de producción el cual se
divide en las siguientes fases:
1. Fundición
2. Formación
Se tienen 3 materias primas, A, B y C. (MP), tiene unos costos de MOD (mano de obra directa)
y MOI (mano de obra indirecta), además, CIF (costos indirectos de fabricación).
El objetivo (VARIABLE OUTPUT-PRONOSTICO) es que pueda presentar un informe en el cuál
indique con un nivel de confianza del 95% Costo total de Materiales. MOD, CIF y del total de
costos del proceso de fundición (B30:E30) y de formación (H30:K30) respectivamente. HOJA
68
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
FORMATOS. Las Hojas Datos y Formato se encuentran vinculadas, por medio de las siguientes
condiciones.
Para la realización del ejercicio usted se reunió con las diferentes áreas que participan en el
proceso recolectando la siguiente información.
1. En el proceso de fundición, la materia prima A tiene unos costos de mínimo
$70.000.00, en promedio $95.000.000 y máximo $120.000.000 CELDA C4 HOJA DATOS,
2. Para la materia prima B, se consultó con el proveedor el cual afirmó que en promedio
nos vende $23.000.000 y que en promedio nos desviamos como un 10% de ese valor
CELDA C5 HOJA DATOS
3. Para el proceso de fundición la MOD aún no se tiene el dato actualizado pero se tienen
los datos de los últimos 3 años los cuales están en la hoja MOD, realice un pronóstico
por medio de la opción de Análisis de Series de Tiempo para ese dato faltante
CELDA C8 HOJA DATOS
4. Para el proceso de fundición MOI se tienen los datos históricos en la hoja MOI de los
últimos 2 años, se requiere tener en cuenta las posibles variaciones que puede tener
esa variable en los resultados, para ello realice un ajuste de distribución CELDA C9
HOJA DATOS
5. Para el proceso de Formación los datos de materia prima C aún no se han calculado,
por eso el gerente de producción recomienda utilizar los datos históricos que se
encuentran en la hoja MP C y hacer un pronóstico por medio de un modelo ARIMA
CELDA D6 HOJA DATOS
6. En la MOD del proceso de formación se tienen los siguientes datos históricos, úselos
para poder determinar la distribución asociado a la MOD CELDA D8 HOJA DATOS.
Nota: Distribución Personalizada
VALOR
$ 60,000,000,00
$ 66,000,000,00
$ 70,000,000,00
$ 75,000,000,00
FRECUENCIA
1
10
5
2
7. Los CIF del proceso de formación se deben pronosticar, para ello un especialista
recomendó usar la metodología de la extrapolación, usando los datos de la hoja CIF del
último año extrapole un período y use el pronóstico para el ejercicio CELDA D10 HOJA
DATOS
8. Para el proceso de producción de fundición se requiere hacer un pronóstico de las
Unidades Iniciadas (Uds Iniciadas), para ello usando los datos de la hoja UDS1
seleccione el mejor modelo entre un modelo de Series de Tiempo y uno de un modelo
ARIMA CELDA B8 HOJA FORMATO
9. Realice el mismo procedimiento para el proceso de formación de acuerdo al numeral
anterior usando los datos de la hoja UDS2 CELDA H8 HOJA FORMATO
10. La variable pérdidas normales es la misma para el proceso de fundición como para el
de formación, obtenga la distribución asociada y para la estimación de los costos
69
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
establezca la distribución como una variable supuesto. CELDAS B9 Y H9 HOJA
FORMATO
Solucione las preguntas iniciales del taller que es generar el informe.
11. Por medio de un análisis de escenarios analice como ante cambios en la unidad de
producción de unidades iniciadas y pérdidas normales de 10 unidades desde 1450 a
1600 para las unidades iniciadas y para pérdidas normales de 10 unidades desde 130 a
210 se produce cambio en el costo total.
12. Por medio de la opción de gráficas sobrepuestas compare los costos totales del
proceso de producción fundición contra formación.
13. Genere un reporte de los resultados presentando el percentil 40%, 60%, 75% y 99%
para los costos totales de cada variable supuesto
3. TALLER ESTADOS FINANCIEROS
1. Realice un modelo de Pérdidas y ganancias, completando la siguiente información para la
realización del Estado de Pérdidas y Ganancias
- Con los datos de los Ingresos descritos en la Hoja Ingresos analice cuál es la distribución
asociada a los Ingresos, adicionalmente analice la variable por medio de la opción Análisis de
Estadísticas verifique si los datos son normales, haga la prueba de que la media es igual a
550.000.000.
- Se le preguntó al comité de costos sobre la distribución que tenían los costos, ellos
argumentaron no tener conocimientos sobre distribuciones ya que solo son operarios, pero
respondieron que los costos generalmente están entre 300.000.000 y 600.000.000
- Los gastos de personal no se han podido calcular dado un problema en el sistema contable de
la empresa, por eso, se recomienda realizar un pronóstico de los últimos 4 años para conocer
cuánto podría ser el valor del mes de diciembre


Realice un pronóstico por medio de un módelo ARIMA de la hoja gastos de
personal
Realice un pronóstico por medio de Análisis de Series de tiempo
Compare los RMSE, para el modelo ARIMA lo encuentra como suma del promedio de
cuadrados y debe sacarle la raíz. Seleccione para pronosticar el módelo que tenga el menor
RMSE
- Los Honorarios tienen una distribución triangular con mínimo 1000000, máximo 10000000 y
más probable 5500000
- Los Gastos Diversos, tienen una relación con un conjunto de variables, por lo tanto se desea
estimar el valor del gasto diverso por una relación lineal, del tipo un modelo de regresión
70
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
lineal, en la hoja gastos diversos están los datos de 49 meses anteriores con los gastos
correspondientes, pero no se ha calculado para el mes de diciembre el valor de éste mes, por
lo tanto se desea utilizar un modelo de regresión lineal para poder realizar el análisis.
- Debe pronosticar las variables Utilidad Antes de Impuesto y la Utilidad Neta del Ejercicio
- Antes de realizar la simulación debe analizar las variables que afectan a la Utilidad Antes de
Impuesto por medio de un análisis Tornado, posteriormente a la simulación realice un análisis
de Sensibilidad
2. Utilizando el archivo Estimación de Costos, realice el ejercicio planteado en la hoja
descripción
3. Realice el ejercicio de selección de portafolio
71
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
5.
REAL OPTIONS VALUATION
BIBLIOGRAFÍA
[1] Aragonés, J. R. and Blanco, C. and Mascareñas, J. M. and Pierce, M. El valor en
riesgo en la gestión de carteras de acciones: el empleo de índices sectoriales como factores de
riesgo en la gestión de fondos de renta variable. Revista europea de dirección y economía de la
empresa, 9(4):113-122, 2000.
[2] Becerra, O. and Melo, L. Medidas de riesgo, características y técnicas de medición:
una aplicación del VaR y el ES a la tasa interbancaria de Colombia. Borradores de economía,
343, Banco de la República, 2005.
[3] Bollerslev, Tim. Generalized Autoregressive Condicional Heteroscedasticity.
Journal of Econometrics, 31:309 - 328, 1986.
[4] Medición integral del riesgo de crédito. Limusa Noriega Editores, 2003.
[5] Cox, D.R. The analysis of binary data. Methuen & Co., 1970.
[6] Cox, D.R. and Snell, E.J. The Analysis of Binary Data. Chapman and Hall, 2 edition,
1989.
[7] Engle, Robert. F. Autoregressive Condicional Heteroscedasticity with Estimates of
the Variance of United Kingdom Inflation. Econometrica, 50(4):987 - 1006, 1982.
[8] Fisher, Ronald. The Use of Multiple Measurements in Taxonomic Problems.
Annual Eugenics, 7(4):179-188, 1936.
72
SOFTWARE SHOP
INSTRUCTOR: BRAYAN RICARDO ROJAS
REAL OPTIONS VALUATION
[9] Hosmer, D.W and Lemeshow, S. Applied logistic regression. John Wiley and Sons,
1989.
[10] Kolmogorov, Andrei. Grundbegriffe der Wahrscheinlichkeitsrechnung.. Springer,
1933.
[11] Mays, Elizabeth. Credit Scoring For Risk Managers: The Handbook For Lenders.
South-Western Educational P., 1 edition, 2003.
12] Mays, Elizabeth. Handbook of Credit Scoring. Glenlake Publishing Company, 2001.
[13] Nagelkerke, N. J. A note on a general definition of the coefficiente of
determination. Biometrika, 78(3):691-692, 1991.
[14] Peña, Daniel. Análisis de Datos Multivariantes. Mc. Graw Hill, 1 edition, 2002.
[15] Press, J. and Wilson, S. Choosing between logistic regression and discriminant
analysis. Journal of the American Statistical Association, 73(364):699 - 705, 1978.
[16] Pérez, Cesar.
Educación S.A., 2008.
Econometría Avanzada. Técnicas y Herramientas. Pearson
[17] Raymond, Anderson. The Credit Scoring Toolkit: Theory and Practice for Retail
Credit Risk Management and Decision Automation. Oxford Univerity Press, 2007.
[18] Siddiqi, Naeem. Credit Risk Scorecards: Developing and Implementing Intelligent
Credit Scoring. John Wiley and Sons, 2006.
[19] Smirnov, N. Estimate of deviation between empirical distribution functions in
two independent samples Bull. 2(2):3 - 16, 1933.
[20] Tagliafichi, R. La danza de los cisnes ''blancos" y el cálculo del VaR. Palermo
Business Review, (3):29 - 48, 2009.
73
Descargar