SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION FUNDAMENTACIÓN EN RIESGO CON RISK SIMULATOR 1. TABLA DE CONTENIDO RIESGO................................................................................................................................... 3 2. TIPOS DE RIESGO ................................................................................................................... 4 2.1 RIESGO DE MERCADO ......................................................................................................... 4 2.1.1 Valor en Riesgo ............................................................................................................. 6 2.1.2 Cópulas ......................................................................................................................... 6 2.1.3 Teoría del Valor Extremo.............................................................................................. 7 3. RIESGO DE CRÉDITO .......................................................................................................... 7 3.1 Pérdida Esperada............................................................................................................. 8 3.1.1 Probabilidad de Incumplimiento (PD) ......................................................................... 8 3.1.2 Exposición (EAD) .......................................................................................................... 8 3.1.3 Severidad de la Pérdida (LGD) ...................................................................................... 8 3.2 Métodos de Pérdida Esperada ........................................................................................... 9 3.3 Técnicas Paramétricas ....................................................................................................... 10 3.3.1 Regresion lineal .......................................................................................................... 10 3.3.2 Análisis discriminante ................................................................................................ 11 3.3.3 Modelo Logit y Probit ................................................................................................. 13 3.4 Técnicas no Paramétricas .................................................................................................. 16 3.4.1 Árboles de decisión .................................................................................................... 16 3.4.2 Redes neuronales ....................................................................................................... 16 3.5 Pruebas de Evaluación ...................................................................................................... 16 3.5.1 Kolmogorov- Smirnov ................................................................................................ 17 3.5.2 Curva ROC....................................................................................................................... 17 3.5.3 Chi-Square .................................................................................................................. 18 3.5.4 Hosmer - Lemeshow....................................................................................................... 19 2.3 RIESGO OPERACIONAL ...................................................................................................... 20 4. 2.3.1 Modelo del Indicador Básico (BIA) ...................................................................... 21 2.3.2 Método Estándar (STDAOp) y Estándar Alternativo (ASA) ................................. 21 2.3.3 Método de Medición Avanzada (AMA) ............................................................... 21 2.3.3.1 Medición de la Frecuencia .............................................................................. 22 2.3.3.2 Medición de la Severidad ................................................................................ 22 RISK SIMULATOR ................................................................................................................. 23 4.1 INTRODUCCIÓN A RISK SIMULATOR ..................................................................................... 24 1 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION 4.2 SIMULACIÓN CON RISK SIMULATOR ................................................................................. 26 4.2.1 DEFINIENDO PERFIL .................................................................................................... 27 4.2.2 DEFINIENDO VARIABLES SUPUESTOS ......................................................................... 28 4.2.3 DEFINIENDO VARIABLES PRONÓSTICO ...................................................................... 29 4.2.4 EJECUTANDO LA SIMULACIÓN ................................................................................... 29 4.2.5 RESULTADOS DE LA SIMULACIÓN .............................................................................. 30 4.2 EJEMPLO DE COSTOS TOTALES ......................................................................................... 32 4.3 VaR por Método de Simulación de Montecarlo ................................................................ 35 4.4 Ejemplo de Evaluación de Proyectos ................................................................................ 35 4.5 OPTIMIZACIÓN CON RISK SIMULATOR.............................................................................. 39 4.5.1 DEFINIENDO VARIABLES DECISIÓN ............................................................................ 40 4.5.2 DEFINIENDO VARIABLES OBJETIVO ............................................................................ 40 4.5.3 DEFINIENDO RESTRICCIONES ..................................................................................... 41 4.5.4 EJECUTAR LA SIMULACIÓN......................................................................................... 41 4.5.5 RESULTADOS DE LA OPTIMIZACIÓN ........................................................................... 42 4.6 ANÁLISIS DE SENSIBILIDAD Y TORNADO ........................................................................... 43 4.7 PRONÓSTICO ..................................................................................................................... 46 4.7.1 Regresión Lineal ......................................................................................................... 47 4.7.2 Análisis de Series de tiempo....................................................................................... 49 4.7.3 Pronósticos Box-Jenkins ARIMA ................................................................................. 52 4.7.3.1 identificación de un modelo arima ........................................................................ 52 4.7.3.2 Estimación ............................................................................................................... 55 4.7.3.3 Diagnostico .............................................................................................................. 55 4.7.3.4 pronostico ............................................................................................................... 56 4.7.4 ESTIMACIÓN POR RS .................................................................................................. 56 4.8. PROCESOS ESTOCÁSTICOS ............................................................................................... 59 4.9 MODELOS LOGIT- PROBIT – TOBIT .................................................................................... 62 4.10 HERRAMIENTAS ESTADÍSTICAS Y ANALÍTICAS ................................................................ 65 5. BIBLIOGRAFÍA ...................................................................................................................... 72 2 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS 1. REAL OPTIONS VALUATION RIESGO El interés por la administración del riesgo se ha incrementado de manera vertiginosa esto en parte es causa de la globalización; en vista del gran número de transacciones que se presentan a diario entre empresas de diferentes lugares del mundo, hay presencia de efectos aleatorios los cuales pueden modificar los resultados de las transacciones, pero estos efectos pueden presentarse desde cualquier contexto: cambios en el precio de una acción, la volatilidad en el tasa de cambio de un país con respecto a otro, el daño de una máquina de producción, la sequía o el exceso de lluvias, el cambio en la normatividad de un país, son sólo algunos ejemplos de los efectos aleatorios que se encuentran en la realidad. Estos efectos aleatorios se pueden clasificar en dos, uno al que llamaremos riesgo y otro incertidumbre, aunque ambos están relacionados, el primero es la posibilidad de que ocurra un evento o impacto adverso, que puede ser interno o externo, que genere en cierto período de tiempo una variación en los resultados esperados de una situación dada, esta posibilidad es medible. Mientras la incertidumbre se diferencia con el riesgo en que no es medible debido a que incluye variables que se desconocen. Es importante que las organizaciones tengan claro qué es el riesgo y además que tengan conocimiento de los tipos de riesgos que se pueden presentar para así poder establecer políticas de gestión del riesgo de una forma más acertada. Pero, ¿por qué es importante la administración del riesgo?. El riesgo es una variable importante en la toma de decisiones, si no se tienen en cuenta los riesgos a los que se enfrenta un individuo, una empresa, un sector o un país, los resultados podrían no ser los esperados. Un ejemplo claro es la decisión de una inversión, si se desea invertir en la Bolsa de Valores de Colombia, en la acción de la empresa A que tiene un valor por acción de $ 10.000, y el inversionista desea obtener ganancia, él esperará que para cierto período de tiempo la acción suba y de esta manera vender y obtener una ganancia. Pero qué ocurre si en vez de subir, la acción baja, el inversionista se enfrenta a una pérdida. Pero ¿qué puede causar ésta pérdida?, puede ser desde un efecto por alguna noticia sobre la empresa A, hasta por el anunció de la Reserva Federal en Estados Unidos de un incremento en la tasa de referencia. El inversionista debe tener en cuenta todos estos factores de riesgo (variables aleatorias que no se conocen en el futuro ni su comportamiento exacto) para su decisión. Así mismo se puede presentar el caso donde la acción A llega a niveles superiores a los que esperaba el inversionista. Para poder controlar todos esos factores es importante desarrollar una buena administración del riesgo. La correcta gestión del riesgo incluye procedimientos capaces de generar y ofrecer un buen entendimiento de los conceptos y factores de riesgo así como las clases de riesgo a los que está expuesta una entidad, esto permitirá realizar una planificación para anticiparse a los posibles resultados y consecuencias. 3 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS 2. REAL OPTIONS VALUATION TIPOS DE RIESGO A continuación se presentarán las clases de riesgo a las que una entidad puede enfrentarse: Riesgo de Crédito: Son las posibles pérdidas que se pueden generar por deterioro de la situación financiera de terceros o contraparte que tienen obligaciones con la entidad Riesgo de Mercado: Posibles pérdidas que se pueden dar por variaciones en tasas de interés, tasas de cambio, precios y demás factores de riesgo. Riesgo de Liquidez: Posibilidad de pérdidas que se pueden generar por la imposibilidad de vender activos o de adquirir pasivos ante necesidades de liquidez Riesgo Operacional: Es la posibilidad de que se incurra en una pérdida causada por una insuficiencia o falla de procesos, del personal, procedimientos, de maquinaria o cualquier elemento que influya en las labores de la empresa. Riesgo Legal: Riesgo de pérdida debido a los cambios en la normatividad de un país que afecta los acuerdos contractuales, procesos legales o sentencias adversas. Riesgo ambiental: Posibilidad de pérdida causada por un efecto ambiental o climático. Cada clase de riesgo contiene un grupo de factores de riesgo, por ejemplo, en el riesgo de mercado, algunos factores de riesgo son la tasa de interés, la tasa de cambio y el precio, entre otros. Como primer paso se deben definir los factores de riesgo de una empresa y posteriormente se determina un mapa de riesgos, el tercer paso medir el riesgo asignando un conjunto de números a las posibilidades de ocurrencia de los hechos inciertos, cuarto paso la medición de la exposición y por último determinar una medida integral del riesgo. Una vez se tenga una medida de riesgo, el personal encargado de la administración de riesgo tiene diferentes alternativas para la gestión, ellas son: Eludir la exposición eliminando la fuente de riesgo Transferir el riesgo pagando por ello Cubrir el riesgo Mitigar Asumir 2.1 RIESGO DE MERCADO A continuación se realizará una descripción teórica de algunas metodologías para la medición del riesgo de mercado, estas metodologías están enfocadas principalmente a la 4 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION medición del riesgo para activos financieros, por lo cual su análisis se realiza para entidades que cotizan en bolsa o que tengan inversiones en activos financieros. Algunas de las metodologías referenciadas en este trabajo son aplicables a empresas del sector real que no invierten en la bolsa o no tienen relación con activos financieros, así como las que si se relacionan. El análisis del riesgo de mercado se basa en cálculo de la volatilidad a la que está enfrentado un activo financiero, tales como acciones, bonos, futuros, así como variables financieras fundamentales como son la tasa de interés y la tasa de cambio de referencia. Estas metodologías se calculan con base en los retornos simples de un activo definidos como 1 para donde indica el precio del activo en el período , [2] presentan otras formas del cálculo de los retornos las cuales ofrecen ventajas estadísticas y matemáticas, en éste trabajo se usará el concepto de retorno simple presentado en la ecuación (20) para facilidad en los cálculos y su análisis. En el caso de un portafolio, el retorno puede escribirse como: para el siguiente período (1) donde las ponderaciones están indexadas por el tiempo, para reconocer la naturaleza dinámica de las operaciones dentro de los portafolios, un activo en el período indica el retorno para . Como el interés es medir el riesgo de mercado de un activo2, tal como lo menciona [2], una forma de medirlo es por medio de la función de distribución de probabilidad de las pérdidas y ganancias de los activos. La primera forma de medir el riesgo es por medio de la desviación estándar la cual se calcula de la distribución de probabilidad de las pérdidas y ganancias, la desviación estándar mide la volatilidad de los retornos de un portafolio, se define como: donde es el vector de participaciones , es la matriz de varianzas y covarianzas de los activos y , 1 La ecuación (1) se supone con dividendos iguales a cero. 2 Se usará la palabra Activo para un conjunto de activos financieros donde mismo significado que Portafolio el cual es un conjunto de activos financieros. 5 teniendo el SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION 2.1.1 Valor en Riesgo El Valor en Riesgo o VaR3 es una medida estadística que cuantifica la exposición al riesgo de mercado, a través de la estimación de la pérdida máxima que podría registrar un portafolio en un intervalo de tiempo y con cierto nivel de confianza, es decir, el VaR es la mínima pérdida esperada en una posición para un horizonte temporal, con un nivel de confianza (probabilidad) y moneda de referencia específicos. Esta metodología fue difundida por JP Morgan en 1994, donde se exponía que al considerar la diversificación de portafolios y analizar las correlaciones entre los rendimientos de los activos se podía disminuir el riesgo a causa de las volatilidades de los mercados financieros, bajo condiciones normales del mercado, ya que en momentos de crisis y turbulencias económicas la pérdida esperada se define por pruebas de estrés. Usando una definición estadística, el VaR es el nivel de pérdidas que se sitúa entre los peores resultados esperados y los mejores resultados esperados en un período de tiempo de la función de distribución de pérdidas y ganancias del activo. De acuerdo a la definición anterior, si el VaR diario de una cartera es de 1 millón de dólares, con una probabilidad del 95%, significa que, en el período que comprende las próximas 24 horas, existe una probabilidad del 5% de que la pérdida será superior al millón de dólares o dicho de otra forma, la probabilidad de que las pérdidas sean inferiores a 1 millón de dólares es del 95%. Existen diferentes métodos de calcular el VaR, el más común es el de varianzas y covarianzas, también conocido como método paramétrico o analítico, otras metodologías se basan en la simulación, que son de mayor uso en inversiones en derivados. Entre estos métodos se destacan la simulación por Montecarlo y la simulación histórica. 2.1.2 Cópulas Utilizando la teoría en espacios métricos, Abe Sklar (1959) desarrolla un conjunto de funciones denominadas cópulas, funciones que unen una función de distribución multivariada a sus marginales unidimensionales. La cópula logra capturar la estructura de dependencia entre las variables, ya que se encuentra definida por la transformación uniforme de las distribuciones marginales, independiente de la distribución de probabilidad que tengan cada una. Bajo esta premisa, no se hace necesario exigir distribuciones de probabilidad normales para las distribuciones marginales de las variables. Una Cópula es la función que vincula las distribuciones marginales de las variables con su distribución conjunta. El objetivo de las cópulas es encontrar la función de distribución conjunta H que mejor refleje la relación entre X y Y; aquélla que garantice que la distribución condicionada que se 3 Value at Risk 6 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION asocie represente fielmente esa relación de dependencia y pueda ser utilizada en el cálculo del VaR. Las cópulas permiten definir distribuciones de probabilidad conjuntas entre variables, adicionales a las distribuciones multivariadas estándar que limitan los tipos de dependencia a los que se puede representar. En este sentido, es posible concluir que la cópula logra capturar toda la información que exista sobre dependencia en un conjunto de variables. 2.1.3 Teoría del Valor Extremo La teoría del valor extremo introducida en los años cincuenta por el matemático alemán Emil Julius Gumbel, soluciona los problemas que se presentan en la medición del riesgo cuando la distribución de los retornos o precios de los activos financieros presenta colas pesadas y por ende cuando existe una mayor probabilidad de ocurrencia de eventos extremos. Existen dos tipos de metodologías para la identificación de los valores extremos en las series. El primero es conocido como máximo por bloques, cuyo campo de aplicación radica en las observaciones más grandes de una muestra amplia de observaciones idénticamente distribuidas. Por lo tanto, este modelo considera el máximo valor que toma una variable aleatoria en periodos sucesivos de tiempo. Dichas observaciones son consideradas como los valores extremos de la serie para cada uno de los periodos seleccionados. El segundo tipo de metodología es conocido como picos sobre el umbral (POT por sus siglas en inglés), los cuales se basan en las observaciones de una muestra que exceden un límite o umbral previamente definido. Estos modelos a su vez se encuentran divididos en aquellos que son semiparamétricos, como los construidos alrededor del estimador de Hill, y los totalmente paramétricos, basados en la Distribución Generalizada de Pareto (GPD). En este caso, la serie original no es dividida en bloques, sino que se define un umbral a lo largo de su historia, y aquellas observaciones que lo exceden se consideran valores extremos. Una de las grandes ventajas que ofrece el modelo POT es que gracias al uso más eficiente de la información, es considerado como el modelo más útil en aplicaciones prácticas 3. RIESGO DE CRÉDITO En un mundo altamente competitivo, el paisaje empresarial está cambiando rápidamente. No hace mucho tiempo, los acreedores ofrecían crédito a título personal, a menudo eran a vecinos de la ciudad o grupos sociales conocidos. Como la toma de decisiones se hizo más centralizada, el método tradicional de revisión por un agente de crédito ya no era factible y tampoco rentable. Para realizar un proceso de decisión más racional y cuantificable, el acceso a información más predictiva se convirtió en un elemento imperativo y la información de crédito se volvió extremadamente valiosa, [12]. 7 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION Actualmente el tema del riesgo en las organizaciones se ha convertido en uno de los principales temas a tratar en las agendas de las compañías, especialmente el riesgo crediticio pues gran parte de la actual crisis se debe a falencias en la administración de este tipo de riesgo. Como se mencionó anteriormente el riesgo crediticio son las posibles pérdidas que se pueden generar por deterioro de la situación financiera de terceros que tienen obligaciones con la entidad, este tipo de riesgo se mide para activos con naturaleza crediticia por ejemplo préstamos comerciales, hipotecas, créditos de consumo, entre otros. A continuación se presentarán los elementos de medición del riesgo de crédito: 3.1 Pérdida Esperada El objetivo de la medición del riesgo crediticio es obtener la distribución asociada a las pérdidas de incumplimiento esperadas y no esperadas, y el promedio de esta distribución es la Pérdida Esperada (Expected Loss), es decir, el monto de capital que podría perder una entidad en un plazo determinado si la contraparte no cumpliera con las obligaciones contraídas. Este cálculo se debe realizar constantemente ya que permite afrontar futuras pérdidas y tomar medidas oportunas tales como hacer provisiones. Para su cálculo son necesarios los siguientes elementos: 3.1.1 Probabilidad de Incumplimiento (PD) Es la probabilidad de que un cliente caiga en incumplimiento en un período determinado. Su mínimo valor es cero, lo cual indicaría que es imposible que incumpla con sus obligaciones, y su máximo valor es uno cuando es seguro que incumpla. 3.1.2 Exposición (EAD) Estima la cantidad que el cliente adeudará al momento de que caiga en incumplimiento. 3.1.3 Severidad de la Pérdida (LGD) Es el porcentaje estimado de lo que la institución perdería en caso de que el cliente cayera en incumplimiento Teniendo estos tres componentes, la Pérdida Esperada es simplemente el producto de ellos: (1) 8 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION 3.2 Métodos de Pérdida Esperada El elemento más importante en la estimación de la pérdida esperada, es la probabilidad de incumplimiento. Para ello actualmente el método más utilizado de medición es el credit scoring que es objetivo pues utiliza herramientas más técnicas, haciendo que las entidades tengan un menor rol y hayan menos elementos subjetivos sobre la aprobación de un crédito. Aunque por supuesto el conocimiento y la experiencia de los analistas también juega un papel esencial, especialmente cuando la información relevante no puede ser capturada por un modelo Score, [12]. Los modelos de pérdida esperada son más conocidos como modelos de Credit Scoring están enfocados a identificar y medir el riesgo de crédito derivado del incumplimiento, el cual se asocia a la pérdida potencial, causada por la incapacidad de la contraparte de cumplir con sus obligaciones, [4]. El término de Credit Scoring hace referencia al uso de modelos estadísticos que transforman información relevante en medidas (numerales) que permiten tener un criterio o una guía para la toma de decisiones financieras particularmente decisiones en relación a la evaluación del crédito (aprobación o no de un crédito). A través de modelos de predicción (algoritmos, regresiones), las instituciones pueden predecir el comportamiento de un cliente basados en la historia crediticia del cliente y las referencias de prestamistas anteriores. De esta forma, los clientes se clasifican en buenos o malos, asociándoles un bajo o alto riesgo, respectivamente y se define cuales de esos clientes potenciales serán efectivamente aceptados por la entidad, [17]. Un scoring se refiere al uso de un numeral para ordenar o clasificar casos (personas, compañías, países) de acuerdo a percepciones cualitativas o cuantitativas, con el objetivo de discriminar, dividir o separar los distintos casos. Los Scores son usualmente presentados como un numeral que representan una característica, mientras los rangos son presentados usualmente como letras (A, B, C, etc) que representan una o más cualidades. Los score son creados por procesos probabilísticos (estocásticos) y no por procesos determinísticos. Usualmente en lugar de ver los modelos scoring como una herramienta de predicción, son usados para conocer la probabilidad de un evento futuro basándose en las experiencias del pasado, dependiendo la información que se tenga acerca del crédito los modelos se pueden clasificar en dos tipos, de iniciación o de comportamiento. Los modelos de iniciación son construidos utilizando variables socio demográficas del cliente y una vez obtenida la probabilidad de incumplimiento asociada al cliente se utiliza como un criterio para otorgar o no una solicitud de crédito, una vez se tenga un historial de pagos del cliente de variables como moras, número de solicitudes, número de pagos, etc., luego se procede a la construcción de los modelos de comportamiento los cuales permiten realizar provisiones de acuerdo a la probabilidad de incumplimiento hallada por medio de los modelos. Con el transcurso de los años y la evolución de herramientas estadísticas utilizadas en el scoring se han desarrollado especialmente dos técnicas de modelos de predicción de la probabilidad de incumplimiento: las paramétricas y las no-paramétricas. La técnica paramétrica se vale de modelos de probabilidad lineal, análisis de discriminación y regresiones logísticas. Por otra parte, las técnicas no-paramétricas dejan de lado la implementación de 9 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION supuestos y se valen de nuevos sistemas de aprendizaje como son redes neuronales, algoritmos genéticos y K-nn (estimación basada en un conjunto de entrenamientos o prototipos). Pero, precisamente por la implementación de las mencionadas metodologías la técnica no-paramétrica ha recibido críticas dirigidas a la falta de transparencia y sobreestimación de las probabilidades, [18]. 3.3 Técnicas Paramétricas Básicamente podemos hablar de tres técnicas importantes de tipo paramétrico (aquellas que requieren supuestos sobre los datos subyacentes) las cuales son: 3.3.1 Regresion lineal Esta técnica se dedica a la búsqueda de relaciones de tipo lineal entre las variables, donde la variable objetivo se denomina variable dependiente y es explicada por un conjunto de variables independientes o explicativas, cuyo objetivo es explicar la primera en términos de las demás variables o en estudiar cómo varia la primera con los cambios en cada una de las variables explicativas. El modelo de regresión es dado por (2) donde es el intercepto, mide el cambio en manteniendo los demás factores fijos y otros factores que además de influyen en con respecto a , para es el término de error que agrupa a . Para los modelos de scoring la variable dependiente es una variable binaria, dicotómica o dummy, donde la variable toma los valores de uno o cero. Para modelos de crédito ésta variable se relaciona con aprobación o no del crédito, calificación del cliente (bueno o malo), entre otros. Supóngase que para cada individuo o unidad experimental se define la siguiente variable aleatoria: Y= Los modelos con variables dummy son los modelos de escogencia discreta, dentro de éste grupo se encuentra la regresión lineal, pero se le da el nombre de modelo lineal de probabilidad. En los modelos lineales de probabilidad se encuentran algunos inconvenientes como son la violación del supuesto de heteroscedasticidad, pero la principal debilidad del procedimiento de estimación es que no hay posibilidad de restringir que los valores estimados estén entre 0 y 1, es decir, . 10 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION 3.3.2 Análisis discriminante Es una técnica que permite construir un modelo predictivo para pronosticar el grupo al que pertenece una observación a partir de determinadas características observadas que delimitan su perfil. El análisis discriminante es una técnica de clasificación y segmentación ad hoc que permite asignar o clasificar nuevos individuos u observaciones dentro de grupos o segmentos previamente definidos. Su objetivo es producir una regla o esquema de clasificación que permita predecir la población a la que es más probable que tenga que pertenecer una nueva observación o individuo, [16]. El modelo predictivo que pronostica el grupo de pertenencia de una observación en virtud del perfil define la relación entre una variable dependiente que es categórica y varias variables independientes. Por tanto, la expresión funcional del análisis discriminante puede escribirse como . Las categorías de la variable dependiente definen los posibles grupos de pertenencia de las observaciones o los individuos y las variables independientes definen el perfil conocido de cada observación. El objetivo principal del análisis discriminante es utilizar los valores conocidos de las variables independientes medidas sobre un individuo u observación para predecir qué categoría le corresponde para clasificar el individuo en la categoría adecuada, otra finalidad del análisis discriminante es poder determinar las diferencias entre los grupos y su interpretación, esto se realiza por medio de las variables discriminantes, cuando se valoriza las características que diferencian un grupo de otro se le denomina análisis discriminante descriptivo y el uso del análisis discriminante para la predicción del grupo de pertenencia se denomina función discriminante. Cada caso o individuo deben ser mutuamente excluyente, es decir, debe corresponder a uno y sólo a un grupo; el modelo discriminante tiene los siguientes supuestos básicos: normalidad multivariante, homocedasticidad, linealidad y ausencia de multicolinealidad. Una vez comprobados los supuestos, se obtienen una serie de funciones lineales a partir de las variables independientes que permitan interpretar diferencias entre grupos y clasificar los individuos. Las funciones lineales son llamadas funciones discriminantes y son combinaciones lineales de las variables discriminantes, en un caso donde la variable dependiente tiene G grupos denominado análisis discriminante múltiple, el número máximo de funciones lineales viene dado por , donde Cada una de las funciones discriminantes de las es el número de variables explicativas. viene dada por la siguiente función lineal variables explicativas (3) Los ejes discriminantes vienen definidos respectivamente por los vectores definidos mediante las siguientes expresiones 11 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION Sea la matriz within-group de la suma de cuadrados y de productos cruzados y sea la matriz between-groups de la suma de cuadrados y de productos cruzados. [8], sustentó la función discriminante lineal basada en los valores y vectores propios de . Para obtener el primer coeficiente discriminante ponderado , debemos maximizar son los valores propios en orden decreciente, tenemos para , donde (4) La solución a este problema se obtiene derivando cero, es decir respecto de e igualando a (5) (6) (7) Es decir que la obtención de un vector propio está asociado a la matriz no simétrica , obteniendo hasta ejes discriminantes los cuales no son ortogonales. Una vez obtenidas las funciones discriminantes, el siguiente paso es su interpretación la cual se realiza analizando la contribución de las variables independientes en la función discriminante correspondiente, para un individuo , al sustituir los valores de cada variable independiente en la función discriminante correspondiente se obtendrá la puntuación discriminante, cada coeficiente representará el cambio producido en caso de que una variable cambie. Para realizar la clasificación de los individuos es necesario basarse en las funciones de clasificación por grupos, las cuales realizan la clasificación de acuerdo a cuanto mayor sea la proximidad del individuo al grupo correspondiente, una vez teniendo las puntuaciones correspondientes se procede a establecer el grupo al que debe ser asignado, tomando el mayor valor de la puntuación y ese será su grupo. Otro procedimiento para realizar la clasificación es el de funciones de distancia generalizada, éste procedimiento se basa en el cálculo de la distancia de un caso a los centroides de cada uno de los grupos, los centroides se calculan reemplazando en cada función discriminante los valores de las 12 por su valor medio SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION en cada . Para el cálculo de esta distancia se usa la distancia de Mahalanobis, [14], por lo tanto se asignará un individuo a un grupo de acuerdo a la menor distancia de Mahalanobis calculada. Un procedimiento muy utilizado es usando las probabilidaddes de pertenencia al grupo, donde simplemente un individuo será clasificado donde su probabilidades de pertenencia sea mayor, éste método supone que todos los grupos poseen un tamaño similar, pero en caso de que los tamaños sean diferentes, se incorpora el cálculo de probabilidades a priori usando para ello técnicas bayesianas de estimación, lo cual permite mejorar la predicción y disminuir el error de clasificación; con la regla de bayes es posible calcular la probabilidad a posteriori que sería la probabilidad de pertenencia en cada grupo. 3.3.3 Modelo Logit y Probit A causa de las limitaciones del modelo lineal de probabilidad, se debe buscar otra herramienta que permita transformar en una probabilidad, se debe buscar una función tal que: (8) De tal modo que, la probabilidad de que es una función de las variables exógenas, así que para que tome valores entre cero y uno, debe ser una función de probabilidad. Para esto en la medición del credit scoring se han usado dos funciones de distribución de probabilidad, la primera la distribución normal estándar la cual se denomina modelo PROBIT y la segunda es una función logística llamada LOGIT, ambos que hacen parte de los modelos de selección discreta. La distribución normal no es la que mejor describe el comportamiento de la variable respuesta, la distribución Bernoulli es la que describe el comportamiento de la variable aleatoria , donde es posible que el evento tome dos valores (0,1) Para , cuando para tiene distribución Bernoulli con parámetro , la función de densidad de probabilidad tiene la forma: (9) 13 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS Para y REAL OPTIONS VALUATION . Esta distribución se encuentra dentro de la familia exponencial con parámetro natural .En la distribución Bernoulli, el valor esperado de es igual a la probabilidad de observar el evento de interés, la media se restringe al intervalo y la varianza es una función particular de la media. Un modelo que cumple con estas condiciones es (10) donde es el vector de , donde y variables explicativas para el individuo . La anterior expresión es conocida como función de regresión logística. Si este modelo se satisface que , cuando y cuando , para (11) El lado izquierdo de la expresión en (??) es llamado la función logit y es equivalente al logaritmo del cociente de la probabilidad de observar el evento sobre la probabilidad de no observarlo, es decir , donde (12) (13) El cociente es llamado razón de disparidad (odds ratio) o como los momios a favor de la opción . Para la ecuación (8) se tiene otra función de distribución asociada para la función logística a parte de y es la función de distribución normal estándar, esto es con media cero y varianza uno, así tenemos que: 14 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION (14) Así el modelo puede ser expresado de la siguiente manera (15) Que se puede expresar como (16) Dado que la distribución normal es simétrica es posible expresar (16) como (17) De tal forma se puede resumir la probabilidad de que la variable cero y uno de la siguiente forma tome valores de (18) (19) La diferencia entre las distribuciones normal y logística es que ésta última da más peso a las colas en la distribución, la estimación de estos modelos no es posible realizarla por el método de mínimos cuadrados ordinarios debido al incumplimiento de las propiedades de los estimadores ya que no son insesgados, por lo tanto la estimación es realizada por el método de Máxima Verosimilitud. Este método selecciona como estimador aquel valor del parámetro que tiene la propiedad de maximizar el valor de la probabilidad de la muestra observada, para lo cual es necesario construir una función de verosimilitud que expresa la probabilidad de obtener valores observados en función de los parámetros desconocidos. Se han realizado varios estudios para determinar cuál es el mejor método, el Probit o el Logit, aún no se ha llegado a una conclusión pero para modelos de scoring el modelo logístico ha tomado ventaja por su mejor poder predictivo, [5] hace una extensa explicación sobre esta conclusión. 15 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION 3.4 Técnicas no Paramétricas Ahora se tratará lo referente a las técnicas no paramétricas. Mientras que las técnicas paramétricas requieren muchos supuestos sobre los datos subyacentes, las técnicas no paramétricas requieren pocos o ninguno. Dentro de este grupo se encuentran técnicas como los árboles de decisión, redes neuronales, entre otros. 3.4.1 Árboles de decisión Los árboles de decisión son una herramienta gráfica, con una rama o raíz como la estructura de las cajas y líneas, que se utiliza para mostrar las posibles vueltas de eventos que pueden-o no-ser controlables, incluso el nombre implica que cada rama supone que representa opciones a disposición de una toma de decisiones. Los árboles de decisión también se utilizan para la visualización de datos en la clasificación y predicción de problemas. En general, los árboles de decisión no están bien adaptados para elaboración de modelos de predicción, pero hay casos en que se puede considerar. Un ejemplo de ello son los datos disponibles para un sistema de puntuación para el desarrollo de un nuevo producto. Esto podría ser abordado mediante la definición de una primera estructura de árbol usando los datos disponibles, y, posteriormente, la utilización de arranque (muestreo con reemplazo) para calcular las diferentes probabilidades de nodo terminal que luego se promedia. 3.4.2 Redes neuronales La humanidad en los últimos siglos ha tratado de sustituir los esfuerzos del hombre con las máquinas. Recientemente, este esfuerzo se ha extendido más allá del trabajo en el dominio del pensamiento y la toma de decisiones. Si bien el objetivo es hacer la vida más fácil, muchas personas temen que las computadoras, con el tiempo, obtengan la capacidad de pensar y funcionar de manera similar a los seres humanos. De hecho, el uso de cualquier modelo predictivo como parte de un proceso de decisión podría ser interpretada como la influenza aviar. Estas son las redes neuronales, que pueden describirse como elementos de cálculo de redes que pueden responder a los insumos, y aprender a adaptarse al medio ambiente. Éstas son, supuestamente capaces de imitar la manera en que funciona el cerebro humano, especialmente cuando se trata de auto-organización y aprendizaje. El resultado final es algo así como un árbol de decisión, excepto que el detalle es mucho más fino. 3.5 Pruebas de Evaluación 16 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION 3.5.1 Kolmogorov- Smirnov La prueba de Kolmogorov-Smirnov (KS) ([10]; [19]) es una prueba que se fundamenta en la curva de Lorenz en las teorías de crecimiento. En el caso de credit scoring, este estadístico se utiliza para evaluar el poder predictivo del sistema. La metodología que se lleva a cabo es la de tomar dos distribuciones, se fija un valor crítico y si el valor de KS es menor que ese valor crítico entonces habrá evidencia para decir que esas dos distribuciones son iguales y que el modelo tiene un buen nivel predictivo. La hipótesis nula de la prueba K-S es que las dos muestras provienen de poblaciones con la misma función de distribución Y se evalúa por medio de la siguiente estadística y la hipótesis nula es rechazada al nivel si Finalmente, el estadístico KS mide la diferencia entre dos distribuciones. Para el caso aplicado al scoring se evalúa si éste puede hacer distinción entre los préstamos buenos y malos. Por lo tanto hace una distinción en la distribución de scoring entre los buenos y los malos. Generalmente, el rango que toma el KS se encuentra entre 20 y 70. Se debe considerar que para la creación del este indicador se necesita de las frecuencias acumuladas tanto de los buenos como de los malos. 3.5.2 Curva ROC Basados en la curva de Lorenz y el indicador de Gini, se han usado estos conceptos como herramientas para el scoring y determinar el poder de predicción de una scoring. La Curva de Características Operativas (ROC)4 permite cuantificar la precisión discriminatoria de un modelo, este análisis se realiza por medio de una gráfica denominada curva ROC, el cual es un análisis de sensibilidad, sensitivity, que es la habilidad para marcar valores positivos que están correctamente clasificados y especificidad, specificity, que es la habilidad de marcar valores negativos que están correctamente clasificados, por lo tanto la sensibilidad es la verdadera tasa de valores positivos y la especificidad la tasa de valores 4 Receiver Operating Characteristic 17 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION negativos. Cuando esta curva tiende hacia la izquierda, entonces se dice que el modelo tiene un buen poder de predicción. Para todos los posibles puntos de corte o criterios de clasificación que se seleccionen para discriminar dos poblaciones, en este caso buenos y malos clientes, siempre habrá casos en los que se clasificarán correctamente a los buenos clientes como buenos (A: fracción positiva verdadera) y algunos casos en donde los buenos clientes serán clasificados como malos (B: fracción de falsos negativos). Por otro lado, algunos clientes malos serán clasificados como buenos (C: fracción de falsos positivos) y algunos clientes malos serán correctamente clasificados como malos (D: fracción negativa falsa). Lo anterior lo podemos describir por medio de la siguiente tabla: Buenos Malos Total Buenos A C A+C Malos B D B+D Total A+B C+D Modelo/Observado Tabla 1: Clasificación de clientes del modelo vs. Observado De acuerdo a lo anterior, se define lo siguiente: • Sensibilidad = • Especificidad = El rendimiento global de una prueba de diagnóstico se suele resumir el área bajo la curva ROC. Esta área se puede interpretar como la probabilidad de que el resultado de una prueba de diagnóstico de un sujeto anormal, seleccionado al azar será mayor que el resultado de la prueba de diagnóstico mismo de un sujeto normal seleccionado al azar. Cuanto mayor es el área bajo la curva ROC, mejor será el rendimiento global de la prueba de diagnóstico. 3.5.3 Chi-Square Es utilizada para medir o evaluar una hipótesis, comparando los datos reales con los estimados, en esta prueba se establece un límite de confianza, y se busca la relación lineal entre las variables, y por medio del p - valor establece una medida de confianza. Sin embargo el uso de esta prueba no garantiza plenamente la independencia o la dependencia de las variables, ya que está sujeto al nivel de confianza y al p - valor que 18 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION utilicemos para aceptar o rechazar la hipótesis nula, pero entre mayor sea el nivel de significancia utilizado menor será la probabilidad de rechazar erróneamente la hipótesis nula. Esta prueba es utilizada dentro del riesgo financiero, para estimar en cierta medida la tendencia de las variables con relación al tiempo, y estimar el riesgo con relación a las personas consideradas buenas o malas. Dentro del crédito es necesario tener en cuenta que el uso de esta prueba esta estimando unos datos, que en la realidad estos pueden verse afectados por otras variables. Los clientes son aceptados o rechazados dentro de los créditos dependiendo del grado de riesgo que se determine. Sin embargo el comportamiento de los créditos es dinámico y puede verse afectado por la infraestructura, la competitividad, los cambios en la economía, etc. Variables que no son independientes y por el contrario pueden estar muy correlacionadas entre sí. 3.5.4 Hosmer - Lemeshow El test propuesto por [9], comprueba que las variables que se están teniendo en cuenta en el modelo son las apropiadas dado que ayudan a identificar clientes buenos y malos. Este test es aplicado a los modelos de regresión logística. Por lo tanto, si las variables determinan el tipo de clientes, se deduce también que los modelos de regresión logística van a tener un buen nivel de predicción. Para calcular este test se debe tomar un muestra de los préstamos; de esta muestra se deben generar grupos y a partir de estos separar los clientes buenos y malos y hacer la diferencia entre los actuales malos y los que se esperan. Con cada grupo se hace la anterior operación y se realiza la sumatoria de los mismos, este gran total se divide entre los malos esperados multiplicados por la tasa de buenos. Un analista de riesgo debe tener presente todos estos indicadores que en conjunto van a evaluar el estado del modelo creado, no se debe desconocer que tanto la prueba KS como la curva de ROC son los más utilizados, sin embargo, es ideal contrastar con otro tipo de estadísticos que aumenten la certeza que se tiene sobre el modelo o que generen inquietudes sobre tales modelos. En definitiva el credit scoring es una herramienta indispensable y eficaz para la medición de riesgo, que debe complementarse con las funciones apropiadas y la moderación de los resultados, de tal forma que sea confiable en el momento de tomar una decisión o realizar una predicción. Adicionalmente, el calcular un nivel de riesgo permite a los prestamistas estimar un nivel de pérdidas (por probabilidad de impago de los clientes) o probabilidades de ganancia, según sea el caso. Por lo tanto, el uso de credit scoring es común en escenarios de oferta fija, aunque su uso en otros campos está creciendo actualmente, bajo la tendencia de expectativas de pérdida, en donde es tradicional el uso del valor en riesgo (VaR). Este modelo VaR es usado para la determinación de los requerimientos mínimos de capital que deben hacer los bancos, adoptado en el comité de Basilea II, [17]. A la hora de 19 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION escoger una técnica para modelar el riesgo de crédito se debe tener en cuenta la información con la que se cuenta, así como las herramientas tecnológicas disponibles y la experticia de quien vaya a modelar. Sin embargo la tendencia general es que no se llegue a un acuerdo sobre cuál modelo es superior o mejor ya que simplemente pueden ser construidos bajo técnicas o metodologías diferentes como por ejemplo aquellos que usan redes neuronales, ó los tradicionales de análisis estadístico, [11]. 2.3 RIESGO OPERACIONAL En los últimos años hemos asistido a un crecimiento progresivo de la preocupación de las entidades financieras por el riesgo operacional, un riesgo que, aunque siempre ha existido en la banca, quizás ahora se manifiesta con mayor intensidad, debido a factores como las mejoras experimentadas en las tecnologías y la creciente complejidad y globalización del sistema financiero. Como respuesta a este fenómeno, las entidades han ido incrementando paulatinamente los recursos asignados a este riesgo, pasando de la simple mejora de los sistemas de control al desarrollo de modelos de medición y gestión del riesgo operacional que intentan obtener una estimación razonable del impacto de futuras pérdidas. El Comité de Basilea ha venido a recoger la preocupación y la importancia que los supervisores otorgan a este riesgo, al haber introducido en el Nuevo Acuerdo de Capital de Basilea, unas exigencias de capital explícitas por riesgo operacional. Definición • Basilea II define el riesgo operacional como el riesgo de pérdida resultante de una falta de adecuación o de un fallo de los procesos, el personal o los sistemas internos, o bien como consecuencia de acontecimientos externos. Esta definición incluye el riesgo legal, pero excluye el riesgo estratégico y el riesgo reputacional. • Se asocian a errores que comete la entidad mandante, que se generan por: • Instrucciones equívocas dadas a la parte que ejecuta las órdenes • Por infidelidades de los funcionarios con la entidad. • Fallas en los sistemas, procedimientos, en los modelos, falla en capacitación, etc. 20 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION 2.3.1 Modelo del Indicador Básico (BIA) El cálculo se realiza multiplicando un factor de 15% por promedio de los tres últimos años de los ingresos netos anuales positivos de la institución. 2.3.2 Método Estándar (STDAOp) y Estándar Alternativo (ASA) STDAOp: Se clasifican los activos en ocho líneas de negocio y se les asigna un factor β que puede ser del 12%, 15% ó 18%. Cada factor se multiplica al promedio de los tres últimos años de los ingresos netos positivos; en caso de que el ingreso neto total sea negativo en algún año, entonces se sustituye el valor de ese año por cero. ASA: Se calcula igual que el STDAOp a excepción de dos líneas de negocio, la banca comercial y la minorista. En el caso de estas líneas de negocio, los préstamos y los anticipos son multiplicados por un factor fijo m = 0.035, y el resultado sustituye a los ingresos brutos como indicador de riesgo. 2.3.3 Método de Medición Avanzada (AMA) • División de la entidad en líneas de negocio y topologías de riesgo • Capital basado en el cálculo de las pérdidas esperadas e inesperadas (VaR del 99,9% en un horizonte temporal de un año. • Requiere de 2 funciones distribución: Frecuencia y Severidad. • De la combinación de ambas funciones deriva la distribución de perdidas por riesgo operacional VaR. 21 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION 2.3.3.1 Medición de la Frecuencia La frecuencia del riesgo operacional se refiere a la periodicidad en que se presente determinado fallo operacional. Las funciones de distribución más aplicadas a estos fenómenos: Binomial, Poisson, Binomial Negativa, Hipergeométrica Dsicretas 2.3.3.2 Medición de la Severidad La severidad hace referencia a la pérdida monetaria incurrida por la ocurrencia de un fallo operacional. Se trata entonces de variables de naturaleza continua. 22 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS 4. REAL OPTIONS VALUATION RISK SIMULATOR Risk Simulator es un software de simulación Monte Carlo, pronóstico y optimización. El software está escrito en Microsoft .Net y C# y funciona junto con Excel como complemento. Risk Simulator contiene los siguientes módulos: - Simulación de Monte Carlo Pronóstico Optimización Modelación y herramientas de análisis Los requisitos mínimos para Risk Simulator son: Procesador Pentium IV Windows XP o Vista MS Excel XP, 2003 ó 2007 80 MB en Disco Duro 1GB de RAM 23 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION 4.1 INTRODUCCIÓN A RISK SIMULATOR Risk Simulator funciona como un complemento a MS Excel facilitando su manipulación por medio de un menú de funciones que están disponibles en diferentes idiomas, inglés, español, francés, italiano, alemán, etc., además permite acceder a cada herramienta por medio de diferentes alternativas como son íconos, menús y el clic derecho del mouse. Gráfica 1. Menú Simulador de Riesgo En la gráfica 1 se observan cada uno de los íconos que contienen las funciones de Risk Simulator, a continuación se mencionará la funcionalidad de cada una de los íconos. ICONO FUNCIONALIDAD Es el ícono principal de Risk Simulator ya que permite acceder a todas las funcionalidad del software por medio de un menú de opciones, son las mismas funcionalidades de los demás íconos pero en un solo listado. Crea un nuevo perfil de simulación para almacenar todos los supuestos de entrada y pronósticos de salida. Puede tener múltiples perfiles en un solo modelo Permite seleccionar, eliminar o duplicar entre varios perfiles activos uno para realizar la simulación. Edita las preferencias del perfil activo, como son número de iteraciones, valor semilla de simulación, activación de correlaciones y el nombre del perfil. Establece en la celda activa un supuesto de entrada de distribución. La celda debe contener un valor y no una función. Establece en la celda activa como pronóstico de salida. La celda debe contener una función o ecuación. Copia un supuesto de simulación, la variable de pronóstico o de decisión con sus parámetros o vínculos a celdas correspondientes. 24 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION Pega las celdas copiadas con el ícono Copiar, supuestos de simulación, variables de pronóstico o decisión. Si después de dar Copiar se da ESC se copian los parámetros pero no los valores de la celda copiada. Quita el supuesto de simulación, variable de pronóstico o decisión. Corre la simulación a una velocidad regular (útil en modelos pequeños o cuando la súper velocidad no puede ser aplicada debido a errores en el modelo. La simulación se ejecuta a súper velocidad primero examinando el modelo y luego convirtiéndolo a código puro. No todos los modelos pueden correr a súper velocidad, por ejemplo cuando se tienen datos externos o funciones VBA. Corre la simulación paso a paso. Esto es muy útil para pronóstico de ilustración o para revisar si una celda de supuesto o pronóstico esta cambiando correctamente. Restablece la simulación a su estado inicial. El ícono Pronóstico emerge el listado de las opciones de pronóstico disponibles en el programa Ejecuta optimizaciones estáticas, estocásticas y dinámicas, crea un reporte si elige la optimización estocástica, lo anterior si se ha definido correctamente los supuestos, las variables de decisión y objetivo. Objetivo: Establece la celda la cual se maximizará o minimizará la optimización Decisión: Establece la celda la cual está relacionada con la celda objetivo Restricción: Son las restricciones generadas por las variables de decisión o de objetivo. El ícono emerge el listado de todas las herramientas analíticas disponibles en el simulador de riesgo, por ejemplo análisis estadístico, econométrico, distribución, etc. Cambia las opciones del programa como idioma, colores en los supuestos, pronósticos o decisión y permite que Risk Simulator inicie o no automáticamente con Excel. Permite obtener ayuda en línea sobre el programa, manual de usuario, modelos de ejemplo, información de contacto y otras fuentes de información Permite la administración de la licencia del software (instalación y actualización) 25 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION Despliega diferentes íconos de Risk Simulator para las opciones de Simulación, Pronóstico, Optimización y Herramientas de Análisis. 4.2 SIMULACIÓN CON RISK SIMULATOR Simulación es un modelo matemático o lógico, representativo de un sistema o un problema de decisión, con el que se obtienen resultados acerca del desempeño de las variables de interés para asistir al proceso de toma de decisiones. Dado un conjunto de valores para las variables de decisión, un estudio de simulación permite estimar cual es la distribución probabilística que siguen los resultados, junto a sus probabilidades de ocurrencia. El MÉTODO DE MONTE CARLO (propuesto por J. Von Neumann y S. Ulam) es una técnica de selección de números aleatorios a través de una o más distribuciones de probabilidad, para utilizarlas en una simulación. En un Monte Carlo, el muestreo artificial o simulado trata de crear un universo teórico descrito completamente por una LEY DE PROBABILIDAD que se supone conocida o adecuada. Posteriormente, de este universo se obtiene una MUESTRA aleatoria mediante una sucesión de números aleatorios. La simulación de Montecarlo consta de: • Un procedimiento de generación de números aleatorios • Un procedimiento de extracción de valores de las variables aleatorias • Un procedimiento de cálculo de las variables a pronosticar (el modelo) • Un procedimiento de acumulación de los resultados • Un procedimiento de repetición del experimento 26 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION X X Las variables aleatorias independientes X X Las Constantes El Modelo K X Las Variables Pronosticadas Las variables de decisión D Gráfica 2. Proceso de Simulación En la gráfica 2 se observa la relación que debe existir entre las variables y el modelo para realizar la simulación, de igual forma este procedimiento se debe realizar para hacer optimizaciones y para hacer optimización estocástica. Los pasos para realizar la simulación de Monte Carlo debe seguir los siguientes pasos por Risk Simulator: 1. 2. 3. 4. 5. Definir un perfil Definir variables supuestos Definir variable pronóstico Ejecutar la simulación Obtener reportes y/o datos 4.2.1 DEFINIENDO PERFIL Por medio del ícono Nuevo Perfil se definen las características para la nueva simulación, en el gráfico 3 se observa la ventana emergente del Nuevo Perfil, en esta ventana se define el nombre de la simulación, el número de iteraciones, si se activan las correlaciones, especificar la semilla del número aleatorio y si en el caso de encontrar errores en la simulación pausar o continuar la simulación. 27 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION Gráfica 3. Nuevo Perfil de Simulación En el caso en que ya se tengan varios perfiles de simulación, entonces se debe proceder a seleccionar un perfil de los disponibles en el libro activo. 4.2.2 DEFINIENDO VARIABLES SUPUESTOS Una vez activado o seleccionado el perfil de simulación, colocando el cursor sobre una celda que contenga un valor que vaya a ser seleccionada como variable de supuesto se da clic en el ícono de Supuesto de Entrada o clic derecho y la misma opción y se selecciona una distribución dependiendo si la variable es discreta o continua. • Tanto continuas como discretas • También se puede ajustar una función a los datos del comportamiento de la variable aleatorias • Es posible definir una función a la medida de los datos 28 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION Gráfica 4. Definir Supuestos Como se observa en la gráfica 4, hay un listado de posibles distribuciones que se ajustan de acuerdo al tipo de información disponible, al modelo o a la experiencia del analista. Cada distribución necesita unos parámetros que deben ser ingresados por el usuario o son el resultado de un ajuste de distribución anterior. 4.2.3 DEFINIENDO VARIABLES PRONÓSTICO Antes de la definición de una variable como pronóstico se debe hacer con anterioridad una definición del modelo tal como se explica en la gráfica 2, la variable pronóstico debe contener una función y/o fórmula que vincule las variables de supuesto y el modelo. Gráfica 5. Variable Pronóstico En la gráfica 5 se observa la ventana emergente como resultado de activar el ícono de Pronóstico de Salida, en esta ventana es posible definir el nombre de la celda de pronóstico, el nivel de precisión que por default es del 95%, el nivel de error y si se desea que haya una dinámica entre la simulación y la ventana de pronóstico. 4.2.4 EJECUTANDO LA SIMULACIÓN Finalizado el proceso de definición de variables supuesto y pronóstico se procede a ejecutar la simulación, se tienen las alternativas de Paso a Paso, Correr y Súper Velocidad. Gráfica 6. Ejecución de la Simulación 29 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION 4.2.5 RESULTADOS DE LA SIMULACIÓN Al momento de finalizar la simulación se obtienen los resultados correspondientes de acuerdo a los criterios seleccionados en el perfil de simulación, las variables supuesto y de pronóstico, se genera una gráfica de cada una de las variables pronóstico en el caso de haber sido activada la opción correspondiente. Gráfica 7. Gráfica de Pronóstico SI se desea obtener un reporte del modelo se va a Herramientas Analíticas Crear un reporte (gráfica 8) el cual muestra cuales fueron los supuestos y las variables de pronóstico. Gráfica 8. Reporte del modelo Si se desea obtener solamente los resultados del pronóstico Herramientas Analíticas Crear la Tabla Estadística del Pronóstico, de lo cual emerge la ventana de la gráfica 9. 30 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION Gráfica 9. Tabla Estadística de Pronóstico La tabla estadística de pronóstico (gráfica 9), permite obtener los resultados de los estadísticos descriptivos básicos de la variable de pronóstico, así como los percentiles que el usuario desee. Recordando en la gráfica 10 el procedimiento de la simulación de Monte Carlo Gráfica 10. Etapas de una Simulación La simulación de Montecarlo tiene varias ventajas entre las cuales tenemos: 31 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION • Además de la función estimada, otro resultado de la simulación es una medida del error entre la función calculada a partir de la muestra y la de la población. • En efecto, la desviación estándar de la muestra permite tener una medida de la calidad del estimativo, pero también de la mejora en este estimativo a medida que se incrementa el número de experimentos. • Así, la potencia del método de simulación de Monte Carlo descansa en su capacidad de entregar estimaciones muy cercanas a la de la población • Muestra la frecuencia de los valores estimados • Análisis de Certidumbre • Estadísticas y Percentiles PARA TENER EN CUENTA • Los supuestos son la clave para los procesos de simulación • Siempre ponga nombre a cada supuesto • Utilice datos si se tienen disponibles • Siempre considere las correlaciones posibles 4.2 EJEMPLO DE COSTOS TOTALES La empresa ABC desea hacer una mejor estimación de sus costos de producción dado que se encuentran enfrentados a muchos eventos aleatorios principalmente por la variación de los precios internacionales de las mercancías que usan como materias primas, para eso se usará Risk Simulator como herramienta para poder mejorar en la toma de decisiones. El primer paso es crear un perfil de simulación tal como se explicó en la sección anterior, se usarán 10.000 simulaciones y una semilla de simulación de 123456. A continuación se establece en MS Excel © el modelo correspondiente de tipo deterministico. 32 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION En este caso la relación es Costos totales = Costos fijos + Costos Variables, pero los Costos Variables es igual al Costo Unitario * Unidades producidas. El área de producción le comenta a usted la situación de la empresa, en la cual se ha tenido como histórico que el Costo Unitario (CU) han tenido un comportamiento de $ 1 por unidad, llegando a un máximo de $6, pero que en promedio es $3 el valor más común, luego le comentan que las Unidades Producidas (UP) es de mínimo 500 y máximo 1000. De acuerdo a lo anterior las celdas de CU y UP se asignaran como Supuestos de Entrada, la primera como una distribución triangular y la segunda como uniforme discreta. Posteriormente el objetivo de la simulación es la celda del Costo Total por lo tanto se selecciona como Pronóstico de Salida 33 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION Se recuerda que para que una celda se pueda definir como de Pronóstico debe tener una función y/o formula que se vincule con las celdas a simular. El modelo quedará visualizado de la siguiente forma: A continuación se realiza la simulación completa dando clic en el botón de Súper Velocidad. 34 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION Por lo tanto ya se puede conocer con un nivel de certeza a cuánto ascenderán los costos totales ante diferentes escenarios. 4.3 VaR por Método de Simulación de Montecarlo Para el cálculo del VaR por simulación de Montecarlo usaremos la ecuación de movimiento Browniano discreta dada por: Donde S es el precio de mercado, μ el rendimiento del activo, t el horizonte de estudio, σ la volatilidad del activo y ε una variable aleatorio normal estándar. AL valor del 95% de la cola derecha se le resta el precio final y este es el VaR para una acción. 4.4 Ejemplo de Evaluación de Proyectos Una empresa de confecciones considera un proyecto de inversión para una nueva planta de confecciones en un distrito de Lima, cuyas ventas se estiman en 30,000 unidades anuales durante los siguientes 5 años, con un precio de venta por unidad de S/.75 y un costo variable unitario de S/.25. Se estima un costo fijo de S/. 630,000. La inversión inicial fue de S/. 35 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION 2´800,000. La tasa de descuento que se utiliza es de 15% anual, con un horizonte de 10 años y un valor residual de S/. 350,000. Se pide calcular los indicadores de rentabilidad del Proyecto de Inversión, así como también realizar el análisis de riesgos correspondiente. Se debe considerar los siguientes datos para algunas variables: Escenarios Datos Bajo Medio Alto Volumen de ventas en unidades 27,000 30,000 39,000 Precios unitario 65 75 90 Costo unitario 20 25 35 El primer paso es crear un perfil de simulación, se usarán 10.000 simulaciones. A continuación se establece en MS Excel © el modelo correspondiente de tipo determinístico. 36 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION En este caso lo que se busca es construir el flujo de caja futuro del proyecto para un horizonte de 10 años, del cual el objetivo fundamental es obtener el valor del VAN. De acuerdo a lo anterior las celdas correspondientes a “Volumen de ventas”, “Precio Unitario” y “Costo Unitario” se asignarán como Supuestos de Entrada, todas como una distribución triangular. 37 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION El objetivo de la simulación es la celda del VAN (tal y como se mencionó líneas arriba) por lo tanto se selecciona como Pronóstico de Salida. A continuación se realiza la simulación completa dando clic en el botón de Súper Velocidad. Usando la gráfica de pronóstico como intervalos de confianza, tenemos: 38 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION Dentro de la Evaluación Económica de Proyectos de Inversión, un tema importante siempre ha sido el garantizar que el VAN sea mayor o igual a cero, dado que esto garantizaría que el proyecto es factible de ejecutarse. En este caso, calculamos la probabilidad de que el VAN sea mayor a Cero, y obtenemos una Certeza del 98% de que esto suceda. 4.5 OPTIMIZACIÓN CON RISK SIMULATOR Cuando se tienen restricciones presupuestales, de capacidad en planta, dinero, etc., el método de optimización genera la mejor solución, mayor rentabilidad ó minimizar el riesgo de una inversión, satisfaciendo ciertas condiciones pre establecidas o especificadas. Por ejemplo: • Cuáles acciones colocar en un portafolio, y qué participación darle a cada una. • Optimización de Inventarios. • Precios óptimos y tasas de regalías • Utilización de empleados para planeamiento de la fuerza de trabajo • Configuración de máquinas para programación de producción. • Optimización del equipo de trabajo para una línea de producción. • Localización de bodegas para distribución. • Flexibilidad en el diseño de manufacturas. • Políticas de tratamiento en administración de residuos. Los procedimientos de optimización son posibles con variables Continuas, discretas y discretas y continuas mezcladas. Los métodos de optimización disponible en Risk Simulator son: • Lineal • No lineal • Estática: Estimados rápidos de un solo punto • Dinámica: Simulación con Optimización • Estocástica: Múltiples iteraciones con distribuciones de variables de decisión Para realizar un proceso de Optimización con Risk Simulator se debe seguir el siguiente procedimiento: 1. Definir un perfil 39 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS 2. 3. 4. 5. 6. REAL OPTIONS VALUATION Definir variables de decisión Definir variable objetivo Definir las restricciones Ejecutar la optimización Obtener reportes y/o datos El procedimiento de definición de perfiles es similar al de la simulación de Montecarlo. 4.5.1 DEFINIENDO VARIABLES DECISIÓN Las variables de decisión son aquellas que necesitan ser ajustadas y probadas de acuerdo a unas restricciones que pueden ser un rango de valores discretos o continuos o tomar valores binarios, la combinación de estas variables permite llegar a una optimización de la variable objetivo. Para definir las variables de decisión en la sección de Optimización se da clic sobre el ícono Decisión de lo cual emerge la ventana que se observa en el gráfico 11. Gráfico 11. Variable de Decisión En la celda activa se establecerán los rangos que la variable puede tomar, entre ellos valores continuos o discretos y además está la opción de que la celda tome valores binarios 0 ó 1. Finalmente la celda queda por default resaltada con un color Azul que indica que es una variable de decisión. 4.5.2 DEFINIENDO VARIABLES OBJETIVO Las variable objetivo son aquellas que se maximizaran o minimizaran de acuerdo al modelo planteado, estas variables deben contener una formula o función que esté relacionada directa o indirectamente con las variables de decisión. 40 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION Al dar clic sobre Objetivo de la sección de Optimización, se debe estar previamente ubicado en la celda que será el objetivo. La ventana emergente (gráfica 12) necesita solamente que se indique el tipo de optimización. Gráfico 12. Variable Objetivo 4.5.3 DEFINIENDO RESTRICCIONES La definición de las restricciones puede ser antes o después de la definición de la variable objetivo, las restricciones pueden ser de igualdad “=”, mayor o igual que “>=” o menor o igual que “<=”. Gráfica 13. Definición Restricciones 4.5.4 EJECUTAR LA SIMULACIÓN Al finalizar el proceso de definición de variables y restricciones se procede a seleccionar el método de optimización, el cual puede ser estático, dinámico o estocástico, en la gráfica 14 se puede observar las opciones correspondientes. 41 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION Gráfica 14. Configuración Optimización En la ventana Resumen de Optimización del gráfico 14, es posible editar opciones con respecto a la optimización, tales como seleccionar de un conjunto de variables de decisión una o varias, de igual forma para las restricciones y se puede modificar la celda objetivo. Al finalizar la configuración se da clic en OK. 4.5.5 RESULTADOS DE LA OPTIMIZACIÓN Al finalizar el proceso de optimización se genera una ventana de resultado de la optimización, donde se presenta la gráfica de evolución de la optimización, así como el proceso de iteración correspondiente, en la gráfica 15 se puede observar un ejemplo de una optimización, una vez se tiene el resultado de la optimización se procede a reemplazar los valores iniciales por los valores optimizados. 42 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION Gráfica 15. Resultado de Optimización Finalizado el procedimiento es posible obtener reportes de la misma forma que se realizaba con la simulación de Montecarlo. Una herramienta muy poderosa que tiene Risk Simulator es la posibilidad de ejecutar optimizaciones estocásticas, ésta metodología es la inclusión de simulaciones de Montecarlo y Optimizaciones, la forma de modelación es la vinculación de los temas tratados anteriormente. 4.6 ANÁLISIS DE SENSIBILIDAD Y TORNADO A partir del Risk Simulator se pueden realizar análisis de sensibilidad y de tornado los cuales permiten identificar los factores, variables, supuestos, etc., que pueden influenciar de forma positiva o negativa en la(s) variable(s) objetivo. Para la ejecución de estas herramientas se hace de la siguiente manera, primero se ejecuta el procedimiento de optimización ya sea con o sin simulación, posteriormente se ubica en la celda objetivo de la optimización y en el ícono de Herramientas Analíticas Análisis de Sensibilidad o Análisis Tornado. A continuación en el Simulador de Riesgo Modelos de Ejemplo, seleccione el número 22 Análisis Tornado y Sensibilidad (lineal). 43 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION El ejemplo consiste en un Flujo de Caja de un proyecto de inversión, para realizar el análisis tornado se debe seleccionar una celda objetivo en este caso el Valor Presente Neto, por lo tanto se va a Herramientas Analíticas – Análisis Tornado 44 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION El análisis Tornado se realiza previó a las simulaciones dado que va analizar la relación que existe entre todas las variables del modelo y la variable objetivo, para lo cual usa un análisis de escenarios, por defecto el programa hace un incremento y una disminución del 10% sobre el valor base de cada variable en el modelo y observa como ante cambios en cada variable afecta a la variable objetivo. Gráfica 17. Análisis Tornado El reporte generado por el software explica cómo se debe realizar la interpretación y análisis de los resultados, el aporte principal del análisis tornado es que permite analizar cuáles son las variables que más importancia tienen con respecto al objetivo. Esto facilita parametrizar las simulaciones dado que se tendría como prioridad las variables de mayor relevancia dadas por la herramienta Tornado. El análisis de Sensibilidad se realiza posterior a las simulaciones, este procedimiento consiste en realizar múltiples perturbaciones para ver el resultado en la variable objetivo, para realizar el análisis de sensibilidad posteriormente a la simulación se debe ubicar en la celda objetivo ir a Herramientas Analíticas- Análisis de Sensibilidad. 45 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION Gráfica 16. Análisis de Sensibilidad 4.7 PRONÓSTICO Hay una preocupación por conocer lo que va a suceder en el futuro, dado que permite adaptar las acciones presentes a posibles resultados esperados o no deseables. Predecir anticipadamente el futuro de los aspectos de cada proyecto que tienen incertidumbre, a través de la medición de variables económicas, utilizando las herramientas apropiadas para cada variable, escenario o proyecto, las cuales pueden ser cualitativas o cuantitativas Risk Simulator provee al usuario de varias metodologías de pronóstico: • Box- Jenkins Arima • Regresión Lineal Múltiple • Extrapolación No Lineal • Pronóstico Estocástico • Análisis de Series de Tiempo • Cadenas de Markov • Modelos GARCH 46 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION 4.7.1 Regresión Lineal Uno de los principales objetivos de los modelos de regresión es explicar el comportamiento de un fenómeno –variable dependiente– a partir de un conjunto de regresores –variables independientes–. Con frecuencia la forma funcional que define la relación entre la(s) variable(s) dependiente(s) y los regresores ha sido establecida por alguna ciencia o disciplina. Sin duda, por su facilidad de interpretación, los modelos de regresión lineal son los más populares, los más empleados y los más fáciles de interpretar. Los pasos para realizar la regresión son, primero seleccione los datos que se encuentran ordenados en su archivo de Excel, segundo en el Simulador de Riesgo seleccione Pronóstico – Análisis de Regresión Tercero, seleccione la variable dependiente, y seleccione si es el caso, varias rezagas o incluir al modelo la transformación logaritmo natural a las variables independientes. Obteniendo un reporte como el siguiente: 47 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION Una vez tenga el modelo estimado y haya evaluada la significancia de cada una de las variables, evalué los supuestos del modelo de regresión lineal, para ello seleccione la base de datos y diríjase a Herramientas Analíticas – Herramientas de Diagnóstico, lo que le permitirá evaluar no multicolinealidad, no autocorrelación, homocedasticidad, normalidad, evidencia de procesos estocásticos, valores atípicos, entre otros. Lo que deberá seleccionar es la variable dependiente del modelo, y posteriormente obtendrá un archivo temporal de Excel en el cual encontrará todos los resultados del modelo. 48 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION 4.7.2 Análisis de Series de tiempo El análisis de series de tiempo consiste principalmente en identificar los componentes que tiene la serie de tiempo (estacionalidad, tendencia, ciclo y aleatorio) para poder realizar los pronósticos correspondientes. Risk Simulator cuenta con los siguientes modelos de análisis de series de tiempo Por ejemplo se cuenta con el siguiente histórico de ventas y se desea analizar con base en su comportamiento pasado el futuro de las ventas. 49 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION De acuerdo al gráfico se observa un comportamiento tendencial y evidencia de estacionalidad en la serie, para lo cual de acuerdo a los modelos se podría realizar una estimación por el método Aditivo o Multiplicativo de Holt- Winters. Al seleccionar los datos e ir al módulo de pronóstico – Análisis de Series de Tiempo emerge la siguiente ventana: 50 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION En la cual el usuario tiene varias posibilidades, entre ellas la primera y más sencilla, y es que el software seleccione el mejor modelo de los 8 posibles y adicionalmente que encuentre los parámetros que minimizan el RMSE (Root Mean Square Error). La segunda opción es que el usuario seleccione el modelo que considera evaluar de acuerdo a los datos, en este caso puede seleccionar entre que el software encuentre los parámetros que minimizan de igual forma el RMSE o por el contrario el usuario puedo ingresarlos manualmente. Al ejecutar Selección Ejemplar Automática 51 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION Se generan dos resultados el primero una tabla con los 8 modelos posibles con sus parámetros y el RMSE correspondiente, la tabla presenta el orden de selección de los modelos, en este caso el modelo seleccionado es un Holt-Winter Multiplicativo, en una hoja adicional se presenta la descripción del modelo y su interpretación similar a la siguiente imagen. 4.7.3 Pronósticos Box-Jenkins ARIMA Uno de los modelos más usado son los ARIMA (Modelos Autorregresivos (AR) Integrados (I) y de media móvil (MA)), los cuales buscan explicar el comportamiento de una serie por medio de su pasado y de los choques aleatorios o de error que haya sufrido en el tiempo, a este tipo de modelos se denomina dinámico. Para poder realizar un modelo ARIMA se debe partir que la serie es estacionaria, es decir que tanto su media como su varianza no cambian y no dependen del tiempo, se recomienda para este tipo de modelos tamaños muestrales amplios ya que permiten modelar mejor el comportamiento de la variable de estudio. Para el estudio de los modelos ARIMA se usa la metodología de Box – Jenkins, el primer paso es la identificación del modelo, segundo la estimación, tercero el diagnóstico y por último el pronóstico. 4.7.3.1 identificación de un modelo arima La correcta identificación de un modelo ARIMA requiere poder contar con la paciencia suficiente para poder realizar cambios, pruebas, estimaciones, etc., pero ante todo se debe tener claro que una correcta identificación puede evitar problemas futuros con los demás pasos. 52 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION Antes que nada se debe verificar el supuesto fundamental de los modelos ARIMA y es que la serie sea estacionaria, la primera aproximación es realizar una gráfica de la serie, para este ejemplo se usará una serie del IPP (índice de precios al productor) de Colombia, observemos la gráfica, para pegar una gráfica a Word se da clic derecho sobre el gráfico Copiar se selecciona el formato y se pega en la ubicación deseada. La gráfica nos da una primera conclusión de que la serie no es estacionaria, si se toman diferentes períodos muéstrales las medias y las varianzas serán distintas, cuando una serie es no estacionaria se dice de igual forma que la serie tiene raíz unitaria. Con Risk Simulator usted podrá verificar si la serie es estacionaria por medio de la herramienta de Análisis de Estadísticas en el menú de Herramientas Analíticas. Una vez seleccionados los datos: 53 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION Se debe seleccionar en el menú desplegable de Correr Series de tiempo Emerge una hoja nueva, en este caso se selecciona la hoja de Estocásticos y en la sección de Resumen Estadísticos, se observa la Probabilidad de Ajuste del Modelo Estocástico, si es mayor al 5% indica que la serie es no estacionaria. El otro método es por medio de la autocorrelación, en este mismo archivo se encontrará una hoja con ese nombre, por medio del gráfico de correlaciones se puede determinar si la serie es estacionaria o no dependiendo si la serie decrece lentamente o no. 54 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION Las autocorrelaciones parciales nos indican el componente AR y las simples el componente MA, en este caso dado que se diferenció una vez se dice que la serie es Integrada de orden (1). 4.7.3.2 Estimación Una vez se tenga la variable estacionaria y los posibles modelos identificados se procede a realizar la estimación del o los modelos propuestos. Los resultados de la estimación por RS nos permite revisar los coeficientes, la probabilidad asociada, estadísticos descriptivos y algunas pruebas. El segundo paso de la estimación es verificar la significancia de los rezagos y de los errores en este caso el rezago AR(2) y el MA(1) no son significativos, en los modelos ARIMA al igual que en MCO una variable puede ser la causante de la insignificancia de algunas variables, para ello se recomienda eliminar las variables con mayor probabilidad de ser no significativas. 4.7.3.3 Diagnostico El siguiente paso de acuerdo a la metodología de Box – Jenkins es realizar la diagnosis del modelo es decir verificar los supuestos del modelo y su correcta especificación y estimación, si 55 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION el modelo no presenta inconvenientes y cumple la teoría se procede a pronosticar o hacer impulso respuesta; en el caso de no cumplir algún supuesto o se presenta una mala definición del modelo se procede al primer paso la identificación del modelo. El primer paso es realizar la gráfica de los residuales y verificar si presentan problemas con su varianza, lo que puede ser efecto de coeficientes no incluidos o de outliers en la historia de la serie, ahora es conveniente realizar una prueba más robusta para ello usamos el Correlograma del modelo estimado, este correlograma es sobre los residuos del modelo si hay algún coeficiente significativo se debe incluir en la estimación. Una vez se tengan los modelos evaluados (recuerde tener por lo menos dos modelos) y que cumplan los supuestos de los modelos ARIMA, se debe seleccionar el mejor modelo ESTIMADO, para ello se usan los criterios de información que RS presenta: AIC (Akaike Information Criteria), BIC o SIC (Bayesian o Schuartz Information Criteria) y Hannan – Quinn, el mejor modelo será aquel que tenga los criterios de información más pequeños. 4.7.3.4 pronostico Como se mencionó anteriormente debe tener claro el usuario que se quiere con el modelo si una correcta estimación para lo cual para seleccionar el mejor modelo usa los criterios de información, pero si su objetivo es pronosticar se usan los criterios de evaluación de pronóstico. RS imprime los resultados de los estadísticos RMSE, MAE, MAPE y U-Theil para poder evaluar el o los modelos, si se tienen dos o más modelos, el mejor modelo será aquel que tenga éstos estadísticos más pequeños y una U-Theil menor que 1. 4.7.4 ESTIMACIÓN POR RS Risk Simulator cuenta con dos herramientas para la estimación de modelos ARIMA, la primera es la AUTO ARIMA, la cual realiza el procedimiento de identificación, estimación, verificación y pronóstico de manera automática. Primero se seleccionan los datos y en el menú de Pronóstico se selecciona AUTO-ARIMA 56 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION RS reporta los modelos que evaluó por medio del siguiente cuadro: Es importante anotar que en esta herramienta RS utiliza el criterio del R2 ajustado como herramienta de selección del mejor modelo. El reporte incluye una explicación estadísticas del procedimiento realizado por RS y de igual forma presenta los pronósticos del modelo y una gráfica para la estimación y otra para los residuales del modelo. 57 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION La otra forma de estimación es similar a la anterior, en Pronóstico se selecciona la opción ARIMA: 58 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION En este caso el usuario debe ingresar los parámetros del modelo ARIMA, es decir el componente Autorregresivo (AR), el integrado (I) y el de media móvil (MA). Generando un reporte como el siguiente: 4.8. PROCESOS ESTOCÁSTICOS Un Proceso Estocástico en una secuencia de eventos o caminos generados por las leyes de probabilidad. Esto significa que eventos aleatorios pueden ocurrir en el tiempo, pero son regidos por leyes estadísticas y probabilísticas especificas. Los principales Procesos Estocásticos incluyen la Caminata Aleatoria o Proceso Browniano, Regresión a la Media y los Saltos de Difusión. Estos procesos pueden ser utilizados para pronosticas una multitud de variables que aparentemente sigan tendencias aleatorias pero que están restringidas por las 59 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION leyes de la probabilidad. Podemos usar los Procesos Estocásticos del Simulador de Riesgo para simular y crear estos procesos. Estos procesos también pueden ser usados para pronosticar una multitud de datos de series de tiempo que incluyen, precios de acciones, tasas de interés, tasas de inflación, precios del petróleo, precios de la electricidad, p recios de bienes básicos o commodities , y muchos más. Usted tiene dos posibilidades para utilizar la herramienta de procesos estocásticos ubicada en el modulo de pronóstico, la primera es ingresar valores aleatorios en los parámetros de cada modelo para verificar algún tipo de comportamiento, el segundo es ajustar a una serie de datos histórica los parámetros correspondientes. Para la segunda opción debemos ingresar a Herramientas Analíticas – Análisis de Estadísticas Y seleccionar la opción de Estimación de Parámetro Estocástico, lo cual nos genera el siguiente reporte: 60 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION Una vez conocidos los parámetros del proceso estocástico, se procederá a realizar los pronósticos correspondientes por la ruta – Pronóstico – Avanzado - Procesos Estocásticos Una vez se ingresan los parámetros correspondientes se realiza el correspondiente reporte de las simulaciones que realizó el software de acuerdo al modelo y los parámetros ingresados. 61 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION 4.9 MODELOS LOGIT- PROBIT – TOBIT Las Variables Dependientes Limitadas describen las situaciones donde la variable dependiente contiene datos que están limitados en alcance y rango, como binarias (0 o 1), truncadas, ordenadas o datos censurados. Por ejemplo, dado un conjunto de variables independientes (p.ej., edad, ingreso, educación, cupo de tarjeta de crédito o tenencia de préstamo hipotecario), podemos calcular la probabilidad de incumplimiento utilizando la estimación de máxima verosimilitud (MLE – por sus siglas en ingles). La respuesta o variable dependiente Y es binaria, es decir, puede tener solamente dos posibles resultados que denotaremos como 1 y 0 (p.ej., Y puede representar la ausencia/presencia de una condición especifica, cumplimiento/incumplimiento de un préstamo previo, éxito/fracaso de algunos dispositivos, respuesta si/no en estudios, etc.). También tenemos un vector de variables independientes o regresores de X, los cuales se asumen con influencia en el resultado Y. Una típica aproximación con una regresión de mínimos cuadrados ordinarios es incorrecta porque los errores de la regresión son heteroscedasticos y no normales; y los resultados estimados de probabilidad resultantes serian valores sin sentido sobre 1 o debajo de 0. MLE se ocupa de estos problemas de análisis utilizando una rutina de optimización iterativa que maximiza la función logarítmica de verosimilitud cuando las variables dependientes son limitadas. Una regresión Logit o Logística es usada para predecir la probabilidad de ocurrencia de un evento para datos ajustados a una curva logística. Esto es generalizado en el modelo lineal utilizado para la regresión binomial. MLE aplicado en un análisis logístico multivariado binario es usado para modelar variables dependientes para determinar la probabilidad esperada de éxito de pertenecer a un cierto grupo. Los coeficientes estimados por el modelo Logit son cocientes logarítmicos de probabilidad, y no pueden interpretarse directamente como probabilidades. Un rápido cálculo es requerido primero y luego la aproximación es sencilla. Específicamente, el modelo Logit es especificado como Estimado Y= LN[Pi/(1–Pi)] o en cambio, , Pi = EXP(Estimado Y)/(1+EXP(Y Estimado)), y los coeficientes βi son cocientes logarítmicos de probabilidad, a fin de tomar el antilogaritmo o EXP(βi) obtenemos los cocientes de probabilidad de Pi/(1–Pi). Esto significa que un incremento en una unidad de βi incrementa la probabilidad en este monto. Finalmente, la tasa de cambio en la probabilidad dP/dX = βiPi(1– Pi). El Error Estándar mide la precisión de los coeficientes, y la t-estadística son los coeficientes de cada Coeficiente respecto a sus errores estándar, los cuales son usados en la prueba de hipótesis para calcular el nivel de significancia de cada parámetro estimado. Para estimar la probabilidad éxito de pertenecer a un grupo especifico (p. ej., predecir si un fumador desarrollara complicaciones pulmonares dado el monto de cigarrillos consumidos por año), simplemente calcule el valor Estimado Y utilizando los coeficientes MLE. Por ejemplo, si el modelo es Y = 1.1 + 0.005 (Cigarrillos) entonces para una persona que fume paquetes de cigarrillos por año tiene un Y Estimado de 1.1 + 0.005(100) = 1.6. Después, calcule la inversa 62 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION del antilogaritmo para el valor encontrado previamente de probabilidad EXP(Y Estimado)/[1 + EXP(Y Estimado)] = EXP(1.6)/(1+ EXP(1.6)) = 0.8320. Por lo tanto una persona tiene un 82.20% de probabilidad de desarrollar algún tipo de complicación pulmonar en vida. Un modelo Probit (algunas veces conocido como modelo Normit) es una alternativa popular de especificación para un modelo binario en cual emplea una función probit utilizando una estimación de máxima verosimilitud y la aproximación es llamada regresión probit. Los modelos de regresión Probit o Logistica tienden a producir predicciones similares, donde los parámetros estimados en una regresión logística son entre 1.6 y 1.8 veces más altos que los correspondientes a los coeficientes de un modelo Probit. La elección de un modelo Probit o Logit es enteramente relacionado con la conveniencia particular, y la principal distinción entre ambos se basa en el hecho que la distribución logística tiene una mayor curtosis (colas gordas) para tener en cuenta en los valores extremos. Por ejemplo, suponga que una familia tiene la decisión de adquirir una vivienda y su respuesta es una variable binaria (comprar o no comprar la vivienda) y depende de una serie de variables independientes Xi como son el ingreso, la edad, tal que Ii = β0 + β1X1 +...+ βnXn, donde el mayor valor de li, significa una mayor probabilidad de ser propietario de la vivienda. Para cada familia, existe un umbral crítico I*, donde si es superado la casa es comprada por alguien más, es decir, la cas ano es comprada, y la probabilidad de salida (P) se asume distribuida normalmente, tal que Pi=CDF(I) utilizando una función de distribución acumulada normal estándar (CDF). Por lo tanto, usa los coeficientes estimados exactamente igual a los de un modelo de regresión, utilizando el valor Estimado Y, y aplicar la distribución normal estándar (usted puede usar la función Excel DISTR.NORM.ESTAND o la herramienta de Análisis de Distribución seleccionando la distribución Normal y ajustando la media en 0 y la desviación estándar en 1). Finalmente, para obtener un Probit o unidad de probabilidad, defina li + 5 (esto es porque siempre la probabilidad Pi < 0.5, el estimado li es negativo, debido al hecho que la distribución normal es simétrica alrededor de una media de cero). El modelo Tobit (Tobit Censurado) es un método de modelación biométrica y econométrica usada para describir la relación entre una variable dependiente no-negativa Yi y una o más variables independientes Xi. Un modelo Tobit es un modelo econométrico en el cual la variable dependiente es censurada; esto es, la variable dependiente es censurada porque los valores debajo de cero no son observados. El modelo Tobit asume que existe una variable inobservable latente Y*. Esta variable es linealmente dependiente de las variables Xi vía un vector de coeficientes βi, que determina sus interrelaciones. En adición, el término del error Ui está distribuido normalmente para capturar la influencia aleatoria en esta relación. La variable observable Yi es definida como la igualdad de la variable latente siempre que las variables latentes sean superiores a cero y Yi es asumido como cero en otro caso. Esto es, Yi = Y* si Y* > 0 y Yi = 0 si Y* = 0. Si el parámetro de relación βi es estimado utilizando una regresión de mínimos cuadrados ordinarios de los observados Yi en Xi, los estimadores de la regresión calculada son inconsistentes y el coeficiente de la pendiente se encuentra insesgada hacia abajo y el intercepto insesgado hacia arriba. Únicamente el MLE podría ser consistente para un modelo Tobit. En el modelo Tobit, se tiene un complemento estadístico llamado Sigma, el cual e equivalente al error estándar de la estimación en una regresión de mínimos cuadrados 63 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION ordinarios y los coeficientes estimados son usados en el mismo sentido que en el análisis de regresión. Usando la siguiente base de datos, seleccione los datos y diríjase a Pronóstico – Avanzado – Modelo de Máxima Verosimilitud 64 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION Seleccione el modelo correspondiente, por ejemplo, LOGIT, y obtendrá el siguiente resultado: Como se comentó anteriormente, los coeficientes no son interpretados, se debe realizar la transformación Z / 1-Z, para conocer los coeficientes que permiten interpretar el aumento o disminución de probabilidades. 4.10 HERRAMIENTAS ESTADÍSTICAS Y ANALÍTICAS Risk Simulator cuenta con un gran número de herramientas estadísticas y analíticas que le permiten al usuario poder sacar la mejor información posible de sus datos o de sus simulaciones, pronósticos u optimizaciones. Entre las herramientas disponibles tenemos: Ajuste de distribución, simple y múltiple Exportar o Importar datos 65 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS Herramientas de Diagnóstico Análisis de Estadísticas REAL OPTIONS VALUATION 66 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION A manera de resumen: Ejemplo de un Modelo de Evaluación de Proyectos Usted está decidiendo invertir en un proyecto de venta de pescado fresco y se considerarán 3 estrategias respecto a la capacidad de la planta y terreno, calidad de equipos y calidad del personal y gerencia. Dado que dispone de poco capital se asume que se tendría que financiar el 80% con deuda y a una tasa de 15% anual a 4 años sin posibilidad de refinanciamiento. Se asume liquidación de todos los activos al término de los 5 años. Los datos estimados son los siguientes: Se estima ventas en efectivo el año 1 en 2MM y a una tasa de incremento de 10% por año y las cuentas por cobrar al final del año serían de 10% de las ventas anuales totales. La inversión en terreno, obras civiles y equipos se estima en 0.5MM, 1MM y 0.7MM. El capital de trabajo se estima en 0.8MM al inicio y a incrementarse en 8% anual del aumento de ventas. La planilla + costos laborales y otros gastos de personal se estima en 810M por año. Los costos variables se estiman cumplen lo siguiente CV = 30%*Ventas + 20,000*t , t=1,2,3,4,5, donde 30% es el porcentaje de costo en materia prima respecto a las ventas, y los 20,000 son otros costos variables. Se asume que el Capital de Trabajo se recupera íntegramente en la liquidación y las obras civiles se deprecian en 10% y los equipos en 15% anual. El impuesto a la renta se estima en 30%. Se estima la tasa de descuento en 14%. a) Elabore el Flujo de Caja y el Estado de Pérdidas y Ganancias con los datos mencionados. b) Identifique cuales son las variables que tienen un mayor impacto en el VPN del Proyecto mediante el diagrama de tornado asumiendo una distribución triangular para todas las variables del modelo y emplee simulación de Monte Carlo para analizar el riesgo involucrado. 67 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION c) Con los escenarios bajo, medio y alto aproxime una distribución normal para asignar a las variables del modelo, corra la simulación con estas distribuciones y analice los resultados. . d) Corra la simulación con 1,000 y 10,000 iteraciones. Compare la precisión de ambas. e) Suponga que hay la opción de continuar el negocio por 2 años más luego de conocer todas las incertidumbres. Como modelaría esta situación asumiendo que para ello a inicios del 6to año se tendría que invertir un 50% de la inversión inicial en terreno y obras civiles y 100% en maquinaria y equipo, y el valor de liquidación se mantiene igual y solo se descuenta la misma depreciación de los años anteriores. Los demás supuestos se mantienen iguales en los 2 años. Use Simulación para contestar las siguientes preguntas: – ¿Se incrementa el VPN esperado? – ¿Se incrementa la probabilidad de pérdida? – ¿Cuál es el valor de la opción? f) Suponga ahora que el nivel de ventas estará ahora restringido a una capacidad de la planta determinada de 3500 MM en ventas (se define la capacidad en términos monetarios). Es decir las ventas anuales no pueden ser mayor a esta capacidad. Corra la simulación con estos supuestos y compare los resultados con la anterior situación. 2. DETERMINACIÓN DE COSTOS DE UN PROCESO DE PRODUCCIÓN El objetivo del taller es tomar un ejemplo clásico de estimación de costos de una empresa del sector real, usando para ello las diferentes herramientas del software Risk Simulator: - Ajuste de distribución Establecer supuestos de entrada y salida Pronóstico con modelos ARIMA, Series de tiempo y Extrapolación Análisis de Escenarios Gráficas sobrepuestas La empresa de Aceros ABC desea determinar los costos de su proceso de producción el cual se divide en las siguientes fases: 1. Fundición 2. Formación Se tienen 3 materias primas, A, B y C. (MP), tiene unos costos de MOD (mano de obra directa) y MOI (mano de obra indirecta), además, CIF (costos indirectos de fabricación). El objetivo (VARIABLE OUTPUT-PRONOSTICO) es que pueda presentar un informe en el cuál indique con un nivel de confianza del 95% Costo total de Materiales. MOD, CIF y del total de costos del proceso de fundición (B30:E30) y de formación (H30:K30) respectivamente. HOJA 68 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION FORMATOS. Las Hojas Datos y Formato se encuentran vinculadas, por medio de las siguientes condiciones. Para la realización del ejercicio usted se reunió con las diferentes áreas que participan en el proceso recolectando la siguiente información. 1. En el proceso de fundición, la materia prima A tiene unos costos de mínimo $70.000.00, en promedio $95.000.000 y máximo $120.000.000 CELDA C4 HOJA DATOS, 2. Para la materia prima B, se consultó con el proveedor el cual afirmó que en promedio nos vende $23.000.000 y que en promedio nos desviamos como un 10% de ese valor CELDA C5 HOJA DATOS 3. Para el proceso de fundición la MOD aún no se tiene el dato actualizado pero se tienen los datos de los últimos 3 años los cuales están en la hoja MOD, realice un pronóstico por medio de la opción de Análisis de Series de Tiempo para ese dato faltante CELDA C8 HOJA DATOS 4. Para el proceso de fundición MOI se tienen los datos históricos en la hoja MOI de los últimos 2 años, se requiere tener en cuenta las posibles variaciones que puede tener esa variable en los resultados, para ello realice un ajuste de distribución CELDA C9 HOJA DATOS 5. Para el proceso de Formación los datos de materia prima C aún no se han calculado, por eso el gerente de producción recomienda utilizar los datos históricos que se encuentran en la hoja MP C y hacer un pronóstico por medio de un modelo ARIMA CELDA D6 HOJA DATOS 6. En la MOD del proceso de formación se tienen los siguientes datos históricos, úselos para poder determinar la distribución asociado a la MOD CELDA D8 HOJA DATOS. Nota: Distribución Personalizada VALOR $ 60,000,000,00 $ 66,000,000,00 $ 70,000,000,00 $ 75,000,000,00 FRECUENCIA 1 10 5 2 7. Los CIF del proceso de formación se deben pronosticar, para ello un especialista recomendó usar la metodología de la extrapolación, usando los datos de la hoja CIF del último año extrapole un período y use el pronóstico para el ejercicio CELDA D10 HOJA DATOS 8. Para el proceso de producción de fundición se requiere hacer un pronóstico de las Unidades Iniciadas (Uds Iniciadas), para ello usando los datos de la hoja UDS1 seleccione el mejor modelo entre un modelo de Series de Tiempo y uno de un modelo ARIMA CELDA B8 HOJA FORMATO 9. Realice el mismo procedimiento para el proceso de formación de acuerdo al numeral anterior usando los datos de la hoja UDS2 CELDA H8 HOJA FORMATO 10. La variable pérdidas normales es la misma para el proceso de fundición como para el de formación, obtenga la distribución asociada y para la estimación de los costos 69 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION establezca la distribución como una variable supuesto. CELDAS B9 Y H9 HOJA FORMATO Solucione las preguntas iniciales del taller que es generar el informe. 11. Por medio de un análisis de escenarios analice como ante cambios en la unidad de producción de unidades iniciadas y pérdidas normales de 10 unidades desde 1450 a 1600 para las unidades iniciadas y para pérdidas normales de 10 unidades desde 130 a 210 se produce cambio en el costo total. 12. Por medio de la opción de gráficas sobrepuestas compare los costos totales del proceso de producción fundición contra formación. 13. Genere un reporte de los resultados presentando el percentil 40%, 60%, 75% y 99% para los costos totales de cada variable supuesto 3. TALLER ESTADOS FINANCIEROS 1. Realice un modelo de Pérdidas y ganancias, completando la siguiente información para la realización del Estado de Pérdidas y Ganancias - Con los datos de los Ingresos descritos en la Hoja Ingresos analice cuál es la distribución asociada a los Ingresos, adicionalmente analice la variable por medio de la opción Análisis de Estadísticas verifique si los datos son normales, haga la prueba de que la media es igual a 550.000.000. - Se le preguntó al comité de costos sobre la distribución que tenían los costos, ellos argumentaron no tener conocimientos sobre distribuciones ya que solo son operarios, pero respondieron que los costos generalmente están entre 300.000.000 y 600.000.000 - Los gastos de personal no se han podido calcular dado un problema en el sistema contable de la empresa, por eso, se recomienda realizar un pronóstico de los últimos 4 años para conocer cuánto podría ser el valor del mes de diciembre Realice un pronóstico por medio de un módelo ARIMA de la hoja gastos de personal Realice un pronóstico por medio de Análisis de Series de tiempo Compare los RMSE, para el modelo ARIMA lo encuentra como suma del promedio de cuadrados y debe sacarle la raíz. Seleccione para pronosticar el módelo que tenga el menor RMSE - Los Honorarios tienen una distribución triangular con mínimo 1000000, máximo 10000000 y más probable 5500000 - Los Gastos Diversos, tienen una relación con un conjunto de variables, por lo tanto se desea estimar el valor del gasto diverso por una relación lineal, del tipo un modelo de regresión 70 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION lineal, en la hoja gastos diversos están los datos de 49 meses anteriores con los gastos correspondientes, pero no se ha calculado para el mes de diciembre el valor de éste mes, por lo tanto se desea utilizar un modelo de regresión lineal para poder realizar el análisis. - Debe pronosticar las variables Utilidad Antes de Impuesto y la Utilidad Neta del Ejercicio - Antes de realizar la simulación debe analizar las variables que afectan a la Utilidad Antes de Impuesto por medio de un análisis Tornado, posteriormente a la simulación realice un análisis de Sensibilidad 2. Utilizando el archivo Estimación de Costos, realice el ejercicio planteado en la hoja descripción 3. Realice el ejercicio de selección de portafolio 71 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS 5. REAL OPTIONS VALUATION BIBLIOGRAFÍA [1] Aragonés, J. R. and Blanco, C. and Mascareñas, J. M. and Pierce, M. El valor en riesgo en la gestión de carteras de acciones: el empleo de índices sectoriales como factores de riesgo en la gestión de fondos de renta variable. Revista europea de dirección y economía de la empresa, 9(4):113-122, 2000. [2] Becerra, O. and Melo, L. Medidas de riesgo, características y técnicas de medición: una aplicación del VaR y el ES a la tasa interbancaria de Colombia. Borradores de economía, 343, Banco de la República, 2005. [3] Bollerslev, Tim. Generalized Autoregressive Condicional Heteroscedasticity. Journal of Econometrics, 31:309 - 328, 1986. [4] Medición integral del riesgo de crédito. Limusa Noriega Editores, 2003. [5] Cox, D.R. The analysis of binary data. Methuen & Co., 1970. [6] Cox, D.R. and Snell, E.J. The Analysis of Binary Data. Chapman and Hall, 2 edition, 1989. [7] Engle, Robert. F. Autoregressive Condicional Heteroscedasticity with Estimates of the Variance of United Kingdom Inflation. Econometrica, 50(4):987 - 1006, 1982. [8] Fisher, Ronald. The Use of Multiple Measurements in Taxonomic Problems. Annual Eugenics, 7(4):179-188, 1936. 72 SOFTWARE SHOP INSTRUCTOR: BRAYAN RICARDO ROJAS REAL OPTIONS VALUATION [9] Hosmer, D.W and Lemeshow, S. Applied logistic regression. John Wiley and Sons, 1989. [10] Kolmogorov, Andrei. Grundbegriffe der Wahrscheinlichkeitsrechnung.. Springer, 1933. [11] Mays, Elizabeth. Credit Scoring For Risk Managers: The Handbook For Lenders. South-Western Educational P., 1 edition, 2003. 12] Mays, Elizabeth. Handbook of Credit Scoring. Glenlake Publishing Company, 2001. [13] Nagelkerke, N. J. A note on a general definition of the coefficiente of determination. Biometrika, 78(3):691-692, 1991. [14] Peña, Daniel. Análisis de Datos Multivariantes. Mc. Graw Hill, 1 edition, 2002. [15] Press, J. and Wilson, S. Choosing between logistic regression and discriminant analysis. Journal of the American Statistical Association, 73(364):699 - 705, 1978. [16] Pérez, Cesar. Educación S.A., 2008. Econometría Avanzada. Técnicas y Herramientas. Pearson [17] Raymond, Anderson. The Credit Scoring Toolkit: Theory and Practice for Retail Credit Risk Management and Decision Automation. Oxford Univerity Press, 2007. [18] Siddiqi, Naeem. Credit Risk Scorecards: Developing and Implementing Intelligent Credit Scoring. John Wiley and Sons, 2006. [19] Smirnov, N. Estimate of deviation between empirical distribution functions in two independent samples Bull. 2(2):3 - 16, 1933. [20] Tagliafichi, R. La danza de los cisnes ''blancos" y el cálculo del VaR. Palermo Business Review, (3):29 - 48, 2009. 73