Notas Decisiones e Incertidumbre 2014

Anuncio
UA – FCE - CEAg
MAESTRÍA EN AGRONEGOCIOS
CURSO: Introducción a los Agronegocios (2014).
NOTAS SOBRE DECISIONES BAJO CONDICIONES DE RIESGO.
Profesor: Alejandro Galetto.
1. Introducción (tipos de riesgos y respuestas posibles).
2. Modelos para el análisis de decisiones bajo riesgo.
3. Temas básicos de probabilidad.
4. Uso de probabilidades para la representación del riesgo.
5. Principios de simulación y principales técnicas de muestreo.
6. El modelo de utilidad esperada (UE) y las actitudes frente al riesgo.
7. Diferentes “criterios” para el análisis de decisiones bajo riesgo.
8. Bibliografía.
En estas notas se presenta el problema general del riesgo en la empresa agropecuaria, desde la
perspectiva del análisis de decisiones o planeamiento. La presentación está orientada
principalmente a la administración del riesgo de tipo productivo, originado en la variación de
precios y rendimiento, a través de su incorporación en modelos de decisión.
1. Introducción (tipos de riesgo y respuestas posibles).
El resultado de una acción puede caracterizarse como incierto cuando varias consecuencias son
posibles, independientemente del grado de “deseabilidad” de las mismas. Dicha acción se
transforma en riesgosa cuando alguna de las consecuencias tiene implicancias adversas sobre un
objetivo o criterio de desempeño (el resultado económico, por ejemplo). Desde esta perspectiva,
una situación incierta no sería necesariamente riesgosa.
Una distinción más formal entre estos dos términos, riesgo e incertidumbre, fue propuesta
originalmente por el economista norteamericano Franck Knight (1947), quién definió tres tipos de
conocimiento en relación con la posible ocurrencia de un suceso futuro: a) el conocimiento
perfecto o certeza, b) el riesgo, y c) la incertidumbre, distinguiendo a estos dos últimos de la
siguiente manera:
“… Para conservar la distinción que ha sido establecida en el capítulo anterior,
entre la incertidumbre mensurable y la no mensurable, podemos usar el
término riesgo para designar a la primera, y la palabra incertidumbre para la
segunda …. Podemos emplear también los términos probabilidad objetiva y
subjetiva para designar el riesgo y la incertidumbre, respectivamente … “
(Knight, op. cit., pp. 209)
1
La distinción planteada entre riesgo e incertidumbre fue casi universalmente aceptada por mucho
tiempo, aunque a mediados del siglo pasado comienza a tomar fuerza una corriente de
pensamiento que no acepta dicha distinción, pues entiende que toda consideración sobre el
futuro es esencialmente subjetiva.
Origen del riesgo
El riesgo que enfrenta la empresa agropecuaria puede ser desdoblado entre riesgo comercial y
riesgo financiero (Gabriel y Baker, 1980). El riesgo comercial es el que surge de la variabilidad del
resultado económico de la empresa (que a su vez depende de la variabilidad de rendimientos,
precios y costos), y es independiente de la forma en que dicha empresa está financiada. El riesgo
financiero depende en cambio de la composición patrimonial de la empresa, particularmente, de
la proporción del pasivo sobre el capital total.
El riesgo comercial puede tener diferentes orígenes (Sonka y Patrick, 1984), que son: (i) riesgo
técnico o productivo (expresado por la variabilidad del rendimiento), (ii) riesgo de mercado
(variabilidad de precios, tanto de insumos como de productos), (iii) riesgo tecnológico
(obsolescencia de ciertos equipamientos, por ejemplo), (iv) riesgos legales (cambios en la
legislación) y (v) riesgos humanos.
El productor tiene básicamente TRES opciones frente al riesgo, que son: (i) la reducción – y en
algunos casos la anulación-, (ii) el traslado y (iii) la aceptación, mediante su incorporación en el
modelo de decisión de la empresa.
La reducción o mitigación del riesgo son las diferentes alternativas de tipo productivo que tiene la
empresa para disminuir la probabilidad1 de ocurrencia de eventos con consecuencias adversas
(Pena y Berger, 2006). Por ejemplo, la selección de actividades con retornos más estables, o las
obras de infraestructura que limitan la variabilidad de rendimientos (el caso típico es el riego, pero
no es el único.
El traslado del riesgo ocurre cuando se transfiere el riesgo a otra persona o empresa, y los
mecanismos más comunes son los seguros, los mercados de futuro y los contratos de producción
y/o comercialización.
Finalmente, otra opción para la administración del riesgo en la empresa agropecuaria es su
incorporación en el modelo de decisión, según se explica en la siguiente sección.
2. Modelos para el análisis de decisiones bajo riesgo.
La administración del riesgo consiste en la aplicación sistemática de procedimientos y prácticas
orientadas a la identificación, análisis, evaluación, tratamiento y monitoreo del riesgo, y puede ser
organizada en una serie de pasos, que se describen en el Gráfico N° 1.
1
Por ahora, el término “probabilidad” se utiliza sin pretensión de un significado estricto.
2
Gráfico N° 1. Esquema general del proceso de toma de decisiones bajo condiciones de riesgo.
Definir el contexto.
Identificación de los
riesgos importantes
para la empresa.
Principales
aspectos
cubiertos por
las notas.
Estructurar el problema
separando sus
componentes.
Evaluar probabilidades o
grados de confianza en
los eventos o estados de
la naturaleza.
Preferencias del decisor
por las diferentes
consecuencias (actitudes
frente al riesgo).
Integrar los componentes
y seleccionar la mejor
alternativa.
Implementación, control y
evaluación.
a) Establecer el contexto de la decisión. Este paso (que incluye el análisis de las interacciones con
el ambiente y la organización administrativa) es más importante en empresas de gran tamaño. En
la empresa rural típica, es factible comenzar por el paso siguiente.
b) Identificación de los riesgos importantes para la empresa. Es importante un esfuerzo
sistemático de identificación, para asegurar que no se pasen por alto riesgos importantes. Un
repaso de los diferentes tipos de riesgos (productivo, mercado, tecnológico, etc.) puede ayudar en
la tarea. Obviamente, la propia naturaleza del riesgo a veces impide una adecuada consideración
de ciertos eventos cuyas dimensiones se desconocen.
3
c) Estructurar el problema. En términos sencillos, consiste en la adecuada definición de las
alternativas o opciones de decisión (¿fertilizar o no fertilizar?, carga animal alta, media o baja, etc).
d) Separar los principales componentes del análisis de riesgo. Establecidas (en el paso anterior)
las alternativas de decisión, el problema de riesgo tiene DOS componentes principales. El primero,
que es la determinación de las probabilidades de los diferentes eventos o estados de la naturaleza
(¿llueve mucho, normal o poco?, ¿precio alto, intermedio o bajo?). Más genéricamente, se verá
que a veces no se pueden establecer probabilidades en un sentido estricto, o clásico, sino que a
veces se definen “grados de confianza” respecto de la posible ocurrencia de un evento
(improbable, altamente improbable, muy probable, etc.), aunque finalmente, para su tratamiento
en los modelos de decisión, finalmente se recurre a una expresión de tipo probabilístico. El
segundo componente del análisis de riesgo es la determinación de las preferencias del decisor
frente a las distintas consecuencias posibles de las alternativas de decisión (una consecuencia es el
resultado de una alternativa de decisión frente a un determinado evento).
e) Integración de los componentes del análisis de riesgo. En esta etapa se define un “modelo” de
decisión, de los que existen numerosas variantes con diferentes exigencias o características en
cuanto a la forma en que se incorporan las probabilidades o grados de confianza y las preferencias
del decisor, y existen también variantes respecto del criterio o regla de decisión que permite
seleccionar la mejor alternativa.
f) Implementación, control y evaluación. La implementación puede tener diferentes niveles de
complejidad, dependiendo del tamaño de la organización, lo mismo que el proceso de control y
evaluación. Cabe recordar, respecto de este punto, que la implementación puede consistir en
alternativas de reducción o transferencia del riesgo, que requieren por sí mismas de una mínima
estructura y conocimiento para ser llevadas a cabo con éxito (ejemplo, operar con el mercado de
futuros). Finalmente, la evaluación permite, entre otras cosas, incorporar nueva información que
no estaba disponible en la formulación original del problema, retroalimentando y mejorando el
proceso de administración del riesgo.
Como comentario final respecto del proceso de administración del riesgo, cabe
mencionar los pasos indicados representan sólo un procedimiento formal y
lógico, en la medida que tiene en cuenta la variabilidad del fenómeno en
cuestión (tal como es percibida por el decisor) y las preferencias del decisor
frente a diferentes consecuencias. Como tales, estos pasos no garantizan un
“resultado correcto u óptimo” sino “una decisión correcta u óptima”, dados los
componentes del problema (y por supuesto, las limitaciones del modelo y del
criterio de decisión).
El esquema de administración del riesgo combina las alternativas de decisión, las probabilidades
(evaluadas de diferentes formas) de los eventos y las preferencias del decisor, en un “modelo” de
decisión, que con la ayuda de un “criterio”, permite la selección de la alternativa “óptima”. En la
práctica, hay diferentes tipos de modelos, que clasificaremos según el tratamiento de las
probabilidades y del riesgo, según se muestra en el Cuadro N° 1.
4
Cuadro N° 1. Clasificación de modelos para el análisis de decisiones según el tratamiento de las
probabilidades y de las preferencias del decisor.
Según el tratamiento de las preferencias del
decisor.
Clasificación de los modelos para el análisis de
decisiones.
Modelos que no
utilizan información de
probabilidades.
Según el
tratamiento de las
probabilidades.
Modelos que utilizan
información de
probabilidades.
Modelos que suponen
neutralidad frente a
consecuencias
riesgosas.
Modelos que
incorporan diferentes
actitudes hacia el
riesgo.
Análisis de sensibilidad e Teoría de los juegos
indiferencia.
(frente a la
naturaleza).
Modelos basados en el
valor monetario
esperado.
Maximización de la
utilidad esperada (y
variantes).
Criterios de seguridad.
Preferencias
desconocidas.
Fuente: Elaboración propia.
Estos modelos pueden ser implementados mediante diferentes “métodos”, que también
clasificaremos en tres tipos diferentes. En primer lugar están las matrices y árboles de decisión,
que se adaptan en general a problemas simples, de naturaleza discreta (o que pueden expresarse
en forma discreta). En segundo lugar, los métodos de simulación, a partir del muestreo estadístico
de una variable aleatoria. En tercer lugar, los métodos de programación matemática, que implican
la solución de una función objetivo lineal o no lineal, pero no serán tratados en estas notas.
3. Temas básicos de probabilidad.
En primer lugar, definimos el concepto de “variable aleatoria”. Si realizamos un experimento que
consiste en tirar un dado una sola vez, la variable aleatoria es el número que sale en la parte
superior, que puede tomar 6 valores (1, 2, 3, 4, 5 y 6). Cada uno de estos valores se denomina
“evento”.
En nuestro caso, típicas variables aleatorias son el precio de un producto (o de un insumo), el
rendimiento de un cultivo, el estado del tiempo (llueve, no llueve), entre las más comunes.
Algunas variables son típicamente “contínuas”, como el precio, que puede tomar cualquier valor
dentro del rango admisible, mientras que otras son “discretas”, como en el ejemplo de posible
muerte del reproductor (muere, no muere).
5
La suma de todos los eventos compone la “población”, que es el conjunto de todos los valores
posibles que puede tomar una variable aleatoria. Un “evento” puede ser definido también como
un subconjunto del espacio muestral (por ejemplo, que el precio de la soja se ubique entre 450 y
500 dólares la tonelada), y a cada evento se asocia un nivel de probabilidad.
Para estar correctamente definido en términos de probabilidad, un evento debe cumplir con tres
requerimientos:
a) La probabilidad de un evento debe ser mayor o igual a cero y menor o igual a 1. Si
pensamos que un evento no ocurrirá nunca, su probabilidad es cero, y si conocemos
con certeza que va a ocurrir, la probabilidad es uno. Entre ambos extremos se le
asignan probabilidades a los eventos según el grado de creencia (aquí es importante la
interpretación de probabilidad, que veremos más adelante) que tiene el decisor en la
posible ocurrencia del evento. En fórmulas, para un evento A, decimos que 0 ≤ P(A) ≤
1, para todo A.
b) La suma de las probabilidades de los eventos debe ser igual a 1. Recordemos que los
eventos son las posibles realizaciones de una variable aleatoria. Entonces, si la variable
es el estado del tiempo en relación con la lluvia, y si creemos que la probabilidad que
llueva es 0,40, entonces la probabilidad que no llueva debe ser 0,60, porque esta
variable aleatoria sólo tiene dos eventos posibles. Esta condición significa que los
eventos son “colectivamente exhaustivos”, es decir, que para eventos A, B, C y D,
tenemos que P(A)+P(B)+P(C)+P(D) = 1.
c) Los eventos son mutuamente excluyentes. Esto significa que si la probabilidad de un
evento A es 0,30 y la de otro evento B es 0,40, entonces la probabilidad de A + B =
0,70. En palabras, ello significa que si los eventos (realizaciones de una variable
aleatoria) están correctamente definidos no deben superponerse. En fórmulas, se
representa de la siguiente manera: P (A+B+C) = P(A)+P(B)+P(C).
Hay varias formas posibles de representar el rango de los posibles eventos de una variable
aleatoria y los valores de probabilidad asociados a cada uno de ellos, entre las que se pueden
mencionar (i) tablas, (ii) función de probabilidad (función de densidad y función de probabilidad
acumulada) y (iii) medidas descriptivas de la distribución (momentos), las primeras para
distribuciones discretas y las otras dos para distribuciones discretas y continuas.
La representación tabular es apropiada cuando los eventos posibles son pocos, o cuando se
pueden “discretizar” eventos continuos en rangos de ocurrencia.
Las funciones de probabilidad son relaciones matemáticas entre un evento o un rango de eventos
y la probabilidad de que la realización de la variable aleatoria ocurra en dicho evento o rango de
eventos. Las funciones de probabilidad se representan mediante funciones algebraicas, pero
también pueden ser aproximadas mediante gráficos o tablas (si el rango de eventos no es muy
amplio).
La otra forma de representar gráficamente una distribución de probabilidad es mediante su
“distribución acumulada de probabilidad”, también llamada función acumulada de probabilidad,
6
que representa la probabilidad que la variable aleatoria sea menor o igual a un determinado valor,
Pr (X ≤ x).
Las distribuciones acumuladas de probabilidad son muy importantes para la representación y
modelización del riesgo. Comenzando por su interpretación, la distribución acumulada nos indica
la probabilidad de que la variable aleatoria (la cantidad incierta) tome un valor inferior o igual a un
valor determinado. Por ejemplo, para una actividad determinada, la probabilidad que el margen
bruto sea igual o inferior al valor de los costos fijos. Y respecto de la modelización, existen
métodos que se apoyan en la obtención de distribuciones acumuladas para representar las
probabilidades que asigna el tomador de decisiones a determinados eventos / variables aleatorias.
Finalmente, el concepto de distribución acumulada también es central para los distintos métodos
de muestreo (simulación) de variables aleatorias.
Medidas descriptivas de las distribuciones de probabilidad.
Obviamente, no resulta sencillo trabajar con las representaciones gráficas de las funciones de
probabilidad, y la utilización de las fórmulas algebraicas tampoco es sencilla, para la mayoría de las
distribuciones de interés. Por esta razón, es bastante común caracterizar a las distribuciones a
través de “medidas descriptivas”, de las que interesan principalmente dos (Piggott, Marra,
Goodwin, Fackler y Denaux, 2006):
a) Medidas de la tendencia central,
b) Medidas de dispersión, y
Las medidas típicas de la tendencia central son la media aritmética (o promedio), el modo (o
moda, o valor típico) y la mediana, y se los considera, genéricamente, como un valor
“representativo” de un conjunto de datos. Por ejemplo, cuando afirmamos “que el promedio de
peso de un conjunto 50 de terneros es de 180 kg”, sabemos que la variable aleatoria “peso del
ternero” puede tomar 50 valores alternativos dispersos en un rango determinado, pero que “en
promedio” los terneros pesan 180 kg, estamos indicando la característica de la población con un
solo número. Esto es algo muy conveniente, pero no exento de problemas, bien representados por
ejemplo de la persona que “tiene la cabeza en el congelador y los pies en el horno, así que en
promedio está a la temperatura correcta”.
La media aritmética de un conjunto de N números X1, X2, X3, …, Xn se representa como
= (X1 + X2 + X3 + … + Xn) / n = ∑i=1,n Xi /n
Por ejemplo, para el conjunto de datos 8, 3, 5, 12 y 10, la media aritmética es
8 + 3 + 5 + 12 + 10) / 5 = 38 / 5 = 7,6.
Como se mencionó, la mediana se puede considerar también como una medida de la tendencia
central. Por ejemplo, para el grupo de números (ya ordenados) 3, 4, 4, 5, 6, 8, 8, 8, 10; la mediana
es 6 (incluido dicho número, deja a la mitad de los valores abajo y a la mitad arriba). Para otro
conjunto par de números 5, 5, 7, 9, 11, 12, 15, 18, la mediana será 0,5 x (9 + 11) = 10.
7
La otra medida de la tendencia central es el modo o valor típico, que a veces puede no existir. Por
ejemplo,
(i) en 2, 2, 5, 7, 9, 9, 9, 10, 10, 11, 12, 18; el modo es 9.
(ii) en 3, 5, 8, 10, 12, 15, 16; no hay un modo definido.
(iii) en 2, 3, 4, 4, 4, 5, 5, 7, 7, 7, 9; hay dos modos, 4 y 7, la distribución se llama “bimodal”.
La relación entre la media, la mediana y el modo se aprecia bien mediante una representación
gráfica de una función de probabilidad, como se muestra en el Gráfico 2, donde hay una
distribución denominada “simétrica”, en la que la media, la mediana y el modo coinciden en el
mismo valor.
Gráfico 2. Distribución de probabilidad simétrica.
Media
Mediana
Modo
En el Gráfico 3 se muestra una distribución que no es simétrica, es “sesgada”, donde la media, la
mediana y el modo no coinciden. Veremos más adelante que la ubicación relativa de estas
medidas de la tendencia central depende del tipo de sesgo (a la derecha o a la izquierda) de la
distribución.
Gráfico 3. Distribución de probabilidad no simétrica (sesgada).
Media
Modo
Mediana
8
Las medidas de dispersión indican el grado en que un conjunto de datos (o los eventos posibles, en
el caso de una distribución de probabilidad) tienden extenderse o concentrarse alrededor de un
valor medio. Las medidas de dispersión más empleadas son la variancia, la desviación típica (o
estandar) y el coeficiente de variación.
Las medidas de dispersión son muy importantes para la caracterización de la incertidumbre
asociada a una determinada decisión, porque indican en forma aproximada la probabilidad de
obtener valores extremos, diferentes de la media. En otras palabras, cuanto más dispersa es una
distribución de datos, menos “seguro” es el valor que podemos esperar de una determinada
variable aleatoria.
La variancia es una medida de dispersión que tiene en cuenta la distribución de los datos
alrededor de la media, y se deriva “lógicamente” de la idea que cualquier observación o evento
puede ser descompuesto de la siguiente manera:
Observación = Media + Desviación; por lo tanto  Desviación = Observación – Media
y la fórmula de la variancia es la siguiente:
S2 = [∑ (Xi - )2]/n
donde Xi son las observaciones, es la media y n es la cantidad de observaciones. En el siguiente
cuadro se detalla un ejemplo de cálculo, utilizando los mismos valores de rendimiento.
Cuadro 2. Cálculo de la variancia y la desviación estándar de un conjunto de datos.
Observación
A
B
Desv. A
1
1.3
1.4
-1.2
2
2.2
1.4
-0.3
3
2.2
1.6
-0.3
4
2.3
1.8
-0.2
5
2.3
1.9
-0.2
6
2.4
2.4
-0.1
7
2.5
2.8
0
8
2.6
3.0
0.1
9
2.9
4.3
0.4
10
4.3
4.4
1.8
Media
2.5
2.5
Suma de los desvíos elevados al cuadrado
Variancia
Desviación típica (estándar)
Coeficiente de variación
Desv. B (Desv.A)2 (Desv.B)2
-1.1
1.44
1.21
-1.1
0.09
1.21
-0.9
0.09
0.81
-0.7
0.04
0.49
-0.6
0.04
0.36
-0.1
0.01
0.01
0.3
0
0.09
0.5
0.01
0.25
1.8
0.16
3.24
1.9
3.24
3.61
5.12
0.512
0.716
29%
11.28
1.128
1.062
42%
Para calcular la variancia se comienza por calcular los desvíos de la media en forma individual. Así,
en la primera observación de la distribución A, se tiene que -1,2 = 1,3 – 2,5; y así sucesivamente.
Luego se elevan los desvíos al cuadrado y se los suma, obteniendo los valores 5,12 y 11,28, que
divididos por la cantidad de observaciones (10) permiten obtener la variancia, que en este caso se
9
simboliza con la letra S2 donde S2A = 0,512 y S2B = 1,128, dejando en claro que la distribución B está
mucho más dispersa alrededor de la media (que es menos representativa de la población). Otra
medida de dispersión muy utilizada es la desviación típica, o desviación estándar, que se simboliza
S, y es la raíz cuadrada de la variancia.
Si Ud. intenta calcular la variancia de la distribución A en Excel utilizando el comando
=VAR(…), obtendrá como resultado 0,5689, que es levemente más alto que el 0,512 que
nos muestra el cuadro. ¿Porqué?. Porque para obtener la variancia, el comando =VAR(..),
dividió por n-1, calculando lo que se llama un “estimador insesgado” de la variancia
poblacional, que es más correcto que dividir sólo por n (aunque no corregimos el cuadro).
La interpretación de la variancia en términos numéricos a veces no es sencilla, y algo parecido
sucede con la desviación estándar, especialmente cuando se quieren realizar comparaciones entre
distribuciones. Para ello se normaliza la desviación estándar dividiéndola por la media, y se
obtiene el coeficiente de variación, que se expresa en porcentaje, CV(%) = (S/ ) x 100, y que se
puede apreciar en la última línea del cuadro precedente.
Para finalizar este breve repaso de la probabilidad introduciremos una “medida de asociación”
entre variables. Para se ello se utiliza un indicador llamado “covariancia” (o covarianza), que se
calcula de la siguiente manera, para dos variables aleatorias, X e Y:
Cov (A,B) = ∑ i=1,n ∑ j=1,m [(xi – E(X)][(yj – E(Y)] Pr (X = xi y Y = yj)
La covariancia tiene el problema que es una medida que toma valores que dependen del rango de
variación de las dos variables, y sus unidades no tienen un sentido claro. Para ello, se transforma la
covariancia para obtener una medida estandarizada de dependencia, que se denomina
“coeficiente de correlación”, y que siempre varía entre -1 (la relación entre las variables es
negativa) y +1 (la relación entre las variables es positiva).
ΡA,B = Cov (A,B) / SA * SB
es decir, que el coeficiente de correlación entre las variables A y B es igual a la covariancia entre
ambas variables dividida por el producto de sus respectivas desviaciones estándar.
Este coeficiente de correlación se denomina “de Pearson”. Hay otra alternativa para calcular el
coeficiente de correlación entre dos variables, de tipo “no paramétrica”, que es el coeficiente de
correlación de rango o de Spearman. No paramétrico se refiere al hecho que el valor de este
estadístico no es afectado por el tipo de distribución de las variables, y es el que más se utiliza en
simulación (Vose, 2008).
Tipos de distribuciones más usadas2.
Hasta el momento se ha mencionado que existen distribuciones de probabilidad, que son
relaciones matemáticas entre un evento o un rango de eventos y la probabilidad de que la
realización de la variable aleatoria ocurra en dicho evento o rango de eventos. También se observó
2
Esta sección está basada en Pena de Ladaga y Berger (2006), en Vose (2008) y Clemen (1996).
10
que la distribución puede ser representada gráficamente o mediante tablas de frecuencia, pero
también puede existir una fórmula matemática exacta, y en ese caso se habla de distribuciones
teóricas de probabilidad (o paramétricas).
Generalmente, las distribuciones teóricas de probabilidades pueden ser del tipo discreto o
continuo. Las distribuciones discretas son aquellas que la variable aleatoria puede tomar un valor
específico dentro de un conjunto de valores, cada uno de los cuales tiene asignada una
determinada probabilidad de ocurrencia. La representación gráfica de una distribución discreta se
realiza a través de gráficos de columnas, cada una de ellas representando un valor y cuya altura es
la probabilidad de ocurrencia de dicho valor, como se muestra en la siguiente distribución discreta
(nótese que el rendimiento es una variable continua, pero al tomar el rango de frecuencias se
“discretiza” la función).
Vose (2008) enfatiza la distinción entre distribuciones paramétricas (o teóricas) y no paramétricas
(o empíricas). Como se mencionó, las primeras están definidas por un modelo (la matemática
define la forma), y se acercan mucho a la definición de distribuciones teóricas, mientras que las
distribuciones no paramétricas son aquellas cuya matemática es definida por la forma que se
requiera. Como ejemplo, podemos citar el caso de la distribución triangular, el histograma de
frecuencias, la discreta acumulada y la uniforme. Son intuitivamente fáciles de entender,
extremadamente flexibles y muy útiles para el análisis de riesgo. En estas notas se presentarán
sólo algunos tipos de distribuciones que parecen ser más útiles desde el punto de vista del análisis
del riesgo y como insumo para la simulación.
Distribuciones teóricas.
Distribución normal.
La distribución normal es la que está representada por el típico gráfico de campana (Gráfico 4), y
es probablemente la más popular de las distribuciones estadísticas3. La distribución normal es
particularmente apropiada para modelar situaciones en las que la variable aleatoria está sujeta a
numerosas fuentes de incertidumbre (Clemen, 1996). Asimismo, esta distribución es muy útil
cuando el fenómeno que estamos estudiando puede ser aproximado por una distribución normal.
3
Se atribuye al matemático francés Poincaré haber dicho que … “todos creen en la distribución normal de
los errores, los experimentadores porque piensan que es un teorema matemático, y los matemáticos
porque piensan que es un hecho comprobado empíricamente” (Kennedy, 1985).
11
Gráfico 4. Distribución normal.
Dada la distribución normal de una variable x, los parámetros son μ y σ, cuyos estimadores son
E(X)= μ y Var(X)= σ2. En un sentido estricto, la distribución normal está definida en el rango desde
menos infinito a más infinito, para las probabilidades asociadas con valores superiores a 3 o 4
desviaciones estándar de la media son tan bajos que se pueden ignorar (por esta razón es común
usar la normal para representar la distribución de la altura o el peso de las personas, porque el
valor extremo está suficientemente lejos del cero).
Para una variable aleatoria X que sigue una distribución normal se cumple que hay una
probabilidad aproximada del 68 % que su valor se encuentre dentro de una desviación estándar
por arriba y una desviación estándar por debajo de la media. De la misma manera, la probabilidad
que se encuentre dentro de las dos desviaciones estándar (por arriba y por abajo) es
aproximadamente del 95 %. En símbolos se representa de la siguiente manera:
Pr (μ – σ ≤ X ≤ μ + σ) aprox. 68 %
y
Pr (μ – 2σ ≤ X ≤ μ + 2σ) aprox. 95 %
Una forma muy común de representar la distribución normal es a través de la distribución normal
estandarizada, con parámetros μ = 0 y σ = 1, y cuyos valores de probabilidad están tabulados y
resultan práctico para el cálculo. La transformación de una variable normal en una normal
estandarizada Z se hace de la siguiente manera,
Pr (X ≤ x) = Pr (Z ≤ (x- μ)/ σ)
Entones, si tenemos una variable normal con μ = 10 y σ = 20 y queremos saber la probabilidad de
obtener un valor menor o igual a 35, se obtiene la variable estandarizada Z = (35-10)/20 = 1,25 y se
busca en las tablas correspondientes y se encuentra que al valor Z = 1,25 le corresponde una
probabilidad 0,8944 (hay un 89,44 % de probabilidad que el valor de X sea igual o menor a 35).
Distribuciones empíricas o no paramétricas.
Distribución uniforme.
La distribución uniforme asigna el mismo valor de probabilidad a todos los valores comprendidos
entre el mínimo y el máximo. Se utiliza como una aproximación cuando hay muy poca información
sobre la probabilidad de ocurrencia de una variable aleatoria. Por ejemplo, sabemos que una
12
determinada variedad puede tener un rendimiento que oscila entre 15 y 40 quintales por
hectárea, pero no estamos en condiciones de asignar diferentes probabilidades dentro de dicho
rango. El valor esperado de una distribución uniforme es igual al punto medio entre el mínimo y el
máximo. En el caso anterior, (15+40)/2 = 27,5.
Distribución triangular.
Esta distribución ha sido muy utilizada en el análisis de decisiones, particularmente para obtener
estimaciones subjetivas de probabilidad, porque sus tres parámetros (valor mínimo, valor más
probable o modo y valor máximo) son fáciles de interpretar. Según la ubicación del modo respecto
del mínimo y del máximo, puede ser simétrica o sesgada, tanto a la izquierda como a la derecha.
Supongamos un ejemplo de una distribución triangular de rendimientos cuyos parámetros son el
valor mínimo (a = 8 q/ha), el valor más probable (m = 20 q/ha) y el valor máximo (b = 26 q/ha). La
media de la distribución E(x) = (a + m + b)/3 = (8 + 20 + 26)/3 = 54/3 = 18.
La distribución acumulada tiene una fórmula relativamente simple,
F(x) = (x – a)2 / (b – a) * (m – a) ,
para x ≤ m
(a)
F(x) = 1 – [(b – x)2 / (b – a) * (b – m)],
para x > m
(b)
y estas dos fórmulas se pueden utilizar para estimar la probabilidad de alcanzar un determinado
rendimiento, por ejemplo, 15 q/ha. En este caso, como 15 < 20, se usa la fórmula (a),
F(15) = (15-8)2 / (26-8)(20-8) = 49 / 18 x 12 = 49 / 216 = 22,7 % aproximadamente, lo que indica
que hay una probabilidad del 22,7 % que el rendimiento sea menor que 15 q/ha.
La distribución triangular ha sido y es muy utilizada, pero se debe tener en cuenta que tiende a
sobrestimar el valor de probabilidad en las colas (cerca del mínimo y del máximo) y a subestimar la
probabilidad cerca del modo. En el siguiente gráfico se observa a la distribución tal como la
representa el programa @Risk.
Gráfico 5. Distribución triangular.
13
4. Uso de probabilidades para la representación del riesgo.
En la práctica, como lo indican Anderson, Dillon y Hardaker (1977) y Hardaker y col. (2004), la
utilización de probabilidades para el análisis de riesgo descansa en una combinación de elementos
objetivos y subjetivos, que implican un primer análisis de la información histórica disponible y su
combinación con otro tipo de información o conocimiento del decisor o de expertos externos.
Por ejemplo, supongamos una típica situación en la que el decisor, entre otras variables, tiene que
considerar la probabilidad de ocurrencia de diferentes niveles de precios para un producto como
la soja o la leche. La utilización de información histórica, por ejemplo, una serie de 20 años (19932012) nos da un valor promedio que para la soja está en el orden de los 230 US$/ton y para la
leche en 0,24 US$/litro4.
¿Cuál es el grado de relevancia de esta información para una decisión futura?. No mucho, porque
a mediados de la primera década de este siglo (2004-2007) la estructura de la economía mundial
(demanda china, otros emergentes, especulación con commodities, etc.) se transformó
radicalmente, y nadie espera, al menos con un grado de probabilidad significativa y en el corto
plazo, que los precios de estos productos se muevan alrededor de esos valores medios, sino
mucho más arriba. Lo que ocurre es que ha cambiado la naturaleza del fenómeno que explica el
comportamiento de estas variables aleatorias, y entonces la información histórica tiene una
validez muy limitada para proyectar el futuro.
Gráfico 6. Relación entre la estructura económica y los datos observados y no observados.
Estructura económica
del pasado
Datos
observados en
el pasado
Estructura económica
actual y futura
Datos futuros
aún no
observados
El verdadero interés del decisor radica en los datos aún no observados (¿cuál va a ser el precio del
producto el año que viene?; ¿qué rendimiento voy a obtener?). Por el otro lado, esos datos
futuros no surgen de un sistema (económico, productivo, etc.) totalmente desconocido. En
diferente grado, podemos extrapolar parte de la información pasada y combinarla con otros
elementos de juicio para obtener las probabilidades subjetivas o grados de creencia respecto de
una variable de interés.
4
Son valores aproximados.
14
Utilización de información histórica.
De la discusión previa surge que la información histórica de precios no es muy útil para el análisis
de decisiones (aunque sí puede ser de interés para la evaluación del grado de asociación entre dos
precios). La información histórica de mayor utilidad para el análisis de riesgo es la de
rendimientos, ya que si bien existe cambio tecnológico, y el rendimiento de hace 20 años no es
relevante como indicador del posible rendimiento el próximo año (en términos de tendencia o
valor esperado), la respuesta del rendimiento de los cultivos a las condiciones ambientales tiene
un grado de repetibilidad que justifica comenzar con un análisis de la información histórica.
El uso de series de rendimientos presenta el problema de “agregación” estadística, que consiste
en que la información a nivel de departamento o provincia tiene menor variabilidad que la
información a nivel de lote. Por ejemplo, en el Cuadro 3 se muestra la serie 15 años de
rendimientos de soja de la provincia de Santa Fe y de un departamento del sur (Iriondo) y otro del
centro (Castellanos). Allí se observa que los rendimientos en Iriondo son más estables que a nivel
de la provincia y que a su vez los rendimientos a nivel de la provincia son más estables que en el
departamento Castellanos.
Cuadro 3. Rendimiento (ton/ha) de soja en la provincia de Santa Fe y en los departamentos Iriondo
y Castellanos (1997-98 a 2011-12).
Campaña
Santa Fe
Iriondo
Castellanos
1997-98
2.87
3.15
3.13
1998-99
2.66
2.64
2.03
1999-00
2.32
2.29
2.51
2000-01
2.80
3.17
2.84
2001-02
2.65
2.87
2.12
2002-03
3.14
3.37
3.09
2003-04
2.59
2.83
1.87
2004-05
3.00
3.24
2.40
2005-06
2.92
3.32
2.73
2006-07
3.29
3.44
3.14
2007-08
3.35
3.87
3.01
2008-09
2.41
2.91
2.36
2009-10
3.93
3.39
3.46
2010-11
3.15
3.10
3.21
2011-12
2.72
3.24
2.26
Media
2.92
3.12
2.68
Desv. St.
0.41
0.38
0.49
12.1
18.4
CV (%)
14.1
Fuente: www.minagri.gob.ar
La variabilidad de los rendimientos a nivel de lote es incluso mayor que la variabilidad de los
rendimientos por departamento y por provincia. En el Cuadro 4 se muestran los rendimientos de
soja obtenidos por un grupo que siembra una superficie importante en el norte de la provincia de
15
Buenos Aires, donde se observa además que también hay diferencias importantes según el tipo de
suelo, lo que implica que la variación a nivel de lote, especialmente los de menor calidad, debe ser
más importante que en el nivel agregado.
Cuadro 4. Rendimientos (ton/ha) de soja en cuatro clases de suelo en la región norte de la
provincia de Buenos Aires (2003-04 a 2008-09).
Campaña
2003-04
Clase I
3.93
Clase II
3.19
Clase III
2.85
Clase IV
1.49
2004-05
4.02
3.87
3.41
2.51
2005-06
4.16
3.56
3.08
2.39
2006-07
4.03
3.56
3.47
2.98
2007-08
3.81
3.47
3.05
2.82
2008-09
2.43
1.61
1.24
0.83
Media
3.73
3.21
2.85
2.17
Desv. St.
0.65
0.81
0.82
0.84
25.33
28.89
38.49
17.36
CV (%)
Fuente: Asurmendi (2013).
En la mayoría de los casos los datos históricos no pueden ser utilizados para el análisis de riesgo
sin algún tratamiento adicional. Por ejemplo, en el caso de la distribución de rendimientos, es
normal que se presente una tendencia, producto del cambio tecnológico (en el caso de Iriondo el
aumento es del 1,3 % anual y en Castellanos es 1 %, bastante suave en ambos casos). Lo que se
puede hacer es calcular los desvíos alrededor de la tendencia y construir una nueva serie a partir
de un valor medio estimado para el momento actual, corregido por los desvíos obtenidos de los
datos históricos.
Frente a las dificultades para la utilización de información histórica, ya se porque es escasa, de
mala calidad, o directamente no está disponible, una alternativa es la generación de
probabilidades subjetivas, obteniendo directamente del decisor la información relevante para
estimar la distribución de la variable de interés. Existen una variedad de métodos que pueden ser
utilizados para estimar las probabilidades subjetivas (o para estructurar los “grados de creencia”
de los decisores) que se clasifican según involucren o no una motivación explícita (monetaria o de
cualquier tipo) en la tarea de estimación. Los métodos sin motivación son más sencillos pero
también más arbitrarios (Bessler, 1984). A continuación se presentan brevemente dos métodos
que parecen más apropiados por su simplicidad.
Estimación de probabilidades subjetivas según los grados de convicción.
En el ejemplo que se desarrolla a continuación, se trata de estimar la distribución de rendimientos
de un cultivo, pero también puede ser aplicado sin inconvenientes para el precio del producto,
cualquier otra variable aleatoria.
16
El primer paso consiste en dividir el rango de ocurrencia del evento incierto en intervalos
apropiados. Por ejemplo, en el Cuadro 5 se ha dividido el rango de ocurrencias posibles en 7
intervalos de 5 quintales. En la columna siguiente se colocan los “grados de convicción” que el
decisor tiene respecto de que el rendimiento ocurra en un determinado intervalo, en una escala
de 1 a 100 (la escala, así como la cantidad de intervalos, pueden ser modificados a voluntad). En la
tercera columna, se calculan las probabilidades subjetivas, dividiendo las entradas de cada fila por
el total de la segunda columna (320). Por ejemplo, la probabilidad de obtener un rendimiento
entre 25 y 30 q/ha es del 16 %.
Este método permite obtener la función de densidad de la variable aleatoria, y a partir de allí se
pueden obtener momentos de la distribución (media, variancia, etc.), y realizando la sumatoria
correspondiente, también permite obtener y graficar la distribución de probabilidad acumulada.
Además de colocar números, hay otras formas prácticas de medir los grados de convicción del
decisor (véase, por ejemplo, Piggott y otros, 2006; Hardaker y otros, 2004).
Cuadro 5. Estimación de probabilidades subjetivas mediante el método de los grados de
convicción.
Rendimiento Grados de
(q/ha)
convicción
(0 – 100)
<5
10
5 – 10
20
10 – 15
50
15 – 20
80
20 – 25
90
25 – 30
50
+ 30
20
320
Probabilidad
Subjetiva
10/320=0.03
20/320=0.06
50/320=0.16
80/320=0.25
90/320=0.28
50/320=0.16
20/320=0.06
∑ 1.00 (100%)
Estimación de probabilidades subjetivas mediante la distribución triangular.
La distribución triangular es un método conveniente para estimar probabilidades subjetivas
(aunque muchos prefieren las propiedades de la distribución PERT), pues sólo se requieren tres
números para especificar completamente la distribución: el mínimo, el más probable (modo) y el
máximo. Ofrece además un considerable grado de flexibilidad pues puede ser simétrica o sesgada.
En el ejemplo que sigue a continuación un decisor trata de estimar la distribución (triangular) de
rendimiento de un cultivo, cuyos parámetros son:
-
Rendimiento mínimo esperado (a): 8 q/ha
Rendimiento más probable (m): 20 q/ha
Rendimiento máximo esperado (b): 26 q/ha
donde el concepto de “minimo esperado” o “máximo esperado” no son absolutos sino que se
refieren a valores esperables una vez cada 20 años, por ejemplo.
17
Con estos parámetros la distribución es sesgada hacia la izquierda, con media o valor esperado
E(x) = (a + m + b)/3 = (8 + 20 + 26)/3 = 18.
Según Anderson, Dillon y Hardaker (1977), la distribución acumulada de probabilidad es la
siguiente:
F(x) = (x-a)2 / (b-a)(m-a)
para x ≤ m;
F(x) = 1- [(b-x)2 / (b-a)(b-m)]
para x > m
Estas fórmulas pueden utilizarse para estimar el nivel de probabilidad que el rendimiento sea
menor a un determinado valor. Por ejemplo, F(15) = (15-8)2 / (26-8)(20-8) = 49 / (18*12) = 0.227
(22,7 % aproximadamente).
De la misma manera, puede despejarse el valor de x que implica cierto nivel de probabilidad
acumulada F(x), que se simboliza como F-1(x), y que será retomado más adelante para explicar el
funcionamiento de la simulación.
5. Principios de simulación y principales técnicas de muestreo5.
La simulación puede definirse como la “utilización de un modelo para estudiar las propiedades de
un sistema real”, en el que el sistema real se representa por una serie de ecuaciones. Un ejemplo
de un modelo algebraico simple, muy utilizado en el análisis de decisiones agropecuarias, es el
margen bruto (MB),
MB = Py . Y – CV
donde Py es el precio del producto, Y es el rendimiento y CV son los costos variables. En el modelo
se definen variables de entrada (Py, Y, CV) y de salida (MB).
En un modelo de simulación estocástica o probabilística, alguna (o varias) de las variables de
entrada son “variables aleatorias”, es decir, que pueden tomar diferentes valores dentro del rango
definido por la distribución de la misma, y para cada uno de esos valores se va generando un valor
de la variable de salida.
El proceso de simulación es un método para obtener en forma repetitiva valores de las variables
de entrada de una determinada distribución especificada “a priori”. Los dos métodos más
comunes (también llamados métodos de muestreo, porque nos permiten obtener una “muestra”
de la población de la variable de entrada) son el tradicional Monte Carlo y el Hipercubo Latino,
más moderno.
Método Monte Carlo
El método está basado en el principio de la distribución acumulada de probabilidad F(x), que es
una función que representa la probabilidad que el valor de una determinada variable aleatoria X
sea igual o inferior a x, F(x) = P (X ≤ x), para 0 ≤ F(x) ≤ 1, como se muestra en el Gráfico 7.
5
Este capítulo es sólo de tipo introductorio. Para más detalles, puede consultarse con Pena de Ladaga y
Berger, 2006.
18
Gráfico 7. Propiedad inversa de la distribución acumulada de probabilidad.
1.0
0.5
Aprox 0.35
0.0
a
x
b
X
El Gráfico 7, que representa la distribución acumulada de probabilidad de X, se lee de la siguiente
manera: “la probabilidad de que X ≤ x es del 35 %”. El método Monte Carlo explota la relación
unívoca entre el valor de x y el nivel de probabilidad, asimilando este último a una distribución
uniforme definida en el espacio entre 0 y 1, U(0,1).
El primer paso del método MonteCarlo es entonces la generación de variables aleatorias a partir
de una distribución uniforme U(0,1), por ejemplo, 0,23; 0,01; 0,85; 0,55; etc., y luego se
transforman estos valores en un valor de la variable que se está muestreando, pero para ello se
requiere conocer la fórmula para la distribución acumulada inversa.
El método aplica con sencillez al caso de la distribución triangular, cuya función acumulada inversa
se puede despejar a partir de:
F(x) = (x-a)2 / (b-a)*(m-a) = U
para x ≤ m
(x-a)2 = U*(b-a)*(m-a)
(x-a) = [U*(b-a)*(m-a)]^1/2
X = a + [U*(b-a)*(m-a)]^1/2
para U ≤ (m-a)/(b-a)
y de la misma manera se puede despejar
X = b – [(1-U)*(b-a)*(b-m)]^1/2
para U > (m-a)/(b-a)
6. El modelo de utilidad esperada y las actitudes frente al riesgo.
Este modelo fue formalizado por J. von Neumann y O. Morgensten (VNM) en la década del ´40, y
hasta el día de hoy, a pesar de sus limitaciones, sigue siendo el enfoque de referencia para el
análisis de decisiones bajo condiciones de riesgo, tanto desde un punto de vista descriptivo como
prescriptivo.
El modelo postula básicamente que si un decisor se comporta de acuerdo con un conjunto de
axiomas de conducta “racional”, entonces es posible formular una “función de utilidad” que
representa las preferencias del decisor. Esta función re-escala los valores monetarios
correspondientes a las consecuencias de las acciones en cada estado evento. La escala es de tipo
19
ordinal, es decir, que frente a dos consecuencias lo único que hace es ordenarlas, pero no permite
inferior “cuántas veces” un resultado es superior al otro.
El elemento crucial para la utilización del modelo es la estimación de la función de utilidad del
tomador de decisiones. Uno de los métodos, propuesto originalmente por VNM, consiste en la
aplicación reiterada de uno de los axiomas que fundamental el teorema de la utilidad esperada, el
de equivalente de certeza. Para ello se define un “juego” donde se asignan niveles de utilidad
entre cero (0) y uno (1) al mínimo y al máximo resultado, respectivamente. A continuación se
selecciona un valor intermedio y se pregunta al participante del juego cuál sería la probabilidad P
a la que le resulta indiferente la obtención con certeza del valor intermedio o la participación en
el juego, con probabilidad P para el máximo resultado y (1-P) para el mínimo resultado. Puede
probarse (Hey, 1976) que dicho nivel P es la utilidad del resultado intermedio.
Un ejemplo
Un participante tiene la opción de entrar en un juego cuyos valores extremos son 0 y 1000. Según
lo indicado, U(0)=0 y la U(1000)=1. El valor intermedio se establece en 500 e interesa conocer la
U(500). Para ello se pregunta al participante cuál es el nivel de probabilidad P al que le resulta
indiferente participar en un juego cuyas alternativas son (a) recibir 500 con certeza, o (b) una
probabilidad P de recibir 1000 y (1-P) de recibir 0. Supongamos que la persona dijo 0,65.
Una vez determinada la utilidad (en la escala 0-1) de este resultado intermedio, se puede
continuar el juego, estableciendo otro nivel para el valor de certeza. Por ejemplo, podría
plantearse (a) recibir 750 con certeza, o (b) una probabilidad P de recibir 1000 y (1-P) de recibir 0.
Supongamos que la persona dijo 0,83. Y así sucesivamente.
El juego que se planteó en el ejemplo permite construir una “función de utilidad” para el
individuo, es decir, una función que le da diferentes valores de utilidad a los resultados
económicos o consecuencias de las decisiones, como se observa en el Gráfico 8.
Gráfico 8. Esquema general de una “función de utilidad”.
U(X)
U(1000)=1
Función de utilidad
U(500)=0,65
UE(X)=U(350)=0,50
500 = en el juego, valor medio con
certeza, con U(500)=0,65
350 = equivalente de certeza (EC) de un
juego que ofrece 50 % probabilidad de
0 y 50 % de 1000.
U(0)=0
0
350
500
1000
X
Tenemos que analizar como se deriva el gráfico de la función de utilidad a partir del juego
planteado, utilizando valores numéricos para facilidad de interpretación. La parte “incierta” del
20
juego está definida por los valores de X=0 y X=1000, y al decisor se le pregunta que valor P lo hace
indiferente entre 500 con certeza y P*1000 + (1-P)*0. Nuestro decisor dice “0,65”, lo que configura
el nivel de utilidad para el valor cierto (500, en el juego). El resto de la función de utilidad, con su
curvatura típica6, se obtiene por aplicación reiterada del juego.
Continuando con la interpretación del gráfico, el punto central es reconocer que la utilidad de un
valor monetario cierto 500 [que se lee en la curva de la función de utilidad] es siempre superior
(para un individuo que tiene aversión al riesgo) a la utilidad de una alternativa que tiene 500 como
valor monetario esperado [que se lee en la línea de puntos finos], o lo que es lo mismo, al
promedio de las utilidades U(0) y U(1000), que es 0,50.
Completando la interpretación del gráfico, se define un “equivalente de certeza (EC)”, que es el
valor cierto (350 en nuestro ejemplo numérico) que brinda el mismo nivel de utilidad que la
alternativa incierta, es decir, U(350) = EU(X), que se calcula en función de la línea de puntos finos
[en el gráfico, 500 es un valor intermedio, por lo que sería U(350) = 0,50*U(1000)+(10,50)*U(0)=0,507].
La forma de la función de utilidad y las actitudes frente al riesgo
La función de utilidad de un decisor puede tener tres formas básicas, según se muestra en el
Gráfico 9.
Gráfico 9. Actitudes hacia el riesgo y la función de utilidad.
U(X)
Aversión al
riesgo
Indiferencia
hacia el riesgo
Preferencia
hacia el riesgo
X
El caso de interés para el análisis de decisiones es el de funciones de utilidad que exhiben
“aversión al riesgo”, por lo que la forma general implica que el equivalente de certeza (CE) será
6
Ver más adelante la referencia a actitudes frente al riesgo y curvatura de la función de utilidad.
El primer P=0,65 fue para derivar la función de utilidad, y en este caso, P=0,50 se obtiene una vez derivada
la función de utilidad, y corresponde al valor esperado (promedio ponderado) de las utilidades y a la utilidad
el valor con certeza (350). Un punto central para no confundirse es entender que en este gráfico los valores
0 y 1000 corresponden a situaciones inciertas, 350 a una situación cierta, y 500 es, en un caso, un valor
cierto (cuando derivamos la función de utilidad) y luego, el promedio de dos situaciones inciertas.
7
21
siempre menor al valor monetario esperado (VME), lo que permite definir un “premio al riesgo”
(PR), como PR = VME – EC, que en el caso de nuestro ejemplo es PR = 500 – 350 = 150. Esto nos
permite aclarar que el concepto de “aversión al riesgo” no implica que el decisor no tome riesgos,
sino que para tomar un riesgo debe ser “compensado” por un valor tal que el valor esperado (es
decir, bajo incertidumbre) es mayor que el mismo valor bajo certeza.
Las funciones de utilidad en la práctica.
La estimación y utilización de funciones de utilidad para el análisis de decisiones no resulta
sencillo, por lo que el principal valor del modelo de utilidad esperada, tal como ha sido
presentado, es de tipo conceptual.
Como regla práctica para utilizar el modelo de utilidad esperada sin pasar por la función de
utilidad, se propone utilizar una tabla sugerida por Anderson y Dillon (ver Hardaker, Huirne,
Anderson y Lien, página 109) que propone lo siguiente:
Cuadro 6. Aproximación de coeficientes relativos de aversión al riesgo.
Coeficiente relativo
Tipo de conducta hacia el riesgo
de aversión al riesgo
0,5
Poco adverso al riesgo
1,0
Adverso al riesgo (normal)
2,0
Bastante adverso al riesgo
3,0
Muy adverso al riesgo
4,0
Extremadamente adverso al riesgo
7. Diferentes criterios para el análisis de decisiones bajo riesgo.
La aplicación del modelo de utilidad esperada al análisis de decisiones supone que las preferencias
(función de utilidad) del decisor pueden ser identificadas, cuantificadas y empleadas directamente
en el análisis (Anderson, Dillon y Hardaker, 1977). Sin embargo, por razones de costo y practicidad,
ello resulta bastante difícil. Más aún, en ocasiones en las que se ha intentado estimar la función de
utilidad, los resultados no han sido del todo satisfactorios, ya sea por problemas en las entrevistas,
en la estimación estadística o incluso por la propia incapacidad de los decisores para explicitar sus
preferencias (King y Robison, 1984).
Esta situación ha conducido al desarrollo de los denominados “criterios de eficiencia”, que a partir
de supuestos bastante generales acerca de las preferencias de los individuos, permiten ordenar
parcialmente las distintas alternativas de decisión que se consideren, dividiéndolas en dos
conjuntos mutuamente excluyentes: el de las alternativas dominantes y el de las dominadas.
El sacrificio de la “optimalidad” permite entonces seleccionar ciertas decisiones que son
“eficientes” para un grupo bastante amplio de individuos. El ordenamiento es sólo parcial, en el
22
sentido que el grupo de alternativas eficientes puede ser numeroso, y en general, sólo es posible
restringir dicha cantidad realizando supuestos adicionales sobre la conducta de quiénes toman
decisiones o sobre las características de la distribución de probabilidades (de la variable de
resultado).
Criterio de media-variancia.
Uno de los criterios de eficiencia más conocidos es el de “media-variancia”, desarrollado por
Markowitz en la década del ´50, quién propuso una regla de decisión que establece que el decisor
minimiza la variancia del beneficio (V) para un nivel dado de beneficio esperado (E).
Parametrizando el nivel de beneficio se puede obtener una frontera eficiente de media-variancia.
El criterio de media-variancia se justifica en términos del modelo de utilidad esperada cuando se
da una de las siguientes dos condiciones: a) que el beneficio se distribuye normalmente, o b) que
la función de utilidad del decisor es cuadrática. Ambos supuestos suelen ser bastante poco
realistas. Respecto del primero, porque la mayor parte de las evidencias empíricas indican que el
beneficio se distribuye como una lognormal, sesgado hacia la derecha, y la utilidad cuadrática no
es muy apropiada ya que implica que a partir de cierto punto la utilidad es decreciente. Sin
embargo, el criterio es muy popular y se sigue utilizando.
Una de las aplicaciones clásicas del criterio de media-variancia (E,V) ha sido para el análisis de
decisiones que impliquen portafolios de inversiones, o un plan de un establecimiento
agropecuario. En ambos casos, se trata de combinar varias alternativas de inversión, o actividades,
lo que permite definir la media y la variancia de una combinación que tiene una proporción qi de la
actividad i y cuya media y variancia están dadas por:
E = ∑i qi ei
y
V = ∑i ∑i cov ij qi qj
donde ei es el retorno esperado de la alternativa i y la covij es la covariancia entre las alternativas i
y j (se trata de la variancia cuando i = j).
En el análisis de portafolio es común expresar la variabilidad en términos de la desviación estándar
de los retornos, que es la raíz cuadrada de la variancia. Para el caso de una combinación de dos
actividades, la desviación estándar es:
S = [ a12*V1 + 2*a1*a2*ρ12*S1*S2 + a22*V2]0.5
donde a1 y a2 son las proporciones invertidas en ambas actividades, S1 y S2 son sus respectivas
desviaciones estándar, V1 y V2 son sus respectivas variancias y ρ12 es el coeficiente de correlación
entre ambas variables. Recordemos que el coeficiente de correlación se calcula de la siguiente
manera:
ρ12 = Cov(1,2) / S1 * S2
23
Ejemplo8
Se desea combinar dos alternativas de inversión. Una de ellas, X, tiene un retorno esperado de 12
% y una desviación estándar de 11 %, la otra, Y, tiene un retorno esperado de 18 % y una
desviación estándar de 19 %. La correlación entre ambas alternativas es 0,20 (recordemos que el
coeficiente de correlación toma valores de entre -1 y 1).
Cuadro 7. Selección de portafolios.
Portfolio Proporción Proporción Desvío Retorno
X
Y
Standard
1
1
0
0,1100
0,120
2
0,8
0,2
0,1026
0,132
3
0,6
0,4
0,1102
0,144
4
0,4
0,6
0,1301
0,156
5
0,2
0,8
0,1579
0,168
6
0
1
0,1900
0,180
Gráfico 10. Frontera de E,S (retorno esperado y desviación estándar).
0.200
Retorno esperado
0.180
0.160
0.140
0.120
0.100
0.080
0.0800
0.1000
0.1200
0.1400
0.1600
0.1800
0.2000
Desviación estándar
Mediante la utilización de las fórmulas indicadas más arribas se calculó el retorno medio y su
desviación estándar para las dos alternativas “puras” y para cuatro alternativas diversificadas, que
incluyen diferentes proporciones de X e Y, y luego se construyó el gráfico. La línea punteada que
une las alternativas “puras” es la que describe la posibilidad de diversificación si el coeficiente de
correlación entre los retornos fuese de 1,0. Mientras tanto, los puntos que reflejan las
8
Tomado de J. Van Horne, Financial Management and Policy.
24
combinaciones se alejan de la línea pues el coeficiente de 0,2 está indicando un buen potencial de
reducción de la variabilidad (o de aumento del retorno para un nivel dado de variabilidad).
Dominancia estocástica.
La dominancia estocástica es otro de los llamados “criterios de eficiencia”. Su utilización implica
una ventaja en relación al criterio E,V pues no requiere ningún supuesto acerca de la naturaleza de
la distribución de los retornos, y con respecto a las preferencias de los decisores, sólo supone
ciertas propiedades muy generales de la función de utilidad.
Para la aplicación práctica de este criterio lo que se hace es comparar entre distribuciones de la
variable de interés (resultado, margen bruto, beneficio, etc.), cada una de ellas representando a
una alternativa de decisión, y el resultado se expresa en términos de un subconjunto de
distribuciones dominantes y otro subconjunto de distribuciones dominadas.
Las diferentes versiones de este criterio requieren de supuestos más restrictivos de la función de
utilidad, distinguiéndose entre la dominancia estocástica de primer, segundo y tercer grado, y la
dominancia estocástica con respecto a una función.
Criterios de seguridad.
Se denominan también “criterios con restricciones probabilísticas”, y en la literatura especializada
se los conoce como “safety-first” (seguridad ante todo). Han sido desarrollados a partir del
supuesto que el decisor puede identificar un punto d en la distribución de la variable de resultado
por debajo del cuál se compromete seriamente el funcionamiento de la empresa, y en
consecuencia, desea minimizar la Pr (X < d).
El criterio más popular fue desarrollado por Telser, y establece que el decisor actuará de tal
manera de maximizar E(X) sujeto a Pr (X < d) ≤ α, donde α es un nivel de probabilidad dado, por
ejemplo, 20 %. A partir de un conjunto de alternativas, se identifican primero aquellas que
cumplan con la restricción Pr (X < d) ≤ α y dentro de este subconjunto se selecciona aquella que
maximiza el beneficio.
Gráfico 11. Representación gráfica de los criterios de seguridad.
α
d
E(X)
25
8. Bibliografía consultada.
Anderson, J., Dillon, J. and Hardaker, B. 1977. Agricultural Decision Analysis. Ames (IA): The Iowa
University Press.
Asurmendi, I. 2013. Comunicación personal.
Bernstein, P. 1998. Against the Gods: The Remarkable Story of Risk. New York: John Wiley & Sons.
383 p.
Bessler, D. 1984. Subjective probability. En: P. Barry (ed.) Risk Management in Agriculture. Ames:
Iowa State Univ. Press.
Clemen, R.T. 1996. Making Hard Decisions. An Introduction to Decision Analysis (2nd Ed.). Pacific
Grove (CA): Brooks/Cole Publishing Co. 664 p.
Delgado, G. 2006. Finanzas rurales: Decisiones financieras aplicadas al sector agropecuario.
Instituto Nacional de Tecnología Agropecuaria. 132 p.
Gabriel, S. y C. Baker. 1980. Concepts of business and financial risk. American Journal of
Agricultural Economics: 62: 560-64.
Galetto, A. 1991. Introducción a la toma de decisiones bajo riesgo en la empresa agropecuaria.
INTA. Estación Experimental Agropecuaria Rafaela. Notas de un curso dictado el 23 y 23 de
octubre de 1991.
Hardaker, J.B., Huirne, R. B., Anderson, J. y G. Lien. 2004. Coping with Risk in Agriculture (2nd Ed.).
CABI Publishing. 332 p.
Hirschleifer, J. y J. Riley. 1979. The analytics of uncertainty and information: an expository Surrey.
Journal of Economic Literature, 17 (4): 1375-1421.
Kennedy, P. 1985. A Guide to Econometrics. Cambridge: MIT Press.
Knight, F. 1947. Riesgo, Incertidumbre y Beneficio. Madrid: Editorial Aguilar.
Machina, M. 1987. Choice under uncertainty: Problems solved and unsolved. Journal of Economic
Perspectives, 1 (1):121-54.
Markowitz, H. 1952. Portfolio selection. Journal of Finance, 7:77-91.
Pena de Ladaga, S. y A. Berger. 2006. Toma de Decisiones en el Sector Agropecuario. Herramientas
de Investigación Operativa Aplicadas al Agro. Buenos Aires: Editorial Facultad de
Agronomía. 308 p.
Piggott, N., Marra, M. Goodwin, B., Fackler, P. y D. Denaux. 2006. Comprehensive Risk
Management Strategies: Putting it All Together (An Education Training Manual for County
Agents and Specialists in the Southern Region). North Carolina State University. Extension
Risk Management Education Center. 55 p.
26
Rae, A. 1994. Agricultural Management Economics: Activity Analysis and Decision Making.
Wallingford (UK): CAB International. 357 p.
Rodriguez da Cruz, E. 1984. Risco em modelos de decisão na agricultura. Brasilia: EMBRAPA – DEP.
Sonka, S. y G. Patrick. 1984. Risk Management and decisión making in agricultural firms. En: Barry,
P. (Ed.) Risk Management in Agriculture. Ames (IO): Iowa State University Press. 277 p.
Vose, D. 2008. Risk Analysis: A Quantitative Guide (3rd Ed.). Chichester: John Wiley & Sons
(Europe). 735 p.
Walker, O., Nelson, A. and Olson, C. 1984. Educational programs for risky decision making. En:
Barry, P. (Ed.) Risk Management in Agriculture. Ames (IA): The Iowa University Press.
27
Descargar