Decisiones individuales: Axiomas básicos del modelo estándar de

Anuncio
Decisiones individuales:
Axiomas básicos del modelo
estándar de elección racional
Decisiones Económicas: Individuales,
Colectivas y Estratégicas
Prof. Raúl López
Modelos de Elección Racional (I)
•
Modelo (matemático) = Explicación lógicamente completa, basada
en hipótesis precisas, formuladas en lenguaje matemático, y que
simplifican deliberadamente la realidad.
•
Modelo de elección o decisión = Teoría o explicación sobre cómo los
individuos toman decisiones.
•
Modelos de elección racional = Cualquier teoría sobre la decisión
humana basada en la idea de racionalidad (ver más adelante).
Habitualmente utilizados por los economistas en sus explicaciones.
2
Modelos de Elección Racional (II)
•
Nota metodológica: El uso de modelos tiene varias justificaciones
i.
Permiten obtener predicciones precisas (efectos netos) que pueden
ser testadas empíricamente.
ii.
Usar el lenguaje matemático permite ser detallados, claros y
precisos, y con ello ser honestos en cuanto a las premisas de
nuestro razonamiento.
iii.
La simplificación es obligada cuando la realidad es compleja. Cierto
grado de error es inevitable si queremos una explicación que sea
manejable (fácilmente comprensible y aplicable por los demás, por
ejemplo).
3
Modelos de Elección Racional (III)
•
Todo modelo de elección racional se basa en tres intuiciones
clave sobre el decisor D en un problema de decisión:
1.
D tiene creencias acerca del conjunto de alternativas o espacio de
elección: Algunas opciones son factibles y otras no.
2.
D tiene preferencias sobre las alternativas, que representan sus
gustos, intereses, objetivos, etc.
3.
Racionalidad: Entre todas las opciones que considere factibles, D
elegirá su preferida. Es decir, racionalidad = maximización.
4
Utilidad esperada (I)

Un modelo de elección individual busca explicar el comportamiento en
situaciones no interactivas (es decir, cuando el bienestar de D no
depende de las decisiones de otros).

El modelo de elección individual racional que los economistas usan
habitualmente se denomina teoría de la utilidad esperada.

Es una teoría/modelo sobre cómo deciden los individuos cuando existe
incertidumbre o riesgo.

Incertidumbre/riesgo = El decisor no está 100% seguro de las
consecuencias de su decisión sobre su bienestar.
5
Utilidad esperada (II)

En las páginas siguientes repasaremos brevemente los conceptos e
hipótesis fundamentales de la teoría de la utilidad esperada. Las
hipótesis aparecerán en negrita y subrayadas.

Nota 1: Una buena introducción a la teoría puede encontrarse en
Starmer (2000), JEL, 38, pp. 332-382. Este artículo también
discute evidencia empírica sobre el tema.

Nota 2: Las decisiones sin riesgo pueden considerarse un caso
especial de las decisiones con riesgo, por lo que el modelo también
puede usarse para explicarlas.
6
Loterías (I)
•
En todo problema de elección con riesgo, cada acción o
alternativa disponible recibe el nombre de lotería.
•
Toda lotería L se compone de dos tipos de cosas:
1.
Consecuencias (o resultados) que D piensa que pueden ocurrir
si escoge L.
2.
La probabilidad (o creencia) con la que D piensa que puede
ocurrir cada consecuencia si escoge L.
7
Loterías (II)
•
Comentarios:

Las consecuencias deben especificar qué valores tomarían en esa
contingencia todas aquellas variables que pensemos son relevantes
para el bienestar de D.

O directamente indicar la utilidad que éste obtendría si ocurriese esa
consecuencia.

En muchos modelos se simplifica y asume que lo único que le
importa al decisor de cada consecuencia es la riqueza
monetaria final que él obtenga en ella.

A menos que digamos lo contrario, ése será nuestro supuesto implícito en lo que sigue.
8
Loterías (III)
Más comentarios:
•
Para toda lotería L, asumiremos que las probabilidades que el
individuo asigna a todas las consecuencias suman 1. En otras
palabras:
Las
consecuencias
de
L
deben
ser
exhaustivas
y
mutuamente excluyentes.
•
Obviamente,
toda
lotería
L tiene que tener al menos una
consecuencia posible -es decir, con probabilidad mayor que 0.
•
Una lotería en la cual una sola consecuencia recoge toda la
probabilidad (es decir, 1) es claramente una opción segura o sin
riesgo, y suele denominarse lotería segura.
9
Loterías (IV)
•
Al asumir que la gente elige loterías asumimos implícitamente que el
decisor sabe asignar probabilidades a todas las consecuencias
que considera posibles de sus opciones.
•
Nota: Aunque a veces se distingue entre situaciones de riesgo e incertidumbre
según esas probabilidades sean objetivas o subjetivas, nosotros no haremos
uso de esta distinción.
•
Importante: La teoría sólo asume que D sabe asignar probabilidades,
pero no explica cómo lo hace. Las probabilidades son exógenas al
modelo.
•
Nota: Los procesos de inferencia o asignación de probabilidades se estudian en la parte II
de Kahneman (2011).
10
Loterías compuestas (I)
•
Concepto útil para lo que sigue: Una lotería compuesta es una
lotería en la que alguna consecuencia depende del resultado de
múltiples variables aleatorias.
•
Ejemplo: Suponga que tenemos una riqueza inicial de 1000 y
tiramos un dado, de modo que
1.
Si sale impar, se tira después una moneda. Si sale cara ganamos
100 euros, si sale cruz no ganamos nada.
2.
Si sale par, se vuelve a tirar el dado. Si sale 3 o menos, ganamos
2000. Si sale 4 o más, perdemos 1000.
11
Loterías compuestas (II)
•
Aplicando las leyes de la probabilidad, toda lotería compuesta
puede reducirse a una más simple, pero equivalente.
•
Así, la lotería compuesta recién mencionada puede describirse
como una lotería simple con 4 niveles de riqueza final posibles: 0,
1000, 1100, y 3000; todos ellos con probabilidad 0,25.
•
Importante: Se asume que el decisor es capaz de aplicar
correctamente las leyes de la probabilidad, de modo que está
indiferente entre una lotería compuesta y su equivalente simple.
12
Utilidad esperada: Preferencias (I)
•
Sea un conjunto cualquiera de loterías y un decisor D que tiene que
escoger una de ellas.
•
Asumimos que D tiene preferencias sobre el conjunto de
loterías. Es decir, le importan tanto las consecuencias de sus
acciones como las probabilidades de que aquéllas ocurran. Además,
estas preferencias son racionales, es decir:
1.
Completas. Dadas dos loterías cualesquiera, D puede decir si
prefiere una a otra o si está indiferente entre ellas.
2.
Transitivas. Sean tres loterías cualesquiera 1, 2, y 3. Si D considera
1 al menos tan buena como 2, y 2 al menos tan buena como 3,
entonces debe considerar 1 al menos tan buena como 3.
13
Utilidad esperada: Preferencias (II)

En otras palabras: A la hora de decidir entre una serie de
alternativas, todo decisor sabe ordenarlas por orden de preferencia,
y esta ordenación no es contradictoria (transitividad).

Un argumento común para defender la transitividad es que si las
preferencias de D presentaran ciclos del tipo 1 ≺ 2, 2 ≺ 3, 3 ≺ 1,
entonces D podría estar dispuesto a pagar en una serie de
intercambios (1 por 2, 2 por 3, 3 por 1) que le acabarían llevando a
la situación original, pero dejándole más pobre.

Este tipo de intercambios parecen poco frecuentes, lo cual sugiere
que la hipótesis de transitividad es razonable.
14
Utilidad esperada: Preferencias (III)
•
También se asume que las preferencias son continuas.
•
Sean L1, L2 y L3 tres loterías cualesquiera ordenadas por orden de
preferencia (es decir, L1 es la mejor de las tres).
•
Continuidad = El individuo es capaz de indicar cierta probabilidad
ρ de modo que esté indiferente entre elegir la lotería intermedia L2
o una lotería compuesta donde con probabilidad ρ sale elegida L1 y
con probabilidad 1- ρ sale elegida L3.
•
Continuidad es una hipótesis técnica que asegura, junto con
racionalidad,
la
existencia
de
una
función
de
utilidad
que
represente las preferencias.
15
Utilidad esperada: Preferencias (IV)
•
Asimismo, se asume que las preferencias satisfacen el llamado
axioma de independencia (propuesto por von Neumann y
Morgenstern en 1944).
•
La idea es que la preferencia entre dos loterías L1 y L2 no se ve
afectada si combinamos cada una del mismo modo con una tercera
lotería L3 (independientemente de cuál sea).
•
En otras palabras, si dos loterías son idénticas en alguna parte (es
decir,
en
algunas
consecuencias
y
sus
probabilidades),
las
preferencias sobre ellas sólo dependen de la parte en la que sean
distintas.
16
Utilidad esperada: Preferencias (V)
•
Ejemplo sencillo: L1 es la lotería segura ‘3500 €’ mientras que L2 es
la lotería ‘0 € con probabilidad 0,2 y 4000 € con probabilidad 0,8’.
Supongamos L1 preferido a L2.
•
Independencia implica que la lotería compuesta [L1 sale elegida
con probabilidad p, y otra lotería L3 (la que sea) sale elegida con 1p] es preferida a una lotería compuesta similar en la que L1 se
sustituye por L2. (Ejemplo: L3 lotería segura 0 €; p = ¼)
17
Función de utilidad esperada
•
Todas estas hipótesis implican que las preferencias del individuo
sobre las loterías pueden representarse por una función de utilidad
con forma de utilidad esperada.

Bajo nuestras hipótesis, esto quiere decir dos cosas:
1.
Existe una función de utilidad u de la riqueza (o el dinero), que
normalmente asumiremos creciente (el dinero da utilidad) y
continua.
2.
La utilidad de una lotería L con N consecuencias monetarias y
probabilidades respectivas p(c1), p(c2), p(c3),..., p(cN) es:
18
U(L)  u ( c1 )  p ( c1 )      u ( c N )  p ( c N )
Aversión al riesgo
•
Finalmente, es habitual suponer que los individuos son aversos al
riesgo. Es decir, entre una lotería L con riqueza media E (valor
esperado) y una lotería que da riqueza E con total seguridad, se
prefiere la segunda.
•
Puede demostrarse que la función de utilidad del dinero de un
individuo averso al riesgo es cóncava.
•
En otras palabras, la utilidad marginal del dinero para un individuo
averso al riesgo es decreciente.

Nota adicional: Riesgo ≡ varianza -> Entre dos loterías con igual riqueza
media, un averso al riesgo prefiere aquella con menor varianza, al menos si
ambas loterías tienen sólo dos consecuencias.
19
Aprendizaje y dinámica (I)
•
Aprendizaje Bayesiano: Si D recibe evidencia objetivamente
nueva y relevante sobre las loterías, actualizará las probabilidades
de las consecuencias aplicando la regla de Bayes.
•
Intuitivamente, la idea es que D entiende qué es una probabilidad
condicionada y sabe hacer los cálculos necesarios para actualizar una
probabilidad dado que cierta condición se ha producido.
•
Recordemos que la probabilidad condicionada de un suceso A dado
otro B, p(A|B), se define como:
p(A  B) p(B | A)·p(A)
p(A | B) 

p(B)
p(B)
20
Aprendizaje y dinámica (II)
•
Teniendo en cuenta lo anterior y que (AC denota el suceso
complementario de A):
p(B)  p(B  A)  p(B  A C )
•
Se obtiene la regla de Bayes:
p(B | A)·p(A)
p(A | B) 
p(B | A)·p(A)  p(B | A C )·p(A C )
21
Aprendizaje y dinámica (III)
•
Ilustremos la regla con un ejemplo. Imaginemos una empresa que
busca seleccionar a un empleado apto para cierta tarea.
•
A priori, se piensa que la proporción de aspirantes aptos (A) es del
10%, y la de no aptos (AC) del 90%.
•
En el proceso de selección, el director de recursos humanos realiza
una prueba a los aspirantes, que pueden aprobar (B) o no.
•
Se piensa que la probabilidad de que un aspirante apto apruebe es
p(B|A) = 95%, mientras que la de uno no apto es p(B|AC) = 15%.
•
Un
aspirante
que
apruebe,
¿con
qué
probabilidad
p(A|B)
esperaríamos que sea apto para la tarea?
22
Aprendizaje y dinámica (IV)
•
Aplicando la regla de Bayes, llegamos a la conclusión de que
0,95·0,1
p(A | B) 
 41%
0,95·0,1  0,15·0,9
•
De acuerdo con la idea de aprendizaje Bayesiano, si el director
supiese que cierto candidato X ha aprobado, debería actualizar la
probabilidad con la que cree que X es apto, pasando de una tasa a
priori del 10% a otra aproximadamente del 41%.
•
Nota: En el ejemplo hemos mantenido constante P(A), p(B|A) y p(B|AC), siendo la
probabilidad objetivo p(A|B). En general, y dependiendo de cuál sea la probabilidad que
busquemos actualizar, mantendremos constantes las demás y aplicaremos la regla.
23
Aprendizaje y dinámica (V)
•
Comentarios:
1.
En nuestra exposición de la regla de Bayes, hemos particionado el
espacio muestral en A y AC. Si la partición fuera diferente, la regla se
ajustaría de modo que el denominador incluyese las probabilidades
condicionadas de B a cada conjunto de la partición.
2.
Nótese que si D piensa que el suceso B tiene a priori probabilidad 0,
entonces la regla es inaplicable (no puede dividirse por 0). La regla,
por tanto, no nos sirve para explicar cómo D realiza inferencia
cuando observa sucesos inesperados.
24
Aprendizaje y dinámica (VI)
•
Podemos captar alguna implicación de la regla de Bayes a partir de la
igualdad antes mencionada
p(A | B) 
•
p(B | A)·p(A)
p(B)
La fórmula indica que la probabilidad de A dado B, p(A|B), no es igual
a P(B|A), sino que también depende de la tasa a priori p(A). Si ésta es
pequeña, p(A|B) tenderá a ser pequeña también.
•
Incluso si B es muy probable cuando A ocurre, por tanto, no podemos
inferir de la observación de B que A haya probablemente ocurrido.
Depende de lo probable que A sea en sí.
25
Aprendizaje y dinámica (VII)
•
“Common priors” o ‘Doctrina Harsanyi’: Los individuos asignan
la misma probabilidad a cada consecuencia de una lotería, a menos
que
alguno
disponga
de
información
relevante
objetivamente
diferente.
•
Por tanto, si usted y D disponen de la misma información:
1.
D tendrá en mente el mismo número de loterías que usted.
2.
D describirá cada lotería en términos de las mismas consecuencias y
probabilidades.
Ejemplo: Compra de un coche; pros y contras de cada modelo,
marcas disponibles, etc.
26
Aprendizaje y dinámica (VIII)
•
Implicación de common priors: La heterogeneidad de creencias sólo
puede
ocurrir
cuando
los
agentes
dispongan
de
información
objetivamente diferente.
•
Otra implicación: las creencias de D no variarán a menos que reciba
información objetivamente relevante (como las de usted, ¿no?). Así:
1.
Invariancia al procedimiento: Las creencias de D no cambiarán entre
dos escenarios que sólo se diferencien en la manera de preguntarle a
D por sus preferencias.
2.
Invariancia a la descripción ≡ Las creencias en dos escenarios no
varían si sólo cambiamos los términos con que describimos las loterías
(siendo las loterías objetivamente idénticas en ambos casos).
27
Aprendizaje y dinámica (IX)
•
Nótese que la estabilidad de creencias citada implica a su vez que D
siempre tiene en mente en el momento t cualquier información que
fuera relevante en t-1. Es decir: El decisor no olvida nada.
•
En efecto, si D no ha recibido información objetiva adicional en t,
deberá tener las mismas creencias que tenía en t-1.
•
Ejemplo: D es un inversor en deuda pública española. En t-1, D se
informa sobre el déficit medio de las haciendas locales. Entonces D
actualiza Bayesianamente la probabilidad de impago de la deuda.
•
Si no recibe más información, D mantendrá posteriormente su
estimación, lo cual implica que seguirá teniendo en cuenta el dato
sobre el déficit medio.
28
Axiomas básicos: Resumen (I)
a)
Comportamiento racional: D siempre elegirá su alternativa
preferida.
b)
Egoísmo & niveles de riqueza: En cada consecuencia, lo único
que a D le importa es su bienestar material (≡ su consumo y ocio).
Por simplificar, suele asumirse que sólo le importa la riqueza
monetaria que tenga en esa consecuencia.
c)
Probabilidades:
En
problemas
con
riesgo,
D
sabe
asignar
probabilidades (a priori) a cada uno de los posibles resultados, y
operar con ellas de acuerdo a las leyes de la probabilidad. Cualquier
incertidumbre puede ser cuantificada. Nota: Las probabilidades son
exógenas al modelo.
29
Axiomas básicos: Resumen (II)
d)
Preferencias racionales: D sabe ordenar las alternativas por
orden de preferencia y de manera lógica.
e)
Axioma de independencia: Junto con continuidad y el axioma
(d), implica utilidad esperada. Es decir, D elegirá aquella lotería en
la que la suma de las utilidades de cada consecuencia, ponderadas
por sus probabilidades respectivas, sea máxima.
f)
Aversión al riesgo: Entre (i) lotería con riqueza media o valor
esperado E, o (ii) lotería segura con riqueza E, se prefiere (ii).
g)
Common priors: A menos que D tenga información relevante
objetivamente diferente a la de otro agente X, ambos tendrán las
mismas creencias probabilísticas.
30
Axiomas básicos: Resumen (III)
h)
Aprendizaje
Bayesiano:
D
sabe
asignar
probabilidades
condicionales de un suceso B dado otro A, así como actualizar la
probabilidad de que ocurra A dado que ha ocurrido B por medio de
la regla de Bayes.
i)
Inteligencia: D sabe realizar todos los razonamientos que pueda
realizar el investigador. En particular, D siempre sabe hallar
máximos, incluso aunque el procedimiento de optimización muy
complejo.
Nota: En realidad este último axioma está implícito en los axiomas de racionalidad,
common priors y preferencias racionales. Nótese que siempre existirá una alternativa
óptima si las preferencias son racionales (al menos si el número de alternativas es
finito).
31
Descargar