TEORÍA DE COLAS TEORÍA DE LA INFORMACIÓN TEORÍA DE LOS JUEGOS

Anuncio
TEORÍA DE COLAS
TEORÍA DE LA INFORMACIÓN
TEORÍA DE LOS JUEGOS
TEORÍA DE DECISIÓN
LEIDY PAOLA GONZÁLEZ CELIS
ESTUDIANTE DE ADMINISTRACIÓN DE EMPRESAS
RUBIELA TOVAR CARDOZO
PROFESORA DE SISTEMAS DE INFORMACIÓN
UNIVERSIDAD SURCOLOMBIANA
FACULTAD DE ECONOMÍA Y ADMINISTRACIÓN
NEIVA-HUILA
2014-2
TEORÍA DE COLAS
Definiciones iniciales
La teoría de colas es el estudio matemático del comportamiento de líneas de
espera. Esta se presenta, cuando los "clientes" llegan a un "lugar"
demandando un servicio a un "servidor", el cual tiene una cierta capacidad
de atención. Si el servidor no está disponible inmediatamente y el cliente
decide esperar, entonces se forma la línea de espera.
Una cola es una línea de espera y la teoría de colas es una colección de
modelos matemáticos que describen sistemas de línea de espera
particulares o sistemas de colas. Los modelos sirven para encontrar un buen
compromiso entre costes del sistema y los tiempos promedio de la línea de
espera para un sistema dado.
Los sistemas de colas son modelos de sistemas que proporcionan servicio.
Como modelo, pueden representar cualquier sistema en donde los trabajos o
clientes llegan buscando un servicio de algún tipo y salen después de que
dicho servicio haya sido atendido. Podemos modelar los sistemas de este
tipo tanto como colas sencillas o como un sistema de colas interconectadas
formando una red de colas. En la siguiente figura podemos ver un ejemplo
de modelo de colas sencillo. Este modelo puede usarse para representar una
situación típica en la cual los clientes llegan, esperan si los servidores están
ocupados, son servidos por un servidor disponible y se marchan cuando se
obtiene el servicio requerido.
El problema es determinar qué capacidad o tasa de servicio proporciona el
balance correcto. Esto no es sencillo, ya que un cliente no llega a un horario
fijo, es decir, no se sabe con exactitud en que momento llegarán los clientes.
También el tiempo de servicio no tiene un horario fijo.
Los problemas de "colas" se presentan permanentemente en la vida diaria:
un estudio en EEUU concluyó que, por término medio, un ciudadano medio
pasa cinco años de su vida esperando en distintas colas, y de ellos casi seis
meses parado en los semáforos.
Introducción a la Teoría de Colas
En muchas ocasiones en la vida real, un fenómeno muy común es la
formación de colas o líneas de espera. Esto suele ocurrir cuando la demanda
real de un servicio es superior a la capacidad que existe para dar dicho
servicio. Ejemplos reales de esa situación son: los cruces de dos vías de
circulación, los semáforos, el peaje de una autopista, los cajeros
automáticos, la atención a clientes en un establecimiento comercial, la avería
de electrodomésticos u otro tipo de aparatos que deben ser reparados por
un servicio técnico, etc.
Todavía más frecuentes, si cabe, son las situaciones de espera en el
contexto de la informática, las telecomunicaciones y, en general, las nuevas
tecnologías. Así, por ejemplo, los procesos enviados a un servidor para
ejecución forman colas de espera mientras no son atendidos, la información
solicitada, a través de Internet, a un servidor Web puede recibirse con
demora debido a congestión en la red o en el servidor propiamente dicho,
podemos recibir la señal de líneas ocupadas si la central de la que depende
nuestro teléfono móvil está colapsada en ese momento, etc.
Origen:
El origen de la Teoría de Colas está en el esfuerzo de Agner Kraup Erlang
(Dinamarca, 1878 - 1929) en 1909 para analizar la congestión de tráfico
telefónico con el objetivo de cumplir la demanda incierta de servicios en el
sistema telefónico de Copenhague. Sus investigaciones acabaron en una
nueva teoría denominada teoría de colas o de líneas de espera. Esta teoría es
ahora una herramienta de valor en negocios debido a que un gran número de
problemas pueden caracterizarse, como problemas de congestión llegadasalida.
Modelo de formación de colas.
En los problemas de formación de cola, a menudo se habla de clientes, tales
como personas que esperan la desocupación de líneas telefónicas, la espera
de máquinas para ser reparadas y los aviones que esperan aterrizar y
estaciones de servicios, tales como mesas en un restaurante, operarios en
un taller de reparación, pistas en un aeropuerto, etc. Los problemas de
formación de colas a menudo contienen una velocidad variable de llegada de
clientes que requieren cierto tipo de servicio, y una velocidad variable de
prestación del servicio en la estación de servicio.
Cuando se habla de líneas de espera, se refieren a las creadas por clientes o
por las estaciones de servicio. Los clientes pueden esperar en cola
simplemente por que los medios existentes son inadecuados para satisfacer
la demanda de servicio; en este caso, la cola tiende a ser explosiva, es decir,
a ser cada vez mas larga a medida que transcurre el tiempo. Las estaciones
de servicio pueden estar esperando por que los medios existentes son
excesivos en relación con la demanda de los clientes; en este caso, las
estaciones de servicio podrían permanecer ociosas la mayor parte del
tiempo. Los clientes puede que esperen temporalmente, aunque las
instalaciones de servicio sean adecuadas, por que los clientes llegados
anteriormente están siendo atendidos. Las estaciones de servicio pueden
encontrar temporal cuando, aunque las instalaciones sean adecuadas a
largo plazo, haya una escasez ocasional de demanda debido a un hecho
temporal. Estos dos últimos casos tipifican una situación equilibrada que
tiende constantemente hacia el equilibrio, o una situación estable.
En la teoría de la formación de colas, generalmente se llama sistema a un
grupo de unidades físicas, integradas de tal modo que pueden operar al
unísono con una serie de operaciones organizadas. La teoría de la formación
de colas busca una solución al problema de la espera prediciendo primero el
comportamiento del sistema. Pero una solución al problema de la espera
consiste en no solo en minimizar el tiempo que los clientes pasan en el
sistema, sino también en minimizar los costos totales de aquellos que
solicitan el servicio y de quienes lo prestan.
La teoría de colas incluye el estudio matemático de las colas o líneas de
espera y provee un gran número de modelos matemáticos para describirlas.
Se debe lograr un balance económico entre el costo del servicio y el costo
asociado a la espera por ese servicio
Objetivos de la Teoría de Colas
Los objetivos de la teoría de colas consisten en:

Identificar el nivel óptimo de capacidad del sistema que minimiza el
coste global del mismo.

Evaluar el impacto que las posibles alternativas de modificación de la
capacidad del sistema tendrían en el coste total del mismo.

Establecer un balance equilibrado ("óptimo") entre las
consideraciones cuantitativas de costes y las cualitativas de servicio.
Hay que prestar atención al tiempo de permanencia en el sistema o en la
cola: la "paciencia" de los clientes depende del tipo de servicio específico
considerado y eso puede hacer que un cliente "abandone" el sistema.
Elementos existentes en un modelo de colas
Fuente de entrada o población potencial: Es un conjunto de individuos (no
necesariamente seres vivos) que pueden llegar a solicitar el servicio en
cuestión. Podemos considerarla finita o infinita. Aunque el caso de infinitud
no es realista, sí permite (por extraño que parezca) resolver de forma más
sencilla muchas situaciones en las que, en realidad, la población es finita
pero muy grande. Dicha suposición de infinitud no resulta restrictiva
cuando, aún siendo finita la población potencial, su número de elementos es
tan grande que el número de individuos que ya están solicitando el citado
servicio prácticamente no afecta a la frecuencia con la que la población
potencial genera nuevas peticiones de servicio.
Cliente: Es todo individuo de la población potencial que solicita servicio.
Suponiendo que los tiempos de llegada de clientes consecutivos son
0<t1<t2<..., será importante conocer el patrón de probabilidad según el cual
la fuente de entrada genera clientes. Lo más habitual es tomar como
referencia los tiempos entre las llegadas de dos clientes consecutivos:
consecutivos: clientes consecutivos: T{k} = tk - tk-1, fijando su distribución
de probabilidad. Normalmente, cuando la población potencial es infinita se
supone que la distribución de probabilidad de los Tk (que será la llamada
distribución de los tiempos entre llegadas) no depende del número de
clientes que estén en espera de completar su servicio, mientras que en el
caso de que la fuente de entrada sea finita, la distribución de los Tk variará
según el número de clientes en proceso de ser atendidos.
Capacidad de la cola: Es el máximo número de clientes que pueden estar
haciendo cola (antes de comenzar a ser servidos). De nuevo, puede
suponerse finita o infinita. Lo más sencillo, a efectos de simplicidad en los
cálculos, es suponerla infinita. Aunque es obvio que en la mayor parte de los
casos reales la capacidad de la cola es finita, no es una gran restricción el
suponerla infinita si es extremadamente improbable que no puedan entrar
clientes a la cola por haberse llegado a ese número límite en la misma.
Disciplina de la cola: Es el modo en el que los clientes son seleccionados
para ser servidos. Las disciplinas más habituales son:
La disciplina FIFO (first in first out), también llamada FCFS (first come first
served): según la cual se atiende primero al cliente que antes haya llegado.
La disciplina LIFO (last in first out), también conocida como LCFS (last come
first served) o pila: que consiste en atender primero al cliente que ha llegado
el último.
La RSS (random selection of service), o SIRO (service in random order), que
selecciona a los clientes de forma aleatoria.
Mecanismo de servicio: Es el procedimiento por el cual se da servicio a los
clientes que lo solicitan. Para determinar totalmente el mecanismo de
servicio debemos conocer el número de servidores de dicho mecanismo (si
dicho número fuese aleatorio, la distribución de probabilidad del mismo) y la
distribución de probabilidad del tiempo que le lleva a cada servidor dar un
servicio. En caso de que los servidores tengan distinta destreza para dar el
servicio, se debe especificar la distribución del tiempo de servicio para cada
uno.
La cola, propiamente dicha, es el conjunto de clientes que hacen espera, es
decir los clientes que ya han solicitado el servicio pero que aún no han
pasado al mecanismo de servicio.
El sistema de la cola: es el conjunto formado por la cola y el mecanismo de
servicio, junto con la disciplina de la cola, que es lo que nos indica el criterio
de qué cliente de la cola elegir para pasar al mecanismo de servicio. Estos
elementos pueden verse más claramente en la siguiente figura:
Un modelo de sistema de colas debe especificar la distribución de
probabilidad de los tiempos de servicio para cada servidor.
La distribución más usada para los tiempos de servicio es la exponencial,
aunque es común encontrar la distribución degenerada o determinística
(tiempos de servicio constantes) o la distribución Erlang (Gamma).
Notación de Kendall
Por convención los modelos que se trabajan en teoría de colas se etiquetan
Las distribuciones que se utilizan son:
• M: Distribución exponencial (markoviana)
• D : Distribución degenerada (tiempos constantes)
• E k : Distribución Erlang
• G : Distribución general
M / M / s : Modelo donde tanto los tiempos entre llegada como los tiempo de
servicio son exponenciales y se tienen s servidores.
M / G / 1: Tiempos entre llegada exponenciales, tiempos de servicio general y
1 sólo servidor
La teoría de la información, también conocida como teoría matemática de la
comunicación (mathematical theory of communication) o teoría matemática
de la información, es una propuesta teórica presentada por Claude E.
Shannon y Warren Weaver a finales de la década de los años 1940. Esta
teoría está relacionada con las leyes matemáticas que rigen la transmisión y
el procesamiento de la información y se ocupa de la medición de la
información y de la representación de la misma, así como también de la
capacidad de los sistemas de comunicación para transmitir y procesar
información.1 La teoría de la información es una rama de la teoría
matemática y de las ciencias de la computación que estudia la información y
todo lo relacionado con ella: canales, compresión de datos y criptografía,
entre otros.
TEORÍA DE LA INFORMACIÓN
Historia
La teoría de la información surgió a finales de la Segunda Guerra Mundial, en
los años cuarenta. Fue iniciada por Claude E. Shannon a través de un
artículo publicado en el Bell System Technical Journal en 1948, titulado Una
teoría matemática de la comunicación (texto completo en inglés). En esta
época se buscaba utilizar de manera más eficiente los canales de
comunicación, enviando una cantidad de información por un determinado
canal y midiendo su capacidad; se buscaba la transmisión óptima de los
mensajes. Esta teoría es el resultado de trabajos comenzados en la década
1910 por Andrei A. Markovi, a quien le siguió Ralp V. L. Hartley en 1927,
quien fue el precursor del lenguaje binario. A su vez, Alan Turing en 1936,
realizó el esquema de una máquina capaz de tratar información con emisión
de símbolos, y finalmente Claude Elwood Shannon, matemático, ingeniero
electrónico y criptógrafo estadounidense, conocido como "el padre de la
teoría de la información”, junto a Warren Weaver, contribuyó en la
culminación y el asentamiento de la Teoría Matemática de la Comunicación
de 1949 –que hoy es mundialmente conocida por todos como la Teoría de la
Información-. Weaver consiguió darle un alcance superior al planteamiento
inicial, creando un modelo simple y lineal: Fuente/codificador/mensaje
canal/decodificador/destino. La necesidad de una base teórica para la
tecnología de la comunicación surgió del aumento de la complejidad y de la
masificación de las vías de comunicación, tales como el teléfono, las redes
de teletipo y los sistemas de comunicación por radio. La teoría de la
información también abarca todas las restantes formas de transmisión y
almacenamiento de información, incluyendo la televisión y los impulsos
eléctricos que se transmiten en las computadoras y en la grabación óptica
de datos e imágenes. La idea es garantizar que el transporte masivo de datos
no sea en modo alguno una merma de la calidad, incluso si los datos se
comprimen de alguna manera. Idealmente, los datos se pueden restaurar a
su forma original al llegar a su destino. En algunos casos, sin embargo, el
objetivo es permitir que los datos de alguna forma se conviertan para la
transmisión en masa, se reciban en el punto de destino y sean convertidos
fácilmente a su formato original, sin perder ninguna de la información
transmitida.2
Desarrollo de la teoría
El modelo propuesto por Shannon es un sistema general de la comunicación
que parte de una fuente de información desde la cual, a través de un
transmisor, se emite una señal, la cual viaja por un canal, pero a lo largo de
su viaje puede ser interferida por algún ruido. La señal sale del canal, llega a
un receptor que decodifica la información convirtiéndola posteriormente en
mensaje que pasa a un destinatario. Con el modelo de la teoría de la
información se trata de llegar a determinar la forma más económica, rápida y
segura de codificar un mensaje, sin que la presencia de algún ruido
complique su transmisión. Para esto, el destinatario debe comprender la
señal correctamente; el problema es que aunque exista un mismo código de
por medio, esto no significa que el destinatario va a captar el significado que
el emisor le quiso dar al mensaje. La codificación puede referirse tanto a la
transformación de voz o imagen en señales eléctricas o electromagnéticas,
como al cifrado de mensajes para asegurar su privacidad. Un concepto
fundamental en la teoría de la información es que la cantidad de información
contenida en un mensaje es un valor matemático bien definido y medible. El
término cantidad no se refiere a la cuantía de datos, sino a la probabilidad de
que un mensaje, dentro de un conjunto de mensajes posibles, sea recibido.
En lo que se refiere a la cantidad de información, el valor más alto se le
asigna al mensaje que menos probabilidades tiene de ser recibido. Si se
sabe con certeza que un mensaje va a ser recibido, su cantidad de
información es cero.3
Finalidad
Otro aspecto importante dentro de esta teoría es la resistencia a la distorsión
que provoca el ruido, la facilidad de codificación y descodificación, así como
la velocidad de transmisión. Es por esto que se dice que el mensaje tiene
muchos sentidos, y el destinatario extrae el sentido que debe atribuirle al
mensaje, siempre y cuando haya un mismo código en común. La teoría de la
información tiene ciertas limitaciones, como lo es la acepción del concepto
del código. El significado que se quiere transmitir no cuenta tanto como el
número de alternativas necesario para definir el hecho sin ambigüedad. Si la
selección del mensaje se plantea únicamente entre dos alternativas
diferentes, la teoría de Shannon postula arbitrariamente que el valor de la
información es uno. Esta unidad de información recibe el nombre de bit.
Para que el valor de la información sea un bit, todas las alternativas deben
ser igual de probables y estar disponibles. Es importante saber si la fuente
de información tiene el mismo grado de libertad para elegir cualquier
posibilidad o si se halla bajo alguna influencia que la induce a una cierta
elección. La cantidad de información crece cuando todas las alternativas son
igual de probables o cuanto mayor sea el número de alternativas. Pero en la
práctica comunicativa real no todas las alternativas son igualmente
probables, lo cual constituye un tipo de proceso estocástico denominado
Markoff. El subtipo de Markoff dice que la cadena de símbolos está
configurada de manera que cualquier secuencia de esa cadena es
representativa de toda la cadena completa.
Teoría aplicada a la tecnología
La Teoría de la Información se encuentra aún hoy en día en relación con una
de las tecnologías en boga, Internet. Desde el punto de vista social, Internet
representa unos significativos beneficios potenciales, ya que ofrece
oportunidades sin precedentes para dar poder a los individuos y conectarlos
con fuentes cada vez más ricas de información digital. Internet fue creado a
partir de un proyecto del departamento de defensa de los Estados Unidos
llamado DARPANET (Defense Advanced Research Project Network) iniciado
en 1969 y cuyo propósito principal era la investigación y desarrollo de
protocolos de comunicación para redes de área amplia para ligar redes de
transmisión de paquetes de diferentes tipos capaces de resistir las
condiciones de operación más difíciles, y continuar funcionando aún con la
pérdida de una parte de la red (por ejemplo en caso de guerra). Estas
investigaciones dieron como resultado el protocolo TCP/IP (Transmission
Control Protocol/Internet Protocol), un sistema de comunicaciones muy
sólido y robusto bajo el cual se integran todas las redes que conforman lo
que se conoce actualmente como Internet. El enorme crecimiento de Internet
se debe en parte a que es una red basada en fondos gubernamentales de
cada país que forma parte de Internet, lo que proporciona un servicio
prácticamente gratuito. A principios de 1994 comenzó a darse un
crecimiento explosivo de las compañías con propósitos comerciales en
Internet, dando así origen a una nueva etapa en el desarrollo de la red.
Descrito a grandes rasgos, TCP/IP mete en paquetes la información que se
quiere enviar y la saca de los paquetes para utilizarla cuando se recibe.
Estos paquetes pueden compararse con sobres de correo; TCP/IP guarda la
información, cierra el sobre y en la parte exterior pone la dirección a la cual
va dirigida y la dirección de quien la envía. Mediante este sistema, los
paquetes viajan a través de la red hasta que llegan al destino deseado; una
vez ahí, la computadora de destino quita el sobre y procesa la información;
en caso de ser necesario envía una respuesta a la computadora de origen
usando el mismo procedimiento. Cada máquina que está conectada a
Internet tiene una dirección única; esto hace que la información que se envía
no equivoque el destino. Existen dos formas de dar direcciones, con letras o
con números. Realmente, las computadoras utilizan las direcciones
numéricas para mandar paquetes de información, pero las direcciones con
letras fueron implementadas para facilitar su manejo a los seres humanos.
Una dirección con letras consta de dos a cuatro partes. Una dirección
numérica está compuesta por cuatro partes. Cada una de estas partes está
dividida por puntos.
Ejemplo: sedet.com.mx 107.248.185.1
Una de las aplicaciones de la teoría de la información son los archivos ZIP,
documentos que se comprimen para su transmisión a través de correo
electrónico o como parte de los procedimientos de almacenamiento de
datos. La compresión de los datos hace posible completar la transmisión en
menos tiempo. En el extremo receptor, un software se utiliza para la
liberación o descompresión del archivo, restaurando los documentos
contenidos en el archivo ZIP a su formato original. La teoría de la
información también entra en uso con otros tipos de archivo; por ejemplo,
los archivos de audio y vídeo que se reproducen en un reproductor de MP3
se comprimen para una fácil descarga y almacenamiento en el dispositivo.
Cuando se accede a los archivos se amplían para que estén inmediatamente
disponibles para su uso.4
Elementos de la teoría
Esquema de la comunicación ideado por Claude E. Shannon.
Fuente
Una fuente es todo aquello que emite mensajes. Por ejemplo, una fuente
puede ser una computadora y mensajes sus archivos; una fuente puede ser
un dispositivo de transmisión de datos y mensajes los datos enviados, etc.
Una fuente es en sí misma un conjunto finito de mensajes: todos los
posibles mensajes que puede emitir dicha fuente. En compresión de datos
se tomará como fuente el archivo a comprimir y como mensajes los
caracteres que conforman dicho archivo.
Tipos de fuente
Por la naturaleza generativa de sus mensajes, una fuente puede ser aleatoria
o determinista. Por la relación entre los mensajes emitidos, una fuente puede
ser estructurada o no estructurada (o caótica).
Existen varios tipos de fuente. Para la teoría de la información interesan las
fuentes aleatorias y estructuradas. Una fuente es aleatoria cuando no es
posible predecir cuál es el próximo mensaje a emitir por la misma. Una
fuente es estructurada cuando posee un cierto nivel de redundancia; una
fuente no estructurada o de información pura es aquella en que todos los
mensajes son absolutamente aleatorios sin relación alguna ni sentido
aparente. Este tipo de fuente emite mensajes que no se pueden comprimir;
un mensaje, para poder ser comprimido, debe poseer un cierto grado de
redundancia; la información pura no puede ser comprimida sin que haya una
pérdida de conocimiento sobre el mensaje.5
Mensaje
Un mensaje es un conjunto de ceros y unos. Un archivo, un paquete de
datos que viaja por una red y cualquier cosa que tenga una representación
binaria puede considerarse un mensaje. El concepto de mensaje se aplica
también a alfabetos de más de dos símbolos, pero debido a que tratamos
con información digital nos referiremos casi siempre a mensajes binarios.
Código
Un código es un conjunto de unos y ceros que se usan para representar un
cierto mensaje de acuerdo a reglas o convenciones preestablecidas. Por
ejemplo, al mensaje 0010 lo podemos representar con el código 1101 usando
para codificar la función (NOT). La forma en la cual codificamos es arbitraria.
Un mensaje puede, en algunos casos, representarse con un código de
menor longitud que el mensaje original. Supongamos que a cualquier
mensaje S lo codificamos usando un cierto algoritmo de forma tal que cada
S es codificado en L(S) bits; definimos entonces la información contenida en
el mensaje S como la cantidad mínima de bits necesarios para codificar un
mensaje.
Información
La información contenida en un mensaje es proporcional a la cantidad de
bits que se requieren como mínimo para representar al mensaje. El concepto
de información puede entenderse más fácilmente si consideramos un
ejemplo. Supongamos que estamos leyendo un mensaje y hemos leído
"cadena de c"; la probabilidad de que el mensaje continúe con "aracteres"
es muy alta. Así, cuando efectivamente recibimos a continuación "aracteres"
la cantidad de información que nos llegó es muy baja pues estábamos en
condiciones de predecir qué era lo que iba a ocurrir. La ocurrencia de
mensajes de alta probabilidad de aparición aporta menos información que la
ocurrencia de mensajes menos probables. Si luego de "cadena de c" leemos
"himichurri" la cantidad de información que estamos recibiendo es mucho
mayor.
TEORÍA DE JUEGOS
CONCEPTOS BÁSICOS
La teoría de los juegos es una teoría matemática que pretende describir y
predecir el comportamiento de los agentes económicos. Muchas decisiones
dependen de las expectativas que se tengan sobre el comportamiento de los
demás agentes económicos. Es el caso del comportamiento de las empresas
en un mercado en el que opera un reducido número de las mismas, las
cuales establecerán unos precios según cómo cada una suponga la reacción
de las demás. En otros casos, la decisión de reducir los precios dependerá
de si la empresa piensa que las demás reducirán a su vez los suyos o si los
mantendrán constantes. De igual forma, la negociación de un sindicato con
los empresarios dependerá de las estrategias que adopten uno y otro en
función de los procedimientos que creen adoptará el contrario.
La interacción entre los agentes económicos y, por lo tanto, la dependencia
de la adopción de decisiones racionales con respecto a las suposiciones
que hace cada agente sobre las elecciones y estrategias que adoptarán los
demás, ha dado lugar a esta nueva rama de la teoría económica conocida
como teoría de juegos. Surgió a partir de un estudio pionero, ya clásico:
Teoría de juegos y comportamiento económico (1944), de John von
Neumann y Oskar Morgenstern.
Se puede establecer una analogía entre la teoría de juegos y algunos juegos
donde la estrategia de cada jugador depende de los movimientos que
realicen los demás. Para deducir las estrategias óptimas bajo distintos
supuestos sobre el comportamiento del resto, la teoría de juegos tiene que
analizar distintos aspectos: las consecuencias de las distintas estrategias
posibles, la posibilidad de que varios �jugadores� se conviertan en
aliados, el grado de compromiso entre éstos y el grado en que cada juego
puede repetirse, proporcionando a todos los jugadores información sobre
las distintas estrategias posibles.
A pesar de la dificultad de analizar todos estos aspectos, los expertos en la
teoría de juegos han podido identificar ciertas pautas de comportamiento
comunes a distintos juegos. Un instrumento de análisis muy utilizado es la
creación de una matriz de resultados. En el caso sencillo de dos jugadores,
la matriz de resultados indica los beneficios y pérdidas de cada jugador en
función de las distintas estrategias que adoptan. Se puede demostrar que
algunos juegos tendrán una matriz en la que existirá un equilibrio tipo Nash
(debido a John F. Nash, premio Nobel de Economía en 1994). En el equilibrio
de Nash (en un juego con dos jugadores, X e Y) la elección de X es óptima
dada la de Y, y la elección de Y es óptima dada la de X. En esta situación,
cuando se conocen las decisiones estratégicas, ningún jugador puede
arrepentirse de la estrategia que ha adoptado. Sin embargo, el equilibrio de
Nash no tiene por qué desembocar en un resultado tan óptimo como el que
se derivaría de una cooperación directa entre ellos. Un famoso ejemplo de
esta situación es el del �dilema del prisionero�, en la que los dos
jugadores reciben estímulos para confesar su culpabilidad, pero su situación
sería más afortunada si existiera una coordinación adecuada entre ellos.
ESTRATEGIAS DE MAXIMIN Y MINIMAX
Por lo general, para cada estrategia que adopta un jugador o empresa,
existen varias estrategias (reacciones) abiertas para el otro jugador. El
resultado de cada combinación de estrategias empleadas por los dos
jugadores se conoce como rendimiento. Al rendimiento de todas las
estrategias se le conoce como matriz de rendimiento.
En la teoría de los juegos, el jugador A sabe que el jugador B siempre
responderá a A con la acción que minimice las ganancias de A, debido a que
ésta es la estrategia que minimiza las pérdidas de B. Así, el jugador A
adoptará una estrategia de maximín . Es decir, A seleccionará la estrategia
que maximice su ganancia mínima, anticipándose a la reacción de B. Como
es de esperarse, el jugador B adoptará una estrategia de minimax que
minimice las ganancias de A, porque ésa es la estrategia que minimiza las
pérdidas de B.
• Los juegos de suma cero son aquellos en los cuales las ganancias de un
jugador son iguales a las pérdidas del otro.
• Los juegos estrictamente determinados son aquellos en los cuales el
maximín es igual al minimax.
• Se denomina punto de silla a la solución o el resultado de un juego
estrictamente determinado.
EJEMPLO: DILEMA DEL PRISIONERO
Se arresta a dos sospechosos por robo, y si se les condena, cada uno
recibiría una sentencia de 10 años. Sin embargo, si ninguno confiesa, la
evidencia bastaría para una sentencia de 1 año por posesión de bienes
robados. Se interroga a cada sospechoso por separado y no se permite
comunicación entre ellos. El fiscal promete impunidad al que confiese, pero
la totalidad de la sentencia de 10 años al que no confiese. Si confiesan
ambos, cada uno obtiene una sentencia reducida de 5 años. La matriz de
rendimiento para este caso sería:
TEORÍA DE DECISIÓN
La teoría de la decisión es una área interdisciplinaria de estudio,
relacionada con casi todos los participantes en ramas de la
ciencia, la Administración, Economía, la psicología (basados en
perspectivas cognitivo-conductuales). Concierne a la forma y al
estudio del comportamiento y fenómenos psíquicos de aquellos
que toman las decisiones (reales o ficticios), así como las
condiciones por las que deben ser tomadas las decisiones.
Partes de la teoría
La mayor parte de la teoría de la decisión es normativa o
prescriptiva, es decir concierne a la identificación de la mejor
decisión que pueda ser tomada, asumiendo que una persona que
tenga que tomar decisiones (decision maker) sea capaz de estar
en un entorno de completa información, capaz de calcular con
precisión y completamente racional. La aplicación práctica de
esta aproximación prescriptiva (de como la gente debería hacer y
tomar decisiones) se denomina análisis de la decisión y
proporciona una búsqueda de herramientas, metodologías y
software para ayudar a las personas a tomar mejores decisiones.
Las herramientas de software orientadas a este tipo de ayudas se
desarrollan bajo la denominación global de Sistemas para la
ayuda a la decisión (decision support systems, abreviado en
inglés como DSS).
Como parece obvio que las personas no se encuentran en estos
entornos óptimos y con la intención de hacer la teoría más
realista, se ha creado un área de estudio relacionado que se
encarga de la parte de la disciplina más positiva o descriptiva,
intentando describir qué es lo que la gente realmente hace
durante el proceso de toma de decisiones. Se pensó en esta
teoría debido a que la teoría normativa, trabaja sólo bajo
condiciones óptimas de decisión y a menudo crea hipótesis, para
ser probadas, algo alejadas de la realidad cotidiana. Los dos
campos están íntimamente relacionados; no obstante, es posible
relajar algunas presunciones de la información perfecta que llega
al sujeto que toma decisiones, se puede rebajar su racionalidad y
así sucesivamente, hasta llegar a una serie de prescripciones o
predicciones sobre el comportamiento de la persona que toma
decisiones, permitiendo comprobar qué ocurre en la práctica de
la vida cotidiana.
Tipos de decisiones
Existen tipos de decisión que son interesantes desde el punto de
vista del desarrollo de una teoría, estos son:
Decisión sin riesgo entre mercancías inconmensurables
(mercancías que no pueden ser medidas bajo las mismas
unidades)
Elección bajo impredecibilidad
Elección intertemporal - estudio del valor relativo que la gente
asigna a dos o más bienes en diferentes momentos del tiempo
Decisiones sociales: decisiones tomadas en grupo o bajo una
estructura organizativa
Elección entre mercancías inconmensurables
Esta área es importante cuando se ha de tomar la decisión de
elegir, por ejemplo, entre comprar una tonelada de cañones.
Elección bajo incertidumbre
Esta área representa el principal esfuerzo de investigación en la
teoría de la decisión. El procedimiento se basa en el valor
esperado ya conocido en el siglo XVII. El filósofo francés Blaise
Pascal ya lo enunciaba en sus famosas dudas, contenidas en su
Pensamientos, publicado en 1670. La idea del valor esperado
consiste en que cuando afrontamos con un número de acciones,
cada una de ellas con un número de resultados asociados a una
probabilidad diferente, el procedimiento racional es identificar
todos los posibles resultados de las acciones, determinar sus
valores (positivos o negativos) y sus probabilidades asociadas
que resultan de cada acción y, al multiplicar los dos valores, se
obtiene el valor esperado. La acción elegida deberá ser aquella
que proporcione el mayor valor esperado. En 1738, Daniel
Bernoulli publicó un documento influyente denominado
Exposición de una nueva Teoría sobre la Medida del Riesgo, en la
que emplea la paradoja de San Petersburgo para mostrar que el
valor esperado debe ser normativamente erróneo. Proporciona un
ejemplo con un mercante holandés que intenta decidir si asegurar
la carga que quiere enviar desde Ámsterdam a San Petersburgo
en invierno, cuando se sabe que hay un 5% de probabilidad de
perder la carga durante el viaje. En su solución, define por
primera vez la función de utilidad y calcula la utilidad esperada en
vez del valor financiero.
En el siglo XX el interés por este tema fue reiniciado por un
artículo de Abraham Wald en 1939 señalando los dos temas
centrales de la estadística ortodoxa de aquel tiempo: los test de
hipótesis estadísticas y la teoría de la estimación estadística, que
podrían ser aspectos especiales del problema general de la
decisión. Este artículo introduce muchos de los ingredientes
actuales de la moderna teoría de la decisión, incluyendo
funciones de pérdida, función de riesgo, reglas de decisión
admisibles, distribuciones a priori, teoría de Bayes de la decisión,
y reglas minimax para la toma de decisión. La frase "teoría de la
decisión" fue empleada por primera vez en el año 1950 por E. L.
Lehmann.
El crecimiento de la teoría de probabilidad subjetiva, procedente
del trabajo de Frank Ramsey, Bruno de Finetti, Leonard Savage y
otros, extendiendo el ámbito de la teoría de la utilidad a
situaciones donde sólo la teoría de la probabilidad subjetiva
puede ser empleada. En este tiempo se asume que en economía
la gente se comporta como agentes racionales humanos que
toman decisiones bajo riesgo. El trabajo de Maurice Allais y
Daniel Ellsberg mostró que no es tan fácilmente formalizar estas
situaciones. La teoría prospectiva de Daniel Kahneman y Amos
Tversky dio lugar a la economía comportacional. En esta teoría se
enfatiza en las capacidades humanas (opuestas a lo
normativamente correcto) en la toma de decisiones basada en
"perdidas y ganancias", la gente es más focalizada en los
cambios en sus estados de utilidad y en la estimación subjetiva a
menudo sesgada por anclaje.
La Apuesta de Pascal es un ejemplo clásico de elección ante
incertidumbre. La incertidumbre, de acuerdo con Pascal, está en
saber si Dios existe. Las creencias o escepticismos personales
sobre la elección de creer en su existencia.
Elección atemporal
Esta área concierne a un tipo de tomas de decisión donde
intervienen una serie de acciones en diferentes instantes de
tiempo. Por ejemplo, si recibiera una gran cantidad de euros en
un instante de tiempo, podría gastarlos en unas vacaciones de
lujo, proporcionándome un placer inmediato, o por el contrario
podría invertirlo en un plan de pensiones, que me proporcionaría
un beneficio en el futuro. Surge la pregunta de cuál es la decisión
óptima, la respuesta depende parcialmente de factores tales
como el valor de esperanza de vida, la inflación, el interés, la
confianza en el sistema de pensiones, etc. Sin embargo aunque
todos estos factores fueran tomados en cuenta a la hora de tomar
la decisión, el comportamiento humano se desvía de las
predicciones de la teoría prescriptiva, dando lugar a modelos
alternativos en los que, por ejemplo, el interés objetivo se
reemplaza por un descuento subjetivo.
Decisiones complejas
Otras áreas de la teoría de la decisión conciernen con la dificultad
de tomar decisiones debido en parte a la "complejidad" de
cálculo de las expectativas, o bien por la complejidad de la propia
organización que tiene que tomar las decisiones. En tales casos
la teoría no se fija tanto en obtener un cálculo basado en como se
desvía una decisión real de una óptima, sino en la medida de la
dificultad de determinar el comportamiento óptimo a la hora de
tomar la decisión. Un ejemplo de esta teoría puede encontrarse
en el Club de Roma, que ha desarrollado un modelo de
crecimiento económico y de recursos basado en un modelo que
puede ayudar a los políticos a tomar decisiones en situaciones
complejas.
Paradoja de la elección
Se ha observado en muchos casos que existe la paradoja de que
muchas capacidades de elegir puede dar lugar a una pobre
decisión o incluso a una elección errónea. En algunas ocasiones
se ha analizado el problema desde una parálisis del análisis, real
o percibido, o incluso desde una ignorancia racional. Un gran
número de investigadores incluido Sheena S. Iyengar y Mark R.
Lepper ha publicado estudios basados en este fenómeno.1 Una
popularización de este análisis fue realizado por Barry Schwartz
en su libro The Paradox of Choice.2
Documentos relacionados
Descargar