Subido por evelyncruz_01

Evelyn Cruz Cadena Markov IPAC22

Anuncio
UNIVERSIDAD NACIONAL
AUTÓNOMA DE HONDURAS EN EL
VALLE DE SULA
Carrera de Ingeniería Industrial
Asignatura de Investigación de Operaciones II
Cadena de Markov
Evelyn Yadira Cruz Ramos
Número de Cuenta: 20082000127
Sección: 14:00
SPS, Febrero 3 de 2022
6
Tabla de contenido
Introduccion....................................................................................................................................... 1
Cadena de Markov .........................................................................................................................................2
Conceptos Basicos ......................................................................................................................................2
Concepto Cadena de Markov .....................................................................................................................3
Clasificacion de los estados de Cadena de Markov………………………………………………………………………………..4
Conclusiones……………………………………………………………………………………………………………………………………….5
Bibliografia……………………………………..………………………………………………………………………………………………….6
Anexos………………………………………………………………………………………………………………………………………………..7
Ejemplo………………………………………………………………………………………………………………………………………………9
Introducción
A menudo nos encontramos en situaciones de toma de decisiones y con ellas incertidumbres de las
que debemos tener un panorama completo para determinar nuestras acciones. Precisamente para que
estas decisiones sean las más adecuadas nos debemos a ciertas herramientas, una de ellas es sobre
temas de probabilidad como es la Cadena de Markov pero antes de entrar en el tema como tal
conceptualizaremos términos previos para la comprensión y utilización de esta herramienta. El
estudio de este proceso consiste básicamente en conocer cómo cambia una variable de decisión con
respecto al tiempo.
1
Cadena de Makov
Conceptos básicos
Para comenzar esta investigación es importante aclarar algunos conceptos básicos como ser
Procesos Estocásticos el cual se refiere a la representación de valores aleatorios que irán
cambiando según pasa el tiempo o dicho en otras palabras para describir algunas variables que
evolucionan en función de otra variable Ver Figura 1.3. Podemos detallar ejemplo de ello los
siguientes casos:
1. Señales biomédicas como ser electrocardiograma o encefalograma.
2. Señales sísmicas
3. Señales de telecomunicación
Deducimos de los ejemplos anteriores que estos procesos son una serie de observaciones y dichos
valores no los podemos predecir exactamente pero podemos determinar las probabilidades para los
distintos valores posibles en cualquier tiempo.
Como segundo concepto tenemos la Matriz de probabilidad es otro concepto necesario de
explicar, esta es una matriz n x n que según Isaac Mosquera debe cumplir con dos condiciones:
1. Sus entradas son todas positivas
2. La suma de los componentes en cada columna es 1.
De manera que concluimos que dicha matriz solo cuenta con vectores que son positivos y suman 1
en total.
Espacio Muestral los podemos definir como el conjunto de valores resultado de un experimento
previo.
Variable Aleatoria es una función que asigna valores reales a los resultados de un experimento.
Estados: es una variable cuyos valores solo pueden pertenecer al conjunto de estados en el sistema.
El sistema modelizado por la cadena, por lo tanto, es una variable que cambia con el valor del
tiempo, cambio al que llamamos transición
2
Dicho esto podemos conceptualizar una Cadena de Makov como aquellos procesos estocásticos
discretos donde la descripción de las variables aleatorias depende del estado actual y no de los
anteriores es decir del evento inmediatamente anterior Ver Figura 1.2, fue nombrada así en honor
a Andrei A. Markov quien la desarrollo a mediados de 1900.
Esta cadena se puede utilizar para pronosticar el comportamiento de una variable, ejemplo de ellos
podrían ser: los cambios de preferencia que en el mercado tienen diferentes productos, la posible
decisión sobre hacer o no una inversión, es decir, que es aplicable en diferentes áreas desde
meteorológicas hasta economía. En el área operativa nos podría servir para los inventarios,
mantenimiento y flujos de procesos, en la simulación es utilizada para proveer soluciones analíticas
como ser la teoría de colas las cual se puede poner como ejemplo de esta cadena por mencionar
algunas.
Para la aplicación de esta cadena debemos tomar en cuenta que: “Los pasos posibles sean finitos y
que las probabilidades permanezcan constante con el tiempo” todo esto según Taibo, Amaro,
pag.72.
La probabilidad de transición en una etapa se puede se puede representar haciendo uso de un grafo
o como antes lo mencionamos con la matriz de transición de probabilidades. Ver Figura 1.1. Este
diagrama es un grafo dirigido a cuyos nodos son los estados, cuyos arcos se etiquetan con la
probabilidad de transición entre los estados que unen. Si esta probabilidad es nula no se colocaría
un arco.
Tomando el concepto anterior, dados los tiempos cronológicos 𝑡𝑜, 𝑡1 … . 𝑡𝑛 la familia de variables
aleatorias [𝑋𝑡 ₙ … 𝑋1 , 𝑋2 … 𝑋𝑛 ] es un proceso de Markov si:
P {𝑋𝑡 ₙ = 𝑋𝑛 |𝑋𝑡𝑛−1 = 𝑋𝑛−1,…..,𝑋𝑡𝑜 = 𝑋0} = P { 𝑋𝑡 ₙ = 𝑋𝑛 | 𝑋𝑡𝑛−1 (Taha, 2012, pag. 527)
Para mayor comprensión sobre esta herramienta de probabilidad podemos decir que si tuviéramos
un equipo de football que juega en un polideportivo que cuenta con 4 canchas y que las
probabilidades que ellos jueguen en una u otra cancha la podemos representar con la cadena de
Makov. Por lo que diríamos que si la primera semana nos toca jugar en la cancha 1 es posible que
3
la próxima semana toque jugar en la 2, en la 3, en la 4 o inclusive en la misma de esta semana, a
ese cambio de estado le llamaríamos probabilidades de transición la cual la representaríamos por
la matriz de probabilidad donde se representaría cada cambio de estado posible para cada semana
que transcurra a partir de la última cancha utilizada. Siempre con la intención de enriquecer esta
investigación debemos explicar a qué le llamamos una matriz estable esta es cuando la matriz no
genera cambios al realizarse alguna transición. Cualquier matriz superior a la matriz estable
podemos tener la certeza que serán estables.
Que una matriz se encuentre en estado estable nos puede llegar a decir el porcentaje de tiempo que
un elemento permanezca en cada estado, claro que esta interpretación dependerá que estamos
estudiando lo cual nos lleva a clasificar los estados de una cadena de Markov.
Clasificación de estados una cadena de Markov
1. Estado accesible: un lugar que accede a tener nuevos cambios y pasar a otro lugar o estado.
2. Estado recurrente o estable: es el que hace posible llegar desde cualquier estado a los demás
estados. En otras palabras si la probabilidad de ser revisitado desde otros estados es 1.
3. Estado transitorio: se llama así cuando después de haber entrado a este estado el proceso
nunca regresa a él.
4. Estado absorbente: se llama así cuando después de haber entrado ahí el proceso nunca saldrá
de él o de estar seguro que regresara ahí mismo en un movimiento.
Para determinar un estado estable debemos definir dos cosas importantes:

La matriz de transición P. Esta es un matriz cuadrada que tiene tantas posiciones como
estados tenga la cadena de Markov.

La posición o el paso inicial de la cadena. Este está determinado por el vector fila que tiene
tantas posiciones como estados tenga la cadena de Markov.
4
Conclusiones
1. La cadena de Markov nos permite tener un panorama más claro de cómo tomar una decisión
visualizando las probabilidades que un evento suceda independientemente de los eventos
pasados.
2. Los procesos de Markov son procesos estocásticos en los que el desarrollo futuro depende
solamente del estado actual del sistema.
3. La cadena de Markov está basado en probabilidades y puede ser utilizado en una gran
variedad de áreas ya que está orientado a evitar posibles problemas o de mejorar resultados.
5
Bibliografía
Mosquera, I. M. (2020). Obtenido de
http://blog.espol.edu.ec/adguale/files/2022/01/Proyecto_MARKOV_MM.pdf
TAHA, H. A. (2012). Investigacion de Operaciones. MEXICO: PEARSON EDUCACION.
Taibo, A. (2002). Investigacion de Operaciones para los no matematicos. Mexico: Instituto Politecnico
Nacional.
Winston, W. L. (S.F). Investigacion de Operaciones. Mexico: Thompson.
6
Anexos
Figura 1.1.
Grafo de probabilidad
Fuente:View Diagrama De Transicion Pics - Maesta (mapaestadosunidossmall.blogspot.com)
7
Figura 1.2
Ejemplo de una Cadena Markov
Fuente Procesos y Cadenas de Markov (slideshare.net)
Figura 1.3
La figura muestra un proceso estocástico donde X es el número de personas que hay en una cola
en el instante t.
Fuente: GONZÁLEZ VILLEGAS, L. T. Procesos de Markov. Ciencia pag.76. Maracaibo,
Venezuela: Red Universidad del Zulia, 1994
8
9
Descargar