INSTITUTO POLITÉCNICO NACIONAL ESCUELA SUPERIOR DEFÍSICA Y M ATEMÁTICAS Procesos Estocásticos Apuntes Profesor Jorge Rubén Villanueva López 2022 Procesos Estocásticos |2 Elementos de un sistema estocástico Un proceso o sucesión de eventos que se desarrolla en el tiempo en el cual el resultado en cualquier etapa contiene algún elemento que depende del azar se denomina proceso aleatorio o proceso estocástico. por ejemplo, la sucesión podría ser las condiciones del tiempo en el país en una serie de días consecutivos: el clima cambia día a día de una manera que en apariencia es algo aleatoria. o bien, la sucesión podría consistir en los precios de las acciones que cotizan en la bolsa en donde otra vez interviene cierto grado de aleatoriedad. un ejemplo simple de un proceso estocástico es una sucesión de ensayos de Bernoulli, por ejemplo, una sucesión de lanzamientos de una moneda. en este caso, el resultado en cualquier etapa es independiente de todos los resultados previos (esta condición de independencia es parte de la definición de los ensayos de Bernoulli). sin embargo, en la mayoría de los procesos estocásticos, cada resultado depende de lo que sucedió en etapas anteriores del proceso. por ejemplo, el tiempo en un día determinado no es aleatorio por completo, sino que es afectado en cierto grado por el tiempo de días previos. el precio de una acción al cierre de cualquier día depende en cierta medida del comportamiento de la bolsa en días previos. el caso más simple de un proceso estocástico en que los resultados dependen de otros ocurre cuando el resultado en cada etapa sólo depende del resultado de la etapa anterior y no de cualquiera de los resultados previos. el proceso se denomina proceso de Markov o cadena de Markov (Una cadena de eventos, cada evento ligado al precedente). estas cadenas reciben su nombre en honor del matemático ruso Andrei Andreevitch Markov (1856-1922). Como mencionamos anteriormente, estas cadenas tienen memoria, recuerdan el último evento y eso condiciona las posibilidades de los eventos futuros. Procesos Estocásticos |3 esto justamente las distingue de una serie de eventos independientes como el hecho de tirar una moneda. este tipo de proceso presenta una forma de dependencia simple, pero muy útil en muchos modelos, entre las variables aleatorias que forman un proceso esto. se utilizan, por ejemplo, para analizar patrones de compra de deudores morosos, para planear necesidades de personal, para analizar el reemplazo de un equipo, entre otros. podemos definir un proceso estocástico como una colección indexada de variables aleatorias {𝑋𝑡 }, Donde el índice 𝑡 toma valores de un conjunto 𝑇 dado, considerándose generalmente a 𝑡 como un momento particular en el tiempo y a 𝑇 el conjunto de instantes de tiempo en los cuales 𝑋𝑡 tomará valores. de esta manera se define a 𝑋𝑡 como una característica de interés que evoluciona en el tiempo de manera probabilística. veamos ahora los conceptos fundamentales de los procesos estocásticos. supóngase un proceso estocástico elemental con una variable aleatoria indexada {𝑋𝑡 }. Definiremos los componentes básicos de este proceso estocástico atendiendo al alcance de este curso. Instantes de tiempo 𝒕 Corresponden a “momentos en el tiempo” donde probablemente se producen cambios de la variable aleatoria. en un experimento se puede decir que 𝑡 ∈ 𝑇 son los momentos de observación del fenómeno aleatorio, donde se verifican los cambios de estado de la variable aleatoria (o variables aleatorias). ejemplos de representación de los instantes de tiempo son los siguientes: 𝑡0𝑡0 = 0 𝑡1 = 1 𝑝𝑚 𝑡2 = 2 𝑝𝑚 … 𝑡0 = 𝐸𝑛𝑒𝑟𝑜 𝑡1 = 𝐹𝑒𝑏𝑟𝑒𝑟𝑜 𝑡2 = 𝑀𝑎𝑟𝑧𝑜 … 𝑡0 = 𝐸𝑛𝑒𝑟𝑜 𝑡1 = 𝐹𝑒𝑏𝑟𝑒𝑟𝑜 𝑡2 = 𝑂𝑐𝑡𝑢𝑏𝑟𝑒 … 𝑡>0 o 2 < 𝑡 < 10 Instantes de tiempo discretos Instantes de tiempo continuos dentro de un intervalo Tenga en cuenta que los momentos 𝑡 que se definan dentro del conjunto 𝑇 de instantes de tiempo, son aquellos momentos donde nos interese inspeccionar el estado de la variable. como ejemplo, supóngase el estudio de la variable demanda de un producto, y que además dicha demanda puede variar mes a mes. para estudiar este fenómeno aleatorio se puede establecer que los meses en los cuales se quiere verificar el valor que toma la demanda son únicamente enero, febrero y octubre, esto por motivo de que, en los demás meses, esta variable se comporta de manera estable y uniforme, siendo factible en estos otros meses determinar con algo de certeza cuál será su valor. en este caso, estos 3 meses serían los instantes de tiempo, y el proceso demanda se consideraría un proceso estocástico ya que no se sabe cuál será la demanda en dichos meses con exactitud, aunque se disponga de cierta información probabilística o se espere disponer de ella. Procesos Estocásticos |4 Estado un estado es un valor que toma la variable aleatoria en cada momento 𝑡. en otras palabras, en cada momento 𝑡 el proceso estocástico {𝑋𝑡 } se encuentra en un determinado estado. los Estados son mutuamente excluyentes para cada 𝑡, y pueden ser finitos o infinitos, cualitativos o cuantitativos. Ejemplo sea 𝑋𝑡 = El número de camiones que esperan hacer descargados en un muelle de recepción de mercancías en un tiempo 𝑡, como se muestra en la siguiente tabla: Instantes de tiempo 𝒕 𝑡 𝑡 𝑡 𝑡 =0 =1 =2 =3 8:00 am 9:00 am 10:00 am 11:00 am Estados de la variable {𝑿𝒕 } 𝑋0 = 2 camiones 𝑋1 = 1 camiones 𝑋2 = 4 camiones 𝑋3 = 0 camiones Estados posibles (espacio de Estados 𝛀) Ω = {0,1,2,3,4,5} En este estudio se estableció (tercera columna de la tabla) que la variable podía tener sólo 6 valores posibles, no pudiendo haber más de 5 camiones esperando a descargarse. Introducción a las cadenas de Markov ¿Qué utilidad se busca en las cadenas de Markov? la idea es encontrar una herramienta telescópica que permita aproximarnos objetivamente al futuro. el análisis del Markov, permite encontrar la probabilidad de que un sistema se encuentre en un estado futuro, en particular, en un momento dado. con esta información probabilística se pretende entonces predecir el comportamiento del sistema a través del tiempo. cadenas de Markov Procesos de predicción y planeación La memoria temporal de las cadenas de Markov sea la siguiente secuencia del Estado por el proceso estocástico {𝑋𝑡 }. 𝑋𝑡+1 = 𝑗 Estado futuro 𝑋𝑡 = 𝑖 Estado actual 𝑋𝑡−1 = 𝑘𝑡−1 , 𝑋𝑡−2 = 𝑘𝑡−2 … Estados pasados Procesos Estocásticos |5 Las cadenas de Markov tienen la propiedad particular de que las probabilidades que describen la forma en que el proceso evolucionará en el futuro, dependen sólo del Estado actual en que se encuentra el proceso, y, por lo tanto, son independientes de los eventos ocurridos en el pasado. cadenas de Markov definición una cadena de Markov es una sucesión de ensayos similares u observaciones en la cual cada ensayo tiene el mismo número finito de resultados posibles y en donde la probabilidad de que cada resultado para un ensayo dado depende sólo del resultado del ensayo inmediatamente precedente y no de cualquier resultado previo. Propiedad de Markov dada una secuencia de variables aleatorias 𝑋1 , 𝑋2 , 𝑋3 , … , tales que el valor de 𝑋𝑡 es el estado del proceso en el tiempo 𝑡. Si la distribución de probabilidad condicional de 𝑋𝑡+1 en Estados pasados es una función de 𝑋𝑡 por sí sola, entonces: 𝑃(𝑋𝑡+1 |𝑋𝑡 = 𝑥𝑡 , 𝑋𝑡−1 = 𝑥𝑡−1 , … , 𝑋2 = 𝑥2 , 𝑋1 = 𝑥1 ) = 𝑃(𝑋𝑡+1 = 𝑥𝑡+1 |𝑋𝑡 = 𝑥𝑡 ) Donde 𝑥𝑖 es el estado del proceso instante 𝑖. esta identidad es la denominada propiedad de Markov. el estado en 𝑡 + 1 sólo depende del Estado en 𝑡 y no de la evolución anterior del sistema. a los posibles valores que pueda tomar la variable aleatoria se le denominaran Estados, por lo que se puede tener un espacio de Estados discreto y un espacio de Estados continuo. Por otro lado, la variable tiempo puede ser de tipo discreto o de tipo continuo. en el caso del tiempo discreto se podría tomar como ejemplo que los cambios de Estado ocurran cada día, cada mes, cada año, etc. en el caso del tiempo continuo, los cambios de Estado se podrían realizar en cualquier instante. el principal interés del estudio a realizar en el caso discreto es el cálculo de probabilidades de ocupación de cada estado a partir de las probabilidades de cambio de Estado. Si en el instante 𝑡 se está en el estado 𝑖, ¿con qué probabilidad se estará en el estado 𝑗 en el estado siguiente 𝑡 + 1? Llamemos 𝑃𝑖𝑗 la probabilidad de estar en el estado 𝑗 en el momento 𝑡 + 1, conocidos los Estados anteriores: 𝑃𝑖𝑗 = 𝑃{𝑋𝑡+1 = 𝑗 |𝑋𝑡 = 𝑖, 𝑋𝑡−1 = 𝑘𝑡−1 , … , 𝑋1 = 𝑘1 , 𝑋0 = 𝑘0 } = 𝑃{𝑋𝑡+1 = 𝑗 |𝑋𝑡 = 𝑖} 𝑃𝑖𝑗 = 𝑃{𝑋𝑡+1 = 𝑗 |𝑋𝑡 = 𝑖} A la probabilidad condicional 𝑃(𝑋𝑡+1 = 𝑗|𝑋𝑡+1 = 𝑗 ) se le llama probabilidad de transición del Estado 𝒊 al estado 𝒋 y se seguirá simbolizando simplemente como 𝑷𝒊𝒋 . A las probabilidades del tipo 𝑃(𝑋𝑡 = 𝑥𝑡 ) se les denomina probabilidades de ocupación de Estado. A continuación, se dan unos ejemplos de procesos estocásticos de tiempo discreto. Procesos Estocásticos |6 Ejemplo 1 la ruina del jugador. en el tiempo 0 tengo $ 2,000. en los tiempos 1, 2, … se participa en un juego en el que sólo se puede apostar $1000. se gana con probabilidad 𝑝, y se pierde con probabilidad 1 − 𝑝. el objetivo es aumentar el capital a $4000, y tan pronto como se logre se suspende el juego. el juego también se suspende si el capital se reduce a $0. a) b) c) d) determine el conjunto de Estados ¿𝑋𝑡 Es un proceso estocástico discreto o continuo? ¿cuáles son las variables aleatorias involucradas? determine las siguientes probabilidades de transición: 𝑃00 , 𝑃01 , 𝑃20 , 𝑃22 , 𝑃33 , 𝑃32 , 𝑃42 , 𝑃44 Solución Sea 𝑡 el tiempo después de determinada la 𝑡 − é𝑠𝑖𝑚𝑎 partida y 𝑋𝑡 la variable aleatoria que representa el capital que poseo después del juego cuando el tiempo es 𝑡, si es que lo hay. a) los Estados que puede tomar el sistema son estado 0 tener $0 estado 1 tener $1000 estado 2 tener $2000 estado 3 tener $3000 estado 4 tener $4000 b) {𝑋𝑡 } Es un proceso estocástico de tiempo discreto c) Nótese que 𝑋0 = 2 es una constante conocida, pero que 𝑋1 y las demás 𝑋𝑡 son aleatorias. d) determine las siguientes probabilidades de transición: 𝑃00 = 1 𝑃01 = 0 Si en el estado es 0 a 4 no juego 𝑃20 = 0 más y, por lo tanto, el estado no 𝑃22 = 0 puede cambiar, entonces 𝑃33 = 0 𝑃32 = 1 − 𝑝 𝑃00 = 𝑃44 = 1 𝑃42 = 𝑝 𝑃44 = 1 Por razones obvias, a estos casos se les llama problema de la ruina del jugador. Ejemplo 2 una urna contiene 2 esferas, las cuales se encuentran sin pintar. se selecciona una esfera al azar y se lanza una moneda. Si la esfera elegida no está pintada y la moneda sale sol, pintamos la esfera de rojo; si la moneda sale águila, la pintamos de negro. Si la esfera ya está pintada, Entonces cambiamos el color de la esfera de rojo a negro o de negro a rojo, independientemente de si la moneda produce sol o águila. para modelar este caso como proceso estocástico, definimos a 𝑡 como el tiempo después que la moneda lanzada por 𝑡 −ésima vez y se ha pintado la esfera escogida. en cualquier tiempo se puede representar el estado del sistema mediante el vector [𝑢, 𝑟, 𝑏], Donde 𝑢 es el número de esferas sin pintar en la urna, 𝑟 el número de esferas rojas y 𝑏 el de esferas negras. a) Determine el conjunto de Estados Procesos Estocásticos |7 b) determinar la probabilidad de pasar del Estado: [1,1,0] Al estado [0,0,2], [1,1,0] Al estado [0,2,0] y de [1,1,0] Al estado [1,0,1]. Solución a) Los estados que puede tomar el sistema son: Estado 1 [2,0,0] Estado 2 [1,1,0] Estado 3 [1,0,1] Estado 4 [0,1,1] Estado 5 [0,2,0] Estado 6 [0,0,2] b) La probabilidad de pasar del estado [1,1,0] al estado [0,0,2] Dadas las condiciones del problema, no es posible pasar de [1,1,0] al estado [0,0,2]. Por lo tanto, la probabilidad es cero. La probabilidad de pasar del estado [1,1,0] al estado [0,2,0] 1 Para que ocurra esto, debe ocurrir que se seleccione una esfera sin pintar (con probabilidad 2) y 1 que el resultado del lanzamiento de la moneda sea cara (con probabilidad 2), lo que da una 1 4 probabilidad de . La probabilidad de pasar del estado [1,1,0] al estado [1,0,1] 1 2 Si se escoge la esfera roja (con probabilidad de ), sin importar el resultado del lanzamiento de 1 2 la moneda a esta se le cambiará el color y se alcanza así el estado [1,0,1] con probabilidad . Es la matriz conformada por las probabilidades condicionales de transición de estados, desde el instante 𝑡 hasta el instante 𝑡 + 1. Se puede intuir que se llama de un paso puesto que se evalúan las probabilidades condicionales después de pasada una unidad de tiempo. Esta matriz se representa como en la siguiente tabla. Estados actuales Estado 1 ⋮ 𝑖 ⋮ 𝑟 𝟏 𝑃11 ⋯ ⋯ ⋯ 𝑃𝑟1 Estados futuros 𝒋 𝒓 ⋯ 𝑃1𝑟 ⋯ ⋯ 𝑃𝑖𝑗 ⋯ ⋯ ⋯ ⋯ 𝑃𝑟𝑟 𝑃11 𝑃21 [ ⋮ 𝑃𝑠1 𝑃12 𝑃22 ⋮ 𝑃𝑠2 ⋯ 𝑃1𝑠 ⋯ 𝑃2𝑠 ] ⋱ ⋮ ⋯ 𝑃𝑠𝑠 El elemento en la fila 𝑖, columna 𝑗, 𝑃𝑖𝑗 = 𝑃(𝑋𝑛 = 𝑠𝑗 |𝑋𝑛−1 = 𝑠𝑖 ), representa la probabilida de transición de un paso. Dado que el estado es 𝑖 en el tiempo 𝑡, el proceso debe estar en algún lugar en el tiempo 𝑡 + 1. Esto significa que para cada 𝑖, Procesos Estocásticos |8 𝑠 ∑ 𝑃(𝑋𝑡+1 = 𝑗 |𝑋𝑡 = 𝑖) = 1 𝑗=1 O bien que 𝑠 ∑ 𝑃𝑖𝑗 = 1 𝑗=1 También sabemos que cada elemento de la matriz de transición debe ser no negativa. Por lo tanto, todos los elementos de la matriz de probabilidad de transición son no negativos y, además, los elementos de cada renglón deben sumar 1. El estudio de las cadenas de Markov también necesita que se defina 𝑞𝑖 como la probabilidad de que la cadena se encuentre en el estado 𝑖 en el tiempo 0; en otras palabras, 𝑃(𝑋0 = 𝑖) = 𝑞𝑖 . Al vector 𝑞 = [𝑞1 , 𝑞2 , … , 𝑞𝑠 ] se le llama distribución inicial de la cadena de Markov. Definición Un proceso estocástico de tiempo discreto es una cadena de Markov si para 𝑡 = 0,1,2, … y todos los estados, 𝑃(𝑋𝑡+1 = 𝑖𝑡+1 | 𝑋𝑡 = 𝑖𝑡 , 𝑋𝑡−1 = 𝑖𝑡−1 , … , 𝑋1 = 𝑖, 𝑋0 = 𝑖0 ) = 𝑃(𝑋𝑡+1 = 𝑖𝑡+1 |𝑋𝑡 = 𝑖𝑡 ) … (1) En esencia, la ecuación (1) dice que la distribución de probabilidad del estado en el tiempo 𝑡 + 1 depende del estado en el tiempo 𝑡(𝑖𝑡 ) y no depende de los estados por los cuales paso la cadena para llegar a 𝑖𝑡 , ene le tiempo 𝑡 , es decir, el estado que tomara el sistema en el futuro inmediato solo depende del presente más no del pasado. Si para cualquier par de estado 𝑖 y 𝑗 ocurre 𝑃(𝑋𝑡+1 = 𝑗|𝑋𝑡 = 𝑖) toma el mismo valor para todo 𝑡, se dice que la cadena de Markov es estacionaria en el tiempo y se puede escribir: 𝑃(𝑋𝑡+1 = 𝑗|𝑋𝑡 = 𝑖) = 𝑃(𝑋1 = 𝑗|𝑋0 = 𝑖) … (2) Donde 𝑃𝑖𝑗 es la probabilidad de que dado el sistema está en el estado 𝑖 en el tiempo 𝑡, el sistema estará en el estado 𝑗 en el tiempo 𝑡 + 1. Con frecuencia, en una cadena de Markov, a las 𝑃𝑖𝑗 , se les conoce con el nombre de probabilidades de transición estacionarias. La ec. (2) indica que la ley de probabilidad que relaciona el estado tomado en el siguiente periodo con el estado actual del sistema no cambia, o que permanece estacionaria, en el tiempo. Por este motivo, a menudo se llama Hipótesis de estabilidad a la ecuación (2). Toda cadena estacionaria de Markov que cumple con la ec. (2) se llama cadena estacionaria de Markov. Ejemplo 3 Encuentre la matriz de transición del ejemplo 1. Procesos Estocásticos |9 Solución La matriz de transición es la siguiente: 0 0 1 1 0 0 0 1 1−𝑃 𝑃=2 0 1−𝑃 3 0 0 4 [ 0 0 2 3 0 𝑃 0 1−𝑃 0 0 0 𝑃 0 0 4 0 0 0 𝑃 1] Una matriz de transición se puede representar con una gráfica en la que cada nodo represente un estado y 𝑎𝑟𝑐(𝑖, 𝑗) represente la probabilidad de transición 𝑃𝑖𝑗 . La siguiente figura es una representación gráfica de la matriz de probabilidad de transición para este ejemplo. 1-P 1 0 1-P P 1 2 1-P P 3 4 P Ejemplo 4 Determine la matriz de transición del ejemplo 2. Solución [0,1,1] 0 [0,1,1] [0,2,0] 𝑃 = [0,0,2] [2,0,0] [1,1,0] [ [1,0,1] [0,2,0] [0,0,2] [2,0,0] [1,1,0] [1,0,1] 0 1/2 1/2 0 0 0 0 0 0 1 0 0 0 0 0 1 0 0 0 1/2 1/2 0 0 0 1/4 1/4 0 0 0 1/2 1/4 0 1/4 0 1/2 0] En la siguiente figura se da una representación gráfica de esta matriz de transición. ∎ 1 P r o c e s o s E s t o c á s t i c o s | 10 Se denotará a 𝜋𝑖 (𝑡) como la probabilidad de alcanzar el estado 𝑖 en el instante 𝑡 𝑃(𝑋𝑡 = 𝑖) = 𝜋𝑖 (𝑡) Siguiendo la lógica de la notación, escribiremos la Ley de Probabilidades asociada a 𝑋𝑡 como: 𝜋(𝑡) = [𝜋1 (𝑡), 𝜋2 (𝑡), … , 𝜋𝑟 (𝑡)] Se simboliza entonces a la Ley inicial del Sistema como: 𝜋(0) = [𝜋1 (0), 𝜋2 (0), … , 𝜋𝑟 (0) Ejemplo Después de mucho estudio sobre el clima, hemos visto que si un día esta soleado, en el 70% de los casos el día siguiente, continúa soleado y en el 30% se pone nublado. En términos de probabilidad, lo que nos sirve entonces para predecir el clima, vemos que la probabilidad de que continúe soleado el día siguiente es de 0.7 y la probabilidad de que al día siguiente esté nublado es 0.3. también nos fijamos en que, si un día está nublado, la probabilidad de que este soleado el día siguiente es 0.6 y la probabilidad de que se ponga nublado es 0.4. sí hoy está nublado, ¿cuál es la probabilidad de que mañana continúe nublado? Solución analicemos este caso a través de las cadenas de Markov. la información que nos proporcionan es la siguiente: Espacio de estados: {𝑠𝑜𝑙𝑒𝑎𝑑𝑜, 𝑛𝑢𝑏𝑙𝑎𝑑𝑜} Periodo de tiempo de transición de estados: un día Matriz de probabilidades de transición de un paso: 𝑃(𝑥1 = 𝑛𝑢𝑏𝑙𝑎𝑑𝑜 | 𝑋0 = 𝑛𝑢𝑏𝑙𝑎𝑑𝑜) = 0.4 𝑃(𝑥1 = 𝑛𝑢𝑏𝑙𝑎𝑑𝑜 | 𝑋0 = 𝑠𝑜𝑙𝑒𝑎𝑑𝑜) = 0.3 𝑃(𝑥1 = 𝑠𝑜𝑙𝑒𝑎𝑑𝑜 | 𝑋0 = 𝑛𝑢𝑏𝑙𝑎𝑑𝑜) = 0.6 𝑃(𝑥1 = 𝑠𝑜𝑙𝑒𝑎𝑑𝑜 | 𝑋0 = 𝑠𝑜𝑙𝑒𝑎𝑑𝑜) = 0.7 Matriz de transición de un paso, del tiempo 𝑡 al tiempo 𝑡 + 1 𝑡 𝑃𝑡+1 = ESTADOS soleado nublado soleado 0.7 0.6 nublado 0.3 0.4 Ley inicial del sistema: Hoy está nublado (condición inicial) y por tanto la ley inicial es: 𝜋𝑠𝑜𝑙𝑒𝑎𝑑𝑜 (0) = 𝑃(𝑋0 = 𝑠𝑜𝑙𝑒𝑎𝑑𝑜) = 0 𝜋𝑛𝑢𝑏𝑙𝑎𝑑𝑜 (0) = 𝑃(𝑋0 = 𝑛𝑢𝑏𝑙𝑎𝑑𝑜) = 1 𝜋(0) = [𝜋𝑠𝑜𝑙𝑒𝑎𝑑𝑜 (0), 𝜋𝑛𝑢𝑏𝑙𝑎𝑑𝑜 (0)] = [0,1] La pregunta entonces es, dada la ley inicial en 𝑡 = 0, hallar las leyes de probabilidad un día después, es decir, en 𝑡 = 1. P r o c e s o s E s t o c á s t i c o s | 11 Para lograr esto debemos recordar el Teorema de Probabilidad Total, que lo aplicaríamos de la siguiente forma: 𝑃(𝑋1 = 𝑛𝑢𝑏𝑙𝑎𝑑𝑜) = 𝑃(𝑋0 = 𝑛𝑢𝑏𝑙𝑎𝑑𝑜)𝑃(𝑋1 = 𝑛𝑢𝑏𝑙𝑎𝑑𝑜 | 𝑋0 = 𝑛𝑢𝑏𝑙𝑎𝑑𝑜) + 𝑃(𝑋0 = 𝑠𝑜𝑙𝑒𝑎𝑑𝑜)𝑃(𝑋1 = 𝑛𝑢𝑏𝑙𝑎𝑑𝑜 | 𝑋0 = 𝑠𝑜𝑙𝑒𝑎𝑑𝑜) Por lo tanto, 𝑃(𝑋1 = 𝑛𝑢𝑏𝑙𝑎𝑑𝑜) = (1 ∗ 0.4) + (0 ∗ 0.3) = 40% Se puede notar que en el día de mañana hay más probabilidad de que este el día soleado. Se calcula en este caso 𝑃(𝑋1 = 𝑠𝑜𝑙𝑒𝑎𝑑𝑜) se dará cuenta que es igual al 60%, y, por lo tanto, la ley de Probabilidades del día de mañana dada la condición inicial de nublado será: 𝜋(1) = [𝜋𝑠𝑜𝑙𝑒𝑎𝑑𝑜 (1), 𝜋𝑛𝑢𝑏𝑙𝑎𝑑𝑜 (1)] = [60%, 40%] Y que pasa si quisiéramos predecir de alguna manera lo que ocurrirá mañana, cuando no tengo precisión acerca de la Ley inicial del sistema. Para esto, supongamos que en vez de afirmar tan rotundamente que hoy está nublado, dijéramos que está nublado con una precisión del 80% en nuestra afirmación, es decir, que está bastante nublado, pero no tanto como para afirmar que está totalmente nublado. En este caso podemos decir que la Ley inicial del sistema es: 𝜋(0) = [𝜋𝑠𝑜𝑙𝑒𝑎𝑑𝑜 (0), 𝜋𝑛𝑢𝑏𝑙𝑎𝑑𝑜 (0)] = [20%, 80%] Y de nuevo hacemos la pregunta ¿cuál es la probabilidad de que mañana esté nublado? 𝑃(𝑋1 = 𝑛𝑢𝑏𝑙𝑎𝑑𝑜) = (0.8 ∗ 0.4) + (0.2 ∗ 0.3) = 0.38∎ En cualquiera de los dos casos anteriores observemos que: [𝜋𝑠𝑜𝑙𝑒𝑎𝑑𝑜 (0), 𝜋𝑛𝑢𝑏𝑙𝑎𝑑𝑜 (0)] × [0.7 0.3] = [𝜋𝑠𝑜𝑙𝑒𝑎𝑑𝑜 (1), 𝜋𝑛𝑢𝑏𝑙𝑎𝑑𝑜 (1)] 0.6 0.4 [(0.2 ∗ 0.7) + (0.8 ∗ 0.6), (0.2 ∗ 0.3) + (0.8 ∗ 04)] = [0.62 0.38] Continuando con el ejemplo anterior, si hoy está nublado, ¿Cuál es la probabilidad de que pasado mañana continue nublado? Solución Podría pensarse que [𝜋𝑠𝑜𝑙𝑒𝑎𝑑𝑜 (1), 𝜋𝑛𝑢𝑏𝑙𝑎𝑑𝑜 (1)] × [0.7 0.3] = [𝜋𝑠𝑜𝑙𝑒𝑎𝑑𝑜 (2), 𝜋𝑛𝑢𝑏𝑙𝑎𝑑𝑜 (2)] 0.6 0.4 Con lo cual: [𝜋𝑠𝑜𝑙𝑒𝑎𝑑𝑜 (2), 𝜋𝑛𝑢𝑏𝑙𝑎𝑑𝑜 (2)] = [0.62 0.38] × [0.7 0.3] = [0.662 0.338] 0.6 0.4 Por, lo tanto la probabilidad de que pasado mañana continue nublado es de 0.338. En general, se tiene que para cualquier cadena de Markov 𝜋(1) = 𝜋(0) × 𝑃10 … (1) P r o c e s o s E s t o c á s t i c o s | 12 Esta es una primera generalización de las Leyes de Probabilidad. A partir de (1), obtenemos: 𝑡 𝜋(𝑡 + 1) = 𝜋(𝑡)𝑃𝑡+1 … (2) Y si usamos de una manera inductiva esta última ecuación, tendremos que: 𝜋(𝑛) = 𝜋(0)𝑃10 𝑃21 … 𝑃𝑛𝑛+1 … (3) La ecuación (3) corresponde a la ley de probabilidades a priori para el estado del sistema en un instante futuro 𝑛, y se observa que depende exclusivamente de la ley inicial 𝜋(0) y del conjunto de matrices de 𝑡 transición de un paso {𝑃𝑡+1 }. supongamos ahora que nos interesa conocer la ley de probabilidad del proceso estocástico {𝑋𝑡 } pero en el instante 𝑡 + 2. según la ecuación (2) tenemos que: 𝑡+1 𝜋(𝑡 + 2) = 𝜋(𝑡 + 1)𝑃𝑡+2 pero por la misma ecuación (2) podemos reemplazar 𝜋(𝑡 + 1) por su equivalente: 𝑡 𝑡+1 𝜋(𝑡 + 2) = 𝜋(𝑡)𝑃𝑡+1 𝑃𝑡+2 … (4) con base en la ecuación (4) se puede definir la matriz de transición de dos pasos como: 𝑡 𝑡 𝑡+1 𝑃𝑡+2 = 𝑃𝑡+1 𝑃𝑡+2 … (5) 𝑡 los elementos de la matriz de transición de dos pasos 𝑃𝑡+2 [𝑖, 𝑗] representan por tanto las 𝑝 condicionales de que el sistema evolucione a un estado 𝑗 en el instante 𝑡 + 2, dado que el instante 𝑡 se encuentra en el estado 𝑖. la ecuación de Chapman-Kolmogorov corresponde a una generalización de la ecuación (5) y afirma que: dados tres instantes de tiempo cualquiera 𝑛, 𝑘 y 𝑚, tal que 𝑛 ≤ 𝑘 ≤ 𝑚, se cumple siempre que: 𝑃𝑚𝑛 = 𝑃𝑘𝑛 𝑃𝑚𝑘 ∀𝑛, 𝑘, 𝑚 con 𝑛 ≤ 𝑘 ≤ 𝑚 … (6) a la ecuación (6) se le conoce como la ecuación de Chapman-Kolmogorov y es una consecuencia directa de la definición de probabilidades condicionales. Cadenas de Markov homogéneas el resto de este capítulo se enfocará en los pasos especiales en que la probabilidad de evolución del sistema no depende de 𝑡, es decir que se tienen las siguientes igualdades: 𝑡 𝑃01 = 𝑃21 = 𝑃31 = ⋯ = 𝑃𝑡+1 =𝑃 es decir, lo anterior es equivalente a imponer que las probabilidades de transición de un paso son constantes, independientes de 𝑡: 𝑡 𝑃𝑡+1 =𝑃 ∀𝑡 esto se le llama probabilidades de transición estacionarias u homogéneas. P r o c e s o s E s t o c á s t i c o s | 13 esto implica que la evolución del sistema en cadenas de Markov homogéneas, es decir, las leyes de probabilidad "𝑛" períodos de tiempo hacia el futuro, viene dada por: 𝜋(𝑛) = 𝜋(0)𝑃10 𝑃21 … 𝑃𝑛𝑛−1 = 𝜋(0) ∙ (𝑃)𝑛 𝜋(𝑛) = 𝜋(0) ∙ 𝑃(𝑛) … (7) A 𝑃(𝑛) se le denomina matriz de transición de 𝑛 pasos, y como puede notarse es igual a multiplicar “n veces” la matriz única 𝑃. en cadenas de Markov la evolución del sistema queda plenamente definida entonces solamente la ley inicial del sistema 𝜋(0), y la matriz de transición de un paso única 𝑃. considérese la siguiente matriz de probabilidades de transición de un paso para el caso de 3 estados 𝐴, 𝐵, 𝐶 de un proceso estocástico cualquiera 0 𝐴 𝑃= 𝐵 𝐶 𝐴 0.2 [0.7 0.3 𝐵 0.5 0.2 0.6 𝐶 0.3 0.1] 0.1 en general, una de las propiedades de la matriz de transición 𝑃 es que la sumatoria de los elementos de las filas suman "1", es decir: 𝑟 ∑ 𝑃𝑖𝑗 = 1 𝑖 = 1,2, … , 𝑟 𝑗=1 esta misma propiedad de 𝑃 la tienen como es razonable todas las matrices 𝑃(𝑛) 0.48 0.38 0.14 0.2 0.5 0.3 0.2 0.5 0.3 𝑃(2) = [0.7 0.2 0.1] [0.7 0.2 0.1] = [0.31 0.45 0.24] 0.51 0.33 0.16 0.3 0.6 0.1 0.3 0.6 0.1 observe que la sumatoria de los elementos de cada fila suman "1", tal como debe esperarse. la interpretación de los elementos de la matriz 𝑃(2) puede verse con estos dos ejemplos: Existe una probabilidad del 48% de que el proceso evolucione después de dos períodos de tiempo hacia el estado 𝐴, dado que actualmente se encuentra en el estado 𝐴. Hay una probabilidad de 24% de que el proceso evolucione después de dos periodos de tiempo hacia el estado 𝐶, dado que actualmente se encuentre en el estado 𝐵. la probabilidad de pasar por primera vez del estado 𝑖 al 𝑗 después de 𝑛 periodos se simboliza como: (𝑛) 𝑓𝑖𝑗 Veamos una forma general de hallar esta probabilidad de primera pasada, utilizando la información de las matrices 𝑃 y 𝑃(𝑛) . (1) (1) dado que por lógica simple se tiene que 𝑓𝐵𝐴 = 𝑃𝐵𝐴 , observe cuidadosamente la siguiente relación: (2) (2) (1) (1) 𝑓𝐵𝐴 = 𝑃𝐵𝐴 − 𝑓𝐵𝐴 ∙ 𝑃𝐵𝐵 … (8) P r o c e s o s E s t o c á s t i c o s | 14 con esta fórmula y las matrices 𝑃 y 𝑃2 obtenemos que: (2) 𝑓𝐵𝐴 = 0.31 − (0.7)(0.2) = 0.17 en la teoría, la fórmula (8) se ha estudiado y se ha generalizado para el cálculo de las probabilidades de primera pasada así: (1) 𝑓𝑖𝑗 = 𝑃𝑖𝑗 (2) (2) (1) 𝑓𝑖𝑗 = 𝑃𝑖𝑗 − 𝑓𝑖𝑗 ∙ 𝑃𝑖𝑗 ⋮ (𝑛) 𝑓𝑖𝑗 (𝑛) (1) (𝑛−1) = 𝑃𝑖𝑗 − 𝑓𝑖𝑗 ∙ 𝑃𝑖𝑗 (2) (𝑛−2) − 𝑓𝑖𝑗 ∙ 𝑃𝑖𝑗 (𝑛−1) − ⋯ − 𝑓𝑖𝑗 ∙ 𝑃𝑖𝑗 (𝑛) para dos estados cualquiera 𝑖 y 𝑗, las probabilidades 𝑓𝑖𝑗 , son números no negativos tales que: ∞ (𝑛) ∑ 𝑓𝑖𝑗 ≤1 … (9) 𝑛=1 en este caso de ser la inecuación (9) una desigualdad, estrictamente menor que uno, significa que un proceso que inició en el estado 𝑖 “puede no llegar nunca al estado j”. esto quiere decir también que si la relación (9) hizo una estricta igualdad se asegura por tanto la transición del estado 𝑖 al 𝑗. Tiempo promedio de primera pasada vamos a hallar ahora un dato generalmente muy buscado en procesos estocásticos, y es cuánto tiempo en promedio debe pasar para que partiendo de un estado 𝑖 se llegue por primera vez a un estado 𝑗. A este tiempo se le denota como 𝜇𝑖𝑗 y se le llama “tiempo promedio de primera pasada”. Para calcular 𝜇𝑖𝑗 , primeramente, hay que decir que 𝜇𝑖𝑗 tomará valores siempre y cuando la fórmula (9) corresponda a una igualdad, es decir: ∞ ∞ 𝜇𝑖𝑗 = 𝑆𝑖 ∑ 𝑛=1 ∞ ∞ { ∑ 𝑆𝑖 𝑛=1 ∑ 𝑛=1 (𝑛) 𝑓𝑖𝑗 (𝑛) 𝑓𝑖𝑗 ≤1 … (10) =1 supongamos que actualmente estamos en el estado 𝑖. Entonces con probabilidad 𝑃𝑖𝑗 , se necesitará una transición para pasar del estado 𝑖 al estado 𝑗. luego para 𝑘 ≠ 𝑗, con probabilidad 𝑃𝑖𝑘 se pasará al estado 𝑘. en este caso, tomará un promedio de 1 + 𝜇𝑘𝑗 transiciones para ir de 𝑖 a 𝑗. este razonamiento implica que: P r o c e s o s E s t o c á s t i c o s | 15 𝜇𝑖𝑗 = 𝑃𝑖𝑗 (1) + ∑ 𝑃𝑖𝑘 (1 + 𝜇𝑘𝑗 ) 𝑘≠𝑗 Como 𝑃𝑖𝑗 + ∑𝑘≠𝑗 𝑃𝑖𝑘 = 1 podemos reescribir la ecuación anterior como 𝜇𝑖𝑗 = 1 + ∑ 𝑃𝑖𝑘 ∙ 𝜇𝑘𝑗 … (11) 𝑘≠𝑗 = 1 + 𝑃𝑖1 ∙ 𝜇1𝑗 + 𝑃𝑖2 ∙ 𝜇2𝑗 + 𝑃𝑖3 ∙ 𝜇3𝑗 + ⋯ Donde 𝑃𝑖𝑘 son probabilidades condicionales, que corresponden a datos de la conocida matriz 𝑃. por ejemplo, calculemos el tiempo de primera pasada del estado 𝐵 al 𝐴 en el caso ya visto, se construye entonces la ecuación según la fórmula (11): 𝜇21 = 1 + 𝑃21 ∙ 𝜇11 + 𝑃22 ∙ 𝜇21 + 𝑃23 ∙ 𝜇31 o 𝜇𝐵𝐴 = 1 + 𝑃𝐵𝐵 ∙ 𝜇𝐵𝐴 + 𝑃𝐵𝐶 ∙ 𝜇𝐶𝐴 … (12) Dado que en esta ecuación se tiene a 𝜇𝐶𝐴 como incógnita, entonces construimos también la ecuación respectiva: 𝜇𝐶𝐴 = 1 + 𝑃𝐶𝐵 ∙ 𝜇𝐵𝐴 + 𝑃𝐶𝐶 ∙ 𝜇𝐶𝐴 … (13) Ahora, con las ecuaciones (12) y (13) y nuestra última matriz de transición es se hace un sistema de ecuaciones que tiene en este caso la siguiente estructura 𝜇𝐵𝐴 = 1 + 0.2𝜇𝐵𝐴 + 0.1𝜇𝐶𝐴 𝜇𝐶𝐴 = 1 + 0.6𝜇𝐵𝐴 + 0.1𝜇𝐶𝐴 La solución de este sistema arroja el resultado buscado: ̅̅̅ periodos de tiempo. 𝜇𝐵𝐴 = 1. ̅51 Es decir, el tiempo promedio que debe pasar para que partiendo del estado 𝐵 se llegué por primera vez al estado 𝐴. Ejercicio: Determine 𝜇𝐴𝐵 Solución 𝜇𝐴𝐵 = 1 + 𝑃𝐴𝐴 ∙ 𝜇𝐴𝐵 + 𝑃𝐴𝐵 ∙ 𝜇𝐵𝐵 + 𝑃𝐴𝐶 ∙ 𝜇𝐶𝐵 o 𝜇12 = 1 + 𝑃11 ∙ 𝜇12 + 𝑃12 ∙ 𝜇22 + 𝑃13 ∙ 𝜇32 Luego 𝜇𝐶𝐵 = 1 + 𝑃𝐴𝐴 ∙ 𝜇𝐴𝐵 + 𝑃𝐴𝐵 ∙ 𝜇𝐵𝐵 + 𝑃𝐴𝐶 ∙ 𝜇𝐶𝐵 P r o c e s o s E s t o c á s t i c o s | 16 𝜇32 = 1 + 𝑃11 ∙ 𝜇12 + 𝑃12 ∙ 𝜇22 + 𝑃13 ∙ 𝜇32 Entonces 𝜇𝐴𝐵 = 1 + 0.2𝜇𝐴𝐵 + 0.3𝜇𝐶𝐵 𝜇𝐶𝐵 = 1 + 0.3𝜇𝐴𝐵 + 0.1𝜇𝐶𝐵 Por lo tanto, la solución 𝜇𝐴𝐵 = 40 21 ≈ 1.9048 periodos de tiempo Clasificación de estados de una cadena de Markov la siguiente matriz de transición se usará para mostrar la mayoría de las definiciones siguientes. 0.4 0.6 0 0 0 0.5 0.5 0 0 0 𝑃= 0 0 0.3 0.7 0 0 0 0.5 0.4 0.1 [0 0 0 0.8 0.2] representación gráfica de la matriz de transición Definición Dados dos estados 𝑖 y 𝑗, la trayectoria de 𝑖 a 𝑗 es la sucesión de transiciones que comienzan en 𝑖 y termina en 𝑗, di modo que cada transición de la secuencia tenga probabilidad positiva de presentarse. Definición Un estado 𝑗 es alcanzable desde un estado 𝑖 si hay una trayectoria que vaya de 𝑖 a 𝑗, es decir, sí para algún 𝑛 ≥ 1, 𝑃𝑖𝑗 (𝑛) > 0. Entonces, que el estado 𝑗 sea alcanzable desde el estado 𝑖 significa que es posible que el sistema llegue eventualmente al estado 𝑗 si comienza en el estado 𝑖. para la matriz 𝑃 de probabilidad de transición anterior, el estado 5 es alcanzable desde el trayecto 3 (a través de la trayectoria 3-4-5), pero el estado 5 no es alcanzable desde el estado uno (no hay trayectoria que vaya de 1 a 5). P r o c e s o s E s t o c á s t i c o s | 17 Definición se dice que dos estados 𝑖 y 𝑗 se comunican si 𝑗 es alcanzable desde 𝑖, e 𝑖 es alcanzable desde 𝑗(𝑖 ⟷ 𝑗). Una propiedad importante es que al tener 3 estados 𝐸𝑖 , 𝐸𝑗 e 𝐸𝑘 , se cumple que: Si 𝐸𝑖 ⟷ 𝐸𝑗 y también 𝐸𝑖 ⟷ 𝐸𝑘 , entonces se tiene que 𝐸𝑗 ⟷ 𝐸𝑘 . Para a matriz 𝑃 de probabilidad de transición anterior, los estados 1 y 2 se comunican: podemos pasar de 1 a 2 y de 2 a 1. Definición Un conjunto de estados 𝑆 en una cadena de Markov es un conjunto cerrado si ningún estado fuera de 𝑆 es alcanzable desde un estado en 𝑆. De la cadena de Markov con la matriz 𝑃 anterior, tanto 𝑆1 = {1,2} como 𝑆2 = {3,4,5} son conjuntos cerrados. Observe que una vez que entramos a un conjunto cerrado no podemos dejarlo nunca, En el grafo de la matriz P, ningún arco comienza en 𝑆1 y termina en 𝑆2 o principia en 𝑆2 y termina en 𝑆1 . Es evidente que todos los estados de un conjunto cerrado se comunican y por lo tanto estos no son más que clases de equivalencia inducidos por la relación de comunicación. Definición una cadena de Markov es irreducible si todos sus estados pertenecen al mismo conjunto cerrado. lo anterior significa que todos los estados de la cadena pertenecen a la misma clase de equivalencia inducida por la relación de comunicación y por lo tanto todos sus estados se comunican. Definición Un estado 𝑖 es estado absorbente sí 𝑃𝑖𝑖 = 1. siempre que entramos a un estado de absorción, nunca lo podremos dejar. en el ejemplo de la ruina del jugador, los estados 0 y 4 son absorbentes. es natural que un estado absorbente sea un conjunto cerrado que solo contenga un estado. Definición Un estado 𝑖 es estado transitorio si existe un estado 𝑗 alcanzable desde 𝑖, pero el estado 𝑖 no es alcanzable desde el estado j. En otras palabras, un estado 𝑖 es transitorios hay manera de dejar el estado 𝑖 de tal modo que nunca se regrese a él. en el ejemplo de la ruina del jugador, los estados 1, 2 y 3 son estados transitorios. por ejemplo, desde el estado 2 es imposible pasar por la trayectoria 2-3-4, pero no hay modo de regresar al estado 2 desde el estado 4. Igualmente, en el ejemplo de las esferas y la moneda, [2,0,0], [1,1,0] y [1,0,1] son estados transitorios. P r o c e s o s E s t o c á s t i c o s | 18 en este caso hay una trayectoria desde [1,0,1] a [0,0,2], pero una vez que se hayan pintado ambas esferas, no hay manera de regresar a [1,0,1]. después de un gran número de períodos, la probabilidad de encontrarse en cualquier estado de transición 𝑖 es 0. cada vez que entramos a un estado 𝑖 de transición, hay una probabilidad positiva de dejar 𝑖 para siempre y terminar en el estado 𝑗 descrito en la definición de estado transitorio. Así, al final, tenemos la seguridad de entrar al estado 𝑗 (y en este caso nunca regresaremos al estado 𝑖). Así, suponga nuevamente que en el ejemplo de las esferas en la moneda nos encontramos en el estado transitorio [1,0,1]. Con probabilidad 1, la esfera no pintada la pintaremos finalmente y nunca regresaremos a ese estado [1,0,1]. Definición Si un estado muy transitorio, se llama estado recurrente. todo estado absorbente es recurrente. Lo contrario no es cierto. en el ejemplo de la ruina del jugador, los estados 0 y 4 son estados recurrentes (y también estados absorbentes). en el ejemplo de las esferas y la moneda, los estados [0,2,0], [0,0,2], [0,1,1] Son estados recurrentes. para la matriz de transición 0.4 0.6 0 0 0 0.5 0.5 0 0 0 𝑃= 0 0 0.3 0.7 0 0 0 0.5 0.4 0.1 [0 0 0 0.8 0.2] cuya gráfica es todos los estados son recurrentes. La recurrencia es una propiedad de clase, es decir, todos los estados de una clase (o conjunto cerrado) son recurrentes o son transitorios. Entonces, todos los estados de una cadena de Markov de estado finito irreducible son recurrentes. P r o c e s o s E s t o c á s t i c o s | 19 Definición Un estado 𝑖 es periódico con período 𝑘 > 1 sí 𝑘 es el menor número tal que todas las trayectorias que parten del estado 𝑖 y regresan al estado 𝑖 tienen una longitud múltiplo de 𝑘. sí un estado recurrente no es periódico, se llama aperiódico. al igual que la recurrencia es una propiedad de clase, también lo es la periodicidad. esto es, si el estado 𝑖 en una clase tiene periodo 𝑘, todos los estados de esta clase (o conjunto cerrado) tienen periodo 𝑘. Ejemplo Para la cadena de Markov cuya matriz de transición es 0 𝑄 = [0 1 1 0 0 1] 0 0 a. Hacer una gráfica b. indicar el periodo de cada estado Cada estado tiene periodo 3. por ejemplo, si comenzamos en el estado uno, la única manera de regresar a ese estado es seguir la trayectoria 1-2-3-1 durante, digamos, 𝑚 veces. por lo tanto, cualquier regreso al estado 1 tomará 3𝑚 transiciones de modo que el estado 1 tiene periodo 3. donde nos encontremos, tenemos la seguridad de regresar allí 3 periodos después. Definición si todos los estados una cadena son recurrentes, aperiódicos y se comunican entre sí, se dice que la cadena es ergódica. el ejemplo de la ruina del jugador no es una cadena ergódica porque, por ejemplo, los estados 3 y 4 no se comunican. el ejemplo de las esferas y la moneda tampoco es una cadena ergódica porque, por ejemplo, [2,0,0] y [0,1,1] No se comunican. Ejemplo de las siguientes tres cadenas de Markov indicar cuál de ellas es el ergódica: 𝑃1 = 1 2 3 1 3 2 [0 0 1 4 0 1 2 3 ; 𝑃2 = 4] 1 1 2 1 2 1 2 2 0 0 [0 0 0 0 1 1 0 0 4 2 2 1 3 3 2 2 1 3 1 3 3 4 ; 𝑃3 = 4] [0 3 1 4 0 1 3] P r o c e s o s E s t o c á s t i c o s | 20 solución Las cadenas de Markov, 𝑃1 y 𝑃3 son ergódicas y 𝑃2 no es ergódica. 𝑃2 no es ergódica porque hay 2 clases cerradas de estados (la clase 1 = {1,2} Y la clase 2 = {3,4} y los estados en clases diferentes no se comunican entre sí. Periodicidad de las clases recurrentes para una clase recurrente, se puede obtener el periodo (𝑝) como el máximo común divisor (MCD) de las longitudes de los ciclos que puede encontrarse en esa clase. partiendo de la observación de un grafo, un ciclo es una ruta que sale de un estado y regresa a él mismo. veamos los siguientes ejemplos. Ejemplo 1 Para determinar el periodo de este de cualquier otra clase recurrente, pueden obviarse los valores de las probabilidades asociadas a los arcos y únicamente observar los ciclos existentes. registraremos entonces las longitudes de dichos ciclos: • ciclos de longitud 2 (ejemplo: 3-4-3 o 5-4-5) • Ciclos de longitud 3 (ejemplo: 3-4-5-3) 𝑀𝐶𝐷(2; 3) = 1 ⟹ 𝑝𝑒𝑟𝑖𝑜𝑑𝑜 𝑝 = 1 Ejemplo 2 • • • ciclos de longitud 2 (ejemplo: B-C-B, etc.) Ciclos de longitud 4 (ejemplo: B-C-D-A-B, A-B-C-B-A, etc.) Ciclos de longitud 6 (ejemplo: A-B-C-D-C-B-A, etc.) 𝑀𝐶𝐷(2; 4; 6) = 2 ⟹ 𝑝𝑒𝑟𝑖𝑜𝑑𝑜 𝑝 = 2 Ejemplo 3 En este caso, por existir un ciclo de longitud uno, (B-B), el máximo común divisor será de cualquier forma también igual a uno, y por lo tanto se dice que esta clase recurrente tiene periodo 𝑝 = 1. considerando lo anterior se definen dos tipos de clases recurrentes ▪ ▪ Clase recurrente aperiódica: aquella que tenga periodo 𝑝 = 1. clase recurrente periódica: aquella que tenga período 𝑝 > 1. P r o c e s o s E s t o c á s t i c o s | 21 Clases recurrentes aperiódicas cuando una cadena de marco finita homogénea posee una única clase la cual es recurrente aperiódica, se dice que la cadena es ergódica o totalmente aleatoria. y aquí es necesario mencionar ciertos aspectos importantes del concepto clásico de ergodicidad de Boltzman. Veamos el ejemplo de ergodicidad. supongamos que disponemos de 2 estanques A y B unidos por una tubería, la que contiene una llave de paso originalmente cerrada. El estanque A contiene oxígeno una presión 𝑃𝑎 y el B helio a una presión 𝑃𝑏 . si la válvula se abre, las moléculas de oxígeno evolucionan hacia el estanque B, mientras que las de helio lo hacen hacia el estanque A. un esquema aleatorio puede perfectamente representar la evolución de las presiones parciales de las mezclas en cada estanque. se constata que rápidamente un equilibrio se alcanza, las presiones y los estanques A y B se igualan y mantiene este comportamiento que se mantengan los intercambios moleculares entre ambos estanques. Un estado permanente se ha alcanzado, en el cual el estado del sistema definido únicamente por las presiones parciales se mantiene constante. más aún, el estado final que ha alcanzado el sistema es independiente de las condiciones iniciales, el resultado sería el mismo si las cantidades de oxígeno y helio hubiesen sido arbitrariamente repartidas desde el inicio en los estanques A y B. esto es lo que en general se conoce como principio de ergodicidad de Boltzman, Y señala que en un sistema complejo evolucionando en forma aleatoria, su repetición en el tiempo tiende a regularizar su comportamiento pese a los caprichos del azar que intervienen en cada instante. Algunos autores han definido sistema ergódico como un sistema en evolución Markoviana, Homogéneo en el tiempo, con una única clase recurrente aperiódica. veamos con los siguientes ejemplos la forma en que las cadenas ergódicas llegan al equilibrio, independientemente de las condiciones iniciales del proceso. Ejemplo 1 Considérese la siguiente matriz de probabilidades de transición 𝑃∗ para un proceso estocástico con dos estados: 0 𝑃∗ = 1 2 1 2 0.2 0.8 [ ] 0.6 0.4 P r o c e s o s E s t o c á s t i c o s | 22 Observemos que esta matriz la conforma una única clase la cuál es recurrente aperiódica. Detalle la evolución de esta cadena de Markov hasta llegar al equilibrio. Solución calculemos las potencias sucesivas 𝑃 ∗ que denota la evolución del sistema en el tiempo: 𝑃(2) , 𝑃(3) , 𝑃(4) , … Hasta que se obtenga la estabilidad. 0.52 0.48 𝑃(2) = [ ] 0.36 0.64 0.392 0.608 𝑃(3) = [ ] 0.456 0.544 𝑃(4) = [ 𝑃(8) = [ 0.4432 0.5568 ] 0.4176 0.5824 0.42894592 0.57105408 ] 0.42829056 0.57170944 𝑃(16) = [ 0.42857167 0.57142833 ] 0.42857124 0.57142876 ⋮ 𝑃(24) = [ 0.42857143 0.57142857 ] 0.42857143 0.57142857 observemos que, con el paso del tiempo, no importa si inicialmente se arrancó en el estado 1 o en el estado 2, la probabilidad de a largo plazo de permanecer en el estado 1 es constante igual a 42.857143% para ambos estados las probabilidades estabilizan con el pasar del tiempo y se vuelven probabilidades absolutas independientes de la condición inicial (principio de ergodicidad). Ejemplo 2 Sea la siguiente matriz 𝑃 con una única clase la cual es recurrente aperiódica 0 𝑃=1 2 1 2 0 1 [ ] 0.6 0.4 determinar si esta cadena de Markov llega a la estabilidad. en el caso en que su respuesta sea afirmativa, indique el número de períodos en que se llega a la estabilidad. Solución La estabilidad se llega después de evolucionar 37 períodos, es decir, en 𝑃(37), Tal como se muestra a continuación: 0 1 2 𝑃(37) = 1 0.375 0.625 [ ] 2 0.375 0.625 P r o c e s o s E s t o c á s t i c o s | 23 Si observa aquí, también que el proceso estocástico ha llegado a unas probabilidades estables que se sostienen de allí en adelante y a través del tiempo. Definición 1 Toda clase recurrente aperiódica evoluciona en el largo plazo (cuando 𝑛 ⟶ ∞) hacia una única ley estable representada en una matriz de probabilidades de estado estable o probabilidades estacionarias. Definición 2 Una cadena de Markov ergódica, la cual tiene una única clase recurrente aperiódica, posee una única ley estable. Definición 3 una cadena de Markov ergódica se dice que es totalmente aleatoria puesto que en el largo plazo todos sus estados tienen asociadas cierta probabilidad de ocurrencia (representada en la ley estable) lo cual hace imposible una predicción exacta. Cadenas semiergódicas Una cadena de Markov finita homogénea es semi-ergódica sí tiene varias clases, entre las cuales puede haber una o más clases transitorias, pero tan sólo una clase recurrente aperiódica. veamos este concepto con el siguiente ejemplo 0 1 𝑃=2 3 4 1 2 3 4 0.5 0.4 0.1 0 0.3 0.3 0.4 0 [ ] 0 0 0.2 0.8 0 0 0.6 0.4 en esta cadena de Markov representada por la matriz 𝑃 existen las siguientes clases: clase 1: transitoria e incluye los estados 1 y 2. clase 2: recurrente e incluye los estados 3 y 4. observe que la clase recurrente aquí considerada es igual a la matriz 𝑃∗ analizada anteriormente. es de imaginar, sin necesidad de verificar la evolución de la matriz como en los casos anteriores, que en el largo plazo la probabilidad de permanecer en una clase transitoria debe ser cero, ya que por definición estas son clases de paso. reafirmemos esto observando la evolución en el tiempo de esta matriz: 𝑃(16) 0.00800518 0.00695264 0.42392446 0.56111773 0.00521448 0.00452886 0.42554426 0.5647124 =[ ] 0 0 0.42857167 0.57142833 0 0 0.42857124 0.57142876 Nótese que después de 16 periodos de tiempo, en la matriz 𝑃(16), las probabilidades estacionarias asociadas a la única clase transitoria (estados 1 y 2) ya tendían a cero. P r o c e s o s E s t o c á s t i c o s | 24 observe que el largo plazo, después de evolucionar el proceso 4242 unidades de tiempo, finalmente la clase transitoria toma el valor estable de cero, tal como le corresponde por ser clase transitoria. 𝑃 (4242) 0 0 =[ 0 0 0 0 0 0 0.42857143 0.42857143 0.42857143 0.42857143 0.57142857 0.57142857 ] 0.57142857 0.57142857 note que las probabilidades estacionarias encontradas aquí son iguales a las encontradas anteriormente cuando analizamos la matriz 𝑃∗ . Definición 4 En las cadenas semi-ergódicas, para estudiar la estabilidad del sistema en el largo plazo, solo basta con estudiar las probabilidades estacionarias de la única clase recurrente aperiódica de la matriz, No siendo necesario estudiar la(s) clase(s) transitoria(s) ya que en el largo plazo es siempre improbable estar en ellas. Definición 5 las cadenas semi-ergódicas no se consideran totalmente aleatorias ya que, por tener clases transitorias, es posible predecir con exactitud que los estados pertenecientes a dichas clases no ocurrirán en el futuro. cálculo algebraico de las probabilidades de estado estable a las probabilidades de estado estable o estacionarias se les suele simbolizar como 𝜋𝑗 . El estudio de las probabilidades estacionarias se entiende como el estudio del comportamiento a largo plazo de las cadenas de Markov. retomemos el ejemplo 1 visto anteriormente pero ahora calculemos las probabilidades estacionarias algebraicamente: 𝜋1 𝜋2 0.2 0.8 𝑃∗ = [ ] 0.6 0.4 0 Sean: 𝜋1 : la probabilidad de estado estable asociada al estado 1 𝜋2 : la probabilidad de estado estable asociada al estado 2 recordando que el teorema de la probabilidad total dice que: 𝑃(𝐴) = 𝑃(𝐵)𝑃(𝐴|𝐵) + 𝑃(𝐶)𝑃(𝐴|𝐶) + 𝑃(𝐷)𝑃(𝐴|𝐷) + ⋯ se puede generalizar más este teorema y decir que: 𝑃(𝐴) = 𝑃(𝐵)𝑃(𝐴|𝐴) + 𝑃(𝐵)𝑃(𝐴|𝐵) + 𝑃(𝐶)𝑃(𝐴|𝐶) + 𝑃(𝐷)𝑃(𝐴|𝐷) + ⋯ ahora podemos construir las ecuaciones de las dos probabilidades totales 𝜋1 y 𝜋2 de la siguiente manera: 𝜋1 = 𝜋1 𝑃11 + 𝜋2 𝑃21 𝜋2 = 𝜋2 𝑃22 + 𝜋1 𝑃12 P r o c e s o s E s t o c á s t i c o s | 25 a estas ecuaciones construidas le agregamos la siguiente ecuación que siempre debe cumplirse en matrices estocásticas: 𝜋1 + 𝜋2 = 1 De acuerdo con la matriz 𝑃∗ 𝜋1 = 𝜋1 (0.2) + 𝜋2 (0.6) 𝜋2 = 𝜋2 (0.4) + 𝜋1 (0.8) 𝜋1 + 𝜋2 = 1 Escogiendo sólo 2 de estas 3 ecuaciones, obtenemos la solución: 𝜋1 = 0.8 = 0.571428571; 1.4 𝜋2 = 0.6 = 0.428571428 1.4 Probabilidades estacionarias encontradas anteriormente. veamos este otro ejemplo ilustrativo: con la siguiente matriz de transición de un paso 𝑃′ con cuatro estados 0 1 2 1 0.080 0.184 𝑃′ = 2 0.632 0.368 [ 3 2.264 0.368 4 0.080 0.184 3 4 0.368 0.368 0 0 ] 0.368 0 0.368 0.368 antes del cálculo algebraico debe corroborarse si esta matriz es ergódica o semi ergódica a través de grafos: 0 ⟷ 1 y 0 ⟷ 3 por lo que: 1 ⟷ 3 0 ⟷ 2 y 0 ⟷ 3 por lo que: 2 ⟷ 3 Dado que 1 ⟷ 3 y 2 ⟷ 3, Entonces 1 ⟷ 2. De lo anterior se tiene que los estados 0,1,2 y 3, se comunican entre sí, formando una única clase, que por ser única también es recurrente, y además se observa que es aperiódica. por lo tanto, la cadena es ergódica. se construyen ahora las ecuaciones. 𝜋0 = 𝜋0 𝑃00 + 𝜋1 𝑃10 + 𝜋2 𝑃20 + 𝜋3 𝑃30 𝜋1 = 𝜋0 𝑃01 + 𝜋1 𝑃11 + 𝜋2 𝑃21 + 𝜋3 𝑃31 P r o c e s o s E s t o c á s t i c o s | 26 𝜋2 = 𝜋0 𝑃02 + 𝜋1 𝑃12 + 𝜋2 𝑃22 + 𝜋3 𝑃32 𝜋3 = 𝜋0 𝑃03 + 𝜋1 𝑃13 + 𝜋2 𝑃23 + 𝜋3 𝑃33 𝜋0 + 𝜋1 + 𝜋2 + 𝜋3 = 1 𝜋0 𝜋1 𝜋2 𝜋3 = 𝜋0 0.080 + 𝜋1 0.632 + 𝜋2 2.264 + 𝜋3 0.080 = 𝜋0 0.184 + 𝜋1 0.368 + 𝜋2 0.368 + 𝜋3 0.184 = 𝜋0 0.368 + 𝜋1 0 + 𝜋2 0.368 + 𝜋3 0.368 = 𝜋0 0.368 + 𝜋1 0 + 𝜋2 0 + 𝜋3 0.368 𝜋0 + 𝜋1 + 𝜋2 + 𝜋3 = 1 escogiendo tan sólo cuatro de estas ecuaciones (siempre hay una redundante, excepto la última), Se obtienen las probabilidades estacionarias o de largo plazo: 𝜋0 = 0.286, 𝜋1 = 0.285, 𝜋2 = 0.264, 𝜋3 = 0.166 Estos resultados pueden comprobarse, obteniéndose la estabilidad después de 8 periodos de tiempo: 0 𝑃′ (8) = 𝜋1 0.286 0.286 [ 0.286 0.286 𝜋2 0.285 0.285 0.285 0.285 𝜋3 0.264 0.264 0.264 0.264 𝜋4 0.166 0.166 ] 0.166 0.166 Ejemplo El director de una escuela técnica que se especializa en capacitar a programadores y operadores de computadoras (A), está preocupado por la matrícula decreciente. con el paso de los años, ha habido mucha competencia entre las escuelas A, B y C. las tres compiten Por brindar educación en las áreas de programación, operación de computadora y habilidades secretariales básicas. para entender mejor cuál de estas escuelas está surgiendo como líder, el director decidió realizar una encuesta, en la cual observó el número de estudiantes qué se cambiaban de una escuela a otra durante sus carreras académicas. en promedio, A puedes retener al 65% de los estudiantes inscritos originalmente. de los estudiantes inscritos originales, 20% se cambian a B y 15% a C. Bradley School, International Technology y Career Academy (A, B y C). B Tienen la tasa de retención más alta; 90% de sus estudiantes permanecen B el programa académico completo. el director estima que cerca de la mitad de los estudiantes que dejan B se van a A, y la otra mitad a C. C puede retener al 80% de sus estudiantes después de que se inscriben. de los estudiantes inscritos originales, 10% se cambian de C a A. Actualmente, A tiene 40% del mercado. B, una escuela mucho más nueva, tiene 35% del mercado. el porcentaje restante, 25%, consiste en estudiantes de C. el director desea determinar la participación en el mercado de A para el siguiente año. ¿cuáles son las participaciones de mercado en equilibrio para A, B y C? P r o c e s o s E s t o c á s t i c o s | 27 Solución Estados absorbentes y matriz fundamental: cuentas por cobrar en los ejemplos estudiados hasta ahora, suponemos que es posible que el proceso o sistema vaya de un estado a cualquier otro, entre cualesquiera 2 periodos. sin embargo, en algunos casos no se puede ir a otro estado en el futuro. en otras palabras, cuando se encuentra en un estado dado, este lo “absorbe”, y permanecerá en ese estado. cualquier estado que tiene tal propiedad se llama estado absorbente; un ejemplo es la aplicación de las cuentas por cobrar. un sistema de cuentas por cobrar generalmente coloca las deudas o las cuentas por cobrar de sus clientes en una de varias categorías o estados, dependiendo de lo atrasada que esté la cuenta sin pagar más antigua. desde luego, las categorías o los estados exactos dependen de la política establecida por cada compañía. cuatro estados o categorías típicos para una aplicación de cuentas por cobrar son los siguientes: estado 1 (𝜋1 ); Pagadas, todas las cuentas. estado 2 (𝜋2 ); deuda incobrable, atrasada por más de 3 meses. estado 3 (𝜋3 ); atrasada a menos de un mes. estado 4 (𝜋4 ); atrasada entre 1 y 3 meses. en un período dado en este caso un mes, cliente puede estar en uno de estos cuatro estados. para el ejemplo se supondrá que, si la cuenta sin pagar más antigua es de más de 3 meses, automáticamente se coloca en la categoría de deuda incobrable. por lo tanto, un cliente puede pagar todo (estado 1), tener su deuda más antigua atrasada a menos de un mes (estado 3), tener su deuda más antigua trazada entre 1 y 3 meses (estado 4), o bien, tener una deuda atrasada más de 3 meses, que es una deuda incobrable (estado 2). Igual que en otros procesos de Markov, establecemos una matriz de probabilidades de transición para los cuatro estados. la matriz reflejará la proclividad de los clientes a moverse entre las cuatro categorías de cuentas por cobrar de un mes al siguiente. P r o c e s o s E s t o c á s t i c o s | 28 la probabilidad de estar en la categoría pagada para cualquier cuenta en un mes futuro, dado que el cliente está en la categoría de pagada por una compra este mes, es de 100% o 1. es imposible que un cliente que pagó totalmente un producto este mes deba dinero de esta cuenta en un mes futuro. otro estado absorbente es el de deuda incobrable. sí una cuenta no se paga en 3 meses, suponemos que la compañía la cancela y no trata de cobrarla en el futuro. Así, una vez que una persona está en la categoría de deuda incobrable, esa persona permanecerá ahí para siempre. para cualquier estado absorbente, la probabilidad de que un cliente esté en ese estado en el futuro es de 1, en tanto que la probabilidad de que un cliente esté en otro estado es de 0. estos valores se colocan en la matriz de probabilidades de transición. no obstante, antes de elaborar esa matriz, necesitamos conocer las probabilidades para los otros 2 estados: deuda de menos de un mes y deuda de uno a 3 meses de antigüedad. para un individuo en la categoría de menos de un mes, existe una probabilidad de 0.60 de estar en la categoría de pagada, una probabilidad de 0 listar en la categoría de deuda incobrable, una probabilidad de 0.20 de permanecer en la categoría de menos de un mes, y una probabilidad de 0.20 de estar en la categoría de entre 1 y 3 meses en el siguiente periodo. note que la probabilidad de estar en la categoría de deuda incobrable el siguiente mes es de 0, porque en tan solo un mes es imposible ir del estado 3, menos de un mes, al estado 2, más de 3 meses. para una persona en la categoría entre 1 y 3 meses, hay una probabilidad de 0.40 de estar en la categoría de pagada, una probabilidad de 0.1 de estar en la deuda incobrable, una probabilidad de 0.30 de estar en la categoría de menos de un mes, y una probabilidad de 0.20 de permanecer en la categoría de entre 1 y 3 meses y el siguiente mes. ¿cómo obtenemos la probabilidad de 0.30 de estar en la categoría entre 1 y 3 meses durante un mes y estar en la categoría de menos de un mes el siguiente? como tales categorías se determinan por la cuenta sin pagar más antigua, es posible pagar una cuenta que tiene entre 1 y 3 meses atrasada, y todavía tener otra cuenta que tiene un mes o menos. en otras palabras, cualquier cliente puede tener más de una cuenta atrasada en un momento dado. con esta información, es posible elaborar la matriz de las probabilidades de transición del problema. Este mes Pagada Deuda incobrable Menos de un mes 1 a 3 meses entonces Pagada 1 0 0.6 0.4 SIGUIENTE MES Deuda incobrable <1 mes 0 0 1 0 0 0.2 0.1 0.3 1 a 3 meses 0 0 0.2 0.2 P r o c e s o s E s t o c á s t i c o s | 29 1 0 0 0 0 1 0 0 𝑃=[ ] 0.6 0 0.2 0.2 0.4 0.1 0.3 0.2 sí conocemos la fracción de personas en cada una de las 4:00 categorías o estados para un periodo determinado, es posible determinar la fracción de personas en estos cuatro estados o categorías, para cualquier período futuro. estas fracciones se colocan en un vector de probabilidades de estado y se multiplican por la matriz de probabilidades de transición. las condiciones de equilibrio son aún más interesantes. desde luego, a la larga, todos estarán en la categoría de pagada o deuda incobrable, lo cual se debe a que las categorías son estados absorbentes. ¿pero cuántas personas, o cuánto dinero, estarán en cada categoría? si encontramos la cantidad total de dinero que quedará como pagada o deuda incobrable, ayudamos a la compañía a manejar sus deudas incobrables y sus flujos de efectivo. un análisis así requiere lo que se conoce como matriz fundamental. para obtener la matriz fundamental, es necesario hacer una partición de la matriz de probabilidades de transición, 𝑃. Como existen estados absorbentes, entonces se divide la matriz, separando los estados absorbentes de los transitorios. esta matriz es de la forma: 𝑃= 𝑄 0 𝑅 𝐼 sin importar el orden de las sub matrices. para nuestro caso: 𝐼 0 1 0 0 0 0 1 0 0 ] 𝑃=[ 0.6 0 0.2 0.2 0.4 0.1 0.3 0.2 𝑅 𝑄 la matriz fundamental se calcula como: 𝐹(𝐼 − 𝑄)−1 Observaciones: 1. la matriz (𝐼 − 𝑄)−1 nos da el número promedio de periodos que se espera pasar en cada estado antes de caer en un estado absorbente. 2. la matriz (𝐼 − 𝑄)−1 ∙ 𝑅 nos da la probabilidad de que partiendo de un estado transitorio se llegue a un estado absorbente P r o c e s o s E s t o c á s t i c o s | 30 ⇒ 𝐹 = ([ 1 0 0.2 0.2 −1 ]−[ ]) 0 1 0.3 0.2 0.8 −0.2 −1 𝐹=[ ] −0.3 0.8 recordemos que [ 1 𝑏 −1 𝑑 ] = [ 𝑑 det (𝐴) −𝑐 𝑎 𝑐 ⇒𝐹= −𝑏 ] 𝑎 1 0.8 0.2 1.38 0.34 [ ]=[ ] 0.52 1.38 0.58 0.3 0.8 ahora estamos en posición de usar la matriz fundamental para calcular la cantidad de dinero en deuda incobrable que experimentaríamos a la larga. primero necesitamos multiplicar la matriz fundamental, 𝐹, por la matriz 𝑅. 𝐹𝑅 = [ 1.38 0.34 0.6 0 0.97 0.03 ]∙[ ]=[ ] 0.52 1.38 0.4 0.1 0.86 0.14 la nueva matriz 𝐹𝑅 tiene un significado importante. indica la probabilidad de que una cantidad que está en uno de los estados no absorbentes termine en uno de ellos. el renglón superior de esta matriz indica las probabilidades de que una cantidad en la categoría de menos de un mes termina en la categoría de pagada o deuda incobrable. la probabilidad de que esta cantidad en menos de un mes termine pagada es de 0.97, en tanto que la probabilidad de que una cantidad de menos de un mes termine como deuda incobrable es de 0.03. el segundo renglón tiene una interpretación similar para el otro estado no absorbente: la categoría de entre 1 y 3 meses. por lo tanto, 0.86 es la probabilidad de que una cantidad atrasada entre 1 y 3 meses termine pagada y 0.14 es la probabilidad de que una cantidad atrasada entre 1 y 3 meses nunca se pague y se convierta en deuda incobrable. esta matriz se utiliza de varias maneras. sí conocemos las cantidades en las categorías de menos de un mes y de entre 1 y 3 meses, determinamos la cantidad de dinero que se pagará y la cantidad que se convertirá en deuda incobrable. sea la matriz 𝑀 la cantidad de dinero que está en cada estado no absorbente de la siguiente manera: 𝑀 = (𝑀1 , 𝑀2 , 𝑀3 , … , 𝑀𝑛 ) Donde 𝑛 = número de estados no absorbentes 𝑀1 = cantidad en el primer estado o categoría 𝑀2 = cantidad en el segundo estado o categoría P r o c e s o s E s t o c á s t i c o s | 31 𝑀𝑛 = En el n-ésimo estado o categoría suponga que hay $ 2,000 en la categoría de menos de un mes, y $ 5,000 en la de uno a 3 meses. Entonces, 𝑀 se representaría de la siguiente manera: 𝑀 = (2000,5000) la matriz 𝑀 representa el dinero en los estados absorbentes: pagada o deuda incobrable. las cantidades de dinero que determinarán como pagada y como deuda incobrable se calculan multiplicando la matriz 𝑀 Por la matriz 𝐹𝑅 qué se calcularon antes. los cálculos son: cantidad pagada y cantidad de deuda incobrable=𝑀𝐹𝑅 𝑀𝐹𝑅 = (2000, 5000) ∙ [ 0.97 0.03 ] = [6240, 0.86 0.14 760 ] Entonces, del total de $7000 ($2000 en la categoría de menos de un mes y $5000 en la de uno a 3 meses), $6240 se pagarán al final y $760 terminarán como deuda incobrable.