Procesos Estocásticos Unidad 2. Cadenas de Markov a tiempo discreto Evidencia de aprendizaje. Análisis y predicción. Instrucciones: Resuelve los problemas que se presentan, tomando en cuenta los conocimientos adquiridos durante la unidad 1. Se lanza sucesivamente un dado bien equilibrado. Sea Xn el número de lanzamientos ocurridos desde la última vez que apareció el número 6, observado éste después del n-ésimo lanzamiento. Por ejemplo, si los resultados de los primeros 8 lanzamientos son: 1, 6, 5, 4, 4, 3, 6 y 2 Las primeras 8 variables aleatorias del proceso toman los valores: X1 =1, X2 = 0, X3 = 1, X4 = 2, X5 = 3, X6 = 4, X7 = 0 y X8 = 1. Demuestra que {Xn} es una cadena de Markov. Es discreto en el tiempo {𝑥𝑛 : 𝑛 = 1,2,3,4,5,6,7,8} Tiene espacio de estados discreto S que para cualquier entero 𝑁 ≥ 0 → 𝑆 = {1,6,5,4,4,3,6,2} Cumple que: