Caminatas aleatorias. Por: Ma Emilia Caballero Instituto de Matemáticas UNAM 16 de septiembre de 2015 1. PRIMERA PARTE. El problema de los puntos Una fecha fundamental para establecer los orı́genes de la probabilidad es 1654, año en el cual se lleva a cabo el famoso intercambio de cartas entre Blaise Pascal (1623-1662) y Pierre de Fermat (1601-1665). El problema que nos ocupa de esta correspondencia es el famoso: “problema de los puntos” que aparece por primera vez en el libro de Fra Luca de Pacioli (Venecia 1494) y dice asi: Se juega entre dos equipos A y B, cada uno apuesta una cantidad igual (5 ducados) y el juego consta de un cierto número de etapas. Cada etapa da a quien la gana 10 puntos, cero puntos a quien la pierde y ambos equipos son igualmente capaces de ganar una etapa. Gana el juego, el primero en llegar a 60 puntos. El juego debe interrumpirse cuando el equipo A lleva 50 puntos ganados y el B lleva 20 puntos. ?Cómo debe repartirse la apuesta total (10 ducados) entre los dos jugadores? No se llegaó en ese entonces a una respuesta correcta. Algo similar plantea Chevalier de Meré a Pascal y solo las cifras cambian: Dos jugadores A y B apuestan 32 “pistols” cada uno, para tener una bolsa total de 64 “pistols”. El juego, nuevamente consta de varias etapas y cada etapa da a quien la gana un punto (ambos jugadores son igualmente capaces de ganarla). Gana el juego y por lo tanto la bolsa total el primero en llegar a tres puntos. El juego debe interrumpirse cuando A lleva 2 puntos y B cero puntos. La pregunta es la misma. Este es el problema que Pascal le plantea a Fermal en la correspondencia mencionada. Ambos encuentran la solución y el resultado fue el mismo a pesar de que sus métods fueron muy distintos.Veremos aqu como lo hizo Pascal. Pascal piensa que debe empezar con un caso más simple: A lleva 2 puntos y B lleva 1 punto: Si A gana la etapa siguiente ya tendrá 3 puntos yse lleva la bolsa entera, es decir, las 64 “pistols”. Si B gana la etapa llevarán cada uno 2 puntos y en ese caso por tratarse de un empate, la bolsa deberá repartirse mitad y mitad, esto es, a A le tocarán 32 “pistols”. Se sabe que ambos jugadores tienen igual capacidad de ganar una etapa, por lo que la repartición justa deberá ser: x= 64 32 + = 48. 2 2 1 1 PRIMERA PARTE. 2 Al disponer de ésta información Pascal ya puede tratar el caso que le preguntan originalmente, a saber si A lleva 2 puntos y B cero: si A gana se lleva la bolsa entera y si B gana, se llega al caso anterior, ya que A llevará 2 puntos y B un punto, y ya se sabe que en tal caso a A le corresponden 48 “pistols” y a B las 16 restantes. Nuevamente, ambos tienen la misma probabilidad de ganar la etapa por lo que la reparticion justa es 64 48 + = 56 . x= 2 2 Por último y aunque esta pregunta no aparece en la correspondencia de estos dos sabios, veamos el caso en que A lleve un punto y B cero puntos: Si A gana la etapa, se estará en la situación 2 a 0, por nosotros ya conocida y si B gana hay un empate y la bolsa se reparte mitad y mitad: Y ahora x= 56 32 + = 44 . 2 2 En su escrito, además de resolver el problema planteado por Meré, Pascal maneja por primera vez las siguientes ideas y futuros conceptos matemáticos, que en su época ni tenı́an estos nombres, ni se conocı́an, ni se utilizaban: Variable aleatoria y esperanza matemática. Probabilidad y esperanza condicionales. Martingala. Cadena de Markov. El concepto de tiempo de paro o tiempo aleatorio también aparece implcı́itamente en su mtodos, ya que se interesa por la primera vez que se alcanza cierto nivel: τ = mı́n{k : Yk = N } y veremos más adelante la importancia del mismo. Problema de la ruina al que dedicaremos varias secciones en éstad notas. Solución elemental al problema de valuación de una opción El método de Pascal descrito de manera más general es el siguiente: gana el juego y en consecuencia el capital total 2C, el primer jugador alcance N puntos. Cada uno de los jugadores aportó al inicio del juego C pesos. Se define A(r, s) como la cantidad que le tocarı́a al jugador A si tiene r puntos puntos cuando ya se han jugado (r + s) juegos. Entonces por las condiciones del juego, se cumple, para s, r ∈ (0, N ], (a.) A(r, N ) = 0. r ∈ (0, N ) (b.) A(N, s) = 2C, s ∈ (0, N ) 1 PRIMERA PARTE. 3 (c.) A(r, s) = pA(r + 1, s) + qA(r, s + 1) En efecto, las afirmaciones (a.) y (b.) son inmediatas de la definición. La propiedad (c.) es consecuencia de lo ya descrito, en el caso que A gane un punto con probabilidad p ∈ (0, 1) y no lo gane con probabilidad q = 1 − p. ( 1 si A gana la i-ésima etapa, Xi = 0 si no Es fácil ver que a partir de éstas relaciones podemos calcular A(r, s) para toda r, s ≤ N : Se empieza con A(N − 1, s), s = N − 1, N − 2, ..,0 y se obtiene: A(N − 1, N − 1) = 2Cp A(N − 1, N − 2) = 2C(p + pq) A(N − 1, N − 3) = 2C(p + pq + pq 2 ) ... A(N − 1, 0) = 2C(p + pq + pq 2 + · · · + pq N −1 ) Luego se calcula A(N − 2, s), s = N − 1, N − 2, ...i, 0 y ası́ sucesivamente. Por ejemplo A(N − 2, N − 3) = p.A(N − 1, N − 3) + qA(N − 2, N − 2) Se le puede llamar a esta idea de Pascal el método de inducción regresiva. Si aplicamos esto al problema de Pascal obtenemos lo mismo (con N = 3): si A lleva 2 puntos y B lleva 1 punto y A(2, 1) = 1/2 + 1/4 = 2C,3/4 Como 2C = 64, esto da 48. si A lleva 2 puntos y B lleva 1 punto y A(2, 0) = 2C(1/2 + 1/4 + 1/8) = 2C,7/8 lo que nos da 56. si A lleva 2 puntos y B lleva 0 punto y A(1, 0) = pA(3, 0) + q.A(2, 1) lo que nos da 44. . 2 SEGUNDA PARTE. CONCEPTOS BÁSICOS 2. 4 SEGUNDA PARTE. conceptos básicos 1.- Independencia y probabilidad condicional En todo lo que sigue del texto se trabaja con el espacio de probabilidad (Ω, F, P) en donde Ω es finito o numerable y la familia de subconjuntos F es la potencia de Ω, es decir, se trata de la familia de todos los subconjuntos de Ω. A los elementos de esta familia se les llama eventos; (en textos más avanzados en vez de trabajar con la familia potencia se trabaja con ciertas subfamilias de ésta y la causa de hacerlo ası́ obedece a razones teóricas de importancia y trascendencia pero que corresponden a otro nivel.) En estos espacios, la medida de probabilidad P definida en F se da simplemente mediante una serie de números X (aω ∈ (0, 1])ω∈Ω tal que aω = 1 ω∈Ω que determinan el valor de P en todo F con la regla: X P(A) = aω . ω∈A Se pide al lector verificar que P definida de esta manera en F satisface las tres condiciones que definen a una medida de probabilidad, a saber, 1. P es una función definida en F y con valores en [0, 1]. 2. P(∅) = 0 y P(Ω) = 1. 3. Si (An )n∈N es un sucesión de eventos ajenos dos a dos (i.e. Ai ∩ Aj = ∅ para i 6= j, i, j ∈ N) se cumple [ X P( An ) = P(An ), n∈N n∈N y en consecuencia tiene las propiedades usuales de una medida de probabilidad, entre ellas que es (finitamente) aditiva, es decir, P( [n=m n=1 An ) = n=m X P(An ), n=1 siempre que los eventos A1 , A2 , ....Am sean ajenos dos a dos. También tiene las propiedades de continuidad: 1. Si (An )n∈N es un sucesión decreciente de eventos, es decir, si An ∈ F, An ⊂ An−1 para todo n ∈ N, entonces \ lı́m P(An ) = P( An ). n→∞ n∈N 2 SEGUNDA PARTE. CONCEPTOS BÁSICOS 5 2. Si (An )n∈N es un sucesión creciente, entonces [ lı́m P(An ) = P( An ). n→∞ n∈N A estas dos propiedades se les llama de continuidad de la probabilidad. Veamos la demostración Sk−1 de la segunda. La otra se obtiene por complementación. Sea Bk = Ak − j=1 Aj = Ak − Ak−1 Los conjuntos {Bk , k = 1, 2, 3 . . .} son ajenos dos a dos y Ak = k [ Bj j=1 ∞ [ Bk = k=1 ∞ [ Ak = A. k=1 Por la propiedad de aditividad numerable de la medida de probabilidad se tiene: P(A) = X k∈N P(Bk ) = lı́m k→∞ k X P(Bj ) = lı́m P( k→∞ j=1 k [ Bj ) = lı́m P(Ak ). j=1 k→∞ Una vez establecido el marco de trabajo podemos dar las definiciones de probabilidad condicional dados dos eventos A, B tales que P(B) > 0, def inimos la Definición 1. probabilidad de que ocurra A dado que ya sabemos que sucedió B como P(A|B) = P(A ∩ B) . P(B) dado un evento A y una variable aleatoira Z : E → R def inimos la probabilidad de que ocurra A dada la variable Z como una nueva variable aleatoria definida como X U = P(A|Z) = P(A|Z = z)1(Z=z) E z∈E Ejemplo 1.-. En el caso de que Ω sea finito es muy usual trabajar con la regla de equiprobabilidad, es decir, cada punto del espacio es igualmente probable. En este caso 1 aω = K si K ∈ N es el número de elementos de Ω y P(A) = #A K , donde #A es el número de elementos de A. Si ahora tengo dos eventos A, B 6= ∅, P(A|B) = P(A ∩ B) #(A ∩ B) = . P(B) #B Es decir, si ya se sabe que B ocurrió, es inútil contar los elementos de A∩B c , sólo nos interesa saber cuántos elementos tiene el conjunto A ∩ B, debemos dividir 2 SEGUNDA PARTE. CONCEPTOS BÁSICOS 6 entre #B, que es el número de resultados posibles. En este caso la definición de probabilidad condicional es clara y esto explica el porqué de la definición general **Pruebe que si P(B) > 0 entonces la función Q : F → [0, 1] definida mediante la igualdad Q(A) = P(A|B), A ∈ F, es una nueva medida de probabilidad en (Ω, F, P) que asigna medida nula a todo evento contenido en B c = Ω − B. Si ahora se quiere definir el concepto de eventos independientes, es razonable pedir que la información sobre uno de ellos no afecte la probabilidad del otro, es decir, dos eventos A y B son independientes si P(A|B) = P(A ∩ B) = P (A). P(B) Ejemplo 2.-. Si se modela un juego de dados y se supone que el dado está equilibrado (es decir, que la probabilidad de que salga cada una de las seis caras del dado es 61 ), se pueden hacer varias preguntas, con la hipótesis de que el resultado de cada lanzamiento no afecta lo que suceda con los demás. Por ejemplo: 1. Si en la primera jugada obtuve un seis (evento A), cuál es la probabilidad de que en la segunda también obtenga un seis (evento B)? 2. Si en la primera jugada obtuve un seis (evento A), cuál es la probabilidad de que la suma de los dos primeros resultados sea mayor que 9 (evento C)? Claramente en la primera pregunta se trata de eventos independientes y en la segunda de eventos dependientes. La respuesta a la primera es 16 = P(A∩B) P(B) y la 3 respuesta a la segunda es 6 , ya que hay tres formas para que la suma sea mayor que nueve y si aplicamos la fórmula, se obtiene: P(C|A) = P(C ∩ A) = P(A) 3 36 1 6 = 3 . 6 La definición general de eventos independientes es Definición 2. Una colección de eventos (Ai )i∈I es un colección independiente si para todo subconjunto f inito J ⊂ I se cumple \ Y P( Ai ) = P(Ai ). i∈J i∈J Como se observa, la colección puede ser finita o infinita. También es importante reconocer que si los eventos(Ai )i∈I son independientes, entonces son independientes dos a dos pero la recı́proca es falsa: existen colecciones (Ai )i∈I de eventos tales que, para toda pareja i, j ∈ I, Ai es independiente de Aj , pero no resulta ser una colección independiente. Ejemplo 3.-. Sea Ω = {1, 2, 3, 4} y P la medida equiprobable en Ω. Si A = {1, 2}, B = {1, 3} y C = {3, 2}, entonces A, B y C son independientes dos a dos pero no son independientes. 2 SEGUNDA PARTE. CONCEPTOS BÁSICOS 7 Proposición 1. 1.-Si A y B son independientes también lo son Ay B c , Ac y B c , y Ac y B. 2.-Sea B un evento con probabilidad estrictamente positiva: A y B son independientes si y sólo si P(A|B) = P(A) **Las demostraciones se dejan como ejercicio al lector o pueden ser consultadas en los textos básicos dados en las referencias. Como ejemplo, veamos que si A y B son independientes también lo son A y B c : El conjunto A se puede descomponer como unión ajena: A = (A ∩ B) ∪ (A ∩ B c ) por lo que, P(A) = P(A ∩ B) + P(A ∩ B c ) = P(A) P(B) + P(A ∩ B c ), por lo tanto, P(A)[1 − P(B)] = P(A ∩ B c ), es decir, P(A) P(B c ) = P(A ∩ B c ). Para el manejo del concepto de independencia de variables aleatorias en el caso que interesa en estas notas, a saber, cuando el espacio de estados E ⊂ R es discreto , es decir cuando es finito o numerable, la definición se puede formular ası́ Definición 3. Sea Xi : Ω → E , i∈I una familia de variables aleatorias: Decimos que (Xi )i∈I es independiente si para cada familia (xi )i∈I de elementos de E se cumple que la colección de eventos (Xi = xi )i∈I es independiente, o sea si para todo subconjunto J f inito de I y para cada familia (xi )i∈J de elementos de E se tiene: \ Y P( (Xi = xi )) = P(Xi = xi ). i∈J i∈J En la última parte se presentará la definición de esperanza ası́ como algunas propiedades básicas de ella que se usan en el texto. Para mayor información al respecto se recomienda consultar la bibliografı́a. 2.- Esperanza y esperanza condicional Definición 4. Se define la esperanzade una variable aleatoria X :Ω→E como E(X) = X E y∈E y P(X = y). 2 SEGUNDA PARTE. CONCEPTOS BÁSICOS 8 La esperanza de una variable aleatoria es una integral y como tal comparte sus propiedades, como la linealidad, monotonı́a etc. Aquı́ sólo veremos de manera explı́cita dos de ellas. S Lema 1. Si A1 , A2 , . . . son eventos ajenos dos a dos y A = k∈N Ak , entonces E(1A ) = X E(1Ak ). k∈N En efecto, se define Bk = Sk j=1 Aj y entonces, B1 ⊂ B2 ⊂ · · · ⊂ Bn · · · y por la propiedad de continuidad de la probabilidad, E(1A ) = P(A) = lı́m P(1Bk ) k→∞ = = lı́m P( k→∞ X k [ k X Aj ) = lı́m ( P(Aj )) k→∞ j=1 P(Aj ) = j∈N X j=1 E(1Aj ). j∈N Lema 2. Si X : Ω → N, entonces E(X) = X P(X ≥ k). k∈N Esto es inmediato si se escribe E(X) = j=k XX P(X = k) k∈N j=1 = XX P(X = k) j∈N k≥j = X P(X ≥ j), j∈N ya que se trata de una serie doble de términos positivos y se puede intercambiar el orden en que se hace la suma. Ejemplos 4.Si X es el resultado de un lanzamientoto de un dado equilibrado, E(X) = 1/6(1 + 2 + 3 + 4 + 5 + 6) = 7/2. 2 SEGUNDA PARTE. CONCEPTOS BÁSICOS 9 X es una variable aleatoria que toma el valor es 1 si el resultado del lanzamiento de una moneda equilibrada es águila (cara) y es −1 si sale sol (cruz), en este caso, E(X) = 1/2 + (−1)1/2 = 0 (variable de Bernoulli de parámetro 1/2) . X es una variable aleatoria que toma el valor es 1 con probabilidad p ∈ (0, 1) y toma el valor −1 con probabilidad q = (1 − p), entonces E(X) = p + (−1)(1 − p) = 2p − 1 (variable de Bernoulli de parḿetro p). Y es una variable aleatoria que toma el valor es 1 con probabilidad p ∈ (0, 1) y toma el valor 0 con probabilidad q = (1 − p), entonces E(Y ) = p + (−1),0 = p. **Sea T la variable aleatoria igual al número de volados requeridos para obtener águila por primera vez. Calcule E(T ). **Si X es una variable de Poisson* de parámetro λ es decir si P(X = k) = k exp(−λ) λk! pruebe que E(X) = λ. Recordemos ahora, en su versión discreta y sin usar temas avanzados de teorı́a de la medida, los importantes conceptos de esperanza condicional: primero con respecto a un evento y luego con respecto a otra variable aleatoria. Definición 5. La Esperanza Condicional de una variable aleatoria X dado un evento U ⊂ Ω: X X P((X = y) ∩ U ) E(X|U ) = y P(X = y|U ) = y P(U ) y∈E y∈E dada otra variable aleatoria Z X XX E(X|Z) = y P(X = y|Z) = y P(X = y|Z = z)1Z=z y∈E z∈E y∈E De hecho lo que se hace es desarrollar la expresión P(X = y|Z) cuya definición ya se vió. Una propiedad de la Esperanza condicional es que no cambia la esperanza es decir, E(E(X|Z)) = E(X) (1) En efecto, E(E(X|Z)) = E XX y P(X = y|Z = z)1(Z=z) z∈E y∈E = XX y P(X = y|Z = z) P(Z = z) y∈E z∈E = X y∈E y P(X = y) = E(X) 2 SEGUNDA PARTE. CONCEPTOS BÁSICOS 10 problemas En el ejemplo (2.) del juego de dados, X1 es el resultado del primer lanzamiento X2 el del segundo. 1.-Sea X la variable aleatoria definida por el máximo de los dos números obtenidos, X = máx(X1 , X2 ). Calcule la esperanza de esta variable aleatoria. 2. Misma pregunta si ahora ( Y = X1 + X2 si X1 + X2 es par −(X1 + X2 ) si X1 + X2 es non 3.-Calcule E(X|X1 = 1) y E(Y |X1 = 1). 4. Calcule E(Y |X1 ) En el esquema de Pascal calcule E(X4 |X3 ). 3 3. TERCERA PARTE : PROBLEMA DE LA RUINA 11 TERCERA PARTE : Problema de la Ruina El problema básico de la ruina, es decir cuando tenemos un modelo aleatorio que evoluciona en el tiempo, también llamado proceso estócastico que tome valores reales, cómo podemos conocer, bajo ciertas condiciones dadas, la probabilidad de que se llegue por primera vez a tener valores negativos ( i.e. llegar a la ruina) o bien lograr rebasar un nivel positivo prefijado. Presentamos los casos más sencillos, y los métodos de solución son elementales. Claro que si se cuenta con más herramientas, los resultados son mucho más fáciles de demostrar. Las caminatas aleatorias simples pueden verse como un modelo para un juego de volados: hay dos jugadores que llamaremos A y B; cada jugador apuesta en una jugada un peso ( o un boliviano). Gana ese peso el jugador A con probabilidad p ∈ (0, 1) ( sale águila) y lo pierde con probabilidad q = 1 − p ( sale sol). Para hacer el modelo se parte de una sucesión de variables aleatorias independientes e idénticamente distribuidas (que describen a los resultados de los volados sucesivos), (Xn )n∈N , y cada una de ellas es una variable Bernoulli de parámetro p ∈ (0, 1), es decir, X1 toma el valor 1 con probabilidad p y toma el valor −1 con probabilidad (1 − p) . Si el capital inicial de A es a ∈ N pesos y el de B es de b ∈ N pesos, el capital de A al tiempo n se denotar Sn , n = 0, 1, 2, ... y esta dado por : n X Sn = a + Xi i=1 y el capital de B será Rn = b − n X Xi . i=1 Cuando alguno de los dos pierda todo su dinero, el juego termina y el jugador que ganó todo el capital c = (a + b) es quien gana el juego. Esto se puede visualizar como un árbol binario, que describe todas las posibilidades para el juego: a continuación lo describimos hasta el cuarto juego. Cuál es la probabilidad de que gane el jugador A? Cuál la que gane B? Claramente esto va depender del valor de p. Una forma de resolver el problema es usando probabilidad condicional. Para ello dejaremos variar los montos de los capitales iniciales: Sea J el evento (A pierde), es decir, Sn alcanza primero el nivel 0 antes que el nivel c. Llamemos h(u) a la probabildad de que A pierda habiendo empezado con u ∈ {1, 2, · · · (c − 1)} pesos. h(u) := P(J|S0 = u) con u ∈ {1, 2, ....., c − 1}. Es claro que podemos utilizar la infomación de lo que pasa en el primer juego ( A gana o pierde un peso ) para escribir lo siguiente h(u) = P(J|S0 = u) = P (J ∩ (S1 = 1 + u)) ∪ (J ∩ (S1 = u − 1))|S0 = u lo que por aditividad y por la definición de probabilidad condicional es igual a P(J ∩ (S1 = 1 + u) ∩ S0 = u) + P(J ∩ (S1 = u − 1) ∩ S0 = u) = P(S0 = u) 3 TERCERA PARTE : PROBLEMA DE LA RUINA 12 P(J|(S1 = 1 + u)) P(S1 = 1 + u, S0 = u) + P(J|(S1 = u − 1) P(S1 = 1 − u, S0 = u) = P(S0 = u) P[J|(S1 = u + 1)) P(S1 = u + 1|S0 = u)] + P[J|(S1 = u − 1)) P(S1 = u − 1|S0 = u)] = = ph(u + 1) + qh(u − 1). Ya que P(S1 = u + 1|S0 = u)] = p y P(S1 = u − 1|S0 = u)] = q. Como además se sabe que h(0) = 1 y h(c) = 0, el problema se traduce en resolver la ecuación en diferencias finitas: h(u) = ph(u + 1) + qh(u − 1), h(0) = 1, h(c) = 0 En el caso de que p = 1/2 = q se tiene h(u) = 1 h(u + 1) + h(u − 1) , h(0) = 1, h(c) = 0 2 es decir, la función h es lineal y como se conocen sus valores en la frontera se obtiene directamente la solución (única) h(a) = c−a b = c a+b Para resolver el sistema en el caso que p 6= q se procede asi: (p + q)h(u) = ph(u + 1) + qh(u − 1), lo que es equivalente a p h(u) − h(u + 1) = q h(u − 1) − h(u) Sea du = h(u) − h(u + 1), r = q/p , la igualdad anterior la podemos escribir ahora asi: du = rdu−1 , y por iteración se llega a du = ru d0 , 1 = h(0) − h(c) = c−1 X dj = d0 j=0 h(j) = h(j) − h(c) = c−1 X i=j c−1 X r j = d0 j=0 di = d0 c−1 X i=j 1 − rc , 1−r ri = d0 rj − rc 1−r De la primera ecuación se obtiene el valor de d0 que se sustituye en la segunda y se obtiene rj − rc h(j) = 1 − rc 3 TERCERA PARTE : PROBLEMA DE LA RUINA 13 De esta manera hemos obtenido la probabilidad de que el jugador A pierda el juego si empieza con j pesos. Por otra parte, si M denota al evento (B pierde) y a k(u) = P(M |S0 = c − u), se llega al resultado análogo: k(u) = pk(u + 1) + qk(u − 1), u ∈ {1, 2, ....., c − 1} (** pruebe la igualdad anterior). (p + q)k(u) = pk(u + 1) + qk(u − 1), k(c) = 1, k(0) = 0 El sistema en diferencias finitas es ahora un poco diferente , porque las condiciones ala frontera son diferentes y al hacer los cálculos se llega a 1 − rj , p 6= q. 1 − rc Otra forma de ver este resultado es intercambiar los papeles de A y B, a r por s = 1/r = p/q y a u por (c − u) y aplicar el cálculo hecho con h para obtener k(j) = k(j) = 1 − rj sc−j − sc = , p 6= q 1 − sc 1 − rc Lo extraordinario es ver que si el jugados A empieza con u pesos, y el jugados B con (c − u) pesos h(u) + k(u) = 1 · · · · · · (∗) en cualquier caso y para toda u = 0, 1, . . . c. Otra forma en que se pueden escribir los resultados anteriores es mediante el uso de ”tiempos de paro”. Se define τx = ı́nf{n ∈ N : Sn = x} y el problema se puede escribir as La probabilidad de que el jugador A pierda , si empezó con u ∈ {, 2, · · · n − 1} pesos es P(τc > τ0 ) = Pu (τc > τ0 ) ya que esa probabilidad indica que se llegó primero al nivel 0 antes que al c. Consecuencias Del simple cálculo que se ha hecho, podemos obtener propiedades notables de la caminata aleatoria: aquı́ usaremos las notaciones h(c, u) y k(c, u) en lugar de h(u) y k(u) para hacer énfasis en que el resultado depende de la barrera superior c ( no se menciona la inferior cuando se mantenga fija e igual a cero). 3 TERCERA PARTE : PROBLEMA DE LA RUINA 14 toda caminata aleatoria simple sale de un intervalo dado con probabilidad 1 esto por la igualdad (*). si r < 1, lı́mc→∞ h(c, u) = ru lo que significa que tiene una probabilidad positiva (1 − ru ) de no arruinarse. Si el jugador A empieza con un capital más grande, la probablidad de no arruinarse también crece , como es lógico esperar. si r > 1, lı́mc→∞ h(c, u) = 1, lo que significa que eventualmente se arruinará con probabilidad 1, lo que es también razonable al saber que en cada juego tiene mayor probabilidad de perder que de ganar( q > p. Se puede probar que la esperanza de h(u) y de k(u) son finitas para toda u ∈ {1, 2, · · · c − 1}. Si se empieza en el punto a > 0 , al trasladar S0 al origen el intervalo [0, c] se traslada al [−a, b] y el resultado anterior se traduce en: P(τ−a < τb |S0 = 0) = ra , r < 1 y P(τ−a < τb |S0 = 0) = 1, r > 1. problemas Si el jugador A inicia el juego con 10 pesos y el jugador B con 90 pesos y p = 1/4 calcule la probabilidad de ruina del jugados A. Si ahora p = 3/4 , misma pregunta. En el contexto del juego planteado y con las misma notaciones, si R es el evento (A gana), encuentre la ecuación que satisface V (u) = P(R|S0 = a). 4 4. CUARTA PARTE. 15 CUARTA PARTE. Caminatas aleatorias. Las caminatas aleatorias se obtienen a partir de una sucesión (Xn )n∈N , de variables aleatorias definidas en un cierto espacio (Ω, F, P) de probabilidad y se les pide que sean independientes e idénticamente distribuidas. con valores en un cierto espacio E , que puede ser un subconjunto finito, numerable de R o bien un intervalo, R mismo o bien subconjuntos de R o de Rn . En ciertos casos, se le ponen barreras, es decir, se acota el espacio de estados y tambén ( por un abuso de notación) se les llama caminatas aleatorias o caminata aleatorias con barreras, vea los ejemplos a continuación. Definición 6. Una caminata aleatoria con valores en E es un proceso estocástico (Sn )n∈N definido como n X Sn = So + Xn , n ∈ N k=1 donde (Xn )n=1,2,3,... es una sucesión de variables aleatorias independientes e idénticamente distribuidas. con valores en E y S0 es una constante.. Decimos que una trayectoria del proceso es el conjunto de valores que toma el proceso para cada ω ∈ Ω fijo y que la variable Xi representa el salto de la caminata. Pueden ser modelos muy sencillos o más elaborados según la forma que tengan la variables Xn . S0 generalmente será una constante , pero puede ser también una variable aleatoria. Veremos inicialmente los ejemplos más sencillos. Ejemplos: 1. Las caminatas aleatorias simples . Si Xn )n∈N ,son variables aleatorias independientes y cada una de ellas es una variable Bernoulli de parámetro p ∈ (0, 1), es decir, X1 toma el valor 1 con probabilidad p y toma el valor −1 con probabilidad (1 − p), se trata de la caminata aleatoria simple. Esto se puede visualizar como un árbol binario. 2. Las caminatas aleatorias simples crecientes en la cual Xn toma el valor 1 con probabilidad p y el valor 0 con probabilidad q = 1 − p. 3. Las caminatas aleatorias perezosas en la cual Xn toma tres valores {0, 1, −1} . El valor 1 lo toma con probabilidad p y el valor 0 con probabilidad q y el valor −1 con probabilidad r y se pide que p, q, r > 0, p + q + r = 1. 4. La caminata aleatoria con barreras absorbentes . Aquı́ el espacio de estados es E = {1, 2, . . . , n} y si se parte de un punto x ∈ {2, . . . , n − 1}, la probabilidad de ir a los puntos vecinos es p = 1/2 para cada uno de ellos; si llega a 1 o a n con probabilidad 1 se queda ahı́. Este ejemplo es el que corresponde al problema de la ruina planteado en la sección anterior. 5. *La caminata aleatoria con barreras pegajosas . Aquı́ el espacio de estados es E = {1, 2, . . . , n} y si se parte de un punto x ∈ {2, . . . , n − 1}, la probabilidad de ir a los puntos vecinos es p = 1/2 para cada uno de ellos; si se parte de 1 o de n con probabilidad s ∈ (0, 1) se queda ahı́ y con probabilidad 1 − s va al punto vecino en E . 6. Caminata aleatoria con barreras repelentes . Igual al anterior con s = 0. 7. Caminata aleatoria en Z2 . 4 CUARTA PARTE. 16 A partir de un punto (n, m) de la retı́cula se puede ir acualquiera de los ocho puntos vecinos {(n+i, m+j) : i, j = 0, 1, −1}−{(n, m)} de manera equiprobable. Para una caminata aleatoria {Sn }n≥0 llamaremos a las variables aleatorias X1 , X2 , . . . variables de salto, y a F la llamaremos la ley de salto de {Sn }n≥0 . Además denotaremos por L al espacio de estados de la caminata aleatoria S, que es el conjunto donde ésta toma valores. 8. La caminata aleatoria con distribución de salto Poisson de parámetro λ, es la caminata aleatoria {Sn }n≥0 para la cual P(Xi = k) = e−λ λk ,k≥0 k! para cada una de las variables de salto. Por lo que P(Sn = k) = e−(nλ) (nλ)k , k ≥ 0. k! Tendremos propiedades generales válidas para toda caminata aleatoria y otras especı́ficas para cada caso. En general supondremos que el conjunto de valores posibles E es finito o numerable , lo que nos permite usar el concepto elemental de probabilidad y esperanza condicional discretas , aun cuando muchas de estas propiedades segurán siendo válidas para variables más generales. Proposición 2. Una caminata aleatoria (Sn )n con valores en Z y con S0 constante . 1. tiene esperanza E (Sn ) = S0 + n E (X1 ) 2. tiene varianza V ar(Sn ) = nV ar(Xn ). 3. tiene la propiedad de Markov. Demostración. 1. Inmediato por la linealidad de la esperanza. 2. Inmediato por tratarse de una suma de variables aleatorias independientes. 3. La propiedad de Markov comnmente llamada “propiedad de olvidar el pasado”, se expresa con precisión en térrminos matemáticos, ası́: para toda n, m ∈ N, z, y, zi ∈ E i = 1, 2 · · · n − 1 se cumple P(Sn+m = y|Sn = z, Sn = zn−1 , . . . , Z1 = z1 , S0 = a) = P(Sn+m = y|Sn = z) La demostración de esta propiedad es sencilla porque es fácil comprobar que ambos términos de esta igualdad son a su vez iguales a: P( m+n X Xi = y − z). i=n+1 Para ello se usa la definición de probabilidad condicional y las hipótesis de 4 CUARTA PARTE. 17 independencia: P(Sm+n = y|Sn = z, Sn−1 = zn−1 , . . . S1 = z1 , S0 = a) = = P(Sm+n = y, Sn = z, Sn−1 = zn−1 , . . . , , S0 = a) P(Sn = z, Sn−1 = zn−1 , . . . , S0 = a0 ) = P(Sm+n − Sn = y − z, Sn − Sn−1 = z − zn−1 , . . . , , S1 − S0 = z1 − a, S0 = a) P(Sm − Sn−1 = z − zn−1 , . . . , S2 − S1 = z2 − z1 , S1 − S0 = z1 − a, S0 = a) Pm+n P i=n+1 Xi = y − z, Xn = z − zn−1 , . . . , X1 = z1 − a, S0 = a = P(Xn = z − zn−1 , Xn−1 = zn−1 − zn−2 , . . . , X2 = z2 − z1 , X1 = z1 − a, S0 = a) P( = Xm+n i=n+1 Xi = y − z)P(Xn = z − zn−1 , · · · X1 = z1 − a, X0 = a) P(Xn = z − zn−1 , · · · , X1 = z1 − a, S0 = a) = P( m+n X Xi = y − z). i=n+1 Por otra parte P(Sm+n = y|Sn = z) = P( Pm+n i=n+1 P(Sm+n = y, Sn = z) = P(Sn = z) m+n X Xi = y − z) P(Sn = z) = P( Xi = y − z) P(Sn = z) i=n+1 Problemas 1.– Escriba las matrices de transición definidas en clase en los ejemplos (4), (5),(6), para el caso en que E = {1, 2, 3, ..,6}, p = 1/3 y s = 1/4. Si Yn es la variable aleatoria que denota la posición del proceso al tiempo n, calcule en los tres casos: P(Y4 = 1|Y1 = 2) E(Y2 |Y0 = 3) E(Y3 = 6|Y0 = 4) 2.- Si X es una variable aleatoria de Poisson de paraḿetro λ y Y es otra variable aleatoria de Poisson de perámetro µ y si son independientes, calcule la distribución de X + Y . 5 5. QUINTA PARTE. 18 QUINTA PARTE. Algunos resultados para caminatas aleatorias simples. Este material esta basado libros como ([10] o [9]) y es la parte introductoria de la tesis de licenciatura de la M.en C. Marya Bermúdez, ([2]). A partir de ahora y hasta el final de esta sección trabajaremos con la caminata aleatoria simple que empieza en algún punto a ∈ Z y que puede variar según el tema tratado. Si A ⊂ N, denotaremos a la cardinalidad de A como |A|. Definimos un camino C de longitud k como la sucesión de k puntos en el plano (0, s0 ), (1, s1 ), . . . , (k, sk ) y lo denotaremos como (s1 , s2 , . . . , sk ) . Ya que sabemos lo que es un camino, veamos cuál es la probabilidad de que una caminata aleatoria siga en sus primeros k pasos un camino dado, es decir que al tiempo 0 esté en s0 , al tiempo 1 esté en s1 , y ası́ hasta que al tiempo k esté en sk . Lema 3. P(S0 = s0 , S1 = s1 , ..., Sk = sk )) = pr q l con s0 = a, si+1 − si ∈ {−1, 1}, y r = |{i : si+1 − si = 1}|, l = |{i : si+1 − si = −1}|, 0 ≤ i ≤ k − 1. Es decir r es el número de saltos positivos que hace la caminata en sus primeros k pasos, y l es el número de saltos negativos que hace la camianta aleatoria en sus primeros k pasos. La probabilidad de que la caminata aleatoria {Sn }n≥0 siga el camino (s0 , s1 , ..., sk ), está dada por P(S0 = s0 , S1 = s1 , ..., Sk = sk ). Notemos que si existe 0 ≤ i < k para la cual |si+1 − s1 | ∈ / {−1, 1}, la última probabilidad es cero. De otro modo, usando la independencia de X1 , X2 , . . . tenemos que P(S0 = s0 , S1 = s1 , ..., Sk = sk ) = P(Sk − Sk−1 = sk − sk−1 , . . . , S1 − S0 = s1 − s0 , S0 = s0 ) = P(X1 = s1 − s0 , X2 = s2 − s1 , . . . , Xk = sk − sk−1 = P(X1 = s1 − s0 )P(X2 = s2 − s1 ), . . . , P(Xk = sk − sk−1 ) = pr q k−r , donde r = |{i : si+1 − si = 1}|, con 0 ≤ i ≤ k y como p + q = 1 entonces l = k − r. Ahora veamos la probabilidad de que la caminata aleatoria que empieza en a se encuentre en b al tiempo n. Teorema 1. Para S0 = a P(Sn = b) = n n+b−a 2 ! p( n+b−a ) 2 q( n−b+a ) 2 , donde (1/2)(n + b − a) es un entero que toma valores en el conjunto {0, 1, . . . , n}. En otro caso Pa (Sn = b) = 0. ( la probabilidad en cuestión también se puede escribir como P(Sn = b|S0 = a).) Demostración. La probabilidad de que Sn sea igual a b es la probabilidad de que la caminata aleatoria siga alguno de los caminos de longitud n que empiezan en a y terminan en b. Notemos que si la caminata aleatoria sigue un camino de longitud n, (s0 , s1 , . . . , sn ) que empieza en a y termina en b, es decir s0 = a y sn = b, y definimos a 5 QUINTA PARTE. 19 r y a l como en el lema anterior. Entonces, como en cada uno de los n pasos sólo puede subir o bajar una unidad, el número de veces que baja una unidad más el número de veces que sube una unidad es igual a n, es decir r + l = n. También notemos que si el camino de longitud n empieza en a y termina en b, luego de subir r unidades y bajar l unidades a partir de a, la caminata habrá avanzado n pasos y se encontrará en la posición sn = b, por lo que a + r − l = b. De lo anterior tenemos que r =b−a+l (2) r = n − l. (3) Sumando las ecuaciones (1.1) y (1.2), se tiene que n+b−a r = 2 n+a−b . l = 2 Por lo anterior, si queremos que la caminata aleatoria siga un camino de longitud n que empiece en a y termine en b, éste tendrá que tener ( n+b−a ) saltos positivos y 2 ( n−b+a ) saltos negativos. Usando ésto y el Lema (3) la caminata aleatoria seguirá un 2 n+b−a n−b+a camino (s0 , . . . , sn ) donde s0 = a y sn = b con probabilidad p( 2 ) q ( 2 ) . Si hacemos Mnr (a, b) el número de caminos de longitud n, con s0 = a, sn = b y r = n+b−a |{i : si+1 − si = 1}|, entonces Mn 2 (a, b) p1/2(n+b−a) q 1/2(n−b+a) es la probabilidad de que la caminata aleatoria empiece en a y termine en b en n pasos. Por lo que se tiene que ) ( n+b−a 2 P(Sn = b) = Mn (a, b) p( n+b−a ) 2 q( n−b+a ) 2 . Tomando en cuenta que cualquier camino que vaya de a a b en n pasos tiene que ) saltos positivos y ( n+a−b ) negativos, la única diferencia que puede tener ( n+b−a 2 2 haber entre cada uno de ellos es el orden en el que se dan los saltos positivos, por lo ( n+b−a ) 2 que Mn ( n+b−a ) 2 Mn ), es decir es el número que resulta de escoger de los n pasos, ( n+b−a 2 n = n+b−a . Por lo tanto 2 ! n+b−a n+a−b n P (Sn = b) = n+b−a p( 2 ) q ( 2 ) , 2 donde r = ) ( n+b−a 2 ∈ N y 0 ≤ r ≤ n para que n n+b−a 2 ! tenga sentido. Los siguientes resultados tratan de caminos más especificos que los anteriores, por lo cual es necesario introducir las siguientes definiciones. Definición 6.1. Definimos a Nn (a, b) como el número de caminos de longitud n que empiezan en a y terminan en b. Definición 6.2. Definimos a Nn0 (a, b) como el número de caminos de longitud n, de a a b para los cuales existe k ∈ N tal que 0 < k < n y sk = 0. 5 QUINTA PARTE. 20 En el siguiente teorema veremos que el número de caminos que existen de a a b, de longitud n, que tocan en algún momento a cero, Nn0 (a, b) es igual al número de caminos que existen de −a a b de longitud n, Nn (−a, b). Donde a, b > 0. Teorema 1.1 (Principio de reflexión). Si a, b > 0 entonces Nn0 (a, b) = Nn (−a, b). Demostración. Sean A = {(s0 , s1 , ..., sk , ..., sn )|s0 = a, sn = b y tal que existe k ∈ {0, 1, . . . , n}, tal que Sk = 0} y B = {(s0 , ..., sn )|s0 = −a, sn = b}. Como −a < 0 y b > 0, para todo camino (−a, s1 , ..., b) ∈ B existe 0 < k < n para el cual sk = 0. Sea f : B → A tal que al camino (−a, s1 , ..., sk−1 , 0, sk+1 , ..., sn−1 , b) le asocia el camino en A (a, −s1 , ..., −sk−1 , 0, sk+1 , ..., sn−1 , b). La función f definida de esta manera resulta ser una función biyectiva, por lo que |A| = |B|. De este teorema tenemos el siguiente resultado. b ∈ N, entonces el número de caminos de 0 a b que no n regresan al 0 es (b/n)Nn (0, b). Corolario 0.1. Si b > 0, y Demostración. Notemos primero que si b + n es impar Nn (0, b) = 0 = Nn0 (0, b). Si b + n es par, cualquier camino que empieza en cero, que no toca el 0 nuevamente y llega a b, estará en el segundo paso en 1. Por lo que el número de caminos deseado es el mismo que el número de caminos de 1 a b de longitud n − 1 que no tocan el 0. Este número podemos escribirlo por el Teorema 1.1 como: 0 Nn−1 (1, b) − Nn−1 (1, b) = Nn−1 (1, b) − Nn−1 (−1, b). Y recordemos que en la demostración del Teorema 1, vimos que el número de caminos n . Por ello, de longitud n que van de a a b, es n+b−a 2 ! ! n−1 n−1 Nn−1 (1, b) − Nn−1 (−1, b) = n−2+b − n+b 2 = (n − 1)! (n − 1)! − n+b n−2−b . n−b ( n−2+b ( )!( )! )!( 2 )! 2 2 2 Notemos que ( n−b n−b n−2−b )! = ( )( )! 2 2 2 y ( n+b n+b n−2+b )! = ( )( )!. 2 2 2 2 (4) 5 QUINTA PARTE. 21 Por lo que tenemos que(4) es igual a = = = (n − 1)! (n − 1)! − n−2+b n−2−b n−b n−2−b n−2+b n+b ( ( )!( )!( ) )!( )!( ) 2 2 2 2 2 2 (n − 1)! n+b n−b [( )−( )] n−b n+b 2 2 ( )!( )! 2 2 b(n − 1)! n−b n+b ( )!( )! 2 2 b n! n n+b n−b ( )!( )! 2 ! 2 n = b n = b Nn (0, b). n n+b 2 Con este resultado podemos encontrar la probabilidad de que una caminata aleatoria {Sn }n≥0 que empieza en 0 siga un camino de longitud n que termina en b 6= 0 y que nunca regresa a 0. Teorema 1.2. Si S0 = 0, entonces para todo n ≥ 1 y b 6= 0, P(S1 , S2 , . . . , Sn 6= 0, Sn = b) = |b| 1 P(Sn = b) y P(S1 , S2 , . . . , Sn 6= 0) = E|Sn |. n n Demostración. Caso1: Supongamos b > 0. P(S1 , . . . , Sn 6= 0, Sn = b) es la probabilidad de todos los caminos que empiezan en 0, no regresan a 0 y terminan en b en n pasos. Por ello y por el Corolario 0.1 tenemos que P(S1 , . . . , Sn 6= 0, Sn = b) = = = b Nn (0, b)p1/2(n+b) q 1/2(n−b) n b P(Sn = b) n |b| P(Sn = b). n Caso 2: Supongamos b < 0. Sea Bn (a, b) el número de caminos de longitud n que empiezan en a, terminan en b y no regresan a a. Entonces P(S1 , . . . , Sn 6= 0, Sn = b) = Bn (0, b)p( Sean A={Caminos de 0 a b que no tocan el cero}, y n+b ) 2 q( n−b ) 2 . 5 QUINTA PARTE. 22 B={Caminos de 0 a −b que no tocan el cero}, entonces (s0 = 0, s1 , . . . , sn = b) 7→ (0, −s1 , . . . , −sn = −b) es una biyección entre A y B, ası́ |A| = |B|. De donde concluı́mos que Bn (0, b) = Bn (0, −b). Por lo tanto n+b n−b P(S1 , . . . , Sn 6= 0, Sn = b) = Bn (0, −b)p( 2 ) q ( 2 ) . Como −b > 0, nuevamente, por el Corolario 0.1 tenemos que Bn (0, −b)p( n+b ) 2 q( n−b ) 2 = n+b n−b −b Nn (0, −b)p( 2 ) q ( 2 ) . n Además Nn (0, −b) = Nn (0, b), de lo cual P(S1 , . . . , Sn 6= 0, Sn = b) n+b n−b −b = Nn (0, b)p( 2 ) q ( 2 ) n −b P(Sn = b) = n |b| = P(Sn = b). n Por lo que para toda b 6= 0 y n ≥ 1 P(S1 , S2 , . . . , Sn 6= 0, Sn = b) = Ahora veremos que P(S1 , S2 , . . . , Sn 6= 0) = X 1 E|Sn |. n |b| P(Sn = b). n Por lo anterior P(S1 , S2 , . . . , Sn 6= 0, Sn = b) b6=0 = X |b| P(Sn = b) n b6=0 = ∞ 1X |b| P(Sn = b) + |b| P(Sn = −b). n b=1 Por lo tanto, = P(S1 , S2 , . . . , Sn 6= 0) ∞ 1X |b| P(Sn = b) + |b| P(Sn = −b) n b=1 = ∞ 1X |b|P(|Sn | = |b|) n = 1 E(|Sn |). n b=1 problemas 1.- Calcule la distribución de la variable aleatoria que describe el primer regreso al 0 de una caminata aleatoria simple que empieza en 0, es decir calcule P(T = k|S0 = 0), k = 1, 2, . . . y donde T = mı́n{n > 0 : Sn = 0} . 6 6. SEXTA PARTE. 23 SEXTA PARTE. Propiedades asintóticas Empezaremos con algunas desigualdades muy ´tiles en general y fundamentales para probar la primera ley.Sea X una variable aleatoria con media m y varianza σ 2 Desigualdad de Markov : si X > 0, P(X > a) ≤ E(X) a desigualdad de Chebychev: si X tiene varianza finita P(|X − m| ≥ a) ≤ σ2 a2 para cualquier a > 0. Su utilidad es muy variada en una amplia gama de situaciones. Pruebas: 1.X (1(X>a) ) ≤ 1(X>a) a y se usa la monotonı́a de la esperanza para obtener E(X) X P(X > a) = E(1(X>a) ) ≤ E 1(X>a) ≤ . a a 2.- Inmediato de lo anterior. Leyes de grandes números. Teorema 2. (Ley débil) Si {Xi : i = 1, 2, 3, ....} es una sucesión de variables aleatorias independientes e idénticamente distribuidas con media m y varianza finita, y si (Sn )n es su caminata aleatoria asociada, Sn P | − m| ≥ a → 0 n → ∞ n La prueba es una consecuencia inmediata de la desigualdad de Chebychev. var(Sn ) var(X1 ) Sn Sn P | − m| ≥ a = P | − m|2 ≥ a2 ≤ = n n n2 a2 a2 n Teorema 3. (Ley Fuerte) Si {Xi : i = 1, 2, 3, ....} es una sucesión de variables aleatorias independientes e idénticamente distribuidas con media m ahora supondremos que E(X 4 ) es finita. Sea (Sn )n su caminata aleatoria asociada,entonces Sn P lı́m →m =1 n→∞ n o dicho de otra manera lı́m n→∞ Sn = m c.s. n 6 SEXTA PARTE. 24 En el caso de las caminatas aleatorias simples, esto nos dice que en promedio el numero de éxitos es la media. X1 + X2 + . . . Xn →p n Si recordamos los resultados para una caminata aleatoria simple obtenidos en la sección 3 no resultar sorprendente el siguiente resultado Teorema 4. Dada una caminata aleatoria (Sn )n∈N no trivial, sucede una y sólo una de la tres propiedade siguientes: 1.- lı́mn→∞ Sn = +∞ o 2.-lı́m inf n→∞ Sn = −∞ y lı́m supn→∞ Sn = +∞ o bien 3.- lı́mn→∞ Sn = −∞ Dos casos son sencillos de probar: si Xi tiene media finita y positiva ( E (Xi ) = m ∈ (0, ∞)) , la ley de las grandes números nos permite afirmar que se cumple el caso 1.En efecto, Sn lı́m =m n→∞ n de donde se deduce que lı́m Sn = +∞ n→∞ Si Xi tiene media finita y negativa, la misma ley nos dice que se cumple el caso 3.Es claro que el caso de las caminatas aleatorias simples para p 6= q, queda incluido en estos dos casos. Un poco más dificil de probar son casos restantes: la media m es cero, m = −∞ o m = +∞. Para estudiar el comportamiento asintótico, en estos casos se requiere de la ley 01 de Hewitt- Savage y no lo vamos a hacer aquı́. Un estudio detallado con enfoque elemental, se encuentra en ([13].) El caso de una caminata aleatoria simple con p = q la media es cero y el resultado que se dió en la secció anterior no se deduce de las leyes de grandes nh́umeros. 3. Otro ejemplos de problemas de ruina. Un ejemplo muy cercano a las caminatas aleatorias son las caminatas aleatorias con retraso o caminatas aleatorias perezosas ya mencionadas. El modelo es importante en aplicaciones diversas, por ejemplo en procesamiento de sen̂ales en donde dependiendo del valor del peso de la información se envı́an tres posibles números a la central que esta procesando toda esta información: si el peso el grande, envı́a el número 1 , si es muy pequeo , el (−1) y no transmite nada si los pesos son intermedios. Cuando se rebasa un cierto nivel se deben tomar medidas adecuadas y al bajar de otro nivel fijo, también se deberá actuar en consecuencia. Claro que cada modelo deberá precisar que es grande y chico as como estos niveles de los que no podemos salirnos. El modelo matem´tico para esto , es una caminata aleatoria en donde las variables aleatorias de salto Xi son las siguientes Xi = 1 con probabilidad p ∈ (0, 1) Xi = −1 con probabilidad q ∈ (0, 1) Xi = 0 con probabilidad r ∈ (0, 1) y donde p+q +r = 1.Es obvio que si r = 0 volvemos a las caminatas aleatorias simples. 6 SEXTA PARTE. 25 Para simplificar el estudio pensemos que el nivel superior es c > 4y el inferior es 0 y empezamos en un punto u ∈ {i, 2, ....c − i} Si aplicamos las ideas del problema de la ruina a esta situación tendremos la siguiente ecuación, h(u) = ph(u + 1) + qh(u − 1) + rh(u) que es lo mismo que h(u)(1 − r) = ph(u + 1) + qh(u − 1) y que p q h(u + 1) + h(u − 1) p+q p+q si observamos los cálculos hechos para el problema de la ruina veremos que la probabilidad de llegar a 0 o a c , son las mismas que el caso de de la caminata simple, y esto porque porque el cociente de los coeficientes r es el mismo. h(u) = Problemas Se sabe que el promedio del número de piezas que se produce en un ff́abrica es de 100 piezas diarias. Si Y denota el número de piezas producidas diariamente, d una estimacin, o cota superior para P(Y > 95), P(y > 120). Si adems sabemos que la varianza es 400, de una estimacin de estas mismas cantidades. Como se comparan las cotas? SeaX una variable aleatoria de Poisson con media 20. Use la desigualdad de Markov para dar una cota superior de P(X > 26). Ahora use Chebychev para ver si puede mejorar la cota. Por experiencia se sabe que el promedio de estudiantes que presentan su examen final es de un 75 %. De una cota superior para la probabilidad de que lo presenten más del 85 %. P Si (Sn = i=1 )n Xi )n∈N es una caminata aleatoria simple que empieza en 0 y donde Xi es Bernoulli* de parmetro p ∈ (0, 1). Encuentre la distribució de Sn , calcule su media, su variancia y P(Sn > 3), pr(Sn > 10). (*en los dos casos : si Xi toma los valores {0, 1} o los valores {−1, 1}) 7 7. SÉPTIMA PARTE 26 SÉPTIMA PARTE Desarrollos recientes sobre problema de la ruina. Esta parte del curso requiere de resultados ms avanzados de la teorı́a, sin embargo se dar una idea del problema de la ruina para proceso con tiempo contı́nuo. Podemos plantear un problema análogo para un proceso en tiempo contı́nuo, lo que es en general mucho más difı́cil de resolver pero que tiene una gran importancia en una gran variedad de modelos matemticos ligados a los más diversos fenómenos aleatorios de la naturaleza. Si se tiene un proceso más general que lo tratado en secciones anteriores, la pregunta es la misma: se puede saber con que probabilidad sale de un cierto intervalo dado?. Veamos el caso más conocido: el del movimiento browniano: El Movmiento Brownianno (Bt )t∈R+ es un proceso estocástico definido en un espacio de probabilidad (Ω, F, P) que evoluciona en el tiempo de manera contı́nca, es decir los subı́ndices del proceso varı́an en R+ y queda definido como sigue: B0 = 0 tiene trayectorias contı́nuas. Bt tiene densidad normal N (0, t) Es un proceso con incrementos independientes, esto significa que para toda n ∈ N y para cualesquiera tiempos 0 ≥ t1 < t2 < ....tn , las variables aleatorias (Bti − Bti−1 ){i∈{1,.....n} son variables aleatorias independientes. Tiene incrementos estacionarios , es decir, la distribución de (Bt+h − Bt ) es la misma que la de (Br+h − Br ) para cualesquiera t, r ≥ 0 Observe que en este caso las trayectorias del proceso son funciones de [0, ∞) → R y una trayectoria es, para cada ω ∈ Ω fijo , la función t → Bt (ω). El proceso que empieza en x ∈ R se define como (x + Bt : t ≥ 0) Por lo que se ha dicho en la definición Bt tiene densidad normal de media 0 y varianza t, as que la densidad de x + Bt es: pt (x, y) = −|x − y|2 1 exp( ) 2t (2πt)1/2 y en esta fórmula la x inicial queda fija. Podemos entonces plantear preguntas similares al caso de la caminata aleatoria: Cuál es la probabilidad que habiendo empezado en el punto x > 0 llegue primero a c > x > 0) que a cero? (el jugador A gana) Si tenemos un MB que empieza en 0 y a > 0, b > 0son dos reales positivos. Cuál es la probabilidad de que salga del intervalo (−a, b) por −a y cual la de que salga por b? Esto por traslación es equivalente a pensar en el intervalo (0, a + b = c) y en un MB que empiece en a = x. Es cierto que con probabilidad 1 sale de cualquier intervalo finito? Teorema 5. Si B es un movimiento Browniano que empieza en x > 0 y sea c > x > 0. Entonces x c−x P(τc < τ0 |B0 = x) = ; P(τc > τ0 |B0 = x) = c c donde τu := ı́nf{t > 0 : Bt = u} u ∈ R 7 SÉPTIMA PARTE 27 Podemos de inmediato ver que es el mismo resultado que para las caminatas aleatorias simétricas ( es decir p = q = 1/2). Si recordamos que existen teoremas que nos permiten aproximar al MB mediante un re-escalamiento cada vez más fino en el tiempo y el espacio de las caminatas aleatorias simples simétricas , podrı́amos pensar que el resultado se deduce de las propiedades correspondientes de ellas. Pero en realidad esto no es as. El tpo de convergencia ( topologı́a de Skorohod) que se tiene, no respeta , por lo general estas propiedades. La demostración es totalmente diferente del caso discreto y no se hará en este texto, Sólo indicaremos que se hace básicamente usando un resultado vinculado con a la densidad de x + Bt . Un cálculo elemental muestra que esta función , satisface la ecuación del calor ∂pt 1 ∂ 2 pt = . ∂t 2 ∂y 2 Los mt́odos empleados son ahora de caráctor anaı́tico (teor’a probabilista del potencial). Otros métodos de prueba utilizan la teorı́a de las martingalas. Además de este resultado para el MB , se pueden estudiar otros modelos en la teorı́a de riesgo que son procesos en tiempo contı́ndo pero con trayectorias discontı́nuas. Algunos de estos modelos se han desarrollando recientemente por probabilistas mexicanos (ver.....) e incluyen a procesos del tipo: Cramer- Lundberg Lévy simétricos Lévy espectralmente negativos Esto ha permitido acceder a modelos más precisos y útiles en diversas aplicaciones, pero, naturalmente , requieren de conocimientos más avanzados de probabilidad y de procesos estocásticos. REFERENCIAS 28 Referencias [1] J. Bertoin. Probabilités. Curso Universidad de Paris VI, 1997. [2] Mayra Bermúdez Caminatas aleatorias condicionadas a ser positivas . Tesis de licenciatura, Facultad de Ciencias, UNAM, 2011. [3] CPP) M.E. Caballero , J.C, Pardo y J.L. Prez Explicit identities for Lvy processes associated to symmetric stable processes. Bernoulli 17 (2011), 1, 34–59. [4] MEC) M.E. Caballero. La martingala de Pascal. Miscelánea Matemática, SMM No.43.(2006),1-19. [5] CRUV) M.E. Caballero, V. Rivero, G. Uribe , C Velarde Aportaciones Matemáticas, Cadenas de Markov. 29.(2008). [6] Laurent Denis, Begoa Fernndez, Ana Meda Estimation of value at risk and ruin probability for diffusion processes. Journal: Mathematical Finance - MATH FINANC , 19, no. 2, pp. 281-302, 2009 [7] W. Feller. An Introduction to Probability Theory and its Applications. Vol. 1, 3rd ed., John Wiley, New York, 1968. [8] J. Garcı́a. Valuación de opciones. Tesis de licenciatura, Facultad de Ciencias, UNAM, 2002. [9] Ch. Grinstead y L. Snell. Introduction to Probability. American Mathematical Society, 1997. [10] G.R. Grimmmet y D.R. Stikzaker. Probability and Random Processes. Oxford Science Publications, 1992. [11] A.Gut The gamblers ruin problem with delays.. Stats,and Porb Letters. 83, 25-49 (2013). [12] D.B. Hernández Castaños. Caminatas aleatorias y movimiento browniano. Monografı́as del Instituto de Matemáticas, 9, UNAM, 1981. [13] Adrian Hinojosa Generalizacion de la Caminata Aleatoria asociada. . Tesis de licenciatura, Facultad de Ciencias, UNAM, 2013. [14] P.G. Hoel, S.C. Port y C.J. Stone. Introduction to Stochastic Processes. Houghton Miffin, 1971. [15] Kai Lai Chung From discrete to absolutely continuous solutions of indeterminate moment problems Arab. J. Math. Sci. 4, 1-18 (1998). [16] KPR) A.E. Kyprianou, J.C. Pardo y V.M. Rivero. Exact and asymptotic n-tuple laws at first and last passage. (with A.E. Kyprianou and V.M. Rivero. Ann. of Appl. Probab. 20 (2010), 2, 522–564. [17] S. I. Resnick. Adventures in Stochastic Processes. Birkhauser, Boston, 1992. [18] S.M. Ross Stochastic Processes. Wiley Series in Probability and Mathematical Statistics, 1996. [19] H. Sagan. Advanced Calculus. Houghton Miffin, Boston, 1974. [20] Gerónimo Uribe Bravo Ley arco seno en caminatas aleatorias, movimiento Browniano y en el proceso de Poisson compuesto . Tesis de licenciatura, Facultad de Ciencias, UNAM, 2002. [21] Gerónimo Uribe Bravo Notas de Caminatas aleatorias. Bolivia 2014.