Notas del curso. Versión final 16/9/2015.

Anuncio
Caminatas aleatorias.
Por: Ma Emilia Caballero
Instituto de Matemáticas UNAM
16 de septiembre de 2015
1.
PRIMERA PARTE.
El problema de los puntos Una fecha fundamental para establecer los orı́genes de la probabilidad es 1654, año en el cual se lleva a cabo el famoso intercambio de cartas entre Blaise Pascal (1623-1662) y Pierre de Fermat (1601-1665).
El problema que nos ocupa de esta correspondencia es el famoso: “problema
de los puntos” que aparece por primera vez en el libro de Fra Luca de Pacioli
(Venecia 1494) y dice asi: Se juega entre dos equipos A y B, cada uno apuesta
una cantidad igual (5 ducados) y el juego consta de un cierto número de etapas.
Cada etapa da a quien la gana 10 puntos, cero puntos a quien la pierde y ambos
equipos son igualmente capaces de ganar una etapa. Gana el juego, el primero
en llegar a 60 puntos.
El juego debe interrumpirse cuando el equipo A lleva 50 puntos ganados y el B
lleva 20 puntos. ?Cómo debe repartirse la apuesta total (10 ducados) entre los
dos jugadores? No se llegaó en ese entonces a una respuesta correcta.
Algo similar plantea Chevalier de Meré a Pascal y solo las cifras cambian: Dos
jugadores A y B apuestan 32 “pistols” cada uno, para tener una bolsa total de 64
“pistols”. El juego, nuevamente consta de varias etapas y cada etapa da a quien
la gana un punto (ambos jugadores son igualmente capaces de ganarla). Gana
el juego y por lo tanto la bolsa total el primero en llegar a tres puntos. El juego
debe interrumpirse cuando A lleva 2 puntos y B cero puntos. La pregunta es la
misma. Este es el problema que Pascal le plantea a Fermal en la correspondencia
mencionada. Ambos encuentran la solución y el resultado fue el mismo a pesar
de que sus métods fueron muy distintos.Veremos aqu como lo hizo Pascal.
Pascal piensa que debe empezar con un caso más simple: A lleva 2 puntos y B
lleva 1 punto: Si A gana la etapa siguiente ya tendrá 3 puntos yse lleva la bolsa
entera, es decir, las 64 “pistols”. Si B gana la etapa llevarán cada uno 2 puntos
y en ese caso por tratarse de un empate, la bolsa deberá repartirse mitad y
mitad, esto es, a A le tocarán 32 “pistols”. Se sabe que ambos jugadores tienen
igual capacidad de ganar una etapa, por lo que la repartición justa deberá ser:
x=
64 32
+
= 48.
2
2
1
1
PRIMERA PARTE.
2
Al disponer de ésta información Pascal ya puede tratar el caso que le preguntan
originalmente, a saber si A lleva 2 puntos y B cero: si A gana se lleva la bolsa
entera y si B gana, se llega al caso anterior, ya que A llevará 2 puntos y B un
punto, y ya se sabe que en tal caso a A le corresponden 48 “pistols” y a B las
16 restantes.
Nuevamente, ambos tienen la misma probabilidad de ganar la etapa por lo que
la reparticion justa es
64 48
+
= 56 .
x=
2
2
Por último y aunque esta pregunta no aparece en la correspondencia de estos
dos sabios, veamos el caso en que A lleve un punto y B cero puntos: Si A gana
la etapa, se estará en la situación 2 a 0, por nosotros ya conocida y si B gana
hay un empate y la bolsa se reparte mitad y mitad: Y ahora
x=
56 32
+
= 44 .
2
2
En su escrito, además de resolver el problema planteado por Meré, Pascal maneja
por primera vez las siguientes ideas y futuros conceptos matemáticos, que en su
época ni tenı́an estos nombres, ni se conocı́an, ni se utilizaban:
Variable aleatoria y esperanza matemática.
Probabilidad y esperanza condicionales.
Martingala.
Cadena de Markov.
El concepto de tiempo de paro o tiempo aleatorio también aparece
implcı́itamente en su mtodos, ya que se interesa por la primera vez que se
alcanza cierto nivel:
τ = mı́n{k : Yk = N }
y veremos más adelante la importancia del mismo.
Problema de la ruina al que dedicaremos varias secciones en éstad notas.
Solución elemental al problema de valuación de una opción
El método de Pascal descrito de manera más general es el siguiente: gana el
juego y en consecuencia el capital total 2C, el primer jugador alcance N puntos.
Cada uno de los jugadores aportó al inicio del juego C pesos.
Se define A(r, s) como la cantidad que le tocarı́a al jugador A si tiene r puntos
puntos cuando ya se han jugado (r + s) juegos. Entonces por las condiciones del
juego, se cumple, para s, r ∈ (0, N ],
(a.) A(r, N ) = 0. r ∈ (0, N )
(b.) A(N, s) = 2C, s ∈ (0, N )
1
PRIMERA PARTE.
3
(c.) A(r, s) = pA(r + 1, s) + qA(r, s + 1)
En efecto, las afirmaciones (a.) y (b.) son inmediatas de la definición. La propiedad (c.) es consecuencia de lo ya descrito, en el caso que A gane un punto
con probabilidad p ∈ (0, 1) y no lo gane con probabilidad q = 1 − p.
(
1 si A gana la i-ésima etapa,
Xi =
0 si no
Es fácil ver que a partir de éstas relaciones podemos calcular A(r, s) para toda
r, s ≤ N : Se empieza con A(N − 1, s), s = N − 1, N − 2, ..,0 y se obtiene:
A(N − 1, N − 1) = 2Cp
A(N − 1, N − 2) = 2C(p + pq)
A(N − 1, N − 3) = 2C(p + pq + pq 2 )
...
A(N − 1, 0) = 2C(p + pq + pq 2 + · · · + pq N −1 )
Luego se calcula A(N − 2, s), s = N − 1, N − 2, ...i, 0 y ası́ sucesivamente. Por
ejemplo
A(N − 2, N − 3) = p.A(N − 1, N − 3) + qA(N − 2, N − 2)
Se le puede llamar a esta idea de Pascal el método de inducción regresiva.
Si aplicamos esto al problema de Pascal obtenemos lo mismo (con N = 3):
si A lleva 2 puntos y B lleva 1 punto y A(2, 1) = 1/2 + 1/4 = 2C,3/4 Como
2C = 64, esto da 48.
si A lleva 2 puntos y B lleva 1 punto y A(2, 0) = 2C(1/2 + 1/4 + 1/8) = 2C,7/8
lo que nos da 56.
si A lleva 2 puntos y B lleva 0 punto y A(1, 0) = pA(3, 0) + q.A(2, 1) lo que nos
da 44.
.
2
SEGUNDA PARTE. CONCEPTOS BÁSICOS
2.
4
SEGUNDA PARTE. conceptos básicos
1.- Independencia y probabilidad condicional
En todo lo que sigue del texto se trabaja con el espacio de probabilidad (Ω, F, P)
en donde Ω es finito o numerable y la familia de subconjuntos F es la potencia
de Ω, es decir, se trata de la familia de todos los subconjuntos de Ω. A los
elementos de esta familia se les llama eventos; (en textos más avanzados en vez
de trabajar con la familia potencia se trabaja con ciertas subfamilias de ésta y la
causa de hacerlo ası́ obedece a razones teóricas de importancia y trascendencia
pero que corresponden a otro nivel.) En estos espacios, la medida de probabilidad
P definida en F se da simplemente mediante una serie de números
X
(aω ∈ (0, 1])ω∈Ω tal que
aω = 1
ω∈Ω
que determinan el valor de P en todo F con la regla:
X
P(A) =
aω .
ω∈A
Se pide al lector verificar que P definida de esta manera en F satisface las tres
condiciones que definen a una medida de probabilidad, a saber,
1. P es una función definida en F y con valores en [0, 1].
2. P(∅) = 0 y P(Ω) = 1.
3. Si (An )n∈N es un sucesión de eventos ajenos dos a dos (i.e. Ai ∩ Aj = ∅
para i 6= j, i, j ∈ N) se cumple
[
X
P(
An ) =
P(An ),
n∈N
n∈N
y en consecuencia tiene las propiedades usuales de una medida de probabilidad,
entre ellas que es (finitamente) aditiva, es decir,
P(
[n=m
n=1
An ) =
n=m
X
P(An ),
n=1
siempre que los eventos A1 , A2 , ....Am sean ajenos dos a dos. También tiene las
propiedades de continuidad:
1. Si (An )n∈N es un sucesión decreciente de eventos, es decir, si An ∈ F, An ⊂
An−1 para todo n ∈ N, entonces
\
lı́m P(An ) = P(
An ).
n→∞
n∈N
2
SEGUNDA PARTE. CONCEPTOS BÁSICOS
5
2. Si (An )n∈N es un sucesión creciente, entonces
[
lı́m P(An ) = P(
An ).
n→∞
n∈N
A estas dos propiedades se les llama de continuidad de la probabilidad.
Veamos la demostración
Sk−1 de la segunda. La otra se obtiene por complementación.
Sea Bk = Ak − j=1 Aj = Ak − Ak−1 Los conjuntos {Bk , k = 1, 2, 3 . . .} son
ajenos dos a dos y
Ak =
k
[
Bj
j=1
∞
[
Bk =
k=1
∞
[
Ak = A.
k=1
Por la propiedad de aditividad numerable de la medida de probabilidad se tiene:
P(A) =
X
k∈N
P(Bk ) = lı́m
k→∞
k
X
P(Bj ) = lı́m P(
k→∞
j=1
k
[
Bj ) = lı́m P(Ak ).
j=1
k→∞
Una vez establecido el marco de trabajo podemos dar las definiciones de probabilidad condicional
dados dos eventos A, B tales que P(B) > 0, def inimos la
Definición 1.
probabilidad de que ocurra A dado que ya sabemos que sucedió B como
P(A|B) =
P(A ∩ B)
.
P(B)
dado un evento A y una variable aleatoira Z : E → R def inimos la probabilidad de que ocurra A dada la variable Z como una nueva variable
aleatoria definida como
X
U = P(A|Z) =
P(A|Z = z)1(Z=z)
E
z∈E
Ejemplo 1.-.
En el caso de que Ω sea finito es muy usual trabajar con la regla de equiprobabilidad, es decir, cada punto del espacio es igualmente probable. En este caso
1
aω = K
si K ∈ N es el número de elementos de Ω y P(A) = #A
K , donde #A es
el número de elementos de A. Si ahora tengo dos eventos A, B 6= ∅,
P(A|B) =
P(A ∩ B)
#(A ∩ B)
=
.
P(B)
#B
Es decir, si ya se sabe que B ocurrió, es inútil contar los elementos de A∩B c , sólo
nos interesa saber cuántos elementos tiene el conjunto A ∩ B, debemos dividir
2
SEGUNDA PARTE. CONCEPTOS BÁSICOS
6
entre #B, que es el número de resultados posibles. En este caso la definición de
probabilidad condicional es clara y esto explica el porqué de la definición general
**Pruebe que si P(B) > 0 entonces la función Q : F → [0, 1] definida mediante
la igualdad Q(A) = P(A|B), A ∈ F, es una nueva medida de probabilidad en
(Ω, F, P) que asigna medida nula a todo evento contenido en B c = Ω − B.
Si ahora se quiere definir el concepto de eventos independientes, es razonable
pedir que la información sobre uno de ellos no afecte la probabilidad del otro,
es decir, dos eventos A y B son independientes si
P(A|B) =
P(A ∩ B)
= P (A).
P(B)
Ejemplo 2.-.
Si se modela un juego de dados y se supone que el dado está equilibrado (es
decir, que la probabilidad de que salga cada una de las seis caras del dado es 61 ),
se pueden hacer varias preguntas, con la hipótesis de que el resultado de cada
lanzamiento no afecta lo que suceda con los demás. Por ejemplo:
1. Si en la primera jugada obtuve un seis (evento A), cuál es la probabilidad
de que en la segunda también obtenga un seis (evento B)?
2. Si en la primera jugada obtuve un seis (evento A), cuál es la probabilidad
de que la suma de los dos primeros resultados sea mayor que 9 (evento
C)?
Claramente en la primera pregunta se trata de eventos independientes y en la
segunda de eventos dependientes. La respuesta a la primera es 16 = P(A∩B)
P(B) y la
3
respuesta a la segunda es 6 , ya que hay tres formas para que la suma sea mayor
que nueve y si aplicamos la fórmula, se obtiene:
P(C|A) =
P(C ∩ A)
=
P(A)
3
36
1
6
=
3
.
6
La definición general de eventos independientes es
Definición 2. Una colección de eventos (Ai )i∈I es un colección independiente
si para todo subconjunto f inito J ⊂ I se cumple
\
Y
P(
Ai ) =
P(Ai ).
i∈J
i∈J
Como se observa, la colección puede ser finita o infinita. También es importante
reconocer que si los eventos(Ai )i∈I son independientes, entonces son independientes dos a dos pero la recı́proca es falsa: existen colecciones (Ai )i∈I de eventos
tales que, para toda pareja i, j ∈ I, Ai es independiente de Aj , pero no resulta
ser una colección independiente.
Ejemplo 3.-.
Sea Ω = {1, 2, 3, 4} y P la medida equiprobable en Ω. Si A = {1, 2}, B = {1, 3}
y C = {3, 2}, entonces A, B y C son independientes dos a dos pero no son
independientes.
2
SEGUNDA PARTE. CONCEPTOS BÁSICOS
7
Proposición 1. 1.-Si A y B son independientes también lo son
Ay B c ,
Ac y B c , y
Ac y B.
2.-Sea B un evento con probabilidad estrictamente positiva:
A y B son independientes si y sólo si P(A|B) = P(A)
**Las demostraciones se dejan como ejercicio al lector o pueden ser consultadas
en los textos básicos dados en las referencias. Como ejemplo, veamos que si
A y B son independientes también lo son A y B c : El conjunto A se puede
descomponer como unión ajena: A = (A ∩ B) ∪ (A ∩ B c ) por lo que,
P(A) = P(A ∩ B) + P(A ∩ B c ) = P(A) P(B) + P(A ∩ B c ),
por lo tanto,
P(A)[1 − P(B)] = P(A ∩ B c ),
es decir,
P(A) P(B c ) = P(A ∩ B c ).
Para el manejo del concepto de independencia de variables aleatorias en el caso
que interesa en estas notas, a saber, cuando el espacio de estados E ⊂ R es
discreto , es decir cuando es finito o numerable, la definición se puede formular
ası́
Definición 3. Sea
Xi : Ω → E ,
i∈I
una familia de variables aleatorias: Decimos que (Xi )i∈I es independiente si para
cada familia (xi )i∈I de elementos de E se cumple que la colección de eventos
(Xi = xi )i∈I es independiente, o sea si para todo subconjunto J f inito de I y
para cada familia (xi )i∈J de elementos de E se tiene:
\
Y
P(
(Xi = xi )) =
P(Xi = xi ).
i∈J
i∈J
En la última parte se presentará la definición de esperanza ası́ como algunas
propiedades básicas de ella que se usan en el texto. Para mayor información al
respecto se recomienda consultar la bibliografı́a. 2.- Esperanza y esperanza
condicional
Definición 4. Se define la esperanzade una variable aleatoria
X :Ω→E
como
E(X) =
X
E
y∈E
y P(X = y).
2
SEGUNDA PARTE. CONCEPTOS BÁSICOS
8
La esperanza de una variable aleatoria es una integral y como tal comparte sus
propiedades, como la linealidad, monotonı́a etc. Aquı́ sólo veremos de manera
explı́cita dos de ellas.
S
Lema 1. Si A1 , A2 , . . . son eventos ajenos dos a dos y A = k∈N Ak , entonces
E(1A ) =
X
E(1Ak ).
k∈N
En efecto, se define Bk =
Sk
j=1
Aj y entonces,
B1 ⊂ B2 ⊂ · · · ⊂ Bn · · ·
y por la propiedad de continuidad de la probabilidad,
E(1A )
= P(A) = lı́m P(1Bk )
k→∞
=
=
lı́m P(
k→∞
X
k
[
k
X
Aj ) = lı́m (
P(Aj ))
k→∞
j=1
P(Aj ) =
j∈N
X
j=1
E(1Aj ).
j∈N
Lema 2. Si X : Ω → N, entonces
E(X) =
X
P(X ≥ k).
k∈N
Esto es inmediato si se escribe
E(X)
=
j=k
XX
P(X = k)
k∈N j=1
=
XX
P(X = k)
j∈N k≥j
=
X
P(X ≥ j),
j∈N
ya que se trata de una serie doble de términos positivos y se puede intercambiar
el orden en que se hace la suma.
Ejemplos 4.Si X es el resultado de un lanzamientoto de un dado equilibrado, E(X) =
1/6(1 + 2 + 3 + 4 + 5 + 6) = 7/2.
2
SEGUNDA PARTE. CONCEPTOS BÁSICOS
9
X es una variable aleatoria que toma el valor es 1 si el resultado del
lanzamiento de una moneda equilibrada es águila (cara) y es −1 si sale sol
(cruz), en este caso, E(X) = 1/2 + (−1)1/2 = 0 (variable de Bernoulli de
parámetro 1/2) .
X es una variable aleatoria que toma el valor es 1 con probabilidad p ∈
(0, 1) y toma el valor −1 con probabilidad q = (1 − p), entonces E(X) =
p + (−1)(1 − p) = 2p − 1 (variable de Bernoulli de parḿetro p).
Y es una variable aleatoria que toma el valor es 1 con probabilidad p ∈
(0, 1) y toma el valor 0 con probabilidad q = (1 − p), entonces E(Y ) =
p + (−1),0 = p.
**Sea T la variable aleatoria igual al número de volados requeridos para
obtener águila por primera vez. Calcule E(T ).
**Si X es una variable de Poisson* de parámetro λ es decir si P(X = k) =
k
exp(−λ) λk! pruebe que E(X) = λ.
Recordemos ahora, en su versión discreta y sin usar temas avanzados de teorı́a
de la medida, los importantes conceptos de esperanza condicional: primero con
respecto a un evento y luego con respecto a otra variable aleatoria.
Definición 5. La Esperanza Condicional de una variable aleatoria X
dado un evento U ⊂ Ω:
X
X P((X = y) ∩ U )
E(X|U ) =
y P(X = y|U ) =
y
P(U )
y∈E
y∈E
dada otra variable aleatoria Z
X
XX
E(X|Z) =
y P(X = y|Z) =
y P(X = y|Z = z)1Z=z
y∈E
z∈E y∈E
De hecho lo que se hace es desarrollar la expresión P(X = y|Z) cuya definición ya
se vió. Una propiedad de la Esperanza condicional es que no cambia la esperanza
es decir,
E(E(X|Z)) = E(X)
(1)
En efecto,

E(E(X|Z)) = E 

XX
y P(X = y|Z = z)1(Z=z) 
z∈E y∈E
=
XX
y P(X = y|Z = z) P(Z = z)
y∈E z∈E
=
X
y∈E
y P(X = y) = E(X)
2
SEGUNDA PARTE. CONCEPTOS BÁSICOS
10
problemas
En el ejemplo (2.) del juego de dados, X1 es el resultado del primer lanzamiento X2 el del segundo.
1.-Sea X la variable aleatoria definida por el máximo de los dos números obtenidos, X = máx(X1 , X2 ). Calcule la esperanza de esta variable
aleatoria.
2. Misma pregunta si ahora
(
Y =
X1 + X2 si X1 + X2 es par
−(X1 + X2 ) si X1 + X2 es non
3.-Calcule E(X|X1 = 1) y E(Y |X1 = 1).
4. Calcule E(Y |X1 )
En el esquema de Pascal calcule E(X4 |X3 ).
3
3.
TERCERA PARTE : PROBLEMA DE LA RUINA
11
TERCERA PARTE : Problema de la Ruina
El problema básico de la ruina, es decir cuando tenemos un modelo aleatorio que
evoluciona en el tiempo, también llamado proceso estócastico que tome valores
reales, cómo podemos conocer, bajo ciertas condiciones dadas, la probabilidad
de que se llegue por primera vez a tener valores negativos ( i.e. llegar a la ruina)
o bien lograr rebasar un nivel positivo prefijado. Presentamos los casos más
sencillos, y los métodos de solución son elementales. Claro que si se cuenta con
más herramientas, los resultados son mucho más fáciles de demostrar.
Las caminatas aleatorias simples pueden verse como un modelo para un
juego de volados: hay dos jugadores que llamaremos A y B; cada jugador apuesta
en una jugada un peso ( o un boliviano). Gana ese peso el jugador A con
probabilidad p ∈ (0, 1) ( sale águila) y lo pierde con probabilidad q = 1 − p (
sale sol). Para hacer el modelo se parte de una sucesión de variables aleatorias
independientes e idénticamente distribuidas (que describen a los resultados de
los volados sucesivos), (Xn )n∈N , y cada una de ellas es una variable Bernoulli de
parámetro p ∈ (0, 1), es decir, X1 toma el valor 1 con probabilidad p y toma el
valor −1 con probabilidad (1 − p) . Si el capital inicial de A es a ∈ N pesos y el
de B es de b ∈ N pesos, el capital de A al tiempo n se denotar Sn , n = 0, 1, 2, ...
y esta dado por :
n
X
Sn = a +
Xi
i=1
y el capital de B será
Rn = b −
n
X
Xi .
i=1
Cuando alguno de los dos pierda todo su dinero, el juego termina y el jugador
que ganó todo el capital c = (a + b) es quien gana el juego. Esto se puede
visualizar como un árbol binario, que describe todas las posibilidades para el
juego: a continuación lo describimos hasta el cuarto juego.
Cuál es la probabilidad de que gane el jugador A? Cuál la que gane B? Claramente esto va depender del valor de p. Una forma de resolver el problema es
usando probabilidad condicional. Para ello dejaremos variar los montos de los
capitales iniciales:
Sea J el evento (A pierde), es decir, Sn alcanza primero el nivel 0 antes que el
nivel c. Llamemos h(u) a la probabildad de que A pierda habiendo empezado
con u ∈ {1, 2, · · · (c − 1)} pesos.
h(u) := P(J|S0 = u)
con u ∈ {1, 2, ....., c − 1}. Es claro que podemos utilizar la infomación de lo que
pasa en el primer juego ( A gana o pierde un peso ) para escribir lo siguiente
h(u) = P(J|S0 = u) = P (J ∩ (S1 = 1 + u)) ∪ (J ∩ (S1 = u − 1))|S0 = u
lo que por aditividad y por la definición de probabilidad condicional es igual a
P(J ∩ (S1 = 1 + u) ∩ S0 = u) + P(J ∩ (S1 = u − 1) ∩ S0 = u)
=
P(S0 = u)
3
TERCERA PARTE : PROBLEMA DE LA RUINA
12
P(J|(S1 = 1 + u)) P(S1 = 1 + u, S0 = u) + P(J|(S1 = u − 1) P(S1 = 1 − u, S0 = u)
=
P(S0 = u)
P[J|(S1 = u + 1)) P(S1 = u + 1|S0 = u)] + P[J|(S1 = u − 1)) P(S1 = u − 1|S0 = u)] =
= ph(u + 1) + qh(u − 1).
Ya que P(S1 = u + 1|S0 = u)] = p y P(S1 = u − 1|S0 = u)] = q.
Como además se sabe que h(0) = 1 y h(c) = 0, el problema se traduce en resolver la
ecuación en diferencias finitas:
h(u) = ph(u + 1) + qh(u − 1), h(0) = 1, h(c) = 0
En el caso de que p = 1/2 = q se tiene
h(u) =
1
h(u + 1) + h(u − 1) , h(0) = 1, h(c) = 0
2
es decir, la función h es lineal y como se conocen sus valores en la frontera se
obtiene directamente la solución (única)
h(a) =
c−a
b
=
c
a+b
Para resolver el sistema en el caso que p 6= q se procede asi:
(p + q)h(u) = ph(u + 1) + qh(u − 1),
lo que es equivalente a
p h(u) − h(u + 1) = q h(u − 1) − h(u)
Sea du = h(u) − h(u + 1), r = q/p , la igualdad anterior la podemos escribir
ahora asi:
du = rdu−1 ,
y por iteración se llega a
du = ru d0 ,
1 = h(0) − h(c) =
c−1
X
dj = d0
j=0
h(j) = h(j) − h(c) =
c−1
X
i=j
c−1
X
r j = d0
j=0
di = d0
c−1
X
i=j
1 − rc
,
1−r
ri = d0
rj − rc
1−r
De la primera ecuación se obtiene el valor de d0 que se sustituye en la segunda
y se obtiene
rj − rc
h(j) =
1 − rc
3
TERCERA PARTE : PROBLEMA DE LA RUINA
13
De esta manera hemos obtenido la probabilidad de que el jugador A pierda el juego si
empieza con j pesos.
Por otra parte, si M denota al evento (B pierde) y a k(u) = P(M |S0 = c − u), se llega
al resultado análogo:
k(u) = pk(u + 1) + qk(u − 1), u ∈ {1, 2, ....., c − 1}
(** pruebe la igualdad anterior).
(p + q)k(u) = pk(u + 1) + qk(u − 1), k(c) = 1, k(0) = 0
El sistema en diferencias finitas es ahora un poco diferente , porque las condiciones
ala frontera son diferentes y al hacer los cálculos se llega a
1 − rj
, p 6= q.
1 − rc
Otra forma de ver este resultado es intercambiar los papeles de A y B, a r por s =
1/r = p/q y a u por (c − u) y aplicar el cálculo hecho con h para obtener
k(j) =
k(j) =
1 − rj
sc−j − sc
=
, p 6= q
1 − sc
1 − rc
Lo extraordinario es ver que si el jugados A empieza con u pesos, y el jugados B con
(c − u) pesos
h(u) + k(u) = 1 · · · · · · (∗)
en cualquier caso y para toda u = 0, 1, . . . c.
Otra forma en que se pueden escribir los resultados anteriores es mediante el uso de
”tiempos de paro”. Se define
τx = ı́nf{n ∈ N : Sn = x}
y el problema se puede escribir as La probabilidad de que el jugador A pierda , si
empezó con u ∈ {, 2, · · · n − 1} pesos es
P(τc > τ0 ) = Pu (τc > τ0 )
ya que esa probabilidad indica que se llegó primero al nivel 0 antes que al c.
Consecuencias Del simple cálculo que se ha hecho, podemos obtener propiedades
notables de la caminata aleatoria: aquı́ usaremos las notaciones h(c, u) y k(c, u) en
lugar de h(u) y k(u) para hacer énfasis en que el resultado depende de la barrera
superior c ( no se menciona la inferior cuando se mantenga fija e igual a cero).
3
TERCERA PARTE : PROBLEMA DE LA RUINA
14
toda caminata aleatoria simple sale de un intervalo dado con probabilidad 1 esto
por la igualdad (*).
si r < 1, lı́mc→∞ h(c, u) = ru lo que significa que tiene una probabilidad positiva
(1 − ru ) de no arruinarse. Si el jugador A empieza con un capital más grande,
la probablidad de no arruinarse también crece , como es lógico esperar.
si r > 1, lı́mc→∞ h(c, u) = 1, lo que significa que eventualmente se arruinará con
probabilidad 1, lo que es también razonable al saber que en cada juego tiene
mayor probabilidad de perder que de ganar( q > p.
Se puede probar que la esperanza de h(u) y de k(u) son finitas para toda u ∈
{1, 2, · · · c − 1}.
Si se empieza en el punto a > 0 , al trasladar S0 al origen el intervalo [0, c] se
traslada al [−a, b] y el resultado anterior se traduce en:
P(τ−a < τb |S0 = 0) = ra , r < 1
y
P(τ−a < τb |S0 = 0) = 1, r > 1.
problemas
Si el jugador A inicia el juego con 10 pesos y el jugador B con 90 pesos y
p = 1/4 calcule la probabilidad de ruina del jugados A. Si ahora p = 3/4 ,
misma pregunta.
En el contexto del juego planteado y con las misma notaciones, si R es el evento
(A gana), encuentre la ecuación que satisface V (u) = P(R|S0 = a).
4
4.
CUARTA PARTE.
15
CUARTA PARTE.
Caminatas aleatorias. Las caminatas aleatorias se obtienen a partir de una sucesión
(Xn )n∈N , de variables aleatorias definidas en un cierto espacio (Ω, F, P) de probabilidad
y se les pide que sean independientes e idénticamente distribuidas. con valores en un
cierto espacio E , que puede ser un subconjunto finito, numerable de R o bien un
intervalo, R mismo o bien subconjuntos de R o de Rn . En ciertos casos, se le ponen
barreras, es decir, se acota el espacio de estados y tambén ( por un abuso de notación)
se les llama caminatas aleatorias o caminata aleatorias con barreras, vea los ejemplos
a continuación.
Definición 6. Una caminata aleatoria con valores en E es un proceso estocástico
(Sn )n∈N definido como
n
X
Sn = So +
Xn , n ∈ N
k=1
donde (Xn )n=1,2,3,... es una sucesión de variables aleatorias independientes e idénticamente distribuidas. con valores en E y S0 es una constante.. Decimos que una trayectoria del proceso es el conjunto de valores que toma el proceso para cada ω ∈ Ω fijo
y que la variable Xi representa el salto de la caminata.
Pueden ser modelos muy sencillos o más elaborados según la forma que tengan la
variables Xn . S0 generalmente será una constante , pero puede ser también una variable
aleatoria. Veremos inicialmente los ejemplos más sencillos.
Ejemplos:
1. Las caminatas aleatorias simples . Si Xn )n∈N ,son variables aleatorias independientes y cada una de ellas es una variable Bernoulli de parámetro p ∈ (0, 1),
es decir, X1 toma el valor 1 con probabilidad p y toma el valor −1 con probabilidad (1 − p), se trata de la caminata aleatoria simple. Esto se puede visualizar
como un árbol binario.
2. Las caminatas aleatorias simples crecientes en la cual Xn toma el valor
1 con probabilidad p y el valor 0 con probabilidad q = 1 − p.
3. Las caminatas aleatorias perezosas en la cual Xn toma tres valores {0, 1, −1}
. El valor 1 lo toma con probabilidad p y el valor 0 con probabilidad q y el valor
−1 con probabilidad r y se pide que p, q, r > 0, p + q + r = 1.
4. La caminata aleatoria con barreras absorbentes . Aquı́ el espacio de estados es E = {1, 2, . . . , n} y si se parte de un punto x ∈ {2, . . . , n − 1}, la
probabilidad de ir a los puntos vecinos es p = 1/2 para cada uno de ellos; si llega a 1 o a n con probabilidad 1 se queda ahı́. Este ejemplo es el que corresponde
al problema de la ruina planteado en la sección anterior.
5. *La caminata aleatoria con barreras pegajosas . Aquı́ el espacio de estados
es E = {1, 2, . . . , n} y si se parte de un punto x ∈ {2, . . . , n − 1}, la probabilidad
de ir a los puntos vecinos es p = 1/2 para cada uno de ellos; si se parte de 1 o de
n con probabilidad s ∈ (0, 1) se queda ahı́ y con probabilidad 1 − s va al punto
vecino en E .
6. Caminata aleatoria con barreras repelentes . Igual al anterior con s = 0.
7. Caminata aleatoria en Z2 .
4
CUARTA PARTE.
16
A partir de un punto (n, m) de la retı́cula se puede ir acualquiera de los ocho
puntos vecinos {(n+i, m+j) : i, j = 0, 1, −1}−{(n, m)} de manera equiprobable. Para una caminata aleatoria {Sn }n≥0 llamaremos a las variables aleatorias
X1 , X2 , . . . variables de salto, y a F la llamaremos la ley de salto de {Sn }n≥0 .
Además denotaremos por L al espacio de estados de la caminata aleatoria S,
que es el conjunto donde ésta toma valores.
8. La caminata aleatoria con distribución de salto Poisson de parámetro λ, es la
caminata aleatoria {Sn }n≥0 para la cual
P(Xi = k) =
e−λ λk
,k≥0
k!
para cada una de las variables de salto. Por lo que
P(Sn = k) =
e−(nλ) (nλ)k
, k ≥ 0.
k!
Tendremos propiedades generales válidas para toda caminata aleatoria y otras especı́ficas para cada caso. En general supondremos que el conjunto de valores posibles E es
finito o numerable , lo que nos permite usar el concepto elemental de probabilidad
y esperanza condicional discretas , aun cuando muchas de estas propiedades segurán
siendo válidas para variables más generales.
Proposición 2. Una caminata aleatoria (Sn )n con valores en Z y con S0 constante .
1. tiene esperanza E (Sn ) = S0 + n E (X1 )
2. tiene varianza V ar(Sn ) = nV ar(Xn ).
3. tiene la propiedad de Markov.
Demostración.
1. Inmediato por la linealidad de la esperanza.
2. Inmediato por tratarse de una suma de variables aleatorias independientes.
3. La propiedad de Markov comnmente llamada “propiedad de olvidar el pasado”, se expresa con precisión en térrminos matemáticos, ası́: para toda n, m ∈
N, z, y, zi ∈ E i = 1, 2 · · · n − 1 se cumple
P(Sn+m = y|Sn = z, Sn = zn−1 , . . . , Z1 = z1 , S0 = a) = P(Sn+m = y|Sn = z)
La demostración de esta propiedad es sencilla porque es fácil comprobar que
ambos términos de esta igualdad son a su vez iguales a:
P(
m+n
X
Xi = y − z).
i=n+1
Para ello se usa la definición de probabilidad condicional y las hipótesis de
4
CUARTA PARTE.
17
independencia:
P(Sm+n = y|Sn = z, Sn−1 = zn−1 , . . . S1 = z1 , S0 = a) =
=
P(Sm+n = y, Sn = z, Sn−1 = zn−1 , . . . , , S0 = a)
P(Sn = z, Sn−1 = zn−1 , . . . , S0 = a0 )
=
P(Sm+n − Sn = y − z, Sn − Sn−1 = z − zn−1 , . . . , , S1 − S0 = z1 − a, S0 = a)
P(Sm − Sn−1 = z − zn−1 , . . . , S2 − S1 = z2 − z1 , S1 − S0 = z1 − a, S0 = a)
Pm+n
P
i=n+1 Xi = y − z, Xn = z − zn−1 , . . . , X1 = z1 − a, S0 = a
=
P(Xn = z − zn−1 , Xn−1 = zn−1 − zn−2 , . . . , X2 = z2 − z1 , X1 = z1 − a, S0 = a)
P(
=
Xm+n
i=n+1
Xi = y − z)P(Xn = z − zn−1 , · · · X1 = z1 − a, X0 = a)
P(Xn = z − zn−1 , · · · , X1 = z1 − a, S0 = a)
= P(
m+n
X
Xi = y − z).
i=n+1
Por otra parte
P(Sm+n = y|Sn = z) =
P(
Pm+n
i=n+1
P(Sm+n = y, Sn = z)
=
P(Sn = z)
m+n
X
Xi = y − z) P(Sn = z)
= P(
Xi = y − z)
P(Sn = z)
i=n+1
Problemas 1.– Escriba las matrices de transición definidas en clase en los ejemplos (4), (5),(6), para el caso en que E = {1, 2, 3, ..,6}, p = 1/3 y s = 1/4. Si Yn
es la variable aleatoria que denota la posición del proceso al tiempo n, calcule
en los tres casos:
P(Y4 = 1|Y1 = 2)
E(Y2 |Y0 = 3)
E(Y3 = 6|Y0 = 4)
2.- Si X es una variable aleatoria de Poisson de paraḿetro λ y Y es otra variable aleatoria de Poisson de perámetro µ y si son independientes, calcule la
distribución de X + Y .
5
5.
QUINTA PARTE.
18
QUINTA PARTE.
Algunos resultados para caminatas aleatorias simples. Este material esta basado libros como ([10] o [9]) y es la parte introductoria de la tesis de licenciatura de
la M.en C. Marya Bermúdez, ([2]).
A partir de ahora y hasta el final de esta sección trabajaremos con la caminata aleatoria
simple que empieza en algún punto a ∈ Z y que puede variar según el tema tratado.
Si A ⊂ N, denotaremos a la cardinalidad de A como |A|.
Definimos un camino C de longitud k como la sucesión de k puntos en el plano
(0, s0 ), (1, s1 ), . . . , (k, sk ) y lo denotaremos como (s1 , s2 , . . . , sk ) .
Ya que sabemos lo que es un camino, veamos cuál es la probabilidad de que una
caminata aleatoria siga en sus primeros k pasos un camino dado, es decir que al
tiempo 0 esté en s0 , al tiempo 1 esté en s1 , y ası́ hasta que al tiempo k esté en sk .
Lema 3. P(S0 = s0 , S1 = s1 , ..., Sk = sk )) = pr q l con
s0 = a, si+1 − si ∈ {−1, 1}, y r = |{i : si+1 − si = 1}|, l = |{i : si+1 − si = −1}|, 0 ≤
i ≤ k − 1.
Es decir r es el número de saltos positivos que hace la caminata en sus primeros
k pasos, y l es el número de saltos negativos que hace la camianta aleatoria en sus
primeros k pasos.
La probabilidad de que la caminata aleatoria {Sn }n≥0 siga el camino (s0 , s1 , ..., sk ),
está dada por P(S0 = s0 , S1 = s1 , ..., Sk = sk ). Notemos que si existe 0 ≤ i < k para
la cual |si+1 − s1 | ∈
/ {−1, 1}, la última probabilidad es cero. De otro modo, usando la
independencia de X1 , X2 , . . . tenemos que
P(S0 = s0 , S1 = s1 , ..., Sk = sk )
=
P(Sk − Sk−1 = sk − sk−1 , . . . , S1 − S0 = s1 − s0 , S0 = s0 )
=
P(X1 = s1 − s0 , X2 = s2 − s1 , . . . , Xk = sk − sk−1
=
P(X1 = s1 − s0 )P(X2 = s2 − s1 ), . . . , P(Xk = sk − sk−1 )
=
pr q k−r ,
donde r = |{i : si+1 − si = 1}|, con 0 ≤ i ≤ k y como p + q = 1 entonces l = k − r.
Ahora veamos la probabilidad de que la caminata aleatoria que empieza en a se encuentre en b al tiempo n.
Teorema 1. Para S0 = a
P(Sn = b) =
n
n+b−a
2
!
p(
n+b−a
)
2
q(
n−b+a
)
2
,
donde (1/2)(n + b − a) es un entero que toma valores en el conjunto {0, 1, . . . , n}. En
otro caso Pa (Sn = b) = 0. ( la probabilidad en cuestión también se puede escribir como
P(Sn = b|S0 = a).)
Demostración. La probabilidad de que Sn sea igual a b es la probabilidad de que la
caminata aleatoria siga alguno de los caminos de longitud n que empiezan en a y
terminan en b. Notemos que si la caminata aleatoria sigue un camino de longitud n,
(s0 , s1 , . . . , sn ) que empieza en a y termina en b, es decir s0 = a y sn = b, y definimos a
5
QUINTA PARTE.
19
r y a l como en el lema anterior. Entonces, como en cada uno de los n pasos sólo puede
subir o bajar una unidad, el número de veces que baja una unidad más el número de
veces que sube una unidad es igual a n, es decir r + l = n. También notemos que si el
camino de longitud n empieza en a y termina en b, luego de subir r unidades y bajar
l unidades a partir de a, la caminata habrá avanzado n pasos y se encontrará en la
posición sn = b, por lo que a + r − l = b. De lo anterior tenemos que
r =b−a+l
(2)
r = n − l.
(3)
Sumando las ecuaciones (1.1) y (1.2), se tiene que
n+b−a
r =
2
n+a−b
.
l =
2
Por lo anterior, si queremos que la caminata aleatoria siga un camino de longitud n
que empiece en a y termine en b, éste tendrá que tener ( n+b−a
) saltos positivos y
2
( n−b+a
)
saltos
negativos.
Usando
ésto
y
el
Lema
(3)
la
caminata
aleatoria
seguirá un
2
n+b−a
n−b+a
camino (s0 , . . . , sn ) donde s0 = a y sn = b con probabilidad p( 2 ) q ( 2 ) .
Si hacemos Mnr (a, b) el número de caminos de longitud n, con s0 = a, sn = b y r =
n+b−a
|{i : si+1 − si = 1}|, entonces Mn 2 (a, b) p1/2(n+b−a) q 1/2(n−b+a) es la probabilidad
de que la caminata aleatoria empiece en a y termine en b en n pasos. Por lo que se
tiene que
)
( n+b−a
2
P(Sn = b) = Mn
(a, b) p(
n+b−a
)
2
q(
n−b+a
)
2
.
Tomando en cuenta que cualquier camino que vaya de a a b en n pasos tiene que
) saltos positivos y ( n+a−b
) negativos, la única diferencia que puede
tener ( n+b−a
2
2
haber entre cada uno de ellos es el orden en el que se dan los saltos positivos, por lo
( n+b−a
)
2
que Mn
( n+b−a
)
2
Mn
), es decir
es el número que resulta de escoger de los n pasos, ( n+b−a
2
n
= n+b−a . Por lo tanto
2
!
n+b−a
n+a−b
n
P (Sn = b) = n+b−a p( 2 ) q ( 2 ) ,
2
donde r =
)
( n+b−a
2
∈ N y 0 ≤ r ≤ n para que
n
n+b−a
2
!
tenga sentido.
Los siguientes resultados tratan de caminos más especificos que los anteriores, por lo
cual es necesario introducir las siguientes definiciones.
Definición 6.1. Definimos a Nn (a, b) como el número de caminos de longitud n que
empiezan en a y terminan en b.
Definición 6.2. Definimos a Nn0 (a, b) como el número de caminos de longitud n, de
a a b para los cuales existe k ∈ N tal que 0 < k < n y sk = 0.
5
QUINTA PARTE.
20
En el siguiente teorema veremos que el número de caminos que existen de a a b, de
longitud n, que tocan en algún momento a cero, Nn0 (a, b) es igual al número de caminos
que existen de −a a b de longitud n, Nn (−a, b). Donde a, b > 0.
Teorema 1.1 (Principio de reflexión). Si a, b > 0 entonces Nn0 (a, b) = Nn (−a, b).
Demostración. Sean A = {(s0 , s1 , ..., sk , ..., sn )|s0 = a, sn = b y tal que existe k ∈
{0, 1, . . . , n}, tal que Sk = 0} y B = {(s0 , ..., sn )|s0 = −a, sn = b}. Como −a < 0 y
b > 0, para todo camino (−a, s1 , ..., b) ∈ B existe 0 < k < n para el cual sk = 0.
Sea f : B → A tal que al camino (−a, s1 , ..., sk−1 , 0, sk+1 , ..., sn−1 , b) le asocia el camino en A (a, −s1 , ..., −sk−1 , 0, sk+1 , ..., sn−1 , b). La función f definida de esta manera
resulta ser una función biyectiva, por lo que |A| = |B|.
De este teorema tenemos el siguiente resultado.
b
∈ N, entonces el número de caminos de 0 a b que no
n
regresan al 0 es (b/n)Nn (0, b).
Corolario 0.1. Si b > 0, y
Demostración. Notemos primero que si b + n es impar Nn (0, b) = 0 = Nn0 (0, b). Si
b + n es par, cualquier camino que empieza en cero, que no toca el 0 nuevamente y
llega a b, estará en el segundo paso en 1. Por lo que el número de caminos deseado es
el mismo que el número de caminos de 1 a b de longitud n − 1 que no tocan el 0. Este
número podemos escribirlo por el Teorema 1.1 como:
0
Nn−1 (1, b) − Nn−1
(1, b) = Nn−1 (1, b) − Nn−1 (−1, b).
Y recordemos que en la demostración del Teorema
1, vimos que el número de caminos
n
. Por ello,
de longitud n que van de a a b, es n+b−a
2
!
!
n−1
n−1
Nn−1 (1, b) − Nn−1 (−1, b) = n−2+b − n+b
2
=
(n − 1)!
(n − 1)!
− n+b n−2−b .
n−b
( n−2+b
(
)!(
)!
)!( 2 )!
2
2
2
Notemos que
(
n−b
n−b n−2−b
)! = (
)(
)!
2
2
2
y
(
n+b
n+b n−2+b
)! = (
)(
)!.
2
2
2
2
(4)
5
QUINTA PARTE.
21
Por lo que tenemos que(4) es igual a
=
=
=
(n − 1)!
(n − 1)!
−
n−2+b n−2−b n−b
n−2−b n−2+b n+b
(
(
)!(
)!(
)
)!(
)!(
)
2
2
2
2
2
2
(n − 1)!
n+b
n−b
[(
)−(
)]
n−b n+b
2
2
(
)!(
)!
2
2
b(n − 1)!
n−b n+b
(
)!(
)!
2
2
b
n!
n n+b n−b
(
)!(
)!
2 !
2
n
=
b
n
=
b
Nn (0, b).
n
n+b
2
Con este resultado podemos encontrar la probabilidad de que una caminata aleatoria
{Sn }n≥0 que empieza en 0 siga un camino de longitud n que termina en b 6= 0 y que
nunca regresa a 0.
Teorema 1.2. Si S0 = 0, entonces para todo n ≥ 1 y b 6= 0,
P(S1 , S2 , . . . , Sn 6= 0, Sn = b) =
|b|
1
P(Sn = b) y P(S1 , S2 , . . . , Sn 6= 0) = E|Sn |.
n
n
Demostración. Caso1:
Supongamos b > 0.
P(S1 , . . . , Sn 6= 0, Sn = b) es la probabilidad de todos los caminos que empiezan en
0, no regresan a 0 y terminan en b en n pasos. Por ello y por el Corolario 0.1 tenemos que
P(S1 , . . . , Sn 6= 0, Sn = b)
=
=
=
b
Nn (0, b)p1/2(n+b) q 1/2(n−b)
n
b
P(Sn = b)
n
|b|
P(Sn = b).
n
Caso 2: Supongamos b < 0.
Sea Bn (a, b) el número de caminos de longitud n que empiezan en a, terminan en b y
no regresan a a. Entonces
P(S1 , . . . , Sn 6= 0, Sn = b) = Bn (0, b)p(
Sean A={Caminos de 0 a b que no tocan el cero}, y
n+b
)
2
q(
n−b
)
2
.
5
QUINTA PARTE.
22
B={Caminos de 0 a −b que no tocan el cero},
entonces (s0 = 0, s1 , . . . , sn = b) 7→ (0, −s1 , . . . , −sn = −b) es una biyección entre
A y B, ası́ |A| = |B|. De donde concluı́mos que Bn (0, b) = Bn (0, −b). Por lo tanto
n+b
n−b
P(S1 , . . . , Sn 6= 0, Sn = b) = Bn (0, −b)p( 2 ) q ( 2 ) .
Como −b > 0, nuevamente, por el Corolario 0.1 tenemos que
Bn (0, −b)p(
n+b
)
2
q(
n−b
)
2
=
n+b
n−b
−b
Nn (0, −b)p( 2 ) q ( 2 ) .
n
Además Nn (0, −b) = Nn (0, b), de lo cual
P(S1 , . . . , Sn 6= 0, Sn = b)
n+b
n−b
−b
=
Nn (0, b)p( 2 ) q ( 2 )
n
−b
P(Sn = b)
=
n
|b|
=
P(Sn = b).
n
Por lo que para toda b 6= 0 y n ≥ 1
P(S1 , S2 , . . . , Sn 6= 0, Sn = b) =
Ahora veremos que P(S1 , S2 , . . . , Sn 6= 0) =
X
1
E|Sn |.
n
|b|
P(Sn = b).
n
Por lo anterior
P(S1 , S2 , . . . , Sn 6= 0, Sn = b)
b6=0
=
X |b|
P(Sn = b)
n
b6=0
=
∞
1X
|b| P(Sn = b) + |b| P(Sn = −b).
n
b=1
Por lo tanto,
=
P(S1 , S2 , . . . , Sn 6= 0)
∞
1X
|b| P(Sn = b) + |b| P(Sn = −b)
n
b=1
=
∞
1X
|b|P(|Sn | = |b|)
n
=
1
E(|Sn |).
n
b=1
problemas 1.- Calcule la distribución de la variable aleatoria que describe el primer
regreso al 0 de una caminata aleatoria simple que empieza en 0, es decir calcule
P(T = k|S0 = 0), k = 1, 2, . . . y donde T = mı́n{n > 0 : Sn = 0}
.
6
6.
SEXTA PARTE.
23
SEXTA PARTE.
Propiedades asintóticas Empezaremos con algunas desigualdades muy ´tiles en
general y fundamentales para probar la primera ley.Sea X una variable aleatoria con
media m y varianza σ 2
Desigualdad de Markov : si X > 0, P(X > a) ≤
E(X)
a
desigualdad de Chebychev: si X tiene varianza finita
P(|X − m| ≥ a) ≤
σ2
a2
para cualquier a > 0.
Su utilidad es muy variada en una amplia gama de situaciones.
Pruebas:
1.X
(1(X>a) ) ≤ 1(X>a)
a
y se usa la monotonı́a de la esperanza para obtener
E(X)
X
P(X > a) = E(1(X>a) ) ≤ E
1(X>a) ≤
.
a
a
2.- Inmediato de lo anterior.
Leyes de grandes números.
Teorema 2. (Ley débil) Si {Xi : i = 1, 2, 3, ....} es una sucesión de variables aleatorias
independientes e idénticamente distribuidas con media m y varianza finita, y si (Sn )n
es su caminata aleatoria asociada,
Sn
P |
− m| ≥ a → 0 n → ∞
n
La prueba es una consecuencia inmediata de la desigualdad de Chebychev.
var(Sn )
var(X1 )
Sn
Sn
P |
− m| ≥ a = P |
− m|2 ≥ a2 ≤
=
n
n
n2 a2
a2 n
Teorema 3. (Ley Fuerte) Si {Xi : i = 1, 2, 3, ....} es una sucesión de variables aleatorias independientes e idénticamente distribuidas con media m ahora supondremos que
E(X 4 ) es finita. Sea (Sn )n su caminata aleatoria asociada,entonces
Sn
P lı́m
→m =1
n→∞ n
o dicho de otra manera
lı́m
n→∞
Sn
= m c.s.
n
6
SEXTA PARTE.
24
En el caso de las caminatas aleatorias simples, esto nos dice que en promedio el
numero de éxitos es la media.
X1 + X2 + . . . Xn
→p
n
Si recordamos los resultados para una caminata aleatoria simple obtenidos en la
sección 3 no resultar sorprendente el siguiente resultado
Teorema 4. Dada una caminata aleatoria (Sn )n∈N no trivial, sucede una y sólo una
de la tres propiedade siguientes:
1.- lı́mn→∞ Sn = +∞ o
2.-lı́m inf n→∞ Sn = −∞ y lı́m supn→∞ Sn = +∞ o bien
3.- lı́mn→∞ Sn = −∞
Dos casos son sencillos de probar: si Xi tiene media finita y positiva ( E (Xi ) = m ∈
(0, ∞)) , la ley de las grandes números nos permite afirmar que se cumple el caso 1.En efecto,
Sn
lı́m
=m
n→∞ n
de donde se deduce que
lı́m Sn = +∞
n→∞
Si Xi tiene media finita y negativa, la misma ley nos dice que se cumple el caso 3.Es claro que el caso de las caminatas aleatorias simples para p 6= q, queda incluido en
estos dos casos.
Un poco más dificil de probar son casos restantes: la media m es cero, m = −∞ o
m = +∞.
Para estudiar el comportamiento asintótico, en estos casos se requiere de la ley 01 de Hewitt- Savage y no lo vamos a hacer aquı́. Un estudio detallado con enfoque
elemental, se encuentra en ([13].)
El caso de una caminata aleatoria simple con p = q la media es cero y el resultado que
se dió en la secció anterior no se deduce de las leyes de grandes nh́umeros.
3. Otro ejemplos de problemas de ruina. Un ejemplo muy cercano a las caminatas aleatorias son las caminatas aleatorias con retraso o caminatas aleatorias perezosas ya mencionadas. El modelo es importante en aplicaciones diversas, por ejemplo en
procesamiento de sen̂ales en donde dependiendo del valor del peso de la información se
envı́an tres posibles números a la central que esta procesando toda esta información:
si el peso el grande, envı́a el número 1 , si es muy pequeo , el (−1) y no transmite nada
si los pesos son intermedios. Cuando se rebasa un cierto nivel se deben tomar medidas
adecuadas y al bajar de otro nivel fijo, también se deberá actuar en consecuencia.
Claro que cada modelo deberá precisar que es grande y chico as como estos niveles
de los que no podemos salirnos. El modelo matem´tico para esto , es una caminata
aleatoria en donde las variables aleatorias de salto Xi son las siguientes
Xi = 1 con probabilidad p ∈ (0, 1)
Xi = −1 con probabilidad q ∈ (0, 1)
Xi = 0 con probabilidad r ∈ (0, 1)
y donde p+q +r = 1.Es obvio que si r = 0 volvemos a las caminatas aleatorias simples.
6
SEXTA PARTE.
25
Para simplificar el estudio pensemos que el nivel superior es c > 4y el inferior es 0 y
empezamos en un punto u ∈ {i, 2, ....c − i} Si aplicamos las ideas del problema de la
ruina a esta situación tendremos la siguiente ecuación,
h(u) = ph(u + 1) + qh(u − 1) + rh(u)
que es lo mismo que
h(u)(1 − r) = ph(u + 1) + qh(u − 1)
y que
p
q
h(u + 1) +
h(u − 1)
p+q
p+q
si observamos los cálculos hechos para el problema de la ruina veremos que la probabilidad de llegar a 0 o a c , son las mismas que el caso de de la caminata simple, y esto
porque porque el cociente de los coeficientes r es el mismo.
h(u) =
Problemas
Se sabe que el promedio del número de piezas que se produce en un ff́abrica es
de 100 piezas diarias. Si Y denota el número de piezas producidas diariamente,
d una estimacin, o cota superior para P(Y > 95), P(y > 120). Si adems sabemos
que la varianza es 400, de una estimacin de estas mismas cantidades. Como se
comparan las cotas?
SeaX una variable aleatoria de Poisson con media 20. Use la desigualdad de
Markov para dar una cota superior de P(X > 26). Ahora use Chebychev para
ver si puede mejorar la cota.
Por experiencia se sabe que el promedio de estudiantes que presentan su examen
final es de un 75 %. De una cota superior para la probabilidad de que lo presenten
más del 85 %.
P
Si (Sn = i=1 )n Xi )n∈N es una caminata aleatoria simple que empieza en 0 y
donde Xi es Bernoulli* de parmetro p ∈ (0, 1). Encuentre la distribució de Sn ,
calcule su media, su variancia y P(Sn > 3), pr(Sn > 10). (*en los dos casos : si
Xi toma los valores {0, 1} o los valores {−1, 1})
7
7.
SÉPTIMA PARTE
26
SÉPTIMA PARTE
Desarrollos recientes sobre problema de la ruina. Esta parte del curso requiere
de resultados ms avanzados de la teorı́a, sin embargo se dar una idea del problema de
la ruina para proceso con tiempo contı́nuo. Podemos plantear un problema análogo
para un proceso en tiempo contı́nuo, lo que es en general mucho más difı́cil de resolver
pero que tiene una gran importancia en una gran variedad de modelos matemticos
ligados a los más diversos fenómenos aleatorios de la naturaleza.
Si se tiene un proceso más general que lo tratado en secciones anteriores, la pregunta
es la misma: se puede saber con que probabilidad sale de un cierto intervalo dado?.
Veamos el caso más conocido: el del movimiento browniano:
El Movmiento Brownianno (Bt )t∈R+ es un proceso estocástico definido en un espacio
de probabilidad (Ω, F, P) que evoluciona en el tiempo de manera contı́nca, es decir los
subı́ndices del proceso varı́an en R+ y queda definido como sigue:
B0 = 0
tiene trayectorias contı́nuas.
Bt tiene densidad normal N (0, t)
Es un proceso con incrementos independientes, esto significa que para toda n ∈ N
y para cualesquiera tiempos 0 ≥ t1 < t2 < ....tn , las variables aleatorias
(Bti − Bti−1 ){i∈{1,.....n}
son variables aleatorias independientes.
Tiene incrementos estacionarios , es decir, la distribución de (Bt+h − Bt ) es la
misma que la de (Br+h − Br ) para cualesquiera t, r ≥ 0
Observe que en este caso las trayectorias del proceso son funciones de [0, ∞) → R y
una trayectoria es, para cada ω ∈ Ω fijo , la función t → Bt (ω). El proceso que empieza
en x ∈ R se define como (x + Bt : t ≥ 0)
Por lo que se ha dicho en la definición Bt tiene densidad normal de media 0 y varianza
t, as que la densidad de x + Bt es:
pt (x, y) =
−|x − y|2
1
exp(
)
2t
(2πt)1/2
y en esta fórmula la x inicial queda fija. Podemos entonces plantear preguntas similares
al caso de la caminata aleatoria:
Cuál es la probabilidad que habiendo empezado en el punto x > 0 llegue primero
a c > x > 0) que a cero? (el jugador A gana)
Si tenemos un MB que empieza en 0 y a > 0, b > 0son dos reales positivos. Cuál
es la probabilidad de que salga del intervalo (−a, b) por −a y cual la de que salga
por b? Esto por traslación es equivalente a pensar en el intervalo (0, a + b = c)
y en un MB que empiece en a = x.
Es cierto que con probabilidad 1 sale de cualquier intervalo finito?
Teorema 5. Si B es un movimiento Browniano que empieza en x > 0 y sea c > x > 0.
Entonces
x
c−x
P(τc < τ0 |B0 = x) = ; P(τc > τ0 |B0 = x) =
c
c
donde
τu := ı́nf{t > 0 : Bt = u} u ∈ R
7
SÉPTIMA PARTE
27
Podemos de inmediato ver que es el mismo resultado que para las caminatas aleatorias
simétricas ( es decir p = q = 1/2). Si recordamos que existen teoremas que nos
permiten aproximar al MB mediante un re-escalamiento cada vez más fino en el tiempo
y el espacio de las caminatas aleatorias simples simétricas , podrı́amos pensar que el
resultado se deduce de las propiedades correspondientes de ellas. Pero en realidad esto
no es as. El tpo de convergencia ( topologı́a de Skorohod) que se tiene, no respeta
, por lo general estas propiedades. La demostración es totalmente diferente del caso
discreto y no se hará en este texto, Sólo indicaremos que se hace básicamente usando
un resultado vinculado con a la densidad de x + Bt . Un cálculo elemental muestra que
esta función , satisface la ecuación del calor
∂pt
1 ∂ 2 pt
=
.
∂t
2 ∂y 2
Los mt́odos empleados son ahora de caráctor anaı́tico (teor’a probabilista del potencial).
Otros métodos de prueba utilizan la teorı́a de las martingalas.
Además de este resultado para el MB , se pueden estudiar otros modelos en la teorı́a de
riesgo que son procesos en tiempo contı́ndo pero con trayectorias discontı́nuas. Algunos de estos modelos se han desarrollando recientemente por probabilistas mexicanos
(ver.....) e incluyen a procesos del tipo:
Cramer- Lundberg
Lévy simétricos
Lévy espectralmente negativos
Esto ha permitido acceder a modelos más precisos y útiles en diversas aplicaciones,
pero, naturalmente , requieren de conocimientos más avanzados de probabilidad y de
procesos estocásticos.
REFERENCIAS
28
Referencias
[1] J. Bertoin. Probabilités. Curso Universidad de Paris VI, 1997.
[2] Mayra Bermúdez Caminatas aleatorias condicionadas a ser positivas . Tesis de
licenciatura, Facultad de Ciencias, UNAM, 2011.
[3] CPP) M.E. Caballero , J.C, Pardo y J.L. Prez Explicit identities for Lvy
processes associated to symmetric stable processes. Bernoulli 17 (2011), 1, 34–59.
[4] MEC) M.E. Caballero. La martingala de Pascal. Miscelánea Matemática, SMM
No.43.(2006),1-19.
[5] CRUV) M.E. Caballero, V. Rivero, G. Uribe , C Velarde Aportaciones
Matemáticas, Cadenas de Markov. 29.(2008).
[6] Laurent Denis, Begoa Fernndez, Ana Meda Estimation of value at risk and
ruin probability for diffusion processes.
Journal: Mathematical Finance - MATH FINANC , 19, no. 2, pp. 281-302, 2009
[7] W. Feller. An Introduction to Probability Theory and its Applications. Vol. 1, 3rd
ed., John Wiley, New York, 1968.
[8] J. Garcı́a. Valuación de opciones. Tesis de licenciatura, Facultad de Ciencias,
UNAM, 2002.
[9] Ch. Grinstead y L. Snell. Introduction to Probability. American Mathematical
Society, 1997.
[10] G.R. Grimmmet y D.R. Stikzaker. Probability and Random Processes. Oxford
Science Publications, 1992.
[11] A.Gut The gamblers ruin problem with delays.. Stats,and Porb Letters. 83, 25-49
(2013).
[12] D.B. Hernández Castaños. Caminatas aleatorias y movimiento browniano. Monografı́as del Instituto de Matemáticas, 9, UNAM, 1981.
[13] Adrian Hinojosa Generalizacion de la Caminata Aleatoria asociada. . Tesis de
licenciatura, Facultad de Ciencias, UNAM, 2013.
[14] P.G. Hoel, S.C. Port y C.J. Stone. Introduction to Stochastic Processes. Houghton
Miffin, 1971.
[15] Kai Lai Chung From discrete to absolutely continuous solutions of indeterminate
moment problems Arab. J. Math. Sci. 4, 1-18 (1998).
[16] KPR) A.E. Kyprianou, J.C. Pardo y V.M. Rivero. Exact and asymptotic
n-tuple laws at first and last passage. (with A.E. Kyprianou and V.M. Rivero.
Ann. of Appl. Probab. 20 (2010), 2, 522–564.
[17] S. I. Resnick. Adventures in Stochastic Processes. Birkhauser, Boston, 1992.
[18] S.M. Ross Stochastic Processes. Wiley Series in Probability and Mathematical
Statistics, 1996.
[19] H. Sagan. Advanced Calculus. Houghton Miffin, Boston, 1974.
[20] Gerónimo Uribe Bravo Ley arco seno en caminatas aleatorias, movimiento Browniano y en el proceso de Poisson compuesto . Tesis de licenciatura, Facultad de
Ciencias, UNAM, 2002.
[21] Gerónimo Uribe Bravo Notas de Caminatas aleatorias. Bolivia 2014.
Descargar