Teorıa de Probabilidades Pontificia Universidad Católica de Chile

Anuncio
Teorı́a de Probabilidades
Pontificia Universidad Católica de Chile
Facultad de Matemática
Ramı́rez, Alejandro
2
Capı́tulo 1
Fundamentos
1.1.
Preliminares
La probabilidad es una area de las matemáticas que comenzó a desarrollarse a principios del
siglo XX con la axiomatización de Kolmogorov. Con la medalla Fieldas otorgada a W. Werner
en 2006 y el premio Abel a S.R.S. Varadhan en 2007 ha alcanzado pleno reconocimiento. El
impacto y aplicaciones de la probabilidad en las matemáticas y otras ciencias es diverso y
profundo. A modo de ilustración, a continuación enumeramos algunos ejemplos.
1. El método probabilı́stico. El número de Ramsey R(k, l) es el entero n más pequeño
tal que cualquier bi-coloración de las aristas de un grafo completo de n vértices Kn , o
bien existe un subgrafo rojo Kk o un subgrafo azul Kl . Queremos encontrar una cota inferior para R(k, k). Ocupando el llamado método probabilı́stico probaremos que si
(n/k)21−(k/2) < 1, entonces R(k, k) > n. Consideremos una coloración aleatoria de las
aristas de Kn en rojas y azules, donde ambos colores tienen la misma probabilidad.
Para cada subconjunto fijo R de k vértices, sea AR el evento que el subgrafo inducido Kn de R es monocromático. Es obvio que P (AR ) = 21−(k/2) . Ahora, como existen
(n/k) formas de elegir R, la probabilidad de que alguno de los eventos AR ocurra es a
lo más (n/k)21−(k/2) . Es decir R(k, k) > n. Si elegimos n = ⌊2k/2 ⌋ y k ≥ 3 entonces
(n/k)21−(k/2) <
k
21+ 2
k!
·
nk
2
2k /2
< 1. Por lo tanto
R(k, k) > ⌊2k/2 ⌋,
para todo k ≥ 3.
Este es un ejemplo de P. Erdös del año 1947. Este es uno de los ejemplos más elementales del método probabilı́stico, que consiste en construir un espacio de probabilidad de
estructuras apropiadas, y luego probar que las propiedades buscadas se satisfacen con
probabilidad positiva.
2. Teorı́a de la información. La teorı́a de la información permite efectuar una descripción
matemática de sistemas generales de comunicación. En 1947, C. E. Shannon ocupó herramientas de la probabilidad para desarrollar tal teorı́a lo que le llevó a definir la llamada
entropı́a de Shannon. En sus estudios, Shannon modela una fuente discreta de información
con una cadena de Markov.
3. La modelación del precio de derivados financieros. En 1973, Fischer Black y Myron
Scholes publican un trabajo donde proponen un modelo para predecir el comportamiento
1
2
CAPÍTULO 1. FUNDAMENTOS
de ciertos derivados financieros. Estos son las llamadas opciones. Una opción de compra, es un contrato entre un comprador y un vendedor, donde el comprador adquiere
por un cierto precio el derecho, pero no la obligación, de comprar una cantidad fija de
acciones al vendedor si ’estas sobrepasan un precio lı́ımite. Por ejemplo, el comprador A
adquiere el 12 de Agosto del 2008, por 150 pesos por accón, el derecho de adquirir 1000
acciones de Cencosud a un precio lı́mite de 1700 pesos por acción dentro de los próximos
3 meses. El precio de las acciones de Cencosud el dı́a 12 de Agosto es de 1550 pesos por
acción. Si dentro del plazo establecido, la acción de Cencosud llegase al valor de 2000
pesos, y en aquel momento el comprador ejerce su derecho, entonces tendrá que pagar
1700 × 1000 = 1,700,000 pesos. Si las vende inmediatamente, 2000 × 1000 = 2,000,000
pesos. Sus ganancias serı́an entonces de 300,000 − 150,000 = 150,000 pesos. La ecuación
de Black-Scholes permite calcular el precio adecuado de una opción de compra como
función del precio de la acción. Se asume que el precio de la acción satisface lo que se
llama una ecuación diferencial estocástica. En 1997 Scholes recibió el premio Nobel
de Economı́a por este trabajo.
4. Percolación. El modelo de Percolación fue propuesto en 1958 por los fı́sicos Hamersley
y Broadbent, para modelar el flujo de agua por un material poroso. A partir de la red
Z d definimos el grafo E d formado por las aristas que conectan los sitios que son primeros
vecinos. Dado 0 ≤ p ≤ 1, decretamos que cada arista está abierta con probabilidad
p y cerrrada con probabilidad 1 − p independietemente del estado de las otras aristas.
Llamemos C0 a la componente conexa de aristas abiertas que contiene 0. En dimensiones
d ≥ 2, la función
θ(p) = Pp (|C0 | = ∞),
muestra la presencia de una transición de fase. En efecto, existe un número pc tal que
0 < pc < 1 y tal que θ(p) = 0 si p < pc , θ(p) > 0 si p > pc . Se sabe que esta función es
continua para p 6= pc . Tambén se ha demostrado que es continua en p = pc en dimensión
d = 2 para dimensiones suficiéntemente grandes.
1.2.
Eventos
El concepto primario en la teorı́a de probabilidad es el de evento. Imaginemos un experimento cuyos posibles resultados se pueden identificar con cualquier elemento de un conjunto Ω,
que llamaremos el experimento. Informalmente, un evento es cualquier subconjunto de Ω. Es
decir, un conjunto de resultados del experimento. Posteriormente asignaremos a cada evento
un número real positivo. Sin embargo, en general, si insistimos en asignar un número a todo subconjunto de un experimento Ω llegarı́amos a contradicciones. Por esa razón, exigiremos
siempre que los eventos formen una σ-álgebra de Ω.
Definición 1.1. (Eventos y espacios de probabilidad). Sea Ω un conjunto. Cualquier
σ-álgebra F de Ω se denomina una σ-álgebra de eventos o simplemente eventos del experimento Ω. Es decir, una colección de eventos F de Ω se define por las siguientes propiedades:
(i) φ ∈ F.
(ii) Fi ∈ A, entonces ∩i Fi ∈ F
(iii) F ∈ F entonces F c ∈ F.
3
1.2. EVENTOS
Llamamos al par ordenado (Ω, F) un espacio de eventos.
Ejemplo.
1. Un dado que no está cargado se puede modelar por el experimento Ω :=
{1, 2, 3, 4, 5, 6} con la σ-álgebra de eventos P(Ω).
2. Si Ω = R, dos colecciones habituales de eventos son la colección de borelianos B y la
colección de conjuntos medibles M.
Un problema básico en general es la construcción de ciertas medidas de probabilidad. Queremos recordar algunos conceptos importantes que permiten efectuar tal construcción.
Definición 1.2. Sea X un conjunto. Decimos que una colección A de subconjuntos de X es
un álgebra si la siguientes condiciones se satisfacen.
(i) φ ∈ A.
(ii) A ∩ B ∈ A si A, B ∈ A.
(iii) A ∈ A entonces Ac ∈ A,
Dada un álgebra A, en lo que sigue ocuparemos la notación habitual σ(A) para referirnos
a la σ-álgebra más pequeña que contiene al álgebra A.
Ejemplo. Considere la colección A de subconjuntos de los naturales definidos por A ∈ A si y
sólo si
1
n→∞ N
lı́m
X
1,
n∈A,n≤N
existe. Esta colección es un álgebra de conjuntos, pero no es una σ-álgebra.
Definición 1.3. Sea X un conjunto. Decimos que una coleción de subconjuntos M de X es
una clase monótona si se satisfacen las siguientes propiedades.
(i) Si An ∈ M y An ⊂ An+1 , para todo natural n, entonces
A=
∞
[
An
n=1
también está en M.
(ii) Si Bn ∈ M y Bn+1 ⊂ Bn , para todo natural n, entonces
B=
∞
\
Bn
n=1
también está en M.
Recordemos el Teorema de Clase Monótona.
Teorema 1.4 (Clase Monótona). Sea A una álgebra de conjuntos y M una clase monótona
que contiene a A. Luego σ(A) ⊂ M.
4
CAPÍTULO 1. FUNDAMENTOS
El teorema de extensión de Caratheodory permite pasar desde una medida de probabilidad
definida en un álgebra A a una extensión definida en σ(A). En algunas ocasione, es incluso
más sencillo partir de una colección más primaria de conjuntos.
Definición 1.5. Una colección C de conjuntos es una semi-álgebra si se satisfacen las siguientes propiedades.
(i) Para todo par de conjuntos A, B ∈ C tenemos que A ∩ B ∈ C.
(ii) Para todo conjunto A ∈ C, el complemento Ac se puede expresar como una unión finita
disjunta de elementos de C.
Notemos que en la definición anterior se podrı́a omitir en la parte (ii) el requisito de que el
complemento de un conjunto en C se exprese como una unión disjunta. Por otra parte, notemos
que si C está formada por al menos dos conjuntos, entonces φ ∈ C.
Ejemplo. (i) En R consideremos la colección de conjuntos C de la forma (a, b], o (−∞, a] o
(b, ∞), con a, b reales. Esta colección de conjuntos es una semi-álgebra.
(ii) Consideremos dos espacios de eventos (X, A) e (Y, B). Todo conjunto de la forma A × B
donde A ∈ A y B ∈ B lo llamamos un rectángulo medible. La colección de rectángulos
medibles es una semi-álgebra.
(iii) Sea X un conjunto. La colección C = {X} con un elemento es una semi-álgebra. En
efecto, (i) se satisface trivialmente. Por otra parte, como el conjunto vácı́o se puede
expresar como una unión de una colección vacı́a de conjuntos de X, también se satisface
(ii).
Lema 1.6. Sea C una semi-álgebra. Luego la colección de conjuntos formados por las uniones
finitas disjuntas en C, es un álgebra.
Llamamos al álgebra del lema anterior, el álgebra A(C) generada por la semi-álgebra
C.
Demostración. Supongamos que A ∈ A(C). Si A = φ, tenemos que probar que X ∈ A(C).
Pero si tomamos cualquier conjunto B ∈ C, por definición su complemento está en A(C). Por
lo tanto X ∈ A(C). Ahora, si A 6= φ, sabemos que se puede expresar como una unión finita de
elementos disjuntos de C
A = ∐i Ai .
Además Aci = ∐j Ai,j . Luego Ac = ∩i ∐j Ai,j = ∐j ∩i Ai,j ∈ A(C). Finalmente notemos que si
A, B ∈ A(C), por un argumento análogo tenemos que la intersección A∩B está en el álgebra.
1.3.
Medidas de probabilidad
Queremos asignarle a cada evento, un número en el intervalo [0, 1] que represente la probabilidad de la ocurrencia del evento. Es natural ocupar entonces las herramientas de teorı́a de
la medida.
Definición 1.7. (Medida de Probabilidad). Consideremos un espacio de eventos (Ω, F).
Una medida de probabilidad es una medida P definida en (Ω, F) con la propiedad P (Ω) = 1.
Es decir, una medida de probabilidad satisface las propiedades siguientes:
5
1.3. MEDIDAS DE PROBABILIDAD
1. 0 ≤ P (A) ≤ 1.
2. P (Ω) = 1.
3. Si Fi es una colección numerable de eventos disjuntos entonces
P (F ) =
X
P (Fi ),
i
donde F = ∪i Fi .
Llamamos al triplete (Ω, F, P ) un espacio de probabilidad. En algunas ocasiones consideraremos un álgebra de eventos A en Ω y hablaremos del espacio de probabilidad (Ω, A, P ) cuando
P satisfaga las propiedades anteriores en A. Si en vez de (iii) se satisface
(iii)’ Si Fi es una colección numerable de eventos disjuntos entonces
P (F ) =
X
P (Fi ),
i
donde F = ∪i Fi .
diremos que P es una medida de probabilidad aditiva en (Ω, F).
Notemos que en un espacio de eventos de la forma (Ω, P(Ω)) siempre se puede definir al
menos una medida de probabilidad. En efecto, tomemos un punto x ∈ Ω. Podemos definir
P (A) = 1 si x ∈ A y P (A) = 0 si x ∈
/ A. Es fácil de verificar que P es una medida de
probabilidad. Sin embargo, en general no es posible definir una medida de probabilidad que sea
invariante bajo la acción de algún grupo de simetrı́a fijo sobre Ω. Por ejemplo, en (R, P(R)), no
existe ninguna medida de probabilidad invariante bajo el grupo de traslaciones. Similarmente
no existe ninguna medida de este tipo en (Z, P(Z)), o alguna invariante bajo el grupo de
rotaciones en (S1 , P(S1 )), donde S1 es el cı́rculo. Si eliminamos la exigencia sobre la medida
de probabilidad de que sea numerablemente aditiva, y la remplazamos por la exigencia de que
sea finitamente aditiva, entonces en algunos casos si es posible construı́r tales objetos. Esto se
relaciona con el concepto de grupos promediables: un grupo G es promediable si existe una
medida de probabilidad finitamente aditiva µ que es promediable y que es invariante bajo la
acción del grupo G por la izquierda. Es posible probar que el grupo de rotaciones sobre S1 y el
de traslaciones sobre Z son promediables. Esto conlleva al siguiente resultado.
Teorema 1.8. (i) Existe una medida de probabilidad finitamente aditiva definida en (S1 , P(S1 ))
que es invariante bajo rotaciones.
(ii) Existe una medida de probabilidad finitamente aditiva definida en (Z, P(Z)) que es invariante bajo traslaciones.
Por otra parte, en dimensiones d ≥ 2, tenemos el siguiente resultado.
Teorema 1.9. Si d ≥ 2, no existe ninguna medida de probabilidad finitamente aditiva definida
en (Sd , P(Sd )) invariante bajo rotaciones.
6
CAPÍTULO 1. FUNDAMENTOS
Este resultado es equivalente a la paradoja de Banach-Tarski: existe una cantidad finita
de subconjuntos disjuntos de la bola B(0, 1), de radio 1 en Rd , que al trasladarlos y rotarlos
apropiadamente, forman una unuión disjunta de dos copias de tal bola.
Es importante recordar que la propiedad de σ-aditividad de una medida se puede relacionar
con la propiedad de que una medida de probabilidad aditiva sea continua.
Definición 1.10. (Continuidad). Decimos que una medida de probabilidad aditiva P definida
en un algebra F es continua en un conjunto A ∈ F si cada vez que Ai ∈ F es una sucesión
de eventos creciente (Aj ⊂ Aj+1 ) o decreciente (Aj+1 ⊂ Aj ) y A = ∪Aj o A = ∩Aj entonces
lı́mj→∞ P (Aj ) existe y P (A) = lı́mj→∞ P (Aj ).
Teorema 1.11.
1. Sea P una medida de probabilidad en (Ω, F) donde F es una σ-algebra.
Luego P es continua en todo A ∈ F.
2. Sea P una medida de probabilidad aditiva en (Ω, F) donde F en un álgebra que es continua
en φ. Luego P es una medida de probabilidad σ-aditiva.
La primera herramienta que introduciremos es el lema de Borel-Cantelli. Necesitamos definir
las nociones de lı́mite superior e inferior de una sucesión de eventos.
Definición 1.12. (Lı́mites superior e inferior de eventos). Consideremos un espacio de
probabilidad (Ω, F, P ). Sea {An } una sucesión de eventos. Definimos el lı́mite superior de
esta sucesión como
∞
∞
lı́m sup An = lı́m ∪∞
m=n Am = ∩n=1 ∪m=n Am .
n→∞
Definimos el lı́mite inferior como
∞
∞
lı́m inf An = lı́m ∩∞
m=n Am = ∪n=1 ∩m=n Am .
n→∞
Tambén escribiremos lı́m sup An = {w : w ∈ An i.o.} donde i.o. significa con frecuencia
infinita.
La razón por la que tales lı́mites reciben estos nombres proviene de la observación
lı́m sup 1An = 1lı́m sup An ,
n→∞
lı́m inf 1An = 1lı́m inf An .
n→∞
Lema 1.13. (Borel-Cantelli).
Sea {An } una sucesión de eventos en un espacio de probabiP
lidad (Ω, F, P ). Luego si ∞
P
n=1 (An ) < ∞, entonces P (An i.o.) = 0.
Demostración. Notemos que para todo k ≥ 1,
P (An i.o.) ≤ P (∪∞
j=k Aj ) ≤
∞
X
P (Aj ).
j=k
Tomando el lı́mite cuando k → ∞ obtenemos el resultado.
Ejemplo. Consideremos el experimento que consiste en tirar una moneda n veces. Lo modelaremos por el espacio Ω = {0, 1}N , con la σ-álgebra de los borelianos y la medida de probabilidad
P que le asigna probabilidad 1/2 a cada valor 0 o 1 independientemente de los otros resultados
(una pregunta no trivial que responderemos en la sección siguiente, es probar la existencia de
7
1.3. MEDIDAS DE PROBABILIDAD
tal medida). Sea An el evento que en las primeras n veces que tiramos la moneda aparece
k = (log n)2 veces seguidas un 1. Probaremos que P (An i.o.) = 0. En efecto, la probablidad de
que no aparezca ninguna fila de largo (log n)2 partiendo de un natural que sea un múltiplo de
(log n)2 es
(log n)2 !n/(log n)2
1
.
1−
2
Un cálculo sencillo nos muestra que
P (An ) ≤ (log n)2
n
(log n)2 n(log 2)(log n)
.
Nuestra afirmación es una consecuencia del lema de Borel-Cantelli.
Finalizamos esta sección recordando como se puede construı́r una medida de probabilidad
partiendo de una función real definida en un semiálgebra de conjuntos.
Definición 1.14. (Medida de probabilidad externa inducida). Sea P una medida de
probabilidad definida en (Ω, F) donde F es un álgebra. Para cada F ∈ Ω definimos
∗
P (F ) :=
ı́nf
{Fi }⊂F ;F ⊂∪Fi
∞
X
P (Fi ).
i=1
Llamamos a P ∗ la medida de probabilidad externa inducida por P . Decimos que un
conjunto E ⊂ Ω es P ∗ -medible si para todo A ∈ P(X) se tiene que
P ∗ (A) = P ∗ (A ∩ E) + P ∗ (A ∩ E c ).
Llamamos a tal colección, la colección de conjuntos P ∗ -medibles denotándola por MP ∗ .
Definición 1.15. (σ-álgebra de eventos completa). Consideremos un espacio de probabilidad (Ω, F, P ). Decimos que la σ-álgebra de eventos F es completa respecto a P si cada vez
que A ∈ F, B ⊂ A y P (A) = 0, entonces B ∈ F.
El teorema de extensión de Caratheodory permite extender una medida de probabilidad en
un álgebra A a una definida en σ(A).
Teorema 1.16 (Extensión de Carathéodory). Sea A un álgebra de conjuntos y P una medida de probabilidad en A. Sea P ⋆ la medida de probabilidad externa inducida por P . Luego la
restrición P de P ⋆ a los conjuntos P ⋆ -medibles es una medida de probabilidad que es una extensión de P y los conjuntos P ∗ -medibles forman una σ-álgebra completa respecto a P̄ . Además
σ(A) ⊂ MP ⋆ y P̄ es la única extensión de P en A a σ(A).
Teorema 1.17. Sea C una semi-álgebra y P : C → [0, 1] una función definida en {C} ∪ {φ} tal
que P (φ) = 0. Supongamos que las siguientes condiciones se satisfacen.
(i) Si C ∈ C es un conjunto que se puede expresar como una unión disjunta finita ∐ni=1 Ci ,
con Ci ∈ C, entonces
n
X
P (Ci ).
P (C) =
i=1
8
CAPÍTULO 1. FUNDAMENTOS
(ii) Si C ∈ C se puede expresar como una unión numerable disjunta de miembros de C,
C = ∐∞
i=1 Ci , entonces
∞
X
P (Ci ).
P (C) ≤
i=1
Luego P tiene una extensión única como una medida de probabilidad al álgebra A(C).
Demostración. Sea A = ∐ni=1 Ai con Ai ∈ C. Definimos
P (A) :=
n
X
P (Ai )
(1.1)
i=1
Probemos que (1.1) está bien definida. Si A = ∐m
k=1 Bk con Bk ∈ C, entonces como consecuencia
de (i) tendremos que
P (A) =
n
X
P (Ai ) =
m
n X
X
m X
n
X
P (Ai ∩ Bk ) =
i=1 k=1
i=1
P (Bk ∩ Ai ) =
n
X
P (Bi ) = P (A)
i=1
k=1 i=1
de donde concluimos que la definición de (1.1) es consistente. Ahora, consideremos conjuntos
disjuntos A y B en el álgebra A. Claramente P (A ∪ B) = P (A) + P (B) y por un argumento
inductivo vemos que µ es finitamente aditiva. Además, si consideramos elementos C, D en A
tales que C ⊂ D, entonces D = C ∪ (D ∩ C c ) y P (C) ≤ P (D). Finalmente, supongamos que
A ∈ A es una unión numerable y disjunta de conjuntos Ak ∈ A. Por definición A = ∐nj=1 Cj
pk
con Cj ∈ C. Por lo tanto Cj = ∐∞
k=1 (Ak ∩ Cj ). Además, para cada natural k, Ak = ∐i=1 Ck,i
con Ck,i ∈ C. Luego,
pk
Cj = ∐∞
k=1 ∐i=1 Ck,i ∩ Cj .
Por la propiedad (ii) vemos que
P (Cj ) ≤
pk
∞ X
X
P (Ck,i ∩ Cj ).
k=1 i=1
Luego
P (A) ≤
Por otra parte
P∞ Ppk Pn
k=1
i=1
j=1 P (Ck,i
N
X
∩ Cj ) =
P∞ Ppk
k=1
i=1 P (Ck,i
∩ A) =
P∞
k=1 P (Ak ).
P (Ak ) = P (∪N
k=1 Ak ) ≤ P (A).
k=1
1.4.
Teorema de extensión de Kolmogorov
Existen situaciones en la que no es obvio que exista alguna medida de probabilidad con
las propiedades que quisiéramos. Por ejemplo, el modelo de percolación, donde tenemos una
cantiadad numerable de variables aleatorias independientes. El teorema de extensión de Kolmogorov es una herramienta útil que permite efectuar tal construcción. Todo espacio métrico
completo y separable, lo llamaremos un espacio polaco.
1.4. TEOREMA DE EXTENSIÓN DE KOLMOGOROV
9
Definición 1.18. (Medidas regulares) Sea X un espacio métrico y M una σ-álgebra que
contiene los borelianos B. Sea P es una medida de probabilidad en (X, M). Si para todo E ∈ M
P (E) = sup{P (C) : C ⊂ E, C cerrado},
decimos que P es regular interna. Si para todo E ∈ M
P (E) = ı́nf{P (G) : E ⊂ G, G abierto},
decimos que P es regular externa. Si P es regular externa e interna decimos que es regular.
Resulta que toda medida de probabilidad definida en un espacio métrico es regular.
Lema 1.19. Consideremos el espacio de probabilidad (X, B(X), P ). Luego P es regular.
Demostración. Notemos que si A es un conjunto cerrado, eligiendo F = A y G = Aδ = {x :
ρ(x, A) < δ}, donde δ > 0 y ρ es la métrica del espacio, vemos que A se puede aproximar
internamente por cerrado y externamente por abiertos. Sea G la clase de conjuntos que poseen
esta propiedad. Basta probar que G es una σ-álgebra. Sea {An } una sucesión en G y A = ∪n An .
Sea ǫ > 0. Elegimos Fn y Gn de modo que P (An − Fn ) ≤ ǫ/2n+1 y P (Gn − An ) ≤ ǫ/2n . Luego
si G = ∪Gn y F = ∪n≤n0 Fn , donde n0 es tal que P (∪Fn − ∪n≤n0 Fn ) < ǫ/2, vemos que
P (A − F ) < ǫ y P (G − A) < ǫ/2.
Necesitamos introducir la noción de tensión que se ocupara junto con la de regularidad para
aproximar la probabilidad de los borelianos por compactos.
Definición 1.20. (Tensión) Sea X un espacio métrico y B los borelianos. Sea P es una
medida de probabilidad en (X, B). Si para todo ǫ > 0 existe un compacto K tal que
P (K) ≥ 1 − ǫ,
decimos que P es tensa.
Teorema 1.21. (Ulam). Sea X un espacio polaco y B los borelianos en X. Luego, toda medida
de probabilidad en (X, B) es tensa.
Demostración. Ocupando la separabilidad de X, sabemos que para cada natural n podemos
elgeir una sucesión de bolas abiertas de radio 1/n, {Ai,n : i ≥ 1} que cubren X. Dado ǫ > 0,
para cada n elegimos in de modo que P (∪i≤in Ai,n ) ≥ 1 − ǫ/2n . Ahora notemos que la clausura
del conjunto K = ∩n ∪i≤in Ai,n ) es completo y totalmente acotado. Luego es compacto. Además
P (K) ≥ 1 − ǫ.
Necesitamos ahora definir el concepto de familia consistente de medidas de probabilidad.
Definición 1.22. (Familia consistente de medidas de probabilidad). Sea S un conjunto
numerable. Consideremos el espacio Ω := X S con la topologı́a producto, donde X es un espacio
polaco. Para cada J ⊂ S finito denotamos por πJ la proyección desde Ω en X J . Además,
supongamos que para cada subconjunto finito J ⊂ S tenemos una medida de probabilidad PJ
definida en X J . Decimos que la familia de medidas de probabilidad {PJ : J ⊂ S, J finito} es
consistente si cada vez que J ′ ⊂ J, tenemos que
PJ (πJ (πJ−1
′ (A)) = PJ ′ (A),
′
para todo subconjunto A ∈ B(X J ).
10
CAPÍTULO 1. FUNDAMENTOS
Si P es una medida de probabilidad en Ω y definimos para cada J ⊂ S finito PJ (A) =
P (πJ−1 (A)), la familia de medidas de probabilidad {PJ : J ⊂ S, J finito} es una familia consistente de medidas. Queremos entender el problema inverso: es decir, partiendo de una familia de
medidas consistente, cuando es posible construir una medida de probabilidad en Ω compatible
con ellas. Primero necesitaremos el siguiente lema sobre los borelianos en Ω.
Lema 1.23. Consideremos el espacio de eventos (Ω, B(Ω)) con Ω = X S , S numerable y X un
espacio polaco. Sea A la colección de conjuntos A en Ω que se pueden expresar de la forma
A = πJ−1 (B),
donde B ⊂ B(X J ), para algún J ⊂ S finito. Luego A es un álgebra que genera B(Ω).
Demostración. Como cada proyección πJ es continua, es medible, y por lo tanto A ⊂ B(Ω).
Por otra parte, la topologı́a de Ω es generada por conjuntos de la base que son vecindades de
un punto v ∈ Ω de la forma
NJ,ǫ (v) := {w ∈ Ω : ρ(vi , wi ) < ǫ, i ∈ J}.
Claramente estos conjuntos están en A. Como Ω es separable, concluı́mos que todo abierto de
Ω está en σ(A). Esto prueba que B(Ω) ⊂ σ(A).
Teorema 1.24. (Extensión de Kolmogorov). Sea S un conjunto numerable, X un espacio
polaco y Ω = X S . Sea {PJ : J ⊂ S, J finito} una familia consistente de medidas de probabilidad.
Luego existe una medida de probabilidad P en (Ω, B) tal que para todo J ⊂ S finito y A ∈ B(X J )
P (πJ−1 (A)) = PJ (A).
Demostración. Consideremos en Ω la colección de conjuntos A de la forma
A = πJ−1 (B),
donde B ⊂ B(X J ). Por el lema anterior, A es un álgebra que genera los borelianos B(Ω).
Definimos en A una medida de probabilidad aditiva P ,
P (A) = PJ (B),
πJ−1 (B).
Primero tenemos que demostrar que esta definición
donde B ∈ B(X J ) es tal que A =
′
′
es consitente. Es decir, supongamos que existe otro conjunto B ′ ∈ B(X J ) tal que A = πJ−1
′ (B ).
Hay que mostrar que
PJ (B) = PJ ′ (B ′ ).
Sea I = J ∪ J ′ y C = πI (πJ−1 (B)) = πI (A). Por consistencia, PI (C) = PJ (B). Similarmente
podemos ver que PI (C) = PJ ′ (B ′ ). Es fácil verificar que P es aditiva en A. Probaremos que P
es σ-aditiva allı́. Por el teorema de continuidad, basta demostrar que si {An } es una sucesión
de conjuntos decreciente en A tales que para algún δ se tiene que
lı́m P (An ) ≥ δ,
n→∞
entonces
11
1.5. FUNCIÓN DE DISTRIBUCIÓN
∩An 6= φ.
(Bn ), con Bn ∈ B(X Jn ). Sin pérdida de generalidad, podemos
Supongamos que An = πJ−1
n
suponer que {Jn } es una sucesión de conjuntos creciente en S. Por otra parte, por regularidad
y tensión de las medidas PJ , con J ⊂ S finito, existen compactos Kn tales que Kn ⊂ Bn y
P (An − Dn ) ≤ ǫ/2n+1 ,
donde Dn = π −1 (Kn ). Ahora definimos Cn = ∩ni=1 Di . Luego, {Cn } es una sucesión decreciente
de conjuntos. Además,
P (An − Cn ) ≤
n
X
P (An − Di ) ≤
n
X
P (Ai − Di ) ≤ ǫ/2.
i=1
i=1
Por lo tanto, P (Cn ) ≥ ǫ/2 y concluimos que cada Cn es no-vacı́o. Para cada n elegimos un
wn ∈ Cn . Por el hecho que πJ1 C1 es compacto, sabemos que wn tiene una subsucesión tal que
(1)
sus coordenandas {wn (j) : j ∈ J1 } en J1 convergen. Llamemos wn a tal subsucesión. Por el
(2)
(1)
mismo argumento podemos extraer una subsucesión de wn de wn , cuyas coordenadas en J2
(j)
(n)
convergen. Recursivamente podemos definir wn . Claramente, la sucesión {wn : n ≥ 1} tiene
la propiedad que para cada Ji , sus coordenadas en tal conjunto convergen. Es obvio que el
lı́mite definido de esta manera está en ∩Cn y por lo tanto en ∩An .
Es posible demostrar versiones del teorema de extensión de Kolmogorov a espacios que
se pueden expresar como un producto no-numerable de factores. Sin embargo, la medida de
probabilidad que se construye está definida en una σ-algebra que no coincide con los borelianos
inducidos por la topologı́a producto.
1.5.
Función de distribución
En esta sección nos concentraremos en medidas de probabilidad definidas en los reales con
los borelianos introduciendo el concepto de función de distribución.
Definición 1.25. (Función de distribución). Una función de distribución es una función
real F : R → R tal que
(i) F es monótona creciente,
(ii) F es continua por la derecha,
(iii) lı́mx→∞ F (x) = 1 y lı́mx→−∞ F (x) = 0.
Dada una función de distribución F , si existe una función real f tal que
Z x
f (u)du,
F (x) =
−∞
llamamos a f la función de densidad de F .
Notemos que toda función densidad es necesariamente positiva y satisface
R
f dx = 1.
Descargar