Teorı́a de Probabilidades Pontificia Universidad Católica de Chile Facultad de Matemática Ramı́rez, Alejandro 2 Capı́tulo 1 Fundamentos 1.1. Preliminares La probabilidad es una area de las matemáticas que comenzó a desarrollarse a principios del siglo XX con la axiomatización de Kolmogorov. Con la medalla Fieldas otorgada a W. Werner en 2006 y el premio Abel a S.R.S. Varadhan en 2007 ha alcanzado pleno reconocimiento. El impacto y aplicaciones de la probabilidad en las matemáticas y otras ciencias es diverso y profundo. A modo de ilustración, a continuación enumeramos algunos ejemplos. 1. El método probabilı́stico. El número de Ramsey R(k, l) es el entero n más pequeño tal que cualquier bi-coloración de las aristas de un grafo completo de n vértices Kn , o bien existe un subgrafo rojo Kk o un subgrafo azul Kl . Queremos encontrar una cota inferior para R(k, k). Ocupando el llamado método probabilı́stico probaremos que si (n/k)21−(k/2) < 1, entonces R(k, k) > n. Consideremos una coloración aleatoria de las aristas de Kn en rojas y azules, donde ambos colores tienen la misma probabilidad. Para cada subconjunto fijo R de k vértices, sea AR el evento que el subgrafo inducido Kn de R es monocromático. Es obvio que P (AR ) = 21−(k/2) . Ahora, como existen (n/k) formas de elegir R, la probabilidad de que alguno de los eventos AR ocurra es a lo más (n/k)21−(k/2) . Es decir R(k, k) > n. Si elegimos n = ⌊2k/2 ⌋ y k ≥ 3 entonces (n/k)21−(k/2) < k 21+ 2 k! · nk 2 2k /2 < 1. Por lo tanto R(k, k) > ⌊2k/2 ⌋, para todo k ≥ 3. Este es un ejemplo de P. Erdös del año 1947. Este es uno de los ejemplos más elementales del método probabilı́stico, que consiste en construir un espacio de probabilidad de estructuras apropiadas, y luego probar que las propiedades buscadas se satisfacen con probabilidad positiva. 2. Teorı́a de la información. La teorı́a de la información permite efectuar una descripción matemática de sistemas generales de comunicación. En 1947, C. E. Shannon ocupó herramientas de la probabilidad para desarrollar tal teorı́a lo que le llevó a definir la llamada entropı́a de Shannon. En sus estudios, Shannon modela una fuente discreta de información con una cadena de Markov. 3. La modelación del precio de derivados financieros. En 1973, Fischer Black y Myron Scholes publican un trabajo donde proponen un modelo para predecir el comportamiento 1 2 CAPÍTULO 1. FUNDAMENTOS de ciertos derivados financieros. Estos son las llamadas opciones. Una opción de compra, es un contrato entre un comprador y un vendedor, donde el comprador adquiere por un cierto precio el derecho, pero no la obligación, de comprar una cantidad fija de acciones al vendedor si ’estas sobrepasan un precio lı́ımite. Por ejemplo, el comprador A adquiere el 12 de Agosto del 2008, por 150 pesos por accón, el derecho de adquirir 1000 acciones de Cencosud a un precio lı́mite de 1700 pesos por acción dentro de los próximos 3 meses. El precio de las acciones de Cencosud el dı́a 12 de Agosto es de 1550 pesos por acción. Si dentro del plazo establecido, la acción de Cencosud llegase al valor de 2000 pesos, y en aquel momento el comprador ejerce su derecho, entonces tendrá que pagar 1700 × 1000 = 1,700,000 pesos. Si las vende inmediatamente, 2000 × 1000 = 2,000,000 pesos. Sus ganancias serı́an entonces de 300,000 − 150,000 = 150,000 pesos. La ecuación de Black-Scholes permite calcular el precio adecuado de una opción de compra como función del precio de la acción. Se asume que el precio de la acción satisface lo que se llama una ecuación diferencial estocástica. En 1997 Scholes recibió el premio Nobel de Economı́a por este trabajo. 4. Percolación. El modelo de Percolación fue propuesto en 1958 por los fı́sicos Hamersley y Broadbent, para modelar el flujo de agua por un material poroso. A partir de la red Z d definimos el grafo E d formado por las aristas que conectan los sitios que son primeros vecinos. Dado 0 ≤ p ≤ 1, decretamos que cada arista está abierta con probabilidad p y cerrrada con probabilidad 1 − p independietemente del estado de las otras aristas. Llamemos C0 a la componente conexa de aristas abiertas que contiene 0. En dimensiones d ≥ 2, la función θ(p) = Pp (|C0 | = ∞), muestra la presencia de una transición de fase. En efecto, existe un número pc tal que 0 < pc < 1 y tal que θ(p) = 0 si p < pc , θ(p) > 0 si p > pc . Se sabe que esta función es continua para p 6= pc . Tambén se ha demostrado que es continua en p = pc en dimensión d = 2 para dimensiones suficiéntemente grandes. 1.2. Eventos El concepto primario en la teorı́a de probabilidad es el de evento. Imaginemos un experimento cuyos posibles resultados se pueden identificar con cualquier elemento de un conjunto Ω, que llamaremos el experimento. Informalmente, un evento es cualquier subconjunto de Ω. Es decir, un conjunto de resultados del experimento. Posteriormente asignaremos a cada evento un número real positivo. Sin embargo, en general, si insistimos en asignar un número a todo subconjunto de un experimento Ω llegarı́amos a contradicciones. Por esa razón, exigiremos siempre que los eventos formen una σ-álgebra de Ω. Definición 1.1. (Eventos y espacios de probabilidad). Sea Ω un conjunto. Cualquier σ-álgebra F de Ω se denomina una σ-álgebra de eventos o simplemente eventos del experimento Ω. Es decir, una colección de eventos F de Ω se define por las siguientes propiedades: (i) φ ∈ F. (ii) Fi ∈ A, entonces ∩i Fi ∈ F (iii) F ∈ F entonces F c ∈ F. 3 1.2. EVENTOS Llamamos al par ordenado (Ω, F) un espacio de eventos. Ejemplo. 1. Un dado que no está cargado se puede modelar por el experimento Ω := {1, 2, 3, 4, 5, 6} con la σ-álgebra de eventos P(Ω). 2. Si Ω = R, dos colecciones habituales de eventos son la colección de borelianos B y la colección de conjuntos medibles M. Un problema básico en general es la construcción de ciertas medidas de probabilidad. Queremos recordar algunos conceptos importantes que permiten efectuar tal construcción. Definición 1.2. Sea X un conjunto. Decimos que una colección A de subconjuntos de X es un álgebra si la siguientes condiciones se satisfacen. (i) φ ∈ A. (ii) A ∩ B ∈ A si A, B ∈ A. (iii) A ∈ A entonces Ac ∈ A, Dada un álgebra A, en lo que sigue ocuparemos la notación habitual σ(A) para referirnos a la σ-álgebra más pequeña que contiene al álgebra A. Ejemplo. Considere la colección A de subconjuntos de los naturales definidos por A ∈ A si y sólo si 1 n→∞ N lı́m X 1, n∈A,n≤N existe. Esta colección es un álgebra de conjuntos, pero no es una σ-álgebra. Definición 1.3. Sea X un conjunto. Decimos que una coleción de subconjuntos M de X es una clase monótona si se satisfacen las siguientes propiedades. (i) Si An ∈ M y An ⊂ An+1 , para todo natural n, entonces A= ∞ [ An n=1 también está en M. (ii) Si Bn ∈ M y Bn+1 ⊂ Bn , para todo natural n, entonces B= ∞ \ Bn n=1 también está en M. Recordemos el Teorema de Clase Monótona. Teorema 1.4 (Clase Monótona). Sea A una álgebra de conjuntos y M una clase monótona que contiene a A. Luego σ(A) ⊂ M. 4 CAPÍTULO 1. FUNDAMENTOS El teorema de extensión de Caratheodory permite pasar desde una medida de probabilidad definida en un álgebra A a una extensión definida en σ(A). En algunas ocasione, es incluso más sencillo partir de una colección más primaria de conjuntos. Definición 1.5. Una colección C de conjuntos es una semi-álgebra si se satisfacen las siguientes propiedades. (i) Para todo par de conjuntos A, B ∈ C tenemos que A ∩ B ∈ C. (ii) Para todo conjunto A ∈ C, el complemento Ac se puede expresar como una unión finita disjunta de elementos de C. Notemos que en la definición anterior se podrı́a omitir en la parte (ii) el requisito de que el complemento de un conjunto en C se exprese como una unión disjunta. Por otra parte, notemos que si C está formada por al menos dos conjuntos, entonces φ ∈ C. Ejemplo. (i) En R consideremos la colección de conjuntos C de la forma (a, b], o (−∞, a] o (b, ∞), con a, b reales. Esta colección de conjuntos es una semi-álgebra. (ii) Consideremos dos espacios de eventos (X, A) e (Y, B). Todo conjunto de la forma A × B donde A ∈ A y B ∈ B lo llamamos un rectángulo medible. La colección de rectángulos medibles es una semi-álgebra. (iii) Sea X un conjunto. La colección C = {X} con un elemento es una semi-álgebra. En efecto, (i) se satisface trivialmente. Por otra parte, como el conjunto vácı́o se puede expresar como una unión de una colección vacı́a de conjuntos de X, también se satisface (ii). Lema 1.6. Sea C una semi-álgebra. Luego la colección de conjuntos formados por las uniones finitas disjuntas en C, es un álgebra. Llamamos al álgebra del lema anterior, el álgebra A(C) generada por la semi-álgebra C. Demostración. Supongamos que A ∈ A(C). Si A = φ, tenemos que probar que X ∈ A(C). Pero si tomamos cualquier conjunto B ∈ C, por definición su complemento está en A(C). Por lo tanto X ∈ A(C). Ahora, si A 6= φ, sabemos que se puede expresar como una unión finita de elementos disjuntos de C A = ∐i Ai . Además Aci = ∐j Ai,j . Luego Ac = ∩i ∐j Ai,j = ∐j ∩i Ai,j ∈ A(C). Finalmente notemos que si A, B ∈ A(C), por un argumento análogo tenemos que la intersección A∩B está en el álgebra. 1.3. Medidas de probabilidad Queremos asignarle a cada evento, un número en el intervalo [0, 1] que represente la probabilidad de la ocurrencia del evento. Es natural ocupar entonces las herramientas de teorı́a de la medida. Definición 1.7. (Medida de Probabilidad). Consideremos un espacio de eventos (Ω, F). Una medida de probabilidad es una medida P definida en (Ω, F) con la propiedad P (Ω) = 1. Es decir, una medida de probabilidad satisface las propiedades siguientes: 5 1.3. MEDIDAS DE PROBABILIDAD 1. 0 ≤ P (A) ≤ 1. 2. P (Ω) = 1. 3. Si Fi es una colección numerable de eventos disjuntos entonces P (F ) = X P (Fi ), i donde F = ∪i Fi . Llamamos al triplete (Ω, F, P ) un espacio de probabilidad. En algunas ocasiones consideraremos un álgebra de eventos A en Ω y hablaremos del espacio de probabilidad (Ω, A, P ) cuando P satisfaga las propiedades anteriores en A. Si en vez de (iii) se satisface (iii)’ Si Fi es una colección numerable de eventos disjuntos entonces P (F ) = X P (Fi ), i donde F = ∪i Fi . diremos que P es una medida de probabilidad aditiva en (Ω, F). Notemos que en un espacio de eventos de la forma (Ω, P(Ω)) siempre se puede definir al menos una medida de probabilidad. En efecto, tomemos un punto x ∈ Ω. Podemos definir P (A) = 1 si x ∈ A y P (A) = 0 si x ∈ / A. Es fácil de verificar que P es una medida de probabilidad. Sin embargo, en general no es posible definir una medida de probabilidad que sea invariante bajo la acción de algún grupo de simetrı́a fijo sobre Ω. Por ejemplo, en (R, P(R)), no existe ninguna medida de probabilidad invariante bajo el grupo de traslaciones. Similarmente no existe ninguna medida de este tipo en (Z, P(Z)), o alguna invariante bajo el grupo de rotaciones en (S1 , P(S1 )), donde S1 es el cı́rculo. Si eliminamos la exigencia sobre la medida de probabilidad de que sea numerablemente aditiva, y la remplazamos por la exigencia de que sea finitamente aditiva, entonces en algunos casos si es posible construı́r tales objetos. Esto se relaciona con el concepto de grupos promediables: un grupo G es promediable si existe una medida de probabilidad finitamente aditiva µ que es promediable y que es invariante bajo la acción del grupo G por la izquierda. Es posible probar que el grupo de rotaciones sobre S1 y el de traslaciones sobre Z son promediables. Esto conlleva al siguiente resultado. Teorema 1.8. (i) Existe una medida de probabilidad finitamente aditiva definida en (S1 , P(S1 )) que es invariante bajo rotaciones. (ii) Existe una medida de probabilidad finitamente aditiva definida en (Z, P(Z)) que es invariante bajo traslaciones. Por otra parte, en dimensiones d ≥ 2, tenemos el siguiente resultado. Teorema 1.9. Si d ≥ 2, no existe ninguna medida de probabilidad finitamente aditiva definida en (Sd , P(Sd )) invariante bajo rotaciones. 6 CAPÍTULO 1. FUNDAMENTOS Este resultado es equivalente a la paradoja de Banach-Tarski: existe una cantidad finita de subconjuntos disjuntos de la bola B(0, 1), de radio 1 en Rd , que al trasladarlos y rotarlos apropiadamente, forman una unuión disjunta de dos copias de tal bola. Es importante recordar que la propiedad de σ-aditividad de una medida se puede relacionar con la propiedad de que una medida de probabilidad aditiva sea continua. Definición 1.10. (Continuidad). Decimos que una medida de probabilidad aditiva P definida en un algebra F es continua en un conjunto A ∈ F si cada vez que Ai ∈ F es una sucesión de eventos creciente (Aj ⊂ Aj+1 ) o decreciente (Aj+1 ⊂ Aj ) y A = ∪Aj o A = ∩Aj entonces lı́mj→∞ P (Aj ) existe y P (A) = lı́mj→∞ P (Aj ). Teorema 1.11. 1. Sea P una medida de probabilidad en (Ω, F) donde F es una σ-algebra. Luego P es continua en todo A ∈ F. 2. Sea P una medida de probabilidad aditiva en (Ω, F) donde F en un álgebra que es continua en φ. Luego P es una medida de probabilidad σ-aditiva. La primera herramienta que introduciremos es el lema de Borel-Cantelli. Necesitamos definir las nociones de lı́mite superior e inferior de una sucesión de eventos. Definición 1.12. (Lı́mites superior e inferior de eventos). Consideremos un espacio de probabilidad (Ω, F, P ). Sea {An } una sucesión de eventos. Definimos el lı́mite superior de esta sucesión como ∞ ∞ lı́m sup An = lı́m ∪∞ m=n Am = ∩n=1 ∪m=n Am . n→∞ Definimos el lı́mite inferior como ∞ ∞ lı́m inf An = lı́m ∩∞ m=n Am = ∪n=1 ∩m=n Am . n→∞ Tambén escribiremos lı́m sup An = {w : w ∈ An i.o.} donde i.o. significa con frecuencia infinita. La razón por la que tales lı́mites reciben estos nombres proviene de la observación lı́m sup 1An = 1lı́m sup An , n→∞ lı́m inf 1An = 1lı́m inf An . n→∞ Lema 1.13. (Borel-Cantelli). Sea {An } una sucesión de eventos en un espacio de probabiP lidad (Ω, F, P ). Luego si ∞ P n=1 (An ) < ∞, entonces P (An i.o.) = 0. Demostración. Notemos que para todo k ≥ 1, P (An i.o.) ≤ P (∪∞ j=k Aj ) ≤ ∞ X P (Aj ). j=k Tomando el lı́mite cuando k → ∞ obtenemos el resultado. Ejemplo. Consideremos el experimento que consiste en tirar una moneda n veces. Lo modelaremos por el espacio Ω = {0, 1}N , con la σ-álgebra de los borelianos y la medida de probabilidad P que le asigna probabilidad 1/2 a cada valor 0 o 1 independientemente de los otros resultados (una pregunta no trivial que responderemos en la sección siguiente, es probar la existencia de 7 1.3. MEDIDAS DE PROBABILIDAD tal medida). Sea An el evento que en las primeras n veces que tiramos la moneda aparece k = (log n)2 veces seguidas un 1. Probaremos que P (An i.o.) = 0. En efecto, la probablidad de que no aparezca ninguna fila de largo (log n)2 partiendo de un natural que sea un múltiplo de (log n)2 es (log n)2 !n/(log n)2 1 . 1− 2 Un cálculo sencillo nos muestra que P (An ) ≤ (log n)2 n (log n)2 n(log 2)(log n) . Nuestra afirmación es una consecuencia del lema de Borel-Cantelli. Finalizamos esta sección recordando como se puede construı́r una medida de probabilidad partiendo de una función real definida en un semiálgebra de conjuntos. Definición 1.14. (Medida de probabilidad externa inducida). Sea P una medida de probabilidad definida en (Ω, F) donde F es un álgebra. Para cada F ∈ Ω definimos ∗ P (F ) := ı́nf {Fi }⊂F ;F ⊂∪Fi ∞ X P (Fi ). i=1 Llamamos a P ∗ la medida de probabilidad externa inducida por P . Decimos que un conjunto E ⊂ Ω es P ∗ -medible si para todo A ∈ P(X) se tiene que P ∗ (A) = P ∗ (A ∩ E) + P ∗ (A ∩ E c ). Llamamos a tal colección, la colección de conjuntos P ∗ -medibles denotándola por MP ∗ . Definición 1.15. (σ-álgebra de eventos completa). Consideremos un espacio de probabilidad (Ω, F, P ). Decimos que la σ-álgebra de eventos F es completa respecto a P si cada vez que A ∈ F, B ⊂ A y P (A) = 0, entonces B ∈ F. El teorema de extensión de Caratheodory permite extender una medida de probabilidad en un álgebra A a una definida en σ(A). Teorema 1.16 (Extensión de Carathéodory). Sea A un álgebra de conjuntos y P una medida de probabilidad en A. Sea P ⋆ la medida de probabilidad externa inducida por P . Luego la restrición P de P ⋆ a los conjuntos P ⋆ -medibles es una medida de probabilidad que es una extensión de P y los conjuntos P ∗ -medibles forman una σ-álgebra completa respecto a P̄ . Además σ(A) ⊂ MP ⋆ y P̄ es la única extensión de P en A a σ(A). Teorema 1.17. Sea C una semi-álgebra y P : C → [0, 1] una función definida en {C} ∪ {φ} tal que P (φ) = 0. Supongamos que las siguientes condiciones se satisfacen. (i) Si C ∈ C es un conjunto que se puede expresar como una unión disjunta finita ∐ni=1 Ci , con Ci ∈ C, entonces n X P (Ci ). P (C) = i=1 8 CAPÍTULO 1. FUNDAMENTOS (ii) Si C ∈ C se puede expresar como una unión numerable disjunta de miembros de C, C = ∐∞ i=1 Ci , entonces ∞ X P (Ci ). P (C) ≤ i=1 Luego P tiene una extensión única como una medida de probabilidad al álgebra A(C). Demostración. Sea A = ∐ni=1 Ai con Ai ∈ C. Definimos P (A) := n X P (Ai ) (1.1) i=1 Probemos que (1.1) está bien definida. Si A = ∐m k=1 Bk con Bk ∈ C, entonces como consecuencia de (i) tendremos que P (A) = n X P (Ai ) = m n X X m X n X P (Ai ∩ Bk ) = i=1 k=1 i=1 P (Bk ∩ Ai ) = n X P (Bi ) = P (A) i=1 k=1 i=1 de donde concluimos que la definición de (1.1) es consistente. Ahora, consideremos conjuntos disjuntos A y B en el álgebra A. Claramente P (A ∪ B) = P (A) + P (B) y por un argumento inductivo vemos que µ es finitamente aditiva. Además, si consideramos elementos C, D en A tales que C ⊂ D, entonces D = C ∪ (D ∩ C c ) y P (C) ≤ P (D). Finalmente, supongamos que A ∈ A es una unión numerable y disjunta de conjuntos Ak ∈ A. Por definición A = ∐nj=1 Cj pk con Cj ∈ C. Por lo tanto Cj = ∐∞ k=1 (Ak ∩ Cj ). Además, para cada natural k, Ak = ∐i=1 Ck,i con Ck,i ∈ C. Luego, pk Cj = ∐∞ k=1 ∐i=1 Ck,i ∩ Cj . Por la propiedad (ii) vemos que P (Cj ) ≤ pk ∞ X X P (Ck,i ∩ Cj ). k=1 i=1 Luego P (A) ≤ Por otra parte P∞ Ppk Pn k=1 i=1 j=1 P (Ck,i N X ∩ Cj ) = P∞ Ppk k=1 i=1 P (Ck,i ∩ A) = P∞ k=1 P (Ak ). P (Ak ) = P (∪N k=1 Ak ) ≤ P (A). k=1 1.4. Teorema de extensión de Kolmogorov Existen situaciones en la que no es obvio que exista alguna medida de probabilidad con las propiedades que quisiéramos. Por ejemplo, el modelo de percolación, donde tenemos una cantiadad numerable de variables aleatorias independientes. El teorema de extensión de Kolmogorov es una herramienta útil que permite efectuar tal construcción. Todo espacio métrico completo y separable, lo llamaremos un espacio polaco. 1.4. TEOREMA DE EXTENSIÓN DE KOLMOGOROV 9 Definición 1.18. (Medidas regulares) Sea X un espacio métrico y M una σ-álgebra que contiene los borelianos B. Sea P es una medida de probabilidad en (X, M). Si para todo E ∈ M P (E) = sup{P (C) : C ⊂ E, C cerrado}, decimos que P es regular interna. Si para todo E ∈ M P (E) = ı́nf{P (G) : E ⊂ G, G abierto}, decimos que P es regular externa. Si P es regular externa e interna decimos que es regular. Resulta que toda medida de probabilidad definida en un espacio métrico es regular. Lema 1.19. Consideremos el espacio de probabilidad (X, B(X), P ). Luego P es regular. Demostración. Notemos que si A es un conjunto cerrado, eligiendo F = A y G = Aδ = {x : ρ(x, A) < δ}, donde δ > 0 y ρ es la métrica del espacio, vemos que A se puede aproximar internamente por cerrado y externamente por abiertos. Sea G la clase de conjuntos que poseen esta propiedad. Basta probar que G es una σ-álgebra. Sea {An } una sucesión en G y A = ∪n An . Sea ǫ > 0. Elegimos Fn y Gn de modo que P (An − Fn ) ≤ ǫ/2n+1 y P (Gn − An ) ≤ ǫ/2n . Luego si G = ∪Gn y F = ∪n≤n0 Fn , donde n0 es tal que P (∪Fn − ∪n≤n0 Fn ) < ǫ/2, vemos que P (A − F ) < ǫ y P (G − A) < ǫ/2. Necesitamos introducir la noción de tensión que se ocupara junto con la de regularidad para aproximar la probabilidad de los borelianos por compactos. Definición 1.20. (Tensión) Sea X un espacio métrico y B los borelianos. Sea P es una medida de probabilidad en (X, B). Si para todo ǫ > 0 existe un compacto K tal que P (K) ≥ 1 − ǫ, decimos que P es tensa. Teorema 1.21. (Ulam). Sea X un espacio polaco y B los borelianos en X. Luego, toda medida de probabilidad en (X, B) es tensa. Demostración. Ocupando la separabilidad de X, sabemos que para cada natural n podemos elgeir una sucesión de bolas abiertas de radio 1/n, {Ai,n : i ≥ 1} que cubren X. Dado ǫ > 0, para cada n elegimos in de modo que P (∪i≤in Ai,n ) ≥ 1 − ǫ/2n . Ahora notemos que la clausura del conjunto K = ∩n ∪i≤in Ai,n ) es completo y totalmente acotado. Luego es compacto. Además P (K) ≥ 1 − ǫ. Necesitamos ahora definir el concepto de familia consistente de medidas de probabilidad. Definición 1.22. (Familia consistente de medidas de probabilidad). Sea S un conjunto numerable. Consideremos el espacio Ω := X S con la topologı́a producto, donde X es un espacio polaco. Para cada J ⊂ S finito denotamos por πJ la proyección desde Ω en X J . Además, supongamos que para cada subconjunto finito J ⊂ S tenemos una medida de probabilidad PJ definida en X J . Decimos que la familia de medidas de probabilidad {PJ : J ⊂ S, J finito} es consistente si cada vez que J ′ ⊂ J, tenemos que PJ (πJ (πJ−1 ′ (A)) = PJ ′ (A), ′ para todo subconjunto A ∈ B(X J ). 10 CAPÍTULO 1. FUNDAMENTOS Si P es una medida de probabilidad en Ω y definimos para cada J ⊂ S finito PJ (A) = P (πJ−1 (A)), la familia de medidas de probabilidad {PJ : J ⊂ S, J finito} es una familia consistente de medidas. Queremos entender el problema inverso: es decir, partiendo de una familia de medidas consistente, cuando es posible construir una medida de probabilidad en Ω compatible con ellas. Primero necesitaremos el siguiente lema sobre los borelianos en Ω. Lema 1.23. Consideremos el espacio de eventos (Ω, B(Ω)) con Ω = X S , S numerable y X un espacio polaco. Sea A la colección de conjuntos A en Ω que se pueden expresar de la forma A = πJ−1 (B), donde B ⊂ B(X J ), para algún J ⊂ S finito. Luego A es un álgebra que genera B(Ω). Demostración. Como cada proyección πJ es continua, es medible, y por lo tanto A ⊂ B(Ω). Por otra parte, la topologı́a de Ω es generada por conjuntos de la base que son vecindades de un punto v ∈ Ω de la forma NJ,ǫ (v) := {w ∈ Ω : ρ(vi , wi ) < ǫ, i ∈ J}. Claramente estos conjuntos están en A. Como Ω es separable, concluı́mos que todo abierto de Ω está en σ(A). Esto prueba que B(Ω) ⊂ σ(A). Teorema 1.24. (Extensión de Kolmogorov). Sea S un conjunto numerable, X un espacio polaco y Ω = X S . Sea {PJ : J ⊂ S, J finito} una familia consistente de medidas de probabilidad. Luego existe una medida de probabilidad P en (Ω, B) tal que para todo J ⊂ S finito y A ∈ B(X J ) P (πJ−1 (A)) = PJ (A). Demostración. Consideremos en Ω la colección de conjuntos A de la forma A = πJ−1 (B), donde B ⊂ B(X J ). Por el lema anterior, A es un álgebra que genera los borelianos B(Ω). Definimos en A una medida de probabilidad aditiva P , P (A) = PJ (B), πJ−1 (B). Primero tenemos que demostrar que esta definición donde B ∈ B(X J ) es tal que A = ′ ′ es consitente. Es decir, supongamos que existe otro conjunto B ′ ∈ B(X J ) tal que A = πJ−1 ′ (B ). Hay que mostrar que PJ (B) = PJ ′ (B ′ ). Sea I = J ∪ J ′ y C = πI (πJ−1 (B)) = πI (A). Por consistencia, PI (C) = PJ (B). Similarmente podemos ver que PI (C) = PJ ′ (B ′ ). Es fácil verificar que P es aditiva en A. Probaremos que P es σ-aditiva allı́. Por el teorema de continuidad, basta demostrar que si {An } es una sucesión de conjuntos decreciente en A tales que para algún δ se tiene que lı́m P (An ) ≥ δ, n→∞ entonces 11 1.5. FUNCIÓN DE DISTRIBUCIÓN ∩An 6= φ. (Bn ), con Bn ∈ B(X Jn ). Sin pérdida de generalidad, podemos Supongamos que An = πJ−1 n suponer que {Jn } es una sucesión de conjuntos creciente en S. Por otra parte, por regularidad y tensión de las medidas PJ , con J ⊂ S finito, existen compactos Kn tales que Kn ⊂ Bn y P (An − Dn ) ≤ ǫ/2n+1 , donde Dn = π −1 (Kn ). Ahora definimos Cn = ∩ni=1 Di . Luego, {Cn } es una sucesión decreciente de conjuntos. Además, P (An − Cn ) ≤ n X P (An − Di ) ≤ n X P (Ai − Di ) ≤ ǫ/2. i=1 i=1 Por lo tanto, P (Cn ) ≥ ǫ/2 y concluimos que cada Cn es no-vacı́o. Para cada n elegimos un wn ∈ Cn . Por el hecho que πJ1 C1 es compacto, sabemos que wn tiene una subsucesión tal que (1) sus coordenandas {wn (j) : j ∈ J1 } en J1 convergen. Llamemos wn a tal subsucesión. Por el (2) (1) mismo argumento podemos extraer una subsucesión de wn de wn , cuyas coordenadas en J2 (j) (n) convergen. Recursivamente podemos definir wn . Claramente, la sucesión {wn : n ≥ 1} tiene la propiedad que para cada Ji , sus coordenadas en tal conjunto convergen. Es obvio que el lı́mite definido de esta manera está en ∩Cn y por lo tanto en ∩An . Es posible demostrar versiones del teorema de extensión de Kolmogorov a espacios que se pueden expresar como un producto no-numerable de factores. Sin embargo, la medida de probabilidad que se construye está definida en una σ-algebra que no coincide con los borelianos inducidos por la topologı́a producto. 1.5. Función de distribución En esta sección nos concentraremos en medidas de probabilidad definidas en los reales con los borelianos introduciendo el concepto de función de distribución. Definición 1.25. (Función de distribución). Una función de distribución es una función real F : R → R tal que (i) F es monótona creciente, (ii) F es continua por la derecha, (iii) lı́mx→∞ F (x) = 1 y lı́mx→−∞ F (x) = 0. Dada una función de distribución F , si existe una función real f tal que Z x f (u)du, F (x) = −∞ llamamos a f la función de densidad de F . Notemos que toda función densidad es necesariamente positiva y satisface R f dx = 1.