1 Convergencias Estocásticas En todo este capı́tulo consideraremos un espacio probabilı́stico (Ω, σ, P ), que nos servirá como marco de trabajo, al que estarán referidas todas las variables aleatorias (v.a.) que aparezcan. Diremos que un suceso A ∈ σ ocurre casi seguro (c.s.) cuando su probabilidad es 1 ó, lo que es equivalente, cuando la probabilidad de que no ocurra A es 0. En particular, por ejemplo, diremos que dos variables X e Y son iguales c.s. cuando P (X = Y ) = 1. Representaremos este hecho por X =c.s. Y. La distribución de una variable aleatoria no depende del espacio en el que está definida, incluso dos variables igualmente distribuidas pueden estar definidas en diferentes espacios probabilı́sticos y por tanto no tener sentido que sean iguales c.s.. No obstante v.a. iguales c.s. siempre son igualmente distribuidas: P (X ∈ A) = P (X ∈ A, X = Y ) + P (X ∈ A, X 6= Y ) = P (X ∈ A, X = Y ) = P (Y ∈ A, X = Y ) = P (Y ∈ A) para cualquier A ∈ β, ya que (X ∈ A, X 6= Y ), (Y ∈ A, X 6= Y ) están contenidos en (X 6= Y ) y este conjunto tiene probabilidad 0. Por tanto X =d Y (X e Y son igualmente distribuidas). Es evidente que en el conjunto de las v.a. en (Ω, σ, P ), la relación de igualdad c.s. es de equivalencia, como ejemplo obtendremos la propiedad transitiva: Si P (X = Y ) = 1 y P (Y = Z) = 1, entonces P (X = Z) ≥ P ((X = Y ) ∩ (Y = Z)) = 1, puesto que la intersección de dos conjuntos de probabilidad 1 tiene probabilidad 1. Es sencillo probar igualmente que si X =c.s. X 0 , Y =c.s. Y 0 , Xn =c.s. Yn para todo n, y c ∈ <, entonces: cX =c.s. cX 0 , X + Y =c.s. X 0 + Y 0 , XY =c.s. X 0 Y 0 , sup Xn =c.s. sup Yn , inf Xn =c.s. inf Yn , n n n n puesto que la intersección (finita o) numerable de conjuntos de probabilidad 1 tiene probabilidad 1, p. ej.: P (sup Xn = sup Yn ) = P (sup Xn = sup Yn ) ∩ (∩n (Xn = Yn )) = P (∩n (Xn = Yn )) = 1. n n n n Dada una v.a. X, sea X ∗ = {X 0 v.a. en (Ω, σ, P ) tales que X =c.s. X 0 }, es decir, la clase de equivalencia de la v. a. X por la relación que acabamos de introducir. Es evidente que cualquier elemento de la clase X ∗ la determina completamente. La mayor parte de los problemas de la Teorı́a de la Probabilidad son relativos a las clases de equivalencia de v.a. más que a ellas mismas, y la importancia de las propiedades que hemos señalado radica en que nos permiten operar sobre las clases de equivalencia de v.a. como si fueran v.a., siempre que no se considere a la vez más de una infinidad numerable de variables. 1 Si A ∈ σ tiene probabilidad nula, dos variables X y X 0 iguales sobre Ac son iguales c. s.; dicho de otra forma, la restricción de X a Ac ya determina la clase de equivalencia X ∗ de X. Una aplicación medible de Ac en la recta real extendida (por ejemplo la restricción de X a Ac ) se llama v.a.r. definida c.s.. Siempre es posible prolongar una v.a. definida c. s. a una v.a. en (Ω, σ, P ) (por ejemplo dando el valor 0 como imagen de los puntos donde no está definida). El interés de los espacios de probabilidad completos consiste en que se puede modificar arbitrariamente una v.a. X sobre una parte de probabilidad 0 sin modificar el carácter medible de X (ni, desde luego, su clase de equivalencia). Es importante observar que completizando un espacio de probabilidad se aumenta el número de v.a. pero no se introduce ninguna nueva clase de equivalencia. La introducción de la probabilidad provoca nuevos tipos de convergencia que ahora pasamos a estudiar. Definición 1.1 Se dice que una sucesión (Xn ) de v.a.r. converge c.s. si lim sup Xn =c.s. lim inf Xn . El lı́mite de (Xn ) es entonces cualquiera de las v.a. de la clase de equivalencia de la v.a. lim sup Xn . De modo equivalente, podemos decir que la sucesión (Xn ) converge c.s. a la v.a. X, representado por Xn →c.s. X, cuando P (Xn → X) = 1. Señalemos que en el modo de convergencia definido también se consideran las convergencias a los valores +∞ y −∞. De lo dicho anteriormente se desprende que esta convergencia es en realidad entre clases de equivalencia, hecho que podemos expresar como: • Si Xn →c.s. X y Xn =c.s. Yn para todo n, entonces también Yn →c.s. X, • si Xn →c.s. X y Xn →c.s. Y , entonces X =c.s. Y. Algunas propiedades evidentes de este tipo de convergencia resultan evidentes y son consecuencia del tipo de argumento que hemos venido utilizando. Por su utilización más habitual, enunciamos algunas: Si Xn →c.s. X y Yn →c.s. Y , entonces: a) Xn + Yn →c.s. X + Y b) Xn .Yn →c.s. X.Y c) Xn /Yn →c.s. X/Y ¯ →< ¯ es continua: f (Xn ) →c.s. f (X) d) si f : < e) si c ∈ <: c.Xn →c.s. c.X siempre que las operaciones consideradas no conduzcan a indeterminaciones. Es más, como veremos más adelante (al final del capı́tulo), todas estas propiedades pueden obtenerse como aplicación de la d), que resulta evidente si se tiene en cuenta que en este esquema la continuidad es equivalente a la continuidad por sucesiones. De hecho este argumento puede utilizarse para obtener el siguiente, mucho más útil en las aplicaciones: 2 ¯ → < ¯ es una función continua en todos los puntos de un d*) Si Xn →c.s. X y f : < conjunto C ∈ β̄ tal que P (X ∈ C) = 1, entonces f (Xn ) →c.s. f (X). CONVERGENCIA DE VARIABLES ALEATORIAS FINITAS En el resto del capı́tulo consideraremos que todas las v. a. que intervienen son finitas (aunque después de las consideraciones anteriores es obvio que bastarı́a suponer que son finitas c.s.). En este caso la convergencia Xn →c.s. X puede expresarse en términos del conjunto CX = ∞ [ ∞ \ ∞ \ {ω ∈ Ω : |Xn (ω) − X(ω)| < k=1 m=1 n=m 1 }, k (1) que no es otro que el conjunto de convergencia: CX = {ω ∈ Ω : Xn (ω) → X(ω)} (en forma condensada CX = (Xn → X)). Por otra parte, al excluir los valores infinitos, la convergencia de una sucesión de números reales es equivalente a que sea de Cauchy, por lo que introduciendo en la forma habitual la “correspondiente propiedad casi seguro”, nos encontrarı́amos con el concepto de sucesiones de Cauchy c.s., y a la equivalencia entre sucesiones convergentes c.s. y sucesiones de Cauchy c.s. De forma análoga a la expresión anterior del conjunto de convergencia, podemos describir el conjunto en el que la sucesión (Xn ) es de Cauchy en la forma: CCauchy = ∞ ∞ [ ∞ \ \ ∞ \ {ω ∈ Ω : |Xn (ω) − Xn0 (ω)| < k=1 m=1 n=m n0 =m 1 }. k (2) La medibilidad de los conjuntos involucrados, tanto el de convergencia como el de la verificación de la propiedad de Cauchy, resulta un sencillo ejercicio tras las descripciones obtenidas. Igualmente resulta conveniente recordar que la variable lı́mite de una sucesión, (Xn ), no solo es medible en la σ-álgebra σ que nos sirve de marco de referencia, también es medible en cualquiera de las σ-álgebras σ(Xn , Xn+1 , · · ·), y por tanto en la asintótica σ∞ = ∩∞ n=1 σ(Xn , Xn+1 , · · ·). La siguiente caracterización es fundamental en el estudio de la convergencia casi seguro. Proposición 1.2 Xn →c.s. X si y solo si, para todo > 0, lim P m→∞ ∞ [ ! (|Xn − X| > ) = 0. n=m Demostración: La caracterización (1) hace que la condición P (CX ) = 1 sea equivalente a ∞ \ ∞ [ ! 1 P {ω ∈ Ω : |Xn (ω) − X(ω)| < } = 1 para todo k. k m=1 n=m 3 Ahora sustituir “1/k para todo k” por “para todo > 0” es trivialmente posible, y tomando complementarios llegamos a la condición equivalente P ∞ [ ∞ \ ! {ω ∈ Ω : |Xn (ω) − X(ω)| > } = 0 para todo > 0. (3) m=1 n=m Finalmente, como los conjuntos ∞ n=m {ω ∈ Ω : |Xn (ω) − X(ω)| > } están encajados y decrecen hacia su intersección, por la continuidad monótona secuencial de la probabilidad, tendremos que la condición anterior es a su vez equivalente a la: S P ∞ [ ! (|Xn − X| > ) & P n=m ∞ [ ∞ \ ! (|Xn − X| > ) = 0 para todo > 0. m=1 n=m 2 Nota 1.2.1 Es importante observar que la condición expresada en (3) es igualmente una caracterización de la convergencia Xn →c.s. X, que también puede expresarse como P (lim sup{ω ∈ Ω : |Xn (ω) − X(ω)| > }) = 0 para todo > 0. (4) Una readaptación del lenguaje utilizado nos da la siguiente interesante versión de la proposición anterior. Corolario 1.3 Xn →c.s. X si y solo si, para todo > 0, ! lim P m→∞ sup |Xn − X| > = 0. n≥m Habitualmente será casi imposible evaluar directamente P ( ∞ n=m (|Xn − X| > )), por lo que las demostraciones de convergencias casi seguro se basan en la obtención de cotas para las probabilidades P (|Xn − X| > ) que garanticen que se da la condición expresada ∞ en la Proposición 1.2. En particular, la desigualdad de Boole (P (∪∞ n=m An ) ≤ Σn=m P (An )) nos da la condición suficiente expresada en el siguiente corolario. (Nótese que no estamos más que repitiendo el argumento que demuestra el primer lema de Borel-Cantelli.) S c.s. Corolario 1.4 Si Σ∞ X. n=1 P (|Xn − X| > ) < ∞ para todo > 0, entonces Xn → Estos resultados tienen su réplica inmediata en el marco de las sucesiones de Cauchy c.s. Para ello observaremos en primer lugar que la misma secuencia de argumentos utilizada en la Proposición 1.2, partiendo de (2) conduce a la caracterización: La sucesión (Xn )n es de Cauchy c.s. si y sólo si para todo > 0, lim P m→∞ ∞ [ (|Xn − Xn0 | > ) = 0. n,n0 =m 4 que puede simplificarse algo eliminando uno de los “contadores” sin más que tener en cuenta que (|Xn − Xn0 | > ) ⊂ (|Xn − Xm | > /2) ∪ (|Xn0 − Xm | > /2), por lo que también podemos obtener la caracterización siguiente. Proposición 1.5 La sucesión (Xn )n es de Cauchy c.s. si y sólo si para todo > 0, lim P m→∞ ∞ [ ! (|Xn − Xm | > ) = 0. n=m Un enunciado similar al de la condición expresada en el corolario 1.4 serı́a de poca utilidad, toda vez que involucrarı́a a infinitas series. Sin embargo, “moviendo” los ’s para conseguir mayores exigencias según se avanza en la sucesión, podemos obtener una condición suficiente (y utilizable), cuya demostración proponemos como ejercicio. Proposición 1.6 Sea (n )n una sucesión de números positivos que verifican Σ∞ n=1 n < ∞. Si la sucesión (Xn )n verifica Σ∞ n=1 P (|Xn − Xn+1 | > n ) < ∞, entonces es de Cauchy c.s. Aunque el análisis detallado de la definición y de las caracterizaciones obtenidas no ofrece dudas, parece oportuno resaltar que la convergencia puntual garantizada (en un conjunto de probabilidad 1) por la convergencia c.s. no necesariamente será una convergencia uniforme. Dicho de otra forma, en unos puntos la convergencia puede ser mucho más lenta que en otros. Sin embargo la intervención de la probabilidad nos permite garantizar que la convergencia podrá considerarse como uniforme en conjuntos de probabilidad arbitrariamente grande. Este resultado se conoce como teorema de Egorov y la caracterización obtenida como convergencia casi uniforme (que resulta obviamente distinta de la que llamarı́amos uniforme casi seguro. Proposición 1.7 (Teorema de Egorov) Una sucesión (Xn )n converge casi seguro a la variable X si y sólo si, para todo η > 0, existe un conjunto Ωη ∈ σ tal que P (Ωη ) > 1 − η y en ese conjunto Xn → X uniformemente. 1 ∞ Demostración: Si definimos los conjuntos Ωm k := ∩n=k (|Xn − X| ≤ m ), por la proposición 1.2, para cada m fijo tendremos que P (Ωm k ) % 1, por lo que, para cada m existirá un m ı́ndice Mm tal que P (Ωm ) > 1 − η/2 . Mm m Si ahora hacemos Ωη := ∩∞ m=1 ΩMm , por supuesto será un conjunto medible con P (Ωη ) > 1−η. Además, para cualquier > 0 prefijado, si tomamos m0 > 1/ y n es cualquier ı́ndice posterior a Mm0 , para cualquier ω ∈ Ωη se verificará que |Xn (ω) − X(ω| ≤ 1/m0 < , por lo que efectivamente la convergencia es uniforme en el conjunto Ωη . Comprobar que la condición es suficiente es mucho más simple porque obviamente la convergencia uniforme en un conjunto implica la convergencia puntual en todos los puntos 5 de ese conjunto. Esto significa que para garantizar que se da la convergencia Xn (ω0 ) → X(ω0 ) en un punto ω0 , basta con asegurar que ese punto está en algún conjunto en el que se dé una convergencia uniforme. En consecuencia, tomando la sucesión de conjuntos Ω1/n que el enunciado garantiza para cada valor de n, en el conjunto Ω∗ := ∪∞ n=1 Ω1/n ∗ tendrı́amos convergencia y su probabilidad verifica P (Ω ) ≥ P (Ω1/n ) > 1 − 1/n para todo n, lo que nos lleva a P (Ω∗ ) = 1. 2 CONVERGENCIA EN PROBABILIDAD. Como se ha repetido muchas veces a lo largo de este curso, el espacio de probabilidad que nos sirve de marco de referencia es meramente una herramienta matemática que nos permite garantizar que las variables que consideramos “viven” (quizás serı́a más adecuado decir que “podrı́an vivir”) en un mismo espacio. Por ello el modo de trabajar en la teora de la probabilidad ha de ser muy distinto de otros habituales en otras áreas de las matemáticas. Nosotros no podremos recurrir a un punto ideal y a sus imágenes obtenidas a través de la sucesión de variables (aplicaciones al fin y al cabo) para estudiar el comportamiento de la sucesión. Nuestra información consistirá tı́picamente en el conocimiento (a veces parcial) de las distribuciones o leyes de probabilidad engendradas por las variables, a veces complementada por relaciones de dependencia entre ellas. La convergencia en probabilidad resulta más adecuada que la casi seguro para la mayorı́a de las aplicaciones, aunque puede depararnos alguna que otra sorpresa. Definición 1.8 Una sucesión (Xn )n converge en probabilidad a la variable X si para todo > 0, P (|Xn − X| > ) → 0 cuando n → ∞. Representaremos este hecho por Xn →p X. El sentido de esta definición es garantizar que ”muy probablemente Xn estará muy próxima a X para ı́ndices suficientemente avanzados de la sucesión”. Por supuesto, sin más que observar la caracterización (1.2) de la convergencia casi seguro, obtenemos que esta convergencia es más “débil” que aquella: Si una sucesión converge casi seguro a una variable también lo hará en probabilidad, mientras que la implicación contraria no es necesariamente cierta. Antes de abordar esta cuestión observaremos que, al igual que en la convergencia casi seguro, la convergencia en probabilidad es una convergencia entre clases de equivalencia. De nuevo, la convergencia se mantiene si cambiamos las variables de la sucesión o la variable lı́mite por otras iguales casi seguro, y las posibles variables lı́mite coinciden c.s.: • Si Xn →p X y Xn =c.s. Yn para todo n, entonces también Yn →p X, • si Xn →p X y Xn →p Y , entonces X =c.s. Y. En realidad, observando la definición obtenemos fácilmente que si para cada n se tiene (Xn , X) =d (Yn , Y ), entonces también |Xn −X| =d |Yn −Y |, que es suficiente para garantizar que P (|Xn − X| > ) = P (|Yn − Y | > ) para todo > 0. Esto demuestra la primera 6 sentencia (recordemos que la igualdad casi seguro implica la igualdad en distribución), y la segunda es consecuencia de un argumento habitual en este tipo de convergencia: c.s. Como (X 6= Y ) = (|X − Y | > 0) = ∪∞ Y n=1 (|X − Y | > 1/n), para probar que X = bastará probar que P (|X − Y | > ) = 0 para todo > 0, por lo que consideramos la contención conjuntista elemental (|X − Y | > ) ⊂ (|X − Z| > /2) ∪ (|Z − Y | > /2), que nos lleva a P (|X − Y | > ) ≤ P (|X − Xn | > /2) + P (|Xn − Y | > /2) → 0, concluyendo que efectivamente P (|X − Y | > ) = 0. Como en el caso de la convergencia casi segura, también aquı́ manejaremos el concepto de sucesión de Cauchy. Definición 1.9 Una sucesión (Xn )n es de Cauchy en probabilidad si para todo > 0, P (|Xn − Xm | > ) → 0 cuando n, m → ∞. Volviendo a la relación entre las convergencias c.s. y en probabilidad, es fácil obtener contraejemplos que muestran que la convergencia en probabilidad no implica la convergencia c.s. Si recurrimos a un espacio probabilı́stico como el intervalo (0, 1] con la medida de Lebesgue, que ya nos es familiar, podemos construir un ejemplo sencillo basado en una sucesión de conjuntos cada vez más pequeños pero que continuamente recorren el espacio: X1 = I(0,1] , X2 = I(0,1/2] , X3 = I(1/2,1] , X4 = I(0,1/3] , X5 = I(1/3,2/3] , X6 = I(2/3,1] , · · · Como la longitud de los intervalos, es decir la medida de Lebesgue, se hace cada vez más pequeña, P (|Xn | > ) → 0 y se tiene que Xn →p 0. Sin embargo, cualquier ω ∈ (0, 1] pertenece a infinitos conjuntos y no pertenece a otros infinitos conjuntos de los involucrados en la sucesión, luego Xn (ω) = 0 infinitas veces y Xn (ω) = 1 infinitas veces, por lo que P (ω ∈ (0, 1] : (Xn (ω))n converge) = P (∅) = 0. La sencillez del ejemplo anterior contrasta con su interés desde el punto de vista probabilı́stico. Aquı́ el espacio probabilı́stico y la construcción de las variables nos permiten seguir el devenir de la secuencia de valores de las variables en cada punto. De hecho la dependencia que se manifiesta entre las variables es muy distinta de las que interesan en el estudio de los fenómenos aleatorios. Por supuesto eso no invalida el argumento que prueba que la convergencia en probabilidad no implica la convergencia casi seguro, pero el siguiente ejemplo, basado también en variables de Bernoulli (aquellas que sólo toman los valores 0 y 1) resulta muy ilustrativo en este caso. Ejemplo 1.10 Sea (Xn )n una sucesión de variables de Bernoulli con parámetros (pn )n (es decir, para cada n P (Xn = 1) = pn y P (Xn = 0) = 1 − pn ). La condición necesaria y suficiente para que Xn →p 0 es que pn → 0 porque (para cualquier > 0) P (|Xn | > ) ≤ P (Xn = 1) = pn , y la anterior desigualdad es una igualdad para cada ∈ (0, 1), por lo que la condición coincide con nuestra definición de convergencia en probabilidad. Si las variables de la sucesión anterior son independientes, entonces la condición necesaria y suficiente para que Xn →c.s. 0 es que Σ∞ n=1 pn < ∞. Efectivamente, si se 7 da la condición entonces el mismo argumento de antes nos da la desigualdad Σ∞ n=1 P (|Xn | > ) ≤ Σ∞ p , que es una igualdad para cada ∈ (0, 1). El corolario 1.4 probarı́a entonces n=1 n que la condición es suficiente, pero si recurrimos a nuestra primera ley 0-1, obtenida a partir de los lemas de Borel-Cantelli, los sucesos (independientes) (Xn = 1) ocurrirán infinitas veces con probabilidad 0 o 1, y será con probabilidad 0 si y sólo si Σ∞ n=1 pn < ∞. Esto demuestra que P (lim sup{ω ∈ Ω : |Xn (ω)| > }) = 0 si y sólo si Σ∞ p n=1 n < ∞, y la caracterización de la convergencia casi seguro obtenida en (4) prueba el resultado. Nota 1.10.1 Obsérvese que la primera parte del ejemplo solo involucra las distribuciones individuales de las variables. Sea cual sea la relación de dependencia probabilı́stica entre las variables la conclusión será la misma. La segunda parte, en cambio, está completamente vinculada a un tipo concreto de relación (la independencia) que junto con las distribuciones individuales determina completamente la distribución conjunta de toda la sucesión. También podemos anticiparnos a un resultado general que obtendremos a continuación, notando que si la sucesión (pn )n converge a 0, podemos garantizar que existe una subsucesión (pnk )k tal que la serie Σ∞ k=1 pnk < ∞, y que esta condición, por el primer lema de Borel-Cantelli (o si se quiere por el corolario 1.4) garantiza la convergencia casi seguro de la correspondiente subsucesión (Xnk )k cualquiera que sea la relación de dependencia que exista entre las variables. Otra cuestión destacable es que nuestra intuición matemática sobre la convergencia de funciones se queda un poco perdida ante esta convergencia en la que difı́cilmente podremos recurrir a una variable candidata a ser la variable lı́mite de la sucesión. Sin embargo esta dificultad podrá a menudo sortearse a partir de la caracterización de la convergencia en probabilidad en términos de la casi seguro que obtendremos pronto. Proposición 1.11 Si la sucesión (Xn )n converge en probabilidad a la variable X, entonces existe una subsucesión (Xnk )k que converge casi seguro a X Demostración: La idea de la demostración es muy parecida a la que hemos destacado en la nota anterior. La dificultad añadida en la situación general es que las variables no sólo toman los valores 0 y 1, por lo que la forma en la que se dé la aproximación juega su papel. En otras palabras, para distintos ’s tendrı́amos distintas subsucesiones con series convergentes. Para resolver este problema recurriremos a un proceso diagonal, habitual en el pensamiento matemático. De la definición de convergencia en probabilidad obtenemos que para cada k existirá un ı́ndice Nk tal que P (|Xn − X| > 1/k) < 21k para todo n ≥ Nk . Para construir la sucesión de ı́ndices comenzamos definiendo n1 = N1 , n2 = sup{N2 , n1 + 1} y, de forma recurrente nk = sup{Nk , nk−1 + 1}, · · ·. Por el corolario 1.4 bastará con probar que para todo > 0 se tiene Σ∞ k=1 P (|Xnk −X| > ) < ∞, pero debemos notar que si k0 es el primer k mayor que 1/, para cualquier k ≥ k0 se verificará que P (|Xnk − X| > ) ≤ P (|Xnk − X| > 1/k) < 21k , que garantiza que la serie es convergente.2 Nota 1.11.1 Queremos resaltar el diferente papel que se ha asignado en la demostración anterior a las cantidades 1/k y 21k que juegan el papel de y γ en la formalización 8 matemática del lı́mite presente en la definición 1.8: ∀ > 0, ∀γ > 0 ∃N : P (|Xn − X| > ) < γ ∀n ≥ N. Podrı́amos haber optado por una mayor exigencia también en nuestra medida de cercanı́a entre las variables, recurriendo en ambos casos a 21k , sin que la demostración hubiera cambiado en nada. En realidad hemos recurrido a cantidades diferentes para resaltar más las posibilidades que nos ofrece este “juego”. Cuando comparamos contra una variable fija las aproximaciones pueden ser más lentas, pero si aplicamos un argumento similar a sucesiones de Cauchy en probabilidad necesitamos una velocidad más rápida en las aproximaciones que consideremos para evitar que la acumulación de infinitas cantidades pequeñas resulte demasiado grande. Recurriendo a 21k en ambos casos y repitiendo el argumento de la demostración anterior aplicado a una sucesión de Cauchy en probabilidad, 1 conseguirı́amos una subsucesión (Xnk )k que verificarı́a Σ∞ k=1 P (|Xnk − Xnk+1 | > 2k ) < ∞, y por el corolario 1.6 serı́a de Cauchy casi seguro. Como las sucesiones de Cauchy casi seguro son convergentes casi seguro (hacia alguna variable X) tendremos, por tanto, una variable X que nos servirá como candidata a lı́mite en probabilidad de la sucesión global. Como consecuencias de estas observaciones enunciamos los siguientes resultados, de los que sólo el segundo necesita completar algún detalle. Proposición 1.12 Si una sucesión (Xn )n es de Cauchy en probabilidad, entonces existe una subsucesión (Xnk )k que es de Cauchy casi seguro. Proposición 1.13 Una sucesión (Xn )n es de Cauchy en probabilidad si y sólo si es convergente en probabilidad. Demostración: Por supuesto la convergencia en probabilidad implica trivialmente la condición de Cauchy en probabilidad. Para probar el recı́proco recurriremos a una subsucesión (Xnk )k de Cauchy casi seguro, garantizada por la proposición anterior, y a su lı́mite c.s. que llamaremos X. Entonces podemos comparar la sucesión original con esta variable, obteniendo P (|Xn − X| > ) ≤ P (|Xn − Xnk | > /2) + P (|Xnk − X| > /2) por ser de Cauchy en probabilidad. 2 Las convergencias casi seguro y en probabilidad, ası́ como las correspondientes sucesiones de Cauchy, pueden introducirse también en espacios métricos con las definiciones obvias, una vez solventados los problemas de medibilidad de los correspondientes conjuntos que intervienen en tales definiciones (en particular tales problemas no existen en espacios separables). En el caso de vectores aleatorios k−dimensionales, como en <k consideramos la topologı́a producto, una sucesión de vectores converge si y sólo si sus componentes lo hacen a las del vector lı́mite, y por tanto el conjunto de convergencia de la sucesión de vectores aleatorios X̄n = (Xn1 , Xn2 , ..., Xnk ) es la intersección de los conjuntos de convergencia de las sucesiones (Xni ), i = 1, 2, . . . , k. En consecuencia tenemos que: • (X̄n )n converge c.s. a X̄ = (X 1 , ...X k ) si y sólo si Xni →c.s. X i para todo i = 1, 2, . . . k. 9 • (X̄n )n es de Cauchy c.s. si y sólo si (Xni )n es de Cauchy c.s. para todo i = 1, 2, . . . , k. Por otra parte, en <k todas las normas son equivalentes y manejando k(x1 , . . . , xk )k∞ = supi=1,...,k |xi | y k(x1 , . . . , xk )k1 = Σki=1 |xi | se deduce sin dificultad que: • (X̄n )n converge en probabilidad a X̄ si y sólo si Xni →p X i para todo i = 1, 2, . . . k. • (X̄n )n es de Cauchy en probabilidad si y sólo si (Xni )n es de Cauchy en probabilidad para todo i = 1, 2, . . . , k. Restringiéndonos a la primera afirmación, nótese que P (kX̄n − X̄k1 > ) ≤ Σki=1 P (|Xni − X i | > /k), y que P (|Xni − X i | > ) ≤ P (kX̄n − X̄k∞ > ). A partir de estas consideraciones, reproducir los resultados obtenidos hasta ahora para sucesiones de variables aleatorias a sucesiones de vectores aleatorios es un ejercicio elemental. En particular la siguiente versión de la proposición 1.11 nos permite obtener una caracterización de la convergencia en probabilidad en términos de la convergencia casi seguro que queremos destacar adecuadamente y que directamente enunciaremos en el marco de las sucesiones de vectores aleatorios. Proposición 1.14 La sucesión (X̄n )n converge en probabilidad al vector X̄ si y sólo si de cada subsucesión (X̄nm )m podemos extraer una nueva subsucesión (X̄nmr )r que converge casi seguro a X̄. Demostración: Puesto que toda subsucesión de una sucesión que converge en probabilidad converge también en probabilidad (y al mismo vector aleatorio), la proposición 1.11 aplicada a esta subsucesión garantiza la existencia de otra subsucesión de ella que converge c.s. Para probar la implicación contraria podemos suponer que X̄n no converge en probabilidad a X̄. Entonces existirán > 0 y δ > 0 tales que P (kX̄n − X̄k > ) > δ para infinitos ı́ndices n. Por tanto existirá una subsucesión (X̄nm )m tal que P (kX̄nm − X̄k > ) > δ para todo m. Por supuesto ni esta subsucesión ni ninguna que podamos extraer de ella podrá converger en probabilidad, y mucho menos casi seguro, que contradirı́a la hipótesis. 2 La utilización de este resultado hace completamente trivial la obtención de propiedades análogas a las a), b),..., e) enunciadas para la convergencia casi seguro. De hecho es igualmente trivial la obtención de la propiedad d*) Si X̄n →p X̄ y f : <¯k → <¯m es una función continua en todos los puntos de un conjunto C ∈ β¯k tal que P (X̄ ∈ C) = 1, entonces f (X̄n ) →p f (X̄). En efecto, si consideramos una subsucesión cualquiera (f (X̄nm ))m , por la proposición 1.14 existirá una subsucesión (X̄nmr )r que converge casi seguro a X̄, pero por la propiedad d*) para la convergencia casi seguro entonces también (f (X̄nmr ))r →c.s. f (X̄), que, de nuevo por la caracterización obtenida en la proposición 1.14, implica que la sucesión original (f (X̄n ))n converge en probabilidad a f (X̄). Veamos ahora como emplear esta propiedad d*) para probar que las operaciones habituales entre sucesiones que convergen en probabilidad mantienen esta convergencia: 10 Supongamos que Xn →p X y Yn →p Y . Entonces también los vectores aleatorios (Xn , Yn ) →p (X, Y ) y las operaciones suma o producto son continuas en <2 , por lo que la aplicación de d*) garantiza que Xn + Yn → X + Y o que Xn .Yn →p X.Y , e incluso, si P (Y = 0) = 0 (la operación cociente es continua en todos los puntos del conjunto < × (< − {0})) podrı́amos garantizar que Xn /Yn →p X/Y . Estos argumentos triviales contrastan fuertemente con los que todavı́a pueden encontrarse en algunos textos, en los que cada uno de estos resultados se obtendrı́a por argumentos ad hoc mucho más complejos. El lector queda invitado a realizar una demostración directa de d*) sin utilizar la caracterización de la convergencia en probabilidad en términos de la casi seguro. 11