1 Convergencias Estocásticas

Anuncio
1
Convergencias Estocásticas
En todo este capı́tulo consideraremos un espacio probabilı́stico (Ω, σ, P ), que nos servirá
como marco de trabajo, al que estarán referidas todas las variables aleatorias (v.a.) que
aparezcan.
Diremos que un suceso A ∈ σ ocurre casi seguro (c.s.) cuando su probabilidad es 1
ó, lo que es equivalente, cuando la probabilidad de que no ocurra A es 0. En particular,
por ejemplo, diremos que dos variables X e Y son iguales c.s. cuando P (X = Y ) = 1.
Representaremos este hecho por X =c.s. Y.
La distribución de una variable aleatoria no depende del espacio en el que está definida,
incluso dos variables igualmente distribuidas pueden estar definidas en diferentes espacios
probabilı́sticos y por tanto no tener sentido que sean iguales c.s.. No obstante v.a. iguales
c.s. siempre son igualmente distribuidas:
P (X ∈ A) = P (X ∈ A, X = Y ) + P (X ∈ A, X 6= Y ) = P (X ∈ A, X = Y ) =
P (Y ∈ A, X = Y ) = P (Y ∈ A) para cualquier A ∈ β,
ya que (X ∈ A, X 6= Y ), (Y ∈ A, X 6= Y ) están contenidos en (X 6= Y ) y este conjunto
tiene probabilidad 0. Por tanto X =d Y (X e Y son igualmente distribuidas).
Es evidente que en el conjunto de las v.a. en (Ω, σ, P ), la relación de igualdad c.s. es
de equivalencia, como ejemplo obtendremos la propiedad transitiva: Si P (X = Y ) = 1 y
P (Y = Z) = 1, entonces
P (X = Z) ≥ P ((X = Y ) ∩ (Y = Z)) = 1,
puesto que la intersección de dos conjuntos de probabilidad 1 tiene probabilidad 1. Es
sencillo probar igualmente que si X =c.s. X 0 , Y =c.s. Y 0 , Xn =c.s. Yn para todo n, y c ∈ <,
entonces:
cX =c.s. cX 0 , X + Y =c.s. X 0 + Y 0 , XY =c.s. X 0 Y 0 ,
sup Xn =c.s. sup Yn , inf Xn =c.s. inf Yn ,
n
n
n
n
puesto que la intersección (finita o) numerable de conjuntos de probabilidad 1 tiene probabilidad 1, p. ej.:
P (sup Xn = sup Yn ) = P (sup Xn = sup Yn ) ∩ (∩n (Xn = Yn )) = P (∩n (Xn = Yn )) = 1.
n
n
n
n
Dada una v.a. X, sea X ∗ = {X 0 v.a. en (Ω, σ, P ) tales que X =c.s. X 0 }, es decir, la
clase de equivalencia de la v. a. X por la relación que acabamos de introducir. Es evidente
que cualquier elemento de la clase X ∗ la determina completamente. La mayor parte de
los problemas de la Teorı́a de la Probabilidad son relativos a las clases de equivalencia
de v.a. más que a ellas mismas, y la importancia de las propiedades que hemos señalado
radica en que nos permiten operar sobre las clases de equivalencia de v.a. como si fueran
v.a., siempre que no se considere a la vez más de una infinidad numerable de variables.
1
Si A ∈ σ tiene probabilidad nula, dos variables X y X 0 iguales sobre Ac son iguales c.
s.; dicho de otra forma, la restricción de X a Ac ya determina la clase de equivalencia X ∗
de X. Una aplicación medible de Ac en la recta real extendida (por ejemplo la restricción
de X a Ac ) se llama v.a.r. definida c.s.. Siempre es posible prolongar una v.a. definida
c. s. a una v.a. en (Ω, σ, P ) (por ejemplo dando el valor 0 como imagen de los puntos
donde no está definida).
El interés de los espacios de probabilidad completos consiste en que se puede modificar
arbitrariamente una v.a. X sobre una parte de probabilidad 0 sin modificar el carácter
medible de X (ni, desde luego, su clase de equivalencia). Es importante observar que
completizando un espacio de probabilidad se aumenta el número de v.a. pero no se introduce ninguna nueva clase de equivalencia.
La introducción de la probabilidad provoca nuevos tipos de convergencia que ahora
pasamos a estudiar.
Definición 1.1 Se dice que una sucesión (Xn ) de v.a.r. converge c.s. si lim sup Xn =c.s.
lim inf Xn . El lı́mite de (Xn ) es entonces cualquiera de las v.a. de la clase de equivalencia
de la v.a. lim sup Xn .
De modo equivalente, podemos decir que la sucesión (Xn ) converge c.s. a la v.a. X,
representado por Xn →c.s. X, cuando P (Xn → X) = 1. Señalemos que en el modo de
convergencia definido también se consideran las convergencias a los valores +∞ y −∞.
De lo dicho anteriormente se desprende que esta convergencia es en realidad entre clases
de equivalencia, hecho que podemos expresar como:
• Si Xn →c.s. X y Xn =c.s. Yn para todo n, entonces también Yn →c.s. X,
• si Xn →c.s. X y Xn →c.s. Y , entonces X =c.s. Y.
Algunas propiedades evidentes de este tipo de convergencia resultan evidentes y son
consecuencia del tipo de argumento que hemos venido utilizando. Por su utilización más
habitual, enunciamos algunas:
Si Xn →c.s. X y Yn →c.s. Y , entonces:
a) Xn + Yn →c.s. X + Y
b) Xn .Yn →c.s. X.Y
c) Xn /Yn →c.s. X/Y
¯ →<
¯ es continua: f (Xn ) →c.s. f (X)
d) si f : <
e) si c ∈ <: c.Xn →c.s. c.X
siempre que las operaciones consideradas no conduzcan a indeterminaciones. Es más,
como veremos más adelante (al final del capı́tulo), todas estas propiedades pueden obtenerse como aplicación de la d), que resulta evidente si se tiene en cuenta que en este
esquema la continuidad es equivalente a la continuidad por sucesiones. De hecho este
argumento puede utilizarse para obtener el siguiente, mucho más útil en las aplicaciones:
2
¯ → <
¯ es una función continua en todos los puntos de un
d*) Si Xn →c.s. X y f : <
conjunto C ∈ β̄ tal que P (X ∈ C) = 1, entonces f (Xn ) →c.s. f (X).
CONVERGENCIA DE VARIABLES ALEATORIAS FINITAS
En el resto del capı́tulo consideraremos que todas las v. a. que intervienen son finitas
(aunque después de las consideraciones anteriores es obvio que bastarı́a suponer que son
finitas c.s.). En este caso la convergencia Xn →c.s. X puede expresarse en términos del
conjunto
CX =
∞ [
∞ \
∞
\
{ω ∈ Ω : |Xn (ω) − X(ω)| <
k=1 m=1 n=m
1
},
k
(1)
que no es otro que el conjunto de convergencia: CX = {ω ∈ Ω : Xn (ω) → X(ω)} (en
forma condensada CX = (Xn → X)). Por otra parte, al excluir los valores infinitos, la
convergencia de una sucesión de números reales es equivalente a que sea de Cauchy, por
lo que introduciendo en la forma habitual la “correspondiente propiedad casi seguro”, nos
encontrarı́amos con el concepto de sucesiones de Cauchy c.s., y a la equivalencia entre
sucesiones convergentes c.s. y sucesiones de Cauchy c.s. De forma análoga a la expresión
anterior del conjunto de convergencia, podemos describir el conjunto en el que la sucesión
(Xn ) es de Cauchy en la forma:
CCauchy =
∞
∞ [
∞ \
\
∞
\
{ω ∈ Ω : |Xn (ω) − Xn0 (ω)| <
k=1 m=1 n=m n0 =m
1
}.
k
(2)
La medibilidad de los conjuntos involucrados, tanto el de convergencia como el de la
verificación de la propiedad de Cauchy, resulta un sencillo ejercicio tras las descripciones
obtenidas. Igualmente resulta conveniente recordar que la variable lı́mite de una sucesión,
(Xn ), no solo es medible en la σ-álgebra σ que nos sirve de marco de referencia, también
es medible en cualquiera de las σ-álgebras σ(Xn , Xn+1 , · · ·), y por tanto en la asintótica
σ∞ = ∩∞
n=1 σ(Xn , Xn+1 , · · ·).
La siguiente caracterización es fundamental en el estudio de la convergencia casi seguro.
Proposición 1.2 Xn →c.s. X si y solo si, para todo > 0,
lim P
m→∞
∞
[
!
(|Xn − X| > ) = 0.
n=m
Demostración: La caracterización (1) hace que la condición P (CX ) = 1 sea equivalente a
∞ \
∞
[
!
1
P
{ω ∈ Ω : |Xn (ω) − X(ω)| < } = 1 para todo k.
k
m=1 n=m
3
Ahora sustituir “1/k para todo k” por “para todo > 0” es trivialmente posible, y
tomando complementarios llegamos a la condición equivalente
P
∞ [
∞
\
!
{ω ∈ Ω : |Xn (ω) − X(ω)| > } = 0 para todo > 0.
(3)
m=1 n=m
Finalmente, como los conjuntos ∞
n=m {ω ∈ Ω : |Xn (ω) − X(ω)| > } están encajados y
decrecen hacia su intersección, por la continuidad monótona secuencial de la probabilidad,
tendremos que la condición anterior es a su vez equivalente a la:
S
P
∞
[
!
(|Xn − X| > ) & P
n=m
∞ [
∞
\
!
(|Xn − X| > ) = 0 para todo > 0.
m=1 n=m
2
Nota 1.2.1 Es importante observar que la condición expresada en (3) es igualmente una
caracterización de la convergencia Xn →c.s. X, que también puede expresarse como
P (lim sup{ω ∈ Ω : |Xn (ω) − X(ω)| > }) = 0 para todo > 0.
(4)
Una readaptación del lenguaje utilizado nos da la siguiente interesante versión de la
proposición anterior.
Corolario 1.3 Xn →c.s. X si y solo si, para todo > 0,
!
lim P
m→∞
sup |Xn − X| > = 0.
n≥m
Habitualmente será casi imposible evaluar directamente P ( ∞
n=m (|Xn − X| > )), por
lo que las demostraciones de convergencias casi seguro se basan en la obtención de cotas
para las probabilidades P (|Xn − X| > ) que garanticen que se da la condición expresada
∞
en la Proposición 1.2. En particular, la desigualdad de Boole (P (∪∞
n=m An ) ≤ Σn=m P (An ))
nos da la condición suficiente expresada en el siguiente corolario. (Nótese que no estamos
más que repitiendo el argumento que demuestra el primer lema de Borel-Cantelli.)
S
c.s.
Corolario 1.4 Si Σ∞
X.
n=1 P (|Xn − X| > ) < ∞ para todo > 0, entonces Xn →
Estos resultados tienen su réplica inmediata en el marco de las sucesiones de Cauchy c.s.
Para ello observaremos en primer lugar que la misma secuencia de argumentos utilizada
en la Proposición 1.2, partiendo de (2) conduce a la caracterización: La sucesión (Xn )n
es de Cauchy c.s. si y sólo si para todo > 0,

lim P 
m→∞
∞
[

(|Xn − Xn0 | > ) = 0.
n,n0 =m
4
que puede simplificarse algo eliminando uno de los “contadores” sin más que tener en
cuenta que
(|Xn − Xn0 | > ) ⊂ (|Xn − Xm | > /2) ∪ (|Xn0 − Xm | > /2),
por lo que también podemos obtener la caracterización siguiente.
Proposición 1.5 La sucesión (Xn )n es de Cauchy c.s. si y sólo si para todo > 0,
lim P
m→∞
∞
[
!
(|Xn − Xm | > ) = 0.
n=m
Un enunciado similar al de la condición expresada en el corolario 1.4 serı́a de poca
utilidad, toda vez que involucrarı́a a infinitas series. Sin embargo, “moviendo” los ’s
para conseguir mayores exigencias según se avanza en la sucesión, podemos obtener una
condición suficiente (y utilizable), cuya demostración proponemos como ejercicio.
Proposición 1.6 Sea (n )n una sucesión de números positivos que verifican Σ∞
n=1 n < ∞.
Si la sucesión (Xn )n verifica
Σ∞
n=1 P (|Xn − Xn+1 | > n ) < ∞,
entonces es de Cauchy c.s.
Aunque el análisis detallado de la definición y de las caracterizaciones obtenidas no
ofrece dudas, parece oportuno resaltar que la convergencia puntual garantizada (en un
conjunto de probabilidad 1) por la convergencia c.s. no necesariamente será una convergencia uniforme. Dicho de otra forma, en unos puntos la convergencia puede ser mucho
más lenta que en otros. Sin embargo la intervención de la probabilidad nos permite garantizar que la convergencia podrá considerarse como uniforme en conjuntos de probabilidad
arbitrariamente grande. Este resultado se conoce como teorema de Egorov y la caracterización obtenida como convergencia casi uniforme (que resulta obviamente distinta de la
que llamarı́amos uniforme casi seguro.
Proposición 1.7 (Teorema de Egorov) Una sucesión (Xn )n converge casi seguro a la
variable X si y sólo si, para todo η > 0, existe un conjunto Ωη ∈ σ tal que P (Ωη ) > 1 − η
y en ese conjunto Xn → X uniformemente.
1
∞
Demostración: Si definimos los conjuntos Ωm
k := ∩n=k (|Xn − X| ≤ m ), por la proposición
1.2, para cada m fijo tendremos que P (Ωm
k ) % 1, por lo que, para cada m existirá un
m
ı́ndice Mm tal que P (Ωm
)
>
1
−
η/2
.
Mm
m
Si ahora hacemos Ωη := ∩∞
m=1 ΩMm , por supuesto será un conjunto medible con P (Ωη ) >
1−η. Además, para cualquier > 0 prefijado, si tomamos m0 > 1/ y n es cualquier ı́ndice
posterior a Mm0 , para cualquier ω ∈ Ωη se verificará que |Xn (ω) − X(ω| ≤ 1/m0 < , por
lo que efectivamente la convergencia es uniforme en el conjunto Ωη .
Comprobar que la condición es suficiente es mucho más simple porque obviamente la
convergencia uniforme en un conjunto implica la convergencia puntual en todos los puntos
5
de ese conjunto. Esto significa que para garantizar que se da la convergencia Xn (ω0 ) →
X(ω0 ) en un punto ω0 , basta con asegurar que ese punto está en algún conjunto en el
que se dé una convergencia uniforme. En consecuencia, tomando la sucesión de conjuntos
Ω1/n que el enunciado garantiza para cada valor de n, en el conjunto Ω∗ := ∪∞
n=1 Ω1/n
∗
tendrı́amos convergencia y su probabilidad verifica P (Ω ) ≥ P (Ω1/n ) > 1 − 1/n para todo
n, lo que nos lleva a P (Ω∗ ) = 1. 2
CONVERGENCIA EN PROBABILIDAD.
Como se ha repetido muchas veces a lo largo de este curso, el espacio de probabilidad que nos sirve de marco de referencia es meramente una herramienta matemática
que nos permite garantizar que las variables que consideramos “viven” (quizás serı́a más
adecuado decir que “podrı́an vivir”) en un mismo espacio. Por ello el modo de trabajar
en la teora de la probabilidad ha de ser muy distinto de otros habituales en otras áreas
de las matemáticas. Nosotros no podremos recurrir a un punto ideal y a sus imágenes
obtenidas a través de la sucesión de variables (aplicaciones al fin y al cabo) para estudiar el comportamiento de la sucesión. Nuestra información consistirá tı́picamente en el
conocimiento (a veces parcial) de las distribuciones o leyes de probabilidad engendradas
por las variables, a veces complementada por relaciones de dependencia entre ellas. La
convergencia en probabilidad resulta más adecuada que la casi seguro para la mayorı́a de
las aplicaciones, aunque puede depararnos alguna que otra sorpresa.
Definición 1.8 Una sucesión (Xn )n converge en probabilidad a la variable X si para todo
> 0,
P (|Xn − X| > ) → 0 cuando n → ∞.
Representaremos este hecho por Xn →p X.
El sentido de esta definición es garantizar que ”muy probablemente Xn estará muy
próxima a X para ı́ndices suficientemente avanzados de la sucesión”. Por supuesto, sin
más que observar la caracterización (1.2) de la convergencia casi seguro, obtenemos que
esta convergencia es más “débil” que aquella: Si una sucesión converge casi seguro a una
variable también lo hará en probabilidad, mientras que la implicación contraria no es
necesariamente cierta. Antes de abordar esta cuestión observaremos que, al igual que en
la convergencia casi seguro, la convergencia en probabilidad es una convergencia entre
clases de equivalencia. De nuevo, la convergencia se mantiene si cambiamos las variables
de la sucesión o la variable lı́mite por otras iguales casi seguro, y las posibles variables
lı́mite coinciden c.s.:
• Si Xn →p X y Xn =c.s. Yn para todo n, entonces también Yn →p X,
• si Xn →p X y Xn →p Y , entonces X =c.s. Y.
En realidad, observando la definición obtenemos fácilmente que si para cada n se tiene
(Xn , X) =d (Yn , Y ), entonces también |Xn −X| =d |Yn −Y |, que es suficiente para garantizar que P (|Xn − X| > ) = P (|Yn − Y | > ) para todo > 0. Esto demuestra la primera
6
sentencia (recordemos que la igualdad casi seguro implica la igualdad en distribución), y
la segunda es consecuencia de un argumento habitual en este tipo de convergencia:
c.s.
Como (X 6= Y ) = (|X − Y | > 0) = ∪∞
Y
n=1 (|X − Y | > 1/n), para probar que X =
bastará probar que P (|X − Y | > ) = 0 para todo > 0, por lo que consideramos la
contención conjuntista elemental (|X − Y | > ) ⊂ (|X − Z| > /2) ∪ (|Z − Y | > /2), que
nos lleva a
P (|X − Y | > ) ≤ P (|X − Xn | > /2) + P (|Xn − Y | > /2) → 0,
concluyendo que efectivamente P (|X − Y | > ) = 0.
Como en el caso de la convergencia casi segura, también aquı́ manejaremos el concepto
de sucesión de Cauchy.
Definición 1.9 Una sucesión (Xn )n es de Cauchy en probabilidad si para todo > 0,
P (|Xn − Xm | > ) → 0 cuando n, m → ∞.
Volviendo a la relación entre las convergencias c.s. y en probabilidad, es fácil obtener
contraejemplos que muestran que la convergencia en probabilidad no implica la convergencia c.s. Si recurrimos a un espacio probabilı́stico como el intervalo (0, 1] con la medida
de Lebesgue, que ya nos es familiar, podemos construir un ejemplo sencillo basado en una
sucesión de conjuntos cada vez más pequeños pero que continuamente recorren el espacio:
X1 = I(0,1] , X2 = I(0,1/2] , X3 = I(1/2,1] , X4 = I(0,1/3] , X5 = I(1/3,2/3] , X6 = I(2/3,1] , · · ·
Como la longitud de los intervalos, es decir la medida de Lebesgue, se hace cada
vez más pequeña, P (|Xn | > ) → 0 y se tiene que Xn →p 0. Sin embargo, cualquier
ω ∈ (0, 1] pertenece a infinitos conjuntos y no pertenece a otros infinitos conjuntos de los
involucrados en la sucesión, luego Xn (ω) = 0 infinitas veces y Xn (ω) = 1 infinitas veces,
por lo que P (ω ∈ (0, 1] : (Xn (ω))n converge) = P (∅) = 0.
La sencillez del ejemplo anterior contrasta con su interés desde el punto de vista probabilı́stico. Aquı́ el espacio probabilı́stico y la construcción de las variables nos permiten
seguir el devenir de la secuencia de valores de las variables en cada punto. De hecho la
dependencia que se manifiesta entre las variables es muy distinta de las que interesan en
el estudio de los fenómenos aleatorios. Por supuesto eso no invalida el argumento que
prueba que la convergencia en probabilidad no implica la convergencia casi seguro, pero
el siguiente ejemplo, basado también en variables de Bernoulli (aquellas que sólo toman
los valores 0 y 1) resulta muy ilustrativo en este caso.
Ejemplo 1.10 Sea (Xn )n una sucesión de variables de Bernoulli con parámetros (pn )n
(es decir, para cada n P (Xn = 1) = pn y P (Xn = 0) = 1 − pn ). La condición necesaria
y suficiente para que Xn →p 0 es que pn → 0 porque (para cualquier > 0) P (|Xn | >
) ≤ P (Xn = 1) = pn , y la anterior desigualdad es una igualdad para cada ∈ (0, 1), por
lo que la condición coincide con nuestra definición de convergencia en probabilidad.
Si las variables de la sucesión anterior son independientes, entonces la condición
necesaria y suficiente para que Xn →c.s. 0 es que Σ∞
n=1 pn < ∞. Efectivamente, si se
7
da la condición entonces el mismo argumento de antes nos da la desigualdad Σ∞
n=1 P (|Xn | >
) ≤ Σ∞
p
,
que
es
una
igualdad
para
cada
∈
(0,
1).
El
corolario
1.4
probarı́a
entonces
n=1 n
que la condición es suficiente, pero si recurrimos a nuestra primera ley 0-1, obtenida a
partir de los lemas de Borel-Cantelli, los sucesos (independientes) (Xn = 1) ocurrirán
infinitas veces con probabilidad 0 o 1, y será con probabilidad 0 si y sólo si Σ∞
n=1 pn < ∞.
Esto demuestra que P (lim sup{ω ∈ Ω : |Xn (ω)| > }) = 0 si y sólo si Σ∞
p
n=1 n < ∞, y la
caracterización de la convergencia casi seguro obtenida en (4) prueba el resultado.
Nota 1.10.1 Obsérvese que la primera parte del ejemplo solo involucra las distribuciones
individuales de las variables. Sea cual sea la relación de dependencia probabilı́stica entre
las variables la conclusión será la misma. La segunda parte, en cambio, está completamente vinculada a un tipo concreto de relación (la independencia) que junto con las
distribuciones individuales determina completamente la distribución conjunta de toda la
sucesión. También podemos anticiparnos a un resultado general que obtendremos a continuación, notando que si la sucesión (pn )n converge a 0, podemos garantizar que existe una
subsucesión (pnk )k tal que la serie Σ∞
k=1 pnk < ∞, y que esta condición, por el primer lema
de Borel-Cantelli (o si se quiere por el corolario 1.4) garantiza la convergencia casi seguro
de la correspondiente subsucesión (Xnk )k cualquiera que sea la relación de dependencia
que exista entre las variables.
Otra cuestión destacable es que nuestra intuición matemática sobre la convergencia de
funciones se queda un poco perdida ante esta convergencia en la que difı́cilmente podremos
recurrir a una variable candidata a ser la variable lı́mite de la sucesión. Sin embargo esta
dificultad podrá a menudo sortearse a partir de la caracterización de la convergencia en
probabilidad en términos de la casi seguro que obtendremos pronto.
Proposición 1.11 Si la sucesión (Xn )n converge en probabilidad a la variable X, entonces existe una subsucesión (Xnk )k que converge casi seguro a X
Demostración: La idea de la demostración es muy parecida a la que hemos destacado en
la nota anterior. La dificultad añadida en la situación general es que las variables no sólo
toman los valores 0 y 1, por lo que la forma en la que se dé la aproximación juega su
papel. En otras palabras, para distintos ’s tendrı́amos distintas subsucesiones con series
convergentes. Para resolver este problema recurriremos a un proceso diagonal, habitual
en el pensamiento matemático.
De la definición de convergencia en probabilidad obtenemos que para cada k existirá un
ı́ndice Nk tal que P (|Xn − X| > 1/k) < 21k para todo n ≥ Nk . Para construir la sucesión
de ı́ndices comenzamos definiendo n1 = N1 , n2 = sup{N2 , n1 + 1} y, de forma recurrente
nk = sup{Nk , nk−1 + 1}, · · ·.
Por el corolario 1.4 bastará con probar que para todo > 0 se tiene Σ∞
k=1 P (|Xnk −X| >
) < ∞, pero debemos notar que si k0 es el primer k mayor que 1/, para cualquier k ≥ k0
se verificará que P (|Xnk − X| > ) ≤ P (|Xnk − X| > 1/k) < 21k , que garantiza que la serie
es convergente.2
Nota 1.11.1 Queremos resaltar el diferente papel que se ha asignado en la demostración
anterior a las cantidades 1/k y 21k que juegan el papel de y γ en la formalización
8
matemática del lı́mite presente en la definición 1.8:
∀ > 0, ∀γ > 0 ∃N : P (|Xn − X| > ) < γ ∀n ≥ N.
Podrı́amos haber optado por una mayor exigencia también en nuestra medida de cercanı́a
entre las variables, recurriendo en ambos casos a 21k , sin que la demostración hubiera
cambiado en nada. En realidad hemos recurrido a cantidades diferentes para resaltar más
las posibilidades que nos ofrece este “juego”. Cuando comparamos contra una variable
fija las aproximaciones pueden ser más lentas, pero si aplicamos un argumento similar
a sucesiones de Cauchy en probabilidad necesitamos una velocidad más rápida en las
aproximaciones que consideremos para evitar que la acumulación de infinitas cantidades
pequeñas resulte demasiado grande. Recurriendo a 21k en ambos casos y repitiendo el
argumento de la demostración anterior aplicado a una sucesión de Cauchy en probabilidad,
1
conseguirı́amos una subsucesión (Xnk )k que verificarı́a Σ∞
k=1 P (|Xnk − Xnk+1 | > 2k ) < ∞,
y por el corolario 1.6 serı́a de Cauchy casi seguro. Como las sucesiones de Cauchy casi
seguro son convergentes casi seguro (hacia alguna variable X) tendremos, por tanto, una
variable X que nos servirá como candidata a lı́mite en probabilidad de la sucesión global.
Como consecuencias de estas observaciones enunciamos los siguientes resultados, de los
que sólo el segundo necesita completar algún detalle.
Proposición 1.12 Si una sucesión (Xn )n es de Cauchy en probabilidad, entonces existe
una subsucesión (Xnk )k que es de Cauchy casi seguro.
Proposición 1.13 Una sucesión (Xn )n es de Cauchy en probabilidad si y sólo si es convergente en probabilidad.
Demostración: Por supuesto la convergencia en probabilidad implica trivialmente la
condición de Cauchy en probabilidad. Para probar el recı́proco recurriremos a una subsucesión (Xnk )k de Cauchy casi seguro, garantizada por la proposición anterior, y a su
lı́mite c.s. que llamaremos X. Entonces podemos comparar la sucesión original con esta
variable, obteniendo
P (|Xn − X| > ) ≤ P (|Xn − Xnk | > /2) + P (|Xnk − X| > /2)
por ser de Cauchy en probabilidad. 2
Las convergencias casi seguro y en probabilidad, ası́ como las correspondientes sucesiones de Cauchy, pueden introducirse también en espacios métricos con las definiciones
obvias, una vez solventados los problemas de medibilidad de los correspondientes conjuntos que intervienen en tales definiciones (en particular tales problemas no existen en
espacios separables). En el caso de vectores aleatorios k−dimensionales, como en <k
consideramos la topologı́a producto, una sucesión de vectores converge si y sólo si sus
componentes lo hacen a las del vector lı́mite, y por tanto el conjunto de convergencia de
la sucesión de vectores aleatorios X̄n = (Xn1 , Xn2 , ..., Xnk ) es la intersección de los conjuntos
de convergencia de las sucesiones (Xni ), i = 1, 2, . . . , k. En consecuencia tenemos que:
• (X̄n )n converge c.s. a X̄ = (X 1 , ...X k ) si y sólo si Xni →c.s. X i para todo i = 1, 2, . . . k.
9
• (X̄n )n es de Cauchy c.s. si y sólo si (Xni )n es de Cauchy c.s. para todo i = 1, 2, . . . , k.
Por otra parte, en <k todas las normas son equivalentes y manejando k(x1 , . . . , xk )k∞ =
supi=1,...,k |xi | y k(x1 , . . . , xk )k1 = Σki=1 |xi | se deduce sin dificultad que:
• (X̄n )n converge en probabilidad a X̄ si y sólo si Xni →p X i para todo i = 1, 2, . . . k.
• (X̄n )n es de Cauchy en probabilidad si y sólo si (Xni )n es de Cauchy en probabilidad
para todo i = 1, 2, . . . , k.
Restringiéndonos a la primera afirmación, nótese que P (kX̄n − X̄k1 > ) ≤ Σki=1 P (|Xni −
X i | > /k), y que P (|Xni − X i | > ) ≤ P (kX̄n − X̄k∞ > ).
A partir de estas consideraciones, reproducir los resultados obtenidos hasta ahora para
sucesiones de variables aleatorias a sucesiones de vectores aleatorios es un ejercicio elemental. En particular la siguiente versión de la proposición 1.11 nos permite obtener
una caracterización de la convergencia en probabilidad en términos de la convergencia
casi seguro que queremos destacar adecuadamente y que directamente enunciaremos en
el marco de las sucesiones de vectores aleatorios.
Proposición 1.14 La sucesión (X̄n )n converge en probabilidad al vector X̄ si y sólo si de
cada subsucesión (X̄nm )m podemos extraer una nueva subsucesión (X̄nmr )r que converge
casi seguro a X̄.
Demostración: Puesto que toda subsucesión de una sucesión que converge en probabilidad
converge también en probabilidad (y al mismo vector aleatorio), la proposición 1.11 aplicada a esta subsucesión garantiza la existencia de otra subsucesión de ella que converge
c.s.
Para probar la implicación contraria podemos suponer que X̄n no converge en probabilidad a X̄. Entonces existirán > 0 y δ > 0 tales que P (kX̄n − X̄k > ) > δ para infinitos
ı́ndices n. Por tanto existirá una subsucesión (X̄nm )m tal que P (kX̄nm − X̄k > ) > δ para
todo m. Por supuesto ni esta subsucesión ni ninguna que podamos extraer de ella podrá
converger en probabilidad, y mucho menos casi seguro, que contradirı́a la hipótesis. 2
La utilización de este resultado hace completamente trivial la obtención de propiedades
análogas a las a), b),..., e) enunciadas para la convergencia casi seguro. De hecho es
igualmente trivial la obtención de la propiedad
d*) Si X̄n →p X̄ y f : <¯k → <¯m es una función continua en todos los puntos de un
conjunto C ∈ β¯k tal que P (X̄ ∈ C) = 1, entonces f (X̄n ) →p f (X̄).
En efecto, si consideramos una subsucesión cualquiera (f (X̄nm ))m , por la proposición
1.14 existirá una subsucesión (X̄nmr )r que converge casi seguro a X̄, pero por la propiedad
d*) para la convergencia casi seguro entonces también (f (X̄nmr ))r →c.s. f (X̄), que, de
nuevo por la caracterización obtenida en la proposición 1.14, implica que la sucesión
original (f (X̄n ))n converge en probabilidad a f (X̄).
Veamos ahora como emplear esta propiedad d*) para probar que las operaciones habituales entre sucesiones que convergen en probabilidad mantienen esta convergencia:
10
Supongamos que Xn →p X y Yn →p Y . Entonces también los vectores aleatorios
(Xn , Yn ) →p (X, Y ) y las operaciones suma o producto son continuas en <2 , por lo que
la aplicación de d*) garantiza que Xn + Yn → X + Y o que Xn .Yn →p X.Y , e incluso,
si P (Y = 0) = 0 (la operación cociente es continua en todos los puntos del conjunto
< × (< − {0})) podrı́amos garantizar que Xn /Yn →p X/Y .
Estos argumentos triviales contrastan fuertemente con los que todavı́a pueden encontrarse en algunos textos, en los que cada uno de estos resultados se obtendrı́a por argumentos ad hoc mucho más complejos. El lector queda invitado a realizar una demostración
directa de d*) sin utilizar la caracterización de la convergencia en probabilidad en términos
de la casi seguro.
11
Descargar