Cap´ıtulo 1 Convergencia

Anuncio
Capı́tulo 1
Convergencia
1.1
Introducción
En este capı́tulo estudiaremos el comportamiento asintótico de sucesiones
de variables aleatorias, daremos distintas definiciones de convergencia y demostraremos dos de los Teoremas más importantes de la Teorı́a de Probabilidad, de hecho los dos resultados que podrı́amos decir le dieron vida a esta
área del conocimiento.
Antes de estudiar las distintos modos de convergencia, es importante
preguntarse de dónde surgen estos resultados? cuál es la motivación para el
estudio del comportamiento en el lı́mite de sucesiones de variables aleatorias.
Desde la prehistoria de la Probabilidad, se ha deseado dar una interpretación a la Probabilidad, intuitivamente, se consideraba que la probabilidad de un evento era algo ası́ como un lı́mite de frecuencias relativas (de
hecho la escuela frecuentista la define ası́), es decir si A es un evento
P [A] ≈
nA
n
donde nA es el número de veces que ha ocurrido el evento A en n ensayos
independientes del mismo experimento.
A esta propiedad se le llamó (como lo hemos ya mencionado en ??) Regularidad Estadı́stica. Aún cuando ya hemos visto que esta definición frecuentista de la Probabilidad no tiene sentido, serı́a importante saber si desde el
punto de vista del Modelo Axiomático de la Probabilidad existe una Ley
emanada de sus axiomas que sea la contraparte teórica de la regularidad
estadı́stica.
1
2
CAPÍTULO 1. CONVERGENCIA
Esta Ley conocida como La Ley de los Grandes Números será estudiada
en las Secciones 2 y 3 de este Capı́tulo y esencialmente dice los siguiente:
Teorema 1.1 Ley de los Grandes Números. Sea (Xn )n≥1 una sucesión de
variables aleatorias independientes e idénticamente distribuidas con esperanza µ. Entonces
Pn
k=1
n
Xk
,
converge en algún sentido a µ.
Este Teorema no sólo nos dice que efectivamente existe una Ley emanada
de los axiomas sino que provee de lo que en Estadı́stica se conoce como un
estimador de µ. Definiremos y demostraremos esta propiedad para dos tipos
de convergencia, a saber, la convergencia casi segura y la convergencia en
probablidad.
Sin embargo, el hecho de que
Pn
k=1
n
Xk
≈ µ,
en ocasiones no es suficiente. Más precisamente, por ejemplo, en un contexto
de inferencia sea (Xn )n≥1 una sucesión de variables aleatorias independientes
e idénticamente distribuidas según F0 con media µ desconocida.
Pn
Supongamos que para cada n ≥ 1, Sn =
k=1 Xk y supongamos que
Sn
queremos probar con la ayuda de n que µ > 5. La Ley de los Grandes
Números nos dice que este cociente es muy cercano a µ para n suficientemente
grande, ası́ es que en primera instancia podrı́amos pensar que no es tan
descabellado. Sin embargo, se quiere más, es decir, se quiere dar un criterio
que nos diga algo en el siguiente sentido:
Rechace la Hipótesis de µ > 5 si Snn excede a un cierto número.
Si se conociera la distribución de Snn se podrı́a exhibir ese cierto número
que garantizara que este cociente lo excede sólo con probabilidad α (por
ejemplo, α = 0.05).
Sin embargo, lo que ocurre es que no conocemos su distribución, supongamos que “alguien” demostró que su distribución converge a una distribución
conocida cuando n → ∞. Entonces se podrı́a usar la distribución lı́mite como
una aproximación.
El Teorema de Lı́mite Central es en este sentido y dice lo siguiente:
1.2. CONVERGENCIA CASI SEGURA
3
Teorema 1.2 Sea (Xn )n≥1 una sucesión de variables aleatorias independientes, idénticamente distribuidas con media µ y varianza σ 2 , entonces
Sn − nµ
√
lim P
≤ x = P [X ≤ x],
n→∞
σ n
donde X es una variable aleatoria N (0, 1).
El lı́mite del Teorema anterior es un lı́mite de las funciones de distribución
y se conoce como convergencia en distribución. P
En todo este Capı́tulo denotaremos por Sn = nk=1 Xk .
1.2
Convergencia Casi segura
En toda esta sección consideraremos (Ω, F, P ) un espacio de probabilidad
fijo. Las sucesiones de variables aleatorias estarán definidas en este espacio.
Definición 1.1 Convergencia Puntual. Una sucesión de variables aleatorias
(Xn )n≥1 se dice que converge en el punto ω ∈ Ω si la sucesión de números
reales (Xn (ω))n≥1 converge.
Definición 1.2 Conjunto de Convergencia. El conjunto de puntos ω ∈ Ω
para los cuales la sucesión (Xn (ω))n≥1 converge será llamado el conjunto de
convergencia.
Sea (Xn )n≥1 una sucesión de variables aleatorias y C su conjunto de convergencia. Consideremos la función X : Ω → R definida por:
limn→∞ Xn (ω), si ω ∈ C,
X(ω) =
(1.1) {variablelimite}
c,
si ω ∈ C c .
Para ω ∈ Ω fijo tal que Xn (ω) no converge a X(ω), entonces de la definición
de convergencia de sucesiones de números reales, existe ε > 0 tal que
|Xn − X| > ε,
para una infinidad de n0 s.
Obsérvese que para cada ε > 0
{ω ∈ Ω||Xn (ω) − X(ω)| > ε, para una infinidad de n0 s}
∞ [
∞
\
=
{ω ∈ Ω| |Xl (ω) − X(ω)| > ε}
=
n=1 l=n
∞
∞ [
\
n=1 l=n
[ |Xl − X| > ε]
(Notación).
(1.2)
4
CAPÍTULO 1. CONVERGENCIA
Luego entonces, el complemento del conjunto de convergencia C estará dado
por:
"∞ ∞ #
∞
[
\[
1
.
(1.3) {conjuntoconve
Cc =
|Xl − X| >
k
k=1 n=1 l=n
Claramente el conjunto de convergencia es un evento y podemos concluir
entonces que la sucesión (Xn )n≥1 , converge a X sobre C.
Definición 1.3 Convergencia Casi Segura. Una sucesión de variables aleatorias (Xn )n≥1 se dice que converge casi seguramente si su conjunto de convergencia tiene probabilidad 1.
La convergencia casi segura la denotaremos por
c.s.
Xn → X
donde X es la variable aleatoria definida por la expresión (1.1).
Obsérvese que:
c.s.
Xn → X,
P [Xn , no converge a X] = P [C c ] = 0
Ejemplo 1.1 Consideremos el experimento de elegir un punto al azar en el
intervalo (0, 1). Para cada n ≥ 1, definimos
Xn (ω) =
1
[nω],
n
donde [·] denota la parte entera de ·.
Es claro que
lim Xn (ω) = X(ω) = ω,
n→∞
para toda ω ∈ Ω.
c.s.
Por lo tanto, Xn → X.
Ejemplo 1.2 Sea (Xn )n≥1 una sucesión de variables aleatorias independientes, idénticamente distribuidas, con función de distribución F . Supongamos que F (x) < 1 para toda x < x0 , x0 ∈ R ∪ ∞. Para cada n ≥ 1 sea
X(n) definida por:
X(n) = max{X1 , ..., Xn }
Entonces
lim X(n) = x0 ,
n→∞
casi seguramente
1.2. CONVERGENCIA CASI SEGURA
5
Para cada ω ∈ Ω fijo, la sucesión (X(n) (ω))n≥1 es una sucesión creciente. Por
lo tanto, si x0 = ∞, converge a un lı́mite finito si y sólo si está acotada. Sea
C = {ω ∈ Ω| (X(n) (ω))n≥1 converge a un lı́mite finito}
= {ω ∈ Ω| (X(n) (ω))n≥1 , está acotada}.
Demostraremos que
P [C] = 0.
Obsérvese que
C=
∞
[
[X(n) < M, n ≥ 1],
M =1
por lo tanto, es suficiente probar que para cada M ∈ IN ,
P [X(n) < M, n ≥ 1] = 0
Ası́, para toda k ≥ 1 y puesto que las variables aleatorias Xn , n ≥ 1 son
independientes
P [X(n) < M, n ≥ 1] ≤ P [X(n) < M, 1 ≤ n ≤ k] = F k (M ).
Por hipótesis F (x) < 1 para toda x ∈ R, lo que implica que F k (M ) → 0
cuando k → ∞. Por lo tanto,
P [X(n) < M, n ≥ 1] = 0.
Si x0 < ∞, para cada ω ∈ Ω la sucesión converge, ya que P [X(n)) ≤ x0 ] =
1. y el lı́mite es menor o igual que x0 . Para cada M < x0 , sea
C M = {ω ∈ Ω| lim X(n) (ω) ≤ M },
n→∞
lim X(n) (ω) ≤ M, si y sólo si X(n) < M, n ≥ 1.
n→∞
Siguiendo la misma demostración que en el caso anterior, tenemos que
P [C M ] = 0,
para toda M < x0 ,
por lo tanto el lı́mite es igual a x0 .
2
6
CAPÍTULO 1. CONVERGENCIA
Ejemplo 1.3 Consideremos una sucesión infinita de ensayos Bernoulli independientes con probabilidad p (< 1) de éxito. Sea
n, si los primeros n ensayos fueron fracaso,
Xn (ω) =
k, si el primer éxito ocurrió en el ensayo k, k ≤ n.
c.s.
Entonces, Xn → X, donde X es una variable aleatoria Geométrica con
parámetro p.
Para cada ω ∈ Ω la sucesión (Xn (ω))n≥1 es no-decreciente, por lo tanto,
la sucesión no converge si y sólo si tiende a infinito. Probaremos que la
probabilidad del conjunto de las ω ∈ Ω tales que la sucesión tiende a ∞ tiene
probabilidad cero:
"
#
\
P [lim Xn = ∞] = P
[Xn = n] ≤ P [Xn = n] = (1 − p)n−1 → 0.
n
n≥1
Es claro de la definición que si (Xn (ω))n≥1 converge, esto implica que es
constante a partir de una cierta k ≥ 1, donde k es el ensayo en el que ocurre
el primer éxito. Por lo tanto la variable aleatoria lı́mite es una variable
aleatoria Geométrica con parámetro p.
2
Finalmente demostraremos La Ley de los Grandes Números mencionada en
la Introducción.
Teorema 1.3 Ley Fuerte de Los Grandes Números. (Kolmogorov). Sea
(Xn )n≥1 una sucesión de variables aleatorias independientes e idénticamente
distribuidas. Entonces
Sn
converge casi seguramente,
n
si y sólo si las variables aleatorias Xn tienen esperanza finita y
Sn c.s.
→ E[X1 ],
n
donde Sn =
Pn
k=1
Xk .
1.2. CONVERGENCIA CASI SEGURA
7
La demostración de la Ley Fuerte de los Grandes Números es complicada
y está más allá de los conocimientos del nivel de este libro, por lo que nos
contentaremos con demostrar una Ley Fuerte diferente cuya demostración es
muy simple.
El resultado que probaremos aún cuando impone condiciones más fuertes
sobre la existencia de los momentos de las variables aleatorias, no requiere
que éstas sean idénticamente distribuidas. Recuérdese que de la expresión
1.3 demostrar la convergencia casi segura es equivalente a probar que la
probabilidad del complemento del conjunto de convergencia C es igual a cero.
El Lema siguiente conocido como el Lema de Borel-Cantelli será fundamental
en la demostración.
Lema
P 1.1 Lema de Borel-Cantelli. Sea (An )n≥1 una sucesión de eventos tal
que n≥1 P [An ] < ∞. Entonces
0
P [An , ocurra para una infinidad de n s] = P [
∞ [
∞
\
Al ] = 0.
n=1 l=n
Demostración
De la definición se tiene que para toda n ≥ 1,
"∞ #
"∞ ∞ #
∞
X
[
\[
P [Al ]
Al ≤
P
Al ≤ P
n=1 l=n
l=n
l=n
P
P∞
[An ] < ∞, por lo tanto, ∞
Por hipótesis T
l=n P [Al ] → 0 cuando n →
n=1 P S
∞
∞
∞, de donde P [ n=1 l=n Al ] = 0.
2
Teorema 1.4 Una Ley Fuerte de los Grandes Números. Sea (Xn )n≥1 una
sucesión de variables aleatorias independientes, con cuarto momento finito.
Supongamos que para toda n ≥ 1, E[Xn ] = µ, V ar(Xn ) = σ 2 y E[(Xn −
µ)4 ] = ρ. Entonces
Sn c.s.
→ µ,
n
P
donde Sn = nk=1 Xk .
Demostración
8
CAPÍTULO 1. CONVERGENCIA
De la expresión 1.3, es suficiente demostrar que para toda ε > 0,
Sn
P − µ > ε, o.i. = 0.
n
Por el Lema anterior basta probar que
∞
X
Sn
P − µ > ε < ∞.
n
n=1
De la Desigualdad de Bienaymé-Chebyshev y puesto que las variables aleatorias Xk son independientes, con varianza y cuartos momentos centrales comunes se tiene
#
" n
X
Sn
P − µ > ε = P (Xk − µ > εn
n
k=1
n
X
1
≤
E[( (Xk − µ))4 ]
(εn)4
k=1
1
[nE[(X1 − µ)4 ] + n(n − 1)(E[(X1 − µ)2 ])2
(εn)4
K
≤
,
n2
P
2
donde K es una constante. Ya que n≥1 n12 = π6 , se obtiene que
∞
X
Sn
P − µ > ε < ∞.
n
n=1
=
2
Una consecuencia de la Ley de los Grandes Números es la aproximación de
la distribución de una variable aleatoria por lo que llamaremos el Proceso
Empı́rico y que definimos a continuación:
Sea (Xn )n≥1 una sucesión de v.a.i.i.d. Para cada x ∈ R y n ∈ N definimos
1, si Xn ≤ x,
11[Xn ≤x] =
0, si Xn > x,
y
n
Sn (x)
1X
Nn (x) =
=
11[Xn ≤x] .
n
n i=1
1.3. CONVERGENCIA EN PROBABILIDAD
9
A Las variables aleatorias Nn (x), x ∈ R se le conoce como el Proceso
Empı́rico.
Corolario 1.1 Sea (Xn )n≥1 una sucesión de v.a.i.i.d. con función de distribución F . Entonces, para cada x ∈ R
c.s.
Nn (x) → F (x),
cuando n → ∞
La demostración se sigue inmediatamente de la Ley Fuerte de los Grandes
Números. De hecho se tiene un resultado más fuerte que no demostraremos:
Teorema 1.5 Teorema de Glivenko-Cantelli. Sea (Xn )n≥1 una sucesión de
v.a.i.i., con distribución F . entonces
c.s.
sup |Nn (x) − F (x)| → 0,
cuando n → ∞.
x∈R
1.3
Convergencia en Probabilidad
Un tipo de convergencia más débil que la convergencia casi segura es la llamada convergencia en probabilidad. Antes de dar la definición consideremos
el siguiente ejemplo que es muy ilustrativo.
{ejeconvprob}
Ejemplo 1.4 Consideremos nuevamente el experimento de elegir un punto
al azar en el intervalo (0, 1) y sea (Xnk )n≥1,0≤k≤n−1 una sucesión de variables
aleatorias definidas de la de siguiente manera:
, si 0 ≤ k ≤ n − 1,
1, nk ≤ ω < k+1
n
Xnk (ω) =
0, en otro caso.
Esto es, tenemos el siguiente arreglo:
X10
X20 ,
X30 ,
..
.
X21
X31 , X32
..
..
.
.
Xn0 , Xn1 , Xn2 , · · · , Xnn−1
..
..
..
..
..
.
.
.
.
.
10
CAPÍTULO 1. CONVERGENCIA
GRAFICAS
Es posible escribir el arreglo como una sola sucesión, (Ym )m≥1 de la siguiente manera:
Yn(n−1)/2+k+1 = Xnk ,
Obsérvese que para cada ω ∈ (0, 1) hay una infinidad de parejas (n, k) para
las que Xnk = 0 y también una infinidad para las que Xnk = 1. Por lo
tanto, para toda ω ∈ (0, 1) la sucesión (Ym (ω))m≥1 no converge, es decir, su
conjunto de convergencia tiene probabilidad cero.
Sin embargo, es claro que para n suficientemente grande, las variables
aleatorias Xnk son muy parecidas a la variable aleatoria X ≡ 0. De hecho
son iguales a cero excepto en un conjunto de probabilidad n1 , lo que sugiere
la siguiente definición:
Definición 1.4 Convergencia en Probabilidad. Una sucesión (Xn )n≥1 de
variables aleatorias se dice que converge en probabilidad a la variable aleatoria
X si para cada ε > 0 se satisface:
lim P [|Xn − X| > ε] = 0
n→∞
P
La convergencia en probabilidad será denotada por Xn → X.
Claramente la sucesión de variables aleatorias (Ym )m≥1 del Ejemplo 1.4 converge en probabilidad a la variable aleatoria X ≡ 0.
A continuación presentamos algunas de las Leyes Débiles de los Grandes
Números. El apellido Débiles se refiere a la convergencia en probabilidad y
no casi segura que como hemos visto con el Ejemplo 1.4 es más débil.
Teorema 1.6 Sea (Xn )n≥1 una sucesión de variables aleatorias, entonces
1. Ley Débil de los Grandes Números de Bernoulli. Si X1 , X2 , ...., Xn , ...
son variables aleatorias independientes idénticamente distribuidas, con
distribución Bernoulli con parámetro p, entonces
Sn P
→ p.
n
2. Ley Débil de los Grandes Números. Si X1 , ..., Xn , ... son variables
aleatorias independientes idénticamente distribuidas con E[X1 ] = µ,
entonces
Sn P
→ µ.
n
1.3. CONVERGENCIA EN PROBABILIDAD
11
3. Ley Débil de los Grandes Números de Poisson. Si X1 , ..., Xn , ... son
variables aleatorias independientes, y para cada i, Xi tiene distribución
Bernoulli con parámetro pi , i ≥ 1, entonces
Sn
Sn P
−E
→ 0.
n
n
4. Ley Débil de Chebyshev. Si X1 , ..., Xn , ... son variables aleatorias no
correlacionadas, es decir, Cov(Xi , Xj ) = 0 para i 6= j, y V ar(Xi ) ≤
M < ∞ para toda i ≥ 1, entonces
Sn P
Sn
→ 0.
−E
n
n
5. Ley Débil de Markov. Si X1 , ..., Xn , ... son variables aleatorias con segundo momento finito tales que:
Sn
V ar
→ 0, Condición de Markov,
n
Entonces
Sn P
Sn
−E
→ 0.
n
n
Demostración
De estas Leyes puede demostrarse fácilmente que
(i) La Ley Débil de Markov es más fuerte que la de Chebyshev y que la Ley
Débil.
(ii) La Ley Débil de Chebyshev es más fuerte que la de Poisson.
(iii) La Ley Débil de Poisson es más fuerte que la de Bernoulli.
(iv) La Ley Débil es más fuerte que la de Bernoulli.
Luego entonces, es suficiente demostrar la Ley de Markov, la cual se sigue de
la Desigualdad de Bienaymé-Chebyshev:
Dada ε > 0, se tiene:
Sn
Sn
V
ar
S
n
n
>ε ≤
P − E
.
n
n ε2
12
CAPÍTULO 1. CONVERGENCIA
La Condición de Markov implica ası́ la convergencia en probabilidad.
2
Como hemos visto en el Ejemplo 1.4 la convergencia en probabilidad no
implica la convergencia casi segura, sin embargo, el recı́proco si es válido:
c.s.
Teorema 1.7 Sea (Xn )n≥1 una sucesión de variables aleatorias. Si Xn → X
P
entonces Xn → X.
Demostración
c.s.
Supongamos que Xn → X y sea C su conjunto de convergencia. Entonces
para n ≥ 1 y ε > 0:
[
[|Xn − X| > ε] ⊂
[|Xk − X| > ε].
k≥n
Sea
B(ε) =
∞
\ [
[|Xk − X| < ε],
n≥1 k=n
entonces B(ε) ⊂ C c , por lo tanto P [B(ε)] = 0. Por otro lado,
0 = P [B(ε)] = lim P [
n→∞
[
[|Xk − X| > ε],
k≥n
de donde se obtiene el resultado.
2
Volviendo al Ejemplo 1.4 se puede observar que si bien el conjunto de convergencia de la sucesión tiene probabilidad 0 se puede considerar una subsucesión
que converge casi seguramente a la variable aleatoria X = 0, por ejemplo la
subsucesión (Xn1 )n≥1 . Esto no es casual, de hecho es un resultado general,
que enunciamos a continuación pero que omitimos su demostración.
P
Teorema 1.8 Sea (Xn )n≥1 una sucesión de variables aleatorias. Si Xn → X
c.s.
entonces existe una subsucesión (Xnk )nk ≥1 tal que Xnk → X.
1.4. CONVERGENCIA EN DISTRIBUCIÓN
1.4
13
Convergencia en Distribución
En las definiciones de convergencia casi segura y en probabilidad, se consideró
un espacio de probabilidad (Ω, F, P ) fijo en donde estaban definidas todas
las variables aleatorias. La convergencia en distribución que se definirá a
continuación es un concepto que se refiere no a una propiedad de convergencia
de las variables aleatorias sino de las funciones de distribución. Ası́, las
variables aleatorias en consideración en esta sección pueden estar definidas
en distintos espacios de probabilidad.
Definición 1.5 Sea (Xn )n≥1 una sucesión de variables aleatorias y (Fn )n≥1
la sucesión correspondiente de funciones de distribución. Diremos que Xn
converge en distribución a (la variable aleatoria) X con función de distribución F , si
lim Fn (x) = F (x),
n→∞
para todo x ∈ R, punto de continuidad de F . La convergencia en distribución
D
D
la denotaremos Xn → X (o Fn → F ).
Ejemplo 1.5 Para cada n ≥ 1 sea Xn una variable aleatoria uniforme sobre
D
el intervalo (− n1 , n1 ). Entonces Xn → X, donde P [X = 0] = 1.
La función de distribución Fn de Xn está dada por

si x ≤ − n1 ,
 0,
1
(1 + nx), si − n1 < x < n1 ,
Fn (x) =
 2
1,
si x ≥ n1 .
Cuando n → ∞ la sucesión de funciones Fn tiende a G, donde

 0, si x < 0,
1
, si x = 0,
G(x) =
 2
1, si x > 0.
La función G no es una función de distribución ya que no es continua por la
derecha. Consideremos la función de distribución F de la variable aleatoria
X que es la constante igual a 0, es decir,
0, si x < 0,
F (x) =
1, si x ≥ 0,
14
CAPÍTULO 1. CONVERGENCIA
D
Claramente, de la definición de convergencia en distribución Xn → X, pues
Fn (x) converge a F (x) para toda x 6= 0 y el 0 no es un punto de continuidad
de la función F .
Obsérvese que en este ejemplo las variables aleatorias Xn pueden estar
definidas en distintos espacios de probabilidad.
{constanten}
Ejemplo 1.6 Para cada n ≥ 1 sea Xn la variable aleatoria constante igual
a n, es decir, P [Xn = n] = 1. La función de distribución Fn de Xn está dada
por:
Fn (x) = 11[n,∞) (x),
Luego, entonces
lim Fn (x) = 0,
n→∞
para toda x ∈ R.
Sin embargo, la función idénticamente cero no es una función de distribución.
Esto es, aún cuando para toda x ∈ R el limn→∞ Fn (x) existe, el lı́mite no
es función de distribución, por lo tanto la sucesión (Xn )n≥1 no converge en
distribución.
Ejemplo 1.7 Sea X una variable aleatoria N (0, 1). Para cada n ≥ 1 sea
Xn la variable aleatoria definida por:
Xn (ω) = (−1)n X(ω).
D
La distribución de Xn es también N (0, 1), por lo tanto, Xn → X.
De este ejemplo se puede concluir que aún cuando las variables aleatorias
estén definidas en el mismo espacio de probabilidad, la convergencia en distribución no nos da información acerca de la convergencia de las variables
aleatorias, pues en este caso,
2X, si n es par,
|Xn − X| =
0,
si n es impar.
Ejemplo 1.8 Sea (Xn )n≥1 una sucesión de variables aleatorias independientes e idénticamente distribuidas Exponenciales con parámetro λ > 0. Sea
Mn = max {X1 , ..., Xn } y
Zn = λMn − log n,
1.4. CONVERGENCIA EN DISTRIBUCIÓN
15
enotonces, para cada x ∈ R y n tal que x + log n > 0
Fn (x) = P [Zn ≤ x] = P [Mn ≤
1
(x + log n)]
λ
1
= (1 − exp(−λ (x + log n))n
λ
−x n
e
.
=
1−
n
Por lo tanto,
lim Fn (x) = exp(−e−x ).
n→∞
La función
F (x) = exp(−e−x ),
es una función de distribución llamada la distribución Gumbel. Es decir
D
Zn → Z, donde Z es una variables aleatoria con distribución Gumbel.
Ejemplo 1.9 Sea (Xn )n≥1 una sucesión de variables aleatorias uniformes
en (0, 1). Sea Mn = max {X1 , ..., Xn } y
Zn = n(Mn − 1).
Claramente las variables aleatorias Zn toman valores en (−∞, 0). Entonces,
para cada x > 0,
P [Zn ≤ x] = 1,
Para x < 0 y n tal que
x
n
para toda n ≥ 1.
+ 1 ∈ (0, 1), tenemos
x
Fn (x) = P [Zn ≤ x] = P [Mn ≤ + 1]
n
x
n
=
+1 .
n
De donde
lim Fn (x) = exp(−(−x)),
n→∞
si x < 0.
La función
F (x) =
1,
si x > 0,
exp(−(−x)), si x ≤ 0,
16
CAPÍTULO 1. CONVERGENCIA
es una función de distribución llamada Distribución Weibull con parámetro
α = 1, es decir
D
Zn → Z,
donde Z es una variable aleatoria con distribución Weibull con parámetro
α = 1.
En general, es bastante difı́cil demostrar la convergencia en distribución pues
la forma de estas funciones en ocasiones (como por ejemplo, en el caso Gaussiano) no es cerrada, es decir, se expresa en términos de una integral. No sólo
eso sino que como veremos más adelante en lo que llamaremos el Teorema de
Lı́mite Central, los resultados importantes de convergencia en distribución
se refieren no a sucesiones particulares de variables aleatorias, sino a sucesiones de variables aleatorias independientes e idénticamente distribuidas con
la única condición adicional de la existencia de segundo momento finito.
Por otro lado, recuérdese que la función caracterı́stica caracteriza a la
función de distribución, por lo que intuitivamente se podrı́a esperar alguna
relación entre la convergencia de las funciones caracterı́sticas de una sucesión
de variables aleatorias y su convergencia en distribución. El siguiente Teorema (de Lévy-Cramer o Teorema de Continuidad de Lévy) es en este sentido.
Teorema 1.9 Teorema de Lévy-Cramer o de Continuidad de Lévy. Una
sucesión de variables aleatorias (Xn )n≥1 converge en distribución a la variable aleatoria X si y sólo para toda t ∈ R la sucesión (Φn (t))n≥1 de sus
corespondientes funciones caracterı́sticas converge a la función caracterı́stica
Φ(t) de X.
Obsérvese que en el Ejemplo 1.6 la función caracterı́stica de Xn está dada
por:
Φn (t) = eitn ,
y limn→∞ eitn no existe, pues eitn = cos(tn) + isen(tn), por lo que tanto su
parte real como imaginaria oscilan cuando n → ∞.
Teorema 1.10 Teorema de Lı́mite Central (Clásico). Sea (Xn )n≥1 una sucesión
de variables aleatorias independientes idénticamene distribuidas con esperanza µ y varianza σ 2 . Entonces
Sn − nµ D
√
→ X,
nσ
donde X es una variable aleatoria N (0, 1).
1.4. CONVERGENCIA EN DISTRIBUCIÓN
17
Demostración
Por el Teorema de Lévy-Cramer es suficiente demostrar que las funciones
caracterı́sticas convergen. Para cada n ≥ 1, sea Yn = Xnσ−µ , entonces
n
Sn − nµ
1 X
√
=√
Yj .
σ n
n j=1
Las variables aleatorias Y1 , Y2 , ... son independientes e idénticamente distribuidas con media cero y varianza uno. Luego entonces
"
!#
n
1 X
Sn − nµ
= E exp it √
Yj
Φn (t) = E exp it √
σ n
n j=1
n
Y
1
=
E exp it √ Yj
n
j=1
n
t
.
ΦY1 √
n
donde ΦY1 es la función caracterı́stica de Y1 (de hecho de todas las variables
aleatorias Yn ).
De la expansión de la función caracterı́stica ?? se obtiene:
1
t2
+o
.
Φn (t) = 1 −
2n
n
h
i
2
t2
+ o n1 → e−t /2 que es la función caracterı́stica
Cuando n → ∞, 1 − 2n
de una variable aleatoria N (0, 1).
2
Ejemplo 1.10 Una Aplicación a Muestreo. En un lote de focos hay una
fracción desconocida p de focos defectuosos. Utilizando el muestreo con reemplazo, se desea encontrar p con un error no mayor de 0.005.
Obsérvese que
Número de focos defectuosos
.
Número de focos en el lote
Sean X1 , ..., Xn variables aleatorias independientes Bernoulli con parámetro
c.s.
p. De la Ley de Fuerte de los Grandes Números, tenemos que Snn → p, por
p=
18
CAPÍTULO 1. CONVERGENCIA
lo que para n grande se puede considerar a Snn como un estimador de p. La
Ley de Los Grandes Números no da suficiente información pues no dice cuál
es la velocidad de convergencia. Más precisamente se desea encontrar n tal
que
Sn
P − p < 0.005 > 0.95,
n
Obsérvese que
Sn
P − p < 0.05 = P
n
#
"
S − np 0.05n
n
.
< p
p
p(1 − p)n p(1 − p)n
Por el Teorema de Lı́mite Central se tiene que
S − np D
p n
→ X,
p(1 − p)n
donde X es una variable aleatoria N (0, 1).
Ası́, sea z0 tal que N (z0 ) − N (−z0 ) = 0.95, donde N (·) = P [X ≤ ·].
(Este valor se puede encontrar en las tablas de la distribución Gaussiana) y
n suficientemente grande tal que
√
0.05 n
p
≥ z0 ,
p(1 − p)
esto es,
n ≥ 400p(1 − p)z02 .
En esta última expresión interviene p que es deconocida, sin embargo, independientemente de su valor
1
≥ p(1 − p).
4
Luego entonces basta tomar n ≥ 100z02 .
1.5
Evolución del Problema
La Ley de los Grandes Números y el teorema de Lı́mite Central presentados son resultados sobre la convergencia de sumas normalizadas de variables aleatorias independientes e idénticamente distribuidas, las primeras
1.5. EVOLUCIÓN DEL PROBLEMA
19
demostraciones (en el caso de variables aleatorias Bernoulli) datan del siglo
XVIII con los trabajos de Bernoulli, Laplace y De Moivre.
Los resultados que se presentan aquı́ son los llamados clásicos, y como
hemos visto se imponen condiciones fuertes sobre las distribuciones de las
variable aleatorias. Obsérvese que en los casos descritos las variables aleatorias se centran con respecto a la media y se normalizan con respecto a la
varianza, además de que se supone que son independientes e idénticamente
distribuidas.
Sin embargo, dada una sucesión arbitraria de variables aleatorias podrı́amos
preguntarnos si es posible la existencia de una Ley de Grandes Números y un
Teorema de Lı́mite Central en algún sentido. Más precisamente este problema podrı́a plantearse de la siguiente manera:
Dada una sucesión (Xn )n≥1 de variables aleatorias, existen constantes
(an )n≥1 , (bn )n≥1 tales que
Sn
− bn ,
an
converja (en probabilidad) a una constante, o (en distribución) a una distribución Gaussiana? Algunas de las respuestas a estas preguntas pueden
consultars en ??, por ejemplo, cuando las variables aleatorias son independientes más no idénticamente distribuidas. Resultados en este sentido existen
también cuando se debilita la condición de independencia ??
En este siglo, Lévy plantea un problema más general:
Encontrar la familia de posibles distribuciones lı́mites de sumas normalizadas de variables aleatorias independientes e idénticamente distribuidas, es
decir, sin imponer condiciones sobre la existencia de los momentos. Lévy
considera el caso de segundo momento infinito y primer momento finito o
infinito.
Naturalmente, el problema de posibles distribuciones lı́mites de sumas
normalizadas de variables aleatorias independientes no necesariamente idénticamente
distribuidas surge al mismo tiempo puede consultarse ??.
20
CAPÍTULO 1. CONVERGENCIA
Tarea III
Probabilidad II
1. Demuestre que la Ley Débil de Poisson es un caso particular de la Ley
Débil de Chebyshev.
2. Para cada n ≥ 1 sea Xn una variable aleatoria N (n, σ 2 ). Las variables
aleatorias Xn , n ≥ 1 convergen en distribución?.
3. Para cada n ≥ 1 sea Xn una variable aleatoria N (µ, n1 ). Las variables
aleatorias Xn , n ≥ 1 convergen en distribución?.
4. Sea (Xn )n≥1 una sucesión de variables aleatorias independientes, idénticamente
distribuidas con distribución Pareto con parámetros α, K > 0 dada por:
0,
si x < K 1/α ,
F (x) =
1 − Kx−α , si x ≥ K 1/α .
D
Mn
Sea Mn = max {X1 , ..., Xn } y Zn = (Kn)
1/α . Demuestre que Zn → Z
donde Z es una variable aleatoria con distribución dada por:
0,
si x < 0,
FZ (x) =
exp(−x−α ), si x ≥ 0.
A FZ se le conoce como la distribución Fréchet con parámetro α > 0.
5. Para los incisos (i)-(iv) genere (en el programa de computación que
sepa usar) muestras de variables aleatorias X1 , ..., Xn , independientes
e idénticamente distribuidas.
P
(a) Calcule Sn = ni=1 Xi ,
(b) Calcule Snn compárelo con el resultado de la Ley de los Grandes
Números, para n = 10, 100, 1000, .
(c) Calcule para la muestra generada el proceso empı́rico N (x) definido
en las notas, compare los resultados con la distribución de las variables aleatorias. (Teorema de Glivenko-Cantelli).
(i) Variables aleatorias Bernoulli con parámetro p (para tres distintos
valores del parámetro).
1.5. EVOLUCIÓN DEL PROBLEMA
21
(ii) Variables aleatorias Binomiales con parámetros k, p (para tres
valores distintos de (k, p)).
(iii) Variables aleatorias Exponenciales con parámetro λ > 0 (para
tres valores distintos del parámetro).
(iv) Variables aleatorias Gamma con parámetros α, λ. (para tres distintos valores de los parámetros.)
P
6. Compare la distribución de ni=1 Xi con la aproximación del Teorema
de Lı́mite Central, para las variables aleatorias (i)-(iv) del P
ejercicio
n
anterior. Es decir, considere X1 , ..., Xn v. a.i.i.d. Sn =
i=1 Xi ,
entonces
x − nµ
,
P [Sn ≤ x] ≈ P X ≤ √
nσ 2
donde E[Xi ] = µ,V ar(Xi ) = σ 2 y X es una variable aleatoria N (0, 1).
No use simulaciones en este ejercicio sino la distribución exacta. Para
n = 10, 30, 50.
Descargar