1 Esperanza Matemática

Anuncio
1
Esperanza Matemática
Los conceptos de σ-álgebra, medida (en particular las medidas de probabilidad), y función
medible (en particular las variables aleatorias), han surgido de los esfuerzos hechos en el
siglo XIX y principios del XX para ampliar el concepto de integral a clases cada vez más
amplias de funciones. La ampliación definitiva fue llevada a cabo por Lebesgue, después
de que Borel abriera el camino. Lebesgue trabajo con la medida especial conocida como
“medida de Lebesgue”. Radon aplicó el mismo punto de vista, trabajando con medidas
de “Stieljes-Lebesgue”. Por último, Frechet, usando aún el punto de vista de Lebesgue,
prescindió de las restricciones sobre el espacio de medida sobre el que estaban definidas
las funciones numéricas a integrar.
La axiomática de la probabilidad de Kolmogorov, introduciéndola como una medida
sobre una σ-álgebra “de los sucesos”, supuso un importante avance de la Teorı́a de la
Probabilidad, que tuvo desde entonces el importante apoyo de la Teorı́a de la Medida
en su evolución. Asi, el concepto de Esperanza Matemática, que juega en el Cálculo de
Probabilidades un papel preponderante como medida de centralización, pasó de ser una
simple media aritmética ponderada, calculable en ciertos casos, a su generalización como
una “integral respecto de una medida de probabilidad”. Al tiempo, la Teorı́a de la Probabilidad ha enriquecido notablemente a la Teorı́a de la Medida no sólo por la justificación
práctica que supone, sino por la abundancia de nuevas ideas que ha introducido y por los
nuevos métodos de demostración que ha impuesto.
Lebesgue tiene dos definiciones equivalentes de integral, una descriptiva a partir de
sucesiones “convenientes” (mas propia del Análisis Matemático), que básicamente consiste
en la completización del espacio de las variables simples respecto de la distancia inducida
por la integral, y otra constructiva. Usaremos la definición constructiva de integral, de la
cual hay muchas variantes, pero las ideas básicas son siempre las mismas y, en general, la
integral se comienza definiendo siempre para funciones simples. Aunque no excluiremos
los valores infinitos, sin embargo deberemos evitar la aparición de la expresión ∞ − ∞ a
la que no daremos sentido.
Una de las propiedades esenciales de la integral es la de ser continua para limites
monótonos, y en la construcción aue vamos a realizar apuntaremos a conseguir rápidamente
este resultado.
Utilizaremos indistintamente los términos Esperanza Matematica (o Esperanza para
abreviar), media
e integral,
y para una
variable aleatoria dada, X,R representaremos su
R
R
R
esperanza por XdP, X(ω)dP (ω), X(ω)P (dω) o EX e incluso X cuando no haya
lugar a dudas sobre el espacio probabilı́stico (Ω, σ, P ) que consideraremos fijo en todo el
tema.
Como generalización natural del concepto de media aritmética, e incluso del de centro
de gravedad en sentido fı́sico, comenzaremos por definir la Esperanza Matematica para
variables simples.
Definición 1.1 Dada una variable simple X = ni=1 xi IAi , xi ∈ <, Ai ∈ P
β, i = 1, ...n
llamaremos esperanza matemática (o integral) de X (respecto de P ) al valor ni=1 xi P (Ai ).
P
Para ver que la definicion es consistente habrá que probar que el valor asignado a la
integral no depende de la representación de X elegida.
1
Supongamos por tanto que
X=
n
X
xi IAi =
i=1
m
X
yj IBj ,
j=1
donde además podemos suponer que la primera representación es la “canónica”, es decir,
Ai = (X = xi ), i = 1, ..., n. Sea Γ = {C1 ∩ C2 ∩ ... ∩ Cm , Cj = Bj ó Bjc }. Claramente los
conjuntos de Γ forman una partición del espacio. Además es inmediato comprobar que
cada conjunto de Γ está contenido en uno y sólo un conjunto Ai (salvo que fuera vacı́o).
P
De hecho se tiene que Ai = D∈Γi D, siendo
Γi = {D ∈ Γ, D ⊂ Ai } = {D = C1 ∩ C2 ∩ ... ∩ Cm , con
Cj1 = Bj1 , ...Cjk = Bjk , y Cr = Brc si r ∈
/ {j1 , ..., jk }, tales que
k
X
yjp = xi }.
p=1
Por otra parte también es inmediato que Bj =
m
X
yj P (Bj ) =
m
X
D∈Γ, D⊂Bj
X
yj
j=1
j=1
P
D. Por tanto
P (D),
D∈Γ, D⊂Bj
y, desarrollando, resulta que para un D ∈ Γ, genérico, D = C1 ∩ C2 ∩ ... ∩ Cm , con Cj1 =
Bj1 , ...Cjk = Bjk , y Cr = Brc si r ∈
/ {j1 , ..., jk }, P (D) aparece en la suma k veces multiplicada por los correspondientes yj1 , ..., yjk , y reordenando
m
X
X
yj P (Bj ) =
j=1
D∈Γ
n X
X
i=1 D∈Γi
P (D)(
X
yj ) =
n
X
xi
i=1
P (D)(
i=1 D∈Γi
j: D⊂Bj
P (D)xi =
n X
X
X
P (D) =
n
X
X
yj ) =
j: D⊂Bj
xi P (Ai ),
i=1
D∈Γi
justificando la definición.
En particular se tiene (utilizando la descomposición canónica) que
EX =
n
X
i=1
xi P (X = xi ) =
n
X
xi P ◦ X
i=1
−1
(xi ) =
n
X
xi PX (xi ),
i=1
que prueba que la esperanza de X sólo depende de su distribución, y no del espacio en
que esté definida la variable.
De hecho, la esperanza puede considerarse como una ampliacion natural del concepto de
probabilidad, pues se tiene P (A) = E(IA ) para todo A ∈ σ y es la única prolongación de
ésta al espacio de las variables simples que es lineal y positiva. En la siguiente proposición
se obtienen las principales propiedades de la esperanza de variables simples.
2
Proposición 1.2 Sea S la clase de las variables aleatorias simples definidas en el espacio
(Ω, σ, P ). La esperanza matemática tiene sobre S las siguientes propiedades:
1.
2.
3.
4.
5.
6.
EIA = P (A) para todo A ∈ σ, E(k) = k, para toda constante k ∈ <.
Si X ∈ S y X ≥ 0, entonces EX ≥ 0.
E(kX) = kEX para toda k ∈ < y toda X ∈ S.
Si X, Y ∈ S, entonces E(X + Y ) = EX + EY .
Si X, Y ∈ S y X ≤ Y , entonces EX ≤ EY .
Si (Xn )n ↑ X (resp. (Xn )n ↓ X), siendo Xn , X ∈ S, entonces EXn ↑ EX (resp.
EXn ↓ EX).
Demostracion: 1) es consecuencia directa de la definición. P
2) es obvia si se escribe la variable en la forma canónica X = ni=1 xi I(X=xi ) , puesto que
P
entonces debe ser xi ≥ 0 para todo i = 1, 2..., n, y entonces EX = ni=1 xi P (X = xi ) ≥ 0.
Pn
3) se obtiene
fácilmente teniendo en cuenta que si X = i=1 IAi , entonces kX =
Pn
Pn
k i=1 xi IAi = i=1 (kxi )IAi , luego
E(kX) =
n
X
n
X
i=1
i=1
(kxi )P (Ai ) = k
xi P (Ai ) = kEX.
4) es inmediata a partir del hecho de que la esperanza de una variable simple no dependa
de la forma particular enPque se descomponga
como combinación lineal de indicadores de
P
conjuntos de σ: Si X = ni=1 xi IAi , Y = m
j=1 yj IBj , con Ai , Bj ∈ σ, es obvio que
X + Y = x1 IA1 + x2 IA2 + ... + xn IAn + y1 IB1 + y2 IB2 + ... + ym IBm ,
y entonces
E(X + Y ) = x1 P (A1 ) + ... + xn P (An ) + y1 P (B1 ) + ... + ym P (Bm ) = EX + EY.
Para probar 5) obsérvese que si X ≤ Y entonces Y − X ≥ 0 y, por otra parte, Y − X
también es una variable simple, luego de 2) obtenemos E(Y − X) ≥ 0, y de 3) y 4) que
E(Y − X) = EY − EX, luego EX ≤ EY.
Por las propiedades de linealidad y monotonı́a que hemos obtenido, para probar 6)
será suficiente probar que si Xn ↓ 0, entonces EXn → 0.
Si M = sup{x11 , x12 , ..., x1n1 }, siendo {x11 , x12 , ..., x1n1 } el conjunto de valores que toma
la variable X1 , es claro que para cualquier > 0, se tiene Xn ≤ M I{Xn >} + ; por las
propiedades ya probadas de la esperanza se tiene entonces EXn ≤ M P ({Xn > }) + ,
pero, como Xn ↓ 0, {Xn > } ↓ ∅, luego P ({Xn > }) ↓ 0, y se obtiene 0 ≤ lim EXn ≤ para todo > 0, y, en consecuencia EXn → 0. 2
Teniendo en cuenta que toda variable positiva es lı́mite creciente de variables positivas
simples, y la propiedad de continuidad monótona secuencial de la esperanza en S es
posible extender la definicion de esperanza también a variables positivas (el conjunto de
estas se denotará por L+
0.
3
Definición 1.3 Sea X ∈ L+
0 y (Xn )n una sucesion de variables simples tales que Xn ↑ X.
La esperanza de X es el valor (finito o infinito) EX = lim EXn . (Nótese que el lı́mite
existe por ser (EXn )n una sucesión creciente.)
Esta definición de esperanza necesita ser justificada demostrando que no existe ambigüedad:
que el valor adjudicado a EX no depende de la “sucesión aproximadora”. Con el siguiente lema preparamos además el argumento para probar fácilmente la monotonı́a de la
esperanza sobre L+
0.
Lema 1.4 Sean Xn , Y ∈ S, n ∈ N . Si Xn ↑ X, y X ≥ Y , entonces lim EXn ≥ EY.
Demostración: Definiendo las nuevas variables (simples) Zn = inf{Xn , Y } se consigue
una nueva sucesión monótona y convergente, Zn ↑ Y , ahora hacia una variable simple, que
además verifica Zn ≤ Y y Zn ≤ Xn para todo n. Las propiedades dadas en la proposición
1.2 aseguran entonces que EZn ≤ EY, EZn ≤ EXn y EZn ↑ EY , de donde
lim EXn ≥ lim EZn = EY.
(nótese de nuevo que la existencia del lı́mite lim EXn está garantizada por la monotonı́a
de la sucesión (Xn )n ). 2
Proposición 1.5 Sean (Xn )n e (Yn )n dos sucesiones de variables en S, tales que Xn ↑
X, Yn ↑ X. Entonces lim EXn = lim EYn (y, en consecuencia, la definición 1.3 es
consistente).
Demostración: De las convergencias Xn ↑ X, Yn ↑ X se deduce que lim Xn = X ≥
Yk y lim Yn = X ≥ Xk para todo k. El lema 1.4 asegura entonces que lim EXn ≥
EYk y lim EYn ≥ EXk para todo k, y, en consecuencia, lim EXn = lim EYn . 2
Respecto a la monotonı́a de la esperanza tenemos:
Proposición 1.6 Sean X, Y ∈ L+
0 . Si X ≤ Y entonces EX ≤ EY .
Demostración: Sean (Xn )n e (Yn )n dos sucesiones de variables en S, tales que Xn ↑
X, Yn ↑ Y . Entonces Y ≥ Xk para todo k y, por el lema 1.4, lim EYn ≥ EXk para
todo k, luego EY = lim EYn ≥ lim EXn = EX. 2
En particular se obtiene la propiedad (por otra parte obvia a partir de la definición):
EX ≥ 0 si X es una variable aleatoria positiva.
Otras propiedades de interés de la esperanza sobre las variables positivas se muestran
en la siguiente proposición.
Proposición 1.7 Sea L+
0 el conjunto de las variables aleatorias positivas en (Ω, σ, P ).
Entonces:
1. Si X ∈ L+
0 y c ≥ 0: E(cX) = cEX.
4
2. Si X1 , X2 ∈ L+
0 : E(X1 + X2 ) = EX1 + EX2 = E(sup(X1 , X2 )) + E(inf(X1 , X2 )).
3. Xn ∈ L+
0 , y Xn ↑ X ⇒ EXn ↑ EX.
Demostración: Todas las propiedades se demuestran a partir de las correspondientes de
la esperanza de variables simples dadas en la proposición 1.2.
1) Sean Xn ∈ S tales que Xn ↑ X. Entonces, si c ≥ 0, también cXn ∈ S y cXn ↑ cX.
Además por 3) en la proposición 1.2, E(cXn ) = cEXn . Por tanto se tendrá
E(cX) = lim E(cXn ) = lim cEXn = cEX.
2) Sean Xn1 , Xn2 ∈ S tales que Xn1 ↑ X1 , Xn2 ↑ X2 . Entonces
Xn1 + Xn2 ↑ X1 + X2 y Xn1 + Xn2 ∈ S.
Como E(Xn1 + Xn2 ) = EXn1 + EXn2 por 4) en la proposición 1.2, fácilmente obtenemos
E(X1 + X2 ) = lim E(Xn1 + Xn2 ) = lim(EXn1 + EXn2 ) = EX1 + EX2 .
Finalmente la igualdad E(X1 + X2 ) = E(sup(X1 , X2 )) + E(inf(X1 , X2 )) es consecuencia
inmediata de la identidad X1 + X2 = sup(X1 , X2 ) + inf(X1 , X2 ).
3) Sea para cada n (Ymn )m una sucesión de variables simples tales que Ymn ↑ Xn .
Definiendo las nuevas variables (simples)
Zm = sup Ymn ,
n:n≤m
obtenemos una nueva sucesión creciente que verifica Ymn ≤ Zm ≤ Xm para todo m ≥ n.
Entonces la monotonı́a de la esperanza sobre las variables simples nos asegura
EYmn ≤ EZm ≤ EXm si m ≥ n y EZm ≤ EZm+1 para todo m.
Haciendo m → ∞ y después n → ∞, obtenemos finalmente
X = lim Xm = lim Zm y lim EXm = lim EZm = E(lim Zm ) = E(lim Xm ) = EX.
2
La ampliación del campo de definición de la integral a variables cualesquiera está
basada en la búsqueda inmediata de linealidad conservando las propiedades de convergencia.
Definición 1.8 Sea X una variable aleatoria cualquiera. Si al menos uno de los valores
EX + , EX − es finito definimos la esperanza de X como el valor (posiblemente infinito)
EX = EX + − EX − .
Cuando los dos valores EX + y EX − son finitos (o, de forma equivalente, cuando EX
es finito) diremos que la variable X es integrable.
5
Puesto que |X| = X + + X − , de las propiedades de la integral sobre las variables
positivas se deduce de inmediato que una variable aleatoria, X, es integrable si y sólo
si lo es su módulo, |X|. Además en este caso la variable X debe ser finita casi seguro
(P (|X| = ∞) = 0):
Si X es integrable, de la desigualdad |X|I{|X|=∞} ≤ |X| se deduce
cP (|X| = ∞) ≤ E(|X|I{|X|=∞} ) ≤ E|X| para todo c > 0,
y haciendo tender c a ∞ obtendriamos, si suponemos P (|X| = ∞) > 0, la incompatibilidad ∞ = E|X| < ∞.
La siguiente proposición sintetiza las propiedades fundamentales de la esperanza matemática. También comenzaremos a utilizar de forma sistemática el calficativo “casi seguro”
para hacer referencia a propiedades que se verifican salvo a lo sumo en un conjunto de
probabilidad 0, ó, lo que representa la principal diferencia con el “casi siempre” habitual
en la teorı́a de integración de Lebesgue, cuando la propiedad es cierta en un conjunto de
probabilidad 0.
Proposición 1.9 Sean X e Y , con o sin subı́ndices, variables aleatorias cualesquiera.
1. (Teorema de anulación). La igualdad E|X| = 0 se da si y sólo si X = 0 casi seguro
(P (X = 0) = 1).
2. X ≥ 0 ⇒ EX ≥ 0.
3. E(cX) = cE(X) si existe EX.
4. E(X + Y ) = EX + EY si X + Y está bien definida y si X + e Y + (o X − e Y − son
integrables.
5. Si X = Y casi seguro, entonces EX = EY (si una de ellas existe también existe la
otra y sus valores, finitos o no, coinciden).
6. X ≤ Y casi seguro ⇒ EX ≤ EY si ambas existen. En particular |EX| ≤ E|X| si
EX existe.
7. (Teorema de la convergencia monótona).
• Xn ↑ X ⇒ EXn ↑ EX si EXn−0 < ∞ para algún n0 .
• Xn ↓ X ⇒ EXn ↓ EX si EXn+0 < ∞ para algún n0 .
Demostración:
1) Obsérvese que el estudio realizado hasta ahora sólo nos permite calcular la integral de
poco más que variables simples. Puesto que una variable positiva que toma una infinidad
numerable de valores puede escribirse fácilmente como lı́mite de simples, es inmediato el
cálculo, basado en la serie correspondiente, de su esperanza. Nuestra demostración estará
basada en el cálculo de la esperanza de variables adecuadas construidas a partir de una
variable, X, cualquiera. Sean las variables positivas
Y1 = 0I{X=0} + Σ∞
k=1 kI{k−1<|X|≤k} + ∞I{|X|=∞}
Y2 = 0I{X=0} + Σ∞
k=1
1
1
I 1
+ 1I{|X|>1} .
n + 1 { n+1 <|X|≤ n }
6
Es evidente que 0 ≤ Y2 ≤ |X| ≤ Y1 , y por tanto (al ser variables positivas), tenemos
0 ≤ EY2 ≤ E|X| ≤ EY1 .
Si X = 0 casi seguro, entonces EY1 = 0, y por tanto E|X| = 0.
Si, por el contrario, suponemos que E|X| = 0, entonces EY2 = 0, y debe ocurrir X = 0
casi seguro.
2) Ya se demostró en la proposición 1.7.
3) Si c ≥ 0 se tiene E(cX) = E(cX)+ − E(cX)− = E(cX + ) − E(cX − ) = cEX + −
cEX − = cEX.
Si, por el contrario, c < 0 : E(cX) = E(−c(−X)) = −cE(−X) = −c(E(−X)+ −
E(−X)− ) = −c(EX − − EX + ) = c(EX + − EX − ) = cEX.
4) Observemos en primer lugar que si X1 , X2 son dos variables positivas y X1 (ω) −
X2 (ω) 6= ∞ − ∞ en todo punto ω ∈ Ω, siendo una de ellas integrable, la variable X =
X1 − X2 es casi integrable y EX = EX1 − EX2 , ya que se tiene X + ≤ X1 y X − ≤
X2 (y por tanto X es casi integrable), y X + + X2 = X − + X1 (de donde resulta que
EX + − EX − = EX1 − EX2 ).
La aditividad de la esperanza en las condiciones propuestas es ahora consecuencia de
la descomposición X + Y = (X + + Y + ) − (X − + Y − ).
5) Si X es finita casi seguro también lo es Y , y por 1) tendremos
X = Y casi seguro ⇒ X − Y = 0 casi seguro ⇒ E|X − Y | = 0.
Por 4): 0 = E|X −Y | = E(X −Y )+ +E(X −Y )− , y por 2): E(X −Y )+ = E(X −Y )− = 0.
Entonces E(X − Y ) = 0, y por 3) y 4): EX = EY.
Además, si fuera P (X = ∞) > 0, debe ocurrir P (X = −∞) = 0 (en caso contrario no
existirı́a EX), y por ser X = Y casi seguro, también P (Y = ∞) > 0 y P (Y = −∞) = 0,
luego serı́a EX = EY = ∞. El caso −∞ es análogo.
6) Si X ≤ Y casi seguro, entonces X = inf(X, Y ) y Y = sup(X, Y ) casi seguro, y
además X ≤ Y, luego por 5) bastará probar el resultado cuando se da la desigualdad
X ≤ Y.
Si las variables son finitas (o finitas casi seguro) el resultado proviene de 2) y 4), y si
toman valores infinitos con probabilidad positiva, de la casi integrabilidad de las variables,
actuando como en la segunda parte de la demostración de 5) se asegura igualmente el
resultado.
Respecto a la desigualdad |EX| ≤ E|X|, si E|X| = ∞ es trivial. Si E|X| < ∞,
entonces las variables X y − X son integrables y además se tienen las desigualdades
X ≤ |X|, −X ≤ |X|. Por tanto EX ≤ E|X| y − EX = E(−X) ≤ E|X|, pero como
|EX| = sup(EX, −EX), el resultado es obvio.
7) Probaremos sólo el caso creciente. Si Xn ↑ X y EXn−0 < ∞, entonces X − ≤ Xn− ≤
Xn−0 , si n ≥ n0 , y por tanto las variables X, Xn , si n ≥ n0 , son casi integrables. Además
0 ≤ Xn + Xn−0 ↑ X + Xn−0 si n → ∞, luego por la propiedad 4) y la proposición 1.7:
EXn + EXn−0 ↑ EX + EXn−0 y entonces EXn ↑ EX. 2
A partir del resultado de convergencia monótona en la proposición anterior obtendremos los famosos criterios de Fatou-Lebesgue de “convergencia dominada”, que al igual
7
que el criterio de Levy de convergencia monótona, permiten estudiar los lı́mites de integrales a partir de las integrales de los lı́mites.
Teorema 1.10 Sea (Xn )n una sucesión de variables aleatorias y sean Y, Z variables integrables.
• Si Xn ≥ Y para todo n, entonces E lim inf Xn ≤ lim inf EXn .
• Si Xn ≤ Z para todo n, entonces E lim sup Xn ≥ lim sup EXn .
• Si Xn → X y |Xn | ≤ Z, entonces EX = lim EXn .
Demostración: Comenzaremos observando que si Y (resp. Z) es una variable integrable
y otra variable X verifica Y ≤ X (resp. Z ≥ X), entonces X − (resp. X + ) es integrable
y X es, por tanto casi integrable. Entonces, si Y ≤ Xn para todo n e Y es integrable,
como Xn ≥ Yn := inf k≥n Xk ↑ lim inf Xn y además Yn ≥ Y para todo n, por el teorema
de la convergencia monótona obtenemos:
lim inf EXn ≥ lim EYn ≥ E lim inf Xn .
El segundo resultado se prueba análogamente, mientras que el último es consecuencia
inmediata de los dos primeros al ser entonces lim inf Xn = lim sup Xn = X y por tanto
EX = E lim inf Xn ≤ lim inf EXn ≤ lim sup EXn ≤ E lim sup Xn = EX.
2
El proceso seguido en la construcción de la integral permite, como ya se advirtió en
la introducción, obtener propiedades recorriendo los diferentes escalones visitados en esta
construcción, que, recuérdese que no son otros que los dados en la definición “constructiva”
de las variables aleatorias. La siguiente proposición formaliza esta idea.
Proposición 1.11 Sea τ una familia de variables aleatorias reales positivas, definidas en
el espacio medible (Ω, σ), que verifica las siguientes propiedades:
1. Si X, Y ∈ τ y a, b ≥ 0 son constantes cualesquiera entonces aX + bY ∈ τ.
2. Si Xn ∈ τ, n ∈ N y Xn ↑ X, entonces X ∈ τ .
3. Para todo A ∈ σ se tiene IA ∈ τ .
Entonces τ contiene todas las variables positivas.
Demostración: Las propiedades primera y tercera aseguran que τ contiene todas las variables simples positivas, y, como toda variable positiva es lı́mite de una sucesión creciente
de variables simples y positivas, la segunda propiedad prueba el resultado. 2
Los siguientes resultados, sencillas consecuencias del principio establecido en la proposición
anterior, suelen denominarse como teorema del cambio de variable, y demuestran además
que la esperanza matemática de una variable aleatoria sólo depende de la distribución de
probabilidades que engendra.
8
Teorema 1.12 Sean X e Y variables aleatorias igualmente distribuidas, con valores en
el espacio medible (Ω0 , σ 0 ), y sea Φ : Ω0 → < una variable aleatoria real (σ 0 |β-medible).
Entonces EΦ(X) = EΦ(Y ), en el sentido de que si uno de los dos miembros de la igualdad
existe, entonces existe el otro y ambos son iguales.
Demostración: Supongamos que (Ω1 , σ 1 , P1 ) y (Ω2 , σ 2 , P2 ) son los dos espacios probabilı́sticos (que eventualmente podrı́an coincidir) en los que respectivamente están definidas
las variables X e Y . Recordando la definición (1.16 en el Capı́tulo de Aplicaciones Medibles) de variables igualmente distribuidas tendremos que si Φ = IB para algún conjunto B ∈ σ 0 , entonces EΦ(X) = 1.P1 (X ∈ B) = 1.P2 (Y ∈ B) = EΦ(Y ). Si τ es la
clase de las variables aleatorias positivas, Φ, definidas en (Ω0 , σ 0 ) que satisfacen la igualdad EΦ(X) = EΦ(Y ), por las propiedades de la integral es inmediato que verifica las
propiedades 1) y 2) en la proposición 1.11, y la tercera acaba de ser probada. Por tanto
todas las variables positivas verifican la igualdad, y realizando la descomposición habitual
en parte positiva y negativa se completa la demostración. 2
Corolario 1.13 Sea (Ω, σ, P ) un espacio probabilı́stico y (Ω0 , σ 0 ) un espacio medible. Si
X : Ω → Ω0 es una variable aleatoria y PX es la probabilidad que induce en (Ω0 , σ 0 ),
entonces para cualquier variable aleatoria, Φ : Ω0 → <, tal que Φ(X) sea casi integrable,
se verifica
E(Φ(X)) =
Z
Ω
Φ(X(ω))P (dω) =
Z
0
Ω
Φ(ω 0 )PX (dω 0 ).
Demostración: Basta hacer en la proposición anterior Y = IdΩ0 . 2
Obsérvese que la utilización reiterada del corolario anterior permite prolongar la cadena
de igualdades y obtener también:
E(Φ(X)) =
Z
Ω
Z
Φ(X(ω))P (dω) =
0
Ω0
0
Φ(ω )PX (dω ) =
Z
<
xPΦ(X) (dx),
si PΦ(X) es la ley de probabilidad de la variable aleatoria Φ(X).
En relación con el cálculo de esperanzas debemos hacer notar que hasta ahora sólo nos
hemos atrevido con las de las variables simples y las de las elementales (las que sólo toman
una infinidad numerable de valores). El siguiente resultado es la base del cálculo para la
esperanza de distribuciones que pueden obtenerse a partir de funciones de densidad.
~ : Ω → <k un vector aleatorio definido en el espacio probabiı́stico
Teorema 1.14 Sea X
(Ω, σ, P ), cuya distribución tiene función de densidad conjunta f (~x). Si Φ : <k → <, es
~ es casi integrable, entonces
una variable aleatoria tal que Φ(X)
~ =
E(Φ(X))
Z
<p
9
Φ(~x)f (~x)d~x.
Demostración: Utilizaremos de nuevo la proposición 1.11. Como la esperanza matemática
es lineal y la integral de Lebesgue también, al igual que para la esperanza matemática
contamos con un teorema de la convergencia monótona y para la integral de Lebesgue
también, si definimos Rτ como el conjunto de las variables aleatorias positivas Φ : <k → <
~ = p Φ(~x)f (~x)d~x, τ verifica las propiedades 1) y 2) en la proposición
tales que E(Φ(X))
<
1.11. Por último, si A ∈ β k , entonces
~ = 1.P (X
~ ∈ A) =
E(IA (X))
Z
f (~x)d~x =
A
Z
IA (~x)f (~x)d~x
por definición de función de densidad de un vector aleatorio. Entonces τ también verifica
~ =
3)
y, de acuerdo con la proposición 1.11, toda variable positiva verificará E(Φ(X))
R
x)f (~x)d~x.
<p Φ(~
La descomposición habitual en parte positiva y negativa de una variable aleatoria
Φ : <k → < general permite, por último tratar ambas en el esquema anterior, y la
hipótesis de casi integrabilidad asegura que la diferencia de las esperanzas matemáticas
por un lado y la de las integrales (de Lebesgue) por otro coinciden. 2
Otro resultado relacionado con el cálculo de esperanzas permite obtener la esperanza
matemática a partir de la función de distribución de una variable aleatoria:
Teorema 1.15 Sea X una variable aleatoria positiva con función de distribución F . Entonces
EX =
Z ∞
(1 − F (x)dx.
0
Demostración: Supongamos primero que la variable X es simple y toma los valores
x1 , x2 , ...xn que consideramos ordenados de menor
a mayor, con probabilidades
respectivas
R
P
p1 , p2 , ...pn . La esperanza de X es por tanto ni=1 xi pi . La integral 0∞ (1 − F (x))dx es, por
otra parte, la suma de las áreas de los rectángulos cuyas bases son x1 − 0, x2 − x1 , ..., xn −
xn−1 y cuyas respectivas alturas son 1, 1 − p1 , 1 − p1 − p2 , ..., 1 − p1 − p2 − ... − pn−1 (= pn ),
luego
Z ∞
0
(1 − F (x))dx = x1 + (x2 − x1 )(1 − p1 ) + (x3 − x2 )(1 − p1 − p2 ) + ... + (xn − xn−1 )pn =
agrupando los factores que multiplican a cada xi ,
x1 (1 − (1 − p1 )) + x2 ((1 − p1 ) − (1 − p1 − p2 )) + ...+
xn−1 ((1 − p1 − ... − pn−2 ) − (1 − p1 − ... − pn−1 )) + xn pn =
n
X
xi pi = EX.
i=1
Sea ahora X una variable positiva cualquiera, y sea (Xn )n una sucesión de variables
simples positivas tal que Xn ↑ X. Si Fn (respectivamente F ) es la función de distribución
10
de Xn (resp. X), se tiene 1 − Fn (x) = P (Xn > x) ↑ P (X > x) = 1 − F (x), x ∈ <, ya
que {ω : Xn (ω) > x} ↑ {ω : X(ω) > x} para cada x ∈ <. El teorema de la convergencia
monótona para la esperanza matemática prueba por una parte que EXn ↑ EX, mientras
que
el teorema de la
convergencia monótona para la integral de Lebesgue
prueba que
R∞
R∞
R∞
0 (1 − Fn (x))dx ↑ 0 (1 − F (x))dx, por lo que las igualdades EXn = 0 (1 − Fn (x))dx,
obtenidas
en la primera parte, aseguran que también los lı́mites son iguales: EX =
R∞
0 (1 − F (x))dx. 2
Obsérvese que se da la siguiente igualdad entre integrales
Z ∞
(1 − F (x))dx =
Z ∞
P (X > x)dx =
P (X ≥ x)dx
0
0
0
Z ∞
debido a que los integrandos son iguales salvo a lo sumo para un conjunto numerable (el
de los puntos de discontinuidad de F ).
En general, aún si X no es positiva se tiene la identidad
Z
XdP = aP (X > a) +
Z ∞
P (X > x)dx,
a
(X>a)
válida para cualquier constante a ≥ 0, que se obtiene de inmediato considerando en el
resultado anterior la variable positiva Y = XI(X>a), cuya función de distribución G toma
los valores
G(x) =


 0,
si x < 0
P (X ≤ a), si 0 ≤ x < a

 F (x), si a ≤ x
Los productos de variables integrables no necesariamente son integrables, pero el caso
de variables independientes es diferente. Aunque la condición no es necesaria (búsquese un
ejemplo que lo demuestre), la independencia de n variables aleatorias asegura la integrabilidad del producto cuando las variables son integrables y permite su cálculo a partir de
las esperanzas de los factores. Este resultado es inmediato por inducción (si X1 , X2 , ..., Xn
son independientes entonces también lo son las dos variables Y := X1 .X2 ...Xn−1 y Xn ) a
partir del siguiente en el que demostraremos el caso particular de dos variables.
Teorema 1.16 Sean X, Y variables aleatorias independientes e integrables. Entonces
X.Y es una variable aleatoria integrable y se tiene EX.Y = EX.EY .
Demostración:
Si X e Y son variables simples, podemos escribir X = ni=1 xi IAi , Y =
Pm
j=1 yj IBj , donde Ai = (X = xi ), Bj = (Y = yj ), y de la independencia de X e Y se
deduce la de cada conjunto Ai con cada Bj y, en consecuencia
P
P (Ai ∩ Bj ) = P (X = xi , Y = yj ) = P (X = xi )P (Y = yj ) = P (Ai )P (Bj ).
11
Por tanto
n X
m
X
EX.Y = E(
xi yj IAi∩Bj ) =
i=1 j=1
n X
m
X
xi yj P (Ai )P (Bj ) =
i=1 j=1
n X
m
X
xi yj P (Ai ∩ Bj ) =
i=1 j=1
n
X
xi P (Ai )
i=1
m
X
yj P (Bj ) = EX.EY.
j=1
Para el caso general definamos las funciones de Borel (ya utilizadas para demostrar
que toda variable aleatoria real es lı́mite de variables simples), Φn : <+ → <+ ,
Φn (x) =:=
n
n2
X
k−1
I[(k−1)/2n ,k/2n ) (x) + I[n,∞] (x).
n
2
k=1
Sea ahora Xn = Φn (X + )−Φn (X − ) y análogamente Yn = Φn (Y + )−Φn (Y − ). Entonces Xn
e Yn son variables independientes y simples (al igual que |Xn | y |Yn |), luego E|Xn .Yn | =
E|Xn |E|Yn |, y 0 ≤ |Xn | ↑ |X|, 0 ≤ |Yn | ↑ |Y |, 0≤ |Xn .Yn | ↑ |X.Y |. Si X e Y son
integrables entonces
E|Xn .Yn | = E|Xn |E|Yn | ↑ E|X|E|Y | < ∞
y, se sigue del teorema de la convergencia monótona que E|XY | < ∞. Como además
Xn .Yn → X.Y y |Xn .Yn | ≤ |X.Y |, del teorema de la convergencia dominada obtenemos
que
EX.Y = lim EXn Yn = lim EXn EYn = EX.EY.
n→∞
n→∞
En consecuencia X.Y es integrable y EX.Y = EXEY . 2
12
Descargar