6- Variables aleatorias independientes

Anuncio
6‐ Variables aleatorias
independientes
Edgar Acuna
ESMA 4001
Edgar Acuna
1
Dos variables aleatorias X y Y son independientes si para todo a y b
P[X<=a, Y<=b]=P[X<=a]P[Y<=b]
Si (X,Y) es un vector aleatorio con funcion de distribucion acumulada F, entonces X y Y son independientes si
F(a,b)=FX(a)FY(b) para todo a y b
Si (X,Y) es un vector aleatorio con funcion de probabilidad conjunta p(x,y), entonces X y Y son independientes si
p(a,b)=pX(a)pY(b) para todo a y b
Si (X,Y) es un vector aleatorio con funcion de densidad conjunta f(x,y), entonces X y Y son independientes si
f(a,b)=fX(a)fY(b) para todo a y b
ESMA 4001
Edgar Acuna
2
Ejemplo 6.1
Sea (X,Y) una variable aleatoria bidimensional discreta con funcion de probabilidad
conjunta dada en la siguiente tabla de valores
1
2
3
P[X=i]
0
1/9
0
2/9
1/3
1
0
1/9
1/9
2/9
2
2/9
1/9
1/9
4/9
P[Y=j]
1/3
2/9
4/9
1
Seran X y Y independientes?
Solucion:
P[X=i,Y=j}=P[X=i]P[Y=j] solo se cumple para i=0 y i=1, luego X y Y no son independentes.
ESMA 4001
Edgar Acuna
3
Ejemplo 6.2
Sean (X,Y) un vector aleatorio con funcion de densidad
f(x,y)=2xe‐y para 0<x<1, 0<y<∞ y f(x,y)=0 en otro caso.
Seran X y Y independientes?
Solucion:
Hallando las marginales de X y Y respectivamente se obtiene
∞
fX (x) =
∫ 2 xe
− y
dy = 2 x
0 < x <1
−∞
1
fY ( y ) =
∫ 2 xe
−y
dy = e − y
y > 0
0
Como f(x,y)=fX(x)fY(y) se concluye que X y Y son independientes
ESMA 4001
Edgar Acuna
4
Ejemplo 6.3
Sean (X,Y) un vector aleatorio con funcion de densidad
f(x,y)=6(y‐x) para 0<x<y<1 y f(x,y)=0 en otro caso.
Seran X y Y independientes?
Solucion:
Hallando las densidades marginales de X y Y se obtiene
1
f X ( x) = ∫ 6( y − x)dy = 6(
x
y2
− xy) |1x = 6(1/ 2 − x + x2 / 2) = 3(1− x)2
2
0 < x <1
y
fY ( y) = ∫ 6( y − x)dx = 6( yx − x2 / 2) |0y = 3y2
0 < y <1
0
Como fX(x)fy(y)≠f(x,y) se concluye que X y Y No son independientes
ESMA 4001
Edgar Acuna
5
Propiedad: Si X y Y son dos variables aleatorias independientes. Entonces,
E[g(X)h(Y)]=E[g(X)]E[h(Y)]
Prueba:
Consideremos solo el caso continuo. Es decir, que la funcion de densidad conjunta de (X,Y) satisface f(x,y)=fX(x)fY(y) E[ g ( X )h(Y )] =
∞ ∞
∞ ∞
− ∞− ∞
− ∞− ∞
∫ ∫ g ( x)h( y) f ( x, y)dydy = ∫ ∫ g ( x)h( y) f
∞
∞
−∞
−∞
X
( x) fY ( y )dydx =
∫ g ( x) f X ( x)dx ∫ h( y) fY ( y)dy = E[ g ( X )]E[h(Y )]
Ejemplo 6.4: Considerando las variables aleatorias del ejemplo 6.2 . Calcular
E[X2eY/2].
Solucion. Usando la propiedad anterior E[X2eY/2]=E[X2]E[eY/2]
1
E[ X 2 ] =
∫
x 2 ⋅ 2 xdx =
0
∞
E [e Y / 2 ] =
∫e
0
y/2
e − y dy =
x4 1
|0 = 1 / 2
2
∞
∫e
−y/2
dy = 2
0
Luego E[X2eY/2]=1
ESMA 4001
Edgar Acuna
6
6.1 Covarianza
Sea (X,Y) es una variable aleatoria discreta con funcion de probabilidad conjunta p(x,y) , entonces la covarianza de entre X y Y se define por
Cov(X,Y)= E(X‐µX)(Y‐µY)
Notar que, Cov(X,Y)=E(XY‐ µXY‐XµY+ µXµY]=E(XY)‐ µXEY‐µYE(X)+ µXµY= E(XY)‐E(X)E(Y)
La covarianza mide el grado de asociacion entre dos variables aleatorias X y Y.
Ejemplo 6.5: Hallar la covarianza de las variables aleatorias X y Y definidas en el ejemplo
6.3.
Solucion:
De las densidades marginales podemos hallar E(X) y E(Y)
1
1
E ( X ) = ∫ x ⋅ 3(1 − x ) dx = ∫ (3 x − 6 x 2 + 3 x 3 ) dx = 3 / 2 − 2 + 3 / 4 = 1 / 4
2
0
0
1
E (Y ) =
∫ y ⋅3y
2
dy = 3 / 4
0
ESMA 4001
Edgar Acuna
7
Ejemplo 6.5 (cont)
Por otro lado,
1 y
1
0 0
0
E ( XY ) = ∫ ∫ xy ⋅ 6( y − x)dxdy = ∫ 6 y ( y
1
x 2 x3 y
− ) |0 dy = ∫ y 4 dy = 1 / 5
2 3
0
En consecuencia, Cov(X,Y)=1/5‐(1/4)(3/4)= 1/5‐3/16=1/80
Propiedad. Si Y y Y son Independientes entonces Cov(X,Y)=0, el reciproco no es
cierto en general.
Prueba: Si X y y son Independientes entonces E(XY)=E(X)E(Y). Luego, Cov(X,Y)=E(X)E(Y)‐E(X)E(Y)=0.
Se puede encontrar dos variables X y Y cuya Cov(X,Y)=0 pero ellas no son independientes.
Propiedad: Var(X+Y)=Var(X)+Var(Y)+2Cov(X,Y). Si X y Y son independientes
entonces Var(X+Y)=Var(X)+Var(Y).
ESMA 4001
Edgar Acuna
8
6.2 Correlacion
El problema de la Covarianza es que su rango de valores va de ‐∞ a ∞ . Una medida
de asociacion estandarizada en la escala de ‐1 a 1 es llamado el coeficiente de correlacion que se define por
Cov ( X , Y )
Var ( X ) Var (Y )
ρ=
Recordar que la raiz cuadrada positiva de la varianza es llamada la desviacion
estandar.
Ejemplo 6.6. Hallar la correlacion de las variables aleatorias X y Y en el ejemplo
6.3.
Solucion : En el ejemplo 6.5 ya se encontro la covarianza. Solo falta calcular la varianza de cada variable aleatoria.
1
1
0
0
E ( X 2 ) = ∫ x 2 ⋅ 3(1 − x) 2 dx = 3∫ ( x 2 − 2 x 3 + x 4 )dx = 3[1 / 3 − 1 / 2 + 1 / 5] = 1 / 10
1
E (Y 2 ) = ∫ y 2 ⋅ 3 y 2 dx = 3 / 5
0
ESMA 4001
Edgar Acuna
9
Ejemplo 6.6(cont)
Luego, Var(X)=1/10‐1/16=3/80 y Var(Y)=3/5‐9/16=3/80.
Por lo tanto,
ρ=(1/80)/(3/80)=1/3
Propiedad: ‐1<=ρ<=1.
Prueba: Consideremos las variable aleatorias X*=(X‐μX)/σX y Y*=(Y‐μy)/σy , cuyas
medias y varianzas son 0 y 1 respectivamente. Luego,
Var(X*‐ρY*)=Var(X*)‐2ρCov(X*,Y*)+ρ2Var(Y*)=2‐2ρ2>=0. Luego, ρ2<=1, de donde se obtiene el resultado deseado.
Propiedad. Si ρ=1 entonces con probabilidad 1 existen constantes a>0 y b tal que Y=aX+b. Si ρ=‐1 entonces con probabilidad 1 existen constantes a<0 y b tal que Y=aX+b. ESMA 4001
Edgar Acuna
10
Descargar