6‐ Variables aleatorias independientes Edgar Acuna ESMA 4001 Edgar Acuna 1 Dos variables aleatorias X y Y son independientes si para todo a y b P[X<=a, Y<=b]=P[X<=a]P[Y<=b] Si (X,Y) es un vector aleatorio con funcion de distribucion acumulada F, entonces X y Y son independientes si F(a,b)=FX(a)FY(b) para todo a y b Si (X,Y) es un vector aleatorio con funcion de probabilidad conjunta p(x,y), entonces X y Y son independientes si p(a,b)=pX(a)pY(b) para todo a y b Si (X,Y) es un vector aleatorio con funcion de densidad conjunta f(x,y), entonces X y Y son independientes si f(a,b)=fX(a)fY(b) para todo a y b ESMA 4001 Edgar Acuna 2 Ejemplo 6.1 Sea (X,Y) una variable aleatoria bidimensional discreta con funcion de probabilidad conjunta dada en la siguiente tabla de valores 1 2 3 P[X=i] 0 1/9 0 2/9 1/3 1 0 1/9 1/9 2/9 2 2/9 1/9 1/9 4/9 P[Y=j] 1/3 2/9 4/9 1 Seran X y Y independientes? Solucion: P[X=i,Y=j}=P[X=i]P[Y=j] solo se cumple para i=0 y i=1, luego X y Y no son independentes. ESMA 4001 Edgar Acuna 3 Ejemplo 6.2 Sean (X,Y) un vector aleatorio con funcion de densidad f(x,y)=2xe‐y para 0<x<1, 0<y<∞ y f(x,y)=0 en otro caso. Seran X y Y independientes? Solucion: Hallando las marginales de X y Y respectivamente se obtiene ∞ fX (x) = ∫ 2 xe − y dy = 2 x 0 < x <1 −∞ 1 fY ( y ) = ∫ 2 xe −y dy = e − y y > 0 0 Como f(x,y)=fX(x)fY(y) se concluye que X y Y son independientes ESMA 4001 Edgar Acuna 4 Ejemplo 6.3 Sean (X,Y) un vector aleatorio con funcion de densidad f(x,y)=6(y‐x) para 0<x<y<1 y f(x,y)=0 en otro caso. Seran X y Y independientes? Solucion: Hallando las densidades marginales de X y Y se obtiene 1 f X ( x) = ∫ 6( y − x)dy = 6( x y2 − xy) |1x = 6(1/ 2 − x + x2 / 2) = 3(1− x)2 2 0 < x <1 y fY ( y) = ∫ 6( y − x)dx = 6( yx − x2 / 2) |0y = 3y2 0 < y <1 0 Como fX(x)fy(y)≠f(x,y) se concluye que X y Y No son independientes ESMA 4001 Edgar Acuna 5 Propiedad: Si X y Y son dos variables aleatorias independientes. Entonces, E[g(X)h(Y)]=E[g(X)]E[h(Y)] Prueba: Consideremos solo el caso continuo. Es decir, que la funcion de densidad conjunta de (X,Y) satisface f(x,y)=fX(x)fY(y) E[ g ( X )h(Y )] = ∞ ∞ ∞ ∞ − ∞− ∞ − ∞− ∞ ∫ ∫ g ( x)h( y) f ( x, y)dydy = ∫ ∫ g ( x)h( y) f ∞ ∞ −∞ −∞ X ( x) fY ( y )dydx = ∫ g ( x) f X ( x)dx ∫ h( y) fY ( y)dy = E[ g ( X )]E[h(Y )] Ejemplo 6.4: Considerando las variables aleatorias del ejemplo 6.2 . Calcular E[X2eY/2]. Solucion. Usando la propiedad anterior E[X2eY/2]=E[X2]E[eY/2] 1 E[ X 2 ] = ∫ x 2 ⋅ 2 xdx = 0 ∞ E [e Y / 2 ] = ∫e 0 y/2 e − y dy = x4 1 |0 = 1 / 2 2 ∞ ∫e −y/2 dy = 2 0 Luego E[X2eY/2]=1 ESMA 4001 Edgar Acuna 6 6.1 Covarianza Sea (X,Y) es una variable aleatoria discreta con funcion de probabilidad conjunta p(x,y) , entonces la covarianza de entre X y Y se define por Cov(X,Y)= E(X‐µX)(Y‐µY) Notar que, Cov(X,Y)=E(XY‐ µXY‐XµY+ µXµY]=E(XY)‐ µXEY‐µYE(X)+ µXµY= E(XY)‐E(X)E(Y) La covarianza mide el grado de asociacion entre dos variables aleatorias X y Y. Ejemplo 6.5: Hallar la covarianza de las variables aleatorias X y Y definidas en el ejemplo 6.3. Solucion: De las densidades marginales podemos hallar E(X) y E(Y) 1 1 E ( X ) = ∫ x ⋅ 3(1 − x ) dx = ∫ (3 x − 6 x 2 + 3 x 3 ) dx = 3 / 2 − 2 + 3 / 4 = 1 / 4 2 0 0 1 E (Y ) = ∫ y ⋅3y 2 dy = 3 / 4 0 ESMA 4001 Edgar Acuna 7 Ejemplo 6.5 (cont) Por otro lado, 1 y 1 0 0 0 E ( XY ) = ∫ ∫ xy ⋅ 6( y − x)dxdy = ∫ 6 y ( y 1 x 2 x3 y − ) |0 dy = ∫ y 4 dy = 1 / 5 2 3 0 En consecuencia, Cov(X,Y)=1/5‐(1/4)(3/4)= 1/5‐3/16=1/80 Propiedad. Si Y y Y son Independientes entonces Cov(X,Y)=0, el reciproco no es cierto en general. Prueba: Si X y y son Independientes entonces E(XY)=E(X)E(Y). Luego, Cov(X,Y)=E(X)E(Y)‐E(X)E(Y)=0. Se puede encontrar dos variables X y Y cuya Cov(X,Y)=0 pero ellas no son independientes. Propiedad: Var(X+Y)=Var(X)+Var(Y)+2Cov(X,Y). Si X y Y son independientes entonces Var(X+Y)=Var(X)+Var(Y). ESMA 4001 Edgar Acuna 8 6.2 Correlacion El problema de la Covarianza es que su rango de valores va de ‐∞ a ∞ . Una medida de asociacion estandarizada en la escala de ‐1 a 1 es llamado el coeficiente de correlacion que se define por Cov ( X , Y ) Var ( X ) Var (Y ) ρ= Recordar que la raiz cuadrada positiva de la varianza es llamada la desviacion estandar. Ejemplo 6.6. Hallar la correlacion de las variables aleatorias X y Y en el ejemplo 6.3. Solucion : En el ejemplo 6.5 ya se encontro la covarianza. Solo falta calcular la varianza de cada variable aleatoria. 1 1 0 0 E ( X 2 ) = ∫ x 2 ⋅ 3(1 − x) 2 dx = 3∫ ( x 2 − 2 x 3 + x 4 )dx = 3[1 / 3 − 1 / 2 + 1 / 5] = 1 / 10 1 E (Y 2 ) = ∫ y 2 ⋅ 3 y 2 dx = 3 / 5 0 ESMA 4001 Edgar Acuna 9 Ejemplo 6.6(cont) Luego, Var(X)=1/10‐1/16=3/80 y Var(Y)=3/5‐9/16=3/80. Por lo tanto, ρ=(1/80)/(3/80)=1/3 Propiedad: ‐1<=ρ<=1. Prueba: Consideremos las variable aleatorias X*=(X‐μX)/σX y Y*=(Y‐μy)/σy , cuyas medias y varianzas son 0 y 1 respectivamente. Luego, Var(X*‐ρY*)=Var(X*)‐2ρCov(X*,Y*)+ρ2Var(Y*)=2‐2ρ2>=0. Luego, ρ2<=1, de donde se obtiene el resultado deseado. Propiedad. Si ρ=1 entonces con probabilidad 1 existen constantes a>0 y b tal que Y=aX+b. Si ρ=‐1 entonces con probabilidad 1 existen constantes a<0 y b tal que Y=aX+b. ESMA 4001 Edgar Acuna 10