J. Gibergans Báguena / DMA – ESEIAAT / UPC Tema 4: Variables aleatorias multidimensionales TEMA 4 VARIABLES ALEATORIAS MULTIDIMENSIONALES 4.1 4.2 4.3 4.4. 4.1. Distribuciones conjuntas Distribuciones condicionales Variables aleatorias independientes Combinación lineal de dos variables aleatorias DISTRIBUCIONES CONJUNTAS DE PROBABILIDAD De este tema, no hay lista de problemas y no preguntamos nada en los exámenes, pero lo explicamos para poder aplicar algunos conceptos y resultados muy importantes en los temas posteriores. Los conceptos que vimos en el tema anterior se generalizan fácilmente a dos o más variables aleatorias. Consideraremos el caso típico de dos variables aleatorias que son ambas discretas o ambas continuas, … Caso discreto Si X, Y son dos variables aleatorias discretas, definimos la función de masa de probabilidad conjunta por: f(x,y) = P(X=x, Y=y) donde: a) f(x,y) 0 b) Supongamos que: ∑ ∑ 𝑓 𝑥, 𝑦 1 X puede tomar cualquiera de los m valores x1, x2, ..., xm Y puede tomar cualquiera de los n valores y1, y2, ..., yn Entonces, la probabilidad del suceso: “X tome valor xj e Y tome valor yk,” está dada por: P(X=xj, Y=yk) = f(xj,yk) Distribución conjunta de X e Y x1 x2 ... xj ... xm Distribución marginal de Y y1 y2 ... yk ... yn f(x1,y1) f(x2,y1) ... f(xj,y1) ... f(xm,y1) f2(y1) f(x1,y2) f(x2,y2) ... f(xj,y1) ... f(xm,y2) f2(y2) ... ... ... ... ... ... ... f(x1,yk) f(x2,yk) ... f(xj,yk) ... f(xm,yk) f2(yk) ... ... ... ... ... ... ... f(x1,yn) f(x2,yn) ... f(xj,yn) ... f(xm,yn) f2(yn) P(Y=y1) P(Y=y2) ... P(Y=yk) ... P(Y=yn) IV - 1 Distribución marginal de X f1(x1) P(X=x1) f1(x2) P(X=x2) ... ... f1(xj) P(X=xj) ... ... f1(xm) P(X=xm) 1 Probabilidad y Estadística J. Gibergans Báguena / DMA – ESEIAAT / UPC La probabilidad de que X=xj se obtiene sumando todas las celdas de la fila correspondiente a xj: 𝑃 𝑋 𝑥 𝑓 𝑥 𝑓 𝑥 ,𝑦 𝑗 1,2, . . . 𝑚 Análogamente, la probabilidad de que Y=yk se obtiene sumando todas las celdas de la fila correspondiente a yk: 𝑃 𝑌 𝑦 𝑓 𝑦 𝑓 𝑥 ,𝑦 𝑘 1,2, . . . 𝑛 Debido a que estas probabilidades se obtienen de los márgenes de la tabla, frecuentemente nos referimos a f1(x) y f2(y) como las funciones de masa de probabilidad marginal de X, Y respectivamente. Observamos también que: ∑ 𝑓 𝑥 ∑ 1; 𝑓 𝑦 1 Que es lo mismo que escribir: 𝑓 𝑥 ,𝑦 1 La función de distribución conjunta de X, Y se define por: 𝐹 𝑥 ,𝑦 𝑃 𝑋 𝑥, 𝑌 𝑦 𝑓 𝑢, 𝑣 También podemos definir las funciones de distribución marginales a partir de las funciones de masa de probabilidad marginales, tal y como hacíamos en el tema anterior con las variables unidimensionales discretas. Ejemplo 4.1: Consideremos el experimento aleatorio de lanzar 2 monedas al aire. El espacio muestral será: ={(c,c), (c,s), (s,c), (s,s)}. Definimos las variables aleatorias: X = número de sellos Y = {1:si sale cara, 2: si no sale cara} (X,Y)(c,c) = (0,1) (X,Y)(s,c) = (1,1) (X,Y)(c,s) = (1,1) (X,Y)(s,s) = (2,2) P(X=0, Y=1)=P(c,c)=1/4 P(X=1, Y=1)=P(c,s) + P(s,c) =1/4 + 1/4 = 1/2 P(X=2, Y=2)=P(s,s)=1/4 Distribución conjunta de (X,Y) 0 1 2 Distribución marginal de Y 1 2 P(0,1)=1/4 P(1,1)=2/4 P(2,1)=0 P(0,2)=0 P(1,2)=0 P(2,2)=1/4 Distribución marginal de X P(X=0)=1/4 P(X=1)=2/4 P(X=2)=1/4 P(Y=1)=3/4 P(Y=2)=1/4 1 IV - 2 J. Gibergans Báguena / DMA – ESEIAAT / UPC Tema 4: Variables aleatorias multidimensionales Caso continuo El caso donde ambas variables son continuas se obtiene fácilmente por analogía con el caso discreto al reemplazar las sumas por integrales. Así la función de densidad de probabilidad conjunta para las variables X,Y, se define por: a) b) f(x,y) 0 ∞ ∞ 𝑓 𝑥, 𝑦 𝑑𝑥𝑑𝑦 ∞ ∞ 1 Gráficamente z=f(x,y) representa una superficie, llamada superficie de probabilidad: z z=f(x,y) c y d a b x Figura 4.1: Superficie de probabilidad El volumen total limitado por esta superficie y el plano XY es igual a 1 de acuerdo con la propiedad (b) anterior. La probabilidad de que X esté entre a y b en tanto que Y esté entre c y d está dada gráficamente por el volumen del paralelepípedo curvilíneo de la figura 4.1, y matemáticamente por: 𝑃 𝑎 𝑋 𝑏, 𝑐 𝑌 𝑑 𝑓 𝑥, 𝑦 𝑑𝑥 𝑑𝑦 Generalizando, si A representa un suceso, habrá una región del plano RA que corresponde a él. En tal caso podemos hallar la probabilidad de A efectuando la integración sobre A, es decir: 𝑃 𝐴 𝑓 𝑥, 𝑦 𝑑𝑥 𝑑𝑦 La función de distribución conjunta de X, Y, en este caso se define por: 𝐹 𝑥, 𝑦 𝑃 𝑋 𝑥, 𝑌 𝑦 𝑓 𝑢, 𝑣 𝑑𝑢 𝑑𝑣 ∞ ∞ Igual que en el caso unidimensional, puede hallarse la función de densidad de probabilidad conjunta derivando la función de distribución, pero ahora: 𝜕 𝐹 𝜕𝑥𝜕𝑦 𝑓 𝑥, 𝑦 A partir de la función de distribución conjunta podemos definir las funciones de distribución marginal, o simplemente, las funciones de distribución de X e Y, respectivamente por: IV - 3 Probabilidad y Estadística 𝐹 𝑥 J. Gibergans Báguena / DMA – ESEIAAT / UPC 𝑃 𝑋 𝑥 ∞ 𝑓 𝑢 𝑑𝑢; 𝐹 𝑥 𝑃 𝑌 𝑦 ∞ 𝑓 𝑣 𝑑𝑣 Y a las derivadas de éstas respecto x e y, se llaman funciones de densidad marginal, o simplemente funciones de densidad de X e Y: 𝑓 𝑥 ∞ ∞ 𝑓 𝑥, 𝑣 𝑑𝑣 ; ∞ 𝑓 𝑥 ∞ 𝑓 𝑢, 𝑦 𝑑𝑢 Ejemplo 4.2: Consideremos una variable aleatoria bidimensional con función de densidad conjunta: 3𝑥 1 𝑓 𝑥, 𝑦 𝑥𝑦 , 0 𝑥 1, 0 𝑦 𝑜𝑡𝑟𝑜𝑠 𝑣𝑎𝑙𝑜𝑟𝑒𝑠 𝑑𝑒 𝑥 𝑒 𝑦 0, 1 Las funciones de densidad marginales vienen dadas por: 𝑓 𝑥 𝑓 𝑦 3𝑥 1 3𝑥 1 𝑥𝑦 𝑑𝑦 𝑥𝑦 𝑑𝑥 𝑥 𝑦 2 3 𝑥𝑦 3 𝑥 2 𝑥 𝑦 3 IV - 4 3𝑥 1 3 2𝑦 2 𝑥 , 2 , 0 0 𝑥 𝑦 1 1 J. Gibergans Báguena / DMA – ESEIAAT / UPC 4.2. Tema 4: Variables aleatorias multidimensionales DISTRIBUCIONES CONDICIONALES Caso discreto Sea (X,Y) una variable aleatoria bidimensional discreta de función de probabilidad conjunta f(x,y). Se define la función de probabilidad condicional de Y dada X=xj, como: 𝑓 𝑦 |𝑥 𝑥 𝑃 𝑌 𝑦 |𝑋 𝑃 𝑋 𝑥 ,𝑌 𝑦 𝑃 𝑋 𝑥 𝑥 𝑓 𝑥 ,𝑦 𝑓 𝑥 , 𝑘 1, . . . , 𝑛 Se define la función de probabilidad condicional de X dada Y=yk, como: 𝑃 𝑋 𝑥 ,𝑌 𝑦 𝑓 𝑥 ,𝑦 , 𝑗 1, . . , 𝑚 𝑃 𝑌 𝑦 𝑓 𝑦 Al igual que las distribuciones marginales, las distribuciones condicionadas también son distribuciones unidimensionales. Ahora podríamos calcular todo lo que vimos en el Tema 3ª, pero añadiendo “condicionado a ….” 𝑓 𝑥 |𝑦 𝑦 𝑃 𝑋 𝑥 |𝑌 𝑦 Ejemplo 4.3: Considerando de nuevo el ejemplo 4.1, calculamos: - Distribución condicionada de X dada Y=1: xi 0 1 2 𝒇 𝒙𝒊 |𝟏 𝑷 𝑿 𝒙𝒊 | 𝒀 𝑷 𝑿 𝒙𝒊 , 𝒀 𝑷 𝒀 𝟏 𝟏 𝟏 𝑓 0|𝑦 1 𝑃 𝑋 0| 𝑌 1 𝑃 𝑋 0, 𝑌 1 𝑃 𝑌 1 1/4 3/4 1 3 𝑓 1|𝑦 1 𝑃 𝑋 1| 𝑌 1 𝑃 𝑋 1, 𝑌 1 𝑃 𝑌 1 2/4 3/4 2 3 𝑓 2|𝑦 1 𝑃 𝑋 2| 𝑌 1 𝑃 𝑋 2, 𝑌 1 𝑃 𝑌 1 0 3/4 0 1 La esperanza de X condicionada a Y=1: 𝐸 𝑋|𝑌 1 0 1 2 0 - Distribución condicionada de Y dada X=0: yi 0 1 𝒇 𝒚𝒊 |𝒙 𝟎 𝑷 𝑿 𝟎| 𝒀 𝒚𝒊 𝑷 𝑿 𝟎, 𝒀 𝒚𝒊 𝑷 𝑿 𝟎 𝑓 0|𝑥 0 𝑃 𝑌 0| 𝑋 0 𝑃 𝑋 0, 𝑌 0 𝑃 𝑋 0 1/4 1/4 1 𝑓 1|𝑥 0 𝑃 𝑌 1| 𝑋 0 𝑃 𝑋 0, 𝑌 1 𝑃 𝑋 0 0 1/4 0 1 IV - 5 Probabilidad y Estadística J. Gibergans Báguena / DMA – ESEIAAT / UPC Caso continuo Sea (X,Y) una variable aleatoria bidimensional continua de función de densidad de probabilidad conjunta f(x,y). Ahora no podemos proceder a deducirla como en el caso discreto ya que P(Y=cte)=0. Pero se define de la misma forma: Se define la función de densidad marginal condicionada de X a que Y =b: 𝑓 𝑥| 𝑦 𝑓 𝑥, 𝑏 𝑓 𝑏 𝑏 Se define la función de densidad marginal condicionada de Y a que X = a: 𝑓 𝑎, 𝑦 𝑓 𝑎 Al igual que con las distribuciones condicionadas discretas, las distribuciones condicionadas continuas también son distribuciones unidimensionales. Ahora podríamos calcular todo lo que vimos en el Tema 3a, pero añadiendo “condicionado a ….”. 𝑓 𝑦| 𝑥 𝑎 Ejemplo 4.4: Considerando de nuevo el ejemplo 4.2 en el que teníamos: 3𝑥 1 𝑓 𝑥, 𝑦 0, 𝑥𝑦 , 0 𝑥 1, 0 𝑦 𝑜𝑡𝑟𝑜𝑠 𝑣𝑎𝑙𝑜𝑟𝑒𝑠 𝑑𝑒 𝑥 𝑒 𝑦 1 Y las funciones de densidad marginales: 𝑓 𝑥 3𝑥 1 , 0 𝑥 1 𝑓 𝑦 y , 0 𝑦 1 3 𝑥 , 2 0 𝑥 6 5 2 𝑦, 5 - Distribución condicionada de X a que Y=1/2: 𝑓 𝑥𝑦 1 2 1 𝑓 𝑥, 2 1 𝑓 2 𝑥 2 2 1/2 2 3𝑥 1 3 3𝑥 3𝑥 /2 1 3𝑥 1 - Distribución condicionada de Y a que X=1/3: 𝑓 𝑦𝑥 1 3 1 1 3 1 3 1 3 1 ,𝑦 3 1 𝑓 3 3 𝑓 1 𝑦 3 1/3 2 1 1 𝑦 3 5 6 6 1 5 1 𝑦 3 0 𝑦 1 Si queremos calcular el valor esperado de Y cuando X=1/3, haremos: 𝐸 𝑌𝑋 1 3 𝑦 6 5 2 𝑦 𝑑𝑦 5 6 𝑦 5 2 𝑦 5 IV - 6 𝑑𝑦 6 𝑦 10 2 𝑦 15 6 10 2 15 0.4. J. Gibergans Báguena / DMA – ESEIAAT / UPC 4.3. Tema 4: Variables aleatorias multidimensionales VARIABLES ALEATORIAS INDEPENDIENTES (IMPORTANTE) Caso discreto: Sean X, Y dos variables aleatorias discretas. Decimos que X e Y son dos variables aleatorias independientes si: P(X = x,Y = y) = P(X = x) ꞏ P(Y = y) o lo que es igual: f(x,y) = f1(x) ꞏ f2(y) Caso continuo: Sean X, Y dos variables aleatorias continuas. Decimos que X e Y son dos variables aleatorias independientes si: P(X x,Y y) = P(X x) ꞏ P(Y y) o lo que es igual: F(x,y) = F1(x) ꞏ F2(y) y por tanto, f(x,y) = f1(x) ꞏ f2(y) Consecuencia importante: si X e Y son independientes, entonces 𝐸 𝑋𝑌 𝐸 𝑋 𝐸 𝑌 . Para el caso continuo la demostración es como sigue (en el caso discreto es análoga, pero con sumatorios en lugar de integrales): ∞ ∞ 𝐸 𝑋𝑌 ∞ ∞ ∞ ∞ 𝑥𝑦 𝑓 𝑥, 𝑦 𝑑𝑥𝑑𝑦 ∞ ∞ ∞ ∞ 𝑥 𝑓 𝑥 𝑑𝑥 ∞ 𝑥𝑦 𝑓 𝑥 𝑓 𝑦 𝑑𝑥𝑑𝑦 𝑦 𝑓 𝑦 𝑑𝑦 𝐸 𝑋 𝐸 𝑌 . ∞ Y la covarianza de dos variables aleatorias viene dada por 𝑪𝒐𝒗 𝑿, 𝒀 𝐶𝑜𝑣 𝑋, 𝑌 𝐸 𝑋 𝐸 𝑋 𝑌 𝐸 𝑌 𝐸 𝑋𝑌 𝐸 𝑋𝑌 𝐸 𝑋 𝐸 𝑌 𝐸 𝑋 𝐸 𝑌 𝑬 𝑿 𝑬 𝒀 : 𝐸 𝑋 𝑌 𝐸 𝑌 𝑋 𝐸 𝑋 𝐸 𝑌 𝐸 𝑋 𝐸 𝑌 𝐸 𝑋𝑌 𝐸 𝑋 𝐸 𝑌 . Si las variables aleatorias son independientes, se tiene que: 𝑪𝒐𝒗 𝑿𝒀 IV - 7 𝑬 𝑿𝒀 𝟎. Probabilidad y Estadística 4.4. J. Gibergans Báguena / DMA – ESEIAAT / UPC COMBINACIÓN LINEAL DE DOS VARIABLES ALEATORIAS (IMPORTANTE) En este apartado vamos a examinar algunos procedimientos sencillos para analizar la combinación lineal de dos variables aleatorias (también le podemos llamar la suma ponderada), S = a X + b Y, donde a y b pueden ser cualesquiera coeficientes reales, llamados ponderaciones. Esperanza matemática de S = a X + b Y Veamos que: E ( a X + b Y ) = a E ( X ) + b E( Y ), tanto para el caso continuo, como para el discreto. En el caso de variables aleatorias discretas: 𝐸 𝑎𝑋 𝑏𝑌 𝑎𝑥 𝑏𝑦 𝑓 𝑥, 𝑦 𝑎 𝑎𝐸 𝑋 𝑥𝑓 𝑥, 𝑦 𝑏 𝑦𝑓 𝑥, 𝑦 𝑏𝐸 𝑌 Puesto que: ∑ ∑ 𝑎 𝑥𝑓 𝑥, 𝑦 𝑎 ∑ 𝑥 ∑ 𝑓 𝑥, 𝑦 𝑎 ∑ 𝑥𝑓 𝑥 𝑎𝐸 𝑋 Y que: ∑ ∑ 𝑏 𝑦𝑓 𝑥, 𝑦 𝑏 ∑ 𝑦 ∑ 𝑓 𝑥, 𝑦 𝑏 ∑ 𝑦𝑓 𝑦 𝑏𝐸 𝑌 Y en el caso particular que a=b=1, se tiene que, la esperanza de la suma es igual la suma de las esperanzas de las variables aleatorias: E (X + Y ) = E ( X ) + E ( Y ). Ejercicio: Comprobar lo mismo para X e Y variables aleatorias continuas. Simplemente hay que cambiar sumatorios por integrales. Varianza de S = a X + b Y La varianza de una suma S = a X +b Y es un poco más complicada que su media: Var( a X + b Y) = a2 Var( X ) + b2 Var( Y ) + 2 a b Cov(X,Y) En efecto: 𝑉𝑎𝑟 𝑆 𝐸 𝑎𝑋 𝑋 𝜇 𝑎 𝐸 𝑋 𝜇 𝐸𝑎 𝑎 𝑉𝑎𝑟 𝑋 𝑏𝑌 𝑎𝜇 2𝑎𝑏 𝑋 𝑏𝜇 𝜇 2𝑎𝑏 𝐸 𝑋 2𝑎𝑏 𝐶𝑜𝑣 𝑋, 𝑌 𝐸 𝑎𝑋 𝑌 𝜇 𝜇 𝑌 𝑏 𝜇 𝑎𝜇 𝑌 𝑏𝑌 𝑏𝜇 𝜇 𝑏 𝐸 𝑌 𝜇 𝑏 𝑉𝑎𝑟 𝑌 Muy importante: si las variables X e Y son independientes, entonces 𝐶𝑜𝑣 𝑋, 𝑌 que: Var (a X + b Y) = a2 Var(X) + b2 Var(Y). 0, y se tiene Y en el caso particular que a=b=1, se tiene que, si las variables son independientes, la varianza de la suma es la suma de las varianzas: Var (X + Y ) = Var ( X ) + Var ( Y ). IV - 8