52 Estadística Tema 5: Vectores aleatorios bidimensionales. Hasta ahora hemos estudiado las variables aleatorias unidimensionales, es decir, los valores de una característica aleatoria. En muchos casos, interesa estudiar dos o más características y su relación: peso y altura, renta y consumo, producción y gastos de mantenimiento, inversión tecnológica y número de obreros,... Por comodidad vamos a estudiar los vectores aleatorios bidimensionales, aunque el estudio de variables n-dimensionales es análogo. Definición 1 Se denomina vector aleatorio bidimensional a una aplicación del espacio de sucesos de un = (X, Y ) : Ω −→ IR2 . experimento aleatorio en IR2 , X Definición 2 Se dice que se ha definido la distribución conjunta del vector si se conocen: 1. Los resultados posibles del vector (es decir, su soporte, que denotaremos por SX o por S(X,Y ) ). 2. Las probabilidades de cada resultado posible. 5.1 Vectores discretos bidimensionales. = (X, Y ) es discreto si sus dos Definición 3 Diremos que un vector aleatorio bidimensional X componentes son variables aleatorias discretas. El soporte del vector es SX = SX × SY , donde SX = {x1 , x2 , . . . , xk } y SY = {y1 , y2 , . . . , yh } y se puede representar como pares de números reales: {(xi , yj ), i = 1, 2, . . . , k j = 1, 2, . . . , h} (donde k o h pueden ser finitos o ser ∞). Función de probabilidad conjunta: = (X, Y ) un vector aleatorio bidimensional discreto; se define la función de Definición 4 Sea X probabilidad conjunta sobre el soporte del vector {(xi , yj ), i = 1, 2, . . . , k j = 1, 2, . . . , h}, como: pij = p(X = xi , Y = yj ) = p({ω ∈ Ω/X(ω) = xi , Y (ω) = yj }) Propiedades 1 (a) p(X = xi , Y = yj ) ≥ 0 (b) i j p(X = xi , Y = yj ) = 1 53 Estadística El vector aleatorio queda perfectamente determinado si conocemos su soporte y la función de probabilidad conjunta. Ejemplo 1: Se lanzan dos dados y se consideran las variables aleatorias: X= suma de los resultados Y= valor absoluto de la diferencia En este caso, p(X ≤ 4, Y = 2) = p({(1, 3), (3, 1)}) = 1/18 y de igual forma se obtiene la distribución conjunta p(X = xi , Y = yj ): Y \X 2 3 4 5 6 7 8 9 10 11 12 0 1/36 0 1/36 0 1/36 0 1/36 0 1/36 0 1/36 1 0 1/18 0 1/18 0 1/18 0 1/18 0 1/18 0 2 0 0 1/18 0 1/18 0 1/18 0 1/18 0 0 3 0 0 0 1/18 0 1/18 0 1/18 0 0 0 4 0 0 0 0 1/18 0 1/18 0 0 0 0 5 0 0 0 0 0 1/18 0 0 0 0 0 Función de distribución conjunta: Como en el caso de variables aleatorias, la distribución de un vector aleatorio se puede dar también utilizando una función de "probabilidades acumuladas", llamada función de distribución: F (x, y) = p(X ≤ x, Y ≤ y), x, y ∈ IR. Función de probabilidad marginal: Puesto que X e Y son variables aleatorias unidimensionales discretas, podemos hablar de su ley de probabilidad que está relacionada con la distribución conjunta por las igualdades: pX (xi ) = p(X = xi ) = pY (yj ) = p(Y = yj ) = j i p(xi , yj ) p(xi , yj ) Proposición 1 Las funciones de probabilidad pX y pY definen una probabilidad, es decir, se verifica que: pX (X = xi ) ≥ 0, i pX (X = xi ) = 1 54 Estadística pY (Y = yj ) ≥ 0, pY (Y = yj ) = 1 j Estas probabilidades marginales se pueden añadir a la tabla de distribución conjunta: Y \X 2 3 4 5 6 7 8 9 10 11 12 0 1/36 0 1/36 0 1/36 0 1/36 0 1/36 0 1/36 6/36 1 0 1/18 0 1/18 0 1/18 0 1/18 0 1/18 0 5/18 2 0 0 1/18 0 1/18 0 1/18 0 1/18 0 0 4/18 3 0 0 0 1/18 0 1/18 0 1/18 0 0 0 3/18 4 0 0 0 0 1/18 0 1/18 0 0 0 0 2/18 5 0 0 0 0 0 1/18 0 0 0 0 0 1/18 1/36 2/36 3/36 4/36 5/36 6/36 5/36 4/36 3/36 2/36 1/36 Función de probabilidad condicionada: En algunos casos, poseemos información sobre el resultado de una de las variables, información que puede ser útil para tener información sobre la otra variable. La distribución de probabilidades de alguna de las variables X e Y sobre el subconjunto del correspondiente soporte, formado por los puntos en los que la otra variable toma determinados valores, se denomina condicionada. Se puede hablar, por ejemplo, de la variable aleatoria X/(Y = yj ), cuyo soporte es el mismo de X y su ley de probabilidad viene dada por: p(X = xi /(Y = yj )) = p(X = xi , Y = yj ) p(X = xi , Y = yj ) = p(Y = yj ) p(X = xk , Y = yj ) k Análogamente se tiene la variable unidimensional Y /(X = xi ), cuyo soporte es SY y su ley de probabilidades viene dada por: p(Y = yj /(X = xi )) = p(X = xi , Y = yj ) p(X = xi , Y = yj ) = p(X = xi ) p(X = xi , Y = yk ) k Proposición 2 Las funciones de probabilidad pX/Y =yj y pY /X=xi definen un probabilidad, es decir, se verifica que: pX/Y =yj (xi ) ≥ 0, pY /X=xi (yj ) ≥ 0, i j pX/Y =yj (xi ) = 1 pY /X=xi (yj ) = 1 55 Estadística Está claro que se pueden definir otras distribuciones condicionadas, como por ejemplo: p(X = xi /Y ≤ yj ), p(Y = yj /xm ≤ X ≤ xn ), . . . Ejemplo 2: Volviendo a la tirada de dos dados y considerendo las variables: X= suma de los resultados Y= valor absoluto de la diferencia podemos considerar la variable X/(Y ≤ 2), cuyo soporte es SX/(Y ≤2) = {2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12} y cuya distribución de probabilidades viene dada por: X/(Y ≤ 2) 2 3 4 5 6 7 8 9 10 11 12 p(X = xi /Y ≤ 2) 1/24 2/24 3/24 4/24 5/24 6/24 5/24 4/24 3/24 2/24 1/24 Observación 1 Obsérvese que estas distribuciones condicionadas son distribuciones de variables aleatorias discretas. 5.2 Vectores aleatorios continuos bidimensionales: = (X, Y ) Definición 5 Llamaremos vector aleatorio continuo bidimensional a un vector aleatorio X para el cuál existe una función f (x, y), integrable Riemann en IR2 , tal que: (a) f (x, y) ≥ 0, (b) (x, y) ∈ R2 ∞ ∞ −∞ −∞ f (x, y)dxdy (c) p(X ≤ x, Y ≤ y) = =1 x y −∞ −∞ f (s, t)dtds y también se denota • La función f (x, y) se denomina función de densidad conjunta del vector X por fXY (x, y). Observación 2 La condición (a), significa que la función f (x, y) determina un sólido V (que puede ser infinito) en IR2 . La condición (b) nos dice que el volumen de ese sólido tiene que ser 1. La expresión (c) define una función en IR2 , llamada función de distribucióndel vector aleatorio: F (x, y) = p(X ≤ x, Y ≤ y) = x y −∞ −∞ f (s, t)dtds 56 Estadística Distribuciones marginales: Definición 6 Se define la función de densidad marginal de X como: fX (x) = ∞ −∞ f (x, y)dy y se define la función de densidad marginal de Y: fY (y) = ∞ −∞ f (x, y)dx Observación 3 fX (x) es el área de la sección que origina en V el plano X=x. fY (y) es el área de la sección que origina en V el plano Y=y. Proposición 3 Las funciones fX y fY son funciones de densidad de variables aleatorias unidimensionales. Distribución condicionada: En el caso de una v.a. continua, la densidad de cualquier punto es cero, pero eso no significa que no pueda ocurrir, por ello tiene perfecto sentido plantearnos, por ejemplo, la variable X condicionada por que ha ocurrido Y = y0 . Definición 7 Sea (X, Y ) un vector aleatorio continuo con función de densidad f (x, y). Si (x, y) es un punto de continuidad de f, fY es continua en y y fY (y) > 0, entonces la función de densidad de la distribución condicionada de X/(Y = y) viene dada por: fX/Y =y (x) = f (X = x/Y = y) = f (x, y) fY (y) Observación 4 De esta definición se deduce que x FX/Y =y (x) = −∞ f (t, y) dt fY (y) Este valor corresponde a la proporción de área de la sección de V con el plano Y=y, correspondiente al semiplano X ≤ x. 5.3 Independencia de variables aleatorias Definición 8 Si el vector aleatorio es discreto entonces X e Y son independientes si y sólo si p(xi , yj ) = pX (xi )pY (yj ) para cada (xi , yj ) ∈ S(X,Y ) . 57 Estadística Se puede deducir fácilmente que X e Y son independientes si y sólo si: p(xi /(Y = yj )) = pX (xi ) y p(yj /(X = xi )) = pY (yj ) Definición 9 Si el vector aleatorio es continuo entonces X e Y son independientes si y sólo si f (x, y) = fX (x)fY (y) para cada (x, y) ∈ IR2 . Igualmente, se deduce fácilmente que X e Y son independientes si, y sólo si: f (x/(Y = y)) = fX (x) y f (y/(X = x)) = fY (y) (en aquellos puntos en donde están definidas estas densidades). Generalización a n variables: Definición 10 Las v.a discretas X1 , X2 , . . . Xn se dicen independientes si y sólo si p(X1 = x1 , X2 = x2 , . . . Xn = xn ) = pX1 (x1 )pX2 (x2 ) . . . pXn (xn ) para cada (x1 , . . . , xn ) ∈ S(X1 ,X2 ,...,Xn ) . Ejemplo 3: Puede comprobarse que las variables X e Y definidas en el ejemplo 1 no son independientes. Ejemplo 4: En el experimento de tirar dos dados correctos, vamos a definir las variables X1 y X2 de la siguiente forma: X1 = 2 si al menos uno de los resultados es par y X1 = 1 si los dos resultados son impares X2 = 3 si al menos un resultado es múltiplo de 3 y X2 = 0 si ninguno de los dos resultados es múltiplo de 3. Puede comprobarse que la tabla de doble entrada del vector (X1 , X2 ) es : X1 \X2 0 3 1 4/36 5/36 9/36 2 12/36 15/36 27/36 16/36 20/36 Las variables X1 y X2 son independientes, puesto que 9 20 36 36 = 5 36 9 16 36 36 = 4 36 27 20 36 36 = 15 36 27 16 36 36 = 12 36 Definición 11 El vector aleatorio continuo (X1 , . . . , Xn ) tiene componentes que son independientes si y sólo si f (x1 , x2 , . . . , xn ) = fX1 (x1 ) . . . fXn (xn ) . 58 Estadística 5.4 Funciones de vectores aleatorios En ocasiones, los sucesos a estudiar se expresan como una relación funcional de variables aleatorias (por ejemplo, el suceso X + Y ≤ 1, ó XY ≥ 62.5). Por ello, vamos a introducir brevemente las funciones de vectores aleatorios. Proposición 4 Si (X,Y) es un vector aleatorio y h : IR2 −→ IR es una función continua, entonces h(X,Y) es una variable aleatoria que, si el vector es continuo, será continua. La distribución de una función de un vector aleatorio se obtiene a partir de la distribución conjunta del vector: p(h(X, Y ) ≤ z) = p({(x, y)/h(x, y) ≤ z}) 5.5 Medidas características de un vector aleatorio • Las distribuciones marginales y condicionadas son distribuciones unidimensionales y por tanto se pueden considerar sus medidas características (media, mediana, varianza, etc) como en el caso de una variable. • Las componentes de un vector aleatorio pueden estar relacionadas en alguna forma. Al igual que estudiamos en el tema de descriptiva, uno de los tipos de relación de mayor interés es la relación lineal. Una medida de esta relación lineal la proporciona la covarianza, que en el caso discreto se define como: Definición 12 Se define la covarianza del vector discreto (X,Y) como: σXY = Cov(X, Y ) = ∞ ∞ (xi − E(X))(yj − E(Y ))p(X = xi , Y = yj ) i=1 j=1 Definición 13 Se define la covarianza del vector continuo (X,Y) como: σXY = Cov(X, Y ) = ∞ ∞ −∞ −∞ (x − E(X))(y − E(Y ))f (x, y)dxdy Propiedades 2 (a) Cov(X,Y) = Cov(Y,X) (b) Cov(X, Y ) = ∞ ∞ ∞ ∞ i=1 j=1 xi yj p(X = xi , Y = yj )−E(X)E(Y ), si (X,Y) es discreto, y Cov(X, Y ) = −∞ −∞ xyf (x, y)dxdy − E(X)E(Y ), si (X,Y) es continuo. (c) Cov(aX+b,cY+d) = acCov(X,Y) (d) Si X e Y son independientes, entonces Cov(X, Y ) = 0. 59 Estadística La covarianza tiene el inconveniente de depender de las unidades de medida de las variables. Una medida adimensional de la posible relación lineal es el coeficiente de correlación lineal de Pearson, que se define de la forma siguiente: Definición 14 Se define el coeficiente de correlación lineal del vector (X,Y) como: ρ= Cov(X, Y ) σX σY Sus propiedades son análogas a las del coeficiente de correlación estudiado en estadística descriptiva. • En ocasiones interesa estudiar ciertas variables aleatorias definidas a partir de un vector bidimensional, y especialmente, las medidas principales de esa variable. Si (X,Y) es un vector aleatorio y h : IR2 −→ IR es una función continua, Definición 15 Se define E(h(X,Y)) como: – E(h(X, Y )) = ∞ ∞ h(xi , yj )p(xi , yj ) i=1 j=1 si (X,Y) es discreto. – E(h(X, Y )) = ∞ ∞ −∞ −∞ h(x, y)f (x, y) dxdy si (X,Y) es continuo. Como consecuencia de la definición anterior, se deducen las propiedades siguientes: Propiedades 3 Si (X,Y) es un vector aleatorio bidimensional y a,b son números reales: (a) E(aX + bY ) = aE(X) + bE(Y ). (b) V ar(aX + bY ) = a2 V ar(X) + b2 V ar(Y ) + 2abCov(X, Y ). (c) Si X e Y son independientes: V ar(aX + bY ) = a2 V ar(X) + b2 V ar(Y ). (d) Si X e Y son independientes: E(aXY ) = aE(X)E(Y ).