Tema 5: Vectores aleatorios bidimensionales.

Anuncio
52
Estadística
Tema 5: Vectores aleatorios bidimensionales.
Hasta ahora hemos estudiado las variables aleatorias unidimensionales, es decir, los valores de una
característica aleatoria. En muchos casos, interesa estudiar dos o más características y su relación: peso y
altura, renta y consumo, producción y gastos de mantenimiento, inversión tecnológica y número de obreros,...
Por comodidad vamos a estudiar los vectores aleatorios bidimensionales, aunque el estudio de variables
n-dimensionales es análogo.
Definición 1 Se denomina vector aleatorio bidimensional a una aplicación del espacio de sucesos de un
= (X, Y ) : Ω −→ IR2 .
experimento aleatorio en IR2 , X
Definición 2 Se dice que se ha definido la distribución conjunta del vector si se conocen:
1. Los resultados posibles del vector (es decir, su soporte, que denotaremos por SX o por S(X,Y ) ).
2. Las probabilidades de cada resultado posible.
5.1 Vectores discretos bidimensionales.
= (X, Y ) es discreto si sus dos
Definición 3 Diremos que un vector aleatorio bidimensional X
componentes son variables aleatorias discretas.
El soporte del vector es SX = SX × SY , donde SX = {x1 , x2 , . . . , xk } y SY = {y1 , y2 , . . . , yh } y se
puede representar como pares de números reales: {(xi , yj ), i = 1, 2, . . . , k
j = 1, 2, . . . , h} (donde k
o h pueden ser finitos o ser ∞).
Función de probabilidad conjunta:
= (X, Y ) un vector aleatorio bidimensional discreto; se define la función de
Definición 4 Sea X
probabilidad conjunta sobre el soporte del vector {(xi , yj ), i = 1, 2, . . . , k
j = 1, 2, . . . , h}, como:
pij = p(X = xi , Y = yj ) = p({ω ∈ Ω/X(ω) = xi , Y (ω) = yj })
Propiedades 1 (a) p(X = xi , Y = yj ) ≥ 0
(b)
i
j
p(X = xi , Y = yj ) = 1
53
Estadística
El vector aleatorio queda perfectamente determinado si conocemos su soporte y la función de probabilidad
conjunta.
Ejemplo 1:
Se lanzan dos dados y se consideran las variables aleatorias:
X= suma de los resultados
Y= valor absoluto de la diferencia
En este caso, p(X ≤ 4, Y = 2) = p({(1, 3), (3, 1)}) = 1/18 y de igual forma se obtiene la distribución
conjunta p(X = xi , Y = yj ):
Y \X
2
3
4
5
6
7
8
9
10
11
12
0
1/36
0
1/36
0
1/36
0
1/36
0
1/36
0
1/36
1
0
1/18
0
1/18
0
1/18
0
1/18
0
1/18
0
2
0
0
1/18
0
1/18
0
1/18
0
1/18
0
0
3
0
0
0
1/18
0
1/18
0
1/18
0
0
0
4
0
0
0
0
1/18
0
1/18
0
0
0
0
5
0
0
0
0
0
1/18
0
0
0
0
0
Función de distribución conjunta:
Como en el caso de variables aleatorias, la distribución de un vector aleatorio se puede dar también
utilizando una función de "probabilidades acumuladas", llamada función de distribución:
F (x, y) = p(X ≤ x, Y ≤ y),
x, y ∈ IR.
Función de probabilidad marginal:
Puesto que X e Y son variables aleatorias unidimensionales discretas, podemos hablar de su ley de
probabilidad que está relacionada con la distribución conjunta por las igualdades:
pX (xi ) = p(X = xi ) =
pY (yj ) = p(Y = yj ) =
j
i
p(xi , yj )
p(xi , yj )
Proposición 1 Las funciones de probabilidad pX y pY definen una probabilidad, es decir, se verifica
que:
pX (X = xi ) ≥ 0,
i
pX (X = xi ) = 1
54
Estadística
pY (Y = yj ) ≥ 0,
pY (Y = yj ) = 1
j
Estas probabilidades marginales se pueden añadir a la tabla de distribución conjunta:
Y \X
2
3
4
5
6
7
8
9
10
11
12
0
1/36
0
1/36
0
1/36
0
1/36
0
1/36
0
1/36
6/36
1
0
1/18
0
1/18
0
1/18
0
1/18
0
1/18
0
5/18
2
0
0
1/18
0
1/18
0
1/18
0
1/18
0
0
4/18
3
0
0
0
1/18
0
1/18
0
1/18
0
0
0
3/18
4
0
0
0
0
1/18
0
1/18
0
0
0
0
2/18
5
0
0
0
0
0
1/18
0
0
0
0
0
1/18
1/36
2/36
3/36
4/36
5/36
6/36
5/36
4/36
3/36
2/36
1/36
Función de probabilidad condicionada:
En algunos casos, poseemos información sobre el resultado de una de las variables, información que
puede ser útil para tener información sobre la otra variable. La distribución de probabilidades de alguna
de las variables X e Y sobre el subconjunto del correspondiente soporte, formado por los puntos en
los que la otra variable toma determinados valores, se denomina condicionada. Se puede hablar, por
ejemplo, de la variable aleatoria X/(Y = yj ), cuyo soporte es el mismo de X y su ley de probabilidad
viene dada por:
p(X = xi /(Y = yj )) =
p(X = xi , Y = yj )
p(X = xi , Y = yj )
=
p(Y = yj )
p(X = xk , Y = yj )
k
Análogamente se tiene la variable unidimensional Y /(X = xi ), cuyo soporte es SY y su ley de
probabilidades viene dada por:
p(Y = yj /(X = xi )) =
p(X = xi , Y = yj )
p(X = xi , Y = yj )
=
p(X = xi )
p(X = xi , Y = yk )
k
Proposición 2 Las funciones de probabilidad pX/Y =yj y pY /X=xi definen un probabilidad, es decir, se
verifica que:
pX/Y =yj (xi ) ≥ 0,
pY /X=xi (yj ) ≥ 0,
i
j
pX/Y =yj (xi ) = 1
pY /X=xi (yj ) = 1
55
Estadística
Está claro que se pueden definir otras distribuciones condicionadas, como por ejemplo:
p(X = xi /Y ≤ yj ),
p(Y = yj /xm ≤ X ≤ xn ), . . .
Ejemplo 2:
Volviendo a la tirada de dos dados y considerendo las variables:
X= suma de los resultados
Y= valor absoluto de la diferencia
podemos considerar la variable X/(Y ≤ 2), cuyo soporte es SX/(Y ≤2) = {2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12}
y cuya distribución de probabilidades viene dada por:
X/(Y ≤ 2)
2
3
4
5
6
7
8
9
10
11
12
p(X = xi /Y ≤ 2)
1/24
2/24
3/24
4/24
5/24
6/24
5/24
4/24
3/24
2/24
1/24
Observación 1 Obsérvese que estas distribuciones condicionadas son distribuciones de variables aleatorias
discretas.
5.2 Vectores aleatorios continuos bidimensionales:
= (X, Y )
Definición 5 Llamaremos vector aleatorio continuo bidimensional a un vector aleatorio X
para el cuál existe una función f (x, y), integrable Riemann en IR2 , tal que:
(a) f (x, y) ≥ 0,
(b)
(x, y) ∈ R2
∞ ∞
−∞ −∞ f (x, y)dxdy
(c) p(X ≤ x, Y ≤ y) =
=1
x
y
−∞ −∞ f (s, t)dtds
y también se denota
• La función f (x, y) se denomina función de densidad conjunta del vector X
por fXY (x, y).
Observación 2 La condición (a), significa que la función f (x, y) determina un sólido V (que puede
ser infinito) en IR2 . La condición (b) nos dice que el volumen de ese sólido tiene que ser 1. La expresión
(c) define una función en IR2 , llamada función de distribucióndel vector aleatorio:
F (x, y) = p(X ≤ x, Y ≤ y) =
x y
−∞ −∞
f (s, t)dtds
56
Estadística
Distribuciones marginales:
Definición 6 Se define la función de densidad marginal de X como:
fX (x) =
∞
−∞
f (x, y)dy
y se define la función de densidad marginal de Y:
fY (y) =
∞
−∞
f (x, y)dx
Observación 3 fX (x) es el área de la sección que origina en V el plano X=x. fY (y) es el área de la
sección que origina en V el plano Y=y.
Proposición 3 Las funciones fX y fY son funciones de densidad de variables aleatorias unidimensionales.
Distribución condicionada:
En el caso de una v.a. continua, la densidad de cualquier punto es cero, pero eso no significa que no
pueda ocurrir, por ello tiene perfecto sentido plantearnos, por ejemplo, la variable X condicionada por
que ha ocurrido Y = y0 .
Definición 7 Sea (X, Y ) un vector aleatorio continuo con función de densidad f (x, y). Si (x, y) es
un punto de continuidad de f, fY es continua en y y fY (y) > 0, entonces la función de densidad de la
distribución condicionada de X/(Y = y) viene dada por:
fX/Y =y (x) = f (X = x/Y = y) =
f (x, y)
fY (y)
Observación 4 De esta definición se deduce que
x
FX/Y =y (x) =
−∞ f (t, y) dt
fY (y)
Este valor corresponde a la proporción de área de la sección de V con el plano Y=y, correspondiente al
semiplano X ≤ x.
5.3 Independencia de variables aleatorias
Definición 8 Si el vector aleatorio es discreto entonces X e Y son independientes si y sólo si p(xi , yj ) =
pX (xi )pY (yj ) para cada (xi , yj ) ∈ S(X,Y ) .
57
Estadística
Se puede deducir fácilmente que X e Y son independientes si y sólo si: p(xi /(Y = yj )) = pX (xi ) y
p(yj /(X = xi )) = pY (yj )
Definición 9 Si el vector aleatorio es continuo entonces X e Y son independientes si y sólo si f (x, y) =
fX (x)fY (y) para cada (x, y) ∈ IR2 .
Igualmente, se deduce fácilmente que X e Y son independientes si, y sólo si: f (x/(Y = y)) = fX (x) y
f (y/(X = x)) = fY (y) (en aquellos puntos en donde están definidas estas densidades).
Generalización a n variables:
Definición 10 Las v.a discretas X1 , X2 , . . . Xn se dicen independientes si y sólo si p(X1 = x1 , X2 =
x2 , . . . Xn = xn ) = pX1 (x1 )pX2 (x2 ) . . . pXn (xn ) para cada (x1 , . . . , xn ) ∈ S(X1 ,X2 ,...,Xn ) .
Ejemplo 3:
Puede comprobarse que las variables X e Y definidas en el ejemplo 1 no son independientes.
Ejemplo 4:
En el experimento de tirar dos dados correctos, vamos a definir las variables X1 y X2 de la siguiente
forma:
X1 = 2 si al menos uno de los resultados es par y X1 = 1 si los dos resultados son impares
X2 = 3 si al menos un resultado es múltiplo de 3 y X2 = 0 si ninguno de los dos resultados es múltiplo
de 3.
Puede comprobarse que la tabla de doble entrada del vector (X1 , X2 ) es :
X1 \X2
0
3
1
4/36
5/36
9/36
2
12/36
15/36
27/36
16/36
20/36
Las variables X1 y X2 son independientes, puesto que
9 20
36 36
=
5
36
9 16
36 36
=
4
36
27 20
36 36
=
15
36
27 16
36 36
=
12
36
Definición 11 El vector aleatorio continuo (X1 , . . . , Xn ) tiene componentes que son independientes si
y sólo si f (x1 , x2 , . . . , xn ) = fX1 (x1 ) . . . fXn (xn ) .
58
Estadística
5.4 Funciones de vectores aleatorios
En ocasiones, los sucesos a estudiar se expresan como una relación funcional de variables aleatorias (por
ejemplo, el suceso X + Y ≤ 1, ó XY ≥ 62.5). Por ello, vamos a introducir brevemente las funciones
de vectores aleatorios.
Proposición 4 Si (X,Y) es un vector aleatorio y h : IR2 −→ IR es una función continua, entonces
h(X,Y) es una variable aleatoria que, si el vector es continuo, será continua.
La distribución de una función de un vector aleatorio se obtiene a partir de la distribución conjunta
del vector: p(h(X, Y ) ≤ z) = p({(x, y)/h(x, y) ≤ z})
5.5 Medidas características de un vector aleatorio
• Las distribuciones marginales y condicionadas son distribuciones unidimensionales y por tanto se
pueden considerar sus medidas características (media, mediana, varianza, etc) como en el caso de
una variable.
• Las componentes de un vector aleatorio pueden estar relacionadas en alguna forma. Al igual que
estudiamos en el tema de descriptiva, uno de los tipos de relación de mayor interés es la relación
lineal. Una medida de esta relación lineal la proporciona la covarianza, que en el caso discreto se
define como:
Definición 12 Se define la covarianza del vector discreto (X,Y) como:
σXY = Cov(X, Y ) =
∞ ∞
(xi − E(X))(yj − E(Y ))p(X = xi , Y = yj )
i=1 j=1
Definición 13 Se define la covarianza del vector continuo (X,Y) como:
σXY = Cov(X, Y ) =
∞ ∞
−∞ −∞
(x − E(X))(y − E(Y ))f (x, y)dxdy
Propiedades 2 (a) Cov(X,Y) = Cov(Y,X)
(b) Cov(X, Y ) =
∞ ∞
∞ ∞
i=1 j=1
xi yj p(X = xi , Y = yj )−E(X)E(Y ), si (X,Y) es discreto, y Cov(X, Y ) =
−∞ −∞ xyf (x, y)dxdy
− E(X)E(Y ), si (X,Y) es continuo.
(c) Cov(aX+b,cY+d) = acCov(X,Y)
(d) Si X e Y son independientes, entonces Cov(X, Y ) = 0.
59
Estadística
La covarianza tiene el inconveniente de depender de las unidades de medida de las variables. Una
medida adimensional de la posible relación lineal es el coeficiente de correlación lineal de Pearson,
que se define de la forma siguiente:
Definición 14 Se define el coeficiente de correlación lineal del vector (X,Y) como:
ρ=
Cov(X, Y )
σX σY
Sus propiedades son análogas a las del coeficiente de correlación estudiado en estadística descriptiva.
• En ocasiones interesa estudiar ciertas variables aleatorias definidas a partir de un vector bidimensional,
y especialmente, las medidas principales de esa variable. Si (X,Y) es un vector aleatorio y
h : IR2 −→ IR es una función continua,
Definición 15 Se define E(h(X,Y)) como:
–
E(h(X, Y )) =
∞ ∞
h(xi , yj )p(xi , yj )
i=1 j=1
si (X,Y) es discreto.
–
E(h(X, Y )) =
∞ ∞
−∞ −∞
h(x, y)f (x, y)
dxdy
si (X,Y) es continuo.
Como consecuencia de la definición anterior, se deducen las propiedades siguientes:
Propiedades 3 Si (X,Y) es un vector aleatorio bidimensional y a,b son números reales:
(a) E(aX + bY ) = aE(X) + bE(Y ).
(b) V ar(aX + bY ) = a2 V ar(X) + b2 V ar(Y ) + 2abCov(X, Y ).
(c) Si X e Y son independientes: V ar(aX + bY ) = a2 V ar(X) + b2 V ar(Y ).
(d) Si X e Y son independientes: E(aXY ) = aE(X)E(Y ).
Descargar