Subido por Charlie Brown

EST 2021 P teoria Tema-4 Variables aleatorias multidimensionales

Anuncio
J. Gibergans Báguena / DMA – ESEIAAT / UPC
Tema 4: Variables aleatorias multidimensionales
TEMA 4
VARIABLES ALEATORIAS
MULTIDIMENSIONALES
4.1
4.2
4.3
4.4.
4.1.
Distribuciones conjuntas
Distribuciones condicionales
Variables aleatorias independientes
Combinación lineal de dos variables aleatorias
DISTRIBUCIONES CONJUNTAS DE PROBABILIDAD
De este tema, no hay lista de problemas y no preguntamos nada en los exámenes, pero lo
explicamos para poder aplicar algunos conceptos y resultados muy importantes en los temas
posteriores.
Los conceptos que vimos en el tema anterior se generalizan fácilmente a dos o más variables
aleatorias. Consideraremos el caso típico de dos variables aleatorias que son ambas discretas o ambas
continuas, …
 Caso discreto
Si X, Y son dos variables aleatorias discretas, definimos la función de masa de probabilidad conjunta
por:
f(x,y) = P(X=x, Y=y)
donde:
a)
f(x,y)  0
b)
Supongamos que:
∑ ∑ 𝑓 𝑥, 𝑦
1
 X puede tomar cualquiera de los m valores x1, x2, ..., xm
 Y puede tomar cualquiera de los n valores y1, y2, ..., yn
Entonces, la probabilidad del suceso: “X tome valor xj e Y tome valor yk,” está dada por:
P(X=xj, Y=yk) = f(xj,yk)
Distribución
conjunta
de X e Y
x1
x2
...
xj
...
xm
Distribución
marginal
de Y
y1
y2
...
yk
...
yn
f(x1,y1)
f(x2,y1)
...
f(xj,y1)
...
f(xm,y1)
f2(y1)
f(x1,y2)
f(x2,y2)
...
f(xj,y1)
...
f(xm,y2)
f2(y2)
...
...
...
...
...
...
...
f(x1,yk)
f(x2,yk)
...
f(xj,yk)
...
f(xm,yk)
f2(yk)
...
...
...
...
...
...
...
f(x1,yn)
f(x2,yn)
...
f(xj,yn)
...
f(xm,yn)
f2(yn)
P(Y=y1)
P(Y=y2)
...
P(Y=yk)
...
P(Y=yn)
IV - 1
Distribución
marginal
de X
f1(x1)
P(X=x1)
f1(x2)
P(X=x2)
...
...
f1(xj)
P(X=xj)
...
...
f1(xm)
P(X=xm)
1
Probabilidad y Estadística
J. Gibergans Báguena / DMA – ESEIAAT / UPC
La probabilidad de que X=xj se obtiene sumando todas las celdas de la fila correspondiente a xj:
𝑃 𝑋
𝑥
𝑓 𝑥
𝑓 𝑥 ,𝑦
𝑗
1,2, . . . 𝑚
Análogamente, la probabilidad de que Y=yk se obtiene sumando todas las celdas de la fila
correspondiente a yk:
𝑃 𝑌
𝑦
𝑓 𝑦
𝑓 𝑥 ,𝑦
𝑘
1,2, . . . 𝑛
Debido a que estas probabilidades se obtienen de los márgenes de la tabla, frecuentemente nos
referimos a f1(x) y f2(y) como las funciones de masa de probabilidad marginal de X, Y
respectivamente. Observamos también que:
∑
𝑓 𝑥
∑
1;
𝑓 𝑦
1
Que es lo mismo que escribir:
𝑓 𝑥 ,𝑦
1
La función de distribución conjunta de X, Y se define por:
𝐹 𝑥 ,𝑦
𝑃 𝑋
𝑥,
𝑌
𝑦
𝑓 𝑢, 𝑣
También podemos definir las funciones de distribución marginales a partir de las funciones de masa
de probabilidad marginales, tal y como hacíamos en el tema anterior con las variables
unidimensionales discretas.
Ejemplo 4.1: Consideremos el experimento aleatorio de lanzar 2 monedas al aire. El espacio muestral
será: ={(c,c), (c,s), (s,c), (s,s)}. Definimos las variables aleatorias:
X = número de sellos
Y = {1:si sale cara, 2: si no sale cara}
(X,Y)(c,c) = (0,1)
(X,Y)(s,c) = (1,1)
(X,Y)(c,s) = (1,1)
(X,Y)(s,s) = (2,2)
P(X=0, Y=1)=P(c,c)=1/4
P(X=1, Y=1)=P(c,s) + P(s,c) =1/4 + 1/4 = 1/2
P(X=2, Y=2)=P(s,s)=1/4
Distribución conjunta
de (X,Y)
0
1
2
Distribución
marginal de Y
1
2
P(0,1)=1/4
P(1,1)=2/4
P(2,1)=0
P(0,2)=0
P(1,2)=0
P(2,2)=1/4
Distribución
marginal de X
P(X=0)=1/4
P(X=1)=2/4
P(X=2)=1/4
P(Y=1)=3/4
P(Y=2)=1/4
1
IV - 2
J. Gibergans Báguena / DMA – ESEIAAT / UPC
Tema 4: Variables aleatorias multidimensionales
 Caso continuo
El caso donde ambas variables son continuas se obtiene fácilmente por analogía con el caso discreto
al reemplazar las sumas por integrales.
Así la función de densidad de probabilidad conjunta para las variables X,Y, se define por:
a)
b)
f(x,y)  0
∞ ∞
𝑓 𝑥, 𝑦 𝑑𝑥𝑑𝑦
∞ ∞
1
Gráficamente z=f(x,y) representa una superficie, llamada superficie de probabilidad:
z
z=f(x,y)
c
y
d
a
b
x
Figura 4.1: Superficie de probabilidad
El volumen total limitado por esta superficie y el plano XY es igual a 1 de acuerdo con la propiedad
(b) anterior. La probabilidad de que X esté entre a y b en tanto que Y esté entre c y d está dada
gráficamente por el volumen del paralelepípedo curvilíneo de la figura 4.1, y matemáticamente
por:
𝑃 𝑎
𝑋
𝑏, 𝑐
𝑌
𝑑
𝑓 𝑥, 𝑦 𝑑𝑥 𝑑𝑦
Generalizando, si A representa un suceso, habrá una región del plano RA que corresponde a él. En tal
caso podemos hallar la probabilidad de A efectuando la integración sobre A, es decir:
𝑃 𝐴
𝑓 𝑥, 𝑦 𝑑𝑥 𝑑𝑦
La función de distribución conjunta de X, Y, en este caso se define por:
𝐹 𝑥, 𝑦
𝑃 𝑋
𝑥, 𝑌
𝑦
𝑓 𝑢, 𝑣 𝑑𝑢 𝑑𝑣
∞
∞
Igual que en el caso unidimensional, puede hallarse la función de densidad de probabilidad conjunta
derivando la función de distribución, pero ahora:
𝜕 𝐹
𝜕𝑥𝜕𝑦
𝑓 𝑥, 𝑦
A partir de la función de distribución conjunta podemos definir las funciones de distribución
marginal, o simplemente, las funciones de distribución de X e Y, respectivamente por:
IV - 3
Probabilidad y Estadística
𝐹 𝑥
J. Gibergans Báguena / DMA – ESEIAAT / UPC
𝑃 𝑋
𝑥
∞
𝑓 𝑢 𝑑𝑢; 𝐹 𝑥
𝑃 𝑌
𝑦
∞
𝑓 𝑣 𝑑𝑣
Y a las derivadas de éstas respecto x e y, se llaman funciones de densidad marginal, o simplemente
funciones de densidad de X e Y:
𝑓 𝑥
∞
∞
𝑓 𝑥, 𝑣 𝑑𝑣 ;
∞
𝑓 𝑥
∞
𝑓 𝑢, 𝑦 𝑑𝑢
Ejemplo 4.2: Consideremos una variable aleatoria bidimensional con función de densidad conjunta:
3𝑥 1
𝑓 𝑥, 𝑦
𝑥𝑦 ,
0 𝑥 1, 0 𝑦
𝑜𝑡𝑟𝑜𝑠 𝑣𝑎𝑙𝑜𝑟𝑒𝑠 𝑑𝑒 𝑥 𝑒 𝑦
0,
1
Las funciones de densidad marginales vienen dadas por:
𝑓 𝑥
𝑓 𝑦
3𝑥 1
3𝑥 1
𝑥𝑦 𝑑𝑦
𝑥𝑦 𝑑𝑥
𝑥 𝑦
2
3 𝑥𝑦
3
𝑥
2
𝑥 𝑦
3
IV - 4
3𝑥 1
3
2𝑦
2
𝑥
,
2
,
0
0
𝑥
𝑦
1
1
J. Gibergans Báguena / DMA – ESEIAAT / UPC
4.2.
Tema 4: Variables aleatorias multidimensionales
DISTRIBUCIONES CONDICIONALES
 Caso discreto
Sea (X,Y) una variable aleatoria bidimensional discreta de función de probabilidad conjunta f(x,y).

Se define la función de probabilidad condicional de Y dada X=xj, como:
𝑓 𝑦 |𝑥

𝑥
𝑃 𝑌
𝑦 |𝑋
𝑃 𝑋 𝑥 ,𝑌 𝑦
𝑃 𝑋 𝑥
𝑥
𝑓 𝑥 ,𝑦
𝑓 𝑥
,
𝑘
1, . . . , 𝑛
Se define la función de probabilidad condicional de X dada Y=yk, como:
𝑃 𝑋 𝑥 ,𝑌 𝑦
𝑓 𝑥 ,𝑦
,
𝑗 1, . . , 𝑚
𝑃 𝑌 𝑦
𝑓 𝑦
Al igual que las distribuciones marginales, las distribuciones condicionadas también son
distribuciones unidimensionales. Ahora podríamos calcular todo lo que vimos en el Tema 3ª, pero
añadiendo “condicionado a ….”
𝑓 𝑥 |𝑦
𝑦
𝑃 𝑋
𝑥 |𝑌
𝑦
Ejemplo 4.3: Considerando de nuevo el ejemplo 4.1, calculamos:
- Distribución condicionada de X dada Y=1:
xi
0
1
2
𝒇 𝒙𝒊 |𝟏
𝑷 𝑿
𝒙𝒊 | 𝒀
𝑷 𝑿 𝒙𝒊 , 𝒀
𝑷 𝒀 𝟏
𝟏
𝟏
𝑓 0|𝑦
1
𝑃 𝑋
0| 𝑌
1
𝑃 𝑋 0, 𝑌 1
𝑃 𝑌 1
1/4
3/4
1
3
𝑓 1|𝑦
1
𝑃 𝑋
1| 𝑌
1
𝑃 𝑋 1, 𝑌 1
𝑃 𝑌 1
2/4
3/4
2
3
𝑓 2|𝑦
1
𝑃 𝑋
2| 𝑌
1
𝑃 𝑋 2, 𝑌 1
𝑃 𝑌 1
0
3/4
0
1
La esperanza de X condicionada a Y=1:
𝐸 𝑋|𝑌
1
0
1
2 0
- Distribución condicionada de Y dada X=0:
yi
0
1
𝒇 𝒚𝒊 |𝒙
𝟎
𝑷 𝑿
𝟎| 𝒀
𝒚𝒊
𝑷 𝑿 𝟎, 𝒀 𝒚𝒊
𝑷 𝑿 𝟎
𝑓 0|𝑥
0
𝑃 𝑌
0| 𝑋
0
𝑃 𝑋 0, 𝑌 0
𝑃 𝑋 0
1/4
1/4
1
𝑓 1|𝑥
0
𝑃 𝑌
1| 𝑋
0
𝑃 𝑋 0, 𝑌 1
𝑃 𝑋 0
0
1/4
0
1
IV - 5
Probabilidad y Estadística
J. Gibergans Báguena / DMA – ESEIAAT / UPC
 Caso continuo
Sea (X,Y) una variable aleatoria bidimensional continua de función de densidad de probabilidad
conjunta f(x,y). Ahora no podemos proceder a deducirla como en el caso discreto ya que P(Y=cte)=0.
Pero se define de la misma forma:

Se define la función de densidad marginal condicionada de X a que Y =b:
𝑓 𝑥| 𝑦

𝑓 𝑥, 𝑏
𝑓 𝑏
𝑏
Se define la función de densidad marginal condicionada de Y a que X = a:
𝑓 𝑎, 𝑦
𝑓 𝑎
Al igual que con las distribuciones condicionadas discretas, las distribuciones condicionadas
continuas también son distribuciones unidimensionales. Ahora podríamos calcular todo lo que vimos
en el Tema 3a, pero añadiendo “condicionado a ….”.
𝑓 𝑦| 𝑥
𝑎
Ejemplo 4.4: Considerando de nuevo el ejemplo 4.2 en el que teníamos:
3𝑥 1
𝑓 𝑥, 𝑦
0,
𝑥𝑦 ,
0 𝑥 1, 0 𝑦
𝑜𝑡𝑟𝑜𝑠 𝑣𝑎𝑙𝑜𝑟𝑒𝑠 𝑑𝑒 𝑥 𝑒 𝑦
1
Y las funciones de densidad marginales:
𝑓 𝑥
3𝑥 1
,
0
𝑥
1
𝑓 𝑦
y
,
0
𝑦
1
3
𝑥 ,
2
0
𝑥
6
5
2
𝑦,
5
- Distribución condicionada de X a que Y=1/2:
𝑓 𝑥𝑦
1
2
1
𝑓 𝑥,
2
1
𝑓
2
𝑥
2
2 1/2
2
3𝑥 1
3
3𝑥
3𝑥 /2
1
3𝑥
1
- Distribución condicionada de Y a que X=1/3:
𝑓 𝑦𝑥
1
3
1
1
3
1
3 1
3
1
,𝑦
3
1
𝑓
3
3
𝑓
1
𝑦
3
1/3
2
1
1
𝑦
3
5
6
6
1
5
1
𝑦
3
0
𝑦
1
Si queremos calcular el valor esperado de Y cuando X=1/3, haremos:
𝐸 𝑌𝑋
1
3
𝑦
6
5
2
𝑦 𝑑𝑦
5
6
𝑦
5
2
𝑦
5
IV - 6
𝑑𝑦
6
𝑦
10
2
𝑦
15
6
10
2
15
0.4.
J. Gibergans Báguena / DMA – ESEIAAT / UPC
4.3.
Tema 4: Variables aleatorias multidimensionales
VARIABLES ALEATORIAS INDEPENDIENTES (IMPORTANTE)
 Caso discreto: Sean X, Y dos variables aleatorias discretas. Decimos que X e Y son dos variables
aleatorias independientes si:
P(X = x,Y = y) = P(X = x) ꞏ P(Y = y)
o lo que es igual:
f(x,y) = f1(x) ꞏ f2(y)
 Caso continuo: Sean X, Y dos variables aleatorias continuas. Decimos que X e Y son dos
variables aleatorias independientes si:
P(X  x,Y  y) = P(X  x) ꞏ P(Y  y)
o lo que es igual:
F(x,y) = F1(x) ꞏ F2(y)
y por tanto,
f(x,y) =
f1(x) ꞏ f2(y)
Consecuencia importante: si X e Y son independientes, entonces 𝐸 𝑋𝑌
𝐸 𝑋 𝐸 𝑌 . Para el caso
continuo la demostración es como sigue (en el caso discreto es análoga, pero con sumatorios en lugar
de integrales):
∞
∞
𝐸 𝑋𝑌
∞
∞
∞
∞
𝑥𝑦 𝑓 𝑥, 𝑦 𝑑𝑥𝑑𝑦
∞
∞
∞
∞
𝑥 𝑓 𝑥 𝑑𝑥
∞
𝑥𝑦 𝑓 𝑥 𝑓 𝑦 𝑑𝑥𝑑𝑦
𝑦 𝑓 𝑦 𝑑𝑦
𝐸 𝑋 𝐸 𝑌 .
∞
Y la covarianza de dos variables aleatorias viene dada por 𝑪𝒐𝒗 𝑿, 𝒀
𝐶𝑜𝑣 𝑋, 𝑌
𝐸 𝑋 𝐸 𝑋 𝑌 𝐸 𝑌
𝐸 𝑋𝑌
𝐸 𝑋𝑌
𝐸 𝑋 𝐸 𝑌
𝐸 𝑋 𝐸 𝑌
𝑬 𝑿 𝑬 𝒀 :
𝐸 𝑋 𝑌 𝐸 𝑌 𝑋 𝐸 𝑋 𝐸 𝑌
𝐸 𝑋 𝐸 𝑌
𝐸 𝑋𝑌
𝐸 𝑋 𝐸 𝑌 .
Si las variables aleatorias son independientes, se tiene que: 𝑪𝒐𝒗 𝑿𝒀
IV - 7
𝑬 𝑿𝒀
𝟎.
Probabilidad y Estadística
4.4.
J. Gibergans Báguena / DMA – ESEIAAT / UPC
COMBINACIÓN LINEAL DE DOS VARIABLES ALEATORIAS (IMPORTANTE)
En este apartado vamos a examinar algunos procedimientos sencillos para analizar la combinación
lineal de dos variables aleatorias (también le podemos llamar la suma ponderada), S = a X + b Y,
donde a y b pueden ser cualesquiera coeficientes reales, llamados ponderaciones.
 Esperanza matemática de S = a X + b Y
Veamos que: E ( a X + b Y ) = a E ( X ) + b E( Y ), tanto para el caso continuo, como para el
discreto. En el caso de variables aleatorias discretas:
𝐸 𝑎𝑋
𝑏𝑌
𝑎𝑥
𝑏𝑦 𝑓 𝑥, 𝑦
𝑎
𝑎𝐸 𝑋
𝑥𝑓 𝑥, 𝑦
𝑏
𝑦𝑓 𝑥, 𝑦
𝑏𝐸 𝑌
Puesto que:
∑ ∑ 𝑎 𝑥𝑓 𝑥, 𝑦
𝑎 ∑ 𝑥 ∑ 𝑓 𝑥, 𝑦
𝑎 ∑ 𝑥𝑓 𝑥
𝑎𝐸 𝑋
Y que:
∑ ∑ 𝑏 𝑦𝑓 𝑥, 𝑦
𝑏 ∑ 𝑦 ∑ 𝑓 𝑥, 𝑦
𝑏 ∑ 𝑦𝑓 𝑦
𝑏𝐸 𝑌
Y en el caso particular que a=b=1, se tiene que, la esperanza de la suma es igual la suma de las
esperanzas de las variables aleatorias:
E (X + Y ) = E ( X ) + E ( Y ).
Ejercicio: Comprobar lo mismo para X e Y variables aleatorias continuas. Simplemente hay que
cambiar sumatorios por integrales.
 Varianza de S = a X + b Y
La varianza de una suma S = a X +b Y es un poco más complicada que su media:
Var( a X + b Y) = a2 Var( X ) + b2 Var( Y ) + 2 a b Cov(X,Y)
En efecto:
𝑉𝑎𝑟 𝑆
𝐸 𝑎𝑋
𝑋
𝜇
𝑎 𝐸 𝑋
𝜇
𝐸𝑎
𝑎 𝑉𝑎𝑟 𝑋
𝑏𝑌
𝑎𝜇
2𝑎𝑏 𝑋
𝑏𝜇
𝜇
2𝑎𝑏 𝐸 𝑋
2𝑎𝑏 𝐶𝑜𝑣 𝑋, 𝑌
𝐸 𝑎𝑋
𝑌
𝜇
𝜇
𝑌
𝑏
𝜇
𝑎𝜇
𝑌
𝑏𝑌
𝑏𝜇
𝜇
𝑏 𝐸 𝑌
𝜇
𝑏 𝑉𝑎𝑟 𝑌
Muy importante: si las variables X e Y son independientes, entonces 𝐶𝑜𝑣 𝑋, 𝑌
que:
Var (a X + b Y) = a2 Var(X) + b2 Var(Y).
0, y se tiene
Y en el caso particular que a=b=1, se tiene que, si las variables son independientes, la varianza de
la suma es la suma de las varianzas:
Var (X + Y ) = Var ( X ) + Var ( Y ).
IV - 8
Descargar