Distribuciones Multivariantes Distribuciones Multivariantes

Anuncio
Distribuciones Multivariantes
Distribuciones Multivariantes
Objetivos del tema:
Distribución conjunta de un vector aleatorio
Al final del tema el alumno será capaz de:
Distribuciones marginales y condicionadas
Independencia entre variables aleatorias
Utilizar la función de probabilidad o densidad conjunta para el cálculo de
probabilidades
Características de un vector aleatorio
Calcular distribuciones marginales y condicionadas a partir de las
conjuntas
Esperanza
Varianza, Covarianza, Correlación
Interpretar y calcular covarianzas y correlaciones entre variables aleatorias
Calcular medias y varianzas de transformaciones lineales de vectores
aleatorios
Transformaciones de vectores aleatorios
Distribución Normal multivariante
1
Comprender las propiedades de la distribución Normal bivariante
2
Estadística. Profesora: María Durbán
Distribuciones Multivariantes
1. Distribución conjunta de un vector aleatorio
1.
1.Distribución
Distribuciónconjunta
conjuntade
deun
unvector
vectoraleatorio
aleatorio
En el tema anterior estudiamos distribuciones de probabilidad para una
variable aleatoria. Sin embargo, a menudo nos interesa estudiar más de
una variable en un experimento aleatorio.
2. Distribuciones marginales y condicionadas
Por ejemplo, en la clasificación de señales emitidas y recibidas, cada señal
se clasifica como de baja, media o alta calidad.
Podemos definir:
X=“número de señales de baja calidad recibidas”, e
Y=“número de señales de alta calidad”.
3. Independencia entre variables aleatorias
4. Características de un vector aleatorio
Esperanza
Varianza, Covarianza, Correlación
En general, si X e Y son dos variables aleatorias, la distribución de
probabilidad que define simultáneamente su comportamiento se
llama distribución de probabilidad conjunta.
5. Transformaciones de vectores aleatorios
6. Distribución Normal multivariante
Estadística. Profesora: María Durbán
3
4
Estadística. Profesora: María Durbán
1. Distribución conjunta de un vector aleatorio
1. Distribución conjunta de un vector aleatorio
Variables discretas
Ejemplo
Dadas dos v.a. discretas, X , Y, definimos su función distribución de
probabilidad mediante la función de probabilidad conjunta:
En el desarrollo de un nuevo receptor para la transmisión de información
digital, cada bit recibido se clasifica como aceptable, sospechoso o no
aceptable, dependiendo de la calidad de la señal recibida.
Se transmiten 4 bits y se definen las siguientes v.a.:
p( x, y ) = Pr( X = x, Y = y )
Como en el caso unidimensional está función debe verificar:
p ( x, y ) ≥ 0
X = Número de bits aceptables
Y = Número de bits sospechosos
∑∑ p( x, y) = 1
x
y
La función de distribución conjunta:
F ( x0 , y0 ) = Pr( X ≤ x0 , Y ≤ y0 ) =
∑ ∑ Pr( X = x, Y = y)
x ≤ x0 y ≤ y0
5
Estadística. Profesora: María Durbán
6
Estadística. Profesora: María Durbán
1. Distribución conjunta de un vector aleatorio
1. Distribución conjunta de un vector aleatorio
Ejemplo
Ejemplo
En el desarrollo de un nuevo receptor para la transmisión de información
digital, cada bit recibido se clasifica como aceptable, sospechoso o no
aceptable, dependiendo de la calidad de la señal recibida.
Se transmiten 4 bits y se definen las siguientes v.a.:
Y
p ( x, y ) ≥ 0
∑∑ p( x, y) = 1
x
y
Estadística. Profesora: María Durbán
4
4.1x10-5
3
4.1x10-5
2
1.54x10-5 1.38x10-3 3.11x10-2
1.84x10-3
Pr( X ≤ 1, Y ≤ 2)
1
2.56x10-6 3.46x10-4 1.56x10-2
0.2333
0
1.6x10-7 2.88x10-5
7.83x10-2
0
En el desarrollo de un nuevo receptor para la transmisión de información
digital, cada bit recibido se clasifica como aceptable, sospechoso o no
aceptable, dependiendo de la calidad de la señal recibida.
Se transmiten 4 bits y se definen las siguientes v.a.:
Y
1
1.94x10-3
2
3
0.6561
4
X
7
Estadística. Profesora: María Durbán
4
4.1x10-5
3
4.1x10-5
2
1.54x10-5 1.38x10-3 3.11x10-2
1.84x10-3
1
2.56x10-6 3.46x10-4 1.56x10-2
0.2333
0
1.6x10-7 2.88x10-5
7.83x10-2
0
1
1.94x10-3
2
3
0.6561
4
X
8
1. Distribución conjunta de un vector aleatorio
1. Distribución conjunta de un vector aleatorio
Distribución Multinomial
Ejemplo
Un experimento se repite n veces de forma independiente:
Las probabilidades de que cierta lámpara de un modelo de proyector dure
menos de 40 horas, entre 40 y 80 horas, y más de 80 horas de uso son
0.3 ; 0.5 y 0.2 respectivamente.
1. El experimento tiene k posibles resultados
2. La probabilidad de cada resultado, p1 , p2 ,K pk se mantiene constante
Calcular la probabilidad de que entre 8 de tales lámparas, 2 duren menos de
40 horas; cinco duren entre 40 y 80 horas, y una dure más de 80 horas.
La variable X i = el número de veces que ocurre el resultado i-ésimo
Hay 3 resultados posibles:
X 1 = dura < 40 → p1 = 0.3
X 1 , X 2 , K X k siguen una distribución multinomial con función de probabilidad
X 2 = dura 40 − 80 → p2 = 0.5
conjunta:
X 3 = dura > 80 → p3 = 0.2
n!
p1x1 p2x2 K pkxk
Pr( X 1 = x1 , X 2 = x2 , K, X k = xk ) =
x1 ! x2 !K xk !
x1 + x2 + K + xk = n
Pr( X 1 = 2, X 2 = 5, X 3 = 1) =
p1 + p2 + K + pk = 1
8!
0.32 0.550.2 = 0.095
2!5!1!
9
Estadística. Profesora: María Durbán
10
Estadística. Profesora: María Durbán
1. Distribución conjunta de un vector aleatorio
1. Distribución conjunta de un vector aleatorio
Variables continuas
Variables continuas
Dadas dos v.a. continuas, X , Y definimos su función distribución de
probabilidad mediante la función de densidad conjunta:
La probabilidad ahora se calcula como un volumen:
Pr(a ≤ X ≤ b, c ≤ Y ≤ d ) = ∫
b
a
f ( x, y )
∫
d
c
f ( x, y )dxdy
Como en el caso unidimensional está función debe verificar:
f ( x, y ) ≥ 0
+∞
+∞
−∞
−∞
∫ ∫
f ( x, y )dxdy = 1
Pr(−1 ≤ X ≤ 1, −1.5 ≤ Y ≤ 1.5)
La función de distribución conjunta:
2
d F ( x, y )
f
(
x
,
y
)
=
F ( x , y ) = Pr( X ≤ x , Y ≤ y ) = ∫ ∫
dxdy
y0
0
0
Estadística. Profesora: María Durbán
0
0
x0
−∞ −∞
f ( x, y )dxdy
11
12
Estadística. Profesora: María Durbán
1. Distribución conjunta de un vector aleatorio
1. Distribución conjunta de un vector aleatorio
Variables continuas
Ejemplo
La probabilidad ahora se calcula como un volumen:
Pr(a ≤ X ≤ b, c ≤ Y ≤ d ) = ∫
b
a
∫
d
c
Sea X la variable aleatoria que representa el tiempo hasta que un servidor
se conecta con tu ordenador (en milisegundos) e Y el tiempo hasta que el
servidor te autoriza como usuario.
f ( x, y )dxdy
La función de densidad conjunta viene dada por:
f ( x, y ) = 6 ×10−6 exp(−0.001x − 0.002 y )
Pr(−1 ≤ X ≤ 1, −1.5 ≤ Y ≤ 1.5)
0< x< y
¿ Pr( X < 1000, Y < 2000) ?
13
Estadística. Profesora: María Durbán
14
Estadística. Profesora: María Durbán
1. Distribución conjunta de un vector aleatorio
1. Distribución conjunta de un vector aleatorio
Ejemplo
Ejemplo
f ( x, y ) = 6 ×10−6 exp(−0.001x − 0.002 y )
f ( x, y ) = 6 ×10−6 exp(−0.001x − 0.002 y )
0< x< y
¿ Pr( X < 1000, Y < 2000) ?
0< x< y
¿ Pr( X < 1000, Y < 2000) ?
Y
Y
3000
3000
Recinto donde la función de
densidad no es 0
2000
2000
Recinto de integración para el cálculo
de esa probabilidad
1000
1000
1000 2000 3000
Estadística. Profesora: María Durbán
X
15
1000 2000 3000
Estadística. Profesora: María Durbán
X
16
1. Distribución conjunta de un vector aleatorio
1. Distribución conjunta de un vector aleatorio
Ejemplo
f ( x, y ) = 6 ×10−6 exp(−0.001x − 0.002 y )
Y
Pr( X < 1000, Y < 2000) = ∫
1000
0
∫
y
0
Ejemplo
f ( x, y ) = 6 ×10−6 exp(−0.001x − 0.002 y )
0< x< y
Y
f ( x, y )dxdy +
Pr( X < 1000, Y < 2000) = ∫
1000
0
3000
y
0
f ( x, y )dxdy + ∫
2000
1000
∫
1000
0
f ( x, y )dxdy
= 0.915
3000
2000
∫
0< x< y
2000
x=y
x=y
1000
1000
1000 2000 3000
X
17
Estadística. Profesora: María Durbán
1000 2000 3000
X
18
Estadística. Profesora: María Durbán
Distribuciones Multivariantes
2. Distribuciones marginales
Si se definen más de una v.a. en un experimento, es importante
distinguir entre la distribución de probabilidad conjunta y la distribución
de probabilidad de cada variable individualmente. A la distribución de
cada variable se le denomina distribución marginal.
1. Distribución conjunta de un vector aleatorio
2. Distribuciones marginales y condicionadas
Variables Discretas
3. Independencia entre variables aleatorias
Dadas dos v.a. discretas, X , Y con función de probabilidad conjunta
p( x, y ) las funciones de probabilidad marginales de ambas variables son:
4. Características de un vector aleatorio
p X ( x) = Pr( X = x) = ∑ Pr( X = x, Y = y )
Esperanza
Varianza, Covarianza, Correlación
∀y
pY ( y ) = Pr(Y = y ) = ∑ Pr( X = x, Y = y )
∀x
5. Transformaciones de vectores aleatorios
6. Distribución Normal multivariante
Estadística. Profesora: María Durbán
Son funciones de probabilidad
19
Se puede calcular su esperanza,
varianza, etc.
20
Estadística. Profesora: María Durbán
2. Distribuciones marginales
2. Distribuciones marginales
Ejemplo
Ejemplo
En el desarrollo de un nuevo receptor para la transmisión de información
digital, cada bit recibido se clasifica como aceptable, sospechoso o no
aceptable, dependiendo de la calidad de la señal recibida.
Se transmiten 4 bits y se definen las siguientes v.a.:
Y
X = Número de bits aceptables
Las funciones de probabilidad 4 4.1x10
Y = Número de bits sospechosos
En el desarrollo de un nuevo receptor para la transmisión de información
digital, cada bit recibido se clasifica como aceptable, sospechoso o no
aceptable, dependiendo de la calidad de la señal recibida.
Se transmiten 4 bits y se definen las siguientes v.a.:
Y
X = Número de bits aceptables
Las funciones de probabilidad
Y = Número de bits sospechosos
-5
marginal se obtendrían
sumando en ambas
direcciones.
3
4.1x10-5
2
1.54x10-5 1.38x10-3 3.11x10-2
1.84x10-3
1
2.56x10-6 3.46x10-4 1.56x10-2
0.2333
0
1.6x10-7 2.88x10-5
7.83x10-2
0
Estadística. Profesora: María Durbán
1
1.94x10-3
2
3
marginal se obtendrían
sumando en ambas
direcciones.
0.0001 0.0036
0.6561
4
X
21
0
Estadística. Profesora: María Durbán
0.0486
1
2
0.2916
3
0.6561
4
X
22
2. Distribuciones marginales
2. Distribuciones marginales
Ejemplo
Ejemplo
En el desarrollo de un nuevo receptor para la transmisión de información
digital, cada bit recibido se clasifica como aceptable, sospechoso o no
aceptable, dependiendo de la calidad de la señal recibida.
Se transmiten 4 bits y se definen las siguientes v.a.:
Y
X = Número de bits aceptables
Las funciones de probabilidad 4 4.1x10
Y = Número de bits sospechosos
En el desarrollo de un nuevo receptor para la transmisión de información
digital, cada bit recibido se clasifica como aceptable, sospechoso o no
aceptable, dependiendo de la calidad de la señal recibida.
Se transmiten 4 bits y se definen las siguientes v.a.:
Y
X = Número de bits aceptables
Las funciones de probabilidad 4 0.00004
Y = Número de bits sospechosos
-5
marginal se obtendrían
sumando en ambas
direcciones
Estadística. Profesora: María Durbán
3
4.1x10-5
2
1.54x10-5 1.38x10-3 3.11x10-2
1
2.56x10-6 3.46x10-4 1.56x10-2
0.2333
0
1.6x10-7 2.88x10-5
7.83x10-2
0
1.84x10-3
1
1.94x10-3
2
3
marginal se obtendrían
sumando en ambas
direcciones
0.6561
4
X
23
Estadística. Profesora: María Durbán
3
0.00188
2
0.03250
1
0.24925
0
0.71637
X
24
2. Distribuciones marginales
2. Distribuciones marginales
Variables Continuas
Ejemplo
Dadas dos v.a. continuas, X , Y con función de densidad conjunta f ( x, y )
las funciones de densidad marginal de ambas variables son:
f X ( x) = ∫
+∞
−∞
fY ( y ) = ∫
+∞
−∞
f ( x, y )dy
f ( x, y )dx
Sea X la variable aleatoria que representa el tiempo hasta que un servidor
se conecta con tu ordenador (en milisegundos) e Y el tiempo hasta que el
servidor te autoriza como usuario.
La función de densidad conjunta viene dada por
Son funciones de densidad
Se puede calcular su esperanza,
varianza, etc.
f ( x, y ) = 6 ×10−6 exp(−0.001x − 0.002 y )
0< x< y
0.4
¿ Pr(Y > 2000) ?
f(x)
0.3
0.2
0.1
0.0
-4
-2
0
2
x
4
25
Estadística. Profesora: María Durbán
26
Estadística. Profesora: María Durbán
2. Distribuciones marginales
2. Distribuciones marginales
Ejemplo
Ejemplo
f ( x, y ) = 6 ×10−6 exp(−0.001x − 0.002 y )
f ( x, y ) = 6 ×10−6 exp(−0.001x − 0.002 y )
0< x< y
¿ Pr(Y > 2000) ?
0< x< y
¿ Pr(Y > 2000) ?
Y
Y
Podemos resolverlo de dos formas:
Podemos resolverlo de dos formas:
Integrar la función de densidad conjunta
en el recinto adecuado
3000
Calcular la función de densidad marginal
de Y y calcular esa probabilidad
2000
1000
27
Estadística. Profesora: María Durbán
Integrar la función de densidad conjunta
en el recinto adecuado
Pr(Y > 2000) = ∫
+∞
∫
y
2000 0
1000 2000 3000
Estadística. Profesora: María Durbán
X
f ( x, y )dxdy = 0.05
28
2. Distribuciones marginales
2. Distribuciones marginales
Ejemplo
Ejemplo
f ( x, y ) = 6 ×10−6 exp(−0.001x − 0.002 y )
f ( x, y ) = 6 ×10−6 exp(−0.001x − 0.002 y )
0< x< y
¿ Pr(Y > 2000) ?
Y
¿ Pr(Y > 2000) ?
Y
Y
Y
Podemos resolverlo de dos formas:
Podemos resolverlo de dos formas:
Calcular la función de densidad marginal
de Y y calcular esa probabilidad
3000
2000
0< x< y
y
fY ( y ) = ∫ f ( x, y )dx = 6 × 10−3 e −0.002 y (1 − e −0.001 y )
0
Calcular la función de densidad marginal
de Y y calcular esa probabilidad
3000
2000
y>0
Pr(Y > 2000) = ∫
+∞
2000
1000
fY ( y )dy = 0.05
1000
0
0
1000 2000 3000
X
29
Estadística. Profesora: María Durbán
30
Estadística. Profesora: María Durbán
2. Distribuciones condicionadas
2. Distribuciones condicionadas
Cuando se definen más de una v.a. en un experimento, el conocimiento
de una de las variables puede afectar a las probabilidades que se asocian
con los valores de la otra variable
Cuando se definen más de una v.a. en un experimento, el conocimiento
de una de las variables puede afectar a las probabilidades que se asocian
con los valores de la otra variable
Recordemos del Tema de Probabilidad el Teorema de Bayes:
Pr (B A ) =
Pr (A I B )
Pr (A )
Variables Discretas
Mide el tamaño
de uno con
respecto al otro
Dadas dos v.a. discretas, X , Y con función de probabilidad conjunta
p( x, y ) la funcion de probabilidad de Y condicionada a X=x0:
p ( y | x0 ) =
Para un valor genérico de x
p( y | x ) =
31
Estadística. Profesora: María Durbán
p(x0 , y ) Pr ( X = x0 , Y = y )
=
p X (x0 )
Pr ( X = x0 )
p (x, y ) Pr ( X = x, Y = y )
=
p X (x )
Pr ( X = x )
Podemos calcular su esperanza, varianza, etc.
Estadística. Profesora: María Durbán
A∩ B
A
p X ( x0 ) > 0
p ( x, y ) = p ( y | x ) p X ( x )
32
2. Distribuciones condicionadas
2. Distribuciones condicionadas
Ejemplo
Ejemplo
En el desarrollo de un nuevo receptor para la transmisión de información
digital, cada bit recibido se clasifica como aceptable, sospechoso o no
aceptable, dependiendo de la calidad de la señal recibida.
Se transmiten 4 bits y se definen las siguientes v.a.:
En el desarrollo de un nuevo receptor para la transmisión de información
digital, cada bit recibido se clasifica como aceptable, sospechoso o no
aceptable, dependiendo de la calidad de la señal recibida.
Se transmiten 4 bits y se definen las siguientes v.a.:
X = Número de bits aceptables
Y = Número de bits sospechosos
X = Número de bits aceptables
Y = Número de bits sospechosos
Como sólo se transmiten 4 bits, si X=3, Y=0 ó 1
Como sólo se transmiten 4 bits, si X=4, necesariamente Y=0
si X=3, Y=0 ó 1
Pr(Y = 0, X = 3) 0.05832
=
= 0.2
Pr(Y = 0 | X = 3) + Pr(Y = 1| X = 3) = 1
Pr( X = 3)
0.2916
Pr(Y = 1, X = 3) 0.2333
=
= 0.8
Pr(Y = 1| X = 3) =
E[Y | X = 3] = 0 × 0.2 + 1× 0.8 = 0.8
Pr( X = 3)
0.2916
Pr(Y = 0 | X = 3) =
M
Saber lo que vale X cambia la probabilidad asociada con los valores de Y
33
Estadística. Profesora: María Durbán
Número esperado de bits sospechosos cuando el número de aceptables es 3
2. Distribuciones condicionadas
2. Distribuciones condicionadas
Variables Continuas
Ejemplo
Dadas dos v.a. continuas, X , Y con función de densidad conjunta f ( x, y )
la función de densidad de Y condicionada a X
f ( y | x) =
f ( x, y )
f X ( x)
34
Estadística. Profesora: María Durbán
Sea X la variable aleatoria que representa el tiempo hasta que un servidor
se conecta con tu ordenador (en milisegundos) e Y el tiempo hasta que el
servidor te autoriza como usuario.
La función de densidad conjunta viene dada por
Es función de densidad
Se puede calcular su esperanza,
varianza, etc.
f ( x, y ) = 6 ×10−6 exp(−0.001x − 0.002 y )
0< x< y
¿Cuál será la probabilidad de que el tiempo hasta que el servidor te autoriza
como usuario sea más de 2000 milisegundos si el tiempo que ha tardado el
servidor en conectarse ha sido 1500 milisegundos?
f ( x, y ) = f ( y | x ) f X ( x )
¿ Pr(Y > 2000 | X = 1500) ?
35
Estadística. Profesora: María Durbán
36
Estadística. Profesora: María Durbán
2. Distribuciones condicionadas
2. Distribuciones condicionadas
Ejemplo
Ejemplo
f ( x, y ) = 6 ×10−6 exp(−0.001x − 0.002 y )
f ( x, y ) = 6 ×10−6 exp(−0.001x − 0.002 y )
0< x< y
¿ Pr(Y > 2000 | X = 1500) ?
Y
Y
f ( y | x) =
3000
f X ( x) = ∫
2000
+∞
x
1000
¿ Pr(Y > 2000 | X = 1500) ?
Y
Y
f ( x, y )
f X ( x)
f ( x, y )dy = 0.003e −0.003 x
f ( y | x) = 0.002e
0.002 x − 0.002 y
0< x< y
f ( y | x) = 0.002e0.002 x −0.002 y 0 < x < y
3000
x>0
0< x< y
+∞
2000
Pr(Y > 2000 | X = 1500) = ∫
1000
=∫
2000
+∞
2000
f ( y | X = 1500)dy
0.002e3−0.002 y dy
= 0.368
0
0
1000 2000 3000
X
37
Estadística. Profesora: María Durbán
1000 2000 3000
X
38
Estadística. Profesora: María Durbán
Distribuciones Multivariantes
3. Independencia entre variables aleatorias
En algunos experimentos, el conocimiento de una de las variables puede
no afectar ninguna de las probabilidades que se asocian con los valores
de la otra variable
1. Distribución conjunta de un vector aleatorio
2. Distribuciones marginales y condicionadas
3.Independencia
Independenciaentre
entrevariables
variablesaleatorias
aleatorias
3.
Recordemos del Tema de Probabilidad:
4. Características de un vector aleatorio
Pr ( A ∩ B ) = Pr ( A) Pr (B )
Pr ( A | B ) = Pr ( A)
Pr (B | A) = Pr (B )
Esperanza
Varianza, Covarianza, Correlación
5. Transformaciones de vectores aleatorios
6. Distribución Normal multivariante
Estadística. Profesora: María Durbán
39
40
Estadística. Profesora: María Durbán
3. Independencia entre variables aleatorias
3. Independencia entre variables aleatorias
Variables Discretas
Variables Continua
Diremos que dos variables X , Y son independientes si:
p ( y | x) = pY ( y )
Diremos que dos variables X , Y son independientes si:
p ( x | y ) = p X ( x)
f ( y | x ) = fY ( y )
f ( x | y ) = f X ( x)
f ( x, y ) = f ( x | y ) fY ( y ) = f X ( x ) fY ( y )
p ( x, y ) = p ( x | y ) pY ( y ) = p X ( x) pY ( y ) ∀x, y
41
Estadística. Profesora: María Durbán
∀x, y
42
Estadística. Profesora: María Durbán
Distribuciones Multivariantes
3. Independencia entre variables aleatorias
Ejemplo
1. Distribución conjunta de un vector aleatorio
Sea X la variable aleatoria que representa el tiempo hasta que un servidor
se conecta con tu ordenador (en milisegundos) e Y el tiempo hasta que el
servidor te autoriza como usuario.
La función de densidad conjunta viene dada por
f ( x, y ) = 6 ×10−6 exp(−0.001x − 0.002 y )
2. Distribuciones marginales y condicionadas
3. Independencia entre variables aleatorias
0< x< y
4. Características de un vector aleatorio
Esperanza
Varianza, Covarianza, Correlación
f ( y | x) = 0.002e0.002 x −0.002 y 0 < x < y
≠
5. Transformaciones de vectores aleatorios
Para todos los valores de x
fY ( y ) = 6 ×10−3 e −0.002 y (1 − e −0.001 y )
y>0
43
Estadística. Profesora: María Durbán
6. Distribución Normal multivariante
Estadística. Profesora: María Durbán
44
4. Características de un vector aleatorio
4. Características de un vector aleatorio
Covarianza
 X1 
 
X
Dadas n v.a. X 1 , X 2 ,K, X n definimos el vector n-dimensional X =  2 
 M 
 
 Xn 
Primero comenzamos por definir la covarianza entre dos variables:
Es una medida de la relación lineal entre dos variables
La función de probabilidad/densidad del vector es la función de
probabilidad/densidad conjunta de los componentes del vector.
Cov( X , Y ) = E ( X − E [ X ]) (Y − E [Y ])  = E [ XY ] − E [ X ] E [Y ]
Esperanza
Propiedades
Se define el vector de medias como el vector cuyas componentes son
las medias o esperanzas de cada componente.
 E [ X1 ] 


E [ X 2 ]
µ = E [ X] = 
 M 


 E [ X n ]
Si X , Y son independientes ⇒ Cov( X , Y ) = 0 ya que E [ XY ] = E [ X ] E [Y ]
Si Cov( X , Y ) = 0 ⇒ X , Y sean independientes
Si hacemos un cambio de origen y escala:
45
Estadística. Profesora: María Durbán
Z = aX + b
W = cY + d
⇒ Cov(Z ,W ) = acCov( X , Y )
46
Estadística. Profesora: María Durbán
4. Características de un vector aleatorio
4. Características de un vector aleatorio
Covarianza
Cov( X , Y ) = E ( X − E [ X ]) (Y − E [Y ])  = E [ XY ] − E [ X ] E [Y ]
¿Cómo lo calculamos?
Necesitamos calcular la esperanza de una función de dos variables
aleatorias:
E [ h( X , Y ) ] =
´Covarianza positiva
Covarianza cero
Hay relación
pero no
lineal
∑∑ h( x, y) p( x, y)
x
y
+∞
+∞
−∞
−∞
∫ ∫
h( x, y ) f ( x, y )dxdy
47
Estadística. Profesora: María Durbán
Covarianza
negativa
Estadística. Profesora:
María Durbán
Covarianza cero
48
4. Características de un vector aleatorio
4. Características de un vector aleatorio
Ejemplo
Correlación
En el desarrollo de un nuevo receptor para la transmisión de información
digital, cada bit recibido se clasifica como aceptable, sospechoso o no
aceptable, dependiendo de la calidad de la señal recibida.
Se transmiten 4 bits y se definen las siguientes v.a.:
La correlación entre dos variables también es una medida de la relación
lineal entre dos variables
ρ ( X ,Y ) =
X = Número de bits aceptables
Y = Número de bits sospechosos
Cov( X , Y )
Var [ X ]Var [Y ]
¿Es la covarianza entre X e Y positiva o negativa?
Si X , Y son independientes ⇒ ρ ( X , Y ) = 0
ya que Cov ( X , Y ) = 0
| ρ ( X , Y ) |≤ 1
Sabemos que X + Y ≤ 4 ⇒ cuando Y se acerca a 4, X se acerca a 0
Por lo tanto la covarianza es negativa.
Si
Y = aX + b ⇒| ρ ( X , Y ) |= 1
49
Estadística. Profesora: María Durbán
Distribuciones Multivariantes
4. Características de un vector aleatorio
Matriz de Varianzas y Covarianzas
1. Distribución conjunta de un vector aleatorio
Dadas n v.a. X 1 , X 2 ,K, X n llamamos matriz de varianzas y covarianzas
del vector X a la matriz cuadrada de orden n:
2. Distribuciones marginales y condicionadas
 Var [ X 1 ]
Cov [ X 1 , X 2 ] L Cov [ X 1 , X n ] 


M
M
Cov [ X 1 , X 2 ]
Var [ X 2 ]

M X = E ( X - µ )( X - µ )′  = 

M
M
O
M

 


L
L
Var [ X n ] 
 Cov [ X 1 , X n ]
3. Independencia entre variables aleatorias
4. Características de un vector aleatorio
Esperanza
Varianza, Covarianza, Correlación
Propiedades
5. Transformaciones
Transformaciones de
de vectores
vectores aleatorios
aleatorios
5.
Simétrica (ella y su matriz traspuesta coinciden)
Semidefinida positiva (todos sus autovalores son ≥ 0)
51
Estadística. Profesora: María Durbán
50
Estadística. Profesora: María Durbán
6. Distribución Normal multivariante
Estadística. Profesora: María Durbán
52
5. Transformaciones de vectores aleatorios
5. Transformaciones de vectores aleatorios
Al igual que en el caso univariante, hay ocasiones en que es necesario
calcular la distribución de probabilidad de una función de dos o más v.a.
Si Y tiene menor dimensión que X, completamos Y con elementos
de X hasta completar la misma dimensión.
Dado un vector aleatorio X con función de densidad conjunta f ( X),
lo transformamos en otro vector aleatorio Y de la misma dimensión
mediante una función g
y1 = g1 ( x1 , K , xn )
M
yn = g n ( x1 , K, xn )
dX
dY
f X1 X 2 ( x1 , x2 ) =
Existen las
transformaciones
inversas
y2 = g 2 ( x1 , K, xn )
f (Y) = f ( g −1 (Y))
Ejemplo
dx1
dy1
dX
= M
dY
dxn
dy1
1. Definimos Y2 = X 2
M
dxn
dyn
0 < x1 , x2 < 1
en el resto
Calcular la función de densidad de Y1 = X 1 + X 2
dx1
L
dyn
L
4 x1 x2
0
2. Buscamos la distribución conjunta de Y = (Y1 , Y2 )
3. Calculamos la marginal de Y1
53
Estadística. Profesora: María Durbán
54
Estadística. Profesora: María Durbán
5. Transformaciones de vectores aleatorios
5. Transformaciones de vectores aleatorios
Ejemplo
f X1 X 2 ( x1 , x2 ) =
4 x1 x2
0
Ejemplo
0 < x1 , x2 < 1
en el resto
(x1 =0,x 2 =0) → (y1 = 0 + 0, y2 = 0)
Y1 = X 1 + X 2
(x1 =0,x 2 =1) → (y1 = 1 + 0, y2 = 1)
Y2 = X 2
Buscamos la distribución conjunta de Y = (Y1 , Y2 )
f (Y) = f ( g −1 (Y))
0 < x1 , x2 < 1
dX
dY
(0,1)
(x1 =1,x 2 =0) → (y1 = 1 + 0, y2 = 0)
(x1 =1,x 2 =1) → (y1 = 1 + 1, y2 = 1)
(1,1)
g ( X) = ( X 1 + X 2 , X 2 ) → g −1 (Y) = (Y1 − Y2 , Y2 )
1
424
3 {
Y1
dX 1 −1
=
=1
dY 0 1
Y2
f (Y ) = 4( y1 − y2 ) y2
(0,0)
¿En−1 qué recinto está definida?
f ( g (Y)) = 4( y1 − y2 ) y2
55
Estadística. Profesora: María Durbán
(1,0)
56
Estadística. Profesora: María Durbán
5. Transformaciones de vectores aleatorios
5. Transformaciones de vectores aleatorios
Ejemplo
Ejemplo
Calculamos las 4 rectas que delimitan el recinto:
0 < x1 , x2 < 1
(x1 =0,x 2 =0) → (y1 = 0 + 0, y2 = 0)
0 < x1 , x2 < 1
Y1 = X 1 + X 2
(x1 =0,x 2 =1) → (y1 = 1 + 0, y2 = 1)
Y1 = X 1 + X 2
y2 = 1
Y2 = X 2
y1 − y2 = 0
(x1 =1,x 2 =0) → (y1 = 1 + 0, y2 = 0)
Y2 = X 2
(x1 =1,x 2 =1) → (y1 = 1 + 1, y2 = 1)
(1,1)
(1,1)
(0,1)
y2 = 0
y1 − y2 = 1
(2,1)
1
y1 − y2 = 0
y1 − y2 = 1
(0,0)
(0,0)
(1,0)
2
(1,0)
Estadística. Profesora: María Durbán
58
5. Transformaciones de vectores aleatorios
Ejemplo
Convolución de X1 y X2
Si X1 y X2 son variables aleatorias independientes con funciones de
densidad f X ( x1 ) y f X ( x2 ), la función de densidad de Y = X 1 + X 2 es
Calculamos la marginal de Y1
1
1
fY1 ( y1 ) =
− y2 ) y2 ∂y2 =
0
0 < y1 < 1 0 < y2 < y1
Estadística. Profesora: María Durbán
5. Transformaciones de vectores aleatorios
∫ 4( y
f (Y) = 4( y1 − y2 ) y2
1 < y2 < 2 y1 -1 < y2 < 1
57
y1
0 < y1 < 1 0 < y2 < y1
1 < y2 < 2 y1 -1 < y2 < 1
3 3
y1
2
0 < y1 < 1
2
fY ( y ) = ∫
+∞
−∞
1
8
3 3
∫y −1 4( y1 − y2 ) y2∂y2 = − 3 + 4 y1 − 2 y1 1 < y1 < 2
1
f X1 ( y − x) f X 2 ( x)∂x
Se utiliza en casos como la transformada de Fourier
59
Estadística. Profesora: María Durbán
60
Estadística. Profesora: María Durbán
5. Transformaciones de vectores aleatorios
5. Transformaciones de vectores aleatorios
Un caso que merece mención especial es el cálculo de esperanzas y
varianzas de transformaciones lineales:
Un caso que merece mención especial es el cálculo de esperanzas y
varianzas de transformaciones lineales:
Ym×1 = A m×n X n×1 m ≤ n
Ym×1 = A m×n X n×1 m ≤ n
E [ Y ] = AE [ X ]
E [ Y ] = AE [ X ]
Var [ Y ] = AM X A′
Var [ Y ] = AM X A′
Ejemplo
Ejemplo
Y = X1 + X 2
E [ Y ] = E [ X1 ] + E [ X 2 ]
X 
⇒ Y = (1 1)  1 
 X2 
X 
⇒ Y = (1 −1)  1 
 X2 
Y = X1 − X 2
 Var [ X1 ]
Cov( X1 , X 2 )  1
Var [ Y ] = (1 1) 
= Var [ X1 ] + Var [ X 2 ] + 2Cov( X1 , X 2 )

(
X
,
X
)
Cov
Var [ X 2 ]  1
1
2
61

Estadística. Profesora: María Durbán
E [ Y ] = E [ X1 ] − E [ X 2 ]
 Var [ X1 ]
Cov( X1 , X 2 )   1 
= Var [ X1 ] + Var [ X 2 ] − 2Cov( X1 , X 2 )
Var [ Y ] = (1 −1) 

(
X
,
X
)
Cov
Var [ X 2 ]   −1
1
2
62

Estadística. Profesora: María Durbán
5. Transformaciones de vectores aleatorios
5. Transformaciones de vectores aleatorios
Ejemplo
Un caso que merece mención especial es el cálculo de esperanzas y
varianzas de transformaciones lineales:
Una pieza en forma de U está formada por tres partes, A, B y C. La longitud
de A sigue una distribución Normal con media 10mm y desviación típica
0.1mm. El grosor de las partes B y C se distribuye normalmente con media
2mm y desviación típica 0.05mm.
Suponiendo que las dimensiones de las partes son independientes:
Ym×1 = A m×n X n×1 m ≤ n
E [ Y ] = AE [ X ]
Var [ Y ] = AM X A′
1. Determinar la media y desviación típica de la distribución del hueco D.
2. En esa pieza ha de encajar otra de 5.9 mm, ¿cuál es la probabilidad de
que una pieza de esta forma sea inservible?
Caso particular: Distribución Normal
X i ~ N ( µi , σ i ) i = 1, K, n independientes
Y = a1 X 1 + a2 X 2 + K + an X n
n
E [Y ] = ∑ ai µi
i =1
D
Normal
B
Var [Y ] = ∑ ai2σ i2
A
i =1
63
Estadística. Profesora: María Durbán
C
n
64
Estadística. Profesora: María Durbán
5. Transformaciones de vectores aleatorios
5. Transformaciones de vectores aleatorios
Ejemplo
Ejemplo
2. En esa pieza ha de encajar otra de 7.9 mm, ¿cuál es la probabilidad de
que una pieza de esa forma sea inservible?
1. Determinar la media y desviación típica de la distribución del hueco D.
A ~ N (10, 0.1)
D = A− B −C
D ~ N (6, 0.015)
B ~ N (2, 0.05) C ~ N (2, 0.05)
E [ D ] = 10 − 2 − 2 = 6
5.9 − 6 

Pr( D < 5.9) = Pr  Z <

0.122 

Pr( Z < −0.82) = 1 − Pr( Z ≤ 0.82)
Var [ D ] = 0.1 + 0.05 + 0.05 = 0.015
2
2
2
D.T [ D ] = 0.122
1 − 0.7939 = 0.2061
D
B
D
C
El 20% de las
piezas fabricadas
es inservible
A
B
C
A
65
Estadística. Profesora: María Durbán
66
Estadística. Profesora: María Durbán
Distribuciones Multivariantes
6. Distribución Normal multivariante
1. Distribución conjunta de un vector aleatorio
X 
Si vector aleatorio X =  1  sigue una distribución Normal bivariante
X2
2. Distribuciones marginales y condicionadas
con vector de medias
3. Independencia entre variables aleatorias
 σ2
Σ= 1
 ρσ 1σ 2
4. Características de un vector aleatorio
tiene función de densidad:
Esperanza
Varianza, Covarianza, Correlación
f (X ) =
5. Transformaciones de vectores aleatorios
6. Distribución Normal multivariante
Estadística. Profesora: María Durbán
µ 
µ =  1  y matriz de varianzas-covarianzas
µ2 
ρσ 1σ 2 

σ 22 
1
(2π ) Σ
67
1/ 2
 1

exp − ( X − µ)' Σ −1 ( X − µ) 
 2

68
Estadística. Profesora: María Durbán
The Bivariate Normal Distribution
f(x,y)
6. Distribución Normal multivariante
σ1 = σ
σ1 = σ
2
2
f (X ) =
1
(2π ) Σ
1/ 2
 1

exp − ( X − µ )' Σ −1 ( X − µ)
 2

ρ = 0.90
ρ=0
 σ
Σ=
 ρσ 1σ 2
ρσ 1σ 2 

σ 22 
2
1
y
σ1 = σ
ρ=0
1
( 2π ) σ 1σ 2
x
y
y
2
σ1 = σ 2
ρ = 0.9
σ1 = σ 2
ρ = − 0.9
Función de densidad
µ2
µ2
µ2
Diagrama de dispersión
µ1
f ( x1 , x2 ) =
ρ = −0.90
x
Contour Plots of the Bivariate Normal Distribution
−ρ 
σ 1σ 2 

1 
σ 22 
2
y
x
 1
 2
1  σ1
−1
2 2
2
∑
=
∑ = σ 1 σ 2 (1 − ρ )
(1 − ρ 2 )  − ρ
σ σ
 1 2
σ1 = σ
y
y

 x − µ  2  x − µ  2
 x1 − µ1   x2 − µ 2   
1
1
2
2
 1
exp −
 +
 − 2ρ 

 
2
2
(1 − ρ )
 σ 1   σ 2   
 2(1 − ρ )  σ 1   σ 2 
y
σ1 = σ
ρ=0
69
6. Distribución Normal multivariante
µ1
x
x
y
y
σ1 = σ 2
ρ = 0.9
2
σ1 = σ 2
ρ = − 0.9
µ2
µ2
Estadística. Profesora: María Durbán
µ1
x
Scatter Plots of data from the Bivariate Normal Distribution
µ1
x
µ2
µ1
x
µ1
x
6. Distribución Normal multivariante
Ejemplo
X 
X= 1
X2
µ 
µ= 1
µ2 
 σ 12
Σ=
 ρσ 1σ 2
En el proceso de fabricación de lámparas electroluminiscentes (luz negra), se
depositan capas de tinta en una base de plástico. El grosor de esas capas es
determinante a la hora de satisfacer las especificaciones relativas al color e intensidad
de la luz.
Sean X e Y el grosor de dos capas de tinta, se sabe que ambas siguen una
distribución Normal, con medias 0.1mm y 0.23mm y desviaciones típicas 0.00031mm
y 0.00017mm respectivamente. La correlación entre ambas es 0.
Las especificaciones de grosor son las siguientes:
ρσ 1σ 2 

σ 22 
Propiedades
ρ = 0 ⇒ X 1 , X 2 independientes
0.099535 ≤ X ≤ 0.100465
0.22966 ≤ Y ≤ 0.23039
X1 ~ N ( µ1 , σ 1 ) X 2 ~ N ( µ1 , σ 1 )
X1 | X 2 y X 2 | X1 son normales
¿Cuál es la probabilidad de que una lámpara elegida
al azar satisfaga las especificaciones?
71
Estadística. Profesora: María Durbán
72
Estadística. Profesora: María Durbán
6. Distribución Normal multivariante
Ejemplo
¿Cuál es la probabilidad de que una lámpara elegida al azar satisfaga las
especificaciones?
X ~ N (0.1, 0.00031)
0.099535 ≤ X ≤ 0.100465
Y ~ N (0.23, 0.00017)
0.22966 ≤ Y ≤ 0.23039
Pr(0.099535 ≤ X ≤ 0.100465, 0.22966 ≤ Y ≤ 0.23039)
ρ = 0 → independientes
Pr(0.099535 ≤ X ≤ 0.100465) Pr(0.22966 ≤ Y ≤ 0.23039)
Pr(−1.5 ≤ Z ≤ 1.5) Pr(−2 ≤ Z ≤ 2) =
( 2 Pr(Z ≤ 1.5) − 1)( 2 Pr( Z ≤ 2) − 1)
= 0.827
73
Estadística. Profesora: María Durbán
Descargar