Distribuciones de probabilidad conjunta

Anuncio
Distribución de Probabilidad Distribución
de Probabilidad
Conjunta
j
Jhon J. Padilla A., PhD.
J. Padilla A., PhD.
Introducción
• LLos resultados de un experimento pueden ser causa de l d d
i
d
d
múltiples variables.
• En estas situaciones se requiere de tener una f.d.p
E
t it i
i
d t
f d que describa la variación de la probabilidad de ocurrencia con respecto a la variación de estas variables
con respecto a la variación de estas variables.
• Esta f.d.p que tiene en cuenta el efecto de múltiples variables aleatorias se denomina distribución de
variables aleatorias se denomina distribución de probabilidad conjunta.
• Una distribución de probabilidad conjunta puede ser p
j
p
discreta o continua dependiendo del tipo de v.a.’s que describe.
Definición
• La función de masa de probabilidad conjunta f ió d
d
b bilid d
j
de dos variables aleatorias contínuas X y Y se denota como fXY(x,y), y satisface las siguientes propiedades
• 1) para toda x,y
f ( x, y ) ≥ 0
• 2) ∞ ∞
XY
∫∫
f XY ( x, y )dxdy = 1
−∞ −∞
• 3) Para cualquier región R del espacio bidimensional: P([ X , Y ∈ R]) = f ( x, y)dxdy
∫∫
R
XY
Distribución de probabilidad bidimensional
Variables aleatorias Múltiples
Variables aleatorias Múltiples
• La función de distribución de probabilidad j
p
conjunta para las variables X
1, X2,…,Xp, se denota como:
f X1 X 2 ... X p ( x1 , x2 ,...x p )
Definición
• U
Una función de distribución de probabilidad f ió d di t ib ió d
b bilid d
conjunta para las variables aleatorias continuas X1, X
X2,…,X
Xp, denotada como , denotada como f X X ... X ( x1 , x2 ,,...x p )
satisface las siguientes propiedades
• 1) f X X ... X ( x1 , x2 ,...x p ) ≥ 0
1
1
• 2)
2
∞ ∞
p
p
∞
∫ ∫ .... ∫
−∞ −∞
2
−∞
f X1 X 2 ... X p ( x1 , x2 ,...x p )dx
d 1dx
d 2 ...dx
d p =1
• 3)
3) Para cualquier región B del espacio de p Para cualquier región B del espacio de p
dimensiones,
P([ X 1 , X 2 ,..., X p ] ∈ B ) = ∫ ∫ ....∫ f X1 X 2 ... X p ( x1 , x2 ,...x p )dx1dx2 ...dx p
B
Independencia
• Las variables aleatorias contínuas X1, X2,…,Xp, p
y
son independientes si y sólo si
f X1 X 2 ... X p ( x1 , x2 ,...x p ) = f X1 ( x1 ) f X 2 ( x2 ).... f X p ( x p )
• Para toda x1,, x2,,…,x
, p
COVARIANZA
• Cuando la probabilidad depende de más de d l
b bilid d d
d d
á d
una variable aleatoria, resulta conveniente describir la relación entre las variables.
• La covarianza es una medida común de la relación entre dos variables aleatorias
• La covarianza es una medida de asociación La covarianza es una medida de asociación
lineal entre las v.a’s.
• Si la relación entre las v.a’s
Si l
l ió
t l
’ no es lineal, la li
l l
covarianza podría no ser sensible a la relación.
Definición
• La covarianza entre dos v.a. X y Y, denotada como cov(X,Y) ó ( , ) σxy,, es
σ XY = E[( X − µ X )(Y − µY )] =
∞ ∞
∫ ∫ ( x − µ )( y − µ
x
Y
) f XY ( x, y )dxdyy
−∞ −∞
• Y se puede demostrar que también
p
q
σ XY = E[( X − µ X )(Y − µY )] =
∞ ∞
∫ ∫ xyf
XY
( x, y )dxdy − µ X µY
−∞ −∞
σ XY = E[( X − µ X )(Y − µY )] = E ( XY ) − µ X µY
Distribuciones de probabilidad conjuntas y el signo de la covarianza
conjuntas y el signo de la covarianza entre X y Y
y
CORRELACION
• La correlación mide el grado de relación lineal entre dos variables.
• La correlación escala la covarianza por la desviación estándar de cada variable
desviación estándar de cada variable.
• Es una cantidad adimensional
Definición
• La correlación entre las variables aleatorias X y Y, denotada como ,
ρxy,, es
ρ XY =
σ
cov( X , Y )
= XY
V ( X )V (Y ) σ X σ Y
• Además, ,
−1 ≤ ρ XY ≤ +1
Interpretación de la correlación
Interpretación de la correlación
• Si
Si los puntos de la distribución de probabilidad l
t d l di t ib ió d
b bilid d
conjunta de X y Y tienden a caer en una recta con pendiente positiva (negativa) entonces la
pendiente positiva (negativa), entonces la correlación estará cerca de +1 (o de ‐1).
Si la correlación da +1 ó ‐1
1, entonces los puntos entonces los puntos
• Si la correlación da +1 ó de la distribución de probabilidad conjunta caen exactamente en una línea recta.
• Se dice que dos v.a con correlación diferente de cero están correlacionadas.
• Finalmente, si X y Y son v.a’s independientes, entonces
σ XY = ρ XY = 0
Descargar