1 Variables aleatorias independientes

Anuncio
1
Variables aleatorias independientes
El concepto de independencia es sumamente importante en teorı́a de probabilidad y su negación, la
dependencia, es un importante objeto de estudio actualmente en diversas áreas de la investigación.
Para conceptualizar la independencia de variables aleatorias, imitaremos la idea de la independencia
de conjuntos. Recordemos que dado un espacio de probabilidad (Ω, F, P) dos eventos A, B ∈ F con
P [B] > 0 son independientes si y sólo si
P AB = P [A]
Esta definición, completamente intuitiva, se extiende a conjuntos de probabilidad cero, dándonos
por resultado que los conjuntos A, B ∈ F son independientes si y sólo si
P [A ∩ B] = P [A] P [B]
(1)
¿Cómo extender esta idea a variables aleatorias? Sabemos, por definición de variable aleatoria que
para cualesquiera conjuntos C, D ∈ B(R)1 tenemos
{ω : X(ω) ∈ C} ∈ F
{ω : Y (ω) ∈ D} ∈ F
La clase de conjuntos σ(X) = {ω : X(ω) ∈ C; C ∈ B(R)} es toda la información disponible sobre
la variable aleatoria X (obsérvese que C varı́a sobre B(R)), es decir, son todos aquéllos eventos del
espacio muestral relacionados con la variable aleatoria X. Es por esto que resulta intuitivo definir
independencia de variables aleatorias en términos de estas clases de conjuntos.
Definición 1.1. Dos variables aleatorias X, Y son independientes si y sólo si para cualesquiera
A ∈ σ(X) y B ∈ σ(Y ) los eventos A y B son independientes.
Equivalentemente, las variables aleatorias X, Y son independientes si y sólo si para cualesquiera
C, D ∈ B(R) tenemos
P [X ∈ C, Y ∈ D] = P [X ∈ C] P [X ∈ D]
De la misma manera que en el caso univariado, es deseable tener una caracterización de la
independencia en términos de las funciones de distribución y de densidad. Esto se logra gracias a
que los conjuntos de la forma
n
Y
(−∞, xi ]
i=1
1
B(R) representa a los conjuntos Borelianos, todos aquéllos conjuntos C ⊆ R para los cuáles deseamos calcular
P [X ∈ C].
1
son suficientes para explicar las cantidades
P [X ∈ C, Y ∈ D] ,
C, D ∈ B(R)
como se vio en la sección ?? sobre la Función de distribución multivariada. Con esto, tenemos una
definición alternativa para la independencia de dos variables aleatorias mucho más manejable.
Definición 1.2. Dos variables aleatorias X, Y con función de distribución conjunta F (x, y) y
marginales FX (x) y FY (y) respectivamente son independientes si y sólo si para cualesquiera dos
valores x, y ∈ R se tiene
F (x, y) = FX (x)FY (y)
(2)
Es importante recalcar que esta definición es independiente del carácter discreto o continuo (o
ninguno de ambos) de las variables aleatorias X, Y , por lo cual es una definición un tanto general
todavı́a. Concentrémonos en cada caso y analicemos la relación de la ecuación (2) con las funciones
de densidad.
1.1
Caso discreto
Cuando las variables aleatorias X, Y son discretas el análisis es muy simple. Denotemos por p(x, y)
a la función de densidad conjunta del vector (X, Y ) y por pX (x), pY (y) a las densidades marginales
de cada variable. Partiendo directamente de la definición conjuntista de independencia observamos
que si X y Y son independientes, entonces para cualesquiera x ∈ Ran(X), y ∈ Ran(Y ),
p(x, y) =P [X = x, Y = y] = P [X ∈ {x}, Y ∈ {y}]
=P [X ∈ {x}] P [Y ∈ {y}] = P [X = x] P [Y = y] = pX (x)pY (y)
(3)
Es decir, la independencia implica la factorización p(x, y) = pX (x)pY (y) para cualesquiera valores
x ∈ Ran(X), y ∈ Ran(Y ). Por otro lado, si suponemos que esta factorización es cierta, entonces
para cualesquiera conjuntos C, D tenemos
XX
XX
P [X ∈ C, Y ∈ D] =
p(x, y) =
pX (x)pY (y)
x∈C y∈D
=
X
x∈C
pX (x)
x∈C y∈D
X
(4)
pY (y) = P [X ∈ C] P [Y ∈ D]
y∈D
En conclusión hemos demostrado la siguiente Proposición.
Proposición 1.1. Sean X, Y variables aleatorias discretas con función de densidad conjunta p(x, y)
y funciones de densidad marginales pX (x), pY (y). Entonces, X es independiente de Y si y sólo si
∀x ∈ Ran(X), y ∈ Ran(Y ),
2
p(x, y) = pX (x)pY (y)
Ejemplo 1.1
Supongamos que el número de personas que llegan al andén del tren entre las 5:00 am y las 5:15 am
para abordar el primer tren de la mañana sigue una distribución de Poisson con parámetro λ > 0.
Cada individuo que llega a abordar este tren es hombre con probabilidad p ∈ (0, 1) y mujer con
probabilidad 1 − p independientemente de los demás que han llegado y llegarán. Sean H el número
de hombres que abordan el primer tren y M el número de mujeres que lo abordan. ¿Cuál es la
distribución conjunta de (H, M )? ¿Son independientes?
Solución: Para encontrar la función de densidad conjunta, tomemos m, n ∈ N cualesquiera,
entonces
∞
X
P [H = n, M = m] =
P H = n, M = mH + M = j P [H + M = j]
j=0
(5)
= P H = n, M = mH + M = n + m P [H + M = n + m]
Para comprender esta ecuación obsérvese que la primera igualdad es la fórmula de la probabilidad
total aplicada al evento {H = n, M = m} usando la partición de Ω formada por los conjuntos
{H + M = j}j∈N . La segunda igualdad se sigue de que para todo j 6= n + m
P H = n, M = mH + M = j = 0
Ahora, H + M es el número total de pasajeros del tren y por lo tanto sigue una distribución de
Poisson con parámetro λ > 0 por hipótesis. La otra hipótesis del enunciado nos dice que sabiendo
que han llegado n + m personas, cada una es hombre (éxito) con probabilidad p ∈ (0, 1) por lo
cuál el número total de hombres sigue una distribución Binomial con parámetros (n + m, p). Cabe
destacar que esta distribución Binomial para H está condicionada a que el número total de arribos
es n + m. Como consecuencia
n
+
m
P H = n, M = mH + M = n + m =
pn (1 − p)m
n
Sustituyendo esto en la fórmula (5) obtenemos
(n + m)! n
e−pλ λn e−(1−p)λ λm
n+m n
e−λ λn+m
=
p (1 − p)m
P [H = n, M = m] =
p (1 − p)m
(n + m)!
n!m!
(n + m)!
n
−pλ
n −(1−p)λ
m
e (pλ) e
((1 − p)λ)
=
n!
m!
Esto demuestra que H y M son variables aleatorias independientes con distribuciones Poisson de
parámetros pλ y (1 − p)λ respectivamente.
3
Este resultado es muy intuitivo pues si pensamos que el número total de personas es Poisson λ,
entonces el número promedio de personas que llegan al andén es λ. Como cada uno es hombre o
mujer independientemente de los demás y la proporción de hombres es p y la de mujeres es 1 − p,
esperamos que el número de hombres que llegan al andén sea, en promedio, pλ y el de mujeres
(1 − p)λ. El hecho de que la distribución sea Poisson se puede intuir pensando que los arribos de
hombres siguen el mismo patrón que los arribos globales.
Esta manera de resolver el ejemplo es muy informativa, pues nos dice que H, M son independientes
y nos da de inmediato sus densidades. No obstante, puede parecer un “truco” el escribir λ =
pλ + (1 − p)λ en la exponencial. De no hacerlo ası́ obtenemos la densidad conjunta como
e−λ (pλ)n ((1 − p)λ)m
n!m!
La buena noticia es que esta expresión es suficiente para obtener la independencia de las variables
H, M . La razón de que esto sea ası́ se expresa en la siguiente Proposición.
p(n, m) =
Proposición 1.2. Sean X, Y variables aleatorias discretas con función de densidad conjunta p(x, y).
Las variables X, Y son independientes si y sólo si existen g(x), h(y) tales que para cada x ∈
Ran(X), y ∈ Ran(Y ) se tiene
p(x, y) = g(x)h(y)
Demostración. Supongamos primero que X, Y son independientes. En este caso basta tomar g(x) =
pX (x) y h(y) = pY (y) como se ha demostrado al incio de esta sección.
Supongamos ahora que existen g(x), h(y) para las cuáles p(x, y) = g(x)h(y), entonces
XX
X
X
1=
p(x, y) =
g(x)
h(y)
x
y
x
y
por lo cuál existen
X
g(x) = C1 ,
x
X
h(y) = C2 , y además C1 C2 = 1
y
Calculando la densidad marginal de X obtenemos
X
X
pX (x) =
p(x, y) =
g(x)h(y) = C2 g(x)
y
y
Análogamente
pY (y) = C1 h(y)
Esto implica que
p(x, y) = g(x)h(y) = C1 C2 g(x)h(y) = pX (x)pY (y)
es decir X y Y son independientes.
4
Observación 1.1. En caso que se pueda factorizar la densidad conjunta p(x, y) cada una de las
funciones involucradas en la factorización es un múltiplo de la densidad marginal. En el ejemplo
1.1 las funciones son
((1 − p)λ)m
(pλ)n
h(m) =
g(n) = e−λ
n!
m!
de modo que nuestras constantes C1 y C2 son
C1 = e−λ(1−p) ,
C2 = eλ(1−p)
5
Descargar