Probabilidad Condicional [ ] [ ] [ ] [ ] [ ] [ ] [ ] [ ] [ ] Independencia

Anuncio
Probabilidad Condicional
La probabilidad condicional se calcula como el cociente entre la probabilidad
conjunta y la probabilidad marginal del evento impuesto como condición.
Si en un área determinada tomamos al azar un establecimiento agrícola entre aquellos
que cultivan soja, la probabilidad de encontrar que cultiva maíz es una probabilidad
condicional. Se trata de la probabilidad de cultive maíz bajo la condición de que el
establecimiento sea uno que cultiva soja. Esta probabilidad toma el valor de la
frecuencia relativa de establecimientos que cultivan maíz entre todos los
establecimientos que cultivan soja en la población formada por todos los
establecimientos del área en cuestión. Dicha frecuencia relativa es igual al cociente
entre la frecuencia relativa de establecimientos que cultivan soja y maíz en toda la
población y la frecuencia relativa de los establecimientos que cultivan soja en toda la
población. Como las dos últimas frecuencias relativas corresponden, respectivamente,
a los valores de la probabilidad conjunta de soja y maíz y de la probabilidad marginal
de soja, podemos escribir a la probabilidad condicional como el siguiente cociente:
PMaíz | Soja  
PMaíz  Soja 
PSoja 
En general, diremos que la probabilidad condicional de un evento A, dado un evento
B es,
P A | B  
P A  B
PB
(1)
Por eso, la probabilidad conjunta de dos eventos cualesquiera A y B se puede escribir
siempre como,
P A  B   P A | B.PB
(2)
Independencia Estadística
Dos eventos A y B son estadísticamente independientes si la probabilidad
condicional de A dado B es igual a su probabilidad condicional dado BC.
Si la probabilidad de que en un establecimiento tomado al azar se cultive maíz difiere
según seleccionemos el establecimiento entre los cultivan soja o entre los que no
cultivan soja, entonces se hace evidente cierta dependencia entre los eventos Maíz y
Soja. Esto significa que podemos identificar a la independencia estadística como la
igualdad entre dos probabilidades condicionales. Si los eventos Maíz y Soja fueran
estadísticamente independientes, se tendría que cumplir que,
PMaíz | Soja   PMaíz | no Soja 
Notemos que el evento no Soja es el complemento del evento Soja.
En general, diremos que dos eventos A y B son estadísticamente independientes si,

P A | B   P A | B C

(3)
1
Es decir que dos eventos A y B son estadísticamente independientes si la probabilidad
condicional del evento A dado el evento B es igual a la probabilidad condicional del
evento A dado el complemento del evento B.
Si dos eventos A y B son estadísticamente independientes, entonces se
cumple que: (1) la probabilidad condicional de A dado B es igual a la
probabilidad marginal de A y (2) la probabilidad conjunta de A y B es igual al
producto de las probabilidades marginales de A y B.
La independencia estadística tiene dos consecuencias que permiten reconocerla. La
primera es que si dos eventos A y B son estadísticamente independientes, entonces la
probabilidad condicional del evento A dado B es igual a la probabilidad marginal de A,
P A | B  P A
(4)
La segunda consecuencia es que, si dos eventos A y B son estadísticamente
independientes, entonces la probabilidad de que ocurran conjuntamente es igual al
producto de sus probabilidades marginales,
P A  B   PA. PB 
(5)
Demostración:
Para demostrar que estas dos consecuencias, comenzamos por notar que la
probabilidad marginal del evento A se puede escribir como la suma de dos
probabilidades conjuntas,

P A  PA  B   P A  B C

(6)
Esto es así porque los eventos A∩B y A∩BC son mutuamente excluyentes y su
unión es el evento A (recordemos el axioma que establece la probabilidad de la
unión de dos eventos mutuamente excluyentes). Utilizando la ecuación 2 para
reemplazar en 6, podemos escribir la probabilidad marginal de A como,

  
P A  P A | B . PB   P A | B C . P B C
(7)
Pero si A y B son eventos independientes se aplica la ecuación 3 y, por eso,
podemos sacar factor común y escribir,

 
P A  P A | B . PB   P B C
Como la suma de las probabilidades de dos eventos complementarios es
igual a 1 (la probabilidad de todo el espacio muestral) entonces escribimos,
P A  P A | B
con lo que queda demostrado que si los eventos A y B son independientes se
cumple la ecuación 4.
Luego, si los eventos A y B son independientes podemos utilizar la
ecuación 4 para reemplazar, en la ecuación 2, la probabilidad condicional por la
probabilidad marginal y obtener,
P A  B   P A. PB 
con lo que queda demostrado que si dos eventos A y B son independientes su
probabilidad conjunta es igual al producto de sus probabilidades marginales.
2
Dependencia Estadística y Causalidad (comentario)
La falta de independencia estadística entre dos eventos A y B puede reflejar
una conexión causal entre ellos pero no necesariamente constituye una
demostración de la existencia de dicha conexión.
En un área determinada, puede ocurrir que la probabilidad de encontrar un
establecimiento donde se cultiva maíz sea mayor entre aquellos sonde se cultiva soja
que entre aquellos donde no se cultiva soja. En ese caso, los eventos Maíz y Soja no
serían estadísticamente independientes. Esta dependencia estadística podría deberse a
que la presencia del cultivo de soja en un establecimiento constituya una causa de que
se cultive maíz o, viceversa, a que la presencia del cultivo de maíz sea una causa de
que se cultive soja. Sin embargo, la falta de independencia estadística no alcanza para
demostrar que exista una conexión causal entre la presencia de soja y maíz en los
establecimientos porque admite otras explicaciones razonables. Por ejemplo, la falta de
independencia estadística podría reflejar que, en su mayor parte, las tierras aptas para
cultivar maíz son también aptas para cultivar soja y las que no son aptas para maíz
tampoco lo son para soja. Es decir que la falta de independencia estadística entre dos
eventos puede ocurrir sin que uno constituya una causa del otro.
3
Descargar