repaso probabilidades1

Anuncio
MODELOS ESTOCASTICOS
IVAN DERPICH C.
1
REPASO
VARIABLES ALEATORIAS Y
DISTRIBUCIONES DE PROBABILIDAD
2
4.1. Variables
Aleatorias: Ideas Básicas
La mayoría de las aplicaciones que los administradores
hacen de la teoría de probabilidades envuelve variables
aleatorias y resultados numéricos.
Ejemplo:
La sobreventa, que es el número de personas que
teniendo reservas de un vuelo, finalmente no lo toman.
Este número es aleatorio y varía de un vuelo a otro, y
día por día, y de una aerolínea a otra.
Ciertamente esta variable es una variable numérica, por
lo cual tiene sentido hablar del número promedio de
sobreventa.
El concepto de variable aleatoria es la idea central en el
entendimiento de resultados numéricos aleatorios.
Informalmente una variable aleatoria es un resultado
cuantitativo obtenido de un experimento aleatorio.
Por ejemplo, considere el experimento de seleccionar a
un administrador aleatoriamente desde un pool de
administradores en una empresa.
3
Definamos como Y el número de años de escolaridad
que ha tenido el administrador.
Este resultado será numérico, tal como 12 o 16, no una
categoría como “privado” o “publico”. Luego, Y está
sujeto a variación aleatoria.
Si el experimento se repite haciendo una nueva
selección, el resultado será distinto.
Estas dos características – resultados numéricos y
sujetos a aleatoriedad- son aspectos claves de la
definición de una variable aleatoria.
Para especificar una variable aleatoria, necesitamos
conocer sus posibles valores y sus probabilidades.
Para los años de escolaridad, por ejemplo, los valores
pueden ser 0,1,2,…hasta un máximo, quizás de 20.
Las probabilidades pueden ser obtenidas de los registros
de personal de la empresa.
Por ejemplo si 284 de 500 administradores han
completado exactamente 4 años de universidad
(después de 12 años de básica y media) la probabilidad
de que Y=16 debería ser 284/500=0,568. ç
Las probabilidades para otros valores se pueden obtener
de manera similar.
4
Definición
informal)
4.1
Variable
aleatoria:
(Definición
Una variable aleatoria es cualquier resultado cuantitativo
de un experimento que está sujeto a variabilidad
aleatoria. Se determina fijando los posibles valores y la
probabilidad asociada con cada valor.
La probabilidad asociada con cada valor de una variable
aleatoria, se obtiene sumando las probabilidades de
todos los resultados que dan ese valor.
Suponga que una planta produce teléfonos celulares en
dos líneas de producción. Se seleccionan aleatoriamente
3 teléfonos al azar para ser inspeccionados
destructivamente.
Llamemos H y T las líneas de producción. Encuentre la
distribución de probabilidades de Y, el número de
teléfonos muestreados producidos en la línea H. Se
tienen 8 resultados posibles.
Resultado
HHH HHT HTH THH HTT THT TTH TTT
Probabilidad 1/8
1/8 1/8 1/8 1/8 1/8 1/8 1/8
Valor de Y 3
2
2
2
1
1
1
0
Luego, por ejemplo para Y=2 se tiene:
Pr{Y = 2} = Pr{HHT } + Pr{HTH } + Pr{THH } =
1 1 1 3
+ + =
8 8 8 8
Se acostumbra nombrar a las variables aleatorias con
letras mayúsculas del final de alfabeto, así por ejemplo
5
Y = número de suscriptores al diario la tercera en una
muestra de 200 personas.
Los valores que toma una variable aleatoria se denotan
habitualmente por letras minúsculas. Así podríamos
decir que y vale 0, 1 ó 2.
La diferencia entre Y, la variable aleatoria e y uno de sus
valores particulares es la diferencia entre un proceso y
un resultado particular.
Ejemplo 4.1: Suponga que se toma una muestra aleatoria
de dos personas de una gran población que se compone
de un 30% de subscriptores a una revista de negocios y
70% de no subscriptores.
a) Lista de posibles resultados
b) Asignar posibilidades
c) Defina la variable cuantitativa Y como el número
de subscriptores en la muestra. Especifique los
valores posibles que la variable aleatoria puede
asumir y determine cada uno de los valores de
probabilidad.
Solución
a) Si definimos como S a un subscriptor y N a un no
subscriptor, entonces todos los resultados posibles
del experimento de muestreo son :
{ (S,S), (S,N), (N,S), (N,N) }
6
b) De la definición del problema, sabemos que
P(S)=0,3 y P(N)=0,7. Bajo el supuesto que los
resultados de las dos personas son independientes,
se tiene se tienen las siguientes probabilidades:
P(S,S)= (0,3)2
=0,09
P(S,N)= (0,3)*(0,7)=0,21
P(N,S)= (0,7)*(0,3)=0,21
P(N,N)=(0,7)2
=0,49
1,00
c) Si la variable aleatoria Y es el número de
subscriptores en una muestra de dos personas de la
población de interés, entonces los posibles valores de Y
son 0, 1 y 2. Las probabilidades asociadas con estos
valores se pueden determinar de las probabilidades de
los resultados del experimentos correspondientes a cada
valor numérico de la variable Y.
Resultado del Probabilidad y
experimento
(N,N)
(N,S)
(S,N)
(S,S)
0,49
0,21
0,21
0,09
0
1
1
2
P(y)
0,49
0,42
0,09
7
V. A Discretas
Las variables aleatorias que hemos considerados hasta
ahora son discretas, sus posibles valores han sido
distintivos y separados, como 0 o 1 o 2 o 3.
V. A. Continuas
Otras variables aleatorias que se consideran
habitualmente son las continuas: sus posibles valores
forman un intervalo o rango (o continuum) Por ejemplo,
los retornos anuales por peso invertido en una acción
común podrían estar en un rango desde 0 hasta un valor
muy grande.
En la practica, virtualmente todas las variables aleatorias
asumen un conjunto de valores discretos; el retorno por
peso de una inversión de un millón de pesos en una
acción común, podría ser 1,06219424 o 1,06219425.
Pero cuando hay muchos valores posibles para una
variable aleatorias a veces matemáticamente útil tratarla
como continua.
De hecho, una de las importantes especificaciones de
probabilidades teóricas, es -la bien formada distribución
normal- que formalmente solo se aplica a variables
continuas. En este capitulo solo se definirán algún
lenguaje y notación para variables aleatorias continuas.
8
9
4.2. Distribuciones
aleatorias discretas
de
Probabilidad:
Variables
Distribución de probabilidades
La distribución de probabilidades PY(y) de una variable
aleatoria discreta Y asigna una probabilidad a cada valor
y de la variable aleatoria. La distribución de
probabilidades para Y se puede expresar como una
formula, un gráfico o una tabla.
Definición 4.2 Propiedades de una Distribución de
Probabilidad Discreta
1. La probabilidad PY(y) asociada con cada valor
de Y debe cumplir:
0 ≤ PY ( y ) ≤ 1
2. La suma de las probabilidades de todos los
valores de Y es igual a 1.
∑ P ( y) = 1
Y
y
3. Ya que los diferentes valores de Y son eventos
mutuamente excluyentes, sus probabilidades
son aditivas. Por lo tanto:
P(Y = a oY = b) = PY (a) + PY (b)
Para la variable Y= numero de líneas H de una muestra
de tres teléfonos, podemos definir Y a través de una
tabla, como sigue:
10
y:
PY(y):
0
1/8
1
3/8
2
3/8
3
3/8
O podemos usar una fórmula:
PY ( y ) =
3!
1
( )
y!(3 − y )! 8
Donde en general k!= k (k − 1)(k − 2)...(1) y por convención 0!= 1 . Sustituyendo
y=0,1,2 y 3 en la formula anterior se tienen las mismas probabilidades listadas en la
tabla anterior.
PY ( y = 0) :
0
1
2
3 × 2 ×1 1 1
=
(1)(3 × 2 × 1) 8 8
3 × 2 ×1 1 3
=
(1)(2 × 1) 8 8
3 × 2 ×1 1 3
=
(2 × 1)(1) 8 8
3
3 × 2 ×1 1 1
=
(3 × 2 × 1)(1) 8 8
Histograma de probabilidades
Un gráfico de esta distribución de probabilidades, llamado histograma de
probabilidades, se muestra en la figura 4.2. La variable aleatoria discreta Y es el
número de teléfono de la línea H en una muestra de tres.
Gráfico de PY(y) para el experimento de muestreo
de telefonos
0,40
Pro b ab ilid ad es
0,35
0,30
0,25
0,20
0,15
0,10
0,05
0,00
1
2
3
4
número de fonos de la linea H
Función de distribución acumulada
La función de distribución acumulada es otra función que es particularmente
apropiada cuando se calculan probabilidades y tiene aplicaciones en métodos
computacionales. En general la función de distribución acumulativa FY(y) para una
variable aleatoria discreta Y es una función que especifica la probabilidad de que
11
Y ≤ y para todos los valores de y. Por la ley de la suma de probabilidades, todo lo
que debemos hacer es sumar las probabilidades individuales para valores menores o
iguales al valor especificado y. De este modo:
FY ( y ) = P(Y ≤ y ) = PY (0) + PY (1) + ... + PY ( y )
Esto puede ilustrarse para el ejemplo de muestreo de teléfonos discutido
previamente:
y:
PY(y)
FY(y)
0
1/8
1/8
1
3/8
4/8
2
3/8
7/8
3
1/8
8/8
Como el nombre lo sugiere y el ejemplo ilustra, la función de distribución
acumulativa para un valor particular y suma todas las probabilidades para Y ≤ y . Por
ejemplo:
FY (2) = P (Y ≤ 2) =
1 3 3 7
+ + =
8 8 8 8
y
FY (3) = P(Y ≤ 3) = 1
La función de distribución acumulativa (abreviada fda) se usa frecuentemente para
construir tablas de probabilidad, de modo que el usuario no tenga que sumar muchos
datos para encontrar las probabilidades. Como ilustración, supongamos que Y es el
número de casos de ataques coronarios que llegan en un día dado a un gran hospital
de enseñanza metropolitano. La función de distribución de distribución acumulada
queda como sigue:
y:
FY(y):
y:
FY(y):
0
0,001
9
0,510
1
0,003
10
0,672
2
0,006
11
0,782
3
0,011
12
0,870
4
0,024
13
0,925
5
0,061
14
0,964
6
0,139
15
0,988
7
0,224
16
0,997
8
0,336
17
1,00
Suponga que el hospital tiene 14 camas de cuidados coronarios disponibles al
comienzo de un día particular. La probabilidad de que el número de nuevos casos Y
es menor o igual que 14 puede leerse directamente de la tabla 0,964. Es casi tan fácil
como encontrar la probabilidad de Y sea 15 o mas;
P (Y ≥ 15) = 1 − P (Y ≤ 14) = 1 − 0,964 = 0,036 .
12
4.3. Valor esperado, Varianza y Desviación estándar
En la sección previa introducimos el lenguaje de variables aleatorias. Ya que las
variables aleatorias tienen valores numéricos, tiene sentido hablar de promedios y
variabilidad. En esta sección definiremos la media (o valor esperado) y la varianza
de una cantidad aleatoria.
Valor esperado
El valor promedio de una variable aleatoria debe tomar en cuenta todos los posibles
valores de esa variable y sus respectivas probabilidades .El valor esperado de
invariable aleatoria discreta Y con distribución de probabilidad PY(y) es el promedio
ponderado en probabilidad de sus posibles valores. Recordemos que un promedio
ponderado es la suma de los valores ponderados dividido por la suma de los pesos
ponderadores.
El valor esperado de Y es también llamado media de Y , se denota E(Y) o µ y .
Definición 4.3 Valor Esperado de una Variable Aleatoria Discreta
Para una variable aleatoria discreta Y con distribución de probabilidad PY(y), el valor
esperado de Y es:
µ y = E (Y ) = ∑ yPY ( y )
y
Para encontrar E(Y) tome cada uno de los valores posibles de y, multiplíquelo por su
probabilidad PY(y) y sume todos los resultados.
Ejemplo 4.3 Una firma está considerando dos posibles inversiones. Como
aproximación gruesa, la firma asigna probabilidades (subjetivas) para los resultados
posibles de las inversiones, que son perder un 20% por peso invertido, perder 10%,
mantenerse sin ganar o perder, ganar un 10% por peso invertido y ganar un 20%. Sea
Y el retorno por peso invertido en el primer proyecto y Z el retorno por peso
invertido. Las probabilidades de la firma son:
y:
PY(y)
-0,20
0,1
-0,10
0,2
0
0,4
0,10
0,2
0,20
0,1
Z:
PZ(z)
-0,20
0,01
-0,10
0,04
0
0,1
0,10
0,5
0,20
0,35
Calcule los retornos esperados por peso invertido en cada proyecto. ¿ Cuál inversión
parece ser más atractiva ?
Solución: El proyecto Y, parece menos atractivo que el Z, pero ¿ es así ? para ello
calculemos el valor esperado de cada proyecto.
13
y
-0,20
-0,10
0
0,10
0,20
PY(y)
0,1
0,2
0,4
0,2
0,1
y PY(y)
-0,02
-0,02
0
0,02
+0,02
E(Y)=0
z
-0,20
-0,10
0
0,10
0,20
PZ(z)
0,01
0,04
0,1
0,5
0,35
zPZ(z)
-0,002
-0,004
0
0,050
+0,070
E(Y)=0,114
El valor esperado Y es menor que el de Z, por lo tanto el proyecto Z es preferible al
proyecto Y.
Estos cálculos pueden ser hechos fácilmente con una hoja de cálculo o un paquete
estadístico. Liste los posibles valores en una columna, las probabilidades
correspondientes en otra columna, multiplicar los valores correspondientes y luego
sume.
Interpretación de E(Y)
El valor esperado (media) de una variable aleatoria Y puede ser interpretado i en
varias formas. Primero, es simplemente un promedio ponderado de probabilidades,
segundo se puede pensar como un promedio de largo plazo.
Ejemplo 4.4. Suponga que una población consta de los siguientes valores y
frecuencias asociadas.
Valor:
1000
2000
3000
4000
Frecuencia
80
60
40
20
(N=200)
La media poblacional es 2000. sea Y una variable aleatoria de la población.
Encuentre PY(y) y E(Y).
Solución: Los posibles valores y sus probabilidades son:
y:
1000
2000
3000
PY(y)
80/200=0,4
60/200=0,3
40/200=0,2
4000
20/200=0,1
El valor esperado es:
E (Y ) = 1000 * 0,4 + 2000 * 0,3 + 3000 * 0,2 + 4000 * 0,1 = 2000
E(Y) es la media de la población.
Varianza de una variable aleatoria
Hemos discutido las diferentes interpretaciones asociadas con el valor esperado de
una variable aleatoria discreta. Otra característica igualmente importante de una
variable aleatoria discreta es la varianza y la desviación estándar. La varianza de un
conjunto de datos es el promedio de las desviaciones cuadráticas de la media.
14
Similarmente, la varianza de una variable aleatoria Y, Var(Y), es el promedio
ponderado por las probabilidad de las desviaciones cuadráticas con respecto a la
media.
Definición 4.4 Varianza y Desviación Estándar de una Variable aleatoria
discreta:
Si Y es una variable aleatoria discreta, entonces :
σ Y2 = Var (Y ) = ∑ ( y − µ Y ) 2 PY ( y ) , donde µ Y = E (Y )
y
La desviación estándar de Y, denotada por σ Y = Var (Y )
Para calcular Var(Y), tomar cada valor restar el valor esperado µ Y = E (Y ) , elevar al
cuadrado esta diferencia , multiplicar por la probabilidad PY(y), y sumar.
Ejemplo 4.6 Encuentre la varianza y desviación estándar para Y y Z del ejemplo 4.3.
Solución: En el ejemplo 4.3 se encontró µ y = E (Y ) = 0 y µ Z = E ( Z ) = 0,114 .
y
-0,20
-0,10
0
0,10
0,20
z
-0,20
-0,10
0
0,10
0,20
PY(y)
0,1
0,2
0,4
0,2
0,1
PZ(z)
0,01
0,04
0,1
0,5
0,35
(y- µ Y )
-0,20
-0,10
0
0,10
0,20
(z- µ Z )
-0,314
-0,214
-0,114
0-,114
0,086
(y- µ Y ) 2
0,04
0,01
0
0,01
0,04
(y- µ Y ) 2PY(y)
0,004
0,002
0
0,002
0,004
2
σ Y = 0,012
σ Y = 0,12 = 0,110
(z- µ Z ) 2
(z- µ Z ) 2PZ(z)
0,098596
0,045796
0,012996
0,00196
0,07396
0,000988596
0,00183184
0,00129960
0,00009800
0,00258860
σ Z2 = 0,006804
σ Z = 0,006804 = 0,082
La distribución Y tiene mayor variabilidad. El grueso de la distribución Z está
concentrado entre los valores mayores 0,1 y 0,2; mientras que las probabilidades Y
están mas repartidas entre todos los valores posibles. La varianza de una inversión se
toma habitualmente como una medida de riesgo, en que mayores varianzas indican
mayores niveles de riesgo. En este ejemplo la inversión Z tiene mayor valor esperado
de retorno y menor riesgo.
15
La computación de la varianza y la desviación estándar son fáciles de hacer en una
planilla electrónica o en un paquete estadístico. Se hace una columna (o una fila)
con los valores y otra con sus probabilidades, tal como lo hicimos para calcular el
valor esperado. Se construye una nueva columna restando la media de cada uno de
los valores y se eleva al cuadrado el resultado. Luego se multiplican los valores
cuadráticos por la probabilidad correspondiente y finalmente se suman todos los
resultados para obtener la varianza. Luego se toma la raíz cuadrada de la varianza
para obtener la desviación estándar.
En la figura 4.6 se presenta un arreglo en Excel para calcular el valor esperado, la
varianza y la desviación estándar de la variable Y= número de cajas abiertas en un
supermercado a las 8 AM.
16
Figura 4.6 Valor esperado, Varianza y desviación estándar con Excel
y
P(y)
0
1
2
3
4
5
6
7
8
9
10
0,1
0,15
0,25
0,2
0,1
0,08
0,05
0,02
0,02
0,015
0,015
0
0,15
0,5
0,6
0,4
0,4
0,3
0,14
0,16
0,135
0,15
9
4
1
0
1
4
9
16
25
36
49
0,9
0,6
0,25
0
0,1
0,32
0,45
0,32
0,5
0,54
0,735
yP(y)
Valor
Esperado
y-uY
(y-uY)2
Varianza
Valor
esperado=
Varianza =
Desviación
estándar=
SUMA(B3:L3)
SUMA((B7:L7)
2,935
4,715
2,171
La varianza y la desviación estándar de una variable no pueden ser negativas. La
varianza es 0 si todos los valores están concentrados en un sólo valor. Mientras mas
repartida está la probabilidad entre todos los valores, mayor es su valor. Este hecho
proviene de que la varianza es el promedio en probabilidad de las desviaciones
cuadráticas. Si las mayores desviaciones cuadráticas están en los extremos hay
mayor probabilidad de que la varianza y la desviación estándar serán grandes.
4.4 Distribución Conjunta de Probabilidad e Independencia
Hemos desarrollado un lenguaje básico para variables aleatorias discretas. En esta
sección se extiende el lenguaje a distribuciones conjuntas de probabilidad para dos
variables aleatorias X e Y. Se hacen nuevas definiciones para el caso de 2 variables
aleatorias discretas.
Probabilidades Conjuntas
Cuando nos enfrentamos a dos variables aleatorias X e Y, es conveniente trabajar con
probabilidades conjuntas. La distribución conjunta de los eventos A y B es la
probabilidad que ambos eventos ocurran, P(A y B). Sea A el evento X=x, y B el
evento Y=y. Se define la probabilidad PXY(x,y) como la función que provee la
distribución conjunta para cada par de valores x e y.
Ejemplo 4.9 Suponga que en la sala de emergencia de un pequeño hospital, la
mayoría de los casos que llegan son ataques cardíacos y traumas (por accidentes o
acciones de violencia). Definamos las llegadas de personas de una noche cualquiera
de fin de semana como, X=número de ataques cardíacos e Y=número de traumas. La
distribución conjunta de probabilidades PXY(x,y) se muestra a continuación:
17
Y
0
2/82
4/84
6/84
X
0
1
2
1
3/84
6/84
9/84
2
4/84
8/84
12/84
3
5/84
10/84
15/84
Interprete el valor 10/84 en la tabla.
Solución: El valor 10/84 es la probabilidad conjunta PXY(1,3) , esto es, la
probabilidad de que X=1 y Y=3 en una noche de fin de semana cualquiera. Dicho de
otra forma es la probabilidad de que ocurra 1 caso de ataque cardíaco y 3 traumas en
una noche cualquiera de fin de semana.
Probabilidades marginales
Una vez que se ha establecido la distribución conjunta de probabilidad, las
probabilidades marginales se pueden calcular, por suma.
Ejemplo 4.10 Encontrar la distribución de probabilidad conjunta de X y la
distribución de probabilidad conjunta de Y del ejemplo 4.9.
Solución: Sume a través de las columnas para obtener la probabilidad marginal de X
y a través de las filas para obtener la probabilidad marginal de Y.
x
0
1
Y
2
0
1
2
PY(y)
2/82
4/84
6/84
12/84
3/84
6/84
9/84
18/84
4/84
8/84
12/84
24/84
3
PX(x)
5/84
10/84
15/84
30/84
14/84
28/84
42/84
Estas ideas se pueden expresar también en fórmulas. Para encontrar PX(x) sume las
probabilidades conjuntas de x para todo valor posible de y :
PX ( x) = ∑ P( x, y )
y
En este ejemplo
P( X = 1) = ∑ PXY (1, y )
y
= PXY(1,0) + Pxy(1,1) + Pxy(1,2) + PXY(1,3)
=
4
6
8 10 28
+
+
+
=
84 84 84 84 84
En este ejemplo:
18
P(Y = 1) = ∑ PXY ( x,1)
x
= PXY (0,1) + PXY (1,1) + PXY (2,1) =
=
3
6
9 18
+
+
=
84 84 84 84
En una planilla electrónica se pueden hacer estos cálculos de manera muy sencilla.
Por ejemplo suponga que una compañía de arriendo de automóviles como parte de su
sistema de créditos, recoge las probabilidades conjuntas de dos variables:
X= número de muertes ocurridas e Y= número de tarjetas de crédito impagas,
resultantes de una toma de datos aleatoria. El archivo Excel se muestra en la figura
4.7.
A
1 Probabili
B
Figura 4.7
D
C
E
F
G
y
dades
Conjuntas
2
3
4 X
5
6
0
1
2
A
1 Probabili
B
0
0,06
0,13
0,08
1
0,11
0,24
0,04
2
0,16
0,09
0,03
3
0,03
0,02
0,01
=SUMA(C3:C5)
=SUMA(D3:D5)
=SUMA(E3:E5)
=SUMA(F3:F5)
C
D
dades
Conjuntas
2
3
4
5
6
X
E
=SUMA(C3:F3)
=SUMA(C4:F4)
=SUMA(C5:F5)
F
G
3
0,03
0,02
0,01
0,06
0,36
0,48
0,16
1
y
0
1
2
0
0,06
0,13
0,08
0,27
1
0,11
0,24
0,04
0,39
2
0,16
0,09
0,03
0,28
La fórmula “=SUMA” calcula la probabilidad marginal inmediatamente. Se puede
extender la notación básica de probabilidad a probabilidades condicionales. Para ello
definamos la probabilidad condicional de B dado A como sigue:
P( B ) =
A
P( A ∩ B)
P( A)
19
Distribución condicional
Llamemos Probabilidad condicional de Y dado X=x a PY / X ( y / x) . Así para cualquier
valor de Y tenemos:
P(Y = y / X = x) =
P( X = x ∩ Y = y ) PXY ( x, y )
=
P( X = x)
PX ( x)
La necesidad de esta notación viene de la idea de independencia. Recordemos que
tenemos dos definiciones de independencia para los eventos A y B:
P( A / B) = P( B)
P ( A ∩ B ) = P ( A) P ( B )
Definiciones equivalentes de independencia estadística
Tenemos también dos definiciones equivalentes de independencia estadística, para
las variables aleatorias X e Y:
PY / X ( y / x) = PY ( y ), para todo x,y
PXY ( x, y ) = PX ( x) PY ( y ), para todo x, y
Usualmente nosotros usaremos la segunda definición de independencia.
Ejemplo 4.11 Mostrar que X e Y de los ejemplos 4.9 y 4.10 son independientes
Solución: En el ejemplo 4.10 encontramos PX(x) y PY(y). Al multiplicar
adecuadamente ambos términos se obtiene la siguiente tabla:
x
0
1
2
0
(12/84)(14/84)
(12/84)(28/84)
(12/84)(42/84)
12/84
y
1
2
3
(18/84)(14/84) (24/84)(14/84) (30/84)(14/84)
(18/84)(28/84) (24/84)(28/84) (30/84)(28/84)
(18/84)(42/84) (24/84)(42/84) (30/84)(42/84)
18/84
24/84
30/84
PX(x)
14/84
28/84
42/84
Al reducir a fracciones los datos de esta tabla, se llegan a los datos de la tabla del
ejemplo 4.9. De esta forma PXY(x,y)=PX(x)PY(y) para todo x e y; por lo que X e Y son
independientes.
El supuesto de independencia fue construido en forma matemática para PXY(x,y). En
la práctica, frecuentemente se supone que X e Y son independientes: una vez que
especificamos PX(x) y PY(y), se calcula PXY(x,y) como el producto PX(x)PY(y). En el
ejemplo 4.9 hay una situación en la cual el supuesto de independencia parece
20
razonable. El número de casos coronarios que llegan a la sala de emergencia no
debería ser relevante para predecir el número de casos de trauma que llegan.
Ejercicios
4.21 Una empresa manufacturera de televisores vendo dos modelos principales.
Defínase X=ventas del modelo A en Diciembre (cerca de 100.000) e Y=ventas del
modelo B en Diciembre. El equipo de marketing estima que las probabilidades
conjuntas son PXY(x,y) son:
X
1
2
3
4
a.
b.
c.
d.
y
2
0,055
0,07
0,075
0,07
1
0,03
0,055
0,07
0,075
3
0,07
0,075
0,07
0,055
4
0,075
0,07
0,055
0,030
Encontrar P(X=1,Y=2)
Encontrar P ( X ≤ 2, Y ≤ 2)
Encontrar PX ( x) y PY ( y )
¿ Son X e Y independientes?
4.22 El dueño de una pequeña tienda de equipos musicales define las siguientes
variables; X= número de amplificadores vendidos en un día de semana e Y= número
de parlantes vendidos durante el mismo día.
x:
Px(x)
0
0,10
1
0,40
2
0,25
3
0,20
4
0,05
a. Asuma que X e Y son independientes, calcula la distribución conjunta
PXY(x,y).
b. Cheque su trabajo encontrando las probabilidades marginales.
4.23 ¿ Cree ud. que la independencia es un supuesto razonable en el ejercicio 4.22.?
¿ Debería ser verdad que las ventas de amplificadores son irrelevantes para las
ventas de parlantes ?
4.24 Una pequeña empresa consultora presenta propuestas orales y escritas en un
esfuerzo por obtener nuevos contratos. Los registros indican que la distribución
de probabilidades PXY(x,y) de X=número de propuestas orales en una semana e
Y=número de propuestas escritas en una semana está dada por la siguiente
tabla:
21
y
x
0
1
2
3
4
0
0,01
0,020
0,030
0,040
0,050
1
0,015
0,030
0,045
0,060
0,075
2
0,030
0,045
0,100
0,045
0,030
3
0,075
0,060
0,045
0,030
0,015
4
0,050
0,040
0,030
0,020
0,010
a. Encuentre la probabilidad de que hayan dos propuestas orales y dos
propuestas escritas en una semana.
b. Encuentre la probabilidad de que hayan exactamente dos propuestas orales en
una semana y dos o menos propuestas escritas en una semana.
4.25
Refiérase al ejercicio 4.24.
4.26 a. Use las distribuciones de probabilidad para construir las distribuciones de
probabilidad marginales de X e Y.
b. Asumiendo estas probabilidades por usted calculadas, ¿ son X e Y independientes
?
4.26 Calcula la distribución condicional de Y dado cada valor posible de X usando
las distribuciones del ejercicio 4.24 ¿ son estas distribuciones de probabilidad
condicionales independientes ?
4.5. Covarianza y Correlación de Variables Aleatorias
En la sección previa se definió la noción de independencia de una variable aleatoria.
Ahora hablaremos sobre como medir el grado de dependencia entre dos variables
aleatorias. Hay muchas medidas de dependencia que se pueden usar. Dos medidas,
covarianza y correlación, son particularmente importantes porque están
estrechamente relacionadas al concepto de varianza de una variable aleatoria. La
correlación, en particular, es una forma de saber en que medida dos variables
aleatorias varían juntas.
Comencemos, una vez mas, con un ejemplo: Un empleado de confianza de un banco
supone las siguientes (subjetivas) probabilidades conjuntas para el porcentaje de
retorno (interés mas cambio en valor de mercado) de dos bonos. Los retornos se
muestran como X e Y.
y
x
8
9
10
11
12
8
0,03
0,04
0,02
0,00
0,00
9
0,04
0,06
0,08
0,04
0,00
10
0,03
0,06
0,20
0,06
0,03
11
0,00
0,04
0,08
0,06
0,04
12
0,00
0,00
0,02
0,04
0,03
PX(x)
0,10
0,20
0,40
0,20
0,10
22
0,09
0,22
0,38
0,22
0,09
1,00
Hay una relación entre X e Y. Por ejemplo, dado x=8, las probabilidades de Y se
concentran en los valores mas pequeños de y=8,9 y 10. En el otro extremo dado
x=12, las probabilidades se concentran sobre los valores mayores de y=10, 11 y 12.
En general hay tendencia para que X e Y varíen juntos. La convergencia y
correlación de dos variables aleatorias miden la fortaleza de la tendencia.
La covarianza de dos variables aleatorias se basa en el producto de las desviaciones
con respecto a las medias, ponderadas por la probabilidad conjunta. Si un valor
particular de x es menor que µ X y un valor de y está por debajo de µ Y , ambas
desviaciones serán negativas y el producto será positivo. Similarmente si ambas
desviaciones están por arriba de las correspondientes medias, el producto también
será positivo. En cambio, si la desviación de una variable está por sobre la media y la
desviación de la otra está por debajo de la media, el resultado del producto será
negativo.
Definición 4.7 Covarianza de dos Variables Aleatorias X e Y. Si X e Y son dos
variables aleatorias discretas con medias µ X y µ Y , y con distribución de
probabilidad conjunta PXY(x,y), la Covarianza de X e Y, denotada por Cov(x,y) se
define como:
Cov( x, y ) = ∑∑ ( x − µ X )( y − µ Y ) PXY ( x, y )
x
y
Una fórmula corta para calcular la covarianza es


Cov( x, y ) = ∑∑ xyPXY ( x, y ) − µ X µ Y
 x y

Ejemplo 4.12 Computar Cov(X,Y) para la distribución conjunta dada en la discusión
precedente. Use la definición primera y luego cheque la fórmula corta, verificando
que ambos métodos dan el mismo resultado.
Solución: De las probabilidades marginales PX (x) y PY ( y ) , se obtienen las medias
o valores esperados:
µ x = 8 * 0,1 + 9 * 0,2 + 10 * 0,4 + 11 * 0,2 + 12 * 0,10 = 10
µ Y = 8 * 0,9 + 9 * 0,22 + 10 * 0,38 + 11 * 0,22 + 12 * 0,09 = 10
Como se puede ver los números de X están igualmente distribuidos alrededor de 10,
este valor es la media o valor esperado. Lo mismo ocurre con los valores de Y. La
covarianza se puede ahora computar usando la definición:
Cov( x, y ) = ∑∑ ( x − µ X )( y − µ Y ) PXY ( x, y )
x
y
23
Cov ( X , Y ) = (8 − 10 ) * (8 − 10 ) * 0,3 + (8 − 10 ) * (9 − 10 ) * 0,04 + + (8 − 10 ) * (10 − 10 ) * 0,03 +
(8 − 10 ) * (11 − 10 ) * 0,0`( 8 − 10 ) * (12 − 10 ) * 0,0 + (9 − 10 ) * (8 − 10 ) * 0,04 + ....
+ (12 − 10 ) * (12 − 10 ) * 0,03 = 0,60
Similarmente, usando la fórmula corta:
Cov( x, y ) = ∑∑ ( x − µ X )( y − µ Y ) PXY ( x, y )
x
y
8 * 8 * 0,03 + 8 * 9 * 0,04 + 8 * 10 * 0,03 + ... + 12 * 12 * 0,03 − 10 * 10 =
100,6 − 100 = 0,60
En una planilla electrónica la covarianza se puede calcular más fácilmente.
1
A
Probabilidades
Conjuntas
2
3
4
5
6
7
8 Total
9
10
11
12
13
14
15
16
B
8
9
10
11
12
C
D
E
F
G
H
0,03
0,04
0,02
0,00
0,00
0,09
9
0,04
0,06
0,08
0,04
0,00
0,22
10
0,03
0,06
0,20
0,06
0,03
0,38
11
0,00
0,04
0,08
0,06
0,04
0,22
12
0,00
0,00
0,02
0,04
0,03
0,09
Total
0,10
0,20
0,40
0,20
0,10
1,00
0,12
0,08
0,00
0,00
0,00
0,08
0,06
0,00
-0,004
0,00
0,00
0,00
0,00
0,00
0,00
0,00
-0,04
0,00
0,06
0,08
0,00
0,00
0,00
0,08
0,12
I
0,6
La covarianza de dos variables aleatorias esta estrechamente relacionada
correlación.
a su
24
Definición 4.8
Correlación de dos Variables Aleatorias X e Y:
Si X e Y son dos variables aleatorias discretas con desviaciones estándares
respectivas σ X y σ Y , su correlación ρ XY se define como :
ρ XY =
Cov( X , Y )
σ XσY
Cov( X , Y ) = ρ XY σ X σ Y
De aquí se concluye:
La correlación entre X e Y esta en el rango -1,00 y +1,00. Un valor -1,00 ó +1,00
indica predicción lineal perfecta en la población, mientras que un valor 0 indica que
no existe ninguna predicción lineal.
Ejemplo 4.13: Encuentre ρ XY para la distribución discutida en el ejemplo 4.12
reciente.
Solución: En el ejemplo 4.12 se encontró Cov(X,Y)=0,6 . Para obtener ρ XY se
necesita las desviaciones estándar de X e Y, las cuales pueden ser computadas desde
la perspectiva de probabilidades marginales. La fórmula corta para una varianza
puede usarse para computar σ X2 y σ Y2 .
σ X2 = ∑ x 2 PX ( x) −µ X2
x
= 8 2 (0,10) + 9 2 (0,20) + 10 2 (0,40) + 112 (0,20) + 12 2 (0,10) − 10
= 101,20 − 100 = 1,20
y
σ X = 1,20 = 1,095 Similarmente se tiene
σ
Y
=
∑
y 2 PY ( y ) − µ Y2 = 1 ,16
y
σ Y = 1,16 = 1,077
Sustituyendo en la definición de ρ XY , se tiene :
25
ρ XY =
Cov( X , Y )
σ XσY
=
0,60
= 0,509
1,095(1,077)
26
5.1 Contando los resultados posibles
Este capitulo contiene una discusión sobre la distribución de probabilidades que se
aplican en varias situaciones comunes. La mas común de estas es cuando se toma
una muestra de una población, y se usa la expresión:
P (evento) =
numero de resultados favorables
número total de resultados
Para usar esta idea necesitamos un método para contar posibles resultados sin el
trabajo de listar explícitamente los resultados.
Esta sección contiene una sección dedicada a fórmulas de conteo. Estas fórmulas son
necesarias también para el desarrollo de la distribución de probabilidad binomial que
se aborda en la siguiente sección. Los métodos de conteo responden a las siguientes
dos preguntas:
1. ¿Cuántas secuencias de k símbolos se pueden formar de un conjunto de r
distintos símbolos, usando cada símbolo no más de una vez ?
2. ¿Cuántos subconjuntos de k símbolos se pueden formar de un conjunto de r
símbolos distintos, usando cada símbolo no mas de una vez ?
La única diferencia entre una secuencia y un subconjunto es que el orden importa
para las secuencias y no para los subconjuntos. La secuencia ABC no es la misma
que la secuencia CBA, pero el subconjunto {A,B,C} es el mismo que el subconjunto
{C,B,A}. Como ejemplo considere secuencias y subconjuntos de tres de las primeras
cinco letras del alfabeto. Hay 60 secuencias pero solo 10 subconjuntos. (Tabla 5.1)
{A,B,C}
{A,B,D}
{A,B,E}
{A,C,D}
{A,C,E}
{A,D,E}
{B,C,D}
{B,C,E}
{B,D,E}
{C,D,E}
ABC
ABD
ABE
ACD
ACE
ADE
BCD
BCE
BDE
CDE
ACB
ADB
AEB
ADC
AEC
AED
BDC
BEC
BED
CED
BAC
BAD
BAE
CAD
CAE
DAE
CBD
CBE
DBE
DCE
CAB
DAB
EAB
DAC
EAC
EAD
DBC
EBC
EBD
ECD
BCA
BDA
BEA
CDA
CEA
DEA
CDB
CEB
DEB
DEC
CBA
DBA
EBA
DCA
ECA
EDA
DCB
ECB
EDB
EDC
Número de secuencias =r(r-1)…(r-k+1)
Por ejemplo, elija una secuencia de k=3 letras de un total de k=5 letras, como en la
tabla 5.1, tenemos 5 elecciones para la primera letra, y 4 elecciones para la segunda y
3 para la tercera. Por lo tanto hay 5x4x3=60 secuencias diferentes.
La fórmula de la secuencia aparece como un factorial (r!) excepto que está truncado
en r-k+1 en vez de continuar hasta 1.
27
Los números de secuencias se llaman habitualmente número de permutaciones, de k
tomados de r y se denota
r
r
Pk y se expresa via factoriales como:
Pk =
r!
= r (r − 1)...(r − k + 1)
(r − k )!
El número de subconjuntos es llamado número de combinaciones de k símbolos
r 
tomados de r y se denota como r Ck o  
k 
r 
r!
  =
 k  k!(r − k )!
Por ejemplo, para elegir un subconjunto de k=3 letras de un total de k=5 letras, como
en la tabla 5.1, tenemos
 5
5!
5 x 4 x3 x 2 x1
  =
=
= 10
 3  3!(5 − 3)! 3 x 2 x1(2 x1)
r 
El símbolo   se lee “r sobre k”, sugiriendo la elección de un subconjunto de k
k 
cosas de un conjunto de r cosas.
La formula de combinaciones es particularmente útil para muestreo aleatorio, porque
elegir un tamaño de muestra k sin reemplazo desde una población de tamaño r es
exactamente lo mismo que un subconjunto de k cosas tomadas de un conjunto de r
cosas.
Habitualmente no nos importa el orden durante el muestreo de modo que la formula
de permutaciones no es importante en este caso. Frecuentemente se deben contar el
número de formas que se pueden obtener dos subconjuntos. Por ejemplo, si tenemos
un total de 920 ítems buenos y 80 ítems malos, ¿cuantas formas hay de elegir 12
buenos y 4 malos?
 920 
 80 
 formas de elegir los ítems buenos y   formas de elegir los malos.
Hay 
12 
4 
Cualquier elección de ítems buenos se puede juntar con la elección de ítems malos,
luego para encontrar el número de formas en que pueden ocurrir ambas cosas, es
decir elegir 12 ítems buenos y 4 ítems malos, basta multiplicar ambas formulas.
Luego hay
 920  80 

  formas de hacer estas elecciones.
12  4 
28
5.2. Distribuciones Discretas de Probabilidad:
Distribución Binomial
Es una de las distribuciones discretas más útiles. Sus areas de aplicación incluyen
inspección de calidad, ventas, marketing, medicina, investigación de mercados, etc.
Para entender esta distribución se debe imaginar un experimento en el que el
resultado es la ocurrencia o la no ocurrencia de de un evento. Sin pérdida de
generalidad, llámese éxito a la ocurrencia del evento y fracaso a la no ocurrencia del
evento. Además sea p la probabilidad de éxito y 1-p la probabilidad de fracaso.
Supóngase que el experimento se repite n veces, y cada uno de estos experimentos es
independiente de los demás, y sea X la variable aleatoria que representa el número de
éxitos en los n ensayos. El interés está en la probabilidad de obtener exactamente n
ensayos. Los dos supuestos claves para la distribución binomial son:
1. La probabilidad de éxito p permanece constante para cada ensayo.
2. Los n ensayos son independientes entre si.
Varios problemas parecen adherirse razonablemente a las suposiciones anteriores.
Por ejemplo, un proceso de manufactura produce un determinado producto en el que
algunas unidades se encuentran defectuosas. Si la proporción de unidades
defectuosas producidas por este proceso es constante durante un período razonable y
si como procedimiento de rutina, se seleccionan aleatoriamente un determinado
número de unidades, entonces el cálculo de probabilidad puede hacerse con la
distribución binomial, de la siguiente forma:
Sea p la proporción de unidades defectuosas producidas. Entonces se sacan n
artículos para ver cuantos salen defectuosos. Por ejemplo supongamos que se sacan 5
artículos y se quiere calcular la probabilidad de que 2 de estos 5 artículos sean
defectuosos. Entonces si D es artículo defectuoso y N artículo no defectuoso, se tiene
lo siguiente:
DDNN N o
DNDNN o
D N N D N o D N N N D o…
5
Entonces hay   formas o combinaciones de sacar 2 artículos defectuosos en 5
 2
artículos sacados.
La probabilidad de sacar 2 artículos defectuosos y 3 no defectuosos en cualquier
orden es
p * p * (1 − p ) * (1 − p ) * (1 − p ) = p 2 * (1 − p )
3
n
En general si se quieren obtener k éxitos en n ensayos, se tienen   formas y cada
k 
n− k
caso tiene probabilidad p k (1 − p ) .
29
Formalicemos ahora estas ideas sobre la distribución binomial.
Definición Distribución Binomial:
Sea X una variable aleatoria que representa el número de éxitos en n ensayos y p la
probabilidad de éxito con cualquiera de éstos. Se dice entonces que X tiene una
distribución binomial con función de probabilidad:
n!

n− x
p x (1 − p )
x = 0,1,2,..., n

p (x; n, p ) =  (n − x )! x!
0 para cualquier otro valor 0 ≤ p ≤ 1

Los parámetros de la distribución binomial son n y p. Estos definen una familia de
distribuciones binomiales.
Valor esperado de una variable X distribuida Binomial(n,p)
Si X ≈ Bin(n, p) ⇒ E ( X ) = np
Varianza de una variable X distribuida Binomial(n,p)
Si X ≈ Bin(n, p ) ⇒ V ( X ) = np(1 − p )
Ejemplos:
1.- Supóngase que para personas de cierta edad, la probabilidad de contagio de cierta
enfermedad invernal es 0,001. ¿Cual es la probabilidad de que se contagien el 30% ?
El 30% puede entenderse como 30 de n=100. Luego lo que se pregunta es por una
variable X que cuenta el número de infectados con la enfermedad invernal. Esta
variable distribuye binomial, con parámetros p=0,01 y n=100.
Es decir Pr{X = 30} =
100!
100 −30
0,0130 (1 − 0,01)
= 1,45 E − 35
(100 − 30)!30!
Si la pregunta se cambia a ¿Cual es la probabilidad de que se contagien el 1% ?
Entonces
Pr{X = 1} =
100!
100 −1
0,011 (1 − 0,01)
= 0,369
(100 − 1)!1!
30
5.3. Distribución de Poisson
Esta distribución se aplica cuando una sucesión de eventos ocurren aleatoriamente a
través del tiempo. Una instalación eléctrica enfrenta ocasionales tormentas que
derriba las líneas de transmisión o daña los transformadores. Aunque la probabilidad
de largo plazo de ocurrencia de una tormenta se puede determinar con total
seguridad, el tiempo en que ocurrirá la siguiente tormenta es impredecible. Un
administrador de un centro computacional de una universidad enfrenta variaciones
aleatorias, en los tiempos de llegadas de trabajos.
La distribución de Poisson es el modelo más simple y mas ampliamente usado de
eventos que ocurren en el tiempo. Esta distribución es el resultado matemático de
una serie de supuestos. Si los supuestos no son correctos, a lo menos
aproximadamente, para una situación particular, la Distribución de Poisson puede
hacer un mal modelo de la situación.
Los supuestos cruciales son los siguientes:
1. Los eventos ocurren uno a la vez. No ocurren dos o más eventos al mismo
tiempo.
2. La ocurrencia del evento de interés en un período dado es independiente de la
ocurrencia del evento en un período no traslapado de tiempo. Esto significa
que la ocurrencia (o no ocurrencia) de un evento durante un período de
tiempo no cambia la probabilidad de que ocurra un evento en algún período
de tiempo posterior.
3. El número esperado de eventos en un período de tiempo se mantiene
constante, de modo que, el número esperado de eventos durante un cierto
período de tiempo es el mismo que el de otro período de tiempo del mismo
largo.
El tercer supuesto hace la matemática más fácil, pero se puede probar que es
irrelevante. Con estos supuestos se llega a la siguiente distribución de
probabilidades.
Definición : Distribución de probabilidades de Poisson
Sea Y una variable con distribución de Poisson. Esto lo denotaremos como
Y ≈ Poisson(λ )
Entonces :
PY ( y ) =
e− µ µ y
y!
Donde µ es el número esperado de eventos que ocurrirán en un período dado y
además e = 2,71828 .
31
5.4. Distribuciones Continuas de Probabilidad
Distribución Uniforme:
Se caracteriza porque todos los intervalos de igual tamaño tienen la misma
probabilidad de ocurrir. Es muy utilizada para modelar tiempos de ocurrencia de
eventos, cuando no se tiene información adicional, que permita inferir alguna
condición sobre la frecuencia de ocurrencia de los valores que pueda tomar la
variable.
Definición formal:
Sea X una variable con distribución uniforme, con valores reales entre a y b.
Entonces la función de densidad de probabilidad (fdp) de X es :
1
; a≤ x≤b
(b − a )
Con esto se puede obtener la Función de Probabilidad acumulada F (x) .
fdp X =
x
F (x ) = ∫
a
Luego
x
x
1
1
1
(x − a )
fdp X dx = ∫
dx =
dx =
∫
(b − a )
(b − a ) a
(b − a )
a
1
Pr{X ≤ x} =
(x − a ) ; a ≤ x ≤ b
(b − a )
32
Descargar