TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE

Anuncio
TABLA DE CONTENIDOS
1. NOCIONES ELEMENTALES DE PROBABILIDAD
1.1 NOCIONES SOBRE CONJUNTOS
1.1.1 DEFINICIÓN DE CONJUNTO.
1.1.2 NOTACIÓN.
1.1.3 EJEMPLOS.
1.1.4 CONJUNTO UNIVERSAL Y CONJUNTO VACÍO.
1.1.5 OPERACIONES ENTRE CONJUNTOS
1.1.6 EJEMPLO
1.1.7 ALGUNAS DEFINICIONES O LEYES DE INTERÉS
1.2 MODELOS PROBABILÍSTICOS
1.2.1 CARACTERÍSTICAS DE LOS FENÓMENOS ALEATORIOS
1.2.2 CONCEPTOS BÁSICOS DE ANÁLISIS COMBINATORIO
1.2.3 CONCEPTO DE PROBABILIDAD
1.2.4 TEORÍA AXIOMÁTICA DE LA PROBABILISDAD
1.2.5 TEOREMAS FUNDAMENTALES DEDUCIBLES DE LA TEORÍA
AXIOMÁTICA DE LA PROBABILIDAD
1.2.6 TEORÍA CLÁSICA DE LA PROBABILIDAD
1.2.7 TEORÍA FRECUENCIAL O A POSTERIORI
1.2.8 PROBABILIDAD MARGINAL
1.2.9 PROBABILIDAD CONDICIONAL
1.2.10 TEOREMA DE BAYES
1.2.11 PROBLEMAS
2. VARIABLES ALEATORIAS
2.1 VARIABLE ALEATORIA DISCRETA
2.2 FUNCIONES DE DOS O MÁS VARIABLES DISCRETAS
2.3 FUNCIÓN DE DENSIDAD MARGINAL PARA VARIABLES DISCRETAS
2.4 FUNCIÓN DE DENSIDAD CONDICIONAL
2.5 VARIABLE ALEATORIA CONTINUA
2.6
FUNCIÓN
DE
DENSIDAD
PARA
VARIABLE
CONTINUA
PLURIDIMENSIONAL
2.7 ESPERANZA MATEMÁTICA
2.8 MOMENTOS CON RESPECTO AL ORIGEN
2.9 MOMENTOS DE ORDEN
RESPECTO A UNA CONSTANTE
2.10 MOMENTOS DE ORDEN CON RESPECTO A LA MEDIA
2.11 VARIANZA DE UNA FUNCIÓN DE PROBABILIDAD
2.12 FUNCIÓN GENERATRIZ DE MOMENTOS
2.12.1 PROPIEDADES DE LA FUNCIÓN GENERATRIZ DE MOMENTOS
2.12.2 TEOREMA
2.13 FUNCIÓN CARACTERÍSTICA
2.14 EJERCICIOS
3. DISTRIBUCIONES PROBABILÍSTICAS
3.1
PRINCIPALES
DISTRIBUCIONES
DE
PROBABILIDAD
PARA
VARIABLE DISCRETA
3.1.1 DISTRIBUCIÓN BINOMIAL
3.1.2 DISTRIBUCIÓN HIPERGEOMÉTRICA
3.1.3 DISTRIBUCIÓN DE POISSON
3.2 PRINCIPALES DISTRIBUCIONES CONTINUAS
3.2.1 DISTRIBUCIÓN UNIFORME O RECTANGULAR
3.2.2 DISTRIBUCIÓN NORMAL (0, 1 ) : n(0, 1)
3.2.3 DISTRIBUCIÓN NORMAL CON MEDIA m y VARIANZA s2: h(m,s2)
3.2.4 DISTRIBUCIÓN JI DOS CON UN GRADO DE LIBERTAD: X 2 (1)
3.2.5 DISTRIBUCIÓN JI DOS CON n GRADO DE LIBERTAD X 2 (n)
3.2.6 DISTRIBUCIÓN t DE ESTUDENT
3.2.7 DISTRIBUCION F DE SNEDECOR
3.2.8 TEOREMA CENTRAL DEL LÍMITE
3.2.9 TEOREMA DE MOIVRE
3.2.10 EJERCICIOS
BIBLIOGRAFIA
1 NOCIONES ELEMENTALES DE PROBABILIDAD
1.1 NOCIONES SOBRE CONJUNTOS
1.1.1 DEFINICIÓN DE CONJUNTO. Un conjunto no es más que una
colección de objetos, elementos o miembros.
1.1.2 NOTACIÓN. Por convencionalismo se tiene, mientras no se diga lo
contrario, los conjuntos, los denotaremos con letras mayúsculas y los
elementos con letras minúsculas.
1.1.3 EJEMPLOS.
1.1.3.1 Sea A un conjunto compuesto por los elementos: a, b, c y d. Es decir,
A = {a, b, c, d }, donde podemos asegurar que a “pertenece a” A y se escribe
a ∈ A; b ∈ A; c ∈ A; d ∈ A; (a, b )∈ A; (b, c, d )∈ A; etc.
1.1.3.2 Cuando un elemento o un grupo de elementos “no pertenece a” un
conjunto, lo denotamos así: ∉ . Remitiéndonos al ejemplo 1.1.3.1 tenemos que la
pareja (h, k ) ∉ A.
1.1.3.3 Dados los conjuntos A y B los cuales tienen como elementos : 1, 3, 5, 7, 9
y 1, 7, 9; respectivamente, entonces decimos que el conjunto B “es subconjunto
de” A.
1.1.4 CONJUNTO UNIVERSAL Y CONJUNTO VACÍO. En muchos casos
restringimos la teoría de conjuntos en términos de subconjuntos, ya que
los relacionamos con respecto a otro conjunto o espacio que los
contiene, esto es, conjunto Universal y lo denotamos con la letra U.
Cuando un conjunto no tiene elementos, se denomina conjunto vacío y lo
representamos con la letra φ , (FI).
1.1.4.1
Ejemplo de conjunto vacío:
El conjunto de todos los números reales X tales que X2 = -1, es decir,
{X / X
2
}
= -1 = φ , ya que no existen cuadrados de números reales que sean
iguales a –1.
1.1.4.2
Ejemplo de conjunto Universal:
Si lanzamos un dado, el conjunto de todos los posibles resultados es el universo o
Espacio Universal: {1, 2 , 3, 4 , 5, 6}
1.1.5 OPERACIONES ENTRE CONJUNTOS
1.1.5.1
UNIÓN. Se define como el conjunto de todos los elementos, que
pertenecen a A o a B, o tanto a A como a B, (siendo A y B
previamente definidos).
A “Unión” B, esto es ( A ∪ B ) .
1.1.5.2
INTERSECCIÓN. Es el conjunto de elementos que pertenecen
simultáneamente a A y a B, (A y B previamente definidos), y se
escribe A ∩ B.
Cuando A ∩ B = φ , decimos que A y B son conjuntos disjuntos o “Distintos”.
1.1.5.3
DIFERENCIA. Son todos los elementos que de A que no pertenecen
a B, esto es, A – B.
1.1.5.4
COMPLEMENTO. Si B C A, entonces, A – B se denomina el
complemento de B relativo a A y se escribe: B´ A o B A o B C A. . Si A
= U, nos referimos a U – B, sencillamente como el complemento de
B´ o B o B C . El
B:
complemento
de
(A
∪ B)
se
escribe
( A ∪ B )´ o ( A ∪ B ) o ( A ∪ B )C.
1.1.6 Ejemplo:
A = {0, 1, 2 , 3, 4 , 5, 6 , 7 , 8, 9}
B = {a, 1, e, 3, i, 5, o, 7 , u, 9}
C = {2 , 4 , 6 , 8}
D = {a,u}
Hallar: A ∪ B; B ∪ D; A - B; C ´ A.
Entonces:
A ∪ B = {0 , 1, 2 , 3, 4 , 5, 6 , 7 , 8, 9} ∪ {a, 1, e, 3, i, 5, o, 7 , u, 9}
A ∪ B = {0 , 1, 2 , 3, 4 , 5, 6 , 7 , 8, 9 , a, e, i, o, u}
B ∪ D, vemos claramente que, D ⊂ B.
Luego, B ∪ D = B.
Ahora, A - B = {0 , 2 , 4 , 6 , 8} y por último C ´ A = C ´ A = {0 , 1, 3, 5, 7 , 9}
1.1.7 ALGUNAS DEFINICIONES O LEYES DE INTERÉS
1.1.7.1
Sean
A,
B,
C,
tres
conjuntos
cualesquiera,
tal
que
si
A ⊂ B y B ⊂ C ⇒ A ⊂ C.
1.1.7.2
A ∪ B = B ∪ A: Ley conmutativa de la unión.
1.1.7.3
A ∪ (B ∪ C ) = ( A ∪ B ) ∪ C = A ∪ B ∪ C: Ley asociativa de la
unión
1.1.7.4
A ∩ B: Ley conmutativa de la intersección = B ∩ A
1.1.7.5
A ∩ (B ∩ C ) = ( A ∩ B ) ∩ C = A ∩ B ∩ C: Ley asociativa de la
intersección.
1.1.7.6
A ∩ (B ∪ C ) = ( A ∩ B ) ∪ ( A ∩ C )
1.1.7.7
A ∪ (B ∩ C ) = ( A ∪ B ) ∩ ( A ∪ C )
1.1.7.8
A - B = A ∩ B´
1.1.7.9
Si A ⊂ B ⇒ A´ ⊃ B´ o B´ ⊂ A´
1.1.7.10
A ∪ φ = A y A ∩φ = φ
1.1.7.11
A ∪ U = U y A ∩ U = A
1.1.7.12
(A
∪ B ) = A´ ∩ B´ : Se conoce como la primera Ley de Morgan
1.1.7.13
(A
∩ B ) = A´ ∪ B´ : Segunda Ley de Morgan
´
´
(
)
1.1.7.14 Para cualquier par de conjuntos A y B ⇒ A = ( A ∩ B ) ∪ A ∩ B´ .
1.2 CÁLCULO DE PROBABILIDADES
El cálculo de probabilidades es la teoría matemática que sirve de modelo, para la
descripción y análisis de los fenómenos estadísticos o aleatorios.
Por fenómenos o experimentos aleatorios, entendemos que son aquellos cuyos
resultados están establecidos pero no se pueden predecir con exactitud A priori1, o
sea que en situaciones idénticas pueden presentar resultados diferentes; además
los fenómenos pueden ocurrir repetidamente en forma indefinida.
1.2.1 CARACTERÍSTICAS DE LOS FENÓMENOS ALEATORIOS
1.2.1.1
Multiplicidad de la ocurrencia
1.2.1.2
Variabilidad, ya que pueden presentar resultados distintos en cada
experimento.
1.2.1.3
Aleatoriedad, porque no pueden predecir
1.2.1.4
Ley del Azar, si una cierta experiencia se repite n veces y anotamos el
número n(A) de veces que ocurre una característica determinada, se
1
Palabra del latín que significa “que viene antes”, o sea, antes de la prueba.
observa la frecuencia
n(A)
, tiende a estabilizarse, esto es, se aproxima
n
a un valor fijo. Haremos énfasis en la última característica o propiedad
de los fenómenos aleatorios, conocida también como “Estabilidad de las
frecuencias” o “Principio de la regularidad estadística”.
Todo fenómeno exige la evidencia de alguna regularidad, el cálculo de
probabilidades se basa en la regularidad estadística que caracteriza a los
fenómenos aleatorios.
Los fenómenos aleatorios se caracterizan por la imposibilidad de predecir
resultados individuales, sin embargo, si consideramos un número de pruebas
repetidas o simultáneas, la situación cambia, y a pesar de la irregularidad de los
resultados individuales o aislados, los resultados promedios o globales muestran
una sorprendente regularidad.
Para explicar este principio de la regularidad, tomemos un ejemplo clásico citado
por numerosos autores de temas estadísticos: “Supongamos el lanzamiento de
una moneda perfecta, donde representamos por n el número de lanzamientos de
la moneda y sea, A: El resultado consistente en caer cara, entonces n(A) será la
frecuencia absoluta o número de veces de caer cara dentro del experimento, luego
la frecuencia relativa será h(a) =
n(A)
. La experiencia indica que para grandes
n
valores de n, esta frecuencia relativa tiende a estabilizarse alrededor de un valor
más o menos constante. Si observamos la figura No. 1, vemos claramente que la
frecuencia h(A) fluctúa ampliamente para pequeños valores de n, pero al aumentar
n, las oscilaciones se hacen cada vez menos intensas y para grandes valores de
n el gráfico parece indicar la tendencia de h(A) a alcanzar un valor límite o ideal,
muy próximo a 0.5. Ver figura No. 1.
Figura No. 1
1.2.2 CONCEPTOS BÁSICOS DE ANÁLISIS COMBINATORIO
Fundamentalmente el análisis combinatorio se ocupa tanto de los diversos modos
de ordenar los elementos de un conjunto, como del estudio de las agrupaciones
que se pueden formar con dichos elementos, así pues, por análisis combinatorio
podemos afirmar que es la parte de la matemática en que se estudian las
agrupaciones que pueden formarse con elementos dados, (objetos. Números, ...),
teniendo en cuenta el número de elementos que entran en cada grupo y el orden
en que están colocados, prescindiendo del valor numérico de los elementos, si lo
tuvieren.
En el análisis combinatorio podemos considerar: Las variaciones, permutaciones,
combinaciones y el principio fundamental de cuenta.
1.2.2.1
VARIACIONES2. Se denomina variación, de los elementos de un
conjunto, una disposición ordenada de los mismos. Si hay n elementos en el
conjunto, el número de variaciones dependerá del número de objetos m que se
deseen tomar y ordenar.
2
Algunos autores las llaman ordenaciones, otros las consideran como un caso especial de las
permutaciones.
Las variaciones de n elementos tomados en grupo de “m en m” se denotan por:
Vmn ó Vn:m ó nVm ó Vn m . Antes de definir el número de variaciones, aclaremos
la noción de factorial de un número, primero que todo dicho número debe definirse
como el elemento de los números enteros positivos sin incluir el cero, así pues, el
factorial de n y se escribe n! Se define como: n! = n(n-1) (n-2) ... x3x2x1 y decimos
que 0! = 1, por definición.
Luego el número de variaciones está dado por la expresión:
Vmn =
n!
(n-m)!
donde n representa el total de elementos del conjunto y m: el
número de elementos que desean ordenar.
1.2.2.2
EJERCICIO. Hay 15 candidatos para ocupar los cargos de presidente,
vicepresidente, secretario, tesorero, fiscal, de una asociación gremial.
De cuántas maneras diferentes se pueden ocupar estos cargos?
Tenemos que el primer cargo, o sea, el cargo del presidente puede ser ocupado
por cualquiera de los 15 candidatos, es decir, hay 15 maneras diferentes de
ocupar dicho cargo. Ahora, una vez ocupado el cargo de presidente, nos
quedan14 candidatos disponibles para ocupar el segundo cargo, digamos el de
vicepresidente, una vez ocupado dicho cargo, el siguiente se puede ocupar de 13
maneras y así sucesivamente; tal como lo indicamos a continuación:
Pr esidente Vicepresidente Secretario Tesorero Fiscal
x
x
x
x
,
15
14
13
12
11
luego, el número
total de maneras diferentes para integrarse dicha junta es: 15 x 14 x 13 x 12 x 11 =
360.360 . n = 15: número de candidatos, m = 5: Personas a ocupar los cargos.
V515 =
15!
15 x14 x13 x12 x11 10!
=
10!
( 15-5 )!
= 360.360
1.2.2.3
VARIACIONES CON REPETICIÓN
Si suponemos que cada uno de los m elementos, puede figurar cualquier número
de veces en una misma variación, obtenemos las variaciones con repetición, cuyo
número lo podemos calcular auxiliándonos con la fórmula:
V R mn =
n
m
Así en el caso del ejercicio 1.2.2.2, el presidente una vez nombrado, participa en la
elección de vicepresidente y a su vez éste en la del presidente, tesorero,
secretario y fiscal a así sucesivamente; es decir:
P
Vp
x
15
15
S
T
F
x
x
15
15
15
x
V R515 = ( 15 )5 = 759.375
1.2.2.4
PERMUTACIONES.
Las variaciones, de orden m de n elementos
cuando m es igual a
n, decimos entonces que son permutaciones. El
número de permutaciones diferentes está dado por la expresión:
P
n
m
= n! .
Ahora, en el caso que entre los n elementos, existan h iguales entre sí; ( h < n), el
número de permutaciones está dado por la expresión:
P
h
n
=
n!
h!
Pero puede presentarse el caso en que dentro de los n haya más de una clase de
elementos iguales entre sí, es decir, existan h1, iguales entre sí, h2 iguales entre sí,
…………., h t
por la expresión:
iguales entre sí; entonces el número de permutaciones está dado
P
h1 ,h2 ,.........ht
n
=
n!
, donde : h1 + h2 + ... + ht = n
h1 ! h2 ! ... ht !
Cuando los elementos no se suponen ubicados en una línea recta, sino en un
circulo, se dice que la permutación es circular, esto es, no hay primero ni último
elemento; lo que implica tener que “fijarse” uno, como punto de referencia. El
número de permutaciones circulares está dado por: c P n = PCn = (n – 1)!.
A manera de ejemplos ilustremos un poco los conceptos de permutaciones ya
dados:
-
El número de permutaciones diferentes que se pueden formar con la
palabra SACO es: P4 = 4! ; en dicha palabra no se encuentran letras
iguales.
-
Veamos ahora con la palabra CHALECO, en este caso hay dos elementos
iguales entre sí, luego el número de permutaciones está dado por:
P
-
2
7
=
7!
2!
= 2.520 .
Dadas las siguientes letras: T, S, S, V, V, T, T, S; cuántas permutaciones
diferentes podemos hallar?
Observamos que para n = 8 elementos hay h1 = “número de tes” = 3; h2 =
número de eses = 3 y h3 = número de uves = 2; entonces el número de
permutaciones estará dado por:
-
3 ,3 ,2
P8
=
8!
3! 3! 2!
= 560
Si tenemos 5 estudiantes sentados alrededor de una mesa redonda, de
cuántas maneras de pueden permutar?
En este caso de distribución circular de los elementos, debemos primero que todo,
fijar un elemento de referencia; así, llamemos los estudiantes con las letras A, B,
C, D, E; si fijamos el estudiante C, solamente quedan para intercambiarse los
estudiantes A, B, D, E; si fijamos el estudiante A, pueden intercambiarse B, C, D,
E y así sucesivamente. Observamos pues que de los 5 estudiantes sólo quedan 4
para
permutarse.
P C5
= 4! = 24 .
1.2.2.5
Luego
el
número
de
permutaciones
está
dado
por:
COMBINACIONES
Las combinaciones de orden m de n objetos: a1, a2, ...... an; son los grupos de m
objetos que se pueden formar entre los n, de modo que dos cualesquiera difieran
en algún objeto.
A diferencia de las variaciones, en las combinaciones, no importa el orden de
sucesión de los elementos.
El número de combinaciones está dado por la fórmula:
n
Cm
=
( nm )
=
n!
m! (n - m)!
∴
1 ≤ m ≤ n
Un ejemplo ilustrativo para la anterior definición puede ser: Cuántas
ternas
diferentes podemos extraer de las letras A, E, I, O, U?
En este caso consideramos que la terna (A, E, I) = (E, A, I) = (E, I, A) = (I, E, A)
= (I, A, E) = (A, I, E), ya que no nos interesa el orden de colocación de los
elementos dentro de la terna, solo nos interesan todas aquellas ternas que difieran
al menos en un elemento.
Luego el número de ternas diferentes está dado por:
5
C3
=
5!
3! 2!
= 10
1.2.2.6
PRINCIPIO FUNDAMENTAL DE CUENTA
α , α , α , - - - - - α ; son n acciones distintas que se pueden realizar de
Si
1
2
n
3
γ , γ , - - - γ maneras respectivamente, entonces el número total de maneras
1
n
2
como se pueden efectuar α , α , α , - - - - - α
1
γ
1
×
γ
2
×
γ
3
×
2
3
n
en sucesión, viene dado por:
- - - γ : Maneras.
n
Ahora, si el número de maneras como se pueden efectuar cada una de las
α i Acciones, (i = 1, ......, n), es idéntico, es decir; γ1
=
entonces
estará
γ
×
γ
×
el
γ
×
número
total
de
maneras
γ
2
=
γ
3
=
---
dado
=
γ ;
n
por:
- - - × γ = γn
_____ n veces ____
En general, en todo experimento, si hay n pruebas, cada una de las cuales pueden
dar γ resultados independientes, el total de resultados diferentes será γ h . Así por
ejemplo: Al lanzar un dado una vez, el número de resultados posibles es 6, o sea,
γ 1 = 61 = 6 .
Si lanzamos el dado dos veces, n = 2 ⇒ hay γ 2 = 6 2 = 36 resultados
posibles; si se lanza el dado tres veces, n = 3 ⇒ γ 3 = 6 3
resultados
posibles.
1.2.3 CONCEPTO DE PROBABILIDAD
Podemos decir entonces, basados en la experiencia que podemos asociar la
frecuencia h(A) con un número p(A), para cada suceso A dentro del experimento,
de tal manera que p(A) = h(A) cuando n → ∞ ; diremos entonces que p(A), es la
probabilidad del suceso A. La probabilidad de un suceso suele llamarse también
frecuencia teórica o verdadera.
El objeto de la teoría de probabilidades es proporcionar un modelo matemático
adecuado a la descripción e interpretación de los experimentos aleatorios.
Veamos ahora, las definiciones de algunos de los elementos sobre los cuales se
asienta la teoría de probabilidades.
1.2.3.1
ESPACIO MUESTRAL
Es el conjunto o totalidad de resultados posibles dentro de un experimento
aleatorio; lo llamaremos S.
El espacio muestral
S
puede ser discreto y continuo. Es discreto cuando
contiene un número finito de puntos o un número infinito numerable3 de puntos.
Así por ejemplo, en el lanzamiento de un dado, una vez, el espacio muestral S es
= {1, 2, 3, 4, 5, 6}, que es un espacio con número finito de puntos. Ahora si el
experimento consiste en lanzar una moneda legal, hasta que aparezca el primer
sello, el espacio muestral es: S = {1, 2, 3, ...... }; Ya que el resultado deseado
puede ocurrir en la primera, segunda, tercera, . . . , tirada.
El espacio muestral S es continuo si contiene un número infinito no numerable de
puntos. Así por ejemplo, un experimento aleatorio consiste en observar la
resistencia a la tensión de ciertas vigas, bajo las mismas condiciones; el resultado
puede ser cualquier número positivo por consiguiente el espacio muestral es
continuo.
3
Se llama “numerable” el conjunto infinito cuyos elementos se pueden numerar, es decir, poner en
concordancia con cada elemento un número entero de modo que a distintos elementos les
correspondan números diferentes. Un conjunto infinito cuyos elementos no se pueden llevar a la
correspondencia biunívoca con los números enteros se llama “No numerable”.
1.2.3.2
SUCESO
Es el conjunto de resultados favorables o deseados en un experimento dado. Por
ejemplo, un experimento aleatorio, consiste en lanzar dos dados y una moneda.
Uno de los sucesos puede ser; A = suma de puntos menor que 4 para los dados y
sello para la moneda, luego, A = {(1, 1, s); (1, 2, s); (2, 1, s)} como puede verse, el
suceso A no es más que un subconjunto del espacio muestral S.
Muchos autores suelen llamar los sucesos aleatorios como eventos. Cuando los
elementos de un suceso coinciden con los elementos del espacio muestral
decimos que es “suceso seguro”; cuando los sucesos están formados por un solo
punto del espacio muestral se denominan “sucesos elementales”; y cuando el
conjunto de posibles resultados es el vacío decimos que el suceso de llama
“suceso imposible”.
1.2.4 TEORÍA AXIOMÁTICA DE LA PROBABILIDAD
Partiendo de las características observadas en simples experiencias, podemos
construir un modelo abstracto que nos traduzca y generalice, para aplicarlas en
situaciones más complicadas. Es decir, establecemos en forma axiomática el
cálculo de probabilidades.
Llamaremos P (A) a la probabilidad del suceso A en el experimento aleatorio,
dentro del espacio muestral S. P(A) es una función de conjunto que satisface los
tres axiomas siguientes:
1. P(A) ≥ 0
2. P(S) = 1
Para cualqeuier suceso A ∈ S
3. P(A,UA2UA3U .........) = P(A1 ) + P(A2 ) + ....., si A1 , A2 , A3 ..........
es
una
sucesión de sucesos mutuamente excluyentes o incompatibles, es decir, si
Ai ∩ A j = φ
para i ≠ j .
1.2.5 TEOREMAS
FUNDAMENTALES
DEDUCIBLES
DE
LA
TEORÍA
AXIOMÁTICA DE LA PROBABILIDAD
1.2.5.1 Si P(A) es la probabilidad de un suceso A, la probabilidad del suceso
contrario
a
A es igual a UNO menos la probabilidad de A, es decir,
P(A´ ) = 1 - P(A)
Demostración:
Si
A ∪ A´ = S y A ∩ A' = φ ,
o
sea,
⇒ P(A ∪ A' ) = P (S), por axioma tercero.
P (A ∪ A' ) = P(A) + P(A' )
P(S) = 1.
∴
y
por
son
mutuamente
excluyentes,
∴
segundo
axioma
tenemos
que
P(A ∪ A' ) = P(A) + P(A' ) = 1 .
Luego: P(A’) = 1 – P(A).
1.2.5.2
La probabilidad de un suceso lógicamente imposible es cero; o sea,
P(φ ) = 0 .
Demostración:
φ = S' ⇒ P(φ) = P(S') y por el teorema 1.2.5.1, sabemos que:
P(S') = 1 - P(S), pero P(S) = 1 ⇒ P(S') = P(φ) = 1 - 1 = 0
Luego: P (φ ) = 0.
1.2.5.3 0 ≤ P(A) ≤ 1 Cualquiera que sea el suceso A
Demostración:
P (A) ≥ 0 por axioma primero
Luego debemos probar que P(A) ≤ 1, por teorema 1.2.1, vemos que P(A) = 1 – P
(A’); pero P (A') ≥ 0 , por axioma primero ⇒ P(A) ≤ 1 luego 0 ≤ P(A) ≤ 1.
1.2.5.3
Si A1 ⊂ A2 ⇒ P(A1 ) ≤ P(A2 )
Demostración:
[
]
Si A1 ⊂ A2 ⇒ A1 ∪ A1' ∩ A2 = A2
Tal como se puede apreciar en el siguiente diagrama:
A1c ∩ A2
[
]
P [A ∪ (A ∩ A )] = P (A
∴ A1 ∩ A1' ∩ A2 = φ
1
'
1
2
2
) ⇒ P(A1 ) + P(A1' ∩ A2 ) = P(A2 ), como
P(A1 ) ≥ 0 y P(A1' ∩ A2 ) ≥ 0 ,
Luego podemos concluir que:
P(A1 ) ≤ P(A2 ).
1.2.5.4
Para
cualquier
par
de
sucesos
A1
P(A1 ∪ A2 ) = P(A1 ) + P(A2 ) - P(A1 ∩ A2 ) .
y
A2
se
tiene
que
Demostración:
Ayudémonos a través del siguiente gráfico:
Observando el diagrama, podemos ver claramente que:
(
) (
)
A1 ∪ A2 = (A1 ∩ A2' ) ∪ A1 ∩ A2 ∪ A2 ∩ A1' , por consiguiente :
(
P ( A1 ∪ A2 ) = P A1 ∩
A2'
)+ P (A
1
(
∩ A2 ) + P A2 ∩
A1'
1
)
Ahora; de modo similar vemos que: A1 = (A1 ∩ A2 ) ∪ (A1 ∩ A2' ) y que
(A1 ∩ A2 ) ∩ (A1 ∩ A2' ) = φ ⇒ P(A1 ) = P(A1 ∩ A2 ) + P(A1 ∩ A2' )
∴
P(A1 ∩
A2'
2
) = P(A1 ) - P(A1 ∩ A2 ),
Por otra parte; A2 = (A1 ∩ A2 ) ∪ (A2 ∩ A1' ) y (A1 ∩ A2 ) ∩ (A2 ∩ A1' ) = φ
⇒ P (A2 ) = P (A1 ∩ A2 ) + P (A2 ∩ A1' ) ⇒
P (A2 ∩ A1' ) = P (A2 ) - P(A1 A2 )
3
Ahora, remplazando: (2) y (3) en (1) se tienen que.
P(A1 ∪ A2 ) = P(A1 ) + P(A2 ) - P(A1 ∩ A2 ), SI A1 ∩ A2 = φ
⇒
P(A1 ∪ A2 ) = P(A1 ) + P(A2 )
1.2.6
TEORÍA CLÁSICA DE LA PROBABILIDAD4
En ciertos problemas, con espacio muestral discreto y número finito de puntos,
(los juegos de azar por ejemplo), es realista suponer que la probabilidad asignada
4
También se conoce como teoría A priori de la probabilidad o regla de Laplace
a cada punto del espacio muestral es
1
. Podemos entonces de esta manera
n
hallar la probabilidad P(A) para un subconjunto A del espacio muestral, con n(A)
puntos, cada uno con probabilidad
P(A) =
1
:
n
n(A)
1
1
1
+
+ ---- +
=
n
n
n
n
____n(A) veces ____
Se puede comprobar que para un espacio muestral discreto con n puntos, la
función P es función de probabilidad si cumple con los axiomas anotados
anteriormente:
Probabilidad para cada punto =
1
n
≥ 0
Probabilidad para un subconjunto A ∈ S
Es P (A) =
n(A)
≥ 0
n
∴ n es el total de puntos en S.
Así por ejemplo, sea el experimento lanzar un dado una vez.
El espacio muestral S = {1, 2, 3, 4, 5, 6} donde cada punto, (o resultado), de S
tiene igual oportunidad, es decir, P(1) = P(2) = P(3) = ...... = P(6) =
1
6
Ahora, definamos el suceso A = número obtenido menor que 3 ⇒
A =
{X / X
< 3} ⇒
A = {1, 2}
Luego, n(A) = número de veces favorables al suceso A = 2, n(A): frecuencia de A, y
n es el total de resultados posibles del experimento ⇒ n = 6.
P (A) =
n(A)
2
1
=
=
n
6
3
1.2.7
TEORÍA FRECUENCIAL O A POSTERIORI
Es aquella que consiste en encontrar el valor de probabilidad, después de
repetirse el experimento un número considerable de veces. Por ejemplo; la
probabilidad que tiene un jugador “A” de ganar cierto juego es P(A) = 3/5 y la
probabilidad de perderlo es P(A’) = 2/5; estas probabilidades son a posteriori,
puesto que se conocieron después de “observar” el juego de “A” repetidas veces.
Tanto la teoría clásica como la frecuencial presentan serias dificultades, la primera
en cuanto a la “Ambigüedad”, de que parte siempre de espacios muestrales finitos
y resultados equiprobables, pero cuando los resultados posibles generan un
espacio muestral discreto infinito, como por ejemplo al hallar la probabilidad de
que un número natural sea impar, dicha teoría nos deja en nada; mientras que, la
segunda teoría presenta el inconveniente en cuanto a “Repetirse el experimento
un número considerable de veces”; de ahí la importancia que toma la teoría
axiomática de la probabilidad, evitándonos los tropiezos o limitaciones de las
teorías clásica y frecuencial.
1.2.8
PROBABILIDAD MARGINAL
Supongamos que el espacio muestral S, discreto formado por un número n finito
de puntos, cada uno con igual probabilidad
1
.
n
Ahora, hagamos una partición del espacio muestral S en m1 subconjuntos
mutuamente excluyentes: A1, A2,A3,......, Am1
Hagamos otra partición de S en m2 subconjuntos mutuamente excluyentes, así.
B1, B2,B3,......, Bm2
Entonces los n puntos de S pueden clasificarse de la siguiente manera, utilizando
la tabla de doble entrada:
B1
B2
B3
...
Bj
...
Bm2
A1
n11
n12
n13
...
n1j
...
n1m2
A2
n21
n22
n23
...
n2j
...
n2m2
A3
n31
n32
n33
...
n3j
...
n3m2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Ai
ni1
ni2
ni3
...
nij
...
nim2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Am1
nm11
nm12
nm13
...
nm1j
...
nm1m2
La tabla indica, por ejemplo, que: el resultado n12 tiene a la vez el atributo A1 y el
atributo B2; n11: número de veces en que ocurren simultáneamente los atributos A1
y B1 respectivamente; y en general nij, es el número de veces en que ocurren
simultáneamente los atributos Ai y Bj. Luego la probabilidad de que sucedan Ai y Bj
simultáneamente será:
P (Ai , B j ) =
nij
n
Pero si nos interesa solamente obtener la probabilidad del suceso Ai, sin
interesarnos la clasificación B, tendremos:
ni1 + ni2 + ni3 + - - - + nim2
n
m2 n
m2
ij
P ( Ai ) = ∑
= ∑ P Ai B j
j =1 n
j =1
P ( Ai ) =
(
)
O bien, si nos interesa únicamente hallar la probabilidad del suceso Bj, estará
dada por:
( )
m1
P Bj = ∑
i =1
nij
n
=
m1
∑ P(Ai B j )
i =1
Donde P(Ai) y P(Bj) reciben el nombre de “probabilidad marginal” de A
y
B
respectivamente.
Aquí escogemos únicamente dos criterios de clasificación A y B; pero es obvio que
la idea de probabilidad marginal, se pueda generalizar a más de dos criterios de
clasificación.
1.2.9
PROBABILIDAD CONDICIONAL
Vamos a definir un tipo especial de probabilidades, que se denominan
probabilidades condicionales o relativas.
La probabilidad del suceso “A” condicionada por el suceso “B”, o probabilidad de
“A” habiendo ocurrido B, es por definición:
P( A B ) =
P( A ∩ B )
=
P (B )
Pr obabilidad que A y B ocurran simultáneamente
Pr obabilidad m arg inal de B
Aunque esta idea es completamente general; podemos describir esta probabilidad
condicional utilizando el caso particular de espacio muestral discreto con número
finito de puntos, e igual probabilidad para cada punto. Utilizando la partición del
espacio muestral y la tabla de doble entrada que formamos para escribir la
probabilidad marginal, tenemos.
Imaginémonos que se examina el resultado de un experimento aleatorio para un
atributo pero no para el otro. Deseamos hallar la probabilidad de que el otro
atributo tenga un valor determinado.
Supongamos que una vez realizado el experimento se observa que tiene el
atributo B3, deseamos hallar la probabilidad de que tenga además el atributo A2.
El total de resultados de B3 es: n13 + n23 + n22 + . . . + ni 3 =
m1
∑n
i=1
i3
y de estos los
resultados favorables a A2 son: n23, de esta manera, la probabilidad de A2 cuando
se sabe que ha ocurrido B3 es:
P ( A2 B3 ) =
n 23
m1
∑n
i =1
i3
Si dividimos el numerador y el denominador de la expresión por n, se tiene:
P ( A2 B3 )
n23
= m1 n
ni 3
∑
i =1 n
En general:
P (Ai B j ) =
⇒
P(Ai ∩ B j )
P(B j )
P( A2 B3 ) =
P( A2 B3 )
P(B3 )
; es decir,
La probabilidad de Ai dado Bj, es igual a la probabilidad de que ocurran Ai y Bj
simultáneamente sobre la probabilidad marginal de Bj.
También se tiene que:
P (B j Ai ) =
P (Ai ∩ B j )
P ( Ai )
Ahora, utilizando el criterio de probabilidad condicional, podemos definir el carácter
de dependencia e independencia de sucesos.
Si A y B son sucesos dependientes,
P(AB)
P(B)
P(AB)
P (B A) =
P(A)
P( A B ) =
∴
P(A,B) = P(B)
. P( A B )
∴
P(A,B) = P(A)
. P (B A)
La ocurrencia de A afecta la ocurrencia de B o viceversa, ya que A ∩ B ≠ φ.
Si A y B son sucesos independientes
P(A/B) = P(A) : El suceso A, no depende de la ocurrencia de B.
P(B/A) = P(B) : El suceso B, no depende de la ocurrencia de A.
Para sucesos independientes se tiene que: P(AB) = P(A) P(B).
1.2.10
TEOREMA DE BAYES
Consideremos el caso de n sucesos
A1, A2, . . . . . . , An; mutuamente excluyentes, de tal manera que:
A1 ∩ A2 ∩ A3 . . . . . ∩ Ai ∩ A j . . . . . ∩ An = φ
Y sea un conjunto H definido de tal manera que:
H = ( A1 ∩ H ) ∪ ( A2 ∩ H ) ∪ . . . ∪ ( An ∩ H )
∴
[( Ai ∩ H ) ∩ (A j ∩ H )] = φ con
i≠ j
P(H) = P ( A1 ∩ H ) + P( A2 ∩ H ) + . . . + P( An ∩ H )
Si deseamos encontrar, por ejemplo,
P(A1/H) se tiene:
P ( A1 H )
=
P (H )
P ( A1 H ) =
P ( A1 H )
P( A1 H ) + P ( A2 H ) + . . . + P ( An H )
Pero si no conocemos: P(A1H); P(A2H) ...... P(AnH) y conocemos P(H/A1); P(H/A2);
…… P(H/An) ⇒ podemos expresar de la siguiente manera:
P(A1H) = P(A1) P(H/A1)
P(A2H) = P(A2) P(H/A2)
.
.
.
.
.
.
.
.
.
P(AnH) = P(An) P(H/An)
Entonces:
P ( A1 H ) =
P(A1 ) P(H A1 )
P(A1 ) P(H A1 )
+ P(A2 ) P(H A2 ) + . . . + P(An ) P(H An )
Dicha expresión es la que conocemos como “Teorema de Bayes”.
1.2.11.1 PROBLEMAS
Un joyero posee tres cofres para guardar joyas: en uno guarda los artículos de
oro, en otro los de plata y en el tercero el cobre. Tiene 30 artículos de oro, los
cuales son 10 relojes y 20 anillos; 40 artículos de plata: 10 anillos y 30 relojes; y
10 artículos de cobre, así: 5 anillos y 5 relojes.
Si el joyero elige un cofre al azar y extrae un artículo, también al azar, que resulta
ser un anillo. Cuál es la probabilidad de que sea de oro?
Solución:
Sea: O: Representa artículos de oro
C: Representa artículos de cobre
P: Representa artículos de plata
A: Representa los anillo
R: Representa los relojes
Lo que el problema nos pregunta, es lo siguiente:
P(Sea de oro/ (dado que)Resultó anillo?)= P(O/A) = ?
Como el joyero escoge las urnas o cofres al azar y como son 3, cada uno tiene
igual oportunidad de ser seleccionado, es decir, P(O) = P(C) =P(P) = 1/3.
Además el problema nos proporciona la siguiente información, así:
P( A O ) =
P (R O )
P( A P )
20
2
5
1
=
; P( A C ) =
=
30
3
10
2
10
1
5
1
=
=
; P (R C ) =
=
30
3
10
2
10
1
30
3
=
=
; P (R P ) =
=
40
4
40
4
Entonces, por el teorema de Bayes:
P (O ) . P ( A O )
P (O ) P( A O ) + P (C ) P ( A C ) + P(P ) P( A P )
P(O A) =
P (O A) =
(1 3) . (2 3)
(1 3) (2 3) + (1 3) (1 2) + (1 3) (1 4)
P (O A) =
8
17
1.2.11.2 Una caja con 1.000 tornillos contiene:
50 con defecto de tipo A
32 con defecto del tipo B
18 con defecto del tipo C
7 con defecto del tipo A y del tipo B
5 con defecto del tipo A y del tipo C
4 con defecto del tipo B y del tipo C
2 con defecto del tipo A, del tipo B y del tipo C
Si extrae un tornillo al azar, calcular:
1. La probabilidad de que el tornillo tenga un defecto del tipo A o del tipo b o
de ambos.
Solución: Como se puede ver los sucesos son compatibles, es decir:
A∩ B ≠ φ ; A∩C ≠ φ ; A∩ B ∩C ≠ φ
Lo que se nos pregunta no es más que la probabilidad de la unión de los sucesos
A y B:
P ( A ∪ B ) = P(A) + P(B) - P( A ∩ B )
P( A ∪ B ) =
50
32
7
3
+
=
1000
1000 1000
40
2. Hallar la probabilidad de que, tenga al menos uno de los 3 tipos de
defectos. Solución: Que tenga al menos uno implica que se presente uno
solo o 2 o los 3 defectos; luego nos piden hallar:
P( A ∪ B ∪ C ) = P(A) + P(B) + P(C) - P(AB) - P(AC) - P(BC) + P(ABC)
P( A ∪ B ∪ C ) =
50
32
18
7
5
4
2
+
+
−
+
1000
1000
1000 1000 1000 1000 1000
43
P( A ∪ B ∪ C ) =
500
3. Hallar la probabilidad de que el tornillo esté libre de los tres defectos.
Solución: Sea D el suceso de tener al menos uno de los tres defectos; O sea
D = A ∪ B ∪ C; entonces D’, será el suceso no tener defectos de ningún tipo.
P(D') = 1 - P(D) = 1 - P( A ∪ B ∪ C ) ∴ P(D') = 1 -
43
457
=
500
500
1.2.11.3 Sean A y B dos sucesos tales que A ∩ B ≠ φ Probar que:
P[(A ∩ B' ) ∪ (B ∩ A' ) ] = P(A) + P(B) - 2P(A ∩ B)
PRUEBA: Ayudémonos a través del siguiente diagrama de Venn:
∴ ( A ∩ B' ) ∩ (A ∩ B) ∩ (B ∩ A' ) = ϕ
P[( A ∩ B' ) ∪ (B ∩ A' )] = P ( A ∩ B' ) + P (B ∩ A' )
â
y P[( A ∩ B' ) ∪ ( A ∩ B ) ∪ (B ∩ A' )] = P ( A ∩ B' ) + P ( A ∩ B ) + P(B ∩ A' )
Pero
( A ∩ B' )
∪ ( A ∩ B ) ∪ (B ∩ A' ) = ( A ∪ B )
ä
ã
Luego igualando ã y ä, tenemos:
P ( A ∪ B ) = P(A) + P(B) - P(A ∩ B) = P(AB') + P(AB) + P(BA')
P(AB') + P(BA') = P(A) + P(B) - P(AB) - P(AB)
P (( AB' ) ∪ (BA' )) = P(A) + P(B) - 2 P(AB)
1.2.11.4 En un naipe de 40 cartas se hace una extracción de 5 cartas y resultan
2 espadas. Cuál es la probabilidad de que una de ellas sea el as? Cuál
es la probabilidad de que una sea el as y la otra el rey?
SOLUCIÓN:
Sea A el suceso “extraer dos espadas en una muestra de 5 cartas”. Sea el suceso
B, “extraer el as de espadas en la muestra de 5 cartas”.
Luego, la probabilidad que nos piden es: P(B/A)
∴ P (B A) =
P(AB)
P(A)
El suceso (AB) es entonces, extraer 2 espadas y una de ellas es el as de espadas,
en la muestra de 5 cartas; luego:
P(AB) =
(11 ) (19 ) (303 ) .
(405 )
(11 ) : En las 10 cartas espadas, hay 1 as y ese es el que tomamos.
(19 ) : Una vez considerado el as de espadas, la segunda carta de espadas, la
podemos tomar de las 9 restantes.
(303 ) : Las otras 3 cartas que hacen parte de la muestra de 5, las tomamos
lógicamente de las 30 restantes, y
(405 ) : Es el número total, de posibles muestras de tamaño 5, que podemos
extraer de la población de 40 cartas.
Analizando en forma análoga, tenemos:
P(A) =
(102 )(303 )
(405 )
Luego:
P(B/A) =
(11 ) (19 ) (303 )
(102 ) (303 )
=
(19 )
(102 )
=
1
5
Para responder la segunda parte del ejercicio; definamos el suceso “A” de idéntica
forma como en el caso anterior y definamos que “B” sea el suceso “Extraer as de
espadas y rey de espadas en una muestra de 5 cartas”, tenemos:
El suceso (A ∩ B) : “Extraer dos espadas, una el rey y otra el AS” en una muestra
de 5 cartas. Pero vemos que (A ∩ B) = B.
Luego:
P(B/A) =
P(A ∩ B)
P(B)
=
P(A)
P(A)
P(B/A) =
(11 )(11 )(303 ) (405 )
(102 )(303 ) (405 )
P(B/A) =
1
10
2
( )
=
1
45
1.2.11.5 Se han adquirido 3.000 botellas de vino a $8 cada una; 2.000 a $9 cada
una y 1.000 a $10 cada una. Se extrae una botella al azar y se vende a
$9,50. Cuál es la probabilidad de ganar; $1,50? 0,50?; de perder $0,50?
SOLUCIÓN:
Para ganar $1,50 es necesario extraer una botella de $8. Sea “A” el suceso que
indique tal extracción.
Luego, P(A) =
n(A)
3.000
1
=
=
n
6.000
2
Para ganar $0,50 es necesario extraer una botella de $9; llamemos “B” a este
suceso, tenemos:
P(B) =
2.000
1
n(B)
=
=
6.000
3
n
Ahora, para perder $0,50, es necesario extraer una botella de $10; llamemos “C”,
este suceso; luego
P(C) =
n(C)
1.000
1
=
=
n
6.000
6
1.2.11.6 Se tienen 3 libros de matemáticas, 4 de física y 6 de química. Si se
colocan en un estante al azar: Cuál es la probabilidad de que los de
química queden todos juntos?
SOLUCIÓN
Sea “A” el suceso que representa “Libros de química siempre juntos”; luego.
P(A) =
n(A)
Casos favorables al suceso
=
n
Total de casos posibles
∴ n = 13! , ya que hay un total de 13 libros para permutar; y el número de
permutaciones favorables al suceso “A”, n(A) = 8! 6! = P8 x P6 puesto que se
consideran 3 diferentes libros de matemáticas, 4 de física y 1 (un)solo bloque de
química, o sea, 8 elementos, (3M + 4F + 1Q), que puede ocupar cualquier lugar;
además los 6 libros de química pueden cambiar de lugar entre ellos, sin dejar de
permanecer unidos; luego tenemos:
P(A) =
8! 6!
2
=
13!
429
Cuál es la probabilidad de que en cada extremo quede un libro de física y en el
centro un libro de química?
Sea “A” el suceso “un libro de física en cada extremo y un libro de química en el
centro”
P(A) =
n(A)
n
Uno de los extremos se puede ocupar de 4 maneras, el otro de 3 maneras y la
posición central de 6 maneras, quedan 10 libros para los 10 restantes puestos,
que se pueden llenar de 10! = P10 maneras.
Luego; n(A) = 4 x 3 x 6 x 10!
∴ P(A) =
y
n = 13!
4 x 3 x 6 x 10!
6
=
13!
143
1.2.11.7 Un empleado que trabaja en cierta factoría debe elegir dos caminos
para llegar a su casa, uno de ellos es a través de un túnel y el otro a
través de un puente. La ruta a elegir se hace al azar, siendo 1/3 la
probabilidad que tiene de elegir el túnel y 2/3 la de escoger el puente. Si
elige el túnel llega a su casa a las 6 p.m., el 75% de las veces, mientras
que si escoge el puente llega a las 6 p.m., el 70% de las veces.
Cierto día llega a casa a las 6 p.m. y al preguntarle su esposa qué camino eligió él
responde, que el puente. Cuál es la probabilidad de que haya respondido la
verdad?
Sea “A” el suceso de elegir el túnel
⇒ P(A) = 1/3
Sea “B” el suceso de elegir el puente ⇒ P(B) = 2/3
Sea “C” el suceso de llegar a la casa a las 6 p.m.
La probabilidad pedida es, entonces: P(B/C)
Además, el problema nos da la siguiente información:
P(C/A) = 0 ,75 ; P(C/B) = 0 ,70
P(B ∩ C)
P(B) P(C/B)
=
P(C)
P(B) P(C/B) + P(A) P(C/A)
(2 3) (0,70)
⇒ P(B/C) =
= 0 ,65
(2 3) (0,70) + (1 3) (0,75)
⇒ P(B/C) =
1.2.11.8 Se extraen naipes con reemplazamiento5 de una baraja de 40 cartas,
(Naipe español), hasta que aparezca el primer as. Cuál es la
probabilidad de que el número de extracciones hubiese sido 5?
SOLUCIÓN:
Para que la quinta extracción se obtenga el primer as, en las cuatro extracciones
anteriores, no debe aparecer ningún as; por consiguiente, la probabilidad es:
4
⎛ 36 ⎞ ⎛ 4 ⎞
P(o) = ⎜ ⎟ . ⎜ ⎟ = 0,066
⎝ 40 ⎠ ⎝ 40 ⎠
= P(No aparezca en la primera extracción) x P(No aparezca en la segunda)
x ...... x P(No aparezca en la cuarta) x P(Aparezca en la quinta extracción).
Si las extracciones fueran sin reemplazamiento, tendríamos:
P(o) =
5
36 35 34 33
4
x
x
x
x
= 0,073
40 39 38 37 36
Quiere decir que todo elemento que fue extraído una vez observado, regresa a su población de
origen, y vuelve a tener oportunidades de salir, en este caso de muestreo la población permanece
constante.
1.2.11.9 Una urna contiene 25 piezas, de las cuales 10 son defectuosas. Se
toman dos piezas al azar, de la urna. Cuál es la probabilidad de que
ambas piezas sean buenas? Qué ambas sean defectuosas? Que una
sea buena y la otra defectuosa?
SOLUCIÓN:
Empecemos por responder la primera pregunta así:
Sea “A1”, suceso “Pieza seleccionada es buena, en la primera extracción”. Sea “A2”
suceso “Pieza seleccionada es buena, en la segunda extracción”.
Luego, la probabilidad se reduce a:
P(A1 ∩ A2 ) = P(A1 ) P(A2 /A1 ) =
15 14 7
. =
25 24 20
También podemos responder esta pregunta, haciendo uso del análisis
combinatorio; así:
Sea H: El suceso extraer dos piezas buenas ⇒ P(H) =
n(H)
n
∴ n(H) = C 152 : De la población de piezas buenas tomamos las 2 y los casos
posibles o muestras posibles de tamaño 2 de toda la población está dado por:
n = C 25
2
15 )
(
15! 13! 2!
7
⇒ P(H) = 2 =
=
25
( 2 ) 25! 23! 2! 20
Ahora, entremos a resolver la segunda pregunta formulada en el problema; y
seguidamente la última:
Sea “G”: Las 2 piezas resultan ser defectuosas”
Sea “R” el suceso “Una resulta ser buena y la otra defectuosa”
Sea “H”, las dos piezas seleccionada son buenas”
∴ Podemos afirmar que: H ∪ G ∪ R = S
∴ H ∩G ∩ R = φ
Luego, P(H ∪ G ∪ R) = P(S)
1 = P(H) + P(S) + P(R)
Ya sabemos que P(H) = 7/20
Entonces hallemos P(G) y P(R)
n(G)
P(G) =
=
n
P(R) =
(102 ) =
(252 )
3
y
20
n(R)
; Aquí debemos considerar que la primera sea mala y la segunda
n
buena es la primera consideración;
y la segunda consideración, que la primera sea buena y la segunda sea mala;
así:
P(R) =
10 15 15 10 1
x
+
x
=
25 24 25 24 2
VERIFICACIÓN:
1 = P(H) + P(S) + P(R)
1 = 7 / 20 + 3 / 20 + 1/ 2
1 = 1, Verdadero!
1.2.11.10 Los dígitos 0, 1, 2, ---, 9 se acomodan en un orden aleatorio.
Encuentre la probabilidad de que los dígitos 3 y 4 sean vecinos.
SOLUCIÓN:
Ilustremos el problema de la siguiente forma:
34xxxxxxxx
Sea el suceso de A
x34xxxxxxx
“Los dígitos 3 y 4 sean vecinos”
xxxxxxxx34
Luego:
43xxxxxxxx
P(A) =
n(A)
n
x43xxxxxxx
.
.
∴ n(A) = V19 × 2! = 18
.
n = V 2 = 90
10
xxxxxxxx43
Luego, P(A) =
18
1
=
90
5
O también.
P( 3 y 4 sean vecinos) = P( 3 y 4 ) + P( 4 y3 ) = 9
1
1
1
1
2
1
x +9
x
=
=
10 9
10 9
10
5
1.2.11.11 Se lanza una moneda "Honesta" 15 veces y se registra su resultado l
cabo de cada tirada. Determínese la probabilidad de que ocurra "al meno na cara",
al final e los 15 lanzamientos.
SOLUCIÓN:
Sea "A" el suceso obtener al menos una cara \ sabemos que el número de
resultados posibles de un experimento aleatorio está dado por: Kn \ K es el número
del evento simple, en este caso, los resultados de lanzar una moneda una vez son
2: cara o sello y "n" representa el número de veces en que se repite el evento
simple n=15.
Ahora
Como cada ocurrencia de evento simple tiene la misma probabilidad de ocurrir y
sus resultados son independientes, es decir,
O sea:
Lo que significa que prácticamente tenemos la seguridad de observar por lo
menos una cara.
1.2.11.12 Una urna contiene "n" bolas azules y "m" bolas rojas. Si de la urna
tomamos una muestra aleatoria de "K" bolas ¿Cuál es la probabilidad de que al
sacar una bola sea Azul?
SOLUCIÓN:
n+m = Total de Bolas
K = Total de bolas en la extracción
la bola azul la mantenemos "fija" en en el lugar (k+1)
se obtienen VKn + m −1 casos favorables para cada bola azul, luego los casos
favorables para todas las bolas azules está dado por n × VKn + m −1 y los casos
posibles están dados por: VKn++1m
⇒ La probabilidad pedida = P (• ) =
n × VKn + m −1
n
=
.
n+m
VKn + m
1.2.11.13 Del ejercicio anterior [1.2.11.12], al extraer la muestra aleatoria de K
bolas; nos preguntamos:
1.2.11.13.1 ¿Cuál es la probabilidad de que sean "P" azules donde el muestreo se
hace "Con remplazamiento"? 6
SOLUCIÓN:
K − P veces
⎯⎯
⎯⎯⎯
⎯→
Donde la probabilidad de
RRR......R
P veces
⎯⎯
⎯⎯
⎯→
Un suceso de la forma
AAA........A
P
⎛ n ⎞ ⎛ n ⎞
ese suceso, está dada por: ⎜
⎟
⎟ ⎜
⎝n +m⎠ ⎝n +m⎠
K −P
, pero para la ocurrencia de
P
K⎛ n ⎞ ⎛ n ⎞
todos los posibles sucesos, esta dado por P (•) = ⎜
⎟
⎟ ⎜
P ⎝n +m⎠ ⎝n +m⎠
K −P
1.2.11.13.2 ¿Cuál es la probabilidad de que sean "P" azules donde el muestreo
se hace "Sin remplazamiento"? 7
SOLUCIÓN:
En este caso el valor de probabilidad varia de una extracción a otra; así:
Para una ocurrencia posible, ⇒ la probabilidad será:
6
7
Con remplazamiento" ; Se hace la extracción y regresa a la población.
"Sin remplazamiento" ; Se hace la extracción y no regresa a la población.
n
n −1
n − ( p − 1)
m
m −1
m − (K − p − 1)
=
⋅
⋅
⋅ ... ⋅
⋅ ... ⋅
⋅
n + m n + m −1
n + m − ( p − 1) n + m − p n + m − ( p + 1)
n + m − (K − 1)
(n + m − K )!
n!
m!
n+m−K
⋅
( n − p )! (m − (K − p ))! ( n − p )! (m − K + p )!
n−p
=
=
(n + m )!
(n + m )!
n+m
n ! m!
n
(n + m − K )!
Ahora teniendo en cuenta todas las ocurrencias posibles
⎛K ⎞
⇒ P (•) = ⎜⎜ ⎟⎟ ⋅
⎝P ⎠
n+m−K
n−p
n+m
n
1.2.11.14 ¿Cuál es el número mínimo de veces que es preciso lanzar dos dados
para que la probabilidad de sacar un seis doble sea mayor que la de no sacarlo?
SOLUCIÓN:
La probabilidad de obtener el resultado (6,6) = 1/6 * 1/6 = 1/36
La probabilidad de no obtener un (6,6)= 1- 1/36 = 35/36 ∴ si se lanza el dado "n"
veces, la probabilidad de que no salga un seis doble es : (35/36)n luego la
probabilidad de que salga al menos una vez será 1-(35/36)n , de donde,
n > log2 /(log36- log35)
1.2.11.15
Un mecanismo eléctrico que contiene, cuatro interruptores, solo
funciona cuando todos ellos estan cerrados. El funcionamiento de los interruptores
es independiente en cada uno de ellos, tanto en lo que se refiere al cierre o la
apertura, y para cada uno de ellos, la probabilidad de que no funcione es 0,1.
¿Cuál es la probabilidad de que no funcione el mecanismo en conjunto?
SOLUCIÓN:
Sea "
" el suceso que nos indica que el mecanismo "Falle"
Sea "
" el suceso que nos indica que el mecanismo "No Falle"
Sea
: Los sucesos que indican que el interruptor J esté cerrado . \ J= 1,2,3,4.
Sea
: Los sucesos complementarios, es decir que el interruptor J esté abierto.
∴ J= 1,2,3,4
y así calcularíamos para los interruptores J= 2,3,4
⇒ El mecanismo funciona si y solo si: S1 ∩ S2 ∩ S3 ∩ S4
Es decir que funcione el interruptor 1 "Y" el interruptor 2 "Y" el interruptor 3 "Y" el
interruptor 4; Luego
P(Mecanismo funcione) =
= P(S1 ∩ S2 ∩ S3 ∩ S4 )
Como los SJ son independientes
= P(S1) P(S2 ) P(S3) P(S4 ) = 0.9 * 0.9 * 0.9 * 0.9 = (0.9)4 = 0.6561
Entonces
P(F) = 1 - 0.6561 = 0.3439
⇒ También se puede resolver el problema definiendo a
El mecanismo no funciona siempre que uno de los interruptores este abierto.
:
2. VARIABLES ALEATORIAS
Tomemos un espacio muestral S, con función de probabilidad P(A) definida para
un suceso A; si “X” es una función de valores reales definida en S, (o sea que
cada punto del espacio muestral se le hace corresponder un punto del eje X), se
dice que X es una variable aleatoria unidimensional. En general, si cada punto de
S, se hace corresponder con un punto, (X1, X2, --- Xn) del espacio n-dimensional, se
tiene una variable aleatoria pluridimensional. Por ejemplo: Sea el experimento
aleatorio lanzar una moneda dos veces. El espacio muestral S = {(c,s); (s,c); (c,c);
(s,s)} consta de 4 puntos. Sea “X” la variable aleatoria que nos representa el
número de sellos. Dicha variable puede tomar los siguientes 4 valores,
correspondientes a los 4 puntos de S: 1, 1, 0, 2.
Estando la función de probabilidad completamente definida para el espacio
muestral S, como P(A) =
n(A)
; podemos escribir, por ejemplo:
n
P(x = 0 ) =
1
, para designar la probabilidad de que el número de sellos sea cero;
4
P(x = 1 ) =
1
: Probabilidad de obtener un sello y
2
P(x = 2 ) =
1
: Probabilidad de obtener dos sellos.
4
Veamos otra forma, de tratar el experimento anterior, así:
Sea “X” la variable aleatoria que representa el número de sellos y sea “Y” la
variable aleatoria que representa el número de caras.
La variable aleatoria bidimensional transformará los puntos de S en puntos del
plano X Y.
Luego a:
(c,c) corresponde x = 2, y = 0, o sea, (2,0)
(c,s) corresponde x = 1, y = 1, o sea, (1, 1)
(s,c) corresponde x = 1, y = 1, o sea, (1, 1)
(s,s) corresponde x = 0, y = 2, o sea, (0, 2)
Entonces, P[(2 , 0 )] =
1
1
; P[( 1, 1 )] =
y así sucesivamente
4
2
2.1 VARIABLE ALEATORIA DISCRETA
En general, es aquella variable aleatoria con un número finito o infinito numerable
de puntos. En el caso de que la variable sea unidimensional, con valores posibles
X1, X2, ......, Xn; y con probabilidades:
f(x1), f(x2), f(x3), ...... - f(xn) , para cada uno de dichos valores, el conjunto cuyos
elementos son los pares ordenados, ((x, f(x)), es llamado función de densidad, o
función de cuantía o función de probabilidad de la variable aleatoria X.
Para cualquier subconjunto “A” de los puntos X1, X2, ......, Xn; tenemos entonces
que:
P(A) =
∑ f(x)
X ∈A
∴ P(A) representa la suma de f(x) para aquellos valores de X que pertenecen
a A; luego P(A) es llamada FUNCIÓN DE DISTRIBUCIÓN para el suceso A.
-
Veamos el siguiente ejemplo:
Supongamos que un experimento aleatorio consiste en lanzar dos dados y
registrar el número posible de puntos. Cada resultado puede asociarse con el
valor de una variable aleatoria X; por lo tanto, “X” toma los valores: 2, 3, 4, 5, 6, 7,
8, 9, 10, 11, 12.
Calculemos ahora f(x), o sea, la probabilidad de que aparezcan “X” puntos.
Sabemos que el espacio muestral consta de 36 puntos, (1,1), (1,2), . . ., (1,6);
(2,1). (2,2) . . ., (2,6); (3,1), (3,2), . . ., (3,6); (4,1). (4,2) . . ., (4,6); (5,1), (5,2), . . .,
(5,6); (6,1). (6,2) . . ., (6,6).
El número de casos en que pueden caer X puntos es:
X–1 :
X = 2, 3, 4, 5, 6, 7
para
13 – X : para
X = 8, 9, 10, 11, 12
f(x) =
Luego
f(x) =
y
X-1
n(x)
=
∴ X = 2 , 3, 4 , 5 , 6 , 7
36
n
13 - X
para X = 8, 9 , 10 , 11, 12
36
f(x) = 0 para X ∉ ( 2, 3,. . . . ., 12 )
Puesto que:
7
X-1
X =2
36
∑
+
12
13 - X
X =8
36
∑
= 1
y f(x) ≥ 0
Para todo X, definido del experimento tratado.
Una vez conocida f(x) podemos hallar las diversas funciones de distribución
relativas a X. Denominemos
Fx (x) = P[x ≤ x ] como función de distribución
acumulativa de la variable aleatoria X, así:
Fx (x) = P[x ≤ x ] =
∑ f(x)
X ≤x
Por ejemplo:
P(x ≤ 4 ) = F( 4 ) = Pr obabilidad de obtener 4 puntos o menos
4
P(x ≤ 4 ) = FX ( 4 ) = ∑
x=2
x-1
1
=
36
6
P( 6 ≤ x ≤ 8 ) = Pr obabilidad de otener un puntaje comprendido entre 6 y 8 inclusive
P( 6 ≤ x ≤ 8 ) = P( 6 ≤ x ≤ 7 ) + P(x = 8 )
=
7
∑
x =6
x - 1 13 - X
+
, x = 8
36
36
Las condiciones que debe cumplir f(x) para ser función de densidad de una
variable aleatoria discreta unidimensional, son:
1. Si el dominio de la función es X1, X2, . . . Xn ⇒ f(x) ≥ 0
2.
∀x
∑ f(xi) = 1
Hallemos
también,
(Remitiéndonos
al
ejercicio
anterior),
la
probabilidad
condicional de que el número de puntos sea menor que 3, cuando se sabe que
dicho número es menor que 8.
Sea “A” el suceso “Número de puntos menor que 3”
Sea “B” el suceso “Número de puntos menor que 8”
Deseamos hallar:
P(A/B) =
P(A ∩ B)
P(B)
El suceso A = {X / x = 2}
El suceso B = {X / x = 2, 3, 4, 5, 6, 7}
(A ∩ B)
Luego el suceso
P(A ∩ B) =
Por otra parte,
= {X x = 2}
x-1
;x = 2
36
P(B) =
⇒ P(A ∩ B) =
21
x-1
=
36
x = 2 36
7
∑
1
36
Concluimos entonces que, P(A/B) = P(X < 3 / X < 8)
=
1
36
1
x
=
36 21
21
2.2 FUNCIONES DE DOS O MAS VARIABLES DISCRETAS
En general, las funciones de densidad de variable discreta pluridimensional, tiene
las mismas propiedades de las funciones similares de una variable. Podemos
decir entonces que una función f(x1, x2, ...... , xn) es una función de densidad de “n”
variables reales si y solo sí:
1. f ( x1 , x 2 , . . . . ., x n ) ≥ 0
2.
∑
∑
x
x
1
...
2
f ( x , x , . . . ., x n )
∑
x
1
2
= 1
n
Las funciones de densidad conjunta o de dos variables aleatorias discretas, se
representan entonces de esta misma manera.
-
Tomemos como ejemplo, el lanzamiento de dos dados.
Sea “X” la variable aleatoria de tipo discreto, que nos representa el número de
puntos del dado α y “Y” la variable aleatoria discreta que nos representa el
número de puntos del dado β
X = 1, 2, 3, 4, 5, 6
Y = 1, 2, 3, 4, 5, 6
∴ f(x, y) =
1
: Probabilidad de obtener “X” puntos en el dado α y “Y”
36
puntos en el dado β .
Probemos que f(x, y) si es función de probabilidad:
1.
f(x, y) =
1
36
⇒
f(x, y)
>
0
y
2.
6
6
y =1
y =1
1
∑ ∑ 36
= 1
Luego f(x, y) si es función de probabilidad.
Q Veamos ahora otro ejemplo:
Una urna contiene 6 bolas blancas, 5 bolas negras y 4 bolas azules. Si se extraen
4 bolas, hallar la función de densidad conjunta del número de bolas negras y
azules.
SOLUCIÓN:
Sea “X” la variable aleatoria que representa el número de bolas azules en la
muestra. Sea “Y” la variable aleatoria que representa el número de bolas negras
en la muestra.
El recorrido conjunto de las variables X e Y
y su función de Probabilidad
Conjunta está dado por :
0 ≤ X + Y ≤ 4
f(x, y) =
(4x ) (5y ) (4 - 6(x+ y) )
(154 )
De igual manera podemos hallar la función de distribución correspondiente a una
situación deseada, así por ejemplo,
Hallemos,
F( 2 , 1 ) = P(X ≤ 2, Y ≤ 1 )
∴ F( 2, 1 ) =
= f( 0, 0 ) + f( 0, 1 ) + f( 1, 0 ) + f( 1, 1 ) + f( 2, 0 ) + f( 2, 1 )
1
2
y =0
x =0
∑ ∑ f(x, y)
2.3 FUNCIÓN DE DENSIDAD MARGINAL PARA VARIABLES DISCRETAS
Al hablar de función de densidad conjunta podemos definir la función de densidad
marginal de X o de Y.
Llamemos entonces f1(x) la función de densidad marginal para X y f2(y) la función
de densidad marginal para Y.
En el caso del ejemplo de las bolas negras y azules, tenemos:
(4x ) (5y ) (4 - (x6 + y) )
(154 )
f(x, y) =
Para: X = 1, 2, ---- 4
Y = 1, 2, ---- 5
f(x, y) = 0
si X ∉ ( 1, 2 , ---, 4 )
Y ∉ ( 1, 2 , ---, 5 )
f1(x) =
4 -x
∑ f(x,y)
y =0
∴ f1 (x) =
= f(x, 0 ) + f(x, 1 ) + f(x, 2 ) + f(x, 3 ) + - - - - + f(x, 4-x)
(4x ) (5y ) (4 - 6(x+ y) )
∑
(154 )
4 -x
y =0
Observamos que la función de densidad marginal de X, la calculamos utilizando el
recorrido de la otra variable, con el fin de que la conjunta nos quede en términos
de una sola variable.
Ahora:
f 2 (y) =
4 -y
∑ f(x, y)
x =0
2.4 FUNCIÓN DE DENSIDAD CONDICIONAL
Si tenemos una función de densidad de variable discreta pluridimensional en
general, podemos hallar la función de densidad condicional que deseemos; para el
caso de función de densidad conjunta f(x, y), se tendrán dos funciones de
densidad condicional, así:
1. G(xy) = P(x/y) =
f(x, y)
f 2 (y)
2. H(xy) = P(y/x) =
f(x, y)
f 1 (x)
Si nos remitimos de nuevo al ejemplo de la distribución de las bolas negras y
azules; tenemos:
g(x,y)
=
(4x ) (5x ) ⎛⎜⎝ 4−(x6+ y) ⎞⎟⎠ (154 )
(5y ) ⎛⎜⎜⎝ ∑ ⎞⎟⎟⎠ (4x ) ⎛⎜⎝ 4−(x6+ y) ⎞⎟⎠ (154 )
4− y
x =0
g(x,y) =
(4x ) ⎛⎜⎝ 4−(x6+ y) ⎞⎟⎠ 15
( 4)
⎛
⎞ 4 ⎛
6
⎞⎟
⎜⎜ ∑ ⎟⎟ ( x ) ⎜
−
+
4
(x
y)
⎝
⎠
⎝
⎠
4− y
x =0
2.5 VARIABLE ALEATORIA CONTINUA
Es la que puede tomar cualquier valor dentro del intervalo que se considere; es
decir, es aquella que toma un número infinito de valores.
El concepto de función de densidad f(x), difiere en este caso al de variable
discreta, ya que, aquí no es lógico hallar la probabilidad en un punto sino en un
intervalo. Ya habíamos visto que P(X ≤ x) = Fx (x) para − ∞ < X < ∞ diremos
que Fx(x) es la función de distribución, (acumulativa), para la variable continua;
podemos desde luego hallar la probabilidad en cualquier intervalo; encontremos:
P ( a < X ≤ b)
Sea A el suceso :
{X / X
≤ a}
Sea B el suceso :
{X / X
≤ b}
Sea C el suceso :
{X / a < X
≤ b}
∴ Los sucesos A y C son mutuamente excluyentes, ya que A ∩ C = φ ; luego
P ( A ∪ C ) = P( A) + P(C ) ; Además
A ∪ C = B ⇒ P( B) = P( A) + P(C )
∴ P ( X ≤ b) = P ( X ≤ a ) + P ( a < X ≤ b )
∴ P ( a < X ≤ b ) = P ( X ≤ b) − P ( X ≤ a )
P (a < X ≤ b) = Fx (b) − Fx (a )
Ahora siendo F continua en X = b
Se puede probar que P(x=b)=0, esto implica que para variables continuas, se
tienen que:
P (a < X ≤ b) = P (a < X < b) = P (a ≤ X < b) = P (a ≤ X ≤ b) = Fx (b) − Fx (a )
Partiendo de la función de distribución podemos obtener la función de densidad,
así:
P ( x ≤ X ≤ x + ∆x) = Fx ( x + ∆x) − Fx ( x)
Dividiendo por ∆x :
P
( x ≤ X ≤ x + ∆x) Fx ( x + ∆x) − Fx ( x)
=
∆x
∆x
Pasando al límite cuando ∆x → 0
Lim
∆x → 0
P
( x ≤ X ≤ x + ∆x) d .
=
Fx ( x) = f x ( x)
∆x
dx
O sea, que la primera derivada de la función de distribución es la función de
densidad, (En el caso, claro está, de variables aleatorias continuas). O también
vale afirmar que:
x
Fx ( x) = P( x ≤ X ) =
∫ f (u)du
−∞
Para un intervalo a ≤ X ≤ b) se tiene que
b
P (a ≤ X ≤ b) = ∫ f ( x)dx
a
Las propiedades que debe cumplir fx(x)
Para que sea función de densidad de variable aleatoria, son:
1.
2.
Dominio de fx(x), tal que X es real
f x ( x) ≥ 0∀x ∈ (− ∞, ∞ )
∞
3.
∫f
x
( x)dx = 1
−∞
Veamos el siguiente ejemplo ilustrativo, a la situación que acabamos que ver:
La variable aleatoria X tiene como función de densidad:
f x ( x) = 2 x
Si 0 < X < 1
f x ( x) = 0
Si X ∉ (0,1)
Hallar:
1. P(X < 1 2 ) =
12
0
12
−∞
−∞
0
∫ f(x)dx = ∫ 0dx + ∫ 2xdx
P(X < 1 2 ) = 1 4 = Fx ( 1 2 )
1/2
3
∫ 2xdx = 16
2. P(1/4 < X < 1/2) =
1/4
x
3. Fx (x) = P(X ≤ x) =
∫ f(u)du
−∞
Fx (x) =
0
x
−∞
x
0
∫ 0du + ∫ f(u)du
Fx (x) = ∫ 2udu = X 2
0
x
]0 = X 2
Luego Fx (x) = X 2 ∴ x ∈ (0,1)
Fx (x) = 0
2.6 FUNCIÓN
∴ x ∉ (0,1)
DE
DENSIDAD
PARA
VARIABLE
CONTINUA
PLURIDIMENSIONAL
En el caso de variable continua pluridimensional, la función de densidad
f(x1 , x2 ,..., xn ) debe ser
1. f(x1 , x2 ,..., xn ) ≥ 0 ∀ X i ; i = 1,2,...., n
2. X 1 : Real; X 2 : Real;...; X n : Real
∞
3.
∞
∫ ∫
−∞ −∞
∞
....... ∫ f(x1 x2 ...x n )dx1 dx2 ...dx n = 1
−∞
2.7 ESPERANZA MATEMÁTICA
La esperanza matemática, valor esperado o media de la variable aleatoria X se
define como:
n
E(x) = ∑ xi f(xi ) para variable discreta con dominio, X1, X2 . . ., Xn y función de
i =1
densidad f(xi).
Para variable continua la esperanza matemática se define como:
∞
E ( x) =
∫ Xf
x
( x)dx ; siendo f(x) la función de densidad.
−∞
En estructura, E(x) es similar a al media aritmética común, X , obtenida de los
valores X1, X2, . . . ., Xn ; que observamos en una muestra, con frecuencias relativas
h1, h2, . . . , hn respectivamente , así : X =
n
∑ X i hi
i =1
∴
hi =
ni
; en donde si el
n
tamaño de la muestra n es muy grande ⇒ hi ≈ f(xi ) (según lo que se afirmó en
la teoría frecuencial de la probabilidad).
TEÓRICAMENTE E(x) significa el valor central de la distribución de probabilidad.
La esperanza matemática tiene las siguientes propiedades principales:
1. E(x) al igual que la media, es un número que depende de todos los valores
de la serie y de sus respectivas probabilidades, ya que todos ellos entran
en su cálculo.
2. Si X e Y son variables aleatorias, entonces :
E (X + Y) = E(X) + E(Y)
3. Si “A” es una constante y X una variable, ⇒ E(Ax) = A E(x)
4. Se X e Y son variables aleatorias independientes ⇒ E(X.Y) = E(X) E(Y)
5. Si X1, X2, ......., Xe son variables aleatorias
⇒ E ( X 1 + X 2 + ..... + X e ) = E ( X 1 ) + E ( X 2 ) + .... + E ( X e )
6. Si X1, X2, ......., Xt son variables aleatorias independientes
E ( X 1 + X 2 + ..... + X t ) = E ( X 1 ) E ( X 2 ) * .... * E ( X t )
7. La esperanza matemática es un valor que oscila en el intervalo (Mínimo Xi;
máximo Xi), en donde, tiende a situarse en el centro, para así considerarse
representativa de los valores de la serie de datos.
“ X”
8. Si
es
variable
aleatoria
y
“a”
una
constante,
⇒
E ( x + a) = E ( x) + a
9. X variable aleatoria y , “a” y “b” constantes, ⇒ E (ax + b) = aE ( x) + b
2.8 MOMENTOS CON RESPECTO AL ORIGEN
Los momentos con respecto al origen de una variable aleatoria X, son los valores
esperados de X γ .
Para variables aleatorias de tipo discreto.
X1, X2, ...., Xn se define el momento de orden γ con respecto al origen, como:
n
E ( X ) = ∑ ( xi) γ f ( xi)
γ
i =1
En variables continuas, es:
E( X γ ) =
∞
∫X
γ
f ( x)dx
−∞
2.9 Momentos de orden γ respecto a una constante
-
En variables discretas;
n
E((x − a) ) = ∑ (xi − a)γ . f(xi ) ∴ a, es una constante
γ
i =1
-
Para variables continuas, se tiene:
∞
γ
E (( x − a ) ) =
∫ ( x − a)
γ
f ( x)dx
−∞
2.10
Momentos de orden respecto a la media µ = E (x)
Llamaremos, pues, de ahora en adelante, la media de la distribución de la variable
o media poblacional con la letra griega
µ.
Luego el momento de orden γ respecto a µ , en variables discretas, es:
n
E((x − µ)γ ) = ∑ (xi − µ)γ .f(xi )
i =1
En variables continuas, es:
γ
E (( x − µ ) ) =
∞
∫ (x − µ)
γ
. f ( x)dx
−∞
El momento de orden uno o primer momento, con respecto a µ es igual a cero , o
sea : E [( x − µ )] = 0; ya que E ( x − µ ) = E ( x) − µ = µ − µ = 0 .
2.11
Varianza de una función de probabilidad
Si X es una variable aleatoria discreta, donde X = x1, x2, ...., xn con media E ( x) = µ ;
la Varianza de X, a la cual llamaremos Var(x), se define como el momento de
orden dos, con respecto a µ ; es decir,
2
Var(x) = σ x = E((x − µ)2 )
n
= ∑ (xi − µ)2 f(xi )
i =1
Ahora, en el caso de variable continua, se tiene que:
∞
VAR( x) =
∫ (x − µ)
2
f ( x)dx
−∞
Además, podemos probar que
Var ( x) = τ x
= E ( x) 2 − µ 2 para variables aleatorias discretas o continuas.
2
Veamos por ejemplo, si X es una variable aleatoria continua, con función de
densidad f(x):
∞
∫ (x − µ)
⇒ VAR ( x) =
2
. f ( x)dx
−∞
∞
2
∫ X f ( x)dx − 2
VAR ( x) =
−∞
∞
∫ Xµd ( x)dx +
−∞
∞
∫µ
2
f ( x)dx
−∞
∞
∫X
Pero
2
f ( x)dx = E ( x 2 )
−∞
∞
∞
−∞
−∞
∴ − 2 ∫ Xµ f ( x)dx = −2µ ∫ X f ( x)dx = −2 µE ( x) = −2µ .µ = −2 µ 2 :
Luego:
VAR ( x) = E ( x 2 ) − 2 µ 2 + µ 2
VAR ( x) = E ( x 2 ) − µ 2
2.12
FUNCIÓN GENERATRIZ DE MOMENTOS
Se llamará función generatriz de momentos (f.g.m.), a la expresión:
Mx(t) = E (etx), cuando este valor esperado existe para –b < t < b; donde b es
número real positivo.
Para el caso de variables discretas se tiene que:
M x (t ) = E (e tx ) = ∑ e tx . f ( x)
∴ f ( x) exista
Y para variables continuas, así:
∞
M x (t ) = E (e ) = ∫ e tx . f ( x).dx
tx
−∞
2.12.1 PROPIEDADES DE LA FUNCIÓN GENERATRIZ DE MOMENTOS
La importancia de la función generadora de momentos, radica en el hecho de que
ella es única y determina completamente la distribución de una variable aleatoria,
esto es, si dos variables aleatorias tienen una misma función Generatriz de
momentos, deben tener igual distribución.
La demostración de esta propiedad omitida en estos apuntes, se basa en la
unidad que existe entre la f.g.m. y la función de distribución.
La existencia de la función generatriz de momentos para –b<t<b, donde b es
número positivo, garantiza la existencia de las derivadas de cualquier orden en
t=0.
2.12.2
TEOREMA:
Sea X una variable aleatoria con función generatriz de
momentos Mx(t). Sea y=a . x+b, entonces My(t) = ebtMx (at)
Demostración:
( ) [
yt
t ( ax + b )
M y (t ) = E e = E e
] = E (e ) = E (e
t . ax + tb
tax
tb
)
tb
( )
tax
. e = e .E e
tb
M y (t ) = e .M x (ta )
2.12.2 TEOREMA. Sean X, Y, variables aleatorias independientes y Z=X+Y, con
funciones generatrices de momentos, Mx(t), My(t) y Mz(t) respectivamente,
entonces:
Mz(t) = Mx(t) My(t)
DEMOSTRACIÓN:
[ ]
)
= E (e
= E (e . e )
tz
M z (t ) = E e
t ( x+ y )
tx
ty
= M x (t ).M y (t )
El teorema anterior, se puede generalizar a n variables aleatorias independientes,
xi, con función generatriz de momentos:
n
M xi (t)
Z = ∑ X i , entonces
Si
i =1
n
M z (t) = ∏ M xi (t)
i =1
2.13
FUNCIÓN CARACTERÍSTICA
Esta función siempre existe y se encuentra definida en el campo de los números
complejos. Cumple las propiedades de la f.g.m. Sólo que se definen en un marco
mucho más amplio como el de los números complejos.
Se define como:
ϕ
( )
iθx
x
(θ ) = E e
En caso de variable aleatoria discreta, se tiene que:
ϕ
( )= ∑e
iθx
x
(θ ) = E e
iθx
∀x
. f x ( x)
Y en caso continuo, así:
ϕ
( )= ∫e
iθx
x
(θ ) = E e
2.14
∞
iθx
. f x ( x)dx
−∞
EJERCICIOS
2.14.1 Supóngase que un número se selecciona al azar entre los enteros del 1 al
20.
Sea X el número de sus divisores.
Construir la función de densidad de X.
Cuál es la probabilidad de que haya 4 o más divisores al extraer un entero al azar.
SOLUCIÓN:
Hagamos el siguiente análisis; para detectar el número de divisores del 1 al 20,
así:
Divisores
1
2
3
4
5
6
7
8
9
10 11 12 12 14 15 16 17 18 19 20
1
1
1
1
1
1
1
1
1
1
1
2
3
2
5
2
7
2
3
2
3
4
9
6
8
4
1
1
1
1
1
1
11 2
13 2
3
2
17 2
19 2
5
3
7
5
4
3
4
10
4
14 15 8
6
5
9
10
18
20
6
16
12
∴X :
1
1
1
Variable aleatoria que representa el número de divisores en los
números del 1 al 20.
X
1
2
3
4
5
6
f (x)
1/20
8/20
2/20
5/20
1/20
3/20
La probabilidad de que haya 4 o más divisores, es:
P ( x ≥ 4) = f x (4) + f x (5) + f x (6) =
5 +1+ 3 9
=
20
20
2.14.2 Se lanza un dado hasta que aparezca seis. Hallar la función de densidad
del número de tiradas.
SOLUCIÓN
Sea X la variable aleatoria que nos representa el número de tiradas.
Luego, puede ocurrir que aparezca, seis, en la primera tirada
P ( x = 1) = f x (1) =
1
6
Que aparezca al cabo de la segunda tirada, eso implica, que necesariamente en la
primera tirada ocurrieran los resultados: 1, 2, 3, 4 o 5 únicamente y en la segunda
aparecer el 6.
5 1
P ( x = 2) = f x (2) = .
6 6
1a
2a
3a
1a
2a
3a
2
5 5 1 ⎛5⎞ ⎛1⎞
5 5 1
P ( x = 3) = f x (3) = x x = ⎜ ⎟ .⎜ ⎟ ⇒ x x
6 6 6 ⎝6⎠ ⎝6⎠
6 6 6
4a
5 5 5 1 ⎛5⎞
P ( x = 4) = f x ( 4) = x x x = ⎜ ⎟
6 6 6 6 ⎝6⎠
.
.
.
.
.
.
3
1
5 5 5 1
.⎛⎜ ⎞⎟ ⇒ x x x
⎝6⎠
6 6 6 6
.
.
.
⎛5⎞
P(x = x) = f x ( x) = ⎜ ⎟
⎝6⎠
x −1
1
.⎛⎜ ⎞⎟
⎝6⎠
2.14.3 De un lote de 10 televisores hay 4 defectuosos; se extrae una muestra de 3
sin reemplazamiento. Hallar la función de densidad del número de
defectuosos en la muestra.
Sea X la variable aleatoria que representa el número de defectuosos en la
muestra.
P ( X = x) = f x ( x) =
Casos favorables
Casos posibles
Los casos favorables pueden ocurrir de:
( )
⎛⎜ 4 ⎞⎟ 6
⎝ x ⎠ 3− x
y los casos posibles son ⎛⎜ 10 ⎞⎟ o sea, el número total de muestras
⎝3 ⎠
posibles de tamaño 3.
4 )(
6
(
x . 3− x )
f ( x) =
(103 ) ∴ X : 0, 1, 2, 3.
x
para x ∉ {0 , 1, 2 , 3}
f x ( x) = 0
2.14.4 Dada la siguiente función de densidad:
X
0
1
2
3
4
5
6
7
f (x)
0
c
2c
2c
3c
c2
2c2
7c2+c
Encontrar C y hallar P ( x ≥ 5)
SOLUCIÓN:
Sabemos que para que fx(x) sea función de densidad es necesario que se cumpla
que:
7
∑f
x =0
x
( x) = 1
Partiendo de
f x ( x) ≥ 0
Y
∑f
x
(x) = 1; tenemos:
c + 2c + 2c + 3c + c2 + 7c2 + c = 1
10c2 + 9c –1 = 0
∴ c=
− 9 + 81 + 40
20
− 9 ± 11
c=
20
Pero como f x ( x) ≥ 0
=
− 9 + 121
20
⇒
c = 2 / 20
ó
c = −1
⇒ Que c = 1 / 10
Luego la tabla de probabilidades, queda:
X
0
1
2
3
4
5
6
7
f (x)
0
1/10
2/10
2/10
3/10
1/100
2/100
17/100
P ( x ≥ 5) = f x (5) + f x (6) + f x (7)
Ahora,
=
1 + 2 + 17 20 1
=
=
100
100 5
También se puede resolver esta pregunta, utilizando el complemento; ya que
sabemos que la probabilidad en todo el espacio o recorrido de la variable es 1,
tenemos:
P ( x ≥ 5) = 1 − P ( x < 5)
= 1 − P ( x ≤ 4)
= 1 − Fx (4)
4
= 1 − ∑ f ( x)
x =0
= 1 − { f x (0) + f x (1) + f x (2) + f x (3) + f x (4)}
⎧0 + 1 + 2 + 2 + 3⎫
= 1− ⎨
⎬
10
⎩
⎭
8
2 1
= 1−
=
=
10 10 5
2.14.5 Una variable X tiene su gráfico de distribución, (Área), en forma de triángulo
rectángulo de base 5, para X entre, 2 y 7. La pendiente de la hipotenusa es
positiva. Dibujar el gráfico y hallar P ( x ≤ 4) y P ( x > 5) .
Debemos encontrar la altura h del triángulo, partiendo de que el área, (Espacio
muestral), debe ser igual a la unidad, así:
Área :
bxh
=1
2
⇒
5 xh
2
=1 ∴ h =
2
5
Ahora para hallar P (x ≤ 4) ⇒ no es más que el valor del área del triángulo
pequeño; para ello es necesario averiguar h; por triángulos semejantes se tiene
que:
h 5
2/5 5
=
∴
=
h' 2
h'
2
4
4
5h ' = ⇒ h ' =
5
25
2 ∗ 4 / 25 4
Luego, P ( x ≤ 4) =
=
2
25
En este ejercicio, bien lo podemos trabajar, como veníamos haciendo o bien,
hallando la función, (ecuación), que actúa en dicho campo, (espacio).
Para ello utilizamos la ecuación de la línea recta que pasa por dos puntos, es
decir, la ecuación de la recta que pasa por los puntos:
( x1 , y1 )
Y − Y1 =
Y2 − Y1
( x − x1 )
x 2 − x1
2/5− 0
( x − 2)
7−2
2
4
Y=
x−
25
25
Y −0 =
y
( x2 , y 2 )
(2 , 0) y
( 7 , 2/ 5 )
Luego:
f x ( x) =
X ∈ [2, 7 ]
2
4
x−
25
25
f x ( x) = 0
si
X ∉ (2, 7)
7
4 ⎞
⎛ 2
P ( x > 5) = ∫ ⎜ x − ⎟dx
25
25 ⎠
5⎝
16
=
25
= 1 − P( x ≤ 5)
O también;
4 ⎞
⎛ 2
= 1 − ∫ ⎜ x − ⎟dx
25
25 ⎠
2⎝
16
=
25
5
2.14.6 Si fx(x) = 4K (x3-1) para 1 < x < 10 , es una función que determina el tiempo
de ocurrencia de un experimento. Hallar el valor de K, para el cual f(x) es función
de probabilidad. Para que f(x) sea función de densidad de variable aleatoria
continua, es necesario:
1. Dominio de X, sea real
2. f ( x ) ≥ 0
∀x
∞
3.
∫ f ( x)dx = 1
-∞
Según las 2 primera condiciones, implica que el valor de K debe ser positivo para
que f (x) ≥ 0
⇒
∞
1
10
−∞
−∞
1
∫ f(x)dx = ∫ 0dx + ∫ 4K(x
⇒
⎤
⎡ x4
= 4K ⎢ − X ⎥ = 1
⎦
⎣4
1
K=
9963
3
∞
− 1)dx + ∫ 0dx = 1
10
3. DISTRIBUCIONES PROBABILÍSTICAS
3.1
Principales distribuciones de probabilidad para variable discreta.
3.1.1 Distribución Binomial
Este modelo de probabilidad de refiere en general, a aquellos experimentos que
consisten en un número de pruebas independientes, en la cual se llamará “p” la
probabilidad de éxito de cada prueba y “q=1-p”, la probabilidad de fracaso.
Para que un experimento se pueda calificar como Binomial8 debe presentar las 4
propiedades siguientes:
1. Debe haber un número finito de pruebas.
2. Cada prueba debe tener como resultado un “éxito” o un “fracaso”.
3. Todas las pruebas deben tener idénticas probabilidades de “éxito”.
4. Debe haber independencia entre cada una de las pruebas.
Veamos ahora una serie de ejemplos en donde se cumple y en donde no se
cumple, cada una de las propiedades anteriores.
1. Se lanza una moneda 5 veces; n=5
Luego se cumple la primera propiedad.
-
Se lanza una moneda hasta que aparezca cara. No hay un número finito de
pruebas, luego aquí no se cumple la primera propiedad.
2. Al tirar una moneda aparecerá siempre cara o sello cada una con
probabilidad 1/2 ; una de ellas se puede considerar “Éxito” según el caso y
la otra “Fracaso”. Cumple la segunda propiedad.
8
Es decir, su experimentación se da a través del muestreo con reemplazamiento o en el muestreo
sin Reemplazamiento que provenga de Poblaciones muy grandes y tamaños de muestra
relativamente grandes.
-
Supongamos que en una jaula haya 3 ratones: Uno blanco, uno gris y otro
negro. Si se considera “Éxito” extraer ratón blanco y “Fracaso” extraer ratón
gris; qué se podrá decir entonces si la extracción fuera ratón negro?
Luego en este caso no se cumple la segunda propiedad.
3. Al extraer una carta con reemplazamiento 4 veces de una baraja ordinaria,
la probabilidad de extraer un as es:
4
1
=
40 10
y permanece constante.
Cumple la tercera propiedad.
Si la extracción se hace sin reemplazamiento, la probabilidad de éxito varía de
una prueba a otra; luego no se cumple la tercera propiedad.
4. Citando la situación anterior, se puede adaptar aquí, ya que al hacer
extracciones con reemplazamiento los sucesos son independientes y si se
hacen sin reemplazamiento serían dependientes.
Q Ahora, para analizar completamente la distribución Binomial y sus
características, empecemos por definir la distribución de Bernoulli:
Un ensayo de Bernoulli, es aquel experimento en el cual solo hay dos resultados
que nos interesan: El suceso A y el suceso A’.
Así por ejemplo,
-
Al lanzar 1 moneda ⇒ A: caer cara ⇒ A’ = caer sello
-
Al lanzar 1 dado ⇒ A: número obtenido es par ⇒ A’ : número obtenido es
impar.
-
Al elegir una persona al azar, en una ciudad C ⇒ A : la persona elegida
nació en C ⇒ A’ : la persona elegida no nació en C.
Luego tenemos que A ∩ A' = φ ... A ∪ A' = S
A un ensayo de Bernoulli, le hacemos corresponder una variable aleatoria
X, así:
⎧1 : Si se presenta el suceso A
X =⎨
⎩0 : Si se presenta el suceso A'
Entonces la P(x=1)= p: Probabilidad de éxito
P(x=0)= q:
y
Probabilidad de fracaso
Sea X la variable aleatoria que se distribuye como un ensayo de Bernoulli,
donde su función de densidad fx(x), está dada por :
f x ( x) = P ( X = x) = p x .q 1− x ; x = 0,1
para x ∉ {0, 1}
f x ( x) = 0
Podemos decir también que un Ensayo de Bernoulli se conoce con el
nombre de Binomial con parámetros (1, p) y podemos escribir b(1, p).
CARACTERÍSTICAS DE LA BINOMIAL (1, p ) ;
3.1.1.1
1. ESPERANZA. Sea x~ b(1, p) 10
1
⇒ E ( x) = ∑ X . f x ( x)
x =0
1
= ∑ X . p x .q 1− x
x =0
= 0+ p = p
⇒ E ( x) = µ = p
2. VARIANZA. Var ( x ) =
σ x = E( x 2 ) − (E (x ))
2
1
∴ E(x ) = ∑ X 2 .f(x)
2
x =0
= 0 2 .f x (0) + 12 .f x (1) = f x (1) = p
Luego :
∴
2
σx = p − p
2
σ x = pq
2
= p(1 − p)
3. FUNCIÓN GENERATRIZ DE MOMENTOS
Por definición es:
9
Notación abreviada
~ : Interpretémoslo como, “se distribuye”
10
2
b(1, p)9
1
M x (t ) = E (e ) = ∑ e . f x ( x)
tx
tx
x =0
t .0
t
= e . f x + e . f x (1)
t
M x (t ) = q + p e
4. FUNCIÓN CARACTERÍSTICA
ϕ X (θ ) = E (eiθx ) = ∑ eiθx . f x ( x)
1
x =0
(iθ ).0
=e
iθ
. f x (0) + e . f x (1)
ϕ X (θ ) = q + p eiθ
3.1.1.2
DISTRIBUCIÓN BINOMIAL (n, p) :
b(n, p)11
No es más que n ensayos de Bernoulli con una misma probabilidad de éxito
p.
Sean X1, X2, X3, ...... , Xn; Variables aleatorias independientes, todas
binomiales (1, p); es decir:
X 1 ~ b(1, p ) ⇒ f x1 (x1 ) = p x1 ⋅ q 1− x1
X 2 ~ b(1, p ) ⇒ f x2 (x2 ) = p x2 ⋅ q 1− x2
.....
......
X n ~ b(1, p ) ⇒ f xn (xn ) = p xn ⋅ q 1− xn
La variable aleatoria,
X = X1+ X2+ X3+...... + Xn, se dice que se distribuye Binomial (n, p) : b(n, p)
Por ejemplo, sean Xi, (i=1, 2, …, 5), binomiales (1, p)
11
Notación abreviada
X = X1+ X2+ X3+ X4+ X5, es una Binomial (5, p); donde X representa el número total
de éxitos, en 5 ensayos de Bernoulli.
-
Veamos otro ejemplo ilustrativo; sea el experimento aleatorio lanzar una
moneda 10 veces, entonces definimos:
Sea : X1 : número de caras en el primer lanzamiento.
X2 : número de caras en el segundo lanzamiento.
.
.
.
.
.
.
X10 : número de caras en el décimo lanzamiento.
Luego: X = X1+X2 + --- + X10
∴X
: Representa el número de caras que pueden ocurrir en los 10
lanzamientos.
Los posibles valores de X = {0, 1, 2, ......, 10}
Y p = 0.5 (Probabilidad de caer cara)
⇒
X ~ b (10, 0.5)
3.1.1.3
CARACTERÍSTICAS DE LA b(n, p)
1. ESPERANZA Sea X = X1+X2+ ...... + Xn
∴ Cada Xi ~ b(1,p) ⇒
E(X) = E(x1+x2+ --- +xn)
= E(x1)+ E(x2)+ --- +E(xn)
Luego :
= p+ p + ...+p
n veces
E ( X ) = n. p = µ : Media de la distribución b(n, p)
2. VARIANZA. Sea X ~ b(n, p) ∴
X = X1+X2+ ...... + Xn ∴ Cada Xi ~ b(1, p) ;
luego:
Var(X) = Var(X1+X2+ --- +Xn)
= Var(X1) + Var(X2)+ --- + Var(Xn)
= pq + pq + ... + pq
n veces
σx
2
Var(x) = npq =
3. FUNCIÓN GENERATRIZ DE MOMENTOS: M X (t)
∴ X = X1 + X 2 + − − − + X n
y cada Xi ~ b (1, p)
( )
]
= E [e
= E [e . e ... e ]
= E (e ).E (e )...E (e )
tx
⇒ M x (t ) = E e
t ( x1 + x2 +... xn )
tx1
tx2
tx1
txn
tx2
txn
= M x1 (t ).M x2 (t )...M xn (t )
(
) (q + p e )...(q + p e )
= (q + p e )
(t ) = (q + p e )
t
= q + pe
t
•
t
t n
Mx
t n
4. FUNCIÓN CARACTERÍSTICA: Sea X ~ b(n, p)
ϕ
( ) = (q + p e )
iθx
x
(θ ) = E e
iθ n
La hallamos en forma similar a Mx(t), o también basta con hacer t = i θ en Mx(t)
ϕ
para así obtener
x
(θ ) .
5. Hallemos, el valor de la función de probabilidad, (Modelo), de la distribución
Binomial (n, p). Encontremos fx(x) por medio de la función característica ,
así:
Sabemos que,
Además,
ϕ
x
ϕ
( )= ∑e
x
(
Resaltemos que,
(a + b )
n
x =0
f x ( x)
)
= ∑e
iθ
iθx
iθ n
(θ ) = q + p e
[(q + p e )]
Luego,
n
iθx
(θ ) = E e
n
iθx
f x ( x)
x =0
n
n
1
( )
= ∑ nx a n − x ⋅ b x , fórmula del binomio de Newton, que
x =0
asociaremos de la forma siguiente :
(q + p e )
iθ n
n
=∑
x =0
(q + p e )
= ∑ nx
∴
1
=
⇒
∑ ( nx )e
iθ n
n
x =0
n
x =0
( )
( )
n q n − x ⋅ p iθ
x
e
( )e
iθx
x
⋅ q n− x ⋅ p x
2
2
iθx
n
⋅ q n − x p x = ∑ e ⋅ f x ( x)
iθx
x =0
Luego para cada X ⇒
f x ( x) = ⎛⎜ n ⎞⎟ p x ⋅ q n − x
⎝x⎠
f x ( x) = 0
con X : 0,1,2,..., n
Para X en otra parte
Probemos que fx(x) es función de probabilidad: Es obvio que fx(x) ≥ 0.
∑ ( nx )p
n
Ahora resta, saber si
x
⋅ q n− x = 1
x =0
∴
∑ ( nx )p
n
x
⋅ q n − x = (q + p ) : Por binomio de newton
n
x =0
= (1) n = 1
3.1.1.4
PROBLEMA
Si la probabilidad de acertar en un blanco es 1/5 y se hacen 10 disparos en forma
independiente. Cuál es la probabilidad de acertar por lo menos 2 veces.
Encuéntrese también, la probabilidad de acertar en el blanco al menos 2 veces, si
suponemos que se acertó por lo menos 1 vez?
SOLUCIÓN
p=1/5 : Probabilidad de acertar en el blanco o probabilidad de éxito.
q=4/5 : Probabilidad de no acertar o sea probabilidad de fracaso.
n=10: El experimento es claramente Binomial.
∴ X ~b (10, 1/5)
X : Variable aleatoria que representa el número de veces de dar en el blanco,
X = 0, 1, 2, ---, 10
Sea A suceso: “Acertar por lo menos 2 veces” ⇒
A’ : “Acertar a lo sumo una vez”
⇒
P(A' ) = P(X = 0) + P(X = 1)
= f x (0) + f x (1)
( )( ) (45 ) + (101 )(51 ) (45 )
1
= 10
0 5
= 0.36
0
1
10
9
Luego la probabilidad pedida es:
P(A) = 1 – P(A’) = 1 - 0.36
P(A) = 0.64
Contestemos ahora la segunda pregunta, para ello definamos:
Sea
B : Suceso de acertar por lo menos 1 vez
B’ : Suceso de fallar exactamente 10 veces
∴ B = {X / X = 1, 2, 3, ..., 10}
B’ = {X / X = 0}
Sabemos pues que X ~ b(10, 1/5)
( )( ) (45 )
1
X ~ fx(x) = 10
x 5
Luego,
x
10 − x
; X : 0,1,2,...10
P(B) = P( x ≥ 1) = 1 − P( x < 1)
= 1 − P ( x = 0) = 1 − P ( B ' )
⎛4⎞
= 1 − f x ( 0) = 1 − ⎜ ⎟
⎝5⎠
P(B) = 1 – 0.10 = 0.90
P(B) = 0.90
10
Nos piden hallar, la probabilidad de acertar por lo menos 2 veces, (o sea P(A)),
dado que se acertó por lo menos 1 vez, (P(B)); es decir, P ( A / B ) =
P( A / B) =
P( A ∩ B)
⇒
P( B)
P ( A) 0.64
=
= 0.71
P ( B ) 0.90
3.1.2
DISTRIBUCIÓN HIPERGEOMÉTRICA
La distribución Hipergeométrica considera el caso en el cual una población finita
se divide en dos grupos, uno de los cuales se considera “éxitos” y el otro
“Fracasos”.
Por consiguiente si se toma sin reemplazamiento una muestra de “n” elementos y
se desea hallar la probabilidad de obtener “X” éxitos, tenemos:
N = Tamaño de la población
Np = Número de éxitos en la población
Nq = Número de fracasos en la población
∴
Np + Nq = N
X = Variable aleatoria que nos representa el número de éxitos en la muestra
n = Tamaño de la muestra
n – x = Número de fracasos en la muestra, utilizando las definiciones dadas,
podemos hallar la función de densidad para una variable aleatoria X que se
distribuya Hipergeométricamente, así:
fx(x) = P(X=x); donde el suceso, (X=x), (o sea, suceso de éxitos en la muestra), se
puede dar de:
⎛⎜ Np ⎞⎟⎛⎜ Nq ⎞⎟ ∴
⎝ x ⎠⎝ n-x ⎠
x ≤ Np
Ahora el número total de muestras posibles de tamaño n que podemos extraer de
( )
la población de N elementos es: nN
⎛⎜ Np ⎞⎟ ⋅ ⎛⎜ Nq ⎞⎟
x ⎠ ⎝ n− x ⎠
f x ( x) = ⎝
N
n
( )
Luego,
Para X = 0, 1, . . . , n
ó
X = 0, 1, ..., Np
3.1.2.1
sí
x ≤ n ≤ Np
Sí x ≤ Np ó n > Np
CARACTERÍSTICAS DE LA DISTRIBUCIÓN HIPERGEOMÉTRICA
1. ESPERANZA: E(X): Para deducirla podemos emplear el mismo criterio
que utilizamos en la distribución Binomial (n, p), en donde, consideremos la
variable hipergeométrica X como una suma de n variables: X= X1+X2+ ... +
Xn ;
Pero, aquí hay que tener presente que cada Xi es dependiente, pero, ya que, la
propiedad aditiva de la esperanza no nos exige el carácter de independencia o
dependencia, no tenemos problema aplicarla aquí.
Entonces,
E(X) = E(x1+x2+ ... + xn)
E(X) = E(x1) + E(x2) + ... + E(xn)
∴ Cada E ( Xi ) =
E ( x) =
Np
= P:
N
Np Np
Np
+
+ ... +
N
N
N
n veces
E( X ) = n ⋅
Np
= nP
N
Proporción de éxito en la población,
2. VARIANZA: Var(x)=
2
σx :
En este caso, ya no podemos deducir la Varianza
en forma similar a como lo hicimos en la Binomial (n, p), ya que ella no es
aditiva para variables dependientes, pero sin necesidad de entrar aquí en
exposiciones de rigurosidad matemática, simplemente, podemos afirmar
que la Varianza de esta distribución, es:
⎛ N −n⎞
⎛ Np ⎞⎛ Nq ⎞
Var ( x) = ⎜
⎟× n⋅⎜
⎟⎜
⎟
⎝ N −1 ⎠
⎝ N ⎠⎝ N ⎠
N −n
Var ( x) =
⋅n⋅ P ⋅Q
N −1
∴ Q : Proporción de fracasos en la población, y
N −n
; se denomina
N −1
factor de corrección, para el muestreo sin reemplazamiento.
En caso de que la población finita N sea muy grande, ( N → ∞) ,
Entonces
3.1.2.2
N −n
→1
N −1
PROBLEMA
Se quiere comprar un lote de 25 lámparas. Se eligen 5 de ellas al azar y se
examinan de modo que si menos de 2 fallan, el lote es aceptado, de lo contrario
será rechazado. Cuál es la probabilidad de que el lote sea rechazado si contiene
un total de 4 lámparas defectuosas?
SOLUCIÓN :
Sea X : Variable aleatoria que representa el número de lámparas defectuosas en
la muestra.
El experimento que se realiza aquí es sin reemplazamiento en una población finita,
en donde hay dos clases excluyentes de lámparas, unas defectuosas, (que
llamamos éxitos), y otras no defectuosas, ( que llamamos fracasos).
N = 25 : Total lámparas en la población
Entonces,
Nq = 21 : Total lámparas no defectuosas en la población
Np = 4 : Total lámparas defectuosas en la población
n = 5 : Tamaño de la muestra aleatoria sin reemplazamiento.
Ahora, X : Puede tomar los valores;
X = 0, 1, 2, 3, y 4
⇒ X ≤Np ∧ n > Np
∴ X ~ Hipergeométricamente; con:
4 )( 21 )
(
x 5− x
f ( x) =
∴ X :,1,2,3,4
x
C
25
5
La probabilidad de que el lote sea rechazado, es por lo tanto;
P ( X ≥ 2) = 1 – P(X<2)
= 1 − P ( X ≤ 1)
= 1 – Fx(1)
= 1 – {fx(0) + fx(1)} = 0.17
3.1.2.3
APROXIMACIÓN DE LA DISTRIBUCIÓN HIPERGEOMÉTRICA A LA
DISTRIBUCION BINOMIAL
De manera intuitiva se puede observar, que para N y Np grande y n relativamente
pequeño respecto a N, la distribución Hipergeométrica se aproxima a la Binomial
(n, p); porque en este caso, la muestra sin reemplazamiento tiene efecto
Np ⎞
⎛
despreciable sobre la proporción P de éxitos de la población, ⎜ P =
⎟ . Ilustremos
N ⎠
⎝
esta situación mediante el ejemplo siguiente:
Supongamos que una urna contiene 106 bolas rojas y 108 bolas blancas.
Seleccionemos al azar, una muestra de 5 bolas, la probabilidad de que haya 3
bolas rojas en la muestra, la da la fórmula:
10 )⋅ (10 )
(
5-3
f (3) = 3
(10 +310 )
6
:
x
6
8
X: 0, 1, 2, 3, 4, 5.
8
∴ X < Np
∴ X ≤ n < Np
Ahora, si la extracción se hace con reemplazamiento, se habrán repetido 5
10 6
pruebas independientes, con probabilidad constante P = 6
, de éxito, para
10 + 10 8
cada prueba.
En este caso, la probabilidad de extraer 3 bolas rojas, lo obtenemos de la fórmula
Binomial:
()
f x (3) = 53 p 3 (1 − p ) 2
()
= 53
Resolviendo
⎛ 10 6 ⎞
⎟
⎜⎜ 6
8 ⎟
⎝ 10 + 10 ⎠
y
3
⎛
10 6 ⎞
⎟
⎜⎜1 − 6
8 ⎟
⎝ 10 + 10 ⎠
2
podemos ver que
≈
3.1.3
DISTRIBUCIÓN DE POISSON
Esta distribución es aplicable a muchos procesos que indican demandas de
servicio, tales como, el número de máquinas en una gran planta, que se paran
durante cualquier día; el número de personas que atiende un cajero de banco en
media hora; el número de llamadas telefónicas recibidas en una central durante 15
minutos; el número de autos que son atendidos en una estación de gasolina
durante 10 minutos; el número de unidades de un artículo determinado vendido
durante un día.
También es aplicable el modelo de Poisson a fenómenos que no implican tiempo,
tales como, el número de errores tipográficos por página; el número de conexiones
soldadas defectuosamente en un ensamble eléctrico; el número de cuerpos
extraños, (como piedritas o burbujitas), incrustados en una botellas de vidrio, etc.
Dados los ejemplos de aplicación anteriores, los resultados posibles son 0, 1, 2,
3,. . . .
y así sucesivamente; es así, que no puede haber ninguna llamada
telefónica durante un período de 5 minutos o puede haber una, y así
sucesivamente, lo que implica, que la variable de Poisson puede tomar valores
desde cero hasta infinito.
Para el análisis de esta distribución utilizaremos el siguiente ejemplo:
Supongamos que una compañía de teléfonos recibe en un tiempo T un número R
de llamadas.
Sea t una fracción observada del tiempo T. Cuál es la probabilidad de que se
produzcan X llamadas en t?
Supongamos que T es mucho más grande que t ; como también suponemos
que las llamadas están distribuidas con probabilidad uniforme en todo el tiempo,
luego se deduce que la probabilidad de que haya X
llamadas en t es:
(RX )⎛⎜⎝ Tt ⎞⎟⎠
x
t⎞
⎛
⎜1 − ⎟
⎝ T⎠
R−x
⇒
Y partiendo de aquí, obtenemos la distribución de Poisson, haciendo que R y T
sean lo más grandes, ( R → ∞
de llamadas
y
T → ∞), para que la densidad o probabilidad
R
permanezca constante.
T
Ahora escribamos el producto
X
R!
t⎞
⎛ R ⋅t ⎞ ⎛
⎟ ⎜1 − ⎟
X ⎜
( R − X )! X ! R ⎝ T ⎠ ⎝ T ⎠
, en la forma:
R− X
; (Multiplicamos y dividimos por RX, con el fin de
simplificar las expresiones factoriales).
X
∴
t⎞
⎛ R ⋅t ⎞ ⎛
R ( R − 1) ⋅ ( R − 2)( R − 3)...( R − ( x − 1)) ⋅ ( R − X )!⎜
⎟ ⎜1 − ⎟
⎝ T ⎠ ⎝ T⎠
X
( R − X )! X ! R
R− X
Vemos que entre R y (R-(x-1)), hay exactamente X productos, los cuales podemos
dividir respectivamente por cada uno de los X productos que hay en RX , luego:
X
R⎛
1 ⎞⎛
2 ⎞⎛
3 ⎞ ⎛ ( x − 1) ⎞⎛ R ⋅ t ⎞ ⎛
t⎞
⎜1 − ⎟⎜1 − ⎟⎜1 − ⎟ ⋅ ⋅ ⋅ ⎜1 −
⎟⎜
⎟ ⎜1 − ⎟
R ⎝ R ⎠⎝ R ⎠⎝ R ⎠ ⎝
R ⎠⎝ T ⎠ ⎝ T ⎠
X!
Si llamamos p =
t
R
y d= ;
T
T
entonces:
R− X
1 ⎞⎛
2 ⎞ ⎛ ( x − 1) ⎞
td ⎞
⎛
X ⎛
⎜1 − ⎟⎜1 − ⎟ ⋅ ⋅ ⋅ ⎜1 −
⎟(t ⋅ d ) ⋅ ⎜1 − ⎟
R ⎠
R⎠
⎝ R ⎠⎝ R ⎠ ⎝
⎝
X!
1 ⎞⎛
2 ⎞ ⎛ ( x − 1) ⎞
⎛
X
⎜1 − ⎟⎜1 − ⎟ ⋅ ⋅ ⋅ ⎜1 −
⎟(t ⋅ d )
R ⎠
Lim ⎝ R ⎠⎝ R ⎠ ⎝
R→∞
X!
R− X
⎛ td ⎞
⋅ ⎜1 − ⎟
R⎠
⎝
R− X
=
(t ⋅ d ) X e−td
X!
;
Podemos generalizar entonces, y decir, que una variable aleatoria
X
se
distribuye según Poisson, si la función de densidad está dada por:
f x ( x) =
µ X ⋅e
X!
−µ
;
x : 0,1,2....
µ = td , en el ejemplo, es cualquier número positivo y llamaremos en
Donde
general, N a la población, (que en nuestro ejemplo es R). Luego; µ = Np.
3.1.3.1
CARACTERÍSTICAS DE LA DISTRIBUCIÓN DE POISSON
1. ESPERANZA: E(x)
E ( x) =
∞
∑
X e ⋅µ
−µ
Y =0
X =1
e
−µ
⋅µ
X
( X − 1)!
Y = x-1, tenemos:
Haciendo
E ( x) = ∑
∞
=∑
X!
X =0
∞
X
e
−µ
⋅µ
Y +1
=∑
Y!
Y =0
∞
E ( x) = µ ⋅ e ⋅ ∑
−µ
∞
Y =0
µ
Y
Y!
e
−µ
Y
⋅µ ⋅µ
Y!
µ
∞
Y
∑ Y! ,
∴ La expresión
es la expansión en series de Maclaurín de
Y =0
luego;
E ( x) = µ ⋅ e ⋅ e = µ
−µ
µ
E ( x) = µ : Media de la distribución
2. VARIANZA: Var(x)=
2
σX
Var(x) = E(x2) – (E(x))2
x2 ⋅ e ⋅ µ
−µ
∞
Var ( x) = ∑
x
X!
x =0
∞
∴ E(x ) = ∑
2
x =0
∞
=∑
x =1
−µ
x2 ⋅ e ⋅ µ
−µ
x
X!
x⋅e ⋅µ
−µ
2
∞
=∑
x =0
x2 ⋅ e ⋅ µ
−µ
x
x( x − 1)!
x
( x − 1)!
Haciendo Y = x-1 ⇒ X=y+1 ; luego
∞
E(x 2 ) = ∑
Y =0
( y + 1)e− µ ⋅ µ
Y!
y +1
∞
=∑
Y =0
( y + 1)e− µ ⋅ µ ⋅ µ
y
Y!
e
µ
,
∞
=∑
Ye
y
µ µ
∞
∑
y =0
Ye
+∑
Y!
y =0
−µ
µ
y
Y!
y
e µ µ
−µ
∞
Y!
y =0
=µ
−µ
+µ
∞
∑
e µ
−µ
y
Y!
y =0
⎛ ∞ −µ ⋅ y
⎞
µ
⎜
⎟
e
⎜∴ ∑ Y ! = 1⎟
⎜ y =0
⎟
⎝
⎠
= µ E (Y ) + µ
Pero E (Y ) = µ
⇒ E ( X 2 ) = µ 2 + µ ; entonces:
Var ( x) = µ 2 + µ − µ 2 = µ
Var ( x) = µ
Nótese que en esta distribución la media y la varianza son iguales.
3. FUNCIÓN GENERATRIZ DE MOMENTOS MX(t)
( )
∞
∞
x
M X (t ) = E e = ∑ e ⋅ f x ( x) = ∑ e
tx
∴
M X (t ) = e
tx
x =0
x =0
−µ
∞
∑
x =0
⎛⎜
⎝µ
e ⎞⎟⎠
X!
t
x
tx
µ ⋅e
X!
−µ
⎧
−µ ⎪
⎪
= e ⋅ ⎨1 + µ
⎪
⎪⎩
−µ
= e ⋅e
M X (t ) = e
µ et
2
3
⎫
t⎞
⎞⎟
⎛⎜
⎟
e ⎠ ⎝µ e ⎠
⎪⎪
+
+ ...⎬
2!
3!
⎪
⎪⎭
⎛⎜
µ
t
+⎝
t
e
=e
µ ( et −1)
µ ( et −1)
Q Empleando la función generatriz de momentos, podemos hallar también la
media y la varianza, de la distribución de Poisson, así:
=
E ( x)
⇒
M ' X (t = 0)
∴
M ' X (t ) = µ
t
e
⋅e
µ ( et −1)
E ( x) = M ' X (t = 0) = µ
Ahora, Var ( x) = E ( X 2 ) − [E ( x)]
2
= M ' ' X (t = 0) − [M ' X (t = 0)]
2
t
t
⎧⎪
∴ M ' ' X (t ) = µ ⎨e µ ( e − 1) ⋅ e t + e µ ( e
⎪⎩
M ' ' X (t = 0) = µ {1 + µ } = µ + µ 2
− 1)
⎫
⋅ µ e t ⋅ e t ⎪⎬
Luego;
Var ( X ) = µ + µ 2 − µ 2 = µ
⎪⎭
⇒
3.1.3.2
APROXIMACIÓN DE LA DISTRIBUCIÓN DE POISSON A LA
DISTRIBUCION BINOMIAL(n,p)
Con el fin de comprobar de que la distribución de Poisson es una buena
aproximación a la binomial, cuando n (tamaño de la muestra), es muy grande y
p , (probabilidad de éxitos), muy pequeña; veamos el siguiente teorema, que dice
: “Si la probabilidad
p
de éxito en una sola prueba, tiende a cero, (pÆ0) ,
mientras que el número de pruebas n tiende a infinito, ( n → ∞) , de una forma tal
que la media µ = np permanezca constante, la
aproximará a la distribución de Poisson con media
distribución binomial se
µ
PRUEBA:
Escribamos la fórmula de la distribución binomial (n, p), de la forma siguiente:
f x ( x) =
n(n − 1)(n − 2)...(n − x + 1)(n − x)! x n − x
p ⋅q
x!(n − x)!
f x ( x) =
n(n − 1)(n − 2)...(n − x + 1) x
n− x
p ⋅ (1 − p )
x!
Multipliquemos el numerador y el denominador por nx
f x ( x) =
∴
n(n − 1)(n − 2)...(n − x + 1)
n− x
(np ) x ⋅ (1 − p )
x
n ⋅ x!
p=
µ
n
,
Luego :
_____ x productos _____
x
n(n − 1)(n − 2)...(n − x + 1) ⎛ µ ⎞ ⎛ µ ⎞
f x ( x) =
⎜ n ⎟ ⋅ ⎜1 − ⎟
nx nx nx ........nx!
n⎠
⎝ n⎠ ⎝
_____ X veces _____
n− x
1 ⎞⎛
1⎞ ⎛
x − 1⎞
⎛
⎜ 1 − ⎟⎜ 1 − ⎟...⎜ 1 −
⎟
n ⎠⎝
n⎠ ⎝
n ⎠
⎝
f x (x) =
(1 − p )x
µx
⋅ (1 − p )n
x!
Ahora, expresemos (1 – p)n en la forma:
(1 − p )
n
1
− ⎤
⎡
= ⎢(1 − p ) p ⎥
⎦
⎣
− np
1
− ⎤
⎡
= ⎢(1 − p ) p ⎥
⎦
⎣
−µ
Además, según la definición del número e, ⇒
Lim (1 + Z )1 Z =
e
z →0
Por lo tanto, haciendo Z = - p
[
Lim (1 − p )−1 p
p→0
]
−µ
=e
⇒
−µ
⎛ 1 ⎞⎛ 2 ⎞ ⎛ x − 1 ⎞
⎜1 − ⎟⎜1 − ⎟...⎜1 −
⎟
n ⎠
Lim ⎝ n ⎠⎝ n ⎠ ⎝
=1
n→∞
(1 − p )x
Además :
Porque p → 0 y n → ∞, cuando µ = np es constante, luego la expresión
queda:
x
fx
µ ⋅e
( x) =
X!
−µ
; X : 0,1,2,...
3.1.3.3
EJERCICIOS
1. Un cuadro de teléfonos atiende un promedio de 600 llamadas durante una
hora de aglomeración. El cuadro puede hacer un máximo de 20 conexiones
por minuto. Estímese la probabilidad de que el cuadro quede rebasado en
un minuto dado.
SOLUCIÓN
El cuadro atiende un promedio de llamadas por minuto, igual a:
llamadas / hora
60 minutos / hora
µ = 600
µ = 10
llamadas por minuto
Sea X la variable aleatoria que representa el número de llamadas; entonces, la
probabilidad de que el cuadro quede rebasado en un minuto dado es:
P ( X > 20) = 1 − P ( X ≤ 20)
20
= 1− ∑
X =0
e
−10
⋅ 10 X
X!
= 1 − 0.99841 (tablas )
= 0.00159; es decir, que prácticamente el número de llamadas por minuto,
no sobrepasan la capacidad máxima del cuadro telefónico.
2. Una compañía de seguros, halla que el 0.005% de la población, fallece
cada año en cierto tipo de accidente. Cuál es la probabilidad de que la
compañía tenga que pagar a más de 3 de sus 10.000 asegurados, contra
tales accidentes, en un año dado?
Sea
p : Probabilidad de fallecer una persona en un año ∴ p = 0.00005
Sea
X : Variable aleatoria que representa el número de personas que fallecen
en un año dado.
n = 10.000 número de asegurados o tamaño de la muestra.
Este problema posee la característica de ser Binomial
X ~ b(10.000, 0.00005)
)
(
x
10.000 − x
⇒ f x ( x) = 10.000
x (0.00005) (0.99995)
Cosa que por aquí resultaría muy laborioso, pero basta observar que p es muy
pequeño, ( p → 0), y n es muy grande, (n → ∞); luego podemos resolver el
problema aproximándolo a la distribución de Poisson;
∴
µ = n ⋅ p ⇒ µ = 10.000 ⋅ 0.00005
= 0 .5
X~Poisson con µ = 0.5
f x ( x) =
⇒
(0.5) X e−0.5
X!
Luego, se pregunta:
P ( X > 3) = 1 − P ( X ≤ 3) = 1 − Fx (3), µ = 0.5
µ = 0 .5
µ = 0.5
= 1-0.99825 = 0.00175
(Valor hallado en tablas)
Quiere decir, que el riesgo que tiene la compañía aseguradora es casi nulo, o
prácticamente ninguno.
3.2
PRINCIPALES DISTRIBUCIONES CONTINUAS
3.2.1 DISTRIBUCIÓN UNIFORME O RECTANGULAR
Esta distribución surge, por ejemplo, en el estudio del redondeo de errores cuando
las observaciones se registran con cierta precisión. Así por ejemplo, si las
observaciones sobre la temperatura diaria se registran redondeadas al grado más
próximo, podrá suponerse que la diferencia en grados entre la temperatura real y
la registrada es un número que oscila entre –0.5 y 0.5 y que el error se distribuye
uniformemente a lo largo de este intervalo.
-
Deduzcamos la función de densidad de esta distribución:
Sean a y b dos números reales, tales que a<b.
La variable aleatoria X se distribuye uniformemente en (a,b) si:
f x ( x) = K
Para todo X ∈ (a, b)
f x ( x) = 0
Para todo X ∉ (a, b)
Determinemos, ahora el valor de K ⇒ como f x ( x) = K ∀ X ∈ (a, b) ⇒
b
∫
b
f ( x)dx = 1 ⇒
a
∫ Kdx = 1
a
K (b − a ) = 1
K=
1
; luego, la función de densidad de la distribución
b−a
uniforme es:
f x ( x) =
1
para a < x < b
b−a
3.2.1.1
CARACTERÍSTICAS DE LA DISTRIBUCIÓN UNIFORME
1. FUNCIÓN GENERATRIZ DE MOMENTOS: Mx(t)
( )
∞
tx
M x (t ) = E e =
a
∫e
tx
⋅ f x ( x)dx
−∞
∞
b
⎛ 1 ⎞ tx
M x (t ) = ∫ 0dx + ∫ ⎜
⎟ ⋅ e dx + ∫ 0dx
−
b
a
⎝
⎠
a
b
−∞
b
M x (t ) =
1
1
tx
dx =
e
∫
b−a a
t (b − a )
[(e
bt
−e
at
)]
bt
at
−e
e
M x (t ) =
t (b − a )
2. ESPERANZA: E(X)
∞
a
∞
b
b
1
⎛ 1 ⎞
E ( X ) = ∫ X ⋅ f x ( x) ⋅ dx = ∫ 0dx + ∫ X ⎜
X ⋅ dx
⎟dx + ∫ 0 ⋅ dx =
b − a ∫a
⎝b−a⎠
−∞
−∞
a
b
E( X ) =
=
1
⋅X2
2(b − a )
]
b
a
=
b2 − a2
2(b − a )
(b − a ) ⋅ (b + a ) = a + b
2(b − a )
Luego E ( X ) =
2
a+b
2
3. VARIANZA: Var(x) =
2
σX
Var ( x) = E ( x 2 ) − [E ( X )]
2
∞
2
∫ X ⋅ f x ( x)dx =
∴ E( X 2 ) =
−∞
∴ E( X 2 ) =
1
X3
3(b − a )
]
b
a
=
a
∞
b
b
1 ⎞
1
2
2⎛
2
2
∫−∞ X ⋅ 0dx + ∫a X ⎜⎝ b − a ⎟⎠dx + ∫b X ⋅ 0 ⋅ dx = b − a ∫a X dx
b3 − a 3
3(b − a )
(
b − a )(b 2 + ab + a 2 ) b 2 + ab + a 2
=
=
3(b − a )
⇒ E( X 2 ) =
3
b 2 + ab + a 2
3
Luego,
b 2 + ab + a 2 (a + b )
−
Var ( x) =
3
4
2
4a 2 + 4ab + 4b 2 − 3a 2 − 6ab − 3b 2
Var ( x) =
12
a 2 − 2ab + b 2 (a − b )
=
Var ( x) =
12
12
2
2
(
a − b)
Var ( x) =
12
4. FUNCIÓN DE DISTRIBUCIÓN ACUMULATIVA FX(x) ∴ X~U(a, b)
⇒ Por definición FX(x) = P ( X ≤ x)
⎧0
⎪
∴ Fx ( x) = ⎨
⎪1
⎩
si
x<a
si
x<b
x
Fx (x) = P(X ≤ x) =
∫ f(u)du =
−∞
a
=
x
1
⋅ du
−
b
a
a
∫ 0 ⋅ du + ∫
−∞
=
Fx ( x) =
x−a
1
⋅ u ]ax =
b−a
b−a
x−a
Para a < x < b
b−a
Fx ( x) = 0
3.2.1.2
Para
X ∉ ( a, b)
EJEMPLO
Una empresa tiene una curva de costos dada por la función C=1.000+2x; siendo X
el número de artículos. En el mercado vende cada unidad a $5. La demanda de
artículos es uniforme entre 25.000 y 30.000 unidades. Cuál es el beneficio
esperado?
SOLUCIÓN:
X: Variable aleatoria que nos representa la demanda de los artículos
∴X
~ U (25.000; 30.000); 12
Sea B: El beneficio o utilidad, donde la función de utilidad la establecemos de la
forma, ventas totales, menos, costos totales, así:
B = 5X – (1.000 + 2.X)
∴ B = 3 X − 1.000
Luego, el beneficio esperado es:
E ( B ) = E (3 X − 1000) = 3E ( x) − 1000
⎛ 25.000 + 30.000 ⎞
E ( B ) = 3⎜
⎟ − 1000
2
⎝
⎠
E ( B ) = 81.500
3.2.2 DISTRIBUCIÓN NORMAL (0, 1 ) : n(0, 1)
Una variable aleatoria Z, se dice que tiene una distribución normal (0, 1), si su
función de densidad, está dada por:
f z ( x) =
12
1
2π
⋅e
1
− X2
2
−∞ < x < ∞
Léase, X “se distribuye uniforme” en el intervalo ...)
El siguiente tipo de integrales que mencionaremos, son fundamentales para el
desarrollo y pruebas de distribuciones continuas, como la normal, chi_cuadrado, T
de student, entre otras , ellas son:
∞
∫X
p −1
⋅e
− ax
γ ( p)
⋅ dx =
ap
0
∞
2 p −1
∫ X ⋅e
− ax 2
⋅ dx =
0
: Euleriana de primer orden
γ ( p)
: Euleriana de segundo orden
2a p
∴ γ ( p ) = ( p − 1)γ ( p − 1) = ( p − 1) ⋅ ( p − 2 )γ ( p − 2 ) p > 0
γ ( p ) = ( p − 1)
∀p ∈ Z +
y γ (1 2 ) = π (Por definición)
Probemos ahora sí, si f z ( x) =
∫
2.
−∞
=
∞
f ( x)dx = 1 ⇒ ∫
−∞
2
2π
∞
( −1 2 ) X 2
∫e
0
2π
( −1 2 ) X 2
e
, es función de densidad:
∀ X ∈ (− ∞, ∞ )
1. Obvio que f z ( x) > 0
∞
1
1
2π
⋅ dx =
( −1 2 ) X 2
e
2
2π
×
dx
γ (1 2)
⎛1⎞
2⎜ ⎟
⎝2⎠
1
2
=
π⋅ 2
=1
2π
∴ 2 p − 1 = 0 ⇒ p = 1 2 y, a = 1 2
Luego, fz(x) si es función de densidad.
3.2.2.1
CARACTERÍSTICAS DE LA NORMAL (0, 1) : n(0 , 1 )
1. FUNCIÓN GENERATRIZ DE MOMENTOS: Mz(t)
Operemos el exponente, de la siguiente forma:
La integral es una Euleriana de Segundo Orden
es la f.g.m.13 de
z ~ n(0,1)
Empleando la técnica de la función de distribución acumulativa Fx(x) hallemos la
función de densidad Fx(x) para C ~ h ( m , s2) 14
x − µ⎤
⎡
Fx x = P[ X ≤ x ] = P[zσ + µ ≤ x ] = P ⎢ z + ≤
σ ⎥⎦
⎣
x− µ
1
1 −2 z
⎛ x− µ⎞
∴ Fz ⎜
e
dz
⎟ = Fx ( z ) = ∫− ∞σ
2π
⎝ σ ⎠
x−µ
∴z =
σ
∴ f z′ ( z ) = Función de Densidad ⇒
2
Por teorema del cálculo integral sabemos que:
13
f.g.m.: léase como función generatriz de momentos
⎡ x− µ 1 − 1 z 2 ⎤
e 2 dz ⎥
⎢∫ σ
−∞
2π
⎥ = f ( z ) ⋅ µ ′( x ), luego
d⎢
⎥
⎢
dX
⎢
⎥
⎢⎣
⎥⎦
1
2
Fx′ ( x ) =
1 −2 z 1
⋅ ;⇒
e
σ
2π
f x (x ) =
− ⎜
1
⋅ e 2⎝
2π ⋅ σ
1 ⎛ x− µ ⎞
⎟
σ ⎠
2
;
−∞< x <∞
−∞< µ <∞
3.2.2.2 CARACTERÍSTICAS PRINCIPALES
1. Función generatriz de momentos MX(t)
[ ] [
] [
= e ⋅ E [e ( ) ] = e ⋅ M
M x (t ) = E e tx = E e t ( zσ + µ ) = E e t σ z ⋅ e µ t
µt
=e
µt
tσ z
1 2 2
t σ
2
⋅e
=
µt
1
µ t + t 2σ
2
e
z
]
(tσ )
= M x (t )
2. Función característica ϕ z( θ )
[ ]
ϕ z (θ ) = E e i θ z haciendo t =iθ en la f.g.m. luego
ϕ z (θ ) =
1 2 2
i θ
2
e
ϕ z (θ ) =
1
− θ2
2
e
=
1
− θ2
2
e
∴ Z ∼ η(0,1)
3. Esperanza: Ε[Ζ]
Ε[Ζ] = Μ´z (t = 0) ∴ Μ´´ z (t ) =
1
∴ Ε[Ζ] = Μ´z (t = 0) = 0 x e 2
1 2
t
t.e 2
( 0) 2
=0
Ε[Ζ] = 0 : media de la distribución η (0,1)
4. varianza : VAR (Z) = σ z2
14
Léase C se distribuye normal m , s2
[ ]
VAR[Ζ ] = E Z 2 − E [(Z )]2 = M ′z′ (t = 0 ) − {M ′z (t = 0 )}2
∴ Μ ′z′(t) =
1 2
(t)
2
e
+
1 2
t
2 2
t e
⇒ VAR[Ζ ] = 1 − 0 = 1
[ ]
∴ E Z 2 = M z′′ (t = 0 ) = 1
3.2.3 DISTRIBUCION NORMAL CON MEDIA µ y VARIANZA σ 2 : η ( µ , σ 2 )
Sabemos que Ζ , variable aleatoria que se distribuye η (0,1)
Decimos que la v.a12 Χ se distribuye η ( µ , σ 2 ) ,
si Χ = Ζσ + µ ∴σ > 0 para − ∞ < µ < ∞ y − ∞ < X < ∞
2. Función Característica : ϕ x (θ )
Hacemos t= i θ en Μ x ( t ) a ϕ x ( θ ) =
1
i θ µ − σ 2θ 2
2
e
3. Media de la distribución
Μ´ x ( t ) = ( µ + tσ )e
2
1 2 2
σ t
2
µt+
a Ε[x ] = Μ´x (t = 0) = µ
4 Varianza de la distribución : VAR( X ) = σ x 2
[
∴ VAR( X ) = Ε( x 2 ) − [Ε( x)] = Μ´´x (t = 0) − Μ´( x ) (t = 0)
2
∴ Μ´´ x ( t ) = σ .e
2
1
2
µ t + σ 2t 2
+ ( µ + σ t )e
a Μ´´x (t = 0) = σ 2 + µ 2 ; luego :
VAR( X ) = σ x + µ 2 − µ 2 = σ x
2
12
léase variable aleatoria
2
2 2
1
2
µ t + σ 2t 2
]
2
5. Forma de la curva de la distribución normal.
Curva normal
Las figuras muestran varias curvas de distribución
de σ e idénticos valores de µ .
normal con diferentes valores
Al cambiar µ con σ constante, la forma de la curva no cambia, se correrá
únicamente hacia la izquierda o hacia la derecha.
Sobre la curva de la distribución normal ( ( µ ,σ 2 ) podemos afirmar:
1. Es simétrica respecto a la línea x = µ
2. Tiene un punto de máxima en x = µ
3. Tiene como asíntota horizontal al eje x
4. Presenta dos puntos de inflexión, en: x= µ − σ y µ + σ
5. La media, la moda y la mediana coinciden
6. El área comprendida entre dos puntos de inflexión, µ − σ y µ + σ ; es
aproximadamente el 68 % en el área total.
7. El área comprendida entre µ − 2σ y µ + 2σ es aproximadamente el 95.4% del
área total y el área comprendida entre µ − 3σ y µ + 3σ es aproximadamente el
99.7 % del área total.
3.2.4 Distribución JI dos con un grado de libertad : X (21 )
Sea X una v.a normal(0,1). Consideremos la variable Y = Χ 2 . Encontremos su
función de densidad sea Fy (x) la función de distribución de Y, (∴ obviamente los
valores de Χ deben ser positivos), a
] [
[
Fy (x) = P[ y ≤ x ] = Ρ X 2 ≤ x = Ρ − x ≤ x ≤ x
x
=
∫
−x
]
1
− (µ 2 )
1
.e 2 .dµ
2π
∴ la función de densidad de Y será
fy ( x ) =
d
d ⎡
Fy ( x) =
⎢
d ( x)
d ( x) ⎣⎢
[
]
∫
x
−x
1
1 − 2 (µ 2 ) ⎤
e
.dµ ⎥
2π
⎦⎥
1
1 −2(
e
2π
1
x )2
.
1 − 2 (−
d( x)
−
e
dx
2π
1
x )2
.
d (− x )
dx
1
−
− x
1
.x 2 .e 2 , x > 0 ; es la función densidad de la distribución JI – DOS ,
2π
∴ fy ( x ) =
con un grado de libertad. Esta variable se simboliza por Χ 2 (1) :
3.2.4.1 Función Generatriz de momentos de la Χ 2 (1) :
[ ] [ ]
a Μ y (t ) = Μ X 2 (1) = Ε etx ϖ = ety
2
∞
1
1
−
− x
1
X 2 .e 2 .dx
= ∫e .
2π
0
tx
∞
=
∫
0
1
.
1
−
− x (1− 2 t ) x
1
X 2 .e 2
.dx
2π
∴ la integral anterior es una Eureliana de primera especie, se tiene que;
1
1
1
p − 1 = − ⇒ p = y a = (1 − 2t ), luego
2
2
2
1
1
Γ( )
−
π. 2
1
2 =
2
Μ x 2 (1) (t ) =
t
=
(
1
−
2
)
.
1
2π 1 − 2t 12
)
(1 − 2t ) 2 . 2π
(
2
∴ Μ x 2 (1) (t ) = (1 − 2t )
−
1
2
es la f. g. m de la Χ 2 (1)
3.2.4.2 Función característica de la Χ 2 (1) : ϕ x 2 (1) (θ )
Haciendo t = iθ en
ϕ x 2 ( 1 ) ( θ ) = (1 − 2 iθ )
Μ x 2 (1) (t ) obtenemos la función característica así
−
1
2
= Ε ⎡e i θ
⎢⎣
x 2(1 )
⎤
⎥⎦
3.2.5 Distribución JI DOS, con n grados de libertad Χ 2 ( n )
consideramos ahora las variables aleatorias : X 1 , X 2 X n ...... Xn
Todas las normales (0 , 1) e independientes
Deduzcamos su función característica:
[
ϕ x 2 ( n ) (θ ) = Ε eiθx
2
(n)
]a
definamos primero a Χ 2 n = = X 2 1 + X 2 2 + ..........X 2 n
esta nueva variable es la de JI – DOS con n grados de libertad13
como cada X j ∴ J = 1,2,......n; es una X 2 (1) , entonces la X 2 ( n ) es la suma de n X 2 (1)
independientes.
Luego:
[
ϕ x 2 ( n ) ( θ ) = Ε e iθ ( x
= Ε ⎡e
⎢⎣
2
2
2
1 ,x 2 + ..........+ x n
⎤.Ε ⎡e iθx 21
⎥⎦ ⎢⎣
iθx 21
)
]
⎤(......)Ε ⎡e iθx 2 n ⎤
⎥⎦
⎢⎣
⎥⎦
por ser independiente
1
iθx 2
pero cada Ε ⎡e J ⎤ = (1 - 2iθ ) 2 ∴ J = 1,2, ........ , n
⎥⎦
⎢⎣
a ϕ x 2 ( n ) (θ ) = (1-2i θ )
−
n
2
,
ahora, retomando la función característica, encontramos la función de densidad
de la X 2 ( n )
sea f x 2 ( n ) ( x) la función de densidad de la X 2 ( n ) .
Por definición de función característica se cumple que:
ϕ x 2 ( n ) (θ ) =(1-2i θ )
−
n
2
iθx 2 ( n ) ⎤
,= Ε ⎡e
=
⎢⎣
⎥⎦
∞
∫e
iσx .
. f x 2 ( n ) d ( x) (A)
0
por otra parte sabemos que:
∞
∫∂
0
13
p −1
.e − a.∂ .d∂ =
Γ( p )
ap
Los grados de libertad de g l , es el numero de variables aleatorias independientes.
∞
1
Γ(p)
1
=
z p −1 .e − az .dz = p
p
a
Γ(p) 0
a
∫
En la integral anterior hagamos: a = 1− 2iθ y p =
∞
n
2
n
−1
1
2 .e −(1− 2i σ) z .dz
a
=
z
n
n ∫
Γ(
)0
(1 − 2 θ i) 2
2
1
Apliquemos cambio de variable, así:
Sea 2z = x a z =
( 1 − 2 i θ)
−
∞
n
2
=∫
0
∞
=
∫
0
x
1
a dz = dz a
2
2
n
−1
χ2
1
. n .e
n
2 Γ( ) 2 2 −1
2
n
1
n
2Γ ( )
2
−1
−
−
x
2 .e i θ x dx
x
.χ 2 .e 2 .eiθx dx (B)
∞
∫
= eiσx . f x 2 ( n ) ( x)dx (A)
0
comparando (A) y (B), para cada x se tiene que
∞
∫e
i θx
0
∞
.f x 2 (x)dx = ∫
(n)
0
1
n
22
n
Γ( )
2
n
x
−1 −
2
2
.χ .e .e i θ x dx
como existe una relación biunívoca entre la función característica y la función
densidad . a
f x 2 (x)dx =
(n)
1
n
22
n
Γ( )
2
n
x
−1 −
2
2
χ .e
; x>0
La distribución de la χ 2 ( n ) esta dada por:
∞
f x 2 ( n ) ( x) =
∫
n
1
n
n
0 2
2 Γ( )
−1
.µ 2 .e
−
µ
2d
µ
2
3.2.5.1 Momentos de la χ 2 ( n ) :
ya vimos que la f. g. m de la χ 2 ( n ) es:
Μ x 2 ( n ) (t ) = (1 − 2t )
−
n
2
a
n
n
− −1
− −1
n
Μ x 2 ( n ) (t ) = − (−2)(1 − 2t ) 2 = n(1 − 2t ) 2
2
n
2
Μ x 2 ( n ) (t ) = 2n( + 1)(1 − 2t )
n
− −2
2
= n(n + 2)(1 − 2t )
n
− −2
2
∴ Μ x 2 ( n ) (t = 0) = n =∝1 : es el momento de orden 1 con respecto Al origen ∴ ∝1 = µ
∴ Μ x 2 ( n ) (t = 0) = n = (n + 2) =∝ 2 es el momento de orden 2 con respecto al origen
∝ 2 = Ε( χ 2 )
luego la varianza de la χ 2 ( n ) es:
ν 2χ
2
(n)
=∝ 2 −(∝1 ) 2 = n(n + 2) − n 2 = 2n
a ν 2 χ 2 ( n ) = 2n
vemos así que en la variable aleatoria χ 2 ( n ) , la media de µ coincide con el
numero de grados de libertad y la varianza es dos veces este numero.
DISTRIBUCION t DE ESTUDENT
Sean: X , X 1 , X 2 X 3 ...... Xn variables aleatorias independiente todas las normales
(0,ν ) ; se define la variable aleatoria t con n. g. l , Así:
Χ
t(n) =
1 2
(x 1 + x 2 2 + .......x 2 n )
n
encontremos la función de densidad de la t( n ) , pero antes, definamos la variable ,
Υ así :
Y=
Χ
1 2
(x (1) + x 2 (2) + .......x 2 (n) ) ⇒ t(n) =
Υ
n
como Χµη (0,ν ) ; su función de densidad es:
1 x2
− . 2
1
f x ( x) =
e 2ν
ν 2π
La variable aleatoria Υ , se puede expresar de la siguiente forma
Υ=
x 2 (n)
σ 2 x 2 (1) x 2 (2) x 2 (3)
(
+ 2 + 2 + ............... + 2 )
n σ2
σ
σ
σ
Pero como cada xi es normal (0, σ) ; entonces
xi
, entonces es normal (0,1) a
σ
⎡ x 2 (1) x 2 (2) x 2 (3)
x 2 (n) ⎤
,
,
..........
.....
, ηχ 2 ( n ) ; luego;
+
+
⎢ 2
2
2
2 ⎥
σ
σ
σ ⎦
⎣ σ
σ2 2
Y=
⋅ x(n)
n
⎤
⎡ σ2 2
χ (n) ≤ y ⎥
⎥⎦
⎢⎣ n
∴ FY (y) = Ρ[Υ ≤ y ] = Ρ ⎢
⎡σ 2 2
⎤
n
⎡
⎤
= Ρ⎢
χ ( n ) ≤ y 2 ⎥ = Ρ⎢χ 2( n ) ≤ 2 y 2 ⎥
σ
⎣
⎦
⎣ n
⎦
Fχ 2 (
(n)
n 2
y )
σ2
sabemos que F χ 2
a FY (y) =
(n)
n
22
n
Γ( )
2
n
1
n
.
2 2 Γ(
n
1
n
)
2
⋅ ∫σ
2
y2
0
∫0σ
2
n
−1
µ2
y2
⋅e
n
−1
µ2
−
⋅e
−
µ
2
dµ
µ
2 dµ
La función de densidad de Υ será, por tanto:
n
n
µ
d 2 y 2 2 −1 − 2
f Y (y) = F´Y (y) = n
µ .e dµ
dy ∫0
.
n
2 2 Γ( )
2
1
=
1
.(
n
n ν
2 τ( )
2
n
.
2
2
n
−1
2 2
y )
.e
1 n
− . 2 y2
2ν
.
2n
ν2
.y
n
n
2( ) 2 − n y 2
2
2
e. 2σ
y n −1
f Y (y) =
n
σ 2 Γ( )
2
Ahora la función de densidad conjunta ( ( Χ, Υ ) , está dada por f x , y ( x. y ) = f x ( x). f y ( y )
n
f x, y (x.y) =
= K.y
n −1
.e
−
1
e
σ 2π
1 ny 2 + x 2
2 ν2
1 x2
− 2
2σ
n
2
− 2y
n
2( ) 2 .e 2σ
y.n −1
. 2
n
σ n Γ( )
2
; − ∞ < x < ∞;0 < y < ∞
n
∴K =
n
2( ) 2
2
n
σ n +1 2π Γ( )
2
Llamemos Ft ( n ) ( z ) a la función de distribución de la v.a t
⎡x
⎤
Ft ( n ) ( z ) = Ρ t( n ) ≤ Z = Ρ ⎢ ≤ Z ⎥ = ∫
⎣y
⎦ e
[
]
∫ f ( x, y)dxdy
la región C es aquel recinto de la distribución conjunta en donde
donde x ≤ yz ) ∴ − ∞ < z < ∞
veamos la gráfica
a Ftn ( z ) = K
∫
z. y
0
y n −1.e
1 ny 2 + x 2
− .
2 ν2
Hagamos el siguiente cambio en las variables:
∂x
x = µ ⋅ v⎫
∂µ
⎬ ⇒ J = ∂y
y=v ⎭
∂µ
∂x
∂v v
=
∂y 0
∂v
⇒ v = v; ya que v = y ; y ≥ o
µ
=v
1
x
≤ Z ; (o sea,
y
⇒ dxdy = vdu.dv
∴ Los limites son:
Para V, igual que para Y:(0,∞)
x
con v fijo, x → −∞ ⇒ µ → −∞
v
z. y
⎧
⎪µ =
∴ x = z.y ⇒ ⎨
v
⎪⎩= z
Para µ =
Ft(n) (z) = K ∫
∞ z
0
⎧
= K∫ ⎨
−∞
⎩
z
∞
∫0 V
∫−∞V
n
.e
n −1
.e
1 nV 2 + µ.V 2
− .
2
σ2
1 n+ µ2
− . 2 ⋅v 2
2 σ
.V.dµV.d
⎫
dV ⎬.dµ
⎭
La integral “entre llaves” es una eureliana de segundo orden, donde : 2p-1 =n
n+1
n + µ2
⇒Ρ=
∧a=
2
2σ 2
∞
⇒ ∫ V n .e
1 n+ µ2
− . 2 ⋅v 2
2 σ
0
n +1
)
2
Ft ( n ) ( z ) =
n
nπ τ ( )
2
τ(
∫
n+1
) z
dµ
2
.dv =
.∫
2
n +1
−
∞
n+ µ
µ2 2
2(
)
(1 +
)
2σ 2
n
Γ(
du
z
−∞
(1 +
µ2
n
)
n +1
2
Esta función de distribución de la “t” con n, n.gl . Su función de densidad, será
entonces:
n +1
)
1
2
;−∞ < x < ∞
.
f t ( n ) ( x) =
2 n +1
n
nπ τ ( ) (1 + x ) 2
2
n
τ(
3.2.7 DISTRIBUCCION F DE SNEDECOR:
Sean χ1, χ 2,........... χ m ; y1 , y2,.......... yn ; (m+n) variables aleatorias independientes normales
(0,ν ); se define la variable aleatoria F de snedecor con (m,n) g , l como:
1 2
( χ1 + χ 22 + .............. + χ m2 )
Χ
m
F=
⇒F=
1 2
Υ
( y1 + y22 + .............. + yn2 )
n
1 2
1
( χ1 + χ 22 + .............. + χ m2 ) ∧ ( y12 + y22 + .............. + yn2 )
m
n
∴Χ =
Para determinar la función de densidad F, encontremos antes las distribuciones de
Χ eΥ .
a Función de distribución de Χ
sea: Χ =
x ⎤
ν 2 ⎡ x1 2
( ) + ........... + (( m ) 2 ⎥
⎢
m⎣ ν
ν ⎦
Como cada x1ηµ (0,ν ) ; los
a Χ1=
ν2
m
xi
ν
ηµ (0,1)
χ (2m ) ∴
⎡ν 2
⎤
m ⎤
m
⎡
a Fx ( x) = Ρ[Χ ≤ x ] = Ρ ⎢ χ (2m ) ≤ x ⎥ = Ρ ⎢ χ (2m ) ≤ x ⎥ = F x 2 ( m ) ( .x)
ν
ν
m
⎣
⎦
⎣
⎦
=
1
m
22
m
τ( )
2
∫
m
ν2
0
x
µ
m
1
−1 − µ
2 .e 2 .du
m
1 m
−1 − 2 x m
m
⇒ f x (x) = F´ x (x) = m
.( 2 x) 2 .e 2 σ . 2
σ
σ
m
2 2 Γ( )
2
1
m
m
m
m
( )2
−1 − 2 x
2
⇒ f x (x) =
.χ 2 .e 2σ Para 0 < x < ∞
m
m
σ Γ( )
2
en forma similar obtenemos a f y ( y ) ∴
n
n
n
n
( )2
−1 − 2 .y
2
2σ
2
f y (y) =
.y .e
; para 0 < y < ∞
n
n
σ Γ( )
2
por la independencia entre x , y ; su densidad conjunta es:
f ( x , y ) = f x ( x). f y ( y ) para 0 < x, y < ∞
⇒ f (x, y) = K.X
m
1
m
n
−1
−1 − 2 ((mx + ny))
2
y 2 .e 2σ
n
m
n
( ) 2 .( ) 2
2
2
∴K =
m
n
m + n.
ν τ ( ).τ ( )
2
2
ahora la función de distribución F es:
⎡Χ
⎤
F( F ) ( z ) = Ρ[F ≤ z ] = Ρ ⎢ ≤ z ⎥ =
⎣Υ
⎦
∫ ∫ f ( x, y)dxdy
R
∴ R es la región en donde Χ ≤ yz ; como especificamos en la siguiente gráfica:
F( F ) ( z ) = K
Z
∫ ∫
0
zy
0
χ
m
−1
2
1
n
( mx + ny )
−1 −
2
σ
2
2
. y .e
dydy
hacemos las variables, así
x = µ .v
y=v
vµ
⎫
= v a j = V =V
⎬ ⇒J=
0,1
⎭
a dxdy = Vdudv
Encontremos los limites:
Para V, son los mismos para y ⇒ V ∈ (0, ∞)
x
, para x = 0 → µ = 0
V
Para x = zy → µ = z
Para µ =; µ =
F( F ) ( z ) = K
z
= K∫ µ
0
Z
∞
0
0
∫ ∫
( µ .V )
m
−1
2
n
−1
.V 2 .e
m+ n
mµ + n
m ⎡
.V
∞ 2 −1 −
−1
2
2 ⎢ V
.e 2ν
⎢0
⎣
∫
−
1
2ν 2
( mµV + nV )
VdVdµ
⎤
⎥ dµ
⎥
⎦
la integral entre llaves es una Euleriana de primer orden, así
P −1 =
m +1
m.µ + n
−1∧ a =
2
2
m + n)
τ(
⎧ ⎫
2
Luego: ⎨ ⎬ =
=
m+n
+
µ
m
n
⎩ ⎭
2
(
)
2ν 2
(
⎧ ⎫
⎨ ⎬=2
⎩ ⎭
m + n)
2
ν
−
m+n
τ(
)( µ .m + n)
2
m+n
m+n
2
Entonces la función de distribución de la F de snedecor es:
m
n
m
n
m+n
m
n
m+n
( ) 2 .( ) 2 .2 2 .2 2 .σ m + µ Γ(
) z m −1(mµ + n)− 2
2
2
FF (z) = 2
dµ
∫0 µ 2
m
n
Γ( )Γ ( )
2
2
Simplificando la constante y derivado la integral con respecto a z, y cambiando z
por x, la función de densidad de la F con (m , n) g , l , será en definitiva:
f (x) =
m
n
2
m .n 2
m+n
m+2
) m −1
−
2
2
χ
(mx + n) 2 y x > 0
m
n
Γ( )ΓΓ )
2
2
Γ(
Volvamos a la definición de la V , a F (m, n) :
∴ F(m, n) =
1 m 2
∑ xi
m 1
n
1
yi2
∑
n 1
⇒
1
F(m,n)
=
1 n 2
∑ yi
n 1
1 m 2
∑ Xi
m 1
= F(n, m)
Esto significa que el inverso de una F con (m, n) g , l es una F con (n, m) g , l . En
el manejo de tablas es muy útil esta propiedad, ya que:
⎡ 1
1⎤
1⎤
⎡
Ρ f ( m, n ) ≤ x = Ρ ⎢
≥ ⎥ = Ρ ⎢ f ( n, m ) ≥ ⎥
x⎦
⎣
⎣⎢ f ( m , n ) x ⎥⎦
[
]
3.2.8 TEOREMA CENTRAL DEL LIMITE (De Lindeberg y levy) sea
{xi } = {x1 , x2 , x3 .......}
una sucesión de variables aleatorias independeintes e
igualmente distribuidas con medias µ y varianzas σ 2 finitas. A partir de esta
sucesión podemos definir otra así
⎧
⎫
{y n } = ⎪⎨ S n − Ε(S n ) ⎪⎬
⎪⎩
σ sn
⎪⎭
con S n = x1 + x2 + ................ + xn
entonces la suceción
normal (0,1)
{yn } converge en distribución a una variable aleatoria Z
Esta forma es aplicable en aquellos casos en los cuales debamos encontrar
probabilidaes relativas a la suma de n variables aleatorias con n grande
sí S n = x1 + x2 + ................ + xn y las
distribuidas , (n grande), entonces:
xi
a
S n aproxima η {E ( S n );
so independientes e igualmente
σ sn }
3.2.9 TEOREMA DE MOIVRE :
Sea
{xn } = {x1 , x2 , x3 .......xn...........} una sucesión de
(n,p);
entonces la sucesión,
⎧
⎫
⎪⎩
n. p.q ⎪⎭
v.a. independientes binomiales
{yn } = ⎪⎨ χ n − n. p ⎪⎬ , converge en distribucion a una
variable aleatoria zµη ( 0,1). Este teorema, es un caso partucular del T.C.L14
En efecto, ∀n a χ n = B1 + B2 + ..........Bn con
independientes entre si
cada Bin b (1 , p) ∴ las bi son
⇒ np = Ε(xn ); n.p.q = σ xn
⇒ y(n)
xn − E(xn )
σ xn
las y( n ) cumplen con las hipótesis del T.L.C al igual que en el teorema de moivre
es aplicable para binomiales (n, p , con “n” grande:
Si X η b (n,p) con n grande a
14
Léase T.C.L. como teorema central de limite.
S n aproxima η (n.p; n. p.q )
3.2.10 Ejercicios
Ilustremos las aplicaciones de estos teoremas, con algunos ejemplos:
1. Sea x la media de una muestra aleatoria tamaño n= 100 de la distribución χ 502
encontrar, en forma aproximada el valor de P(49 < x < 51).
Solucion : x =
1
2
( x1 + ..........xn ) cada xi N χ 50
e independientes
n
η ( µ ,ν ) ; por T.L.C
a ( x1 + ..........x100
donde µ = 100E ( xi ) = 100 x 50 = 5000
∴ x1 + x 2 + .......... + x100 ∼ η
a xµ (
(5000,100)
5000 100
;
)
100 100
a x µ (50,1)
a Ρ(49 < x < 51) = Ρ(
49 − 50
51 − 50
<Z <
)=
1
1
a Ρ(−1 < z < 1) = 0.6826 = η (1) − η (−1)
1
3
encontrar un valor aproximado de Ρ(22 ≤ Υ ≤ 28)
2. sea Υ una variable aleatoria binomial (72; =)
solución
1
Ε(Υ ) = 72. = 24 = n. p
3
2
σ 2y = 24. = n.p.q = 16
3
a Υ ∧ η (24,4) ; Por teorema de Moivre
a Ρ(22 ≤ Υ ≤ 28) = Ρ(21.5 ≤ Υ ≤ 28.5) , usando
corrección para variable de V.A
discreta
= Ρ(
21.5 − 24
28.5 − 24
<Z <
) =
4
4
Ρ(−0.625 < z < 1.125) = 0.6042.
1
2
3. sea Υ ∧ b(100, ) encuentre P(y = 50)
solución: E(y) =100
1
1
= 50 ∴ ν 2 = 50 = 25
2
2
a Υ ∧ η (50;5) ; por teorema de moivre
a Ρ( y = 50) = Ρ(49.5 < y < 50.5) usando la correción para V.A .D
= Ρ(
49.5 − 50
50.5 − 50
<Z <
)=
5
5
= Ρ( −0.1 < Z < 0.1) = 0.0796 = η (0.1) − η (−0,1)
4. La venta diaria de ua fábrica de cierto articulo, tiene una distribución uniforme
entre 20 y 40 artículos . Que probabilidad tiene la fábrica de vender más de
6370 artículos en 182 días.
Solución sea Χ la venta total en los 182 días
⇒ Χ = x1 + x2 + .......... + x182 ; donde xi es la venta en el día i- ésimo.
∴ x i ∼ uniforme (20, 40)
∴ f( x) =
1
1
=
; para X ∈ (20,40)
20 b − a
a E ( xi ) = 30
40
∴ Ε(xi2
1 40 2
x3 ⎤
56000 2800
=
=
=
)=
x
dx
⎥
∫
20 20
60 ⎦ 20
60
3
∴ σ x21 =
2800
100
− (30)2 =
3
3
⇒ Ε(x) = 182. Ε(xi ) = 182.30 = 5460
⇒ σ x2 = 182.σ x2i = 182.
⇒ Χ ∼ η (5460;
Ρ( x > 6370) = Ρ( Z >
100 18200
=
3
3
18200
) ; luego
3
6370 − 5460
)=
18200
3
P(Z > 11.8 ) = 0
Es casi imposible que la venta en 182 dias supere los 6370 articulos
5. una persona acostumbra participar en un juego en las cuales sus probabilidades
de ganar y perder son iguales. Siempre que gana una partida recibe $ 5 y siempre
que pierde paga # 5. Un día se dirige al sitio de juego con la intension de jugar 400
partidas. ¿Que cantidad de dinero debe llevar si quiere tener
probabilidad de 0.95, de hacer frente a sus posibles perdidas?
Solución
Sea Χ i la V.A que indica la perdida en la partida i - ésima?
a Χ = x1 + x2 + ........ + x400 es la perdida total en las 400 partidas
Ρ( xi = 5) =
a Ε( xi2 ) = 52
1
2
∧
Ρ( xi = −5) =
1
1 50
+ ( −5) 2 =
= 25
2
2 2
1
2
al menos una
⇒ σ xi2 = 25 − 0 = 25 = 5 2
luego, Ε( x) = 400 E ( xi ) = 0
σ x2 = 400σ xi2 = 400.5 2 = 10.000
⇒ Χ ∼ η (0;100) ; por T.C.L
Sea K las cantidad que debe llevar, de modo que
Ρ( x ≤ k ) = 0.95 a
Ρ( x ≤
a
k
) = 0.95
100
k
= 1.645 a k = 164.50
100
a debe llevar $ 164.50
6. Demuestre que si x1 , x 2 ,........, x n son V.A independiente e igualmente
distribuidas f x ( x) = 2 x para 0 ≤ x ≤ 1 ; entonces:
n
⎡
− +k
Ρ ⎢ x1 , x2 ......... + xn ≤ e 2
⎣⎢
n
⎤
⎥ = F ( 2k ); con f ( x)
⎦⎥
funcion de distribucion η (0,1). Suponga n grande.
Solucion:
n
⎡
− +k
Ρ ⎢[x1 ........x n ] ≤ e 2
⎢⎣
n
⎤
n
⎡
⎤
⎥ = Ρ ⎢l nx1 + l nx2 + .........l nxn ≤ − + k n ⎥
2
⎣
⎦
⎥⎦
sea Χ 1 = l nx1 + l nx2 + .........l nxn
las variables l nx son igualmente distribuidas e independientes:
i
Ε( Ln xi ) =
1
∫l
0
n x.2 xdx
1
= − ; resolviendo por parte
2
2
∴ Ε(Ln xi ) =
⇒ σ l2xi =
1
∫0 ( l n x)
.2xdx =
1
2
1
1
2 1 1
− ( − )2 = − =
2
2
4 4 4
1
2
luego: Ε( x) = n(− ) = −
σ x2 =
2
n
2
n
n n
; luego x ∼ η (- ;
)
2 2
4
n
a Ρ( X ≤ − + k n ) = Ρ( Z ≤
2
−
= Ρ( Z ≤ 2k ) = F (2k ) . l.q.qd .
n
n
+k n +
2
2)
n
2
BIBLIOGRAFIA
BERENSON , Mark y LEVINE David. 1987 “ Estadística para Administración y
Economía”.Interamericana.
BLANCO, Castañeda Liliana. 2004. "Probabilidad". Unibiblos. Universidad
Nacional de Colombia.
FELLER , William.1985. “ Introducción a la Teoría de Probabilidades y sus
Aplicaciones”. Limusa. Méjico,
KENETT,
Ron;
SHELEMYAHU,
Zacks.
2000.
”Estadística
Industrial
Moderna”.International Thomson Editores.Méjico.
LOPES, Paulo Alfonso.1999 ”Probabilidad y Estadística”. Prentice-Hall. Bogotá
MASON ,Robert y LIND , Douglas.1995. “ Estadística para Administración y
Economía”. Alfaomega , Méjico
MENDENHALL, William; SINCICH, Ferry.1997 .”Probabilidad y Estadística para
Ingeniería y Ciencias”.Prentice-Hall Hispanoamericana.Méjico.
MOOD , Alexander y GRAYBILL , Franklin. 1980. “ Introducción a la Teoría de la
Estadística”. Aguilar. Madrid
MUÑOZ, Quevedo José María, 2002. "Introducción a la teoría de Conjuntos".
Cuarta Edición. Panamericana, formas e impresos S.A.
P. L. MEYER. 1992. “ Probabilidad y Aplicaciones Estadísticas”.Adisson Wesley
Iberoamericana.
SCHEAFFER, Richard L. ; McCLAVE, James T. 1993 “Probabilidad y Estadística
para Ingeniería”.Grupo Editorial Iberoamericana.Méjico.
WALPOLE , R.E. y MEYER , R.H. 1990. “ Probabilidad y Estadística para
Ingenieros”.Interamericana. Méjico,
YA LUN CHOU. “ Análisis Estadístico”. Interamericana. Méjico,1985.
Descargar