PROBABILIDAD VARIABLES ALEATORIAS

Anuncio
PROBABILIDAD
Ricardo Bautista Mercado
20 de julio de 2007
Resumen
Este trabajo fue motivado por el curso de Probabilidad I, impartido
por el Dr. Raul Montes De Oca del Departamento de Matematicas de la
UAM-I, en el trimestre 07-I
VARIABLES ALEATORIAS
1. VARIABLES ALEATORIAS DISCRETAS
1.1.
Variable Aleatoria Binomial
Sea ǫ un experimento aleatorio tal que
Ω ={exito, fracaso}
p = P [{exito}]
Observación 1. P [fracaso}] = 1 − p
X =número de exitos en las n repeticiones independientes de ǫ
P [X = k] = Ckn pk (1 − p)n−k
X[Ω] = {0, 1, 2, 3, . . .}
k ∈ {0, 1, . . . , n}
Notación: X ∼ B(n, p)
Observación 2.
n
X
k=0
P [X = k] =
n
X
k=0
Ckn pk (1 − p)n−k = (p + (1 − p))n = 1
1
Ejemplo 1. I) Sea m una moneda con P ({aguila}) = 32 , P ({sol}) = 13
Suponga que lanzamos la moneda 100 veces, de manera independiente
¿cual es la probabilidad de obtener 2 aguilas o mas?
„
«
2
X ∼ B 100,
3
P [X ≥ 2]
=
=
=
1 − P [X < 2]
1 − (P [X = 0] + P [X = 1])
„ «100
„ « „ «99
1
1
2
1−
− 100
3
3
3
II) Los motores de un avión operan independientemente unos de otros
con P ({no fallar}) = 0,99 . Un avión llega a su destino siempre y
cuando no fallen al menos la mitad de sus motores
¿cual es la probabilidad de que un tetramotor llegue a su destino
exitosamente?
X ∼ B (4, 0,99)
P [X ≥ 2]
=
P [X = 2] + P [X = 3] + P [X = 4]
=
C24 (0,99)2 (0,01)2 + C34 (0,99)3 (0,01) + C44 (0,99)4
III) Se tienen N objetos de los cuales M son blancos y el resto de color
negro
si se toma una muestra de n objetos con sustitucion
¿cual es la probabilidad de obtener k objetos blancos?
«
„
M
X ∼ B n,
N
P [X = k]
=
Ckn
„
M
N
«k „
«n−k
M
1−
N
Observación 3. El muestreo sin sustitucion no se puede plantear
como binomial pues no hay independencia
2
III) Un sistema de protección contra misiles esta construido con n unidades de radar que funcionan de forma independiente, cada uno con
una probabilidad de 0.9 de detectar un misil.
a) Si n = 5 y pasa un misil, ¿cual es la probabilidad de que 4 unidades lo detecten?
!
5
P [X = 4] =
(0,9)4 (0,1) = 0,32805
4
b) ¿cual debe ser el valor de n para que la probabilidad de dectar un
misil sea 0.999?
0,999
=
=
P [X ≥ 1]
1 − (1 − 0,9)n
⇒
(1 − 0,9)n
(0,1)n
=
=
1 − 0,999
0,001
⇒
n
=
=
1.2.
log(0,001)
log(0,1)
3
Variable Aleatoria de Poisson
Lema 1. Sea θ(x) una función tal que
lı́m
x→0
θ(x)
=0
x
Sea a ∈ R. Entonces
lı́m [1 + ax + θ(x)]1/x = ea
x→0
3
Teorema 1 (Poisson). Sea Xn ∼ B(n, Pn )
n = 1, 2, . . .
Supongangase que lı́mn→+∞ Pn = 0 y que lı́mn→+∞ nPn = λ > 0
Entonces
P [Xn = k] →
λk e−λ
k!
k = 0, 1, 2, . . .
Demostración. Como n · Pn → λ cuando n → ∞
entonces
g(n) = n · Pn − λ → 0 cuando n → ∞
Por otro lado
λ
n · Pn − λ = g(n) ⇒ Pn = g(n)
+n
n
g(n)
en particular n → 0 cuando n → ∞
Luego utilizando la hipotesis Xn ∼ B(n, Pn ) tenemos que
P [Xn = k]
=
=
=
=
sea x =
P [Xn = k]
1
,
n
Ckn Pnk (1 − Pn )n−k
«k „
„
««n−k
g(n)
λ
1−
+
n
n
«n−k
„
g(n)
λ
1 n(n − 1) · · · (n − k + 1)
k
1
−
(λ
+
g(n))
−
k!
nk
n
n
„
„
«
„
«
«n „
«−k
g(n)
g(n)
1
λ
1
k−1
λ
1−
··· 1 −
(λ + g(n))k 1 − −
1− −
k!
n
n
n
n
n
n
n(n − 1) · · · (n − k + 1)
k!
„
g(n)
λ
+
n
n
entonces
=
1
k!
„
„
«
„
«
«−k
1
g(n)
1
k−1
λ
1−
··· 1 −
(λ + g(n))k (1 − λx − xg(n)) x 1 − −
n
n
n
n
λ −λ
e
k!
∴ lı́mn→∞ P [Xn = k] =
k
Observación 4. a) 0 ≤ λk! e−λ ≤ 1
P+∞ λk −λ
P
λk
b)
= e−λ +∞
k=1 k! e
k=1 k! = 1
Observación 5.
ez =
+∞ m
X
z
,
m!
k=1
∀k = 0, 1, . . .
z∈R
X =número de veces que ocurre cierto evento aleatorio, cuando sabemos que este ocurre en promedio λ veces por unidad de tiempo
P [X = k] =
X[Ω] = {0, 1, 2, . . .}
Notación: X ∼ P[λ]
4
λk −λ
e
k!
Ejemplo 2. En una carretera ocurren en promedio 2 accidentes por dia
λ=2
X ∼ P[2]
I) ¿cual es la probabilidad de que mañana no ocurra ningun accidente?
P [X = 0] = e−2 = 0,1353
II) ¿cual es la probabilidad de que ocurra al menos 1 accidente?
P [X ≥ 1] = 1 − P [X = 0] = 1 − e−2 = 1 − 0,1353 = 0,864
III)
P [4 < X ≤ 7]
=
=
=
=
P [X = 5] + P [X = 6] + P [X = 7]
25 −2 26 −2 27 −2
e + e + e
5!
6!
7!«
„
64
128
32
e−2
+
+
120
720
5040
0,051556298
Ejemplo 3. Supóngase que un deposito contiene 10000 partı́culas. la probabilidad de que una de esas partı́culas salga del depósito es igual a 0.0004
¿Cuál es la probabilidad de que ocurran más de 5 salidas? (Puede suponerse que las salidas son independientes unas de otras).
X ∼ B(10000, 0,0004)
λ = (10000)(0,0004) = 4
P [X > 5]
≈
=
=
1.3.
1 − (P [X = 0] + P [X = 1] + · · · + P [X = 5])
„ 0
«
4
41
42
43
44
−4
1−e
+
+
+
+
0!
1!
2!
3!
4!
0,2151
Variable Aleatoria Geometrica
Sea ǫ un experimento Bernoulli,
Ω = {exito, f racaso},
p := P [{exito}]
p ∈ (0, 1)
Se repite ǫ, de manera independiente, una infinidad de veces
Sea Ω′ := Ω × Ω × Ω × · · ·
5
Observación 6. ω ∈ Ω ⇔ Ω = (exito ó fracaso, exito ó fracaso, . . .)
X : Ω′ → R
X =número de repeticiones de ǫ hasta obtener exito por vez primera
X[Ω′ ] = {1, 2, 3, . . .}
P [X = k] = (1 − p)k−1 p
Notación: X ∼ G[p]
Observación 7.
+∞
X
P [X = k] =
k=1
+∞
X
k=1
+∞
X
p(1 − p)k−1 = p
(1 − p)k−1
k=1
!
=p
1
=1
1 − (1 − p)
Ejemplo 4. La probabilidad de encontrar cierto medicamento en una
farmacia es de 0.20
Calcule la probabilidad de que una persona que requiere de ese medicamento:
I) Tenga que recorrer 3 farmacias para hallarlo?
p = 0,20
P [X = 3] = (1 − p)2 p = (0,8)2 (0,20) = 0,128
II) Se vea obligada a recorrer por lo menos 3 farmacias para encontrarlo?
P [X ≥ 3]
=
=
=
1 − P [X = 1] − P [X = 2]
1 − (0,20) − (0,8)(0,20)
0,64
Ejemplo 5. Cierto atleta logra saltar la varilla a 2.28 mts de altura el
60 % de las veces. En una competencia olimpica dispone de 3 intentos y si
logra salvar esa altura ganara medalla de oro. Determine la probabilidad
de que gane dicha medalla
p = 0,6
P [{gane la medalla de oro}]
=
P [X = 1] + P [X = 2] + P [X = 3]
=
(0,6) + (0,4)(0,6) + (0,4)2 (0,6)
=
0,936
Observación 8. Se supuso que los saltos sean independientes
6
Ejemplo 6. Suponga que un joven envia muchos mensajes por é-mail a
su prometida, pero ella solo responde el 5 % de los mensajes que recibe.
¿cuantos correos debera este insistente joven enviar a su novia para tener
una probabilidad de por lo menos 0.8 de que por fin uno de ellos sea
respondido?
p = 0,05
P [{algun correo es respondido}]
P [X = 1] + P [X = 2] + · · · + P [X = n]
=
p + (1 − p)p + (1 − p)2 p + · · · + (1 − p)n−1 p
=
[1 + (1 − p) + (1 − p)2 + · · · + (1 − p)n−1 ]p
1 − (1 − p)n
p
1 − (1 − p)
1 − (1 − p)n
=
=
=
≥
0,8
⇒
(1 − p)n
≤
=
1 − 0,8
0,2
⇒
n
≥
=
log(0,2)
log(0,95)
31,38
7
1.4.
Función de distribucion acumulativa
Sea X una variable aleatoria discreta
Definimos la funcion de distribucion acumulativa de X como la función
FX : R → R dada por:
X
FX := P [X ≤ x] =
P [X = k],
x∈R
k∈X[Ω]:k≤x
Ejemplo 7. Hallar FX :
X ∼ B(3, 12 )
k
0
1
2
3
P [X = k] = Ck3 ·
1
8
3
8
3
8
1
8
` 1 ´3
2
= Ck3 ·
P [X = k]
FX =
8
0
>
>
>
>
< 18
>
>
>
>
:
4
8
7
8
1
si
si
si
si
si
8
x<0
0≤x<1
1≤x<2
2≤x<3
x≥3
1
8
FX
1.4.1. Propiedades de la distribución acumulativa asociada
a una variable aleatoria discreta
FX es creciente (i.e x < y ⇒ FX (x) ≤ FX (y))
lı́mx→∞ FX (x) = 1;
lı́mx→−∞ FX (x) = 0
FX es continua a la derecha de los puntos del rango
P [X = k] = FX (k) − FX (− k)
k ∈ X[Ω]
Ejemplo 8. Supongase que X toma los valores −1, 0, 1 con probabilidades
1 1 1
, , respectivamente
3 2 6
I) Hallar la función de probabilidad puntual de Y1 = X2
Y1 [Ω] = {0, 1}
P [Y1 = 0] = P [X2 = 0] = P [X = 0] = 12
P [Y1 = 1] = P [X2 = 1] = P [X = 1] + P [X = −1] =
1
6
+
II) Hallar la función de probabilidad puntual de Y2 = 3X + 1
Y2 [Ω] = {−2, 1, 4}
P [Y2 = −2] = P [3X + 1 = −2] = P [X = −1] =
P [Y2 = 1] = P [3X + 1 = 1] = P [X = 0] = 12
P [Y2 = 4] = P [3X + 1 = 4] = P [X = 1] = 61
9
1
3
1
3
=
1
2
Ejemplo 9. X ∼ G( 21 )

0
Y=
1
si X toma un valor par
si X toma un valor impar
Hallar la función de probabilidad puntual de Y
Y[Ω] = {0, 1}
` ´2 ` ´4 ` ´6
P [Y = 0] = 12 + 21 + 21 + · · · = 13
` ´3 ` ´5
` ´7
P [Y = 1] = 12 + 21 + 12 + + 21 + · · · =
1.5.
2
3
Variable Aleatoria Hipergeometrica
Considere N objetos tales que M de ellos cumplen cierta propiedad p,
entonces para el problema del muestreo sin substitución (con tamaño de
muestra n) se tiene el siguiente modelo probabilistico:
X =número de objetos que cumplen la propiedad p
N −M
CkM Cn−k
N
Cn
X[Ω]={k| k es un entero no negativo que cumple: k ≤ M y k ≤ N −M }
P [X = k] =
Notación: X ∼ H[N, M, k]
Ejemplo 10. En una fabrica hay 1500 lavadoras de las cuales 400 son
defectuosas. Si se toman sin sustitucion 200 lavadoras al azar, ¿cual es la
probabilidad de que al menos una de las 200 lavadoras sea defectuosa?
X ∼ H (1500, 400, 200)
P [X ≥ 1]
=
1 − P [X = 0]
=
1−
10
1100
C200
1500
C200
2. ESPACIOS DE PROBABILIDAD Y
VARIABLES ALEATORIAS
Definición 1. Sean Ω un conjunto y F una familia de subcon juntos de
Ω
Diremos que F es una σ-álgebra de subconjuntos de Ω si:
a) ∅, Ω ∈ F
b) si A ⊂ F entonces Ac ∈ F;
y
c) A1 , A2 , . . . ∈ F, entonces
∪+∞
n=1 An ∈ F
Observación 9. Sean A1 , A2 , . . . ∈ F entonces (por las leyes de DeMorgan)
´c
` +∞
∩+∞
n=1 An = ∪n=1 An
Lema 2. Si F1 , F2 son σ-álgebras de Ω entonces F1 ∩ F2 tambien es σálgebra
Demostración.
entonces
a) Como ∅, Ω ∈ Fi
i = 1, 2
∅, Ω ∈ F1 ∩ F2
b) Sea A ⊂ F1 ∩ F2 entonces Ac ∈ F1 y Ac ∈ F2
luego entonces
Ac ∈ F 1 ∩ F 1
c) Sean A1 , A2 , . . . ∈ F1 ∩ F2 , entonces
A1 , A 2 , . . . ∈ F 1
entonces
por lo tanto
A1 , A 2 , . . . ∈ F 2
∪+∞
n=1 An ∈ Fi
i = 1, 2
∪+∞
n=1 An ∈ F1 ∩ F2
i = 1, 2
Ejemplo 11. a) Sea Ω un subconjunto. Entonces F1 = {∅, Ω} y F2 =
P (ω) (conjunto potencia de Ω)
son σ-álebra de subconjuntos de Ω
b) Sean Ω un conjunto y τ ⊂ Ω τ 6= ∅
B(τ ) := ∩{F : F es σ-álgebra y F ⊇ τ }
Notación: B(τ ) := σ-álgebra de Borel de Ω
11
Definición 2. Sea Ω un subconjunto y F una σ-álgebra de subconjuntos
de Ω
Diremos que
p : F : [0, 1]
es una medida de probabilidad sobre F si:
a) P [Ω]=1;
y
b) si A1 , A2 , . . . ∈ F y son ajenos , entonces
+∞
´ X
`
P (An )
P ∪+∞
n=1 An =
n=1
A la terna (Ω, F, P ) se le llama espacio de probabilidad
Definición 3. Diremos que X es una variable aleatoria si
∀x ∈ R
[X ≤ x] := {ω ∈ Ω : X(ω) ≤ x} ∈ F
1
Observación 10. [X ≤ x] = {ω ∈ Ω : X(ω) < x} = ∪+∞
i=1 [X ≤ x− n ] ∈ F
Definición 4. Diremos que X es una variable aleatoria discreta si
X[Ω] := {X(ω) : ω ∈ Ω}
es un conjunto finito o numerable
Para una variable aleatoria discreta, con rango X[Ω] = {x1 , x2 , . . .} se
define la función de probabilidad puntual como:
PX ({xi }) := P [X = xi ],
∀i = 1, 2, . . .
Observación 11. a) 0 ≤ PX ({xi }) ≤ 1 ∀i = 1, 2 . . .
P+∞
P+∞
b)
i=1 P [X = xi ] = 1
i=1 PX ({xi }) =
2.1.
VARIABLES ALEATORIAS CONTINUAS
Definición 5. Sea X una variable aleatoria diremos que X es una variable
aleatoria continua si
P [X = x] = 0
∀x ∈ R
Observación 12. Igual que en el caso discreto, se puede definir la función
de distribucion acumulativa asociada a una variable aleatoria continua
como
F : R → R, dada F (x) = P [X ≤ x] ∀x ∈ R (esta funcion F cumple
con las propiedades obtenidas para el caso discreto)
(i) como P [X = x] = F (x) − F (− x) = 0 ⇒ F es continua
(ii) Notese que P [X ∈ R] = 1 y que no puede estar ”soportada”por un
conjunto finito o numerable
si A = {y1 , y2 , . . .}
⇒ P [X ∈ A] = P [X = y1 ] + P [X = y2 ] + · · · = 0
12
(iii) Sean a, b ∈ R, a < b
F (b) − F (a) = P [X ≤ b] − P [X ≤ a]
=
=
=
=
P [a < X ≤ b]
P [a ≤ X < b]
P [a < X < b]
P [a ≤ X ≤ b]
2.1.1. VARIABLES ALEATORIAS CONTINUAS DEFINIDAS MEDIANTE DENSIDADES
Definición 6. Sea f : R → R diremos que f es una densidad de probabilidad
si
a) f ≥ 0;
y
R +∞
b) −∞ f (x)dx = 1
Ry
Observación 13. (i) y f (x)dx = 0;
y
Rx
(ii) F (x) := −∞ f (t)dt,
x∈R
⇒ F cumple con con todas las propiedades de una funcion de distrución
de una variable aleatoria continua
Entonces por un teorema debido a Kolmogorov, existen un espacio de
probabilidad (Ω, F, p) y una variable aleatoria X : Ω → R tal que
Z x
f (t)dt,
x∈R
FX = F (X) =
−∞
13
2.2.
Ejemplos de variables aleatorias continuas
1. Variable Aleatoria Uniforme
a, b ∈ R, a < b
f (x) =

1
b−a
0
si x ∈ [a, b]
si x ∈
/ [a, b]
X =seleccion de un punto al azar de [a, b]
P [c1 ≤ X ≤ c2 ] =
Z
c2
[c1 , c2 ] ⊂ [a, b]
f (x)dx
c1
Notación: X ∼ U [a, b]
Ejemplo 12. El tiempo medido en minutos en que cierta persona
invierte en ir de la estacion de su casa al tren es un fenomeno aleatorio que sigue una ley de probabilidad uniforme en el intervalo de
20-25. ¿cual es la probabilidad de que alcance el tren que sale de la
estacion a las 7:28 AM en punto si deja su casa exactamente a las
7:05 AM
X ∼ U (20, 25)
P [{alcance el tren}]
=
=
14
P [20 ≤ X ≤ 23]
Z 23
1
3
dt =
5
5
20
2. Variable Aleatoria Exponencial
Sea λ > 0
f (x) =

λ exp−λx
0
si x ≥ 0
si x < 0
T =tiempo transcurrido hasta que cierto evento ocurre,
T[Ω] = [0, +∞)
Z
+∞
f (x)dx =
−∞
Z
+∞
0
˛+∞
˛
λe−λx dx = −e−λx ˛
0
Notación: T ∼ exp[λ]
Ejemplo 13. Supongase que un sistema contiene cierto tipo de componente cuya duracion en años está dada por una variable aleatoria
distribuida en forma exponencial con λ = 51 . Si se instalan 5 de estos
componentes en diferentes sistemas, ¿cual es la probabilidad de que
por lo menos 2 funcionen 8 años ó mas?
[Supongase que estos componentes son independientes unos de otros]
T ∼ exp
P [T ≥ 8]
=
=
Z
» –
1
5
+∞
8
1 − 15 x
e
dx
5
8
e− 5 = 0,2018
Por lo tanto la probabilidad de que un componente dure 8 años ó mas
8
es e− 5 , ahora solo falta calcular la probabilidad de que por lo menos
8
2 de los 5 componentes sigan funcionando: X ∼ B(5, e− 5 )
15
P [X ≥ 2]
=
1 − (P [X = 0] + P [X = 1])
”
”
“ 8”“
“
8 5
8 4
1 − e− 5
1 − 1 − e− 5 − 5 e− 5
=
,2666
=
=
1 − ,323814 − 0,409577
Proposición 1 (perdida de memoria de la exponencial). Sea T ∼
exp [λ]
Entonces
∀t, s > 0
P [T > s + t|T > s] = P [T > t]
Demostración.
P [T > s + t|T > s]
=
=
P [T > s + t, T > s]
P [T > s]
P [T > s + t]
pues
P [T > s]
[T > s + t] ⊆ [T > s]
por otra parte
Z
+∞
P [T > s + t|T > s]
=
P [T > s]
=
λe−λt dt
s
=
e−λs dt
por lo tanto
16
=
e−λ(s+t)
e−λs
e−λt
=
P [T > t]
3. Variable Aleatoria Normal
Observación 14. La variable aleatoria normal trata de ajustarse a
la binomial
Función de densidad normal:
1
− 1 (x−µ)2
e 2σ2
(1)
2πσ
Definición 7. Una variable aleatoria X con densidad dada por 1
será llamada variable aleatoria normal con parametros µ y σ 2 se
denota
X ∼ N (µ, σ 2 )
f (x) = √
Observación 15. X[Ω] = R
P [0 ≤ X ≤ z] = φ(z) =Área bajo la curva normal estándar de 0 a z
3.1.10
17
CALCULO DE PROBABILIDADES CON LA NORMAL
a) X∗ ∼ N (0, 1)
X∗ =Normal estándar (centrada por el eje de las y’s)
Ejemplo 14. I) P [0 ≤ X∗ ≤ 1,42] = φ(1,42) =.4222
II) P [−0,73 ≤ X∗ ≤ 0] = φ(0,73) =.2673
III) P [−1,73 ≤ X∗ ≤ 2,01] = φ(2,01) + φ(1,73) =.4778
18
IV) P [0,65 ≤ X∗ ≤ 1,26] = φ(1,26) − φ(0,65) =.1540
V) P [−1,79 ≤ X∗ ≤ −0,54] = φ(1,79) − φ(,54) = ,4633 −
,2054 =.2579
VI) P [X∗ ≥ 1,13] =
1
2
− ,3708 =.1292
19
VII) determine a tal que P [−a ≤ X∗ ≤ −0,5] = 0,004
0,004
=
=
φ(a) − φ(0,5)
φ(a) − 0,1915
entonces
φ(a) = 0,004 + 0,1915 = 0,1955
de donde
a ≈.51
b) X ∼ N (µ, σ 2 ), µ 6= 0, σ 6= 1
Proposición 2. Si Y :=
entonces
X−µ
σ
Y ∼ N (0, 1)
Demostración.
FY (y)
=
=
=
=
P [Y ≤ y]
»
–
X−µ
P
≤y
σ
P [X ≤ σy + µ]
Z σy+µ
1
− 1 (t−µ)2
√
e 2σ2
dt
2πσ
−∞
sea ξ := σ1 t − σµ
entonces dξ := σ1 dt
por lo tanto
FY (y)
=
=
Z
σy+µ
−∞
Z y
−∞
=
√
1
− 1 (t−µ)2
e 2σ2
dt
2πσ
1 2
1
√ e− 2 ξ dξ
2π
1 2
1
√ e− 2 y
2π
20
y∈R
Ejemplo 15. Sea X ∼ N (0,25, (0,02)2 )
hallar
I) P [X ≤ 0,2] ∼ P [X∗ ≤ 0,2−0,25
] = 12 − φ(2,5) = 0,0062
0,02
II) P [X ≥ 0,28] ∼ P [X∗ ≥
III) P [0,2 ≤ X ≤ 0,28]
P [0,2 ≤ X ≤ 0,28]
0,28−0,25
]
0,02
»
=
1
2
− φ(1,5) = 0,0668
X − 0,25
0,2 − 0,25
≤
≤ 1,5
0,02
0,02
∼
P
=
P [−2,5 ≤ X∗ ≤ 1,5]
=
–
φ(2,5) + φ(1,5)
=
0,4938 + 0,4332
=
0,927
Ejemplo 16. Si X ∼ N (80, 102 )
determine
I) P [X ≤ 100] ∼ P [X∗ ≤ 100−80
] = 21 + φ(2) = 0,9772
10
∗
80−80
II) P [X ≤ 80] ∼ P [X ≤ 10 ] = 12
≤ X∗ ≤ 100−80
] = φ(2) + φ(0,5) =
III) P [75 ≤ X ≤ 100] ∼ P [ 75−80
10
10
,6687
IV) P [X ≥ 75] ∼ P [X∗ ≥ 75−80
] = 12 + φ(,5) = 0,6915
10
V) P [|X−80| ≤ 19,6] ∼ P [− 19,6
≤ X∗ ≤ 19,6
] = φ(1,96)+φ(1,96) = 1,95
10
10
Observación 16.
|x| ≤ a
|x| ≥ a
⇔
x ∈ [−a, a]
⇔
x ∈ (−∞, −a] ∪ [a, +∞)
Ejemplo 17. Una maquina troqueladora produce tapas de latas cuyos
diametros estan normalmente distribuidos con σ = 0,01 pulgadas.
En que valor de µ debe ajustarse la maquinaria de tal manera que el
5 % de las tapas producidas tengan diametro que excede las 3 pulgadas
D ∼ N (µ, (0,01)2 )
0,05
=
∼
=
P [D > 3]
»
–
3−µ
P D∗ >
0,01
„
«
3−µ
1
−φ
2
0,01
21
por lo tanto
φ
entonces
„
3−µ
0,01
«
= 0,45
3−µ
≈ 1,65
0,01
⇒
µ = 3 − (0,01)(1,65) = 2,9835
22
3. VARIABLES ALEATORIAS (BIDIMENSIONALES)
Sea ǫ un experimento aleatorio con espacio de probabilidad (Ω, F, P )
Sea X : Ω → R2 , X = (X, Y) una funcion ω 7→ X(ω) = (X(ω), Y(ω))
Definición 8. Diremos que X es un vector aleatorio (bidimensional) si
[X ≤ x, Y ≤ y] ∈ F
∀x, y ∈ R
[X ≤ x, Y ≤ y] := {ω ∈ Ω : X(ω) ≤ x, Y(ω) ≤ y}
I. Caso discreto
Definición 9. Diremos que X es un vector aleatorio discreto si
X[Ω] = {(xi , yi ) : xi ∈ X[Ω], yj ∈ Y[Ω]}
es finito o numerable
3.0.1.
Función de probabilidad puntual de X
PX ({(xi , yj )})
:=
P [X = xi , Y = yi ]
=
P [{ω ∈ Ω : X(ω) = xi , Y = yj }]
Propiedades
0 ≤ PX ({(xi , yj )}) ≤ 1
XX
j
i
PX {(xi , yj )}
∀i, j
=
X X
j
=
X
P [X = xi , Y = yj ]
i
!
P [Y = yi ]
j
=
3.0.2.
P [Ω] = 1
Funciones de probabilidad puntual marginales
P [X = xi ] =
X
P [X = xi , Y = yj ],
∀i
P [X = xi , Y = yj ],
∀j
j
P [Y = yj ] =
X
i
3.0.3.
Funciones de probabilidad condicional
P [X = xi |Y = yj ] :=
P [X = xi , Y = yj ]
P [Y = yj ]
P [Y = yj |X = xi ] :=
P [X = xi , Y = yj ]
P [X = xi ]
23
Independencia
Definición 10. X y Y son independientes ssi
P [X = xi , Y = yj ] = P [X = xi ]P [Y = yj ]
∀i, j
X
Y
0
1
2
3
P [X = x]
1
2
3
6
0
0
42
42
42
42
Ejemplo 18.
2
3
4
5
14
1
42
42
42
42
42
4
5
6
7
22
2
42
42
42
42
42
6
9
12
15
P [Y = y] 42
42
42
42
{0, 1, 2}
X[Ω]
=
Y[Ω]
=
{0, 1, 2, 3}
X[Ω]
=
X[Ω] × Y[Ω]
=
=
{0, 1, 2} × {0, 1, 2, 3}
{(0, 0), (0, 1), (0, 2), (0, 3), (1, 0), (1, 1), (1, 2), (1, 3), (2, 0), (2, 1), (2, 2), (2, 3)}
Ejemplo 19.
P [X = 1, Y = 1] = PX ({(1, 1)}) =
3
42
Ejemplo 20.
P [X > Y]
=
P [{(1, 0), (2, 0), (2, 1)}]
4
5
2
+
+
42
42
42
11
42
=
=
Ejemplo 21.
P [X < 1] = P [X = 0] =
6
42
Ejemplo 22.
P [X = 0|Y = 1]
=
=
=
P [X = 0, Y = 1]
P [Y = 1]
1/42
9/42
1
9
Ejemplo 23.
P [X = 1|Y = 1]
=
=
=
24
P [X = 1, Y = 1]
P [Y = 1]
3/42
9/42
3
9
Ejemplo 24.
P [X = 2|Y = 1]
=
=
=
P [X = 2, Y = 1]
P [Y = 1]
5/9
1
5
9
Observación 17.
P [X = 0|Y = 1] + P [X = 1|Y = 1] + P [X = 2|Y = 1]
=
=
1
3
5
+ +
9
9
9
1
(veáse los ejemplos 22, 23, 24)
Observación 18.
P [X = 0, Y = 0]
=
6=
=
0
„
«2
6
42
P [X = 0] · P [Y = 0]
∴ X, Y no son independientes
II. Caso Continuo
Definición 11. Diremos que X es un vector aleatorio continuo si
∀x, y
P [X = x, Y = y] = 0
Observación 19. Igual que en el caso unidimensional tenemos:
FX (x, y) := P [X ≤ x, Y ≤ y]
3.0.4.
∀x, y
Vectores aleatorios generados por densidades
Definición 12. Una función f : R2 → R será llamada una densidad
de probabilidad si
a) f ≥ 0 (i.e f (x, y) ≥ 0
R
b) R2 f = 1
∀x, y)
Proposición 3. Sea f una densidad de probabilidad
F (x, y) =
Z
x
−∞
Z
y
f (u, v)dvdu,
−∞
x, y ∈ R
entonces
PX (A) =
Z
A
f,
A ∈ B(R2 )
25
(veáse ejemplo 11)
Ejemplo 25. Sea X = (x, y) con densidad
f (x, y) =
Z
f

e−y
0
si x ≥ 0, y > x
en otro caso
«
f (x, y)dy dx
x
0
«
Z ∞ „Z +∞
e−y dy dx
x
Z0 ∞
−x
e dx
Z
=
R2
=
=
∞
„Z
+∞
0
=
3.0.5.
1
Densidades Marginales
fX (x) =
fY (y) =
Z
Z
+∞
f (x, y)dy,
x ∈ X[Ω]
f (x, y)dx,
y ∈ Y[Ω]
−∞
+∞
−∞
Ejemplo 26. Sea f (x, y) la función de densidad dada en el ejemplo
25
entonces
fX (x)
=
=
=
Z
+∞
f (x, y)dy,
x
Z +∞
e
x
−x
e−y dy
x≥0
,
26
x ∈ [0, +∞)
fY (y)
=
=
Z
y
f (x, y)dx,
Z0 y
y ∈ [0, +∞)
e−y dx
0
=
ye−y ,
y≥0
Independencia
Definición 13. X y Y son independientes sii
f (x, y) = fX (x) · fY (y)
∀(x, y)
Ejemplo 27. Sea f (x, y) la función de densidad dada en el ejemplo
25
entonces
X y Y no son independientes, pues
f (0, 0)
=
1
6=
0
=
fX (0) · fY (0)
Calculo de Probabilidades
Ejemplo 28. Sea f (x, y) la función de densidad dada en el ejemplo
25
P [X ≥ 1|Y ≥ 2] =
27
P [X ≥ 1, Y ≥ 2]
P [Y ≥ 2]
P [X ≥ 1, Y ≥ 2]
Z Z
=
Z
=
Z
=
Z
=
=
Z
1
2
+∞
2
+∞
ye
∞
=
dy −
Z
+∞
e−y dy
2
fY (y)dy
Z2 ∞
ye−y dy
»
Z
−ye−y +
ˆ
−y
2
2
=
(ye−y − e−y )dy
2e−2
=
=
f (x, y)dydx
Z y
e−y dxdy
3e−2 − e−2
=
P [Y ≥ 2]
∞
−ye
−y
por ejemplo 26
–∞
∞
e−y dy
2
−y ˜∞
−e
2
−2
=
2e−2 + e
=
3e−2
2
Observación 20.
lı́m ye−y
y→+∞
=
=
=
y
ey
1
lı́m
y→+∞ ey
0
lı́m
y→+∞
regla de L’Hopital
entonces
P [X ≥ 1|Y ≥ 2]
=
=
=
28
P [X ≥ 1, Y ≥ 2]
P [Y ≥ 2]
2e−2
3e−2
2
3
3.0.6.
Densidades Condicionales
fY|X (y|x) :=
fX|Y (x|y) :=
f (x,y)
,
fX (x)
f (x,y)
,
fY (y)
fX (x) > 0
fY (y) > 0
29
Ejemplo 29. Sea f (x, y) la función de densidad dada en el ejemplo 25
Sea x ≥ 0 fijo
fY|X (y|x)
=
=
=
f (x, y)
fX (x)
e−y
por ejemplo 26
e−x
−(y−x)
e
Sea y > 0 fijo
fX|Y (x|y)
=
=
=
f (x, y)
fY (x)
e−y
ye−y
1
y
30
por ejemplo 26
PROBLEMA 21. Supongamos que el vector aleatorio discreto (X, Y)
está definido por
X
Y
1
2
3
1
2
1
2
1
6
1
9
1
4
0
1
8
3
0
1
5
2
15
1. Hallar las funciones de probabilidad marginales y las funciones de
probabilidad condicionales
Diga si X y Y son independientes
2. Supóngase que el vector aleatorio continuo tiene densidad
f (x, y) =

kx(x − y)
0
si 0 < x < 2, −x < y < x
en otro caso
a) Encuentre el valor de k
b) Determine fX y fY y diga si X y Y son independientes
31
3.0.7.
Densidades de funciones de variable aleatoria
Ejemplo 30. Supóngase que X ∼ U [0, 1]. Encuentre la densidad de Y =
4X2 + 2
(g(x) = 4x2 + 2,
x ∈ R)
Solución 22. a) Determinar el rango de Y
Y[Ω] = [2, 6]
Observación 23. fuera de es este rango mide 0
b) Sea y ∈ [2, 6] fijo
Observación 24.
y ∈ [2, 6]
⇔
⇔
⇔
FY (y)
=
=
=
=
=
=
P [Y ≤ y]
2≤y≤6
0≤y−2≤4
y−2
0≤
≤1
4
P [4X + 2 ≤ y]
–
»
y−2
P X2 ≤
4
"
#
r
y−2
P |X| ≤
4
#
" r
r
y−2
y−2
≤X≤
P −
4
4
q
r
Z y−2
4
y−2
1 · dt =
4
0
32
Conclusión Si y ∈ [2, 6], entonces
1
FY (y) =
(y − 2) 2
2
⇒
fY (y)
=
=
=
fY (y) =

FY′ (y)
«
„
1 1
−1
2
(y − 2)
2 2
1
1
√
4 y−2
1√1
4 y−2
0
33
si y ∈ (2, 6]
en otro caso
Ejemplo 31. Supongase que X ∼ U [0, 1]. Encuentre la densidad de Z =
eX
Solución 25. a) Determinar el rango de Z
Z[Ω] = [1, e]
Observación 26. fuera de es este rango mide 0
b) Sea z ∈ [1, e] fijo
Observación 27.
z ∈ [1, e]
FZ (z)
=
=
=
=
⇔
⇔
1≤z≤e
0 ≤ ln z ≤ 1
P [Z ≤ z]
P [exp[X] ≤ z]
P [X ≤ ln z]
Z ln z
1 · dt = ln z
0
34
Conclusión Si z ∈ [1, e], entonces
FZ (z) = ln z
⇒
fZ (z)
=
=
fZ (z) =

1
z
0
35
FZ′ (z)
1
z
si z ∈ [1, e]
en otro caso
Ejemplo 32. Sea X ∼ U [−1, 1]. Hallar la densidad de Y = 5X3 + 3
Solución 28. a) Determinar el rango de Y
Y[Ω] = [−2, 8]
Observación 29. fuera de es este rango mide 0
b) Sea y ∈ [−2, 8] fijo
Observación 30.
y ∈ [−2, 8]
⇔
⇔
⇔
FY (y)
=
=
=
=
=
−2 ≤ y ≤ 8
−5 ≤ y − 3 ≤ 5
y−3
−1 ≤
≤1
5
P [Y ≤ y]
P [5X3 + 3 ≤ y]
–
»
y−3
P X3 ≤
5
"
#
r
3 y − 3
P X≤
5
Z
q
3 y−3
5
0
36
1
1
· dt =
2
2
r
3
y−3
5
Conclusión Si y ∈ [−2, 8]\{3}, entonces
FY (y) =
1
2
„
(y − 3)
5
«1
3
⇒
fY (y)
=
=
fY (y) =
8
<
1
30
: 0
FY′ (y)
„
«2
1 (y − 3) 3
30
5
“
(y−3)
5
”2
3
si y 6= 3
si y ∈ (2, 3) ∪ (3, 6]
en otro caso
PROBLEMA 31. Supóngase que X tiene densidad

2x si 0 < x < 1
f (x) =
0
en otro caso
Encuentre las densidades de
a) Y = 3X + 1
b) Z = e−X
37
3.0.8. Densidades de la suma y del producto de variables
aleatorias independientes
Sean Z := X + Y
Densidad de la suma
FZ (z)
=
=
=
=
P [Z ≤ z]
z fijo
P [X + Y ≤ z]
Z Z
fX (x, y)dydx
x+y≤z
Z Z
f (x) · g(y)dydx
independencia
x+y≤z
=
=
=
=
Z
Z
Z
+∞
−∞
+∞
„Z
z−x
−∞
f (x)
−∞
+∞
f (x)
−∞
Z z
−∞
„Z
„Z
„Z
+∞
−∞
«
f (x) · g(y)dy dx
z−x
«
g(y)dy dx
−∞
z
−∞
«
g(u − x)du dx
«
f (x)g(u − x)dx du
cambio de variable: u = y + x
T. Fubini
⇒
R +∞
FZ′ = −∞ f (x)g(z − x)dx
∴
convolución:
fX+Y (z) =
38
Z
+∞
−∞
f (x)g(z − x)dx
Ejemplo 33. Sean X ∼ exp(λ1 ), Y ∼ exp(λ2 ). Suponga que X y
Y son independientes y que λ1 6= λ2
Hallar fX+Y
f (x) =

λ1 e−λ1 x
0
si x ≥ 0
en otro caso
g(y) =

λ2 e−λ2 y
0
si y ≥ 0
en otro caso

≥0
≥x
entonces
x
z
pues y = z − x ≥ 0
(X + Y)[Ω] = [0, ∞)
Sea z ∈ [0, +∞)
fX+Y (z)
=
=
Z
z
λ1 e−λ1 x · λ2 e−λ2 (z−x) dx
Z z
e−x(λ1 −λ2 ) dx
λ1 λ2 e−λ2 z
convolución
0
0
=
=
”
λ1 λ2 −λ2 z “ −z(λ1 −λ2 )
e
−
e
−1
λ1 − λ2
”
λ1 λ2 “ −λ1 z
− e−λ2 z
e
λ2 − λ1
39
Densidad del producto
fX·Y (z) =
Z
+∞
−∞
f (x) · g(z/x)
1
dx
|x|
Ejemplo 34. Supóngase que X y Y tienen densidades
f (x) =
g(y) =


2x
0
y 2 /9
0
si 0 < x < 1
en otro caso
si 0 < y < 3
en otro caso
respectivamente
Suponiendo X y Y independientes encuentre fX·Y

0<y<3
1
z<x
3
X · Y = [0, 3]
40
pues y =
z
x
<3
(2)
Sea z ∈ (0, 3)
fX·Y (z)
Z
=
1
1z
3
2 2
z
9
=
2x ·
z2 1 1
dx
x2 9 x
Z
dx
x2
1
1z
3
„
«
2 2 3
z
−1
9
z
´
2`
3z − z 2
9
=
=
Ejemplo 35. Sean
I : f (i)
=

R : g(r)
=

6i(1 − i)
0
2r
0
si 0 ≤ i ≤ 1
en otro caso
si 0 < r < 1
en otro caso
I, R independientes
Hallar la densidad de W = I 2 · R
I 2 [Ω] = [0, 1]
41
FI 2 (z)
=
=
=
P [I 2 ≤ z]
√
P [I ≤ z]
√
Z z
6i(1 − i)di
0
Z
√
z
idi − 6
=
6
=
3z − 2z 3/2
0
Z
√
z
i2 di
0
entonces
fI 2 (i) = FI′ 2 (i) =
por otro lado

FI 2 ·R
=
=
=
=

0≤i≤1
z<i
Z
3 − 3i1/2
0
pues r =
si 0 ≤ i ≤ 1
en otro caso
z
i
<1
1
z 1
usando 2
(3 − 2i1/2 )(2 ) di
i |i|
z
Z 1
Z 1
1
i−3/2 di
di − 4z
6z
2
z
z i
(6 − 6z) + (8z − 8z (1/2) )
√
2z − 8 z + 6
42
3.1.
ESPERANZA Y VARIANZA
3.1.1.
Esperanza
Definición 14. Sea X una variable aleatoria (discreta o continua). Se
define la esperanza como
8 P
X discreta
<
k kP [X = k],
E[X] :=
R
: ∞
xfX (x)dx, X continua
−∞
Observación 32. La esperanza de X se define solo si
X
|k|P [X = k] < +∞
k
ó
Z
∞
−∞
|x|fX (x)dx < +∞
Ejemplo 36. Encuentra E[X] en los casos siguientes:
a) X ∼ B(n, p)
E[X]
=
=
=
n
X
k=0
n
X
k=1
n
X
k=1
=
kCkn pk (1 − p)n−k
k
n!
pk (1 − p)n−k
k!(n − k)!
n(n − 1)!
pk (1 − p)n−k
(k − 1)!(n − k)!
(np)
n
X
k=1
=
(np)
n−1
X
z=0
=
(np)
=
np
n−1
X
z=0
(n − 1)!
pk−1 (1 − p)n−k
(k − 1)!(n − k)!
(n − 1)!
pz (1 − p)n−(z+1)
z!((n − 1) − z)!
Czn−1 pz (1 − p)(n−1)−z
Conclusión
Si X ∼ B(n, p) ⇒ E[X] = np
b) X ∼ U [a, b]
43
cambio de variable: z = k − 1
E[X]
=
=
=
=
=
Z
Z
+∞
xfX (x)dx
−∞
b
1
dx
b
−
a
a
Z b
1
xdx
b−a a
x
b 2 − a2
2(b − a)
a+b
2
Conclusión
Si X ∼ U [a, b] ⇒ E[X] =
a+b
2
`
´
Ejemplo 37. X ∼ B 3, 12
plo 7)
⇒
(veáse ejem-
E[X] =
44
3
2
3.1.2.
Varianza
Definición 15. Sea X una variable aleatoria (discreta o continua) con
esperanza E[X]. Se define la varianza de X como:
8 P
2
X discreta
<
k (k − E[X]) P [X = k],
var(X) :=
: R∞
(X − E[X])2 fX (x)dx, X continua
−∞
Observación 33. var(X) ≥ 0
Ejemplo 38. Hallar var(X) en los casos:
a) X ∼ B(n, p)
var(X)
=
=
=
=
=
n
X
(k − np)2 P [X = k]
k=0
n
X
k=0
n
X
k=0
n
X
k=2
n
X
k=2
=
=
k2 P [X = k] − 2np
n
X
k=1
k2 P [X = k] − (np)2
k(k − 1)
P [X = k]
k=1
por problema 36
n(n − 1)p2
n(n − 1)p2
n!
p2 pk−2 (1 − p)n−k + np − (np)2
k!(n − k)!
n
X
k=2
n−2
X
z=0
n−2
X
(n − 2)!
pk−2 (1 − p)n−k + np − (np)2
(k − 2)!(n − k)!
(n − 2)!
pz (1 − p)n−2−z + np − (np)2
z!((n − 2) − z)!
Czn−z pz (1 − p)(n−2)−z + np − (np)2
n(n − 1)p2
=
n(n − 1)p2 + np − (np)2
=
n
X
k(k − 1)Ckn pk (1 − p)n−k + np − (np)2
=
=
kP [X = k] + (np)2
z=0
(np)2 − np2 + np − (np)2
np(1 − p)
Conclusión
Si X ∼ B(n, p) ⇒ var(X) = np(1 − p)
b) X ∼ U [a, b]
45
c.v: z = k − 2
var(X)
=
=
=
=
=
=
=
=
„
«2
a+b
x−
fX (x)dx
2
−∞
Z +∞
Z +∞
(a + b)2
x2 fX (x)dx − (a + b)
xfX (x)dx +
4
−∞
−∞
Z b
2
2
(a + b)
(a + b)
1
dx −
+
x2
b
−
a
2
4
a
Z
+∞
(a + b)2
1
(b3 − a3 ) −
3(b − a)
4
(a + b)2
(b − a)(b2 + ab + a2 )
−
3(b − a)
4
4b2 + 4ab + 4a2 − 3a2 + 6ab − 3b2
12
b2 − 2ab + a2
12
(b − a)2
12
Conclusión
Si X ∼ U [a, b] ⇒ var(X) =
(b−a)2
12
cuadro de esperanzas y varianzas
variable aleatoria
B(n, p)
G(p)
P(λ)
H(N, M, n)
U [a, b]
exp(λ)
N (µ, σ 2 )
Esperanza
np
1/p
λ
M
n
N
a+b
2
1/λ
µ
46
Varianza
np(1 − p)
1−p
pz
λ
M N −n
(1
−
)
nM
N
N N −1
(b−a)2
12
2
1/λ
σ2
3.1.3.
Esperanza de funciones de variables aleatorias
Definición 16. Supongamos Y := g ◦ X = g(X), entonces
8 P
Y discreta
<
k∈Y[Ω] kP [Y = k],
E[Y] = E[g(X)] =
: R∞
yfY (y)dy,
Y continua
−∞
Ejemplo 39. Sea X ∼ U [−1, 1]
Hallar E[X2 ]
(Y = X2 )
obtención de la densidad de Y:
1◦ Y[Ω] = [0, 1]
2◦ Sea y ∈ [0, 1] fijo
FY (y)
P [Y ≤ y]
=
P [X2 ≤ y]
√
√
P [− y ≤ X ≤ y]
√
Z y
1
2
dx
2
0
√
y
=
=
=
=
Observación 34.
y ∈ [0, 1]
⇔
⇔
0≤y≤1
√
y≤1
0≤
√
y análogamente −1 ≤ − y ≤ 0
entonces
fY (y) =
8
<
:
E[Y]
=
=
1
√ ,
2 y
0,
en otro caso
Z
+∞
yfY (y)dy
−∞
Z 1
1
y √ dy
2 y
Z 1
1
1
lı́m
y 2 dy
2 ǫ→0 ǫ
1 2
· lı́m (1 − ǫ3/2 )
2 3 ǫ→0
1
3
0
=
=
=
0<y≤1
47
Teorema 2. Supongamos Y = g(X), entonces
E[Y] = E[g(X)] :=
8 P
<
k∈X[Ω] g(k)P [X = k],
: R∞
−∞
Ejemplo 40.
E[Y]
=
=
=
=
g(x)fX (x)dx,
X discreta
X continua
E[X2 ]
Z +∞
x2 fX (x)dx
Z
−∞
1
−1
1
x2 dx
2
1
3
Observación 35.
var(X)
:=
8 P
2
<
k (k − E[X]) P [X = k],
: R∞
−∞
=
X continua
2
E[(X − E[X]) ]
(g(x) = (x − E[X])2 ,
3.1.4.
rios
(X − E[X])2 fX (x)dx,
X discreta
x ∈ R)
Esperanza asociada a funciones de vectores aleato-
Teorema 3. Supongamos X = g(X, Y), entonces
E[g(X, Y)] :=
8 P P
<
x
y g(x, y)P [X = x, Y = y],
: R∞ R∞
−∞
−∞
g(x, y)fX (x, y)dxdy,
48
X, Y discreta
(X, Y) continua
3.1.5.
Propiedades de la Esperanza
1. Si X = c, entonces
E[X] = c
Observación 36. X = c
⇔
X[Ω] = {c}
P [X = c] = 1
2. Si c es constante, entonces
E[cX] = cE[X]
3. E[X + Y] = E[X] + E[Y]
Demostración. Sea
g(x, y) = x + y,
∀(x, y) ∈ R2
y supongase que (X, Y) es un vector continuo con densidad fX
X + Y = g(X, Y)
⇒
E[X + Y]
=
=
=
=
=
=
=
E[g(X, Y)]
Z +∞ Z +∞
−∞
Z +∞
Z
Z
−∞
+∞
−∞
+∞
−∞
Z +∞
Z
−∞
+∞
−∞
x
−∞
Z +∞
„Z
(x + y)fX (x, y)dxdy
xfX (x, y)dxdy +
xfX (x, y)dydx +
Z
Z
+∞
−∞
+∞
y
−∞
« Z
+∞
fX (x, y)dydx +
−∞
xfX (x)dx + E[Y]
Z
+∞
−∞
„Z
+∞
yfX (x, y)dxdy
+∞
−∞
yfY (y)dy
−∞
por definición de densidad marginal y esperanza
−∞
E[X] + E[Y]
4. Sean X y X variables aleatorias independientes, entonces
E[X · Y] = E[X] · E[Y]
49
«
fX (x, y)dx dy
Demostración. Sea
g(x, y) = x · y,
∀(x, y) ∈ R2
y supóngase que (X, Y) es un vector continuo con densidad fX
X · Y = g(X, Y)
⇒
E[X · Y]
=
E[g(X, Y)]
Z +∞ Z +∞
=
−∞
Z +∞
=
Z
=
=
−∞
y
−∞
E[X]
Z
„Z
x · yfX (x, y)dxdy
x · yfX (x)fY (y)dxdy
pues X y Y son independientes
«
+∞
xfX (x)dx fY (y)dy
−∞
+∞
yfY (y)dy
−∞
E[X] · E[Y]
=
3.1.6.
−∞
+∞
−∞
Z +∞
Propiedades de la Varianza
var(X) := E[(X − E[X])2 ]
1. Sea c es constante
Entonces
var(X + c) = var(X)
Demostración.
var(X + c)
=
=
=
=
E[(X + c − E[X + c])2 ]
E[(X + c − E[X] − c)2 ]
E[(X − E[X])2 ]
var(X)
2. Sea c una constante
Entonces
var(cX) = c2 var(X)
50
Demostración.
var(cX)
=
=
=
=
E[(cX − E[cX])2 ]
E[(cX − cE[X])2 ]
c2 E[(X − E[X])2 ]
c2 var(X)
3. Sean X y X variables aleatorias independientes, entonces
var(X + Y) = var(X) + var(Y)
Demostración.
var(X + Y)
=
=
=
=
=
=
E[((X + Y) − E[X + Y])2 ]
E[(X − E[X]) + (Y − E[Y])2 ]
var(X) + 2E[(X − E[X])(Y − E[Y])] + var(Y)
var(X) + var(Y) + 2(E[XY] − E[X]E[Y] − E[X]E[Y] + E[X]E[Y])
var(X) + var(Y) + 2(E[XY] − E[X]E[Y])
var(X) + var(Y)
51
Ejemplo 41. Suponga que X y Y son variables aleatorias independientes
con densidades:
f (x) = x83 , x > 2;
g(y) = 2y, 0 < y < 1
a) Encuentre la densidad de Z = XY
primero observe que
z
z = xy ⇒ y =
x
de donde 0 < y < 1 ⇒ 0 < z < x
f (x) =
8
<
8
x3
:
g(y) =
0
8
< 2y
:
si x > 2
en otro caso
si 0 < z < x
0
en otro caso
Sea z ∈ [0, ∞]
fXY (z)
=
=
Z
Z2 ∞
2
=
=
Sea z ∈ [2, ∞]
52
∞
„ «
1
8 2z
dx
x3 x |x|
16z
dx
x5
16z
4(2)4
z
4
fXY (z)
Z
=
∞
Zz ∞
=
z
„ «
1
8 2z
dx
x3 x |x|
16z
dx
x5
4
z3
=
por lo tanto
8
<
fXY (z) =
:
b) Obtenga E[Z] de dos maneras:
z
4
si 0 ≤ z < 2
4
z3
si z > 2
i) Usando la densidad de Z
E[Z]
Z
=
+∞
zfZ (z)dz
−∞
Z 2
=
z
z dz +
4
0
1
4
8
3
=
=
Z
2
2
Z
+∞
z
2
z dz + 4
0
Z
4
dz
z3
+∞
z −2 dz
2
ii) Directamente, sin usar la densidad de Z
E[Z]
=
E[XY]
=
E[X]E[Y]
„Z ∞
« „Z 1
«
8
x 3 dx
y(2y)dy
x
2
0
„ Z ∞
«„ Z 1
«
−2
8
x dx
2
y 2 dy
=
=
2
=
8
3
53
0
Ejemplo 42. Suponga que X es una variable aleatoria tal que E[X] = 10
y var(X) = 25
¿Para que valores positivos de a y de b tiene Y = aX − b esperanza
cero y varianza 1?
1
=
=
var(Y)
var(aX − b)
=
var(aX)
=
a2 · var(X)
=
a2 · 25
entonces
a=
0
1
5
=
E[Y]
=
E[aX − b]
=
=
a · E[X] − b
1
· 10 − b
5
entonces
b=2
54
3.1.7.
Desigualdad de Chebyschev
Sea X una variable aleatoria con esperanza y varianza, ambas finitas.
Entonces para cada δ > 0, se cumple
P [|X − E[X]| < δ] ≥ 1 −
var(X)
δ2
(3)
Observación 37.
1−
var(X)
≤ P [|X − E[X]| < δ] ≤ 1
δ2
Demostración. Supongase que X es continua
var(X)
=
=
=
E[(X − E[X])2 ]
Z +∞
(X − E[X])2 fX (x)dx
−∞
Z
Z
(X − E[X])2 fX (x)dx +
{x:|X−E[X]|<δ}
≥
=
Z
{x:|X−E[X]|≥δ}
Z
{x:|X−E[X]|≥δ}
(X − E[X])2 fX (x)dx
{x:(X−E[X])2 ≥δ 2 }
≥
=
δ2
(X − E[X])2 fX (x)dx
(X − E[X])2 fX (x)dx
Z
fX (x)dx
{x:(X−E[X])2 ≥δ 2 }
δ2
Z
fX dx
{x:P [(X−E[X])2 ≥δ 2 ]}
=
δ2
Z
fX dx
{x:P [|X−E[X]|≥δ]}
=
=
δ 2 P [|X − E[X]| ≥ δ]
δ 2 (1 − P [|X − E[X]| < δ])
⇒
P [|X − E[X]| < δ] ≥ 1 −
var(X)
δ2
Observación 38. Sea X una variable aleatoria tal que var(X) = 0. Entonces X ≡ E[X]
55
3.1.8.
Ley debil de los grandes números
Sean X1 , X2 , . . . variables aleatorias independientes e identicamente
distribuidas
Supongase que X1 tiene esperanza y varianza finitas. Denotemos, para
cada n = 1, 2, 3, . . .
Sn := X1 + X2 + · · · + Xn
Entonces para cada δ > 0 tenemos
˛
»˛
–
˛ Sn
˛
lı́m P ˛˛
− E[X1 ]˛˛ < δ = 1
n→∞
n
(para n grande
Sn
n
≈ E[X1 ])
Demostración. Note que para n = 1, 2, . . .
E[Sn ] = E[X1 + · · · + Xn ] = n · E[X1 ]
var(Sn ) = var(X1 + · · · + Xn ) = n · var(X1 )
Entonces, dado δ > 0
˛
»˛
–
˛ Sn
˛
˛
P ˛
− E[X1 ]˛˛ < δ
n
=
≥
=
=
P [|Sn − n · E[X1 ]| < n · δ]
var(Sn )
usando la desigualdad de chebyschev
n2 δ 2
n · var(X1 )
1−
n2 · δ 2
var(X1 )
1−
n · δ2
1−
por tanto, para cada n = 1, 2, . . .
˛
–
»˛
˛ Sn
˛
var(X1 )
1 ≥ P ˛˛
− E[X1 ]˛˛ < δ ≥ 1 −
n
n · δ2
se sigue entonces que cuando n → ∞:
˛
»˛
–
˛ Sn
˛
lı́m P ˛˛
− E[X1 ]˛˛ < δ = 1
n→∞
n
56
3.1.9.
Ley fuerte de los grandes números
Sean X1 , X2 , . . . variables aleatorias independientes e identicamente
distribuidas
Supongase que X1 tiene esperanza finita
Entonces,
( Snn
Sn
→ E[X1 ]
n
≈ E[X1 ], para n grande)
con probabilidad 1
Observación 39. Supongase que X ∼ B(1, p), Y ∼ B(1, p), y que X y Y
son independientes
¿Cuál es la distribución probabilistica de X + Y?
(X + Y)[Ω] = {0, 1, 2}
P [X + Y = 0]
=
P [X = 0, Y = 0]
=
(P [X = 0])2
=
(1 − p)2
C02 p0 (1 − p)2
=
P [X + Y = 1]
=
=
P [X + Y = 2]
2P [X = 0] · P [Y = 1]
C12 p(1 − p)
=
C22 p2 (1 − p)0
∴ X + Y ∼ B(2, p)
Observación 40. En general es posible demostrar por inducción que:
Si X1 , X2 , . . . , Xn son independientes y Xi ∼ B(1, p), ∀i = 1, 2, . . . , n,
entonces
X1 + X2 + · · · + Xn ∼ B(n, p)
57
Ejemplo 43 (frecuencia relativa). Sea ǫ un experimento aleatorio con
espacio de probabilidad (Ω, F, P )
Sea A un evento tal que p = P [A]
Para cada i = 1, 2, . . . , n sea Xi ∼ B(1, p) y suponga que X1 , X2 , . . . , Xn
son variables independientes.
observe que:
E[Xi ] = p
Sn
n
∀i = 1, 2, . . . , n
X1 +X2 +···+Xn
n
=
(frecuencia relativa de A)
pues Sn = X1 + X2 + · · · + Xn ∼ B(n, p)
por la ley de los grandes números
Sn
→ p = P (A),
n
3.1.10.
con probabilidad 1
Teorema Limite Central (Forma Clásica)
Teorema 4 (Teorema Limite Central). Sean X1 , X2 , . . . variables independientes identicamente distribuidas.
Supongase que X1 tiene esperanza y varianza finitas, con var(X1 ) > 0
Entonces
"
#
Z x
t2
Sn − E[Sn ]
1
lı́m P p
≤x = √
e− 2 dt
n→∞
2π −∞
var(Sn )
x ∈ R, Sn := X1 + · · · + Xn ,
n = 1, 2, . . .
Observación 41. En pocas palabras el teorema dice que si n es grande,
Sn − E[Sn ]
p
≈ X∗
var(Sn )
Observación 42. El teorema anterior se puede interpretar para X∗ ∼
N (0, 1) como sigue:
#
"
Sn − E[Sn ]
≤ x = P [X∗ = x]
lı́m P p
n→∞
var(Sn )
Observación 43. var(X) = 0 ⇒ X constante
Observación 44.
"
#
Sn − E[Sn ]
E p
var(Sn )
=
=
=
1
p
E[Sn − E[Sn ]]
var(Sn )
1
p
(E[Sn ] − E[Sn ])
var(Sn )
0
58
var
Sn − E[Sn ]
p
var(Sn )
!
=
=
=
1
p
var(Sn − E[Sn ])
var(Sn )
1
p
var(Sn )
var(Sn )
1
Observación 45. Si X ∼ B(n, p), entonces para poder aplicar el teorema
se debe satisfacer tambien lo siguiente:
X = Sn = X1 + · · · + Xn
Xi ∼ B(1, p),
∀i = 1, 2, . . . , n
X1 , . . . , Xn son independientes
Ejemplo 44 (Aproximacion normal a la Binomial). Sea X ∼ B(900, 12 )
entonces
E[X] = (900)( 21 ) = 450
var(X) = (900)( 21 )(1 − 21 ) = 225
X = S900 por observación 40
P [X ≥ 500]
=
=
≈
=
P [400 ≤ X ≤ 500]
=
=
=
P [X = 420]
=
=
=
=
=
=
P [S900 ≥ 500]
"
#
S900 − E[S900 ]
500 − 450
p
√
P
≥
225
var(S900 )
P [X∗ ≥ 3,33]
0,0004
P [400 ≤ S900 ≤ 500]
#
"
S900 − E[S900 ]
500 − 450
400 − 450
√
≤ √
P
≤ p
225
225
var(S900 )
0,9992
P [419,5 ≤ X ≤ 420,5]
–
»
420,5 − 450
419,5 − 450
∗
√
√
≤X ≤
P
225
225
∗
P [−2,63 ≤ X ≤ −1,96]
φ(2,03) − φ(1,96)
0,4788 − 0,4750
0,0638
59
PROBLEMA 46. Al sumar números, una computadora aproxima cada
número al entero mas próximo. Supongase que todos los errores de aproximación son independientes y que están distribuidos uniformemente en
[-0.5,0.5]. Si se suman 1500 números, ¿cuál es la probabilidad de que el
valor absoluto del error total exceda a 15?
Solución 47.
8
< Xi = errores de aproximación
:
Xi ∼ U [−0.5, 0.5]
i = 1, 2, . . . , 1500
∀i = 1, 2, . . . , 1500
S1500 = X1 + · · · + X1500
P [|S1500 | > 15]
=
≈
=
=
=
=
P [S1500 > 15] + P [S1500 < −15]
15 − 0
−15 − 0
P [X∗ >
] + P [X∗ <
]
11.18
11.18
P [X∗ > 1,341] + P [X∗ < −1,341]
2P [X∗ > 1,341]
«
„
1
− φ(1,341)
2
2
0.1802
PROBLEMA 48. Supongase que los tiempos de espera para los clientes
que pasan por una caja registradora a la salida de una tienda son variables
aleatorias independientes e identicamente distribuidas con esperanza 1.5
minutos y varianza 1.0
Aproxime la probabilidad de que se pueda atender a 100 clientes en
menos de 120 minutos.
Solución 49.
Xi = tiempo de espera del i-esimo cliente
i = 1, 2, . . . , 100
S100 = X1 + · · · + X100
P [S100 ≤ 120]
≈
=
=
=
120 − 150
]
10
∗
P [X ≤ 3]
1
+ φ(3)
2
0.9974
P [X∗ ≤
60
PROBLEMA 50. Supongase que tenemos 20 voltajes vi , i = 1, 2, . . . , 20
con ruido independiente
P que se reciben en lo que se llama un ”sumador
de voltaje”. Sea V = 20
i=1 vi donde se supone que vi ∼ U [0, 10] para toda
i = 1, . . . , 20
Aproxime P [V > 105]
Solución 51.
8
< Xi = voltajes con ruido
S20 = V
:
Xi ∼ U [0, 10]
P [V > 105]
=
≈
=
=
=
i = 1, 2, . . . , 20
∀i = 1, 2, . . . , 20
P [S20 > 105]
105 − 100
P [X∗ >
]
12.90
∗
P [X > 0.3875]
1
− φ(0,3875)
2
0.352
61
PROBLEMA 52. a) Sea c una constante y X una variable aleatoria
con E[X] = µ y var(X) = σ 2
Demuestre que
E[(X − c)2 ] = (µ − c)2 + σ 2
b) Supongase que E[(X − c)2 ] se piensa como función de c,
es decir
g(c) = E[(X − c)2 ],
c∈R
¿Para que valor de c, g alcanza su mı́nimo?
Solución 53. a)
E[(X − c)2 ]
=
=
=
=
E[X2 ] − 2cµ + c2 + µ2 − µ2
(µ − c)2 + (E[X2 ] − µ2 )
(µ − c)2 + (E[X2 − (E[X])2 ])
(µ − c)2 + var(X)
b) c = µ
PROBLEMA 54. Construya un ejemplo de una distribución de probabilidad cuya esperanza exista pero su varianza no (es decir esperanza finita
y varianza infinita)
Observación 55. Sea X una variable aleatoria tal que la función de
probabilidad puntual esta definida según la siguiente regla:
P [X = n] =
1 1
,
π / 6 n2
n=
entonces
E[X]
=
+∞
X
n=1
=
+∞
X
n=1
=
=
n · P [X = n]
n·
1 1
π 2 /6 n2
+∞
1 X1
π 2 /6 n=1 n
+∞
62
1, 2, . . .
| {z }
rango de X
Observación 56.
Sn − E[Sn ]
p
var(Sn )
1
(Sn − E[Sn ])
n
p
1
var(Sn )
n
Sn
− E[ Snn ]
n
=
=
q
1
var(Sn )
n2
− E[ Snn ]
q
var( Snn )
Sn
n
=
X∗
≈
para n grande
Ejemplo 45. Supongase que un instrumento electrónico tiene una duración T que está distribuida exponencialmente con parametro λ =0.001
Si se prueban 100 de tales instrumentos (lo que da valores observados:
T1 , . . . , T100 )
¿Cuál es la probabilidad de que 950 < T < 1100?
Observación 57. T =
E[T]
T1 +···+T100
100
=
=
=
=
=
=
q
var(T)
=
=
=
=
=
=
E
»
T1 + · · · + T100
100
–
1
E[T1 + · · · + T100 ]
100
100
E[T1 ]
100
E[T1 ]
1
λ
1000
s
var
„
T1 + · · · + T100
100
«
1 p
var(T1 + · · · + T100 )
100
10 p
var(T1 )
100
r
1
1
10 λ2
„
«
1
1
10 0,001
100
Observación 58. Se supuso que T1 , . . . , T100 son independientes
63
P [950 < T < 1100]
»
1100 − 1000
950 − 1000
∗
<T <
100
100
≈
P
=
P [−0,5 < T < 1]
=
0,5328
∗
–
PROBLEMA 59. Sean X1 , X2 , . . . variables independientes identicamente distribuidas
Supongase que E[X1 ] = λ y que var(X1 ) = q
Utilice el teorema lı́mite central para determinar el menor valor de n
para el cual
˛
»˛
–
˛ Sn
˛
˛
˛
P ˛
− λ˛ < 0,3 ≥ 0,95
n
donde Sn := X1 + · · · + Xn
64
Áreas bajo la curva
normal estándar
de 0 a z
z
0.0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1.0
1.1
1.2
1.3
1.4
1.5
1.6
1.7
1.8
1.9
2.0
2.1
2.2
2.3
2.4
2.5
2.6
2.7
2.8
2.9
3.0
3.1
3.2
3.3
3.4
3.5
0
.0000
.0000
.0000
.1179
.1179
.1179
.2258
.2258
.2258
.3159
.3159
.3159
.3159
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
2
.0040
.0040
.0040
.1217
.1217
.1217
.2291
.2291
.2291
.3186
.3186
.3186
.3186
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
2
.0080
.0080
.0080
.1255
.1255
.1255
.2324
.2324
.2324
.3212
.3212
.3212
.3212
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
3
.0120
.0120
.0120
.1293
.1293
.1293
.2357
.2357
.2357
.3238
.3238
.3238
.3238
.4988
.4988
.4988
.4988
.4988
.4988
.4988
.4988
.4988
.4988
.4988
.4988
.4988
.4988
.4988
.4988
.4988
.4988
.4988
.4988
.4988
.4988
.4988
65
4
.0160
.0160
.0160
.1331
.1331
.1331
.2389
.2389
.2389
.3264
.3264
.3264
.3264
.4988
.4988
.4988
.4988
.4988
.4988
.4988
.4988
.4988
.4988
.4988
.4988
.4988
.4988
.4988
.4988
.4988
.4988
.4988
.4988
.4988
.4988
.4988
5
.0199
.0199
.0199
.1368
.1368
.1368
.2422
.2422
.2422
.3289
.3289
.3289
.3289
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
6
.0239
.0239
.0239
.1406
.1406
.1406
.2454
.2454
.2454
.3315
.3315
.3315
.3315
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
7
.0279
.0279
.0279
.1443
.1443
.1443
.2486
.2486
.2486
.3340
.3340
.3340
.3340
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
8
.0319
.0319
.0319
.1480
.1480
.1480
.2518
.2518
.2518
.3365
.3365
.3365
.3365
.4990
.4990
.4990
.4990
.4990
.4990
.4990
.4990
.4990
.4990
.4990
.4990
.4990
.4990
.4990
.4990
.4990
.4990
.4990
.4990
.4990
.4990
.4990
9
.0359
.0359
.0359
.1517
.1517
.1517
.2549
.2549
.2549
.3389
.3389
.3389
.3389
.4990
.4990
.4990
.4990
.4990
.4990
.4990
.4990
.4990
.4990
.4990
.4990
.4990
.4990
.4990
.4990
.4990
.4990
.4990
.4990
.4990
.4990
.4990
PROBABILIDAD
CONDICIONAL
Sea ǫ un experimento con espacio muestral Ω
Proposición 4.
P (Ac ) = 1 − P (A)
para todo evento A
Proposición 5.
P (B\A) = P (B) − P (A ∩ B)
Proposición 6.
P (A ∪ B) = P (A) + P (B) − P (A ∩ B)
Observación 60. En general
P (A1 ∪A2 ∪· · ·∪An ) =
n
X
P (Ak )−
k=1
X
i<k
Definición 17.
P (A|B) :=
P (Ai ∩Aj )+
X
i<k<j
P (Ai ∩Ak ∩Aj )−· · ·+(−1)n−1 P (A1 ∩· · ·∩An )
P (A ∩ B)
P (B)
Teorema 5 (Teorema de la multiplicación). Sean A1 , A2 , . . . , Am eventos
tales que P (A1 ∩ · · · ∩ Am ) > 0. Entonces
P (A1 ∩· · ·∩Am ) = P (A1 )·P (A2 |A1 )·P (A3 |A1 ∩A2 ) · · · P (Am |A1 ∩A2 ∩· · ·∩Am−1 )
Definición 18. Diremos que los eventos A1 , . . . , An forman una partición
de Ω si
a) Ai ∩ Aj = ∅ si i 6= j
b) Ω = A1 ∪ A2 ∪ · · · ∪ An
c) P (Ai ) > 0
∀i = 1, . . . , n
Teorema 6 (Teorema de la probabilidad total). Sea {Ai }n
i=1 una partición de Ω. Entonces, si A es un evento tenemos que
P (A) =
n
X
P (A|Ai )P (Ai )
i=1
Demostración. A = (A ∩ A1 ) ∪ (A ∩ A2 ) ∪ · · · ∪ (A ∩ An )
entonces
P (A) =
n
X
i=1
P (A ∩ Ai ) =
66
n
X
i=1
P (A|Ai ) · P (Ai )
Teorema 7 (Fórmula de Bayes). Supongase las hipótesis del Teorema
anterior. Sea Ak un elemento de la partición y sea A un evento, con
P (A) > 0. Entonces
P (Ak |A) =
P (Ak ∩ A)
P (A|Ak ) · P (Ak )
= Pn
P (A)
i=1 P (A|Ai ) · P (Ai )
Ejemplo 46. Un motor V8 de autómovil tiene tres soportes independientes, cuyas probabilidades de romperse en un lapso de 8 años son, respectivamente, 0.2, 0.4 y 0.3 %. Si el conductor del vehı́culo percibe el ruido
caracterı́stico de dos soportes quebrados, halle la probabilidad de que se
hayan roto los soportes primero y segundo.
Llamemos pi la probabilidad de que se haya roto el soporte i y qi la
probabilidad de que no se haya roto el soporte i
B1
=
B2
=
B3
=
p1
=
0,2
p2
=
0,4
p3
=
0,3
{ se rompieron 1 y 2 pero no el 3}
{ se rompieron 1 y 3 pero no el 2}
{ se rompieron 2 y 3 pero no el 1}
P (B1 )
=
p1 p2 q3
P (B2 )
=
p1 q2 p3
P (B3 )
=
q1 p2 p3
Sea A = {se rompieron 2 soportes}
P (A) =
3
X
P (Bi ) = 0,1880
i=1
Aplicando Bayes obtenemos:
P (B1 |A)
=
=
=
P (B1 )P (A|B1 )
P (A)
p1 p2 q3
P (A)
0,2978
67
Índice
1. VARIABLES ALEATORIAS DISCRETAS
1.1. Variable Aleatoria Binomial . . . . . . . . . . . . . . . . .
1.2. Variable Aleatoria de Poisson . . . . . . . . . . . . . . . .
1.3. Variable Aleatoria Geometrica . . . . . . . . . . . . . . . .
1.4. Función de distribucion acumulativa . . . . . . . . . . . .
1.4.1. Propiedades de la distribución acumulativa asociada
a una variable aleatoria discreta . . . . . . . . . .
1.5. Variable Aleatoria Hipergeometrica . . . . . . . . . . . . .
.
.
.
.
. 9
. 10
2. ESPACIOS DE PROBABILIDAD Y VARIABLES ALEATORIAS
2.1. VARIABLES ALEATORIAS CONTINUAS . . . . . . . . .
2.1.1. VARIABLES ALEATORIAS CONTINUAS DEFINIDAS MEDIANTE DENSIDADES . . . . . . . . .
2.2. Ejemplos de variables aleatorias continuas . . . . . . . . . .
3. VARIABLES ALEATORIAS (BIDIMENSIONALES)
3.0.1. Función de probabilidad puntual de X . . . . . . . .
3.0.2. Funciones de probabilidad puntual marginales . . . .
3.0.3. Funciones de probabilidad condicional . . . . . . . .
3.0.4. Vectores aleatorios generados por densidades . . . .
3.0.5. Densidades Marginales . . . . . . . . . . . . . . . . .
3.0.6. Densidades Condicionales . . . . . . . . . . . . . . .
3.0.7. Densidades de funciones de variable aleatoria . . . .
3.0.8. Densidades de la suma y del producto de variables
aleatorias independientes . . . . . . . . . . . . . . .
3.1. ESPERANZA Y VARIANZA . . . . . . . . . . . . . . . . .
3.1.1. Esperanza . . . . . . . . . . . . . . . . . . . . . . . .
3.1.2. Varianza . . . . . . . . . . . . . . . . . . . . . . . . .
3.1.3. Esperanza de funciones de variables aleatorias . . . .
3.1.4. Esperanza asociada a funciones de vectores aleatorios
3.1.5. Propiedades de la Esperanza . . . . . . . . . . . . .
3.1.6. Propiedades de la Varianza . . . . . . . . . . . . . .
3.1.7. Desigualdad de Chebyschev . . . . . . . . . . . . . .
3.1.8. Ley debil de los grandes números . . . . . . . . . . .
3.1.9. Ley fuerte de los grandes números . . . . . . . . . .
3.1.10. Teorema Limite Central (Forma Clásica) . . . . . . .
68
1
1
3
5
8
11
12
13
14
23
23
23
23
25
26
29
32
38
43
43
45
47
48
49
50
55
56
57
58
Descargar