Probabilidad Espacio muestral: es el conjunto de todos los resultados del experimento “Ω”.

Anuncio
Probabilidad
Espacio muestral: es el conjunto de todos los resultados del
experimento “Ω”.
Eventos: subconjunto del espacio muestral “A, B…”. pueden
ser simples o compuestos dependiendo de los resultados que
incluyan.
Sean A, B tal que 𝐴 ∩ 𝐵 = ∅ entonces se dice que son
mutuamente excluyentes o disjuntos
𝑷(𝑨 ∪ 𝑩) =
𝑷(𝑨) + 𝑷(𝑩) − 𝑷(𝑨 ∩ 𝑩)
𝒏!
Permutaciones: Pk,n = (𝒏−𝒌)!
𝒏!
Combinaciones: (𝒏𝒌) =
𝒌!(𝒏−𝒌)!
Probabilidad condicional: 𝑷(𝑨|𝑩) =
𝑷(𝑨∩𝑩)
𝑷(𝑩)
Regla de la multiplicación: 𝑷(𝑨 ∩ 𝑩) = 𝑷(𝑨|𝑩) 𝑷(𝑩)
Ley de probabilidad total: si A1,…,Ak son eventos
mutuamente excluyentes y exhautivos, entonces, para cualquier
otro evento B: 𝑷(𝑩) = ∑𝒌𝒊=𝟏 𝑷(𝑩|𝑨i) 𝑷(𝑨i)
Teorema de Bayes: 𝑷(𝑨i|𝑩) =
𝑷(𝑨𝒊∩𝑩)
𝑷(𝑩)
=
𝑷(𝑩|𝑨𝒊) 𝑷(𝑨𝒊)
∑𝒌
𝒋=𝟏 𝑷(𝑩|𝑨𝒋) 𝑷(𝑨𝒋)
Independencia: dos eventos A y B son independientes cuando:
𝑷(𝑨|𝑩) = 𝑷(𝑨) ⇔ 𝑷(𝑨 ∩ 𝑩) = 𝑷(𝑨)𝑷(𝑩)
Variables Aleatorias Discretas
Distribucion de probabilidad o función de probabilidad de masa de
una VA discreta esta definida para todo numero x por
p(x)=P(X=x)=P(toda s perteneciente a Ω : X(s)=x). las condiciones que
deben darse son: 𝒑(𝒙) ≥ 𝟎 y ∑∀𝒙 𝒑(𝒙) = 𝟏
Funcion de distribución acumulada: 𝑭(𝒙) = 𝑷(𝑿 ≤ 𝒙) = ∑𝒚:𝒚≤𝒙 𝒑(𝒚)
Esperanza: 𝑬(𝑿) = 𝝁x = ∑∀𝒙 𝒙 𝒑(𝒙)
𝑬(𝒉(𝒙)) = 𝝁h(x) = ∑∀𝒙 𝒉(𝒙) 𝒑(𝒙)
Para cualquier función lineal h(x), (aX+b) con a y b constantes
𝑬(𝒂𝑿 + 𝒃) = 𝒂𝑬(𝑿) + 𝒃 | 𝑬(𝒂𝑿) = 𝒂𝑬(𝒙) | 𝑬(𝑿 + 𝒃) =
𝑬(𝑿) + 𝒃
Varianza: 𝑽(𝑿) = 𝝈2x = ∑∀𝒙(𝑿 − 𝝁x)2 𝒑(𝒙) = 𝑬[(𝑿 − 𝝁)2]
𝑽(𝑿) = 𝑬(𝑿2) − [𝑬(𝑿)]2
𝑽[𝒉(𝑿)] = ∑∀𝒙{𝒉(𝑿) − 𝑬[𝒉(𝑿)]}2 𝒑(𝒙)
Para cualquier función lineal h(x), (aX+b) con a y b constantes
𝑽(𝒂𝑿 + 𝒃) = |𝒂| 𝝈X | 𝑽(𝒂𝑿) = |𝒂| 𝝈X | 𝑽(𝑿 + 𝒃) = 𝝈2X
Desviación estándar: 𝝈x = √𝝈2x
VA Binomial:
X = Numero de éxitos en n ensayos
X~Bin(n,p) donde n es el numero de ensayos y p la probabilidad de
éxito
𝑛
( ) 𝑝x(1 − 𝑝)n-x,
𝑥 = 1,2, … , 𝑛
𝑝(𝑥) = { 𝑘
0,
𝑐𝑐
𝝁x = 𝒏𝒑 | 𝝈2x = 𝒏𝒑(𝟏 − 𝒑)
VA Hipergeometrica:
X= numero de éxitos en la muestra de tamaño n, extraida de una
población de tamaño N, formada por M éxitos y (N-M) fracasos.
X~H(n,M,N) y 𝒑(𝒙) =
𝑵−𝑴
(𝑴
𝒙 )( 𝒏−𝒙 )
(𝑵
)
𝒏
max(0, 𝑛 − 𝑁 + 𝑀) ≤ 𝑥 ≤ min(𝑛, 𝑀)
𝐸(𝑋) = 𝑛
𝑀
𝑁
| 𝑉(𝑋) = (
𝑁−𝑛
𝑁−1
)𝑛
𝑀
𝑁
𝑀
(1 − )
𝑁
VA Poisson:
𝒑(𝒙) =
𝒆-λ 𝝀x
𝒙!
Para x=0,1,2,… y 𝜆 > 0
𝝁x = 𝝀 𝒚 𝝈2x = 𝝀
Aproximación a binomial: si n≥100 , p≤.01 y np≤20
Entonces X~Bin(n,p) → X~P(𝝀) con 𝝀 = 𝒏𝒑
VA Geometrica:
X= numero de ensayos hasta el primer éxito
X~Geom(p) y 𝒑(𝒙) = (𝟏 − 𝒑)x-1𝒑
𝟏
𝟏−𝒑
𝝁=
𝒀 𝝈2 =
𝒑
𝒑2
VA Binomial negativa:
X= numero de ensayos harta el r-esimo éxito
X~BinNeg(r,p) entonces 𝒑(𝒙) = (𝒙−𝟏
)𝒑r (𝟏 − 𝒑)x-r
𝒓−𝟏
𝝁=
y
𝒓
𝒑
Variables Cleatorias Continuas
Función de distribución de probabilidad o función de
densidad de probabilidad
𝒃
F(x) tal que 𝑷(𝒂 ≤ 𝑿 ≤ 𝒃) = ∫𝒂 𝒇(𝒙)𝒅𝒙
Condiciones: 𝒇(𝒙) ≥ 𝟎
𝒚
∞
∫−∞ 𝒇(𝒙)𝒅𝒙 = 𝟏
Funcion de distribución acumulada: 𝑭(𝒙) = 𝑷(𝑿 = 𝒙) =
𝒙
∫−∞ 𝒇(𝒚)𝒅𝒚
Distribución uniforme: X~U(A, B) 𝝈𝟐 =
(𝒃−𝒂)𝟐
𝟏𝟐
𝒚𝝁=
𝒃+𝒂
𝟐
𝟏
𝒇(𝒙) = {𝑩 − 𝑨 𝒔𝒊 𝑨 ≤ 𝒙 ≤ 𝑩
𝟎 𝒄𝒄
𝟎 𝒔𝒊 𝒙 < 𝐴
𝒙−𝑨
𝑭(𝒙) = {
𝒔𝒊 𝑨 ≤ 𝒙 ≤ 𝑩
𝑩−𝑨
𝟏 𝒔𝒊 𝒙 ≥ 𝑩
Percentiles: p є [0,1] el 100p percentil denotado por 𝜂(𝑝) es:
𝜼(𝒑)
𝒑 = 𝑭(𝜼(𝒑)) = ∫−∞ 𝒇(𝒚)𝒅𝒚
Mediana: 𝝁
̃ = 𝜼(. 𝟓)
∞
Valor esperado, media esperanza:𝝁x = 𝑬(𝑿) = ∫−∞ 𝒙 𝒇(𝒙)𝒅𝒙
Si X es va con pdf f(x) y h(x) es cualquier función de X:
∞
𝑬[𝒉(𝒙)] = ∫−∞ 𝒉(𝒙)𝒇(𝒙)𝒅𝒙
Si h(x) es una función lineal de X: 𝑬[𝒉(𝒙)] = 𝑬(𝒂𝑿 + 𝒃) =
𝒂𝑬(𝑿) + 𝒃
∞
Varianza:𝝈2 = 𝑽(𝑿) = ∫−∞(𝑥 − 𝜇) 2 𝑓(𝑥)𝑑𝑥 = 𝐸[(𝑥 − 𝜇)2] =
𝑬(𝑿2) − [𝑬(𝑿)]2
Desvió estándar: √𝝈2
Distribución normal: X~N (𝝁, 𝝈2)
Normal estándar: 𝜇 = 0, 𝜎2 = 1
𝑷(𝒁 ≤ 𝒛) = 𝚽(𝒛) → 𝒔𝒂𝒍𝒆 𝒑𝒐𝒓 𝒕𝒂𝒃𝒍𝒂
Si X no es normal estándar: X~N (𝝁, 𝝈2) entonces 𝒁 =
𝑿−𝝁
𝝈
tiene
una distribución normal estándar.
𝑎−𝜇
𝑏−𝜇
𝑏−𝜇
𝑎−𝜇
𝑃(𝑎 ≤ 𝑋 ≤ 𝑏) = 𝑃 (
<𝑍<
) = Φ(
) − Φ(
)
𝜎
𝜎
𝜎
𝜎
Aproximación normal a binomial:
𝑠𝑖 𝑋~𝐵𝑖𝑛(𝑛, 𝑝) 𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠 𝜇 = 𝑛𝑝 𝜎 = √𝑛𝑝(1 − 𝑝)
Se usa cuando: 𝑛𝑝 ≥ 10 𝑦 𝑛(1 − 𝑝) ≥ 10 entonces:
𝑥 + .5 − 𝑛𝑝
𝑥 + .5 − 𝜇
𝑃(𝑋 ≤ 𝑥) = Φ (
) = Φ(
)
𝜎
√𝑛𝑝(1 − 𝑝)
Aproximacion normal a poisson: si 𝑋~𝑃(𝜆) 𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠 𝜇 =
𝜆 𝑦 𝜎 = √𝜆
Se usa cuando 𝜆 > 5 entonces:
𝑥−𝜇
)
𝜎
Distribución exponencial: 𝑿~𝑬(𝝀) 𝒄𝒐𝒏 𝝀 > 0
𝟎
𝒔𝒊 𝒙 < 0
-λx 𝒔𝒊 𝒙 < 0
𝒇(𝒙) = {𝝀𝒆
𝑭(𝒙) = {
𝟏 − 𝒆-λx 𝒔𝒊 𝒙 ≥ 𝟎
𝟎 𝑪𝑪
𝑃(𝑋 ≤ 𝑥) = Φ (
𝟏
𝝀
𝝈2 =
𝟏
𝝀2
𝝁=
Distribucion de probabilidad conjunta
Funcion de probabilidad de masa conjunta: 𝑝(𝑥, 𝑦) =
𝑃(𝑋 = 𝑥 𝑦 𝑌 = 𝑦)
𝑷[(𝑿, 𝒀) ∈ 𝑨] = ∑(𝒙,𝒚)∈𝑨 ∑ 𝒑(𝒙, 𝒚) condiciones 𝒑(𝒙, 𝒚) ≥
𝟎∀(𝒙, 𝒚) 𝒚 ∑𝒙 ∑𝒚 𝒑(𝒙, 𝒚) = 𝟏
Función de probabilidad de masa marginal:
𝒑x(𝒙) = ∑𝒚 𝒑(𝒙, 𝒚) y 𝒑y(𝒚) = ∑𝒙 𝒑(𝒙, 𝒚)
Función de densidad de probabilidad conjunta: 𝑷[(𝑿, 𝒀) ∈
𝑨] = ∬𝑨 𝒇(𝒙, 𝒚)𝒅𝒙 𝒅𝒚
𝑠𝑖 𝐴 𝑒𝑠 𝑒𝑙 𝑟𝑒𝑐𝑡𝑎𝑛𝑔𝑢𝑙𝑜 {(𝑥, 𝑦): 𝑎 ≤ 𝑥 ≤ 𝑏, 𝑐 ≤ 𝑦 ≤ 𝑑} 𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠
𝑏
𝑑
𝑃[(𝑋, 𝑌) ∈ 𝐴] = 𝑃(𝑎 ≤ 𝑋 ≤ 𝑏, 𝑐 ≤ 𝑌 ≤ 𝑑) = ∫ ∫ 𝑓(𝑥, 𝑦)𝑑𝑥 𝑑𝑦
Condiciones: 𝒇(𝒙, 𝒚) ≥ 𝟎 𝒚
𝑎 𝑐
∞
∞
∫−∞ ∫−∞ 𝒇(𝒙, 𝒚)𝒅𝒙 𝒅𝒚
=𝟏
Funciones de densidad marginal:
1.
2.
3.
2
3.
] donde 𝑆 = √
̅
∑𝑛
𝑖=1(𝑋𝑖 −𝑋)^2
𝑛−1
n puede ser
√𝑛
Sea X1, X2 ,…, Xn MA con distribución desconocida
donde 𝜇 es desconocido y 𝜎 2 desconocido. IC para 𝜇:
𝑆
𝐼𝐶 = [𝑋̅ ± 𝑧𝛼
] donde n debe ser grande y 𝑆 =
√𝑛
̅
∑𝑛
𝑖=1(𝑋𝑖 −𝑋 )^2
√
Covarianza:𝒄𝒐𝒗(𝑿, 𝒀) = 𝑬[(𝑿 − 𝝁x)(𝒀 − 𝝁y)]
∞
∞
∫ ∫ (𝒙 − 𝝁x)(𝒚
5.
−∞ −∞
𝑋̅ (1−𝑋̅)
] n debe ser grande
𝑝̂ (1 − 𝑝̂ )
𝐼𝐶 = [𝑝̂ ± 𝑧 𝛼 √
]
𝑛
2
𝝈x 𝝈y
Distribución de la media muestral: sea X1,X2,…Xn una
muestra aleatoria con valor medio µ y desviación estándar σ
entonces
2
𝝈
̅ ) = 𝝈2x̃ = 𝝈
𝑬(𝑿) = 𝝁x̃ = 𝝁 y 𝑽(𝑿
𝒚
𝝈x̅ =
√𝒏
𝑻0 = 𝑿1 + 𝑿2 + ⋯ + 𝑿n, 𝑬(𝑻𝟎) = 𝒏𝝁 𝑽(𝑻0) = 𝒏𝝈2 𝝈To = √𝒏𝝈
Teorema central de limite: sea X1,X2,…Xn una muestra
aleatoria de una distrubucion con media µ y varianza σ2
̅ tiene una
entonces si n es lo suficientemente grande, 𝑿
distribución normal aprox. Con 𝝁x = 𝝁 𝒚 𝝈2x =
𝑛
2
𝑪𝒐𝒗(𝑿,𝒀)
𝒏
𝑛−1
Sea X1, X2 ,…, Xn MA con Xi ~ B(1, 𝑝) el IC para
𝑝: 𝐼𝐶 = [𝑋̅ ± 𝑧1− 𝛼 √
− 𝝁y)𝒇(𝒙, 𝒚)𝒅𝒙 𝒅𝒚
𝑪𝒐𝒗(𝑿, 𝒀) = 𝑬(𝑿𝒀) − 𝝁x 𝝁y
𝝈𝟐
𝒏
6.
̅
2
Momento muestral de orden k para una MA X1,X2,…,Xn:
∑𝑛𝑖=1 𝑋𝑖𝑘
𝑛
Para estimar k parámetros se utilizan los k primeros momentos,
para un parámetro:
∑𝑛𝑖=1 𝑋𝑖
𝐸(𝑋) =
𝑛
Método de EMV:
Función de verosimilitud
L(X1,X2,…,Xn,θ1,θ2,…,θn)= ∏𝑛𝑖=1 𝑓(𝑥𝑖)
𝑛
Sea X1, X2 ,…, Xn MA con Xi ~ N(𝜇1 , 𝜎1 2 ) e Y1, Y2, … ,
Yn una MA con Yi ~ N(𝜇2 , 𝜎2 2 ) ambas independientes
con 𝜎1 2 𝑦 𝜎2 2 conocidos. IC para 𝜇: 𝐼𝐶 = [𝑋̅ − 𝑌̅ ±
𝜎1 2
𝑧𝛼 √
y T0 tambien
tiene una distribución normal con 𝝁To = 𝒏𝝁 𝒚 𝝈2To = 𝒏𝝈2
Para usarlo n>30
Estimación puntual:
Metodo de los momentos:
∑∀𝑥 𝑥 𝑘 𝑃(𝑥) 𝑠𝑖 𝑒𝑠 𝑑𝑖𝑠𝑐𝑟𝑒𝑡𝑎
Momento de orden k:𝐸(𝑋 𝑘 ) = { ∞ 𝑘
∫−∞ 𝑥 𝑓(𝑥)𝑑𝑥 𝑠𝑖 𝑒𝑠 𝑐𝑜𝑛𝑡𝑖𝑛𝑢𝑎
IC para la media 𝜆 de una distribución poisson 𝐼𝐶 =
𝑋
[𝑋̅ ± 𝑧 𝛼 √ ] en donde n debe ser grande
7.
2
8.
𝑛1
+
𝜎2 2
𝑛2
]
Sea X1, X2 ,…, Xn MA con Xi ~ N(𝜇1 , 𝜎1 2 ) e Y1, Y2, … ,
Yn una MA con Yi ~ N(𝜇2 , 𝜎2 2 ) ambas independientes
con 𝜎1 2 𝑦 𝜎2 2 desconocidos pero inguales 𝜎1 2 = 𝜎2 2 :
𝐼𝐶 = [(𝑋̅ − 𝑌̅) ± 𝑡𝛼,(𝑛1+𝑛2 −2) 𝑆𝑝 √
1
𝑛1
2
+
1
𝑛2
] donde 𝑆𝑝 =
(𝑛1 −1)𝑆12 +(𝑛2 −1)𝑆22
√
𝑛1 +𝑛2 −2
Y si 𝜎1 2 ≠ 𝜎2 2 : 𝐼𝐶 = [(𝑋̅ − 𝑌̅) ± 𝑡𝛼,(𝑛1+𝑛2 −2) 𝑆𝑝 √
𝑆12
𝑛1
2
9.
]
chico
Sea X1, X2 ,…, Xn MA con distribución desconocida
donde 𝜇 es desconocido y 𝜎 2 = 𝑉(𝑋𝑖 ) conocido. IC para
𝜎
𝜇: 𝐼𝐶 = [𝑋̅ ± 𝑧𝛼
] donde n debe ser grande
2
−∞ −∞
Correlación: 𝝆X,Y =
𝑆
√𝑛
2
4.
∞
𝒐
𝜎
√𝑛
n puede ser chico
Sea X1, X2 ,…, Xn MA con Xi ~ N(𝜇, 𝜎 2 ) donde 𝜇 es
desconocido y 𝜎 2 desconocido. IC para 𝜇: 𝐼𝐶 =
[𝑋̅ ± 𝑡𝛼 ,𝑛−1
𝑬(𝑿, 𝒀) = ∫ ∫ 𝒙𝒚 𝒇(𝒙, 𝒚)𝒅𝒙 𝒅𝒚
𝒚
𝜃 ∀𝜃
2
−∞
𝒙
< 0 es maximo
Error cuadrático medio:
𝐸𝐶𝑀(𝜇̂ ) = 𝑉(𝜇̂ ) + 𝑠𝑒𝑠𝑔𝑜 2 (𝜇̂ )
Intervalos de confianza IC: de nivel 1 − 𝛼
1. Sea X1, X2 ,…, Xn MA con Xi ~ N(𝜇, 𝜎 2 ) donde 𝜇 es
desconocido y 𝜎 2 conocido. IC para 𝜇: 𝐼𝐶 = [𝑋̅ ± 𝑧𝛼
𝒇y(𝒚) = ∫ 𝒇(𝒙, 𝒚)𝒅𝒙 𝒄𝒐𝒏 − ∞ ≤ 𝒚 ≤ ∞
∑ ∑(𝒙 − 𝝁x)(𝒚 − 𝝁y)𝒑(𝒙, 𝒚)
𝜕2 𝜃
punto critico, despejo θ
𝑛→∞
−∞
∞
∞
𝜕𝜃
𝜕ln(𝐿)
Asintóticamente insesgado: 𝐸(𝜃̂ ) →
𝒇x(𝒙) = ∫ 𝒇(𝒙, 𝒚)𝒅𝒚 𝒄𝒐𝒏 − ∞ ≤ 𝒙 ≤ ∞
Función de densidad de probabilidad condicional de Y dado
que X=x:
𝒇(𝒙, 𝒚)
𝒇y|x(𝒚|𝒙) =
𝒇x(𝒙)
Esperanza de
h(X,Y):∑𝒙 ∑𝒚 𝒉(𝒙, 𝒚)𝒑(𝒙, 𝒚) 𝒐 ∫ ∫ 𝒉(𝒙, 𝒚)𝒇(𝒙, 𝒚)𝒅𝒙 𝒅𝒚
𝜕ln(𝐿)
Un estimador es insesgado si 𝐸(𝜃̂ ) = 𝜃 ∀𝜃
Sesgo: 𝑏(𝜃̂) = 𝐸(𝜃̂) − 𝜃
2.
∞
ln(𝐿( )) = ln(∏𝑛𝑖=1 𝑓(𝑥𝑖))
+
𝑆22
𝑛2
]
Sea X1, X2 ,…, Xn MA con Xi ~ N(𝜇1 , 𝜎1 2 ) e Y1, Y2, … ,
Yn una MA con Yi ~ N(𝜇2 , 𝜎2 2 ) no son independientes
con 𝜎1 2 𝑦 𝜎2 2 desconocidos y con muestras del mismo
𝑆
tamaño: 𝐼𝐶 = [𝑍̅ ± 𝑡𝛼
] donde 𝑍𝑖 =
2
(𝑋𝑧 − 𝑌𝑧 )∀ 𝑖 y 𝑍̅ =
,(𝑛1 +𝑛2 −2) √𝑛
̅ 2
∑𝑛
𝑖=1(𝑍𝑖 − 𝑍)
2
∑𝑛
𝑖=1 𝑍𝑖
𝑛
y𝑆 =
𝑛−1
Descargar