Análisis estadístico de datos simulados Estimadores

Anuncio
Análisis estadístico de datos simulados
Estimadores puntuales
Georgina Flesia
FaMAF
2 de mayo, 2013
Análisis estadístico
Modelización estadística:
I
Elegir una distribución en base a los datos observados.
I
Estimar los parámetros de la distribución (EMV).
I
Pruebas de bondad de ajuste.
Estimación de parámetros
I
Estimador puntual.
I
Varianza del estimador. Var(θ̂).
I
Error cuadrático medio del estimador. E[(θ̂ − θ)2 ].
I
Estimadores por intervalo e intervalos de confianza.
Estimación de parámetros
Dada una muestra de n datos observados, se llama estimador θ̂ del
parámetro θ a cualquier función de los datos observados.
Propiedades de un buen estimador puntual
I
Insesgabilidad: se dice que el estimador es insesgado si
E[θ̂] = θ.
I
Consistencia: si al aumentar la muestra, el estimador se
aproxima al parámetro.
I
Eficiencia: se calcula comparando su varianza con la de otro
estimador.
I
Suficiencia: utiliza toda la información obtenida de la muestra.
Media muestral
Dadas n observaciones: X1 , X2 , . . . , Xn , con una misma distribución,
la media muestral se define por
X (n) =
X1 + X2 + · · · + Xn
.
n
La media muestral se utiliza como un estimador de la media θ, es
decir, de θ = E[Xi ], si la media es finita.
Estimador insesgado.
"
E[X (n)]
=
E
n
X
Xi
i=1
n
#
=
n
X
E[Xi ]
i=1
n
=
nθ
= θ.
n
Media muestral
Dadas n observaciones: X1 , X2 , . . . , Xn , con una misma distribución
con media finita θ,
X (n) =
X1 + X2 + · · · + Xn
.
n
Estimador consistente.
lim [X (n)]
n→∞
por la ley de los grandes números.
=
θ.
Media muestral
Dadas n observaciones: X1 , X2 , . . . , Xn , con una misma distribución
con media finita y varianza finita
X1 + X2 + · · · + Xn
.
n
√
Z = n(X (n) − θ)/σ.
X (n) =
Estimador asintóticamente normal.
lim [FZ (n)(x)]
n→∞
por el teorema central del límite.
=
Φ(x).
Métodos de estimación mas comunes
I
Estimador de máxima verosimilitud
I
Estimador de momentos
Estimador de máxima verosimilitud
Si la distribución supuesta es discreta para los datos observados, y
se desconoce un parámetro θ.
Sea pθ (x) la probabilidad de masa para dicha distribución.
Dado que se han observado datos X1 , X2 , . . . , Xn , se define la función
de máxima verosimilitud L(θ) como sigue:
L(θ) = pθ (X1 ) · pθ (X2 ) · · · pθ (Xn ).
El estimador de máxima verosimilitud es el valor θ̂ que maximiza L(θ):
L(θ̂) ≥ L(θ),
θ valor posible.
Estimador de máxima verosimilitud
Si la distribución supuesta es continua, y fθ (x) es la densidad para
dicha distribución.
Dado que se han observado datos X1 , X2 , . . . , Xn , se define la función
de máxima verosimilitud L(θ) como sigue:
L(θ) = fθ (X1 ) · fθ (X2 ) · · · fθ (Xn ).
El estimador de máxima verosimilitud es el valor θ̂ que maximiza L(θ):
L(θ̂) ≥ L(θ),
θ valor posible.
Estimador de máxima verosimilitud
El estimador de máxima verosimilitud tiene, en general, las
siguientes propiedades:
1. Es único: L(θ̂) > L(θ) para cualquier otro valor de θ.
2. La distribución asintótica de θ̂ tiene media θ.
3. Es invariante: φ = h(θ), entonces φ̂ = h(θ̂).
4. La distribución asintótica es la normal.
5. Es fuertemente consistente: limn→∞ θ̂ = θ.
Distribución exponencial
Ejemplo
Para la distribución exponencial, θ = 1/λ (λ > 0) y fλ (x) = λe−xλ
para x ≥ 0.
L(λ)
=
=
λe−X1 λ
λe−X2 λ · · · λe−Xn λ
!
n
X
n
λ exp −λ
Xi
i=1
Distribución exponencial
ln(L(λ))
= ln(λn exp −λ
n
X
!
Xi )
i=1
= n ln(λ) − λ
n
X
Xi
i=1
d
ln(L(λ))
dλ
n
=
n X
−
Xi
λ
i=1
= 0
λ̂ =
θ̂ =
1
n
1
λ̂
1
Pn
i=1
Xi
n
=
=
1
1
=
Media muestral.
X (n)
1X
Xi = X (n) = Media muestral.
n
i=1
Distribución geométrica
Ejemplo
Para la distribución geométrica, θ = p y pp (x) = p(1 − p)x−1 para
x = 1, 2, . . . .
L(p)
=
p(1 − p)X1 −1 . . . p(1 − p)Xn −1
=
pn (1 − p)
=
=
Pn
i=1 (Xi −1)
Pn
pn (1 − p) i=1 Xi (1 − p)−n
n
Pn
p
(1 − p) i=1 Xi
1−p
n
ln(L(p))
= n ln(
X
p
) + ln(1 − p)
Xi
1−p
i=1
= n ln(p) − n ln(1 − p) + ln(1 − p)
n
X
i=1
Xi
Distribución geométrica
d
ln(L(p))
dp
=
n
X
d
[n ln(p) + ln(1 − p)[
Xi − n]]
dp
i=1
=
n
1
−
p 1−p
n
X
(
Xi − n) = 0
i=1
n
n
p
=
1−p
=
1
=
p̂ =
1 X
(
Xi ) − n
1−p
i=1
1X
Xi − 1)
p(
n
1X
p + p(
Xi ) − p
n
X −1
1
Xi
n
Estimadores de máxima verosimilitud:
Distribuciones continuas:
I
Uniforme: â = min{Xi }, b̂ = max{Xi }.
I
Exponencial: θ̂ = X (n).
I
Gamma, Weibull: α̂ y β̂ se resuelven numéricamente.
I
Normal:
µ̂ = X (n),
I
"
n−1 2
σ̂ =
S (n)
n
1/2
log(Xi )
,
n
Pn
n
1X
=
(Xi − X )2
n
#1/2
.
i=1
Lognormal:
Pn
µ̂ =
i=1
σ̂ =
i=1 (log(Xi )
n
− µ̂)2
1/2
.
Estimadores de máxima verosimilitud
Distribuciones discretas:
I
Binomial (t, p): si t es conocido, p̂ = X (n)/t.
I
Bernoulli: Caso binomial con t = 1 e igual p.
I
Geométrica: p̂ =
I
Binomial negativa (s, p): número de ensayos hasta el s-ésimo
s
éxito. Si s es conocido: p̂ = X (n)
.
I
Poisson: λ̂ = X (n).
1
.
X (n)
Error cuadrático medio
I
θ̂: estimador del parámetro θ de una distribución F
I
Se define el error cuadrático medio (ECM) de θ̂ con respecto al
parámetro θ como
ECM(θ̂, θ) = E[(θ̂ − θ)2 ].
E[(θ̂ − θ)2 ]
= E[(θ̂ − E[θ̂] + E[θ̂] − θ)2 ]
= E[(θ̂ − E[θ̂])2 ] + (E[θ̂] − θ)2
=
Var(θ̂) + (E(θ̂) − θ)2
I
El error cuadrático medio de un estimador es igual a su varianza
más el sesgo al cuadrado.
I
Si el estimador es insesgado, su ECM es igual a la varianza.
ECM de la media muestral respecto de la media
Muestra de X : X1 , X2 , . . . , Xn ,
ECM(X (n), θ)
E[Xi ] = θ
= E[(X (n) − θ)2 ]
= Var(X (n)) =
n
1 X
σ2
Var(X
)
=
i
n2
n
i=1
√
La media muestral es un buen estimador de E[X ] si σ/ n es
pequeño.
I
El ECM depende de la distribución de Xi y del tamaño de la
muestra.
I
Teorema central del límite. Si Z ∼ N(0, 1) y n es grande:
!
|X (n) − θ|
√
P
> c ≈ P{|Z | > c}.
σ/ n
Varianza muestral
σ2
como estimación del error en la media muestral, tiene
El indicador
n
el inconveniente que σ es en general desconocida.
Para estimar la varianza se utiliza el estimador
Pn
(Xi − X (n))2
2
S (n) = i=1
.
n−1
I
Estimador insesgado de la varianza
I
Fórmula a utilizar:
E S 2 (n) = Var(X )
n
n
X
X
2
(Xi − X (n))2 =
Xi2 − nX (n)
i=1
i=1
Varianza muestral
E[Xi2 ]
2
E[X (n)]
(n − 1)E[S 2 (n)]
= Var(Xi ) + (E[Xi ])2 = σ 2 + θ2 .
=
σ2
+ θ2 .
n
2
= nE[X12 ] − nE[X (n)] = n(σ 2 + θ2 ) − n(
σ2
+ θ2 )
n
E[S 2 (n)]
= σ2
p
Utilizaremos S(n) = S 2 (n) como estimador de la desviación
estándar.
I
Error del estimador X (n): σ 2 /n.
I
Simulación de datos: Si el objetivo es estimar la media, para
disminuir el error deben generarse muestras de tamaño n, n
grande.
Media muestral
I
I
I
Elegir un valor aceptable d para la desviación estándar del
estimador.
√
√
Generar (n) datos hasta que σ/ n < d. (S/ n < d)
Conviene generar al menos 100 datos para:
I
I
asegurar normalidad de la distribución de X (n).
para disminuir la varianza de S.
I
La estimación de θ estará dada por el último valor de X (n).
I
El algoritmo implica calcular en cada paso X (n) y S(n).
I
Es posible calcularlo recursivamente.
Media muestral
Cálculo recursivo de X (n) y S 2 (n)
I
X (1) = X1 ,
I
S 2 (1) = 0.
X (j + 1)
S 2 (j + 1)
Xj+1 − X (j)
= X (j) +
j +1
1
=
1−
S 2 (j) + (j + 1)(X (j + 1) − X (j))2
j
Estimación de una proporción
El estimador X (n) puede utilizarse también para estimar la
proporción de casos en una población.
(
1 probabilidad p
Xi =
0 probabilidad 1 − p.
I
I
I
X (n) es un estimador insesgado de p.
p(1 − p)
E[(X (n) − p)2 ] = Var(X (n)) =
n
En este caso, se estima la varianza del estimador X (n) por:
X (n)(1 − X (n))
.
n
Algoritmo: Cálculo de E[X ]
Algorithm 1: Estimación de la media M de X con error d
Generar X , M ← X
M = X (1) = X1 ;
S 2 = S 2 (1) = 0;
S2 ← 0
for 1 < j ≤ 100 do
Generar X ; A ← M;
M ← M + (X − M)/j;
S 2 ← (1 − 1/(j − 1))S 2 + j(M − A)2
end
j ← 100;
p
while S 2 /j > d do
j ← j + 1;
Generar X ;
A ← M;
M ← M + (X − M)/j;
S 2 ← (1 − 1/(j − 1))S 2 + j(M − A)2
end
return M
Algoritmo: Cálculo de una probabilidad
Algorithm 2: Estimación de la probabilidad p de X con error d
Generar X
p ← X;
for 1 < j ≤ 100 do
Generar X ;
p ← p + (X − p)/j
end
j ← 100;
p
while p(1 − p)/j > d do
j ← j + 1;
Generar X ;
p ← p + (X − p)/j;
end
return p
X es 0 o 1;
Descargar