EST-712: Métodos Estad´ısticos 1 Pauta de Corrección Prueba 1

Anuncio
EST-712: Métodos Estadı́sticos 1
Prueba 1. Julio 1, 2016
Tiempo: 90 Minutos
Pauta de Corrección
Felipe Osorio
1. Note que la función de log-verosimilitud asociada a X ∼ Exp(λ) es dada por
`(λ; x) = log λ − λx,
además θ = P(X > z) =
R∞
z
λe−λx dx = e−λz , de ahı́ que
1
⇒ λ = − log θ
z
log θ = −λz
también podemos escribir:
1
log λ = log − log θ = log(− log θ) − log z.
z
Ası́, obtenemos que la log-verosimilitud asociada a θ es dada por
`(θ; x) = log(− log θ) − log z +
x
log θ,
z
de este modo, la función score asume la forma:
`0 (θ; x) =
1
x
+ .
θ log θ zθ
Como var(X) = λ−2 = (z/ log θ)2 , obtenemos
FX (θ) =
var(X)
z2
1
1
=
=
.
z 2 θ2
(log θ)2 z 2 θ2
(θ log θ)2
2. Para el modelo Binomial, tenemos
`(θ; x) = x log θ + (1 − x) log(1 − θ)
ası́
U (θ; x) =
x 1−x
−
,
θ
1−θ
`00 (θ; x) = −
x
1−x
−
.
2
θ
(1 − θ)2
Como E(X) = θ, sigue que
F1 (θ) = E{−`00 (θ; X)} =
E(X) E(1 − X)
1
1
1
+
= −
=
,
θ2
(1 − θ)2
θ 1−θ
θ(1 − θ)
y por tanto, tenemos que la información de Fisher para toda la muestra aleatoria es dada por
FX (θ) =
n
.
θ(1 − θ)
Para el modelo geométrico, obtenemos
`(θ; y) = log θ + (y − 1) log(1 − θ),
EST-712
Corrección Prueba 1 - Página 2 de 3
01/07/2016
la función score y segunda derivadas son dadas por
`0 (θ; y) =
1 y−1
−
,
θ 1−θ
`00 (θ; y) = −
y−1
1
−
.
θ2 (1 − θ)2
En este caso E(Y ) = 1/θ, ası́ la información de Fisher de la muestra es:
n1
E(Y − 1) o n n 1
1 o
n
00
FY (θ) = n E{−` (θ; Y )} = n 2 +
=
+
= 2
.
θ
(1 − θ)2
θ θ 1−θ
θ (1 − θ)
Comparando FX (θ) con FY (θ) sigue que
FX (θ) < FY (θ)
1
1
< 2
,
θ(1 − θ)
θ (1 − θ)
⇐⇒
∀ θ ∈ (0, 1).
Por tanto, el enfoque usando la distribución geométrica es más informativo.
3.a. Sea z = (x, y), la función de verosimilitud es dada por
L(λ; z) = (2πσ 2 )−n/2 exp
n
−
n
n
o
n
o
1 X
1 X
2
2 −n/2
2
(x
−
µ)
(2πλσ
)
exp
−
(y
−
µ)
i
j
2σ 2
2λσ 2
i=1
∝ λ−n/2 exp
n
−
1
2λσ 2
j=1
n
o
X
(yj − µ)2 ,
j=1
mientras que la función de log-verosimilitud asume la forma
n
n
1 X
`(λ; z) = − log λ −
(yj − µ)2 + k1 ,
2
2λσ 2
j=1
bML es solución de:
donde k1 representa una constante, y λ
U (λ; z) = −
n
n
1 X
+ 2 2
(yj − µ)2 = 0,
2λ 2λ σ
j=1
de este modo,
n
1 X yj − µ 2
b
λML =
.
n
σ
j=1
Además
4
bML ; z) = − n < 0.
`00 (λ
bML
2λ
3.b. Considerando σ 2 conocido sigue que
n
n
n
1 X
1 X
2
`(λ, σ ; z) = −n log σ − log λ − 2
(xi − µ) −
(yj − µ)2 + k2
2
2σ
2λσ 2
2
2
i=1
j=1
para k2 denotando una constante. El MLE de θ = (λ, σ 2 )> es solución de:
n
∂`(λ, σ 2 ; z)
n
1 X
=−
+ 2 2
(yj − µ)2 = 0
∂λ
2λ 2λ σ
∂`(λ, σ 2 ; z)
n
1
=− 2 + 4
∂σ 2
σ
2σ
j=1
n
X
i=1
n
1 X
(xi − µ) +
(yj − µ)2 = 0,
2λσ 4
2
j=1
EST-712
Corrección Prueba 1 - Página 3 de 3
es dada por
Pn
bML = Pj=1
λ
n
(yj − µ)2
− µ)2
i=1 (xi
01/07/2016
n
,
2
σ
bML
1X
(xi − µ)2 .
=
n
i=1
4.a. Tenemos
E(T ) = E(αR + (1 − α)S) = α E(R) + (1 − α) E(S) = αθ + (1 − α)θ = θ,
es decir T es un estimador insesgado.
4.b. Como R ⊥ S, sigue que
var(T ) = var(αR + (1 − α)S) = α2 var(R) + (1 − α)2 var(S) = α2 σ 2 + (1 − α)2 φ2 .
4.c. Sea V (α) = var(T ). Entonces,
V 0 (α) = 2ασ 2 − 2(1 − α)φ2 = 2α(σ 2 + φ2 ) − 2φ2 ,
y
V 00 (α) = 2(σ 2 + φ2 ) > 0.
Ası́, desde V 0 (α) = 0, obtenemos
αopt =
φ2
,
σ 2 + φ2
αopt ∈ (0, 1).
Descargar