EST-712: Métodos Estadı́sticos 1 Prueba 1. Julio 1, 2016 Tiempo: 90 Minutos Pauta de Corrección Felipe Osorio 1. Note que la función de log-verosimilitud asociada a X ∼ Exp(λ) es dada por `(λ; x) = log λ − λx, además θ = P(X > z) = R∞ z λe−λx dx = e−λz , de ahı́ que 1 ⇒ λ = − log θ z log θ = −λz también podemos escribir: 1 log λ = log − log θ = log(− log θ) − log z. z Ası́, obtenemos que la log-verosimilitud asociada a θ es dada por `(θ; x) = log(− log θ) − log z + x log θ, z de este modo, la función score asume la forma: `0 (θ; x) = 1 x + . θ log θ zθ Como var(X) = λ−2 = (z/ log θ)2 , obtenemos FX (θ) = var(X) z2 1 1 = = . z 2 θ2 (log θ)2 z 2 θ2 (θ log θ)2 2. Para el modelo Binomial, tenemos `(θ; x) = x log θ + (1 − x) log(1 − θ) ası́ U (θ; x) = x 1−x − , θ 1−θ `00 (θ; x) = − x 1−x − . 2 θ (1 − θ)2 Como E(X) = θ, sigue que F1 (θ) = E{−`00 (θ; X)} = E(X) E(1 − X) 1 1 1 + = − = , θ2 (1 − θ)2 θ 1−θ θ(1 − θ) y por tanto, tenemos que la información de Fisher para toda la muestra aleatoria es dada por FX (θ) = n . θ(1 − θ) Para el modelo geométrico, obtenemos `(θ; y) = log θ + (y − 1) log(1 − θ), EST-712 Corrección Prueba 1 - Página 2 de 3 01/07/2016 la función score y segunda derivadas son dadas por `0 (θ; y) = 1 y−1 − , θ 1−θ `00 (θ; y) = − y−1 1 − . θ2 (1 − θ)2 En este caso E(Y ) = 1/θ, ası́ la información de Fisher de la muestra es: n1 E(Y − 1) o n n 1 1 o n 00 FY (θ) = n E{−` (θ; Y )} = n 2 + = + = 2 . θ (1 − θ)2 θ θ 1−θ θ (1 − θ) Comparando FX (θ) con FY (θ) sigue que FX (θ) < FY (θ) 1 1 < 2 , θ(1 − θ) θ (1 − θ) ⇐⇒ ∀ θ ∈ (0, 1). Por tanto, el enfoque usando la distribución geométrica es más informativo. 3.a. Sea z = (x, y), la función de verosimilitud es dada por L(λ; z) = (2πσ 2 )−n/2 exp n − n n o n o 1 X 1 X 2 2 −n/2 2 (x − µ) (2πλσ ) exp − (y − µ) i j 2σ 2 2λσ 2 i=1 ∝ λ−n/2 exp n − 1 2λσ 2 j=1 n o X (yj − µ)2 , j=1 mientras que la función de log-verosimilitud asume la forma n n 1 X `(λ; z) = − log λ − (yj − µ)2 + k1 , 2 2λσ 2 j=1 bML es solución de: donde k1 representa una constante, y λ U (λ; z) = − n n 1 X + 2 2 (yj − µ)2 = 0, 2λ 2λ σ j=1 de este modo, n 1 X yj − µ 2 b λML = . n σ j=1 Además 4 bML ; z) = − n < 0. `00 (λ bML 2λ 3.b. Considerando σ 2 conocido sigue que n n n 1 X 1 X 2 `(λ, σ ; z) = −n log σ − log λ − 2 (xi − µ) − (yj − µ)2 + k2 2 2σ 2λσ 2 2 2 i=1 j=1 para k2 denotando una constante. El MLE de θ = (λ, σ 2 )> es solución de: n ∂`(λ, σ 2 ; z) n 1 X =− + 2 2 (yj − µ)2 = 0 ∂λ 2λ 2λ σ ∂`(λ, σ 2 ; z) n 1 =− 2 + 4 ∂σ 2 σ 2σ j=1 n X i=1 n 1 X (xi − µ) + (yj − µ)2 = 0, 2λσ 4 2 j=1 EST-712 Corrección Prueba 1 - Página 3 de 3 es dada por Pn bML = Pj=1 λ n (yj − µ)2 − µ)2 i=1 (xi 01/07/2016 n , 2 σ bML 1X (xi − µ)2 . = n i=1 4.a. Tenemos E(T ) = E(αR + (1 − α)S) = α E(R) + (1 − α) E(S) = αθ + (1 − α)θ = θ, es decir T es un estimador insesgado. 4.b. Como R ⊥ S, sigue que var(T ) = var(αR + (1 − α)S) = α2 var(R) + (1 − α)2 var(S) = α2 σ 2 + (1 − α)2 φ2 . 4.c. Sea V (α) = var(T ). Entonces, V 0 (α) = 2ασ 2 − 2(1 − α)φ2 = 2α(σ 2 + φ2 ) − 2φ2 , y V 00 (α) = 2(σ 2 + φ2 ) > 0. Ası́, desde V 0 (α) = 0, obtenemos αopt = φ2 , σ 2 + φ2 αopt ∈ (0, 1).