Estadística matemática con aplicaciones

Anuncio
472
Capítulo 9
Propiedades de los estimadores puntuales y métodos de estimación
ii Demuestre que para que esta relación sea independiente de p, debemos tener
n
n
xi −
i=1
n
yi = 0 o
n
xi =
i=1
i=1
yi .
i=1
iii De acuerdo con el método de Lehmann y Scheffé, ¿cuál es el estadístico suficiente mínimo para p?
¿Cómo se compara este estadístico suficiente con el estadístico suficiente deducido en el Ejemplo
9.6 usando el criterio de factorización?
b Considere la densidad de Weibull estudiada en el Ejemplo 9.7.
i Demuestre que
L (x1 , x2 , . . . , xn | u)
=
L ( y1 , y2 , . . . , yn | u)
ii Demuestre que
n
i=1
x1 x2 . . . xn
y1 y2 . . . yn
exp −
1
u
n
n
xi2 −
i=1
yi2
.
i=1
Yi2 es un estadístico suficiente mínimo para u.
*9.67
Consulte el Ejercicio 9.66. Suponga que se toma una muestra de tamaño n de una población normal
n
n
2
con media m y varianza s2. Demuestre que i=1 Yi , y
i=1 Yi conjuntamente forman estadísticos
2
suficientes mínimos para m y s .
*9.68
Suponga que un estadístico U tiene una función de densidad de probabilidad que es positiva en el intervalo a ≤ u ≤ b y suponga que la densidad depende de un parámetro u que puede variar en el intervalo a1
≤ u ≤ a2. Suponga también que g(u) es continua para u en el intervalo [a, b]. Si E [(g(U) | u] = 0 para
toda u en el intervalo [a1, a2] implica que g(u) sea idénticamente cero, entonces se dice que la familia
de funciones de densidad {fU (u | u), a1 ≤ u ≤ a2} está completa. (Todos los estadísticos que empleamos
en la Sección 9.5 tienen familias completas de funciones de densidad.) Suponga que U es un estadístico
suficiente para u, y g1(U) y g2(U) son estimadores insesgados de u. Demuestre que, si la familia de funciones de densidad para U está completa, g1(U) debe ser igual a g2(U), y entonces hay una función única
de U que es un estimador insesgado de u.
Acoplada con el teorema de Rao–Blackwell, la propiedad de completabilidad de fU (u | u), junto con la
suficiencia de U, asegura que hay un estimador insesgado único de varianza mínima (UMVUE) de u.
9.6 Método de momentos
En esta sección estudiaremos uno de los métodos más antiguos para obtener estimadores
puntuales: el método de momentos. Un método más refinado, el de verosimilitud máxima, es
el tema de la Sección 9.7.
El método de momentos es un procedimiento muy sencillo para hallar un estimador para
uno o más parámetros poblacionales. Recuerde que el k-ésimo momento de una variable aleatoria, tomado alrededor del origen, es
m k = E(Y k ).
El correspondiente k-ésimo momento muestral es el promedio
mk =
1
n
n
Yik .
i=1
El método de momentos está basado en la idea de que los momentos muestrales deben dar
buenas estimaciones de los momentos poblacionales correspondientes.
9.6
Método de momentos 473
Es decir, m k debe ser un buen estimador de m k , para k = 1, 2, . . . Entonces, debido a que los
momentos poblacionales m 1 , m 2 , . . . , m k son funciones de los parámetros poblacionales, podemos igualar los correspondientes momentos poblacionales y muestrales y despejar los estimadores deseados. En consecuencia, el método de momentos se puede expresar como sigue.
Método de momentos
Escoja como estimaciones los valores de los parámetros que son soluciones de las ecuaciones m k = m k ,, para k = 1, 2, . . . , t, donde t es el número de parámetros por estimar.
EJEMPLO 9.11
Solución
Una muestra aleatoria de n observaciones, Y1, Y2, . . . , Yn se selecciona de una población
en la que Yi, para i = 1, 2, . . . , n, posee una función de densidad de probabilidad uniforme en
el intervalo (0, u) donde u es desconocida. Use el método de momentos para estimar el parámetro u.
El valor de m 1 para una variable aleatoria uniforme es
u
m1 = m = .
2
El correspondiente primer momento muestral es
1 n
m1 =
Yi = Y .
n i=1
Igualando la población correspondiente y el momento muestral, obtenemos
u
m1 = = Y .
2
El estimador que se obtiene mediante el método de momentos para u es la solución de la ecuación anterior. Esto es, û = 2Y .
Q
Para las distribuciones que consideramos en este texto, los métodos de la Sección 9.3 se
pueden utilizar para demostrar que los momentos muestrales son estimadores consistentes de
los momentos poblacionales correspondientes. Debido a que los estimadores obtenidos con
el método de momentos obviamente son funciones de los momentos muestrales, suelen ser
estimadores consistentes de sus respectivos parámetros.
EJEMPLO 9.12
Demuestre que el estimador û = 2Y , encontrado en el Ejemplo 9.11, es un estimador consistente para u.
Solución
En el Ejemplo 9.1, demostramos que û = 2Y es un estimador insesgado para u y que
V ( û) = u 2 / 3n . Como lím n S q V ( û) = 0, el Teorema 9.1 implica que û = 2Y es un estimador consistente para u.
Q
474
Capítulo 9
Propiedades de los estimadores puntuales y métodos de estimación
Aun cuando el estimador û obtenido en el Ejemplo 9.11 es consistente, no es necesariamente el mejor estimador para u. De hecho, el criterio de factorización da Y(n) = máx(Y1, Y2,
. . . , Yn) como el mejor estadístico suficiente para u. Entonces, de acuerdo con el teorema de
Rao–Blackwell, el estimador que se obtenga mediante el método de momentos tendrá varianza más grande que un estimador insesgado basado en Y(n). De hecho, se demostró que este es
el caso en el Ejemplo 9.1.
EJEMPLO 9.13
Una muestra aleatoria de n observaciones Y1, Y2, . . . , Yn, se selecciona de una población en
la que Yi, para i = 1, 2, . . . , n, posee una función de densidad de probabilidad gamma con
parámetros a y b (véase la Sección 4.6 para la función de densidad de probabilidad gamma).
Encuentre los estimadores por el método de momentos para los parámetros desconocidos
a y b.
Solución
Debido a que buscamos estimadores para dos parámetros a y b, debemos igualar dos pares de
momentos poblacionales y muestrales.
Los primeros dos momentos de la distribución gamma con parámetros a y b son (si es
necesario, vea al final de este libro)
m 1 = m = ab
m 2 = s2 + m 2 = ab2 + a2 b 2 .
y
Ahora iguale estas cantidades con sus correspondientes momentos muestrales y despeje
â y b̂. Así,
m 1 = ab = m 1 = Y ,
m 2 = ab2 + a2 b 2 = m 2 =
1
n
n
Yi2 .
i=1
De la primera ecuación, obtenemos b̂ = Y / â. Sustituyendo en la segunda ecuación y despeˆ , obtenemos
jando a,
â =
Y
2
Yi2 / n − Y
2
nY
=
n
i=1 (Yi
2
− Y )2
.
Sustituyendo â en la primera ecuación, obtenemos
b̂ =
Y
=
â
n
i=1 (Yi
− Y )2
nY
.
Q
Los estimadores del método de momentos â y b̂ del Ejemplo 9.13 son consistentes.
n
Y converge en probabilidad en E(Yi) = ab y (1/ n) i=1
Yi2 converge en probabilidad en
2
2
2 2
E(Yi ) = ab + a b . Por lo tanto,
â =
Y
1
n
n
i=1
2
Yi2 − Y
2
es un estimador consistente de
ab2
(ab) 2
= a,
+ a2 b 2 − (ab) 2
y
b̂ =
Y
ab
es un estimador consistente de
= b.
â
a
Ejercicios 475
n
n
Usando el criterio de factorización podemos demostrar que i=1
Yi y el producto i=1 Yi son
estadísticos suficientes para la función de densidad gamma. Como los estimadores del método
de momentos aˆ y b̂ no son funciones de estos estadísticos suficientes, podemos hallar más
estimadores eficientes para los parámetros a y b. No obstante, es considerablemente más difícil aplicar otros métodos para hallar estimadores de estos parámetros.
Para resumir, el método de momentos permite generar estimadores de parámetros desconocidos al igualar los correspondientes momentos muestrales y poblacionales. El método es
fácil de emplear y proporciona estimadores consistentes, pero los estimadores obtenidos por
este método en ocasiones no son funciones de estadísticos suficientes. En consecuencia, es
frecuente que los estimadores del método de momentos no sean eficientes y en muchos casos
sean sesgados. Las virtudes básicas de este método son su facilidad de aplicación y que a
veces proporciona estimadores con propiedades razonables.
Ejercicios
9.69
Sea Y1, Y2, . . . , Yn una muestra aleatoria de la función de densidad de probabilidad
f ( y | u) =
(u + 1) y u ,
0 < y < 1 u > −1,
0,
en cualquier otro punto.
Encuentre un estimador para u por el método de momentos. Demuestre que el estimador es consistente.
n
¿El estimador es una función del estadístico suficiente − i=1 ln(Yi ) que podemos obtener del criterio
de factorización? ¿Qué implicaciones tiene esto?
9.70
Suponga que Y1, Y2, . . . , Yn constituyen una muestra aleatoria de una distribución de Poisson con media
l. Encuentre el estimador del método de momentos para l.
9.71
Si Y1, Y2, . . . , Yn denotan una muestra aleatoria de la distribución normal con media conocida m = 0 y
varianza desconocida s2, encuentre el estimador de s2 por el método de momentos.
9.72
Si Y1, Y2, . . . , Yn denotan una muestra aleatoria de una distribución normal con media m y varianza s2,
encuentre los estimadores de m y s2 por medio del método de momentos.
9.73
Una urna contiene u bolas negras y N − u bolas blancas. Una muestra de n bolas se ha de seleccionar sin
restitución. Sea Y el número de bolas negras de la muestra. Demuestre que (N/n)Y es el estimador del
método de momentos para u.
9.74
Sea Y1, Y2, . . . , Yn una muestra aleatoria de la función de densidad de probabilidad dada por
f ( y | u) =
2
u2
0,
(u − y),
0 ≤ y ≤ u,
en cualquier otro punto.
a Encuentre un estimador para u usando el método de momentos.
b ¿Este estimador es un estadístico suficiente para u?
9.75
Sea Y1, Y2, . . . , Yn una muestra aleatoria de la función de densidad de probabilidad dada por
f ( y | u) =
[
2u) u−1
( y )(1 − y) u−1 ,
u ]2
0,
Encuentre el estimador de u por el método de momentos.
0 ≤ y ≤ 1,
en cualquier otro punto.
476
Capítulo 9
Propiedades de los estimadores puntuales y métodos de estimación
9.76
Sean X1, X2, . . . , Xn variables aleatorias de Bernoulli independientes tales que P (Xi =1) = p y P (Xi =
0) = 1 − p para cada i = 1, 2, 3,… Con la variable aleatoria Y denote el número de intentos necesario
para obtener el primer éxito, es decir, el valor de i para el cual Xi = 1 ocurre primero. Entonces Y tiene
una distribución geométrica con P (Y = y) = (1 − p)y−1p, para y = 1, 2, 3,… Encuentre el estimador del
método de momentos para p basado en esta única observación de Y.
9.77
Sean Y1, Y2, . . . , Yn variables aleatorias uniformes independientes y distribuidas idénticamente en el
intervalo (0, 3u). Deduzca el estimador del método de momentos para u.
9.78
Sean Y1, Y2, . . . , Yn variables aleatorias independientes y distribuidas idénticamente de una familia de
distribución de potencias con parámetros a y u = 3. Entonces, como en el Ejercicio 9.43, si a > 0,
f ( y | a) =
ay a−1 / 3a ,
0 ≤ y ≤ 3,
0,
en cualquier otro punto..
Demuestre que E (Y1) = 3a/ (a + 1) y deduzca el estimador del método de momentos para a.
*9.79
Sean Y1, Y2, . . . , Yn variables aleatorias independientes y distribuidas idénticamente de una distribución
de Pareto con parámetros a y b, donde b es conocida. Entonces, si a > 0,
f ( y| a, b) =
aba y −(a+1) ,
y ≥ b,
0,
en cualquier otro punto.
Demuestre que E (Yi) = ab/ (a − 1) si a > 1 y E (Yi) no está definida si 0 < a < 1. Entonces, el estimador del método de momentos para a no está definido.
9.7 Método de máxima verosimilitud
En la Sección 9.5 presentamos un método para obtener un estimador insesgado de varianza
mínima (MVUE) por un parámetro objetivo: usando el criterio de factorización junto con
el teorema de Rao–Blackwell. El método requiere que encontremos alguna función de un
estadístico suficiente mínimo que es un estimador insesgado para el parámetro objetivo. Aun
cuando tenemos un método para hallar un estadístico suficiente, la determinación de la función del estadístico suficiente mínimo que proporciona un estimador insesgado puede ser en
gran medida una cuestión de azar. La Sección 9.6 contiene una exposición del método de
momentos. El método de momentos es intuitivo y fácil de aplicar, pero por lo general no lleva
a los mejores estimadores. En esta sección presentamos el método de máxima verosimilitud
que con frecuencia proporciona estimadores insesgados de varianza mínima (MVUE).
Usamos un ejemplo para ilustrar la lógica en la que está basado el método de máxima verosimilitud. Suponga que tenemos una caja que contiene tres pelotas. Sabemos que cada una
de las pelotas puede ser roja o blanca, pero no sabemos el número total de cualquiera de los
colores. No obstante, podemos muestrear aleatoriamente dos de las pelotas sin restitución. Si
nuestra muestra aleatoria contiene dos pelotas rojas, ¿cuál sería una buena estimación del número total de pelotas rojas en la caja? Obviamente, el número de pelotas rojas en la caja debe
ser dos o tres (si hubiera cero o una pelota roja en la caja, sería imposible obtener dos pelotas
rojas cuando se hace muestreo sin restitución). Si hay dos pelotas rojas y una pelota blanca en
la caja, la probabilidad de seleccionar aleatoriamente dos pelotas rojas es
2
2
1
0
3
2
1
= .
3
9.7
Método de máxima verosimilitud 477
Por otra parte, si hay tres pelotas rojas en la caja, la probabilidad de seleccionar aleatoriamente
dos pelotas rojas es
3
2
= 1.
3
2
Parece razonable escoger el tres como la estimación del número de pelotas rojas en la caja
porque esta estimación maximiza la probabilidad de obtener la muestra observada. Desde
luego que es posible que la caja contenga sólo dos pelotas rojas, pero el resultado observado
confiere más crédito a que haya tres pelotas rojas en la caja.
Este ejemplo ilustra un método para hallar un estimador que puede aplicarse a cualquier
situación. La técnica, llamada método de máxima verosimilitud, selecciona como estimaciones los valores de los parámetros que maximizan la verosimilitud (la función de probabilidad conjunta o función de densidad conjunta) de la muestra observada (vea la Definición
9.4). Recuerde que nos referimos a este método de estimación en el Capítulo 3 donde, en
los Ejemplos 3.10 y 3.13 y en el Ejercicio 3.101, encontramos las estimaciones de máxima
verosimilitud del parámetro p con base en observaciones individuales en variables aleatorias
binomiales negativas, binomiales y geométricas, respectivamente.
Método de máxima verosimilitud
Suponga que la función de verosimilitud depende de k parámetros u1, u2, . . . , uk. Escoja
como estimaciones los valores de los parámetros que maximicen la verosimilitud
L ( y1 , y2 , . . . , yn | u1 , u 2 , . . . , uk ).
Para destacar el hecho de que la función de verosimilitud es una función de los parámetros
u1, u2, . . . , uk, a veces expresamos la función de verosimilitud como L(u1, u2, . . . , uk). Es
común referirnos a estimadores de máxima verosimilitud como a los MLE, por sus siglas en
inglés. Ilustramos el método con un ejemplo.
EJEMPLO 9.14
Un experimento binomial consistente en n ensayos resultó en las observaciones y1, y2, . . . , yn,
donde yi = 1 si el i-ésimo intento fue un éxito y yi = 0 en cualquier otro punto. Encuentre el
MLE de p, la probabilidad de un éxito.
Solución
La verosimilitud de la muestra observada es la probabilidad de observar y1, y2, . . . , yn. En
consecuencia,
n
L ( p) = L ( y1 , y2 , . . . , yn | p) = p y (1 − p) n−y ,
donde y =
yi .
i=1
Ahora deseamos determinar el valor de p que maximice L (p). Si y = 0, L (p) = (1 − p)n y
L (p) se maximiza cuando p = 0. Análogamente, si y = n, L ( p) = pn y L ( p) se maximiza
cuando p = 1. Si y = 1, 2, . . . , n − 1, entonces L (p)= py (1 − p)1 − y es cero cuando p = 0 y p =
1 y es continua para valores de p entre 0 y 1. Entonces, para y = 1, 2, . . . , n − 1, podemos determinar el valor de p que maximice L (p) al igualar a cero la derivada d L (p)/d p y despejando p.
Usted notará que ln[L (p)] es una función creciente en forma monotónica de L (p). En consecuencia, tanto ln[L (p)] como L (p) se maximizan para el mismo valor de p. Como L (p) es un
478
Capítulo 9
Propiedades de los estimadores puntuales y métodos de estimación
producto de funciones de p y hallar la derivada de productos resulta laborioso, es más fácil
hallar el valor de p que maximice ln[L (p)]. Tenemos
ln[L( p)] = ln p y (1 − p) n−y = y ln p + (n − y) ln(1 − p).
Si y = 1, 2, . . . , n − 1, la derivada de ln[L (p)] con respecto a p, es
d ln[L ( p)]
=y
dp
1
p
+ (n − y)
−1
.
1−p
Para y = 1, 2, . . . , n − 1, el valor de p que maximice (o minimice) ln[L (p)] es la solución de
la ecuación
n−y
y
−
= 0.
p̂ 1 − p̂
Resolviendo, obtenemos la estimación p̂ = y / n . Se puede verificar fácilmente que esta solución se presenta cuando ln[L (p)] [y por tanto L (p)] alcanza un máximo.
Debido a que L (p) se maximiza en p = 0 cuando y = 0, en p = 1 cuando y = n y en p =
y/n cuando y = 1, 2, . . . , n − 1, cualquiera que sea el valor observado de y, L (p) se maximiza
cuando p = y/n.
El MLE, p̂ = Y / n, es la fracción de éxitos en el número total de intentos n. Por tanto, el
MLE de p es en realidad el estimador intuitivo para p que usamos en todo el Capítulo 8. Q
EJEMPLO 9.15
Sea Y1, Y2, . . . , Yn una muestra aleatoria de una distribución normal con media m y varianza
s2. Encuentre los estimadores de máxima verosimilitud (MLE) de m y s2.
Solución
Como Y1, Y2, . . . , Yn son variables aleatorias continuas, L (m, s2) es la densidad conjunta de
la muestra. Así, L (m, s 2 ) = f ( y1 , y2 , . . . , yn | m, s 2 ). En este caso,
L(m, s 2 ) = f ( y1 , y2 , . . . , yn | m, s 2 )
= f ( y1 | m, s 2 ) × f ( y2 | m, s 2 ) × . . . × f ( yn | m, s 2 )
=
=
1
s √2p
1
2ps2
exp
−( y1 − m) 2
2s2
n/ 2
exp
−1
2s2
× . . .×
1
s √2p
exp
−( yn − m) 2
2s2
n
( yi − m) 2 .
i=1
[Recuerde que exp(w) es sólo otra forma de escribir ew.] Además,
n
n
1
ln L(m, s 2 ) = − ln s2 − ln 2p − 2
2
2
2s
n
( yi − m) 2 .
i=1
Los MLE de m y s2 son los valores que hacen ln[L (m, s2) un máximo. Evaluando derivadas
con respecto a m y s2, obtenemos
1 n
∂{ln[L(m, s 2 )]}
= 2
( yi − m)
∂m
s i=1
9.7
Método de máxima verosimilitud 479
1
s2
+
y
∂{ln[L(m, s 2 )]}
n
=−
2
∂s
2
1
2s4
n
( yi − m) 2 .
i=1
Igualando a cero estas derivadas y resolviendo simultáneamente, obtenemos de la primera
ecuación
1
ŝ2
n
n
( yi − m̂) = 0, o
yi − n m̂ = 0,
y
m
ˆ =
i=1
i=1
1
n
n
yi = y.
i=1
Sustituyendo y por m̂ en la segunda ecuación y despejando ŝ2 , tenemos
−
n
1
+ 4
ŝ2
ŝ
n
( yi − y) 2 = 0,
i=1
o
ŝ2 =
1
n
n
( yi − y) 2 .
i=1
n
2
2
Entonces, Y y ŝ2 = n1
i=1 (Yi − Y ) son los MLE de m y s , respectivamente. Observe que
2
Y es insesgada para m. Aun cuando ŝ no está insesgada para s2, se puede ajustar fácilmente
al estimador insesgado S2 (vea el Ejemplo 8.1).
Q
EJEMPLO 9.16
Solución
Sea Y1, Y2, . . . , Yn una muestra aleatoria de observaciones de una distribución uniforme
con función de densidad de probabilidad f (yi | u) = 1/u, para 0 ≤ yi ≤ u e i = 1, 2, . . . , n.
Encuentre el MLE de u.
En este caso, la verosimilitud está dada por
L(u) = f ( y1 , y2 , . . . , yn | u) = f ( y1 | u) × f ( y2 | u) × . . . × f ( yn | u)
1
1
1
1
× ×. . . ×
= n , si 0 ≤ yi ≤ u, i = 1, 2, . . . , n,
u
u
u
u
=
0,
en cualquier otro punto.
Obviamente, L(u) no está maximizado cuando L(u) = 0. Usted notará que 1/ un es una función
de u que decrece en forma monotónica. Por tanto, en ninguna parte del intervalo 0 < u < q es
d[1/un]/du igual a cero. No obstante, 1/un aumenta cuando u disminuye y 1/un se maximiza
al seleccionar u tan pequeña como sea posible, sujeto a la restricción de que todos los valores
de yi estén entre 0 y u. El valor más pequeño de u que satisface esta restricción es la máxima
observación del conjunto y1, y2, . . . , yn. Esto es, û = Y(n) = máx(Y1 , Y2 , . . . , Yn ) es el MLE
para u. Este MLE para u no es un estimador insesgado de u, pero se puede ajustar para ser
insesgado, como se muestra en el Ejemplo 9.1.
Q
Hemos visto que los estadísticos suficientes que mejor resumen los datos tienen propiedades deseables y con frecuencia se pueden usar para determinar un estimador insesgado de
varianza mínima (MVUE) para parámetros de interés. Si U es cualquier estadístico suficiente
para la estimación de un parámetro u, incluyendo el estadístico suficiente obtenido del uso
óptimo del criterio de factorización, el MLE es siempre alguna función de U. Esto es, el MLE
depende de las observaciones muestrales sólo mediante el valor de un estadístico suficiente.
480
Capítulo 9
Propiedades de los estimadores puntuales y métodos de estimación
Para demostrar esto, sólo necesitamos observar que si U es un estadístico suficiente para u,
el criterio de factorización (Teorema 9.4) implica que la verosimilitud puede ser factorizada
como
L(u) = L( y1 , y2 , . . . , yn | u) = g(u, u) h( y1 , y2 , . . . , yn ),
donde g (u, u) es una función de sólo u y u y h (y1, y2, . . . , yn) no depende de u. Por tanto, se
deduce que
ln[L(u) ] = ln[g (u, u) ] + ln[h ( y1 , y2 , . . . , yn )].
Observe que ln[h (y1, y2, . . . , yn)] no depende de u y por tanto maximizar ln[L (u)] con respecto a u es equivalente a maximizar ln[g (u, u)] con respecto a u. Como ln[g (u, u)] depende
de los datos sólo mediante el valor del estadístico suficiente U, el MLE para u es siempre
alguna función de U. En consecuencia, si un MLE para un parámetro se puede hallar y luego
ajustar para ser insesgado, el estimador resultante es con frecuencia un MVUE del parámetro
en cuestión.
Los MLE tienen algunas propiedades adicionales que hacen que este método de estimación
sea particularmente atractivo. En el Ejemplo 9.9 consideramos la estimación de u2, una función del parámetro u. Funciones de otros parámetros también pueden ser de interés. Por ejemplo, la varianza de una variable aleatoria binomial es np (1 − p), una función del parámetro p.
Si Y tiene una distribución de Poisson con media l, se deduce que P(Y = 0) = e−l; podemos
desear calcular esta función de l. En general, si u es el parámetro asociado con una distribución, en ocasiones estamos interesados en calcular alguna función de u, por ejemplo t(u), en
lugar de u misma. En el Ejercicio 9.94 usted demostrará que si t(u) es una función biunívoca
de u y si û es el MLE para u, entonces el MLE de t(u) está dado por
t (u) = t ( û).
Este resultado, a veces conocido como la propiedad de invarianza de los MLE, también se
cumple para cualquier función de un parámetro de interés (no sólo funciones biunívocas).
Véanse más detalles en la obra de Casella y Berger (2002).
EJEMPLO 9.17
En el Ejemplo 9.14, encontramos que el estimador de máxima verosimilitud (MLE) de una
proporción binomial p está dado por p̂ = Y/ n . ¿Cuál es el MLE para la varianza de Y?
Solución
La varianza de una variable aleatoria binomial Y está dada por V (Y) = np (1 − p). Como V (Y)
es una función del parámetro binomial p, por ejemplo, V(Y) = t(p) con t(p) = np (1 − p), se
deduce que el MLE de V(Y) está dado por
V (Y ) = t ( p) = t ( p̂) = n
Y
n
1−
Y
n
.
Este estimador no está insesgado, pero, usando el resultado del Ejercicio 9.65, podemos fácilmente ajustarlo para hacerlo insesgado. En realidad,
n
Y
n
1−
Y
n
n
n −1
=
n2
n −1
Y
n
1−
Y
n
es el estimador insesgado único de varianza mínima (UMVUE) para t(p) = np(1 − p).
Q
Ejercicios 481
En la siguiente sección (opcional), resumimos algunas de las propiedades útiles y convenientes de los MLE con muestras grandes.
Ejercicios
9.80
Suponga que Y1, Y2, . . . , Yn denotan una muestra aleatoria de la distribución de Poisson con media l.
a
b
c
d
Encuentre el MLE l̂ para l.
Encuentre el valor esperado y la varianza de l̂.
Demuestre que el estimador del inciso a es consistente para l.
¿Cuál es el MLE para P(Y = 0) = e–l?
9.81
Suponga que Y1, Y2, . . . , Yn denotan una muestra aleatoria de una población distribuida exponencialmente
con media u. Encuentre el MLE de la varianza poblacional u2. [Sugerencia: recuerde el Ejemplo 9.9.]
9.82
Sea Y1, Y2, . . . , Yn una muestra aleatoria de la función de densidad dada por
1
r
r y r −1 e−y /u ,
u
f ( y | u) =
0,
u > 0, y > 0,
en cualquier otro punto,
donde r es una constante positiva conocida.
a Encuentre un estadístico suficiente para u.
b Encuentre el MLE de u.
c ¿El estimador del inciso b es un MVUE para u?
9.83
Suponga que Y1, Y2, . . . , Yn constituyen una muestra aleatoria de una distribución uniforme con función
de densidad de probabilidad
1
,
2u + 1
0,
f ( y | u) =
0 ≤ y ≤ 2u + 1,
en cualquier otro punto.
a Obtenga el MLE de u.
b Obtenga el MLE para la varianza de la distribución subyacente.
9.84
Cierto tipo de componente electrónico tiene una duración Y (en horas) con función de densidad de probabilidad dada por
1
u2
f ( y | u) =
0,
ye−y/u ,
y > 0,
en cualquier otro punto.
Esto es, Y tiene una distribución gamma con parámetros a = 2 y u. Con û denote el MLE de u. Suponga
que tres de tales componentes, probados independientemente, tuvieron duraciones de 120, 130 y 128
horas.
a Encuentre el MLE de u.
b Encuentre E( û) y V ( û).
c Suponga que u en realidad es igual a 130. Proporcione un límite aproximado que pudiera esperarse
para el error de estimación.
d ¿Cuál es el MLE para la varianza de Y?
482
Capítulo 9
Propiedades de los estimadores puntuales y métodos de estimación
9.85
Sean Y1, Y2, . . . , Yn una muestra aleatoria de la función de densidad dada por
1
a ua
f ( y | a, u) =
y a−1 e−y/u ,
0,
y > 0,
en cualquier otro punto,
donde a > 0 es conocida.
a
b
c
d
e
Encuentre el MLE û de u.
Encuentre el valor esperado y la varianza de û.
Demuestre que û es consistente para u.
¿Cuál es el mejor (mínimo) estadístico suficiente para u en este problema?
Suponga que n = 5 y a = 2. Use el mínimo estadístico suficiente para construir un intervalo de confianza de 90% para u. [Sugerencia: transforme en una distribución x2.]
9.86
Suponga que X1, X2, . . . , Xm, que representan la producción por acre para la variedad A de maíz, constituyen una muestra aleatoria de una distribución normal con media m1 y varianza s2. También, Y1, Y2, .
. . , Yn, que representan la producción para la variedad B de maíz, constituyen una muestra aleatoria de
una distribución normal con media m2 y varianza s2. Si las X y las Y son independientes, encuentre el
MLE para la varianza común s2. Suponga que m1 y m2 son desconocidas.
9.87
Una muestra aleatoria de 100 votantes seleccionados de una población grande reveló que 30 están a favor del candidato A, 38 a favor del candidato B y 32 a favor del candidato C. Encuentre los MLE para las
proporciones de votantes en la población que están a favor de los candidatos A, B y C, respectivamente.
Calcule la diferencia entre las fracciones que están a favor de A y B y ponga un límite de desviación
estándar de 2 en el error de estimación.
9.88
Sea Y1, Y2, . . . , Yn una muestra aleatoria de la función de densidad de probabilidad
f ( y |u) =
(u + 1) y u ,
0 < y < 1, u > −1,
0,
en cualquier otro punto.
Encuentre el MLE para u. Compare su respuesta con el estimador del método de momentos hallado en
el Ejercicio 9.69.
9.89
Se sabe que la probabilidad p de obtener una cara al lanzar al aire una moneda desbalanceada es 1/ 4 o
3/ 4. La moneda es lanzada dos veces al aire y se observa un valor para Y, el número de caras. Para cada
valor posible de Y, ¿cuál de los dos valores para p (1/4 o 3/ 4) maximiza la probabilidad de que Y = y?
Dependiendo del valor de y observado realmente, ¿cuál es el MLE de p?
9.90
Veinticinco hombres que forman parte de una muestra aleatoria de 100 hombres están a favor de una
controvertida propuesta. De una muestra aleatoria independiente de 100 mujeres, un total de 30 estaban
a favor de la propuesta. Suponga que pM es la verdadera proporción subyacente de hombres que están a
favor de la propuesta y que pW es la verdadera proporción subyacente de mujeres que están a favor de la
propuesta. Si en realidad es cierto que pW = pM = p, encuentre el MLE de la proporción común p.
*9.91
Encuentre el MLE de u con base en una muestra aleatoria de tamaño n de una distribución uniforme en
el intervalo (0, 2u).
*9.92
Sea Y1, Y2, . . . , Yn una muestra aleatoria de una población con función de densidad
3y 2
, 0 ≤ y ≤ u,
f ( y | u) =
u3
0,
en cualquier otro punto.
En el Ejercicio 9.52 se demostró que Y(n) = máx(Y1, Y2, . . . , Yn) es suficiente para u.
a Encuentre el MLE para u. [Sugerencia: vea el Ejemplo 9.16.]
b Encuentre una función del MLE en el inciso a que sea una cantidad pivote. [Sugerencia: vea el
Ejercicio 9.63.]
c Use la cantidad pivote del inciso b para determinar un intervalo de confianza de 100(1 − a)% para u.
9.8 Algunas propiedades de los estimadores de máxima verosimilitud con muestras grandes 483
*9.93
Sea Y1, Y2, . . . , Yn una muestra aleatoria de una población con función de densidad
2u 2
, u < y < q,
|
f ( y u) =
y3
0,
en cualquier otro punto.
En el ejercicio 9.53 se demostró que Y(1) = mín(Y1, Y2, . . . , Yn) es suficiente para u.
a Encuentre el MLE para u. [Sugerencia: véase el ejemplo 9.16.]
b Encuentre una función del MLE obtenido en el inciso a que sea una cantidad pivote.
c Utilice la cantidad pivote obtenida en el inciso b para encontrar un intervalo de confianza de 100
( 1− a)% para u.
*9.94
Suponga que û es el MLE para un parámetro u. Sea t(u) una función de u que posee una inversa única
[es decir, si b = t(u), entonces u = t−1(b)]. Demuestre que t ( û) es el MLE de t(u).
*9.95
Una muestra aleatoria de n piezas se selecciona de entre un número grande de piezas producidas por
cierta línea de producción en un día. Encuentre el MLE de la relación R, la proporción de piezas defectuosas dividida entre la proporción de piezas buenas.
9.96
Considere una muestra aleatoria de tamaño n de una población normal con media m y varianza s2, pero
desconocida. Deduzca el MLE de s.
9.97
La función de masa de probabilidad geométrica está dada por
|
p ( y p)
= p (1 − p) y−1 ,
y = 1, 2, 3, . . .
Una muestra aleatoria de tamaño n se toma de una población con una distribución geométrica.
a Encuentre el estimador del método de momentos para p.
b Encuentre el estimador de máxima verosimilitud (MLE) para p.
9.8 Algunas propiedades de los
estimadores de máxima verosimilitud
con muestras grandes (opcional)
Los estimadores de máxima verosimilitud también tienen propiedades interesantes cuando se
trabaja con muestras grandes. Suponga que t(u) es una función derivable de u. En la Sección
9.7 afirmamos por la propiedad de invarianza que si û es el MLE de u, entonces el MLE de t(u)
está dado por t ( û). En algunas condiciones de regularidad que se cumplen para las distribuciones que consideraremos, t ( û) es un estimador consistente para t (u). Además, para tamaños
muestrales grandes,
t ( û) − t (u)
Z=
∂t (u) 2
∂ 2 ln f (Y | u)
nE −
∂u
∂u 2
tiene aproximadamente una distribución normal estándar. En esta expresión, la cantidad f
(Y | u) del denominador es la función de densidad correspondiente a la distribución continua
de interés, evaluada en el valor aleatorio Y. En el caso discreto, el resultado análogo se cumple con la función de probabilidad evaluada en el valor aleatorio Y, p (Y | u) se sustituye por
la densidad f (Y | u). Si deseamos un intervalo de confianza para t (u), podemos usar a Z como la
cantidad pivote. Si continuamos como en la Sección 8.6, obtenemos el siguiente intervalo de
Descargar