ESTADISTICA MATEMATICA Agustı́n Garcı́a Nogales Problemas Capı́tulo III Estimación Puntual Problema 2.1. (Sobre estructuras exponenciales) Decidir si son exponenciales o no las estructuras siguientes y, en caso afirmativo, determinar un estadı́stico suficiente y completo para ellas. (a) (R, R, {N (µ, σ 2 ) : µ ∈ R, σ 2 > 0})n . (b) (R, R, {N (µ, σ02 ) : µ ∈ R})n . (c) (R, R, {N (µ0 , σ 2 ) : σ 2 > 0})n . (d) (R, R, {G(α, β) : α > 0, β > 0})n , donde G(α, β) es la distribución gamma de parámetros α y β (véase el problema ??). (e) (R, R, {Pθ : θ > 0}) donde Pθ es la distribución uniforme en [0, θ]. Problema 2.2. (Patologı́as del estimador de máxima verosimilitud) (a) Consideremos la estructura estadı́stica (R, R, {Pθ : θ ∈ R})n , donde Pθ denota la distribución uniforme en el intervalo [θ, θ + 1]. ¿Qué se puede decir del estimador de máxima verosimilitud de θ? (b) Consideremos la estructura estadı́stica (R, R, {P(µ,σ2 ) : µ ∈ R, σ 2 > 0}), donde P(µ,σ2 ) es una mezcla de dos distribuciones normales: ( 2 ) 1 1 1 x − µ 1 dP(µ,σ2 ) (x)/dx = √ exp − (x − µ)2 + √ exp − 2 2 σ 2 2π 2σ 2π ¿Qué se puede decir del estimador de máxima verosimilitud de (µ, σ 2 )? (c) Consideremos la estructura estadı́stica (R+ , R+ , {Pθ : θ > 0})n , donde Pθ es la distribución uniforme sobre [0, θ]. ¿Cuál es el estimador de máxima verosimilitud de θ? ¿Es admisible? Problema 2.3. (Muestras de tamaño n de una distribución de Bernouilli) (a) Sean X1 , . . . , Xn v.a. independientes de Bernouilli con parámetro desconocido θ ∈]0, 1[ (es decir, las Xi son v.a. discretas que toman el valor 1 con probabilidad θ y el valor cero con probabilidad 1 − θ). Probar que no existe un estimador insesgado de f (θ) := θ(1 − θ)−1 . (b) Se trata ahora de estimar la varianza θ(1 − θ). Se propone el estimador T = X̄(1 − X̄). Probar que T no es insesgado. Encontrar un estimador insesgado de θ(1 − θ) que sea múltiplo de T . 0 a. garcı́a nogales-problemas de estadı́stica matemática 1 Problema 2.4. (Muestras de tamaño n de una ley de Poisson) Sea X1 , . . . , Xn una muestra de tamaño n de una distribución de Poisson de parámetro θ ∈]0, +∞[ desconocido (Pθ ({k}) = e−θ θk /k!, k = 0, 1, 2, . . . , θ > 0). (a) ¿Es X̄ un estimador insesgado de θ ? ¿Cuál es el riesgo cuadrático del estimador X̄? (b) Probar que X̄ es un estadı́stico suficiente y completo. (c) ¿Cuál es el estimador de máxima verosimilitud de θ? (Suponer, en este caso, que el espacio de parámetros es [0, +∞[). (d) Se pretende ahora estimar f (θ) := exp{−kθ} (=probabilidad de que sobre k ∈ N experiencias futuras se observe siempre el valor cero). Comprobar que exp{−k X̄} no es un estimador insesgado de f . Determinar una función g : N −→ R tal que g(nX̄) sea un estimador insesgado de f . ¿Qué ocurre si se toma n = 1 y k = 2? Problema 2.5. (Distribución uniforme sobre un conjunto finito) Se observa una muestra de tamaño n de una distribución Pθ uniforme en {1, . . . , θ} de parámetro θ ∈ N desconocido (Pθ asigna masa θ−1 a cada uno de los sucesos elementales 1, 2, . . . , θ). Se trata de estimar el parámetro θ. (a) Describir la estructura estadı́stica apropiada para ese problema de estimación puntual. (b) Encontrar un estimador insesgado T de θ función afı́n de la media muestral y calcular el riesgo cuadrático de T . (c) Determinar el estimador de máxima verosimilitud M de θ. Describir las distribuciones de M respecto a las Pθ . (d) Describir un estadı́stico suficiente y completo. (e) Determinar el estimador insesgado de mı́nima varianza de θ. (f) Consideremos la distribución a priori Q en Θ = N definida por Q(θ) = Cθn 2−θ , siendo C una constante apropiada de forma que Q sea, efectivamente, una probabilidad. Determinar el estimador Bayes de θ para la función de pérdida error cuadrático. Problema 2.6. (La distribución uniforme en [0, θ], θ > 0) Se observa una muestra de tamaño n de una distribución uniforme U[0, θ] en [0, θ] de parámetro θ > 0 desconocido. Sean Xi , 1 ≤ i ≤ n, las aplicaciones coordenadas de Rn en R. (a) Describir la estructura estadı́stica apropiada para un problema de inferencia sobre el parámetro θ. (b) Determinar un estadı́stico suficiente y completo para esa estructura. (c) Encontrar el estimador insesgado de mı́nima varianza de la media f (θ) = θ/2. 2 a. garcı́a nogales-problemas de estadı́stica matemática (d) Comparar los riesgos cuadráticos del estimador obtenido en (c) y del estimador X̄, y concluir que la media muestral no es siempre el mejor estimador de la media de una distribución. Problema 2.7. (Distribución normal) (a) Encontrar los estimadores insesgados de mı́nima varianza para los parámetros de una distribución normal a partir de una muestra de tamaño n, tanto en el caso de que ambos parámetros sean desconocidos como en el caso de que uno de ellos sea conocido. (Véase el problema 2.1). (b) De acuerdo con (a), sobre la estructura (RnP , Rn , {N (µ, σ 2 )n : µ ∈ R, σ 2 > 0}), el estadı́stico S 2 (x1 , . . . , xn ) = (n − 1)−1 ni=1 (Xi − X̄)2 es el estimador insesgado de mı́nima varianza de σ 2 . Encontrar un número positivo t tal que el riesgo cuadrático del estimador tS 2 sea inferior al riesgo cuadrático de S 2 (ese nuevo estimador será, entonces, sesgado). Observación. La varianza muestral es pues el estimador insesgado de mı́nima varianza de la varianza de una distribución normal de parámetros desconocidos, pero no es un estimador admisible. (c) En la estructura estadı́stica correspondiente a una muestra de tamaño n de una distribución normal unidimensional de media y varianza desconocidas, determinar el estimador de máxima verosimilitud de µ y de σ 2 . Problema 2.8. (Distribución uniforme sobre un intervalo con extremos desconocidos) Consideremos la estructura estadı́stica (Rn , Rn , {U[a, b]n : − ∞ < a < b < +∞}), donde U[a, b] denota la distribución uniforme en [a, b]. X1 , . . . , Xn serán las aplicaciones coordenada en Rn . (a) Si a < b, la media de la distribución U[a, b] es (a + b)/2. Probar que X̄ y 1 2 (X(1) + X(n) ) son estimadores insesgados de (a + b)/2. (b) Describir la distribución de X(·) = (X(1) , . . . , X(n) ) respecto a U[a, b]n , y las distribuciones condicionales de (X(2) , . . . , X(n−1) ) respecto a (X(1) , X(n) ). (c) Calcular sucesivamente E[X(2) + · · · + X(n−1) |X(1) , X(n) ], E[X(1) + · · · + X(n) |X(1) , X(n) ], E[X̄|X(1) , X(n) ]. (d) Si Y es una v.a.r. de cuadrado integrable y si X es una v.a., se define la varianza condicional (véase el problema ??) de Y respecto a X por Var[Y |X] = E[Y 2 |X] − E(Y |X)2 . a. garcı́a nogales-problemas de estadı́stica matemática 3 Probar que Var[Y |X] es una v.a.r. no negativa. Probar también que Var(Y ) = E[E(Y 2 |X) − E(Y |X)2 ] + E[E(Y |X)2 − E(Y )2 ] = E[Var(Y |X)] + Var[E(Y |X)] y que la varianza condicional Var(Y |X = x) es la varianza de la distribución condicional P Y |X=x . (e) Deducir que el estimador 12 (X(1) + X(n) ) es preferible a X̄. Probar de hecho que ( 2 ) 1 E(a,b) X̄ − (a + b) 2 ( 2 ) 1 1 (X + X(n) ) − (a + b) = E(a,b) 2 (1) 2 + n−2 E {[X(n) − X(1) ]2 } 12n2 (a,b) (f) El estadı́stico (X(1) , X(n) ) es suficiente y completo para la estructura estadı́stica original. Nota: Suponer conocido (véase el problema ??) que la densidad de (X(1) , X(n) ) (densidad conjunta de X(1) y X(n) ) es g(x, y) = n(n − 1) (y − x)n−1 I[a,b]2 ∩R(2) (x, y). (b − a)n (g) Probar que los estadı́sticos T1 := (X(1) + X(n) )/2 y T2 := n+1 n−1 (X(n) − X(1) ) son estimadores insesgados de τ1 (a, b) := (a + b)/2 y τ2 (a, b) := b − a, respectivamente. Determinar estimadores insesgados de mı́nima varianza de τ1 y τ2 y de los parámetros a y b. (h) Calcular el estimador de máxima verosimilitud de (a, b). Problema 2.9. Se observa una muestra de tamaño n de una distribución de Pareto unilateral de parámetros α > 0 y r > 0 cuya densidad (respecto a la medida de Lebesgue en R) es f (x) = αrα x−α−1 I]r,∞[ (x). (a) Determinar un estadı́stico suficiente para el estudio del parámetro (α, r). (b) Supongamos α conocido. Determinar el estimador de máxima verosimilitud de r. Determinar la distribución de ese estimador. Decidir si es o no insesgado. 4 a. garcı́a nogales-problemas de estadı́stica matemática Nota: En algunos tipos de estadı́sticas económicas encontramos a veces distribuciones truncadas que se aproximan a menudo por una distribución de Pareto. P. ej., en estadı́sticas de rentas, los datos obtenidos suelen referirse a las distribuciones de rentas de personas cuyas rentas exceden un cierto valor r fijado por las disposiciones legales. Problema 2.10. (Estimación Bayesiana) (a) Consideremos la estructura estadı́stica (R+ , R+ , {Pθ : θ > 0}), donde Pθ es la distribución uniforme en [0, θ]. Consideremos el espacio de parámetros Θ =]0, +∞[ provisto de su σ-álgebra de Borel y de la distribución a priori Q definida por dQ(θ) = θe−θ dθ. Determinar el estimador Bayes de θ para la función de pérdida error cuadrático. (b) Consideremos la estructura estadı́stica (R, R, {Pθ : θ ∈ R}) donde Pθ es la distribución N (θ, σ 2 ) (suponemos σ > 0 conocido). Consideremos la distribución a priori Q = N (µ, τ 2 ) (µ ∈ R y τ > 0 conocidos). Calcular el estimador Bayes de θ para la función de pérdida error cuadrático. Problema 2.11. (Estimación puntual no paramétrica) A lo largo de este problema utilizaremos las siguientes notaciones: P0 = {distribuciones en R absolutamente continuas} Pi = {distribuciones en R absolutamente continuas y con momento finito de orden i}, Pin n n = {P : P ∈ Pi }, i = 0, 2, 4 i = 0, 2, 4 Xi : R −→ R aplicación coordenada i- ésima, 1 ≤ i ≤ n. X(·) vector de los estadı́sticos de orden. (a) X(·) es un estadı́stico suficiente para las estructuras (Rn , Rn , Pin ), i = 0, 2, 4. (b) Supóngase de momento probado que X(·) es también un estadı́stico completo sobre esas dos estructuras no paramétricas y continuar con el problema (la demostración, algo complicada, se pospone para el final del problema). (c) Determinar estimadores insesgados de mı́nima varianza para los estimandos y las estructura estadı́stica siguientes: (c.1) Estructura estadı́stica: (Rn , Rn , P2n ); R R Estimando: g : P ∈ P2 −→ g(P ) = R xdP (x) = R x(dP (x)/dx)dx. (c.2) Estructura estadı́stica: (Rn , Rn , P0n ); Estimando: g : P ∈ P0 −→ g(P ) = P (] − ∞, a]) (a ∈ R fijo) (c.3) Estructura estadı́stica: (Rn , Rn , P2n ); a. garcı́a nogales-problemas de estadı́stica matemática Estimando: g : P ∈ P4 −→ g(P ) = R 2 R xdP (x) 5 . (d) (Demostración de (b) en varias etapas) (d.1) Denotemos por Σn el conjunto de las permutaciones en {1, . . . , n}. Si σ ∈ Σn y x = (x1 , . . . , xn ) ∈ Rn , se define φσ (x) = (xσ(1) , . . . , xσ(n) ). Si A es un conjunto no vacı́o arbitrario, una aplicación h : Rn −→ A se dirá simétrica si h(φσ (x)) = h(x), para cada x ∈ Rn y cada σ ∈ Σn . Probar que una v.a.r. h : Rn −→ R es simétrica si, y sólo si, existe una v.a.r. ϕ : Rn −→ R tal que h = ϕ ◦ X(·) . (d.2) Sean P, Q distribuciones de probabilidad en R y α ∈]0, 1[. Entonces R = [αP + (1 − α)Q]n es una probabilidad en Rn . Sea h : Rn −→ R una v.a.r. R-integrable. Supongamos P y Q absolutamente continuas respecto a la medida de Lebesgue con densidades p y q. Denotemos por Sk (n) el conjunto de las partes de {1, . . . , n} de cardinal k, k = 0, 1, . . . , n; si C ∈ Sk (n), escribiremos C = {C1 , . . . , Ck } y C c = {Ck+1 , . . . , Cn }. Probar que Z h(x1 , . . . , xn )dR(x1 , . . . , xn ) n X = αk (1 − α)n−k k=0 X Z h(x1 , . . . , xn ) k Y p(xCi ) i=1 C∈Sk (n) n Y q(xCj )dx1 . . . dxn . j=k+1 (d.3) Deducir de (d.2) que, si h es simétrica, entonces Z h(x1 , . . . , xn )d[αP + (1 − α)Q]n (x1 , . . . , xn ) n (∗) X n (n) = αk (1 − α)n−k Jk (P, Q, h) k k=0 donde, para k = 0, 1, . . . , n, Z (n) Jk (P, Q, h) = h(x1 , . . . , xn )dP (x1 ) . . . dP (xk )dQ(xk+1 ) . . . dQ(xn ). Observación. La igualdad (*) es cierta si h es simétrica incluso en el caso de que P y Q no sean absolutamente continuas; ¿cómo podrı́a uno convencerse de ello? 6 a. garcı́a nogales-problemas de estadı́stica matemática (d.4) Sea P una familia de distribuciones de probabilidad (con más de dos distribuciones) de forma que para cada P, Q ∈ P existe α ∈]0, 1[ tal que αP + (1 − α)Q está en P. Probar que entonces, dados P, Q ∈ P, existe una sucesión 1 > α1 > α2 > . . . > 0 tal que αm P + (1 − αm )Q ∈ P, m = 1, 2, . . . Def.: Diremos en ese caso que P tiene la propiedad (I). (d.5) Deducir de los dos apartados anteriores que, si h : Rn −→ R es una v.a.r. simétrica P n -integrable y tal que Z h(x1 , . . . , xn )dP n (x1 , . . . , xn ) = 0, ∀P ∈ P, (2.1) (n) entonces Jk (P, Q, h) = 0, ∀P, Q ∈ P, ∀k = 0, 1, . . . , n. (d.6) Utilizando (d.5), pruébese por inducción en n que, si h es simétrica y verifica (2.1), y si P tiene la propiedad (I) entonces Z h(x1 , . . . , xn )dP1 (x1 ) · · · dPn (xn ) = 0, ∀P1 , . . . , Pn ∈ P. (d.7) Pruébese que las familias Pi , i = 0, 2, 4, definidas al principio del problema satisfacen la propiedad (I) y probar que X(·) es un estadı́stico completo sobre (Rn , Rn , Pin ), i = 0, 1, 2, 4. Problema 2.12. (Distribución binomial) Sean k, n ∈ N. Se observa una muestra de tamaño n de una distribución binomial bk (p) de parámetro p ∈]0, 1[ desconocido. Nos plantearemos diversos problemas de inferencia sobre el parámetro p. (a) Describir la estructura estadı́stica apropiada para un problema de inferencia estadı́stica de ese tipo y un estadı́stico suficiente y completo para esa estructura. (b) Consideremos el problema de estimar la función del parámetro f : p ∈]0, 1[−→ f (p) = p(1 − p). Determinar el estimador insesgado de mı́nima varianza de f . (c) En este apartado supondremos n = 1. Nos proponemos estimar p bajo el punto de vista bayesiano considerando como distribución a priori la distribución uniforme en el espacio de parámetros ]0, 1[. Determinar las distribuciones a posteriori Pi∗ , i = 0, 1, . . . , k, y el estimador Bayes de p. Problema 2.13. (Distribución binomial) En la estructura estadı́stica ({0, 1, . . . , n}, P({0, 1, . . . , n}), {bn (p) : p ∈]0, 1[}), una función del parámetro f :]0, 1[−→ R admite un estimador insesgado si, y sólo si, f es un polinomio de grado menor o igual que n. a. garcı́a nogales-problemas de estadı́stica matemática 7 Problema 2.14. (Distribución hipergeométrica) Sean N, N1 , n ∈ N tales que N1 , n ≤ N . La distribución hipergeométrica H(N, N1 , n) es la distribución de una v.a. discreta que toma los valores k = 0, 1, . . . , n con probabilidades N1 N −N1 pk = n n−k N n , donde se ha denotado rt = t(t−1)···(t−r+1) si t ∈ R y r ∈ N. Esta es, como sabemos, r! la distribución correspondiente al muestreo sin reemplazamiento. La media y la N1 N −n N1 1 varianza de esta distribución son, respectivamente, nN N y n · n−1 · N · 1 − N . Fijos N, n ∈ N tales que n ≤ N , consideremos la estructura estadı́stica ({0, 1, . . . , n}, A, {Pθ : θ ∈ {0, 1, . . . , N }) donde A denota la σ-álgebra de las partes de Ω = {0, 1, . . . , n} y Pθ denota la distribución hipergeométrica H(N, θ, n) en Ω. Determinar el estimador T insesgado de mı́nima varianza del parámetro θ y calcular el error cuadrático Eθ [(T − θ)2 ] de ese estimador. Problema 2.15. (Distribución normal varianza conocida) Suponemos que observamos una muestra de tamaño n de una distribución normal de varianza 1 y media µ desconocida. (a) Describir el estimador de máxima verosimilitud de µ cuando el espacio de parámetros es: a.1. Θ = R; a.2. Θ = [−1, 1]. (b) Determinar el estimador Bayes de µ cuando el espacio de parámetros es R y la distribución a priori es la distribución de Dirac en un punto x0 ∈ R. Problema 2.16. (Condición necesaria y suficiente para que un estadı́stico real integrable sea un estimador insesgado de mı́nima varianza de su media) (a) Sea (Ω, A, {Pθ : θ ∈ Θ}) una estructura estadı́stica. Denotaremos, para cada θ ∈ Θ, por L2θ el conjunto de todos los estadı́sticos reales de cuadrado Pθ integrable sobre ella y haremos Uθ = {U ∈ L2θ : Eθ (U ) = 0}. Sean T ∈ L2 := ∩θ L2θ y hagamos f (θ) = Eθ (T ), θ ∈ Θ. Nótese que, para cada U ∈ Uθ , T U es integrable y Eθ (T U ) = Covθ (T, U ). Pruébese que una condición necesaria y suficiente para que T sea un estimador insesgado de mı́nima varianza de f es que T sea Pθ -incorrelado con cada estadı́stico U ∈ Uθ , para cada θ ∈ Θ, es decir, que Covθ (T, U ) = 0, ∀U ∈ Uθ , ∀θ ∈ Θ. (b) (No existencia de estimadores insesgados de mı́nima varianza) Considérese la estructura estadı́stica (Z, P(Z), {Pθ : θ ∈ Z}) donde, para cada θ ∈ Z, Pθ ({θ − 1}) = Pθ ({θ}) = Pθ ({θ + 1}) = 1/3. 8 a. garcı́a nogales-problemas de estadı́stica matemática Pruébese que ningún estimando f : Z −→ R no constante posee un estimador insesgado de mı́nima varianza. (c) Sean S1 y S2 estimadores insesgados de mı́nima varianza de cuadrado integrable de g1 : Θ −→ R y g2 : Θ −→ R, respectivamente. Dados a1 , a2 ∈ R, probar que a1 S1 + a2 S2 es el estimador insesgado de mı́nima varianza de a1 g1 + a2 g2 . Problema 2.17. (Dos distribuciones normales: varianzas distintas) Supongamos que observamos v.a.r. independientes X1 , . . . , Xm , Y1 , . . . , Yn normalmente distribuidas de forma que las Xi tienen media µ y varianza σ 2 , y las Yj tienen media ν y varianza τ 2 , siendo µ, ν, σ 2 y τ 2 totalmente desconocidos. (a) Determinar el estimador insesgado de mı́nima varianza de la función del parámetro f1 (µ, ν, σ 2 , τ 2 ) = ν − µ. Calcular el error cuadrático medio de ese estimador. (b) Determinar el estimador insesgado de mı́nima varianza de la función del parámetro f2 (µ, ν, σ 2 , τ 2 ) = τ 2 − σ 2 . Calcular el error cuadrático medio de ese estimador. (c) Determinar el estimador insesgado de mı́nima varianza de la función del parámetro f3 (µ, ν, σ 2 , τ 2 ) = ν · µ. (d) Determinar el estimador insesgado de mı́nima varianza de la función del parámetro f4 (µ, ν, σ 2 , τ 2 ) = σ 2 /τ 2 . Problema 2.18. Supongamos que en el proceso de fabricación de un cierto objeto se extraen al azar y con reemplazamiento n objetos con el fin de obtener información sobre la probabilidad θ ∈]0, 1[ desconocida de que un objeto sea defectuoso. Entenderemos que el resultado del experimento es una n-upla de 0’s y 1’s, donde 1 significa que el producto es defectuoso y 0 que no lo es. (a) Describir la estructura estadı́stica (Ω, A, {Pθ : θ ∈ Θ}) apropiada para un problema de inferencia sobre el parámetro θ y determinar un estadı́stico suficiente y completo T : (Ω, A) −→ (Ω0 , A0 ) para esa estructura. (b) Determinar el estimador insesgado de mı́nima varianza S : (Ω, A) −→ R para la función del parámetro f (θ) = θ2 (1 − θ). (c) Determinar el estimador Bayes de f si la distribución a priori Q es la medida de Lebesgue en ]0, 1[. Problema 2.19. (Distribución normal bidimensional: estimación de la covarianza) Consideremos la estructura estadı́stica (R2 , R2 , {Q(µ, ν, σ 2 , τ 2 , ρ) : µ, ν ∈ R, σ 2 , τ 2 > 0, ρ ∈ [−1, 1]})n correspondiente a una muestra de tamaño n de una distribución normal bidimensional Q(µ, ν, σ 2 , τ 2 , ρ) con media y matriz de covarianzas 2 µ σ ρστ y , ν ρστ τ 2 a. garcı́a nogales-problemas de estadı́stica matemática 9 cuya densidad (respecto a la medida de Lebesgue en R2 ) es 1 p 2πστ 1 − ρ2 " ( #) x − µ 2 2ρ 1 y−ν 2 − . exp − (x − µ)(y − ν) + 2(1 − ρ2 ) σ στ τ f (x, y) = Recordemos que, si (X, Y ) es una v.a. bidimensional con distribución Q(µ, ν, σ 2 , τ 2 , ρ), entonces E(X) = µ, E(Y ) = ν, Var(X) = σ 2 , Var(Y ) = τ 2 y Cov(X, Y ) = ρστ ; ρ se llama coeficiente de correlación entre X e Y . Denotaremos por (x1 , y1 , . . . , xn , yn ) los puntos de R2n y, para 1 ≤ i ≤ n, se definen aplicaciones Xi (x1 , y1 , . . . , xn , yn ) = xi Yi (x1 , y1 , . . . , xn , yn ) = yi Se define también n X̄ = n 1X Xi , n Ȳ = i=1 2 SX = 1 n−1 n X 1X Yi n i=1 n (Xi − X̄)2 , SY2 = i=1 SXY = 1 X (Yi − Ȳ )2 n−1 i=1 1 n−1 n X (Xi − X̄)(Yi − Ȳ ) i=1 2 , S2 , S , SX XY ) Y Probar que el estadı́stico (X̄, Ȳ es suficiente y completo. Determinar los estimadores insesgados de mı́nima varianza de µ, ν, µ − ν, σ 2 , τ 2 y de la covarianza ρστ . Problema 2.20. Sean k, n ∈ N. Consideremos la estructura estadı́stica producto ({1, . . . , k}, A, P)n donde A es la familia de todas las partes de {1, . . . , k} y P la familia de todas las probabilidades en {1, . . . , k} que cargan positivamente a todos los sucesos elementales 1, . . . , k (es decir, P consiste en todas las probabilidades P en {1, . . . , k} tales que P ({i}) > 0, ∀1 ≤ i ≤ k). Si x = (x1 , . . . , xn ) ∈ {1, . . . , k}n e i ∈ {1, . . . , k}, se define n X Ni (x) = I{i} (xp ). p=1 donde I{i} denota el indicador del conjunto unitario {i}. Nota: Ni cuenta cuántas de las coordenadas de x son iguales a i. (a) Probar que la estructura estadı́stica considerada es una estructura exponencial (k − 1)-paramétrica y que el estadı́stico (N1 , . . . , Nk ) es un estadı́stico suficiente y completo para esa estructura. Indicación: Nótese que las σ-álgebras inducidas por los estadı́sticos (N1 , . . . , Nk ) y (N1 , . . . , Nk−1 ) son las mismas. 10 a. garcı́a nogales-problemas de estadı́stica matemática b) Determinar el estimador insesgado de mı́nima varianza del estimando g : P ∈ P −→ g(P ) = P ({1}). Problema 2.21. (Dos distribuciones normales: varianzas iguales) Se observan m+n v.a.r. X1 , . . . , Xm , Y1 , . . . , Yn independientes y normalmente distribuidas con varianza común desconocida σ 2 > 0 y medias desconocidas E(Xi ) = µ, 1 ≤ i ≤ m, E(Yj ) = ν, 1 ≤ j ≤ n. Describir la estructura estadı́stica apropiada para esa situación y un estadı́stico suficiente y completo para la misma. Determinar los estimadores insesgados de mı́nima varianza de µ, ν, µ − ν y σ 2 . Problema 2.22. (Distribución exponencial) Si θ > 0, la densidad pθ de la distribución exponencial Pθ de parámetro θ es 1 pθ (x) = e−x/θ I]0,+∞[ (x). θ Recordar (véase el problema ??) que Pθ tiene media θ y varianza θ2 . Se considera una muestra de tamaño n de parámetro θ > 0 desconocido. (a) Describir la estructura estadı́stica correspondiente y un estadı́stico suficiente y completo para la misma. (b) Determinar el estimador insesgado de mı́nima varianza del parámetro θ. (c) Determinar el estimador insesgado de mı́nima varianza de f (θ) = θ2 . Problema 2.23. Consideremos la estructura estadı́stica ({0, 1, 2}, P({0, 1, 2}), {P0 , P1 }) donde P0 = 21 (ε0 + ε1 ) y P1 = ε2 , siendo εi la medida de Dirac en el punto i, i = 0, 1, 2. En esa estructura estadı́stica el espacio de parámetros es Θ = {0, 1}. Determinar un estadı́stico (o una σ-álgebra) suficiente y completo, y el estimador insesgado de mı́nima varianza del parámetro θ. Problema 2.24. Se dispone de un tetraedro con caras numeradas del 1 al 4 del que se sabe lo siguiente: (a) los valores 1 y 2 se obtienen con la misma probabilidad; (b) la probabilidad de obtener cada uno de los valores 1,2,3 y 4 es estrictamente positiva. Describir la estructura estadı́stica correspondiente al experimento aleatorio que consiste en n lanzamientos independientes e idénticamente distribuidos de ese tetraedro y determinar los estimadores insesgados de mı́nima varianza de cada uno de los parámetros de esa estructura. Decidir si esos estimadores son consistentes c.s. a. garcı́a nogales-problemas de estadı́stica matemática 11 Problema 2.25. (Distribución normal) Consideremos la estructura estadı́stica (Rn , Rn , {N (0, σ 2 )n : σ 2 > 0}) correspondiente a una muestra de tamaño n de una distribución normal de media 0 y varianza σ 2 . Determinar el estimador de máxima verosimilitud de σ 2 . Problema 2.26. Se define la densidad gα,β distribución gamma G(α, β) de parámetros α, β > 0 mediante gα,β (x) = 1 xα−1 e−x/β I]0,+∞[ (x), Γ(α)β α donde Γ denota la función gamma de Euler (véase el problema ??). Supongamos conocido que la distribución G(α, β) tiene media αβ y varianza αβ 2 (véase el problema ??). Si el parámetro α se supone conocido (digamos, α = α0 ), determinar el estimador insesgado de mı́nima varianza del parámetro β y el riesgo cuadrático del mismo. Problema 2.27. Consideremos la estructura estadı́stica (R, R, {Pθ : θ ∈ R})n , donde Pθ denota la distribución uniforme en el intervalo [θ, θ + 1]. Determinar un estimador insesgado del parámetro θ que sea función del estadı́stico de orden X(1) . Problema 2.28. Se observa una muestra de tamaño n de una distribución normal N (µ0 , σ 2 ) de media conocida µ0 y varianza desconocida σ 2 . Probar que 1 Tn := n r n πX |Xi − µ0 | 2 i=1 es un estimador insesgado y consistente c.s. del parámetro σ. Problema 2.29. (El estimador Bayes no es insesgado más que en casos muy especiales) Sea (Ω, A, {Pθ : θ ∈ (Θ, T , Q)}) una estructura estadı́stica bayesiana dominada por una medida σ-finita µ y denotemos pθ = dPθ /dµ. Supongamos que la función de verosimilitud L(ω, θ) = pθ (ω) es A × T -medible. Denotaremos por R Π la única probabilidad en (Ω × Θ, A × T ) tal que Π(A × B) = B Pθ (A)dQ(θ), A ∈ A, B ∈ B. Sea f una v.a.r. con varianza finita en (Θ, T ). Sabemos que el estimador Bayes de f es X(ω) = EPω∗ (f ) = EΠ (F |I = ω), donde I(ω, θ) = ω y F = f ◦ I. Probar que el estimador Bayes de f no es insesgado a menos que EΠ (f 2 ) = EΠ (X 2 ). Probar también que, en ese caso, EΠ [(f (θ) − X(ω))2 ] = 0, es decir, X = f , Π-c.s. Problema 2.30. Probar un resultado análogo al teorema ?? para un estimando medible k-dimensional f : (Θ, T ) → Rk cuando se P utiliza la familia de funciones de pérdida W := {Wy /y ∈ Rk }, donde Wy (θ, x) = [ ki=1 yi (xi − fi (θ))]2 , θ ∈ Θ, x ∈ Rk . 12 a. garcı́a nogales-problemas de estadı́stica matemática Los problemas siguientes tratan sobre información: se estudia el concepto de entropı́a de una distribución discreta y se prueba que la información de Fisher verifica algunas de las propiedades que, desde un punto de vista intuitivo, deberı́a poseer una buena definición de información. Problema 2.31. (Entropı́a) En este problema, y en los próximos, Ω será un conjunto finito o numerable, P(Ω) la σ-álgebra de las partes de Ω y P una probabilidad en Ω. Denotamos también Ω0 = {ω ∈ Ω : P (ω) > 0}. Def.: Se define la entropı́a H(P ) de P mediante H(P ) = − X P (ω) · log P (ω) ω∈Ω (con el convenio 0 · log 0 = 0). Probar que H(P ) es positiva. ¿Cuándo se anula H(P )? Problema 2.32. (↑) (Información de Kullback) Sea Q otra probabilidad en P(Ω) dominada por P . Se define la Información de Kullback de P sobre Q por K(P, Q) = − X P (ω) · log ω∈Ω Q(ω) P (ω) (con el convenio 0/0 = 0, 0 · log(0/0) = 0; se admite también la aritmética usual en R̄). Probar que K(P, Q) ≥ 0 y que, si Ω es finito, entonces K(P, Q) = 0 si, y sólo si, P ≡ Q. Problema 2.33. (↑) Sean Ω = {1, . . . , n} y Q la distribución uniforme en Ω. Calcular H(Q) y probar que, si P es otra probabilidad en Ω, entonces H(P ) < H(Q). Nota: En la sección “Soluciones o indicaciones para algunos de los problemas propuestos” al final del libro se describe el método de los multiplicadores de Lagrange que hemos utilizado en la resolución de este problema. Problema 2.34. (↑) Sean X : Ω −→ Ω0 una v.a. y Ω0 = {ω : P (ω) > 0}. Se define H(X) = H(P X ). Probar (1) Si X|Ω0 es inyectiva, entonces H(X) = H(P ). (2) Si X|Ω0 no es inyectiva, entonces H(X) < H(P ). Observación. La entropı́a de una v.a. se interpreta como una medida de la incertidumbre sobre el valor que toma esa variable. Esa incertidumbre es máxima para la distribución uniforme, según prueba el problema 2.33. a. garcı́a nogales-problemas de estadı́stica matemática 13 Problema 2.35. (↑) Sean X : Ω −→ Ω0 , Y : Ω −→ Ω y f : Ω0 −→ Ω tales que Y = f ◦ X. Probar que H(Y ) ≤ H(X). Problema 2.36. (↑) Sean X e Y v.a.r. definidas en Ω y, para y ∈ Y (Ω0 ), sea P (X = ·|Y = y) la distribución condicional de X respecto a {Y = y}. Probar que X P (Y = y) · H(P (X = ·|Y = y)). H(X, Y ) = H(Y ) + y∈Y (Ω0 ) Observación-Definición. Entonces H(X, Y ) − H(Y ) es una media de las entropı́as de las distribuciones condicionales de X respecto a los distintos valores de Y ; se denotará H(X|Y ) = H(X, Y ) − H(Y ) y se llamará entropı́a condicional de X respecto a Y . H(X|Y ) se interpreta como la incertidumbre media que nos queda sobre el valor de X cuando conocemos el valor de Y . Con esas notaciones, la entropı́a conjunta H(X, Y ) coincide con H(Y ) + H(X|Y ) y con H(X) + H(Y |X). Deducir de ahı́ que sup(H(X), H(Y )) ≤ H(X, Y ). Problema 2.37. (↑) Con las mismas notaciones que en el problema ??, probar que H(Y |X) se anula si, y sólo si, Y|Ω0 es función de X|Ω0 . Problema 2.38. (↑) Si X e Y son independientes, entonces H(X, Y ) = H(X)+ H(Y ). Problema 2.39. (↑) Un jugador trata de adivinar lo antes posible un número Y que su adversario ha elegido al azar entre 0 y N − 1. Para ello puede hacer preguntas que su adversario responderá SI o NO. Después de n preguntas, él conoce el valor de una función X a valores en {SI, NO}n . Probar (comparando la entropı́a de Y con la entropı́a máxima de X) que, por muy astuto que sea, el jugador no puede estar seguro de determinar Y antes de haber hecho un número de preguntas n ≥ (log N )/(log 2). Problema 2.40. (Información de Fisher) Recordemos la definición de información de Fisher. Consideremos la estructura estadı́stica (Ω, A, {Pθ : θ ∈ Θ}), Θ ⊂ Rs . Si esa estructura está dominada por una medida σ-finita µ y si está bien definido el vector aleatorio Vθ (ω) = (∂ log pθ (ω)/∂θi )1≤i≤s , para cada θ y si Eθ (Vθ ) = 0 y Eθ (Vθ2 ) < +∞, para cada θ ∈ Θ, se define I(θ) = Covθ (Vθ ). En los problemas siguientes supondremos que (Ω, A, {Pθ : θ ∈ Θ}) es una estructura estadı́stica con información I. Si T : (Ω, A) −→ (Ω0 , A0 ) es un estadı́stico libre, entonces I T (θ) = 0, ∀θ ∈ Θ, donde I T es la matriz de información asociada a T . Observación. Esto concuerda con la intuición de que, utilizando un estadı́stico libre, se pierde toda la información. 14 a. garcı́a nogales-problemas de estadı́stica matemática Problema 2.41. (↑) Sea T : (Ω, A) −→ (Ω0 , A0 ) un estadı́stico suficiente con matriz de información I T . Probar que I T (θ) = I(θ), ∀θ ∈ Θ. Observación. Una buena definición de información deberı́a asignar a un estadı́stico suficiente toda la información presente en la estructura estadı́stica original. Problema 2.42. (↑) Sean T1 : (Ω, A) −→ (Ω1 , A1 ) y T2 : (Ω, A) −→ (Ω2 , A2 ) estadı́sticos {Pθ : θ ∈ Θ}-independientes con matrices de información I T1 e I T2 , resp. Probar que la matriz de información I (T1 ,T2 ) asociada al estadı́stico (T1 , T2 ) : (Ω, A) −→ (Ω1 × Ω2 , A1 × A2 ) coincide con I T1 + I T2 . Observación. También ésta puede parecer una propiedad natural a exigir a una buena definición de información (la información conjunta suministrada por dos estadı́sticos independientes es la suma de las informaciones). Problema 2.43. (↑) (¿Cómo crece la información con el número de observaciones?) Probar que la matriz de información asociada a la estructura producto (Ω, A, {Pθ : θ ∈ Θ})n es n · I. Problema 2.44. (↑) Sea T : (Ω, A) −→ (Ω0 , A0 ) un estadı́stico con matriz de información I T (θ) = Covθ (VθT ). Supongamos que VθT = Eθ (Vθ |T ), para cada θ ∈ Θ, y probar que I T ≤ I. Convencerse de que la condición VθT = Eθ (Vθ |T ) es una condición de regularidad bastante general si es posible intercambiar los procesos lı́mite de derivación e integración. Observación. Este apartado prueba que, bajo las hipótesis apropiadas, pasando a la estructura imagen de un estadı́stico se pierde información, en general. Problema 2.45. Calcular la matriz de información I(µ, σ) e I n (µ, σ) de Fisher para las estructuras (R, R, {N (µ, σ 2 ) : µ ∈ R, σ > 0}) y (R, R, {N (µ, σ 2 ) : µ ∈ R, σ > 0})n . Probar que la media muestral es un estimador eficiente de µ, y que la varianza muestral no es un estimador eficiente de σ 2 (sabemos que ambos son estimadores insesgados de mı́nima varianza de los parámetros respectivos). Problema 2.46. (Distribución de Poisson) Consideremos la estructura estadı́stica (N0 , P(N0 ), {Pθ : θ > 0}) donde N0 = {0, 1, 2, . . . } y Pθ es la distribución de Poisson de parámetro θ > 0, es decir, Pθ ({0}) = e−θ , Pθ ({k}) = e−θ θk /k!, k = 1, 2, . . . Recordar que Pθ tiene media θ y varianza θ. Probar que existe (y calcular) la información I(θ) para esa estructura estadı́stica. Supuesto conocido que la información a. garcı́a nogales-problemas de estadı́stica matemática 15 asociada a la estructura producto (N0 , P(N0 ), {Pθ : θ > 0})n es n · I(θ), probar que X̄ es un estimador insesgado y eficiente del parámetro θ en esa estructura producto. Algunos problemas sobre conjuntos de confianza. Problema 2.47. (Intervalos de confianza para la varianza de una distribución normal) Ya se vió en teorı́a cómo determinar intervalos de confianza para la media de una distribución normal tanto en el caso de que la varianza sea conocida como en el caso de que sea desconocida. Obtener una familia de intervalos de confianza para la varianza de una distribución normal de media desconocida a partir de una muestra de tamaño n a un nivel de significación dado. Problema 2.48. (Región de confianza para ambos parámetros) Construir un conjunto de confianza para el parámetro bidimensional (µ, σ 2 ) a un nivel de significación dado a partir de una muestra de tamaño n de una distribución normal de parámetros desconocidos. Problema 2.49. (Intervalo de confianza para la diferencia de medias de dos distribuciones normales con varianza común desconocida) (a) Se dispone de dos muestras independientes de extensiones m y n de sendas distribuciones normales con varianza común desconocida. Construir intervalos de confianza a partir de esas muestras para la diferencia de las medias desconocidas de esas distribuciones. (b) Ejercicio de aplicación. Con el fin de comparar el rendimiento obtenido por dos variedades de trigo X e Y se seleccionan al azar 16 parcelas; en ocho de ellas se siembra trigo de la variedad X y en las ocho restantes se siembra trigo de la variedad Y . Los resultados obtenidos, medidos en Kg/m2 , en las diferentes parcelas son los de la tabla siguiente X Y 5.5 6.1 4.9 6.5 6.1 5.9 5 5.5 6 6.8 5.2 5.7 5.8 5.6 5.3 5.9 Asumiendo la hipótesis de normalidad y de igualdad de las varianzas, proporcionar un intervalo al 95 % de confianza para la diferencia de las medias. Problema 2.50. Sea X1 , . . . , Xn una muestra de la distribución U[θ− 21 , θ+ 12 ] uniforme en [θ− 12 , θ+ 12 ], θ ∈ R. Probar que [X(1) , X(n) ] es un intervalo de confianza para θ. Encontrar el nivel de confianza de ese intervalo. Probar que su longitud media es Eθ (X(n) − X(1) ) = (n − 1)/(n + 1). 16 a. garcı́a nogales-problemas de estadı́stica matemática Problema 2.51. (a) Sean (Ω, A, P ) un espacio de probabilidad y T una v.a.r. sobre él con función de distribución F . Probar que F ◦ X es una v.a.r. con distribución uniforme en el intervalo [0, 1]. (b) (Existencia de cantidades pivote) Deducir de (a) que si X1 , . . . , Xn son estadı́sticos reales independientes en una e.e. (Ω, A, {Pθ : θ ∈ Θ}) con funciones de distribución F1,θ , . . . , Fn,θ respecto a Pθ , resp., entonces T (ω, θ) := n Y Fi,θ (Xi (ω)) i=1 es una cantidad pivote. Problema 2.52. Sean Ti,θ : (Ω, A) × Θ → (Ω0i , A0i ), 1 ≤ i ≤ n, cantidades pivote sobre la e.e. (Ω, A, {Pθ : θ ∈ Θ}) tales que, para cada θ ∈Q Θ, T1,θ , . . Q . , Tn,θ son Pθ -independientes. Probar que para cada función medible f : ( i=1 )n Ω0i , i=1 )n A0i ) → (Ω00 , A00 ) se verifica que f (T1,θ , . . . , Tn,θ ) es una cantidad pivote. Nota: Podemos decir, por tanto, que cualquier función medible de cantidades pivote independientes es una cantidad pivote. Problema 2.53. (↑) (Familias de posición-escala) Sea f : R → [0, +∞[ una función Borel medible no negativa con integral 1 (respecto a la medida de Lebeses una función Borel medible no negatigue). Dados µ ∈ R y σ > 0, σ1 f x−µ σ va con integral 1, densidad de una distribución de probabilidad Q(µ, σ 2 ) en R. (R, R, {Q(µ, σ 2 ) : µ ∈ R, σ > 0}) es lo que se llama una estructura estadı́stica de posición escala. Denotaremos por Xi la aplicación coordenada i-ésima en Rn . (a) Dado σ > 0, probar que Xi − µ y X̄ − µ son cantidades pivote en la e.e. n (R , Rn , {Q(µ, σ 2 )n : µ ∈ R}). (b) Dado µ ∈ R, probar que Xi − µ , σ X̄ − µ , σ n Y Xi − µ i=1 σ , 1 S σ donde S 2 es la varianza muestral, son cantidades pivote en la e.e. (Rn , Rn , {Q(µ, σ 2 )n : σ > 0}). Problema 2.54. (a) Se consideran muestras independientes de extensiones m y n de sendas distribuciones normales con parámetros totalmente desconocidos. Construir un intervalo de confianza para el cociente de las varianzas de ambas distribuciones a un nivel de confianza 1 − α dado. (b) Ejercicio de aplicación. Se seleccionan al azar 10 bombillas de una marca X y 9 de otra marca Y . La duración (longitud de vida) en horas de esas bombillas aparece en la tabla siguiente X Y 990 910 854 800 1010 950 1100 1000 925 980 982 1200 1000 970 1150 940 970 930 900 a. garcı́a nogales-problemas de estadı́stica matemática 17 Asumiendo la hipótesis de normalidad de las observaciones, dar estimaciones de las varianzas de ambas distribuciones (utilı́cese el estimador insesgado de mı́nima varianza). Construir un intervalo de confianza al nivel 0.95 para el cociente de las varianzas, que puede utilizarse para comparar el grado de precisión en la fabricación de bombillas por ambas marcas.