ESTADISTICA MATEMATICA

Anuncio
ESTADISTICA
MATEMATICA
Agustı́n Garcı́a Nogales
Problemas Capı́tulo III
Estimación Puntual
Problema 2.1. (Sobre estructuras exponenciales) Decidir si son exponenciales o no las estructuras siguientes y, en caso afirmativo, determinar un estadı́stico
suficiente y completo para ellas.
(a) (R, R, {N (µ, σ 2 ) : µ ∈ R, σ 2 > 0})n .
(b) (R, R, {N (µ, σ02 ) : µ ∈ R})n .
(c) (R, R, {N (µ0 , σ 2 ) : σ 2 > 0})n .
(d) (R, R, {G(α, β) : α > 0, β > 0})n , donde G(α, β) es la distribución gamma
de parámetros α y β (véase el problema ??).
(e) (R, R, {Pθ : θ > 0}) donde Pθ es la distribución uniforme en [0, θ].
Problema 2.2. (Patologı́as del estimador de máxima verosimilitud)
(a) Consideremos la estructura estadı́stica (R, R, {Pθ : θ ∈ R})n , donde Pθ denota la distribución uniforme en el intervalo [θ, θ + 1]. ¿Qué se puede decir
del estimador de máxima verosimilitud de θ?
(b) Consideremos la estructura estadı́stica (R, R, {P(µ,σ2 ) : µ ∈ R, σ 2 > 0}), donde P(µ,σ2 ) es una mezcla de dos distribuciones normales:
(
2 )
1
1
1
x
−
µ
1
dP(µ,σ2 ) (x)/dx = √ exp − (x − µ)2 + √ exp −
2
2
σ
2 2π
2σ 2π
¿Qué se puede decir del estimador de máxima verosimilitud de (µ, σ 2 )?
(c) Consideremos la estructura estadı́stica (R+ , R+ , {Pθ : θ > 0})n , donde Pθ
es la distribución uniforme sobre [0, θ]. ¿Cuál es el estimador de máxima
verosimilitud de θ? ¿Es admisible?
Problema 2.3. (Muestras de tamaño n de una distribución de Bernouilli)
(a) Sean X1 , . . . , Xn v.a. independientes de Bernouilli con parámetro desconocido θ ∈]0, 1[ (es decir, las Xi son v.a. discretas que toman el valor 1 con
probabilidad θ y el valor cero con probabilidad 1 − θ). Probar que no existe
un estimador insesgado de f (θ) := θ(1 − θ)−1 .
(b) Se trata ahora de estimar la varianza θ(1 − θ). Se propone el estimador
T = X̄(1 − X̄). Probar que T no es insesgado. Encontrar un estimador
insesgado de θ(1 − θ) que sea múltiplo de T .
0
a. garcı́a nogales-problemas de estadı́stica matemática
1
Problema 2.4. (Muestras de tamaño n de una ley de Poisson) Sea X1 , . . . , Xn
una muestra de tamaño n de una distribución de Poisson de parámetro θ ∈]0, +∞[
desconocido (Pθ ({k}) = e−θ θk /k!, k = 0, 1, 2, . . . , θ > 0).
(a) ¿Es X̄ un estimador insesgado de θ ? ¿Cuál es el riesgo cuadrático del estimador X̄?
(b) Probar que X̄ es un estadı́stico suficiente y completo.
(c) ¿Cuál es el estimador de máxima verosimilitud de θ? (Suponer, en este caso,
que el espacio de parámetros es [0, +∞[).
(d) Se pretende ahora estimar f (θ) := exp{−kθ} (=probabilidad de que sobre
k ∈ N experiencias futuras se observe siempre el valor cero). Comprobar
que exp{−k X̄} no es un estimador insesgado de f . Determinar una función
g : N −→ R tal que g(nX̄) sea un estimador insesgado de f . ¿Qué ocurre si
se toma n = 1 y k = 2?
Problema 2.5. (Distribución uniforme sobre un conjunto finito) Se observa
una muestra de tamaño n de una distribución Pθ uniforme en {1, . . . , θ} de parámetro θ ∈ N desconocido (Pθ asigna masa θ−1 a cada uno de los sucesos elementales
1, 2, . . . , θ). Se trata de estimar el parámetro θ.
(a) Describir la estructura estadı́stica apropiada para ese problema de estimación puntual.
(b) Encontrar un estimador insesgado T de θ función afı́n de la media muestral
y calcular el riesgo cuadrático de T .
(c) Determinar el estimador de máxima verosimilitud M de θ. Describir las
distribuciones de M respecto a las Pθ .
(d) Describir un estadı́stico suficiente y completo.
(e) Determinar el estimador insesgado de mı́nima varianza de θ.
(f) Consideremos la distribución a priori Q en Θ = N definida por Q(θ) =
Cθn 2−θ , siendo C una constante apropiada de forma que Q sea, efectivamente, una probabilidad. Determinar el estimador Bayes de θ para la función de
pérdida error cuadrático.
Problema 2.6. (La distribución uniforme en [0, θ], θ > 0) Se observa una
muestra de tamaño n de una distribución uniforme U[0, θ] en [0, θ] de parámetro
θ > 0 desconocido. Sean Xi , 1 ≤ i ≤ n, las aplicaciones coordenadas de Rn en R.
(a) Describir la estructura estadı́stica apropiada para un problema de inferencia
sobre el parámetro θ.
(b) Determinar un estadı́stico suficiente y completo para esa estructura.
(c) Encontrar el estimador insesgado de mı́nima varianza de la media f (θ) =
θ/2.
2
a. garcı́a nogales-problemas de estadı́stica matemática
(d) Comparar los riesgos cuadráticos del estimador obtenido en (c) y del estimador X̄, y concluir que la media muestral no es siempre el mejor estimador
de la media de una distribución.
Problema 2.7. (Distribución normal)
(a) Encontrar los estimadores insesgados de mı́nima varianza para los parámetros de una distribución normal a partir de una muestra de tamaño n, tanto
en el caso de que ambos parámetros sean desconocidos como en el caso de
que uno de ellos sea conocido. (Véase el problema 2.1).
(b) De acuerdo con (a), sobre la estructura (RnP
, Rn , {N (µ, σ 2 )n : µ ∈ R, σ 2 >
0}), el estadı́stico S 2 (x1 , . . . , xn ) = (n − 1)−1 ni=1 (Xi − X̄)2 es el estimador
insesgado de mı́nima varianza de σ 2 . Encontrar un número positivo t tal que
el riesgo cuadrático del estimador tS 2 sea inferior al riesgo cuadrático de S 2
(ese nuevo estimador será, entonces, sesgado).
Observación. La varianza muestral es pues el estimador insesgado de mı́nima
varianza de la varianza de una distribución normal de parámetros desconocidos, pero no es un estimador admisible.
(c) En la estructura estadı́stica correspondiente a una muestra de tamaño n de
una distribución normal unidimensional de media y varianza desconocidas,
determinar el estimador de máxima verosimilitud de µ y de σ 2 .
Problema 2.8. (Distribución uniforme sobre un intervalo con extremos desconocidos) Consideremos la estructura estadı́stica (Rn , Rn , {U[a, b]n : − ∞ < a <
b < +∞}), donde U[a, b] denota la distribución uniforme en [a, b]. X1 , . . . , Xn serán
las aplicaciones coordenada en Rn .
(a) Si a < b, la media de la distribución U[a, b] es (a + b)/2. Probar que X̄ y
1
2 (X(1) + X(n) ) son estimadores insesgados de (a + b)/2.
(b) Describir la distribución de X(·) = (X(1) , . . . , X(n) ) respecto a U[a, b]n , y las
distribuciones condicionales de (X(2) , . . . , X(n−1) ) respecto a (X(1) , X(n) ).
(c) Calcular sucesivamente
E[X(2) + · · · + X(n−1) |X(1) , X(n) ],
E[X(1) + · · · + X(n) |X(1) , X(n) ],
E[X̄|X(1) , X(n) ].
(d) Si Y es una v.a.r. de cuadrado integrable y si X es una v.a., se define la
varianza condicional (véase el problema ??) de Y respecto a X por
Var[Y |X] = E[Y 2 |X] − E(Y |X)2 .
a. garcı́a nogales-problemas de estadı́stica matemática
3
Probar que Var[Y |X] es una v.a.r. no negativa. Probar también que
Var(Y ) = E[E(Y 2 |X) − E(Y |X)2 ] + E[E(Y |X)2 − E(Y )2 ]
= E[Var(Y |X)] + Var[E(Y |X)]
y que la varianza condicional Var(Y |X = x) es la varianza de la distribución
condicional P Y |X=x .
(e) Deducir que el estimador 12 (X(1) + X(n) ) es preferible a X̄. Probar de hecho
que
(
2 )
1
E(a,b)
X̄ − (a + b)
2
(
2 )
1
1
(X + X(n) ) − (a + b)
= E(a,b)
2 (1)
2
+
n−2
E
{[X(n) − X(1) ]2 }
12n2 (a,b)
(f) El estadı́stico (X(1) , X(n) ) es suficiente y completo para la estructura estadı́stica original. Nota: Suponer conocido (véase el problema ??) que la
densidad de (X(1) , X(n) ) (densidad conjunta de X(1) y X(n) ) es
g(x, y) =
n(n − 1)
(y − x)n−1 I[a,b]2 ∩R(2) (x, y).
(b − a)n
(g) Probar que los estadı́sticos T1 := (X(1) + X(n) )/2 y T2 := n+1
n−1 (X(n) − X(1) )
son estimadores insesgados de τ1 (a, b) := (a + b)/2 y τ2 (a, b) := b − a, respectivamente. Determinar estimadores insesgados de mı́nima varianza de τ1
y τ2 y de los parámetros a y b.
(h) Calcular el estimador de máxima verosimilitud de (a, b).
Problema 2.9. Se observa una muestra de tamaño n de una distribución de
Pareto unilateral de parámetros α > 0 y r > 0 cuya densidad (respecto a la medida
de Lebesgue en R) es
f (x) = αrα x−α−1 I]r,∞[ (x).
(a) Determinar un estadı́stico suficiente para el estudio del parámetro (α, r).
(b) Supongamos α conocido. Determinar el estimador de máxima verosimilitud de r. Determinar la distribución de ese estimador. Decidir si es o no
insesgado.
4
a. garcı́a nogales-problemas de estadı́stica matemática
Nota: En algunos tipos de estadı́sticas económicas encontramos a veces distribuciones truncadas que se aproximan a menudo por una distribución de Pareto. P.
ej., en estadı́sticas de rentas, los datos obtenidos suelen referirse a las distribuciones de rentas de personas cuyas rentas exceden un cierto valor r fijado por las
disposiciones legales.
Problema 2.10. (Estimación Bayesiana)
(a) Consideremos la estructura estadı́stica (R+ , R+ , {Pθ : θ > 0}), donde Pθ es
la distribución uniforme en [0, θ]. Consideremos el espacio de parámetros
Θ =]0, +∞[ provisto de su σ-álgebra de Borel y de la distribución a priori
Q definida por dQ(θ) = θe−θ dθ. Determinar el estimador Bayes de θ para la
función de pérdida error cuadrático.
(b) Consideremos la estructura estadı́stica (R, R, {Pθ : θ ∈ R}) donde Pθ es la
distribución N (θ, σ 2 ) (suponemos σ > 0 conocido). Consideremos la distribución a priori Q = N (µ, τ 2 ) (µ ∈ R y τ > 0 conocidos). Calcular el
estimador Bayes de θ para la función de pérdida error cuadrático.
Problema 2.11. (Estimación puntual no paramétrica) A lo largo de este problema utilizaremos las siguientes notaciones:
P0 = {distribuciones en R absolutamente continuas}
Pi = {distribuciones en R absolutamente continuas
y con momento finito de orden i},
Pin
n
n
= {P : P ∈ Pi },
i = 0, 2, 4
i = 0, 2, 4
Xi : R −→ R aplicación coordenada i- ésima,
1 ≤ i ≤ n.
X(·) vector de los estadı́sticos de orden.
(a) X(·) es un estadı́stico suficiente para las estructuras (Rn , Rn , Pin ), i = 0, 2, 4.
(b) Supóngase de momento probado que X(·) es también un estadı́stico completo
sobre esas dos estructuras no paramétricas y continuar con el problema (la
demostración, algo complicada, se pospone para el final del problema).
(c) Determinar estimadores insesgados de mı́nima varianza para los estimandos
y las estructura estadı́stica siguientes:
(c.1) Estructura estadı́stica: (Rn , Rn , P2n );
R
R
Estimando: g : P ∈ P2 −→ g(P ) = R xdP (x) = R x(dP (x)/dx)dx.
(c.2) Estructura estadı́stica: (Rn , Rn , P0n );
Estimando: g : P ∈ P0 −→ g(P ) = P (] − ∞, a]) (a ∈ R fijo)
(c.3) Estructura estadı́stica: (Rn , Rn , P2n );
a. garcı́a nogales-problemas de estadı́stica matemática
Estimando: g : P ∈ P4 −→ g(P ) =
R
2
R xdP (x)
5
.
(d) (Demostración de (b) en varias etapas)
(d.1) Denotemos por Σn el conjunto de las permutaciones en {1, . . . , n}. Si
σ ∈ Σn y x = (x1 , . . . , xn ) ∈ Rn , se define φσ (x) = (xσ(1) , . . . , xσ(n) ).
Si A es un conjunto no vacı́o arbitrario, una aplicación h : Rn −→ A
se dirá simétrica si h(φσ (x)) = h(x), para cada x ∈ Rn y cada σ ∈ Σn .
Probar que una v.a.r. h : Rn −→ R es simétrica si, y sólo si, existe una
v.a.r. ϕ : Rn −→ R tal que h = ϕ ◦ X(·) .
(d.2) Sean P, Q distribuciones de probabilidad en R y α ∈]0, 1[. Entonces
R = [αP + (1 − α)Q]n
es una probabilidad en Rn . Sea h : Rn −→ R una v.a.r. R-integrable.
Supongamos P y Q absolutamente continuas respecto a la medida de
Lebesgue con densidades p y q. Denotemos por Sk (n) el conjunto de
las partes de {1, . . . , n} de cardinal k, k = 0, 1, . . . , n; si C ∈ Sk (n),
escribiremos C = {C1 , . . . , Ck } y C c = {Ck+1 , . . . , Cn }. Probar que
Z
h(x1 , . . . , xn )dR(x1 , . . . , xn )
n
X
=
αk (1 − α)n−k
k=0
X Z
h(x1 , . . . , xn )
k
Y
p(xCi )
i=1
C∈Sk (n)
n
Y
q(xCj )dx1 . . . dxn .
j=k+1
(d.3) Deducir de (d.2) que, si h es simétrica, entonces
Z
h(x1 , . . . , xn )d[αP + (1 − α)Q]n (x1 , . . . , xn )
n (∗) X n
(n)
=
αk (1 − α)n−k Jk (P, Q, h)
k
k=0
donde, para k = 0, 1, . . . , n,
Z
(n)
Jk (P, Q, h) = h(x1 , . . . , xn )dP (x1 ) . . . dP (xk )dQ(xk+1 ) . . . dQ(xn ).
Observación. La igualdad (*) es cierta si h es simétrica incluso en el
caso de que P y Q no sean absolutamente continuas; ¿cómo podrı́a uno
convencerse de ello?
6
a. garcı́a nogales-problemas de estadı́stica matemática
(d.4) Sea P una familia de distribuciones de probabilidad (con más de dos
distribuciones) de forma que para cada P, Q ∈ P existe α ∈]0, 1[ tal que
αP + (1 − α)Q está en P. Probar que entonces, dados P, Q ∈ P, existe
una sucesión 1 > α1 > α2 > . . . > 0 tal que αm P + (1 − αm )Q ∈ P,
m = 1, 2, . . . Def.: Diremos en ese caso que P tiene la propiedad (I).
(d.5) Deducir de los dos apartados anteriores que, si h : Rn −→ R es una
v.a.r. simétrica P n -integrable y tal que
Z
h(x1 , . . . , xn )dP n (x1 , . . . , xn ) = 0, ∀P ∈ P,
(2.1)
(n)
entonces Jk (P, Q, h) = 0, ∀P, Q ∈ P, ∀k = 0, 1, . . . , n.
(d.6) Utilizando (d.5), pruébese por inducción en n que, si h es simétrica y
verifica (2.1), y si P tiene la propiedad (I) entonces
Z
h(x1 , . . . , xn )dP1 (x1 ) · · · dPn (xn ) = 0, ∀P1 , . . . , Pn ∈ P.
(d.7) Pruébese que las familias Pi , i = 0, 2, 4, definidas al principio del problema satisfacen la propiedad (I) y probar que X(·) es un estadı́stico
completo sobre (Rn , Rn , Pin ), i = 0, 1, 2, 4.
Problema 2.12. (Distribución binomial) Sean k, n ∈ N. Se observa una muestra de tamaño n de una distribución binomial bk (p) de parámetro p ∈]0, 1[ desconocido. Nos plantearemos diversos problemas de inferencia sobre el parámetro
p.
(a) Describir la estructura estadı́stica apropiada para un problema de inferencia estadı́stica de ese tipo y un estadı́stico suficiente y completo para esa
estructura.
(b) Consideremos el problema de estimar la función del parámetro
f : p ∈]0, 1[−→ f (p) = p(1 − p).
Determinar el estimador insesgado de mı́nima varianza de f .
(c) En este apartado supondremos n = 1. Nos proponemos estimar p bajo el
punto de vista bayesiano considerando como distribución a priori la distribución uniforme en el espacio de parámetros ]0, 1[. Determinar las distribuciones a posteriori Pi∗ , i = 0, 1, . . . , k, y el estimador Bayes de p.
Problema 2.13. (Distribución binomial) En la estructura estadı́stica ({0, 1, . . . , n},
P({0, 1, . . . , n}), {bn (p) : p ∈]0, 1[}), una función del parámetro f :]0, 1[−→ R admite un estimador insesgado si, y sólo si, f es un polinomio de grado menor o igual
que n.
a. garcı́a nogales-problemas de estadı́stica matemática
7
Problema 2.14. (Distribución hipergeométrica) Sean N, N1 , n ∈ N tales que
N1 , n ≤ N . La distribución hipergeométrica H(N, N1 , n) es la distribución de una
v.a. discreta que toma los valores k = 0, 1, . . . , n con probabilidades
N1 N −N1
pk =
n
n−k
N
n
,
donde se ha denotado rt = t(t−1)···(t−r+1)
si t ∈ R y r ∈ N. Esta es, como sabemos,
r!
la distribución correspondiente al muestreo sin reemplazamiento. La media y la
N1
N −n N1
1
varianza de esta distribución son, respectivamente, nN
N y n · n−1 · N · 1 − N .
Fijos N, n ∈ N tales que n ≤ N , consideremos la estructura estadı́stica
({0, 1, . . . , n}, A, {Pθ : θ ∈ {0, 1, . . . , N })
donde A denota la σ-álgebra de las partes de Ω = {0, 1, . . . , n} y Pθ denota la
distribución hipergeométrica H(N, θ, n) en Ω. Determinar el estimador T insesgado
de mı́nima varianza del parámetro θ y calcular el error cuadrático Eθ [(T − θ)2 ] de
ese estimador.
Problema 2.15. (Distribución normal varianza conocida) Suponemos que
observamos una muestra de tamaño n de una distribución normal de varianza
1 y media µ desconocida.
(a) Describir el estimador de máxima verosimilitud de µ cuando el espacio de
parámetros es: a.1. Θ = R; a.2. Θ = [−1, 1].
(b) Determinar el estimador Bayes de µ cuando el espacio de parámetros es R
y la distribución a priori es la distribución de Dirac en un punto x0 ∈ R.
Problema 2.16. (Condición necesaria y suficiente para que un estadı́stico
real integrable sea un estimador insesgado de mı́nima varianza de su media)
(a) Sea (Ω, A, {Pθ : θ ∈ Θ}) una estructura estadı́stica. Denotaremos, para cada
θ ∈ Θ, por L2θ el conjunto de todos los estadı́sticos reales de cuadrado Pθ integrable sobre ella y haremos
Uθ = {U ∈ L2θ : Eθ (U ) = 0}.
Sean T ∈ L2 := ∩θ L2θ y hagamos f (θ) = Eθ (T ), θ ∈ Θ. Nótese que, para
cada U ∈ Uθ , T U es integrable y Eθ (T U ) = Covθ (T, U ). Pruébese que
una condición necesaria y suficiente para que T sea un estimador insesgado
de mı́nima varianza de f es que T sea Pθ -incorrelado con cada estadı́stico
U ∈ Uθ , para cada θ ∈ Θ, es decir, que Covθ (T, U ) = 0, ∀U ∈ Uθ , ∀θ ∈ Θ.
(b) (No existencia de estimadores insesgados de mı́nima varianza) Considérese
la estructura estadı́stica (Z, P(Z), {Pθ : θ ∈ Z}) donde, para cada θ ∈ Z,
Pθ ({θ − 1}) = Pθ ({θ}) = Pθ ({θ + 1}) = 1/3.
8
a. garcı́a nogales-problemas de estadı́stica matemática
Pruébese que ningún estimando f : Z −→ R no constante posee un estimador
insesgado de mı́nima varianza.
(c) Sean S1 y S2 estimadores insesgados de mı́nima varianza de cuadrado integrable de g1 : Θ −→ R y g2 : Θ −→ R, respectivamente. Dados a1 , a2 ∈ R,
probar que a1 S1 + a2 S2 es el estimador insesgado de mı́nima varianza de
a1 g1 + a2 g2 .
Problema 2.17. (Dos distribuciones normales: varianzas distintas) Supongamos que observamos v.a.r. independientes X1 , . . . , Xm , Y1 , . . . , Yn normalmente
distribuidas de forma que las Xi tienen media µ y varianza σ 2 , y las Yj tienen
media ν y varianza τ 2 , siendo µ, ν, σ 2 y τ 2 totalmente desconocidos.
(a) Determinar el estimador insesgado de mı́nima varianza de la función del
parámetro f1 (µ, ν, σ 2 , τ 2 ) = ν − µ. Calcular el error cuadrático medio de ese
estimador.
(b) Determinar el estimador insesgado de mı́nima varianza de la función del
parámetro f2 (µ, ν, σ 2 , τ 2 ) = τ 2 − σ 2 . Calcular el error cuadrático medio de
ese estimador.
(c) Determinar el estimador insesgado de mı́nima varianza de la función del
parámetro f3 (µ, ν, σ 2 , τ 2 ) = ν · µ.
(d) Determinar el estimador insesgado de mı́nima varianza de la función del
parámetro f4 (µ, ν, σ 2 , τ 2 ) = σ 2 /τ 2 .
Problema 2.18. Supongamos que en el proceso de fabricación de un cierto
objeto se extraen al azar y con reemplazamiento n objetos con el fin de obtener
información sobre la probabilidad θ ∈]0, 1[ desconocida de que un objeto sea defectuoso. Entenderemos que el resultado del experimento es una n-upla de 0’s y
1’s, donde 1 significa que el producto es defectuoso y 0 que no lo es.
(a) Describir la estructura estadı́stica (Ω, A, {Pθ : θ ∈ Θ}) apropiada para un
problema de inferencia sobre el parámetro θ y determinar un estadı́stico
suficiente y completo T : (Ω, A) −→ (Ω0 , A0 ) para esa estructura.
(b) Determinar el estimador insesgado de mı́nima varianza S : (Ω, A) −→ R
para la función del parámetro f (θ) = θ2 (1 − θ).
(c) Determinar el estimador Bayes de f si la distribución a priori Q es la medida
de Lebesgue en ]0, 1[.
Problema 2.19. (Distribución normal bidimensional: estimación de la covarianza) Consideremos la estructura estadı́stica (R2 , R2 , {Q(µ, ν, σ 2 , τ 2 , ρ) : µ, ν ∈
R, σ 2 , τ 2 > 0, ρ ∈ [−1, 1]})n correspondiente a una muestra de tamaño n de una
distribución normal bidimensional Q(µ, ν, σ 2 , τ 2 , ρ) con media y matriz de covarianzas
2
µ
σ
ρστ
y
,
ν
ρστ τ 2
a. garcı́a nogales-problemas de estadı́stica matemática
9
cuya densidad (respecto a la medida de Lebesgue en R2 ) es
1
p
2πστ 1 − ρ2
"
(
#)
x − µ 2 2ρ
1
y−ν 2
−
.
exp −
(x − µ)(y − ν) +
2(1 − ρ2 )
σ
στ
τ
f (x, y) =
Recordemos que, si (X, Y ) es una v.a. bidimensional con distribución Q(µ, ν, σ 2 , τ 2 ,
ρ), entonces E(X) = µ, E(Y ) = ν, Var(X) = σ 2 , Var(Y ) = τ 2 y Cov(X, Y ) = ρστ ;
ρ se llama coeficiente de correlación entre X e Y .
Denotaremos por (x1 , y1 , . . . , xn , yn ) los puntos de R2n y, para 1 ≤ i ≤ n, se
definen aplicaciones
Xi (x1 , y1 , . . . , xn , yn ) = xi
Yi (x1 , y1 , . . . , xn , yn ) = yi
Se define también
n
X̄ =
n
1X
Xi ,
n
Ȳ =
i=1
2
SX
=
1
n−1
n
X
1X
Yi
n
i=1
n
(Xi − X̄)2 ,
SY2 =
i=1
SXY =
1 X
(Yi − Ȳ )2
n−1
i=1
1
n−1
n
X
(Xi − X̄)(Yi − Ȳ )
i=1
2 , S2 , S
, SX
XY )
Y
Probar que el estadı́stico (X̄, Ȳ
es suficiente y completo. Determinar
los estimadores insesgados de mı́nima varianza de µ, ν, µ − ν, σ 2 , τ 2 y de la
covarianza ρστ .
Problema 2.20. Sean k, n ∈ N. Consideremos la estructura estadı́stica producto ({1, . . . , k}, A, P)n donde A es la familia de todas las partes de {1, . . . , k} y P
la familia de todas las probabilidades en {1, . . . , k} que cargan positivamente a todos los sucesos elementales 1, . . . , k (es decir, P consiste en todas las probabilidades
P en {1, . . . , k} tales que P ({i}) > 0, ∀1 ≤ i ≤ k). Si x = (x1 , . . . , xn ) ∈ {1, . . . , k}n
e i ∈ {1, . . . , k}, se define
n
X
Ni (x) =
I{i} (xp ).
p=1
donde I{i} denota el indicador del conjunto unitario {i}. Nota: Ni cuenta cuántas
de las coordenadas de x son iguales a i.
(a) Probar que la estructura estadı́stica considerada es una estructura exponencial (k − 1)-paramétrica y que el estadı́stico (N1 , . . . , Nk ) es un estadı́stico
suficiente y completo para esa estructura. Indicación: Nótese que las σ-álgebras inducidas por los estadı́sticos (N1 , . . . , Nk ) y (N1 , . . . , Nk−1 ) son las
mismas.
10
a. garcı́a nogales-problemas de estadı́stica matemática
b) Determinar el estimador insesgado de mı́nima varianza del estimando
g : P ∈ P −→ g(P ) = P ({1}).
Problema 2.21. (Dos distribuciones normales: varianzas iguales) Se observan
m+n v.a.r. X1 , . . . , Xm , Y1 , . . . , Yn independientes y normalmente distribuidas con
varianza común desconocida σ 2 > 0 y medias desconocidas
E(Xi ) = µ,
1 ≤ i ≤ m,
E(Yj ) = ν,
1 ≤ j ≤ n.
Describir la estructura estadı́stica apropiada para esa situación y un estadı́stico
suficiente y completo para la misma. Determinar los estimadores insesgados de
mı́nima varianza de µ, ν, µ − ν y σ 2 .
Problema 2.22. (Distribución exponencial) Si θ > 0, la densidad pθ de la
distribución exponencial Pθ de parámetro θ es
1
pθ (x) = e−x/θ I]0,+∞[ (x).
θ
Recordar (véase el problema ??) que Pθ tiene media θ y varianza θ2 .
Se considera una muestra de tamaño n de parámetro θ > 0 desconocido.
(a) Describir la estructura estadı́stica correspondiente y un estadı́stico suficiente
y completo para la misma.
(b) Determinar el estimador insesgado de mı́nima varianza del parámetro θ.
(c) Determinar el estimador insesgado de mı́nima varianza de f (θ) = θ2 .
Problema 2.23. Consideremos la estructura estadı́stica
({0, 1, 2}, P({0, 1, 2}), {P0 , P1 })
donde P0 = 21 (ε0 + ε1 ) y P1 = ε2 , siendo εi la medida de Dirac en el punto i,
i = 0, 1, 2. En esa estructura estadı́stica el espacio de parámetros es Θ = {0, 1}.
Determinar un estadı́stico (o una σ-álgebra) suficiente y completo, y el estimador insesgado de mı́nima varianza del parámetro θ.
Problema 2.24. Se dispone de un tetraedro con caras numeradas del 1 al
4 del que se sabe lo siguiente: (a) los valores 1 y 2 se obtienen con la misma
probabilidad; (b) la probabilidad de obtener cada uno de los valores 1,2,3 y 4 es
estrictamente positiva. Describir la estructura estadı́stica correspondiente al experimento aleatorio que consiste en n lanzamientos independientes e idénticamente
distribuidos de ese tetraedro y determinar los estimadores insesgados de mı́nima
varianza de cada uno de los parámetros de esa estructura. Decidir si esos estimadores son consistentes c.s.
a. garcı́a nogales-problemas de estadı́stica matemática
11
Problema 2.25. (Distribución normal) Consideremos la estructura estadı́stica (Rn , Rn , {N (0, σ 2 )n : σ 2 > 0}) correspondiente a una muestra de tamaño n de
una distribución normal de media 0 y varianza σ 2 . Determinar el estimador de
máxima verosimilitud de σ 2 .
Problema 2.26. Se define la densidad gα,β distribución gamma G(α, β) de
parámetros α, β > 0 mediante
gα,β (x) =
1
xα−1 e−x/β I]0,+∞[ (x),
Γ(α)β α
donde Γ denota la función gamma de Euler (véase el problema ??). Supongamos
conocido que la distribución G(α, β) tiene media αβ y varianza αβ 2 (véase el
problema ??). Si el parámetro α se supone conocido (digamos, α = α0 ), determinar
el estimador insesgado de mı́nima varianza del parámetro β y el riesgo cuadrático
del mismo.
Problema 2.27. Consideremos la estructura estadı́stica (R, R, {Pθ : θ ∈ R})n ,
donde Pθ denota la distribución uniforme en el intervalo [θ, θ + 1]. Determinar un
estimador insesgado del parámetro θ que sea función del estadı́stico de orden X(1) .
Problema 2.28. Se observa una muestra de tamaño n de una distribución
normal N (µ0 , σ 2 ) de media conocida µ0 y varianza desconocida σ 2 . Probar que
1
Tn :=
n
r
n
πX
|Xi − µ0 |
2
i=1
es un estimador insesgado y consistente c.s. del parámetro σ.
Problema 2.29. (El estimador Bayes no es insesgado más que en casos muy
especiales) Sea (Ω, A, {Pθ : θ ∈ (Θ, T , Q)}) una estructura estadı́stica bayesiana
dominada por una medida σ-finita µ y denotemos pθ = dPθ /dµ. Supongamos que
la función de verosimilitud L(ω, θ) = pθ (ω) es A × T -medible. Denotaremos
por
R
Π la única probabilidad en (Ω × Θ, A × T ) tal que Π(A × B) = B Pθ (A)dQ(θ),
A ∈ A, B ∈ B. Sea f una v.a.r. con varianza finita en (Θ, T ). Sabemos que el
estimador Bayes de f es X(ω) = EPω∗ (f ) = EΠ (F |I = ω), donde I(ω, θ) = ω
y F = f ◦ I. Probar que el estimador Bayes de f no es insesgado a menos que
EΠ (f 2 ) = EΠ (X 2 ). Probar también que, en ese caso, EΠ [(f (θ) − X(ω))2 ] = 0, es
decir, X = f , Π-c.s.
Problema 2.30. Probar un resultado análogo al teorema ?? para un estimando medible k-dimensional f : (Θ, T ) → Rk cuando se P
utiliza la familia de
funciones de pérdida W := {Wy /y ∈ Rk }, donde Wy (θ, x) = [ ki=1 yi (xi − fi (θ))]2 ,
θ ∈ Θ, x ∈ Rk .
12
a. garcı́a nogales-problemas de estadı́stica matemática
Los problemas siguientes tratan sobre información: se estudia el concepto de entropı́a de una distribución discreta y se prueba que la
información de Fisher verifica algunas de las propiedades que, desde
un punto de vista intuitivo, deberı́a poseer una buena definición de
información.
Problema 2.31. (Entropı́a) En este problema, y en los próximos, Ω será un
conjunto finito o numerable, P(Ω) la σ-álgebra de las partes de Ω y P una probabilidad en Ω. Denotamos también Ω0 = {ω ∈ Ω : P (ω) > 0}.
Def.: Se define la entropı́a H(P ) de P mediante
H(P ) = −
X
P (ω) · log P (ω)
ω∈Ω
(con el convenio 0 · log 0 = 0). Probar que H(P ) es positiva. ¿Cuándo se anula
H(P )?
Problema 2.32. (↑) (Información de Kullback) Sea Q otra probabilidad en
P(Ω) dominada por P . Se define la Información de Kullback de P sobre Q por
K(P, Q) = −
X
P (ω) · log
ω∈Ω
Q(ω)
P (ω)
(con el convenio 0/0 = 0, 0 · log(0/0) = 0; se admite también la aritmética usual
en R̄). Probar que K(P, Q) ≥ 0 y que, si Ω es finito, entonces K(P, Q) = 0 si, y
sólo si, P ≡ Q.
Problema 2.33. (↑) Sean Ω = {1, . . . , n} y Q la distribución uniforme en Ω.
Calcular H(Q) y probar que, si P es otra probabilidad en Ω, entonces H(P ) <
H(Q). Nota: En la sección “Soluciones o indicaciones para algunos de los problemas propuestos” al final del libro se describe el método de los multiplicadores de
Lagrange que hemos utilizado en la resolución de este problema.
Problema 2.34. (↑) Sean X : Ω −→ Ω0 una v.a. y Ω0 = {ω : P (ω) > 0}. Se
define H(X) = H(P X ). Probar
(1) Si X|Ω0 es inyectiva, entonces H(X) = H(P ).
(2) Si X|Ω0 no es inyectiva, entonces H(X) < H(P ).
Observación. La entropı́a de una v.a. se interpreta como una medida de la
incertidumbre sobre el valor que toma esa variable. Esa incertidumbre es máxima
para la distribución uniforme, según prueba el problema 2.33.
a. garcı́a nogales-problemas de estadı́stica matemática
13
Problema 2.35. (↑) Sean X : Ω −→ Ω0 , Y : Ω −→ Ω y f : Ω0 −→ Ω tales
que Y = f ◦ X. Probar que H(Y ) ≤ H(X).
Problema 2.36. (↑) Sean X e Y v.a.r. definidas en Ω y, para y ∈ Y (Ω0 ), sea
P (X = ·|Y = y) la distribución condicional de X respecto a {Y = y}. Probar que
X
P (Y = y) · H(P (X = ·|Y = y)).
H(X, Y ) = H(Y ) +
y∈Y (Ω0 )
Observación-Definición. Entonces H(X, Y ) − H(Y ) es una media de las entropı́as de las distribuciones condicionales de X respecto a los distintos valores
de Y ; se denotará H(X|Y ) = H(X, Y ) − H(Y ) y se llamará entropı́a condicional
de X respecto a Y . H(X|Y ) se interpreta como la incertidumbre media que nos
queda sobre el valor de X cuando conocemos el valor de Y . Con esas notaciones, la
entropı́a conjunta H(X, Y ) coincide con H(Y ) + H(X|Y ) y con H(X) + H(Y |X).
Deducir de ahı́ que sup(H(X), H(Y )) ≤ H(X, Y ).
Problema 2.37. (↑) Con las mismas notaciones que en el problema ??, probar
que H(Y |X) se anula si, y sólo si, Y|Ω0 es función de X|Ω0 .
Problema 2.38. (↑) Si X e Y son independientes, entonces H(X, Y ) = H(X)+
H(Y ).
Problema 2.39. (↑) Un jugador trata de adivinar lo antes posible un número
Y que su adversario ha elegido al azar entre 0 y N − 1. Para ello puede hacer
preguntas que su adversario responderá SI o NO. Después de n preguntas, él conoce
el valor de una función X a valores en {SI, NO}n . Probar (comparando la entropı́a
de Y con la entropı́a máxima de X) que, por muy astuto que sea, el jugador no
puede estar seguro de determinar Y antes de haber hecho un número de preguntas
n ≥ (log N )/(log 2).
Problema 2.40. (Información de Fisher) Recordemos la definición de información de Fisher. Consideremos la estructura estadı́stica (Ω, A, {Pθ : θ ∈ Θ}), Θ ⊂
Rs . Si esa estructura está dominada por una medida σ-finita µ y si está bien
definido el vector aleatorio
Vθ (ω) = (∂ log pθ (ω)/∂θi )1≤i≤s ,
para cada θ y si Eθ (Vθ ) = 0 y Eθ (Vθ2 ) < +∞, para cada θ ∈ Θ, se define I(θ) =
Covθ (Vθ ).
En los problemas siguientes supondremos que (Ω, A, {Pθ : θ ∈ Θ}) es una estructura estadı́stica con información I.
Si T : (Ω, A) −→ (Ω0 , A0 ) es un estadı́stico libre, entonces I T (θ) = 0, ∀θ ∈ Θ,
donde I T es la matriz de información asociada a T .
Observación. Esto concuerda con la intuición de que, utilizando un estadı́stico
libre, se pierde toda la información.
14
a. garcı́a nogales-problemas de estadı́stica matemática
Problema 2.41. (↑) Sea T : (Ω, A) −→ (Ω0 , A0 ) un estadı́stico suficiente con
matriz de información I T . Probar que I T (θ) = I(θ), ∀θ ∈ Θ.
Observación. Una buena definición de información deberı́a asignar a un estadı́stico suficiente toda la información presente en la estructura estadı́stica original.
Problema 2.42. (↑) Sean T1 : (Ω, A) −→ (Ω1 , A1 ) y T2 : (Ω, A) −→ (Ω2 , A2 )
estadı́sticos {Pθ : θ ∈ Θ}-independientes con matrices de información I T1 e I T2 ,
resp. Probar que la matriz de información I (T1 ,T2 ) asociada al estadı́stico (T1 , T2 ) :
(Ω, A) −→ (Ω1 × Ω2 , A1 × A2 ) coincide con I T1 + I T2 .
Observación. También ésta puede parecer una propiedad natural a exigir a
una buena definición de información (la información conjunta suministrada por
dos estadı́sticos independientes es la suma de las informaciones).
Problema 2.43. (↑) (¿Cómo crece la información con el número de observaciones?) Probar que la matriz de información asociada a la estructura producto
(Ω, A, {Pθ : θ ∈ Θ})n es n · I.
Problema 2.44. (↑) Sea T : (Ω, A) −→ (Ω0 , A0 ) un estadı́stico con matriz
de información I T (θ) = Covθ (VθT ). Supongamos que VθT = Eθ (Vθ |T ), para cada
θ ∈ Θ, y probar que I T ≤ I. Convencerse de que la condición VθT = Eθ (Vθ |T )
es una condición de regularidad bastante general si es posible intercambiar los
procesos lı́mite de derivación e integración.
Observación. Este apartado prueba que, bajo las hipótesis apropiadas, pasando
a la estructura imagen de un estadı́stico se pierde información, en general.
Problema 2.45. Calcular la matriz de información I(µ, σ) e I n (µ, σ) de Fisher para las estructuras
(R, R, {N (µ, σ 2 ) : µ ∈ R, σ > 0})
y
(R, R, {N (µ, σ 2 ) : µ ∈ R, σ > 0})n .
Probar que la media muestral es un estimador eficiente de µ, y que la varianza
muestral no es un estimador eficiente de σ 2 (sabemos que ambos son estimadores
insesgados de mı́nima varianza de los parámetros respectivos).
Problema 2.46. (Distribución de Poisson) Consideremos la estructura estadı́stica (N0 , P(N0 ), {Pθ : θ > 0}) donde N0 = {0, 1, 2, . . . } y Pθ es la distribución
de Poisson de parámetro θ > 0, es decir,
Pθ ({0}) = e−θ ,
Pθ ({k}) = e−θ θk /k!,
k = 1, 2, . . .
Recordar que Pθ tiene media θ y varianza θ. Probar que existe (y calcular) la información I(θ) para esa estructura estadı́stica. Supuesto conocido que la información
a. garcı́a nogales-problemas de estadı́stica matemática
15
asociada a la estructura producto (N0 , P(N0 ), {Pθ : θ > 0})n es n · I(θ), probar
que X̄ es un estimador insesgado y eficiente del parámetro θ en esa estructura
producto.
Algunos problemas sobre conjuntos de confianza.
Problema 2.47. (Intervalos de confianza para la varianza de una distribución
normal) Ya se vió en teorı́a cómo determinar intervalos de confianza para la media
de una distribución normal tanto en el caso de que la varianza sea conocida como
en el caso de que sea desconocida.
Obtener una familia de intervalos de confianza para la varianza de una distribución normal de media desconocida a partir de una muestra de tamaño n a un
nivel de significación dado.
Problema 2.48. (Región de confianza para ambos parámetros) Construir un
conjunto de confianza para el parámetro bidimensional (µ, σ 2 ) a un nivel de significación dado a partir de una muestra de tamaño n de una distribución normal de
parámetros desconocidos.
Problema 2.49. (Intervalo de confianza para la diferencia de medias de dos
distribuciones normales con varianza común desconocida)
(a) Se dispone de dos muestras independientes de extensiones m y n de sendas
distribuciones normales con varianza común desconocida. Construir intervalos de
confianza a partir de esas muestras para la diferencia de las medias desconocidas
de esas distribuciones.
(b) Ejercicio de aplicación. Con el fin de comparar el rendimiento obtenido
por dos variedades de trigo X e Y se seleccionan al azar 16 parcelas; en ocho de
ellas se siembra trigo de la variedad X y en las ocho restantes se siembra trigo
de la variedad Y . Los resultados obtenidos, medidos en Kg/m2 , en las diferentes
parcelas son los de la tabla siguiente
X
Y
5.5
6.1
4.9
6.5
6.1
5.9
5
5.5
6
6.8
5.2
5.7
5.8
5.6
5.3
5.9
Asumiendo la hipótesis de normalidad y de igualdad de las varianzas, proporcionar
un intervalo al 95 % de confianza para la diferencia de las medias.
Problema 2.50. Sea X1 , . . . , Xn una muestra de la distribución U[θ− 21 , θ+ 12 ]
uniforme en [θ− 12 , θ+ 12 ], θ ∈ R. Probar que [X(1) , X(n) ] es un intervalo de confianza
para θ. Encontrar el nivel de confianza de ese intervalo. Probar que su longitud
media es
Eθ (X(n) − X(1) ) = (n − 1)/(n + 1).
16
a. garcı́a nogales-problemas de estadı́stica matemática
Problema 2.51. (a) Sean (Ω, A, P ) un espacio de probabilidad y T una v.a.r.
sobre él con función de distribución F . Probar que F ◦ X es una v.a.r. con distribución uniforme en el intervalo [0, 1].
(b) (Existencia de cantidades pivote) Deducir de (a) que si X1 , . . . , Xn son
estadı́sticos reales independientes en una e.e. (Ω, A, {Pθ : θ ∈ Θ}) con funciones de
distribución F1,θ , . . . , Fn,θ respecto a Pθ , resp., entonces
T (ω, θ) :=
n
Y
Fi,θ (Xi (ω))
i=1
es una cantidad pivote.
Problema 2.52. Sean Ti,θ : (Ω, A) × Θ → (Ω0i , A0i ), 1 ≤ i ≤ n, cantidades pivote sobre la e.e. (Ω, A, {Pθ : θ ∈ Θ}) tales que, para cada θ ∈Q
Θ, T1,θ , . . Q
. , Tn,θ son
Pθ -independientes. Probar que para cada función medible f : ( i=1 )n Ω0i , i=1 )n A0i ) →
(Ω00 , A00 ) se verifica que f (T1,θ , . . . , Tn,θ ) es una cantidad pivote. Nota: Podemos decir, por tanto, que cualquier función medible de cantidades pivote independientes
es una cantidad pivote.
Problema 2.53. (↑) (Familias de posición-escala) Sea f : R → [0, +∞[ una
función Borel medible no negativa con integral 1 (respecto a la medida de Lebeses una función Borel medible no negatigue). Dados µ ∈ R y σ > 0, σ1 f x−µ
σ
va con integral 1, densidad de una distribución de probabilidad Q(µ, σ 2 ) en R.
(R, R, {Q(µ, σ 2 ) : µ ∈ R, σ > 0}) es lo que se llama una estructura estadı́stica de
posición escala. Denotaremos por Xi la aplicación coordenada i-ésima en Rn .
(a) Dado σ > 0, probar que Xi − µ y X̄ − µ son cantidades pivote en la e.e.
n
(R , Rn , {Q(µ, σ 2 )n : µ ∈ R}).
(b) Dado µ ∈ R, probar que
Xi − µ
,
σ
X̄ − µ
,
σ
n
Y
Xi − µ
i=1
σ
,
1
S
σ
donde S 2 es la varianza muestral, son cantidades pivote en la e.e. (Rn , Rn , {Q(µ, σ 2 )n : σ >
0}).
Problema 2.54. (a) Se consideran muestras independientes de extensiones
m y n de sendas distribuciones normales con parámetros totalmente desconocidos.
Construir un intervalo de confianza para el cociente de las varianzas de ambas
distribuciones a un nivel de confianza 1 − α dado.
(b) Ejercicio de aplicación. Se seleccionan al azar 10 bombillas de una marca
X y 9 de otra marca Y . La duración (longitud de vida) en horas de esas bombillas
aparece en la tabla siguiente
X
Y
990
910
854
800
1010
950
1100
1000
925
980
982
1200
1000
970
1150
940
970
930
900
a. garcı́a nogales-problemas de estadı́stica matemática
17
Asumiendo la hipótesis de normalidad de las observaciones, dar estimaciones de
las varianzas de ambas distribuciones (utilı́cese el estimador insesgado de mı́nima varianza). Construir un intervalo de confianza al nivel 0.95 para el cociente
de las varianzas, que puede utilizarse para comparar el grado de precisión en la
fabricación de bombillas por ambas marcas.
Descargar