ESTIMACIÓN TEMA 5: Estimación puntual I. Propiedades de los

Anuncio
ESTIMACIÓN
TEMA 5: Estimación puntual I. Propiedades de los estimadores
TEMA 6: Estimación puntual II. Métodos de estimación puntual
TEMA 7: Estimación por intervalos
CONTRASTES DE HIPÓTESIS
TEMA 8: Contrastes paramétricos
TEMA 9: Contrastes no paramétricos
1
TEMA 6:
ESTIMACIÓN PUNTUAL II.
MÉTODOS DE ESTIMACIÓN
6.1. Estimación por el método de los momentos
6.2. Estimación máximo-verosímil
2
1. ESTIMACIÓN POR EL MÉTODO DE LOS MOMENTOS
Modelo: X→F(x;ϑ)
Muestra: (X1 ,…, Xn)
Momentos poblacionales
(función de los parámetros)
Momentos muestrales
(función de la muestra)
1
αk=E(X )
i =1
Un único parámetro: • Si θ=αk
• Si θ=g(αk)
Varios parámetros:
n
ak= n ∑ X ik
k
ˆ k = ak
θˆ = α
θˆ = g(αˆ k ) = g(ak)
θ1=g1(α1,α2)
θ̂1 =g1(a1,a2)
θ2=g2(α1,α2)
θ̂2 =g2(a1,a2)
Ejemplos: X→b(p) ⇒ E(X)=p; X→ε(θ) ⇒ E(X)=1/θ; X→N(μ,σ)
3
Propiedades:
ƒ
En general, son consistentes:
1
n
Ley débil de los grandes números: a k = ∑ X ik
n i =1
Sea gi función continua: Slutsky ⇒
ƒ
c.p.
⎯⎯
⎯→ E ( X k ) = α
i
k
c.p.
ϑ̂i =gi(a1,...,ak) ⎯ ⎯⎯→ θi=gi(α1,...,αk)
En particular, si el parámetro a estimar es un
momento poblacional:
1
n
n
¾ Insesgados: E( α̂ k )=E(ak)=E( n ∑ X ik )= n ∑ E ( X ik ) =αk
1
i =1
i =1
¾ Asintóticamente normales
1
n
Teorema Central del Límite ⇒ α̂ k = n ∑ X ik
i =1
~
n →∞
Normal
4
2. ESTIMACIÓN MÁXIMO VEROSÍMIL
Modelo poblacional X →b(p)
X=
⎧1
⎪
⎨
⎪⎩ 0
Roja → p
Negra → 1 - p
Posible
composición
de la urna
Parámetro
p=p(R)
p=1
p= 3
Realización concreta de una muestra de tamaño n=4
(x1, x2, x3, x4) = (........,........,........,........)
Probabilidad de la muestra concreta
)=p( )p( )p( )p( )=(1-p) p
p(X1= ,X2= ,X3= ,X4= )=p(
p(X1= ,X2= ,X3=
p= 1
4
p=0
,X4= )=
p(X1= ,X2= ,X3=
⎛ ⎞ ⎛ ⎞
,X4= )= ⎜⎜ 1 ⎟⎟ ⎜⎜ 3 ⎟⎟ =
p(X1= ,X2= ,X3=
⎛ ⎞
,X4= )= ⎜⎜ 2 ⎟⎟
⎝ 4⎠ ⎝ 4⎠
4
p= 2
4
p(X1= ,X2= ,X3=
.
⎛ 2⎞
⎜ ⎟
⎜ ⎟
4
⎝ ⎠ ⎝ 4⎠
⎛ ⎞
,X4= )= ⎜⎜ 3 ⎟⎟
p(X1= ,X2= ,X3=
⎛1⎞
⎜ ⎟
⎜ ⎟
4
⎝ ⎠ ⎝ 4⎠
=
=
,X4= )=
5
Función de verosimilitud:
⎧ p(X1 = x1,...,Xn = xn ; θ) = p(X1 = x1; θ)...p( Xn = xn ; θ) discreto
L(θ)=L(θ;x1,…,xn)= ⎨
⎩f ( x1,..., xn ; θ) = f ( x1; θ)...f ( xn ; θ) continuo
¡ IMPORTANTE !: la muestra concreta (x1,...,xn) es conocida, el
parámetro θ es lo desconocido ⇒ L(θ) depende de θ; la muestra fija.
Ejemplo: (X1,...,Xn) muestra aleatoria simple de una v.a. Bernoulli b(p)
L(p)=p(X=x1,…,X=xn; p)= p(X=x1)… p(X=xn)= p ∑ xi (1 − p)n − ∑ xi
Problema: max imizar L (θ)
θ
Solución ⇒ El estimador máximo verosímil: ϑ̂MV ¡ es una v.a.!
⇒ La estimación máximo verosímil de θ = valor concreto del E.M.V. para
una muestra concreta (x1,…,xn) ⇒ ϑ̂ (x1,…,xn) ¡ es un nº !.
6
0.10
Función de verosimilitud
0.06
0.08
L(p)=(1- p)p3
0.0
0.02
0.04
L(p)= (1-p)2p2
0.0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1.0
7
0.0
0.2
0.4
L(p)
0.6
0.8
1.0
FUNCION DE VEROSIMILITUD DISTRIBUCION BERNOULLI (n=4)
0.0
0.2
0.4
0.6
0.8
1.0
p
8
PROCEDIMIENTOS PARA OBTENER EL E.M.V.
1º MÉTODO: Hay condiciones de regularidad:
(a) El conjunto de valores que puede tomar la v.a. X no depende de θ
(b) L(θ) tiene primeras derivadas continuas;
maximizar L(θ;x1,…,xn) ⇔ maximizar lnL(θ;x1,…,xn)
CASO 1: Un solo parámetro: *
∂ ln L ( θ )
∂θ
= 0 ==> Solución ϑ̂
∂ 2 lnL(θ)
* ∂θ2 θˆ < 0
CASO 2: Varios parámetros: *
*
∂ ln L (θ )
∂ θ1
∂ ln L (θ )
∂θ 2
=0
=0
⇒ Solución ϑ̂ =( ϑ̂ 1, ϑ̂ 2)
* Hessiano definida negativa
9
Ejemplo:
(X1,...,Xn) muestra aleatoria simple de una v.a. Bernoulli b(p)
L(p)=p(X=x1,…,X=xn; p)= p(X=x1)… p(X=xn)= p ∑ xi (1 − p )n − ∑ xi
lnL(p)= Σxi ln(p)+(n-Σxi)ln(1- p)
∂ ln L( p) Σxi n − Σxi
−
=
=0
∂p
p (1 − p)
⇔ (1- p)Σxi - p(n-Σxi)=0 ⇔ Σxi- pn=0 ⇔ p̂ = X
1
∂2 lnL( p)
1
(
n
−
Σ
x
)
x
−
Σ
i
i
(1 − p) 2
∂p2 p̂ = p 2
−
−
− (1 − X ) 2 n X n (1 − X )X 2 − (1 − X ) n n X
=
=
X 2 (1 − X ) 2
X (1 − X )
p= X
−n
= X (1 − X )
<0
Observar:
ƒ
Si (x1, x2, x3, x4) = (1.,.1.,.0.,.0..) ==> p̂ = 2 =0.5 (¡como en el ejemplo bolas!)
ƒ
Si (x1, x2, x3, x4) = (1.,.0.,.1.,.1..) ==> p̂ = 3 =0.75 (¡como en el ejemplo bolas!)
4
4
10
2º MÉTODO: NO hay condiciones de regularidad:
Resolver el problema geométricamente:
¾
Obtener la función de verosimilitud L(θ)
¾
Representar gráficamente L(θ) ¡como función de θ!
¾
Localizar el punto correspondiente al máximo de dicha función
Ejemplo:
(X1,...,Xn) muestra aleatoria simple de una v.a. Uniforme U(0,θ)
L(θ)=L(θ;x1,…,xn)= f(x1,…,xn; θ) = f(x1;θ) f(x2;θ)….f(xn; θ)=
1
θn
0
si x(n)<θ, x(1)>0
resto
Dibujar esta función ⇒ ϑ̂MV =X(n)
11
Propiedades del E.M.V.:
ƒ INVARIANZA: si ϑ̂MV es estimador máximo verosímil de θ, g(θ) una función de θ ⇒
g( ϑ̂MV ) es el estimador máximo verosímil de g(θ); es decir : g(θ) =g( ϑ̂ )
ƒ SUFICIENCIA Y E.M.V.: Si hay un estadístico suficiente, el E.M.V. (si es único) es
función de dicho estadístico; y si no es único, existe un EMV función del
estadístico suficiente.
ƒ EFICIENCIA Y E.M.V.: Si existe el estimador eficiente, éste es un E.M.V. (es
solución de la ecuación de verosimilitud)
ƒ PROPIEDADES ASINTÓTICAS: bajo ciertas condiciones
c.p.
¾ Consistente: ϑ̂MV ⎯ ⎯
⎯→ θ ( plim ϑ̂MV =θ)
n→∞
¾
Asintóticamente insesgado: lim E( ϑ̂MV )=θ
n →∞
Asintóticamente normal
¾ Asintóticamente eficiente: varianza de distribución asintótica = cota Cramer-Rao
¾
d
n (θˆ − θ ) ⎯
⎯→
N ( 0, v (θ ))
12
Descargar