Estimadores de la varianza de la perturbación aleatoria

Anuncio
Apuntes de Clase de Econometría I
Prof. Rafael de Arce
ESTIMADORES DE LA VARIANZA
ALEATORIAS EN EL MBRL
DE
LAS
PERTURBACIONES
[email protected]
Una vez deducida una fórmula para la estimación para la determinación de los
parámetros del modelo, a través de los MCO o MV, se comprueba fácilmente que
dichos estimadores son lineales, insesgados, óptimos y consistentes
(ELIO+Consistentes).
Así, y conforme a la primera propiedad – la linealidad -, es fácil escribir los estimadores
MCO como una combinación lineal de las perturbaciones aleatorias del modelo (U)
βˆ = [ X ' X ]−1 X ' Y = β + [ X ' X ]−1 X ' U
(simplemente sustituyendo Y = Xβ + U )
Asumiendo la hipótesis básica realizada sobre las perturbaciones en el MBRL, es
inmediato deducir que los estimadores MCO se distribuirán también como una normal,
cuya media se deduce al demostrar que son insesgados y su varianza se calcula en la
demostración de la optimalidad (o eficiencia):
βˆ → N ( β ; [X ' X ]−1 σ 2 )
Esta conclusión será enormemente útil para la siguiente fase en la modelización:
validación y evaluación del modelo estimado. Conociendo cómo se distribuyen los
parámetros estimados, podremos llevar a cabo distintos contrastes sobre su bondad o su
significación estadística. Pero, para ello, deberemos conocer alguna forma de estimar la
−1
matriz de varianzas-covarianzas de los parámetros; en la que [ X ' X ] será una matriz
fácilmente calculable, dado el carácter de regresores deterministas que se le suponen por
hipótesis a las explicativas del modelo. El problema estará en encontrar un estimador
para σ 2 , o la varianza de las perturbaciones aleatorias del modelo.
La literatura econométrica propone diversas opciones para estimar esta σ 2 , de las
cuales nosotros rescataremos dos: (i) el estimador máximo verosímil de la varianza de
las perturbaciones aleatorias y (ii) el estimador insesgado de la varianzas de las
perturbaciones aleatorias.
Adelantándonos al resultado de sus demostraciones, podemos concluir que los
estimadores que se obtienen son los siguientes:
(i)
el estimador máximo verosímil de la varianza de las perturbaciones
aleatorias: varianza muestral de los errores del modelo
σ~ 2 =
e' e
=
n
∑e
2
i
n
Pág. 1 / 5
Apuntes de Clase de Econometría I
(ii)
Prof. Rafael de Arce
el estimador insesgado de la varianza de las perturbaciones aleatorias.
ei2
e' e
∑
2
σˆ =
=
n−k n−k
El primero de estos dos estimadores propuestos es plausible en términos teóricos (lograr
el estimador de σ 2 que nos sitúa en el punto máximo de la función de densidad
conjunta de las perturbaciones aleatorias es congruente con situarme precisamente en el
punto en el que la probabilidad de que las perturbaciones aleatorias valgan cero es
máxima – lo mismo que se hacía para lograr los estimadores MV de los parámetros).
Aún así, se puede demostrar que este estimador es sesgado, ya que la propuesta número
(ii) es insesgada1. Esta situación dará lugar a que empleemos siempre el segundo
estimador propuesto de la varianza de las perturbaciones aleatorias; es decir, el
insesgado, que no es más que el primero, pero corregido por los grados de libertad.
Demostraciones de las expresiones de cálculo de los estimadores de la varianza de las
perturbaciones aleatorias:
(i)
Estimador máximo verosímil de la varianza de las perturbaciones
aleatorias:
Partiendo del logaritmo de la función de densidad conjunta de las perturbaciones
aleatorias:
n
n
U 'U
L = − Ln(2π ) − Ln(σ 2 ) −
2
2
2σ 2
y una vez estimemos el modelo, podremos sustituir las perturbaciones aleatorias
por su valores estimados (los errores o “e”):
n
n
e' e
L = − Ln(2π ) − Ln(σ 2 ) −
2
2
2σ 2
Se trata ahora de encontrar los valores de σ 2 que maximicen este logaritmo de la
función de densidad; es decir que anulen la primera derivada de la misma, que
sería:
∂L
n
− e' e
=−
−
2
2
∂σ
2σ
2(σ 2 ) 2
Para obtener los valores estimados de sigma igualamos a cero esta derivada,
obteniendo:
1
Si la propuesta (ii) es insesgada, la propuesta (i), necesariamente un número más pequeño por como se
calculan ambas, estará infravalorando el valor de estimación de la varianza.
Pág. 2 / 5
Apuntes de Clase de Econometría I
Prof. Rafael de Arce
n
− e' e
− ~2 − ~2 2 = 0
2σ
2(σ )
n
e' e
= ~2 2
2
~
2σ
2(σ )
Y, finalmente, despejando:
e' e
σ~ 2 =
=
n
∑e
2
i
n
Que sería la fórmula para estimar la varianza de las perturbaciones aleatorias
máximo verosímil.
(ii)
Estimador insesgado de la varianza de las perturbaciones aleatorias.
Se trata de demostrar que la expresión de estimación:
e' e
∑ ei
σˆ =
=
n−k n−k
2
2
Es insesgada; es decir, que el valor así obtenido cumple la propiedad de:
 e' e 
2
E (σˆ 2 ) = E 
 =σ
n−k 
Para realizar esta demostración partimos de definir el vector del error “e”:
−1
−1
e = (Y − Yˆ ) = Xβ + U − Xβˆ = Xβ + U − Xβ − X [ X ' X ] X ' U = U − X [ X ' X ] X ' U
[
]
= I n − X [X ' X ] X ' U
[
−1
]
A la matriz I n − X [X ' X ] X ' , la llamaremos matriz M o matriz de proyección y será
muy útil para realizar diversas demostraciones sobre el MBRL2. Utilizando este
nombre, M, escribiremos el error como:
−1
e = MU
Y conocidas las propiedades de la matriz M de simetricidad e idempotencia de M:
e' e = U ' M ' MU = U ' MU
2
Dicha matriz, como es fácilmente comprobable, es simétrica (M=M’), idempotente (MM’=M’M=M) y
semidefinida positiva.
Pág. 3 / 5
Apuntes de Clase de Econometría I
Prof. Rafael de Arce
Volviendo a nuestro propósito, queremos demostrar que
 e' e 
2
E (σˆ 2 ) = E 
 =σ
n
−
k


Con el fin de determinar el resultado de aplicar el operador esperanza a la parte
aleatoria de esa expresión, tenemos:

 m11 m12 . m1n   u1  

m
 u  
m
.
.

21
22
 2   =
E (e' e) = E (U ' MU ) = E  [u1 u 2 ..... u n ]
 .
. . .   .  


 

.. . mnn  u n  
mn1


 u1  

u  


= E  ∑ u i mi1 ∑ u i mi 2 ..... ∑ u i min  2   =
.

  

u n  

= E (u1 ∑ u i m11 + u 2 ∑ u i m22 + ... + u n ∑ u i mnn )
[
]
Recordando dos de las hipótesis realizadas sobre las perturbaciones aleatorias del
modelo (homocedasticidad y no autocorrelación)
E (u i ) = σ 2
2
E (u i u j ) = 0 ∀i ≠ j
la expresión anterior se puede simplificar del siguiente modo:
= E (u1 ∑ u i m i1 + u 2 ∑ u i mi1 + ... + u n ∑ u i mi1 ) = E
(∑ u
2
i
)
mii = σ 2 ∑ m ii
ya que, al aplicar el operador esperanza, solo serán distintos de cero estos productos,
2
que se corresponden a E (ui ) = σ 2 , multiplicado por la suma de los elementos de la
diagonal principal de la matriz M; es decir, su traza:
E (e' e) = σ 2 ∑ mii = σ 2Tr ( M )
Sustituyendo ahora “M” por su valor:
[
]
E (e' e) = σ 2 Tr I n − X [ X ' X ] X '
−1
Pág. 4 / 5
Apuntes de Clase de Econometría I
Prof. Rafael de Arce
Y calculando la traza de estas matrices3:
E (e' e) = σ 2 (Tr ( I n ) − Tr ( X [ X ' X ] X ' )) = σ 2 (Tr ( I n ) − Tr ([X ' X ] X ' X )) =
−1
−1
= σ 2 (Tr ( I n ) − Tr ( I k )) = σ 2 (n − k )
En definitiva, si despejamos la expresión resultante:
E ( e' e) = σ 2 ( n − k )
E ( e' e)
=σ 2
(n − k )
 e' e 
2
E
 =σ
n−k 
Con lo que queda demostrado que la esperanza del segundo estimador propuesto
e' e
σˆ 2 =
coincide con el valor real de la varianza de las perturbaciones aleatorias;
n−k
luego es insesgado y, como ya se comentaba anteriormente, cualquier otro será
sesgado; por lo que siempre será preferible utilizar este método de estimación.
3
Recuérdense las propiedades de las trazas que dicen que Tr(A·B)= Tr(B·A); pudiendo llamar
B = X [X ' X ]
−1
y A = X'
Pág. 5 / 5
Descargar