Tema 2: Errores de Especificación y Problemas con la Muestra

Anuncio
Tema 2:
Errores de Especificación y
Problemas con la Muestra
1
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.1) Introducción.
2.2) Omisión de Variables Relevantes.
2.3) Inclusión de Variables Superfluas.
2.4) Mala Especificación de la Forma Funcional.
2.5) Multicolinealidad.
2.6) Errores de Medida.
2.7) Observaciones Atípicas.
2
TEMA 2: ERRORES DE ESPECIFICACIÓN
Y PROBLEMAS CON LA MUESTRA
2.1) INTRODUCCIÓN
LINEALES
INSESGADOS
ESTIMADORES
MCO
βˆ MCO = W ⋅ Y
E ( βˆ MCO ) = β
βˆ MCO = β
CONSISTENTES lim
n →∞
PROPIEDADES
ÓPTIMOS
βˆ MCO = ( X '⋅ X ) −1 ⋅ ( X '⋅Y )
HIPÓTESIS
MODELO BIEN ESPECIFICADO
U ES RUIDO BLANCO
- Variables Relevantes
E (U t ) = 0; ∀t
- Forma Funcional Correcta
E (U t2 ) = σ u2 ; ∀t
- No Existen Errores de Medida ni
Outliers
E (U t , U s ) = 0; ∀t ≠ s
3
TEMA 2: ERRORES DE ESPECIFICACIÓN
Y PROBLEMAS CON LA MUESTRA
2.1) INTRODUCCIÓN
OBJETIVO: Análisis de las consecuencias de que se violen
los supuestos relacionados con las variables explicativas:
· INCORRECTA ESPECIFICACIÓN:
2.2) Omisión de Variables Relevante
2.3) Inclusión de Variables Superfluas
2.4) Mala Especificación de la Forma Funcional
· PROBLEMAS RELACIONADOS CN LA INFORMACIÓN MUESTRAL:
2.5) Multicolinealidad
2.6) Errores de Medida
2.7) Observaciones Atípicas
4
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.2) OMISIÓN DE VARIABLES RELEVANTES
- Planteamiento del Problema
- Estimación del Modelo
· Estimación
· Propiedades
¿Insesgadez?
¿Consistencia?
¿Eficiencia? (Varianza de la Estimación)
- Consecuencias
5
TEMA 1. INTRODUCCIÓN: GENERALIZACIÓN Y
EXTENSIÓN DEL MODELO DE REGRESIÓN
2.2) OMISIÓN DE VARIABLES RELEVANTES
- Planteamiento del Problema
MODELO VERDADERO
ÁLGEBRA ORDINARIA
Yi = β 0 + β1 ⋅ X 1i + β 2 ⋅ X 2i + ... + β k ⋅ X ki + U i
ÁLGEBRA MATRICIAL
Y( nx1) = X ( nx ( k +1)) ⋅ β (( k +1) x1) + U ( nx1)
∀i = 1,2,..., n
E (U t ) = 0; ∀i
E (U i2 ) = σ u2 ; ∀i
E (U i ,U s ) = 0; ∀i ≠ s
d
Ui → N (0, σ u2 )
E (U ) =ϑ ( nX 1)
E (U ⋅ U ' ) = σ u2 ⋅ I
d
U → N (ϑ , σ u2 ⋅ I )
6
TEMA 2. INTRODUCCIÓN: GENERALIZACIÓN Y
EXTENSIÓN DEL MODELO DE REGRESIÓN
2.2) OMISIÓN DE VARIABLES RELEVANTES
- Planteamiento del Problema
SUPUESTO. Cometemos un ERROR DE ESPECIFICACIÓN:
Se especifica un MODELO ERRÓNEO en donde omitimos
variables que son relevantes para explicar Y.
AGRUPACIÓN DE LAS VARIABLES EXPLICATIVAS
GRUPO A: Variables que sabemos que son relevantes y por eso LAS
INCLUIMOS EN NUESTRO MODELO. Suponemos que serán un total de (K-r)
variables.
GRUPO B: Variables que influyen sobre la variable endógena (Y) pero por
desconocimiento NO LAS INCLUIMOS EN EL MODELO. Serán las r restantes
7
variables.
TEMA 2. INTRODUCCIÓN: GENERALIZACIÓN Y
EXTENSIÓN DEL MODELO DE REGRESIÓN
2.2) OMISIÓN DE VARIABLES RELEVANTES
- Planteamiento del Problema: Un ejemplo
MODELO
VERDADERO
Yi = β 0 + β1 ⋅ X 1i + β 2 ⋅ X 2i + β 3 ⋅ X 3i + U i
∀i = 1,2,..., n
Las Variables X 1 , X 2 y X 3 son relevantes para explicar
¿QUÉ SUCEDE?
NUESTRO MODELO
DE TRABAJO
Y
Por desconocimiento sólo incluimos X 1 y X 2
Yi = β 0 + β 1 ⋅ X 1i + β 2 ⋅ X 2i + Vi
VARIABLES EXPLICATIVAS GRUPO A
X1 X 2
∀i = 1,2,..., n
VARIABLES EXPLICATIVAS GRUPO B
8
X3
TEMA 2. INTRODUCCIÓN: GENERALIZACIÓN Y
EXTENSIÓN DEL MODELO DE REGRESIÓN
2.2) OMISIÓN DE VARIABLES RELEVANTES
- Planteamiento del Problema:
MODELO DE
TRABAJO
XA
Y = X A ⋅ βA +V
EJEMPLO:
1 X 11

1 X 12
.
XA =
.

.
1 X
1n

X 21 

X 22 

βA




X 2 n  ( nx ( k − r +1))=( nX 3)
 β0 
 
=  β1 
β 
 2
 V1 
 
 V2 
 . 
V = 
 . 
 . 
 
V 
 n
βA
V
Matriz que recoge
los valores de las
variables incluidas
en el modelo.
[nx( K − r + 1)]
Vector que recoge los
parámetros de las
variables incluidas en
el modelo.
[( K − r + 1) x1]
Vector que recoge las
perturbaciones de
nuestro modelo.
[nx1] 9
TEMA 2. INTRODUCCIÓN: GENERALIZACIÓN Y
EXTENSIÓN DEL MODELO DE REGRESIÓN
2.2) OMISIÓN DE VARIABLES RELEVANTES
- Planteamiento del Problema:
MODELO
VERDADERO
EJEMPLO:
 U1 
 X 31 
 


U 2 
 X 32 
 . 
 . 

U = 
XB = 
 . 
 . 
 . 
 . 


 
X 
U 
 3n  ( nxr ) =( nx1)
 n  ( nx1)
β B = (β 3 )
Y = X ⋅ β +U = X A ⋅ β A + X B ⋅ βB +U
XB
βB
U
Matriz que recoge los valores de las variables
omitidas en el modelo. [nxr ]
Vector que recoge los parámetros de las
variables omitidas en el modelo. [rx1]
Vector que recoge las perturbaciones del
modelo verdadero.[nx1]
10
TEMA 2. INTRODUCCIÓN: GENERALIZACIÓN Y
EXTENSIÓN DEL MODELO DE REGRESIÓN
2.2) OMISIÓN DE VARIABLES RELEVANTES
- Planteamiento del Problema:
MODELO DE
TRABAJO
Y = X A ⋅ βA +V
MODELO
VERDADERO
Y = X ⋅ β +U = X A ⋅ β A + X B ⋅ βB +U
V = X B ⋅ βB +U
Existe un efecto sistemático sobre
la perturbación de nuestro modelo
de
trabajo.
Podrá
originar
problemas
de
AUTOCORRELACIÓN
o
HETEROCEDASTICIDAD.
11
TEMA 2. INTRODUCCIÓN: GENERALIZACIÓN Y
EXTENSIÓN DEL MODELO DE REGRESIÓN
2.2) OMISIÓN DE VARIABLES RELEVANTES
- Estimación: (Ver demostraciones)
MODELO DE
TRABAJO
ESTIMACIÓN MCO
Y = X A ⋅ βA +V
(
βˆ A = X A' ⋅ X A
ESTIMADOR SESGADO
)
−1
⋅ X A' ⋅ Y = β A + P ⋅ β B + ( X A' ⋅ X A ) −1 ⋅ X A' ⋅ U
E ( βˆ A ) ≠ β A ;
E ( βˆ A ) = β A ⇔ β B = ϑ ; P = ϑ or P ⋅ β B = ϑ
ESTIMADOR NO CONSISTENTE
VARIANZA DE LOS ESTIMADORES
12
TEMA 2. INTRODUCCIÓN: GENERALIZACIÓN Y
EXTENSIÓN DEL MODELO DE REGRESIÓN
2.2) OMISIÓN DE VARIABLES RELEVANTES
- Consecuencias:
1-. Las Estimaciones de
β̂ A
son SESGADAS.
2-. Las Estimaciones de
β̂ A
son INCONSISTENTES.
3-. Se sobreestima
σ U2
(σˆ
2
U
≥ σ U2
)
No se puede hacer
inferencia estadística porque
se obtendrán conclusiones
erróneas sobre los
parámetros de modelo
13
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.3) INCLUSIÓN DE VARIABLES SUPERFLUAS
- Planteamiento del Problema
- Estimación del Modelo
· Estimación
· Propiedades
¿Insesgadez?
¿Consistencia?
¿Eficiencia? (Varianza de la Estimación)
- Consecuencias
14
TEMA 1. INTRODUCCIÓN: GENERALIZACIÓN Y
EXTENSIÓN DEL MODELO DE REGRESIÓN
2.3) INCLUSIÓN DE VARIABLES SUPERFLUAS
- Planteamiento del Problema
MODELO VERDADERO
ÁLGEBRA ORDINARIA
Yi = β 0 + β1 ⋅ X 1i + β 2 ⋅ X 2i + ... + β k ⋅ X ki + U i
ÁLGEBRA MATRICIAL
Y( nx1) = X ( nx ( k +1)) ⋅ β (( k +1) x1) + U ( nx1)
∀i = 1,2,..., n
E (U t ) = 0; ∀i
E (U i2 ) = σ u2 ; ∀i
E (U i ,U s ) = 0; ∀i ≠ s
d
Ui → N (0, σ u2 )
E (U ) =ϑ ( nX 1)
E (U ⋅ U ' ) = σ u2 ⋅ I
d
U → N (ϑ , σ u2 ⋅ I )
15
TEMA 2. INTRODUCCIÓN: GENERALIZACIÓN Y
EXTENSIÓN DEL MODELO DE REGRESIÓN
2.3) INCLUSIÓN DE VARIABLES SUPERFLUAS
- Planteamiento del Problema
SUPUESTO. Cometemos un ERROR DE ESPECIFICACIÓN:
Se especifica un MODELO ERRÓNEO en donde
incorporamos variables que no son relevantes para explicar Y.
AGRUPACIÓN DE LAS VARIABLES EXPLICATIVAS
GRUPO A: Variables que sabemos que son relevantes y por eso LAS
INCLUIMOS EN NUESTRO MODELO. Suponemos que serán un total de K
variables.
GRUPO B: Variables que creemos que son relevantes para explicar la variable
endógena (Y) y por eso las INCLUIMOS EN NUESTRO MODELO pero, en
realidad, son irrelevantes. Suponemos que son s variables.
16
TEMA 2. INTRODUCCIÓN: GENERALIZACIÓN Y
EXTENSIÓN DEL MODELO DE REGRESIÓN
2.3) INCLUSIÓN DE VARIABLES SUPERFLUAS
- Planteamiento del Problema: Un ejemplo
MODELO
VERDADERO
∀i = 1,2,..., n
Yi = β 0 + β1 ⋅ X 1i + β 2 ⋅ X 2i + U i
Las Variables X 1 y X 2 son relevantes para explicar
¿QUÉ SUCEDE?
NUESTRO MODELO
DE TRABAJO
Incluimos X 1, X 2 y
X 3 ( X 3 no es relevante)
Yi = β 0 + β1 ⋅ X 1i + β 2 ⋅ X 2i + β 3 · X 3i + Vi
VARIABLES EXPLICATIVAS GRUPO A
X1 X 2
Y
∀i = 1,2,..., n
VARIABLES EXPLICATIVAS GRUPO B
17
X3
TEMA 2. INTRODUCCIÓN: GENERALIZACIÓN Y
EXTENSIÓN DEL MODELO DE REGRESIÓN
2.3) INCLUSIÓN DE VARIABLES SUPERFLUAS
- Planteamiento del Problema:
MODELO
VERDADERO
X
Y = X ⋅ β + U = X A ·β A + U
Matriz que recoge los
valores de las variables
realmente relevantes
para explicar Y.
X = XA
β
Vector que recoge los
parámetros de las variables
realmente relevantes.
β = βA
[nx( K + 1)]
U
Vector que recoge las
perturbaciones deL
modelo verdadero.
[nx1]
[( K + 1) x1]
18
TEMA 2. INTRODUCCIÓN: GENERALIZACIÓN Y
EXTENSIÓN DEL MODELO DE REGRESIÓN
2.3) INCLUSIÓN DE VARIABLES SUPERFLUAS
- Planteamiento del Problema:
MODELO DE
TRABAJO
X*
Matriz que recoge
los valores de todas
las variables
incluidas en el
modelo.
X = (X A
*
XA
XB
X B ) [nx( K + s + 1)]
[nx( K + 1)]
[nxs ]
Y = X * ⋅ β * +V
β*
Vector que recoge los
parámetros de las
variables incluidas en
el modelo.
β 
A


*
β =  :::::
β 
 B
βA
βB
Vector que recoge las
perturbaciones de
nuestro modelo.
[nx1]
V
[( K + s + 1) x1]
[( K + 1) x1]
[sx1]
19
TEMA 2. INTRODUCCIÓN: GENERALIZACIÓN Y
EXTENSIÓN DEL MODELO DE REGRESIÓN
2.3) INCLUSIÓN DE VARIABLES SUPERFLUAS
- Planteamiento del Problema: Resumen
MODELO
VERDADERO
Y = X ⋅ β + U = X A ·β A + U
MODELO DE
TRABAJO
Y = X * ⋅ β * + V = X A ·β A + X B ·β B + V
20
TEMA 2. INTRODUCCIÓN: GENERALIZACIÓN Y
EXTENSIÓN DEL MODELO DE REGRESIÓN
2.3) INCLUSIÓN DE VARIABLES SUPERFLUAS
- Planteamiento del Problema:
EJEMPLO:
MODELO
VERDADERO
MODELO DE
TRABAJO
1 X 11

1 X 12
.
Y = X ·β + U = X A ·β A + U = 
.
.

1 X
1n

Y = X * ·β * + V = [ X A
X 12 
 U1 



X 22 
U
 2
β



 0 

· β1  + 

  
β

 2 






X 2n 
U N 
1 X 11

1 X 12
β
 A
.


X B ]· ::::  + V = 
.
 β B 
.

1 X
1n

X 21 X 31 
V 
   1
X 22 X 32    V2 
  β0   
· β1  +  
 β   
 2  
  β 3   
V 
21
X 2 n X 3n 
 n
TEMA 2. INTRODUCCIÓN: GENERALIZACIÓN Y
EXTENSIÓN DEL MODELO DE REGRESIÓN
2.3) INCLUSIÓN DE VARIABLES SUPERFLUAS
- Estimación: (Ver demostraciones)
MODELO DE
TRABAJO
ESTIMACIÓN MCO
ESTIMADOR
INSESGADO
Y = X * ·β * + V = X A ⋅ β A + X B ·β B + V
(
βˆ * = X *' ⋅ X *
)
−1
⋅ X *' ⋅ Y = P ⋅ β A + ( X *' ⋅ X * ) −1 ⋅ X *' ⋅ U
 βA 
 
*
E ( βˆ ) =  :::: 
ϑ 
 
ESTIMADOR CONSISTENTE
VARIANZA DE LOS ESTIMADORES
22
TEMA 2. INTRODUCCIÓN: GENERALIZACIÓN Y
EXTENSIÓN DEL MODELO DE REGRESIÓN
2.3) INCLUSIÓN DE VARIABLES SUPERFLUAS
- Consecuencias:
1-. Las Estimaciones de
β̂ *
son INSESGADAS.
2-. Las Estimaciones de
β̂ *
son CONSISTENTES.
( )
3-. E σˆU2 = σ 2
Se puede hacer inferencia estadística
23
TEMA 2. INTRODUCCIÓN: GENERALIZACIÓN Y
EXTENSIÓN DEL MODELO DE REGRESIÓN
24
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.4) ERROR EN LA ESPECIFICACIÓN DE LA FORMA
FUNCIONAL
- Planteamiento del Problema
- Tipos de Modelos según la Relación Funcional
· Modelos Lineales
· Modelos No-lineales pero Fácilmente
Linealizables.
· Modelos Intrínsecamente No-lineales
- ¿Cómo se puede detectar la No-linealidad?
25
TEMA 2. INTRODUCCIÓN: GENERALIZACIÓN Y
EXTENSIÓN DEL MODELO DE REGRESIÓN
2.4) ERROR EN LA ESPECIFICACIÓN DE LA FORMA FUNCIONAL
- Planteamiento del Problema:
SUPUESTO DE LINEALIDAD
Y = X ·β + U
La Forma Funcional de nuestro modelo es
LINEAL tanto en Parámetros como en
Variables
Y = F(X ) +U
La Especificación INCORRECTA de la Forma Funcional Genera
Estimadores Sesgados e Inconsistentes.
26
TEMA 2. INTRODUCCIÓN: GENERALIZACIÓN Y
EXTENSIÓN DEL MODELO DE REGRESIÓN
2.4) ERROR EN LA ESPECIFICACIÓN DE LA FORMA FUNCIONAL
- Tipos de Modelos Según la Forma Funcional:
1) MODELOS LINEALES
F(X )
Presenta una Estructura Lineal tanto en Variables como en Parámetros
Y = X ·β + U
Yi = β 0 + β1 ⋅ X 1i + β 2 ⋅ X 2i + ... + β k ⋅ X ki + U i
27
TEMA 2. INTRODUCCIÓN: GENERALIZACIÓN Y
EXTENSIÓN DEL MODELO DE REGRESIÓN
2.4) ERROR EN LA ESPECIFICACIÓN DE LA FORMA FUNCIONAL
- Tipos de Modelos Según la Forma Funcional:
2) MODELOS NO-LINEALES PERO LINEALIZABLES
NO-LINEAL EN LAS VARIABLES EXPLICATIVAS
Yi = β 0 + β 1 ·e X 1i + β 2 · X 22i + u i
Z1 = e
X 1i
Z2 = X
2
2i
Yi = β 0 + β1 ·Z1 + β 2 ·Z 2 + ui
NO-LINEAL EN PARÁMETROS
Qi = A· X iβ1 ·Lβi 2 ·e ui
ln(Qi ) = ln( A) + β 1 ·ln( X i ) + β 2 ·ln( Li ) + u i
28
TEMA 2. INTRODUCCIÓN: GENERALIZACIÓN Y
EXTENSIÓN DEL MODELO DE REGRESIÓN
2.4) ERROR EN LA ESPECIFICACIÓN DE LA FORMA FUNCIONAL
- Tipos de Modelos Según la Forma Funcional:
3) MODELOS INTRÍNSECAMENTE NO-LINEALES
[
Qi = α · δ ·L−i p + (1 − δ )·K
n
−p p
i
]
29
TEMA 2. INTRODUCCIÓN: GENERALIZACIÓN Y
EXTENSIÓN DEL MODELO DE REGRESIÓN
2.4) ERROR EN LA ESPECIFICACIÓN DE LA FORMA FUNCIONAL
Modelos No-Lineales pero Fácilmente Linealizables
· Modelo Doble-Log (Modelo Exponencial)
Yi = β 0 · X 1βi 1 · X 2βi2 ·...· X Kiβ K ·e ui
Los Parámetros β j miden la
ELASTICIDAD de X j respecto a Y
ε Y ,X
j
∂Y X j
=
·
= βj
∂X j Y
ln(Yi ) = ln(β 0 ) + β1 ·ln( X 1i ) + β 2 ·ln( X 2i ) + ... + β K ·ln( X Ki ) + u i
MCO
30
TEMA 2. INTRODUCCIÓN: GENERALIZACIÓN Y
EXTENSIÓN DEL MODELO DE REGRESIÓN
2.4) ERROR EN LA ESPECIFICACIÓN DE LA FORMA FUNCIONAL
Modelos No-Lineales pero Fácilmente Linealizables
· Modelo Semi-Log
Yi = e β 0 + β1 · X 1i + β 2 · X 2 i +...+ β K · X Ki ·eui
Los Parámetros β j miden el cambio
relativo de la variable Y motivado por
una unidad de cambio en X j .
∂Y 1
· = βj
∂X j Y
ln(Yi ) = β 0 + β1 · X 1i + β 2 · X 2i + ... + β K · X Ki + ui
MCO
31
TEMA 2. INTRODUCCIÓN: GENERALIZACIÓN Y
EXTENSIÓN DEL MODELO DE REGRESIÓN
2.4) ERROR EN LA ESPECIFICACIÓN DE LA FORMA FUNCIONAL
Modelos No-Lineales pero Fácilmente Linealizables
· Modelo Semi-Log
Yi = β 0 + β1 ·ln( X 1i ) + β 2 ·ln( X 2i ) + ... + β K ·ln( X Ki ) + ui
Los Parámetros β j miden el cambio
absoluto de la variable Y motivado
por cambios relativos en X j .
∂Y
·X j = β j
∂X j
32
TEMA 2. INTRODUCCIÓN: GENERALIZACIÓN Y
EXTENSIÓN DEL MODELO DE REGRESIÓN
2.4) ERROR EN LA ESPECIFICACIÓN DE LA FORMA FUNCIONAL
Modelos No-Lineales pero Fácilmente Linealizables
· Modelo Recíproco
1
Yi = β 0 + β1 ·
+ ui
X 1i
Z1 =
1
X1
Yi = β 0 + β1 ·Z1 + ui
33
TEMA 2. INTRODUCCIÓN: GENERALIZACIÓN Y
EXTENSIÓN DEL MODELO DE REGRESIÓN
2.4) ERROR EN LA ESPECIFICACIÓN DE LA FORMA FUNCIONAL
- ¿Cómo se puede Detectar la No-linealidad?:
Representación Gráfica de la Posible Forma Funcional: X vs. Y
Y
Y
1
50
100
45
90
40
80
35
70
30
60
Y
25
50
20
40
15
30
10
20
5
10
0
1
2
3
4
5
X
X
6
7
8
9
10
0
-5
-4
-3
-2
-1
0
1
2
3
4
5
X
34
TEMA 2. INTRODUCCIÓN: GENERALIZACIÓN Y
EXTENSIÓN DEL MODELO DE REGRESIÓN
2.4) ERROR EN LA ESPECIFICACIÓN DE LA FORMA FUNCIONAL
- ¿Cómo se puede Detectar la No-linealidad?:
Representación Gráfica de los Residuos MCO respecto a la VariableY
2
4
60
3
50
2
1
Y
40
0
Y
-1
30
-2
20
-3
-4
10
-5
-6
20
30
40
50
60
e
70
80
90
0
20
30
40
50
60
70
80
90
e
35
TEMA 2. INTRODUCCIÓN: GENERALIZACIÓN Y
EXTENSIÓN DEL MODELO DE REGRESIÓN
2.4) ERROR EN LA ESPECIFICACIÓN DE LA FORMA FUNCIONAL
- ¿Cómo se puede Detectar la No-linealidad?:
Representación Gráfica de la VariableY respecto a Yˆ
3
100
100
Yˆ
Yˆ
90
90
80
80
70
70
60
60
50
50
40
40
30
30
20
20
10
10
20
30
40
50
60
Y
70
80
90
100
10
10
20
30
40
50
60
70
80
90
Y
36
100
TEMA 2. INTRODUCCIÓN: GENERALIZACIÓN Y
EXTENSIÓN DEL MODELO DE REGRESIÓN
2.4) ERROR EN LA ESPECIFICACIÓN DE LA FORMA FUNCIONAL
- ¿Cómo se puede Detectar la No-linealidad?:
4
Signos de los Coeficientes Estimados Incorrectos
5
Valor muy bajo del R-CUADRADO
6
Regresión por Tramos
7
Contraste RESET de Ramsey
37
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.5) MULTICOLINEALIDAD
2.5.1) Introducción
2.5.2) Causas de la Presencia de Multicolinealidad
2.5.3) Relación entre Variables Explicativas.
· Multicolinealidad Perfecta
· Ortogonalidad
· Multicolinealidad Imperfecta
2.5.4) Consecuencias
2.5.5) Detección
2.5.6) Solución
38
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.5) MULTICOLINEALIDAD
2.5.1) Introducción
¿QUÉ ES LA
MULTICOLINEALIDAD?
Un
modelo
presenta
problemas
de
MULTICOLINEALIDAD si alguna variable
explicativa se puede representar como una
combinación exacta o aproximada de las otras
variables explicativas.
1-. PERFECTA
TIPOS DE
MULTICOLINEALIDAD
2-. APROXIMADA
39
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.5) MULTICOLINEALIDAD
2.5.1) Introducción
1-. MULTICOLINEALIDAD PERFECTA
Rango( X ) < K + 1
Una Columna de la matriz X se puede expresar como una combinación
lineal de alguna o algunas de las demás.
x ji = α 0 + α1 · x1i + ... + α ( j −1) · x( j −1)i + α ( j +1) · x( j +1) i + ... + α k · xki
Ejemplo:
1 x11

1 x12
. .
X =
. .
. .

1 x
1n

x21  1 20 17 
 

x21  1 20 15 
.  . .
. 
=

.  . .
. 
.   . .
. 
x2 n  1 20 31
INCUMPLIMIENTO
HIPÓTESIS MRLC
x 2i = 20·x0i
40
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.5) MULTICOLINEALIDAD
2.5.1) Introducción
2-. MULTICOLINEALIDAD APROXIMADA
Rango( X ) = K + 1
Una Columna de la matriz X se puede expresar aproximadamente como
una combinación lineal de alguna o algunas de las demás.
x ji ≈ α 0 + α1 · x1i + ... + α ( j −1) · x( j −1)i + α ( j +1) · x( j +1) i + ... + α k · xki
Ejemplo:
1 x11

1 x12
. .
X =
. .
. .

1 x
1n

x21  1 19.5 17 
 

x21  1 20.5 15 
.  .
.
. 
=

.  .
.
. 

.   .
.
. 
x2 n  1 20 31
· CUMPLE HIPÓTESIS
MRLC
x2i ≈ 20·x0i
· EMCO SON MELI
41
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.5) MULTICOLINEALIDAD
2.5.1) Introducción
ESQUEMA DE ACTUACIÓN
1
Detectar la existencia
de Multicolinealidad
No Multicol.
MRLC
Perfecta
MCO
NO MCO
Sí Multicol.
Aproximada
2
Analizar las CAUSAS que provocan el problema
3
CONSECUENCIAS de la Multicolinealidad
4
Buscar SOLUCIONES al problema
MCO
42
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.5) MULTICOLINEALIDAD
2.5.2) Causas de la Existencia de Multicolinealidad
1
Existe una RELACIÓN CAUSAL entre 2 o más variables explicativas
2
Existe una TENDENCIA CRECIENTE entre las variables explicativas
3
Se crean nuevas variables por medio de una TRANSFORMACIÓN
INCORRECTA de variables
4
Incorrecta utilización de variables ficticias
5
Existe una variable explicativa con ESCASA VARIABILIDAD
6
Existe una RELACIÓN CASUAL entre las variables explicativas
43
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.5) MULTICOLINEALIDAD
2.5.3) Tipos de Relaciones entre Variables Explicativas
TIPOS DE RELACIONES ENTRE VARIABLES EXPLICATIVAS
1-. MULTICOLINEALIDAD PERFECTA
2-. ORTOGONALIDAD
3-. MULTICOLINEALIDAD APROXIMADA
Explicación: (Ver notas de clase)
44
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.5) MULTICOLINEALIDAD
2.5.3) Tipos de Relaciones entre Variables Explicativas
TIPOS DE RELACIONES ENTRE VARIABLES EXPLICATIVAS
1-. MULTICOLINEALIDAD PERFECTA
MODELO
Matriz de
Regresores
PROBLEMA
Yi = β 0 + β1 ⋅ X 1i + β 2 ⋅ X 2i + ... + β k ⋅ X ki + U i
1 X 11

1 X 12
.
.
X =
.
.
.
.

1 X
1n

... X k 1 

... X k 2 
... . 

... . 
... . 
... X kn 
∀i = 1,2,..., n
ui → N (0, σ u2 )
MULTICOLINEALIDAD PERFECTA:
Una de las variables de la matriz X se
puede expresar como una Combinación
Lineal del resto de variables.
Rang ( X ) < K + 1 ⇒ Rang ( X ) = Rang ( X '·X ) < K + 1 ⇒det( X '·X ) = 0 ⇒
−1
⇒ No Existe ( X '· X ) −1 ⇒ βˆMCO = ( X '·X ) · X '·Y INDETERMIN ADOS
45
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.5) MULTICOLINEALIDAD
2.5.3) Tipos de Relaciones entre Variables Explicativas
TIPOS DE RELACIONES ENTRE VARIABLES EXPLICATIVAS
1-. MULTICOLINEALIDAD PERFECTA: Un Ejemplo
Yi = β 0 + β1 ⋅ X 1i + β 2 ⋅ X 2i + U i
∀i = 1,2,..., n
ui → N (0, σ u2 )
Suponemos que existe MULTICOLINEALIDAD PERFECTA:
1 X 11

1 X 12
.
.

X=
.
.
.
.

1 X
1n

X 12 

X 22 
. 

. 
. 
X 2 n 
 1

X ' =  X 11
X
 21
X 2i = α · X 1i
1 . . . 1 

X 12 . . . X 1n 
X 22 . . . X 2 n 
46
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.5) MULTICOLINEALIDAD
2.5.3) Tipos de Relaciones entre Variables Explicativas
TIPOS DE RELACIONES ENTRE VARIABLES EXPLICATIVAS
1-. MULTICOLINEALIDAD PERFECTA: Un Ejemplo
 1

X '·X =  X 11
X
 21
1 . . . 1 

X 12 . . . X 1n 
X 22 . . . X 2 n 
1 X 11

1 X 12
.
.

.
.
.
.

1 X
1n

n
n


n
X 1i
α ·∑ X 1i 

∑
i =1
i =1


n
n
n


= X 2i = α · X 1i =  ∑ X 1i
α ·∑ X 12i 
X 12i
∑
i =1
i =1
 i =1n

n
n
2
2
2
α · X α · X α · X 
∑
∑
1i
1i 
 ∑ 1i
i =1
i =1
 i =1

X 21 

X 22 
. 
=
. 
. 
X 2 n 

 n

 n
 ∑ X 1i
 in=1
 X
 ∑ 2i
 i =1
n
∑X
1i
i =1
n
∑X
2
1i
i =1
n
∑X
2i


i =1

n

X
·
X
∑
2i
1i  =
i =1

n
2
X 2i 
∑
i =1

n
· X 1i
i =1
∑X
2i
EL DETERMINANTE DE
ESTA MATRIZ ES IGUAL A
CERO
det( X '·X ) = 0
47
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.5) MULTICOLINEALIDAD
2.5.3) Tipos de Relaciones entre Variables Explicativas
TIPOS DE RELACIONES ENTRE VARIABLES EXPLICATIVAS
1-. MULTICOLINEALIDAD PERFECTA: Un Ejemplo
Del Sistema de Ecuaciones visto en el Tema 1 (transp. 35) para lograr los
EMCO obtenemos
( X '⋅ X ) · βˆ


n
X 1i
α ·∑ X 1i 

∑
i =1
i =1


n
n
 n
2
2 
X
X
·
X
α
∑
∑
1i
1i 
 ∑ 1i
i =1
i =1
i =1

 n
n
n
α · X α · X 2 α 2 · X 2 
∑
∑
1i
1i 
 ∑ 1i
i =1
i =1
 i =1

n
= X '·Y


 ∑ Yi 
 i =1

n


X
·
Y
 ∑ 1i i 
 in=1

 X ·Y 
 ∑ 2i i 
 i =1

n
n
 βˆ0 
 
 βˆ1  =
 βˆ 
 2
= X 2i = α · X 1i
n


 ∑ Yi 
 i =1

n


=  ∑ X 1i ·Yi 
 i =1n

 α · X ·Y 
 ∑ 1i i 

 i =1
48
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.5) MULTICOLINEALIDAD
2.5.3) Tipos de Relaciones entre Variables Explicativas
TIPOS DE RELACIONES ENTRE VARIABLES EXPLICATIVAS
1-. MULTICOLINEALIDAD PERFECTA: Un Ejemplo
Multiplicando obtenemos el siguiente sistema de ecuaciones:
n
1
2
n
n·βˆ0 + βˆ1 ·∑ X 1i + α ·βˆ2 ·∑ X 1i = ∑ Yi
i =1
n
i =1
n
n
i =1
n
βˆ0 ·∑ X 1i + βˆ1 ·∑ X + α ·βˆ2 ·∑ X = ∑ X 1i ·Yi
2
1i
i =1
2
1i
i =1
n
3
n
i =1
n
i =1
n
n
α ·βˆ0 ·∑ X 1i + α ·βˆ1 ·∑ X + α ·βˆ2 ·∑ X = α ·∑ X 1i ·Yi
2
1i
i =1
i =1
2
2
1i
i =1
ESTAS 2
ECUACIONES
SON IGUALES
i =1
Tenemos un Sistema de 2 Ecuaciones con 3 Incógnitas. No podemos
obtener los βˆ MCO
49
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.5) MULTICOLINEALIDAD
2.5.3) Tipos de Relaciones entre Variables Explicativas
TIPOS DE RELACIONES ENTRE VARIABLES EXPLICATIVAS
1-. MULTICOLINEALIDAD PERFECTA: Un Ejemplo
No es posibles estimar los
de X 1 y X 2 sobre Y
β̂ MCO
pero sí en cambio el EFECTO CONJUNTO
E (Yi X 1 , X 2 ) = E ( β 0 + β1 ⋅ X 1i + β 2 ⋅ X 2i + U i ) = X 2i = α · X 1i =
= E ( β 0 + β1 ⋅ X 1i + β 2 ⋅ (α · X 1i ) + U i ) =
= E ( β 0 + ( β1 + α ·β 2 )· X 1i + U i ) = β 0 + ( β1 + α ·β 2 )· X 1i + E (U i ) =
= β 0 + ( β1 + α ·β 2 )· X 1i
50
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.5) MULTICOLINEALIDAD
2.5.3) Tipos de Relaciones entre Variables Explicativas
TIPOS DE RELACIONES ENTRE VARIABLES EXPLICATIVAS
2-. ORTOGONALIDAD
DEFINICIÓN
Dos variables son ORTOGONALES si
están INCORRELADAS (coeficiente de
correlación lineal igual a cero).
n
X · X 2 = ∑ X 1i · X 2i = 0
'
1
X 1 y X 2 Incorreladas
i =1
Dos grupos de regresores A y B son
ORTOGONALES si
Cada regresor del
grupo A está
X A' · X B = 0
incorrelado con cada
regresor del gruo B 51
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.5) MULTICOLINEALIDAD
2.5.3) Tipos de Relaciones entre Variables Explicativas
TIPOS DE RELACIONES ENTRE VARIABLES EXPLICATIVAS
2-. ORTOGONALIDAD: Un Ejemplo
∀i = 1,2,..., n
Yi* = β1* ⋅ X 1*i + β 2* ⋅ X 2*i + U i
En donde
Yi * = Yi − Y
X 1*i = X 1i − X 1
*
2i
X = X 2i − X 2
ui → N (0, σ u2 )
Modelo en Desviaciones
Vamos a suponer que
X 1* y X 2* son ORTOGONALES
n
X · X = ∑ X 1*i · X 2*i = 0
*'
1
*
2
i =1
52
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.5) MULTICOLINEALIDAD
2.5.3) Tipos de Relaciones entre Variables Explicativas
TIPOS DE RELACIONES ENTRE VARIABLES EXPLICATIVAS
2-. ORTOGONALIDAD: Un Ejemplo
*
βˆMCO
= ( X *' · X * ) −1 · X *' ·Y *
 X 11*
 *
 X 12
 .
X* =
 .

 .
X*
 1n
*

X 21

*
X 22 
. 
. 

. 
X 2*n 
*

X
X *' =  11
*
 X 21
X 12*
*
X 22
X 1*n 

* 
. . . X 2n 
. . .
53
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.5) MULTICOLINEALIDAD
2.5.3) Tipos de Relaciones entre Variables Explicativas
TIPOS DE RELACIONES ENTRE VARIABLES EXPLICATIVAS
2-. ORTOGONALIDAD: Un Ejemplo
X
X ·X = 
X
*'
(X
*'
·X *
*
*
11
*
21
X
X
 1
 n
 ∑ X *2
1i
−1  i =1
=
 0



)
*
12
*
22
X 

. . . X 
. . .




1 

n
X 2*i2 
∑
i =i

0
*
1n
*
2n
 X 11*
 *
 X 12
 .
·
 .

 .
X*
 1n
*

X 21

*
X 22   n
*2
X


1i
. 
i =1

=
.  
0

.  
X 2*n 
∑



n
*2 
X
∑
2i 
i =i

0
54
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.5) MULTICOLINEALIDAD
2.5.3) Tipos de Relaciones entre Variables Explicativas
TIPOS DE RELACIONES ENTRE VARIABLES EXPLICATIVAS
2-. ORTOGONALIDAD: Un Ejemplo
*

X
X *' ·Y *=  11*
 X 21
X 12* . . .
*
X 22
. . .
 Y1* 
 *
n

Y
*
*


2
X 1*n   .   X 1i ·Yi 
 i =1


=


X 2*n  · .   n * * 
 X 2i ·Yi 
 
 i =1

 . 
Y * 
 n
∑
∑
55
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.5) MULTICOLINEALIDAD
2.5.3) Tipos de Relaciones entre Variables Explicativas
TIPOS DE RELACIONES ENTRE VARIABLES EXPLICATIVAS
2-. ORTOGONALIDAD: Un Ejemplo
βˆ
*
MCO
 βˆ1* 
=  *  = ( X *' · X * ) −1 · X *' ·Y * =
 βˆ2 
 n * *
 ∑ X 1i ·Yi 
 i =1
  Cov( X 1 , Y ) 
n



*2 
 ∑ X 1i   Var ( X 1 ) 

 =
=  ni =1
 X * ·Y *   Cov( X , Y ) 
2
2i i


∑

 Var ( X ) 
i =1
2

 n
 
 ∑ X 2*i2 


 i =1

 1
 n
 ∑ X *2
 i =1 1i

 0







1 

n
*2 
X 2i 
∑
i =i

0
 n * *
 ∑ X 1i ·Yi 
=
· in=1

*
*
 ∑ X 2i ·Yi 
 i =1

56
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.5) MULTICOLINEALIDAD
2.5.3) Tipos de Relaciones entre Variables Explicativas
2-. ORTOGONALIDAD: Un Ejemplo
Los estimadores MCO son los mismos al Estimar un Modelo de Regresión Lineal
Múltiple
Yi* = β1* ⋅ X 1*i + β 2* ⋅ X 2*i + U i
que dos Modelos de Regresión Simples
Yi * = δ1 ⋅ X 1*i + Vi
βˆ1* = δˆ1
βˆ2* = δˆ2
Yi * = δ 2 ⋅ X 2*i + Wi
Si los regresores
X 1* y X 2* son ortogonales
n
X · X = ∑ X 1*i · X 2*i = 0
*'
1
*
2
i =1
57
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.5) MULTICOLINEALIDAD
2.5.3) Tipos de Relaciones entre Variables Explicativas
2-. ORTOGONALIDAD: Un Ejemplo
(
*
Los estimadores MCO son los mismos βˆ1* = δ1 y βˆ2 = δ 2
) si
X 1* y X 2*
son ORTOGONALES. Pero habrá diferencias en la ESTIMACIÓN DE LAS
VARIANZAS.
· VARIANZA DEL MODELO DE REGRESIÓN LINEAL MÚLTIPLE
*
2
u
(
*'
Vˆ ( βˆ ) = σˆ · X · X
)
* −1
Vˆ ( βˆ *j ) =
σˆ u2
n
*
X
∑ ji
; σˆ u2 =
e'·e
n−2
i =1
58
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.5) MULTICOLINEALIDAD
2.5.3) Tipos de Relaciones entre Variables Explicativas
2-. ORTOGONALIDAD: Un Ejemplo
· VARIANZA DE LOS MODELOS DE REGRESIÓN LINEAL SIMPLE
2
v
(
*'
1
Vˆ (δˆ1 ) = σˆ · X · X
)
* −1
1
2
v
= σˆ ·
vˆ'·vˆ
; σˆ =
n −1
*2
1
2
v
n
∑X
1i
i =1
2
w
(
*'
2
Vˆ (δˆ2 ) = σˆ · X · X
)
* −1
2
2
w
= σˆ ·
1
2
σ
ˆ
; v =
n
∑X
*2
2i
wˆ '·wˆ
n −1
i =1
En este ejemplo, además, se verifica que
(Demostración)
e'·e < vˆ'·vˆ + wˆ '·wˆ
El ajuste es mayor en el
Modelo de Regresión
59
Múltiple
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.5) MULTICOLINEALIDAD
2.5.3) Tipos de Relaciones entre Variables Explicativas
TIPOS DE RELACIONES ENTRE VARIABLES EXPLICATIVAS
3-. MULTICOLINEALIDAD APROXIMADA
Una o más de las variables explicativas pueden expresarse
aproximadamente como una combinación lineal de las restante
x ji ≈ α 0 + α1 · x1i + ... + α ( j −1) · x( j −1)i + α ( j +1) · x( j +1) i + ... + α k · xki
No existe una relación lineal exacta entre uno o más regresores pero sí
están fuertemente correlacionados.
Rang ( X ) = K + 1 ⇒ Rang ( X ) = Rang ( X '·X ) = K + 1 ⇒ det( X '·X ) ≠ 0
−1
⇒ Existe ( X '·X ) −1 ⇒ βˆMCO = ( X '·X ) · X '·Y
PREGUNTA: ¿Cuál es el
Multicolinealidad Aproximada?
Problema
de
la
Existencia
de
la
60
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.5) MULTICOLINEALIDAD
2.5.3) Tipos de Relaciones entre Variables Explicativas
TIPOS DE RELACIONES ENTRE VARIABLES EXPLICATIVAS
3-. MULTICOLINEALIDAD APROXIMADA
PREGUNTA: ¿Cuál es el
Multicolinealidad Aproximada?
Problema
de
la
Existencia
de
la
−1
muy elevado ⇒
det( X '·X ) ≠ 0 pero… det( X '·X ) ≈ 0 ⇒ ( X '·X )
(
⇒ Vˆ ( βˆ ) = σˆ u2 · X ' · X
)
−1
elevada ⇒
LA MATRIZ DE VARIANZAS-COVARIANZAS
DE LOS EMCO SERÁN MUY ELEVADAS
LOS EMCO SON IMPRECISOS
61
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.5) MULTICOLINEALIDAD
2.5.3) Tipos de Relaciones entre Variables Explicativas
3-. MULTICOLINEALIDAD APROXIMADA
PREGUNTA: ¿Qué CONSECUENCIAS se derivan de la existencia de
una matriz de Varianzas-Covarianzas elevada?
- Los Intervalos de Confianza serán excesivamente amplios
IC(1−α ) =  βˆ j ± S βˆ j ⋅ t n − k −1,α 
2

S β̂ j Elevado ⇒ IC amplio
- Los Estimadores MCO serán Imprecisos
tj =
βˆ j
S βˆ j
; S β̂ j Elevado ⇒ t j Bajos ⇒
Tendencia aceptar
H0
62
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.5) MULTICOLINEALIDAD
2.5.3) Tipos de Relaciones entre Variables Explicativas
3-. MULTICOLINEALIDAD APROXIMADA
PREGUNTA: ¿Qué CONSECUENCIAS se derivan de la existencia de
una matriz de Varianzas-Covarianzas elevada?
- En consecuencia, será difícil analizar la relevancia de la variable explicativa
- Es muy probable que los
β̂ MCO
tengan SIGNOS INCORRECTOS.
A PESAR DE ESTOS INCONVENIENTES, LOS EMCO SIGUEN SIENDO
MELI. AHORA BIEN, NO ES LA MEJOR ESTIMACIÓN QUE PODEMOS
REALIZAR.
63
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.5) MULTICOLINEALIDAD
2.5.3) Tipos de Relaciones entre Variables Explicativas
3-. MULTICOLINEALIDAD APROXIMADA: Un ejemplo
Yi* = β1* ⋅ X 1*i + β 2* ⋅ X 2*i + U i
En donde
Modelo en Desviaciones
Yi* = Yi − Y
*
*
1i
X = X 1i − X 1
X 2*i = X 2i − X 2
*
Vamos a suponer que X 1 y X 2 están fuertemente
correlacionadas. Suponemos que el Coeficiente de
Correlación está próximo a 1
n
n
∑ ( X 1i − X 1 )(· X 2i − X 2 )
r12 =
*
*
X
X
·
∑ 1i 2i
i =1
n
∑ (X
i =1
n
) ∑ (X
2
=
1i − X 1 ·
i =1
2i − X 2
)
2
i =1
n
∑X
i =1
≈1
n
*2
1i
·
∑X
i =1
*2
2i
64
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.5) MULTICOLINEALIDAD
2.5.3) Tipos de Relaciones entre Variables Explicativas
3-. MULTICOLINEALIDAD APROXIMADA: Un ejemplo
X
X ·X = 
X
*'
*
*
11
*
21
X
X
*
12
*
22
X 

. . . X 
. . .
*
1n
*
2n
 X 11*
 *
 X 12
 .
·
 .

 .
X*
 1n
*

X 21

*
X 22   n
*2
X


1i
. 
 i =1
=
.   n
X 1*i · X 2*i
 
.   i =1
X 2*n 
∑
∑
*
* 
X
·
X
∑
1i
2i 
i =1

n

*2
X 2i 
∑
i =i

n
65
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.5) MULTICOLINEALIDAD
2.5.3) Tipos de Relaciones entre Variables Explicativas
3-. MULTICOLINEALIDAD APROXIMADA: Un ejemplo
(
*'
det X · X
*
)= X


= ∑ X 1*i2 ·∑ X 2*i2 −  ∑ X 1*i · X 2*i 
i =1
i =1
 i =1

n
*'
·X
*
n
n
2
Este determinante se puede expresar en función del COEFICIENTE DE
CORRELACIÓN r12
(
*'
det X · X
*
)= X
n
*'
n
· X = (1 − r )·∑ X ·∑ X 2*i2
*
2
12
*2
1i
i =1
*
*
X
Cuanta mayor Correlación entre 1 y X 2
(
)
det X *' · X * se aproxima más a 0
(Demostración)
i =1
r12
se aproxima más a 1
(
Vˆ ( βˆ ) = σˆ u2 · X ' · X
)
−1
elevada
66
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.5) MULTICOLINEALIDAD
2.5.3) Tipos de Relaciones entre Variables Explicativas
3-. MULTICOLINEALIDAD APROXIMADA: Un ejemplo
ANÁLISIS DE LA MATRIZ DE VARIANZAS-COVARIANZAS
(X
*'
·X *
)
−1
=
1
*'
*
·
adj
X
·
X
det( X *' · X * )
( (
))
t
n

 ∑ X 2*i2
1
· ni =1
=
*'
* 
det( X · X ) − X * · X *
 ∑ 1i 2i
 i =1

− ∑ X 1*i · X 2*i 
i =1

n

*2
X
∑
1i

i =1

n
67
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.5) MULTICOLINEALIDAD
2.5.3) Tipos de Relaciones entre Variables Explicativas
3-. MULTICOLINEALIDAD APROXIMADA: Un ejemplo
ANÁLISIS DE LA MATRIZ DE VARIANZAS-COVARIANZAS
(
V (βˆMCO ) = σ u2 · X *' · X *
)
−1
n
V (βˆ1 ) = σ u2 ·
σ ·∑ X 2*i2
2
u
n
1
*2
·
X
2i =
*'
* ∑
det( X · X ) i =1
i =1
n
(1 − r )·∑ X ·∑ X
2
12
*2
1i
i =1
n
=
∑X
i =1
n
*2
1i
= ∑ ( X 1i − X 1 ) = n·Var ( X 1 )
i =1
2
=
=
n
*2
2i
i =1
σ u2
(1 − r )·n·Var ( X )
2
12
1
68
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.5) MULTICOLINEALIDAD
2.5.3) Tipos de Relaciones entre Variables Explicativas
3-. MULTICOLINEALIDAD APROXIMADA: Un ejemplo
ANÁLISIS DE LA MATRIZ DE VARIANZAS-COVARIANZAS
(
V (βˆMCO ) = σ u2 · X *' · X *
V (β̂1 ) =
V (β̂ 2 ) =
)
−1
σ u2
(1 − r )·n·Var ( X )
2
12
1
2
12
2
· σu
· Poca Variabilidad de
σ u2
(1 − r )·n·Var ( X
El Valor de la Varianza de los Estimadores MCO
depende de:
2
)
Xj
Var ( X j )
· Tamaño Muestral (n)
· Fuerte Correlación r12
69
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.5) MULTICOLINEALIDAD
2.5.3) Tipos de Relaciones entre Variables Explicativas
3-. MULTICOLINEALIDAD APROXIMADA: Un ejemplo
¿Cómo Cuantificar el Efecto de la Multicolinealidad?
V (β̂ j ) =
σ u2
(1 − r )·n·Var ( X
2
12
j
)
1
FIV =
1 − r122
(
Ejemplo: Si
r12 = 0.7
FIV = 1.96
)
FACTOR DE
INFLACIÓN DE LA
VARIANZA
La Varianza de β̂1 o β̂ 2 será 1.96 más
elevada que en el caso de que X 1 y X 2
sean ORTOGONALES
70
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.5) MULTICOLINEALIDAD
2.5.3) Tipos de Relaciones entre Variables Explicativas
3-. MULTICOLINEALIDAD APROXIMADA: Un ejemplo
En general, se define FIV como
1
FIV =
1 − RX2 j
(
donde
R X2 j
)
es el COEFICIENTE DE CORRELACIÓN MÚLTIPLE. Es el
R2
en la regresión
X ji = α 0 + α1 · X 1i + ... + α ( j −1) · X ( j −1) i + α ( j +1) · X ( j +1) i + ... + α k · X ki + Vi
∀i = 1,2,..., n
71
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.5) MULTICOLINEALIDAD
2.5.4) Consecuencias de la Existencia de Multicolinealidad
1
β̂ MCO
Los
serán elevados. Habrá problemas para interpretar los
efectos directos de las variables explicativas
2
Afectará a la precisión de los β̂ MCO ya que su varianza será mayor.
3
Existe una tendencia a aceptar la no significatividad estadística de los
parámetros del modelo.
H 0 : β j = 0

H1 : β j ≠ 0
4
5
t=
βˆi
S βˆi
=
βˆi
Vˆ ( βˆi )
La Multicolinealidad no afecta al valor del
la capacidad predictiva del modelo.
Sesgo a Aceptar
R2
H0
ni del estadístico F, ni a
β̂ MCO
Los
tendrán muchas veces los signos incorrectos y serán
72
muy sensibles al tamaño muestral.
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.5) MULTICOLINEALIDAD
2.5.4) Consecuencias de la Existencia de Multicolinealidad
ATENCIÓN!!!
Puede suceder que:
SE RECHACE LA SIGNIFICACIÓN INDIVIDUAL DE TODOS LOS PARÁMETROS
ACEPTAR
H0 : β j = 0
∀j
PERO QUE SE RECHACE LA NO SIGNIFICACIÓN CONJUNTA
RECHAZAR
H 0 : β1 = β 2 = ... = β K = 0
73
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.5) MULTICOLINEALIDAD
2.5.5) Detección y Cuantificación de la Multicolinealidad
1
Tras una Estimación MCO obtenemos:
- Elevada Bondad de Ajuste (R2 elevado)
- Estimadores Imprecisos (no significatividad estadística)
ACEPTAR
H0 : β j = 0
para muchos j
- Incoherencia en los Contrastes de Hipótesis
ACEPTAR
RECHAZAR
H0 : β j = 0
INDICAN LA
POSIBLE
PRESENCIA
DE MULTICOL.
∀j
H 0 : β1 = β 2 = ... = β K = 0
74
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.5) MULTICOLINEALIDAD
2.5.5) Detección y Cuantificación de la Multicolinealidad
2
3
La lógica puede ayudarnos a conocer si existe o no una elevada
relación lineal entre alguna de las variables explicativas del
modelo.
El Coeficiente de Correlación Lineal Simple puede ser un buen
indicador de la existencia de multicolinealidad.
n
− 1 < rk , j < 1
∑ (X
rk , j =
ki
− X k )·(X ji − X j )
i =1
n
∑ (X
− Xk ) ·
2
ki
i=
Si
4
n
∑ (X
i=
rk , j > 0.9
− X j)
rk , j = 0
No Correlación
2
ji
rk , j = 1 Correlación Perfecta
MULTICOLINEALIDAD
El FIV de al menos un regresor es mayor que 10.
75
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.5) MULTICOLINEALIDAD
2.5.5) Detección y Cuantificación de la Multicolinealidad
5
Si el determinante de la matriz de correlaciones está próximo a
cero
MULTICOLINEALIDAD
 r11

 r21
 .
R=
 .
 .

r
 k1
r12
r11
.
.
.
rk 2
. r1k 

. r2 k 
. . 

. . 
. . 
. . . rkk 
.
.
.
.
.
.
.
.
.
.
RX ∈ [0,1]
MATRIZ DE CORRELACIONES
ENTRE LAS K VARIABLES DEL
MODELO
RX = 1
ORTOGONALIDAD
RX = 0
MULTICOLINEALIDAD PERFECTA
76
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.5) MULTICOLINEALIDAD
2.5.6) Soluciones a la Multicolinealidad
1
Aumentar el Tamaño Muestral
2
Utilizar Información a priori (ver ejemplo)
3
Eliminar aquella o aquellas variables que presentan una elevada
correlación. Se optará por esta alternativa cuando:
- Nuestro conocimiento sobre la relevancia de esta variable no
sea favorable β j = 0 ⇒ X j fuera
(
)
- Los coeficientes estimados tengan signos incorrectos cuando
incluimos la variable y correctos cuando la excluimos.
- Bajo valor de la varianza estimada del error de predicción
cuando excluimos la variable.
¿QUÉ PROBLEMA NOS PODEMOS ENCONTRAR?
Omisión de
Variables
Relevantes
77
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.5) MULTICOLINEALIDAD
2.5.6) Soluciones a la Multicolinealidad
4
Transformar Variables (ejemplo: Tomar Primeras Diferencias)
5
Aplicar Métodos Alternativos de Estimación
Ejemplo: El Estimador de Ridge
βˆRIDGE = ( X '·X + C ·I )−1 · X '·Y
donde C es una constante arbitrariamente seleccionada
78
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.6) ERRORES DE MEDIDA
2.6.1) Planteamiento del Problema
2.6.2) Errores de Medida en la Variable Endógena
2.6.3) Errores de Medida en la Variable Exógena
79
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.6) ERRORES DE MEDIDA
2.6.1) Planteamiento del Problema
Valores de la
V. Endógena
POBLACIÓN
Y
Suponemos
que son
medidas sin
error
MUESTRA
Valores de las V.
Explicativas
PROBLEMAS:
- Errores en la recogida de datos
- Variable objeto de Estudio no Disponible
X
Y REAL ≠ Y OBSERVADO
X REAL ≠ X OBSERVADO
- Errores de Medida
80
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.6) ERRORES DE MEDIDA
2.6.1) Planteamiento del Problema
VARIABLE LATENTE
Y
X
VARIABLE PROXY
Y* = Y + ε
Verdadero Valor de la Variable: La variable
es medida correctamente. No existen
errores de medida pero los datos no están
disponibles.
Valor Observado de la Variable: Es una
variable muy correlacionada con la variable
latente, pero no coincide exactamente.
Conocemos el valor de la variable pero
existen errores de medida.
X* = X + ω
81
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.6) ERRORES DE MEDIDA
2.6.2) Errores de Medida en la Variable Endógena
MODELO ECONOMÉTRICO
PROBLEMA:
Desconocemos el
verdadero valor de Y
· SUPUESTOS SOBRE
1
E(ε ) = 0
2
Cov(X, ε ) = 0
3
Cov(ε , U ) = 0
Y = X·β + U
ε
d
U → N (ϑ , σ U2 )
Se aproxima por Y *
(Variable Proxy)
Y* =Y +ε
82
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.6) ERRORES DE MEDIDA
2.6.2) Errores de Medida en la Variable Endógena
MODELO A ESTIMAR
*
*
Y = X·β + V
d
U → N (ϑ , σ U2 )
*
*
*
*
Y* = X·β * + U ⇒ Y = Y + ε ⇒ Y = Y + ε = X ·β + U + ε = X ·β + V
en donde V = U + ε
error de medida.
recoge el efecto de la perturbación aleatoria y el
−1
*
βˆMCO
= ( X '·X ) · X '·Y *
(demostrar insesgadez)
83
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.6) ERRORES DE MEDIDA
2.6.2) Errores de Medida en la Variable Endógena
COMPARACIÓN DE VARIANZAS
- VARIANZA CON ERRORES DE MEDIDA
Y* = Y + ε
( )
−1
−1
2
V βˆ * = σ V2 ·( X '·X ) = σ (U +ε ) ·( X '·X )
(
)
= σ U2 + σ ε2 ·( X '·X )
−1
(Cov(ε ,U ) = 0)
- VARIANZA SIN ERRORES DE MEDIDA
( )
V βˆ * > V(βˆ )
Y* = Y
−1
V(βˆ ) = σ U2 ·( X '·X )
84
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.6) ERRORES DE MEDIDA
2.6.2) Errores de Medida en las Variables Exógenas
Para simplificar el análisis suponemos un Modelo de Regresión Lineal Simple
*
1i
Yi = β 0 + β1 ·X + U i
d
U → N (ϑ , σ U2 )
∀i = 1,...n
*
PROBLEMA: X 1i = X 1i + wi ; ∀i = 1,...n
· SUPUESTOS SOBRE
1
E( w) = 0
2
Cov(U, w) = 0
3
Cov( X , w) ≠ 0
w
85
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.6) ERRORES DE MEDIDA
2.6.2) Errores de Medida en las Variables Exógenas
Para simplificar el análisis suponemos un Modelo de Regresión Lineal Simple
MODELO VERDADERO
Yi = β 0 + β1 ·X1i + U i
∀i = 1,...n
d
U → N (ϑ , σ U2 )
Yi = β 0 + β1 ·X1i + U i = X1i* = X 1i + wi ⇒ X 1i = X 1*i − wi =
(
)
*
=
β
+
β
·X
= β 0 + β1 · X − wi + U i
0
1
1i − β1 ·wi + U i
*
1i
Yi = β 0 + β1 ·X1i* + Z i
en donde
Z i = U i − β1 ·wi
86
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.6) ERRORES DE MEDIDA
2.6.2) Errores de Medida en las Variables Exógenas
Yi = β 0 + β1 ·X1i* + Z i
PROPIEDADES DE
Z i = U i − β1 ·wi
Zi
1
E ( Z i ) = 0 ∀i
2
Cov ( Z i , Z j ) = 0 ∀i ≠ j
3
Cov( X * , Z ) = E X * − E X * ·(Z − E (Z )) = E X * − X ·Z
[(
( )
)]
[(
) ]
[
]
= E [( X + W − X )·Z ] = E [W ·Z ]= E [W ·(U − β1 ·W )] = E W ·U − β1 ·W 2 =
= Cov(W , U ) − β1 ·σ W2 = − β1 ·σ W2 = γ ≠ 0
87
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.6) ERRORES DE MEDIDA
2.6.2) Errores de Medida en las Variables Exógenas
Z i = U i − β1 ·wi
Yi = β 0 + β1 ·X1i* + Z i
Demostración:
Cov( X * , Z ) = γ
*
Cov
(
X
,Y )
MCO: βˆ1 =
SESGADO
*
Var ( X )
Cov ( X * , Y − β 0 − β1 · X 1* ) = γ
Cov( X * , Y ) − β1 ·Cov( X * , X * ) = γ
Cov ( X * , Y )
γ
β
−
=
1
Var ( X * )
Var ( X * )
E (βˆ1 ) = β1 +
βˆ1 = β1 +
γ
*
Var ( X )
≠ β1
γ
Var ( X * )
88
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.7) OBSERVACIONES ATÍPICAS
2.7.1) Planteamiento del Problema
2.7.2) Influencia Potencial o Leverage
2.7.3) Influencia Real
89
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.7) OBSERVACIONES ATÍPICAS
DEFINICIÓN: Las Observaciones Atípicas
o Outliers muestran un comportamiento
muy diferenciado respecto al resto de los
valores de la muestra.
PROBLEMA: Pueden tener una gran
influencia en los resultados de la regresión.
*
OUTLIER
90
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.7) OBSERVACIONES ATÍPICAS
*
OUTLIER
*
OUTLIER
91
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.7) OBSERVACIONES ATÍPICAS
2.7.1) Planteamiento del Problema
¿CÓMO DETECTAR OUTLIERS?:
· Graficar Y vs. X
*
92
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.7) OBSERVACIONES ATÍPICAS
2.7.1) Planteamiento del Problema
¿CÓMO DETECTAR OUTLIERS?:
· Graficar X vs. Errores
93
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.7) OBSERVACIONES ATÍPICAS
2.7.1) Planteamiento del Problema
· ¿CÓMO DETECTAR OUTLIERS?:
· Graficar Evolución de la Variable
94
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.7) OBSERVACIONES ATÍPICAS
2.7.2) Influencia Potencial o Leverage
DEFINICIÓN:
La INFLUENCIA POTENCIAL de una observación
sobre los resultados de la estimación
viene
determinada por los valores de las variables
explicativas.
Aquellas observaciones con VALORES EXTREMOS (aquéllos más
alejados de los valores medios de las variables explicativas ) tienen
MÁS INFLUENCIA que aquellas observaciones próximas a la media.
95
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.7) OBSERVACIONES ATÍPICAS
2.7.2) Influencia Potencial o Leverage
¿Cómo medir la influencia Potencial de una Observación? LEVERAGE
I n − X ·( X '·X ) · X ' = M
−1
Yˆ = X ·β̂ = X ·( X '·X ) −1 · X '·Y =
X ·( X '·X ) · X ' = I n − [I n −
−1
= (I n − M )·Y
− X ·( X '·X ) · X '] = (I n − M )
−1
= H = I n − M = H ·Y
 h11

 h21
 .
H =
 .
 .

h
 n1
h12
h22
.
.
.
hn 2
. . . h1n 

. . . h2 n 
. . . . 

. . . . 
. . . . 
. . . hnn 
H contiene las ponderaciones que deben
aplicarse a los valores observados de la
endógena Y para obtener Yˆ .
hij
Es la influencia de la observación j
sobre el valor estimado del valor i.
96
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.7) OBSERVACIONES ATÍPICAS
2.7.2) Influencia Potencial o Leverage
¿Cómo medir la influencia Potencial de una Observación? LEVERAGE
Yˆ = X ·βˆ = H ·Y
Yˆi = hi1 ·Y1 + hi 2 ·Y2 + ... + hii ·Yi + ... + hin ·Yn
hii tenderá a ser mayor cuando una
El valor del LEVERAGE
observación sea más diferente a las demás.
97
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.7) OBSERVACIONES ATÍPICAS
2.7.2) Influencia Potencial o Leverage
Ejemplo: Modelo de Regresión Lineal Simple
Yi = β 0 + β1 ·X1i + U i
La Expresión para
hii es
1  ( X i − X )
hii = ·1 +
n  Var ( X ) 
1 
Estará acotado hii ∈  ,1
n 
Valores elevados de
se
hii
corresponden con observaciones muy
diferentes a la mayoría.
98
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.7) OBSERVACIONES ATÍPICAS
2.7.2) Influencia Potencial o Leverage
Ejemplo: Modelo de Regresión Lineal Simple
Componentes de la Influencia Potencial
1
Tamaño Muestral: Cuantas más observaciones haya, menos influencia
potencial tiene cada una de las observaciones.
2
Desviaciones respecto a la Media: Aquellas observaciones con valores de
X i alejadas de su media presentarán un mayor leverage.
3
Dispersión de la Variable X : Si la variable exógena tiene una dispersión
elevada, entonces tenderá a reducir el valor del leverage.
99
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.7) OBSERVACIONES ATÍPICAS
2.7.2) Influencia Potencial o Leverage
Ejemplo: Modelo de Regresión Lineal Múltiple
1
hii = · 1 + ( X i − X )·S −1 ·( X i − X )
n
[
]
'
en donde X i = ( X 1i , X 2i ,..., X Ki ) , X = ( X , X ,..., X ) y S es la matriz
'
de Varianzas-Covarianzas.
n
∑h
ii
= traz ( H ) = traz[I n − M ] = n − (n − K − 1) = K + 1
i =1
REGLA DE DECISIÓN:
1 n
K +1
h = ·∑ hii =
n i =1
n
Una observación que tenga una hii
(
K + 1)
> 3·h = 3·
se puede considerar potencialmente influyente.
n
100
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.7) OBSERVACIONES ATÍPICAS
2.7.2) Influencia Real
OBJETIVO
Identificar aquellas observaciones cuya supresión
conlleva a una modificación importante de los
resultados de la estimación.
Qué observaciones son las responsables del ajuste hasta el punto de
determinar:
- Qué variables son estadísticamente significativas
- El signo de los coeficientes estimados
- La no-linealidad de la relación entre variables
- El incumplimiento de la hipótesis de normalidad
- La capacidad predictiva del modelo
101
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.7) OBSERVACIONES ATÍPICAS
2.7.2) Influencia Real
*
*
*
Observación
i
Gráfico A
Se emplean todas las observaciones
para llevar a cabo la regresión.
Gráfico B
Se excluye la observación i para
llevar a cabo la regresión.
CAMBIO SUSTANCIAL EN LA PENDIENTE
102
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.7) OBSERVACIONES ATÍPICAS
2.7.2) Influencia Real
¿Cómo se mide la influencia real de una observación?
1
DISTANCIA DE COOK:
Modelo estimado con
todas las observaciones.
Yˆ = X ·β̂
Yˆ
(i )
= X ·βˆ
(
(i )
Modelo estimado suprimiendo
la observación (i)
)(
'
Yˆ − Yˆ (i ) · Yˆ − Yˆ ( i )
Di =
(K + 1)·σ U2
)
o
(
βˆ − βˆ ) ·( X '·X )·(βˆ − βˆ )
D =
(i ) '
(K + 1)·σ U2
i
d
Di → FK +1,n − K −1
REGLA DE DECISIÓN:
Si Di > FK +1,n − K −1,α
La observación i presenta una
fuerte influencia real sobre 103
la
estimación.
(i )
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.7) OBSERVACIONES ATÍPICAS
2.7.2) Influencia Real
¿Cómo se mide la influencia real de una observación?
2
DFFITS:
(
Yˆ − Yˆ )
=
→t
(i )
DFFITSi
REGLA DE DECISIÓN:
d
σ U2 · hii
n − K −1
DFFITSi ≥ 2
DFFITSi ≥ 2·
k +1
n
La observación i presenta una
fuerte influencia real sobre la
estimación.
104
TEMA 2: ERRORES DE ESPECIFICACIÓN Y
PROBLEMAS CON LA MUESTRA
2.7) OBSERVACIONES ATÍPICAS
2.7.2) Influencia Real
¿Cómo se mide la influencia real de una observación?
3
DFBETAS:
DFBETASij
REGLA DE DECISIÓN:
(
βˆ
=
σ
− βˆ j
j
2(i )
U
DFBETASij ≥
(i )
)
· a jj
2
n
para algún j
La observación i presenta una fuerte influencia
real sobre la estimación.
105
Descargar