[TEMA 8] Análisis de Regresión Lineal Simple y Múltiple

Anuncio
2011
UNED
DISEÑOS DE INVESTIGACIÓN Y ANÁLISIS DE DATOS
[TEMA 8]
Análisis de Regresión Lineal Simple y Múltiple
1
Índice
8.1 Introducción ...................................................................................................................................... 3
8.2 Objetivos ........................................................................................................................................... 4
8.3 Análisis de Regresión Simple ............................................................................................................. 4
8.3.1 Coeficientes de la regresión lineal simple .................................................................................. 8
8.3.2 Bondad de Ajuste de la Recta de Regresión............................................................................. 12
8.3.3 Inferencias sobre la regresión .................................................................................................. 16
8.3.3.1 Contraste sobre la correlación/regresión ......................................................................... 16
8.3.3.2 Intervalo de confianza (IC) para rXY ................................................................................... 20
8.3.3.3 Contraste para los coeficientes de la regresión, B y B0 ..................................................... 21
8.3.3.4 Intervalo de Confianza para los coeficientes de regresión, B y B0 .................................... 23
8.3.3.5 Intervalo de Confianza los valores estimados Y’ ............................................................... 25
8.3.4 Precisión de las estimaciones de los parámetros ρ, β, y β0 y su relación con el tamaño
muestral .....................................................................................................¡Error! Marcador no definido.
8.4 Análisis de Regresión Múltiple ........................................................................................................ 30
8.4.1 Regresión con dos Variables Independientes .......................................................................... 30
8.4.2 Ajuste del modelo. Medidas de asociación .............................................................................. 34
8.4.3 Correlación Semiparcial y Parcial ............................................................................................. 37
8.4.4 Inferencias sobre la Regresión Múltiple................................................................................... 42
8.5 Ejercicio práctico ............................................................................................................................. 44
8.5.1 Resultados ................................................................................................................................ 49
8.5.2 Método Stepwise (Pasos Sucesivos) ........................................................................................ 51
8.6 Resumen.......................................................................................................................................... 55
8.7 Ejercicio de Autoevaluación ............................................................................................................ 56
8.7.1 Preguntas ................................................................................................................................. 57
8.7.2 Solución ejercicios de autoevaluación ..................................................................................... 58
2
8.1 Introducción
Como se explica en el libro de Fundamentos de Investigación, “los diseños ex post facto se
caracterizan porque el investigador no puede manipular intencionalmente la variable independiente, ni
asignar aleatoriamente a los participantes a los diferentes niveles de la misma … en estos diseños, el
investigador selecciona a los sujetos en función de que posean o no determinadas características”. Uno
de los procedimientos de análisis más empleados para este tipo de diseños es el que se conoce como
Análisis de Regresión/Correlación. Este procedimiento analítico puede ser usado siempre que una
variable cuantitativa, en este caso la Variable Dependiente (VD), sea estudiada como una función de una
variable, o de una combinación de varias Variables Independientes1 (VI). Cuando se estudia la VD en
función de una sola VI este análisis se conoce como Análisis de Regresión Simple (ARS). Cuando hay más
de una VI se conoce como Análisis de Regresión Múltiple (ARM).
La forma de la relación entre la VD y la VI puede ser muy diversa. En el caso del ARS se pueden dar
relaciones lineales, exponenciales, potenciales, polinómicas, etc. En este texto únicamente vamos a
tratar las relaciones de carácter lineal, es decir, aquellas en las que la VD se puede expresar como una
función de la VI elevada a la primera potencia. Lo mismo sucede con las relaciones que se pueden dar en
el ARM, pero sólo estudiaremos el caso en el que la VD se puede expresar como una combinación lineal
de varias VI`s.
Aunque el ARM es una técnica de análisis para los diseños ex post facto, también se puede aplicar a
situaciones en las que se manipulan condiciones experimentales. Por tanto, las variables independientes
pueden tener una ocurrencia natural (sexo, Cociente Intelectual, tiempo que se tarda en aprender una
lista de palabras, introversión, ansiedad, etc.), o pueden ser variables manipuladas en un laboratorio. En
resumen, “casi cualquier información que tenga interés para el estudio de la VD puede ser objeto de
incorporación en este tipo de análisis”2.
El Análisis de Regresión tiene una amplitud de aplicación de gran alcance. Se emplea para contrastar
hipótesis generadas en el ámbito de las ciencias de la conducta, de la salud, de la educación, etc. Estas
hipótesis pueden llegar por la vía de una teoría formal, por investigaciones previas o simplemente por
algún tipo de intuición científica acerca de algún fenómeno. Una lista breve de hipótesis sobre
determinadas situaciones puede dar idea del alcance de esta técnica de análisis:
• El estrés en la vida cotidiana puede estar relacionado con la cantidad de días que las personas
causan baja laboral por enfermedad.
• Cuando, para una política educativa racional, se quiere compara el rendimiento educativo en
función de si los estudiantes estudian en colegios públicos o privados, es necesario el control
estadístico de determinadas características, tales como el CI, logros académicos previos,
1
Al igual que en los capítulos de Diseños de más de dos grupos, en este capítulo designaremos la variable
dependiente por Y, mientras que las variables independientes las designaremos como Xi, siendo i = 1,….,n, según el
número de variables independientes que se incorporen en el ARM.
2
Cohen, J, Cohen, P. , West, S. G.y Aiken, L. S. Applied Multiple Regression/Correlation. Analysis for the
Behavorial Sciences. 3ª Ed. Lawrence Erlbaum Assoc. N, Jersey, 2003.
3
formación académica de los padres, nivel de ingresos familiares, etc., porque pueden explicar el
rendimiento más que el tipo de escuela.
• La ejecución de una tarea está relacionado con el nivel de activación de las personas, y la
relación tiene una forma de U invertida (esta relación se conoce en el ámbito de la psicología
experimental como la “Ley de Yerkes y Dodson”)
Cada una de estas hipótesis plantea una relación entre una o más variables explicativas (VI´s) y la
variable dependiente (VD) objeto de estudio y, por consiguiente, todas ellas pueden ser contrastadas
mediante Análisis de Regresión.
En este capítulo vamos a estudiar únicamente el Análisis de Regresión Lineal Simple y Múltiple y
vamos a apoyar la explicación mediante ejemplos numéricos para facilitar la comprensión de la técnica
de análisis, utilizando el mínimo soporte matemático que es posible.
8.2 Objetivos
• Elaborar un modelo de regresión simple, para explicar el comportamiento de una variable
(dependiente) a partir de otra (independiente).
• Interpretar los coeficientes del modelo elaborado.
• Determinar si el modelo es suficientemente explicativo (bondad de ajuste)
• Especificar el modelo estadístico que subyace al análisis.
• Elaborar un modelo de regresión lineal múltiple con dos variables predictoras.
• Calcular la bondad del modelo de regresión múltiple.
• Realizar inferencias sobre los coeficientes de correlación y los de los modelos de regresión
ajustados.
• Cuantificar la correlación de dos variables cuando se excluye el influjo que otras variables tienen
sobre cada una de ellas.
• Ver el desarrollo completo de un ejemplo de regresión múltiple realizado por un software de
análisis estadístico.
8.3 Análisis de Regresión Simple
Cuando una variable, que llamaremos independiente (VI), aporta información sobre otra variable,
que llamaremos dependiente (VD), decimos que ambas están relacionadas y esa información puede
servir para saber más sobre el comportamiento de la variable dependiente, sabiendo el
comportamiento de la independiente. Esta relación, como se ha señalado en la introducción, puede ser
de diversos tipos: lineal, potencial, exponencial, logarítmica, polinómica, etc. El tipo de relación entre las
variables se detecta a través de la representación gráfica de todos los pares de valores en ambas
variables. Supongamos, por ejemplo, los datos de la Tabla 8.1 (que servirán como conjunto de datos
para la explicación del ARS) con las puntuaciones de 16 escolares en dos variables: una prueba de
vocabulario (variable X o independiente) y el número de errores ortográficos detectados dentro de un
texto (variable Y o dependiente).
4
Tabla 8.1
Datos de 16 escolares en una prueba de vocabulario (X) y número de errores ortográficos
detectados en un texto (Y)
Sujeto
1
2
3
4
5
6
7
8
X
3
1
7
9
10
8
4
6
Y
9
7
12
18
18
13
8
17
Sujeto
9
10
11
12
13
14
15
16
X
10
2
5
7
9
6
7
8
Y
22
6
10
18
16
13
15
16
Al confeccionar el correspondiente diagrama de dispersión o diagrama de puntos de los 16 pares de
datos (véase la Figura 8.1) se observa que hay un tendencia de carácter lineal y positiva, en el sentido
que a medida que un escolar puntúa más alto en la prueba de vocabulario (X) también suele detectar
más errores ortográficos (Y). Obviamente estamos hablando de una tendencia porque esa relación no
siempre se cumple de tal forma que no siempre una mayor puntuación en vocabulario se corresponde
con una mayor detección de errores. Véase, por ejemplo, los sujetos 12 y 13; el segundo obtiene una
puntuación mayor en la prueba de vocabulario (2 puntos), pero detecta dos errores menos que el
primero. Aún así, la tendencia global de los datos es claramente directa o positiva.
Por lo estudiado en el texto de Introducción al Análisis de Datos sabemos cómo cuantificar la relación
entre dos variables cuantitativas: mediante el Coeficiente de Correlación de Pearson, que puede
expresarse en términos de puntuaciones directas, diferenciales o típicas.
5
Figura 8.1 Diagrama de dispersión de los datos de la tabla 8.1
Estas fórmulas son, respectivamente, las siguientes:
∑ ∑ ∑ ∑ ∑ ∑ ∑ (8.1)
∑ ∑ ∑ (8.2)
∑ (8.3)
El resultado del coeficiente con puntuaciones directas y diferenciales para nuestros datos es:
161561 102218
16764 102163294 218 171,25
113,75323,75
0,8924
0,8924
6
En la Tabla 8.2 se muestran los cálculos necesarios para obtener los diferentes elementos de las
fórmulas.
Tabla 8.2
Desarrollo para el cálculo del coeficiente de correlación de Pearson
Sujetos
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
Suma
Media
Desv. Típ.
X
3
1
7
9
10
8
4
6
10
2
5
7
9
6
7
8
102
6,375
2,7538
Puntuaciones directas
Y
XY
X2
9
27
9
7
7
1
12
84
49
18
162
81
18
180
100
13
104
64
8
32
16
17
102
36
22
220
100
6
12
4
10
50
25
18
126
49
16
144
81
13
78
36
15
105
49
16
128
64
218
1561 764
13,625
4,6458
Y2
81
49
144
324
324
169
64
289
484
36
100
324
256
169
225
256
3294
x
-3,375
-5,375
0,625
2,625
3,625
1,625
-2,375
-0,375
3,625
-4,375
-1,375
0,625
2,625
-0,375
0,625
1,625
Puntuaciones diferenciales
y
xy
x2
-4,625 15,609375 11,390625
-6,625 35,609375 28,890625
-1,625
-1,015625
0,390625
4,375 11,484375
6,890625
4,375 15,859375 13,140625
-0,625
-1,015625
2,640625
-5,625 13,359375
5,640625
3,375
-1,265625
0,140625
8,375 30,359375 13,140625
-7,625 33,359375 19,140625
-3,625
4,984375
1,890625
4,375
2,734375
0,390625
2,375
6,234375
6,890625
-0,625
0,234375
0,140625
1,375
0,859375
0,390625
2,375
3,859375
2,640625
171,25
113,75
y2
21,390625
43,890625
2,640625
19,140625
19,140625
0,390625
31,640625
11,390625
70,140625
58,140625
13,140625
19,140625
5,640625
0,390625
1,890625
5,640625
323,75
A la vista de los datos representados en el diagrama de la Figura 8.1, es fácil intuir que la relación
entre ambas variables puede ser “modelada” de tal forma que la VD se represente como una función de
la VI. En este caso, la función que, a priori y visto el diagrama, mejor puede modelar la relación es la
lineal, es decir, una función que exprese la VD en términos de los valores de la VI, sometidos a algún tipo
de transformación lineal. Dicho de otra forma, una función lineal que permita hacer una estimación de
la VD a partir de la VI, es una función del tipo:
7
# $ % $& ; ()(*+,+ ( )./.+012(* ,1(0/+*
# $ ; ()(*+,+ ( )./.+012(* ,13((01+4(*
5 ; ()(*+,+ ( )./.+012(* /í)10+*
(8.4 a)
(8.4 b)
(8.4 c)
Al ser una estimación, Y’ (puntuación en Y predicha por el modelo lineal) se acercará más o menos al
verdadero valor de la VD. Este ajuste será mayor cuanto mayor sea la relación entre las variables, es
decir, dependerá del valor del coeficiente de correlación de Pearson, como tendremos ocasión de
demostrar más adelante. Aún sabiendo que la mejor relación puede ser representada por una función
lineal, queda aún por determinar cuál de las muchas funciones lineales (una para cada combinación de
valores, parámetros o coeficientes de la regresión, B y B0 en la Ecuación 8.4 lo cual significa que, en
esencia, son infinitas), es la que mejor ajusta los datos del diagrama.
8.3.1 Coeficientes de la regresión lineal simple
Antes de proceder al cálculo de los coeficientes de regresión (B y B0) es conveniente observar qué
sucede una vez que hemos determinado la función y la representamos sobre los datos. En la Figura 8.2
se pueden ver los datos y una línea vertical entre cada uno de los datos y la recta de ajuste que mejor
los ajusta (más adelante veremos cómo se calcula esta recta). Cuando ya se ha construido la recta (que
es una estimación de Y), y se procede a particularizar para cada valor de la VI (en este caso puntuación
en vocabulario), los valores resultantes se sitúa, obviamente, a lo largo de la recta. En algunos casos el
valor que se obtiene con la recta de ajuste (la estimación, Y’) coincide con el verdadero valor de la VD
(representado por los puntos), aunque en la mayoría de los casos no coincide. Es decir, si deseamos
predecir el comportamiento de VD utilizando su relación con VI, una vez hecha la predicción (valor en la
recta), vemos que en muchos casos difiere del verdadero valor de la VD para ese valor concreto de la VI.
Por tanto, cuando utilizamos el modelo lineal para estimar cada valor Y a partir de X aplicando la recta
de regresión obtenida, hay un error en la estimación de la VD (Y) ya que el valor pronosticado (Y’) y el
valor medido (Y) no suelen coincidir. La diferencia entre ambos es ese error de estimación. En la Figura
8.2 este error viene dado por la magnitud o longitud de la línea vertical que separa cada dato de la
predicción realizada por la recta de regresión.
8
Figura 8.2 Errores después del ajuste de una recta
De acuerdo a la fórmula (8.4), los valores en la recta los hemos denominado Y’, y a los valores de la
VD los hemos denominado Y. Pensemos en estas distancias (Y – Y’), como la distancia que hay entre
cada valor (Y) y su media (representada por Y’, ya que la predicción realizada por la recta de regresión
representa la media que sería de esperar si el análisis se repitiese con infinitas muestras). Ahora,
tomemos estas distancias, elevémoslas al cuadrado y sumemos todos esos cuadrados. El valor
resultante de esta suma será el Error Cuadrático de la Recta de Ajuste (existen otras terminologías como
Recta de Estimación, Recta de Predicción o Recta de Regresión, siendo cualquiera de estas
denominaciones es válida), y sólo hay una recta que hace mínimo este error. Por esta razón a este
método de ajuste de una recta de regresión se le conoce como ajuste por mínimos cuadrados ya que el
objetivo es encontrar los valores B y B0 que hacen más pequeño (mínimo) el error (Y-Y’) al cuadrado.
Además, hay otra característica importante de la recta de ajuste, que se puede enunciar del siguiente
modo: la recta de regresión es una estimación insesgada de la VD en el sentido de que la media de los
valores pronosticados es igual a la media de los valores observados. Es decir,
∑ 7 ∑ 57
(8.5)
Por procedimientos matemáticos que no vamos a desarrollar, el valor del parámetro B de la función
lineal en (8.4) que minimiza los errores cuadráticos, se obtiene de acuerdo a la expresión:
$ 8
8
(8.6)
siendo rXY, el coeficiente de correlación de Pearson
SY la desviación típica de la variable dependiente (Y)
SX la desviación típica de la variable independiente (X).
9
Conocido B, el valor de B0 se obtiene mediante la expresión:
$& 9 $9
(8.7)
Construida la recta de ajuste podemos expresar la variable dependiente, Y, como una función de la
variable independiente, X, mediante la siguiente expresión:
$& % $ % :
(8.8)
Donde ε representa el error de predicción y está compuesto por las distancias entre cada valor de Y e Y’
para una valor dado de X que observaríamos si repitiésemos el procedimiento a varias muestras
diferentes.
¿Cuál es el significado de los coeficientes de regresión? En el análisis de regresión simple el
coeficiente “protagonista” es el factor B, conocido como pendiente de la recta, y cuantifica el
incremento que se produce en la estimación de la variable dependiente (Y’) cuando la independiente (X)
aumenta en una unidad.
En la Figura 8.3 se ve de manera gráfica el significado de B en nuestros datos. La estimación de Y para
un valor X = 4, proporciona el valor 10,049, y para una X = 5, el valor es 11,555. La diferencia entre estos
valores al aumentar X en una unidad (de 4 a 5) es lo que aumenta Y’ y ese es el valor de la pendiente. En
el caso del ejemplo que ilustra esta explicación la pendiente nos dice que los escolares, con cada punto
más que obtienen en la prueba de vocabulario detectan, en promedio, 1,5 errores más en la prueba de
lectura.
10
Figura 8.3 Interpretación gráfica de la pendiente de la recta de regresión
La constante de la recta de regresión, B0, señala el punto en el que ésta corta al eje de ordenadas, es
decir, el valor estimado de Y cuando X es igual a 0. No es un coeficiente interpretable en el sentido en el
que lo es la pendiente. De hecho, casi nunca es objeto de interpretación salvo cuando el valor 0 se
encuentra dentro del rango de valores de la VI. Si no es el caso, la recta de regresión sólo se puede
interpretar dentro del rango de valores de la VI, pues es con esos valores con los que se construye la
recta de estimación. Fuera de ese rango, no se sabe qué sucede con la función que relaciona X con Y y
por tanto podría ser que por debajo del menor valor de la VI y/o por encima del mayor valor de la VI la
función de estimación de la VD cambiara su forma.
Para que sean válidas las inferencias que sobre la VD se hagan con la recta de regresión, se deben de
cumplir cuatro supuestos básicos, tres de los cuales son, en esencia, los mismos que ya se han
mencionado en las técnicas de análisis para las pruebas T y los ANOVAS:
1. Independencia de las observaciones. Este supuesto sólo se contrasta si el proceso de
selección de la muestra no ha sido aleatorio.
2. Homocedasticidad. Su cumplimiento supone que las varianzas de las distribuciones de los
errores, condicionadas a los diferentes valores de la VI, deben ser iguales.
3. Normalidad de las distribuciones condicionadas.
4. Independencia entre los valores estimados, Y’, y los errores de estimación, ε. Expresado en
términos de coeficiente de correlación de Pearson, ry’ε = 0. Esto es así debido a que los
errores se distribuyen de manera aleatoria, mientras que las estimaciones o pronósticos son
una función de la VI.
En la Figura 8.4 se representan los supuestos 2 (las varianzas de las cuatro curvas normales dibujadas
son idénticas) y 3 (para cada valor de Xi existe una gama de valores posibles que se distribuyen
normalmente con media Y’). El supuesto 4 se puede ver numéricamente en los datos de la Tabla 8.3.
11
Figura 8.4 Representación supuestos 2 y 3 en el ARS
8.3.2 Bondad de Ajuste de la Recta de Regresión
La expresión Bondad de Ajuste, se refiere a cómo de “explicativa” es la recta respecto de los datos
sobre los que se ha ajustado. Al hacer un ajuste mínimo cuadrático conseguimos un conjunto de valores,
situados sobre la recta, cuyo promedio coincide con el promedio de la VD, que estiman los diferentes
valores de la VD para cada valor de la VI. Denotaremos simbólicamente estos valores estimados
mediante el símbolo de la variable dependiente (v.g., Y) con un acento en la parte superior derecha, es
decir, como Y’ y la nombraremos diciendo “Y prima”. Las estimaciones pueden diferir de los valores de
la VD, es decir, los valores de Y no tienen porqué coincidir exactamente con Y’. La diferencia entre
ambos valores será un “error de estimación” que, siendo inevitable, trataremos de que sea lo menor
posible. La magnitud de los errores de estimación son un primer indicio para determinar si el ajuste es
bueno o no. No obstante, tomar la magnitud de los errores aisladamente, sin poner ésta en relación con
alguna otra magnitud, no resuelve completamente el problema de determinar la bondad.
Para explicar el concepto de bondad de ajuste, veamos de qué está compuesta la varianza de la VD,
antes y después de ajustar la recta de regresión sobre el conjunto de datos. Para ello, vamos a estudiar
lo que sucede en uno solo de los 16 valores que estamos utilizando como ejemplo numérico, tal como se
observa en la Figura 8.5.
12
Figura 8.5 Descomposición de la suma de cuadrados de la VD
Imagine el lector que sólo dispone de los estadísticos media y varianza de la prueba de detección de
errores del grupo de sujetos del ejemplo de la Tabla 8.1, y desea hacer una estimación para un sujeto
concreto, y aún no sabe que se ha determinado que dicha prueba está relacionada con la prueba de
vocabulario. A falta de otro tipo de información sobre la variable que se quiere estimar, lo correcto es
otorgar como mejor estimación la media del grupo, por ser la que minimiza el error de predicción. Para
cada sujeto concreto el error que se cometerá será 7 9, y para el conjunto de datos, el error,
expresado en términos de cuadrados, es el mínimo posible. Es decir, si no tenemos idea de la relación
entre la variable predictora (X) y la predicha (Y), y nos piden realizar una estimación de Y, lo mejor que
podemos hacer es utilizar la media de Y como estimador. Cualquier otro valor que elijamos hará que el
error de predicción sea superior al que obtendríamos si utilizamos la media.
Sigamos suponiendo que en un momento posterior disponemos de información sobre la relación que
hay entre la detección de errores (Y) y una prueba de vocabulario (X) que han realizado los estudiantes,
y sabe cuál es la recta de ajuste entre ambas variables. Si ahora desea hacer una estimación de la
puntuación de un sujeto en la prueba de errores, lo razonable es que aproveche la información nueva
de que dispone, y vea qué puntuación ha obtenido el sujeto en vocabulario y, mediante la ecuación de
la recta construida, haga una estimación de la puntuación en Y, que estará situada en la recta y que
hemos denominado Y’. Esta estimación se aproxima más al valor original (Y) de lo que lo hacía la media
pero aún persiste un cierto error, el que va de Y a Y’. Es decir, del error original, 9 , hemos
reducido una parte, 5 9, pero aún queda otra parte, 5, sin explicar. Por tanto, la variable
original Y, expresada en puntuaciones diferenciales, 9 , es la suma de otras dos variables,
5 5 9 , que, además, son independientes entre sí; su correlación, pues, es cero. Por tanto
podemos afirmar que a nivel de cada puntuación individual se cumple:
13
9 # 9 % 5
(8.9)
y sumando para todos los puntos y elevando al cuadrado se obtiene lo que se conoce como Suma de
Cuadrados, dividiendo por el número de casos menos 1 se obtienen la varianza total de Y ( SY2 ), la
varianza de las Y predichas ( SY2' ) y la varianza de los errores ( Sε2 ). Como la relación de la Ecuación 8.9 se
sigue manteniendo, estas varianzas mantienen la relación que puede verse en la Ecuación 8.10:
∑ 9 ∑5 9 ∑ 5
%
; 8 8#
% 8<
1
1
1
(8.10)
En resumen, cuando hay una relación lineal entre dos variables, la varianza de la VD se puede
descomponer en dos varianzas: la de los pronósticos, debido a la relación que la VD guarda con la VI, y la
de los errores o residuos. Esta relación se cumple tanto para la Regresión Lineal Simple como para la
Múltiple. Esta descomposición de las varianza de la VD en dos varianzas es el “Teorema de Pitágoras”
del Análisis de Regresión Lineal.
Tabla 8.3
Desarrollo numérico de la descomposición de la varianza de la VD
X
3
1
7
9
10
8
4
6
10
2
5
7
9
6
7
8
Y
9
7
12
18
18
13
8
17
22
6
10
18
16
13
15
16
>
=
13,6250
13,6250
13,6250
13,6250
13,6250
13,6250
13,6250
13,6250
13,6250
13,6250
13,6250
13,6250
13,6250
13,6250
13,6250
13,6250
Y'
8,5440
5,5330
14,5659
17,5769
19,0824
16,0714
10,0495
13,0604
19,0824
7,0385
11,5549
14,5659
17,5769
13,0604
14,5659
16,0714
9 # 9
-4,6250 -5,0810
-6,6250 -8,0920
-1,6250
0,9409
4,3750
3,9519
4,3750
5,4574
-0,6250
2,4464
-5,6250 -3,5755
3,3750 -0,5646
8,3750
5,4574
-7,6250 -6,5865
-3,6250 -2,0701
4,3750
0,9409
2,3750
3,9519
-0,6250 -0,5646
1,3750
0,9409
2,3750
2,4464
# 0,4560
1,4670
-2,5659
0,4231
-1,0824
-3,0714
-2,0495
3,9396
2,9176
-1,0385
-1,5549
3,4341
-1,5769
-0,0604
0,4341
-0,0714
Suma
Varianzas
9
21,3906
43,8906
2,6406
19,1406
19,1406
0,3906
31,6406
11,3906
70,1406
58,1406
13,1406
19,1406
5,6406
0,3906
1,8906
5,6406
5 9 25,8170
65,4810
0,8854
15,6177
29,7834
5,9850
12,7846
0,3187
29,7834
43,3825
4,2851
0,8854
15,6177
0,3187
0,8854
5,9850
5
0,2080
2,1522
6,5840
0,1790
1,1716
9,4337
4,2002
15,5201
8,5123
1,0784
2,4179
11,7928
2,4867
0,0037
0,1884
0,0051
323,7500
257,8159
65,9341
SY2 = 21,5833
SY2' = 17,1877
S ε2 = 4,3956
SY2 = 323,75 /(16 − 1) = 21,5833
SY2' = 257,8159 /(16 − 1) = 17,1877
S ε2 = 65,9341 /(16 − 1) = 4,3956
rY’ε
rXY
R2
0
0,8924
0,7963
14
A partir de la Ecuación 8.10, se puede establecer una serie de relaciones. La primera es lo que
representa la proporción de la varianza de los pronósticos respecto de la VD: la proporción de la
varianza de la VD explicada por la varianza de la VI, ya que los pronósticos son un combinación lineal
de la propia VI, combinación que está representada por la recta de regresión (Y’ = BX + B0). La cuantía de
esta proporción es el cuadrado del coeficiente de correlación de Pearson entre la VD y la VI (esto solo
sirve para el caso de la Regresión Lineal Simple).
?@BA
?@B
∑ A C9B
∑C9B
?DEFG
?D@
H
8< ∑ 5 8IJKL7MNOL
1 H
∑
9
8I
8
(8.11)
(8.12)
En resumen, H
(a partir de ahora lo designaremos como R2), denominado Coeficiente de
Determinación, es la proporción de la variabilidad de la VD que es imputada (o explicada por) la
,
variabilidad de la VI, mientras que su complemento, 1 H
denominado Coeficiente de Alienación,
es la parte residual de la variabilidad de la VD, atribuible a otros factores no relacionados linealmente
con la VD.
Además de esta interpretación de R2, hay otra que tiene que ver con la reducción del error original
de la VD. En este sentido, R2 es la proporción en que se reduce el error de la VD cuando empleamos la
recta de regresión para estimarla. Observe el lector (Tabla 8.3) que el error cuadrático inicial es
21,5833, y después de ajustar la recta y proceder a las estimaciones de Y, aún queda un error cuadrático
de 4,3956. En términos absolutos el error se ha reducido en 21,5833 – 4,3956 = 17,1877, lo que en
términos de proporción respecto del error original la reducción es: 17,1877/21,5833 = 0,7963, que es el
valor de R2 que aparece en la Tabla.
A partir de 8.12, se puede obtener la desviación estándar de los errores (o residuos). Su expresión es:
Sε2
2
= 1 − RXY
S2Y
2
Sε2 = SY2 (1 − RXY
)
Sε = SY
1− R
(8.13)
2
XY
Un forma gráfica de representar la varianza explicada o compartida es mediante los denominados
diagramas de Venn en estadística matemática, en el cual la varianza de cada variable es representada
por sendos círculos de área igual a la unidad y la intersección del solapamiento de ambos círculos
representaría la proporción de varianza compartida, que es el valor del coeficiente de determinación R2.
15
En la Figura 8.6 se representa la varianza compartida de los datos del ejemplo, sin pretensión de
exactitud en cuanto al área solapada de ambos círculos.
Figura 8.6 Diagrama de Venn con la representación de la proporción de varianza compartida
Otro indicador del ajuste, además de R2, es lo que se conoce como Error Típico, y es una estimación
sobre la población realizada a partir de la muestra. Su valor se deriva de la raíz cuadrado del cociente
entre la Suma de Cuadrados de los residuos o errores entre los grados de libertad, que son el número de
observaciones muestrales menos el número de parámetros estimados por la regresión, que en el caso
bivariado son dos. La fórmula es:
∑ 5
P< Q
)1
(8.14)
Siendo p, el número de variables independientes que incorpora el modelo, que en el caso de la
regresión simple es 1.
8.3.3 Inferencias sobre la regresión
Una vez construido el modelo de estimación, es preciso dotarle de significación estadística para que
las inferencias que se hagan a partir de los datos muestrales sean válidas para el conjunto de la
población. Los dos contrastes que vamos a tratar son los que tienen que ver con el coeficiente de
correlación entre las variables dependiente e independiente, y por tanto también es un contraste sobre
la regresión, y el segundo es el contraste que se realiza sobre los coeficientes de regresión. Además del
contraste, veremos cómo calcular los intervalos de confianza tanto para el coeficiente de correlación
como para los coeficientes de la regresión.
8.3.3.1 Contraste sobre la correlación/regresión
El primer contraste que hay que realizar es el relativo al ajuste de la correlación entre la VD y la VI. En
este caso la hipótesis nula será que no hay relación entre la VD y la VI, siendo la hipótesis alternativa su
negación, es decir que sí hay relación. Expresado simbólicamente:
16
R& : T 0
RU: T V 0
donde ρ representa la correlación entre la VD y la VI en la población. Para dilucidar la significación se
puede utilizar dos procedimientos que conducen al mismo resultado. Por un lado, se puede establecer
una razón F (es decir, un cociente entre medias cuadráticas) entre el coeficiente de determinación y el
coeficiente de alienación, divididos por sus respectivos grados de libertad. Su fórmula es:
H [
X. 4. (X(*1ó
W
1 H \X. 4. (*1,.2*
(8.15)
Fórmula que se puede reescribir también del siguiente modo:
W
H /1
1 H \^
2
(8.16)
y aplicada a los datos que están sirviendo como ejemplo, nos da un resultado de F
W
0,7963
54,743
1 0,7963
\16
2
valor que resulta significativo, pues la probabilidad de encontrar un valor F igual o mayor, con 1 y 14
grados de libertad es p = 3,358x10-6 (este valor no puede localizarse en las Tablas debido a la magnitud
tan elevada de la F obtenida; véase para comprobarlo las figuras 8.7a y 8.7b).
1.0
6. µ 10-7
5. µ 10-7
0.8
4. µ 10-7
0.6
3. µ 10-7
0.4
2. µ 10-7
1. µ 10-7
0.2
52
0
10
20
30
40
50
54
56
58
60
60
Figura 8.7a: Distribución F con 1 y 14 grados de
libertad. Obsérvese como la gráfica es
indistinguible del eje de abscisas a partir de F =
Figura 8.7b: Distribución F con 1 y 14 grados de
libertad limitada al rango de valores del eje de
abscisas [50, 60]. Se puede ver que la función F no
17
10.
toca el eje de abscisas, pero que los valores de las
ordenadas son inferiores a la millonésima.
Comparando este procedimiento con la tabla del ANOVA, tenemos, a partir de las expresiones (8.11) y
(8.12), que la razón F se puede reescribir del siguiente modo:
W
8IJK_J.
[
1
8IJKL7M.
[^ 2
`IJK_J.
`IJKL7M.
(8.17)
Lo relevante de estas expresiones son los grados de libertad asociados a la suma de cuadrados de la
regresión (1 g.l.), y por lo tanto a R2, y los grados de libertad de la suma de cuadrados de los errores o
residuos (N-2 g.l.), (y por tanto a 1 – R2). El término N refleja el número de observaciones
independientes (el total de sujetos) y el valor 2 representa el número de restricciones que han sido
necesarias para construir la ecuación de estimación, a saber, la pendiente (B) y el intercepto (B0). El
único grado de libertad asociado a la suma de cuadrados de la regresión representa la desviación de la
pendiente B con respecto a cero. Realizando el cálculo para los datos del ejemplo (véase Tabla 8.4),
cuyas sumas de cuadrados se pueden ver en las sumas de las dos últimas columnas de la Tabla 8.3, y
puesto en formato de tabla de ANOVA:
Tabla 8.4
Tabla ANOVA para el contraste de la Regresión
ANOVA de la Regresión
FV
SC
GL
MC
Regresión
257,816
1
257,8159
Residuos
Total
65,9341 14
323,75 15
4,7096
F
54,743
Prob.
3,36E-06
La otra manera de contrastar la hipótesis nula de que la correlación en la población es igual a 0, es
mediante el estadístico t, cuya expresión es:
/
√ 2
1 (8.17)
que se distribuye según la t de Student con n-2 grados de libertad. Para los datos que sirven de soporte,
el valor del estadístico es:
18
/
0,8924√16 2
1 0,8924
7,3988
Cuya probabilidad es, lógicamente, la misma que del valor del estadístico F, calculado anteriormente, y
ello es debido a la igualdad entre la t y la F en determinadas condiciones de los grados de libertad de F.
Esta relación es la siguiente:
/b WU,b
(8.18)
19
OPCIONAL
8.3.3.2 Intervalo de confianza (IC) para rXY
La distribución muestral de rXY no es simétrica salvo en el caso que la ρXY (correlación en la población)
sea igual a 0, lo cual supone que los límites del intervalo de confianza no son equidistantes del valor de
rXY. Sin entrar en consideraciones sobre el por qué de este comportamiento del intervalo de confianza,
para resolver este problema, Fisher desarrolló el estadístico z’ como una transformación de r:
# 1
41 % 41 2
(8.20)
donde ln es el logaritmo naturali con base e ≈ 2,7183. La distribución muestral de z’ depende
únicamente del tamaño muestral y presenta una distribución normal incluso con muestras
relativamente pequeñas. Su error típico es:
1
P# √ 3
(8.21)
Luego el IC se calcula como:
IC ( z ' ) = z ' ± zα / 2 ⋅ σ z '
Aplicado (8.20) y (8.21) al coeficiente de correlación obtenido con los datos del ejemplo, y para un
intervalo de confianza del 95%, asumiendo la normalidad de la distribución muestral de z’, los límites del
IC serán:
# 1
41 % 0,8924 41 0,8924 1,434
2
PA 1
√16 3
0,2773
i # 1,98j
cIde% # 1,434 g 0,27731,96 h L #
i7 0,89
Convirtiendo estos dos valores de z’, en valores de r, tomando la correspondencia de la Tabla XIII
(transformada Z de Fisher), los límites aproximados del IC de r son, 0,71 y 0,96 (véanse las Figuras 8.8a y
8.8b para ejemplificar la utilización de la Tabla XIII), valores que no son simétricos respectos del
coeficiente de correlación muestral (0,8924) ya que la distancia entre Li y rXY es distinta de la distancia
entre Ls y rXY. Es la primera vez que observamos un IC asimétrico como puede verse gráficamente en la
Figura 8.9.
20
Figura 8.8a: Obtención del valor de rinferior a partir Figura 8.8b: Obtención del valor de rsuperior a partir
del Li de z’ en la Tabla XIII del Formulario.
del Ls de z’ en la Tabla XIII del Formulario
(obsérvese que hemos tenido que aproximar ya
que el valor de 1.98 no se encuentra en la tabla).
Figura 8.9: Coeficiente de correlación e intervalo de confianza para los datos del ejemplo. Puede verse
claramente que el IC no es simétrico con respecto a rXY muestral.
8.3.3.3 Contraste para los coeficientes de la regresión, B y B0
Con este contraste se quiere determinar si hay evidencia estadística de que la pendiente es diferente
de cero, es decir si la pendiente es significativamente diferente a una línea horizontal, perpendicular al
eje de ordenadas, e igualmente si el intercepto es diferente de cero, aunque en este caso ya se ha
señalado que en la mayor parte de los estudios suele ser ignorado. Por tanto, las hipótesis nula y
alternativa respecto de la pendiente y el intercepto en la población, β y β0, respectivamente son:
R&:
RU :
k 0 ; k& 0
k V 0 ; k& V 0
21
El estadístico de contraste para la pendiente es:
/
$0
Pl
(8.22)
siendo Pm el error típico de la distribución muestral de la pendiente cuya expresión es:
Pl 8 1 Q
8 2
(8.23)
El estadístico t es un percentil de la distribución t de Student con n-2 grados de libertad. Cuando el
tamaño muestral es lo suficientemente amplio (n ≥ 100), la significación del valor t se puede determinar
en la distribución normal tipificada.
Aplicando este contraste a la pendiente de los datos que están sirviendo de ejemplo, el valor del
estadístico es:
/
1,5055 0
0,8924
4,646 1 n
2,754
16 2
1,5055
7,399
0,2035
Siendo p = 3,36x10-6 (de nuevo, el valor de t = 7,399 es tan elevado que no aparece en las tablas y, por
tanto, tampoco pueden utilizarse estas para evaluar el valor de p; esto significa que este valor de
probabilidad ha sido obtenido mediante un software científico) la probabilidad de encontrar un valor
igual o mayor, lo cual lleva al rechazo de la H0. Observe el lector que la probabilidad de este estadístico
es la misma que la de la F en la Tabla 8.4 del ANOVA de la Regresión.
Para el intercepto, el estadístico de contraste es:
/
$& 0
Plo
(8.24)
siendo Pmo el error típico de la distribución muestral del intercepto, cuya expresión es:
1
9 Plo P< Q %
18
(8.25)
siendo P< el Error Típico, ya comentado en el epígrafe de bondad de ajuste, y cuyo valor es la raíz
cuadrada de la Media Cuadrática (MC) de los Residuos de la tabla del ANOVA (Tabla 8.4) para el
contraste de la regresión, que representa la varianza residual en la población para el caso de la regresión
bivariada. Como en el caso de la pendiente, el estadístico t tiene la misma distribución con los mismos
grados de libertad.
Aplicando el contraste a los datos del ejemplo, y teniendo en cuenta que, en el caso de la regresión
bivariada la varianza residual en la población tiene n-2 grados de libertad, y dado que estamos haciendo
la inferencia para la población, el valor de la varianza residual es:
22
/
4,0275 0
1
6,375
√4,7096n16 % 16 17,583
4,0275
2,864
1,4061
Cuya probabilidad es 0,006, por lo que se rechaza la hipótesis nula de que el intercepto es igual a 0
(tanto si utilizamos un α = 0,05 como un α = 0,01 ). Como puede verse en la Figura 8.10, las Tablas
solo nos permiten determinar que 2,864 se encuentra entre los valores 2,624 y 2,977. Por consiguiente,
la p debe encontrarse entre 1-0,990 = 0.01 y 1-0.995 = 0.005. La probabilidad calculada se realizó
mediante software científico.
Figura 8.10
8.3.3.4 Intervalo de Confianza para los coeficientes de regresión, B y B0
Al mismo resultado se llega si en vez de calcular el estadístico t se calcula el intervalo de confianza
sobre el coeficiente de regresión, B. Dado que ya se ha calculado el Error Típico de la distribución
muestral de B (Pl ) con la expresión (8.23), los límites del IC de B, se obtendrán según la siguiente
fórmula:
cI$ $ g p/bC;UCq⁄ sPl (8.26)
siendo t(n-2;1-α/2), el valor de t de la distribución t de Student con n-2 grados de libertad y un nivel de
significación α. Aplicando la fórmula a los resultados del ejemplo se obtiene, para un nivel de confianza
del 95%, los siguientes límites:
cIl 1,5055 g 2,145 t
4,646 1 0,8924
1,942j
Q
uv
1,069
16 2
2,754
Al no contener el ICB el valor 0 entre sus límites, se llega, obviamente, a la misma conclusión que a
través del estadístico t.
23
Para el intercepto, la fórmula de cálculo del IC es:
cI$& $& g /bC;UCq⁄ Plo (8.27)
Aplicando la expresión a los datos del ejemplo los límites son
1
6,375
7,043j
cIlo 4,0275 g 2,145 t
4,7096Q
%
uv
1,012
16 16 17,583
También aquí se llega a la misma conclusión que con el estadístico de contraste t, se rechaza la
hipótesis nula ya que el intervalo de confianza no incluye el valor 0.
24
OPCIONAL
3.3.5 Intervalo de Confianza de los valores estimados Y’
Por último, para cerrar los apartados de contrastes de hipótesis e intervalos de confianza, resta
únicamente calcular el IC para los valores estimados Y’ para cada valor de la VI. Para ello sólo se necesita
conocer el Error Típico de la distribución muestral de los pronósticos, error que es una función, entre
otros estadísticos, de cada valor de la VI y de su media. Su expresión es:
7 9
1
P# P< Q %
18
(8.28)
Aplicado a los datos del ejemplo con un nivel de confianza del 95%, los límites de las estimaciones, Y’
para cada valor de la VI (es decir, para cada Xi), se pueden ver en la tabla 8.5.
25
Tabla 8.5
Límites del IC para los valores estimados de los datos del ejemplo de la Tabla 8.1
(Ecuación de regresión: Y’ = 1,5055X+ 4,0275)
X
1
2
3
4
5
6
7
8
9
10
Y'
5,5330
7,0385
8,5440
10,0495
11,5549
13,0604
14,5659
16,0714
17,5769
19,0824
ETY’
1,2209
1,0425
0,8752
0,7266
0,6104
0,5479
0,5572
0,6354
0,7613
0,9156
Li (Y’i)
2,9145
4,8025
6,6669
8,4911
10,2457
11,8854
13,3708
14,7087
15,9440
17,1186
Ls (Y’i)
8,1515
9,2744
10,4210
11,6078
12,8642
14,2355
15,7611
17,4341
19,2098
21,0463
Ejemplo del cálculo para X1 = 1.
Y1' = 1.5055 ⋅ X 1 + 4.0275 = 5.5330
ETY ' = σ ε
1
1 ( X i − X )2
1
(1 − 6.375) 2
+
=
4
.
7096
+
= 1.2209
n (n − 1) ⋅ S X2
16 (16 − 1) ⋅ 7.583
Li (Y1' ) = Y1' − t
α
ETY ' = 5.5330 − 2.145 ⋅ 1.2209 = 2.9145
α
ETY ' = 5.5330 + 2.145 ⋅ 1.2209 = 8.1515
( n − 2 , 1− )
2
Ls (Y1' ) = Y1' + t
( n − 2 , 1− )
2
1
1
Este proceso se repetiría para cada Xi.
Su representación gráfica se puede ver en la Figura 8.11. Observe el lector, que por la propia
estructura de la fórmula del error típico, la parte más estrecha del intervalo, se sitúa en el punto 9, 9,
y se va abriendo a medida que las estimaciones se alejan de este punto, debido al factor 7 9 en la
fórmula del Error Típico
26
Figura 8.11 Representación gráfica del IC para los valores estimados por la línea de regresión.
27
OPCIONAL
8.3.4 Precisión de las estimaciones de los parámetros ρ, β, y β0 y su relación con el
tamaño muestral
Hasta el momento todos los contrastes prácticos se han basado en un número determinado de
observaciones (en nuestro ejemplo n=16), y el grado de precisión de los contrastes viene dado (repase el
lector las fórmulas de los intervalos de confianza) por el tamaño muestral. En todos los casos, la
amplitud del intervalo es función inversa del tamaño muestral. Para ver por qué sucede esto, pensemos
en los mismos estadísticos obtenidos en el ejemplo y qué le sucede al Error Típico de la distribución
muestral de los parámetros, es decir, el denominador de las pruebas t de los contrastes, que es el factor
que multiplica el valor de t en la construcción del Intervalo de Confianza. En la Tabla 8.6 se muestra para
los mismos estadísticos del ejemplo, qué sucede con el Error Típico de la distribución muestral y con la
Precisión del Intervalo para distintos valores de n.
Tabla 8.6 Relación entre el tamaño muestral y la precisión del IC
28
R
0,8924
Sx
2,7538
Sy
>
w
4,6458
B
1,5055
B0
Error
Típico
4,0275
X
NC
Errores Típicos
n
B
B0
Precisión
Y'(x)
B
B0
Y'(x)
10
0,2692
1,8098
0,6933
0,5998
4,0325
1,5448
12
0,2408
1,6392
0,6328
0,5246
3,5715
1,3787
14
0,2198
1,5093
0,5858
0,4714
3,2371
1,2563
16
0,2035
1,4061
0,5479
0,4314
2,9807
1,1615
2,1702
18
0,1903
1,3215
0,5165
0,3999
2,7763
1,0851
6
20
0,1794
1,2506
0,4900
0,3743
2,6086
1,0221
25
0,1588
1,1136
0,4382
0,3270
2,2934
0,9025
30
0,1439
1,0136
0,4000
0,2938
2,0700
0,8169
35
0,1325
0,9364
0,3703
0,2691
1,9011
0,7518
40
0,1235
0,8746
0,3464
0,2496
1,7676
0,7001
45
0,1161
0,8236
0,3266
0,2338
1,6588
0,6577
50
0,1099
0,7806
0,3098
0,2207
1,5678
0,6222
55
0,1046
0,7437
0,2954
0,2096
1,4903
0,5919
60
0,1000
0,7115
0,2828
0,2000
1,4233
0,5657
65
0,0959
0,6832
0,2717
0,1916
1,3645
0,5426
70
0,0923
0,6581
0,2618
0,1841
1,3125
0,5222
75
0,0891
0,6355
0,2529
0,1775
1,2660
0,5039
80
0,0862
0,6151
0,2449
0,1716
1,2241
0,4874
85
0,0836
0,5966
0,2376
0,1662
1,1861
0,4724
90
0,0812
0,5796
0,2309
0,1612
1,1514
0,4587
95
0,0789
0,5640
0,2247
0,1567
1,1197
0,4461
100
0,0769
0,5496
0,2190
0,1526
1,0904
0,4346
6,3750
0,95
Ejemplo de cálculo para n = 20 (línea con fondo oscuro en la tabla):
σB =
SY
SX
σ B = σε
0
σY
'
X =6
= σε
2
1 − rXY
4.646 1 − 0,8924 2
=
= 0,179
(n − 2) 2,754
(20 − 2)
1
X2
1
6,3752
+
=
4
,
7096
+
= 1,250
n (n − 1) S X2
20 (20 − 1) 7,583
1 ( X i − X )2
1
(6 − 6,375) 2
−
= 4,7096
+
= 0,490
2
n (n − 1) ⋅ S X
20 (20 − 1) 7,583
Las precisiones son la amplitud del intervalo de confianza dividido por
dos.
Analizando las fórmulas de los errores típicos de las distribuciones muestrales de los coeficientes
vemos que estos están aproximadamente en una proporciona inversa a √. Cuando se cuadruplica el
tamaño muestral el error típico se divide aproximadamente por la mitad. Es fácil, pues, calcular a priori
el tamaño muestral cuando sabemos el Error Típico para un n y se desea reducir en una cierta cantidad,
29
x. el cálculo del nuevo n* es n/x2. Por ejemplo, para un n = 20 tenemos un Pl = 0,1799. Si queremos
reducir ese error 4 veces (es decir, ¼ o 0,25), el tamaño muestral deberá ser 20/0,252 = 320 sujetos.
Si lo que se desea es una reducción concreta del Error Típico para un n dado, es decir pasar de Pl a la
P
expresión Plx es: x y l[P x z . Por ejemplo, si se desea pasar de un Pl de 0,78 para un n = 50 a un
l
nuevo valor de Pl igual a 0,3, la muestra necesaria es n* = 50(0,78/0,3)2 = 338 sujetos.
8.4 Análisis de Regresión Múltiple
Como se ha señalado en el epígrafe de Introducción, en este tema sólo tratamos modelos lineales de
explicación del comportamiento de una VD en función de una o varias VI. Ya hemos desarrollado la
técnica de Análisis de Regresión Lineal Simple, y en este epígrafe ampliamos dicho modelo para más de
una VI, empezando por dos VI o variables predictoras. Como en el caso de una sola variable predictora,
se va a desarrollar con el mínimo aparato matemático posible. La técnica de cálculo con el modelo de
dos variables independientes es relativamente sencilla y se puede desarrollar con un calculadora
científica, aunque su modelo matemático, el mismo que el del Modelo Lineal General (MGL), del cual
los modelos de regresión y los modelos de análisis de la varianza son parte, requiere para su desarrollo
algebra de matrices, el cual queda fuera del alcance de este texto. Dado que, en la actualidad, todos
estos procedimientos de análisis se realizan con programas informáticos de análisis estadístico, el
interés estriba en saber leer e interpretar correctamente los resultados del análisis. Comenzaremos, con
el modelo más simple de regresión lineal múltiple que es el de dos variables independientes.
8.4.1 Regresión con dos Variables Independientes
Para la explicación vamos a servirnos de un ejemplo numérico que hace menos abstracto el modelo.
Supongamos que un psicólogo escolar quiere determinar qué factores pueden influir en el rendimiento
en matemáticas en uno de los cursos de educación secundaria. Supone que el tiempo que dedican al
estudio en general es importante, y quizás también su capacidad para el razonamiento abstracto. Para
llevar a cabo esta investigación, selecciona al azar una muestra de 15 estudiantes del colegio y registra
el tiempo semanal de estudio (variable X1) y les administra, además, un test de razonamiento abstracto
(variable X2). Las notas obtenidas por estos 15 escolares en el último examen que han realizado de
matemáticas le sirven como variable dependiente (Y). Los datos son los que se muestran en la Tabla 8.7
30
Tabla 8.7
Datos para el desarrollo del análisis con dos VI
Sujeto
Horas Estudio
(X1)
Test
Punt.
Razonamiento Matemáticas
(X2)
(Y)
1
8
19
54
2
9
18
52
3
6
14
34
4
9
24
63
5
9
19
46
6
9
16
44
7
12
17
50
8
9
14
52
9
6
23
57
10
11
21
53
11
10
17
56
12
13
19
67
13
9
24
57
14
9
19
54
15
11
17
51
El modelo de estimación lineal de la VD con dos VI’s, constará de dos coeficientes de regresión, uno
para cada VI, y una constante que será el valor estimado para la VD cuando son nulas las dos VI. No
obstante, como ya hemos explicado anteriormente, la constante, si no está el valor cero dentro del
rango de valores de las variables predictoras no se toma en consideración en el análisis. Es decir, si X1= 0
y X2 = 0 no forman parte de los rangos admitidos empíricamente por ambas variables, no tiene sentido
considerar el valor que adoptaría la constante en esos casos. El modelo de estimación es:
# $U U % $ % $&
(8.29)
Por lo que la VD se puede expresar como:
# % : $U U % $ % $& % :
(8.30)
Siendo B1 el coeficiente de regresión parcial para X1, B2 el coeficiente de regresión parcial para X2, y
B0 el intercepto con el eje de la Y cuando X1 y X2 valen 0, y ε los residuos una vez que se ha determinado
la función de estimación de la VD. Al igual que en regresión simple, estos coeficientes son los que hacen
mínimo el error cuadrático de predicción, es decir, minimizan las diferencias cuadráticas entre Y e Y’.
31
En primer lugar, antes de calcular los coeficientes de regresión parciales de la ecuación, llamados así
para remarcar que es el peso o efecto de una VI cuando el resto de las VI que están en la ecuación
permanecen constantes, en la Tabla 8.8 se muestran los estadísticos descriptivos de cada una de las
variables, los coeficientes de correlación entre las variables dos a dos (también llamados bivariados) y
las rectas de regresión simple entre cada predictor y la VD. Hemos simplificado la notación de los
coeficientes de correlación (ry1 representa la correlación entre la variable Y y el predictor X1, y el resto
siguen la misma pauta) y también de la regresión ( Y1' representa las estimaciones Y realizadas a partir de
X1 )
Tabla 8.8
Estadísticos descriptivos de los datos de la Tabla 8.7
Horas Estudio
(X1)
Test
Razonamiento
(X2)
Punt.
Matemáticas
(Y)
9,33
1,91
18,73
3,17
52,67
7,76
ry1
0,441
ry2
0,628
r12
-0,043
rY21 = 0,194
rY22 = 0,394
r122 = 0,002
Media
Desv. Típic.
Rectas de Regresión
Y'1 = 1,786 X1 + 36
Y'2 = 1,537 X2 + 23,867
Para facilitar el cálculo de los coeficientes de regresión parcial de la ecuación (8.29), comenzaremos, por
sencillez, obteniendo la ecuación de regresión en puntuaciones típicas o estandarizadas, cuya expresión
es:
5 kU U % k (8.31)
siendo β1 y β2 los coeficientes de regresión parcial estandarizados, y se obtienen mediante las siguientes
fórmulas:
32
kU U U
1 U
U U
k 1 U
(8.32)
Con los resultados de la Tabla 8.
kU k 0,441 0,6280,043
0,469
1 0,043
0,628 0,4410,043
0,649
1 0,043
Una vez determinados los coeficientes de regresión parcial estandarizados, se obtienen fácilmente los
coeficientes sin estandarizar mediante la relación:
$U kU
8
8U
8
$ k
8
(8.33)
siendo S1 y S2, las desviaciones típicas de las variables X1 y X2, respectivamente. Sustituyendo por los
valores de la Tabla 8.8 los coeficientes no estandarizados son:
$U 0,469
$ 0,649
7,76
1,899
1,91
7,76
1,587
3,17
Y la constante de la ecuación es:
$& 9 $U 9U $ 9
(8.34)
Sustituyendo por los valores correspondientes su valor es:
$& 52,67 1,8999,33 1,58718,73 5,217
33
Obtenidos los coeficientes, las funciones de estimación de la VD con coeficientes de regresión parcial
no estandarizados y estandarizados (es decir, expresada la función en puntuaciones directas y típicas),
son las siguientes:
# 1,899U % 1,587 % 5,217
# 0,469U % 0,649
Al ser dos las variables independientes, las estimaciones quedan situadas en un plano, que se conoce
como plano de regresión, del mismo modo que la línea de estimación en regresión simple se conoce
como línea de regresión. Algunas de las puntuaciones de la VD estarán por encima del plano y otras por
debajo, y esas distancias de cada punto de la VD al plano forman los residuos del modelo de estimación
(véase Figura 8.12).
Figura 8.12: tres vistas del conjunto de puntos y el plano de regresión. La zona azul representa el plano
visto “desde arriba”, la zona naranja representa el plano visto “desde abajo” . La tercera gráfica intenta
visualizar todos los puntos, tanto los que están situados por encima como los que están situados por
debajo del plano. En este caso, el plano se ve en “escorzo”. Los datos están representados por puntos
rojos.
El modelo ajustado, Y’, ya arroja una primera interpretación: cuando permanece constante X2, por
cada hora de estudio, la puntuación en matemáticas aumenta en promedio, 1,899 puntos, y cuando
permanece constante X1, por cada punto más en razonamiento abstracto, aumenta 1,587 la puntuación
e matemáticas
8.4.2 Ajuste del modelo. Medidas de asociación
En regresión simple, el ajuste del modelo viene dado por el coeficiente de determinación que es el
cuadrado del coeficiente de correlación de Pearson entre la VD y la VI, y ese coeficiente informaba de
qué porción de la variabilidad de la VD es explicada por, o atribuida a, la variabilidad de la VI. En el caso
de la regresión múltiple, las preguntas básicas que hay que responder son las siguientes:
• ¿Estiman bien la VD el conjunto de VI’s?
• ¿Cuánta variabilidad explica cada variable individualmente una vez que las otras variables han
aportado lo suyo?
34
Comencemos por responder a la primera pregunta, y para ello disponemos del denominado
coeficiente de correlación múltiple, R, y su cuadrado, el coeficiente de determinación, R2. Al igual que r
es el coeficiente de correlación entre dos variables, R es el coeficiente que correlaciona la VD con una
combinación óptima de dos o más variables independientes. Su fórmula de cálculo es:
U
% 2U U
H.U Q
1 U
(8.35)
Y de forma alternativa, una expresión si cabe más simple es la basada en los coeficientes de regresión
parcial estandarizados de la recta de regresión:
H.U kU U % k (8.36)
Aplicada la fórmula (8.32) a los datos del ejemplo, el valor de RY.12 es:
H.U 0,4690,441 % 0,6490,628 0,7836
El coeficiente de determinación es el cuadrado del coeficiente de correlación múltiple, y su
interpretación y cálculo es idéntica a la de la regresión simple: razón entre la varianza de los pronósticos
y la varianza de la VD.
H.U
8.U
H.U 8
(8.37)
En la Tabla 8.9 se muestran los valores de Y, los pronósticos y los residuos para los datos del ejemplo,
cuya función de estimación de Y, ya calculada, es:
# 1,899U % 1,587 % 5,217
Tabla 8.9
Puntuación en Matemáticas actual, estimada y residual para cada sujeto
Punt.
Matemáticas
(Y)
Estimaciones
(Y’12)
Residuos
(Y – Y’12)
54
50,562
3,438
52
50,874
1,126
34
38,829
-4,829
63
60,396
2,604
46
52,461
-6,461
44
47,7
-3,7
35
50
54,984
-4,984
52
44,526
7,474
57
53,112
3,888
53
59,433
-6,433
56
51,186
4,814
67
60,057
6,943
57
60,396
-3,396
54
52,461
1,539
51
53,085
-2,085
Varianza
60,238
36,991
23,247
Ejemplo de cálculo para el primer sujeto:
Y1 = 54 X 1 = 8 X 2 = 19
Y12' = 1.899 X 1 + 1.587 X 2 + 5.217 = 50.562
Y1 − Y12' = 54 − 50.562 = 3.438
A partir de los datos de la Tabla 8.9 se obtiene el coeficiente de determinación R2.
H.U
8·U
36,991
60,238 0,614
8
Es decir, la combinación de las dos variables (tiempo de estudio y razonamiento abstracto) se
atribuyen el 61,4% de la variabilidad de las puntuaciones obtenidas en matemáticas, y por tanto el
38,6% restante se debe a otros factores no relacionados linealmente con dichas puntuaciones. Vemos
que se cumple lo que denominamos Teorema de Pitágoras de la Regresión Lineal: la varianza de las
puntuaciones observadas es igual a la varianza de las puntuaciones estimadas más la varianza de los
residuos. En este caso, tomando los valores de las varianzas calculadas: 60,238 = 36,991 + 23,247.
El coeficiente R2 obtenido en la muestra no es un estimador insesgado de ρ2 en la población. Para
entender esto de forma intuitiva, podemos imaginar el caso en que una o más VI’s no contribuyen a la
explicación de la varianza de la VD en la población. Sin embargo, en la muestra, debido a las
fluctuaciones del proceso de muestreo, raramente se observa una situación en la que no haya
contribución de una VI a la varianza de la VD, aunque sea muy pequeña. Cuanto menor sea la muestra
mayor será la contribución a la VD, lo que provoca un aumento “artificial” de la R2, valor que no se
correspondería con el ρ2 en la población. Por esa razón, es preferible disponer de una estimación más
ajustada y realista de ρ2. Este ajuste, se conoce como R2 Ajustado que simbolizaremos mediante la R
mayúscula a la que se le superpone el signo virgulilla:
H|.U
1 1 H.U
1
)1
(8.38)
siendo n, el número de observaciones y p, el número de variables independientes o predictoras. Para el
caso de ejemplo, el valor de R2 Ajustado es:
36
H|.U
1 1 0,614
15 1
0,5498
15 2 1
Otro valor que informa del ajuste es el Error Típico (ya explicado para el caso bivariado) y que está
relacionado con R2 en el sentido de que cuando éste aumenta el Error Típico disminuye. De acuerdo a la
ecuación 8.14, y siendo las sumas de cuadrados las que se muestran en la Tabla 8.10, su valor para este
ejemplo es:
∑ 5
325,451
P< Q
Q
5,2078
)1
15 2 1
Tabla 8.10
Sumas de cuadrados total, residual y debidas a la regresión del ejemplo numérico
> ~
}= =
SCTotal
}= =5~
SCResiduos
> ~
}=5 =
843,333
325,451
517,968
SCRegresión
8.4.3 Correlación Semiparcial y Parcial
La segunda de las preguntas que hacíamos al comienzo del epígrafe anterior, es cómo determinar la
contribución de cada variable independiente a la explicación de la dependiente. La respuesta a esta
pregunta la proporciona la llamada correlación semiparcial, sr, y su cuadrado, sr2. Antes de explicar qué
son esas nuevas correlaciones que acaban de entrar en escena, piense el lector que cuando en un
modelo intervienen más de dos variables, las correlaciones que se calculan entre las variables dos a dos,
no son correlaciones “puras”, en el sentido de que no miden relaciones entre esas dos variables al
margen del influjo que las otras variables del modelo puedan tener sobre cada una de ellas. Estas
correlaciones que se calculan entre dos variables (correlaciones bivariadas) se denominan correlaciones
de orden cero, y a través del valor obtenido no se puede saber qué parte de la varianza de la VD es
capaz de explicar independientemente cada una de las VI’s, puesto que entre éstas también puede
haber relación. Por lo tanto, para saber qué parte de la VD explica cada VI al margen de las otras VI’s, es
necesario eliminar el influjo que sobre cada VI tienen el resto de las VI’s, para así poder determinar el
influjo único que esa VI tiene sobre la VD. Esta relación entre cada VI y la VD habiendo eliminado el
influjo del resto de las VI’s sobre cada VI es lo que se llama Coeficiente de Correlación Semiparcial.
¿Cómo se calcula este coeficiente? Ya sabemos, por todo lo explicado hasta el momento, que en un
modelo de regresión hay una proporción de varianza explicada y una proporción de varianza no
37
explicada que es la varianza de los residuos. La varianza explicada lo es en función de una cierta
combinación de las variables independientes; por consiguiente, si en un modelo, por ejemplo, con dos
predictoras X1 y X2, se ajusta una regresión de la 1 sobre la 2, se extraen los residuos y, por último, los
correlaciono con la VD, habré calculado el coeficiente de correlación semiparcial entre X1 y la VD
habiendo eliminado el influjo de X2 sobre la VD. Por otra parte, si se ajusta una regresión simple entre X2
y X1 (obsérvese el cambio de subíndices en relación a la frase anterior), se extraen los residuos y éstos se
correlacionan con la VD, habré calculado la correlación entre el predictor X2 y la VD, habiendo eliminado
el influjo de X1 sobre la VD.
Para llevar a cabo este cálculo de los coeficientes de correlación semiparcial no es necesario
proceder como hemos explicado en el párrafo anterior; hay fórmulas muy sencillas para ello, a partir de
las correlaciones de orden cero.
*U * U U
1 U
U U
(8.39)
1 U
y elevando al cuadrado estos valores se tiene la contribución que cada VI tiene sobre la VD habiendo
eliminado el influjo de las otras VI’s. En la Figura 8.13 se observa gráficamente, mediante un Diagrama
de Venn, estás contribuciones expresadas en forma de área compartida
Figura 8.13 Diagrama de Venn para un modelo de regresión con dos variables independientes
Tomando como referencia el diagrama de la Figura 8.13, las equivalencias entre las zonas designadas
con letras y los cuadrados de los coeficientes de correlación semiparcial, son las siguientes:
38
+ *U H.U
(8.40)
 * H.U
U
siendo:
€~=.~ ‚ % ƒ % „
…~= ‚ % „
…~=~ ƒ % „
Para el ejemplo numérico que sirve de base a la explicación, los cálculos de los coeficientes de
correlación semiparcial son los siguientes:
*U * 0,4406 0,62850,0431
1 0,0431
0,6285 0,44060,0431
1 0,0431
0,4681
0,6481
Estos valores elevados al cuadrado dan la proporción de varianza compartida por cada
predictora habiendo eliminado el influjo de la otra predictora sobre la misma.
+ *U 0,4681 0,2191
 * 0,6481 0,4200
El valor 0,46812 (0,2191) es a en el diagrama de la Figura 8.13, y 0,64812 (0,4200) es b. Estos dos
valores representan la contribución exclusiva que cada variable hace a la explicación de la dependiente.
La porción c, es la proporción de varianza de la VD estimada conjuntamente (es decir, de forma
redundante) por las dos variables. Sin embargo esta proporción es de muy difícil interpretación.
El otro coeficiente que se calcula en los modelos de regresión, y que además sirve para determinar
cuál es la primera variable que se incorpora al modelo cuando se realiza variable a variable3, es el
denominado coeficiente de correlación parcial, pr. La diferencia con el semiparcial es que en el parcial
3
Hay varios métodos para la introducción de variables en el análisis de regresión. Uno de estos métodos es el
denominado Stepwise (Pasos Sucesivos) y en él se introduce en primer lugar la variable con mayor correlación con
el criterio, y a partir de ahí, sucesivamente la variable que mayor correlación parcial tenga con el criterio. El
proceso de introducción de variable se detiene cuando la siguiente variable independiente que va a entrar no
aporta un plus significativo a la explicación de la VD.
39
se elimina el influjo de los predictores tanto de la VI objeto de correlación como de la VD. Es decir, es
una correlación entre residuos.
En el modelo de dos variables, si se ajusta una recta entre Y y X2, y nos quedamos con los residuos, y
si se ajusta una recta entre X1 y X2, y nos quedamos también con los residuos, podemos correlacionar
ambos residuos. De esta forma obtendremos la correlación parcial entre Y y X1. A partir de aquí se ve
claro que esta es la correlación “pura” entre dos variables, puesto que de ambas se ha extraído el influjo
de terceras variables. Al igual que en la correlación semiparcial, no es necesario el cálculo de los
residuos, pues se pueden obtener a partir de los correlaciones de orden cero entre pares de variables.
)U ) U U
1
1 U
U U
(8.41)
1 U
1 U
El cuadrado de estos coeficientes (p.e. pr1) se interpreta como la proporción de la varianza de la VD
(Y) no asociada con X2 que sí está asociada a X1.
Otra manera de calcular esta proporción de varianza es por medio de las porciones representadas en
el diagrama de Venn de la Figura 8.13.
)U +
H.U
+%,
1 
H.U
U
) %,
1 U
(8.42)
Aplicando las fórmulas a los datos del ejemplo, los coeficientes son:
)U ) 0,441 0,6280,043
1
0,628
1
1
0,441
1
0,043
0,043
0,628 0,4410,043
0,6018 ; )U 0,6018 0,3622
0,7219 ; ) 0,7219 0,5211
Si se hubiera realizado una regresión paso a paso, es decir, introduciendo las variables por su relación
con la VD, la primera que habría entrado en el modelo hubiera sido la variable X2 (en el ejemplo,
Razonamiento abstracto) que es la que presenta mayor correlación con la VD.
En resumen, por los resultados del coeficiente de correlación parcial y semiparcial al cuadrado, en el
modelo obtenido está clara la contribución de ambas variables a la explicación de la puntuación en
matemáticas. El cuadrado de los coeficientes pr señala la proporción de varianza de una VI asociada con
la parte de la VD que no está asociada con la otra VI. En nuestro caso es mayor la de razonamiento
abstracto que la de tiempo de estudio (52,11% y 36,22%, respectivamente). Además, el modelo es
bueno (luego veremos su significación estadística, por medio de los contrastes) porque ambas variables
independientes tienen una buena relación con la dependiente, y sin embargo, entre ellas no hay apenas
40
relación (es, pues, un modelo casi ideal4). ¿Cómo se manifiesta numéricamente la ausencia de relación
entre las variables independientes?, pues sencillamente en que el coeficiente de determinación, R2
(0,6141), tiene un valor aproximado (siempre menor) que la suma de los cuadrados de los coeficientes
de correlación semiparcial (0,2191+0,4200 = 0,6391 < 0.6141). La diferencia entre ambos valores es la
parte redundante del diagrama de Venn (zona c) que el modelo de regresión elimina cuando se ajusta
con el conjunto completo de variables independientes.
4
Los datos del ejemplo son ficticios y han sido simulados para lograr este efecto de correlación media-alta de
las variables predictoras con la VD y ausencia de correlación entre las predictoras. En análisis de regresión, cuando
las VI’s correlacionan se dice que hay “colinealidad”, y cuanto mayor es ésta peor es el modelo de regresión.
41
EL RESTO DEL CAPÍTULO (HASTA LOS EJERCICIOS DE AUTOEVALUACIÓN) ES OPCIONAL
8.4.4 Inferencias sobre la Regresión Múltiple
Siguiendo el mismo proceso que en el caso de la regresión simple, el contraste se puede realizar bien
a través de la confección de los intervalos de confianza o bien mediante estadísticos de contraste, como
la F de la tabla del ANOVA, resultado del cociente entre la media cuadrática de la regresión y la media
cuadrática de los residuos.
El IC para R2 (Olkin y Finn, 1995), se construye a partir del error típico de R2, cuya expresión es la
siguiente:
4H 1 H ) 1
P†B Q
1 % 3
(8.43)
siendo n el número de observaciones en la muestra y p el número de variables independientes.
Aplicado a los datos del ejemplo,
40,61411 0,6141 15 2 1
P†B Q
0,1143
15 115 % 3
siendo el IC de R2 al 95%: 0,6141 ± (2,16)(0,1143) = (0,367 ; 0,861) siendo 2,16 es el valor crítico de la
distribución t con 15-2 = 13 grados de libertad. A partir de estos límites se rechazaría la hipótesis nula de
que R2 en la población es igual a 0 ya que los límites no incluyen este valor.
Al mismo resultado llegaremos a través del estadístico F de la tabla ANOVA, valor que, además de
obtenerse como el cociente de las medias cuadráticas de la regresión y del residuo, se puede calcular
también con la siguiente fórmula basada en R2:
W
) 1
H·U
)
1 H·U
(8.44)
Aplicando a los datos del ejemplo:
W
0,614115 2 1
9,548
1 0,61412
Igual al que se obtiene en la tabla del ANOVA (Tabla 8.11)
Tabla 8.11
Estadísticos de la regresión de los datos de la Tabla 8.7, y contraste de R2
Estadísticas de la regresión
Coeficiente de correlación múltiple
Coeficiente de determinación R2
0,7836
0,6141
42
R2 ajustado
Error típico residual (P< )
Observaciones
ANOVA de la Regresión
FV
SC
Regresión
517,968
Residuos
325,451
Total
843,333
GL
2
12
14
0,5498
5,2078*
15
MC
258,984
27,121
F
9,549
Prob.
0,003
* El valor de P< es la raíz cuadrada de la MC de los residuos.
Respecto de los coeficientes de regresión parcial, tanto estandarizados como no estandarizados
el contraste se realiza del mismo modo que en la regresión simple, y la diferencia estriba en que hay que
calcular un error típico para cada coeficiente de cada variable independiente. La fórmula es la siguiente:
Pl‡ 8
1
1 H.U
Q
Q
87 1 H7 ) 1
(8.45)
donde H.U
es el coeficiente de determinación, H7, es el coeficiente de determinación de la regresión
de la variable predictora i respecto del resto de variables predictoras; es decir, la proporción de varianza
de la predictora i explicada por una combinación óptima del resto de predictoras (en el caso del
ejemplo, al ser sólo dos las predictoras, el valor de H7 es el mismo para calcular el error típico de ambos
coeficientes de regresión parcial). Por último, SY es la desviación típica de la variable dependiente y Si es
la desviación típica del predictor i.
Para los datos del ejemplo los errores típicos para contrastar los coeficientes de regresión parcial
son:
σB =
1
σB =
1
SY
1
S X 1 1 − r122
SY
SX 2
1
1 − r122
1 − RY2⋅12
7,76
1
1 − 0,6141
=
= 0,7275
2
n − p − 1 1,91 1 − (−0,043) 15 − 2 − 1
1 − RY2⋅12
7,76
1
1 − 0,6141
=
= 0,4391
2
n − p − 1 3,17 1 − (−0,043) 15 − 2 − 1
A partir de estos valores es sencillo calcular el IC para cada coeficiente de regresión, y comprobar si
dentro del intervalo se encuentra el valor 0. Si no es el caso, se rechazará la hipótesis nula de que los
coeficientes en la población son igual a cero. En la Tabla 8.12 se presenta el resultado de estos
contrastes.
Tabla 8.12 Contrastes de los coeficientes de regresión parcial*
Coeficientes
Error
típico
t
Prob.
Li (95%)
Ls (95%)
43
Horas Estudio
Test
Razonamiento
1,8991
0,7275
2,6102
0,0228
0,3139
3,4842
1,5868
0,4391
3,6138
0,0036
0,6300
2,5435
* Los límites, se obtienen restando y sumando al valor del coeficiente, el producto entre el error típico y el valor de t para un
nivel de confianza del 95% y n-p-1 grados de libertad (en el caso del ejemplo, este valor es 2,179). No se ha incluido el contraste
de la constante
Por último, quedaría el contraste de las correlaciones parcial y semiparcial. Como se han visto en la
fórmulas estos dos coeficientes difieren en su cálculo solo en el denominador por lo que o los dos son
igual a cero o los dos son diferentes de cero. Por ello, el estadístico de contraste se calcula sólo para uno
de los coeficientes, en este caso el semiparcial. La fórmula es:
)1
/7 *7 Q
1 H
(8.46)
donde sri es la correlación semiparcial entre la variable i y la variable dependiente.
Para los datos del ejemplo, los valores de t para los dos coeficientes de correlación semiparcial son:
15 2 1
/U 0,4681Q
2,6102
1 0,6141
15 2 1
/ 0,6481Q
3,6138
1 0,6141
Que son los valores del estadístico t para los coeficientes de regresión parcial que se muestran en la
Tabla 8.12.
8.5 Ejercicio práctico
Una vez explicados los fundamentos básicos del análisis de regresión (hemos dejado al margen los
diferentes métodos que hay para desarrollar el análisis, el estudio de los casos de influencia o el análisis
de los residuos, por exceder el alcance de este curso) es importante que el lector vea una salida de
resultados de una análisis de regresión realizado con un programa informático de análisis estadístico, e
identificar los elementos que se han expuesto en el capítulo.
Los datos de este ejercicio está adaptado del texto de Hair, Anderson, Tatham y Black (2001)
“Análisis Multivariado”, y se refieren al estudio que una empresa ficticia (HATCO) realiza para
determinar el nivel de fidelidad de sus clientes, a partir de un conjunto de variables predictoras o
independientes, todas ellas cuantitativas, que se presentan en el Cuadro 8.2. El término Métrica, a la
derecha del nombre de la variable, señala que es una variable de tipo cuantitativo.
Cuadro 8.2 Características de las variables del ejercicio
44
X1
Velocidad de entrega
Métrica
X2
Nivel de precios
Métrica
X3
Flexibilidad de precios
Métrica
X4
Imagen del fabricante
Métrica
X5
Servicio conjunto
Métrica
X6
Imagen de fuerza de ventas
Métrica
X7
Calidad de producto
Métrica
X8
Nivel de fidelidad
Métrica
X9
Nivel de satisfacción
Métrica
Percepciones de HATCO
Cada una de estas variables, excepto el Nivel de fidelidad (X8), se midió con una escala de
puntuación gráfica donde se dibujó una línea entre dos puntos separados por diez centímetros que se
denominaron «Pobre» y «Excelente»:
Pobre
Excelente
Los encuestados señalan su percepción haciendo una marca en la línea. La marca se mide y se
registra la distancia desde el punto que se consideró cero, en este caso, “Pobre”. La medición se realizó
en centímetros. El resultado fue una escala que iba desde cero a diez, redondeado a un único decimal.
Los siete atributos de HATCO puntuados por los encuestados y que sirven de VI’s son los siguientes:
X1
Velocidad de entrega: tiempo que transcurre hasta que se entrega el producto, una vez que
se hubo confirmado el pedido.
X2
Nivel de precio: nivel de precios percibido por los clientes industriales.
X3
Flexibilidad de precios: la disposición percibida en los representantes de HATCO para
negociar el precio de todas las compras.
X4
Imagen del fabricante: imagen conjunta del fabricante/distribuidor.
X5
Servicio: nivel conjunto de servicio necesario para mantener una relación satisfactoria entre el
vendedor y el comprador.
X6
Imagen de la fuerza de ventas: imagen conjunta de la fuerza de ventas del fabricante.
X7
Calidad del producto: nivel de calidad percibido en un producto particular (por ejemplo, el
acabado o el rendimiento).
X9
Nivel de satisfacción: satisfacción del comprador con las compras anteriores realizadas a
HATCO, medidas en el mismo gráfico de la escala de clasificación de las entradas X1 a X7
La VD es:
X8 Nivel de fidelidad: cuánto se compra a HATCO del total del producto de la empresa, medido
en una escala porcentual, que va desde 0 al 100 por cien.
45
46
Datos del ejercicio de Análisis de Regresión Múltiple
id
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
x1
4,10
1,80
3,40
2,70
6,00
1,90
4,60
1,30
5,50
4,00
2,40
3,90
2,80
3,70
3,20
4,90
4,70
3,30
3,00
2,40
2,40
5,20
3,50
3,00
2,80
5,20
3,40
2,40
x2
0,60
3,00
5,20
1,00
0,90
3,30
2,40
4,20
1,60
3,50
1,60
2,20
1,40
1,50
4,10
1,80
1,30
0,90
4,00
1,50
1,50
1,30
2,80
3,20
3,80
2,00
3,70
1,00
x3
6,90
6,30
5,70
7,10
9,60
7,90
9,50
6,20
9,40
6,50
8,80
9,10
8,10
8,60
5,70
7,70
9,90
8,60
9,10
6,70
6,60
9,70
9,90
6,00
8,90
9,30
6,40
7,70
x4
4,70
6,60
6,00
5,90
7,80
4,80
6,60
5,10
4,70
6,00
4,80
4,60
3,80
5,70
5,10
4,30
6,70
4,00
7,10
4,80
4,80
6,10
3,50
5,30
6,90
5,90
5,70
3,40
x5
2,40
2,50
4,30
1,80
3,40
2,60
3,50
2,80
3,50
3,70
2,00
3,00
2,10
2,70
3,60
3,40
3,00
2,10
3,50
1,90
1,90
3,20
3,10
3,10
3,30
3,70
3,50
1,70
x6
2,30
4,00
2,70
2,30
4,60
1,90
4,50
2,20
3,00
3,20
2,80
2,50
1,40
3,70
2,90
1,50
2,60
1,80
3,40
2,50
2,50
3,90
1,70
3,00
3,20
2,40
3,40
1,10
x7
5,20
8,40
8,20
7,80
4,50
9,70
7,60
6,90
7,60
8,70
5,80
8,30
6,60
6,70
6,20
5,90
6,80
6,30
8,40
7,20
7,20
6,70
5,40
8,00
8,20
4,60
8,40
6,20
x8
32,00
43,00
48,00
32,00
58,00
45,00
46,00
44,00
63,00
54,00
32,00
47,00
39,00
38,00
38,00
40,00
55,00
41,00
55,00
36,00
36,00
54,00
49,00
43,00
53,00
60,00
47,00
35,00
x9
4,20
4,30
5,20
3,90
6,80
4,40
5,80
4,30
5,40
5,40
4,30
5,00
4,40
5,00
4,40
5,60
6,00
4,50
5,20
3,70
3,70
5,80
5,40
3,30
5,00
6,10
3,80
4,10
id
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
x1
3,10
3,40
5,40
3,70
4,50
2,80
3,80
2,90
4,90
4,30
2,30
3,10
5,10
4,10
1,10
3,70
4,20
1,60
5,30
2,30
5,60
5,20
1,00
4,50
2,30
2,60
2,50
2,10
x2
1,90
3,90
2,10
0,70
4,10
2,40
0,80
2,60
4,40
1,80
4,50
1,90
1,90
1,10
2,00
1,40
2,50
4,50
1,70
3,70
2,20
1,30
1,90
1,60
3,70
3,00
3,10
3,50
x3
10,00
5,60
8,00
8,20
6,30
6,70
8,70
7,70
7,40
7,60
8,00
9,90
9,20
9,30
7,20
9,00
9,20
6,40
8,50
8,30
8,20
9,10
7,10
8,70
7,60
8,50
7,00
7,40
47
x4
4,50
5,60
3,00
6,00
5,90
4,90
2,90
7,00
6,90
5,40
4,70
4,50
5,80
5,50
4,70
4,50
6,20
5,30
3,70
5,20
3,10
4,50
4,50
4,60
5,00
6,00
4,20
4,80
x5
2,60
3,60
3,80
2,10
4,30
2,50
1,60
2,80
4,60
3,10
3,30
2,60
3,60
2,50
1,60
2,60
3,30
3,00
3,50
3,00
4,00
3,30
1,50
3,10
3,00
2,80
2,80
2,80
x6
3,20
2,30
1,40
2,50
3,40
2,60
2,10
3,60
4,00
2,50
2,20
3,10
2,30
2,70
3,20
2,30
3,90
2,50
1,90
2,30
1,60
2,70
3,10
2,10
2,50
2,80
2,20
2,30
x7
3,80
9,10
5,20
5,20
8,80
9,20
5,60
7,70
9,60
4,40
8,70
3,80
4,50
7,40
10,00
6,80
7,30
7,10
4,80
9,10
5,30
7,30
9,90
6,80
7,40
6,80
9,00
7,20
x8
55,00
43,00
53,00
41,00
50,00
32,00
39,00
47,00
62,00
46,00
50,00
54,00
60,00
47,00
40,00
45,00
59,00
46,00
58,00
49,00
55,00
60,00
39,00
56,00
37,00
53,00
43,00
36,00
x9
4,90
4,70
3,80
5,00
5,50
3,70
3,70
4,20
6,20
5,60
5,00
4,80
6,10
5,30
3,40
4,90
6,00
4,50
4,30
4,80
3,90
5,10
3,30
5,10
4,40
5,60
3,70
4,30
29
30
31
32
33
34
35
1,80
4,00
0,00
1,90
4,90
5,00
2,00
3,30
0,90
2,10
3,40
2,30
1,30
2,60
7,50
9,10
6,90
7,60
9,30
8,60
6,50
4,50
5,40
5,40
4,60
4,50
4,70
3,70
2,50
2,40
1,10
2,60
3,60
3,10
2,40
2,40
2,60
2,60
2,50
1,30
2,50
1,70
7,60
7,30
8,90
7,70
6,20
3,70
8,50
39,00
46,00
29,00
40,00
53,00
48,00
38,00
3,60
5,10
3,90
3,70
5,90
4,80
3,20
64
65
66
67
68
69
70
2,90
4,30
3,10
1,90
4,00
6,10
2,00
1,20
2,50
4,20
2,70
0,50
0,50
2,80
7,30
9,30
5,10
5,00
6,70
9,20
5,20
48
6,10
6,30
7,80
4,90
4,50
4,80
5,00
2,00
3,40
3,60
2,20
2,20
3,30
2,40
2,50
4,00
4,00
2,50
2,10
2,80
2,70
8,00
7,40
5,90
8,20
5,00
7,10
8,40
34,00
60,00
43,00
36,00
31,00
60,00
38,00
4,00
6,10
5,20
3,60
4,00
5,20
3,70
8.5.1 Resultados
En primer lugar veremos los estadísticos descriptivos de las variables, así como la matriz de
correlaciones, con su significación estadística (como criterio, piense el lector que una probabilidad
mayor de 0,05 supone la aceptación de que, en la población las dos variables en cuestión no están
relacionadas).
Estadísticos descriptivos
Media
45,9000
Desviación
típica
8,97686
Velocidad de entrega
3,4114
1,33466
70
Nivel de precios
2,3686
1,17825
70
Flexibilidad de precios
7,8571
1,33694
70
Imagen de fabricante
5,1686
1,07158
70
Servicio conjunto
2,8771
,72375
70
Imagen de fuerza de ventas
2,6643
,75662
70
Calidad de producto
7,0743
1,57973
70
Nivel de satisfacción
4,6971
,85651
70
Nivel de fidelidad
Correlación de Nivel de
Pearson
fidelidad
Sig.
(unilateral)
Nivel de Velocidad
fidelidad de entrega
1,000
,656
Nivel de Flexibilidad Imagen de
precios
de precios fabricante
,100
,564
,236
N
70
Servicio
conjunto
,709
Imagen de
fuerza de
ventas
,277
Calidad de
Nivel de
producto satisfacción
-,182
,696
Velocidad de
entrega
,656
1,000
-,363
,512
,065
,625
,087
-,493
,637
Nivel de precios
,100
-,363
1,000
-,461
,278
,490
,186
,468
-,004
Flexibilidad de
precios
,564
,512
-,461
1,000
-,038
,101
,054
-,415
,567
Imagen de
fabricante
,236
,065
,278
-,038
1,000
,302
,776
,196
,512
Servicio
conjunto
,709
,625
,490
,101
,302
1,000
,236
-,079
,599
Imagen de
fuerza de
ventas
,277
,087
,186
,054
,776
,236
1,000
,185
,365
Calidad de
producto
-,182
-,493
,468
-,415
,196
-,079
,185
1,000
-,282
Nivel de
satisfacción
,696
,637
-,004
,567
,512
,599
,365
-,282
1,000
.
,000
,204
,000
,025
,000
,010
,065
,000
,000
.
,001
,000
,297
,000
,237
,000
,000
Nivel de
fidelidad
Velocidad de
entrega
49
Nivel de precios
,204
,001
.
,000
,010
,000
,061
,000
,487
Flexibilidad de
precios
,000
,000
,000
.
,378
,202
,327
,000
,000
Imagen de
fabricante
,025
,297
,010
,378
.
,006
,000
,052
,000
Servicio
conjunto
,000
,000
,000
,202
,006
.
,024
,258
,000
Imagen de
fuerza de
ventas
,010
,237
,061
,327
,000
,024
.
,062
,001
Calidad de
producto
,065
,000
,000
,000
,052
,258
,062
.
,009
Nivel de
satisfacción
,000
,000
,487
,000
,000
,000
,001
,009
.
A continuación, se presenta el modelo ajustado cuando se introducen todas las variables predictoras
simultáneamente (Método Introducir). Primero se muestra el ajuste del modelo y luego los coeficientes.
Ajuste del modelo
2
R
a
,874
Error típico de la
estimación
4,63769
2
R
,764
R corregida
,733
Tabla ANOVA de la Regresión
Regresión
Residual
Total
Suma de
cuadrados
4248,304
g.l.
8
1311,996
5560,300
Media
cuadrática
531,038
61
69
F
24,690
Sig.
,000
21,508
En la tabla del ANOVA de la Regresión, la probabilidad asociada al valor del estadístico F se denomina
Sig., que quiere decir Significación Estadística, es decir, la probabilidad de encontrar un valor de F igual o
mayor que el obtenido a partir de los datos muestrales.
Por último, se presenta la tabla con los coeficientes de regresión parcial estandarizados y no
estandarizados y su significación estadística. En la misma tabla se muestran los valores de las
correlaciones de orden cero (coeficiente de correlación de Pearson, ya visto en la matriz de
correlaciones) y los coeficientes de correlación parcial y semiparcial.
Coeficientes no
estandarizados
(Constante)
Velocidad de
entrega
B
-8,374
Error típ.
6,165
-1,537
2,875
Coeficientes
tipificados
Beta
-,229
Correlaciones
t
-1,358
-,535
Sig.
Orden cero
,179
,595
,656
Parcial
-,068
Semiparcial
-,033
50
Nivel de
precios
Flexibilidad
de precios
Imagen de
fabricante
-1,870
2,955
-,245
-,633
,529
,100
-,081
-,039
3,143
,686
,468
4,580
,000
,564
,506
,285
-,744
1,098
-,089
-,677
,501
,236
-,086
-,042
Servicio
conjunto
10,983
5,678
,886
1,934
,058
,709
,240
,120
Imagen de
fuerza de
ventas
1,584
1,237
,134
1,280
,205
,277
,162
,080
Calidad de
producto
,545
,454
,096
1,203
,234
-,182
,152
,075
Nivel de
satisfacción
,728
1,453
,069
,501
,618
,696
,064
,031
Dejando al margen la constante o intercepto, cuyo valor no es significativo (Sig. 0,179 > 0,05), hay
sólo dos coeficientes que puede decirse que son significativos: la flexibilidad de los precios y el servicio
conjunto (aunque éste está en el límite de significación). El resto no son estadísticamente relevantes.
¿Qué significa esto? De acuerdo al valor de R2, la combinación de todas las variables independientes
incorporadas al modelo explican el 76,4% del nivel de fidelidad del cliente, pero, a la vista de la
significación de los coeficientes, casi toda esta variabilidad sería explicada por no más de dos variables,
aquellas cuyos coeficientes de regresión parcial resultan significativos, que son las que presentan un
coeficiente de correlación parcial más alto con la VD (0,506 y 0,240).
Con este método de incorporación de todas las variables conjuntamente, en realidad no se puede
determinar cuál es la contribución de cada variable al modelo en términos de varianza explicada, y si
esa contribución resulta o no significativa. Por razón de parsimonia científica, es preferible el método de
introducción sucesiva de variables (denominado, como ya se ha dicho, Stepwise) y que da un ajuste
óptimo del modelo con el menor número de variables. En los siguientes cuadros de resultados veremos
cuál es el modelo final cuando se calcula la regresión con este método. Observe el lector, que hay un
estadístico nuevo en el cuadro de bondad de ajuste, que se denomina Cambio en R cuadrado, que
especifica el aumento en este estadístico cada vez que se introduce una variable. La introducción de
variables se detiene cuando la siguiente que debería de entrar no aporta un incremento significativo en
el R cuadrado.
8.5.2 Método Stepwise (Pasos Sucesivos)
Además de los cuadros con los estadísticos descriptivos y la matriz de correlaciones, el primer cuadro
que se muestra en la salida de resultados es el de la lista de variables introducidas en el modelo en los
diferentes pasos.
51
Variables introducidas/eliminadas
Variables
introducidas
Servicio conjunto
Modelo
1
2
Variables
eliminadas
Flexibilidad de
precios
Método
. Por pasos
criterio:
Prob. de F para entrar <= ,050,
Prob. de F para salir >= ,100.
. Por pasos
criterio:
Prob. de F para entrar <= ,050,
Prob. de F para salir >= ,100.
La variable Servicio Conjunto es la que mayor correlación tiene con la VD (0,709), es decir, la variable
que explica más proporción de varianza de ésta. El programa ajusta un primer modelo en el que sólo
incluye esta variable. Una vez introducida esta variable (Servicio conjunto) comprueba cuál de las demás
variables correlaciona más con la parte no explicada del primer modelo ajustado, o sea, con los residuos,
y esta resulta ser la Flexibilidad de precios5. Entonces el programa, antes de incorporar esta variable al
modelo, calcula si el cambio que se va a producir en R2 es o no significativo; si lo es, rehace el modelo
con las dos variables conjuntamente y si no el proceso se detiene y tendríamos un modelo con el
número de variables que producen cambios significativos en R2. En este caso, el cambio sí es
significativo y así se puede ver en la siguiente tabla.
Modelo
1
R
,709a
R
cuadrado
,502
2
,864b
,747
R
cuadrado
Error típ. de
corregida la estimación
,495
6,37899
,740
Estadísticos de cambio
Cambio en R
cuadrado
,502
Cambio en F
68,645
,245
64,908
4,58006
1
gl2
68
Sig. Cambio
en F
,000
1
67
,000
gl1
Tabla del ANOVA para los diferentes modelos ajustados
Modelo
1
Regresión
Suma de
cuadrados
2793,280
Residual
Total
Regresión
2767,020
5560,300
4154,843
2
gl
1
68
69
2
Media
cuadrática
2793,280
F
68,645
Sig.
,000
40,691
2077,422
99,033
,000
5
En concreto lo que el programa hace es que, una vez que ha incorporado la primera, realiza un ajuste de
regresión entre cada VI y el resto, y entre estas y la VD, y luego correlaciona los residuos. Los residuos de la VI que
correlacione más con los residuos de la VD es la siguiente en entrar en el modelo.
52
Residual
Total
1405,457
5560,300
Coeficientes no
estandarizados
Modelo
1
2
B
20,607
8,791
Error típ.
3,147
1,061
(Constante)
Servicio
conjunto
-3,835
8,165
Flexibilidad
de precios
3,340
(Constante)
Servicio
conjunto
67
69
20,977
Coeficientes
tipificados
Beta
Correlaciones
,709
t
6,549
8,285
Sig.
,000
,000
3,783
,766
,658
-1,014
10,663
,415
,497
8,057
Orden
cero
Parcial
Semiparcial
,709
,709
,709
,314
,000
,709
,793
,655
,000
,564
,701
,495
El valor del cambio en R2 al incorporar la variable Flexibilidad de Precios es exactamente el cuadrado
de su coeficiente de correlación semiparcial (0,4952 = 0,245) y ese es el significado de sr2: aumento en la
proporción de varianza explicada cuando se incorpora esa variable al modelo.
Lógicamente, el criterio para incorporar una nueva variable al modelo es que el cambio en R2 sea
significativo, y se contrasta con el estadístico
W
Hˆ‰Š‹7O
^ ) 1
0,24570 2 1
64,908
Œ1 H 11 0,747
donde q es el número de nuevas variables que entran en el modelo.
Otro método de construcción del modelo óptimo es el introducir al principio todas las variables
predictoras en el modelo e ir sacando una a una hasta quedarse con las que realmente estiman
significativamente la VD. Este método se denomina Eliminación hacia Atrás, y en el cuadro siguiente
podemos ver el cambio que se produce en R2 a medida que se eliminan variables. Al principio están las
ocho predictoras (por eso el valor 8 de grados de libertad en gl1), y luego se van eliminando según que
tengan una menor correlación parcial con el nivel de fidelidad. Al final se queda el modelo en sólo dos
predictoras, igual que en el método de pasos sucesivos. Lo interesante de esta tabla es que ningún
decremento de R2 es realmente significativo. No obstante, a partir del modelo 7 (con las dos variables
conocidas, servicio conjunto y flexibilidad de precios), si se extrajera una de las dos variables el cambio
sí sería significativo, y esa es la razón por la que el proceso se para.
53
Resumen del modelo
Estadísticos de cambio
R
Error típ.
Cambio
R
cuadrado
de la
en R
cuadrado corregida estimación cuadrado
,764
,733
4,63769
,764
8
61
Sig.
Cambio
en F
,000
,251
1
61
,618
-,001
,221
1
62
,640
4,55177
-,001
,186
1
63
,668
4,52720
-,001
,300
1
64
,586
,746
4,52808
-,004
1,026
1
65
,315
,740
4,58006
-,009
2,547
1
66
,115
Modelo
1
R
a
,874
2
,874b
,763
,736
4,60960
-,001
3
,873
c
,762
,740
4,58100
4
,873
d
,762
,743
5
,872e
,760
,746
6
,870
f
,757
7
,864
g
,747
Cambio
en F
24,690
gl1
gl2
a. Variables predictoras: (Constante), Nivel de satisfacción, Nivel de precios, Imagen de fuerza de ventas, Calidad
de producto, Flexibilidad de precios, Velocidad de entrega, Imagen de fabricante, Servicio conjunto
b. Variables predictoras: (Constante), Nivel de precios, Imagen de fuerza de ventas, Calidad de producto,
Flexibilidad de precios, Velocidad de entrega, Imagen de fabricante, Servicio conjunto
c. Variables predictoras: (Constante), Nivel de precios, Imagen de fuerza de ventas, Calidad de producto,
Flexibilidad de precios, Velocidad de entrega, Servicio conjunto
d. Variables predictoras: (Constante), Nivel de precios, Imagen de fuerza de ventas, Calidad de producto,
Flexibilidad de precios, Servicio conjunto
e. Variables predictoras: (Constante), Imagen de fuerza de ventas, Calidad de producto, Flexibilidad de precios,
Servicio conjunto
f. Variables predictoras: (Constante), Imagen de fuerza de ventas, Flexibilidad de precios, Servicio conjunto
g. Variables predictoras: (Constante), Flexibilidad de precios, Servicio conjunto
Otro detalle de interés son los valores del Error Típico de Estimación, que es mayor cuando están
todas las variables independientes en el modelo que cuando sólo están las dos realmente explicativas. El
error es pensar que cuantas más variables tengamos mejor se explica la VD, pero se ve claramente que
no es el caso. Para estos datos, el error aumenta proporcionalmente el 1,26% (4,63769 - 4,58006)/
4,58006 = 0,0126) de tener las dos predictoras en el modelo a tener las ocho.
En resumen, aparte de las variables mencionadas, el resto de variables no aportan cambios
significativos a la explicación de la VD y por tanto no son tenidos en cuenta en el modelo. Por tanto, la
fidelidad de los clientes de la empresa estudiada es función, sobre todo, del Servicio Conjunto que
ofrece la empresa, lo que explica un 50,2% de la fidelidad mientras que la percepción de la flexibilidad
de precios añade un 24,5% más a la explicación, lo cual hace que entre ambas se explique el 74,7% de la
fidelidad. A partir de estos resultados, los analistas y directivos de la empresa tienen bastantes
elementos para diseñar una estrategia de fidelización actuando sobre las variables que según los
clientes no añaden valor a ésta.
54
8.6 Resumen
El análisis de los diseños ex post facto trata de determinar cómo un conjunto de variables, que
llamamos independientes, predictoras o explicativas, pueden explicar el comportamiento de la variable
objeto de estudio, que llamamos dependiente o criterio. Ello se ha realizado en tres pasos:
•
•
•
Ajuste del modelo de regresión para estimar la VD. Sólo se han tratado ajustes de modelo
lineales, es decir, modelos en que la VD es una función lineal de la o las VI’s. Cuando sólo hay
una VI, el modelo se conoce como de Regresión Lineal Simple y cuando hay varias VI’s, como
de Regresión Lineal Múltiple.
Cálculo de la bondad del modelo ajustado. El estadístico que cuantifica el ajuste se
denominado coeficiente de determinación y su valor oscila entre 0 y 1, e informa de la
proporción en que la o las VI’s explican la VD. En el caso de la regresión simple, este valor es
el cuadrado del coeficiente de correlación de Pearson, y en el caso de la regresión múltiple
este valor es el cuadrado del coeficiente de correlación múltiple. La parte no explicada por el
modelo de regresión es aquella que no está relacionada linealmente con la VD.
Contraste de significación de los estadísticos del modelo: Coeficiente de determinación,
coeficientes de regresión parcial y, en el caso de la regresión múltiple, coeficientes de
correlación semiparcial y parcial. Para el coeficiente de determinación, R2, el contraste se
basa en la comparación de las medias cuadráticas de la regresión y las medias cuadráticas del
error, expresado este contraste mediante la tabla del ANOVA. Además, se ha visto cómo
realizar los contrastes de los coeficientes de regresión parcial y de correlación semiparcial y
parcial.
Los diferentes coeficientes que han aparecido en el capítulo son:
•
•
•
•
•
•
R, que expresa la correlación entre la VD (Y) y la mejor función lineal de las VI’s (Xi’s)
R2, que se interpreta como la proporción de varianza de VD asociada a la combinación lineal
de las VI’s. También se interpreta como la reducción proporcional del error inicial de la VD
cuando se ajusta un modelo de estimación con las VI’s.
sri, coeficiente de correlación semiparcial, expresa la correlación entre Y y Xi, cuando de ésta
se ha extraído la que mantiene con el resto de Xi’s.
sri2, proporción de varianza de Y asociada únicamente la varianza de Xi, y expresa el
incremento en R2 cuando la variable Xi entra en el modelo
pri, expresa la correlación “pura” entre Y y Xi. Es decir, expresa la correlación entre la parte
de Y no asociada linealmente con el resto de predictoras y la porción de Xi no asociada
linealmente con el resto de predictoras.
pri2, expresa la proporción de varianza de Y no asociada al resto de X que sí está asociada con
X i.
Por último, se ha planteado un ejercicio con un conjunto de datos para ver cómo se interpreta una
salida de resultados del análisis realizado con un programa informático.
55
8.7 Ejercicio de Autoevaluación
Todas las preguntas están relacionadas con datos de una investigación (ficticia, con datos simulados)
en la que se trata de determinar la influencia que sobre el resultado en las pruebas para acceder a un
puesto de trabajo especializado tienen una serie de variables, como son los días que asisten a tutoría en
una escuela de formación para ese tipo de profesionales (variable X1), y la expectativa de empleo que
manifiestan los sujetos (variable X2), variables todas ellas cuantitativas o métricas. Como variable
dependiente se toma, como se ha señalado, el resultado en una prueba en términos de puntuación
obtenida (variable Y). Los datos de 25 personas son los siguientes:
X1
X2
Y
31
9
108
41
6
86
20
9
80
41
7
79
40
9
96
28
9
79
41
9
98
37
8
86
41
6
89
39
11
92
56
9
111
43
11
102
42
10
89
36
7
90
36
13
112
32
7
83
49
8
104
45
11
98
20
10
88
33
11
106
39
13
110
19
10
92
27
12
92
17
11
81
29
13
103
Para facilitar los cálculo, en las siguientes dos tablas presentamos los estadísticos descriptivos de
cada variable, y la matriz de correlaciones
56
Suma
Media
Desv. Típica
Varianza
Estadísticos descriptivos
X2
X1
882
239
35,2800
9,5600
9,7105
2,0833
94,2933
4,3400
Y
2354
94,1600
10,5423
111,1400
Matriz de correlaciones de
orden cero
X2
Y
X1
X1
X2
Y
-0,231
0,436
0,504
8.7.1 Preguntas
1. ¿Cuál es la ecuación de regresión para la predecir el comportamiento de la variable Y a partir
de la variable X1?
a. Y’ = 77,465 + 0,473X1 (*)
b. Y’ = 35,465 + 0,573X1
c. Y’ = 77,465 + 0,743X1
2. ¿Cuál es la ecuación de regresión para la predecir el comportamiento de la variable Y a partir
de la variable X2?
a. Y’ = 44,236 + 1,873X2
b. Y’ = 69,768 + 2,551X2 (*)
c. Y’ = 77,465 + 0,743X1
3. El coeficiente de correlación múltiple del modelo Y’ = B0 + B1X1 + B2X2 para los datos
propuestos es:
a. 0,874
b. 0,759 (*)
c. 0,576
4. El coeficiente R2 ajustado para los datos es:
a. 0,594
b. 0,512
c. 0,538 (*)
5. Siguiendo el método de Pasos Sucesivos (Stepwise) para lograr el mejor ajuste, ¿qué cambio
se produce en R2 cuando se incorpora la segunda variable?
a. 0,322 (*)
b. 0,254
57
c. 0,222
6. La ecuación de regresión múltiple estandarizada para los datos es:
a. 5 0,423U % 1,436
b. 5 1,014U % 0,872
c. 5 0,583U % 0,639 (*)
7. La varianza de los errores una vez ajustado el modelo de regresión múltiple es:
a. 47,109 (*)
b. 64,031
c. 111,140
8. El error típico de estimación del modelo ajustado es:
a. 7,891
b. 7,169 (*)
c. 8,235
9. La correlación entre la variable dependiente Y y la predictora X1, una vez que se ha eliminado
el influjo de X2 sobre ambas variables, es:
a. 0,659 (*)
b. 0,567
c. 0,621
10. ¿Cuál es la proporción de la varianza de Y asociada a X2, y no asociada a X1
a. 0,234
b. 0,342
c. 0,477 (*)
8.7.2 Solución ejercicios de autoevaluación
Debajo de las respuestas están las operaciones necesarias, a partir de los estadísticos y la matriz de
correlaciones.
Pregunta 1 A
Pregunta 2 B
$U U
8
10,5423
0,436
0,473
9,7105
8
$U 8
10,5423
0,504
2,5514
8B
2,0833
$& 9 $U 9U 94,16 0,47335,28 77,465
$& 9 $U 9 94,16 2,55149,56 69,768
Pregunta 3. B
58
H.U Q
U
% 2U U
0,436 % 0,504 20,4360,5040,231
Q
0,759
1 0,231
1 U
Pregunta 4. C
H|.U
1 p1 H.U
s
Pregunta 5. A
H.U
25 1
1
1 1 0,759 0,538
25 2 1
)1
0,759 0,504 0,322
El método Stepwise, la primera variable en entrar en el modelo sería la X2 pues es la que más
correlaciona con Y
Pregunta 6. C
kU k U U
1 U
U U
1 U
Pregunta 7. A
0,436 0,5040,231
0,583
1— 0,231
0,504 0,4360,231
0,639
1— 0,231
8 8JJOJ
1 H.U
1 0,759 111,14 47,109
Pregunta 8. B
∑ `
1130,6
P< Q
Q
7,169
)1
25 2 1
El numerador del cociente dentro de la raíz es la suma de cuadrados de los errores, y se obtienen
mediante
1 47,10925 1 1130,6
} ` 8JJOJ
Pregunta 9. A
Se trata del coeficiente de correlación parcial entre las variable Y y X1.
)U U U
1
1 U
Pregunta 10. C
) ‘
i
U U
1
1 U
U
0,436 0,5040,231
1 0,504 1— 0,231
’ ‘
0,657
0,504 0,4360,231
1 0,436 1— 0,231
’ 0,477
Recuérdese que la función logarítmica es la inversa de la exponencial. Esto es, si la función exponencial (
y = a n ) es el valor de y en función de n (para un valor de la base, a, fijo), la función logaritmo de un número x con
59
base a es la potencia a la que debe elevarse la base para dar x ( x = log a
y ). Cuando se adjetiva el logaritmo
como “natural” significa que la base es el número irracional e ≈ 2.71828182845...
60
Descargar