ANALISIS FACTORIAL vs COMPONENTES PRINCIPALES

Anuncio
ANALISIS FACTORIAL vs COMPONENTES PRINCIPALES.
El Análisis Factorial y el Análisis de Componentes Principales están muy relacionados.
Algunos autores consideran el segundo como una etapa del primero y otros los consideran
como técnicas diferentes.
El Análisis de Componentes Principales trata de hallar componentes (factores) que
sucesivamente expliquen la mayor parte de la varianza total. Por su parte el Análisis
Factorial busca factores que expliquen la mayor parte de la varianza común.
En el Análisis Factorial se distingue entre varianza común y varianza única. La varianza
común es la parte de la variación de la variable que es compartida con las otras variables.
La varianza única es la parte de la variación de la variable que es propia de esa variable.
El Análisis de Componentes Principales no hace esa distinción entre los dos tipos de
varianza, se centra en la varianza total. Mientras que el Análisis de Componentes
Principales busca hallar combinaciones lineales de las variables originales que expliquen la
mayor parte de la variación total, el Análisis Factorial pretende hallar un nuevo conjunto de
variables, menor en número que las variables originales, que exprese lo que es común a
esas variables.
El Análisis Factorial supone que existe un factor común subyacente a todas las variables,
el Análisis de Componentes Principales no hace tal asunción.
En el Análisis de Componentes Principales, el primer factor o componente sería aquel
que explica una mayor parte de la varianza total, el segundo factor sería aquel que explica
la mayor parte de la varianza restante, es decir, de la que no explicaba el primero y así
sucesivamente. De este modo sería posible obtener tantos componentes como variables
originales aunque esto en la práctica no tiene sentido.
En resumen tenemos dos grandes tendencias:
a. Análisis de Componentes Principales.
b. Análisis factorial, dentro del cual existen diferentes métodos.
Ante la variedad de métodos que existen dentro del Análisis Factorial. Kim y Mueller
(1978) recomiendan utilizar el de máxima verosimilitud o el de mínimos cuadrados.
La importancia que tiene el modelo en la valoración de resultados y elección de la
técnica estadística correspondiente, entendiendo aquel como la aproximación inicial que
tiene el investigador sobre los datos que desea analizar, puede ser visto en el siguiente
ejemplo. Supongamos la matriz de correlaciones siguiente:
y
y
x
x
1.0 .9
.9 1.0
sobre la cual es operado un procedimiento de componentes principales y se obtienen los
resultados:
Factor Matrix:
FACTOR
1
FACTOR
2
Y
.97468
.22361
X
.97468
-.22361
Final Statistics:
Variable
Communality
*
Factor
Eigenvalue
Pct of Var
Cum Pct
*
Y
1.00000
*
1
1.90000
95.0
95.0
X
1.00000
*
2
.10000
5.0
100.0
podríamos verificar una conclusión semejante a la siguiente:
"Se observa que el primer componente principal es y+x; si yo conozco el valor exacto de
esta suma, podré explicar el 95% de la varianza en cada x e y. También se puede decir, que
parece que y-x está cerca de ser una constante".
Si por el contrario operásemos un método de análisis factorial obtendría los resultados
siguientes:
Factor Matrix:
FACTOR
1
Y
.94831
X
.94831
Final Statistics:
Variable
Communality
*
Factor
Eigenvalue
Pct of Var
Cum Pct
*
Y
.89930
*
X
.89930
*
1
1.79859
89.9
89.9
donde la conclusión que podríamos extraer sería del tipo siguiente:
"Se constata la existencia de 3 variables aleatorias independientes: donde una está
oculta (factor común) y determina o influye tanto sobre x como sobre y, y además existen
otras 2 variables ocultas (factores específicos) que tienen influencia única o singular sobre
x e y. Apareciendo como plausible que la varianza única asociada con y puede ser .10,
pero teniendo en cuenta que también sería de esperar que el modelo ajustase igual de bien
si los valores estuviesen entre 0 and .19.".
Lo cual significa a nivel práctico, desde el punto de vista de este tipo de modelo, que
necesitamos más variables que las que realmente observamos para ajustar los resultados al
modelo propuesto.
Por último, vamos a ver un modelo propuesto desde el punto de vista de la regresión
simple que da lugar a los resultados siguientes:
Multiple R
.90000
R Square
.81000
Adjusted R Square
.80806
Standard Error
.43811
------------------ Variables in the Equation -----------------Variable
B
SE B
Beta
T
Sig T
X
.90000
.04403
.90000
20.440
.0000
(Constant)
.00000
.04381
.000 1.0000
pudiendo verificarse una conclusión del tipo siguiente:
"Verificamos que conocido el valor de x, podemos esperar que el valor de y puede ser
deducido de la ecuación matemática <0.9*x>, y el resultado de esta predicción debería
explicar el 81% de la varianza en y".
Sobre la polémica entre Análisis Factorial y Componentes Principales puede consultarse
el volumen 25 de Multivariate Behavioral Research (1990).
Descargar