ANALISIS FACTORIAL vs COMPONENTES PRINCIPALES. El Análisis Factorial y el Análisis de Componentes Principales están muy relacionados. Algunos autores consideran el segundo como una etapa del primero y otros los consideran como técnicas diferentes. El Análisis de Componentes Principales trata de hallar componentes (factores) que sucesivamente expliquen la mayor parte de la varianza total. Por su parte el Análisis Factorial busca factores que expliquen la mayor parte de la varianza común. En el Análisis Factorial se distingue entre varianza común y varianza única. La varianza común es la parte de la variación de la variable que es compartida con las otras variables. La varianza única es la parte de la variación de la variable que es propia de esa variable. El Análisis de Componentes Principales no hace esa distinción entre los dos tipos de varianza, se centra en la varianza total. Mientras que el Análisis de Componentes Principales busca hallar combinaciones lineales de las variables originales que expliquen la mayor parte de la variación total, el Análisis Factorial pretende hallar un nuevo conjunto de variables, menor en número que las variables originales, que exprese lo que es común a esas variables. El Análisis Factorial supone que existe un factor común subyacente a todas las variables, el Análisis de Componentes Principales no hace tal asunción. En el Análisis de Componentes Principales, el primer factor o componente sería aquel que explica una mayor parte de la varianza total, el segundo factor sería aquel que explica la mayor parte de la varianza restante, es decir, de la que no explicaba el primero y así sucesivamente. De este modo sería posible obtener tantos componentes como variables originales aunque esto en la práctica no tiene sentido. En resumen tenemos dos grandes tendencias: a. Análisis de Componentes Principales. b. Análisis factorial, dentro del cual existen diferentes métodos. Ante la variedad de métodos que existen dentro del Análisis Factorial. Kim y Mueller (1978) recomiendan utilizar el de máxima verosimilitud o el de mínimos cuadrados. La importancia que tiene el modelo en la valoración de resultados y elección de la técnica estadística correspondiente, entendiendo aquel como la aproximación inicial que tiene el investigador sobre los datos que desea analizar, puede ser visto en el siguiente ejemplo. Supongamos la matriz de correlaciones siguiente: y y x x 1.0 .9 .9 1.0 sobre la cual es operado un procedimiento de componentes principales y se obtienen los resultados: Factor Matrix: FACTOR 1 FACTOR 2 Y .97468 .22361 X .97468 -.22361 Final Statistics: Variable Communality * Factor Eigenvalue Pct of Var Cum Pct * Y 1.00000 * 1 1.90000 95.0 95.0 X 1.00000 * 2 .10000 5.0 100.0 podríamos verificar una conclusión semejante a la siguiente: "Se observa que el primer componente principal es y+x; si yo conozco el valor exacto de esta suma, podré explicar el 95% de la varianza en cada x e y. También se puede decir, que parece que y-x está cerca de ser una constante". Si por el contrario operásemos un método de análisis factorial obtendría los resultados siguientes: Factor Matrix: FACTOR 1 Y .94831 X .94831 Final Statistics: Variable Communality * Factor Eigenvalue Pct of Var Cum Pct * Y .89930 * X .89930 * 1 1.79859 89.9 89.9 donde la conclusión que podríamos extraer sería del tipo siguiente: "Se constata la existencia de 3 variables aleatorias independientes: donde una está oculta (factor común) y determina o influye tanto sobre x como sobre y, y además existen otras 2 variables ocultas (factores específicos) que tienen influencia única o singular sobre x e y. Apareciendo como plausible que la varianza única asociada con y puede ser .10, pero teniendo en cuenta que también sería de esperar que el modelo ajustase igual de bien si los valores estuviesen entre 0 and .19.". Lo cual significa a nivel práctico, desde el punto de vista de este tipo de modelo, que necesitamos más variables que las que realmente observamos para ajustar los resultados al modelo propuesto. Por último, vamos a ver un modelo propuesto desde el punto de vista de la regresión simple que da lugar a los resultados siguientes: Multiple R .90000 R Square .81000 Adjusted R Square .80806 Standard Error .43811 ------------------ Variables in the Equation -----------------Variable B SE B Beta T Sig T X .90000 .04403 .90000 20.440 .0000 (Constant) .00000 .04381 .000 1.0000 pudiendo verificarse una conclusión del tipo siguiente: "Verificamos que conocido el valor de x, podemos esperar que el valor de y puede ser deducido de la ecuación matemática <0.9*x>, y el resultado de esta predicción debería explicar el 81% de la varianza en y". Sobre la polémica entre Análisis Factorial y Componentes Principales puede consultarse el volumen 25 de Multivariate Behavioral Research (1990).