Resolución del ejercicio

Anuncio
Resolución del ejercicio
Adecuación de los datos.
Lo primero que debemos hacer es comprobar que la muestra y el tipo de variables son adecuados
para el uso del análisis factorial. Comprobaremos que la distribución de las puntuaciones no se aleja
excesivamente de la normal y que los coeficientes de asimetría no superan el intervalo recomendado
de ± 1. En nuestro ejemplo vemos que en ningún caso se supera el valor recomendado.
Desv. típ.
Estadístico
Asimetría
Estadístico
Error típico
V1
1,008
,804
,095
V2
1,093
-,223
,095
V3
1,129
-,043
,095
V4
1,046
,340
,095
V5
1,214
,223
,095
V6
1,091
,458
,095
V7
,852
,766
,095
V8
1,220
,193
,095
V9
1,158
,187
,095
V11
,927
,502
,095
V12
,787
,782
,095
V13
1,021
,210
,095
V14
,939
,280
,095
V10
1,046
,294
,095
Si además realizamos una inspección visual para comprobar el ajuste de las puntuaciones a la
normal, un sencillo histograma nos muestra que en este caso la aproximación es bastante buena.
Aquí se muestra como ejemplo el histograma del ítem 3. El output del programa nos informará por
defecto sobre el test de esfericidad de Barlett y el KMO. Cuando lleguemos al output se comentarán
en más profundidad.
Configuración del análisis.
A continuación, iniciaremos el programa Factor y procederemos a realizar el análisis factorial. Para
empezar, indicaremos el archivo sobre el que vamos a trabajar. Para utilizar el programa, los datos
deben estar en un documento formato texto plano (*.txt o *.dat), es decir, en un bloc de notas.
Además, deben estar separados únicamente por un espacio entre columnas y deben ser eliminados,
todos aquellos sujetos que dejaran un ítem sin responder, es decir, si en nuestra matriz de datos hay
un espacio en blanco, el sujeto debe ser eliminado, sino el programa no leerá el archivo. Tras clicar
“Read Data” se desplegará una pantalla como la que se muestra a continuación:
Como puede observarse, el programa nos pide que especifiquemos el número de sujetos, el número
de participantes y la ubicación del fichero (que podemos buscar en dentro de nuestro equipo
clicando en “Browse”. Una vez aceptado, el programa nos mandará de nuevo a la pantalla inicial. El
siguiente paso es decidir los parámetros del análisis que queremos llevar a cabo. Para ello,
clicaremos en “Configure Analysis” Obteniendo la siguiente pantalla:
Para nuestro ejemplo, elegiremos la matriz de correlaciones de Pearson para ser analizada, ya que
los datos de los que disponemos están dispuestos en escala likert de 5 puntos, de modo que los
trataremos como variables continuas.
Como ya se ha comprobado inicialmente que los datos son adecuados para el análisis factorial (a
falta de comprobar el test de Barlett y el KMO), elegiremos el procedimiento para determinar el
número de factores. El programa nos ofrece 3 de las opciones más comúnmente utilizadas en la
actualidad. Las tres son aceptables y validas, aunque no hay que olvidar que las utilizamos tan sólo
como información útil, no como determinantes exactos del número de factores . En nuestro caso
elegiremos la opción de “Parallel Análisis [PA]” por ser la más actual y extendida en uso.
La siguiente elección es el número de factores que se van a extraer. Como aún no tenemos la
recomendación del “Parallel Análisis”, nos basaremos en la teoría y pediremos al programa que nos
estime los 2 factores que esperamos encontrar. El método de extracción elegido será Maximun
Likelihood, por razones ya explicadas en el texto.
Finalmente, debemos elegir el método de rotación, si es que deseamos que se lleve a cabo. En este
caso, esperamos que los factores estén correlacionados de modo que elegiremos un método de
rotación oblicuo. Elegiremos Oblimin directo, por las razones explicadas en el texto.
Tras elegir el modelo factorial que se quiere poner a prueba, clicaremos en el botón ‘compute’ y tras
unos instantes nos aparecerá en pantalla un nuevo documento de texto plano (bloc de notas) con el
nombre de ‘output.txt’. Este documento queda automáticamente guardado en el mismo directorio
donde se encuentran los datos, es decir, si el documento ‘ejpapaeles.dat’ lo hemos guardado en el
escritorio, el archivo de resultados se guardará también en el escritorio.
Es importante en este punto remarcar que si tras un primer análisis queremos realizar otro con
algunos cambios en la configuración de este, los resultados se sobrescribirán en el documento
‘output’ que ya tenemos. Por ese motivo, si es de interés guardar ambos ‘outputs’ es importante
modificar el nombre del primer documento que el programa nos ha dado, de manera que no se
sobrescribirá, y los nuevos resultados aparecerán junto a los anteriores con el nombre de ‘otput.txt’.
OUTPUT.
Los primeros datos que miraremos serán los estadísticos de adecuación muestral. Los
encontraremos justo debajo de la matriz de varianza/covarianza bajo el titulo de ‘adecuación de la
matriz de correlación’.
ADEQUACY OF THE CORRELATION MATRIX
Determinant of the matrix = 0.001945374584819
Bartlett's statistic
= 3498.8 (df = 91; P = 0.000010)
Kaiser-Meyer-Olkin (KMO) test = 0.93410 (very good)
Podemos ver que para nuestro ejemplo la muestra es más que adecuada, con un estadístico de
Bartlett de 3498,8 con 91 grados de libertad que nos permite deducir que hay relación entre las
variables e índice KMO muy bueno, tal como nos indica el propio programa.
Tras confirmar que no se está factorizando ‘ruido’ y que la relación entre las variables es sustancial,
antes de examinar el patrón de pesos factoriales, debemos confirmar que el modelo es adecuado y
se ajusta bien a los datos. Primero miraremos la recomendación del análisis paralelo que
encontramos tras la varianza explicada basada en autovalores (EXPLAINED VARIANCE BASED
ON EIGENVALUES). En este caso, vemos que se aconseja extraer un solo factor (*Advised
number of dimensions: 1). En todo caso no se debe olvidar que es una recomendación y que en la
determinación del número de factores nos basaremos más en los índices de bondad de ajuste. Estos
índices los encontraremos a continuación con el nombre de ‘GOODNESS OF FIT STATISTICS’.
Los resultados de estos índices en nuestro ejemplo son:
GOODNESS OF FIT STATISTICS
Chi-Square with 64 degrees of freedom = 273.846 (P = 0.000010)
Chi-Square for independence model with 91 degrees of freedom = 3498.810
Non-Normed Fit Index (NNFI; Tucker & Lewis) = 0.91
Comparative Fit Index (CFI) = 0.94
Goodness of Fit Index (GFI) = 0.99
Adjusted Goodness of Fit Index (AGFI) = 0.99
Nos fijaremos, tal como indica el texto, en el GFI y el NNFI de los índices que encontramos aquí.
En este caso, GFI > 0,95 (0,99) y NNFI > 0,85 – 0.90 (0,90), Por tanto se podría decir que el ajuste
es bastante bueno. .
Si descendemos en el documento, encontramos la distribución de los residuales (DISTRIBUTION
OF RESIDUALS). En este apartado se encuentra otro índice que hay que tener en cuenta en el
ajuste del modelo, la raíz media cuadrática residual (Root Mean Square of Residuals). Vemos aquí
que el índice RMCR es < 0,05 (0,0379) indicando de nuevo un buen ajuste. El mismo programa nos
informa también del criterio de Kelley ( 1 N ) con el que comparar el índice RMCR,
concretamente en este caso es de 0.0420 que al ser mayor que 0,0379 nos indica, de manera
congruente con el criterio anterior, el buen ajuste.
A pesar de que todos los indicadores muestran un buen ajuste hay que tener en cuenta que, en caso
de sobrefactorizar, los índices mostrarían un ajuste superior a los que obtendríamos si el modelo
fuera correcto con menos factores. Así, a mayor número de factores extraídos, mejor ajuste del
modelo siendo ya excelente cuando se extraen tantos factores como ítems lo que no tiene ningún
sentido. Si además tenemos en cuenta que el análisis paralelo recomienda extraer un solo factor, es
recomendable reanalizar los datos pidiendo al programa que esta vez saque un solo factor. De este
modo podemos comparar los índices de ajuste de ambos modelos eligiendo aquél que mejor se
ajuste. Los autores consideran una mejora sustantiva del ajuste del modelo cuando el incremento del
índice NNFI es de 0,01 o superior. Lo mismo vale para el índice GFI.
En caso de que los incrementos no sean significativos pero tampoco lo sean los decrementos, es
decir que el ajuste ni mejora ni empeora, se decidirá el modelo más adecuado según la teoría
subyacente al test (según los ítems que cargan en cada factor y los que esperaríamos que lo hicieran,
es decir, si los factores tienen significado) y según el principio de parsimonia, según el cual han de
preferirse las teorías más simples a las más complejas.
Antes de pasar a examinar el patrón de pesos factoriales del ejemplo, pondremos a prueba el
modelo de un factor. Si no hemos cerrado el programa tras el primer análisis, no es necesario
realizar otra vez todos los pasos anteriores, tan solo hay que pedir al programa, en la configuración
del análisis, que obtenga 1 factor. Si lo hemos cerrado hay que repetir de nuevo todos los pasos
(elegir el archivo de datos y configurar el análisis).
En el output podemos ver que los índices de adecuación de la matriz de varianza/covarianza sigue
siendo adecuada ya que la muestra no ha variado. Pasaremos de nuevo a mirar los índices de
bondad de ajuste. En este caso podemos ver los siguientes datos:
GOODNESS OF FIT STATISTICS
Chi-Square with 77 degrees of freedom = 483.753 (P = 0.000010)
Chi-Square for independence model with 91 degrees of freedom = 3543.958
Non-Normed Fit Index (NNFI; Tucker & Lewis) = 0.86
Comparative Fit Index (CFI) = 0.88
Goodness of Fit Index (GFI) = 0.99
Adjusted Goodness of Fit Index (AGFI) = 0.99
Para facilitar la comparación entre los modelos, en la tabla siguiente se encuentran los índices de
bondad de ajuste de ambos y el incremento.
Tabla de comparación de los modelos.
Modelo
2 Factores
1 Factor
Δ índice
NNFI GFI RMCR
0,91 0,99 0,0379
0,86 0,99 0.0550
0,05
0
-0,0171
La tabla nos muestra que el incremento en los índices de bondad de ajuste no es suficiente para
justificar la superioridad de un modelo sobre otro.
Pasaremos a continuación a comentar otro de los criterios que podemos utilizar para decidir el
modelo más adecuado.
Como se ha comentado anteriormente, otro indicador (no estadístico) que nos puede ayudar a
decidir el modelo más adecuado para nuestros datos. Los patrones de ambos modelos se presentan
en la siguiente tabla:
Pesos factoriales de ambos modelos.
Modelo de 1 Factor
Modelo de 2 Factores
Ítem
F1
F1
F2
1
0,662
0,178
0,548
2
0,561
0,017
0,572
3
0,673
-0,124
0,837
4
0,559
0,173
0,424
0,501
0,214
5
0,328
6
0,675
-0,023
0,793
7
0,578
0,288
0,333
8
0,473
-0,001
0,539
9
0,697
0,014
0,782
10
0,755
-0,027
0,825
11
0,701
0,419
0,330
12
0,697
0,214
0,524
13
0,710
0,066
0,688
0,748
0,555
0,239
14
*En negrita se han señalado las cargas factoriales del modelo
de dos factores con pesos superiores a 0,30.
En el modelo de 1 factor, podemos ver que todos los ítems cargan de forma sustantiva en el factor
(con valores superiores a 0,30) lo que refuerza la hipótesis de un solo factor subyacente a los 14
ítems.
En el modelo de 2 factores vemos que solo hay un ítem factorialmente complejo (con cargas
sustantivas en ambos factores –ítem 11 –). Los demás ítems cargan claramente al factor que
corresponde según la teoría. Así pues, no podemos descartar ninguno de los dos modelos en
función de los patrones factoriales.
Llegados a este punto, solo nos queda basarnos en el principio de parsimonia para elegir el modelo
más adecuado. En este caso, la opción más sencilla (menos compleja) es el modelo de un factor ya
que implica menos supuestos. Así pues, en opinión de los autores, el modelo del elección sería el
modelo de un factor, aunque no es completamente descartable ninguno de los dos.
Descargar