Documentos de Académico
Documentos de Profesional
Documentos de Cultura
1
Argumentos metodológicos
Un argumento contra el AFC se refiere a la indeterminación de los puntajes factoriales. En
general, el análisis se basa en ecuaciones que relacionan las variables observadas con los
factores: para un conjunto de v variables hay v ecuaciones. Pero en AFC deben calcularse
puntajes sobre f factores comunes y v factores específicos, lo cual resulta en un total de f + v
incógnitas que deben calcularse a partir de v ecuaciones. Esto es análogo a hallar x e y en una
ecuación como x + y = 10: la solución es indeterminada, no porque no haya valores para x e y
sino porque hay muchos valores. Así, el problema no es que no haya un conjunto de puntajes
factoriales que puedan obtenerse a partir de las variables, sino que hay muchos conjuntos de
puntajes factoriales. Este problema no se presenta en ACP, porque no se calculan factores
específicos; suponiendo que se obtiene una solución completa, el número de componentes
coincide con el número de variables.
El debate no se refiere tanto a la existencia de la indeterminación (esto es reconocido por
ambas partes) como al grado en que tal indeterminación es un problema. Los defensores del
AFC argumentan que esta no es una razón para abandonar el método, porque los
investigadores raramente están interesados en los puntajes factoriales; y, en caso de estar
interesados, podrían usar un AFCO para obtener puntajes que no estén afectados por este
problema.
Quienes proponen ACP señalan también la ocurrencia de estimaciones negativas de la
especificidad (casos Heywood) en AFC. Como SPSS y SAS no imprimen estimaciones de la
especificidad, los casos Heywood se advierten en las cargas factoriales mayores que uno. Los
defensores del AFC argumentan que tales casos no son necesariamente problemáticos. Con
frecuencia, revelan que se está usando un modelo mal especificado o que los datos violan los
supuestos del modelo AFC; además, pueden evitarse reduciendo el número de iteraciones de
las comunalidades a dos o tres.
Argumentos filosóficos
Un argumento se refiere a las condiciones requeridas por un modelo de variable latente como
AFC. Si se cree que cada variable contiene un error aleatorio y que esos errores no están
mutuamente correlacionados, entonces el número de dimensiones de cualquier modelo es
mayor que el de las variables observadas; por lo tanto se requiere un modelo de variable latente.
Filosóficamente, esta perspectiva se basa en una inferencia por abducción (estudiar los hechos y
elaborar una teoría para explicarlos), de la cual se deriva que un modelo de variable latente es
preferible cuando se estudia la estructura causal subyacente de un dominio. Quienes critican la
distinción entre ACP y AFC sostienen que los factores comunes no son más "latentes" que los
componentes principales, pues la diferencia está en un término de error, cuyo carácter es
arbitrario.
Ambos tipos de argumentos —metodológicos y filosóficos— están entrelazados. No es
posible identificar factores a partir de patrones de correlaciones entre variables, de manera
específica y sin ambigüedad, sin algunos supuestos previos. Tales supuestos pueden adoptar la
forma de restricciones sobre la estructura factorial o sobre las cargas factoriales. Los resultados
deben someterse a pruebas ulteriores con datos adicionales. Un AFEX dejará siempre el
dominio investigado en un estado de indeterminación teórica. La pluralidad de teorías en
2
competencia no debe considerarse una consecuencia indeseable del método. Ahora bien, los
asuntos conceptuales (la existencia de factores) son categóricamente diferentes de los empíricos
(la generación y la prueba de hipótesis) y los argumentos para establecer los primeros deben
sostenerse sin ayuda empírica.
Resumen
• La leyenda: ACP y AFC generan resultados similares y no importa cuál se utilice.
• La verdad: ACP y AFC arrojan resultados similares si las comunalidades son altas (0,8 o
más en promedio) y el número de variables por factor es grande.
• El mito: ACP y AFC son equivalentes conceptualmente.
• La conclusión: ACP y AFC tienen propósitos diferentes y se basan en supuestos diferentes.
Si el propósito es reducir datos debería usarse ACP, pero si es describir variables en
términos de dimensiones subyacentes debería usarse AFC. Aunque ambos propósitos
pudieran confundirse, explicar las correlaciones entre las variables e interpretar de manera
sustantiva las dimensiones escapa del dominio del ACP.
3
cuanto a cuál rotación es "mejor", ortogonal u oblicua, tanto en términos generales como en el
sentido de obtener una estructura simple.
¿Correlación o independencia?
La elección entre ambos métodos depende de si se espera que los factores correlacionen.
Cuando no hay información acerca del grado esperado de correlación, se recomienda la rotación
oblicua. Si los factores no están correlacionados se obtendrá "por defecto" una solución
ortogonal; pero es preferible permitir que correlacionen, si eso afecta la estructura de las
variables. Se considera más seguro suponer no hay perfecta independencia. Sin embargo, en la
bibliografía se encuentra amplio uso de la rotación ortogonal y en la mayoría de los casos no se
dan razones para ello.
Resumen
• La leyenda: la rotación ortogonal produce la mejor estructura simple.
• La verdad: la rotación ortogonal produce soluciones cuya interpretación puede ser más
sencilla.
• El mito: cuando los factores están correlacionados la rotación ortogonal "limpia" la
estructura factorial.
• La conclusión: a menos que exista una buena razón para creer que los factores no están
correlacionados, use una rotación oblicua. Si no están correlacionados, la rotación oblicua
arrojará una solución ortogonal de todos modos. Si las correlaciones entre factores no son
despreciables, la solución oblicua conduce a la mejor representación.
4
cuanto a N:p, las recomendaciones pueden tener su origen en el concepto de "contracción" de la
regresión múltiple, según el cual la validez cruzada de un solución de regresión depende de la
razón del número de variables predictoras al número de sujetos. En ambos casos, las reglas
tradicionales carecen de justificación.
Resumen
• La leyenda: el tamaño mínimo de la muestra aumenta con el número de variables
analizadas.
• La verdad: el tamaño requerido aumenta con el número de factores. Con baja comunalidad
y tres a cuatro variables por factor, se necesita una muestra de al menos 300 si hay tres
factores, pero se necesitaría una muestra de al menos 500 si hubiera siete factores.
• El mito: para un número dado de factores, grandes números de variables requieren grandes
tamaños de muestras.
5
• La conclusión: muestree sus variables cuidadosamente. Escoger variables con alta
comunalidad dará buenos resultados con menores tamaños de muestra.
6
alcanza el mínimo. La idea es que los componentes eliminan sucesivamente la varianza común
de la matriz (a medida que decrece la correlación parcial promedio) hasta quedar solo la
varianza específica (la varianza compartida solamente por dos variables). En ese punto se
extraerán solo componentes basados en varianza específica: cada uno tiene alta correlación con
una variable y bajas correlaciones con las otras. PPM tampoco ha sido implementado en SPSS o
SAS, pero existen programas para hacerlo.
Los estudios empíricos sobre los criterios para la retención de factores se han limitado a
factores ortogonales. No está claro qué sucede cuando los factores están correlacionados, pero
puede esperarse que sea más difícil determinar el número de factores en este caso.
Resumen
• La leyenda: K1 es un método preciso para determinar el número de factores.
• La verdad: el número de autovalores mayores que uno representa un límite inferior teórico
para el número de componentes (no factores comunes) que pueden (no necesariamente
deben) ser extraídos en una población.
• El mito: K1 es un método preciso para calcular el número de factores o componentes que
deberían retenerse en una muestra.
• La conclusión: aunque es el criterio por defecto en SPSS y SAS, K1 es impreciso y no se
recomienda su uso. Se recomienda usar gráfico de sedimentación en conjunto con AP y, solo
en ACP, PPM. Los metodólogos recomiendan usar diversos criterios combinados y
enfatizan la interpretación y la base teórica como criterio último.
Extracción
El análisis de componentes principales (ACP) no es verdaderamente un método de análisis
factorial y los teóricos no están de acuerdo acerca de cuándo (si acaso) debería usarse. Otros
opinan que no hay casi diferencia entre componentes y factores, e incluso que ACP es
preferible.
ACP es un método de reducción de datos: la alternativa, cuando los computadores eran
lentos y costosos. Los investigadores no suelen recoger y analizar datos sin una idea a priori de
cómo se relacionan las variables. El propósito del análisis de factores es descubrir las variables
latentes que hacen que las variables manifiestas covaríen. Durante la extracción de factores, la
varianza compartida de una variable se divide en varianza específica y varianza de error; en la
solución aparece la varianza compartida. ACP no discrimina entre varianzas y, cuando los
factores no están correlacionados y las comunalidades son moderadas, puede producir valores
inflados de varianza explicada. Como el análisis de factores analiza solo varianza compartida,
7
debería arrojar la misma solución (manteniendo otras cosas iguales), evitando la inflación de
varianza explicada.
Hay diversos métodos de extracción. SPSS tiene seis (además de ACP): mínimos cuadrados
no ponderados, mínimos cuadrados generalizados, máxima verosimilitud, factorización de ejes
principales, factorización alfa y factorización imagen. Si los datos se distribuyen de manera
relativamente normal, la mejor opción es máxima verosimilitud: permite calcular una variedad
de índices de bondad del ajuste, probar la significación estadística de las cargas factoriales y las
correlaciones entre factores, y calcular intervalos de confianza. Si no puede suponerse
normalidad, se recomienda la factorización de ejes principales. No hay mayor información
sobre los otros métodos.
Retención
¿Cuántos factores deben retenerse? Equivocarse por exceso o por defecto puede afectar
gravemente los resultados. La regla "autovalores mayores que uno" es una de las menos
precisas. Lamentablemente, otros métodos no están disponibles en los paquetes estadísticos, por
lo que la mejor opción es la prueba de sedimentación.
La prueba de sedimentación consiste en examinar el gráfico de autovalores y buscar el
punto donde la curva se aplana. El número de puntos por encima del "quiebre" (sin incluir el
punto donde ocurre) es usualmente el número de factores que pueden retenerse; aunque esto
puede no ser obvio si hay puntos aglomerados cerca del quiebre. La verificación consiste en
correr múltiples análisis fijando manualmente el número de factores: primero el número
derivado de la estructura a priori, luego el número sugerido por la prueba de sedimentación y
luego números por encima y por debajo de aquellos. Por ejemplo, si el número predicho es seis
y la sedimentación sugiere cinco, corra los datos cuatro veces fijando el número de factores en
cuatro, cinco, seis y siete. Después de la rotación, compare las cargas: aquella con la estructura
"más limpia" —cargas mayores que 0,30, ningún ítem (o pocos) con cargas cruzadas, ningún
factor con menos de tres ítems— tiene el mejor ajuste con los datos.
Si todas las estructuras lucen confusas y no interpretables hay un problema con los datos,
que no puede ser resuelto manipulando el número de factores. Algunas veces volver a correr el
análisis descartando los ítems problemáticos —cargas bajas, cargas cruzadas o aislados— puede
resolver el problema, pero hay que considerar si hacer eso compromete la integridad de los
datos. Si después de múltiples corridas la estructura sigue confusa, hay un problema con la
construcción de los ítems, el diseño de la escala o la hipótesis misma, y el investigador puede
tener que desechar los datos y comenzar de cero. Otra posibilidad es que la muestra sea muy
pequeña y se necesite recoger más datos antes de correr el análisis.
Rotación
El propósito de la rotación es simplificar y clarificar la estructura de los datos; pero no puede
mejorar aspectos básicos del análisis, como el monto de varianza extraída de los ítems. Hay una
variedad de opciones: ortogonales (varimax, quartimax y equamax) y oblicuas (oblimin,
quartimin y promax). Un argumento popular, pero errado, es que la rotación ortogonal produce
resultados más fácilmente interpretables. En las ciencias sociales se espera generalmente alguna
correlación entre factores, porque la conducta raramente se divide en unidades que funcionen
8
de manera independiente unas de otras. Por consiguiente, la rotación ortogonal conduce a una
pérdida de información valiosa, si los factores están correlacionados, y la oblicua debería
teóricamente generar una solución más precisa y, quizá, más reproducible. Si, realmente, los
factores no están correlacionados, ambas producen resultados idénticos.
La salida de la rotación oblicua es más compleja que la de la ortogonal. SPSS produce dos
tipos de matrices: patrones (cargas ítem-factor) y correlaciones entre factores. No hay un
método ampliamente preferido de rotación oblicua: todos tienden a los mismos resultados.
Pueden usarse los valores por defecto para delta (0) o kappa (4); manipularlos altera la
magnitud de la correlación entre factores que "permite" el procedimiento, lo cual complica la
interpretación de los resultados. No hay razones para cuándo, por qué o para qué alterar los
valores delta o kappa.
Tamaño de la muestra
La práctica habitual para estandarizar los datos es la razón sujetos por ítem. En estudios de
construcción de escalas se registra el número inicial de ítems, en lugar del número de ítems
seleccionados para la versión final de la escala, pues la razón se determina por el número de
ítems que cada sujeto responde, no cuántos quedan después del análisis. Un gran porcentaje de
investigadores reporta muestras relativamente pequeñas. La mayoría (63%) usa razones de 10:1
o menores; sorprendentemente, casi un sexto reporta análisis factoriales con razones de 2:1 o
menores.
Casi han desaparecido las reglas estrictas acerca del tamaño de la muestra. El tamaño
adecuado es parcialmente determinado por la naturaleza de los datos: mientras más "robustos"
los datos —comunalidades uniformemente altas, sin cargas cruzadas y varias variables con
cargas altas en cada factor— menor el tamaño requerido. En la práctica estas condiciones no son
frecuentes.
1. Las comunalidades se consideran altas a partir de 0,8, pero esto es raro con datos reales. Las
magnitudes comunes se encuentran entre 0,4 y 0,7. Si un ítem tiene una comunalidad
inferior a 0,4 puede ser que no se relacione con los otros ítems o deba explorarse un factor
adicional. El investigador debería considerar por qué lo incluyó y decidir si lo desecha o
añade ítems similares en futuras investigaciones.
2. Se ha considerado 0,32 una buena regla para la carga mínima de un ítem, que equivale
aproximadamente a 10% de varianza solapada con otros ítems en el factor. Un ítem con
cargas cruzadas es aquel que carga 0,32 o más en dos o más factores. El investigador debe
decidir si lo desecha: una buena opción si hay varios ítems con cargas de 0,5 o más en cada
factor. Si hay varios ítems con cargas cruzadas, pueden estar mal redactados o la estructura
a priori puede estar equivocada.
3. Un factor con menos de tres ítems es generalmente débil e inestable. Cinco o más ítems con
cargas altas (0,5 o más) son deseables e indican un factor sólido. Con más investigación
puede reducirse el número de ítems y mantener un factor robusto, si se dispone de un
conjunto de datos muy grande.
9
AFEX es un procedimiento para muestras grandes. Es poco probable que los resultados sean
generalizables o replicables si la muestra es muy pequeña.
Conclusión
Por naturaleza y diseño AFEX es exploratorio. Fue diseñado y es más apropiado para explorar
un conjunto de datos, no para probar hipótesis o teorías. Es un procedimiento propenso a
errores, aun con muestras muy grandes y datos óptimos. Una vez que se ha desarrollado un
instrumento, usando AFEX, es el momento de pasar al AFCO para responder preguntas como:
"¿se mantiene la estructura en distintos subgrupos poblacionales?". No deben sacarse
conclusiones sustantivas con base en análisis exploratorios.
Los investigadores que utilizan muestras grandes y toman decisiones informadas acerca de
las opciones disponibles para el análisis de datos están más cerca de alcanzar sus metas: llegar a
conclusiones que puedan generalizarse, más allá de una muestra particular, a otra muestra o
una población de interés. Hacer menos es llegar a conclusiones de poca utilidad o interés, más
allá de esa muestra o ese análisis.
10
El uso de AFCO puede verse afectado por diversos aspectos de la investigación: la hipótesis
propuesta, el tamaño de muestra requerido (por ejemplo, 5-20 casos por parámetro), los
instrumentos de medición, la distribución de los datos (normalidad multivariada), la
identificación de parámetros, casos atípicos, datos perdidos y los índices de ajuste. Se
recomienda el siguiente esquema de trabajo:
Procedimiento
El primer requisito es una matriz de correlaciones, varianza-covarianza o similar. Luego el
investigador aplica modelos que hipotéticamente se ajustan a los datos. Tales modelos
especifican el grado de correlación entre cada par de factores comunes, el grado de correlación
entre cada variable y uno o más factores, y cuáles pares de factores específicos están
correlacionados.
Los diferentes modelos se determinan "fijando" o "liberando" parámetros específicos tales
como coeficientes factoriales, coeficientes de correlación y varianza-covarianza del error de
medición. Fijar un parámetro se refiere a establecerle un valor específico; y liberarlo, a calcularlo
durante el análisis ajustando el modelo a los datos. Luego se ponen a prueba, se comparan, los
modelos o hipótesis acerca de la estructura de los datos.
AFCO puede llevarse a cabo usando programas como LISREL, que producen estadísticas
para determinar el ajuste de los modelos o explicar la covariación entre las variables. Si un
modelo no se ajusta a los datos, se le rechaza como posible estructura causal subyacente; si no
puede ser rechazado estadísticamente, es una representación viable de la estructura causal.
Ejemplos de estadísticas de ajuste son la razón chi cuadrado/grados de libertad, el índice de
ajuste comparativo de Bentler, el cociente de parsimonia y el índice de bondad-del-ajuste. En el
caso de la estadística chi cuadrado, que prueba la hipótesis nula de que no hay diferencia
significativa entre las matrices observadas y teóricas, los valores menores indican un buen
ajuste (es muy sensible al tamaño de la muestra). El índice de bondad del ajuste mide los
montos relativos de varianzas y covarianzas explicados conjuntamente por el modelo. Puede
concebirse como análogo al R2 en la regresión múltiple: mientras más cercano a uno mejor el
ajuste. Es menos sensible al tamaño de la muestra que chi cuadrado. El cociente de parsimonia
se refiere al número de parámetros: mientras menor sea el número necesario para especificar el
modelo más parsimonioso será. Se puede obtener un índice global de la eficacia del modelo,
multiplicando el cociente de parsimonia por una estadística de ajuste.
11
Interpretación
Es posible determinar más de un modelo que se ajuste adecuadamente a los datos; es decir,
hallar un modelo con buen ajuste no significa que ese sea el único u óptimo. Además, como hay
varios índices de ajuste para hacer comparaciones, el ajuste debe ser evaluado desde la
perspectiva de estadísticas múltiples simultáneamente. Cuando un AFCO no logra ajustar la
estructura observada con la teórica, el investigador puede evaluar modos de mejorar el modelo,
explorando cuáles parámetros fijos podría liberar y cuáles liberados podría fijar. Los programas
permiten cambiar los parámetros uno por uno, para determinar cuáles cambios mejoran más el
ajuste del modelo.
12
hipotético corresponde al que existe en la población), (2) la matriz de errores de medición es
independiente del vector de factores latentes y (3) los errores de medición no están
correlacionados.
MV es el método más utilizado para calcular los parámetros del modelo. Además de los
supuestos usuales de AFCO, MV supone que la matriz de covarianza de la muestra es calculada
a partir de variables continuas normalmente distribuidas. Dados un tamaño de muestra
adecuado, una especificación apropiada del modelo y datos distribuidos de manera
multivariadamente normal (o, más específicamente, sin curtósis multivariada), MV proporciona
parámetros consistentes, eficientes e insesgados, errores estándar asintóticos y una prueba
general de ajuste del modelo.
En muchas aplicaciones de las ciencias conductuales las variables observadas no se
distribuyen continuamente; estrictamente hablando, las mediciones son discretas, pero se habla
de categorizaciones de una distribución teóricamente continua que resultan en un pequeño
número de grados discretos. Las variables suelen observarse en una escala de medición
dicotómica u ordinal. MV, basado en la correlación producto-momento muestral o una matriz
de covarianza entre variables ordinales, no se desempeña bien, especialmente, cuando el
número de categorías es pequeño (cinco o menos). La estadística chi-cuadrado resulta inflada,
los parámetros son subestimados y los errores estándar tienden a ser sesgados hacia abajo. Un
enfoque alternativo es el análisis de correlaciones policóricas.
Correlaciones policóricas
La correlación policórica mide la relación lineal entre dos variables continuas no observadas, a
partir de datos ordinales. Su cálculo se basa en la premisa de que los valores discretos
observados se deben a una distribución continua subyacente no observada (distribución de
respuesta latente).
Las correlaciones policóricas se calculan típicamente mediante un procedimiento de dos
etapas: (1) se usan las proporciones observadas en cada categoría ordinal (las proporciones
marginales acumuladas de la tabla de contingencia) para calcular los parámetros de cada
variable latente (mediante la función de distribución normal acumulada estándar) y (2) se usan
estos parámetros en combinación con la tabla de contingencia bivariada observada para
calcular, mediante MV, la correlación que se habría obtenido si las dos variables latentes
hubieran sido observadas directamente.
Un supuesto clave es que el par de variables latentes tiene una distribución bivariada
normal, lo cual es evidente en el uso de la distribución normal estándar para el cálculo de los
parámetros. Aunque el supuesto de normalidad ha sido criticado (poco realista en la práctica),
algunos investigadores defienden su conveniencia práctica: por sus conocidas propiedades
matemáticas, facilita el cálculo de la correlación. Si las distribuciones continuas latentes
correlacionan se esperaría ver evidencia de esa correlación en la tabla de contingencia
observada. Se ha encontrado que la correlación policórica sobrestima la correlación verdadera
entre dos variables latentes no normales, aunque en un grado pequeño y la estimación es
insesgada con violaciones menores de la normalidad.
13
Mínimos cuadrados ponderados
La simple sustitución de una matriz de correlaciones policóricas por la matriz muestral de
covarianzas producto-momento, en la usual función de estimación MV, es inapropiada: aunque
genera estimaciones consistentes de parámetros, produce estadísticos y errores estándar
incorrectos. Se ha desarrollado un método MCP completo para calcular una matriz ponderada,
con base en varianzas y covarianzas asintóticas de correlaciones policóricas, que puede ser
usada junto con una matriz de correlaciones policóricas en un MEE. Sin embargo, hay dos
limitaciones potenciales en las aplicaciones AFCO con datos ordinales: (1) los estadísticos y
errores estándar podrían ser afectados por sesgos en la matriz de covarianza asintótica
introducidos por variables latentes no normales y (2) las dimensiones de la matriz ponderada
óptima suelen ser excesivas y crecen rápidamente en función del número de indicadores del
modelo. El cálculo de los valores asintóticos requiere un gran tamaño de muestra para producir
estimaciones estables; se ha propuesto un mínimo de (k+1)(k+2)/2, donde k es el número de
indicadores.
Ante los problemas de usar MCP completo con muestras pequeñas se ha desarrollado un
enfoque denominado MCP robusto. Las estimaciones de parámetros se obtienen sustituyendo la
matriz ponderada por una matriz diagonal con varianzas asintóticas de los parámetros y
estimaciones de correlaciones policóricas (es decir, los elementos de la diagonal de la matriz
ponderada original). Una vez obtenido el vector de parámetros, se usa la matriz robusta de
covarianza asintótica para obtener los errores estándar. En este método, los grados de libertad
se determinan a partir de los datos empíricos, en lugar de las especificaciones del modelo, y la
prueba de ajuste consiste en una estadística chi-cuadrado ajustada.
Discusión y conclusiones
Las correlaciones policóricas entre variables ordinales producen estimaciones precisas de las
relaciones entre variables latentes distribuidas normalmente. Las violaciones menores de la
normalidad, en una medida que pudiera esperarse en la investigación aplicada, conducen a
estimaciones ligeramente sesgadas de las correlaciones policóricas (menos de 0,03 en la medida
de la correlación). La no-normalidad en las variables latentes, combinada con los valores de
umbrales usados para categorizar los datos, no produce tablas de contingencia con bajas
frecuencias esperadas en las celdas.
Cuando se ajustan modelos AFCO, usando matrices de correlaciones policóricas
observadas, el MCP completo produce coeficientes chi-cuadrado y errores estándar
correctamente asintóticos (aunque tiende a inflar los primeros y a subestimar los segundos, lo
cual se agrava con modelos más complejos y muestras menores). El MCP completo es
problemático en estimaciones de modelos con un gran número de indicadores a partir de
muestras pequeñas (aun con una muestra de 200 puede no lograrse una solución AFCO
apropiada). El MCP robusto permite obtener soluciones apropiadas aunque el modelo sea
complejo y la muestra pequeña. Aunque los estadísticos de ajuste producidos con un MCP
robusto tienden también a ser sesgados positivamente, los sesgos son sustancialmente menores
que los observados con un MCP completo. Con ambos métodos (completo y robusto), mientras
más se alejen de la normalidad las variables latentes mayores serán los sesgos positivos en las
estimaciones de parámetros AFCO.
14
Tres conclusiones generales:
Referencias
• Bandalos, D.L. y M.R. Boehm-Kaufman (2009): "Four common misconceptions in
exploratory factor analysis". En C.E. Lance y R.J. Vandenberg (eds.): Statistical and
methodological myths and urban legends: doctrine, verity and fable in the organizational and social
sciences. Nueva York: Routledge.
• Benson, J. y F. Nasser (1998): "On the use of factor analysis as a research tool". Journal of
Vocational Research. Vol. 23. No. 1, 13-23.
• Costello, A.B. y J.W. Osborne (2005): "Best practices in exploratory factor analysis: four
recomendations for getting the most from your analysis". Practical Assessment, Research &
Evaluation. Vol. 10. No. 7, 1-9.
• Flora, D.B. y P.J. Curran (2004): An empirical evaluation of alternative methods of
estimation for confirmatory factor analysis with ordinal data". Psychological Methods. Vol. 9.
No. 4, 466-491.
• Stapleton, C.D. (1997): "Basic concepts and procedures of confirmatory factor analysis".
Ponencia presentada en la reunión anual de la Southwest Educational Research Association,
Austin, enero.
• Suhr, D.D. (2006): "Exploratory or Confirmatory Factor Analysis?". Paper 200-31.
Proceedings of the Thirty-first Annual SAS® Users Group International Conference. San
Francisco, California, marzo 26-29. Cary: SAS Institute Inc.
15