INTRODUCCION El Análisis Factorial es una técnica que consiste en resumir la información contenida en una matriz de datos con V variables

. Para ello se identifican un reducido número de factores F, siendo el número de factores menor que el número de variables. Los factores representan a la variables originales, con una pérdida mínima de información. El modelo matemático del Análisis Factorial es parecido al de la regresión múltiple. Cada variable se expresa como una combinación lineal de factores no directamente observables. Xij = F1i ai1 + F2i ai2+....+Fki aik + Vi Siendo: Xij la puntuación del individuo i en la variable j . Fij son los coeficientes factoriales. aij son las puntuaciones factoriales. Vi es el factor único de cada variable. Ejemplo gráfico de un modelo.

El origen del Análisis Factorial suele atribuirse a Spearman (1904). expresó la relación entre las correlaciones y las saturaciones de las variables en los factores. Para que el Análisis Factorial tenga sentido deberían cumplirse dos condiciones básicas: Parsimonia e Interpretabilidad. Con esto se plantea el dilema de qué método elegir. que presentó la primera propuesta del "método de componentes principales". El método de Componentes Principales suele ser el más utilizado. según el cual hay unos factores que representan a las variables originales. respecto al Análisis Factorial. De todas formas hay autores que consideran que el Análisis de Componentes Principales es distinto del Análisis Factorial. Podemos distinguir entre Análisis Factorial Exploratorio. d. primer paso para el cálculo del Análisis Factorial. Por lo tanto. siendo el número de estos superior al de aquellos. Las respuestas han sido distintas segûn las diversas tendencias. se han propuestos múltiples métodos para la extracción de factores. segûn el método que se adoptase. Kaiser (1958) desarrolló el método Varimax para realizar rotaciones ortogonales mediante procedimientos matemáticos. A lo largo del desarrollo histórico del Análisis Factorial se han planteado algunos problemas de fondo que han dado lugar a distintas propuestas de solución.Los métodos de rotación de factores.El nûmero de factores a extraer. También desarrolló la teoría y método de las rotaciones factoriales para obtener la estructura factorial más sencilla. Un continuador suyo fue K. comprobándose que había distintas soluciones a un mismo problema. Una buen solución factorial es aquella que es sencilla e interpretable. c. . donde distingue un factor general (factor G) y cierto nûmero de factores específicos. Introdujo el concepto de estructura simple. en su clásico trabajo sobre inteligencia. Pearson (1901).Los métodos de extracción de factores. donde no se conocen los factores "a priori". Según el principio de parsimonia los fenómenos deben explicarse con el menor número de elementos posibles. En un principio las rotaciones eran gráficas. ANTECEDENTES HISTORICOS Los antecedentes del Análisis Factorial se encuentran en las técnicas de regresión lineal.La estimación de las comunalidades. b. Los aspectos más polémicos han sido: a. Por ejemplo. Thurstone (1947). y se somete a comprobación el modelo. iniciadas por Galton. Hotelling (1933).Se asume que los factores únicos no están correlacionados entre sí ni con los factores comunes. sino que se determinan mediante el Análisis Factorial y. por otro lado estaría el Análisis Confirmatorio donde se propone "a priori" un modelo. el número de factores debe ser lo más reducido posible y estos deben ser susceptibles de interpretación sustantiva. desarrolló un método de extracción de factores sobre la técnica de "componentes principales".

9 1.0 .ANALISIS FACTORIAL vs COMPONENTES PRINCIPALES. El Análisis Factorial y el Análisis de Componentes Principales están muy relacionados. De este modo sería posible obtener tantos componentes como variables originales aunque esto en la práctica no tiene sentido. Algunos autores consideran el segundo como una etapa del primero y otros los consideran como técnicas diferentes. Supongamos la matriz de correlaciones siguiente: y x y 1. dentro del cual existen diferentes métodos. el segundo factor sería aquel que explica la mayor parte de la varianza restante. El Análisis Factorial supone que existe un factor común subyacente a todas las variables. puede ser visto en el siguiente ejemplo. Kim y Mueller (1978) recomiendan utilizar el de máxima verosimilitud o el de mínimos cuadrados. La varianza única es la parte de la variación de la variable que es propia de esa variable. b. el Análisis de Componentes Principales no hace tal asunción. que exprese lo que es común a esas variables.0 sobre la cual es operado un procedimiento de componentes principales y se obtienen los resultados: Factor Matrix: . entendiendo aquel como la aproximación inicial que tiene el investigador sobre los datos que desea analizar. La varianza común es la parte de la variación de la variable que es compartida con las otras variables. menor en número que las variables originales. se centra en la varianza total. de la que no explicaba el primero y así sucesivamente. El Análisis de Componentes Principales no hace esa distinción entre los dos tipos de varianza. En el Análisis de Componentes Principales. La importancia que tiene el modelo en la valoración de resultados y elección de la técnica estadística correspondiente.9 x . Por su parte el Análisis Factorial busca factores que expliquen la mayor parte de la varianza común. En el Análisis Factorial se distingue entre varianza común y varianza única. Mientras que el Análisis de Componentes Principales busca hallar combinaciones lineales de las variables originales que expliquen la mayor parte de la variación total. Ante la variedad de métodos que existen dentro del Análisis Factorial. Análisis de Componentes Principales. En resumen tenemos dos grandes tendencias: a. es decir. El Análisis de Componentes Principales trata de hallar componentes (factores) que sucesivamente expliquen la mayor parte de la varianza total. el Análisis Factorial pretende hallar un nuevo conjunto de variables. el primer factor o componente sería aquel que explica una mayor parte de la varianza total. Análisis factorial.

19.9*x>. podré explicar el 95% de la varianza en cada x e y. vamos a ver un modelo propuesto desde el punto de vista de la regresión simple que da lugar a los resultados siguientes: Multiple R .22361 -. .80806 Standard Error . Si por el contrario operásemos un método de análisis factorial obtendría los resultados siguientes: Factor Matrix: FACTOR 1 Y X .43811 -----------------.89930 * 1 1. que parece que y-x está cerca de ser una constante".000 1.440 .00000 * 2 .79859 89. Examen de esa matriz.".94831 Final Statistics: Variable Y X Communality * Factor Eigenvalue Pct of Var Cum Pct * .10000 5.81000 Adjusted R Square . PASOS EN EL ANALISIS FACTORIAL Los pasos que se suelen seguir en el Análisis Factorial son: 1. podemos esperar que el valor de y puede ser deducido de la ecuación matemática <0.89930 * donde la conclusión que podríamos extraer sería del tipo siguiente: "Se constata la existencia de 3 variables aleatorias independientes: donde una está oculta (factor común) y determina o influye tanto sobre x como sobre y.Variables in the Equation -----------------Variable B SE B Beta T Sig T X . También se puede decir.00000 * 1 1.22361 Final Statistics: Variable Y X Communality * Factor Eigenvalue Pct of Var Cum Pct * 1.97468 .0 podríamos verificar una conclusión semejante a la siguiente: "Se observa que el primer componente principal es y+x.0 1.90000 . Por último.04381 . si yo conozco el valor exacto de esta suma. desde el punto de vista de este tipo de modelo. Lo cual significa a nivel práctico. que necesitamos más variables que las que realmente observamos para ajustar los resultados al modelo propuesto.9 .Calcular la matriz de correlaciones entre todas las variables (conocida habitualmente como matriz R).97468 FACTOR 2 . Sobre la polémica entre Análisis Factorial y Componentes Principales puede consultarse el volumen 25 de Multivariate Behavioral Research (1990).9 89. pero teniendo en cuenta que también sería de esperar que el modelo ajustase igual de bien si los valores estuviesen entre 0 and .90000 R Square .94831 . Apareciendo como plausible que la varianza única asociada con y puede ser .0 100.00000 .90000 20.0000 (Constant) .Y X FACTOR 1 .10.04403 . y el resultado de esta predicción debería explicar el 81% de la varianza en y".0 95.90000 95.0000 pudiendo verificarse una conclusión del tipo siguiente: "Verificamos que conocido el valor de x. y además existen otras 2 variables ocultas (factores específicos) que tienen influencia única o singular sobre x e y.

84 0.45 0. si se acepta la hipótesis nula (p>0.05) significa que las variables no están intercorrelacionadas y por tanto no tiene mucho sentido llevar a cabo un Análisis Factorial. 4. En realidad sólo los dos primeros pasos son indispensables. que el determinante de la matriz de correlaciones es 1. es decir ausencia de correlación significativa entre las variables.63 0. pues esto indicaría que algunas de las variables son linealmente dependientes y no se podrían realizar ciertos cálculos necesarios en el Análisis Factorial).45 0. ln=logaritmo neperiano.63 0.Rotación de los factores con objeto de facilitar su interpretación.70 0.92 0. 3. Uno de los requisitos que deben cumplirse para que el Análisis Factorial tenga sentido es que las variables estén altamente correlacionadas.92 0. Ho: | R| = 1 La formula correspondiente asume la siguiente expresión: donde. n =tamaño muestral.30 1 0.82 0.76 0. pero no debe ser cero (matriz no singular).30 0.38 1 0.65 0.65 0. Esto significa que la nube de puntes se ajustara a una esfera perfecta.5 1 0. Pueden utilizarse diferentes métodos para comprobar el grado de asociación entre las variables: .73 0.49 0.59 Una vez que se dispone de esta matriz concierne examinarla para comprobar si sus características son adecuadas para realizar un Análisis Factorial.Calcular las puntuaciones factoriales de cada individuo.. Representación gráfica.38 0.68 0. . R =matriz de correlaciones. .73 0.68 0. el 3º y 4º son un complemento.59 1 1 0.40 0.. Es muy útil cuando el tamaño muestral es pequeño. EXAMEN DE LA MATRIZ DE CORRELACIONES El primer paso en el Análisis Factorial será calcular la matriz de correlaciones entre todas las variables que entran en el análisis.Test de Esfericidad de Bartlett: Comprueba que la matriz de correlaciones se ajuste a la matriz identidad ( I).50 0. De tal forma que tendremos una matriz del tipo : X1 X1 X2 X3 X4 X5 X6 X2 X3 X4 X5 Xj 0.76 1 0. v =número de variables.Extracción de los factores necesarios para representar los datos. expresando así la hipótesis nula por: Ho: R = I es decir.84 0.82 0.El determinante de la matriz de correlaciones: un determinante muy bajo indicará altas intercorrelaciones entre las variables.70 0.2.

9 >= KMO >= 0. MATRIZ FACTORIAL A partir de una matriz de correlaciones. rij= correlación simple.7 mediano 0. el Análisis Factorial extrae otra matriz que reproduce la primera de forma más sencilla. que deberá ser alto. rij= correlación simple. valores bajos de este índice desaconsejan el uso del Análisis Factorial.Medida de Adecuación de la Muestra (MSA): donde. Esta técnica. Como baremo para interpretar el índice KMO podría tomarse según Kaiser: 1 >= KMO >= 0. ponderaciones o saturaciones .5 bajo KMO <= 0.6 >= KMO > 0.. toma los valores de la correlación múltiple al cuadrado como los valores iniciales de comunalidad. Valores bajos del indice KMO desaconsejan la utilización de Análisis Factorial. es decir..8 meritorio 0.. . sobre todo si la técnica a utilizar es un análisis factorial.8 >= KMO >= 0. aij= correlación parcial. Esta nueva matriz se denomina matriz factorial y adopta la siguiente forma: 1 2 3 4 5 6 1 P11 P12 P13 P14 P15 P16 2 P21 P22 P23 P24 P25 P26 Cada columna es un factor y hay tantas filas como variables originales.Correlación Anti-imagen: que es el negativo del coeficiente de correlación parcial. por defecto.7 >= KMO >= 0. son ortogonales. .6 mediocre 0. aunque estrictamente sólo son correlaciones cuando los factores no están correlacionados entre sí.Indice KMO de Kaiser-Meyer-Olkin: donde.9 muy bueno 0.. Los elementos Pij pueden interpretarse como índices de correlación entre el factor i y la variable j. deberá haber pocos coeficientes altos para que sea razonable aplicar el Análisis Factorial. aij= correlación parcial. cargas.5 inaceptable ..Correlación Múltiple. Estos coeficientes reciben el nombre de pesos.

factoriales. Las cargas factoriales pueden tener como valor máximo 1. La suma de los cuadrados de los pesos de cualquier columna de la matriz factorial es lo que denominamos eigenvalues ( ). . por tanto el valor máximo que puede alcanzar el valor propio es igual al número de variables. La comunalidad (h ) es la suma de los pesos factoriales al cuadrado en cada una de las filas. Lo ideal es que cada variable cargue alto en un factor y bajo en los demás. EIGENVALUES (VALORES PROPIOS) El cuadrado de una carga factorial indica la proporción de la varianza explicada por un factor en una variable particular. Si dividimos el valor propio entre el número de variables nos indica la proporción (tanto por ciento si multiplicamos por 100) de las varianza de las variables que explica el factor. 1 2 3 4 5 6 I II P11 P12 P13 P14 P15 P16 P21 P22 P23 P24 P25 P26 COMUNALIDADES Se denomina "comunalidad" a la proporción de la varianza explicada por los factores comunes en una variable. indica la cantidad total de varianza que explica ese factor para las variables consideradas como grupo. Los pesos factoriales indican el peso de cada variable en cada factor.

.(Es el que da el ordenador SPSS por defecto). este criterio es generalmente inadecuado tendiendo a sobreestimar el número de factores. el Scree-test de Cattell (1966) consistente en representar en un sistema de ejes los valores que toman los eigenvalues (ordenadas) y el número de factor (abscisas).. Uno de los más conocidos y utilizados es el criterio o regla de Kaiser (1960) que indicaría lo siguiente: "conservar solamente aquellos factores cuyos valores propios (eigenvalues) son mayores a la unidad". . En el Análisis de Componentes Principales como no suponemos la existencia de ningún factor común la comunalidad toma como valor inicial 1. Se han dado diversos criterios para determinar el número de factores a conservar. Uno de los problemas que se plantean. En los otros métodos se utilizan diferentes modos de estimar la comunalidad inicial: . Sin embargo. + P kj NUMERO DE FACTORES A CONSERVAR La matriz factorial puede presentar un número de factores superior al necesario para explicar la estructura de los datos originales..El promedio de los coeficientes de correlación de una variable con todas las demás. Otros criterios propuestos han sido por ejemplo. este resulta ser uno de los problemas del Análisis Factorial. los primeros. Como la comunalidad no se puede saber hasta que se conocen los factores.El Análisis Factorial comienza sus cálculos a partir de lo que se conoce como matriz reducida compuesta por los coeficientes de correlación entre las variables y con las comunalidades en la diagonal. Generalmente hay un conjunto reducido de factores. consiste en determinar el número de factores que debemos conservar.Estimando la comunalidad por el cuadrado del coeficiente de correlación múltiple entre x y las demás variables. de manera que se cumpla el principio de parsimonia. . que son los que explican la mayor parte de la variabilidad total. por tanto.Calculando a partir de los dos coeficientes de correlación mayores de esa variable la siguiente operación: La comunalidad final de cada variable viene dada por: h =P 1j +P 2j + . Este criterio es el que suelen utilizar los programas estadísticos por defecto.Estimando la comunalidad por la mayor correlación en la fila i-ésima de la matriz de correlaciones. Sobre la gráfica resultante se traza una línea recta base a la altura de los últimos autovalores (los más pequeños) y aquellos que queden por encima indicarán el número de factores a retener. Los otros factores suelen contribuir relativamente poco. .

Cuando se generan matrices muestrales basadas en esa matriz poblacional por fluctuaciones debidas al azar los autovalores excederán levemente de 1 y los últimos estarán ligeramente por debajo de 1. que implica calcular el promedio de las correlaciones parciales al cuadrado después de que cada uno de los componentes ha sido parcializado de las variables originales. que se distribuye según Ji-cuadrado. a partir de la matriz factorial muchas veces resulta difícil la interpretación de los factores. se trata de un criterio de bondad de ajuste pensado para la utilización del método de extracción de máxima verosimilitud. El método de Razón de Verosimilitud.5 0. De todos estos criterios los que parecen haber demostrado un mejor funcionamiento son el MAP y el Análisis Paralelo.6 2 0. sin embargo tienen la desventaja de que no son muy accesibles en la práctica.3 F. Bartlett (1950. Los componentes empíricos con autovalores superiores a los de la matriz son retenidos. introducido por Lawley (1940).5 -0. 1951) propone una prueba estadística para contrastar la hipótesis mula de que los restantes p-m autovalores son iguales (siendo p el número original de variables y m el número de factores o componentes retenidos). como sabemos.I 1 0. En síntesis consiste en hacer girar los ejes de coordenadas. Cuando el promedio de las correlaciones parciales al cuadrado alcanza un mínimo no se extraen más componentes. El Análisis Paralelo fue sugerido por Horn (1965) quien señala que a nivel poblacional los autovalores de una matriz de correlacines para variables no correlacionadas tomarían valor 1. la relación entre los factores y las variables. Sin embargo.2 4 -0. F. Para facilitar la interpretación se realizan lo que se denominan rotaciones factoriales. Un requisito para utilizar esta regla es que cada uno de los componentes retenidos deben tener al menos dos variables con pesos altos en ellos.5 3 0. que .II 0. Este mínimo se alcanza cuando la matriz residual se acerca más a una matriz identidad.6 Como se ve esta matriz factorial resulta difícil de interpretar pues no queda claro en que factor satura cada variable. Horn propone contrastar los autovalores encontrados empíricamente en los datos reales con los obtenidos a partir de una matriz de variables no correlacionadas basada en el mismo número de variables que los datos empíricos y en el mismo tamaño de muestra. Cada autovalor es excluido de manera secuencial hasta que no puede ser rechazada la hipótesis nula a través de una prueba de Ji-cuadrado. La lógica de este procedimiento es comprobar si el número de factores extraído es suficiente para explicar los coeficientes de correlación observados. La rotación factorial pretende seleccionar la solución más sencilla e interpretable. ROTACIONES FACTORIALES La matriz factorial indica.Velicer (1976) propone el método MAP (Minimum Average Partial).7 0.

A efectos prácticos se sugieren dos pasos en el proceso de interpretación: 1. Estos tres principios en la práctica no suelen lograrse.018 -0.226 0. los factores distintos deben presentar distribuciones de cargas altas y bajas distintas. Con la rotación factorial aunque cambie la matriz factorial las comunalidades no se alteran.Estudiar la composición de las saturaciones factoriales significativas de cada factor. puesto que los factores están correlacionados entre sí. La saturación de factores transforma la matriz factorial inicial en otra denominada matriz factorial rotada. y hablaremos de rotación oblicua cuando la correlación entre factores no sea nula y por tanto el ángulo distinto de 90 grados. 3. sin embargo. Así tendremos una rotación ortogonal cuando la correlación entre factores sea nula o lo que es lo mismo.702 0. También obtendremos otra matriz de correlaciones entre factores.representan a los factores. es decir. La matriz factorial rotada es una combinación lineal de la primera y explica la misma cantidad de varianza inicial. cambia la varianza explicada por cada factor. lo que se trata es de alcanzar una solución lo más aproximada posible a ello. tienen un ángulo de 90 grados entre factores. Por eso cuando hacemos rotación oblicua la matriz factorial no rotada se convierte en dos matrices diferentes: la matriz de ponderaciones (que es la que se utiliza en la interpretación) y la matriz de correlaciones entre factores y variables.Cada factor debe tener unos pocos pesos altos y los otros próximos a 0. de más fácil interpretación. De entre las rotaciones ortogonales la más utilizada es la varimax mientras en que las oblicuas es la oblimin.912 0. aunque en el caso de que existan razones para pensar que los factores están correlacionados entonces utilizaremos la rotación oblicua. INTERPRETACION DE FACTORES En la fase de interpretación juega un papel preponderante la teoría y el conocimiento sustantivo. 1935).Cada variable no debe estar saturada más que en un factor. Existen varios métodos de rotación que podemos agrupar en dos grandes tipos: ortogonales y oblicuos. 2. F.216 F.483 0.639 Como hemos dicho el objetivo de la rotación es obtener una solución más interpretable. la matriz factorial debe reunir las siguientes características: 1. Lo más recomendable es la rotación ortogonal.I 0. Según este principio. . En la rotación oblicua las ponderaciones factoriales no coinciden con las correlaciones entre el factor y la variable. una forma de conseguirlo es intentando aproximarla al principio de estructura simple (Thurstone. La correlación entre las variables puede representarse como el ángulo entre dos vectores y específicamente vendría dada como el coseno del ángulo entre dos vectores.No deben existir factores con la misma distribución. hasta conseguir que se aproxime al máximo a las variables en que están saturados.026 -0.II 0.

0134042 Kaiser-Meyer-Olkin Measure of Sampling Adequacy = .08595 .25).49473 -.86326 Measures of Sampling Adequacy (MSA) are printed on the diagonal.06255 .64664 .00000 X21 .00000 X20 .92995 X17 -.02226 -.85949 X18 -.66688 .La eliminación de las cargas factoriales bajas (generalmente aquellas que van por debajo de 0. Extraction 1 for analysis 1.75680 . ----------.25867 -.33543 -.2.87189 Bartlett Test of Sphericity = 1009.64301 1.9 .01805 .92638 X21 . Significance = .FACTOR ANALYSIS ----------Analysis number 1 Listwise deletion of cases with missing values Label X16 test de figura humana X17 test tipo de letras X18 test de reconocimiento de formas X19 test numérico X20 test de términos relacionables X21 test de habilidades de clasificación Number of Cases = 238 Correlation Matrix: X16 X17 X18 X19 X20 X21 X16 1. Nombre que se debe dar de acuerdo con la estructura de sus saturaciones. Factores bipolares.57707 . es decir. son aquellos factores en los que unas variables cargan positivamente y otras tienen carga negativa.12052 -.82683 X20 -.15756 -.00000 X17 . conociendo su contenido. Dos cuestiones que pueden ayudar a la interpretación son: .00000 * 1 4.56112 .04601 -.67496 1.55459 .62461 .76539 .25313 70.61893 1.00000 X18 .00000 Anti-image Correlation Matrix: X16 X17 X18 X19 X20 X21 X16 .7701.86299 X19 -.00000 X19 . . Principal Components Analysis (PC) Initial Statistics: Variable Communality * Factor Eigenvalue Pct of Var Cum Pct X16 1.58592 .52379 . Llamaremos variable compleja a aquella que satura altamente en más de un factor y que no debe ser utilizada para dar nombre a los factores.59515 1.22016 .81875 .05431 .9 70.31840 .66623 1.Intentar dar nombre a los factores. EJEMPLOS DE ANALISIS EN SPSS Ejemplo de un análisis factorial en SPSS por el método de componentes principales y sin rotación.04384 -.00000 Determinant of Correlation Matrix = .Ordenar la matriz rotada de forma que las variables con saturaciones altas en un factor aparezcan juntas.

00000 1.9 70.49556 8.90727 X20 .00000 1.42083 7.84477 X19 .79095 X17 .3 7.68509 * X18 .42083 .46084 . 5 iterations required.5 100.82559 * X20 .22175 . Factor Matrix: Factor 1 X16 .80748 X19 .86790 Final Statistics: Variable Communality * Factor Eigenvalue Pct of Var Cum Pct * X16 .00000 * * * * * 2 3 4 5 6 .7 97.85728 X18 .14788 8.73493 * X18 . Factor Matrix: Factor 1 X16 .0 93.1 X18 .53970 * 1 3.1 86. Extraction 1 for analysis 1. Principal Axis Factoring (PAF) Initial Statistics: Variable Communality * Factor Eigenvalue Pct of Var Cum Pct X16 .25313 70.46084 7.62559 * 1 4.5 X21 .0 PAF extracted 1 factors.5 79.22175 3.3 65.7 7.71364 * X19 .8 X20 .60012 * X21 .82314 * X20 .X17 X18 X19 X20 X21 1.5 100.8 97.69691 * 6 .49556 .82770 X18 .73464 X17 .51364 * 1 4. se puede observar como la solución varia al utilizar el metodo del factor principal.9 X17 .64848 * 3 .92069 65.49440 * 5 .77467 X21 .78264 * 4 .9 X17 .0 PC extracted 1 factors.51037 * X21 .00000 1.8 X19 .90862 X20 .25313 70.84284 Final Statistics: Variable Communality * Factor Eigenvalue Pct of Var Cum Pct X16 .7 2.3 X17 .3 79.8 93.14788 2.9 70.75326 * A partir de los datos del primer ejemplo.0 3.71037 * .00000 1.7 86.69627 * 2 .65202 * X19 .71440 X21 .

Sign up to vote on this title
UsefulNot useful