Está en la página 1de 27

ANÁLISIS MULTIVARIANTE DE DATOS EN PSICOLOGÍA

ANÁLISIS FACTORIAL EXPLORATORIO

1.1. Introducción
1.2. El Modelo De Análisis Factorial Exploratorio
1.3. Estructura De La Matriz De Correlaciones En El Modelo De
Análisis Factorial: Teorema Fundamental
1.3.1. Modelo De Factores Ortogonales
1.3.2. Modelo De Factores Oblicuos
1.4. Métodos De Extracción Factorial
1.4.1. El Análisis de Componentes Principales
1.4.2. Método de los Factores Principales
1.4.3. Máxima Verosimilitud
1.4.4. Otros Métodos De Extracción Factorial
1.5. Soluciones Factoriales Derivadas: Rotaciones
1.5.1. Métodos Gráficos
1.5.2. Métodos Analíticos
1.6. Interpretación De Los Factores Obtenidos
1.7. Puntuaciones Factoriales
Análisis Factorial Exploratorio

1.1 Introducción al Análisis Factorial Exploratorio


(AFE)

Al hilo de los temas que vamos desarrollando, además de


los criterios que hemos comentado antes para clasificar a las
técnicas multivariantes, se suele utilizar otro que hace
referencia al objetivo de la técnica concreta. Atendiendo a
este último criterio al análisis factorial se le clasifica
como una técnica para la reducción de datos o para la
simplificación estructural. En las páginas que siguen
intentaremos aclarar en qué sentido el AFE es una técnica de
reducción de datos.
Haciendo un poco de historia, el AFE es una de las
técnicas multivariantes más ligada a la investigación
psicológica; de hecho se ha llegado a confundir con una teoría
psicológica. Surge con la intención de "proporcionar modelos
matemáticos para la explicación de las teorías psicológicas de
la capacidad y comportamiento humano" (Comrey, 1985; Harman,
1980, p. 23). Fue Charles Spearman en 1904 el primero en
describir la ejecución de los sujetos en un test de
inteligencia en términos de un factor general (factor g)y un
factor específico (s) propio de cada test. Esta formulación de
Spearman dió lugar a la Teoría Factorial de la Inteligencia.
Aunque, Spearman está considerado el padre del análisis
factorial lo que se entiende en la actualidad por AFE tiene su
punto de partida en el trabajo de Thurstone "Multiple Factor
Analysis" publicado en 1931. Thurstone estableció la relación
entre las correlaciones observadas y los coeficientes de la
matriz factorial e introdujo el concepto de "estructura
simple" y las primeras rotaciones en el espacio de los
factores comunes (Cuadras, 1981).
Además del trabajo de Spearman, otros autores han podido,
utilizando AFE, identificar nuevos conceptos científicos o
definir con más precisión otros ya conocidos (García, Gil y
Rodríguez, 2000). Eysenck (1947, 1967) utilizó el AFE para
confirmar su idea de que la personalidad podía definirse en
torno a dos dimensiones básicas: extroversión-introversión y
neuroticismo-estabilidad emocional. Cattell (1957, 1972)
también utilizó el AFE para reducir los casi ochenta y tres
factores vinculados con rasgos de personalidad que había
descrito en su “Universal Index of Source Traits”. Desde estas
primeras investigaciones hasta nuestros días, son innumerables
las investigaciones en ciencias sociales y naturales que
utilizan AFE para simplificar la estructura de un problema
buscando subgrupos de variables manifiestas coherentes entre
sí (Tabachnick y Fidell, 1983; Tacq, 1997).
Desde un punto de vista matemático, los inicios del
Análisis Factorial le confieren a éste un carácter puramente
geométrico y exploratorio. Con posterioridad se han

2
 C N 1 0 .8 0 4 0 .3 6 6 0 .4 2 7 0 .2 3 2 
 M 1 0 .1 3 8 0 .4 2 6 0 .4 0 8 
 
 F 1 0 .8 1 3 0 .7 4 7 
 
 L a 1 Análisis Factorial
0 . 8 1Exploratorio
2 
 L i 1 
desarrollado procedimientos que permiten caracterizarlo como
un método estadístico y permiten un uso inferencial y
confirmatorio de dicha técnica.
El objetivo esencial del análisis factorial es describir,
si fuera posible, las correlaciones o covarianzas observadas
entre un conjunto de variables en términos de un número menor
de variables aleatorias no observables denominadas factores,
variables latentes o constructos (Johnson, 1988, 1998). El
argumento que soporta este objetivo es el siguiente: en el
supuesto de que podamos identificar grupos de variables con
correlaciones altas entre sí y bajas con las variables que
pertenecen a otros grupos, se puede entender que cada grupo de
variables representa a una variable latente o factor. Este
factor subyacente es el responsable de las correlaciones
observadas.
Un ejemplo puede aclarar el objetivo del AFE. Reuchlin en
1964 se propuso estudiar la estructura factorial de la matriz
de correlaciones observadas entre asignaturas que se imparten
en enseñanza media. Concretamente, consideró las notas en las
asignaturas matemáticas, ciencias naturales, francés, latín y
literatura y calculó, a partir de la matriz de puntuaciones
observadas (X), la matriz de correlaciones entre las
asignaturas (R). La matriz de correlaciones obtenida fue:
CN M F La Li

CN 1 0.804 0.366 0.427 0.232


M 1 0.138 0.426 0.408
F 1 0.813 0.747
La 1 0.812
Li 1

En la matriz anterior se pueden identificar dos grupos de


variables con correlaciones altas entre sí y bajas con el
resto. Un grupo estaría formado por las variables Ciencias
Naturales y Matemáticas (r = 0.804) y el otro grupo por las
variables latín, literatura y francés. Cada grupo
representaría a un factor. Reuchlin, etiquetó uno de los
factores como habilidad lógico-formal y al otro como habilidad
verbal. La representación, en el plano definido por los dos
factores implícitos en la matriz de correlaciones nos da idea
de la similitud entre las variables. Así, si consideramos un
sistema de ejes rectangular, las asignaturas de matemáticas y
ciencias naturales están próximas y en el extremo del eje

3
Análisis Factorial Exploratorio

correspondiente a la habilidad lógico-formal; mientras que las


asignaturas: latín, literatura y francés están más próximas
entre ellas que con las anteriores y cercanas al extremo del
factor correspondiente a la habilidad verbal (ver figura 1.1).

Representación de las variables en el plano de los factores


1.0

.8

.6

Asignaturas

.4 M

LI

.2 LA

F
F2

0.0 CN
0.0 .2 .4 .6 .8 1.0

F1

Figura 1.1. Representación factorial de las variables del ejemplo de Reuchlin.

El objetivo del análisis factorial va a ser, por tanto,


obtener e interpretar ese conjunto reducido de m variables
latentes que permiten dar cuenta de la covariación existente
entre las p variables originales, con la restricción de que el
número de factores, m, sea menor que el número de variables
medidas, p (Batista, 1981). Gráficamente dos variables Xi y Xj
están correlacionadas porque, en mayor o menor medida, son
indicadores de la misma variable latente (ver figura 1.2).

4
Análisis Factorial Exploratorio

x1 x2

Figura 1.2. Variable latente como principio


Explicativo de las covariaciones observadas

En Psicología estamos muy acostumbrados a trabajar con


variables latentes: la inteligencia, la personalidad, la
motivación, el desarrollo moral, las actitudes, etc. Todas
estas variables no son directamente observables; lo que
observamos y cuantificamos son conductas en las que,
entendemos, que se ponen de manifiesto esos constructos. El
objetivo del análisis factorial será identificar e
interpretar las variables latentes, dimensiones, factores o
constructos que están en la base de las correlaciones
observadas. La descripción de algunas investigaciones,
desarrolladas en diferentes ámbitos de la Psicología, en las
que se ha utilizado Análisis Factorial nos ayudarán a entender
esta importante técnica multivariante.
Así, entre otras, estudiaremos las siguientes
investigaciones:

1)Dimensiones básicas en una escala de autoestima aplicada a


los alumnos de la asignatura Análisis Multivariante de Datos
en Psicología.
2) Estudio de las dimensiones básicas de las ideas de los
padres/madres acerca de la educación de sus hijos/as.
3) Estudio de las dimensiones básicas en el comportamiento en
el aula de maestros de preescolar.
4) Dimensiones básicas en el comportamiento inteligente en
humanos.
5) Actitudes políticas de la población española.
6) Actitudes ante las asignaturas del área de metodología de

5
Análisis Factorial Exploratorio

la facultad de Psicología.
7) Actitudes ante el conductismo de los alumnos de la Facultad
de Psicología de la Universidad de Sevilla.
8) Actitudes ante el consumo de refrescos en la población
española.
En resumen, el análisis factorial nos va a permitir
describir el fenómeno bajo estudio en términos de sus
dimensiones básicas eliminando la información redundante. Como
subproducto, va a ser posible, también, obtener las
puntuaciones de los sujetos en los factores latentes y
utilizar dichas puntuaciones en análisis posteriores. Las
nuevas variables (factores) no son directamente observables
obedeciendo a conceptos de naturaleza más abstracta que las
variables originales y se obtienen por un proceso de
elaboración a partir de las covariaciones o correlaciones
entre las variables observadas.
El punto de partida, como tendremos oportunidad de ver a
lo largo del desarrollo de este tema, va a ser la matriz de
correlaciones (R) entre las variables observadas o la matriz
de varianzas-covarianzas (S). De ahí que, sea necesario que
las variables estén medidas al menos en escala de intervalo y
que tengan una razonable unidad experimental. Por ejemplo, es
adecuado un análisis factorial sobre tests que midan la
inteligencia o sobre tests que midan personalidad, pero no
sería adecuado mezclar los dos tipos de tests (Cuadras, 1981).
Una vez descrito el objetivo del análisis factorial
exploratorio, en los puntos que siguen desarrollaremos los
aspectos formales necesarios para poder utilizar, con la ayuda
de software adecuado, el AFE.

1.2. El modelo de Análisis Factorial Exploratorio.


El modelo de análisis factorial exploratorio supone que
toda variable observada (Xi) es combinación lineal de un número
menor de variables no observables denominadas factores. Se
distinguen dos tipos de factores:
a) factores comunes (fj): son fuentes de variación comunes
a todas las variables (Xi) y,
b) factores específicos (ui): son fuentes de variación
específicas de cada variable. En este término se incluyen
también los errores de medida (ei). Así, cada variable
observada se expresa como una combinación lineal de factores
comunes y específicos de la siguiente manera:

x 1  a 11 f 1  a 12 f 2  ...  a 1m f m  d 1 u 1
x 2  a 21 f 1  a 22 f 2  ...  a 2 m f m  d 2 u 2
(1.1)
...................................................
x p  a p1 f 1  a p 2 f 2  ...  a pm f m  d p u p

6
Análisis Factorial Exploratorio

en notación matricial el sistema de ecuaciones (1.1) viene


dado por

 x1   a11 a12 ... a1m  f1   d1 0 ... 0  u1 


       
 x2   a21 a22 ... a2 m  f2   0 d2 ... 0  u2 
 ...    ... ... ... ... 

.   ... ... ... ...  ... 
       
 x  a
 p   p1 ap2 ... a pm  f m   0 0 ... 0  u p 

o en forma compacta

X =Af+Du (1.2)

En la expresión (1.2), x, f y u son vectores que


contienen, respectivamente, p variables observadas, m factores
comunes y p factores específicos. La matriz A de orden p×m y
de término general {aij} es la matriz de cargas, pesos o
saturaciones factoriales. Se le denomina patrón factorial y
es, junto a la estructura factorial, que definiremos más
tarde, una de las matrices necesarias en toda solución
factorial.
Sin pérdida de generalidad, vamos a suponer que las
variables incluidas en el modelo (1.2) son variables reducidas
o tipificadas. Es decir,

E(xi) = 0 E(fj) = 0 E(ui) = 0


Var(xi) = 1 Var(fj) = 1 Var(ui) = 1

y que las relaciones entre factores comunes y específicos son


las siguientes:

- los factores comunes (fj) no correlacionan con los factores


específicos (ui)

Corr (fj, ui) = 0

- los factores específicos no correlacionan entre sí

Corr (ui,uk) = 0

y si asumimos, además, que

7
Análisis Factorial Exploratorio

- los factores comunes están incorrelacionados entre sí

Corr (fj, fi) = 0 si i  j,

el modelo (1.2), con la última restricción, recibe el nombre


de modelo de factores comunes ortogonales. Esta última
condición permite expresar las variables en función de
factores independientes, en el sentido de que no exista entre
ellos interdependencia lineal, con el fin de encontrar "causas
latentes" no redundantes (Cuadras, 1991).
Si, por el contrario, consideramos que los factores
comunes pueden covariar el modelo es de factores oblicuos. En
análisis factorial exploratorio se suele utilizar,
fundamentalmente, el modelo de factores ortogonales, dado el
desconocimiento acerca de la estructura factorial subyacente.
El modelo de factores oblicuos tiene más sentido en análisis
factorial confirmatorio como veremos en el tema 5.
Asumiendo, por tanto, factores comunes incorrelacionados
el problema del análisis factorial va a reducirse a determinar
la matriz A de pesos factoriales y a interpretar los factores
obtenidos a partir de dichos pesos.
Para determinar la matriz A es necesario relacionarla con
la matriz de correlaciones (o de varianzas-covarianzas) entre
las variables observadas.

1.3. Estructura de la matriz de correlaciones en el


modelo de Análisis Factorial Exporatorio: Teorema
Fundamental
El problema del Análisis Factorial, como ya hemos
comentado antes, va a ser determinar la matriz A de cargas
factoriales. Matemáticamente, la relación entre variables
observadas y factores es la misma que entre las variables del
modelo de regresión lineal múltiple. No obstante existen
diferencias sustanciales: las variables predictoras son
observadas en el modelo de regresión lineal múltiple; en
cambio, son variables no observadas en el modelo factorial.
Las variables criterio son, en ambos casos, observadas. Los
pesos aij pueden ser interpretados de modo similar a los
parámetros i de la regresión y, en los dos casos, la relación
entre variables criterio y predictoras no es exacta, por lo
que aparece un término de error.
La diferencia en las variables predictoras hace que los
parámetros del modelo factorial no puedan ser estimados como
en la regresión (no conocemos las puntuaciones de los sujetos
en los factores) y se hace necesario examinar la estructura de
la matriz de correlaciones (R) en términos de la estructura
implícita en la parte derecha del modelo (1.2).

8
Análisis Factorial Exploratorio

Para determinar la estructura de R multiplicamos la


ecuación (1.2) por x' y tomamos esperanzas matemáticas:

R= E(xx’) = E((Af+Du)(Af+Du)’)

desarrollando la expresión anterior tenemos

R= E(xx’) = AE(ff’)A’+DE(uu’)D’

(1.3)

donde E(ff') y E(uu') son las matrices de correlaciones entre


factores comunes y factores específicos respectivamente. Ambas
matrices, por las restricciones 2 y 3 impuestas anteriormente,
corresponden a la matriz identidad (I) (elemento neutro para
el producto de matrices). La expresión (1.3) queda entonces
como

R= AA’+DD’ (1.4)

La estructura de la matriz R en los términos de la


expresión (1.4) se conoce como Teorema Fundamental del
Análisis Factorial asumiendo un modelo de factores
ortogonales.
Si desarrollamos explícitamente la expresión (1.4)
obtenemos

 m 2 m m

  a1 j  a1 j a 2 j .. a 1j a pj 
 1 r12 .. r1 p   j 1 j 1 j 1   d 12 0 .. 0 
 
r2 p   a a
m m m   
  a ..  a 2 j a pj   0 d 2
2
 r21 1 .. 2 .. 0 
2 j 1j 2j 
 .. .. .. ..   j 1 j 1 j 1   .. .. .. .. 

r r
  .. .. .. ..  
 p1 p 2 .. 1   m m m
 0 0 .. d p 2 
  a pj a1 j a pj a2 j ..  a 2pj  
 j 1 j 1 j 1 

9
Análisis Factorial Exploratorio

Podemos distinguir en R dos tipos de elementos: los elementos de


la diagonal (todos iguales a 1) y los elementos exteriores a
la diagonal (rik). Según el Teorema Fundamental (1.4), la
correlación de una variable consigo misma (no es otra cosa que
la varianza de una variable tipificada) se descompone en

m
1  a i21  a i22  ...  a im2  d i2   a ij2  d i2 (1.5)
j 1

donde

a
j 1
2
ij

es la varianza de la variable xi explicada por el conjunto de


factores comunes (equivale al coeficiente de determinación en
regresión lineal múltiple). A este término, en análisis
factorial, se le conoce como comunalidad de la variable Xi, y
se le representa por h2i. El término d2i es la varianza de Xi no
explicada por los factores comunes. A este término se le
denomina unicidad. La expresión (1.5) quedaría entonces

m
1   a ij2  d i2  hi2  d i2
j 1

Gráficamente podemos representar la partición de la


varianza de una variable en un modelo de tres factores comunes
recurriendo a los diagramas de Venn (ver figura 1.3)

Figura 1.3. Partición de varianza de una variable en un modelo de tres factores ortogonales.

10
Análisis Factorial Exploratorio

En la figura (1.3) la comunalidad de la variable xi vendría dada por

hi2  a112  a122  a122

y la unicidad se podría expresar como

d i2  1  hi2

Los elementos externos a la diagonal de R corresponden a


las correlaciones entre las variables observadas (rik) y
quedarían, en función de la expresión (1.4), como
m
rik  a i1 a k 1  a i 2 a k 2  ...  a im a km   a ij a kj (1.6)
j 1

En la expresión (1.6) se observa que las correlación


entre dos variables observadas puede obtenerse multiplicando
los pesos factoriales de ambas variables en el conjunto de
factores comunes. Como era de esperar las unicidades de las
variables observadas no intervienen en las correlaciones.
Matricialmente la relación de las correlaciones con los pesos
factoriales es

Ra=AA’

donde a la matriz Ra se le conoce como matriz de correlaciones


reducida y, no es otra cosa que la matriz de correlaciones
entre las variables observadas, en donde se han sustituido los
1 de la diagonal por las comunalidades de las variables.
Hemos comentado antes que una solución factorial requiere
dar la matriz A o patrón factorial y la estructura factorial.
Por estructura factorial se entiende la matriz de
correlaciones entre variables observadas y factores comunes.
La matriz de correlaciones entre factores comunes y variables
observadas es

E(xf’) = AE(ff’)+DE(uf’)

dado que hemos asumido que los factores comunes son


independientes entre sí y no correlacionan con los factores
específicos la estructura factorial vendría dada por

E(xf’) = A (1.7)

La expresión (1.7) establece que, en un modelo de

11
Análisis Factorial Exploratorio

factores ortogonales, la estructura factorial es igual al


patrón factorial o, bien, que los pesos factoriales {aij}
corresponden a la correlación de la variable xi con el factor
fj.
Un ejemplo aclarará los conceptos expuestos
anteriormente. A partir de la matriz de correlaciones entre
las variables: Notas en Ciencias Naturales (CN), Matemáticas
(M), Francés (F), Latín (La) y Literatura (Li) se obtuvo la
siguiente matriz de pesos factoriales

 0.8 0.2 
 
 0.9 0.1 
 0.1 0.9 
 
 0.3 0.8 
 0.2 0.8 
 

vamos a calcular los siguientes valores:


a) comunalidad de cada variable.
b) unicidad de cada variable.
c) porcentaje de varianza de cada variable explicada por cada
uno de los factores comunes.
d) interpretación de los factores obtenidos.
Resultados:
a) Para la matriz factorial dada las comunalidades son:

h12  0.8 2  0.2 2  0.68


h22  0.9 2  0.12  0.82
h32  0.12  0.9 2  0.82
h42  0.3 2  0.8 2  0.73
h52  0.2 2  0.8 2  0.68

b) La unicidad de cada variable viene dada por:

d 12  1  0.68  0.32
d 22  1  0.82  0.18
d 32  1  0.82  0.18
d 42  1  0.73  0.27
d 52  1  0.68  0.32

c) Podemos expresar la varianza de cada variable explicada por


cada factor común y la varianza explicada por el conjunto de

12
Análisis Factorial Exploratorio

factores comunes en términos de porcentajes mediante las


expresiones
así, la tabla siguiente recoge los porcentajes de varianza
explicada para cada variable
Varianza Explicada en porcentajes

Factor 1 Factor 2 Comunalidad


C. Naturales 64 4 68
Matemáticas 81 1 82
Francés 1 81 82
Latín 9 64 73
Literatura 4 64 68

d) Para interpretar los factores vamos a representar, en el


sistema de referencia de los factores comunes, las variables
observadas. Por la suposición de que los factores están
incorrelados el sistema de referencia es rectangular (ver
figura 1.2). Las variables se representan por puntos en el
plano definido por los factores comunes, siendo las
coordenadas de dichos puntos los pesos factoriales. Observamos
(ver figura 1.2) dos agrupamientos de variables: uno con las
variables Ciencias Naturales y Matemáticas que dan contenido
al factor 1 y otro, el formado por las variables Francés,
Latín y Literatura, que dan contenido al factor 2. En todos
los casos las correlaciones entre variables observadas y
factores son positivas. No hay que olvidar que los factores
comunes son etiquetas para grupos de variables que
caracterizan estos conceptos. Así, en la primera columna de A,
las variables con pesos más altos son Ciencias Naturales y
Matemáticas; a este factor le denominamos: habilidad lógico-
formal. En la segunda columna las variables con pesos altos
son: Francés, Latín y Literatura; este segundo factor lo
etiquetamos como habilidad verbal.

1.4. Métodos de Extracción Factorial


1.4.1. Introducción
Determinar la matriz factorial A, en un modelo de
factores ortogonales, es un proceso complicado porque existen
infinitas soluciones para dicha matriz1. La indeterminación
factorial se resuelve imponiendo restricciones matemáticas que
den un significado a los factores comunes.
Los diferentes métodos propuestos, en la literatura de
1
Existen infinitas matrices de pesos factoriales que reproducen igualmente bien la matriz de correlaciones observadas. Sea B
= AT donde T es la matriz
 sen  cos  
T   
  cos  sen  

Se puede demostrar que BB’ reproduce también la matriz de correlaciones.

13
Análisis Factorial Exploratorio

Análisis Factorial Exploratorio, para determinar la matriz A


-conocidos como métodos de extracción factorial- obedecen a
tres tipos de criterios:
- Explicar el máximo de la varianza observada.
- Reproducir lo mejor posible las correlaciones observadas.
- Obtener los mejores estimadores de la matriz factorial
poblacional.
Ajustándose al primer criterio se ha desarrollado el
método conocido como Análisis de Componentes Principales
(ACP). Este método es uno de los más utilizados y está
implementado en los paquetes estadísticos de uso frecuente en
investigación (BMDP, SPSS, SAS, S-Plus, etc). Este método lo
desarrollaremos en el siguiente apartado.
Con el segundo criterio se ha desarrollado el método
conocido como Factores Principales (FP) muy relacionado con
el anterior (los modelos subyacentes a cada método son
distintos pero el método para el cálculo de la solución
factorial es el mismo) y también disponible en la mayoría de
los paquetes estadísticos.
Con el último criterio se ha desarrollado un método
conocido como Máxima Verosimilitud (ML) que también
desarrollaremos brevemente en los siguientes apartados.
Los métodos de extracción factorial proporcionan
soluciones únicas para la matriz factorial si se aceptan las
restricciones de dichos métodos. No hay garantía, no obstante,
de que las soluciones proporcionadas por los diferentes
métodos sean absolutamente equivalentes.

1.4.2. Análisis de Componentes Principales (ACP)


El análisis de componentes principales se puede
considerar tanto como un método de transformación de variables
con sentido propio o como un método de extracción factorial.
El modelo en el que se basa el análisis de componentes
principales choca con el modelo factorial propuesto. Las
componentes principales (componente equivale a factor) son
combinación lineal de las variables observables y, en
principio, se extraen tantas componentes como variables
observables. El modelo de componentes es

y1  v11 x1  v12 x 2  ...  v1 p x p


y 2  v 21 x1  v 22 x 2  ...  v 2 p x p
.......... .......... .......... .......... .
y p  v p1 x1  v p 2 x 2  ...  v pp x p

n el modelo anterior no se postula la existencia de factores


únicos.
Las componentes se extraen de manera que la primera

14
Análisis Factorial Exploratorio

componente Y1, explique el máximo posible de la varianza total


disponible. La varianza total es la suma de las varianzas de
las variables observables consideradas en la investigación,
como hemos considerado variables tipificadas la varianza total
es p.2
La segunda componente Y2, explica el máximo de la varianza
que queda al eliminar la varianza explicada por la primera
componente y con la restricción adicional de que esté
incorrelacionada con la primera.
El proceso continúa hasta explicar toda la varianza
disponible para lo cual hay que extraer tantas componentes
como variables. Las varianzas explicadas por cada componente
(Yj) las vamos a representar por j. Estas varianzas también se
denominan valores propios o raíces características. La
relación de las varianzas explicadas por cada componente será
entonces

Y1 Y2 Y3 ... Yp

Varianza
Explicada 1  2  3  ...  p > 0

La suma de las varianzas explicadas por las componentes:


p

 j 1
j  p . Normalmente suele proporcionarse el porcentaje que
de la varianza total explica cada componente. Este porcentaje
se calcula como

j
 100
p
Se demuestra (utilizando el procedimiento de
multiplicadores de Lagrange) que, las varianzas explicadas por
cada componente se obtienen resolviendo la ecuación

R  I  0

que se conoce como ecuación característica de la matriz de


correlaciones entre variables observadas (R).
Los pesos (vij) de las componentes en las variables se
obtienen resolviendo el sistema de ecuaciones que se deriva de
la expresión

2
La varianza total disponible se puede definir como la traza de la matriz R
(Tr (R)).

15
Análisis Factorial Exploratorio

0  R  i I  vi'
Una vez obtenida la matriz de pesos de las componentes en las
variables, lo normal es derivar a partir de la misma la
matrizo patrón factorial A que relaciona las variables
observables con las componentes. La relación entre estas dos
matrices es

1
A V'D 2

donde D1/23 es una matriz diagonal que contiene las raíces de


las varianzas explicadas por cada componente del conjunto de
variables observadas. Los pesos o saturaciones factoriales se
obtienen de vij según la expresión

a ij  v ji j

La matriz factorial así obtenida es una matriz de orden p


y con las siguientes propiedades:

a) La comunalidad o varianza de una variable observada


explicada por las p componentes será igual a 1. Es decir
p
hi2   a ij2  1
j 1

b) La varianza de las p variables observadas explicada por


cada componente viene dada por
p
 j   a ij2
i 1

1.4.2.1. Número de componentes a elegir


El número de componentes que se extraen con el
procedimiento descrito es igual al número de variables
observadas con lo cual no se cumple el objetivo básico del
análisis factorial: reducir el número de variables necesario
para la descripción del fenómeno. Existen, no obstante, varios
criterios que nos permiten seleccionar un número menor de
componentes que reproducen razonablemente bien las
correlaciones observadas. Algunos de los criterios más
utilizados son:
1. Criterio de Kaiser: Según este criterio se seleccionan las
m primeras componentes siempre que la varianza explicada sea
mayor que 1 (j > 1). Este es el criterio utilizado por los
1 1
3
En componentes principales V’RV=D descomponiendo
DD D 2 2

16
Análisis Factorial Exploratorio

muchos paquetes estadísticos como SPSS. La lógica de este


criterio es que un factor explique al menos la varianza de una
variable tipificada.

2. Cattell elaboró un método gráfico el "scree test" (o


gráfico de sedimentacion en el cuadro de diálogo de análisis
factorial en SPSS) (ver figura 1.4) que consiste en
representar en el eje de ordenadas los autovalores -o
varianzas explicadas por cada componente- y en el eje de
abscisas las componentes extraídas según su orden de
extracción. En la curva que nos proporciona el "scree test" se
pueden distinguir, habitualmente, dos tramos: un primer tramo
constituido por muy pocos puntos y con una pendiente negativa
muy grande; y un segundo tramo, en el que se encuentran la
mayoría de los puntos, que exhibe un decaimiento muy lento de
los valores de j. El criterio de Cattell consiste en elegir
tantas componentes como puntos haya en el primer tramo de la
curva. Este criterio suele coincidir con el anterior.

En la figura 1.4, y según el criterio de Cattell, sería


suficiente con retener 3 componentes.
3. Algunos métodos de extracción de factores tienen asociados
un test de significación para el número de factores; en
concreto, el test de significación de Lawley (Cuadras, 1981)
que describiremos con el método de máxima verosimilitud
contrasta la adecuación del número de factores extraídos.
4. El último criterio consiste en fijar una cantidad mínima de
varianza explicada por el conjunto de componentes retenidas.
Con este criterio retenemos componentes hasta alcanzar un 95%
de varianza explicada si la investigación se realiza en

17
Análisis Factorial Exploratorio

ciencias naturales y entre 60% y 70% en ciencias sociales.


Para aclarar algunos de los conceptos desarrollados
acerca del método de componentes principales podemos realizar
el siguiente ejercicio.

EJERCICIO 1. Harman (1976) utilizando componentes principales


factoriza la siguiente matriz de correlaciones entre cinco
variables socioeconómicas
Tabla 1.1. Matriz de correlaciones
Variable 1 2 3 4 5

1. Población total 1 0.01 0.97 0.44 0.02


2. Años de educación primaria 1 0.15 0.69 0.86
3. Empleo total 1 0.51 0.12
4. Servicios profesionales varios 1 0.78
5. Valor medio de la casa 1

y obtiene para la matriz factorial siguiente


Tabla 1.2. Matriz factorial
varia Y1 Y2 Y3 Y4 Y5
bles
X1 0.58 0.81 0.03 -0.06 -0.09
X2 0.77 -0.54 0.32 0.11 -0.02
X3 0.67 0.73 0.11 -0.01 0.09
X4 0.93 -0.10 -0.31 0.16 0.00
X5 0.79 -0.56 -0.06 -0.24 0.01

Calcular:
a) Varianza y porcentaje de varianza del conjunto de variables
explicada por cada componente.
b) Comunalidad de cada variable en función de las cinco
componentes.
c) Aplicando el criterio de Kaiser determinar la matriz
factorial final.
d) Comunalidad de cada variable en función de las componentes
retenidas según el criterio de Kaiser.
e) Matriz de correlaciones reducida o reproducida por la
matriz factorial final.
f) Matriz de correlaciones residual (la matriz de
correlaciones residual se obtiene restando a la matriz de
correlaciones observada la matriz reproducida)

1.4.3. Factores Principales


Este método de extracción factorial está muy relacionado
con el anterior. No es más que la técnica de componentes
aplicada a la matriz de correlaciones reducida (Ra), es decir
con las comunalidades en lugar de unos en la diagonal
principal.
Del modelo clásico del análisis factorial (1.1), la parte

18
Análisis Factorial Exploratorio

relevante para determinar la matriz factorial es

xˆ1  a11 f 1  a12 f 2  ...  a1m f m


xˆ 2  a 21 f 1  a 22 f 2  ...  a 2 m f m
.........................................
xˆ p  a p1 f 1  a p 2 f 2  ...  a pm f m

donde se ha eliminado el factor único.


La indeterminación factorial se resuelve imponiendo que
la suma de cuadrados de los pesos factoriales del conjunto de
variables en el primer factor sea máxima. Es decir

1  a112  a 21
2
 ..  a 2p1 (1.8)

debe ser máxima. Se impone, además, la restricción de que las


correlaciones observadas deben ser reproducidas exactamente
por los pesos factoriales lo que implica residuales cero. Esta
segunda restricción se expresa como

rik  a i1 a k 1  a i 2 a k 2  ...  a im a km (1.9)

Maximizar (1.8) sujeta a la restricción (1.9) implica


resolver la ecuación característica de la matriz de
correlaciones reducida

R a  I  0 (1.10)

Como en Componentes Principales a los valores j se les


conoce como autovalores y en el caso del primer factor 1 es la
varianza explicada por el mismo del conjunto de variables
observadas.

Los pesos (ai1) de las variables en el primer factor común


se obtienen resolviendo el sistema de ecuaciones que se deriva
de la expresión

 Ra
  i I  a1  0
El segundo factor se elige de manera que explique el

19
Análisis Factorial Exploratorio

máximo de la varianza resultante al eliminar la explicada por


el primer factor y, además, este segundo factor debe estar
incorrelacionado con el primero. El proceso continúa hasta
explicar el 100% de la varianza total factorizada. No
obstante, conviene comentar las dos situaciones que nos
podemos encontrar en cuanto al número de factores comunes.
Sabemos que las varianzas explicadas (j) por los factores
comunes se obtienen de la resolución de la ecuación (1.10).
Dicha ecuación proporciona p valores para . De estos p
valores no todos tienen porque ser positivos, a diferencia del
método de componentes principales. En caso de que encontremos
m valores positivos y su suma no supere la varianza total
factorizada éste será el número de factores comunes elegidos
para reproducir la matriz de correlaciones. Si la suma del
número de autovalores positivos supera ámpliamente la varianza
total elegiremos un número menor de manera que la varianza
explicada por el conjunto de factores comunes esté lo más
próxima posible a la varianza total factorizada.

La matriz factorial resultante será

 a11 a12 ... a1m 


 
 a 21 a 22 ... a 2 m 
A
... ... ... ... 
 
a a p2 ... a pm 
 p1

donde como ya sabemos


a) la varianza de una variable explicada por los m factores
comunes será
p
hi2  a
j 1
2
ij

b) la varianza de las p variables observadas explicada por


cada factor común viene dada por4

p
 j   a ij2
i 1

c) las correlaciones reproducidas vendrán dadas por


4
El porcentaje de la varianza total disponible explicada por cada factor será, en el caso de factores principales,
 j
p  100

i1
hi 2

20
Análisis Factorial Exploratorio

m
rˆik  ai1ak1  ai 2 ak 2  ...  aim akm  a a
j 1
ij kj

1.4.3.1. Estimación de las comunalidades


El método de factores principales utiliza para la
factorización la matriz de correlaciones reducida (Ra). Esta
matriz se obtiene sustituyendo en la matriz R los unos de la
diagonal por la varianza de cada variable explicada por el
conjunto de factores comunes. Esta varianza es, en principio,
desconocida y tiene que ser estimada por algún procedimiento.
Varios han sido los criterios utilizados para estimar las
comunalidades; de todos ellos el más utilizado e implementado
en el paquete estadístico SPSS consiste en utilizar como
estimación de la comunalidad de una variable el coeficiente de
correlación múltiple al cuadrado (R2i.1,2,...(i),..p) de dicha
variable con el resto.

EJEMPLO 2. En la matriz de correlaciones del ejemplo 1 se


sustituyeron los elementos de la diagonal por las siguientes
comunalidades:

0.96859, 0.82227, 0.96918, 0.78572, 0.84701

Sabiendo que los autovalores de la matriz de


correlaciones reducida fueron:

2.73429, 1.71607, 0.03955, -0.03955, -0.02452,


-0.0726

a) ¿Cuántos factores elegirías como solución?.


b) ¿Qué proporción de varianza explica cada factor del
conjunto de variables observadas?.

EJEMPLO 3. Utilizando factores principales con la matriz


reducida del ejemplo anterior se obtuvo la siguiente matriz
factorial

Tabla 1.3. Solución mediante Factores Principles de las cinco


variables socioeconómicas.
Variable f1 f2

21
Análisis Factorial Exploratorio

1 0.63 0.77
2 0.71 -0.56
3 0.71 0.68
4 0.88 -0.16
5 0.74 -0.58

Calcular:
a) Varianza explicada por los dos factores comunes de cada
variable.
b) Matriz de correlaciones reproducida.
c) Matriz de correlaciones residual (la matriz de
correlaciones residual se obtiene restando a las correlaciones
observadas las reproducidas por la solución factorial).

1.4.4. Método de Extracción de Máxima Verosimilitud


Lawley en 1940 (cit. en Harman, 1976; Cuadras, 1981)
realiza la adaptación y aplicación del método de máxima
verosimilitud al problema de la estimación de la matriz
factorial. Este es el primer método de extracción de
naturaleza estadística, los anteriores que son de naturaleza
algebraica.
Este método considera la obtención de la matriz factorial
como un problema de estimación puntual de parámetros. Se parte
del desconocimiento tanto de la matriz de correlaciones
poblacional (R) como de la matriz factorial poblacional (A) y
el objetivo es obtener una estimación
A hat que haga máxima la probabilidad de obtener las
correlaciones observadas.
El procedimiento para calcular
A hat es bastante complejo. Simplemente decir que requiere del
supuesto de normalidad multivariante, no requiere de
estimación inicial de las comunalidades aunque, si es
necesario decidir previamente el número de factores comunes
que desearíamos obtener.
Este procedimiento de extracción tiene asociado un test
de significación para el número de factores elegidos. Basado
en una distribución 2 formula la hipótesis nula

Ho: La matriz factorial poblacional (A) es de rango m

si se acepta esta hipótesis el número de factores elegido es


correcto. Si se rechaza habría que ensayar una solución con m
+ 1 factores comunes.

1.5. Soluciones factoriales derivadas: rotaciones


Rara vez, la matriz factorial obtenida con alguno de los
métodos de extracción descritos en la primera parte de este

22
Análisis Factorial Exploratorio

tema sirve de base para la interpretación de los factores.


Dicha matriz es sólo el primer paso de un Análisis Factorial y
se le puede llamar matriz factorial directa.
Cuando dijimos que los métodos de extracción hacen únicas
las cargas factoriales aclaramos que dichas cargas son únicas
en función del criterio particular elegido pero, en ningún
momento podemos pensar que hemos resuelto el problema de la
indeterminación factorial. Quiere esto decir que existirán
infinitas matrices factoriales -obtenidas rotando a una
situación espacial distinta la solución factorial directa- que
conserven el número de factores comunes, la varianza total
explicada por el conjunto de factores, las comunalidades de
las variables y que sean más fáciles de interpretar.
De las infinitas soluciones posibles obtenidas por
rotación sólo nos van a interesar aquellas que conserven la
ortogonalidad de los factores (rotación ortogonal frente a
oblicua) y que nos lleven a una matriz factorial con
determinadas características. Dichas características las
formuló Thurstone como "principios de estructura simple". Los
criterios que definen la estructura simple son:
a) Todas las filas de la matriz factorial deben tener por
lo menos un cero.
b) Cada columna debe tener m ceros por lo menos (siendo m
el número de factores comunes.
c) Para todo par de columnas debe haber al menos, m
variables cuyos pesos se anulen en una columna pero no en la
otra.
d) Para todo par de columnas de la matriz factorial
derivada, una gran propoción de variables deben tener entradas
nulas en ambas columnas cuando el número de factores sea m 4.
e) Para todo par de columnas de la matriz factorial
derivada debe haber un número pequeño de variables con
entradas no nulas en ambas columnas.
Los principios enunciados están encaminados a encontrar
una matriz factorial en términos de factores disjuntos es
decir, factores definidos por agrupamientos diferentes de
variables. Un ejemplo de una matriz factorial simple en los
términos expresados anteriormente sería la siguiente

variables F1 F2 F3

23
Análisis Factorial Exploratorio

X1 0 X 0
X2 0 X 0
X3 0 X 0
X4 X 0 0
X5 X 0 0
X6 X 0 0
X7 0 0 X
X8 0 0 X
X9 0 0 X

donde los 0 representan pesos factoriales muy pequeños y las X


pesos factoriales altos. Aunque no siempre encontremos
matrices tan fáciles de interpretar como la anterior con la
rotación si se va a eliminar buena parte de la dificultad que
tiene interpretar la matriz factorial directa.
Existen numerosos métodos de rotación encaminados a
obtener una matriz factorial con factores simples e
interpretables. Inicialmente se utilizaron métodos gráficos
pero con las posibilidades de cálculo de los ordenadores y la
implementación en ellos de algoritmos de cálculo complejos
estos métodos se han abandonado y actualmente se utilizan
exclusivamente métodos analíticos. De los diferentes métodos
analíticos propuestos describiremos, brevemente, el método
varimax por ser uno de los más utilizados e implementados en
la mayoría de los paquetes estadísticos.
Los métodos de rotación tienden a simplificar la matriz
factorial directa. Según el criterio utilizado, el objetivo
será simplificar filas o la complejidad de las variables en el
conjunto de factores comunes (método cuartimax) o simplificar
columnas o factores. El criterio varimax simplifica los
factores con el fin de satisfacer los requisitos de estructura
simple.
Se define la simplicidad de un factor en términos de la
varianza de los cuadrados de sus cargas es decir,
S m2    a 2jm  am2 
1 p
(1.11)
p j 1

La expresión (1.11) corresponde a la varianza de los


pesos al cuadrado del factor m. Este factor tiene su máxima
simplicidad cuando unos pesos tienden a 1 y otros tienden a 0
en este caso la expresión 1.11 será máxima. El criterio
varimax de rotación maximiza la expresión 1.11 para el
conjunto de factores comunes.
El procedimiento de cálculo para obtener una matriz
factorial derivada, según el criterio varimax, es muy complejo
nos limitaremos a interpretar los resultados de la aplicación
de dicho criterio.

24
Análisis Factorial Exploratorio

EJEMPLO 4. Retomando el ejemplo 1 hemos rotado (utilizando el


criterio varimax) la matriz factorial de las cinco variables
socioeconómicas en las dos primeras componentes. La matriz
factorial derivada es

Tabla 1.4. Solución varimax de las cinco variables


socioeconómicas.
Variable f1 f2 Comunalidad: hi2
1 0.02 0.99 0.99
2 0.94 -0.01 0.89
3 0.14 0.98 0.98
4 0.82 0.45 0.88
5 0.97 -0.01 0.94

Hemos representado las cinco variables socioeconómicas en


la solución factorial sin rotar (tabla 1.2) y en la solución
factorial rotada (tabla 1.4)

1
0,8
0,6
0,4
0,2
0
-0,2 0 0,2 0,4 0,6 0,8 1

-0,4
-0,6
-0,8

Figura 1.4. Representación de las cinco variables socioeconómicas


en los factores sin rotar.

25
1,2

0,8

0,6 Análisis Factorial Exploratorio


0,4

0,2

-0,2 0 0,2 0,4 0,6 0,8 1 1,2

Figura 1.5. Representación de las cinco variables socioeconómicas en los factores rotados.

Comparando las dos representaciones se observa como la


rotación clarifica el contenido de los factores. La dificultad
que entraña interpretar factores bipolares y con pesos altos
del conjunto de variables desaparece al rotar la solución
inicial. En la figura 1.5 se observa, claramente, que el
contenido del primer factor vendría dado fundamentalmente por
las variables X2: años de educación primaria y X5: valor medio
de la casa. El contenido del factor 2 vendría dado
fundamentalmente por las variables X1: población total y X3:
empleo total. El primer factor hace referencia al status
social y el segundo al tamaño del distrito.

Referencias
Cuadras, C. M (1981). Métodos de análisis multivariante.
Barcelona: Barcelona
Dillon, W.R. y Goldstein, M. (1984). Multivariate Analysis:
Methods and Applications. New York: John Willey & Sons.

Ferrando, P (). Análisis factorial exploratorio. PPU.

García, J.E., Gil, J.(2000). Análisis Factorial Exploratorio.


Madrid: La Muralla
Harman, H. H. (1980). Análisis Factorial Moderno. 3ª ed.
Madrid: Editorial Saltés.
Johnson, R. A. y Wichern, D. W. (1982). Applied Multivariate
Statistical Analysis. Englewood Cliffs, NJ: Prentice-Hall.
Kim, J-O. y Mueller, C. W. (1978). Introduction to Factor
Analysis: What it is and How to do it. Sage University Paper
Series on Quantitative Applications in the Social Sciences,
007-013. Newbury Park, CA: Sage.
Kim, J-O. y Mueller, C. W. (1978). Factor Analysis:
Statistical Methods and Practical Issues. Sage University
Paper Series on Quantitative Applications in the Social
Sciences, 007-014. Newbury Park, CA: Sage.
Mulaik, S. A. (1972). The Foundations of Factor Analysis. New
York: McGraw-Hill.

26
Análisis Factorial Exploratorio

Norušis, M.J. / SPSS (1994). SPSS Profesional Statistics 6.1.


Chicago, IL: SPSS.
Rummel, R. J. (1970). Applied Factor Analysis. Evanston:
Northwestern University Press.

Stevens, J. (1986). Applied Multivariate Statistics for the


Social Sciences. Hillsdale, NJ: LEA.

Tabachnick, B.G. y Fidell, L.S. (1989). Using Multivariate


Statistics (2ª ed.). New York: Harper Collins Publishers.

Tacq, J. (1997). Multivariate Analysis Techniques in Social


Science Research. From Problem to Analysis. London: Sage
Publications.
Vallejo, G. (1992)5. Análisis Factorial. En G. Vallejo (Ed.): Análisis Multivariantes
Aplicados a las Ciencias Comportamentales. Oviedo: Servicio de Publicaciones de la
Universidad de Oviedo.

27

También podría gustarte