Está en la página 1de 23

19/10/2011

Profesor
Ing. Williams Hidalgo, MBA

Análisis factorial

Técnica de reducción de la dimensionalidad


de los datos contenidos en una matriz con p
variables.
Para ello se identifican un reducido número
de factores F, siendo el número de factores
menor que el número de variables.
Los factores representan a las variables
originales, con una pérdida mínima de
información.

1
19/10/2011

Usos

Este tipo de análisis es útil para la exploración


de un conjunto extenso de datos.
Su objetivo general es estudiar la
intercorrelación de un elevado número de
variables, mediante su agrupación en factores
comunes, de manera que las variables que
integran cada uno estén altamente
correlacionadas.

El modelo del análisis factorial

El modelo matemático del Análisis Factorial


formula que cada una de las p variables
originales Xi es una combinación lineal de los
m < p variables no observables o factores
comunes Fi y de una única variable no
observable o factor específico ei, i=1,2,…p.

2
19/10/2011

El modelo del análisis factorial

El investigador debe medir estas variables Xi


sobre n individuos, obteniendo la
denominada matriz de datos.

El modelo del análisis factorial

 Matriz de datos

Casos X1 X2 X3 ... Xj ... Xp


1 X11 X12 X13 ... X1j ... X1p
2 X21 X22 X23 ... X2j ... X2p
3 X31 X32 X33 ... X3j ... X3p
... ... ... ... ... ... ... ...
i Xi1 Xi2 Xi3 ... Xij ... Xip
... ... ... ... ... ... ... ...
n Xn1 Xn2 Xn3 ... Xnj ... Xnp

3
19/10/2011

Modelo del análisis factorial


X 1 -μ 1 = a 11 F 1 + a 12 F 2 + ... + a 1k F k + ... + a 1m F m + e1
X 2 -μ 2 = a 21 F 1 + a 22 F 2 + ... + a 2k F k + ... + a 2m F m + e2
... ... ... ... ... ... ... ... ...
X i -μ i = a i1 F 1 + a i2 F 2 + ... + a ik F k + ... + a im F m + ei
... ... ... ... ... ... ... ... ...
Xp-μ p = a p1 F 1 + a p2 F 2 + ... + a pk F k + ... + a pm F m + ep

Donde:
X1, X2, …,Xp : Variables observables
F1, F2, …, Fm : Factores comunes no observables o latentes, m < p
e1, e2, …, ep : Factores únicos o específicos para cada una de las
variables, i =1,2,…,p
ahi : cargas factoriales, i=1,2,…,p, h ≤ m

Modelo del análisis factorial


El modelo factorial en su forma matricial se expresa de la
siguiente manera:
X1 1 a11 ,...,a1m F1 e1
X2 2 a21 ,...,a 2 m F2 e2
X p 1 p 1 Ap m F m 1 e p 1
... ... ... ...
Xp p a p 1 ,...,a pm FM ep

donde:
X1, X2, …,Xp : Variables observables
F1, F2, …, Fm: Factores comunes no observables o latentes, m < p
e1, e2, …, ep : Factores únicos o específicos para cada una de las
variables, i =1,2,…,p
ahi : cargas factoriales, i=1,2,…,p, h ≤ m

4
19/10/2011

Suposiciones
El vector de medias de los Factores comunes es cero,

E(F ) 0 ( m 1)
La matriz de varianzas y covarianzas del vector de factores
comunes es la identidad,

Cov ( F ) I (m m)

El vector de medias del vector de factores específicos es cero,

E ( e ) 0( p 1)
Los factores únicos tienen: Cov(ei ; ej) = 0 i j.
Los factores únicos y comunes tienen: Cov(Fm ; ei) = 0

Pasos en el análisis factorial

1. Calcular la matriz de correlaciones entre


todas las variables (matriz R)
2. Extraer de los factores necesarios para
representar los datos
3. Rotar los factores con el fin de facilitar su
interpretación. Representar gráficamente
4. Calcular las puntuaciones factoriales de cada
caso

5
19/10/2011

Procedimiento en SPSS

Procedimiento en SPSS

 El SPSS nos proporciona:


 El coeficiente de correlación entre cada par de variables
 Los p-value asociados a los coeficientes de correlación
 El valor del determinante de la matriz de correlaciones R
 El índice KMO
 El test de Esfericidad de Bartlett - La medida de adecuación de la muestra, MSA,
en la matriz antimagen

6
19/10/2011

Matriz de correlaciones

Calcular la matriz de correlaciones entre


todas las variables que entran en el análisis.
De tal forma que tendremos una matriz del
tipo:
X1 X2 X3 X4 X5 X6
X1 1 0.5 0.65 0.7 0.45 0.63
X2 0.5 1 0.3 0.82 0.73 0.49
X3 0.65 0.3 1 0.38 0.84 0.68
X4 0.7 0.82 0.38 1 0.76 0.92
X5 0.45 0.73 0.84 0.76 1 0.59
X6 0.63 0.49 0.68 0.92 0.59 1

Matriz de correlaciones

Una vez que se dispone de esta matriz


concierne examinarla para comprobar si sus
características son adecuadas para realizar un
Análisis Factorial.
Uno de los requisitos que deben cumplirse
para que el Análisis Factorial tenga sentido es
que las variables estén altamente
correlacionadas.

7
19/10/2011

Matriz de correlaciones

Se trata simplemente de comprobar si existe un


gran número de correlaciones superiores a 0,5.
Para saber si los valores son significativos
podemos pedirle al SPSS que nos muestre los
coeficientes de correlación acompañados de sus
respectivos p-valores.
Diremos que el coeficiente de correlación es
significativo, si dicho p-valor es menor que el
nivel de significación α (Levy, J.P y Varela, J. –
2005)

Matriz de correlaciones

El determinante de la matriz de
correlaciones: un determinante muy bajo
indicará altas correlaciones entre las
variables, pero no debe ser cero (matriz no
singular), pues esto indicaría que algunas de
las variables son linealmente dependientes y
no se podrían realizar ciertos cálculos
necesarios en el Análisis Factorial. (Levy, J.P y
Varela, J., 2005)

8
19/10/2011

Resultados

KMO and Bartlett's Test


Kaiser-Meyer-Olkin Measure of Sampling
Adequacy. .481

Bartlett's Test of Approx. Chi-Square 26.180


Sphericity df 10
Sig. .004

Indicador de la Adecuación de la
Muestra Global
Índice KMO de Kaiser – Meyer – Olkin

rij2
i j
KMO 2
rij aij2
i j i j

donde:
rij= coeficientes de correlación simple entre variables
aij= coeficiente de correlación parcial entre variables

9
19/10/2011

Indicador de la Adecuación de la
Muestra Global
Valores bajos del índice KMO no aconsejan la
utilización de Análisis Factorial (Levy, J.P y
Varela, J., 2005)

KMO 0.80 muy bueno


0.50 KMO 0.80 aceptable
KMO 0.50 inaceptable

Test de Esfericidad de Bartlett

Comprueba que la matriz de correlaciones se


ajuste a la matriz identidad (I), es decir ausencia
de correlación significativa entre las variables.
Esto significa que la nube de puntos se ajustará a
una esfera perfecta, expresando así las hipótesis
por:
H0: R = I (No existe correlación significativa entre las
variables)
H1: R ≠ I (Existe correlación significativa entre las
variables)

10
19/10/2011

Estadística de prueba

Es decir, que el determinante de la matriz de


correlaciones es 1
H0: |R| = 1
La estadística de prueba es:

2 1
n 1 6 2p 5 ln R
El SPSS provee el p-valor para esta prueba.

Estadística de prueba

2 1
n 1 6 2p 5 ln R
En el estadístico de prueba se tiene:
n = tamaño muestral
p = número de variables
ln = logaritmo neperiano
R = matriz de correlaciones
Si se acepta la hipótesis nula significa que las
variables no están inter correlacionadas y por tanto
no tiene mucho sentido llevar a cabo un Análisis
Factorial.

11
19/10/2011

Medida de Adecuación Muestral (MSA)

Basada en la medida de KMO, se calcula una


medida de adecuación muestral individual para
cada una de las variables:
rij2
j i
MSAi 2
r
ij aij2
j i j i

donde:
rij = correlación simple
aij= correlación parcial

Medida de Adecuación Muestral (MSA)

Valores de MSA por debajo de 0.5 indican


que la variable no es apropiada para el
Análisis Factorial.
Estos valores se encuentran en la diagonal de
la matriz anti-imagen, que nos proporciona el
programa estadístico SPSS.

12
19/10/2011

Resultados

Comunalidades

Se denomina "comunalidad" a la proporción


de la varianza explicada por los factores
comunes en una variable.
La comunalidad (h) es la suma de los pesos
factoriales al cuadrado en cada una de las
filas.

13
19/10/2011

Comunalidad

La comunalidad final de cada variable viene


dada por:

h 2j P1j2 P2j2 ... Pkj2

Matriz factorial

A partir de la matriz de correlaciones, el


Análisis Factorial extrae otra matriz que
reproduce la primera de forma más sencilla.
Esta nueva matriz se denomina matriz
factorial y adopta la siguiente forma:

14
19/10/2011

Matriz factorial
1 2
1 P11 P21
2 P12 P22
3 P13 P23
4 P14 P24
5 P15 P25
6 P16 P26

Cada columna es un factor y hay tantas filas


como variables originales.

Matriz factorial

Los elementos Pij pueden interpretarse como


índices de correlación entre el factor i y la
variable j
Estos coeficientes reciben el nombre de
pesos, cargas, ponderaciones o saturaciones
factoriales.
Los pesos factoriales indican el peso de cada
variable en cada factor.
Lo ideal es que cada variable cargue alto
(“sature") en un factor y bajo en los demás.

15
19/10/2011

Eigenvalues (Autovalores)

Indica la cantidad total de varianza que


explica el factor correspondiente para las
variables consideradas como grupo.
λ1 P112 P122 ... P1j2
λ2 P212 P222 ... P2j2

λi Proporción de varianza
100
p explicada por el factor i

Número de factores a conservar

Se han dado diversos criterios para


determinar el número de factores a
conservar.
Uno de los más conocidos y utilizados es el
criterio o regla de Kaiser (1960) que indicaría
lo siguiente: "conservar solamente aquellos
factores cuyos autovalores (eigenvalues) son
mayores a uno” (Levy, J.P y Varela, J., 2005)

16
19/10/2011

Número de factores a conservar

Otros criterios propuestos han sido por


ejemplo, el Scree-test de Cattell (1966)
Consistente en representar en un sistema de
ejes los valores que toman los eigenvalues
(ordenadas) y el número de factor (abscisas).
Sobre la gráfica resultante se traza una línea
recta base a la altura de los últimos
autovalores (punto de inflexión) y aquellos que
queden por encima indicarán el número de
factores a retener.

Procedimiento en SPSS

17
19/10/2011

Resultados del SPSS

Scree Plot

3,0

2,5
Component Matrixa

Compone
2,0 nt
Eigenvalue

1
elegante .983
1,5
sensual .946
romantica .970
1,0 Extraction Method: Principal Component Analysis.
a. 1 components extracted.

0,5

0,0

1 2 3

Component Number

Rotaciones factoriales

A partir de la matriz factorial muchas veces


resulta difícil la interpretación de los factores.

Componente F.I F.II


1 0.6 0.7
2 0.5 0.5
3 0.2 -0.5
4 -0.3 0.6

18
19/10/2011

Rotaciones factoriales

Como se ve esta matriz factorial resulta difícil


de interpretar pues no queda claro en que
factor satura cada variable.
Para facilitar la interpretación se realizan lo
que se denominan rotaciones factoriales.

Rotaciones factoriales

La matriz factorial rotada es una combinación


lineal de la primera y explica la misma
cantidad de varianza inicial.

Componente F.I F.II


1 0.912 0.026
2 0.702 -0.018
3 0.226 -0.483
4 0.216 0.639

19
19/10/2011

Rotaciones factoriales

La matriz factorial debe reunir las siguientes


características:
Cada factor debe tener unos pocos pesos
altos y los otros próximos a 0.
Cada variable no debe estar saturada más
que en un factor.
No deben existir factores con la misma
distribución, es decir, los factores distintos
deben presentar distribuciones de cargas
altas y bajas distintas.

Rotaciones factoriales

De entre las rotaciones ortogonales la más


utilizada es la Varimax mientras en que las
oblicuas es la Oblimin.

20
19/10/2011

Interpretación de factores

A efectos prácticos se sugieren dos pasos en


el proceso de interpretación:
Estudiar la composición de las saturaciones
factoriales significativas de cada factor.
Intentar dar nombre a los factores. Nombre
que se debe dar de acuerdo con la estructura
de sus saturaciones.

Puntuaciones factoriales

Una vez que se tienen los factores puede


interesar conocer que puntuación obtendrían
los sujetos en estos factores. Para contestar a
esto hay que calcular lo que se conoce como
puntuaciones factoriales de cada individuo.

21
19/10/2011

Puntuaciones factoriales

Todos los métodos de obtención de


puntaciones factoriales parten de la
expresión:

A partir de la cual buscan estimar el valor de


F.
Tres de los métodos de estimación más
utilizados son los siguientes:

Puntuaciones factoriales
Método de regresión
Estima F mediante el método de los mínimos cuadradoS


1
A' A A' X
Método de Barlett
Considera que las variables en el modelo factorial son
combinación lineal de los factores comunes, mientras que los
factores únicos deben ser entendidos como desviaciones de esta
combinación lineal, por lo que deben ser minimizadas. Estimando
las puntuaciones factoriales mediante:

1
Fˆ A' D 2 A A' D 2 X

22
19/10/2011

Puntuaciones factoriales

Método de Anderson – Rubin


Se trata de una modificación del método de
Bartlet condicionada a que los factores estimados
sean ortogonales, es decir,

E ( Fˆi .Fˆ j ) 0, i j
La solución obtenida por Anderson y Rubin es:

Fˆ B 1 A' D 2 X con B 2 A' D 2 RD 2T

Procedimiento en SPSS

.

23

También podría gustarte