Está en la página 1de 34

AnlisisComponentesPrincipales

LauradelaFuenteCrespo
AnlisisComponentesPrincipales

NDICE

Anlisis Componentes Principales ...................................................... 1


Ejercicio Terico-Prctico Componentes ............................................ 16
Ejercicio Prctico Componentes ......................................................... 23

LauradelaFuenteCrespo
ANLISIS EN COMPONENTES PRINCIPALES
Elmtododecomponentesprincipalestieneporobjetotransformarunconjuntodevariables,alas
quesedenominaoriginales,enunnuevoconjuntodevariablesdenominadascomponentes
principales.Estasltimassecaracterizanporestarincorrelacionadasentresy,adems,pueden
ordenarsedeacuerdoconlainformacinquellevanincorporada.

Comomedidadelacantidaddeinformacinincorporadaenunacomponenteseutilizasuvarianza.
Esdecir,cuantomayorseasuvarianzamayoreslacantidaddeinformacinquellevaincorporada
dichacomponente.Porestaraznseseleccionacomoprimeracomponenteaquellaquetenga
mayorvarianza,mientrasquelaltimacomponenteeslademenorvarianza.

Engeneral,laextraccindecomponentesprincipalesseefectasobrevariablestipificadaspara
evitarproblemasderivadosdelaescala,aunquetambinsepuedeaplicarsobrevariables
expresadasendesviacionesrespectoalamedia.

Sipvariablesestntipificadas,lasumadelasvarianzasesp,yaquelavarianzadeunavariable
tipificadaespordefinicin1.

El nuevo conjunto de variables que se obtiene por el mtodo de componentes principales


es igual en nmero al de las variables originales. Es importante destacar que la suma de
sus varianzas es igual a la suma de las varianzas de las variables originales.

La diferencia entre ambos conjuntos de variables estriba en que las componentes


principales se calculan de forma que estn incorrelacionadas entre s. Cuando las variables
originales estn muy correlacionadas entre s, la mayor parte de su variabilidad se puede
explicar con muy pocas componentes.

Si las variables originales estuvieran completamente incorrelacionadas entre s, el anlisis


de componentes principales carecera por completo de inters, ya que en ese caso las
componentes principales coincidiran con las variables originales.

Las componentes principales se expresan como una combinacin lineal de las variables
originales. Desde el punto de vista de su aplicacin, el mtodo de componentes principales
es considerado como un mtodo de reduccin, esto es, un mtodo que permite reducir la
dimensin del nmero de variables originales que se han considerado en el anlisis.

No tiene sentido con todas la componentes principales, advirtase que el mayor nmero
coincide con el nmero total de variables. Quedarse con todas ellas no simplificara el
problema, por lo que el investigador deber seleccionar entre distintas alternativas aqullas
que, siendo pocas e interpretables, expliquen una proporcin aceptable de la varianza
global o inercia de la nube de puntos que suponga una razonable prdida de informacin.

La reduccin de muchas variables a pocas componentes puede simplificar la aplicacin


sobre estas ltimas de otras tcnicas multivariantes (regresin, clusters, etc.).

El mtodo de componentes principales puede considerarse como un mtodo para la


reduccin de datos, tratar otros problemas como el de la rotacin de factores, contrastes,
etc. se hace dentro del anlisis factorial que implica una mayor formalizacin. En este
sentido, el mtodo de componentes principales se inscribe dentro de la estadstica
descriptiva.

1
OBTENCIN DE LAS COMPONENTES PRINCIPALES
En el anlisis de componentes principales se dispone de una muestra de tamao n acerca
de p variables X1, X2 , , Xp (tipificadas o expresadas en desviaciones respecto a la
media) inicialmente correlacionadas, para posteriormente obtener a partir de ellas un
nmero k p de variables incorrelacionadas Z1, Z2 , , Zk que sean combinacin lineal
de las variables iniciales y que expliquen la mayor parte de su variabilidad.

La primera componente principal, al igual que las restantes, se expresa como


combinacin lineal de las variables originales:

Z1i u11 X1i u12 X2i u1p Xpi

Para el conjunto de las n observaciones muestrales, la ecuacin puede expresarse


matricialmente:

Z11 X11 X21 Xp1 u11


Z X X22 Xp2 u
12 12 12 En notacin abreviada: Z1 = Xu1


Z1n X1n X2n Xpn u1p

Tanto si las X j estn tipificadas, como si estn expresadas en desviaciones respecto de su


media muestral, la media de Z1 es cero, es decir, E(Z1 ) = E(Xu1 ) = E(X)u1 = 0

La varianza de Z1 ser:

n
1 1 ' 1 1
V (Z1 )
n Z
i1
2
1i
n
Z1 Z1 u1' X' Xu1 u1' X' X u1 u1' V u1
n n

1 '
Si las variables estn expresadas en desviaciones respecto a la media, la expresin X X
n
(matriz de inercia) es la matriz de covarianzas muestral a la que se denomina V (caso ms
1 '
general) y para variables tipificadas X X es la matriz de correlaciones R.
n

La primera componente Z1 se obtiene de forma que su varianza sea mxima, sujeta a la


restriccin de que la suma de los pesos u1j al cuadrado sea igual a la unidad, es decir, la
variable de los pesos o ponderaciones (u11, u12 , ,u1p )' se encuentra normalizada.

p
'
Se trata de hallar Z1 maximizando V (Z1 ) u1 V u1 con la restriccin u' u
j1
1 1 1

Para afrontar el problema de maximizacin con restricciones se aplica el mtodo de los


multiplicadores de Lagrange, considerando la funcin lagrangiana:

L u1' V u1 (u1' u1 1)

derivando respecto a u1 e igualando a cero:

2
L
2 V u1 2 u1 0 (V I)u1 0
u1

se trata de un sistema homogneo en u1 que slo tiene solucin si el determinante de la


matriz de los coeficientes es nulo: V I 0 .

La expresin V I 0 es equivalente a decir que es un valor propio de la matriz V

En general, la ecuacin V I 0 tiene n races 1, 2 , , n , ordenadas de mayor a


menor 1 2 n

Si en la ecuacin (V I)u1 0 se multiplica a la derecha por u1' se tiene:

u1' (V I)u1 0 u1' V u1 V (Z1 ) u1' V u1

Por tanto, para maximizar V (Z1 ) hay que tomar el mayor valor propio de la matriz V

Tomando 1 como el mayor valor propio de V y tomando u1 como su vector propio


asociado normalizado (u1' u1 1) , se define el vector de ponderaciones que se aplica a las
variables iniciales para obtener la primera componente principal, componente que se
expresa:

Z1 Xu1

La segunda componente principal, al igual que las restantes, se expresa como


combinacin lineal de las variables originales:

Z2i u21 X1i u22 X2i u2p Xpi

Para el conjunto de las n observaciones muestrales, la ecuacin puede expresarse


matricialmente:

Z21 X11 X21 Xp1 u21


Z X X22 Xp2 u
22 12 22 En notacin abreviada: Z 2 = Xu2


Z2n X1n X2n Xpn u2p

Tanto si las X j estn tipificadas, como si estn expresadas en desviaciones respecto de su


media muestral, la media de Z2 es cero, es decir, E(Z2 ) = E(Xu2 ) = E(X)u2 = 0

La varianza de Z2 ser:

n
1 1 ' 1 1
V (Z 2 )
n Z
i1
2
2i
n
Z 2 Z 2 u'2 X' Xu2 u'2 X' X u2 u'2 V u2
n n

La segunda componente Z2 se obtiene de forma que su varianza sea mxima, sujeta a la


restriccin de que la suma de los pesos u2 j al cuadrado sea igual a la unidad, es decir, la

3
variable de los pesos o ponderaciones (u21, u22 , ,u2p )' se encuentra normalizada
(u'2 u2 1)

Por otra parte como Z1 y Z2 han de estar incorreladas se tiene que verificar:

0 E(Z'2 Z1 ) E(u'2 X' Xu1 ) u'2 E(X' X)u1 u'2 V u1

Se sabe que V u1 1 u1 (dado que u1 es el vector propio de V asociado a su mayor valor


propio 1 ). Multiplicando por u'2 , se tiene:

u'2 V u1 u'2 1 u1 0 u'2 u1 0 u2 u1 ortogonales

Hay que hallar Z2 maximizando V (Z2 ) u'2 V u2 con las restricciones u'2 u2 1 y u'2 V u1 0

Aplicando el mtodo de los multiplicadores de Lagrange, se considera la funcin:

L u'2 V u2 2 (u'2 V u1 ) (u'2 u2 1)

derivando respecto a u2 e igualando a cero:

L
2 V u2 2 V u1 2 u2 0
u2

dividiendo la expresin anterior por 2 y multiplicando por u1' , resulta:

u1' V u2 u1' V u1 u1' u2 0

Siendo V u1 1 u1 u1' V u1' y V (Z1 ) u1' V u1 , resulta:

u1' u2 V (Z1 ) u1' u2 0

Como u1' u2 0 V (Z1 ) 0 0

De donde:

L
2 V u2 2 u2 0 (V I)u2 0
u2

se trata de un sistema homogneo en u2 que slo tiene solucin si el determinante de la


matriz de los coeficientes es nulo: V I 0 .

En general, la ecuacin V I 0 tiene n races 1, 2 , , n , ordenadas de mayor a


menor 1 2 n

Si en la ecuacin (V I)u2 0 se multiplica a la derecha por u'2 se tiene:

u'2 (V I)u2 0 u'2 V u2 V (Z2 ) u'2 V u2

4
Por lo tanto, para maximizar V (Z2 ) se ha de tomar el segundo mayor valor propio de la
matriz V (el primer mayor valor propio ya lo haba tomado al obtener la primera componente
principal).

Tomando 2 como el segundo mayor valor propio de V y tomando u2 como su vector


propio asociado normalizado (u'2 u2 1) , ya se ha definido el vector de ponderaciones que
se aplica a las variables iniciales para obtener la segunda componente principal,
componente que vendr definida como Z2 = Xu2

Anlogamente, la componente principal h-sima se define como Zh = Xuh , donde uh es


el vector propio de V asociado a su h-simo mayor valor propio. Suele denominarse
tambin a uh eje factorial h-simo.

VARIANZAS DE LAS COMPONENTES

La varianza de la componente h-sima es: V (Zh ) u'h V uh h

La varianza de cada componente es igual al valor propio de la matriz V al que va asociada.

Si, como es lgico, la medida de la variabilidad de las variables originales es la suma de


sus varianzas, dicha variabilidad ser:
p

V (X ) traza (V)
h 1
h

ya que las varianzas de las variables son los trminos que aparecen en la diagonal de la
matriz de varianzas-covarianzas V.

Ahora bien, como V es una matriz real simtrica, por la teora de diagonalizacin de
matrices, existe una matriz ortogonal P(P1 P' ) tal que P' V P D , donde D es la matriz
diagonal con los valores propios de V ordenados de mayor a menor en la diagonal principal.
p

traza (P' V P) traza (D)


h 1
h

Por tanto, traza (P' V P) traza (V PP' ) traza (VI) traza (V)

p p p

Con lo que: V(X ) = traza (V) traza (P V P) traza (D) V(Z )


h 1
h
'

h 1
h
h 1
h

Se ha comprobado que la suma de las varianzas de las variables (inercia total de la nube
de puntos) es igual a la suma de las varianzas de las componentes principales e igual a la
suma de los valores propios de la matriz de varianzas-covarianzas muestral V.

La proporcin de la variabilidad total recogida por la componente principal h-sima


(porcentaje de inercia explicada por la componente principal h-sima) viene dado por:

h h
p

traza (V)

h 1
h

5
Si las variables estn tipificadas, V = R y traza(V) = traza(R) = p , con lo que la proporcin

de la componente h-sima en la variabilidad total ser h
p

El porcentaje de inercia explicada por las k primeras componentes principales (o ejes


factoriales) se define como:
k k

h h
h 1
p
h 1
traza (V)

h 1
h

ESTRUCTURA FACTORIAL DE LAS COMPONENTES PRINCIPALES


Se denomina estructura factorial de las componentes principales a la matriz de
correlaciones entre las componentes Zh y las variables originales X j .

Considerando los vectores muestrales relativos a X j y Zh respectivamente:

X j1 Z h1
X Z
Xj Zh h2
j2



X jn Zhn

1 '
La covarianza muestral entre X j y Zh viene dada por Cov (X j , Zh ) X j Zh
n

El vector X j se puede expresar en funcin de la matriz X utilizando el vector de orden p, al


que denominamos por , que tiene un 1 en la posicin j-sima y 0 en las restantes
posiciones.

La forma de expresar X j en funcin de la matriz X a travs del vector p es:

X11 X1i X1n




X'j ' X' 0 1 0 X j1 X ji X jn


X Xpi Xpn
p1

Teniendo en cuenta que Zh = Xuh se puede expresar:

1 ' 1
Cov (X j , Zh ) = X j Zh = ' X' Xuh = ' V uh = ' h uh = h ' uh = h uhj
n n

En consecuencia, se puede escribir la correlacin existente entre la variable X j y la


componente Z h de la siguiente forma:

6
Cov (X j , Zh ) h uhj
r jh
V (X j ) V (Zh ) V (X j ) h

Si las variables originales estn tipificadas, la correlacin entre la variable X j y la


componente Z h tiene forma:

h uhj h uhj
r jh h uhj
V (X j ) h h

PUNTUACIONES O MEDICIN DE LAS COMPONENTES


El anlisis en componentes principales es en muchas ocasiones un paso previo a otros
anlisis, en los que se sustituye el conjunto de variables originales por las componentes
obtenidas.

Una vez calculados los coeficientes uhj (componentes del vector propio normalizado
X' X
asociado al valor propio h-simo de la matriz V relativo a la componente principal
n
Zh ), se pueden obtener las puntuaciones Zhj , es decir, los valores de las componentes
correspondientes a cada observacin, a partir de la relacin:

Zhj u h1 X1 j u h 2 X2 j u h p Xpj h = 1, 2, , p j = 1, 2, , n

Si las componentes se dividen por su desviacin tpica se obtienen las componentes


tipificadas. Por tanto, denotando por Yh a la componente tipificada Z h , se tiene:

Zh E(Z h ) Zh
Yh h = 1, 2, , p
V (Zh ) h

Por lo tanto, las puntuaciones tipificadas sern:

Zh j u h1 uh2 uh p
X1 j X2 j Xp j h = 1, 2, , p j = 1, 2, , n
h h h h

Expresin que se escribe:

uh j
Yh j c h1 X1 j c h 2 X2 j c h p Xp j chj h = 1, 2, , p j = 1, 2, , n
h

La matriz formada por los coeficientes c suele denominarse matriz de coeficientes de


hj

puntuaciones de los factores (factor score coefficient matrix).

7
CONTRASTES SOBRE EL NMERO DE COMPONENTES PRINCIPALES A
RETENER
En general, el objetivo de la aplicacin de las componentes principales es reducir las
dimensiones de las variables originales, pasando de p variables originales a m p
componentes principales.

Se plantea el problema de cmo fijar m, o lo que es lo mismo, qu nmero de


componentes se deben retener?.

Aunque para la extraccin de las componentes principales no hace falta plantear un modelo
estadstico previo, algunos de los criterios para determinar cul debe ser el nmero ptimo
de componentes a retener requieren la formulacin previa de hiptesis estadsticas.

A continuacin se exponen distintos criterios:

Criterio de la media aritmtica


Selecciona aquellas componentes cuya raz caracterstica (varianza) j excede de la media
de las races caractersticas.

Analticamente este criterio implica retener todas aquellas componentes que verifiquen:
p


j1
h

h
p

Si se utilizan variables tipificadas se retienen aquellas componentes tales que h 1.

Contraste sobre las races caractersticas no retenidas


Se puede considerar que las (p m) ltimas races caractersticas poblacionales son
iguales a 0.

Si las races muestrales que se observan correspondientes a estas componentes no son


exactamente igual a 0, se debe a los problemas del azar. Por ello, bajo el supuesto de que
las variables originales siguen una distribucin normal multivariante, se pueden formular las
siguientes hiptesis relativas a las races caractersticas poblacionales:

H0 : m1 m 2 p 0

El estadstico que se considera para contrastar la hiptesis nula es:

2p 11
p

Q n
6
(p m)Ln pm
jm 1

Ln j 2(pm 2)(p m1)
2

Bajo la hiptesis nula H0 , el estadstico Q se distribuye como una Chi-cuadrado con


(p m 2)(p m 1)
grados de libertad. Este contraste se deriva del contraste de
2
esfericidad de Barlett para la existencia o no de una relacin significativa entre las variables
analizadas que se utiliza en la validacin del modelo de anlisis multivariante de la
varianza.

8
La mecnica del estadstico Q : Supongamos que inicialmente se han retenido m races
caractersticas (por ejemplo, las que superan la unidad) al aplicar el criterio de la media
aritmtica.
En el caso de que no se rechace la hiptesis nula H0 esto significa que una o ms races
caractersticas no retenidas es significativa(s). La decisin a tomar en este caso sera
retener una nueva componente, y aplicar de nuevo el contraste a las restantes races
caractersticas.
El proceso continuara hasta que no se rechace la hiptesis nula.

Prueba de Anderson
Si los valores propios son iguales, a partir del valor (m 1) , no hay ejes principales a partir
del eje (m 1) , en el sentido de que no hay direcciones de mxima variabilidad. La
variabilidad en las ltimas (n m) dimensiones es esfrica.

Para decidir este hecho debe contrastarse:

H0 : m1 m 2 p 0

Se acepta la hiptesis nula H0 cuando el estadstico:

p
p Ln j
(n 1)
2

jm 1

Ln j (p m)(n 1) Ln
jm 1

(p m)

2(p m)(p m 1)
2
1

(p m)(p m 1)
sigue una distribucin Chi-cuadrado con 1 grados de libertad, siempre
2
y cuando el nmero de individuos n sea grande.

Si para un m fijado, 2 es significativo, debe rechazarse la hiptesis nula H0 .

Sealar que 1, 2 , , n representan los valores propios calculados sobre la matriz de


covarianzas muestral.

Esta prueba slo es vlida s las variables X1, X2 , , Xn son normales con distribucin
conjunta normal.

El grfico de sedimentacin
El grfico de sedimentacin se obtiene al representar en ordenadas las races
caractersticas y en abscisas los nmeros de las componentes principales correspondientes
a cada raz caracterstica en orden decreciente.

Uniendo todos los puntos se obtiene una Figura que, en general, se parece al perfil de una
montaa con una fuerte pendiente hasta llegar a la base, formada por una meseta con una
ligera inclinacin.

En este smil establecido de la montaa, en la meseta es donde se acumulan los guijarros


cados desde la cumbre, es decir, donde se sedimentan. Este es el motivo por lo que al
grfico se le conoce con el nombre de grfico de sedimentacin, su denominacin en ingls
es scree plot.

9
De acuerdo con el criterio grfico se retienen todas aquellas componentes previas a la zona
de sedimentacin.

Retencin de variables
Si se retiene un nmero determinado de componentes, qu hacer si alguna variable est
correlacionada muy dbilmente con cada una de las componentes retenidas?.

Si se plantea un caso de este tipo, sera conveniente suprimir dicha variable del conjunto de
variables originales, ya que no estara representada por las componentes retenidas. Ahora
bien, si se considera que la variable a suprimir juega un papel esencial en la investigacin,
entonces se deberan retener componentes adicionales en el caso de que algunas de ellas
estuvieran correlacionadas de forma importante con la variable a suprimir.

LA REGRESIN SOBRE COMPONENTES PRINCIPALES Y EL


PROBLEMA DE LA MULTICOLINEALIDAD
La regresin sobre componentes principales sustituye el mtodo clsico de ajuste lineal,
cuando las variables exgenas del modelo son numerosas o fuertemente correlacionadas
entre s (multicolinealidad).

Sea un modelo lineal general Y X e con las hiptesis clsicas de normalidad de los
residuos, E(e) 0 y V (e) 2 I , pero con problemas de correlacin entre las variables
exgenas del modelo.

Designando por y el vector de n valores de la variable endgena centrada, y por X la


matriz que contiene en columnas los p vectores (x 1, x 2 , , x p ) de n valores de las variables
exgenas centradas.

Si los vectores x 1, x 2 , , x p no son linealmente independientes (multicolinealidad en el


modelo Y X e ), el vector (X ' X)
1 X
' y de los coeficientes estimados de la
' X)
regresin no podr ser calculado, dado que la matriz (X no es inversible.

Si alguno de los vectores x 1, x 2 , , x p tienen ngulos pequeos entre s (dicho de otra


forma, si los coeficientes de correlacin muestral entre ciertas variables exgenas son
cercanos a 1), el vector se conocer con menos precisin. En este caso, las
contribuciones de cada uno de los coeficientes son difciles de precisar. En efecto, si la
' X)
matriz (X es casi singular, algunos de sus valores propios sern prximos a 0.

' X)
La descomposicin de (X en funcin de vectores y valores propios ser:

p
' X
X

1
u u'

Como (X ' X)
es una matriz simtrica definida positiva. con valores propios relativos a

vectores propios u ortogonales, se puede diagonalizar de forma:

10
1 0 0 u1
0 0 u
u u
' X up 2
2
X 1 2


0 0 p up

Por otra parte,


p p
1
' X
X

1
u u' ' X)
(X 1

1
u u'

' X
La casi nulidad del menor valor propio p de X puede expresarse:

) 1 (Xu
p V (Zp ) V (Xu )' (Xu
)0
p p p Xup 0
n

indicando la casi colinealidad de los vectores columna de X . En estas condiciones, el


vector de los coeficientes de ajuste mnimo cuadrtico se escribe:

p 1 '
' X)
(X 1 X
' y

1
y
u u' X

y la estimacin de su matriz de varianzas-covarianzas ser:


p
1
V ( ) S2 (X
' X)
1 S2
1
u u'

lo que permite ver que uno o varios valores propios casi nulos hacen impreciso el ajuste.

Se eliminara el problema de la casi colinealidad de los vectores columna de X suprimiendo


(p q) vectores uk (k = q +1, q + 2, , p ) correspondientes a los valores propios k ms
pequeos de X ' X
.

En estas condiciones, el vector de los coeficientes de ajuste mnimo cuadrtico ser:

q 1 '
' X)
(X 1 X
' y

1
y
u u' X

q< p

y la estimacin de su matriz de varianzas-covarianzas ser:


q
1
V ( ) S2
1
u u'

' X
Diagonalizada la matriz X , el clculo de los coeficientes (u , u , , u ) se realiza
1 2 q

considerando las componentes principales tipificadas:

1
z Xu = 1, 2, , q

El modelo inicial Y X e se ha ajustado mediante y Z c d

11
donde Z ( z1 , z2 , , zq ) es la matriz (n,q ) cuyas columnas son los q vectores propios
unitarios y ortogonales z asociados a los mayores valores propios de X ' X
, y donde c es

el vector de los q nuevos coeficientes hallados mediante:

c (Z' Z)1 Z' y con V (c) S2 (Z' Z)1

Como Z' Z Iq ya que Z ( z1 , z2 , , zq ) con z ortogonales y unitarios, se escribe:

1
n

c (Z' Z)1 Z' y Z' y con V (c) S2 (Z' Z)1 S2 I
n q 1
d I
i1
2
i

Por lo tanto, los coeficientes c estn incorrelacionados y tienen todos la misma varianza,
estimada por S2 .

LA REGRESIN ORTOGONAL Y LAS COMPONENTES PRINCIPALES


La regresin ortogonal es un mtodo utilizado para determinar una relacin lineal entre p
variables que a priori juegan papeles anlogos (sin hacer distincin, como en el modelo
lineal, entre variables endgenas y exgenas). En concreto, se buscan coeficientes tales
que aseguren la ms pequea dispersin de esta combinacin lineal de las variables.

Sea u un vector de p coeficientes (u1 , u2 , , u p ) , sea X la matriz (n,p ) de observaciones


' X
X
centradas por columnas, y sea S la matriz de covarianzas muestrales de las p
n
variables.

, definida por u, es la cantidad


La varianza de la combinacin lineal de las variables Z Xu

1 (Xu
V (Z) V (Xu) )' (Xu
) u' Su
p p
n

Bajo este punto de vista, el anlisis en componentes principales determina la combinacin



lineal Z1 Xu1 de u1 con mxima varianza 1 , siendo 1 el mayor valor propio de S, y u1 el

vector propio unitario asociado (u1' u1 1) .

) 1 (Xu
1 V (Z1 ) V (Xu )' (Xu
) u' Su
1 1 1 1 1
n

El mismo criterio, aplicado a la bsqueda de la combinacin lineal de variables con varianza


mnima, lleva a retener el vector propio up de S asociado al ms pequeo valor propio p ,
siendo ste el valor de esta varianza mnima.

) 1 (Xu
p V (Zp ) V (Xu )' (Xu
) u' Su
p p p p p
n

En consecuencia, tomando los coeficientes de la regresin ortogonal como las


componentes del vector propio up de S asociado al ms pequeo valor propio p , se tiene
caracterizado el mejor ajuste en el sentido de los mnimos cuadrados a la nube de las n

12
observaciones, habiendo definido as el hiperplano de regresin ortogonal (hiperplano de
p - 1 observaciones).

Se puede generalizar el anlisis mediante la bsqueda de un subespacio de regresin


ortogonal de p q dimensiones. Este plano estar caracterizado por ser ortogonal a los q
vectores propios de S asociados a los q menores valores propios.

Los vectores propios sucesivos definirn una sucesin de combinaciones lineales de las
variables, incorreladas y de varianza mnima.

MATRIZ DE CARGAS FACTORIALES, COMUNALIDAD Y CRCULOS DE


CORRELACIN
Es indispensable considerar el peso que cada variable original tiene dentro del componente
elegido, as como las correlaciones existentes entre variables y factores.

Una componente principal es una funcin lineal de todas las variables, puede estar muy
bien correlacionada con algunas de ellas y no tanto con otras.

Se ha visto que el coeficiente de correlacin entre una componente y una variable se


calcula multiplicando el peso de la variable en esa componente por la raz cuadrada de su
valor propio: r jh uhj h

Se demuestra tambin que estos coeficientes r representan la parte de la varianza de cada


variable que explica cada factor. De este modo, cada variable puede ser representada
como una combinacin lineal de los k componentes retenidos, donde los pesos o cargas de
cada componente o factor (cargas factoriales) en la variable coinciden con los coeficientes
de correlacin.

El clculo matricial permite obtener de forma inmediata la tabla de los coeficientes de


correlacin variables-componentes ( p x k ) que se denomina matriz de cargas factoriales.

Las ecuaciones de las variables en funcin de las componentes (factores), traspuestas las
inicialmente planteadas, son de mayor utilidad en la interpretacin de los componentes,
expresndose:

Z1 r11 X1 r12 X2 r1p Xp X1 r11 Z1 r21 Z2 rk1 Zp


Z r X r X r X X r Z r Z r Z
2 21 1 22 2 2p p 2 12 1 22 2 k2 p


Zk rk1 X1 rk 2 X2 rkp Xp Xp r1p Z1 r2p Z2 rkp Zp

Por las propiedades del coeficiente de correlacin se deduce que la suma en horizontal
de los cuadrados de las cargas factoriales de una variable en todos los factores
(componentes) retenidos es la parte de dispersin total de la variable explicada por el
conjunto de k componentes. Esta suma de cuadrados se denomina comunalidad.

La comunalidad de la primera variable: r112 r21


2
rk12 V (X1 ) h12

La suma de comunalidades de todas las variables h


j1
2
j representa la parte de inercia

global de la nube original explicada por los k factores retenidos, y coincide con la suma de
los valores propios de estas componentes.

13
La comunalidad proporciona un criterio de la calidad de la representacin de cada variable,
de modo que, variables totalmente representadas tienen de comunalidad la unidad.

De otra parte, la suma en vertical de los cuadrados de las cargas factoriales de todas las
variables en una componente es su valor propio.

El valor propio de la primera componente: r112 r122 r1p2 1

Al ser las cargas factoriales los coeficientes de correlacin entre variables y componentes,
su empleo hace comparables los pesos de cada variable en la componente y facilita su
interpretacin. En este sentido, su representacin grfica puede orientar en una primera
aproximacin a la interpretacin de los coeficientes. En el papel (un plano) slo se pueden
representar los factores de dos en dos, por lo que se pueden realizar tantos grficos como
parejas de factores retenidos.

Estos grficos se denominan crculos de correlacin, y estn formados por puntos que
representan cada variable por medio de dos coordenadas que miden los coeficientes de
correlacin de dicha variable con los dos factores o componentes considerados. Todas las
variables estarn contenidas dentro de un crculo de radio unidad.

ROTACIN DE LAS COMPONENTES


Es frecuente no encontrar interpretaciones verosmiles a los factores (componentes)
obtenidos, ya que se ha organizado el estudio partiendo de una primer componente
principal que condensaba la mxima inercia de la nube.

No tiene por qu coincidir esta mxima inercia del primer factor, que condicionaba el clculo
de los restantes, con la ptima interpretacin de cada uno de los componentes.

Para una fcil interpretacin sera deseable que cada componente estuviera muy bien
relacionada con pocas variables (coeficientes de correlacin r prximos a 1 -1) y mal con
las dems (r prximos a 0). Esta optimizacin se obtiene por una adecuada rotacin de
ejes que definen los componentes principales.

Rotar un conjunto de componentes no cambia la proporcin de inercia total explicada, como


tampoco cambia las comunalidades de cada variable, que no son sino la proporcin de
varianza explicada por todos ellos. Sin embargo, los coeficientes, que dependen
directamente de la posicin de los componentes respecto a las variables originales (cargas
factoriales y valores propios), se ven afectados por la rotacin.

Existen varios tipos de rotaciones. Entre las rotaciones ortogonales, las ms utilizadas
son la rotacin Varimax y la Quartimax.

14
La rotacin Varimax se utiliza para conseguir que cada componente rotado (en vertical, en
la matriz de cargas factoriales) presente altas correlaciones slo con unas cuantas
variables. A sta rotacin se suele aplicarse la conocida normalizacin de Kaiser para evitar
que componentes con mayor capacidad explicativa, que no tienen por qu coincidir con la
mejor interpretabilidad, pesen ms en el clculo y condicionen la rotacin.
Esta rotacin, la ms frecuentemente utilizada, es adecuada cuando el nmero de
componentes es reducido.

La rotacin Quartimax se utiliza para conseguir que cada variable (en horizontal, en la
matriz de cargas factoriales) tenga una correlacin alta con muy pocos componentes
cuando es elevado el nmero de stos.

Cuando las componentes an rotadas ortogonalmente no presentan una clara


interpretacin, cabe la posibilidad de intentar mejorarla a travs de rotaciones oblicuas,
que no respetan la perpendicularidad entre ellas. De entre las distintas rotaciones oblicuas,
la Promax se aplica normalmente sobre una Varimax previa.

Las rotaciones oblicuas varan los valores propios y las comunalidades, manteniendo la
varianza explicada por el modelo. La no perpendicularidad entre los ejes produce una
correlacin entre ellos, antes inexistente, por lo que la parte de varianza de una variable
explicada por una componente no es ya independiente de los dems factores.

La eleccin entre diferentes rotaciones se basa en criterios no estadsticos, no se puede


decir que una rotacin sea mejor que otra. La rotacin preferida es aqulla que se interpreta
ms fcilmente. Si dos rotaciones proponen diferentes interpretaciones no deben ser
consideradas discordantes sino como dos enfoques diferentes de un mismo fenmeno que
el investigador deber analizar. La interpretacin de una componente es un proceso
subjetivo al que la rotacin puede restar parte de subjetividad.

La medida de la adecuacin muestral de Kaiser-Meyer-Olkin (Coeficiente KMO)


contrasta si las correlaciones parciales entre las variables son pequeas, toma valores
entre 0 y 1, e indica que el anlisis factorial es tanto ms adecuado cuanto mayor sea su
valor. As, Kaiser propuso en 1974 el siguiente criterio para decidir sobre la adecuacin
del anlisis factorial de un conjunto de datos:

0,9 KMO 1,0 Excelente adecuacin muestral


0,8 KMO 0,9 Buena adecuacin muestral
0,7 KMO 0,8 Aceptable adecuacin muestral
0,6 KMO 0,7 Regular adecuacin muestral
0,5 KMO 0,6 Mala adecuacin muestral
0,0 KMO 0,5 Adecuacin muestral inaceptable

La Prueba de esfericidad de Bartlett contrasta si la matriz de correlaciones es una


matriz identidad, lo cual indicara que el modelo factorial es inadecuado.

El estadstico de Bartlett se obtiene a partir de una transformacin 2 del determinante


de la matriz de correlaciones y cuanto mayor sea, y por tanto menor el nivel de
significacin, ms improbable es que la matriz sea una matriz identidad y ms adecuado
resulta el anlisis factorial.

15
EJERCICIOTERICOPRCTICOCONDOSCOMPONENTES

Enlastresprimerascolumnasdelcuadroserecogenlasempresas,ventasybeneficios.Conla
opcinAnalizar/Estadsticosdescriptivos/Descriptivos...setipificanlasvariables,apareciendoen
elEditorlascolumnasZVentasyZBeneficios.

ConlaopcinGrficos/Interactivos/Diagramadedispersin...seobservaquelosbeneficiosestn
correlacionadospositivamenteconlasventas,aunquelacorrelacinexistentenoesmuyfuerte.De
otraparte,alsermuyreducidalamuestra,noaparececlaramentelaconfiguracindelanubede
puntos.

Cuandolasvariablesestntipificadas,lanubedepuntosapareceunaelipsedeconcentracincomo
laquesedetallaacontinuacin:

16
Cuantamayordependenciahayaentreellas,msalargadaser
lanubedepuntosenalgunadireccinymsestrechaen
algunadireccinperpendicular(suponiendosiemprequela
relacinentreellasfueralineal).

Laelipsedeconcentracinestinscritaenuncuadrado
conlamismaorientacinqueladiagonalprincipal.Es
decir,elejemayordelaelipseformaunngulode 45
conelejedeabscisas.

SeleccionandoAnalizar/Reduccindedatos/Anlisisfactorial...ypulsandoenelbotn
Descriptivos...enmatrizdecorrelacioneslaopcinCorrelaciones

Cuandosetipificanlasobservaciones(ZVentasyZBeneficios)lamatrizdecovarianzaseslamatriz
decorrelaciny,portanto,lavarianzadecadatipificadaesiguala1.

17
Alaplicarelmtododelascomponentesprincipales,lasumadelasvarianzasdetodaslas
componentesprincipales(sunmeroesigualaldevariablesoriginales)esigualalasumadela
varianzasdelasvariablesoriginales.Enconsecuencia,comohaydosvariablestipificadaslasuma
debeser2.

Laprimeracomponenteprincipalseobtienedeformaquesemaximicesuvarianzacondicionadaa
lasrestricciones.Porello,engenerallaprimeracomponenteprincipaltienesuvarianzamayorque
ladecualquiervariableoriginal.Silasvariablesestntipificadas,engeneral,lavarianzadela
primeracomponentesermayorque1.

Enelcasoparticulardequelasvariablesoriginalesestnincorrelacionadasentres,entonceslas
componentesprincipalescoincidirnexactamenteconlasvariablesoriginales.

1,00000 0,59859
Partiendodelamatrizdecorrelacinmuestral: R
0,59859 1,00000

Laaplicacindelprocedimientodecomponentesprincipalesrequierecalcularlasraces
caractersticasylosvectorescaractersticosdelamatrizdecovarianzas.ParalamatrizRlasraces
caractersticasqueseobtienenson:

Lasracescaractersticasson: 1 1,59859 y 2 0,40141

Lavarianzadecadacomponenteesigualalvalordelarazcaractersticaaqueestasociado.

Cuandosetratade2variablestipificadas,lavarianzadelaprimeracomponenteprincipalesiguala
lavarianzadeunadelasvariables(1)mselcoeficientedecorrelacinlinealentrelasvariables:

1 1 0,59859 1,59859

18
Lasegundacomponente 2 eselrestohastalasumadelasvarianzasdelas2componentes
principales,quees2.

2 2 1 2 1,59859 0,40141

Silasvariablesestntipificadas,comoeselcaso,laproporcindelavariabilidadtotaldelas
variablesoriginalescaptadaporunacomponenteesigualalarazcaractersticacorrespondiente i
divididaporelnmerodevariablesoriginales.Esdecir:

% varianza 1 1,59859 / 2 79,930

% varianza 2 0,40141 / 2 20,070

Cadarazcaractersticatieneasociadounvectorcaracterstico:

u u u2 u12
2
1
u1 11 y u2 21 conlasrestricciones 11
u21 u22 1
2 2
u12 u22

Cuandolosdatosestntipificadoslosvectoresqueseobtienen,independientementedelosvalores
quetenganlasracescaractersticas,sonlossiguientes:

u cos 45 0,7071 u cos 135 0,7071


u1 11 u2 21
u12 sen 45 0,7071 u22 sen 135 0,7071

0,7071
Losvectores u1 y u2 sonortogonales: u'1 u2 0,7071 0,7071 0
0,7071

Comosetratadevariablestipificadaselnguloderotacinessiemprede45.As:

Primerejeprincipal: cos 45 0,7071 sen 45 0,7071

Segundoejeprincipal: cos 135 0,7071 sen 135 0,7071

19
Sepuedeverqueestosdosltimosejesformanunngulode 450 y 1350 ,respectivamente,con
respectoalaje X1 .

Loscoeficientesdelosvectores u1 y u2 sonloscoeficientesquehayqueaplicaralasvariables
originalesparaobtenerloscomponentesprincipales.As,genricamente,lascomponentes
principalessepuedenexpresar:

Z u u X Z u X u X Z u X u X
1 11 12 1 1 11 1 12 2 1 11 1 12 2
Z2 u21 u22 X2 Z2 u21 X1 u22 X2 Z 2 u21 X1 u22 X 2

Comoentodoslocasosdedosvariablestipificadas,lascombinacioneslinealesparalaobtencinde
componentessonlassiguientes:

Z1 0,7071X1 0,7071X2 Z2 0,7071X1 0,7071X2

Enelanlisisdecomponentesprincipalesesimportanteconocerlacorrelacindecadavariablecon
lascomponentes.Parasuobtencinhayquetenerencuentaqueelcoeficientedecorrelacin rhj
entrelacomponentehsimaylavariablejsimavienedadapor:

rhj uhj h aestoscoeficientesdecorrelacinselesdenominacargasfactoriales.

Loscoeficientesdecorrelacinqueseobtienenentrelasdoscomponentesylasdosvariables
originalesson:

r11 u11 1 0,7071 1,59859 0,89403


Primeracomponente:
r12 u12 1 0,7071 1,59859 0,89403

r21 u21 2 0,7071 0,40141 0,44800


Segundacomponente:
r22 u22 2 0,7071 0,40141 0,44800

LamatrizformadaporestascargasfactorialesenSPSSsedenominamatrizdecomponentes.

Halladoslosvectorescaractersticossepuedenhallarlosvaloresopuntuaciones(scores)decada
componenteparalasdistintasobservaciones.

Estaspuntuacionessonlosvalorescorrespondientesdeunacomponente Zh paracadaobservacin
delasvariablesoriginales.Lospaquetesestadsticosnosuelenofrecerlaparaelanlisis
multivariante.Ensulugarsesuministranlosvalorestipificadosdelascomponentes.

20
Losvalorestipificadosdelascomponentesseobtienenapartirde:

Z1 u u
11 X1 12 X2
1 1 1

Z2 u u
21 X1 22 X2
2 2 2

Elcoeficientedeponderacindelavariablejenlacomponentehparaobtenerpuntuaciones
u
tipificadases chj hj
h

Deestaforma,lamatrizdeloscoeficientesparaelclculodelaspuntuacionesenlascomponentes:

u11 0,7071
c11 0,55926
1 1,59859
Primeracomponente:
c u12 0,7071
0,55926
12 1 1,59859

u21 0,7071
c 21 1,11607
2 0,40141
Segundacomponente:
c u22 0,7071 1,11607
22 2 0,40141

Utilizandoestamatrizdeloscoeficientes,seobtienenlas
puntuacionestipificadasdelascomponentes,que
aparecenenelEditorconFAC1_1yFAC2_1

Laspuntuacionestipificadasdelaprimeracomponente(FAC1_1)seobtienenalhacer
0,55926 x ZVentas 0,55926 x ZBeneficios

Laspuntuacionestipificadasdelasegundacomponente(FAC2_1)seobtienenalhacer
1,11607 x ZVentas 1,11607 x ZBeneficios

21
AdvirtasequesienlaExtraccin...sehubieraseleccionadoAutovaloresmayoresque1,enlugarde
NmerodeFactores2

LaspuntuacionestipificadasdelacomponenteseguardanenelEditorcomoFAC1_2,quecoinciden
conlasanteriorespuntuacionestipificadasFAC1_1,alobtenersemediantelamismaecuacin:
0,55926 x ZVentas 0,55926 x ZBeneficios

22
Latablaadjuntacontieneinformacinsobreempresasporpasesensectoresde
actividad.Setrataderealizarunanlisisdecomponentesprincipalesdetodaslas
variablesconlafinalidaddereducirlasaunconjuntomenordevariablesconlamenor
prdidadeinformacinposible.

Pas Agri Miner Manuf Energ Constru Ser_Emp Bancos Sec_Serv Trans
Blgica 3,3 0,9 27,6 0,9 8,2 19,1 6,2 26,6 7,2
Dinamarca 9,2 0,1 21,8 0,6 8,3 14,6 6,5 32,2 7,1
Francia 10,8 0,8 27,5 0,9 8,9 16,8 6 22,6 5,7
AlemaniaO 6,7 1,3 35,8 0,9 7,3 14,4 5 22,3 6,1
Irlanda 23,2 1 20,7 1,3 7,5 16,8 2,8 20,8 6,1
Italia 15,9 0,6 27,6 0,5 10 18,1 1,6 20,1 5,7
Luxemburgo 7,7 3,1 30,8 0,8 9,2 18,5 4,6 19,2 6,2
Holanda 6,3 0,1 22,5 1 9,9 18 6,8 28,5 6,8
ReinoUnido 2,7 1,4 30,2 1,4 6,9 16,9 5,7 28,3 6,4
Austria 12,7 1,1 30,2 1,4 9 16,8 4,9 16,8 7
Finlandia 13 0,4 25,9 1,3 7,4 14,7 5,5 24,3 7,6
Grecia 41,4 0,6 17,6 0,6 8,1 11,5 2,4 11 6,7
Noruega 9 0,5 22,4 0,8 8,6 16,9 4,7 27,6 9,4
Portugal 27,8 0,3 24,5 0,6 8,4 13,3 2,7 16,7 5,7
Espaa 22,9 0,8 28,5 0,7 11,5 9,7 8,5 11,8 5,5
Suecia 6,1 0,4 25,9 0,8 7,2 14,4 6 32,4 6,8
Suiza 7,7 0,2 37,8 0,8 9,5 17,5 5,3 15,4 5,7
Turqua 66,8 0,7 7,9 0,1 2,8 5,2 1,1 11,9 3,2
Bulgaria 23,6 1,9 32,3 0,6 7,9 8 0,7 18,2 6,7
Checoslova 16,5 2,9 35,5 1,2 8,7 9,2 0,9 17,9 7
AlemaniaE 4,2 2,9 41,2 1,3 7,6 11,2 1,2 22,1 8,4
Hungra 21,7 3,1 29,6 1,9 8,2 9,4 0,9 17,2 8
Polonia 31,1 2,5 25,7 0,9 8,4 7,5 0,9 16,1 6,9
Rumana 34,7 2,1 30,1 0,6 8,7 5,9 1,3 11,7 5
Rusia 23,7 1,4 25,8 0,6 9,2 6,1 0,5 23,6 9,3
Yugoslavia 48,7 1,5 16,8 1,1 4,9 6,4 11,3 5,3 4

23
EnelEditorseleccionarAnalizar/Reduccindedatos/Anlisisfactorial...

ElcuadroDescriptivos...serellena:

EnelVisorenlasalidadelprocedimiento:

Elprimerelementoqueseobservaeslamatrizdecorrelacionescuyodeterminantees
2,38 x 10 6 ,quealsermuypequeoindicaqueelgradodeintercorrelacinentrelasvariableses
muyalto,condicininicialquedebacumplirelanlisisencomponentesprincipales.

24
Elsegundoelementoqueseobservaenlasalidadelprocedimientoeslapruebadeesfericidad
deBarlettquepermitecontrastarformalmentelaexistenciadecorrelacinentrelasvariables.

ElestadsticoKMOtieneunvalormuypequeo(alejadode1)indicandounamalaadecuacindela
muestraaesteanlisis.

El p valor = 0 conloqueexistecorrelacinsignificativaentrelasvariables.

Elelementoaanalizareslamatrizdecorrelacionesantiimagen,formadaporloscoeficientes
decorrelacinparcialentrecadapardevariablescambiadadesigno.

Loscoeficientesdecorrelacinparcialdebentenerunvalorbajoparaquelasvariablescompartan
factorescomunes.

LoselementosdeladiagonaldeestamatrizsonsimilaresalestadsticoKMOparacadaparde
variableseinteresaqueestncercanosa1.Observandolamatriz,noseobtienenbuenos
resultados.

25
Paraanalizarelnmerodecomponentesqueseseleccionan,queengeneralsonlasrelativasa
valorespropiosmayoresque1,seobservaelgrficodesedimentacinquemuestraqueslohay
trescomponentesconautovalormayorque1.

Enlatabladelavarianzatotalexplicadase
observaquelaprimeracomponenteexplicaun
38,746%delavarianzatotalylasdos
siguientescomponentesexplicanun23,669%y
un12,211%,un74,625%entrelastres
componentes.

26
Losvalorespropiossignificativosson: 1 3,487 2 2,130 3 1,099

Lamatrizdecomponentespermiteexpresarcadaunadelasnuevevariablesoriginalesmediante
lostresfactoresextrados.

Agricultura 0,978 x F1 0,078 x F2 0,051 x F3


Minera 0,002 x F1 0,902 x F2 0,211 x F3
Manufactura 0,649 x F1 0,518 x F2 0,158 x F3


TransporteyComunicaciones 0,685 x F1 0,296 x F2 0,393 x F3

Paraverquvariablesseagrupanencadacomponente(factor)hayqueobservarlasvariablescuyas
cargasseanaltasenunfactorybajasenlosotros(valoresmenoresque0,25suelenconsiderarse
bajos).

Enestalnea,enlaprimeracomponenteestrepresentadaAgricultura,enlasegundacomponente
estrepresentadaMinerayenlaterceracomponenteCentralesdeenerga.
ServiciosaempresasyManufacturasestnrepresentadasenlaprimeraysegundacomponente,
Bancosenlasegundayterceracomponente.

Seobservaentoncesqueesdifcilagruparlasvariablesencomponentes,conloqueseradeseable
realizarunarotacin.

Seobservaquelasumadeloscuadradosdeloselementosdelascolumnasdelamatrizde
componentesesigualalosvalorespropiossignificativos:

1 ( 0,978)2 (0,002)2 (0,723)2 (0,685)2 3,487


2 (0,078)2 (0,902)2 ( 0,323)2 (0,296)2 2,130
3 ( 0,051)2 (0,211)2 ( 0,327)2 ( 0,393)2 1,099

27
LaComunalidadeslapartedevariabilidaddecadavariableexplicadaporlosfactores.Antesde
laextraccindelosfactores(componentes)lacomunalidaddecadavariableera1,interesaque
despusdelaextraccinsigasiendoalta.

LaComunalidaddecadavariableeslasumadeloscuadradosdesuscargasfactorialesdefinidasen
lamatrizdeloscomponentes

Agricultura : ( 0,978)2 (0,078)2 ( 0,051)2 0,965



Minera : ( 0,002)2 (0,902)2 (0,211)2 0,858
Comunalidad

TranspyComu : (0,685) (0,296) ( 0,393)2 0,711
2 2

Paraanalizarlabondaddelajustedelmodelofactorialseanalizanloscoeficientesde
correlacinreproducidos,coeficientesdecorrelacinentrecadadosvariablesdespusdequeestn
enfuncindelascomponentes.

28
Loscoeficientesdecorrelacinreproducidosnotienenporqucoincidirconloscoeficientesdela
matrizdecorrelacionesinicial,peronodebendiferenciarseenmsde 0,05 (residuosmenoresque
0,05 ).Encasocontrario,labondaddelajusteserdiscutible.

Losresiduossecalculanentrelascorrelacionesobservadasyreproducidas.Hay22(61,0%)
residualesnoredundantesconvaloresabsolutosmayoresque 0,05 ,indicandoquelabondaddel
modeloesdiscutible.

Laspuntuacionesfactorialessonlosvaloresquetomacadaunodelosindividuosenlastres
componentesseleccionadas.Sontresvariablessustitutasdelasinicialesquerepresentansu
reduccinyquerecogenel74,625%delavariabilidadtotal.

Larelacinentrecomponentesyvariablesser:

C1 2,80 x Agricultura 0,001 x Minera 0,207 x Sectorservicios 0,196 x Transporte


C2 0,037 x Agricultura 0,423 x Minera 0,152 x Sectorservicios 0,139 x Transporte
C3 0,046 x Agricultura 0,192 x Minera 0,298 x Sectorservicios 0,358 x Transporte

Estastresnuevasvariablesseincorporanalconjunto
dedatoscomoFAC1_1,FAC2_1yFAC3_1.

Seutilizarncomosustitutasdelasinicialespara
anlisisposteriores,comoelanlisisdelaregresin
conproblemasdemulticolinealidadyelanlisis
cluster

29
Alrealizarelanlisisdelamatrizdecomponentesseobservqueeradifcilagruparlas
variablesenesascomponentes,porloqueeradeseablerealizarunarotacin.

ConelmtodoVarimaxnocambialavarianzatotalexplicadaporlosfactores,comola
comunalidaddecadaunadelasvariables.

Lanuevamatrizdecomponentesrotadoscorrespondetambinafactoresortogonalesytiendea
simplificarlamatrizfactorialporcolumnas,siendoadecuadocuandoelnmerodefactoreses
pequeo.

30
LavariableConstruccinsesitaenlaprimeracomponente,lavariableCentralesdeenergasesita
enlasegundacomponenteylavariableBancosquedaenlaterceracomponente.Apesardela
rotacin,nosevenclarolosgruposdevariables.

Deotraparte,elgrficodecomponentesenelespaciorotado,tampocoayudaaladeteccindelos
gruposdevariables.

Dosvariablescorreladaspositivamenteformanunngulode0gradosdesdeelorigen,de180
gradossiloestnnegativamenteyde90gradossiestnincorreladas.

31
32

También podría gustarte