Está en la página 1de 22

This is page i

Printer: Opaque this

Análisis en Componentes Principales

Dr. Oldemar Rodrı́guez Rojas

15 de julio de 2009
ii
This is page iii
Printer: Opaque this

Contents
1. Análisis en Componentes Principales (ACP) V
1. Los datos . . . . . . . . . . . . . . . . . . . . . . . . . . . . vi
2. El problema . . . . . . . . . . . . . . . . . . . . . . . . . . . vii
3. Cálculo de los factores y de las componentes principales . . viii
3.1. En el espacio de los individuos . . . . . . . . . . . . viii
4. En el espacio de las variables . . . . . . . . . . . . . . . . . xi
5. Equivalencia de los dos análisis – Relaciones de dualidad . . xii
6. Varianza explicada por cada eje . . . . . . . . . . . . . . . . xiv
7. Gráficos y su interpretación . . . . . . . . . . . . . . . . . . xvi
7.1. Representación de los individuos . . . . . . . . . . . xvi
7.2. Calidad de la representación de un individuo . . . . xvii
7.3. Las contribuciones de los individuos a la varianza totalxvii
7.4. Representación de las variables . . . . . . . . . . . . xviii
8. El Algoritmo . . . . . . . . . . . . . . . . . . . . . . . . . . xx
8.1. Interpretación de la dualidad en los gráficos . . . . . xxii
iv
This is page v
Printer: Opaque this

Análisis en Componentes
Principales (ACP)
El Análisis de Componentes Principales (ACP) es una técnica proveniente
del análisis exploratorio de datos cuyo objetivo es la sı́ntesis de la informa-
ción, o reducción de la dimensión (número de variables). Es decir, ante una
tabla de datos con muchas variables, el objetivo será reducirlas a un menor
número perdiendo la menor cantidad de información posible. El ACP es
uno de los métodos más utilizados en Minerı́a de Datos en paı́ses como
Francia. Fue primeramente introducido por Pearson en 1901 y desarrolla-
do independientemente en 1933 por Hotelling y la primera implementación
computacional se dı́o en los años 60. Fue aplicado para analizar encuestas
de opinión pública por Jean Pages. Como ya se mencionó el objetivo es con-
struir un pequeño número de nuevas variables (componentes) en las cuales
se concentre la mayor cantidad posible de información, como se ilustra en
la Figura 1.

FIGURE 1. Transformación de las variables originales en componentes.

Estas nuevos componentes principales o factores son calculados como una


combinacin lineal de las variables originales, y además serán linealmente
independientes. Un aspecto clave en ACP es la interpretación, ya que ésta
no viene dada a priori, sino que será deducida tras observar la relación de
los componentes principales con las variables originales, para esto hay que
estudiar tanto el signo como la magnitud de las correlaciones, como vermos
en detalle más adelante. Esto no siempre es fácil, y será de vital importancia
el conocimiento que el experto tenga sobre la materia de investigación.

Los n individuos de una tabla de datos se pueden ver como una nube de
puntos en Rp , como se ilustra en la Figura 2-a, con su centro de gravedad
localizado en el origen, y lo que se busca es un subespacio q−dimensional L
de Rp , usualmente un plano (ver Figura 2-b), tal que la proyección ortogonal
de los n puntos sobre L (ver Figura 2-c) tienen varianza máxima, lo cual
permitirá el estudio de relaciones, clases, etc. entre los individuos (filas) de
vi 1. Análisis en Componentes Principales (ACP)

la tabla de datos.

FIGURE 2. Proyección de los individuos en el plano de varianza máxima

1. Los datos
Se parte de una tabla de datos:

 
x11 ··· x1j ··· x1m
 .. .. .. .. .. 
 .
 . . . . 
 xi1
X= ··· xij ··· xim  ←- individuo i
 . .. .. .. .. 
 .. . . . . 
xn1 ··· xnj ··· xnm

que se puede transformar en la siguiente matriz de distancias:

 
d11 ··· d1j ··· d1n
 .. .. .. .. .. 
 .
 . . . . 
 di1
D= ··· dij ··· xin 
 . .. .. .. .. 
 .. . . . . 
dn1 ··· dnj ··· dnn
1. Análisis en Componentes Principales (ACP) vii

2. El problema
Se trata de sintetizar los datos contenidos en una tabla de datos X
en un conjunto más pequeño de nuevas variables C 1 , C 2 , . . . llamadas
componentes principales, manteniendo la información escencial de X.

Ası́, en la etapa 1 del algoritmo se encuentra una variable sintética


C 1 , la primera componente principal, la cual es combinación lineal
de las variables originales X j , es decir:

C 1 = a11 X 1 + · · · + a1j X j + · · · + a1m X m ,

donde X j es la columna j de X. Esto significa que el valor de C 1


para el individuo i−ésimo está dado por:

Ci1 = a11 xi1 + · · · + a1j xij + · · · + a1m xim ,

Generalmente esta primer componente principal, C 1 , no es suficiente


para condensar la información contenida en X, por lo que se cons-
truye una segunda componente principal C 2 , luego una tercera C 3 y
ası́ sucesivamente.

En general en la etapa k, se construye la componente principal k−ésima


dada por:

C k = ak1 X 1 + · · · + akj X j + · · · + akm X m .

Matricialmente se tiene que:

C k = Xak ,

donde:
 
ak1
 .. 
 . 
k
 
 akj  .
a = 
 . 
 .. 
akm

ak se llama el k−ésimo factor.

Los factores akj constituyen un sistema de pesos para las variables,


los cuales indican cuanto aporta cada variables a la construcción de
la componente.
viii 1. Análisis en Componentes Principales (ACP)

Algunos factores akj serán negativos y otros serán positivos. El valor


de cada peso por si solo no es importante, sino la relación con respecto
a los otros pesos. Para evitar un problema de escalas se impone la
siguiente restricción:

m
X
(akj )2 = 1.
j=1

3. Cálculo de los factores y de las componentes


principales
Como en regresión, el ACP puede ser presentado tanto en el espacio de las
variables como en el espacio de los individuos.

3.1. En el espacio de los individuos


Se supondrá que las variables están centradas y reducidas.

V = n1 X t X es la matriz de varianzas–covarianzas. Como las variables


están centradas y reducidas entonces V = R, la matriz de correla-
ciones, pues:

cov(X i , X j )
vij = cov(X i , X j ) = = R(X i , X j ).
σX i σX j

Por lo tanto el espacio de las filas de X en Rm es el espacio de


individuos cuyo origen será el centro de la nube de puntos.

El objetivo del ACP es describir de manera sintética la nube de indi-


viduos.

Teorema 1 En la etapa 1 de un ACP se calcula el eje D1 que pasa por


el origen para el cual la dispersión de la nube de puntos sea máxima, este
eje D1 pasa entonces lo más cerca posible de la nube de puntos, es decir,
el promedio de las distancias al cuadrado de los n puntos de la nube y el
eje D1 es minimal (ver figura siguiente).
Sea a1 es vector director normado (norma 1) del eje (recta) D1 entonces:
a1 es el vector propio asociado al valor propio más grande de la matriz de
V de varianzas–covarianzas.

Antes de probar el Teorema necesitamos primero del siguiente Lema (el


cual vamos a asumir como válido):
1. Análisis en Componentes Principales (ACP) ix

Lema 1 Sean A y B dos matrices cuadradas m × m simétricas y sea A


una matriz definida positiva. Entonces el vector y ∈ Rn que resuelve el
siguiente problema de optimización:

max y t By


sujeto a y t Ay = 1
es el vector propio a1 de A−1 B de norma 1 asociado al valor propio más
grande β 1 .
Nota: Una matriz A es definida si para todo u ∈ Rm se tiene que ut Au > 0.

Prueba. Las coordenadas del individuos i-ésimo son:

i = (xi1 , . . . , xij , . . . , xim ).


Además, se sabe que la proyección del individuo i sobre el eje D1 es:

hi, a1 i 1
P (i, D1 ) = a ,
ka1 k
donde a1 = (a11 , a12 , . . . , a1m ) (es vector director de norma 1 del eje D1 ).
Entonces las coordenadas de la proyección del individuo i sobre el eje D1
son:

hi, a1 i
Ci1 =
ka1 k
= a11 xi1 + · · · + a12 xij , + · · · +, a1m xim
= Xa1 .
Del siguiente gráfico:
i
>


d(i, 0) 
 d(i, D1 )

 - - D1
1
0| a{z }
Ci1

Usando el Teorema de Pitágoras, se deduce que:

d2 (i, 0) = (Ci1 )2 + d2 (i, D1 ),


por lo que sumando sobre i a ambos lados y multiplicando por 1/n se tiene
que:
n n n
1X 2 1X 1 2 1X 2
d (i, 0) = (C ) + d (i, D1 ).
n i=1 n i=1 i n i=1
x 1. Análisis en Componentes Principales (ACP)
Pn
Como n1 i=1 d2 (i, 0) es independiente del eje D1 que se escoja,
Pn se deduce
1 1 2
que es una cantidad constante.
Pn Por lo tanto maximizar n i=1 (Ci ) es
1 2
equivalente a minimizar n i=1 d (i, D1 ).
Además es claro que:

n
1X 1 2 1 1
(C ) = (C 1 )t C 1 = (a1 )t X t Xa1 .
n i=1 i n n

De esta manera el problema que queremos resolver es:

max n1 (a1 )t X t Xa1




sujeto a (a1 )t a1 = 1 (pues la norma de a1 debe ser 1).

Entonces aplicando el Lema anterior con B = n1 X t X y A = Im×m se tiene


que a1 es el vector propio de norma 1 de la matriz B = n1 X t X asociado al
valor propio más grande.

Teorema 2 En la etapa 2 de un ACP se calcula el eje D2 que pasa por


el origen para el cual la dispersión de la nube de puntos sea máxima, este
eje D2 pasa entonces lo más cerca posible de la nube de puntos, es decir,
el promedio de las distancias al cuadrado de los n puntos de la nube y el
eje D2 es minimal.
Sea a2 es vector director normado (norma 1) del eje (recta) D2 el cual
será ortogonal al vector a1 construido en la etapa 1, entonces: Se tiene el
siguiente problema de optimización:

1
t
máx n a2 X t Xa2
( t
a2 a2 = 1
sujeto t
a2 a2 = 0

cuya solución es el vector propio asociado al segundo valor propio más


grande de la matriz de V de varianzas–covarianzas.

Teorema 3 En la etapa k de un ACP se calcula el eje Dk que pasa por


el origen para el cual la dispersión de la nube de puntos sea máxima, este
eje Dk pasa entonces lo más cerca posible de la nube de puntos, es decir,
el promedio de las distancias al cuadrado de los n puntos de la nube y el
eje Dk es minimal.
Sea ak es vector director normado (norma 1) del eje (recta) Dk el cual
será ortogonal al vector ar ∀ r < k construidos en las etapas 1, 2, . . . , k − 1
entonces: Se tiene el siguiente problema de optimización:
1. Análisis en Componentes Principales (ACP) xi

1
t
máx n ak X t Xak
( t
ak ak = 1
sujeto t
ak ak = 0 para r = 1, 2, . . . , k − 1
cuya solución es el vector propio asociado al k−ésimo valor propio más
grande de la matriz de V de varianzas–covarianzas.

4. En el espacio de las variables


Teorema 4 En la etapa 1 de un ACP se calcula una variable sintética
(eje) C 1 que resuma lo mejor posible las variables originales, es decir, de
tal manera que:
m
X
R2 (C 1 , X j ) sea máxima.
j=1
1
Entonces C es el vector propio asociado al valor propio más grande λ1 de
la matriz n1 XX t .

Prueba.
1 j t 1 1
cov(C 1 , X j ) = (X ) C = (C 1 )t X j ,
n n
lo cual implica que:
1
cov2 (C 1 , X j ) = (C 1 )t X j (X j )t C 1 ,
n2
1
como var(C 1 ) = 1 t 1
n (C ) C y var(X j ) = 1, se tiene que:

cov2 (C 1 , X j ) (C 1 )t X j (X j )t C 1
R2 (C 1 , X j ) = 1 j
= ,
var(C )var(X ) n(C 1 )t C 1
entonces:
m Pm
X
2 1 j
(C 1 )t j
j=1 X (X ) C
j t 1
R (C , X ) = ,
j=1
n(C 1 )t C 1
Pm
como j=1 X j (X j )t = XX t , se tiene que:
m
X (C 1 )t XX t C 1
R2 (C 1 , X j ) = .
j=1
n(C 1 )t C 1
Pm
De modo que maximizar j=1 R2 (C 1 , X j ) es equivalente a maximizar la
siguiente expresión:
xii 1. Análisis en Componentes Principales (ACP)

(C 1 )t XX t C 1
,
n(C 1 )t C 1
entonces, aplicando el lema anterior, C 1 es el vector propio asociado al
valor propio más geande λ1 de la matriz n1 XX t .
Teorema 5 En la etapa k de un ACP se calcula una variable sintética
(eje) C k que resuma lo mejor posible las variables originales y que no
esté correlacionada las primeras k − 1 componentes principales (variables
sintéticas) ya calculadas, es decir, de tal manera que:
m
X
máx R2 (C k , X j )
j=1

sujeto R2 (C k , C r ) = 0 para r = 1, 2, . . . , k − 1
Entonces: C k es el vector propio de n1 XX t asociado al k−ésimo valor propio
más grande.

5. Equivalencia de los dos análisis – Relaciones de


dualidad
1 t
Espacio de los individuos 7→ nX X que es tamaño m × m.
1 t
Espacio de las variables 7→ n XX que es tamaño n × n.

Usualemente el número de variables es menor que el número de individuos,


por supondremos en adelante sin pérdidad de generalidad que m < n.
Teorema 6 [Relaciones de Dualidad]

1. Si vk es el k−ésimo vector propio de norma 1 asociado a λk de la


matriz n1 XX t entonces:

X t vk
uk = √ ,
nλk
es el k−ésimo vector propio de norma 1 asociado a λk de la matriz
1 t
n X X.

2. Si uk es el k−ésimo vector propio de norma 1 asociado a λk de la


matriz n1 X t X entonces:

Xuk
vk = √ ,
nλk
1. Análisis en Componentes Principales (ACP) xiii

es el k−ésimo vector propio de norma 1 asociado a λk de la matriz


1 t
n XX .

Prueba.
1 t
1. Sea vk el vector propio de norma 1 asociado λk de la matriz n XX ,
entonces por definición se tiene que:

1
XX t vk = λk vk ,
n
multiplicando por X t a ambos lados por la izquierda se tiene que:

1 t
X XX t vk = λk X t vk ,
n
lo cual es equivalente a:

1 t
(X X)(X t vk ) = λk (X t vk ),
n
aplicando de nuevo la definición de valor propio se tiene que:
1 t
λk es un valor propio de la matriz n X X.
X t vk es el vector propio de la matriz n1 X t X asociado al valor
propio λk .

Este vector propio X t vk se debe normalizar, para esto:

kX t vk k2 = (X t vk )t (X t vk ) = vkt XX t vk = nλk vkt vk = nλk ,

entonces:
p
kX t vk k = nλk ,

por lo que:

X t vk
uk = √ ,
nλk
1 t
es un vector propio de norma 1 de la matriz nX X asociado al valor
propio λk .

2. Tarea.
xiv 1. Análisis en Componentes Principales (ACP)

6. Varianza explicada por cada eje


Teorema 7 1. n1 X t X y 1
n XX
t
tienen los mismos valores propios,
λ1 , λ 2 , . . . , λm .

2. Además el rango de ambas matrices es n − m y los últimos n − m


valores propios de n1 XX t son nulos.

Prueba.
1 t
1. Sea λk el k-ésimo valor propio de la matriz n X X, entonces por
definición se tiene que:

1 t
X Xvk = λk vk ,
n
multiplicando por X a ambos lados se tiene que:

1
XX t Xvk = λk Xvk ,
n
como se sabe que Xvk = C k (la componente k-ésima), entonces:

1
XX t C k = λk C k ,
n
1 t
lo cual implica que λk el k-ésimo valor propio de la matriz n XX ,
asociado al vector propio C k .

2. Tarea.

Teorema 8 La suma de los m valores propios de n1 X t X es igual al número


de columnas m de la matriz X, es decir:
m
X
λk = m.
k=1

Prueba. Del álgebra lineal se sabe que la suma de valores propios de una
matriz es igual a la suma de los elementos de la diagonal de dicha matriz,
es decir, es igual a la traza de la matriz. Además, como X está centrada y
reducida n1 X t X = R, de donde:
m  
X 1 t
λk = Tr X X = Tr(R),
n
k=1

entonces:
1. Análisis en Componentes Principales (ACP) xv

 
1 0 ··· 0
Xm  0 1 ··· 0 
λk = Tr  = m.
 
.. 
k=1
 0 0 . 0 
0 0 ··· 1 m×m

El ACP tiene m etapas, en cada etapa se construye un resumen de la tabla


X, menos interesante que el construido en la etapa anterior.

¿Cómo medir la calidad de la etapa k?

En la etapa k, el criterio del ACP es maximizar:

n
1X k 2
(C ) ,
n i=1 i

como:

n
1X k 2 1
(C ) = (ak )t X t Xak = (ak )t λk ak = λk .
n i=1 i n

Entonces λk es la varianza explicada por el eje k−ésimo, es decir por


Ck.

Como:

m
X
λk = m,
k=1

se tiene que:

λk
= % de la varianza explicada por el eje C k = % de INERCIA.
m

Por ejemplo, la inercia explicada por el plano principal, ejes 1 y 2


es:

λ1 + λ 2
.
m
xvi 1. Análisis en Componentes Principales (ACP)

7. Gráficos y su interpretación
7.1. Representación de los individuos
Recordemos que para calcular las coordenadas de un individuos se tiene
que (La matriz X se supone centrada y reducida):
1
C s = Xas donde as es el vector propio de R = t
nX X asociado a λs .
De donde:

Cis = as1 Xi1 + · · · + asj Xij + · · · + asm Xim ,


es decir:

m
X
Cis = Xij asj
j=1

Análogamente:
1
C r = Xar donde ar es el vector propio de R = t
nX X asociado a λr .
De donde:

Cir = ar1 Xi1 + · · · + arj Xij + · · · + arm Xim ,


es decir:

m
X
Cir = Xij arj
j=1

Gráficamente se ilustra como sigue:


Ası́, dos individuos i y j cuyas proyecciones son cercanas son “seme-
jantes”en la nube de puntos.
Para proyectar un individuo en suplementario s = (s1 , . . . , sm ) sim-
plemente se centra y reduce como si fuera la última fila de X, como
sigue:

s1 − X̄ 1 sm − X̄ m
 
s̃ = ,..., ,
σ1 σm
donde X̄ j es la media de la columna j−ésima de la matriz X. En-
tonces las coordenadas se calculan como sigue:

m
X
Cis = s̃j asj
j=1
1. Análisis en Componentes Principales (ACP) xvii

7.2. Calidad de la representación de un individuo


En el espacio de los individuos se tienen 2 bases ortonormales:

1. La base original, en la cual las coordenadas del individuo i son:

i = (Xi1 , . . . , Xij , . . . , Xim ).

2. La base construida por los m factores, en la cual las coordenadas


del individuo i son:

i = (Ci1 , . . . , Cik , . . . , Cim ),

entonces la distancia del punto al origen se puede medir con


ambas representaciones, lo que implica que:
m
X m
X
(Xij )2 = (Cik )2 .
j=1 k=1

De modo que el individuo i tiene una buena representación en el eje


n
X
r si (Cir )2 tiene un valor importante respecto a la suma (Xij )2 .
j=1

Por lo que la calidad de la representación del individuo i sobre el eje


r está dada por:

(Cir )2
m = % del individuo i representado en el eje r.
X
(Xij )2
j=1

Lo anterior es útil para qué tan bien está representado un individuo


en un eje o plano.

7.3. Las contribuciones de los individuos a la varianza total


La varianza total en la etapa r es igual a:

n
1X r 2
(C ) = λr .
n i=1 i

La parte de esta varianza explicada por el individuo i es:

1 r 2
(C )
n i
xviii 1. Análisis en Componentes Principales (ACP)

Entonces, la contribución del individuo i a la varianza total del eje r


está dada por:

(Cir )2
= % de contribución del individuo i a la formación del eje r.
nλr

Lo anterior es útil para intepretar los ejes.

7.4. Representación de las variables


La coordenada de la variable X j sobre el eje r está dada por:

R(X j , C r ),

que es el coeficiente de correlación entre la variable j−ésima y la


componente principal r−ésima.
Entonces las coordenadas de X j sobre la base de componentes prin-
cipales son:

(R(X j , C 1 ), . . . , R(X j , C s ), . . . , R(X j , C m )),

esto implica que:

m
X
R2 (X j , C k ) = 1
k=1

Por lo que si se usan solamente 2 componentes C r y C s se tiene que:

R2 (X j , C s ) + R2 (X j , C r ) 6 1.

Por esta razón las variables pueden ser representadas en un cı́rculo


de radio 1 como se ilustra a continuación:

Teorema 9 [Cálculo de las correlaciones]


√
R(X 1 , C r ) λr ar1
  
 ..   .. 
.  . 
√
 
p
 R(X j , C r )  = λr · ar =  λr arj  ,
  
   
 ..   . 
.
 .  
√ . r

m r
R(X , C ) λr am

1
donde ar es el r−ésimo vector propio de R = t
nX X asociado a λr .
1. Análisis en Componentes Principales (ACP) xix

Prueba. Sabemos que:

cov(X j , C r )
R(X j , C r ) = ,
σX j σC r
Como la tabla X está reducida σ X j = √ 1. Además se sabe que la
varianza del eje C r es λr , es decir, σ C r = λr , entonces se tiene que:

cov(X j , C r ) cov(X j , C r )
R(X j , C r ) = = √ .
σX j σC r λr
Entonces:

R(X 1 , C r )
 
 .. 
 . 
 R(X j , C r )  = √1 X t C r = √1 X t Xar = √1 λr ar = λr ar .
  p
  n λ n λr λr
 ..  r
 . 
R(X m , C r )

Por dualidad, en el espacio de las variables, para calcular las coor-


denadas (correlaciones) se podrı́a diagonalizar la matriz H = n1 XX t
(que es tamaño n × n) y proceder a calcular dichas coordenadas de
manera completamente análoga al caso de los individuos.
Es decir, suponiendo que la matriz X está centrada y reducida, y si
denotamos por Z = X t entonces:
1
Rs = Zas donde as es el vector propio de H = n XX
t
asociado a λs .
De donde:

Ris = as1 Zi1 + · · · + asj Zij + · · · + asn Zin ,

es decir:

n
X
Ris = Zij asj
j=1

Calidad de representación de una variable


La calidad de la representación de una variable sobre el cı́culo de
correlaciones, será también medida con el cuadrado del coseno del
ángulo entre la variable y su proyección. Ahora bien, recuérdese que
entre variables, el coseno es igual a una correlación, por lo que serán
xx 1. Análisis en Componentes Principales (ACP)

las correlaciones al cuadrado las que midan la calidad de la repre-


sentación de las variables. Ası́ la matriz de calidades de las variables
S ∈ Mm×m se puede calcular como sigue:

R2 (X 1 , C 1 ) · · · R2 (X 1 , C r ) R2 (X 1 , C m )
 
···
 .. .. .. .. 
 2 .j 1
 . ··· . . 

S=
 R (X , C ) · · · R2 (X j , C r ) ··· 2 j
R (X , C ) m

 .. .. .. .. .. 
 . . . . . 
R2 (X m , C 1 ) · · · R2 (X m , C r ) · · · R2 (X m , C m )

Para proyectar una variable suplementaria:


 
y1
 y2 
y=
 
.. 
 . 
yn

primero se centra y se reduce respecto a sı́ misma como sigue:

 y1 −ȳ 
σy
 y2 −ȳ 
c
 σy 
y =
 .. 

 . 
yn −ȳ
σy

y luego se calculan las correlaciones de y c con las componentes prin-


cipales, de manera análoga a proyectar una columna de X.

8. El Algoritmo

Entrada: Las tabla de datos X ∈ Mn×m .

Salida: La matriz de componentes principales C ∈ Mn×m , la matriz


de calidades de los individuos (cosenos cuadrados) Q ∈ Mn×m , la
matriz de coordenadas de las variables T ∈ Mm×m , la matriz de
calidades de las variables (cosenos cuadrados) S ∈ Mm×m y el vector
de inercias de los ejes I ∈ M1×m .

Paso 1: Centrar y reducir la tabla de datos X.


1. Análisis en Componentes Principales (ACP) xxi

Paso 2: Calcular la matriz de correlaciones R ∈ Mm×m . R se puede


calcular: R = n1 X t X, o bien a pie calculando todas las correla-
ciones.
Paso 3: Calcular los vectores y valores propios de la matriz R ∈
Mm×m .
Paso 4: Ordenar de mayor a menor estos valores propios.
Paso 5: Si denotamos por λ1 , λ2 , . . . , λm estos valores propios or-
denados y por υ 1 , υ 2 , . . . , υ m los respectivos vectores propios,
entonces se construye la matriz V ∈ Mm×m de la siguiente for-
ma:

V = [υ 1 |υ 2 | · · · |υ m ]

Es decir, la matriz V tiene como columnas los vectores υ 1 , υ 2 , . . . , υ m .


Paso 6: Calcule la matriz de componentes principales C ∈ Mn×m :

C =X ·V

Paso 7: Calcule la matriz de calidades de los individuos (cosenos


cuadrados) Q ∈ Mn×m , como sigue:

(Ci,r )2
Qir = m para i = 1, 2, . . . , n; r = 1, 2, . . . , m.
X
(Xij )2
j=1

Paso 8: Calcule la matriz de coordenadas de las variables T ∈ Mm×m ,


como sigue:

R(X 1 , C 1 ) · · · R(X 1 , C r ) R(X 1 , C m )


 
···
 .. .. .. .. 

 . . ··· . . 

j 1
T =
 R(X , C ) · · · R(X j , C r )
··· j m
R(X , C )  
 .. .. .. .. .. 
 . . . . . 
R(X m , C 1 ) · · · m r
R(X , C ) · · · m
R(X , C ) m

 √ √ √ 
λ1 v1,1 ··· λr v1,r ··· λm v1,m
 .. .. .. .. 
√ . . √··· . √ .
 
 
=
 λ1 vj,1 ··· λr vj,r ··· λm vj,m 

 .. .. .. .. .. 
.
√ . . √ . √ .
 
λ1 vm,1 ··· λr vm,r ··· λm vm,m
xxii 1. Análisis en Componentes Principales (ACP)

Paso 9: Calcule la matriz de calidades de las variables (cosenos cuadra-


dos) S ∈ Mm×m , como sigue:

λ1 (v1,1 )2 λr (v1,r )2 λm (v1,m )2


 
··· ···
 .. .. .. .. 

 . . ··· . . 

2
S=
 λ 1 (v j,1 ) ··· λr (vj,r )2 ··· 2 
λm (vj,m ) 
 .. .. .. .. .. 
 . . . . . 
λ1 (vm,1 )2 ··· λr (vm,r )2 ··· λm (vm,m )2

Paso 10: Calcule el vector de inercias de los ejes I ∈ M1×m , como


sigue:

λ1 λ2 λm
I = (100 · , 100 · , . . . , 100 · )
m m m

INTERPRETACIÓN

• Si la proyección de X j está cercana al borde del cı́rculo (la suma


de las correlaciones al cuadrado está cerca de 1), significa que
está bien representada en ese plano, pues tendrı́a fuerte cor-
relación con las 2 componentes (o con alguna de ellas) y por la
tanto la correlación con las demás componentes es débil.
0
• Si dos variables X j y X j están cercanas al borde del cı́rculo,
entonces el ángulo G entre la proyección de estas dos variables
será muy cercano al ángulo que ambas variables tienen en la nube
de puntos (variables) y ası́ el coseno de G será muy cercano a la
correlación entre ambas variables (ver el siguiente gráfico), luego
la interpretación es la siguiente:
0 0
◦ Si X j y X j están cercanas entre si, entonces X j y X j son
fuerte y positivamente correlacionadas.
0
◦ Si el ángulo entre X j y X j es cercano a los 90◦ entonces
NO existe ninguna correlación entre ambas variables.
0
◦ Si X j y X j están opuestas al vértice (origen) entonces exis-
0
te una correlacin fuerte y negativa entre X j y X j .

8.1. Interpretación de la dualidad en los gráficos

También podría gustarte