Documentos de Académico
Documentos de Profesional
Documentos de Cultura
CAPITULO 3
ASPECTOS DEL ANLISIS MULTIVARIADO
1.1. Introduccin.
Los ltimos aos han sido testigos de un desarrollo espectacular de las tcnicas de
Anlisis Estadstico Multivariante. La aplicacin de estas tcnicas, cuyos
fundamentos tericos son conocidos en algunos casos desde hace tiempo, se haba
visto hasta hace poco limitada por sus exigencias de medios de clculo. Superado
este obstculo con la generalizacin de las computadores, los mtodos multivariantes
constituyen hoy en da una fructfera tcnica de anlisis en reas como la sociologa,
la investigacin econmica, la medicina, la biologa, etc. . .
Desde un punto de vista puramente estadstico y de forma algo restrictiva el Anlisis
Multivariante puede definirse como el conjunto de tcnicas cuyo objetivo es el
anlisis descriptivo y/o la realizacin de inferencias a partir de datos de naturaleza
multivariante, es decir en los que cada observacin est constituida por los valores de
varias variables interrelacionadas.
Pese a su carcter tautolgico esta definicin contiene ciertos matices que conviene
resaltar. As cuando la referencia expresa anlisis descriptivo, pretende resaltar la
importancia en el contexto multivariante de este tipo de enfoque frente a los ms
clsicos de naturaleza Inferencial.
Igualmente la mencin del carcter interrelacionado de las variables estudiadas hace
hincapi en el aspecto esencial del A.M. En efecto si las variables fueran
independientes podran estudiarse por separado mediante las tcnicas univariantes
clsicas; el A.M. explota las relaciones existentes entre las mismas para lograr un
anlisis ms rico y profundo de la realidad subyacente en los datos observados.
Desde un punto de vista prctico las tcnicas de A.M. permiten el anlisis de
situaciones en que se disponen de observaciones sobre varios individuos u
Individuo 2
x11
x21
.
.
.
xi1
.
.
.
xp1
x12
x22
.
.
.
xi2
.
.
.
xp2
...
...
Individuo j
...
Individuo n
x1j
x2j
x1n
x2n
.
.
.
xin
.
.
.
xpn
.
.
.
...
xij
.
.
.
...
xpj
x12
x22
...
x1j
x2j
...
...
x1n
x2n
.
.
.
.
.
.
.
.
.
.
.
.
xi1
xi2
xij
.
.
.
.
.
.
.
.
.
.
.
.
xp1
xp2
xpj
xpn
...
xin
Con el arreglo de los datos nos facilicita su exposicin y permite clculos de manera
ordenada y eficiente.
La media muestral puede ser calculada a partir de n medidas sobre cada una
de las p variables. En general, existirn p medias muestrales:
n
xi
x
j1
ij
i = 1, 2, ..., p
(1.1)
x1
x2
X .
.
xp
(1.2)
s i2
(x
j1
ij
xi )2
i = 1, 2, ..., p.
(1.3)
sik
1 n
( xij x i )( x kj x k )
n j 1
i = 1, 2, ..., p ,
k = 1, 2, ..., p
(1.4)
s12
s22
.
.
.
S=
. . . s1p
. . . s2p
.
.
.
sp1
.
.
.
.
.
. . .
spp
sp2
(1.5)
pxp
rik
sik
sii s kk
(x
j 1
(x
j 1
ij
ij
x i )( x kj x k )
xi )
i = 1, 2, ..., p , k = 1, 2, ..., p
(x
j 1
kj
xk )
(1.6)
Aunque los signos de la correlacin muestral y la covarianza muestral son el
mismo, la correlacin es fcil de interpretar, debido a que su magnitud es
restringida. El valor del coeficiente de correlacin muestra, r, puede estar entre
1 y +1.
R=
1
r21
r12
1
.
.
.
.
.
.
rp1
rp2
. . .
. . .
r1p
r2p
.
.
.
.
.
. . .
(1.7)
1
pxp
Ejemplo 1. Dada las medidas de las variables X1, X2, X3. Encuentre las medidas
estadsticas descriptivas: X , S y R.
X1:
X2: 12
4 10
X3 : 3
Solucin.
92658
a) Tenemos que: x 1
, x 2 8 y x 3 2 . Entonces X
5
6
8
2
s 22 8 ,
6
4
4
8
1.4
1.2
1. 4
1.2
2
R 0.577
0.404
6
0.577
1
0.3
0.404
0.3
1
1.3. Distancia.
Muchas tcnicas estadsticas multivariante estn basados sobre conceptos similares
de distancia. Generalmente, estas medidas de distancia pueden ser divididos en dos
tipos: distancia Euclidiana y distancia de Mahalanobis.
Si consideramos el punto P = (x1, x2) en el plano, la distancia Euclidiana, d(O, P),
de P al origen O = (0,0), segn el teorema de Pitgoras es,
d (O, P )
x12 x 22
(1.8)
En general, si el punto P tiene p coordenadas, esto es, P = (x1, x2, ..., xp), la distancia
euclidiana de P al origen O = (0, 0, ..., 0) es
d (O , P )
x12 x 22 ... x 2p
(1.9)
d ( P, Q )
( x1 y1 ) 2 ( x 2 y 2 ) 2 ... ( x p y p ) 2
(1.10)
Para proceder a esto, se divide cada coordenada por la desviacin estndar muestral.
As una distancia del punto P = (x1, x2) al origen O = (0,0), llamada distancia
Euclidiana estandarizada, es dada por
d ( P, O ) (
x1 2
x
) ( 2 )2
s11
s 22
x12 x 22
s11 s 22
(1.11)
Comparando las expresiones (8) con (11), vemos que la diferencia entre las dos
expresiones es debido a las ponderaciones k1 = 1/s11 y k2 = 1/s22 afectadas a x12 y x 22
en (11). En casos donde las ponderaciones son las mismas, es conveniente ignorar el
divisor comn y usar la formula de la distancia Euclidiana. En otras palabras, si la
variabilidad en los direccin de x1 es la misma como la variabilidad en la direccin
de x2 y los valores de x1 varan independiente de los valores de x 2, la distancia
Euclidiana es apropiada.
d 2 ( P, O )
x12 x 22
4
1
Todos los puntos (x1, x2) tienen una distancia constante 1 desde el origen, que
satisfacen la ecuacin:
x12 x 22
1
4
1
Un grafico de la ecuacin x12 / 4 x12 / 1 1 es una elipse centrada en (0, 0), cuyo eje
mayor esta en el eje coordenadas x1 y cuyo eje menor esta comprendido en el eje de
42 y
1.1. Todos los puntos sobre la elipse tienen la misma distancia Euclidiana
estandarizada desde el origen, en este caso, una distancia de 1 desde el origen.
La expresin (11) puede ser generalizada para calcular la distancia Euclidiana
estandarizada desde un punto arbitrario P = (x1, x2) a un punto fijo Q = (y1, y2). Si
suponemos que las variables coordenadas varan independiente uno de otro, la
distancia desde P a Q es dado por:
d ( P, Q )
( x1 y1 ) 2 ( x 2 y 2 ) 2
s11
s 22
(1.12)
x2
1
.P
-2
-1
d ( P, Q )
(x p y p )2
( x1 y1 ) 2 ( x 2 y 2 ) 2
s11
s 22
s pp
(1.13)
Todos los puntos P se encuentran a una distancia cuadrada constante desde Q sobre
una hyperelipsoide centrada en Q. Notamos que si s11 = s22 = = spp, la formula de
la distancia Euclidiana en (10) es apropiada.
(1.14)
2 ( X, ) ( X ) 1 (X )
35.159
5.286
0.873
3.703
35.159
3.703
21.65
X:
( x1 0) 2 ( x 2 0) 2 ( x3 0) 2
(19 0) 2 (1 0) 2 (10 0) 2
462 21.494
De X = (19,1,10) a
d ( X , x)
10
( x1 x 1 ) 2 ( x 2 x 2 ) 2 ( x3 x 3 ) 2
0.4201 0.648
d ( X , Q)
(x p y p )2
( x1 y1 ) 2 ( x 2 y 2 ) 2
s11
s 22
s pp
d ( X , O)
(19 0) 2 (1 0) 2
(10 0) 2
3.385
63.37
0.873
21.65
Entonces,
De X = (19,1,10) a
c) Distancia de Mahalanobis.
De X = (19,1,10) al origen O = (0, 0)
d 2 ( X , Y ) (X Y ) S 1 (X Y )
19
0
2
D ( X , O) 1 0
10
0
5.171
1
15.858
20.536 - 11.12
15.858
134.538
- 48.809
- 11.12
- 48.809
27.38
19
0
1 0
10
0
19
0.252
10 0.772
- 0.541
11
0.772
6.551
- 2.377
- 0.541 19
- 2.377 1 = 6.814
1.333 10
Vectores.
Un arreglo x de n nmeros reales x1, x2, ..., xn es llamado un vector y se escribe
como:
x1
x
2
x .
.
x n
x x1 , x 2 , . . . , x n
(1.15)
12
cx .
.
cx n
(1.16)
Esto es, cx es el vector obtenido multiplicando cada elemento de x por c.[ver figura
1.3(a)]. As mismo, en la figura 1.3 (b), se representa la suma de dos vectores x y y.
2
x2 + y2
2x
2x2
x2
x
x2
x+y
x
y2
x1
2x1
x1
y
y1
x 1 + y1 1
-x
a) Multiplicacin de un vector por una constante
definido
por:
13
x 12 x 22 x 2n
(1.17)
L cx
c 2 x 12 c 2 x 22 c 2 x 2n c
x 12 x 22 x 2n c L x
(1.18)
cos 1
x1
Lx
y1
Ly
cos 2
sen 1
x2
Lx
sen 2
y2
Ly
L
y
cos cos( 2 1 )
x1
Lx
y2
L
y
x2
Lx
(1.19)
xy
LxLy
xy
, donde L x
xx y y
xx
cos
14
x 1 y1 x 2 y 2
LxLy
y
y2
x
x2
1
1
y1
x1
x y x 1 y1 x 2 y 2 x n y n
(1.20)
donde L x Longitud de x
x y
LxLy
x y
x x y y
(1.21)
xx
(1.22)
15
Ly
cos
y y
6 2.449
x y
-1
0.1091
L x L y 3.742 2.449
b)
Finalmente,
L 3x
3 2 9 2 6 2 126 3 14 3Lx .
L 3x 3L x
1
x 2 0
1
1
x 3 2
1
Escribiendo :
c1 x 1 c 2 x 2 c 3 x 3 0
Entonces:
Se
comprueba
que
16
1
1
1
0
c1 2 c 2 0 c 3 2 0
1
1
1
0
c1 + c2 + c3 = 0
2c1 +
- 2c3 = 0
c1 c2 + c3 = 0
Se observa que este sistema de ecuaciones tiene una nica solucin : c1= c2 = c3 = 0.
Como no se puede encontrar tres constantes c 1, c2 y c3 , no todos cero, tal que se
c1 x 1 c 2 x 2 c 3 x 3 0 ,
cumpla
independientes.
Matrices.
Una matriz es un arreglo rectangular de nmeros reales o funciones que toman
valores sobre los nmeros reales. Se denota un arreglo arbitrario de m filas y k
columnas por:
a11
a21
a12
a22
.
A=
.
.
. . . a1n
. . . a2n
.
.
.
(1.23)
.
ap1
ap2
. . .
apn
pxn
i = 1, 2, ..., m
j = 1, 2, , k.
(1.24)
17
3
5
a
c
5
2
c
b
g
d
e
g
c
a
f
d
a
(1.25)
un escalar :
A = a11
A
1j
si k =1
A 1j ( 1)1 j
si k > 1
j1
(1.26)
donde A1j es la matriz de orden (k-1)x(k-1) obtenida eliminando la primera fila y la jsima columna de A.
18
Note que Ax = x1a1 + x2a2 + + xkak , donde ai es la i-sima columna de A, tal que la
condicin de no singularidad es justo la condicin de que las columnas de A son
linealmente independiente.
(1.27)
2
1
A 2
1
2
1
2
1
2
1
2
1
2
1
2
1
2
1
1
2
1
2
1
2
1
2
2
1
2
1
2
1
2
1
2
1
2
1
2
1
2
1
2
1
2
1
2
1
2
2
1
2
19
1
2
1
2
1
2
1
2
1
2
1
2
1
2
1
2
1
2
1
2
1
2
1
1
0
0
1
2
1
Sea A(k x k) una matriz cuadrada y sea I(k x k) la matriz identidad. Entonces los
Entonces: A I 1
0
3
3
0
(1 )(3 ) 0
tal que
Ax = x.
(1.28)
0
son 1 = 1 y 2 = 3.
3
0 x 1
x1
3 x 1 x ,
2
2
A x = 1 x
1
1
0
3
20
x1
x1
x 3 x ,
2
2
A x = 2 x
entonces: x
x1 = 3x1
x1 + 3x2 = 3x2
implica x1 = 0
y x2 = 1 (arbitrario), y entonces x
es eigenvector
correspondiente al eigenvalor 3.
A 1 e 1 e1 2 e 2 e 2 1 e k e k
(kxk)
(kx1) (kx1)
(kx1) (kx1)
(kx1) (kx1)
(1.29)
21
13
A 4
2
2
10
13
2
13
4
2
Es decir
2
2
10
e11
e11
e 9 e
21
21
e31
e31
de donde tenemos:
2e31 = 9e11
2
2
2
1 1 0
12
2
2
2
1 1 0
e1
2
2
2
1 1 0
Verificar que
e2 1 18
1/ 18
4/ 18
2 /3
22
E(X) =
E(X11)
E(X21)
.
.
.
E(Xp1)
E(X12)
E(X22)
.
.
.
E(Xp2)
. . . E(X1n)
. . . E(X2n)
.
.
.
.
.
.
. . . E(Xpn)
(1.30)
pxn
E(X ij )
x1
p1(x1)
-1
0.3
23
0
0.3
1
0.4
0
0.8
1
0.2
Luego,
E( X 1 )
0.1
0.2
E ( X 2 )
E ( X)
. . .
p,
respectivamente. Especficamente,
de probabilidad pi (xi )
2
(x i - i) fi (xi )dxi si Xi es una v.a continua con funcin
2
i
xi
de probabilidad pi (xi )
(1.31)
24
(x - )(x - )p (x ,x )
Xi xk i i k k ik i k
(1.32)
P X i x i y X k x k P X i x i P X k x k
(1.33)
para todos los pares de valores x1, xk, entonces Xi y Xk se dice que son
estadsticamente independientes.
Cuando Xi y Xk son variables aleatorias continuas con densidad conjunta f ik(xi, xk) y
funcin de densidad marginal fi(xi) y fk(xk), la condicin de independencia produce
f ik (x i , x k ) f i (x i )f k (x k ) para todo los pares (xi, xk).
(1.34)
25
(1.35)
E ( X)
1
2
. .
E ( X p ) p
(1.36)
X1 1
X2 2
. X1 1 , X 2 2 , . . . , X p p
E(X )(X ) E
Xp p
E(X1 1 ) 2
E(X 2 2 )(X1 1 )
.
.
E(X p p )(X1 1 )
E(X 1 1 )(X 2 2 )
E(X 2 2 ) 2
.
.
E(X p p )(X 2 2 )
.
.
.
.
.
.
1p
2p
.
.
pp
E(X 1 1 )(X p p )
E(X 2 2 )(X p p )
E(X p p ) 2
o
11
21
Cov( X) .
.
p1
12
22
.
.
p2
.
.
.
.
.
.
(1.37)
p1(x1)
26
-1
0
1
0.24
0.16
0.40
0.06
0.14
0.00
p2(x2)
0.80
0.20
0.30
0.30
0.40
Solucin.
Ud. Puede comprobar que 1 E(X1 ) 0.1
tenemos:
11 E(X 1 1 ) 2 (x 1 0.1) 2 p1 (x 1 )
x1
12 E(X1 1 )(X 2 2 )
(x
1
pares (x1 , x 2 )
0.1) 2 (x 2 - 1 )p12 (x 1 , x 2 )
E(X 2 ) 2 0.2
E ( X)
E(X1 1 ) 2
E(X )(X )
E(X 2 2 )(X1 1 )
11
21
12 0.69
22 - 0.08
- 0.08
0.16
E(X1 1 )(X 2 2 )
E(X 1 1 ) 2
27
ik
(1.38)
ii kk
11
12
11 11
11 22
12
22
11 22
1p
11 pp
1
12
.
.
1p
12
1
.
.
2p
22 22
.
.
2p
.
.
.
.
.
.
.
22 pp
.
.
.
1p
11 pp
2p
22 pp
pp
pp pp
1p
2p
.
.
1
(1.39)
0
1/2
V .
.
0
0
22
.
.
0
.
.
.
.
.
.
.
.
0
.
.
pp
(1.40)
28
(1.41)
(1.42)
1
.
.
X
q
X
X q 1
.
.
X p
.
(1)
q
(2)
E( X)
q 1
.
.
p
X (1)
( 2)
X
(1.46)
Multiplicando las matrices,
(1)
X1 1
X2 2
X q 1 q 1 , X q 2 q 2 ,..., X p p
X q q
(X1 1 )(X q 1 q 1 )
(X )(X )
2
q 1
q 1
2
.
(X q q )(X q 1 q 1 )
29
(X1 1 )(X q 2 q 2 )
(X1 1 )(X p p )
(X 2 2 )(X q 2 q 2 )
.
(X 2 2 )(X p p )
(X q q )(X q 2 q 2 )
(X q q )(X q q )
E(X )( X )
1, q 1
2, q 1
(1)
(1)
(2)
(2)
1, q 2
2, q 2
q, q 1
q, q 2
1 p
2 p
12
(1.47)
q p
(q x 1)
( X )(X )
(1 x q)
(q x 1)
(1 x ( p - q))
(2)
(2)
(1)
(1)
(X(p - q) x1) ) (X (1x q) )
Como
((p - q ) x 1)
(1 x (p - q))
consecuencia resulta:
p-q
(1.48)
11 12
E(X )(X ) p-q
(pxp)
21 22 (p x p)
q
11
q1
q 1, 1
p 1
1 q
q q
q 1, q
pq
1, q 1
q, q 1
q 1, q 1
p, q 1
1 p
q p
q 1, p
p p
Note que
30
12 21 . La matriz de covarianza de X
(1)
x1
xq
x (1)
(2)
x
x q 1
( p x 1)
(1.49)
xp
y
s11
sq1
S
(p x 1)
s q 1, 1
s p 1
s1 q
sq q
s q 1, q
sp q
p-q
S11 S12
p -q
S 21 S 22 (p x p)
q
s1, q 1
s q, q 1
s q 1, q 1
s p, q 1
s1 p
sq p
s q 1, p
s p p
(1.50)
31
s1p
s12
s 22
s 2p
s1p
s 2p
1 n
s ik
(x ij x i )(x kj x k )
n 1 j1
s pp
1
p ( p 1) diferentes
2
32
3
9
2
1
2
1
33
34
35
APP
AA
LA
SC
LC
HON
SMS
EXP
DRV
AMB
GSP
POT
KJ
SUIT
36
Caras de Chernoff.
En 1973, Chernoff sugiri utilizar caras para representar datos multivariantes. Una
caracterstica facial diferente se asocian con variables diferentes. As, por ejemplo,
una variable se podra asociar con el ancho vertical del ojo, la segunda con el ancho
horizontal, la tercera con el tamao del iris y las otras se podran asociar con el
espaciamiento de los ojos, la altura de los ojos, la longitud de la nariz, el ancho de la
nariz, la longitud de las cejas, el ancho de las orejas, la el ancho de las orejas, la
altura de las orejas, la longitud de la parte media de la boca, la abertura de la boca, la
sonrisa, etc. La figura 1.6 muestra un conjunto de caras de Chernoff para cada uno de
los 48 solicitantes de trabajo (ver Dallas Jonson, tabla 2.1, pagina 42). Las caras
fueron elaboradas por el programa Statistica 6.0, mediante:
Graphs stats Icon Graphs Graph Type Chernoff Faces.
Caras de Chernoff
(SOLICITANTES 15v*48c)
#1
#2
#3
#4
#5
#6
#7
#8
#9
#10
#11
#12
#13
#14
#15
#16
#17
#18
#19
#20
#21
#22
#23
#24
#25
#26
#27
#28
#29
#30
#31
#32
#33
#34
#35
#36
#37
#38
#39
#40
#41
#42
#43
#44
#45
#46
#47
#48
face/w = FL
ear/lev = APP
halfface/h = AA
upface/ecc = LA
loface/ecc = SC
nose/l = LC
mouth/cent = HON
mouth/curv = SMS
mouth/l = EXP
eyes/h = DRV
eyes/sep = AMB
eyes/slant = GSP
eyes/ecc = POT
eyes/l = KJ
pupils/pos = SUIT
Fgura 1.6. Grficas de caras para los datos de solicitantes, usando las 15 respuestas.
37
Las caras de Chernoff son tambin muy tiles para validar los resultados de los
programas de agrupacin, con los que se intenta dividir las unidades experimentales
de un conjunto de datos en subgrupos, llamados agrupamientos, de manera que los
individuos dentro de un agrupamiento sean semejantes entre s, y los que estn en
agrupamientos diferentes no lo sean. Mediante las caras de Chernoff para los
individuos dentro de un agrupamiento deben ser semejantes entre s, y las caras para
aquellos que se encuentran en agrupamientos diferentes no deben serlo. Se puede
notar la semejanza entre las de Chernoff para los solicitantes 7 y 8, 10 y 11, y 22, 23
y 24.
Grfico de estrella.
Este tipo de grfico, se construyen al representar la distancia a la que se encuentra
cada variable de cero sobre rayos o ejes que irradian de un punto central. Se tiene un
rayo para cada variable respuesta; por ejemplo, los vectores de datos en cinco
dimensiones requeriran cinco rayos o ejes. Para cada ejes, cada uno de stos
formara un ngulo de 72 con los ejes adyacentes.
En la figura 1.7 se muestra la identificacin de los ejes de cinco variables X 1, X2, X3,
X4 y X5. Se ha trazado X1 a lo largo del eje que apunta hacia el norte (es decir, el eje
que apunta directamente hacia arriba). Las otras variables se han representado sobre
los otros ejes en el orden del sentido del movimiento de las manecillas del reloj.
X1
X2
X5
X4
X3
38
En la figura 1.8 se muestran las grficas de estrella para los individuos del conjunto
de solicitantes (ejemplo ilustrativo) , usando las 15 variables originales.
Las grficas de estrellas tambin son tiles para identificar datos outliers
multivariantes que estn en un conjunto y tambin para la validacin de los
resultados de los programas de agrupacin. Existen solicitantes en la figura 1.8 que
parezcan ser datos outliers?.- Qu se puede decir acerca de los solicitantes 41 y
42?.- Qu acerca de los solicitantes 28 y 29?.-
Grficos de estrella (
SOLICITANTES 15v*48c)
#1
#2
#3
#4
#5
#6
#7
#8
#9
#10
#11
#12
#13
#14
#15
#16
#17
#18
#19
#20
#21
#22
#23
#24
#25
#26
#27
#28
#29
#30
#31
#32
#33
#34
#35
#36
#37
#38
#39
#40
#41
#42
#43
#44
#45
#46
#47
#48
Figura 1.8. Grfica de estrellas para los datos de solicitantes, usando las 15 respuestas.
Para los datos de los solicitantes, las grficas de estrellas tienen otra interesante
interpretacin. A los patrones de la empresa les gustara ofrecer empleo a personas
con valores elevados para las 15 variables. Estas personas se manifestaran en la
grfica de estrella con los polgonos con las reas ms grandes. Examinando la figura
1.8 parecera indicar que los solicitantes 7 y 8 son los dos mejores en este grupo.
39
Grfico de perfiles.
En este tipo de representacin grafica multivariante, se obtuvo mediante el grafico
Statistica. En la figura 1.9, se representa los perfiles de los valores de 48 solicitantes
sobre siete variables del ejemplo que se viene considerando. El objetivo de los
perfiles multivariante es representar los datos de tal forma que permitan identificar
fcilmente las similitudes y las diferencias.
Grficos de Perfiles (
SOLICITANTES 15v*48c)
#1
#2
#3
#4
#5
#6
#7
#8
#9
#10
#11
#12
#13
#14
#15
#16
#17
#18
#19
#20
#21
#22
#23
#24
#25
#26
#27
#28
#29
#30
#31
#32
#33
#34
#35
#36
#37
#38
#39
#40
#41
#42
#43
#44
#45
#46
#47
#48
Resumen.
No hay que entender las representaciones grficas de esta seccin como un sustituto
de las medidas de diagnostico estadstico discutido en este texto y en el siguiente
texto (Anlisis Estadstico Multivariante parte II ). Pero proporcionan una forma
alternativa de desarrollar un perspectiva del carcter de los datos y las interrelaciones
que existen, incluso si son multivariantes en su naturaleza.