Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Profesor
ELKIN CASTAÑO V.
CONTENIDO
CAPÍTULO 1.
1. INTRODUCCIÓN
Métodos de predicción
Establecidas las relaciones de las variables, se trata de
predecir los valores de una o más variables sobre las base de
las observaciones de as demás variables.
Tablas
Arreglos matriciales
Gráficos
• Tablas
Sea xjk el valor que toma la k-ésima variable sobre el j-ésimo
objeto (o individuo o unidad experimental). Si se toman n
mediciones sobre p variables de interés, el conjunto de datos
puede ser presentado como
______________________________________________________Elkin Castaño V. 6
• Arreglos matriciales
Los datos también pueden ser presentados usando arreglos
matriciales:
• Estadísticas descriptivas:
1 n
si2 = ∑ ( x ji − xi )
2
n j=
si = + si2
1 n
sik = ∑ ( x ji − xi )( x jk − xk )
n j =1
Interpretación:
sik=0 indica que no hay una asociación lineal entre los datos
de las variables
Propiedades de rik:
1) | rik| ≤ 1
rik=0 indica que no hay una asociación lineal entre los datos
de las variables.
x ji − xi x jk − xk
z ji = y z jk =
sii skk
y ji = ax ji + b
y jk = cx jk + d
n
n ∑ ( x ji − xi )3
j =1
sk ( xi ) = 3/ 2
n 2
∑ ( x ji − xi )
j =1
n
n ∑ ( x ji − xi ) 4
j =1
k ( xi ) = 2
n 2
∑ ( x ji − xi )
j =1
______________________________________________________Elkin Castaño V. 12
# lectura de los datos desde un archivo de texto con nombres de las variables
publ_util<-read.table("c:/unal/datos/j-wdata/t12-5_sin.dat", header = TRUE)
medias<-mean(publ_util)
medias
RESULTADOS:
TABLA DE DATOS
X1 X2 X3 X4 X5 X6 X7 X8
1 1.06 9.2 151 54.4 1.6 9077 0.0 0.628
2 0.89 10.3 202 57.9 2.2 5088 25.3 1.555
3 1.43 15.4 113 53.0 3.4 9212 0.0 1.058
4 1.02 11.2 168 56.0 0.3 6423 34.3 0.700
5 1.49 8.8 192 51.2 1.0 3300 15.6 2.044
6 1.32 13.5 111 60.0 -2.2 11127 22.5 1.241
7 1.22 12.2 175 67.6 2.2 7642 0.0 1.652
8 1.10 9.2 245 57.0 3.3 13082 0.0 0.309
9 1.34 13.0 168 60.4 7.2 8406 0.0 0.862
10 1.12 12.4 197 53.0 2.7 6455 39.2 0.623
11 0.75 7.5 173 51.5 6.5 17441 0.0 0.768
12 1.13 10.9 178 62.0 3.7 6154 0.0 1.897
13 1.15 12.7 199 53.7 6.4 7179 50.2 0.527
14 1.09 12.0 96 49.8 1.4 9673 0.0 0.588
______________________________________________________Elkin Castaño V. 15
MEDIAS MUESTRALES
X1 X2 X3 X4
1.114091 10.736364 168.181818 56.977273
X5 X6 X7 X8
3.240909 8914.045455 12.000000 1.102727
X1 X2 X3 X4
X1 0.034044372 0.2661299 -0.7812554 -6.752165e-02
X2 0.266129870 5.0357576 -32.1259740 -8.643723e-01
X3 -0.781255411 -32.1259740 1696.7272727 1.843290e+01
X4 -0.067521645 -0.8643723 18.4329004 1.990184e+01
X5 -0.149080087 -1.8201299 55.9207792 4.657359e-01
X6 -99.346385281 -76.6160173 4092.5151515 -4.560037e+03
X7 0.138809524 7.9676190 79.3095238 -1.229762e+01
X8 -0.001372165 -0.4088848 0.1195758 1.204446e+00
X5 X6 X7 X8
X1 -0.14908009 -9.934639e+01 1.388095e-01 -1.372165e-03
X2 -1.82012987 -7.661602e+01 7.967619e+00 -4.088848e-01
X3 55.92077922 4.092515e+03 7.930952e+01 1.195758e-01
X4 0.46573593 -4.560037e+03 -1.229762e+01 1.204446e+00
X5 9.72348485 1.952874e+03 -1.001429e+00 -1.236926e-02
X6 1952.87424242 1.260239e+07 -2.227602e+04 -1.106557e+03
X7 -1.00142857 -2.227602e+04 2.819686e+02 -1.728324e+00
X8 -0.01236926 -1.106557e+03 -1.728324e+00 3.092451e-01
-0.01711117
2.785947
• Gráficos
5
0.
0.
0.
1.
1.
1.
1.
1.
1.
X1
Gráficos de cajas: recomendados para muestras moderadas
o grandes. Sean Q1 y Q3 los cuartiles inferior y superior de
la distribución de una variable aleatoria, y sea IQR= Q3 - Q1
el rango intercuartil. El gráfico de cajas es un gráfico
esquemático de la distribución de la variable aleatoria, como
se ilustra a continuación. Se compara con el caso de que la
distribución teórica sea una normal.
______________________________________________________Elkin Castaño V. 18
5
0.
0.
0.
1.
1.
1.
1.
1.
1.
X1
Los datos que caen más a la izquierda de Q1-1.5*IQR y más
a la derecha de Q3+1.5*IQR son considerados datos atípicos
o inusuales.
12
0.5
10
0.4
Proportion per Bar
8
Count
0.3
6
0.2
4
2 0.1
0 0.0
7
5
0.
0.
0.
1.
1.
1.
1.
1.
1.
X1
______________________________________________________Elkin Castaño V. 19
a) Simple
1.5
1.4
1.3
1.2
X1
1.1
1.0
0.9
0.8
0.7
6
10
11
12
13
14
15
16
X2
______________________________________________________Elkin Castaño V. 20
1.5
1.4
1.3
1.2
X1
1.1
1.0
0.9
0.8
0.7
6
10
11
12
13
14
15
16
X2
1.4
1.3
1.2
X1
1.1
1.0
0.9
0.8
0.7
6
10
11
12
13
14
15
16
X2
______________________________________________________Elkin Castaño V. 21
300
200
X3
100
0.7
0.8
0.9
1.0
6
7
X11.1
8
9
1.2
10
11
1.3
12
13
X2
1.4
14
15
1.5
16
300
200
0.7
X3
0.8
100
0.9
1.0
6
7
X11.1
8
9
1.2
10
11
1.3
12
X2
13
1.4
14
15
1.5
16
______________________________________________________Elkin Castaño V. 24
0.7
0.8
0.9
1.0
1006
200
300
X11.1
8
X3
1.2
10
11
1.3
12
X2
13
1.4
14
15
1.5
16
Matrices de dispersión o múltiples diagramas de
dispersión:
Presentan conjuntamente todos los diagramas de dispersión de
los datos para cada par variables. Se pueden construir varias
clases de matrices de dispersión, dependiendo del contenido
en su diagonal. Por ejemplo:
______________________________________________________Elkin Castaño V. 25
X1
X1
X2
X2
X3
X3
X4
X4
X5
X5
X1 X2 X3 X4 X5
Gráficos de estrellas:
Suponga que los datos consisten de observaciones sobre p ≥ 2
variables. Se obtienen de la siguiente manera. En dos
dimensiones se construyen círculos de radio fijo con p rayos
igualmente espaciados emanando del centro del círculo. Las
longitudes de los rayos representan los valores de las
variables.
______________________________________________________Elkin Castaño V. 28
Curvas de Andrews:
Es un método potente para identificar agrupamientos de
observaciones. Las curvas de Andrews son las componentes de
Fourier de los datos y el resultado para cada observación es
una onda formada por funciones seno y coseno de sus
componentes. Se construyen de la siguiente forma:
______________________________________________________Elkin Castaño V. 29
x j1
f x j (t ) = + x j 2 sen(t ) + x j 3cos (t ) + x j 4 sen(2t ) + x j 5cos (2t ) + ⋯
2
donde −π < t < π .
4
Fourier Components
3
-1
-2
-180 -90 0 90 180
Degrees
______________________________________________________Elkin Castaño V. 30
Caras de Chernoff:
Es otra forma efectiva de agrupar datos multivariados,
particularmente para un procesamiento de la memoria de largo
plazo. Fueron introducidas por Chernoff (1973), quien usa
varias características de la cara para representar los datos de las
variables. Algunos paquetes estadísticos permiten representar
hasta 20 variables (SYSTAT), mientras que R permite asignar
18 variables. Las características que SYSTAT permite asignar
son:
1 Curvatura de la boca
2 Ángulo de la ceja
3 Amplitud de la nariz
4 Longitud de la nariz
5 Longitud de la boca
6 Altura del centro de la boca
7 Separación de los ojos
8 Altura del centro de los ojos
9 Inclinación de los ojos
10 Excentricidad de los ojos
11 Longitud media de los ojos
12 Posición de las pupilas
13 Altura de la ceja
14 Longitud de la ceja
15 Altura de la cara
16 Excentricidad de la elipse superior de la cara
17 Excentricidad de la elipse inferior de la cara
18 Nivel de las orejas
19 Radio de las orejas
20 Longitud del cabello
______________________________________________________Elkin Castaño V. 31
United Virginia
United Virginia
______________________________________________________Elkin Castaño V. 32
Lecturas recomendadas:
# gráfico de puntos
stripchart(X1, method="stack")
# histograma
hist(X1)
# gráfico de caja
boxplot(X1)
# matriz de dispersión
# pegado de las variables en la matriz X
X<-as.matrix(cbind(X1, X2, X3, X4, X5, X6, X7,X8))
pairs(X)
# gráfico de estrellas
# estandarización de las variables
X1s=(X1-mean(X1))/sd(X1)
X2s=(X2-mean(X2))/sd(X2)
X3s=(X3-mean(X3))/sd(X3)
X4s=(X4-mean(X4))/sd(X4)
X5s=(X5-mean(X5))/sd(X5)
X6s=(X6-mean(X6))/sd(X6)
X7s=(X7-mean(X7))/sd(X7)
X8s=(X8-mean(X8))/sd(X8)
______________________________________________________Elkin Castaño V. 34
# gráficos de caras
faces(Xs, labels = obs)
x1 x
x1* = y x*2 = 2
s11 s22
2 2 x12 x22
d (0, P) = ( ) ( )
x1* + x2* = +
s11 s22
x12 x22
+ = c 2 con c>o
s 11 s 22
d ( P, Q ) ==
( x1 − y1 )2 + ( x2 − y2 )2
s11 s22
d ( P, Q ) =
( x1 − y1 )2 + ( x2 − y2 )2 + ⋯ + ( x p − y p )
s11 s22 s pp
Observaciones:
1. La distancia de P al origen O se obtiene haciendo y1=y2=
…= yp= 0.
2. Si s11= s22=… =spp, la fórmula de la distancia Euclidiana es
apropiada.
xɶ12 xɶ22
d (0, P ) = +
sɶ11 sɶ22
donde las sɶii son varianzas muestrales de los datos xɶ1 y xɶ2 .
La relación entre las coordenadas originales y las rotadas es
______________________________________________________Elkin Castaño V. 41
donde las constantes aik son tales que las distancias son
siempre no negativas.
______________________________________________________Elkin Castaño V. 43
Observaciones:
1. Si las constantes aik son llevadas a una matriz simétrica de
pxp de la forma
x1 − y1
x − y
x− y=
2 2
donde .
⋮
x p − y p
2. Para que la distancia estadística sea no negativa, la matriz A
debe ser definida positiva.
d ( P, Q ) = ( x − y ) ' S − 1 ( x − y )
CAPÍTULO 2.
X=[ Xij]
• Vectores de media
X1
X
Suponga que X= 2 es un vector aleatorio de px1.
⋮
X p
Entonces,
σ ik = E ( X i − µi )( X k − µ k )
donde
Interpretación
σ ik >0 indica una asociación lineal positiva entre Xi y Xk.
σ ik
ρik =
σ ii σ kk
Interpretación:
ρik =1 indica una asociación lineal positiva perfecta entre Xi
y Xk.
0< ρik <1 indica una asociación lineal positiva imperfecta
entre Xi y Xk. Mientras más cerca de 1 se encuentre, más
fuerte es la relación.
µ1
µ
µ = E( X ) =
2
⋮
µ p
σ 11, σ 12 ,⋯,σ 1p
σ 21 , σ 22 ,⋯ , σ 2p
Σ = E ( X − µ )( X − µ )' =
⋮ ⋮ ⋮
σ 1p , σ 2p ,⋯,σ pp
Relación entre Σ y ρ :
Sea
σ 11 0 ⋯ 0
0 σ 22 ⋯ 0
V1/2=
⋮ ⋮ ⋮
0 0 ⋯ σ pp
Entonces
______________________________________________________Elkin Castaño V. 51
Σ = V 1/ 2 ρV 1/ 2
y
ρ = (V 1/ 2 )−1Σ(V 1/ 2 )−1
y sea
Z1=c1X1+ c2X2+…+ cpXp= c ' µ
Entonces,
p p p
Var(Z1)= ∑ ci2σ ii + ∑ ∑ ci ckσ ik = c ' Σc
i =1 i =1 k =1
Entonces,
µ Z = E (Z ) = C µ
X − X 1 − 1 X1
Observe que Z = 1 2
= 1 = CX
X
1 + X 2 1 X 2
______________________________________________________Elkin Castaño V. 53
Entonces,
1 − 1 µ1 µ1 − µ2
µZ = E (Z ) = C µ X = =
1
1 µ2 µ1 + µ 2
y,
1 − 1 σ 11 σ 12 1 1
Σ Z = Cov( Z ) = CΣ X C ' =
1 1 σ 12 σ 22 −1 1
σ 11 − 2 σ 12 + σ 22 σ 11 − σ 22
=
σ 11 − σ 22 σ11 + 2σ 12 + σ 22
CAPÍTULO 3.
1. MUESTRAS ALEATORIAS
x j1
x j2
X j = , j=1,2,..,n
⋮
x jp
donde,
X j1
X j2
X j= , j=1,2,..,n
⋮
X jp
Observaciones:
______________________________________________________Elkin Castaño V. 55
b) Cov( X )= 1 Σ
n
para Σ .
n 1 n
d) S= Sn = ∑ ( X j − X )( X j − X )´ es un estimador
n −1 n − 1 j =1
insesgado para Σ .
______________________________________________________Elkin Castaño V. 56
2. VARIANZA GENERALIZADA
Interpretación geométrica:
y1i
y
yi = 2i
⋮
y ni
y1i − x i
y − x
d i = 2i i
⋮
y ni − x i
Dado que
n
Ldi= ∑ (x ji − x i )2 = (n − 1)sii , i=1,2
j=1
______________________________________________________Elkin Castaño V. 58
y
s12
r12 = = cos(θ )
s11 s 22
Entonces
(Área)2=(n-1)2|S|
o,
|S|=(n-1)-p(volumen)2
Observaciones:
1) Para una muestra de tamaño fijo, |S| aumenta cuando:
a) La longitud de cualquier di aumenta (o cuando sii
aumenta.
______________________________________________________Elkin Castaño V. 59
{x ∈ R p : (x − x) 'S−1 (x − x) ≤ c 2}
______________________________________________________Elkin Castaño V. 60
Es tal que
Es decir,
Observación:
Aunque la VGM tiene interpretaciones intuitivas importantes,
sufre de debilidades.
5 4 3 0 5 − 4
S= ¸ S = y S=
5
4 5 0 3 −4
Se define,
Varianza Generalizada
muestral de las =|R|
variablesestandarizadas
(x1k -x k )/ s kk
(x j2 -x k )/ s kk
⋮
(x nk -x k )/ s kk
Varianza Generalizada
muestral de las = | R | = (n − 1) − p (volumen) 2
variablesestandarizadas
Entonces,
______________________________________________________Elkin Castaño V. 66
CAPÍTULO 4.
1. INTRODUCCIÓN
2
1 x −µ
1 −
f ( x) = e 2 σ −∞< x<∞
2
2πσ
P(µ − σ ≤ X ≤ µ + σ ) = 0.68
______________________________________________________Elkin Castaño V. 69
P ( µ − 2σ ≤ X ≤ µ + 2σ ) = 0.95
• El término en el exponente
2
x−µ 2 −1
= ( x − µ )(σ ) ( x − µ )
σ
µ1 σ σ
µ= y matriz de covarianza Σ = 11 12 .
µ2 σ 12 σ 22
La matriz inversa de Σ es
______________________________________________________Elkin Castaño V. 71
1 σ 22 − σ 12
Σ −1 = 2
σ 11σ 22 − σ 12 −σ12 σ 11
x − µ 2 x − µ
2
x − µ x − µ
1 1 1 + 2 2
− − 2 ρ12 1 1 2 2
1 2(1− ρ122 ) σ 11 σ 22
σ σ
11 22
f ( x1, x2 ) = e
2
2π σ 11σ 22 (1 − ρ12 )
______________________________________________________Elkin Castaño V. 72
Contorno de densidad
probabilidad constante
= { x : (x − µ )' Σ −1
(x − µ ) = c 2 }
σ11 − λ σ12
0= = (σ11 − λ )2 − σ12
2
= (λ − σ11 − σ12 )(λ − σ11 + σ12 )
σ12 σ11 − λ
λ1 = σ 11 + σ 12
λ2 = σ 11 − σ 12
1
2
λ1 = σ11 + σ12 , e1 =
1
2
1
2
λ2 = σ11 − σ 12 , e2 =
− 1
2
µ
punto µ = 1 . El eje mayor está determinado por
µ2
1
2
± c σ 11 + σ 12
1
2
______________________________________________________Elkin Castaño V. 75
µ
recta de 45o a través de punto µ = 1 . El eje menor está
µ2
determinado por
1
2
± c σ 11 − σ 12
− 1
2
µ
recta de 45o a través de punto µ = 1 . El eje mayor está
µ2
determinado por
1
2
± c σ 11 − σ 12
− 1
2
µ
punto µ = 1 . El eje menor está determinado por
µ2
1
2
± c σ 11 + σ 12
1
2
______________________________________________________Elkin Castaño V. 77
a11 X1 + a12 X 2 +⋯ + a1 p X p
a21 X1 + a22 X 2 +⋯ + a2 p X p
AX =
⋮
aq1 X1 + aq 2 X 2 +⋯ + aqp X p
Ejemplo.
Suponga que X ~ N3( µ , Σ ) y considere el vector de
combinaciones lineales
X1
X1 − X 2 1 − 1 0
X − X = 0 1 − 1 X 2 = AX
2 3
X3
µ1
1 − 1 0 µ1 − µ2
Aµ = µ2 =
0 1 − 1 µ2 − µ3
µ3
y
______________________________________________________Elkin Castaño V. 79
σ 11 σ12 σ 13 1 0
1 − 1 0
A ΣA ' = σ 12 σ 22 σ 23 −1 1
0 1 − 1
σ 13 σ 23 σ 33 0 − 1
σ + σ 22 − 2σ12 σ 12 + σ 23 − σ 22 − σ13
A ΣA ' = 11
σ 12 + σ 23 − σ 22 − σ13 σ 22 + σ 33 − 2σ 23
Ejemplo.
Suponga que X ~ N5( µ , Σ ). Encuentre la distribución del
X
subvector 1 .
X2
X1
X 2 X X
Sea X= X 3 = 1 , donde X1 = 1 .
X2 X2
X
4
X
5
µ σ σ
X1 ~ N2 1 , 11 12
µ2 σ 12 σ 22
______________________________________________________Elkin Castaño V. 80
X µ1 Σ11 Σ12
5. Si X= 1 ~ N q + q , , donde X1 es de q1x1,
X2
1 2
µ 2 Σ 21 Σ 22
Ejemplo.
4 1 0
Suponga que X ~ N3( µ , Σ ), con Σ = 1 3 0 .
0 0 2
X
Observe que la matriz de covarianza entre 1 y X3 es
X2
X1 σ13 0
cov , X3 = =
X 2 σ 23 0
X
Por tanto, 1 y X3 son independientes.
X2
______________________________________________________Elkin Castaño V. 81
X
Además cada componente de 1 es independiente de X3.
X2
X1 µ1 Σ11 Σ12
6. Si X= ~ N q1 + q2 , , donde X1 es de q1x1, X2
X2 µ2 Σ 21 Σ 22
es de q2x1. Entonces la distribución condicional de X1 dado X2 =
x2 es normal multivariada con vector de media
−1
µ1.2 = µ1 + Σ12Σ 22 Σ 21
y matriz de covarianza
−1
Σ1.2 = Σ11 − Σ12Σ22 Σ21
Ejemplo.
Suponga que X ~ N2( µ , Σ ). Encuentre la distribución condicional
de X1 dado X2=x2.
donde
µ1.2 = Σ11 + Σ12Σ −221 (x 2 − µ2 ) = σ 11 + σ 12σ 22
−1
( x2 − µ2 )
______________________________________________________Elkin Castaño V. 82
2
−1 −1 σ 12
Σ1.2 = Σ11 − Σ12Σ 22 Σ21 = σ 11 − σ12σ 22σ 12 = σ 11 −
σ 22
Observaciones.
E ( X1 / X q +1, X q + 2 ,⋯, X p , )
E ( X 2 / X q +1, X q + 2 ,⋯, X p , ) = µ + Σ Σ−1 (x − µ )
E ( X1 / X 2 ) = 1 12 22 2 2
⋮
E ( X q / X q +1, X q + 2 ,⋯, X p , )
Es decir,
−1
ii) La matriz de covarianza condicional Σ1.2 = Σ11 − Σ12Σ22 Σ 21
(x-µ)' Σ-1(x-µ) ~ χ 2p
______________________________________________________Elkin Castaño V. 84
1
n 1 − ( x j − µ ) ' Σ −1 ( x j − µ )
f (x1, x 2 ,..., x n ) = ∏ p/2 1/ 2
e 2
j =1 (2π ) |Σ|
1 n
∑ x − µ ' Σ−1 x j − µ
−
1 2 j =1 j
f (x1, x 2 ,..., x n ) = e
np / 2 n/2
(2π ) |Σ|
µˆ = X
1 n n −1
Σˆ = ∑ ( X j − X )( X j − X )' = S
n j =1 n
Propiedades.
(θ ) = h(θˆ) .
Es decir h
1 n 2
σˆii = ∑ ( X ji − X i )
n j =1
5. DISTRIBUCIONES MUESTRALES DE X y S
1
1. X ~ Np( µ , Σ ).
n
S o Σ̂ convergen en probabilidad a Σ .
o,
1
X tiene aproximadamente una distribución Np( µ , Σ)
n
______________________________________________________Elkin Castaño V. 88
(0.683)(0.317) 1.396
| pˆ i1 − 0.683 |> 3 =
n n
o si,
(0.954)(0.046) 0.628
| pˆ i 2 − 0.954 |> 3 =
n n
1
(n- )/n.
2
Ejemplo.
Considere una muestra de n=10 observaciones, las cuales fueron
ordenadas de menor a mayor en la siguiente tabla.
______________________________________________________Elkin Castaño V. 93
P[ Z ≤ q (7) ] = 0.65
0.385 1 − z2 / 2
P[ Z ≤ 0.385] = ∫−∞ e dz =0.65
2π
Ejemplo.
El departamento de control de calidad de una empresa que
produce hornos micro-ondas requiere monitorear la cantidad de
radiación emitida por ellos cuando tienen la puerta cerrada.
Aleatoriamente se eligieron n=42 hornos y se observó dicha
cantidad.
______________________________________________________Elkin Castaño V. 95
son observaciones atípicas, pues están muy lejos del resto de los
datos.
Observación.
Para esta muestra, varias observaciones son iguales
(observaciones empatadas). Cuando esto ocurre, a las
observaciones con valores iguales se les asigna un mismo cuantil,
el cual se obtiene usando el promedio de los cuantiles que ellas
hubieran tenido si hubieran sido ligeramente distintas.
n
∑ ( x( j ) − x )( q( j ) − q )
j =1
rQ =
n n 2
2
∑ ( x( j ) − x ) ∑ ( q( j ) − q )
j =1 j =1
Ejemplo.
Para el primer ejemplo donde n=10, el cálculo del coeficiente de
correlación entre los puntos (q(j), x(j)), j=1, 2, …, 10, del gráfico
Q-Q, es
8.584
rQ = = 0.994
8.472 8.795
hipótesis de normalidad.
______________________________________________________Elkin Castaño V. 98
Observación.
Para muestras grandes, las pruebas basadas en rQ y la de Shapiro
Wilk, una potente prueba de normalidad, son aproximadamente
las mismas.
ê1' X j y ê'p X j
tendrá un probabilidad α .
{ x : (x − x)' S −1
}
(x − x) ≤ χ 22 (0.5)
Ejemplo.
Considere los pares de datos para las variables x1 = ventas y
x2=ganancias para las 10 mayores corporaciones industriales de
E.U. Observe que este conjunto de datos no forman una muestra
aleatoria.
que satisface
'
x1 − 62.309 0.000184 − 0.003293 −5 x1 − 62.309
x − 2927 x10 ≤ 1.39
2 −.003293 0.128831 x2 − 2927
Ejemplo.
Gráfico chi-cuadrado para el ejemplo anterior. Las distancias
ordenadas y los correspondientes percentiles chi-cuadrado
aparecen en la siguiente tabla.
Ejemplo.
Considere el siguiente diagrama de puntos para una variable
Observaciones.
i) En el paso 3, “grande” debe ser interpretado con respecto
al tamaño de la muestra y al número de variables. Por
ejemplo, cuando n=100 y p=5, hay 500 valores. Puesto que,
para una normal estándar P[|Z|>3]=0.0026, entonces
esperaríamos que 1 o 2 excedan el valor de 3 o sean
menores que -3, puesto nx P[|Z|>3]=500x0.0026=1.3.
Como una guía se puede usar 3.5 como un valor grande en
muestras moderadas.
Ejemplo.
La siguiente tabla presenta los datos para 4 variables que indican
la rigidez de tablas de madera. También se presentan los datos
estandarizados y sus distancias generalizadas cuadráticas.
______________________________________________________Elkin Castaño V. 110
Una vez han sido removidas, el patrón que queda se ajusta a una
recta.
1 pˆ
2. Proporciones, p̂ logit( p̂ )= log( )
2 1 − pˆ
1 1+ r
3. Correlaciones, r La transf. de Fisher z(r)= log( )
2 1− r
xλ − 1
, λ≠0
x (λ ) = λ
ln( x), λ = 0
n 1 n
) + (λ − 1) ∑ ln x
2
(
n
l ( λ ) = − ln ∑ x(jλ ) − x (λ ) j
2 n j =1 j =1
1 n (λ )
donde x (λ ) = ∑ xj , es la media aritmética de las
n j =1
observaciones transformadas.
xλj − 1
y (jλ ) = , j=1, 2, …, n
1/ n λ −1
n
λ ∏ x j
j =1
Ejemplo.
Para los n=42 datos de la radiación de hornos micro-ondas con la
puerta cerrada, el gráfico Q-Q indica que las observaciones se
desvían de lo que esperaríamos si fueran normalmente
distribuidas. Puesto que todas las observaciones son positivas, se
puede utilizar una transformación potencial de los datos con la
esperanza de acercarlos a la normalidad.
x1/j 4 − 1
x(1/
j
4)
= , j=1, 2, …, 42.
(1/ 4)
x ( λˆ1 ) − 1
j1
λˆ1
ˆ
x (jλ22 ) − 1
ˆ
x (jλ) = λˆ2
⋮
x ( λˆp ) − 1
jp
λˆ p
maximizan a l ( λk ) , k=1, 2, …, p.
Si no lo es, se pueden usar estos valores λˆ1, λˆ2 ,⋯, λˆp como
valores iniciales para obtener un conjunto de valores
______________________________________________________Elkin Castaño V. 119
función
n n
( )
l λ1, λ2 ,⋯, λ p = − ln | S (λ ) | + (λ1 − 1) ∑ ln x j1
2 j =1
n n
+ (λ2 − 1) ∑ ln x j 2 + ⋯ + (λ p − 1) ∑ ln x jp
j =1 j =1
x (jλ11 ) − 1
λ1
( λ2 )
x j2 −1
x (λ)
j = λ2 , j=1, 2, …, n
⋮
(λp )
x jp − 1
λ
p
y (
l λ1, λ2 ,⋯, λ p ) es (parte de la constante) la función de
Ejemplo.
Las mediciones de la radiación también fueron recogidas para los
mismos n=42 hornos del ejemplo anterior, pero con las puertas
abiertas. El siguiente es el gráfico Q-Q para los nuevos datos,
cuyo patrón curvo, se aleja de la normalidad.
# obtención de los gráficos Q-Q individuales para las dos variables transformadas
par(mfrow=c(1,2))
qqnorm(cerr_t); qqline(cerr_t)
qqnorm(abie_t); qqline(abie_t)
______________________________________________________Elkin Castaño V. 123
CAPÍTULO 5.
1. INTRODUCCIÓN
• Suponga que
X1
X
X= 2
⋮
X p
Entonces,
Var (Yi ) = ai'Σai , para i=1, 2, …, p
Se define:
Cov(a1' X , a2' X ) = 0
………….
p p
∑ Var ( X i ) =σ 11 + σ 22 + ⋯ + σ pp = λ1 + λ2 + ⋯ + λ p = ∑ Var (Yi )
i =1 i =1
______________________________________________________Elkin Castaño V. 128
Observaciones:
1) Del resultado anterior
Varianza Total=σ11 + σ 22 + ⋯ + σ pp = λ1 + λ2 + ⋯ + λ p
Prop. de la varianza
total debido a la
= λk
2) , k=1, 2, …, p.
k-e´sima componente λ1 + λ2 + ⋯ + λ p
principal
eik λi
ρYi , X k = , i,k=1, 2, …, p
σ kk
0
λ2 =2.00 e2 = 0
1
______________________________________________________Elkin Castaño V. 130
0.924
λ3 =0.17 e3 = 0.383
0
Y1 = e1' X = 0.383X1-0.924X2
Y2 = e'2 X = X3
Y3 = e3' X = 0.924X1+0.383X2
λ1
=5.83/8=0.73
λ1 + λ2 + λ3
λ1 + λ2
=(5.83+ 2)/8=0.98
λ1 + λ2 + λ3
e11 λ1
ρY , X = =0.925
1 1
σ11
e21 λ1
ρY1 , X 2 = =-0.998
σ 22
λ2 2
ρY , X = ρY , X = 0 y ρY , X = = =1
2 1 2 2 2 3
σ 33 2
X1 − µ1
Z1 =
σ 11
X 2 − µ2
Z2 =
σ 22
⋮
X p − µp
Zp =
σ pp
o, en notación matricial,
−1
(
Z = V 1/ 2 ) (X − µ)
−1 −1
En este caso, E(Z)=0 y Cov(Z)= (V 1/ 2 ) Σ (V 1/ 2 ) = ρ
Z1
Z
Z =
2
⋮
Z p
−1
Yi = ei' Z = ei' V 1/ 2
( ) ( X − µ ) , i=1, 2, …, p
Además,
p p
∑ Var (Yi ) = ∑ Var ( Zi ) = p
i =1 i =1
y,
ρYi , Z k = eik λi , i, k=1, 2, …, p
______________________________________________________Elkin Castaño V. 135
Observación:
Prop. de la varianza
total debido a la
= λk , k=1, 2, …, p.
k-e´sima componente p
principal
Ejemplo.
Considere un vector bivariado cuya matriz de covarianza es
1 4 1 0.4
Σ= . Entonces su matriz de correlación es ρ = .
4 100 0.4 1
0.040
λ1 =100.16 e1 =
0.999
0.999
λ2 =0.840 e2 =
−0.040
Y1 = e1' X = 0.040X1+0.999X2
Y2 = e'2 X = 0.999X1-0.040X2
λ1
=100.16/101=0.992
λ1 + λ2
de la varianza total.
0.707
λ2 =0.6 e2 =
−0.707
Y1 = e1' Z = 0.707Z1+0.707Z2
Y2 = e'2 Z = 0.707Z1 -0.707Z2
______________________________________________________Elkin Castaño V. 137
Además, como
ρY1 , Z1 = e11 λ1 = 0.707 1.4 = 0.837
λ1
=1.4/2=0.70
p
de la varianza total.
a1' a1 = 1
………….
p
∑ sii = λˆ1 + λˆ2 + ⋯ + λ p
i =1
eˆik λˆi
ryˆi ', xk = , i,k=1 ,2, …, p
skk
Observaciones:
1) No se hará diferencia en la notación para las componentes
principales derivadas de S o de R.
Ejemplo.
Un censo proporcionó información sobre las siguientes
variables socioeconómicas para 14 áreas de una región:
X1=Población total (en miles)
______________________________________________________Elkin Castaño V. 142
y
______________________________________________________Elkin Castaño V. 143
Ejemplo.
El gráfico scree para el ejemplo anterior es
______________________________________________________Elkin Castaño V. 146
Ejemplo.
En un estudio del tamaño y la forma de las tortugas pintadas,
Jolicoeur y Mosimann (1963) midieron la longitud de la
caparazón (X1), su amplitud(X2) y su altura(X3). Los datos
sugirieron que el análisis en términos de los logaritmos de las
variables. (Jolicoeur, generalmente sugiere el empleo de los
logaritmos en los estudios de tamaño y forma)
______________________________________________________Elkin Castaño V. 147
y
11.072 8.019 8.160
S= 8.019 6.417 6.005
8160 6.005 6.773
0.683
ŷ1 =ln[(longitud) (amplitud)0.510 (altura)0.523]
Ejemplo.
Para el período de Enero de 1975 a Diciembre de 1976, se
determinaron los rendimientos semanales de las acciones de 5
compañías.
y
1.000 0.577 0.509 0.387 0.462
0.577 1.000 0.599 0.389 0.322
R= 0.509 0.599 1.000 0.436 0.426
0.387 0.389 0.436 1.000 0.523
0.462 0.322 0.426 0.523 1.000
0.464 0.240
0.457 0.509
λ̂1 =2.857 ê1 = 0.470 λ̂2 =0.802 ê2 = 0.260
0.421 −0.526
0.421 −0.582
−0.612 0.387
0.178 0.206
λ̂3 =0.540 ê3 = 0.335 λ̂4 =0.452 ê4 = − 0.662
0.541 0.472
−0.435 −0.382
−0.451
0.676
λ̂5 =0.343 ê5 = −0.400
−0.176
0.385
______________________________________________________Elkin Castaño V. 156
x j = (x 'jeˆ1 )eˆ1' +(x 'jeˆ 2 )eˆ '2 +...+(x 'jeˆ p )eˆ 'p
cuadrado es yˆ 2j ,q + yˆ 2j , q +1 + ⋯ + yˆ 2j , p . Frecuentemente
observaciones sospechosas son tales que al menos una de las
______________________________________________________Elkin Castaño V. 159
Ejemplo.
Para los datos de las tortugas pintadas, las tres componentes
principales son
de Σ. Entonces, n ( λˆ − λ ) es aproximadamente
Np(0,2 Λ 2).
p λi
Ei = λi ∑ e e'
2 k i
k =1 (λk − λi )
k ≠i
λˆi λˆi
≤ λi ≤
(1 + z (α / 2) 2 / n ) (1 − z (α / 2) 2 / n )
Ejemplo.
Considere el ejemplo de los rendimientos de las acciones.
Suponiendo que ellos proceden de una normal multivariada donde
Σ es tal que sus valores propios λ1 > λ2 > ⋯ > λ5 > 0 . Puesto que
0.0036 0.0036
≤ λ1 ≤
(1 + 1.96 2 /100) (1 − 1.96 2 /100)
o,
______________________________________________________Elkin Castaño V. 166
0.0028 ≤ λ1 ≤ .0050
En general, los intervalos son amplios a la misma tasa que los λˆi
sean grandes. Por tanto, se debe tener cuidado en eliminar o
retener componentes principales basados solamente en el examen
de las λˆi .
CAPÍTULO 6.
ANÁLISIS DE FACTOR
1. INTRODUCCIÓN
o, en notación matricial,
X − µ = LF + ε
• Supuestos
E(F)=0, Cov(F)=E(FF’)=I
ψ 1 0 ... 0
0 ψ ... 0
E( ε )=0, Cov( ε )=E( ε ε ’)= Ψ = 2
⋮
0 0 ... ψ p
Σ = LL '+ Ψ
1) Cov(X)=LL’+ Ψ
Por lo que
Var(Xi)= li21 + li22 + ... + lim
2
+ψ i
2) Cov(X, F)=L
Por lo que
Cov(Xi, Fj)= lij
o,
σ ii = li21 + li22 + ... + lim
2
+ψ i
o,
σ ii = hi2 + ψ i
donde,
hi2 = li21 + li22 + ... + lim
2
19 30 2 12 4 1 2 0 0 0
30 57 5 23 7 2 4 7 − 1 1 4 0 0
0
Σ= = +
2 5 38 47 −1 6 1 2 6 8 0 0 1 0
12 23 47 68 1 8 0 0 0 3
donde,
l11 l12 4 1
l l22 7 2
L = 21 =
l31 l32 −1 6
l41 l42 1 8
ψ 1 0 0 0 2 0 0 0
0 ψ 0 0 0 4 0 0
Ψ= 2
=
0 0 ψ 3 0 0 0 1 0
0 0 0 ψ 4 0 0 0 3
La conmunalidad de X1 es
h12 = l11
2 2
+ l12 = 42 + 12 = 17
2 2
σ11 = (l11 + l12 ) + ψ 1 = h12 + ψ 1 = 19
específicas ψ i .
1 0.9 0.7
Σ = 0.9 1 0.4
0.7 0.4 1
X 1 − µ1 = l11F1 + ε1
X 2 − µ2 = l21F1 + ε 2
X 3 − µ3 = l31F1 + ε 3
De donde se obtiene
______________________________________________________Elkin Castaño V. 176
2
1 = l11 +ψ1 0.9 = l11l21 0.7 = l11l31
2
1 = l21 + ψ 2 0.4 = l21l31
2
1 = l31 +ψ 3
El par de ecuaciones
0.7 = l11l31
0.4 = l21l31
Implican que
0.4
l21 = l11
0.7
0.9 = l11l21
Se obtiene que
2
l11 = 1.575 o l11 = ±1.255
Además de la ecuación
2 2
1 = l11 + ψ1 o ψ 1 = 1 − l11 ,
se obtiene que
ψ 1 = 1 − 1.575 = −0.575
TT’=T’T=I.
______________________________________________________Elkin Castaño V. 178
X − µ = LF + ε = LTT ' F + ε = L * F * +ε
donde,
L* = LT y F* = T ' F
y puesto que
E(F*)=0 y Cov(F*)=T’Cov(F)T=T’T=I
• El análisis de factor:
3. MÉTODOS DE ESTIMACIÓN
Entonces
0 0⋯ 0 e1
'
λ1
0
λ2 0⋯ 0 e2'
Σ = PΛP´= e1 e2 ... e p
⋮ ⋮ ⋮ ⋮ ⋮
0 0 0⋯ 0 e'p
λ1 e1'
λ2 e2'
Σ = λ1 e1 λ2 e2 ⋯ λ p e p
⋮
λ e'
p p
Σ =LL’ +0=LL’
λ1 e1'
λ2 e2'
Σ ≃ λ1 e1
λ2 e2 ⋯ λm em =LL’
⋮
λ e'
m m
Σ≃ LL’+ Ψ
m
ψ i = σ ii − ∑ lij2 , para i=1, 2,.., p.
j =1
ψɶ1 0 ... 0
0 ψɶ ... 0 m
Ψ= donde ψɶ = s − ∑
2
ɶ lɶij2 , para i=1, 2,.., p
⋮ i ii
j =1
0 0 ...ψɶ p
Observaciones.
1) En la aplicación del modelo de factor al conjunto de datos
multivariados x1, x2, …, xn, se acostumbra centrar las
observaciones con respecto al vector de medias muestral x .
x j1 − x1
x j 2 − x2
xj- x = , j=1, 2, …, n
⋮
x jp − x p
x j1 − x1
s11
x − x
j2 2
zj= s22 , j=1, 2, …, n
⋮
x jp − x p
s pp
ɶ ɶ '− Ψ
S − LL ɶ
SC( S − LL ɶ ) ≤ λˆ 2 + λˆ 2 + ⋯ + λˆ 2
ɶ ɶ '− Ψ
m +1 m+2 p
'
lɶ112 + lɶ212 + ... + lɶp21 = ( λˆ1eˆ1 )( )
λˆ1eˆ1 = λ̂1
En general,
Prop. de la λˆ j
varianza total si se usa S
+ + ⋯ +
= 11 22
s s s
pp
muestral debida λˆ j
si se usa R
alfactor j p
0.56 0.82
0.78 − 0.53
ɶLL' ɶ = 0.65 0.75 0.56 0.78 0.65 0.94 0.80
ɶ +Ψ
0.82 − 0.53 0.75 − 0.10 − .054
0.94 − 0.10
0.80 − 0.54
0.02 0 0 0 0
0 0.12 0 0 0
+ 0 0 0.02 0 0
0 0 0 0.11 0
0 0 0 0 0.07
______________________________________________________Elkin Castaño V. 191
Si el modelo de factor
ρ = LL '+ Ψ
ρii = hi2
la matriz resultante es
______________________________________________________Elkin Castaño V. 195
ρ − Ψ = LL '
hi*2 = 1 −ψ i*
h1*2 r12 ⋯ r1 p
r *2
h2 ⋯ r2 p
Rr= 12
⋮ ⋮ ⋮
r1 p r2 p ⋯ h*2
p
m
ψ i* = 1 − ∑ lij*2
j =1
hɶi*2 = li*2 *2 *2
1 + li 2 + ... + lim
retenidos.
función de verosimilitud es
1
L( µ , Σ ) =
− tr Σ −1
(2π ) − np / 2 | Σ |− n / 2 e 2
( ∑
n
j =1
(x j -x)(x j -x) '+ n (x-µ )(x-µ )'
)
1
L( µ , Σ) = (2π )
−
( n −1) p
2 |Σ|
−
( n −1)
2
− tr Σ −1
e 2
( ∑
n
j =1
)
(x j -x)(x j -x) '
p 1 n
− − − (x-µ )Σ -1 (x-µ ) '
x (2π ) 2 |Σ| 2 e 2
L’ Ψ -1L= ∆
Prop. de la
varianza total lˆ 2 + lˆ 2 + ⋯ + lˆ 2
= 1j 2 j pj
muestral debida s11 + s22 + ⋯ + s pp
alfactor j
ρ = V −1/ 2ΣV −1/ 2 = (V −1/ 2 L)(V −1/ 2 L)'+ V −1/ 2ΨV −1/ 2
LZ = V-1/2L
Ψ Ζ = V −1/ 2 Ψ V −1/ 2
LˆZ .
Prop. de la
varianza total lˆ 2 + lˆ 2 + ⋯ + lˆ 2
= 1j 2 j pj
muestral debida p
alfactor j
______________________________________________________Elkin Castaño V. 202
Ejemplo.
Análisis de los rendimientos de las acciones usando el método de
máxima verosimilitud, suponiendo m=2.
La matriz residual es
______________________________________________________Elkin Castaño V. 203
| S n |− n / 2 e − np / 2
______________________________________________________Elkin Castaño V. 205
1 ˆ −1 ∑n
− tr Σ (x j -x)(x j -x) '
ˆ − n / 2 2 j =1
|Σ| e
1 ˆ ) −1 S
ˆ ˆ '+Ψ
− n tr ( LL
ˆ ˆ ˆ − n / 2 2 n
= | LL '+ Ψ | e
max.Func.verosimilitud bajo H0
−2ln Λ = −2ln
max.Func.verosimilitud bajo H1
| Σˆ |
= −n ln
| Sn |
1
r= ( p − m) 2 − p − m
2
______________________________________________________Elkin Castaño V. 206
ˆ ˆ '+ Ψ
| LL ˆ |
NF = (n − 1 − (2 p + 4m + 5) / 6)ln
| Sn |
NF> χ[(2 p − m ) 2
− p − m] / 2
(α )
distribución χ[(2 p − m ) 2
− p − m] / 2
.
______________________________________________________Elkin Castaño V. 207
Ejemplo.
La solución de máxima verosimilitud de los datos sobre los
rendimientos de las acciones, sugiere, al observar la matriz
residual, que una solución de dos factores puede ser adecuada. Se
quiere probar la hipótesis H0: Σ = LL '+ Ψ con m=2 y un nivel de
significancia α =0.05.
El estadístico de la prueba está basado en
ˆ ˆ '+ Ψ
| Σˆ | | LL ˆ | | Lˆ Lˆ ' + Ψ
ˆ |
= = Z Z Z
| Sn | | Sn | |R|
ˆ ˆ '+ Ψ
| LL ˆ |
NF = ( n − 1 − (2 p + 4m + 5) / 6) ln
| Sn |
______________________________________________________Elkin Castaño V. 208
=[100-1-(10+8+5)/6]ln(1.0065)=0.62
1 2
r= ( p − m) 2 − p − m = (1/2)[(5-2) -5-2] = 1
2
4. ROTACIÓN DE FACTORES
Lˆ* =LT,
ˆ donde TT'=T'T=I
ˆ ˆ '+ Ψ
LL ˆ = LTT
ˆ ' Lˆ '+ Ψ
ˆ = Lˆ* Lˆ* '+ Ψ
ˆ
cambia.
Ejemplo.
Lawley y Maxwell (1971) presentan la matriz de correlación de
las notas en p=6 materias para n=220 estudiantes hombres.
1 m p ɶ *4 p ɶ*2
2
V = ∑ ∑ lij − ∑ lij / p
p j =1 i =1
i =1
Ejemplo.
Considere los datos de mercadeo sobre las preferencias del
consumidor. La siguiente tabla presenta las estimaciones de las
ponderaciones, conmunalidades y proporción explicada,
usando el método de la componente principal. También se
presentan las ponderaciones rotadas usando el procedimiento
varimax.
Ejemplo.
Considere los datos sobre los rendimientos de las acciones de 5
compañías. Suponga un modelo con m=2 factores. La siguiente
tabla presenta las estimaciones de ponderaciones iniciales y
rotadas, así como las estimaciones de las varianzas específicas
y las proporciones de varianza total muestral explicada por los
factores.
______________________________________________________Elkin Castaño V. 219
La solución es
fˆ j = (L'
ˆ Ψˆ -1L)
ˆ -1L'
ˆ Ψˆ -1 (x -x)
j
De lo anterior:
fˆ j = (L'
ˆ Ψˆ -1L)
ˆ -1L'
ˆ Ψˆ -1 (x -x)
j
fˆ j = ∆ˆ -1L'
ˆ Ψˆ -1 (x -x) , j=1, 2, …, m
j
fˆ j = (Lˆ 'z Ψ
ˆ -1Lˆ )-1Lˆ ' Ψ
z z
ˆ -1
z z zj
fˆ j =∆ˆ -1 ˆ ' ˆ -1
z L z Ψ z z j , , j=1, 2, …, m
Observación.
Si las ponderaciones de los factores son calculadas por medio del
método de componente principal, se acostumbra generar los
______________________________________________________Elkin Castaño V. 224
fˆ j = (L'L)
ˆ ˆ -1L'(x
ˆ
j -x)
o,
fˆ j = (Lˆ 'z Lˆ z ) -1Lˆ 'z z j
E(F)=0, Cov(F)=E(FF’)=I
ψ 1 0 ... 0
0 ψ ... 0
E( ε )=0, Cov( ε )=E( ε ε ’)= Ψ = 2
⋮
0 0 ...ψ p
E(F|x)=L’ Σ −1 ( x- µ )=L’(LL’+ Ψ )( x- µ )
y matriz de covarianza
Observaciones.
1) El cálculo de f̂ j se puede simplificar usando la siguiente
identidad matricial
-1 -1 -1
L̂' ( L̂ L̂' + Ψ̂ ) = (I+ L̂' Ψ̂ L̂ ) L̂' Ψ̂
Esta identidad nos permite comparar los scores anteriores con los
generados por mínimos cuadrados ponderados.
Sea f̂ jR los scores generados por el método de la regresión y f̂ jLS
los generados por mínimos cuadrados ponderados. Entonces,
usando la identidad anterior,
______________________________________________________Elkin Castaño V. 227
-1 -1 -1 -1 -1 -1
f̂ jLS =( L̂' Ψ̂ L̂ ) (I+ L̂' Ψ̂ L̂ ) f̂ jR = (I+( L̂' Ψ̂ L̂ ) ) f̂ jR
f̂ j* = T’ f̂ j
Ejemplo.
Considere los datos sobre los rendimientos de las acciones de 5
compañías. Anteriormente, el método de la componente principal
produjo las siguientes ponderaciones estimadas.
fˆ1 = x1 + x2 + x3 + x4 + x5
fˆ2 = x4 + x5 − x2
fˆ1 = x1 + x2 + x3
fˆ2 = x4 + x5
Observaciones.
1) Aunque con frecuenta se supone normalidad multivariada
para las variables en un análisis de factor, en realidad es
muy difícil justificar este supuesto cuando el número de
variables es muy grande. Algunas veces, las
transformaciones sobre las variables vistas anteriormente
pueden ayudar a aproximar a la normalidad.
⇒ Conocimiento de la disciplina.
______________________________________________________Elkin Castaño V. 231
Ejemplo.
Considere las siguientes variables que indican las dimensiones de
algunos de los huesos de los pollos. Los n=276 datos fueron las
mediciones realizadas sobre:
La matriz de correlación es
Otro soporte para retener tres o menos factores está dado por
la matriz residual obtenida por los estimaciones máximo
verosímiles:
______________________________________________________Elkin Castaño V. 236