Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Fundamentos de Las Técnicas Multivariantes PDF
Fundamentos de Las Técnicas Multivariantes PDF
FUNDAMENTOS DE LAS
TÉCNICAS MULTIVARIANTES
U N E D
EDICIONES
M. Carmen Ximénez
Rafael San Martín
FUNDAMENTOS
DE LAS TÉCNICAS
MULTIVARIANTES
© UNIVERSIDAD NACIONAL
DE EDUCACIÓN A DISTANCIA - Madrid,
WWWUNEDESPUBLICACIONES
Y = a 1 X 1 + a 2 X2 + … + a p X p
Donde X1, X2, … Xp son las variables observadas y a1, a2, … ap son las
saturaciones calculadas mediante la técnica multivariante empleada. El
resultado es un único valor (Y) que representa la combinación del conjunto de
variables que mejor logra el objetivo de la técnica multivariante en cuestión
(reducir la información, clasificar sujetos, etc.).
aplicados (ver figura 1). Estos autores clasifican las técnicas multivariantes
según el tipo de relación que se establece entre las variables (de dependencia
o de interdependencia) y según el tipo de escala de medida que utilizan las
variables (cuantitativa o cualitativa).
Y1 = X 1 + X2 + … + X p
(Cuantitativa) (Cuantitativas y cualitativas) … Análisis de regresión
múltiple
(Cualitativa) (Cuantitativas) ……….……. Análisis discriminante
(Dicotómica) (Cuantitativas) ……….……. Regresión logística
(Cuantitativa o cualitativa) (Cualitativas) ……….……... Análisis conjunto
Y1 + Y2 + … + Yk = X1 + X2 + … + Xp
(Cuantitativas) (Cuantitativas) …………….. Análisis de correlación
canónica
(Cuantitativas) (Cualitativas) ……………… MANOVA
Tipo de relación
DEPENDENCIA INTERDEPENDENCIA
de las técnicas que a su formulación teórica. Otros manuales más teóricos son
el manual clásico de Maxwell (1977), el de Dillon y Goldstein (1984), el de
Anderson (1984) y el de Johnson y Wichern (2002). Este último es
especialmente recomendable pues combina formulaciones matemáticas con
explicaciones sencillas y ejemplos aplicados. Dentro de la disciplina de la
estadística y las matemáticas también se han publicado diversos manuales
sobre el análisis multivariante. Por ejemplo el de Arnold (1981), Carroll
(1987), Krzanowski (2000), Mardia, Kent y Bibby (1997), Neil (2002),
Rencher, (1995) y Takeuchi, Yanai y Mukherjee (1982). Además de los
citados, hay otros muchos manuales que abordan de forma monográfica cada
una de las técnicas multivariantes y se irán citando a medida que se haga
referencia a cada una de ellas en el capítulo correspondiente.
Capítulo 1. Nociones básicas de Álgebra de Matrices
1. Conceptos previos
Definición y tipos de matrices
Una matriz es una forma de organizar los datos en filas y columnas que
proporciona un punto de partida útil para su descripción (Searle, 1982).
Supóngase que se tienen las siguientes puntuaciones sobre el rendimiento
de 3 sujetos en cuatro pruebas de atención:
Pruebas de atención
Sujetos: 1 2 3 4
1 12 15 17 19
2 15 7 9 10
3 11 13 15 15
Los números que aparecen en la tabla pueden escribirse del siguiente modo:
ª12 15 17 19 º
«15 7 9 10 »»
«
«¬ 11 13 15 15 »¼
Donde las filas contienen a los sujetos y las columnas a las pruebas sobre
atención. Por ejemplo, la segunda fila y tercera columna contiene al número 9
que representa la puntuación del sujeto 2 en la prueba 3.
(aij, donde i son las filas y j las columnas). Los elementos en los que i = j se
denominan elementos diagonales (aii). Una forma más abreviada de expresar
una matriz es mediante:
A = [ aij ] para i = 1, 2, ..., n y j = 1, 2, ..., p (1.1)
El tamaño y tipo de elementos de la matriz hace que sea posible distinguir
entre varios tipos de matrices:
a. Vectores columna y fila: matrices que constan sólo de n filas y una
columna (vector columna) y de una fila y p columnas (vector fila). Se
expresan con letras minúsculas en negrita.
ª5º
Ejemplo 1. Vector columna: «2»
a « »
¬« 4 ¼»
Ejemplo 2. Vector fila: a ' >5 2 4@
Ejemplo 5: 0 = ª0 0 0 º
¬«0 0 0 »¼
NOCIONES BÁSICAS DE ÁLGEBRA DE MATRICES 11
ª s12 0 0 º ª s1 0 0º
Ejemplo 6: ;
D = «0 s 22 0 » D1/ 2 = « 0 s2 0»
« » « »
¬0 0 s 32 ¼ «¬ 0 0 s 3 »¼
Ejemplo 8: A ª3 2º ª3 0º ª3 2º
; A' «2 ; ( A ' )' A.
«0
¬ 1 »¼ ¬ 1 »¼ «0
¬ 1 »¼
Ejemplo 9: A ª5 2º ª3 2º ª8 4 º
«4 y B ; A B
¬ 1 »¼ «4
¬ 6 »¼ «8
¬ 7 »¼
ª1 º ª2º ª2º
Ejemplo 11: «0 » y b «1 »; ab
a « » « » a' b >1 0 1@ ««1 »» 1( 2) 0(1) 1(3) 5.
¬«1 ¼» ¬« 3 ¼» ¬« 3 ¼»
ª1 º
a >1 0 1 @ «« 0 »» 12 0 2 12 2.
«¬ 1 »¼
ª2º
b >2 1 3 @ «« 1 »» 2 2 12 3 2 14 .
«¬ 3 »¼
ª2 3º
Ejemplo 13: ª4 2 3º «1
A «5 B 5 »»
2 »¼ «
2u3 3u 2
¬ 1
¬« 4 2 »¼
ª ª2º ª3ºº
« »
« >4 2 3 @ «« 1 »» >4 2 3 @ «« 5 »» »
« ¬« 4 ¼» ¬« 2 ¼» » ª 22 28 º
AB C 2u 2 « » « 19
« ª2º ª3º » ¬ 24 »¼
« >5 1 2 @ «« 1 »» >5 1 2 @ «« 5 »» »
« »
¬« ¬« 4 ¼» ¬« 2 ¼» ¼»
ª ª4º 2º 3º º
«>2 3@ « » >2 3@ ª« » >2 3@ ª« »»
ª2 3º « ¬5¼ 1
¬ ¼ ¬2¼ » ª23 7 12 º
«1 5» ª4 2 3º « ª4º 2 3 »
BA C3u3 « » «5 1 2» « >1 5@ «5» >1 5@ ª« º» >1 5@ ª« º» » «29 7 13 »
« »
1 ¬2¼ »
«¬4 2»¼ ¬ ¼ « ¬ ¼ ¬ ¼
¬«26 10 16 »¼
ª4º 2 3
«
«>4 2@ «5» >4 2@ ª« º» >4 2@ ª« º»»»
¬ ¬ ¼ 1
¬ ¼ ¬2¼ ¼
Del mismo modo:
ª1 º ª1 º ª1 2º
a' a >1 2@ « » 5 y aa ' « 2 » >1 2 @ «2
¬2¼ ¬ ¼ ¬ 4 »¼
x = A-1 c
Ejemplo 20: x 1 x 2 2 ½
¾
3 x1 3 x 2 4¿
En el ejemplo 20, si una ecuación es cierta la otra no. Por tanto, el sistema
es inconsistente.
3.3. Autovalores
Si A es una matriz cuadrada de orden p y O un escalar tal que:
«A – O I «= 0 (1.12)
O es el autovalor, valor propio o raíz latente de A.
«A – O I «= 0 (también denominada ecuación característica de A) es una
ecuación polinomial de O de orden p; es decir con p raíces (O 1, O 2, ..., O p).
Ejemplo 21: A ª1 4º; A 1 O 4
«9 1» 35 ; AO I (1 O )(1 O ) - 36
¬ ¼ 9 1 O
2 r 4 140 O1 7
O2 2O 35 0; O ®
2 ¯ O2 5
(1)
Téngase en cuenta que el número máximo de columnas independientes es igual al número
máximo de filas independientes. Para saber si un conjunto de vectores es linealmente
independiente o dependiente se puede aplicar la fórmula (1.7). También puede saberse
calculando el determinante de A. Si «A ¨z 0, hay independencia y si ¨A¨= 0, dependencia.
18 FUNDAMENTOS DE LAS TÉCNICAS MULTIVARIANTES
ª1 1 0º (1O) 1 0
Ejemplo 22: ( 2 O ) 0 0 0
A ««0 2 0»»; A 0; AO I 0 (2O) 0 (1O) 1
1 O 1 O
«¬1 1 0»¼ 1 1 O
O1 2
°
(1 O)(2 O)(O) O3 3O2 2O O2 3O 2 0; ®O2 1
°O 0
¯3
Propiedades de los autovalores:
1. ¦Oi = tr(A) ...................... En el ejemplo 21 se demuestra que 7 – 5 = 1 + 1
2. 3Oi = «A « ....................... En el ejemplo 22 se demuestra que (2) (1) (0) = 0
3. Si «A ¨ = 0, al menos un Oi es 0 ............ En el ejemplo 22 «A ¨ = 0 y O3 = 0
4. r(A) es el número de Oi distintos de 0 ... En el ejemplo 21: r(A) = 2
3.4. Autovectores
Ax=Ox (1.13)
Autovalores:
(2 O ) 4 8 r 64 16 O1 8.47
AO I (2 O)(6 O ) 16 O2 8O 4 0; Oi ®
4 (6 O) 2 ¯ O2 0.47
Se comprueba que: 1. O1 + O2 = 8.47 + (-0.47) = 8 = tr(A).
2. (O1) (O2) = 8.47(-0. 47) = -4 = ¨A ¨.
3. Todas las raíces son no nulas.
4. Hay dos raíces distintas de 0: r(A) = 2.
Autovectores:
x 21
6.47
x11 1.62 x11 ; x '1 >1 1.62 @; x 1' x 1 1 . 90
®
4 ¯ u '1 >0 . 526 0 . 851 @
2º: (A O I)x ª2 0.47 4 º ª x12 º ª2.47 4 º ª x12 º ª0º 2.47 x12 4 x 22 0
2 2 « 4 6 0.47»¼ «¬ x 22 »¼ « 4 6.47» « x » «0»; ®4 x 6.47x 0
¬ ¬ ¼ ¬ 22 ¼ ¬ ¼ ¯ 12 22
x12
4
x22 1.62x22 ; ® x ' 2 > 1 .62 1@; x ' 2 x 2 1 . 90
2.47 ¯u' 2 > 0 .851 0 .526 @
Como A es simétrica, se comprueba que:
ª0.526 0.851º ª8.47 0 º ª 0.526 0.851º ª2 4º
U/ U' A
« 0.851
¬ 0.526 »¼ «¬ 0 0.47 »¼ «¬ 0.851 0.526 »¼ «4 6»
¬ ¼
@ »« » ¦a x x ¦a
i1 i 1 x x ... ¦aip xi xp
i2 i 2
« »« »
¬«ap1 ap2 app ¼» ¬«xp ¼»
(1.14)
¦¦ a x x ¦ a x ¦ a x x ¦ a x ¦(a
i j
ij i j
i
2
ii ii
iz j
ij i j
i
2
ii ii
i j
ij a ji ) xi x j
Ejemplo 23: A ª1 0 º
« 0 1 »; Q x' Ax x12 x 22 ; Q ! 0 : definida positiva
¬ ¼
Obsérvese que: |A| = 1; r(A) = p = 2.
1 O 0
AO I (1 O )(1 O ) 0; O1 O2 1.
0 1 O
1 O 1
BO I (1 O )(1 O ) - 1 O (O 2) 0; O1 2; O 2 0.
1 1 O
4. Vectores y estadísticos
Los estadísticos descriptivos pueden expresarse mediante vectores. La
siguiente tabla resume la forma matricial de algunos estadísticos y de las
matrices que facilitan su cálculo:
Estadístico Forma matricial
Media 1 1
x 6X i x' 1 cX
n n
Puntuaciones diferenciales xi Xi X X X * 1x '
1 1 1
Varianza s2 6 x i2 s2 x' x ¨x¨
n 1 n 1 n 1
1/ 2
Desviación típica 1 § 1 ·
s2 6 xi2 s ¨ ¸ x
n 1 © n 1¹
Covarianza 1 1 1
sxy 6 xi yi s xy x' y ¨xy¨
n 1 n 1 n 1
6 xi y i x' y xy
Correlación rxy rxy cosTxy
6 x i2 6 y i2 (x' x)(y' y) x y
Matriz de covarianzas 1
S X' X
n 1
ª s12 0 0º
Matriz de varianzas « »
D « »
«0 0 2»
sp ¼
¬
ª1 0 0 º
Matriz de « s1 »
Z XD1 / 2 X« »
puntuaciones típicas « 0 0 1 »
¬« s p ¼»
ª 2º
Covarianza: 1 1
s xy ¨x 1 x 2 ¨ > 3 1 4 @ «« 2 »» 12
n 1 2
«¬ 4 »¼
ª 3 -2º
Matriz de covarianzas: 1 1 ª 3 1 4º « ª13 12 º
S X'X 1 - 2 »»
n 1 2 «¬ 2 2 »
4¼ « «12
¬ 12 »¼
¬« 4 4 ¼»
Correlación: r x1 x 2 24
xy 0.96
x1 x 2 (5.10)(4.90)
NOCIONES BÁSICAS DE ÁLGEBRA DE MATRICES 23
Matriz de correlaciones:
ª1 / 13 0 º ª13 12 º ª1 / 13 0 º ª 1 0 .96 º
R D 1 / 2 SD 1 / 2 « 0 » «12 12 » « 0
¬ 1 / 12 ¼ ¬ ¼ ¬ 1 / 13 »¼ « 0 .96
¬ 1 »¼
5. Combinaciones lineales
Las técnicas multivariantes se formulan mediante combinaciones lineales
por lo que es necesario comprender su definición y propiedades.
Y la matriz de correlaciones:
ª1/ 19 0 º ª 19 5 º ª1/ 19 0 º ª 1 0.43 º
R D 1 / 2 SD 1 / 2 « »« « »
¬ 0 1/ 7 ¼ ¬ 5 7 »¼ ¬ 0 1/ 7 ¼
« 0.43
¬ 1 »¼
A. A
3 6
COMPUTE A = {3, 6; 5, 6; 10, 12}. 5 6
COMPUTE B = {6, 8; 6, 8; 6, 8}. 10 12
COMPUTE C = A - B .
COMPUTE D = 1/2 * SSCP (C). B
COMPUTE E = SQRT (D). 6 8
COMPUTE F = {3.61, 3.46}. 6 8
COMPUTE G = MDIAG(F). 6 8
COMPUTE H = INV (G).
COMPUTE I = H * D * H . C
o -3 -2
PRINT A . -1 -2
PRINT B . 4 4
PRINT C .
PRINT D . D
PRINT E . 13 12
PRINT F . 12 12
PRINT G .
PRINT H . E
PRINT I . 3.605551275 3.464101615
3.464101615 3.464101615
END MATRIX.
F
3.610000000 3.460000000
G
3.610000000 .000000000
.000000000 3.460000000
H
.2770083102 .0000000000
.0000000000 .2890173410
I
.997536851 .960722463
.960722463 1.002372281
GET A /FILE = * .
CALL EIGEN (A, B, C). RANK(A)
6
PRINT C.
o C
PRINT RANK(A).
2.715868170
END MATRIX . 1.029760178
.988111734
.814820915
.371076909
.080362094
(2)
Antes de ejecutar esta sintaxis, para que A sea una matriz cuadrada, es necesario borrar las
dos primeras columnas y la primera fila del editor de datos, pues contienen el nombre, el
tipo de variable y el N, respectivamente.
30 FUNDAMENTOS DE LAS TÉCNICAS MULTIVARIANTES
7. Ejercicios
ª7 0 0º
1. Sea la matriz «0
A « 7 0 »»
«¬ 0 0 7 »¼
a) ¿Es esta matriz al mismo tiempo identidad, cuadrada, diagonal, escalar
y simétrica?
b) ¿Es cierto que A-1 = A?
c) ¿Qué orden debería tener un vector fila que pre-multiplica a la matriz
A para que sean conformables?
ª11 10 º
«10 10 »»
«
X* «11 8»
« »
«9 6»
«¬ 9 6 »¼
Por abreviar nos referiremos a P(x1, …, xp) como P(x). La función P(x) ha
de satisfacer condiciones similares a las del caso univariante. Es decir:
En este caso el rango del sumatorio son todos los posibles valores del
vector x manteniendo constante Xi. Es decir: x1, …, xi – 1, xi + 1, …, xp.
34 FUNDAMENTOS DE LAS TÉCNICAS MULTIVARIANTES
Ejemplo 1:
X2 X1 Distribución
0 1 2 Marginal de X2
0 1/16 1/16 0 1/8
1 2/16 3/16 1/16 3/8
2 1/16 3/16 2/16 3/8
3 0 1/16 1/16 1/8
Distribución
1/4 2/4 1/4
Marginal de X1
Por tanto,
2(1 x1 ) Si 0 x1 1
f ( x1 ) ®
¯0 En cualquier otro caso
Aplicando la fórmula (2.3) se observa que las dos variables aleatorias no son
independientes ya que: f ( x1 , x 2 ) z f 1 ( x1 ) f 2 ( x 2 ) .
E ( X i2 ) P i2 ª f x 2 f ( x ) dx º P 2 (2.6)
«¬ ³ f i i
Var( X i )
¼» i
ª 1 U 12 U1p º
«U 1 U 2 p »»
5 « 21
« »
« »
«¬ U p 1 U p2 1 »¼
Donde D1/2 es una matriz diagonal cuyos términos diagonales son V1, V2,
…, Vp. También se ha visto que las matrices 6 y 5 son semidefinidas positivas
y se cumple que r(6) = r(5).
Ejemplo 3:
Calcúlese la media, varianza, la covarianza y correlación para las variables de
ejemplo 2.
Aplicando la fórmula (2.5) se obtienen las medias para X1 y X2.
1 1
E( X 1 ) ³ 0
x1 f1 ( x ) dx1 ³ 0
x1 2 (1 x1 ) dx1 1/ 3
1 1
E( X 2 ) ³ 0
x 2 f 2 ( x ) dx 2 ³ 0
x 2 2 x 2 dx 2 2/3
1 2 2
f ( x) e ( x P ) / 2V (2.11)
2S V
y se expresa mediante:
X a N (P, V)
En este caso X' = [X1, …, Xp] tiene media P' = [P1, …, Pp] y matriz de
covarianzas:
ªV 12 0 0 º
« »
« 0 V 22 0 »
6
« »
« »
¬« 0 0 V 2p ¼»
Esta definición requiere que 6 sea regular para que exista 6-1. Esto es, que
6 sea una matriz definida positiva. Como ya se ha visto, 6 puede no ser
definida positiva. Es importante establecer esta distinción pues si 6 es
semidefinida positiva, la distribución de X no posee una función de densidad
y se denomina distribución normal multivariante degenerada o singular.
Aquí solamente se considera la distribución normal multivariante no singular.
LA DISTRIBUCIÓN NORMAL MULTIVARIANTE 41
Ejemplo 4:
Sea la variable X' = [X1, X2, X3] con distribución normal multivariante de
parámetros:
ª4 2 3 º
Pc >2 4 5@ 6 «2 9 5 »
« »
¬«3 5 16¼»
A continuación se muestran ejemplos donde se obtienen distintas áreas de
probabilidad:
a) P(X1 t3.5)
X1 tiene la distribución marginal N(2, 2). Para obtener el área que queda a
la derecha de 3.5 se consulta la distribución de probabilidad de la normal
tipificada (puede verse la tabla 1 del anexo):
P(X1 t3.5) = P(z t3.5 – 2)/2) = P(z t0.75) = 0.2266
b) P(2X3 – X2 d2)
Si se denomina Y = 2X3 – X2, esta nueva variable Y es una transformación
lineal de la variable normal bivariante (X3, X2). Y tiene distribución
normal univariante con parámetros:
E(Y) = 2P3 – P 2 = (2)(5) – 4 = 6
Var(Y) = 22V32 + V 22 – (2) (2) V32= (4)(16) + 9 – (4)(5) = 53.
Donde V(Y) = 7.28
Por tanto, Y a N (6, 7.28). Según la tabla de la normal tipificada:
P(2X3 – X2 d2) = P(Y d2) = P(z d2 – 6)/7.28) = P(z d-0.55) = 0.2912
ª V 12 UV 1V 2 º
6 « »
¬ UV 1V 2 V 22 ¼
LA DISTRIBUCIÓN NORMAL MULTIVARIANTE 43
1 ª§ x P ·2 2
§ x P ·§ x P · § x P · º
« ¨ 1 1 ¸ 2 U ¨ 1 1 ¸ ¨ 2 2 ¸ ¨ 2 2 ¸ »
2 (1 U 2 ) « ¨© V 1 ¸¹ ¨ V ¸¨ V ¸ ¨ V ¸ »
1 ¬ © 1 ¹ © 2 ¹ © 2 ¹ ¼ (2.14)
f ( x1 , x 2 ) e
2SV 1V 2 (1 U 2 )
X1
3 0.0367 0.0681
1 2 3 X2
X1'
Los diagramas de contornos reflejan con más claridad que los valores de
x que tienen igual densidad, forman elipses centradas en P (véase figuras 2.2,
2.4. y 2.6.). En todos los casos la función de densidad de probabilidad
conjunta tiene un máximo en el valor de P (es decir en el punto 0, 0 del
gráfico). La figura 2.2 muestra que cuando U = 0, la elipse adopta una forma
circular pues la pendiente es cero. En la figura 2.4 puede verse que cuando
U > 0 el eje principal de la elipse tiene una pendiente positiva y en la figura
2.6 que cuando U < 0, la elipse tiene una pendiente negativa.
46 FUNDAMENTOS DE LAS TÉCNICAS MULTIVARIANTES
. 15
0. 1 0
0. 05 2
0 1
0
- 2
2
0
- 2
2 3
- 3 - 2 - 1 0 1 2 3
Figura 2.1. Diagrama 3-D para distribución Figura 2.2. Diagrama de contornos para
normal bivariante con U = 0 Distribución normal bivariante con U = 0
. 2 0
0. 1 2
1
0
0
- 2
2
0
- 2
2 3
- 3 - 2 - 1 0 1 2 3
Figura 2.3. Diagrama 3-D para distribución Figura 2.4. Diagrama de contornos para
normal bivariante con U > 0 Distribución normal bivariante con U > 0
0. 2 0
0. 1 2
1
0
0
- 2 2
0
- 2
3
2
- 3 - 2 - 1 0 1 2 3
Figura 2.5. Diagrama 3-D para distribución Figura 2.6. Diagrama de contornos para
normal bivariante con U < 0 Distribución normal bivariante con U < 0
LA DISTRIBUCIÓN NORMAL MULTIVARIANTE 47
4. Ejercicios
1. Dos variables aleatorias, X e Y, tienen la siguiente función de densidad de
probabilidad conjunta:
3 x si 0 y x 1
f ( x, y ) ®
¯0 En cualquier otro caso
a) Obtenga las distribuciones marginales de X e Y
b) Demuestre que las variables aleatorias no son independientes
c) Obtenga el valor esperado, la varianza y la covarianza para X e Y
d) Obtenga la distribución condicional de X dado que Y = 1/2
4. Sea X' = [X1, X2, X3] una variable aleatoria con distribución normal
multivariante y parámetros:
ª8 7 5 º
P ' >7 9 6 @ 6 ««7 14 9 »»
¬«5 9 11¼»
Determine las siguientes probabilidades:
a) P(X3 t5)
b) P(5 dX2 d12)
c) P(2X1 + X2 – X3 d25)
d) Probabilidad de que X1 sea menor que 7 dado que X2 es 3
e) Probabilidad de que X1 sea menor que 7 dado que X2 es 5
Capítulo 3. Análisis de Regresión Lineal Múltiple
1. Introducción
La regresión pretende pronosticar los valores que toma una variable
cuantitativa (la variable dependiente: Yi) a partir de los valores que toman
otra/as variable/s también cuantitativas (la/s variable/s independiente/s: Xj).
c). Cov(HH, X) = 0
d). r(X) = p (no multicolinealidad = Las Xj son independientes).
e). Adicionalmente, puede asumirse que H a N (0, V2I), aunque no es
imprescindible. Si se asume, puede utilizarse el método de estimación de
máxima verosimilitud y llevarse a cabo las pruebas de significación
(véase apartado 4.2).
3. Estimación de parámetros
El modelo planteado en la ecuación (3.4) refleja el modelo de regresión
múltiple en términos de sus parámetros poblacionales (E0, E1, ..., Ep). Para
una muestra extraída de la población el modelo (3.1) puede expresarse
mediante:
Donde b0, b1, b2, ..., bp son los estimadores de los parámetros E0, E1, E2, ...,
Ep y ei es el estimador de Hi.
De modo más compacto la ecuación (3.5) puede expresarse mediante:
Y = X* b + e (3.6)
ª1º
1 ª 29 9º ª4.83 1.5º ª1 1 1º « » ª 6 º ª 6Yi º
(X* ' X* ) 1 ; X *
' Y «3 4 2» «5» «23» «6X Y »
6 «¬ 9 3 »¼ «¬1.5 0.5 »¼ ¬ ¼ «0» ¬ ¼ ¬ i i ¼
¬¼
ª 4 . 83 1 .5 º ª 6 º ª 5 .5 º
b ( X * ' X * ) 1 X * ' Y « »« » « »
¬ 1 .5 0 . 5 ¼ ¬ 23 ¼ ¬ 2 .5 ¼
b). Ecuación de regresión, pronósticos y errores de estimación
Yˆi 5.5 2.5 X i e i
ª1 3º ª 2 º
«1 ª 5 .5 º
Yˆ X b*
4 »» « « 4 .5 »
« 2 . 5 »¼ « »
«¬1 2 »¼ ¬ «¬ 0 . 5 »¼
ª1 º ª 2 º ª 1º
e Y Ŷ « 5 » « 4 .5 » « 0 .5 »
« » « » « »
¬« 0 ¼» «¬ 0 . 5 ¼» ¬« 0 . 5 ¼»
ª 1º
e'e > 1 0 .5 0 . 5 @ «« 0 . 5 »» 1 .5
«¬ 0 . 5 »¼
ª 3 . 4 º ª 4 . 874 º ª 1 . 474 º
« 5 . 6 » « 5 . 276 » « 0 . 324 »
« » « » « »
e y yˆ « 0 . 6 » « 0 . 196 » « 0 . 404 »; e'e 5 . 177
« » « » « »
« 7 . 4 » « 5 . 904 » « 1 . 496 »
«¬ 4 . 6 »¼ «¬ 5 . 306 »¼ «¬ 0 . 706 »¼
En puntuaciones directas.
Yˆi 10 . 17 1 . 02 X 1 1 . 01 X 2 e i
Donde: b 0 Y b1 X 1 b 2 X 2 10 .17
En puntuaciones típicas.
zˆ y i
0.7413 z x 0.3507 z x e *i
1 2
Donde:
1
b* R xx R xy
56 FUNDAMENTOS DE LAS TÉCNICAS MULTIVARIANTES
ª 0 . 25 0 º ª 20 . 2 º 1 ª 0 . 93 º
R xy D 1 / 2 S xy S y1 / 2 « 0 » « 7 . 9 » 5 . 46 « 0 . 75 »
¬ 0 . 52 ¼¬ ¼ ¬ ¼
1 ª 1 . 41 0 . 76 º ª 0 . 93 º ª 0 . 7413 º
b* R xx R xy « 0 . 76
¬ 1 . 41 »¼ «¬ 0 . 75 »¼ « 0 . 3507 »
¬ ¼
i 1 © Y ¹
En la práctica se toman logaritmos pues queda una expresión más sencilla:
2
n ª
n § 1 · 1 § V ·º
2 ¦« i
log L log ¨¨ 2 2 ¸
¸ 2
y ¨¨ PY U Y ( X i P X ) ¸¸ »
2 © V Y 2S (1 U ) ¹ 2V Y (1 U ) i 1 ¬ © VX ¹¼
Para obtener el estimador máximo verosímil de E se iguala la primera
derivada de ln L a cero. Mediante este procedimiento se llega a lo siguiente:
b = (X'X)-1 X'y
ANÁLISIS DE REGRESIÓN LINEAL MÚLTIPLE 57
3
5
3
Práctico
3
1
3
0
Figura 3.1. Recta de regresión para el ejemplo 1 Figura 3.2. Plano de regresión para el ejemplo 2
Asimismo, hay que valorar en qué medida el modelo se ajusta a los datos
empíricos y la contribución de las variables independientes en los cambios
que se producen en la variable dependiente. A todo esto se le denomina
bondad de ajuste.
Si: R ryyˆ
¦ y yˆ i i y' yˆ (yˆ e)' yˆ yˆ ' yˆ
y ( x1 , x2 ,...,x p )
¦ y ¦ yˆ 2
i
2
i
y' y yˆ ' yˆ (y' y)(yˆ ' yˆ ) (y' y)(yˆ ' yˆ )
4.2.3. H0: Ej = 0
Donde Vˆ 2 e' e -1
MCE ; cii = i-ésimo elemento de la matriz (X'X) .
n p 1
(1)
Si se desea obtener valores de t que dejan a su izquierda un área diferente a la que aparece
en la tabla 2, se puede hacer mediante el SPSS. Por ejemplo, para un área de 0.65 primero se
crea la variable gl, que contiene los grados de libertad y más tarde se ejecuta la sintaxis:
COMPUTE x = IDF.T(0.65,gl).
EXECUTE .
62 FUNDAMENTOS DE LAS TÉCNICAS MULTIVARIANTES
EFICACIA
2 1
0 0
-2 -1
-4 -2
-6 -3
-6 -4 -2 0 2 4 -3 -2 -1 0 1 2
MEMORIA RAZONAMIENTO
Figura 3.3. Gráfico de regresión parcial Figura 3.4. Gráfico de regresión parcial
para memoria para razonamiento
5.2. Independencia
Los residuos se comportan como una variable aleatoria. Por tanto, han
de ser independientes entre sí, de las variables independientes y de los
pronósticos. En caso de no cumplirse este supuesto, se produce el problema
de la autocorrelación.
La prueba de Durbin-Watson permite conocer el grado de independencia
entre los residuos:
n n
DW ¦ (e i ei 1 ) 2 / ¦ ei2 Donde: 0 d DW d 4
i 2 i 1
5.3. Homocedasticidad
Gráfico de dispersión
1.0
.5
0.0
-.5
-1.0
-1.5 -.5 .5 1.5
-1.0 0.0 1.0
5.4. Normalidad
1.0
.8
Frecuencia
.6
.4
.2
0.0
-1.00 -.50 0.00 .50 1.00
.75
.50
.25
0.00
0.00 .25 .50 .75 1.00
Tolerancia FIV
MEMORIA .712 1.404
RAZONAM .712 1.404
6. Simplificación de modelos
Los criterios básicos para la selección de variables son: La significación
de los coeficientes (p < 0.05) y los valores de la tolerancia de Xj que deben ser
grandes (mayores que 0.01).
En caso de utilizar una sola variable independiente se selecciona la que
más correlacione con la variable dependiente. Si se utilizan varias, dado que
los coeficientes bj no indican la importancia relativa de la variable, es mejor
utilizar los coeficientes estandarizados:
sxj
b *j bj
sy
No obstante, estos coeficientes no bastan para indicar la importancia
relativa de las variables independientes, pues su posición en la ecuación no es
fija y están afectados por las correlaciones entre ellas. Cuando las Xj están
muy relacionadas también lo están los bj y tanto más cuanto mayor sea la
correlación múltiple de una variable independiente cualquiera y todas las
demás [R2j (1,2, ..., p)].
Al introducir una nueva variable Xj en un modelo de regresión múltiple
hay que estudiar el incremento que se produce sobre R2. Es decir:
2
R'2 Rp2 Rp2 j . El coeficiente R' permite conocer la importancia de la Xj
introducida. Si al introducir la variable, se produce un incremento grande y
significativo, la variable es importante, aporta información propia. La prueba
de significación para decidir sobre el incremento se realiza mediante el
estadístico F:
( SCE q SCE p ) /( p q ) ( R p2 Rq2 ) /( p q )
F ~ F( p q ),( n p )
SCE q /( n p ) (1 R p2 ) /( n p )
RA ª1.00 º
RN «0.10 1.00 »
« »
RV « 0.15 0.16 1.00 »
R « »
E «0.12 0.20 0.10 1.00 »
N «0.16 0.16 0.20 0.00 1.00 »
« »
RTO ¬« 0.60 0.40 0.30 0.20 0.50 1.00 ¼»
RA
E
RN RTO
N
RV
247.78 0.6257 / 5
R12 0.6257; F 31.43
396 (1 0,6257) / 94
El ajuste es significativo pues se rechaza H0: E = [0]. Es decir, hay
relación lineal entre las variables independientes y la variable dependiente.
Todos los parámetros de las variables independientes tienen efectos
significativos excepto los de extraversión (p = 0.2309) y razonamiento verbal
(p = 0.1126). Por tanto, cabe plantearse la simplificación del modelo.
e). Simplificación del modelo
Modelo 2: se elimina E.
Los resultados de la estimación de parámetros y las pruebas de
significación son:
Variable bj b*j t p
RA 0.100 0.499 7.719 0.000
RV 0.022 0.110 1.681 0.096
RN 0.055 0.276 4.258 0.000
N 0.071 0.354 5.392 0.000
Constante (b0) -2.392 -2.270 0.025
FV SC gl MC F p
Regresión 245.49 4 61.37 38.74 0.000
Error 150.51 95 1.58
Total 396.00 99
Por tanto: RTOi = -2.392+ 0.100 RAi + 0.022 RVi + 0.055 RNi + 0.071 Ni + Ei
245.49 2
Con el modelo 2: R22 0.619924; R 2 0.60391 ( p 0.0000)
396
Donde:
( R12 R22 ) /(6 5) (0.6257 0.6199) / 1 0.006
F 1.5 ( p 0.23)
(1 R12 ) /(100 5) (1 0.6257) / 95 0.004
FV SC gl MC F p
Regresión 241.01 3 80.34 49.76 0.0000
Error 154.99 96 1.61
Total 396.00 99
El modelo 3 queda como: RTOi = -1.728+ 0.103 RAi + 0.058 RNi + 0.074 Ni + Ei
241 .01 2
Donde: R 32 0.6086 ; R3 0.5964 ( p 0.0000 )
396
( R12 R32 ) /(6 4) (0.6257 0.6086) / 2 0.009
F 2.14 ( p 0.096)
(1 R12 ) /(100 4) (1 0.6257) / 96 0.004
Los resultados finales del tercer paso son idénticos en los tres
procedimientos y coinciden en que el modelo 3 es el más apropiado para
explicar la varianza de la variable RTO:
Variable bj b*j t p
RA 0.102 0.512 7.876 0.000
RN 0.058 0.289 4.460 0.000
N 0.074 0.372 5.687 0.000
Constante (b0) -1.728 -1.752 0.083
FV SC gl MC F p
Regresión 241.008 3 80.336 49.759 0.000
Error 154.992 96 1.614
Total 396.000 99
Donde: RTOi = -1.728+ 0.102 RAi + 0.058 RNi + 0.074 Ni + Ei
2
R2 0 .60861 ; R 0 .59638
Por ejemplo, con los datos del ejemplo 2 se obtiene el siguiente cuadro de
diálogo:
Figura 3.8.2. Regresión lineal: Estadísticos Figura 3.8.3. Regresión lineal: Gráficos
Variables introducidas/eliminadas b
ANOVAb
Suma de Media
Modelo cuadrados gl cuadrática F Sig.
1 Regresión 114.024 2 57.012 22.027 .043a
Residual 5.176 2 2.588
Total 119.200 4
a. Variables predictoras: (Constante), RAZONAM, MEMORIA
b. Variable dependiente: EFICACIA
74 FUNDAMENTOS DE LAS TÉCNICAS MULTIVARIANTES
Coeficientes
Diagnósticos de colinealidad
Los gráficos obtenidos son los mismos que los de las figuras 3.3., 3.4.,
3.5., 3.6. y 3.7. Como se observa, los resultados coinciden exactamente con
los cálculos hechos a mano para el ejemplo 2 del apartado 3.1.
Si no se dispone de los datos originales y sólo se conocen los estadísticos
descriptivos y la matriz de correlaciones (o la de covarianzas), se puede llevar
a cabo la regresión lineal mediante el lenguaje MATRIX. La sintaxis que
corresponde al ejemplo anterior es la siguiente:
MATRIX DATA VAR X1 X2 Y
/format lower diag/cont corr mean sd/n=5.
Begin data.
1.000
.536 1.000
.931 .752 1.000
27.40 12.80 30.60
3.97 1.92 5.46
End data.
Figura 3.9. Fichero de datos que genera el SPSS con la sintaxis del cuadro 3.1.
Los resultados obtenidos son iguales a los anteriores aunque no incluyen
el estadístico de Durwin-Watson ni los gráficos para los residuos, pues no
pueden obtenerse si no se dispone de los datos originales. Por tanto, el
procedimiento MATRIX proporciona los resultados del análisis de regresión
lineal y tan sólo permite comprobar el supuesto de ausencia de colinealidad.
Para comprobar los restantes supuestos se necesitan los datos originales.
A continuación se resuelve el ejemplo 3 del apartado 6. En este caso, se
pone a prueba los procedimientos secuenciales de simplificación de modelos.
Para obtener estos resultados mediante los menús del SPSS se realizan las
mismas selecciones que en la figura 3.8.1., que permite escoger diferentes
métodos de selección de variables (‘pasos sucesivos o stepwise’, ‘hacia atrás
o backward’ o ‘hacia delante o forward’) y se selecciona la opción ‘cambio
en R cuadrado’ de la figura 3.8.2. La sintaxis del lenguaje MATRIX para
resolver este ejemplo con el método de selección de variables hacia detrás es:
MATRIX data var RA RN RV E N RTO
/format lower diag/cont corr mean sd/n=100.
Begin data.
1.000
.10 1.000
.15 .16 1.000
.12 .20 .10 1.000
.16 .16 .20 .00 1.000
.60 .40 .30 .20 .50 1.000
50 50 50 50 50 10
10 10 10 10 10 2
End data.
REGRESSION /matrix=in(*) /variables=RA RN RV E N RTO
/MISSING LISTWISE
/STATISTICS COEFF OUTS CI R ANOVA CHANGE COLLIN TOL
/CRITERIA=PIN(.01) POUT(.05)
/NOORIGIN
/DEPENDENT RTO
/METHOD=BACKWARD RA RN RV E N .
Cuadro 3.2. Sintaxis de MATRIX para ejemplo 3
76 FUNDAMENTOS DE LAS TÉCNICAS MULTIVARIANTES
Variables introducidas/eliminadas b
Estadísticos de cambio
R Error típ. de Cambio Sig. del
Mod R cuadrado la en R Cambio cambio
elo R cuadrado corregida estimación cuadrado en F gl1 gl2 en F
1 .791a .626 .606 1.255720 .626 31.427 5 94 .000
2 .787b .620 .604 1.258716 -.006 1.454 1 96 .231
3 .780c .609 .596 1.270629 -.011 2.826 1 97 .096
a. Variables predictoras: (Constante), N, E, RA, RV, RN
b. Variables predictoras: (Constante), N, RA, RV, RN
c. Variables predictoras: (Constante), N, RA, RN
ANOVA
Coeficientes
Estadísticos de colinealidad
Beta Correlación Tolerancia
Modelo dentro t Sig. parcial Tolerancia FIV mínima
2 E .078a 1.206 .231 .123 .943 1.060 .921
3 E .085b 1.304 .195 .133 .948 1.055 .932
RV .110b 1.681 .096 .170 .931 1.074 .928
a. Variables predictoras en el modelo: (Constante), N, RA, RV, RN
b. Variables predictoras en el modelo: (Constante), N, RA, RN
Variables introducidas/eliminadasa
Estadísticos de cambio
R Error típ. Cambio Sig. del
Mod R cuadrado de la en R Cambio cambio
elo R cuadrado corregida estimación cuadrado en F gl1 gl2 en F
1 .600a .360 .353 1.608 .360 55.125 1 98 .000
2 .726b .528 .518 1.389 .168 34.387 1 97 .000
3 .780c .609 .596 1.271 .081 19.893 1 96 .000
a. Variables predictoras: (Constante), RA
b. Variables predictoras: (Constante), RA, N
c. Variables predictoras: (Constante), RA, N, RN
Coeficientes
Intervalo de Estadísticos
Coeficientes no Coeficientes confianza para B al de
estandarizados estandarizados 95% colinealidad
Mod Error Límite Límite Toler
elo B típ. Beta t Sig. inferior superior ancia FIV
1 (Constante) 4.000 .824 4.855 .000 2.365 5.635
RA .120 .016 .600 7.425 .000 .088 .152 1.000 1.000
2 (Constante) .517 .927 .558 .578 -1.322 2.357
RA .107 .014 .534 7.548 .000 .079 .135 .974 1.026
N .083 .014 .415 5.864 .000 .055 .111 .974 1.026
3 (Constante) -1.728 .986 -1.752 .083 -3.685 .230
RA .102 .013 .512 7.886 .000 .077 .128 .969 1.032
N .074 .013 .372 5.687 .000 .048 .100 .953 1.049
RN .058 .013 .289 4.460 .000 .032 .084 .969 1.032
decir, que el modelo que incluye las variables RA, RN y N es el que mejor
explica la varianza en RTO.
La sintaxis para que el SPSS lea este archivo de texto y lleve a cabo una
regresión por ejemplo de X6 sobre X1, X2, X3, X4 y X5 en un procedimiento
secuencial stepwise es la siguiente:
REGRESSION
/matrix=in(*)
/variables=x1 x2 x3 x4 x5 x6
/MISSING LISTWISE
/STATISTICS COEFF OUTS CI R ANOVA CHANGE COLLIN TOL
/CRITERIA=PIN(.05) POUT(.10)
/NOORIGIN
/DEPENDENT x6
/METHOD=STEPWISE x1 x2 x3 x4 x5.
Estadísticos de cambio
R Error típ. de Cambio Sig. del
Mod R cuadrado la en R Cambio cambio
elo R cuadrado corregida estimación cuadrado en F gl1 gl2 en F
1 .790a .624 .622 1.229 .624 328.736 1 198 .000
2 .877b .769 .767 .966 .145 123.771 1 197 .000
3 .925c .855 .853 .767 .086 116.502 1 196 .000
4 .933d .871 .869 .725 .016 24.233 1 195 .000
a. Variables predictoras: (Constante), X1
b. Variables predictoras: (Constante), X1, X5
c. Variables predictoras: (Constante), X1, X5, X3
d. Variables predictoras: (Constante), X1, X5, X3, X2
8. Ejercicios
X1: 4 8 10 12 20 15
X2: 1 2 3 5 10 7
Y: 10 2 3 2 1 2
X1 ª1 . 00 º
X2 « 0 . 34 1 . 00 »
« »
X3 « 0 .13 0 . 15 1 . 00 »
R « »
X4 « 0 . 29 0 . 20 0 . 32 1 . 00 »
X5 « 0 . 24 0 . 15 0 . 27 0 . 31 1 . 00 »
« »
Y ¬« 0 . 86 0 . 18 0 . 23 0 . 31 0 . 49 1 . 00 ¼»
1. Introducción
Resumiendo, en el ACP:
1. No se establece ningún requisito sobre la distribución de las variables X1,
X2, ..., Xp.
84 FUNDAMENTOS DE LAS TÉCNICAS MULTIVARIANTES
2.3. Ejemplo
ª13 - 0.5 12 º ª a 12 º ª0 º
(S - O 2 I ) a 2 «0 »;
« 12
¬ 12 - 0.5 »¼ «¬ a 22 »¼ ¬ ¼
12 .5 a12 12 a 22 0 ½ a 22 1 .000
¾
12 a 12 11 .5 a 22 0 ¿ a 12 0 .958
12 0.958 2 1.385
ª 1/1.385 0.958/1.38 5º ª0.722 0.692 º
A=«
¬0.958/1.38 5 1/1.385 »¼ «0.692
¬ 0.722 »¼
Por tanto: Y1 = X a1 = 0.722 X1 + 0.692 X2
Y2 = X a2 = -0.692 X1 + 0.722 X2
3) Matriz de saturaciones:
3) Matriz de autovectores:
ª1 1 . 96 0 . 96 º ª a 11 º ª0 º ҏ
( R O1 I )a 1 « 0 . 96
¬ 1 1 . 96 »¼ «¬ a 21 »¼ «0 »
¬ ¼
0 . 96 a 11 0 . 96 a 21 0 ½ a 11 1
¾
0 . 96 a 11 0 . 96 a 21 0 ¿ a 21 1
ª1 1 º
« 2 2» ª 0 .707 0.707 º
A « 0 .707
«1 1 » ¬ 0.707 »¼
¬« 2 2 ¼»
4) Matriz de saturaciones:
0 . 9898 2 0 . 9898 2 1 . 96 Ȝ1
Donde: ®
2 2
¯ 0 . 1414 0 . 1414 0 . 04 Ȝ2
5) Matriz de puntuaciones típicas en los componentes:
Las puntuaciones típicas de los tres primeros sujetos en las variables son:
ANÁLISIS DE COMPONENTES PRINCIPALES 89
ª 3/ 13 2 / 12 º
1/2 « »
zx XD « 1/ 13 2 / 12 »
« 4 / 13 4 / 12 »¼
¬
Y las puntuaciones típicas en los componentes:
ª3 13 2 12º ª0.712 0.900º
-1/ 2 « » ª0.707 0.707º ª1/ 1.96 0 º «0.431 1.060»
z y zx A / «1 13 2 12» «0.707 0.707» « » « »
« 4 13 4 12 » ¬ ¼¬ 0 1/ 0.04¼
¬ ¼ «¬ 1.145 0.170»¼
ª 0 . 900 º
1
Cov ( z y1 , z y 2 ) > 0 .712 0 . 431 1 . 145 @ «« 1 . 060 »» 0
29
¬« 0 . 170 ¼»
7) Proporción de varianza explicada:
1 . 96 0.04
ҏ c1 0 . 98 ; c2 0.02 .
2 2
ªcosT senT º
A « senT
¬ cosT »¼
La matriz A rota los ejes X1, X2, ..., Xp a través del origen un ángulo de T
grados de modo que el primer componente reúna el máximo de la varianza
contenida en los datos y el segundo la varianza restante.
ª 0.72 0.69 º
A «¬ 0.69 0.72 »¼
cos T 0 . 72 ½
Donde: ¾ oT 44º
sen T 0 . 69 ¿
x2 y1
z z
zz
zzz
zz
zzzz
44º
zzz
z x1
zzzz
zz z
zzzz
zz
y2
Figura 4.1. Representación gráfica del ACP del ejemplo 2.3.
Como se observa en la figura 4.1., los ejes se han girado un ángulo de 44º
de modo que el componente y1 tiene una gran variabilidad y el componente y2
una variabilidad muy pequeña.
FACTOR
/MATRIX=in(COR=*)
/MISSING LISTWISE /ANALYSIS x1 x2
/PRINT INITIAL EXTRACTION
/CRITERIA FACTORS(2) ITERATE(25)
/EXTRACTION PC
/METHOD=CORRELATION .
Cuadro 4.1. Sintaxis del lenguaje MATRIX para el ejemplo 2.3 a partir de la matriz R
Figura 4.2. Fichero de datos que genera el SPSS con la sintaxis del cuadro 4.1.
Inicial Extracción
X1 1.000 1.000
X2 1.000 1.000
Método de extracción: Análisis de Componentes principales.
Matriz de componentes a
Componente
1 2
X1 .990 -.141
X2 .990 .141
Método de extracción: Análisis de componentes principales.
a. 2 componentes extraídos
FACTOR
/MATRIX=in(COVARIANCE=*)
/MISSING LISTWISE /ANALYSIS x1 x2
/PRINT INITIAL EXTRACTION
/CRITERIA FACTORS(2) ITERATE(25)
/EXTRACTION PC
/METHOD=COVARIANCE .
Cuadro 4.2. Sintaxis del lenguaje MATRIX para el ejemplo 2.3 a partir de la matriz S
Los resultados que ofrece el SPSS al ejecutar esta sintaxis incluyen los
autovalores y la matriz F obtenidos tanto a partir de S (solución Bruta) como
a partir de R (solución Reescalada):
94 FUNDAMENTOS DE LAS TÉCNICAS MULTIVARIANTES
Comunalidades
Bruta Reescalada
Inicial Extracción Inicial Extracción
X1 13.000 13.000 1.000 1.000
X2 12.000 12.000 1.000 1.000
Método de extracción: Análisis de Componentes principales.
Matriz de componentes a
Bruta Reescalada
Componente Componente
1 2 1 2
X1 3.573 -.484 .991 -.134
X2 3.427 .505 .989 .146
Método de extracción: Análisis de componentes principales.
a. 2 componentes extraídos
ANÁLISIS DE COMPONENTES PRINCIPALES 95
5. Ejercicios
Sujeto: 1 2 3 4 5 6 7 8 9
x1: -8 6 0 -2 8 0 -6 0 2
x2: -1 10 0 -10 1 3 -6 -3 6
Obténgase dos nuevas variables, cada una combinación lineal de las dos
variables evaluadas, que sean independientes.
Para resolver este ejercicio se necesita utilizar el lenguaje MATRIX del SPSS
y disponer de la matriz de correlaciones entre las variables, que se presenta a
continuación:
X1 ª1.00 º
X2 «0.54 1.00 »
« »
X 3 «0.43 0.56 1.00 »
« »
X 4 «0.59 0.50 0.53 1.00 »
X 5 «0.24 0.25 0.47 0.32 1.00 »
R « »
X 6 «0.26 0.39 0.44 0.49 0.59 1.00 »
X 7 «0.20 0.34 0.24 0.30 0.05 0.24 1.00 »
« »
X 8 «0.12 0.39 0.18 0.16 0.05 0.15 0.60 1.00 »
X 9 «0.11 0.36 0.26 0.19 0.38 0.48 0.16 0.15 1.00 »
« »
X 10 ¬«0.25 0.53 0.39 0.28 0.27 0.50 0.35 0.29 0.70 1.00¼»
Capítulo 5: Análisis Factorial
1. Introducción
El análisis factorial (AF) es una técnica que tiene como objetivo
transformar un conjunto de p variables observadas X1, X2, ..., Xp que están
relacionadas en otro conjunto de q factores f1, f2, ..., fq que las resuman. Se
pretende explicar e interpretar la covariación existente entre las variables en
función de los factores que subyacen a dicha covarianza. El ACP y el AF a
menudo se confunden. La diferencia básica entre ambos es que en el ACP no
se asume ningún modelo estadístico (Kendall, 1980) y el objetivo es explicar
la varianza total de las variables mientras que el AF necesita asumir
diferentes supuestos pues se basa en un modelo estadístico y el objetivo que
se pretende es explicar la estructura de covarianza de las variables
observadas. Asimismo, el AF utiliza pruebas de bondad de ajuste para
valorar el grado en que el modelo estimado reproduce los datos observados
(para más detalles sobre las diferencias entre el AF y el ACP véase Tatsuoka
y Lohnes, 1988).
El AF ha sido especialmente utilizado en psicología y otras ciencias
sociales. Sin embargo, su uso ha provocado cierta controversia y algunos
autores incluso lo desaconsejan (véase Reyment, Balckith y Campbell, 1984
para un revisión sobre este tema). Pese a esta controversia, el AF se sigue
empleando porque resulta útil para reducir la información relativa a un
conjunto inicial de variables y definir constructos. Existe un gran número de
manuales sobre análisis factorial. Entre otros, el clásico de Mulaik (1972) y
los de Basilevsky (1994) y Lewis-Beck (1994). En castellano, puede
consultarse el de Ferrando (1993) y el de García, Gil y Rodríguez (2000).
El modelo factorial general puede escribirse (en puntuaciones
diferenciales) mediante:
X1 = O11 f1 + O12 f2 + … + O1q fq + H1
X.2 = O21 f1 + O22 f2 + … + O2q fq + H2
..
Xp = Op1 f1 + Op2 f2 + … + Opq fq + Hp (5.1)
En notación matricial:
X = /f + H (5.2)
Donde:
X = [X1, X2, ..., Xp] es el vector de p variables observadas con media 0 y
matriz de covarianzas 6.
f = [f1, f2, ..., fq] es un vector de q factores con media 0 y matriz de
covarianzas I.
98 FUNDAMENTOS DE LAS TÉCNICAS MULTIVARIANTES
(1)
Nótese que en el ACP no se hace distinción entre parte común y residual, pues se reproduce
la varianza total de las variables que intervienen en el análisis.
100 FUNDAMENTOS DE LAS TÉCNICAS MULTIVARIANTES
3 son muy pequeños (0.33 y 0.14). Si en lugar de tomar todos los factores
sólo se considera el primero, la matriz de saturaciones es:
ª0.951º h12 0.9512 0.904; \1 0.096
/ «0.910» . Donde ° 2
®h2 0.910 2 0.828; \ 2 0.172 y O1/p = 2.522/3 = 0.84
« »
«¬0.888»¼ °h 2 0.888 2 0.789; \3 0.211
¯ 3
Por tanto:
ª 0 .78 0 .83 0 .78 º
R * « 0 .83 0 .69 0 .67 »»
«
«¬ 0 .78 0 .67 0 .61 »¼
np
n tr « 6
2 ¬« ¨ ¦ ( X i X )( X i X )' n ( X P )( X P )' ¸¸ »»
© ¹¼
L(P , 6 ) ( 2S ) 2
6 2 e i 1
§ 1 · ª 1 §¨ ·º
n
1
( n 1) p
n 1
© 2 ¹ «¬
¦
¨ ¸ tr « 6 ¨ ( X i X )( X i X )' ¸¸ »
p
1 § n· 1
¨ ¸ ( X P ) 6 ( X P )'
©i 1 ¹ »¼ © 2¹
(2S ) 2
6 2 e u (2S ) 2
6 2 e
tengan un valor de unicidad alto reciban un peso menor que aquellas que
tengan un valor bajo de unicidad. Tanto este método como el método MV
generan una prueba de bondad de ajuste chi-cuadrado.
Los dos primeros métodos se caracterizan por maximizar la varianza
explicada y los dos últimos por ser iterativos y ofrecer una prueba de
significación estadística para valorar si el modelo factorial obtenido se ajusta
adecuadamente a las correlaciones observadas.
¦¦r
iz j
2
ij
KMO
¦¦r
iz j
2
ij ¦¦a
iz j
2
ij
2.0
Autovalor
1.5
1.0
.5
0.0
1 2 3 4 5 6 7
Número de factor
razón se han desarrollado otros índices que evalúan el ajuste relativo del
modelo. Entre los más empleados están el índice RMSEA de Steiger y Lind
(1980) y Steiger (1990) y el índice NNFI de Tucker y Lewis (1973). El
primero consiste en la raíz cuadrada del cociente [(X2 – gl) / N] / gl. Según
Browne y Cudeck (1992) valores inferiores a 0.05 indican un buen ajuste
global, entre 0.05 y 0.08 un ajuste razonable, entre 0.08 y 0.10 un ajuste
moderado y superiores a 0.10 un ajuste mediocre.
También es conveniente realizar un análisis detallado de los residuos de
los elementos que se encuentran fuera de la diagonal principal de la matriz
Re. Según Harman (1980), existe un buen ajuste si los residuos no toman
valores absolutos mayores que 0.05.
5. Rotación de factores
La rotación de la solución factorial se realiza para mejorar la
interpretación de los valores que presenta la matriz factorial (/ /) tras la
extracción. Esta idea la propuso Thurstone (1935) para solucionar el
problema de la situación topológica de los factores. Su conocido “principio
de estructura simple” plantea que se obtengan factores con algunas
saturaciones muy altas y muchas saturaciones bajas y además que: 1) cada
fila tenga al menos un 0; 2) si se han extraído q factores, que cada columna
tenga al menos q ceros; 3) cada par de columnas tenga variables cuyas
saturaciones sean altas en una pero no en otra; (4) si hay 4 ó más factores,
cada par de columnas tenga muchas variables con saturaciones nulas en
ambas; y (5) que para cada par de columnas haya pocas variables con
saturaciones no nulas en ambas.
/R /T
ª cos T sen T º
si los ejes se rotan en el sentido del reloj
T « sen T
¬ cos T »¼
y T ª cos T sen T º
si se rotan en sentido contrario al reloj
« sen T co s T »¼
¬
Gráficamente:
ANÁLISIS FACTORIAL 111
F2 F*2
1-
z
z
0,5 -
¨¨
20º
0,5 1
F1
z
z
-0,5 - F*1
-1 -
fˆ ˆ 1 /ˆ ) 1 /ˆ ' <
( /ˆ ' < ˆ 1 X
fˆ / ' S 1 X
(2)
En el método MV, las saturaciones han de satisfacer la condición ' = /' <-1/. Por tanto
fˆ '1/ ˆ 1X. Con el método de extracción CP, los \i son iguales. Por tanto: fˆ /
ˆ '< ˆ '/
ˆ<ˆ 1X.
(3)
El método de Anderson-Rubin es una modificación del de Bartlett, que asegura la
independencia de los factores estimados.
114 FUNDAMENTOS DE LAS TÉCNICAS MULTIVARIANTES
7. Ejemplo
Matriz de saturaciones:
ANÁLISIS FACTORIAL 115
Sus autovalores son: O ' >3.148 1.218 0.743 0.662 0.579 0.425 0.225@ .
116 FUNDAMENTOS DE LAS TÉCNICAS MULTIVARIANTES
Gráfico de sedimentación
3.5
3.0
2.5
Autovalor
2.0
1.5
1.0
.5
0.0
1 2 3 4 5 6 7
Número de factor
FACTOR
/MATRIX=in(COR=*)
/MISSING LISTWISE /ANALYSIS X1 X2 X3
/PRINT INITIAL EXTRACTION CORRELATION SIG DET KMO
/PLOT EIGEN
/CRITERIA MINEIGEN(1) ITERATE(25)
/EXTRACTION PAF
/METHOD=CORRELATION .
(4)
Los resultados son similares. Por simplicidad, no se incluyen los cálculos.
El lector puede realizarlos mediante el lenguaje MATRIX.
ANÁLISIS FACTORIAL 119
Matriz de correlaciones a
X1 X2 X3
Correlación X1 1.000 .830 .780
X2 .830 1.000 .670
X3 .780 .670 1.000
Sig. (Unilateral) X1 .000 .000
X2 .000 .000
X3 .000 .000
a. Determinante = .121
Comunalidades
Inicial Extracción
X1 .780 .963
X2 .690 .714
X3 .610 .630
Método de extracción: Factorización de Ejes principales.
Gráfico de sedimentación
3.0
2.5
2.0
Autovalor
1.5
1.0
.5
0.0
1 2 3
Número de factor
Matriz factorial a
Factor
1
X1 .982
X2 .845
X3 .794
Método de extracción: Factorización del eje principal.
a. 1 factores extraídos. Requeridas 13 iteraciones.
La sintaxis para llevar a cabo el AF con los datos del ejemplo de dos
factores con método de extracción por máxima verosimilitud y rotación
varimax es la siguiente:
ANÁLISIS FACTORIAL 121
FACTOR
/MATRIX=in(COR=*)
/MISSING LISTWISE /ANALYSIS X1 X2 X3 X4 X5 X6 X7
/PRINT INITIAL EXTRACTION CORRELATION SIG DET KMO REPR
ROTATION
/PLOT EIGEN ROTATION
/CRITERIA MINEIGEN(1) ITERATE(25)
/EXTRACTION ML
/ROTATION VARIMAX
/METHOD=CORRELATION .
X1 X2 X3 X4 X5 X6 X7
Correlación X1 1.000 -.475 .763 .599 -.188 .309 .310
X2 -.475 1.000 -.534 -.440 .201 -.209 -.232
X3 .763 -.534 1.000 .626 -.141 .236 .233
X4 .599 -.440 .626 1.000 -.203 .261 .216
X5 -.188 .201 -.141 -.203 1.000 -.310 -.270
X6 .309 -.209 .236 .261 -.310 1.000 .347
X7 .310 -.232 .233 .216 -.270 .347 1.000
Sig. (Unilateral X1 .000 .000 .000 .004 .000 .000
X2 .000 .000 .000 .002 .001 .000
X3 .000 .000 .000 .023 .000 .000
X4 .000 .000 .000 .002 .000 .001
X5 .004 .002 .023 .002 .000 .000
X6 .000 .001 .000 .000 .000 .000
X7 .000 .000 .000 .001 .000 .000
a. Determinante = .104
Inicial Extracción
X1 .628 .709
X2 .323 .352
X3 .652 .853
X4 .447 .492
X5 .146 .254
X6 .210 .379
X7 .193 .311
Método de extracción: Máxima verosimilitud.
Gráfico de sedimentación
3.5
3.0
2.5
Autovalor
2.0
1.5
1.0
.5
0.0
1 2 3 4 5 6 7
Número de factor
Matriz factorial a
Factor
1 2
X1 .841 .041
X2 -.589 -.070
X3 .913 -.142
X4 .700 .049
X5 -.225 -.451
X6 .337 .515
X7 .326 .452
Método de extracción: Máxima verosimilitud.
a. 2 factores extraídos. Requeridas 6 iteraciones.
Factor 1 2
1 .963 .271
2 -.271 .963
Método de extracción: Máxima verosimilitud.
Método de rotación: Normalización Varimax con Kaiser.
124 FUNDAMENTOS DE LAS TÉCNICAS MULTIVARIANTES
Factor
1 2
X1 .798 .267
X2 -.548 -.227
X3 .917 .111
X4 .660 .237
X5 -.095 -.496
X6 .185 .587
X7 .192 .523
Método de extracción: Máxima verosimilitud.
Método de rotación: Normalización Varimax con Kaiser.
a. La rotación ha convergido en 3 iteraciones.
x6
x7
.5
x4 x1
Factor 2
x3
0.0
x2
x5
-.5
-1.0
-1.0 -.5 0.0 .5 1.0
Factor 1
Chi-cuadrado gl Sig.
3.683 8 .885
Correlaciones reproducidas
X1 X2 X3 X4 X5 X6 X7
Correlación reproducida X1 .7088b -.4984 .7617 .5906 -.2078 .3044 .2929
X2 -.4984 .3522b -.5280 -.4159 .1642 -.2345 -.2239
X3 .7617 -.5280 .8530b .6319 -.1417 .2346 .2341
X4 .5906 -.4159 .6319 .4923b -.1798 .2612 .2507
X5 -.2078 .1642 -.1417 -.1798 .2545b -.3086 -.2774
X6 .3044 -.2345 .2346 .2612 -.3086 .3793b .3429
X7 .2929 -.2239 .2341 .2507 -.2774 .3429 .3106b
Residuala X1 .0238 .0010 .0081 .0197 .0043 .0169
X2 .0238 -.0056 -.0238 .0366 .0253 -.0080
X3 .0010 -.0056 -.0057 .0009 .0014 -.0013
X4 .0081 -.0238 -.0057 -.023 -.0006 -.0348
X5 .0197 .0366 .0009 -.0233 -.0011 .0079
X6 .0043 .0253 .0014 -.0006 -.001 .0044
X7 .0169 -.0080 -.0013 -.0348 .0079 .0044
Método de extracción: Máxima verosimilitud.
a. Los residuos se calculan entre las correlaciones observadas y reproducidas. Hay 0 (.0%)
residuos no redundantes con valores absolutos > 0,05.
b. Comunalidades reproducidas
9. Ejercicios
X1 ª 4 2 10 º
S X 2 «« 2 2 7 »»
X 3 «¬ 10 7 36 »¼
³ e x /2
dx
f
2ʌ
zi
z 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
0.0 0.5000 0.5040 0.5080 0.5120 0.5160 0.5199 0.5239 0.5279 0.5319 0.5359
0.1 0.5398 0.5438 0.5478 0.5517 0.5557 0.5596 0.5636 0.5675 0.5714 0.5753
0.2 0.5793 0.5832 0.5871 0.5910 0.5948 0.5987 0.6026 0.6064 0.6103 0.6141
0.3 0.6179 0.6217 0.6255 0.6293 0.6331 0.6368 0.6406 0.6443 0.6480 0.6517
0.4 0.6554 0.6591 0.6628 0.6664 0.6700 0.6736 0.6772 0.6808 0.6844 0.6879
0.5 0.6915 0.6950 0.6985 0.7019 0.7054 0.7088 0.7123 0.7157 0.7190 0.7224
0.6 0.7257 0.7291 0.7324 0.7357 0.7389 0.7422 0.7454 0.7486 0.7517 0.7549
0.7 0.7580 0.7611 0.7642 0.7673 0.7704 0.7734 0.7764 0.7794 0.7823 0.7852
0.8 0.7881 0.7910 0.7939 0.7967 0.7995 0.8023 0.8051 0.8078 0.8106 0.8133
0.9 0.8159 0.8186 0.8212 0.8238 0.8264 0.8289 0.8315 0.8340 0.8365 0.8389
1.0 0.8413 0.8438 0.8461 0.8485 0.8508 0.8531 0.8554 0.8577 0.8599 0.8621
1.1 0.8643 0.8665 0.8686 0.8708 0.8729 0.8749 0.8770 0.8790 0.8810 0.8830
1.2 0.8849 0.8869 0.8888 0.8907 0.8925 0.8944 0.8962 0.8980 0.8997 0.9015
1.3 0.9032 0.9049 0.9066 0.9082 0.9099 0.9115 0.9131 0.9147 0.9162 0.9177
1.4 0.9192 0.9207 0.9222 0.9236 0.9251 0.9265 0.9279 0.9292 0.9306 0.9319
1.5 0.9332 0.9345 0.9357 0.9370 0.9382 0.9394 0.9406 0.9418 0.9429 0.9441
1.6 0.9452 0.9463 0.9474 0.9484 0.9495 0.9505 0.9515 0.9525 0.9535 0.9545
1.7 0.9554 0.9564 0.9573 0.9582 0.9591 0.9599 0.9608 0.9616 0.9625 0.9633
1.8 0.9641 0.9649 0.9656 0.9664 0.9671 0.9678 0.9686 0.9693 0.9699 0.9706
1.9 0.9713 0.9719 0.9726 0.9732 0.9738 0.9744 0.9750 0.9756 0.9761 0.9767
2.0 0.9772 0.9778 0.9783 0.9788 0.9793 0.9798 0.9803 0.9808 0.9812 0.9817
2.1 0.9821 0.9826 0.9830 0.9834 0.9838 0.9842 0.9846 0.9850 0.9854 0.9857
2.2 0.9861 0.9864 0.9868 0.9871 0.9875 0.9878 0.9881 0.9884 0.9887 0.9890
2.3 0.9893 0.9896 0.9898 0.9901 0.9904 0.9906 0.9909 0.9911 0.9913 0.9916
2.4 0.9918 0.9920 0.9922 0.9925 0.9927 0.9929 0.9931 0.9932 0.9934 0.9936
2.5 0.9938 0.9940 0.9941 0.9943 0.9945 0.9946 0.9948 0.9949 0.9951 0.9952
2.6 0.9953 0.9955 0.9956 0.9957 0.9959 0.9960 0.9961 0.9962 0.9963 0.9964
2.7 0.9965 0.9966 0.9967 0.9968 0.9969 0.9970 0.9971 0.9972 0.9973 0.9974
2.8 0.9974 0.9975 0.9976 0.9977 0.9977 0.9978 0.9979 0.9979 0.9980 0.9981
2.9 0.9981 0.9982 0.9982 0.9983 0.9984 0.9984 0.9985 0.9985 0.9986 0.9986
3.0 0.9987 0.9987 0.9987 0.9988 0.9988 0.9989 0.9989 0.9989 0.9990 0.9990
3.1 0.9990 0.9991 0.9991 0.9991 0.9992 0.9992 0.9992 0.9992 0.9993 0.9993
3.2 0.9993 0.9993 0.9994 0.9994 0.9994 0.9994 0.9994 0.9995 0.9995 0.9995
3.3 0.9995 0.9995 0.9995 0.9996 0.9996 0.9996 0.9996 0.9996 0.9996 0.9997
3.4 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9998
3.5 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998
3.6 0.9998 0.9998 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999
3.7 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999
3.8 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999
3.9 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000
Fórmula:
F ( x)
§n· ³f ¨¨©1 n ¸¸¹ dy
nS ī¨ ¸
ti ©2¹
gl 0.50 0.60 0.70 0.75 0.80 0.90 0.95 0.975 0.99 0.995
1 0.000 0.325 0.727 1.000 1.376 3.078 6.314 12.706 31.821 63.657
2 0.000 0.289 0.617 0.816 1.061 1.886 2.920 4.303 6.965 9.925
3 0.000 0.277 0.584 0.765 0.978 1.638 2.353 3.182 4.541 5.841
4 0.000 0.271 0.569 0.741 0.941 1.533 2.132 2.776 3.747 4.604
5 0.000 0.267 0.559 0.727 0.920 1.476 2.015 2.571 3.365 4.032
6 0.000 0.265 0.553 0.718 0.906 1.440 1.943 2.447 3.143 3.707
7 0.000 0.263 0.549 0.711 0.896 1.415 1.895 2.365 2.998 3.499
8 0.000 0.262 0.546 0.706 0.889 1.397 1.860 2.306 2.896 3.355
9 0.000 0.261 0.543 0.703 0.883 1.383 1.833 2.262 2.821 3.250
10 0.000 0.260 0.542 0.700 0.879 1.372 1.812 2.228 2.764 3.169
11 0.000 0.260 0.540 0.697 0.876 1.363 1.796 2.201 2.718 3.106
12 0.000 0.259 0.539 0.695 0.873 1.356 1.782 2.179 2.681 3.055
13 0.000 0.259 0.538 0.694 0.870 1.350 1.771 2.160 2.650 3.012
14 0.000 0.258 0.537 0.692 0.868 1.345 1.761 2.145 2.624 2.977
15 0.000 0.258 0.536 0.691 0.866 1.341 1.753 2.131 2.602 2.947
16 0.000 0.258 0.535 0.690 0.865 1.337 1.746 2.120 2.583 2.921
17 0.000 0.257 0.534 0.689 0.863 1.333 1.740 2.110 2.567 2.898
18 0.000 0.257 0.534 0.688 0.862 1.330 1.734 2.101 2.552 2.878
19 0.000 0.257 0.533 0.688 0.861 1.328 1.729 2.093 2.539 2.861
20 0.000 0.257 0.533 0.687 0.860 1.325 1.725 2.086 2.528 2.845
21 0.000 0.257 0.532 0.686 0.859 1.323 1.721 2.080 2.518 2.831
22 0.000 0.256 0.532 0.686 0.858 1.321 1.717 2.074 2.508 2.819
23 0.000 0.256 0.532 0.685 0.858 1.319 1.714 2.069 2.500 2.807
24 0.000 0.256 0.531 0.685 0.857 1.318 1.711 2.064 2.492 2.797
25 0.000 0.256 0.531 0.684 0.856 1.316 1.708 2.060 2.485 2.787
26 0.000 0.256 0.531 0.684 0.856 1.315 1.706 2.056 2.479 2.779
27 0.000 0.256 0.531 0.684 0.855 1.314 1.703 2.052 2.473 2.771
28 0.000 0.256 0.530 0.683 0.855 1.313 1.701 2.048 2.467 2.763
29 0.000 0.256 0.530 0.683 0.854 1.311 1.699 2.045 2.462 2.756
30 0.000 0.256 0.530 0.683 0.854 1.310 1.697 2.042 2.457 2.750
40 0.000 0.255 0.529 0.681 0.851 1.303 1.684 2.021 2.423 2.704
50 0.000 0.255 0.528 0.679 0.849 1.299 1.676 2.009 2.403 2.678
60 0.000 0.254 0.527 0.679 0.848 1.296 1.671 2.000 2.390 2.660
70 0.000 0.254 0.527 0.678 0.847 1.294 1.667 1.994 2.381 2.648
80 0.000 0.254 0.526 0.678 0.846 1.292 1.664 1.990 2.374 2.639
90 0.000 0.254 0.526 0.677 0.846 1.291 1.662 1.987 2.368 2.632
100 0.000 0.254 0.526 0.677 0.845 1.290 1.660 1.984 2.364 2.626
200 0.000 0.254 0.525 0.676 0.843 1.286 1.653 1.972 2.345 2.601
500 0.000 0.253 0.525 0.675 0.842 1.283 1.648 1.965 2.334 2.586
f 0.000 0.253 0.524 0.674 0.842 1.282 1.645 1.960 2.326 2.576
p
F 2 gl 1 x
F (x) ³ y(n2 )1 e y/ 2dy
Fórmula: §n· f
2n/ 2 ī¨ ¸
0 F2 +f © 2¹
p
g.l. 0.005 0.01 0.025 0.05 0.10 0.90 0.95 0.975 0.98 0.99 0.995 0.999
1 0.00 0.00 0.00 0.00 0.02 2.71 3.84 5.02 5.41 6.63 7.88 10.83
2 0.01 0.02 0.05 0.10 0.21 4.61 5.99 7.38 7.82 9.21 10.60 13.82
3 0.07 0.11 0.22 0.35 0.58 6.25 7.81 9.35 9.84 11.34 12.84 16.27
4 0.21 0.30 0.48 0.71 1.06 7.78 9.49 11.14 11.67 13.28 14.86 18.47
5 0.41 0.55 0.83 1.15 1.61 9.24 11.07 12.83 13.39 15.09 16.75 20.52
6 0.68 0.87 1.24 1.64 2.20 10.64 12.59 14.45 15.03 16.81 18.55 22.46
7 0.99 1.24 1.69 2.17 2.83 12.02 14.07 16.01 16.62 18.48 20.28 24.32
8 1.34 1.65 2.18 2.73 3.49 13.36 15.51 17.53 18.17 20.09 21.95 26.12
9 1.73 2.09 2.70 3.33 4.17 14.68 16.92 19.02 19.68 21.67 23.59 27.88
10 2.16 2.56 3.25 3.94 4.87 15.99 18.31 20.48 21.16 23.21 25.19 29.59
11 2.60 3.05 3.82 4.57 5.58 17.28 19.68 21.92 22.62 24.72 26.76 31.26
12 3.07 3.57 4.40 5.23 6.30 18.55 21.03 23.34 24.05 26.22 28.30 32.91
13 3.57 4.11 5.01 5.89 7.04 19.81 22.36 24.74 25.47 27.69 29.82 34.53
14 4.07 4.66 5.63 6.57 7.79 21.06 23.68 26.12 26.87 29.14 31.32 36.12
15 4.60 5.23 6.26 7.26 8.55 22.31 25.00 27.49 28.26 30.58 32.80 37.70
16 5.14 5.81 6.91 7.96 9.31 23.54 26.30 28.85 29.63 32.00 34.27 39.25
17 5.70 6.41 7.56 8.67 10.09 24.77 27.59 30.19 31.00 33.41 35.72 40.79
18 6.26 7.01 8.23 9.39 10.86 25.99 28.87 31.53 32.35 34.81 37.16 42.31
19 6.84 7.63 8.91 10.12 11.65 27.20 30.14 32.85 33.69 36.19 38.58 43.82
20 7.43 8.26 9.59 10.85 12.44 28.41 31.41 34.17 35.02 37.57 40.00 45.31
21 8.03 8.90 10.28 11.59 13.24 29.62 32.67 35.48 36.34 38.93 41.40 46.80
22 8.64 9.54 10.98 12.34 14.04 30.81 33.92 36.78 37.66 40.29 42.80 48.27
23 9.26 10.20 11.69 13.09 14.85 32.01 35.17 38.08 38.97 41.64 44.18 49.73
24 9.89 10.86 12.40 13.85 15.66 33.20 36.42 39.36 40.27 42.98 45.56 51.18
25 10.52 11.52 13.12 14.61 16.47 34.38 37.65 40.65 41.57 44.31 46.93 52.62
26 11.16 12.20 13.84 15.38 17.29 35.56 38.89 41.92 42.86 45.64 48.29 54.05
27 11.81 12.88 14.57 16.15 18.11 36.74 40.11 43.19 44.14 46.96 49.64 55.48
28 12.46 13.56 15.31 16.93 18.94 37.92 41.34 44.46 45.42 48.28 50.99 56.89
29 13.12 14.26 16.05 17.71 19.77 39.09 42.56 45.72 46.69 49.59 52.34 58.30
30 13.79 14.95 16.79 18.49 20.60 40.26 43.77 46.98 47.96 50.89 53.67 59.70
(Continuación de la tabla 2)
n1: grados de libertad del numerador; n2: grados de libertad del denominador. Probabilidad acumulada: 1 - D = 0.99
n2 \ n1 1 2 3 4 5 6 7 8 9 10 12 15 20 24 30 40 60 120 f
2 98.50 99.00 99.17 99.25 99.30 99.33 99.36 99.37 99.39 99.40 99.42 99.43 99.45 99.46 99.47 99.47 99.48 99.49 19.50
3 34.12 30.82 29.46 28.71 28.24 27.91 27.67 27.49 27.35 27.23 27.05 26.87 26.69 26.60 26.50 26.41 26.32 26.22 8.53
4 21.20 18.00 16.69 15.98 15.52 15.21 14.98 14.80 14.66 14.55 14.37 14.20 14.02 13.93 13.84 13.75 13.65 13.56 5.63
5 16.26 13.27 12.06 11.39 10.97 10.67 10.46 10.29 10.16 10.05 9.89 9.72 9.55 9.47 9.38 9.29 9.20 9.11 4.36
6 13.75 10.92 9.78 9.15 8.75 8.47 8.26 8.10 7.98 7.87 7.72 7.56 7.40 7.31 7.23 7.14 7.06 6.97 3.67
7 12.25 9.55 8.45 7.85 7.46 7.19 6.99 6.84 6.72 6.62 6.47 6.31 6.16 6.07 5.99 5.91 5.82 5.74 3.23
8 11.26 8.65 7.59 7.01 6.63 6.37 6.18 6.03 5.91 5.81 5.67 5.52 5.36 5.28 5.20 5.12 5.03 4.95 2.93
9 10.56 8.02 6.99 6.42 6.06 5.80 5.61 5.47 5.35 5.26 5.11 4.96 4.81 4.73 4.65 4.57 4.48 4.40 2.71
10 10.04 7.56 6.55 5.99 5.64 5.39 5.20 5.06 4.94 4.85 4.71 4.56 4.41 4.33 4.25 4.17 4.08 4.00 2.54
11 9.65 7.21 6.22 5.67 5.32 5.07 4.89 4.74 4.63 4.54 4.40 4.25 4.10 4.02 3.94 3.86 3.78 3.69 2.40
12 9.33 6.93 5.95 5.41 5.06 4.82 4.64 4.50 4.39 4.30 4.16 4.01 3.86 3.78 3.70 3.62 3.54 3.45 2.30
13 9.07 6.70 5.74 5.21 4.86 4.62 4.44 4.30 4.19 4.10 3.96 3.82 3.66 3.59 3.51 3.43 3.34 3.25 2.21
14 8.86 6.51 5.56 5.04 4.69 4.46 4.28 4.14 4.03 3.94 3.80 3.66 3.51 3.43 3.35 3.27 3.18 3.09 2.13
15 8.68 6.36 5.42 4.89 4.56 4.32 4.14 4.00 3.89 3.80 3.67 3.52 3.37 3.29 3.21 3.13 3.05 2.96 2.07
16 8.53 6.23 5.29 4.77 4.44 4.20 4.03 3.89 3.78 3.69 3.55 3.41 3.26 3.18 3.10 3.02 2.93 2.84 2.01
17 8.40 6.11 5.18 4.67 4.34 4.10 3.93 3.79 3.68 3.59 3.46 3.31 3.16 3.08 3.00 2.92 2.83 2.75 1.96
18 8.29 6.01 5.09 4.58 4.25 4.01 3.84 3.71 3.60 3.51 3.37 3.23 3.08 3.00 2.92 2.84 2.75 2.66 1.92
19 8.18 5.93 5.01 4.50 4.17 3.94 3.77 3.63 3.52 3.43 3.30 3.15 3.00 2.92 2.84 2.76 2.67 2.58 1.88
20 8.10 5.85 4.94 4.43 4.10 3.87 3.70 3.56 3.46 3.37 3.23 3.09 2.94 2.86 2.78 2.69 2.61 2.52 1.84
21 8.02 5.78 4.87 4.37 4.04 3.81 3.64 3.51 3.40 3.31 3.17 3.03 2.88 2.80 2.72 2.64 2.55 2.46 1.81
22 7.95 5.72 4.82 4.31 3.99 3.76 3.59 3.45 3.35 3.26 3.12 2.98 2.83 2.75 2.67 2.58 2.50 2.40 1.78
23 7.88 5.66 4.76 4.26 3.94 3.71 3.54 3.41 3.30 3.21 3.07 2.93 2.78 2.70 2.62 2.54 2.45 2.35 1.76
24 7.82 5.61 4.72 4.22 3.90 3.67 3.50 3.36 3.26 3.17 3.03 2.89 2.74 2.66 2.58 2.49 2.40 2.31 1.73
25 7.77 5.57 4.68 4.18 3.85 3.63 3.46 3.32 3.22 3.13 2.99 2.85 2.70 2.62 2.54 2.45 2.36 2.27 1.71
26 7.72 5.53 4.64 4.14 3.82 3.59 3.42 3.29 3.18 3.09 2.96 2.81 2.66 2.58 2.50 2.42 2.33 2.23 1.69
27 7.68 5.49 4.60 4.11 3.78 3.56 3.39 3.26 3.15 3.06 2.93 2.78 2.63 2.55 2.47 2.38 2.29 2.20 1.67
28 7.64 5.45 4.57 4.07 3.75 3.53 3.36 3.23 3.12 3.03 2.90 2.75 2.60 2.52 2.44 2.35 2.26 2.17 1.65
29 7.60 5.42 4.54 4.04 3.73 3.50 3.33 3.20 3.09 3.00 2.87 2.73 2.57 2.49 2.41 2.33 2.23 2.14 1.64
30 7.56 5.39 4.51 4.02 3.70 3.47 3.30 3.17 3.07 2.98 2.84 2.70 2.55 2.47 2.39 2.30 2.21 2.11 1.62
40 7.31 5.18 4.31 3.83 3.51 3.29 3.12 2.99 2.89 2.80 2.66 2.52 2.37 2.29 2.20 2.11 2.02 1.92 1.51
60 7.08 4.98 4.13 3.65 3.34 3.12 2.95 2.82 2.72 2.63 2.50 2.35 2.20 2.12 2.03 1.94 1.84 1.73 1.39
120 6.85 4.79 3.95 3.48 3.17 2.96 2.79 2.66 2.56 2.47 2.34 2.19 2.03 1.95 1.86 1.76 1.66 1.53 1.25
f 3.94 3.00 2.60 2.37 2.21 2.10 2.01 1.94 1.88 1.83 1.75 1.67 1.57 1.52 1.46 1.39 1.32 1.22 1.00
ISBN 84-362-5059-1
361 95
9 788436 25 05 96