Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Y = XB0 + U
siendo E (U ) = 0. En esta expresin del modelo lineal ahora permitimos que Y sea una matriz de respuestas, donde cada la representa a un individuo y cada columna a una variable. Desplegando las matrices quedara: Y11 Y1d x11 x1p 11 1d U11 U1d = + Yn1 Ynd xn1 xnp p1 pd Un1 Und Ntese que si d = 1 obtenemos el modelo lineal con respuesta univariante estudiado en la asignatura "Modelos de regresin".
Y XB = Y
que de nuevo se puede ver como n vectores de dimensin d. Pues bien, buscamos B tal que estos n vectores sean tan pequeos como sea posible, lo cual en trminos de momentos de orden dos sera: Min(Y ) (Y ) En el caso de respuesta univariante (Y ) (Y ) es la suma de cuadrados, pero ahora es una matriz muy parecida a una matriz de covarianzas. Por tanto, nos aparece un nuevo problema, como es el de dotar de un orden a las matrices de covarianzas que justique la minimizacin. 29
30
Denicin Sean
C y D dos matrices simtricas y semidenidas positivas (matrices de covarianzas). Diremos que C D si C D es semidenida positiva.
Entendemos esta denicin al comprobar que C D ser semidenida positiva cuando y slo cuando al proyectar en cualquier direccin guiada por un vector v Rd , obtenemos
v t Cv v t Dv = v t (C D)v 0
esto es, que la proyeccin de C tiene mayor momento de orden dos (varianza) que la proyeccin de D. Ntese que la relacin de orden que acabamos de denir es una relacin de orden parcial. Si cada individuo puede tener una media propia sin ms modelo que la restrinja, Mnd , =Y. entonces podemos conseguir que todos los residuos valgan cero tomando Si el modelo consiste en que todos los individuos tienen la misma media, entonces {(, . . . , ) : Rd } se estima mediante la media muestral: 1 Y d Y = 1 Y d Y que a su vez es el estimador mnimo-cuadrtico. Nuestra situacin es intermedia, pues hay un modelo lineal que nos exige que = XB , esto es, que pertenezca al espacio de funciones lineales de las variables explicativas. La solucin a este problema en el caso de respuesta univariante consista en considerar la matriz de proyeccin ortogonal sobre dicho espacio: 1 P = X X X X siendo = R[X ] el espacio lineal generado por las columnas de X . De este modo, los estimadores por mnimos cuadrados resultaban de proyectar el vector de respuestas sobre dicho espacio
= P Y = X X X
X Y = XB
= XX B
XY
Vamos a ver que con esta misma expresin obtenemos el estimador por mnimos cuadrados con respuesta multivariante. En denitiva, que el problema multivariante se puede resolver a travs de los d problemas univariantes dados por las d columnas de Y , y B . As, para cualquier otro valor de R[X ] podemos expresar
(Y ) (Y ) = =
ya que
+ Y Y
+ Y
+ Y
De esta manera,
= (P Y P ) (Y P Y ) = (Y ) P (In P ) Y = 0 Y
(Y ) (Y ) Y
= Y
Anlisis Multivariante
31
que es una matriz semidenida positiva, y esto para cualquier valor de . Entonces, con la . relacin de orden que hemos denido, la matriz (Y ) (Y ) alcanza su mnimo en = Por ltimo, si suponemos que los n vectores de error tienen una matriz de covarianzas comn de orden d d, podemos considerar como estimador de :
Y Y E = np np
mediante el siguiente ejemplo simulado. Consideramos dos variables explicativas con la siguiente distribucin: X1 y X2 tienen distribucin uniforme en el intervalo [0, 1] y son independientes. Consideramos dos variables respuesta, construidas de la siguiente manera:
Y1 = 1 + 2X1 + X2 + U1 Y2 = 3 + X1 X2 + U2
Ejemplo 3.1 Vamos a ilustrar el modelo lineal multivariante y la estimacin de los parmetros,
siendo
U1 U2
N2
0 0
1 1 1 2
Vamos a extraer diez observaciones de este modelo, y en base a ellas estimar los coecientes de regresin y la matriz de covarianzas del error. Despus podemos cambiar el nmero de observaciones aumentando de 10 a 100, y comprobar la mejora de las estimaciones.
X E (Y ) = X X
X XB0 = B0
Suponemos que las las de U son incorrelacionadas, tienen media cero y matriz de covarianzas comn = (jk )j,k{1,...,d} . Vamos a calcular la matriz de covarianzas de los vectores de (j ) = ( 1j , . . . , pj ) y (k) = ( 1k , . . . , pk ) , con j, k {1, . . . , d}: coecientes estimados
(j ) , (k) Cov
= Cov = XX
XX
1
X Y (j ) , X X
1
X Y (k)
1
X jk In X X X
= jk X X
Cov Y (j ) , Y (k) = jk In
32
= 0 + U , donde las las de U estn incorrelacionadas, tienen media cero (j ) y el estimador y matriz de dispersin comn , y 0 = ((1) , . . . , (d) ). Sean = d j =1 bj por mnimos cuadrados de 0 , sujeto a que las columnas pertenecen a = R[X ]. = d b (j ) es el estimador lineal insesgado de con varianza mnima. Entonces
j =1 j
= E/(n p) es un estimador insesgado de . En el paso (a) usamos A continuacin, vemos que que = P Y , en el paso (b) esgrimimos que P 0 = 0 y en el paso (c) denotamos mediante ui a la la i-sima de U : E = = Y (In P ) Y = (Y 0 ) (In P ) (Y 0 ) Y u1 (c) . = U (In P ) U = (u1 , . . . , un ) (In P ) . . un
n n
(a)
(b)
=
i1 =1 i2 =1
Entonces,
n n
E (E ) =
i1 =1 i2 =1
U son independientes y tienen distribucin comn Nd (0, ), y X es una matriz n p de rango p. Entonces tiene distribucin normal de media y matriz de covarianzas segn hemos calculado. B y E = Y B son independientes. Y
E Wishartd (, n p)
Demostracin
Bajo las hiptesis de este teorema la matriz Y tiene distribucin normal mltiple. Recordamos que = X X 1 X Y B
tiene donde la matriz (X X )1 X es de orden p n y de rango p. En estas condiciones B distribucin normal cuya media y matriz de covarianzas ya han sido calculadas anteriormente.
Consideremos
Z = (In P ) Y,
que de hecho Z contiene los residuos de la regresin. Observamos que (X X )1 X (In P ) = 0, ya que (In P ) X = 0, por ser P la matriz de proyeccin ortogonal sobre el espacio generado y Z son independientes. por las columnas de X . Entonces deducimos que B
Anlisis Multivariante
y E son independientes. Por otro lado, podemos ver que E = Z Z y por tanto B
Y para terminar, escribimos E de esta manera:
33
E = U (In P ) U
y recordamos que las las de U son independientes y tienen distribucin comn Nd (0, ). Dado que la matriz (In P ) es simtrica, idempotente y de rango n p, concluimos que E Wishartd (, n p)
= 1E = 1 Y n n
H0 : AB = C
siendo A una matriz conocida q p de rango q ( p), y C una matriz conocida de orden q d. En estas circunstancias, si buscamos un estimador de mnimos cuadrados bajo restricciones, nos hallamos ante el problema de optimizacin
min(Y XB ) (Y XB ) sujeto a H0 : AB = C
La resolucin de este problema sigue un camino similar al empleado en el caso univariante, y de hecho el estimador adopta la forma:
H = B XX B
A A XX
C AB
H EH = Y
H = Y XB H Y
H Y XB
El siguiente objetivo ser el contraste de la hiptesis nula H0 : AB = C . Para ello, ser de utilidad el siguiente resultado.
Teorema 3.4
(a)
C EH E = AB A XX
1 1
C AB
34
|E | |E | = (d, q, n p) |E + H | |EH |
que tiene la distribucin indicada cuando la hiptesis nula es cierta. Esto se deduce del teorema anterior y la denicin de la distribucin de Wilks. Rechazaremos la hiptesis nula cuando la matriz de covarianzas debida a la hiptesis, H , sea grande en comparacin con la matriz de covarianzas debida al error, E , o lo que es lo mismo, cuando el estadstico de Wilks anterior sea pequeo. As, si el nivel de signicacin adoptado es , rechazaremos la hiptesis nula cuando el estadstico sea inferior al cuantil de la distribucin (d, q, n p).
Procedimiento de unin-interseccin
Recordemos qu entendemos por un test de unin-interseccin.
y = X + u
siendo y = Y a, = Ba y u = U a. Entonces u1 , . . . , un N (0, a a) y son independientes. Adems, H0 = a H0a siendo H0a : ABa = Ca, o equivalentemente H0a : A = c, con c = Ca. Aplicamos la teora univariante para el contraste de la hiptesis nula H0a : A = c. En tal caso, = Ba H = B , H a, y las sumas residuales de cuadrados se pueden expresar as:
Q = QH =
y X H y X
= a Ea y X H = a EH a y X
Anlisis Multivariante
y el test F adopta la forma:
35
Fa =
que sigue la distribucin Fq,np indicada si H0a es cierta. Por tanto, el test de unin-interseccin tiene como regin de aceptacin para la hiptesis nula H0 = a H0a :
{Fa k a} =
sup Fa k
a
sup
a
a Ha k1 a Ea
= {max k1 }
siendo max el mayor autovalor de HE 1 . Aqu se ha aplicado el resultado que dice: Si A es una a Aa matriz simtrica y D es una matriz simtrica denida positiva, entonces supa a Da = 1 siendo 1 1 1 1 / 2 1 el mayor autovalor de AD . Ntese que las matrices AD , D A y D AD1/2 tienen los mismos autovalores. Se acepta la hiptesis nula si max es pequeo, y se rechaza en caso contrario. Respecto de la distribucin de max , se han realizado bastantes trabajos encaminados a su determinacin o aproximacin. En ocasiones, en lugar de los autovalores de la matriz HE 1 , se consideran los autovalores de H (E + H )1 . Para ello, es preciso tener presente el siguiente resultado. Si 1 , . . . , d son los autovalores de HE 1 , entonces
1 =
son los autovalores de H (E + H )1 , y
1 d , . . . , d = 1 + 1 1 + d
1 1 = (1 d ) = (1 1 ) , . . . , 1 + 1 1 + d
son los autovalores de E (E + H )1 . De este modo, se obtiene un test equivalente si en lugar del mayor autovalor de HE 1 , que denotamos por max , se considera como estadstico de contraste el mayor autovalor de H (E + H )1 , que entonces sera max max = 1 + max Como la funcin que produce max a partir de max es creciente, el criterio sigue siendo aceptar H0 si max es pequeo y rechazar esta hiptesis si es grande. Para encontrar el valor que delimita la regin crtica podemos recurrir a las tablas del estadstico max , como la que viene en el libro de Seber (1984). Esta tabla empieza en s = min(d, q ) = 2, ya que para s = 1 pueden ocurrir dos cosas:
d = 1, en cuyo caso nos encontramos en la situacin univariante y por tanto se puede utilizar la distribucin F . q = 1, en este caso aproximamos la distribucin as max
d npd+1 Fd,npd+1 .
36
As,
= 2/n =
H =
|E | |E | = = |EH | |E + H |
d j =1
1 = 1 + j
(1 j )
j =1
siendo 1 , . . . , d los autovalores de HE 1 y 1 , . . . , d los autovalores de H (E + H )1 . Si H0 : AB = C es cierta, este estadstico sigue una distribucin
|E | (d, q, n p) |E + H |
Ntese que este test coincide con el propuesto como extensin del univariante.
|H | = |E + H |
2. La traza de Lawley-Hotelling
j
j =1
(suponiendo que q d)
d 2 Tg = (n p)traza HE 1 = (n p) j =1
j = (n p)
j =1
j 1 j
3. La traza de Pillai
d
(s)
= traza H (E + H )
=
j =1
Ejemplo 3.2 Se est realizando un estudio para establecer el efecto que producen la temperatura y la humedad sobre el desarrollo de dos especies de caro domstico. Se han diseado tres valores
Anlisis Multivariante
37
de temperatura y tres valores de humedad, y en cada uno de ellos se ha realizado el recuento de individuos de cada especie. Los resultados guran en la tabla siguiente: Temperatura Humedad Euroglyphus Dermatophagoides (en grados Celsius) (en porcentaje) maynei pteronyssinus 15 60 18 15 15 70 21 16 15 80 23 13 20 60 21 17 20 70 23 14 20 80 28 14 25 60 29 19 25 70 33 15 25 80 41 12 Vamos a ajustar un modelo de regresin lineal de los recuentos de las dos especies sobre la temperatura y la humedad. Despus contrastaremos la signicacin de la temperatura, esto es, si la temperatura tiene inuencia sobre el vector bivariante de recuentos, lo cual se traduce en el modelo lineal en trminos de que los coecientes asociados a la temperatura valgan cero.
3.5. Prediccin.
Un modelo de regresin, ya sea con respuesta univariante o multivariante, permite, en primer lugar, estimar la media de la distribucin de Y para cada valor de la variable explicativa x; en segundo lugar, prever futuros valores de la variable respuesta. Por supuesto, la variable explicativa puede ser mltiple (p > 1), y en este tema adems la variable respuesta tambin puede ser mltiple (d > 1). Tanto la estimacin de la media, como la prediccin del valor de Y se obtienen sustituyendo en el modelo de regresin el valor de x. Por tanto, sus valores numricos son idnticos. Sin embargo, la precisin de estas estimaciones es distinta, como veremos a continuacin.
0 = x0 B Y , se puede concluir Como consecuencia del Teorema 3.2 en lo que se reere a la distribucin de B que 0 = x B Nd x B, x X X 1 x0 Y
0 0 0
Adems, usando que E Wd (, n p), segn establece el mismo teorema, un pivote para
38
0 ) = E (Y0 ), pero ahora debemos pensar en la siguiente distribucin Es fcil ver que E (Y 0 Y0 Nd 0, 1 + x0 X X Y
y el pivote
1
x0
Y0 x0 B 1 + x0 (X X )1 x0
E np
Y0 x0 B 1 + x0 (X X )1 x0
2 (d, n p)
Ejemplo 3.3 Sobre el ejemplo anterior, referido a dos especies de caro domstico, realizaremos una prediccin del nmero de individuos de cada especie para una temperatura de 22o C y una humedad del 65%, y obtendremos una regin de conanza para la estimacin de la media en esas condiciones y otra para la prediccin, en ambos casos con un nivel de conanza del 95%.
Bibliografa.
Anderson, T.W. (2003). An introduction to multivariate statistical analysis. Wiley. Johnson, R.A. y Wichern, D.W. (1982). Applied multivariate statistical analysis. Prentice-Hall. Mardia, K.V., Kent, J.T. y Bibby, J.M. (1979). Multivariate analysis. Academic Press. Seber, G.A.F. (1984). Multivariate observations. Wiley.