Está en la página 1de 34

BIOMETRÍA II

ANALISIS MULTIVARIADO

CLASE 6
ANÁLISIS MULTIVARIADO DE
LA VARIANZA
Adriana Pérez – EGE, FCEN, UBA
2

 V. respuesta
 V.explicatoria
 5 anovas de un factor  tasa de error global (con =0,05 para cada anova) =
0,23
 Como todas las v. respuesta son medidas en las mismas UE y pueden estar
asociadas, múltiples anovas univariados no son independientes entre sí
Manova
3

 Es una extensión del anova univariado


 Más de una variable respuesta (Y1, Y2… Yp, cuantitativas) y una o más v.
explicatoria (X1, X2… Xi , cualitativas) medidas en las mismas UE

Y1, Y2, …,Yp= f(X1, X2,…, Xi) + error

 El objetivo es comparar la respuesta MV entre grupos (tratamientos)


 Los grupos deben estar predeterminados a priori
Manova vs varios Anovas univariados
4

 El análisis univariado ignora completamente la correlación entre las


v.respuesta, mientras que el MV hace uso de esa correlación. Por lo tanto,
puede llegar a detectar diferencias que el anova univariado no detecta
 Manova controla la probabilidad de cometer error de tipo I (error global o
tasa de error por experimento)
 Si las VR son independientes entre sí, Manova no aporta información
distinta a varios anovas univariados (aunque si se efectúan múltiples
anovas UV se debe aplicar corrección por múltiples tests)
Diferencias en rasgos morfométricos
según polimorfismos cromosómicos en
Dichroplus elongatus
5

 Este saltamontes considerado plaga presenta polimorfismos


cromosómicos (cromosomas B y segmentos supernumerarios) que se
sospecha podrían estar asociados a la morfología, a aspectos
comportamentales y al fitness
 Se muestrearon 134 individuos adultos en la localidad de Raco en la
yunga tucumana
 Se les midió longitud total, longitud de tórax, 3° tibia, 3° fémur y
tegmina (en cm)
 Se los caracterizó citogenéticamente: con cromosoma B (B), con
segmentos supernumerarios (SS6) o sin (N)
Descriptiva por grupos Centroides de cada grupo
y centroide total
Centroides MV

Outliers MV?
Distancia de Mahalanobis por grupo
ggpairs(saltamontes)

Comparación entre grupos


Relaciones lineales
Colinealidad
Outliers bivariados
Modelo
10

Hipótesis

 Es decir que los centroides poblacionales [medias poblacionales de las p


variables = medias MV] de los k grupos son iguales
 Es decir que no existe efecto del factor en relación a la combinación lineal
de las v.rta (αip = 0)
Manova: procedimiento
11

 Se genera una nueva v.rta que maximiza las diferencias entre grupos
 Esta nueva variable es una combinación lineal de las v.respuesta
medidas, combinadas de manera tal de separar los grupos tanto como
sea posible

 Entonces se efectúa la comparación con


esta nueva variable
 Como en ANOVA, se compararan medias,
en este caso MV (centroides),
dscomponiendo variabilidad
Más formalmente
12

 Se usa una combinación lineal (z) de las p variables respuesta


 Se busca la combinación que maximice el cociente de la varianza entre vs
varianza dentro de los grupos
 Esta combinación lineal se llama también función discriminante para la
diferencia entre grupos

zik  c0  c1 yi1  c2 yi 2  ....  c p yip

 Zik es el valor para el objeto i para la combinación lineal k, la combinación


que maximiza el cociente de la varianza entre vs varianza dentro de los
grupos de los Zik
 Ci son los coeficientes o pesos que miden la contribución de cada variable
original a la combinación lineal (autovector)
 ¿Cuántas combinaciones lineales? mín (p, grupos-1)
¿Cómo se halla la función
13
discriminante?
 Se calculan 3 matrices de sumas de cuadrados y productos cruzados (SCPC)
 SCPC entre tratamientos: matriz efecto H

 SCPC dentro o error: matriz residual E

 SCPC total: matriz total T

 SCentre 1 SPCentre12 ... SPCentre1 p   SCerror 1 SPCerror 12 ... SPCerror 1 p 


 SPC SCentre 2 ... SPCentre 2 p 
 SPC SCerror 2 ... SPCerror 2 p 
H  + E =
entre 21 error 21

 . . ... .   . . ... . 
   
 SPCentre p1 SPCp 2 ... SCentre p   SPCerror p1 SPCerror p 2 ... SCerror p 

 SCtotal 1 SPCtotal 12 ... SPCtotal 1 p 


 SPC SCtotal 2 ... SPCtotal 2 p 
T 
total 21

 . . ... . 
 
 SPCtotal p 1 SPCtotal p2 ... SCtotal p 
Matrices
SCPC Anova de un factor para Tegmina

H=

T=

SC error para Tegmina


= SC total – SC entre =
E=T-H = 101.99

14
Equivalente a la descomposición de SC en anova
¿Cómo se halla la función
15
discriminante?
 Se calcula la matriz HE-1, es decir el producto de la matriz H por la
inversa de E. Equivale al cociente de H (entre) y E (error), y equivale a la F
de anova
 De todas las combinaciones lineales posibles, se elige aquella que
maximiza el autovalor de HE-1 (maximiza el cociente F): función
discriminante
 El autovector de dicha combinación contiene los coeficientes o pesos de
cada variable original  contribución de cada variable en la separación
de los grupos
 Cantidad máxima de funciones discriminantes: mín (p, grupos-1)
Evaluando significación
16

 Lambda de Wilks ()


E
 Es una medida de cuánto de la varianza 
generalizada total se debe al error T
 Cuanto mayor diferencia entre centroides
de los grupos, menor 

 Traza Hotelling-Lawley
 Es una medida de cuánto de la varianza
generalizada total se explica por las H
Traza de Hotelling  
diferencias entre grupos E
 Cuanto mayor diferencia entre centroides  Tr( HE 1 )
de los grupos, mayor Traza
Evaluando significación (cont)
17

 Traza Pillai Traza de Pillai  Tr( HT 1 )


 Raíz de Roy
 Es el mayor autovalor de HT-1

 La distribución de probabilidades se aproxima a una F


 En general, los resultados son similares.
 Si hay sólo dos niveles de un factor, los 3 primeros producen resultados
idénticos
 Si hay más de 2, los resultados son similares, aunque la Traza de Pillai es
el más robusto a la heterocedasticidad
Supuestos del modelo
18

Como siempre, para poder efectuar inferencia es necesario chequear los


supuestos sobre los que se basa el cálculo de probabilidades.
Son los mismos del Anova, pero a nivel MV:
 Las muestras deben ser aleatorias y las observaciones efectuadas en las
distintas ue deben ser independientes entre sí
 Homocedasticidad: las matrices de varianza-covarianza deben ser iguales
en todos los tratamientos
 Normalidad: Las p variables dependientes deben seguir una distribución
normal multivariada en cada grupo
 Linealidad: Relaciones lineales entre variables

Los diseños desbalanceados son más sensibles al incumplimiento de los


supuestos
Normalidad multivariada
19

Prueba de Shapiro-Wilk para normalidad MV


Una prueba para cada grupo
Exploramos un poco más en el grupo N

Las pruebas de normalidad univariada pueden ayudar en el diagnóstico:

Removiendo los 2 outliers MV más extremos no se mejora


Homocedasticidad:
Prueba de Box
Ho: 1 = 2 = …. = i =   2 1  12 ...  1 p 
H1: algún i    
   2
2 ...  2 p 
i  21

 Ojo: muy sensible a la falta de normalidad  . . ... . 


MV  2 
 p 1  p 2 ...  p 
 Puede probarse homocedasticidad para
cada variable con los métodos usuales. Se
si verifica univariada, es probable (aunque
no cierto) que MV también
 La traza de Pillai es el más robusto a la
falta de igualdad de las matrices 
Al menos uno de los centroides poblaciones

Manova difiere del resto (p<0,001) => Diferencias MV


entre los cariotipos

22
Comparaciones entre grupos
 Equivalente a comparaciones en anova univariada, pero ahora entre
centroides
 Distintos métodos
 Si dos grupos difieren, significa que difieren en al menos una de las p
variables medidas
Evaluando significación de las VR
24

Una vez que se detectaron diferencias significativas entre centroides,


¿cuáles de las v.rta están involucradas?
1- Anovas univariados para cada v.respuesta y ordenarlas por significación

Ojo, ignoran correlación entre


variables, por lo cual no
necesariamente indican la
contribución relativa de cada
variable al resultado del
Manova
Evaluando significación de las VR
25

2- Coeficientes de la función discriminante


 Para cada variable se estimó el coeficiente o peso en la función
discriminante
 Si las p variables tienen la misma unidad de medida o si se calculan sobre
los datos estandarizados, informan sobre la contribución relativa de cada
variable
3- Correlaciones
 Se calcula la correlación entre cada v.rta y la función discriminante
 No considera la correlación entre variables rta (equivale a Anovas
univariados)
 Si las v.rta estas asociadas, pueden encontrarse contradicciones entre
coeficientes de la función discriminante y cargas (en cuanto a
importancia de variables)
Coeficientes de la función discriminante (datos sin estandarizar, centrados)

Scores

zi1  c1Totali  c2Toraxi  ....  c5Tegminai

Coeficientes de la función discriminante (datos estandarizados)

Correlación de las FD con las


variables originales

autovector de FD1
La 1ra FD explica el 91% de la
variabilidad entre grupos
Es posible calcular para cada individuo su puntaje o score para cada FD y graficarlo

El análisis discriminante es matemáticamente idéntico al Manova, pero el


objetivo es hallar las FD que permitan separar los grupos y clasificar a nuevos
individuos
Comentarios
28

 Sensible a la presencia de outliers MV


 No es útil si las v.rta son independientes entre sí o si las VR están
fuertemente asociadas
 Si las VR son independientes es preferible hacer anovas univariados (con
corrección por múltiples tests)
 Si las VR están altamente correlacionadas eliminar a las v.redundantes. Los
coeficientes de la función discriminante (al igual que en RLM) resultan
afectados por multicolinealidad
 Se puede aplicar para analizar cualquier diseño experimental (factoriales,
anidados, DBA, etc). También se puede usar para analizar DMR, donde la
respuesta a cada tiempo es pensada como una v.respuesta distinta
 Existe Manova no paramétrico (PERMANOVA)

Ver Anderson M.J (2001) A new method for non-parametric multivariate


analysis of variance. Austral Ecology 26, 32–46
29

 10 especies de árboles
 Se seleccionaron árboles de cada sp
 Se extrajeron de 5 a 10 hojas de cada
árbol y se midió fotosíntesis (moles.m-
2seg-1), contenido de N (mmoles.m-2) y

masa foliar / área (g/m-2)


30
Corrección por múltiples tests
31

 Cada prueba de hipótesis tiene asociada una probabilidad máxima de


cometer error tipo I de α
 Pero si se efectuaron varias pruebas sobre las mismas UE, el error global
(definido como la probabilidad de cometer al menos un error tipo I en
alguna de las pruebas) es mayor a α:

N˚ de variables Error global Pbinomial( x  1)  1  (1   ) p


(p) ( = 0,05)
1 0,05
2 0,098
3 0,143
4 0,185
10 0,401
Corrección por múltiples tests
32

 Consiste en ajustar los valores p de las pruebas de hipótesis individuales


de manera de controlar el error global
 Existen distintos métodos:
 Bonferroni

valor p corregido  valor p  p


donde p es la cantidad de anovas que se efectúan

O lo que es lo mismo, 
 corregido 
p
 Bonferroni secuencial (Holm, 1979)
 False discovery rate (Benjamini y Hochberg, 1995)
33

 5 anovas de un factor
 Sin corrección de Bonferroni  tasa de error global (con =0,05 para
cada anova) = 0,23
 0,05
 corregido    0,01
 Con corrección de Bonferroni p 5
 =0,01 para cada anova  tasa de error global = 0,05
Métodos de corrección por
múltiples tests
 Corrección de Bonferroni más
conservador

 Corrección secuencial de Bonferroni


 Las pruebas se ordenan de menor a mayor valor-p
 Se ajusta el valor-p de la primera prueba como antes
 Si da significativo, se ajusta el valor-p de la segunda prueba

valorp corregido  valorp  ( p  1)

 El proceso se repite, corrigiendo por (p-2), (p-3), etc, hasta que el


resultado sea NS

 False discovery rate

más
 Sin corrección potente

También podría gustarte