Documentos de Académico
Documentos de Profesional
Documentos de Cultura
M. Morales
Universidad de Sevilla
morales@us.es
Definición
El ANOVA es un conjunto de técnicas que pretenden obtener información a partir de
una serie de modelos matemáticos. Estos modelos permiten valorar el comportamiento
de una variable dependiente y una o más variables independientes. También permite
controlar el efecto de variables extrañas incluyéndolas como covariables.
Yi = β0 + β1 X1 + . . . + βp Xp + i
donde Yi es la variable dependiente para el sujeto i y las X’s y las β 0 s son los
predictores y los parámetros respectivamente. El último elemento del modelo i es el
llamado error o término residual.
El procedimiento de análisis de este tipo de diseños se realiza mediante la función
“aov". En el caso de que el tratamiento resulte efectivo sería necesario realizar
algunas comparaciones a posteriori para determinar cuál es el tratamiento que resultó
ser efectivo.
Aunque las medias poblacionales sean iguales, lo más probable es que MCI y
MCE muestren algunas diferencias por efecto del azar. Debemos determinar la
cantidad que ese cociente puede alejarse de 1 por efecto del azar. Esto es lo que
hace el estadístico F:
Cada puntuación debe ser independiente de las demás. Esto se consigue con la
selección aleatoria de la muestra y/o la asignación aleatoria de los tratamientos a
los grupos
A veces resulta difícil conseguir este supuesto, ya que hay individuos (por
ejemplo, de la misma familia, estudiantes de la misma clase, etc), que tienden a
responder de la misma forma
Cada grupo constituye una muestra aleatoria procedente de una población normal
Si las poblaciones no son normales, pero son asimétricas positiva y leptocúrticas
todavia se puede seguir utilizando el estadístico F
Si tenemos muestras pequeñas procedentes de poblaciones normales es
recomendable utilizar pruebas no paramétricas (prueba de Kruskal-Wallis)
Los valores 0.10, 0.25 y 0.4 representan tamaños de efecto bajo, medio y grande
respectivamente
Los valores 0.01, 0.06 y 0.14 representan tamaños de efecto bajo, medio y grande
respectivamente
A B C D
s1 30.00 11.00 16.00 10.00
s2 35.00 25.00 5.00 7.00
s3 15.00 12.00 22.00 15.00
s4 21.00 9.00 23.00 6.00
s5 24.00 20.00 22.00 12.00
Tabla: Datos del ejemplo 1
Figura 1
D
C
Métodos
B
A
5 10 15 20 25 30 35
Errores
M. Morales (Universidad de Sevilla morales@us.es) DAD-II 17 / 54
Tabla ANOVA
Residuales vs pronósticos
10
5
Residuales
0
−10
10 15 20 25
Valores pronóstico
Residuales vs grupos
D
C
B
A
−10 −5 0 5 10
0
−10
5 10 15 20
Indice
10
Sample Quantiles
5
0
−10
−2 −1 0 1 2
Cuantilas teóricas
data: ANOVA2$residuals
W = 0.9612, p-value = 0.5681
Df F value Pr(>F)
group 3 0.31 0.8192
16
Tabla: Test de Levene
Estimación Std T P
B-A -9.60 4.21 -2.28 0.04
C-A -7.40 4.21 -1.76 0.10
D-A -15.00 4.21 -3.56 0.00
C-B 2.20 4.21 0.52 0.61
D-B -5.40 4.21 -1.28 0.22
D-C -7.60 4.21 -1.80 0.09
Tabla: Comparaciones usando LSD
Estimación std T P
B-A -9.60 4.21 -2.28 0.22
C-A -7.40 4.21 -1.76 0.59
D-A -15.00 4.21 -3.56 0.02
C-B 2.20 4.21 0.52 1.00
D-B -5.40 4.21 -1.28 1.00
D-C -7.60 4.21 -1.80 0.54
Tabla: Comparaciones usando criterio Bonferroni
Estimación std T P
B-A -9.60 4.21 -2.28 0.22
C-A -7.40 4.21 -1.76 0.59
D-A -15.00 4.21 -3.56 0.02
C-B 2.20 4.21 0.52 1.00
D-B -5.40 4.21 -1.28 1.00
D-C -7.60 4.21 -1.80 0.54
Tabla: Comparaciones usando criterio Dunnet
varentre= var(c(25,15.5,17.6,10));
varintra=44.4;
power.anova.test(groups=4,n=5,between.var=varentre,
within.var=varintra);
Una forma de obtener este análisis es abriendo las ventanas Analizar + Comparar
medias+ ANOVA de un factor. Pulsando el botón de contrastes entramos en la
opción deseada:
Los resultados indican que se acepta la hipótesis de que la relación sea de tipo
lineal
Otra forma de obtener este análisis es abriendo las ventanas Analizar + Modelo
lineal general+ Univariante. Pulsando el botón de contrastes entramos en la
opción deseada. Tenemos que elegir el contraste polinómico y darle al botón de
cambiar
Los resultados indican que se acepta la hipótesis de que los datos sigan una
tendencia lineal. En cambio, no se puede aceptar la hipótesis de que los datos
siguen una tendencia cuadrática o cúbica
Si se rechaza la hipótesis nula hay que hacer comparaciones dos a dos con la
prueba U de Mann-Whitney y aplicar la corrección de Bonferroni (en este caso
es 0.05/3 = 0.0167)