Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Análisis de varianza
Análisis de varianza de un factor
Análisis de varianza
(ANOVA) de un factor
Ejemplos
• Ensayos de leyes de cobre por varios laboratorios, para calibrar una muestra
estándar
contra
k
SS1 = ∑ ni ( X i − X ) 2
i =1
con
k ni k
SS0 = ∑∑ ( X ij − X i ) = ∑ (ni − 1) Si2
2
i =1 j =1 i =1
k ni
SS = ∑∑ ( X ij − X ) 2 = SS0 + SS1
i =1 j =1
Análisis de varianza
(ANOVA) de un factor
Bajo la hipótesis de que las muestras tienen distribuciones Gaussianas de varianza
σ2, se tiene
(ni − 1) Si2 2
~ χ ni −1
σ2
SS0 k
(ni − 1) Si2
σ2
= ∑
i =1 σ 2
~ χ 2
n −k
(n − 1) S 2 SS 2
= ~ χ n −1
σ2 σ2
También se obtiene
SS1 2
~ χ k −1
σ2
SS SS SS0 + SS1
MS1 = 1 MS0 = 0 MS =
k −1 n−k n −1
grupo 1 2 3 4 5 6
número 12 13 12 13 13 12
Total 788 74
Total
Análisis de varianza
(ANOVA) de un factor
Se busca testear:
contra
Fuente de Grados de
Matrices de sumas de cuadrados y productos
variación libertad
Explicada k
B = ∑ ni ( Xi − X)( Xi − X)t k–1
(factor A) i =1
k ni
Error
W = ∑∑ ( Xij − Xi )( Xij − Xi ) t n–k
residual i =1 j =1
k ni
k ni
|W|
∑∑ (X
i =1 j =1
ij − Xi )( X ij − Xi )t
Λ* = =
|B+W| k ni
∑∑ (X
i =1 j =1
ij − X)( X ij − X)t
n − k −1 1− Λ*
p=2 k ≥ 2, n cualquiera k −1 ~ F2 ( k −1), 2 ( n −k −1)
Λ*
n − p −1 1− Λ*
p≥1 k = 2, n cualquiera p Λ*
~ Fp ,n− p −1
n − p − 2 1− Λ*
p≥1 k = 3, n cualquiera ~ F2 p , 2 ( n − p − 2 )
p Λ*
grupo 1 2 3 4 5 6
número 12 13 12 13 13 12
promedio
7.25 6.62 6.33 4.08 4.23 8.17
variable 1
promedio
10.3 8.78 8.91 6.54 7.10 12.5
variable 2
n − k −1 1− Λ*
Luego, se tiene: Λ* = 29 090/169 060 = 0.172 y k −1 = 19.19
Λ*
Tratamiento B1 B2 … Bc Media
...
Media X •1 X •2 X •c X
Análisis de varianza
(ANOVA) de dos factores
Se define la siguiente tabla de análisis de varianza
Total SS = SS f + SS c + SS e n–1
Análisis de varianza
(ANOVA) de dos factores
De la tabla de análisis de varianza, se puede testear si la influencia de cada fuente
de variación es significativa.
• Influencia de A
Total SS = SS f + SS c + SS fc + SS e n–1
Análisis de varianza
(ANOVA) de dos factores
Para la interpretación de los resultados, es conveniente empezar con analizar la
posible interacción entre los dos factores de variación.
• Interacción A/B
1 2 1 2
Factor A Factor A
• Influencia de A
Se rechaza la hipótesis nula de que A no tiene influencia en el valor esperado
de X, si el cociente MSf/MSe supera el valor crítico de la distribución de Fisher
de f–1 y fc(r–1) grados de libertad para el riesgo α asumido.
• Influencia de B
Se rechaza la hipótesis nula de que B no tiene influencia en el valor esperado
de X, si el cociente MSc/MSe supera el valor crítico de la distribución de Fisher
de c–1 y fc(r–1) grados de libertad para el riesgo α asumido
Análisis de varianza
(ANOVA) de dos factores
SS combinado SS fc + SS e SS fc + SS e
MS combinado = = =
GLcombinado ( f − 1)(c − 1) + fc( r − 1) fcr − f − c + 1
Análisis de varianza
(ANOVA) de dos factores
• Influencia de A
Se rechaza la hipótesis nula de que A no tiene influencia en el valor esperado
de X, si el cociente MSf/MScombinado supera el valor crítico de la distribución de
Fisher de f–1 y fcr–f–c+1 grados de libertad para el riesgo α asumido.
• Influencia de B
Se rechaza la hipótesis nula de que B no tiene influencia en el valor esperado
de X, si el cociente MSc/MScombinado supera el valor crítico de la distribución de
Fisher de c–1 y fcr–f–c+1 grados de libertad para el riesgo α asumido
Análisis de varianza
(ANOVA) de dos factores
En algunos casos, los valores (niveles) del factor B dependen de los valores del
factor A. Se tiene entonces un diseño anidado o diseño jerárquico, en el cual las
fuentes de variaciones son independientes.
Por ejemplo :
Diseño anidado
A SS A = ∑ bcdn ( X i − X ) 2 a–1 MS A =
SS A
i =1 a −1
a b
B SS B = ∑∑ cdn ( X ij − X i ) 2 a (b – 1) MS B =
SS B
i =1 j =1 a (b −1)
a b c
Hipótesis de independencia
La descomposición de las varianzas en varias componentes es válida siempre y
cuando los datos son independientes. Para comprobar este supuesto, se puede
considerar los llamados tests de Levene o el test de Barlett. El primero tiene la
ventaja de que no se ve afectada por falta de normalidad de los datos y se puede
aplicar a tamaños muestrales desiguales.
Limitantes del análisis
de varianza
Hipótesis de normalidad
El análisis de varianza se basa en el uso de tests de Fisher, los cuales
presuponen que los datos tienen distribuciones normales. El análisis de varianza
es robusto frente a leves desviaciones a la hipótesis de normalidad; par
desviaciones importantes, se recomienda transformar las variables, o usar
métodos no paramétricos como el test de Kruskal-Wallis.
Limitantes del análisis
de varianza
Homoscedasticidad
El análisis de varianza supone también que las varianzas de los diferentes
grupos son iguales (homoscedasticidad). En caso de heteroscedasticidad, la
varianza suele cambiar cuando lo hace la media. Si µi es la media del grupo
i-ésimo y σi su desviación estándar, entonces σi = f(µi) para alguna función f.
En particular, se suele considerar una función f de la forma
α
f ( µi ) = kµi
xλ si λ ≠ 0
φ ( x) =
log( x) si λ = 0
con λ = 1− α
Lecturas recomendadas
Box, G.E.P., Hunter, W.G., Hunter, J.S., 1978. Statistics for Experimenters. John
Wiley and Sons, New York, 653 p.
Davis, J.C., 2002. Statistics and Data Analysis in Geology. John Wiley & Sons,
Inc., New York.
Miller, R.G., 1997. Beyond ANOVA: Basics of Applied Statistics. Chapman &
Hall, Boca Raton.