Está en la página 1de 3

Verificación de supuestos y

transformaciones
El supuesto más crítico en el análisis de varianza con base en el modelo lineal
presentado es la independencia de los errores experimentales ϵij. Este supuesto es
justificado si se hizo una aleatorización apropiada de las unidades experimentales a
los tratamientos.

Los otros dos (2) supuestos para el modelo lineal son la varianza (σ2), en todos los
tratamientos y la normalidad de los errores experimentales.

Cuando la varianza no es constante, los estimadores de mínimos cuadrados siguen


siendo insesgados, no son de mínima varianza. Además, el estimador de la varianza de
los errores es sesgado y por ende, las varianzas de combinaciones de los estimadores de
parámetros son erradas, conllevando esto a que las pruebas de significancia no sean
válidas.

Normalidad
Para verificar el supuesto de normalidad del error experimental, un gráfico en que se
comparan los quantiles de la distribución normal con los quantiles de la distribución
empírica de los residuales puede ser examinado. A este tipo de gráficos de le llama
gráfico Q-Q normal. En este gráfico si los puntos están cerca de una línea recta, el
supuesto de normalidad es justificado.

Existen varias pruebas para chequear normalidad, una de ellas es la prueba de Shapiro.

Prueba de Varianza constante


Para verificar el supuesto de varianza constante, un gráfico de dispersión de la respuesta
versus los niveles del factor puede ser construido. Igualmente se puede contruir un
gráfico de los residuales versus los valores ajustados.

Además de estudiar el gráfico de residuales vs. valores ajustados se pueden usar pruebas
estadísticas para homogeneidad de varianza. Las pruebas más usadas:

 Prueba Bartlett
 Prueba Levene
 Prueba Fligner-Killeen

La hipótesis nula es que hay homocedasticidad, luego se busca que el p-valor sea alto.
Las pruebas de Bartlett y Levene son quizá las más usadas para hacer ésta prueba. La
prueba de Bartlett requiere que haya normalidad. Si no hay normalidad se prefiere usar
la prueba de Levene. En el caso de no normalidad o presencia de datos atípicos, la
prueba de fligner-Killen es una mejor opción.
Ejemplos
Veinticuatro animales fueron aleatoriamente asignados a cuatro dietas diferentes y el
tiempo de coagulación de la sangre fue medido para cada uno de ellos.

Pruebas Alternativas Cuando se cumplen


los supuesto
Procedimiento de Welch
Cuando el supuesto de homocedasticidad no es viable, el análisis de varianza puede
llevar a conclusiones erróneas. Existen varias maneras para tratar de resolver este
problema. El procedimiento dado por Welch (Welch, 1951) es una modificación a la
prueba F descrita hasta el momento, la cual no asume igualdad de las varianzas
poblacionales y en estudios de simulación ha mostrado que controla el error de Tipo I.

La idea esencial del procedimiento de Welch es reducir el peso al cuadrado de los


residuales con varianzas grandes en proporción a estas varianzas. Sea wj=njs2j

y w=∑tj=1wj, donde s2j es la varianza muestral para el j-ésimo tratamiento. Se calcula


el promedio ponderado usando como pesos wj. Es decir, ¯¯¯xw=1w∑ki=1wj¯¯¯xj. La
estadística F es definida como

F=1t−1∑tj=1wj(¯¯¯xj−¯¯¯xw)21+2(t−2)t2−1∑tj=1(1nj−1)(1−wjw)2,

que tiene una distribución F con t−1 y t2−13∑tj=1(1nj−1)(1−wjw)2 grados de libertad.

Transformaciones Box-Cox
Una causa común para que haya heterocedasticidad entre los niveles de los tratamientos
es una relación no lineal entre la respuesta y el tratamiento. Una manera de corregir ésta
situación es transformar la respuesta antes de realizar el análisis. Si la variación en los
residuales tiende a incrementar proporcionalmente como una función de las medias de
celda, una transformación f(y) puede usualmente encontrarse para que este supuesto se
cumpla. Box y Cox (1964) propusieron una serie de transformaciones f(y)=yλ−1λ
(λ≠0), que puede dar resultados. Sin embargo, no existe ninguna garantía de que la
transformación es adecuada.

Pruebas no paramétricas - Prueba Kruskal-Wallis

La primera prueba para igualdad de efectos de tratamientos en el diseño completamente


aleatorizado es la prueba de Kruskal-Wallis. La estrategia básica de esta prueba es
asignar rangos a las n observaciones y comparar la suma de los rangos por muestra
(tratamiento). Como se mencionó anteriormente, bajo la hipótesis nula se tiene que
todas las observaciones provienen de la misma distribución, luego se espera que los
promedio de rangos para los tratamientos no difieran mucho entre sí. En otras palabras,
la diferencia entre el promedio de rangos para cada tratamiento debe ser cercana a la
media de rangos total, n(n+1)2. Usando este hecho se define la estadística de Kruskal-
Wallis como: H=12n(n+1)t∑i=11ni[Ri⋅−ni(n+1)2]2, donde Ri⋅=∑nij=1Rij y Rij es
el rango de la j-ésima observación del tratamiento i en el conjunto de todas las
observaciones. Bajo la hipótesis nula, H tiene una distribución asintótica χ2t−1

También podría gustarte