Está en la página 1de 35

Roberto Dorta Guerra ‐ Beatriz Abdul Jalbar Betancor‐ Área de Estadística e I. O.

– Universidad de La Laguna
Violación de supuestos del ANOVA de 1 factor
¿Qué ocurre si no se verifican los supuestos de normalidad y
homocedasticidad en un ANOVA de 1 factor?

Normalidad: Es mejor trabajar con tamaños muestrales moderadamente


grandes para tener la garantía de que el estadístico F se comporta
correctamente incluso cuando las poblaciones originales se desvíen
sensiblemente de la normalidad.

Homocedasticidad: El estadístico F es robusto frente al incumplimiento de este


supuesto si los tamaños muestrales son iguales y no demasiado pequeños.

Si no se verifican estos supuestos, en los términos antes expuestos, debemos aplicar


técnicas alternativas que han sido recogidas en el siguiente esquema

Roberto Dorta Guerra ‐ Beatriz Abdul Jalbar Betancor‐ Área de Estadística e I. O. – Universidad de La Laguna
Violación de supuestos del ANOVA de 1 factor
¿Qué ocurre si no se verifican los supuestos de normalidad y
homocedasticidad en un ANOVA de 1 factor?

Test F
Si
ANOVA 1 factor

Si
¿Homocedasticidad? Test F con…
Normalidad
Transformaciones de
la variable respuesta
No
Estadísticos de
Welch y de Brown y
Forsythe

Supuestos
Test F
Si
ANOVA 1 factor
Si
¿Normalidad?
Homocedasticidad
Prueba de
No
Kruskal‐Wallis
Test F con …
No normalidad ni
homocedasticidad Transformaciones de
la variable respuesta

Roberto Dorta Guerra ‐ Beatriz Abdul Jalbar Betancor‐ Área de Estadística e I. O. – Universidad de La Laguna
Roberto Dorta Guerra ‐ Beatriz Abdul Jalbar Betancor‐ Área de Estadística e I. O. – Universidad de La Laguna
Transformación de la variable respuesta

Test F
Si
ANOVA 1 factor

Si
¿Homocedasticidad? Test F con…
Normalidad
Transformaciones de
la variable respuesta
No
Estadísticos de
Welch y de Brown y
Forsythe

Supuestos
Test F
Si
ANOVA 1 factor
Si
¿Normalidad?
Homocedasticidad
Prueba de
No
Kruskal‐Wallis
Test F con …
No normalidad ni
homocedasticidad Transformaciones de
la variable respuesta

Roberto Dorta Guerra ‐ Beatriz Abdul Jalbar Betancor‐ Área de Estadística e I. O. – Universidad de La Laguna
Transformación de la variable respuesta
Este alternativa se aplicará cuando: si normalidad y no homocedasticidad ó cuando no se
pueda asegurar ni la normalidad ni la homocedasticidad.

La técnica se basa en transformar la variable respuesta con el fin de normalizar las distribuciones
y homogeneizar las varianzas.

Transformaciones:
• Raíz cuadrada: y′ 𝑦. Por ejemplo, si en un problema el valor de y para un individuo
es 1600 ahora trabajaríamos con 1600 40. Esta transformación permite disminuir la
asimetría positiva y hacer más homogéneas las varianzas.
• Logaritmo: y′ log 𝑦. Reduce mas aún las asimetría positiva y hace más homogéneas las
varianzas.
• Inversa: y′ 1⁄𝑦. Para atenuar el efecto de valores muy extremos .
• Arcoseno de la raíz cuadrada:y′ 𝑎𝑟𝑐𝑠𝑒𝑛 𝑦 . Suele aplicarse para poder trabajar con
proporciones.

Ventaja: Se consigue que las distribuciones con las que se van a trabajar sean simétricas, con
pocos o ningún valor extremo y con varianzas mas o menos homogéneas.
Desventajas: Se trabaja con una métrica desprovista de significado.
Conclusión: No es algo que deba hacerse de forma rutinaria
Roberto Dorta Guerra ‐ Beatriz Abdul Jalbar Betancor‐ Área de Estadística e I. O. – Universidad de La Laguna
Transformación de la variable respuesta
Ejemplo:

Se desea estudiar si hay efecto de la


zona geográfica de residencia de los
habitantes de Tenerife sobre el número
de horas que invierten a la semana en
actividades relacionadas con la cultura
(teatro, cine, conferencias, cursos, etc.).
Para ello se tomaron aleatoriamente 6
individuos de la zona del norte, sur, este,
oeste y centro de Tenerife y se
recogieron el número de horas que
dedicó cada uno de ellos a actividades
culturales.
Se obtiene la siguiente tabla extraída del
SPSS:

Roberto Dorta Guerra ‐ Beatriz Abdul Jalbar Betancor‐ Área de Estadística e I. O. – Universidad de La Laguna
Transformación de la variable respuesta
¿Hay normalidad?

La distribución de los residuos a partir del histograma nos indica que éstos se acumulan en torno al 0 y siguen aproximadamente
una distribución normal. En el gráfico Q‐Q plot los puntos se ajustan aproximadamente a la recta por lo que también se podría
concluir que hay una cierta normalidad. Por último el test de Shapiro‐Wilk indica que no hay normalidad 𝑝 0.032 . Como
conclusión general podríamos decir que aún cuando descriptivamente parece que la distribución de los residuos siguen una
distribución normal hay un cierto desajuste.
Roberto Dorta Guerra ‐ Beatriz Abdul Jalbar Betancor‐ Área de Estadística e I. O. – Universidad de La Laguna
Transformación de la variable respuesta
¿Hay homocedasticidad?
Descriptivos
Horas que dedica semanalmente a la cultura un individuo
Desv.
N Media Desviación Desv. Error
Zona norte 6 8.3333 0.93729 0.38265
Zona sur 6 7.5900 0.17618 0.07193
Zona este 6 8.5233 0.55579 0.22690
Zona oeste 6 7.3133 0.26463 0.10803
Zona centro 6 7.0933 1.02771 0.41956
Total 30 7.7707 0.85552 0.15620

Según el test de Levene habría heterocedasticidad


(𝑝 0.027). Esta desigualdad de dispersiones se
Aunque hay puntos extremos no se han determinado las causas que
aprecia en el gráfico de cajas y bigotes siendo los
los producen. Se concluye que son puntos genuinamente inusuales. datos que se corresponden con la zona centro los
mas dispersos. Es por ello que no es posible aplicar
el test F del ANOVA para verificar si las medias son
iguales o distintas. Se opta por aplicar algún tipo
de transformación a los datos originales para
conseguir normalizarlos y homogeneizar las
varianzas.

Roberto Dorta Guerra ‐ Beatriz Abdul Jalbar Betancor‐ Área de Estadística e I. O. – Universidad de La Laguna
Transformación de la variable respuesta
Estudio de la homocedasticidad para varias transformaciones
Se va a estudiar la homocedasticidad aplicando diferentes transformaciones a la variable respuesta.
En SPSS: Analizar Estadísticos descriptivos  Explorar  Introducir en Lista de dependientes la variable
horas y en Lista de factores Zonas de Tenerife  Estadísticos (Seleccionar descriptivos y Estimadores robustos
centrales)  Continuar  Gráficos (Seleccionar Histograma, Gráficos con pruebas de normalidad y en
Transformados Potencia ir seleccionando las diferentes transformaciones hasta conseguir una que implique el
no rechazo del test de Levene)  Continuar  Aceptar

Roberto Dorta Guerra ‐ Beatriz Abdul Jalbar Betancor‐ Área de Estadística e I. O. – Universidad de La Laguna
Transformación de la variable respuesta
Obtención de la variable transformada
Después de probar con las diferentes
transformaciones que se proponen en
el cuadro de Transformados Potencia
concluimos que la transformación que
permite una homogeneización de la
varianzas es 𝑦 𝑦 , atendiendo al 𝑝‐
valor del test de Levene asociado a esta
transformación (𝑝 0.055):

El siguiente paso es transformar la variable respuesta elevando


al cubo cada uno de sus valores.
En SPSS: Transformar  Calcular variable…  En variable de
destino se asigna el nombre a la nueva variable p.e. ‘𝑦_𝑡𝑟𝑎𝑛𝑠’ y
en expresión numérica ‘𝐻𝑜𝑟𝑎𝑠_𝑐𝑢𝑙𝑡𝑢𝑟𝑎 ∗∗ 3’

Roberto Dorta Guerra ‐ Beatriz Abdul Jalbar Betancor‐ Área de Estadística e I. O. – Universidad de La Laguna
Transformación de la variable respuesta
Resultados a partir de la variable transformada

Así, la variable transformada 𝐻𝑜𝑟𝑎𝑠 𝑑𝑒 𝑐𝑢𝑙𝑡𝑢𝑟𝑎 cumple los supuestos para aplicar
el ANOVA: es aproximadamente normal para los residuos 𝑝 0.044 y
homocedástica 𝑝 0.075 .

Roberto Dorta Guerra ‐ Beatriz Abdul Jalbar Betancor‐ Área de Estadística e I. O. – Universidad de La Laguna
Transformación de la variable respuesta
Resultados a partir de la variable transformada
Los resultados, en este caso, son ficticios ya que los valores con los que se trabaja están
transformados (variable original al cubo). Así, lo único que interesa son los p‐valores de los test que se
están aplicando.

Por ejemplo, se puede concluir que hay efecto del factor ‘zona de residencia’ sobre las horas que
dedican a la cultura los individuos de Tenerife 𝑝 0.002 , aunque los datos que estamos analizando
en este caso son las horas al cubo. También se pueden sacar conclusiones del tamaño del efecto y de
la potencia observada tal y como se hizo en el caso de las variables sin transformar.

Roberto Dorta Guerra ‐ Beatriz Abdul Jalbar Betancor‐ Área de Estadística e I. O. – Universidad de La Laguna
Roberto Dorta Guerra ‐ Beatriz Abdul Jalbar Betancor‐ Área de Estadística e I. O. – Universidad de La Laguna
Estadísticos de Welch y de Brown y Forsythe
¿Cuándo aplicar los estadísticos de Welch y de Brown y Forsythe?

Test F
Si
ANOVA 1 factor

Si
¿Homocedasticidad? Test F con…
Normalidad
Transformaciones de
la variable respuesta
No
Estadísticos de
Welch y de Brown y
Forsythe

Supuestos
Test F
Si
ANOVA 1 factor
Si
¿Normalidad?
Homocedasticidad
Prueba de
No
Kruskal‐Wallis
Test F con …
No normalidad ni
homocedasticidad Transformaciones de
la variable respuesta

Roberto Dorta Guerra ‐ Beatriz Abdul Jalbar Betancor‐ Área de Estadística e I. O. – Universidad de La Laguna
Estadísticos de Welch y de Brown y Forsythe
Ejemplo:

Supongamos que disponemos de un


conjunto de pinos clasificados por alturas
(en metros) y por especies. Ajustar los
datos a un modelo del análisis de la
varianza para contrastar si pueden
considerarse iguales todas las especies de
pinos en cuanto a la altura.
Las variables son:
ESPECIE – Especie de pino (Pinea,
Halapens, Laricio, Pinaster y Silvestris)
ALTURA – Altura en metros de un pino
Se obtiene la siguiente tabla extraída del
SPSS:

Roberto Dorta Guerra ‐ Beatriz Abdul Jalbar Betancor‐ Área de Estadística e I. O. – Universidad de La Laguna
Estadísticos de Welch y de Brown y Forsythe
¿Cuándo aplicar los estadísticos de Welch y de Brown y Forsythe?

Estos estadísticos se utilizarán cuando no pueden asumirse que las varianzas poblaciones son iguales.
Permiten contrastar la hipótesis global de igualdad de medias sin tener que estar preocupados por el
tamaño de las varianzas. En el ejemplo se comprueba que hay normalidad pero no homocedasticidad
a partir de los siguientes resultados:

Roberto Dorta Guerra ‐ Beatriz Abdul Jalbar Betancor‐ Área de Estadística e I. O. – Universidad de La Laguna
Estadísticos de Welch y de Brown y Forsythe
¿Cuándo aplicar los estadísticos de Welch y de Brown y Forsythe?

Se llevan a cabo transformaciones de la variable altura y no se encuentra ninguna con la


que verificar la homocedasticidad. En este caso se deben aplicar los estadísticos de
Welch y Brown y Forsythe

Roberto Dorta Guerra ‐ Beatriz Abdul Jalbar Betancor‐ Área de Estadística e I. O. – Universidad de La Laguna
Estadísticos de Welch y de Brown y Forsythe
¿Cuándo aplicar los estadísticos de Welch y de Brown y Forsythe?

Para obtener estos estadísticos en SPSS: Analizar  Comparar medias  ANOVA de un factor  En
Lista de dependientes introducimos Horas y en Factor la variable Zonas de Tenerife  Opciones 
Seleccionar: Descriptivos, Prueba de homogeneidad de Varianzas, Brown‐Forsythe y Welch 
Continuar  Aceptar

Roberto Dorta Guerra ‐ Beatriz Abdul Jalbar Betancor‐ Área de Estadística e I. O. – Universidad de La Laguna
Estadísticos de Welch y de Brown y Forsythe
Interpretación de los estadísticos

Tanto el estadístico de Welch 𝑝 0.001 como el de Brown‐Forsythe 𝑝 0.001 nos


permiten asegurar que la especie tiene efecto sobre la altura de los pinos. Una vez
comprobada la significatividad del factor pasaríamos a realizar comparaciones múltiples
para las que hay test específicos cuando las varianzas de las poblaciones son distintas.

Roberto Dorta Guerra ‐ Beatriz Abdul Jalbar Betancor‐ Área de Estadística e I. O. – Universidad de La Laguna
Estadísticos deWelch y de Brown y Forsythe (Comparaciones múltiples)

Interpretación de los estadísticos


En un primer paso, viendo las medias descriptivas, se observa que Pinaster es la especie que presenta menor
altura y Laricio y Silvestris las que mayor. Por otro lado parece que Pinea y Halapens presentan una altura
media. Además se desea estudiar si hay diferencias significativas entre las distintas especies que presentan
estas diferencias descriptivas. Para ello se aplican las comparaciones múltiples.

Roberto Dorta Guerra ‐ Beatriz Abdul Jalbar Betancor‐ Área de Estadística e I. O. – Universidad de La Laguna
Estadísticos deWelch y de Brown y Forsythe (Comparaciones múltiples)

Si no puede asumirse que las varianzas poblacionales son iguales se proponen dos estadísticos en
función del tamaño muestral:
1.‐ Tamaños muestrales pequeños  T3 de Dunnett (o la T2 de Tamhane)
2.‐ Tamaños muestrales grandes  Test de Games y Howell (o la C de Dunnett)

Para obtener estos estadísticos en : Analizar  Comparar medias  ANOVA de un factor  Post hoc 
Marcar T3 de Dunnet y T2 de Tamhane (al ser tamaños muestrales pequeños), con un nivel de significación
de por ejemplo 0.05  Continuar Aceptar

Roberto Dorta Guerra ‐ Beatriz Abdul Jalbar Betancor‐ Área de Estadística e I. O. – Universidad de La Laguna
Estadísticos deWelch y de Brown y Forsythe (Comparaciones múltiples)
Interpretación de los estadísticos

A partir de los p‐valores anteriores se puede Siguiendo el test de Tamhane 𝑝 0.027 y el T3


concluir si dos medias son 𝐻 :𝜇 𝜇 de Dunnet 𝑝 0.021 podemos concluir que
significativamente distintas. Por ejemplo, ambas especies tienen alturas significativamente
veamos qué ocurre entre la altura media de 𝐻 :𝜇 𝜇 distintas. Además se deben reporta los intervalos
las especies Halapens y Pinaster: de confianza con su interpretación

Roberto Dorta Guerra ‐ Beatriz Abdul Jalbar Betancor‐ Área de Estadística e I. O. – Universidad de La Laguna
Roberto Dorta Guerra ‐ Beatriz Abdul Jalbar Betancor‐ Área de Estadística e I. O. – Universidad de La Laguna
Prueba de Kruskal‐Wallis
¿Cuándo aplicar el estadístico de Kruskal‐Wallis?

Test F
Si
ANOVA 1 factor

Si
¿Homocedasticidad? Test F con…
Normalidad
Transformaciones de
la variable respuesta
No
Estadísticos de
Welch y de Brown y
Forsythe

Supuestos
Test F
Si
ANOVA 1 factor
Si
¿Normalidad?
Homocedasticidad
Prueba de
No
Kruskal‐Wallis
Test F con …
No normalidad ni
homocedasticidad Transformaciones de
la variable respuesta

Roberto Dorta Guerra ‐ Beatriz Abdul Jalbar Betancor‐ Área de Estadística e I. O. – Universidad de La Laguna
Prueba de Kruskal‐Wallis
¿Cuándo aplicar el estadístico de Kruskal‐Wallis?

El incumplimiento del supuesto de normalidad no tiene consecuencias relevantes sobre


el análisis si los tamaños muestrales son moderadamente grandes. Cuando se tiene que
trabajar con poblaciones no normales y tamaños muestrales pequeños, puede utilizarse
la prueba de Kruskal‐Wallis. Este estadístico es la extensión de la prueba de U de Mann‐
Whitney para dos muestras independientes.

Roberto Dorta Guerra ‐ Beatriz Abdul Jalbar Betancor‐ Área de Estadística e I. O. – Universidad de La Laguna
Prueba de Kruskal‐Wallis
Ejemplo:

Un estudio compara el número de huevos que pone un determinado insecto bajo 3


condiciones distintas. ¿Existen diferencias significativas dependiendo de las condiciones?

Roberto Dorta Guerra ‐ Beatriz Abdul Jalbar Betancor‐ Área de Estadística e I. O. – Universidad de La Laguna
Prueba de Kruskal‐Wallis
¿Normalidad y homocedasticidad?

Según el resultado del test de Kolmogorov 𝑝 0.001 y a partir de la inspección visual del histograma y del gráfico
Q‐Q normal, se concluye que la distribución de los residuos no es normal. Por otro lado la homocedasticidad si se
verifica. Se aplicará por lo tanto el estadístico de Kruskal‐Wallis para verificar si hay efecto de la las condiciones
experimentales sobre la puesta de huevos del insecto.
Roberto Dorta Guerra ‐ Beatriz Abdul Jalbar Betancor‐ Área de Estadística e I. O. – Universidad de La Laguna
Prueba de Kruskal‐Wallis
Test de Kruskal‐Wallis

A diferencia del ANOVA en el que se comparan medias, el test


de Kruskal‐Wallis contrasta si las diferentes muestras están
equidistribuidas y que por lo tanto pertenecen a una misma
distribución (población). Bajo ciertas simplificaciones puede
considerarse que el test de Kruskal‐Wallis compara las
medianas.

𝐻 : 𝑀𝑒𝑑𝑖𝑎𝑛𝑎 ó 𝑀𝑒𝑑𝑖𝑎𝑛𝑎 ó 𝑀𝑒𝑑𝑖𝑎𝑛𝑎 ó


𝐻 : 𝐿𝑜 𝑎𝑛𝑡𝑒𝑟𝑖𝑜𝑟 𝑛𝑜 𝑒𝑠 𝑐𝑖𝑒𝑟𝑡𝑜
Roberto Dorta Guerra ‐ Beatriz Abdul Jalbar Betancor‐ Área de Estadística e I. O. – Universidad de La Laguna
Prueba de Kruskal‐Wallis

Para obtener el estadístico de Kruskal Wallis en SPSS: Analizar  Pruebas no paramétricas 


Muestras independientes
 Pestaña Objetivo: Mantener la opción 1 “Comparar automáticamente distribuciones entre grupos”

Roberto Dorta Guerra ‐ Beatriz Abdul Jalbar Betancor‐ Área de Estadística e I. O. – Universidad de La Laguna
Prueba de Kruskal‐Wallis

Para obtener el estadístico de Kruskal Wallis en SPSS: Analizar  Pruebas no paramétricas 


Muestras independientes
 Pestaña Campos: En grupo trasladar la variable “Condición experimental” y en Campos de prueba
la variable Nº de Huevos”

Roberto Dorta Guerra ‐ Beatriz Abdul Jalbar Betancor‐ Área de Estadística e I. O. – Universidad de La Laguna
Prueba de Kruskal‐Wallis

Para obtener el estadístico de Kruskal Wallis en SPSS: Analizar  Pruebas no paramétricas 


Muestras independientes
 Pestaña Configuración: marcar “ANOVA de 1 factor de Kruskal‐Wallis (k muestras)”  Ejecutar

Roberto Dorta Guerra ‐ Beatriz Abdul Jalbar Betancor‐ Área de Estadística e I. O. – Universidad de La Laguna
Prueba de Kruskal‐Wallis
Interpretación de los estadísticos

El resultado del test de Kruskal‐Wallis establece que hay efecto de las condiciones
experimentales sobre el número de huevos que pone el insecto 𝑝 0.001 .

Roberto Dorta Guerra ‐ Beatriz Abdul Jalbar Betancor‐ Área de Estadística e I. O. – Universidad de La Laguna
Prueba de Kruskal‐Wallis (Comparaciones múltiples)
Si se ha demostrado que la prueba de Kruskal‐Wallis es estadísticamente significativa (es decir, 𝑝 0.05).
Para descubrir qué grupo(s) es diferente a otro(s) grupo(s) necesita ejecutar una prueba post hoc. En el caso
de la prueba Kruskal‐Wallis, ejecutará e interpretará todas las comparaciones por pares utilizando el
procedimiento de Dunn (1964) con un ajuste de Bonferroni.

Para obtener estos estadísticos en SPSS, en la pantalla de resultados hacer doble click sobre la tabla
“Resumen de pruebas de hipótesis”  Se abre una nueva ventana con los resultados del test  Desplegar el
menú de la parte inferior derecha “Ver” y seleccionar “Comparación entre parejas”

Roberto Dorta Guerra ‐ Beatriz Abdul Jalbar Betancor‐ Área de Estadística e I. O. – Universidad de La Laguna
Prueba de Kruskal‐Wallis (Comparaciones múltiples)
Interpretación de los estadísticos

Las comparaciones por pares se realizaron utilizando el procedimiento de Dunn con una corrección
de Bonferroni para comparaciones múltiples (mirar columna Sig. ajust.). Este análisis post hoc
reveló diferencias estadísticamente significativas en la mediana del número de huevos entre
las condiciones experimentales 1 y 2 𝑝 0.001 , y 2 y 3 𝑝 0.008 , pero no entre las
condiciones experimentales 1 y 3 𝑝 0.525 . Los test de hipótesis son de la forma:

𝐻 : 𝑀𝑒𝑑𝑖𝑎𝑛𝑎 ó 𝑀𝑒𝑑𝑖𝑎𝑛𝑎 ó
𝐻 : 𝑀𝑒𝑑𝑖𝑎𝑛𝑎 ó 𝑀𝑒𝑑𝑖𝑎𝑛𝑎 ó
Roberto Dorta Guerra ‐ Beatriz Abdul Jalbar Betancor‐ Área de Estadística e I. O. – Universidad de La Laguna

También podría gustarte