Está en la página 1de 26

PRUEBAS PARA TRES GRUPOS

ANOVA, KRUSKAL WALLIS


MÓDULO INVESTIGACIÓN MÉDICA I
MARIA ALEJANDRA GUEVARA RAMIREZ

UMF 88
Pruebas estadísticas
Análisis de datos medidos por variable cuantitativa continua, las
pruebas estadísticas de estimación y contraste se basan en suponer
que se ha obtenido una muestra aleatoria de distribución de
probabilidad normal

Si esta suposición no resulta valida y se sospecha que no sea adecuada


y resulta difícil comprobar por ser muestra pequeñas

Dos posibles mecanismos:


Los datos se pueden transformar de
tal manera que sigan una distribución Acudir a pruebas estadísticas que
normal
Pruebas estadísticas
PRUEBAS
PARAMÉTRIC Suponen una
ESTADÍSITC
AS AS distribución de ANOVA
probabilidad
determinada para los
datos

NO No se basan en
PARAMÉTRIC ninguna suposición KRUSK
AS en cuanto a la
distribución de AL
probabilidad a partir
de la que fueron WALLIS
obtenidos los datos
Pruebas paramétricas

T de student, o analisis de la varianza (ANOVA)

Supone una forma determinada de la distribución


de valores, generalmente la distribución normal,
en la población de la que se obtiene la muestra
experimental
Presuponen una distribución teórica de
probabilidad subyacente para la distribución de
datos

Son mas potentes que las no parametricas


Pruebas no paramétricas
Son las que a pesar de basarse en determinadas
suposiciones, no parten de la base de que los datos
analizados adoptan una distribución normal

No presupone ninguna distribución de probabilidad teórica


de la distribución de datos

Los resultaos estadísticos se derivan únicamente a partir de


procedimientos de ordenación y recuento (fácil
comprensión)
Muestras pequeñas (<10), en las que se desconoce si es
válido suponer la normalidad de los datos, para corroborar
resultados obtenidos a partir de la utilización basada en la
normal

Se emplea como parámetro de centralización la mediana

Son menos potentes que las técnicas paramétricas, pero se


pueden aplicar mas fácilmente
Prueba Anova
ANalysis Of VAriance
Análisis de varianza de un factor sirve para comparar varios grupos en una
variable cuantitativa
Se trata de una generalización de la Prueba T para dos muestras
independientes al caso de diseños con mas de dos muestras
Variable
Variable
cuantitativ
categórica
a
Nominal u De intervalo
ordinal o razón

Independien
Dependiente
te o factor
VD
(VI)
Prueba ANOVA
Si queremos averiguar cual de 3 programas distintos de incentivos aumenta
de forma mas eficaz el rendimiento de un determinado colectivo, podemos
seleccionas tres muestras aleatorias de ese colectivo y aplicar a cada una uno
de los tres programas
Después, podemos medir el rendimiento de cada grupo y averiguar si existen
o no diferencias entre ellos

Y una VD Al ANOVA de un
Tendremos una VI
cuantitativa ( la
categórica (el tipo
medida del factor permite obtener
de programa de información sobre el
rendimiento) en la
incentivos) cuyos
niveles deseamos
cual queremos resultado de esa
comparar los tres comparación y concluir
compara entre si
programas
si los sujetos sometidos
a distintos programas
difieren de la medida
de rendimiento
utilizada
ANOVA de un factor
La hipótesis que se pone a prueba es que las medias
poblacionales son iguales
Esto significa que los grupos no difieren en la VD,
en consecuencia las VI es independiente de la VD

En
Medias cada
de la nivel
VD de la
VI
ANOVA de un factor
Para poner a prueba la hipótesis de igualdad de
medias se debe obtener un estadístico llamado F,
que refleja el grado de parecido existente entre las
medias que se están comparando
El numerador del estadístico F es una estimación
de la varianza poblacional basada en la variabilidad
existente entre las medias de cada grupo
El denominador del estadístico F es también una
estimación de la varianza poblacional pero basada
en la variabilidad existente dentro de cada grupo

J se refiere a
los distintos
grupos o
niveles del
factor
ANOVA de un factor
Estimación
Estimación
basada en las El cociente F
basada en las Reflejará el diferencias tomara un
diferencias mismo entre las valor próximo
entre las
grado de puntuaciones a1
medias
variación individuales

Si las medias poblacionales son iguales las Entre mas diferentes sean
medias muestrales serán parecidas las medias, mayor será el
valor de F
Si las
medias El cociente
muestrales reflejará F tomara un
Estimación
son mayor grado valor mayor
distintas la de variación a1
estimación
ANOVA de un factor
Si las poblaciones muestreadas son normales y sus varianzas son iguales, el
estadístico F se distribuye según el modelo de probabilidad F de Fisher-
Snedecor
Si suponemos cierta la hipótesis de igualdad de medias podemos conocer en
todo momento la probabilidad de obtener un valor como el obtenido o mayor
El estadístico F se

Si el nivel critico asociado al Concluiremos que no todas


interpreta:

Rechazaremos la hipótesis
estadístico F, o probabilidad las medias poblacionales
de igualdad de medias
de obtener valores > 0.05 comparadas son iguales
No podremos afirmar que
En caso contrario no
los grupos comparados
podremos rechazar la
difieran en sus promedios
hipótesis de igualdad
poblacionales
Para llevar a cabo un ANOVA de un factor
Seleccionar la opción comparar medias  ANOVA de un factor del
menú Analizar para acceder al cuadro de dialogo
La lista de variables
contiene un listado de
todas las variables
numéricas del archivo de
datos
Para obtener un ANOVA
de un factor con las
especificaciones que el
programa tiene
establecidas por defecto:
• Seleccionar una variable cuantitativa ( de intervalo o razón) y trasladarla a la lista
Dependientes
• Seleccionar una variable categórica (normal u ordinal) y trasladarla al cuadro factor
La variable dependiente es aquella en la cual deseamos comparar los grupos, la variable
factor es la que define los grupos que deseamos comparar. Puede seleccionarse mas de
una variable dependiente, el SPSS general un análisis de varianza completo para cada
Para llevar a cabo un ANOVA de un factor
Estadístico
Opciones:
incluye algunos
permiten
estadísticos
seleccionar
descriptivos y la
algunos
prueba de Levene
estadísticos
para contrastar la
descriptivos
hipótesis de
básicos y obtener
homogeneidad de
la prueba Levene
varianzas
Descriptivos: ofrece estadísticos descriptivos referido tanto a cada grupo como al total muestral:
numero de observaciones, media, desviación típica, error típico de la media, ic para la media y
valores mínimo y máximo

Homogeneidad de varianzas: el estadístico F del ANOVA de un factor se basa en el


cumplimiento de
• Normalidad: la variable dependiente se distribuye normalmente en las J poblaciones muestreadas
• Homocedasticidad: o igualdad de varianzas significa que las J poblaciones muestreadas poseen la misma varianza

Grafico de las medias: permite obtener un grafico de líneas con la variable factor en el eje de
abscisas y la variable dependiente en el de ordenadas.
Para llevar a cabo un ANOVA de un factor
Valores perdidos: pueden ser excluidos del
análisis utilizando dos criterios diferentes
 Excluir casos según análisis: excluye de cada
ANOVA los casos que tienen algún valor perdido
en la variable factor o en la variable dependiente
que está siendo analizada. Es la opción por
defecto.
 Excluir casos según lista: excluye todos los
ANOVA solicitados, los casos que tiene algún
valor perdido en la variable factor o en cualquiera
de las variables de la lista dependientes
Comparaciones post hoc o a posteriori
El estadístico F
del ANOVA Al rechazar esa hipótesis, Son diferentes entre
únicamente nos sabemos que la medias si todas las medias
permite poblacionales comparadas
contrastar la
hipótesis general no son iguales, pero no Hay solo una media
de que los J sabemos donde en
promedios concreto se encuentran las que difiere de las
comparados son
iguales diferencias demás

Para saberlo debemos usar un tipo particular


de contrastes denominados comparaciones Los errores tipo I se
múltiples post hoc o comparaciones a comenten cuando se
posteriori decide rechazar una
• Permiten hipótesis nula que en
• Controlar la tasa de error al efectuar varios contrastes realidad no debería
utilizando las mismas medias rechazarse
• Controlar la capacidad de cometer errores tipo I al
tomar varias decisiones
Comparaciones post hoc o a posteriori
Para efectuar comparaciones post hoc:
Pulsar el botón Post Hoc, del cuadro de dialogo

 Asumiendo
varianzas iguales:
podemos
seleccionar uno o
mas de los
procedimientos post
hoc

Todos los procedimientos de ese cuadro ofrecen información similar, permiten


una vez rechazada la hipótesis general del ANOVA de que todas las medias son
iguales, averiguar que medias en concreto difieren de que otras
Comparaciones post hoc o a posteriori
• Diferencia mínima significativa basada en la distribución T de
Student, no ejerce ningún control sobre la tasa de error, cada
comparación se lleva a cabo utilizando el nivel de significación
DMS establecido (0.05)

• Método Dunn, controla la tasa de error evaluando cada


comparación con un nivel del significación entre el numero de
Bonferroni comparaciones

• Controla la tasa de erro evaluando cada comparación, rechaza la


hipótesis de igualdad de medias en mas ocasiones que
Sidak Bonferroni
Comparaciones planeadas o a priori
Opción contrates, permite solicitar comparaciones de tendencia y
definir cualquier otro tipo de comparaciones entre medias que se nos
ocurra plantear
Polinómico: permite
obtener
comparaciones de
tendencia, si el
estadístico F lleva al
rechazo de la
hipótesis de igualdad
de medias, significa
que no todas las
medias son iguales y
que la VI y VD están
relacionadas, si la VI
es cuantitativa esta
Coeficientes: permite definir contraste personalizados opción permite
mediante asignación de coeficientes concretos a los determinar cual es el
distintos grupos tipo de relación:
Prueba de Kruskal-Wallis
De William Kruskal y W. Allen Wallis es un método no paramétrico
para probar si un grupo de datos proviene de la misma población

Intuitivamente, es idéntico al ANOVA con los datos


reemplazados por categorías

Es una extensión de la prueba de la U de Mann-Whitney para 3


o más grupos.

No asume normalidad en los datos, en oposición al tradicional


ANOVA.

Sí asume, bajo la hipótesis nula, que los datos vienen de la misma


distribución.
Método
Prueba de Kruskal-Wallis
Esta prueba no paramétrica permite contrastar si es estadísticamente
significativa la relación entre una variable categórica y una variable
cuantitativa/ordinal
Independientemente del número de modalidades que tenga la variable
categórica

El contraste de
hipótesis basado en la En el caso de un
prueba de Kruskal- contraste bilateral,
Wallis, compara una tendremos las
estimación basada en hipótesis, donde δ
rangos de la posición de representa la diferencia
la variable en la localización de las
cuantitativa/ordinal en distintas
diferentes submuestras subpoblaciones objeto
definidas por la variable de comparación
categórica.
Prueba de Kruskal-Wallis
El camino a seguir con el programa SPSS para realizar
el contraste de hipótesis basado en la prueba de
Kruskal-Wallis

La tabla de resultados (Rangos) permite


explorar el sentido de la relación  los
conductores de motocicleta aparecen asociados
a un mayor nivel riesgo asumido, seguidos de
los de coche y, en último lugar, los de bicicleta
Prueba de Kruskal-Wallis
El nivel de significación (Sig = 0,024)
correspondiente al estadístico de contraste
obtenido (Chicuadrado = 7,45) sustenta el
rechazo de la Ho
Proporcionando evidencia a favor de la
existencia de una relación estadísticamente
significativa entre el tipo de conductor
(bicicleta, motocicleta y coche) y el riesgo
asumido en la conducción
Prueba de Kruskal-Wallis
 Si de la prueba de Kruskal-Wallis se deriva la existencia de
diferencias estadísticamente significativas, ello no significa que
éstas se den entre todos los pares de subgrupos.
Análisis
Comparación
adicional, con
por pares
prueba de Mann-
realizar ajuste en
Whitney
nivel del α
permitirá
asumido (por
conocer entre
ejemplo, la
que pares
corrección de
concretos de
Bonferroni) a fin
subgrupos
de contrarrestar
existen
el incremento en
diferencias
la tasa de error
estadísticamente
tipo I
significativas.
Prueba de Kruskal-Wallis
Comparar por pares los tres tipos de conductores
Realizar 3 comparaciones diferentes (bicicleta-motocicleta, bicicleta-coche y
motocicleta-coche)
Aplicando la corrección de Bonferroni (α dividido por el número de comparaciones),
el α corregido a considerar en las 3 pruebas de Mann-Withney a realizar seria igual a
0,017 (0,05/3)
Obtuvieron los siguientes niveles de significación: bicicleta-motocicleta, 0,010;
bicicleta-coche, 0,416; motocicleta-coche, 0,053.
El nivel de
significación es Diferencias en
inferior a 0,017 el riesgo
Diferencias
para la
estadísticame asumido en la
comparación
entre los
nte conducción a
significativas nivel
conductores de
bicicleta y los de poblacional
motocicleta
Referencias
J. Gabriel Molina y María F. Rodrigo, 2014. Pruebas
no Paramétricas. Universidad de Valencia. Open
Course Ware. Consultado en: http://
ocw.uv.es/ciencias-de-la-salud/estadistica-ii/est2_t5.pd
f
Análisis de varianza de un factor, el procedimiento
ANOVA de un factor. Capítulo 14.
Scientific European Federation. Pruebas no
paramétricas. Consultado en:https://www.scientific-
european-federation-osteopaths.org/wp-content/
uploads/2019/01/ALGUNAS-PRUEBAS-NO-
PARAM%C3%89TRICAS.pdf

También podría gustarte