Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Paramétricas
El estudio de relación entre una variable dicotómica y una variable cuantitativa es equivalente a
efectuar un contraste de comparación de tendencia central
Contraste de igualdad de Tendencia central
Tipo de datos:
o Normales:
o No normales
Contraste para la igualdad de medidas de tendencia
central.
tipos de datos:
● No normales
○ Independientes - U de Mann Whitney
○ Dependientes - Wilcoxon
TESTS NO PARAMÉTRICOS
Datos NO NORMALES
Wilcoxon
● Comparan MEDIANAS
● Trabajan sobre rangos de orden
● Son menos potentes
Ejemplos teóricos
Hipótesis:
Ho: No hay diferencia significativa entre los promedios de venta de los meses de diciembre y
julio.
H1: Hay diferencia significativa entre los promedios de venta de los meses de diciembre y julio.
U DE MANN – WHITNEY
En estadística la prueba de la U de Mann-Whitney (también llamada de Mann-Whitney-
Wilcoxon, prueba de suma de rangos Wilcoxon, o prueba de Wilcoxon-Mann-Whitney) es
una prueba no paramétrica aplicada a dos muestras independientes.
Es la versión no paramétrica de la
habitual prueba t de Student.
Fue propuesto inicialmente en 1945 por
Frank Wilcoxon para muestras de igual
tamaños.
Cuando hablamos de muestras
independientes en prueba no paramétrica
uno de lo más usados es sin duda la
prueba de Mann-Whitney.
La prueba U de Mann-Whitney es un procedimiento estadístico no paramétrico que se emplea
para comparar dos grupos independientes en los casos en que la variable dependiente se
encuentra al menos en un nivel de medición ordinal.
La prueba de Mann-Whitney es utilizada en prueba para dos muestras aleatorias
independientes.
Esta prueba permite conocer si los datos de las muestras observadas tienen características
similares.
Luego se calculan los estadísticos S1 (al sumar los rangos de la primera muestra) y S2 (al
sumar los rangos de la segunda muestra). Esto e s,
IV) En cuarto lugar
Dado que suponemos que las dos muestras se han extraído de dos poblaciones idénticas,
cabe esperar que U1 y U2 sean iguales; si fuesen distintas, se debe ubicar evidencia de que
sean iguales, siempre y cuando U1 (o U2) sea demasiado grande o demasiado pequeño.
Entonces, para determinar al estadístico U, nos basamos en:
Dócima de hipótesis de la prueba U de Mann-Whitney
1. Cola izquierda
H_0se rechaza si y sólo si: Z_c < Z_α ; caso contrario, no se rechaza.
2. Cola derecha
H_0 se rechaza si y sólo si: Z_c > Z_(1 - α) ; caso contrario, no se rechaza.
3. Cola bilateral
H_0 se rechaza si y sólo si: 〖 |Z 〗 _α | > Z_(1 - α/2) ; caso contrario, no se
rechaza.
Caso de aplicación de la prueba U de Mann-Whitney
Se administró una prueba de conocimientos a los obreros que trabajan en los turnos
mañana y tarde de una empresa, y se quiere saber si las calificaciones promedio son
similares, para lo cual se han registrado las calificaciones de una muestra de obreros
evaluados en ambos turnos, cuyos datos son los siguientes:
Desarrollo del caso
Para este caso, denominamos como variable Xi a las calificaciones de los trabajadores del
turno mañana y como variable Yi a las calificaciones de los trabajadores del turno tarde. De
este modo, procedemos a asignar los rangos a cada una de las variables. Ello nos permite
obtener la siguiente tabla.
Luego calculamos los estadísticos S_1 = 110,5 (al sumar los rangos de la primera
muestra) y S_2 = 99,5 (al sumar los rangos de la segunda muestra). De este modo, es
posible obtener:
Por lo tanto, la U de Mann-Whitney está dada: U = U1 = 44,5
1. Hipótesis
H0: Las calificaciones promedio de los obreros de los turnos mañana y tarde
son similares.
H0 : µ1 = µ2
H1: Las calificaciones promedio de los obreros de los turnos mañana y tarde
no son similares.
H1: µ1 ≠ µ2
2. Nivel de significación
Se asume un nivel de significación del 5 %, esto es, α = 0,05.
3. Estadístico de prueba
El valor del estadístico de prueba está dado por:
4. Valor crítico
El valor crítico se puede obtener de la tabla normal estándar. Esto es, el caso
bilateral:
Z_(1 - α/2)= Z_0.975 =1.96
5. Regla de decisión
H_0 se rechaza si y sólo si 〖 |Z 〗 _α | > Z_(1 - α/2) ; caso contrario, no se
rechaza
6. Decisión
Como Z_c= -0,4159 < Z_(1 - α/2) = Z_(0.975) = 1,96 , H0 no se rechaza
KRUSKAL-WALLIS
El test de Kruskal-Wallis es llamada también como la prueba H; esta prueba nos sirve para
comparar 2 o más grupos independientes; el nivel de medición con el que se debe trabajar
debe de ser ordinal, también se debe tener en cuenta que como mínimo por grupo necesitamos
tener 6 participantes.
Para usar este tipo de test, generalmente se usa el análisis de varianza con el criterio de
clasificación donde se utiliza la variación entre las muestras para estimar la variación entre los
individuos.
Kruskal-Wallis (1952), sugiere que es más conveniente utilizar los rangos en vez de las
observaciones originales, ya que los cálculos se simplifican cuando:
● Cuando todas las observaciones están dentro de una muestra, proceden de una misma
población o si proceden de k poblaciones son aproximadamente de la misma forma.
● Los datos disponibles son de escala ordinal.
● Los supuestos de análisis de varianza no se cumplen.
Caso de aplicación
Ho : Los promedios de las ventas semanales de las cuatro agencias del minimarket no son
diferentes.
H1 : Los promedios de las ventas semanales de las cuatro agencias del minimarket son
diferentes.
FRIEDMANN
En estadística la prueba de Friedman es una prueba no paramétrica desarrollado por
el economista Milton Friedman.
Equivalente a la prueba ANOVA para medidas repetidas en la versión no paramétrica,
el método consiste en ordenar los datos por filas o bloques, reemplazándolos por su
respectivo orden. Al ordenarlos, debemos considerar la existencia de datos idénticos.
Para el análisis estadístico de datos de k muestras relacionadas (tres o más
muestras) que tienen como uno de sus principales objetivos el aislamiento de
los factores que explican la dispersión en la variable estudiada,
habitualmente se emplea la prueba conocida como el análisis de la varianza.
Sin embargo, no todos los datos cumplen con los supuestos requeridos
por esta técnica, como es el caso de la normalidad de estos, dificultad que
puede evitarse mediante el uso de la prueba de Friedman, propuesta en
Friedman (1937), la misma que brinda la posibilidad de utilizar los rangos
de los datos en lugar de las observaciones originales, para evitar así el
supuesto de normalidad.
Procedimiento de la prueba de Friedman.
Esta prueba sirve para comparar k muestras relacionadas (tres o más muestras).
La situación experimental que permite resolver esta prueba es que a “n” sujetos se
les aplican “k” tratamientos o mediciones, con la intención de averiguar si son o no
iguales.
Esta prueba puede utilizarse en aquellas situaciones en k grupos de n elementos,
de forma que los elementos de cada grupo sean, en lo posible, lo más parecidos
entre sí. El método consiste en ordenar los datos por filas o bloques, asignando a
cada dato el valor que le corresponde en dicho ordenamiento.
i) En primer lugar
Se elabora una tabla donde las k variables, es decir, las k mediciones estén en las
columnas y los n elementos en las filas; de esta manera, la tabla tendrá n filas y k
columnas.
v) Regla de decisión
Una empresa desea conocer si en el tiempo los operarios tienen el mismo rendimiento
promedio (número de piezas producidas por hora). Para ello, se selecciona a 14 operarios
a quienes se les hizo el seguimiento durante cuatro semanas, en las cuales se obtuvo el
número de piezas producidas por hora. Los datos se presentan en la siguiente tabla.
Desarrollo del caso
En este caso, vamos a disponer los datos en una tabla en la que las k = 4 mediciones en
el tiempo estén en las columnas y los n = 14 operarios en las filas; de esta manera, la
tabla tendrá n = 14 filas y k = 4 columnas. A los valores de la i-ésima fila se les asigna un
rango del 1 a 4, según el orden de magnitud de menor a mayor.
Luego sumamos los respectivos rangos en función de las columnas, a las que
denominaremos Rj. Esto es:
1. Hipótesis
H0: Los operarios, en promedio, no tienen rendimientos diferentes.
H1: Los operarios, en promedio, tienen rendimientos diferentes.
2. Nivel de significación
Se asume un nivel de significación del 5 %, esto es, α = 0,05.
3. Estadístico de prueba
4. Valor crítico
6.- Decisión