Está en la página 1de 54

Aplicación a las Pruebas no

Paramétricas

CASTILLO CALERO Italo


CERNA JAIME Joseph Andres
Wilcoxon
Sirve para establecer una variable para objetar diferencias entre los elementos de un mismo
grupo al determinar una peculiaridad de interés.

¿Existe relación entre las variables?

El estudio de relación entre una variable dicotómica y una variable cuantitativa es equivalente a
efectuar un contraste de comparación de tendencia central
Contraste de igualdad de Tendencia central

Tipo de datos:

o Normales:

o No normales
Contraste para la igualdad de medidas de tendencia
central.

tipos de datos:

● No normales
○ Independientes - U de Mann Whitney
○ Dependientes - Wilcoxon
TESTS NO PARAMÉTRICOS
Datos NO NORMALES
Wilcoxon

● Comparan MEDIANAS
● Trabajan sobre rangos de orden
● Son menos potentes
Ejemplos teóricos

● Conocer si un programa de reducción de peso es efectivo o no (Toda población de


sujetos que pertenecen a este programa, se elige al azar n de ellos y se registra el peso
antes de empezar el programa y después de culminar).
● En un banco, Comprobar si sus dos analistas de crédito asignan la misma puntuación a
los solicitantes antes de concederles o negarles el crédito (se elige al azar n solicitudes
cuyos expedientes son calificados por separado por los dos analistas a fin de establecer
diferencias en sus puntuaciones).
● Que se intente establecer diferencias entre cremas si es que tuvo un mejor efecto o no
hubo diferencia en el después de haber probado dicho producto.
Ejemplo de aplicación

La Excelente es una empresa dedicada a la


comercialización de artefactos eléctricos con salas de
venta en todo el país. El gerente general afirma que, en
promedio, las ventas del mes de diciembre han
superado a las del mes de julio, debido principalmente
al efecto de la campaña de promoción realizada. Para
hacer esta comprobación, seleccionó al azar 14
sucursales y se registraron los siguientes datos sobre
las ventas (en millones de soles).
Desarrollo del caso

Hipótesis:

Ho: No hay diferencia significativa entre los promedios de venta de los meses de diciembre y
julio.

H1: Hay diferencia significativa entre los promedios de venta de los meses de diciembre y julio.
U DE MANN – WHITNEY
En estadística la prueba de la U de Mann-Whitney (también llamada de Mann-Whitney-
Wilcoxon, prueba de suma de rangos Wilcoxon, o prueba de Wilcoxon-Mann-Whitney) es
una prueba no paramétrica aplicada a dos muestras independientes.

Es la versión no paramétrica de la
habitual prueba t de Student.
Fue propuesto inicialmente en 1945 por
Frank Wilcoxon para muestras de igual
tamaños.
Cuando hablamos de muestras
independientes en prueba no paramétrica
uno de lo más usados es sin duda la
prueba de Mann-Whitney.
La prueba U de Mann-Whitney es un procedimiento estadístico no paramétrico que se emplea
para comparar dos grupos independientes en los casos en que la variable dependiente se
encuentra al menos en un nivel de medición ordinal.
La prueba de Mann-Whitney es utilizada en prueba para dos muestras aleatorias
independientes.

En la cual su objetivo es probar si las muestras


proceden de una misma población o de poblaciones
diferentes con características similares.
Esta prueba es una excelente alternativa a la prueba t
para la comparación de dos medias poblacionales,
cuando no se cumplen los supuestos en los que se
basa la prueba t, como la normalidad, o cuando no es
apropiado utilizar la prueba t porque la medida de los
datos es en la escala ordinal.
Procedimiento de la prueba U de Mann-Whitney

Esta prueba permite conocer si los datos de las muestras observadas tienen características
similares.

i)En primer lugar


Consideremos dos muestras independientes, siendo n1 el tamaño de la primera muestra y n2 el
tamaño de la segunda muestra, las cuales son extraídas de la misma población o de dos
poblaciones idénticas.
ii) En segundo lugar

Combinar las n = n1 + n2 observaciones como si se tratara de una sola muestra, asignamos


rangos a las n observaciones, esto es, 1 para la más pequeña, 2 para la segunda más pequeña,
..., n para la más grande; resolver los empates y asignar el rango promedio. Así tendremos los
rangos Ri1 (de las n1 observaciones de la primera muestra) y los rangos Ri2 (de las n2
observaciones de la segunda muestra).
iii) En tercer lugar

Luego se calculan los estadísticos S1 (al sumar los rangos de la primera muestra) y S2 (al
sumar los rangos de la segunda muestra). Esto e s,
IV) En cuarto lugar

Se calculan los estadísticos U1 (para la primera muestra) y U2 (para la segunda


muestra) de la siguiente forma:
V) En quinto lugar

Dado que suponemos que las dos muestras se han extraído de dos poblaciones idénticas,
cabe esperar que U1 y U2 sean iguales; si fuesen distintas, se debe ubicar evidencia de que
sean iguales, siempre y cuando U1 (o U2) sea demasiado grande o demasiado pequeño.
Entonces, para determinar al estadístico U, nos basamos en:
Dócima de hipótesis de la prueba U de Mann-Whitney

Hipótesis por plantear


1. Cola izquierda
H0: Los datos observados de las muestras son iguales.
H0: µ1 = µ2
H1: Los datos observados de la primera muestra son menores que los
de la segunda muestra.
H1: µ1 < µ2
2. Cola derecha
H0: Los datos observados de las muestras son iguales
H0: µ1 = µ2
H1: Los datos observados de la primera muestra son mayores que
los de la segunda muestra.
H1: µ1 > µ2
3. Cola bilateral
H0: Los datos observados de las muestras son iguales.
H0: µ1 = µ2
H1: Los datos observados de las muestras son diferentes.
H1: µ1 ≠ µ2
ii) Fijar el nivel de significación
El nivel de significación es la máxima
probabilidad de cometer error tipo I, y se denota
como α para 0 ≤ α ≤ 0,10.
El error de tipo I se comete cuando la hipótesis nula es
verdadera y, como consecuencia del contraste, se rechaza.
error de tipo II se comete cuando la hipótesis nula es falsa y,
como consecuencia del contraste se acepta.
iii) Estadístico de prueba
Con base en el estadístico U, asumiendo que se ajusta a una distribución normal,
Luego, si se estandariza (tipifica) el estadístico U, se puede afirmar que el
estadístico de la prueba está dado por:

iv) Valores críticos


Los valores críticos son los valores de la distribución normal estándar.
• Para la cola izquierda: Z_α;
• Para la cola derecha: Z_(1 - α); y
• Para la cola bilateral: Z_(1 - α/2 )
v) Regla de decisión
Para esta prueba, teniendo en cuenta la cola de la prueba, se obtiene la regla para no
rechazar la hipótesis nula:

1. Cola izquierda
H_0se rechaza si y sólo si: Z_c < Z_α ; caso contrario, no se rechaza.

2. Cola derecha
H_0 se rechaza si y sólo si: Z_c > Z_(1 - α) ; caso contrario, no se rechaza.

3. Cola bilateral
H_0 se rechaza si y sólo si: 〖 |Z 〗 _α | > Z_(1 - α/2) ; caso contrario, no se
rechaza.
Caso de aplicación de la prueba U de Mann-Whitney

Se administró una prueba de conocimientos a los obreros que trabajan en los turnos
mañana y tarde de una empresa, y se quiere saber si las calificaciones promedio son
similares, para lo cual se han registrado las calificaciones de una muestra de obreros
evaluados en ambos turnos, cuyos datos son los siguientes:
Desarrollo del caso

Para este caso, denominamos como variable Xi a las calificaciones de los trabajadores del
turno mañana y como variable Yi a las calificaciones de los trabajadores del turno tarde. De
este modo, procedemos a asignar los rangos a cada una de las variables. Ello nos permite
obtener la siguiente tabla.
Luego calculamos los estadísticos S_1 = 110,5 (al sumar los rangos de la primera
muestra) y S_2 = 99,5 (al sumar los rangos de la segunda muestra). De este modo, es
posible obtener:
Por lo tanto, la U de Mann-Whitney está dada: U = U1 = 44,5

1. Hipótesis
H0: Las calificaciones promedio de los obreros de los turnos mañana y tarde
son similares.
H0 : µ1 = µ2
H1: Las calificaciones promedio de los obreros de los turnos mañana y tarde
no son similares.
H1: µ1 ≠ µ2
2. Nivel de significación
Se asume un nivel de significación del 5 %, esto es, α = 0,05.

3. Estadístico de prueba
El valor del estadístico de prueba está dado por:
4. Valor crítico
El valor crítico se puede obtener de la tabla normal estándar. Esto es, el caso
bilateral:
Z_(1 - α/2)= Z_0.975 =1.96

5. Regla de decisión
H_0 se rechaza si y sólo si 〖 |Z 〗 _α | > Z_(1 - α/2) ; caso contrario, no se
rechaza

6. Decisión
Como Z_c= -0,4159 < Z_(1 - α/2) = Z_(0.975) = 1,96 , H0 no se rechaza
KRUSKAL-WALLIS
El test de Kruskal-Wallis es llamada también como la prueba H; esta prueba nos sirve para
comparar 2 o más grupos independientes; el nivel de medición con el que se debe trabajar
debe de ser ordinal, también se debe tener en cuenta que como mínimo por grupo necesitamos
tener 6 participantes.

Para usar este tipo de test, generalmente se usa el análisis de varianza con el criterio de
clasificación donde se utiliza la variación entre las muestras para estimar la variación entre los
individuos.
Kruskal-Wallis (1952), sugiere que es más conveniente utilizar los rangos en vez de las
observaciones originales, ya que los cálculos se simplifican cuando:

● Cuando todas las observaciones están dentro de una muestra, proceden de una misma
población o si proceden de k poblaciones son aproximadamente de la misma forma.
● Los datos disponibles son de escala ordinal.
● Los supuestos de análisis de varianza no se cumplen.
Caso de aplicación

Se quiere saber si las ventas semanales


promedio de las cuatro agencias de un
minimarket son similares, para lo cual se han
registrado los montos (en miles de dólares) de
las ventas de estas cuatro agencias de 10
semanas del año pasado, seleccionadas
aleatoriamente. Los datos se presentan a
continuación.
Hipótesis

Ho : Los promedios de las ventas semanales de las cuatro agencias del minimarket no son
diferentes.

H1 : Los promedios de las ventas semanales de las cuatro agencias del minimarket son
diferentes.
FRIEDMANN
En estadística la prueba de Friedman es una prueba no paramétrica desarrollado por
el economista Milton Friedman.
Equivalente a la prueba ANOVA para medidas repetidas en la versión no paramétrica,
el método consiste en ordenar los datos por filas o bloques, reemplazándolos por su
respectivo orden. Al ordenarlos, debemos considerar la existencia de datos idénticos.
Para el análisis estadístico de datos de k muestras relacionadas (tres o más
muestras) que tienen como uno de sus principales objetivos el aislamiento de
los factores que explican la dispersión en la variable estudiada,
habitualmente se emplea la prueba conocida como el análisis de la varianza.
Sin embargo, no todos los datos cumplen con los supuestos requeridos
por esta técnica, como es el caso de la normalidad de estos, dificultad que
puede evitarse mediante el uso de la prueba de Friedman, propuesta en
Friedman (1937), la misma que brinda la posibilidad de utilizar los rangos
de los datos en lugar de las observaciones originales, para evitar así el
supuesto de normalidad.
Procedimiento de la prueba de Friedman.

Esta prueba sirve para comparar k muestras relacionadas (tres o más muestras).
La situación experimental que permite resolver esta prueba es que a “n” sujetos se
les aplican “k” tratamientos o mediciones, con la intención de averiguar si son o no
iguales.
Esta prueba puede utilizarse en aquellas situaciones en k grupos de n elementos,
de forma que los elementos de cada grupo sean, en lo posible, lo más parecidos
entre sí. El método consiste en ordenar los datos por filas o bloques, asignando a
cada dato el valor que le corresponde en dicho ordenamiento.
i) En primer lugar
Se elabora una tabla donde las k variables, es decir, las k mediciones estén en las
columnas y los n elementos en las filas; de esta manera, la tabla tendrá n filas y k
columnas.

ii) En segundo lugar


A los valores de cada i-fila se les asigna un número del 1 a k, según el orden de
magnitud de menor a mayor; a este número se le denomina rango Rij.
iii) En tercer lugar
Se suman los respectivos rangos en función de las columnas, a las que
denominaremos .
Así, se puede obtener el estadístico de la prueba:

Dócima de hipótesis de la prueba de Friedman

i) Hipótesis por plantear


H0: Los k promedios no son diferentes.

H1: Al menos un par de promedios son diferentes


ii) Fijar el nivel de significación
El nivel de significación es la máxima probabilidad de cometer error tipo I, y
se denota como α para 0 ≤ α ≤ 0,10.

iii) Estadístico de prueba


El estadístico de prueba está dado por:
iv) Valor crítico

El valor crítico para el contraste se obtiene de la tabla Chi-


Cuadrado.
Los grados de libertad están determinados por gl = k – 1.

v) Regla de decisión

Si el estadístico de la prueba se rechaza la hipótesis nula; en


caso contrario, no se rechaza.
Caso de aplicación de la prueba de Friedman

Una empresa desea conocer si en el tiempo los operarios tienen el mismo rendimiento
promedio (número de piezas producidas por hora). Para ello, se selecciona a 14 operarios
a quienes se les hizo el seguimiento durante cuatro semanas, en las cuales se obtuvo el
número de piezas producidas por hora. Los datos se presentan en la siguiente tabla.
Desarrollo del caso
En este caso, vamos a disponer los datos en una tabla en la que las k = 4 mediciones en
el tiempo estén en las columnas y los n = 14 operarios en las filas; de esta manera, la
tabla tendrá n = 14 filas y k = 4 columnas. A los valores de la i-ésima fila se les asigna un
rango del 1 a 4, según el orden de magnitud de menor a mayor.
Luego sumamos los respectivos rangos en función de las columnas, a las que
denominaremos Rj. Esto es:
1. Hipótesis
H0: Los operarios, en promedio, no tienen rendimientos diferentes.
H1: Los operarios, en promedio, tienen rendimientos diferentes.

2. Nivel de significación
Se asume un nivel de significación del 5 %, esto es, α = 0,05.
3. Estadístico de prueba

4. Valor crítico

El valor crítico se obtiene de la tabla Chi-Cuadrado


5. Regla de decisión

Si se rechaza la hipótesis nula; en caso contrario, no se rechaza

6.- Decisión

Como no se rechaza la hipótesis nula

También podría gustarte