Está en la página 1de 8

Pruebas No Paramétricas

Hasta ahora todas las técnicas utilizadas para realizar algún tipo de inferencia exigían asumir de ciertas
hipótesis como la aleatoriedad en las observaciones que componen la muestra, o la normalidad de la
población, o la igualdad de varianzas de dos poblaciones, etc. También exigían la estimación de cualquier
parámetro como la media, varianza, proporción, etc, de la población.

El conjunto de estas técnicas de inferencia se denominan técnicas paramétricas. Existen sin embargo otros
métodos paralelos cuyos procedimientos no precisan la estimación de parámetros ni suponer conocida
ninguna ley de probabilidad subyacente en la población de la que se extrae la muestra. Estas son las
denominadas técnicas no paramétricas o contrastes de distribuciones libres, sus mayores atractivos residen
en que son más fáciles de aplicar que las alternativas paramétricas y al no exigir ninguna condición
suplementaria a la muestra sobre su proveniencia de una población con cierto tipo de distribución, son más
generales que las paramétricas, pudiéndose aplicar en los mismos casos en que estas son válidas.

Por otro lado, esta liberación en los supuestos sobre la población tiene inconvenientes. El principal es la falta
de sensibilidad que poseen para detectar efectos importantes. En las técnicas no paramétricas juega un papel
fundamental la ordenación de los datos, hasta el punto de que en gran cantidad de casos ni siquiera es
necesario hacer intervenir en los cálculos las magnitudes observadas, más que para establecer una relación
de menor a mayor entre las mismas, denominadas rangos.

Prueba de Kruskal-Wallis (Análisis de varianza de una clasificación por rangos de Kruskal-Wallis)


El contraste de Kruskall-Wallis es la alternativa no paramétrica del método ANOVA, es decir, sirve para
contrastar la hipótesis de que k muestras cuantitativas han sido obtenidas de la misma población. La única
exigencia versa sobre la aleatoriedad en la extracción de las muestras, no haciendo referencia a ninguna de
las otras condiciones adicionales de homogeneidad de varianzas y normalidad necesarias para la aplicación
del test paramétrico ANOVA.
De este modo, este contraste es el que debemos aplicar necesariamente cuando no se cumple la normalidad
de la variable en estudio en cada uno de los grupos.

Esta prueba se apoya en el uso de los rangos asignados a las observaciones.

La hipótesis a contrastar es:


H0: Las k muestras provienen de la misma población.
H1: Alguna proviene de una población con mediana diferente a las demás.

El modo de realizar el contraste es el siguiente:


Se ordenan las observaciones de menor a mayor, asignando a cada una de ellas su rango (1 para la menor, 2
para la siguiente, ...,N para la mayor).

Para cada una de las muestras, se calcula R i, i=1, …, k, como la suma de los rangos de las observaciones
que les corresponden. Si H0 es falsa, cabe esperar que esas cantidades sean muy diferentes.
Se calcula el estadístico:

La regla para decidir si se ha de rechazar o no la hipótesis nula es la siguiente:


Si el número de observaciones en cada una de ellas es mayor de 5 se puede utilizar la tabla chi-cuadrado, es
decir se compara Hcalculado (valor del estadístico de prueba evaluado en la muestra) con el valor de X 2 1-, k-1, es
decir si el valor del Hcalculado es mayor que el valor de tabla se rechaza H0.
Comparaciones múltiples
En aquellas situaciones en las que se haya rechazado la hipótesis acerca de la igualdad de las distribuciones
poblacionales de las cuales hayan sido extraídas las muestras, será necesario, realizar contrastes a posteriori
que determinen o precisen entre qué muestras existen las diferencias significativas que provocan el rechazar
la hipótesis nula del contraste de Kruskal-Wallis.

El procedimiento consistirá en los siguientes pasos:


En primer lugar determinaremos la cantidad:

Posteriormente calculamos el valor del percentil de la distribución N(0,1), z1-.


Por último calculamos la cantidad

y en lo que respecta a la regla de decisión diremos que existen diferencias significativas entre dos poblaciones
siempre que:

rango medio de la muestra i, es decir, no admitiendo posibles diferencias en otro caso.

Ejemplo. Se quiere evaluar la eficacia de distintas dosis de un fármaco contra la hipertensión arterial,
comparándola con la de una dieta sin sal. Para ello se seleccionan al azar 25 hipertensos y se distribuyen
aleatoriamente en 5 grupos. Al primero de ellos no se le suministra ningún tratamiento, al segundo una dieta
con un contenido pobre en sal, al tercero una dieta sin sal, al cuarto el fármaco a una dosis determinada y al
quinto el mismo fármaco a otra dosis. Las presiones arteriales sistólicas de los 25 sujetos al finalizar los
tratamientos son:
X: ______________________________________________________________________________

Conclusión: _______________________

Observemos la salida de InfoStat:

Test de Friedman – Prueba para k muestras dependientes

Esta prueba puede utilizarse en aquellas situaciones en las que se seleccionan n grupos de k elementos de
forma que los elementos de cada grupo sean lo más parecidos posible entre sí, y a cada uno de los elementos
del grupo se le aplica uno de entre k ''tratamientos'', o bien cuando a cada uno de los elementos de una
muestra de tamaño n se le aplican los k ''tratamientos''.

La hipótesis nula que se contrasta es que las respuestas asociadas a cada uno de los ''tratamientos'' tienen la
misma distribución de probabilidad o distribuciones con la misma mediana, frente a la hipótesis alternativa de
que por lo menos la distribución de una de las respuestas difiere de las demás. Para poder utilizar esta prueba
las respuestas deben ser variables continuas y estar medidas por lo menos en una escala ordinal.

A las observaciones de cada fila se les asignan rangos de menor a mayor desde 1 hasta k; a continuación se
suman los rangos correspondientes a cada columna, siendo RJ la suma correspondiente a la columna j-
ésima. Si la hipótesis nula es cierta, la distribución de los rangos en cada fila se debe al azar, y es de esperar
que la suma de los rangos correspondientes a cada columna sea aproximadamente igual a n(k + 1)/2. La
prueba de Friedman determina si las RJ observadas difieren significativamente del valor esperado bajo la
hipótesis nula.
El estadístico de prueba es:

Bajo H0 y si el número de columnas y/o de filas es moderadamente grande la distribución de TF se aproxima a


una chi-cuadrado con k - 1 grados de libertad; de forma que se rechaza la hipótesis nula para valores de TF
superiores al valor crítico para el nivel de significación fijado.

Ejemplo. Con objeto de estudiar la diferencia de concentración de un tóxico (mg/1000) en distintos órganos
de peces, se extrae una muestra aleatoria de peces de un río y se estudia en cada uno de ellos la
concentración del tóxico (mg/1000) en cerebro, corazón y sangre. El objetivo del estudio es conocer si la
concentración del tóxico en los tres órganos es igual o distinta. Los resultados obtenidos son los siguientes:

X: ______________________________________________________________________________

Observar que son en total b=12 peces y k=3 órganos que se está estudiando (de un mismo pez).

H0: No existen diferencias significativas en la concentración del tóxico en cerebro, corazón y sangre.
H1: Existen diferencias significativas en la concentración del toxico en cerebro, corazón y sangre.

Obtenga el valor de tabla correspondiente.

Conclusión: _______________________
PRUEBAS NO PARAMETRICAS – Para un grupo y dos grupos pareados e independientes.

Recién vimos una generalización de los test que a continuación veremos, para el caso de dos
grupos pareados y de dos grupos independientes.

Nos enfocaremos a ver ahora el test para un grupo.

Las pruebas no paramétricas son menos potentes, es decir, son más exigentes al rechazar la hipótesis nula
de igualdad y por tanto tienen menos posibilidades de acertar cuando no la rechazan (mas posibilidades de
cometer un error tipo II (b). Por otro lado, la potencia de un test estadístico aumenta cuando lo hace el tamaño
de la muestra; de esta forma, para conseguir la misma potencia con una prueba no paramétrica,
necesitaremos aumentar el tamaño de la muestra en una cantidad determinada. Así, la potencia de una
prueba no paramétrica suele calcularse en referencia a su homóloga paramétrica. Por ejemplo, la U de Mann-
Whitney tiene una potencia relativa del 95% con respecto a la prueba paramétrica t de Student (significa que
con una muestra de 100 sujetos, se consigue la misma potencia con la U de Mann-Whitney que con 95
sujetos para la t de Student).

PRUEBA DEL SIGNO.

a) Prueba del signo para comparar dos poblaciones, n<25.


Sea p=P(X>Y).

H0: p=0.5 versus H1: p>0.5 (o bien p<0.5 o bien p0.5).

Estadístico de prueba: M = número de diferencias positivas en donde Di= Xi - Yi.

Región de rechazo:
H1: p>0.5, rechazamos Ho para valores grandes de M
H1: p<0.5, rechazamos Ho para valores pequeños M;
H1:p0.5, rechazamos Ho para valores muy grandes o muy pequeños de M.

Supuestos: Los pares Xi, Yi) se seleccionan al azar e independientemente.

b) Prueba del signo para muestras grandes, n>25.


H0:p= 0.5(no se prefiere a alguno de los tratamientos) versus
H1:p0.5 para una prueba de dos colas, utilizaremos una prueba de dos colas para este caso.

|2 M−n|−1
Z=
Estadístico de la prueba: √n
Podemos decir que la prueba del signo es un procedimiento no paramétrico que se puede aplicar muy
fácilmente para comparar dos poblaciones. No se hacen supuestos acerca de las distribuciones de las
poblaciones involucradas. El valor del estadístico de la prueba se determina rápidamente mediante conteo, y
la región de rechazo se localiza fácilmente utilizando una tabla de probabilidades binomiales. Además, no
necesitamos conocer los valores exactos de los pares de respuestas, solamente si X i es o no mayor que Yi
para cada par (Xi, Yi).
PRUEBA DE WILCOXON DE RANGOS CON SIGNO (para un experimento pareado).

a) Prueba de Wilcoxon, n<25.


H0: Las distribuciones poblacionales para las X y las Y son idénticas.
H1: Las dos distribuciones poblacionales difieren en ubicación (dos colas) o bien,
H1: la distribución de frecuencia relativas de la población para las X está desfasada hacia la derecha de la
distribución de la Y (una cola).

Estadístico de la prueba:
i) Para una prueba de dos colas, utilice T = min {T+ , T- } en donde
T+ = suma de los rangos de las diferencias positivas y
T- = suma de los rangos de las diferencias negativas.

ii) Para la prueba de una cola (para detectar la alternativa de una cola dada anteriormente) utilice la suma de
los rangos T- de las diferencias negativas.

Región de rechazo:
i) Para una prueba de dos colas, rechace H0 si T < T0, en donde es el valor crítico.
ii) Para la prueba de una cola (antes descrita), rechace H0 si T- < T0.

b) Prueba de Wilcoxon, para caso de muestras grandes: n>25.


H0: Las distribuciones de frecuencia relativas poblacionales para las X y las Y son idénticas.

H1: Las dos distribuciones de frecuencias relativas poblacionales difieren en ubicación (prueba de dos colas) o
bien
H1 : la distribución poblacional de frecuencia relativas para los está desfasada hacia la derecha (o izquierda)
de la distribución de frecuencia relativas de la (pruebas de una cola).

n(n+1 )
T +−
4
Z=
n(n+1 )(2 n+1 )
Estadístico de prueba: 24 √
Región de rechazo: Rechace H0 si Zc > Z1-/2 o bien Zc < Z/2 para una prueba de dos colas. Para detectar un
desfazamiento de las X hacia la derecha de las Y, rechace H 0 cuando Zc > Z1- . Para detectar un
desfasamiento en la dirección opuesta rechace H0 si Zc < Z.

b) Prueba U de Mann-Whitney: Muestras aleatorias independientes o Prueba de suma de rangos de


Wilcoxon y Mann-Whitney.
El estadístico U de Mann-Whitney se obtiene al ordenar todas las (n 1+n2) observaciones de acuerdo con su
magnitud y al contar las observaciones en la muestra A que preceden a cada una de las observaciones en la
muestra B. El estadístico U es la suma de estos números.

Fórmulas para el estadístico U de Mann-Whitney

en donde n1 = número de observaciones en la muestra A


n2 = número de observaciones en la muestra B.
y WA y WB son las sumas de los rangos para las muestra A y B, respectivamente.

Prueba U de Mann-Whitney

H0: las distribuciones de frecuencias relativas de las poblaciones son idénticas.

H1: las distribuciones de frecuencias relativas de las poblaciones están desfasadas con respecto a sus
ubicaciones relativas (prueba de dos colas).
O bien
H1 : la distribución de frecuencias relativas de la población A está desfasada hacia la derecha de la
distribución de frecuencias relativas de la población B (véase prueba de una cola).

Estadístico de prueba: para una prueba de dos colas utilice U, el valor más pequeño entre UA y UB.

Para una prueba unilateral, utilice UA .

Región de rechazo:
Para la prueba de dos colas y un valor dado de , rechace H0 si U < U0, en donde P(U<U0)=/2.

Para una prueba unilateral y un valor dado de  rechace H0 si UA < U0 en donde P(UA <U0)=.

Supuestos: se seleccionan las muestras aleatoriamente e independientemente de sus poblaciones


respectivas. Los empates en las observaciones se pueden manejar promediando los rangos que se hubieran
asignado a las observaciones empatadas y al adjudicar este promedio a cada una. Así, cuando tres
observaciones empatan y presentan respectivamente rangos 3, 4, 5 se le asignaría a las tres el rango 4.

Prueba U de Mann-Whitney para muestras grandes,

H0 : Las distribuciones de frecuencias relativas poblacionales para A y B son idénticas.

H1 : Las dos distribuciones de frecuencias relativas poblacionales no son idénticas (prueba de dos colas).
O bien
H1: La distribución de frecuencias relativas de la población A está desfasada hacia la derecha (o izquierda) de
la distribución de frecuencias relativas de la población B (prueba de una cola).

n1 n 2
U A−
2
Z=
n1 n2 ( n1 +n 2 +1)
Estadístico de la prueba: √ 12

Región de rechazo:

Se rechaza H0 si Zc > Z1-/2 o bien Zc < Z/2 para una prueba de dos colas.

Para una prueba unilateral, coloque toda área  en una cola de la distribución Z.

Para detectar un desfasamiento en la distribución de las observaciones A hacia la derecha de la distribución


de las observaciones B, se toma U=UA se rechaza H0 cuando Zc < Z..

Para detectar un desfasamiento en la dirección opuesta rechace H 0 si Zc > Z1-. Para detectar un
desfasamiento en la dirección opuesta, se toma U=UA y se rechaza H0 cuando Zc > Z1-.

También podría gustarte