Está en la página 1de 9

ESTADÍSTICA NO PARAMÉTRICA – LIBRO

 Las pruebas estadísticas que exigen el cumplimiento de requisitos a las variables o a alguno de sus
parámetros son las paramétricas. Por ejemplo, seguir una distribución normal, que las varianzas sean
homogéneas…
 El incumplimiento de las exigencias es más fácil en muestras menores de 30 casos.
 En muestras de menos de 11 casos la potencia estadística de las pruebas no paramétricas y paramétricas es
equivalente.
 Requisito imprescindible para cualquier prueba (paramétrica o no paramétrica)  que la muestra sea
aleatoria.

PRUEBAS PARA UNA SOLA MUESTRA

Útiles para contrastar hipótesis sobre la posibilidad de que en la población muestreada las variables tengan unas
características determinadas. Extraemos una muestra aleatoria de alguna población y probamos la hipótesis de que
la muestra se extrajo de una población con una distribución específica o con características específicas.

Prueba binomial

Permite comprobar hipótesis sobre la proporción de casos que hay en una población con determinada característica.
Por ejemplo, si la proporción de mujeres en una población es distinta del 50%, o si la proporción de personas que
han padecido de catarro común en los últimos seis meses es mayor que el 40%.

Existen poblaciones concebidas como compuestas de sólo dos clases, como por ejemplo hombre y mujer, alfabeto y
analfabeto…

Bondad de ajuste: prueba chi cuadrado (x2)

Es una de las pruebas más utilizadas para analizar el ajuste de datos experimentales a distribuciones teóricas. La
prueba con para las frecuencias observadas con las esperadas, bajo la hipótesis de que en la población muestreada
la variable se ajustan a una distribución teórica determinada.

Frecuentemente, en el estudio que un investigador lleva a cabo es necesario conocer el número de sujetos, objetos
o respuestas que caen en varias categorías. Por ejemplo, los niños pueden ser categorizados de acuerdo con sus
modalidades de juego más frecuentes, siendo la hipótesis que esas modalidades diferirán en frecuencia de una
manera prescrita. O las personas pueden ser categorizadas con base en si están "en favor de", "indiferentes a" u
"opuestas a" una opinión que facilite al investigador probar la hipótesis de que esas respuestas difieren en
frecuencia.

La prueba ji cuadrada es adecuada para analizar datos como éstos. El número de categorías puede ser dos o más. La
técnica es del tipo de bondad de ajuste en que puede ser usada para probar si existe una diferencia significativa
entre un número observado de objetos o respuestas que caen en cada categoría y un número esperado basado en la
hipótesis nula. Es decir, la prueba ji cuadrada evalúa el grado de correspondencia entre las observaciones
observadas y esperadas en cada categoría.

Las hipótesis se plantean de la manera siguiente:

 H0  Los datos se ajustan a la distribución teórica


 H1  Los datos que no se ajustan a la instrucción teórica
El problema de estos contrastes es que si no se rechaza la hipótesis nula, no puede considerarse demostrado que los
datos se ajusten a la distribución teórica; sin embargo, si se rechaza la hipótesis Lola sí puede considerarse que los
datos que no se ajustan a la distribución propuesta.

Es frecuente que en muchos artículos publicados en revistas e incluso en libros considerar demostrada la hipótesis
nula si no se ha rechazado, y se consideran los datos como si se ajustarán a la distribución teórica propuesta, esto es
un error importante y muchas veces trascendente.

Prueba de Kolmogorov-Smirnov; Kolmogorov-Smirnov-Lilliefors y Saphiro Wilks

Es otra prueba de bondad de ajuste. Esta prueba originalmente se desarrolla para comprobar si la distribución
empírica de una variable cuantitativa, es decir, la distribución observada de una variable, se ajusta a una distribución
teórica conocida. Después se comenzó a aplicar a distribuciones discretas. La prueba es adecuada para probar la
bondad de ajuste para variables que son medidas en al menos una escala ordinal.

Se basa en comparar los valores absolutos de las diferencias entre las frecuencias relativas acumulativas
experimentales u observadas, y las frecuencias relativas acumulativas teóricas o esperadas.

La prueba ji cuadrada supone que las distribuciones son nominales, mientras que la prueba de Kolmogorov-Smirnov
supone una distribución continua. En principio, ambas pruebas pueden aplicarse a datos ordinales; sin embargo, el
agrupamiento que es necesario para la aplicación de la prueba ji cuadrada la hace menos precisa que la prueba de
Kolmogorov-Smimov. La elección entre ellas no es fácil. Es difícil comparar la potencia de las dos pruebas debido a
que cada una de ellas depende de diferentes cantidades. Cuando pueda aplicarse cualquier prueba, la elección
depende de la facilidad de computación o de otra preferencia. Sin embargo, con muestras pequeñas, la prueba de
Kolmogorov-Smirnov es exacta, mientras que la prueba de la bondad de ajuste ji cuadrada es sólo aproximadamente
(asintóticamente) exacta. En tales casos, la preferencia debe darse a la prueba de Kolmogorov-Smirnov.

Elección entre binomial, ji cuadrado y Kolmogorov-Smirnov

Al probar hipótesis acerca de si una muestra fue extraída de una población con una distribución específica, el
investigador puede usar una de las tres pruebas de la bondad de ajuste: la prueba binomial, la prueba ji cuadrada de
una muestra o la prueba de Kolmogorov-Smirnov de una muestra. La elección entre estas tres pruebas debe estar
determinada por: 1. el número de categorías en las medidas; 2. el nivel de medición usado; 3. el tamaño de la
muestra, y 4. la potencia de la prueba estadística.

 La prueba binomial es adecuada cuando hay justo dos categorías en la clasificación de los datos. Es útil
únicamente cuando el tamaño de la muestra es tan pequeño que la prueba ji cuadrada resulta inapropiada.
 La prueba ji cuadrada debe utilizarse cuando los datos están en categorías discretas y cuando las frecuencias
esperadas son suficientemente grandes.
 Con una variable continua, si la muestra es pequeña y, por consiguiente, las categorías adyacentes deben ser
combinadas para la prueba ji cuadrada, ésta es definitivamente menos potente que la prueba de
Kolmogorov-Smirnov.

Pruebas de aleatoriedad: prueba de las rachas

Las tres pruebas anteriores analizan la bondad de ajuste de un conjunto de datos a distribuciones teóricas puente
con tienen en cuenta si las frecuencias observadas difiere significativamente de las esperadas en el supuesto de que
la variable siga una determinada distribución estadística.

La prueba de las rachas analizar si el orden de muestreo es compatible con la calle autoridad teniendo en cuenta las
frecuencias y el orden de los valores en el muestreo. Podría ocurrir que de 20 observaciones 10 tuvieran un valor y
10 otro, pero su orden de observación no fuera el adecuado para considerar la aleatoriedad del muestreo.
Para poder realizar esta prueba es necesario conocer el orden de observación de los datos. Si se ha alterado este
orden por haber clasificado los datos según otros criterios, como por ejemplo de mejor a mayor, la prueba no tendrá
valor.

La correcta aplicación de las pruebas de aleatoriedad exige que el muestreo sea aleatorio, que se apliquen sobre
el orden de observación y que se planteen las hipótesis estadísticas antes de realizar el experimento.

Se denomina racha a una sucesión de observaciones con el mismo valor. La prueba se aplica a dos valores, por lo que
si la variable no es dicotómica hay que dicotomizarla. En el caso de variables cuantitativas se considera a la mediana
punto de corte, puesto que por definición es el valor que divide los datos en dos partes iguales en cuanto al número
de casos: la mitad de los valores son menores que la mediana y la otra mitad mayores, y se pueden denotar con un
signo – a los datos menores que la mediana y con un signo + a los datos mayores que la mediana.

PRUEBAS PARA DOS VARIABLES RELACIONADAS

En muchos trabajos de investigación se comparan datos de una variable dos circunstancias distintas. Se considera
que los grupos de datos son independientes cuando los elementos de la muestra de cada grupo son distintos, y
dependientes o relacionados cuando los elementos son los mismos en circunstancias distintas. En el caso de
muestras/variables relacionadas la circunstancia diferenciadora suele ser el tiempo.

Las pruebas estadísticas de una sola muestra que implican dos medidas o pares replicados, se utilizan cuando el
investigador desea establecer si dos tratamientos son diferentes o si un tratamiento es mejor que otro.

Prueba de los signos para dos variables relacionadas

La única suposición que subyace a esta prueba es que la variable estudiada tiene una distribución continua. La
prueba no hace suposiciones acerca de la forma de la distribución y tampoco supone que los sujetos pertenecen a la
misma población.

Es aplicable a variables cuantitativas después de una circunstancia que puede influir en sus valores; se evalúa el
resultado con un signo + si el valor ha aumentado y con un signo - si ha disminuido. Por ejemplo, un grupo de
estudiantes obtiene una determinada puntuación en matemáticas, y después de un cursillo se les vuelve evaluar: se
indica con un signo + que ha mejorado su puntuación anterior, y con un signo - que ha disminuido, y con 0 los casos
en los que no hay cambio.

En caso de que la circunstancia diferenciadora no tenga efecto global sobre la variable, se espera encontrar una
proporción similar de signos positivos y negativos.

Prueba de Wilcoxon

Esta pruebas más potente que la de los signos pues tiene en cuenta el aumento o disminución de la variable y la
magnitud del cambio.

Consiste en calcular las diferencias entre los valores y ordenar las de menor a mayor por valor absoluto. Una vez
ordenadas se enumeran de 1 a n, siendo n el número de elementos de la muestra. Al número asignado se le
denomina rango. El rango 1 se asigna a la mínima diferencia observada en Valor absoluto y así sucesivamente hasta
n, cuyo rango corresponde a la máxima diferencia.

Si hay empate, se asigna a cada diferencia empatada la media de los rangos implicado en el empate. Por ejemplo si
hay tres elementos empatados a los que les corresponderían los rangos 4, 5 y 6 se asigna a los 3 el rango medio (5).
Elección entre prueba de los signos y Wilcoxon

 La prueba de los signos es aplicable cuando utilizando pares es posible obtener mediciones en escala ordinal
(si la puntuación de un miembro de un par puede ser ordenado como "mayor que" en comparación con la
puntuación del otro miembro del mismo par).
 Cuando las mediciones se encuentran en una escala ordinal tanto intra como entre observaciones, se puede
usar la prueba de Wilcoxon; es decir, es aplicable cuando el investigador puede ordenar por rangos las
diferencias observadas en varios pares igualados.

PRUEBAS PARA DOS MUESTRAS/VARIABLES INDEPENDIENTES

Se considera que las variables son independientes cuando los valores de cada variable procedente elementos
muestrales distintos, con características diferentes. Las pruebas analizan si estas características influyen en el valor
de la variable.

Por ejemplo, si las puntuaciones en anatomía de dos muestras de alumnos procedentes de universidades distintas
son diferentes, si los tratamientos tienen efectos diferentes en dos muestras de pacientes con características
distintas, o si la proporción de votantes a un determinado partido político difieren en dos regiones de un
determinado país.

Prueba de la mediana

Esta prueba nos proporciona información acerca de qué tan probable es que dos grupos independientes (no
necesariamente del mismo tamaño) hayan sido extraídos de la misma población con la misma mediana.

Es adecuada para comparar dos variables cuantitativas. Los tamaños de las dos muestras pueden ser distintos.
Analizar si las medianas de las dos poblaciones son distintas. En primer lugar se ordenan de menor a mayor todos los
datos como si pertenecieran a un solo grupo, aunque identificando el grupo de pertenencia, y se calcula la mediana.
A continuación en una tabla dos por dos se disponen el número de casos de cada muestra, que son mayores o
menores que la mediana global. Si las medianas poblacionales son iguales, la proporción de casos de cada muestra
que son menores o mayores que la mediana global deben ser similares, salvo diferencias debidas al azar; por el
contrario, si las medidas son diferentes, las proporciones de casos mayores y menores de la mediana global serán
significativamente distintas en ambas muestras.
Prueba de Mann-Whitney

Aplicable para comparar los valores de dos variables cuantitativas independientes, también se puede aplicar a
variables ordinales. Las dos muestras pueden tener tamaños distintos. Es la más potente para comparar los valores
de dos variables cuantitativas independientes.

Se agrupan los datos de las dos muestras en un solo grupo, se ordenan los datos de menor a mayor, asignándole a
cada dato el rango correspondiente a su orden. Si no hay diferencias entre las dos variables, se espera que los rangos
estén uniformemente repartidos entre los dos grupos; por el contrario, si hay diferencias entre las dos variables, se
espera que los rangos menores se asocien con una de las muestras y los mayores con la otra.

Prueba de Kolmogorov-Smirnov para dos variables independientes

Sirve para comparar dos variables independientes que deben ser cuantitativas. La prueba pretende comprobar si las
distribuciones poblacionales de las dos variables son iguales o distintas.

Si las dos muestras han sido extraídas de la misma distribución poblacional, entonces las distribuciones acumulativas
de ambas tendrían que ser sumamente cercanas, tanto así como si las diferencias sólo mostraran desviaciones al
azar de la distribución poblacional. Si las distribuciones acumulativas de las dos muestras están demasiado "lejanas"
en cualquier punto, esto sugiere que las muestras provienen de poblaciones distintas.

Prueba de rachas de Wald-Wolfowitz para dos variables independientes

Analizar las distribuciones de dos variables independientes y puede detectar diferencias en la tendencia central,
dispersión u oblicuidad.

Los datos de las dos variables se agrupan en un solo conjunto de datos, ordenándolos de menor a mayor y contando
a continuación la racha referidas a los grupos. Cada sucesión de datos correspondiente a un grupo se cuenta como
una racha. Si las distribuciones de los datos son iguales, las rachas estarán uniformemente repartidas; y por el
contrario, si hay diferencias entre ellas, las rachas de cada grupo se encontrarán repartidas de forma desequilibrada.

Prueba de los valores extremos de Moses

Las pruebas que comparan medias no son significativas si los valores medios son similares, pero puede ocurrir que
los valores de dos variables tengan medias parecidas por causas distintas. Si los valores de una variable son todos
parecidos y los de la otra variable la mitad son pequeños y la otra mitad grandes, las medias pueden ser iguales pero
los valores extremos pueden ser diferentes.

Esta prueba trata de determinar si el comportamiento en los valores extremos, mayores y menores, de dos variables
es igual o distinto. A uno de los grupos se le denomina grupo experimental y al otro grupo control.

La prueba se basa en agrupar en un solo conjunto los datos y ordenarlos de menor a mayor, asignándoles los rangos
correspondientes y evaluando el parámetro S, al que se le denomina amplitud, que es el número más pequeño de
posiciones que incluye todos los valores del grupo control.

Si no hay diferencias significativas entre los valores extremos se espera que los rangos mayores y menores estén
repartidos equitativamente entre los dos grupos; en caso contrario, habrá diferencias que puedan ser detectadas
por esta prueba.

Elección de prueba

Todas las pruebas no paramétricas para dos muestras independientes evalúan la hipótesis de que las dos muestras
provienen de la misma población, sólo que estas pruebas son más o menos sensibles a distintos tipos de diferencias
entre las muestras. Por ejemplo, si se desea probar si dos muestras representan poblaciones que difieren en
tendencia central, se pueden escoger las siguientes pruebas: la prueba de la mediana), la prueba de Kolmogorov-
Smimov para dos muestras (unidireccional). Por otro lado, si ese investigador está interesado en determinar si dos
muestras provienen de la misma población y difieren en cualquier aspecto (tendencia central, dispersión, sesgo,
etc.), la prueba apropiada es la prueba de Kolmogorov-Smirnov (bidireccional). La prueba de rangos de Moses es
aplicable en la evaluación de si un grupo exhibe respuestas extremas en comparación con un grupo independiente.

PRUEBAS PARA K VARIABLES RELACIONADAS

Supongamos que se quiere estudiar la concentración de un tóxico en distintos órganos de peces: cerebro, corazón y
sangre. El objetivo es evaluar el alcance de la contaminación de un río y los órganos más afectados. Se podrían
extraer tres muestras de peces, y en cada una de ellas estudiar la concentración de tóxico en un órgano
determinado; pero debido a la dispersión del hábitat podría ocurrir que algunas diferencias fueran debidas a que
algunos peces vivieran en regiones más o menos contaminadas, y no diferencias de concentración en los órganos.
Para obtener medidas con menos errores se podría extraer una sola muestra de peces y estudiar en cada pez la
concentración de tóxico en cada órgano. De esta manera las tres variables están relacionadas.

Prueba de Friedman

Permite comparar k variables cuantitativas u ordinales relacionadas. Se recomienda hacer una tabla en la que las k
variables, es decir, las k medidas, estén en las columnas y los n elementos en las filas, de esta manera la tabla tendrá
K columnas y n filas.

A los valores de cada fila se le asigna un número del 1 al k, según el orden de magnitud de menor a mayor; a este
número se le denomina rango. Si no hay diferencia entre las variables los rangos deben estar repartidos en cada
columna de manera uniforme.

La hipótesis nula indicaría que las sumas de rangos, de todas las variables son iguales. La hipótesis alternativa indica
que al menos la suma de rangos de una variable es significativamente distinta de alguna de las otras. Para resolver
este contraste hipótesis se propone un estadístico distribuido como Chi Cuadrado.

Si se rechaza la hipótesis nula se concluye que al menos el rango medio de una de las variables es distinto de los
demás, pero no se sabe cuál o cuáles son. Se podrían realizar comparaciones 2 a 2 mediante la prueba de Wilcoxon,
pero habría que tener en cuenta el error tipo I global. Por ello es aconsejable usar las pruebas de Tukey o Dunnet:

- Si se quieran realizar todas las posibles combinaciones de dos rangos medios, se recomienda aplicar la
prueba de Tukey.
- Si se quieren comprar los rangos medios con una que se considera grupo control se recomienda aplicar la
prueba de Dunnet.

Coeficiente de concordancia de Kendall

Mide el grado de concordancia entre un grupo de elementos y un grupo de características. Si la concordancia es la


máxima posible, W = 1; por el contrario, si la concordancia en la mínima posible W = 0.

Los campos más frecuentes de aplicación son:

a) Acuerdo entre expertos y características


b) Homogeneidad entre circunstancias y elementos muéstrales

Prueba de la Q de Cochran

Es válida para evaluar si la respuesta de un grupo de elementos ante un conjunto de características es homogénea, o
por el contrario existen diferencias entre los elementos estudiados. La respuesta es dicotómica: sólo puede tener
dos valores que se denotan mediante 0 y 1.

Un ejemplo de uso es: n individuos son sometidos a k pruebas, y cada una de ellas sólo puede evaluarse con éxito o
fracaso. La prueba de la Q permite estudiar si las diferencias entre las características son estadísticamente
significativas.

Elección de prueba

 La prueba Q de Cochran, es aplicable cuando las mediciones de la variable en estudio son categóricas (es
decir, están en escala ordinal o en escala ordinal dicotomizada). Esta prueba capacita al investigador para
determinar la probabilidad de que las k muestras relacionadas pudieran haber sido extraídas de la misma
población, respecto a la proporción o frecuencia de "éxitos" en las distintas muestras o condiciones. Esto es,
representa una evaluación global de si las k muestras exhiben diferencias significativas en la frecuencia de
"éxitos".
 Friedman es adecuada cuando las mediciones de las variables están al menos en escala ordinal. Esta prueba
evalúa la probabilidad de que las k muestras relacionadas provengan de la misma población respecto a los
rangos promedios. Esto es, constituye una evaluación global de si los valores de los datos varían como una
función de las condiciones bajo las cuales fueron observados.
 La prueba de Friedman debe utilizarse preferentemente a la prueba Q de Cochran cuando las características
de los datos sean las adecuadas. Una ventaja de la prueba de Friedman es que tiene tablas de probabilidades
exactas para muestras muy pequeñas, mientras que la prueba Q de Cochran está descartada cuando N (el
número de renglones o conjuntos de observaciones) es muy pequeño.
 Cuando utilizamos la prueba de Friedman y la hipótesis H0 se rechaza pueden utilizarse las comparaciones
múltiples para determinar cuáles condiciones difieren entre sí. Si el investigador tiene una hipótesis más
precisa acerca de las diferencias entre una condición (por ejemplo una condición control) y otras
condiciones, la prueba de Friedman ofrece la posibilidad de realizar tales comparaciones específicas.

PRUEBAS PARA K VARIABLES INDEPENDIENTES

Un ejemplo de uso sería si se quiere comparar simultáneamente el colesterol basal en tres grupos: no fumadores, los
fumadores de menos de diez cigarrillos, y fumadores de más de diez cigarrillos. No sería correcto hacer la
comparación aplicando de manera sucesiva las pruebas para dos muestras, pues la probabilidad de cometer error
tipo I sería muy grande.

Prueba de Kruskal Wallis

Esta prueba es válida para comparar simultáneamente los valores de k variables cuantitativas u ordinales.

La prueba se basen agrupar los datos de las k variables en un solo grupo ordenado de menor a mayor, asignando a
cada dato el correspondiente rango. Si los valores son similares, los datos de las variables se repartirán de manera
homogénea en el grupo común ordenado, y la suma de los rangos asignados a cada grupo tendrá valores próximos.
Por el contrario, si los valores son distintos son de esperar diferencias entre las sumas de rangos más grandes que las
explicables por azar.

Cuando hay empates (dos o más datos tienen los mismos valores) se resuelve asignando a cada rato implicado en el
empate el rango medio correspondiente a todos los rangos implicados en dicho empate.
Prueba de la mediana para K variables

Es adecuada para comparar sí K variables cuantitativas tienen la misma mediana. Los tamaños de las K poblaciones
pueden ser distintos. Primero se calcula la mediana para todos los datos. Se disponen los datos en un mismo grupo y
se calcula la mediana global. A continuación, en una tabla se disponen el número de casos de cada muestra, que son
mayores o menores que la mediana global. Si las medianas poblacionales son iguales, la proporción de casos de cada
muestra que son menores o mayores que la mediana global debe ser similares; por el contrario, si las medianas son
diferentes, la proporción de casos por encima o debajo de la mediana global será significativamente distinta para
cada variable.

Esta prueba se usa poco porque es más potente Kruskall Wallis.

Elección de prueba

 La prueba de la mediana, requiere que las mediciones de la variable en estudio se encuentren en, al menos,
escala ordinal para una adecuada interpretación de los resultados del análisis. Esta técnica prueba si los k
grupos o muestras independientes se han extraído de poblaciones que presentan medianas idénticas.
 El análisis de varianza unifactorial por rangos, de Kruskal-Wallis, la tercera prueba examinada, requiere
mediciones de la variable, al menos, en escala ordinal.
 Esta técnica prueba la hipótesis de que las k muestras o grupos independientes han sido extraídos de la
misma población o de poblaciones idénticas con la misma distribución continua de respuestas (pero
desconocida). La cuarta prueba presentada, la de ]onckheere para niveles ordenados de la variable, requiere
que las mediciones de la variable se encuentren en escala ordinal.
 Este procedimiento prueba la hipótesis de que las k muestras o grupos independientes pudieran haber sido
extraídos de la misma población o de poblaciones idénticas con la misma distribución continua (pero
desconocida), en contra de la hipótesis alterna de que las medianas de las distribuciones se encuentran
ordenadas por magnitud de acuerdo con alguna hipótesis a priori.
 La extensión de la prueba de la mediana, la prueba de Kruskal-Wallis y la de ]onckheere pueden aplicarse a
la misma clase de datos; es decir, estas pruebas pueden realizar las mismas suposiciones según Ha: que las
variables provienen de poblaciones que tienen distribuciones continuas idénticas. Cuando los datos son tales
que puede aplicarse la extensión de la prueba de la mediana y la prueba de Kruskal-Wallis, esta última puede
ser más eficaz ya que utiliza más información disponible en las observaciones. Ésta conviene las
puntuaciones en rangos, mientras que la extensión de la prueba de la mediana conviene las puntuaciones en
signos de más (+) o de menos (-), dependiendo si los datos se encuentran por arriba o por debajo de la
mediana. Así, la prueba de Kruskal-Wallis preserva la magnitud de los datos más completamente que la
prueba de la mediana. Por esta razón, generalmente es más sensible a las diferencias entre las k muestras o
grupos

También podría gustarte