ESTADÍSTICA NO PARAMÉTRICA

1. Introducción:

Los métodos de estadística inferencial que hemos estudiado a durante el curso, son llamados métodos paramétricos porque ellos son basados en muestreos de una población con parámetros específicos, como la media ( ), la desviación estándar ( ) o la proporción (p). Estos métodos paramétricos usualmente tienen que ajustarse a algunas condiciones completamente estrictas, así como el requisito de que los dato s de la muestra provengan de una población normalmente distribuidas. Esta sección presenta los métodos no paramétricos, los cuales no tienen tales estrictos requisitos. La mayor parte de las técnicas estudiadas hacen suposiciones sobre la composición de los datos de la población. Las suposiciones comunes son que la población sigue una distribución normal, que varias poblaciones tienen varianzas iguales y que los datos se miden en una escala de intervalos o en una escala de razón. Este tema presentará un gr upo de técnicas llamadas no paramétricas que son útiles cuando estas suposiciones no se cumplen.

Las principales pruebas no paramétricas son las siguientes: y y y y y y y y y y y y y y y y y y y Prueba ² de Pearson Prueba binomial Prueba de Anderson-Darling Prueba de Cochran Prueba de Cohen kappa Prueba de Fisher Prueba de Friedman Prueba de Kendall Prueba de Kolmogórov-Smirnov Prueba de Kruskal-Wallis Prueba de Kuiper Prueba de Mann-Whitney o prueba de Wilcoxon Prueba de McNemar Prueba de la mediana Prueba de Siegel-Tukey Coeficiente de correlación de Spearman Tablas de contingencia Prueba de Wald-Wolfowitz Prueba de los signos de Wilcoxon .2. ESTADÍSTICA NO PARAMÉTRICA: La estadística no paramétrica es una rama de la estadística que estudia las pruebas y modelos estadísticos cuya distribución subyacente no se ajusta a los llamados criterios paramétricos. pues son los datos observados los que la determinan. Su distribución no puede ser definida a priori. La utilización de estos métodos se hace recomendable cuando no se puede asumir que los datos se ajusten a una distribución conocida. cuando el nivel de medida empleado no sea. de intervalo. como mínimo.

En estos casos se emplea como parámetro de centralización la mediana . el término no paramétrico es más comúnmente usado. no requieren una distribución particular. al menos para corroborar los resultados obtenidos a partir de la utilización de la teoría basada en la normal.3. hay algunas pruebas no paramétricas que dependen de un parámetro tal como la media. por lo que su base lógica es de fácil comprensión. . Cuando trabajamos con muestras pequeñas (n < 10) en las que se desconoce si es válido suponer la normalidad de los datos. Aunque libre distribución es una descripción más exacta. Aunque el término no paramétrico sugiere que la prueba no está basada en un parámetro. Las pruebas no paramétricas. sin embargo. de manera que algunas veces son referidas como pruebas de libre distribución . por ello se conocen también como de distribución libre (distribution free). conviene utilizar pruebas no paramétricas. En la mayor parte de ellas los resultados estadísticos se derivan únicamente a partir de procedimientos de ordenación y recuento. que es aquel punto para el que el valor de X está el 50% de las veces por debajo y el 50% por encima. PRUEBAS NO PARAMÉTRICAS: Definición: Se denominan pruebas no paramétricas aquellas que no presuponen una distribución de probabilidad para los datos.

if J S Y ESVE j s t it p ti t f l t p t i t . f l il p l t l t t t t i ti i t l s é p J S s P ti p p p l p E É mé i p S s P É I S pli ti l p ti l t t i l t t . l i ti i . pli l ll i i ti pli p p t ti i t pli l i pl l p . t l ti í i t t .El i l p p ti : 4. p 3. E . VE V . i p l ti i it l . i t p 2. p . l t t .

Las pruebas no paramétricas no son tan eficientes como las pruebas paramétricas. las pruebas no paramétricas son generalmente menos eficientes que sus contrapartes paramétricas. . Los métodos no paramétricos tienden a perder información porque datos numéricos exactos son frecuentemente reducidos a una forma cualitativa. de manera que con una prueba no paramétrica generalmente se necesita evidencia más fuerte (así como una muestra más grande o mayores diferencias) antes de rechazar una hipótesis nula. . Cuando los requisitos de la distribución de una población son satisfechos.De ventaja de lo M todo No Paramétrico 1. pero la reducción de eficiencia puede ser compensada por un aumento en el tamaño de la muestra.

Al ordenarlos.2. . Equivalente a la prueba ANOVA para dos factores en la versión no paramétrica. ‡ La naturaleza de los datos no da pistas sobre la satisfacción de la condición anterior. ‡ ¿Se cumplen las condiciones impuestas por ANOVa? ± SI => Utilizar ANOVA. ± Requiere que las variables aleatorias tengan igual varianza.1. 5. Comparación de vario cla ificadore ‡ Los métodos anteriores no fueron diseñados para la media de varias variables.5. ‡ La violación de las condiciones tiene un gran efecto en el post-hoc test. el método consiste en ordenar los datos p or filas o bloques. ‡ Dos posibles alternativas: ± ANOVA ± Prueba de Friedman ANOVA Friedman te t ‡ Método estadístico habitual. ‡ Utilizar la modificación de Iman y Davenport (1980) al ser un mejor estadístico (menos conservativo). ‡ Es la versión no-paramétrica del ANOVA. parte de la hipótesis nula se rechaza debido a la aleatoriedad (Salzberg97). debemos considerar la existencia de datos idénticos. DEFINICION En estadística la prueba de Friedman es una prueba no paramétrica desarrollado por el economista Milton Friedman. ± NO => Utilizar Friedman test. PRUEBA DE FRIEDMAN 5. ‡ Condiciones: ± Distribución normal. reemplazándolos por su respectivo orden. ‡ Cuando se hacen muchos test.

.... Para poder utilizar esta prueba las respuest as deben ser variables continuas y estar medidas por lo menos en una escala ordinal. MUESTRAS RELACIONADAS. .. Hipótesis: Hipótesis nula (H0): No existen diferencias entre los grupos. n 1 x11 .... Los datos se disponen en una tabla en la que en cada fila se recogen las respuestas de los k elementos de cada grupo a los k tratamientos: Grupo\ Tratamiento 1 ... j x1j . xi1 . .. ...... xik . xnk .. . . y a cada uno de los elementos del grupo se le aplica uno de entre k ''tratamientos''...... o bien cuando a cada uno de los elementos de una muestra de tamaño n se le aplican los k ''tratamientos''. . xnj ...5... . frente a la hipótesis alternativa de que por lo menos la distribución de una de las respuestas difiere de las demás.3. xn1 2 x12 ... ..... .... k x1k . . i . Hipótesis alternativa (H1): Hay diferencias entre los grupos..... xi2 ...... La hipótesis nula que se contrasta es que las respuestas asociadas a cada uno de los ''trat amientos'' tienen la misma distribución de probabilidad o distribuciones con la misma mediana.... xij .. xn2 . PRUEBA DE FRIEDMAN Esta prueba puede utilizarse en aquellas situaciones en las que se seleccionan n grupos de k elementos de forma que los elementos de cada grupo sean lo más parecidos posible entre sí.

siendo RJ la suma correspondiente a la columna j-ésima. . a continuación se suman los rangos correspondientes a cada columna.1 grados de libertad. de forma que se rechaza la hipótesis nula para valores de superiores al valor crítico para el nivel de significación fijado. Si la hipótesis nula es cierta. y es de esperar que la suma de los rangos correspondientes a cada columna sea aproximadamente igual a n(k + 1)/ . El estadístico de prueba es:                     Si Ho es cierta y el número de columnas y/o de filas es moderadamente grande la distribución de F se aproxima a una chi-cuadrado con k .A las observaciones de cada fila se les asignan rangos de menor a mayor desde 1 hasta k. La prueba de Friedman determina si las RJ observadas difieren significativamente del valor esperado bajo la hipótesis nula. la distribución de los rangos en cada fila se debe al azar.

Comparar el valor de X r de Friedman con las tablas de valores críticos de probabilidad propia. . Efectuar la sumatoria de los rangos en funci ón de las columnas Rc y elevarlos al cuadrado Rc . .9. Se utiliza para más de tres tratamientos. Pasos: 1.     . Asignar rangos del dato más pequeño al mayor en función de las hileras.4 y H = . cuando la muestra es pequeña. para muestras y y y y Asignar al azar a los sujetos a cada condición. Muestras igualadas (igual número de sujetos en cada condición). Se asignan rangos por condición. Para muestras pequeñas: K = grandes: K = . . CARACTERÍSTICAS X r Se utiliza cuando: y y y y y   Trabaja con datos ordinales. En caso de muestras grandes. 4. utilizar las tablas de valores críticos de ji cuadrada de Pearson. Ordenar las observaciones en función de los cambios advertidos después del tratamiento o tratamientos. Se trabaja con tablas de doble entrada. Las muestras son sacadas de la misma población. Sirve para establecer diferencias. Aplicar la fórmula de análisis de varianza de doble entrada por rangos de Friedman. 5.4 y H = > 9.5.4.

E ERCICIOS: 1. En primer lugar. y la part icipación de los padres en el centro (Tema C). ¿podemos afirmar que los tres temas atrajeron de modo distinto a los convocados? ( = 0. H1: Existen diferencias significativas entre en la atracción a los tres temas. plantea remos las hipótesis: H0: No existen diferencias entre en la atracción a los tres temas. El estadístico de contraste que emplearemos será: . y puesto que los casos se hayan relacionados.5.5. deberemos utilizar una prueba no paramétrica.05) Tema A 3 3 3 2 3 3 Tema B Tema C 1 1 1 1 1 1 SOLUCIÓN. La asociación de padres de un centro convoca sucesivamente tres reuniones dirigidas a los padres de alumnos de un mismo grupo o clase. en las que se abordaron respectivamente temas relacionados con el apoyo de la familia al estudio (Tema A). el juego y el tiempo libre de los niños (Tema B). Dado que el número de sujetos es pequeño. la prueba más idónea es el análisis de la varianza de dos clasificaciones por rangos de Friedman. Si contamos los datos de asistencia a cada una de las tres reuniones para los padres de alumnos de 6 clases.

Por lo tanto. por lo que podemos rechazar con una confianza del 95% que existen diferencias significativas en cuanto a la atracción a los distintos temas. calcularemos la suma de rangos para cada columna:  Tema A 3 3 3 2 3 3 Tema B Tema C 1 1 1 1 1 1 RA = 17. Por tanto. ¡ = 5.95 Puesto que el valor observado es mayor que el crític o. aquél entra en la región de rechazo. el valor crítico será ¡ 0. teniendo en cuenta que X sigue una distribución de chi cuadrado con k -1 grados de libertad.991 . R B = 1 y RC = 7. Sustituyendo: Comparamos el valor observado con el que nos ofrece la tabla.

05. Para todo valor de probabilidad mayor que 0. 6. Zona de rechazo. Hay diferencia significati va en niños de 4. Escala = 0 . Hipótesis nula (Ho). 8. Nivel de significación. Para todo valor de probabilidad igual o menor que 0. después de aplicar 3 diferentes tipos de tratamiento.05.20 . 6. 6. Elección de la prueba estadística. 10 y 12 años. 10 y 12 años. después de aplicar 3 diferentes tipos de tratamiento. 10 y 12 años después de 3 diferentes tratamientos. 8. se acepta Ho y se rechaza Ha.2. y y Hipótesis alterna (Ha). 8. No hay diferencia significativa en niños de 4. Un investigador desea comparar los niveles de memoria en niños de 4. El modelo experimental tiene tres o más muestras dependientes. Véase: Flujograma 5 SOLUCION Planteamiento de la hipótesis. se acepta Ha y se rechaza Ho.

Rango1 = 8 Rango2 = 9 Rango3 =13 Calculamos la X2r de Friedman. Transformamos los valores en rangos de acuerdo con la prueba de Friedman. Se distingue notoriamente que el tratamiento A es menos eficaz. Como el valor de X 2r calculado es igual a 2.8. se acepta que entre los tres tratamientos ex isten distintos grados de memoria adquirida.367. Decisión. respetando el orden hasta el dato que tiene la cifra más alta. la probabilidad es de 0. por lo cual. Las cifras aproximadas al estadístico calculado 2.367.Aplicación de la prueba estadística. Por otro lado. se acepta Ha y se rechaza Ho.8 = 0. con respecto a los otros dos tratamientos. Aceptada Ha. en función de las hileras. esto indica que es menor que el nivel de significancia. Con tres columnas y cinco hileras se compara el valor calculado de X2r de Friedman con la tabla correspondiente de distribución de probabilidad. Al valor más bajo le corresponde el rango 1. Se utiliza la tabla N para pruebas pequeñas. el tratamiento B ofrece mayores ventajas para la adquisición de memoria . Interpretación.

.

5.wikipedia.us. y y y y BIBLIOGRAFÍA www.6.es/metodos-de-investigacion-y-diagnostico-eneducacion/analisis-de-datos-en-la-investigacioneducativa/Bloque_II/page_95.rincondelvago. http://tarwi.com/prueba_no_parametrica www.htm/ y .monografias.htm http://ocwus.com/estadistica_no_parametrica www.com/ED800Estadisticas_no_parametricas.edu.pe/~fmendiburu/index-filer/academic/metodos1.lamolina.