ESTADÍSTICA NO PARAMÉTRICA

1. Introducción:

Los métodos de estadística inferencial que hemos estudiado a durante el curso, son llamados métodos paramétricos porque ellos son basados en muestreos de una población con parámetros específicos, como la media ( ), la desviación estándar ( ) o la proporción (p). Estos métodos paramétricos usualmente tienen que ajustarse a algunas condiciones completamente estrictas, así como el requisito de que los dato s de la muestra provengan de una población normalmente distribuidas. Esta sección presenta los métodos no paramétricos, los cuales no tienen tales estrictos requisitos. La mayor parte de las técnicas estudiadas hacen suposiciones sobre la composición de los datos de la población. Las suposiciones comunes son que la población sigue una distribución normal, que varias poblaciones tienen varianzas iguales y que los datos se miden en una escala de intervalos o en una escala de razón. Este tema presentará un gr upo de técnicas llamadas no paramétricas que son útiles cuando estas suposiciones no se cumplen.

ESTADÍSTICA NO PARAMÉTRICA: La estadística no paramétrica es una rama de la estadística que estudia las pruebas y modelos estadísticos cuya distribución subyacente no se ajusta a los llamados criterios paramétricos.2. de intervalo. La utilización de estos métodos se hace recomendable cuando no se puede asumir que los datos se ajusten a una distribución conocida. pues son los datos observados los que la determinan. Las principales pruebas no paramétricas son las siguientes: y y y y y y y y y y y y y y y y y y y Prueba ² de Pearson Prueba binomial Prueba de Anderson-Darling Prueba de Cochran Prueba de Cohen kappa Prueba de Fisher Prueba de Friedman Prueba de Kendall Prueba de Kolmogórov-Smirnov Prueba de Kruskal-Wallis Prueba de Kuiper Prueba de Mann-Whitney o prueba de Wilcoxon Prueba de McNemar Prueba de la mediana Prueba de Siegel-Tukey Coeficiente de correlación de Spearman Tablas de contingencia Prueba de Wald-Wolfowitz Prueba de los signos de Wilcoxon . como mínimo. cuando el nivel de medida empleado no sea. Su distribución no puede ser definida a priori.

Aunque el término no paramétrico sugiere que la prueba no está basada en un parámetro. Las pruebas no paramétricas. Aunque libre distribución es una descripción más exacta. conviene utilizar pruebas no paramétricas. de manera que algunas veces son referidas como pruebas de libre distribución . Cuando trabajamos con muestras pequeñas (n < 10) en las que se desconoce si es válido suponer la normalidad de los datos. que es aquel punto para el que el valor de X está el 50% de las veces por debajo y el 50% por encima. . no requieren una distribución particular. hay algunas pruebas no paramétricas que dependen de un parámetro tal como la media. al menos para corroborar los resultados obtenidos a partir de la utilización de la teoría basada en la normal. En la mayor parte de ellas los resultados estadísticos se derivan únicamente a partir de procedimientos de ordenación y recuento. En estos casos se emplea como parámetro de centralización la mediana . sin embargo. por lo que su base lógica es de fácil comprensión. el término no paramétrico es más comúnmente usado. por ello se conocen también como de distribución libre (distribution free). PRUEBAS NO PARAMÉTRICAS: Definición: Se denominan pruebas no paramétricas aquellas que no presuponen una distribución de probabilidad para los datos.3.

i p l ti i it l . VE V . p 3. t l ti í i t t . E . l t t . l i ti i . f l il p l t l t t t t i ti i t l s é p J S s P ti p p p l p E É mé i p S s P É I S pli ti l p ti l t t i l t t .El i l p p ti : 4. if J S Y ESVE j s t it p ti t f l t p t i t . i t p 2. p . pli l ll i i ti pli p p t ti i t pli l i pl l p .

De ventaja de lo M todo No Paramétrico 1. . las pruebas no paramétricas son generalmente menos eficientes que sus contrapartes paramétricas. Cuando los requisitos de la distribución de una población son satisfechos. . pero la reducción de eficiencia puede ser compensada por un aumento en el tamaño de la muestra. Las pruebas no paramétricas no son tan eficientes como las pruebas paramétricas. de manera que con una prueba no paramétrica generalmente se necesita evidencia más fuerte (así como una muestra más grande o mayores diferencias) antes de rechazar una hipótesis nula. Los métodos no paramétricos tienden a perder información porque datos numéricos exactos son frecuentemente reducidos a una forma cualitativa.

Al ordenarlos. ± Requiere que las variables aleatorias tengan igual varianza. ‡ Cuando se hacen muchos test. el método consiste en ordenar los datos p or filas o bloques. ‡ La naturaleza de los datos no da pistas sobre la satisfacción de la condición anterior. . ‡ Condiciones: ± Distribución normal. ‡ Dos posibles alternativas: ± ANOVA ± Prueba de Friedman ANOVA Friedman te t ‡ Método estadístico habitual. debemos considerar la existencia de datos idénticos. ‡ ¿Se cumplen las condiciones impuestas por ANOVa? ± SI => Utilizar ANOVA. ‡ La violación de las condiciones tiene un gran efecto en el post-hoc test. ± NO => Utilizar Friedman test. 5. reemplazándolos por su respectivo orden. parte de la hipótesis nula se rechaza debido a la aleatoriedad (Salzberg97). PRUEBA DE FRIEDMAN 5. Comparación de vario cla ificadore ‡ Los métodos anteriores no fueron diseñados para la media de varias variables. Equivalente a la prueba ANOVA para dos factores en la versión no paramétrica. ‡ Es la versión no-paramétrica del ANOVA.5. ‡ Utilizar la modificación de Iman y Davenport (1980) al ser un mejor estadístico (menos conservativo).2.1. DEFINICION En estadística la prueba de Friedman es una prueba no paramétrica desarrollado por el economista Milton Friedman.

. n 1 x11 ..... MUESTRAS RELACIONADAS.... Hipótesis: Hipótesis nula (H0): No existen diferencias entre los grupos.. i .....5.3... xnj .... k x1k ... xnk ... .. PRUEBA DE FRIEDMAN Esta prueba puede utilizarse en aquellas situaciones en las que se seleccionan n grupos de k elementos de forma que los elementos de cada grupo sean lo más parecidos posible entre sí.. ... xn1 2 x12 . Para poder utilizar esta prueba las respuest as deben ser variables continuas y estar medidas por lo menos en una escala ordinal... xi1 .. o bien cuando a cada uno de los elementos de una muestra de tamaño n se le aplican los k ''tratamientos''. xik .. Hipótesis alternativa (H1): Hay diferencias entre los grupos. j x1j . . .. . ..... xij .... . .. xi2 ... xn2 ..... y a cada uno de los elementos del grupo se le aplica uno de entre k ''tratamientos''.. La hipótesis nula que se contrasta es que las respuestas asociadas a cada uno de los ''trat amientos'' tienen la misma distribución de probabilidad o distribuciones con la misma mediana. . Los datos se disponen en una tabla en la que en cada fila se recogen las respuestas de los k elementos de cada grupo a los k tratamientos: Grupo\ Tratamiento 1 . frente a la hipótesis alternativa de que por lo menos la distribución de una de las respuestas difiere de las demás... .

a continuación se suman los rangos correspondientes a cada columna. de forma que se rechaza la hipótesis nula para valores de superiores al valor crítico para el nivel de significación fijado. y es de esperar que la suma de los rangos correspondientes a cada columna sea aproximadamente igual a n(k + 1)/ . la distribución de los rangos en cada fila se debe al azar. La prueba de Friedman determina si las RJ observadas difieren significativamente del valor esperado bajo la hipótesis nula. . El estadístico de prueba es:                     Si Ho es cierta y el número de columnas y/o de filas es moderadamente grande la distribución de F se aproxima a una chi-cuadrado con k .1 grados de libertad.A las observaciones de cada fila se les asignan rangos de menor a mayor desde 1 hasta k. siendo RJ la suma correspondiente a la columna j-ésima. Si la hipótesis nula es cierta.

5. Pasos: 1. CARACTERÍSTICAS X r Se utiliza cuando: y y y y y   Trabaja con datos ordinales. Aplicar la fórmula de análisis de varianza de doble entrada por rangos de Friedman. Sirve para establecer diferencias. Se asignan rangos por condición. Ordenar las observaciones en función de los cambios advertidos después del tratamiento o tratamientos. . 5. . Muestras igualadas (igual número de sujetos en cada condición).4. 4.     . para muestras y y y y Asignar al azar a los sujetos a cada condición. Asignar rangos del dato más pequeño al mayor en función de las hileras.4 y H = . Efectuar la sumatoria de los rangos en funci ón de las columnas Rc y elevarlos al cuadrado Rc .4 y H = > 9. . En caso de muestras grandes. Para muestras pequeñas: K = grandes: K = . Se utiliza para más de tres tratamientos. Comparar el valor de X r de Friedman con las tablas de valores críticos de probabilidad propia. cuando la muestra es pequeña. utilizar las tablas de valores críticos de ji cuadrada de Pearson. Se trabaja con tablas de doble entrada. Las muestras son sacadas de la misma población.9.

la prueba más idónea es el análisis de la varianza de dos clasificaciones por rangos de Friedman. E ERCICIOS: 1.5. ¿podemos afirmar que los tres temas atrajeron de modo distinto a los convocados? ( = 0. el juego y el tiempo libre de los niños (Tema B). plantea remos las hipótesis: H0: No existen diferencias entre en la atracción a los tres temas. La asociación de padres de un centro convoca sucesivamente tres reuniones dirigidas a los padres de alumnos de un mismo grupo o clase. En primer lugar. H1: Existen diferencias significativas entre en la atracción a los tres temas. en las que se abordaron respectivamente temas relacionados con el apoyo de la familia al estudio (Tema A). deberemos utilizar una prueba no paramétrica. Si contamos los datos de asistencia a cada una de las tres reuniones para los padres de alumnos de 6 clases. y puesto que los casos se hayan relacionados. El estadístico de contraste que emplearemos será: . y la part icipación de los padres en el centro (Tema C). Dado que el número de sujetos es pequeño.5.05) Tema A 3 3 3 2 3 3 Tema B Tema C 1 1 1 1 1 1 SOLUCIÓN.

calcularemos la suma de rangos para cada columna:  Tema A 3 3 3 2 3 3 Tema B Tema C 1 1 1 1 1 1 RA = 17. Sustituyendo: Comparamos el valor observado con el que nos ofrece la tabla. Por tanto. el valor crítico será ¡ 0. teniendo en cuenta que X sigue una distribución de chi cuadrado con k -1 grados de libertad.95 Puesto que el valor observado es mayor que el crític o. ¡ = 5. R B = 1 y RC = 7.Por lo tanto. por lo que podemos rechazar con una confianza del 95% que existen diferencias significativas en cuanto a la atracción a los distintos temas.991 . aquél entra en la región de rechazo.

8. Escala = 0 .05. 10 y 12 años. Un investigador desea comparar los niveles de memoria en niños de 4. se acepta Ha y se rechaza Ho. Nivel de significación. Para todo valor de probabilidad mayor que 0. El modelo experimental tiene tres o más muestras dependientes. 6. No hay diferencia significativa en niños de 4. Véase: Flujograma 5 SOLUCION Planteamiento de la hipótesis. se acepta Ho y se rechaza Ha. 8. después de aplicar 3 diferentes tipos de tratamiento. Hay diferencia significati va en niños de 4. 6. Para todo valor de probabilidad igual o menor que 0. Elección de la prueba estadística. y y Hipótesis alterna (Ha).2.20 . Hipótesis nula (Ho).05. Zona de rechazo. 10 y 12 años después de 3 diferentes tratamientos. 8. 10 y 12 años. después de aplicar 3 diferentes tipos de tratamiento. 6.

se acepta que entre los tres tratamientos ex isten distintos grados de memoria adquirida.8. el tratamiento B ofrece mayores ventajas para la adquisición de memoria . Se utiliza la tabla N para pruebas pequeñas. esto indica que es menor que el nivel de significancia. la probabilidad es de 0. respetando el orden hasta el dato que tiene la cifra más alta. Rango1 = 8 Rango2 = 9 Rango3 =13 Calculamos la X2r de Friedman.Aplicación de la prueba estadística. Decisión. Con tres columnas y cinco hileras se compara el valor calculado de X2r de Friedman con la tabla correspondiente de distribución de probabilidad. Aceptada Ha.8 = 0. Las cifras aproximadas al estadístico calculado 2. con respecto a los otros dos tratamientos.367. se acepta Ha y se rechaza Ho. Por otro lado. Al valor más bajo le corresponde el rango 1. Como el valor de X 2r calculado es igual a 2.367. en función de las hileras. Se distingue notoriamente que el tratamiento A es menos eficaz. por lo cual. Transformamos los valores en rangos de acuerdo con la prueba de Friedman. Interpretación.

.

wikipedia.pe/~fmendiburu/index-filer/academic/metodos1. y y y y BIBLIOGRAFÍA www.com/prueba_no_parametrica www.com/ED800Estadisticas_no_parametricas.monografias.edu.6.lamolina.es/metodos-de-investigacion-y-diagnostico-eneducacion/analisis-de-datos-en-la-investigacioneducativa/Bloque_II/page_95.us.com/estadistica_no_parametrica www.htm http://ocwus. http://tarwi.rincondelvago.htm/ y .5.

Sign up to vote on this title
UsefulNot useful