ESTADÍSTICA NO PARAMÉTRICA

1. Introducción:

Los métodos de estadística inferencial que hemos estudiado a durante el curso, son llamados métodos paramétricos porque ellos son basados en muestreos de una población con parámetros específicos, como la media ( ), la desviación estándar ( ) o la proporción (p). Estos métodos paramétricos usualmente tienen que ajustarse a algunas condiciones completamente estrictas, así como el requisito de que los dato s de la muestra provengan de una población normalmente distribuidas. Esta sección presenta los métodos no paramétricos, los cuales no tienen tales estrictos requisitos. La mayor parte de las técnicas estudiadas hacen suposiciones sobre la composición de los datos de la población. Las suposiciones comunes son que la población sigue una distribución normal, que varias poblaciones tienen varianzas iguales y que los datos se miden en una escala de intervalos o en una escala de razón. Este tema presentará un gr upo de técnicas llamadas no paramétricas que son útiles cuando estas suposiciones no se cumplen.

como mínimo. Las principales pruebas no paramétricas son las siguientes: y y y y y y y y y y y y y y y y y y y Prueba ² de Pearson Prueba binomial Prueba de Anderson-Darling Prueba de Cochran Prueba de Cohen kappa Prueba de Fisher Prueba de Friedman Prueba de Kendall Prueba de Kolmogórov-Smirnov Prueba de Kruskal-Wallis Prueba de Kuiper Prueba de Mann-Whitney o prueba de Wilcoxon Prueba de McNemar Prueba de la mediana Prueba de Siegel-Tukey Coeficiente de correlación de Spearman Tablas de contingencia Prueba de Wald-Wolfowitz Prueba de los signos de Wilcoxon . ESTADÍSTICA NO PARAMÉTRICA: La estadística no paramétrica es una rama de la estadística que estudia las pruebas y modelos estadísticos cuya distribución subyacente no se ajusta a los llamados criterios paramétricos. pues son los datos observados los que la determinan. cuando el nivel de medida empleado no sea. Su distribución no puede ser definida a priori. La utilización de estos métodos se hace recomendable cuando no se puede asumir que los datos se ajusten a una distribución conocida. de intervalo.2.

Aunque libre distribución es una descripción más exacta.3. Aunque el término no paramétrico sugiere que la prueba no está basada en un parámetro. por ello se conocen también como de distribución libre (distribution free). En la mayor parte de ellas los resultados estadísticos se derivan únicamente a partir de procedimientos de ordenación y recuento. sin embargo. conviene utilizar pruebas no paramétricas. de manera que algunas veces son referidas como pruebas de libre distribución . . Cuando trabajamos con muestras pequeñas (n < 10) en las que se desconoce si es válido suponer la normalidad de los datos. al menos para corroborar los resultados obtenidos a partir de la utilización de la teoría basada en la normal. no requieren una distribución particular. que es aquel punto para el que el valor de X está el 50% de las veces por debajo y el 50% por encima. Las pruebas no paramétricas. En estos casos se emplea como parámetro de centralización la mediana . hay algunas pruebas no paramétricas que dependen de un parámetro tal como la media. por lo que su base lógica es de fácil comprensión. PRUEBAS NO PARAMÉTRICAS: Definición: Se denominan pruebas no paramétricas aquellas que no presuponen una distribución de probabilidad para los datos. el término no paramétrico es más comúnmente usado.

l t t . if J S Y ESVE j s t it p ti t f l t p t i t . i t p 2. i p l ti i it l . f l il p l t l t t t t i ti i t l s é p J S s P ti p p p l p E É mé i p S s P É I S pli ti l p ti l t t i l t t . E . pli l ll i i ti pli p p t ti i t pli l i pl l p . p 3.El i l p p ti : 4. p . l i ti i . VE V . t l ti í i t t .

. Los métodos no paramétricos tienden a perder información porque datos numéricos exactos son frecuentemente reducidos a una forma cualitativa.De ventaja de lo M todo No Paramétrico 1. Las pruebas no paramétricas no son tan eficientes como las pruebas paramétricas. de manera que con una prueba no paramétrica generalmente se necesita evidencia más fuerte (así como una muestra más grande o mayores diferencias) antes de rechazar una hipótesis nula. Cuando los requisitos de la distribución de una población son satisfechos. . las pruebas no paramétricas son generalmente menos eficientes que sus contrapartes paramétricas. pero la reducción de eficiencia puede ser compensada por un aumento en el tamaño de la muestra.

5. . ‡ La violación de las condiciones tiene un gran efecto en el post-hoc test. DEFINICION En estadística la prueba de Friedman es una prueba no paramétrica desarrollado por el economista Milton Friedman.2. parte de la hipótesis nula se rechaza debido a la aleatoriedad (Salzberg97). Comparación de vario cla ificadore ‡ Los métodos anteriores no fueron diseñados para la media de varias variables. ‡ ¿Se cumplen las condiciones impuestas por ANOVa? ± SI => Utilizar ANOVA. ‡ Utilizar la modificación de Iman y Davenport (1980) al ser un mejor estadístico (menos conservativo). ‡ Es la versión no-paramétrica del ANOVA. ± NO => Utilizar Friedman test. ‡ Condiciones: ± Distribución normal.1. ‡ Cuando se hacen muchos test. ‡ Dos posibles alternativas: ± ANOVA ± Prueba de Friedman ANOVA Friedman te t ‡ Método estadístico habitual. ‡ La naturaleza de los datos no da pistas sobre la satisfacción de la condición anterior. Equivalente a la prueba ANOVA para dos factores en la versión no paramétrica. debemos considerar la existencia de datos idénticos. el método consiste en ordenar los datos p or filas o bloques. PRUEBA DE FRIEDMAN 5. ± Requiere que las variables aleatorias tengan igual varianza. Al ordenarlos. reemplazándolos por su respectivo orden. 5.

.. ..... j x1j . .. Los datos se disponen en una tabla en la que en cada fila se recogen las respuestas de los k elementos de cada grupo a los k tratamientos: Grupo\ Tratamiento 1 ..... . xik .3.... ... xi1 ... o bien cuando a cada uno de los elementos de una muestra de tamaño n se le aplican los k ''tratamientos''. Hipótesis alternativa (H1): Hay diferencias entre los grupos. MUESTRAS RELACIONADAS. La hipótesis nula que se contrasta es que las respuestas asociadas a cada uno de los ''trat amientos'' tienen la misma distribución de probabilidad o distribuciones con la misma mediana..5. PRUEBA DE FRIEDMAN Esta prueba puede utilizarse en aquellas situaciones en las que se seleccionan n grupos de k elementos de forma que los elementos de cada grupo sean lo más parecidos posible entre sí. xij . Para poder utilizar esta prueba las respuest as deben ser variables continuas y estar medidas por lo menos en una escala ordinal.. Hipótesis: Hipótesis nula (H0): No existen diferencias entre los grupos. ..... .. xi2 . y a cada uno de los elementos del grupo se le aplica uno de entre k ''tratamientos''... .. xn2 .. xn1 2 x12 ... k x1k ... .. n 1 x11 . xnj . .... .... i ..... frente a la hipótesis alternativa de que por lo menos la distribución de una de las respuestas difiere de las demás.... xnk ..

. siendo RJ la suma correspondiente a la columna j-ésima. la distribución de los rangos en cada fila se debe al azar. El estadístico de prueba es:                     Si Ho es cierta y el número de columnas y/o de filas es moderadamente grande la distribución de F se aproxima a una chi-cuadrado con k . Si la hipótesis nula es cierta. a continuación se suman los rangos correspondientes a cada columna.1 grados de libertad. La prueba de Friedman determina si las RJ observadas difieren significativamente del valor esperado bajo la hipótesis nula.A las observaciones de cada fila se les asignan rangos de menor a mayor desde 1 hasta k. de forma que se rechaza la hipótesis nula para valores de superiores al valor crítico para el nivel de significación fijado. y es de esperar que la suma de los rangos correspondientes a cada columna sea aproximadamente igual a n(k + 1)/ .

Sirve para establecer diferencias.4 y H = .5.4.     . Comparar el valor de X r de Friedman con las tablas de valores críticos de probabilidad propia. cuando la muestra es pequeña. Efectuar la sumatoria de los rangos en funci ón de las columnas Rc y elevarlos al cuadrado Rc . para muestras y y y y Asignar al azar a los sujetos a cada condición. En caso de muestras grandes.9. . 5. utilizar las tablas de valores críticos de ji cuadrada de Pearson. . Para muestras pequeñas: K = grandes: K = . Aplicar la fórmula de análisis de varianza de doble entrada por rangos de Friedman. Asignar rangos del dato más pequeño al mayor en función de las hileras. Se utiliza para más de tres tratamientos. Ordenar las observaciones en función de los cambios advertidos después del tratamiento o tratamientos. Muestras igualadas (igual número de sujetos en cada condición). . CARACTERÍSTICAS X r Se utiliza cuando: y y y y y   Trabaja con datos ordinales. Pasos: 1.4 y H = > 9. Se trabaja con tablas de doble entrada. 4. Las muestras son sacadas de la misma población. Se asignan rangos por condición.

¿podemos afirmar que los tres temas atrajeron de modo distinto a los convocados? ( = 0.05) Tema A 3 3 3 2 3 3 Tema B Tema C 1 1 1 1 1 1 SOLUCIÓN. el juego y el tiempo libre de los niños (Tema B). en las que se abordaron respectivamente temas relacionados con el apoyo de la familia al estudio (Tema A). H1: Existen diferencias significativas entre en la atracción a los tres temas.5. Dado que el número de sujetos es pequeño. y la part icipación de los padres en el centro (Tema C). Si contamos los datos de asistencia a cada una de las tres reuniones para los padres de alumnos de 6 clases. deberemos utilizar una prueba no paramétrica. El estadístico de contraste que emplearemos será: . E ERCICIOS: 1. En primer lugar. la prueba más idónea es el análisis de la varianza de dos clasificaciones por rangos de Friedman. plantea remos las hipótesis: H0: No existen diferencias entre en la atracción a los tres temas.5. y puesto que los casos se hayan relacionados. La asociación de padres de un centro convoca sucesivamente tres reuniones dirigidas a los padres de alumnos de un mismo grupo o clase.

R B = 1 y RC = 7. ¡ = 5.Por lo tanto. Sustituyendo: Comparamos el valor observado con el que nos ofrece la tabla.95 Puesto que el valor observado es mayor que el crític o. Por tanto. teniendo en cuenta que X sigue una distribución de chi cuadrado con k -1 grados de libertad. calcularemos la suma de rangos para cada columna:  Tema A 3 3 3 2 3 3 Tema B Tema C 1 1 1 1 1 1 RA = 17. por lo que podemos rechazar con una confianza del 95% que existen diferencias significativas en cuanto a la atracción a los distintos temas.991 . aquél entra en la región de rechazo. el valor crítico será ¡ 0.

Nivel de significación. Elección de la prueba estadística. y y Hipótesis alterna (Ha). Zona de rechazo. No hay diferencia significativa en niños de 4. después de aplicar 3 diferentes tipos de tratamiento. El modelo experimental tiene tres o más muestras dependientes.05. 6. 8.05. 8. se acepta Ha y se rechaza Ho. Hay diferencia significati va en niños de 4. 8. Para todo valor de probabilidad igual o menor que 0.2. 10 y 12 años. 10 y 12 años. 10 y 12 años después de 3 diferentes tratamientos. Escala = 0 .20 . 6. 6. se acepta Ho y se rechaza Ha. Un investigador desea comparar los niveles de memoria en niños de 4. Véase: Flujograma 5 SOLUCION Planteamiento de la hipótesis. después de aplicar 3 diferentes tipos de tratamiento. Hipótesis nula (Ho). Para todo valor de probabilidad mayor que 0.

Al valor más bajo le corresponde el rango 1.367. esto indica que es menor que el nivel de significancia. se acepta que entre los tres tratamientos ex isten distintos grados de memoria adquirida. con respecto a los otros dos tratamientos. Interpretación. Aceptada Ha. Decisión. Por otro lado. por lo cual. Se distingue notoriamente que el tratamiento A es menos eficaz. Como el valor de X 2r calculado es igual a 2. Transformamos los valores en rangos de acuerdo con la prueba de Friedman. la probabilidad es de 0. Las cifras aproximadas al estadístico calculado 2. Con tres columnas y cinco hileras se compara el valor calculado de X2r de Friedman con la tabla correspondiente de distribución de probabilidad. en función de las hileras.367.Aplicación de la prueba estadística. se acepta Ha y se rechaza Ho. respetando el orden hasta el dato que tiene la cifra más alta. Rango1 = 8 Rango2 = 9 Rango3 =13 Calculamos la X2r de Friedman.8. el tratamiento B ofrece mayores ventajas para la adquisición de memoria .8 = 0. Se utiliza la tabla N para pruebas pequeñas.

.

wikipedia.edu.com/prueba_no_parametrica www.pe/~fmendiburu/index-filer/academic/metodos1.us.com/ED800Estadisticas_no_parametricas.5. y y y y BIBLIOGRAFÍA www.monografias.lamolina.es/metodos-de-investigacion-y-diagnostico-eneducacion/analisis-de-datos-en-la-investigacioneducativa/Bloque_II/page_95.htm/ y .rincondelvago.htm http://ocwus. http://tarwi.6.com/estadistica_no_parametrica www.

Sign up to vote on this title
UsefulNot useful