ESTADÍSTICA NO PARAMÉTRICA

ESTADÍSTICA NO PARAMÉTRICA

1. Introducción:

Los métodos de estadística inferencial que hemos estudiado a durante el curso, son llamados métodos paramétricos porque ellos son basados en muestreos de una población con parámetros específicos, como la media ( ), la desviación estándar ( ) o la proporción (p). Estos métodos paramétricos usualmente tienen que ajustarse a algunas condiciones completamente estrictas, así como el requisito de que los dato s de la muestra provengan de una población normalmente distribuidas. Esta sección presenta los métodos no paramétricos, los cuales no tienen tales estrictos requisitos. La mayor parte de las técnicas estudiadas hacen suposiciones sobre la composición de los datos de la población. Las suposiciones comunes son que la población sigue una distribución normal, que varias poblaciones tienen varianzas iguales y que los datos se miden en una escala de intervalos o en una escala de razón. Este tema presentará un gr upo de técnicas llamadas no paramétricas que son útiles cuando estas suposiciones no se cumplen.

Su distribución no puede ser definida a priori. de intervalo.2. pues son los datos observados los que la determinan. Las principales pruebas no paramétricas son las siguientes: y y y y y y y y y y y y y y y y y y y Prueba ² de Pearson Prueba binomial Prueba de Anderson-Darling Prueba de Cochran Prueba de Cohen kappa Prueba de Fisher Prueba de Friedman Prueba de Kendall Prueba de Kolmogórov-Smirnov Prueba de Kruskal-Wallis Prueba de Kuiper Prueba de Mann-Whitney o prueba de Wilcoxon Prueba de McNemar Prueba de la mediana Prueba de Siegel-Tukey Coeficiente de correlación de Spearman Tablas de contingencia Prueba de Wald-Wolfowitz Prueba de los signos de Wilcoxon . ESTADÍSTICA NO PARAMÉTRICA: La estadística no paramétrica es una rama de la estadística que estudia las pruebas y modelos estadísticos cuya distribución subyacente no se ajusta a los llamados criterios paramétricos. como mínimo. La utilización de estos métodos se hace recomendable cuando no se puede asumir que los datos se ajusten a una distribución conocida. cuando el nivel de medida empleado no sea.

por lo que su base lógica es de fácil comprensión. En la mayor parte de ellas los resultados estadísticos se derivan únicamente a partir de procedimientos de ordenación y recuento. Aunque el término no paramétrico sugiere que la prueba no está basada en un parámetro. PRUEBAS NO PARAMÉTRICAS: Definición: Se denominan pruebas no paramétricas aquellas que no presuponen una distribución de probabilidad para los datos. Las pruebas no paramétricas. . En estos casos se emplea como parámetro de centralización la mediana . hay algunas pruebas no paramétricas que dependen de un parámetro tal como la media. al menos para corroborar los resultados obtenidos a partir de la utilización de la teoría basada en la normal. por ello se conocen también como de distribución libre (distribution free). de manera que algunas veces son referidas como pruebas de libre distribución . sin embargo. conviene utilizar pruebas no paramétricas. Aunque libre distribución es una descripción más exacta. que es aquel punto para el que el valor de X está el 50% de las veces por debajo y el 50% por encima.3. el término no paramétrico es más comúnmente usado. Cuando trabajamos con muestras pequeñas (n < 10) en las que se desconoce si es válido suponer la normalidad de los datos. no requieren una distribución particular.

p 3. t l ti í i t t . p . i p l ti i it l . f l il p l t l t t t t i ti i t l s é p J S s P ti p p p l p E É mé i p S s P É I S pli ti l p ti l t t i l t t . pli l ll i i ti pli p p t ti i t pli l i pl l p . l i ti i .El i l p p ti : 4. l t t . VE V . i t p 2. E . if J S Y ESVE j s t it p ti t f l t p t i t .

de manera que con una prueba no paramétrica generalmente se necesita evidencia más fuerte (así como una muestra más grande o mayores diferencias) antes de rechazar una hipótesis nula. Los métodos no paramétricos tienden a perder información porque datos numéricos exactos son frecuentemente reducidos a una forma cualitativa. . Cuando los requisitos de la distribución de una población son satisfechos. Las pruebas no paramétricas no son tan eficientes como las pruebas paramétricas. . las pruebas no paramétricas son generalmente menos eficientes que sus contrapartes paramétricas. pero la reducción de eficiencia puede ser compensada por un aumento en el tamaño de la muestra.De ventaja de lo M todo No Paramétrico 1.

‡ Es la versión no-paramétrica del ANOVA. . ‡ Dos posibles alternativas: ± ANOVA ± Prueba de Friedman ANOVA Friedman te t ‡ Método estadístico habitual. ‡ La violación de las condiciones tiene un gran efecto en el post-hoc test. ‡ Utilizar la modificación de Iman y Davenport (1980) al ser un mejor estadístico (menos conservativo). Al ordenarlos. reemplazándolos por su respectivo orden.1. parte de la hipótesis nula se rechaza debido a la aleatoriedad (Salzberg97). ± Requiere que las variables aleatorias tengan igual varianza. Comparación de vario cla ificadore ‡ Los métodos anteriores no fueron diseñados para la media de varias variables. PRUEBA DE FRIEDMAN 5. debemos considerar la existencia de datos idénticos. ‡ Condiciones: ± Distribución normal. el método consiste en ordenar los datos p or filas o bloques. ‡ ¿Se cumplen las condiciones impuestas por ANOVa? ± SI => Utilizar ANOVA. ‡ La naturaleza de los datos no da pistas sobre la satisfacción de la condición anterior. ‡ Cuando se hacen muchos test. Equivalente a la prueba ANOVA para dos factores en la versión no paramétrica. 5.2.5. DEFINICION En estadística la prueba de Friedman es una prueba no paramétrica desarrollado por el economista Milton Friedman. ± NO => Utilizar Friedman test.

i . j x1j . . y a cada uno de los elementos del grupo se le aplica uno de entre k ''tratamientos''... Hipótesis: Hipótesis nula (H0): No existen diferencias entre los grupos.. .. . Los datos se disponen en una tabla en la que en cada fila se recogen las respuestas de los k elementos de cada grupo a los k tratamientos: Grupo\ Tratamiento 1 .. xnj . frente a la hipótesis alternativa de que por lo menos la distribución de una de las respuestas difiere de las demás.... Para poder utilizar esta prueba las respuest as deben ser variables continuas y estar medidas por lo menos en una escala ordinal. ... xn1 2 x12 ...... xn2 .. n 1 x11 . Hipótesis alternativa (H1): Hay diferencias entre los grupos..... . .. PRUEBA DE FRIEDMAN Esta prueba puede utilizarse en aquellas situaciones en las que se seleccionan n grupos de k elementos de forma que los elementos de cada grupo sean lo más parecidos posible entre sí. . xik .... .....3. La hipótesis nula que se contrasta es que las respuestas asociadas a cada uno de los ''trat amientos'' tienen la misma distribución de probabilidad o distribuciones con la misma mediana... .... k x1k .. MUESTRAS RELACIONADAS.. o bien cuando a cada uno de los elementos de una muestra de tamaño n se le aplican los k ''tratamientos''..... xnk ....5.. .. xi2 .. xij .. xi1 ...

a continuación se suman los rangos correspondientes a cada columna. la distribución de los rangos en cada fila se debe al azar. El estadístico de prueba es:                     Si Ho es cierta y el número de columnas y/o de filas es moderadamente grande la distribución de F se aproxima a una chi-cuadrado con k .A las observaciones de cada fila se les asignan rangos de menor a mayor desde 1 hasta k. Si la hipótesis nula es cierta. y es de esperar que la suma de los rangos correspondientes a cada columna sea aproximadamente igual a n(k + 1)/ . de forma que se rechaza la hipótesis nula para valores de superiores al valor crítico para el nivel de significación fijado. La prueba de Friedman determina si las RJ observadas difieren significativamente del valor esperado bajo la hipótesis nula. siendo RJ la suma correspondiente a la columna j-ésima. .1 grados de libertad.

. . para muestras y y y y Asignar al azar a los sujetos a cada condición. Asignar rangos del dato más pequeño al mayor en función de las hileras. Se trabaja con tablas de doble entrada. .4 y H = > 9. 5. Las muestras son sacadas de la misma población. Comparar el valor de X r de Friedman con las tablas de valores críticos de probabilidad propia.     . utilizar las tablas de valores críticos de ji cuadrada de Pearson. Pasos: 1.5. Para muestras pequeñas: K = grandes: K = . Se utiliza para más de tres tratamientos. Muestras igualadas (igual número de sujetos en cada condición). En caso de muestras grandes. CARACTERÍSTICAS X r Se utiliza cuando: y y y y y   Trabaja con datos ordinales. Ordenar las observaciones en función de los cambios advertidos después del tratamiento o tratamientos. Se asignan rangos por condición. cuando la muestra es pequeña. Aplicar la fórmula de análisis de varianza de doble entrada por rangos de Friedman.9. 4.4 y H = . Sirve para establecer diferencias.4. Efectuar la sumatoria de los rangos en funci ón de las columnas Rc y elevarlos al cuadrado Rc .

El estadístico de contraste que emplearemos será: .5. deberemos utilizar una prueba no paramétrica. en las que se abordaron respectivamente temas relacionados con el apoyo de la familia al estudio (Tema A).5. Dado que el número de sujetos es pequeño. En primer lugar. H1: Existen diferencias significativas entre en la atracción a los tres temas. la prueba más idónea es el análisis de la varianza de dos clasificaciones por rangos de Friedman. ¿podemos afirmar que los tres temas atrajeron de modo distinto a los convocados? ( = 0. Si contamos los datos de asistencia a cada una de las tres reuniones para los padres de alumnos de 6 clases. el juego y el tiempo libre de los niños (Tema B). E ERCICIOS: 1. y puesto que los casos se hayan relacionados. y la part icipación de los padres en el centro (Tema C).05) Tema A 3 3 3 2 3 3 Tema B Tema C 1 1 1 1 1 1 SOLUCIÓN. plantea remos las hipótesis: H0: No existen diferencias entre en la atracción a los tres temas. La asociación de padres de un centro convoca sucesivamente tres reuniones dirigidas a los padres de alumnos de un mismo grupo o clase.

el valor crítico será ¡ 0. calcularemos la suma de rangos para cada columna:  Tema A 3 3 3 2 3 3 Tema B Tema C 1 1 1 1 1 1 RA = 17.991 .Por lo tanto. por lo que podemos rechazar con una confianza del 95% que existen diferencias significativas en cuanto a la atracción a los distintos temas. aquél entra en la región de rechazo. teniendo en cuenta que X sigue una distribución de chi cuadrado con k -1 grados de libertad.95 Puesto que el valor observado es mayor que el crític o. Por tanto. ¡ = 5. R B = 1 y RC = 7. Sustituyendo: Comparamos el valor observado con el que nos ofrece la tabla.

Para todo valor de probabilidad mayor que 0. Para todo valor de probabilidad igual o menor que 0. 10 y 12 años después de 3 diferentes tratamientos. 8. 10 y 12 años. Hipótesis nula (Ho). No hay diferencia significativa en niños de 4. se acepta Ha y se rechaza Ho. 6.05. 6. 8.05. Hay diferencia significati va en niños de 4.2.20 . 10 y 12 años. Un investigador desea comparar los niveles de memoria en niños de 4. El modelo experimental tiene tres o más muestras dependientes. Zona de rechazo. Nivel de significación. y y Hipótesis alterna (Ha). Escala = 0 . después de aplicar 3 diferentes tipos de tratamiento. después de aplicar 3 diferentes tipos de tratamiento. 8. Elección de la prueba estadística. Véase: Flujograma 5 SOLUCION Planteamiento de la hipótesis. 6. se acepta Ho y se rechaza Ha.

Aceptada Ha.367. Decisión. Con tres columnas y cinco hileras se compara el valor calculado de X2r de Friedman con la tabla correspondiente de distribución de probabilidad. Por otro lado.8 = 0. Se distingue notoriamente que el tratamiento A es menos eficaz.Aplicación de la prueba estadística. el tratamiento B ofrece mayores ventajas para la adquisición de memoria . Como el valor de X 2r calculado es igual a 2. se acepta Ha y se rechaza Ho. Transformamos los valores en rangos de acuerdo con la prueba de Friedman.8. respetando el orden hasta el dato que tiene la cifra más alta. se acepta que entre los tres tratamientos ex isten distintos grados de memoria adquirida.367. con respecto a los otros dos tratamientos. Las cifras aproximadas al estadístico calculado 2. esto indica que es menor que el nivel de significancia. Al valor más bajo le corresponde el rango 1. la probabilidad es de 0. Rango1 = 8 Rango2 = 9 Rango3 =13 Calculamos la X2r de Friedman. Se utiliza la tabla N para pruebas pequeñas. Interpretación. por lo cual. en función de las hileras.

.

6. http://tarwi.com/estadistica_no_parametrica www.htm/ y .rincondelvago.es/metodos-de-investigacion-y-diagnostico-eneducacion/analisis-de-datos-en-la-investigacioneducativa/Bloque_II/page_95.us.pe/~fmendiburu/index-filer/academic/metodos1.com/ED800Estadisticas_no_parametricas.htm http://ocwus.lamolina.5.monografias.edu.com/prueba_no_parametrica www. y y y y BIBLIOGRAFÍA www.wikipedia.

Sign up to vote on this title
UsefulNot useful