Está en la página 1de 19

Estadística No Paramétrica

UCR – ECCI
CI-0115 Probabilidad y Estadística
Prof. Kryscia Ramírez Benavides
Estadística Paramétrica

Las técnicas estadísticas de estimación de parámetros, intervalos de


confianza y prueba de hipótesis son, en conjunto, denominadas
estadística paramétrica y son aplicadas básicamente a variables
continuas
Estas se basan en especificar una forma de distribución de la variable aleatoria
y de los estadísticos derivados de los datos

Es una rama de la estadística que se enfoca en el análisis de datos


que no cumplen con los supuestos de normalidad y homogeneidad de
varianzas, necesarios para la aplicación de los métodos estadísticos
paramétricos clásicos
CI0115 Probabilidad y Estadística 2
Estadística No Paramétrica
En estadística paramétrica se asume que la población de la cual la
muestra es extraída es NORMAL o tienen distribución normal
Esta propiedad es necesaria para que la prueba de hipótesis sea válida

En un gran número de casos no se puede determinar la distribución


original ni la distribución de los estadísticos
Por lo que en realidad no se tiene parámetros a estimar
Se tiene solo distribuciones que comparar

Esto se llama ESTADÍSTICA NO PARAMÉTRICA


Para ello las variables en estudio tendrán que ser nominales u ordinales
CI0115 Probabilidad y Estadística 3
Estadística No Paramétrica
Nominal. Una variable puede ser tratada como nominal cuando sus
valores representan categorías que no obedecen a una clasificación
intrínseca
Por ejemplo: departamento de la compañía, región, código postal, etc.
Ordinal. Una variable puede ser tratada como ordinal cuando sus valores
representan categorías con alguna clasificación intrínseca
Por ejemplo: niveles de satisfacción con un servicio (desde muy insatisfecho hasta
muy satisfecho), escalas de actitud que representan el grado de satisfacción o
confianza, puntuaciones de evaluación de las preferencias
Escala (intervalo). Una variable puede tratarse como escala (continua)
cuando sus valores representan categorías ordenadas con una métrica con
significado, por lo que son adecuadas las comparaciones de distancia entre
valores
Por ejemplo: edad, ingresos, etc.

CI0115 Probabilidad y Estadística 4


Conceptos Básicos
La estadística no paramétrica se basa en la utilización de técnicas
estadísticas que no requieren la especificación de parámetros poblacionales
En lugar de esto, los métodos no paramétricos utilizan los datos observados para
realizar inferencias y tomar decisiones estadísticas

Algunos de los conceptos básicos de la estadística no paramétrica incluyen:


Distribución de probabilidad empírica: en lugar de asumir que los datos siguen una
distribución teórica específica, la distribución empírica se construye a partir de los
datos observados
Hipótesis no paramétricas: en lugar de asumir que los datos siguen una distribución
específica, las hipótesis no paramétricas se basan en supuestos menos restrictivos
Estadísticos no paramétricos: estos son estadísticos que no dependen de los
parámetros poblacionales y se calculan directamente a partir de los datos

CI0115 Probabilidad y Estadística 5


Definición
La estadística no paramétrica es una rama de la estadística que
estudia las pruebas y modelos estadísticos cuya distribución
subyacente no se ajusta a los llamados criterios paramétricos

Su distribución no puede ser definida a priori, pues son los datos
observados los que la determinan

La utilización de estos métodos se hace recomendable cuando no se


puede asumir que los datos se ajusten a una distribución conocida,
cuando el nivel de medida empleado no sea, como mínimo, de
intervalo
CI0115 Probabilidad y Estadística 6
Definición
Pruebas no paramétricas no presuponen una distribución de probabilidad
para los datos, por ello se conocen también como de distribución libre
En la mayor parte de ellas los resultados estadísticos se derivan únicamente a partir
de procedimientos de ordenación y recuento, por lo que su base lógica es de fácil
comprensión
Cuando se trabaja con muestras pequeñas (n < 10) en las que se desconoce si es
válido suponer la normalidad de los datos, conviene utilizar pruebas no paramétricas,
al menos para corroborar los resultados obtenidos a partir de la utilización de la teoría
basada en la normal

En estos casos se emplea como parámetro de centralización la mediana,


que es aquel punto para el que el valor de X está el 50% de las veces por
debajo y el 50% por encima

CI0115 Probabilidad y Estadística 7


Importancia

Es importante porque muchos conjuntos de datos reales no cumplen


con los supuestos de normalidad y homogeneidad de varianzas
requeridos para la aplicación de los métodos paramétricos

Además, la estadística no paramétrica proporciona métodos robustos


que no son sensibles a valores atípicos o errores en la medición

CI0115 Probabilidad y Estadística 8


Pruebas No Paramétricas
Prueba χ² de Pearson Prueba de Kuiper
Prueba binomial Prueba de Mann-Whitney o prueba de
Prueba de Anderson-Darling Wilcoxon
Prueba de Cochran Prueba de McNemar
Prueba de Cohen kappa Prueba de la mediana
Prueba de Fisher Prueba de Siegel-Tukey
Prueba de Friedman Prueba de los signos
Prueba de Kendall Coeficiente de correlación de
Spearman
Prueba de Kolmogórov-Smirnov
Tablas de contingencia
Prueba de Kruskal-Wallis
CI0115 Probabilidad y Estadística 9
Pruebas No Paramétricas
Prueba χ² de Pearson Prueba de Kuiper
Prueba binomial Prueba de Mann-Whitney o
Prueba de Anderson-Darling prueba de Wilcoxon
Prueba de Cochran Prueba de McNemar
Prueba de Cohen kappa Prueba de la mediana
Prueba de Fisher Prueba de Siegel-Tukey
Prueba de Friedman Prueba de los signos
Prueba de Kendall Coeficiente de correlación de
Spearman
Prueba de Kolmogórov-Smirnov
Tablas de contingencia
Prueba de Kruskal-Wallis
CI0115 Probabilidad y Estadística 10
Principales Pruebas Estadísticas No Paramétricas
Una muestra Muestras relacionadas
Variable Muestras independientes
(bondad de (dependientes)
dependiente
ajuste) 2 muestras > 2 muestras 2 muestras > 2 muestras
Binomial
Nominal Chi-Cuadrado McNemar Cochran --- ---
Rachas
Rachas de Wald-
Wolfowitz
Mediana
U de Mann-
Ordinal / Kolmogorov- Signos Friedman Kruskal-Wallis
Whitney
Intervalo Smirnov Wilcoxon Kendall Jonckheere-
Moses
Terpstra
Kolmogorov-
Smirnov

CI0115 Probabilidad y Estadística 11


Pruebas Estadísticas
Paramétricas vs. No Paramétricas
Muestra Prueba Paramétrica Prueba No Paramétrica

Una muestra Prueba Z / t-Student Wilcoxon


Muestras relacionadas
2 muestras t-Student Wilcoxon
> 2 muestras ANOVA Friedman
Muestras independientes
2 muestras t-Student U de Mann-Whitney
> 2 muestras ANOVA Kruskal-Wallis

CI0115 Probabilidad y Estadística 12


Prueba 𝝌𝝌 de Pearson 𝟐𝟐

Esta prueba se considera una prueba no paramétrica que mide la


discrepancia entre una distribución observada y otra teórica (bondad
de ajuste), indicando en qué medida las diferencias existentes entre
ambas, de haberlas, se deben al azar en el contraste de hipótesis

También se utiliza para probar la independencia de dos variables


entre sí, mediante la presentación de los datos en tablas de
contingencia

CI0115 Probabilidad y Estadística 13


Prueba de los Rangos con Signo de Wilcoxon
Es una prueba no paramétrica para comparar el rango medio de dos
muestras relacionadas y determinar si existen diferencias entre ellas
Se utiliza como alternativa a la prueba t de Student cuando no se puede suponer
la normalidad de dichas muestras
Debe su nombre a Frank Wilcoxon, que la publicó en 1945

Es una prueba no paramétrica de comparación de dos muestras


relacionadas y por lo tanto no necesita una distribución específica
Usa más bien el nivel ordinal de la variable dependiente
Se utiliza para comparar dos mediciones relacionadas y determinar si la diferencia
entre ellas se debe al azar o no (en este último caso, que la diferencia sea
estadísticamente significativa)
Se utiliza cuando la variable subyacente es continua pero no se presupone ningún tipo
de distribución particular

CI0115 Probabilidad y Estadística 14


Prueba U de Mann-Whitney
También llamada de Mann-Whitney-Wilcoxon, prueba de suma de
rangos Wilcoxon, o prueba de Wilcoxon-Mann-Whitney

Es una prueba no paramétrica aplicada a dos muestras


independientes
Es la versión no paramétrica de la habitual prueba t de Student

Fue propuesta inicialmente en 1945 por Frank Wilcoxon para


muestras de igual tamaños y extendido a muestras de tamaño
arbitrario como en otros sentidos por Henry B. Mann y D. R. Whitney
en 1947
CI0115 Probabilidad y Estadística 15
Prueba de Kolmogórov-Smirnov
Es una técnica estadística utilizada para determinar si una muestra
proviene de una población con una distribución de probabilidad
específica
Esta prueba se utiliza cuando no se conoce la distribución de probabilidad de
la población subyacente o cuando los supuestos necesarios para la aplicación
de pruebas paramétricas no se cumplen

Es un método útil para determinar si una muestra proviene de una


población con una distribución de probabilidad específica cuando los
supuestos de normalidad o simetría no se cumplen
Es importante tener en cuenta que la prueba de Kolmogórov-Smirnov solo
indica si la muestra proviene de una población con una distribución de
probabilidad específica, pero no especifica cuál es esa distribución
CI0115 Probabilidad y Estadística 16
Prueba de Kruskal-Wallis
Esta prueba se utiliza para comparar tres o más muestras independientes y se
basa en la comparación de los rangos de las observaciones en cada muestra

Es una prueba no paramétrica para comparar tres o más muestras independientes
cuando los supuestos de normalidad y homogeneidad de varianzas no se cumplen
 Es la versión no paramétrica cuando los datos no cumplen los supuestos necesarios para la
aplicación de la prueba de análisis de varianza (ANOVA)

Es importante destacar que la prueba de Kruskal-Wallis solo indica si hay una
diferencia significativa entre las medianas de las muestras, pero no especifica
cuáles son las muestras que difieren
 Por lo tanto, se requiere realizar pruebas adicionales para identificar las diferencias específicas
entre las muestras

CI0115 Probabilidad y Estadística 17


Prueba de Friedman
Es una prueba estadística utilizada para comparar tres o más muestras
relacionadas y se basa en la comparación de los rangos de las
observaciones en cada muestra
Se utiliza cuando los datos no cumplen con los supuestos necesarios para la
aplicación de la prueba paramétrica de ANOVA de medidas repetidas
Es un método útil para comparar tres o más muestras relacionadas cuando los
supuestos de normalidad y homogeneidad de varianzas no se cumplen

Al igual que con la prueba de Kruskal-Wallis, la prueba de Friedman solo


indica si hay una diferencia significativa entre las medianas de las muestras,
pero no especifica cuáles son las muestras que difieren
Por lo tanto, se requiere realizar pruebas adicionales para identificar las diferencias
específicas entre las muestras

CI0115 Probabilidad y Estadística 18


Conclusiones
La estadística no paramétrica es una rama importante de la estadística que
se utiliza para el análisis de datos cuando los supuestos de normalidad y
homogeneidad de varianzas no se cumplen

Los métodos no paramétricos proporcionan una alternativa robusta y


efectiva a los métodos paramétricos clásicos

CI0115 Probabilidad y Estadística 19

También podría gustarte