Documentos de Académico
Documentos de Profesional
Documentos de Cultura
1
Introducción
Cuando pensamos en matemáticas, en general, y en estadística, en particular,
tenemos tendencia a imaginar un mar de números y fórmulas complicadísimas.
Las fórmulas estadísticas tienen su belleza, no se puede negar. Todo lleno de letras
griegas mayúsculas y minúsculas, letras con barra o con sombrero, subíndices y
superíndices para repartir, etc. En muchas ocasiones, un vistazo a la fórmula será
suficiente para explicar un concepto que requeriría varías líneas de texto en
lenguaje corriente.
Sin embargo, hay veces que la información puede ser tan compleja que no nos
ayude disponer solo de la fórmula que describa la situación. En estas ocasiones se
aplica ese adagio popular que afirma que una imagen vale más que mil palabras.
Estamos hablando de la representación gráfica de los datos.
2
Índice
Contenido
Introducción ............................................................................................................. 2
Índice ....................................................................................................................... 3
Ventajas ............................................................................................................... 5
Aplicación ............................................................................................................ 6
Conclusión............................................................................................................. 10
Referencias ........................................................................................................... 11
3
Prueba de Kolmogórov-Smirnov
Las pruebas paramétricas y no paramétricas son muy utilizadas en el campo de la
estadística inferencial. Entre las no paramétricas, encontramos la prueba de
Kolmogórov-Smirnov, que nos devuelve un indicador para ayudarnos a de decidir si
los datos de una determinada muestra se ajustan a una distribución de probabilidad,
con las consecuencias que tiene este hecho de cara al análisis de datos.
Esta prueba surge de los aportes realizados por Nikolaevich Kolmogorov y Vladimir
Ivanovich Smirnov. La contribución de Kolmogorov corresponde al problema
relacionado con una sola muestra, mientras que la de Smirnov se ocupa de
responder al problema respecto a dos muestras, tratando de probar la hipótesis de
igualdad entre las poblaciones de origen de una con respecto a la de la otra.
Características principales
Principalmente, se usa cuando en una investigación tenemos dos muestras
procedentes de dos poblaciones que son diferentes. Algunas de las características
de este tipo de pruebas, no paramétricas, son las siguientes:
4
¿Para qué sirve?
Esta prueba nos sirve para:
¿Cómo se calcula?
Para calcularla, partimos de la diferencia mayor (en valor absoluto) entre la
distribución acumulada de una muestra (observada) y la distribución teórica. La
bondad de ajuste de la muestra permite suponer de manera razonable, que las
observaciones pueden corresponder a la distribución específica.
Ventajas
Es más poderosa que la prueba Chi cuadrado (χ²) (también prueba de
bondad de ajuste).
Es fácil de calcular y usar, y no requiere agrupación de los datos.
El estadístico es independiente de la distribución de frecuencias esperada,
solo depende del tamaño de la muestra.
5
Prueba de Anderson - Darling
Fue conocida en 1954, prueba tiene como propósito corroborar si una muestra de
variables aleatorias proviene de una población con una distribución de probabilidad
específica. Trata de una modificación de la prueba de Kolmogórov-Smirnov, aunque
tiene la virtud de detectar las discrepancias en los extremos de las distribuciones.
La principal desventaja que es necesario calcular los valores críticos para cada
distribución. Esta es muy sensible en los extremos de la distribución, por lo que debe
ser usada con mucho cuidado en distribuciones con límite inferior acotado, y no es
confiable para distribuciones de tipo discreto.
Aplicación
El estadístico Anderson-Darling mide qué tan bien siguen los datos una distribución
específica, siendo que, para un conjunto de datos y distribución en particular,
mientras mejor se ajuste la distribución a los datos, menor será este estadístico.
También puede utilizar el estadístico de Anderson-Darling para comparar el ajuste
de varias distribuciones con el fin de determinar cuál es la mejor. Sin embargo, para
concluir que una distribución es la mejor, el estadístico de Anderson-Darling debe
ser sustancialmente menor que los demás. Cuando los estadísticos están cercanos
entre sí, se deben usar criterios adicionales, como las gráficas de probabilidad, para
elegir entre ellos.
6
Prueba de Ryan- Joiner
El estadístico de Ryan-Joiner mide qué tan bien se ajustan los datos a una
distribución normal, calculando la correlación entre los datos y las puntuaciones
normales de los datos. Según Hanke & Wichern (2014) la prueba de Ryan Joiner
proporciona un coeficiente que indica exactamente la correlación entre los datos y
las puntuaciones normales de los datos. Una vez que el coeficiente de correlación
se acerca a 1, los datos se encuentran dentro de la gráfica de probabilidad normal;
caso contrario, esto es, cuando el valor critico adecuado es menor, se rechaza la
hipótesis nula de normalidad. Cabe recalcar que para rechazar la hipótesis nula de
normalidad se calcula, primero, la medida de la correlación entre los residuos y sus
respectivas puntuaciones normales y, luego, se utiliza dicha correlación como
estadística de prueba. La prueba de Ryan-Joiner es similar a la prueba de Shapiro-
Wilk- se basa en la regresión y correlación.
¿Qué es?
La prueba de Ryan - Joiner es usada para probar si una muestra viene de una
distribución específica. Esta prueba es una modificación de la prueba de
Kolmogórov-Smirnov donde se le da más peso a las colas de la distribución que la
prueba de Kolmogórov-Smirnov. En estadística, la prueba de Ryan - Joiner es una
prueba no paramétrica sobre si los datos de una muestra provienen de una
distribución específica.
7
¿Cómo se forma?
*Si el estadístico es cerca de 1, sus datos caen cerca de la gráfica de
probabilidad normal
*En el método de Ryan – joiner, si el valor de probabilidad P de la prueba es
mayor a 0.05 o 0.10 se consideran que los datos son normales.
*Esta prueba evalúa la normalidad calculando la correlación entre sus datos
y las puntuaciones normales de sus datos. En estadística de Ryan-joiner
evalúa la solide? de esta correlación si se encuentra por debajo del valor
crítico apropiado, usted rechazar , la hipótesis nula de normalidad en la
población.
Características principales
*La prueba de Ryan – Joiner es usada para probar si una muestra viene de
una distribución especifica.
*En estadística la prueba de Ryan – Joiner es una prueba no paramétrica
sobre si los datos de una muestra provienen de una distribución especifica.
*Se puede hacer una prueba de normalidad y producir un argumento de
probabilidad normal en el mismo análisis. La prueba de normalidad y el
argumento de probabilidad son por lo general los mejores instrumentos para
juzgar la normalidad, sobre todo para muestras pequeñas.
8
Prueba de Shapiro-Wilk
¿Qué es?
La prueba de Shapiro-Wilk es un test estadístico empleado para contrastar la
normalidad de un conjunto de datos. Publicado en 1965 por Samuel Shapiro y Martin
Wilk. Esta prueba utiliza el contraste de hipótesis para rechazar la normalidad de la
muestra. La hipótesis nula asume que la muestra proviene de una población
distribuida normalmente. Si el valor p es menor al nivel de significación establecido
(convencionalmente un 0.05) se rechaza la hipótesis nula y se considera que hay
evidencia para concluir que la muestra no proviene de una distribución normal. Sin
embargo, conviene recordar que en caso contrario (el valor p es mayor que el nivel
de significación establecido) no se acepta la hipótesis alternativa, simplemente no
se rechaza la hipótesis nula. No se demuestra nada.
¿Cómo se emplea?
Esta pruea se emplea para contrastar normalidad cuando el tamaño de la muestra
es menor a 50 observaciones y en muestras grandes es equivalente al test de
Kolmogórov-Smirnov. El método consiste en comenzar ordenando la muestra de
menor a mayor valor, obteniendo el nuevo vector muestral. Cuando la muestra es
como máximo de tamaño 50, se puede contrastar la normalidad con la prueba de
Shapiro-Wilk, procediéndose a calcular la media y la varianza muestral.
9
Conclusión
Ya conocemos la distribución normal y su papel central para poder utilizar las
pruebas paramétricas en nuestros contrastes de hipótesis. Para la mayor parte de
contrastes es obligado comprobar que nuestros datos siguen una distribución
normal antes de elegir la técnica a utilizar.
10
Referencias
El estadístico de Anderson-Darling - Minitab. (s. f.). (C) Minitab, LLC. All rights
Reserved. 2022. Recuperado 23 de mayo de 2022, de
https://support.minitab.com/es-mx/minitab/18/help-and-how-to/statistics/basic-
statistics/supporting-topics/normality/the-anderson-darling-statistic/
11