Está en la página 1de 11

INVESTIGACION

TEMA #4: PRUEBAS DE BONDAD DE AJUSTE Y


PRUEBAS NO PARAMETRICAS

INGENIERIA EN GESTION EMPRESARIAL


ESTADISTICA INFERENCIAL 1
GRADO Y GRUPO: 4TO SEMESTRE, GRUPO “A”
NOMBRE DEL ALUMNO: AXEL BRYAN WILSON ALONSO
NO. DE CONTROL: 20510443
CATEDRATICO: VELAZQUEZ REYES JORGE ARTURO

TAPACHULA, CHIAPAS | 22 DE MAYO DEL 2022

1
Introducción
Cuando pensamos en matemáticas, en general, y en estadística, en particular,
tenemos tendencia a imaginar un mar de números y fórmulas complicadísimas.

Cuando tratamos de describir la relación entre dos variables, podemos emplear


cientos de palabras para transmitir un concepto. Pero muchas de estas veces,
podemos ahorrar tiempo y tinta y recurrir a la representación de una sola fórmula.

Las fórmulas estadísticas tienen su belleza, no se puede negar. Todo lleno de letras
griegas mayúsculas y minúsculas, letras con barra o con sombrero, subíndices y
superíndices para repartir, etc. En muchas ocasiones, un vistazo a la fórmula será
suficiente para explicar un concepto que requeriría varías líneas de texto en
lenguaje corriente.

Sin embargo, hay veces que la información puede ser tan compleja que no nos
ayude disponer solo de la fórmula que describa la situación. En estas ocasiones se
aplica ese adagio popular que afirma que una imagen vale más que mil palabras.
Estamos hablando de la representación gráfica de los datos.

Al representar los datos de forma gráfica podemos comprender de forma más


rápida, sencilla e intuitiva cómo evolucionan y se relacionan las distintas variables.
Los vemos a diario en los medios de comunicación para representar la evolución de
los precios, del desempleo, de los contagios de una enfermedad, etc.

2
Índice

Contenido
Introducción ............................................................................................................. 2

Índice ....................................................................................................................... 3

Prueba de Kolmogórov-Smirnov ............................................................................. 4

¿Qué es la prueba de Kolmogórov-Smirnov? ...................................................... 4

Características principales ................................................................................... 4

¿Para qué sirve? ................................................................................................. 5

¿Cómo se calcula? .............................................................................................. 5

Ventajas ............................................................................................................... 5

Prueba de Anderson - Darling ................................................................................. 6

¿Qué es la prueba de Anderson – Darling?......................................................... 6

Aplicación ............................................................................................................ 6

Prueba de Ryan- Joiner .......................................................................................... 7

¿Qué es? ............................................................................................................. 7

¿Cuál es el objetivo de esta prueba? .................................................................. 7

¿Cómo se forma? ................................................................................................ 8

Características principales ................................................................................... 8

Prueba de Shapiro-Wilk .......................................................................................... 9

¿Qué es? ............................................................................................................. 9

¿Cómo se emplea? ............................................................................................. 9

Conclusión............................................................................................................. 10

Referencias ........................................................................................................... 11

3
Prueba de Kolmogórov-Smirnov
Las pruebas paramétricas y no paramétricas son muy utilizadas en el campo de la
estadística inferencial. Entre las no paramétricas, encontramos la prueba de
Kolmogórov-Smirnov, que nos devuelve un indicador para ayudarnos a de decidir si
los datos de una determinada muestra se ajustan a una distribución de probabilidad,
con las consecuencias que tiene este hecho de cara al análisis de datos.

Esta prueba surge de los aportes realizados por Nikolaevich Kolmogorov y Vladimir
Ivanovich Smirnov. La contribución de Kolmogorov corresponde al problema
relacionado con una sola muestra, mientras que la de Smirnov se ocupa de
responder al problema respecto a dos muestras, tratando de probar la hipótesis de
igualdad entre las poblaciones de origen de una con respecto a la de la otra.

¿Qué es la prueba de Kolmogórov-Smirnov?


La prueba de Kolmogorov-Smirnov es una prueba de bondad de ajuste no
paramétrica que se emplea para obtener un indicador que le dé una idea al
investigador de si dos distribuciones son distintas o si una distribución de
probabilidad subyacente difiere de una distribución hipotética.

Características principales
Principalmente, se usa cuando en una investigación tenemos dos muestras
procedentes de dos poblaciones que son diferentes. Algunas de las características
de este tipo de pruebas, no paramétricas, son las siguientes:

Son independientes de las observaciones aleatorias a excepción de datos


pareados.
Tienen pocas asunciones con respecto a la distribución de la población.
La variable dependiente es medida en escala categórica.
El punto primario es el ordenamiento por rangos o por frecuencias.
Las hipótesis se hacen sobre rangos, mediana o frecuencias de los datos.
El tamaño de la muestra requerido es menor (20 o <).

4
¿Para qué sirve?
Esta prueba nos sirve para:

Verificar si las puntuaciones que hemos obtenido de nuestra muestra siguen


o no una distribución normal.
Medir el grado de concordancia existente entre la distribución de un conjunto
de datos y una distribución teórica específica.
Evaluar qué distribución se adapta mejor a los datos.
Contrastar si nuestras observaciones proceden de una distribución
específica.
Discriminar las diferencias en la localización y formas de las distribuciones.
Probar si dos distribuciones son lo suficientemente diferentes entre ellas
cuando queremos construir escenarios de predicción.

A través de Kolmogórov-Smirnov, podemos comparar la distribución acumulada de


las frecuencias teóricas con la distribución acumulada de las frecuencias
observadas. Para ello, la idea es encontrar el punto de divergencia máxima y
determinar cuál es la probabilidad de que una diferencia de esa magnitud ocurra al
azar.

¿Cómo se calcula?
Para calcularla, partimos de la diferencia mayor (en valor absoluto) entre la
distribución acumulada de una muestra (observada) y la distribución teórica. La
bondad de ajuste de la muestra permite suponer de manera razonable, que las
observaciones pueden corresponder a la distribución específica.

Ventajas
Es más poderosa que la prueba Chi cuadrado (χ²) (también prueba de
bondad de ajuste).
Es fácil de calcular y usar, y no requiere agrupación de los datos.
El estadístico es independiente de la distribución de frecuencias esperada,
solo depende del tamaño de la muestra.

5
Prueba de Anderson - Darling
Fue conocida en 1954, prueba tiene como propósito corroborar si una muestra de
variables aleatorias proviene de una población con una distribución de probabilidad
específica. Trata de una modificación de la prueba de Kolmogórov-Smirnov, aunque
tiene la virtud de detectar las discrepancias en los extremos de las distribuciones.
La principal desventaja que es necesario calcular los valores críticos para cada
distribución. Esta es muy sensible en los extremos de la distribución, por lo que debe
ser usada con mucho cuidado en distribuciones con límite inferior acotado, y no es
confiable para distribuciones de tipo discreto.

¿Qué es la prueba de Anderson – Darling?


La prueba de Anderson-Darling es una prueba estadística de si una muestra dada
de datos se extrae de una distribución de probabilidad dada. En su forma básica, la
prueba asume que no hay parámetros para estimar en la distribución que se está
probando, en cuyo caso la prueba y su conjunto de valores críticos están libres de
distribución. Sin embargo, la prueba se usa con mayor frecuencia en contextos
donde se está probando una familia de distribuciones, en cuyo caso los parámetros
de esa familia deben estimarse y debe tenerse en cuenta esto al ajustar el
estadístico de prueba o sus valores críticos.

Aplicación
El estadístico Anderson-Darling mide qué tan bien siguen los datos una distribución
específica, siendo que, para un conjunto de datos y distribución en particular,
mientras mejor se ajuste la distribución a los datos, menor será este estadístico.
También puede utilizar el estadístico de Anderson-Darling para comparar el ajuste
de varias distribuciones con el fin de determinar cuál es la mejor. Sin embargo, para
concluir que una distribución es la mejor, el estadístico de Anderson-Darling debe
ser sustancialmente menor que los demás. Cuando los estadísticos están cercanos
entre sí, se deben usar criterios adicionales, como las gráficas de probabilidad, para
elegir entre ellos.

6
Prueba de Ryan- Joiner
El estadístico de Ryan-Joiner mide qué tan bien se ajustan los datos a una
distribución normal, calculando la correlación entre los datos y las puntuaciones
normales de los datos. Según Hanke & Wichern (2014) la prueba de Ryan Joiner
proporciona un coeficiente que indica exactamente la correlación entre los datos y
las puntuaciones normales de los datos. Una vez que el coeficiente de correlación
se acerca a 1, los datos se encuentran dentro de la gráfica de probabilidad normal;
caso contrario, esto es, cuando el valor critico adecuado es menor, se rechaza la
hipótesis nula de normalidad. Cabe recalcar que para rechazar la hipótesis nula de
normalidad se calcula, primero, la medida de la correlación entre los residuos y sus
respectivas puntuaciones normales y, luego, se utiliza dicha correlación como
estadística de prueba. La prueba de Ryan-Joiner es similar a la prueba de Shapiro-
Wilk- se basa en la regresión y correlación.

¿Qué es?
La prueba de Ryan - Joiner es usada para probar si una muestra viene de una
distribución específica. Esta prueba es una modificación de la prueba de
Kolmogórov-Smirnov donde se le da más peso a las colas de la distribución que la
prueba de Kolmogórov-Smirnov. En estadística, la prueba de Ryan - Joiner es una
prueba no paramétrica sobre si los datos de una muestra provienen de una
distribución específica.

¿Cuál es el objetivo de esta prueba?


El objetivo de esta prueba de normalidad es obtener el resultado de la prueba que
indique si debemos o no aceptar la hipótesis nula que los datos viene de una
población normalmente distribuida o la hipótesis alternativa en donde los datos no
provienen de una población normalmente distribuida

7
¿Cómo se forma?
*Si el estadístico es cerca de 1, sus datos caen cerca de la gráfica de
probabilidad normal
*En el método de Ryan – joiner, si el valor de probabilidad P de la prueba es
mayor a 0.05 o 0.10 se consideran que los datos son normales.
*Esta prueba evalúa la normalidad calculando la correlación entre sus datos
y las puntuaciones normales de sus datos. En estadística de Ryan-joiner
evalúa la solide? de esta correlación si se encuentra por debajo del valor
crítico apropiado, usted rechazar , la hipótesis nula de normalidad en la
población.

Características principales
*La prueba de Ryan – Joiner es usada para probar si una muestra viene de
una distribución especifica.
*En estadística la prueba de Ryan – Joiner es una prueba no paramétrica
sobre si los datos de una muestra provienen de una distribución especifica.
*Se puede hacer una prueba de normalidad y producir un argumento de
probabilidad normal en el mismo análisis. La prueba de normalidad y el
argumento de probabilidad son por lo general los mejores instrumentos para
juzgar la normalidad, sobre todo para muestras pequeñas.

8
Prueba de Shapiro-Wilk
¿Qué es?
La prueba de Shapiro-Wilk es un test estadístico empleado para contrastar la
normalidad de un conjunto de datos. Publicado en 1965 por Samuel Shapiro y Martin
Wilk. Esta prueba utiliza el contraste de hipótesis para rechazar la normalidad de la
muestra. La hipótesis nula asume que la muestra proviene de una población
distribuida normalmente. Si el valor p es menor al nivel de significación establecido
(convencionalmente un 0.05) se rechaza la hipótesis nula y se considera que hay
evidencia para concluir que la muestra no proviene de una distribución normal. Sin
embargo, conviene recordar que en caso contrario (el valor p es mayor que el nivel
de significación establecido) no se acepta la hipótesis alternativa, simplemente no
se rechaza la hipótesis nula. No se demuestra nada.

¿Cómo se emplea?
Esta pruea se emplea para contrastar normalidad cuando el tamaño de la muestra
es menor a 50 observaciones y en muestras grandes es equivalente al test de
Kolmogórov-Smirnov. El método consiste en comenzar ordenando la muestra de
menor a mayor valor, obteniendo el nuevo vector muestral. Cuando la muestra es
como máximo de tamaño 50, se puede contrastar la normalidad con la prueba de
Shapiro-Wilk, procediéndose a calcular la media y la varianza muestral.

Shapiro-Wilk, como prueba de normalidad, fue introducido considerando que el


gráfico de probabilidad normal que examina el ajuste de un conjunto de datos de
muestra para la distribución normal es semejante a la de regresión lineal - la línea
diagonal del gráfico es la recta de ajuste perfecto-, con la diferencia de que esta
línea es similar a los residuos de la regresión. Mediante el análisis de la magnitud
de esta variación -análisis de varianza-, la calidad del ajuste puede ser examinado.
La prueba puede aplicarse a muestras grandes, como fue sugerido por Royston,
que también produjo algoritmos para implementar su extensión y que se implementa
en algunos softwares especializados estadísticos

9
Conclusión
Ya conocemos la distribución normal y su papel central para poder utilizar las
pruebas paramétricas en nuestros contrastes de hipótesis. Para la mayor parte de
contrastes es obligado comprobar que nuestros datos siguen una distribución
normal antes de elegir la técnica a utilizar.

Los contrastes o análisis de normalidad tratan de analizar cuánto difiere la


distribución de nuestros datos (los observados en nuestra muestra) respecto a lo
que deberíamos esperar si los datos procediesen de una población en la que la
variable siguiese una distribución normal con la misma media y desviación estándar
que la observada en los datos de la muestra.

Para esta comprobación disponemos de tres estrategias posibles: los métodos


basados en contrastes de hipótesis, los basados en representaciones gráficas y los
llamados métodos analíticos.

10
Referencias
El estadístico de Anderson-Darling - Minitab. (s. f.). (C) Minitab, LLC. All rights
Reserved. 2022. Recuperado 23 de mayo de 2022, de
https://support.minitab.com/es-mx/minitab/18/help-and-how-to/statistics/basic-
statistics/supporting-topics/normality/the-anderson-darling-statistic/

PRUEBA DE ANDERSON DARLING. (2011, 14 marzo). Simulación de Procesos


Empresariales. Recuperado 23 de mayo de 2022, de
https://simulaciondeprocesosempresariales.wordpress.com/2011/02/28/prueba-de-
anderson-darling/

Prueba de Kolmogórov-Smirnov: qué es y cómo se usa en estadística. (2022, 25


abril). psicologia y mente. Recuperado 23 de mayo de 2022, de
https://psicologiaymente.com/miscelanea/prueba-kolmogorov-smirnov

Rodó, P. (2021, 19 febrero). Prueba de Kolmogorov – Smirnoff (K-S). Economipedia.


Recuperado 23 de mayo de 2022, de
https://economipedia.com/definiciones/prueba-de-kolmogorov-smirnoff-k-s.html

Tapia, C. E. F. (s. f.). PRUEBAS PARA COMPROBAR LA NORMALIDAD DE


DATOS EN PROCESOS PRODUCTIVOS: ANDERSON-DARLING, RYAN-
JOINER, SHAPIRO-WILK Y KOLMOGÓROV-SMIRNOV. portal.amelica.
Recuperado 23 de mayo de 2022, de
http://portal.amelica.org/ameli/journal/341/3412237018/html/

11

También podría gustarte