Está en la página 1de 14

INSTITUTO TECNOLOGICO DE TAPACHULA.

CARRERA:

INGENIERIA INDUSTRIAL

TEMA:

SEMESTRE Y GRUPO:

3-B

ALUMNAS:

HERNANDEZ RUIZ MARIA

LOPEZ MENDEZ TANIA GUADALUPE

VILLATORO BRAVO HANNIA

MATERIA:

ESTADISTICA INFERENCIAL 1

NOMBRE DEL CATEDRATICO:

JORGE

TAPACHULA, CHIAPAS A 8 DE DICIEMBRE DEL 2023


INTRODUCCION
La Investigación de Operaciones consiste en un conjunto de técnicas que
contribuyen a la solución de problemas de una amplia gama de actividades,
mediante la aplicación de diversas técnicas sustentadas en modelos matemáticos
y estadísticos. Es el caso, principalmente, de los métodos paramétricos -
estadístico Z, t-student, F, entre otros; de los métodos no paramétricos -prueba de
signo, pruebas de suma de rangos, Kolmogórov-Smirnov, entre otros- y de las
técnicas de análisis multivariante -análisis factorial, análisis de clúster, análisis
discriminante, entre otras. A su vez, la utilización de alguno de los estadísticos
señalados implica, primero, la comprobación del cumplimiento de supuestos, es el
caso de la determinación de la normalidad de los datos (Anderson et al., 2016b;
Hillier & Lieberman, 2015; Taha, 2017).

Ahora bien, muchos procedimientos estadísticos dependen de la normalidad de la


población, de modo que recurrir a una prueba de normalidad para determinar si se
rechaza este supuesto constituye un paso importante en el análisis. Entre las
pruebas para determinar si los datos de su muestra provienen de una población no
normal, se destacan Anderson-Darling, Ryan-Joiner, Shapiro-Wilk y Kolmogórov-
Smirnov (Levin et al., 2014;Robbins, 2015).

En este sentido, la aplicación de las pruebas de normalidad de los datos pretende


garantizar la robustez de los análisis estadísticos, más aún cuando en las
organizaciones se dedica tiempo y recursos para ello, razón por la cual es
deseable llegar a conclusiones correctas. En este sentido, resulta clave verificar
que, cuando se aplica una determinada herramienta estadística al análisis de
variables continuas o cuantitativas, la información obtenida durante el proceso,
mantiene o no la distribución normal de los datos; porque, por ejemplo, todos los
test paramétricos requieren el cumplimiento de este supuesto y la aplicación de
test no paramétricos, a su vez, necesitan que las observaciones no procedan de
una distribución normal (Correa et al., 2006; Guisande & Barreiro, 2006; Lind,
2012b).

Dicho lo anterior, el objetivo de esta investigación de caso particular es verificar el


supuesto de normalidad en muestras de datos relacionados con procesos
industriales de la empresa Servicartón Cía. Ltda., mediante la aplicación de las
pruebas de Anderson-Darling, Ryan-Joiner, Shapiro-Wilk y Kolmogórov-Smirnov,
utilizando el soware Minitab. Las hipótesis que se contrastan en este estudio,
para cada una las pruebas señaladas anteriormente, son:

H0: Los datos siguen una distribución normal.

H1: Los datos no siguen una distribución normal.


PRUEBAS DE BONDAD DE AJUSTE Y NO PARAMÉTRICAS.

La mayoría de los procedimientos de prueba de hipótesis que se presentaron en los


capítulos anteriores se basan en la suposición de que las muestras aleatorias se seleccionan
de poblaciones normales. Por fortuna, la mayor parte de estas pruebas aún son confiables
cuando experimentamos ligeras desviaciones de la normalidad, en particular cuando el
tamaño de la muestra es grande. Tradicionalmente, tales procedimientos de prueba se
denominan métodos paramétricos. En este capítulo consideramos varios procedimientos
de prueba alternativos, llamados no paramétricos o métodos de distribución libre, que a
menudo no suponen conocimiento de ninguna clase acerca de las distribuciones de las
poblaciones fundamentales, excepto quizá que éstas son continuas. Los procedimientos
no paramétricos o de distribución libre se utilizan con mayor frecuencia por los analistas
de datos. Hay muchas aplicaciones en la ciencia y la ingeniería donde los datos se reportan
no como valores de un continuo, sino más bien en una escala ordinal tal que es bastante
natural asignar rangos a los datos. De hecho, en este capítulo el lector notará muy pronto
que los métodos de distribución libre que se describen aquí implican un análisis de rangos.
La mayoría de los analistas encuentran que los cálculos que se intervienen en los métodos
no paramétricos son muy atractivos e intuitivos. Un ejemplo donde se aplica una prueba
no paramétrica es el siguiente. Dos jueces deben clasificar cinco marcas de cerveza de alta
calidad mediante la asignación de un grado de 1 a la marca que se considera que tiene la
mejor calidad global, un grado de 2 a la segunda mejor, etcétera. Entonces, se puede
utilizar una prueba no paramétrica para determinar donde existe algún acuerdo entre los
dos jueces. También debemos señalar que hay varias desventajas asociadas con las
pruebas no paramétricas. En primer lugar, no utilizan toda la información que proporciona
la muestra y, por ello, una prueba no paramétrica será menos eficiente que el
procedimiento paramétrico correspondiente, cuando ambos métodos son aplicables. En
consecuencia, para lograr la misma potencia, una prueba no paramétrica requerirá un
tamaño muestral mayor que el que requeriría la prueba no paramétrica correspondiente.
Análisis Ji-Cuadrada.
La prueba de ji cuadrado es un método de prueba de hipótesis. Dos pruebas de ji
cuadrado habituales implican comprobar si las frecuencias observadas de una o más
categorías se ajustan a las esperadas.
Si tiene una sola variable de medida, use una prueba ji cuadrado de bondad de ajuste.
Si tiene dos variables de medida, use la prueba de ji cuadrado de independencia. Hay
otras pruebas de ji cuadrado, pero estas dos son las más frecuentes. La prueba de ji
cuadrado se usa para comprobar hipótesis sobre si ciertos datos son como se esperaba. La
idea clave tras la prueba es comparar los valores observados en los datos con los valores
esperados que tendríamos si la hipótesis nula es cierta. Hay dos pruebas de ji cuadrado que
se suelen usar: la prueba de bondad de ajuste de ji cuadrado y la prueba de independencia
de ji cuadrado. Ambas pruebas implican
variables que dividen los datos en categorías. Por ello, puede resultar confuso decidir qué
prueba usar.
Datos de frecuencia.
la distribución ji-cuadrada (𝝌𝟐), tanto para estimar como para probar hipótesis acerca
de la varianza o desviación estándar de una población. La distribución ji-cuadrada se
emplea también para: a) probar hipótesis acerca de datos de frecuencia, es decir, para
comparar resultados experimentales, obtenidos en forma de frecuencias o
proporciones, con frecuencias esperadas. Esto es, probar estadísticamente si la
distribución de frecuencias observadas es compatible (se ajusta a) con alguna
distribución teórica conocida: Uniforme, Multinomial, Binomial, Poisson, Normal,
etc. A estas pruebas se les denomina; Pruebas de Bondad de Ajuste; y b) para probar
preferencias o pruebas de independencia, llamadas también tablas de Contingencia

P. d/la bondad del ajuste.


La prueba ji cuadrado de bondad de ajuste es una prueba de hipótesis estadística que
se usa para averiguar si es probable que una variable provenga o no de una distribución
específica. Se emplea a menudo para determinar si los datos de una muestra son
representativos de la población completa.
En general la prueba de bondad de ajuste se utiliza para discriminar si una colección
de datos o muestra se ajusta a una distribución teórica de una determinada población.
En otras palabras, nos dice si la muestra disponible representa (ajusta) razonablemente
los datos que uno esperaría encontrar en la población.
La prueba de ji cuadrado de bondad de ajuste comprueba si es probable que los datos
de la muestra vengan de una distribución teórica específica. Tenemos un conjunto de
valores de datos y cierta idea sobre cómo se distribuyen. Esta prueba nos da una
manera de decidir si los datos se ajustan lo bastante bien a nuestra idea o debemos
revisarla.
Para resolver el primer tipo de problema planteado en la sección anterior se puede
utilizar la distribución 𝝌𝟐 de Karl Pearson o la prueba de Kolmogorov y Smirnov. La
primera prueba conviene tanto para distribuciones continuas como para discretas;
mientras que la de Kolmogorov y Smirnov solo sirve para distribuciones continuas.
con k-r grados de libertad, donde:
k: es el número de eventos o categorías
r: es el número de restricciones (r ≥ 1, ya que ∑ 𝑶
𝒊

𝒌
= 𝑬
𝒊=𝟏 ∑ 𝒊

𝒌
es siempre una
𝒊=𝟏

restricción, y cada parámetro que se tenga que estimar es una restricción más).
En ocasiones, las frecuencias esperadas dan resultados menores que 1, y los
investigadores frecuentemente hacen notar en la literatura que el estadígrafo no se
𝟐
distribuye como 𝝌 si las frecuencias esperadas son pequeñas; pero no se ponen de

acuerdo en el valor que al menos deben tener las E… Algunos establecen que para
poder usar la ji-cuadrada las E. deben ser al menos 5 (𝑬 ≥ 𝟓). Otros no tan
𝒊
𝟐
conservadores, como Cochran, opinan que se puede usar la 𝝌 si las 𝑬 tienen un valor
𝒊

de por lo menos 1 (𝑬 ≥ 𝟏) y la distribución es unimodal (como la normal). Si, en la


𝒊

práctica resultaran una o varias 𝑬 < 𝟏 se juntan las categorías adyacentes para que se
𝒊

cumpla este supuesto (𝑬 ≥ 𝟏). Al combinar dos o más categorías adyacentes, el


𝒊

número de éstas se reduce y por tanto los grados de libertad también se reducen.
Además, Dixon y Massey establecen que no más de 20% de las E. deben ser menores
que 5; nosotros no consideraremos esta suposición.
Pruebas no paramétricas.
Prueba de rangos con signo de Wilcoxon para la mediana.
El lector debería notar que la prueba de signo tan sólo utiliza los signos más y menos
de las diferencias entre las observaciones 𝝁
 y en el caso de una muestra, o los signos
𝟎

más y menos de las diferencias entre los pares de observaciones en el caso de la


muestra pareada; aunque no toma en consideración la magnitud de tales diferencias Una
prueba que utiliza dirección y magnitud, propuesta en 1945 por Frank Wilcoxon,
se llama ahora comúnmente prueba de rango con signo de Wilcoxon.

El analista podría extraer más información de los datos en una forma no paramétrica,
si resulta razonable aplicar una restricción adicional a la distribución de la que se
toman los datos. La prueba de rango con signo de Wilcoxon se aplica en el caso de
una distribución continua simétrica. Bajo esta condición se prueba la hipótesis nula
𝝁
 =𝝁
 . Primero restamos 𝝁
𝟎

 de cada valor muestral y descartamos todas las


𝟎
diferencias iguales a cero. Se clasifican entonces las diferencias restantes sin importar
el signo. Se asigna un rango de 1 a la menor diferencia absoluta (es decir, sin signo),
un rango de 2 a la siguiente más pequeña, y así sucesivamente. Cuando el valor
absoluto de dos o más diferencias es el mismo, se asigna a cada uno el promedio de
los rangos que se asignarían si las diferencias fueran distinguibles. Por ejemplo, si las
diferencias quinta y sexta más pequeñas son iguales en valor absoluto, a cada una se
le asignaría un rango de 5.5. Si la hipótesis 𝝁
 =𝝁
 es verdadera, el total de los rangos
𝟎

que corresponden a las diferencias positivas debería ser casi igual al total de los rangos
que corresponden a las diferencias negativas. Representemos estos totales con
, respectivamente. Designamos el menor de 𝒘 y 𝐰 con w
𝒘 y 𝐰
+ − + −

La prueba de los rangos con signo de Wilcoxon es la alternativa no paramétrica al


método paramétrico de las muestras por pares (o apareadas) presentado en el capítulo
10. En la situación de las muestras por pares, cada unidad experimental genera dos
observaciones, una correspondiente a la población 1 y otra correspondiente a la
población 2. Las diferencias entre los pares de observaciones permiten apreciar la
diferencia entre las dos poblaciones.
Prueba de sumas de rangos con signo de Wilcoxon para la diferencia entre 2
medianas (2 poblaciones independientes).
Como indicamos antes, el procedimiento no paramétrico, por lo general, es una
alternativa adecuada para la prueba de la teoría normal cuando no es válida la
suposición de normalidad. Cuando interesa probar la igualdad de las medias de dos
distribuciones continuas que evidentemente no son normales, y las muestras son
independientes (es decir, no hay pareamiento de observaciones), la prueba de la suma
de rangos de Wilcoxon o prueba de dos muestras de Wilcoxon es una alternativa
apropiada a la prueba t de dos muestras, Probaremos la hipótesis nula H0 de que 𝝁

 =𝝁
 contra alguna alternativa adecuada.
𝟎

Primero seleccionamos una muestra aleatoria de cada una de las poblaciones. Sea n 1

el número de observaciones en la muestra más pequeña y n2 el número de

observaciones en la muestra más grande. Cuando las muestras son de igual tamaño,
ny n2 se pueden asignar de manera aleatoria. Hay que ordenar la n1 + n2

observaciones de las muestras combinadas en orden ascendente y sustituir un rango


de 1, 2,..., n1 + n2 para cada observación. En el caso de empates (observaciones

idénticas), reemplazamos las observaciones por la media de los rangos que tendrían
las observaciones si fueran distinguibles. Por ejemplo, si la séptima y octava
observaciones son idénticas, asignaríamos un rango de 7.5 a cada una de las dos
observaciones.
La suma de los rangos que corresponden a las 𝒏 observaciones en la muestra más
𝒊

pequeña se denota con 𝒘 . De manera similar, el valor 𝒘 representa la suma de los


𝟏 𝟐

𝒏 rangos que corresponden a la muestra más grande. El total 𝒘 +𝒘 depende sólo


𝟐 𝟏 𝟐

del número de observaciones en las dos muestras y de ninguna manera resulta afectado
por los resultados del experimento. De aquí, si 𝒏 =𝟑y𝒏 = 𝟒 , entonces 𝒘 +
𝟏 𝟐 𝟏

𝒘 = 𝟏+𝟐+⋯+𝟕 = 𝟐𝟖 , sin importar los valores numéricos de las observaciones.


𝟐

En general, la suma aritmética de los enteros 1, 2,..., 𝒏 +𝒏 . Una vez que se determina
𝟏 𝟐

w1, puede ser más fácil encontrar 𝒘 mediante la fórmula: Al elegir muestras repetidas de
𝟐

tamaños 𝒏 +𝒏 , esperaríamos que variaran 𝒘 y, por lo tanto, 𝒘 . Consideramos


𝟏 𝟐 𝟏 𝟐

entonces 𝒘 +𝒘 como valores de las variables aleatorias 𝑾 y 𝑾 , respectivamente.


𝟏 𝟐 𝟏 𝟐
La hipótesis nula 𝝁
 =𝝁
1

 se rechazará a favor de la alternativa 𝝁


𝟐

 <𝝁
1

 sólo si 𝒘 es pequeña y 𝒘 es grande. Asimismo, la alternativa 𝝁


𝟐 𝟏 2

 >𝝁
1

 se puede aceptar sólo si 𝒘 es grande y 𝒘 es pequeña. Para una prueba de dos colas,
𝟐 𝟏 𝟐

podemos rechazar 𝑯 a favor de 𝑯 si 𝒘 es pequeña y 𝒘 es


𝟎 𝟏 𝟏 𝟐

grande, o si es grande y 𝒘 es pequeña. En otras palabras, se acepta la alternativa.


𝒘
𝟏 𝟐

PRUEBAS DE ANDERSON

El estadístico de bondad de ajuste de Anderson-Darling -AD- mide el área entre la


línea ajustada -basada en la distribución normal- y la función de distribución
empírica -que se basa en los puntos de los datos-. El estadístico de Anderson-
Darling es una distancia elevada al cuadrado que tiene mayor ponderación en las
colas de la distribución (Jensen & Alexander, 2016).

Según Guisande & Barreiro (2006), el estadístico Anderson Darling puede ser
utilizado para comprobar si los datos satisfacen el supuesto de normalidad para
una prueba t. También se lo puede definir como aquel estadístico no paramétrico
que es utilizado para probar si un conjunto de datos muéstrales provienen de una
población con una distribución de probabilidad continua específica, por lo general,
de una distribución normal. Esta prueba se basa en la comparación de la función
de la distribución acumulada empírica de los resultados de la muestra con la
distribución esperada si los datos fueran normales. Al momento de obtener los
resultados, si la diferencia observada es suficientemente grande, la hipótesis nula
de normalidad de la población es rechazada.
El estadístico A2 mide el área entre la línea ajustada basada en la distribución
elegida y la función de paso no paramétrica, basado en los puntos de la gráfica. El
estadístico es una distancia elevada al cuadrado que tiene mayor ponderación en
las colas de la distribución, por lo tanto, un valor pequeño de Anderson-Darling
indica que la distribución se ajusta mejor a los datos (Minitab, 2020). El estadístico
de Anderson-Darling - A2- está dado por la ecuación 1.

Donde:

N: número de casos.

S: desviación estándar.

Expresado también según la ecuación 2, así

Donde:

n es el número de datos. observaciones ordenadas.

F(Yi) es la función de la distribución empírica

La prueba de Anderson-Darling se realiza en dos pasos: primero, se crean dos


distribuciones acumulativas, la primera es una distribución acumulativa de los
datos crudos y la segunda, es una distribución acumulativa normal y, segundo, se
comparan las dos distribuciones acumulativas para determinar la mayor diferencia
numérica absoluta entre ambas. De tal manera que, si la diferencia es amplia, se
rechaza la hipótesis nula, esto es, que los datos siguen una distribución normal
(Flores-Tapia & Flores-Cevallos, 2018).

El estadístico Anderson-Darling mide qué tan bien siguen los datos una
distribución específica, siendo que, para un conjunto de datos y distribución en
particular, mientras mejor se ajuste la distribución a los datos, menor será este
estadístico. También puede utilizar el estadístico de Anderson-Darling para
comparar el ajuste de varias distribuciones con el fin de determinar cuál es la
mejor. Sin embargo, para concluir que una distribución es la mejor, el estadístico
de Anderson-Darling debe ser sustancialmente menor que los demás. Cuando los
estadísticos están cercanos entre sí, se deben usar criterios adicionales, como las
gráficas de probabilidad, para elegir entre ellos

PRUEBAS DE SHAPPIRO
REFERENCIAS

Romero, M. (2016). Pruebas de bondad de ajuste a una distribución normal. Revista Enfermería
Del Trabajo, 6(3), 105–114. https://dialnet.unirioja.es/servlet/articulo?codigo=5633043
Servicartón Cía. Ltda. (2020). Servicartón. http://servicarton.com.ec/ Steinskog, D., Tjøstheim, D.,
& Gunnar, N. (2007). A cautionary note on the use of the Kolmogorov– Smirnov test for normality.

Monthly Weather Review, 135(3), 1151–1157. https://www.researchgate.net/

publication/249621733_A_Cautionary
_Note_on_the_Use_of_the_KolmogorovSmirnov_Test_for_
Normality

CONCLUSION

También podría gustarte