Está en la página 1de 14

El término bondad de ajuste se refiere a una prueba estadística que determina

qué tan bien se ajustan los datos de una muestra a una distribución de una
población con una distribución normal. La bondad de ajuste establece la
discrepancia entre los valores observados y los esperados del modelo en un caso
de distribución normal. Existen múltiples métodos para determinar la bondad de
ajuste

Prueba de independencia
También conocida como prueba chi cuadrado, es un método de estadística
inferencial que prueba la validez de una afirmación hecha sobre una población
basada en una muestra aleatoria y fue desarrollada en el año 1900 por Karl
Pearson.
(𝐎–𝐄)𝟐
Su estadístico de prueba es: Σ(i⋅j)
𝑬

donde:

• O = valores observados
• E = valores esperados
• i = el número de filas de la tabla
• j = el número de columnas de la tabla

Es utilizada exclusivamente para datos separados en clases y requiere un tamaño


de muestra suficiente para producir resultados precisos. Pero no indica el tipo o la
intensidad de la relación. Por ejemplo, no concluye si la relación es positiva o
negativa.

Para calcular la bondad de ajuste de chi-cuadrado, establezca el nivel de


significación alfa deseado. Entonces, si su nivel de confianza es del 95 % (o
0,95), entonces el alfa es 0,05. Luego, identifique las variables categóricas para
probar, luego defina declaraciones de hipótesis sobre las relaciones entre ellas.

Ejemplo:

Supongamos que A = una infracción por exceso de velocidad en el último año


y B = un usuario de teléfono móvil mientras conduce. Si A y B son independientes,
entonces P(A ∩ B) = P(A)P(B). A ∩ B es el caso de que un conductor recibiera una
infracción por exceso de velocidad el año pasado y también utilizara un teléfono
móvil mientras conducía. Supongamos que se encuestaron 755 personas en un
estudio sobre conductores que recibieron infracciones por exceso de velocidad
durante el año pasado que usaron el teléfono móvil mientras conducían. De los
755, 70 tenían una infracción por exceso de velocidad y 685 no; 305 usaba el
teléfono móvil mientras conducían y 450 no.
Supongamos que y = número esperado de conductores que usaron un teléfono
móvil mientras conducían y recibieron infracciones por exceso de velocidad.
Si A y B son independientes, entonces P(A ∩ B) = P(A)P(B). Por sustitución,
(70/755) (305/755)= 28.3

La prueba de independencia es siempre de cola derecha debido al cálculo del


estadístico de prueba. Si los valores esperados y observados no están cerca,
entonces el estadístico de prueba es muy grande y se encuentra en la cola
derecha de la curva de chi-cuadrado, al igual que en una bondad de ajuste.
El número de grados de libertad para la prueba de independencia es:
df = (número de columnas – 1)(número de filas – 1)
La siguiente fórmula calcula el número esperado (E):
Fauquet J, Salafranca L. Pruebas no paramétricas y de libre distribución. En: Peró
Cebollero M, Leiva Ureña D, Guardia Olmos J, Solanas Pérez A, eds. Estadística
aplicada a las ciencias sociales mediante R y R-Commander.
https://anestesiar.org/2021/paso-a-paso-prueba-de-la-ji-cuadrado-para-
independencia/
Prueba de homogeneidad
La prueba de bondad de ajuste se puede usar para decidir si una población se ajusta
a una distribución determinada, pero no bastará para decidir si dos poblaciones
siguen la misma distribución desconocida. La prueba de homogeneidad se puede
usar para sacar una conclusión sobre si dos poblaciones tienen la misma
distribución, para calcular el estadístico de prueba de homogeneidad se sigue el
mismo procedimiento que con la prueba de independencia.
Esta prueba se puede utilizar para comparar 2 poblaciones, por ejemplo: hombres
vs mujeres. La variable es categórica, con más de dos valores de respuestas
posibles.
Hipótesis
H0: Las distribuciones de las dos poblaciones son iguales.

Ha: Las distribuciones de las dos poblaciones no son iguales.

Estadístico de prueba: Se usa χ 2 estadístico de prueba. Se calcula de la misma


manera que la prueba de independencia.
Ejemplo:
¿Los estudiantes de institutos universitarios hombres y mujeres tienen la misma
distribución en cuanto a viviendas? Utilice un nivel de significación de 0,05.
Supongamos que se les pregunta a 250 estudiantes universitarios y a 300
estudiantes universitarias seleccionados al azar por su tipo de vivienda: residencia
universitaria, apartamento, con los padres, otra. Los resultados se muestran en la
tabla. ¿Los estudiantes de institutos universitarios hombres y mujeres tienen la
misma distribución en cuanto a viviendas?

Apartamentos dormitorio Con los Otra


padres
Hombres 72 84 49 45
Mujeres 91 86 88 35

H0: La distribución de la vivienda de los estudiantes universitarios es igual que la


de las estudiantes universitarias.

Ha: La distribución de la vivienda de los estudiantes universitarios no es igual que


la de las estudiantes universitarias.
χ2 = 10,1287 (calculadora)
28 ene 2022 OpenStax, Introducción a la estadística:
https://openstax.org/books/introducci%C3%B3n-estad%C3%ADstica/pages/11-4-
prueba-de-
homogeneidad#:~:text=Una%20prueba%20diferente%2C%20llamada%20prueba,
con%20la%20prueba%20de%20independencia.

Prueba de varias proporciones


Se utiliza el estadístico chi cuadrada para probar que K parámetros tienen el
mismo valor (binomiales). Dado que es una prueba para determinar diferencia
entre k proporciones, nos interesamos en probar la hipótesis nula: H0: P1=
P2…PK contra hipótesis alterna de que las proporciones de la población no son
todas iguales.
Para ejecutar esta prueba primero se observan muestras aleatorias de diferentes
tamaños y se acomodan los datos en una tabla de contingencia
de 2 x k. Si los tamaños de las muestras aleatorias se predeterminaron u
ocurrieron al azar, el procedimiento de prueba es idéntico a la prueba de
homogeneidad o la prueba de independencia.

(𝒐𝒊 −𝒆𝒊 )𝟐
Estadístico ji cuadrada: 𝒙𝟐 = ∑
𝒆𝒊

Se rechaza la hipótesis nula si 𝑥 2 > 𝑥 2


Ejemplo de aplicación:
En un estudio de un taller, se reúne un conjunto de datos para determinar si la
proporción de defectuosos producida por los trabajadores es la misma para el
turno matutino, vespertino o nocturno. Se reunieron los datos siguientes:
Turno Matutino Vespertino Nocturno Total
Defectuosos 45 55 70 170
No 905 890 870 2665
defectuosos
Total 950 945 940 2835

Nivel de significancia del 0.05


Para resolver se plantean nuestras hipótesis seguido de las frecuencias de celdas
para después obtener el estadístico de prueba chi cuadrada.
SUÁREZ, Mario, (2012),
Interaprendizaje de Probabilidades y Estadística
Inferencial con Excel, Winstats y Graph, Primera Edición.
Imprenta M & V, Ibarra. Recuperado de:
https://www.monografias.com/trabajos91/prueba-hipotesis-proporciones-z-y-ji-
cuadrado-empleando-excel-y-winstats/prueba-hipotesis-proporciones-z-y-ji-
cuadrado-empleando-excel-y-winstats

Prueba de rangos con signos


La prueba de los rangos con signos de Wilcoxon es una prueba no paramétrica y
sirve para comparar el rango medio de dos muestras relacionadas y determinar si
existen diferencias entre ellas. Se utiliza como alternativa a la prueba t de
Student cuando no se puede suponer la normalidad de dichas muestras. Su
creador también es Frank Wilcoxon y la publicó en 1945. No necesita una
distribución especifica por que es una prueba de comparación de dos muestras.
El estadístico de prueba W:
W=min(W+,W−)

• W+W+ = suma de los rangos con signo positivo


• W−W− = suma de los rangos con signo negativo

Una vez ha obtenido el valor del estadístico W, se puede calcular cuál es la


probabilidad de que adquiera valores iguales o más extremos que el observado.
• Si el tamaño n < 25, se compara el valor obtenido de W con los valores de
una tabla Wilcoxon. Si W cae dentro del intervalo correspondiente en la
tabla para ese n, la diferencia NO es significativa.
• Si n > 25 se puede asumir que W se distribuye de forma aproximadamente
Normal, rechazando H0H0 si Z calculado es menor que el valor de Z para
el αα (esta es la que utiliza la función de R).

Hipótesis:

H0: No hay diferencias entre las observaciones pareadas

H1: Sí hay diferencias entre las observaciones pareadas

Ejemplo: Se desea estudiar la efectividad de cierta dieta y para ello se toma una
muestra aleatoria de 12 mujeres adultas en el grupo de edad de 35-40 años. Se
toma el peso (peso en libras) antes de iniciar la prueba y al mes de encontrarse
realizando la dieta. Los resultados se muestran a continuación:
Paciente Peso antes Peso después
1 186 175
2 147 148
3 128 125
4 176 178
5 212 203
6 158 158
7 204 197
8 157 160
9 189 181
10 149 151
11 191 187

Respuesta:

Hipótesis: H0: No hay diferencias entre el peso de las mujeres antes de iniciar la
dieta y el peso un mes después.

H1: El peso al mes de realizar la dieta es inferior al peso inicial.

Prueba de los rangos con signo de Wilcoxon, Joaquín Amat Rodrigo, 4.0
International (CC BY 4.0)
https://www.cienciadedatos.net/documentos/18_prueba_de_los_rangos_con_sig
no_de_wilcoxon
Prueba de suma de rangos
Esta prueba se emplea en dos muestras independientes. Es análoga a la
prueba paramétrica t para dos muestras independientes. La variable debe de
estar en escala cuantitativa o al menos en escala ordinal. Esta prueba es más
potente que la de la Median ya que utiliza la información relativa a la
ubicación de cada observación en las muestras. Se usa para comparar el
rango medio de dos muestras relacionadas y determinar si existen
diferencias entre ellas y consiste en sumar los rangos de signo frecuente y
por ello no se tiene ecuación o formula como en las otras pruebas.
Hipótesis:
H0: Med A = Med B (La hipótesis nula equivale a decir que las dos
poblaciones difieren con respecto a su tendencia central)
H1: MedA ≠ MedB (donde A y B designan las dos muestras)
H0: MedB ≥ MedA
H1: MeB < MedA
H0: MedB ≤ MedA
H1: MedB > MedA
Prueba de Wilcoxon
Esta prueba fue desarrollada por Frank Wilcoxon, quien se interesó en la
estadística por el libro Statistical Methods for Research Workers y en 1945 se
dedicó a estudiar y crear esta prueba y su enunciado fue mejorado por Henry B.
Mann y D. R. Whitney en 1947, con la denominación de prueba para observar una
de dos variables aleatorias siendo una más grande que la otra; también
proporciona información de un conjunto de datos al compararlo con otro.
Es conocida como la prueba de suma de rangos y generalmente se usa para
comparar las medianas de dos conjuntos independientes.
La lógica de la prueba de los rangos con signo de Wilcoxon es similar a la de la
prueba de t pareada. Si no hay diferencia en el antes y despues, por ejemplo,
las diferencias entre las observaciones deberían tender a cero.
Ejemplo:
Se desea probar si hay diferencias en el nivel de estrés laboral de los trabajadores
de una empresa antes y después de la implementación de un programa de
mejoramiento del ambiente laboral; el nivel de estrés se midió en una escala de
nada, bajo, medio, alto y muy alto.
Decisiones para seleccionar la prueba de Wilcoxon
• Es un problema de Comparación
• VI: programa de mejoramiento del ambiente laboral 2 grupos relacionados
(estrés antes y después del programa)
• VD: nivel de estrés laboral Nivel de medición de la variable dependiente: ordinal
• Ho: No hay diferencias en el nivel de estrés laboral de los trabajadores antes y
después de implementar el programa de mejoramiento del ambiente laboral (Md1
= Md2)
• Prueba estadística: Prueba de Wilcoxon
• Regla de decisión: Si p ≤ 0.05 se rechaza Ho

Wilcoxon F. Some rapid approximate statistical procedures. Annals of the New


York Academy of Sciences. 1950;52:808-14
chrome-
extension://efaidnbmnnnibpcajpcglclefindmkaj/https://biblat.unam.mx/hevila/Revist
amexicanadeendocrinologiametabolismo&nutricion/2015/vol2/no1/3.pdf
Prueba de Kruskal-Wallis
La prueba de Kruskal Wallis toma su nombre de William Kruskal y W. Allen Wallis
y se utiliza en la estadística para corroborar si un conjunto de datos proviene o no
de la misma población.

Se basa en el rango que puede utilizarse para corroborar si existen diferencias


relevantes a nivel estadístico entre dos o más grupos de una variable
independiente en una variable dependiente ordinal o continua.

La prueba determina si las medianas de dos o más grupos son diferentes. De esta
forma, calcula un estadístico de prueba y lo compara con un punto de corte de la
distribución.

El estadístico de prueba utilizado se denomina estadístico H. Las hipótesis de la


prueba son:

• H0: las medianas de la población son iguales.


• H1: las medianas de la población no son iguales.
Se puede utilizar con tamaños de muestras más pequeñas, a gran numero de
situaciones y tiene alto nivel de confianza asintótica a comparación de las pruebas
paramétricas clásicas.
Pasos para realizar esta prueba:
- Paso 1: Ordena los datos de todos los grupos o muestras en orden
ascendente en un conjunto combinado.
- Paso 2: Asigna rangos a los puntos de datos ordenados. Asigna a los
valores empatados el rango medio.
- Paso 3: Suma los diferentes rangos de cada grupo/muestra.
- Paso 4: Calcula el estadístico H
- Paso 5: Encuentra el valor crítico de chi-cuadrado, con c-1 grados de
libertad. Para 3 – 1 grados de libertad y un nivel de alfa de 0,05, el valor
crítico de chi cuadrado es 5,9915.
- Paso 6: Compara el valor H del Paso 4 con el valor crítico de chi-cuadrado
del Paso 5.
Prueba de Anderson- Darling.

La prueba de Anderson Darling es una variación de la prueba Kolmogórov-


Smirnov, pero da más peso a las colas de la distribución. Esta prueba es más
sensible a las variaciones observadas en las colas, a comparación de la prueba
de Kolmogórov. Mide el área entre la línea ajustada y la función de distribución
empírica que se basa en los puntos de los datos. Se usa principalmente para
comprobar si los datos satisfacen el supuesto de normalidad para una prueba t.
Esta prueba se basa en la comparación de la función de la distribución
acumulada empírica de los resultados de la muestra con la distribución esperada
si los datos fueran normales.

Este estadístico está dado por la función: 𝐴2 = −𝑁 − 𝑠 y también por la ecuación:


𝑛
(2𝑖−1)
𝐴2𝑛 = − ∑ 𝐸 𝑙𝑛 𝐹(𝑦𝑖 ) + 𝑙𝑛(1 − 𝐹(𝛾 + 1))
𝑖=1 𝑛

Y se realiza en 2 pasos:

-En el primero se crean dos distribuciones acumulativas, la primera es una


distribución acumulativa de los datos crudos y la segunda es una distribución
acumulativa normal.

-En el paso dos se comparan las dos distribuciones acumulativas para determinar
la mayor diferencia numérica absoluta entre ambas. De tal manera que, si la
diferencia es amplia, se rechaza la hipótesis nula y esto es, que los datos siguen
una distribución normal.

También se puede utilizar esta prueba para comparar el ajuste de varias


distribuciones con el fin de determinar cuál es la mejor.

Las hipótesis para la prueba de Anderson-Darling son:

• H0: Los datos siguen una distribución especificada.


• H1: Los datos no siguen una distribución especificada.
Prueba de Kolmogórov-Smirnov

Nombrada en honor a los matemáticos rusos Andrey Kolmogorov y Nikolái


Smirnov, la prueba de Kolmogórov-Smirnov es un método estadístico que
determina si una muestra proviene de una distribución específica dentro de una
población. Esta prueba se recomienda para muestras grandes y no
depende de ninguna distribución para ser válido. El objetivo es probar la
hipótesis nula, que es la muestra de la distribución normal y también
para contrastar la hipótesis de normalidad de la población.
1
Se usa la ecuación: 𝐹𝑛 (𝑥) = 𝛴𝑖𝑛 = 1
𝑛

Para 2 colas: 𝐷𝑛 = 𝑚𝑎𝑥(𝐹𝑛 (𝑥) − 𝐹(𝑥))

Como prueba de bondad de ajuste, responde a la pregunta de: “¿la distribución


muestral (empírica) se ajusta a la poblacional (teórica)?”. En este caso, la
hipótesis nula (H0) establecerá que la distribución empírica es similar a la
teórica (la hipótesis nula es la que no se intenta rechazar). En otras palabras, la
hipótesis nula establecerá que la distribución de frecuencias observada es
consistente con la distribución teórica (y que se da por lo tanto un buen ajuste).

El resultado de la prueba de Kolmogórov-Smirnov se representa mediante la letra


Z. La Z se calcula a partir de la diferencia mayor (en valor absoluto) entre las
funciones de distribución acumuladas teórica y observada (empírica).

La prueba de Kolmogorov-Smirnov se puede aplicar sobre una muestra para


comprobar si una variable (por ejemplo, las notas académicas o los ingresos €) se
distribuyen normalmente

• García Bellido, R.; González Such, J. y Jornet Meliá, J.M. (2010). SPSS:
Pruebas No Paramétricas. InnovaMIDE, Grupo de Innovación
Educativa, Universitat de València.

https://psicologiaymente.com/miscelanea/prueba-kolmogorov-smirnov
Prueba de Ryan- Joiner

Esta prueba es usada para probar si una muestra viene de una


distribución específica, se puede hacer una prueba de normalidad y
producir un argumento de probabilidad normal en el mismo análisis y
estos son por lo general los mejores instrumentos para juzgar la
normalidad sobre todo para muestras pequeñas. También se usa para
medir que tan bien se ajustan los datos a una distribución normal,
calculando la correlación entre los datos y las puntuaciones normales
de los datos. Una vez que el coeficiente de correlación se acerca a 1,
los datos se encuentran dentro dela grafica de probabilidad normal, en
caso contrario, cuando el valor critico adecuado es menor, se rechaza
la hipótesis nula de normalidad.

Esta prueba resulta adecuada para muestras superiores a 30


observaciones y el coeficiente de correlación se calcula de acuerdo
con la ecuación:

∑(𝑌𝑖 − 𝑦̂)𝑏𝑖
𝑅𝑃 =
√𝑠 2 (𝑛 − 1)𝛴𝑏2 𝒊

Para definir la regla de rechazo es necesario también obtener el


estadístico ajustado para luego compararlo con los valores críticos
con la tabla de Anderson- Darling.
Prueba de Shapiro- Wilks

Sus autores son Samuel Shapiro y Martin B Wilk y fue publicada en 1965.

Es una forma de saber si una muestra aleatoria proviene de una distribución


normal, la prueba de da un valor W, los valores pequeños indican que su muestra
no tiene distribución normal. La lógica de la prueba se basa en las desviaciones
que presentan las estadísticas de orden de la muestra respecto a los valores
esperados de los estadísticos de orden de la normal estándar.

Se aplica cuando se analizan muestras compuestas por menos de 50 elementos


(muestras pequeñas).

𝒃𝟐
Estadístico de prueba: 𝒘𝒄 = 𝒔𝟐
Pasos a seguir:
1. Ordenar las observaciones obtenidas en la muestra aleatoria de manera creciente

𝒚𝟏 < 𝒚𝟐 … < 𝒚𝒊 ⋯ < 𝒚𝒏


2. Calcular
𝒏 𝒏

𝒔𝟐 = ∑(𝒚𝒊 − 𝒚
̅)𝟐 = ∑(𝒙𝒊 − 𝒙
̅ )𝟐
𝒊=𝟏 𝒊=𝟏

3. Calcular b
a) Si n es par, n= 2k
b) Si n es impar, n= 2k+1
𝒃𝟐
4. Se calcula 𝒘𝒄 = 𝒔𝟐
5. 1, 2, 5, 10, 50, 95,98 y 99% puntos de la distribución de W, son dados en la
tabla final. Valores más pequeños de W son significantes, no indican
normalidad.
Ejemplo de aplicación:
Para cierto test se requiere que los residuos presenten una distribución normal.
A continuación, se presenta el test de normalidad (n=10)
Residuos 0.93 1.20 1.10 1.26 1.38 1.24 1.32 1.14 1.24 1.18

H0= Los residuos tienen una distribución normal


H1= Los residuos no tienen una distribución normal
Paso 1: se ordenan los datos de forma ascendente
𝒏
Paso 2: se calcula 𝒔𝟐 = ∑ (𝒚 ̅)𝟐 = 𝟎. 𝟏𝟒
−𝒚
𝒊=𝟏 𝒊

Paso 3: Calcular b

𝑏 = ∑5𝑖=1 𝑎10 − ⅈ(y-i+1-yi) = 0.36


0.13
Paso 4: Por lo tanto 𝑤𝑐 = 0.14 = 0.94

Regla de decisión: se rechaza la hipótesis nula si


𝑤𝑐 < 𝑤𝑟
Conclusión: en todos los casos no se rechaza la hipótesis nula, es decir, los
datos muestrales siguen una distribución normal.

Butler, Christopher. 1985. Statistics in Linguistics. 2018. Bookdown:


Authoring Books and Technical Documents with Markdown. Recuperado
de https://bookdown.org/dietrichson/metodos-cuantitativos/test-de-
normalidad.html

También podría gustarte