Está en la página 1de 4

Catedra: Métodos Estadísticos Intermedios.

2017-1
Elaborado por: Ing. Dhoryvel Cabrera
Repositorio 2: Pruebas del supuesto de normalidad.

Previo a la realización de un análisis de varianza (ANAVAR) es necesario verificar si la


variable respuesta tiene un comportamiento paramétrico; ya que en caso contrario se deben
aplicar otros métodos estadísticos que se ajusten mejor a la demostración de las hipótesis
objetos de estudios. Estas pruebas están basadas en el hecho que el ANAVAR debe cumplir
con cuatro supuestos básicos: Normalidad, Homogeneidad de la varianza, Independencia y
Aditividad.
La verificación del supuesto de normalidad es una prueba de hipótesis de una muestra que
permite determinar si la población de la cual se extrajo su muestra no es normal. La
hipótesis nula (H0) para una prueba de normalidad establece que la población es norma,
mientras que la alternativa (H1) establece que la población no es normal. Esta verificación
se puede realizar a través de un estudio gráfico y/o analítico.

Método gráfico
La normalidad de una población se puede evaluar con una gráfica de probabilidad normal,
la cual genera de manera gráfica valores de datos ordenados en comparación con valores
que se esperan sean cercanos a los primeros, si la población de la muestra está normalmente
distribuida. Si la población es normal, los puntos de la gráfica conformaran una línea
aproximadamente recta.

a) b)
Gráficas de distribución de probabilidad de a) datos normales y b) datos no normales.
Fuente: ayuda de Minitab® V.17.

Métodos analíticos
Entre las pruebas para verificar el supuesto de normalidad se tienen:
1. Prueba de Kolmogorov-Smirnov
Se basa en la función de distribución empírica definida por: dado n datos ordenados
menor a mayor x1, x2, x3,…, xn, la fda empírica es Sn(xi) = i/n donde i es el número de
punto menores de xi. Esta es una función escalonada que aumenta en 1/n en el valor de
cada dato ordenado.
Hipótesis:
H0: Los datos siguen una distribución especificada con parámetros dados.
H1: Los datos no siguen una distribución especificada.

Estadístico de prueba:
i 1 i
D  máx F0 x i   ;  F0 x i 
n n
donde F es la función acumulada FDA teórica o FDA bajo H0, que debe ser una
distribución continua completamente especificada.

Regla de decisión:
Se rechaza la H0 si D > Dn; 1-α, donde 1- α es el valor del fractil de la distribución D y
se obtiene de una tabla [P(Dn>D)= α].
La distribución del estadístico de Kolmogorov-Smirnov es independiente de la
distribución poblacional especificada en la hipótesis nula y los valores críticos de este
estadístico están tabulados. Si la distribución postulada es la normal y se estiman sus
parámetros, los valores críticos se obtienen aplicando la corrección de significación
propuesta por Lilliefors.
Entre sus limitaciones se tiene que sólo aplica a distribuciones continuas, es más
sensible cerca del centro de la distribución que hacia las colas y, por último, la
distribución debe estar completamente especificada (parámetros conocidos).

2. Prueba de Lillierfors (1967):


Es igual a la prueba de Kolmogorov-Smirnov con las mismas condiciones pero con
parámetros dados. El valor de D se localiza en una tabla diferente.
Las hipótesis son:
H0: los datos pueden modelarse por una distribución normal con media y varianza
(estimadas por la media y varianza muestral).
H1: los datos no pueden modelarse por una distribución normal.

3. Prueba de Anderson- Darling(1952):


Esta prueba es uno de los estadísticos más poderosos para detectar desviaciones de la
normalidad, aunque la prueba puede usarse para probar si una muestra de datos
proviene de una distribución específica.
Es válida con muestras pequeñas n < 25. Da más peso a las colas que las pruebas de
Kolmogorov-Smirnov.
Hace uso de una distribución específica al calcular los valores críticos, esto tiene la
ventaja de permitir una prueba más sensible y la desventaja de que los valores críticos
deben ser calculados para cada distribución.
Hipótesis:
H0: Los datos siguen una distribución especificada con parámetros dados.
H1: Los datos no siguen una distribución especificada.

Estadístico de prueba

A 2  n  s donde s  
2i - 1
ln Fx i  ln x n 1i 
n
F es la distribución acumulada de distribución especificada.
Xi son los datos ordenados de menor a mayor.

Valores tabulados del estadístico AD


Para Normal y Log-normal
α 0,1 0,05 0,025 0,01
2
A 0,631 0,752 0,873 1,035
Para Weibull
α 0,1 0,05 0,025 0,01
2
A 0,637 0,757 0,877 1,038

Regla de decisión:
Se rechaza H0 si el estadístico A2 es mayor que el valor crítico:
A2 calculado > A2 tabulado.
Para muestras pequeñas se aplican las siguientes ecuaciones:
 0,75 2,25 
Para Normal y Log-normal A 2m  A 2 1   2 
 n n 
 0,2 
Para Weibull A 2m  A 2 1  
 n

4. Prueba de Shapiro-Wilk
Es adecuado para muestras pequeñas con un número máximo de muestras igual a 50. Es
la prueba más confiable de no normalidad para muestras pequeñas y medianas, pero es
importante no asumir que el resultado es clara evidencia de normalidad o no
normalidad, es solo evidencia que puede ser útil.
Se calcula un estadístico W que contrasta si una muestra aleatoria viene
específicamente de una distribución normal.
Valores pequeños de W son evidencia de las desviaciones de la normalidad y los puntos
porcentuales para el estadístico W son conocidos.

Hipótesis
H0: Los datos siguen una distribución normal con parámetros dados o estimados.
H1: Los datos no siguen una distribución normal.
Estadístico de prueba

donde b   a 1,n X n i 1  X i  


b2 k
W
(n  1)Sc2 i 1
2
S es la varianza
K es el valor entero de n/2
Xi son los valores ordenados de la muestra
Ai,n son los coeficientes tabulados.

Regla de decisión:
Se rechaza la H0 si W < Wn,α donde Wn,α se obtiene de la tabla S-W y depende de n y α.

Muchos de los métodos estadísticos asumen una distribución subyacente en la derivación


de sus resultados. Sin embargo, cuando se asume que los datos siguen una distribución
específica, se está tomando un serio riesgo. Si el supuesto está equivocado, entonces los
resultados obtenidos pueden ser inválidos y las consecuencias pueden ser muy costosas.
De ahí la importancia de verificar la normalidad de la distribución de la población, con una
prueba adecuada a la situación objeto en estudio; para de esta forma obtener resultados
confiables.

También podría gustarte