Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Supuestos y
Transformación de Datos
Prueba de Hipótesis
Con ayuda del software R obtenemos la probabilidad (P) para tomar la decisión por
alguna de las hipótesis. Con la P decidimos si la hipótesis nula es verdadera o
rechazada. Es decir si la P es mayor o igual a 0.05 (), entonces existe una alta
probabilidad de que la hipótesis nula se acepte, lo que indicaría que no existen
diferencias significativas. Por otro lado, si P es menor a 0.05 (), existe una baja
probabilidad de aceptar la hipótesis nula, por lo que se acepta la hipótesis alterna de
que existen diferencias significativas. A esta diferencia se le conoce como diferencias
estadísticamente significativa.
Supuestos: Distribución Normal y Homocedásticidad
Las pruebas que se verán en este libro las podemos dividir en dos tipos. La primera,
pruebas paramétricas, son las que se basan en datos distribuidos normalmente. La
segunda, pruebas no paramétricas, en estas los datos no presentan distribución
normal; también llamada pruebas de libre distribución, puesto que no está sujeta a
ninguna distribución de probabilidades específica a diferencia de la paramétrica.
H0: los datos muestrales presentan una distribución normal y por lo tanto
provienen de una población con la misma distribución.
H1: los datos muestrales presentan una distribución no normal y por lo tanto
provienen de una población con una distribución no normal.
Las pruebas Kolmogorov-Smirnov, Lilliefors y Anderson–Darling también las
podemos encontrar en programa R. La prueba Kolmogorov-Smirnov (ks.test) no
se encuentra en algún paquete, a lo que llamamos un comando libre. Mientras
que, para poder utilizar las pruebas Lilliefors (lillie.test) y Anderson–Darling
(ad.test) requerimos del paquete (librería) nortest. Para poder utilizar
correctamente la prueba de Kolmogorov-Smirnov en R es necesario incluir la
media y la desviación estándar mediante los comandos mean y sd. Todas las
pruebas de normalidad determinaron que los datos muestrales provienen de una
distribución normal.
Con la siguiente base de datos, realizar las pruebas de Shapiro-Wilk,
Kolmogorov-Smirnov, Lilliefors y Anderson–Darling,
Número Número de insectos
de Planta
1 182
2 232
3 191
4 200
5 148
6 249
7 276
8 213
9 241
10 210
11 262
shapiro.test(Numero.de.insectos) > library(nortest)
> lillie.test(Numero.de.insectos)
Lilliefors (Kolmogorov-Smirnov)
ks.test(Numero.de.insectos,pnorm, normality test
mean(Numero.de.insectos), sd(Numero.de.insectos)) data: insectos
One-sample Kolmogorov-Smirnov test D = 0.10371, p-value = 0.9848
data: insectos
D = 0.10371, p-value = 0.9987
alternative hypothesis: two-sided
Homogeneidad de varianza
En el método formal se utilizan pruebas estadísticas para examinar si las muestras
presentan varianzas constantes. Estas pruebas manejan hipótesis nula y alterna. La
hipótesis nula sería𝐻 0 : 𝜎 21=𝜎 22=…=𝜎 2𝑘y 𝐻 𝐴 :no todas las varianzas poblacionales son
iguales.
Cuando los porcentaje en los datos originales caen entre 30% y 70%,
generalmente no es necesario la aplicación de la transformación arcoseno
(Sokal and Rohlf, 2009).
y-1/ si ≠ 0
y()=
log(y) si = 0
Draper and Smith (1966) estudiaron que no todas las distribuciones pueden
ser transformadas a una normal mediante el método de potencias.
En la cual los datos son calculados en una potencia de λ 1 después de cambiarlo a una
cierta cantidad λ2. Posteriormente, el parámetro de cambio λ2 se fija igual a 0. Esta clase
incluyen raíces cuadradas, logaritmos, recíprocos, y otras transformaciones comunes, que
dependen sobre una potencia. Los ejemplos incluyen:
λ1 = 2 Y′=Y2 Cuadrado
Datos sin
λ1 = 1 Y′=Y 1
Transformar
λ1 = 0 Y′=ln(Y) Logaritmo
1 Raíz Cuadrada
λ1 = -0.5 Y′= 2 Inversa
Y
λ1 = -1 Y′=1/Y Reciproco
> shapiro.test(model$residuals)
Shapiro-Wilk normality test
data: model$residuals
W = 0.92776, p-value = 0.02142
model2<-
lm(log(Y+1)~Trat,data=datos3.2)
shapiro.test(model2$residuals)
Shapiro-Wilk normality
test
data: model2$residuals
W = 0.9822, p-value =
0.8168