Está en la página 1de 16

1.

Diseños completamente al azar (DCA)

1.1. características
Los diseños completamente al azar son empleados cuando las unidades experimentales son
suficientemente homogéneas entre sí, es decir, cuando la variación entre ellas es pequeña.
Por lo que el empleo de bloques resulta inapropiado porque no hay heterogeneidad que
sea necesario absorber. Éste en el caso de muchos tipos de experimentos de laboratorio,
en los que una cantidad de material está completamente mezclado y luego se divide en
porciones pequeñas para formar las unidades experimentales, o en experimentos con
animales y plantas con condiciones ambientales muy parecidas. Todas las unidades
experimentales reúnen prácticamente las mismas características, de modo que el efecto de
un tratamiento sobre la variable bajo estudio, es el mismo independientemente de la
unidad experimental donde se mida, excepto por variaciones aleatorias, debidas a fuentes
del error en la investigación.
Los tratamientos se aplican completamente al azar sobre las unidades experimentales, bajo
la condición de que cada unidad experimental deberá tener la misma probabilidad de
recibir un tratamiento particular. Todos los tratamientos pueden tener un número igual o
diferente de repeticiones. Cuando el número de repeticiones es diferente dentro de cada
tratamiento se dice entonces que el diseño es no balanceado; en caso contrario, se dice
que el diseño es balanceado.
Hay dos ventajas al elegir un diseño balanceado. La primera es que el estimador de prueba
es relativamente insensible a las desviaciones pequeñas del supuesto de la igualdad de
varianzas de los t tratamientos cuando los tamaños de las muestras son iguales. Y la
segunda ventaja es que la potencia de las pruebas se maximiza cuándo las muestras tienen
el mismo tamaño.
1.2. Ventajas
El diseño completamente al azar es flexible en cuanto a que el número de tratamientos y
de repeticiones solo está limitado por el número de unidades experimentales disponibles.
El número de repeticiones puede variar de un tratamiento a otro, aunque generalmente lo
ideal sería tener un número igual por tratamiento. La sencillez del análisis no se pierde si
algunas unidades experimentales o tratamientos enteros faltan o se descartan
1.3. Desventajas
La principal objeción del diseño completamente al azar es su frecuente y eficiencia. Como
la aleatorización no tiene recepciones, el error experimental incluye toda la variación entre
las unidades experimentales, excepto la debida a los tratamientos. En muchas situaciones
es posible agrupar a las unidades experimentales de modo que la variación entre las
unidades dentro de los grupos sea menor que la variación entre las unidades de diferentes
grupos. ciertos diseños sacan ventaja de tal agrupamiento, excluyen la variación del error
experimental entre grupos y aumentan la precisión del experimento.
1.4. Modelo lineal
El modelo lineal para los diseños completamente al azar es el siguiente:

𝑌𝑖𝑗 = 𝜇 + 𝑟𝑖 + 𝑒𝑖𝑗
Donde
ⅈ = 1,2, … , 𝑡
𝑗 = 1,2, … , 𝑟𝑖
𝐸(𝑒𝑖) = 0
E(e2) = σ2
i

𝑡 = 𝑁ú𝑚𝑒𝑟𝑜 𝑑𝑒 𝑡𝑟𝑎𝑡𝑎𝑚ⅈ𝑒𝑛𝑡𝑜𝑠
𝑟𝑖 = 𝑁ú𝑚𝑒𝑟𝑜 𝑑𝑒 𝑟𝑒𝑝𝑒𝑡ⅈ𝑐ⅈ𝑜𝑛𝑒𝑠 𝑝𝑎𝑟𝑎 ⅈ − é𝑠ⅈ𝑚𝑜 𝑡𝑟𝑎𝑡𝑎𝑚ⅈ𝑒𝑛𝑡𝑜.
𝑌𝑖𝑗 = 𝑅𝑒𝑠𝑝𝑢𝑒𝑠𝑡𝑎 𝑜𝑏𝑡𝑒𝑛ⅈ𝑑𝑎 𝑒𝑛 𝑙𝑎 𝑗 − é𝑠ⅈ𝑚𝑎 𝑟𝑒𝑝𝑒𝑡ⅈ𝑐ⅈó𝑛 𝑑𝑒𝑙 ⅈ − é𝑠ⅈ𝑚𝑜 𝑡𝑟𝑎𝑡𝑎𝑚ⅈ𝑒𝑛𝑡𝑜.
𝜇 = 𝐸𝑓𝑒𝑐𝑡𝑜 𝑚𝑒𝑑ⅈ𝑜 𝑔𝑒𝑛𝑒𝑟𝑎𝑙
𝑟𝑖 = 𝐸𝑓𝑒𝑐𝑡𝑜 𝑎𝑡𝑟ⅈ𝑏𝑢ⅈ𝑑𝑜 𝑎𝑙 ⅈ − é𝑠ⅈ𝑚𝑜 𝑡𝑟𝑎𝑡𝑎𝑚ⅈ𝑒𝑛𝑡𝑜
𝑒𝑖𝑗 = 𝑇é𝑟𝑚ⅈ𝑛𝑜 𝑑𝑒 𝑒𝑟𝑟𝑜𝑟 𝑎𝑙𝑒𝑎𝑡𝑜𝑟ⅈ𝑜

1.5. Hipótesis a probar


La hipótesis a probar en este tipo de diseños experimentales es la siguiente:
H0: τ1 = τ2 = . . . = τt
𝜈𝑠
𝐻𝑎 ∶ 𝐴𝑙 𝑚𝑒𝑛𝑜𝑠 𝑒𝑙 𝑒𝑓𝑒𝑐𝑡𝑜 𝑑𝑒 𝑢𝑛 𝑡𝑟𝑎𝑡𝑎𝑚ⅈ𝑒𝑛𝑡𝑜 𝑒𝑠 𝑑ⅈ𝑓𝑒𝑟𝑒𝑛𝑡𝑒 𝑑𝑒 𝑙𝑜𝑠 𝑑𝑒𝑚á𝑠

1.5.1. Nivel de significancia: (1-𝑎)

1.6. Analisis de varianza (ANVA O ANOVA)


El analisis de varianza para el diseño completamente al azar esta dado por el siguiente
cuadro.
Cuadro 1. Estructura del análisis de varianza para un diseño completamente al azar (DCA).

Fuente de Grados de Suma de Cuadrados


F Calculado
Variación libertad cuadrados medios
(Fcal)
(F.V.) (G.L.) (S.C.) (C.M.)

𝑡
2 𝑆𝐶𝑡𝑟𝑎𝑡 𝐶𝑀𝑡𝑟𝑎𝑡
Tratamientos 𝐺𝐿𝑡𝑟𝑎𝑡 = 𝑡 − 1 𝑆𝐶𝑡𝑟𝑎𝑡 = ∑ 𝑌𝑖. − 𝐹𝐶 𝐶𝑀𝑡𝑟𝑎𝑡 =
𝐺𝐿 𝑡𝑟𝑎𝑡
𝐹𝑐𝑎𝑙 =
𝐶𝑀𝑒𝑟𝑟𝑜𝑟
𝑟𝑖
𝑖=1
𝑡 𝑆𝐶𝑒𝑟𝑟𝑜𝑟
Error 𝐺𝐿𝑒𝑟𝑟𝑜𝑟 = ∑ 𝑟𝑖 − 𝑡 𝑆𝐶𝑒𝑟𝑟𝑜𝑟 = 𝑆𝐶𝑡𝑜𝑡𝑎𝑙 − 𝑆𝐶𝑡𝑟𝑎𝑡 𝐶𝑀𝑒𝑟𝑟𝑜𝑟 =
𝐺𝐿𝑒𝑟𝑟𝑜𝑟
𝑖=1
𝑡 𝑟𝑖
𝑡
𝑆𝐶𝑡𝑜𝑡𝑎𝑙 = ∑ ∑ 𝑌2 − 𝐹𝐶
Total 𝐺𝐿𝑡𝑜𝑡𝑎𝑙 = ∑ 𝑟𝑖 − 1 𝑖𝑗
𝑖=1 𝑖=1 𝑗=1
1.7. Estructura de los datos para un ANOVA de una via de clasificacion

TRATAMIENTOS

REPETICIONES 1 2 ... i ... t

1 Y11 Y12 ... Yi1 ... Yt1

2 Y12 Y22 ... Yi2 ... Yt2


. . . . . . .
. . . . . . .
. . . . . . .
j Y1j Y2j ... Yij ... Ytj
. . . . . . .
. . . . . . .
. . . . . . .
Y1r1 Y2r2 ... Yiri ... Ytrt

Total Y1. Y2. ... Yi. ... Ytrt Y..

Observaciones r1 r2 ... ri ... rt n

Medias Y̅1. Y̅2. ... Y̅i. ... Y̅t. ̅Y..

Donde:
𝑌.. = Suma de todas las observaciones en el experimento
𝑌𝑖. = Suma de todas las observaciones que pertenecen al ⅈ - ésimo tratamiento

1.8. Regla de decision


Si el P-value < alfa, entonces rechazar la hipotesis nula (Ho)
Si el P-value >= alfa, entonces aceptar la hipotesis nula
(Ho) Conlusion
1.9. Ejemplo
Un ingeniero de desarrollo de productos tiene interés en investigar la resistencia a la
tensión de una fibra nueva que se usará para hacer telas de camisas para caballeros
(Montgomery, 2007). El ingeniero sabe por experiencia propia qué la resistencia a la
tensión se afecta por el peso porcentual del algodón utilizado en la mezcla de materiales de
la fibra. Además, sospecha que al aumentar el contenido de algodón, se incrementará la
resistencia, al menos en un principio. Sabe asimismo que el contenido del algodón deberá
variar entre 10 y 40% para que el producto final tenga otras características de calidad que
se desea (como la capacidad de ser sometido a tratamiento de planchado permanente). El
ingeniero decide probar ejemplares en 5 niveles de peso porcentual de algodón: 15, 20, 25,
30 y 35%. También decide probar cinco ejemplares en cada nivel del contenido del
algodón.

Cuadro 2. Datos (lb - pulgada-2) del experimento

Observaciones Peso porcentual de algodón (tratamientos)


15 20 25 30 35
1 7 12 14 19 7
2 7 17 18 25 10
3 15 12 18 22 11
4 11 18 19 19 15
5 9 18 19 23 11
Fuente: Montgomery (2007).

Determine el peso porcentual del algodón (tratamientos) en una fibra sintética afecta la
resistencia a la tensión. Se desea una confiabilidad del 95%.

Hipótesis de investigación
El incluir mayor cantidad de algodón en la tela mejora sus condiciones de resistencia
Paso 1:Hipótesis estadistica:
𝐻0 : 𝑟1 = 𝑟2 = . . . = 𝑟𝑡
𝜈𝑠
𝐻𝑎 ∶ 𝐴𝑙 𝑚𝑒𝑛𝑜𝑠 𝑒𝑙 𝑒𝑓𝑒𝑐𝑡𝑜 𝑑𝑒 𝑢𝑛 𝑡𝑟𝑎𝑡𝑎𝑚ⅈ𝑒𝑛𝑡𝑜 𝑒𝑠 𝑑ⅈ𝑓𝑒𝑟𝑒𝑛𝑡𝑒 𝑑𝑒 𝑙𝑜𝑠 𝑑𝑒𝑚á𝑠

Paso 2: Establecer el nivel de significancia: alfa = 5% = 0.05

Paso 3: estadistico de contraste F-fisher a traves de un ANVA


Solución
T1 T2 T3 T4 T5
R1 7 12 14 19 7
R2 7 17 18 25 10
R3 15 12 18 22 11
R4 11 18 19 19 15
R5 9 18 19 23 11
Total por tratamiento Y1. =49 Y1. =77 Y1. =88 Y1. =108 Y1. =54 Y.. = 376
Observaciones r1 = 5 r2 = 5 r3 = 5 r4 = 5 r5 = 5 n = 25
Medias 𝑌̅ =9.8 𝑌̅ =15.4 𝑌̅ =17.6 𝑌̅ =21.6 𝑌̅ =10.8

Grados de libertad
𝐺𝐿𝑡𝑟𝑎𝑡 = 𝑡 − 1 = 5 − 1 = 4
𝑡

𝐺𝐿𝑒𝑟𝑟𝑜𝑟 = ∑ 𝑟𝑖 − 𝑡 = 25 − 5 = 20
𝑖=1

𝐺𝐿𝑡𝑜𝑡𝑎𝑙 = ∑ 𝑟𝑖 − 1 = 25 − 1 = 24
𝑖=1

Suma de cuadrados
𝑌 2. . (𝑌1 + 𝑌2 + 𝑌3 + 𝑌4 + (49 + 77 + 88 + 108 + (376) 141376
𝐹𝐶 = +54)2 2 = 𝟓𝟔𝟓𝟓. 𝟎𝟒
𝑌5)2 =
Σi=1
t
ri r 1+ r 2 + r 3 + r 4 + r 5 = 5+5+5+5+5 = 25 = 25

𝑡
𝑆𝐶𝑡𝑟𝑎𝑡 = ∑ 𝑌i
2
− 𝐹𝐶 = [ 2
(49)
(77)2 (88)2 (108)2 (54)2 ] − 5655.04 = 6130.8 − 5655.04 = 𝟒𝟕𝟓. 𝟕𝟔
. + + + +
𝑟𝑖 5 5 5 5 5
𝑖=1

𝑡 𝑟𝑖 𝑟𝑖 𝑟𝑖 𝑟𝑖 𝑟𝑖 𝑟𝑖
𝑆𝐶𝑡𝑜𝑡𝑎𝑙 = ∑
∑ 𝑌 − 𝐹𝐶 = (∑ 𝑌 + ∑ 𝑌 + ∑ 𝑌 + ∑ 𝑌 + ∑ 𝑌2 ) − 𝐹𝐶
2 2 2 2 2
1𝑗 1𝑗 2𝑗 3𝑗 4𝑗 5𝑗
𝑖=1 𝑗=1 𝑗=1 𝑗=1 𝑗=1 𝑗=1 𝑗=1

T1 T2 T3 T4 T5
R1 49 144 196 361 49
R2 49 289 324 625 100
R3 225 144 324 484 121
R4 121 324 361 361 225
R5 81 324 361 529 121
𝑟𝑖 𝑟𝑖 𝑟𝑖 𝑟𝑖 𝑟𝑖 𝑡 𝑟𝑖
2
Total por ∑ 𝑌2 = 525 ∑ 𝑌2 = 1225 ∑ 𝑌2 = 1566 ∑ 𝑌 = 2360 ∑ 𝑌2 = 616 ∑ ∑ 𝑌2 =
tratamiento
1𝑗 2𝑗 3𝑗 4𝑗 5𝑗
629 2
𝐽=1 𝐽=1 𝐽=1 𝐽=1 𝐽=1 1𝑗
𝑖=1 𝑗=1

𝑆𝐶𝑡𝑜𝑡𝑎𝑙 = [525 + 1225 + 1566 + 2360 + 616] − 5655.04 = 6292 − 5665.04 = 636.96

𝑆𝐶𝑒𝑟𝑟𝑜𝑟 = 𝑆𝐶𝑡𝑜𝑡𝑎𝑙 − 𝑆𝐶𝑡𝑟𝑎𝑡 = 636.96 − 475.76 = 161.2


Cuadrados medios
𝐶𝑀 𝑆𝐶𝑡𝑟𝑎𝑡 475.76
= = = 𝟏𝟏𝟖. 𝟗𝟒
𝑡𝑟𝑎𝑡 𝐺𝐿𝑡𝑟𝑎𝑡 4

𝐶𝑀 𝑆𝐶𝑒𝑟𝑟𝑜𝑟 161.2
𝑒𝑟𝑟𝑜𝑟 = 𝐺𝐿 = 20 = 𝟖. 𝟎𝟔
𝑒𝑟𝑟𝑜𝑟

F calculada

𝐹 = 𝐶𝑀𝑡𝑟𝑎𝑡 = 118.94= 𝟏𝟒. 𝟕𝟓𝟕


𝑐𝑎𝑙 𝐶𝑀𝑒𝑟𝑟𝑜𝑟 8.06

F tabulada
𝐹𝑡𝑎𝑏 = 𝐹𝑎(𝑣1, 𝑣2) = 𝐹0.05(4,20) = 2.87
Cuadro de ANVA

Cuadro 3. Análisis de varianza para el diseño completamente al azar


Fuente de Grados de Suma de Cuadrado F
F de tablas
variación libertad cuadrados medio calculada
(Ftab)
(F.V.) (G.L.) (S.C.) (C.M.) F(cal)
Tratamientos 4 475.76 118.94 14.757 2.87
Error 20 161.2 8.06
Total 24 636.96

Paso 4: Decisión

Como el F calculado = 14.76 > F tabular = 2.87, entonces Rechazamos la Hipótesis nula (Ho)
Conclusión
Existe evidencia estadística para afirmar que se rechaza la hipótesis nula (Ho) para los
tratamientos, debido a que F calculado = 14.76 > F tabular = 2.87, lo que indica que al
menos el efecto de un tratamiento diferente al de los demás.
Al menos uno de los niveles del porcentaje de algodón en la tela presenta un efecto
diferente sobre su resistencia a la tensión.
Script en RStudio
setwd("F:/Sesion Practica")
library(readxl)
DCA_Montgomery <- read_excel("F:/Sesion Practica/DCA_Montgomery.xlsx",
sheet = "DCA", col_types = c("numeric",
"numeric"))
head(DCA_Montgomery)

## # A tibble: 6 x 2
## Tratamientos Peso
## <dbl> <dbl>
## 1 1 7
## 2 1 7
## 3 1 15
## 4 1 11
## 5 1 9
## 6 2 12

attach(DCA_Montgomery)
TRAT <- factor(Tratamientos)
Y <- as.numeric(as.vector(Peso))
modelo2 <- lm(Y ~ TRAT)
anova(modelo2)

## Analysis of Variance Table


##
## Response: Y
## Df Sum Sq Mean Sq F value Pr(>F)
## TRAT 4 475.76 118.94 14.757 9.128e-06 ***
## Residuals 20 161.20 8.06
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Análisis exploratorio de datos, diagrama de cajas

Script en RStudio

boxplot(Peso ~ Tratamientos, xlab="Tratamiento", ylab="Peso")


Verificación de Supuestos de un diseño experimental
Representación gráfica
Script en RStudio
par(mfrow=c(2,2)) plot(modelo2)

De los gráficos se puede afirmar que existe cierta normalidad de los residuos,
homogeneidad de varianzas e independencia.

Test de normalidad
a) Paso 1: planteamiento de hipótesis:
Ho: Los residuales o errores se ajustan a una distribución normal.
Ha: Los residuales o errores No se ajustan a una distribución normal.

Paso 2: Establecer el nivel de significancia. Alfa = 5%


Paso 3: Determinar el estadístico de prueba. (K-S)
Script en RStudio
library(nortest)
lillie.test(residuals(modelo2))
Lilliefors (Kolmogorov-Smirnov) normality test

data: residuals(modelo2)
D = 0.16212, p-value = 0.08889
Paso 4: Decisión.
Como P_Value = 0.089 > Alfa = 0.05. Entonces se acepta la hipótesis nula (Ho).
Paso 5: Conclusión:
Existe evidencia estadística para afirmar que los residuales o errores se ajustan a una
distribución normal. A un nivel de significancia del 5%.

Test de homogeneidad de varianzas (igualdad de varianzas)

Paso 1: planteamiento de hipótesis:


Ho: 𝝈𝟐𝟏 = 𝝈𝟐𝟐 = 𝝈𝟐𝟑 = 𝝈𝟐𝟒 = 𝝈𝟐𝟓 .
Ha: Al menos una 𝝈𝟐𝒊 es diferente i 1,2, ,5.

Paso 2: Establecer el nivel de significancia. 𝑎 = 5%

Paso 3: Determinar el estadístico de prueba.

Script en RStudio
library(car)

leveneTest(modelo2, center = "median")

Levene's Test for Homogeneity of Variance (center = "median")


Df F value Pr(>F)
group 4 0.3179 0.8626
20

Paso 4: Decisión.
Como P_Value = 0.8626 > Alfa = 0.05. Entonces se acepta la hipótesis nula (Ho).

Paso 5: Conclusión:
Existe evidencia estadística para afirmar que las varianzas en los cinco tratamientos son iguales. A
un nivel de significancia del 5%.
#Independencia
library(zoo)

library(lmtest)
dwtest(modelo2)

##
## Durbin-Watson test
##
## data: modelo2
## DW = 2.4022, p-value = 0.5808
## alternative hypothesis: true autocorrelation is greater than 0

Test de análisis de varianza (ANOVA)

Paso 1: planteamiento de hipótesis:


Ho: 𝑻𝟏 = 𝑻𝟐 = 𝑻𝟑 = 𝑻𝟒 = 𝑻𝟓 .
Ha: Al menos una  es diferente de los demás i 1,2, ,5. Paso 2:

Establecer el nivel de significancia. 𝑎 = 5%

Paso 3: Determinar el estadístico de prueba. (F-fisher)

Script en RStudio
anova(modelo2)

## Analysis of Variance Table


##
## Response: Y
## Df Sum Sq Mean Sq F value Pr(>F)
## TRAT 4 475.76 118.94 14.757 9.128e-06 ***
## Residuals 20 161.20 8.06
## ---
## Signif. codes: 0 '***' 1 '**' 0.01 '*' 0.05
0.00 '.' 0.1 ' ' 1
Paso 4: Decisión.
Como P_Value = 0.0000009128 < Alfa = 0.05. Entonces se rechaza la hipótesis nula (Ho).

Paso 5: Conclusión:
Existe evidencia estadística para afirmar que al menos un tratamiento es diferente a los demás. A un
nivel de significancia del 5%.
Comparación de pares de medias de tratamientos

Contraste del método de Diferencia Significativa mínima (LSD) de Fisher.


Este procedimiento fue sugerido por Fisher en 1935 y es el primer método de
comparaciones múltiples que vamos a utilizar. Dicho procedimiento consiste en una prueba
de hipótesis por parejas basada en la distribución t.
Este método debe aplicarse cuando previamente se haya rechazado la hipótesis nula del
test F de Fisher del análisis de la varianza. Para ello, se determina el siguiente estadístico

Procedimiento para probar Ho: 𝑢̅ 𝑖 = 𝑢̅𝑗

MSE = Cuadrado medio del error


1 1
𝐿𝑆𝐷 = 𝑡(𝛼⁄ ; 𝐺𝐿𝐸) ∗ √𝐶𝑀𝐸 ∗ ( + )
2 𝑛𝑖 𝑛𝑗

Si el diseño es balanceado, entonces

Para usar este procedimiento LSD de Fisher, simplemente se compara la diferencia


observada entre cada par de promedios con la LSD correspondiente. Si |𝑦̅𝑖 − 𝑦̅𝑗 |>LSD, se
concluye que las medias poblacionales 𝑢𝑖 𝑦 𝑢𝑗 difieren.

Del ejemplo se ilustra el procedimiento con alfa = 0.05

Por tanto, cualquier par de promedios de los tratamientos que difiera del valor absoluto
por más de 3.75 implicaría que el par correspondiente de medias poblacionales es
significativamente diferente, las diferencias en los promedios son:
Del ejemplo:
1 1
𝐿𝑆𝐷 = 𝑡(0.05⁄ ; 20) ∗ √8.06 ∗ ( + )
2 5 5
1 1
𝐿𝑆𝐷 = 2.086 ∗ √8.06 ∗ ( + ) = 3.75
5 5

Los promedios de los tratamientos

Los valores marcados con asterisco indican pares de medias que son significativamente
diferentes. Evidentemente, los únicos pares de medias que no difieren significativamente
son 1 y 5 y 2 y 3, y el tratamiento 4 produce una resistencia a la tensión significativamente
mayor que los oros tratamientos.
#Comparacion de medias

#Scrip en RStudio
library(agricolae)
Grupos<- LSD.test(y = modelo2, trt = "TRAT", group = T, console = T)

##
## Study: modelo2 ~ "TRAT"
##
## LSD t Test for Y
##
## Mean Square Error: 8.06
##
## TRAT, means and individual ( 95 %) CI
##
## Y std r LCL UCL Min
Max ## 1 9.8 3.346640 5 7.151566 12.44843
7 15
## 2 15.4 3.130495 5 12.751566 18.04843 12 18
## 3 17.6 2.073644 5 14.951566 20.24843 14 19
## 4 21.6 2.607681 5 18.951566 24.24843 19 25
## 5 10.8 2.863564 5 8.151566 13.44843 7 15
##
## Alpha: 0.05 ; DF Error: 20
## Critical Value of t: 2.085963
##
## least Significant Difference: 3.745452
##
## Treatments with the same letter are not significantly different.
##
## Y groups
## 4 21.6 a
## 3 17.6 b
## 2 15.4 b
## 5 10.8 c
## 1 9.8 c

Grupos<- LSD.test(y = modelo2, trt = "TRAT", group = F, console = T)

##
## Study: modelo2 ~ "TRAT"
##
## LSD t Test for Y
##
## Mean Square Error: 8.06
##
## TRAT, means and individual ( 95 %) CI
##
## Y std r LCL UCL Min
Max ## 1 9.8 3.346640 5 7.151566 12.44843
7 15
## 2 15.4 3.130495 5 12.751566 18.04843 12 18
## 3 17.6 2.073644 5 14.951566 20.24843 14 19
## 4 21.6 2.607681 5 18.951566 24.24843 19 25
## 5 10.8 2.863564 5 8.151566 13.44843 7 15
##
## Alpha: 0.05 ; DF Error: 20
## Critical Value of t: 2.085963
##
## Comparison between treatments means
##
## difference pvalue signif. LCL UCL
## 1 - 2 -5.6 0.0054 ** -9.3454518 -1.8545482
## 1 - 3 -7.8 0.0003 *** -11.5454518 -4.0545482
## 1 - 4 -11.8 0.0000 *** -15.5454518 -8.0545482
## 1 - 5 -1.0 0.5838 -4.7454518 2.7454518
## 2 - 3 -2.2 0.2347 -5.9454518 1.5454518
## 2 - 4 -6.2 0.0025 ** -9.9454518 -2.4545482
## 2 - 5 4.6 0.0186 * 0.8545482 8.3454518
## 3 - 4 -4.0 0.0375 * -7.7454518 -0.2545482
## 3 - 5 6.8 0.0012 ** 3.0545482 10.5454518
## 4 - 5 10.8 0.0000 *** 7.0545482 14.5454518

Prueba de Tukey
Un método más conservador para comparar pares de medias de tratamientos es el método
de Tukey, el cual consiste en comparar las diferencias entre medias muestrales con el valor
crítico dado por:

𝑇𝛼 = 𝑞𝛼(𝐾, 𝑁 − 𝐾)√𝐶𝑀𝐸/𝑛𝑖

Donde:
CME es el cuadrado medio del error, 𝑛𝑖 es el número de observaciones por tratamiento, k es
el número de tratamientos, N – k es igual a los grados de libertad para el error, 𝛼 es el nivel
de significancia prefijado y el estadístico q𝛼 (k, N – k) son puntos porcentuales de la
distribución del rango estudentizado.
Se declaran significativamente diferentes los pares de medias cuya diferencia muestral en
valor absoluto sea mayor que T𝛼. A diferencia de los métodos LSD y Duncan, el método de
Tukey trabaja con un error a muy cercano al declarado por el experimentador.
Del ejemplo:
Amplitudes Estudentizadas Significativas de Tukey
Tabla de tukey Tratamientos = 5
AES (T) (0.05,3,9) Valor = 4.23

AES (T) se obtiene por tabla estadística de Tukey, con nivel de significancia de 0.05 y 5
número tratamientos y 20 GL del error.

𝑇𝛼 = 𝑞𝛼(𝐾, 𝑁 − 𝐾)√𝐶𝑀𝐸/𝑛𝑖

𝑇𝛼 = 4.23√8.06/5 = 5.37
Scrip en RStudio

#Prueba de tukey
outHSD<-HSD.test(modelo2, "TRAT",console=TRUE)
##
## Study: modelo2 ~ "TRAT" ##
## HSD Test for Y ##
## Mean Square Error: 8.06 ##
## TRAT, means ##

## Y std r Min Max


## 1 9.8 3.346640 5 7 15
## 2 15.4 3.130495 5 12 18
## 3 17.6 2.073644 5 14 19
## 4 21.6 2.607681 5 19 25
## 5 10.8 2.863564 5 7 15
##
## Alpha: 0.05 ; DF Error: 20
## Critical Value of Studentized Range: 4.231857 ##
## Minimun Significant Difference: 5.372958 ##
## Treatments with the same letter are not significantly different. ##
##Y groups ## 4 21.6
## 3 17.6
## 2 15.4
## 5 10.8
a
ab bc cd d

## 1 9.8
Referencia bibliográfica de LSD
https://www.ugr.es/~bioestad/guiaspss/practica7/ArchivosAdjuntos/ComparacionesMulti
ples.pdf

Ejercicios: (Humberto Gutiérrez Pulido, pag. 94)

2020 – 1: métodos estadísticos

También podría gustarte