Está en la página 1de 39

Bloques aleatorizados, cuadrado latino y diseños relacionados

Vamos a tener tantos bloques como niveles del factor perturbador que se tengan.

• El objetivo sería hacer el error experimental tan pequeño como fuera posible; es decir,
querría eliminarse del error experimental la variabilidad entre los ejemplares de prueba.

• Un diseño para lograr esto requiere que el experimentador pruebe cada punta una vez en
cada uno de los cuatro ejemplares de prueba.

• Hay que saber diferenciar nuestro factor de interés o mi variable de respuesta de mi


factor(s) perturbador(s).

Proceso en R
##Ejercicio en clase
# GENERACIÓN DE LOS BLOQUES Y LOS TRATAMIENTOS
Nota: Aquí organizamos por filas
dureza<-c(9.3,9.4,9.6,10.0,9.4,9.3,9.8,9.9,9.2,9.4,9.5,9.7,9.7,9.6,10.0,10.2)
Tratpunta<-c(1,1,1,1,2,2,2,2,3,3,3,3,4,4,4,4)
blejemplar<-c(1,2,3,4,1,2,3,4,1,2,3,4,1,2,3,4)

Tratpunta<-factor(Tratpunta)
blejemplar<-factor(blejemplar)

#LA ANOVA
modelo<-lm(dureza~Tratpunta+blejemplar)
ANOVA<-aov(modelo)
summary(ANOVA)
H0:mu1=mu2=mu3=mu4=mu5=mu6

H1:mi≠ mj para por lo menos un par de medias

qf(p = 0.05,df1 = 3,df2 = 9,lower.tail = F)


pf(q = 14.44,df1 = 3,df2 = 9,lower.tail = F)
df1= 1er grado de libertad, tenemos 3
df2= los residuales
Conclusión: Obtengo que mi Pv<alfa por lo que es un factor significativo y existe
evidencia estadística suficiente para determinar que no todas las puntas son iguales.
(Tratpunta).

¿De qué sirve analizar el bloque? (blejemplar)


Le quito al error tanto grados de libertad como suma de cuadrados, haciendo el error más
pequeño.

library(agricolae)
Grupos.Tratpunta<-LSD.test(y= ANOVA,trt="Tratpunta",group=T,console=T)
bar.group(x=Grupos.Tratpunta$groups)

Conclusión: Se observa que la punta que genera mayor dureza es la punta 4, que se
encuentra en diferentes grupos notoriamente de las demás.
#Estadisticas de LSD
Grupos.Tratpunta$statistics

#Prueba Rangos Multiples de Duncan


Grupos.Tratpunta.duncan<-duncan.test(y=ANOVA, trt="Tratpunta",group=T, console=T)
bar.group(x=Grupos.Tratpunta.duncan$groups)
# VALIDACION
qqnorm(rstandard(modelo))
qqline(rstandard(modelo))

shapiro.test(rstandard(modelo))
bartlett.test(dureza~Tratpunta)
Vericamos la normalidad de los residuos con un Shapiro Test

H0: Los errores se distribuyen normalmente.

H1: Los errores no se distribuyen normalmente.


Conclusión: Como el pv> 0.005 Se acepta la hipótesis nula y se confirma con un nivel de confianza
del 95% que los residuales se ajustan a una distribución normal.

Diseño cuadrado latino

Al tratamiento se le asignan letras latinos

Proceso en R:

carga<-c(24,20,19,24,24,17,24,30,27,36,18,38,26,27,21,26,31,26,23,22,22,30,20,29,31)

lotesB1<-c(1,1,1,1,1,2,2,2,2,2,3,3,3,3,3,4,4,4,4,4,5,5,5,5,5)

OperadoresB2<-c(1,2,3,4,5,1,2,3,4,5,1,2,3,4,5,1,2,3,4,5,1,2,3,4,5)

FormulacionTRAT<-
c("A","B","C","D","E","B","C","D","E","A","C","D","E","A","B","D","E","A","B","C","E","A","B","C","D
")
lotesB1<-factor(lotesB1)

OperadoresB2<-factor(OperadoresB2)

FormulacionTRAT<-factor(FormulacionTRAT)

# Tabla ANOVA

modelo<-lm(carga~lotesB1+OperadoresB2+FormulacionTRAT)

ANOVA<-aov(modelo)

summary(ANOVA)

Conclusión: El resultado de nuestro tratamiento indica que hay evidencia estadística suficiente
para rechazar la Ho por lo que por lo menos una de las formulaciones resulta en cargas
propulsoras diferentes.

#LSD FISHER

Grupos.FormulacionTRAT<-LSD.test(y= ANOVA,trt="FormulacionTRAT",group=T,console=T)

bar.group(x=Grupos.FormulacionTRAT$groups)

Conclusión: Se dividió en tres grupos, la formulación D A es la que genera mayor carga de


propulsión por lo que se elige la que sea más conveniente entre estas.

#Estadisticas de LSD

Grupos.FormulacionTRAT$statistics

# VALIDACION
qqnorm(rstandard(modelo))

qqline(rstandard(modelo))

shapiro.test(rstandard(modelo))

bartlett.test(carga~FormulacionTRAT)

Conclusión: Dado que Pv

grecolatino
EJERCICIO 1 “PARCIAL”

Realizando la ANOVA tenemos que:


H0:mu1=mu2=mu3=mu4=mu5=mu6

H1:mi≠ mj para por lo menos un par de medias

Conclusión: Dado que mi Pv<0.05 el tipo de impresora es un factor significativo y existe


evidencia estadística suficiente para decir que por lo menos un par de medias en la
velocidad de impresión son diferentes.
Haciendo la prueba LSD se tiene que:

Conclusión e interpretación: Se observa que los resultados se dividen en grupos, siendo la


impresora que genera una mayor velocidad es la impresora número 1 ubicada en el nivel a,
por lo que si queremos optimizar el proceso de impresión de fotos lo más adecuado es
escoger la impresora número 1 con un nivel de confianza del 95%.

Finalizamos comprobando los supuestos de normalidad:

Los residuales presentan un comportamiento


Shapiro test
Ho: Los residuales se comportan de manera normal
Hi: Los residuales no se comportan de manera normal

Conclusión: Dado que Pv>0.05 se acepta el supuesto de normalidad.


Barlette test

Conclusión: Dado que Pv>0.05 se acepta el supuesto de homocedasticidad.


introducción a los diseños factoriales
Se diferencia con los bloques aleatorizados en que aquí se estudian las interacciones y efectos entre
todos los factores. Además, las hipótesis se plantean de esta manera:
Ho: t1=t2 =…= ta= 0
H1: al menos una ti ≠ 0
Ho: β1= β2 =…= βb= 0
H1: al menos una βj ≠ 0
Ho: (tβ)ij= 0 , para todas las i, j
H1: al menos una (tβ)ij ≠ 0
Proceso en R
Duracion<-
c(130,155,34,40,20,70,74,180,80,75,82,58,150,188,136,122,25,70,159,126,106,115,58,45,138,110,
174,120,96,104,168,160,150,139,82,60)
Material<-c(1,1,1,1,1,1,1,1,1,1,1,1,2,2,2,2,2,2,2,2,2,2,2,2,3,3,3,3,3,3,3,3,3,3,3,3)
Temperatura<-
c(15,15,70,70,125,125,15,15,70,70,125,125,15,15,70,70,125,125,15,15,70,70,125,125,15,15,70,70,
125,125,15,15,70,70,125,125)
# Cambio de variables
FactorA_Material <-factor(Material)
FactorB_Temperatura <-factor(Temperatura)
Respuesta_Duracion <-Duracion

# Cálculo de la tabla ANOVA


Modelo <-lm(Respuesta_Duracion ~ (FactorA_Material + FactorB_Temperatura)^2)
ANOVA<-aov(Modelo)
summary(ANOVA)

Conclusión: Nos indica que el tipo de material es significativo, es decir que al menos un par de los
tipos de materiales resulto diferente entre sí. Por otra parte la temperatura también resultó
sumamente significativa y la interacción de estos dos factores, por lo que el comportamiento de los
materiales es diferente según el rango de temperatura que se esté estudiando.

# Coeficientes de la ecuación de regresión (Si te los pide, no es necesario y sólo se puede si todos
los factores son cuantitativos)
coef(ANOVA)
# Graficas de los efectos principales
Efectos <-data.frame(FactorA_Material, FactorB_Temperatura, Respuesta_Duracion)
plot.design(Efectos, fun="mean", main=" Gráfica de efectos principales", ylab= "Duracion",
xlab="Factor")

Conclusión: Se evidencia que el factor temperatura es el que genera mayor variabilidad en la


duración.
# Gráfica de interacción
interaction.plot(FactorB_Temperatura, FactorA_Material, Respuesta_Duracion,main="Interacción
Material-Temperatura", xlab="Temperatura", ylab="Duracion", col=c(1:3))

Conclusión:
# Análisis de los residuos estándar del modelo
plot(rstandard(Modelo),
main="Gráfica de residuos estándar",xlab="Observación",
ylab="Residuos estandarizados")
## No se observan problemas con los datos

qqnorm(rstandard(Modelo))
qqline(rstandard(Modelo), col="red")
shapiro.test(rstandard(Modelo))
bartlett.test(Respuesta_Duracion~FactorA_Material)
bartlett.test(Respuesta_Duracion~FactorB_Temperatura)

# Los residuos se comportan de forma normal, no se observan problemas con los datos
# Para ver los valores ajustados por la regresión:
fitted(Modelo)
# Graficando los valores tanto los ajustados como los reales
plot(fitted(Modelo),Respuesta_Duracion, col=c("red", "blue"), pch=19,main="Gráfica de valores
ajustados y reales",ylab="Valores reales", xlab="Valores ajustados")
legend(50, 170, col=c("red","blue"), legend=c("Ajustado", "Real"), pch=19)
ELECCIÓN DEL TAMAÑO DE MUESTRA

 Es sólo para replicas con 2 factores

El n se toma de forma arbitraria para


pruebas y se multiplica con los el tita
para tener el tita cuadrado.

Después se le saca la raíz para tener el


tita sin cuadrado ahree.

El v1 son los grados de libertad del


Conclusión
numerador, en este caso ‘a’ que tiene 3
niveles, por lo que (3-1)=2

El v2 lo sacamos haciendo (ab(n-1)) con


el n que elegimos, por ejemplo (3*3(2-
1))=9

Poor último el beta lo sacamos con la


carta.
Es decir, voy a tener un 94% de probabilidad de rechazar, cuando esa diferencia sea mayor de 40.
Diseño factorial 2k con replica de dos factores

Para el cuadrado:

Cuando A esta en alto y B en bajo, se representa como el factor que está en alto en minúscula, eneste caso
‘a’, lo mismo para el factor B.

Cuando ambos estén en bajo se coloca (1)

Cuando ambos estén en alto, se coloca ‘ab’

 No hacemos homocedasticidad ni independencia porque sólo tomamos muestras de dos niveles por
cada factor
Proceso en Rstudio
# Análisis de diseños 2k con réplica de 2 factores Nruns= número de corridas, tenemos 4 porque 2^2=4
# del paquete FrF2 Nfactors= número de factores 2
SIEMPRE
Factor.names= nombres y la cadena que siempre es (-
Ho: t1=t2 =…= ta= 0 1,1)

H1: al menos una ti ≠ 0 Replications= replicas, en este caso 3, porque se replica


2 veces + la original
Ho: β1= β2 =…= βb= 0
Randomize= Si el experimento ya está desarrolado y yo
H1: al menos una βj ≠ 0
sólo quiero pasar los datos o la información a mi tabla
Ho: (tβ)ij= 0 , para todas las i, j se coloca ‘F’
H1: al menos una (tβ)ij ≠ 0 Si yo estoy experimentando coloco ‘T’ para aleatorizar
Y para la prueba de normalidad los datos.

Ho: Los residuos presentan un comportamiento normal.


Hi: Los residuos no se comportan de manera normal

# Creación del diseño


library(FrF2)
Tabla <-FrF2(nruns = 4,
nfactors = 2,
factor.names = list(concentracion=c(-1,1),
cantidad_cat=c(-1,1)),
replications = 3, randomize = F)
Tabla Para ver nuestros valores y organizar, no
rendimiento<-c(28,36,18,31,25,32,19,30,27,32,23,29) es tan necesario al inicio, ¿o sí? jajaj

concentracion<-c(-1,1,-1,1,-1,1,-1,1,-1,1,-1,1)
cantidad_cat<-c(-1,-1,1,1,-1,-1,1,1,-1,-1,1,1) Para ver añadir los
NOTA: Usualmente se organiza por columnas valores del
rendimiento, que sería
# Se agrega la respuesta mi valor a estudiar
Tabla <-add.response (design = Tabla, response = rendimiento)
Tabla
## Análisis de la tabla ANOVA
concentracion <-factor(concentracion)
cantidad_cat <-factor(cantidad_cat)

Modelo <-lm(rendimiento~(concentracion+cantidad_cat)^2)
ANOVA <-aov(Modelo)
summary(ANOVA)

Conclusión: Solamente son significativos los efectos principales (concentración y


cantidad_cat), dado que su P-value<alfa, por otro lado, la interacción no resulta
significativa.

## Gráficas de efectos principales


MEPlot(Tabla, lwd = 2)

Conclusión: Sabemos que la concentración oscila entre 25% y 15% y la cantidad de


catalizador 1lb y 2lb. Por tanto, si lo que se busca es obtener un mayor rendimiento del
proceso químico lo más adecuado es utilizar la concentración en su nivel alto (25%) y el
catalizador en el nivel bajo (1lb).
En este caso no es necesario realizar el gráfico de interacciones ya que este no reulta
significativo como lo vimos en la ANOVA.

## Gráficas de Interacciones
IAPlot(Tabla, lwd = 2)

Interpretación: En esta gráfica tengo en mi eje X la concentración y las líneas son la


cantidad de catalizador, cuando yo paso con la cantidad de catalizador de 2 libras del
nivel bajo a alto, aumenta mi rendimiento, lo mismo con 1libra. Aquí escogemos el que
nos dé un mayor rendimiento (-1).
Si se quiere ver al contrario en la segunda gráfica tenemos en el eje X la cantidad de
catalizador y las líneas representan la concentración, aquí se aprecia que cuando se pasa
del nivel bajo a alto disminuye mi rendimiento con la concentración al 15% y 25%, dicho
de otra forma, cuando estoy en el nivel alto de mi cantidad de catalizador ambas tienden a
bajar y cuando estoy en el nivel bajo, aumentan.
Conclusión: elegimos para la concentración su nivel alto (1) y para la cantidad de
catalizador su nivel bajo (-1)
coef(ANOVA)
# Para elaborar una predicción
predict(object = Modelo, data.frame(concentracion=factor(-1),
cantidad_cat=factor(-1)),
interval = "confidence")

predict(object = Modelo, data.frame(concentracion=factor(1),


cantidad_cat=factor(-1)),
interval = "confidence")

predict(object = Modelo, data.frame(concentracion=factor(-1),


cantidad_cat=factor(1)),
interval = "confidence")

predict(object = Modelo, data.frame(concentracion=factor(1),


cantidad_cat=factor(1)),
interval = "confidence")

Win

Interpretación: aquí elegimos el que nos dé el fit más alto, pero no es necesario hacer
todas las pruebas, debido a que en el gráfico ya concluimos cual sería la mejor
combinación.
## Verificación del modelo
qqnorm(rstandard(Modelo))
qqline(rstandard(Modelo))

Conclusión: Se valida el supuesto de normalidad, por lo tanto el análisis es totalmente


valido. (esta gráfica también hace referencia a los residuales, rstandar ‘residual standard
del modelo’).

Diseño 2k con replica de 3 factores


Proceso en Rstudio

# Creación del diseño


library(FrF2)
Tabla <-FrF2(nruns = 8, 2^3=8
nfactors = 3,
factor.names = list(Carbonatacion=c(-1,1),
Presion=c(-1,1),
Velocidad=c(-1,1)),
replications = 2, randomize = F) 2 réplicas, la original + 1 replica

Llenado<-c(-3,0,-1,2,-1,2,1,6,-1,1,0,3,0,1,1,5)
Carbonatacion<-c(-1,1,-1,1,-1,1,-1,1,-1,1,-1,1,-1,1,-1,1)
Presion<-c(-1,-1,1,1,-1,-1,1,1,-1,-1,1,1,-1,-1,1,1)
Velocidad<-c(-1,-1,-1,-1,1,1,1,1,-1,-1,-1,-1,1,1,1,1)
# Se agrega la respuesta
Tabla<-add.response(design = Tabla, response = Llenado)
Tabla
## Análisis de la tabla ANOVA
Carbonatacion <-factor(Carbonatacion)
Presion <-factor(Presion)
Velocidad <-factor(Velocidad)
Modelo <-lm(Llenado~(Carbonatacion+Presion+Velocidad)^3)
ANOVA <-aov(Modelo)
summary(ANOVA)

Conclusión: Solamente son significativos los efectos principales


## Gráficas de efectos principales
MEPlot(Tabla, lwd = 2)
abline(h=0, col="red")
Conclusión: Lo mejor es todos a nivel bajo, pero la velocidad impacta en la productividad
por lo que hay que considerar.
Dado que las interacciones no son significativas, no me va a afectar drásticamente mi
resultado el cambiar un factor y en tal caso de querer mantener la productividad de la
empresa, se puede optar por mantener el nivel de la velocidad en alto.

## Gráficas de Interacciones
IAPlot(Tabla, lwd = 2)

#DanielPlot(Tabla)
## Se observa que es posible aumentar la velocidad
# Gráfica de interacción triple
cubePlot(obj = Llenado,
eff1 = Carbonatacion,
eff2 = Presion,
eff3 = Velocidad,
main = " Gráfica de interacción triple")

Interpretación de la gráfica: Aquí se evidencia el resultado de ubicar la velocidad en su


nivel alto y los demás factores en el nivel bajo, teniendo como resultado una desviación
de -0.5.

# Para elaborar una predicción (Hecho por el profesor)


predict(object = Modelo, data.frame(Carbonatacion=factor(c(-1,-1,-1)),
Presion=factor(c(-1,1,-1)),
Velocidad=factor(c(-1, 1,1))),
interval = "confidence")

# Para elaborar una predicción (Hecho por mi)


predict(object = Modelo, data.frame(Carbonatacion=factor(c(-1,-1,-1)),
Presion=factor(c(1,1,-1)),
Velocidad=factor(c(-1, -1,1))),
interval = "confidence")

Conclusión: Se puede aumentar la velocidad

## Verificación del modelo


qqnorm(rstandard(Modelo))
qqline(rstandard(Modelo))

Conclusión: No se cumple con el supuesto de normalidad porque los residuales no se


ajustan a la línea de normalidad
Para estos casos resulta conveniente aplicar el shapiro.test y validar este supuesto.
Diseño 2k con sin replica de 3 factores

# Creación del diseño


library(FrF2)
Tabla <-FrF2(nruns = 8, 2^3=8
nfactors = 3,
factor.names = list(Carbonatacion=c(-1,1),
Presion=c(-1,1),
Velocidad=c(-1,1)),
replications = 2, randomize = F) 2 réplicas, la original + 1 replica

Llenado<-c(-3,0,-1,2,-1,2,1,6)
Carbonatacion<-c(-1,1,-1,1,-1,1,-1,1)
Presion<-c(-1,-1,1,1,-1,-1,1,1)
Velocidad<-c(-1,-1,-1,-1,1,1,1,1)

# Se agrega la respuesta
Tabla<-add.response(design = Tabla, response = Llenado)
Tabla

DanielPlot(Tabla)
Función: Determina cual interacción se puede descartar con toda seguridad para obtener
los grados de libertad que le faltan a mi ANOVA, observamos que las interacciones no
son significativas por lo que se pueden descartar al momento de realizar la ANOVA.

## Análisis de la tabla ANOVA


Aquí, le quitamos el (^3) para
Carbonatacion <-factor(Carbonatacion) que no nos muestre las
interacciones de tercer orden,
Presion <-factor(Presion)
sólo los factores de primer
Velocidad <-factor(Velocidad) orden significativos.

Modelo <-lm(Llenado~(Carbonatacion+Presion+Velocidad))
ANOVA <-aov(Modelo)
summary(ANOVA)

Conclusión: Solamente son significativos los efectos principales

## Gráficas de efectos principales


MEPlot(Tabla, lwd = 2)
abline(h=0, col="red")
Conclusión: Lo mejor es todos a nivel bajo, pero la velocidad impacta en la productividad
por lo que hay que considerar.
Dado que las interacciones no son significativas, no me va a afectar drásticamente mi
resultado el cambiar un factor y en tal caso de querer mantener la productividad de la
empresa, se puede optar por mantener el nivel de la velocidad en alto.

## Gráficas de Interacciones
IAPlot(Tabla, lwd = 2)
# Se observa que es posible aumentar la velocidad

# Gráfica de interacción triple


cubePlot(obj = Llenado,
eff1 = Carbonatacion,
eff2 = Presion,
eff3 = Velocidad,
main = " Gráfica de interacción triple")

Interpretación de la gráfica: Aquí se evidencia el resultado de ubicar la velocidad en su


nivel alto y los demás factores en el nivel bajo, teniendo como resultado una desviación
de -0.5.

# Para elaborar una predicción (Hecho por el profesor)


predict(object = Modelo, data.frame(Carbonatacion=factor(c(-1,-1,-1)),
Presion=factor(c(-1,1,-1)),
Velocidad=factor(c(-1, 1,1))),
interval = "confidence")

Conclusión: Se puede aumentar la velocidad


## Verificación del modelo
qqnorm(rstandard(Modelo))
qqline(rstandard(Modelo))

Conclusión: No se cumple con el supuesto de normalidad porque los residuales no se


ajustan a la línea de normalidad, por lo que es probable que el análisis realizado con esta
información no sea válido.
Para estos casos resulta conveniente aplicar el shapiro.test y validar este supuesto.
1

1 1

-1
-1

-1

predict(object = Modelo, data.frame(Velocidad_corte=factor(c(-1,-1,-1)),


Geometria_hta=factor(c(1,1,-1)),
Angulo_corte=factor(c(1, 1,-1))),
interval = "confidence")
Realizando la corrección, obtenemos la siguiente gráfica:

Pectina Ácido cítrico


0.25 2
1 5
0.25 5

Pero dado que estos elementos no se encuentran aleatorizados, realizamos nuestro


propio experimento de diseño 2k.

 Realizando la gráfica con el comando DanielPlot para ver nuestros factores significativos,
se observa que ninguno muestra significancia, este resultado podría deberse que como
trabajamos con tan pocos grados de libertad, el experimento no nos arroje mucha
información.

 Ahora realizamos la ANOVA para corroborar la información, excluyendo la


interacción ya que no presenta significancia.

Conclusión: Dado que el ácido cítrico presenta un Pv ligeramente menor a 0.05


(alfa), se puede decir que este factor es significativo.

 Gráfica de los efectos principales


Interpretación: Se muestra que la pectina no genera un cambio significativo en
relación a la viscosidad en su nivel alto o bajo, al contrario del ácido cítrico que
notoriamente presenta una mayor viscosidad en su nivel alto y una menor en su
nivel bajo.

 Gráfica de interacción

Interpretación de mis factores significativos


 El factor A (pectina) presenta una mayor viscosidad cuando se encuentra en su
nivel alto (1%) y viceversa.
 El factor B (ácido cítrico) presenta una mayor viscosidad cuando se encuentra en
su nivel alto (5%) y viceversa
 En la interacción AB se observa que lo más recomendable para tener una mayor
viscosidad es trabajar con ambos factores en su nivel alto y si se quiere tener una
menor viscosidad se realiza lo contrario.
Conclusión del experimento: La mejor combinación para la experimentación si se
quiere tener una mayor viscosidad en la mermelada, es trabajar con la pectina al 1% y
el ácido cítrico al 5%
Por otra parte, si lo que se busca es tener una menor viscosidad, se debería usar la
pectina al 0,25% y el ácido cítrico al 2%

 Gráfica de residuales y supuesto de normalidad

Interpretación: La gráfica no presenta un comportamiento normal.

Realizamos una prueba Shapiro para confirmar el supuesto:

Ho: Los residuales se comportan de manera normal


Hi: Los residuales no se comportan de manera normal

Interpretación: Dado que Pv<0.05 se rechaza la hipótesis nula, por lo que no se


cumple con el supuesto de normalidad, así que puede que los resultados
obtenidos en este experimento no sean válidos.

También podría gustarte