Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Yijk= respuesta
u= efecto general
ai = efecto adicional debido al ith tratamiento
bj= efecto adicional a la columna jth
Vk= efecto adicional a la columna kth
eijk = error asociado con ith tratamiento en jth fila y kht columna
EXPERIMENTOS FACTORIALES
Supongamos que un experimentador quiere conocer no solo el mejor tratamiento de cada
uno de los conjuntos de tratamientos, sino también quiere conocer los efectos de la
interacción de los dos conjuntos de tratamientos
Esta información no se puede obtener mediante la realización de dos conjuntos separados
de experimentos simples con dos grupos/ tipos de tratamientos.
Dado que muchos experimentos implican el estudio de los efectos de dos o mas factores,
por lo que los diseños factoriales son las eficientes para este tipo de experimento
Un diseño factorial es aquel que en cada ensayo completo o repetición del experimento
se investigan todas las combinaciones posibles de los niveles de los factores
Cuando se habla de factoriales no se esta hablando de otro tipo de diseño experimental,
sino de un diseño de tratamientos, de una manera de formar las combinaciones de
tratamientos o factores
Supongamos que un experimentador quiere saber:
I las mejores variedades entre cinco variedades de un cultivo recién desarrollado.
II la mejor dosis de fertilizante nitrogenado para el mejor rendimiento del mismo cultivo
III qué variedad entre las cinco variedades en las que la dosis de nitrógeno proporciona
el mejor rendimiento (es decir, , variedad y dosis efecto de interacción).
Los experimentos factoriales son un mecanismo en el que más de un grupo (factor) de
tratamientos puede ser acomodado en un experimento, y a partir del experimento, no sólo
se puede identificar el mejor tratamiento en cada grupo de tratamientos, sino también se
pueden estimar los efectos de interacción entre los tratamientos en diferentes grupos.
FACTORES Y NIVELES
En su forma más simple, un factor en experimentos factoriales, es un concepto usado para
denotar un grupo de tratamientos. Por ejemplo, diferentes razas de ganado, diferentes
dietas, diferentes variedades, diferentes dosis de nitrógeno, diferentes métodos de riego,
etc., pueden formar diferentes actores en experimentos factoriales.
Los diferentes componentes de un factor se conocen como los niveles del factor.
Tanto los factores como sus niveles pueden ser dosis cuantitativas de nitrógeno), así como
cualitativos (diferentes razas, diferentes dietas, diferentes variedades) en la naturaleza.
Tipos de experimentos factoriales:
• Dependiendo del número de factores incluidos en el experimento, un
experimento factorial es un experimento factorial de dos factores. , dos factores),
experimento factorial de tres factores (cuando tres juegos de tratamientos, i.e. ,
tres factores)... , o experimento factorial de factor p (cuando "p" conjuntos de
tratamientos, i.e. , p número de factores).
• Si todos los factores incluidos en el experimento tienen los mismos niveles o
niveles diferentes, un experimento factorial es simétrico (los mismos niveles para
todo el factor) o asimétrico (niveles diferentes para factores diferentes),
respectivamente.
• Generalmente un experimento factorial simétrico con "n" factores cada uno a
niveles "m" se denota como experimento factorial m". Así, un experimento
factorial 23 es un experimento factorial simétrico con tres factores cada uno en
dos niveles. Un experimento bifactorial asimétrico con niveles de p para el primer
factor y niveles de g para el segundo factor se denota como experimento factorial
p x q.
• Así un experimento factorial asimétrico 2 x 3 significa que hay dos factores en el
experimento con el primer factor teniendo dos niveles y el segundo factor teniendo
tres niveles.
• Así que los experimentos factoriales asimétricos no pueden presentarse en forma
de m'; Más bien estos pueden ser presentados en forma de MXNXPX qx. , donde
los niveles de la primera, segunda, tercera, cuarta,... Los factores son m,n , p, q, ,
respectivamente.
Efectos y notaciones en el experimento factorial
Los efectos principales y los efectos de interacción son los dos tipos de efectos
encontrados en experimentos factoriales.
El efecto principal de un factor es el efecto del factor en cuestión independientemente de
los niveles de otros factores, mientras que los efectos de interacción son los efectos de un
factor con el cambio en los niveles del otro factor y viceversa.
Cuando los factores son independientes el uno del otro, uno esperaría el mismo efecto de
un factor en varios niveles de los otros factores dando como resultado el efecto de
interacción cero.
Así, los efectos de interacción entran en escena cuando los factores no son independientes
y los efectos de los diferentes factores no serán los mismos en magnitud y orden sobre
los diferentes niveles de otros factores.
Dependiendo del número de factores involucrados en el experimento factorial, los efectos
de interacción serían la interacción de primer orden, la interacción de segundo orden, la
interacción de tercer orden, y así sucesivamente cuando el número de factores en el
experimento es 2,3,4, y así sucesivamente.
Cuando dos factores están involucrados en un experimento factorial, entonces nos
preocupamos por los efectos de interacción de dos factores, conocidos como interacción
de primer orden.
Pero cuando más de dos factores están involucrados, entonces la interacción será tanto en
el plano individual como en general.
Esto significa que para un experimento factorial de tres factores tendremos una
interacción de dos factores, i.e. , interacción de primer orden, así como la interacción de
tres factores, i.e. , interacción de segundo orden. Por lo tanto, a medida que vamos
aumentando el número de factores en cualquier experimento factorial, entonces el tipo de
interacción aumenta.
Ventajas de los experimentos factoriales
1. Los experimentos factoriales pueden acomodar más de un conjunto de tratamientos
(factores) en un experimento.
2. El efecto de interacción podría calcularse a partir de experimentos factoriales
3. Los experimentos factoriales ahorran recursos y tiempo.
4. Los grados mínimos requeridos de libertad para los componentes de error en el análisis
de varianza se pueden lograr fácilmente en experimentos factoriales en comparación con
experimentos factoriales simples.
Desventajas de los experimentos factoriales
1. Con el aumento en el número de factores o los niveles de los factores o ambos el
número y los niveles de factores son más, el número de combinaciones de tratamiento
será más, lo que resulta en el requisito de mayor área experimental y mayor tamaño de
bloque. A medida que aumenta el tamaño del bloque, es muy difícil en condiciones de
campo mantener la homogeneidad entre las parcelas dentro del bloque
2. El procedimiento estadístico y el cálculo de experimentos factoriales son más
complicados que los experimentos de un solo factor.
3. El diseño del experimento factorial es comparativamente difícil que los experimentos
simples.
4. Con el aumento en el número de factores o los niveles del factor o ambos, el número
de efectos, incluyendo los efectos de interacción, también aumenta. A veces se hace muy
difícil explicar la información de las interacciones, particularmente los efectos de
interacción de orden superior.
5. El riesgo es alto. El fracaso en un experimento puede dar lugar a una mayor pérdida
de información en comparación con los experimentos sencillos de un solo factor
Modelo matemático lineal para un experimento factorial 22 con un DCA
Yijk= respuesta para la observación de kth repetición de nivel ith del primer hecho o A
y nivel jth del segundo factor B
u= efecto general
ai= efecto adicional debido al nivel del primer factor A
bj= efecto adicional debido al nivel jth del segundo factor B
(aB)ij= efecto de interacción del nivel ith del primer factor A y el nivel ith del segundo
factor
Eijk= componente de error asociado con el nivel ith del primer factor A, el nivel ith del
segundo factor B en la repetición kth
Hipótesis a ser probadas
Contra la hipótesis alternativa
yijk= respuesta en KTH replicar debido al nivel ith del primer factor y el nivel JTH del
segundo factor B
u= efecto general
ai= efecto adicional debido al nivel ith del primer factor, nivel de 0
Bj= efecto adicional debido al nivel j del segundo factor, B =0
Yk= efecto adicional debido a la replicación KTH
(aB)ij= efecto de interacción del nivel ith del primer factor y el nivel ith del segundo
factor y el factor de (inmovilizado), =0, inmovilizado (inmovilizado), =0
Eijk= componente de error asociado con el nivel ith del primer factor, el nivel ith del
segundo factor, y KTH replica y ej~N(O, d)
ANOVA
La lógica de la ANOVA es simple. Simplificamos nuestra alternativa e hipótesis
preguntando si al menos una de las tres poblaciones es o no más grande que las otras. Por
lo tanto, estamos planteando una hipótesis en lugar de tres, agrupando todas las hipótesis
alternativas
Pruebas para comprobar los supuestos del ANOVA
Para la NORMALIDAD
1. Kolmogorov- Smirnov
2. Shapiro & Wilk
3. Histogramas y QQ plots
Para la HOMOCEDASTICIDAD (HOMOGENEIDAD DE LA VARIANZA)
1. Bartlett
2. Levene
La prueba F de significancia indica que la variabilidad entre los tratamientos no se debe
al azar, sino a un efecto de dichos tratamientos, lo que es equivalente a indicar que las
diferencias son significativas entre las medias de las poblaciones (estimadas por las
medias de las muestras)
No obstante, la prueba F no indica cuales medias son iguales o cuales son diferentes
En el caso de que la prueba sea significativa (es decir, cuando se rechaza la hipótesis
nula), entonces uno debe averiguar qué par de tratamientos es significativamente diferente
entre si y que tratamiento es el mejor
Las pruebas de comparación on también conocidas como de “contraste posterior” o
“análisis post-hoc”
Con los datos del análisis de varianza se hacen las pruebas de significancia o las
comparaciones entre las medias de los tratamientos
Existen métodos ideados por varios investigadores entre ellos:
• D.T. Sawkins (1938)
• D. Newman (1939)
• D.B. Duncan (1947-1953)
• J.W. Tukey (1949-1953)
• M. Keuls (1952)
• H. Scheffé (1953)
• S.N. Roy, R. C. Bose (1953)
• H.O. Hartley (1954)
• J. Cornfield, M. Halperin, S. Greenhouse (1953)
Diferencia mínima significativa (DMS) LSD en ingles
Es la prueba más simple y fácil de calcular
En esta prueba, la diferencia entre dos medias cualquiera se declara significativa, al
nivel de 5%, por ejemplo, si excede la llamada diferencia menos significativa V2 tn
(t es el valor significativo del nivel del 5% de la distribución t) y siempre que la prueba
F para la homogeneidad de las n medias involucradas sea significativa
Ventajas
• Es un valor fácil de calcular y de simple utilización
• La prueba es válida cuando se hacen comparaciones planeadas de antemano,
comparaciones que se identifican con los objetivos del experimento
• Da resultados satisfactorios cuando se compara cada una de las medias con el
testigo
Desventajas
• No toma en consideración el numero de tratamientos dentro de un experimento
• Mo debe usar la DMS a menos que el valor de F de un valor significativo
• La probabilidad de cometer un error tipo I en comparaciones individuales aumenta
• Cuando se hacen comparaciones no ortogonales (una media está involucrada en
más de una comparación), puede concluirse erróneamente, que hay mayor
cantidad de información de la que realmente existe
Formula DMS
Prueba de Tukey
La prueba de F significativa indica que la variabilidad entre los tratamientos no se debe
al azar, sino a un efecto de dichos tratamientos, lo que es equivalente a indicar que las
diferencias son significativas entre las medias de las poblaciones (estimadas por las
medias de las muestras)
No obstante, la prueba de F no indica cuales medias son iguales o cuales son diferentes
El rechazo de la hipótesis nula de igualdad de medias en el análisis de varianza, conduce
a preguntar cuales diferencias entre las medias muestrales son las responsables del
rechazo
Prueba de Tukey
HSD: honestly sinificant difference = DHS: diferencia honestamente significante
Es un procedimiento similar a la DMS ya que también se requiere un solo valor para
determinar la significancia de las diferencias
Prueba de tukey DHS: es una prueba de gran adaptabilidad y superior a la DMS porque
la unidad considerada es el experimento mismo
Es considerada la mas conservadora de todas las pruebas, por mantener constante su error
tipo I sin importar el numero de medias que se estén considerando
Utiliza los valores de la distribución t modificados
Prueba fundamentada en la amplitud total de la curva o función de distribución total de
probabilidad de Student (estudentizada), la cual fue desarrollada por J. W. Tukey (1953)
Formula prueba tukey
Para el análisis del experimento de ANCOVA bajo un DCA debe estimarse los
parámetros, luego realizar las pruebas de hipótesis:
• Prueba del efecto de regresión de X en Y, en la que no intervienen el efecto de
tratamientos
• Prueba de los tratamientos involucrados
Hipótesis a formularse en el ANCOVA son: para la regresión, para los tratamientos
Uno puede darse cuenta de si la covariable puede afectar o no a los tratamientos al analizar
el ANOVA de la covariable, si esta no es significativa entonces no afectara a los
tratamientos
En caso de que exista la afectación de la covariable a los tratamientos (y esto es indicado
por el ANCOVA)entonces hay que hacer los ajustes respectivos a los tratamientos
Modelo lineal de un análisis de covarianza para un DCL