Está en la página 1de 59

Experimentos aplicados a la

producción animal

Ing José Raul Pérez


ANAVA
• Análisis de la varianza: Es una técnica de estadística experimental
creada por el biólogo Sir. Ronald A. Fisher para verificar los resultados
de experimentación en cultivos, la técnica se basa en la partición de
la varianza en diferentes fuentes de variación, en el caso más simple
se comparan la varianza del error con la del factor de interés con el
fin de probar si la variable de respuesta es afectada por el.
Diseño completamente aleatorizado
• En un diseño clásico como el completamente al azar el arreglo consiste en la
aplicación de tratamientos a las unidades experimentales aleatoriamente ,
siempre y cuando estas sean muy homogéneas según un criterio; ya sea:

Producción, raza, manejo y otras

• Esto implica una desventaja, puesto que la homogeneidad de las UE no


siempre es fácil de conseguir.
• El numero mínimo de unidades experimentales por tratamiento debe ser 5,
para de esa forma, poder validar el error experimental.
Diseño completamente aleatorizado DCA)

El experimento en el que se comparan dos o mas tratamientos


(k≥2) en un conjunto virtualmente homogéneo de unidades
experimentales y donde los tratamientos se asignan al azar a
las unidades experimentales (o viceversa), se dice que el
experimento tiene un diseño completamente aleatorizado
(DCA)
El caso mas simple es cuando se comparan dos tratamientos
(k=2) en dos muestras independientes seleccionadas de dos
poblaciones con varianzas desconocidas pero iguales (σ1=σ2). La
prueba t fue utilizada para este caso
Ejemplo. Un factor en un DCA
Con la finalidad de estudiar cinco raciones para cerdos se llevo a cabo
un experimento. Se utilizaron 25 animales de similar edad, peso y raza
asignándose al azar a los tratamientos. se midió la ganancia de peso
(kg) durante el período de engorde. Los resultados se muestran en la
siguiente tabla
Ejemplo. Un factor en un DCA

R1 R2 R3 R4 R5
4,228 4,529 4,994 5,626 4,891
4,330 4,956 4,373 5,373 5,142
3,791 4,160 5,642 4,932 5,002
4,008 4,650 5,124 4,843 3,992
3,910 3,891 4,562 5,217 4,810
Análisis de la Varianza (ANAVA) en el DCA
Consiste en comparar dos varianzas, la varianza de
los tratamientos (s ) respecto a la varianza debido al
2
Trat

error experimental EE ) .Si ambas varianzas son


( s 2

similares no hay efecto de tratamiento, si la primera


predomina notoriamente sobre la segunda,
entonces, al menos, existe un efecto de tratamiento
Error
a) Varianza total b) Varianza total experimental

Varianza de Error Varianza de


los experimental los
tratamiento tratamiento
s s

No hay efecto de tratamiento Si hay efecto de tratamiento


Análisis de la Varianza (ANAVA) en el DCA
Si no existe efecto de tratamiento, estas dos maneras independientes
de calcular la varianza serán dos valores similares. Generalmente la
varianza debido a los tratamientos es mayor que la varianza debido al
error experimental, cuando esta sea claramente mayor, se concluye
que por lo menos, esta presente un efecto de tratamiento
Comparación de las varianzas
Ambas varianzas se comparan en la distribución F a través del
estadístico:
2
sTrat
F 2
s EE

Si el estadístico F es un valor mucho mayor a 1 la variabilidad entre


tratamientos es superior a la del error, por lo tanto, al menos existe
un efecto de tratamiento. Por el contrario, si F esta alrededor de 1
los efectos de tratamiento son nulos
Hipótesis estadísticas
El sistema Hipotético para el ANOVA en un DCA es el siguiente:

• Ho: Todas las medias son iguales.


• H1: Por lo menos un par de medias es diferente.
Modelo estadístico lineal.
•El  modelo estadístico lineal es:

Dónde:
y es la variable respuesta
es la media global
es el efecto de los tratamientos
es la varianza del error experimental
Los grados de libertad
• Los grados de libertad son la cantidad de información con la que se
calculan las varianzas, ya que en el ANAVA la varianza total se factoría
en diferentes fuentes de variación las SC y GL lo hacen de la misma
forma:

• GL Total = N-1
• GL Tratamientos = T -1
• GL Error = N – T
Las sumas de cuadrados
• 

• 
• Los productos cruzados son 0 por lo tanto:

• El resultado es la suma de cuadrados para cada fuente de


variación:
Las varianzas o cuadrados medios
•Las
  varianzas o cuadrados medios son un cociente entre las sumas de
cuadrados y los grados de libertad y representan la desviaciones de los
datos con respecto de la media
La varianza del error representa las diferencias
• CM total = )/n-1 De las observaciones sometidas a un mismo
• CM error =SC error / GL error Tratamiento

• CM trat = La varianza del tratamiento representa las


Diferencias entre las observaciones entre
Los tratamientos
La tabla del ANAVA
La prueba F de Fisher-Snedecor no es más que un cociente entre 2
varianzas, con esto podemos construir el cuadrado del ANOVA:

FV GL SC CM F

Tratamientos t-1 SCtrat / gl trat CMtrat / CMee

Error n-t SCtotal – SC trat SCee / Glee  

Total n-1    
Regla de decisión
• Si el valor F está acompañado de un valor P <0.05 rechazamos H0.

• Si se acepta H0 no existe diferencia significativa entre tratamientos.


• Si se rechaza H0 existe diferencia significativa entre tratamientos
Estimación de parámetros
• 
• Por el método de mínimos cuadrados se resuelven las ecuaciones
normales del ANOVA, se puede demostrar, que los estimadores para
el modelo estadístico por mínimos cuadrados son:
Supuestos del
Supuestos delANAVA
ANAVA
Paraque
Para quesean
seanvalidas
validas las
lasconclusiones
conclusiones obtenidas
obtenidasconconelel
ANAVAse
ANAVA serequiere
requierequequesesecumplan
cumplanlas lassiguientes
siguientes
suposiciones
suposiciones
Homogeneidad
 Homogeneidadde devarianza
varianza(Homocedasticidad)
(Homocedasticidad)
Normalidad
 Normalidad
Independencia
 Independencia
ElEl incumplimiento
incumplimiento de de estos
estos supuestos
supuestos afectará
afectará elel nivel
nivel de
de
significación, en
significación, en este
este sentido,
sentido, elel nivel
nivel de
de significación
significación será
será
mayorque
mayor queelelfijado
fijado
Ejemplo.
• En un ensayo de nutrición animal se busco medir el efecto de
distintos regímenes alimentarios en el crecimiento de cerdos de la
raza Hampshire.

Tratamientos
A B C D
55 61 42 169
49 112 97 137
42 30 81 169
21 89 95 85
52 63 92 154
Caso no ortogonal
• Con mas de dos efectos principales y con datos desbalanceados no se
puede hacer los análisis usando alegremente el procedimiento
convencional, hay que usar herramientas matriciales o programas
como el GLM.
Ejemplo 2
  Raciones

Totales 1 2 3

  3 5 7

  5 6 6

  6 2 4

  2 7 3

    8 6

    3 4

    9  

    8  

16 48 30

4 6 6
Procedimiento de Henderson.
• El procedimiento presentado por el Dr. Henderson, además de ser
más simple, nos permite obtener una matriz inversa con las columnas
e hileras correspondientes a la matriz X'X originales y en efecto con
todos los elementos inversos.
Procedimiento de Henderson
•  1 1 0 0 3
1 1 0 0 5

[ ] []
1 1 0 0 6
1 1 0 0 2
1 0 1 0 5
1 0 1 0 6
1 0 1 0 2
1 0 1 0 7 18 4 8 6
𝑋 =
1
1
1
1
0
0
0
0
1
1
1
1
0
0
0
0
𝑦=
8
3
9
8
𝑋

[
𝑋 =
4
8
6
4
0
0
0
8
0
0
0
6
]
1 0 0 1 7
1 0 0 1 6
1 0 0 1 4
1 0 0 1 3
1 0 0 1 6
1 0 0 1 4
Procedimiento de Henderson
• 
Procedimiento de Henderson
• 

• =
Experimento factorial ortogonal

• Experimentos donde los factores están cruzados y los


tratamientos se forman por la combinación de los diferentes
niveles de los factores
• El propósito es estudiar los efectos simultáneos de dos o mas
factores
• No constituyen un diseño experimental sino un diseño de
tratamientos o arreglo de tratamiento que deben ser
llevados a los diseños experimentales clásicos (DCA, DBCA)
Ventajas y Desventajas

Ventajas Desventajas
• Genera mayor información. El • Se requiere un numero grande
numero de grados de libertad para de unidades experimentales.
estimar el error experimental es • Algunas de las combinaciones
alto.
de los factores no tienen
• Es mas eficiente respecto al interés practico
estudio de un factor manteniendo
fijo los otros factores • La interpretación de los
• Permiten estudiar los efectos resultados se hace difícil en la
principales, efectos de interacción, medida que aumenta el
efectos simples y efectos anidados. numero de factores y de
niveles
Efecto de interacción
• El efecto de interacción de el nivel i del factor A con el nivel j de B, denotado
por (αβ)ij , es la diferencia entre las medias de los tratamientos y el valor que
se esperaría obtener si los factores A y B fueran aditivos (independientes). Si
en realidad los factores A y B son aditivos, todas las interaccionas serian igual
a cero, esto es, (αβ)ij = 0  i, j
• El efecto de interacción entre dos factores se llama interacción de primer
orden. La interacción triple (A*B*C), interacción de segundo orden y así las
demás
• La presencia de la interacción indica que el efecto de los factores sobre la
respuesta es no lineal
Identificando la interacción

• La presencia de la interacción entre los factores A y B se puede


reconocer gráficamente observando si las diferencias entre las
medias en los niveles de un factor (A) cambian al pasar de un
nivel a otro, en el otro factor B, o al contrario, si las diferencias
entre las medias en los niveles de A se mantienen constantes
en todos los niveles del otro factor B
• Curvas paralelas señalan ausencia de interacción. Curvas que
se cruzan o tendencia a cruzarse señalan interacción
Interacción del modelo
• Método automático de Yates ( si todos los efectos factoriales (de
orden superior e inferior son importantes).
• Método de las siglas ( si algunos efectos factoriales son te interes).
• Confusión ( si queremos que algunos efectos insignificantes se
mezclen con el efecto de un bloque)
Estimación de los parámetros del modelo
• El ajuste del modelo a los datos de la muestra con la configuración dada en
lamina anterior, se hace por el método de los Mínimos Cuadrados o por el de
Máxima Verosimilitud. Ambos métodos se basan en la minimización de la
suma del cuadrado del error, esto es:
 eijk  ( y ijk  yˆ ijk ) 2
i j k
• Cuando se realiza este procedimiento de minimización, por Mínimos
Cuadrados o Máxima Verosimilitud, se obtienen los siguientes estimadores
de los parámetros:
ˆ  y...
ˆ i  y i ..  y...
ˆ  y  y...
. j.

(ˆ ) ij  y ij.  yi ..  y . j.  y...


Estimación de los residuales
Los residuales (e ijk ) estiman el error aleatorio ( ijk ) y se obtienen de la
siguiente manera:

yˆ ijk  y...  ( y i ..  y... )  ( y. j.  y... )  ( y ij.  y i ..  y. j.  y... )


yˆ ijk  y ij.
e ijk  y ijk  yˆ ijk  e ijk  y ijk  y ij.
Partición de la suma de cuadrados Total (ANAVA)
y ijk     i   j  ( ) ij   ij
y ijk  y  ( yi ..  y )  ( y. j.  y )  ( y ij.  yi ..  y. j.  y )  ( y ijk  y ij. )
y y  ( y i ..  y )  ( y. j.  y )  ( y ij.  y i ..  y. j .  y )  ( y ijk  y ij. )
 ijk                         
Desviacion total efecto i de A efecto j de B efecto ij de int eraccion residual

   ( y ijk  y )     ( yi ..  y )  ( y. j.  y )  ( yij.  yi ..  y. j.  y... )  ( y ijk  yij. )


2 2
i j k i j k

SCT     ( y ijk  y ) 2
i j k

SCA  kb ( y i ..  y ) 2
i

SCB  ka ( y. j .  y ) 2
j

SCAB  k   ( y ij.  y i ..  y. j.  y... ) 2


i j

SCE     ( y ijk  y ij. ) 2


i j k
SCT  SCA  SCB  SCAB  SCE
Obtención de los grados de libertad
• 

•Los grados de libertad para el error se obtienen por diferencia como:

•Demostración:
Obtención de los cuadrados medios
• 

• CUADRADOS MEDIOS

Cada suma de cuadrados dividida por sus correspondientes grados de


libertad constituyen un cuadrado medio. Así tenemos:
Cuadrados medios esperados
E (CME )   2
a
bk   i2
i 1
E (CMA)   2 
a 1
a
ak   2j
i 1
E (CMB )   2 
b 1
a b
k   ( ) 2ij
2 i 1 j 1
E (CMAB)   
(a  1)(b  1)
Resumen del ANAVA
           
Fuente Gl SC CM F E[matemáticas]

A  

B  

AB
AB  

Error  
Error  

Total      
Total      
Hipótesis

H 0 : 1   2     a  0
H1  al menos una  i  0

H 0 : 1   2     b  0
H1  al menos una j 0

H 0 : Todas ( ) ij  0
H1 : H1  al menos una ( ) ij  0
Ejemplo 3
Salida del SAS
Caso de la NO ortogonalidad en un diseño factorial
• Cuando se pierden las observaciones debido a la mala técnica
experimental, a la muerte de un animal ( o unidad experimental) el
diseño pierde algo de su simetría y balanceo, esto dificulta que la
aleatorización valide el error de manera justa, en otras palabras se le
pude dar mas peso a un tratamiento del que merece lo que ocasiona
que existan problemas de estimación y los cálculos del ANOVA sean
sesgados.

• La ortogonalidad es necesaria para que la suma de cuadrados no tenga


efectos de ruido que me puedan inflar el CME, en tal caso de no
presentarse, se debe hacer un ajuste para poder validar el ANOVA.
• La propiedad de ortogonalidad de los efectos principales, presente en
los datos balanceados no es valida en el caso no balanceado. Esto
significa que las técnicas del ANOVA usuales no son aplicables, en
otras palabras, hay que hacer un análisis mas complejo.
Caso simple ( Falta una observación).
• Cuando falta una observación el método de recuperación del
dato perdido es sumamente sencillo, se procede a estimar el
valor faltante con el promedio de las demás observaciones que
pertenecen a ese tratamiento y se le resta un grado de libertad
al error, en el caso que vimos primeramente, le quitaremos un
dato al tratamiento 1
RACION 1 RACION 2 RACION 3
TESTIGO 18 22 29 22 25 24 26 23 23 20 17
4 SEMANAS 23 20 27 23 27 26 28 30 27 27 28 25
8 SEMANAS 18 23 22 26 26 22 23 23 21 23 22 25
Caso simple
• Calculemos el valor del dato faltante:
18 + 22+ 19 = 59/3 =19.6
En este caso el valor es 19.6 y el valor original era 20, es decir
que el sesgo es mínimo, procedemos a colocar esta estimación
en la casilla faltante y procedemos con el ANOVA restándole un
grado de libertad al error experimental.
CASO 2 Hay una casilla con mas datos
• Cuando una casilla tiene mas datos que las demás, estimar los
valores faltantes de las ochos celdas restantes quizás no sea
buena idea ya que podría ocasionar un sesgo considerable, en
este caso hay que remover ( eliminar ) la estimación que sobra
y proceder el análisis como si fuera un Diseño completamente
aleatorio factorial balanceado.
Método de Henderson (ejemplo 4)
  Padres    
Racion 1 2 3

  5 2 3    
6 3      

    5      
    6      
    7      

11 23 3 37  

2 5 1   8

  2 8 4    
  3 8 4    

    9 6    

      6    
      7    

5 25 27 57  

2 3 5   10

      94 18
 
Método de Henderson( sin efecto de
interacción)
• 
Método de Henderson
• 
𝜇^
18 4 86 0 8 10 0 94

] [] []
𝛼^ 1

[
4 4 00 1 2 2 0 16
8 0 80 1 5 3 0 𝛼^ 2 48
6 0 06 1 1 5 0 𝛼^ 3 ′ 30
𝑋 ′ 𝐴 𝑋 𝐴= 𝑃𝑎𝑟𝑎𝑚𝑒𝑡𝑟𝑜𝑠= 𝑋 𝑌=
0 1 11 0 0 0 0 𝜃1 0
8 2 51 0 8 0 1 𝛽^ 1 37
10 2 35 0 0 10 1 𝛽^ 2 57
0 0 00 0 1 1 0 0
𝜃2
Método de Henderson (sin efecto de
interacción)
• 
Método de Henderson con
efecto de interaccion
• 
•  Racion

• Padres

• Racion xpadres
• 
Inversa de X’X
Estimadores
Estimador   Estimador
parametro Solución final

4.8888889 4.8889
-0.522222 -0.5222
0.5222222 0.5222
-6.51E-15 0
-0.888889 -0.8889
1.5777778 1.5778
-0.688889 -0.6889
-2.32E-15 0
2.0222222 2.0222
-1.344444 -1.3444
-0.677778 -0.6778
-2.022222 -2.0222
1.3444444 1.3444
0.6777778 0.6778
-1.83E-15 0
-2.16E-15 0
1.422E-15 0
4.568E-15 0

También podría gustarte