Está en la página 1de 112

Diseño completamente al azar

Diseño de experimentos – p. 1/112


Ejemplo

Suponga que tenemos 4 dietas diferentes que queremos


comparar. Las dietas están etiquetadas A,B,C y D.
Estamos interesados en estudiar si las dietas afectan la tasa
de coagulación en conejos. La tasa de coagulación es el
tiempo en segundos que tarda una cortada en dejar de
sangrar.
Tenemos 16 conejos para el experimento, por lo que usaremos
4 en cada dieta.
Los conejos están en una jaula grande hasta que se inicie el
experimento, momento en que se transferirán a otras jaulas.

Cómo asignamos los conejos a los cuatro grupos


tratamiento?

Diseño de experimentos – p. 2/112


Método 1

Supongamos que los conejos se atrapan "al azar". Atrapamos


cuatro conejos y los asignamos a la dieta A. Atrapamos otros
cuatro y los asignamos a la dieta B y así sucesivamente.

Dado que los conejos fueron "atrapados al azar", esto


producirá un diseño completamente al azar.

Diseño de experimentos – p. 3/112


Método 1

No es necesariamente cierto.

Los primeros cuatro conejos atrapados pueden ser los más


lentos y débiles, aquellos menos capaces de escapar. Esto
puede sesgar los resultados.

Si los resultados del experimento dan desventaja a la dieta A,


no habrá forma de determinar si los resultados son a
consecuencia de la dieta A o del hecho de haber asignado los
conejos más débiles a esa dieta por nuestro "proceso de
aleatorización".

Diseño de experimentos – p. 4/112


Método 2

Atrape a todos los conejos y etiquételos del 1 al 16.

Seleccione cuatro números aleatorios (sin reemplazo) del 1 al


16 y ponga los conejos con esa etiqueta en una jaula que
recibirá la dieta A.

Entonces, seleccione otros cuatro números aleatorios y ponga


los conejos correspondientes en otra jaula que recibirá la dieta
B.

Así sucesivamente hasta tener cuatro jaulas con cuatro


conejos en cada una.

Diseño de experimentos – p. 5/112


Método 2

No hay repeticiones.

El diseño es un diseño completamente al azar pero no tiene


repeticiones.

Hay 16 conejos, pero los conejos en cada jaula no son


independientes. Si un conejo come mucho, los otros en la
jaula tienen menos para comer.

La unidad experimental es la menor unidad de material


experimental a la cual se le aplica un tratamiento en forma
independiente. En este caso, las jaulas son las unidades
experimentales. Para un diseño completamente al azar con
repeticiones, cada conejo debe estar en su propia jaula.

Diseño de experimentos – p. 6/112


Método 3

En una urna ponga las letras A,B,C y D en pedazos de papel


separados.

Atrape un conejo, saque un pedazo de papel al azar de la urna


y asigne el conejo a la dieta que indique el papel. No
reemplace el papel. Atrape el segundo conejo y seleccione al
azar otro pedazo de papel de la urna de los tres que quedan.
Asigne el conejo a la dieta correspondiente.
Continue hasta que los primeros cuatro conejos sean
asignados a una de las cuatro dietas. De esta manera, todos
los conejos lentos tienen diferentes dietas.

Coloque otra vez los cuatro pedazos de papel en la urna y


repita el procedimiento hasta que los 16 conejos estén
asignados a una dieta.

Diseño de experimentos – p. 7/112


Método 3

Este no es un diseño completamente al azar.

Ya que se seleccionaron los conejos en bloques de 4, y cada


uno asignado a una de las dietas, el diseño es el bloques al
azar.

El tratamiento es Dieta pero se ha bloqueado a través del


grado de "atrapabilidad".

Diseño de experimentos – p. 8/112


Método 4

Atrape a todos los conejos y márquelos del 1 al 16. Ponga 16


piezas de papel en una urna, con las letras A, B, C y D
repetidas cuatro veces cada una.

Ponga otros 16 pedazos de papel numerados del 1 al 16 en


otra urna. Tome un pedazo de papel de cada urna. El conejo
con el número seleccionado es asignado a la dieta
seleccionada.

Para hacer más fácil de recordar cuál conejo tiene cuál dieta,
las jaulas se acomodan como se muestra abajo:

A A A A
B B B B
C C C C
D D D D

Diseño de experimentos – p. 9/112


Método 4

El método 4 tiene algunas deficiencias. La asignación de los


conejos a los tratamientos es un diseño completamente al
azar. Sin embargo, el arreglo de las jaulas crea un sesgo en
los resultados.

Puede haber cambios climáticos y de luz que afecten de forma


diferencial a los tratamientos, de tal manera que, cualquier
diferencia observada no puede ser atribuida a la dieta, sino
que podría ser resultado de la posición de la jaula.

La posición de la jaula no es parte del tratamiento, pero debe


ser considerada. En un diseño completamente al azar, todos
los conejos tienen la misma probabilidad de recibir cualquier
dieta y en cualquier posición de la jaula.

Diseño de experimentos – p. 10/112


Método 5

Marque las jaulas del 1 al 16.

1 5 9 13
2 6 10 14
3 7 11 15
4 8 12 16

Ponga 16 pedazos de papel en una urna, numerados del 1 al


16. En otra urna ponga 16 pedazos de papel, marcados con
las letras A, B C y D.
Atrape un conejo. Seleccione un número y una letra de cada
urna. Ponga el conejo en la jaula indicada por el número
escogido y asígnelo a la dieta indicada por la letra.
Repita sin reemplazo hasta que todos los conejos hayan sido
asignados a una dieta y una jaula.

Diseño de experimentos – p. 11/112


Método 5

Si, por ejemplo, el primer número seleccionado fué 7 y la


primera letra B, entonces el primer conejo se pone en la jaula
7 y se alimenta con la dieta B.

1 5 9 13
2 6 10 14
3 7B 11 15
4 8 12 16

Diseño de experimentos – p. 12/112


Método 5

Un ejemplo de asignación completa es el siguiente:

1C 5A 9B 13 D
2D 6B 10 D 14 C
3C 7B 11 A 15 D
4A 8A 12 C 16 B

Note que el diseño completamente al azar no toma en cuenta


las diferencias en la altura de las jaulas. Es solamente una
asignación completamente al azar.

En este ejemplo vemos que la mayoría de los conejos con la


dieta A están en jaulas de la parte de abajo y los de la dieta D
están en la parte superior. Un diseño completamente al azar
supone que estas posiciones no producen una diferencia
sistemática en la respuesta (tiempo de coagulación).

Si creemos que la posición afecta la respuesta, deberíamos


usar un diseño de bloques al azar.
Diseño de experimentos – p. 13/112
Diseño completamente al azar, un factor

Ejemplo: Disminución del crecimiento de bacterias en carne


almacenada.

La vida en estante de carne almacenada es el tiempo en que


el corte empacado se mantiene bien, nutritivo y vendible.

El empaque estándar con aire del medio ambiente tiene una


vida de 48 horas. Después se deteriora por contaminación
bacterial, degradación del color y encogimiento.

El empaque al vacío detiene el crecimiento bacterial, sin


embargo, se pierde calidad.

Estudios recientes sugieren que al controlar ciertos gases de


la atmósfera se alarga la vida en estante.

Diseño de experimentos – p. 14/112


Diseño completamente al azar, un factor

Hipótesis de investigación: Algunas formas de gases


controlados pueden mejorar la efectividad del
empacamiento para carne.

Diseño de tratamientos: Un factor con 4 niveles:


1. Aire ambiental con envoltura plástica
2. Empacado al vacío
3. Mezcla de gases:
■ 1% CO (monóxido de carbono)

■ 40% O2 (oxígeno)

■ 59% N (nitrógeno)
4. 100% CO2 (bióxido de carbono)

Diseño experimental: Completamente al azar.

Diseño de experimentos – p. 15/112


Diseño completamente al azar, un factor

Tres bisteces de res, aproximadamente del mismo tamaño (75


grs.) se asignaron aleatoriamente a cada tratamiento. Cada
bistec se empaca separadamente con su condición asignada.

Variable de respuesta: Se mide el número de


bacterias psichnotropicas en la carne después de 9
días de almacenamiento a 4◦ C.

Estas bacterias se encuentran en la superficie de la


carne y aparecen cuando la carne se echó a perder.
La medición fué el logaritmo del número de
bacterias por cm2 .

Diseño de experimentos – p. 16/112


Diseño completamente al azar, un factor

Cómo aleatorizar?

Se obtiene una permutación aleatoria de los números 1 a 12. Para esto se


toma una secuencia de números de 2 dígitos de una tabla de números
aleatorios y se les asigna el rango que les corresponda.
Por ejemplo:

# aleatorio 52 56 20 99 44 34 62 60 31 57 40 78
rango 6 7 1 12 5 3 10 9 2 8 4 11
trat 1 1 1 2 2 2 3 3 3 4 4 4
u.e. 1 2 3 4 5 6 7 8 9 10 11 12
trat 1 3 2 4 2 1 1 4 3 3 4 2

Diseño de experimentos – p. 17/112


Diseño completamente al azar, un factor

Modelo estadístico para el experimento

El modelo estadístico para estudios comparativos supone que


hay una población de referencia de u.e. En muchos casos la
población es conceptual. En el ejemplo, es posible imaginar
una población de carne empacada.

Cada unidad de la población tiene un valor de la variable de


respuesta, y, la cual tiene media µ y varianza σ 2 .

Se supone una población de referencia para cada tratamiento


considerado en el estudio, y las variables en el experimento se
suponen seleccionadas aleatoriamente de dicha población de
referencia, como resultado de la aleatorización.

Nota. Para estudios observacionales, suponemos que las


unidades observadas se seleccionaron aleatoriamente de
cada una de las poblaciones.

Diseño de experimentos – p. 18/112


Diseño completamente al azar, un factor

Diseño de experimentos – p. 19/112


Diseño completamente al azar, un factor

Modelo estadístico lineal para un diseño completamente al


azar.

Modelo de medias:

yij = µi + ǫij i = 1, 2, . . . , t j = 1, 2, . . . , r
donde
yij es la observación de la j-ésima u.e. del i-ésimo tratamiento,
µi es la media del i-ésimo tratamiento,
ǫij es el error experimental de la unidad ij.
Suponemos que hay t tratamientos y r repeticiones en cada
uno.

En el ejemplo de la carne empacada, tenemos:

Diseño de experimentos – p. 20/112


Diseño completamente al azar, un factor

bistec trata obser log yij Modelo


miento vación (conteo/cm2 )
6 1 1 7.66 y11 µ1 + ǫ11
7 1 2 6.98 y12 µ1 + ǫ12
1 1 3 7.80 y13 µ1 + ǫ13
12 2 1 5.26 y21 µ2 + ǫ21
5 2 2 5.44 y22 µ2 + ǫ22
3 2 3 5.80 y23 µ2 + ǫ23
10 3 1 7.41 y31 µ3 + ǫ31
9 3 2 7.33 y32 µ3 + ǫ32
2 3 3 7.04 y33 µ3 + ǫ33
8 4 1 3.51 y41 µ4 + ǫ41
4 4 2 2.91 y42 µ4 + ǫ42
11 4 3 3.66 y43 µ4 + ǫ43

Diseño de experimentos – p. 21/112


Diseño completamente al azar, un factor

El modelo:
yij = µi + ǫij
lo llamaremos modelo completo ya que incluye una media
separada para cada una de las poblaciones definidas por los
tratamientos.

Si no hay diferencia entre las medias de las poblaciones, es


decir,
µ1 = µ2 = µ3 = µ4 = µ
se genera el modelo reducido
yij = µ + ǫij
que establece que las observaciones provienen de la misma
población con media µ.

Diseño de experimentos – p. 22/112


Diseño completamente al azar, un factor

El modelo reducido representa la hipótesis de no diferencia


entre las medias
H0 : µ1 = µ2 = µ3 = µ4 = µ
El modelo completo representa la hipótesis alternativa:
Ha : µi 6= µk i 6= k
El investigador debe determinar cuál de los dos modelos
describe mejor a los datos en el experimento.

Diseño de experimentos – p. 23/112


Diseño completamente al azar, un factor

yij = µ + ǫij yij = µi + ǫij

Diseño de experimentos – p. 24/112


Diseño completamente al azar, un factor

Pregunta de investigación: Hay más crecimiento bacterial


con algunos métodos de empacado que con otros?

Pregunta estadística: Cuál modelo describe mejor los


resultados del experimento?

Se requiere un método para estimar los parámetros de los dos


modelos y con base en algun criterio objetivo determinar cuál
modelo o hipótesis estadística se ajusta mejor a los datos del
experimento.

Diseño de experimentos – p. 25/112


Diseño completamente el azar, un factor

Los estimadores de mínimos cuadrados son aquellos que


resultan de minimizar la suma de cuadrados de los errores
experimentales.

Si los errores experimentales son independientes con media


cero y varianzas homogéneas, los estimadores de mínimos
cuadrados son insesgados y tienen varianza mínima.

Nota. El muestreo aleatorio en los estudios observacionales y


la aleatorización en los experimentales aseguran la suposición
de independencia.

Diseño de experimentos – p. 26/112


Estimadores para el modelo completo

yij = µi + ǫij i = 1, . . . , t j = 1, . . . , r
ǫij = yij − µi
X r
t X t X
X r
2
SSEc = ǫ2ij = (yij − µi )
i=1 j=1 i=1 j=1

La SSEc es una medida de qué tan bien se ajusta el modelo a


los datos.

Queremos determinar los estimadores µ̂i tales que se


minimice esta SSEc .

Vamos a tener t ecuaciones normales, una para cada


tratamiento, encontradas a partir de derivar la SSEc con
respecto a cada µi e igualarlas a cero.

Diseño de experimentos – p. 27/112


Estimadores para el modelo completo

Para una i:
r r
∂ X 2
X
(yij − µi ) = −2 (yij − µi )
∂µi j=1 j=1

igualando a cero
Xr
−2 (yij − µ̂i ) = 0
j=1
r
X
yij − rµ̂i = 0
j=1
Pr
j=1 yij
µ̂i = = ȳi.
r

Diseño de experimentos – p. 28/112


Estimadores para el modelo completo

Por lo tanto,
µ̂i = ȳi i = 1, . . . , t
Entonces,
t X
X r
2
SSEc = (yij − µ̂i )
i=1 j=1
t X
X r
2
= (yij − ȳi. )
i=1 j=1
 
t
X Xr
2
=  (yij − ȳi. ) 
i=1 j=1

Diseño de experimentos – p. 29/112


Estimadores para el modelo completo

La varianza muestral del i-ésimo tratamiento es:


Pr 2
j=1 (y ij − ȳ i. )
Si2 =
r−1
es una estimador de σ 2 de los datos del i-ésimo grupo.
Pt hPr 2
i
2 i=1 j=1 (yij − ȳi. ) SSEc
S = =
t(r − 1) t(r − 1)
es un estimador combinado (pooled) de σ 2 de todos los
datos del experimento.

Es un buen estimador si podemos hacer la suposición de que


σ 2 es homogénea en todos los grupos.

Diseño de experimentos – p. 30/112


Estimadores para el modelo completo

Para los datos del ejemplo:

tratamiento comercial vacío mezcla CO2


7.66 5.26 7.41 3.51
6.98 5.44 7.33 2.91
7.80 5.80 7.04 3.66
µ̂i = ȳi. 7.48 5.50 7.26 3.36
Pr 2
j=1 (y ij − ȳ i. ) 0.3848 0.1512 0.0758 0.3150

SSEc = 0.3848 + 0.1512 + 0.0758 + 0.3150 = 0.9268

SSEc 0.9268
S2 = = = 0.11585
t(r − 1) 4(2)

Diseño de experimentos – p. 31/112


Estimadores para el modelo reducido

yij = µ + ǫij
ǫij = yij − µ
t X
X r t X
X r
2
SSEr = ǫ2ij = (yij − µ)
i=1 j=1 i=1 j=1

t r t X
r
∂ XX 2
X
(yij − µ) = −2 (yij − µ)
∂µ i=1 j=1 i=1 j=1

igualando a cero
t X
X r t X
X r
µ̂ = yij
i=1 j=1 i=1 j=1
rtµ = y..
y..
µ̂ = = ȳ..
rt

Diseño de experimentos – p. 32/112


Estimadores para el modelo reducido

Entonces,
t X
X r t X
X r
2 2
SSEr = (yij − µ̂) = (yij − ȳ.. )
i=1 j=1 i=1 j=1

Para el ejemplo,
70.80
µ̂ = ȳ.. = = 5.90
12

Diseño de experimentos – p. 33/112


Modelo reducido Modelo completo
yij = µ + ǫij yij = µi + ǫij
Observado Estimado Diferencia Estimado Diferencia
Tratamiento y µ̂ (yij − µ̂) µ̂i (yij − µ̂i )
Comercial 7.66 5.90 1.76 7.48 0.18
6.98 5.90 1.08 7.48 -0.50
7.80 5.90 1.90 7.48 0.32
Vacío 5.26 5.90 -0.64 5.50 -0.24
5.44 5.90 -0.46 5.50 -0.06
5.80 5.90 -0.10 5.50 0.30
Mezcla 7.41 5.90 1.51 7.26 0.15
7.33 5.90 1.43 7.26 0.07
7.04 5.90 1.14 7.26 -0.22
CO2 3.51 5.90 -2.39 3.36 0.15
2.91 5.90 -2.99 3.36 -0.45
3.66 5.90 -2.24 3.36 0.30
SSEr = 33.7996 SSEc = 0.9268
Diseño de experimentos – p. 34/112
Diseño completamente al azar, un factor

Siguiendo con el ejemplo:


P P
Modelo completo yij = µi + ǫij SSEc = i j (yij − ȳi. )2 = 0.9268
P P
Modelo reducido yij = µ + ǫij SSEr = i j (yij − ȳ.. )2 = 33.7996

Diferencia:
XX XX
2
SSEr − SSEc = (yij − ȳ.. ) − (yij − ȳi. )2
i j i j

haciendo álgebra
XX X
2
= (ȳi. − ȳ.. ) = r (ȳi. − ȳ.. )2
i j i

En el ejemplo: SSEr − SSEc = 32.8728

Diseño de experimentos – p. 35/112


Diseño completamente al azar, un factor

SSEr − SSEc = SSt suma de cuadrados de tratamientos.

Representa la reducción en SSE al haber incluido


tratamientos en el modelo, también se le conoce como
reducción en suma de cuadrados debida a tratamientos.

Llamaremos SStotal = SSEr ya que es la suma de cuadrados


de las diferencias de cada observación y la media general ȳ..

Entonces, tenemos la partición:


SStotal = SSt + SSEc
XX XX XX
(yij − ȳ.. )2 = 2
(ȳi. − ȳ.. ) + (yij − ȳi. )2
i j i j i j

desviación de la desviación de la desviación de la


observación ij media del grupo observación ij
con respecto a con respecto a con respecto a
la media general la media general la media de su grupo
Diseño de experimentos – p. 36/112
Diseño completamente al azar, un factor

XX XX 2
2
(yij − ȳ.. ) = [(yij − ȳi. ) + (ȳi. − ȳ.. )]
i j i j
XX XX
2
= (yij − ȳi. ) + (ȳi. − ȳ.. )2
i j i j
XX
−2 (yij − ȳi. )(ȳi. − ȳ.. )
i j

XX X X
(yij − ȳi. )(ȳi. − ȳ.. ) = (ȳi. − ȳ.. ) (yij − ȳi. )
i j i j
X
= (ȳi. − ȳ.. )(yi. − rȳi. ) = 0
i

Diseño de experimentos – p. 37/112


Diseño completamente al azar, un factor

Grados de libertad. Representan el número de piezas de


información independientes en las sumas de cuadrados.

En general, es el número de observaciones menos el número


de parámetros estimados de los datos.

Sea n = rt, el tamaño de muestra total.


Pt Pr
Así, SStotal = i j (yij − ȳ.. )2 donde ȳ.. es el estimador de
µ, tiene n − 1 g.l.
Pt Pr
SSE = i j (yij − ȳi. )2 se estimaron t parámetros
(µ1 , µ2 , . . . , µt ) por lo tanto tiene n − t g.l.

SSt = SStotal − SSE = (n − 1) − (n − t) = t − 1 g.l.

Diseño de experimentos – p. 38/112


Tabla de Análisis de Varianza

ANOVA

F.V. g.l. SS CM
Tratamientos t−1 SSt CMt = SSt /t − 1
Error n−t SSE CM E = SSE/n − t = σ̂ 2
Total n−1 SStotal

Se puede demostrar que:


E (CM E) = σ2
t
2 1 X X
E (CMt ) = σ + r(µi − µ̄)2 ; µ̄ = µi /t
t − 1 i=1 i

Diseño de experimentos – p. 39/112


Tabla de Análisis de Varianza

Si suponemos ǫij ∼ N ID(0, σ 2 ) i = 1, . . . , t j = 1, . . . , r


en el modelo completo yij = µi + ǫij

Entonces, yij ∼ N ID(µi , σ 2 ).

Se puede demostrar que:


P P 2
SStotal i j (yij − ȳ.. ) 2
= ∼ χn−1
σ2 σ2
P P 2
SSE i j (y ij − ȳ i. ) 2
= ∼ χ n−t
σ2 σ2

Cuando H0 : µ1 = µ2 = . . . = µt es cierta
P 2
SSt i r(ȳ i. − ȳ .. ) 2
= ∼ χt−1
σ2 σ2

Diseño de experimentos – p. 40/112


Tabla de Análisis de Varianza

Por el Teorema de Cochran (Montgomery, 2001, pág. 69), SSt


y SSE son independientes, por lo tanto cuando H0 es cierta,
SSt /σ 2 (t − 1) CMt
F0 = 2
= ∼ Ft−1,n−t
SSE/σ (n − t) CM E
Además, E (CMt ) = σ 2 + θt2 = σ 2 cuando θt2 = 0 que es
cuando H0 es cierta. Es decir,

E (CMt ) = E (CM E) cuando H0 es cierta


E (CMt ) > E (CM E) cuando H0 no es cierta

Entonces, si CMt > CM E, o sea, valores grandes de F0


llevan a rechazar la hipótesis nula H0 : µ1 = µ2 = . . . = µt .
Por lo tanto, la región de rechazo es:
α
F0 > Ft−1,n−t

Diseño de experimentos – p. 41/112


Tabla de Análisis de Varianza

ANOVA

F.V. g.l. SS CM F E(CM )


SSt CMt
Tratamientos t−1 SSt CMt = t−1 CM E σ 2 + θt2

SSE
Error n−t SSE CM E = n−t σ2

Total n−1 SStotal

t
X 2
SSt = r (ȳi. − ȳ.. )
i=1
t X
X r
2
SSE = (yij − ȳi. )
i=1 j=1
t X
X r
2
SStotal = (yij − ȳ.. )
i=1 j=1
Diseño de experimentos – p. 42/112
Tabla de Análisis de Varianza

En el ejemplo de empacado de carne:

F.V. g.l. SS CM F Pr > F


trat 3 32.8728 10.958 94.55 0.000
error 8 0.9268 0.1159
total 11 33.7996

Por lo tanto, se rechaza la hipótesis H0 : µ1 = µ2 = . . . = µ4 ,


es decir, hay algún método de empaque que tiene diferente
comportamiento en promedio.

Diseño de experimentos – p. 43/112


Diseño completamente al azar, un factor

Se quieren comparar t niveles de un factor, lo que implica t


tratamientos y se dispone de ni u.e. para el tratamiento i,
i = 1, . . . , t. Hay dos situaciones:

1. Los t tratamientos son escogidos específicamente por el


investigador. En esta situación deseamos probar hipótesis
acerca de las medias de los tratamientos y nuestras
conclusiones se aplicarán solamente a los niveles del
factor considerados en el análisis. Las conclusiones no se
pueden extender a tratamientos similares que no fueron
explícitamente considerados. Este es el modelo de
efectos fijos.
2. Los t tratamientos son una muestra aleatoria de una
población de tratamientos. En esta situación nos gustaría
poder extender las conclusiones (las cuales están basadas
en la muestra de tratamientos considerada) a todos los
tratamientos de la población. Este es el modelo de
efectos aleatorios.
Diseño de experimentos – p. 44/112
Diseño completamente al azar, un factor

A las cantidades n1 , n2 , . . . , nt se les llama repeticiones de


cada tratamiento.

Si ni = r ∀i se dice que el diseño es balanceado.

yij es la respuesta de la u.e. j del tratamiento i,


i = 1, . . . , t j = 1, . . . , ni .

Diseño de experimentos – p. 45/112


Diseño completamente al azar

Estructura de los datos.

tratamientos
1 2 3 ... t
y11 y21 y31 ... yt1
y12 y22 y32 ... yt2
y13 y23 y33 ... yt3
. . . ... .
. . . ... .
. . . ... .
y1n1 y2n2 y3n3 ... ytnt
y1. y2. y3. ... yt. totales
ȳ1. ȳ2. ȳ3. ... ȳt. medias

Diseño de experimentos – p. 46/112


Diseño completamente al azar

t
X
n = ni
i=1
Xni
yi. = yij i = 1, . . . , t total tratamiento i
j=1
Pni
j=1 yij
ȳi. = i = 1, . . . , t media tratamiento i
ni
t X
X ni t
X
y.. = yij = yi. total de las observaciones
i=1 j=1 i=1
y..
ȳ.. = media general
n

Diseño de experimentos – p. 47/112


Diseño completamente al azar

Se tienen t muestras aleatorias independientes de tamaños


n1 , n2 , . . . , nt respectivamente.

y11 , y12 , . . . , y1n1 es una muestra aleatoria de N (µ1 , σ 2 )

y21 , y22 , . . . , y2n2 es una muestra aleatoria de N (µ2 , σ 2 )

yt1 , yt2 , . . . , ytnt es una muestra aleatoria de N (µt , σ 2 )

Diseño de experimentos – p. 48/112


Diseño completamente al azar

Las observaciones en cada una de estas muestras se pueden


representar por el modelo lineal simple
yij = µi + ǫij i = 1, . . . , t j = 1, . . . , ni
con ǫij error experimental en la observación j-ésima del
tratamiento i-ésimo.

Estamos suponiendo independencia entre y dentro de las


muestras, es decir, ǫij son independientes y ǫij ∼ N (0, σ 2 ).

Diseño de experimentos – p. 49/112


Diseño completamente al azar

Otra forma de verlo

Como suponemos que las u.e. son homogéneas, es decir, el


promedio de respuesta de todas las u.e. es el mismo (µ) antes
de aplicar los tratamientos, y si se observan en condiciones
similares, las respuestas las podemos modelar como
yij = µ + ǫij

Diseño de experimentos – p. 50/112


Modelo de efectos

Entonces al aplicar el tratamiento i-ésimo a un grupo (de


tamaño ni ) de u.e. se introduce un efecto (τi ) de ese
tratamiento en las variables por observar.

El modelo se puede escribir como:

Modelo de efectos

yij = µ + τi + ǫij i = 1, . . . , t j = 1, . . . , ni
donde

µ es la media general, común a todas las u.e.


τi es el efecto del tratamiento i-ésimo

Diseño de experimentos – p. 51/112


Modelo de efectos

Diseño de experimentos – p. 52/112


Modelo de efectos

El modelo de efectos implica que se empieza el experimento


con u.e. con la misma capacidad de respuesta (µ) y con la
misma varianza (σ 2 ).

La aplicación de los tratamientos tiene el efecto de alterar las


medias, que ahora son µi = µ + τi , pero supone que no se
modifican las varianzas.

En este caso, la hipótesis a probar es:


H0 : τ 1 = τ 2 = . . . = τ t = 0

Ha : τi 6= 0 para al menos una i

Diseño de experimentos – p. 53/112


Modelo de efectos

Estimadores de mínimos cuadrados:

yij = µ + τi + ǫij i = 1, . . . , t j = 1, . . . , ni

X ni
t X ni
t X
X
SSE = ǫ2ij = (yij − µ − τi )2
i=1 j=1 i=1 j=1
t n
i ni
t X
∂ XX X
(yij − µ − τi )2 = −2 (yij − µ − τi )
∂µ i=1 j=1 i=1 j=1
t ni ni
∂ XX X
(yij − µ − τi )2 = −2 (yij − µ − τi ) i = 1, . . . , t
∂τi i=1 j=1 j=1

Diseño de experimentos – p. 54/112


Modelo de efectos

Igualando a cero:
X ni
t X t
X
yij = nµ̂ + ni τ̂i
i=1 j=1 i=1
n1
X
y1j = n1 µ̂ + n1 τ̂1
j=1
n2
X
y2j = n2 µ̂ + n2 τ̂2
j=1
... ...
nt
X
ytj = nt µ̂ + nt τ̂t
j=1

Las ecuaciones normales no son linealmente independientes,


por lo tanto no hay una solución única. Esto ocurre porque el
modelo de efectos está sobreparametrizado.

Diseño de experimentos – p. 55/112


Modelo de efectos

Se añade una ecuación linealmente independiente:


Pt
a) i=1 τ̂i = 0

µ̂ = ȳ..
τ̂i = ȳi. − ȳ.. i = 1, . . . , t

b) µ̂ = 0
µ̂ = 0
τ̂i = ȳi. i = 1, . . . , t

c) τ̂1 = 0
µ̂ = ȳ1.
τ̂i = ȳi. − ȳ1. i = 2, . . . , t

Diseño de experimentos – p. 56/112


Modelo de efectos

Hay un número infinito de posibles restricciones que se


pueden usar para resolver las ecuaciones normales. Entonces

Cuál usar?

No importa ya que en cualquier caso

µ\
+ τi = ȳi.
Aunque no podemos obtener estimadores únicos de los
parámetros del modelo de efectos, podemos obtener
estimadores únicos de funciones de estos parámetros.

A estas funciones se les llama funciones lineales


linealmente estimables.

Diseño de experimentos – p. 57/112


Diseño completamente al azar, Tabla de ANOVA

F.V. g.l. SS CM F E(CM )


P
SSt CMt 2 ni (τi −τ̄ )2
Tratamientos t−1 SSt CMt = t−1 CM E σ + i
t−1

SSE
Error n−t SSE CM E = n−t σ2

Total n−1 SStotal


t t
X 2
X y2 i. y..2
SSt = ni (ȳi. − ȳ.. ) = −
i=1 i=1
ni n
ni
t X ni
t X t
X 2
X
2
X y2 i.
SSE = (yij − ȳi. ) = yij −
i=1 j=1 i=1 j=1 i=1
ni
ni
t X ni
t X
X 2
X
2 y..2
SStotal = (yij − ȳ.. ) = yij −
i=1 j=1 i=1 j=1
n
t
X
n = ni
i=1 Diseño de experimentos – p. 58/112
Intervalos de confianza

2
r
S CM E
µ̂i = ȳi. Sȳ2i. = 2
con S = CM E = σ̂ 2
Sȳi. =
ni ni
Como suponemos que
¡ 2
¢
yij ∼ N µi , σ
entonces ¡ ¢
2
ȳi. ∼ N µi , σ /ni
como estimamos la varianza:
ȳi. − µi
∼ tn−t
Sȳi.
Por lo tanto, un intervalo del (1 − α)100% de confianza para µi
es
1−α/2
ȳi. ± tn−t (Sȳi. )

Diseño de experimentos – p. 59/112


Contrastes

En el ejemplo del empacado de carne teníamos:

Comercial Al vacío CO,O2,N CO2


µ̂i = ȳi. 7.48 5.50 7.26 3.36

S 2 = CM E = 0.116 con 8 g.l.

Una vez que rechazamos la hipótesis H0 : µ1 = µ2 = µ3 = µ4

Qué sigue?

Diseño de experimentos – p. 60/112


Contrastes

Se podrían contestar preguntas como:


■ Es más efectiva la creación de una atmósfera artificial que el
aire ambiente con plástico para reducir el crecimiento de
bacterias?
■ Son más efectivos los gases que el vacío?
■ Es más efectivo el tratamiento de CO2 puro que la mezcla
CO,O2 y N?

Un contraste es una función lineal de los parámetros µi


definido como
t
X
C= ki µi = k1 µ1 + k2 µ2 + . . . + kt µt
i=1
Pt
donde i=1 ki = 0.

Diseño de experimentos – p. 61/112


Contrastes

Los contrastes para las preguntas anteriores son:


■ comercial vs. atmósfera artificial
1
C1 = µ1 − (µ2 + µ3 + µ4 )
3
■ vacío vs. gases
1
C2 = µ2 − (µ3 + µ4 )
2
■ mezcla de gases vs. CO2 puro
C3 = µ3 − µ4

Diseño de experimentos – p. 62/112


Contrastes

El estimador del contraste


t
X t
X t
X
C= ki µi es Ĉ = ki µ̂i = ki ȳi.
i=1 i=1 i=1

Si suponemos que
¡ 2
¢
yij ∼ N µi , σ
entonces ¡ ¢
2
ȳi. ∼ N µi , σ /ni
Por lo tanto,
t
à t t
!
X X
2
X ki
Ĉ = ki ȳi. ∼ N ki µi , σ
i=1 i=1 i=1
ni

Diseño de experimentos – p. 63/112


Contrastes

Ya que:
à t ! t t
X X X
E ki ȳi. = ki E (ȳi. ) = ki µi
i=1 i=1 i=1

à t ! t t t
2 2
X X
2 2 σ
X
2
X ki
V ki ȳi. = ki V (ȳ i. ) = ki = σ
i=1
|{z}
i=1 i=1
ni n
i=1 i
m.indep

t 2 t
³ ´
2
X ki
X ki2
V̂ Ĉ = σ̂ = CM E
n
i=1 i
n
i=1 i

Diseño de experimentos – p. 64/112


Contrastes

Entonces,
Pt Pt
i=1 ki ȳi. − i=1 ki µi
q Pt ∼ tg.l.error
CM E i=1 ki2 /ni

De aquí un intervalo del 100(1 − α)% de confianza para el


contraste C es:
v
u t
1−α/2
u X
Ĉ ± tg.l.error tCM E ki2 /ni
i=1

Diseño de experimentos – p. 65/112


Contrastes

Además,
Ĉ − C
q P ∼ N (0, 1)
t
σ 2 i=1 ki2 /ni
Pt
Si H0 : i=1 ki µi = 0, es decir, H0 : C = 0 es cierta, entonces,

Ĉ 2
Pt 2 /n
∼ χ21
σ 2 k
i=1 i i

Sea
Ĉ 2
SSc = Pt 2 /n
k
i=1 i i

entonces
Pt
SSc /σ 2 2
Ĉ / i=1 ki2 /ni
2
= ∼ F1,n−t
SSE/σ (n − t) CM E
α
Por lo tanto, para probar H0 : C = 0 se rechaza si Fc > F1,n−t

Diseño de experimentos – p. 66/112


Contrastes

El número de contrastes que se pueden hacer es muy grande,


sin embargo, esta técnica tiene su mayor utilidad cuando se
aplica a comparaciones planeadas antes de realizar el
experimento.

Una clase de contrastes, conocida como Contrastes


ortogonales (como son los del ejemplo anterior) tienen
propiedades especiales con respecto a la partición de sumas
de cuadrados y grados de libertad y con respecto a su relación
entre ellos. La ortogonalidad implica que un contraste no
aporta información acerca de otro.

Dos contrastes, con coeficientes {ki }, {li } son ortogonales si


t
X ki li
=0
i=1
ni

Diseño de experimentos – p. 67/112


Contrastes

Para t tratamientos existe un conjunto de t − 1 contrastes


ortogonales, los cuales hacen una partición de la suma de
cuadrados de tratamientos en t − 1 componentes
independientes, cada uno con 1 g.l. Por lo tanto las pruebas
realizadas con contrastes ortogonales son independientes.

En el ejemplo anterior, los contrastes son ortogonales.

k1 k2 k3 k4
C1 1 -1/3 -1/3 -1/3
C2 0 1 -1/2 -1/2
C3 0 0 1 -1

Diseño de experimentos – p. 68/112


ANOVA

La tabla de ANOVA incorporando las pruebas de hipótesis de


los 3 contrastes es:

F.V. g.l. SS CM F Pr > F


trat 3 32.8728 10.958 94.55 0.000
C1 1 10.01 10.01 86.29 0.000
C2 1 0.07 0.07 0.62 0.453
C3 1 22.82 22.82 196.94 0.000
error 8 0.9268 0.1159
total 11 33.7996

Se rechaza H0 : µ1 = µ2 = µ3 = µ4
Se rechaza H01 : µ1 = 31 (µ2 + µ3 + µ4 )
No se rechaza H02 : µ2 = 21 (µ3 + µ4 )
Se rechaza H03 : µ3 = µ4
2
Cˆ1 (2.11)2 4.4521
SSC1 = P4 = = = 10.01
1
ki2 12 +3(−1/3)2 0.4444
r i=1 3

Diseño de experimentos – p. 69/112


Otro ejemplo

En un experimento se van a comparar los % de carbohidratos


en cuatro marcas de pan, para lo cual se van a hacer 18
determinaciones: 5 en la marca A, 3 en la B, 4 en la C y 6 en
la D.

En este caso, cada marca de pan es un tratamiento (t = 4) y


se tienen n1 = 5, n2 = 3, n3 = 4, n4 = 6. Para obtener las
respuestas se tomarán muestras aleatorias de los tamaños ni
especificados de cada marca y se harán determinaciones de
los porcentajes mediante un procedimiento (hasta donde sea
posible) idéntico en las 18 u.e.

Note que en este ejemplo no estamos en libertad de asignar


las u.e. a los tratamientos, ya que las poblaciones (las 4
marcas) existen independientemente de la acción del
experimentador. No obstante lo anterior, basta que las
muestras aleatorias de las 4 poblaciones sean independientes
para que el análisis bajo el modelo que se propone sea válido.

Este es un estudio observacional, no experimental.


Diseño de experimentos – p. 70/112
Otro ejemplo

Tratamiento (marca)
A B C D
63 60 59 70
68 65 66 69
71 61 58 62
70 59 71
69 70
66
ni 5 3 4 6
yi. 341 186 242 408
ȳi. 68.2 62.0 60.5 68.0

Diseño de experimentos – p. 71/112


Otro ejemplo

Pruebe la hipótesis de igualdad de medias


H0 : µ1 = µ2 = µ3 = µ4 .

Conteste las siguientes preguntas:


■ Son diferentes en promedio los porcentajes de
carbohidratos en las marcas B y C?
■ Es diferente el porcentaje de carbohidratos de la marca A al
promedio de las marcas C y D?
■ Suponga que las marcas A y B están hechas con harina
integral y las marcas C y D con harina blanca. El promedio
del porcentaje de carbohidratos de las marcas A y B es igual
al promedio de C y D?

Hacerlo con SPSS, JMP, STATA

Diseño de experimentos – p. 72/112


Comparaciones múltiples

En muchas situaciones prácticas, se desea comparar pares de


medias. Podemos determinar cuáles medias difieren probando
las diferencias entre todos los pares de medias de
tratamientos.

Es decir, estamos interesados en contrastes de la forma


Γ = µi − µj ∀i 6= j
Lo primero que se nos viene a la mente es hacer una prueba t
para cada par de medias, es decir, probar
H0 : µi = µj
Ha : µi 6= µj ∀i 6= j

Diseño de experimentos – p. 73/112


Comparaciones múltiples

Si suponemos varianzas iguales, se tiene la estadística de


prueba
ȳi. − ȳj.
tc = q
sp n1i + n1j

y se rechaza H0 al nivel de significancia α si


α/2 1−α/2
tc ≤ tni +nj −2 ó tc ≥ tni +nj −2

Esto es equivalente a decir que se rechaza H0 si


|ȳi. − ȳj. | 1−α/2
|tc | = q > tni +nj −2
sp n1i + n1j

o equivalente a
s
1−α/2 1 1
|ȳi. − ȳj. | > tni +nj −2 sp +
ni nj

Diseño de experimentos – p. 74/112


Comparaciones múltiples

Esta prueba conocida como Diferencia Mínima Significativa


(DMS ó LSD) en el contexto de ANOVA, lo que hace es
comparar el valor absoluto de la diferencia de cada par de
medias con DMS:
Si s µ ¶
1−α/2 1 1
|ȳi. − ȳj. | > DM S = tglerror CM E +
ni nj
se rechaza H0 : µi = µj .

CM E es el cuadrado medio del error que es una estimación


ponderada de la varianza basada en t estimaciones de la
varianza.

El utilizar este procedimiento no es conveniente por que el


nivel de significancia global, es decir, para el conjunto de todas
las pruebas, resulta muy superior al nivel de significancia (α)
planeado.

Diseño de experimentos – p. 75/112


Comparaciones múltiples

Por ejemplo, si se tienen 4 medias de tratamientos, entonces


se tienen µ ¶
4 4!
= =6
2 2!2!
pares a comparar, es decir, 6 pruebas de hipótesis a realizar,
con lo que se pueden cometer 0, 1, 2, 3, 4, 5, ó 6 errores Tipo I,
si todas las medias son iguales.

Se define otra forma de error tipo I basado en los riesgos


acumulados asociados a la familia de pruebas bajo
consideración.

Este es el error tipo I del experimento αE que es el riesgo de


cometer el error tipo I al menos una vez.

La probabilidad de error tipo I del experimento puede


evaluarse para una familia de pruebas independientes.

Diseño de experimentos – p. 76/112


Comparaciones múltiples

Sin embargo, todas las pruebas a pares usando la DM S no


son independientes, puesto que el CM E es el mismo en cada
una de las estadísticas de prueba y el numerador contiene las
mismas medias en varias de las estadísticas de prueba.

Aún así, se puede evaluar el límite superior de la probabilidad


de error tipo I del experimento, suponiendo n pruebas
independientes.
¡t¢
Suponga que la H0 es cierta para cada una de las n = 2
pruebas y que son independientes.

Sea αc = P (error tipo I) en una sola prueba (comparación)


con (1 − αc ) = P (decisión correcta).

Diseño de experimentos – p. 77/112


Comparaciones múltiples

La probabilidad de cometer x errores tipo I está dada por la


distribución binomial como:
µ ¶
n x
P (X = x) = αc (1 − αc )n−x
x
n!
P (X = x) = αcx (1 − αc )n−x x = 0, 1, 2, . . . , n
(n − x)!x!

La probabilidad de no cometer ningún error tipo I es


P (X = 0) = (1 − αc )n

Diseño de experimentos – p. 78/112


Comparaciones múltiples

La probabilidad de cometer al menos 1 error tipo I es


P (X ≥ 1) = 1 − P (X = 0) = 1 − (1 − αc )n
es decir, la máxima probabilidad de cometer al menos un error
tipo I entre las n comparaciones es:
αE = 1 − (1 − αc )n de aquí
αc = 1 − (1 − αE )1/n

Diseño de experimentos – p. 79/112


Comparaciones múltiples

# de pruebas αE cuando αc cuando


indep. n αc = 0.05 αE = 0.05
1 0.05 0.05
2 0.098 0.025
3 0.143 0.017
4 0.185 0.013
5 0.226 0.010
10 0.401 0.005

Por el razonamiento anterior es que han surgido una serie de


pruebas de diferentes autores para hacer comparaciones
múltiples tratando de mantener la
P (error tipo I del experimento) = α

Diseño de experimentos – p. 80/112


Bonferroni

αE ≤ nαc
n comparaciones, la igualdad se dá cuando las pruebas son
independientes.

Entonces,
αc = αE /n
Si queremos αE = 0.05 entonces, αc = 0.05/n y se hacen las
pruebas t para los pares de medias con un nivel de
significancia αc en cada una de ellas.

Diseño de experimentos – p. 81/112


Tukey

Conocida como la prueba de la Diferencia Mínima Significativa


Honesta (DMSH)
r
α CM E
DM SH = qt,glerror si ni = r ∀i
r
s µ ¶
α CM E 1 1
DM SH = qt,glerror +
2 ni nj

Si |ȳi. − ȳj. | > DM SH se rechaza H0 : µi = µj .

qνα1 ,ν2 se obtiene de las "tablas de rangos estudentizados".

Diseño de experimentos – p. 82/112


Tukey

Para el ejemplo del empaque de carne:


Comercial Al vacío CO,O2,N CO2
ȳi. 7.48 5.50 7.26 3.36
S 2 = CM E = 0.116 con 8g.l. t = 4, r = 3
r
0.05 0.116
DM SH = q4,8 = (4.53)(0.197) = 0.891
3

|ȳ1. − ȳ2. | = 1.98∗∗


|ȳ1. − ȳ3. | = 0.22
|ȳ1. − ȳ4. | = 4.12∗∗
|ȳ2. − ȳ3. | = 1.76∗∗
|ȳ2. − ȳ4. | = 2.14∗∗
|ȳ3. − ȳ4. | = 3.90∗∗

Diseño de experimentos – p. 83/112


Student-Newman-Keuls (SNK)

Se calcula un conjunto de valores críticos


α
kp = qp,f Sȳi. p = 2, 3, . . . , t
α
donde qp,f es el percentil 1 − α de la distribución del rango
estudentizado para el número p de medias q involucradas en la
CM E
comparación y f g.l. del error, y Sȳi. = r

Para el ejemplo de la carne empacada:


p 2 3 4
.05
qp,8 3.26 4.04 4.53
kp 0.642 0.796 0.892

Diseño de experimentos – p. 84/112


Student-Newman-Keuls (SNK)

Comercial Al vacío CO,O2,N CO2


ȳi. 7.48 5.50 7.26 3.36

Medias ordenadas:
ȳ4. = 3.36 ȳ2. = 5.50 ȳ3. = 7.26 ȳ1. = 7.48

|ȳ4. − ȳ1. | = 4.12 > k4∗∗


|ȳ4. − ȳ3. | = 3.90 > k3∗∗
|ȳ4. − ȳ2. | = 2.14 > k2∗∗
|ȳ2. − ȳ1. | = 1.98 > k3∗∗
|ȳ2. − ȳ3. | = 1.76 > k2∗∗
|ȳ3. − ȳ1. | = 0.22 < K2 (N.S.)

Diseño de experimentos – p. 85/112


Duncan

Es similar a la de SNK. Los promedios de los t tratamientos se


ordenan en forma ascendente y el error estándar de cada
promedio se determina con
r
CM E
Sȳi. = si ni = r ∀i
r
Para muestras de diferente tamaño, se reemplaza la r por la
media armónica (nh ) de los {ni }
t
nh = P ³ ´
t 1
i=1 ni

Diseño de experimentos – p. 86/112


Duncan

De las tablas de Duncan de rangos significativos se obtienen


α
los valores de rp,f para p = 2, 3, . . . , t.
p es el número de medias involucradas en la comparación, α
es el nivel de significancia y f los grados de libertad del error.

Se calculan
α
Rp = rp,f Sȳi. p = 2, 3, . . . , t

Para el ejemplo de la carne empacada:


p 2 3 4
.05
rp,8 3.26 3.39 3.47
Rp 0.642 0.668 0.684

Diseño de experimentos – p. 87/112


Duncan

Comercial Al vacío CO,O2,N CO2


ȳi. 7.48 5.50 7.26 3.36

Medias ordenadas:
ȳ4. = 3.36 ȳ2. = 5.50 ȳ3. = 7.26 ȳ1. = 7.48

|ȳ4. − ȳ1. | = 4.12 > R4∗∗


|ȳ4. − ȳ3. | = 3.90 > R3∗∗
|ȳ4. − ȳ2. | = 2.14 > R2∗∗
|ȳ2. − ȳ1. | = 1.98 > R3∗∗
|ȳ2. − ȳ3. | = 1.76 > R2∗∗
|ȳ3. − ȳ1. | = 0.22 < R2 (N.S.)

Diseño de experimentos – p. 88/112


Dunnett

Para comparar las medias de los tratamientos con la media del


tratamiento control.
Suponga que el tratamiento t es el control, queremos probar
las hipótesis
H0 : µi = µt
Ha : µi 6 = µt i = 1, 2, . . . , t − 1

H0 : µi = µt se rechaza si r
CM E
|ȳi. − ȳt. | > D = dα (t − 1, glerror)
r
con dα (k, ν) es el percentil 1 − α de las tablas de Dunnett.
Para el ejemplo de la carne empacada, el tratamiento 1 es el
control.
Comercial Al vacío CO,O2,N CO2
ȳi. 7.48 5.50 7.26 3.36

Diseño de experimentos – p. 89/112


Dunnett

d0.05,3,8 = 2.42
Ãr !
CM E
D = 2.42 = 0.477
r

|ȳ2. − ȳ1. | = 1.98 > D∗∗


|ȳ3. − ȳ1. | = 0.22 < D(N.S.)
|ȳ4. − ȳ1. | = 4.12 > D∗∗

Diseño de experimentos – p. 90/112


Scheffé

Scheffé (1953) propuso un método para probar todos los


posibles contrastes.

Considere cualquier contraste


t
X t
X
C= ki µi estimado con Ĉ = ki ȳi.
i=1 i=1

con error estándar


v " t #
u
u X k2
i
SC = CM E
t
n
i=1 i

La hipótesis nula pra el contraste H0 : C = 0 se rechaza si


|C| > S(αE )
donde q
αE
S(αE ) = SC (t − 1)Ft−1,g.l.error
Diseño de experimentos – p. 91/112
Análisis de residuales

Tenemos el modelo
yij = µi + ǫij ó yij = µ + τi + ǫij
¡ 2
¢
ǫij ∼ N ID 0, σ
Suposiciones:
■ errores normales
■ independientes
■ varianza constante

La prueba F del análisis de varianza es robusta a falta de


normalidad.

Diseño de experimentos – p. 92/112


Análisis de residuales

Si los errores experimentales están correlacionados, el error


estándar estará mal estimado. La independencia se justifica
aleatorizando las u.e. a los tratamientos en experimentos y
seleccionando muestras aleatorias en estudios
observacionales.

Si no hay homogeneidad de varianzas el estimador de σ 2 es


malo, aunque se ha visto en estudios que si el diseño es
balanceado no efecta mucho. También si los tamaños de
muestra mayores corresponden a las poblaciones con mayor
varianza.

Diseño de experimentos – p. 93/112


Análisis de residuales, Normalidad

Residuales
eij = yij − ŷij
ŷij = µ\+ τi = µ̂i = ȳi.
eij = yij − ȳi.

■ Prueba no parámetrica ( Kolmogorov-Smirnov )


■ Histograma (muestras grandes)
■ gráfica en papel normal
■ análisis de residuales estandarizados para detectar outliers.
ǫ −0
Si ǫij ∼ N (0, σ 2 ) entonces ijσ ∼ N (0, 1). Sean
eij
dij = √CM E
, esperamos que:
68% de los residuales estandarizados estén entre -1 y 1
95 % estén entre -2 y 2
Virtualmente todos estén entre -3 y 3.

Diseño de experimentos – p. 94/112


Análisis de residuales, Homogeneidad de varianzas

Prueba de Bartlett
H0 : σ12 = σ22 = . . . = σt2
Ha : no H0

Estadística de Prueba:
" #
1 2
X
U= (n − t)ln(σ̂ ) − (ni − 1)ln(σ̂i2 )
C i
X (ni − 1)σ̂ 2 X (yij − ȳi. )2
2 i
donde σ̂ = = σ̂i2
i
n − t j
ni − 1
à !
1 X 1 1
C =1+ −
3(t − 1) i
ni − 1 n − t
H0 se rechaza si U > χ2α,t−1 (prueba sensible a falta de
normalidad)

Diseño de experimentos – p. 95/112


Análisis de residuales, Homogeneidad de varianzas

Prueba de Levene

Se calcula
dij = |yij − ỹi. | i = 1, . . . , t j = 1, . . . , ni
donde ỹi. es la mediana de las observaciones en el
tratamiento i.

Se evalúa si el promedio de estas observaciones dij es igual


para todos los tratamientos, es decir, se hace un ANOVA para
probar igualdad de medias de dij .

Diseño de experimentos – p. 96/112


Prueba de Welch

La prueba F usual es robusta ante heteroscedasticidad


(varianzas diferentes) si los tamaños de muestra son muy
parecidos o, si los tamaños de muestra más grandes
corresponden a las poblaciones con varianzas más grandes.

Sin embargo, se han construído algunas procedimientos de


prueba de igualdad de medias (H0 : µ1 = µ2 = . . . = µt ) como
por ejemplo el desarrollado por Welch, conocido como la
prueba de Welch.
2
P P
Sean Wi = ni /σ̂i ȳ = i Wi ȳi. / i Wi y

X (1 − Wi /W. )2
Λ=
i
ni − 1
P
donde W. = i Wi .

Diseño de experimentos – p. 97/112


Prueba de Welch

Entonces
P (ȳi. −ȳ ∗ )2
i Wi t−1
Fc =
1+ 2(t − 2)Λ/(t2 − 1)

tiene aproximadamente una distribución F con


ν1 = t − 1 y ν2 = (t2 − 1)/3Λ grados de libertad.

H0 : µ1 = µ2 = . . . = µt se rechaza al nivel de significancia α si


Fc > Fνα1 ,ν2 .

Diseño de experimentos – p. 98/112


Transformaciones

Se utilizan las transformaciones para cambiar la escala de las


observaciones para que se cumplan las suposiciones del
modelo lineal y dar inferencias válidas del análisis de varianza.

Cuando las transformaciones son necesarias, se hace el


análisis y se hacen las inferencias en la escala transformada
pero se presentan tablas de medias en la escala de medición
original.

1. Distribución Poisson. Mediciones que son conteos


(número de plantas en cierta área, insectos en plantas,
accidentes por unidad de tiempo) tienen distribución Poisson.

La transformación x = y + a, a ∈ ℜ es la adecuada.

Diseño de experimentos – p. 99/112


Transformaciones

2. Distribución binomial. Observaciones del número de


éxitos en n ensayos independientes tiene distribución binomial
(proporción de semillas germinadas, proporción de plantas
con flores en un transecto). π̂ = y/n

La transformación x = sin −1
π̂ es la adecuada.

Las transformaciones del tipo potencia alteran la simetría o


asimetría de las distribuciones de las observaciones.

Si suponemos que la desviación estándar de y es proporcional


a alguna potencia de la media, es decir,

σy ∝ µβ
Una transformación de las observaciones, del estilo:
x = yp

Diseño de experimentos – p. 100/112


Transformaciones

Da una relación
σx ∝ µp+β−1
Si p = 1 − β entonces la desviación estándar de la variable
transformada x será constante, ya que p + β − 1 = 0 y σx ∝ µ0 .

La transformación de Box-Cox
x = (y p − 1)/p p 6= 1

x = loge y p = 1
El estimador de p se encuentra maximizando
1
L(p) = − loge [CM E(p)]
2
donde CM E(p) es el cuadrado medio del error del análisis de
varianza usando la transformación x = (y p − 1)/p para el valor
dado p.

Diseño de experimentos – p. 101/112


Transformaciones

Se determina CM E(p) para un conjunto de valores de p, se


grafica CM E(p) vs. p y se toma el valor de p que corresponde
al valor mínimo de CM E(p).

JMP calcula la transformación de Box-Cox, da una gráfica de p


vs. CM E y da la opción de guardar los datos transformados
en el archivo.

La dificultad de utilizar esta transformación es la interpretación.

Diseño de experimentos – p. 102/112


Ejemplo

Los siguientes datos son el número de errores en un examen


de sujetos bajo la influencia de dos drogas. El grupo 1 es un
grupo control (sin droga), a los sujetos del grupo 2 se les dió la
droga 1, a los del grupo 3 la droga 2 y a los del grupo 4 las dos
drogas.
Grupo 1 Grupo 2 Grupo 3 Grupo 4
(sin droga) (droga 1) (droga 2) (dos drogas)
1 12 12 13
8 10 4 14
9 13 11 14
9 13 7 17
4 12 8 11
1 10 10 14
1 12 13
5 14

Diseño de experimentos – p. 103/112


Ejemplo

Correr el ejemplo con SPSS y JMP.

1. Probar homogeneidad de varianzas. (Bartlett y Levene)


2. Hacer prueba de Welch
3. Probar con algunas transformaciones, checando
normalidad y homogeneidad de varianzas

ej2_1_messy.sav
ej2_1_messy.jmp
ej2_1_messy.txt

Diseño de experimentos – p. 104/112


Relación entre Regresión y ANOVA

Cualquier modelo de ANOVA se puede escribir como un


modelo de regresión lineal.

Suponga el ejemplo de la carne empacada

tratamiento comercial vacío mezcla CO2


7.66 5.26 7.41 3.51
6.98 5.44 7.33 2.91
7.80 5.80 7.04 3.66

Un diseño completamente al azar con un solo factor (método


de empacado) con 4 niveles (4 tratamientos) y 3 repeticiones
en cada tratamiento (diseño balanceado).

Diseño de experimentos – p. 105/112


Relación entre Regresión y ANOVA

Modelo ANOVA completamente al azar un solo factor


balanceado:
(
i = 1, 2, 3, 4
yij = µi + ǫij = µ + τi + ǫij
j = 1, 2, 3

El modelo de regresión equivalente es:

(
i = 1, 2, 3, 4
yij = β0 + β1 x1j + β2 x2j + β3 x3j + ǫij
j = 1, 2, 3

Diseño de experimentos – p. 106/112


Relación entre Regresión y ANOVA

Donde las variables x1j , x2j , x3j están definidas como:

(
1 si la observación j es del tratamiento 1
x1j =
0 en otro caso
(
1 si la observación j es del tratamiento 2
x2j =
0 en otro caso
(
1 si la observación j es del tratamiento 3
x3j =
0 en otro caso

Diseño de experimentos – p. 107/112


Relación entre Regresión y ANOVA

La relación entre los parámetros del modelo ANOVA y el


modelo de regresión es:

Si la observación viene del tratamiento 1, entonces


x1j = 1, x2j = 0, x3j = 0 y el modelo de regresión es
y1j = β0 + β1 (1) + β2 (0) + β3 (0) + ǫ1j
= β0 + β1 + ǫ1j

y el modelo ANOVA es:


y1j = µ1 + ǫ1j = µ + τ1 + ǫ1j
Por lo tanto:
β0 + β1 = µ1 = µ + τ1

Diseño de experimentos – p. 108/112


Relación entre Regresión y ANOVA

Similarmente, para las observaciones del tratamiento 2


y2j = β0 + β1 (0) + β2 (1) + β3 (0) + ǫ2j
= β0 + β2 + ǫ2j

y la relación entre los parámetros es:


βo + β2 = µ2 = µ + τ2
Lo mismo para las observaciones del tratamiento 3
y3j = β0 + β1 (0) + β2 (0) + β3 (1) + ǫ3j
= β0 + β3 + ǫ3j

y la relación entre los parámetros es:


βo + β3 = µ3 = µ + τ3

Diseño de experimentos – p. 109/112


Relación entre Regresión y ANOVA

Finalmente, considere las observaciones del tratamiento 4,


para las cuales el modelo de regresión es:
y4j = β0 + β1 (0) + β2 (0) + β3 (0) + ǫ4j
= β0 + ǫ4j
entonces β0 = µ4 = µ + τ4

Por lo tanto,
β0 = µ4
β1 = µ1 − µ4
β2 = µ2 − µ4
β3 = µ3 − µ4

Diseño de experimentos – p. 110/112


Relación entre Regresión y ANOVA

Entonces, para probar la hipótesis H0 : µ1 = µ2 = µ3 = µ4


tendríamos que probar H0 : β1 = β2 = β3 = 0, lo cual se puede
hacer con cualquier paquete de cómputo estadístico.
Para el ejemplo de la carne empacada:
tratamiento y x1 x2 x3
1 7.66 1 0 0
1 6.98 1 0 0
1 7.80 1 0 0
2 5.26 0 1 0
2 5.44 0 1 0
2 5.80 0 1 0
3 7.41 0 0 1
3 7.33 0 0 1
3 7.04 0 0 1
4 3.51 0 0 0
4 2.91 0 0 0
4 3.66 0 0 0
Diseño de experimentos – p. 111/112
Relación entre Regresión y ANOVA

Si pedimos una regresión y = β0 + β1 x1 + β2 x2 + β3 x3 + ǫ y


pedimos una tabla de análisis de varianza del modelo
yij = µ + τi + ǫij las dos tablas ANOVA son idénticas.

Diseño de experimentos – p. 112/112

También podría gustarte