P. 1
Diseño de Experimentos

Diseño de Experimentos

4.5

|Views: 35.108|Likes:
Publicado porGRESIQ

More info:

Published by: GRESIQ on Oct 01, 2009
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as PDF, TXT or read online from Scribd
See more
See less

10/07/2015

pdf

text

original

La selecci´on de los tratamientos o niveles del factor determina el procedimiento
que debe usarse en el an´alisis. El modelo I es apropiado cuando los tratamientos
son fijos o el experimentador los elige debido a su importancia, disponibilidad
o comodidad en el manejo. Por ejemplo, tratamientos m´edicos, variedades de
plantas, concentraciones,lugares y tiempos. En este modelo los par´ametros son
generalmente las medias de los tratamientos y el objetivo es la comparaci´on y
estimaci´on de estos promedios. En el modelo II, los niveles del factor son una
poblaci´on de la cual se toma una muestra al azar, por ejemplo, animales de
una especie dada, hojas de una planta, sitios de un lago, personas sanas con
otra caracter´ıstica definida. Cada individuo seleccionado en la muestra origina
una o varias lecturas de la variable respuesta ya sea en d´ıas diferentes u otra
situaci´on que permita observar la variabilidad de la caracter´ıstica en el mismo
individuo. Los par´ametros de inter´es en este modelo son las varianzas y el obje-
tivo primordial es estimar sus magnitudes absolutas y relativas. El ANOVA, en
este modelo, permite inferir sobre la existencia de una componente de varianza
atribuible al factor en estudio y en este sentido se tiene lo que ser´ıa el verdadero
an´alisis de varianza. El paso siguiente es la estimaci´on de los componentes de la
varianza total para una observaci´on cualquiera.

El modelo estad´ıstico para un DCA (un factor y efectos aleatorios) tiene la
forma:

yij = µ+Ai + ij; i = 1,2,...,t;j = 1,2,...,ri

(5.10)

La diferencia con respecto al modelo de efectos fijos est´a en el segundo t´ermi-
no. Aqu´ı los efectos Ai son variables aleatorias, mientras que en el modelo I
los efectos αi son par´ametros. Para analizar este dise˜no deben introducirse las
siguientes restricciones:

i. Los efectos Ai son variables aleatorias independientes con distribuci´on
normal N(0,σ2

A).

ii. Los errores ij son variables aleatorias independientes con distribuci´on
normal N(0,σ2

e).

iii. Ai y ij son variables aleatorias independientes entre s´ı.

La tabla ANOVA es la misma para ambos modelos, tanto los c´alculos de las
sumas de cuadrados como la prueba F de significancia son igualmente v´alidos
para el modelo II.

Las hip´otesis del ANOVA para el modelo II son de la forma:

H0 : σ2

A = 0 (No hay variabilidad entre los niveles del factor A).

146

5.5. MODELO DE COMPONENTES DE VARIANZA

H1 : σ2

A > 0 (La variabilidad entre los niveles es significativa).

En la tabla 5.8 se presenta el an´alisis de varianza asociada al modelo lineal pro-
puesto en 5.10.

Causa de Variaci´on gl SC CM

E(CM) F

Factor A

t−1 SCA CMA σ2

+r0σ2

A

CMA
CME

Error

n−t SCE CME σ2

Total

SCT n−1

Tabla 5.8. Tabla ANOVA a una v´ıa para efectos aleatorios.

con r0 =

n−

t
i=1

r2
i
n

t−1 .

Si F > F(v1,v2,α), se rechaza H0. La regla de decisi´on es la misma del modelo
I pero la interpretaci´on es diferente. Los datos del modelo II provienen de un
dise˜no distinto, el objetivo es estimar varianzas y no medias, adem´as el espacio
inferencial es m´as amplio para el modelo II. Entonces, aunque el ANOVA sea
el mismo, las conclusiones son diferentes puesto que los dise˜nos experimentales
van a cumplir objetivos en esencia diferentes.

Los estimadores del an´alisis de varianza para determinar las componentes σ2

e y

σ2

A, son:

ˆσ2

e = CME

y

ˆσ2

A = CMA−CME
r0

Si los supuestos del modelo II, como se ver´an en el cap´ıtulo 6, se satisfacen, la
varianza de cada observaci´on yij puede expresarse mediante dos componentes
dadas por los t´erminos de la suma σ2

y = σ2

A +σ2

e.

Ejemplo 5.5. Un estudio de gen´etica con reses consisti´o en seleccionar alea-
toriamente varios machos apareados con grupos separados de hembras. Cuando
nac´ıan los terneros, se utilizaban las mediciones de los pesos iniciales como me-
dida en un estudio de pesos hereditarios. En la tabla 5.9 se presentan los pesos
al nacer de los terneros de cada uno de cinco grupos de apareamiento.

Como los cinco toros fueron seleccionados aleatoriamente de un n´umero grande
de posibles padres, los datos se analizan mediante un ANOVA modelo II. La
hip´otesis de inter´es es:

147

CAP´

ITULO 5. DISE˜

NOS COMPLETAMENTE ALEATORIZADOS Y TAMA˜

NO DE MUESTRA

N´umero del macho elegido
Replicaci´on 85 113 134 158 165
1

61 75 58 57 59

2

71 102 60 121 46

3

56 95 59 56 120

4

75 103 65 58 115

5

99 98 54 101 93

6

80 115 57 110 105

7

75

67 75

8

62

115

Tabla 5.9. Pesos de los terneros al nacer en una evaluaci´on gen´etica.

H0 : σ2

A = 0 ( no hay variabilidad entre padres)

Ha : σ2

A > 0 ( la variabilidad entre padres es significativa)

En esta investigaci´on no se consideran los promedios por padre (cada toro es un
tratamiento) puesto que los cinco toros del experimento no son los ´unicos que
interesan; el objetivo se centra en la variabilidad poblacional de los padres. El
factor de estudio es la paternidad (influencia hereditaria) que se expresa en el
peso de los terneros hijos, aqu´ı cada ternero es una unidad experimental, pero
en otros estudios cada animal podr´ıa generar varias unidades experimentales
correspondientes a lecturas o mediciones en tiempos diferentes. El animal, para
este ejemplo, es el toro el cual produce las unidades experimentales que son los
terneros hijos.

La tabla del ANOVA se construye en la misma forma que para el modelo I y los
resultados se dan en la tabla 5.10.

Causa de Variaci´on gl SC

CM

F

P

Entre toros

4 6070,32024 1517,58006 3,65 0,0155

Error

30 12486,42262 416,21409

Total

34 18556,74286

Tabla 5.10. Tabla del ANOVA para los datos del ejemplo 5.5.

El valor tabulado F(4;30;0,05) = 2,68 es menor que el cociente F de la tabla
5.10 lo que permite concluir que la variabilidad entre padres es significativa es-
tad´ısticamente. A partir de este resultado es interesante conocer que parte de la
variabilidad en las unidades experimentales es asignable a los padres (
σ2

A) y que

parte es atribuible al error experimental (σ2

e). Es obvio que no tendr´ıa sentido
diferenciar estas variabilidades si la conclusi´on del ANOVA hubiese dado a fa-
vor de la hip´otesis nula.

148

5.5. MODELO DE COMPONENTES DE VARIANZA

En el modelo se tienen tres par´ametros (µ,σ2

A,σ2

). La estimaci´on de las com-

ponentes de varianza se obtiene a partir de las medias cuadr´aticas, as´ı:

ˆσ2

e = CME = 416,21409

y

ˆσ2

e +r0ˆσ2

A = CMA

donde,

r0 =

35− (82

+62

+62

+72

+82
)

35

4

= 6,97

luego,

ˆσ2

A = (CMA−CME)
r0

= (1517,58006−416,21409)
6,97

= 158,015

ˆσ2

y = 416,21409 + 158,015 = 574,22909

Normalmente estas estimaciones no dan una informaci´on f´acilmente interpreta-
ble. Por esto, lo usual es expresar los resultados como porcentajes de la variaci´on
total. En este caso se considera el cociente

rI = ˆσ2

A

ˆσ2

y

= 158,015
574,22909 = 0,2751

mide la proporci´on de la variabilidad total que es atribuible a la variabilidad del
factor, en este caso a la variabilidad entre padres. En porcentaje, esta variabi-
lidad es el 27,51%; el otro 72.49% es la variabilidad entre terneros del mismo
padre.

El cociente rI se conoce como coeficiente de correlaci´on intraclase y es una
medida de la semejanza de los individuos dentro de un mismo grupo. Este coe-
ficiente varia entre 0 y 1 y entre m´as grande sea su valor mayor es la similitud
entre los elementos de cada grupo. La significancia de la correlaci´on intraclase
est´a ligada directamente a la prueba
F del ANOVA. En efecto, si se rechaza H0
se concluye que la variabilidad debida a padres es alta y que variabilidad restante
debida a otras causas como el ambiente, es baja, lo que lleva a la similitud entre
las observaciones por grupo.

149

CAP´

ITULO 5. DISE˜

NOS COMPLETAMENTE ALEATORIZADOS Y TAMA˜

NO DE MUESTRA

Tiene sentido hablar de la correlaci´on intraclase porque en el modelo II, a di-
ferencia del modelo I, las observaciones
yij en un mismo grupo pueden ser es-
tad´ısticamente dependientes.

Otra diferencia del modelo de componentes de varianza con respecto al modelo
de efectos fijos se da en el valor esperado
µ que es igual para todas las observa-
ciones. Esta media
µ se estima puntualmente mediante ¯y.. = 2818

35 = 80,51 Kg,

y por intervalos con la expresi´on ¯y.. ±t(t−1;α

2 )

CMA
n .

Para una confiabilidad del 95%, este intervalo ser´a: 80,51 ± 3,49

1517,58006
35 ,

es decir, (80,51±22,98) Kg.

Para los genetistas tiene importancia el concepto de heredabilidad. El´ındice de
heredabilidad se estima mediante ˆ

h2

= 4rI y es una medida del grado de influen-
cia gen´etica que puede recibir un genotipo. Para el ejemplo, la estimaci´on del
coeficiente de heredabilidad dio 1,10, un valor demasiado alto pero explicable
por la gran variabilidad de ˆσ2

A como se ve a continuaci´on.

La distribuci´on de ˆσ2

A es sesgada y muy variable, por lo tanto, los intervalos

de confianza para σ2

A son aproximados. Estos se han derivado para al caso de
grupos iguales, pero pueden extenderse, agregando otra aproximaci´on, a grupos
desiguales con r0 en vez de r. Uno de los intervalos, propuestos por Moriguti
(1954)
, citado por Gill (1976) tiene los siguientes l´ımites:

Limite inferior = CME

r0 [ F
F∞

−1 + Fν

F (1− Fν
F∞

)]

Limite superior = CME

r0 [FF ∞ −1 + 1

FF ∞

(1− F


F ν

)]

donde Fν = F(ν1;ν2;α

2 ), F ν = F(ν2;ν1;α

2 ), F = CMA

CME, F∞ = F(ν1;∞;α

2 ) y F ∞ =

F(∞;ν1;α

2 ) con ν1 = t−1 y ν2 = n−t.

Algunas estimaciones de σ2

A pueden resultar negativas (cuando CMA < CME,
por ejemplo) siendo las causas principales la variaci´on muestral de las medias
cuadr´aticas, la falta de aleatorizaci´on entre tratamientos y la correlaci´on ne-
gativa de los errores experimentales dentro de alg´un grupo, Gill (1978). En el
caso de obtener una estimaci´on de componente de varianza negativo, se debe
reajustar el modelo removiendo el coeficiente asociado a la estimaci´on negativa
Brown y Prescott (1999).

Un intervalo de confianza para al coeficiente de correlaci´on intraclase poblacional
ρI puede calcularse como:

I

I + 1 ≤ ρI ≤ S

S + 1

donde I = 1

t

F
F(ν

1;ν

2;α
2 )

−1

y S = 1

t

F
F(ν

1,ν

2;1−α
2 )

−1

.

150

5.6. AN´

ALISIS DE UN DCA A TRAV´

ES DE PRUEBAS DE LOCALIZACI´

ON NO

PARAM´

ETRICAS

Ejemplo 5.6. Retomando los datos del ejemplo 5.5, un intervalo de confianza
del 95% para
σ2

A tendr´a:

LIC = 59,715[ 3,65

1,3463 −1 + 1,4244

3,65 (1− 1,4244
1,3464)]

= 100,83

LSC = 59,715

(3,65)(2,0805)−1 +

1
(3,65)(2,0805)

1− 2,0805
2,082

= 393,7564

El intervalo ser´a 100,83 ≤ σ2

A ≤ 393,7564 que resulta demasiado amplio si se
observa que el limite superior es casi 2,5 veces la estimaci´on puntual de 158,015
obtenida anteriormente. Una de las razones que explican la poca precisi´on en la
estimaci´on de
σ2

A es el tama˜no tan reducido de la muestra analizada.

Para α =0.05, ν1 = 4, ν2 = 30, se tiene F(4;30;0,025) = 3,24 y F(4;30;0,975) =

0,1181. Luego, I = 1
5

3,65
3,24 −1

= 0,0253 y S = 1
5

3,65
0,1181 −1

= 5,9812.
Entonces el intervalo para el coeficiente de correlaci´on es
0,0246 ≤ ρI ≤ 0,8567.
Se observa, la imprecisi´on de este intervalo, explicable por su dependencia de
las componentes de varianza muestrales.

5.6. An´alisis de un DCA a trav´es de pruebas de

localizaci´on no param´etricas

Se trata ahora de extender el problema de localizaci´on estudiado en el cap´ıtulo
2 para una y dos muestras al caso de t muestras independientes.

Se trabaja bajo una estructura de dise˜no a una v´ıa de clasificaci´on para este
tipo de datos. Mediante las t muestras se quiere verificar la hip´otesis que los
datos provienen de una misma poblaci´on (la media no difiere significativamente).

Una situaci´on experimental, para este caso, es aquella donde t muestras aleato-
rias han sido obtenidas desde t poblaciones, posiblemente diferentes. Se quiere
verificar la hip´otesis que todas las poblaciones son id´enticas frente a la alterna-
tiva que algunas poblaciones tienden a poseer valores m´as grandes (o peque˜nos)
que otras.

En esta secci´on se presta especial atenci´on la prueba de Kruskal-Wallis, junto
con una prueba de comparaciones m´ultiples para ayudar a identificar las pobla-
ciones que tienen caracter´ısticas diferentes.

You're Reading a Free Preview

Descarga
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->