Está en la página 1de 14

DISEÑO DE EXPERIMENTOS

Para el ingeniero de proceso, el investigador o el científico es común encontrarse en su cotidianidad


laboral con el reto de resolver problemas, buscar alternativas novedosas o interpretar fenómenos que
incidan de manera positiva en un proceso industrial, mejoren la calidad de vida de la sociedad o
individual y que impliquen satisfacer necesidades individuales, grupales o sociales. Para ello se requiere
realizar observaciones, planificar y experimentar a fin de obtener conclusiones válidas y útiles. Gran
parte de nuestra vida la pasamos experimentando, especialmente en las etapas tempranas de nuestra
vida que es cuando con mayor ahínco nos dedicamos a experimentar y este aprendizaje forma parte
sustancial de la estructura y cimientos de la vida adulta. En el terreno formal de la experimentación,
podemos pensar en el ingeniero responsable del área de calidad que requiere realizar innovación y
optimización de los procesos a su cargo con el propósito de mantener o incrementar la satisfacción del
cliente con sus productos, o el investigador que permanentemente busca desarrollar nuevas
metodologías o descubrimientos en el campo de estudio de su especialidad, por ejemplo, el médico que
busca obtener una vacuna más efectiva para determinada enfermedad viral, o quien desarrolla nuevas
tecnologías para producir aleaciones de mayor durabilidad y resistencia.

La diferencia entre el experimentador empírico, por ejemplo, un niño que comienza a descubrir el
mundo que lo rodea, y el experimentador profesional, radica en la metodología utilizada para obtener
un resultado esperado y sus conclusiones asociadas, y la eficiencia de dicha metodología. Mientras que
el niño o el “investigador” por intuición se guían por el método universal de prueba y error, el cual por
cierto, es muy socorrido, el profesional dispone de toda una serie de herramientas probadas y eficientes
para desarrollar su trabajo. Una parte básica de estas herramientas son las que se pretende aportar al
estudiante de este curso para que pueda abordar y enfrentar los problemas que en su trabajo se
encontrará y de quien se espera lleve a feliz término. La experimentación tiene una particularidad, si
queremos que las pruebas sean válidas y confiables, entonces debemos diseñar el experimento para
hacerlas reproducibles y robustas y utilizar una metodología válida para su análisis.

Diversos autores y especialistas convergen en que para el logro de los objetivos del diseño de
experimentos existen una serie de principios fundamentales a seguir. Diseñar un experimento, como su
nombre lo indica, es un proceso de planificación estructurada de manera que la información
experimental recolectada pueda ser analizada estadísticamente y que sus conclusiones sean válidas y
confiables. Existen dos pasos principales aquí, la recolección de los datos experimentales y el proceso de
análisis. Este último debe hacerse por medio de la estadística por la sencilla razón de que todo método
experimental está sujeto al error aleatorio y al error experimental, factores intrínsecos a la
experimentación. Los tres principios básicos del diseño de experimentos son a saber: replicación,
aleatorización y bloqueo.

1
1. Replicación. Es simplemente la repetición de la medición de una condición experimental. La
replicación permite estimar el error aleatorio al medir repetidamente una condición dada. Cuando un
estudiante poco avezado tiene que realizar prácticas de laboratorio, por ejemplo, de química analítica,
para descubrir qué sustancias componen ciertas mezclas, puede estar tentado a realizar solo una
observación y reportar varias réplicas con exactamente el mismo valor en todas ellas con el fin de hacer
creer al profesor que fue muy preciso en sus mediciones. Esto sólo demuestra que, o hizo trampa y no
tiene idea de que la replicación no produce resultados idénticos nunca, o que sus instrumentos de
medición no tienen la sensibilidad adecuada. Por ejemplo, supongamos que estamos jugando al tiro al
blanco y lanzamos dardos hacia una diana de 40 cm de diámetro marcada con círculos concéntricos
localizada a determinada distancia. Si lanzamos un solo dardo y acertamos el centro de la diana,
¿significará entonces que las demás repeticiones serán en el mismo lugar? Sabemos por experiencia que
eso no es así. Si continuamos replicando la observación podremos obtener un valor promedio de la
distancia entre el centro de la diana y el lugar donde acertamos. Habrá individuos que tendrán menor
control sobre sus músculos que otros y los valores obtenidos para diferentes personas pueden ser
significativamente diferentes. La replicación entonces indica una estimación de la variación por el error
experimental bajo las mismas condiciones. Si la diana es ahora de 10 m de diámetro y el centro de la
misma es de 1m de diámetro, probablemente nuestro promedio de aciertos al centro estaría muy
cercano al cien por ciento para muchas o pocas réplicas. Esto ilustra el efecto de la sensibilidad de la
medición.

Como regla general de cualquier experimento, si el resultado de una misma prueba se repite
exactamente casi todas las veces, entonces debemos sospechar que algo se está haciendo mal. Si ocurre
todas las veces, definitivamente el experimento no sirve y hay que buscar qué es lo que está mal.

2. Aleatorización. Puede considerarse como uno de los factores clave en el diseño experimental.
Significa que tanto los materiales como el orden en el que se realizan las pruebas o mediciones
experimentales deben realizarse en orden aleatorio. Esto evitará la “contaminación” del experimento
debido a factores externos que pudieran estar presentes. Adicionalmente, las pruebas de análisis
estadístico se basan en que las muestras y poblaciones bajo estudio se encuentren aleatoriamente
distribuidas. Volviendo al ejemplo anterior, si una persona se encuentra muy nerviosa al principio, y
además es la primera en probar suerte con los dardos, probablemente esta situación le afecte en su
desempeño. Si, por el contrario, hace dos lanzamientos y luego otra persona toma su lugar, y otra, hasta
que le corresponda un nuevo turno, esto seguramente le ayudará a mejorar sus lanzamientos y su
promedio será distinto al que obtendría bajo el factor de los nervios al inicio.

3. Bloqueo. Se emplea para aumentar la precisión de un experimento y un bloque se define como una
parte del material sujeto a experimentación que debe ser aún más homogéneo que el resto e involucra
realizar comparaciones entre las condiciones de interés del experimento con cada bloque.

2
Una vez reconociendo lo anterior, el procedimiento para conducir un experimento puede resumirse en
los siguientes puntos:

1. Reconocer y establecer el problema a resolver


2. Seleccionar los factores a estudiar y el número y magnitud de los niveles de estos.
3. Seleccionar la variable de respuesta apropiada.
4. Escoger el diseño experimental más adecuado.
5. Realizar las pruebas experimentales
6. Análisis estadístico de datos.
7. Obtención de conclusiones y recomendaciones.

Una vez concluidas estas etapas, en muchas ocasiones se requiere volver los pasos atrás y volver a
plantear un nuevo arreglo experimental cuyos fines pueden ser de tipo exploratorio, de confirmación o
de optimización. En general, se regresa al paso 2 para de allí replantear un nuevo experimento. Esto,
claramente depende de las características muy particulares de los objetivos del experimento, los costos,
tiempo y recursos disponibles por el experimentador.

3
1. ANÁLISIS DE EXPERIMENTOS.

1.1 UN SOLO FACTOR

Ejemplo 1.1. Supóngase que los valores de dureza mecánica de una pieza manufacturada fue medida en
forma aleatoria para cuatro diferentes proveedores A, B, C y D como se muestra en la tabla 1.1.

Tabla 1.1 Datos para el ejemplo 1.1


Proveedor
A B C D
56 64 45 42
55 61 46 39
62 50 45 45
59 55 39 43
60 56 43 41
T.j = total 292 286 218 210 T.. = 1006
y.j = Media 58.4 57.2 43.6 42

En este caso se tienen a = 4 tratamientos o factores, n = 5 réplicas o lecturas por factor haciendo un
total de N = 20 lecturas. La notación aquí utilizada es la siguiente: Yij es la lectura i para el tratamiento j.
Donde i = 1, 2, .. n; y j = 1, 2, a.
Asimismo:
∑𝑛𝑖=1 𝑦𝑖𝑗
𝑦̅.𝑗 =
𝑛
𝑛

𝑇.𝑗 = ∑ 𝑦𝑖𝑗
𝑖=1
Gran total
𝑛 𝑎

𝑇. . = ∑ ∑ 𝑦𝑖𝑗
𝑖=1 𝑗=1
Gran promedio:
𝑦̅. . = 𝑇. ./𝑁

El modelo entonces que debe probarse es:


𝑦𝑖𝑗 = 𝜇 + 𝜏𝑗 + 𝜖𝑖𝑗

donde 𝜏𝑗 es el efecto del factor, 𝜇 es la media, y 𝜖𝑖𝑗 es el efecto del error aleatorio. Puede plantearse
entonces la prueba de hipótesis:
𝐻0 : 𝜏𝑗 = 0; 𝑗 = 1, 2 … , 𝑎
𝐻1 : 𝜏𝑗 ≠ 0; 𝑝𝑎𝑟𝑎 𝑎𝑙 𝑚𝑒𝑛𝑜𝑠 𝑢𝑛𝑎 𝑗

4
Para el caso de la prueba de hipótesis de un solo factor se sabe que la suma de cuadrados de la variación
puede descomponerse como SST = SStr + SSe donde SST es la suma de cuadrados total; SStr, la suma
de cuadrados de los tratamientos o factores; y SSe, la suma de cuadrados del error aleatorio.
Simplificando y puesto en notación de índices y puntos se obtiene:

2 𝑇. .2
𝑆𝑆𝑇 = ∑ ∑ 𝑦𝑖𝑗 −
𝑁

Además, se definen la media de cuadrados de los tratamientos y del error, respectivamente, como:

𝑆𝑆𝑡𝑟
𝑀𝑆𝑡𝑟 =
𝑎−1

𝑆𝑆𝑒
𝑀𝑆𝑒 =
𝑁−𝑎
y la relación
𝑀𝑆𝑡𝑟
𝐹𝑒𝑥𝑝 =
𝑀𝑆𝑒

define el criterio de comparación con la prueba estadística F para𝐹𝛼,𝑎−1,𝑁−𝑎 . Si Fexp > 𝐹𝛼,𝑎−1,𝑁−𝑎
rechazamos H0. Como regla heurística se aplica también el criterio de que cuando Fexp > 2 también se
rechaza la hipótesis nula H0. En general, una tabla ANOVA para un factor tiene la siguiente forma como
se muestra en la Tabla 1.2.

Tabla 1.2. ANOVA para un solo factor


SS g.l. MS Fexp
Factor o tratamiento SStr a-1 MStr
MStr/MSE
Error SSE N-a MSE
Total SST N-1

Para este ejemplo la suma de cuadrados total es:

SST = 562 + 552 + … + 412 - 10062 /20= 1338.2 con 19 grados de libertad.

SStr = 2922/5 + 2862/5 + 2182/5 + 2102/5 – 10062/20 = 1135 con 3 grados de libertad.

Ahora ya se puede construir una tabla ANOVA

5
SS g.l. MS Fexp
Factor o tratamiento 1135 3 378.3
29.8
Error 203.2 16 12.7
Total 1338.2 19

Se compara ahora la Fexp contra F0.05,3,16 = 3.24. Como 28.4 > 3.24 entonces se rechaza la hipótesis H0. No
todos los proveedores son iguales.

Ejemplo 1.2 Veamos otro caso en el cual se desea analizar cómo sería el comportamiento de lanzar un
par de dados buscando que la suma de los puntos sea el número más alto posible. Evidentemente los
dados no se han alterado de ninguna forma de manera que no puede decirse que estén propensos a
caer de determinada manera las más de las veces. Se selecciona al azar de entre un grupo de personas
adultas a seis de ellas para que lancen los dados diez veces cada una y se anotan los resultados como se
indica en la siguiente tabla. No existen restricciones en cuanto a la forma de lanzamiento o de cualquier
otra índole, sólo deben buscar el mayor puntaje.

Guillermo Mayra René Lars Alma Marco


6 7 9 5 4 11
3 7 6 7 12 7
6 2 7 7 4 5
7 9 7 5 8 8
9 5 4 6 10 4
8 6 8 5 9 10
6 9 6 10 5 8
5 6 4 9 8 9
9 8 7 10 5 8
6 12 7 5 8 3
T.j 65 71 65 69 73 73 T.. = 416
Y.j 6.5 7.1 6.5 6.9 7.3 7.3

Aplicando el procedimiento del ejemplo 1.1 obtenemos que:


a = 6 tratamientos
N = 60 datos, por lo tanto,

SST = 62 + 72 + 92 + 52 + 42 + 112 + 32 + … 32 – 4162/60 = 289.7 con 59 grados de libertad


SSTr = (652 + 712 +652 + 692 + 732 + 732)/10 – 4162/60 = 6.7 con 5 grados de libertad
SSe = 283.0 con 54 grados de libertad.

Entonces, la tabla ANOVA para los datos de este experimento es la siguiente:

6
Factor SST g.l MS Fexp F0.05,5,54
Tratamientos 6.7 5 1.35 0.26 2.31
Error 283.0 54 5.24
Total 289.7 59 4.91

Por lo tanto, se concluye que todas las medias son iguales.


Este ejemplo ilustra el comportamiento típico de un fenómeno en el cual no existe efecto del
tratamiento debido a que el resultado es totalmente aleatorio. Es similar al obtenido cuando se tira una
moneda de dos caras, no existirá una preferencia por una de ellas en particular ni se verá afectada por
quién la lance, en un número grande de lanzamientos los resultados serán siempre distribuidos
uniformemente.

Ejemplo 1.3 Ahora cambiemos un poco la naturaleza del experimento. En esta ocasión se lanza una
moneda hacia una diana circular colocada en posición horizontal en la cual están marcados diez círculos
concéntricos. A cada una de estas bandas concéntricas se les asigna un valor decreciente conforme se
alejan del centro. El objetivo es tratar de acertar con el lanzamiento de la moneda de forma que caiga
en el centro con lo que se obtiene el mayor puntaje que es 10 y la menor puntuación es 1 en el círculo
exterior. Si la moneda sale de la diana se toma como un valor de cero. Se seleccionan 5 personas al azar
quienes toman tres tiros de prueba antes de comenzar a registrar los lanzamientos. Cada uno hace seis
lanzamientos y se contabilizan todos los puntos acumulados. Se desea conocer si alguno de los
participantes es más hábil en lanzar la moneda a la diana pues aquí se deben considerar la coordinación
y la habilidad motriz. Los resultados se muestran en la tabla abajo.

Mayra Manuel Alma Ramsés Lars


0 0 7 7 4
0 0 0 2 9
0 0 0 0 0
4 3 7 0 7
0 0 0 0 0
5 2 1 0 7
T.j 9 5 15 9 27 T.. = 65
Y.j 1.5 0.8 2.5 1.5 4.5

Aplicando el procedimiento del ejemplo anterior obtenemos la tabla ANOVA correspondiente:

Factor SST g.l MS Fexp F0.05,5,54


Tratamientos 49.3 4 12.33 1.46 2.76
Error 210.8 25 8.43
Total 260.2 29 8.97

7
Por lo que se concluye que todos los tratamientos son iguales. Sin embargo, puede observarse que si el
tratamiento Lars hubiese acertado un solo lanzamiento más con un valor igual o mayor a 6 habría
resultado estadísticamente diferente al resto de sus compañeros. Esto nos indica que este tipo de
fenómeno no es totalmente aleatorio sino que sí puede haber diferencia significativa en caso de mostrar
un efecto sobre la variable de respuesta.

1.2 EL CASO DESBALANCEADO.

Ejemplo 1.4. Suponga que los tratamientos no tuvieron la misma cantidad de réplicas o que algunas se
perdieron y el experimento quedó desbalanceado, es decir, no se completaron el mismo número de
observaciones para cada tratamiento o factor. ¿Cómo se trata este caso? La respuesta es relativamente
sencilla, supóngase que el experimento anterior se perdieron las últimas dos observaciones de los
tratamientos A y B como se indica en la tabla 1.4.

Tabla 1.3. Datos para el ejemplo 1.2


Proveedor
A B C D
56 64 45 42
55 61 46 39
62 50 45 45
39 43
43 41
T.j = total 173 175 218 210 T.. = 776
y.j = Media 57.6 58.33 43.6 42

En este caso la suma de cuadrados total es:

SST = 562 + 552 + … + 412 - 7762 /16= 1062 con 15 grados de libertad.

SStr = 1732/3 + 1752/3 + 2182/5 + 2102/5 – 7762/16 = 873.5 con 3 grados de libertad.

SS g.l. MS Fexp
Factor o tratamiento 873 3 291.2
18.5
Error 189 12 15.7
Total 1062 15

Que al comparar contra F0.05,3,12 = 3.49 nos lleva a la conclusión que debemos rechazar la hipótesis H0. No
todos los proveedores son iguales. Es la misma que ya habíamos obtenido. Para decidir cuál de los
proveedores es diferente debe aplicarse una prueba de diferenciación de medias. Por lo pronto aquí, no
podemos decidir cuál es mejor o peor.

8
1.3 MÉTODOS DE COMPARACIÓN DE MEDIAS INDIVIDUALES

Cuando se rechaza una hipótesis nula significa que las medias de los tratamientos son significativamente
diferentes en al menos un par de ellas, sin embargo, no nos indica cuáles de ellas son iguales o cuáles
son significativas.

1.3.1 Método de la mínima diferencia significativa (LSD)

Una manera de efectuar un comparativo entre medias individuales entre tratamientos es aplicar el
método de la mínima diferencia significativa (o método LSD por sus siglas en inglés). Para el caso
balanceado, el criterio es:

2𝑀𝑆𝐸
𝐿𝑆𝐷 = 𝑡𝛼,𝑁−𝑎 √
2 𝑛
donde LSD es la mínima diferencia significativa, α el nivel de confianza, N-a el número de grados de
libertad del error, y MSE la media de cuadrados del error. Para datos desbalanceados, se tiene

1 1
𝐿𝑆𝐷 = 𝑡𝛼,𝑁−𝑎 √𝑀𝑆𝐸 ( − )
2 𝑛𝑖 𝑛𝑗

Ejemplo 1.5 Supongamos que queremos descubrir cuáles proveedores son significativamente diferentes
en el ejemplo 1.1. Considerando α = 0.05 entonces

2(12.7)
𝐿𝑆𝐷 = 𝑡0.025,16 √
5
2(12.7)
𝐿𝑆𝐷 = 2.12√ 5
= 4.78
Ahora, cada par de medias individuales que difieran en valor absoluto por más de 4.78 implican que son
significativamente diferentes. Las medias de cada tratamiento individual son entonces:

A B C D
y.j = Media 58.4 57.2 43.6 42

YA - YB = 58.4 – 57.2 = 1.2


YA – YC = 58.4 – 43.6 = 14.8*
YA – YD = 58.4 – 42 = 16.4*
YB – YC = 57.2 – 43.6 = 13.6*
YB – YD = 57.6 – 42 = 15.6*
YC - YD = 43.6 – 42 = 1.6

9
Estos resultados indican que son significativamente diferentes todos los tratamientos excepto C y D y A
y B. O en otras palabras, los tratamientos A y B son iguales, lo mismo que C y D. Gráficamente,

A B C D
1.3.2 Prueba de Duncan.

En 1955 se reportó este método para comparar pares de medias para muestras balanceadas.
Primeramente se ordenan los valores de las medias en orden ascendente y el error estándar de cada
promedio se determina como

𝑀𝑆𝐸
𝑆𝑦̅.𝑗 = √
𝑛

Para el caso de muestras desbalanceadas con ni réplicas por tratamiento se reemplaza n por la media
armónica nh de ni como se indica,
𝑎
𝑛ℎ =
1
∑𝑎𝑗=1 ( )
𝑛𝑖
A partir de la tabla de rangos significativos de Duncan (Ver Montgomery, 1984) se obtienen los valores
𝑟𝛼 (𝑝, 𝑓) para p = 2, 3, … a, donde α es el grado de significancia y f es el número de grados de libertad del
error. Una vez hecho esto, se convierten estos valores en un juego de a - 1 rangos mínimos de
significancia Rp = 𝑆𝑦̅.𝑗 𝑟𝛼 (𝑝, 𝑓) para p = 2, 3, … a.

Entonces, se prueban las diferencias observadas entre las medias comenzando con el valor mayor contra
el menor el cual se comparará contra el mínimo rango significativo Ra. A continuación, la diferencia del
valor mayor y el segundo valor menor se compara contra el rango mínimo significativo Ra-1. Estos
comparativos se repiten hasta que todas las medias han sido comparadas contra el valor de la media
mayor. Finalmente, la diferencia del segundo valor mayor y el menor se compara contra Ra-1 y este
proceso se continúa hasta que las diferencias de todos los a(a-1)/2 pares posibles de medias han sido
comparados. En el caso de que una diferencia sea mayor que el rango significativo correspondiente,
entonces puede concluir que ambas medias son significativamente diferentes.

Ejemplo 1.6. Utilizando los datos del ejemplo 1.1 aplicar el método de Duncan para determinar cuáles
proveedores son diferentes.

Del ejemplo 1.1, MSE = 12.7, N = 20, n = 5, a = 4 y hay 16 grados de libertad para el error. Primero,
ordenamos las medias de menor a mayor
YD = 42
YC = 43.6
YB = 57.2
YA = 58.4

10
El error estándar de cada media es

𝑀𝑆𝐸 12.7
𝑆𝑦̅.𝑗 = √ =√ = 1.6
𝑛 5

De la tabla de rangos significativos de Duncan para 16 grados de libertad y α = 0.05, se obtiene


𝑟0.05 (2,16) = 3.0, 𝑟0.05 (3,16) = 3.15, 𝑟0.05 (4,16) = 3.23. Por tanto, los mínimos rangos significativos
son:
𝑅2 = 𝑟0.05 (2, 16)𝑆𝑦̅.𝑗 = 3.0(1.6) = 4.80
𝑅3 = 𝑟0.05 (3, 16)𝑆𝑦̅.𝑗 = 3.15(1.6) = 5.04
𝑅4 = 𝑟0.05 (4, 16)𝑆𝑦̅.𝑗 = 3.23(1.6) = 5.17

Entonces los comparativos serán:

A contra D 58.4 – 42.0 = 16.4 > 5.17 (R4)


A contra C 58.4 – 43.6 = 14.8 > 5.04 (R3)
A contra B 58.4 – 57.2 = 1.2 < 4.80 (R2)
B contra D 57.2 – 42.0 = 15.2 > 5.04 (R3)
B contra C 57.2 - 43.6 = 13.6 > 4.80 (R2)
C contra D 43.6 – 42.0 = 1.6 < 4.80 (R2)

Del análisis de la tabla anterior se concluye que existe diferencia significativa entre los pares de medias
excepto para los proveedores A y B, y C y D. Esto nos lleva a que de manera gráfica, se pueda
representar que A y B son iguales entre sí, y que C y D también son iguales entre ellos.

A B C D

Ejemplo 1.7. Una planta química está monitoreando la emisión de un contaminante por turno de
operación. Se desea saber si existen diferencias en la emisión promedio para cada turno. Los resultados
de las observaciones se muestran en la tabla 1.4. Puede observarse de los datos originales que estos
contienen muchos dígitos que no son significativos. Una opción que puede utilizarse para simplificar el
cálculo o hacerlo más simple sin alterar los resultados del análisis es, por ejemplo, restar o sumar una
misma cantidad o multiplicar por una constante. En este caso, podemos multiplicar el valor de cada
observación por 100,000 y después restar 95,000 a cada valor obtenido. De este modo la tabla 1.4 se
convierte en la tabla 1.5 en la cual se han añadido los totales por tratamiento y promedios así como el
gran total.

11
Tabla 1.4. Datos de emisiones para el ejemplo 1.7.
TURNO

1 2 3
0.95032 0.95030 0.95036
0.95029 0.95031 0.95035
0.95030 0.95032 0.95037
0.95030 0.95031 0.95036

Tabla 1.5. Modificación de la tabla 1.4

TURNO
1 2 2
32 30 36
29 31 35
30 32 37
30 31 36
T.j = total 121 124 144 T.. = 389
y.j = Media 30.25 31 36

De esta información se tiene que N = 12, con 11 grados de libertad, a = 3, con dos grados de libertad y n
= 4. Se formula entonces la hipótesis nula
𝐻0 : 𝜇1 = 𝜇2 … = 𝜇𝑗 ; 𝑗 = 1, 2 … , 𝑎
𝐻1 : 𝜇1 ≠ 𝜇2 … ≠ 𝜇𝑗 ; 𝑗 = 1, 2 … , 𝑎 𝑒𝑛 𝑎𝑙 𝑚𝑒𝑛𝑜𝑠 𝑢𝑛 𝑝𝑎𝑟

Se calcula la suma de cuadrados totales: SST = 322 + 302 + 362 + 292 + … 362 – 3892/12 = 86.92
La suma de cuadrados de los tratamientos: SStr = 1212/4 + 1242/4 + 1442/4 – 3892/12 = 78.16
Por tanto, SSE = SST – SStr = 86.92 – 78.16 = 8.76 con 9 grados de libertad.
Ahora ya puede calcularse la tabla ANOVA

SS g.l. MS Fexp
Turno 78.16 2 39.08
40.3
Error 8.76 9 0.97
Total 86.92 11

Comparando contra F0.05,2,9 = 4.26 se observa que de este resultado se rechaza la hipótesis nula. Por lo
tanto sí existe diferencia significativa en al menos uno de los turnos. Para determinar cuál o cuáles de
los turnos es diferente se aplica el método de Duncan. Ordenando las medias de menor a mayor:

12
Y1 = 30.25
Y2 = 31.0
Y3 = 36.0

𝑀𝑆𝐸 0.97
𝑆𝑦̅.𝑗 = √ =√ = 0.492
𝑛 4
Entonces:
𝑅2 = 𝑟0.05 (2, 9)𝑆𝑦̅.𝑗 = 3.20(0.492) = 1.574
𝑅3 = 𝑟0.05 (3, 9)𝑆𝑦̅.𝑗 = 3.34(0.492) = 1.643

Comparando los pares de medias:

Y3 contra Y1 36 – 30.25 = 5.75 > 1.643 (R3)


Y3 contra Y2 36 – 31.00 = 5.0 > 1.574 (R2)
Y2 contra Y1 31 – 30.25 = 0.75 < 1.574 (R2)

Conclusión. El tercer turno difiere de los otros dos en tanto que entre el primer turno y el segundo no
existe diferencia. Gráficamente esto es 1 2 3.

1.4. TAMAÑO DE MUESTRA


Cuando se desea detectar efectos pequeños en una muestra generalmente se requiere realizar más
réplicas que cuando se pretende detectar grandes efectos. Para ello se utiliza el criterio de potencia de
la prueba que está dado como P = 1 – β donde β es la probabilidad del error tipo II. Para obtener el
tamaño más apropiado de una muestra se debe recurrir al uso de los gráficos de probabilidad
reportados en la literatura para este fin. Tales gráficos relacionan un parámetro denominado Φ2 que
está relacionado, a su vez, con la varianza de la muestra y el número de réplicas.

2
𝑛 ∑𝑎𝑖=1 𝜏𝑖2
Φ =
2𝜎 2
donde n es el tamaño de muestra (réplicas en un tratamiento). Cuando no se conocen los parámetros 𝜏𝑖
se puede utilizar una forma alternativa en función de la mínima diferencia que se desea detectar con lo
que el parámetro Φ2 se expresa como
𝑛𝐷 2
Φ2 =
2𝑎𝜎 2
Donde
n = Tamaño de muestra
D = Mínima diferencia que se desea detectar entre dos resultados
σ2 = Varianza = MSE
a = Número de tratamientos
𝐷
Cuando se desconoce la varianza se puede utilizar el criterio 𝜎 = 3.

13
Ejemplo 1.8 Para una prueba se dispone de la siguiente información, α = 0.05, a = 3, D = 2σ, y β = 0.1. Se
desea determinar cuántas réplicas se requieren por corrida. Se desea una potencia de la prueba de 0.9.
Solución.
El número de grados de libertad de los tratamientos (numerador) es ν1 = a – 1 = 3 – 1 = 2.
El número de grados de libertad del error es (N – a) = a(n – 1) = 3(n – 1).
Despejando el parámetro Φ se obtiene para este caso,

2𝑛
Φ=√
3
Utilizando la gráfica reportada por Montgomery (1984) (Ver Fig. 1.1) para ν1 = 2, α = 0.05 y los datos
anteriores, se puede construir la tabla siguiente al suponer el tamaño de muestra n.

Tabla 1.6 Tamaño de muestra para el ejemplo 1.6


n ν2 Φ β
3 6 1.41 > 0.7
4 9 1.63 > 0.3
7 18 2.16 0.12
8 21 2.31 0.075*
9 24 2.45 < 0.05

Figura 1.1. Curvas característica de operación para el modelo de varianza de un solo factor.
Montgomery, 1984. pág. 515.

Por tanto, se concluye que el número de muestras por tratamiento es de 8. Resp. ↔

14