Está en la página 1de 16

Diseño

Diseño
Tema tres de
de
Enfoque Introductorio a la Unidad
En el campo de la industria es frecuente hacer experimentos o pruebas con la
intención de resolver un problema o comprobar una idea (conjetura, hipótesis);
por ejemplo, hacer algunos cambios en los materiales, métodos o condiciones de
operación de un proceso, probar varias temperaturas en una máquina hasta
encontrar la que da el mejor resultado o crear un nuevo material con la intención
de lograr mejoras o eliminar algún problema. Sin embargo, es común que estas
pruebas o experimentos se hagan sobre la marcha, con base en el ensayo y
error, apelando a la experiencia y a la intuición, en lugar de seguir un plan
experimental adecuado que garantice una buena respuesta a las interrogantes
planteadas. Algo similar ocurre con el análisis de los datos experimentales,
donde más que hacer un análisis riguroso de toda la información obtenida y
tomar en cuenta la variación, se realiza un análisis informal, “intuitivo”.

Es tal el poder de la experimentación que, en ocasiones, se logran mejoras a


pesar de que el experimento se hizo con base en el ensayo y error. Sin embargo,
en situaciones de cierta complejidad no es suficiente aplicar este tipo de
experimentación, por lo que es mejor proceder siempre en una forma eficaz que
garantice la obtención de las respuestas a las interrogantes planteadas en un
lapso corto de tiempo y utilizando pocos recursos.

El diseño estadístico de experimentos es precisamente la forma más eficaz de


hacer pruebas. El diseño de experimentos consiste en determinar cuáles
pruebas se deben realizar y de qué manera, para obtener datos que, al ser
analizados estadísticamente, proporcionen evidencias objetivas que permitan
responder las interrogantes planteadas, y de esa manera clarificar los aspectos
inciertos de un proceso, resolver un problema o lograr mejoras. Algunos
problemas típicos que pueden resolverse con el diseño y el análisis de
experimentos son los siguientes:
1. Comparar a dos o más materiales con el fin de elegir al que mejor
cumple los requerimientos.

2. Comparar varios instrumentos de medición para verificar si trabajan con


la misma precisión y exactitud.

3. Determinar los factores (las x vitales) de un proceso que tienen impacto


sobre una o más características del producto final.

4. Encontrar las condiciones de operación (temperatura, velocidad,


humedad, por ejemplo) donde se reduzcan los defectos o se logre un mejor
desempeño del proceso.

5. Reducir el tiempo de ciclo del proceso.

6. Hacer el proceso insensible o robusto a oscilaciones de variables


ambientales.

7. Apoyar el diseño o rediseño de nuevos productos o procesos.

8. Ayudar a conocer y caracterizar nuevos materiales.

En general, cuando se quiere mejorar un proceso existen dos maneras básicas


de obtener la información necesaria para ello: una es observar o monitorear vía
herramientas estadísticas, hasta obtener señales útiles que permitan mejorarlo;
se dice que ésta es una estrategia pasiva. La otra manera consiste en
experimentar, es decir, hacer cambios estratégicos y deliberados al proceso para
provocar dichas señales útiles. Al analizar los resultados del experimento se
obtienen las pautas a seguir, que muchas veces se concretan en mejoras
sustanciales del proceso. En este sentido, experimentar es mejor que sentarse a
esperar a que el proceso nos indique por sí solo cómo mejorarlo. El diseño de
experimentos (DDE o DOE) es un conjunto de técnicas activas, en el sentido de
que no esperan que el proceso mande las señales útiles, sino que éste se
“manipula” para que
proporcione la información que
se requiere para su mejoría.

El saber diseño de
experimentos y otras técnicas
estadísticas, en combinación
con conocimientos del
proceso, sitúan al responsable
del mismo como un observador perceptivo y proactivo que es capaz de proponer
mejoras y de observar algo interesante (oportunidades de mejora) en el proceso
y en los datos donde otra persona no ve nada (como ya saben quién).

Breve historia del diseño


El diseño estadístico de experimentos, desde su introducción por Ronald A.
Fisher en la primera mitad del siglo XX en Inglaterra, se ha utilizado para
conseguir un aprendizaje
acelerado. El trabajo de Fisher
a través de su libro The Design
of Experiments (1935), influyó
de manera decisiva en la
investigación agrícola, ya que
aportó métodos (ahora usados
en todo el mundo) para evaluar
los resultados de experimentos
con muestras pequeñas. La
clave de las aportaciones de R ONALD A. F ISHER
Fisher radica en que este
investigador se dio cuenta de que las fallas en la forma de realizar experimentos
obstaculizaban el análisis de los resultados experimentales. Fisher también
proporcionó métodos para diseñar experimentos destinados a investigar la
influencia simultánea de varios factores.

Los desarrollos posteriores en diseños de experimentos fueron encabezados por


George E. P. Box, quien trabajó como estadístico durante ocho años en la
industria química en Inglaterra y desarrolló la metodología de superficie de
respuestas (véase Box y Wilson, 1951), la cual incluye nuevas familias de
diseños y una estrategia para la experimentación secuencial. Es posible afirmar
que entre 1950 y 1980, el diseño de experimentos se convirtió en una
herramienta de aplicación frecuente, pero sólo en las áreas de investigación y
desarrollo. Hasta la década de 1970, la aplicación a nivel planta o procesos de
manufactura no estaba generalizada, debido a la falta de recursos
computacionales y a que los ingenieros y especialistas en manufactura carecían
de formación en el área de estadística.

En la década de 1980 se dio un gran impulso al conocimiento y la aplicación del


diseño de experimentos debido al éxito en calidad de la industria japonesa. El
movimiento por la calidad, encabezado por los gurúes Deming e Ishikawa,
promovió el uso de la estadística en calidad, donde el diseño de experimentos
demostró su utilidad tanto para resolver problemas de fondo como para diseñar
mejor los productos y los procesos. En Japón destaca el trabajo de Genichi
Taguchi, cuyos conceptos sobre diseño robusto también tuvieron un impacto
significativo en la academia en el mundo occidental. Como respuesta al
movimiento por la calidad y la mejora de procesos, las industrias empezaron a
entrenar a sus ingenieros en la aplicación del diseño de experimentos. Esto
continúa en la actualidad; incluso, en los últimos veinte años, las universidades
han incorporado el diseño de experimentos como materia obligatoria u operativa
en la mayoría de las ingenierías.

Conceptos a saber dentro del DOE


Diseño de experimentos:
Consiste en planear y realizar un conjunto de pruebas con el objetivo de generar
datos que, al ser analizados estadísticamente, proporcionen evidencias objetivas
que permitan responder las interrogantes planteadas por el experimentador
sobre determinada situación.

Experimento:
Es un cambio en las condiciones de operación de un sistema o proceso, que se
hace con el objetivo de medir el efecto del cambio en una o varias propiedades
del producto o resultado.

Unidad experimental:
Pieza(s) o muestra(s) que se utiliza para generar un valor que sea representativo
del resultado de la prueba.

Variable de respuesta:
A través de esta(s) variable(s) se conoce el efecto o los resultados de cada
prueba experimental (vea la Ilustración 1).
I LUSTRACIÓN 1. V ARIABLES DE UN PROCESO Y RESPUESTAS A
RESOLVER AL DISEÑAR UN EXPERIMENTO .

Factores controlables:
Son variables de proceso y/o características de los materiales y los métodos
experimentales que se pueden fijar en un nivel.

Factores no controlables:
Son variables que no se pueden controlar durante el experimento o la operación
normal del proceso dado.

Factores estudiados:
Son las variables que se investigan en el experimento para observar cómo
afectan o influyen en la variable de respuesta.

Niveles y tratamientos:
Los diferentes valores que se asignan a cada factor estudiado en un diseño
experimental se llaman niveles. Una combinación de niveles de todos los
factores estudiados se llama tratamiento o punto de diseño. Por ejemplo, si en un
experimento se estudia la influencia de la velocidad y la temperatura, y se decide
probar cada una en dos niveles, entonces cada combinación de niveles
(velocidad, temperatura) es un tratamiento. En este caso habría cuatro
tratamientos, como se muestra en la tabla 1. Es necesario probar cada
tratamiento y obtener el correspondiente valor de y.
T ABLA 1 P UNTOS DE D ISEÑO O T RATAMIENTOS

Error
aleatorio:
Es la variabilidad observada que no se puede explicar por los factores
estudiados; resulta del pequeño efecto de los factores no estudiados y del error
experimental.

Error experimental:
Componente del error aleatorio que refleja los errores del experimentador en la
planeación y ejecución del experimento.

Aleatorización:
Consiste en hacer corridas experimentales en orden aleatorio (al azar); este
principio aumenta la posibilidad de que el supuesto de independencia de los
errores se cumpla.

Repetición:
Es correr más de una vez un tratamiento o combinación de factores.

Bloqueo:
Es nulificar o tomar en cuenta en forma adecuada todos los factores que pueden
afectar la respuesta observada.
Diseño completamente al azar y ANOVA
Muchas comparaciones de parámetros poblacionales (media, desviación
estándar, varianza, etc.), se hacen con base en el diseño completamente al azar
(DCA), que es el más simple de todos los diseños que se utilizan para comparar
dos o más tratamientos, dado que sólo consideran dos fuentes de variabilidad:
los tratamientos y el error aleatorio.

El análisis de varianza (ANOVA) es la técnica central en el análisis de datos


experimentales. La idea general de esta técnica es separar la variación total en
las partes con las que contribuye cada fuente de variación en el experimento. En
el caso del DCA se separan la variabilidad debida a los tratamientos y la debida
al error. Cuando la primera predomina “claramente” sobre la segunda, es cuando
se concluye que los tratamientos tienen efecto (figura 2b), o dicho de otra
manera, las medias son diferentes.

Cuando los tratamientos no dominan contribuyen igual o menos que el error, por
lo que se concluye que las medias son iguales (Ilustración 2).

I LUSTRACIÓN 2 V ARIABILIDAD TOTAL EN UN DCA


Ano
El objetivo del análisis de varianza en el DCA es probar la hipótesis de igualdad
de los tratamientos con respecto a la media de la correspondiente variable de
respuesta:

Donde i es el efecto
del tratamiento i sobre la variable de respuesta. Si se acepta H0, se confirma que
los efectos sobre la respuesta de los k tratamientos son estadísticamente nulos
(iguales a cero), y en caso de rechazar se estaría concluyendo que al menos un
efecto es diferente de cero. La siguiente tabla, muestra los cálculos de un
ANOVA, de todas formas ya se había visto en unidades anteriores.
Comparaciones o pruebas de rango
múltiples (Para verificar el modelo)
Si después de realizar un ANOVA, resulta que se rechazó la hipótesis nula, es
necesario ir a detalle y ver cuáles tratamientos son diferentes. A continuación,
veremos algunas estrategias distintas para ir a ese detalle.

Diferencia mínima significativa (LSD) de Fisher


Es la diferencia mínima que debe haber entre dos medias muéstrales para
considerar que dos tratamientos son diferentes. El método LSD de Fisher se
utiliza en el ANOVA para crear intervalos de confianza para todas las diferencias
en parejas entre las medias de los niveles de los factores, controlando al mismo
tiempo la tasa de error individual en un nivel especificado. Posteriormente, el
método LSD de Fisher utiliza la tasa de error individual y varias comparaciones
para calcular el nivel de confianza simultáneo para todos los intervalos de
confianza. Este nivel de confianza simultáneo es la probabilidad de que todos los
intervalos de confianza contengan la diferencia verdadera. Es importante
considerar la tasa de error por familia al realizar comparaciones múltiples, porque
las probabilidades de cometer un error de tipo I para una serie de comparaciones
son mayores que la tasa de error de cualquier comparación individual.

Método de Tukey
Un método más conservador para comparar pares de medias de tratamientos es
el método de Tukey, el cual consiste en comparar las diferencias entre medias
muestréales. El método de Tukey se utiliza en ANOVA para crear intervalos de
confianza para todas las diferencias en parejas entre las medias de los niveles
de los factores mientras controla la tasa de error por familia en un nivel
especificado. Es importante considerar la tasa de error por familia cuando se
hacen comparaciones múltiples, porque la probabilidad de cometer un error de
tipo I para una serie de comparaciones es mayor que la tasa de error para
cualquier comparación individual. Para contrarrestar esta tasa de error más
elevada, el método de Tukey ajusta el nivel de confianza de cada intervalo
individual para que el nivel de confianza simultáneo resultante sea igual al valor
que usted especifique.
El método de Dunnett
Se utiliza en ANOVA para crear intervalos de confianza para las diferencias entre
la media de cada nivel de factor y la media de un grupo de control. Si un intervalo
contiene el cero, no hay diferencia significativa entre las dos medias que están
comparándose. Usted especifica una tasa de error por familia para todas las
comparaciones, y el método de Dunnett determina los niveles de confianza para
cada comparación individual según corresponda.

Método del mejor (MCB) de Hsu


El método MCB de Hsu es un método de comparaciones múltiples diseñado para
identificar los mejores niveles de los factores, los que son insignificantemente
diferentes del mejor y los que son significativamente diferentes del mejor. Usted
puede definir "mejor" como la media más alta o la media más baja. Este
procedimiento se utiliza generalmente después de un ANOVA para analizar con
mayor precisión las diferencias entre las medias de los niveles.

Verificación de los supuestos del modelo


La validez de los resultados obtenidos en cualquier análisis de varianza queda
supeditado a que los supuestos del modelo se cumplan. Estos supuestos son:
normalidad, varianza constante (igual varianza de los tratamientos) e
independencia. Esto es, la respuesta (Y ) se debe distribuir de manera normal,
con la misma varianza en cada tratamiento y las mediciones deben ser
independientes. Estos supuestos sobre Y se traducen en supuestos sobre el
término error (ε) en el modelo.
Es una práctica común utilizar la muestra de residuos para comprobar los
supuestos del modelo, ya que, si los supuestos se cumplen, los residuos o
residuales se pueden ver como una muestra aleatoria de una distribución normal
con media cero y varianza constante. Los residuos, εij, se definen como la
diferencia entre la respuesta observada (Yij) y la respuesta predicha por el
modelo (Ŷij), lo cual permite hacer un diagnóstico más directo de la calidad del
modelo, ya que su magnitud señala qué tan bien describe a los datos el modelo.

Recordemos, que el modelo que se espera describa los datos en el DCA está
dado por:

donde Yij (i = 1, 2, …, k; j = 1, 2, …, n) es el j-ésimo dato en el tratamiento i; m es


la media global, τi es el efecto del tratamiento i y εij representa al error asociado
con la observación Yij.
Cuando se realiza el ANOVA, y sólo cuando éste resulta significativo, entonces
se procede a estimar el modelo ajustado o modelo de trabajo dado por:

donde Ŷij es la respuesta predicha, μ̂ es la media global estimada y τ̂ i es el


efecto estimado del tratamiento i; los gorros (así diría ya saben quién) indican
que son estimadores, es decir, valores calculados a partir de los datos del
experimento. El término del error desaparece del modelo estimado, por el hecho
de que su valor esperado es igual a cero (E(εij) = 0).

Como la media global se estima con 𝑌••̅̅ y el efecto del tratamiento con
𝑌𝑖 •.̅̅ - 𝑌•• ̅̅ , el modelo ajustado del DCA se puede escribir como:

Esto es, la respuesta predicha para cada observación es la media muestral del
tratamiento correspondiente. De esta manera, el residual o residuo asociado a la
observación Yij está dado por:

Los supuestos del modelo lineal, en términos de los residuos, son:


1. Los eij siguen una distribución normal con media cero.
2. Los eij son independientes entre sí.
3. Los residuos de cada tratamiento tienen la misma varianza σ2.
Para comprobar cada supuesto existen pruebas analíticas y gráficas que
veremos a continuación. Por sencillez, muchas veces se prefieren las pruebas
gráficas. Éstas tienen el inconveniente de que no son “exactas”, pero, aun así, en
la mayoría de las situaciones prácticas proporcionan la evidencia suficiente en
contra o a favor de los supuestos. El uso de las pruebas gráficas requiere una
fuerte evidencia visual para concluir que el supuesto en cuestión no se cumple,
ya que se requiere que la evidencia en contra de un supuesto esté soportada por
más de dos puntos. Cuando son uno o dos los puntos que se salen del
comportamiento esperado de las gráficas se puede tratar de un problema de
puntos aberrantes, no de violación del supuesto en cuestión. En ese caso debe
investigarse la obtención de dichas mediciones atípicas, ya que ese tipo de
puntos pueden afectar sensiblemente los resultados del análisis.
Se puede utilizar una prueba analítica para subsanar las ambigüedades que
surjan en la interpretación visual (subjetiva) de las gráficas. Es mejor prevenir en
lo posible que los supuestos no se violen, para ello se aplican los tres principios
básicos del diseño de experimentos: repetición, aleatorización y bloqueo. Es fácil
encontrar situaciones en las que por no aplicar alguno de estos principios no se
cumplen los supuestos del modelo. Por ejemplo, por no aleatorizar el orden en
que se corren las pruebas pueden surgir problemas con el supuesto
de independencia.

Ejempl
1. Usted diseña un experimento para evaluar la durabilidad de cuatro productos
de alfombra experimentales. Usted coloca una muestra de cada una de las
alfombras en cuatro viviendas y mide la durabilidad después de 60 días. Como
usted desea probar la igualdad de las medias y evaluar las diferencias de las
medias, utiliza el procedimiento ANOVA de un factor con comparaciones
múltiples.

T ABLA 2 D ESGASTE DE ALFOMBRAS

Alfombra 1 Alfombra 2 Alfombra 3 Alfombra 4


18.95 10.06 10.92 10.46
12.62 7.19 13.28 21.4
11.94 7.03 14.52 18.1
14.42 14.66 12.51 22.5

En Excel-Manual y en Excel-Automático
Estadistica\Ejercicio5-1.xlsx
Minitab
Estadistica\Minitab5-1.mpj
2. Un equipo de mejora investiga el efecto de cuatro métodos de ensamble A, B,
C y D, sobre el tiempo de ensamble en minutos. En primera instancia, la
estrategia experimental es aplicar cuatro veces los cuatro métodos de ensamble
en orden completamente aleatorio (las 16 pruebas en orden aleatorio). Los
tiempos de ensamble obtenidos se muestran en la tabla 3. Si se usa el diseño
completamente al azar (DCA), se supone que, además del método de ensamble,
no existe ningún otro factor que influya de manera significativa sobre la variable
de respuesta (tiempo de ensamble).

T ABLA 3 D ATOS PARA EL E JEMPLO 2

En Excel-Manual y en Excel-Automático
Estadistica\Ejercicio3-2.xlsx
Minitab
Estadistica\Minitab3-2.mpj
3. Comparación de cuatro tipos de cuero. Un fabricante de calzado desea
mejorar la calidad de las suelas, las cuales se pueden hacer con uno de los
cuatro tipos de cuero A, B, C y D disponibles en el mercado. Para ello, prueba
los cueros con una máquina que hace pasar los zapatos por una superficie
abrasiva; la suela de éstos se desgasta al pasarla por dicha superficie. Como
criterio de desgaste se usa la pérdida de peso después de un número fijo de
ciclos. Se prueban en orden aleatorio 24 zapatos 6 de cada tipo de cuero. Al
hacer las pruebas en orden completamente al azar se evitan sesgos y las
mediciones en un tipo de cuero resultan independientes de las demás. Los datos
(miligramos) sobre el desgaste de cada tipo de cuero se muestran en la tabla 4.

T ABLA 4 D ATOS PARA EL E JEMPLO 3

En Excel-Manual y en Excel-Automático
Estadistica\Ejercicio3-3.xlsx

Minitab
Estadistica\Minitab3-3.mpj
4. La inmovilización de los venados silvestres de cola blanca usando
tranquilizantes da a los investigadores la oportunidad de estudiarlos de cerca y
obtener información fisiológica valiosa.
En el estudio denominado Influence of Physical Restraint and Restraint
Facilitating Drugs on Blood Measurements of White-Tailed Deer and Other
Selected Mammals, realizado en Virginia Tech, los biólogos de la vida silvestre
probaron el tiempo del “derribamiento” (el periodo transcurrido entre la inyección
y la inmovilización) de tres sustancias inmovilizadoras distintas.
En este caso la inmovilización se define como el punto en que el animal ya no
tiene control muscular suficiente para permanecer de pie. Se asignaron 30
venados machos de cola blanca al azar a cada uno de tres tratamientos. El
grupo A recibió 5 miligramos de cloruro de sucinilcolina líquida (SCC); al grupo B
se le suministraron 8 miligramos de SCC en polvo; y al grupo C, 200 miligramos
de hidrocloruro de fenciclidina. A continuación, se presentan los tiempos de
derribamiento, en minutos. Haga un análisis de varianza a un nivel de
significancia de 0.01 y determine si el tiempo promedio de derribamiento es o no
igual para las tres sustancias.

Muestra A B C
1 11 10 4
2 5 7 4
3 14 16 6
4 7 7 3
5 10 7 5
6 7 5 6
7 23 10 8
8 4 10 3
9 11 6 7
10 11 12 3
Promedio 10.3 9 4.9

Excel
Estadistica\Ejercicio3-4.xlsx
Minitab
Estadistica\Ejercicio3-4.mpj
5. Determine los supuestos de validación del modelo para el ejemplo 3.
Los eij siguen una distribución normal con media cero.
Los eij son independientes entre sí.
Los residuos de cada tratamiento tienen la misma varianza σ2.

La primera es de normalidad
El segundo es de independencia
El tercero es de igualdad de varianzas

Estadistica\Minitab3-5.mpj

También podría gustarte