Explora Libros electrónicos
Categorías
Explora Audiolibros
Categorías
Explora Revistas
Categorías
Explora Documentos
Categorías
Realizar
experimentos
Los pasos del método de ingeniería se muestran en la Fig. 1-1. Observe que el método de
ingeniería presenta una fuerte interacción entre el problema, los factores que pueden influir en
su solución, un modelo del fenómeno y la experimentación para verificar la idoneidad del
modelo y la solución propuesta al problema. Los pasos 2-4 de la Fig. 1-1 están encerrados en
una caja, lo que indica que pueden ser necesarios varios ciclos o iteraciones de estos pasos
para obtener la solución final.
En consecuencia, los ingenieros deben saber cómo planificar eficientemente los experimentos,
recopilar los datos, analizarlos e interpretarlos, y comprender cómo se relacionan los datos
observados con el modelo que han propuesto para el problema en estudio.
El campo de la estadística se ocupa de la recolección, presentación, análisis y uso de datos
para tomar decisiones, resolver problemas y diseñar productos y procesos. Debido a que
muchos aspectos de la práctica de la ingeniería involucran el trabajo con datos, obviamente
algún conocimiento de estadística es importante para cualquier ingeniero. Específicamente,
las técnicas estadísticas pueden ser una poderosa ayuda para diseñar nuevos productos y
sistemas, mejorar los diseños existentes y diseñar, desarrollar y mejorar los procesos de
producción.
Se utilizan métodos estadísticos para ayudarnos a describir y comprender la variabilidad. Por
variabilidad entendemos que las observaciones sucesivas de un sistema o fenómeno no
producen exactamente el mismo resultado. Todos encontramos variabilidad en nuestra vida
diaria, y el pensamiento estadístico nos puede dar una forma útil de incorporar esta variabilidad
en nuestros procesos de toma de decisiones. Por ejemplo, considere el rendimiento en
kilometraje de gasolina de su automóvil. ¿Obtiene siempre el mismo rendimiento kilométrico
en cada depósito de combustible? Por supuesto que no, de hecho, a veces el rendimiento
kilométrico varía considerablemente. Esta variabilidad observada en el millaje de la gasolina
depende de muchos factores, tales como el tipo de conducción que ha ocurrido más
recientemente (ciudad contra carretera), los cambios en la condición del vehículo a lo largo del
tiempo (que podrían incluir factores como el inflado de las llantas, la compresión del motor o el
desgaste de las válvulas), la marca y/o el número de octanaje de la gasolina utilizada, o
posiblemente incluso las condiciones climáticas que se han experimentado recientemente.
Estos factores representan fuentes potenciales de variabilidad en el sistema. Las estadísticas
nos dan un marco para describir esta variabilidad y para saber cuáles son las fuentes
potenciales de variabilidad más importantes o que tienen mayor impacto en el rendimiento del
millaje de la gasolina. También encontramos variabilidad en el tratamiento de los problemas
de ingeniería. Por ejemplo, supongamos que un ingeniero está diseñando un conector de nylon
para ser usado en una aplicación de motor automotriz. El ingeniero está considerando
establecer la especificación de diseño sobre el espesor de la pared a 332 pulgadas, pero no
está seguro del efecto de esta decisión sobre la fuerza de extracción del conector. Si la fuerza
de extracción es demasiado baja, el conector puede fallar cuando se instala en un motor. Se
producen ocho unidades prototipo y se miden sus fuerzas de extracción, dando como resultado
los siguientes datos (en libras): 12.6, 12.9, 13.4, 12.3, 13.6, 13.5, 12.6, 13.1. Como
anticipamos, no todos los prototipos tienen la misma fuerza de arranque. Decimos que hay
variabilidad en las mediciones de la fuerza de tracción. Debido a que las mediciones de la
fuerza de tracción muestran variabilidad, consideramos que la fuerza de tracción es una
variable aleatoria. Una manera conveniente de pensar en una variable aleatoria, digamos X,
que representa una medida, es usando el modelo
𝑋 =𝜇+𝜖
Donde 𝜇 es una constante y 𝜖 es una alteración aleatoria. La constante sigue siendo la misma
en todas las mediciones, pero los pequeños cambios en el entorno, los equipos de prueba, las
diferencias en las piezas individuales, etc. modifican el valor de 𝜖 Si no hubiera perturbaciones,
𝜖 siempre sería igual a cero y X siempre sería igual a la constante 𝜇 ". Sin embargo, esto nunca
sucede en el mundo real, por lo que las mediciones reales X muestran variabilidad. A menudo
necesitamos describir, cuantificar y, en última instancia, reducir la variabilidad. La Figura 1-2
presenta un diagrama de puntos de estos datos. El diagrama de puntos es un gráfico muy útil
para mostrar un pequeño cuerpo de datos, por ejemplo, hasta unas 20 observaciones. Este
gráfico nos permite ver fácilmente dos características de los datos: la ubicación, o el centro, y
la dispersión o variabilidad. Cuando el número de observaciones es pequeño, por lo general
es difícil identificar patrones específicos en la variabilidad, aunque el diagrama de puntos es
una forma conveniente de ver cualquier característica inusual de los datos. La necesidad de
pensamiento estadístico surge a menudo en la solución de problemas de ingeniería. Considere
la posibilidad de que el ingeniero diseñe el conector. A partir de las pruebas de los prototipos,
él sabe que la fuerza promedio de arranque es de 13.0 libras.
Sin embargo, él piensa que esto puede ser demasiado bajo para la aplicación prevista, por lo
que decide considerar un diseño alternativo con un mayor espesor de pared, 18 pulgadas. Se
construyen ocho prototipos de este diseño, y las medidas de fuerza de extracción observadas
son 12.9, 13.7, 12.8, 13.9, 14.2, 13.2, 13.5 y 13.1. La media es de 13,4. Los resultados de
ambas muestras se grafican como diagramas de puntos en la Fig. 1-3, página 3. Esta pantalla
da la impresión de que el aumento del grosor de la pared ha provocado un aumento de la
fuerza de tracción. Sin embargo, hay algunas preguntas obvias que hacer. Por ejemplo, ¿cómo
sabemos que otra muestra de prototipos no dará resultados diferentes? ¿Es adecuada una
muestra de ocho prototipos para obtener resultados fiables? Si utilizamos los resultados de las
pruebas obtenidas hasta ahora para concluir que aumentar el grosor de la pared aumenta la
resistencia, ¿qué riesgos se asocian con esta decisión? Por ejemplo, ¿es posible que el
aparente aumento de la fuerza de arranque observado en los prototipos más gruesos se deba
únicamente a la variabilidad inherente al sistema y que el aumento del grosor de la pieza (y de
su coste) no tenga realmente ningún efecto en la fuerza de arranque? A menudo, las leyes
físicas (como la ley de Ohm y la ley del gas ideal) se aplican para ayudar a diseñar productos
y procesos. Estamos familiarizados con este razonamiento, desde leyes generales hasta casos
específicos. Pero también es importante razonar desde un conjunto específico de medidas
hasta casos más generales para responder a las preguntas anteriores. Este razonamiento va
de una muestra (como los ocho conectores) a una población (como los conectores que se
venderán a los clientes). El razonamiento se denomina inferencia estadística. Ver Fig. 1-4.
Históricamente, las mediciones se obtuvieron a partir de una muestra de personas y se
generalizaron a una población, y la terminología se ha mantenido. Claramente, el razonamiento
basado en las mediciones de algunos objetos hasta las mediciones de todos los objetos puede
dar lugar a errores (llamados errores de muestreo). Sin embargo, si la muestra se selecciona
adecuadamente, estos riesgos pueden cuantificarse y puede determinarse un tamaño
apropiado de la muestra. En algunos casos, la muestra se selecciona de una población bien
definida. La muestra es un subconjunto de la población. Por ejemplo, en un estudio de
resistividad se podría seleccionar una muestra de tres obleas de un lote de producción de
obleas en la fabricación de semiconductores. Basándonos en los datos de resistividad
recogidos en las tres obleas de la muestra, queremos sacar una conclusión sobre la
resistividad de todas las obleas del lote. En otros casos, la población es conceptual (por
ejemplo, con los conectores), pero podría pensarse en ella como futuras réplicas de los objetos
de la muestra. En esta situación, los ocho conectores prototipo deben ser representativos, en
cierto modo, de los que se fabricarán en el futuro. Es evidente que este análisis requiere cierta
noción de estabilidad como supuesto adicional. Por ejemplo, podría suponerse que las fuentes
de variabilidad en la fabricación de los prototipos (como la temperatura, la presión y el tiempo
de curado) son las mismas que las de los conectores que se fabricarán en el futuro y que
finalmente se venderán a los clientes.
El ejemplo de obleas de un lote se llama estudio enumerativo. Se utiliza una muestra para
hacer una inferencia de la población de la cual se selecciona la muestra. El ejemplo del
conector se llama estudio analítico. Se utiliza una muestra para hacer una inferencia a una
población conceptual (futura). Los análisis estadísticos suelen ser los mismos en ambos casos,
pero un estudio analítico requiere claramente una suposición de estabilidad. Ver Fig. 1-5, en
la página 4.
1-2 RECOPILACIÓN DE DATOS DE INGENIERÍA
1-2.1 Principios básicos
En la sección anterior, ilustramos algunos métodos simples para resumir datos. En el entorno
de ingeniería, los datos son casi siempre una muestra que ha sido seleccionada de alguna
población. Tres métodos básicos de recolección de datos son
Un estudio retrospectivo con datos históricos
Un estudio observacional
Un experimento diseñado
Un procedimiento eficaz de recopilación de datos puede simplificar enormemente el análisis y
mejorar la calidad de la información. comprensión de la población o proceso que se está
estudiando. A continuación se presentan algunos ejemplos de estos métodos de recolección
de datos.
1-2.2 Estudio retrospectivo
Montgomery, Peck y Vining (2001) describen una columna de destilación de alcohol acetona-
butilo para la cual la concentración de acetona en el destilado o flujo de producto de salida es
una variable importante. Los factores que pueden afectar el destilado son la temperatura de
rebullición, la temperatura del condensado y la tasa de reflujo. El personal de producción
obtiene y archiva los siguientes registros:
Concentración de acetona en una muestra horaria de producto de salida
El registro de temperatura de rebote, que es un gráfico de la temperatura de rebote en el tiempo
El registro del controlador de temperatura del condensador
La tasa de reflujo nominal cada hora
La tasa de reflujo debe mantenerse constante para este proceso. En consecuencia, el personal
de producción cambia esto con muy poca frecuencia. Un estudio retrospectivo utilizaría todos
o una muestra de los datos históricos del proceso archivados durante un cierto período de
tiempo. El objetivo del estudio podría ser descubrir las relaciones entre las dos temperaturas y
la tasa de reflujo en la concentración de acetona en la corriente del producto de salida. Sin
embargo, este tipo de estudio presenta algunos problemas:
1. Es posible que no podamos ver la relación entre la tasa de reflujo y la concentración de
acetona, porque la tasa de reflujo no cambió mucho durante el período histórico.
2. Los datos archivados sobre las dos temperaturas (que se registran casi continuamente) no
corresponden perfectamente a las mediciones de concentración de acetona (que se realizan
cada hora). Puede que no sea obvio cómo construir una correspondencia aproximada.
3. La producción mantiene las dos temperaturas lo más cerca posible de los objetivos o puntos
de referencia deseados. Debido a que las temperaturas cambian tan poco, puede ser difícil
evaluar su impacto real en la concentración de acetona.
4. Dentro de los rangos estrechos que varían, la temperatura del condensado tiende a
aumentar con la temperatura de rebrote. Por consiguiente, los efectos de estas dos variables
del proceso sobre la concentración de acetona pueden ser difíciles de separar.
Como puede ver, un estudio retrospectivo puede incluir muchos datos, pero esos datos pueden
contener relativamente poca información útil sobre el problema. Además, es posible que falten
algunos de los datos pertinentes, que haya errores de transcripción o registro que den lugar a
valores atípicos (o valores inusuales), o que no se hayan recopilado y archivado datos sobre
otros factores importantes. En la columna de destilación, por ejemplo, las concentraciones
específicas de alcohol butílico y acetona en el flujo de alimentación de entrada son un factor
muy importante, pero no se archivan porque las concentraciones son demasiado difíciles de
obtener de forma rutinaria. Como resultado de este tipo de problemas, el análisis estadístico
de los datos históricos a veces identifica fenómenos interesantes, pero a menudo es difícil
obtener explicaciones sólidas y fiables de estos fenómenos.
1-2.3 Estudio observacional
En un estudio observacional. En este caso el ingeniero observa el proceso o población,
perturbándolo lo menos posible, y registra las cantidades de interés. Debido a que estos
estudios generalmente se llevan a cabo durante un período de tiempo relativamente corto, a
veces se pueden incluir variables que no se miden de manera rutinaria. En la columna de
destilación, el ingeniero diseñaría un formulario para registrar las dos temperaturas y la tasa
de reflujo cuando se realizan mediciones de concentración de acetona. Incluso puede ser
posible medir las concentraciones del flujo de alimentación de entrada para poder estudiar el
impacto de este factor. Generalmente, un estudio observacional tiende a resolver los
problemas 1 y 2 arriba mencionados y va un largo camino hacia la obtención de datos precisos
y confiables. Sin embargo, los estudios observacionales pueden no ayudar a resolver todos
los problemas planteados. los problemas 3 y 4.
1-2.4 Experimentos diseñados
En un experimento diseñado, el ingeniero realiza cambios deliberados o intencionados en las
variables controlables del sistema o proceso, observa los datos de salida del sistema
resultantes y luego hace una inferencia o decisión sobre qué variables son responsables de
los cambios observados en el rendimiento de salida. El ejemplo del conector de nylon en la
Sección 1-1 ilustra un experimento diseñado; es decir, se hizo un cambio deliberado en el
grosor de la pared del conector con el objetivo de descubrir si se podía obtener o no una mayor
fuerza de extracción. Los experimentos diseñados juegan un papel muy importante en el
diseño y desarrollo de ingeniería y en la mejora de los procesos de fabricación. Y asi
Generalmente, cuando los productos y procesos se diseñan y desarrollan con experimentos
diseñados, disfrutan de un mejor rendimiento, mayor confiabilidad y costos generales más
bajos. Los experimentos diseñados también juegan un papel crucial en la reducción del tiempo
de entrega para las actividades de diseño y desarrollo de ingeniería. Por ejemplo, considere el
problema que implica la elección del grosor de la pared para el conector de nylon. Esta es una
simple ilustración de un experimento diseñado. El ingeniero eligió dos espesores de pared para
el conector y realizó una serie de pruebas para obtener la extracción. medidas de fuerza en
cada espesor de pared. En este simple experimento comparativo, el está interesado en
determinar si hay alguna diferencia entre los diseños de 332 y 18 pulgadas. Un enfoque que
se podría usar en el análisis de los datos de este experimento es comparar la fuerza de
extracción media para el diseño de 332 pulgadas con la fuerza de extracción media para el
diseño de 18 pulgadas usando pruebas de hipótesis estadísticas, lo cual se discute en detalle
en los capítulos 9 y 10. Generalmente, una hipótesis es una afirmación sobre algún aspecto
del sistema en el que estamos interesados. Por ejemplo, el ingeniero podría querer saber si la
fuerza de extracción media de un diseño de 332 pulgadas excede la carga máxima típica que
se espera encontrar en esta aplicación, digamos 12.75 libras. Por lo tanto, estaríamos
interesados en probar la hipótesis de que la resistencia media excede las 12.75 libras. Esto se
denomina problema de prueba de hipótesis de muestra única. También es un ejemplo de un
estudio analítico. El Capítulo 9 presenta técnicas para este tipo de problemas.
Alternativamente, el ingeniero podría estar interesado en probar la hipótesis de que aumentar
el grosor de la pared de 332 a 18 pulgadas resulta en un aumento de la fuerza media de
extracción. Claramente, este es un estudio analítico; también es un ejemplo de un problema
de prueba de hipótesis de dos muestras. En el Capítulo 10 se discuten dos ejemplos de
problemas de prueba de hipótesis. Los experimentos diseñados son un enfoque muy poderoso
para estudiar sistemas complejos, como la columna de destilación. Este proceso tiene tres
factores, las dos temperaturas y la tasa de reflujo, y queremos investigar el efecto de estos
tres factores en la concentración de acetona de salida. Un buen diseño experimental para este
problema debe asegurar que podemos separar los efectos de los tres factores sobre la
concentración de acetona. Los valores especificados de los tres factores utilizados en el
experimento se denominan niveles de factor. Típicamente, usamos un pequeño número de
niveles para cada factor, como dos o tres. Para el problema de la columna de destilación,
supongamos que usamos un nivel "alto,'' y "bajo,''' (denotado como +1 y 1, respectivamente)
para cada uno de los factores. Por lo tanto, utilizaríamos dos niveles para cada uno de los tres
factores. Una estrategia de diseño de experimentos muy razonable utiliza todas las
combinaciones posibles de los niveles de factores para formar un experimento básico con ocho
escenarios diferentes para el proceso. Este tipo de experimento se denomina experimento
factorial. La Tabla 1-1 presenta este diseño experimental. La Figura 1-6, en la página 8, ilustra
que este diseño forma un cubo en términos de estos niveles altos y bajos. Con cada ajuste de
las condiciones de proceso, permitimos que la columna alcance el equilibrio, tomamos una
muestra del flujo de producto y determinamos la concentración de acetona. Entonces podemos
hacer inferencias específicas sobre el efecto de estos factores. Tal enfoque nos permite
estudiar proactivamente una población o proceso. Los experimentos diseñados juegan un
papel muy importante en la ingeniería y la ciencia. Los capítulos 13 y 14 discuten muchos de
los principios y técnicas importantes del diseño experimental.
o manipulación. Los ajustes deben aplicarse sólo para compensar un cambio no aleatorio en
el proceso, entonces pueden ayudar. Se puede utilizar una simulación por ordenador para
demostrar las lecciones del experimento del embudo. La Figura 1-10 muestra un diagrama de
tiempo de 100 mediciones (denotadas como y) de un proceso en el que sólo hay presentes
perturbaciones aleatorias. El valor previsto para el proceso es de 10 unidades. La figura
muestra los datos con y sin ajustes que se aplican a la media del proceso en un intento de
producir datos más cercanos al objetivo. Cada ajuste es igual y opuesto a la desviación de la
medición anterior del objetivo. Por ejemplo, cuando la medición es 11 (una unidad por encima
del objetivo), la media se reduce en una unidad antes de que se genere la siguiente medición.
El supercontrol ha aumentado las desviaciones del objetivo. La Figura 1-11 muestra los datos
sin ajuste de la Fig. 1-10, excepto que las mediciones después del número de observación 50
se incrementan en dos unidades para simular el efecto de un cambio en la media del proceso.
Cuando hay un verdadero cambio en la media de un proceso, un ajuste puede ser útil. La
Figura 1-11 también muestra los datos obtenidos cuando se realiza un ajuste (una disminución
de
realmente caen por debajo del límite inferior de control. Esta es una señal muy fuerte de que
la acción correctiva es requerido en este proceso. Si podemos encontrar y eliminar la causa
subyacente de esta alteración, podemos mejoran considerablemente el rendimiento del
proceso. Los gráficos de control de calidad son una aplicación muy importante de las
estadísticas para la supervisión y el control, y mejorar un proceso. La rama de la estadística
que utiliza gráficos de control de calidad se denomina control de proceso estadístico.
Discutiremos el SPC y las gráficas de control en el Capítulo 16.
1-4 PROBABILIDAD Y MODELOS DE PROBABILIDAD
En la Sección 1-1, se mencionó que las decisiones a menudo deben basarse en mediciones
de sólo un subconjunto de objetos seleccionados en una muestra. Este proceso de
razonamiento de una muestra de objetos a conclusiones para una población de objetos se
denominó inferencia estadística. Un ejemplo mencionado fue una muestra de tres obleas
seleccionadas de un lote de producción mayor de obleas en la fabricación de semiconductores.
Para tomar buenas decisiones, un análisis de cuán bien una muestra representa a una
población es claramente necesario. Si el lote contiene obleas defectuosas, ¿qué tan bien lo
detectará la muestra? ¿Cómo podemos cuantificar el criterio para "detectar bien"?
Básicamente, ¿cómo podemos cuantificar los riesgos de las decisiones basadas en muestras?
Además, ¿cómo se deben seleccionar las muestras para tomar buenas decisiones, es decir,
que tengan riesgos aceptables? Los modelos de probabilidad ayudan a cuantificar los riesgos
involucrados en la inferencia estadística, es decir, los riesgos involucrados en las decisiones
que se toman a diario. Más detalles son útiles para describir el papel de los modelos
probabilísticos. Supongamos que un lote de producción contiene 25 obleas. Si todas las obleas
están defectuosas o todas son buenas, es evidente que cualquier muestra generará todas las
obleas defectuosas o todas las buenas, respectivamente. Sin embargo, supongamos que sólo
una oblea en el lote es defectuosa. Entonces una muestra podría o no detectar (incluir) la
oblea. Se puede utilizar un modelo de probabilidad, junto con un método para seleccionar la
muestra, para cuantificar los riesgos de que se detecte o no la oblea defectuosa. Sobre la base
de este análisis, el tamaño de la muestra puede aumentar (o disminuir). El riesgo en este caso
puede interpretarse de la siguiente manera. Supongamos que se muestrean una serie de lotes,
cada uno con exactamente una oblea defectuosa. Los detalles del método utilizado para
seleccionar la muestra se posponen hasta que se discuta la aleatoriedad en el siguiente
capítulo. No obstante, se supone que se selecciona el mismo tamaño de muestra (por ejemplo,
tres obleas) de cada lote de la misma manera. La proporción de los lotes en los que la oblea
defectuosa está incluida en la muestra o, más concretamente, el límite de esta proporción,
dado que el número de lotes de la serie tiende al infinito, se interpreta como la probabilidad de
que se detecte la oblea defectuosa. Se utiliza un modelo de probabilidad para calcular esta
proporción bajo supuestos razonables para la manera en que se selecciona la muestra. Esto
es una suerte porque no queremos intentar muestrear de una serie infinita de lotes. Los
problemas de este tipo se tratan en los capítulos 2 y 3. Y lo que es más importante, esta
probabilidad proporciona información valiosa y cuantitativa con respecto a cualquier decisión
sobre la calidad del lote basada en la muestra. Recuerde de la Sección 1-1 que una población
podría ser conceptual, como en un estudio analítico que aplica inferencia estadística a la
producción futura basada en los datos de la producción actual. Cuando las poblaciones se
extienden de esta manera, el papel de la inferencia estadística y de los modelos de
probabilidad asociados se vuelve aún más importante. En el ejemplo anterior, cada oblea de
la muestra sólo se clasificó como defectuosa o no. En su lugar, podría obtenerse una medición
continua de cada oblea. En la Sección 1-2.6, las mediciones de concentración se tomaron a
intervalos periódicos de un proceso de producción. La Figura 1-7 muestra que la variabilidad
está presente en las mediciones, y podría existir la preocupación de que el proceso se haya
desplazado del objetivo establecido para la concentración. De forma similar a la oblea
defectuosa, es posible que se desee cuantificar nuestra capacidad para detectar un cambio de
proceso basado en los datos de la muestra. Los límites de control se mencionaron en la
Sección 1-2.6 como reglas de decisión para ajustar o no un proceso. La probabilidad de que
se detecte un cambio de proceso en particular puede calcularse con un modelo de probabilidad
para mediciones de concentración. Los modelos para mediciones continuas se desarrollan
sobre la base de supuestos plausibles para los datos y un resultado conocido como teorema
del límite central, y la distribución normal asociada es un modelo de probabilidad
particularmente valioso para la inferencia estadística. Por supuesto, es importante comprobar
las suposiciones. Estos tipos de modelos probabilísticos se discuten en el Capítulo 4. El
objetivo sigue siendo cuantificar los riesgos inherentes a la inferencia realizada a partir de los
datos de la muestra.
A lo largo de los Capítulos 6 al 15, las decisiones se basan en inferencias estadísticas a partir
de datos de muestras. Los modelos de probabilidad continua, específicamente la distribución
normal, se utilizan ampliamente para cuantificar los riesgos en estas decisiones y para evaluar
las formas de recolectar los datos y el tamaño de la muestra que se debe seleccionar.
1-2.5 Un experimento factorial para el problema de la fuerza de extracción del conector
(Sólo CD)
Mucho de lo que sabemos en las ciencias de ingeniería y físico-químicas se desarrolla a través
de pruebas o experimentos. A menudo los ingenieros trabajan en áreas problemáticas en las
que ninguna teoría científica o de ingeniería es directa o completamente aplicable, por lo que
la experimentación y la observación de los datos resultantes constituyen la única manera de
resolver el problema. Incluso cuando existe una buena teoría científica subyacente en la que
podemos basarnos para explicar los fenómenos de interés, casi siempre es necesario llevar a
cabo pruebas o experimentos para confirmar que la teoría está efectivamente operativa en la
situación o el entorno en el que se está aplicando. Hemos observado que el pensamiento
estadístico y los métodos estadísticos juegan un papel importante en la planificación,
conducción y análisis de los datos de los experimentos de ingeniería. Para ilustrar mejor el
concepto de diseño factorial introducido en la Sección 1-2.4, supongamos que en el ejemplo
del espesor de la pared del conector hay dos factores adicionales de interés, el tiempo y la
temperatura. Los tiempos de curación de interés son de 1 y 24 horas y los niveles de
temperatura son de 70°F y 100°F. Ahora bien, puesto que los tres factores tienen dos niveles,
un experimento factorial consistiría en las ocho combinaciones de prueba mostradas en las
esquinas del cubo en la Fig. S1 1. Dos ensayos, o réplicas, se realizarían en cada esquina,
resultando en un experimento factorial de 16 corridas. Los valores observados de la fuerza de
extracción se muestran entre paréntesis en las esquinas del cubo en la Fig. S1-1. Note que
este experimento usa ocho prototipos de 332 pulgadas y ocho prototipos de 18 pulgadas, el
mismo número usado en el estudio comparativo simple en la Sección 1-1, pero ahora estamos
investigando tres factores. Generalmente, los experimentos factoriales son la manera más
eficiente de estudiar los efectos conjuntos de varios factores. De este experimento pueden
extraerse algunas conclusiones tentativas muy interesantes. Primero, compare la fuerza
promedio de arranque de los ocho prototipos de 332 pulgadas con la fuerza promedio de
arranque de los ocho prototipos de 18 pulgadas (estos son los promedios de las ocho carreras
en la cara izquierda y derecha del cubo en la Fig. S1-1, respectivamente), o 14.1
13.45 0.65. Por lo tanto, al aumentar el grosor de la pared de 332 a 18 pulgadas, la fuerza
media de extracción aumenta en 0,65 libras. A continuación, para medir el efecto de aumentar
el tiempo de curado, compare el promedio de las ocho corridas en la cara posterior del cubo
(donde el tiempo es de 24 horas) con el promedio de las ocho corridas en la cara frontal (donde
el tiempo es de 1 hora), o 14.275 13.275 1. El efecto de aumentar el tiempo de curado de 1 a
24 horas es aumentar la fuerza media de arranque en 1 libra; es decir, el tiempo de curado
aparentemente tiene un efecto mayor que el efecto de aumentar la pared.
espesor. El efecto de la temperatura de curado puede evaluarse comparando el promedio de
las ocho corridas en la parte superior del cubo (donde la temperatura es de 100°F) con el
promedio de las ocho corridas en la parte inferior (donde la temperatura es de 70°F), o 14.125
13.425 0.7. Por lo tanto, el efecto de aumentar la temperatura de curado es aumentar la fuerza
de tracción promedio en 0.7 libras. Por lo tanto, si el objetivo del ingeniero es diseñar un
conector con una alta fuerza de tracción, aparentemente existen varias alternativas, tales como
aumentar el grosor de la pared y usar las condiciones de curado "estándar" de 1 hora y 70°F
o usar el grosor de pared original de 332 pulgadas pero especificando un tiempo de curado
más largo y una temperatura de curado más alta. Existe una relación interesante entre el
tiempo de curado y la temperatura de curado que puede observarse examinando el gráfico de
la Fig. S1-2. Este gráfico se construyó calculando la fuerza media de extracción en las cuatro
combinaciones diferentes de tiempo y temperatura, trazando estos promedios contra el tiempo
y luego conectando los puntos que representan los dos niveles de temperatura con líneas
rectas. La pendiente de cada una de estas rectas representa el efecto del tiempo de curado
sobre la fuerza de arranque. Observe que las pendientes de estas dos líneas no parecen ser
las mismas, lo que indica que el efecto del tiempo de curado es diferente en los dos valores de
temperatura de curado. Este es un ejemplo de una interacción entre dos factores. La
interpretación de esta interacción es muy sencilla; si se utiliza el tiempo de curado estándar (1
hora), la temperatura de curado tiene poco efecto, pero si se utiliza el tiempo de curado más
largo (24 horas), el aumento de la temperatura de curado tiene un gran efecto en la fuerza
media de arranque. Las interacciones ocurren a menudo en sistemas físicos y químicos, y los
experimentos factoriales son la única manera de investigar sus efectos. De hecho, si las
interacciones están presentes y no se utiliza la estrategia experimental factorial, se pueden
obtener resultados incorrectos o engañosos. Podemos fácilmente extender la estrategia
factorial a más factores. Supongamos que el ingeniero quiere considerar un cuarto factor, el
tipo de adhesivo. Hay dos tipos: el adhesivo estándar y un nuevo competidor. La Figura S1-3
ilustra cómo los cuatro factores, espesor de pared, tiempo de curado, temperatura de curado
y tipo de adhesivo, pueden ser investigados en un diseño factorial. Ya que los cuatro factores
están todavía en dos niveles, el diseño experimental puede ser representado geométricamente
como un cubo (en realidad, es un hipercubo). Note que como en cualquier diseño factorial,
todas las combinaciones posibles de los cuatro factores son probadas. El ejercicio requiere 16
pruebas.
Generalmente, si hay factores k y cada uno de ellos tiene dos niveles, un diseño experimental
factorial requerirá ejecuciones de 2k. Por ejemplo, con k 4, el diseño 24 en la Fig. S1-3 requiere
16 pruebas. Evidentemente, a medida que aumenta el número de factores, el número de
ensayos necesarios en un experimento factorial aumenta rápidamente; por ejemplo, ocho
factores cada uno a dos niveles requerirían 256 ensayos. Esto rápidamente se vuelve inviable
desde el punto de vista del tiempo y de otros recursos. Afortunadamente, cuando hay de cuatro
a cinco o más factores, por lo general no es necesario probar todas las combinaciones posibles
de niveles de factores. Un experimento factorial fraccional es una variación del arreglo factorial
básico en el cual sólo un subconjunto de las combinaciones factoriales son realmente
probadas. La Figura S1-4 muestra un diseño experimental factorial fraccional para la versión
de cuatro factores del experimento del conector. Las combinaciones de prueba marcadas con
un círculo en esta figura son las únicas combinaciones de prueba que deben ejecutarse. Este
diseño experimental requiere sólo 8 ejecuciones en lugar de las 16 originales, por lo que se
llamaría una media fracción. Este es un excelente diseño experimental en el que estudiar los
cuatro factores. Proporcionará buena información sobre los efectos individuales de los cuatro
factores y alguna información sobre cómo estos factores interactúan. Los experimentos
factoriales y factoriales fraccionales son ampliamente utilizados por ingenieros y científicos en
la investigación y desarrollo industrial, donde se diseñan y desarrollan nuevas tecnologías,
productos y procesos, y donde se mejoran los productos y procesos existentes. Dado que tanto
trabajo de ingeniería implica pruebas y experimentación, es esencial que todos los ingenieros
comprendan los principios básicos de la planificación de experimentos eficientes y efectivos.
Discutimos estos principios en el Capítulo 13. El capítulo 14 se concentra en los factoriales
factoriales y fraccionarios que hemos introducido aquí.