Está en la página 1de 116

INSTITUTO TECNOLÓGICO Y DE ESTUDIOS SUPERIORES DE MONTERREY

ESTUDIO COMPARATIVO DE DISEÑOS EXPERIMENTALES


DE SUPERFICIE DE RESPUESTA PARA LA OPTIMIZACIÓN
DE FACTORES LIMITANTES EN PROCESOS INDUSTRIALES.

TESIS QUE PARA OPTAR EL GRADO DE


MAESTRO EN CIENCIAS CON ESPECIALIDAD EN INGENIERÍA INDUSTRIAL
PRESENTA

EDUARDO ELEUTERIO HERNÁNDEZ CRUZ

Asesor: Dr. Manuel Álvarez Madrigal


Co-Asesor: Dr. Humberto Vaquera Huerta
Asesor Externo: M. en C. Mario Ulises Larqué Saavedra

Comité de Tesis: Dr. Manuel Álvarez Madrigal


M. en C. Mario Ulises Larqué Saavedra
Dra. Ivonne Abud Urbiola

Jurado: Dra. Ivonne Abud Urbiola Presidente


M. en C. Mario Ulises Larqué Saavedra Secretario
Dr. Manuel Álvarez Madrigal Vocal
I

DEDICACIONES.

A MIS PADRES Y HERMANOS.


Este trabajo no hubiera podido culminarse sin el apoyo, siempre incondicional, de la FAMILIA
HERNÁNDEZ CRUZ, quienes durante toda mi vida han creído en mí como estudiante, hijo y
hermano, orientándome por el camino del éxito y colmándome de amor, cariño y admiración.

A MIS ABUELITOS.
A estas maravillosas personas que Dios asentó para siempre en un lugar primordial en mi
corazón y que gracias a su amor he logrado alcanzar un éxito más en mi vida profesional. En
especial, deseo dedicar este trofeo académico a mi ABUELITO TOMÁS CRUZ, quien
desafortunadamente me dejó prematuramente al iniciar estos estudios, no sin antes dejarme
infinidad de enseñanzas de vida que llevaré indelebles durante toda mi vida.

A MI PAREJA.
A ese pequeño ser que me ha colmado de cariño y respeto, orientado y apoyado en todos y cada
uno de mis proyectos tanto académicos como de vida.
II

RECONOCIMIENTOS.

Es una tarea difícil enumerar a todas aquellas personas que de alguna manera intervinieron, ya
sea directa o indirectamente, en la realización de este trabajo. Sin embargo, intentaré hacer
patente el agradecimiento y el reconocimiento que cada una de ellas se merece, en su tiempo y
lugar.

Agradezco:
Al TECNOLÓGICO DE MONTERREY CAMPUS ESTADO DE MÉXICO y en particular a la
ESCUELA DE GRADUADOS EN INGENIERÍA Y CIENCIAS (EGIC) por haberme otorgado
el apoyo económico como becario durante los estudios realizados. En particular, al DR. JAIME
MORA VARGAS -Director del Programa de Maestría- quien me apoyó a lo largo de todo este
tiempo tanto como profesor como amigo.

Al DR. HUMBERTO VAQUERA HUERTA por haber sido el gestor y punto de partida para
iniciar este trabajo de investigación, y sobretodo por haberme proporcionado el apoyo y
orientación para realizarlo con éxito.

A los profesores del Comité de Tesis, profesor DR. MANUEL ÁLVAREZ MADRIGAL, por
haberme recibido como tesista, orientado y apoyado hasta la culminación de este trabajo; a la
DRA. IVONNE ABUD URBIOLA, con quien más que una relación alumno-profesor, demostró
ser siempre una amiga incondicional y guía-receptora activa de muchas de mis inquietudes
académicas; y al profesor M. en C. MARIO ULISES LARQUÉ SAAVEDRA, por haber fungido
como promotor de las ideas sobre Estadística y Diseño de Experimentos en las aulas de la
Universidad Autónoma Metropolitana, y que ahora han sido plasmadas en un trabajo de
investigación a nivel Maestría.

A todos y cada uno de los profesores con quienes tuve la oportunidad de compartir un valioso
tiempo en las aulas académicas del TECNOLÓGICO DE MONTERREY: Dr. Eduardo Díaz
Santillán, Dr. Miguel González, Dr. Iván Roa y Dr. Mario Carranza.

Al profesor M. en C. GERARDO ARAGÓN GONZÁLEZ, por haber apostado por mí aún


siendo estudiante de Ingeniería Industrial en la Universidad Autónoma Metropolitana Unidad
Azcapotzalco y por apoyarme en el proyecto de continuar con mis estudios de Maestría.

A todos mis compañeros de aula, en especial a Ricardo Trucíos y Erick García.

A la secretaria de la Escuela de Graduados en Ingeniería y Ciencias (EGIC), la señora Martha


Martínez, por todo su apoyo en la parte administrativa que no podemos nunca evitar.

A todos ellos: MUCHAS GRACIAS.


III

RESUMEN.
El Diseño de Experimentos (DOE) aplicado al estudio de procesos industriales ha sido una
herramienta cada vez más utilizada en la práctica común, debido a las ventajas operativas que
representa analizar el comportamiento de una máquina, equipo, o un conjunto de éstos, bajo
condiciones normales de operación, considerando sólo aquellos factores o elementos físicos
controlables que realmente están afectando el desempeño del proceso, lo que permite estimar de
manera veraz y confiable las posibles mejoras que podrían aplicarse con objeto de incrementar la
calidad del producto final.

Para realizar dicho análisis operativo, existen distintas metodologías de aplicación que
involucran elementos de distinta naturaleza y que van desde la simple intuición y experiencia
que sobre el proceso se tenga, hasta la utilización de sofisticados sistemas de análisis de datos
para la construcción de las conclusiones finales. En este sentido, es importante contar con una
metodología lo suficientemente capaz de guiar al experimentador por el camino correcto en la
conducción de diseños experimentales, pero sin llegar a ser demasiado rígida que sea aplicable
sólo en casos especiales.

En este trabajo de investigación se plantean y desarrollan dos aspectos relevantes para el estudio
y análisis de un proceso de tipo industrial: una Metodología de Aplicación Integral, que
considera aspectos fundamentales a considerar para una correcta conducción de experimentos; y
por otro, el análisis cuantitativo del desempeño que presentan algunos arreglos experimentales
específicos para la optimización y mejoramiento de procesos: los Diseños de Superficie de
Respuesta. Este último elemento se incluye dentro de la Metodología de Aplicación, para guiar
al interesado en la selección racional del mejor diseño que ajusta una superficie y con la cual se
establecen los niveles óptimos de operación del proceso que se analiza.

El trabajo esta dividido en 5 capítulos. El primero consta de una revisión que si bien no pretende
ser exhaustiva, al menos pretende involucrar al lector en la terminología y jerga estadística sobre
el análisis y diseño de experimentos en ingeniería. El segundo establece los principales objetivos
que se intentará cubrir a lo largo del presente trabajo y desarrolla punto por punto la Metodología
de Aplicación propuesta, mencionando los supuestos que deben considerarse así como algunos
ejemplos sobre las herramientas de análisis aplicables en cada uno de ellos. El capítulo tercero
hace referencia al Estudio Comparativo de Diseños de Superficie de Respuesta; es aquí donde se
desarrolla el análisis cuantitativo que permite establecer el desempeño que cada arreglo
experimental considerado presenta al aplicarse a un proceso industrial, y es con base en él, que
debe llevarse a cabo la selección del mejor diseño a ser aplicado al proceso que se desea
optimizar. El cuarto capítulo presenta un caso de aplicación para la técnica de análisis de diseños
descrita en el Estudio Comparativo (cap.3); plantea algunas observaciones generadas para los
dos casos considerados: 3 y 4 factores de estudio y marca la pauta para la construcción de las
conclusiones generales, las cuales son presentadas en el quinto capítulo del trabajo. Al final se
incluyen los anexos y demás información que dan soporte al trabajo, como son: las matrices de
cada diseño analizado, la discusión del caso con 4 factores de estudio y los códigos de los
programas utilizados.
IV

ÍNDICE ANALÍTICO

1 INTRODUCCIÓN AL DISEÑO DE EXPERIMENTOS (DOE). 1

1.1. DISEÑO DE UN SOLO FACTOR A LA VEZ (OFAT) PARA LLEVAR A CABO EL ANÁLISIS DE UN
EXPERIMENTO. 2
1.2. ¿PARA QUE SIRVE EL DISEÑO DE EXPERIMENTOS (DOE)? 3
1.3. DISEÑOS MÁS USADOS EN LA PRÁCTICA COMÚN: FACTORIALES FRACCIONADOS. 5
1.3.1. DISEÑO FACTORIAL 2K. 9
1.4. DISEÑOS FACTORIALES FRACCIONADOS. 11
1.4.1. LA FRACCIÓN UN MEDIO DEL DISEÑO 2K. 12
1.5. CONFUSIÓN EN UN DISEÑO EXPERIMENTAL. 14
1.6. RESOLUCIÓN DE UN DISEÑO EXPERIMENTAL. 15
1.7. LA EXPERIMENTACIÓN COMO HERRAMIENTA DE OPTIMIZACIÓN. 16
1.8. CRITERIOS DE OPTIMALIDAD. 18
1.8.1. CRITERIO DE OPTIMALIDAD D. 19
1.8.2. CRITERIOS DE OPTIMALIDAD A Y G. 20
1.9. DISEÑOS ESTÁNDARES PARA OPTIMIZACIÓN GENERAL. 21
1.10. METODOLOGÍA DE SUPERFICIE DE RESPUESTA (MSR). 22
1.10.1. FUNCIÓN DEL ANÁLISIS DE REGRESIÓN DENTRO DE LA METODOLOGÍA DE SUPERFICIE DE
RESPUESTA (MSR). 23
1.10.2. NATURALEZA SECUENCIAL DE LA METODOLOGÍA DE SUPERFICIE DE RESPUESTA (MSR). 24
1.10.3. DISEÑOS DE PRIMER ORDEN. 25
1.10.4. DISEÑOS DE SEGUNDO ORDEN. 25
1.10.5. DISEÑOS EXPERIMENTALES PARA AJUSTAR SUPERFICIES DE RESPUESTA. 26

2 APROXIMACIONES METODOLÓGICAS: JUSTIFICACIÓN Y APORTE DEL TRABAJO. 33

2.1. OBJETIVOS GENERALES DEL TRABAJO. 34


2.2. OBJETIVOS PARTICULARES. 35
2.3. METODOLOGÍA DE APLICACIÓN PROPUESTA PARA LA OPTIMIZACIÓN DE FACTORES
LIMITANTES EN PROCESOS INDUSTRIALES. 35
1. DETECTAR EL PROCESO A ANALIZAR 35
2. DEFINIR LOS OBJETIVOS DEL ANÁLISIS 37
3. IDENTIFICAR LOS FACTORES IMPORTANTES Y SUS NIVELES 38
4. REALIZAR LA SELECCIÓN DEL DISEÑO EXPERIMENTAL A SER APLICADO (ESTUDIO COMPARATIVO) 40
5. LLEVAR A CABO EL EXPERIMENTO 40
6. ANALIZAR LOS DATOS EXPERIMENTALES 41
7. BOSQUEJAR CONCLUSIONES Y TOMAR DECISIONES 41
8. IMPLEMENTAR LAS MEJORAS AL PROCESO EN UN TIEMPO ADECUADO 41
9. SEGUIMIENTO OPERATIVO DE MEJORAS AL PROCESO 41

3 ESTUDIO COMPARATIVO DE DISEÑOS EXPERIMENTALES PARA LA OPTIMIZACIÓN


DE FACTORES. 43

3.1. COMPARATIVA DE DISEÑOS MEDIANTE EFICIENCIAS. 44


3.1.1. RESULTADOS. 46
3.1.2. DISCUSIÓN. 47
V

3.2. COMPARATIVA DE DISEÑOS UTILIZANDO UN MODELO DE SIMULACIÓN. 51


3.2.1. DISCUSIÓN. 58

4 CASO DE APLICACIÓN. MODELO DE SIMULACIÓN UTILIZADO. 60

4.1. DESCRIPCIÓN DE CASO Y CÁLCULO SECUENCIAL. 60


4.2. RESULTADOS Y DISCUSIÓN. 66
4.3. RESUMEN ESTUDIO COMPARATIVO BASADO EN EL CASO DE APLICACIÓN. 71

5 CONCLUSIONES GENERALES. 72

5.1. SOBRE EL ESTUDIO COMPARATIVO DESARROLLADO. 72


5.2. SOBRE LA METODOLOGÍA DE APLICACIÓN PROPUESTA. 75
5.3. INVESTIGACIÓN FUTURA. 76

6 REFERENCIAS Y BIBLIOGRAFÍA. 78

ANEXO A. MATRICES DE LOS DISEÑOS EXPERIMENTALES UTILIZADAS EN EL


ESTUDIO COMPARATIVO. 80

A1. DISEÑOS DE SUPERFICIE DE RESPUESTA ESTÁNDAR. 80


A1.1. PARA 3 FACTORES DE ESTUDIO. 81
A1.2. PARA 4 FACTORES DE ESTUDIO. 85
A2. DISEÑOS ÓPTIMOS GENERADOS POR COMPUTADORA. 90
A2.1. PARA 3 FACTORES DE ESTUDIO. 90
A2.2. PARA 4 FACTORES DE ESTUDIO. 93

ANEXO B. ANÁLISIS CUANTITATIVO Y DE CÁLCULO PARA EL CASO CON 4 FACTORES


DE ESTUDIO. 95

B1. DESARROLLO MATRICIAL. 95


B2. ANÁLISIS DE ESTABILIDAD PARA EL MODELO DE SIMULACIÓN CON 4 FACTORES. 101

ANEXO C. CÓDIGOS DE LOS PROGRAMAS UTILIZADOS PARA GENERAR EL MODELO


DE SIMULACIÓN PROPUESTO Y PARA LA CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS EN
SAS®. 103

C1. CÓDIGO UTILIZADO PARA EL MODELO DE SIMULACIÓN PROPUESTO. 103


C1.1. PROGRAMA PARA EL CASO DE 3 FACTORES DE ESTUDIO. 104
C1.2. PROGRAMA PARA EL CASO DE 4 FACTORES DE ESTUDIO. 105
C2. CÓDIGO UTILIZADO PARA CONSTRUIR LOS DISEÑOS ÓPTIMOS. 107
C2.1. PROGRAMA PARA CONSTRUIR UN DISEÑO ÓPTIMO 108
C2.2. EJEMPLO DE SALIDA SAS® PARA UN DISEÑO ÓPTIMO. 108
VI

LISTA DE TABLAS

Tabla 1. Experimento Factorial con dos factores. 5


Tabla 2. Experimento Factorial con interacción. 6
Tabla 3. Matriz de Diseño de un experimento con 3 factores y 8 corridas. 12
Tabla 4. Matriz de Diseño de un experimento factorial 2(4-1). 12
Tabla 5. Patrón de Alias para un experimento factorial 2(4-1). 13
Tabla 6. Eficiencias D- y G- para Diseños Estándar. 47
Tabla 7. Eficiencias D- y G- para Diseños Óptimos. 47
Tabla 8. Número de Réplicas necesarias para obtener estabilidad en el modelo de simulación y un
error máximo permisible de 0.0739 para 3 factores de estudio. 66
Tabla 9. Comparativa de Diseños Estándar empleando el Modelo de Simulación con 3 factores de
estudio. 67
Tabla 10. Número de Réplicas necesarias para obtener estabilidad en el modelo de simulación y un
error máximo permisible de 0.0832 para 4 factores de estudio. 68
Tabla 11. Comparativa de Diseños Estándar empleando el Modelo de Simulación con 4 factores de
estudio. 69
Tabla 11a. Errores Cuadrados Medios para Diseños Óptimos. 70
Tabla 12. Resultados del Estudio utilizando dos criterios comparativos para Diseños
Experimentales, considerando experimentos con 3 y 4 factores de estudio. 71
Tabla 13. Algunas recomendaciones de uso para Diseños Óptimos en comparación con Diseños
Estándar. 74
Tabla 8. Número de Réplicas necesarias para obtener estabilidad en el modelo de simulación y un
error máximo permisible de 0.0832 para 4 factores de estudio. 101
VII

LISTA DE FIGURAS

Fig. 1. Experimento factorial sin interacción. 7


Fig. 2. Experimento factorial con interacción. 7
Fig. 3. Experimento con un factor a la vez. 8
Fig. 4. Eficiencia relativa de un diseño factorial con respecto a un experimento de un factor a la vez
(OFAT) a dos niveles. 8
Fig. 5. Ejemplo del Contorno de una Superficie de Respuesta. 23
Fig. 6. Exploración Secuencial de la Superficie de Respuesta. 26
Fig. 7. Diseño Box-Behnken para 3 factores. 30
Fig. 8. Diseños Centrales Compuestos para k = 2 y k = 3. 31
Fig. 9. Encadenamiento de Procesos para la Fabricación de cocinas domésticas de acero inoxidable.
36
Fig. 10. Diagrama Ishikawa o de Causa-Efecto para la identificación de procesos críticos. 37
Fig. 11. Ejemplo de un Diagrama de Gantt para la programación de actividades y asignación de
recursos. 38
Fig. 12. Factores de importancia: a) variables físicas, b) variables codificadas. 40
Fig. 13. Ejemplo del Análisis de Varianza (ANOVA) con 3 factores de estudio generado por
Minitab. 41
Fig. 14. Gráfica Comparativa para Diseños Box-Behnken y Diseños Óptimos a 3 factores. 48
Fig. 15. Gráfica Comparativa para Diseños Central Compuesto y Diseños Óptimos a 3 factores. 49
Fig. 16. Gráfica Comparativa para Diseños Box-Behnken y Diseños Óptimos a 4 factores. 50
Fig. 17. Gráfica Comparativa para Diseños Central Compuesto y Diseños Óptimos a 4 factores. 51
Fig. 18. Ilustración del Grado de Aproximación de Diseños mediante Análisis de Regresión. 52
Fig. 19. Errores asociados a cada punto de diseño a generar para el vector ŷ . 54
Figs. 20-28. Gráficas de Estabilidad del Modelo de Simulación Propuesto con 3 factores. 57
Fig. 29. Superficie de Respuesta asociada al modelo de regresión utilizado para validar el Modelo
de Simulación propuesto. 61
Fig. 30. Gráfica de Errores Cuadrados Medios como función del Número de Simulaciones para los
Diseños Estándar con 3 factores. 67
Fig. 31. Gráfica de Errores Cuadrados Medios como función del Número de Simulaciones para los
Diseños Estándar con 4 factores. 69
Figs. B2.1-B2.9. Gráficas de Estabilidad para el Modelo de Simulación propuesto con 4 factores de
estudio. 102
1

1 INTRODUCCIÓN AL DISEÑO DE EXPERIMENTOS


(DOE).

El Diseño de Experimentos (DOE) es una herramienta estadística muy útil y aplicable para poder
conocer el comportamiento de datos recolectados a partir de una serie de ensayos diseñados para
probar una relación definida bajo alguna circunstancia específica. Esta relación puede involucrar
varios elementos de variación, también conocidos como factores, que afectan sensiblemente la
respuesta estudiada, incluyéndose además todas las interacciones posibles, es decir, la respuesta
esperada puede estar siendo afectada en gran medida por la interacción (o interdependencia)
entre dos o más factores y no simplemente por los factores individuales.

Un punto importante en experimentación es observar la utilidad de los resultados buscados, es


decir, el investigador debe tener clara conciencia de qué es lo que se pretende determinar al
diseñar y realizar el experimento; debe tener claro que todo proceso bajo estudio contiene tanto
variables conocidas (controlables) como desconocidas (no controlables) que de forma
sistemática afectarán los resultados deseados. Es por ello necesario que el investigador sea una
persona familiarizada con el sistema o proceso estudiado, de manera que pueda ser capaz de
distinguir y manejar los errores y discrepancias observadas así como discriminar las
interacciones no significativas de los factores considerados en el experimento. Además, este
hecho permitirá que la conducción del experimento se realice de forma correcta y asertiva.

Un diseño de experimentos común podría ser aplicado para estudiar las relaciones entre las
distintas concentraciones de ácido sulfhídrico y la cantidad de cloruros acumulados en un ducto
de acero al carbono cuya sustancia de trabajo es petróleo crudo. En este ejemplo práctico, la
variable respuesta sería la velocidad de corrosión observada en el tiempo de operación
establecido. Los resultados del experimento deberán conducir a resolver las siguientes preguntas:

• ¿cuáles de los factores considerados en el experimento realmente están afectando la


velocidad de corrosión del ducto?
2

• ¿cuáles son las relaciones entre los factores críticos que afectan de manera significativa la
velocidad de corrosión del ducto?
• ¿cuál es el comportamiento esperado de la velocidad de corrosión al variar los niveles de
cada factor crítico simultáneamente?
• ¿qué cantidad máxima de cloruros acumulados y qué concentración máxima de ácido
sulfhídrico (niveles) debe poseer el ducto para que la velocidad de corrosión sea mínima?

Asimismo, el investigador podría interesarse en estudiar solamente la influencia que tiene la


cantidad de cloruros en la velocidad de corrosión del ducto sin modificar la concentración de
ácido sulfhídrico (nivel del factor). Este análisis se conoce como enfoque de un factor a la vez
(OFAT) y es útil cuando se desea observar el efecto individual de cada factor en la variable
respuesta, es decir, cuando las interacciones carecen de interés al investigador. Sin embargo, está
comprobado que esta estrategia de estudio suele ser ineficiente y poco confiable, conduciendo a
determinar condiciones de optimalidad falsas. Es aquí cuando el Diseño de Experimentos (DOE)
ofrece una alternativa de estudio más estructurada [1].

1.1. DISEÑO DE UN SOLO FACTOR A LA VEZ (OFAT) PARA LLEVAR


A CABO EL ANÁLISIS DE UN EXPERIMENTO.

Como su nombre lo indica, este método de análisis consiste en la variación de un solo factor a un
tiempo, dejando el resto en valores fijos (invariantes) con el propósito de observar el cambio en
la variable de respuesta y asociar un patrón de cambio a este factor, lo que permite establecer una
idea de la magnitud crítica que posee en el proceso estudiado. El enfoque OFAT para
experimentación es aún empleado en muchas organizaciones cuando se desea realizar un
experimento para determinar los valores de operación estándar de los parámetros principales [2].
En un principio, este enfoque era efectivo y proporcionaba resultados válidos y relativamente
confiables cuando se deseaba tener un primer acercamiento en la exploración de posibles
mejoras a un proceso o bien en algunas actividades de solución de problemas. Algunas de las
razones por las cuales el enfoque OFAT cobró popularidad en experimentación son los
siguientes:

• Era comúnmente aceptado el hecho de que la única manera de medir con precisión el
efecto del cambio en un diseño era conservar todo lo demás fijo de manera que el último
cambio fuera evaluado.
• Los experimentos OFAT podían ser fácilmente conducidos y no requerían ningún
conocimiento estadístico avanzado en su ejecución o análisis.
• Con el enfoque OFAT, las conclusiones del experimento podían ser bosquejadas
inmediatamente después de la obtención del dato de cada ensayo o corrida por simple
comparación con los datos obtenidos de ensayos anteriores. Este proceso podía ser
utilizado para sugerir “soluciones rápidas” al problema.
3

• En muchas compañías de manufactura, los gerentes exhortaban a los ingenieros a utilizar


soluciones “domésticas” en la solución de problemas de proceso y relacionadas con el
producto. Estas soluciones internas eran frecuentemente consistentes con el enfoque
OFAT para experimentación –especialmente mientras los gerentes se conformaban con
soluciones rápidas que producían beneficios en el corto plazo.
• Muchas organizaciones no estaban aún culturalmente preparadas para la introducción e
implementación de técnicas avanzadas de mejoramiento de la calidad como el Diseño de
Experimentos (DOE).

Los ingenieros e investigadores en muchas instituciones académicas no conocían el significado


del Diseño de Experimentos utilizado en la solución de ejemplos o problemas del mundo real. El
enfoque de la estadística en ingeniería se basaba en teoría de probabilidad, distribuciones de
probabilidad y en aspectos más matemáticos sobre la materia.

Sin embargo, este enfoque de análisis depende en gran medida de la suerte, la especulación, la
intuición y la experiencia que se tenga sobre el proceso bajo estudio para alcanzar resultados
satisfactorios. Además, este tipo de experimentación requiere de muchos recursos para obtener
apenas una cantidad limitada de información acerca del proceso. Así, experimentos OFAT serán
frecuentemente poco confiables, ineficientes, con alto consumo de tiempo y quizá proporcione
condiciones óptimas de operación falsas.

El pensamiento estadístico y los métodos estadísticos juegan un papel muy importante en la


planeación, conducción, análisis e interpretación de datos obtenidos de experimentos en
ingeniería. Cuando varias variables influyen cierta característica de un producto, la mejor
estrategia es diseñar un experimento de tal manera que permita la obtención de conclusiones
válidas, confiables y coherentes de forma efectiva, eficiente y económica.

1.2. ¿PARA QUE SIRVE EL DISEÑO DE EXPERIMENTOS (DOE)?

En una perspectiva más formal, un experimento puede definirse como una prueba o serie de
pruebas en las que se hacen cambios deliberados en las variables de entrada de un proceso o
sistema para observar e identificar las razones de los cambios que pudieran observarse en la
respuesta de salida o variable respuesta.

Inicialmente, el diseño experimental fue aplicado al área agrícola. Este primer acercamiento fue
encabezado por el trabajo pionero de Sir Ronald A. Fisher en los años 1920 y principios de la
década de 1930. En este período, Fisher fue el responsable de las estadísticas y el análisis de
datos en la Estación Agrícola Experimental de Rothamsted en las cercanías de Londres,
Inglaterra. Fisher se percató de que las fallas en la forma en que se llevaba a cabo el experimento
que generaba los datos obstaculizaban con frecuencia el análisis de los datos de los sistemas
agrícolas. Fisher incorporó de manera sistemática el pensamiento y los principios estadísticos en
4

el diseño de las investigaciones experimentales, incluyendo el concepto de diseño factorial y el


análisis de varianza. Sus libros tuvieron profundas influencias en el uso de la Estadística,
particularmente en la agricultura y las ciencias biológicas relacionadas.

Si bien es cierto que la aplicación del diseño estadístico en ambientes industriales se inició en la
década de 1930, el catalizador fue el desarrollo de la Metodología de Superficie de Respuesta
(MSR) por parte de Box y Wilson [3]. Estos autores se percataron y explotaron el hecho de que
muchos experimentos industriales son fundamentalmente diferentes de sus contrapartes agrícolas
en dos sentidos: a) la variable de respuesta puede observarse por lo general casi de inmediato, y
b) el investigador puede obtener con prontitud información crucial de un pequeño grupo de
corridas que pueden usarse para planear el siguiente experimento. En los 30 años siguientes, la
MSR y otras técnicas de diseño se generalizaron en la industria química y de proceso, sobre todo
en el trabajo de investigación y desarrollo.

A partir de los resultados obtenidos de la aplicación de los diseños experimentales al análisis


causal de factores, y más aún, gracias a la creciente integración de conocimientos sólidos en
estadística y en educación formal en Diseño de Experimentos en los programas de ingeniería en
las universidades, tanto a nivel de licenciaturas como de posgrado, se ha logrado ampliar
sensiblemente el rango de aplicación de experimentos más allá del campo agrícola, incluyendo
procesos operativos en prácticamente cualquier industria.

Como en el ejemplo presentado en la sección anterior, muchos campos de la ciencia aplicada


utilizan actualmente el Diseño de Experimentos para determinar las principales relaciones de, y
entre factores bajo estudio; como se mencionó, dichas relaciones deben ser estudiadas para
definir puntos clave en el comportamiento del suceso analizado y permitir una mejor toma de
decisiones a partir de las inferencias realizadas. Existen diferentes enfoques en que el diseño
experimental proporciona valiosos resultados:

• Análisis para Diseño de Producto: características elementales de un nuevo producto


nuevo tales como especificaciones técnicas y dimensiones críticas de operación deben ser
consideradas en el diseño final de éste, a fin de que se tengan estimaciones confiables
acerca de los requerimientos de materia prima e insumos así como de los procesos de
transformación que implica su fabricación. En esta tarea, el Diseño de Experimentos
juega un papel fundamental al permitir estudiar las variables que intervienen en dicha
fabricación, sin necesidad de montar todo el sistema de manufactura necesario.
• Análisis de Procesos de Manufactura: aunado al punto anterior, el Diseño de
Experimentos puede ser aplicado al desarrollo de procesos de manufactura al permitir el
estudio de variables o factores críticos a considerarse tales como dimensiones y
capacidades de maquinaria, cantidad de recursos humanos y técnicos, etc. y sus
principales efectos en el producto final.
• Mejoramiento de Procesos: como se mencionó anteriormente, el Diseño de Experimentos
es aplicado para realizar estudios relacionados con la detección e implementación de
mejoras en el desempeño de algún proceso, generalmente industrial, que involucre
variables cuantificables que proporcionen información valiosa acerca del producto final.
5

Este último enfoque permite utilizar las herramientas adicionales de análisis estadístico para
establecer los niveles óptimos en que los factores críticos considerados en el estudio deben ser
empleados para obtener el resultado deseado en la variable respuesta, tal es el caso de la
Metodología de Superficie de Respuesta (MSR) introducida por Box y Wilson, permitiendo un
uso racional de los recursos disponibles para llevar a cabo el experimento. En este campo el
Diseño de Experimentos juega un papel preponderante en la industria moderna y cobra cada vez
más una mayor difusión y utilización entre los ingenieros de procesos.

1.3. DISEÑOS MÁS USADOS EN LA PRÁCTICA COMÚN:


FACTORIALES FRACCIONADOS.

Uno de los diseños más comúnmente utilizados en experimentación son los conocidos como
Diseños Factoriales. Estos son diseños en los que los factores varían juntos. Específicamente, por
un experimento factorial se entiende que en cada ensayo o réplica completos del experimento se
investigan todas las combinaciones posibles de los niveles de los factores. De tal modo, si hay
dos factores A y B con a niveles del factor A y b niveles del factor B, entonces cada réplica
contiene todas las ab combinaciones, cada una de ellas denominada tratamiento. Como se
mencionó anteriormente, el efecto de un factor se define como el cambio en la respuesta
producido por un cambio en el nivel del factor. Esto se denomina un efecto principal porque se
refiere a los factores principales en el estudio. Por ejemplo, considérense los datos en la tabla
1[4].
Tabla 1. Experimento Factorial con dos factores.
Factor B
Factor A
B1 B2
A1 10 20
A2 30 40

El efecto principal del factor A es la diferencia entre la respuesta promedio en el primer nivel de
A y la respuesta promedio en el segundo nivel de A, ó

30 + 40 10 + 20
A= − = 20
2 2

Esto es, el cambio del factor A del nivel 1 al nivel 2 ocasiona un incremento en la respuesta
promedio de 20 unidades. De modo similar, el efecto principal de B es:

20 + 40 10 + 30
B= − = 10
2 2
6

En algunos experimentos, la diferencia en la respuesta entre los niveles de un factor no es la


misma en todos los niveles de los otros factores. Cuando esto ocurre, hay una interacción entre
ellos. Para ilustrar esto, considérense los datos de la tabla 2.

Tabla 2. Experimento Factorial con interacción.


Factor B
Factor A
B1 B2
A1 10 20
A2 30 0

En el primer nivel del factor B, el efecto de A es

A = 30-10 = 20

y en el segundo nivel del factor B, el efecto de A es

A = 0 – 20 = -20

Puesto que el efecto de A depende del nivel elegido para el factor B, hay una interacción entre A
y B.

Cuando una interacción es grande, los efectos principales correspondientes tienen poca
importancia. Por ejemplo, empleando los datos de la tabla 2, encontramos el efecto principal de
A como:

30 + 0 10 + 20
A= − =0
2 2

y estaríamos tentados a concluir que no hay efecto de A. Sin embargo, cuando examinamos los
efectos de A en niveles diferentes del factor B, se observó que este no fue el caso. El efecto del
factor A depende de los niveles del factor B. De tal modo, el conocimiento de la interacción AB
es más útil que el conocimiento del efecto principal. Una interacción significativa puede
enmascarar la importancia de los efectos principales.

El concepto de interacción puede ilustrarse en forma gráfica. En la Figura 1 se grafican los datos
de la tabla 1 contra los niveles de A para ambos niveles de B. Nótese que las líneas B1 y B2 son
aproximadamente paralelas, lo que indica que los factores A y B no interactúan en forma
significativa. En la figura 2 se grafican los datos de la tabla 2. En esta gráfica, las líneas B1 y B2
no son paralelas, señalando la interacción entre los factores A y B. Tales despliegues gráficos a
menudo son útiles en la presentación de resultados de experimentos.
7

Fig. 1. Experimento factorial sin interacción 1 .

Fig. 2. Experimento factorial con interacción.

El concepto de interacción puede ilustrarse de otra manera. Suponga que los dos factores del
diseño tratado son cuantitativos (temperatura, presión, tiempo, etc.) Entonces una representación
con un modelo de regresión del experimento factorial de dos factores podría escribirse como:

y = β 0 + β1 x1 + β 2 x 2 + β 12 x1 x 2 + ε

donde y es la respuesta, las β son parámetros cuyos valores deben ser determinados, x1 es una
variable que representa al factor A, x2 es una variable que representa al factor B, y ε es un
término del error aleatorio. Las variables x1 y x2 se definen en una escala codificada de -1 a +1
(los niveles bajo y alto de A y B), y x1x2 representa la interacción entre x1 y x2.

Las estimaciones de los parámetros en este modelo de regresión resultan estar relacionadas con
las estimaciones de los efectos. Para el ejemplo considerado en la tabla 2 se encontró que los
efectos principales de A y B son A = 20 y B = 10. Las estimaciones de β1 y β2 son la mitad del
valor del efecto principal correspondiente; por lo tanto, β1estimada = 20/2 = 10 y β2estimada = 10/2 =
5. El efecto de la interacción de la figura 2 es AB = -20, por lo que el valor del coeficiente de la
interacción en el modelo de regresión es β12estimada = -20/2 = -10. El parámetro β0 se estima con
el promedio de las cuatro respuestas, o β0estimada = (10+30+20+0)/4 = 15. Por lo tanto, el modelo
de regresión ajustado es:
y = 15 + 10 x1 + 5 x2 − 10 x1 x2

1
Adaptado de: Hines, Montgomery. Probabilidad y Estadística para Ingeniería. Ed. CECSA. México, 2004.
8

Las estimaciones obtenidas de esta manera de los parámetros para el diseño factorial en el que
todos los factores tienen dos niveles (- y +) resultan ser estimaciones de mínimos cuadrados.

Es sencillo ilustrar la ventaja de los diseños factoriales. Suponga que se tienen dos factores A y B
cada uno con dos niveles, como en los ejemplos anteriores. Ahora, los niveles de los factores se
denotarán por A-, A+, B- y B+. Podría obtenerse información acerca de ambos factores
haciéndolos variar uno a la vez, similarmente al enfoque de experimentación OFAT analizado en
la sección anterior y como se muestra en la figura 3; el efecto de cambiar el factor A está dado
por A+B- - A-B-, y el efecto de cambiar el factor B está dado por A-B+ - A-B-. Debido a que está
presente el error experimental, es deseable realizar dos observaciones, por ejemplo, para cada
combinación de tratamientos y estimar los efectos de los factores utilizando las respuestas
promedio. Por lo tanto, se necesita un total de seis observaciones.

Fig. 3. Experimento con un factor a la vez 2 .

Si se hubiera efectuado un experimento factorial, se habría registrado una combinación adicional


de los tratamiento, A+B+. Ahora, utilizando sólo cuatro observaciones, pueden hacerse dos
estimaciones del efecto de A: A+B- - A-B- y A+B+ - A-B+. De manera similar, pueden hacerse dos
estimaciones del efecto de B. Estas dos estimaciones de cada efecto principal podrían
promediarse para producir efectos principales promedio que tienen la misma precisión que las
estimaciones del experimento con un solo factor, pero sólo se requieren cuatro observaciones en
total, y se diría que la eficiencia relativa del diseño factorial con respecto al experimento de un
factor a la vez (OFAT) es de 6/4 = 1.5. En general, esta eficiencia relativa aumentará conforme
se incremente el número de factores, como se muestra en la figura 4.

Fig. 4. Eficiencia relativa de un diseño factorial con respecto a un


experimento de un factor a la vez (OFAT) a dos niveles.

2
ídem.
9

Suponga que ahora está presente una interacción. Si el diseño de un factor a la vez indicara que
A-B+ y A+B- dieron mejores respuestas que A-B-, una conclusión lógica es que A+B+ sería todavía
mejor. Sin embargo, si está presente una interacción, esta conclusión puede ser una equivocación
grave.

En resumen, se observa que los diseños factoriales ofrecen varias ventajas. Son más eficientes
que los experimentos de un factor a la vez (OFAT), según se analizó con mayor detalle en la
sección anterior. Además, un diseño factorial es necesario cuando puede haber interacciones
presentes a fin de evitar llegar a conclusiones incorrectas. Por último, los diseños factoriales
permiten la estimación de los efectos de un factor con varios niveles de los factores restantes,
produciendo conclusiones que son válidas para un rango de condiciones experimentales.

1.3.1. DISEÑO FACTORIAL 2K.

Los tipos más simples de diseños factoriales incluyen únicamente dos factores o conjuntos de
tratamientos. El número total de experimentos para estudiar k factores a dos niveles es 2k. Los
diseños factoriales 2k son particularmente útiles en las primeras fases del trabajo experimental,
especialmente cuando el número de parámetros de proceso o parámetros de diseño (factores) es
menor o igual a 4.

Para el caso general del diseño factorial de dos factores, sea yijk la respuesta observada cuando el
factor A tiene el nivel i-ésimo (i = 0, 1) y el factor B tiene el nivel j-ésimo (j = 0, 1) en la réplica
k-ésima (k = 1, 2,…, n). En general, el experimento factorial de dos factores aparece distribuido
en forma tabular cuyos reglones serán los tratamientos del factor A aplicados a distintos niveles
del factor B; análogamente, las columnas son los tratamientos del factor B a distintos niveles del
factor A. El orden en que se hacen las abn observaciones se selecciona al azar, por lo que este
diseño es un diseño completamente aleatorio.

Las observaciones de un experimento factorial pueden describirse con un modelo. Hay varias
formas de escribir el modelo de un experimento factorial. El modelo de los efectos es:

y ijk = μ + τ i + β j + (τβ ) ij + ε ijk

i = 0, 1
para j = 0, 1
k = 1, 2,…, n

donde μ es el efecto promedio global, τi es el efecto del nivel i-ésimo del factor A, βj es el efecto
del nivel j-ésimo del factor B, (τβ)ij es el efecto de la interacción entre τi y βj, y εijk es un
componente del error aleatorio. Se supone que ambos factores son fijos, y los efectos de los
a
tratamientos se definen como las desviaciones de la media global, por lo que ∑τ
i =1
i =0 y
10

∑β
j =1
j = 0 . De manera similar, los efectos de las interacciones son fijos y se definen de tal modo
a b
que ∑ (τβ ) ij + ∑ (τβ ) ij = 0 . Puesto que hay n réplicas del experimento, hay abn observaciones
i =1 j =1

en total.

Otro modelo posible de un experimento factorial es el modelo de las medias:

y ijk = μ ij + ε ijk

i = 0, 1
para j = 0, 1
k = 1, 2,…, n

donde la media de la celda ij-ésima es:

μ ij = μ + τ i + β j + (τβ ) ij

También podría utilizarse un modelo de regresión como el presentado en la sección anterior. Los
modelos de regresión resultan ser particularmente útiles cuando uno o más de los factores del
experimento son cuantitativos.

En el diseño factorial de dos factores, los factores (o tratamientos) de los renglones y las
columnas A y B son de igual interés. Específicamente, el interés se encuentra en probar hipótesis
acerca de la igualdad de los efectos de los tratamientos de los renglones, por ejemplo:

Ho: τ1 = τ2 =…= τa
H1: al menos una τi ≠ 0

y de la igualdad de los efectos de los tratamientos de las columnas, por ejemplo,

Ho: β1 = β2 =… = βb = 0
H1: al menos una βj ≠ 0

También existe interés en determinar si los tratamientos de los renglones y las columnas
interactúan. Por lo tanto, también querría probarse:

Ho: (τβ)ij = 0
H1: al menos una (τβ)ij ≠ 0
11

1.4. DISEÑOS FACTORIALES FRACCIONADOS.

Hasta el momento se han presentado algunas generalidades para el estudio de los diseños
factoriales, particularmente el diseño 2k el cual es ampliamente utilizado al estudiar sólo dos
niveles para cada uno de los k factores que afectan la variable de respuesta; asimismo, se han
presentado algunos elementos a considerar dentro del análisis estadístico posterior a la
recolección de datos, los cuales establecen las conclusiones generales del experimento, ya que
permiten asociar los resultados del experimento realizado e inferir a partir de ellos, el
comportamiento del proceso bajo estudio. Esto a su vez permite llevar a cabo la correcta toma de
decisiones acerca del mejoramiento de dicho proceso (fijar niveles óptimos de los factores
críticos, tener mayor control sobre la variable de respuesta, coordinar acciones preventivas sobre
el proceso, etc.) de manera rápida y confiable.

Sin embargo, es necesario ahondar un poco más en el estudio de diseños experimentales


desarrollados en primera instancia y como un primer acercamiento en el estudio de procesos de
optimización de recursos, donde lo que se busca es obtener resultados confiables utilizando un
mínimo número de corridas experimentales. Para llevar a cabo esto, es obligado trabar
conocimiento con el tipo de diseños conocidos como Factoriales Fraccionados, los cuáles parten
de consideraciones más experimentadas acerca del comportamiento general del proceso, para
poder discriminar interacciones entre factores que podrían considerarse insignificantes en la
determinación de la variable de respuesta, por lo cual se toma sólo una fracción del diseño
factorial completo reduciéndose así el número de corridas necesarias para el experimento y
reduciendo por ende, los recursos para hacerlo. Si bien el aplicar este criterio requiere de un
conocimiento mayor por parte del investigador-dueño del proceso a analizar, lo que hace a estos
diseños un poco más sofisticados, su aplicación e interpretación es muy útil y fácil.

Además, cuando el número de factores de un diseño factorial 2k se incrementa, el número de


corridas necesarias para realizar una réplica completa del diseño rebasa con rapidez los recursos
de la mayoría de los experimentadores, lo que obliga a eliminar algunas corridas del
experimento, haciéndolo más esbelto y manejable. Por ejemplo, una réplica completa de un
diseño 26 requiere 64 corridas. En este diseño, sólo 6 de los 63 grados de libertad corresponden a
los efectos principales, y sólo 15 a las interacciones de dos factores. Los 42 grados de libertad
restantes se asocian con las interacciones de tres o más factores.

Si el experimentador puede suponer razonablemente que ciertas interacciones de orden superior


son insignificantes es posible obtener información de los efectos principales y las interacciones
de orden superior corriendo únicamente una fracción del experimento factorial completo. Como
se mencionó anteriormente, estos diseños factoriales fraccionados se encuentran entre los tipos
de diseños más generalizado en el diseño de productos y procesos así como también en el
mejoramiento de procesos industriales.
12

Una de las principales aplicaciones de los diseños factoriales fraccionados es en los experimentos
de tamizado o exploración [5]. Se trata de experimentos en los que se consideran muchos
factores y el objetivo es identificar aquellos factores (en caso de haberlos) que tienen efectos
grandes. Los experimentos de tamizado suelen realizarse en las etapas iniciales de un proyecto,
cuando es posible que muchos de los factores considerados en un principio tengan efecto
reducido o nulo sobre la variable de respuesta. Entonces, los factores que se identifican como
importantes o críticos se investigan con mayor detalle en experimentos subsecuentes.

1.4.1. LA FRACCIÓN UN MEDIO DEL DISEÑO 2K.

La construcción de fracciones un medio de un diseño factorial completo es sencillo y resulta de


manera directa. Considere un experimento sencillo con 3 factores [6]. La tabla 3 muestra la
matriz de diseño con todos los efectos principales e interacciones asignados a varias columnas de
la matriz. Basados en la consideración de que las interacciones entre 3 factores (tercer orden) y
orden superior son despreciables, se puede utilizar la interacción de la columna ABC en la tabla
3 para generar valores fijos para el cuarto factor D. En otras palabras, sería factible estudiar 4
factores usando 8 corridas aliando deliberadamente el factor D con la interacción ABC. Esto se
refiere a un diseño factorial 2(4-1) (Tabla 4).

Tabla 3. Matriz de Diseño de un experimento con 3 factores y 8 corridas.

Tabla 4. Matriz de Diseño de un experimento factorial 2(4-1).

En esta tabla, D = ABC implica que el efecto principal D es confundido (o aliado) con la
interacción de tercer orden ABC. Sin embargo, interacciones de tercer orden están fuera del
interés de los experimentadores. El diseño generador de este diseño en particular esta dado por D
= ABC. En ocasiones se hará referencia a un diseño generador, por ejemplo ABC, como una
palabra. La relación de definición de este diseño esta dada por: D x D = D2 = ABC = I, donde I
13

es elemento identidad. Una vez que se conoce la relación de definición de un diseño, se puede
generar entonces la estructura alias para ese diseño en particular.

En el experimento considerado, I = ABCD (relación de definición). Para determinar el alias de


A, se multiplican ambos lados de la relación de definición por A. Esto produce:

A x I = A x ABCD = A2BCD = BCD con A2 = 1

Ahora, se pueden generar alias de B y C como se muestra:

B x I = B = ACD
C x I = C = ABD

Como se está interesado generalmente en conocer las interacciones entre dos factores, se pueden
generar también alias para todas ellas, como se muestra:

I x AB = A2B2CD = CD
I x AC = A2BC2D = BD
I x BC = AB2C2D = AD
I x AD = A2BCD2 = BC
I x BD = AB2CD2 = AC
I x CD = ABC2D2 = AB

Similarmente, se pueden generar alias para interacciones de tercer orden, como se muestra:

ABC = A2B2C2D = D
I x ABD = A2B2CD2 = C
I x ACD = A2BC2D2 = B
I x BCD = AB2C2D2 = A

La tabla 5 presenta el patrón completo de alias (o patrón de confusión) para 4 factores en 8


corridas.
Tabla 5. Patrón de Alias para un
experimento factorial 2(4-1).
14

Para el diseño ejemplificado, la resolución es de IV 3 (los efectos principales están confundidos


con interacciones de tres factores y las interacciones de dos factores están confundidas con otras
interacciones de dos factores). En situaciones reales, algunas interacciones podrían estar
confundidas con otras interacciones de dos factores, de aquí que no se pueda establecer cuales de
ellas son importantes para ese proceso. En tales situaciones se deberá utilizar diseños cruzados.
Los diseños cruzados son usados para reducir la confusión cuando uno o más efectos no pueden
ser estimados independiente o separadamente. Dicho de otro modo, se dice que los efectos son
aliados. Sin embargo, los diseños cruzados son utilizados en diseños de resolución III para
romper los lazos entre los efectos principales y los efectos de interacciones de dos factores. Por
ejemplo, si se cruza un factor, dígase A, entonces A y todas sus interacciones de dos factores
estarán libres de otros efectos principales y de otras interacciones de dos factores. Si se cruzan
todos los factores, entonces todos los efectos principales estarán libres entre sí y de todas las
interacciones de dos factores.

En un diseño cruzado, se podría realizar un segundo experimento donde el nivel de los factores
son todos opuestos de sus respectivos valores en el primer experimento. Esto es, intercambiar los
-1 y los +1 antes de comenzar la ejecución del segundo experimento. Sin embargo, tales diseños
no son recomendados cuando el tiempo y recursos son limitados para experimentos de tipo
industrial. Bajo tales circunstancias, consideraciones y juicios de ingeniería aunados a
conocimientos en la materia serían de gran ayuda a los experimentadores en la tarea de
separación de efectos principales de los efectos de interacciones confundidas.

En el ejemplo anterior se introdujeron algunos conceptos de importancia en la comprensión y


utilización de diseños factoriales fraccionados: confusión en un diseño y resolución de un diseño
experimental. A manera de aclaración, ambos conceptos son presentados a continuación.

1.5. CONFUSIÓN EN UN DISEÑO EXPERIMENTAL.

En cualquier experimento factorial fraccionado, algunos efectos están confundidos entre sí. El
objetivo de los diseños factoriales fraccionados es asegurar que los efectos de interés primario
están claramente separados (o sin confusión) o, si esto no es posible, confundidos con efectos
que no posean apreciable magnitud.

Una primera definición del término confusión podría ser referida a situaciones donde un efecto
no puede ser atribuido sin ambigüedad a un efecto principal o interacción. La definición formal
presentada a continuación refiere la confusión de efectos explícitamente a su cálculo. Acorde a
esta definición, un efecto está confundido con respecto a otro si las representaciones de los dos
efectos son idénticas, dejando de lado un posible cambio de signo. Los efectos que están
confundidos en esta manera son llamados alias.

3
La resolución de un diseño experimental será tratado con mayor detalle en la siguiente sección.
15

Efectos confundidos. Dos o más efectos experimentales están confundidos si los efectos
calculados pueden ser atribuidos solamente a su influencia combinada en la respuesta, no a sus
influencias individuales. Dos o más efectos están confundidos si el cálculo de un efecto usa la
misma (aparte del signo) diferencia o contraste de los promedios de respuesta respecto al cálculo
de los otros efectos.

En algunos diseños experimentales, efectos de factores están confundidos con efectos de otros
factores. En otros diseños, efectos de factores están confundidos con efectos de bloques. Es
imperativo que un experimentador conozca cuáles efectos están confundidos, y con qué otros
efectos lo están, cuando se diseña un experimento. Este conocimiento es necesario para asegurar
que las conclusiones acerca de los efectos de interés no estarán comprometidas por las posibles
influencias de otros efectos.

La confusión de efectos no sólo ocurre cuando un experimento factorial completo es ejecutado


en bloques; también ocurre cuando sólo una porción de todas las posibles combinaciones de
factor-nivel están incluidas en el diseño. Como se mencionó anteriormente, una confusión ocurre
debido a que dos o más representaciones de efectos son iguales (sin considerar el cambio en
todos los signos). Un efecto calculado representa entonces la influencia combinada de los
efectos. En algunos casos (por ejemplo, en experimentos OFAT, tratados en la primera sección
de este trabajo), el patrón de confusión podría ser tan complejo que no puede establecerse con
seguridad que cualquiera de los efectos calculados miden los efectos de los factores deseados. Es
por esto que la confusión planeada, confusión en la cual los efectos importantes están sin
confundir o están confundidos con efectos considerados insignificantes, es la base para la
construcción estadística de los experimentos factoriales fraccionados [6].

1.6. RESOLUCIÓN DE UN DISEÑO EXPERIMENTAL.

Una importante guía en la selección de experimentos factoriales fraccionados es el concepto de


Resolución del Diseño. La resolución de un diseño identifica para un diseño específico, el orden
de confusión de efectos principales e interacciones.

Resolución del Diseño. Un diseño experimental es de resolución R si todos los efectos


contenidos en s o menos factores permanecen sin confusión con otros efectos conteniendo menos
de (R – s) factores.

La resolución de un diseño está definido en términos de cuáles efectos están sin confusión con
cuáles otros efectos. Un investigador busca experimentos factoriales fraccionados que tengan
efectos principales (s = 1) e interacciones de orden menor (dígase aquellos que incluyen s = 2 ó 3
factores) no confundidos con otros efectos principales e interacciones de orden menor;
equivalentemente, diseños en los cuales dichos efectos estén confundidos solamente con
interacciones de orden superior.
16

La resolución de un diseño es usualmente denotado por números romanos en capital; e.g., III, IV,
V. Para diseños experimentales, diseños de resolución III, IV y V son de importancia particular
[5].

• Diseños de Resolución III. Estos son diseños en los cuales ningún efecto principal está
confundido con cualquier otro efecto principal, pero sí con interacciones de dos factores
y éstos pueden estar confundidos entre sí.
• Diseños de Resolución IV. Estos son diseños en los cuales ningún efecto principal está
confundido con cualquier otro efecto principal o con cualquier efecto de interacción de
dos factores, pero los efectos de la interacción entre dos factores están confundidos entre
sí.
• Diseños de Resolución V. Estos son diseños en los cuales los efectos principales no están
confundidos con otros efectos principales, con interacciones de dos factores ni con
interacciones de tres factores; pero los efectos de interacciones de dos factores están
confundidos con los efectos de interacciones de tres factores.

1.7. LA EXPERIMENTACIÓN COMO HERRAMIENTA DE


OPTIMIZACIÓN.

Hasta ahora se ha presentado y discutido en términos generales, el papel que juega el Diseño de
Experimentos (DOE) en la determinación de factores críticos dentro de un proceso que requiere
de mejoramiento, ya sea en desempeño o incluido como parte del diseño de producto. Los
diseños más difundidos para determinar las interacciones de importancia que deben ser
considerados en dichas tareas son los Diseños Factoriales Fraccionados. Si bien existen varios
diseños que han sido desarrollados para estudiar de manera clara y detallada la optimización de
procesos, a la vez que permiten un entendimiento más sólido de los resultados obtenidos, los
diseños factoriales fraccionados son una primera aproximación al estudio formal del concepto de
optimización experimental. Estos diseños permiten correr sólo una fracción del número total de
corridas del experimento considerado, lo que permite optimizar los recursos necesarios para
realizarlo.

Como se planteó anteriormente, una de las aplicaciones más comunes para el Diseño de
Experimentos (DOE) y que se ha difundido en gran escala especialmente en procesos que
involucran dos o más variables, es la optimización de factores. Por ejemplo, en un experimento
de caracterización, el interés principal suele centrarse en determinar las variables del proceso que
afectan la respuesta. Esto puede ser logrado a través de la identificación de la zona factible del
experimento, seguido de una exploración más detallada de la región donde se encuentra el
óptimo; el siguiente paso lógico es la optimización, es decir, determinar la región de los factores
importantes que conduzca a la obtención de la mejor respuesta posible, esto puede conseguirse
aplicando un diseño de superficie de respuesta que indique los factores de importancia que deben
ser considerados dentro del modelo.
17

De un modo general, los diseños factoriales fraccionados proponen la optimización de los


recursos necesarios para correr un experimento, con la garantía de que los resultados obtenidos
serán válidos dentro del rango de estudio considerado. Esto permite establecer a priori que la
utilización de estos diseños es recomendable cuando se desea minimizar el número de corridas
experimentales, a la vez que se reducen sensiblemente los recursos necesarios para llevarlo a
cabo. En un experimento que involucre 4 factores a 2 niveles cada uno se tendría 24 corridas (16
corridas en total); esto conduciría a realizar el experimento considerando interacciones de uno,
dos y tres factores, lo que algunas veces no aporta el nivel de detalle deseado para conocer el
desempeño del equipo durante el experimento. En este ejemplo sería recomendable despreciar
las interacciones de orden superior que no producen afectaciones mayores en la variable de
respuesta; en otras palabras, se está optimizando el número de corridas experimentales de
manera que se obtengan los mismos resultados con el menor número de ensayos.

El desarrollo de la ciencia y la tecnología conducen a complicaciones naturales en la


interpretación teórica de los resultados obtenidos y en los métodos de cálculo para las
investigaciones experimentales necesarias. Situaciones experimentales más complicadas
conducen a incrementos considerables en los costos de investigación experimental. Por ejemplo,
se podría citar investigaciones en la esfera de la física de partículas elementales donde la
necesidad de construir poderosos aceleradores hacen que las mediciones sean muy costosas.
Además, el problema de obtener una cantidad considerable de datos de procesos bajo estudio con
recursos finitos es real. La confianza en la intuición del experimentador para encontrar la
solución a un problema dado se ha convertido cada vez menos alentadora. En conexión con esto,
es absolutamente necesario suministrar una amplia variedad de métodos que proporcionen no
sólo los medios de reducción de datos experimentales, sino también que permitan la
organización del experimento de una manera óptima.

El aparato matemático usado en la organización óptima de experimentos está basado en una


composición de métodos de estadística matemática y de métodos de solución de problemas
extremos. Cada vez más, la estadística matemática es necesaria para la prudente construcción y
elucidación de las propiedades básicas del criterio de optimalidad de un experimento.
Posteriormente, el problema de la organización óptima de un experimento conduce a la solución
de algún problema extremo.

Actualmente, es posible dividir la teoría matemática del diseño experimental en dos áreas
básicas: el diseño de experimentos extremos y el diseño de experimentos para la elucidación del
mecanismo de un fenómeno. Diseños del primer tipo son usados en aquellos casos en que el
investigador está interesado en condiciones bajo las cuales el proceso estudiado satisface algún
criterio de optimalidad. Por ejemplo, en el desarrollo de un nuevo proceso químico-tecnológico,
el criterio de optimalidad consiste en la maximización de la salida de los productos de la
reacción. En este caso, el diseño consiste en encontrar aquellos valores de temperatura, presión
de los reactivos, porcentaje de concentración, etc. para los cuales los requerimientos establecidos
son satisfechos.
18

Frecuentemente, el investigador encuentra necesario dilucidar el comportamiento global de un


objeto analizado, o en otras palabras, elucidar el mecanismo de un fenómeno. Por ejemplo, en el
estudio del proceso químico-tecnológico podría ser necesario elucidar la dependencia de los
productos finales de la reacción a partir de los valores de temperatura, presión, reactivos, etc.
considerados. En el lenguaje matemático, un tipo de problema similar está formulado de la
siguiente manera: es necesario encontrar una función que defina la relación entre el producto
final de la reacción y las cantidades introducidas al principio de la reacción (temperatura,
porcentaje de concentración de reactivos, etc.) Dicho de otro modo: encontrar un modelo
matemático del proceso dado. Una vez encontrada dicha relación, se procedería a determinar los
parámetros de operación óptimos que proporcionen una maximización del producto de la
reacción química considerada; esta tarea ha sido analizada con el empleo de criterios de
optimalidad, aportando resultados valiosos para el campo de aplicación experimental.

1.8. CRITERIOS DE OPTIMALIDAD.

Los diseños estándares de superficie de respuesta conocidos tales como el Diseños Central
Compuesto (DCC) [7] y los Diseños Box-Behnken [8] con sus variantes, son de uso generalizado
debido a que son diseños bastante generales y flexibles. Si la región experimental es un cubo o
una esfera, de manera típica existe un diseño de superficie de respuesta que será aplicable al
problema. Sin embargo, ocasionalmente el experimentador se encuentra con una situación en la
que el diseño estándar de superficie de respuesta puede no ser una elección obvia. Los diseños
generados por computadora son una alternativa a considerar en estos casos.

Desde el punto de vista matemático, el diseño de experimentos óptimos se remite a la


determinación de los valores que mejor ajusten el fenómeno visto como un problema extremo, es
decir, con valores óptimos en la frontera. Debido a la complejidad de su construcción y manejo,
estos diseños son generados por computadora, con la ventaja de que se puede hacer uso de los
resultados tomados directamente de la interfaz de usuario a partir del algoritmo computacional.

Gran parte del desarrollo de los diseños generados por computadora se deriva del trabajo de
Kiefer y Wolfowitz [9] [10] en la teoría de los diseños óptimos. Contribuciones importantes se
han generado a partir de textos de trascendencia como los escritos de Fedorov [11] y Pukelsheim
[12] en donde se analiza la teoría de experimentos óptimos desde el punto de vista matemático.

Por diseño óptimo se entiende un diseño que es “mejor” con respecto a algún criterio. El enfoque
usual es especificar un modelo, determinar la región de interés, seleccionar el número de corridas
que deberán hacerse, especificar el criterio de optimalidad y después elegir los puntos del diseño
de un conjunto de puntos candidatos que el experimentador consideraría usar. De manera típica,
los puntos candidatos son una matriz de puntos distribuidos en la región factible del diseño.
19

1.8.1. CRITERIO DE OPTIMALIDAD D.

Existen varios criterios de optimalidad utilizados en la práctica común [13]. Uno de los más
generalizados es el criterio de optimalidad D. Este criterio considera la Matriz de Diseño
Aumentada X (o paralelamente, la Matriz de Información definida como X’X) que incluye los
valores codificados asociados a cada factor dentro del modelo, así como de sus interacciones de
interés, observando tantas columnas como parámetros a estimar se tengan.

El criterio de D-Optimalidad está basado en la noción de que el diseño experimental debería ser
escogido de manera que se alcancen ciertas propiedades en la matriz de momentos:

X'X
M =
N

Es de particular interés recordar la importancia de los elementos de la matriz de momentos en la


determinación de rotabilidad. También, la inversa de M, a saber:

M −1 = N ( X ' X ) −1

(llamada Matriz de Dispersión Escalada), contiene varianzas y covarianzas de los coeficientes de


regresión , escalada por N/σ2 . Como resultado, el control de la matriz de momentos por diseño,
implica el control de las varianzas y covarianzas.

Esto produce que una norma importante de la matriz de momentos sea el determinante expresado
como:
X'X
M =
Np

donde p es el número de parámetros en el modelo, incluido β0. Bajo supuestos de normalidad e


independencia de errores del modelo con varianza constante, el determinante de X’X es
inversamente proporcional al cuadrado del volumen de la región de confianza de los
coeficientes de regresión. El volumen de la región de confianza es relevante porque refleja que
tan bien han sido estimados los parámetros. Un valor pequeño de |X’X| y por tanto un valor
grande de |(X’X)-1| = 1/| X’X | implica una estimación pobre del vector β en el modelo. Así, un
diseño D-óptimo es aquél en el cual |M| = | X’X |/Np se maximiza; esto es,

Max M (ζ )
ζ

donde Max implica que el máximo es tomado sobre todos los diseños posibles ζ. Como
resultado, es natural definir la Eficiencia D- ó D-Eficiencia de un diseño ζ* como:
20

1
⎛ M (ζ *) ⎞ p

Deff = ⎜⎜ ⎟ * (100%)
⎝ Max M (ζ ) ⎟

donde la potencia 1/p toma en cuenta los p parámetros estimados cuando se calcula el
determinante de la matriz de varianzas-covarianzas.

1.8.2. CRITERIOS DE OPTIMALIDAD A Y G.

El criterio de optimalidad A sólo se ocupa de las varianzas de los coeficientes de regresión. Un


diseño es óptimo A si minimiza la suma de los elementos de la diagonal principal de (X’X)-1 (a
ésta se le llama la traza de (X’X)-1, generalmente como un tr(X’X)-1). Por lo tanto, un diseño
óptimo A minimiza la suma de las varianzas de los coeficientes de regresión.

Puesto que muchos experimentos de superficie de respuesta se refieren a la predicción de la


respuesta, los criterios de la varianza de predicción son de gran interés práctico. Quizá el más
utilizado de estos criterios sea el criterio de optimalidad G. Se dice que un diseño es G-óptimo
si minimiza la varianza de predicción v(x) máxima en la región del diseño. Es decir, si el valor
máximo de:

NV [ yˆ ( x)]
v( x) =
σ2

en la región del diseño es un mínimo, donde N es el número de puntos del diseño. Si el modelo
tiene p parámetros, la eficiencia G de un diseño es precisamente:

p
Ge =
NV [ yˆ ( x)]
máx
σ2

En conjunto, a los criterios de diseño que se han venido estudiando suele llamárseles criterios de
optimalidad alfabética. Existen algunas situaciones en las que el diseño óptimo alfabético se
conoce o bien puede construirse analíticamente. Un buen ejemplo es el diseño 2k, que es un
óptimo D, A y G para ajustar el modelo de primer orden en k variables o para ajustar el modelo
de primer orden con interacción. Sin embargo, otros diseños de mayor orden que el mencionado
2k el diseño óptimo no se conoce y debe emplearse un algoritmo implementado en computadora
para encontrar un diseño. Muchos paquetes de software de estadística que soportan experimentos
diseñados cuentan con esta capacidad; este punto será analizado con mayor detalle en secciones
posteriores.

La mayoría de los procedimientos para construir diseños se basan en el algoritmo de


intercambio. En esencia, el experimentador selecciona una matriz de puntos candidatos y un
21

diseño inicial (quizá al azar) a partir de este conjunto de puntos. Entonces el algoritmo
intercambia los puntos que están en la matriz, pero no en el diseño, con los puntos que están
actualmente en el diseño, en un esfuerzo por mejorar el criterio de optimalidad seleccionado.
Debido a que no se evalúa explícitamente todos los diseños posibles, no hay garantía de que se
ha encontrado un diseño óptimo, pero el procedimiento de intercambio suele asegurar que se
obtiene un diseño que está “cerca” del óptimo. Algunas implementaciones repiten varias veces el
proceso de construcción del diseño, empezando con diseños iniciales diferentes, para
incrementar la posibilidad de que se obtendrá un diseño final que esté muy cerca del óptimo.

1.9. DISEÑOS ESTÁNDARES PARA OPTIMIZACIÓN GENERAL.

Como se ha mencionado a lo largo de este trabajo, existen varios tipos de diseños experimentales
que han sido desarrollados para optimizar los recursos que suponen la ejecución de un
experimento. Cuando se abordó el tema de optimización, se consideraron algunos diseños que
tienen por objetivo primordial el encontrar los parámetros de diseño ideales que optimicen la
respuesta esperada, ejemplo de ellos son los diseños de Superficie de Respuesta de primer y
segundo orden. Asimismo, se introdujo el concepto de diseños óptimos y se mencionaron los
criterios de optimalidad mayormente difundidos en la práctica actual.

De un modo estricto, un diseño experimental que implique la minimización del número de


puntos de diseño necesarios para la obtención de resultados, es un diseño de optimización de
corridas. Ejemplo de estos diseños son los Diseños Factoriales Fraccionados analizados
anteriormente. En esta categoría de diseños se pueden citar algunos diseños de interés como los
Diseños Plackett-Burman [14] para estudiar k = N – 1 variables en N corridas, donde N es
múltiplo de 4; casos de particular interés son N = 12, 20, 24, 28 y 36. En ellos encontramos el
primer acercamiento al concepto de optimización de recursos para la ejecución de un
experimento. Si bien es cierto que este tipo de diseño no proporciona resultados inmediatos para
un estudio detallado del comportamiento de los factores y sus interacciones en la variable de
respuesta, al menos su utilización de modo secuencial proporciona las primeras directrices para
la optimización de recursos con una gran economía y eficiencia de la experimentación.

En esta sección se analizarán diseños experimentales con un enfoque más específico a la


optimización de recursos a partir de parámetros de diseño iniciales. Estos diseños se conocen en
la práctica común como Diseños de Superficie de Respuesta (DSR), los cuales debido a sus
propiedades de ajuste matemático se clasifican en Diseños de Primer y Segundo Orden.
22

1.10. METODOLOGÍA DE SUPERFICIE DE RESPUESTA (MSR).

El estudio de un proceso o sistema está frecuentemente enfocado a determinar la relación entre la


respuesta y los factores de entrada. Su propósito puede ser optimizar la respuesta o entender el
mecanismo de funcionamiento. Si los factores iniciales de entrada son cuantitativos y existen
sólo algunos de ellos, la Metodología de Superficie de Respuesta (MSR) [3] es una herramienta
efectiva para estudiar esta relación. La estrategia de experimentación secuencial es considerada,
ya que permite de manera eficiente investigar el espacio de los factores iniciales a través de la
utilización de experimentos de primer orden, seguido de uno de segundo orden. El análisis de un
experimento de segundo orden puede ser realizado por aproximación de la relación de superficie
de respuesta con un ajuste del modelo de regresión de segundo orden. Los diseños de segundo
orden que permiten estimar eficientemente modelos de regresión de segundo orden son de gran
importancia dentro de esta metodología. Estos incluyen los Diseños Central Compuesto (DCC)
[7] y los Diseños Box-Behnken [8] y algunos otros de menor utilización pero factibles de uso.

De modo más general, la mayoría de investigaciones científicas exploratorias están relacionadas


con los siguientes objetivos:

1. Determinar y cuantificar la relación entre los valores de una o más variables medibles de
respuesta y el conjunto de factores experimentales que se presume están afectando la(s)
respuesta(s).
2. Encontrar los valores de los factores experimentales que producen el mejor valor o
valores de la respuesta(s).

Un ejemplo de la utilización de los principios de investigación científica en la determinación de


los valores óptimos podría ser en el proceso de manufactura de un medicamento. En este caso se
estudia la combinación de dos sustancias, cada una para reducir la presión arterial en los
humanos. Una serie de pruebas clínicas considera 100 pacientes con presión arterial alta, y a
cada paciente le es suministrado alguna combinación predeterminada de las dos sustancias. Aquí,
el propósito de administrar las distintas combinaciones de las sustancias a los individuos es para
encontrar la combinación específica que resulta en la mayor reducción en la presión arterial del
paciente en un determinado intervalo de tiempo.

La Metodología de Superficie de Respuesta (MSR) es un conjunto de técnicas que comprende


[15]:

1. Desarrollar una serie de experimentos (diseñar un conjunto de experimentos) que


producirán una adecuada y confiable medición de la respuesta de interés.
2. Determinar un modelo matemático que ajuste de mejor manera los datos recolectados del
diseño seleccionado en el paso anterior (1), a través de la conducción apropiada de
pruebas de hipótesis concernientes a los parámetros del modelo; y
23

3. Determinar los valores óptimos de los factores experimentales que producen el valor
máximo (o mínimo) de la respuesta.

Si el descubrimiento del mejor valor(es) de la respuesta sobrepasa los recursos disponibles del
experimento, entonces los métodos de superficie de respuesta están dirigidos a la obtención de,
al menos, un mejor entendimiento del sistema en conjunto. Cuando el comportamiento de la
respuesta de interés medida está gobernado por ciertas leyes que conducen a una relación
determinística entre la respuesta y el conjunto de factores experimentales seleccionados, debería
ser posible entonces determinar las mejores condiciones (niveles) de los factores para optimizar
una salida deseada. Es frecuente utilizar, sin embargo, una aproximación empírica cuando la
relación es muy compleja o desconocida. La estrategia descrita anteriormente es la base de la
MSR.

Fig. 5. Ejemplo del Contorno de una Superficie de Respuesta.

Gráficamente, una superficie de respuesta puede representarse como una curva tridimensional
formada a partir de los niveles de cada factor considerado en el modelo, así como de la respuesta
observada y. Una derivación de dicha gráfica, comúnmente utilizada para la representación
bidimensional del modelo, es la gráfica de contorno o curvas de contorno. En la figura 5 se
puede observar las curvas de contorno asociadas a una superficie de respuesta para determinar la
distancia máxima alcanzada por un proyectil utilizando una catapulta manual, en ella se aprecian
las regiones que optimizan la respuesta dentro del rango de operación considerado en el
experimento.

1.10.1. FUNCIÓN DEL ANÁLISIS DE REGRESIÓN DENTRO DE LA METODOLOGÍA


DE SUPERFICIE DE RESPUESTA (MSR).

En cualquier sistema en el cual las variables cuantitativas cambian, el interés podría enfocarse en
evaluar los efectos de los factores en el comportamiento de algunas cantidades medibles (la
respuesta). Tal evaluación es posible a través del análisis de regresión. Utilizando datos
recolectados de un conjunto de pruebas experimentales, la regresión ayuda a establecer
empíricamente (por ajuste de algún modelo matemático) el tipo de relación que está presente
24

entre la variable respuesta y sus factores de influencia. La variable de respuesta es la variable


dependiente y es llamada la respuesta, y los niveles de los factores de influencia son llamados
explicadores, regresores o simplemente variables de entrada. El análisis de regresión es una de
las herramientas más ampliamente utilizada para investigar relaciones causa-efecto teniendo
aplicaciones en la física, biología, y ciencias sociales, así como también en ingeniería y otros
campos.

Como se mencionó anteriormente, los métodos de superficie de respuesta son técnicas


adicionales empleadas antes, durante y después de la aplicación del análisis de regresión a datos
recolectados. Así, el objetivo de la MSR incluye la aplicación de regresión así como de otras
técnicas en un intento de obtener un mejor entendimiento de las características del sistema de
respuesta bajo estudio.

1.10.2. NATURALEZA SECUENCIAL DE LA METODOLOGÍA DE SUPERFICIE DE


RESPUESTA (MSR).

Suponga que una investigación científica o ingenieril está inmersa con un proceso o sistema que
involucra una respuesta y que depende de los factores de entrada (también llamados variables de
entrada o variables de proceso) X1, X2,…, Xk. Su relación puede ser modelada por:

y = f (X1, X2,…, Xk) + ε

donde la forma de la función de respuesta real f es desconocida y ε es un error que representa las
fuentes de variabilidad no capturadas por f. Se asume que ε en las distintas corridas son
independientes y tienen media cero y varianza σ2. Las Xi’s están expresadas en la escala original
como minutos, grados (ºC), miligramos (mg). En el análisis de regresión es conveniente y
computacionalmente eficiente convertir X en variables codificadas x1, x2,…, xk, las cuales son
adimensionales y tienen media cero y desviación estándar 1. De modo general, se asumirá que
los factores de entrada están en forma codificada y expresados como sigue:

y = f (x1, x2,…, xk) + ε

Debido a que la relación entre la respuesta y y las xi’s pueden ser gráficamente bosquejadas
como una superficie recostada sobre la región de las xi’s, el estudio de esta relación es, de ahora
en adelante, llamado estudio de superficie de respuesta.

Frecuentemente, el propósito de la investigación es maximizar o minimizar la respuesta, o


alcanzar un valor deseado de la respuesta. Debido a que f es desconocida e y posee error
aleatorio, se necesita correr experimentos para obtener datos acerca del comportamiento de y. El
éxito de la investigación depende, dada una buena conducción experimental, en que tan bien f
puede ser aproximada. La Metodología de Superficie de Respuesta (MSR) es una estrategia para
alcanzar este objetivo e involucra experimentación, modelación, análisis de datos y
optimización.
25

1.10.3. DISEÑOS DE PRIMER ORDEN.

Como se mencionó en secciones anteriores, si existen muchos factores cuya importancia no


puede ser despreciada al principio del estudio de superficie de respuesta, un experimento de
tamizado deberá ser conducido para eliminar los factores no relevantes. Tales experimentos están
basados en diseños altamente fraccionados como los diseños 2k-p, 3k-p, los diseños Plackett-
Burman [14] y los arreglos ortogonales irregulares.

Una vez que un número de factores importantes es identificado, experimentos subsecuentes


pueden ser conducidos con mayor eficiencia y con menor número de corridas. La investigación
restante es dividida en dos fases. En la primera fase, el principal objetivo es determinar si las
condiciones actuales o niveles de los factores de entrada están cerca del óptimo (i.e. máximo o
mínimo) de la superficie de respuesta o si están alejados de él. Cuando la región experimental
está lejos de la región óptima de la superficie, una aproximación de primer orden debería ser
adecuada y el siguiente modelo de primer orden utilizado:

k
y = β 0 + ∑ β i xi + ε
i =1

donde βi representa la pendiente o efecto lineal de la variable codificada xi. Un diseño o


experimento que permita estimar los coeficientes incluidos en la expresión anterior es llamado
diseño de primer orden o experimento de primer orden, respectivamente. Ejemplos de ellos son
los diseños de resolución III 2k-p y los diseños Plackett-Burman [14]. Corridas en el punto central
de la región del experimento son agregadas a un experimento de primer orden de tal manera que
un elemento de curvatura sea agregado en la superficie subyacente. Una investigación posterior
debe ser conducida sobre la región de las xi’s para determinar si un experimento de primer orden
debe continuar o, en la presencia de curvatura, ser remplazada por un experimento de segundo
orden más elaborado. Dos métodos de investigación son importantes para realizar esta tarea:
Método del Ascenso más Pronunciado y el Método de la Rejilla Rectangular [16].

1.10.4. DISEÑOS DE SEGUNDO ORDEN.

Cuando la región experimental está cerca o dentro de la región del óptimo, la segunda fase del
estudio de superficie de respuesta inicia. Su principal objetivo es obtener una aproximación
acertada de la superficie de respuesta en una región pequeña alrededor del óptimo e identificar
condiciones de proceso óptimas. Cerca del óptimo de la superficie de respuesta, los efectos de
curvatura son los términos dominantes y la superficie de respuesta puede ser aproximada por un
modelo de segundo orden,

k k k
y = β 0 + ∑ β i xi + ∑ β ij xi x j + ∑ β ii xi2 + ε
i =1 i< j i =1
26

donde βi representa el efecto lineal de xi, βij representa la interacción lineal entre xi y xj, y βii
representa el efecto cuadrático de xi. Un diseño o experimento que permite estimar los
coeficientes de la expresión anterior es llamado diseño de segundo orden o experimento de
segundo orden, respectivamente.

Fig. 6. Exploración Secuencial de la Superficie de Respuesta 4 .

En la figura 6 se muestra gráficamente la naturaleza secuencial de los diseños de Superficie de


Respuesta; dada la región de operación del experimento, se aplica un diseño SR cerca de donde
se encuentra el óptimo.

1.10.5. DISEÑOS EXPERIMENTALES PARA AJUSTAR SUPERFICIES DE


RESPUESTA.

El ajuste y análisis de superficies de respuesta se facilita en gran medida con la elección


apropiada del diseño experimental. Cuando se selecciona un diseño de superficie de respuesta,
algunas de las características deseables en el diseño son las siguientes [5]:

1. Proporciona una distribución razonable de los puntos de los datos (y en consecuencia


información) en toda la región de interés.
2. Permite que se investigue la adecuación del modelo, incluyendo la falta de ajuste.
3. Permite que los experimentos se realicen en bloques.
4. Permite que los diseños de orden superior se construyan secuencialmente.
5. Proporciona una estimación interna del error.
6. Proporciona estimaciones precisas de los coeficientes del modelo.
7. Proporciona un buen perfil de la varianza de predicción en toda la región experimental.
8. Proporciona una robustez razonable contra los puntos atípicos o los valores faltantes.
9. No requiere un gran número de corridas.

4
Adaptado de: Hamada, Wu. Experiments. Parameter Design Optimization. Ed. John Wiley & Sons, 2000.
27

10. No requiere demasiados niveles de las variables independientes.


11. Asegura la simplicidad del cálculo de los parámetros del modelo.

Estas características entran en conflicto en ocasiones, por lo que con frecuencia debe aplicarse la
discrecionalidad al seleccionar un diseño.

1.10.5.1. Diseños para Ajustar el Modelo de Primer Orden.

Suponga que quiere ajustarse el modelo de primer orden en k variables:

k
y = β 0 + ∑ β i xi + ε
i =1

Existe una clase única de diseños que minimizan la varianza de los coeficientes de regresión βˆ i .
Se trata de los diseños de primer orden ortogonales. Un diseño de primer orden es ortogonal si
todos los elementos que están fuera de la diagonal de la matriz (X’X) son cero. Esto implica que
la suma de los productos cruzados de las columnas de la matriz X son cero.

La clase de los diseños de primer orden ortogonales incluye a los factoriales 2k y las fracciones
de la serie 2k en las que los efectos principales no son alias entre sí. Al utilizar estos diseños se
supone que los niveles bajo y alto de los k factores están codificados en los niveles usuales ±1.

1.10.5.1.1. Diseños Símplex y Diseños Plackett-Burman.

Otro diseño de primer orden ortogonal es el Diseño Símplex. El Diseño Símplex es una figura de
lados regulares con k+1 vértices en k dimensiones. Por lo tanto, el diseño símplex para k = 2 es
un triángulo equilátero, y para k = 3 es un tetraedro regular.

Asimismo, dentro de los diseños de primer orden más utilizados se encuentran los Diseños
Plackett-Burman. Los autores Plackett y Burman [14] introdujeron los diseños factoriales
fraccionados a dos niveles en k variables donde el número de puntos de diseño, N, es igual a
k+1. Estos diseños están disponibles solamente cuando N es un múltiplo de 4. Los autores
plantean diseños ortogonales alternativos al uso de diseños factoriales fraccionados cuando N no
es necesariamente una potencia de 2 pero sí un múltiplo de 4.

El objetivo establecido por Plackett y Burman es obtener diseños que puedan estimar todos los
efectos principales con la máxima precisión posible para N= k+1. Si N es una potencia de 2 y
N>k+1, los efectos de ciertas interacciones entre los factores podría ser estimada con máxima
precisión. En este caso (cuando N es potencia de 2) los diseños Plackett-Burman son idénticos a
los diseños factoriales fraccionados a dos niveles estándar. Plackett y Burman obtuvieron
28

arreglos de diseño para k = 3, 7, 11,…, 99 factores usando N = 4, 8, 12,…, 100 corridas. Tales
diseños podrían ser utilizados con variables cuantitativas como cualitativas.

1.10.5.2. Diseños para Ajustar el Modelo de Segundo Orden.

Al igual que en el modelo de primer orden, los ajustes cuadráticos del modelo de segundo orden
requieren de diseños específicos para realizar experimentos de esta naturaleza. Este tipo de
diseños son los más ampliamente utilizados dentro de la práctica experimental común; su fácil
aplicación y sus diversas ventajas son algunas de las causas de su preferencia, además de que
poseen buen ajuste a la mayoría de modelos cuadráticos.

1.10.5.2.1. Diseños Factoriales 3k.

Un diseños de segundo orden factible es el diseño factorial 3k, el cual requiere que la respuesta
sea observada en todas las posibles combinaciones de los niveles de las variables de entrada k
que poseen tres niveles cada una. En el caso del diseño factorial 3k, el número, N, de ensayos
experimentales es N=3k y puede por ende ser excesivamente grande, especialmente cuando un
gran número de variables de entrada son estudiadas. Para reducir el número de puntos de diseño
total, puede considerarse el uso de réplicas fraccionadas de estos diseños. Tales fracciones son
llamados diseños factoriales fraccionados 3k-m.

1.10.5.2.2. Diseños Box-Behnken.

Diseños factoriales para la estimación de los parámetros en un modelo de segundo orden fue
desarrollado por Box-Behnken [8]. Estos autores propusieron algunos diseños de 3 niveles para
ajustar superficies de respuesta. Por definición, un diseño factorial incompleto a tres niveles es
un subconjunto de las combinaciones factoriales de un diseño factorial 3k. Los diseños Box-
Behnken están formados por la combinación de diseños factoriales a dos niveles con diseños de
bloque incompleto balanceado (DBIB) en una manera particular. Los diseños resultantes suelen
ser muy eficientes en términos del número de corridas, y son rotables o casi rotables. El siguiente
ejemplo muestra cómo un diseño Box-Benhken puede ser construido.

Ejemplo. Considere un DBIB involucrando 4 tratamientos y 6 bloques con cada bloque


conteniendo dos tratamientos. Cada tratamiento aparece tres veces en el diseño, una vez con cada
uno de los otros tratamientos. Si los tratamientos son denotados por asterisco, se obtendría el
diseño siguiente:
29

x1 x2 x3 x4
1 * *
2 * *
Bloques 3 * *
4 * *
5 * *
6 * *

Ahora se combina el diseño anterior con el diseño factorial 22:

xi xj
-1 -1
1 -1
-1 1
1 1

De la siguiente manera: Los dos asteriscos en cada bloque son reemplazados en las dos columnas
del diseño 22. Una columna de ceros es incluida cuando no aparecen asteriscos. El diseño es
aumentado por la adición de puntos centrales, siendo utilizados tres en este ejemplo. El resultado
es un Diseño Box-Behnken a 3 niveles con 4 variables y 27 puntos:

x1 x2 x3 x4
-1 -1 0 0
1 -1 0 0
-1 1 0 0
1 1 0 0
0 0 -1 -1
0 0 1 -1
0 0 -1 1
0 0 1 1
0 0 0 0
-1 0 0 -1
1 0 0 -1
-1 0 0 1
1 0 0 1
0 -1 -1 0
0 1 -1 0
0 -1 1 0
0 1 1 0
0 0 0 0
0 -1 0 -1
0 1 0 -1
0 -1 0 1
0 1 0 1
-1 0 -1 0
1 0 -1 0
-1 0 1 0
1 0 1 0
0 0 0 0
30

El diseño obtenido es rotable y los bloques ortogonalmente en 3 bloques indicados por las líneas
discontinuas. Se dice que un diseño de superficie de respuesta se forma de bloques ortogonales si
se divide en bloques tales que sus efectos no afecten las estimaciones de los parámetros del
modelo de superficie de respuesta. En general, sin embargo, los diseños Box-Behnken no son
siempre rotables ni están en bloques ortogonales. Los autores Box y Behnken enlistaron un
número de diseños de segundo orden para k = 3, 4, 5, 6, 7, 9, 10, 11, 12, y 16 variables de
entrada.

Estos diseños serán de importancia al realizar el estudio comparativo a desarrollarse en este


trabajo, por lo que es importante considerarlos como uno de los diseños de segundo orden para
ajustar superficies de respuesta de mayor aplicación en prácticas experimentales.

Fig. 7. Diseño Box-Behnken para 3 factores.

1.10.5.2.3. Diseños Central Compuesto (DCC).

Otro de los diseños de segundo orden utilizados por la MSR, y que son de amplia utilización en
la práctica son los Diseños Central Compuesto (DCC). Box y Wilson [7] introdujeron una clase
alternativa de diseño a los diseños 3k, llamados la clase de los Diseños Central Compuesto. Un
diseño Central Compuesto consiste en:

1. Un diseño factorial completo (o una fracción del) 2k, donde el nivel de los factores está
codificado a los valores usuales -1, +1 estándares. Esto es llamado la porción factorial
del diseño.
2. Un número nC de puntos centrales (nC>=1).
3. Dos puntos axiales en el eje de cada variable de diseño a una distancia de α desde el
centro de diseño. Esta porción es llamada la porción axial el diseño.

El número total de puntos de diseños es N = 2k + 2k + nC. Los valores de α y nC son escogidos


apropiadamente siguiendo algunos criterios. Por ejemplo, un DCC en 2 variables con nC = 1 y
α= 2 es de la forma:
31

x1 x2
-1 -1
1 -1
-1 1
1 1
D= 2 0
- 2 0
0 2
0 - 2
0 0

La siguiente Figura muestra un Diseño Central Compuesto para k = 2 y k = 3 factores.

Fig. 8. Diseños Centrales Compuestos para k = 2 y k = 3.

Rotabilidad.

Es importante que el modelo de segundo orden proporcione buenas predicciones en toda la


región de interés. Una manera de definir “buenas” es requerir que el modelo tenga una varianza
razonablemente consistente y estable de la respuesta predicha en los puntos de interés x. Dicha
varianza de la respuesta predicha en algún punto x es:

V [ yˆ ( x)] = σ 2 x' ( X ' X ) −1 x

Box y Hunter [7] propusieron que un diseño de superficie de respuesta de segundo orden debe
ser rotable. Esto significa que la V [ yˆ ( x)] es la misma en todos los puntos x que están a la misma
distancia del centro del diseño. Es decir, la varianza de la respuesta predicha es constante en
esferas.

La rotabilidad es una base razonable para la selección de un diseño de superficie de respuesta.


Puesto que la finalidad de la MSR es la optimización, y la localización del óptimo se desconoce
antes de correr el experimento, tiene sentido el uso de un diseño que proporcione una precisión
32

de estimación igual en todas las direcciones (puede mostrarse que cualquier diseño de primer
orden ortogonal es rotable).

Un Diseño Central Compuesto (DCC) se hace rotable mediante la elección de α. El valor de α


para la rotabilidad depende del número de puntos en la porción factorial del diseño; de hecho,
α=(nF)1/4 produce un diseño central compuesto rotable, donde nF es el número de puntos usados
en la porción factorial del diseño.

1.10.5.2.4. Otros diseños de segundo orden.

Existen otros muchos diseños de superficie de respuesta que en ocasiones son útiles en la
práctica. Para dos variables, podrían usarse diseños compuestos de puntos cuya separación en un
círculo es igual y forman polígonos regulares. Puesto que los puntos del diseño son equirradiales
del origen, a estos arreglos con frecuencia se les llama diseños equirradiales.

Otros diseños útiles incluyen el diseño central compuesto pequeño, el cual consiste en un
factorial fraccionado en el cubo de resolución III (los efectos principales son alias de las
interacciones de dos factores y ninguna de las interacciones de dos factores es alias entre sí) y las
corridas axiales y centrales usuales; la clase de los diseños híbridos, estos diseños pueden ser de
valor considerable cuando es importante reducir el número de corridas tanto como sea posible.
Además de éstos, están los diseños saturados o casi-saturados, los cuales incluyen cerca (pero no
menos que) p puntos de diseño para estimar los parámetros del modelo.
33

2 APROXIMACIONES METODOLÓGICAS:
JUSTIFICACIÓN Y APORTE DEL TRABAJO.

La optimización durante la ejecución de un experimento que permita establecer los factores y


niveles críticos que afectan la variable de respuesta, es un aspecto importante para el
investigador, el cual desea encontrar, por un lado, aquellos factores que realmente están
afectando la respuesta y por otro, los efectos de y entre aquellos factores definidos como críticos.
Para ello, existen metodologías estadísticas que proponen una variedad de diseños que pretenden
establecer la magnitud de dichos efectos en la respuesta utilizando un número menor de recursos
para realizar el experimento; de aquí que sea muy importante su uso en procesos de tipo
industrial, donde sabemos que cada dato recolectado puede requerir de mucho tiempo,
disponibilidad, personal, cooperación, etc.: recursos críticos y algunas veces, no renovables.

Aunado a esto, la falta de conocimientos sólidos en Análisis y Diseño de Experimentos por parte
del personal encargado de implementar la mejora del proceso, hace más difícil la selección del
diseño que se adecue de manera eficaz al problema considerado. Es por ello necesario definir una
metodología de aplicación de diseños experimentales enfocados a la optimización de factores
limitantes en un proceso industrial, de manera que por un lado se minimice la utilización de
recursos para realizar el experimento y por otro, se garantice que los resultados obtenidos son
aplicables (equivalentes) a aquellos obtenidos de la aplicación del número total de corridas del
experimento original (completo). Una vez analizados los resultados del experimento, se podrá
contar con los elementos necesarios para establecer los niveles óptimos de cada factor crítico
considerado en el modelo, y por ende, de la variable respuesta de interés.

Si bien varios autores [16][17][18] proponen aproximaciones sistemáticas para la realización de


experimentos y algunos otros proveen recomendaciones en la selección del diseño que mejor
ajuste el proceso a ser analizado, no existe una metodología de aplicación que considere la
utilización de herramientas computacionales especializadas en el manejo de datos como el
paquete estadístico SAS® [19], los cuales permitan desarrollar diseños experimentales alternos a
los diseños ya conocidos para la optimización de recursos en procesos industriales.
34

Es por ello que creemos necesario desarrollar una metodología de aplicación de diseños
experimentales a procesos industriales que considere tales aspectos, además de que proporcione
alguna directriz que ayude a una mejor selección a través de análisis cuantitativos que presenten
las ventajas y desventajas que poseen los diseños de superficie de respuesta estándar y su
contraparte, los diseños óptimos.

Así y como parte del desarrollo de dicha metodología, se propone la utilización de un paquete
computacional especializado en Diseños Experimentales que, si bien no ha sido utilizado de
manera práctica en la resolución de este tipo de problemas, sí cuenta con herramientas muy útiles
para el diseño, análisis y presentación de resultados. Este software posee rutinas iterativas para el
desarrollo de diseños óptimos que mejor ajusten los datos obtenidos del experimento,
proporcionando resultados con un menor sesgo que el reportado por diseños estándares
existentes. De aquí que sea importante para el investigador, llevar a cabo la implementación de
metodologías que aporten un valor agregado a lo ya conocido hasta el momento en
experimentación, haciendo uso de herramientas computacionales modernas.

El trabajo de investigación que se presenta está enfocado a definir una metodología que permita
por un lado, realizar una correcta aplicación de los diseños experimentales estándares,
considerando la viabilidad de diseños generados por computadora, y por otro, una conveniente
selección de dichos diseños a través de un estudio comparativo, con objeto de optimizar recursos
para factores limitantes en un proceso industrial.

2.1. OBJETIVOS GENERALES DEL TRABAJO.

Los objetivos que pretende cumplir la presente investigación y que se desarrollan a lo largo del
estudio son los siguientes:

• Proponer una metodología de aplicación de diseños experimentales que incluya la


utilización de herramientas computacionales de análisis eficaces en el cálculo y
desarrollo de diseños experimentales orientados a la optimización de factores, a la vez
que permita establecer las directrices a seguir en la realización de un experimento de tipo
industrial.
• Proponer y desarrollar un estudio comparativo que incluya criterios de selección
cuantitativos para los distintos diseños experimentales comúnmente utilizados en la
optimización de factores limitantes en procesos.
• Promover el uso del Diseño de Experimentos en la práctica industrial común y fomentar
su utilización como una herramienta de análisis cuantitativo de procesos efectiva y con
ventajas visibles sobre métodos empíricos.
35

2.2. OBJETIVOS PARTICULARES.

Asimismo, se pueden definir algunos objetivos particulares que se pretende alcanzar con los
resultados de este trabajo:

• Establecer un panorama general de los diseños experimentales más utilizados en el


mejoramiento y optimización de procesos, conocidos como Diseños de Superficie de
Respuesta.
• Determinar la viabilidad de los diseños óptimos en la práctica experimental común a
partir del desempeño que poseen según la teoría de optimalidad considerada y compararla
contra las eficiencias asociadas a los diseños de superficie de respuesta estándar.
• Establecer criterios comparativos para la aplicación y selección de diseños
experimentales en la optimización de factores limitantes utilizando métodos
cuantitativos.

2.3. METODOLOGÍA DE APLICACIÓN PROPUESTA PARA LA


OPTIMIZACIÓN DE FACTORES LIMITANTES EN PROCESOS
INDUSTRIALES.

A lo largo de la existencia de los diseños experimentales, se han desarrollado aproximaciones


sistemáticas para su aplicación y que pretenden guiar al investigador en la planificación y
ejecución de un experimento. Varios autores [17][18] han introducido algunas consideraciones
generales para el desarrollo de experimentos que se han conservado a través de la práctica
común.

En nuestro caso y basados en las consideraciones existentes, se pretende plantear una


metodología de aplicación que permita establecer la viabilidad de los diseños óptimos generados
por computadora, en contraposición con los diseños estándar empleados en la optimización de
factores limitantes. El modelo a seguir resultará en una secuencia lógica de pasos que conduzcan
al bosquejo de conclusiones y guíen al experimentador hacia una correcta toma de decisiones en
las modificaciones y/o adecuaciones del proceso industrial bajo estudio.

A continuación se presentan los pasos que integran la metodología de aplicación propuesta:

1. DETECTAR EL PROCESO A ANALIZAR. Comúnmente en la práctica industrial


existen encadenamientos entre procesos que involucran diferentes recursos, materiales,
equipos, personal, etc. que difícilmente pueden ser aislados del resto. Sin embargo, es de
suma importancia poder identificar cuál de todos ellos es el de mayor trascendencia para
los demás, de manera que pueda asumirse con cierta confiabilidad que cualquier mejora
36

que se realice en su operación afectará positivamente al resto. Esto marca la pauta para
seleccionar el proceso que debería ser analizado y excluye la posibilidad de enfocarse a
un proceso con poco impacto a nivel productivo.

En general, los aspectos que podrían mejorarse en un proceso varían ampliamente entre
sectores y obviamente, dependen en gran medida del equipo involucrado en él. Es por
ello que la selección del proceso industrial debe ser validada en conjunto con la parte
operativa (usuarios) de la maquinaria o equipo, lo que se necesariamente lo involucrará
en la realización del experimento y en la implementación de las mejoras obtenidas.
Ejemplos de algunos de los elementos que potencialmente podrían mejorarse en un
proceso de esta naturaleza serían los rangos de operación del equipo, las velocidades de
recepción de materia que afectan la calidad del producto de salida, las temperaturas de
cocción de algún alimento, etc.

Consideremos el caso de un proceso de corte y doblado de hojas de acero inoxidable para


la fabricación de cocinas domésticas y tarjas metálicas. Asimismo supongamos que se
desea mejorar la calidad de las láminas procesadas a partir de la medición de las
distancias máximas permisibles para su dimensionado. Considerando el macro-proceso
de corte, podemos distinguir, entre otros, los siguientes elementos críticos que pudieran
estar afectando el corte:

1. La calidad de la materia prima. Es de importancia cerciorarse con antelación sobre


la calidad que poseen las hojas de acero que servirán de materia prima al proceso.
2. El estado de la máquina cortadora a utilizar. Otra fuente de variación podría ser la
calibración, estado físico y grado de dureza de la hoja de corte de la máquina.
3. La habilidad del operario. Si bien este elemento es totalmente subjetivo, es
importante considerar la experiencia del personal a cargo de la operación.

Fig. 9. Encadenamiento de Procesos para la Fabricación de cocinas domésticas de acero inoxidable.

Si tomamos en cuenta que el macro-proceso siguiente (doblado) recibe producto


resultado de este proceso, es claro observar que la mayor parte de la variabilidad asociada
a la calidad de las láminas radica en el proceso de corte, de aquí que la mayor atención
deberá ser puesta en el claro entendimiento de las variables (que se llamarán factores del
diseño) que realmente están afectando el producto final en dicho proceso.
37

Con este sencillo ejemplo, se ilustra la correlación observable entre los distintos macro-
procesos en la manufactura de un producto y que pueden orientar al experimentador
durante el análisis de los mismos para una correcta selección de aquél que afecta en
mayor grado el producto final.

Algunas de las herramientas que podrían ayudar a identificar las relaciones entre el
producto final y los procesos de manufactura son los Diagramas Causa-Efecto,
Diagramas de Pareto, Gráficas de Control, Diagramas de Flujo de Proceso, Análisis de
Modo y Efecto de Falla (AMEF), etc.

Maquinaria Mano de Obra

Obsolescencia Capacitación
Perfil de
Competencias

Ajuste y
Experiencia
Calibración
del Operario
Mantenimiento Habilidades
Preventivo del Operario
Auto-
Aprendizaje
Desgaste Disciplina y
Disposición

Efecto de la Falla
Limpieza e Herramental
Higiene del Adecuación
Área al Proceso
Secundarias
Método de
Iluminación Trabajo
Temperatura del Área
Secuencia
de Trabajo
de Tareas
Equipo de
Condiciones Manejo en el Protección
Materia Área
Prima Primarias

Medio Ambiente Materiales Método

Fig. 10. Diagrama Ishikawa o de Causa-Efecto para la identificación de procesos críticos.

2. DEFINIR LOS OBJETIVOS DEL ANÁLISIS. En esta parte previa a la ejecución del
experimento, es importante uniformizar la diversidad de criterios presentes en el
mejoramiento del proceso a través de la definición de los objetivos que tendrán que ser
satisfechos al momento de obtener los resultados de la realización del experimento. Esto
clarifica, por un lado, la dirección que se dará al experimento (alcances y perspectivas), y
por otro, permite establecer un panorama preciso de lo que se espera de él (beneficios a
corto-mediano plazo).

Al elaborar los objetivos, éstos deben ser claros y entendibles para todos los
involucrados, deben ser medibles y alcanzables en el término definido y deben ser
trascendentes para la operación del equipo y del proceso analizado.

En este paso es importante garantizar una buena comunicación entre las partes
involucradas en la ejecución del experimento (operarios, supervisores, etc.) a través del
establecimiento de juntas de staff y discusión grupal de los principales aspectos a
38

considerar durante la realización del experimento; en ellas se definirán de forma clara y


objetiva los alcances, además de que permitirán cuantificar los recursos necesarios y
disponibles con que se cuenta para el experimento.

Siguiendo con el ejemplo del proceso de corte y doblado, la redacción de los objetivos
podría ser de la siguiente manera:

• Reducir en un 55% los defectos del producto proveniente del proceso de corte
para minimizar el efecto negativo que se presenta en el siguiente.
• Identificar y corregir las causas-raíz que reporten una incidencia mayor al 15%
del total registrado en todos los procesos de manufactura.

Entre las herramientas de análisis que podrían aplicarse a este paso son la Lluvia de Ideas
(Brainstorming), minutas de reunión, Diagramas de Gantt para la programación de
posibles actividades y recursos, etc.

Fig. 11. Ejemplo de un Diagrama de Gantt para la programación de actividades y asignación de recursos.
En rojo, la Ruta Crítica.

3. IDENTIFICAR LOS FACTORES IMPORTANTES Y SUS NIVELES. Una vez


seleccionado el proceso a estudiar es necesario identificar los parámetros de operación
que regirán la realización del experimento. Dichos parámetros junto con el rango de
operación a considerar (niveles) se convertirán en los factores del experimento, a los
cuales será sometido el proceso para su análisis. Los niveles de cada factor deberán ser
seleccionados de manera que sean representativos de la operación.

Es recomendable hacer una correcta selección de los factores que realmente están
afectando el proceso, es decir, no se deberá de incluir en el modelo ningún factor
irrelevante para la respuesta y que sólo entorpezca la realización del experimento. Para
ello, existen experimentos preliminares conocidos como de tamizado o exploratorios que
39

permiten conocer sólo aquellos factores que afectan significativamente la respuesta. El


Diagrama Causa-Efecto puede ser una herramienta muy útil también.

En nuestro ejemplo, los factores involucrados en el proceso de corte son los siguientes:

• Grado de dureza de la hoja de corte.


• Velocidad de alimentación a la cortadora.
• Voltaje de alimentación de la máquina.
• Grosor de la hoja de acero inoxidable a cortar.
• Habilidad del operario en turno.

Suponiendo que se realiza un experimento exploratorio (también llamado de


caracterización) se determina que el voltaje de alimentación de la máquina y el grosor de
la hoja son factores que no están afectando significativamente la respuesta por lo que
pueden ser eliminados del análisis. Esto conduce al diseño de un experimento con 3
factores de estudio, en el que se pretende identificar la medida de influencia o efecto de
cada factor en la variable respuesta.

Una vez que se tienen identificados aquellos factores que caracterizan la respuesta, es
necesario observar el rango de operación en el que cada uno de ellos muestra su efecto, a
esto se le conoce como nivel del factor. Para los factores mencionados, dichos niveles
podrían fijarse así:

• Grado de dureza de la hoja de corte. (Factor A). Rango de operación de interés:

Nivel Bajo: 20R.


Nivel Medio: 40R.
Nivel Alto: 60R.

• Velocidad de alimentación a la cortadora. (Factor B). Rango de operación de


interés:
Nivel Bajo: 1 cm/seg.
Nivel Medio: 5 cm/seg.
Nivel Alto: 8 cm/seg.

• Habilidad del operario en turno. (Factor C). Rango de operación de interés:

Nivel Bajo: Principiante


Nivel Medio: Avanzado
Nivel Alto: Experto

En la práctica experimental común, dichos rangos de interés expresados en variables


físicas son transformadas en variables codificadas de manera que se facilite su utilización
en el desarrollo matemático a aplicarse para su análisis, además de que su interpretación
40

sea más fácil para el investigador al momento de establecer conclusiones. Dicha


codificación de variables se realiza para obtener una matriz formada por elementos -1, 0 y
+1, identificando los niveles bajo, medio y alto, respectivamente. En el caso de contar
con variables cualitativas se asocia una codificación similar a la utilizada para las
variables cuantitativas.

a) b)

a Nivel Bajo Nivel Medio Nivel Alto Nivel Bajo Nivel Medio Nivel Alto
) Factor A 20R 40R 60R Factor A -1 0 +1
Factor B 1 5 8 Factor B -1 0 +1
Factor C Principiante Avanzado Experto Factor C -1 0 +1
Fig. 12. Factores de importancia: a) variables físicas, b) variables codificadas.

4. REALIZAR LA SELECCIÓN DEL DISEÑO EXPERIMENTAL A SER


APLICADO (ESTUDIO COMPARATIVO). Para una correcta selección del diseño de
superficie de respuesta a aplicar es necesario determinar por un lado, el diseño más
eficiente en términos de las eficiencias D- y G-, comúnmente utilizados con Diseños
Óptimos, y por otro, a partir del grado de aproximación a una superficie de respuesta
óptima real conocida. Esto permitirá un mejor conocimiento sobre las implicaciones de
uso del diseño seleccionado, además de permitir una elección basada en criterios
objetivos. Es en este punto donde se incluye la utilización de herramientas
computacionales para la construcción de diseños óptimos como una alternativa de uso
para los diseños para optimización estándar. A continuación, se presentan los dos
enfoques que deben ser considerados dentro del estudio comparativo propuesto (descrito
en el capítulo siguiente).

a. Enfoque Superficie de Respuesta. Este enfoque plantea la utilización de diseños


para ajustar superficies de respuesta (Diseños Box-Behnken y Diseños Central
Compuesto).
b. Enfoque Diseños Óptimos generados por computadora. Este enfoque realiza la
construcción de diseños óptimos empleando el procedimiento PROC OPTEX de
SAS®.

5. LLEVAR A CABO EL EXPERIMENTO. Para realizar el experimento se debe asignar


un tiempo definido durante la jornada laboral. Es importante que el experimento se
realice en condiciones normales de operación, ya que esto proporcionará una mayor
representatividad del proceso analizado, además de dar más confiabilidad a los resultados
finales.

Es común que el personal encargado de realizar el experimento tenga poca


familiarización en la ejecución de un experimento. Para evitar cualquier confusión que
pudiera entorpecer la correcta ejecución del experimento, es recomendable realizar una
corrida de prueba antes de iniciar con el experimento real. Esto ayudará también a evaluar
la practicidad de ajustar los niveles de cada factor con relativa rapidez. Para el caso
41

ilustrado, la ejecución del experimento debe ser conducida por el supervisor o


responsable del proceso, observando los requerimientos necesarios.

6. ANALIZAR LOS DATOS EXPERIMENTALES. Con el fin de obtener los resultados


que guiarán durante el entendimiento y mejoramiento del proceso, se analizan los datos
recolectados. Para esto, existe software especializado que facilita los cálculos
matemáticos, sin embargo, se deberá tener presente la importancia que guarda la correcta
interpretación de los resultados.

En esta fase es donde se realizan los análisis de regresión, análisis de varianza (ANOVA),
pruebas de hipótesis, etc. que permiten identificar las relaciones e interacciones de y entre
los factores considerados.

Analysis of Variance for Distancia (cm)

Source DF Seq SS Adj SS Adj MS F P


Regression 9 863140 863140 95904 18.03 0.000
Linear 3 451264 202624 67541 12.70 0.000
Square 3 326457 337294 112431 21.14 0.000
Interaction 3 85420 85420 28473 5.35 0.004
Residual Error 35 186125 186125 5318
Lack-of-Fit 11 118912 118912 10810 3.86 0.003
Pure Error 24 67213 67213 2801
Total 44 1049266
Fig. 13. Ejemplo del Análisis de Varianza (ANOVA) con 3 factores de estudio generado por Minitab.

7. BOSQUEJAR CONCLUSIONES Y TOMAR DECISIONES. Ya que se han


analizado los datos experimentales, se procede a establecer las relaciones existentes entre
cada uno de los factores considerados, sus principales interacciones y efectos en la
variable de respuesta. La discusión de resultados en equipo es importante en la
modificación y/o adecuación de los parámetros de operación del proceso estudiado; por
ningún motivo se deberá tomar decisiones de forma individual, y sobretodo sin
considerar a los usuarios dueños del proceso. Al realizar las conclusiones generales, éstas
deben corresponder con los objetivos planteados al inicio del análisis.

8. IMPLEMENTAR LAS MEJORAS AL PROCESO EN UN TIEMPO ADECUADO.


Esta fase puede representar el mayor consumo de tiempo dentro de la planificación y
análisis del proceso. Es por ello que se recomienda hacer un plan de implementación de
mejoras que considere tanto la disponibilidad de tiempo (de proceso y de mano de obra)
como los recursos necesarios para llevarlo a cabo; sin perder de vista el intervalo de
tiempo entre la realización del experimento y la implementación.

9. SEGUIMIENTO OPERATIVO DE MEJORAS AL PROCESO. Dependiendo de la


criticidad del proceso analizado, es en ocasiones recomendable realizar un seguimiento
puntual a las mejoras implementadas con el objeto de corroborar, por un lado, la correcta
aplicación de las adecuaciones hechas, y por otro, su efectividad.
42

Algunas herramientas aplicables podrían ser el Análisis y Mapeo de Procesos, que


permitiría medir las características del producto final, resultado de la línea productiva en
la cual está incluido el proceso analizado. Si se trata específicamente de un equipo o
maquinaria, un análisis R&R podría ser aplicado. El seguimiento operativo de las mejoras
implementadas al proceso de corte debe ser ejecutado por los operarios de la máquina y
supervisado por el responsable del área, con objeto de que se garantice la operabilidad del
proceso en condiciones normales.

Como se puede observar, la metodología desarrollada cuenta con los elementos necesarios para
su aplicación en cualquier proceso que presente un comportamiento medible en el tiempo y con
relaciones causales entre parámetros de operación, lo cual la hace bastante flexible para la
mayoría de aplicaciones de tipo industrial.
43

3 ESTUDIO COMPARATIVO DE DISEÑOS


EXPERIMENTALES PARA LA OPTIMIZACIÓN DE
FACTORES.

Como parte de la Metodología de Aplicación Propuesta presentada en el capítulo anterior se


considera realizar un análisis de los distintos diseños experimentales existentes para ajustar
superficies de respuesta, esto con el objeto de contar con un panorama más general sobre la
utilidad de dichos diseños y seleccionar aquél que mejor se ajuste al proceso que se pretende
estudiar.

En este capítulo se presenta el estudio comparativo de diseños relacionado con el análisis


propuesto en la metodología; dicho estudio estará dividido en dos partes: la primera de ellas
consistente en la comparación a partir de las eficiencias D- y G- asociadas a cada diseño
experimental (diseños estándar vs. diseños óptimos) y, por otro lado, a partir del grado de
aproximación de cada diseño estándar para ajustar una superficie óptima conocida. En esta
segunda parte del estudio se consideró la utilización de un modelo de simulación que permitiese
estimar el sesgo esperado entre ambas superficies.

Posteriormente, el estudio concluye con la presentación de aquellos diseños estándar que mejor
rendimiento tuvieron en el ajuste de una superficie, así como del diseño óptimo con mayor
eficiencia D- y G- para el número de factores considerado. Con esto se dota al experimentador
con una herramienta analítica para discriminar entre diseños experimentales de optimización,
además de demostrar la viabilidad de utilizar diseños óptimos en la práctica común.
44

3.1. COMPARATIVA DE DISEÑOS MEDIANTE EFICIENCIAS.

En esta primera parte del estudio, se presenta la comparativa entre diseños a partir del concepto
de eficiencia; como se mencionó en el primer capítulo de este trabajo, dicho concepto es de suma
importancia al evaluar un diseño analizado desde una perspectiva o enfoque teórico, en el cual
un diseño experimental es visto en términos de la medida del diseño [20]. Sin embargo, la teoría
de optimalidad mutó hacia el campo de aplicación práctica en los años 70s y 80s, a partir de lo
cual los diseños experimentales fueron apreciados como diseños eficientes en términos de los
criterios inspirados por Kiefer y sus colaboradores [9][10].

Los criterios de optimalidad están caracterizados por letras del alfabeto y como resultado, son
llamados comúnmente criterios de optimalidad alfabética. Los más conocidos y utilizados en la
práctica son: el criterio D- ó D-Eficiencia y el criterio G- ó G-Eficiencia. Sin pretender ser
exhaustivos en la descripción de cada uno de estos criterios, sólo se mencionarán sus
definiciones, dejando al lector interesado mayor referencia en el capítulo primero y en las
referencias bibliográficas correspondientes [11][12].

El criterio de optimalidad D- está basado en la idea de seleccionar aquél diseño que cumpla
ciertas propiedades en la Matriz de Momentos [13]:

X'X
M =
N

La importancia de los elementos de dicha matriz radica en la determinación de rotabilidad del


diseño. Por lo tanto, se dice que un diseño es D-Óptimo cuando el determinante de su matriz de
momentos se maximiza:

| X'X |
| M |=
Np

Como resultado de esto, la eficiencia de un diseño D-Óptimo puede ser calculada como:

⎛ | X ' X | 1p ⎞
Deff (%) = ⎜⎜ ⎟ * (100)
⎟⎟
⎜ N
⎝ ⎠

Paralelamente, el criterio de optimalidad G enfatiza el uso de diseños para los cuales la máxima
varianza de predicción v(x) en la región del diseño no es tan grande. Así, un diseño G-Óptimo
está definido como:

[
Min Max v(x)
ζ x∈R
]
45

Donde ζ representa todo el espacio de diseños factibles, esto es, en la región generada por la
matriz X en el espacio p-dimensional. Una expresión para representar la eficiencia G- de un
diseño es la siguiente:

⎛ p ⎞
Geff (%) = ⎜ ⎟ * (100)
⎜ Max v( x) ⎟
⎝ x∈R ⎠

Así pues, en el caso que nos atañe discutir se considerarán las eficiencias para los diseños
estándar siguientes:

- Para 3 factores de estudio:

• Diseño Box-Behnken con 1 punto central (nc=1) y 13 corridas.


• Diseño Box-Behnken con 2 puntos centrales (nc=2) y 14 corridas.
• Diseño Box-Behnken con 3 puntos centrales (nc=3) y 15 corridas.
• Diseño Central Compuesto con Centros en las Caras (α=1), 1 punto central (nc=1) y 15
corridas.
• Diseño Central Compuesto con Centros en las Caras (α=1), 2 puntos centrales (nc=2) y
16 corridas.
• Diseño Central Compuesto con Centros en las Caras (α=1), 3 puntos centrales (nc=2) y
17 corridas.
• Diseño Central Compuesto con α = 3 , 1 punto central (nc=1) y 15 corridas.
• Diseño Central Compuesto con α = 3 , 2 puntos centrales (nc=2) y 16 corridas.
• Diseño Central Compuesto con α = 3 , 3 puntos centrales (nc=3) y 17 corridas.

- Para 4 factores de estudio:

• Diseño Box-Behnken con 1 punto central (nc=1) y 25 corridas.


• Diseño Box-Behnken con 2 puntos centrales (nc=2) y 26 corridas.
• Diseño Box-Behnken con 3 puntos centrales (nc=3) y 27 corridas.
• Diseño Central Compuesto con Centros en las Caras (α=1), 1 punto central (nc=1) y 25
corridas.
• Diseño Central Compuesto con Centros en las Caras (α=1), 2 puntos centrales (nc=2) y
26 corridas.
• Diseño Central Compuesto con Centros en las Caras (α=1), 3 puntos centrales (nc=3) y
27 corridas.
• Diseño Central Compuesto con α = 4 , 1 punto central (nc=1) y 25 corridas.
• Diseño Central Compuesto con α = 4 , 2 puntos centrales (nc=2) y 26 corridas.
• Diseño Central Compuesto con α = 4 , 3 puntos centrales (nc=3) y 27 corridas.
46

Y para su comparativa y correcta analogía, se consideraron los Diseños Óptimos con el mismo
número de corridas 5 .

Para el cálculo de las eficiencias se tomaron en consideración el número de parámetros del


modelo a ajustar, el número de corridas propio de cada diseño, así como las matrices de
información para encontrar a su vez las matrices de momentos. A continuación se muestra el
cálculo de las eficiencias descritas tomando como ejemplo el Diseño Box-Behnken con 3 puntos
centrales.

⎡1 -1 1 0 1 1 0 -1 0 0⎤
⎢1
⎢ -1 0 -1 1 0 1 0 1 0 ⎥⎥
⎢1 1 -1 0 1 1 0 -1 0 0⎥
⎢ ⎥
⎢1 1 0 -1 1 0 1 0 -1 0⎥
⎢1 0 0 0 0 0 0 0 0 0⎥
⎢ ⎥
⎢1 -1 0 1 1 0 1 0 -1 0⎥
⎢1 0 -1 1
0 1 1 0 0 -1 ⎥
⎢ ⎥
X DBB = ⎢1 0 0 0
0 0 0 0 0 0⎥
⎢1 1 0 1
1 0 1 0 1 0⎥
⎢ ⎥
⎢1 0 -1 -1
0 1 1 0 0 1⎥
⎢ ⎥ ⎡15 0 0 0 8 8 8 0 0 0⎤
⎢1 0 1 1
0 1 1 0 0 1⎥
⎢1 0 0 0
0 0 0 0 0 0⎥
⎢ 0
⎢ 8 0 0 0 0 0 0 0 0 ⎥⎥
⎢ ⎥
⎢1 1 1 0
1 1 0 1 0 0⎥ ⎢ 0 0 8 0 0 0 0 0 0 0⎥
⎢1 -1 -1 0 1 1 0 1 0 0⎥
⎢ ⎥
⎢ ⎥ ⎢ 0 0 0 8 0 0 0 0 0 0⎥
⎣⎢1 0 1 -1 0 1 1 0 0 - 1 ⎦⎥ ⎢ 8 0 0 0 8 4 4 0 0 0⎥
( X DBB ' X DBB ) = ⎢ ⎥
⎢ 8 0 0 0 4 8 4 0 0 0⎥
⎢ 8 0 0 0 4 4 8 0 0 0⎥
⎢ ⎥
⎢ 0 0 0 0 0 0 0 4 0 0⎥
⎢ 0 0 0 0 0 0 0 0 4 0⎥
⎢ ⎥
⎢⎣ 0 0 0 0 0 0 0 0 0 4⎥⎦

Det ( X DBB ' X DBB ) = 3.047 x1011

⎛ | X ' X | 1p ⎞ ⎛ 11
1

Deff = ⎜⎜ ⎟ * (100%) = ⎜ (3.047 x10 ) 10 ⎟ = 93.82%
⎜ N ⎟⎟ ⎜ 15 ⎟
⎝ ⎠ ⎝ ⎠

3.1.1. RESULTADOS.

El estudio comparativo entre diseños estándar y diseños óptimos generados por computadora
mostraron los resultados que se presentan en las siguientes tablas.

5
Estos diseños fueron generados por computadora utilizando el procedimiento Proc OPTEX [19] del paquete
estadístico SAS®. Ver Anexo C.
47

Tabla 6. Eficiencias D- y G- para Diseños Estándar.


Puntos Puntos de
Diseño D-Eficiencia G-Eficiencia
Centrales Diseño
Para 3 factores
1 13 97.00% 76.92%
Box-Behnken 2 14 96.53% 71.43%
3 15 93.82% 66.67%
1 15 94.21% 65.89%
Central Compuesto con
2 16 88.34% 93.35%
Centros en las Caras
3 17 86.99% 88.83%
1 15 99.14% 66.67%
Central Compuesto con
2 16 99.61% 94.59%
α=raiz(3)
3 17 97.63% 89.03%
Para 4 factores
1 25 99.23% 60.00%
Box-Behnken 2 26 99.92% 98.90%
3 27 98.86% 95.24%
1 25 94.21% 65.89%
Central Compuesto con
2 26 88.34% 93.35%
Centros en las Caras
3 27 86.99% 88.83%
1 25 99.23% 60.00%
Cental Compuesto con
2 26 99.92% 98.90%
α=raiz(4)
3 27 98.86% 95.24%

Tabla 7. Eficiencias D- y G- para Diseños Óptimos.


Diseño Puntos de
D-Eficiencia G-Eficiencia
Óptimo Diseño
13 95.70% 81.12%
14 96.79% 79.06%
Para 3
15 98.25% 77.46%
factores
16 100% 100%
17 99.13% 97.32%
25 96.93% 87.18%
Para 4
26 97.18% 83.79%
factores
27 97.68% 87.18%

3.1.2. DISCUSIÓN.

Como se puede observar en los resultados presentados, los diseños estándar poseen muy buena
eficiencia en términos de la eficiencia D, sin embargo existen casos en que los diseños óptimos
presentan un mejor desempeño. A partir de esto se generan las observaciones siguientes:

• Para el caso de 3 factores de estudio, el Diseño Box-Behnken con un solo punto central
ofrece una D-eficiencia del 97.00% en contraposición con su respectivo diseño óptimo en
el mismo número de corridas, el cual reportó una eficiencia de 95.7%. Esto nos hace
pensar que el diseño estándar tendrá un mejor desempeño para el caso en que se tengan
relativamente pocas corridas del experimento.
48

• Sin embargo, es importante hacer notar la considerable diferencia que presentaron ambos
diseños en cuanto a la eficiencia G-, lo que colocó al diseño óptimo por arriba de su
homólogo en más de 4%.
• Para el resto de los Diseños Box-Behnken considerados, su eficiencia cae por debajo de
la reportada para los Diseños Óptimos con el mismo número de puntos experimentales.
• Paralelamente, en el caso de los Diseños Central Compuesto con Centros en las Caras
éstos presentan debilidades de desempeño y eficiencia con los correspondientes Diseños
Óptimos en ambas eficiencias, teniendo diferencias significativas de hasta un 12%, lo que
sugiere una mayor estabilidad de la matriz de momentos para éstos últimos. El único caso
estudiado en que un Diseño Central Compuesto ofrece una mayor eficiencia es cuando
éste posee una distancia axial mayor a 1, el cual resulta ser el Diseño Central Compuesto
con alfa igual a 1.732.

D Eficiencia Box-Behnken G Eficiencia Box-Behnken D Eficiencia Diseño Óptimo G Eficiencia Diseño Óptimo

100

95

90

85
Eficiencias(%)

80

75

70

65

60

55

50
13 14 15
Número de Puntos Experimentales

Fig. 14. Gráfica Comparativa para Diseños Box-Behnken y Diseños Óptimos a 3 factores.

Las anotaciones anteriores pueden ser corroboradas gráficamente en las figuras anterior y
siguiente; en la primera de ellas se observa el equilibrio entre las eficiencias D- reportadas para
ambos diseños, observándose una proximidad para el caso de los diseños con 14 corridas
experimentales, punto en el cual la eficiencia D- del Diseño Box-Behnken cede ante la eficiencia
del Diseño Óptimo asociado. El caso de la eficiencia G- no produce mayores comentarios,
puesto que es mayor para los tres diseños óptimos analizados.
49

D Eficiencia Central Compuesto G Eficiciencia Central Compuesto


D Eficiencia Diseño Óptimo G Eficiencia Diseño Óptimo

100

90
Eficiencias (%)

80

70

60

50
15 16 17
Número de Puntos Experimentales
Fig. 15. Gráfica Comparativa para Diseños Central Compuesto y Diseños Óptimos a 3 factores.

En el caso de los Diseños Central Compuesto con Centros en las Caras, el comportamiento
gráfico de las eficiencias calculadas no deja lugar a dudas: para ambas eficiencias los Diseños
Óptimos ofrecen un mejor desempeño que el reportado para los diseños estándar considerados.

Para el caso en que se consideran 4 factores de estudio, los resultados varían con respecto al de
3, ya que los diseños estándar presentan una mayor eficiencia que la reportada por los diseños
óptimos como a continuación se describe:

• Los Diseños Box-Behnken poseen un mejor desempeño en términos de ambas


eficiencias, reportando un incremento de poco más de 2% en la eficiencia D- que la
registrada para su homólogo con 25 puntos experimentales. Algo similar sucede con la
eficiencia G-, que si bien es más alta para este caso (DBB nc=1), no sucede igual para el
resto, teniéndose una diferencia de 15 y 8%, respectivamente, sobre los Diseños Óptimos.
• Análogamente, un fenómeno similar sucede con los Diseños Central Compuesto con
valor alfa igual a 2 (raíz de 4), en el que se tienen registradas eficiencias mayores que las
reportadas para los Diseños Óptimos con el mismo número de puntos experimentales.
Este comportamiento análogo es resultado de la simetría de los Diseños Central
Compuesto (con distancia axial mayor a 1) y los Diseños Box-Behnken, ambos con 1, 2 y
3 puntos centrales.
• El único caso analizado en el que se registran eficiencias menores que para los Diseños
Óptimos son los 3 tipos de Diseños Central Compuesto con Centros en las Caras para los
cuales la diferencia porcentual es significativa alcanzando hasta un 10% en la eficiencia
D-. Con esto se puede establecer que los Diseños Óptimos ofrecen un mejor desempeño
cuando la distancia axial de un Central Compuesto es igual a 1.
50

D Eficiencia Box-Behnken G Eficiencia Box-Behnken


D Eficiencia Diseño Óptimo G Eficiencia Diseño Óptimo

100

90
Eficiencias (%)

80

70

60

50
25 26 27
Puntos Experimentales
Fig. 16. Gráfica Comparativa para Diseños Box-Behnken y Diseños Óptimos a 4 factores.

La gráfica anterior muestra el comportamiento de las eficiencias registradas para los Diseños
Box-Behnken y los Diseños Óptimos. En ella se puede observar la supremacía del diseño
estándar para la eficiencia D- en su comparativa con los diseños óptimos considerados, no siendo
así para el caso de la eficiencia G- en la que a pesar de iniciar muy por debajo de la eficiencia
reportada por el diseño estándar, repunta su comportamiento al aumentar el número de puntos
experimentales.

Paralelamente, en la gráfica siguiente se puede observar un comportamiento a la inversa que para


el caso arriba descrito, ahora los Diseños Óptimos registran la mayor eficiencia que las
reportadas para el Diseño Central Compuesto con Centros en las Caras para todos los casos
analizados, exceptuando la eficiencia G- para 25 puntos experimentales, que continua siendo
mucho más bajo que la eficiencia del Diseño Central Compuesto.
51

D Eficiencia Central Compuesto G Eficiencia Central Compuesto


D Eficiencia Diseño Óptimo G Eficiencia Diseño Óptimo

100

90
Eficiencias (%)

80

70

60

50
25 26 27
Puntos Experimentales
Fig. 17. Gráfica Comparativa para Diseños Central Compuesto y Diseños Óptimos a 4 factores.

Con la discusión presentada hasta aquí, concluye la primera parte del Estudio Comparativo de
Diseños, motivo del presente capítulo. A continuación se procederá a presentar la segunda parte
del mismo, en el que se desarrolló un modelo de simulación como apoyo para llevar a cabo la
discusión de la viabilidad y conveniencia de cada diseño estándar en la tarea de ajustar una
superficie de respuesta conocida.

3.2. COMPARATIVA DE DISEÑOS UTILIZANDO UN MODELO DE


SIMULACIÓN.

Como recordamos bien, el modelo de regresión característico para ajustar una superficie de
respuesta de segundo orden está dictado por la siguiente expresión matemática:

k k k
η = β 0 + ∑ β j x j + ∑ β jj x 2j + ∑ ∑β ij xi x j
j =1 j =1 i< j =2

Donde η es el valor esperado de la variable respuesta y para el rango de operación dictado por las
variables xi y xj (codificadas). Un supuesto aceptado y que puede ser fácilmente demostrado es
que los errores aleatorios asociados al modelo, expresados por la literal ε, se distribuyen como
normal con media cero y varianza σ2, de aquí que no aparezcan en el modelo de respuesta en la
ecuación descrita, ya que su valor esperado es cero.
52

La construcción del modelo de simulación empleado parte de las propiedades matemáticas de la


ecuación anterior, en la cual, a través de un análisis de regresión múltiple, se pueden establecer
los estimadores de los parámetros β‘s, con lo cual podemos calcular los valores numéricos de las
variables independientes y encontrar el valor óptimo de la ecuación de respuesta esperada.

y
*
ŷd1
yˆ d* 2
y*real

Curva Diseño 1 ( yˆ d*1 ) Curva Diseño 2 ( yˆ d* 2 )

Curva óptima real (y*) x

Fig. 18. Ilustración del Grado de Aproximación de Diseños mediante Análisis de Regresión.

La idea principal que sirvió de base para formular el modelo de simulación utilizado es mostrada
gráficamente en la figura anterior. En ella se presentan tres curvas en dos dimensiones que
representan el comportamiento de la variable respuesta para determinado experimento de
optimización; la curva óptima real está mostrada con línea continua y las dos restantes son
resultado de la aproximación de los diseños experimentales (nombrados 1 y 2 por simplificación)
de la curva óptima. El diseño que aproxime de mejor manera la curva (superficie) real óptima
será aquel que proporcione un menor sesgo, medido a través del Error Cuadrado Medio (MSE),
dentro del rango de estudio el experimento.

En nuestro caso, se utilizó el análisis de regresión múltiple para estimar los parámetros β‘s, a
partir de un vector de parámetros óptimo (β*), para cada diseño estándar de superficie de
respuesta y determinar con ello el grado de aproximación que posee para ajustar una superficie
de respuesta conocida.

Para ello se partió del modelo de superficie de respuesta característico para 3 y 4 factores de
estudio, se calcularon las derivadas parciales para encontrar la solución al sistema de ecuaciones
y conocer el valor óptimo y* contra el cual se realizaron las comparaciones para cada diseño
experimental considerado en el análisis. Dicha comparación se realizó para un número de
ensayos n y se establecieron algunas estadísticas para el análisis de los resultados. A
continuación se presenta la secuencia de pasos para definir el caso con 3 factores de estudio.

1.- Partiendo de la ecuación para ajuste de una superficie de respuesta para 3 factores:

y = β 0 + β 1 x1 + β 2 x 2 + β 3 x3 + β 11 x12 + β 22 x 22 + β 33 x32 + β 12 x1 x 2 + β 13 x1 x3 + β 23 x 2 x3 + ε
53

Con 10 parámetros de regresión, se calcularon las derivadas parciales para y respecto a cada
variable independiente xj:

∂y
= β 1 + β 12 x 2 + β13 x3 + 2β11 x1
∂x1
∂y
= β 2 + β12 x1 + β 23 x3 + 2β 22 x 2
∂x 2
∂y
= β 3 + β 13 x1 + β 23 x 2 + 2β 33 x3
∂x3

2.- Cada una de las ecuaciones encontradas se igualó a cero para determinar los puntos x que
proporcionan el óptimo, a través de la solución al sistema. Reordenando lo términos se obtuvo el
siguiente sistema:

2 β 11 x1 + β 12 x 2 + β13 x3 + β 1 = 0
β12 x1 + 2β 22 x 2 + β 23 x3 + β 2 = 0
β13 x1 + β 23 x 2 + 2β 33 x3 + β 3 = 0

3.- Matricialmente, el sistema de ecuaciones puede ser expresado como sigue:

⎡2β ⎡ ⎤ ⎡ ⎤
β 12 β13 ⎤ ⎢ x1 ⎥ ⎢ − β1 ⎥
⎢ 11 ⎥
⎢ ⎥⎢ ⎥ ⎢ ⎥
⎢ β12 2β 22 β 23 ⎥ ⎢ x 2 ⎥ = ⎢ − β2 ⎥
⎢ ⎥⎢ ⎥ ⎢ ⎥
⎢ β13 β 23 2β 33 ⎥ ⎢ x3 ⎥ ⎢ − β3 ⎥
⎣ ⎦ ⎣⎢ ⎦⎥ ⎣⎢ ⎦⎥

Con lo que se obtiene la solución al sistema a partir del despeje matricial de las variables
independientes:

−1
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
⎢ x1 ⎥ ⎢2β 11 β 12 β 13 ⎥ ⎢ − β1 ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ x2 ⎥ = ⎢ β 12 2 β 22 β 23 ⎥ ⎢ − β2 ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ x3 ⎥ ⎢ β 13 β 23 2 β 33 ⎥ ⎢ − β3 ⎥
⎢⎣ ⎥⎦ ⎣ ⎦ ⎢⎣ ⎦⎥

El resultado de la operación anterior es sustituido en la ecuación de ajuste de superficie de


respuesta original para encontrar el punto óptimo de la variable respuesta y*, que será
considerado como el valor objetivo para realizar la comparación de los valores reportados para
cada diseño bajo análisis. Obviamente, el valor de los parámetros β’s utilizados para resolver el
sistema corresponden al resultado del análisis de regresión de la superficie de respuesta
considerada como óptima real (y*).
54

Partiendo de esta concepción, se describirá el procedimiento que ayudó a definir el modelo de


simulación empleado y que fue utilizado para probar cada diseño experimental estándar.

a) Se toma el vector de parámetros βr* del modelo de superficie considerado como óptimo
real.
⎡ * ⎤
⎢ β0 ⎥
⎢ * ⎥
⎢ β ⎥
βr * = ⎢ 1 ⎥
⎢ M ⎥
⎢ ⎥
⎢ β* ⎥
⎣ k ⎦

b) Para generar el vector de respuestas estimadas ŷ que será la base para probar cada arreglo
experimental, se partió del vector columna formado por el producto del vector de
parámetros de regresión βr* anterior y de la matriz X asociada a cada diseño. A partir del
número de puntos de diseño a considerar en el análisis, se generan las observaciones ŷi
que se requieren para formar el vector ŷ ; a este vector generado se le suma un factor de
variación conformado por dos elementos: el error estándar y el error experimental ε.

Lo que se pretende es construir cada uno de los vectores ŷ (con el número de


observaciones i) que se utilizarán para cada una de las regresiones, considerando la media
o valor esperado de cada punto de diseño, así como los errores experimentales asociados;
la gráfica siguiente ayuda a mostrar lo mencionado anteriormente.

y3’ E(y)
y3

y1’
y2

y2’ } error
y1

x1 x2 x3
Fig. 19. Errores asociados a cada punto de diseño para generar el vector ŷ .

La expresión utilizada fue la siguiente [13]:

yˆ i = ( X Diseño ) i ( β r* ) i + ErrEst * ErrExp


yˆ i = ( X Diseño ) i ( β r* ) i + MSE FC ( diag [ X ( X ' X ) −1 X ' ] ) i * ε i ∀ i = 1, 2,…, p
55

El error estándar queda definido como el producto de las raíces cuadradas del Error
Cuadrado Medio (MSE) del modelo de regresión original, denotado por el subíndice FC,
y de la diagonal de la matriz de varianzas y covarianzas del diseño experimental a probar,
conocida también como la Hat Matrix del diseño. El error experimental ε es aleatorio con
media cero y varianza 1.

⎡ ⎤
⎢ yˆ1 ⎥
⎢ ⎥
⎢ yˆ 2 ⎥
yˆ = ⎢ ⎥
⎢ M ⎥
⎢ ⎥
⎢ yˆ p ⎥
⎣ ⎦
⎡ ⎤ ⎡ ⎤
⎢1 x1 x 2 L x k x12 x 22 L x k2 x1 x 2 L x1 x k x 2 x j < k ⎥ ⎢ ε1 ⎥
⎢ ⎥ ⎢ ⎥
⎢M M M L M M M L M M L M M ⎥ ⎢ ε2 ⎥
X =⎢ ⎥ε =⎢ ⎥
⎢M M M L M M M L M M L M M ⎥ ⎢ M ⎥
⎢ ⎥ ⎢ ⎥
⎢1 x L x kd x12d x 22d x kd2 x1d x 2 d L x1d x kd ⎥ ⎢ ε ⎥
⎣ d 1d x 2 d x 2 d x( j < k ) d ⎦ ⎣ p ⎦

c) Con este nuevo vector de respuestas ŷ se realiza el análisis de regresión asociado al


modelo para determinar un nuevo vector de parámetros β̂ * que dependerán propiamente
de la matriz X característica de cada diseño experimental. Es decir, se obtendrán tantos
vectores β̂ * como diseños experimentales se deseen probar.

βˆ * = ( X ' X ) −1 ( X ' y )

d) Una vez hecho esto, se sustituyen los valores del vector de parámetros estimados βˆi* en
el sistema de ecuaciones y se resuelve para determinar numéricamente el vector y) * .
Dicho valor será tomado como el punto óptimo generado por el diseño experimental bajo
estudio en la primera iteración, y será con el que se lleve a cabo la comparación contra el
óptimo real y* conocido.

e) Posteriormente, se calcula el número de simulaciones o réplicas n necesarias para obtener


el error máximo permisible respecto a la media, utilizando la siguiente expresión [21]:

s 2 ( n)
n(e) = mín{i ≥ n : t i −1,1−α / 2 ≤ e}
i

La cual expresa que el número de réplicas necesarias para obtener un error máximo
permisible, denotado por e, será aquél en el que para un número dado de iteraciones i el
56

s 2 (n)
valor de ti −1,1−α / 2 es menor o igual a e. Asimismo, s2(n) es la varianza asociada a
i
n simulaciones independientes, la cual ayuda a determinar el intervalo de confianza para
la media calculada. En nuestro caso, el error máximo permisible estará dado por el Error
Cuadrado Medio del modelo de regresión original (MSEFC) y la varianza será calculada
para cada diseño a probar tomando como base las réplicas que proporcionan la región de
estabilidad del modelo, según el análisis planteado a continuación.

Es por ello que fue necesario establecer algún criterio de estabilidad que permitiera
definir la región de transición del modelo de simulación propuesto, de manera que se
considerara como un modelo estable a partir del número de simulaciones o réplicas n para
cada diseño experimental de prueba [21]. Este análisis permitió observar el grado de
complejidad que presenta el modelo de simulación al utilizar cada arreglo experimental.
En nuestro caso, se tomó como criterio de estabilidad la media estimada del modelo y los
resultados reportados se presentan en las siguientes gráficas.
57

Figs. 20-28. Gráficas de Estabilidad del Modelo de Simulación Propuesto con 3 factores.
Gráfica de Estabilidad del Modelo para Gráfica de Estabilidad del Modelo Gráfica de Estabilidad del Modelo para
un DBB nc=1 para un DBB nc=2 un DBB nc=3
67.9 68.0 68.0
67.78

Media Estimada
67.80

Media Estimada
Media Estimada

67.8 67.8 68.0


67.7 67.6 67.9
67.6 67.4 67.9 67.80
67.5 67.2 67.8
67.4 67.0 67.8
67.3 66.8 67.7
0 200 400 600 800 1000 0 200 400 600 800 1000 0 200 400 600 800 1000
Número de Réplicas Número de Réplicas Número de Réplicas

Gráfica de Estabilidad del Modelo Gráfica de Estabilidad del Modelo Gráfica de Estabilidad del Modelo
para un DCC nc=1 FC para un DCC nc=2 FC para un DCC nc=3 FC
68.0 68.1 68.2

Media Estimada
Media Estimada

Media Estimada
67.9 68
67.79 68.1
67.8 67.9
67.78 68.0
67.8
67.7
67.7 67.9
67.6 67.79
67.6 67.8
67.5 67.5
67.4 67.7
67.4
0 200 400 600 800 1000
0 200 400 600 800 1000 0 200 400 600 800 1000
Número de Réplicas Número de Réplicas Número de Réplicas

Gráfica de Estabilidad del Modelo Gráfica de Estabilidad del Modelo Gráfica de Estabilidad del Modelo
para un DCC nc=1 A3 para un DCC nc=2 A3 para un DCC nc=3 A3
67.9 67.9 67.9
Media Estimada

67.79
Media Estimada

Media Estimada
67.79
67.8 67.8
67.9 67.80
67.7 67.7
67.8
67.6 67.6
67.8
67.5
67.5 67.7
67.4
67.4
67.7 67.3
0 200 400 600 800 1000 0 200 400 600 800 1000 0 200 400 600 800 1000
Número de Réplicas Número de Réplicas Número de Réplicas
58

De lo anterior se puede observar que el número de réplicas o simulaciones para las cuales
el modelo alcanza una estabilidad razonable varía al cambiar el diseño experimental, por
lo que éstas afectarán las réplicas necesarias para obtener el error máximo permisible
definido.

f) Por último, se realizan las n réplicas calculadas en el paso anterior para cada uno de los
diseños a probar y se almacenan en un vector de respuestas óptimas estimadas y) * ; con
éste se determinan las estadísticas necesarias que ayudarán a determinar el diseño que
mejor ajusta una superficie de respuesta óptima conocida.

⎡ * ⎤
⎢ yˆ1 ⎥
⎢ * ⎥
⎢ yˆ ⎥
yˆ * = ⎢ 2 ⎥
⎢ M ⎥
⎢ ⎥
⎢ yˆ * ⎥
⎣ n ⎦

Paralelamente, se aplicó este procedimiento para 4 factores de estudio, obteniéndose así un


algoritmo de cálculo que bien puede ser implementado en cualquier lenguaje de programación
que permita un eficiente manejo de matrices en un ciclo iterativo. En el estudio comparativo que
se presenta, se empleó el paquete Matlab® con su herramienta para análisis estadístico Statistics
Toolbox [22] para su validación e implementación 6 .

3.2.1. DISCUSIÓN.

Hasta aquí, se han presentado dos métodos de comparación de diseños experimentales que
contemplan distintas propiedades de los diseños analizados. El primero de ellos considera su
desempeño a partir de los conceptos definidos por la teoría de optimalidad [9][11][12], en la que
se analizan aspectos estadísticos de la matriz de momentos y de la varianza asociada a cada
diseño. En cambio, en el segundo método de comparación se recurre a elementos de inferencia
estadística que permiten determinar, bajo ciertos supuestos, el comportamiento que presentará
cada diseño una vez aplicado al análisis de un proceso industrial.

Si bien es cierto que el elemento aleatorio considerado en la generación de las pseudo-


observaciones que plantea el modelo de simulación afectan sensiblemente el margen de
respuestas para el número de simulaciones definido, se puede establecer que para el tipo de
diseños experimentales analizado, el modelo propuesto representa con alto nivel de certidumbre
el resultado esperado de la corrida práctica del experimento, alcanzando un nivel de estabilidad
con relativamente pocas réplicas. Esto puede ser corroborado a partir del supuesto de que se parte
de un modelo óptimo de superficie, la cual es conocida por los resultados experimentales

6
Para una mayor referencia sobre dicha implementación, ver el Anexo C.
59

reportados para el análisis, es decir, el modelo de simulación aproxima el comportamiento


esperado de los diseños considerando los parámetros que proporcionan el óptimo.

Por otro lado, es necesario establecer las directrices y criterios de selección que permitirán elegir
el mejor diseño. Estos criterios deben ser resultado del número de simulaciones establecida para
cada uno de ellos en el vector de respuestas asociado. Las estadísticas calculadas de dicho vector
son:

• Media.- Se obtiene la media aritmética de los valores simulados.


• Desviación Estándar.- Al igual que la media, se calcula la desviación estándar de
las respuestas estimadas.
• Varianza.- La desviación estándar de los datos al cuadrado.
• Error Cuadrado Medio.- También conocido como el MSE, se obtiene a partir de
la suma de la varianza del vector de respuestas óptimas estimadas más el cuadrado
del sesgo observado [23], es decir:

MSE ( yˆ i* ) = Varianza ( yˆ i* ) + [ Sesgo ( yˆ i* )] 2


n
( yˆ i * − E ( yˆ i *) 2
MSE ( yˆ i* ) = ∑ + ( E ( yˆ i *) − y*) 2
i =1 n

Con esto se puede determinar el diseño que mejor aproxima una superficie de respuesta real
conocida a partir de la selección de aquél que reporta un Error Cuadrado Medio (MSE) más
pequeño. Es decir,

{
Mín MSE ( yˆ di* ) }
Donde yˆ di* es el vector de respuestas estimadas para el diseño experimental i.
60

4 CASO DE APLICACIÓN. MODELO DE SIMULACIÓN


UTILIZADO.

Con objeto de validar numéricamente el modelo de simulación propuesto dentro del Estudio
Comparativo, se toma un caso de aplicación a un proceso industrial con el que se ilustra la
secuencia de cálculos que conducen a establecer los resultados del modelo. A continuación, se
muestra la memoria de cálculo según el procedimiento descrito en el capítulo anterior para el
caso de 3 factores de estudio. Al final, se presentan y discuten los resultados obtenidos 7 .

4.1. DESCRIPCIÓN DE CASO Y CÁLCULO SECUENCIAL.

1.- El experimento considerado para mostrar la utilización del modelo de simulación propuesto
fue tomado de Box y Draper [23] en el que presentan el comportamiento de una máquina textil
para hacer estambres sometida a ciclos de carga repetidos. Después de realizar el análisis de
regresión del modelo de segundo orden para ajustar una superficie de respuesta que permitiera
establecer el número mínimo de ciclos antes de la falla, se obtuvo la siguiente ecuación:

yˆ = 550.7 + 660.0 x1 − 535.9 x 2 − 310.8 x3


+ 238.7 x12 + 275.7 x 22 − 48.3 x32
− 456.5 x1 x 2 − 235.7 x1 x3 + 143.0 x 2 x3

7
El caso con 4 factores de estudio podrá ser revisado en el Anexo B.
61

La figura 29 que a continuación se presenta muestra la superficie de respuesta asociada al modelo


de regresión anterior, como se puede observar claramente, el punto óptimo buscado es un mínimo
global dentro del rango de operación del experimento.

Fig. 29. Superficie de Respuesta asociada al modelo de regresión


yˆ = 550 .7 + 660 .0 x1 − 535 .9 x 2 − 310 .8 x 3 + 238 .7 x12 + 275 .7 x 22 − 48 .3 x 32 − 456 .5 x1 x 2 − 235 .7 x1 x 3 + 143 .0 x 2 x 3 ,
utilizado para validar el Modelo de Simulación propuesto. Los ejes coordenados son (x1, x2, y).

Con los parámetros del modelo conocidos, se pueden obtener las derivadas parciales de la
expresión anterior y construir el sistema de ecuaciones que permitirá conocer el punto óptimo de
la variable de respuesta y:

∂yˆ
= 660.0 − 456.5 x 2 − 235.7 x3 + 477.4 x1
∂x1
∂yˆ
= −535.9 − 456.5 x1 + 143.0 x3 + 551.4 x 2
∂x 2
∂yˆ
= −310.8 − 235.7 x1 + 143.0 x 2 − 96.6 x3
∂x3

2.- Se reordenan los términos y se iguala a cero cada ecuación:

477.4 x1 − 456.5 x 2 − 235.7 x3 + 660.0 = 0


− 456.5 x1 + 551.4 x 2 + 143.0 x3 − 535.9 = 0
− 235.7 x1 + 143.0 x 2 − 96.6 x3 − 310.8 = 0

3.- El sistema de ecuaciones anterior puede ser expresado matricialmente para su solución como
sigue:
62

−1
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
⎢ x1 ⎥ ⎢477.4 − 456.5 − 235.7⎥ ⎢ − 660.0 ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ x2 ⎥ = ⎢− 456.5 551.4 143.0 ⎥ ⎢ 535.9 ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ x3 ⎥ ⎢− 235.7 143.0 − 96.6 ⎥ ⎢ 310.8 ⎥
⎣⎢ ⎦⎥ ⎣ ⎦ ⎣⎢ ⎦⎥

Lo que proporciona la solución siguiente:

⎡ ⎤ ⎡ ⎤
⎢ x1 ⎥ ⎢ − 1.8137 ⎥
⎢ ⎥ ⎢ ⎥
⎢ x2 ⎥ = ⎢ − 0.6091 ⎥
⎢ ⎥ ⎢ ⎥
⎢ x3 ⎥ ⎢ 0.3063 ⎥
⎣⎢ ⎦⎥ ⎢⎣ ⎥⎦

Así pues, se evalúa la ecuación de regresión del modelo y se obtiene el punto óptimo de ciclos
antes de la falla de la máquina:

y* = 67.7901

Este valor es considerado como el punto óptimo contra el cual se realiza la comparativa de
diseños experimentales bajo estudio. Ahora, se procede a describir el cálculo matricial que se
implementó en el modelo de simulación.

a) Se toma el vector de parámetros βr* del modelo de regresión que proporciona el óptimo
real conocido.
⎡550.7 ⎤
⎢660.0 ⎥
⎢ ⎥
⎢− 535.9 ⎥
⎢ ⎥
⎢− 310.8 ⎥
⎢238.7 ⎥
βr * = ⎢ ⎥
⎢275.7 ⎥
⎢− 48.3 ⎥
⎢ ⎥
⎢− 456.5⎥
⎢− 235.7⎥
⎢ ⎥
⎣⎢143.0 ⎦⎥

b) Con este vector de parámetros óptimos y la matriz X asociada al diseño experimental que
se desea probar, se aplican las expresiones matemáticas que generan el vector de
respuestas estimadas ŷi que considera al error estándar en cada punto de diseño y al error
experimental aleatorio ε con media cero y varianza 1. Tomemos el Diseño Box-Behnken
con 1 punto central y 13 puntos experimentales para mostrar el cálculo.
63

⎡1 0 -1 -1 0 1 1 0 0 1⎤
⎢1 1 0 1 1 0 1 0 1 0 ⎥⎥
⎢ ⎡ 550.7 ⎤
⎢1 1 1 0 1 1 0 1 0 0⎥ ⎢ 660.0 ⎥
⎢ ⎥ ⎢ ⎥
⎢1 -1 1 0 1 1 0 -1 0 0⎥
⎢ - 535.9 ⎥
⎢1 -1 0 1 1 0 1 0 -1 0⎥ ⎢ ⎥
⎢ ⎥ ⎢ - 310.8 ⎥
⎢1 1 0 -1 1 0 1 0 -1 0⎥
⎢ 238.7 ⎥
X DBB = ⎢1 0 1 1 0 1 1 0 0 1 ⎥ βr * = ⎢ ⎥
⎢ ⎥ ⎢ 275.7 ⎥
⎢1 1 -1 0 1 1 0 -1 0 0⎥ ⎢ - 48.3 ⎥
⎢1 -1 -1 0 1 1 0 1 0 0⎥ ⎢ ⎥
⎢ ⎥ ⎢ - 456.5 ⎥
⎢1 0 0 0 0 0 0 0 0 0⎥ ⎢ - 235.7 ⎥
⎢ ⎥ ⎢ ⎥
⎢1 0 -1 1 0 1 1 0 0 -1 ⎥
⎢ 143.0 ⎦⎥
⎢1 -1 0 -1 1 0 1 0 1 0⎥ ⎣
⎢ ⎥
⎣1 0 1 -1 0 1 1 0 0 -1 ⎦

⎡1767.8 ⎤ ⎡0.75 ⎤ ⎡0.2751 ⎤


⎢ 854.6 ⎥ ⎢0.75 ⎥ ⎢2.2126 ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ 732.7 ⎥ ⎢0.75 ⎥ ⎢1.5085 ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ 325.7 ⎥ ⎢0.75 ⎥ ⎢- 1.9451 ⎥
⎢ 6.0 ⎥ ⎢0.75 ⎥ ⎢- 1.6805 ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢1947.6 ⎥ ⎢0.75 ⎥ ⎢- 0.5735⎥
X DBB β r * = ⎢ 74.4 ⎥ diag[ X DBB ( X DBB ' X DBB ) −1 X DBB ' ] = ⎢0.75 ⎥ ε = ⎢- 0.1858⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢2717.5⎥ ⎢0.75 ⎥ ⎢ 0.0089⎥
⎢ 484.5 ⎥ ⎢0.75 ⎥ ⎢ 0.8369⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ 550.7 ⎥ ⎢1.00 ⎥ ⎢- 0.7223⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ 860.2 ⎥ ⎢0.75 ⎥ ⎢- 0.7215⎥
⎢ 156.2 ⎥ ⎢0.75 ⎥ ⎢- 0.2012⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣ 410.0 ⎦ ⎣0.75 ⎦ ⎣- 0.0205⎦
64

⎡1767.7 ⎤
⎢ 855.1 ⎥
⎢ ⎥
⎢ 733.1 ⎥
⎢ ⎥
⎢ 325.2 ⎥
⎢ 5.6 ⎥
⎢ ⎥
⎢ 1947.5 ⎥
ŷ = ⎢ 74.4 ⎥
⎢ ⎥
⎢ 2717.5⎥
⎢ 484.7 ⎥
⎢ ⎥
⎢ 550.5 ⎥
⎢ ⎥
⎢ 860.0 ⎥
⎢ 156.2 ⎥
⎢ ⎥
⎣ 410.0 ⎦

c) Posteriormente, se realiza un nuevo análisis de regresión para encontrar un nuevo vector


β̂ * .
βˆ* = ( X DBB ' X DBB ) −1 ( X DBB ' yˆ )

⎡1.0000 0 0 0 - 0.5000 - 0.5000 - 0.5000 0 0 0 ⎤


⎢ 0 0.1250 0 0 0 0 0 0 0 0 ⎥⎥

⎢ 0 0 0.1250 0 0 0 0 0 0 0 ⎥
⎢ ⎥
⎢ 0 0 0 0.1250 0 0 0 0 0 0 ⎥
⎢ - 0.500 0 0 0 0.4375 0.1875 0.1875 0 0 0 ⎥
( X DBB ' X DBB ) −1 = ⎢ ⎥
⎢ - 0.500 0 0 0 0.1875 0.4375 0.1875 0 0 0 ⎥
⎢ - 0.500 0 0 0 0.1875 0.1875 0.4375 0 0 0 ⎥
⎢ ⎥
⎢ 0 0 0 0 0 0 0 0.2500 0 0 ⎥
⎢ 0 0 0 0 0 0 0 0 0.2500 0 ⎥
⎢ ⎥
⎣⎢ 0 0 0 0 0 0 0 0 0 0.2500⎦⎥
⎡10887 ⎤
⎢ 5281 ⎥
⎢ ⎥
⎢- 4287⎥
⎢ ⎥
⎢- 2486⎥
⎢ 7225 ⎥
( X DBB ' yˆ ) = ⎢ ⎥
⎢ 7373 ⎥
⎢ 6076 ⎥
⎢ ⎥
⎢- 1825 ⎥
⎢ - 942 ⎥
⎢ ⎥
⎢⎣ 572 ⎥⎦
65

Del análisis de regresión se obtienen los siguientes parámetros:

⎡ 550.5037 ⎤
⎢ 660.1809 ⎥
⎢ ⎥
⎢ - 535.9145 ⎥
⎢ ⎥
⎢ - 310.7795 ⎥
⎢ 238.8385 ⎥
β̂ * = ⎢ ⎥
⎢ 275.7820 ⎥
⎢ - 48.2564 ⎥
⎢ ⎥
⎢ - 456.2480⎥
⎢ - 235.4490⎥
⎢ ⎥
⎢⎣ 143.0165 ⎥⎦

d) Una vez obtenido el vector de parámetros asociado al diseño que se desea probar, se
calculan los valores de x1, x2 y x3 que determinan el valor óptimo para esta primera
iteración.

⎡ ⎤
⎢ x1 ⎥ ⎡477.67 - 456.24 - 235.45 ⎤ −1 ⎡− 660.18⎤
⎢ ⎥ ⎢
⎢ x2 ⎥ = ⎢- 456.24 551.56 143.01 ⎥⎥ ⎢⎢535.91 ⎥⎥
⎢ ⎥ ⎢- 235.45 143.01 - 96.51 ⎥⎦ ⎢⎣310.77 ⎥⎦
⎢ x3 ⎥ ⎣
⎣⎢ ⎥⎦
⎡ ⎤
⎢ x1 ⎥ ⎡- 1.8106 ⎤
⎢ ⎥ ⎢ ⎥
⎢ x2 ⎥ = ⎢- 0.6043⎥
⎢ ⎥ ⎢ 0.3015⎥
⎢ x3 ⎥ ⎣ ⎦
⎢⎣ ⎥⎦

e) Estos valores de x se sustituyen en la ecuación del modelo de regresión original para


obtener el valor óptimo y) * generado por el diseño. Para el caso ejemplificado, el valor
óptimo del diseño en la primera iteración es:

yˆ1 * = 67.7554

f) Esta operación se realiza para el número de réplicas n calculado para obtener el error
máximo permisible y generar un vector (nx1) para cada diseño. Asimismo, se consideró el
criterio de estabilidad para la media del modelo de simulación propuesto. Para el cálculo
de n se tomó la muestra de simulaciones mínima para estabilizar el modelo, con ella se
determinó la varianza con la cual se calculó el número de réplicas a ensayar. A
continuación se presenta el número de réplicas necesarias para obtener un error máximo
permisible de 0.0739 y estabilizar el modelo para cada diseño experimental para el caso
de 3 factores de estudio.
66

Tabla 8. Número de Réplicas necesarias para obtener estabilidad en el modelo de simulación


y un error máximo permisible de 0.0739 para 3 factores de estudio.
Número de Error
Diseño Varianza Simulaciones p/ Cuadrado
precisión y estabilidad Medio
DBB nc=1 0.2062 800 0.2065
DBB nc=2 0.1636 600 0.1643
DBB nc=3 0.1543 600 0.1542
DCC nc=1 FC 0.1573 600 0.1571
DCC nc=2 FC 0.1610 600 0.1608
DCC nc=3 FC 0.1518 600 0.1516
DCC nc=1 A3 0.0430 300 0.0429
DCC nc=2 A3 0.0471 600 0.0470
DCC nc=3 A3 0.0458 200 0.0456

Una vez realizada la simulación, se genera el vector de respuestas estimadas y) * que


permite determinar el desempeño que presentó el diseño analizado para el número de
réplicas definida.

Con la obtención de este vector de respuestas estimadas para cada diseño experimental de prueba,
se determinan las estadísticas de decisión que permiten conocer el grado de aproximación que
posee dicho diseño a una superficie óptima conocida.

4.2. RESULTADOS Y DISCUSIÓN.

Una vez que se corrió el modelo de simulación propuesto, los resultados obtenidos para los casos
analizados en el presente estudio son mostrados en las siguientes tablas.
67

Tabla 9. Comparativa de Diseños Estándar empleando el Modelo de Simulación con 3 factores de estudio.
No. de Estadísticas Comparativas
Réplicas Valor Error
Diseño
p/precisión y Óptimo Real Media Varianza Cuadrado
estabilidad Medio
DBB nc=1(13r) 800 67.7901 67.7884 0.2014 0.2012

DBB nc=2(14r) 600 67.7901 67.7754 0.1539 0.1539

DBB nc=3(15r) 600 67.7901 67.7991 0.1592 0.1590


DCC nc=1 (15r)
600 67.7901 67.7693 0.1727 0.1729
Face-Centered
DCC nc=2 (16r)
600 67.7901 67.8112 0.1859 0.1860
Face-Centered
DCC nc=3 (17r)
600 67.7901 67.7850 0.1598 0.1596
Face-Centered
DCC nc=1 (15r)
300 67.7901 67.7904 0.0490 0.0488
Alfa=sqr(3)
DCC nc=2 (16r)
600 67.7901 67.7826 0.0410 0.0410
Alfa=sqr(3)
DCC nc=3 (17r)
200 67.7901 67.7920 0.0396 0.0394
Alfa=sqr(3)

Diseños Box Behnken Diseños Central Compuesto FC Diseños Central Compuesto A3

0.2250

0.1875
Error Cuadrado Medio

0.1500

0.1125

0.0750

0.0375

0.0000
0 200 400 600 800 1000
Número de Réplicas para Estabilidad
Fig. 30. Gráfica de Errores Cuadrados Medios como función del Número de Simulaciones para
Diseños Estándar con 3 factores.
68

Algunos resultados que se pueden generar a partir de la lectura de la tabla y gráfica anteriores
son:

• Considerando como criterio de selección al Error Cuadrado Medio (MSE) de los diseños
analizados, se puede establecer que el mejor diseño estándar para aproximar una
superficie de respuesta con 3 factores de estudio es el Diseño Central Compuesto con tres
puntos centrales y un valor alfa de raíz de 3 (1.732), ya que fue el diseño que menor sesgo
presentó reportando un MSE de 0.0394.
• Asimismo, se puede observar que la definición del mejor diseño estándar para
aproximación no dependió del número de réplicas que se corrieron, puesto que para el
caso de 3 factores de estudio, el diseño seleccionado reportó el menor valor MSE con sólo
200 iteraciones. Obviamente, esto está relacionado con la determinación del número de
réplicas necesarias para obtener un error máximo permisible de 0.0739 y considerando el
criterio de estabilidad para el modelo propuesto, es decir, el modelo se estabiliza después
de 200 réplicas para el caso del mejor diseño.
• El círculo discontinuo indica que los Diseños Central Compuesto con valor alfa de raíz de
3, presentan los valores MSE más pequeños del total de arreglos considerados.
• Si bien esto no admite generalizaciones, los Diseños Box-Behnken presentan los valores
MSE más altos dentro del espectro de diseños analizados, por lo que su utilización en el
estudio de un proceso industrial debe ser cuidadosa y conducida con cautela.

Para el caso de 4 factores de estudio, las réplicas necesarias para obtener un error máximo
permisible dado por un MSE de 0.0832 están mostradas a continuación.
Tabla 10. Número de Réplicas necesarias para obtener estabilidad en el modelo de simulación
y un error máximo permisible de 0.0832 para 4 factores de estudio.
Número de Error
Diseño Varianza Simulaciones p/ Cuadrado
precisión y estabilidad Medio
DBB nc=1 (25r) 0.3242 700 0.6784
DBB nc=2 (26r) 0.3829 200 0.3383
DBB nc=3 (27r) 0.3435 500 0.4001
DCC nc=1 FC (25r) 0.6991 600 0.5565
DCC nc=2 FC (26r) 0.5650 600 0.5270
DCC nc=3 FC (27r) 0.5597 300 0.5134
DCC nc=1 A4 (25r) 0.0678 400 0.0958
DCC nc=2 A4 (26r) 0.1025 200 0.0884
DCC nc=3 A4 (27r) 0.1380 300 0.0816

Después de realizar la simulación, los resultados obtenidos son reportados en la siguiente tabla.
69

Tabla 11. Comparativa de Diseños Estándar empleando el Modelo de Simulación con 4 factores de estudio.
Estadísticas Comparativas
Número de
Valor Error
Diseño Simulaciones
Óptimo Real Media Varianza Cuadrado
p/precisión
Medio
DBB nc=1(25r) 700 46.3146 46.4500 0.6972 0.7145

DBB nc=2(26r) 200 46.3146 46.2902 0.3175 0.3165

DBB nc=3(27r) 500 46.3146 46.3381 0.3313 0.3312


DCC nc=1 (25r)
600 46.3146 46.3868 0.5735 0.5778
Face-Centered
DCC nc=2 (26r)
600 46.3146 46.3284 0.4670 0.4664
Face-Centered
DCC nc=3 (27r)
300 46.3146 46.3487 0.5451 0.5444
Face-Centered
DCC nc=1 (25r)
400 46.3146 46.3244 0.1031 0.1029
Alfa=sqr(4)
DCC nc=2 (26r)
200 46.3146 46.3019 0.0800 0.0798
Alfa=sqr(4)
DCC nc=3 (27r)
300 46.3146 46.3042 0.0741 0.0740
Alfa=sqr(4)

Diseños Box Behnken Diseños Central Compuesto FC Diseños Central Compuesto A4

0.8000

0.7000
Error Cuadrado Medio

0.6000

0.5000

0.4000

0.3000

0.2000

0.1000

0.0000
0 100 200 300 400 500 600 700 800
Número de Réplicas para Precisión
Fig. 31. Gráfica de Errores Cuadrados Medios como función del Número de Simulaciones para
Diseños Estándar con 4 factores.
70

Las observaciones asociadas a los resultados para el caso de 4 factores de estudio son las
siguientes:

• Al igual que en el caso de 3 factores, el mejor diseño de aproximación de una superficie


de respuesta conocida resultó ser un Diseño Central Compuesto con distancia axial de raíz
de 4 y tres puntos centrales. Como puede observarse en la tabla anterior, el menor Error
Cuadrado Medio (MSE) resultó ser de 0.0740 para el Diseño Central Compuesto con dos
puntos centrales.
• En cuanto a la gráfica sobre la distribución de errores cuadrados por tipo de diseño, se
puede claramente apreciar que los Diseños Central Compuesto con valor alfa igual a 2
presentan los valores más pequeños en comparación con el resto. Excepto por el Diseño
Box- Behnken con un punto central, los Diseños Central Compuesto con Centros en las
Caras reportaron los errores cuadrados más altos del total de arreglos analizados.
• Una vez más, el número de simulaciones parece no afectar el comportamiento del MSE,
ya que con sólo 300 réplicas (segundo valor más pequeño) se obtuvo la menor varianza
respecto al óptimo conocido real.
• Similarmente a los resultados obtenidos para 3 factores, los Diseños Box-Behnken y
Central Compuesto con Centros en las Caras reportaron los valores más altos de MSE
entre los diseños analizados, por lo que se recomienda que su utilización sea observando
las mismas precauciones que para el caso de 3 factores, si lo que se busca es la obtención
de un valor controlado de la varianza de predicción del modelo a ajustar.
• Basados en ambos casos discutidos, se puede establecer que el número de réplicas
necesarias para obtener un error máximo permisible e queda contemplado dentro de la
región de estabilidad del modelo, es decir, al lograr la estabilización se cumple con el
error máximo permisible definido para cada diseño experimental analizado.

Sólo por comparativa, la siguiente tabla muestra los Errores Cuadrados Medios reportados para
los Diseños Óptimos considerados en el Criterio de Eficiencias, de donde se observa claramente
que dada su naturaleza, no son los mejores diseños para aproximar una superficie de respuesta, de
aquí que dicha tabla sea solo informativa.

Tabla 11a. Errores Cuadrados Medios para Diseños Óptimos.


Número de
Diseño Puntos de Error Cuadrado
D-Eficiencia Réplicas para
Óptimo Diseño Medio (MSE)
Estabilidad
13 95.70% 600 2.6856
14 96.79% 600 1.2344
Para 3
15 98.25% 600 0.9574
factores
16 100% 600 0.8835
17 99.13% 600 0.8755
25 96.93% 800 2.3276
Para 4
26 97.18% 800 1.5546
factores
27 97.68% 800 1.2478

En general y tomando como base los resultados discutidos anteriormente, algunas de las
conclusiones sobre el presente método de comparación de diseños son las siguientes:
71

• El modelo de simulación permitió establecer una secuencia iterativa para generar pseudo-
observaciones experimentales que bajo análisis estadístico, permitieron a su vez
seleccionar un diseño experimental de ajuste que mejor desempeño presentara dentro de
una gama de diseños posibles.
• Gracias a esto y dada su naturaleza algorítmica, el modelo de simulación puede ser
utilizado para probar diseños experimentales con más de 3 factores de estudio, lo que lo
convierte en una herramienta de análisis muy importante al comparar el desempeño de
determinados arreglos, además de servir de guía a los experimentadores que deseen
aplicar Diseño de Experimentos a un proceso industrial de optimización.

4.3. RESUMEN ESTUDIO COMPARATIVO BASADO EN EL CASO DE


APLICACIÓN.

En resumen, la siguiente tabla muestra los mejores diseños experimentales para ajustar una
superficie de respuesta a partir de los resultados obtenidos en el estudio comparativo presentado.

Tabla 12. Resultados del Estudio utilizando dos criterios comparativos para Diseños Experimentales,
considerando experimentos con 3 y 4 factores de estudio.
Número de
Criterio Eficiencias Criterio de Aproximación
Factores
3 Diseño Óptimo Diseño Central Compuesto
Eficiencia D- Eficiencia G- Error Cuadrado Medio Puntos Centrales
100% 100% 0.0399 3
Puntos Exps. Error Cuadrado Puntos Experimentales Distancia Axial
16 0.8835 17 1.732
4 Diseño Box-Behnken Diseño Central Compuesto
Eficiencia D- Eficiencia G-
Error Cuadrado Medio
99.92% 98.90%
Puntos Centrales Puntos Exp. 0.074
2 26
Puntos Experimentales
Error Cuadrado 0.3165
Diseño Central Compuesto 27
Eficiencia D- Eficiencia G-
Distancia Axial
99.92% 98.90%
Puntos Experimentales 2
26
Puntos Centrales
Error Cuadrado 0.0798
Puntos Centrales Distancia Axial
3
2 2
72

5 CONCLUSIONES GENERALES.

En el presente y último capítulo se presentan las observaciones y conclusiones generales del


trabajo. En ellas se comprueba y demuestra cada uno de los objetivos planteados al inicio del
trabajo. Las conclusiones están divididas en dos partes: la primera de ellas son referentes al
Estudio Comparativo desarrollado en el capítulo 3; en ellas se incluyen algunas observaciones
que muestran la viabilidad de utilizar modelos de simulación en experimentos y la utilización
práctica de conceptos manejados en la teoría de optimalidad considerada en el estudio. Es en esta
parte donde se presentan algunas ventajas y desventajas así como recomendaciones sobre la
utilización de diseños generados por computadora, usando el procedimiento Proc OPTEX de
SAS® [19], y de los diseños de superficie estándar. La segunda parte hace referencia a la
Metodología de Aplicación propuesta en el capítulo 2; se muestran las ventajas que presenta en
comparación con las ya existentes en la bibliografía consultada. Por último, el capítulo cierra con
los principales puntos de la investigación futura asociadas a este trabajo.

5.1. SOBRE EL ESTUDIO COMPARATIVO DESARROLLADO.

Hunter y Naylor [24] definen simulación como una técnica numérica para conducir experimentos
bajo ciertos tipos de modelos matemáticos que describen el comportamiento de un sistema
complejo empleando una computadora durante periodos de tiempo extendidos. Asumen también
que el modelo ha sido ya formulado y sus parámetros estimados para poder considerarlo como
una base válida para comenzar con una simulación en computadora. Basados en esto, se
determinó la viabilidad de utilizar una expresión matemática para generar un modelo de
simulación en computadora que permitiese estimar el grado de aproximación que posee una
superficie asociada a un diseño conociendo de antemano la superficie real del óptimo.
73

Cheng y Lamb [25] establecen que un experimento de simulación consiste en un número de


corridas del modelo de simulación en cada número de puntos de diseño en el rango de interés,
esto parece ser de particular importancia ya que sugiere considerar el número de réplicas de cada
diseño como elemento de estimación válido en el rango de operación analizado. En nuestro caso,
el número de réplicas quedó definido utilizando la expresión estadística que considera un error
máximo permisible dado por el Error Cuadrado Medio del modelo de regresión original, además
de que se define la región de transición para obtener estabilidad en el modelo implementado;
proceso calculado para cada uno de los diseños experimentales analizados.

Con base en esto, se establecen las siguientes observaciones asociadas al modelo de simulación
propuesto en la segunda parte del Estudio Comparativo:

• Contempla la utilización de un modelo matemático que aproxima el comportamiento de la


situación real.
• Parte de un modelo de superficie de respuesta previamente formulado y con parámetros
conocidos y estimados.
• Cumple con los fundamentos teóricos en que debe basarse un modelo de simulación en
computadora, incluyendo variables aleatorias que representan el sesgo con respecto a la
situación real de experimentación.
• Juzgando a partir de los resultados numéricos obtenidos, emula con gran eficiencia el
comportamiento esperado de cada diseño en el rango de operación considerado.

Por otro lado, la inclusión dentro del análisis de los diseños óptimos D- y G- proporciona un
valor agregado al estudio en particular y a la metodología en general, ya que si consideramos lo
expuesto por Atkinson [26] sobre la aplicabilidad de la teoría de optimalidad a problemas de
optimización industrial, estamos dotando de un elemento de generalización muy importante al
estudio comparativo propuesto, ya que además de considerar el empleo de los diseños estándar de
superficie de respuesta se incluye la utilización de la herramienta de construcción para diseños
óptimos, lo cual proporciona ventajas tangibles al experimentador en su tarea de selección del
mejor diseño que se adecue al proceso a ser analizado. Atkinson [26] también afirma que una
fortaleza de los métodos de diseños experimentales óptimos es que conducen a algoritmos para la
construcción de diseños en situaciones no-estándar, que pueden ser trabajados a través del
empleo de procedimientos como el Proc OPTEX de SAS® [19]. En su artículo, Nalimov,
Golikova y Mikeshina [27] plantean la posibilidad de utilizar el concepto de D-Optimalidad de
forma práctica para llevar a cabo comparaciones cuantitativas entre diseños rotables bajo ciertas
consideraciones y supuestos, de aquí que sea factible emplear la medida de un diseño óptimo para
realizar comparaciones de desempeño.

Basado en esto, se pueden establecer algunas recomendaciones (y precauciones) sobre el uso de


diseños óptimos generados por computadora que deben ser considerados en la fase de selección:

• Los diseños óptimos sirven para estudiar procesos en los que se presuponen
características de comportamiento especiales, es decir, para analizar situaciones en los que
modelos de superficie de respuesta estándar no pueden ser aplicados.
74

• En algunos casos, la región donde se encuentra el óptimo no es regular debido al rango de


operación de los factores o los niveles de alguno de ellos extiende la región esperada, es
entonces cuando un diseño óptimo puede ser de gran ayuda, ya que al permitir el manejo
de modelos con comportamiento no-lineal permite la estimación de sus parámetros.
• Cuando algún experimento no puede ser realizado en su totalidad debido a limitaciones en
los recursos disponibles, permitiéndose correr sólo una pequeña porción del experimento
factorial, el uso de un diseño óptimo puede ser factible, puesto que puede especificarse el
número de corridas que deseen ejecutarse al construir el diseño.
• Los diseños óptimos deben ser utilizados con cautela debido a que parten de teorías del
diseño experimental continuo, es decir, son arreglos que están basados y generados a
partir de supuestos matemáticos como la minimización de la varianza de los parámetros a
estimar, comportamiento de las matrices de información, etc. conceptos hasta cierto punto
abstractos y que requieren de un nivel de sensibilidad adecuado para ser manejados en la
práctica. Sin embargo, pueden ser muy útiles en experimentación industrial en situaciones
especiales como las descritas anteriormente.

Asimismo, se podrían establecer algunas ventajas y desventajas en el uso de estos diseños en


contraposición con los diseños estándar. Sin pretender ser exhaustivos, la siguiente tabla muestra
dicha comparación.

Tabla 13. Algunas recomendaciones de uso para Diseños Óptimos en comparación con Diseños Estándar.
Criterio Diseños Estándar Diseños Óptimos
Cálculo y Puede ser manual o por Deben ser construidos por
construcción computadora computadora
Número de Fijo para el número de factores k Variable a partir de los
puntos de diseño y puntos centrales nc recursos disponibles
Aplicabilidad a Buen desempeño en la mayoría Comúnmente aplicados a
procesos de procesos (maquinaria, experimentos de mezclas
industriales equipo, tiempos falla) y a procesos químicos
Presenta mayor
Varianza de Varía entre diseños y al variar el
uniformidad al cambiar el
Predicción número de puntos centrales
número de corridas

En general, las conclusiones que se pueden establecer con base en los resultados obtenidos
durante el Estudio Comparativo desarrollado en este trabajo son:

• Si bien ambos criterios miden el desempeño de los diseños experimentales separadamente


y bajo distintos enfoques, el arreglo que permaneció como el mejor diseño de superficie
de respuesta fue el Diseño Central Compuesto con 3 puntos centrales y distancia axial de
k considerando como criterio de decisión al Error Cuadrado Medio.
• Esto permite establecer que dicho diseño deberá ser utilizado en aplicaciones de tipo
industrial y en la optimización de procesos cuando se desee analizar 3 ó 4 factores.
75

• El procedimiento Proc OPTEX de SAS® construye Diseños D- y G-Óptimos a partir de


un conjunto de puntos candidatos, aunque no fueron los más eficientes del total de
arreglos analizados con el número de puntos experimentales definidos.
• En este trabajo se desarrolló un nuevo enfoque de análisis cuantitativo para la realización
de comparativas entre diseños experimentales de superficie de respuesta.
• Se incluyó el Estudio Comparativo como parte de una Metodología de Aplicación Integral
de Diseños Experimentales para análisis de procesos de tipo industrial.
• El proceso de selección contempló análisis de regresión múltiple para el ajuste de
superficies, el número de réplicas para obtener estabilidad del modelo y los errores
asociados a la práctica experimental.

5.2. SOBRE LA METODOLOGÍA DE APLICACIÓN PROPUESTA.

Coleman y Montogomery [17] sugirieron una aproximación sistemática para la aplicación de


diseños experimentales a procesos industriales; si bien los autores plantean explícitamente la fase
pre-experimental que conformaría o daría pie a una metodología como tal, dejan de lado la que
consideramos la parte vertebral de una secuencia lógica de aplicación de experimentos: la fase
operativa y la implementación de las mejoras encontradas. Como se mencionó dentro de la
descripción de los pasos de la metodología propuesta en este trabajo, es indispensable contar con
el conocimiento previo suficiente antes de aventurarse a realizar un experimento industrial, de ahí
que sea imperativo, puesto que esto fue uno de los principales motivos de realizar el análisis,
llevar a cabo las modificaciones o adecuaciones operativas que mejor se adapten al proceso
analizado. Con base en esto, se establecen las siguientes conclusiones válidas:

• La Metodología de Aplicación Propuesta contempla la implementación de las mejoras


encontradas durante el análisis del proceso dentro de un intervalo de tiempo razonable. A
diferencia de las aproximaciones sistemáticas existentes, se propone asignar recursos para
lograr una correcta implementación que se traduzca en un mejor desempeño operativo del
proceso.
• Asimismo y como último punto de la metodología, se establece un seguimiento operativo
de las mejoras implementadas en el paso anterior. Esto permite por un lado, corroborar
que los objetivos planteados en un principio correspondan efectivamente con los
resultados arrojados por el experimento realizado y por otro, validar que la
implementación hecha traiga consigo el aumento de la eficiencia del proceso a partir del
claro entendimiento de los distintos factores participantes en el análisis.
• Una de las aportaciones más importantes de la metodología propuesta, es la inclusión de
un estudio comparativo de diseños experimentales que permite establecer diferencias
cuantitativas entre los diseños de superficie de respuesta más utilizados en la industria.
Este punto puede ser decisivo en la selección de un diseño de superficie de respuesta y
puede guiar al experimentador/equipo de trabajo a través de un análisis más formal en
dicha tarea.
76

• La inclusión del empleo de herramientas computacionales que no han sido debidamente


empleadas en experimentación industrial es otro elemento de interés planteado en la
metodología, ya que se podrá hacer uso de ellos durante la fase de selección que, junto
con el estudio comparativo, proveerán de información suficiente al experimentador para
completar dicha fase.
• La correcta aplicación de la metodología planteada conducirá y guiará al experimentador
desde la concepción misma del problema que necesita ser analizado, hasta la
implementación de las mejoras y/o modificaciones adecuadas al proceso bajo estudio, de
ahí que la metodología posea un enfoque integral para aplicación de diseños
experimentales en procesos industriales.

5.3. INVESTIGACIÓN FUTURA.

Mucho se ha considerado en la realización del estudio comparativo presentado y de la


metodología de aplicación propuesta, sin embargo vale la pena mencionar algunos puntos que si
bien se trataron de utilizar de manera práctica en el desarrollo de este trabajo, han quedado
abiertos para investigaciones futuras que conduzcan a un mejoramiento y perfeccionamiento de
los resultados aquí presentados.

Asimismo, es importante considerar también lo establecido por Myers [28] sobre las direcciones
presentes y futuras de la técnica estadística para análisis y mejoramiento de procesos considerada
en este trabajo: la Metodología de Superficie de Respuesta (MSR). Citando al autor, se puede
considerar que “los cambios que han acontecido reflejan el hecho de que el experimentador es
más optimista y ambicioso (que antes) y que los problemas se han vuelto más sofisticados y
difíciles de resolver”. Esto definitivamente marca la pauta para la continuación de investigación
en el campo de la MSR para satisfacer las necesidades cada vez más crecientes de procesos cada
vez más complejos. Multiplicidad de respuestas de un mismo fenómeno, modelos más
complicados y escenarios imposibles de ajustar a aproximaciones polinomiales son sólo algunos
ejemplos del inmenso horizonte de investigación que se propone en este campo.

Si bien se intentó presentar dos criterios que permitieran decidir la viabilidad y conveniencia de
un diseño respecto a otro a partir del número de factores a ser estudiados considerando la
minimización de puntos experimentales, algunos puntos conceptuales para investigación futura
son presentados a continuación:

• Validación del modelo de simulación utilizado en el presente estudio a un mayor número


de factores (más de 4) y verificar su eficiencia.
• Extensión del estudio comparativo para el análisis de otros diseños experimentales de
segundo orden, así como de diseños para ajustar modelos de mayor orden, con
restricciones, multiplicidad de respuestas, etc.
77

• Generación de modelos de simulación más eficientes que consideren otros elementos de


decisión para comparar diseños; estos podrían contemplar la varianza de predicción, los
intervalos de confianza para los parámetros de regresión del modelo, la mejor respuesta
estimada entre varias considerando varios escenarios, etc.
• Aplicar el estudio comparativo al estudio de procesos con variables cualitativas y verificar
su aplicabilidad y eficacia.
78

6 REFERENCIAS Y BIBLIOGRAFÍA.

[1] ANTONY, J.; CHOU, T.; GHOSH, S. Training for Design of Experiments. Work Study,
2003, Vol. 52, N° 7, p. 341-346.
[2] LAGAULT, M. Design New Business. Canadian Plastics, Vol. 55, N° 6, p. 26.
[3] BOX, G.E.P.; WILSON, K.B. On the Experimental Attainment of Optimum Conditions,
Journal of the Royal Statistical Society, 1951, Vol. 13, p.1-45.
[4] HINES, W.W.; MONTGOMERY, D.C. Probabilidad y Estadística para Ingeniería. CECSA,
3a Ed. 2004.
[5] MONTGOMERY, D.C. Diseño y Análisis de Experimentos. Limusa/Wiley. 2a.Ed. 2004.
[6] ANTONY J. Design of Experiments for Engineers and Scientists. Butterworth-Heinemann,
2003.
[7] BOX, G.E.P.; HUNTER, J.S. Multifactor Experimental Designs for Exploring Response
Surfaces. Annals of Mathematical Statistics, Vol. 28, p. 195-242.
[8] BOX, G.E.P.; BEHNKEN, D.W. Some New Three-Level Design for the Study of
Quantitative Variables. Technometrics, 1960, Vol. 2, p. 455-475.
[9] KIEFER, J. Optimum Experimental Designs. Journal of the Royal Statistical Society, 1959,
Vol. 21, N° 2, p. 272-319.
[10] KIEFER, J.; WOLFOWITZ J. The Equivalence of Two Extremum Problems. Canadian
Journal of Mathematics, 1960, Vol. 12, p. 363-366.
[11] FEDOROV, V.V. Theory of Optimal Experiments. New York Academic Press. 1972.
[12] PUKELSHEIM, F. Optimal Design of Experiments. John Wiley & Sons. 1993.
[13] MYERS, R.H.; MONTGOMERY, D.C. Response Surface Methodology. Process and
Product Optimization using Designed Experiments. John Wiley & Sons. 2a. Ed. 2002.
[14] PLACKETT, R.L.; BURMAN J.P. The Design of Optimum Multifactorial Experiments.
Biometrika, 1946, Vol. 33, N° 4, p. 305-325.
[15] KHURI, A.I.; CORNELL, J.A. Response Surfaces. New York: Marcel Dekker. 1987.
[16] HAMADA, M.; WU, C.F.J. Experiments. Planning, Analysis and Parameter Design
Optimization. John Wiley & Sons. 2000.
[17] COLEMAN, D.E.; MONTGOMERY, D.C. A Systematic Approach to Planning for a
Designed Industrial Experimental. Technometrics, 1993, Vol. 35, N° 1, p. 1-12.
[18] BARTON, R.R. Pre-Experiment Planning for Designed Experiments: Graphical Methods.
Journal of Quality Technology, 1997, Vol. 29. N° 3, p. 307-316.
79

[19] SAS Institute Inc. SAS/QC Software: ADX Menu System for Design of Experiments. Part 3:
The FACTEX Procedure & Part 6: The OPTEX Procedure. Version 6, Cary, NC: SAS Institute
Inc.
[20] LUCAS, J.M. Which Response Surface Design Is Best: A Performance Comparison of
Several Types. Technometrics, 1976, Vol. 18, p. 411-417.
[21] LAW, A.M. Simulation Modeling and Analysis. McGraw Hill. 4th.Ed. 2007.
[22] MARTINEZ, W.L.; MARTINEZ, A.R. Computational Statistics Handbook with MATLAB®.
Chapman & Hall/CRC. 2002.
[23] BOX, G.E.P.; DRAPER, N.R. Empirical Model-Building and Response Surfaces, John
Wiley & Sons. 1987.
[24] HUNTER, J.S.; NAYLOR T.H. Experimental Designs for Computer Simulation
Experiments. Management Science, 1970, Vol. 16, N° 7, p. 422-434.
[25] CHENG, R.C.H.; LAMB J.D. Making Efficient Simulation Experiments Interactively with a
Desktop Simulation Package. The Journal of the Operational Research Society. 2000, Vol. 51,
N° 4, p. 501-507.
[26] ATKINSON, A.C. The Usefulness of Optimum Experimental Designs. Journal of the Royal
Statistical Society, 1996, Vol. 58, N° 1, p. 59-76.
[27] NALIMOV, V.V.; GOLINKA, T.I.; MIKESHINA, N.G. On Practical Use of the Concept of
D-Optimality. Technometrics, 1970, Vol. 12, N° 4, p. 799-812.
[28] MYERS, R. H. Response Surface Methodology. Current Status and Future Directions.
Journal of Quality Technology, 1999, Vol. 31, N° 1, p. 30.
80

ANEXO A. MATRICES DE LOS DISEÑOS


EXPERIMENTALES UTILIZADAS EN EL ESTUDIO
COMPARATIVO.

En este anexo se incluyen las matrices de diseño características a cada arreglo experimental
considerado dentro del Estudio Comparativo realizado y con las cuales se realizaron los cálculos
de desempeño descritos en el capítulo correspondiente. Los diseños experimentales considerados
fueron de dos tipos: los Diseños de Superficie de Respuesta Estándar, generados en el paquete
estadístico Minitab versión 14 y los Diseños Óptimos generados por el procedimiento Proc
OPTEX de SAS®.

A1. DISEÑOS DE SUPERFICIE DE RESPUESTA ESTÁNDAR.

A continuación se presentan las matrices asociadas a cada diseño experimental estándar con
variables codificadas para los casos analizados. El -1 representa el nivel bajo de cada factor, el 0
representa el nivel medio y el 1 el nivel alto, en los casos en que se existan valores extra a éstos,
se refiere a que los factores requieren más de 3 niveles. Cada renglón forma un punto de diseño y
cada columna está asociada a un parámetro de regresión (βij) del modelo completo de superficie
de respuesta para el número de factores definido.
81

A1.1. PARA 3 FACTORES DE ESTUDIO.

En el caso de 3 factores de estudio, el modelo de superficie de respuesta asociado tiene 10


parámetros de regresión.

y = β 0 + β 1 x1 + β 2 x 2 + β 3 x3 + β 11 x12 + β 22 x 22 + β 33 x32 + β 12 x1 x 2 + β 13 x1 x3 + β 23 x 2 x3 + ε

Las matrices de diseño son las siguientes.

A1.1.1. Diseño Box-Behnken con 1 punto central y 13 puntos de diseño.

A1.1.2. Diseño Box-Behnken con 2 puntos centrales y 14 puntos de diseño.


82

A1.1.3. Diseño Box-Behnken con 3 puntos centrales y 15 puntos de diseño.

A1.1.4. Diseño Central Compuesto con Centros en las Caras (α=1) y 15 puntos de diseño.
83

A1.1.5. Diseño Central Compuesto con Centros en las Caras (α=1) y 16 puntos de diseño.

A1.1.6. Diseño Central Compuesto con Centros en las Caras (α=1) y 17 puntos de diseño.
84

A1.1.7. Diseño Central Compuesto con α= 3 y 15 puntos de diseño.

A1.1.8. Diseño Central Compuesto con α= 3 y 16 puntos de diseño.

A1.1.9. Diseño Central Compuesto con α= 3 y 17 puntos de diseño.


85

A1.2. PARA 4 FACTORES DE ESTUDIO.

En el caso de 4 factores de estudio, el modelo de superficie de respuesta asociado tiene 15


parámetros de regresión.

y = β 0 + β1 x1 + β 2 x 2 + β 3 x3 + β 4 x 4 + β11 x12 + β 22 x 22 + β 33 x32 + β 44 x 42


+ β12 x1 x 2 + β13 x1 x3 + β14 x1 x 4 + + β 23 x 2 x3 + β 24 x 2 x 4 + β 34 x3 x 4 + ε

Las matrices de diseño son las siguientes.

A1.2.1. Diseño Box-Behnken con 1 punto central y 25 puntos de diseño.


86

A1.2.2. Diseño Box-Behnken con 2 puntos centrales y 26 puntos de diseño.

A1.2.3. Diseño Box-Behnken con 3 puntos centrales y 27 puntos de diseño.


87

A1.2.4. Diseño Central Compuesto con Centros en las Caras (α=1) y 25 puntos de diseño.

A1.2.5. Diseño Central Compuesto con Centros en las Caras (α=1) y 26 puntos de diseño.
88

A1.2.6. Diseño Central Compuesto con Centros en las Caras (α=1) y 27 puntos de diseño.

A1.2.7. Diseño Central Compuesto con α= 4 y 25 puntos de diseño.


89

A1.2.8. Diseño Central Compuesto con α= 4 y 26 puntos de diseño.

A1.2.9. Diseño Central Compuesto con α= 4 y 27 puntos de diseño.


90

A2. DISEÑOS ÓPTIMOS GENERADOS POR COMPUTADORA.

Estos diseños fueron construidos utilizando el procedimiento Proc OPTEX del paquete
estadístico SAS®, el cual requiere como entrada un conjunto de puntos de diseño llamados
candidatos, con el que construye un Diseño Óptimo con los puntos experimentales definidos por
el usuario. En nuestro caso, se tomó como conjunto candidato al diseño factorial completo para el
número de factores k, construido a través del procedimiento Proc FACTEX. Dada su naturaleza,
los niveles que considera cada factor son -1 para nivel bajo y 1 para el nivel alto.

A2.1. PARA 3 FACTORES DE ESTUDIO.

Las matrices de diseño para 3 factores de estudio son las siguientes.

A2.1.1. Diseño Óptimo con 13 puntos de diseño.


91

A2.1.2. Diseño Óptimo con 14 puntos de diseño.

A2.1.3. Diseño Óptimo con 15 puntos de diseño.


92

A2.1.4. Diseño Óptimo con 16 puntos de diseño.

A2.1.5. Diseño Óptimo con 17 puntos de diseño.


93

A2.2. PARA 4 FACTORES DE ESTUDIO.

Las matrices para el caso de 4 factores se presentan a continuación.

A2.2.1. Diseño Óptimo con 25 puntos de diseño.


94

A2.2.2. Diseño Óptimo con 26 puntos de diseño.

A2.2.3. Diseño Óptimo con 27 puntos de diseño.


95

ANEXO B. ANÁLISIS CUANTITATIVO Y DE CÁLCULO


PARA EL CASO CON 4 FACTORES DE ESTUDIO.

Este segundo anexo considera el caso de estudio con 4 factores y presenta el desarrollo matricial
que se tuvo para conducir la simulación que llevó a los resultados mostrados en el capítulo
correspondiente al Estudio Comparativo. Asimismo, se incluye el análisis de estabilidad asociado
a los diseños experimentales de prueba utilizados para ello.

B1. DESARROLLO MATRICIAL.

Para mostrar el cálculo que se realizó es necesario partir del modelo de regresión para el caso de
4 factores, como a continuación se detalla.

1.- El experimento considerado para mostrar la utilización del modelo de simulación para 4
factores fue adaptado de Myers y Montgomery [13, p.258-261] en el que presentan un proceso
químico que convierte 1,2-propanediol a 2,5-dimetilpiperazina y en el cual se determinan las
condiciones de proceso óptimas, es decir, condiciones para lograr una máxima conversión. Los
factores de interés resultaron ser:

• x1: Cantidad de NH3.


• x2: Temperatura.
• x3: Cantidad de H2O.
• x4: Presión de Hidrógeno.

Una vez realizado el análisis de regresión para los factores involucrados, el modelo de segundo
orden para ajustar la superficie de respuesta que permite determinar las condiciones de proceso
óptimas resultó ser el siguiente:
96

yˆ = 40.198 − 1.511x1 + 1.284 x 2 − 8.739 x3 + 4.955 x 4


− 6.332 x12 − 4.292 x 22 + 0.0196 x32 − 2.506 x 42 + 2.194 x1 x 2
− 0.144 x1 x3 + 1.581x1 x 4 + 8.006 x 2 x3 + 2.806 x 2 x 4 + 0.294 x3 x 4

Partiendo de los parámetros de regresión del modelo, se pueden obtener las derivadas parciales de
la expresión anterior y construir el sistema de ecuaciones que permitirá conocer el punto óptimo
de la variable de respuesta y:

∂yˆ
= −1.511 − 12.664 x1 + 2.194 x 2 − 0.144 x3 + 1.581x 4
∂x1
∂yˆ
= 1.284 − 8.584 x 2 + 2.194 x1 + 8.006 x3 + 2.806 x 4
∂x 2
∂yˆ
= −8.739 + 0.0392 x3 − 0.144 x1 + 8.006 x 2 + 0.294 x 4
∂x3
∂yˆ
= −4.955 − 5.012 x 4 + 1.581x1 + 2.806 x 2 + 0.294 x3
∂x 4

2.- Se reordenan los términos y se iguala a cero cada ecuación:

− 12.664 x1 + 2.194 x 2 − 0.144 x3 + 1.581x 4 − 1.511 = 0


2.194 x1 − 8.584 x 2 + 8.006 x3 + 2.806 x 4 + 1.284 = 0
− 0.144 x1 + 8.006 x 2 + 0.0392 x3 + 0.294 x 4 − 8.739 = 0
1.581x1 + 2.806 x 2 + 0.294 x3 − 5.012 x 4 − 4.955 = 0

3.- El sistema de ecuaciones anterior puede ser expresado matricialmente para su solución como
sigue:

−1
⎡ ⎤ ⎡− 12.664 2.194 − 0.144 1.581⎤ ⎡ ⎤
⎢ x1 ⎥ ⎢ ⎥ ⎢ 1.511 ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ x2 ⎥ ⎢2.194 − 8.584 8.006 2.806 ⎥ ⎢ − 1.284 ⎥
⎢ ⎥=⎢ ⎥ ⎢ ⎥
⎢ x3 ⎥ ⎢− 0.144 8.006 0.0392 0.294 ⎥ ⎢ 8.739 ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ x4 ⎥ ⎢1.581 2.806 0.294 − 5.012 ⎥ ⎢ − 4.955 ⎥⎦
⎣ ⎦ ⎣ ⎦ ⎣

Lo que conduce a la solución siguiente:


97

⎡ ⎤ ⎡ ⎤
⎢ x1 ⎥ ⎢ 0.2647 ⎥
⎢ ⎥ ⎢ ⎥
⎢ x2 ⎥ ⎢ 1.0336 ⎥
⎢ ⎥=⎢ ⎥
⎢ x3 ⎥ ⎢ 0.2908 ⎥
⎢ ⎥ ⎢ ⎥

⎣ x 4 ⎥⎦ ⎢⎣ 1.6679 ⎥⎦

Así pues, se evalúa la ecuación de regresión del modelo y se obtiene el punto óptimo para obtener
una máxima conversión de las sustancias:

y* = 46.3146

Este valor es considerado como el punto óptimo contra el cual se realiza la comparativa de
diseños experimentales bajo estudio. Ahora, se procede a describir el cálculo matricial que se
implementó en el modelo de simulación.

a) Se toma el vector de parámetros βr* del modelo de regresión que proporciona el óptimo
real conocido.
⎡40.198 ⎤
⎢− 1.511 ⎥
⎢ ⎥
⎢1.284 ⎥
⎢ ⎥
⎢− 8.739 ⎥
⎢4.955 ⎥
⎢ ⎥
⎢− 6.332 ⎥
⎢− 4.292⎥
⎢ ⎥
β r * = ⎢0.0196 ⎥
⎢− 2.506⎥
⎢ ⎥
⎢2.194 ⎥
⎢ ⎥
⎢− 0.144 ⎥
⎢1.581 ⎥
⎢ ⎥
⎢8.006 ⎥
⎢2.806 ⎥
⎢ ⎥
⎢⎣0.294 ⎥⎦

b) Con este vector de parámetros óptimos y la matriz X asociada al diseño experimental que
se desea probar, se aplican las expresiones matemáticas que generan el vector de
respuestas estimadas que considera al error estándar en cada punto de diseño y al error
experimental aleatorio ε con media cero y varianza 1. Tomemos el Diseño Box-Behnken
con 1 punto central y 25 puntos experimentales para mostrar el cálculo.
98
⎡1 0 -1 0 -1 0 1 0 1 0 0 0 0 1 0⎤
⎢1 -1 0 0 1 1 0 0 1 0 0 -1 0 0 0 ⎥⎥
⎢ ⎡40.198 ⎤
⎢1 1 0 -1 0 1 0 1 0 0 -1 0 0 0 0⎥
⎢ ⎥ ⎢− 1.511 ⎥
⎢1 0 -1 -1 0 0 1 1 0 0 0 0 1 0 0⎥ ⎢ ⎥
⎢1 0 -1 0 1 0 1 0 1 0 0 0 0 -1 0⎥ ⎢1.284 ⎥
⎢ ⎥ ⎢ ⎥
⎢1 0 1 1 0 0 1 1 0 0 0 0 1 0 0 ⎥
⎢1 0 1 -1 0 0 1 1 0 0 0 0 -1 0 0⎥
⎢− 8.739 ⎥
⎢ ⎥ ⎢4.955 ⎥
⎢1 0 1 0 -1 0 1 0 1 0 0 0 0 -1 0⎥ ⎢ ⎥
⎢1

-1 1 0 0 1 1 0 0 -1 0 0 0 0 0⎥
⎥ ⎢− 6.332 ⎥
⎢1 0 0 -1 -1 0 0 1 1 0 0 0 0 0 1⎥ ⎢− 4.292 ⎥
⎢ ⎥ ⎢ ⎥
⎢1 0 0 -1 1 0 0 1 1 0 0 0 0 0 -1 ⎥
β r * = ⎢0.0196 ⎥
⎢1 1 1 0 0 1 1 0 0 1 0 0 0 0 0 ⎥
⎢ ⎥ ⎢− 2.506 ⎥
X DBB = ⎢1 1 0 0 1 1 0 0 1 0 0 1 0 0 0 ⎥ ⎢ ⎥
⎢1 -1 -1 0 0 1 1 0 0 1 0 0 0 0 0⎥ ⎢2.194 ⎥
⎢ ⎥ ⎢ ⎥
⎢− 0.144 ⎥
⎢1 -1 0 -1 0 1 0 1 0 0 1 0 0 0 0⎥
⎢1 1 0 1 0 1 0 1 0 0 1 0 0 0 0 ⎥
⎢ ⎥ ⎢1.581 ⎥
⎢1 1 -1 0 0 1 1 0 0 -1 0 0 0 0 0⎥ ⎢ ⎥
⎢ ⎥ ⎢8.006 ⎥
⎢1 -1 0 1 0 1 0 1 0 0 -1 0 0 0 0⎥
⎢1 -1 0 0 -1 1 0 0 1 0 0 1 0 0 0⎥ ⎢2.806 ⎥
⎢ ⎥ ⎢ ⎥
⎢1 0 0 1 1 0 0 1 1 0 0 0 0 0 1 ⎥
⎢⎣0.294 ⎥⎦
⎢1 0 0 0 0 0 0 0 0 0 0 0 0 0 0⎥
⎢ ⎥
⎢1 0 0 1 -1 0 0 1 1 0 0 0 0 0 -1 ⎥
⎢1 1 0 0 -1 1 0 0 1 0 0 -1 0 0 0⎥
⎢ ⎥
⎢1 0 1 0 1 0 1 0 1 0 0 0 0 1 0 ⎥
⎢1 0 -1 1 0 0 1 1 0 0 0 0 -1 0 0 ⎥⎦

⎡ 29.9670 ⎤ ⎡0.5833 ⎤ ⎡1.9969 ⎤ ⎡30.4069 ⎤



⎢ 36.2450 ⎥⎥ ⎢0.5833 ⎥
⎢ ⎥
⎢0.6970 ⎥
⎢ ⎥
⎢36.3985 ⎥
⎢ ⎥
⎢ 41.2576 ⎥ ⎢0.5833 ⎥ ⎢- 1.3664 ⎥ ⎢40.9566 ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ 51.3866 ⎥ ⎢0.5833 ⎥ ⎢ 0.3630 ⎥ ⎢51.4666 ⎥
⎢ 34.2650 ⎥ ⎢0.5833 ⎥ ⎢- 0.5670 ⎥ ⎢34.1401 ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ 36.4766 ⎥ ⎢0.5833 ⎥ ⎢- 1.0442 ⎥ ⎢36.2466 ⎥
⎢ 37.9426 ⎥ ⎢0.5833 ⎥ ⎢ 0.6971 ⎥ ⎢38.0962 ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ 26.9230 ⎥ ⎢0.5833 ⎥ ⎢ 0.4840 ⎥ ⎢27.0296 ⎥
⎢ 30.1750 ⎥ ⎢0.5833 ⎥ ⎢- 0.1938 ⎥ ⎢30.1323 ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ 41.7896 ⎥ ⎢0.5833 ⎥ ⎢- 0.3781 ⎥ ⎢41.7063 ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ 51.1116 ⎥ ⎢0.5833 ⎥ ⎢- 0.8864 ⎥ ⎢50.9163 ⎥
⎢ 31.5410 ⎥ ⎢0.5833 ⎥ ⎢- 1.8402 ⎥ ⎢31.1356 ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
X DBB β r * = ⎢ 36.3850 ⎥ diag [ X DBB ( X DBB ' X DBB ) −1 X DBB ' ] = ⎢0.5833 ⎥ ε = ⎢- 1.6282 ⎥ ŷ = ⎢36.0263 ⎥
⎢ 31.9950 ⎥ ⎢0.5833 ⎥ ⎢- 1.1738 ⎥ ⎢31.7364 ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ 43.9916 ⎥ ⎢0.5833 ⎥ ⎢- 0.4154 ⎥ ⎢43.9001 ⎥
⎢ 23.4916 ⎥ ⎢0.5833 ⎥ ⎢ 0.1751 ⎥ ⎢23.5302 ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ 24.5850 ⎥ ⎢0.5833 ⎥ ⎢ 0.2294 ⎥ ⎢24.6355 ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ 26.8016 ⎥ ⎢0.5833 ⎥ ⎢- 1.2409 ⎥ ⎢26.5282 ⎥
⎢ 29.4970 ⎥ ⎢0.5833 ⎥ ⎢ 0.7000 ⎥ ⎢29.6512 ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ 34.2216 ⎥ ⎢0.5833 ⎥ ⎢ 0.4269 ⎥ ⎢34.3156 ⎥
⎢ 40.1980 ⎥ ⎢1.0000 ⎥ ⎢ 1.4548 ⎥ ⎢40.6176 ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ 23.7236 ⎥ ⎢0.5833 ⎥ ⎢- 0.5102 ⎥ ⎢23.6112 ⎥
⎢ 23.3130 ⎥ ⎢0.5833 ⎥ ⎢- 0.0067 ⎥ ⎢23.3115 ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ 42.4450 ⎥ ⎢0.5833 ⎥ ⎢- 0.5255 ⎥ ⎢42.3292 ⎥
⎢ 17.8966 ⎥⎦ ⎢0.5833 ⎥ ⎢ 0.7177 ⎥ ⎢18.0547 ⎥
⎣ ⎣ ⎦ ⎣ ⎦ ⎣ ⎦
99

c) Posteriormente, se realiza un nuevo análisis de regresión para encontrar un nuevo vector


β̂ * .
βˆ* = ( X DBB ' X DBB ) −1 ( X DBB ' yˆ )

⎡ 1.0000 0 0 0 0 - 0.5000 - 0.5000 - 0.5000 - 0.5000 0 0 0 0 0 0⎤



⎢ 0 0.0833 0 0 0 0 0 0 0 0 0 0 0 0 0 ⎥⎥
⎢ 0 0 0.0833 0 0 0 0 0 0 0 0 0 0 0 0 ⎥
⎢ ⎥
⎢ 0 0 0 0.0833 0 0 0 0 0 0 0 0 0 0 0 ⎥
⎢ 0 0 0 0 0.0833 0 0 0 0 0 0 0 0 0 0 ⎥
⎢ ⎥
⎢- 0.5000 0 0 0 0 0.3542 0.2292 0.2292 0.2292 0 0 0 0 0 0⎥
⎢- 0.5000 0 0 0 0 0.2292 0.3542 0.2292 0.2292 0 0 0 0 0 0⎥
⎢ ⎥
( X DBB ' X DBB ) −1 = ⎢- 0.5000 0 0 0 0 0.2292 0.2292 0.3542 0.2292 0 0 0 0 0 0⎥
⎢- 0.5000 0 0 0 0 0.2292 0.2292 0.2292 0.3542 0 0 0 0 0 0⎥
⎢ ⎥
⎢ 0 0 0 0 0 0 0 0 0 0.2500 0 0 0 0 0 ⎥
⎢ ⎥
⎢ 0 0 0 0 0 0 0 0 0 0 0.2500 0 0 0 0 ⎥
⎢ 0 0 0 0 0 0 0 0 0 0 0 0.2500 0 0 0 ⎥
⎢ ⎥
⎢ 0 0 0 0 0 0 0 0 0 0 0 0 0.2500 0 0 ⎥
⎢ 0 0 0 0 0 0 0 0 0 0 0 0 0 0.2500 0 ⎥
⎢ ⎥
⎣⎢ 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0.2500 ⎦⎥

⎡846.8796 ⎤
⎢- 18.7511 ⎥
⎢ ⎥
⎢ 14.5293 ⎥
⎢ ⎥
⎢- 104.755 ⎥
⎢ 58.4093 ⎥
⎢ ⎥
⎢377.9425 ⎥
⎢395.4098 ⎥
⎢ ⎥
( X DBB ' yˆ ) = ⎢429.3286⎥
⎢409.8430⎥
⎢ ⎥
⎢ 8.1041 ⎥
⎢ ⎥
⎢- 0.0546 ⎥
⎢ 5.9674 ⎥
⎢ ⎥
⎢ 31.5623 ⎥
⎢ 11.5665 ⎥
⎢ ⎥
⎢⎣ 1.4944 ⎥⎦

Del análisis de regresión se obtienen los siguientes parámetros:


100

⎡40.6176 ⎤
⎢- 1.5626 ⎥
⎢ ⎥
⎢ 1.2108 ⎥
⎢ ⎥
⎢- 8.7296 ⎥
⎢ 4.8674 ⎥
⎢ ⎥
⎢- 6.6602 ⎥
⎢- 4.4768⎥
⎢ ⎥
β̂ * = ⎢- 0.2370 ⎥
⎢- 2.6727⎥
⎢ ⎥
⎢ 2.0260 ⎥
⎢ ⎥
⎢- 0.0136 ⎥
⎢ 1.4919 ⎥
⎢ ⎥
⎢ 7.8906 ⎥
⎢ 2.8916 ⎥
⎢ ⎥
⎣⎢ 0.3736 ⎦⎥

d) Una vez obtenido el vector de parámetros asociado al diseño que se desea probar, se
calculan los valores de x1, x2, x3 y x4 que determinan el valor óptimo para esta primera
iteración.

⎡ ⎤
⎢ x1 ⎥ −1
⎡- 13.3204 2.0260 - 0.0136 1.4919 ⎤ ⎡1.5626 ⎤
⎢ ⎥ ⎢
⎢ x2 ⎥
⎢2.0260 - 8.9536 7.8906 2.8916 ⎥⎥ ⎢− 1.2108 ⎥
⎢ ⎥
⎢ =
⎥ ⎢- 0.0136 7.8906 - 0.474 0.3736 ⎥ ⎢8.7296 ⎥
⎢ x3 ⎥ ⎢ ⎥ ⎢ ⎥
⎢ ⎥ ⎣1.4919 2.8916 0.3736 - 5.3454 ⎦ ⎣− 4.8674⎦
⎢ x 4 ⎥⎦

⎡ ⎤
⎢ x1 ⎥
⎡0.2248⎤
⎢ ⎥ ⎢
⎢ x 2 ⎥ 1.0565 ⎥
⎢ ⎥
⎢ ⎥ = ⎢0.3961⎥
⎢ x3 ⎥ ⎢ ⎥
⎢ ⎥ ⎣1.5889 ⎦
⎢ x3 ⎥⎦

e) Estos valores de xi se sustituyen en la ecuación del modelo de regresión original para


obtener el valor óptimo y) * generado por el diseño. Para el caso ejemplificado, el valor
óptimo del diseño en la primera iteración es:

yˆ1 * = 47.9895
101

f) Esta operación se realiza para el número de réplicas n calculado para obtener el error
máximo permisible y generar un vector (nx1) para cada diseño. Asimismo, se consideró el
criterio de estabilidad para la media del modelo de simulación propuesto. Para el cálculo
de n se tomó la muestra de simulaciones mínima para estabilizar el modelo, con ella se
determinó la varianza con la cual se calculó el número de réplicas a ensayar. A
continuación se presenta el número de réplicas necesarias para obtener un error máximo
permisible de 0.0832 y estabilizar el modelo para cada diseño experimental para el caso
de 4 factores de estudio.

Para presentar el número de simulaciones para obtener el error máximo permisible


definido y lograr asimismo la estabilidad en el modelo, se reproduce la tabla número 8,
originalmente mostrada en el capítulo 4.
Tabla 8. Número de Réplicas necesarias para obtener estabilidad en el modelo de simulación
y un error máximo permisible de 0.0832 para 4 factores de estudio.
Número de Error
Diseño Varianza Simulaciones p/ Cuadrado
precisión y estabilidad Medio
DBB nc=1 (25r) 0.3242 700 0.6784
DBB nc=2 (26r) 0.3829 200 0.3383
DBB nc=3 (27r) 0.3435 500 0.4001
DCC nc=1 FC (25r) 0.6991 600 0.5565
DCC nc=2 FC (26r) 0.5650 600 0.5270
DCC nc=3 FC (27r) 0.5597 300 0.5134
DCC nc=1 A4 (25r) 0.0678 400 0.0958
DCC nc=2 A4 (26r) 0.1025 200 0.0884
DCC nc=3 A4 (27r) 0.1380 300 0.0816

Una vez realizada la simulación, se genera el vector de respuestas estimadas y) * que


permite determinar el desempeño que presentó el diseño analizado para el número de
réplicas definida.

Con la obtención de este vector de respuestas estimadas para cada diseño experimental de prueba,
se determinan las estadísticas de decisión que permiten conocer el grado de aproximación que
posee dicho diseño a una superficie óptima conocida.

Los resultados finales del caso con 4 factores (tabla de resultados de simulación y gráfica de
errores cuadrados) podrán ser consultados directamente en el capítulo 4 del documento.

B2. ANÁLISIS DE ESTABILIDAD PARA EL MODELO DE SIMULACIÓN


CON 4 FACTORES.

En este último apartado se presentan las gráficas asociadas al análisis de estabilidad que presenta
el modelo de simulación para los diseños experimentales de prueba. Debido a que cada arreglo
presenta distinta región de estabilidad, se muestra la gráfica correspondiente a cada uno de ellos.
Figs. B2.1-B2.9. Gráficas de Estabilidad para el Modelo de Simulación propuesto con 4 factores de estudio.
Gráfica de Estabilidad del Modelo Gráfica de Estabilidad del Modelo Gráfica de Estabilidad del Modelo
para un DCC nc=1 para un DBB nc=2 para un DBB nc=3
46.8 48.5 46.8
Media Estimada

Media Estimada
Media Estimada
46.6 48.0 46.6
46.43
46.33
46.4 47.5 46.4
46.2 47.0 46.2
46.0 46.5 46.32 46
45.8 46.0 45.8
0 200 400 600 800 1000 0 200 400 600 800 1000 0 200 400 600 800 1000
Número de Réplicas Número de Réplicas Número de Réplicas

Gráfica de Estabilidad del Modelo Gráfica de Estabilidad del Modelo Gráfica de Estabilidad del Modelo
para un DCC nc=1 FC para un DCC nc=2 FC para un DCC nc=3 FC
47.1 46.7 46.6

Media Estimada
47.0
Media Estimada

Media Estimada
46.34
46.9 46.6 46.4
46.8 46.2
46.7 46.5
46.6 46.36 46.0
46.4
46.5
46.38
45.8
46.4 46.3 45.6
46.3
46.2 46.2 45.4
0 200 400 600 800 1000 0 200 400 600 800 1000 0 200 400 600 800 1000
Número de Réplicas Número de Réplicas Número de Réplicas

Gráfica de Estabilidad del Modelo Gráfica de Estabilidad del Modelo Gráfica de Estabilidad del Modelo
para un DCC nc=1 A3 para un DCC nc=2 A3 para un DCC nc=3 A3
46.5 46.4 46.5
Media Estimada

Media Estimada

46.34

Media Estimada
46.4 46.3 46.4
46.33 46.32
46.3 46.2 46.3
46.2 46.1
46.2
46.1 46.0
46 45.9 46.1
45.9 45.8 46.0
45.8 45.7 45.9
0 200 400 600 800 1000 0 200 400 600 800 1000 0 200 400 600 800 1000
Número de Réplicas Número de Réplicas Número de Réplicas
ANEXO C. CÓDIGOS DE LOS PROGRAMAS
UTILIZADOS PARA GENERAR EL MODELO DE
SIMULACIÓN PROPUESTO Y PARA LA
CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS EN SAS®.

Los códigos computacionales utilizados en este trabajo formaron una parte jerárquica muy
importante para lograr los resultados obtenidos y llegar a la construcción de conclusiones
presentadas para los casos de análisis considerados. Es por ello que deben ser presentados para
su total entendimiento y uniformizar los distintos criterios que pueden existir para programar
sentencias iterativas con estructuras matriciales.

Dichos programas fueron de dos tipos: el primero de ellos y tal vez el más complicado, fue el
código para generar el Modelo de Simulación propuesto para 3 y 4 factores de estudio en
lenguaje Matlab®. El segundo tipo de código fue de naturaleza muy distinta, sin embargo de
igual importancia, ya que permitió la construcción de los Diseños Óptimos para el número de
puntos de diseño definidos y que servirían de base para llevar a cabo el Estudio Comparativo
descrito en el capítulo 3.

C1. CÓDIGO UTILIZADO PARA EL MODELO DE SIMULACIÓN


PROPUESTO.

El lenguaje de programación empleado para este propósito fue Matlab®, el cual cuenta con el
Statistics Toolbox, que permitió determinar algunos elementos de interés para los vectores de
respuestas estimadas generadas dentro del modelo.
104

C1.1. PROGRAMA PARA EL CASO DE 3 FACTORES DE ESTUDIO.

El código utilizado fue el siguiente.

%Este programa ejecuta un modelo de simulación para probar diseños


experimentales para ajustar una superficie de respuesta real conocida

x=input('Matriz de Diseño de Prueba: ');


n=input('Numero de Simulaciones: ');
p=input('Puntos de Diseño: ');

%Se encuentra el punto óptimo real del modelo de regresión contra el


cual se realiza la comparativa

betaopt=[550.7;660;-535.9;-310.8;238.7;275.7;-48.3;-456.5;-235.7;143];
xinv=inv([2*betaopt(5) betaopt(8) betaopt(9)
betaopt(8) 2*betaopt(6) betaopt(10)
betaopt(9) betaopt(10) 2*betaopt(7)]);
xopt=xinv*[-betaopt(2)
-betaopt(3)
-betaopt(4)];
yopr=betaopt(1)+betaopt(2)*xopt(1)+betaopt(3)*xopt(2)+…
betaopt(4)*xopt(3)+betaopt(5)*xopt(1).^2+betaopt(6)*xopt(2).^2+…
betaopt(7)*xopt(3).^2+betaopt(8)*xopt(1)*xopt(2)+…
betaopt(9)*xopt(1)*xopt(3)+betaopt(10)*xopt(2)*xopt(3);

%Se encuentra la matriz de respuestas óptimas asociada al diseño a


evaluar

yf=x*betaopt;
diagx=(diag(x*inv(x'*x)*x'));

%Se comienza con la simulación de respuestas óptimas estimadas,


%considerando la generación de los vectores de tamaño p x 10 a partir
%del numero de puntos de diseño definido

for i=1:n
eps=normrnd(0,1,p,1);
for j=1:p
yest(j,1)=yf(j)+(sqrt(0.0739))*sqrt(diagx(j))*eps(j);
end

%Se resuelve el sistema de ecuaciones para encontrar los valores de x


%que proporcionan el óptimo asociado al diseño a analizar y se evalúa
%en la expresión del modelo completo de regresión para el numero de
%factores considerado

betan=(inv(x'*x)*(x'*yest));
xoptinv=inv([2*betan(5) betan(8) betan(9)
betan(8) 2*betan(6) betan(10)
105

betan(9) betan(10) 2*betan(7)]);


xoptest=xoptinv*[-betan(2)
-betan(3)
-betan(4)];

yopest(i,1)=betan(1)+betan(2)*xoptest(1)+betan(3)*xoptest(2)+…
betan(4)*xoptest(3)+betan(5)*xoptest(1).^2+betan(6)*xoptest(2).^2
+betan(7)*xoptest(3).^2+betan(8)*xoptest(1)*xoptest(2)+…
betan(9)*xoptest(1)*xoptest(3)+betan(10)*xoptest(2)*xoptest(3);

end

%Se encuentran las estadísticas de decisión definidas para la


%selección de aquel diseño que mejor ajuste una superficie de
%respuesta óptima conocida

l=(mean(yopest)-yopr).^2;
MSE=var(yopest,1)+l;

disp ('El Vector de Respuestas Estimadas es: ')


disp (yopest);
disp ('La Media del Vector es: ')
disp (mean(yopest));
disp ('La Varianza del Vector es: ')
disp (var(yopest));
disp ('El Error Cuadrado Medio del Vector es: ')
disp (MSE);

clear yest
clear yopest

C1.2. PROGRAMA PARA EL CASO DE 4 FACTORES DE ESTUDIO.

El código utilizado fue el siguiente.

%Este programa ejecuta un modelo de simulación para probar diseños


%experimentales para ajustar una superficie de respuesta real conocida

x=input('Matriz de Diseño de Prueba: ');


n=input('Numero de Simulaciones: ');
p=input('Puntos de Diseño: ');

%Se encuentra el punto óptimo real del modelo de regresión contra el


%cual se realiza la comparativa

%Vector de parámetros óptimos para el modelo con 4 factores de estudio


106

betaopt=[40.198;-1.511;1.284;-8.739;4.955;-6.332;-4.292;0.0196;-
2.506;2.194;-0.144;1.581;8.006;2.806;0.294];

xinv=inv([2*betaopt(6) betaopt(10) betaopt(11) betaopt(12)


betaopt(10) 2*betaopt(7) betaopt(13) betaopt(14)
betaopt(11) betaopt(13) 2*betaopt(8) betaopt(15)
betaopt(12) betaopt(14) betaopt(15) 2*betaopt(9)]);
xopt=xinv*[-betaopt(2)
-betaopt(3)
-betaopt(4)
-betaopt(5)];
yopr=betaopt(1)+betaopt(2)*xopt(1)+betaopt(3)*xopt(2)+…
betaopt(4)*xopt(3)+betaopt(5)*xopt(4)+ betaopt(6)*xopt(1).^2+…
betaopt(7)*xopt(2).^2+betaopt(8)*xopt(3).^2+betaopt(9)*xopt(4)+…
betaopt(10)*xopt(1)*xopt(2)+betaopt(11)*xopt(1)*xopt(3)+…
betaopt(12)*xopt(1)*xopt(4)+betaopt(13)*xopt(2)*xopt(3)+…
betaopt(14)*xopt(2)*xopt(4)+betaopt(15)*xopt(3)*xopt(4);

%Se encuentra la matriz de respuestas optimas asociada al diseño a


%evaluar

yf=x*betaopt;
diagx=(diag(x*inv(x'*x)*x'));

%Se comienza con la simulación de respuestas óptimas estimadas,


%considerando la generación de los vectores de tamaño p x 10 a partir
%del numero de puntos de diseño definido

for i=1:n
eps=normrnd(0,1,p,1);
for j=1:p
yest(j,1)=yf(j)+(sqrt(0.0832))*sqrt(diagx(j))*eps(j);
end

%Se resuelve el sistema de ecuaciones para encontrar los valores de x


%que proporcionan el óptimo asociado al diseño a analizar y se evalúa
%en la expresión del modelo completo de regresión para el numero de
%factores considerado

betan=(inv(x'*x)*(x'*yest));
xoptinv=inv([2*betan(6) betan(10) betan(11) betan(12)
betan(10) 2*betan(7) betan(13) betan(14)
betan(11) betan(13) 2*betan(8) betan(15)
betan(12) betan(14) betan(15) 2*betan(9)]);
xoptest=xoptinv*[-betaopt(2)
-betaopt(3)
-betaopt(4)
-betaopt(5)];

yopest(i,1)=betan(1)+betan(2)*xoptest(1)+betan(3)*xoptest(2)+…
betan(4)*xoptest(3)+betan(5)*xoptest(4)+...
betan(6)*xoptest(1).^2+betan(7)*xoptest(2).^2+....
107

betan(8)*xoptest(3).^2+betan(9)*xoptest(4)+...
betan(10)*xoptest(1)*xoptest(2)+....
betan(11)*xoptest(1)*xoptest(3)+...
betan(12)*xoptest(1)*xoptest(4)+....
betan(13)*xoptest(2)*xoptest(3)+...
betan(14)*xoptest(2)*xoptest(4)+...
betan(15)*xoptest(3)*xoptest(4);

end

%Se encuentran las estadísticas de decisión definidas para la


%selección de aquel diseño que mejor ajuste una superficie de
%respuesta óptima conocida

l=(mean(yopest)-yopr).^2;
MSE=var(yopest,1)+l;

disp ('El Vector de Respuestas Estimadas es: ')


disp (yopest);
disp ('La Media del Vector es: ')
disp (mean(yopest));
disp ('La Varianza del Vector es: ')
disp (var(yopest));
disp ('El Error Cuadrado Medio del Vector es: ')
disp (MSE);

clear yest
clear yopest

C2. CÓDIGO UTILIZADO PARA CONSTRUIR LOS DISEÑOS ÓPTIMOS.

La construcción de los Diseños Óptimos se realizó en lenguaje SAS® mediante el uso de los
procedimientos Proc FACTEX y Proc OPTEX. Se establecieron como puntos candidatos los
contenidos en el diseño factorial completo para el número de factores de interés y con los puntos
de diseño establecidos por el usuario.
108

C2.1. PROGRAMA PARA CONSTRUIR UN DISEÑO ÓPTIMO

%Se inicia generando los puntos candidatos en un diseño factorial


%completo con 3 factores

proc factex;
factors A B C D/nlev=3;
output out=dis2;

%Con el factorial completo, se construye un Diseño Optimo para el


%número de puntos de diseño definido por el usuario

proc optex data=dis2;


model A|B|C|D@2;

%Aquí es donde se definen los puntos de diseño que se desean en el


%diseño óptimo final

generate n=13;
output out=dis2s;

%Se imprime el diseño óptimo generado

proc print data=dis2s;


run;

C2.2. EJEMPLO DE SALIDA SAS® PARA UN DISEÑO ÓPTIMO.

A continuación se presenta la pantalla de salida de SAS® en la que se muestra el Diseño Óptimo


generado a partir de un Diseño Factorial Completo. El ejemplo mostrado contiene 17 puntos de
diseño.

También podría gustarte