Está en la página 1de 45

CAPITULO IV

DISEÑOS EXPERIMENTALES DE OPTIMIZACION

4.1 Introducción

La región óptima de un proceso generalmente se determina después de una


secuencia de experimentos realizados y una serie de modelos empíricos obtenidos.
En muchas aplicaciones de ciencia e ingeniería, se conducen experimentos y se
desarrollan modelos empíricos con el propósito de mejorar la respuesta de interés.
Desde el punto de vista matemático, el objetivo es encontrar las condiciones de
operación (niveles de los factores) X1, X2, ..., Xk que maximizan o minimizan las r
variables respuesta del sistema Y1, Y2, ..., Yr. En la optimización experimental, se
aplican técnicas diferentes de optimización para las ecuaciones respuesta ajustadas
Y1, Y2,... Yr.

En la optimización experimental, diferentes técnicas de optimización se


aplican a las ecuaciones respuesta ajustadas. Luego de que las ecuaciones ajustadas
se aproximan adecuadamente a la verdadera (desconocida) respuesta del sistema,
las condiciones óptimas de operación del modelo se “aproximarán” a las condiciones
de operación del verdadero proceso.

La optimización experimental mediante modelos de superficie respuesta


difieren de las técnicas clásicas de optimización al menos de tres maneras:

1. La optimización experimental es un proceso iterativo; es decir, los


experimentos conducidos en un primer conjunto de pruebas ajustados a un
modelo indican donde buscar para mejorar las condiciones de operación en el
próximo conjunto de experimentos. De este modo, los coeficientes en las
ecuaciones ajustadas (o la forma de las ecuaciones ajustadas) pueden
cambiar durante el proceso de optimización. Esto es todo lo contrario a la
optimización clásica en la cual la función a optimizar se supone que es fija y no
cambia.

81
2. Los modelos de respuesta son ajustados de datos experimentales que
usualmente contienen variabilidad aleatoria debido a causas incontrolables o
desconocidas. Esto implica que un experimento, si se repite, generará un
modelo de superficie respuesta diferente lo que podría dar diferentes
condiciones óptimas de operación. Por lo tanto, debería considerarse la
variabilidad del muestreo en la optimización experimental. En contraste, en las
técnicas de optimización clásica las funciones son determinísticas y dadas.
3. Las respuestas ajustadas son aproximaciones locales, implicando que el
proceso de optimización requiere la presencia del experimentador (una
persona familiarizada con el proceso). Esto en contraste con la optimización
clásica donde todo está automatizado a través de un algoritmo computacional.

La metodología de superficies de respuesta, MSR, (ó RSM, Response Surface


Methodology), es un conjunto de técnicas matemáticas y estadísticas, útiles para
modelar y analizar problemas en los cuales una respuesta de interés es consecuencia
del efecto de varias variables, y el objetivo es optimizar la respuesta. Por ejemplo, un
investigador desea determinar los niveles de temperatura, ( x1 ) y presión ( x2 ) que
maximicen el rendimiento (y) de un proceso. El rendimiento del proceso es función de
los niveles de temperatura y presión, o sea:

Y  f ( x1 , x2 )  

Donde  representa el error experimental observado en la respuesta Y. Si la


respuesta esperada se denota por E(Y) = f (x1, x2 ) =  , entonces la superficie
representado por:
  f ( x1 , x2 )

Se denomina superficie de respuesta. Es posible representar gráficamente la


superficie respuesta como se muestra en la Figura 4.1, donde  se grafica contra los
niveles x1 y x2. Obsérvese que la respuesta se representa con una superficie sólida
en un espacio tridimensional.

82
Figura 4.1: Superficie respuesta tridimensional que muestra el rendimiento
esperado como una función de la temperatura y presión

Para visualizar mejor la forma de una superficie de respuesta, a menudo se


grafican los contornos de dicha superficie, como se muestran en la figura en la
proyección de la superficie respuesta sobre el plano x1x2. En esta gráfica de contornos
se trazan líneas de respuesta constante en el plano x1, x2, cada contorno corresponde
a una superficie específica de la superficie de respuesta. Tal gráfica es útil para
estudiar los niveles de x1 y x2 que dan por resultados cambios en la forma o altura de
la superficie respuesta.

En la mayoría de los problemas de MSR, la forma de la relación entre la


respuesta y las variables independientes se desconoce. Por ello el primer paso en la
MSR consiste en determinar una aproximación apropiada a la relación funcional real
entre Y y el conjunto de variables independientes. Por lo general, se emplea un
polinomio de orden bajo sobre alguna región de las variables independientes. Si la
respuesta es descrita adecuadamente por una función lineal entre las variables
independientes, la función de aproximación es el modelo de primer orden:

Y   0  1 X 1    2 X 2  ...   k X k  

83
Si existe curvatura en el sistema, entonces debe emplearse un polinomio de
grado superior, tal como el modelo de segundo grado.

k k
Y   0    i X i    ii X i2    ij X i X j 
i 1 i 1 i j

La MSR es una técnica secuencial. A menudo, cuando se considera un punto


sobre la superficie respuesta alejado del óptimo, como las condiciones de operación
actuales de la Figura 4.2, el polinomio de primer grado es apropiado porque existe
poca curvatura en el sistema.

Figura 4.2: Gráfica de contornos de la superficie respuesta del


rendimiento

En este caso el objetivo consiste en guiar al experimentador rápida y


eficientemente a la cercanía general del punto óptimo. Una vez que se ha
determinado la región del punto óptimo, puede emplearse un modelo más elaborado,
como por ejemplo el de superficie de respuesta de segundo grado, y realizar un
análisis para localizar el óptimo. A partir de la figura 4.1, se observa que el análisis de
la superficie de respuesta puede interpretarse como el "ascenso a la loma", donde la
cima representa el punto de la respuesta máxima. Si el óptimo real es un punto de
respuesta mínima, se puede pensar en el "descenso hacia un valle".

84
4.2 Diseño Central Compuesto

Los Diseños Centrales Compuestos de Box-Wilson, comúnmente


llamados diseños centrales compuestos, contienen embebidos un factorial
completo o un factorial fraccionado con puntos centrales más puntos estrella que
permiten la estimación de la curvatura. Si la distancia del centro del diseño al
punto factorial es 1 unidades para cada factor, la distancia del centro del diseño
hasta el punto estrella es  con >1. El valor preciso de  depende de ciertas
propiedades deseadas para el diseño y del número de factores involucrados.

Los diseños centrales compuestos utilizan un conjunto grande de


factores cuantitativos con menos puntos que un diseño factorial multinivel y sin
una gran pérdida de eficiencia. Están constituidos por dos clases de diseños: Un
factorial y una estrella. Por ejemplo en un estudio de tres factores los ocho
puntos del diseño central compuesto lo constituye un factorial 2 3. La porción
estrella del diseño consiste de puntos adicionales ubicados a igual distancia del
centro del cubo con un radio que atraviesa los puntos centrales de cada cara del
cubo, denominándose a la distancia del centro del cubo a cada uno de esos
puntos distancia axial de la estrella.

Figura 4.3: Diseños centrales compuestos para k =2 y k=3

Los diseños centrales compuestos son ventajosos por dos motivos: La


ortogonalidad y la rotabilidad. La ortogonalidad nos permite mediar efectos
deseados independientemente uno de otro. Los diseños no ortogonales implican
la dependencia entre efectos, lo que no es deseable en la experimentación. Por

85
otro lado la rotabilidad implica que podemos estimar la respuesta con igual
varianza respecto a la dirección del centro del diseño.

Para elaborar el diseño central compuesto se debe tener en cuenta que


está constituido por tres partes:
 Un bloque factorial 2k a dos niveles ±1.
 Un bloque estrella con 2k puntos adicionales, donde cada factor toma
los niveles codificados ± 2k/4.
 Un punto central de niveles codificados (0, 0, …) que se repite en forma
conveniente con el objeto de determinar el error experimental.

Así por ejemplo, para optimizar un proceso con dos variables (k =2), el
primer bloque lo constituye un factorial 22, el segundo bloque estrella un conjunto
de 2x2 pruebas y el tercer bloque repeticiones en el centro (3 ó más).

N x1 x2
1 -1 -1
2 +1 -1
3 -1 +1
4 +1 +1
5 -1,41 0
6 +1,41 0
7 0 -1,41
8 0 +1,41
9 0 0
10 0 0
11 0 0

Tabla 4.1: Diseño compuesto central k = 2

Para el caso que deseemos optimizar un proceso con tres factores, el


diseño central compuesto estaría constituido por un primer bloque factorial 2 3,
un bloque estrella de 2x3 pruebas y un bloque con repeticiones en el centro.

86
N x1 x2 x3
1 -1 -1 -1
2 +1 -1 -1
3 -1 +1 -1
4 +1 +1 -1
5 -1 -1 +1
6 +1 -1 +1
7 -1 +1 +1
8 +1 +1 +1
9 -1,68 0 0
10 +1,68 0 0
11 0 -1,68 0
12 0 +1,68 0
13 0 0 -1,68
14 0 0 +1,68
15 0 0 0
16 0 0 0
17 0 0 0

Tabla 4.2: Diseño compuesto central k = 3.

Para más de tres variables, la ventaja, para el diseño compuesto central


en términos de pruebas, se hace más notoria, puesto que la parte factorial se
puede fraccionar convenientemente.

k N Comentario
4 26 Completo
5 44 Fracción
6 46 Fracción

Tabla 4.3: Relación entre k y N para el diseño central compuesto

A. Interpretación del modelo de segundo orden

Un modelo de segundo orden con dos variables, k =2, se da por:

E (Y )   0   1 X 1   2 X 2   11 X 12   22 X 22   12 X 1 X 2

87
Dependiendo de los valores de los coeficientes, se puede describir
diferentes superficies de respuesta. Los más comunes son aquellos con un
máximo, un mínimo, ó un punto "silla de caballo". Gráficos de los contornos de
estos tres tipos de superficies se muestran en la figura siguiente.

Figura 4.4: Gráfica de superficies y contornos de modelos de segundo orden :


a)máximo; b)mínimo, c)"silla de caballo".

Alejándose del punto crítico (el punto del óptimo) en cualquier dirección,
resulta en una disminución (o incremento) de la respuesta. Sin embargo, en el
caso del punto "la silla de caballo" el experimentador puede obtener un
incremento o disminución en la respuesta cuando se aleje del punto crítico,
dependiendo de la dirección que tome.

Para determinar el punto crítico, denominado también el punto estacionario


, se establece las siguientes derivadas igual a cero:

88
E ( y )
  1  2  11 X 1   12 X 2  0
X 1

E ( y )
  2  2  22 X 2   12 X 1  0
X 2

Esto conduce a determinar el punto estacionario, según:

 12  2  2  22  1
X 1, 0 
4  11  22   12
2

 12  1  2  11  2
X 2, 0 
4  11  22   122

Para determinar la naturaleza de la superficie en el punto estacionario, se


debe investigar la segunda derivada:

 2 E (Y )  2 E (Y )  2 E (Y )
 2  ;   ;  2  22
X 12 X 1X 2 X 22
11 12

Si las dos soluciones de la ecuación cuadrática

(211   )(2 22   )  122  0

Sean 1 y 2 son ambas negativas, la función tiene un máximo en el punto


estacionario (X1,0 , X2,0). Si ambas son positivas existe un mínimo; sin embargo,
si se presentan diferentes signos, se trata de una superficie de "silla de caballo".

Ahora, existen diversos métodos analíticos que se pueden utilizar para


investigar la naturaleza de las superficies de respuesta. Por ejemplo en el caso
de la "silla de montar", esos métodos indican la dirección en la que se debe de
mover a fin de incrementar la respuesta. En el caso máximo, esos métodos
indican la dirección en la que la disminución de la respuesta es la más lenta.
Esta información es importante, ya que indican al experimentador la dirección
en la cual la respuesta es menos sensible a cambios en los factores de ingreso.

89
La siguiente tabla resume las propiedades de las tres variedades de diseños
centrales compuestos. La figura siguiente ilustra las relaciones entre estas
variedades.

Tipo Terminología Comentario


CCC es la forma original del diseño central
compuesto. Los tos estrella se encuentran a
la distancia  del centro basado en las
propiedades deseadas del diseño y del
número de factores.Los puntos estrella
establecen los nuevos extremos para los
Circunscrito CCC niveles bajos y altos de todos los factores.
Estos diseños tienen forma circular, esférica
o hiperesférica simetría y requieren 5 niveles
para cada factor. Aumentando puntos
estrella a un factorial existente o a un
factorial fraccionado de resolución V se
produce este diseño.
Para aquellas situaciones en las cuales los
límites especificados para los factores sean
verdaderos límites, el diseñ CCI usa las
especificaciones del factor como puntos
estrella y crea un factorial o factorial
Inscrito CCI fraccionado dentro de estos límites (en otras
palabras, un diseño CCI es un sub-diseño de
un diseño CCC con cada nivel del factor del
diseño CCC dividido por  para generar el
diseño CCI). Este diseño también requiere 5
niveles por cada factor.
En este diseño los puntos estrella son el
centro de cada cara del espacio factorial, de
modo que  1. Esta variedad requiere 3
Centrado Cara CCF niveles por cada factor. Aumentando puntos
estrella en forma apropiada a un factorial
existente o diseño de resolución V también
se puede general este diseño.

TABLA 4.4: Diseños Centrales Compuestos

90
FIGURA 4.5: Comparación de los tres tipos de Diseños Centrales
Compuestos

Los diagramas en la figura anterior ilustran los tres tipos de diseños


centrales compuestos para dos factores. Notemos que el CCC explora el
proceso en un espacio más grande y el CCI en el espacio más pequeño. Los
diseños CCC y CCI son diseños rotables, pero el CCF no lo es. En el diseño
CCC, los puntos describen un círculo circunscrito en el factorial cuadrado. Para
tres factores, los puntos del diseño CCC describen una esfera alrededor de un
cubo factorial.

91
B. Ejemplo de aplicación

En la tala 3.24 cuando se realizó el método de máximo ascenso se


concluyó de que si queremos obtener una extracción cercana a 80% deberíamos
ejecutar el proceso con los siguientes niveles:

Factores Nivel (-1) Nivel (+1)


orgánico 0,18 0,20
pH 1,90 2,00

Tabla 4.5: Factores y niveles para el DCC

a) Realice un diseño central compuesto para encontrar los niveles óptimos de


los factores que maximicen la extracción del Cu(cerca a 80%).
Solución:

Como el proceso tiene k =2 utilizamos un diseño central compuesto cuyas


condiciones y resultados se muestran en la siguiente tabla.

A/O pH E(%)
0.18 1.9 78.23
0.19 1.9 77.02
0.18 2.0 74.64
0.19 2.0 76.51
0.177929 1.95 76.86
0.192071 1.95 76.52
0.185 1.87929 77.93
0.185 2.02071 74.91
0.185 1.95 76.21
0.185 1.95 77.02
0.185 1.95 77.54

Tabla 4.6: Resultados obtenidos luego de aplicar el diseño central compuesto

Los resultados del diseño ajustados a un modelo de segundo orden, nos


proporciona lo siguiente:
E(%)  718,02  4441,35 O  215,67 pH  4216,67O2  96,16 pH 2  3080 O pH

92
Superficie de Respuesta Estimada

Extracción_Cu
69.0-70.5
70.5-72.0
72.0-73.5
84 73.5-75.0
75.0-76.5
81
Extracción_Cu

76.5-78.0
78.0-79.5
78 79.5-81.0
81.0-82.5
75
82.5-84.0
72
2.04
69 2
1.96
1.92
0.17 0.174 1.88
0.178 0.182 0.186 1.84
0.19 0.194 1.8 pH

orgánico

Gráfico 4.7: Superficie respuesta para la extracción de Cu

Optimizando el modelo polinómico obtenemos la máxima extracción y los


niveles óptimos.

Tabla 4.12: Condiciones óptimas para extracción de Cu

Para observar mejor la zona de trabajo donde obtendríamos extracciones


superiores cercanas a 80%, es muy conveniente representar el modelo
matemático, mediante un gráfico de contornos, como se muestra a continuación.

93
Contornos de la Superficie de Respuesta Estimada

2.04 Extracción_Cu
69.0-70.5
70.5-72.0
2
72.0-73.5
73.5-75.0
1.96 75.0-76.5
76.5-78.0
78.0-79.5
pH

1.92
79.5-81.0
81.0-82.5
1.88 82.5-84.0

1.84

1.8
0.17 0.174 0.178 0.182 0.186 0.19 0.194
orgánico

Gráfico 4.8: Gráfico de contornos para la extracción de contaminante metálico

En el gráfico de curvas de nivel podemos observar que la zona de máxima


extracción de Cu se encuentra en la parte inferior izquierda de la figura (zona azul).

4.3. Experimentos Multifactoriales

Muchos experimentos toman en cuenta más de dos niveles en cada uno de sus
factores. En este caso veremos el caso donde se tienen a niveles del factor A, b
niveles del factor B, c niveles del factor C, y así sucesivamente, acomodados en un
experimento factorial. En general, se tendrá un total de abc...n observaciones,si
existen n réplicas del experimento completo.

Suponiendo un experimento de tres factores, con el siguiente modelo

Yijkl     i   j   k   ij   ik    jk   ijk   ijkl

Si se supone que A, B y C son factores fijos, entonces el análisis de varianza es


mostrado en la tabla siguiente.

94
Fuente de Suma de Grados de Varianza Fo
Variación Cuadrados Libertad
A SSA a–1 MSA MSA/MSE

B SSB b–1 MSB MSB/ MSE

C SSC c–1 MSC MSC/ MSE

AB SSAB (a-1)(b-1) MSAB MSAB/ MSE

AC SSAC (a-1)(c-1) MSAC MSAC/ MSE

BC SSBC (b-1)(c-1) MSBC MSBC/ MSE

ABC SSABC (a-1)(b-1)(c-1) MSABC MSABC/ MSE

ERROR SSE abc(n-1) MSE

TOTAL SST abcn - 1

Tabla 4.13: Análisis de Varianza para un experimento multifactorial

Note que al menos deben existir al menos dos réplicas (n 2) para calcular una
suma de cuadrados del error. La prueba F sobre los efectos principales y las
interacciones se obtiene directamente de las medias de cuadrados esperadas. Estos
cocientes tienen distribuciones F bajo las hipótesis nulas respectivas.

Las fórmulas para calcular las sumas de cuadrados de la tabla anterior se


obtienen fácilmente. Así, la suma total de cuadrados es:

a b c n
y2
SST   yijkl
2

i 1 j 1 k 1 l 1 abcn

La suma de cuadrados para los efectos principales se calcula a partir de los


totales para los factores A(yi...), B(y.j...) y C(y..k.), de la siguiente manera:

a
yi2 ... y 2 ...
SS A   
i 1 bcn abcn

b y.2j.. y 2 ...
SS B   
j 1 acn abcn

95
c
y 2 ..k . y 2 ...
SS C   
k 1 abn abcn

Para calcular la suma de cuadrados de la interacción entre dos factores,


son necesarios los totales de las celdas A X B, A X C y B X C. Puede ser útil
concentrar los datos originales en tres tablas dobles con la finalidad de calcular
estos totales. Las sumas de cuadrados son:

a b yij2... y...2
SS AB     SS A  SS B
i 1 j 1 cn abcn

a c
yi2.k . y...2
SS AC     SS A  SS C
i 1 k 1 bn abcn
c y2
b
y2
   ...  SS B  SS C
. jk .
SS BC
j 1 k 1 an abcn

La suma de cuadrados de la interacción de los tres factores se calcula a


partir de los totales en las celdas triples yijk como
2
a b c yijk y...2
SS ABC     SS A  SS B  SS C  SS AB  SS AC  SS BC
.

i 1 j 1 k 1 n abcn

La suma de cuadrados del error puede encontrarse al sustraer la suma de


cuadrados de cada efecto principal e interacción de la suma total de cuadrados.

Ejemplo: En el ejemplo anterior consideremos realizar un factorial multinivel


utilizando más niveles en el pH, pues sabemos que es el factor controlante del
proceso.

Factor Nivel bajo Nivel medio Nivel alto


(-) (0) (+)
Orgánico 0,1 0,2
pH 1,6 1,8 2,0

Tabla 4.14: Factores y niveles para el experimento multifactorial

96
Suponiendo que luego de haber realizado la experimentación utilizando un
diseño multinivel 2x3x2=12 pruebas tenemos los siguientes resultados.

orgánico pH
1,6 1,8 2,0
0,1 80,11 75,99 72,03
80,05 76,25 72,14
0,2
82,99 79,35 76,36
83,19 80,04 75,99

Tabla 4.15: Resultados del diseño multinivel para la extracción de Cu

El análisis de varianza de los resultados anteriores se muestra en la siguiente tabla:

Tabla 4.16: Análisis de varianza para efectos principales e interacciones

A pesar de que no es el propósito averiguar cuál factor es importante, sin


embargo podemos evidenciar que tanto el orgánico como el pH son altamente
significativos. A continuación podemos observar el gráfico de superficie respuesta
para determinar las condiciones óptimas.
Contornos de la Superficie de Respuesta Estimada

2 Extraccion_Cu
72.0-73.2
73.2-74.4
74.4-75.6
1.9 75.6-76.8
76.8-78.0
78.0-79.2
79.2-80.4
pH

1.8
80.4-81.6
81.6-82.8
82.8-84.0
1.7

1.6
0.1 0.12 0.14 0.16 0.18 0.2
orgánico

Gráfico 4.9: Superficie respuesta para el experimento multinivel

97
Las condiciones óptimas se determinan optimizando el modelo matemático
producto de la regresión múltiple.

𝑬(%) = 𝟏𝟎𝟒, 𝟓𝟏 − 𝟒𝟔𝟖 𝑶 − 𝟏𝟑, 𝟏𝟗 𝒑𝑯 − 𝟐, 𝟓 𝒑𝑯𝟐 + 𝟐𝟐 𝑶 𝒑𝑯

4.4 Respuestas Múltiples: La aproximación de la deseabilidad

La aproximación de la función de deseabilidad es una de las más utilizadas en


la industria para la optimización de proceso con múltiples respuestas. Está basada en
la idea de que la “calidad” de un producto o proceso que tiene múltiples características
de calidad, con una de ellas fuera de algún límite “deseado”, es completamente
inaceptable. El método encuentra condiciones de operación que proveen los valores
respuesta “más deseables”.

Para cada respuesta Yi(x), una función de deseabilidad di(Yi) asigna números
entre 0 y 1 a los posibles valores de Yi, con di(Yi) = 0 representando un valor
completamente indeseable de Yi y di(Yi) = 1 representando un valor completamente
deseable o valor ideal de la respuesta. Las deseabilidades individuales son luego
combinadas utilizando la media geométrica, la cual proporciona la deseabilidad total
D:

Dd1Y1xd2Y2 x...xdkYk 
1/ k

Con k denotando el número de respuestas del proceso o producto. Notamos que


si cualquier respuesta Yi es completamente indeseable (di(Yi) = 0), entonces la

98
deseabilidad total es cero. En la práctica, se utilizan los valores ajustados de las
respuestas i en vez de los valores originales Yi.

Dependiendo de cómo se quiere que sea la respuesta particular Yi sea


maximizada, minimizada, o que alcance un valor fijo, se utilizan diferentes funciones
de deseabilidad di(Yi). Una clase de funciones de deseabilidad fue propuesta por
Derringer y Suich (1980). Sean Li, Ui y Ti los valores bajo, alto y objetivo
respectivamente que son requeridos para la respuesta deseada Yi, con Li Ti Ui.

Si a respuesta es de la clase "target is best" (valor fijo), entonces su función


individual de deseabilidad es:

Con los exponentes s y t determinando cuán importante es el valor fijo requerido.


Parar s = t = 1, la función deseabilidad se incrementa linealmente hacia Ti; para s <
1, t < 1, la función es convexa, y para s > 1, t > 1, la función es cóncava.

Si la respuesta se va a maximizar, entonces la función individual de deseabilidad


será:

Con Ti en este caso interpretado como un valor suficientemente grande para la


respuesta.

99
Finalmente, si queremos minimizar una respuesta, entonces debemos utilizar la
siguiente función de deseabilidad:

Con Ti denotando un valor suficientemente pequeño para la respuesta.

La aproximación de la deseabilidad consiste de las siguientes etapas:

1. Realizar experimentos y ajustar la respuesta a modelos para las k respuestas.


2. Definir funciones de deseabilidad individual para cada respuesta.
3. Maximizar la deseabilidad total D con respecto a los factores controlables. El
programa Statgraphics utiliza el comando Optimización de Respuesta Múltiple.

Ejemplo

Se seleccionó un diseño experimental de dos niveles con tres factores y dos


puntos de replica en el centro para estudiar las variables de colector X-Flex31 (xantato
isopropílico), activador de zinc (CuSO4) y espumante Teuton-100 (MIBC) sobre la
flotación de Zn. Los niveles utilizados para los tres factores se muestran en la
siguiente tabla.

Reactivos Nivel bajo Nivel alto


Espumante (g/t) 20 50
Activador (g/t) 300 500
Colector (g/t) 40 80

Tabla 4.17: Factores y niveles utilizados en el factorial 23

Los resultados del experimento factorial se muestran a continuación:

100
Espumante Activador Colector Recuperación Grado
20.0 300.0 40.0 89.89 45.48
50.0 300.0 40.0 84.74 51.87
20.0 500.0 40.0 89.26 43.53
50.0 500.0 40.0 83.71 49.31
20.0 300.0 80.0 87.42 50.46
50.0 300.0 80.0 83.27 52.13
20.0 500.0 80.0 85.23 50.04
50.0 500.0 80.0 74.58 53.99
35.0 400.0 60.0 79.66 52.93
35.0 400.0 60.0 79.92 52.65
20.0 300.0 40.0 89.89 45.48

Tabla 4.18: Resultados del diseño factorial para la flotación de Zn

En primer lugar optimizamos la recuperación de Zn de modo que sea la


máxima. Para esto realizamos el análisis de los datos respecto de la recuperación de
Zn. A continuación mostramos el gráfico de superficie respuesta más el polinomio de
segundo grado de acuerdo a la metodología RMS.

Contornos de la Superficie de Respuesta Estimada


colector=60.0

500 Recuperacion
74.0-75.6
75.6-77.2
460 77.2-78.8
78.8-80.4
80.4-82.0
activador

420 82.0-83.6
83.6-85.2
85.2-86.8
380 86.8-88.4
88.4-90.0

340

300
20 25 30 35 40 45 50
espumante

Gráfico 4.10: Superficie respuesta para la recuperación de Zn

El gráfico anterior corresponde al siguiente modelo de segundo grado:

R(%) = 78.42 + 0.12*E + 0.039*A + 0.18*C - 0.00057*E*A - 0.0017*E*C - 0.00057*A*C

R2=77,92%

101
Optimizando el modelo anterior obtenemos las siguientes condiciones para
obtener la recuperación máxima de Zn:

Tabla 4.19: Condiciones óptimas para la recuperación de Zn

Similarmente procedemos con la optimización del grado o ley de Zn en el


concentrado.

Gráfico 4.10: Superficie respuesta para el grado de Zn

El gráfico anterior corresponde al siguiente modelo de segundo grado:

G = 45.56 + 0.26*E - 0.031*A + 0.049*C + 0.00014*E*A - 0.0027*E*C + 0.00037*A*C

R2=82,98%

102
Optimizando el modelo anterior obtenemos las siguientes condiciones para
obtener la ley máxima de Zn:

Tabla 4.20: Condiciones óptimas para el grado de Zn

Finalmente realizamos una optimización de múltiples respuestas


maximizando simultáneamente la recuperación y el grado de Zn.

Tabla 4.21: Cálculo de la función de deseabilidad para la optimización de 2


respuestas simultáneamente

103
De acuerdo a la tabla anterior se puede observar que se ha seleccionado una
solución de compromiso entre la recuperación y el grado del Zn. Los resultados finales
se muestran en la siguiente tabla:

Tabla 4.22: Contornos


Resultados finalesdedeRespuesta
de la Superficie la optimización
Estimada con respuesta múltiple
colector=60.0

500 Deseabilidad
0.0-0.1
0.1-0.2
460 0.2-0.3
0.3-0.4
0.4-0.5
activador

420 0.5-0.6
0.6-0.7
0.7-0.8
380 0.8-0.9
0.9-1.0

340

300
20 25 30 35 40 45 50
espumante

Figura 4.11: Deseabilidad enSobrepuesto


Gráfico función de los factores más importantes
colector=60.0

500 47.8 49.0 50.2 51.4


Recuperacion
78.8
grado
460
activador

420
80.4

380

82.0
340
52.6
86.8 85.2 83.6
300
20 25 30 35 40 45 50
espumante

Figura 4.12: Recuperación y grado de Zn en función de factores más


importantes

104
4.5 Tópicos Avanzados De Diseño De Experimentos
4.5.1 Cuando los diseños clásicos no funcionan

Muchas de las situaciones experimentales requeridas por los diseños


estándares pueden ser construidas con varios programas de computadora. Los
diseños estándares tienen incorporados grados de precisión, ortogonalidad y otras
propiedades que son óptimas e importantes para la naturaleza exploratoria de la
mayoría de experimentos. Sin embargo, en algunas situaciones, los diseños
estándares no son apropiados o son imprácticos. Esto incluye situaciones como:

 La requerida estructura de bloques o tamaño de los bloques de la situación


experimental no se ajusta a un diseño bloqueado estándar.
 No todas las condiciones fijadas de los factores son factibles, o por alguna otra
razón la región de experimentación está restringida o tiene geometría irregular.
 Cuando un diseño clásico necesita ser “reparado”. Esto puede suceder debido
a un planeamiento inadecuado con las combinaciones del diseño original que
contienen condiciones prohibidas o inalcanzables que no fueron consideradas
antes que el diseño se generara.
 Un modelo no-lineal es el apropiado.
 Un diseño de superficie respuesta cuadrático se requiere cuando algunos de
los factores son cualitativos.
 Cuando los factores en el experimento incluyen tanto componentes de una
mezcla y factores de otros procesos.
 Existen múltiples fuentes de variación que permiten el anidamiento o
jerarquización de la estructura de datos y restricciones las cuales deben ser
seleccionadas al azahar.
 Un diseño factorial fraccionado estándar requiere muchas combinaciones de
tratamientos para una cantidad limitada de tiempo y dinero.

Cuando situaciones como las de arriba existen, los diseños ayudados por
computadora constituyen una opción muy útil. En algunas situaciones, son solamente
una opción que el experimentador posee.

105
4.5.2 Diseños asistidos por computadora

Los diseños generados a partir de un algoritmo de computadora se conocen


como Diseños asistidos por ordenador. Estos son diseños experimentales generados
en base a un criterio de optimalidad y solamente son “óptimos” para un modelo
específico. En consecuencia, estos algunas veces se denominan diseños óptimos y
generalmente no satisfacen propiedades deseables como la independencia de
estimadores, que los diseños clásicos lo requieren. Las pruebas o corridas del diseño
son generadas por los algoritmos los cuales seleccionan un grupo de posibles
combinaciones de tratamientos de un sistema total. El grupo candidato consiste de
todas las combinaciones posibles de tratamientos que uno desea considerar en el
experimento.

Existen varios tipos de criterios de optimalidad utilizados para seleccionar los


puntos o pruebas para un diseño.

Un criterio popular es el criterio de optimalidad-D (D-optimality) el cual busca


maximizar el determinante de la matriz de información X'X del diseño (|X'X|). Este
criterio consiste en minimizar la varianza generalizada de los parámetros estimados
basados en un modelo pre-especificado.

Otro criterio es el optimalidad-A (A-optimality), el cual busca minimizar la


diagonal de la inversa de la matriz de información. Este criterio consiste en minimizar
la varianza generalizada de los parámetros estimados basados en un modelo pre-
especificado.

Un tercer criterio es el optimalidad-G, el cual busca minimizar el máximo de la


varianza de predicción, es decir minimizar max. [d=x'(X'X)-1x], sobre un conjunto
especificado de puntos del diseño. Un cuarto criterio es el optimalidad-V, el cual busca
minimizar el promedio de la predicción de la varianza sobre un conjunto especificado
de puntos del diseño.

Puesto que la mayoría de los criterios de optimalidad de los diseños asistidos


por computadora están basados en alguna función de la matriz de información, la

106
optimalidad de un diseño dado es dependiente del modelo. Es deicr, que el
experimentador debe especificar un modelo para el diseño y el número final de puntos
deseados antes de que el diseño óptimo sea generado. El diseño generado por el
algoritmo de computadora es “óptimo” solamente para ese modelo.

Diseños D-óptimos

Este tipo de diseño constituye siempre una opción ya sea de acuerdo al tipo de
modelo que el investigador desea ajustar (por ejemplo de primer orden, primer orden
más interacciones, cuadrático, cúbico, etc.) o el objetivo especificado por el
experimento (por ejemplo, selección, superficie respuesta, etc.). Los diseños D-
óptimos son optimizaciones lineales basadas en un criterio de optimalidad y en el
modelo al cual se ajustará. El criterio de optimalidad utilizado para generar un diseño
D-óptimo es el de maximizar |X'X|, el determinante de la matriz de información X'X.

Es decir, experimentador debe especifica un modelo antes que la computadora


pueda generar combinaciones de tratamientos o corridas para el diseño. Dados el
número total de corridas para un experimento y un modelo específico, el algoritmo de
la computadora escogerá un subconjunto óptimo de corridas de un conjunto candidato
de corridas. Este conjunto candidato de corridas usualmente consiste de todas las
posibles combinaciones de los factores a varios niveles que uno desea usar en el
experimento.

Las razones para utilizar los diseños D-óptimos en vez de los diseños clásicos
estándares generalmente se agrupan en tres categorías:

1. Los diseños factoriales completos o fraccionados estándares requieren


demasiadas corridas para la cantidad de recursos disponibles.
2. La región de experimentación o espacio del diseño está restringido (el proceso
contiene factores cuyos niveles no son factibles o posibles de experimentar).
3. Arreglar un diseño mal planificado, añadiendo el número requerido de pruebas
para que los resultados sean óptimos.

107
Ejemplo 1:

Suponga que un experimentador empezó a estudiar 3 factores sobre la siguiente


región:

Tabla 4.23: Factores y niveles del experimento original

Desafortunadamente, más que diseñar un experimento bien-balanceado desde el


principio, se decidió intentar unas cuantas corridas pensando que trabajarían bien.
Las corridas desarrolladas se muestran abajo, junto con la medición de la respuesta:

Temperatura Tasa de Concentración Rendimiento


Corrida Flujo
1 160 50,0 20 18.7
2 180 72,5 40 32.9
3 165 80,0 25 22.1
4 175 80,0 35 29.0
5 170 57,5 25 22.8
6 180 72,5 35 29.9

Tabla 4.24: Resultados parciales del experimento original

Después de 6 corridas y un progreso leve, se decidió parar y diseñar un buen


experimento. Sin embargo, no se deseaba ejecutar muchas más corridas de las que
ya se habían desarrollado, cada una de ellas fue costosa y consumió un tiempo. Los
recursos disponibles solamente alcanzan para hacer 9 pruebas más. Podemos
observar también que el experimentador ha utilizado 5 niveles por cada factor. El
procedimiento general que deberá ejecutarse en este caso es el siguiente:

 Un diseño factorial mixto será construido con un número grande de corridas


que cubran la región experimental completa de interés.
 Las 6 corridas desarrolladas serán agregadas al diseño factorial mixto.
 El procedimiento Optimizar Diseño deberá usarse para seleccionar 9 corridas
adicionales a las primeras 6 agregadas

108
En primer lugar creamos un diseño multifactorial 5x5x5 con dos repeticiones.
Esto constituirá nuestro conjunto candidato de corridas.

Paso 1: Especificando las Corridas Candidatas

Antes de usar el procedimiento Optimizar Diseño en STATGRAPHICS, un archivo de


experimento debe crearse que contenga las corridas candidatas de las cuales un
subconjunto deberá seleccionarse. Para los experimentos que implican variables del
proceso, es más fácil la creación de un diseño factorial mixto. La documentación DDE
– Diseño Factorial Mixto describe la construcción de un diseño factorial 5x5x5 usando
las variables y la región experimental descritas anteriormente. El diseño consiste de
todas las combinaciones de 5 niveles de los factores, igualmente espaciados entre
los niveles bajo y alto. Cada una de las 125 combinaciones es replicada dos veces,
las cuales son almacenadas en el archivo llamado multilevel.sfx.

Para crear un diseño D-Óptimo, este archivo deberá cargarse usando la opción Abrir
Datos Fuente sobre el menú Archivo. Después de que las corridas son cargadas en
la base de datos, las 6 corridas que fueron desarrolladas deben agregarse
manualmente al final de la hoja

Figura 4.25: Tabla de corridas candidatas donde al final se incluyen las


corridas ejecutadas

109
Notemos lo siguiente:
1. Un número separador de bloque tiene indicado cuales fueron las corridas
iniciales (3). Dependiendo si el experimentador cree que las condiciones
cambiaron sobre las corridas iniciales, el número de bloque puede o no puede
incluirse sobre la estimación del modelo. La caja de dialogo en Opciones del
Análisis sobre ambos procedimientos de Analizar Diseño y Optimizar Diseño
contienen una opción para ignorar los números de bloque.

2. Los valores medidos de la variable respuesta deben ingresarse. Esto forzará a


esas 6 corridas a ser seleccionadas por Optimizar Diseño, siempre que las
corridas seleccionadas ya se hayan realizado. Las 381 corridas candidatas se
guardan en un archivo.

Paso 2: Especificando el Modelo a ser Estimado

Una vez que las corridas candidatas son cargadas en la base de datos, Optimizar
Diseño debe seleccionarse del menú Diseño de Experimentos. Inicialmente, se
desplegara un mensaje simple indicando que las Opciones del Análisis pueden
seleccionarse:

Presionando el clic derecho del ratón y seleccionando Opciones del Análisis se


despliega la siguiente caja de dialogo:

Figura 4.13: Caja de diálogo donde podemos especificar el modelo con la


opción “exclude”

110
 Máximo Orden del Efecto – El máximo orden del efecto a ser incluido en el
modelo. Especificar “1” para un modelo que contenga solamente efectos
principales, o especificar “2” si las interacciones dobles o efectos cuadráticos
deben incluirse.

 Ignorar Números de Bloques – Si se activa, el efecto de bloque será excluido


del modelo. En caso contrario, serán agregadas columnas en la Matriz X para
que distinga entre los bloques.

 Patrón de Confusión: Si esta seleccionado “Del Diseño Original” dado que el


diseño original fue un Factorial Fraccionado o Plackett-Burman, el
procedimiento del análisis normalmente examina el patrón de confusión para
determinar cuáles efectos podrán estimarse. Cambiando la configuración a “De
los Datos” forzamos al programa a estimar todos los efectos que no se
confundieron perfectamente con otros efectos o se excluyeron usando el botón
Excluir.

 Número de Corridas Deseadas: El número final de corridas que el


procedimiento tendrá que seleccionar. El número inicialmente desplegado es
el mínimo absoluto, correspondiente al número de coeficientes subyacentes al
modelo de regresión. Normalmente, el número puede incrementarse para
permitir la estimación del error.

 Método: El método usado para seleccionar las corridas. Puesto que el número
de maneras de cambiar subconjuntos de las corridas candidatas es muy
grande para revisar todas las posibilidades, STATGRAPHICS (como otros
programas) usa un algoritmo de selección para cambiar los subconjuntos. El
método Hacia Adelante empieza con las corridas que fueron desarrolladas (si
cualquiera) y agrega una corrida a la vez, adicionando en cada paso la corrida
que suma la mayor D-Eficacia del experimento. El método Hacia Atrás empieza
con todas las corridas candidatas y remueve una corrida a la vez, removiendo
en cada paso la corrida que suma la menor D-Eficacia del experimento. En
ambos casos, una vez que el número de corridas deseadas es seleccionado,
un algoritmo de intercambio será desarrollado. Este algoritmo prueba todos los
pares de corridas consistentes de una que fue seleccionada y otra que no lo
fue, hacer cualquier cambio puede incrementar la eficiencia del experimento.
Los cambios continúan hasta no tener mejoras adicionales que puedan
realizarse cambiando una corrida que fue seleccionado con otra que no lo fue.

 Botón Excluir: Presione este botón para excluir efectos específicos del modelo.
La siguiente caja de dialogo será desplegada:

111
Figura 4.14: La caja de diálogo muestra los términos que incluye el modelo

Dar doble clic sobre cualquier efecto que se pueda mover de un lado para otro.

En el ejemplo, supongamos que el experimentador decide ignorar los bloques, y


estimar un modelo de segundo orden como se muestra abajo:

Este modelo tiene un total de p = 10 coeficientes. Agregando 3 grados de libertad


para estimar el error experimental puede requerir un total de N = 15.

Una vez que presionamos dos veces OK el programa nos despliega la siguiente
pantalla:

Optimize Experiment
File name: hugo.sfx

Selection criterion: D-optimality


Desired number of runs: 15
Selection method: Forward with exchange at end
Model order: 2

Number of runs already completed: 6


Additional candidate runs: 375

D-optimal Design
Design has been reduced to 15 runs.

112
D-efficiency = 37,4089%
A-efficiency = 20,8063%
G-efficiency = 63,0889%

Tabla 4.15: Resultados que genera el programa STATGRAPHICS

La tabla despliega información acerca de las opciones que fueron


seleccionadas y las mediciones de eficacia del diseño resultante. Tres mediciones de
eficacia pueden calcularse:

• D-Eficacia – Compara el determinante de X′X con el valor del diseño mejor posible
de acuerdo a:

Después la matriz de diseño X es transformada en el nivel bajo de cada factor es


igual a -1 y el nivel alto a 1. En la ecuación anterior, N es el número de corridas
totales seleccionadas y p es el número de coeficientes estimados en el modelo a
ajustarse. D-Eficacia esta relacionada con el volumen de la región de confianza
para los coeficientes de regresión. La medición esta es definida permitiendo la
comparación de diseños con diferentes números de corridas. Un diseño con alta
D-Eficacia es preferido.

• A- Eficacia – Compara la suma de las varianzas estimadas de los coeficientes de


regresión sin considerar sus covarianzas:

• G- Eficacia – Compara la predicción del error estándar máximo σm sobre los puntos
del diseño a través de:

Para los diseños con D-Eficacia igual, los otros dos criterios pueden usarse para
seleccionar el mejor diseño. En un diseño “organizado” como el que tenemos, las
eficacias del diseño pueden ser bien bajas cuando requerimos un número de corridas
mínimo.

113
Presionando la opción TABULAR podemos obtener la lista de corridas candidatas:

Figura 4.15: Caja de diálogo mostrando las corridas seleccionadas en color rojo y
con asterisco

La figura presenta solamente parte de la lista completa de corridas candidatas y


corridas seleccionadas por el programa con un asterisco (*). A continuación se
presenta las 9 corridas adicionales que se deberían correr para mejorar el
experimento anterior.

Prueba T Flujo C
1 180 50 20
2 160 72,5 20
3 160 50 40
4 180 50 40
5 160 80 40
6 180 80 20
7 160 65 30
8 180 50 40
9 170 65 40

Tabla 4.26: Corridas escogidas por el programa con el criterio de optimalidad D-


óptimo

114
Problema Propuesto:

Suponga que se consideran 3 factores o variables en un proceso de flotación (k = 3)


y que el juicio del metalurgista especifica el siguiente modelo como el más apropiado
para el proceso bajo investigación:

Los niveles de los factores considerados por el investigador para los factores son los
siguientes:

X1: colector: 5 niveles (0.2, 0.3, 0.4, 0.5, 0.6) lib/ton.


X2: pH: 2 niveles (9, 11)
X3: Sólidos: 2 niveles (25, 30) %

Un objetivo del diseño, debido a las limitaciones de los recursos es utilizar solamente
doce corridas o pruebas ( n = 12). Seleccione el mejor diseño utilizando cualquiera de
los criterios de optimalidad.

Respuesta:
De las 60 pruebas candidatas el programa escoge las 12 mejores de acuerdo al
modelo seleccionado previamente.

Prueba bloque Colector pH Solidos Recuperacion


1 1 0,2 9,0 25,0
3 1 0,4 9,0 25,0
18 1 0,4 11,0 30,0
20 1 0,6 11,0 30,0
25 2 0,6 9,0 25,0
30 2 0,6 11,0 25,0
33 2 0,4 9,0 30,0
36 2 0,2 11,0 30,0
46 3 0,2 11,0 25,0
48 3 0,4 11,0 25,0
51 3 0,2 9,0 30,0
55 3 0,6 9,0 30,0

Tabla 4.27: Pruebas seleccionadas con el criterio de Optimalidad

115
4.6 Metodología Multisimplex

4.6.1 Simplex Básico

La operación evolutiva (EVOP) se introdujo ya en los 1950s por Box (vea a


Box, 1957 y Box y Draper, 1969). La idea básica es reemplazar la operación estática
de un proceso por un esquema continuo y sistemático de perturbaciones leves en las
variables de control. El efecto de estas perturbaciones es evaluado y el proceso es
desviado hacia una mejora.

El método del simplex fue originalmente desarrollado para la operación


evolutiva, y es también muy adecuado con este propósito. Es fácil motivar a las
personas a usar este acercamiento puesto que sólo algunas pruebas de puesta en
marcha son necesarias, y el simplex inmediatamente se aleja de las peores
condiciones hacia las óptimas.

El método del simplex es especialmente apropiado cuando:

 El desempeño del proceso cambia en el tiempo.


 Más que tres variables de control deben perturbarse.
 El proceso requiere una optimización fresca con cada parte nueva de material.

Recientemente han aparecido estudios proponiendo el uso de diseños


simples regulares en la fase de ascenso y optimización de un programa experimental.
Este método es una generalización de uno de los métodos de optimización
denominado Complex de Box o de control de un sistema por retroalimentación, donde
los cambios que deben efectuarse en las variables están sujetos a cómo marchan los
resultados experimentales previos.

La técnica más apropiada para encontrar el óptimo en estos casos es el método


de búsqueda simple. Box estudió el comportamiento de este método, en presencia y
ausencia de error, encontrando que la velocidad de avance fue inversamente
proporcional a la desviación estándar del error y que su eficiencia aumenta en
proporción directa al número de variables investigadas.

116
El método básico del simplex es fácil para entender y aplicar. La optimización
comienza con las pruebas iniciales. Las condiciones de prueba son conocidas
fácilmente. El número de pruebas iniciales es igual al número de variables de control
más uno. Estas pruebas iniciales forman el primer simplex. Las formas del simplex de
búsqueda en una dos y una tres variables en el espacio, son una línea, un triángulo
o un tetraedro. Una interpretación geométrica es difícil con más variables, pero el
acercamiento matemático esbozado debajo puede manipular la búsqueda para las
condiciones óptimas.

Figura 4.16: Interpretación geométrica de simplex de baja dimensión k =1,2 y 3

Un diseño simplex regular para k factores está constituido por una matriz X de
pruebas conformada por k columnas y k+1 filas. Geométricamente está definido por
un conjunto de k+1 puntos equidistantes en un espacio de dimensión k. Así, en el
espacio unidimensional, k=1, es decir para un solo factor, el diseño simplex está
constituído por un segmento de línea recta (2 puntos). Para dos factores, el diseño
simplex es un triángulo equilátero (3 puntos); para cuatro factores es un tetraedro
regular (4 puntos), etc.

Las pruebas iniciales del método simplex fueron sugeridas por Spendley, Hext
y Himsworth en 1962. Un simplex regular queda especificado por la matriz k(k+1)
siguiente:

117
0 0 0 ... 0 
p q q ... q 

D0  q p q ... q 
 
... ... ... ... ...
q q q ... p 

Donde

p
1
k 2
k 1  k 1 

q
k 2
1
 k  1 1 
Si deseamos construir un simplex regular para k =2 factores, entonces la matriz
diseño estará conformada por k =2 columnas y k+1=3 filas de la matriz D, es decir
que las pruebas que debemos correr (en niveles codificados) son:

x1 x2
0,00 0,00
0,96 0,26
0,26 0,96

Tabla 4.28: Matriz diseño para k= 2 factores

Geométricamente el área experimental en niveles codificados está


representada por la siguiente figura.

Figura 4.17: Diseño simplex para k =2 factores

118
Ahora que sabemos cómo empezar con un simple para k factores,
explicaremos como funciona este método secuencial. En primer lugar se realizan los
ensayos correspondientes a los k+1 vértices del poliedro en el espacio de dimensión
k. A partir de esta figura se construyen sucesivamente nuevos poliedros no regulares,
eliminando siempre el punto que da la peor respuesta y localizando un nuevo punto
experimental, que junto a los restantes del poliedro inicial, formarán el nuevo poliedro,
o nuevo ciclo de pruebas. El nuevo punto que se va añadiendo puede ser reflejado o
contraído. Para ilustrar mejor como trabaja este método utilizaremos un simplex para
k=2, es decir para optimizar dos variables o factores controlables. Este diseño
geométricamente estará constituido por un triángulo equilátero de vértices (1), (2) y
(3), tal como se observa en la siguiente figura:

7
8

4
2
6

1
3 5

Figura 4.18: Procedimiento Simplex para k =2.

En cada uno de los tres vértices evaluamos experimentalmente las respuestas


(primer ciclo), identificando el punto con la peor respuesta, por ejemplo el vértice (1)
y lo eliminamos. A partir de éste se realiza el primer movimiento experimental, en este
caso de reflexión hasta el punto (4), pasando por el centro de gravedad de (2) y (3).
Tendríamos ahora un nuevo simplex constituido por los vértices (2), (3) y (4) lo que
conforma el segundo ciclo de pruebas. Si el punto (4) es mejor que el punto (1)
entonces se denomina reflejado.

En caso contrario si el punto (4) fuera peor que el (1) habría que hallar un
nuevo punto denominado contraído (5). Si continuamos con este procedimiento, es

119
decir eliminando el punto que proporciona la peor respuesta y reemplazándolo con su
imagen, nos moveremos rápidamente muy cerca a una región estacionaria. La
trayectoria que tiene este método es una línea quebrada que oscila alrededor de la
trayectoria obtenida por el método de la pendiente ascendente, como puede verse en
la figura siguiente.

Los cálculos en el algoritmo básico MultiSimplex del simplex están esbozados


en el diagrama de flujo. Para cada simplex se utiliza la siguiente nomenclatura: La W
para la prueba menos favorable o la prueba rechazada, B para la prueba óptima y Nw
para la segunda prueba favorable mínima (o sea después de la peor).

Figura 4.19: Algoritmo del método simplex básico

Aunque la trayectoria no es recta, el número de movimientos necesarios para


alcanzar la región óptima puede resultar pequeño, puesto que solamente se necesitan
k+1 observaciones en el primer ciclo de pruebas, después de esto, cada movimiento
involucra solamente una observación adicional.

120
Figura 4.20: Trayectoria del método Simples Básico

4.6.2 Método Simplex Modificado

El método modificado del simplex tiene mucho en común con el método básico,
pero pueda ajustar su condición y el tamaño dependiendo de la respuesta en cada
paso. Este método es también llamado el método del simplex de tamaño variable.
Varias reglas nuevas se agregan para las reglas básicas del simplex. Estas reglas
nuevas son:

 Dilátese en una dirección de condiciones más favorables.


 Contráigase si un movimiento fue llevado en una dirección de menos
condiciones favorables.

Los procedimientos para la expansión y la contracción facultan al simplex


modificado tanto a acelerar a lo largo de una dirección exitosa de mejora y dirigirse
hacia las condiciones óptimas. Por eso el simplex modificado usualmente alcanzará
la región óptima más rápido que con el método básico y alcanzará los niveles óptimos
con más precisión. Los movimientos para una secuencia típica de optimización para
dos variables controlables se pueden visualizar fácilmente.

121
Figura 4.21: Secuencia de optimización del Simplex Modificado (cambio en los
niveles de las dos variables).

Figura 4.22: Secuencia de optimización con el método Simplex Modificado. Cambio


en la respuesta

El grado de contracción depende de cómo es la nueva respuesta desfavorable.


La figura siguiente ilustra los diferentes movimientos con el método Simplex
Modificado.

122
Figura 4.23: Diferentes movimientos a partir de la condición de rechazo (W). R =
reflexión, E = expansión, C+ = contracción positiva y C- = contracción negativa

El algoritmo de optimización utilizado en el programa Multisimplex utiliza el


método simplex modificado con algunas características adicionales, como la teoría de
la lógica difusa para acelerar más la búsqueda del óptimo. La nomenclatura utilizada
es la siguiente: W, es la prueba menos favorable o rechazada, B, es la prueba más
favorable y NW es la segunda menos favorable.

Figura 4.24: Algoritmo del programa Multisimplex para el simplex modificado

123
La manera como y cuanto se expande o contrae se obtiene a partir de las
siguientes fórmulas:

Donde:

W : Ensayo rechazado.
C : Centroide de la cara o hipercara remanente. Promedio de los niveles
de las pruebas remanentes.
α : Coeficiente de reflexión que puede variar de 1 a 2.
β+ : Coeficiente de contracción positiva que puede variar entre 0,3 a 0,7.
β- : Coeficiente de contracción negativa que puede variar entre 0,3 a 0,7.
γ : Coeficiente de expansión que puede variar entre 1,5 a 3.

El procedimiento para la expansión y contracción que se realiza por este


método simplex modificado acelera la búsqueda de las mejores condiciones,
lográndose alcanzar el óptimo mucho más rápido que el método anterior.

Figura 4.25: Trayectoria del método Simplex Modificado

Ejemplo de Aplicación

Un investigador está interesado en optimizar la extracción de Cu del licor de


lixiviación, variando los dos factores más significativos: La dosificación de orgánico y
el pH. Supongamos que la extracción del Cu está dada por la siguiente ecuación
matemática que simulará los experimentos en el laboratorio:


E (%)  100  15 pH  0,5O  1   4,52  O
2 2 2

124
Tanto la dosificación de colector como el pH son variables cuantificables, cuyos
valores se fijan a dos niveles según el siguiente cuadro:

FACTOR Nivel bajo (-1) Nivel alto (+1)


orgánico 0,4 0,8
pH 2,5 3,5
Tabla 4.29: Factores y rangos para la optimización

Utilizando los valores de los centros (reference value) y los radios del diseño
(step size) para cada factor, obtenemos fácilmente los niveles reales del experimento.
Del mismo modo, si reemplazamos estos valores en el modelo matemático
obtenemos las respuestas respectivas. Lo que equivaldría a correr secuencialmente
las siguientes pruebas mediante al algoritmo Multisimplex.

A/O pH Recuperación Condición


%
0.5 3.13 53.02 Simplex Inicial
0.69 3.19 63.67 Simples Inicial
0.55 3.37 44.90 Simples Inicial
0.64 2.95 69.80 Reflejado
0.68 2.74 78.78 Expandido
0.87 2.8 86.02 Reflejado
1.06 2.63 94.77 Expandido
1.05 2.18 95.62 Reflejado

Tabla 4.30: Resultados de la optimización secuencial con Multisimplex

Figura 4.26: Evolución de la eficiencia del método secuencial Multisimplex

125

También podría gustarte