Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Departamento de Matemáticas
AUTORA
Irene García Camacha Gutiérrez
DIRECTOR
Dr. Raúl Martín Martín
Toledo, 2017
Resumen
i
ii
viii
1. Diseño de Experimentos 1
1.1. Introducción . . . . . . . . . . . . . . . . . . . . . . 1
2. Algoritmos 31
2.1. Introducción . . . . . . . . . . . . . . . . . . . . . . 32
2.4.1. Algoritmo . . . . . . . . . . . . . . . . . . . 66
v
vi ÍNDICE GENERAL
2.4.5. Conclusiones . . . . . . . . . . . . . . . . . 83
Bibliografía 227
Capítulo 1
Diseño de Experimentos
1.1. Introducción
1
2 CAPÍTULO 1. DISEÑO DE EXPERIMENTOS
γ(x, θ) = E [y(x) − η(x, θ)][y(z) − η(z, θ)] = E ε(x)ε(z)
= Cov[y(x), y(z)].
m
X
t
E[y(x)] = θ f (x) = fj (x)θj y V ar[y(x)] = σ 2 (x).
j=1
σ2
V ar[y(x)] = σ 2 (x) = .
λ(x)
Al ser λ(x) conocida, podemos reducir el correspondiente modelo
de regresión mediante las transformaciones:
p p
y λ(x) −→ y , f (x) λ(x) −→ f (x)
con
es decir,
f1 (x1 ) . . . fm (x1 )
XN = . . . ... ... .
f1 (xN ) . . . fm (xN )
Utilizando esta notación podemos escribir matricialmente el modelo
(1.1) como
E[YN ] = XN θ,
1.2. TEORÍA DE DISEÑO PARA MODELOS LINEALES 7
ΣN = Cov(Y | θ, σ 2 , X) = σ 2 IN
ybx = f t (x)θb
N
1 t 1 X
M (ξN ) = XN XN = f (xi )f t (xi ).
N N i=1
Dadas N observaciones,
Pk debemos decidir cuántas Ni
debemos to-
t
mar en xi , con i=1 Ni = N , de modo que la matriz X X sea
tan grande como sea posible en algún sentido. Obsérvese que si
XNt XN es no degenerada, el problema de minimizar cierta función
de Cov(θ)
b es equivalente, salvo constante, a maximizar la matriz
de información.
X
M (ξ) = σ −2 f (x)f t (x)ξ(x).
x∈χ
M = {M (ξ) : ξ ∈ Ξ}.
l+1
X l+1
X
M= αi si , αi = 1, αi ≥ 0, si ∈ S.
i=1 i=1
k
X
M (ξ) = λ(xi )f (xi )f t (xi )ωi
i=1
m(m+1) Pk
donde k≤ 2
+ 1 , 0 ≤ ωi ≤ 1 y i=1 ωi = 1.
Observación 1.2. Anteriormente referíamos que la matriz de in-
formación era la suma de submatrices correspondientes a diseños
unipuntuales. El corolario previo nos da, por tanto, una cota supe-
rior del número de puntos de diseño. Luego para cualquier diseño,
ξ˜, cuyo número de puntos en su soporte supere a m(m+1)
2
+1 siempre
se puede encontrar otro diseño ξ con un número de puntos en su
12 CAPÍTULO 1. DISEÑO DE EXPERIMENTOS
Ψ : M −→ R
Ψ : M −→ R ∪ {+∞}
acotada inferiormente es una función criterio si se cumple que:
M (ξ) ≥ M (η) ⇒ Ψ[M (ξ)] ≤ Ψ[M (η)].
MΨ = {M ∈ M : Ψ(M ) < ∞}
Ξ∗ = {ξ ∈ Ξ : ξ es Ψ-óptimo}
Propiedades
Entre las propiedades deseables a vericar por las funciones criterio
cabe destacar:
2. Positivamente homogénea
1
Ψ[δM (ξ)] = Ψ[M (ξ)], δ≥0
δ
−1
Esta propiedad nos permitirá trabajar con M (ξ) en lugar
2
σ −1
de
N
M (ξ) que es la verdadera matriz de covarianzas de los
estimadores de los parámetros del modelo. También permi-
tirá dar una medida apropiada de la eciencia de un diseño
respecto de un criterio, concepto que se usará más adelante
para comparar diseños.
1
ΨD [M (ξ)] = [det M (ξ)]− m ξ ∈ Ξ.
ΨD es continua en M.
Además
∂ΨD
= −f t (xi )M −1 (ξ)f (xi ).
∂ωi
(θ − θ)M
b (ξ)(θ − θ)
b ≤ λ,
ΨA [M (ξ)] = Tr M −1 (ξ), ξ ∈ Ξ.
Como Cov(θ)
b ∝ M −1 (ξ), entonces
m
X
Cov(θbj ) ∝ Tr M −1 (ξ),
j=1
16 CAPÍTULO 1. DISEÑO DE EXPERIMENTOS
ΨA es continua en M.
5[Tr M −1 (ξ)] = −M −2 .
Si ΨA es diferenciable
∂ΨA
= −f t (xi )M −2 (ξ)f (xi ).
∂ωi
1
ΨE [M (ξ)] = ξ ∈ Ξ,
λξ
ΨE es continua en M.
m p1
1 X 1 p
Ψp [M (ξ)] = , 0≤p<∞
m i=1 λi
G−optimización
Este criterio consiste en minimizar el mayor de los valores de la
varianza en el espacio de diseño χ. Se dene como:
ΨG es continua en M.
I−optimización
Trata de minimizar el valor esperado de la varianza de la respuesta
predicha sobre χ, de modo que viene denido por:
f (x)f t (x).
P
siendo A= x∈χ
sup d(x, ξ ∗ ) = m.
x∈χ
y
GΨ [M (ξ), M (η)] = FΨ [M (ξ), M (ξ) + M (η)].
La diferenciabilidad de Ψ implica que GΨ sea lineal en su segundo
argumento [Roc72].
1. FΨ [M, M ] = 0, ∀ M ∈ M+
22 CAPÍTULO 1. DISEÑO DE EXPERIMENTOS
Demostración.
1. Es inmediata:
Ψ[(1 − β)M + βM ] − Ψ[M ]
FΨ [M, M ] = lı́m+
β→0 β
Ψ[M ] − Ψ[M ]
= lı́m+ =0
β→0 β
Demostración.
Si Ψ es mínimo en M (ξ ∗ ), entonces
ı́nf FΨ [M (ξ ∗ ), M (ξ)] = 0.
ξ∈Ξ
Demostración.
∗
Debido a que FΨ [M (ξ ), M (ξ)] ≥ 0 para todo ξ ∈ Ξ, eligiendo
ξ = ξ ∗ se concluye pues FΨ [M (ξ ∗ ), M (ξ ∗ )] = 0 (Lema 1.1).
2
Demostración.
Z Z
ı́nf FΦ (ξ, η) = ı́nf FΦ (ξ, ξx )η(dx) ≥ ı́nf ı́nf FΦ (ξ, ξx )η(dx)
η∈Ξ η∈Ξ χ η∈Ξ χ x∈χ
= ı́nf FΦ (ξ, ξx ).
x∈χ
2
Lema 1.4. Si FΦ es lineal, entonces
Sξ∗ ⊆ x ∈ χ : FΦ (ξ ∗ , ξx ) = 0 .
Demostración.
FΦ (ξ ∗ , ξx ) ≥ 0 ∀ x ∈ χ.
Por la linealidad de FΦ se tiene que
Z
∗ ∗
0 = FΦ (ξ , ξ ) = FΦ (ξ ∗ , ξx )ξ ∗ (dx).
χ
∗
Por tanto, como ξ es una medida de probabilidad, la integral an-
terior es cero si
Sξ∗ ⊆ x ∈ χ : FΦ (ξ ∗ , ξx ) = 0 .
Observación 1.6.
26 CAPÍTULO 1. DISEÑO DE EXPERIMENTOS
d
FΦ (ξ, η) = lı́m+ Φ((1 − β)ξ + βη).
β→0 dβ
∂Φ
GΦ (ω, ej ) = .
∂ωj
∂Φ
Denotando por ∂ωi
di =
, por la relación entre la derivada
direccional y la derivada de Gâteaux, tenemos que
∂Φ
FΦ (ξ, η) = FΦ (ω, µ) = GΦ (ω, µ − ω) = (µ − ω)t
∂ω
k
X ∂Φ
= (µi − ωi ) .
i=1
∂ωi
k
X
FΦ (ω, ej ) = dj − ωi di .
i=1
para todo x ∈ χ.
Demostración.
X
FΨ [M (ξ ∗ ), M (ξ)] = ξ(xi )FΨ [M (ξ ∗ ), f (xi )f t (xi )].
i
1. ξ∗ es Ψ−óptimo
ı́nf x∈χ f t (x)5Ψ[M (ξ ∗ )]f (x) = x∈χ f t (x)5Ψ[M (ξ ∗ )]f (x)ξ ∗ (x)
P
3.
m
(0)
X ∂η(x, θ) (0)
E[y(x)] = η(x, θ) = η(x, θ ) + (θi − θi )
i=1
∂θi θ(0)
m
∂ 2 η(x, θ)
1 X (0) (0)
+ (θi − θi )(θj − θj ),
2 i,j=1 ∂θi θj θ(s)
(s) (0)
donde θi está comprendido entre θi y θi , i = 1, . . . , m. Escri-
biendo:
∂η(x, θ)
fei (x) = , i = 1, . . . , m,
∂θi θ(0)
Algoritmos
31
32 CAPÍTULO 2. ALGORITMOS
2.1. Introducción
Observación 2.1.
34 CAPÍTULO 2. ALGORITMOS
1. EfΦ (ξ) ∈ [0, 1]. Cuanto más cerca esté del 1 mejor será la
eciencia. (A menudo la eciencia se expresa en porcentajes).
N ∗ Ψ[M ∗ ] N∗
ρ= = · 1 ⇒ N∗ = ρ · N
N Ψ[M ] N
Cota de la eciencia.
por tanto
ı́nf N FΨ [M, N ]
EfΦ (ξ) ≥ 1 + .
Ψ[M ]
2.1. INTRODUCCIÓN 35
ı́nf N FΨ [M, N ]
EfΦ (ξ) ≥ 1 +
Ψ[M ]
ı́nf x∈χ FΨ [M (ξ), f (x)f t (x)]
= 1+ .
Ψ[M ]
1 1
5(log ΨD [M (ξ)]) = 5 (− log[det M (ξ)]) = − M −1 (ξ).
m m
5ΨD [M (ξ)]
5(log ΨD [M (ξ)]) = ,
ΨD [M (ξ)]
−1
5ΨD [M (ξ)] = M −1 (ξ).
m det[M (ξ)]1/m
1 t −1
= m − f (x)M (ξ)f (x)
m[det M (ξ)]1/m
f t (x)M −1 (ξ)f (x)
−1/m
= [det M (ξ)] 1− .
m
36 CAPÍTULO 2. ALGORITMOS
m
EfΦD (ξ) ≥
máxx d(x, ξ)
Demostración.
máxx d(x, ξ) m
2− ≤ ,
m máxx d(x, ξ)
es decir,
2 2
2 m máx d(x, ξ)− máx d(x, ξ) ≤ m2 ⇔ 0 ≤ m−máx d(x, ξ) .
x x x
2
2.2. ALGORITMO DE WYNN-FEDOROV 37
Cota de Atwood
m
EfΦD (ξ) ≥ . (2.1)
máxx d(x, ξ)
Cota de Kiefer
máxx d(x, ξ)
EfΦD (ξ) ≥ 2 − . (2.2)
m
A continuación se estudiarán dos de los algoritmos más utilizados
en diseño óptimo de experimentos para el cálculo aproximado de
diseños D−óptimos.
Observación 2.2. En lo que resta de capítulo se considerará abu-
sando de notación:
FΨ [M (ξ (n) ), f (xn+1 )f t (xn+1 )] > Ψ[f (xn+1 )f t (xn+1 )] − Ψ[M (ξ (n) )] > 0.
∞
X
lı́m αn+1 = 0, αn+1 = ∞; (2.3)
n→∞
n=0
2.2. ALGORITMO DE WYNN-FEDOROV 39
αn , siΦ((1 − αn )ξ (n) + αn ξ(xn )) < Φ(ξ (n) ),
αn+1 = (2.5)
γαn , en otro caso .
Demostración.
2. Se tiene que
Z
mı́n λ(x)d(x, ξ) ≤ λ(x)d(x, ξ)d(ξ(x)) = m ≤ máx λ(x)d(x, ξ).
x χ x
2
A continuación procederemos a demostrar la convergencia del al-
goritmo. En primer lugar trataremos de dar una expresión del de-
terminante de la matriz de información del diseño en función del
obtenido en el paso anterior. El objetivo será estudiar cómo dar
este paso de modo que, eligiendo el nuevo punto y su peso conve-
nientemente, conseguiremos que la sucesión se comporte de forma
monótona y esté acotada. Comprobando que se llega al diseño ópti-
mo al generar la secuencia de determinantes, lograremos demostrar
la convergencia.
Demostración.
αn+1 λ(xn+1 ) t
det M (ξ (n+1) ) = (1 − αn+1 )m 1 + f (xn+1 )M −1 (ξ (n) )f (xn+1 ) det M (ξ (n) ).
1 − αn+1
m
(n+1) λ(xn+1 )d(xn+1 ,ξ (n) )
máxx,α det M (ξ )= m
m−1
m−1
× λ(xn+1 )d(xn+1 ,ξ(n) )−1 det M (ξ (n) ) > det M (ξ (n) )
Demostración.
con lo que αn+1 > 0. Por otro lado, calculando la derivada segunda
se comprueba fácilmente que
∂2
(n+1)
log[det M (ξ )] < 0.
∂ 2α
αn+1 ,xn+1
2.2. ALGORITMO DE WYNN-FEDOROV 43
m
λ(xn+1 )d(xn+1 ,ξ (n) )
(n+1)
det M (ξ ) = m
αn+1 ,xn+1
m−1
m−1
× λ(xn+1 )d(xn+1 ,ξ(n) )−1 det M (ξ (n) ).
nξ (n) + ξxn+1
ξ (n+1) = (1 − αn+1 )ξ (n) + αn+1 ξxn+1 = .
n+1
Esta longitud de paso se enmarca dentro del grupo de las que ve-
rican (2.3). Aunque la monotonicidad de la función criterio no se
satisface con esta elección, la convergencia del algoritmo está ga-
rantizada.
y su inversa.
3. Se busca el punto x(1) que maximiza la función λ(x)d(x, ξ (0) )
y se calcula su valor en el punto x(1) : λ(x(1) )d(x(1) , ξ (0) ).
4. Se construye el diseño ξ (1) = (1 − α1 )ξ (0) + α1 ξx(1) que estará
formado por los puntos y pesos siguientes:
( )
(0) (0) (0)
(1) x1 x2 ... xk x(1)
ξ = (0) (0) (0)
(1 − α1 )ω1 (1 − α1 )ω2 . . . (1 − α1 )ωk α1
k
X
Ω = {ω : ωi > 0, ωi = 1}.
i=1
(n) (n)
donde dj = dj (ω (n) ) = GΦ (ω (n) , ej ) y zj = zj (ω (n) ) = FΦ (ω (n) , ej ),
j = 1, ..., k , son la derivada de Gâteaux y la derivada direccional
respectivamente. h(x, δ) es una función positiva, ∂h(x, δ)/∂x > 0
y si δ = 0, entonces h(x, δ) es una función constante. Una elección
adecuada de esta función es fundamental para acelerar la conver-
gencia, mientras que la elección de la constante δ debe asegurar la
monotonía del algoritmo.
(n+1) (n)
∂Φ
Obsérvese que ωi ∝ ωi
∂ωi ω=ω (n)
. Luego, la modicación
de los pesos se hará en función de la cantidad de información ga-
nada (medida por Φ) al incrementarse ligeramente cada peso. En
otras palabras, la iteración pondrá más peso sobre los puntos que
proporcionen un mayor incremento de Φ.
Las iteraciones de la forma (2.9) poseen las siguientes propiedades
[Tor88]:
ϕ[M ] es cóncava:
1/2 1/2
4ω = Diag(ω1−1 , . . . , ωk−1 ) ⊗ Im ; G = (A1 , . . . , Ak )t .
Demostración:
Consideremos el modelo
Y = Gθ + ε, ε ∼ N (0, 4ω)
bW LS ) = ϕ[QW LS (4ω)Qt
g(ω, Q W LS ] =
1/2
−1 ω1 A 1
1/2 1/2
= ϕ[M −1 (ω)(ω1 A1 , . . . , ωk Ak )
ω1
.. M −1 (ω)t ]
. 1/2
ωk−1
ωk A k
1/2
ω1 A1
1/2 1/2
= ϕ[M −1 (ω )(A1 , . . . , Ak ) .. (M −1 (ω))t ] =
. 1/2
ωk Ak
Pk
= ϕ[M −1 (ω) · i=1 ωi Ai · M −1 (ω)] =
= ϕ[M −1 (ω) · M (ω) · M −1 (ω)] = ϕ[M −1 (ω)]
Por tanto,
bW LS ) = ϕ[M −1 (ω)]
g(ω, Q (2.15)
Demostración:
2
Para resolver problema 4, volvemos a descomponerlo en dos etapas:
t
Tr[5ϕ[Σ]Q(4ω)Q ] = Tr[Qt 5 ϕ[Σ]Q(4ω))
(n) (n)
Q(n) = (Q1 , . . . , Qk )
(n) (n) 1/2
Qi = ωi · M −1 (ω (n) ) · Ai , i = 1, . . . , k. (que es QW LS )
t
Σ(n) = Q(n) (4ω (n) )Q(n) = M −1 (ω (n) )
Entonces tenemos,
(n+1) rδ · ω 1−2δ
ωi = Pk i δ i 1−2δ
j=1 rj · ωj
k
X 1−δ k 1−δ
ri X ri
≥ ωi
i=1
ωi i=1
ωi2
k
X δ k δ
ri X ri
≥ ωi .
i=1
ωi i=1
ωi2
2.3. ALGORITMO MULTIPLICATIVO 55
k k
X X k
X ri (n) 2δ−1 (n) 1−2δ
(n)
≥ ri1−δ · ωi · δ
ri · ω i =
i=1 ωi i=1 i=1
,
k
! k
X ri X ri
= (n) 1−2δ
= (n+1)
riδ ·ω i
i=1 i=1 ω i
Pk δ (n) 1−2δ
i=1 ri ·ω i
por tanto,
k
(n) t X ri
Tr[(5ϕ[Σ ]) · Q(n) · (4ω (n) )) · Q(n) ) = (n)
≥
i=1 ωi
k
X ri t
≥ (n+1)
= Tr[(5ϕ[Σ(n) ]) · Q(n) · (4ω (n+1) ) · Q(n) ]
i=1 ωi
2
56 CAPÍTULO 2. ALGORITMOS
k
X
d(ω) = ωi di (ω) = Tr[(5Ψ[M (ω)])M (ω)],
i=1
(d) Si M M∗
a medida que Ψ[M ] se
(denida positiva) tiende a
∗
incrementa monótonamente, entonces M es no singular.
(n)
Sea ω generada por una iteración del algoritmo multiplicativo con
(0)
ωi > 0 ∀i. Entonces:
(i) Todos los pesos límite de la sucesión ω (n) son máximos globales
de Ψ[M (ω)] en Ω+ .
(ii) Cuando n → ∞, Ψ[M (ω (n) )] crece a supω∈Ω+ Ψ[M (ω)] monó-
tonamente.
Demostración.
Demostración
∗
Sea ω (nj )
una subsucesión convergente a ω . Por las condiciones (b)
∗ ∗
y (d) se tiene que M (ω ) es denida positiva, es decir, ω ∈ Ω+ .
Además, como T y Ψ[M (·)] son continuas en Ω+ se tiene que
Ψ[M (ω ∗ )] = lı́m Ψ[M (ω (nj ) )] = lı́m Ψ[M (ω (nj +1) )] = Ψ[M (T (ω ∗ ))]
j→∞ j→∞
b ∈ S+ , Ψ[M (b
ω ω ) = M (ω ∗ )
ω )] = supω∈S+ Ψ[M (ω)] ⇒ M (b
Demostración
Demostración
Para cualquier punto límite ω∗ de ω (n) , por ser Ψ[M (·)] continua,
puede pasarse al límite, de modo que cualquier punto límite de
M (ω (n) ) es de la forma M (ω ∗ ). Por el lema anterior, M (ω ∗ ) es el
único que maximiza Ψ[M ] de entre todos las M > 0 que pueden
escribirse de la formaM = M (ω) con ω ω ∗ . Por tanto, de-
∗ k
pendiendo de las coordenadas de ω que son 0, habrá menos de 2
maximizadores degenerados. 2
Demostración
Demostración
(n)
Tr[(5Ψ[M (ω )])A1 ] > (1 + λ) Tr[(5Ψ[M (ω (n) )])M (ω (n) )]
P δ
k
(n+1)
ω1 i=1 ω i di
(n)
> (1 + λ)δ Pk ,
ω1 i=1 ωi dδi
(n)
donde di = Tr[(5Ψ[M (ω )])Ai ].
Sin embargo, el lado derecho de
δ
la desigualdad anterior es al menos (1 + λ) por la desigualdad de
Jensen, de lo que resulta
(n+1) (n)
ω1 > (1 + λ)δ ω1
60 CAPÍTULO 2. ALGORITMOS
Demostración.
U t M1 U t = Diag(a1 , . . . , am ); U t M2 U t = Diag(b1 , . . . , bm ),
m
X m
X m
X
α log(ai ) + (1 − α) log(bi ) ≤ log(αai + (1 − α)bi )
i=1 i=1 i=1
y su inversa.
3. Se calcula la derivada
∂Φ
di (ω (0) ) = = Tr[f t (xi )(5Ψ[M (ω (0) )])f (xi )]
∂ωi
62 CAPÍTULO 2. ALGORITMOS
m
≥ γ1
máxx d(x, ω (1) )
En cuanto a los trabajos de interés que han surgido a raíz del al-
goritmo multiplicativo, pueden destacarse los siguientes: Mandal y
Torsney [Man06] adaptan el algoritmo multiplicativo para agrupar
puntos de diseño, clusters, y mejorar así la eciencia de los diseños
alcanzados, Harman y Pronzato [Har07] estudian métodos para eli-
minar puntos de diseño no óptimos con lo que reducen considera-
blemente la dimensión del problema, Dette et al. [Det08] dan una
variante del algoritmo multiplicativo tomando una longitud de paso
mayor en cada iteración que mantiene la convergencia monótona y
Torsney y Martín [Tor09b] proponen una modicación de éste que
consiste en una aproximación simultánea de puntos y pesos, que
puede utilizarse cuando existen estructuras de correlación entre las
observaciones y cuando se buscan diseños exactos.
(n)
Supongamos que partimos de un diseño no óptimo ξ con matriz
(n)
de información M (ξ ) no singular y pesos pertenecientes a Ω+ .
Supongamos también que el criterio de optimización considerado,Ψ,
(n)
es diferenciable en M (ξ ). El procedimiento puede dividirse en dos
fases:
ξ (n+1)
WF
= (1 − αn+1 )ξ (n) + αn+1 ξxn+1
M (ξ (n+1)
WF
) = (1 − αn+1 )M (ξ (n) ) + αn+1 f (xn+1 )f t (xn+1 ).
Una vez conocido hacia dónde tenemos que movernos para alcanzar
el óptimo, el siguiente paso será determinar la mejor cantidad de
avance. La iteración propuesta por el algoritmo multiplicativo re-
sulta una elección óptima, puesto que la longitud de paso es propor-
cional a la información ganada. Los pesos se actualizarán conforme
a la regla denida en (2.9)
El diseño formado por los puntos del apartado (1) y pesos calculados
(n+1)
siguiendo la fórmula anterior lo denotaremos por ξ . A partir
AM
(n+1)
de él podrá calcularse la matriz de información M (ξ ). AM
(n)
Tras aplicar los procesos (1) y (2) al diseño inicial ξ , resultará
(n+1) (n+1)
otro diseño ξ y su matriz de información M (ξ ) con el que
C C
habremos completado una iteración del algoritmo combinado. A
continuación se evaluará si éste está lo sucientemente próximo al
66 CAPÍTULO 2. ALGORITMOS
2.4.1. Algoritmo
1. Tomamos un diseño inicial regular ξ (0) formado por n
puntos x1 , . . . , xn y pesos ω1(0) , . . . , ωn(0) respectivamente
Pn (0)
i=1 ωi = 1, n ≥ m, ω (0) ∈ Ω+ .
2. Calculamos la matriz de información del diseño ξ (0) ,
n
(0)
X
M (ξ (0) ) = ωi λ(xi )f (xi )f t (xi )
i=1
y su inversa.
2.4. ALGORITMO COMBINADO 67
Demostración.
(n+1) x1 ... xn xn+1
ξC = (n+1) (n+1) (n+1)
ω1 . . . ωn ωn+1
y
(n+1)
1 d(xi , ξW F )
(n+1)
( n+1 ) m
si i=n+1
ωi = (n+1)
(1 − 1 (n) d(xi , ξW F )
n+1
) ωi m
si i 6= n + 1
(n+1)
lı́m ω (n+1) = lı́m ( 1 ) d(xn+1 , ξW F )
=0
n→∞ n→∞ n+1 m
(n+1)
d(xn+1 , ξW F )
puesto que está acotado por 1. La función de sensibi-
m
lidad a lo sumo puede valer m como consecuencia del teorema de
equivalencia (observación 1.5). Por otro lado,
∞ ∞
X X (n+1)
(n+1) d(xn+1 , ξW F )
ω = 1
( n+1 ) =∞
m
n=1 n=1
y su inversa.
3. Determinación de la dirección óptima:
1
α1 = .
n+1
(ii) Se construye el diseño ξW
(1)
F
= (1 − α1 )ξ (0) + α1 ξxn+1
formado por los puntos y pesos siguientes:
(1) x1 ... xn xn+1
ξW F = (0) (0)
ω1 = (1 − α1 )ω1 ... ωn = (1 − α1 )ωn ωn+1 = α1
−1
(1) λ(xi )f t (xi )M (ξ (n+1) )f (xi )
ωi = ωi · n+1 WF
X −1
ωi λ(xi )f t (xi )M (ξ (n+1)
WF
)f (x i )
i=1
m
(1)
≥ γ1
máxx d(x, ξC )
Ejemplos Ilustrativos
Con cada uno de los modelos de este apartado se realizaron varias
pruebas partiendo de diferentes diseños iniciales:
b−a
(0) x1 = a x 2 = a + n−1
. . . xn = b
ξ1 = 1 1 1 ,
n n
... n
m(m+1)
con n= 2
+ 1.
(0) xR
1 xR
2 . . . xR
n
ξ2 = 1 1 1 ,
n n
. . . n
m(m+1)
con n= 2
.
con n = m.
Tabla 2.1 : Resultados para el modelo de regresión lineal con dos pará-
metros η1 (x, θ).
Eficiencia
à
æææææææ
æææææææææ ì ìììììììììììììììììììììììììììììì
ììììììììììììììììììì
à
0.98 æ
ææææææææ ììììììì
ìì
æ ìì
ææææì
æææì ììììììì
0.96
à
æææ ì
ì ìììì
ææì ìì
ææ ìì æ A.M.
0.94 à æììì
æì
æì A.C.
0.92 æì à
ì
æì
0.90 ì
æ ì W-F
ì
0.88 æ
ì
0.86 æ
ì
Iteraciones N˚
20 40 60 80
Eficiencia
àà ææ
æææææææææææ ì ììììììììììì
ììììììììììììììììììììììììììììì
à
0.98 æææææææ ì ìììììììììììììì
à
æææææææ ì
æ ìììì
ììì
æææ ì ìììììì
0.96
à æææì
ææ ì
ì ìììì
æ ì
ìì
æì æ A.M.
ææì
0.94 à æìì
æì
æì à A.C.
0.92 æì
æì
ì ì W-F
0.90 æ
ì
0.88 ì
æ
ì
àæ
0.86
Iteraciones N˚
ì 20 40 60 80 100
Eficiencia
1.00 à
à ææææææ
ææææææ ìììììììììììììììììììììììììììììììììì
à
æææææ ìì
ììì
ìì
ìì
ìììììììììììììììììììì
æ
ææ ì ìììì
ææ ì ììììì
à ææ ì
æ ììì
ì æ
0.95 ì
æ ì
æì ìì
æì
æìì
à A.C.
æì
ì
æì
0.90 ì W-F
æì
àæ
ì
ì
0.85
ì
æ Iteraciones N˚
20 40 60 80 100
Tabla 2.2 : Resultados para el modelo de regresión lineal con tres pará-
metros η2 (x, θ).
Eficiencia
à ì
ææææææ
àà ææææææææææææææææ
æææææì
à
æææææææ
ì
à
ææ
æ ìììììììì
0.95
à ææ ìììììììììììì
æ ìì
ìì ì
0.90
æ ììì A.M.
æ ììì æ
æ ìì
0.85 àà æ ì
ì
à A.C.
ìì
0.80 æ
ìì ì W-F
0.75
æ
Iteraciones N˚
10 20 30 40
Ejemplos Reales
Como mencionábamos anteriormente, los modelos que se muestran
a continuación han sido frecuentemente usados por los experimen-
2.4. ALGORITMO COMBINADO 77
Eficiencia
1.00 àà
àà ææææææææææææ ìì
æææææææææææææææææææ
à
ææææ ììììììììì
0.95 à æ ììììì
ììììììì
æ
ææ ììììì
à ææ ìììì
0.90 æ ììì æ A.M.
æ ììì
à ìì
0.85 æ ì à A.C.
ì
0.80 æì
ì W-F
ì
0.75
ì
à
æ
ì
0.70
Iteraciones N˚
10 20 30 40
Eficiencia
àà ì ì
æææææææææææææ
à ææææææææææææææ
ì ìì ì
ææææææ
ææææ ìì
ææ ììì ìì
0.95
æì ììììììì ì
æ ììììììì
ì
ì ììì
à æ æ A.M.
0.90 æ ì
à ì
æ ì ì ì
à A.C.
0.85 ì
æì ì W-F
ì
0.80
ì
ì
æ
Iteraciones N˚
10 20 30 40
tadores. Es por ello que para estos casos de estudio, se han utilizado
como diseños iniciales una clase de diseños especiales, a los cuales
78 CAPÍTULO 2. ALGORITMOS
νx
η3 (x, θ) = , con χ = [0, 4] y θ = (ν, k).
(k + x)
(0)
ξU = {0, 4/3, 8/3, 4}
(0)
ξA = {0, 8/5, 12/5, 4}
(0)
ξG = {0, 1.41, 2.59, 4}
(0)
ξR = {0.24, 2.19, 2.79, 3.18},
80 CAPÍTULO 2. ALGORITMOS
Algoritmo ξU
(0) (0)
ξA ξG
(0)
ξR
(0)
Eficiencia Eficiencia
1.00 à 1.00 à
àà æææææææææææææììììììììììììììììììììììììììììììììììììììììììììì àà æææææææ ìììììììììììììììììììììììììììììììììììì
0.98 àà ææææææææ ææææææææææ ììì
ææææææ ììììììììììì
ìì 0.98 à æææææææ ìììììììììììììì
æææææìììììììììììì à ææææææìììììììììììììì
æ
à æ
æææ ììì ææ ììììì
æ
ææìììììì ì
æ
æ ì
0.96 0.96 ææ ììì
ææìììì
æ
æ ìì æ æ
ææ ì ææìì
0.94 æ ìì 0.94 àà æìì
æìì æì
æì à A.C. æì à A.C.
0.92 æìì 0.92 æìì
à æì æì
0.90 æì ì W-F 0.90 æì ì W-F
ì ì
æ æ
0.88 ì 0.88 ì
æ àæ
0.86 à ì 0.86 ì
Iteraciones N˚ Iteraciones N˚
æì 20 40 60 80 100 20 40 60 80 100
Eficiencia Eficiencia
1.00 à à ææææææææææææìììììììììììììììììììììììììììììììììììììììììììì
àà ìììì æææææææææ ììì
0.98 à
ææææææ
æææææææææææ
æææææææ ììììììììììììììì
ìììììììììììììììììììììììììììììììììì à
à
ææææææ ììììììììììì
ææææìììììììììììì
à ææææææìììììììììììììì
æ à ææ
æ
æ
æ ìììì
æ
æ ì ì ææ ìì ì
æææ ìììì ææìììì
0.96 à ææ ìììì 0.95
ææìììì æ ææìì
æìì æ A.M.
ææììì æ ì
0.94 æ à æì
æìì
æ ì à A.C. æìì à A.C.
0.92 æìì æì
à
æì 0.90 æì
0.90 à æ
ì ì W-F ì ì W-F
ì æ
æ ì
0.88 ì æì
àæ
0.86 ì 0.85
æì
Iteraciones N˚ Iteraciones N˚
æì 20 40 60 80 100 20 40 60 80 100
(0)
ξU = {0, 4, 8, 12, 16, 20}
(0)
ξA = {0, 60/11, 100/11, 120/11, 160/11, 20}
(0)
ξG = {0, 5.83, 9.07, 10.87, 14.11, 20}
(0)
ξR = {1.61, 1.70, 5.35, 6.27, 7.25, 19.8}.
Algoritmo ξU
(0)
ξA
(0)
ξG
(0)
ξR
(0)
Eficiencia Eficiencia
1.000 àààààààà 1.000 àààààààààà
àà àà
ààà æææææææææææææææææææææ àà
àà æææææææææææææææææææææææææææææææ àà æææææææææææææææææææææææææææææ
æææææææææææææææææææææ àà æææææææææææææææææææææææææææ
à æææææææææææææææ æææææææææææææææææææ
0.999 à ææ
ææ
æ 0.999 à ææææææææææææææ
à æ
æææææææ
ææ
æ
ææææææææææææ
æ
ææææææææ à æ
æ
ææææ
ææ
æ
à æææææææ æææææææ
ææææææ æ A.M. à ææææææ æ A.M
0.998 à ææææ
æ æææææ
ææææ
æ 0.998 à æ
ææææ
æ
à æææ æææ
æ
ææ æææ
ææ à
æææ
0.997 à æææææ à A.C. 0.997 ææ à A.C.
ææ
æ ææ
æ
æ
æ
ææ à ææææ
æææ æ
0.996 à æææ æææ
æ 0.996 ææ
ææ æ
ææ
æææ
æ æ
æ
ææ Iteraciones N˚ à ææææ Iteraciones N˚
à æææ ææ
200 400 600 800 1000 ææ 200 400 600 800 1000
Eficiencia Eficiencia
1.000 àààààààààà 1.000 àààààààààààà
àà ààà
àà àà
àà ææææææææææææææææææææææææ ææææææææææææææææææææææææ
àà æææææææææææææææææææææææææææææ à æææææææææææææææææææææææææææææ
æææææææææææææææææææ ææææææææææææææææææææ
0.999 à
ææ
ææ
æ
ææ
æææææææææææææææ
æ
æ 0.999 à
ææ
ææ
æ
ææ
æææææææææææææææ
æ
æ
à ææææææ
ææææææææ æææææææ
à æææææææ
à æææææææ æ A.M. æææææææ
ææææææ ææææææ æ
0.998 à æææææ
æ 0.998 à ææææææ
æ
ææææ ææææ
æææ æææ
à æææ æææ
ææ à A.C. æææ à A.C.
0.997 æææ 0.997 à ææææ
æææ
æ ææ
à æææ æ
æ
æ ææ
æææ æææ
0.996 æææ 0.996 æææ
æ
æ æ
æ
æ à ææ
à æææææ Iteraciones N˚ æææ Iteraciones N˚
ææ æææ
ææ 200 400 600 800 1000 ææ 200 400 600 800 1000
2.4.5. Conclusiones
Como puede comprobarse en las tablas 2.1-2.4 y grácos 2.1-2.10,
el algoritmo combinado supone una mejora sustancial con respecto
a los algoritmos multiplicativo y Wynn-Federov para el criterio de
D−optimalidad. Se obtuvieron mejores resultados en todos los ca-
sos de estudio, de lo cual se deduce que el buen funcionamiento del
o
algoritmo propuesto es independiente del diseño inicial (n puntos,
localización y pesos) y del modelo elegido.
3.1. Introducción
85
86 CAPÍTULO 3. EXPERIMENTOS CON MEZCLAS
j
{p ∈ S, pi = , 0 ≤ j ≤ m, 1 ≤ i ≤ q}.
m
Fra
Fra
Fra
p2
p2
p2
0.4 0.6 0.4 0.6 0.4 0.6
ctio
ctio
ctio
n
n
ctio
ctio
ctio
n
n
Fra
Fra
Fra
p3
p3
p3
0.6 0.4 0.6 0.4 0.6 0.4
x2 x3 x2 x3 x2 x3
0.2 0.4 0.6 0.8 0.2 0.4 0.6 0.8 0.2 0.4 0.6 0.8
Fraction p1 Fraction p1 Fraction p1
Fra
Fra
p2
p2
0.4 0.6 0.4 0.6
ctio
ctio
n
n
ctio
ctio
n
n
Fra
Fra
p3
p3
0.6 0.4 0.6 0.4
x2 x3 x2 x3
0.2 0.4 0.6 0.8 0.2 0.4 0.6 0.8
Fraction p1 Fraction p1
(i)
las líneas imaginarias que se extienden desde cada (0, ..., 1 , ..., 0)
1 (i) 1
hasta cada (
q−1
, ..., 0 , ..., q−1 ), ∀ i = 1, ..., q . La longitud del eje es
precisamente la mínima de las distancias desde cualquier vértice al
lado opuesto.
1 + (q − 1)4 1 − 4 1 − 4 −1
, , ..., ∈ S, <4<1 ,
q q q q−1
x1
0.2 0.8
Fra
p2
0.4 0.6
ctio
n
ctio
n
Fra
p3
0.6 0.4
0.8 0.2
x2 x3
0.2 0.4 0.6 0.8
Fraction p1
Los modelos polinómicos son por excelencia los modelos más utiliza-
dos en la literatura ya que son sucientemente exibles en multitud
de situaciones prácticas [Don89]. Además, si la supercie de res-
puesta es lo sucientemente suave en una región de S, cualquier
3.3. MODELOS DE MEZCLAS 91
q+n
con =m parámetros, la restricción
n
q
X
pi = 1 (3.2)
i=1
q+n−1 q+n q+n−1
= − .
q−1 n n
más utilizados:
X
ηS1C (p, β) = βi pi (3.3)
1≤i≤q
X X
ηS2C (p, β) = βi pi + βij pi pj (3.4)
1≤i≤q 1≤i<j≤q
X X X
ηS3C (p, β) = βi pi + βij pi pj + δij pi pj (pi − pj )
1≤i≤q 1≤i<j≤q 1≤i<j≤q
X
+ βijk pi pj pk (3.5)
1≤i<k<j≤q
X X X
ηS3E (p, β) = βi pi + βij pi pj + βijk pi pj pk .
1≤i≤q 1≤i<j≤q 1≤i<k<j≤q
(3.6)
De la tabla 3.1 se deduce que los diseños simplex lattice son dise-
ños saturados para esta clase de modelos (el número de parámetros
es igual al número de puntos de diseño). Esta situación permite
establecer fórmulas generales para expresar los parámetros de un
polinomio de orden m y q componentes en función de la respues-
ta observada en los puntos de un diseño {q, m}−simplex lattice
[Sch58].
X
ηH1 (p, α) = α0 + α i pi (3.8)
1≤i≤q−1
α0 = βq , αi = βi − βq ,
q−2 q−1
X X X X
ηH2 (p, α) = α0 + α i pi + αij pi pj + αii p2i
1≤i≤q−1 i=1 j=i+1 1≤i≤q−1
α0 = βq , αi = βi − βq + βiq , (3.9)
q−2 q−1
X X X X
ηH3E (p, α) = α0 + α i pi + αij pi pj + αii p2i
1≤i≤q−1 i=1 j=i+1 1≤i≤q−1
q−2 q−1 q−3 q−2 q−1
X X X X X
+ λij pi pj (pi + pj ) + αijk pi pj pk
i=1 j=i+1 i=1 j=i+1 k=j+1
3.3. MODELOS DE MEZCLAS 95
q
X
ηC1 (p, α) = α0 + αi pi . (3.11)
i=1
donde 4i =
Ppq i − si . En este tipo de modelos suele asumirse que
se verica i=1 αi ti = 0, de 4η(p, α) = αi 4i /(1 −
modo que
ti ). Asumir la condición anterior signica que α0 representa en el
modelo el valor de la respuesta en t, mientras que el cambio en
la respuesta en otro punto cualquier otro punto es 4η(p, α) =
αi 4i /(1 − ti ). El gradiente de t a lo largo de la dirección del
llamado efecto de Cox para pi es αi 4i /(1 − ti ) y mide el cambio
en el valor de la respuesta por unidad de cambio en pi .
q q q
X X X
ηC2 (p, α) = α0 + α i pi + αij pi pj , αij = αji , (3.12)
i=1 i=1 j=1
X
ηB1 (p, β) = βi pi + h1 (p) + ... + hn (p) (3.13)
1≤i≤q
X X
ηB2 (p, β) = βi pi + βij (pi + pj )hij (pi , pj )
1≤i≤q 1≤i<j≤q
+... + β12...q (p1 + ... + pq )h12...q (p1 , ..., pq )(3.14)
pi
h(pi , pj ) = pi +pj
,
h(pi , pj ) = min(pi , pj ).
q
X X 1
ηI1 (p, β) = βi pi + β−i (3.15)
1≤i≤q i=1
pi
q
X X X 1
ηI2C (p, β) = βi pi + βij pi pj + β−i (3.16)
1≤i≤q 1≤i<j≤q i=1
pi
X X X
ηI3C (p, β) = βi pi + βij pi pj + δij pi pj (pi − pj )
1≤i≤q 1≤i<j≤q 1≤i<j≤q
q
X X 1
+ βijk pi pj pk + β−i (3.17)
1≤i<k<j≤q i=1
pi
X X X
ηI3E (p, β) = βi pi + βij pi pj + βijk pi pj pk
1≤i≤q 1≤i<j≤q 1≤i<k<j≤q
q
X 1
+ β−i (3.18)
i=1
pi
1
donde el término en explica el cambio extremo que se produce en
pi
la respuesta cuando el ingrediente i−ésimo se acerca a los bordes
del simplex. Esta clase de modelos están denidos sobre la región
1
SI (δ) = {p ∈ S, pi ≥ δ, 0 ≤ δ ≤ , i = 1, ..., q},
q
X
ηL1 (p, β) = β0 + βi zi
1≤i≤q−1
X X
ηL2 (p, β) = β0 + βi zi + βij zi zj .
1≤i≤q−1 1≤i≤j≤q−1
X
ηL1 (p, β) = β0 + βi log(pi ), (3.19)
1≤i≤q
X X
ηL2 (p, β) = β0 + βi log(pi ) + βij (log(pi ) − log(pj ))2 ,
1≤i≤q 1≤i<j≤q
(3.20)
P
vericando que 1≤i≤q βi = 0. La simetría de las formas anterio-
res implica que todos los términos son independientes del divisor
elegido. Esta clase de modelos no está denida en los puntos de la
frontera del simplex, de modo que la región de diseño será
1
SL (δ) = {p ∈ S, δ ≤ pi /pj ≤ , i, j = 1, ..., q, δ ∈ (0, 1)}.
δ
Chan [Cha88] obtiene los diseños D− y A−óptimos a través de
una nueva versión del teorema general de equivalencia que utiliza
el principio de dualidad. La clase de diseños óptimos obtenidos son
axiales como cabría esperar, pues esta clase de modelos sólo están
denidos en puntos interiores del simplex.
100 CAPÍTULO 3. EXPERIMENTOS CON MEZCLAS
X
ηK1 (p, θ) = pt θ = θi pi (3.21)
1≤i≤q
X
ηK2 (p, θ) = (p ⊗ p)t θ = θij pi pj (3.22)
1≤i≤j≤q
X
ηK3 (p, θ) = (p ⊗ p ⊗ p)t θ = θijk pi pj pk (3.23)
1≤i≤k≤j≤q
X X X
ηV (p, β) = βi pi + βij pi pj + βii p2i ,
1≤i≤q 1≤i<j≤q+r q+1≤i≤q+r
(3.24)
X
βi (C) = βi,m fm (C),
0≤m≤r−1
Por otro lado indicar que el resto de modelos estudiados en esta sec-
ción pueden ser muy útiles en las situaciones especícas que se han
mencionado. Estos modelos los estudiaremos en trabajos futuros.
3.4. DISEÑOS ÓPTIMOS PARA MODELOS DE MEZCLAS 103
107
108 CAPÍTULO 4. ALGORITMOS MEZCLAS
4.1. Introducción
q
X
P = {a = (a1 , ..., aq ) = σ(p1 , ..., pq ), pi = 1, pi ≥ 0, i = 1, ..., q}
i=1
4.2. DISEÑOS DE PERMUTACIÓN 111
N
X
M (p) = f (pi )f t (pi ), (4.1)
i=1
N
X
0
M (p, θ ) = η(pi , θ 0 )η T (pi , θ 0 ), (4.2)
i=1
p∗ = (p∗1 , ..., p∗q ) de modo que Φ(p∗ ) = máxp∈P Φ(p). Para denir
la regla de actualización del algoritmo multiplicativo será necesario
calcular la expresión de la derivada direccional para el criterio de
optimización seleccionado.
q
X ∂M (p)
M (p + βt) ≈ M (p) + β ti
i=1
∂pi
FΦ (p, t) = GΦ (p, t − p)
q
X ∂M (p)
= GΨ M (p), (ti − pi )
i=1
∂pi
q
X ∂M (p)
= FΨ M (p), M (p) + (ti − pi ) .
i=1
∂pi
tiene que
∂M (p)
GΦ (p, ej ) = GΨ M (p), ,
∂pj
q
∂M (p) X ∂M (p)
FΦ (p, ej ) = FΨ M (p), M (p) + − pi .
∂pj i=1
∂pi
q q
∂m−1
ij (p)
∂Ψ[M (p)] X X −1 −1 ∂M (p)
= mij (p) = Tr M (p) ,
∂pr i=1 j=1
∂p r ∂p r
Condiciones de Optimización
En el capítulo 1 vimos que si Φ es convexa (cóncava), un diseño p∗
es óptimo si
FΦ (p∗ , t) ≥ (≤) 0∀t ∈ S,
es decir,
máx FΦ (p∗ , t) ≥ (≤) 0.
t∈S
FΦ (p∗ , ej ) = 0
si pj > 0
(4.4)
FΦ (p∗ , ej ) ≥ (≤) 0 si pj = 0
(n) (n)
(n+1) tj f (zj , δ3 )
tj = q , (4.6)
X (n) (n)
ti f (zi , δ3 )
i=1
donde
p∗j > 0
∗ =0 for
FΦ (p , ej ) =
≤0 for p∗j = 0
rj∗ > 0
=0 for
FΦ (r ∗ , ej ) =
≤0 for rj∗ = 0
t∗j > 0
=0 for
FΦ (t∗ , ej ) =
≤0 for t∗j = 0
se satisfacen simultáneamente.
Algoritmo
1. Introducir q , ξP(0) = {σ(p(0) )}, δ , tol. Sea n = 0.
2. Para cada j = 1, .., q actualizar las proporciones
(n) (n)
(n+1) pj h(xj , δ1 )
pj = q
X (n) (n)
pi h(xi , δ1 )
i=1
donde x(0)
j = FΦD (p
(0)
, ej ) calculado como en (4.3).
Φ(ξi )
f iti = PM , i = 1, ..., M.
j=1 Φ(ξj )
Selección.
i
X i
X
i∗1 = min{i : f its ≥ γ1 } y i∗2 = min{i : f its ≥ γ2 },
s=1 s=1
Algoritmo
1. Introducir M , P (0) = {ξ1 , ..., ξM }, Nelite , Pelite , PC , PM ,
Nmax y tol.
2. Para cada i = 1, .., M , se calcula el fitness
Φ(ξi )
f iti = PM .
j=1 Φ(ξj )
3. Selección
4. Cruce
Sea γ ∼ U (0, 1). Si γ < PC , entonces
4.5. EJEMPLOS NUMÉRICOS 123
Fra
Fra
Fra
p1
p1
p1
0.4 0.6 0.4 0.6 0.4 0.6
ctio
ctio
ctio
n
n
ctio
ctio
ctio
n
n
Fra
Fra
Fra
p3
p3
p3
0.6 0.4 0.6 0.4 0.6 0.4
p1 p2 p1 p2 p1 p2
0.2 0.4 0.6 0.8 0.2 0.4 0.6 0.8 0.2 0.4 0.6 0.8
Fraction p2 Fraction p2 Fraction p2
o
N puntos Algoritmo ΦD [ξ ∗ ] nit t EfΦRD
18 AG 0.2882 2989 595 97
AM 0.2962 14 960 100
3 X
X 3
E[y(p, θ)] = η(p, θ) = Exp Ln(θij )pi pj (4.8)
i=1 j=1
AG - 6p Coetzer y Focke - 6p
p3 p3
Fra
Fra
p1
p1
0.4 0.6 0.4 0.6
ctio
ctio
n
n
ctio
ctio
n
n
Fra
Fra
p3
p3
0.6 0.4 0.6 0.4
p1 p2 p1 p2
0.2 0.4 0.6 0.8 0.2 0.4 0.6 0.8
Fraction p2 Fraction p2
AG - 12p AM - 12p
p3 p3
Fra
p1
p1
0.4 0.6 0.4 0.6
ctio
ctio
n
n
ctio
ctio
n
n
Fra
Fra
p3
p3
0.6 0.4 0.6 0.4
p1 p2 p1 p2
0.2 0.4 0.6 0.8 0.2 0.4 0.6 0.8
Fraction p2 Fraction p2
o
N puntos Algoritmo ΦD [ξ ∗ ] nit t EfΦRD
6 AG 0.3924 65666 22291 100
Coetzer & Focke 0.3525 - - 89.83
AG - 6p ACC - 6p
p1 p3
Fra
3
Fra
p1
n p
c
0.4 0.6 0.4 0.6
ctio
n
tion
ctio
ctio
n
Fra
Fra
p3
p1
0.6 0.4 0.6 0.4
p2 p3 p1 p2
0.2 0.4 0.6 0.8 0.2 0.4 0.6 0.8
Fraction p2 Fraction p2
Fra
Fra
p1
p1
n p
ctio
ctio
ctio
n
n
ctio
ctio
ctio
n
n
n p
Fra
Fra
Fra
p3
p3
1
p2 p3 p1 p2 p1 p2
0.2 0.4 0.6 0.8 0.2 0.4 0.6 0.8 0.2 0.4 0.6 0.8
Fraction p2 Fraction p2 Fraction p2
Figura 4.3 : Diseños D−óptimos calculados con AG, ACC y con el mé-
todo utilizado en [Cho05] para el modelo (4.9).
o
N puntos Algorito ΦD [ξ ∗ ] nit t
6 AG 0.3174 35791 1124
o
N puntos Algoritmo ΦD [ξ ∗ ] nit t EfΦRD
14 AG 1.5130 · 10−6 368 12545 100
4.5.5. Conclusiones
Los métodos numéricos son en la actualidad la única alternativa
viable para resolver problemas DOE para modelos de mezclas debi-
do a la complejidad del planteamiento analítico. La tónica general
134 CAPÍTULO 4. ALGORITMOS MEZCLAS
137
138 CAPÍTULO 5. DISEÑO ROBUSTO
5.1. Introducción
y − A s
d= si A ≤ y ≤ B (5.1)
B−A
d=1 si y ≥ B
d = 0 en otro caso
A = [X 0 X + K/κ2 ]
k
X Z
0
lı́m ξn,i (Yi − f (xi )θ) = (Y − f 0 (x)θ)m(x)dx,
n→∞ χ
i=1
siendo
Y (x) = f 0 (x)θ + ε (5.2)
σε2 −1
mse (θ̂) = M (ξ) + M−1 (ξ) b (ψ, ξ) b0 (ψ, ξ) M−1 (ξ) , (5.7)
n
donde
Z Z
0
M (ξ) = f (x)f (x)m(x)dx, b (ψ, ξ) = f (x)ψ(x)m(x)dx
χ χ
σε2 0 2
mse(Ŷ (x)) = f (x)M−1 (ξ) f (x) + (f 0 (x)M−1 (ξ) b (ψ, ξ)) .
n
(5.8)
2 1/p
σε
σ2 1 + b0 (ψ, ξ) [ M (ξ)]−1 b (ψ, ξ)
LD (ψ, ξ) = 1/p
det mse(ψ, ξ) = ε n
,
n det M (ξ)
Z
LI (ψ, ξ) = mse(Ŷ (x)) =
χ
σε2
Z
= tr(AM−1 (ξ)) + b0 (ψ, ξ) M−1 (ξ) AM−1 (ξ) b (ψ, ξ) + ψ 2 (x)dx.
n χ
τ2
Z Z
2
Ψ= ψ: f (x)ψ(x)dx = 0, ψ (x)dx ≤ ,
χ χ n
donde τ es una constante que dene el radio del vecindario. La
cota sobre ψ es un innitésimo de orden O(n−1 ), que se hace ne-
cesario para un tratamiento asintótico de mse. En otras palabras,
la condición anterior fuerza al sesgo de los estimadores a decrecer
en el mismo orden que el error estándar. Por otro lado, este clase
2
de vecindario L tiene la ventaja de recoger una amplia gama de
respuestas alternativas y generales.
τ
b (ψ, ξ) = b (ψβ , ξ) = √ G(ξ)1/2 β (5.9)
n
siendo
!1/p
1+ ν
1−ν chmax M−1 (ξ)G(ξ)
lD (ξ) = maxLD (ψ, ξ) = (1 − ν) ,
ψβ detM(ξ)
(5.10)
−1 −1
lI (ξ) = maxLI (ψ, ξ) = (1 − ν)tr(AM (ξ)) + νchmax K (ξ) H (ξ) ,
ψβ
(5.11)
τ2
donde se ha denido ν= σε2 +τ 2
. Obsérvese que así formuladas (5.10)
2 2
y (5.11), los diseños calculados únicamente dependerán de τ y σε
a través de ν . De modo que el experimentador debe proporcionar
un valor de esta constante en función de su certidumbre acerca de
los errores debido al sesgo frente a la varianza.
T : [0, 1] −→ [− 21 , 12 ].
p 7−→ p − 21
1 1 0 0 1
f (T (p)) = p − 21 = −1/2 1 0 p = AT f (p)
2 1 2
p −p+ 4
1/4 −1 1 p
1 1 1
η(x,θ̄) = ( θ̄1 + θ̄2 + θ̄12 ) + (θ̄1 − θ̄2 )x − θ̄12 x2 .
2 2 4
De modo que renombrando los parámetros conforme a los términos
i
en x abusando de notación
ˆ = ξ(−x),
ξ(x) ψ̂(x) = ψ(−x).
Demostración.
1 1ˆ 1 1
N (ξs , ψ) = N ( ξ + ξ, ψ) ≤ N (ξ, ψ) + N (ξ, ψ̂).
2 2 2 2
y esta desigualdad implica
1 1
LD (ψ, ξs ) ≤ LD (ψ, ξ) + LD (ψ̂, ξ).
2 2
Puesto que en (5.15) la maximización es sobre Ψs se verica
Para demostrar el enunciado basta con ver que para cualquier di-
seño ξ∈Ξ se verica que
se concluye. 2
∗
Nuestro propósito será hallar el diseño ξ que minimice en Ξs el
máxψ∈Ψ LD (ψ, ξ) y comprobar después la función ψ ∈ Ψ en la
Por tanto,
ˆ ξ)
M (ξ)A( ˆ −1 P = P M (ξ)P 0 P 0 −1 A(ξ)−1 P −1 P = P M (ξ)A(ξ)−1 ,
0
β ∗ = β1∗ 0 β3∗ ⇔ P β∗ = β∗
lo cual implica
Z Z
j
µj = x m(x)dx, κj = xj m2 (x)dx,
S0 S0
1 0 1/12 1 0 µ2
A= 0 1/12 0 , M (ξ) = 0 µ2 0 ,
1/12 0 1/80 µ2 0 µ4
κ0 0 κ2
K (ξ) = 0 κ2 0 .
κ2 0 κ4
−µ2
µ4 0
−1 1 d(ξ)
M (ξ) = 0 µ2
0 ,
d (ξ)
−µ2 0 1
0 −µ2
µ4 κ0 0 κ2
1 d(ξ)
M−1 (ξ) K (ξ) = 0 µ2
0 0 κ2 0
d (ξ)
−µ2 0 1 κ2 0 κ4
µ4 κ0 − µ2 κ2 µ4 κ2 − µ2 κ4
0
1 d(ξ)κ2
= 0 µ2
0 ,
d (ξ)
κ2 − µ2 κ0 0 κ4 − µ2 κ2
1 1 1 1
− 12 µ2 0 80
80
µ2 − 12 µ4
A−1 M (ξ) = 180 0 µ2
15
0
1 1
µ2 − 12 0 µ4 − 12 µ2
2.25 − 15µ2 0 2.25µ2 − 15µ4
= 0 12µ2 0 ,
180µ2 − 15 0 180µ4 − 15µ2
µ4 κ0 −µ2 κ2 µ4 κ2 −µ2 κ4
d(ξ)
0 d(ξ)
κ2
=
0 µ2
0
κ2 −µ2 κ0 κ4 −µ2 κ2
d(ξ)
0 d(ξ)
2.25 − 15µ2 0 2.25µ2 − 15µ4
− 0 12µ2 0
180µ2 − 15 0 180µ4 − 15µ2
θ1 κ0 + θ2 κ2 + θ5 0 θ1 κ2 + θ2 κ4 + θ6
= 0 θ4 κ2 + θ9 0 ,
θ2 κ0 + θ3 κ2 + θ7 0 θ2 κ2 + θ3 κ4 + θ8
5.3. MEZCLAS BINARIAS 155
donde
µ4 µ2 1 1
θ1 = , θ2 = − , θ3 = , θ4 = ,
d (ξ) d (ξ) d (ξ) µ2
θ5 = 15µ2 − 2.25, θ6 = 15µ4 − 2.25µ2 ,
θ7 = 15 − 180µ2 , θ8 = 15µ2 − 180µ4 , θ9 = −12µ2 .
Entonces
!1/p
1+ ν
1−ν
chmáx (M−1 (ξ) G (ξ))
LD (ξ) = (1 − ν)
|M (ξ)|
ν 1/p
1 1−ν
= (1 − ν) + máx {ρ1 (ξ) , ρ2 (ξ)} ,
µ2 d (ξ) µ2 d (ξ)
(5.17)
donde
ρ1 (ξ) = θ4 κ2 + θ9 (5.18)
θ1 κ0 + 2θ2 κ2 + θ3 κ4 + (θ5 + θ8 )
ρ2 (ξ) = +
2
h i2 1/2
(θ1 κ0 +θ5 )−(θ3 κ4 +θ8 )
2
+ (θ1 κ2 + θ2 κ4 + θ6 )(θ2 κ0 + θ3 κ2 + θ7 )
.
donde
κ0 Z 1
κ = κ2 = x2 m2 (x)dx, (5.19)
0
κ4 S x4
156 CAPÍTULO 5. DISEÑO ROBUSTO
θ1
2
θ5 + θ8 θ5 − θ8 2
α0 = , β0 = + θ6 θ7 , α = θ2 ,
2 2 θ3
2
θ1
! θ θ
!
1 2
2
(θ5 −θ8 )+θ2 θ6 1 θ
2 1
θ1 θ2 θ22 − 12 3
β= θ1 θ7 +θ3 θ6 , C= θ1 θ2 2θ1 θ3 θ2 θ3 . (5.20)
θ
− 23 (θ5 −θ8 )+θ2 θ7 2 θ θ
θ22 − 12 3 θ2 θ3 1 2
θ
2 3
1a Estrategia pura
El objetivo será encontrar la densidad minimizante de l1 (ξ) asu-
miendo inicialmente µ2 y µ4 jos. En consecuencia, θi con i = 1, ..., 9
y d(ξ) también serán jos. Este planteamiento permite resolver el
problema de minimización: la densidad buscada depende ahora úni-
camente de los κi (i = 0, 2, 4) puesto que el resto de términos de
l1 (ξ) se añadirán al problema como condiciones de contorno y serán
considerados, por tanto, como constantes. Formalmente, el proble-
ma será Z
m1 = arg min x2 m2 (x)dx
S0
5.3. MEZCLAS BINARIAS 157
sujeto a
Z Z Z
2
m(x)dx = 1, x m(x)dx = µ2 , x4 m(x)dx = µ4 ,
S0 S0 S0
0 ≤ Φ0 (0; λ1 , λ2 , λ3 ) =
Z
= [2x2 (m(x) − m1 (x)) − 2λ1 (m(x) − m1 (x))
S0
− 2λ2 x2 (m(x) − m1 (x)) − 2λ3 x4 (m(x) − m1 (x))]dx
Z
= 2 (m(x) − m1 (x))[{x2 }m1 (x) − {λ1 + λ2 x2 + λ3 x4 }]dx,
S0
d
donde se ha utilizado que m (x)|t=0 = (m(x)−m1 (x)) y
dt (t)
m(0) (x) =
m1 (x). La igualdad se alcanzará precisamente para
+
λ1 + λ2 x2 + λ3 x4
m1 (x; ω 1 ) = , (5.23)
x2
158 CAPÍTULO 5. DISEÑO ROBUSTO
14
l1
l
12 2
10
comparative losses
0
0 0.2 0.4 0.6 0.8 1
ν
2a Estrategia pura
Razonando de manera análoga al caso anterior, hallaremos
p
m1 = arg min ρ2 (ξ) = arg min α0 + α 0 κ + β0 + β 0 κ + κ0 Cκ,
sujeto a
Z Z Z
2
m(x)dx = 1, x m(x)dx = µ2 , x4 m(x)dx = µ4 ,
S0 S0 S0
0 ≤ Φ0 (0; λ1 , λ2 , λ3 ) =
Z 1
1
= (m(x) − m1 (x))[m1 (x){α0 + p β 0 + 2κ0(1) C} x2
S0 2 K(1) x4
− {λ1 + λ2 x2 + λ3 x4 }]dx.
+
a1 + b1 x2 + c1 x4
m1 (x; ω 1 ) = ,
d1 + e1 x2 + f1 x4
K1 = θ1 κ0 + θ5 ,
K2 = θ3 κ4 + θ8 ,
K3 = θ1 κ2 + θ3 κ2 + θ6 ,
K4 = θ2 κ0 + θ3 κ2 + θ7 ,
K = (β0 + β 0 κ + κ0 Cκ)
θ1 1 1 1 θ2
d1 = (1 + √ ( K1 − K2 + K3 )), (5.28)
2 K 2 2 θ1
1
e1 = θ2 + √ (θ3 K3 + θ1 K4 ), (5.29)
2 K
θ3 1 1 1 θ2
f1 = (1 + √ ( K2 − K1 + K4 )). (5.30)
2 K 2 2 θ3
+
a + bx2 + cx4
m(x; ω) = ,
d + x2 + ex4
5.3. MEZCLAS BINARIAS 161
9
l1
8 l2
6
comparative losses
0
0 0.2 0.4 0.6 0.8 1
ν
Minimización sobre Ξ1
sujeto a
Z Z Z
2
m(x)dx = 1, x m(x)dx = µ2 , x4 m(x)dx = µ4 ,
S0 S0 S0
ρ1 (ξ) − ρ2 (ξ) − δ1 = 0,
∀ m(x) ≥ 0 donde δ1 es una variable de holgura. Utilizando el
método variacional (5.21), los multiplicadores de Lagrange y la ex-
presión de los autovalores (5.18) y (5.26), se tiene que la función a
minimizar para t=0 es como sigue
Φ(t;
Z λ1 , λ2 , λ3 , λ4 ) =
= {x2 m2(t) (x) − 2λ1 m(t) (x) − 2λ2 x2 m(t) (x) − 2λ3 x4 m(t) (x)
S 0
q
−λ4 [θ4 x2 m2(t) (x)+θ9 −(α0 +α0 κ(t) + β0 + β 0 κ(t) + κ0 (t) Cκ(t) )]}dx.
donde se ha denotado a1 = λ1 , b1 = λ2 , c1 = λ3 , D1 = λ4 d1 , E1 =
1−λ4 (θ4 −e1 ) y F1 = λ4 f1 , con d1 , e1 y f1 denidas en (5.28), (5.29)
y (5.30) respectivamente. La igualdad se obtiene para la densidad
que se muestra a continuación, dividiendo entre alguna constante
no nula para evitar la sobreparametrización
+
a + bx2 + cx4
m(x; ω) = ,
d + x2 + ex4
con ω = (a, b, c, d, e).
Minimización sobre Ξ2
El problema de minimización es el siguiente
p
m1 = arg min ρ2 (ξ) = arg min α0 + α 0 κ + β0 + β 0 κ + κ0 Cκ,
164 CAPÍTULO 5. DISEÑO ROBUSTO
sujeto a
Z Z Z
2
m(x)dx = 1, x m(x)dx = µ2 , x4 m(x)dx = µ4 ,
S0 S0 S0
ρ2 (ξ) − ρ1 (ξ) − δ2 = 0,
∀ m(x) ≥ 0 donde δ2 es una variable de holgura. Utilizando un
argumento similar al seguido en los casos anteriores se obtiene la
siguiente función a minimizar en t=0
Z q
Φ(t; λ1 , λ2 , λ3 , λ4 ) = {α0 + α0 κ(t) + β0 + β 0 κ(t) + κ0 (t) Cκ(t)
S0
−2λ1 m(t) (x) − 2λ2 x2 m(t) (x) − 2λ3 x4 m(t) (x) − λ4 [α0 + α0 κ(t) +
q
+ β0 + β 0 κ(t) + κ0 (t) Cκ(t) − (θ4 x2 m2(t) (x) + θ9 )]}dx.
donde se ha denotado a1 = λ1 , b1 = λ2 , c1 = λ3 , D1 = d1 (1 −
λ4 ), E 1 = e1 (1 − λ4 ) + θ4 λ4 y F 1 = f1 (1 − λ4 ), con d1 , e1 y f1
denidas en (5.28), (5.29) y (5.30) respectivamente. Y denotando
ω = (a, b, c, d, e), obtenemos nalmente la expresión de la densidad
minimizante +
a + bx2 + cx4
m(x; ω) = . (5.31)
d + x2 + ex4
comparative eigenvalues
20 10
minmax loss
ρ
1
10 ρ2 5
0 0
0 0.5 1 0 0.5 1
(a) (b)
20
ν = 0.01 5 ν = 0.09
m(x)
m(x)
10
0 0
−0.5 0 0.5 −0.5 0 0.5
(c) (d)
2
ν = 0.5 ν = 0.91
m(x)
m(x)
2
1
0 0
−0.5 0 0.5 −0.5 0 0.5
(e) (f)
ν a b c d e l(ξ ∗ )
0.01 0.04081 -150 683.5 0.002549 0.01475 8.109
0.09 0.05028 -15.42 91.56 0.01023 0.1231 8.474
0.5 0.009662 -0.2874 11.19 0.005664 0.1913 5.734
0.91 0.2531 0.9048 33.91 0.2883 26.3 1.136
Tabla 5.1: Constantes que denen las densidades (5.31) para los valores
de ν seleccionados.
uniformemente.
ν p
0.01 0.003 0.008 0.016 0.489 0.497 0.503 0.511 0.984 0.992 0.998
0.09 0.007 0.024 0.048 0.463 0.490 0.510 0.537 0.952 0.976 0.993
0.5 0.022 0.074 0.146 0.291 0.469 0.531 0.708 0.854 0.926 0.978
0.91 0.042 0.130 0.225 0.330 0.443 0.557 0.670 0.775 0.870 0.958
Observación 5.1.
2
SD = {(p1 i , p2 j ) ∈ [0, 1]2 : p1 i + p2 j ≤ 1}
donde
1 1
p1 i = { i, i = 1, ..., k}, p2 j = { j, j = 1, ..., k}
k k
5.4. MEZCLAS DE TRES INGREDIENTES 171
k X
X k−i
A = N −1
f (p1 i , p2 j )f 0 (p1 i , p2 j ),
i=i j=0
k
XXk−i
M (ξ) = ξij f (p1 i , p2 j )f 0 (p1 i , p2 j ),
i=1 j=0
k X
X k−i
K(ξ) = ξij2 f (p1 i , p2 j )f 0 (p1 i , p2 j ),
i=1 j=0
Sea P M
diseños de n puntos aleatoriamente
la población inicial de
2
seleccionados en la región de diseño SD y sean i1 , ..., iM los índi-
ces correspondientes a la posición de los diseños iniciales ξ1 , ..., ξM
ordenados de menor a mayor valor de la pérdida. El valor de la
función tness que se asignará al diseño j−ésimo será
1
f itj = M , j = 1, ..., M.
p X 1
ij · √
k=1
ik
Selección.
Selección elitista. Mantiene los Nelite = Pelite · M diseños de la
actual población con mayor tness para la siguiente, siendo
Pelite la probabilidad de élite establecida.
i
X i
X
i∗1 = min{i : f its ≥ γ1 } y i∗2 = min{i : f its ≥ γ2 },
s=1 s=1
5.4. MEZCLAS DE TRES INGREDIENTES 173
(1) (1)
hijo = max{P1 , P2 }, siendo hijoij = max{ξijP1 , ξijP2 }.
Mutación.
Recuérdese que este operador es el encargado de preservar la bio-
diversidad de las soluciones. Por tanto, debe generar más oportu-
nidades para incorporar nuevas soluciones cuando el algoritmo esté
lejos del óptimo y reducir la biodiversidad en caso contrario. Por
tanto, la operación de cruce se llevará a cabo o no dependiendo de
cierta probabilidad de cruce PM que se actualizará en función del
estado en el que se encuentre el algoritmo:
invariante
PM = PMini (1 − )
invariantetotal
donde PMini es la probabilidad de mutación inicialmente determi-
nada, invariante es el número de iteraciones que el mejor de los
diseños de la actual población ha permanecido sin cambio e inva-
riantetotal es el número de iteraciones prejado que el mejor de los
diseños ha de permanecer invariante para ser considerado óptimo.
Así denida, la probabilidad de mutación irá reduciéndose progre-
sivamente a medida que el algoritmo se vaya acercando al óptimo.
El diseño hijo creado en el paso anterior será sometido a mutación
con probabilidad PM y permanecerá sin cambio con probabilidad
1 − PM . En este trabajo se ha considerado una probabilidad inicial
PMini = 0.1 y el siguiente operador de cruce
ν = 0.01 ν = 0.09
p3 p3
Fra
Fra
2
2
n p
n p
0.4 0.6 0.4 0.6
ctio
ctio
ctio
ctio
n p
n p
Fra
Fra
3
3
0.6 0.4 0.6 0.4
p2 p1 p2 p1
0.2 0.4 0.6 0.8 0.2 0.4 0.6 0.8
Fraction p1 Fraction p1
ν = 0.5 ν = 0.91
p3 p3
Fra
Fra
1
2
n p
n p
0.4 0.6 0.4 0.6
ctio
ctio
ctio
ctio
n p
n p
Fra
Fra
3
3
0.6 0.4 0.6 0.4
p1 p2 p2 p1
0.2 0.4 0.6 0.8 0.2 0.4 0.6 0.8
Fraction p2 Fraction p1
ν = 0.01 ν = 0.09
p3 p3
Fra
Fra
2
2
n p
n p
0.4 0.6 0.4 0.6
ctio
ctio
ctio
ctio
n p
n p
Fra
Fra
3
3
0.6 0.4 0.6 0.4
p2 p1 p2 p1
0.2 0.4 0.6 0.8 0.2 0.4 0.6 0.8
Fraction p1 Fraction p1
ν = 0.5 ν = 0.91
p3 p3
Fra
2
2
n p
n p
0.4 0.6 0.4 0.6
ctio
ctio
ctio
ctio
n p
n p
Fra
Fra
3
3
0.6 0.4 0.6 0.4
p2 p1 p2 p1
0.2 0.4 0.6 0.8 0.2 0.4 0.6 0.8
Fraction p1 Fraction p1
P(p1 ) P(p2 ) ... P(pn/q! )
ξ= ,
ξ1 ξ2 ... ξn/q!
n/q!
X
donde ξi = ξ(a) ∀a ∈ P(pi ), i = 1, .., n/q! y q! · ξi = 1.
i=1
Figura 5.8 : SD2 E = {(p1i , p2j ) ∈ [0, 1]2 : p1i ≥ p2j , p2j ≤ −2p1i + 1}.
tación
k X
X i
µst = ξij ps1i pt2j .
i=0 j=0
ν = 0.01 ν = 0.09
p3 p3
Fra
2
2
n p
n p
0.4 0.6 0.4 0.6
ctio
ctio
ctio
ctio
n p
n p
Fra
Fra
3
3
0.6 0.4 0.6 0.4
p2 p1 p2 p1
0.2 0.4 0.6 0.8 0.2 0.4 0.6 0.8
Fraction p1 Fraction p1
ν = 0.5 ν = 0.91
p3 p3
Fra
2
2
n p
n p
ctio
ctio
ctio
n p
n p
Fra
Fra
3
p2 p1 p2 p1
0.2 0.4 0.6 0.8 0.2 0.4 0.6 0.8
Fraction p1 Fraction p1
ν = 0.01 ν = 0.09
p3 p3
Fra
Fra
2
2
n p
n p
0.4 0.6 0.4 0.6
ctio
ctio
ctio
ctio
n p
n p
Fra
Fra
3
3
0.6 0.4 0.6 0.4
p2 p1 p2 p1
0.2 0.4 0.6 0.8 0.2 0.4 0.6 0.8
Fraction p1 Fraction p1
ν = 0.5 ν = 0.91
p3 p3
Fra
Fra
2
2
n p
n p
0.4 0.6 0.4 0.6
ctio
ctio
ctio
ctio
n p
n p
Fra
Fra
3
3
0.6 0.4 0.6 0.4
p2 p1 p2 p1
0.2 0.4 0.6 0.8 0.2 0.4 0.6 0.8
Fraction p1 Fraction p1
(p1 , p2 , p3 )1 (p2 , p1 , p3 )1 ... (p1 , p2 , p3 )n/2 (p2 , p1 , p3 )n/2
ξ= ,
ξ1 ξ1 ... ξn/2 ξn/2
5.4. MEZCLAS DE TRES INGREDIENTES 181
n/2
X
con 2 · ξi = 1. Los mismos diseños se obtendrían sin pérdida de
i=1
generalidad intercambiando cualesquiera pi y pj , i, j = 1, 2, 3, i 6= j .
Esta propiedad implica geométricamente que los puntos de diseño
se sitúan simétricamente con respecto a una de las medianas del
simplex, la correspondiente a la proporción prejada. De nuevo,
la región de diseño se reduce, aunque no es tan reducida como en
2
el caso anterior. Denotaremos la región de diseño por SD (ver
PE
Figura 5.11).
Figura 5.11 : SD2 P E = {(p1i , p2j ) ∈ [0, 1]2 : p1i ≥ p2j , p1i + p2j ≤ 1}.
ν = 0.01 ν = 0.09
p3 p3
Fra
Fra
2
2
n p
n p
0.4 0.6 0.4 0.6
ctio
ctio
ctio
ctio
n p
n p
Fra
Fra
3
3
0.6 0.4 0.6 0.4
p2 p1 p2 p1
0.2 0.4 0.6 0.8 0.2 0.4 0.6 0.8
Fraction p1 Fraction p1
ν = 0.5 ν = 0.91
p3 p3
Fra
Fra
2
2
n p
n p
0.4 0.6 0.4 0.6
ctio
ctio
ctio
ctio
n p
n p
Fra
Fra
3
3
0.6 0.4 0.6 0.4
p2 p1 p2 p1
0.2 0.4 0.6 0.8 0.2 0.4 0.6 0.8
Fraction p1 Fraction p1
5.4.3. Resultados
En este apartado se compararán rendimientos entre los diseños cal-
culados restringidos y sin restringir, con objeto de orientar al lector
acerca de la estrategia más conveniente para llevar a cabo sus ex-
perimentos. En cada uno de los escenarios en los que se probó el
AG se desarrollaron tres pruebas, de modo que las tablas 5.4.3 y
5.4 recogen la mediana del tiempo de ejecución sobre las tres ac-
tuaciones del algoritmo. En cada prueba se utilizó una población
diferente de diseños iniciales aleatoriamente seleccionados, aunque
la población fue la misma para calcular los DOR, DORI y DORPI
para no favorecer así ninguno de los casos. Los diseños mostrados
en las guras 5.6, 5.7, 5.9, 5.10, 5.12 y 5.13 así como las pérdidas
y el número de iteraciones de las tablas corresponden a la prueba
cuya mediana fue seleccionada. No obstante, los resultados obte-
nidos en cada prueba fueron bastante robustos y no se observaron
5.4. MEZCLAS DE TRES INGREDIENTES 183
ν = 0.01 ν = 0.09
p3 p3
Fra
Fra
2
2
n p
n p
0.4 0.6 0.4 0.6
ctio
ctio
ctio
ctio
n p
n p
Fra
Fra
3
3
0.6 0.4 0.6 0.4
p2 p1 p2 p1
0.2 0.4 0.6 0.8 0.2 0.4 0.6 0.8
Fraction p1 Fraction p1
ν = 0.5 ν = 0.91
p3 p3
Fra
2
2
n p
n p
0.4 0.6 0.4 0.6
ctio
ctio
ctio
ctio
n p
n p
Fra
Fra
3
3
0.6 0.4 0.6 0.4
p2 p1 p2 p1
0.2 0.4 0.6 0.8 0.2 0.4 0.6 0.8
Fraction p1 Fraction p1
D-optimización
I-optimización
0.01 10830 128.1 26.52 6191 61.7 25.47 1367 12.9 26.1
0.09 6242 75.0 24.88 3862 39.5 23.71 1526 14.1 23.83
0.5 14370 177.9 10.94 7614 81.3 10.46 1209 11.2 10.45
0.91 2525 31.7 0.5289 3504 37.4 0.8104 1550 14.8 1.04
Tabla 5.3 : Número de iteraciones (no it.), tiempo de ejecución (en segun-
dos) y valor de la pérdida de los diseños D−óptimos robustos generales,
parcialmente intercambiables e intercambiables (DOR, DORPI y DORI
respectivamente).
0.01 8049 101.0 3.577 5143 61.6 3.49 2047 20.2 3.522
0.09 6628 87.0 3.345 3722 38.6 3.176 1674 16.4 3.239
0.5 12540 164.5 1.812 7900 82.0 1.756 1301 12.6 1.791
0.91 14120 179.0 0.3451 6234 69.9 0.3428 1712 16.9 0.3437
Tabla 5.4 : Número de iteraciones (no it.), tiempo de ejecución (en segun-
dos) y valor de la pérdida de los diseños I−óptimos robustos generales,
parcialmente intercambiables e intercambiables (DOR, DORPI y DORI
respectivamente).
T : [0, 21 ] × [0, 21 ] −→ [− 41 , 14 ] × [− 41 , 14 ].
(p1 , p2 ) 7−→ (x = p1 − 41 , y = p2 − 41 )
2 1 1 1 1
Sea χ = T (SSP E ) = [− 4 , 4 ] × [− 4 , 4 ] la subregión trasladada del
simplex simétrica y parcialmente intercambiable (véase 5.14 ). Los
criterios de D− e I−optimalidad son invariantes por esta clase de
transformaciones [Dae13] de modo que puede considerarse el pro-
blema transformado sin pérdida de generalidad. Somos conscientes
de que son muchas hipótesis las que se deben asumir para alcan-
zar una solución continua con tres ingredientes y considerando el
modelo (5.47). Éste es el precio que debemos pagar por alcanzar
un resultado analítico en este contexto. Heo et al. [GH01] conside-
raron una clase de densidades predeterminadas de la forma mβ (x)
2 2
P
= max(0, j βj fj (x1 , ..., xq )) que dan como resultado diseños simé-
tricos e intercambiables. En este trabajo, además de considerar el
188 CAPÍTULO 5. DISEÑO ROBUSTO
Denotaremos por
Z 1/4 Z 1/4
µst = xs y t m(x, y) dxdy,
−1/4 −1/4
Z 1/4 Z 1/4
κst = xs y t m2 (x, y) dxdy,
−1/4 −1/4
de modo que
1 0 0 µ2 µ2 0
κ0 0 0 κ2 κ2 0
0 µ2 0 0 0 0 0 κ2 0 0 0 0
0 0 µ2 0 0 0 κ0 0 κ2 0 0 0
M (ξ) = , K(ξ) = ,
µ2 0 0 µ4 µ22 0 2 0 0 κ4 κ22 0
µ2 0 0 µ22 µ4 0 κ2 0 0 κ22 κ4 0
0 0 0 0 0 µ22 0 0 0 0 0 κ22
y
1/4 0 0 1/192 1/192 0
0 1/192 0 0 0 0
0 0 1/192 0 0 0
A=
1/192 0 0 1/5120 1/9216 0
.
1/192 0 0 1/9216 1/5120 0
0 0 0 0 0 1/9216
D−optimización
5.4. MEZCLAS DE TRES INGREDIENTES 189
a 0 0 c c 0
0 b 0 0 0 0
0 0 b 0 0 0
M −1 (ξ)G(ξ) = M −1 (ξ)K(ξ) − A−1 M (ξ) =
d
,
0 0 e f 0
d 0 0 f e 0
0 0 0 0 0 g
(5.35)
donde se ha denido
a = θ1 κ0 + θ2 κ2 + θ9 e = θ3 κ2 + θ6 κ4 + θ7 κ22 + θ13
b = θ5 κ2 + θ11 f = θ3 κ2 + θ7 κ4 + θ6 κ22 + θ14
,
c = θ1 κ2 + θ3 (κ4 + κ22 ) + θ10 g = θ8 κ22 + θ15
d = θ3 κ0 + θ4 κ2 + θ12
en términos de
1 1 1
θ1 = (µ22 + µ4 ), θ2 = (−2µ2 ), θ3 = (−µ2 ),
d(ξ) d(ξ) d(ξ)
1 1 (µ4 − µ22 ) (µ2 − µ22 ) 1
θ4 = , θ5 = , θ6 = , θ7 = 2 , θ8 = ,
d(ξ) µ2 d(ξ) · c(ξ) d(ξ) · c(ξ) µ22
θ9 = 480µ2 − 14, θ10 = 240µ22 − 14µ2 + 240µ4 , θ11 = −192µ2 ,
1
θ4 = , θ13 = 240µ2 − 11520µ4 , θ14 = 240µ2 − 11520µ22 ,
d(ξ)
ρ2 (ξ) = g = β0 + β 0 κ, (5.37)
ρ3 (ξ) = e − f = γ0 + γ 0 κ, (5.38)
q
a + e + f + (e + f − a)2 + 8cd
ρ4 (ξ) =
√ 2
δ0 + δ 0 κ + ω0 + ω 0 κ + κ0 Cκ
= , (5.39)
q2
a + e + f − (e + f − a)2 + 8cd
ρ5 (ξ) =
√ 2
δ0 + δ 0 κ − ω0 + ω 0 κ + κ0 Cκ
= , (5.40)
2
donde
κ0 Z 1/4 Z 1/4 1
κ2 x2 2
κ=
κ4 =
4
x
m (x, y)dxdy,
(5.41)
−1/4 −1/4
κ22 x2 y 2
y α0 , β0 , γ0 , δ0 , ω0 , α4x1 , β 4x1 , γ 4x1 , δ 4x1 y C4x4 únicamente de-
penden del diseño por medio de µ2 , µ4 , µ22 . De aquí en adelante se
omitirá ρ5 (ξ) ya que éste es menor que ρ4 (ξ) y nuestro interés resi-
de en identicar el máximo autovalor para el cálculo de la perdida.
Recapitulando, el objetivo será encontrar la densidad m(x, y) que
minimiza la pérdida (5.10) para máx {ρ1 (ξ), ρ2 (ξ), ρ3 (ξ), ρ4 (ξ)} ba-
jo las condiciones de contorno µst . Las expresiones de las constantes
y las matrices anteriores en términos de los θi son precisamente
α0 = θ11 , β0 = θ15 , γ0 = θ13 − θ14 , δ0 = θ9 + θ13 + θ14 ,
ω0 = (θ9 + θ13 + θ14 )2 + 8θ10 θ12 , α0 = (0 θ5 0 0), β 0 = (0 0 0 θ8 ),
γ 0 = (0 0 θ6 − θ7 θ7 − θ6 ), δ 0 = (θ1 2θ3 + θ2 θ6 + θ7 θ6 + θ7 )
−2θ1 (θ9 +θ13 −θ9 )+8θ3 θ10
!0
2θ3 (θ13 +θ14 −2θ9 )−2θ2 (θ13 +θ14 −θ9 )+8θ1 θ12 +8θ4 θ10
ω0 = 2θ6 θ13 +2θ7 θ14 −2θ9 (θ6 +θ7 )+8θ3 θ12 ,
2θ6 θ14 +2θ7 θ13 −2θ9 (θ6 +θ7 )+8θ3 θ12
5.4. MEZCLAS DE TRES INGREDIENTES 191
C =
θ12 θ1 (θ2 +2θ3 ) 4θ3 −θ1 (θ6 +θ7 ) 4θ3 −θ1 (θ6 +θ7 )
2 2
1 2 +2θ3 ) θ2 +2θ3 −4θ2 θ3 +8θ1 θ4 (θ3 −θ2 )(θ26 +θ27 )+θ3 θ4 (θ3 −θ2 )(θ6 +θ7 )+θ3 θ4
θ (θ .
4θ3 −θ1 (θ6 +θ7 ) (θ3 −θ2 )(θ6 +θ7 )+θ3 θ4 θ6 +θ7 2θ7 θ6
4θ3 −θ1 (θ6 +θ7 ) (θ3 −θ2 )(θ6 +θ7 )+θ3 θ4 2θ7 θ6 θ62 +θ72
Vamos a denir
ν 1/p
1 + 1−ν · ρi (ξ)
li (ξ) = (1 − ν) 2
,
µ2 · µ22 · c(ξ) · d(ξ)
sujeto a
ρt1 (ξ) = b = α0 + α0 κt ,
ρt2 (ξ) = g = β0 + β 0 κt ,
ρt3 (ξ) = e − f = γ0 + γ 0 κt ,
q
t
a + e + f + (e + f − a)2 + 8cd
ρ4 (ξ) =
0
p 2
δ0 + δ κt + ω0 + ω 0 κt + κ0t Cκt
= ,
2
siendo
κt0 Z 1/4 Z 1/4 1
κt2 x2 2
κt4 =
κt = 4
x
mt (x, y)dxdy.
−1/4 −1/4
κt22 x2 y 2
Φ(t; λ1 , λ2 , λ3 , λ4 , λ5 , λ6 , λ7 ) =
Z 1/4 Z 1/4 ρt (ξ)−2λ1 mt (x,y)−2λ2 x2 mt (x,y)−2λ3 x4 m(x,y)
1
= −2λ4 x2 y 2 mt (x,y)−2λ5 [ρt1 (ξ)−ρt2 (ξ)] dxdy
−1/4 −1/4 −2λ6 [ρt1 (ξ)−ρt3 (ξ)]−2λ7 [ρt1 (ξ)−ρt4 (ξ)]
0 ≤ Φ0 (0; λ1 , λ2 , λ3 , λ4 , λ5 , λ6 , λ7 ) =
Z 1/4 Z 1/4
[{e1 +f1 (x2 +y 2 )+g1 (x4 +y 4 )+h1 x2 y 2 }m1 (x,y)−
=2 {a1 +b1 (x2 +y 2 )+c1 (x4 +y 4 )+d1 x2 y 2 }]·(m1 (x,y)−m(x,y))
dxdy
−1/4 −1/4
5.4. MEZCLAS DE TRES INGREDIENTES 193
λ2 λ3
a1 = λ 1 , b 1 = , c1 = , d1 = λ4
2 2
y
λ7 1
e1 = [θ1 + √ (ω1 + 2K1 )],
2 2 K
θ5 λ7 1
f1 = (1 − λ5 − λ6 − λ7 ) + [2θ3 + θ2 + √ (ω2 + 2K2 )],
2 4 2 K
λ6 λ7 1
g1 = (θ6 − θ7 ) + [θ6 + θ7 + √ (ω3 + 2K3 )],
2 4 2 K
λ7 1
h1 = λ5 θ8 + λ6 (θ6 − θ7 ) + [θ6 + θ7 + √ (ω4 + 2K4 )].
2 2 K
Por tanto, la densidad minimizante buscada m1 (x, y) es de la forma
+
a1 + b1 (x2 + y 2 ) + c1 (x4 + y 4 ) + d1 x2 y 2
m1 (x, y) = , (5.42)
e1 + f1 (x2 + y 2 ) + g1 (x4 + y 4 ) + h1 x2 y 2
200 120
ρ
1
180
ρ2
100
160 ρ
3
ρ4
comparative eigenvalues
140
80
120
minmax loss
100 60
80
40
60
40
20
20
0 0
0 0.5 1 0 0.5 1
(a) (b)
2
de diseño T (SSP E ); mientras que el reparto de observaciones es uni-
forme prácticamente cuando se considera el sesgo (obsérvese que la
densidad para ν = 0.91 oscila entre 3.9 y 4.7). La tabla 5.5 contiene
los valores de las constantes que se obtuvieron numéricamente para
obtener las densidades óptimas de la gura 5.16. El código QR de
la gura 5.17 muestra una animación gráca de la evolución de la
densidad óptima a medida que aumenta ν.
ν = 0.01 ν = 0.09
ν = 0.5 ν = 0.91
ν a b c d e f g
Tabla 5.5 : Valor de las constantes que generan las densidades (5.43) y
se muestran en la gura 5.16.
ν aumenta.
0 0
y
−0.1 −0.1
−0.2 −0.2
−0.2 −0.1 0 0.1 0.2 −0.2 −0.1 0 0.1 0.2
x x
0 0
y
−0.1 −0.1
−0.2 −0.2
−0.2 −0.1 0 0.1 0.2 −0.2 −0.1 0 0.1 0.2
x x
I-optimización
ν = 0.01 ν = 0.09
p3 p3
Fra
Fra
2
2
n p
n p
0.4 0.6 0.4 0.6
ctio
ctio
ctio
ctio
n p
n p
Fra
Fra
3
3
0.6 0.4 0.6 0.4
p2 p1 p2 p1
0.2 0.4 0.6 0.8 0.2 0.4 0.6 0.8
Fraction p1 Fraction p1
ν = 0.5 ν = 0.91
p3 p3
Fra
Fra
2
2
n p
n p
0.4 0.6 0.4 0.6
ctio
ctio
ctio
ctio
n p
n p
Fra
Fra
3
3
0.6 0.4 0.6 0.4
p2 p1 p2 p1
0.2 0.4 0.6 0.8 0.2 0.4 0.6 0.8
Fraction p1 Fraction p1
a = θ1 κ0 + θ2 κ2 e = θ6 κ2 + θ7 κ4 + θ8 κ22
b = θ5 κ2 f = θ6 κ2 + θ8 κ4 + θ7 κ22
,
c = θ3 κ0 + θ4 κ2 g = θ9 κ22
d = θ1 κ2 + θ3 (κ4 + κ22 )
siendo, como antes, θ1 , ..., θ9 funciones no lineales de µ2 , µ 4 y µ22 .
La expresiones algebraicas de los autovalores tienen la forma (1.36)-
5.4. MEZCLAS DE TRES INGREDIENTES 199
α0 = (0 θ5 0 0), β 0 = (0 0 0 θ9 ), γ 0 = (0 0 θ7 − θ8 θ8 − θ7 )
δ 0 = (θ1 θ2 + 2θ6 θ7 + θ8 θ7 + θ8 )
yC =
θ12 4θ32 −θ1 (θ7 +θ8 ) 4θ32 −θ1 (θ7 +θ8 )
θ1 (4θ3 −2θ6 +θ2 )
2
θ1 (4θ 3 −2θ6 +θ2 ) (2θ6 −θ2 ) +8θ1 θ4 4θ3 θ4 +(2θ6 −θ2 )(θ7 +θ8 ) 4θ3 θ4 +(2θ6 −θ2 )(θ7 +θ8 )
4θ32 −θ1 (θ7 +θ8 ) 4θ3 θ4 +(2θ6 −θ2 )(θ7 +θ8 ) (θ7 +θ8 )2 (θ7 +θ8 )2
2
2
4θ3 −θ1 (θ7 +θ8 ) 4θ3 θ4 +(2θ6 −θ2 )(θ7 +θ8 ) (θ7 +θ8 ) (θ7 +θ8 )2
Sea
+
a + b(x2 + y 2 ) + c(x4 + y 4 ) + dx2 y 2
m (x, y; ω) = . (5.46)
e + (x2 + y 2 ) + f (x4 + y 4 ) + gx2 y 2
16 1.25
ρ1
14 ρ2
1.2
ρ3
12 ρ4
comparative eigenvalues
1.15
10
minmax loss
8 1.1
6
1.05
1
2
0 0.95
0 0.5 1 0 0.5 1
(a) (b)
ν a b c d e f g
Tabla 5.6: Valor de las constantes que generan las densidades (5.46) y
ν = 0.01 ν = 0.09
ν = 0.5 ν = 0.91
ν aumenta.
0 0
y
y
−0.1 −0.1
−0.2 −0.2
−0.2 −0.1 0 0.1 0.2 −0.2 −0.1 0 0.1 0.2
x x
0 0
y
−0.1 −0.1
−0.2 −0.2
−0.2 −0.1 0 0.1 0.2 −0.2 −0.1 0 0.1 0.2
x x
ν = 0.01 ν = 0.09
p3 p3
Fra
Fra
2
2
n p
n p
0.4 0.6 0.4 0.6
ctio
ctio
ctio
ctio
n p
n p
Fra
Fra
3
3
0.6 0.4 0.6 0.4
p2 p1 p2 p1
0.2 0.4 0.6 0.8 0.2 0.4 0.6 0.8
Fraction p1 Fraction p1
ν = 0.5 ν = 0.91
p3 p3
Fra
2
2
n p
n p
0.4 0.6 0.4 0.6
ctio
ctio
ctio
ctio
n p
n p
Fra
Fra
3
3
0.6 0.4 0.6 0.4
p2 p1 p2 p1
0.2 0.4 0.6 0.8 0.2 0.4 0.6 0.8
Fraction p1 Fraction p1
D−DORSPI I−DORSPI
ν minloss minloss
ν = 0.01 ν = 0.09
p3 p3
Fra
Fra
2
2
n p
n p
0.4 0.6 0.4 0.6
ctio
ctio
ctio
ctio
n p
n p
Fra
Fra
3
3
0.6 0.4 0.6 0.4
p2 p1 p2 p1
0.2 0.4 0.6 0.8 0.2 0.4 0.6 0.8
Fraction p1 Fraction p1
ν = 0.3 ν = 0.5
p3 p3
Fra
Fra
2
2
n p
n p
0.4 0.6 0.4 0.6
ctio
ctio
ctio
ctio
n p
n p
Fra
Fra
3
3
0.6 0.4 0.6 0.4
p2 p1 p2 p1
0.2 0.4 0.6 0.8 0.2 0.4 0.6 0.8
Fraction p1 Fraction p1
ν = 0.7 ν = 0.91
p3 p3
Fra
Fra
2
2
n p
n p
0.4 0.6 0.4 0.6
ctio
ctio
ctio
ctio
n p
n p
Fra
Fra
3
3
0.6 0.4 0.6 0.4
p2 p1 p2 p1
0.2 0.4 0.6 0.8 0.2 0.4 0.6 0.8
Fraction p1 Fraction p1
los experimentadores.
o
ν n it minloss
5.6. Conclusiones
Una de las críticas más fuertes que recibe el diseño óptimo de experi-
mentos es la elección de un modelo en una etapa en la que aún no se
han recogido observaciones. En muchas situaciones, los experimen-
tadores desconocen la relación exacta entre variables controlables
y respuesta, y los diseños óptimos dependen fuertemente de esta
elección. Los experimentos con mezclas se enfrentan con frecuencia
5.6. CONCLUSIONES 213
a esta situación, pues las complejas condiciones bajo las que se rea-
lizan los ensayos provocan desviaciones en la respuesta considerada.
Para reducir esta dependencia, en este capítulo se proponen estra-
tegias de construcción de los diseños óptimos cuando la respuesta
varía en un vecindario del modelo considerado.
que pude ser un rasgo del diseño interesante para los experimenta-
dores. Por otro lado, la intercambiabilidad puede ser una condición
muy estricta en los casos en los que no se mantiene esta propiedad,
de modo que se consideraron también otra clase de diseños más
exibles que son los diseños parcialmente intercambiables.
Conclusiones e investigación
futura
6.1. Conclusiones
217
218 CAPÍTULO 6. CONCLUSIONES E INVESTIGACIÓN FUTURA
0 < Lj ≤ pj ≤ Uj < 1.
1
A= [(I N |0N ) − (0N |I N )]
Uj − Lj
227
228 BIBLIOGRAFÍA
[Box] G.E.P. Box and N.R. Draper. A basis for the selection of
a response surface design.
[Cha88] L.Y. Chan. Optimal design for a linear log contrast mo-
del for experiments with mixtures. Journal of Statistical
Planning and Inference, 20:105113, 1988.
[Cha94] L.Y. Chan and Y.N. Guan. Design in mixture models with
inverse terms for two components. Private comunication,
1994.
[Cha98a] Guan Y.N. Chan, L.Y. and Zhang C.Q. a−optimal design
for an additive quadratic misture model. Statistica Sinica,
8(3):979990, 1998.
[Cha98b] Meng J.H. Jiang Y.C. Chan, L.Y. and Y.N. Guan. D-
optimal axial designs for quadratic and cubic additive
mixture models. Australian and New Zealand Journal of
Statistics, 40(3):359371, 1998.
[Coe10] R.L.J. Coetzer and W.W. Focke. Optimal designs for es-
timating the parameters in weighted power-mean-mixture
models. Chemometrics, (24):3442, 2010.
[Fid02] J. Lopez Fidalgo and W.K. Wong. Design issues for the
michaelis-menten model. J. theor. Biol, 215:111, 2002.
[Jer12] Z. Jerirani, B.M. Jan, B.S. Ali, I.S. Noor, S.C. Hwa, and
W. Saphanuchart. The optimal mixture design of expe-
riments: Alternative method in optimizing the aqueous
phase composition of a microemulsion. Chemometrics,
(112):17, 2012.
[Pie85] G.F. Piepel and J.A. Cornell. Models for mixture expe-
roments when the response depends on the total amount.
Technometrics, 27(3):219227, 1985.
[Wan12] W. Wang, R.B. Chen, C.C. Huang, and W.K. Wong. Par-
ticle swarm optimization techniques for nding optimal
mixture designs. Technique report, 2012.