Documentos de Académico
Documentos de Profesional
Documentos de Cultura
SEP TNM
TRABAJO DE TESIS
Presentado por
AURELIO ALEJANDRO SANTIAGO PINEDA
Para Obtener el Grado de
DOCTOR EN CIENCIAS EN COMPUTACIÓN
Director de Tesis
DR. HÉCTOR JOAQUÍN FRAIRE HUACUJA
Co-Director de Tesis
DR. BERNABÉ DORRONSORO DÍAZ
Tijuana, BC, Marzo, 2018
3
Declaración de originalidad
Resumen
Índice general
1. Introducción 10
1.1. Problema de investigación . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2. Motivación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3. Objetivos de la tesis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.3.1. Objetivo general . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.3.2. Objetivos especı́ficos . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.4. Estructura de la tesis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
Bibliografı́a 76
10
Capı́tulo 1
Introducción
1.2. Motivación
Los métodos de optimización multiobjetivo utilizando algoritmos metaheurı́sticos
han sido exitosamente aplicados a problemas de 2 o 3 objetivos, sin embargo, es de
amplio conocimiento en la comunidad cientı́fica que a partir de 3 objetivos se utilizan 2
métodos para garantizar una buena diversidad de soluciones, la descomposición multi-
objetivo [Santiago et al., 2014] y las contribuciones al HV [Beume et al., 2007b]. Ambos
12
Capı́tulo 2
100
constante
logarítmico
sublineal
80 n log(n)
cuadrático
polinomial
Tiempo de ejecución
factorial
60
40
20
0
0 20 40 60 80 100
Tamaño (n) de datos de entrada
no.
2.2.2. Clase P
La Clase P es el conjunto de problemas de decisión que pueden ser resueltos en
tiempo polinomial con un algoritmo determinista [Sipser, 2006]. Estos problemas se
considera que son fáciles de resolver y se les denomina tratables. Para probar que
un problema de decisión es tratable, basta construir un algoritmo determinista que
encuentre su solución óptima. Probar que un problema es intratable es una tarea mucho
más compleja, se tiene que probar que no existe un algoritmo determinista de tiempo
polinomial que lo resuelva.
2.2.3. Clase NP
La clase NP es el conjunto de todos los problemas de decisión que se pueden verificar
en tiempo polinomial con un algoritmo no determinista. Por verificar se entiende que
se pueda generar en tiempo polinomial una solución candidata con un algoritmo no
determinista y que se pueda comprobar si es solución o no en tiempo polinomial con
un algoritmo determinista [Sipser, 2006].
Para la reducción es necesario definir una transformación, donde las instancias del
problema B cuya respuesta es si se transforman a una instancia del problema A ∈
NP-Completo, donde la respuesta es también sı́, y viceversa. Los problemas de esta
clase se consideran los más difı́ciles de la clase NP, ya que para probar que P=NP serı́a
suficiente probar que es tratable uno solo de los problemas de NP-Completo.
Una técnica que busca buenas soluciones con un tiempo de computación razonable
sin garantizar la optimalidad [Reeves, 1993]
Algoritmo Genético
Los algoritmos genéticos son una clase particular de algoritmo evolutivo, introduci-
dos por Holland [Holland, 1992]. Los algoritmos genéticos utilizan tres operaciones prin-
cipales de reproducción: selección, cruza y mutación [Abraham Duarte Muñoz, 2010].
19
Selección: mecanismo probabilista que favorece a los individuos más aptos tener
descendencia.
Cruza: intercambio de información entre dos individuos o más para generar des-
cendencia.
2.5. Conclusiones
Este capı́tulo ha introducido los conceptos básicos relacionados con la optimización
mono y multiobjetivo. Se han abordado los principios teóricos de la complejidad compu-
tacional, los cuales fundamentan el uso de métodos metaheurı́sticos para problemas de
optimización. Se ha analizado brevemente la relación entre los problemas NP-completo
y la optimización multiobjetivo, aunque no existe una teorı́a firmemente aceptada por
la comunidad. Sin embargo, cuando uno de los objetivos a optimizar es NP-Duro el uso
de métodos metaheurı́sticos queda justificado.
En optimización multiobjetivo muchos bancos de prueba se encuentran dentro del
dominio de problemas continuos, los cuales se conocen empı́ricamente como problemas
altamente difı́ciles de resolver. Por lo tanto, el uso de los métodos de optimización
multiobjetivo evolutivos suelen ser la primera elección. Está fuera del alcance de este
trabajo el análisis teórico NP-completo de los problemas de optimización evaluados.
No obstante, es necesario conocer la fundamentación conceptual del por qué se utilizan
estos métodos, ya que son la principal área de investigación del proyecto de tesis.
21
Capı́tulo 3
Optimización
Multiobjetivo
u * ,
Sin articulación Articulación de Articulación de Articulación de
de preferencias preferencias a priori preferencias a posteriori preferencias progresivas
Formulación Min-Max
El método min-max busca minimizar el máximo valor objetivo encontrado, no ga-
rantiza un óptimo de Pareto[Marler and Arora, 2004]. La formulación básica min-max
es la siguiente:
Arbitraje de Nash
El esquema de arbitraje de Nash fue desarrollado en la teorı́a de juegos basado en
los axiomas de equidad de Davis [Davis, 1997], Nash sugiere que la solución al problema
de arbitraje sobre un espacio de soluciones convexo es el producto de la utilidad de los
jugadores [Nash, 1950]; la utilidad U siempre es positiva y tiene valor 0 en caso de no
cooperación (cuando no se llega a un acuerdo). El método se formula en [Straffin, 1993]
de la siguiente manera:
k
Y
Maximizar U= [si − fi (~x)] (3.3)
i=1
Método de Rao
Los trabajos de Rao y Freiheit [Rao, 1987], [Rao and Freiheit, 1991] involucran un
método de criterio global multiplicativo con un método de preferencias a priori que
genere un óptimo de Pareto, consta de dos fases la primera optimizar el súper criterio
su siguiente:
k
Y
Minimizar su = [1 − finorm (~x)] (3.4)
i=1
Donde finorm es la función normalizada del objetivo i, con valores entre 0 y 1 tal
que finorm = 1 es el peor valor posible (máximo). La siguiente fase utiliza cualquier
función de optimización con ponderación f a (preferencias a priori). Entonces la nueva
función objetivo se forma de la siguiente manera:
Minimizar f a − su (3.5)
El trabajo de Cheng y Lie sugiere que el uso de f a es innecesario [Cheng and Li, 1996].
23
1 Lógica difusa
Articulación de / Método lexicográfico
preferencias a priori -
Programación por metas
+ Función objetivo delimitada
+ Programación fı́sica
Enfoques ponderados
Los enfoques ponderados también conocidos como: métodos de ponderación/pesos,
funciones de utilidad y funciones de agregación son una forma de optimización con pre-
ferencias en multiobjetivo, la idea es similar a los métodos de criterio global al formar
una unión de funciones objetivo pero la aportación de cada fi está dada por su peso
wi , con wi = 1 para 100 % de aportación y wi = 0 para 0 %.
El método de ponderación más utilizado es la suma de pesos [Marler and Arora, 2004],
es de notarse que es equivalente a los de suma exponencial cuando el exponente utili-
zado es 1, un exponente mayor permite una búsqueda más exhaustiva.
Otra variante de este método es Tchebycheff lexicográfico [Tind and Wiecek, 1999]
en el que se optimiza en 2 fases primero se utiliza Tchebycheff minimizando la restric-
ción [Marler and Arora, 2004] λ hasta llegar a una solución óptima para λ, después se
minimiza la solución encontrada utilizando el método de suma de pesos con programa-
ción compromiso garantizando un óptimo de Pareto.
Cuando existen diferentes órdenes de magnitudes entre las funciones objetivo y tie-
24
nen una aportación igual o similar se pueden encontrar problemas en que las funciones
de mayor magnitud aporten mucho más, para evitar este problema se desarrolló el méto-
do del producto ponderado o producto de potencias [Bridgman, 1922]. Los métodos de
ponderación anteriormente descritos se encuentran en la siguiente tabla:
Lógica difusa
A diferencia de la lógica binaria donde una sentencia solo puede ser verdadera o
falsa, la lógica difusa usa una función de membresı́a µ. Esta define el grado de veracidad
de la sentencia con valores entre 0 y 1. Si µ = 0 la sentencia es falsa y verdadera si
µ = 1 [Andersson, 2000]. Un usuario o tomador de decisiones define el significado de
este rango de aceptación. En un problema multiobjetivo la función de membresı́a asocia
un valor normalizado de µi (fi ), que expresa el grado de satisfacción para el objetivo i
en el rango de {0, 1} ver (Figura 3.4).
25
µO
1.0
0.75
0.50
0.25
0 " / f1
O O O O O
70 80 90 100 110
Después que los objetivos han sido fuzzificados estos valores se utilizan en un méto-
do de pesos/agregación para simular el operador binario AND, los más comunes son
el operador min Ecuación 3.6 y el operador de producto Ecuación 3.7 formulados a
continuación:
k
Y
Ff uzzy = µi (fi (~x)) (3.7)
i=1
Método lexicográfico
En el método lexicográfico las funciones objetivo están dispuestas en orden de im-
portancia [Marler and Arora, 2004], intentando optimizar los objetivos en ese orden
siempre y cuando no perjudique objetivos de mayor importancia, su formulación es la
siguiente:
d+ −
i ≥ 0, di ≥ 0 (3.11)
d+ −
i di = 0 (3.12)
Cuando la meta bi es alcanzada entonces d+ −
i = di = 0, el problema de optimización
se formula de la siguiente manera:
k
X
Minimizar (d+ −
i + di ) (3.13)
i=1
fi (~x) + d+ −
i − d i = bi ∀i ∈ I (3.14)
Se han propuesto variantes de la programación por metas como: la programación por
metas de Arquı́medes (programación por metas ponderada) [Charnes and Cooper, 1977]
en la cual pesos son asignados a la desviación de cada objetivo, la programación por
metas lexicográfica en donde las desviaciones por objetivo están dispuestas en orden de
importancia a minimizar [Marler and Arora, 2004], la programación multi-metas donde
varias funciones |di | son minimizadas independientemente mediante programación mul-
tiobjetivo (matriz de pagos), ası́ como la obtención de metas [Gembicki and Haimes, 1975]
basada en el método de pesos min-max y con menos complejidad.
li ≤ f i ≤ e i ∀i ∈ I, i 6= s (3.15)
Donde li , ei son el lı́mite inferior y superior de fi respectivamente. li puede ser
despreciado a menos que se pretenda un rango de valores especifico dependiendo las
preferencias, variaciones en ei producen óptimos de Pareto. La formulación de este
método sujeto a la restricción en la Ecuación 3.15 es la siguiente:
Programación fı́sica
La programación fı́sica fue desarrollada por [Messac and Hattis, 1996], asocia clasi-
ficaciones de metas con valores objetivo, expresando verbalmente las preferencias a una
función de utilidad; esto provee la incorporación de preferencias sin el problema de los
pesos relativos.
Wei Chen y Atul Sahai hacen notar que los pasos 1, 2, 3, y 5 son tareas bien definidas
en la optimización multiobjetivo con procedimientos maduros existentes [Chen et al., 2000],
y deja el paso 4 abierto.
1 Dominancia de Pareto
Articulación de / Intersección de lı́mites normales
preferencias a posteriori -
Restricciones normales
- Enfoque de descomposición
Dominancia de Pareto
Estos métodos utilizan la dominancia de Pareto como mecanismo guı́a en la búsque-
da de soluciones, a diferencia de los métodos de optimización convencionales guiados
por una función objetivo como: la función de utilidad, agregación o aptitud.
Aunque muchos métodos basados en dominancia de Pareto incluyen funciones de
aptitud especializadas como: crowding distance en NSGA2 [Deb et al., 2000], Pareto
strength en SPEA2 [Zitzler et al., 2001], IHD en IBEA [Zitzler and Künzli, 2004], la
búsqueda se guı́a con los óptimos de Pareto conocidos actualmente en P Factual .
Existen 3 tendencias en el diseño de este tipo de métodos:
Algoritmos evolutivos
Hı́bridos evolución+archivo
Maximizar λ
(3.18)
~x, λ
Sujeto a la siguiente restricción:
t̂ = −Φe (3.20)
Donde e es un vector columna de unos. La restricción Φw + λt̂ asegura que el punto
(solución) ~x está asociado a un punto en la normal; aunque este método encuentra una
sola solución es posible con diferentes configuraciones en w encontrar diferentes óptimos
[Marler and Arora, 2004], por lo tanto podemos encontrar un conjunto de soluciones
con diferentes valores de w.
Restricciones normales
El método de restricciones normales (normal constraint) es una alternativa al
normal boundary intersection, utilizando normalización de los valores objetivo, pa-
ra más detalles ver [Messac et al., 2003] y [Messac and Mattson, 2004].
Enfoque de descomposición
La idea principal de estos métodos es cambiar de un problema multiobjetivo a
múltiples problemas mono objetivo tales que cada problema se asocie a un punto del
31
2 Método STEM
Articulación de / Método de Steuer
preferencias progresivas
Método STEM
El método STEM propuesto en [Benayoun et al., 1971] tiene como idea principal la
reducción del espacio de soluciones utilizando lı́mites superiores (minimizar) o inferiores
(maximizar), mediante los siguientes pasos:
Método de Steuer
El método de [Steuer and Choo, 1983b] utiliza un conjunto de vectores de pesos W
para definir las preferencias progresivamente, en cada iteración el usuario o tomador de
decisiones selecciona entre P soluciones no dominadas la de su preferencia, usualmente
el método se detiene cuando el número de iteración h es igual a k. El conjunto de
vectores se crea con la formulación siguiente:
k
X
k
W = {w ∈ R |wi ∈ [lih , ehi ], wi = 1} (3.21)
i=1
Donde lih y ehi son los lı́mites inferior y superior respectivamente para el peso wi
en la iteración h, al comenzar la exploración li1 = 0, e1i = 1 representa el mayor rango
valido para cualquier wi , sujeto a la restricción ki=1 wi = 1; durante el proceso de
P
optimización en cada iteración h los valores [lih , ehi ] se acotan lo cual guı́a al algoritmo
a un subconjunto de óptimos de Pareto. Los pasos siguientes describen el método:
1. Inicializa h = 0, establece punto utópico fio
2. Genera W (50 · k vectores sugeridos), filtrarlos y obtener los más diversos (2 · P
sugeridos)
3. Optimizar los 2· P vectores utilizando el método min-max con pesos (Tchebycheff
ponderado) para obtener soluciones no dominadas.
4. Filtrar los vectores y obtener los P más diversos
5. Presentar al tomador de decisiones las P soluciones y permitirle escoger la de su
preferencia.
6. Reducir los intervalos de pesos de acuerdo a la solución escogida.
7. Volver al paso 2 si no ha alcanzado el número máximo de iteraciones.
Los pasos 2-5 se repiten un número de iteraciones usualmente igual o menor a k.
3.2.1. NGSA-II
NSGA-II es un algoritmo genético el cual es base de numerables contribuciones en
optimización multiobjetivo [Deb et al., 2000]. Su estructura poblacional es muy similar
a un algoritmo genético clásico, pero utilizando 2 componentes ingeniosos que lo adap-
tan a multiobjetivo. El primer componente es el ordenamiento f ast nondominated sort
que proporciona un raking de soluciones de acuerdo con el subfrente al que pertene-
cen. Es decir, el primer frente contiene a las soluciones no dominandas en el conjunto
original, al subconjunto remanente se le aplica la misma operación generando el se-
gundo subfrente, el proceso sigue de manera consecutiva hasta terminar la generación
de subfrentes. El segundo componente es un cálculo de aptitud auxiliar, la crowding
distance, estás aptitudes auxiliares se conocen como estimadores de densidad en opti-
mización multiobjetivo. Permiten seleccionar que soluciones preservar cuando entre el
conjunto todas son no dominadas. La aptitud de las soluciones es tomada de manera
lexicográfica por la relación de orden ranking con crowding distance.
3.2.2. MOCell
MOCell es un algoritmo genético celular que incluye un archivo externo para almace-
nar las soluciones no dominadas encontradas durante las generaciones [Nebro et al., 2006,
Nebro et al., 2007b]. Para garantizar la diversidad en el archivo, el algoritmo utiliza la
crowding distance [Deb et al., 2000]. La selección se basa en un torneo binario, después
se aplica el cruce genético y operador de mutación, la descendencia reemplaza si es
mejor. Al final de cada iteración, el algoritmo selecciona un número fijo de individuos
del archivo para reemplazar la misma cantidad de soluciones seleccionadas al azar de
la población.
3.2.3. SMPSO
SMPSO es un algoritmo de optimización de enjambre de partı́culas multiobjetivo
utilizando un archivo de crowding distance [Nebro et al., 2009b]. Caracterizado por
una estrategia para limitar los cambios de velocidad en las partı́culas, para limitar
movimientos erráticos. Para controlar la velocidad de la partı́cula, en lugar de usar
valores de variable superiores e inferiores que limitan el tamaño del paso de la velocidad,
se adoptada un coeficiente de constricción, Ver Ecuación (3.22), obtenido del factor de
constricción χ originalmente desarrollado por Clerc y Kennedy.
2
χ= p (3.22)
2−ϕ− ϕ2 − 4ϕ
Donde (
C1 + C2 if C1 + C2 ≥ 4
ϕ= (3.23)
1 if C1 + C2 ≤ 4
Además introduce un mecanismo de tal manera que la velocidad acumulada de cada
variable j (en cada partı́cula) se delimita más por medio de la siguiente ecuación de
constricción de velocidad:
deltaj if vi,j (t) ≥ deltaj
vi,j (t) = −deltaj if vi,j (t) ≤ deltaj (3.24)
vi,j (t) En caso contrario
34
Donde
U pperBoundj − LowerBoundj
deltaj = (3.25)
2
3.2.4. BORG
Borg [Hadka and Reed, 2013] es un algoritmo evolutivo multiobjetivo de estado
estable destinado a resolver problemas multimodales de muchos objetivos. Borg usa un
archivo ǫ-box, basado en el concepto ǫ de dominancia, para mantener una representación
diversa de todas las soluciones no dominadas encontradas durante la búsqueda. El
tamaño de este archivo está determinado por el ǫ considerado. Borg también utiliza
una métrica llamada ǫ-progress, basada en el contenido de este archivo, para identificar
cuándo la búsqueda está estancada. Cuando se detecta un estancamiento, Borg reinicia
la búsqueda creando una nueva población de soluciones aleatorias, ası́ como soluciones
tomadas del archivo ǫ-box. El tamaño de esta población recién generada no necesita
coincidir con el tamaño del anterior; en cambio, su tamaño se determina en función del
número de soluciones contenidas en el archivo ǫ -box. Borg también considera varios
operadores de recombinación cuyo uso se determina de forma adaptativa en función
de cómo han contribuido a la búsqueda hasta el momento. Más especı́ficamente, su
contribución se mide en términos de la cantidad de soluciones que produjeron en el
archivo ǫ-box.
3.2.5. SMS-EMOA
SMS-EMOA [Beume et al., 2007a] es también un algoritmo evolutivo multiobjetivo
de estado estable diseñado para calcular una aproximación finita al frente de Pareto
que cubre un HV máximo. Con este fin, el algoritmo utiliza el indicador de calidad
HV durante el proceso de búsqueda para determinar qué soluciones se mantienen y
qué soluciones se descartan. En cada generación, se considera que la población actual,
de tamaño N y la solución recién generada, actualiza la población de la próxima gene-
ración. Este conjunto de soluciones N + 1 está dividido en diferentes subconjuntos de
soluciones no dominadas (F1 , . . . , Fk ), con soluciones en F1 soluciones dominantes en
F2 , soluciones en F2 que dominan las soluciones en F3 , y ası́ sucesivamente. La solución
del último subconjunto Fk con la contribución más baja a HV se elimina. Las soluciones
N restantes se convierten en la población de la próxima generación.
3.2.6. SMEA
SMEA [Zhang et al., 2016] combina la búsqueda evolutiva y el aprendizaje au-
tomático. Más especı́ficamente, mapas auto organizados, un método de aprendizaje
automático no supervisado, se aplica para determinar las relaciones cercanas dentro
de la población actual de cada generación. Estas relaciones se usan para determinar
agrupaciones dentro de las cuales se puede aplicar el operador de recombinación. Como
SMS-EMOA, SMEA también realiza una evolución de estado estacionario. En cada
generación, se crea una solución y la población de la próxima generación se genera
utilizando un procedimiento similar al descrito para el algoritmo SMS-EMOA.
3.2.7. SMPSOhv
SMPSOhv [Nebro et al., 2013b] es una extensión del algoritmo de enjambre de
partı́culas multiobjetivo SMPSO [Nebro et al., 2009a]. La caracterı́stica principal de
35
SMPSO es el uso de un mecanismo de restricción de velocidad que evita que las partı́cu-
las a menudo sobrepasen los lı́mites del espacio de búsqueda debido a los valores de alta
velocidad. Todas las soluciones no dominadas que se encuentran durante la búsqueda
se insertan en un archivo externo de tamaño limitado. SMPSOhv usa un indicador de
calidad HV para mantener el tamaño de este archivo dentro del lı́mite especificado. En
particular, cada vez que una nueva inserción hace que el archivo crezca más allá de este
tamaño, la solución que contribuye menos a HV de la aproximación frontal de Pareto
se elimina, siguiendo un procedimiento similar al de SMS-EMOA y SMEA.
3.2.8. MOEA/D-DE
MOEA/D [Zhang and Li, 2007] es un algoritmo evolutivo multiobjetivo de estado
estacionario que emplea un enfoque de agregación para descomponer un problema de
optimización multiobjetivo en un conjunto de optimizaciones de un solo objetivo, lla-
mados sub-problemas. Cada solución en la población tiene como objetivo optimizar
uno de estos sub-problemas. Para eso, una estructura de vecindario se define entre
todas las soluciones dentro de la población. Los vecinos resultantes definen las agru-
paciones de apareamiento para el operador de recombinación y los subproblemas que
la solución generada puede optimizar. La versión considerada en este documento es
MOEA/D-DE [Li and Zhang, 2009] que emplea la evolución diferencial como el opera-
dor de recombinación y Tchebycheff como método de descomposición.
inf n ~2 o
Iǫ+ (A, B) = ∀z ∈ B ∃z~1 ∈ A : z~1 ǫ z~2 ,
ǫ∈R
Pm P
j=1 d(ej , P Factual ) + X∈P Fverdadero |d(X, P Factual ) − d|
GS(P Factual , P Fverdadero ) = Pm
j=1 d(ej , P Factual ) + |P Fverdadero |d
(3.26)
Donde {e1 , e2 , ......, ek } son k soluciones extremas en P Fverdadero y
min
d(X, P Factual ) = ||F (X) − F (Y )||2 (3.27)
Y ∈ P Factual , Y 6= X
,
1 X
d= d(X, P Factual ) (3.28)
|P Fverdadero |
X∈P Fverdadero
siendo F(X) el vector de objetivos, si las soluciones en P Factual están bien distri-
buidas e incluyen las soluciones extremas entonces GS=0.
37
′
if (fi (x∗ ) ≤ (x ))∀i ∈ Objetivos (3.31)
∗ ′
di = di + fi (x ) − fi (x ) (3.32)
3.4.1. PISA
El grupo de sistemas de optimización de la Escuela Politécnica Federal de Zurich
(ETH Zürich) desarrolló el primer framework de optimización multiobjetivo aceptado
por la comunidad investigadora. El cual lleva el nombre de Interfaz independiente de
plataforma y lenguaje de programación para algoritmos de búsqueda (PISA por sus
siglas en inglés). PISA fue introducido en [Bleuler et al., 2003], el cual tiene como ca-
racterı́stica principal la separación total del código en un variador (implementación del
problema) y un selector (algoritmo de optimización). Este par de componentes previa-
mente mencionados son ejecutados como procesos independientes, y solo se comunican
38
3.4.2. OPT4J
OPT4J es un framework de optimización multiobjetivo escrito en java presentado
por primera vez en la conferencia GECCO del 2011 [Lukasiewycz et al., 2011]. A pesar
de contar con 8 años de diferencia con el framework PISA, cuenta con un reducido
número de algoritmos. OPT4J incluye implementaciones de NSGA-II [Deb et al., 2000],
SPEA2 [Zitzler et al., 2001], MOPSO [Reyes and Coello Coello, 2005] y SMS-EMOA
[Beume et al., 2007a]. También contiene dos versiones multiobjetivo genéricas de los
algoritmos mono-objetivo de evolución diferencial (DE) y recocido simulado (SA). A
pesar del número reducido de algoritmos la selección de ellos es relevante, los algoritmos
evolutivos presentados utilizan diferentes mecanismos para preservar las soluciones no-
dominadas encontradas:
3.4.4. jMetal
jMetal es un framework con un año más de antigüedad que MOEA Framework. A
diferencia de otros frameworks jMetal no implementa el uso de una interfaz gráfica, pero
a diferencia de PISA todo el código implementado está escrito en Java evitando producir
overhead, produciendo mejores tiempos de respuesta. El dedicarse a modo texto pudiera
40
parecer una desventaja, pero desde el nicho de mercado para desarrolladores ha sido la
mejor decisión. jMetal está basado en buenas prácticas de desarrollo de software desde
su versión original, con un diagrama de clases UML claro y conciso. Se puede ejecutar
fácilmente en la consola del sistema de cualquier sistema operativo, produciendo salidas
en texto plano para su análisis en cualquier software externo. En [Nebro et al., 2015]
jMetal tuvo un drástico rediseño para implementar patrones de diseño orientado a
objetos avanzados, fue presentado en la conferencia GECCO del 2015. Actualmente
cuenta con 26 algoritmos de optimización y 6 bancos de prueba, entre los cuales podemos
encontrar trabajos muy recientes del estado del arte como el banco de pruebas GLT
[Zhang et al., 2016] o el algoritmo de optimización MOMBI-II [Saborido et al., 2017].
Es sin duda el proyecto más activo siendo su última actualización a dı́a de hoy el 30 de
Enero del 2018.
Tabla 3.6: Bancos de prueba multiobjetivo e algoritmos incluidos en jMetal
Problema Autor
ZDT [Zitzler, 2000]
DTLZ [K. Deb and Zitzler, 2001]
LZ [Li and Zhang, 2009]
CEC2009 [Zhang et al., 2008]
WFG [Simon Huband and While, 2007]
GLT [Zhang et al., 2016]
Clásicos Diversos
Problema Autor Algoritmo Autor
AbYSS [Nebro et al., 2008] MOEA/D-DE [Li and Zhang, 2009]
CellDE [Durillo et al., 2008] NSGA-II [Deb et al., 2000]
NSGAIIr [Nebro et al., 2013c] NSGA-III [Deb and Jain, 2014]
OMOPSO [Reyes and Coello Coello, 2005] dMPOSO [Martı́nez and Coello, 2011]
PAES [Knowles and Corne, 1999] PESA2 [Corne et al., 2001]
FastPGA [Eskandari et al., 2007] MOCHC [Nebro et al., 2007a]
GDE3 [Kukkonen and Lampinen, 2005] SMPSO [Nebro et al., 2009b]
IBEA [Zitzler and Künzli, 2004] SMS-EMOA [Beume et al., 2007a]
MOCell [Nebro et al., 2006] SPEA2 [Zitzler et al., 2001]
pMOEA/D-DE [Nebro and Durillo, 2010] MOEA/D-DRA [Zhang et al., 2009a]
ssNSGA-II [Durillo et al., 2009b] NSGAIIa [Nebro et al., 2013c]
SMPSOhv [Nebro et al., 2013a] WASF-GA [Saborido et al., 2017]
MOMBI [Hernández Gómez and Coello Coello, 2013] MOMBI-II [Raquel. and A., 2015]
que, las funciones de membresı́a de tipo 1 se asignan a un solo valor, las funciones de
tipo 2 se asignan a un rango llamado “huella de incertidumbre” [Karnik et al., 1999].
Recientemente se propuso una Colonia de Hormigas (CO) usando una lógica difusa de
tipo 2 en [Olivas et al., 2017b], de forma muy similar a [Melin et al., 2013], mejorando
los resultados de una CO basada en rangos y una CO usando adaptación de parámetro
difusa tipo 1. La capacidad de adaptación de parámetros utilizando lógica difusa en
algoritmos metaheurı́sticos es una tendencia fuerte en investigación, sin embargo, la ro-
bustez de los motores difusos depende en gran medida del diseño del conjunto de reglas,
las cuales requiere un gran conocimiento u optimización para configurar correctamente
el motor difuso.
3.7.3. Hipervolumen
La idea de la optimización multiobjetivo basada en indicadores de calidad multiob-
jetivo fué originalmente propuesta en [Zitzler and Künzli, 2004] con el metaheurı́stico
IBEA. El metaheurı́stico IBEA puede ser implementado indistintamente con cualquier
indicador de calidad multiobjetivo. La aptitud F de una solución x1 en una población
P para una métrica de calidad I se calcula:
2 },{x1 })/k
X
F (x1 ) = −eI({x (3.37)
x2 ∈P \{x1 }
3.8. Conclusiones
Derivado del análisis del estado del arte encontrados dos áreas de oportunidad en
investigación multiobjetivo.
En primera instancia la adaptación de operadores en algoritmos de optimización
multiobjetivo utilizando lógica difusa, área aún no explorada. La adaptación de los
algoritmos depende en gran medida del método de control utilizado, un método de
control robusto en muchas situaciones es el uso de la lógica difusa mediante sistemas
de inferencia difusa. El diseño de un sistema de inferencia difuso puede ser realmente
complejo o simple a elección del diseñador, puede monitorear una infinidad de señales
del entorno como: estancamiento de la búsqueda, iteración o generación, diversidad de
las soluciones, distancia a la mejor o peor solución encontrada, etc. Ası́ como controlar
parámetros o tomar de decisiones al momento de ejecución: ¿qué tan alto o bajo deberı́a
de ser el porcentaje de mutación?, ¿deberı́a reiniciar la población?, ¿En qué momento
y en qué cantidades se deben modificar los parámetros de un operador de variación?
En segunda instancia el desarrollo de nuevos métodos de estimación de densidad de
soluciones en optimización multiobjetivo. Actualmente crowding distance no puede re-
solver eficazmente problemas con tres o más objetivos, mientras que las contribuciones
al hipervolumen depende del cálculo del hipervolumen de complejidad exponencial. Un
candidato de complejidad polinomial es Pareto Strength, sin embargo, las aproxima-
ciones producidas por el mismo son de baja calidad comparado con las contribuciones
del hipervolumen y su complejidad es considerada alta O(n3 ).
Para evitar errores de implementación y acelerar tiempos de desarrollo sin duda
un proyecto muy activo y verificado por la comunidad como lo es jMetal es la mejor
opción.
46
Capı́tulo 4
Diseño algorı́tmico y
experimental
Este capı́tulo muestra el desarrollo del proyecto de tesis, el cual integra las contribu-
ciones principales del proyecto para llegar a un método de optimización multiobjetivo
de alto desempeño. Este capı́tulo está dividido en 5 secciones. Bancos de prueba, don-
de se abordan las principales caracterı́sticas de los bancos de prueba utilizados y su
relevancia para el proyecto de tesis. Métricas de evaluación, en la que se describen los
indicadores de calidad multiobjetivo utilizados en el proyecto de tesis con su fundamen-
to para ser utilizados. Tratamiento de datos, contiene la interpretación de los valores
cuantitativos en el proyecto. Pruebas estadı́sticas, detalla las pruebas estadı́sticas que
fundamentan el proyecto, ası́ como su interpretación. Por último, las conclusiones del
esquema de trabajo presentado.
Problema Autor
DTLZ [K. Deb and Zitzler, 2001]
WFG [Simon Huband and While, 2007]
LZ [Li and Zhang, 2009]
CEC2009 [Zhang et al., 2008]
GLT [Zhang et al., 2016]
4.1.1. DTLZ
El banco de prueba DTLZ toma su nombre de las iniciales de los apellidos de sus
autores (Deb, Thiele, Laumanns, Zitzler). Los autores se percataron de dos situaciones
la primera, que en la optimización multiobjetivo hacı́a falta bancos de prueba de más de
2 objetivos, la segunda, que hacı́a falta bancos de prueba escalables, tanto en objetivos
como en variables. DTLZ está enfocado en la dificultad de resolver diversas formas
de frentes de Pareto (lineales, convexas, no convexas, multimodales, degeneradas). Su
relevancia en este trabajo es la posibilidad de generar 7 problemas de optimización de
tres objetivos, con dificultad y frente de Pareto conocido. La implementación y frente
de Pareto de referencia utilizados en este trabajo son los proporcionados por la versión
5 de jMetal. La configuración de parámetros para los problemas DTLZ es la misma que
se encuentra en jMetal 5, la sugerida en el artı́culo original.
4.1.2. WFG
El banco de prueba WFG es otro de capacidades escalables tanto en variables como
en objetivos, toma su nombre por el grupo de investigación The Walking Fish Group
(WFG) dirigido por el Dr. Lyndon While de la University of Western Australia. Fue
diseñado para solventar algunas deficiencias en DTLZ, ningún problema en DTLZ es
deceptivo, y la posición de los parámetros de los problemas se fija respecto al número
de objetivos. Los autores hacen hincapié en que después de 3 objetivos los frentes
de DTLZ5 y DTLZ6 son desconocidos, debido a un comportamiento no esperado. La
importancia en este trabajo es que brinda con un total de 9 problemas de optimización
de tres objetivos, con dificultad y frente de Pareto conocidos. La implementación y
frente de Pareto de referencia utilizados en este trabajo son los proporcionados por la
versión 5 de jMetal. La configuración de parámetros para los problemas WFG es la que
se encuentra en jMetal 5, sugerida en el artı́culo original.
4.1.3. CEC2009
CEC2009 es un banco de pruebas de extrema dificultad, fue diseñado para la compe-
tencia de optimización multiobjetivo del Congress on Evolutionary Computing (CEC)
del 2009 en Noruega. Consta de un conjunto de 10 problemas sin restricciones, de los
cuales ocho son bi-objetivo y dos tri-objetivo. Como los bancos de prueba anteriormente
mencionados también tiene frente de Pareto conocido, y tanto su implementación como
sus frentes de referencia son tomados de jMetal 5. Es de gran interés para el proyecto
de investigación por que se le considera uno de los bancos de prueba más difı́ciles de
optimización multiobjetivo.
4.1.4. LZ09
La mayorı́a de los bancos de prueba de optimización multiobjetivo centran sus ca-
racterı́sticas en formas complicadas de frentes de Pareto (valores de funciones objetivo),
de manera secundaria se preocupan por la forma del conjunto de Pareto (valores de
variables). Con la introducción del algoritmo MOEA/D-DE en [Li and Zhang, 2009]
se propuso un banco de prueba con formas muy simples de Pareto, pero de conjuntos
de Pareto complicados. Este conjunto de prueba es de especial interés puesto que los
algoritmos de descomposición trabajan muy bien con frentes de Pareto simples, te-
niendo una ventaja notable en este banco de prueba contra otro tipo de métodos de
optimización.
48
4.1.5. GLT
Por último, se utilizó el banco de prueba GLT de muy reciente creación. GLT
muestra las deficiencias del enfoque de descomposición, puesto que tiene frentes de
Pareto muy complicados y no uniformes. También es un banco de prueba en que el
algoritmo SMEA [Zhang et al., 2016] obtiene un alto desempeño, algoritmo que utiliza
aprendizaje automático para descubrir la distribución de las soluciones sobre el frente
de Pareto. Dado que la lógica difusa es una técnica de soft computing es de relevancia
para el proyecto de tesis competir contra otras propuestas similares.
Problema Autor
Hipervolumen [Fleischer, 2003]
Épsilon aditivo [Zitzler et al., 2003]
Dispersión generalizada [Zhou et al., 2006]
4.2.1. Hipervolumen
La métrica de evaluación conocida como hipervolumen es la única conocida como
Pareto-complaint [Zitzler et al., 2007a]. Es decir, siempre que una aproximación domine
completamente a otra su hipervolumen será mayor. Esta es una caracterı́stica altamente
deseable en una métrica de evaluación, sin embargo, no es perfecta. El hipervolumen
tiende a viciarse hacia regiones del frente de Pareto convexas. Sin duda a pesar de sus
deficiencias conocidas sigue siendo la métrica de evaluación más utilizada y aceptada
en optimización multiobjetivo.
4.4.1. Friedman
La prueba no-paramétrica de Friedman da un resultado de diferencia significativa
si por lo menos un algoritmo es significativamente diferente a los demás. La parte más
interesante de esta prueba estadı́stica es que produce un ranking, el cual indica que
tratamiento (en nuestro caso algoritmo) es superior a otro. Si los ranking entre los
algoritmos son parecidos entonces su comportamiento es similar, en este trabajo de
50
tesis el ranking está ajustado para que el menor valor (cercano al ranking uno) sea el
mejor, independientemente de que la métrica sea de maximizar o minimizar.
4.4.2. Wilcoxon
La prueba no-paramétrica de suma de rangos de Wilcoxon, permite observar entre
pares si el desempeño de dos métodos de optimización es significativamente diferente
o no. La prueba estadı́stica queda plasmada en todas las columnas de resultados del
trabajo de tesis. Tres sı́mbolos son utilizados. Un N indica que el algoritmo propuesto
tiene diferencia significativa con el algoritmo en la columna, y su desempeño es superior
o con más estabilidad. Un ▽ significa que el algoritmo en la columna tiene diferencia
significativa con el algoritmo propuesto, y su desempeño o estabilidad es superior al al-
goritmo propuesto. Por último, el sı́mbolo − significa que no se ha encontrado diferencia
significativa entre el algoritmo de la columna y el propuesto. El algoritmo propuesto es
identificable en las tablas de resultados por ser el que no tiene sı́mbolos en su columna.
4.5. Conclusiones
Se desarrolló un esquema de trabajo a conciencia, el cual lleva de la mano las con-
tribuciones que se proponen. Primero se aborda el desarrollo de un nuevo estimador
de densidad validándolo en metaheurı́sticos poblacionales que hacen uso de archivo,
archivo que necesita un método de selección de soluciones, el cual se cambió por el
propuesto (SSD) y se compara su desempeño contra las propuestas originales. Después
se utiliza el SSD en conjunto con una nueva selección adaptativa de operadores de-
mostrando su sinergia en MEASO compitiendo contra algoritmos de alto desempeño
en el estado del arte. Por último, un nuevo algoritmo propuesto (FAME) demuestra
una notable mejora en diversidad y convergencia gracias a su estructura poblacional.
Todo el trabajo de tesis ha sido validado bajo la rigurosidad de pruebas estadı́sticas
no-paramétricas. Este capı́tulo de la tesis muestra una selección adecuada de bancos
de problemas, cumpliendo con el cuarto objetivo especı́fico de la tesis.
Capı́tulo 5
5.1. Introducción
Muchos de los algoritmos de optimización multiobjetivo más populares son poco
eficaces al tratar con problemas de tres o más objetivos. Esto se debe en general al uso
de estimadores de densidad, como la distancia de crowding de NSGA-II, que fueron
diseñados cuando el principal reto era optimizar problemas de dos objetivos. En este
capı́tulo presentamos un nuevo estimador de densidad que permite mejorar notablemen-
te la diversidad de soluciones de los frentes al resolver problemas con tres objetivos.
Los resultados muestran que los frentes obtenidos con nuestra propuesta mejoran de
forma significativa a los que generan los algoritmos originales.
En el caso discreto, xi son todos los posibles valores que la variable aleatoria puede
tener, p(xi ) es la probabilidad de xi , n es el orden del momento, y c es el punto de
referencia respecto al que se determina el momento. Existen diferentes definiciones de
momento, como el momento crudo o el momento central. El momento crudo, también
conocido como el momento absoluto, o el momento de una función, es el momento con
respecto al origen, cuando c = 0. El momento más popular es el momento central,
utilizado en estadı́stica como una medida de tendencia central. El momento central
sustituye el valor de c con el valor esperado o la media aritmética x. Cuando el orden
del momento es uno, el momento central es 0. Para una variable aleatoria uniforme,
cuando el orden es 2, es fácil argumentar que el momento central para n puntos es la
varianza:
n
1X
µ2 = (xi − x)2 (5.2)
n
i=1
n
1 X
SSDi = (Di,j − (Dmax − Dmin ))2 +
n−1
j=1j6=i
k+1
X
((Dmax − Dmin )/Di,j ) , (5.4)
j=2
1 1
SSNSGAII-µ 2 SSNSGAII-SSD
0.8 0.8
0.6 0.6
F2
F2
0.4 0.4
0.2 0.2
0 0
0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 0.8 1
F1 F1
(a) NSGAII steady state con µ2 . (b) NSGAII steady state con SSD.
Figura 5.1: Aproximaciones de frente de Pareto encontradas por NSGAII de estado esta-
ble implementando µ2 o SSD como estimador de densidad. Los resultados corresponden
a una ejecución representativa para el problema ZDT1, después de 25, 000 evaluaciones.
distancias máxima y mı́nima entre cada par de soluciones se almacenan en las variables
Dmax y Dmin , respectivamente (lı́nea 12). La matriz M y las variables Dmax y Dmin
se usan luego para actualizar la aptitud de cada solución (lı́neas 13-20) como se indica
en la Ecuación. (5.3). Las soluciones con valores de aptitud similares se penalizan en
las lı́neas 21-28 (como se define en Ecuación 5.4). La complejidad del método SSD
está determinada por el ciclo en las lı́neas 21-29. En cada iteración del ciclo, una fila
de la matriz M se ordena. Además, se realiza un ciclo que itera en las k soluciones más
cercanas en cada iteración para calcular la penalización (k ≤ n). La complejidad de la
ordenación (O(nlogn)) es mayor que la complejidad de este último ciclo (O(k)). Por lo
tanto, la complejidad de todo el procedimiento es O(n2 logn).
Tabla 5.1: Mediana y rango intercuartı́lico de los 4 algoritmos en 100 ejecuciones inde-
pendientes en los problemas tri-objetivo DTLZ y WFG en términos de IHV , Iǫ+ y IGS .
Las celdas con fondo gris oscuro/claro indican los primeros/segundos mejores valores
respectivamente.
IHV
Problema MOCell MOCell-SSD SMPSO SMPSO-SSD
3DDTLZ1 7.61E − 12.2E−2 N 7.84E − 14.3E−3 7.39E − 19.0E−3 N 7.72E − 13.5E−3
3DDTLZ2 3.79E − 16.2E−3 N 4.07E − 13.1E−3 3.56E − 19.4E−3 N 3.88E − 15.0E−3
3DDTLZ3 0.00E00.0E0 − 0.00E00.0E0 3.56E − 11.3E−2 N 3.87E − 18.2E−3
3DDTLZ4 3.77E − 17.5E−3 N 4.02E − 13.1E−3 3.63E − 17.8E−3 N 3.85E − 14.4E−3
3DDTLZ5 9.39E − 25.9E−5 ▽ 9.29E − 22.5E−4 9.39E − 27.1E−5 ▽ 9.28E − 22.9E−4
3DDTLZ6 0.00E00.0E0 − 0.00E00.0E0 9.49E − 23.5E−5 ▽ 9.37E − 22.7E−4
3DDTLZ7 2.82E − 15.7E−3 N 2.96E − 13.2E−3 2.77E − 17.6E−3 N 2.99E − 12.4E−3
3DWFG1 8.92E − 17.4E−3 N 8.95E − 19.0E−3 1.17E − 12.2E−2 ▽ 9.03E − 22.4E−2
3DWFG2 8.98E − 15.4E−3 N 9.16E − 11.2E−3 8.85E − 15.1E−3 N 9.10E − 12.0E−3
3DWFG3 3.16E − 13.0E−3 ▽ 2.99E − 14.0E−3 3.01E − 15.4E−3 ▽ 2.74E − 18.1E−3
3DWFG4 3.78E − 15.9E−3 N 4.08E − 12.5E−3 3.27E − 18.4E−3 N 3.59E − 15.0E−3
3DWFG5 3.51E − 17.7E−3 N 3.78E − 11.5E−3 3.40E − 17.7E−3 N 3.67E − 13.6E−3
3DWFG6 3.80E − 19.8E−3 N 4.05E − 11.9E−2 3.49E − 11.0E−2 N 3.89E − 15.1E−3
3DWFG7 3.72E − 16.2E−3 N 4.02E − 12.5E−3 3.43E − 11.0E−2 N 3.81E − 15.6E−3
3DWFG8 3.72E − 16.2E−3 N 4.02E − 12.5E−3 3.43E − 11.0E−2 N 3.81E − 15.6E−3
3DWFG9 3.72E − 16.2E−3 N 4.02E − 12.5E−3 3.43E − 11.0E−2 N 3.81E − 15.6E−3
IGS
3DDTLZ1 4.84E − 16.6E−2 N 3.12E − 11.3E−2 3.74E − 13.7E−2 N 2.86E − 19.4E−3
3DDTLZ2 4.15E − 12.0E−2 N 3.12E − 14.5E−3 3.75E − 12.4E−2 N 2.93E − 18.3E−3
3DDTLZ3 8.60E − 23.0E−1 − 9.58E − 22.9E−1 3.75E − 12.8E−2 N 2.91E − 11.2E−2
3DDTLZ4 5.26E − 14.7E−2 − 5.15E − 13.5E−2 4.93E − 14.5E−2 N 4.71E − 14.0E−2
3DDTLZ5 5.08E − 11.4E−2 N 4.74E − 12.2E−2 5.05E − 11.7E−2 N 4.69E − 11.6E−2
3DDTLZ6 1.22E − 12.4E−2 N 1.13E − 12.0E−2 5.29E − 14.6E−2 N 5.15E − 14.1E−2
3DDTLZ7 4.36E − 15.1E−2 N 3.26E − 11.2E−2 5.06E − 14.9E−2 N 3.30E − 11.0E−2
3DWFG1 8.10E − 12.4E−2 ▽ 8.50E − 12.5E−2 1.63E − 16.8E−3 ▽ 1.66E − 15.7E−3
3DWFG2 5.44E − 17.7E−2 N 3.93E − 13.5E−2 4.44E − 18.7E−2 N 3.73E − 13.9E−2
3DWFG3 8.21E − 18.1E−2 N 4.56E − 14.2E−2 7.12E − 18.3E−2 N 3.36E − 14.8E−2
3DWFG4 3.91E − 12.7E−2 N 3.18E − 11.3E−2 3.53E − 12.9E−2 N 2.89E − 12.0E−2
3DWFG5 3.38E − 12.0E−2 N 2.49E − 13.9E−3 3.24E − 12.4E−2 N 2.57E − 17.8E−3
3DWFG6 3.95E − 12.7E−2 N 3.11E − 11.0E−2 3.41E − 12.8E−2 N 2.94E − 17.3E−3
3DWFG7 4.11E − 12.1E−2 N 3.35E − 16.1E−3 3.60E − 11.9E−2 N 3.15E − 19.0E−3
3DWFG8 4.11E − 12.1E−2 N 3.35E − 16.1E−3 3.60E − 11.9E−2 N 3.15E − 19.0E−3
3DWFG9 4.11E − 12.1E−2 N 3.35E − 16.1E−3 3.60E − 11.9E−2 N 3.15E − 19.0E−3
Iǫ+
3DDTLZ1 1.13E − 14.3E−2 N 6.72E − 27.0E−3 1.14E − 11.2E−2 N 7.87E − 25.4E−3
3DDTLZ2 1.24E − 12.4E−2 N 7.52E − 27.8E−3 1.32E − 12.1E−2 N 8.91E − 29.2E−3
3DDTLZ3 1.26E01.6E0 ▽ 1.40E01.5E0 1.38E − 12.4E−2 N 9.12E − 21.5E−2
3DDTLZ4 1.13E − 13.5E−2 N 6.73E − 27.3E−3 1.13E − 11.9E−2 N 8.19E − 29.1E−3
3DDTLZ5 5.93E − 31.4E−3 ▽ 1.15E − 21.8E−3 5.43E − 33.8E−4 ▽ 1.10E − 22.3E−3
3DDTLZ6 7.32E − 11.3E−1 − 6.89E − 11.3E−1 5.19E − 33.2E−4 ▽ 1.17E − 22.5E−3
3DDTLZ7 1.00E − 13.4E−2 N 6.12E − 27.9E−3 1.33E − 13.6E−2 N 5.71E − 25.3E−3
3DWFG1 1.61E − 11.0E−2 − 1.60E − 17.3E−3 7.30E − 19.6E−3 ▽ 7.47E − 13.0E−2
3DWFG2 1.05E − 11.5E−2 N 5.80E − 21.1E−2 1.03E − 11.5E−2 N 6.27E − 28.9E−3
3DWFG3 6.81E − 22.6E−2 N 5.52E − 21.1E−2 1.12E − 12.7E−2 N 7.45E − 21.4E−2
3DWFG4 1.19E − 12.6E−2 N 7.62E − 25.6E−3 1.37E − 12.0E−2 N 9.67E − 27.7E−3
3DWFG5 1.30E − 12.0E−2 N 8.58E − 25.5E−3 1.33E − 12.3E−2 N 1.03E − 12.4E−4
3DWFG6 1.21E − 11.9E−2 N 8.15E − 29.8E−3 1.31E − 12.6E−2 N 8.78E − 27.2E−3
3DWFG7 1.18E − 12.1E−2 N 8.07E − 26.4E−3 1.29E − 12.3E−2 N 8.94E − 27.0E−3
3DWFG8 1.18E − 12.1E−2 N 8.07E − 26.4E−3 1.29E − 12.3E−2 N 8.94E − 27.0E−3
3DWFG9 1.18E − 12.1E−2 N 8.07E − 26.4E−3 1.29E − 12.3E−2 N 8.94E − 27.0E−3
5.5. Resultados
La Tabla 5.1 muestra los resultados de la experimentación realizada, se comienza
discerniendo los resultados según el IHV . Prestando atención a MOCell, la versión
con SSD ha mejorado a la original en 12 de los 17 problemas abordados. Los valores
obtenidos en los problemas DTLZ3 y DTLZ6 indican que MOCell ha sido incapaz de
56
encontrar soluciones que dominen al punto de referencia usado para calcular el IHV .
Podemos observar que todas las diferencias son significativas de acuerdo con el test
de Wilcoxon. En el caso de SMPSO, la versión SSD consigue mejorar a la original
también en 12 problemas, siendo también significativas todas las diferencias. Hay que
señalar que los frentes de los problemas DTLZ5 y DLTZ6 son degenerados, lo que
implica que son bi-objetivo, por lo que en ellos la versión original de SMPSO consigue
mejores resultados. Si prestamos atención a los valores obtenidos por los indicadores
especı́ficos de convergencia y diversidad los resultados de las versiones que utilizan SSD
son aún superiores a los mostrados para el hipervolumen. El algoritmo MOCell-SSD
mejora a su versión original en 14 problemas tanto para la métrica epsilon aditivo Iǫ+ ,
como para la dispersión generalizada IGS . En el caso de SMPSO, la variante que utiliza
SSD mejora también a la original en la mayorı́a de los problemas para ambas métricas.
Como se puede observar en la tabla, la gran mayorı́a de las diferencias son significativas.
Las Figuras 5.2b y 5.2a muestran un comparativo gráfico representativo, el resultado
obtenido en el problema WFG2 con MOCell.
6 6
5 5
4 4
3 3
2 2
1 1
00 00
0.5 0.5
1 1
Figura 5.2: Frentes con mejor valor de IHV encontrados por MOCell (izquierda) y
MOCell-SSD (derecha) para el problema WFG2 tri-objetivo
57
5.6. Conclusiones
Una nueva opción para la selección ambiental en algoritmos evolutivos, conocida
también como estimación de densidad de soluciones, en optimización multiobjetivo
se ha propuesto en este capı́tulo. Es el primero con complejidad polinomial capaz de
resolver problemas de optimización con tres objetivos, lo que hace que justifica su uso
de métodos de optimización metaheurı́sticos multiobjetivo. Este capı́tulo de la tesis
logra cumplir con el primer objetivo especı́fico de la tesis.
Capı́tulo 6
Selección adaptativa de
operadores evolutivos propuesta
6.1. Introducción
Este capı́tulo presenta un método novedoso que permite que un AE multiobjeti-
vo aplique diferentes operadores de recombinación o mutación en diferentes etapas del
proceso de búsqueda. En particular, el uso de diferentes operadores se ajusta dinámi-
camente de acuerdo con su contribución a la búsqueda en el pasado. Intuitivamente, la
idea es favorecer la aplicación de operadores que producen soluciones de mayor calidad
sobre los demás.
Rule 1
If And Then
Rule 2
If Or Then
input x input y
R
z= Rµ(z)·zdz z
µ(z)dz
output
La idea detrás de este conjunto particular de reglas es favorecer cambios suaves en las
probabilidades de aplicar los operadores en detrimento de los bruscos. Estos cambios se
calculan de acuerdo con la utilidad de los operadores (es decir, el número de veces que
contribuyeron con una nueva solución en el archivo de soluciones no dominadas) en las
últimas operaciones realizadas. La superficie tridimensional de las reglas se muestra en
la Figura 6.2.
0.8
0.7
Operator probability of use
0.6
0.5
0.4
0.3
0.2
0
0.2 1
0.4 0.8
0.6
0.6
0.4
0.8 0.2
1 0
Operator use
Stagnation
Una vez que el FIS asigna una probabilidad a cada operador (en el rango de [0, 1]),
se utiliza un mecanismo de ruleta para seleccionar el siguiente operador a aplicar.
Como primer paso agrega todos los valores de P robability en una variable Sum, luego
itera seleccionando aleatoriamente un operador y restando su probabilidad de Sum,
siguiendo con la resta de la siguiente probabilidad de operador, hasta que Sum ≤ 0.
Cuando el ciclo se detiene, se selecciona para aplicar el último operador, donde la
iteración se detuvo.
vi [j] if rand(0, 1) ≤ CR or j = jrand
ui [j] =
xi [j] En otro caso
vi = xr0 + F · (xr1 − xr2 ) , (6.2)
¿Almacenar?
6.6. Resultados
En esta sección se presentan los resultados obtenidos por el algoritmo propuesto y
se comparan, los algoritmos en el experimento usan sus configuraciones estándar. Los
mejores resultados que se muestran en la Tabla 6.3 se enfatizan con el fondo gris oscuro,
mientras que el fondo gris claro se utiliza para los mejores resultados secundarios.
63
Para este estudio de comparación, no se utilizó ningún banco de prueba en el que los
algoritmos comparados se conozcan como superiores.
10 10
Pareto Front Pareto Front
MEASO MOEA/D-DE
8 8
6 6
F2
F2
4 4
2 2
0 0
0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 0.8 1
F1 F1
2 2
Pareto Front Pareto Front
MEASO MOEA/D-DE
1.5 1.5
F2
F2
1 1
0.5 0.5
0 0
0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 0.8 1
F1 F1
Figura 6.4: Frentes con los mejores valores de IHV en los problemas GLT2 y GLT4
obtenidos por MEASO (izquierda) y MOEA/D-DE (derecha).
Para analizar a detalle los resultados de los dos mejores algoritmos comparados,
mostramos en la Figura 6.4 las aproximaciones de Pareto con el mejor valor IHV en-
contrado (de 30 ejecuciones independientes) para dos problemas de muestra, GLT2 y
GLT4. El frente verdadero de Pareto también se representa con fines de comparación.
Se puede ver claramente como el algoritmo propuesto MEASO encuentra aproximacio-
nes precisas con una mejor distribución de las soluciones, sin ningún hueco importante,
confirmando los resultados de las métricas de desempeño utilizadas. Por el contrario,
las aproximaciones de MOEA/D-DE están más concurridas con soluciones en la parte
derecha del frente, con grandes huecos que no cubren el verdadero frente de Pareto en el
64
6.7. Conclusiones
MEASO muestra capacidades para encontrar frentes de Pareto con formas compli-
cadas, demostrado en el banco de prueba GLT. Esto queda demostrado ya que obtiene
el mejor valor de IHV en la comparación para 4 problemas de GLT, dos bi-objetivo
(GLT2 y GLT3) y tres tri-objetivo (GLT5 y GLT6). Para el resto de GLT segundo.
Este capı́tulo de la tesis logra cumplir con el segundo objetivo especı́fico de la tesis.
Capı́tulo 7
7.1. Introducción
El algoritmo propuesto en este capı́tulo (Fuzzy Adaptive Multi-objective Evolutio-
nary algorithm) FAME por sus siglas en inglés es una extensión de MEASO. La falta
de una estructura poblacional en MEASO puede dificultar la resolución de ciertos pro-
blemas, en particular aquellos donde el elitismo es menos importante. Debido a esto se
procedió al desarrollo de esta extensión, la cual es altamente competitiva comparada
con otros algoritmos del estado del arte.
En Paso 2.1 se eligen varias soluciones para la reproducción (es decir, los padres).
Estas soluciones se seleccionan desde el archivo externo (Archive) o la población
67
¿Almacenar?
Archivo con
soluciones no-dominadas
Motor Difuso
Selección Comparador SSD
Selecciona Operador
Genético a aplicar
Población
¿Almacenar?
principal (P op). La decisión sobre la fuente a usar está determinada por un pro-
ceso aleatorio, controlado por un parámetro externo β ∈ [0: 1] (puede ajustarse
para dar alguna preferencia al elitismo sobre la diversidad, o al revés). Una vez
que se toma esta decisión, se aplica un método de torneo similar al utilizado en
NSGA-II: la elección se realiza en primer lugar de acuerdo con el valor de clasifi-
cación, y si las soluciones no están dominadas, entonces es impulsado por el valor
de SSD.
Paso 2.5 actualiza la población con la solución creada en Paso 2.2. Luego, se
aplica f ast non dominated sort para dividir la población en diferentes frentes.
La solución en el último frente con el peor valor de SSD (cuando se consideran
solo las soluciones de ese frente) se elimina.
Por último MEASO para validar que existe una diferencia significativa al usar
una estructura poblacional.
Tabla 7.2: Mediana y rango intercuartı́lico de los 7 algoritmos en 100 ejecuciones in-
dependientes en los bancos de prueba LZ y GLT en términos de IHV , Iǫ+ y IGS . Las
celdas con fondo gris oscuro / claro indican los primeros/segundos mejores valores.
IHV
Problem BORG MOEA/D-DE SMEA SMPSOhv SMS-EMOA MEASO FAME
LZ09F1 6.59E − 11.3E−4 N 6.61E − 11.5E−4 N 6.56E − 15.5E−4 N 6.60E − 16.2E−4 N 6.42E − 18.1E−3 N 6.61E − 12.2E−4 − 6.61E − 11.8E−4
LZ09F2 5.36E − 12.4E−2 N 6.52E − 12.1E−3 ▽ 6.26E − 12.7E−2 N 5.43E − 12.3E−2 N 5.36E − 13.0E−2 N 6.46E − 13.1E−3 − 6.46E − 12.7E−3
LZ09F3 2.88E − 11.5E−2 N 6.47E − 13.1E−2 − 6.39E − 16.3E−3 N 6.26E − 16.6E−3 N 6.16E − 11.2E−2 N 6.46E − 12.5E−3 − 6.46E − 12.4E−3
LZ09F4 6.25E − 16.5E−3 N 6.49E − 12.7E−3 ▽ 6.37E − 14.4E−3 N 6.26E − 16.7E−3 N 6.30E − 15.0E−3 N 6.48E − 11.2E−3 − 6.48E − 11.5E−3
LZ09F5 6.40E − 14.8E−3 N 6.40E − 15.7E−3 − 6.42E − 12.1E−3 − 6.32E − 14.3E−3 N 6.27E − 18.9E−3 N 6.43E − 15.3E−3 − 6.42E − 16.2E−3
LZ09F6 2.08E − 15.3E−6 N 2.42E − 17.1E−2 N 3.95E − 27.3E−2 N 2.11E − 16.0E−6 N 2.11E − 11.9E−2 N 2.89E − 14.0E−2 ▽ 2.80E − 13.6E−2
LZ09F7 6.14E − 11.3E−1 N 6.55E − 13.2E−3 N 6.32E − 11.8E−2 N 5.07E − 11.3E−1 N 4.41E − 19.4E−2 N 6.56E − 19.0E−4 − 6.56E − 18.7E−4
LZ09F8 4.06E − 11.0E−1 N 5.50E − 16.4E−2 N 4.72E − 17.2E−2 N 3.57E − 12.0E−1 N 4.38E − 17.2E−2 N 5.61E − 13.1E−2 − 5.60E − 12.7E−2
LZ09F9 2.17E − 14.6E−2 N 3.17E − 15.0E−3 ▽ 2.73E − 12.8E−2 N 2.15E − 14.0E−2 N 2.01E − 16.3E−2 N 3.13E − 13.0E−3 − 3.13E − 12.6E−3
GLT1 1.01E − 24.5E−2 N 3.72E − 12.2E−4 ▽ 3.48E − 12.0E−2 N 1.75E − 15.8E−2 N 2.97E − 22.9E−2 N 3.71E − 11.5E−3 N 3.72E − 18.6E−4
GLT2 7.25E − 19.7E−2 N 7.53E − 15.6E−3 N 7.76E − 16.2E−4 N 7.66E − 13.0E−3 N 6.46E − 11.1E−1 N 7.79E − 13.0E−4 ▽ 7.79E − 12.7E−4
GLT3 9.35E − 16.6E−3 N 9.44E − 11.3E−3 − 9.46E − 13.8E−3 − 9.39E − 15.1E−3 N 9.26E − 18.3E−3 N 9.43E − 13.9E−3 N 9.44E − 14.4E−3
GLT4 4.30E − 13.3E−1 N 4.94E − 13.5E−4 ▽ 4.91E − 12.1E−2 − 4.32E − 12.3E−2 − 3.45E − 12.9E−1 N 4.51E − 12.4E−1 − 4.62E − 12.4E−1
GLT5 9.58E − 14.2E−3 N 9.40E − 18.5E−4 N 9.37E − 13.8E−3 N 9.65E − 15.2E−4 ▽ 9.64E − 15.7E−3 − 9.63E − 16.6E−4 ▽ 9.63E − 18.6E−4
GLT6 9.41E − 14.2E−3 N 9.38E − 11.3E−3 N 9.34E − 14.1E−3 N 9.54E − 11.4E−3 N 9.57E − 14.6E−3 − 9.58E − 11.9E−3 − 9.58E − 14.1E−3
Iǫ+
Problem BORG MOEA/D-DE SMEA SMPSOhv SMS-EMOA MEASO FAME
LZ09F1 9.91E − 31.8E−4 N 9.73E − 31.8E−3 N 1.04E − 21.4E−3 N 7.55E − 36.9E−4 N 1.43E − 13.2E−2 N 6.25E − 31.1E−3 − 6.26E − 38.9E−4
LZ09F2 1.80E − 12.7E−2 N 2.08E − 21.1E−2 ▽ 7.22E − 26.4E−2 N 1.31E − 12.5E−2 N 1.88E − 16.1E−2 N 2.46E − 21.4E−2 N 2.22E − 29.3E−3
LZ09F3 3.01E − 12.8E−2 N 6.62E − 21.6E−1 N 6.01E − 22.6E−2 N 7.92E − 21.5E−2 N 1.33E − 16.8E−2 N 4.47E − 21.4E−2 − 4.37E − 21.5E−2
LZ09F4 1.90E − 12.8E−2 N 6.46E − 21.0E−2 N 6.96E − 22.2E−2 N 8.93E − 22.1E−2 N 1.67E − 11.8E−2 N 3.61E − 26.2E−3 − 3.54E − 28.4E−3
LZ09F5 7.16E − 21.8E−2 N 8.66E − 21.8E−2 N 4.81E − 21.2E−2 ▽ 7.95E − 21.2E−2 N 1.21E − 14.8E−2 N 6.57E − 22.9E−2 − 6.74E − 23.0E−2
LZ09F6 7.07E − 13.6E−5 N 2.75E − 13.2E−1 N 5.95E − 12.9E−1 N 7.07E − 11.4E−3 N 7.09E − 12.5E−3 N 2.38E − 18.6E−2 ▽ 2.57E − 16.4E−2
LZ09F7 1.68E − 12.1E−1 N 4.20E − 21.4E−2 N 8.10E − 24.5E−2 N 2.70E − 11.3E−1 N 3.77E − 11.5E−1 N 1.23E − 22.9E−3 − 1.19E − 22.0E−3
LZ09F8 4.60E − 11.4E−1 N 2.15E − 11.1E−1 N 2.97E − 11.1E−1 N 3.88E − 18.5E−2 N 3.92E − 11.9E−1 N 1.77E − 11.1E−1 − 1.60E − 18.1E−2
LZ09F9 1.89E − 19.5E−2 N 2.64E − 21.8E−2 − 1.15E − 13.8E−2 N 1.43E − 17.8E−2 N 2.32E − 11.1E−1 N 2.39E − 21.5E−2 − 2.45E − 21.4E−2
GLT1 2.45E − 12.8E−4 N 9.46E − 31.5E−3 N 3.53E − 23.4E−2 N 2.43E − 15.6E−2 N 2.43E − 15.7E−3 N 4.84E − 37.8E−4 − 4.88E − 35.2E−4
GLT2 1.52E − 11.8E−1 N 7.36E − 28.1E−3 N 1.25E − 22.0E−3 N 2.23E − 25.2E−3 N 2.13E − 11.5E−1 N 9.43E − 31.5E−3 − 9.66E − 31.2E−3
GLT3 2.78E − 21.4E−2 N 1.67E − 26.5E−3 ▽ 1.58E − 21.2E−2 ▽ 2.57E − 21.1E−2 N 4.73E − 21.3E−2 N 2.47E − 28.0E−3 N 2.23E − 21.1E−2
GLT4 1.62E − 12.9E−1 N 1.33E − 22.9E−3 ▽ 1.75E − 28.7E−2 − 1.70E − 18.3E−2 − 1.85E − 12.8E−1 N 1.37E − 14.0E−1 − 1.19E − 14.0E−1
GLT5 4.74E − 22.6E−2 − 6.49E − 21.0E−3 N 1.11E − 11.4E−2 N 4.05E − 22.6E−3 ▽ 6.56E − 23.7E−2 N 4.87E − 24.3E−3 − 4.95E − 24.5E−3
GLT6 6.04E − 21.0E−2 N 6.54E − 22.0E−3 N 9.88E − 21.4E−2 N 5.60E − 23.1E−3 N 5.25E − 26.6E−3 N 4.14E − 22.7E−2 − 3.94E − 23.2E−2
IGS
Problem BORG MOEA/D-DE SMEA SMPSOhv SMS-EMOA MEASO FAME
LZ09F1 5.67E − 15.5E−3 N 5.46E − 14.9E−3 N 2.78E − 11.5E−2 ▽ 3.91E − 14.2E−2 ▽ 1.26E08.4E−2 N 4.76E − 11.2E−2 − 4.74E − 18.6E−3
LZ09F2 5.79E − 18.0E−2 N 4.27E − 11.0E−1 N 5.76E − 13.1E−1 N 2.84E − 11.0E−1 − 5.98E − 15.2E−2 N 2.76E − 17.2E−2 ▽ 2.62E − 15.3E−2
LZ09F3 3.47E − 13.5E−2 ▽ 8.58E − 13.0E−1 N 5.49E − 11.5E−1 N 6.81E − 13.2E−2 N 1.01E09.7E−2 N 4.52E − 19.2E−2 − 4.28E − 11.2E−1
LZ09F4 1.24E02.8E−2 N 9.31E − 16.5E−2 N 5.99E − 11.5E−1 N 6.50E − 16.1E−2 N 1.13E08.0E−2 N 3.82E − 14.7E−2 N 3.62E − 15.5E−2
LZ09F5 8.97E − 11.0E−1 N 9.23E − 11.0E−1 N 5.22E − 18.6E−2 ▽ 7.50E − 13.0E−2 N 1.07E01.1E−1 N 6.21E − 12.1E−1 − 6.20E − 12.2E−1
LZ09F6 6.46E − 14.6E−5 N 6.14E − 12.0E−1 N 2.54E − 11.1E−1 ▽ 6.49E − 12.0E−4 N 6.49E − 12.4E−4 N 4.19E − 17.9E−2 ▽ 4.32E − 17.0E−2
LZ09F7 1.06E04.2E−1 N 7.51E − 11.5E−1 N 7.98E − 12.6E−1 N 9.84E − 13.2E−1 N 5.85E − 19.6E−2 N 3.69E − 13.6E−2 N 3.56E − 14.0E−2
LZ09F8 6.08E − 11.2E−1 N 8.10E − 12.7E−1 N 8.02E − 11.5E−1 N 7.92E − 14.9E−1 N 5.81E − 11.1E−1 N 5.54E − 12.2E−1 − 5.09E − 11.9E−1
LZ09F9 5.93E − 19.7E−2 N 4.21E − 11.3E−1 N 7.42E − 18.7E−2 N 4.38E − 12.4E−1 N 6.02E − 15.1E−2 N 3.52E − 17.9E−2 − 3.32E − 18.8E−2
GLT1 5.21E − 19.7E−2 N 4.74E − 11.1E−2 N 5.84E − 14.5E−1 N 9.45E − 11.6E−1 N 5.64E − 16.5E−2 N 4.17E − 11.2E−2 N 4.12E − 11.4E−2
GLT2 9.17E − 11.4E−1 N 9.85E − 11.2E−1 N 3.68E − 12.5E−2 ▽ 3.31E − 16.5E−2 ▽ 7.97E − 11.8E−1 N 4.51E − 11.4E−2 N 4.47E − 11.3E−2
GLT3 6.32E − 11.5E−1 ▽ 9.39E − 11.3E−1 ▽ 1.21E04.7E−1 ▽ 1.16E08.9E−2 ▽ 1.11E01.2E−2 ▽ 1.35E03.1E−2 − 1.34E09.2E−2
GLT4 1.18E06.9E−1 N 7.25E − 11.6E−2 ▽ 4.98E − 18.5E−1 ▽ 1.22E02.1E−1 N 6.63E − 13.4E−1 ▽ 9.24E − 13.8E−1 − 9.24E − 14.6E−1
GLT5 6.16E − 11.4E−1 N 7.42E − 15.1E−3 N 3.25E − 12.6E−2 N 3.62E − 11.2E−2 N 5.74E − 12.2E−1 N 3.20E − 18.8E−3 − 3.18E − 16.9E−3
GLT6 6.70E − 19.9E−2 N 7.30E − 17.3E−3 N 3.86E − 13.2E−2 N 4.12E − 15.7E−2 N 4.69E − 11.7E−1 N 3.75E − 12.1E−2 − 3.75E − 12.4E−2
7.5. Resultados
Esta sección describe los resultados obtenidos en la experimentación, presenta-
dos en la Tabla 7.2 para los bancos de prueba LZ09 [Li and Zhang, 2009] y GLT
[Zhang et al., 2016]. En general, es posible ver a simple vista que FAME y MEASO
destacan en la comparación realizada, ya que logran las mejores o segundas mejores
cifras en la mayorı́a de los casos.
Al enfocarse en IHV , se observa que MOEA/D-DE se erige como un fuerte com-
petidor de FAME. Venciendo a FAME en cinco problemas (LZ09F2, LZ09F4, LZ09F9,
GLT1 y GLT4), pero superado por FAME en otros siete problemas, con diferencia es-
tadı́stica significativa. En la comparación con los otros seis algoritmos, solo en cuatro
casos se logra superar a FAME significativamente, uno correspondiente a SMPSOhv en
el problema GLT5 y tres correspondientes a MEASO.
De acuerdo con la métrica Iǫ+ , FAME logra los mejores valores en cinco problemas
y seis segundos mejores valores. Este número de mejores valores obtenidos empata
con MEASO, pero FAME lo supera en número de problemas con diferencia estadı́stica
significativa. SMPSOhv y SMEA superan a FAME en un solo problema: GLT5 y GLT3,
respectivamente. MOEA/D-DE y SMEA son los mejores algoritmos después de FAME
y MEASO, cada uno proporciona el mejor resultado para solo dos problemas.
Analizando la calidad de la distribución de las soluciones con el indicador IGS ,
FAME destaca como el algoritmo de mejor rendimiento con 8 mejores valores de un
total de 15, dejando en claro segundo lugar a MEASO con 9 mejores segundos valores.
En la comparación FAME versus SMEA, el primero obtiene mejores valores de IGS en
nueve problemas, mientras que este último lo supera en cinco casos.
El ranking de Friedman en la Tabla 7.3 muestra el rendimiento general sobre el
conjunto de problemas evaluado. En IHV MEASO obtiene primer lugar, con un ligero
comportamiento superior a FAME, pero para las métricas de Iǫ+ y IGS FAME queda
en un contundente primer lugar.
7.6. Conclusiones
FAME logra superar a cinco competidores conocidos entre los más fuertes del estado
del arte de la optimización multiobjetivo, para las métricas de calidad IHV , Iǫ+ y IGS . El
propósito de diseñar FAME se cumple al superar a MEASO en el ranking de Friedman
en los indicadores de IGS y Iǫ+ , lo que demuestra su superior diversidad en soluciones,
siendo ligeramente superado por MEASO en IHV . El cual se conoce como un indicador
viciado a la convexidad en los frentes. Este capı́tulo de la tesis cumple con el tercer
objetivo especı́fico de la tesis.
Capı́tulo 8
8.1.1. SSD
La primera parte del proyecto fue el desarrollo de un nuevo estimador de densidad.
El estimador propuesto SSD subsana deficiencias encontradas en el estado del arte. A
diferencia de las contribuciones del hipervolumen utilizadas en [Beume et al., 2007a]
el cálculo de SSD es de complejidad polinomial, a diferencia de otras propuestas de
tiempo polinomial como la distancia crowding [Deb et al., 2000], SSD funciona de ma-
nera eficaz en problemas tri-objetivo. Para validar su eficacia se comparó utilizando
dos algoritmos con selección ambiental basada en archivo, SMPSO y MOCell. Los algo-
ritmos seleccionados cuentan con estructuras poblacionales muy distintas, inteligencia
de enjambre y celular. Este experimento prueba que SSD puede ser utilizado indife-
rentemente de la estructura poblacional utilizada, ası́ como su eficacia en problemas
tri-objetivo, la cual es demostrada contra la distancia crowding en los bancos de prue-
ba WFG y DTLZ, en 100 ejecuciones independientes con un criterio de paro de 50,000
evaluaciones de la función objetivo.
8.1.2. MEASO
La segunda parte del proyecto fue la selección adaptativa de operadores de re-
combinación y mutación, incluida en el algoritmo propuesto MEASO. Aunque algunos
trabajos en el estado del arte han investigado el enfoque, ninguno utiliza técnicas de
de control como la lógica difusa. Es importante que MEASO produzca un rendimiento
equiparable con algoritmos muy utilizados en el estado del arte, por lo que se incluye en
73
su evaluación MOEA/D-DE y SMS-EMOA. Con los que son probablemente los bancos
de prueba más difı́ciles actualmente en optimización multiobjetivo CEC2009 y GLT. El
experimento se llevó a cabo utilizando 30 ejecuciones independientes, con un criterio
de paro de 200,000 y 45,000 evaluaciones de la función objetivo para CEC2009 y GLT
respectivamente.
8.1.3. FAME
MEASO resulta ser un algoritmo altamente explotativo y competitivo con el estado
del arte, demostrado experimentalmente. La idea de la extensión con una estructura
poblacional (FAME) es mejorar la diversidad de la aproximación final encontrada. Para
validar FAME, en el experimento se ha hecho una comparativa extensa, contra un mayor
número de algoritmos, con alto rendimiento en el estado del arte:
Branch and Bound Algorithm for the Heterogeneous Computing Scheduling Multi-
Objective Problem [Soto-Monterrubio et al., 2016]
Bibliografı́a
[Abraham Duarte Muñoz, 2010] Abraham Duarte Muñoz, Juan José Pantri-
go Fernández, M. G. C. (2010). Metaheurı́sticas. Universidad Rey Juan Carlos.
[Antonio and Coello, 2013] Antonio, L. M. and Coello, C. A. C. (2013). Use of coope-
rative coevolution for solving large scale multiobjective optimization problems. In
2013 IEEE Congress on Evolutionary Computation, pages 2758–2765.
[Asafuddoula et al., 2015] Asafuddoula, M., Ray, T., and Sarker, R. (2015). A
decomposition-based evolutionary algorithm for many objective optimization. IEEE
Transactions on Evolutionary Computation, 19(3):445–460.
[Auger et al., 2009] Auger, A., Bader, J., Brockhoff, D., and Zitzler, E. (2009). Theory
of the hypervolume indicator: Optimal µ-distributions and the choice of the reference
point. In In Foundations of Genetic Algorithms (FOGA 2009). ACM.
[Auger et al., 2016] Auger, A., Brockhoff, D., Hansen, N., Tušar, D., Tušar, T., and
Wagner, T. (2016). Gecco’16 black-box optimization benchmarking workshop (bbob-
2016): Workshop chairs’ welcome message. In Proceedings of the 2016 on Genetic and
Evolutionary Computation Conference Companion, GECCO ’16 Companion, pages
1167–1167, New York, NY, USA. ACM.
[Bader et al., 2008] Bader, J., Deb, K., and Zitzler, E. (2008). Faster Hypervolume-
based Search using Monte Carlo Sampling. In Conference on Multiple Criteria
Decision Making (MCDM 2008). Springer. to appear.
[Bader and Zitzler, 2006] Bader, J. and Zitzler, E. (2006). HypE: Fast Hypervolume-
Based Multiobjective Search Using Monte Carlo Sampling. TIK Report 286, Institut
für Technische Informatik und Kommunikationsnetze, ETH Zürich.
[Barraza et al., 2017] Barraza, J., Melin, P., Valdez, F., and González, C. (2017).
Fireworks Algorithm (FWA) with Adaptation of Parameters Using Fuzzy Logic,
pages 313–327. Springer International Publishing.
78
[Benayoun et al., 1971] Benayoun, R., Montgolfier, J., Tergny, J., and Laritchev, O.
(1971). Linear programming with multiple objective functions: Step method (stem).
Mathematical Programming, 1(1):366–375.
[Beume et al., 2007a] Beume, N., Naujoks, B., and Emmerich, M. (2007a). Sms-emoa:
Multiobjective selection based on dominated hypervolume. European Journal of
Operational Research, 181(3):1653 – 1669.
[Beume et al., 2007b] Beume, N., Naujoks, B., and Emmerich, M. (2007b). Sms-emoa:
Multiobjective selection based on dominated hypervolume. European Journal of
Operational Research, 181(3):1653 – 1669.
[Bleuler et al., 2003] Bleuler, S., Laumanns, M., Thiele, L., and Zitzler, E. (2003). PI-
SA — a platform and programming language independent interface for search al-
gorithms. In Fonseca, C. M., Fleming, P. J., Zitzler, E., Deb, K., and Thiele, L.,
editors, Evolutionary Multi-Criterion Optimization (EMO 2003), Lecture Notes in
Computer Science, pages 494 – 508, Berlin. Springer.
[Blum, 2004] Blum, L. (2004). Computing over the reals: Where turing meets newton.
Notices of the AMS, 51(9):1024–1034.
[Blum et al., 1998] Blum, L., Cucker, F., Shub, M., and Smale, S. (1998). Complexity
and real computation. Springer Science & Business Media.
[Blum et al., 1990] Blum, L., Shub, M., and Smale, S. (1990). A Theory of
Computation and Complexity over the real numbers. International Computer Science
Institute.
[Blum et al., 1989] Blum, L., Shub, M., Smale, S., et al. (1989). On a theory of compu-
tation and complexity over the real numbers: np-completeness, recursive functions
and universal machines. Bulletin (New Series) of the American Mathematical Society,
21(1):1–46.
[Castillo et al., 2007] Castillo, O., Melin, P., Kacprzyk, J., and Pedrycz, W. (2007).
Type-2 fuzzy logic: Theory and applications. In 2007 IEEE International Conference
on Granular Computing (GRC 2007), pages 145–145.
[Charnes et al., 1964] Charnes, A., Clower, R., Kortanek, K., and INST., N. U. E. I. T.
(1964). Effective Control Through Coherent Decentralization with Preemptive Goals.
Defense Technical Information Center.
79
[Charnes and Cooper, 1961] Charnes, A. and Cooper, W. (1961). Management models
and industrial applications of linear programming. J. Wiley, New York.
[Charnes et al., 1955] Charnes, A., Cooper, W., and Ferguson, R. (1955). Optimal
estimation of executive compensation by linear programming. Management Science,
1:138–151.
[Charnes and Cooper, 1977] Charnes, A. and Cooper, W. W. (1977). Goal program-
ming and multiple objective optimizations: Part 1. European Journal of Operational
Research, 1(1):39–54.
[Chen et al., 2000] Chen, W., Sahai, A., Messac, A., and Sundararaj, G. J. (2000).
Exploration of the Effectiveness of Physical Programming in Robust Design. Journal
of Mechanical Design, 122(2):155–163.
[Cheng and Li, 1996] Cheng, F. Y. and Li, D. (1996). Journal of Guidance, Control,
and Dynamics, 19:392 – 397.
[Cheng et al., 2016] Cheng, R., Jin, Y., Olhofer, M., and Sendhoff, B. (2016). A refe-
rence vector guided evolutionary algorithm for many-objective optimization. IEEE
Transactions on Evolutionary Computation, 20(5):773–791.
[Coello, 2009] Coello (2009). Evolutionary multi-objective optimization: some current
research trends and topics that remain to be explored. Frontiers of Computer Science
in China.
[Coello et al., 2006] Coello, C. A. C., Lamont, G. B., and Veldhuizen, D. A. V. (2006).
Evolutionary Algorithms for Solving Multi-Objective Problems. Springer.
[Coello Coello et al., 2010] Coello Coello, C. A., Dhaenens, C., and Jourdan, L. (2010).
Multi-Objective Combinatorial Optimization: Problematic and Context, pages 1–21.
Springer Berlin Heidelberg, Berlin, Heidelberg.
[Cook, 1971] Cook, S. A. (1971). The complexity of theorem-proving procedures. In
Proceedings of the Third Annual ACM Symposium on Theory of Computing, STOC
’71, pages 151–158, New York, NY, USA. ACM.
[Cordón et al., 2001] Cordón, O., Herrera, F., Hoffmann, F., and Magdalena, L. (2001).
Evolutionary tuning and learning of fuzzy knowledge bases. Genetic fuzzy systems,
19.
[Corne et al., 2001] Corne, D. W., Jerram, N. R., Knowles, J. D., and Oates, M. J.
(2001). Pesa-ii: Region-based selection in evolutionary multiobjective optimiza-
tion. In Proceedings of the 3rd Annual Conference on Genetic and Evolutionary
Computation, pages 283–290. Morgan Kaufmann Publishers Inc.
[Danziger, 2010] Danziger, P. (2010). Big o notation. Source internet: http://www.
scs. ryerson. ca/˜ mth110/Handouts/PD/bigO. pdf, Retrieve: April.
[Das and Dennis, 1998] Das, I. and Dennis, J. (1998). Normal-boundary intersection: A
new method for generating the pareto surface in nonlinear multicriteria optimization
problems. SIAM Journal on Optimization, 8(3):631–657.
[Das and Suganthan, 2011] Das, S. and Suganthan, P. N. (2011). Differential evolution:
A survey of the state-of-the-art. IEEE transactions on evolutionary computation,
15(1):4–31.
80
[Deb et al., 2000] Deb, K., Agrawal, S., Pratap, A., and Meyarivan, T. (2000). A
fast elitist non-dominated sorting genetic algorithm for multi-objective optimization:
Nsga-ii. In Proceedings of the 6th International Conference on Parallel Problem
Solving from Nature, volume 1917 of Lecture Notes in Computer Science, Berlin,
Heidelberg. Springer.
[Deb and Jain, 2014] Deb, K. and Jain, H. (2014). An evolutionary many-objective
optimization algorithm using reference-point-based nondominated sorting approach,
part i: Solving problems with box constraints. IEEE Transactions on Evolutionary
Computation, 18(4):577–601.
[Deb et al., 2007] Deb, K., Karthik, S., and Okabe, T. (2007). Self-adaptive simulated
binary crossover for real-parameter optimization. In Proceedings of the 9th annual
conference on Genetic and evolutionary computation, GECCO ’07, pages 1187–1194.
ACM.
[Deb et al., 2003] Deb, K., Mohan, M., and Mishra, S. (2003). A Fast Multi-objective
Evolutionary Algorithm for Finding Well-Spread Pareto-Optimal Solutions. Kan-
GAL report 2003002, Indian Institute of Technology, Kanpur, India.
[Deb et al., 2006] Deb, K., Sinha, A., and Kukkonen, S. (2006). Multi-objective test
problems, linkages, and evolutionary methodologies. In GECCO’06, pages 1141–1148.
[Duarte et al., 2006] Duarte, A., Laguna, M., and Martı́, R. (2006). Tabu search for
the linear ordering problem with cumulative costs. Computational Optimization and
Applications, pages 1–19.
[Durillo et al., 2010] Durillo, J., Nebro, A., Coello Coello, C., Garcı́a-Nieto, J., Luna,
F., and Alba, E. (2010). A study of multiobjective metaheuristics when solving para-
meter scalable problems. IEEE Transctions on Evolutionary Computation, 14(4):618
– 635.
[Durillo et al., 2009a] Durillo, J., Nebro, A., Luna, F., and Alba, E. (2009a). On the
effect of the steady-state selection scheme in multi-objective genetic algorithms. In
5th International Conference, EMO 2009, volume 5467 of Lecture Notes in Computer
Science, pages 183–197, Nantes, France. Springer Berlin / Heidelberg.
[Durillo et al., 2009b] Durillo, J., Nebro, A., Luna, F., and Alba, E. (2009b). On the
effect of the steady-state selection scheme in multi-objective genetic algorithms. In
5th International Conference, EMO 2009, volume 5467 of Lecture Notes in Computer
Science, pages 183–197, Nantes, France. Springer Berlin / Heidelberg.
[Durillo and Nebro, 2011] Durillo, J. J. and Nebro, A. J. (2011). jmetal: A java frame-
work for multi-objective optimization. Advances in Engineering Software, 42:760–
771.
81
[Durillo et al., 2008] Durillo, J. J., Nebro, A. J., Luna, F., and Alba, E. (2008). Solving
three-objective optimization problems using a new hybrid cellular genetic algorithm.
In Rudolph, G., Jensen, T., Lucas, S., Poloni, C., and Beume, N., editors, Parallel
Problem Solving from Nature - PPSN X, volume 5199 of Lecture Notes in Computer
Science, pages 661–670. Springer.
[Erbas et al., 2003] Erbas, C., Erbas, S. C., and Pimentel, A. D. (2003). A multiobjecti-
ve optimization model for exploring multiprocessor mappings of process networks. In
First IEEE/ACM/IFIP International Conference on Hardware/ Software Codesign
and Systems Synthesis (IEEE Cat. No.03TH8721), pages 182–187.
[Eskandari et al., 2007] Eskandari, H., Geiger, C. D., and Lamont, G. B. (2007). FastP-
GA: A dynamic population sizing approach for solving expensive multiobjective
optimization problems. In Obayashi, S., Deb, K., Poloni, C., Hiroyasu, T., and
Murata, T., editors, Evolutionary Multi-Criterion Optimization. 4th International
Conference, EMO 2007, volume 4403 of Lecture Notes in Computer Science, pages
141–155. Springer.
[Fleszar et al., 2011] Fleszar, K., Glaßer, C., Lipp, F., Reitwießner, C., and Witek,
M. (2011). The complexity of solving multiobjective optimization problems and
its relation to multivalued functions. In Electronic Colloquium on Computational
Complexity (ECCC), volume 18, page 165.
[Gansner et al., 2005] Gansner, E. R., Koren, Y., and North, S. (2005). Graph dra-
wing by stress majorization. In Pach, J., editor, Graph Drawing: 12th International
Symposium, pages 239–250. Springer.
[Garcı́a et al., 2008] Garcı́a, S., Molina, D., Lozano, M., and Herrera, F. (2008). A
study on the use of non-parametric tests for analyzing the evolutionary algorithms’
behaviour: a case study on the cec’2005 special session on real parameter optimiza-
tion. Journal of Heuristics, 15(6):617–644.
[Garey and Johnson, 1990] Garey, M. R. and Johnson, D. S. (1990). Computers and
Intractability; A Guide to the Theory of NP-Completeness. W. H. Freeman & Co.,
New York, NY, USA.
[Garey et al., 1979] Garey, M. R., Johnson, D. S., and Others (1979).
Computers and Intractability: A Guide to the Theory of NP-completeness. WH
freeman San Francisco.
[Gembicki and Haimes, 1975] Gembicki, F. and Haimes, Y. (1975). Approach to per-
formance and sensitivity multiobjective optimization: The goal attainment method.
Automatic Control, IEEE Transactions on, 20(6):769–771.
[Glaßer et al., 2010] Glaßer, C., Reitwießner, C., Schmitz, H., and Witek, M. (2010).
Approximability and hardness in multi-objective optimization. In Conference on
Computability in Europe, pages 180–189. Springer.
[Greiner et al., 2006] Greiner, D., Winter, G., and Emperador, J. M. (2006). Enhancing
the multiobjective optimum design of structural trusses with evolutionary algorithms
using densea. In 44th AIAA Aerospace Sciences Meeting and Exhibit, page 1474.
[Hadka, 2012] Hadka, D. (2012). Moea framework-a free and open source java frame-
work for multiobjective optimization.
[Hadka and Reed, 2013] Hadka, D. and Reed, P. (2013). Borg: An auto-adaptive many-
objective evolutionary computing framework. Evolutionary computation, 21(2):231–
259.
[Hernández Gómez and Coello Coello, 2013] Hernández Gómez, R. and Coello Coello,
C. A. (2013). Mombi: A new metaheuristic for many-objective optimization based on
the r2 indicator. In 2013 IEEE Conference on Evolutionary Computation, volume 1,
pages 2488–2495.
[Hoffmann, 2001] Hoffmann, F. (2001). Evolutionary algorithms for fuzzy control sys-
tem design. Proceedings of the IEEE, 89(9):1318–1333.
[Hou and Wang, 2013] Hou, Z.-S. and Wang, Z. (2013). From model-based control to
data-driven control: Survey, classification and perspective. Inf. Sci., 235:3–35.
[Huacuja et al., 2015] Huacuja, H. J. F., Santiago, A., Pecero, J. E., Dorronsoro, B.,
Bouvry, P., Monterrubio, J. C. S., Barbosa, J. J. G., and Santillan, C. G. (2015).
A Comparison Between Memetic Algorithm and Seeded Genetic Algorithm for
Multi-objective Independent Task Scheduling on Heterogeneous Machines, pages
377–389. Springer International Publishing, Cham.
[Huang et al., 2007] Huang, V. L., Qin, A. K., Suganthan, P. N., and Tasgetiren, M. F.
(2007). Multi-objective optimization based on self-adaptive differential evolution
algorithm. In IEEE Congress on Evol. Comp. (CEC), pages 3601–3608.
[Huang et al., 2009] Huang, V. L., Zhao, S. Z., Mallipeddi, R., and Suganthan, P. N.
(2009). Multi-objective optimization using self-adaptive differential evolution algo-
rithm. In IEEE Congress on Evol. Comp. (CEC), pages 190–194.
[Huisman et al., 2010] Huisman, J., Rings, J., Vrugt, J., Sorg, J., and Vereecken, H.
(2010). Hydraulic properties of a model dike from coupled bayesian and multi-criteria
hydrogeophysical inversion. Journal of Hydrology, 380(1-2):62–73.
[Hwang and Masud, 1979] Hwang, C. and Masud, A. (1979). Multiple objective
decision making, methods and applications: a state-of-the-art survey. Lecture notes
in economics and mathematical systems. Springer-Verlag.
[Igel et al., 2007] Igel, C., Hansen, N., and Roth, S. (2007). Covariance matrix adap-
tation for multi-objective optimization. Evolutionary computation, 15(1):1–28.
[Igel and Toussaint, 2005] Igel, C. and Toussaint, M. (2005). A no-free-lunch theorem
for non-uniform distributions of target functions. Journal of Mathematical Modelling
and Algorithms, 3(4):313–322.
[Iorio and Li, 2004] Iorio, A. W. and Li, X. (2004). Solving rotated multi-objective opti-
mization problems using differential evolution. In Australian Conference on Artificial
Intelligence, pages 861–872.
[Ishibuchi et al., 2015] Ishibuchi, H., Masuda, H., and Nojima, Y. (2015). A study on
performance evaluation ability of a modified inverted generational distance indica-
tor. In Proceedings of the 2015 Annual Conference on Genetic and Evolutionary
Computation, GECCO ’15, pages 695–702, New York, NY, USA. ACM.
[Jain and Deb, 2014] Jain, H. and Deb, K. (2014). An evolutionary many-objective
optimization algorithm using reference-point based nondominated sorting approach,
part ii: Handling constraints and extending to an adaptive approach. IEEE
Transactions on Evolutionary Computation, 18(4):602–622.
[K. Deb and Zitzler, 2001] K. Deb, L. Thiele, M. L. and Zitzler, E. (2001). Scalable
Test Problems for Evolutionary Multi-Objective Optimization.
[Karnik et al., 1999] Karnik, N. N., Mendel, J. M., and Liang, Q. (1999). Type-2 fuzzy
logic systems. IEEE Trans. on Fuzzy Systems, 7(6):643–658.
[Knowles and Corne, 1999] Knowles, J. and Corne, D. (1999). The pareto archived
evolution strategy: A new baseline algorithm for multiobjective optimization. In
Proceedings of the 1999 Congress on Evolutionary Computation, pages 9–105, Pis-
cataway, NJ. IEEE Press.
84
[Kukkonen and Lampinen, 2005] Kukkonen, S. and Lampinen, J. (2005). GDE3: The
third Evolution Step of Generalized Differential Evolution. In IEEE Congress on
Evolutionary Computation (CEC’2005), pages 443 – 450.
[LaTorre et al., 2011] LaTorre, A., Muelas, S., and Peña, J.-M. (2011). A mos-based
dynamic memetic differential evolution algorithm for continuous optimization: a sca-
lability test. Soft Computing, 15(11):2187–2199.
[LaTorre et al., 2013] LaTorre, A., Muelas, S., and Peña, J. M. (2013). Large scale
global optimization: Experimental results with mos-based hybrid algorithms. In
2013 IEEE Congress on Evolutionary Computation, pages 2742–2749.
[Laumanns et al., 2002a] Laumanns, M., Thiele, L., Deb, K., and Zitzler, E. (2002a).
Combining convergence and diversity in evolutionary multiobjective optimization.
Evol. Comput., 10(3):263–282.
[Laumanns et al., 2004] Laumanns, M., Thiele, L., and Zitzler, E. (2004). Running
time analysis of multiobjective evolutionary algorithms on pseudo-boolean functions.
IEEE Transactions on Evolutionary Computation, 8(2):170–182.
[Laumanns et al., 2006] Laumanns, M., Thiele, L., and Zitzler, E. (2006). An effi-
cient, adaptive parameter variation scheme for metaheuristics based on the epsilon-
constraint method. European Journal of Operational Research, 169(3):932–942.
[Laumanns et al., 2002b] Laumanns, M., Thiele, L., Zitzler, E., Welzl, E., and Deb,
K. (2002b). Running time analysis of multi-objective evolutionary algorithms on a
simple discrete optimization problem. Parallel Problem Solving From Nature—PPSN
VII, pages 44–53.
[Lee, 1990a] Lee, C.-C. (1990a). Fuzzy logic in control systems: fuzzy logic controller.
i. IEEE Transactions on systems, man, and cybernetics, 20(2):404–418.
[Lee, 1990b] Lee, C. C. (1990b). Fuzzy logic in control systems: fuzzy logic controller.
ii. IEEE Transactions on Systems, Man, and Cybernetics, 20(2):419–435.
[Li and Zhang, 2009] Li, H. and Zhang, Q. (2009). Multiobjective Optimization Pro-
blems With Complicated Pareto Sets, MOEA/D and NSGA-II. IEEE Transactions
on Evolutionary Computation, 13(2):229–242.
[Liefooghe et al., 2011] Liefooghe, A., Humeau, J., Mesmoudi, S., Jourdan, L., and Tal-
bi, E.-G. (2011). On dominance-based multiobjective local search: design, implemen-
tation and experimental analysis on scheduling and traveling salesman problems.
[Liu and Tang, 2013] Liu, J. and Tang, K. (2013). Scaling up covariance matrix adap-
tation evolution strategy using cooperative coevolution. In Yin, H., Tang, K., Gao,
Y., Klawonn, F., Lee, M., Weise, T., Li, B., and Yao, X., editors, Intelligent Data
Engineering and Automated Learning – IDEAL 2013, pages 350–357, Berlin, Heidel-
berg. Springer Berlin Heidelberg.
85
[Lukasiewycz et al., 2007] Lukasiewycz, M., Glaß, M., Haubelt, C., and Teich, J.
(2007). Solving multi-objective pseudo-boolean problems. In International
Conference on Theory and Applications of Satisfiability Testing, pages 56–69. Sprin-
ger.
[Lukasiewycz et al., 2011] Lukasiewycz, M., Glaß, M., Reimann, F., and Teich, J.
(2011). Opt4J - A Modular Framework for Meta-heuristic Optimization. In
Proceedings of the Genetic and Evolutionary Computing Conference (GECCO 2011),
pages 1723–1730, Dublin, Ireland.
[Ma et al., 2016] Ma, X., Liu, F., Qi, Y., Wang, X., Li, L., Jiao, L., Yin, M., and
Gong, M. (2016). A multiobjective evolutionary algorithm based on decision variable
analyses for multiobjective optimization problems with large-scale variables. IEEE
Transactions on Evolutionary Computation, 20(2):275–298.
[Macki and Strauss, 2012] Macki, J. and Strauss, A. (2012). Introduction to Optimal
Control Theory. Undergraduate Texts in Mathematics. Springer New York.
[Marler and Arora, 2004] Marler, R. T. and Arora, J. S. (2004). Survey of multi-
objective optimization methods for engineering. Structural and Multidisciplinary
Optimization, 26(6):369–395.
[Martı́ et al., 2006] Martı́, R., Laguna, M., and Glover, F. (2006). Principles of scatter
search. European Journal of Operational Research, 169(2):359–372.
[Melin et al., 2013] Melin, P., Olivas, F., Castillo, O., Valdez, F., Soria, J., and Valdez,
M. (2013). Optimal design of fuzzy classification systems using PSO with dyna-
mic parameter adaptation through fuzzy logic. Expert Systems with Applications,
40(8):3196 – 3206.
[Messac and Hattis, 1996] Messac, A. and Hattis, P. D. (1996). Physical programming
design optimization for high speed civil transport. Journal of aircraft, 33(2):446–449.
[Messac et al., 2003] Messac, A., Ismail-Yahaya, A., and Mattson, C. (2003). The nor-
malized normal constraint method for generating the pareto frontier. Structural and
Multidisciplinary Optimization, 25(2):86–98.
[Messac and Mattson, 2002] Messac, A. and Mattson, C. (2002). Generating well-
distributed sets of pareto points for engineering design using physical programming.
Optimization and Engineering, 3(4):431–450.
[Messac and Mattson, 2004] Messac, A. and Mattson, C. (2004). Normal Constraint
Method with Guarantee of Even Representation of Complete Pareto Frontier. AIAA
Journal, 42:2101–2111.
[Molina and Herrera, 2015] Molina, D. and Herrera, F. (2015). Iterative hybridization
of de with local search for the cec’2015 special session on large scale global optimiza-
tion. In 2015 IEEE Congress on Evolutionary Computation (CEC), pages 1974–1978.
[Naujoks and Beume, 2005] Naujoks, B. and Beume, N. (2005). Multi-objective opti-
misation using s-metric selection: Application to three-dimensional solution spaces.
In In CEC’2005, pages 1282–1289. Press.
[Nebro et al., 2009a] Nebro, A., Durilllo, J., Garcı́a-Nieto, J., Coello Coello, C., Lu-
na, F., and Alba, E. (2009a). SMPSO: a new PSO-based metaheuristic for multi-
objective optimization. In 2009 IEEE Symposium on Computational Intelligence in
Multi-criteria decision-making (MCDM 2009), pages 66–73. IEEE Computer Society.
[Nebro et al., 2013a] Nebro, A., Durillo, J., and C.A. Coello Coello, C. A. C. C. (2013a).
Analysis of leader selection strategies in a multi-objective particle swarm optimizer.
In CEC 2013.
[Nebro et al., 2009b] Nebro, A., Durillo, J., Garcı́a-Nieto, J., Coello Coello, C., Lu-
na, F., and Alba, E. (2009b). Smpso: A new pso-based metaheuristic for multi-
objective optimization. In 2009 IEEE Symposium on Computational Intelligence in
Multicriteria Decision-Making (MCDM 2009), pages 66–73. IEEE Press.
[Nebro et al., 2007a] Nebro, A. J., Alba, E., Molina, G., Chicano, F., Luna, F., and
Durillo, J. J. (2007a). Optimal antenna placement using a new multi-objective chc
algorithm. In GECCO ’07: Proceedings of the 9th annual conference on Genetic and
evolutionary computation, pages 876–883, New York, NY, USA. ACM Press.
[Nebro and Durillo, 2009] Nebro, A. J. and Durillo, J. J. (2009). On the Effect of
Applying a Steady-State Selection Scheme in the Multi-Objective Genetic Algorithm
NSGA-II, pages 435–456. Springer Berlin Heidelberg.
[Nebro and Durillo, 2010] Nebro, A. J. and Durillo, J. J. (2010). A study of the para-
llelization of the multi-objective metaheuristic moea/d. In Blum, C. and Battiti, R.,
editors, Learning and Intelligent Optimization, pages 303–317.
[Nebro et al., 2013b] Nebro, A. J., Durillo, J. J., and Coello, C. A. C. (2013b). Analy-
sis of leader selection strategies in a multi-objective particle swarm optimizer. In
Congress on Evolutionary Computation (CEC), pages 3153–3160.
[Nebro et al., 2006] Nebro, A. J., Durillo, J. J., Luna, F., Dorronsoro, B., and Al-
ba, E. (2006). A cellular genetic algorithm for multiobjective optimization. In
Pelta, D. A. and Krasnogor, N., editors, Proceedings of the Workshop on Nature
Inspired Cooperative Strategies for Optimization (NICSO 2006), pages 25–36, Gra-
nada, Spain.
[Nebro et al., 2007b] Nebro, A. J., Durillo, J. J., Luna, F., Dorronsoro, B., and Alba,
E. (2007b). Design issues in a multiobjective cellular genetic algorithm. In Oba-
yashi, S., Deb, K., Poloni, C., Hiroyasu, T., and Murata, T., editors, Evolutionary
Multi-Criterion Optimization. 4th International Conference, EMO 2007, volume 4403
of Lecture Notes in Computer Science, pages 126–140. Springer.
[Nebro et al., 2013c] Nebro, A. J., Durillo, J. J., Navas, M. M., Coello, C. A. C., and
Dorronsoro, B. (2013c). A study of the combination of variation operators in the
nsga-ii algorithm. In CAEPIA, pages 269–278.
[Nebro et al., 2015] Nebro, A. J., Durillo, J. J., and Vergne, M. (2015). Redesigning
the jmetal multi-objective optimization framework. In GECCO, pages 1093–1100.
ACM.
87
[Nebro et al., 2008] Nebro, A. J., Luna, F., Alba, E., Dorronsoro, B., Durillo, J. J., and
Beham, A. (2008). AbYSS: Adapting Scatter Search to Multiobjective Optimization.
IEEE Transactions on Evolutionary Computation, 12(4).
[Noorbin and Alfi, 2017] Noorbin, S. F. H. and Alfi, A. (2017). Adaptive parameter
control of search group algorithm using fuzzy logic applied to networked control
systems. Soft Computing.
[Ochoa et al., 2017] Ochoa, P., Castillo, O., and Soria, J. (2017). Differential Evolution
Using Fuzzy Logic and a Comparative Study with Other Metaheuristics, pages 257–
268. Springer International Publishing.
[Olivas et al., 2017a] Olivas, F., Valdez, F., and Castillo, O. (2017a). Gravitational
Search Algorithm with Parameter Adaptation Through a Fuzzy Logic System, pages
391–405. Springer International Publishing.
[Olivas et al., 2017b] Olivas, F., Valdez, F., Castillo, O., Gonzalez, C. I., Martinez, G.,
and Melin, P. (2017b). Ant colony optimization with dynamic parameter adaptation
based on interval type-2 fuzzy logic systems. Applied Soft Computing, 53:74 – 87.
[Peraza et al., 2015] Peraza, C., Valdez, F., and Castillo, O. (2015). Design of
Intelligent Systems Based on Fuzzy Logic, Neural Networks and Nature-Inspired
Optimization, chapter An Improved Harmony Search Algorithm Using Fuzzy Logic
for the Optimization of Mathematical Functions, pages 605–615. Springer.
[Pérez et al., 2015] Pérez, J., Valdez, F., and Castillo, O. (2015). Fuzzy Logic
Augmentation of Nature-Inspired Optimization Metaheuristics: Theory and
Applications, chapter A New Bat Algorithm with Fuzzy Logic for Dynamical Pa-
rameter Adaptation and Its Applicability to Fuzzy Control Design, pages 65–79.
Springer.
[Polya, 1971] Polya, G. (1971). How to solve it: A new aspect of mathematical method.
Princeton University Press Princeton, NJ.
[Price et al., 2005] Price, K., Storn, R., and Lampinen, J. (2005). Differential Evolution
A Practical Approach to Global Optimization. Natural Computing Series. Springer-
Verlag.
[Qin et al., 2009] Qin, A., Huang, V. L., and Suganthan, P. (2009). Differential evo-
lution algorithm with strategy adaptation for global numerical optimization. IEEE
Trans. on Evolutionary Computation, 2(13):398–417.
[Rao, 1987] Rao, S. (1987). Game theory approach for multiobjective structural opti-
mization. Computers & Structures, 25(1):119 – 127.
88
[Rao and Freiheit, 1991] Rao, S. and Freiheit, T. I. (1991). A modified game theory
approach to multiobjective optimization. Journal of Mechanical Design, 113:286 –
291.
[Raquel. and A., 2015] Raquel., H. G. and A., C. C. C. (2015). Improved metaheuristic
based on the r2 indicator for many-objective optimization. In Proceedings of the 2015
Annual Conference on Genetic and Evolutionary Computation, GECCO ’15, pages
679–686, New York, NY, USA. ACM.
[Reeves, 1993] Reeves, C. R. (1993). Modern heuristic techniques for combinatorial problems.
John Wiley & Sons, Inc. New York, NY, USA.
[Reyes and Coello Coello, 2005] Reyes, M. and Coello Coello, C. (2005). Improving
pso-based multi-objective optimization using crowding, mutation and ǫ-dominance.
In Coello, C., Hernández, A., and Zitler, E., editors, Third International Conference
on Evolutionary MultiCriterion Optimization, EMO 2005, volume 3410 of LNCS,
pages 509–519. Springer.
[Romero et al., 1998] Romero, C., Tamiz, M., and Jones, D. (1998). Goal programming,
compromise programming and reference point method formulations: linkages and
utility interpretations. Journal of the Operational Research Society, 49(9):986–991.
[Roy and Chakraborty, 2013] Roy, S. and Chakraborty, U. (2013). Introduction to soft
computing: : neuro-fuzzy and genetic algorithms. Dorling Kindersley.
[Saborido et al., 2017] Saborido, R., Ruiz, A. B., and Luque, M. (2017). Global wasf-ga:
An evolutionary algorithm in multiobjective optimization to approximate the whole
pareto optimal front. Evolutionary Computation, 25(2):309–349. PMID: 26855136.
[Santiago et al., 2016a] Santiago, A., Dorronsoro, B., Nebro, A. J., and Fraire, H.
(2016a). A multi-objective evolutionary algorithm with adaptive selection of opera-
tors. In Proceedings of META’2016 6th International Conference on Metaheuristics
and Nature Inspired computing, META, pages 446–448.
[Santiago et al., 2016b] Santiago, A., Dorronsoro, B., Nebro, A. J., and Fraire, H.
(2016b). Un nuevo método de estimación de densidad para problemas de optimi-
zación con tres objetivos usando metaheurı́sticas. In Actas de la XVII conferencia
de la asosiación española para la inteligencia artificial, MAEB, pages 345–354.
[Santiago et al., 2014] Santiago, A., Huacuja, H., Dorronsoro, B., Pecero, J., Santillan,
C., Barbosa, J., and Monterrubio, J. (2014). A survey of decomposition methods for
multi-objective optimization. In Castillo, O., Melin, P., Pedrycz, W., and Kacprzyk,
J., editors, Recent Advances on Hybrid Approaches for Designing Intelligent Systems,
volume 547 of Studies in Computational Intelligence, pages 453–465. Springer Inter-
national Publishing.
[Schlichter et al., 2006] Schlichter, T., Lukasiewycz, M., Haubelt, C., and Teich, J.
(2006). Improving system level design space exploration by incorporating sat-solvers
into multi-objective evolutionary algorithms. In IEEE Computer Society Annual
Symposium on Emerging VLSI Technologies and Architectures (ISVLSI’06), pages
6 pp.–.
[Siegfried et al., 2009] Siegfried, T., Bleuler, S., Laumanns, M., Zitzler, E., and Kin-
zelbach, W. (2009). Multiobjective groundwater management using evolutionary
algorithms. IEEE Transactions on Evolutionary Computation, 13(2):229–242.
[Simon Huband and While, 2007] Simon Huband, Phil Hingston, L. B. and While, L.
(2007). A Review of Multi-objective Test Problems and a Scalable Test Problem
Toolkit. IEEE Transactions on Evolutionary Computation.
[Steuer and Choo, 1983a] Steuer, R. and Choo, E.-U. (1983a). An interactive weigh-
ted tchebycheff procedure for multiple objective programming. Mathematical
Programming, 26(3):326–344.
[Steuer and Choo, 1983b] Steuer, R. and Choo, E.-U. (1983b). An interactive weigh-
ted tchebycheff procedure for multiple objective programming. Mathematical
Programming, 26(3):326–344.
[Stewart et al., 2008] Stewart, T., Bandte, O., Braun, H., Chakraborti, N., Ehrgott, M.,
Göbelt, M., Jin, Y., Nakayama, H., Poles, S., and Di Stefano, D. (2008). Real-World
Applications of Multiobjective Optimization, pages 285–327. Springer Berlin Heidel-
berg, Berlin, Heidelberg.
[Storn and Price, 1995] Storn, R. and Price, K. (1995). Differential evolution - a sim-
ple and efficient adaptive scheme for global optimization over continuous spaces.
Technical Report TR-95-012.
[Straffin, 1993] Straffin, P. D. (1993). Game Theory and Strategy. Mathematical As-
sociation of America, Washington, DC.
[Thiele et al., 2002] Thiele, L., Chakraborty, S., Gries, M., and Künzli, S. (2002). A
framework for evaluating design tradeoffs in packet processing architectures. In Proc.
39th Design Automation Conference (DAC), pages 880–885, New Orleans, USA.
ACM Press.
[Tind and Wiecek, 1999] Tind, J. and Wiecek, M. (1999). Augmented lagrangian
and tchebycheff approaches in multiple objective programming. Journal of Global
Optimization, 14(3):251–266.
90
[Toscano Pulido and Coello Coello, 2003] Toscano Pulido, G. and Coello Coello, C.
(2003). The micro genetic algorithm 2: Towards online adaptation in evolutionary
multiobjective optimization. In Fonseca, C., Fleming, P., Zitzler, E., Thiele, L., and
Deb, K., editors, Evolutionary Multi-Criterion Optimization, volume 2632 of Lecture
Notes in Computer Science, pages 75–75. Springer Berlin / Heidelberg.
[Valdez et al., 2014] Valdez, F., Melin, P., and Castillo, O. (2014). A survey on nature-
inspired optimization algorithms with fuzzy logic for dynamic parameter adaptation.
Expert Systems with Applications, 41(14):6459 – 6466.
[Vrugt and Robinson, 2007] Vrugt, J. and Robinson, B. (2007). Improved evolutio-
nary optimization from genetically adaptive multimethod search. Proceedings of the
National Academy of Sciences of the United States of America, 104(3):708–11.
[While et al., 2012] While, L., Bradstreet, L., and Barone, L. (2012). A fast way of
calculating exact hypervolumes. IEEE Transactions on Evolutionary Computation,
16(1):86–95.
[Wöhling and Vrugt, 2011] Wöhling, T. and Vrugt, J. (2011). Multi-response multi-
layer vadose zone model calibration using markov chain monte carlo simulation and
field water retention data. Water Resources Research, 77.
[Yang and Ding, 2007] Yang, Q. and Ding, S. (2007). Novel algorithm to calculate
hypervolume indicator of pareto approximation set. CoRR, pages –1–1.
[Yang et al., 2008] Yang, Z., Tang, K., and Yao, X. (2008). Large scale evolutionary
optimization using cooperative coevolution. Information Sciences, 178(15):2985 –
2999. Nature Inspired Problem-Solving.
91
[Yang et al., 2009] Yang, Z., Zhang, J., Tang, K., Yao, X., and Sanderson, A. C. (2009).
An adaptive coevolutionary differential evolution algorithm for large-scale optimiza-
tion. In 2009 IEEE Congress on Evolutionary Computation, pages 102–109.
[Yu and Leitmann, 1974] Yu, P. and Leitmann, G. (1974). Compromise solutions, do-
mination structures, and salukvadze’s solution. Journal of Optimization Theory and
Applications, 13(3):362–378.
[Yuan et al., 2016] Yuan, Y., Xu, H., Wang, B., and Yao, X. (2016). A new domi-
nance relation-based evolutionary algorithm for many-objective optimization. IEEE
Transactions on Evolutionary Computation, 20(1):16–37.
[Zadeh, 1965] Zadeh, L. (1965). Fuzzy sets. Information and Control, 8(3):338 – 353.
[Zeleny and Cochrane, 1982] Zeleny, M. and Cochrane, J. L. (1982). Multiple criteria
decision making, volume 25. McGraw-Hill New York.
[Zeng et al., 2010] Zeng, F., Low, M., Decraene, J., Zhou, S., and Cai, W. (2010). Self-
adaptive mechanism for multi-objective evolutionary algorithms. In Proceedings of
the International Conference on Artificial Intelligence and Applications, IMECS1́0,
pages 7–12.
[Zhang et al., 2016] Zhang, H., Zhou, A., Song, S., Zhang, Q., Gao, X. Z., and Zhang, J.
(2016). A self-organizing multiobjective evolutionary algorithm. IEEE Transactions
on Evolutionary Computation, 20(5):792–806.
[Zhang and Sanderson, 2009] Zhang, J. and Sanderson, A. C. (2009). Jade: Adap-
tive differential evolution with optional external archive. IEEE Transactions on
Evolutionary Computation, 13(5):945–958.
[Zhang and Li, 2007] Zhang, Q. and Li, H. (2007). MOEA/D: A multiobjective evo-
lutionary algorithm based on decomposition. IEEE Transactions on evolutionary
computation, 11(6):712–731.
[Zhang et al., 2009a] Zhang, Q., Liu, W., and Li, H. (2009a). The performance of a
new version of MOEA/D on CEC09 unconstrained mop test instances. Technical
Report CES-491, School of CS & EE, University of Essex.
[Zhang et al., 2008] Zhang, Q., Zhou, A., Zhao, S., Suganthan, P. N., Liu, W., and
Tiwari, S. (2008). Multiobjective optimization test instances for the cec 2009 spe-
cial session and competition. University of Essex, Colchester, UK and Nanyang
technological University, Singapore, special session on performance assessment of
multi-objective optimization algorithms, technical report, 264.
[Zhang et al., 2009b] Zhang, Q., Zou, A., Zhao, S., Suganthan, P., Liu, W., and Tivari,
S. (2009b). Multiobjective optimization test instances for the CEC 2009 special
session and competition”. Technical Report CES-491, School of CS & EE, University
of Essex.
[Zhang et al., 2015] Zhang, Y., Wang, S., and Ji, G. (2015). A comprehensive survey on
particle swarm optimization algorithm and its applications. Mathematical Problems
in Engineering, 2015.
92
[Zhao and Bose, 2002] Zhao, J. and Bose, B. K. (2002). Evaluation of membership
functions for fuzzy logic controlled induction motor drive. In IEEE 2002 28th Annual
Conference of the Industrial Electronics Society. IECON 02, volume 1, pages 229–234
vol.1.
[Zhou et al., 2006] Zhou, A., Jin, Y., Zhang, Q., Sendhoff, B., and Tsang, E. (2006).
Combining model-based and genetics-based offspring generation for multi-objective
optimization using a convergence criterion. In in Proceedings of the Congress on
Evolutionary Computation (CEC, pages 3234–3241. IEEE Press.
[Zitzler et al., 2007a] Zitzler, E., Brockhoff, D., and Thiele, L. (2007a). The hypervo-
lume indicator revisited: On the design of pareto-compliant indicators via weighted
integration. In Obayashi, S., Deb, K., Poloni, C., Hiroyasu, T., and Murata, T., edi-
tors, Evolutionary Multi-Criterion Optimization, pages 862–876, Berlin, Heidelberg.
Springer Berlin Heidelberg.
[Zitzler et al., 2007b] Zitzler, E., Brockhoff, D., and Thiele, L. (2007b). The Hy-
pervolume Indicator Revisited: On the Design of Pareto-compliant Indicators Via
Weighted Integration. In Obayashi, S. et al., editors, Conference on Evolutionary
Multi-Criterion Optimization (EMO 2007), volume 4403 of LNCS, pages 862–876,
Berlin. Springer.
[Zitzler and Künzli, 2004] Zitzler, E. and Künzli, S. (2004). Indicator-based selection
in multiobjective search. In Yao, X., Burke, E. K., Lozano, J. A., Smith, J., Merelo-
Guervós, J. J., Bullinaria, J. A., Rowe, J. E., Tiňo, P., Kabán, A., and Schwefel,
H.-P., editors, Parallel Problem Solving from Nature - PPSN VIII, pages 832–842,
Berlin, Heidelberg. Springer Berlin Heidelberg.
[Zitzler et al., 2001] Zitzler, E., Laumanns, M., and Thiele, L. (2001). SPEA2: Impro-
ving the strength pareto evolutionary algorithm. Technical Report 103, Computer
Engineering and Networks Laboratory (TIK), Swiss Federal Institute of Technology
(ETH), Zurich, Switzerland.
[Zitzler and Thiele, 1998] Zitzler, E. and Thiele, L. (1998). An evolutionary algorithm
for multiobjective optimization: The strength pareto approach.
[Zitzler and Thiele, 1999] Zitzler, E. and Thiele, L. (1999). Multiobjective evolutio-
nary algorithms: a comparative case study and the strength pareto approach. IEEE
Transactions on Evolutionary Computation, 3(4):257–271.
[Zitzler et al., 2009] Zitzler, E., Thiele, L., and Bader, J. (2009). On Set-Based Multiob-
jective Optimization. IEEE Transactions on Evolutionary Computation. to appear.
[Zitzler et al., 2003] Zitzler, E., Thiele, L., Laumanns, M., Fonseca, C. M., and da Fon-
seca, V. G. (2003). Performance assessment of multiobjective optimizers: an analysis
and review. IEEE Transactions on Evolutionary Computation, 7(2):117–132.