Está en la página 1de 92

1

SEP TNM

INSTITUTO TECNOLÓGICO DE TIJUANA

DIVISIÓN DE ESTUDIOS DE POSGRADO E


INVESTIGACIÓN

MÉTODOS DE OPTIMIZACIÓN MULTIOBJETIVO

TRABAJO DE TESIS
Presentado por
AURELIO ALEJANDRO SANTIAGO PINEDA
Para Obtener el Grado de
DOCTOR EN CIENCIAS EN COMPUTACIÓN
Director de Tesis
DR. HÉCTOR JOAQUÍN FRAIRE HUACUJA
Co-Director de Tesis
DR. BERNABÉ DORRONSORO DÍAZ
Tijuana, BC, Marzo, 2018
3

Declaración de originalidad

Declaro y prometo que este documento de tesis es producto de mi trabajo original


y que no infringe los derechos de terceros, tales como derechos de publicación, derechos
de autor, patentes y similares.
Además, declaro que en las citas textuales que he incluido (las cuales aparecen entre
comillas) y en los resúmenes que he realizado de publicaciones ajenas, indico explı́cita-
mente los datos de los autores y publicaciones.
Además, en caso de infracción de los derechos de terceros derivados de este documento
de tesis, acepto la responsabilidad de la infracción y relevo de ésta a mi director y
codirectores de tesis, ası́ como al Tecnológico Nacional de México, a la Universidad de
Cádiz y a sus autoridades.

Aurelio Alejandro Santiago Pineda


4

Resumen

El presente trabajo de tesis aborda el problema de generar aproximaciones al frente


de Pareto en problemas de optimización multiobjetivo, con calidad y diversidad. Por
calidad entiéndase soluciones no dominadas por otras aproximaciones encontradas, lo
más cercanas al frente de Pareto real. Por diversidad entiéndase que la aproximación
encontrada sea representativa de la forma real del frente de Pareto.

El trabajo se ha enfocado en tres contribuciones principales. Número uno, el desarro-


llo de un nuevo estimador de densidad de soluciones para optimización multiobjetivo,
el primero de complejidad polinomial capaz de resolver problemas con tres objetivos.
Número dos, la selección adaptativa de operadores de cruza y mutación mediante un
motor de inferencia difusa, el primero en su clase, superando enfoques tradicionales
y adaptativos en el estado del arte de la optimización multiobjetivo. Número tres, el
desarrollo de un nuevo algoritmo de optimización multiobjetivo de alto rendimiento
capaz de encontrar aproximaciones del frente de Pareto con una mejor representación
del frente de Pareto real, en comparación con el estado del arte.

Estas contribuciones dan un gran salto en optimización multiobjetivo, a la fecha no


se habı́a logrado diseñar un estimador de densidad que pudiera vencer a las contri-
buciones del hipervolumen con complejidad exponencial, ni a los vectores de pesos
en descomposición multiobjetivo. Por otro lado, la selección adaptativa de operadores
propuesta, deja abierta la selección del conjunto de operadores, a definirse según el
problema en particular a resolver; abriendo la puerta a la resolución de problemas con
mayor complejidad en optimización multiobjetivo.
5

Dedico el presente trabajo de tesis a todas las mentes que luchan


dı́a a dı́a por alcanzar sus metas.
6

Agradezco de manera afectiva por sus contribuciones y guı́a du-


rante el trabajo de tesis a los siguientes investigadores: Dr. Héctor
Joaquin Fraire Huacuja, Dr. Bernabé Dorronsoro Dı́az, Dr. Johna-
tan Eliabeth Pecero Sanchez, Dr. Antonio J. Nebro, Dr. Juan J.
Durillo y Dr. Oscar Castillo.

También quiero agradecer a los siguientes grupos de investiga-


ción: Optimización Inteligente del Instituto Tecnológico de Ciudad
Madero, Khaos de la Universidad de Malaga, Sistemas Inteligentes
de Computación de la Universidad de Cádiz y Métodos y Aplica-
ciones de la Inteligencia Artificial de la Universidad de Cádiz

Ası́ como a las siguientes instituciones: Universidad de Cádiz,


Universidad de Malaga, Instituto Tecnológico de Tijuana, Institu-
to Tecnológico de Leon, Instituto Tecnológico de Ciudad Madero,
Tecnológico Nacional de México y Consejo Nacional de Ciencia y
Tecnologı́a.
7

Índice general

1. Introducción 10
1.1. Problema de investigación . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2. Motivación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3. Objetivos de la tesis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.3.1. Objetivo general . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.3.2. Objetivos especı́ficos . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.4. Estructura de la tesis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

2. Marco teórico de la optimización 13


2.1. Notación O grande . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.2. Complejidad Computacional . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2.1. Problema de decisión . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2.2. Clase P . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2.3. Clase NP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2.4. Problema NP-Completo . . . . . . . . . . . . . . . . . . . . . . . 15
2.2.5. Problema de Optimización . . . . . . . . . . . . . . . . . . . . . 15
2.2.6. Problema NP-Duro . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.2.7. Decibilidad sobre espacios continuos . . . . . . . . . . . . . . . . 16
2.2.8. Decibilidad en funciones multivaluadas . . . . . . . . . . . . . . . 16
2.3. Métodos de Optimización . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.3.1. Métodos Exactos . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.3.2. Métodos Heurı́sticos . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.3.3. Soluciones vecinas . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.3.4. Operador de vecindario . . . . . . . . . . . . . . . . . . . . . . . 17
2.3.5. Óptimo local . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.3.6. Métodos Metaheurı́sticos . . . . . . . . . . . . . . . . . . . . . . 18
2.3.7. Metaheurı́sticos trayectoriales . . . . . . . . . . . . . . . . . . . . 18
2.3.8. Metaheurı́sticos poblacionales . . . . . . . . . . . . . . . . . . . . 18
2.3.9. Algoritmos evolutivos . . . . . . . . . . . . . . . . . . . . . . . . 18
2.4. Optimización multiobjetivo . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.4.1. Óptimo de Pareto . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.4.2. Dominancia de Pareto . . . . . . . . . . . . . . . . . . . . . . . . 19
2.4.3. Conjunto de óptimos de Pareto . . . . . . . . . . . . . . . . . . . 19
2.4.4. Frente de Pareto . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.5. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
8

3. Estado del arte 21


3.1. Optimización multiobjetivo . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.1.1. Sin articulación de preferencias . . . . . . . . . . . . . . . . . . . 21
3.1.2. Articulación de preferencias a priori . . . . . . . . . . . . . . . . 23
3.1.3. Articulación de preferencias a posteriori . . . . . . . . . . . . . . 28
3.1.4. Articulación de preferencias progresivas . . . . . . . . . . . . . . 31
3.2. Metaheurı́sticos multiobjetivo . . . . . . . . . . . . . . . . . . . . . . . . 32
3.2.1. NGSA-II . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2.2. MOCell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2.3. SMPSO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2.4. BORG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.2.5. SMS-EMOA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.2.6. SMEA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.2.7. SMPSOhv . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.2.8. MOEA/D-DE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.3. Indicadores de calidad multiobjetivo . . . . . . . . . . . . . . . . . . . . 35
3.3.1. Hipervolumen (IHV ) . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.3.2. Épsilon aditivo (Iǫ+ ) . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.3.3. Dispersión generalizada (IGS ) . . . . . . . . . . . . . . . . . . . . 36
3.3.4. Distancia generacional invertida (IIGD ) . . . . . . . . . . . . . . 37
3.4. Frameworks para optimización multiobjetivo . . . . . . . . . . . . . . . 37
3.4.1. PISA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.4.2. OPT4J . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.4.3. MOEA Framework . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.4.4. jMetal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.5. Algoritmos adaptativos . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.6. Lógica difusa e algoritmos evolutivos . . . . . . . . . . . . . . . . . . . . 42
3.7. Estimadores de densidad . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.7.1. Crowding distance . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.7.2. Pareto strength . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.7.3. Hipervolumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.8. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

4. Diseño algorı́tmico y experimental 46


4.1. Bancos de prueba . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.1.1. DTLZ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.1.2. WFG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.1.3. CEC2009 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.1.4. LZ09 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.1.5. GLT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.2. Métricas de evaluación . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.2.1. Hipervolumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.2.2. Épsilon aditivo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.2.3. Dispersión generalizada . . . . . . . . . . . . . . . . . . . . . . . 49
4.3. Tratamiento de datos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.4. Pruebas estadı́sticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.4.1. Friedman . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.4.2. Wilcoxon . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4.5. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
9

5. Estimador de densidad propuesto 51


5.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
5.2. Desviación espacial propagada: SSD . . . . . . . . . . . . . . . . . . . . 51
5.3. Algoritmos en comparación . . . . . . . . . . . . . . . . . . . . . . . . . 54
5.4. Parámetros experimento SSD . . . . . . . . . . . . . . . . . . . . . . . . 54
5.5. Resultados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
5.6. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57

6. Selección adaptativa de operadores evolutivos propuesta 58


6.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
6.2. Selección difusa de operadores evolutivos . . . . . . . . . . . . . . . . . . 58
6.2.1. Conjunto de operadores de variación . . . . . . . . . . . . . . . . 60
6.3. Algoritmo propuesto: MEASO . . . . . . . . . . . . . . . . . . . . . . . 61
6.4. Algoritmos en comparación . . . . . . . . . . . . . . . . . . . . . . . . . 62
6.5. Parámetros experimento MEASO . . . . . . . . . . . . . . . . . . . . . . 62
6.6. Resultados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
6.7. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65

7. Un nuevo algoritmo evolutivo multiobjetivo con selección adaptativa


de operadores basada en lógica difusa: FAME 66
7.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
7.2. Algoritmo propuesto: FAME . . . . . . . . . . . . . . . . . . . . . . . . 66
7.3. Algoritmos en comparación . . . . . . . . . . . . . . . . . . . . . . . . . 68
7.4. Parámetros experimento FAME . . . . . . . . . . . . . . . . . . . . . . . 69
7.5. Resultados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
7.6. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71

8. Conclusiones y trabajos futuros 72


8.1. Sumario del trabajo de tesis . . . . . . . . . . . . . . . . . . . . . . . . . 72
8.1.1. SSD . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
8.1.2. MEASO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
8.1.3. FAME . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
8.2. Contribuciones principales . . . . . . . . . . . . . . . . . . . . . . . . . . 73
8.3. Producción cientı́fica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
8.4. Trabajos futuros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
8.4.1. Optimización de reglas difusas . . . . . . . . . . . . . . . . . . . 75
8.4.2. Adaptación de parámetros con lógica difusa . . . . . . . . . . . . 75
8.4.3. Adaptación de parámetros con Data-driven . . . . . . . . . . . . 75
8.4.4. Lógica difusa de intervalo tipo 2 . . . . . . . . . . . . . . . . . . 75
8.4.5. Problemas combinatorios . . . . . . . . . . . . . . . . . . . . . . 75
8.4.6. Problemas de aplicación industrial . . . . . . . . . . . . . . . . . 76
8.4.7. Escalamiento en objetivos . . . . . . . . . . . . . . . . . . . . . . 76
8.4.8. Escalamiento en variables . . . . . . . . . . . . . . . . . . . . . . 76

Bibliografı́a 76
10

Capı́tulo 1

Introducción

Muchos problemas de la vida real tienen la necesidad de optimizar simultáneamente


dos o más objetivos en conflicto. Encontrar una solución que soló optimice un objetivo a
menudo conduce al empeoramiento de uno o más de los otros objetivos. Estos problemas
se denominan problemas de optimización multiobjetivo, MOP por sus siglas en inglés
[Coello, 2009], a continuación, se utilizarán acrónimos o nombres en inglés de manera
indistinta debido a su gran aceptación. A diferencia de un problema de optimización
de un solo objetivo, un MOP no tiene solo una solución óptima al problema de opti-
mización, sino un conjunto de soluciones conocido como el conjunto óptimo de Pareto.
La representación gráfica/matemática de las soluciones óptimas en el espacio objetivo
es lo que se conoce como Frente de Pareto. Dada la complejidad, la dificultad y el alto
costo asociado con la evaluación de las funciones objetivo, se han desarrollado múltiples
algoritmos metaheurı́sticos para tratar de resolver los MOP de la manera más eficien-
te. Algunos ejemplos populares son los Algoritmos Evolutivos (EA) [Kalyanmoy, 2001,
Carlos A. Coello Coello, 2007], Enjambre de Partı́culas (PSO) [Zhang et al., 2015] o
la Evolución Diferencial (DE) [Das and Suganthan, 2011], solo por mencionar algu-
nos. El campo de optimización multiobjetivo, es decir, la optimización de proble-
mas que involucran más de una función objetivo conflictiva, no es una excepción
[Kalyanmoy, 2001, Carlos A. Coello Coello, 2007]. Algunos de los algoritmos más po-
pulares en el campo, como NSGA-II [Deb et al., 2000], SPEA2 [Zitzler et al., 2001],
MOEA/D [Zhang and Li, 2007], o SMS-EMOA [Beume et al., 2007a] son EA. Tam-
bién podemos encontrar ejemplos de algoritmos para optimización multiobjetivo al-
tamente competitivos cuyo motor de búsqueda no está basado en EA, sino un PSO
(como OMOPSO [Nebro et al., 2013a] y SMPSO [Nebro et al., 2009b]), o un algoritmo
de búsqueda dispersa (SS) [Martı́ et al., 2006] AbYSS [Nebro et al., 2008].

1.1. Problema de investigación


Los métodos de optimización multiobjetivo, aunque están inspirados en muchas
fuentes diferentes, comparten la mayorı́a de sus conceptos básicos [Talbi, 2009]. La
gran mayorı́a de los algoritmos de optimización multiobjetivo trabajan en un conjunto
de soluciones candidatas (a menudo llamado población) para un problema en parti-
cular, y estas soluciones se desarrollan de alguna manera mediante la aplicación de
una combinación de operadores estocásticos de selección y variación. La necesidad de
mantener múltiples soluciones diferentes para garantizar el mayor número de elemen-
tos en el frente de Pareto ha hecho que los algoritmos de población sean una opción
popular. Las principales diferencias entre estos métodos se encuentran, entonces, en
11

las propiedades y capacidades de búsqueda de sus operadores. Se ha informado que


algunos operadores obtienen mejores resultados que otros al tratar con diferentes ca-
racterı́sticas del espacio de búsqueda. Si nos enfocamos, sin pérdida de generalidad, en
la optimización multiobjetivo, podemos encontrar algunos ejemplos. Deb et al. evaluó el
comportamiento de algunos operadores para resolver problemas con enlaces variables
[Deb et al., 2006]. Su estudio reveló que el operador de cruce SBX no podı́a lidiar con
este tipo de problemas, especialmente cuando se compara con los operadores DE y
CPX. Iorio y Li [Iorio and Li, 2004] también discutieron la idoneidad de varios opera-
dores para resolver problemas girados y aquellos que tienen interacción epistática entre
parámetros.
El espacio de búsqueda de problemas de optimización del mundo real no está libre
de enlaces variables, epistasis, rotación o cualquier otra relación entre sus variables de
decisión. Además, no hay ninguna razón para pensar que esas propiedades deberı́an
permanecer fijas en todo el espacio de búsqueda. Sin embargo, la mayorı́a de los me-
taheurı́sticos multiobjetivo usan un conjunto estático de operadores de variación cuya
configuración de parámetros suele ser estática. Intuitivamente, podemos pensar que un
mecanismo de selección adaptativo eficiente para elegir un operador apropiado entre un
conjunto de ellos de acuerdo con el progreso de la búsqueda podrı́a mejorar la calidad de
las aproximaciones frontales de Pareto producidas por optimizadores multiobjetivo. Es-
ta idea ha sido explorada por propuestas como AMALGAM [Vrugt and Robinson, 2007]
o Borg [Hadka and Reed, 2013].
Otro problema importante para la realización de metaheurı́sticos multiobjetivo es la
estimación de densidad para determinar las soluciones que deben mantenerse (o descar-
tarse) durante la búsqueda para promover el hallazgo de un conjunto diverso de solucio-
nes uniforme. Algunos ejemplos populares son la distancia crowding (CD) de NSGA-II
[Deb et al., 2000] y las contribuciones de hipervolumen (HV) [Beume et al., 2007a]. Sin
embargo, es conocido que el primero tiene limitaciones cuando enfrenta problemas con
más de dos objetivos, y la complejidad exponencial del segundo lo hace inviable para
problemas de optimización de muchos objetivos (es decir, aquellos que tienen cuatro
o más objetivos). Diseñar un estimador de densidad de baja complejidad que funcio-
ne eficientemente para problemas de objetivos múltiples sigue siendo un tema abierto.
Los algoritmos basados en la descomposición, como MOEA/D [Zhang and Li, 2007] y
derivados, no requieren necesariamente un estimadores de densidad, sino que requieren
el uso de un conjunto de vectores de ponderación para guiar la búsqueda. Sin embar-
go, una distribución uniforme del conjunto de vectores de peso en descomposición no
garantiza una distribución uniforme en el frente de Pareto [Zhang et al., 2016]. Nueva-
mente, la selección de un conjunto de vectores para obtener una representación óptima
es un tema abierto para cada forma frontal de Pareto. La descomposición generalizada
introducida en [Giagkiozis et al., 2013] puede producir un conjunto óptimo de vecto-
res de ponderación, pero para hacerlo, el método requiere conocer el frente óptimo de
Pareto de antemano, lo que lo hace impracticable para problemas del mundo real.

1.2. Motivación
Los métodos de optimización multiobjetivo utilizando algoritmos metaheurı́sticos
han sido exitosamente aplicados a problemas de 2 o 3 objetivos, sin embargo, es de
amplio conocimiento en la comunidad cientı́fica que a partir de 3 objetivos se utilizan 2
métodos para garantizar una buena diversidad de soluciones, la descomposición multi-
objetivo [Santiago et al., 2014] y las contribuciones al HV [Beume et al., 2007b]. Ambos
12

métodos con desventajas. La descomposición multiobjetivo necesita conocer previamen-


te los óptimos de Pareto [Giagkiozis et al., 2013] para una distribución óptima. Mientras
que el cálculo del hipervolumen tiene complejidad exponencial [While et al., 2012], lo
que pierde todo sentido al utilizarse en métodos de optimización eficientes como los
metaheurı́sticos, cuya finalidad es ser de complejidad polinomial.
Debido a las debilidades actuales en los métodos de optimización metaheurı́sticos
multiobjetivo aún es necesario desarrollar nuevos métodos que resuelvan este tipo de
problemas obteniendo resultados de una manera eficaz (de calidad) y más eficiente (en
tiempo polinomial) que con los métodos de optimización existentes.

1.3. Objetivos de la tesis


1.3.1. Objetivo general
Diseñar e implementar nuevos métodos de optimización multiobjetivo, competitivos
con los disponibles en el estado del arte.

1.3.2. Objetivos especı́ficos


Diseñar e implementar una nueva estrategia para preservar la diversidad de solu-
ciones encontradas en un conjunto de soluciones no dominadas.

Diseñar e implementar un nuevo método para la selección de operadores en algo-


ritmos evolutivos.

Hibridar y mejorar métodos de optimización multiobjetivo para encontrar apro-


ximaciones a frentes de Pareto.

Aplicar los nuevos métodos a la solución de problemas benchmark.

1.4. Estructura de la tesis


La estructura de este trabajo de tesis se describe a continuación. Primeramente, se
abordan todos los conceptos teóricos de optimización y la optimización multiobjetivo en
el Capı́tulo II. Se proporciona un resumen de los principales documentos relacionados
con la optimización multiobjetivo y el trabajo de tesis en el Capı́tulo III, incluidos
los que presentan novedosos algoritmos de optimización multiobjetivo con selección
adaptativa de operadores. El Capı́tulo IV presenta el diseño algorı́tmico y experimental
del trabajo de tesis. Los Capı́tulos V y VI presentan dos contribuciones importantes
de este trabajo, un nuevo estimador de densidad de soluciones y un nuevo mecanismo
de selección adaptativa de operadores, respectivamente. Un nuevo algoritmo de alto
rendimiento se propone y describe en el capı́tulo VII. Finalmente, las conclusiones,
ası́ como trabajos futuros derivados de la tesis se encuentran en el Capı́tulo VIII.
13

Capı́tulo 2

Marco teórico de la optimización

En este capı́tulo se describen los conceptos básicos relacionados con la optimiza-


ción y su estrecha relación con las ciencias de la computación. Es imposible hablar
de optimización sin considerar la teorı́a de la complejidad computacional. La comple-
jidad computacional estudia la dificultad de los diferentes problemas, formalizada en
[Garey and Johnson, 1990]. Esta teorı́a nos indica que hay problemas que son intrata-
bles por una computadora de forma determinista en un tiempo computacional razonable
(polinomial). El primer problema en probarse que no existe un algoritmo que lo resuel-
va en tiempo polinomial es el problema de satisfactibilidad sin restricciones (SAT) en
[Cook, 1971]. Dicho problema tiene la particularidad de ser el único al cual todos los
problemas resolubles en tiempo polinomial por un algoritmo no determinista (aleato-
rio) se pueden reducir (transformar) a él, y no se conoce un algoritmo determinista en
tiempo polinomial que lo resuelva.

2.1. Notación O grande


Las definiciones de tiempo de ejecución polinomial y exponencial tienen su origen en
la notación O grande, de las ciencias de la computación [Danziger, 2010]. La notación
O grande acota de manera asintótica el crecimiento del tiempo de ejecución. En otras
palabras, el tiempo de ejecución crece en relación con el tamaño n de la entrada de datos.
Algunos ejemplos de algoritmos con su orden se muestran en la tabla a continuación:

Tabla 2.1: Órdenes de complejidad comunes de menor a mayor

Notación Orden Algoritmo de ejemplo


O(1) Constante Determinar si un número es par
O(log n) Logarı́tmico Búsqueda binaria
O(< n) Sublineal Búsqueda paralela
O(n log n) n log (n) Quicksort
O(n2 ) Cuadrático Ordenamiento Burbuja
O(nc ) Polinomial Enumerar permutaciones con repetición
O(cn ) Exponencial Triángulo de Pascal
O(n!) Factorial Enumerar permutaciones sin repetición

La Figura 2.1 muestra como el crecimiento en el tiempo de ejecución se relaciona


directamente con su orden y el tamaño n de los datos de entrada. Dentro de la teorı́a de
la complejidad computacional generalmente los órdenes se engloban en dos conjuntos,
14

100
constante
logarítmico
sublineal
80 n log(n)
cuadrático
polinomial
Tiempo de ejecución

factorial
60

40

20

0
0 20 40 60 80 100
Tamaño (n) de datos de entrada

Figura 2.1: Representación gráfica de algunos órdenes

complejidad polinomial y complejidad exponencial. Donde complejidad polinomial se


refiere al conjunto de tiempos de ejecución con crecimiento igual o menor al orden
polinomial. Mientras que complejidad exponencial se refiere al conjunto de tiempos de
ejecución con crecimiento igual o superior al orden exponencial. Estos términos son los
utilizados en este capı́tulo.

2.2. Complejidad Computacional


Aunque la teorı́a de la complejidad computacional pudiera parecer un resultado
meramente teórico tiene un gran impacto sobre las aplicaciones en el mundo real, ya
que abre las puertas a buscar nuevas soluciones a problemas intratables (no se conoce
un algoritmo de tiempo polinomial que lo resuelva) cuya dificultad impide su resolución
mediante una computadora de manera tradicional. Entiéndase por manera tradicional
de una manera secuencial determinista, donde todas las posibles soluciones son veri-
ficadas. Si lo anterior no es posible, se justifica el uso de métodos no exhaustivos, los
cuales evalúan un subconjunto de las posibles soluciones. Es por eso que es importante
la clasificación de los problemas acorde a la teorı́a de la complejidad, clasificación a
continuación descrita.

2.2.1. Problema de decisión


La teorı́a de la complejidad computacional es originalmente desarrollada para pro-
blemas de decisión, los cuales tienen la caracterı́stica de que su respuesta es sı́ o no
[Sipser, 2006]. Por ejemplo la pregunta ¿Existe un camino con distancia menor a 650km
entre Madrid y Barcelona? plantea un problema de decisión donde la respuesta es sı́ o
15

no.

2.2.2. Clase P
La Clase P es el conjunto de problemas de decisión que pueden ser resueltos en
tiempo polinomial con un algoritmo determinista [Sipser, 2006]. Estos problemas se
considera que son fáciles de resolver y se les denomina tratables. Para probar que
un problema de decisión es tratable, basta construir un algoritmo determinista que
encuentre su solución óptima. Probar que un problema es intratable es una tarea mucho
más compleja, se tiene que probar que no existe un algoritmo determinista de tiempo
polinomial que lo resuelva.

2.2.3. Clase NP
La clase NP es el conjunto de todos los problemas de decisión que se pueden verificar
en tiempo polinomial con un algoritmo no determinista. Por verificar se entiende que
se pueda generar en tiempo polinomial una solución candidata con un algoritmo no
determinista y que se pueda comprobar si es solución o no en tiempo polinomial con
un algoritmo determinista [Sipser, 2006].

2.2.4. Problema NP-Completo


La clase NP-Completo es el conjunto de todos los problemas denominados como
intratables, un problema que pertenece a la clase NP-Completo es un problema para
el cual se ha probado que no existe algoritmo determinista polinomial que lo resuelva.
Un problema de decisión B pertenece a la clase NP-Completo si y solo si satisface las
siguientes condiciones [Sipser, 2006]:

B pertenece ala clase NP

Todo problema A ∈ NP es reducible en tiempo polinomial a B.

Para la reducción es necesario definir una transformación, donde las instancias del
problema B cuya respuesta es si se transforman a una instancia del problema A ∈
NP-Completo, donde la respuesta es también sı́, y viceversa. Los problemas de esta
clase se consideran los más difı́ciles de la clase NP, ya que para probar que P=NP serı́a
suficiente probar que es tratable uno solo de los problemas de NP-Completo.

2.2.5. Problema de Optimización


En los problemas de optimización se busca la mejor solución posible de un conjunto
de posibles soluciones. Por ejemplo, nosotros podemos buscar encontrar el clique más
grande de un grafo, el recubrimiento de vértices más pequeño, o el camino más corto
entre dos nodos [Sipser, 2006]. En otras palabras, dada una función objetivo f (~x), el
objetivo es encontrar la solución ~x∗ con el mejor valor objetivo, en el caso de problemas
de minimizar la que produce el menor valor, en el caso de problemas de maximizar la
que produce el mayor valor. Todo problema de optimización tiene asociado una versión
de decisión.
16

2.2.6. Problema NP-Duro


Como se mencionó previamente la teorı́a de la complejidad computacional está desa-
rrollada para problemas de decisión, los cuales son utilizados para caracterizar la di-
ficultad de los problemas de optimización. Un problema NP-Duro es un problema de
optimización cuya versión de decisión es NP-Completo [Garey et al., 1979]. Por lo tan-
to, desarrollando la versión de decisión de cualquier problema de optimización es posible
probar si pertenece o no a esta clase, los más difı́ciles de resolver.

2.2.7. Decibilidad sobre espacios continuos


La teorı́a de la complejidad computacional fue desarrollada sobre problemas com-
binatorios/discretos. No obstante, existen muchos problemas de optimización cuyo es-
pacio de soluciones es infinito/continuo. Diversos esfuerzos interesantes se han realizado
para llenar este hueco en la teorı́a [Blum et al., 1989, Blum et al., 1990, Blum et al., 1998,
Blum, 2004]. En estos esfuerzos dirigidos por la profesora Lenore Blum de la Univer-
sidad de Carnegie Mellon, el concepto de máquina de Turing es reemplazado por el
concepto de máquina sobre un anillo o campo, utilizando operaciones algebraicas y
comparaciones de elementos en el anillo.

2.2.8. Decibilidad en funciones multivaluadas


Otra particularidad de la teorı́a de la complejidad computacional es que está desa-
rrollada utilizando funciones univaluadas, en las cuales para un problema de decisión
existe una sola salida SÍ o NO. El problema radica cuando nos encontramos con funcio-
nes multivaluadas, como naturalmente se encuentran en los problemas multiobjetivo.
Para los cuales un objetivo podrı́a cumplir la condición deseada mientras que otro
no. Por ejemplo, en el caso de un problema con 2 objetivos pueden ocurrir las si-
guientes combinaciones: (sı́, sı́), (no, no), (sı́, no), (no, sı́). Dadas estas combinaciones
no es claro cuando un problema se satisface (es una solución al problema) o no. Por
ejemplo ¿Es solución si solo cumple en un objetivo mientras que en otros no? ¿Es so-
lución si y solo si cumple todos los objetivos? peor aún el caso cuando se sabe que los
objetivos están encontrados significa que encontrar el óptimo en un objetivo supone
encontrar la peor solución en otro objetivo. Imposibilitando encontrar SÍ salidas en
todos los objetivos en una sola solución. Pocos esfuerzos se han hecho en tratar de
llenar este hueco en la teorı́a de la complejidad, algunos ejemplos se encuentran en
[Glaßer et al., 2010, Fleszar et al., 2011, Bökler, 2017].

2.3. Métodos de Optimización


Los diferentes métodos de optimización se pueden clasificar en dos tipos, métodos
exactos y métodos heurı́sticos. Los métodos exactos garantizan encontrar de manera
sistemática la solución óptima a un problema de optimización. Mientras que los métodos
heurı́sticos encuentran una solución aproximada al problema, tratando de garantizar
una calidad considerable sin garantizar encontrar la solución óptima al problema. La
teorı́a de la complejidad computacional es una guı́a sobre que método ocupar para
resolver determinado problema. Si el problema pertenece a la clase P debe ser resuelto
con un método exacto lo que garantiza encontrar la solución óptima. Si el problema es
NP-Duro se justifica el uso de métodos heurı́sticos.
17

2.3.1. Métodos Exactos


Los métodos de optimización exactos garantizan que pueden encontrar la solución
óptima de un problema de optimización. Actualmente existen diversos métodos dispo-
nibles tales como los métodos enumerativos, de ramificación y poda, back tracking, etc.
En general estos métodos resuelven las instancias con una entrada n pequeña de un
problema de optimización en un tiempo razonable. Sin embargo, cuando se aplican a
instancias difı́ciles o grandes, el tiempo de solución crece exponencialmente, haciéndolos
prácticamente inaplicables en estos casos [Abraham Duarte Muñoz, 2010].

2.3.2. Métodos Heurı́sticos


Los heurı́sticos utilizan reglas, estrategias o aproximaciones basadas generalmente
en conocimientos empı́ricos para guiar la búsqueda. La palabra heuriskein procede del
griego y significa ”descubrir, encontrar, inventar”(etimologı́a que comparte con eureka)
[Polya, 1971]. Nicholson y Reeves ofrecen las siguientes definiciones de heurı́stica.

Un procedimiento para resolver problemas por medio de un método intuitivo en el


que la estructura del problema puede interpretarse y explotarse inteligentemente
para obtener una solución razonable [Nicholson, 2007]

Una técnica que busca buenas soluciones con un tiempo de computación razonable
sin garantizar la optimalidad [Reeves, 1993]

Un método heurı́stico siempre busca un camino corto a la solución del problema,


pero sin garantizar encontrar la mejor solución.

2.3.3. Soluciones vecinas



En optimización una solución ~x vecina de ~x es aquella que se encuentra dentro de
su vecindario N (~x) es decir ”próxima”[Abraham Duarte Muñoz, 2010]. Entiéndase por

vecindario todas aquellas soluciones que pueden ser producidas a partir de ~x mediante
una sola perturbación.

2.3.4. Operador de vecindario


Un operador de vecindario transforma una solución inicial ~x y permite alcanzar
todas sus soluciones en N (~x) mediante movimientos (aplicaciones del operador). En
problemas de ordenamiento lineal usualmente se utilizan intercambios o inserciones, lo
que se conoce también como formas de perturbación a la solución original.

2.3.5. Óptimo local



Un óptimo local es una solución ~x|¬~x ∈ N (~x)|f (~x) > f (~x′ ) para el caso en que se
minimiza el objetivo [Abraham Duarte Muñoz, 2010]. En optimización multiobjetivo
la noción de óptimo local tiene que ser definida en términos de óptimo de Pareto. Una

solución ~u se dice que es un óptimo local con respecto a un vecindario N (~u) si ¬∃~u tal

que ~u ≺ ~u, donde ≺ representa la dominancia de Pareto [Liefooghe et al., 2011].
18

2.3.6. Métodos Metaheurı́sticos


Los métodos metaheurı́sticos esencialmente son métodos heurı́sticos, adquieren el
prefijo meta ya que a diferencia de los heurı́sticos simples van más allá utilizando
mecanismos para escapar de óptimos locales. Las siguientes definiciones aportadas por
diferentes investigadores describen sus principales propiedades.

Los procedimientos metaheurı́sticos son una clase de métodos aproximados que


están diseñados para resolver problemas difı́ciles de optimización combinatoria,
en los que los heurı́sticos clásicos no son eficientes [Duarte et al., 2006].

Un metaheurı́stico es un proceso iterativo que combina conceptos derivados de las


ciencias naturales, la biologı́a, la matemáticas, la fı́sica y la inteligencia artificial,
para guiar de forma inteligente una heurı́stica subordinada durante la exploración
y explotación del espacio de búsqueda con el fin de encontrar soluciones cercanas
al óptimo de forma eficiente [Kelly and Osman, 1996].

Los métodos metaheurı́sticos se clasifican en dos grandes grupos: trayectoriales y


poblacionales.

2.3.7. Metaheurı́sticos trayectoriales


Los metaheurı́sticos trayectoriales comienzan el proceso de optimización a partir
de un solo punto de búsqueda (solución inicial). La búsqueda sigue una trayectoria
especı́fica a partir de dicha solución inicial mediante la aplicación de operadores de
vecindario y cambios estocásticos, dichos cambios se aceptan o no de acuerdo a un
criterio de navegación (por ejemplo, si la nueva solución en la trayectoria mejora a la
mejor solución conocida) propio del metaheurı́stico para generar el resultado final.

2.3.8. Metaheurı́sticos poblacionales


A diferencia de los metaheurı́sticos trayectoriales, los metaheurı́sticos poblacionales
comienzan el proceso de optimización a partir de diferentes puntos de búsqueda. Lo
logran manteniendo un conjunto de soluciones diverso llamado población. Al conjunto
de individuos en la población se le asigna un valor de aptitud, conforme la búsqueda
avanza los individuos con mejor aptitud conocida (mejores soluciones encontradas) son
conservados, y los de baja aptitud descartados.

2.3.9. Algoritmos evolutivos


Los algoritmos evolutivos son metaheurı́sticos guiados por una búsqueda poblacio-
nal, en la que los individuos de la población con mejores valores de aptitud tienen mayor
posibilidad de supervivencia, ası́ como de generar descendencia (soluciones derivadas)
[Abraham Duarte Muñoz, 2010]. Existe una variedad de algoritmos evolutivos, ası́ co-
mo estrategias evolutivas empleadas, sin embargo, el algoritmo evolutivo más utilizado
y conocido es el algoritmo genético, basado en la teorı́a de la evolución de Darwin.

Algoritmo Genético
Los algoritmos genéticos son una clase particular de algoritmo evolutivo, introduci-
dos por Holland [Holland, 1992]. Los algoritmos genéticos utilizan tres operaciones prin-
cipales de reproducción: selección, cruza y mutación [Abraham Duarte Muñoz, 2010].
19

Selección: mecanismo probabilista que favorece a los individuos más aptos tener
descendencia.

Cruza: intercambio de información entre dos individuos o más para generar des-
cendencia.

Mutación: cambio aleatorio a la información de un individuo.

Selección ambiental: proceso análogo a la selección natural mediante el cual solo


los individuos más aptos sobreviven.

Después de la aplicación de los operadores genéticos el proceso de selección ambien-


tal permite depurar a los individuos menos aptos, sobreviviendo los de mayor valor de
aptitud. En el caso de la optimización mono-objetivo generalmente son los que tienen
mejor valor de la función objetivo.

2.4. Optimización multiobjetivo


A continuación, esta sección describe todos los conceptos básicos de la optimización
multiobjetivo, los cuales son el pilar de este proyecto de investigación. [Coello, 2009]
define un problema de optimización multiobjetivo como:

f~(~x) := [f1 (~x), f2 (~x), ......., fk (~x)] (2.1)


Donde ~x es un vector de variables de decisión dentro del espacio de soluciones Ω,
~
f representa un vector de funciones objetivo donde cada fi representa una de las k
funciones objetivo a minimizar o maximizar, para fines prácticos se asume que todas
las funciones objetivo se minimizan.

2.4.1. Óptimo de Pareto



Se dice que una solución ~x∗ ∈ Ω es un óptimo de Pareto si para todo ~x ∈ ΩeI =
′ ′
{1, 2, 3, ...., k} si ∀i ∈ I fi (~x ) = fi (~x∗ ), o existe al menos una i ∈ I tal que fi (~x ) >
fi (~x∗ )

2.4.2. Dominancia de Pareto


Un vector ~u = (u1 , ......, uk ) domina a otro ~v = (v1 , ......, vk ) denotado mediante
(~u ≺ ~v ) si y solo si u es parcialmente menor que v ∀i ∈ {1, ......, k}, ui ≤ vi ∧ ∃i ∈
{1, ......, k} : ui < vi .

2.4.3. Conjunto de óptimos de Pareto


Para un problema multiobjetivo dado f~(~x), el conjunto de óptimos de Pareto P ∗ se
′ ′
define como : P ∗ := {~x ∈ Ω|¬∃~x ∈ Ωf~(~x ) ≺ f~(~x)}

2.4.4. Frente de Pareto


Para un problema multiobjetivo dado f~(x) y un conjunto de óptimos de Pareto P ∗ ,
el frente de Pareto (P F ∗ ) se define como :
P F ∗ := {~u = f~ = (f1 (~x), ....., fk (~x))|~x ∈ P ∗ }
20

2.5. Conclusiones
Este capı́tulo ha introducido los conceptos básicos relacionados con la optimización
mono y multiobjetivo. Se han abordado los principios teóricos de la complejidad compu-
tacional, los cuales fundamentan el uso de métodos metaheurı́sticos para problemas de
optimización. Se ha analizado brevemente la relación entre los problemas NP-completo
y la optimización multiobjetivo, aunque no existe una teorı́a firmemente aceptada por
la comunidad. Sin embargo, cuando uno de los objetivos a optimizar es NP-Duro el uso
de métodos metaheurı́sticos queda justificado.
En optimización multiobjetivo muchos bancos de prueba se encuentran dentro del
dominio de problemas continuos, los cuales se conocen empı́ricamente como problemas
altamente difı́ciles de resolver. Por lo tanto, el uso de los métodos de optimización
multiobjetivo evolutivos suelen ser la primera elección. Está fuera del alcance de este
trabajo el análisis teórico NP-completo de los problemas de optimización evaluados.
No obstante, es necesario conocer la fundamentación conceptual del por qué se utilizan
estos métodos, ya que son la principal área de investigación del proyecto de tesis.
21

Capı́tulo 3

Estado del arte

3.1. Optimización multiobjetivo


La optimización multiobjetivo está fuertemente relacionada con la articulación de
preferencias y cuando se toman; nunca, antes, después o durante el proceso de optimi-
zación [Andersson, 2000]. Lo que ha llevado a diferentes metodologı́as para resolver un
problema multiobjetivo: sin articulación de preferencias, articulación de preferencias a
priori, articulación de preferencias a posteriori y articulación de preferencias progresivas
Ver Figura 3.1.

Optimización
Multiobjetivo
u  * ,
Sin articulación Articulación de Articulación de Articulación de
de preferencias preferencias a priori preferencias a posteriori preferencias progresivas

Figura 3.1: Clasificación de los métodos de optimización multiobjetivo

3.1.1. Sin articulación de preferencias


Este tipo de métodos no usan ninguna información acerca de las preferencias, ge-
neralmente son usados cuando el tomador de decisiones no puede articular sus prefe-
rencias, usualmente no requieren parámetros Ver Figura 3.2.
3
Métodos de criterio global
Formulación Min-Max
2
Sin articulación / Arbitraje de Nash
de preferencias
,
Método de Rao

Figura 3.2: Métodos sin articulación de preferencias

Métodos de criterio global


La idea básica de los métodos de criterio global está basada en la unión de funciones
objetivo. Los métodos basados en ponderación pueden ser utilizados como métodos de
criterio global excluyendo los parámetros de ponderación por objetivo; modificaciones
22

se han utilizado como un punto óptimo utópico (programación compromiso). El enfoque


de suma se formula de la siguiente manera:
k
X
Minimizar U= fi (~x) (3.1)
i=1

Donde U es la utilidad total de la suma de los objetivos; se han utilizado variantes


como el producto y la suma exponencial[Marler and Arora, 2004].

Formulación Min-Max
El método min-max busca minimizar el máximo valor objetivo encontrado, no ga-
rantiza un óptimo de Pareto[Marler and Arora, 2004]. La formulación básica min-max
es la siguiente:

Minimizar U = max[fi (~x)]∀i ∈ I (3.2)


Donde max toma el valor objetivo máximo encontrado.

Arbitraje de Nash
El esquema de arbitraje de Nash fue desarrollado en la teorı́a de juegos basado en
los axiomas de equidad de Davis [Davis, 1997], Nash sugiere que la solución al problema
de arbitraje sobre un espacio de soluciones convexo es el producto de la utilidad de los
jugadores [Nash, 1950]; la utilidad U siempre es positiva y tiene valor 0 en caso de no
cooperación (cuando no se llega a un acuerdo). El método se formula en [Straffin, 1993]
de la siguiente manera:
k
Y
Maximizar U= [si − fi (~x)] (3.3)
i=1

Donde si es el lı́mite superior aceptado en el objetivo i, garantizando que si ≥ fi (~x)


produce un óptimo de Pareto[Marler and Arora, 2004].

Método de Rao
Los trabajos de Rao y Freiheit [Rao, 1987], [Rao and Freiheit, 1991] involucran un
método de criterio global multiplicativo con un método de preferencias a priori que
genere un óptimo de Pareto, consta de dos fases la primera optimizar el súper criterio
su siguiente:
k
Y
Minimizar su = [1 − finorm (~x)] (3.4)
i=1

Donde finorm es la función normalizada del objetivo i, con valores entre 0 y 1 tal
que finorm = 1 es el peor valor posible (máximo). La siguiente fase utiliza cualquier
función de optimización con ponderación f a (preferencias a priori). Entonces la nueva
función objetivo se forma de la siguiente manera:

Minimizar f a − su (3.5)
El trabajo de Cheng y Lie sugiere que el uso de f a es innecesario [Cheng and Li, 1996].
23

3.1.2. Articulación de preferencias a priori


Este tipo de métodos utilizan información acerca de la prioridad de objetivos, usual-
mente requieren la presencia de un usuario o tomador de decisiones; las preferencias
pueden ser articuladas en términos de metas, importancia relativa, jerarquı́a, etc. siendo
usualmente estos los parámetros de entrada ver Figura 3.3.
1
Enfoques ponderados

1 Lógica difusa
Articulación de / Método lexicográfico
preferencias a priori -
Programación por metas
+ Función objetivo delimitada
+ Programación fı́sica

Figura 3.3: Métodos de articulación de preferencias de priori

Enfoques ponderados
Los enfoques ponderados también conocidos como: métodos de ponderación/pesos,
funciones de utilidad y funciones de agregación son una forma de optimización con pre-
ferencias en multiobjetivo, la idea es similar a los métodos de criterio global al formar
una unión de funciones objetivo pero la aportación de cada fi está dada por su peso
wi , con wi = 1 para 100 % de aportación y wi = 0 para 0 %.

El método de ponderación más utilizado es la suma de pesos [Marler and Arora, 2004],
es de notarse que es equivalente a los de suma exponencial cuando el exponente utili-
zado es 1, un exponente mayor permite una búsqueda más exhaustiva.

El método min-max ponderado también conocido como método ponderado de Tcheby-


cheff es una combinación del método de criterio global min-max haciendo uso de pe-
sos y la utilización de programación compromiso, cuando se utiliza un valor restric-
ción λ se asegura una calidad mı́nima en todos los objetivos; este método se modi-
ficó para asegurar obtener soluciones óptimas de Pareto en [Steuer and Choo, 1983a,
Romero et al., 1998] bajo el nombre de método de Tchebycheff aumentado, y Tcheby-
cheff aumentado modificado [Kaliszewski, 1987].

Otra variante de este método es Tchebycheff lexicográfico [Tind and Wiecek, 1999]
en el que se optimiza en 2 fases primero se utiliza Tchebycheff minimizando la restric-
ción [Marler and Arora, 2004] λ hasta llegar a una solución óptima para λ, después se
minimiza la solución encontrada utilizando el método de suma de pesos con programa-
ción compromiso garantizando un óptimo de Pareto.

El método de criterio exponencial [Athan and Papalambros, 1996] fue desarrollado


para navegar en espacios de soluciones no convexos deficiencia en el método de suma
ponderada.

Cuando existen diferentes órdenes de magnitudes entre las funciones objetivo y tie-
24

nen una aportación igual o similar se pueden encontrar problemas en que las funciones
de mayor magnitud aporten mucho más, para evitar este problema se desarrolló el méto-
do del producto ponderado o producto de potencias [Bridgman, 1922]. Los métodos de
ponderación anteriormente descritos se encuentran en la siguiente tabla:

Tabla 3.1: Enfoques ponderados


Método Formulación
Pk
Suma [Marler and Arora, 2004] wi fi (~x)
Pi=1
k
Suma Exponencial [Marler and Arora, 2004] i=1 wi [fi (~x)]p
Pk
Suma Exponencial [Marler and Arora, 2004] [w f (~x)]p
Pi=1 i i
Suma Exponencial [Yu and Leitmann, 1974] { ki=1 wi [fi (~x) − fio ]p }1/p
{ ki=1 wip [fi (~x) − fio ]p }1/p
P
Suma Exponencial [Zeleny and Cochrane, 1982]
Min-max/Tchebycheff [Marler and Arora, 2004] max{wi [fi (~x) − fio ]}∀i ∈ I
max{wi [fi (~x) − fio ]} + ρ kj=1 (fj (~x) − fjo ) ∀i ∈ I
P
Augmented Tchebycheff [Romero et al., 1998]
max{wi [fi (~x) − fio + ρ kj=1 (fj (~x) − fjo )]} ∀i ∈ I
P
Augmented Tchebycheff [Kaliszewski, 1987]
max{wi [fi (~x) − fio ]} + ρ kj=1 wj (fj (~x) − fjo ) ∀i ∈ I
P
Augmented Tchebycheff [Wierzbicki, 1986]
Min-max(con restricción λ) y ki=1 fi (~x) − fo (~x)
P
Lexicographic Tchebycheff [Tind and Wiecek, 1999]
Pk pw pf (~
x )
Exponencial criterion [Athan and Papalambros, 1996] (e i − 1)e i
Qki=1
Producto [Bridgman, 1922] x)]wi
i=1 [fi (~

Donde 0 ≤ wi ≤ 1, p es un parámetro exponencial a mayor valor más énfasis en la


minimización del objetivo, y ρ un valor positivo pequeño asignado por el tomador de
decisiones.
Es de importancia notar que no todos estos métodos pueden navegar en espacios
de soluciones no convexos y no todos garantizan encontrar un óptimo de Pareto, una
mala interpretación teórica y práctica puede hacer el proceso de selección de pesos una
tarea ineficaz [Marler and Arora, 2004].

Lógica difusa
A diferencia de la lógica binaria donde una sentencia solo puede ser verdadera o
falsa, la lógica difusa usa una función de membresı́a µ. Esta define el grado de veracidad
de la sentencia con valores entre 0 y 1. Si µ = 0 la sentencia es falsa y verdadera si
µ = 1 [Andersson, 2000]. Un usuario o tomador de decisiones define el significado de
este rango de aceptación. En un problema multiobjetivo la función de membresı́a asocia
un valor normalizado de µi (fi ), que expresa el grado de satisfacción para el objetivo i
en el rango de {0, 1} ver (Figura 3.4).
25

µO

1.0

0.75

0.50

0.25

0 " / f1
O O O O O

70 80 90 100 110

Figura 3.4: Ejemplo de asociación de valores en la lógica difusa (minimizar)

Después que los objetivos han sido fuzzificados estos valores se utilizan en un méto-
do de pesos/agregación para simular el operador binario AND, los más comunes son
el operador min Ecuación 3.6 y el operador de producto Ecuación 3.7 formulados a
continuación:

Ff uzzy = min[µi (fi (~x))]∀i ∈ I (3.6)

k
Y
Ff uzzy = µi (fi (~x)) (3.7)
i=1

Por último el problema de optimización multiobjetivo queda formulado como:

Maximizar Ff uzzy (3.8)


El rango de aceptación seleccionado representa preferencias a priori sobre la calidad
de los objetivos.

Funciones de aceptabilidad: Las funciones de aceptabilidad siguen la misma idea


que la lógica difusa sin embargo su principio teórico no se basa en una certeza rigurosa de
valores si no en probabilidades por lo cual son utilizadas en problemas con incertidumbre
en su diseño [Andersson, 2000].

Método lexicográfico
En el método lexicográfico las funciones objetivo están dispuestas en orden de im-
portancia [Marler and Arora, 2004], intentando optimizar los objetivos en ese orden
siempre y cuando no perjudique objetivos de mayor importancia, su formulación es la
siguiente:

Minimizar fi (~x) ∀i ∈ I (3.9)


Sujeto a la siguiente restricción:

fj (~x) ≤ fj (~x∗ ), j = 1, 2, ....., i − 1, i>1 (3.10)


Donde ~x∗ es la solución óptima conocida.
26

Programación por metas


La programación por metas es similar a la programación compromiso en el sentido
que hay un punto de aspiración (utópico) a alcanzar. Fue desarrollado en los trabajos
[Charnes et al., 1955], [Charnes and Cooper, 1961], [Charnes et al., 1964] la idea en es-
te
Pkmétodo no es la optimización si no la minimización de las desviaciones absolutas
i=1 |di |; las metas bi representan el valor deseado en cada fi . Este método intenta
minimizar la desviación di de cada objetivo a las metas.
La desviación es dividida en 2 partes el exceso de logro d+ -
i y la falta de logro di ,
para un problema de minimización obtener fi (~x) < bi es un exceso de logro y fi (~x) > bi
es una falta de logro, esta división debe cumplir las siguientes ecuaciones:

d+ −
i ≥ 0, di ≥ 0 (3.11)

d+ −
i di = 0 (3.12)
Cuando la meta bi es alcanzada entonces d+ −
i = di = 0, el problema de optimización
se formula de la siguiente manera:
k
X
Minimizar (d+ −
i + di ) (3.13)
i=1

Sujeto a la siguiente restricción:

fi (~x) + d+ −
i − d i = bi ∀i ∈ I (3.14)
Se han propuesto variantes de la programación por metas como: la programación por
metas de Arquı́medes (programación por metas ponderada) [Charnes and Cooper, 1977]
en la cual pesos son asignados a la desviación de cada objetivo, la programación por
metas lexicográfica en donde las desviaciones por objetivo están dispuestas en orden de
importancia a minimizar [Marler and Arora, 2004], la programación multi-metas donde
varias funciones |di | son minimizadas independientemente mediante programación mul-
tiobjetivo (matriz de pagos), ası́ como la obtención de metas [Gembicki and Haimes, 1975]
basada en el método de pesos min-max y con menos complejidad.

Función objetivo delimitada


La primera aparición de este método se llamó e-restricción [eco, 1971], el cual fue
modificado a la versión actual con un lı́mite inferior [Hwang and Masud, 1979], el méto-
do de la función objetivo-delimitada minimiza la función objetivo de mayor importancia
fs , similar al método lexicográfico. Todas las otras funciones objetivo son usadas como
restricciones adicionales de la forma:

li ≤ f i ≤ e i ∀i ∈ I, i 6= s (3.15)
Donde li , ei son el lı́mite inferior y superior de fi respectivamente. li puede ser
despreciado a menos que se pretenda un rango de valores especifico dependiendo las
preferencias, variaciones en ei producen óptimos de Pareto. La formulación de este
método sujeto a la restricción en la Ecuación 3.15 es la siguiente:

Minimizar fs (~x) (3.16)


27

Se ha propuesto con restricciones de igualdad en [Lin, 1976] obteniendo óptimos de


Pareto con diferentes valores de e.

Programación fı́sica
La programación fı́sica fue desarrollada por [Messac and Hattis, 1996], asocia clasi-
ficaciones de metas con valores objetivo, expresando verbalmente las preferencias a una
función de utilidad; esto provee la incorporación de preferencias sin el problema de los
pesos relativos.

1. Escoger parámetros de diseño: basados en conocimiento previo del sistema o arte-


facto se escogen sus parámetros de diseño (lı́mite superior e inferior de fi , solución
candidata, etc).

2. Escoger métricas de diseño: basados en conocimiento previo se determinan las


cantidades que interesan (aceptables, tolerables, no tolerables o cualquier clasifi-
cación).

3. Desarrollar una asociación entre parámetros y métricas de diseño ( asociar rangos


de valores en fi con una métrica de diseño).

4. Desarrollar una función de agregación (utilidad).

5. Realizar la optimización computacional (utilizar cualquier método de optimiza-


ción mediante la función de agregación).

Wei Chen y Atul Sahai hacen notar que los pasos 1, 2, 3, y 5 son tareas bien definidas
en la optimización multiobjetivo con procedimientos maduros existentes [Chen et al., 2000],
y deja el paso 4 abierto.

Métricas de diseño: Messac utiliza 3 clases para mapear funciones de minimizar,


maximizar o constantes:

Clase 1 smaller-is-better (SBI), minimizar

Clase 2 larger-is-better (LIB), maximizar

Clase 3 center-is-better (CIB), constante

La traducción de los nombres de cada clase es su propiedad deseable, en el caso


más simple las divide en soluciones factibles sof t y soluciones no factibles hard, pero
cada una de estas clases puede ser dividida en rangos por ejemplo: altamente deseable,
deseable, tolerable, indeseable, altamente indeseable, inaceptable.
En [Messac and Hattis, 1996] proponen la siguiente función de agregación:
dm
1 X
Minimizar log10 { fi [fi (~x)]} (3.17)
dm
i=1

Donde dm es el número de métricas de diseño utilizadas y fi es una función de


utilidad individual para fi asignada por el diseñador, por ejemplo fi puede ser el peor
valor del rango en el que se encuentra fi . Con la restricción de que la solución se
encuentre en el rango de factibles ~x ∈ Ω.
28

3.1.3. Articulación de preferencias a posteriori


En la articulación de preferencias a posteriori se realiza una búsqueda en el espacio
de soluciones para presentar un conjunto de óptimos de Pareto al usuario o tomador de
decisiones ver (Figura 3.5). La gran ventaja de estos métodos es que no requieren una
articulación de preferencias, como desventajas requieren un mayor coste computacio-
nal y el usuario o tomador de decisiones se encuentra regularmente con demasiadas
soluciones para escoger, generalmente no utilizan información alguna del problema.
Estos métodos miden su efectividad con los indicadores de calidad multiobjetivo,
probando su capacidad de encontrar diversas soluciones óptimas; debido a su alto coste
computacional en problemas reales la optimización se realiza usualmente con algoritmos
evolutivos o metaheurı́sticos.

1 Dominancia de Pareto
Articulación de / Intersección de lı́mites normales
preferencias a posteriori -
Restricciones normales

- Enfoque de descomposición

Figura 3.5: Métodos de articulación de preferencias a posteriori

Dominancia de Pareto
Estos métodos utilizan la dominancia de Pareto como mecanismo guı́a en la búsque-
da de soluciones, a diferencia de los métodos de optimización convencionales guiados
por una función objetivo como: la función de utilidad, agregación o aptitud.
Aunque muchos métodos basados en dominancia de Pareto incluyen funciones de
aptitud especializadas como: crowding distance en NSGA2 [Deb et al., 2000], Pareto
strength en SPEA2 [Zitzler et al., 2001], IHD en IBEA [Zitzler and Künzli, 2004], la
búsqueda se guı́a con los óptimos de Pareto conocidos actualmente en P Factual .
Existen 3 tendencias en el diseño de este tipo de métodos:

Basados en archivo histórico de soluciones no dominadas

Algoritmos evolutivos

Hı́bridos evolución+archivo

Ejemplos de estas tendencias se encuentran en el f ramework de optimización mul-


tiobjetivo jMetal [Durillo and Nebro, 2011]:
29

Tabla 3.2: Algoritmos de optimización multiobjetivo en jMetal

Autor Algoritmo Archivo Evolución


[Nebro et al., 2008] AbYSS SI NO
[Durillo et al., 2008] CellDE SI SI
[Kukkonen and Lampinen, 2005] GDE3 NO SI
[Eskandari et al., 2007] FastPGA NO SI
[Zitzler and Künzli, 2004] IBEA NO SI
[Nebro et al., 2007a] MOCHC NO SI
[Nebro et al., 2006][Nebro et al., 2007b] MOCell SI SI
[Li and Zhang, 2009] MOEA/D-DE NO SI
[Deb et al., 2000] NSGA-II NO SI
[Durillo et al., 2009a] ssNSGA-II NO SI
[Reyes and Coello Coello, 2005] OMOPSO SI NO
[Nebro et al., 2009b] SMPSO SI NO
[Zitzler et al., 2001] SPEA2 SI SI
[Knowles and Corne, 1999] PAES SI SI

Los métodos basados en archivo guardan las soluciones no dominadas encontradas


en una memoria externa enfocando la búsqueda al elitismo, evitando producir solucio-
nes alejadas del P Factual , a diferencia de los algoritmos basados en archivo los algorit-
mos evolutivos no requieren el uso de una memoria externa ya que la generación de
nuevos individuos (soluciones) solo depende de la generación anterior. La Hibridación
de evolución y archivo permite conservar todas las soluciones no dominadas encon-
tradas, cuando el archivo es muy grande algunas técnicas de truncado son propuestas
[Zitzler et al., 2001].

Dominancia relajada La dominancia relajada ha sido utilizada como una forma


de regular la convergencia [Coello, 2009], la más popular es la ǫ-dominancia descrita
en [Laumanns et al., 2002a], valores altos de ǫ obtienen una convergencia más rápida
sacrificando la calidad del conjunto encontrado, cuando ǫ = 0 su comportamiento es
idéntico a la dominancia de Pareto.

Intersección de lı́mites normales


La intersección de lı́mites normales (normal boundary intersection) fue propuesto
por [Das and Dennis, 1998]. La idea principal del método es navegar en el casco convexo
de los mı́nimos individuales (convex hull of the individual minima CHIM ) hacia
la normal t̂ (vector perpendicular en geometrı́a) donde el mı́nimo individual es fi∗ ,
gráficamente se muestra de la siguiente figura tomada de [Andersson, 2000]:
30

Figura 3.6: Representación de la intersección de limites normales

la ventaja es que este método ofrece una manera de establecer un conjunto de


soluciones distribuidas uniformemente empezando la búsqueda en el CHIM utilizando
la intersección de los valores fi∗ , para frentes de Pareto complejos este método tiende a
estancarse en óptimos locales [Andersson, 2000]; su formulación es la siguiente:

Maximizar λ
(3.18)
~x, λ
Sujeto a la siguiente restricción:

Φw + λt̂ = F (~x) (3.19)


Donde Φ es una matriz de tamaño k x k formada por las columnas Φ,i = fi (~x∗ )−fio ,
claramente la diagonal principal está formada por ceros, los demás elementos de la
matriz Φ son de la forma: Φi,j ≥ 0, j 6= i. El vector w representando pesos debe cumplir
Pk
i=1 wi = 1, el vector t̂ ”dispara”la búsqueda hacia la perpendicular (minimizar 0,0)
cumpliendo que el vector resultante de Φw + λt̂ sea igual al vector de valores objetivo
F (~x).
El vector t̂ se formula de la siguiente manera:

t̂ = −Φe (3.20)
Donde e es un vector columna de unos. La restricción Φw + λt̂ asegura que el punto
(solución) ~x está asociado a un punto en la normal; aunque este método encuentra una
sola solución es posible con diferentes configuraciones en w encontrar diferentes óptimos
[Marler and Arora, 2004], por lo tanto podemos encontrar un conjunto de soluciones
con diferentes valores de w.

Restricciones normales
El método de restricciones normales (normal constraint) es una alternativa al
normal boundary intersection, utilizando normalización de los valores objetivo, pa-
ra más detalles ver [Messac et al., 2003] y [Messac and Mattson, 2004].

Enfoque de descomposición
La idea principal de estos métodos es cambiar de un problema multiobjetivo a
múltiples problemas mono objetivo tales que cada problema se asocie a un punto del
31

conjunto de óptimos de Pareto. El enfoque de múltiples ejecuciones tiene 2 tendencias


principales utilizadas en [Hughes, 2005]:

1. Múltiples ejecuciones de optimización mono objetivo (multiple runs of a single


objective optimiser, M RSOP )

2. Múltiple optimización mono objetivo (multiple single objective optimisations,


M SOP S)

La conversión de un problema multiobjetivo a múltiples problemas mono objeti-


vo se lleva a cabo mediante un conjunto de vectores de pesos W , cualquier méto-
do de preferencias a priori basado en pesos de la Tabla 3.1 puede usar este enfo-
que, con diferentes valores de vector pesos w obtenemos diferentes óptimos de Pareto
[Marler and Arora, 2004]. M RSOP es el enfoque utilizado por N BI y N C para obte-
ner un conjunto de óptimos de Pareto es de notarse que por cada configuración de w el
método tiene que ser ejecutado independientemente; a diferencia de M RSOP el enfoque
M SOP S optimiza el conjunto de problemas mono objetivo en una sola ejecución.
En [Hughes, 2005] demuestran que el enfoque M SOP S supera a NSGA-II y M RSOP
cuando el número de objetivos escala. Un algoritmo evolutivo de alto desempeño que
ha sido desarrollada con este enfoque es MOEAD/D-DE [Li and Zhang, 2009].

La selección de pesos: Existen algunos trabajos para la selección de multiples vec-


tores de pesos para obtener un conjunto diverso y representativo de P Fverdadero . En
[Messac and Mattson, 2002] se propone un método en de este problema, investigación
que no es trivial ya que puede impactar directamente en el rendimiento del método
de optimización [Li and Zhang, 2009]. Tampoco se puede afirmar que un conjunto de
pesos tendrá el mismo rendimiento en todos los métodos ya que depende de factores
como: la función de agregación y el mecanismo especifico de navegación en el espacio
de soluciones. Finalmente [Giagkiozis et al., 2013] han descubierto que para obtener un
conjunto de pesos óptimo es necesario conocer previamente los óptimos de Pareto.

3.1.4. Articulación de preferencias progresivas


En métodos de articulación de preferencias progresiva la figura del usuario o toma-
dor de decisiones está muy presente, ajustando su configuración para guiar el proceso de
búsqueda. Por último, presentan un conjunto de soluciones P acorde a las preferencias
del tomador de decisiones ver (Figura 3.7):

2 Método STEM
Articulación de / Método de Steuer
preferencias progresivas

Figura 3.7: Métodos de articulación de preferencias progresivas

Método STEM
El método STEM propuesto en [Benayoun et al., 1971] tiene como idea principal la
reducción del espacio de soluciones utilizando lı́mites superiores (minimizar) o inferiores
(maximizar), mediante los siguientes pasos:

1. Optimizar los k objetivos independientemente


32

2. Utilizar el método min-max con pesos (Tchebycheff ponderado) para encontrar


la solución más cercana ~x′ al punto utópico fio
3. El tomador de decisiones identifica los objetivos satisfactorios en ~x′ y les asigna
un peso de 0, modifica el espacio de soluciones a un nuevo lı́mite superior en ese
objetivo mediante un valor relajado: ei = fi (~x′ ) + ∆
4. Optimiza las k soluciones con la nueva restricción en el espacio de soluciones
5. Vuelve al paso 2 si no ha alcanzado el número máximo de iteraciones.
Los pasos 2-5 se repiten un número de iteraciones usualmente igual o menor a k.

Método de Steuer
El método de [Steuer and Choo, 1983b] utiliza un conjunto de vectores de pesos W
para definir las preferencias progresivamente, en cada iteración el usuario o tomador de
decisiones selecciona entre P soluciones no dominadas la de su preferencia, usualmente
el método se detiene cuando el número de iteración h es igual a k. El conjunto de
vectores se crea con la formulación siguiente:
k
X
k
W = {w ∈ R |wi ∈ [lih , ehi ], wi = 1} (3.21)
i=1

Donde lih y ehi son los lı́mites inferior y superior respectivamente para el peso wi
en la iteración h, al comenzar la exploración li1 = 0, e1i = 1 representa el mayor rango
valido para cualquier wi , sujeto a la restricción ki=1 wi = 1; durante el proceso de
P
optimización en cada iteración h los valores [lih , ehi ] se acotan lo cual guı́a al algoritmo
a un subconjunto de óptimos de Pareto. Los pasos siguientes describen el método:
1. Inicializa h = 0, establece punto utópico fio
2. Genera W (50 · k vectores sugeridos), filtrarlos y obtener los más diversos (2 · P
sugeridos)
3. Optimizar los 2· P vectores utilizando el método min-max con pesos (Tchebycheff
ponderado) para obtener soluciones no dominadas.
4. Filtrar los vectores y obtener los P más diversos
5. Presentar al tomador de decisiones las P soluciones y permitirle escoger la de su
preferencia.
6. Reducir los intervalos de pesos de acuerdo a la solución escogida.
7. Volver al paso 2 si no ha alcanzado el número máximo de iteraciones.
Los pasos 2-5 se repiten un número de iteraciones usualmente igual o menor a k.

3.2. Metaheurı́sticos multiobjetivo


En este trabajo de investigación nos enfocamos en los metaheurı́sticos multiobjetivo
porque nuestra finalidad es encontrar aproximaciones del frente de Pareto. Es impo-
sible cubrir la inmensa cantidad de metaheurı́sticos propuestos para la optimización
multiobjetivo, ası́ que haremos referencia a las más relevantes, competitivas y en las
que se basan muchos de los trabajos actuales.
33

3.2.1. NGSA-II
NSGA-II es un algoritmo genético el cual es base de numerables contribuciones en
optimización multiobjetivo [Deb et al., 2000]. Su estructura poblacional es muy similar
a un algoritmo genético clásico, pero utilizando 2 componentes ingeniosos que lo adap-
tan a multiobjetivo. El primer componente es el ordenamiento f ast nondominated sort
que proporciona un raking de soluciones de acuerdo con el subfrente al que pertene-
cen. Es decir, el primer frente contiene a las soluciones no dominandas en el conjunto
original, al subconjunto remanente se le aplica la misma operación generando el se-
gundo subfrente, el proceso sigue de manera consecutiva hasta terminar la generación
de subfrentes. El segundo componente es un cálculo de aptitud auxiliar, la crowding
distance, estás aptitudes auxiliares se conocen como estimadores de densidad en opti-
mización multiobjetivo. Permiten seleccionar que soluciones preservar cuando entre el
conjunto todas son no dominadas. La aptitud de las soluciones es tomada de manera
lexicográfica por la relación de orden ranking con crowding distance.

3.2.2. MOCell
MOCell es un algoritmo genético celular que incluye un archivo externo para almace-
nar las soluciones no dominadas encontradas durante las generaciones [Nebro et al., 2006,
Nebro et al., 2007b]. Para garantizar la diversidad en el archivo, el algoritmo utiliza la
crowding distance [Deb et al., 2000]. La selección se basa en un torneo binario, después
se aplica el cruce genético y operador de mutación, la descendencia reemplaza si es
mejor. Al final de cada iteración, el algoritmo selecciona un número fijo de individuos
del archivo para reemplazar la misma cantidad de soluciones seleccionadas al azar de
la población.

3.2.3. SMPSO
SMPSO es un algoritmo de optimización de enjambre de partı́culas multiobjetivo
utilizando un archivo de crowding distance [Nebro et al., 2009b]. Caracterizado por
una estrategia para limitar los cambios de velocidad en las partı́culas, para limitar
movimientos erráticos. Para controlar la velocidad de la partı́cula, en lugar de usar
valores de variable superiores e inferiores que limitan el tamaño del paso de la velocidad,
se adoptada un coeficiente de constricción, Ver Ecuación (3.22), obtenido del factor de
constricción χ originalmente desarrollado por Clerc y Kennedy.
2
χ= p (3.22)
2−ϕ− ϕ2 − 4ϕ
Donde (
C1 + C2 if C1 + C2 ≥ 4
ϕ= (3.23)
1 if C1 + C2 ≤ 4
Además introduce un mecanismo de tal manera que la velocidad acumulada de cada
variable j (en cada partı́cula) se delimita más por medio de la siguiente ecuación de
constricción de velocidad:

deltaj if vi,j (t) ≥ deltaj

vi,j (t) = −deltaj if vi,j (t) ≤ deltaj (3.24)

vi,j (t) En caso contrario

34

Donde

U pperBoundj − LowerBoundj
deltaj = (3.25)
2

3.2.4. BORG
Borg [Hadka and Reed, 2013] es un algoritmo evolutivo multiobjetivo de estado
estable destinado a resolver problemas multimodales de muchos objetivos. Borg usa un
archivo ǫ-box, basado en el concepto ǫ de dominancia, para mantener una representación
diversa de todas las soluciones no dominadas encontradas durante la búsqueda. El
tamaño de este archivo está determinado por el ǫ considerado. Borg también utiliza
una métrica llamada ǫ-progress, basada en el contenido de este archivo, para identificar
cuándo la búsqueda está estancada. Cuando se detecta un estancamiento, Borg reinicia
la búsqueda creando una nueva población de soluciones aleatorias, ası́ como soluciones
tomadas del archivo ǫ-box. El tamaño de esta población recién generada no necesita
coincidir con el tamaño del anterior; en cambio, su tamaño se determina en función del
número de soluciones contenidas en el archivo ǫ -box. Borg también considera varios
operadores de recombinación cuyo uso se determina de forma adaptativa en función
de cómo han contribuido a la búsqueda hasta el momento. Más especı́ficamente, su
contribución se mide en términos de la cantidad de soluciones que produjeron en el
archivo ǫ-box.

3.2.5. SMS-EMOA
SMS-EMOA [Beume et al., 2007a] es también un algoritmo evolutivo multiobjetivo
de estado estable diseñado para calcular una aproximación finita al frente de Pareto
que cubre un HV máximo. Con este fin, el algoritmo utiliza el indicador de calidad
HV durante el proceso de búsqueda para determinar qué soluciones se mantienen y
qué soluciones se descartan. En cada generación, se considera que la población actual,
de tamaño N y la solución recién generada, actualiza la población de la próxima gene-
ración. Este conjunto de soluciones N + 1 está dividido en diferentes subconjuntos de
soluciones no dominadas (F1 , . . . , Fk ), con soluciones en F1 soluciones dominantes en
F2 , soluciones en F2 que dominan las soluciones en F3 , y ası́ sucesivamente. La solución
del último subconjunto Fk con la contribución más baja a HV se elimina. Las soluciones
N restantes se convierten en la población de la próxima generación.

3.2.6. SMEA
SMEA [Zhang et al., 2016] combina la búsqueda evolutiva y el aprendizaje au-
tomático. Más especı́ficamente, mapas auto organizados, un método de aprendizaje
automático no supervisado, se aplica para determinar las relaciones cercanas dentro
de la población actual de cada generación. Estas relaciones se usan para determinar
agrupaciones dentro de las cuales se puede aplicar el operador de recombinación. Como
SMS-EMOA, SMEA también realiza una evolución de estado estacionario. En cada
generación, se crea una solución y la población de la próxima generación se genera
utilizando un procedimiento similar al descrito para el algoritmo SMS-EMOA.

3.2.7. SMPSOhv
SMPSOhv [Nebro et al., 2013b] es una extensión del algoritmo de enjambre de
partı́culas multiobjetivo SMPSO [Nebro et al., 2009a]. La caracterı́stica principal de
35

SMPSO es el uso de un mecanismo de restricción de velocidad que evita que las partı́cu-
las a menudo sobrepasen los lı́mites del espacio de búsqueda debido a los valores de alta
velocidad. Todas las soluciones no dominadas que se encuentran durante la búsqueda
se insertan en un archivo externo de tamaño limitado. SMPSOhv usa un indicador de
calidad HV para mantener el tamaño de este archivo dentro del lı́mite especificado. En
particular, cada vez que una nueva inserción hace que el archivo crezca más allá de este
tamaño, la solución que contribuye menos a HV de la aproximación frontal de Pareto
se elimina, siguiendo un procedimiento similar al de SMS-EMOA y SMEA.

3.2.8. MOEA/D-DE
MOEA/D [Zhang and Li, 2007] es un algoritmo evolutivo multiobjetivo de estado
estacionario que emplea un enfoque de agregación para descomponer un problema de
optimización multiobjetivo en un conjunto de optimizaciones de un solo objetivo, lla-
mados sub-problemas. Cada solución en la población tiene como objetivo optimizar
uno de estos sub-problemas. Para eso, una estructura de vecindario se define entre
todas las soluciones dentro de la población. Los vecinos resultantes definen las agru-
paciones de apareamiento para el operador de recombinación y los subproblemas que
la solución generada puede optimizar. La versión considerada en este documento es
MOEA/D-DE [Li and Zhang, 2009] que emplea la evolución diferencial como el opera-
dor de recombinación y Tchebycheff como método de descomposición.

3.3. Indicadores de calidad multiobjetivo


Los indicadores de calidad multiobjetivo son aceptados por la comunidad cientı́fica
como referencia del desempeño de un algoritmo frente a otro. Existen dos clases princi-
pales de indicadores de calidad multiobjetivo: unarios y binarios. Los unarios son indica-
dores de calidad que se le aplican al frente encontrado (P Factual ). Tienen la desventaja
de que requieren previamente conocer el verdadero frente de Pareto (P Fverdadero ) o
sus lı́mites superiores e inferiores. Los binarios se aplican a los frentes encontrados
(P Factual ) por dos algoritmos diferentes. Tienen la desventaja de que no se pueden
comparar más de dos algoritmos.

3.3.1. Hipervolumen (IHV )


El hipervolumen [Auger et al., 2009],[Yang and Ding, 2007] también conocido como
S-metric [Naujoks and Beume, 2005] es uno de los indicadores de calidad más usados
en optimización multiobjetivo. Es la medida del volumen del espacio n-dimensional
dominado por las soluciones en el frente encontrado (P Factual ), entre mayor sea su
valor la calidad del frente es mejor.
El hipervolumen del frente encontrado (P Factual ) se mide con respecto a un punto
de referencia ref , usualmente una solución x (anti óptimo global) que es dominada por
todas las soluciones ∈ Ω. La selección del punto de referencia sigue siendo un problema
abierto, por lo cual se aconseja tomar el peor valor conocido en cada objetivo como ref
y agregarle la unidad [Naujoks and Beume, 2005] como se muestra en la Figura 3.8.
36

Figura 3.8: Hipervolumen para problema de minimización de 2 objetivos

Existen diversos algoritmos para calcular el hipervolumen propuestos en la literatura


[Auger et al., 2009], [Yang and Ding, 2007], [Naujoks and Beume, 2005] y está probado
que el cálculo del Hipervolumen es NP-hard [Bringmann and Friedrich, 2009].

3.3.2. Épsilon aditivo (Iǫ+ )


Dado un frente calculado A y un frente de referencia B por un problema, este indi-
cador es una medida de la distancia más pequeña que se necesitarı́a para trasladar cada
solución en A, para dominar débilmente a B [Zitzler et al., 2003]. Más formalmente,
dado z~1 = (z11 , . . . , zk1 ) y z~2 = (z12 , . . . , zk2 ), donde k es el número de objetivos:

inf n ~2 o
Iǫ+ (A, B) = ∀z ∈ B ∃z~1 ∈ A : z~1 ǫ z~2 ,
ǫ∈R

Donde, z~1 ǫ z~2 si y solo si ∀1 ≤ i ≤ k : zi1 ≤ ǫ + zi2 .


Pequeños valores de Iǫ+ son deseables para esta métrica. Cuando se usa el P Fverdadero
como B, esto da una métrica de convergencia muy precisa.

3.3.3. Dispersión generalizada (IGS )


La dispersión generalizada es una extensión de la métrica de diversidad propuesta
en [Veldhuizen and Lamont, 2000], la cual calcula la distancia entre soluciones conse-
cutivas y sólo se aplica en problemas con 2 objetivos. La extensión de esta métrica
propuesta en [Zhou et al., 2006] se aplica a problemas con 2 o más objetivos.

Pm P
j=1 d(ej , P Factual ) + X∈P Fverdadero |d(X, P Factual ) − d|
GS(P Factual , P Fverdadero ) = Pm
j=1 d(ej , P Factual ) + |P Fverdadero |d
(3.26)
Donde {e1 , e2 , ......, ek } son k soluciones extremas en P Fverdadero y

min
d(X, P Factual ) = ||F (X) − F (Y )||2 (3.27)
Y ∈ P Factual , Y 6= X
,
1 X
d= d(X, P Factual ) (3.28)
|P Fverdadero |
X∈P Fverdadero

siendo F(X) el vector de objetivos, si las soluciones en P Factual están bien distri-
buidas e incluyen las soluciones extremas entonces GS=0.
37

3.3.4. Distancia generacional invertida (IIGD )


La distancia generacional fue introducida en [Veldhuizen and Lamont, 1998], como
una medida de convergencia al frente de Pareto. Su formulación se basa en la distancia
punto conjunto:
qP
n 2
i=0 di
GD = (3.29)
n
Donde n es el número de puntos encontrados en P Factual , y di es la distancia punto
conjunto entre la solución i y el frente de referencia P Fverdadero . Es un indicador que
busca ser minimizado, sin embargo, es muy criticado por que aproximaciones al frente
con pocas soluciones producen bajos valores de GD. Para resolver este problema, sin
una publicación formal donde sea introducida, se ha popularizado el uso de la distancia
generacional invertida IGD. Cuya formulación es muy parecida:
qP
n 2
i=0 di
IGD = (3.30)
n
Donde n es el número de puntos en el frente de referencia P Fverdadero , y di es la
distancia punto conjunto entre la solución i y el frente aproximado P Factual . Debido
a que la métrica que no cumple ninguna propiedad de Pareto se ha propuesto una
extensión denominada distancia generacional invertida plus en [Ishibuchi et al., 2015].
La cual se modifica para tomar en cuenta la dominancia de Pareto. La distancia solo

se toma en cuenta si la solución de la aproximación x es dominada por la del frente
de referencia x∗ , en caso contrario solo cuando la solución de referencia tenga mejor o
igual valor objetivo que la aproximación es decir:


if (fi (x∗ ) ≤ (x ))∀i ∈ Objetivos (3.31)
∗ ′
di = di + fi (x ) − fi (x ) (3.32)

3.4. Frameworks para optimización multiobjetivo


La idea de frameworks de optimización no es nueva, han existido desde el caso
más simple en optimización, la optimización mono-objetivo. La implementación de
algoritmos no es una tarea trivial, mı́nimas diferencias o errores de interpretación falsean
resultados. La optimización multiobjetivo es probablemente la rama más difı́cil de la
optimización inteligente. Es por eso que la utilización de frameworks de optimización
reduce los errores de implementación y aceleran los tiempos de desarrollo y pruebas.

3.4.1. PISA
El grupo de sistemas de optimización de la Escuela Politécnica Federal de Zurich
(ETH Zürich) desarrolló el primer framework de optimización multiobjetivo aceptado
por la comunidad investigadora. El cual lleva el nombre de Interfaz independiente de
plataforma y lenguaje de programación para algoritmos de búsqueda (PISA por sus
siglas en inglés). PISA fue introducido en [Bleuler et al., 2003], el cual tiene como ca-
racterı́stica principal la separación total del código en un variador (implementación del
problema) y un selector (algoritmo de optimización). Este par de componentes previa-
mente mencionados son ejecutados como procesos independientes, y solo se comunican
38

entre si a partir de archivos de texto de configuración.


La ventaja principal de este framework es que las implementaciones tanto de los
problemas de optimización como de los algoritmos pueden ser realizadas en cualquier
lenguaje, puesto que solo tienen que seguir el formato de lectura y escritura de los
archivos de texto. Por otro lado, es ampliamente conocido que el rendimiento de este
tipo de comunicación entre procesos no es eficiente, al cambiar la ejecución entre dis-
tintos procesos se produce lo que se conoce como un overhead en el sistema operativo,
disminuyendo considerablemente su rendimiento.
Actualmente PISA se encuentra en una fase de no actualización, el grupo de sis-
temas para la optimización fue disuelto con la salida de Eckart Zitzler de la ETH
Zürich en Enero 31 del 2010. La última actualización que ha recibido el proyecto fue
el 13 Octubre 2014, la cual corrige un fallo en el algoritmo de optimización IBEA
[Zitzler and Künzli, 2004]. La siguiente tabla muestra los problemas y algoritmos con-
tenidos en PISA.
Tabla 3.3: Bancos de prueba multiobjetivo e algoritmos incluidos en PISA.
Problema Autor Algoritmo Autor
GWLAB [Siegfried et al., 2009] SPAM [Zitzler et al., 2009]
LOTZ [Laumanns et al., 2002b] SHV [Bader et al., 2008]
LOTZ2 [Laumanns et al., 2002b] SIBEA [Zitzler et al., 2007b]
Mochila [Zitzler and Thiele, 1999] HypE [Bader and Zitzler, 2006]
EXPO [Thiele et al., 2002] SEMO [Laumanns et al., 2002b]
WFG [Simon Huband and While, 2007] SEMO2 [Laumanns et al., 2002b]
DTLZ [K. Deb and Zitzler, 2001] FEMO [Laumanns et al., 2002b]
BBV Marco Laumanns SPEA2 [Zitzler et al., 2001]
MLOTZ [Laumanns et al., 2004] NSGA-II [Deb et al., 2000]
MMPN [Erbas et al., 2003] ECEA Marco Laumanns
SCD [Schlichter et al., 2006] IBEA [Zitzler and Künzli, 2004]
MSOPS [Hughes, 2003]
EPSMOEA [Deb et al., 2003]

3.4.2. OPT4J
OPT4J es un framework de optimización multiobjetivo escrito en java presentado
por primera vez en la conferencia GECCO del 2011 [Lukasiewycz et al., 2011]. A pesar
de contar con 8 años de diferencia con el framework PISA, cuenta con un reducido
número de algoritmos. OPT4J incluye implementaciones de NSGA-II [Deb et al., 2000],
SPEA2 [Zitzler et al., 2001], MOPSO [Reyes and Coello Coello, 2005] y SMS-EMOA
[Beume et al., 2007a]. También contiene dos versiones multiobjetivo genéricas de los
algoritmos mono-objetivo de evolución diferencial (DE) y recocido simulado (SA). A
pesar del número reducido de algoritmos la selección de ellos es relevante, los algoritmos
evolutivos presentados utilizan diferentes mecanismos para preservar las soluciones no-
dominadas encontradas:

NSGA-II utiliza la distancia crowding

SPEA2 utiliza Pareto Strength y raw fitness

SMS-EMOA las contribuciones al hipervolumen

A diferencia de PISA todo el código está escrito en el mismo lenguaje, y se ejecuta


en un mismo proceso. Su última actualización tuvo lugar el 9 Julio 21 del 2016 por Felix
Reimann. La siguiente tabla muestra los bancos de prueba y algoritmos implementados
en OPT4J.
39

Tabla 3.4: Bancos de prueba multiobjetivo e algoritmos incluidos en OPT4J.


Problema Autor Algoritmo Autor
LOTZ [Laumanns et al., 2002b] NSGA-II [Deb et al., 2000]
DTLZ [K. Deb and Zitzler, 2001] SPEA2 [Zitzler et al., 2001]
WFG [Simon Huband and While, 2007] SMS-EMOA [Beume et al., 2007a]
ZDT [Zitzler, 2000] DE Lukasiewycz
Mochila [Zitzler and Thiele, 1999] SA Lukasiewycz
Reinas [Lukasiewycz et al., 2007] MOPSO [Reyes and Coello Coello, 2005]

3.4.3. MOEA Framework


MOEA Framework es el intento por incluir la mayor cantidad de bancos de prueba
y algoritmos para la optimización multiobjetivo, está escrito en el lenguaje de progra-
mación Java y fue introducido en [Hadka, 2012]. Consta de un total de 32 algoritmos
y 6 bancos de prueba, la manera en que logra esta gran cantidad de implementa-
ciones es tomando prestadas las implementaciones de PISA y el framework jMetal
[Durillo and Nebro, 2011], ası́ como el uso de puertos (sockets) para utilizar código ex-
terno. MOEA Framework tiene un nicho de mercado principalmente comercial, siendo
este el único Framework de este tipo con soporte empresarial profesional. Como pun-
to clave a destacar posee la interfaz gráfica más completa, la cual permite configurar
experimentos y analizar resultados directamente en ella, por otro lado, el formato de
salida de los resultados no es un formato de fácil importación para el tratamiento de
datos por software externo. Su última actualización se realizó el 4 de Enero del 2017.

Tabla 3.5: Bancos de prueba multiobjetivo e algoritmos incluidos en MOEA Framework


Problema Autor
ZDT [Zitzler, 2000]
DTLZ [K. Deb and Zitzler, 2001]
LZ [Li and Zhang, 2009]
CEC2009 [Zhang et al., 2008]
WFG [Simon Huband and While, 2007]
BBOB-2016 [Auger et al., 2016]
Clásicos Diversos
Problema Autor Algoritmo Autor
AbYSS [Nebro et al., 2008] MOEA/D [Zhang and Li, 2007]
BORG [Hadka and Reed, 2013] MSOPS [Hughes, 2003]
CellDE [Durillo et al., 2008] NSGA-II [Deb et al., 2000]
CMA-ES [Igel et al., 2007] NSGA-III [Deb and Jain, 2014]
DBEA [Asafuddoula et al., 2015] OMOPSO [Reyes and Coello Coello, 2005]
DENSEA [Greiner et al., 2006] PAES [Knowles and Corne, 1999]
ECEA [Laumanns et al., 2006] PESA2 [Corne et al., 2001]
ǫ-MOEA [Deb et al., 2003] RVEA [Cheng et al., 2016]
ǫ-NSGA-II [Oliveira and Vita, 2009] SEMO2 [Laumanns et al., 2002b]
FastPGA [Eskandari et al., 2007] SHV [Bader et al., 2008]
FEMO [Laumanns et al., 2004] SIBEA [Zitzler et al., 2007b]
GDE3 [Kukkonen and Lampinen, 2005] SMPSO [Nebro et al., 2009b]
HypE [Bader and Zitzler, 2006] SMS-EMOA [Beume et al., 2007a]
IBEA [Zitzler and Künzli, 2004] SPAM [Zitzler et al., 2009]
MOCell [Nebro et al., 2006] SPEA2 [Zitzler et al., 2001]
MOCHC [Nebro et al., 2007a] VEGA [Schaffer, 1985]

3.4.4. jMetal
jMetal es un framework con un año más de antigüedad que MOEA Framework. A
diferencia de otros frameworks jMetal no implementa el uso de una interfaz gráfica, pero
a diferencia de PISA todo el código implementado está escrito en Java evitando producir
overhead, produciendo mejores tiempos de respuesta. El dedicarse a modo texto pudiera
40

parecer una desventaja, pero desde el nicho de mercado para desarrolladores ha sido la
mejor decisión. jMetal está basado en buenas prácticas de desarrollo de software desde
su versión original, con un diagrama de clases UML claro y conciso. Se puede ejecutar
fácilmente en la consola del sistema de cualquier sistema operativo, produciendo salidas
en texto plano para su análisis en cualquier software externo. En [Nebro et al., 2015]
jMetal tuvo un drástico rediseño para implementar patrones de diseño orientado a
objetos avanzados, fue presentado en la conferencia GECCO del 2015. Actualmente
cuenta con 26 algoritmos de optimización y 6 bancos de prueba, entre los cuales podemos
encontrar trabajos muy recientes del estado del arte como el banco de pruebas GLT
[Zhang et al., 2016] o el algoritmo de optimización MOMBI-II [Saborido et al., 2017].
Es sin duda el proyecto más activo siendo su última actualización a dı́a de hoy el 30 de
Enero del 2018.
Tabla 3.6: Bancos de prueba multiobjetivo e algoritmos incluidos en jMetal
Problema Autor
ZDT [Zitzler, 2000]
DTLZ [K. Deb and Zitzler, 2001]
LZ [Li and Zhang, 2009]
CEC2009 [Zhang et al., 2008]
WFG [Simon Huband and While, 2007]
GLT [Zhang et al., 2016]
Clásicos Diversos
Problema Autor Algoritmo Autor
AbYSS [Nebro et al., 2008] MOEA/D-DE [Li and Zhang, 2009]
CellDE [Durillo et al., 2008] NSGA-II [Deb et al., 2000]
NSGAIIr [Nebro et al., 2013c] NSGA-III [Deb and Jain, 2014]
OMOPSO [Reyes and Coello Coello, 2005] dMPOSO [Martı́nez and Coello, 2011]
PAES [Knowles and Corne, 1999] PESA2 [Corne et al., 2001]
FastPGA [Eskandari et al., 2007] MOCHC [Nebro et al., 2007a]
GDE3 [Kukkonen and Lampinen, 2005] SMPSO [Nebro et al., 2009b]
IBEA [Zitzler and Künzli, 2004] SMS-EMOA [Beume et al., 2007a]
MOCell [Nebro et al., 2006] SPEA2 [Zitzler et al., 2001]
pMOEA/D-DE [Nebro and Durillo, 2010] MOEA/D-DRA [Zhang et al., 2009a]
ssNSGA-II [Durillo et al., 2009b] NSGAIIa [Nebro et al., 2013c]
SMPSOhv [Nebro et al., 2013a] WASF-GA [Saborido et al., 2017]
MOMBI [Hernández Gómez and Coello Coello, 2013] MOMBI-II [Raquel. and A., 2015]

3.5. Algoritmos adaptativos


Actualmente existen algoritmos altamente competitivos para encontrar aproxima-
ciones del frente de Pareto en problemas de optimización multiobjetivo. Como demues-
tra el teorema de No free lunch [Wolpert and Macready, 1997, Igel and Toussaint, 2005],
no existe un único algoritmo que supere a cualquier otro en todo tipo de casos de prue-
ba. Los algoritmos de optimización metaheurı́sticos se han convertido en la primera
elección a la hora de resolver problemas NP-Duros o de manera empı́rica conocidos
como difı́ciles. Aunque el diseño estructural de los metaheurı́sticos es la diferencia sin-
gular que los identifica, la gran mayorı́a utiliza operadores de variación de manera
intercambiable.
Estos operadores toman el nombre usado en los algoritmos evolutivos: mutación
(diversificación) y cruza (intensificación). En los algoritmos de trayectoria toman el
nombre de combinación (intensificación) y perturbación (diversificación). Por lo tanto,
es relevante determinar mecanismos que permitan identificar los operadores de variación
más adecuados para resolver un problema de optimización.
Los algoritmos adaptativos multiobjetivo existentes se pueden clasificar en dos ca-
41

tegorı́as, que llamamos adaptación de parámetros y adaptación del operador.


La adaptación de parámetros consiste en modificar los parámetros de control de
los operadores utilizados por un algoritmo. A menudo se conocen como algoritmos
auto-adaptativos, y generalmente incluyen estos parámetros de control como parte del
espacio de búsqueda. En esta categorı́a, [Deb et al., 2007] introduce una versión auto-
adaptativa del operador de cruce SBX (SA-SBX) que ajusta dinámicamente el ı́ndice de
distribución de SBX. La aplicación de este operador en NSGA-II se evalúa en tres pro-
blemas (ZDT1, ZDT2 y DTLZ2), que muestran un mejor rendimiento con respecto al
algoritmo original. Otro operador SBX autoadaptable se presenta en [Zeng et al., 2010],
donde el ı́ndice de distribución se ajusta dinámicamente usando información de retro-
alimentación tanto de una métrica de rendimiento de diversidad como de la distancia
de ocupación. El nuevo operador se incorpora a NSGA-II, mejorando su rendimiento
en el banco de prueba ZDT.
La idea detrás de la adaptación del operador es proporcionar al algoritmo un con-
junto de diferentes operadores (por lo general, de variación). El algoritmo puede aplicar
uno de los operadores disponibles, de acuerdo con la contribución esperada de los dife-
rentes operadores al proceso de búsqueda. Con esta idea en, Toscano y Coello proponen
un algoritmo micro-genético (µ GA2) [Toscano Pulido and Coello Coello, 2003], en el
que se consideran tres operadores de cruce. Los autores proponen ejecutar tres instan-
cias de µ GA2 en paralelo, utilizando uno de los tres operadores disponibles cada uno.
Después de varias generaciones, el operador de cruce que muestra el peor comporta-
miento es reemplazado por el que tiene el mejor rendimiento. El algoritmo se compara
con NSGA-II y PAES en un banco de prueba compuesto de cinco problemas. Una des-
ventaja importante identificada en esta propuesta es que los operadores de cruce no
pueden ser considerados nuevamente después de ser descartados. Este problema es una
limitación importante para las capacidades de adaptación del algoritmo bajo ciertas
condiciones.
MOSaDE [Huang et al., 2007] es la versión multiobjetivo del algoritmo SaDE pro-
puesto en [Qin et al., 2009]. En SaDE, cuatro estrategias de evolución diferencial se
combinan mediante el uso de un mecanismo de auto-adaptación que establece sus pro-
babilidades de aplicación de acuerdo con su tasa de éxito en las generaciones anteriores.
MOSaDE amplı́a SaDE con un archivo externo para almacenar las mejores soluciones
no dominadas encontradas. Este archivo se gestiona utilizando la medida armónica
de la diversidad basada en la distancia. En SaDE, la tasa de éxito de los operado-
res se mide en términos del número de soluciones reemplazadas en la población. En
el caso de MOSaDE, una solución A se considera mejor que la solución B si A do-
mina B, o si no están dominados y A está en una región menos concurrida. El ren-
dimiento del algoritmo está lejos de los mejores en el estado del arte. De hecho, una
versión mejorada de MOSaDE con estrategias de aprendizaje basadas en objetos, llama-
do OW-MOSaDE [Huang et al., 2009], participó en la competencia CEC2009 MOEA
[Zhang et al., 2009b], obteniendo un rango promedio pobre de 9.39 en la comparación
de algoritmos de 13, con respecto a la calidad de las soluciones encontradas.
Vrugt y Robinson proponen en [Vrugt and Robinson, 2007] el llamado algoritmo
AMALGAM, que aplica varios metaheurı́sticos multiobjetivo diferentes para evolucio-
nar la población. Cada metaheurı́stico se usa adaptativamente con la idea de favorecer
aquellos que exhiben el mejor rendimiento en la última iteración. Los algoritmos utili-
zados son NSGA-II, un Enjambre de partı́culas, una evolución diferencial y un enfoque
adaptativo de búsqueda de metrópolis. AMALGAM se compara con NSGA-II sobre
el banco de prueba ZDT y algunos problemas de prueba clásicos (Kursawe, Fonseca,
Schaffer [Coello et al., 2006]), y se ha aplicado también a algunos problemas del mundo
42

real [Huisman et al., 2010], [Wöhling and Vrugt, 2011].


Finalmente, Borg [Hadka and Reed, 2013] es un algoritmo multiobjetivo adaptativo
especialmente diseñado para problemas multimodales de muchos objetivos. Implementa
un conjunto de operadores de recombinación, y la elección del operador a aplicar se hace
de acuerdo con su contribución al proceso de búsqueda. Para eso, rastrea la cantidad
de soluciones que cada operador de recombinación contribuyó al archivo de soluciones
no dominadas.

3.6. Lógica difusa e algoritmos evolutivos


La lógica difusa desarrollada originalmente por [Zadeh, 1965], se ha convertido en
uno de los principales aliados en sistemas de control. Aplicaciones que van desde trenes
autónomos hasta electrodomésticos [Lee, 1990a, Lee, 1990b]. Dado que los algoritmos
evolutivos son de primera elección en la optimización multiobjetivo, en este apartado
revisaremos los enfoques difuso-evolutivos más relevantes para este trabajo de tesis.
Podemos identificar dos áreas principales al combinar lógica difusa y Algoritmos
evolutivos (AEs): el diseño de sistemas de control difuso (es decir, el uso de AEs pa-
ra descubrir conjuntos de reglas difusas) y parámetros adaptativos dinámicos en me-
taheurı́sticos [Herrera and Lozano, 2009].
Los algoritmos más destacados bio-inspirados utilizando la lógica difusa para la
adaptación de parámetros dinámicos se revisan en [Valdez et al., 2014]. Entre ellos, el
trabajo de [Melin et al., 2013] presenta un enfoque interesante, donde la lógica difusa se
usa para ajustar dinámicamente los coeficientes de ponderación C1 y C2 en la fórmula
de velocidad de un metaheurı́stico de enjambre de partı́culas. Estos coeficientes son
parámetros de similitud con las mejores partı́culas, locales y globales, respectivamente.
Tres conjuntos de reglas difusas son evaluados. El primero monitorea el número de
iteración y la diversidad promedio de las partı́culas. En iteraciones tempranas o baja
diversidad, el valor de C1 debe ser mayor que C2 ; de lo contrario C2 > C1 . El segundo
monitorea el número de iteración y el error promedio a la mejor solución encontrada.
Orientando la búsqueda de manera casi opuesta al primer conjunto de reglas, en las
últimas etapas de la búsqueda, o si el error es alto, aplica C1 > C2 . Finalmente, el
tercer conjunto de reglas usa una mezcla de las tres entradas monitoreadas: iteración,
diversidad y error. El método propuesto logró mejores resultados que el enjambre de
partı́culas tradicional con el primer y tercer conjunto de reglas.
En [Ochoa et al., 2017], un algoritmo de evolución diferencial utilizando un siste-
ma difuso adapta el factor de mutación F , mientras que la constante de cruce C es
fija. Los resultados experimentales muestran significancia estadı́stica y mejora sobre las
versiones difusas de dos metaheurı́sticos emergentes, la búsqueda de armonı́a (inspi-
rada en la improvisación de armonı́a de músicos, [Peraza et al., 2015]) y el algoritmo
de búsqueda de murciélagos (inspirado en el comportamiento de ecolocación de mur-
ciélagos, [Pérez et al., 2015]). Los beneficios de implementar la adaptación de paráme-
tros utilizando lógica difusa se han demostrado recientemente en otros metaheurı́sticos
emergentes como el algoritmo de búsqueda gravitacional [Olivas et al., 2017a], el algo-
ritmo de Fuegos artificiales [Barraza et al., 2017] y el algoritmo de grupo de búsqueda
[Noorbin and Alfi, 2017].
La primera generación de la lógica difusa trata muy satisfactoriamente con la incer-
tidumbre. Sin embargo, hay fuertes crı́ticos sobre su falta de incertidumbre dentro de
las funciones de membresı́a. Para hacer frente a esta deficiencia, se propuso una segun-
da generación de lógica difusa, denominada lógica difusa de intervalo tipo 2. Mientras
43

que, las funciones de membresı́a de tipo 1 se asignan a un solo valor, las funciones de
tipo 2 se asignan a un rango llamado “huella de incertidumbre” [Karnik et al., 1999].
Recientemente se propuso una Colonia de Hormigas (CO) usando una lógica difusa de
tipo 2 en [Olivas et al., 2017b], de forma muy similar a [Melin et al., 2013], mejorando
los resultados de una CO basada en rangos y una CO usando adaptación de parámetro
difusa tipo 1. La capacidad de adaptación de parámetros utilizando lógica difusa en
algoritmos metaheurı́sticos es una tendencia fuerte en investigación, sin embargo, la ro-
bustez de los motores difusos depende en gran medida del diseño del conjunto de reglas,
las cuales requiere un gran conocimiento u optimización para configurar correctamente
el motor difuso.

3.7. Estimadores de densidad


Los estimadores de densidad juegan un papel muy importante en los metaheurı́sticos
para optimización multiobjetivo. Los metaheurı́sticos deciden qué soluciones deben ser
conservadas y cuales descartadas, esa decisión en numerables ocasiones está en función
de una estimación de densidad de la solución. Existen una variedad de propuestas
para la estimación de densidad, pero solo tres se han popularizado debido a su buen
desempeño: Crowding Distance [Deb et al., 2000], Pareto Strengh [Zitzler et al., 2001],
y las contribuciones al hipervolumen [Beume et al., 2007a]; a continuación, descritos
brevemente.

3.7.1. Crowding distance


El estimador de densidad de mayor difusión en optimización multiobjetivo es sin
duda la crowding de NSGA-II [Deb et al., 2000]. Lo anterior en gran medida debido
a su simplicidad y baja complejidad O(knlogn), el Algoritmo 1 muestra su cálculo
normalizado, donde M axm y M inm son los valores máximos y mı́nimos para el objetivo
m.

Algorithm 1 Cálculo de crowding distance normalizado


l = |I|
for ∀i ∈ I do
I[i].distancia = 0
end for
for ∀ objetivo m do
I = Ordena(I, m)
I[1].distancia = I[1].distancia + ∞
I[l].distancia = I[l].distancia + ∞
for i = 2 to l − 1 do
I[i].distancia+ = (I[i + 1].m − I[i − 1].m)/(M AXm − M INm )
end for
end for

La crowding distance es un estimador de densidad de primera elección, muchos


problemas de optimización multiobjetivo son de dos objetivos y la crowding distance
tiene su mejor rendimiento con dos objetivos. Sin embargo al trabajar con tres o más
objetivos su rendimiento es inferior [Zitzler et al., 2001].
44

3.7.2. Pareto strength


Este estimador de densidad fue originalmente propuesto en el algoritmo SPEA
[Zitzler and Thiele, 1998], la Pareto Strenght toma en cuenta el número de individuos
que dominan a una nueva solución. Para evitar la situación donde el mismo número de
individuos dominan a una solución, una actualización se propuso en [Zitzler et al., 2001].
En la actualización se toman en cuenta tanto los individuos que dominan a la solución,
como los que domina. La primera parte del estimador de densidad está dada por el
cálculo de raw fitness, su formulación es la siguiente:

S(i) = {j|j ∈ Pt i ≺ j} (3.33)


X
R(i) = S(j) (3.34)
j∈Pt ,j≺i

Donde Pt es el conjunto total de soluciones (población más archivo), y R(i) es


el raw fitness del individuo i. La segunda parte del estimador toma en cuenta todas
las distancias entre las soluciones en el espacio objetivo. Penalizando con la k-esima
distancia en orden ascendente σik , como aparece en la formulación a continuación.
1.0
D(i) = (3.35)
σik + 2.0
Este estimador de densidad tiene una complejidad de O(n3 ), la estimación de den-
sidad del i-esimo individuo se determina con la siguiente ecuación.

F (i) = R(i) + D(i) (3.36)

3.7.3. Hipervolumen
La idea de la optimización multiobjetivo basada en indicadores de calidad multiob-
jetivo fué originalmente propuesta en [Zitzler and Künzli, 2004] con el metaheurı́stico
IBEA. El metaheurı́stico IBEA puede ser implementado indistintamente con cualquier
indicador de calidad multiobjetivo. La aptitud F de una solución x1 en una población
P para una métrica de calidad I se calcula:
2 },{x1 })/k
X
F (x1 ) = −eI({x (3.37)
x2 ∈P \{x1 }

Donde k es un parámetro mayor a cero, se define experimentalmente dependiendo


el indicador y problema; El artı́culo original emplea un valor de k = 0.05. Natural-
mente el hipervolumen es un indicador de primera elección puesto que el maximizarlo
garantiza una buena convergencia y diversidad. Sin embargo el enfoque utilizado en
IBEA presenta una gran debilidad, su formulación en la Ecuación 3.37 solo tiene en
cuenta el indicador de calidad computado entre dos soluciones a la vez. El caso cuando
el subconjunto P \ x1 recubre el área dominada por x1 , pasa totalmente desapercibido.
Un enfoque que toma en cuenta lo anteriormente mencionado es el utilizado por el
algoritmo SMS-EMOA [Beume et al., 2007a], y también el más popular en la literatura
[Zhang et al., 2016, Nebro et al., 2013b], en estos metaheurı́sticos solo una solución es
remplazada a la vez, obteniendo un cálculo preciso de la contribución de la solución al
hipervolumen.
45

3.8. Conclusiones
Derivado del análisis del estado del arte encontrados dos áreas de oportunidad en
investigación multiobjetivo.
En primera instancia la adaptación de operadores en algoritmos de optimización
multiobjetivo utilizando lógica difusa, área aún no explorada. La adaptación de los
algoritmos depende en gran medida del método de control utilizado, un método de
control robusto en muchas situaciones es el uso de la lógica difusa mediante sistemas
de inferencia difusa. El diseño de un sistema de inferencia difuso puede ser realmente
complejo o simple a elección del diseñador, puede monitorear una infinidad de señales
del entorno como: estancamiento de la búsqueda, iteración o generación, diversidad de
las soluciones, distancia a la mejor o peor solución encontrada, etc. Ası́ como controlar
parámetros o tomar de decisiones al momento de ejecución: ¿qué tan alto o bajo deberı́a
de ser el porcentaje de mutación?, ¿deberı́a reiniciar la población?, ¿En qué momento
y en qué cantidades se deben modificar los parámetros de un operador de variación?
En segunda instancia el desarrollo de nuevos métodos de estimación de densidad de
soluciones en optimización multiobjetivo. Actualmente crowding distance no puede re-
solver eficazmente problemas con tres o más objetivos, mientras que las contribuciones
al hipervolumen depende del cálculo del hipervolumen de complejidad exponencial. Un
candidato de complejidad polinomial es Pareto Strength, sin embargo, las aproxima-
ciones producidas por el mismo son de baja calidad comparado con las contribuciones
del hipervolumen y su complejidad es considerada alta O(n3 ).
Para evitar errores de implementación y acelerar tiempos de desarrollo sin duda
un proyecto muy activo y verificado por la comunidad como lo es jMetal es la mejor
opción.
46

Capı́tulo 4

Diseño algorı́tmico y
experimental

Este capı́tulo muestra el desarrollo del proyecto de tesis, el cual integra las contribu-
ciones principales del proyecto para llegar a un método de optimización multiobjetivo
de alto desempeño. Este capı́tulo está dividido en 5 secciones. Bancos de prueba, don-
de se abordan las principales caracterı́sticas de los bancos de prueba utilizados y su
relevancia para el proyecto de tesis. Métricas de evaluación, en la que se describen los
indicadores de calidad multiobjetivo utilizados en el proyecto de tesis con su fundamen-
to para ser utilizados. Tratamiento de datos, contiene la interpretación de los valores
cuantitativos en el proyecto. Pruebas estadı́sticas, detalla las pruebas estadı́sticas que
fundamentan el proyecto, ası́ como su interpretación. Por último, las conclusiones del
esquema de trabajo presentado.

4.1. Bancos de prueba


La selección de bancos de prueba ha sido una tarea importante para el trabajo de
tesis. Se han seleccionado bancos de prueba actuales en el estado del arte, o que por
su dificultad sigan siendo de interés para la comunidad cientı́fica. Un total de cinco
bancos de prueba se utilizaron en el proyecto de investigación, que van desde frentes de
Pareto simples, pasando por convexos, no convexos, disjuntos, degenerados, escalables,
etc., hasta frentes de Pareto complejos. La siguiente tabla muestra los bancos de prueba
utilizados en el presente trabajo.

Tabla 4.1: Bancos de prueba utilizados en el proyecto de tesis

Problema Autor
DTLZ [K. Deb and Zitzler, 2001]
WFG [Simon Huband and While, 2007]
LZ [Li and Zhang, 2009]
CEC2009 [Zhang et al., 2008]
GLT [Zhang et al., 2016]

Esta sección da detalles acerca de la selección especı́fica de los bancos de prueba en


la tabla anterior.
47

4.1.1. DTLZ
El banco de prueba DTLZ toma su nombre de las iniciales de los apellidos de sus
autores (Deb, Thiele, Laumanns, Zitzler). Los autores se percataron de dos situaciones
la primera, que en la optimización multiobjetivo hacı́a falta bancos de prueba de más de
2 objetivos, la segunda, que hacı́a falta bancos de prueba escalables, tanto en objetivos
como en variables. DTLZ está enfocado en la dificultad de resolver diversas formas
de frentes de Pareto (lineales, convexas, no convexas, multimodales, degeneradas). Su
relevancia en este trabajo es la posibilidad de generar 7 problemas de optimización de
tres objetivos, con dificultad y frente de Pareto conocido. La implementación y frente
de Pareto de referencia utilizados en este trabajo son los proporcionados por la versión
5 de jMetal. La configuración de parámetros para los problemas DTLZ es la misma que
se encuentra en jMetal 5, la sugerida en el artı́culo original.

4.1.2. WFG
El banco de prueba WFG es otro de capacidades escalables tanto en variables como
en objetivos, toma su nombre por el grupo de investigación The Walking Fish Group
(WFG) dirigido por el Dr. Lyndon While de la University of Western Australia. Fue
diseñado para solventar algunas deficiencias en DTLZ, ningún problema en DTLZ es
deceptivo, y la posición de los parámetros de los problemas se fija respecto al número
de objetivos. Los autores hacen hincapié en que después de 3 objetivos los frentes
de DTLZ5 y DTLZ6 son desconocidos, debido a un comportamiento no esperado. La
importancia en este trabajo es que brinda con un total de 9 problemas de optimización
de tres objetivos, con dificultad y frente de Pareto conocidos. La implementación y
frente de Pareto de referencia utilizados en este trabajo son los proporcionados por la
versión 5 de jMetal. La configuración de parámetros para los problemas WFG es la que
se encuentra en jMetal 5, sugerida en el artı́culo original.

4.1.3. CEC2009
CEC2009 es un banco de pruebas de extrema dificultad, fue diseñado para la compe-
tencia de optimización multiobjetivo del Congress on Evolutionary Computing (CEC)
del 2009 en Noruega. Consta de un conjunto de 10 problemas sin restricciones, de los
cuales ocho son bi-objetivo y dos tri-objetivo. Como los bancos de prueba anteriormente
mencionados también tiene frente de Pareto conocido, y tanto su implementación como
sus frentes de referencia son tomados de jMetal 5. Es de gran interés para el proyecto
de investigación por que se le considera uno de los bancos de prueba más difı́ciles de
optimización multiobjetivo.

4.1.4. LZ09
La mayorı́a de los bancos de prueba de optimización multiobjetivo centran sus ca-
racterı́sticas en formas complicadas de frentes de Pareto (valores de funciones objetivo),
de manera secundaria se preocupan por la forma del conjunto de Pareto (valores de
variables). Con la introducción del algoritmo MOEA/D-DE en [Li and Zhang, 2009]
se propuso un banco de prueba con formas muy simples de Pareto, pero de conjuntos
de Pareto complicados. Este conjunto de prueba es de especial interés puesto que los
algoritmos de descomposición trabajan muy bien con frentes de Pareto simples, te-
niendo una ventaja notable en este banco de prueba contra otro tipo de métodos de
optimización.
48

4.1.5. GLT
Por último, se utilizó el banco de prueba GLT de muy reciente creación. GLT
muestra las deficiencias del enfoque de descomposición, puesto que tiene frentes de
Pareto muy complicados y no uniformes. También es un banco de prueba en que el
algoritmo SMEA [Zhang et al., 2016] obtiene un alto desempeño, algoritmo que utiliza
aprendizaje automático para descubrir la distribución de las soluciones sobre el frente
de Pareto. Dado que la lógica difusa es una técnica de soft computing es de relevancia
para el proyecto de tesis competir contra otras propuestas similares.

4.2. Métricas de evaluación


Al hablar sobre aproximaciones del frente de Pareto es necesario medir cuantitati-
vamente su calidad. Por ejemplo, si se tienen dos aproximaciones y ambos conjuntos
de soluciones pertenecen al frente de Pareto real surge la siguiente pregunta ¿cuál es
mejor?, y en caso de ser mejor bajo qué criterio. Se seleccionaron tres métricas de
evaluación ampliamente aceptadas por la comunidad cientı́fica. El hipervolumen, el
cual mide la región dominada por la aproximación encontrada. Épsilon aditivo, el cual
da la cantidad necesaria de traslación de la aproximación para dominar débilmente al
frente de medición. Finalmente, la dispersión generalizada, la cual mide la uniformi-
dad de las soluciones encontradas y su dispersión. Se utiliza generalmente más de una
métrica puesto que no existe una sola que evalúe todos los atributos deseados en una
aproximación. La siguiente tabla muestra las métricas utilizadas en la tesis.

Tabla 4.2: Métricas de evaluación utilizadas en el proyecto de tesis

Problema Autor
Hipervolumen [Fleischer, 2003]
Épsilon aditivo [Zitzler et al., 2003]
Dispersión generalizada [Zhou et al., 2006]

4.2.1. Hipervolumen
La métrica de evaluación conocida como hipervolumen es la única conocida como
Pareto-complaint [Zitzler et al., 2007a]. Es decir, siempre que una aproximación domine
completamente a otra su hipervolumen será mayor. Esta es una caracterı́stica altamente
deseable en una métrica de evaluación, sin embargo, no es perfecta. El hipervolumen
tiende a viciarse hacia regiones del frente de Pareto convexas. Sin duda a pesar de sus
deficiencias conocidas sigue siendo la métrica de evaluación más utilizada y aceptada
en optimización multiobjetivo.

4.2.2. Épsilon aditivo


Épsilon aditivo es un indicador basado en dominancia débil, es decir, que una solu-
ción ~x domina débilmente a otra ~x′ si fi (~x) ≤ fi (~x′ )∀i. En otras palabras, si la solución
~x no es dominada por la solución ~x′ . La métrica épsilon aditivo devuelve la cantidad
necesaria para trasladar las soluciones en el espacio objetivo de manera que no sean do-
minadas por el conjunto de referencia. Utilizando como referencia los frentes de Pareto
proporcionados en jMetal 5, se obtiene un buen indicador de convergencia.
49

4.2.3. Dispersión generalizada


La dispersión generalizada se basa en la distancia matemática de punto a conjunto.
Utilizando como medida la distancia Euclidiana, su formulación en [Zhou et al., 2006]
tiene dos partes esenciales. La primera la distancia de la aproximación a las soluciones
extremas del frente de referencia, es decir si la aproximación contiene las soluciones
extremas estarán a distancia 0. La segunda el promedio de las distancias entre los
puntos del conjunto aproximado y el de referencia. Recordando el concepto matemático
de momento central, el momento central de orden 1 es igual a 0, Ver Ecuación (7.1).
n
1X
µ1 = (xi − x) (4.1)
n
i=1

Por lo tanto, si la distancia promedio entre el frente aproximado y el real (distancia


punto conjunto) es igual a la distancia promedio en el frente real, el momento central
en la dispersión generalizada toma el valor de 0. Está formulación provee un indicador
de la diversidad de las soluciones para problemas con dos o más objetivos.

4.3. Tratamiento de datos


Los frentes de Pareto en los problemas de optimización muchas veces son de mag-
nitudes muy diferentes en sus objetivos, lo que dificulta las mediciones de las métricas
para su comparación. En este trabajo se optó por normalizar las funciones objetivo, uti-
lizando los valores máximos y mı́nimos en cada objetivo, encontrados en los frentes de
referencia. Los resultados finales presentan la mediana de las ejecuciones independientes
(como medida de la calidad esperada de los algoritmos), ası́ como su rango intercuartı́li-
co (como medida de estabilidad de los algoritmos) en el formato medianarango , con una
notación cientı́fica de 2 cifras decimales significativas.

4.4. Pruebas estadı́sticas


Cada experimento es validado mediante pruebas estadı́sticas no paramétricas, la
prueba de Friedman para analizar el rendimiento general de los algoritmos, y la suma de
rangos de Wilcoxon [Gregory and Foreman, 2009, Garcı́a et al., 2008] para encontrar
si existen diferencias o no entre cada par de algoritmos. Existen varias maneras de
realizar las pruebas estadı́sticas, por ejemplo, se puede trabajar directamente sobre
las medianas de los datos, los promedios de los datos, o directamente los datos. Para
evitar empates estadı́sticos y dar certeza a los resultados se decide emplear directamente
los datos obtenidos por las métricas de calidad multiobjetivo. Para todas las pruebas
estadı́sticas en este trabajo se considera que las diferencias son significativas con una
confiabilidad del 95 %, es decir con p-values menores a 0.05, en caso contrario no se
considera la diferencia estadı́sticamente significativa.

4.4.1. Friedman
La prueba no-paramétrica de Friedman da un resultado de diferencia significativa
si por lo menos un algoritmo es significativamente diferente a los demás. La parte más
interesante de esta prueba estadı́stica es que produce un ranking, el cual indica que
tratamiento (en nuestro caso algoritmo) es superior a otro. Si los ranking entre los
algoritmos son parecidos entonces su comportamiento es similar, en este trabajo de
50

tesis el ranking está ajustado para que el menor valor (cercano al ranking uno) sea el
mejor, independientemente de que la métrica sea de maximizar o minimizar.

4.4.2. Wilcoxon
La prueba no-paramétrica de suma de rangos de Wilcoxon, permite observar entre
pares si el desempeño de dos métodos de optimización es significativamente diferente
o no. La prueba estadı́stica queda plasmada en todas las columnas de resultados del
trabajo de tesis. Tres sı́mbolos son utilizados. Un N indica que el algoritmo propuesto
tiene diferencia significativa con el algoritmo en la columna, y su desempeño es superior
o con más estabilidad. Un ▽ significa que el algoritmo en la columna tiene diferencia
significativa con el algoritmo propuesto, y su desempeño o estabilidad es superior al al-
goritmo propuesto. Por último, el sı́mbolo − significa que no se ha encontrado diferencia
significativa entre el algoritmo de la columna y el propuesto. El algoritmo propuesto es
identificable en las tablas de resultados por ser el que no tiene sı́mbolos en su columna.

4.5. Conclusiones
Se desarrolló un esquema de trabajo a conciencia, el cual lleva de la mano las con-
tribuciones que se proponen. Primero se aborda el desarrollo de un nuevo estimador
de densidad validándolo en metaheurı́sticos poblacionales que hacen uso de archivo,
archivo que necesita un método de selección de soluciones, el cual se cambió por el
propuesto (SSD) y se compara su desempeño contra las propuestas originales. Después
se utiliza el SSD en conjunto con una nueva selección adaptativa de operadores de-
mostrando su sinergia en MEASO compitiendo contra algoritmos de alto desempeño
en el estado del arte. Por último, un nuevo algoritmo propuesto (FAME) demuestra
una notable mejora en diversidad y convergencia gracias a su estructura poblacional.
Todo el trabajo de tesis ha sido validado bajo la rigurosidad de pruebas estadı́sticas
no-paramétricas. Este capı́tulo de la tesis muestra una selección adecuada de bancos
de problemas, cumpliendo con el cuarto objetivo especı́fico de la tesis.

Aplicar los nuevos métodos a la solución de problemas benchmark.

Contribuyendo a la validación de los métodos propuestos para cumplir el objetivo


general. El diseño e implementación de nuevos métodos de optimización multiobjetivo,
competitivos con los disponibles en el estado del arte.
51

Capı́tulo 5

Estimador de densidad propuesto

5.1. Introducción
Muchos de los algoritmos de optimización multiobjetivo más populares son poco
eficaces al tratar con problemas de tres o más objetivos. Esto se debe en general al uso
de estimadores de densidad, como la distancia de crowding de NSGA-II, que fueron
diseñados cuando el principal reto era optimizar problemas de dos objetivos. En este
capı́tulo presentamos un nuevo estimador de densidad que permite mejorar notablemen-
te la diversidad de soluciones de los frentes al resolver problemas con tres objetivos.
Los resultados muestran que los frentes obtenidos con nuestra propuesta mejoran de
forma significativa a los que generan los algoritmos originales.

5.2. Desviación espacial propagada: SSD


El estimador de densidad propuesto se basa en la definición matemática de momento
(µn ), que es una medida cuantitativa especı́fica de la forma de un conjunto de puntos.
Los momentos se usan a menudo en la mecánica, fı́sica y estadı́stica. La ecuación (5.1)
presenta la definición de momento para variables discretas. Recordando una variable es
discreta si sus valores posibles son enumerables o infinitos contables.

X
µn = (xi − c)n p(xi ) (5.1)
i=1

En el caso discreto, xi son todos los posibles valores que la variable aleatoria puede
tener, p(xi ) es la probabilidad de xi , n es el orden del momento, y c es el punto de
referencia respecto al que se determina el momento. Existen diferentes definiciones de
momento, como el momento crudo o el momento central. El momento crudo, también
conocido como el momento absoluto, o el momento de una función, es el momento con
respecto al origen, cuando c = 0. El momento más popular es el momento central,
utilizado en estadı́stica como una medida de tendencia central. El momento central
sustituye el valor de c con el valor esperado o la media aritmética x. Cuando el orden
del momento es uno, el momento central es 0. Para una variable aleatoria uniforme,
cuando el orden es 2, es fácil argumentar que el momento central para n puntos es la
varianza:
n
1X
µ2 = (xi − x)2 (5.2)
n
i=1

La Ecuación (5.2) se usa ampliamente para calcular la varianza independientemente


52

de las funciones de densidad de probabilidad. En el caso de la media muestral y los


momentos centrales muestrales, los datos consisten en una muestra de tamaño n sin
conocimiento de la función de densidad de probabilidad. Los momentos muestrales son
estimadores de los momentos. De acuerdo con la ley de números grandes, para un gran
número de observaciones, la media de la muestra probablemente sea cercana al valor
esperado (un momento en el origen de orden 1). Haciendo uso de los conceptos presen-
tados se desarrolla el estimador de densidad propuesto SSD (Spatial Spread Deviation)
por sus siglas en inglés, usando el momento absoluto o momento sobre un punto. Los
puntos de datos utilizados son distancias Euclidianas normalizadas de las soluciones en
el espacio de objetivos. Elegimos la diferencia entre la distancia máxima y mı́nima en
los puntos establecidos como nuestro punto de referencia c. La idea principal detrás de
esto es que las soluciones en el espacio de objetivos deben estar a la misma distancia
entre sı́, de modo que cuando minimizamos el momento de orden 2, las distancias entre
los puntos se vuelven equidistantes (con la restricción de la forma del frente de Pareto).
n
1 X
µ2 = (Di,j − (Dmax − Dmin ))2 . (5.3)
n−1
j=1,j6=i

En SSD, se aplica µ2 para cada solución i utilizando Ecuación (5.3). Se observa


que la ecuación resultante es muy similar a la utilizada en el método de escalamiento
multidimensional Stress Majorization, sin los pesos [Gansner et al., 2005]. Minimizar
µ2 puede conducir a aproximaciones del frente de Pareto con varias soluciones iguales o
casi iguales, descartando soluciones en otras regiones del frente de Pareto, que no están
cubiertas. El ejemplo en la Figura 5.1a, muestra la aproximación del frente de Pareto
encontrada por una versión de NSGAII [Nebro and Durillo, 2009] en estado estaciona-
rio, en la que su estimador de densidad de CD (crowding distance) fue reemplazado por
µ2 . Para resolver este problema, SSD incluye una función de penalización para evitar
soluciones con valores de aptitud similares. El valor SSD de la solución i se define como:

n
1 X
SSDi = (Di,j − (Dmax − Dmin ))2 +
n−1
j=1j6=i
k+1
X
((Dmax − Dmin )/Di,j ) , (5.4)
j=2

Donde k define a los vecinos a considerar en la función de penalización, y su valor se


establece según el número de objetivos del problema. La diversidad de soluciones en la
aproximación frontal de Pareto mejora mucho con la función de penalización definida
en SSD con respecto al uso de µ2 . La diferencia se puede apreciar visualmente en el
ejemplo que se muestra en la Figura 5.1.
El procedimiento para calcular SSD, para un conjunto de soluciones no dominadas
A, se describe a detalle en el Algoritmo 2. A cada solución se le asigna un valor de
aptitud, que mide su contribución a la diversidad de soluciones en A. Inicialmente,
este valor de aptitud se establece en 0 (lı́neas 3-5) para cada solución, pero aquellas
que tienen los valores mı́nimo y máximo en cada objetivo, su aptitud se establece
en −∞ (lı́neas 6-10). Representando los extremos del frente de Pareto, los cuales se
tiene interés por mantener. Después de la inicialización, el procedimiento calcula las
distancias euclidianas normalizadas entre todas las soluciones en el espacio objetivo.
Estas distancias se almacenan en una matriz M (de tamaño n2 , donde n = |A|). Las
53

Algorithm 2 Cálculo de la desviación espacial propagada


Entrada
A : Conjunto de soluciones no dominadas
1: function Computar SDD(A)
2: n ← |A|
3: for i ∈ A do
4: A[i].SSD ← 0
5: end for
6: for m = 1 to k do
7: Sort(A, m)
8: A[1].SSD ← −∞
9: A[n].SSD ← −∞
10: end for
11: Calcula la matriz de distancias normalizadas M
12: Encuentra Dmax y Dmin entre las soluciones i y j, i 6= j
13: for i ∈ A do
14: temp ← 0
15: for ∀j 6= i ∈ A do
16: temp = temp + (M [i][j] − (Dmax − Dmin ))2
17: end for
18: temp = temp
n−1 √
19: A[i].SSD = A[i].SSD + temp
20: end for
21: for i ∈ A do
22: Sort(M [i])
23: temp ← 0
24: for j = k + 1 to 2 do
25: temp+ = (Dmax − Dmin )/(M [i][j])
26: end for
27: A[i].SSD = A[i].SSD + temp
28: end for
29: end function
54

1 1
SSNSGAII-µ 2 SSNSGAII-SSD

0.8 0.8

0.6 0.6
F2

F2
0.4 0.4

0.2 0.2

0 0
0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 0.8 1
F1 F1
(a) NSGAII steady state con µ2 . (b) NSGAII steady state con SSD.

Figura 5.1: Aproximaciones de frente de Pareto encontradas por NSGAII de estado esta-
ble implementando µ2 o SSD como estimador de densidad. Los resultados corresponden
a una ejecución representativa para el problema ZDT1, después de 25, 000 evaluaciones.

distancias máxima y mı́nima entre cada par de soluciones se almacenan en las variables
Dmax y Dmin , respectivamente (lı́nea 12). La matriz M y las variables Dmax y Dmin
se usan luego para actualizar la aptitud de cada solución (lı́neas 13-20) como se indica
en la Ecuación. (5.3). Las soluciones con valores de aptitud similares se penalizan en
las lı́neas 21-28 (como se define en Ecuación 5.4). La complejidad del método SSD
está determinada por el ciclo en las lı́neas 21-29. En cada iteración del ciclo, una fila
de la matriz M se ordena. Además, se realiza un ciclo que itera en las k soluciones más
cercanas en cada iteración para calcular la penalización (k ≤ n). La complejidad de la
ordenación (O(nlogn)) es mayor que la complejidad de este último ciclo (O(k)). Por lo
tanto, la complejidad de todo el procedimiento es O(n2 logn).

5.3. Algoritmos en comparación


Se evaluó el estimador de densidad propuesto en dos variantes de algoritmos basados
en archivo, SMPSO y MOCell. Se comparan los resultados obtenidos de las versiones
originales contra sus versiones utilizando archivos SSD (SMPSO-SSD, MOCell-SSD).

5.4. Parámetros experimento SSD


El experimento para validar SSD cuenta con un total de 16 problemas tri-objetivo,
conformados por los bancos de prueba DTLZ, y WFG. Los algoritmos se ejecutaron
100 veces de manera independiente, con un criterio de paro de 50,000 evaluaciones
de la función objetivo. La Tabla 5.2 muestra la configuración de parámetros para las
versiones con distancia crowding y SSD implementadas.
55

Tabla 5.1: Mediana y rango intercuartı́lico de los 4 algoritmos en 100 ejecuciones inde-
pendientes en los problemas tri-objetivo DTLZ y WFG en términos de IHV , Iǫ+ y IGS .
Las celdas con fondo gris oscuro/claro indican los primeros/segundos mejores valores
respectivamente.
IHV
Problema MOCell MOCell-SSD SMPSO SMPSO-SSD
3DDTLZ1 7.61E − 12.2E−2 N 7.84E − 14.3E−3 7.39E − 19.0E−3 N 7.72E − 13.5E−3
3DDTLZ2 3.79E − 16.2E−3 N 4.07E − 13.1E−3 3.56E − 19.4E−3 N 3.88E − 15.0E−3
3DDTLZ3 0.00E00.0E0 − 0.00E00.0E0 3.56E − 11.3E−2 N 3.87E − 18.2E−3
3DDTLZ4 3.77E − 17.5E−3 N 4.02E − 13.1E−3 3.63E − 17.8E−3 N 3.85E − 14.4E−3
3DDTLZ5 9.39E − 25.9E−5 ▽ 9.29E − 22.5E−4 9.39E − 27.1E−5 ▽ 9.28E − 22.9E−4
3DDTLZ6 0.00E00.0E0 − 0.00E00.0E0 9.49E − 23.5E−5 ▽ 9.37E − 22.7E−4
3DDTLZ7 2.82E − 15.7E−3 N 2.96E − 13.2E−3 2.77E − 17.6E−3 N 2.99E − 12.4E−3
3DWFG1 8.92E − 17.4E−3 N 8.95E − 19.0E−3 1.17E − 12.2E−2 ▽ 9.03E − 22.4E−2
3DWFG2 8.98E − 15.4E−3 N 9.16E − 11.2E−3 8.85E − 15.1E−3 N 9.10E − 12.0E−3
3DWFG3 3.16E − 13.0E−3 ▽ 2.99E − 14.0E−3 3.01E − 15.4E−3 ▽ 2.74E − 18.1E−3
3DWFG4 3.78E − 15.9E−3 N 4.08E − 12.5E−3 3.27E − 18.4E−3 N 3.59E − 15.0E−3
3DWFG5 3.51E − 17.7E−3 N 3.78E − 11.5E−3 3.40E − 17.7E−3 N 3.67E − 13.6E−3
3DWFG6 3.80E − 19.8E−3 N 4.05E − 11.9E−2 3.49E − 11.0E−2 N 3.89E − 15.1E−3
3DWFG7 3.72E − 16.2E−3 N 4.02E − 12.5E−3 3.43E − 11.0E−2 N 3.81E − 15.6E−3
3DWFG8 3.72E − 16.2E−3 N 4.02E − 12.5E−3 3.43E − 11.0E−2 N 3.81E − 15.6E−3
3DWFG9 3.72E − 16.2E−3 N 4.02E − 12.5E−3 3.43E − 11.0E−2 N 3.81E − 15.6E−3
IGS
3DDTLZ1 4.84E − 16.6E−2 N 3.12E − 11.3E−2 3.74E − 13.7E−2 N 2.86E − 19.4E−3
3DDTLZ2 4.15E − 12.0E−2 N 3.12E − 14.5E−3 3.75E − 12.4E−2 N 2.93E − 18.3E−3
3DDTLZ3 8.60E − 23.0E−1 − 9.58E − 22.9E−1 3.75E − 12.8E−2 N 2.91E − 11.2E−2
3DDTLZ4 5.26E − 14.7E−2 − 5.15E − 13.5E−2 4.93E − 14.5E−2 N 4.71E − 14.0E−2
3DDTLZ5 5.08E − 11.4E−2 N 4.74E − 12.2E−2 5.05E − 11.7E−2 N 4.69E − 11.6E−2
3DDTLZ6 1.22E − 12.4E−2 N 1.13E − 12.0E−2 5.29E − 14.6E−2 N 5.15E − 14.1E−2
3DDTLZ7 4.36E − 15.1E−2 N 3.26E − 11.2E−2 5.06E − 14.9E−2 N 3.30E − 11.0E−2
3DWFG1 8.10E − 12.4E−2 ▽ 8.50E − 12.5E−2 1.63E − 16.8E−3 ▽ 1.66E − 15.7E−3
3DWFG2 5.44E − 17.7E−2 N 3.93E − 13.5E−2 4.44E − 18.7E−2 N 3.73E − 13.9E−2
3DWFG3 8.21E − 18.1E−2 N 4.56E − 14.2E−2 7.12E − 18.3E−2 N 3.36E − 14.8E−2
3DWFG4 3.91E − 12.7E−2 N 3.18E − 11.3E−2 3.53E − 12.9E−2 N 2.89E − 12.0E−2
3DWFG5 3.38E − 12.0E−2 N 2.49E − 13.9E−3 3.24E − 12.4E−2 N 2.57E − 17.8E−3
3DWFG6 3.95E − 12.7E−2 N 3.11E − 11.0E−2 3.41E − 12.8E−2 N 2.94E − 17.3E−3
3DWFG7 4.11E − 12.1E−2 N 3.35E − 16.1E−3 3.60E − 11.9E−2 N 3.15E − 19.0E−3
3DWFG8 4.11E − 12.1E−2 N 3.35E − 16.1E−3 3.60E − 11.9E−2 N 3.15E − 19.0E−3
3DWFG9 4.11E − 12.1E−2 N 3.35E − 16.1E−3 3.60E − 11.9E−2 N 3.15E − 19.0E−3
Iǫ+
3DDTLZ1 1.13E − 14.3E−2 N 6.72E − 27.0E−3 1.14E − 11.2E−2 N 7.87E − 25.4E−3
3DDTLZ2 1.24E − 12.4E−2 N 7.52E − 27.8E−3 1.32E − 12.1E−2 N 8.91E − 29.2E−3
3DDTLZ3 1.26E01.6E0 ▽ 1.40E01.5E0 1.38E − 12.4E−2 N 9.12E − 21.5E−2
3DDTLZ4 1.13E − 13.5E−2 N 6.73E − 27.3E−3 1.13E − 11.9E−2 N 8.19E − 29.1E−3
3DDTLZ5 5.93E − 31.4E−3 ▽ 1.15E − 21.8E−3 5.43E − 33.8E−4 ▽ 1.10E − 22.3E−3
3DDTLZ6 7.32E − 11.3E−1 − 6.89E − 11.3E−1 5.19E − 33.2E−4 ▽ 1.17E − 22.5E−3
3DDTLZ7 1.00E − 13.4E−2 N 6.12E − 27.9E−3 1.33E − 13.6E−2 N 5.71E − 25.3E−3
3DWFG1 1.61E − 11.0E−2 − 1.60E − 17.3E−3 7.30E − 19.6E−3 ▽ 7.47E − 13.0E−2
3DWFG2 1.05E − 11.5E−2 N 5.80E − 21.1E−2 1.03E − 11.5E−2 N 6.27E − 28.9E−3
3DWFG3 6.81E − 22.6E−2 N 5.52E − 21.1E−2 1.12E − 12.7E−2 N 7.45E − 21.4E−2
3DWFG4 1.19E − 12.6E−2 N 7.62E − 25.6E−3 1.37E − 12.0E−2 N 9.67E − 27.7E−3
3DWFG5 1.30E − 12.0E−2 N 8.58E − 25.5E−3 1.33E − 12.3E−2 N 1.03E − 12.4E−4
3DWFG6 1.21E − 11.9E−2 N 8.15E − 29.8E−3 1.31E − 12.6E−2 N 8.78E − 27.2E−3
3DWFG7 1.18E − 12.1E−2 N 8.07E − 26.4E−3 1.29E − 12.3E−2 N 8.94E − 27.0E−3
3DWFG8 1.18E − 12.1E−2 N 8.07E − 26.4E−3 1.29E − 12.3E−2 N 8.94E − 27.0E−3
3DWFG9 1.18E − 12.1E−2 N 8.07E − 26.4E−3 1.29E − 12.3E−2 N 8.94E − 27.0E−3

5.5. Resultados
La Tabla 5.1 muestra los resultados de la experimentación realizada, se comienza
discerniendo los resultados según el IHV . Prestando atención a MOCell, la versión
con SSD ha mejorado a la original en 12 de los 17 problemas abordados. Los valores
obtenidos en los problemas DTLZ3 y DTLZ6 indican que MOCell ha sido incapaz de
56

Tabla 5.2: Configuración de parámetros en experimento SSD

MOCELL MOCELL-SSD SMPSO SMPSO-SSD


Población inicial Aleatoria
Tamaño población 100
Tamaño archivo CD (100) SSD (100) CD (100) SSD (100)
1.0
Mutación Mutación polinomial (pm = |variables| , ηm = 20.0)

encontrar soluciones que dominen al punto de referencia usado para calcular el IHV .
Podemos observar que todas las diferencias son significativas de acuerdo con el test
de Wilcoxon. En el caso de SMPSO, la versión SSD consigue mejorar a la original
también en 12 problemas, siendo también significativas todas las diferencias. Hay que
señalar que los frentes de los problemas DTLZ5 y DLTZ6 son degenerados, lo que
implica que son bi-objetivo, por lo que en ellos la versión original de SMPSO consigue
mejores resultados. Si prestamos atención a los valores obtenidos por los indicadores
especı́ficos de convergencia y diversidad los resultados de las versiones que utilizan SSD
son aún superiores a los mostrados para el hipervolumen. El algoritmo MOCell-SSD
mejora a su versión original en 14 problemas tanto para la métrica epsilon aditivo Iǫ+ ,
como para la dispersión generalizada IGS . En el caso de SMPSO, la variante que utiliza
SSD mejora también a la original en la mayorı́a de los problemas para ambas métricas.
Como se puede observar en la tabla, la gran mayorı́a de las diferencias son significativas.
Las Figuras 5.2b y 5.2a muestran un comparativo gráfico representativo, el resultado
obtenido en el problema WFG2 con MOCell.

Frente de Pareto Frente de Pareto


MOCell MOCell-SSD

6 6

5 5

4 4

3 3

2 2

1 1

00 00

0.5 0.5

1 1

1.5 3.5 4 1.5 3.5 4


2.5 3 2.5 3
1.5 2 1.5 2
0.5 1 0.5 1
2 0 2 0

(a) MOCell. (b) MOCell-SSD.

Figura 5.2: Frentes con mejor valor de IHV encontrados por MOCell (izquierda) y
MOCell-SSD (derecha) para el problema WFG2 tri-objetivo
57

5.6. Conclusiones
Una nueva opción para la selección ambiental en algoritmos evolutivos, conocida
también como estimación de densidad de soluciones, en optimización multiobjetivo
se ha propuesto en este capı́tulo. Es el primero con complejidad polinomial capaz de
resolver problemas de optimización con tres objetivos, lo que hace que justifica su uso
de métodos de optimización metaheurı́sticos multiobjetivo. Este capı́tulo de la tesis
logra cumplir con el primer objetivo especı́fico de la tesis.

Diseñar e implementar una nueva estrategia para preservar la diversidad de solu-


ciones encontradas en un conjunto de soluciones no dominadas.

Contribuyendo directamente al objetivo general. El diseño e implementación de


nuevos métodos de optimización multiobjetivo, competitivos con los disponibles en el
estado del arte.
58

Capı́tulo 6

Selección adaptativa de
operadores evolutivos propuesta

6.1. Introducción
Este capı́tulo presenta un método novedoso que permite que un AE multiobjeti-
vo aplique diferentes operadores de recombinación o mutación en diferentes etapas del
proceso de búsqueda. En particular, el uso de diferentes operadores se ajusta dinámi-
camente de acuerdo con su contribución a la búsqueda en el pasado. Intuitivamente, la
idea es favorecer la aplicación de operadores que producen soluciones de mayor calidad
sobre los demás.

6.2. Selección difusa de operadores evolutivos


El método propuesto utiliza un sistema de inferencia difusa (Fuzzy Inference Sys-
tem) FIS por sus siglas en inglés, de tipo Mamdani [Roy and Chakraborty, 2013] para
decidir sobre la probabilidad de aplicar los diferentes operadores de variación conside-
rados. Un ejemplo de un Mandami FIS se muestra en la Figura 6.1. En él, la agregación
de los consecuentes de las reglas se combina en un único conjunto difuso (salida), para
ser defusificado (mapeado a un valor real). Un método de defusificación ampliamente
utilizado, también adoptado en este trabajo, es el cálculo del centroide, que devuelve
el centro del área bajo la curva.
Se utilizaron funciones de membresı́a con forma triangular en todas las entradas y
salidas, Ver Ecuación (6.1). Estas funciones se definen según tres parámetros escalares a,
b y c. Los parámetros a y c ubican las esquinas del triángulo, mientras que el parámetro
b ubica el pico. Una función de membresı́a µA asigna valores reales de x con un grado
de membresı́a 0 ≤ µA (x) ≤ 1. Los niveles de granularidad utilizados fueron: bajo
(a = −0.4, b = 0.0, c = 0.4), medio (a = 0.1, b = 0.5, c = 0.9) y alto (a = 0.6, b =
1.0, c = 1.4).



 0, x ≤ a
 x−a a ≤ x ≤ b

b−a
µA (x) = c−x (6.1)


 c−b b ≤ x ≤ c

0, c ≤ x

El conjunto de operadores de variación disponibles en el AE será referido como


Operators. El FIS supervisa el proceso de búsqueda utilizando ventanas de tiempo. El
59

Rule 1
If And Then

Rule 2
If Or Then

input x input y

R
z= Rµ(z)·zdz z
µ(z)dz
output

Figura 6.1: Sistema de inferencia difusa Mamdani

Tabla 6.1: Reglas del sistema de inferencia difusa

AND Antecedentes Consecuente


Stagnation U tilization[Op] P robability
Alto Alto Medio
Alto Medio Bajo
Alto Bajo Medio
Medio Alto Medio
Medio Medio Bajo
Medio Bajo Medio
Bajo Alto Alto
Bajo Medio Medio
Bajo Bajo Bajo

tamaño de esta ventana de tiempo (windowsSize), es configurable y permite controlar


la frecuencia con la que se actualiza la probabilidad de usar los diferentes operadores.
En este trabajo de tesis, se utiliza un valor de windowSize = 14 iteraciones, equiva-
lente a 14 evaluaciones de la función objetivo. Este valor se ha determinado en base a
experimentación preliminar, y puede requerir ser ajustado dependiendo la cantidad de
operadores disponibles.
Para cada operador considerado, Op ∈ Operators, el FIS decide su deseabili-
dad/probabilidad de aplicación P robability según dos variables, el monitoreo del estan-
camiento Stagnation y su utilización en la anterior ventana de tiempo U tilization[Op].
El valor de Stagnation se comparte entre todos los operadores, sirve como una medida
1.0
de la evolución de la búsqueda. Especı́ficamente, su valor se incrementa en windowSize
cada vez que una nueva solución generada no es insertada en el archivo. El valor de
1.0
U tilization[Op] se incrementa en windowSize después de usar el operador Op.
La Tabla 6.1 describe el conjunto de reglas AND diseñado para que el FIS calcule
la deseabilidad de aplicar cada operador. Dicho conjunto de reglas fue diseñado en
base a la experiencia previa, obtenida en el campo de la optimización multiobjetivo.
60

La idea detrás de este conjunto particular de reglas es favorecer cambios suaves en las
probabilidades de aplicar los operadores en detrimento de los bruscos. Estos cambios se
calculan de acuerdo con la utilidad de los operadores (es decir, el número de veces que
contribuyeron con una nueva solución en el archivo de soluciones no dominadas) en las
últimas operaciones realizadas. La superficie tridimensional de las reglas se muestra en
la Figura 6.2.

0.8

0.7
Operator probability of use

0.6

0.5

0.4

0.3

0.2

0
0.2 1
0.4 0.8
0.6
0.6
0.4
0.8 0.2
1 0
Operator use
Stagnation

Figura 6.2: Superficie creada por las reglas difusas

Una vez que el FIS asigna una probabilidad a cada operador (en el rango de [0, 1]),
se utiliza un mecanismo de ruleta para seleccionar el siguiente operador a aplicar.
Como primer paso agrega todos los valores de P robability en una variable Sum, luego
itera seleccionando aleatoriamente un operador y restando su probabilidad de Sum,
siguiendo con la resta de la siguiente probabilidad de operador, hasta que Sum ≤ 0.
Cuando el ciclo se detiene, se selecciona para aplicar el último operador, donde la
iteración se detuvo.

6.2.1. Conjunto de operadores de variación


La lista de operadores está compuesta por dos operadores de recombinación y dos
operadores de mutación. La idea detrás de considerar el mismo número de operadores
de recombinación y mutación es tratar de encontrar un equilibrio entre la explotación
y la exploración. El siguiente conjunto de operadores de variación es usado:

Evolución diferencial (Differential evolution) DE


Cruza binaria simulada (Simulated Binary Crossover) SBX
Mutación polinomial (Polynomial mutation) PM
Mutación uniforme (Uniform mutation) UM
61

Esta elección de operadores es para cubrir los movimientos lineales y no lineales.


Por un lado, se sabe que DE realiza movimientos lineales, guiados por algunas opera-
ciones básicas sobre vectores que representan las soluciones. Sin embargo, la linealidad
se rompe cuando el parámetro CR < 1.0. Por otro lado, SBX usa una distribución poli-
nomial para combinar diferentes genes, con un ı́ndice de distribución ηc (generalmente
ηc > 1.0), produciendo movimientos no lineales.
La misma idea de promover movimientos lineales y no lineales se usa a nivel de
variables con los operadores de mutación considerados. La implementación de UM en
este trabajo agrega un valor aleatorio entre [-0.05, 0.05] a la variable original: un mo-
vimiento lineal en el nivel variable. Mientras que PM usa un ı́ndice de distribución
ηc > 1.0, produciendo un movimiento no lineal en el nivel variable.
Se ha demostrado que estos operadores son altamente eficientes para problemas
de optimización multiobjetivo. SBX y PM se utilizan en NSGA-II, SPEA2 y muchos
otros algoritmos genéticos (e incluso en diferentes técnicas, como la búsqueda dispersa
[Nebro et al., 2008]). La mutación uniforme se ha aplicado eficazmente en OMOPSO
[Reyes and Coello Coello, 2005], en combinación con PM. Finalmente, DE es actual-
mente una de las técnicas más efectivas para resolver problemas continuos de optimiza-
ción, tanto en dominios mono-objetivo [Storn and Price, 1995, Price et al., 2005] como
multiobjetivo por ejemplo: MOEA/D-DE [Li and Zhang, 2009] de descomposición y
SMEA [Zhang et al., 2016] de aprendizaje automático. En este trabajo se emplea el
esquema DE1, ampliamente utilizado en la literatura:


vi [j] if rand(0, 1) ≤ CR or j = jrand
ui [j] =
xi [j] En otro caso
vi = xr0 + F · (xr1 − xr2 ) , (6.2)

Donde ui es la descendencia, xi es el individuo actual, y xr0 , xr1 y xr2 son padres


seleccionados aleatoriamente. Tanto F como CR son parámetros de DE, y jrand es una
variable del problema seleccionada aleatoriamente.

6.3. Algoritmo propuesto: MEASO


Esta sección propone un innovador metaheurı́stico (Multi-objective Evolutionary
Algorithm with Adaptative Selection of Operators) MEASO. El cual es un algoritmo
evolutivo de estado estable que implementa cuatro operadores de variación diferen-
tes: SBX, evolución diferencial, mutación polinomial y mutación uniforme. En cada
iteración, el algoritmo elige el operador a aplicar de acuerdo con su éxito en las últi-
mas generaciones, la elección se basa en un motor de lógica difusa con funciones de
membresı́a de forma triangular. Por éxito entiéndase que la solución generada es una
sobreviviente de la selección ambiental. El motor difuso utiliza dos entradas de informa-
ción: la frecuencia de uso del operador en la última ventana de tiempo y la cantidad de
descendencia no exitosa generada (como medida de estancamiento). Produciendo como
salida la probabilidad de uso para cada operador. La Figura 6.3 muestra el esquema de
MEASO.
Una caracterı́stica distintiva de MEASO es que funciona sobre un archivo de solu-
ciones no dominadas, y no en una población. Esto significa que el tamaño del conjunto
de soluciones que desarrolla es variable (limitado a un máximo de 100), y cuando se
inserta una nueva solución en el archivo, las soluciones dominadas o menos aptas se
eliminan de él. La selección de soluciones se realiza mediante un torneo, utilizando un
62

Selección Comparador SSD

Archivo con Motor Difuso


soluciones no-dominadas Selecciona Operador
Genético a aplicar

¿Almacenar?

Figura 6.3: MEASO

comparador SSD de manera análoga al comparador crowding de NSGA-II. Trabajar


directamente sobre el archivo de soluciones permite una rápida convergencia de la apro-
ximación al frente de Pareto, mientras que la pérdida de diversidad se supera gracias a
la selección adaptativa de operadores de variación.

6.4. Algoritmos en comparación


La principal ventaja del diseño de MEASO es la convergencia, para demostrar su
capacidad comparamos con dos algoritmos del estado del arte, con alto desempeño
en convergencia. MOEA/D-DE basado en descomposición [Li and Zhang, 2009], evi-
tando estancamiento por soluciones no dominadas y SMS-EMOA de búsqueda guiada
mediante contribuciones al hipervolumen [Beume et al., 2007a].

6.5. Parámetros experimento MEASO


El experimento para validar MEASO cuenta con un total de 16 problemas, con-
formados por los bancos de prueba CEC2009 y GLT. De los cuales tres de CEC2009
son tri-objetivo (UF8, UF9 y UF10) y dos de GLT (GLT5 y GLT6), los 11 restantes
son bi-objetivo. Los algoritmos se ejecutaron 30 veces de manera independiente, con un
criterio de paro de 200,000 y 45,000 evaluaciones de la función objetivo para CEC2009
y GLT respectivamente. MEASO fue configurado haciendo un análisis manual de con-
figuración experimental.

6.6. Resultados
En esta sección se presentan los resultados obtenidos por el algoritmo propuesto y
se comparan, los algoritmos en el experimento usan sus configuraciones estándar. Los
mejores resultados que se muestran en la Tabla 6.3 se enfatizan con el fondo gris oscuro,
mientras que el fondo gris claro se utiliza para los mejores resultados secundarios.
63

Tabla 6.2: Configuración de parámetros en experimento MEASO


MOEA/D-DE SMS-EMOA MEASO
Población inicial Aleatoria
Tamaño población 101 (105 for 3D) 100 100
Tamaño archivo No Si (100) Si (100)
Tamaño selección Aleatoria (3)
Recombinación pr = 1.0 pr = 0.9 pr = 1.0
DE: SBX: SBX:
CR = 1.0, F=0.5 ηc = 20.0 ηc = 20.0
DE:
CR = 1.0, F=0.5
1.0
Mutación Mutación polinomial (pm = |variables| , ηm = 20.0) Mutación polinomial (pm = 0.30, ηm = 20.0)
Mutación uniforme (pm = 0.30)
Otros Tamaño de vecindario 20 Offset: 10 Tamaño ventana 14

Para este estudio de comparación, no se utilizó ningún banco de prueba en el que los
algoritmos comparados se conozcan como superiores.

10 10
Pareto Front Pareto Front
MEASO MOEA/D-DE
8 8

6 6
F2

F2

4 4

2 2

0 0
0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 0.8 1
F1 F1

2 2
Pareto Front Pareto Front
MEASO MOEA/D-DE

1.5 1.5
F2

F2

1 1

0.5 0.5

0 0
0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 0.8 1
F1 F1

Figura 6.4: Frentes con los mejores valores de IHV en los problemas GLT2 y GLT4
obtenidos por MEASO (izquierda) y MOEA/D-DE (derecha).

Para analizar a detalle los resultados de los dos mejores algoritmos comparados,
mostramos en la Figura 6.4 las aproximaciones de Pareto con el mejor valor IHV en-
contrado (de 30 ejecuciones independientes) para dos problemas de muestra, GLT2 y
GLT4. El frente verdadero de Pareto también se representa con fines de comparación.
Se puede ver claramente como el algoritmo propuesto MEASO encuentra aproximacio-
nes precisas con una mejor distribución de las soluciones, sin ningún hueco importante,
confirmando los resultados de las métricas de desempeño utilizadas. Por el contrario,
las aproximaciones de MOEA/D-DE están más concurridas con soluciones en la parte
derecha del frente, con grandes huecos que no cubren el verdadero frente de Pareto en el
64

Tabla 6.3: Mediana y rango intercuartı́lico de los 3 algoritmos en 30 ejecuciones in-


dependientes en los problemas de GLT y CEC09 en términos de IHV , Iǫ+ y IGS . Las
celdas con fondo gris oscuro/claro indican los primeros/segundos mejores valores res-
pectivamente.
IHV
Problema MOEA/D-DE SMS-EMOA MEASO
GLT1 3.72E − 11.4E−4 ▽ 3.54E − 26.5E−2 N 3.71E − 18.4E−4
GLT2 7.54E − 15.2E−3 N 6.56E − 11.4E−1 ▽ 7.79E − 12.6E−4
GLT3 9.44E − 11.3E−3 − 9.26E − 18.9E−3 N 9.45E − 13.8E−3
GLT4 4.94E − 13.1E−4 − 3.49E − 13.0E−1 N 4.82E − 12.4E−1
GLT5 9.40E − 11.0E−3 N 9.63E − 11.1E−2 − 9.63E − 16.9E−4
GLT6 9.39E − 11.4E−3 N 9.57E − 14.5E−3 − 9.58E − 15.4E−3
UF1 6.56E − 18.5E−4 ▽ 5.44E − 16.8E−3 N 6.55E − 19.5E−4
UF2 6.48E − 15.2E−3 N 6.33E − 17.5E−3 N 6.52E − 12.3E−3
UF3 6.38E − 13.5E−2 ▽ 3.79E − 15.9E−2 N 5.77E − 15.0E−2
UF4 2.28E − 11.4E−2 N 2.76E − 19.2E−4 ▽ 2.67E − 13.4E−3
UF5 4.72E − 22.1E−1 − 1.81E − 17.7E−2 − 1.85E − 11.1E−1
UF6 2.20E − 11.9E−1 − 2.43E − 18.2E−2 − 2.30E − 12.0E−1
UF7 4.86E − 15.7E−3 N 3.94E − 11.7E−1 N 4.89E − 12.2E−3
UF8 2.69E − 18.3E−3 ▽ 2.17E − 11.0E−1 ▽ 1.89E − 15.4E−2
UF9 5.19E − 11.1E−2 ▽ 5.56E − 11.0E−1 ▽ 2.43E − 17.9E−2
UF10 7.00E − 22.6E−2 ▽ 7.53E − 21.6E−1 ▽ 1.49E − 22.1E−2
IGS
GLT1 4.75E − 19.4E−3 N 5.80E − 11.4E−1 N 4.17E − 11.3E−2
GLT2 1.00E01.5E−1 N 7.65E − 11.9E−1 N 4.52E − 11.1E−2
GLT3 9.46E − 11.4E−1 ▽ 1.11E01.2E−2 ▽ 1.34E08.1E−2
GLT4 7.21E − 11.4E−2 − 6.60E − 13.4E−1 − 9.24E − 16.1E−1
GLT5 7.40E − 17.8E−3 N 6.34E − 12.1E−1 N 3.20E − 11.1E−2
GLT6 7.32E − 18.4E−3 N 5.21E − 11.8E−1 N 3.81E − 13.2E−2
UF1 4.16E − 13.7E−2 N 6.22E − 14.3E−2 N 3.14E − 12.6E−2
UF2 8.66E − 11.3E−1 N 1.11E05.4E−2 N 6.02E − 11.3E−1
UF3 4.24E − 11.3E−1 − 5.99E − 11.2E−1 N 4.38E − 11.4E−1
UF4 1.39E − 13.8E−2 N 7.81E − 22.9E−2 ▽ 1.11E − 14.9E−2
UF5 5.55E − 11.4E−1 − 4.91E − 11.1E−1 − 5.38E − 19.4E−2
UF6 6.69E − 11.9E−1 − 6.13E − 16.0E−2 − 6.61E − 11.5E−1
UF7 7.45E − 14.1E−1 N 1.02E02.8E−1 N 5.05E − 11.4E−1
UF8 6.24E − 19.6E−2 N 6.67E − 13.8E−2 N 3.95E − 15.9E−2
UF9 6.26E − 16.2E−2 N 7.77E − 11.7E−1 N 2.66E − 11.1E−1
UF10 3.84E − 16.6E−2 N 5.93E − 11.9E−1 N 3.29E − 11.1E−1
Iǫ+
GLT1 9.45E − 31.5E−3 N 2.43E − 17.2E−3 N 4.80E − 34.9E−4
GLT2 7.40E − 26.4E−3 N 2.13E − 11.6E−1 N 9.38E − 31.4E−3
GLT3 1.72E − 24.6E−3 ▽ 4.73E − 21.4E−2 N 2.07E − 29.1E−3
GLT4 1.27E − 22.8E−3 − 1.86E − 12.8E−1 N 7.60E − 24.0E−1
GLT5 6.53E − 29.9E−4 N 7.22E − 25.3E−2 N 4.84E − 23.1E−3
GLT6 6.56E − 22.7E−3 N 5.25E − 21.3E−2 − 5.66E − 22.4E−2
UF1 1.48E − 22.4E−3 − 1.79E − 11.6E−2 N 1.47E − 23.3E−3
UF2 6.65E − 22.6E−2 N 1.16E − 12.5E−2 N 4.54E − 21.9E−2
UF3 5.84E − 25.6E−2 ▽ 4.63E − 19.5E−2 N 1.22E − 19.5E−2
UF4 8.48E − 21.0E−2 N 3.95E − 25.8E−3 ▽ 4.89E − 27.8E−3
UF5 5.50E − 15.1E−1 − 4.47E − 12.3E−1 ▽ 5.81E − 13.4E−1
UF6 6.23E − 15.0E−1 − 4.34E − 11.6E−1 ▽ 6.62E − 14.4E−1
UF7 4.54E − 28.0E−2 N 5.66E − 14.9E−1 N 2.59E − 21.3E−2
UF8 2.59E − 13.0E−3 ▽ 7.08E − 14.5E−1 N 2.89E − 12.2E−2
UF9 4.30E − 11.1E−3 ▽ 4.30E − 13.0E−1 ▽ 5.42E − 15.3E−2
UF10 8.13E − 11.8E−1 − 8.43E − 12.2E−1 − 9.03E − 11.7E−1

lado izquierdo, a pesar de sus buenos resultado obtenidos. Cuantitativamente MEASO


supera tanto a MOEA/D-DE como a SMS-EMOA en el número de casos estudiados (16
problemas, 3 indicadores, un total de 48) con mejor número de resultados por indicador
N, excepto en IHV donde empata con MOEA/-DE ▽, pero sin lograr ser superado en
ningún indicador. Superioridad demostrada por el ranking de Friedman en la Tabla 6.4.
65

Tabla 6.4: Friedman ranking

IHV IGS Iǫ+


Algoritmo Rank Algoritmo Rank Algoritmo Rank
MEASO 1.85 MEASO 1.51 MEASO 1.75
MOEA/D-DE 1.92 MOEA/D-DE 2.16 MOEA/D-DE 1.90
SMS-EMOA 2.22 SMS-EMOA 2.32 SMS-EMOA 2.35

6.7. Conclusiones
MEASO muestra capacidades para encontrar frentes de Pareto con formas compli-
cadas, demostrado en el banco de prueba GLT. Esto queda demostrado ya que obtiene
el mejor valor de IHV en la comparación para 4 problemas de GLT, dos bi-objetivo
(GLT2 y GLT3) y tres tri-objetivo (GLT5 y GLT6). Para el resto de GLT segundo.
Este capı́tulo de la tesis logra cumplir con el segundo objetivo especı́fico de la tesis.

Diseñar e implementar un nuevo método para la selección de operadores en algo-


ritmos evolutivos.

MEASO es una contribución relevante al objetivo general. El diseño e implementa-


ción de nuevos métodos de optimización multiobjetivo, competitivos con los disponibles
en el estado del arte.
66

Capı́tulo 7

Un nuevo algoritmo evolutivo


multiobjetivo con selección
adaptativa de operadores basada
en lógica difusa: FAME

7.1. Introducción
El algoritmo propuesto en este capı́tulo (Fuzzy Adaptive Multi-objective Evolutio-
nary algorithm) FAME por sus siglas en inglés es una extensión de MEASO. La falta
de una estructura poblacional en MEASO puede dificultar la resolución de ciertos pro-
blemas, en particular aquellos donde el elitismo es menos importante. Debido a esto se
procedió al desarrollo de esta extensión, la cual es altamente competitiva comparada
con otros algoritmos del estado del arte.

7.2. Algoritmo propuesto: FAME


Esta sección presenta el Algoritmo Multiobjetivo Adaptable Fuzzy (FAME), el es-
quema de FAME se encuentra en la Figura 7.1 y el Algoritmo 3 incluye su pseudocódigo.
Las entradas del algoritmo son: el problema a resolver, un criterio de terminación, un
conjunto de operadores de recombinación a considerar (Operators), el tamaño de la
población (P opulationSize) y el tamaño de la ventana de tiempo (windowSize) para
ser utilizado por el mecanismo de selección. La salida de FAME es la aproximación
calculada al frente de Pareto para el problema considerado. El código del algoritmo se
divide en tres pasos principales.
Paso 1 es la fase de inicialización. En primer lugar, crea la población principal del
algoritmo (P op) insertando P opulationSize soluciones generadas aleatoriamente, que
se evalúan y se les asigna una aptitud SSD de 0.0. Todas las soluciones no dominadas
que acabamos de generar se agregan al archivo externo. La probabilidad inicial de
aplicar cada operador de recombinación se establece en 1.0.
Paso 2 es el ciclo principal de FAME. Se repite hasta que se alcanza la condición
de terminación. Este paso se divide en subpasos más pequeños:

En Paso 2.1 se eligen varias soluciones para la reproducción (es decir, los padres).
Estas soluciones se seleccionan desde el archivo externo (Archive) o la población
67

Algorithm 3 Pseudocódigo de FAME


Paso 1 Inicialización
1: Initialize(P op)
2: Archive.add(P op)
3: SetOperatorsP rob(1.0)
4: Stagnation ← 0.0
5: window ← 0
Paso 2 Ciclo principal
6: while Criterio de paro no alcanzado do
Paso 2.1 Selección de padres
7: for i = 1 to |P arents| do
8: if RandomDouble(0, 1) ≤ β then
9: P arents[i] ← T ournament≤SSD (Archive)
10: else
11: P arents[i] ← T ournament≤SSD (P op)
12: end if
13: end for
Paso 2.2 Reproducción
14: Operator ← Roulette(OpP rob)
15: Of f spring ← Operator(P arents)
16: Evaluate(Of f spring)
17: OpU se = U pdateU se(Operator)
18: window+ = 1
Paso 2.3 Actualización del archivo
19: if !(Archive.add(Of f spring)) then
20: Stagnation = U pdateStagnation()
21: end if
Paso 2.4 Llamada al sistema de inferencia difuso
22: if window == windowSize then
23: U pdateOpP rob(OpU se, Stagnation)
24: window ← 0
25: Stagnation ← 0
26: end if
Paso 2.5 Actualización de la población
27: N ewP op ← P op.add(Of f spring)
28: f ast non dominated sort≤SSD (N ewP op)
29: P op ← RemoveW orstSolution(N ewP op)
30: end while
Paso 3 Salida
31: Regresa las soluciones en Archive
68

¿Almacenar?

Archivo con
soluciones no-dominadas

Motor Difuso
Selección Comparador SSD
Selecciona Operador
Genético a aplicar

Población

¿Almacenar?

Figura 7.1: FAME

principal (P op). La decisión sobre la fuente a usar está determinada por un pro-
ceso aleatorio, controlado por un parámetro externo β ∈ [0: 1] (puede ajustarse
para dar alguna preferencia al elitismo sobre la diversidad, o al revés). Una vez
que se toma esta decisión, se aplica un método de torneo similar al utilizado en
NSGA-II: la elección se realiza en primer lugar de acuerdo con el valor de clasifi-
cación, y si las soluciones no están dominadas, entonces es impulsado por el valor
de SSD.

Paso 2.2 selecciona y aplica un operador evolutivo. Para seleccionar el operador,


se aplica un mecanismo de ruleta como se explica en el capı́tulo anterior. El opera-
dor seleccionado se usa para generar una descendencia usando los padres elegidos
en el paso anterior. Además, el uso del operador considerado se incrementa en
1.0
windowSize (lı́nea 17) y el contador window se incrementa en uno.

Paso 2.3 comprueba si la descendencia debe incluirse en el archivo externo o no.


1.0
En este último caso, la variable Stagnation se incrementa en windowSize .

Paso 2.4 invoca al FIS cuando window == windowSize para actualizar la


probabilidad de aplicación de todos los operadores, según su uso y el valor de
Stagnation. Además, también restablece los valores de las variables window y
Stagnation.

Paso 2.5 actualiza la población con la solución creada en Paso 2.2. Luego, se
aplica f ast non dominated sort para dividir la población en diferentes frentes.
La solución en el último frente con el peor valor de SSD (cuando se consideran
solo las soluciones de ese frente) se elimina.

Paso 3 devuelve las soluciones contenidas en el archivo externo como el resultado


computado por FAME.

7.3. Algoritmos en comparación


Para demostrar el rendimiento de FAME se han considerado competidores difı́ciles
de vencer en el estado del arte de metaheurı́sticos para la optimización multiobjetivo:
69

BORG un algoritmo con selección adaptativa de operadores y población variable


[Hadka and Reed, 2013], enfoque similar a FAME.

MOEA/D-DE una evolución diferencial altamente competitiva basada en des-


composición [Li and Zhang, 2009].

SMEA un algoritmo evolutivo basado en aprendizaje automático con redes neu-


ronales [Zhang et al., 2016].

SMPSOhv un algoritmo de enjambre de partı́culas con selección ambiental basada


en hipervolumen [Nebro et al., 2013b].

SMS-EMOA un algoritmo evolutivo de estado estable con selección ambiental de


contribuciones al hipervolumen [Beume et al., 2007a].

Por último MEASO para validar que existe una diferencia significativa al usar
una estructura poblacional.

Contando a FAME nos da un total de 7 algoritmos en comparación, la variedad de


algoritmos considerados incluye diferentes métodos de estimación de densidad. Métodos
que van desde vectores de pesos, hasta la dominancia epsilon, pasando por las contri-
buciones al hipervolumen. Enfoques que compiten directamente contra el estimador de
densidad propuesto SSD.

7.4. Parámetros experimento FAME


El experimento de validación de FAME cuenta con un total de 15 problemas, confor-
mado por los bancos de prueba LZ09 y GLT. De los cuales LZ09F6, GLT5 y GLT6 son
tri-objetivo, los 12 problemas restantes son bi-objetivo. FAME comparte configuración
con MEASO excepto por el parámetro β, el cual después de experimentaciones preli-
minares se fijó en 0.9, manteniendo el elitismo de MEASO y agregando diversidad. Los
algoritmos se ejecutaron 100 veces de manera independiente, con un criterio de paro de
150,000 y 45,000 evaluaciones de la función objetivo para LZ09 y GLT respectivamente.
La Tabla 7.1 muestra la configuración de los algoritmos, los que no se muestran en la
Tabla toman su configuración del experimento de MEASO.

Tabla 7.1: Configuración de parámetros en experimento FAME


SMEA BORG SMPSOhv FAME
Población inicial Aleatoria
Población 100 (105 for 3D) 100/10000 100 25
Archivo No Si (∞) Si (100) Si (100)
Selección Aleatoria (3) Torneo (2/200) No Torneo (5)
Recombinación pr = 1.0 pr = 1.0 pr = 1.0
DE: DE: CR = 0.1, F = 0.5 DE:
CR = 0.9 SBX: ηc = 20.0 CR = 1.0
F = 0.9 SPX: ǫ = 3.0 F = 0.5
PCX: wζ = wη = 0.1 SBX:
UNDX: σζ = 0.5, ση = 0.35 ηc = 20.0
1.0
Mutación Poli. (pm = |variables| , ηm = 20.0) Poli. (pm = 0.30, ηm = 20.0)
1.0
Uni. (pm = |variables| ) Uni. (pm = 0.30)
SOM: ǫ: 0.01 Pesos: 2.5/1.5 β = 0.9
Malla: 1x100 (2D), 7x15 (3D) Proporción Pob/Archivo : 4.0 Pesos inercia: 1.0/0.0 Tamaño ventana: 14
Otros
Tasa aprendizaje: 0.7 Proporción sel.: 0.02 Pesos adap. inercia: 0.1/0.1
Vecindario: 21 f il2 + col2
p
Ventana Ini/Max: 200/20000
Vecinos: 5 Intervalo actualización: 100
Prob. sel. vecindario: 0.9 Reinicio: DEF AU LT
Gen.: Evals/N euronas Indice mut. Base/Max: 0/10
70

Tabla 7.2: Mediana y rango intercuartı́lico de los 7 algoritmos en 100 ejecuciones in-
dependientes en los bancos de prueba LZ y GLT en términos de IHV , Iǫ+ y IGS . Las
celdas con fondo gris oscuro / claro indican los primeros/segundos mejores valores.
IHV
Problem BORG MOEA/D-DE SMEA SMPSOhv SMS-EMOA MEASO FAME
LZ09F1 6.59E − 11.3E−4 N 6.61E − 11.5E−4 N 6.56E − 15.5E−4 N 6.60E − 16.2E−4 N 6.42E − 18.1E−3 N 6.61E − 12.2E−4 − 6.61E − 11.8E−4
LZ09F2 5.36E − 12.4E−2 N 6.52E − 12.1E−3 ▽ 6.26E − 12.7E−2 N 5.43E − 12.3E−2 N 5.36E − 13.0E−2 N 6.46E − 13.1E−3 − 6.46E − 12.7E−3
LZ09F3 2.88E − 11.5E−2 N 6.47E − 13.1E−2 − 6.39E − 16.3E−3 N 6.26E − 16.6E−3 N 6.16E − 11.2E−2 N 6.46E − 12.5E−3 − 6.46E − 12.4E−3
LZ09F4 6.25E − 16.5E−3 N 6.49E − 12.7E−3 ▽ 6.37E − 14.4E−3 N 6.26E − 16.7E−3 N 6.30E − 15.0E−3 N 6.48E − 11.2E−3 − 6.48E − 11.5E−3
LZ09F5 6.40E − 14.8E−3 N 6.40E − 15.7E−3 − 6.42E − 12.1E−3 − 6.32E − 14.3E−3 N 6.27E − 18.9E−3 N 6.43E − 15.3E−3 − 6.42E − 16.2E−3
LZ09F6 2.08E − 15.3E−6 N 2.42E − 17.1E−2 N 3.95E − 27.3E−2 N 2.11E − 16.0E−6 N 2.11E − 11.9E−2 N 2.89E − 14.0E−2 ▽ 2.80E − 13.6E−2
LZ09F7 6.14E − 11.3E−1 N 6.55E − 13.2E−3 N 6.32E − 11.8E−2 N 5.07E − 11.3E−1 N 4.41E − 19.4E−2 N 6.56E − 19.0E−4 − 6.56E − 18.7E−4
LZ09F8 4.06E − 11.0E−1 N 5.50E − 16.4E−2 N 4.72E − 17.2E−2 N 3.57E − 12.0E−1 N 4.38E − 17.2E−2 N 5.61E − 13.1E−2 − 5.60E − 12.7E−2
LZ09F9 2.17E − 14.6E−2 N 3.17E − 15.0E−3 ▽ 2.73E − 12.8E−2 N 2.15E − 14.0E−2 N 2.01E − 16.3E−2 N 3.13E − 13.0E−3 − 3.13E − 12.6E−3
GLT1 1.01E − 24.5E−2 N 3.72E − 12.2E−4 ▽ 3.48E − 12.0E−2 N 1.75E − 15.8E−2 N 2.97E − 22.9E−2 N 3.71E − 11.5E−3 N 3.72E − 18.6E−4
GLT2 7.25E − 19.7E−2 N 7.53E − 15.6E−3 N 7.76E − 16.2E−4 N 7.66E − 13.0E−3 N 6.46E − 11.1E−1 N 7.79E − 13.0E−4 ▽ 7.79E − 12.7E−4
GLT3 9.35E − 16.6E−3 N 9.44E − 11.3E−3 − 9.46E − 13.8E−3 − 9.39E − 15.1E−3 N 9.26E − 18.3E−3 N 9.43E − 13.9E−3 N 9.44E − 14.4E−3
GLT4 4.30E − 13.3E−1 N 4.94E − 13.5E−4 ▽ 4.91E − 12.1E−2 − 4.32E − 12.3E−2 − 3.45E − 12.9E−1 N 4.51E − 12.4E−1 − 4.62E − 12.4E−1
GLT5 9.58E − 14.2E−3 N 9.40E − 18.5E−4 N 9.37E − 13.8E−3 N 9.65E − 15.2E−4 ▽ 9.64E − 15.7E−3 − 9.63E − 16.6E−4 ▽ 9.63E − 18.6E−4
GLT6 9.41E − 14.2E−3 N 9.38E − 11.3E−3 N 9.34E − 14.1E−3 N 9.54E − 11.4E−3 N 9.57E − 14.6E−3 − 9.58E − 11.9E−3 − 9.58E − 14.1E−3
Iǫ+
Problem BORG MOEA/D-DE SMEA SMPSOhv SMS-EMOA MEASO FAME
LZ09F1 9.91E − 31.8E−4 N 9.73E − 31.8E−3 N 1.04E − 21.4E−3 N 7.55E − 36.9E−4 N 1.43E − 13.2E−2 N 6.25E − 31.1E−3 − 6.26E − 38.9E−4
LZ09F2 1.80E − 12.7E−2 N 2.08E − 21.1E−2 ▽ 7.22E − 26.4E−2 N 1.31E − 12.5E−2 N 1.88E − 16.1E−2 N 2.46E − 21.4E−2 N 2.22E − 29.3E−3
LZ09F3 3.01E − 12.8E−2 N 6.62E − 21.6E−1 N 6.01E − 22.6E−2 N 7.92E − 21.5E−2 N 1.33E − 16.8E−2 N 4.47E − 21.4E−2 − 4.37E − 21.5E−2
LZ09F4 1.90E − 12.8E−2 N 6.46E − 21.0E−2 N 6.96E − 22.2E−2 N 8.93E − 22.1E−2 N 1.67E − 11.8E−2 N 3.61E − 26.2E−3 − 3.54E − 28.4E−3
LZ09F5 7.16E − 21.8E−2 N 8.66E − 21.8E−2 N 4.81E − 21.2E−2 ▽ 7.95E − 21.2E−2 N 1.21E − 14.8E−2 N 6.57E − 22.9E−2 − 6.74E − 23.0E−2
LZ09F6 7.07E − 13.6E−5 N 2.75E − 13.2E−1 N 5.95E − 12.9E−1 N 7.07E − 11.4E−3 N 7.09E − 12.5E−3 N 2.38E − 18.6E−2 ▽ 2.57E − 16.4E−2
LZ09F7 1.68E − 12.1E−1 N 4.20E − 21.4E−2 N 8.10E − 24.5E−2 N 2.70E − 11.3E−1 N 3.77E − 11.5E−1 N 1.23E − 22.9E−3 − 1.19E − 22.0E−3
LZ09F8 4.60E − 11.4E−1 N 2.15E − 11.1E−1 N 2.97E − 11.1E−1 N 3.88E − 18.5E−2 N 3.92E − 11.9E−1 N 1.77E − 11.1E−1 − 1.60E − 18.1E−2
LZ09F9 1.89E − 19.5E−2 N 2.64E − 21.8E−2 − 1.15E − 13.8E−2 N 1.43E − 17.8E−2 N 2.32E − 11.1E−1 N 2.39E − 21.5E−2 − 2.45E − 21.4E−2
GLT1 2.45E − 12.8E−4 N 9.46E − 31.5E−3 N 3.53E − 23.4E−2 N 2.43E − 15.6E−2 N 2.43E − 15.7E−3 N 4.84E − 37.8E−4 − 4.88E − 35.2E−4
GLT2 1.52E − 11.8E−1 N 7.36E − 28.1E−3 N 1.25E − 22.0E−3 N 2.23E − 25.2E−3 N 2.13E − 11.5E−1 N 9.43E − 31.5E−3 − 9.66E − 31.2E−3
GLT3 2.78E − 21.4E−2 N 1.67E − 26.5E−3 ▽ 1.58E − 21.2E−2 ▽ 2.57E − 21.1E−2 N 4.73E − 21.3E−2 N 2.47E − 28.0E−3 N 2.23E − 21.1E−2
GLT4 1.62E − 12.9E−1 N 1.33E − 22.9E−3 ▽ 1.75E − 28.7E−2 − 1.70E − 18.3E−2 − 1.85E − 12.8E−1 N 1.37E − 14.0E−1 − 1.19E − 14.0E−1
GLT5 4.74E − 22.6E−2 − 6.49E − 21.0E−3 N 1.11E − 11.4E−2 N 4.05E − 22.6E−3 ▽ 6.56E − 23.7E−2 N 4.87E − 24.3E−3 − 4.95E − 24.5E−3
GLT6 6.04E − 21.0E−2 N 6.54E − 22.0E−3 N 9.88E − 21.4E−2 N 5.60E − 23.1E−3 N 5.25E − 26.6E−3 N 4.14E − 22.7E−2 − 3.94E − 23.2E−2
IGS
Problem BORG MOEA/D-DE SMEA SMPSOhv SMS-EMOA MEASO FAME
LZ09F1 5.67E − 15.5E−3 N 5.46E − 14.9E−3 N 2.78E − 11.5E−2 ▽ 3.91E − 14.2E−2 ▽ 1.26E08.4E−2 N 4.76E − 11.2E−2 − 4.74E − 18.6E−3
LZ09F2 5.79E − 18.0E−2 N 4.27E − 11.0E−1 N 5.76E − 13.1E−1 N 2.84E − 11.0E−1 − 5.98E − 15.2E−2 N 2.76E − 17.2E−2 ▽ 2.62E − 15.3E−2
LZ09F3 3.47E − 13.5E−2 ▽ 8.58E − 13.0E−1 N 5.49E − 11.5E−1 N 6.81E − 13.2E−2 N 1.01E09.7E−2 N 4.52E − 19.2E−2 − 4.28E − 11.2E−1
LZ09F4 1.24E02.8E−2 N 9.31E − 16.5E−2 N 5.99E − 11.5E−1 N 6.50E − 16.1E−2 N 1.13E08.0E−2 N 3.82E − 14.7E−2 N 3.62E − 15.5E−2
LZ09F5 8.97E − 11.0E−1 N 9.23E − 11.0E−1 N 5.22E − 18.6E−2 ▽ 7.50E − 13.0E−2 N 1.07E01.1E−1 N 6.21E − 12.1E−1 − 6.20E − 12.2E−1
LZ09F6 6.46E − 14.6E−5 N 6.14E − 12.0E−1 N 2.54E − 11.1E−1 ▽ 6.49E − 12.0E−4 N 6.49E − 12.4E−4 N 4.19E − 17.9E−2 ▽ 4.32E − 17.0E−2
LZ09F7 1.06E04.2E−1 N 7.51E − 11.5E−1 N 7.98E − 12.6E−1 N 9.84E − 13.2E−1 N 5.85E − 19.6E−2 N 3.69E − 13.6E−2 N 3.56E − 14.0E−2
LZ09F8 6.08E − 11.2E−1 N 8.10E − 12.7E−1 N 8.02E − 11.5E−1 N 7.92E − 14.9E−1 N 5.81E − 11.1E−1 N 5.54E − 12.2E−1 − 5.09E − 11.9E−1
LZ09F9 5.93E − 19.7E−2 N 4.21E − 11.3E−1 N 7.42E − 18.7E−2 N 4.38E − 12.4E−1 N 6.02E − 15.1E−2 N 3.52E − 17.9E−2 − 3.32E − 18.8E−2
GLT1 5.21E − 19.7E−2 N 4.74E − 11.1E−2 N 5.84E − 14.5E−1 N 9.45E − 11.6E−1 N 5.64E − 16.5E−2 N 4.17E − 11.2E−2 N 4.12E − 11.4E−2
GLT2 9.17E − 11.4E−1 N 9.85E − 11.2E−1 N 3.68E − 12.5E−2 ▽ 3.31E − 16.5E−2 ▽ 7.97E − 11.8E−1 N 4.51E − 11.4E−2 N 4.47E − 11.3E−2
GLT3 6.32E − 11.5E−1 ▽ 9.39E − 11.3E−1 ▽ 1.21E04.7E−1 ▽ 1.16E08.9E−2 ▽ 1.11E01.2E−2 ▽ 1.35E03.1E−2 − 1.34E09.2E−2
GLT4 1.18E06.9E−1 N 7.25E − 11.6E−2 ▽ 4.98E − 18.5E−1 ▽ 1.22E02.1E−1 N 6.63E − 13.4E−1 ▽ 9.24E − 13.8E−1 − 9.24E − 14.6E−1
GLT5 6.16E − 11.4E−1 N 7.42E − 15.1E−3 N 3.25E − 12.6E−2 N 3.62E − 11.2E−2 N 5.74E − 12.2E−1 N 3.20E − 18.8E−3 − 3.18E − 16.9E−3
GLT6 6.70E − 19.9E−2 N 7.30E − 17.3E−3 N 3.86E − 13.2E−2 N 4.12E − 15.7E−2 N 4.69E − 11.7E−1 N 3.75E − 12.1E−2 − 3.75E − 12.4E−2

Tabla 7.3: Friedman ranking


IHV Iǫ+ IGS
Algoritmo Rank Algoritmo Rank Algoritmo Rank
MEASO 2.305 FAME 2.260 FAME 2.627
FAME 2.304 MEASO 2.313 MEASO 2.811
MOEA/D-DE 3.034 MOEA/D-DE 3.558 SMEA 3.472
SMEA 4.410 SMEA 4.063 SMPSOhv 4.039
SMPSOhv 4.908 SMPSOhv 4.500 MOEA/D-DE 4.950
BORG 5.519 BORG 5.368 BORG 4.928
SMS-EMOA 5.520 SMS-EMOA 5.939 SMS-EMOA 5.173
71

7.5. Resultados
Esta sección describe los resultados obtenidos en la experimentación, presenta-
dos en la Tabla 7.2 para los bancos de prueba LZ09 [Li and Zhang, 2009] y GLT
[Zhang et al., 2016]. En general, es posible ver a simple vista que FAME y MEASO
destacan en la comparación realizada, ya que logran las mejores o segundas mejores
cifras en la mayorı́a de los casos.
Al enfocarse en IHV , se observa que MOEA/D-DE se erige como un fuerte com-
petidor de FAME. Venciendo a FAME en cinco problemas (LZ09F2, LZ09F4, LZ09F9,
GLT1 y GLT4), pero superado por FAME en otros siete problemas, con diferencia es-
tadı́stica significativa. En la comparación con los otros seis algoritmos, solo en cuatro
casos se logra superar a FAME significativamente, uno correspondiente a SMPSOhv en
el problema GLT5 y tres correspondientes a MEASO.
De acuerdo con la métrica Iǫ+ , FAME logra los mejores valores en cinco problemas
y seis segundos mejores valores. Este número de mejores valores obtenidos empata
con MEASO, pero FAME lo supera en número de problemas con diferencia estadı́stica
significativa. SMPSOhv y SMEA superan a FAME en un solo problema: GLT5 y GLT3,
respectivamente. MOEA/D-DE y SMEA son los mejores algoritmos después de FAME
y MEASO, cada uno proporciona el mejor resultado para solo dos problemas.
Analizando la calidad de la distribución de las soluciones con el indicador IGS ,
FAME destaca como el algoritmo de mejor rendimiento con 8 mejores valores de un
total de 15, dejando en claro segundo lugar a MEASO con 9 mejores segundos valores.
En la comparación FAME versus SMEA, el primero obtiene mejores valores de IGS en
nueve problemas, mientras que este último lo supera en cinco casos.
El ranking de Friedman en la Tabla 7.3 muestra el rendimiento general sobre el
conjunto de problemas evaluado. En IHV MEASO obtiene primer lugar, con un ligero
comportamiento superior a FAME, pero para las métricas de Iǫ+ y IGS FAME queda
en un contundente primer lugar.

7.6. Conclusiones
FAME logra superar a cinco competidores conocidos entre los más fuertes del estado
del arte de la optimización multiobjetivo, para las métricas de calidad IHV , Iǫ+ y IGS . El
propósito de diseñar FAME se cumple al superar a MEASO en el ranking de Friedman
en los indicadores de IGS y Iǫ+ , lo que demuestra su superior diversidad en soluciones,
siendo ligeramente superado por MEASO en IHV . El cual se conoce como un indicador
viciado a la convexidad en los frentes. Este capı́tulo de la tesis cumple con el tercer
objetivo especı́fico de la tesis.

Hibridar y mejorar métodos de optimización multiobjetivo para encontrar apro-


ximaciones al frente de Pareto.

Uniendo el estimador de densidad SSD y el mecanismo de selección de operadores de


MEASO con una nueva estructura poblacional, contribuyendo directamente al objetivo
general. El diseño e implementación de nuevos métodos de optimización multiobjetivo,
competitivos con los disponibles en el estado del arte.
72

Capı́tulo 8

Conclusiones y trabajos futuros

Todos los objetivos que se plantearon originalmente en este proyecto de investigación


fueron alcanzados satisfactoriamente. En este capı́tulo se describen las contribuciones
principales, la producción cientı́fica generada y las lı́neas de trabajo futuro.

8.1. Sumario del trabajo de tesis


El proyecto de tesis se puede resumir en tres partes esenciales. Primeramente, el
desarrollo e implementación del método de estimación de densidad de soluciones, de
complejidad polinomial, SSD. En segundo lugar, el desarrollo e implementación del me-
canismo de selección adaptativo de operadores, validado sobre un nuevo algoritmo pro-
puesto, MEASO. Por último, el desarrollo e implementación de un nuevo metaheurı́stico
de alto rendimiento tanto en convergencia como diversidad, FAME. A continuación, se
describe brevemente el trabajo experimental.

8.1.1. SSD
La primera parte del proyecto fue el desarrollo de un nuevo estimador de densidad.
El estimador propuesto SSD subsana deficiencias encontradas en el estado del arte. A
diferencia de las contribuciones del hipervolumen utilizadas en [Beume et al., 2007a]
el cálculo de SSD es de complejidad polinomial, a diferencia de otras propuestas de
tiempo polinomial como la distancia crowding [Deb et al., 2000], SSD funciona de ma-
nera eficaz en problemas tri-objetivo. Para validar su eficacia se comparó utilizando
dos algoritmos con selección ambiental basada en archivo, SMPSO y MOCell. Los algo-
ritmos seleccionados cuentan con estructuras poblacionales muy distintas, inteligencia
de enjambre y celular. Este experimento prueba que SSD puede ser utilizado indife-
rentemente de la estructura poblacional utilizada, ası́ como su eficacia en problemas
tri-objetivo, la cual es demostrada contra la distancia crowding en los bancos de prue-
ba WFG y DTLZ, en 100 ejecuciones independientes con un criterio de paro de 50,000
evaluaciones de la función objetivo.

8.1.2. MEASO
La segunda parte del proyecto fue la selección adaptativa de operadores de re-
combinación y mutación, incluida en el algoritmo propuesto MEASO. Aunque algunos
trabajos en el estado del arte han investigado el enfoque, ninguno utiliza técnicas de
de control como la lógica difusa. Es importante que MEASO produzca un rendimiento
equiparable con algoritmos muy utilizados en el estado del arte, por lo que se incluye en
73

su evaluación MOEA/D-DE y SMS-EMOA. Con los que son probablemente los bancos
de prueba más difı́ciles actualmente en optimización multiobjetivo CEC2009 y GLT. El
experimento se llevó a cabo utilizando 30 ejecuciones independientes, con un criterio
de paro de 200,000 y 45,000 evaluaciones de la función objetivo para CEC2009 y GLT
respectivamente.

8.1.3. FAME
MEASO resulta ser un algoritmo altamente explotativo y competitivo con el estado
del arte, demostrado experimentalmente. La idea de la extensión con una estructura
poblacional (FAME) es mejorar la diversidad de la aproximación final encontrada. Para
validar FAME, en el experimento se ha hecho una comparativa extensa, contra un mayor
número de algoritmos, con alto rendimiento en el estado del arte:

BORG , actualmente el más reciente con selección adaptativa de operadores.

MOEA/D-DE, el algoritmo con mejor rendimiento en el banco de prueba LZ09.

SMEA, el algoritmo con mejor rendimiento en el banco de prueba GLT.

SMPSOhv, representante de los algoritmos de enjambre de partı́culas de alto


rendimiento.

SMS-EMOA, evolutivo son selección ambiental basada en contribuciones del hi-


pervolumen.

MEASO, para validar la diferencia significativa entre MEASO y FAME.

Un total de siete algoritmos contando a FAME, el ranking de Friedman muestra una


prueba contundente de rendimiento, tanto MEASO como FAME obtienen el primer o
segundo lugar para cada una de las métricas de calidad. Es importante señalar que
efectivamente FAME obtiene un mejor desempeño en diversidad, demostrado por el
ranking del indicador de dispersión generalizada, con una mejor convergencia mostrada
por el indicador de épsilon aditivo, siendo superado por MEASO con una muy ligera
diferencia en hipervolumen.

8.2. Contribuciones principales


Un nuevo estimador de densidad para metaheurı́sticos multiobjetivo de comple-
jidad polinomial (SSD). Muchos de los algoritmos de optimización multiobjetivo
son poco eficaces al tratar con problemas de tres o más objetivos. Esto se debe
en general al uso de estimadores de densidad, como la distancia de crowding de
NSGA-II, que fueron diseñados cuando el principal reto era optimizar problemas
de dos objetivos. En este capı́tulo presentamos un nuevo estimador de densidad
que permite mejorar notablemente la diversidad de soluciones de los frentes al
resolver problemas con tres objetivos. Los resultados muestran que los frentes
obtenidos con nuestra propuesta mejoran de forma significativa a los que generan
los algoritmos originales. (Ver capı́tulo 4)

Un nuevo método adaptativo de selección de operadores evolutivos para me-


taheurı́sticos multiobjetivo basados en archivo (MEASO). El método de selección
74

propuesto un método permite que un AE multiobjetivo aplique diferentes opera-


dores de recombinación en diferentes etapas del proceso de búsqueda. El uso de
diferentes operadores se ajusta dinámicamente de acuerdo con su contribución a
la búsqueda en el pasado, utilizando un sistema de inferencia difusa. Este método
favorecer la aplicación de operadores que producen soluciones de mayor calidad
sobre los demás. (Ver capı́tulo 5)

Un nuevo algoritmo de optimización multiobjetivo de gran desempeño (FAME).


El algoritmo evolutivo propuesto FAME tiene un alto nivel de calidad en las
aproximaciones de los frentes de Pareto que encuentra. FAME supera claramente a
cinco algoritmos del estado del arte en los conocidos benchmark LZ09 y GLT, que
contenı́an problemas bi-objetivo y tri-objetivo. La comparación se realizó para tres
métricas de calidad consideradas: el conocido hipervolumen, el indicador épsilon
aditivo y la dispersión generalizada. FAME se destaca como el mejor algoritmo
de los comparados para cada métrica. (Ver capı́tulo 6)

8.3. Producción cientı́fica


A Survey of Decomposition Methods for Multi-objective Optimization
[Santiago et al., 2014].

A Comparison Between Memetic Algorithm and Seeded Genetic Algorithm for


Multi-objective Independent Task Scheduling on Heterogeneous Machines
[Huacuja et al., 2015].

Un nuevo método de estimación de densidad para problemas de optimización con


tres objetivos usando metaheurı́sticas [Santiago et al., 2016b].

A Multi-objective Evolutionary Algorithm with Adaptative Selection of Opera-


tors [Santiago et al., 2016a].

Branch and Bound Algorithm for the Heterogeneous Computing Scheduling Multi-
Objective Problem [Soto-Monterrubio et al., 2016]

A Neighborhood Operator for Continuous Multi-Objective Optimization Pro-


blems [Santiago et al., 2017].

A Novel Multi-Objective Evolutionary Algorithm with Fuzzy Logic Based Adap-


tive Selection of Operators: FAME (Por Someter).

8.4. Trabajos futuros


El presente trabajo de tesis abre nuevas áreas de oportunidad para la investigación
en optimización multiobjetivo. El método adaptativo de selección de operadores puede
ser implementado en una amplia gama de algoritmos de optimización multiobjetivo, al
igual que el estimador de densidad SSD. El algoritmo propuesto FAME al ser nuevo en
el estado del arte necesita ser profundamente investigado en cuanto a sus alcances en
problemas en combinatorios, continuos y escalabilidad de objetivos y variables. Futuras
adecuaciones serán necesarias para diferentes tipos de problemas, por lo tanto, una
futura oportunidad de investigación. A continuación, se enlistan áreas de oportunidad
prometedoras a investigar.
75

8.4.1. Optimización de reglas difusas


El conjunto de reglas difusas diseñado e implementado en este trabajo es el mismo
tanto para MEASO como para FAME. Dicho conjunto de reglas fue diseñado utilizando
la experiencia previa obtenida en el campo de optimización multiobjetivo; sin embargo,
el conocimiento del experto limita el alcance del conjunto de reglas. Existen métodos
exactos como el enumerativo para evaluar todas las combinaciones de reglas, aunque con
mucha granularidad se vuelve intratable por su espacio exponencial. Una alternativa
popular es el uso de algoritmos evolutivos para la generación de reglas [Hoffmann, 2001,
Cordón et al., 2001], con la esperanza de encontrar un mejor conjunto de reglas para
un problema especı́fico o banco de prueba.

8.4.2. Adaptación de parámetros con lógica difusa


Ha quedado fuera del alcance de este trabajo de tesis la adaptación de los paráme-
tros de los operadores de variación utilizados. Como se mostró en el análisis efectuado
al estado del arte la adaptación de parámetros de los operadores de variación es otra
tendencia ampliamente investigada en los algoritmos adaptativos. La combinación de
un segundo motor de inferencia difusa que controle estos parámetros haciendo sinergia
con la selección del operador de variación más prometedor pudiese ampliar la capaci-
dad adaptativa de FAME, MEASO u otros algoritmos que desean emplear el enfoque
aquı́ propuesto.

8.4.3. Adaptación de parámetros con Data-driven


Una tendencia emergente en teorı́a de control es Data-driven [Hou and Wang, 2013].
En la teorı́a de control clásica es necesario un modelo matemático del sistema lo más
preciso posible [Macki and Strauss, 2012], pero la complejidad de algunos sistemas hace
una tarea titánica o infactible generar modelos cercanos a la realidad. Es por eso por lo
que en control se han popularizado las técnicas de soft computing como redes neuronales
o lógica difusa que trabajan sobre las entradas y salidas esperadas del sistema. El
mismo principio es utilizado en Data-driven, se trabaja directamente sobre los datos de
entrada y salida del sistema, teniendo la particularidad de trabajar procesos en lı́nea
sin un entrenamiento previo como en redes neuronales o conocimiento experto lógica
difusa. Las caracterı́sticas anteriormente mencionadas vuelven a Data-driven un buen
candidato para la configuración de parámetros en lı́nea de operadores de variación.

8.4.4. Lógica difusa de intervalo tipo 2


Como se mencionó en el estado del arte la lógica difusa ha sido fuertemente cri-
ticada por su falta de incertidumbre en las funciones de membresı́a. La lógica difusa
de intervalo tipo 2 soluciona este problema [Castillo et al., 2007], el impacto en el ren-
dimiento del mecanismo de selección de operador de variación, ası́ como su posible
mejora en desempeño aún no han sido investigados. Existen una variedad de funcio-
nes de membresı́a como lo son la triangular, trapezoidal, gaussiana, sigmoidal, etc.
[Zhao and Bose, 2002]. Los efectos de distintas funciones de membresı́a podrı́an variar
notablemente de intervalo tipo 1 a intervalo tipo 2.

8.4.5. Problemas combinatorios


Actualmente los métodos propuestos han sido probados en problemas de optimi-
zación continua, naturalmente los operadores utilizados en este trabajo: evolución di-
76

ferencial, cruza binaria simulada, mutación polinomial e uniforme fueron diseñados


para este tipo de problemas. Los problemas combinatorios [Ulungu and Teghem, 1994,
Coello Coello et al., 2010] tienen una naturaleza menos genérica como lo son: permu-
taciones con repetición, sin repetición o subconjuntos. Problemas clásicos como: La
mochila, el agente viajero y la satisfacción booleana requerirán de un conjunto de ope-
radores de variación especı́fico para cada problema. Lo que abre la investigación a la
búsqueda operadores de variación combinatoria que se desempeñen mejor en conjunto.

8.4.6. Problemas de aplicación industrial


Ningún banco de prueba generado artificialmente puede garantizar que algún algo-
ritmo especı́fico tenga un alto desempeño en aplicaciones industriales. Quedó fuera de
los alcances del trabajo de tesis el probar los algoritmos desarrollados con problemas del
mundo real. La optimización multiobjetivo tiene interesantes aplicaciones como lo es la
aeronáutica, toma de decisiones, o la bioquı́mica [Stewart et al., 2008]. Los resultados
de aplicación industrial de los métodos propuestos, ası́ como sus adecuaciones son un
área de investigación de interés.

8.4.7. Escalamiento en objetivos


El escalamiento en objetivos ha ganado gran popularidad en los últimos años en opti-
mización multiobjetivo. Por mencionar algunos algoritmos con gran desempeño en esca-
lamiento en objetivos encontramos: NSGA-III [Deb and Jain, 2014, Jain and Deb, 2014],
MOMBI [Hernández Gómez and Coello Coello, 2013, Raquel. and A., 2015], y Teta-
Dea [Yuan et al., 2016] por mencionar algunos. Algo en común que podemos encon-
trar en estos algoritmos es el uso de vectores de pesos para guiar la búsqueda, en-
foque también conocido como de descomposición [Santiago et al., 2014]. Sin embar-
go, este enfoque tiene sus limitantes en formas de Pareto no uniformes o complejas
[Zhang et al., 2016]. El estimador de densidad SSD o futuras versiones del mismo pu-
diera ser un candidato para solucionar este tipo de problemas sin utilizar vectores de
pesos.

8.4.8. Escalamiento en variables


El escalamiento en variables en un área poco investigada en optimización multi-
objetivo, algunos trabajos relevantes: [Durillo et al., 2010, Antonio and Coello, 2013,
Ma et al., 2016]. Existe una variedad de operadores utilizados para el escalamiento en
variables en optimización mono-objetivo como: MOS [de la Fuente and Sánchez, 2009,
LaTorre et al., 2011, LaTorre et al., 2013], CC-CMA-ES [Liu and Tang, 2013], DECC-
G [Yang et al., 2008, Yang et al., 2009], IHDELS [Molina and Herrera, 2015], JADE
[Zhang and Sanderson, 2009], por ejemplificar los más competitivos. Como base para
varios de estos algoritmos encontramos operadores de evolución diferencial y estructuras
poblacionales co-evolutivas [Wiegand, 2003]. El diseño de un nuevo algoritmo usando
esta clase de operadores y una estructura poblacional co-evolutiva para optimización
multiobjetivo es un área de investigación prometedora.
77

Bibliografı́a

[eco, 1971] (1971). On a bicriterion formulation of the problems of integrated sys-


tem identification and system optimization. Systems, Man and Cybernetics, IEEE
Transactions on, SMC-1(3):296–297.

[Abraham Duarte Muñoz, 2010] Abraham Duarte Muñoz, Juan José Pantri-
go Fernández, M. G. C. (2010). Metaheurı́sticas. Universidad Rey Juan Carlos.

[Andersson, 2000] Andersson, J. (2000). A survey of multiobjective optimization in


engineering design. Technical report, Linköping University.

[Antonio and Coello, 2013] Antonio, L. M. and Coello, C. A. C. (2013). Use of coope-
rative coevolution for solving large scale multiobjective optimization problems. In
2013 IEEE Congress on Evolutionary Computation, pages 2758–2765.

[Asafuddoula et al., 2015] Asafuddoula, M., Ray, T., and Sarker, R. (2015). A
decomposition-based evolutionary algorithm for many objective optimization. IEEE
Transactions on Evolutionary Computation, 19(3):445–460.

[Athan and Papalambros, 1996] Athan, T. W. and Papalambros, P. Y. (1996). A note


on weighted criteria methods for compromise solutions in multi-objective optimiza-
tion. 27:155 – 176.

[Auger et al., 2009] Auger, A., Bader, J., Brockhoff, D., and Zitzler, E. (2009). Theory
of the hypervolume indicator: Optimal µ-distributions and the choice of the reference
point. In In Foundations of Genetic Algorithms (FOGA 2009). ACM.

[Auger et al., 2016] Auger, A., Brockhoff, D., Hansen, N., Tušar, D., Tušar, T., and
Wagner, T. (2016). Gecco’16 black-box optimization benchmarking workshop (bbob-
2016): Workshop chairs’ welcome message. In Proceedings of the 2016 on Genetic and
Evolutionary Computation Conference Companion, GECCO ’16 Companion, pages
1167–1167, New York, NY, USA. ACM.

[Bader et al., 2008] Bader, J., Deb, K., and Zitzler, E. (2008). Faster Hypervolume-
based Search using Monte Carlo Sampling. In Conference on Multiple Criteria
Decision Making (MCDM 2008). Springer. to appear.

[Bader and Zitzler, 2006] Bader, J. and Zitzler, E. (2006). HypE: Fast Hypervolume-
Based Multiobjective Search Using Monte Carlo Sampling. TIK Report 286, Institut
für Technische Informatik und Kommunikationsnetze, ETH Zürich.

[Barraza et al., 2017] Barraza, J., Melin, P., Valdez, F., and González, C. (2017).
Fireworks Algorithm (FWA) with Adaptation of Parameters Using Fuzzy Logic,
pages 313–327. Springer International Publishing.
78

[Benayoun et al., 1971] Benayoun, R., Montgolfier, J., Tergny, J., and Laritchev, O.
(1971). Linear programming with multiple objective functions: Step method (stem).
Mathematical Programming, 1(1):366–375.

[Beume et al., 2007a] Beume, N., Naujoks, B., and Emmerich, M. (2007a). Sms-emoa:
Multiobjective selection based on dominated hypervolume. European Journal of
Operational Research, 181(3):1653 – 1669.

[Beume et al., 2007b] Beume, N., Naujoks, B., and Emmerich, M. (2007b). Sms-emoa:
Multiobjective selection based on dominated hypervolume. European Journal of
Operational Research, 181(3):1653 – 1669.

[Bleuler et al., 2003] Bleuler, S., Laumanns, M., Thiele, L., and Zitzler, E. (2003). PI-
SA — a platform and programming language independent interface for search al-
gorithms. In Fonseca, C. M., Fleming, P. J., Zitzler, E., Deb, K., and Thiele, L.,
editors, Evolutionary Multi-Criterion Optimization (EMO 2003), Lecture Notes in
Computer Science, pages 494 – 508, Berlin. Springer.

[Blum, 2004] Blum, L. (2004). Computing over the reals: Where turing meets newton.
Notices of the AMS, 51(9):1024–1034.

[Blum et al., 1998] Blum, L., Cucker, F., Shub, M., and Smale, S. (1998). Complexity
and real computation. Springer Science & Business Media.

[Blum et al., 1990] Blum, L., Shub, M., and Smale, S. (1990). A Theory of
Computation and Complexity over the real numbers. International Computer Science
Institute.

[Blum et al., 1989] Blum, L., Shub, M., Smale, S., et al. (1989). On a theory of compu-
tation and complexity over the real numbers: np-completeness, recursive functions
and universal machines. Bulletin (New Series) of the American Mathematical Society,
21(1):1–46.

[Bökler, 2017] Bökler, F. (2017). The Multiobjective Shortest Path Problem Is


NP-Hard, or Is It?, pages 77–87. Springer International Publishing, Cham.

[Bridgman, 1922] Bridgman, P. (1922). Dimensional Analysis. Yale University Press.

[Bringmann and Friedrich, 2009] Bringmann, K. and Friedrich, T. (2009). Approxi-


mating the least hypervolume contributor: Np-hard in general, but fast in practi-
ce. In Ehrgott, M., Fonseca, C., Gandibleux, X., Hao, J.-K., and Sevaux, M., edi-
tors, Evolutionary Multi-Criterion Optimization, volume 5467 of Lecture Notes in
Computer Science, pages 6–20. Springer Berlin / Heidelberg.

[Carlos A. Coello Coello, 2007] Carlos A. Coello Coello, Gary B. Lamont, D. A. V. V.


(2007). Evolutionary Algorithms for solving multi-objective problems. Genetic and
evolutionary computation. Springer.

[Castillo et al., 2007] Castillo, O., Melin, P., Kacprzyk, J., and Pedrycz, W. (2007).
Type-2 fuzzy logic: Theory and applications. In 2007 IEEE International Conference
on Granular Computing (GRC 2007), pages 145–145.

[Charnes et al., 1964] Charnes, A., Clower, R., Kortanek, K., and INST., N. U. E. I. T.
(1964). Effective Control Through Coherent Decentralization with Preemptive Goals.
Defense Technical Information Center.
79

[Charnes and Cooper, 1961] Charnes, A. and Cooper, W. (1961). Management models
and industrial applications of linear programming. J. Wiley, New York.
[Charnes et al., 1955] Charnes, A., Cooper, W., and Ferguson, R. (1955). Optimal
estimation of executive compensation by linear programming. Management Science,
1:138–151.
[Charnes and Cooper, 1977] Charnes, A. and Cooper, W. W. (1977). Goal program-
ming and multiple objective optimizations: Part 1. European Journal of Operational
Research, 1(1):39–54.
[Chen et al., 2000] Chen, W., Sahai, A., Messac, A., and Sundararaj, G. J. (2000).
Exploration of the Effectiveness of Physical Programming in Robust Design. Journal
of Mechanical Design, 122(2):155–163.
[Cheng and Li, 1996] Cheng, F. Y. and Li, D. (1996). Journal of Guidance, Control,
and Dynamics, 19:392 – 397.
[Cheng et al., 2016] Cheng, R., Jin, Y., Olhofer, M., and Sendhoff, B. (2016). A refe-
rence vector guided evolutionary algorithm for many-objective optimization. IEEE
Transactions on Evolutionary Computation, 20(5):773–791.
[Coello, 2009] Coello (2009). Evolutionary multi-objective optimization: some current
research trends and topics that remain to be explored. Frontiers of Computer Science
in China.
[Coello et al., 2006] Coello, C. A. C., Lamont, G. B., and Veldhuizen, D. A. V. (2006).
Evolutionary Algorithms for Solving Multi-Objective Problems. Springer.
[Coello Coello et al., 2010] Coello Coello, C. A., Dhaenens, C., and Jourdan, L. (2010).
Multi-Objective Combinatorial Optimization: Problematic and Context, pages 1–21.
Springer Berlin Heidelberg, Berlin, Heidelberg.
[Cook, 1971] Cook, S. A. (1971). The complexity of theorem-proving procedures. In
Proceedings of the Third Annual ACM Symposium on Theory of Computing, STOC
’71, pages 151–158, New York, NY, USA. ACM.
[Cordón et al., 2001] Cordón, O., Herrera, F., Hoffmann, F., and Magdalena, L. (2001).
Evolutionary tuning and learning of fuzzy knowledge bases. Genetic fuzzy systems,
19.
[Corne et al., 2001] Corne, D. W., Jerram, N. R., Knowles, J. D., and Oates, M. J.
(2001). Pesa-ii: Region-based selection in evolutionary multiobjective optimiza-
tion. In Proceedings of the 3rd Annual Conference on Genetic and Evolutionary
Computation, pages 283–290. Morgan Kaufmann Publishers Inc.
[Danziger, 2010] Danziger, P. (2010). Big o notation. Source internet: http://www.
scs. ryerson. ca/˜ mth110/Handouts/PD/bigO. pdf, Retrieve: April.
[Das and Dennis, 1998] Das, I. and Dennis, J. (1998). Normal-boundary intersection: A
new method for generating the pareto surface in nonlinear multicriteria optimization
problems. SIAM Journal on Optimization, 8(3):631–657.
[Das and Suganthan, 2011] Das, S. and Suganthan, P. N. (2011). Differential evolution:
A survey of the state-of-the-art. IEEE transactions on evolutionary computation,
15(1):4–31.
80

[Davis, 1997] Davis, M. D. (1997). Game Theory: A Nontechnical Introduction. Dover


Publications.

[de la Fuente and Sánchez, 2009] de la Fuente, A. L. and Sánchez, J. M. P. (2009). A


framework for hybrid dynamic evolutionary algorithms: multiple offspring sampling
(MOS). PhD thesis, Universidad Politécnica de Madrid.

[Deb et al., 2000] Deb, K., Agrawal, S., Pratap, A., and Meyarivan, T. (2000). A
fast elitist non-dominated sorting genetic algorithm for multi-objective optimization:
Nsga-ii. In Proceedings of the 6th International Conference on Parallel Problem
Solving from Nature, volume 1917 of Lecture Notes in Computer Science, Berlin,
Heidelberg. Springer.

[Deb and Jain, 2014] Deb, K. and Jain, H. (2014). An evolutionary many-objective
optimization algorithm using reference-point-based nondominated sorting approach,
part i: Solving problems with box constraints. IEEE Transactions on Evolutionary
Computation, 18(4):577–601.

[Deb et al., 2007] Deb, K., Karthik, S., and Okabe, T. (2007). Self-adaptive simulated
binary crossover for real-parameter optimization. In Proceedings of the 9th annual
conference on Genetic and evolutionary computation, GECCO ’07, pages 1187–1194.
ACM.

[Deb et al., 2003] Deb, K., Mohan, M., and Mishra, S. (2003). A Fast Multi-objective
Evolutionary Algorithm for Finding Well-Spread Pareto-Optimal Solutions. Kan-
GAL report 2003002, Indian Institute of Technology, Kanpur, India.

[Deb et al., 2006] Deb, K., Sinha, A., and Kukkonen, S. (2006). Multi-objective test
problems, linkages, and evolutionary methodologies. In GECCO’06, pages 1141–1148.

[Duarte et al., 2006] Duarte, A., Laguna, M., and Martı́, R. (2006). Tabu search for
the linear ordering problem with cumulative costs. Computational Optimization and
Applications, pages 1–19.

[Durillo et al., 2010] Durillo, J., Nebro, A., Coello Coello, C., Garcı́a-Nieto, J., Luna,
F., and Alba, E. (2010). A study of multiobjective metaheuristics when solving para-
meter scalable problems. IEEE Transctions on Evolutionary Computation, 14(4):618
– 635.

[Durillo et al., 2009a] Durillo, J., Nebro, A., Luna, F., and Alba, E. (2009a). On the
effect of the steady-state selection scheme in multi-objective genetic algorithms. In
5th International Conference, EMO 2009, volume 5467 of Lecture Notes in Computer
Science, pages 183–197, Nantes, France. Springer Berlin / Heidelberg.

[Durillo et al., 2009b] Durillo, J., Nebro, A., Luna, F., and Alba, E. (2009b). On the
effect of the steady-state selection scheme in multi-objective genetic algorithms. In
5th International Conference, EMO 2009, volume 5467 of Lecture Notes in Computer
Science, pages 183–197, Nantes, France. Springer Berlin / Heidelberg.

[Durillo and Nebro, 2011] Durillo, J. J. and Nebro, A. J. (2011). jmetal: A java frame-
work for multi-objective optimization. Advances in Engineering Software, 42:760–
771.
81

[Durillo et al., 2008] Durillo, J. J., Nebro, A. J., Luna, F., and Alba, E. (2008). Solving
three-objective optimization problems using a new hybrid cellular genetic algorithm.
In Rudolph, G., Jensen, T., Lucas, S., Poloni, C., and Beume, N., editors, Parallel
Problem Solving from Nature - PPSN X, volume 5199 of Lecture Notes in Computer
Science, pages 661–670. Springer.

[Erbas et al., 2003] Erbas, C., Erbas, S. C., and Pimentel, A. D. (2003). A multiobjecti-
ve optimization model for exploring multiprocessor mappings of process networks. In
First IEEE/ACM/IFIP International Conference on Hardware/ Software Codesign
and Systems Synthesis (IEEE Cat. No.03TH8721), pages 182–187.

[Eskandari et al., 2007] Eskandari, H., Geiger, C. D., and Lamont, G. B. (2007). FastP-
GA: A dynamic population sizing approach for solving expensive multiobjective
optimization problems. In Obayashi, S., Deb, K., Poloni, C., Hiroyasu, T., and
Murata, T., editors, Evolutionary Multi-Criterion Optimization. 4th International
Conference, EMO 2007, volume 4403 of Lecture Notes in Computer Science, pages
141–155. Springer.

[Fleischer, 2003] Fleischer, M. (2003). The measure of pareto optima applications to


multi-objective metaheuristics. In Fonseca, C. M., Fleming, P. J., Zitzler, E., Thiele,
L., and Deb, K., editors, Evolutionary Multi-Criterion Optimization, pages 519–533,
Berlin, Heidelberg. Springer Berlin Heidelberg.

[Fleszar et al., 2011] Fleszar, K., Glaßer, C., Lipp, F., Reitwießner, C., and Witek,
M. (2011). The complexity of solving multiobjective optimization problems and
its relation to multivalued functions. In Electronic Colloquium on Computational
Complexity (ECCC), volume 18, page 165.

[Gansner et al., 2005] Gansner, E. R., Koren, Y., and North, S. (2005). Graph dra-
wing by stress majorization. In Pach, J., editor, Graph Drawing: 12th International
Symposium, pages 239–250. Springer.

[Garcı́a et al., 2008] Garcı́a, S., Molina, D., Lozano, M., and Herrera, F. (2008). A
study on the use of non-parametric tests for analyzing the evolutionary algorithms’
behaviour: a case study on the cec’2005 special session on real parameter optimiza-
tion. Journal of Heuristics, 15(6):617–644.

[Garey and Johnson, 1990] Garey, M. R. and Johnson, D. S. (1990). Computers and
Intractability; A Guide to the Theory of NP-Completeness. W. H. Freeman & Co.,
New York, NY, USA.

[Garey et al., 1979] Garey, M. R., Johnson, D. S., and Others (1979).
Computers and Intractability: A Guide to the Theory of NP-completeness. WH
freeman San Francisco.

[Gembicki and Haimes, 1975] Gembicki, F. and Haimes, Y. (1975). Approach to per-
formance and sensitivity multiobjective optimization: The goal attainment method.
Automatic Control, IEEE Transactions on, 20(6):769–771.

[Giagkiozis et al., 2013] Giagkiozis, I., Purshouse, R. C., and Fleming, P. J.


(2013). Generalized decomposition. In International Conference on Evolutionary
Multi-Criterion Optimization, pages 428–442. Springer.
82

[Glaßer et al., 2010] Glaßer, C., Reitwießner, C., Schmitz, H., and Witek, M. (2010).
Approximability and hardness in multi-objective optimization. In Conference on
Computability in Europe, pages 180–189. Springer.

[Gregory and Foreman, 2009] Gregory, W. and Foreman, D. (2009). Nonparametric


statistics for non-statisticians. Hoboken: John Wiley and Sons.

[Greiner et al., 2006] Greiner, D., Winter, G., and Emperador, J. M. (2006). Enhancing
the multiobjective optimum design of structural trusses with evolutionary algorithms
using densea. In 44th AIAA Aerospace Sciences Meeting and Exhibit, page 1474.

[Hadka, 2012] Hadka, D. (2012). Moea framework-a free and open source java frame-
work for multiobjective optimization.

[Hadka and Reed, 2013] Hadka, D. and Reed, P. (2013). Borg: An auto-adaptive many-
objective evolutionary computing framework. Evolutionary computation, 21(2):231–
259.

[Hernández Gómez and Coello Coello, 2013] Hernández Gómez, R. and Coello Coello,
C. A. (2013). Mombi: A new metaheuristic for many-objective optimization based on
the r2 indicator. In 2013 IEEE Conference on Evolutionary Computation, volume 1,
pages 2488–2495.

[Herrera and Lozano, 2009] Herrera, F. and Lozano, M. (2009). Computational


Intelligence: Collaboration, Fusion and Emergence, chapter Fuzzy Evolutionary Al-
gorithms and Genetic Fuzzy Systems: A Positive Collaboration between Evolutionary
Algorithms and Fuzzy Systems, pages 83–130. Springer.

[Hoffmann, 2001] Hoffmann, F. (2001). Evolutionary algorithms for fuzzy control sys-
tem design. Proceedings of the IEEE, 89(9):1318–1333.

[Holland, 1992] Holland, J. H. (1992). Genetic algorithms. Scientific american,


267(1):66–73.

[Hou and Wang, 2013] Hou, Z.-S. and Wang, Z. (2013). From model-based control to
data-driven control: Survey, classification and perspective. Inf. Sci., 235:3–35.

[Huacuja et al., 2015] Huacuja, H. J. F., Santiago, A., Pecero, J. E., Dorronsoro, B.,
Bouvry, P., Monterrubio, J. C. S., Barbosa, J. J. G., and Santillan, C. G. (2015).
A Comparison Between Memetic Algorithm and Seeded Genetic Algorithm for
Multi-objective Independent Task Scheduling on Heterogeneous Machines, pages
377–389. Springer International Publishing, Cham.

[Huang et al., 2007] Huang, V. L., Qin, A. K., Suganthan, P. N., and Tasgetiren, M. F.
(2007). Multi-objective optimization based on self-adaptive differential evolution
algorithm. In IEEE Congress on Evol. Comp. (CEC), pages 3601–3608.

[Huang et al., 2009] Huang, V. L., Zhao, S. Z., Mallipeddi, R., and Suganthan, P. N.
(2009). Multi-objective optimization using self-adaptive differential evolution algo-
rithm. In IEEE Congress on Evol. Comp. (CEC), pages 190–194.

[Hughes, 2003] Hughes, E. (2003). Multiple single objective pareto sampling. In


Evolutionary Computation, 2003. CEC ’03. The 2003 Congress on, volume 4, pa-
ges 2678–2684 Vol.4.
83

[Hughes, 2005] Hughes, E. (2005). Evolutionary many-objective optimisation: many


once or one many? In Evolutionary Computation, 2005. The 2005 IEEE Congress
on, volume 1, pages 222–227 Vol.1.

[Huisman et al., 2010] Huisman, J., Rings, J., Vrugt, J., Sorg, J., and Vereecken, H.
(2010). Hydraulic properties of a model dike from coupled bayesian and multi-criteria
hydrogeophysical inversion. Journal of Hydrology, 380(1-2):62–73.

[Hwang and Masud, 1979] Hwang, C. and Masud, A. (1979). Multiple objective
decision making, methods and applications: a state-of-the-art survey. Lecture notes
in economics and mathematical systems. Springer-Verlag.

[Igel et al., 2007] Igel, C., Hansen, N., and Roth, S. (2007). Covariance matrix adap-
tation for multi-objective optimization. Evolutionary computation, 15(1):1–28.

[Igel and Toussaint, 2005] Igel, C. and Toussaint, M. (2005). A no-free-lunch theorem
for non-uniform distributions of target functions. Journal of Mathematical Modelling
and Algorithms, 3(4):313–322.

[Iorio and Li, 2004] Iorio, A. W. and Li, X. (2004). Solving rotated multi-objective opti-
mization problems using differential evolution. In Australian Conference on Artificial
Intelligence, pages 861–872.

[Ishibuchi et al., 2015] Ishibuchi, H., Masuda, H., and Nojima, Y. (2015). A study on
performance evaluation ability of a modified inverted generational distance indica-
tor. In Proceedings of the 2015 Annual Conference on Genetic and Evolutionary
Computation, GECCO ’15, pages 695–702, New York, NY, USA. ACM.

[Jain and Deb, 2014] Jain, H. and Deb, K. (2014). An evolutionary many-objective
optimization algorithm using reference-point based nondominated sorting approach,
part ii: Handling constraints and extending to an adaptive approach. IEEE
Transactions on Evolutionary Computation, 18(4):602–622.

[K. Deb and Zitzler, 2001] K. Deb, L. Thiele, M. L. and Zitzler, E. (2001). Scalable
Test Problems for Evolutionary Multi-Objective Optimization.

[Kaliszewski, 1987] Kaliszewski, I. (1987). A modified weighted tchebycheff metric for


multiple objective programming. Computers & OR, 14(4):315–323.

[Kalyanmoy, 2001] Kalyanmoy, D. (2001). Multi-Objective Optimization Using


Evolutionary Algorithms. John Wiley & Sons, Inc., New York, NY, USA.

[Karnik et al., 1999] Karnik, N. N., Mendel, J. M., and Liang, Q. (1999). Type-2 fuzzy
logic systems. IEEE Trans. on Fuzzy Systems, 7(6):643–658.

[Kelly and Osman, 1996] Kelly, J. P. and Osman, I. H. (1996).


Meta-Heuristics: Theory and Applications. Kluwer Academic Publishers Nor-
well, MA, USA.

[Knowles and Corne, 1999] Knowles, J. and Corne, D. (1999). The pareto archived
evolution strategy: A new baseline algorithm for multiobjective optimization. In
Proceedings of the 1999 Congress on Evolutionary Computation, pages 9–105, Pis-
cataway, NJ. IEEE Press.
84

[Kukkonen and Lampinen, 2005] Kukkonen, S. and Lampinen, J. (2005). GDE3: The
third Evolution Step of Generalized Differential Evolution. In IEEE Congress on
Evolutionary Computation (CEC’2005), pages 443 – 450.

[LaTorre et al., 2011] LaTorre, A., Muelas, S., and Peña, J.-M. (2011). A mos-based
dynamic memetic differential evolution algorithm for continuous optimization: a sca-
lability test. Soft Computing, 15(11):2187–2199.

[LaTorre et al., 2013] LaTorre, A., Muelas, S., and Peña, J. M. (2013). Large scale
global optimization: Experimental results with mos-based hybrid algorithms. In
2013 IEEE Congress on Evolutionary Computation, pages 2742–2749.

[Laumanns et al., 2002a] Laumanns, M., Thiele, L., Deb, K., and Zitzler, E. (2002a).
Combining convergence and diversity in evolutionary multiobjective optimization.
Evol. Comput., 10(3):263–282.

[Laumanns et al., 2004] Laumanns, M., Thiele, L., and Zitzler, E. (2004). Running
time analysis of multiobjective evolutionary algorithms on pseudo-boolean functions.
IEEE Transactions on Evolutionary Computation, 8(2):170–182.

[Laumanns et al., 2006] Laumanns, M., Thiele, L., and Zitzler, E. (2006). An effi-
cient, adaptive parameter variation scheme for metaheuristics based on the epsilon-
constraint method. European Journal of Operational Research, 169(3):932–942.

[Laumanns et al., 2002b] Laumanns, M., Thiele, L., Zitzler, E., Welzl, E., and Deb,
K. (2002b). Running time analysis of multi-objective evolutionary algorithms on a
simple discrete optimization problem. Parallel Problem Solving From Nature—PPSN
VII, pages 44–53.

[Lee, 1990a] Lee, C.-C. (1990a). Fuzzy logic in control systems: fuzzy logic controller.
i. IEEE Transactions on systems, man, and cybernetics, 20(2):404–418.

[Lee, 1990b] Lee, C. C. (1990b). Fuzzy logic in control systems: fuzzy logic controller.
ii. IEEE Transactions on Systems, Man, and Cybernetics, 20(2):419–435.

[Li and Zhang, 2009] Li, H. and Zhang, Q. (2009). Multiobjective Optimization Pro-
blems With Complicated Pareto Sets, MOEA/D and NSGA-II. IEEE Transactions
on Evolutionary Computation, 13(2):229–242.

[Liefooghe et al., 2011] Liefooghe, A., Humeau, J., Mesmoudi, S., Jourdan, L., and Tal-
bi, E.-G. (2011). On dominance-based multiobjective local search: design, implemen-
tation and experimental analysis on scheduling and traveling salesman problems.

[Lin, 1976] Lin, J. . C. S. (1976). Multiple-objective problems: Pareto-optimal solutions


by method of proper equality constraints. Automatic Control, IEEE Transactions
on, 21.

[Liu and Tang, 2013] Liu, J. and Tang, K. (2013). Scaling up covariance matrix adap-
tation evolution strategy using cooperative coevolution. In Yin, H., Tang, K., Gao,
Y., Klawonn, F., Lee, M., Weise, T., Li, B., and Yao, X., editors, Intelligent Data
Engineering and Automated Learning – IDEAL 2013, pages 350–357, Berlin, Heidel-
berg. Springer Berlin Heidelberg.
85

[Lukasiewycz et al., 2007] Lukasiewycz, M., Glaß, M., Haubelt, C., and Teich, J.
(2007). Solving multi-objective pseudo-boolean problems. In International
Conference on Theory and Applications of Satisfiability Testing, pages 56–69. Sprin-
ger.

[Lukasiewycz et al., 2011] Lukasiewycz, M., Glaß, M., Reimann, F., and Teich, J.
(2011). Opt4J - A Modular Framework for Meta-heuristic Optimization. In
Proceedings of the Genetic and Evolutionary Computing Conference (GECCO 2011),
pages 1723–1730, Dublin, Ireland.

[Ma et al., 2016] Ma, X., Liu, F., Qi, Y., Wang, X., Li, L., Jiao, L., Yin, M., and
Gong, M. (2016). A multiobjective evolutionary algorithm based on decision variable
analyses for multiobjective optimization problems with large-scale variables. IEEE
Transactions on Evolutionary Computation, 20(2):275–298.

[Macki and Strauss, 2012] Macki, J. and Strauss, A. (2012). Introduction to Optimal
Control Theory. Undergraduate Texts in Mathematics. Springer New York.

[Marler and Arora, 2004] Marler, R. T. and Arora, J. S. (2004). Survey of multi-
objective optimization methods for engineering. Structural and Multidisciplinary
Optimization, 26(6):369–395.

[Martı́ et al., 2006] Martı́, R., Laguna, M., and Glover, F. (2006). Principles of scatter
search. European Journal of Operational Research, 169(2):359–372.

[Martı́nez and Coello, 2011] Martı́nez, S. Z. and Coello, C. A. C. (2011). A multi-


objective particle swarm optimizer based on decomposition. In GECCO, pages 69–
76.

[Melin et al., 2013] Melin, P., Olivas, F., Castillo, O., Valdez, F., Soria, J., and Valdez,
M. (2013). Optimal design of fuzzy classification systems using PSO with dyna-
mic parameter adaptation through fuzzy logic. Expert Systems with Applications,
40(8):3196 – 3206.

[Messac and Hattis, 1996] Messac, A. and Hattis, P. D. (1996). Physical programming
design optimization for high speed civil transport. Journal of aircraft, 33(2):446–449.

[Messac et al., 2003] Messac, A., Ismail-Yahaya, A., and Mattson, C. (2003). The nor-
malized normal constraint method for generating the pareto frontier. Structural and
Multidisciplinary Optimization, 25(2):86–98.

[Messac and Mattson, 2002] Messac, A. and Mattson, C. (2002). Generating well-
distributed sets of pareto points for engineering design using physical programming.
Optimization and Engineering, 3(4):431–450.

[Messac and Mattson, 2004] Messac, A. and Mattson, C. (2004). Normal Constraint
Method with Guarantee of Even Representation of Complete Pareto Frontier. AIAA
Journal, 42:2101–2111.

[Molina and Herrera, 2015] Molina, D. and Herrera, F. (2015). Iterative hybridization
of de with local search for the cec’2015 special session on large scale global optimiza-
tion. In 2015 IEEE Congress on Evolutionary Computation (CEC), pages 1974–1978.

[Nash, 1950] Nash, J. F. (1950). The Bargaining Problem. Econometrica, 18(2):155–


162.
86

[Naujoks and Beume, 2005] Naujoks, B. and Beume, N. (2005). Multi-objective opti-
misation using s-metric selection: Application to three-dimensional solution spaces.
In In CEC’2005, pages 1282–1289. Press.

[Nebro et al., 2009a] Nebro, A., Durilllo, J., Garcı́a-Nieto, J., Coello Coello, C., Lu-
na, F., and Alba, E. (2009a). SMPSO: a new PSO-based metaheuristic for multi-
objective optimization. In 2009 IEEE Symposium on Computational Intelligence in
Multi-criteria decision-making (MCDM 2009), pages 66–73. IEEE Computer Society.

[Nebro et al., 2013a] Nebro, A., Durillo, J., and C.A. Coello Coello, C. A. C. C. (2013a).
Analysis of leader selection strategies in a multi-objective particle swarm optimizer.
In CEC 2013.

[Nebro et al., 2009b] Nebro, A., Durillo, J., Garcı́a-Nieto, J., Coello Coello, C., Lu-
na, F., and Alba, E. (2009b). Smpso: A new pso-based metaheuristic for multi-
objective optimization. In 2009 IEEE Symposium on Computational Intelligence in
Multicriteria Decision-Making (MCDM 2009), pages 66–73. IEEE Press.

[Nebro et al., 2007a] Nebro, A. J., Alba, E., Molina, G., Chicano, F., Luna, F., and
Durillo, J. J. (2007a). Optimal antenna placement using a new multi-objective chc
algorithm. In GECCO ’07: Proceedings of the 9th annual conference on Genetic and
evolutionary computation, pages 876–883, New York, NY, USA. ACM Press.

[Nebro and Durillo, 2009] Nebro, A. J. and Durillo, J. J. (2009). On the Effect of
Applying a Steady-State Selection Scheme in the Multi-Objective Genetic Algorithm
NSGA-II, pages 435–456. Springer Berlin Heidelberg.

[Nebro and Durillo, 2010] Nebro, A. J. and Durillo, J. J. (2010). A study of the para-
llelization of the multi-objective metaheuristic moea/d. In Blum, C. and Battiti, R.,
editors, Learning and Intelligent Optimization, pages 303–317.

[Nebro et al., 2013b] Nebro, A. J., Durillo, J. J., and Coello, C. A. C. (2013b). Analy-
sis of leader selection strategies in a multi-objective particle swarm optimizer. In
Congress on Evolutionary Computation (CEC), pages 3153–3160.

[Nebro et al., 2006] Nebro, A. J., Durillo, J. J., Luna, F., Dorronsoro, B., and Al-
ba, E. (2006). A cellular genetic algorithm for multiobjective optimization. In
Pelta, D. A. and Krasnogor, N., editors, Proceedings of the Workshop on Nature
Inspired Cooperative Strategies for Optimization (NICSO 2006), pages 25–36, Gra-
nada, Spain.

[Nebro et al., 2007b] Nebro, A. J., Durillo, J. J., Luna, F., Dorronsoro, B., and Alba,
E. (2007b). Design issues in a multiobjective cellular genetic algorithm. In Oba-
yashi, S., Deb, K., Poloni, C., Hiroyasu, T., and Murata, T., editors, Evolutionary
Multi-Criterion Optimization. 4th International Conference, EMO 2007, volume 4403
of Lecture Notes in Computer Science, pages 126–140. Springer.

[Nebro et al., 2013c] Nebro, A. J., Durillo, J. J., Navas, M. M., Coello, C. A. C., and
Dorronsoro, B. (2013c). A study of the combination of variation operators in the
nsga-ii algorithm. In CAEPIA, pages 269–278.

[Nebro et al., 2015] Nebro, A. J., Durillo, J. J., and Vergne, M. (2015). Redesigning
the jmetal multi-objective optimization framework. In GECCO, pages 1093–1100.
ACM.
87

[Nebro et al., 2008] Nebro, A. J., Luna, F., Alba, E., Dorronsoro, B., Durillo, J. J., and
Beham, A. (2008). AbYSS: Adapting Scatter Search to Multiobjective Optimization.
IEEE Transactions on Evolutionary Computation, 12(4).

[Nicholson, 2007] Nicholson, T. A. J. (2007). Optimization in industry: Optimization techniques.


Aldine.

[Noorbin and Alfi, 2017] Noorbin, S. F. H. and Alfi, A. (2017). Adaptive parameter
control of search group algorithm using fuzzy logic applied to networked control
systems. Soft Computing.

[Ochoa et al., 2017] Ochoa, P., Castillo, O., and Soria, J. (2017). Differential Evolution
Using Fuzzy Logic and a Comparative Study with Other Metaheuristics, pages 257–
268. Springer International Publishing.

[Olivas et al., 2017a] Olivas, F., Valdez, F., and Castillo, O. (2017a). Gravitational
Search Algorithm with Parameter Adaptation Through a Fuzzy Logic System, pages
391–405. Springer International Publishing.

[Olivas et al., 2017b] Olivas, F., Valdez, F., Castillo, O., Gonzalez, C. I., Martinez, G.,
and Melin, P. (2017b). Ant colony optimization with dynamic parameter adaptation
based on interval type-2 fuzzy logic systems. Applied Soft Computing, 53:74 – 87.

[Oliveira and Vita, 2009] Oliveira, G. M. B. and Vita, S. S. B. V. (2009). A multi-


objective evolutionary algorithm with ǫ-dominance to calculate multicast routes with
qos requirements. In 2009 IEEE Congress on Evolutionary Computation, pages 182–
189.

[Peraza et al., 2015] Peraza, C., Valdez, F., and Castillo, O. (2015). Design of
Intelligent Systems Based on Fuzzy Logic, Neural Networks and Nature-Inspired
Optimization, chapter An Improved Harmony Search Algorithm Using Fuzzy Logic
for the Optimization of Mathematical Functions, pages 605–615. Springer.

[Pérez et al., 2015] Pérez, J., Valdez, F., and Castillo, O. (2015). Fuzzy Logic
Augmentation of Nature-Inspired Optimization Metaheuristics: Theory and
Applications, chapter A New Bat Algorithm with Fuzzy Logic for Dynamical Pa-
rameter Adaptation and Its Applicability to Fuzzy Control Design, pages 65–79.
Springer.

[Polya, 1971] Polya, G. (1971). How to solve it: A new aspect of mathematical method.
Princeton University Press Princeton, NJ.

[Price et al., 2005] Price, K., Storn, R., and Lampinen, J. (2005). Differential Evolution
A Practical Approach to Global Optimization. Natural Computing Series. Springer-
Verlag.

[Qin et al., 2009] Qin, A., Huang, V. L., and Suganthan, P. (2009). Differential evo-
lution algorithm with strategy adaptation for global numerical optimization. IEEE
Trans. on Evolutionary Computation, 2(13):398–417.

[Rao, 1987] Rao, S. (1987). Game theory approach for multiobjective structural opti-
mization. Computers & Structures, 25(1):119 – 127.
88

[Rao and Freiheit, 1991] Rao, S. and Freiheit, T. I. (1991). A modified game theory
approach to multiobjective optimization. Journal of Mechanical Design, 113:286 –
291.

[Raquel. and A., 2015] Raquel., H. G. and A., C. C. C. (2015). Improved metaheuristic
based on the r2 indicator for many-objective optimization. In Proceedings of the 2015
Annual Conference on Genetic and Evolutionary Computation, GECCO ’15, pages
679–686, New York, NY, USA. ACM.

[Reeves, 1993] Reeves, C. R. (1993). Modern heuristic techniques for combinatorial problems.
John Wiley & Sons, Inc. New York, NY, USA.

[Reyes and Coello Coello, 2005] Reyes, M. and Coello Coello, C. (2005). Improving
pso-based multi-objective optimization using crowding, mutation and ǫ-dominance.
In Coello, C., Hernández, A., and Zitler, E., editors, Third International Conference
on Evolutionary MultiCriterion Optimization, EMO 2005, volume 3410 of LNCS,
pages 509–519. Springer.

[Romero et al., 1998] Romero, C., Tamiz, M., and Jones, D. (1998). Goal programming,
compromise programming and reference point method formulations: linkages and
utility interpretations. Journal of the Operational Research Society, 49(9):986–991.

[Roy and Chakraborty, 2013] Roy, S. and Chakraborty, U. (2013). Introduction to soft
computing: : neuro-fuzzy and genetic algorithms. Dorling Kindersley.

[Saborido et al., 2017] Saborido, R., Ruiz, A. B., and Luque, M. (2017). Global wasf-ga:
An evolutionary algorithm in multiobjective optimization to approximate the whole
pareto optimal front. Evolutionary Computation, 25(2):309–349. PMID: 26855136.

[Santiago et al., 2016a] Santiago, A., Dorronsoro, B., Nebro, A. J., and Fraire, H.
(2016a). A multi-objective evolutionary algorithm with adaptive selection of opera-
tors. In Proceedings of META’2016 6th International Conference on Metaheuristics
and Nature Inspired computing, META, pages 446–448.

[Santiago et al., 2016b] Santiago, A., Dorronsoro, B., Nebro, A. J., and Fraire, H.
(2016b). Un nuevo método de estimación de densidad para problemas de optimi-
zación con tres objetivos usando metaheurı́sticas. In Actas de la XVII conferencia
de la asosiación española para la inteligencia artificial, MAEB, pages 345–354.

[Santiago et al., 2014] Santiago, A., Huacuja, H., Dorronsoro, B., Pecero, J., Santillan,
C., Barbosa, J., and Monterrubio, J. (2014). A survey of decomposition methods for
multi-objective optimization. In Castillo, O., Melin, P., Pedrycz, W., and Kacprzyk,
J., editors, Recent Advances on Hybrid Approaches for Designing Intelligent Systems,
volume 547 of Studies in Computational Intelligence, pages 453–465. Springer Inter-
national Publishing.

[Santiago et al., 2017] Santiago, A., Monterrubio, J. C. S., Terán-Villanueva, J. D.,


Huacuja, H. J. F., Barbosa, J. J. G., and Santillan, C. G. (2017). A neighborhood
operator for continuous multi-objective optimization problems. IJCOPI, 8(1):12–18.

[Schaffer, 1985] Schaffer, J. D. (1985). Multiple objective optimization with vector


evaluated genetic algorithms. In Proceedings of the 1st International Conference on
Genetic Algorithms, pages 93–100, Hillsdale, NJ, USA. L. Erlbaum Associates Inc.
89

[Schlichter et al., 2006] Schlichter, T., Lukasiewycz, M., Haubelt, C., and Teich, J.
(2006). Improving system level design space exploration by incorporating sat-solvers
into multi-objective evolutionary algorithms. In IEEE Computer Society Annual
Symposium on Emerging VLSI Technologies and Architectures (ISVLSI’06), pages
6 pp.–.

[Siegfried et al., 2009] Siegfried, T., Bleuler, S., Laumanns, M., Zitzler, E., and Kin-
zelbach, W. (2009). Multiobjective groundwater management using evolutionary
algorithms. IEEE Transactions on Evolutionary Computation, 13(2):229–242.

[Simon Huband and While, 2007] Simon Huband, Phil Hingston, L. B. and While, L.
(2007). A Review of Multi-objective Test Problems and a Scalable Test Problem
Toolkit. IEEE Transactions on Evolutionary Computation.

[Sipser, 2006] Sipser, M. (2006). Introduction to the Theory of Computation, 2nd


Edition. Course Technology PTR.

[Soto-Monterrubio et al., 2016] Soto-Monterrubio, J. C., Santiago, A., Fraire-Huacuja,


H., Frausto-Solı́s, J., and Terán-Villanueva, J. D. (2016). Branch and bound algo-
rithm for the heterogeneous computing scheduling multi-objective problem. IJCOPI,
7(3):7–19.

[Steuer and Choo, 1983a] Steuer, R. and Choo, E.-U. (1983a). An interactive weigh-
ted tchebycheff procedure for multiple objective programming. Mathematical
Programming, 26(3):326–344.

[Steuer and Choo, 1983b] Steuer, R. and Choo, E.-U. (1983b). An interactive weigh-
ted tchebycheff procedure for multiple objective programming. Mathematical
Programming, 26(3):326–344.

[Stewart et al., 2008] Stewart, T., Bandte, O., Braun, H., Chakraborti, N., Ehrgott, M.,
Göbelt, M., Jin, Y., Nakayama, H., Poles, S., and Di Stefano, D. (2008). Real-World
Applications of Multiobjective Optimization, pages 285–327. Springer Berlin Heidel-
berg, Berlin, Heidelberg.

[Storn and Price, 1995] Storn, R. and Price, K. (1995). Differential evolution - a sim-
ple and efficient adaptive scheme for global optimization over continuous spaces.
Technical Report TR-95-012.

[Straffin, 1993] Straffin, P. D. (1993). Game Theory and Strategy. Mathematical As-
sociation of America, Washington, DC.

[Talbi, 2009] Talbi, G. (2009). Metaheuristics: From Design to Implementation. Wiley.

[Thiele et al., 2002] Thiele, L., Chakraborty, S., Gries, M., and Künzli, S. (2002). A
framework for evaluating design tradeoffs in packet processing architectures. In Proc.
39th Design Automation Conference (DAC), pages 880–885, New Orleans, USA.
ACM Press.

[Tind and Wiecek, 1999] Tind, J. and Wiecek, M. (1999). Augmented lagrangian
and tchebycheff approaches in multiple objective programming. Journal of Global
Optimization, 14(3):251–266.
90

[Toscano Pulido and Coello Coello, 2003] Toscano Pulido, G. and Coello Coello, C.
(2003). The micro genetic algorithm 2: Towards online adaptation in evolutionary
multiobjective optimization. In Fonseca, C., Fleming, P., Zitzler, E., Thiele, L., and
Deb, K., editors, Evolutionary Multi-Criterion Optimization, volume 2632 of Lecture
Notes in Computer Science, pages 75–75. Springer Berlin / Heidelberg.

[Ulungu and Teghem, 1994] Ulungu, E. L. and Teghem, J. (1994). Multi-objective


combinatorial optimization problems: A survey. Journal of Multi-Criteria Decision
Analysis, 3(2):83–104.

[Valdez et al., 2014] Valdez, F., Melin, P., and Castillo, O. (2014). A survey on nature-
inspired optimization algorithms with fuzzy logic for dynamic parameter adaptation.
Expert Systems with Applications, 41(14):6459 – 6466.

[Veldhuizen and Lamont, 2000] Veldhuizen, D. A. V. and Lamont, G. (2000). On mea-


suring multiobjective evolutionary algorithm performance. In In 2000 Congress on
Evolutionary Computation, pages 204–211. press.

[Veldhuizen and Lamont, 1998] Veldhuizen, D. A. V. and Lamont, G. B. (1998). Evo-


lutionary computation and convergence to a pareto front. In Stanford University,
California, pages 221–228. Morgan Kaufmann.

[Vrugt and Robinson, 2007] Vrugt, J. and Robinson, B. (2007). Improved evolutio-
nary optimization from genetically adaptive multimethod search. Proceedings of the
National Academy of Sciences of the United States of America, 104(3):708–11.

[While et al., 2012] While, L., Bradstreet, L., and Barone, L. (2012). A fast way of
calculating exact hypervolumes. IEEE Transactions on Evolutionary Computation,
16(1):86–95.

[Wiegand, 2003] Wiegand, R. P. (2003). An analysis of cooperative coevolutionary


algorithms. PhD thesis, Citeseer.

[Wierzbicki, 1986] Wierzbicki, A. (1986). A methodological approach to comparing pa-


rametric characterizations of efficient solutions. In Fandel, G., Grauer, M., Kurzhans-
ki, A., and Wierzbicki, A., editors, Large-Scale Modelling and Interactive Decision
Analysis, volume 273 of Lecture Notes in Economics and Mathematical Systems,
pages 27–45. Springer Berlin Heidelberg.

[Wöhling and Vrugt, 2011] Wöhling, T. and Vrugt, J. (2011). Multi-response multi-
layer vadose zone model calibration using markov chain monte carlo simulation and
field water retention data. Water Resources Research, 77.

[Wolpert and Macready, 1997] Wolpert, D. H. and Macready, W. G. (1997). No free


lunch theorems for optimization. Trans. Evol. Comp, 1(1):67–82.

[Yang and Ding, 2007] Yang, Q. and Ding, S. (2007). Novel algorithm to calculate
hypervolume indicator of pareto approximation set. CoRR, pages –1–1.

[Yang et al., 2008] Yang, Z., Tang, K., and Yao, X. (2008). Large scale evolutionary
optimization using cooperative coevolution. Information Sciences, 178(15):2985 –
2999. Nature Inspired Problem-Solving.
91

[Yang et al., 2009] Yang, Z., Zhang, J., Tang, K., Yao, X., and Sanderson, A. C. (2009).
An adaptive coevolutionary differential evolution algorithm for large-scale optimiza-
tion. In 2009 IEEE Congress on Evolutionary Computation, pages 102–109.

[Yu and Leitmann, 1974] Yu, P. and Leitmann, G. (1974). Compromise solutions, do-
mination structures, and salukvadze’s solution. Journal of Optimization Theory and
Applications, 13(3):362–378.

[Yuan et al., 2016] Yuan, Y., Xu, H., Wang, B., and Yao, X. (2016). A new domi-
nance relation-based evolutionary algorithm for many-objective optimization. IEEE
Transactions on Evolutionary Computation, 20(1):16–37.

[Zadeh, 1965] Zadeh, L. (1965). Fuzzy sets. Information and Control, 8(3):338 – 353.

[Zeleny and Cochrane, 1982] Zeleny, M. and Cochrane, J. L. (1982). Multiple criteria
decision making, volume 25. McGraw-Hill New York.

[Zeng et al., 2010] Zeng, F., Low, M., Decraene, J., Zhou, S., and Cai, W. (2010). Self-
adaptive mechanism for multi-objective evolutionary algorithms. In Proceedings of
the International Conference on Artificial Intelligence and Applications, IMECS1́0,
pages 7–12.

[Zhang et al., 2016] Zhang, H., Zhou, A., Song, S., Zhang, Q., Gao, X. Z., and Zhang, J.
(2016). A self-organizing multiobjective evolutionary algorithm. IEEE Transactions
on Evolutionary Computation, 20(5):792–806.

[Zhang and Sanderson, 2009] Zhang, J. and Sanderson, A. C. (2009). Jade: Adap-
tive differential evolution with optional external archive. IEEE Transactions on
Evolutionary Computation, 13(5):945–958.

[Zhang and Li, 2007] Zhang, Q. and Li, H. (2007). MOEA/D: A multiobjective evo-
lutionary algorithm based on decomposition. IEEE Transactions on evolutionary
computation, 11(6):712–731.

[Zhang et al., 2009a] Zhang, Q., Liu, W., and Li, H. (2009a). The performance of a
new version of MOEA/D on CEC09 unconstrained mop test instances. Technical
Report CES-491, School of CS & EE, University of Essex.

[Zhang et al., 2008] Zhang, Q., Zhou, A., Zhao, S., Suganthan, P. N., Liu, W., and
Tiwari, S. (2008). Multiobjective optimization test instances for the cec 2009 spe-
cial session and competition. University of Essex, Colchester, UK and Nanyang
technological University, Singapore, special session on performance assessment of
multi-objective optimization algorithms, technical report, 264.

[Zhang et al., 2009b] Zhang, Q., Zou, A., Zhao, S., Suganthan, P., Liu, W., and Tivari,
S. (2009b). Multiobjective optimization test instances for the CEC 2009 special
session and competition”. Technical Report CES-491, School of CS & EE, University
of Essex.

[Zhang et al., 2015] Zhang, Y., Wang, S., and Ji, G. (2015). A comprehensive survey on
particle swarm optimization algorithm and its applications. Mathematical Problems
in Engineering, 2015.
92

[Zhao and Bose, 2002] Zhao, J. and Bose, B. K. (2002). Evaluation of membership
functions for fuzzy logic controlled induction motor drive. In IEEE 2002 28th Annual
Conference of the Industrial Electronics Society. IECON 02, volume 1, pages 229–234
vol.1.

[Zhou et al., 2006] Zhou, A., Jin, Y., Zhang, Q., Sendhoff, B., and Tsang, E. (2006).
Combining model-based and genetics-based offspring generation for multi-objective
optimization using a convergence criterion. In in Proceedings of the Congress on
Evolutionary Computation (CEC, pages 3234–3241. IEEE Press.

[Zitzler, 2000] Zitzler, E., D. K. T. L. (2000). Comparison of multiobjective evolutio-


nary algorithms: Empirical results. Trans. on Evol. Computation 8.

[Zitzler et al., 2007a] Zitzler, E., Brockhoff, D., and Thiele, L. (2007a). The hypervo-
lume indicator revisited: On the design of pareto-compliant indicators via weighted
integration. In Obayashi, S., Deb, K., Poloni, C., Hiroyasu, T., and Murata, T., edi-
tors, Evolutionary Multi-Criterion Optimization, pages 862–876, Berlin, Heidelberg.
Springer Berlin Heidelberg.

[Zitzler et al., 2007b] Zitzler, E., Brockhoff, D., and Thiele, L. (2007b). The Hy-
pervolume Indicator Revisited: On the Design of Pareto-compliant Indicators Via
Weighted Integration. In Obayashi, S. et al., editors, Conference on Evolutionary
Multi-Criterion Optimization (EMO 2007), volume 4403 of LNCS, pages 862–876,
Berlin. Springer.

[Zitzler and Künzli, 2004] Zitzler, E. and Künzli, S. (2004). Indicator-based selection
in multiobjective search. In Yao, X., Burke, E. K., Lozano, J. A., Smith, J., Merelo-
Guervós, J. J., Bullinaria, J. A., Rowe, J. E., Tiňo, P., Kabán, A., and Schwefel,
H.-P., editors, Parallel Problem Solving from Nature - PPSN VIII, pages 832–842,
Berlin, Heidelberg. Springer Berlin Heidelberg.

[Zitzler et al., 2001] Zitzler, E., Laumanns, M., and Thiele, L. (2001). SPEA2: Impro-
ving the strength pareto evolutionary algorithm. Technical Report 103, Computer
Engineering and Networks Laboratory (TIK), Swiss Federal Institute of Technology
(ETH), Zurich, Switzerland.

[Zitzler and Thiele, 1998] Zitzler, E. and Thiele, L. (1998). An evolutionary algorithm
for multiobjective optimization: The strength pareto approach.

[Zitzler and Thiele, 1999] Zitzler, E. and Thiele, L. (1999). Multiobjective evolutio-
nary algorithms: a comparative case study and the strength pareto approach. IEEE
Transactions on Evolutionary Computation, 3(4):257–271.

[Zitzler et al., 2009] Zitzler, E., Thiele, L., and Bader, J. (2009). On Set-Based Multiob-
jective Optimization. IEEE Transactions on Evolutionary Computation. to appear.

[Zitzler et al., 2003] Zitzler, E., Thiele, L., Laumanns, M., Fonseca, C. M., and da Fon-
seca, V. G. (2003). Performance assessment of multiobjective optimizers: an analysis
and review. IEEE Transactions on Evolutionary Computation, 7(2):117–132.

También podría gustarte