Está en la página 1de 8

1542 IEEE LATIN AMERICA TRANSACTIONS, VOL. 13, NO.

5, MAY 2015
Evaluation and Implementation of Heuristic
Algorithms for Non-Restricted Global
Optimization
E. Mesa, J. D. Velásquez and P. Jaramillo

Abstract— The aim of this paper is to present to those La premisa fundamental detrás de los métodos heurísticos
researchers and practitioners not familiarized with the design, es que una solución cercana al óptimo global es aceptable, y,
evaluation and use of heuristic algorithms for non-restricted non- consecuentemente, ellos (los métodos heurísticos) se usan para
linear global optimization, a set of hints that facilitate and promote
encontrar dichas soluciones aceptables aunque no exista
a better understanding of the difficulties associated with this
problem and the aspects related to successful use of a specific garantía de encontrar el óptimo global del problema [3].
heuristic algorithm. Aspects as the features of the objective Los métodos heurísticos han sido cuestionados y
function, sensibility to the values of the parameters, and the use of rechazados en los círculos más ortodoxos por ser métodos
plots for analyzing the behavior of an algorithm are discussed. directos tipo caja negra que en su mayoría no tienen una prueba
matemática teórica estricta que demuestra su convergencia, con
Keywords— Artificial intelligence, heuristics, algorithms contadas excepciones [4], [13]. No obstante, cuestionadas o no,
evaluation, optimization, algorithms validation.
las heurísticas han probado su capacidad para resolver en la
práctica problemas difíciles, tanto teóricos como reales
I. INTRODUCCIÓN
validando así su uso [3].

E N ciencias, matemáticas, economía e ingeniería, la


capacidad de solucionar problemas no lineales de
optimización continua ha jugado un rol fundamental en muchos
La postulación de un nuevo algoritmo heurístico o la
implementación de uno ya existente exige que se demuestre su
capacidad encontrar la solución global de problemas
de sus desarrollos [1]. Las primeras ideas de optimización se matemáticos ya estudiados, o al menos, soluciones
remontan a los inicios del cálculo diferencial, pero sólo hasta la suficientemente próximas; en el caso de una nueva
década de los 40’s, con el desarrollo de la programación lineal, implementación esto se debe probar para garantizar el correcto
la optimización se reconoce y formaliza como un área de funcionamiento de la misma, mientras que en el caso de una
investigación, la cual ha tenido un rápido desarrollo en lo que nueva heurística (propuesta novedosa, hibrido o modificación)
se refiere a métodos e implementaciones para la solución de es necesario ir más atrás, partiendo de la evaluación del método
problemas reales [2]. como tal (y partiendo del hecho que la implementación está
Usualmente, la solución de problemas de optimización, en libre de errores). Estas pruebas de convergencia del método
el mundo real, no es una tarea trivial. Es bien sabido que como tal se logran de dos formas: En la primera, se recurre a la
aspectos como la complejidad de la función objetivo, la demostración matemática de la convergencia del algoritmo a un
existencia de múltiples puntos locales de mínima, y las punto de óptima local. En la segunda, mediante experimentos
limitaciones mismas de los algoritmos, pueden llegar a hacer computacionales en que se demuestra la convergencia del
inviable, en términos de tiempo o costos computacionales, la algoritmo cuando se optimizan funciones conocidas; en este
solución de un problema particular [3]−[ 5]. último caso, se analiza el comportamiento del algoritmo para
Entre los algoritmos más tradicionales de optimización se criterios dados como la calidad de la respuesta encontrada, el
encuentran los basados en el uso de la primera y segunda esfuerzo computacional y robustez (entendida en el sentido de
derivadas de la función objetivo; pero, se sabe que dichas ser capaz de encontrar soluciones suficientemente buenas para
metodologías tienen la desventaja de quedarse atrapadas en los un número grande de problemas) [4], [14].
mínimos locales sin que puedan escapar de ellos. De ahí, que el El objetivo de este artículo es recopilar las principales
uso de algoritmos basados en heurísticas (tanto determinísticos pautas que se han utilizado en la literatura para la evaluación
como estocásticos) hayan venido ganando popularidad [1], [3]. empírica de algoritmos heurísticos de optimización; ya sea
Estos últimos incluyen técnicas clásicas como el recocido como métodos generales de optimización o como algoritmos
simulado [6], la búsqueda aleatoria [7], [8] y los algoritmos diseñados para problemas particulares. Si bien, este artículo no
evolutivos [9], así como desarrollos recientes, tales como: presenta elementos individuales estrictamente novedosos, la
enjambres de partículas [10], evolución diferencial, visión complementaria y unificadora que se logra al formular
quimiotactismo bacterial [11], evolución diferencial [12] y las pautas presentadas bajo un marco metodológico común, da
muchos otros. una perspectiva que no se logra por el análisis individual de
cada elemento. El interés primordial es presentar dichas pautas
______________________ bajo un marco único a todos aquellos profesionales e
E. Mesa, Universidad Nacional de Colombia, Sede Medellin, Colombia,
ejmesad@unal.edu.co
investigadores jóvenes que recién se inician en el campo de la
J. D. Velásquez, Universidad Nacional de Colombia, Sede Medellin, optimización no lineal y en el uso de algoritmos heurísticos. En
Colombia, jdvelasq@unal.edu.co este mismo sentido, la comprensión del cómo y del por qué en
P. Jaramillo, Universidad Nacional de Colombia, Sede Medellin, la evaluación empírica de algoritmos, ayuda a que el
Colombia, gpjarami@unal.edu.co
MESA et al.: EVALUATION AND IMPLEMENTATION OF 1543

investigador y el profesional ganen una mayor claridad de las al óptimo global del problema de optimización, está relacionada
posibles causas del éxito o fracaso de un algoritmo heurístico con la incapacidad de saber si ya se halló o no el óptimo global.
cuando es aplicado a la solución de un problema particular de Una de las principales causas de convergencia prematura es la
optimización. multimodalidad de la función objetivo, la cual puede causar que
La organización de este artículo está basada en las tres fases el algoritmo se oriente a buscar en regiones lejanas del óptimo
de desarrollo de un algoritmo heurístico: la implementación global, o que quede atrapado en un óptimo local. En las Fig.
inicial, la parametrización y la validación. En la Sección II se 1(a) a 1(e) se presentan varias funciones unimodales suaves
presenta la metodología propuesta. En la Sección III, se para las cuales resulta simple verificar si se está en el óptimo
describen la implementación. Luego, en la sección IV, se habla global. La Fig. 1(f) ejemplifica una función suave con varios
óptimos locales. En las Fig. 1(g) y 1(h) se ejemplifica la
sobre la parametrización, que se evalúa y lo deseable en esta
mutimodalidad que puede causar la convergencia prematura del
etapa. En la Sección V, se habla de la comparación de la
algoritmo.
heurística y en qué aspectos evaluarla. Las principales
2) Rugosidad de la función objetivo. Esta es interpretada
conclusiones son presentadas en la Sección VI.
como la inestabilidad de la superficie generada por la función
objetivo; o dicho de otra forma, como la fluctuación del signo
II. METODOLOGÍA DE PRUEBA
de su derivada. Es bien sabido, que mientras más rugosa es la
Las metaheurísticas –y las heurísticas en general– usualmente función, es más difícil optimizarla porque hay muy poca
no requieren implementaciones sofisticadas haciendo posible el información sobre la ubicación de los mínimos globales debido
modificar fácilmente código existente o realizar nuevas al cambio drástico de la función objetivo [15], [16]; véase la
implementaciones desde cero. Independientemente de que se Fig. 1(i). Funciones con alta rugosidad hacen inviable el uso de
trate de una heurística novedosa o de una nueva metodologías basadas en el gradiente, ya que dichas técnicas
implementación de una heurística bien conocida, deben quedan atrapadas en puntos de mínima local que usualmente
seguirse ciertos pasos tanto para evitar tanto errores de son muy cercanos al punto de inicio.
codificación como de parametrización. Adicionalmente, 3) Forma de la región en el vecindario donde se encuentra
también debe determinarse si la metaheurística es adecuada ubicado el óptimo global. Muchos métodos encuentran
para resolver el problema abordado. dificultades cuando el óptimo se encuentra ubicado en el medio
Acorde a lo encontrado en la literatura, se pueden definir de valles o regiones muy planas (o neutrales), lo que significa
tres grandes pasos: que distintos puntos cercanos tienen el mismo valor de la
• Implementación: Esta fase tiene como fin la escritura función objetivo; esta misma situación es válida cuando hay
de código libre de errores de cálculo y la verificación discontinuidades en la función objetivo, tal como se ilustra en
de la convergencia numérica del método la Fig. 1(j). La situación es mucho más difícil cuando el óptimo
implementado. se encuentra en el interior de un foso estrecho (como si fuese
• Parametrización: En esta fase se escogen los valores de una aguja) en medio de una región neutra (plana); véase la Fig.
los parámetros que sean más adecuados para resolver el 1(k). En este mismo sentido, se considera que una función es
problema de optimización abordado. engañosa cuando su derivada indica que el óptimo se encuentra
• Validación: en este caso se evalúa si la implementación en regiones lejanas de la posición del verdadero óptimo global;
realizada permite obtener resultados similares a los véase la Fig. 1(l) [15], [16].
obtenidos con otros métodos bien conocidos, para casos Las funciones que se consideran más difíciles de optimizar
de prueba que sean similares en características al combinan una alta rugosidad con la presencia de regiones
problema abordado. engañosas y la ubicación del óptimo global en fosos estrechos,
Para la mayoría de metaheurísticas, como se mencionó lo que equivale metafóricamente a buscar una aguja en un pajar
anteriormente, no hay una prueba de convergencia analítica; por [16]. Es importante considerar las características particulares de
lo tanto, además de verificar la correctitud de la implementación cada función de prueba, y en el caso de aplicación a un
y su convergencia numérica, es necesario evaluar la problema real, tomar en cuenta estas características para
convergencia del método desarrollado cuando se proponen escoger la función de prueba más adecuada. No por ello las
modificaciones a técnicas existentes o nuevos algoritmos. Para funciones de prueba consideradas como sencillas se hacen
todos estos casos se utilizan funciones benchmark bien innecesarias; ambos tipos de funciones (simples y complejas)
conocidas las cuales son seleccionadas de acuerdo a sus son requeridas durante las diferentes fases de desarrollo e
características (las cuales son discutidas a continuación). implementación de una metaheurística; las funciones más
sencillas ilustran claramente el funcionamiento de la heurística,
Características de las Funciones de Prueba
mientras que las más complejas prueban a cabalidad las
La evaluación de algoritmos heurísticos busca observar el ventajas y desventajas de la heurística, tal como el
comportamiento del método ante ciertas características de la comportamiento de los parámetros en distintas disposiciones.
función objetivo, las cuales podrían resultar problemáticas de
manejar. A continuación se describen los principales aspectos III. IMPLEMENTACIÓN INICIAL
relacionados con este tópico.
Las heurísticas tienen diferentes etapas en su desarrollo, que
1) Cantidad de óptimos que posee la función objetivo. La
convergencia prematura a óptimos locales que no corresponden van desde la idea original hasta el desarrollo de la
implementación final. La primera etapa tiene como fines la
1544 IEEE LATIN AMERICA TRANSACTIONS, VOL. 13, NO. 5, MAY 2015

implementación inicial de un prototipo computacional sin evaluar la implementación como tal, garantizando que no haya
errores de cálculo –el cual materializa el concepto abstracto que errores de cálculo en la implementación; y segundo, analizar la
da lugar a la heurística– y el análisis empírico de su convergencia del algoritmo con el fin de detectar las falencias
convergencia. derivadas de aspectos no considerados en el diseño preliminar
La realización de pruebas en las que se optimizan varias de la heurística.
funciones benchmark busca ajustar el prototipo computacional La convergencia del algoritmo se analiza desde diferentes
para conocer, comprender y ajustar la heurística, de manera que aspectos: el primer aspecto es la convergencia empírica que
se encuentren las ventajas y falencias de la aproximación muestre la estabilidad de la implementación frente al problema
planteada y de los aspectos claves que puede llevar a su éxito o donde el valor del mínimo encontrado se reduzca a medida que
fracaso. se itera (comportamiento asintótico) [17]. El segundo aspecto
corresponde a la sensibilidad de la heurística a los valores de
A. Funciones de Prueba
sus parámetros. Se busca establecer empíricamente los rangos
Las heurísticas son métodos de optimización tipo caja negra y de valores de cada uno de los parámetros del algoritmos para
no suelen tener un comportamiento que pueda ser analizado los cuales el algoritmo converge [18]. Y el tercer aspecto
usando herramientas matemáticas; por consiguiente, es corresponde a la sensibilidad del algoritmo al punto inicial [11].
necesario obtener una idea clara de su funcionamiento a partir Una forma para analizar la sensibilidad a los valores de los
del análisis de cómo dichas técnicas se comportan cuando se parámetros, consiste en graficar, en una o dos dimensiones, el
optimizan funciones de prueba de características bien contorno de la función, y para cada conjunto de valores de los
conocidas. parámetros, trazar la trayectoria desde un punto inicial fijo hasta
En la implementación inicial, se analiza el comportamiento el punto óptimo encontrado [9], [11], [14]. Por ejemplo, en la
del algoritmo cuando se optimizan funciones unimodales de Fig. 2 se ilustra la trayectoria de puntos encontrados por un
muy baja complejidad que se pueden rotar y trasladar algoritmo de minimización que usa un tamaño de paso fijo en
fácilmente, tal que, se pueda observar claramente el la dirección contraria al gradiente normalizado; se observa que
comportamiento de la heurística [11], [14]. Usualmente, las para el tamaño de paso utilizado se produce la oscilación del
funciones utilizadas pueden ser optimizadas utilizando técnicas algoritmo sin que converja al punto de óptima en (1,1). En este
basadas en gradientes. Un ejemplo típico es el modelo esférico caso se optimizó la función de Rosenbrock presentada en la Fig.
(Fig. 1(a)). 1(e) [14].
B. ¿Qué evaluar?
Las pruebas iníciales tienen dos fines específicos: primero,
(a) Esfera (b) Schwefel 2.22 (c) Schwefel 1.2
z

z
z

x y x y x y

(d) Schwefel 2.21 (e) Rosenbrock (f) Styblinsky-Tang


z
z

x y x y x y

Figura 1. Funciones bidimensionales.


MESA et al.: EVALUATION AND IMPLEMENTATION OF 1545

(g) Rastrigin (h) Schwefel 2.2.6 (i) Quartic Noise

z
z
z

x y x y x y

(j) Step (k) Easom (l) Shaffer F7


z
z

z
x y x x y
y

(m) Beale (n) Bohachevsky1 (o) Levy13


z

x y x y x y

(p) Griewank (q) BukinF6 (r) Chichinadze


z

x x x
y y
y

Figura 1. Funciones bidimensionales (Continuación).


1546 IEEE LATIN AMERICA TRANSACTIONS, VOL. 13, NO. 5, MAY 2015

Una vez se tiene información sobre la sensibilidad a los función a optimizar es recomendable hacer un estudio general
valores de los parámetros, se analiza la sensibilidad al punto de los parámetros que permita su modificación de acuerdo al
inicial. En este caso, para valores fijos de los parámetros, se comportamiento de la misma.
realizan corridas independientes desde puntos de inicio
B. Tipos de Pruebas y Gráficos
generados aleatoriamente. En ambos tipos de pruebas
(sensibilidad a los valores de los parámetros y sensibilidad al Con la información de las pruebas iniciales, de acuerdo a la
punto de inicio) se hacen varias corridas independientes para sensibilidad mostrada y el funcionamiento observado para las
garantizar que el comportamiento exitoso de la heurística no sea funciones escogidas en las pruebas iniciales, se pueden
meramente accidental. Si es método es determinístico, con una determinar la cantidad de iteraciones requeridas y los rangos de
sola corrida bastará [9], [19]. valores para los parámetros. Con los rangos dados para los
Un análisis más detallado puede realizarse al graficar un diferentes parámetros se construyen gráficas que permiten
estadístico calculado sobre el conjunto de valores de la función observar el comportamiento de cada parámetro para el rango de
objetivo para cada corrida independiente en la iteración t versus valores permitiendo analizar la estabilidad del parámetro en el
t. Entre los estadísticos más usados se encuentran la media, la algoritmo [10].
mediana, la desviación estándar y el porcentaje de error. Un No sólo es importante la comparación para diferentes
ejemplo de este tipo de gráficas es presentado en la Fig. 3 donde valores de cada parámetro, sino también es importante
se grafican la media y la desviación estándar. En cualquier caso, comparar el funcionamiento con el número de iteraciones y
estas gráficas suponen un comportamiento exponencial, otros parámetros relacionados entre sí; en la Fig. 4 se grafica el
conocido como convergencia asintótica [9], [20]. Estas gráficas valor promedio de mínimo encontrado para dos parámetros alfa
también permiten analizar la calidad de respuesta obtenida y y lambda de la heurística supernova; en este caso, la relación es
hacer una comparación inicial con otros métodos. para cada iteración y se calcula un nuevo lambda de la siguiente
manera = ; a partir de esta gráfica se puede concluir
IV. PARAMETRIZACIÓN los valores mas adecuados para los diferentes parámetros. Para
la Fig. 4 se observa que = 1.1 tiene un comportamiento más
Los valores fijados para los parámetros en las heurísticas son de estable y el mejor promedio esta para ~400 [19].
suma importancia pues tienen un efecto directo sobre el proceso
de búsqueda y la solución encontrada. La selección de los V. VALIDACIÓN
valores adecuados de los parámetros para una nueva heurística En la fase de validación, la heurística está lista para que su
es un proceso de ensayo y error. Este es un proceso de desempeño sea evaluado. Este desempeño, cuando es una
depuración en el que se busca encontrar rangos de valores heurística desarrollada para un problema específico, se puede
óptimos, expresar parámetros como función de otros, o medir mostrando su eficiencia en tiempo y en calidad de
proponer ecuaciones en función de la dimensión del problema, respuesta para el problema mismo. Para una heurística más
tal que se pueda realizar la optimización eficiente de los general, se puede comparar con una o dos heurísticas para las
problemas propuestos [3], [21]. que se ha reportado en la literatura el mejor desempeño en
diferentes aspectos [10]–[12], [22], [24].
A. Funciones de Prueba
Durante esta fase se requiere que el algoritmo sea probado
para diferentes tipos de funciones cuyas características difieran
entre sí [12], [22]:
• Funciones continuas unimodales.
• Funciones continuas multimodales
• Funciones discontinuas como la función de paso
Se recomienda tomar en esta fase al menos una función de
cada tipo. Por ejemplo, el test de De Jong esta conformado por
cinco funciones de prueba: dos unimodales, una discontinua y
dos multimodales; todas ellas tiene características diferentes y
proveen la información necesaria para dar, al menos, los rangos
de los valores que pueden tomar los parámetros para el
funcionamiento óptimo de una heurística [10], [23].
En el caso de desarrollar un método de optimización para un
tipo de problema particular, las funciones de prueba deben Figura 2. Trayectoria de búsqueda del método de gradiente simple.
parametrizarse para obtener características parecidas a las del
problema particular abordado; por ejemplo, si el problema es
caracterizado por la presencia de regiones planas donde el
gradiente es cercano a cero, se puede utilizar la función de
Rosenbrock que presenta este tipo de característica (véase la
Fig. 1(e)). En el caso de no tener ninguna información sobre la
MESA et al.: EVALUATION AND IMPLEMENTATION OF 1547

mínimos cerca de los bordes de la región de búsqueda, regiones


planas que suponen una gran dificultad para los algoritmos,
funciones no simétricas, puntos de mínimo no enteros; estas
características presuponen diferentes tipos de retos para los
métodos de optimización.
B. Características a comparar
Tradicionalmente sea usado la comparación directa del
promedio o de la mediana del valor óptimo encontrado para, al
menos, 50 corridas independientes que usan parámetros
similares [5], [11], [24], [28].
Otros autores proponen usar otros tipos de pruebas, tales
como las no paramétricas [25]; estas buscan dar mayor
información sobre los métodos evaluados que la simple
Figura 3. Gráfica del promedio y desviación versus llamada a la función comparación directa. Los test más populares son el de
objetivo. Wilcoxon, el cual permite la comparación entre dos
metaheurísticas; y el test de Friedman [29] para la comparación
entre tres o más heurísticas. En el caso de la optimización
global, particularmente para funciones multimodales y
multidimensionales se esperaría también medir un factor de
distancia del mínimo global.
En estas pruebas las dimensiones juegan un papel
importante para validar la robustez del algoritmo evaluado; no
solo el funcionamiento para pocas dimensiones garantiza un
buen funcionamiento a nivel multidimensional [4].

VI. CONCLUSIONES
Las pautas claras y precisas en la evaluación del desarrollo de
los algoritmos heurísticos no lineales permiten una validación
Figura 4. Valor promedio del mínimo encontrado para diferentes parámetros. robusta y confiable.
Las pruebas propuestas en el artículo se organizaron de
A. Funciones de Prueba acuerdo a las fases de desarrollo recopilando diferentes
En el caso de una heurística desarrollada para problemas aspectos presentados por autores que han desarrollado
generales, debe probarse para la mayor cantidad de heurísticas y métodos de validación.
características posibles, aunque, desde luego no se espera que En las diferentes etapas del proceso, implementación,
funcione bien para toda clase de funciones, pero, si debe tener parametrización y validación, se analizaron diferentes aspectos.
un desempeño eficiente en al menos un porcentaje alto de ellos Inicialmente, se plantearon pruebas para encontrar errores en la
[5], [25]. En este caso existen muchas funciones que se tienen implementación y ganar un conocimiento sobre el
como prueba y varios autores presentan recopilaciones. Por funcionamiento general de la heurística, luego, se presentaron
ejemplo, Schwefel presenta una recopilación de 70 problemas funciones de prueba y experimentos computacionales que
divididos en tres partes de acuerdo a las características [26]; permiten un conocimiento profundo del funcionamiento de los
otras recopilaciones han sido realizadas por Törn y Zilinkas [3] parámetros y finalmente se plantean varias funciones de prueba
y Schwefel [5]; recientemente se tiene los conjuntos de para comparar los resultados propios con los de otras
funciones de prueba usados en las competencias del Congreso heurísticas, estos resultados son fruto de las etapas anteriores
de Computación Evolutiva de la IEEE, siendo el conjunto de que permiten encontrar el funcionamiento óptimo de la
funciones del año 2005 el más usado [27] . heurística para cada problema escogido, mostrando fortalezas
En las Fig. 1(m) a (1r) se presentan varias funciones que particulares respecto a otros métodos.
tienen características especiales que las hace deseables para la
prueba de métodos de optimización no lineal continua, como
1548 IEEE LATIN AMERICA TRANSACTIONS, VOL. 13, NO. 5, MAY 2015

TABLA I. DEFINICIÓN DE LAS FUNCIONES DE PRUEBA.

RANGO DE
NOMBRE ECUACIÓN ( )
BÚSQUEDA

ESFERA ( )= [-600, 600] [0,…,0] 0.0

SCHWEFEL 2.22 ( )= | |+ | | [-10, 10] [0,…,0] 0.0

SCHWEFEL 1.2 ( )= [-100, 100] [0,…,0] 0.0

SCHWEFEL 2.21 ( ) = max | |, 1 ≤ ≤ [-100, 100] [0,…,0] 0.0

ROSENBROCK ( )= [100( − ) +( − 1) [-30, 30] [1,…,1] 0.0

1
STYBLINSKY-T. ( )= ( − 16 +5 − − 16 +5 ) [-5,15] [-2.903,-2.903] -78.332
2

RASTRING ( )= [ − 10 cos(2 ) + 10 [-5.12,5.12] [0,…,0] 0.0

SCHWEFEL 2.26 ( )=− sin | | [-500, 500] [420.97,…,420.97] -12569.5

QUADRATIC
( )= + [0,1) [-1.28,1.28] [0,…,0] 0.0
NOISE

STEP FUNCTION ( )= ( + 0.5 ) [-100, 100] [0,…,0] 0.0

EASOM ( ) = − cos( ) cos( ) exp(−( − ) −) ( − ) ) [-100, 100] [-π, π] -1.0

SHAFFER F7 ( )= sin 50 +1 [-100, 100] [0,…,0] 0.0

BEALE ( ) = (1.5 − + ) + (2.25 − + ) + (2.625 − + ) [-4.5,4.5] [3,0.5] 0.0

BOHACHEVSKY1 ( , )= +2 − 0.3 cos(3 ) − 0.4 cos(4 ) + 0.7 [-100, 100] [0,…,0] 0.0

( ) = sin (3 ) + ( − 1) [1 + sin (3 )
LEVY 13 + ( − 1) [1 + sin (2 ) [-10, 10] [1,…,1] 0.0

GRIEWANK ( ) − cos +1 [-600, 600] [0,…,0] 0.0


4000 √

BUKIN F6 ( ) = 100 | − 0.01 | + 0.01| + 10| [-15,5] [-3,3] [-10,1] 0.0

( )= − 12 + 11 + 10 cos
2
CHICHINADZE 1 ( − 0.5) [-30,30] [5.901,0.5] -43.3159
+ 8 sin(5 )− exp −
√5 2
MESA et al.: EVALUATION AND IMPLEMENTATION OF 1549

REFERENCIAS evolutionary and swarm intelligence algorithms, ” Swarm and


Evolutionary Computation, vol. 1, no.1, pp 3─18, 2011.
[1] P. M. Pardalos and M. G. C. Resende, Handbook of Applied
Optimization. Oxford University Press, 2002.
[2] D. Pierre, Optimization Theory with Applications. Dover, 1986, p. 612. Eddy Mesa is a PhD student in systems engineering in the
[3] A. Zilinskas and A. Törn, “Global Optimization,” in Lecture Notes in National University of Colombia, Medellin. She received her
Computer Science vol 350, G. Goos and J. Hartmanis, Eds. Berlin: undergraduate degree in mechanical engineering from
Springer, 1989, p. 255. Universidad de Antioquia in 2007, and a M.Sc. in systems
[4] D. Himmelblau, Applied Nonlinear Programming. McGraw hill, 1972, engineering from National University of Colombia, Medellin, in
p. 498. 2010. She is a researcher in metaheuristics and operations
[5] W. G. Macready and D. H. Wolpert, “What makes an optimization research.
problem hard?,” Complex., vol. 1, no. 5, pp. 40–46, 1996.
[6] S. Kirkpatrick, C. D. Gelatt, and M. P. Vecchi, “Optimization by
Simulated Annealing,” Science, New Series, vol. 220, no. 4598, pp. 671– Patricia Jaramillo is an Associated Professor in Universidad
680, 1983. Nacional de Colombia – Sede Medellín, Medellín, Colombia.
[7] F. J. Solis and R. J.-B. Wets, “Minimization by Random Search She received a M.Sc. and a PhD in Water and Natural Resourses
Techniques,” Mathematics of Operations Research, vol. 6, no. 1, pp. 19– Planning from Universidad Politécnica de Valencia in 1996 and
30, 1981. 1999 respectively Her current research interests are
[8] J. Matyas, “Random Optimization,” Automation and Remote Control, metaheurisitcs, operational research, conflict solution, hard
vol. 26, pp. 244–251, 1965. decision making.
[9] T. Bäck, Evolutionary Algorithms in Theory and Practice. Oxford
University press, 1996, p. 328.
[10] J. Kennedy and R. Eberhart, “Particle swarm optimization,” in IEEE Juan D. Velásquez received the Engineering degree in Civil
International Conference on Neural Networks, 1995, 1995, vol. 11, pp. Engineering in 1994, the MS degree in Systems Engineering in
1942–1948. 1997, and the PhD degree in Energetic Systems in 2009, all of
[11] S. D. Muller, J. Marchetto, S. Airaghi, and P. Kournoutsakos, them from the Universidad Nacional de Colombia. Medellin,
“Optimization Algorithms based on a Model of Bacterial Chemotaxis,” Colombia. From 1994 to 1999, he worked for electricity utilities
in proceeding of 6th Int. Conf. Simulation of Adaptive Behavior: From and consulting companies within the power sector and since
Animals to Animats, SAB 2000, 2000, pp. 375–384. 2000 for the Universidad Nacional de Colombia. Currently, he is a Titular
[12] V. Feoktistov, Differential Evolution. Springer, 2006. Professor in the Computing and Decision Sciences Department, Facultad de
[13] T. G. Kolda, R. M. Lewis, and V. Torczon, “Optimization by direct Minas, Universidad Nacional de Colombia. His research interest includes:
search: New perspectives on some classical and modern methods,” SIAM simulation, modeling and forecasting in energy markets; nonlinear time-series
Review, vol. 45, pp. 385–482, 2003. analysis and forecasting using statistical and computational intelligence
[14] J. S. R. Jang, C. T. Sun, and E. Mizutan, Neuro-fuzzy and soft computing. techniques; and optimization using metaheuristics.
Prentice Hall, 1996.
[15] X.-S. Yang, Engineering Optimization An Introduction with
Metaheuristics Applications. Hoboken: Wiley, 2010.
[16] Z. Michalewicz and M. Schoenauer, “Evolutionary algorithms for
constrained parameter optimization problems,” Evolutionary
Computation, vol. 4, pp. 1–32, 1996.
[17] D. B. Fogel, “Asymptotic convergence properties of genetic algorithms
and evolutionary programming: analysis and experiments,” Cybernet
Systems, vol. 25, pp. 389–407, 1994.
[18] E. Eiben, R. Hinterding, and Z. Michalewicz, “Parameter control in
evolutionary algorithms,” IEEE Transactions on Evolutionary
Computation, vol. 3, no. 2, pp. 124–141, Jul. 1999.
[19] E. Mesa, “Supernova : un algoritmo novedoso de optimización global,”
M.S. thesis, Facultad de Minas, Universidad Nacional de Colombia,
2010.
[20] D. Fogel, “Asymptotic Convergence properties of genetic algorithms and
evolutionary programming:Analysis and experiments,” cybernetic and
systems: An international journal, vol. 25, pp. 389–407, 1994.
[21] O. Kramer, Self-adaptative Heuristics for Evolutionary Computation,
First Ed. Berlin: springer, 2008, p. 175.
[22] T. Bäck and H.-P. Schwefel, “An overview of evolutionary algorithms
for parameter optimization,” Evolutionary Computation, vol. 1, no. 1, pp.
1–23, 1993.
[23] K. De Jong, “Analysis of the behavior of a class of genetic adaptative
systems,” The University of Michigan, 1975.
[24] O. K. Erol and I. Eksin, “A new optimization method: Big bang-Big
crunch,” Advances in Engineering Software, vol. 37, no. 2, pp. 106–111,
2006.
[25] S. García, D. Molina, M. Lozano, and F. Herrera, “A study on the use of
non-parametric tests for analyzing the evolutionary algorithms’
behaviour: a case study on the CEC'2005 Special Session on Real
Parameter Optimization,” Journal of Heuristics, vol. 15, no. 6, pp. 617–
644, 2009.
[26] H. P. Schwefel, Evolution and Optimun Seeking. John Wiley and sons
Inc., 1993.
[27] P. N. Suganthan, N. Hansen, J. J. Liang, K. Deb, Y. -P. Chen, A. Auger
and S. Tiwari, Kanpur Genetic Algorithms Laboratory, IIT Kanpur,
Tech. Rep. KanGAL 2005005, May, 2005.
[28] P. Winker, Optimization Heuristic in Econometrics. Wiley, 2001.
[29] J. Derrac, S. García, D. Molina and F. Herrera, “A practical tutorial on
the use of nonparametric statistical tests as a methodology for comparing

También podría gustarte