Está en la página 1de 8

Búsquedas Dispersa y de Entorno Variable en Minería de Datos

Miguel García Torres, Belén Melián Batista, José A. Moreno Pérez,


J. Marcos Moreno Vega, Raquel Rivero Martín
Dept. de Estadística, I.O. y Computación
Universidad de La Laguna
38271 La Laguna
{mgarciat,mbmelian,jamoreno,jmmoreno}@ull.es,rrivero@arrakis.es

Resumen cados en este contexto. Sin embargo, otras


metaheurísticas más desconocidas están alcan-
Las Metaheurísticas están alcanzando cada zando éxitos relevantes en diversos campos,
vez más relevancia en la aplicación de téc- entre ellos la minería de datos. Dos de es-
nicas de Aprendizaje Automático en tareas tas metahaueríscas son la Búsqueda Disper-
minería de datos para el descubrimiento de sa [20] (Scatter Search, SS) y la Búsqueda de
conocimiento en grandes bases de datos. Dos Entorno Variable [17] (Variable Neighbourhood
de las metaheurísticas recientes que han alcan- Search, VNS) que cuentan con elementos es-
zado éxitos relevantes en diversos campos de pecícos para obtener ventaja del conocimien-
aplicación son la metaheurística de Búsqueda to del problema.
Dispersa o Scatter Search (SS) y la Búsqueda El artículo está organizado del siguiente mo-
de Entorno Variable o VNS (Variable Neigh- do; en la sección siguiente se introducen las
bourhood Search). En este trabajo presenta- metaheurísticas de búsqueda entorno variable
mos las experiencias realizadas en la aplicación (Variable Neighbourhood Search, VNS) y de
de estas técnicas en comparación con otras búsqueda dispersa (Scatter Search, SS). La
más usuales en Aprendizaje automático. Las sección 3 se describen los aspectos principales
tareas contempladas en los estudios realiza- de las aplicaciones de estas metaheurísticas en
dos se incluye el agrupamiento o clustering, la el campo de la búsqueda dispersa, consideran-
clasicación supervisada, la selección de vari- do los paradigmas del agrupamiento o cluster-
ables y la selección de instancias. ing, la classicaación supervisada, la selección
de características y la reducción de datos. En
1. Introducción la sección 4 describimos con algo más de de-
talle la aplicación en la selección de variables
El procesamiento inteligente de la informa- para la clasicación supervisada. Finalmente,
ción actualmente requiere de herramientas in- en al última sección, se exponen las conclu-
teligentes de Minería de Datos para extraer la siones.
información útil almacenada en grandes bases
de datos. Los procedimientos heurísticos están
siendo cada vez más importantes en la apli- 2. Las Metaheurísticas SS y VNS
cación de técnicas de Aprendizaje Automáti-
co en Minería de Datos [1]. Las metaheurísti- Las metaheurísticas son estrategias in-
cas son pautas inteligentes para construir pro- teligentes para diseñar o mejorar procedimien-
cedimientos heurísticos generales en la resolu- tos heurísticos muy generales con un alto
ción de problemas [21]. Los algoritmos genéti- rendimiento [21]. El término metaheurística
cos son los métodos más generalmente apli- apareció por primera vez en el artículo sem-

Actas del III Taller Nacional de Minería de Datos y Aprendizaje, TAMIDA2005, pp.309-316
ISBN: 84-9732-449-8 © 2005 Los autores, Thomson
310 III Taller de Minería de Datos y Aprendizaje

inal sobre búsqueda Tabú de Fred Glover en • Robusta. El comportamiento de la meta-


1986 [13]. A partir de entonces han surgido heurística debe ser poco sensible a pe-
multitud de propuestas de pautas para dis- queñas alteraciones del modelo o contexto
eñar buenos procedimientos para resolver cier- de aplicación.
tos problemas que, al ampliar su campo de
aplicación, han adoptado la denominación de • Interactiva. La metaheurística debe per-
metaheurísticas [2]. mitir que el usuario pueda aplicar sus
Las propiedades de las distintas meta- conocimientos para mejorar el rendimien-
heurísticas reejan el interés práctico y teóri- to del procedimiento.
co de las mismas. Las propiedades deseables
indicarán direcciones a las que dirigir los es- • Múltiple. La metaheurística debe sumin-
fuerzos para contribuir al desarrollo cientí- istrar diferentes soluciones alternativas de
co e ingenieril del área. Una relación de alta calidad entre las que el usuario pueda
tales propiedades, algunas de ellas parcial- elegir.
mente contrapuestas, incluir las siguientes:
• Autónoma. La metaheurística debe per-
mitir un funcionamiento autónomo, libre
• Simple. La metaheurística debe estar
de parámetros o que se puedan establecer
basada en un principio sencillo y claro;
automáticamente.
fácil de comprender.
Varias de estas propiedades están muy rela-
• Precisa. Los pasos y fases de la meta-
cionadas y apuntan en la misma dirección
heurística deben estar formulados en tér-
por lo que pueden agruparse. La simplici-
minos concretos.
dad, la precisión y la coherencia contribuyen
a facilitar su aplicabilidad. La evaluación del
• Coherente. Los elementos de la meta-
rendimiento debe atender tanto a la ecien-
heurística debe deducirse naturalmente
cia como a la efectividad y ecacia de los pro-
de sus principios.
cedimientos heurísticos obtenidos. La aplica-
• Efectiva. Los algoritmos derivados de la bilidad de una metaheurística debe estar sus-
metaheurística deben proporcionar solu- tentada en la generalidad, pero también en
ciones de muy alta calidad; óptimas o muy su adaptabilidad y robustez. Para favorecer la
cercanas a las óptimas. utilidad de la metaheurística en la resolución
de problemas reales, por ejemplo incorporán-
• Ecaz. La probabilidad de alcanzar solu- dolo a Sistemas de Ayuda a la Decisión, son
ciones óptimas de casos realistas con la importantes las propiedades de inetarctividad
metaheurística debe ser alta. multiplicidad y autonomía que propician un
interface amigable para distintos campos de
• Eciente. La metaheurística debe realizar aplicación.
un buen aprovechamiento de recursos Varias de las metaheurísticas más rele-
computacionales; tiempo de ejecución y vantes son estrategias para diseñar procesos
espacio de memoria. de búsqueda heurística basados en movimien-
tos o transformaciones de las alternativas que
• General. La metaheurística debe ser uti- determinan una estructura de entornos en
lizable con buen rendimiento en una am- el espacio de soluciones. La Búsqueda de
plia variedad de problemas. Entorno Variable (Variable Neighbourhood
Search, VNS) es una metaheurística propues-
• Adaptable. La metaheurística debe ser ca- ta recientemente [18], [16], [17] que está basada
paz de adaptarse a diferentes contextos de en un principio simple: cambiar sistemática-
aplicación o modicaciones importantes mente de estructura de entornos dentro de la
del modelo. búsqueda.
III Taller Nacional de Minería de Datos y Aprendizaje, TAMIDA2005 311

Una estructura de entornos en el espacio de Inicialización


soluciones de un problema es una aplicación Seleccionar el conjunto de estructuras de en-
que asocia a cada solución el entorno de las tornos Nk , k = 1, ..., kmax , que se usarán en el
soluciones vecinas que se obtiene por uno de descenso; encontrar una solución inicial x;
los movimientos considerados. Las metaheurís- Iteraciones
ticas de búsqueda local aplican un movimiento Repetir, hasta que no se obtenga mejora, la
de mejora a la solución de búsqueda utilizando siguiente secuencia:
una estructura de entornos. Los entornos Nk
pueden ser inducidos por una o más métricas (1) Hacer k ← 1;
introducidas en el espacio de soluciones X .
(2) Repetir, hasta que k = kmax , los pasos:
La VNS está basada en tres hechos simples:
(a) Exploración del entorno Encontrar
1. Un mínimo local con una estructura de
la mejor solución x0 del k-ésimo en-
entornos no lo es necesariamente con otra.
torno de x (x0 ∈ Nk (x));
2. Un mínimo global es mínimo local con to- (b) Moverse o no Si la solución obtenida
das las posibles estructuras de entornos. x0 es mejor que x, hacer x ← x0 y
k ← 1; en otro caso, hacer k ← k +1.
3. Para muchos problemas, los mínimos lo-
cales con la misma o distinta estructura
de entornos están relativamente cerca. Figura 1: VNS Descendente; VND

Una búsqueda local determina una mejor


solución del entorno de la solución actual y anidados. Obsérvese que la solución x0 se ge-
queda atrapada en un óptimo local con re- nera al azar en el paso (2a) para evitar el cicla-
specto a la estructura de entornos utilizada. do, que puede ocurrir si se usa cualquier regla
La búsqueda de entorno variable descendente determinística.
(VND) realiza un cambio de estructura de en- La Búsqueda Dispersa [19], [20] es una
tornos de forma determinística cada vez que se metaheurística basada en un pequeño conjun-
llega a un mínimo local. Los pasos de la VND to de buenas soluciones, el conjunto de refer-
se muestran en la gura 2. encia, que evoluciona mediante la combinación
La solución nal proporcionada por el algo- inteligente de sus elementos. Los principios de
ritmo es un mínimo local con respecto a todas la búsqueda dispersa fueron introducidos en
las kmax estructuras de entornos, y por tanto los años 70 como una extensión de ciertas for-
la probabilidad de alcanzar un mínimo global mulaciones para la combinación de reglas de
es mayor que usando una sola estructura. decisión y restricciones de problemas [14].
La búsqueda de entorno variable general Las soluciones del conjunto de referencia
combina cambios determinísticos y aleatorios Ref Set debe estar constituido por buenas
de estructura de entornos. Mediante cambios soluciones distribuidas por todo el espacio de
sistemáticos en la estructura de entornos en soluciones. Este conjunto es generado atendi-
la búsqueda descendente se alcanzan mínimos endo a criterios de calidad y diversidad. Estos
locales con respecto a varias estructuras de en- criterios son tanto calidad en función el valor
tornos y mediante cambios sistemáticos en un de la función objetivo, lo que permite incidir
proceso de agitación se escapa de sus zonas de en la intensicación de la de búsqueda, como
atracción. Los pasos de una VNS general se de dispersión en función de las diferencias con
muestran en la gura 2. el resto de soluciones, lo que incide en la di-
La condición de parada puede ser, por ejem- versicación del proceso. Ciertos subconjuntos
plo, el máximo tiempo de CPU permitido, el de Ref Set proporcionan nuevas soluciones que
máximo número de iteraciones, o el máximo una vez mejoradas e introducidas en Ref Set
número de iteraciones entre dos mejoras. Fre- lo hacen evolucionar. La actualización del con-
cuentemente los entornos Nk sucesivos están junto de referencia se realiza atendiendo a am-
312 III Taller de Minería de Datos y Aprendizaje

Inicialización La Figura 3 resume una implementación


Seleccionar un conjunto de estructuras de en- básica de la metaheurística de búsqueda dis-
tornos Nk , para k = 1, ..., kmax , que se us- persa.
arán en la agitación; seleccionar un conjun-
to de estructuras de entornos N 0 j , para j =
1, ..., jmax , que se usarán en el descenso; encon- procedimiento Búsqueda Dispersa
trar una solución inicial x; elegir una condición begin
de parada; Generación de la Población;
Iteraciones Generación del Conjunto de Referencia;
Repetir, hasta que se cumpla la condición de repeat
parada, la siguiente secuencia: repeat
(1) Hacer k ← 1; Método de Generación de Subconjuntos;
Método de Combinación de Soluciones;
(2) Repetir, hasta que k = kmax , los pasos: Método de Mejora;
until (CriterioP arada1);
(a) Agitación Generar al azar una solu- Método de Actualización del Conjunto de
ción x0 del entorno Nk (x); Referencia;
(b) Búsqueda local Aplicar la VND con until (CriterioP arada2);
las estructuras de entornos N 0 j , para end.
j = 1, ..., jmax ; denótese con x00 la
solución así obtenida. Figura 3: Búsqueda Dispersa
(c) Moverse o no Si la solución obtenida
x00 es mejor que x, hacer x ← x00 y
k ← 1; en otro caso, hacer k ← k +1.
El algoritmo comienza generando una
población de buenas soluciones diversas me-
Figura 2: VNS General; GVNS diante la ejecución del Método de Generación
y el Método de Mejora. El conjunto de refer-
encia se genera mediante la selección de las b
bos criterios de forma simultánea lo que per- (b = b1 +b2 ) mejores soluciones de la población
mite al procedmiento proporcionar un conjun- atendiendo tanto al criterio de calidad del val-
to de buenas soluciones en vez de una única or de la función objetivo como al criterio de
solución heurística tal como sucede con otros diversidad. En primer lugar se seleccionan las
procedimientos metaheurísticos. b1 soluciones de la población con mejores val-
El procedimiento de búsqueda dispersa in- ores de la función objetivo. Seguidamente, se
cluye cinco métodos principales: Método de seleccionan las b2 soluciones de la población
Generación, que proporciona soluciones dis- más dispersas con respecto a las soluciones
persas en todo en el espacio de soluciones; incluidas en el conjunto de referencia. Una
Método de Mejora, que mejorar una solución vez construido el conjunto de referencia, se
dada para obtener un óptimo local; Método generan diversos subconjuntos de soluciones
de Selección, que selecciona los subconjuntos del mismo que serán utilizados para la ejecu-
de soluciones del conjunto de referencia que ción del Método de Combinación. Se combi-
serán combinadas; y Método de Combinación, nan entonces las soluciones de cada uno de los
que combina las soluciones de los subconjuntos subconjuntos obtenidos para obtener nuevas
de soluciones y Método de Actualización, que soluciones que se mejoran mediante el Método
actualiza el conjunto de referencia con el re- de Mejora. Finalmente, el Método de Actual-
sultado de las combinaciones. Una descripción ización del Conjunto de Referencia actualiza
más detallada de los métodos involucrados en el conjunto de referencia a partir de las solu-
la búsqueda dispersa se proporciona en [19]. ciones mejoradas.
III Taller Nacional de Minería de Datos y Aprendizaje, TAMIDA2005 313

3. Aplicación de SS y VNS en Min- stancias test. La metodología basada en dis-


ería tancias también se selecciona un conjunto de
instancias representativas del conjunto de en-
Cuatro de los principales paradigmas trenamiento y se clasica los casos test tenien-
en aplicaciones del Aprendizaje Automático do en cuenta la clase de los casos seleccionados
([22]) en Minería de Datos son: agrupamien- más cercanos. La amplia variedad de distancia
to o clustering, clasicación supervisada, se- entre descripciones puede ser también utiliza-
lección de características y reducción de datos. da para esta tarea. Este tipo de problema tam-
El agrupamiento o clustering es el paradig- bién es similar al problema de la p-mediana ya
ma principal de aprendizaje no supervisado. que también se trata de seleccionar un cierto
El objetivo es encontrar grupos de instancias número de elementos con una función a opti-
o casos constituidos por elementos similares. mizar diferente. Estos pertenecen a la amplia
Dado un conjunto de instancias descritas por clase de los problemas de selección de para los
una serie de características, el problema es en- que la mayoría de los procedimientos heurís-
contrar una partición del conjunto completo ticos se basa en movimientos de intercambio.
de instancias en subconjuntos o clases de tal Este tipo de movimientos ha sido utilizado con
manera que las instancias dentro de una mis- mucha frecuencia en exitosas aplicaciones de
ma clase sean muy similares mientras que las las metaheurísticas VNS y Scatter Search. Se
instancias en clases distintas sean disimilares. ha aplicado estas metaheurísticas en esta tarea
Los procedimientos basados en distancia [3].
consideran una distancia entre las descrip-
ciones para evaluar la similitud y disimilitud
entre ellas. Una amplia gama de funciones dis- Sin embargo, no es útil considerar todo el
tancia apropiadas para distintas circunstan- conjunto de características para este y otros
cias han sido propuestas y consideradas en paradigmas de clasicación. Por tanto, una
la literatura (ver, por ejemplo [25]). Entonces tarea importante es la selección de caracterís-
una forma usual de establecer las particiones ticas que trata de a obtención del mejor sub-
consiste en identicar una selección de ejem- conjunto de características para realizar la
plos representativas de las clases (en el caso tarea de clasicación. Una adecuada selección
más simple se elige sólo un ejemplo por clase). de características tiene, no sólo la ventaja de
Entonces cada nuevo caso se asigna a la clase tomar la información relevante en la descrip-
del ejemplo representativo más cercano. Tan- ción de los casos, sino también el evitar la in-
to metaheurística VNS como el Scatter Search formación redundante que harían a los algorit-
han sido aplicados con éxito al problema de la mos y reglas de clasicación mucho más ine-
p-mediana que es muy parecido a este prob- cientes. Tanto el Scatter Search cómo la VNS
lema (ver por ejemplo [12] y [11]). El proble- sido ya aplicadas con éxito a este problema
ma de la p-mediana consiste en elegir p puntos ([10], [9], [5] y [6],[8]).
que minimicen la suma de distancias a todos
los casos. Una muestra de la extensión de es-
tas técnicas a los problemas de clustering lo
encontramos en [4]. Finalmente, en grandes bases de datos,
En aprendizaje suprevisado basado en casos, también la selección de instancias, como un
además de las características que describen mecanismo para reducir la cantidad de infor-
los casos, una variable adicional representa la mación a tratar sin reducir el rendimiento de
clase que debe ser pronosticada a partir de los métodos constituye un cuarto paradigma
su descripción. De un conjunto de casos de de la minería de datos en las que estas meta-
entrenamiento con clases conocidas se quiere heurísticas están siendo aplicadas. Para este
obtener una regla de clasicación para obten- problema también se han comenzado a estudi-
er la clase desconocida de un conjunto de in- ar la aplicación de estas metaheurísticas. [7].
314 III Taller de Minería de Datos y Aprendizaje

4. Aplicación de SS y VNS en Se- se añade la variable de las no comunes que


lección de Instancias mejore, en mayor medida, alguna nueva solu-
ción. La diferencia entre ambas radica en el
A continuación pasamos a describir los com- subconjunto de atributos no comunes consid-
ponentes de las aplicaciones de las metaheurís- erados, que en la versión reducida sólo se con-
ticas SS y VNS para el problema de la selección sideran aquellos que aparecen en las mejores
de Variables para la clasicación supervisada. soluciones durante el proceso de búsqueda.
Para la población inicial del Scatter Search, Para ello hace uso del porcentaje de aciertos
se genera mediante un procedimiento con- asociados con cada soluión obtenida a lo largo
structivo del tipo de los aplicados en la primera del procedimiento de búsqueda.
fase del GRASP (Greedy Randomize Adaptive El método de mejora se aplica a todas las
Search Procedure ) ([24],[23]). Para ello se or- soluciones surgidas de la combinación. El con-
denan las variables en función de un vector junto de atributos que no pertenezcan a la
de pesos asociado a los atributos la evaluación solución se ordenan en función de los pesos
que indican la calidad del atributo para el pro- anteriores para su introducción en la solución.
ceso de clasicación. Se construye la lista re- Todas las soluciones resultantes de aplicar el
stringida de candidatos (LRC) formada por los método de mejora se van almacenando en un
atributos con mayor peso. La estrategia para la conjunto que se usa para actualizar el conjunto
creación de cada solución consiste en escoger, de referencia de forma estática.
de LRC, una variable al azar y asignarla a la El conjunto de referencia es actualizado de
solución. Si mejora, se actualiza el LRC intro- acuerdo a la intensidad y diversidad. Para el-
duciendo la siguiente mejor variable. En caso lo seleccionamos los la mitad de sus elemen-
contrario se naliza el proceso de generación tos de las mejores soluciones de la unión en-
de la solución. tre el propio conjunto de referencia y las del
El conjunto de referencia se forma por solu- conjunto nterior y a continuación las restantes
ciones introducidas en función de la intensi- soluciones más diversas tal y como se explicó
dad y de la diversidad. De cara a la inten- anteriormente.
sidad contendrá aquellas soluciones que ten- La versión de la Búsqueda por Entorno
gan la mejor evaluación. Respecto a la diversi- Variable (VNS) adaptada al problema de la
dad se incluirán aquellas soluciones que tengan selección de atributos es la VNS Básica ([17]).
mayor número de variables distintas de las ya En primer lugar hay que establecer la estruc-
presentes en el conjunto de referencia. tura de la entornos. La k-ésima vecindad de
Se seleccionan todos lo subconjuntos de dos una solución consiste en todas las soluciones
elementos del conjunto de referencia para com- que pueden ser alcanzadas mediante el cambio
binación. En la primera iteración se aplica el de k atributos en la solución con k atributos no
método de combinación a todos los subconjun- pertenecientes a ella. La distancia entre solu-
tos de dos elementos posibles; sin embargo en ciones se establece por el cardinal de la difer-
iteraciones posteriores sólo se llevan a cabo las encia simétrica y entonces la k-ésima vecindad
combinaciones no contempladas previamente. es el conjunto de soluciones a distancia igual o
El procedimiento de combinación intenta com- inferior a k.
binar las buenas propiedades de las soluciones. Los elementos a adaptar del procedimien-
Tiene como nalidad la obtención de buenas to del VNS fueron la inicialización, la fase de
soluciones diversas respectos a las soluciones agitación y la búsqueda local. Para la gen-
ya consideradas. Se consideraron dos méto- eración de la solución inicial se combinaron las
dos de combinación que utilizan estrategias estrategias SFS y SBE ejecutándolas una de-
greedy: la combinación greedy (GC) y a la trás de la otra hasta que no haya mejora. Se
combinación greedy reducida (RGC). Ambas consideró otra estrategia conistente en gener-
comienzan añadiendo a las nuevas soluciones ar al azar la solución inicial con un número
los atributos comunes, y en cada iteración de atributos igual el máximo entre el número
III Taller Nacional de Minería de Datos y Aprendizaje, TAMIDA2005 315

de atributos del SFS-SBE y el 10 % del to- [2] Brito Santana, J., Campos Rodríguez,
tal de atributos del problema a considerar. En C., García López, F., García Torres M.,
la etapa de agitación una solución agitada es Melián Batista, B., Moreno Pérez, J.A.
generada al azar desde la k-ésima vecindad de and Moreno Vega, J.M. Metaheurísticas:
la solución actual. Además, en cada iteración Una revisión actualizada. Documentos de
se consideran 2k atributos tabú; de esta for- Trabajo del DEIOC. Universidad de La
ma la condición de parada se alcanza cuan- Laguna, Número 2/2004.
do el número de atributos para intercambiar,
k, es mayor que el mínimo entre el número [3] M. García Torres, J.A. Moreno Pérez,
de atributos de la solución y de atributos no J. Marcos Moreno Vega. "VNS para
pertenecientes a la solución. La búsqueda local Clasicación supervisada". Gijón. 5-7 de
aplicada en nuestro procedimiento consiste en Febrero de 2003. MAEB 2003,
ejecutar, mientras no haya mejora, las estrate- [4] M. García Torres, José A. Moreno Pérez,
gias SFS y SBE. El óptimo local alcanzado J. Marcos Moreno Vega. Çomparación
se compara con la mejor solución encontrada de estrategias de arranque múltiple para
hasta el momento por la estructura k-ésima. clasicación no supervisada."Sevilla, Es-
Si dicho óptimo local mejora la mejor solu- paña. Noviembre de 2002 IBERAMIA
ción se reinicializan las estructuras de entorno 2002.
(k = 1), en caso contrario, se pasa a la sigu-
iente k = k + 1. [5] M. García-Torres, Félix García-López,
Belén Melián-Batista, José A. Moreno-
Pérez, J. Marcos Moreno-Vega. "Solv-
5. Conclusiones ing Feature Subset Selection Problem by
a Hybrid Metaheuristic."HM 2004. First
International Workshop in Hybrid Meta-
La función de distancia, que esta presente
heuristics at ECCAI 2004 Valencia, 22-23
con un signicado relevante en estos proble-
de Agosto de 2004.
mas, juega un papel importante en las aplica-
ciones de las metaheurísticas VNS y Scatter [6] Félix García López, M. García Torres,
Search. La función de distancia permite crear Belén Melián Batista, José A. Moreno
las estructuras de entorno anidadas para el Pérez, J. Marcos Moreno Vega. "Búsque-
VNS. La función de distancia permite modu- da Dispersa y Algoritmo Genético para
lar la disversicación y la intensicación en el el problema de la selección de Variables".
Scatter Search. Dada una función de distan- Córdoba, . 4-6 de Febrero de 2004. Ter-
cia entre los elementos de los conjuntos que cer Congreso Español de Metaheurísti-
constituyen las soluciones (instancias o carac- cas, Algoritmos Evolutivos y Bioinspira-
terísticas), la distancia entre dos soluciones se dos, MAEB 2004, Pág. 609-616. ISBN: 84-
puede denir como la mínima, máxima o la 688-4224-9
suma de las distancias de los elementos de un
conjunto al otro conjunto. De esta forma se [7] M. García Torres, Belén Melián Batista,
puede denir la distancia entre una solución José Andrés Moreno Pérez, Raquel
y un conjunto de soluciones para modular la Rivero Martín, J. Marcos Moreno Vega.
diversidad de todo el conjunto de referencia. "Búsqueda Dispersa en Selección de In-
stancias". MAEB 2005. Granada, 15-17
Septiembre 2005.
Referencias [8] M. García Torres, B. Melián Batista, J.A.
Moreno Pérez and J.M. Moreno Vega.
[1] H.A. Abbass, C.S. Newton , R. Sarker. "Variable Neighbourhood Tabu Search
Data Mining: A heuristic Approach. Idea for Feature Selection". Working paper
Group (2002). submitted to MIC 2005.
316 III Taller de Minería de Datos y Aprendizaje

[9] García López, F., García Torres M., Variable Inteligencia Articial. Revista
Moreno Pérez, J.A. and Moreno Vega, Iberoamericana de Inteligencia Articial.
J.M. Scatter Search for the Future Selec- Numero 19, Volumen 2, páginas 77-92.
tion Problem. Lecture Notes in Computer
Science, Vol. 3040 pp. 517-525 (2004) [18] N. Mladenovi¢, P. Hansen (1997) Variable
neighborhood search. Computers & Oper-
[10] F. García López, M. García Torres, B. ations Reserach, 24:10971100.
Melián Batista, J.A. Moreno Pérez and [19] Laguna, M. and R. Martí, Scatter Search:
J.M. Moreno Vega. "Solving Feature Sub- Metodology and Implementations in C,
set Selection Problem by a Parallel Scat- Kluwer Academic Press, (2003).
ter Search", European Journal of Opera-
tional Research, 2005, to appear. [20] R. Martí, Laguna, M. Scatter Search: dis-
eño básico y estrategias avanzadas, In-
[11] F. García López, B. Melián Batista,
teligencia Articial. Revista Iberoamer-
J.A. Moreno Pérez and J.M. Moreno Ve-
icana de Inteligencia Articial. Numero
ga. The parallel variable neighbourhood
19, Volumen 2, (2003) páginas 123-130.
search for the p-median problem. Journal
of Heuristics, 8 pp. 377-390 (2002). [21] B. Melián, J.A. Moreno Perez, J.M.
[12] F. García López, B. Melián Batista, J.A. Moreno-Vega, J. páginas (2003) Meta-
Moreno Pérez and J.M. Moreno Vega. heuristicas: Una visión global Inteligencia
Parallelization of the Scatter Search for Articial. Revista Iberoamericana de In-
the p-median problem, Parallel Comput- teligencia Articial. Numero 19, Volumen
ing, 29 (2003) 575-589. 2, páginas 7-28.

[13] Glover, F., "Future Paths for Integer Pro- [22] Mitchell, T. Machine Learning, Series in
gramming and Links to Articial Intel- Computer Science, McGraw-Hill, (1997).
ligence.Çomputers and Operations Re-
search. 5, (1986) 533-549. [23] M. Resende, C. Ribeiro. (2003) Greedy
Randomized Adaptive Search Procedures
[14] Glover, F., Heuristics for Integer Pro- In F. Glover and G. Kochenberger, edi-
gramming using Surrogate Constraints, tors, Handbook on MetaHeuristics, chap-
Decision Sciences 8, (1977) 156166. ter 8. 2003.
[15] Glover, F., Laguna, M., Martí, R. Fun-
[24] Resende, G.C.M., González Velarde,
damentals of Scatter Search and Path
J.L. (2003) GRASP: Procedimientos de
Relinking Control and Cybernetics, 39,
búsquedas miopes aleatorizados y adap-
(2000) 653-684.
tativos Inteligencia Articial. Revista
[16] P. Hansen, N. Mladenovic. (2003) Vari- Iberoamericana de Inteligencia Articial.
able neighbourhood search. In Fred Numero 19, Volumen 2, páginas 61-76
Glover and Gary A. Kochenberger (eds.)
Handbook of Metaheuristics, chapter 6, [25] D. R. Wilson, T. R. Matinez, Improved
Kluwer, 2003. heterogeneous distance functions, Journal
of Articial Intelligence Research 6 (1997)
[17] P. Hansen, N. Mladenovic., J.A. Moreno 134.
Pérez (2003) Búsqueda de Entorno

También podría gustarte