Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Resumen
En este artículo se realiza un estudio del uso de los agentes inteligentes en Internet. Se recogen
sus posibles aplicaciones así como diferentes productos, algunos de ellos comercializados con
éxito. El paradigma de agente constituye un área de creciente interés dentro de la Inteligencia
Artificial, entre otras razones, porque permite abordar de una manera apropiada la construcción
de sistemas complejos. Este paradigma se ha venido aplicando a diferentes áreas, como pueden
ser control de procesos, robots móviles y recuperación de información.
Titular 3: “Los agentes de filtrado utilizan perfiles de usuario para determinar la relevancia de
los documentos”
1. Introducción
Actualmente, dentro del área de la Inteligencia Artificial ha surgido un nuevo paradigma
conocido como “paradigma de agentes”, el cual está tomando un gran auge entre los
investigadores. Dicho paradigma aborda el desarrollo de entidades que puedan actuar de forma
autónoma y razonada y que, según sus defensores, permite la construcción de sistemas
complejos de manera más apropiada. Ante un comentario de este tipo, para un profano surgen
obligatoriamente ciertas preguntas de carácter general, como por ejemplo: ¿qué es un agente?,
¿cómo se caracteriza un agente?, ¿qué nos ofrece de nuevo? etc... Algunas de estas preguntas
son difíciles de responder, entre otras cosas debido a que estamos hablando de una tecnología en
ciernes y todavía existen lagunas a nivel conceptual y de desarrollo. Estas lagunas se ven
todavía más agravadas cuando el área de aplicación es un campo tan inexplorado y cambiante
como Internet.
En la última década los métodos para gestionar y organizar la información han variado de forma
notable, debido a la aparición de Internet. Hoy en día, la red se ha convertido en el gran
vehículo o contenedor de información. A medida que ésta ha ido evolucionando y creciendo se
ha complicado la forma de localizar y consultar la información disponible en la propia red. La
mayoría de herramientas disponibles actualmente para la localización y recuperación de
información se centran más en la cantidad que en la calidad de la propia información. Es
habitual en cualquier proceso de recuperación que un usuario se sienta desbordado por el
elevado volumen de documentos o de referencias que se le suministran. Resulta, en este caso,
evidente la necesidad de una cierta automatización en el proceso que facilite la labor de
localización de información de calidad y que a su vez permita diferenciar entre ella desde el
punto de vista subjetivo del propio usuario. En este punto, el empleo de técnicas inteligentes
resulta adecuado para la mejora de los resultados obtenidos, y es justo en este momento donde
cabe plantearse el uso de agentes inteligentes.
2. Definición
Actualmente, podemos encontrar un gran número de propuestas en la literatura acerca de lo que
es y lo que no es un agente, sin que ninguna de ellas haya sido plenamente consensuada por la
comunidad científica. Una definición bastante aceptada es la propuesta por Michael Wooldridge
en [Wooldridge 1995], según la cual, un agente es un sistema software, el cual, viene definido
por su flexibilidad, entendiendo por flexible que un agente sea:
En los trabajos más recientes relacionados con el tema se tiende a etiquetar a un agente en
función del papel que desempeña. Así, por ejemplo, un agente con acceso a diversas fuentes de
información y que es capaz de agrupar y manipular la información obtenida de dichas fuentes
para ponerla a disposición del usuario se conoce como agente de información.
Para que este tipo de agentes pueda servir eficientemente a sus distintos usuarios, necesita ser
capaz de almacenar, aprender y manipular las preferencias y gustos de cada usuario, así como
sus cambios. Además, necesitan reaccionar flexiblemente a las modificaciones producidas en su
entorno. El último requisito implica la capacidad de aprendizaje y de comunicación con otros
agentes que tengan características similares. Esto conlleva a desarrollar agentes, no de forma
independiente, sino como entidades que constituyen un sistema. A este sistema se le denomina
multi-agente [Huhns 1998]. Las interacciones más habituales, tales como informar o consultar a
otros agentes, permiten a los agentes conversar entre ellos, tener en cuenta las acciones que
realizan cada uno de ellos y razonar acerca del papel jugado por los agentes.
3. Agentes de Información
Al consultar la bibliografía referente a dicho tipo de agentes, es frecuente la aparición de
términos como Interface agents, System agents, Advisory agents, Filtering agents, Retrieval
agents, Navigation agents, Monitoring agents, Recommender agents, Profiling agents y otros
que están surgiendo continuamente. A continuación se presentan diferentes tipologías que nos
permiten clasificar a los agentes inteligentes de información, basándose tanto en el ámbito en el
que actúan como en las tareas que llevan a cabo.
La primera clasificación toma como criterio el ámbito de actuación de los agentes [Caglayan
1997], distinguiendo entre:
• Agentes de escritorio: se trata de agentes que se encargan de las tareas habituales en el
manejo cotidiano de un ordenador. Dependiendo del tipo de software al que sirvan
como base, se puede distinguir entre agentes de sistema operativo, agentes de
aplicaciones, etc.
• Agentes Intranet: operan en una red local y facilitan el uso de la red, el compartir
información y la cooperación entre los usuarios. Entre ellos se encuentran los agentes
de ayuda colaborativa, agentes de bases de datos, agentes de automatización de
procesos, etc.
• Agentes Internet: su ámbito de trabajo es Internet. En función del tipo de acciones que
realizan, se pueden encontrar agentes de búsqueda, filtrado, recuperación de
información, agentes de notificación, agentes móviles, etc.
Al igual que en la clasificación anterior, estos grupos no son excluyentes y un mismo agente
puede pertenecer a varios de ellos.
Web
browser Servidor de noticias
Artículos
indizados
Web
Motor de
indización
Ambos parámetros son inversamente proporcionales, por tanto si intentamos mejorar uno
perjudicaremos el otro. Se debería intentar conseguir un equilibrio entre los dos, lo cual es
bastante complejo en los actuales motores de búsqueda. Los agentes de búsqueda proporcionan
un punto de inicio en la exploración en Internet para los usuarios. Las ventajas que podemos
encontrar o que deberían proporcionar son:
• Facilidad de uso
• Incremento de la productividad si el usuario sabe lo que quiere
• Incremento de la precisión en la búsqueda sin aumentar notablemente el número de
documentos devueltos.
• Reducción de la sobrecarga que generan los procesos de búsqueda en la Web y en el
propio sistema.
Este tipo de agentes podrían realizar las siguientes funciones en una organización:
• Indexar información sobre los servidores de la organización para mejorar el
rendimiento de las búsquedas realizadas por los empleados.
• Desarrollar servicios especializados de búsqueda, empleando recursos externos si es
relevante para la organización.
• Promocionar mediante servicios específicos el uso de los recursos internos disponibles.
• Permitir compartir resultados de búsquedas entre diferentes comunidades de usuarios.
Existen diferentes técnicas de aprendizaje que los agentes utilizan para aprender el perfil de
usuario. Entre ellas se pueden destacar los clasificadores Bayesianos, el vecino más cercano, los
árboles de decisión, TF-IDF, redes neuronales y algoritmos genéticos. Después de haber logrado
aprender el perfil, éste puede ser utilizado para el filtrado de información, pudiendo además
anticiparse a la obtención de la información solicitada por el usuario. La arquitectura de un
agente de filtrado de información es la que muestra la Ilustración 3.
Web
Motor de
indización
Otras
fuentes
El motor de indización asigna una palabra clave a cada artículo. La mayoría de sistemas de
recuperación de información también generan diccionarios de sinónimos con la intención de
indizar palabras por su raíz.
4. Aplicaciones
En este punto se describen las características de algunos ejemplos de agentes de información
que pueden ser ya utilizados en la red.
BullsEye
Esta aplicación junto con Copernic puede enmarcarse dentro de la tipología de agentes de
búsqueda. BullsEye es una aplicación que permite a los usuarios recuperar, gestionar y
permanecer al tanto sobre determinada información en Internet. El agente utiliza una colección
de motores de búsqueda que recuperan los resultados relevantes de información visible y no
visible (puesto que es capaz de lanzar consultas a bases de datos). Además BullsEye realiza
búsquedas en aproximadamente 600 bases de datos de contenido no indexado por búsquedas
ingeniadas, más nuevos grupos de redes, listas de correos y usuarios específicos de páginas
Web. Encuentra y analiza este contenido por relevancia, elimina contenidos duplicados y
deshace enlaces hipertextuales; prepara un informe a medida para su uso personal o grupo de
distribución.
Además, tiene ciertas características que le permiten clasificar como agente de monitorización.
BullsEye es como tener un “servicio de recorte de noticias” privado que automáticamente
encuentra, captura y entrega los datos más actuales de cualquier lugar de Internet.
Letizia.
Letizia [Lieberman 1997] es un agente de filtrado con un funcionamiento básicamente
proactivo. Trabaja con un navegador convencional utilizando una configuración multi-ventana.
Al mismo tiempo que el usuario está consultando una página Web, Letizia realiza una búsqueda
en profundidad desde la página actual, visualizando los enlaces encontrados. De esta forma, va
proporcionando de forma continua recomendaciones sobre páginas Web.
Para lograr que el trabajo realizado sea efectivo, el agente debe conocer al usuario, y debe ser
capaz de anticiparse a las opiniones del usuario sobre una página determinada. Para ello, Letizia
utiliza un método de aprendizaje. Observa el comportamiento del usuario, e intenta inferir sus
gustos automáticamente. Almacena cada una de las opciones tomadas por el usuario, y lee cada
página leída por el usuario.
A diferencia de los buscadores, que proporcionan un gran número de páginas sin ninguna
conexión entre ellas, Letizia se aprovecha de la conexión propia de las páginas Web. El
conjunto de páginas que están conectadas mediante una serie de enlaces a una página dada
constituyen una especie de vecinos de esa página. De este modo, Letizia realiza su búsqueda en
estas páginas vecinas, combinando una búsqueda en anchura con una búsqueda en profundidad.
Este tipo de búsqueda tiene una mayor probabilidad de obtener resultados relevantes que la
búsqueda global realizada por los distintos buscadores.
CiteSeer o ResearchIndex
CiteSeer (o ResearchIndex) es un sistema autónomo para creación de índices de citas de la
literatura científica en soporte electrónico. La imposibilidad de gestionar todo tipo de
información suministrada por la red ha provocado que el agente se especialice en la búsqueda de
artículos de investigación en la red.
Do-I-Care
El agente Do-I-Care [Starr 1996] es un claro ejemplo de agente de monitorización, que emplea
técnicas de machine learning para detectar cambios “interesantes” en aquellas páginas Web que
han sido clasificadas previamente como relevantes por el usuario. Debido a que este agente se
centra en cambios de páginas conocidas en lugar de descubrir nuevas páginas se incrementa la
probabilidad de que la información encontrada va a ser interesante.
La precisión del agente tanto para encontrar cambios relevantes, como en su proceso de
aprendizaje, se mejora aprovechándose de que las páginas usualmente son modificadas
siguiendo unos patrones regulares. Además, estos agentes pueden colaborar entre si
encadenándose y propagando información significativa a los agentes de otros usuarios.
BargainFinder
BargainFinder es un agente de búsqueda experimental para compras por Internet mediante
comparaciones de precio on-line. Ha sido desarrollado por el Center for Strategic Technology
Research de Andersen Consulting. BargainFinder fue el primer agente inteligente en
proporcionar venta mediante comparación (comparison shopping) en Internet. Se desarrolló
para demostrar el impacto del comercio electrónico, revelando asimismo cómo los agentes
basados en la web podían proporcionar un enorme poder añadido a los consumidores. Permite a
los usuarios introducir el nombre de un CD o un grupo musical y buscar entonces los precios
más bajos disponibles en las tiendas en línea de Internet.
BargainFinder utiliza búsquedas paralelas, de la misma forma que los buscadores del tipo de
Meta Crawler. BargainFinder envía la petición de búsqueda introducida por el usuario hacia un
grupo de vendedores simultáneamente (búsqueda paralela), completando los formularios
necesarios en cada sitio web. Una vez recibidos los resultados de cada vendedor, BargainFinder
los filtra y los combina para presentar al usuario un único informe en el que aparece toda la
información obtenida de manera resumida y fácil de comprender.
Un usuario que quiere comprar o vender algo, crea un agente, le da alguna dirección estratégica
y lo envía al mercado de agentes. Los agentes en el mercado buscarán compradores o
vendedores potenciales y negociarán con ellos en nombre de sus creadores. El objetivo de cada
agente es conseguir el “mejor negocio” posible, sujeto a las especificaciones establecidas por el
usuario, tales como precio deseado, unos máximos o mínimos de precio, o una fecha en la cual
completar la transacción. Market Maker mantiene una amplia gama de productos y servicios
para las transacciones.
5. Lecturas Recomendadas
Existen numerosas referencias y publicaciones donde se puede obtener gran cantidad de
información relacionada. A nivel general recomendamos las lecturas del artículo [Wooldridge
1995], el cual puede considerarse como un clásico dentro de la temática, y también el primer
capítulo del libro de [Huhns 1998] y los artículos de [Nwana 1996] y [Franklin 1996] .
En cuanto a referencias más específicas sobre agentes de información podemos sugerir los
libros publicados por [Caglayan 1997] y [Klusch 1999] donde se recogen los últimos avances
sobre el tema.
Finalmente, para disponer de más información referente a aplicaciones existentes hoy en día,
pueden ser consultadas las siguientes páginas Web:
• BargainFinder. URL: http:// bf.cstar.ac.com/
• Bullseye. URL: http://www.intelliseek.com/prod/bullseye.htm
• CiteSeer. URL: http://www.researchindex.com
• Kasbah - Market Maker. URL: http://ecommerce.media.mit.edu/maker/maker.htm
• Letizia. URL: http://lcs.www.media.mit.edu/people/lieber/Lieberary/Letizia/Letizia-
Intro.html
Referencias
[Caglayan 1997] Caglayan, Alper y Harrison, Colin: Agent sourcebook. New York, etc., Wiley
Computer Publishing, cop. 1997.
[Franklin 1996] Franklin, S., Graesser, A.: Is it an Agent, or just a Program?: A Taxonomy for
Autonomous Agents. Proceedings of the Third International Workshop on Agent
Theories, Architectures, and Languages. Springer-Verlag (1996).
[Huhns 1998] Huhns, M., Singh, M. P.: Readings in Agents. Readings in Agents. Chapter 1, 1-
24 (1998).
[Klusch 1999] Klusch, Matthias: Intelligent Information Agents. Springer-Verlag. 1999
[Lieberman 1995] Henry Lieberman. Letizia: An Agent That Assists Web Browsing.
Proceedings of the International Joint Conference on Artificial Intelligence, Montreal,
August 1995.
[Nwana 1996] Nwana, H. S.: Software Agents: An Overview. Intelligent Systems Research.
AA&T, BT Laboratories, Ipswich, United Kingdom (1996).
[Starr 1996] Brian Starr, Mark S. Ackerman, and Michael Pazzani. Do-I-Care: A Collaborative
Web Agent, Proceedings of the ACM CHI'96 Conference, April, 1996.
[Wooldridge 1995] M. Wooldridge and N. R. Jennings, editors. Intelligent Agents --- Theories,
Architectures, and Languages. Volume 890 of Lecture Notes in Artificial Intelligence,
Springer-Verlag, January 1995. ISBN 3-540-58855-8.