Documentos de Académico
Documentos de Profesional
Documentos de Cultura
AGENTES INTELIGENTES
Filosofa
Neuro
Ciencias
Inteligencia
Artificial
Ciencias
Cognitivas
Lingistica
Psicologa
Cognitiva
Varela [21] situa a la Inteligencia Artificial entre las Ciencias Cognitivas (Ver figura
1), enfatizando su constructivismo inherente que la diferencia de otras disciplinas que
comparten objetivos similares: filosofa, neuro ciencias, lingistica, filosofa cognitiva,
etc. Esta geografa, cabe mencionar, es de suma utilidad para reflexionar acerca del
carcter cientfico e ingenieril de la Inteligencia Artificial.
Por tanto, no deja de ser sorprendente que no sea hasta finales de los aos ochenta
que el concepto de agente es incorporado a la Inteligencia Artificial, como un tema
que se pretende unificador. Parte del problema, pudiera deberse a un distanciamiento entre los intereses cientficos y prcticos del rea. Este captulo espera ofrecer un
acercamiento entre ambas perspectivas. Primero Qu es un agente? De donde adoptamos este trmino?
1 Lanier [11] argumenta que la interaccin de los agentes artificiales con los humanos, difcilmente pueden
calificarse de inteligente. En su opinin nuestros actuales agentes resultan un verdadero peligro para la
humanidad Estos agentes no se volvern inteligentes, pero los humanos ajustarn su comportamiento
y sus expectativas al limitado comportamiento de algo que se les ha presentado como inteligente.
Tiendas
Cine/TV
Banca
Trabajo
Telefona
Internet
Escuela
Franklin y Graesser [8] argumentan que todas las definiciones del trmino agente
en el contexto de la Inteligencia Artificial, se basan en alguna de estas dos acepciones
histricas. Una definicin consensual de agente [19, 26] puede ser:
Un agente es un sistema computacional capaz de actuar de manera autnoma para satisfacer sus objetivos y metas, mientras se encuentra situado
persistentemente en su medio ambiente.
Esta definicin que puede parecer demasiado general, provee una abstraccin del
concepto de agente basada en su presencia e interaccin con el medio ambiente (Ver
la Figura 3). Russell y Subramanian [18] encuentran que esta abstraccin presenta al
menos tres ventajas:
1. Nos permite observar las las facultades cognitivas de los agentes al servicio de
encontrar cmo hacer lo correcto.
Percepcin
Accin
agente
Ambiente
PT =
X
i
donde: PT es el puntaje total. El segundo trmino evala la persistencia del agente: T Max es
el tiempo mximo de la prueba y T Oper es el tiempo que el robot se mantuvo en operacin.
Si el robot trabaja durante toda la prueba no es penalizado, si no la puede terminar, si lo es.
El primer trmino evala la capacidad del agente. Para ello el piso a limpiar, rectangular, se
divide conceptualmente en celdas. CLi es la i-sima celda limpiada con xito, o si se prefiere
toma valor 1 si la celda se limpio, y 0 en caso contrario. DAi es el valor de dificultad de acceso
a la i-sima celda limpiada.
Es necesario precisar que la racionalidad de un agente se define en relacin con el
xito esperado dado lo que el agente ha percibido. Esto es, no podemos exigir a un
agente que tome en cuenta lo que no puede percibir, o haga lo que sus efectores no
pueden hacer. Por lo tanto, la racionalidad de un agente a un tiempo dado depende
de:
La medida de desempeo que define el estndar de xito.
La secuencia de percepciones del agente, esto es, todo lo que el agente halla
percibido hasta el tiempo dado.
El conocimiento del agente sobre el medio ambiente en el que est situado.
La habilidad del agente, esto es, las acciones que el agente puede llevar a cabo
con cierta destreza.
Un agente racional ideal es aquel que para toda secuencia de percepciones posible,
selecciona y ejecuta una accin que se espera maximice la medida de desempeo, con
base en la informacin que proveen su percepcin y conocimiento sobre el ambiente.
Luego entonces, es posible describir un agente por medio de una tabla con las
acciones que el agente toma en respuesta a cada posible secuencia de percepciones.
Esta tabla se conoce como el mapeo percepcin-accin. Por lo tanto un mapeo ideal
describe a un agente ideal y define el diseo de un agente ideal. A la bsqueda de
un mecanismo que aproxime este mapeo ideal, se le conoce como el problema de
seleccin de accin. El ejemplo 3 muestra el mapeo ideal de xbiff.
Ejemplo 3. En el caso de xbiff el mapeo ideal es muy sencillo. Si el buzn contiene al menos
un mensaje con la etiqueta nuevo, desplegar el icono de mensaje nuevo; en cualquier otro
caso, desplegar el icono de mensajes ledos.
y Jennings [26], como comportamiento flexible y autnomo. Este tipo comportamiento se caracteriza por su:
Reactividad. Los agentes inteligentes deben ser capaces de percibir su medio
ambiente y responder a tiempo a los cambios en l, a travs de sus acciones.
Iniciativa. Los agentes inteligentes deben exhibir un comportamiento orientado
por sus metas, tomando la iniciativa para satisfacer sus objetivos de diseo (proactiveness).
Sociabilidad. Los agentes inteligentes deben ser capaces de interaccionar con
otros agentes, posiblemente tan complejos como los seres humanos, con miras a
la satisfaccin de sus objetivos.
Una caracterizacin ms detallada de autonoma es presentada por Covrigaru y Lindsay [4]. Su desiderata, que incluye algunos de los aspectos ya mencionados, expresa
que un agente se percibe como autnomo en la medida en que:
1. Su comportamiento est orientado por sus metas y es capaz de seleccionar que
meta va a procesar a cada instante.
2. Su existencia se da en un perodo relativamente mayor al necesario para satisfacer sus metas.
3. Es lo suficientemente robusto como para seguir siendo viable a pesar de los
cambios en el ambiente.
4. Puede interaccionar con su ambiente en la modalidad de procesamiento de informacin.
5. Es capaz de exhibir una variedad de respuestas, incluyendo movimientos de
adaptacin fluidos; y su atencin a los estmulos es selectiva.
6. Ninguna de sus funciones, acciones o decisiones, est totalmente gobernada por
un agente externo.
7. Una vez en operacin, el agente no necesita ser programado nuevamente por un
agente externo.
De entre todos estos puntos, el sexto requiere una defensa rpida puesto que la
dimensin social de los agentes no ser abordada en este texto4 . En filosofa poltica
liberal, es aceptado que los agentes solo pueden llegar a ser autnomos si se da un
conjunto de condiciones necesarias para ello. Diferentes condiciones son consideradas,
por ejemplo Rawls [17] habla de bienes primarios, bienes que son medios necesarios
para que el agente tenga mayor xito para satisfacer sus intenciones y avanzar en
su plan de vida a largo trmino. Es necesaria una pluralidad de tales bienes para
configurar lo que l llama contexto de eleccin. Esta pluralidad es posible nicamente
si el agente tiene una relacin cercana con su ambiente social y cultural. En el contexto
de Inteligencia Artificial, es Newell [16] en su Unified Theories of Cognition (p. 20),
4 Castelfranchi [3] presenta una excelente introduccin a las interacciones sociales entre agentes.
es mejor considerar estas propiedades del ambiente, desde el punto de vista del
agente. El carcter estocstico del ambiente captura dos nociones importantes:
1. El hecho de que los agentes tienen una esfera de influencia limitada, es
decir, en el mejor de los casos tienen un control parcial de su ambiente;
2. y el hecho de que las acciones de un agente puede fallar y no lograr el
resultado deseado por el agente.
Por ello, es ms sencillo construir agentes en ambientes deterministas. Si el ambiente es determinista, excepto para las acciones de otros agentes, se dice que el
ambiente es estratgico.
Episdico vs. Secuencial. En un ambiente episdico, la experiencia de un agente puede evaluarse en rondas. Las acciones se evalan en cada episodio o ronda
, esto es, la calidad de la accin en los episodios subsecuentes, no depende de
las acciones ocurridas en episodios previos. Por ejemplo, el detector de basura
en las botellas de una cervecera es episdico: la decisin de si una botella esta
sucia o no, no depende de los casos anteriores. Dada la persistencia temporal de
los agentes, estos tienen que hacer continuamente decisiones locales que tienen
consecuencias globales. Los episodios reducen el impacto de estas consecuencias, y por lo tanto es ms fcil construir agentes en ambientes episdicos. Un
programa que juega ajedrez est en un ambiente secuencial.
Esttico vs. Dinmico. Si el ambiente puede cambiar mientras el agente se encuentra deliberando, se dice que es dinmico; de otra forma, se dice esttico. Si
el ambiente no cambia con el paso del tiempo, pero si lo hace con las acciones
del agente si lo hace, se dice que el ambiente es semi-dinmico. Los ambientes
dinmicos tienen dos consecuencias importantes: Un agente debe percibir continuamente, porque an si no ha ejecutado ninguna accin entre los tiempos t0
y t1 , el agente no puede asumir que el estado del ambiente sea el mismo en t0
que en t1 ; Otros procesos en el ambiente pueden interferir con las acciones del
agente, incluyendo las acciones de otros agentes. Por lo tanto, es ms sencillo
disear agentes en ambientes estticos.
Discreto vs. Continuo. Si hay un nmero limitado de posibles estados del ambiente, distintos y claramente definidos, se dice que el ambiente es discreto; de
otra forma se dice que es continuo. Esta propiedad puede aplicarse al estado del
ambiente; a la forma en que se registra el tiempo y; a las percepciones y acciones
de los agentes.Es ms fcil construir agentes en ambientes discretos, porque las
computadoras tambin son sistemas discretos y aunque es posible simular sistemas continuos con el grado de precisin deseado, una parte de la informacin
disponible se pierde al hacer esta aproximacin. Por lo tanto, la informacin
que manejan los agentes discretos en ambientes continuos es inherentemente
aproximada.
Mono vs. Multi-Agente A pesar de que esta categorizacin de los ambientes
parece obvia, esconde una cuestin en extremo relevante: Qu entidades en el
sistema son considerados por el agente como agentes? En general, un agente
considerara a otra entidad como un agente si su desempeo depende del comportamiento de esa entidad. La clave aqu es el concepto de interaccin que da
lugar a ambientes competitivos y cooperativos.
Observable
si
si
si
parcial
parcial
efectivo
parcial
parcial
si
parcial
parcial
Determinista
si
estratgico
estocstico
estocstico
estocstico
estocstico
estocstico
estocstico
si
estocstico
estocstico
Episdico
no
no
no
no
no
si
no
no
si
no
no
Esttico
si
semi
si
si
no
no
no
no
semi
no
no
Discreto
si
si
si
si
si
no
no
no
no
no
no
SMA
mono
multi
multi
multi
multi
mono
mono
mono
mono
multi
mono
Cuadro 1: Ejemplos de ambientes estudiados en Inteligencia Artificial y sus propiedades segn Russell y Norvig [19].
Con los elementos discutidos hasta ahora, es posible definir a un agente racional
como aquel que exhibe un comportamiento flexible y autnomo, mientras est situado
en un sistema de informacin, por ej., un sistema operativo o el web. Esto constituye lo
que Wooldridge y Jennings [26] llaman la nocin dbil de agente, como contra parte
de una nocin fuerte que adems de las propiedades mencionadas hasta ahora, utiliza
trminos que hacen referencia a propiedades que solemos aplicar exclusivamente a
los seres humanos y que he entrecomillado hasta ahora en el texto: creencias, deseos,
intenciones. Si descartamos que el medio ambiente sea un sistema de informacin
necesariamente, los robots pueden ser caracterizados como agentes racionales.
Agente
Sistema
diagnstico
mdico
Desempeo
salud paciente,
minimizar costos y
demandas
Ambiente
paciente, hospital,
persona,
tratamientos
Actuadores
preguntas,
pruebas
diagnsticos,
Sensores
lecturas,
reportes,
respuestas
que funcione como el sistema operativo del agente, por ejemplo, que facilite la interaccin del programa de agente con la computadora donde se ejecuta, de forma que el
agente pueda ser programado a un nivel ms alto. La siguiente expresin resume la
relacin entre agente, arquitectura y programa:
Se sugiere una lectura rpida de los captulos uno y dos del libro de Russell y Norvig [19] para una panormica del tema de los agentes racionales con respecto a la
Inteligencia Artificial. Huns y Singh [10] ofrecen una coleccin de artculos fundamentales en el rea, algunos de los cuales sern revisados en las tareas del curso.
Wei [23] estructur el primer texto completo y coherente sobre el estudio de los Sistemas Multi-Agentes. Su introduccin al libro es altamente recomendable como una
revisin de los problemas propios del rea. Finalmente Wooldridge [25] nos ofrece
un texto de introduccin bsico a los Sistemas Multi-Agentes, imprescindible por su
cobertura y complejidad moderada.
Problema 1. Describa un ejemplo de agente y su medio ambiente. Base su descripcin en
el esquema PEAS Existe un mapeo ideal para su agente? Puede definir una medida de
desempeo para su agente?
Problema 2. Describa un agente financiero que opera en un mercado de valores, en los trminos utilizados en este captulo.