Está en la página 1de 9

De dnde vienen los agentes inteligentes?

por Cristobal Baray y Kyle Wagner Traduccin de Fernando Berzal

Inteligencia a partir de agentes tontos


Agentes tontos? Puede la inteligencia surgir de un grupo de mquinas tontas? Podemos estudiar la inteligencia utilizando agentes tontos? Investigadores de la Universidad de Indiana (UI) forman parten de una comunidad creciente que cree que el enfoque basado en agentes tontos permitir a los investigadores en Inteligencia Artificial (IA) construir sistemas ms inteligentes y a los cientficos cognitivos estudiar la inteligencia con ms amplitud. Estos investigadores estn alejndose del enfoque tradicional de la Inteligencia Artificial que modela el comportamiento inteligente diseando e implementando un agente complejo. La aproximacin con un nico agente ha tenido xito en dominios racionales especializados como juegos, razonamiento y planificacin de trayectorias [14]. Sin embargo, parece importante reconocer todos los xitos de la naturaliza, especialmente porque la naturaleza parece estar repleta de agentes inteligentes. En algunos proyectos de agentes tontos, los agentes estn aislados intentando optimizar su rendimiento. En otros dominios, los agentes no estn aislados y pueden interactuar. El comportamiento de los agentes puede involucrar su coordinacin con otros agentes. El dominio de los problemas actualmente investigados en la UI incluyen el control sensorial y motriz, el estudio del comportamiento social, el modelado de modos cognitivos interactivos (como el lenguaje) e, incluso, la resolucin de problemas complejos integrando a dichos agentes. Varios proyectos de investigacin en la UI han intentado emplear el conocimiento adquirido de la observacin de la naturaleza para resolver problemas reales, estudiar los comportamientos sociales y estudiar acciones. El enfoque de los agentes tontos supone la generacin de una poblacin de agentes inicialmente tontos (simples). Dicha poblacin suele ser grande (quizs 50, 100 o incluso 1000 agentes). Los agentes pueden ser todos idnticos o pueden existir diferencias. Suelen construirse aleatoriamente con la expectativa de que parte de la variacin natural en la poblacin contenga la semilla para resolver la tarea deseada. La poblacin entera de agentes se evala entonces de acuerdo a su adecuacin a la resolucin de la tarea de inters. Los mejores agentes se suelen seleccionar para continuar su modificacin. Mediante un ciclo continuo de seleccin y modificacin surgen los agentes ms adecuados para la tarea. En algunos casos, los agentes trabajan solos, cada uno de ellos intentado superar a los otros en la resolucin de la tarea concreta. En otros casos, los agentes trabajan conjuntamente para resolverla. Nos gustara presentarle el enfoque de los agentes inteligentes ante el comportamiento inteligente de la Universidad de Indiana.

Los agentes tontos procrean...


Gary Parker trabaja con robots de seis patas y las rutinas de control motor necesarias para cada pata. En condiciones perfectas, programar al robot para caminar sera directo. Sin embargo, el mundo real no ofrece muchas situaciones con condiciones perfectas. Las diversas complicaciones que Parker encuentra incluyen: patas individuales con longitud, traccin y grados de movimiento diferentes; motores individuales con distinta velocidad y par motor; y, superficies para andar raramente planas por completo. Sera extremadamente difcil disear un programa especfico que pudiese considerar estas restricciones y condiciones variables tanto del robot como del entorno. En su lugar, Parker hace evolucionar los programas de control motriz. Parker ha construido un modelo computacional del robot que incluye variables para cada aspecto de las caractersticas fsicas del robot. Los programas de control pueden probarse en el modelo, haciendo que se mueva un robot simulado. Para cada robot real, se calibra el modelo para que corresponda a las caractersticas del robot. De hecho, durante la vida de un nico robot, la recalibracin es a veces necesaria. Una vez que se ha definido el modelo del robot, se ejecuta un algoritmo gentico (AG) sobre las soluciones de control motriz. Un AG es un mtodo de bsqueda inspirado en la seleccin natural [6]. Una poblacin de soluciones se genera aleatoriamente y cada solucin se evala su adecuacin, que es una medida directa relacionada con el rendimiento de la solucin en el problema. En el caso de Parker, el problema es mover al robot hacia adelante y las soluciones son las rutinas de control motriz. Las soluciones ms adecuadas se emplear para generar nuevas soluciones. La repeticin de este proceso muchas veces (generaciones de soluciones que evolucionan) puede llegar a un conjunto de soluciones que resuelven bien el problema. En el trabajo de Parker, los robots simulados comienzan con movimientos aleatorios en sus patas. Esto normalmente no los lleva demasiado lejos. Sin embargo, algunos se mueven hacia adelante un poco. Estas soluciones llevan a otras soluciones, algunas de las cuales funcionan peor y otras mejor. A lo largo del tiempo, Parker ha conseguido rutinas de control motriz suave que imitan la forma de andar de varios insectos diferentes. [17, 18, 19]. El uso de estas rutinas de control en robots reales conduce a robots que caminan. Los robots tontos, incapaces de moverse de ninguna forma con sentido, han evolucionado hasta robots capacitados a travs de generaciones de evolucin simulada. Sin embargo, Parker quiere robots que puedan hacer algo ms que moverse hacia adelante. Ahora, sus AGs buscan rutinas de control motriz que permitan a los robots examinar en detalle un espacio dado. Aunque estas tareas son similares a las tratadas por Rodney Brooks [4], la arquitectura de Brooks es muy diferente. En vez de los agentes de bajo de nivel de la arquitectura de Brooks, los modelos de Parker hacen evolucionar slo rdenes motrices, sin conocimiento a priori alguno de las formas de andar. Estas rdenes son similares a las que uno podra imaginar instintivas de los animales simples. Un problema al que los robots se enfrentan es que el entorno alrededor de ellos cambia mientras su control motriz no lo hace. Por esta razn, Parker est estudiando colocar los AGs que buscan las rutinas de control motriz en el propio robot. Esto permitira al robot hacer evolucionar

constantemente sus rutinas para caminar en el entorno actual. Permitira tambin que el robot ajustase su forma de andar si cualquiera de los motores de sus patas fuese daado o inhabilitado. Con la tcnica de aprendizaje ``en cualquier momento'' incorporada, los nuevos controladores de robots podran ser continuamente evaluados, estando siempre disponibles las potencialmente mejores soluciones para el entorno actual.

Por qu escuchar a un agente tonto?


Mientras que la simulacin de Parker trata el problema de coordinar las patas de un nico agente robtico, Cristobal Baray trabaja en la coordinacin de las acciones entre mltiples agentes. Aunque los modelos distribuidos de inteligencia artificial persiguen protocolos de coordinacin para agentes complejos, hay otras aplicaciones para ellos. La Naturaleza dispone de varias sociedades animales coordinadas para usarlas como inspiracin. Las hormigas emplean feromonas para comunicarse acerca de fuentes de comida, acerca del mantenimiento de la colonia y acerca de amenazas. Algunas ardillas y monos tienen sistemas de comunicacin que incluyen varios tipos diferentes de llamadas de alarma para distintos tipos de predadores. Haciendo uso de esos sistemas, Baray desarroll un pequeo mundo artificial, con comida, veneno y algunos agentes tontos. Los agentes tontos en este caso son simplemente agentes reactivos. Son mquinas de respuesta a estmulos, controladas por un conjunto de reglas ``if-then'' (si-entonces). Estn parcialmente inspiradas por los siempre intrigantes vehculos de Braitenburg [3]. La condicin del ``if'' se basa en el entorno actual del agente y la clasula ``then'' define la accin especfica a realizar. Los agentes no tienen memoria, ni son capaces de aprender (modificar sus reglas if-then) durante su vida. Para permitir que su cooperacin, son capaces de emitir y recibir seales. Para decidir qu conjunto de reglas if-then deberan utilizar los agentes se emplean algoritmos genticos. Poblaciones de agentes idnticos se colocan en el mundo y su esperanza de vida media representa la adecuacin de las reglas if-then. Se realizaron simulaciones del mundo intentando parametrizar las condiciones donde los sistemas de comunicacin evolucionaran. Los primeros experimentos mostraron que el mundo no era lo suficientemente hostil para motivar las seales. Si la vida es fcil, comportamientos simples (incluso aleatorios) bastaran. En un intento de mitigar este problema, se introdujeron predadores mviles en el mundo. Estos predadores eran capaces de llevar la evolucin de los agentes ms all. Se descubrieron las llamadas de alarma, con dos respuestas diferentes. En algunos casos, los agentes huiran de una llamada de alarma. Sin embargo, otras poblaciones evolucionaron hasta el comportamiento de dirigirse hacia las llamadas de alarma [1]. Aunque los agentes no se podan ayudar unos a otros al enfrentarse a un predador, se podan ayudar indirectamente. Los predadores en s son bastante simples y pueden ser confundidos por muchos agentes en su campo de visin. Cuando otros agentes se dirigan hacia el agente en peligro, el predador tena dificultades al perseguir a un agente especfico. En algunos casos, todos los agentes pueden escapar ilesos. Este comportamiento tambin se ve en sistemas naturales y se le denomina ``efecto confusin''. Actualmente, la co-evolucin de grupos de agentes se est introduciendo en el modelo. Relajando la restriccin de homogeneidad en las poblaciones, roles especficos podran

desarrollarse. Sociedades de avisadores y escuchadores o lderes y seguidores podran mostrar algunas ventajas sobre las poblaciones homogneas. De nuevo, el objetivo es parametrizar las condiciones que conducen a la evolucin de varias estrategias. Este conocimiento podra conseguir mejores mtodos de diseo para sistemas cooperativos con mltiples agentes. Adems, el trabajo podra aplicarse en controladores de alto nivel par los robots de Parker, con el fin de coordinar las acciones de una colonia de robots.

El habla tonta
En gran parte como el trabajo de Cris Baray sobre la coordinacin de las acciones de mltiples agentes con seales, el trabajo de Kyle Wagner est centrado en las seales concretas que los organismos utilizan. l se fija en los efectos de varias variables del entorno en la evolucin de los sistemas de comunicaciones, tales como el lenguaje humano. iquest;Por qu han evolucionado los sistemas de comunicaciones en tantas especies [11, 23]? iquest;Surgen estos sistemas siempre en las especies o hay aspectos de su entorno que pueden predecir si un sistema de comunicacin aparecer o no? Cuestiones como estas no pueden responderse con los enfoques de la IA tradicional ya que requieren muchos agentes que interactan (haciendo seales). Las simulaciones de Wagner tratan los efectos de la abundancia de recursos, los costes de las seales y la densidad de la poblacin en la evolucin de las seales. Cada agente es un mecanismo simple de estmulo-respuesta: puede detectar la presencia de recursos, seales y otros agentes, adems de moverse y enviar seales. El comportamiento particular de cada agente queda determinado por sus genes. Inicialmente, los agentes tienen genes aleatorios, as que son agentes tontos, incapaces de responder a su entorno adecuadamente. Como su xito en el mundo determina su xito en el apareamiento, cada generacin siguiente de los agentes llega a ser mejor en el trato con su entorno. Eventualmente, en algunas poblaciones evolucionan comportamientos que hacen seales para ayudarles a obtener recursos de una forma ms efectiva. En otros experimentos, en las poblaciones evolucionan comportamientos simples de recoleccin de recursos que no utilizan seales en absoluto (esto ocurre cuando el coste de la seal es demasiado elevado o la densidad de poblacin y la carencia de recursos hacen que las seales sean menos tiles). Wagner tambin explota las interacciones entre aprendizaje y evolucin e una sociedad de agentes [22, 21]. En particular, se pregunta por qu es la transmisin cultural tan importante para la forma particular de lenguaje que los humanos hablan [5, 16]. Por ejemplo, un beb nacido de padres alemanes que a continuacin crece en Japn -- y va a colegios japoneses -- aprender japons. Sin embargo, el beb no tiene antepasados japoneses. Cmo puede ser si el ADN controla el comportamiento como la comunicacin? La respuesta puede ser que el aprendizaje se combina con la evolucin para desarrollar un comportamiento complejo como el idioma (vase [7] para ms informacin acerca de la relacin entre evolucin y aprendizaje). Las simulaciones de Wagner de la tensin ente evolucin y aprendizaje se estn encaminando hacia la captura de la dinmica de una poblacin de agentes que hacen seales y no pueden confiar en su sistema de seales innato (especificado genticamente). Por qu los organismos podran no ser capaces de confiar en las seales que la evolucin les ha dado? Una explicacin es

que el entorno cambia demasiado rpido para que la gentica le siga el paso. El aprendizaje se introduce como una solucin a este problema. Es posible que los humanos transmitan su sistema de seales mediante la cultura porque el entorno eta muy inestable en algn tiempo del pasado de nuestra especia y la evolucin eta demasiado lenta para modificar las seales actuales y adaptarlas al nuevo entorno. Solamente el tiempo (y muchos experimentos) dirn si esta hiptesis acerca de la evolucin se mantiene.

El lenguaje para tontos


Los intereses de Jim Newkirk pueden verse como un complemento de los de Wagner. En vez de centrarse en la solucin de un problema complejo en el entorno, Newkirk se centra en las herramientas que los agentes desarrollan para resolverlo. El desafo de este mundo artificial es relativamente simple: aprender a comunicarse acerca de los objetos del mundo creando nombres para ellos y usando esos nombres de una forma consistente para que surja un vocabulario comn entre todos los agentes[11]. Los agentes comienzan de una forma prelingstica, con la nica habilidad de hacer y reconocer un conjunto de sonidos, y de observar el uso de los sonidos por otros agentes. Cuando dos agentes se encuentran y usan el mismo sonido para describir los objetos que conocen, son recompensados. Compartir palabras para las cosas es un logro lingstico que mejora la supervivencia haciendo avanzar la cooperacin. Su eleccin de palabras se expandir si otros agentes observan este comportamiento y prosiguen imitndolo en sus propios encuentros. En la vida real las cosas siempre cambian; de modo similar, los agentes del modelo de Newkirk continuamente descubren nuevos objetos en su mundo. Cuando se encuentran nuevos objetos, los agentes se enfrentan a una eleccin. Han de escoger entre inventar o improvisar: pueden intentar inventar una nueva palabra para el objeto utilizando un sonido nico nuevo o pueden improvisar un nombre nuevo combinando palabras que ya existen, tal como hacemos nosotros con las palabras compuestas. Se favorecer el nombre ms complejo si el nuevo objeto se parece a uno conocido, lo que har al nuevo nombre ms fcil de aprender. Pero tambin es ms difcil interpretar un nombre complejo porque los significados de sus palabras componentes pueden combinarse de muchas formas. No todos los agentes harn la misma eleccin, por supuesto, as que las distintas formas de los nuevos nombres competirn en la poblacin. La forma que se ajuste mejor al nuevo objeto y sea ms fcil de aprender se expandir ms rpidamente y, con el tiempo, llegar a ser parte del vocabulario comn. Los nombres complejos son una eleccin poderosa porque tienen el potencial de describir muchos objetos nuevos en trminos de otros. Sin embargo, si los agentes escogen utilizarlos, deben desarrollar un mtodo consistente para interpretar un nombre completo a partir de los significados de sus partes. Este es un proceso fundamental tras la sintaxis de un lenguaje: no slo el uso de palabras, sino una estructura efectiva para combinarlas. Incluso ms intrigante es que los agentes aparecen a dos niveles. A un nivel hay agentes que se comunican y, an su mundo virtual, usan interacciones simples para hacer evolucionar un vocabulario sofisticado. A otro nivel ms alto, hay un mundo lingstico cuyos agentes son las palabras individuales, compitiendo entre ellas para dominar en el vocabulario y cooperando entre ellas para describir ms objetos de los que podran describir por s mismas [2, 15]. Cada tipo de agente tiene sus propios problemas por resolver: los agentes virtuales han de sobrevivir en el

mundo de los objetos y las palabras tienen que sobrevivir en el vocabulario. Sin embargo, ya que cada especie de agente depende de la otra, colectivamente resuelven el problema mayor de desarrollar un lenguaje til para describir el mundo.

Agentes tontos en su (tonto?) escritorio


Los avances en potencia de clculo a lo largo de los aos ha impresionado al Profesor Gregory Rawlins, aunque el software disponible para esos "colosos" lo decepciona. A menudo nos recuerda que los ordenadores deberan ser herramientas que nos ayudasen en nuestras tareas diarias [20]. En vez de eso, parece que muchas de las aplicaciones disponibles incrementan la cantidad de trabajo necesaria para que realicemos nuestras tareas. Su ltimo proyecto, temporalmente llamado KnownSpace, es un intento de mejorar la interfaz entre usuarios y datos. Los objetivos del proyecto incluyen el anlisis de ficheros de datos (pginas web, documentos de noticias, correos electrnicos y ficheros locales), el agrupamiento de datos en mltiples dimensiones y rangos, la bsqueda peridica de informacin relevante y/o potencialmente interesante en la web; y, la visualizacin de toda esta informacin en un entorno espacial a travs del cual el usuario pueda fcilmente navegar. Adems, las singularidades de cada tarea han de adaptarse a lo largo del tiempo a las necesidades, intereses y preferencias de cada usuario. Para este proyecto, Rawlins dise un entorno multi-agente. Una regla de diseo estricta se mantiene a lo largo de este proyecto: ningn agente en el programa es capaz de ms de un simple trabajo. Los trabajos simples incluyen analizar sintcticamente los datos para obtener atributos, buscar datos con valores especficos de los atributos, agrupar datos de acuerdo a varios atributos, recoger ms datos de las distintas fuentes y monitorizar las acciones del usuario. Otros agentes monitorizan estos agentes de bajo nivel forzando la seleccin. Es difcil predecir los atributos importantes. Cambiarn de usuario a usuario y posiblemente de un da a otro. As que cientos de atributos se utilizarn, midiendo aspectos de las pginas que uno podra pensar que no son importantes. Sin embargo, en los datos posiblemente existan patrones que dependan de atributos que nosotros, como diseadores, podramos no predecir. Nuevos atributos se generarn continuamente. Nuevos agrupamientos se formarn, dependiendo de una serie de relaciones alternativas entre atributos. A lo largo del tiempo, las acciones del usuario seleccionarn algunos atributos y agrupamientos. Esto le permite al sistema adaptar su organizacin y reflejar los intereses del usuario y los patrones de comportamiento.

A dnde no llevarn los agentes tontos?


Los proyectos que acabamos de describir estn aplicando nuevos mtodos para estudiar y resolver viejos problemas. Estos mtodos estn an en su infancia: las herramientas estn constantemente en desarrollo, los resultados son difciles de predecir e interpretar y el enfoque es an ms un arte que una ciencia.

Sin embargo, an creemos que las interacciones de muchos agentes simples puede llegar a un comportamiento complejo. Los proyectos que hemos descrito son slo una parte de un trabajo creciente de investigadores que creen que agentes tontos distribuidos pueden ``hacer el trabajo'' mejor que un nico agente sofisticado [23, 11, 9, 13]. Estos trabajos estn todos inspirados de un forma u otra en los algoritmos genticos presentados por John Holland, los maravillosos ensayos de Marvin Minsky acerca de distintos agentes tontos que forman The Society of Mind, la ``ta Hilda'' del libro Godel, Escher, Bach de Douglas Hofstadter, que tan elocuentemente dibuja la analoga de hormigas y hormigueros con neuronas y mentes; y otros muchos trabajos que pueden encontrarse en las actas de las conferencias Artificial Life (vida artificial) y Simulation of Adaptive Behavior (simulacin del comportamiento adaptativo). Un rea del esfuerzo humano demuestra claramente el poder de muchos agentes ingenuos trabajando con un objetivo mucho mayor y ms complejo: la ciencia. Ningn cientfico intenta comprender todo de inmediato. Ms bien cada cientfico intenta trabajar en su campo altamente especfico, haciendo contribuciones a la suma del conocimiento en esa rea. Conforme cada rea crece mediante las contribuciones de los individuos, esos individuos pueden usar el trabajo previo para construir nuevas y mejores teoras. Aunque pueda resultar paradjico decir que comportamientos complejos pueden surgir de agentes inicialmente ingenuos, el trabajo llevado a cabo en la Universidad de Indiana y en otros lugares muestra que una gran diversidad de problemas puede tratarse con el enfoque de los agentes tontos. Los agentes inteligentes son difciles de programar desde cero y algunas tareas no pueden llevarse a cabo por un nico agente. El enfoque alternativo, comenzando con una poblacin de agentes tontos y seleccionndolos para incrementar el rendimiento, parece funcionar bien en un gran nmero de dominios. Finalmente, nuestra propia sociedad est compuesta por muchos agentes, cada uno capaz de conseguir ms de lo que podra individualmente con la ayuda de la cooperacin, la comunicacin y la evolucin.

Agradecimientos
Nos gustara agradecer al Profesor Rawlins, a Jim Newkirk y a Gary Parker por hacer su trabajo accesible a todos nosotros. Gracias tambin a Jim por sus comentarios y contribuciones a este artculo.

Referencias
1 Baray, C. Evolving cooperation via communication in homogeneous multi-agent systems in Proceedings of Intelligent Information Systems (Dec. 1997, Freeport, Bahamas) IEEE Computer Society, Los Alamitos, CA. 1997. pp 204-208. 2

Batali, J. Computational Simulations of the Emergence of Grammar, in Hurford, Studdert-Kennedy, Knight, (eds.), Approaches to the Evolution of Language, Cambridge, 1998. http://cogsci.ucsd.edu/~batali/papers/grammar.html 3 Braitenburg, V. Vehicles. MIT Press, Cambridge, MA. 1984. 4 Brooks, R. A Robot That Walks : Emergent Behaviors from a Carefully Evolved Network, in Neural Computation (pp 254-262). 5 Dyer, M. Toward synthesizing artificial neural networks that exhibit cooperative intelligent behavior: Some open issues in artificial life, in C. Langton (ed.), Artificial Life: An overview, MIT Press, MA, 1995, pp. 111-134. 6 Goldberg, D. Genetic algorithms in Search, Optimization and Machine Learning. Addison-Wesley, Reading, MA, 1989. 7 Hinton, G.E. and Nowlan, S.J.. How learning can guide evolution, in Complex Systems 1 (1987), pp. 495-502. 8 Hofstadter, D. Godel, Escher, Bach: An eternal golden braid. Basic Books, NY, 1979. 9 Holland, J. Hidden Order: How adaptation builds complexity Helix Books, Reading, MA, 1995. 10 Levy, S. Artificial Life: The quest for a new creation Jonathan Cape, London, 1992. 11 MacLennan, B. and Burghardt, G. Synthetic Ethology and the Evolution of Cooperative Communication, in Adaptive Behavior 2, 2 (Fall 1993), 161-188. http://www.cs.utk.edu/~mclennan/alife.html 12 Minsky, M. The Society of Mind. Simon and Schuster, NY, 1985. 13 Mitchell, M. An Introduction to Genetic Algorithms. MIT Press, Cambridge, MA, 1996. 14 Nilsson, N. Artificial Intelligence: A new synthesis. Morgan Kaufmann, San Francisco, CA, 1998. 15 Oliphant, M. and Batali, J.. Learning and the emergence of coordinated communication, in Center for Research on Language Newsletter 11, 1, (1997). http://www.ling.ed.ac.uk/~oliphant/papers/learnabs.html 16 Parisi, D. An Artificial Life Approach to Language, in Brain and Language 59 (1997), 121-146. 17

Parker, G. Evolving Hexapod Gaits Using a Cyclic Genetic Algorithm in Proceedings of th IASTED International Conference on Artificial Intelligence and Soft Computing (July 1997, Banff, Canada) pp. 141-144. 18 Parker, G. Metachronal Wave Gait Generation for Hexapod Robots in Proceedings of the Seventh International Symposium on Robotics with Applications (May 1998, Anchorage, AK). 19 Parker, G. Generating Arachnid Robot Gaits with Cyclic Genetic Algorithms in Genetic Programming III 1998 pp. 576-583. 20 Rawlins, G. Slaves of the Machine : The Quickening of Computer Technology. MIT Press, Massachusetts, 1997. 21 Steels, L. Synthesising the Origins of Language and Meaning Using Co-evolution, Selforganization and Level Formation, in J. Hurford (ed.) Evolution of Human Language Edinbugh University Press, Edinbugh, 1997. 22 Todd, P., and Miller, G. Exploring Adaptive Agency I: Theory and methods for simulating the evolution of learning. In Connectionist Models: Proceedings of the 1990 Summer School Morgan-Kaufmann, San Mateo, CA, 1991, pp. 65-80. 23 Werner, G. and Dyer, M.. Evolution of Communication in Artificial Organisms, in C. Langton, C. Taylor, J. Farmer, and S. Rasmussen (eds.), Artificial Life II, SFI Studies in the Sciences of Complexity, vol. X Addison-Wesley, MA, 1991, pp. 659-687. Cristobal Baray es un estudiante graduado que persigue un doctorado conjunto en Ciencias de la Computacin y Ciencias Cognitivas en la Universidad de Indiana. Su devocin a este enfoque se expresa en el tatuaje de su pantorrilla izquierda -- un par de hormigas comunicndose. Se puede contactar con l en cbaray@cs.indiana.edu Kyle Wagner tambin es un estudiante graduado que persigue un doctorado conjunto en Ciencias de la Computacin y Ciencias Cognitivas en la Universidad de Indiana. l estudia la evolucin de la comunicacin y la naturaleza del significado. Programa en Java. Su tipo de comida favorita es el chocolate. Su direccin de correo electrnico es elyk@cs.indiana.edu

Copyright 1999 Cristobal Baray and Kyle Wagner

También podría gustarte