P. 1
Inclusion de Emociones en Agentes Inteligentes

Inclusion de Emociones en Agentes Inteligentes

|Views: 608|Likes:
Publicado porEduard Moya
Ensayo sobre las ventajas y desventajas de la inclusion de emociones en agentes inteligentes. Se plantea la falta de una definicion clara de emocion(es), lo que lleva a la implementacion de modelos de sintesis emocional con nociones de ambiguas.
Ensayo sobre las ventajas y desventajas de la inclusion de emociones en agentes inteligentes. Se plantea la falta de una definicion clara de emocion(es), lo que lleva a la implementacion de modelos de sintesis emocional con nociones de ambiguas.

More info:

Published by: Eduard Moya on Mar 20, 2010
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as PDF, TXT or read online from Scribd
See more
See less

11/27/2012

pdf

text

original

Inclusión de Emociones en Agentes Inteligentes

Eduard Moya Licenciatura en Computación Facultad Experimental de Ciencias Universidad del Zulia

Un Agente Inteligente (AI), por definición, es una entidad capaz de percibir el estado de su entorno, procesar estas percepciones sensoriales y emitir una respuesta correcta tendiendo a maximizar un resultado esperado, es decir, emiten una respuesta racional, esto es, porque se espera que cumplan con una finalidad. Siendo los AI (en teoría) una solución óptima para la resolución de problemas, debemos preguntarnos, aparte del aporte de Doyle (1991) quien dijo: “La inteligencia artificial es la disciplina dedicada a entender a los seres inteligentes a través de la construcción de sistemas inteligentes”, ¿Por qué la necesidad de proveerle de emociones a un agente? Recientemente fue introducido el término “inteligencia emocional” como tema de investigación de las áreas de la psicología y la inteligencia artificial. Este define el tan importante rol que las emociones desempeñan en el proceso humano de toma de decisiones, y por consiguiente el papel que juegan en la inteligencia humana. Como todos sabemos, en lo que a resolución de problemas se refiere, existen muchas maneras de pensar y representar dichos problemas y por lo tanto son muchas las posibilidades de encontrar una solución, unas de manera más eficiente y con mejores resultados que otras. Algunos autores, definen las emociones que influencian la deliberación y razonamiento practico de un agente como heurísticas que previenen la deliberación excesiva. Definiendo las emociones Las emociones son procesos relacionados con la arquitectura de la mente, es decir, la toma de decisiones, memoria, percepción y relaciones de la realidad o la imaginación. Permitiendo una abstracción de la realidad actual, en el cual se da solución a necesidades, deseos o preferencias, en el proceso, valorará la lista de las posibles conclusiones o hechos que piensa que van a suceder, realizando una búsqueda en su memoria de experiencias iguales o parecidas. El modelo OCC (Ortony, Clore, & Collins - 1988) ha sido usado en un gran número de estudios para la generación de emociones para sus personajes corpóreos (embodied characters), posee 22 emociones y su popularidad viene dada por la correspondencia entre los “objetos” de estas emociones (objetos, acciones y eventos) y las nociones comunes de los agentes inteligentes (agentes,

planes, y ejecución de metas, respectivamente), sin embargo, aun este modelo tan popular en las ciencias de la computación, puede no ser considerado como realmente “preciso” en cuanto a la formalización de la estructura que conforman el sistema emocional, algunos autores señalan que este modelo esta realizado desde el punto de vista de psicólogos que tratan de poner reglas base para el desarrollo de modelos computacionales, y por lo tanto, visto desde el punto de vista de científicos en áreas de la computación y de la lógica, pueden encontrarse ciertas ambigüedades en cuanto a la relación entre las especificaciones del tipo emocional y la estructura lógica del agente, y como podemos deducir, para un diseño optimo es necesario un modelo libre de ambigüedades. Las emociones tienen su base en experiencias previas, y están definidas por el nivel de apreciación que tiene un agente hacia un objeto del entorno, debido a esto, no se debe establecer un estado emocional único para el agente, como por ejemplo: “el agente está completamente feliz”, se deben plasmar relaciones con objetos de manera individual, así el agente puede sentirse contento con un objeto y molesto con otro. Las experiencias previas ayudan al agente a aprender, por así decirlo, y reducir de esta manera, el experimentar la emoción del miedo, que genera incertidumbre, y lleva a un agente a asumir posibles falsos negativos. Un agente con poca incertidumbre es un agente más seguro de sus decisiones, además de esto, la memoria ayuda a relacionar eventos similares y así también reforzar las decisiones tomadas al conocer un resultado esperado. Existen varios factores que dificultan la implementación de emociones de manera computacional, el problema principal es que no existe una definición clara de lo que son las emociones. “Existen por lo menos 92 definiciones distintas” (Kleinginna & Kleinginna 1981) Ejemplos de estas definiciones: LeDoux (1994): “Las emociones son […] estados conscientes”. Damasio (1994): […] designa una colección de respuestas disparadas desde partes del cerebro al cuerpo, y de partes del cerebro a otras partes del cerebro. Lo que LeDoux llama emociones, es lo que Damasio llama sentimientos. Otro inconveniente es, la representación o interpretación de eventos u objetos, ¿Cómo imagina un agente una parte de la realidad? Por ejemplo: después de dejar una habitación… ¿Cómo la recuerda?, no son muchas las personas que recordarían cada detalle, algunas olvidarían unos de estos (de manera involuntaria, por supuesto), cada persona tiene su propia representación de la realidad, es un aspecto de aleatoriedad que hace a cada persona “única”, por así decirlo.

Como ha sido expuesto hasta ahora, hay ventajas y desventajas para la implementación de emociones en agentes inteligentes, pero ¿son estas las razones para su uso? “Las emociones en agentes introducen nuevas metas urgentes o alteran las prioridades de metas ya existentes” ese simple hecho puede resultar atractivo para los investigadores, el poder incorporar el “aspecto de aleatoriedad” del pensamiento humano en una maquina o pieza de software, y así poder representar de manera lógica, con variables y valores palpables los complejos procesos neuroquímicos que llevan al razonamiento humano, no solo en cuanto a la toma de decisiones en general, sino también en cuanto a su interacción con el ambiente en el que se desarrolla, interacción con otros agentes, interacción humano-agente, y para modelar y simular la conducta humana para la toma de decisiones en grupo y, para discutir y poner en práctica el proceso de contagio emocional, donde las emociones de un agente afectan a aquellos quienes sienten afecto o aversión. El termino Contagio Emocional o Emotional Contagion fue introducido por los psicólogos Elaine Hatfield y John Cacioppo, junto con el historiador Richard Rapson, quienes en su obra de 1994 con este mismo nombre (Emotional Contagion) afirman que el mimetismo sirve también para contagiar emociones. “Si sonrío y otra persona me ve y me devuelve la sonrisa (aunque sea una mini sonrisa que no dure más que unas milésimas de segundo) no será solo que esa persona me ha imitado o ha empatizado conmigo; puede ser también que yo le haya transmitido mi alegría”. Los agentes inteligentes a quienes se les atribuye emociones, son llamados Agentes Emocionales (por muchos). Su utilidad o falta de ella, como muchas de las características de dichos agentes, son subjetivos y apreciativos, es decir, dependen de las metas de sus creadores y en los propósitos individuales para los que son creados cada agente. Queda claro que no tendremos agentes realmente emocionales hasta que no se obtenga una definición clara de lo que son las emociones, después de esto, establecer un modelo de síntesis de emociones libre de ambigüedades, y establecer un modelo de manifestación de comportamiento en el caso de mezcla de emociones y sus variaciones según el orden en el que ocurren, es decir, como debe comportarse el agente ante emociones opuestas hacia un mismo objeto (generalmente otro agente), veamos unos ejemplos: 1. Un agente cumple uno de sus objetivos, pero al hacerlo, evita que otro cumpla el suyo, el segundo agente estará molesto con el primero debido a esto. 2. Un agente cumple uno de sus objetivos, y al hacerlo, ayuda a otro a cumplir el suyo, el segundo agente estará contento con el primero debido a esto. 3. En los casos anteriores, los agentes no tenían una apreciación previa del segundo agente, pero digamos que uno de estos siente de antemano cierto desprecio hacia otro, si el segundo agente ayuda al primero a cumplir un objetivo, entonces lo más probable es que el primero se sienta contento con el otro, pero quizás no del todo, es decir,

comparando acciones presentes con las previas, el agente tendrá una sensación de duda, y hacia el segundo agente solo sentirá incertidumbre. Finalmente, se debe tomar en cuenta la inclusión de reglas para las relaciones y dependencias de los procesos cognitivos con respecto a las emociones, en otras palabras, los agentes deben poder controlar sus acciones para mantenerse como “seres” racionales si la situación lo amerita, pues si desarrollamos agentes emocionales para simular el comportamiento humano bajo situaciones de alto estrés y no para agilizar la toma de decisiones se puede prescindir de la “racionalidad”.

“Why don’t we just build an embodied agent, able to have emotions and to react to those? This is not so hard” (Castelfranchi, 2003).

Referencias

-

John-Jules Ch. Meyer, Bas R. Steunebrink, Mehdi Dastani. A Logic of Emotions for Intelligent Agents Kenji Suzuki, Antonio Camurri, Pasqualino Ferrentino y Shuji Hashimoto. Intelligent Agent System for Human-Robot Interaction through Artificial Emotion. http://www.iit.tsukuba.ac.jp/~kenji/pdf/SMC98.pdf Goreti Marreiros, Carlos Ramos y José Neves. Emotion and Group Decision Making in Artificial Intelligence. http://bridge.gecad.isep.ipp.pt/report0307/Papers/AIDSPublications/Emotion%20an d%20Group%20Decision%20Making%20in%20Artificial%20Intelligence_f.pdf Peter-Paul van Maanen. Emotion in Intelligent Agents. http://www.few.vu.nl/~pp/public/presentatie.pdf Christoph Bartneck. Integrating the OCC Model of Emotions in Embodied Characters. http://www.vhml.org/workshops/HF2002/papers/bartneck/bartneck.pdf Bas R. Steunebrink, Mehdi Dastani y John-Jules Ch. Meyer. The OCC Model Revisited. http://www.idsia.ch/~steunebrink/Publications/KI09_OCC_revisited.pdf Iliana Y. Rodríguez. La Resolucion de Problemas y el Pensamiento Matematico Divergente. http://www.revistaciencias.com/publicaciones/EEVuuyykFFwruSpUOD.php

-

-

-

-

-

-

-

http://es.wikipedia.org/wiki/Imaginación http://es.wikipedia.org/wiki/Emoción http://es.wikipedia.org/wiki/Heurística_(informática) http://es.wikipedia.org/wiki/Heurística http://es.wikipedia.org/wiki/Agente_inteligente_(inteligencia_artificial) http://todas-las-emociones.blogspot.com/2009/08/contagio-emocional.html

You're Reading a Free Preview

Descarga
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->