Está en la página 1de 2

ADN.

es ciencia
Científicos españoles crean caras virtuales capaces de transmitir emociones y estados de
ánimo
Basándose en los cinco rasgos de la personalidad establecidos por el psicólogo Albert
Mehrabian, han desarrollado algoritmos para obtener las expresiones faciales
correspondientes
SINC , Madrid | 24/11/2008 - hace 2 días | comentarios | +6 -0 (6 votos)
Un equipo de investigadores de la Universidad de las Islas Baleares (UIB) ha
desarrollado un modelo por ordenador que permite generar caras en las que, por primera
vez, se visualizan emociones y estados de ánimo acordes a los rasgos de personalidad,
según publica el Servicio de Información y Noticias Científicas (SINC). El estudio
aparece en el último número de la revista Computer Animation and Virtual Worlds.
"El objetivo de este trabajo ha sido diseñar un modelo que evidencie los estados
emocionales de un personaje y su visualización en una cara virtual", señala al SINC una
de las autoras del estudio, Diana Arellano, de la Unidad de Gráficos y Visión por
Ordenador e Inteligencia Artificial de la UIB.
"En un mismo espacio 3D hemos integrado a la vez la personalidad, las emociones y los
estados emocionales o de ánimo, que hasta ahora se venían tratando de forma separada",
aclara al SINC Arellano.
La investigadora recuerda que las emociones, como el miedo, la alegría o la sorpresa,
son alteraciones del ánimo casi instantáneas, a diferencia de los estados emocionales,
como el aburrimiento o la ansiedad, que son más duraderos, o la personalidad, que suele
durar toda la vida. Las caras muestran emociones universales: enfado, asco, miedo,
alegría, tristeza, sorpresa. Arellano et al. / UIB
Basado en teorías de un psicólogo de EEUU
Para establecer el modelo, los diseñadores han seguido las teorías del psicólogo
estadounidense Albert Mehrabian, que parte de cinco rasgos de la personalidad:
extroversión, neurosis, apertura, diligencia y simpatía. "Cada personalidad se puede
considerar como un estado emocional por defecto", indica Arellano. Así, una
personalidad introvertida y neurótica se corresponde con un estado emocional ansioso.
Los puntos de la cara que definen estas emociones se pueden determinar
matemáticamente y con los algoritmos desarrollados por los informáticos se pueden
obtener de forma "fácil y rápida" las distintas expresiones faciales.
El sistema, que emplea el estándar de codificación de vídeo MPEG-4 para generar las
imágenes, permite visualizar las emociones básicas, como enfado, asco, miedo, alegría,
tristeza, sorpresa, y las situaciones intermedias.
Los resultados del método se han evaluado tanto de modo objetivo, mediante un
reconocedor automático que identificó el 82% de las expresiones generadas, como
subjetivo, a través de una encuesta a un grupo de 75 alumnos universitarios, en la que
reconocieron con éxito el 86% de las emociones y el 73% de los estados emocionales
representados en el ordenador.
Todavía hay que profundizar más en el modelo
Aun así, los investigadores han detectado que algunas emociones son difíciles de
diferenciar, como el miedo y la sorpresa, y que es el contexto el que ayuda a
diferenciarlas. El equipo ya trabaja en esta línea y prepara un cuentacuentos virtual que
enriquezca la narración expresando con su rostro las emociones que genera la historia
contada.
Arellano señala además que la manifestación de emociones no depende sólo de la
expresión facial, sino que existen

26/11/2008 http://www.adn.es/printVersion/ADNNWS20081124_0806/600
ADN.es
Página 2 de 2
también otros factores como los gestos, la voz o los movimientos de la cabeza que
también ayudan a la interpretación correcta de una emoción, ya que en ellos influye la
personalidad notoriamente.
Los investigadores consideran que este modelo se podría aplicar a entornos educativos,
como los tutores virtuales o presentadores con rasgos de personalidad, y también a
personajes de videojuegos o a historias interactivas que tengan su propio motor
emocional.
"Nuestro siguiente paso es dejar de lado el estándar MPEG-4 y concentrarnos en una
malla genérica de alta calidad que permitirá incluir tanto arrugas como movimientos de
ojos, párpados y cabeza, y sintetizar la voz", concluye la investigadora.