Está en la página 1de 7

See discussions, stats, and author profiles for this publication at: https://www.researchgate.

net/publication/228557568

Avatares Conversacionales 3D en Tiempo Real para su Integración en Interfaces de


Usuario y Entornos TV

Article · January 2002

CITATION READS

1 126

1 author:

Amalia Ortiz
Universidad Pública de Navarra
26 PUBLICATIONS   181 CITATIONS   

SEE PROFILE

All content following this page was uploaded by Amalia Ortiz on 26 May 2015.

The user has requested enhancement of the downloaded file.


Avatares Conversacionales 3D en Tiempo Real para
su Integración en Interfaces de Usuario y Entornos TV
Amalia Ortiz (1), Jorge Posada (1), Karmelo Vivanco (2),
Miguel G. Tejedor (3), Eva Navas (4), Inma Hernaez (4)

(1) Departamento de Edutainment y Turismo (VICOMTech)


(2) Baleuko
(3) Talape
(4) Universidad del Paı́s Vasco/Euskal Herriko Unibertsitatea (Grupo Aholab)
aortiz@vicomtech.es

Resumen actualmente encuentran importantes restricciones tecnológicas


en el desarrollo de aplicaciones. Algunas de las caracterı́sticas
Las interfaces actuales no permiten al usuario interactuar con que hay que tener en cuenta durante el desarrollo para su
el sistema de una manera natural e intuitiva. Surge la necesidad uso en aplicaciones multimedia son: peso poligonal bajo,
de crear un nuevo lenguaje de comunicación hombre-máquina. capacidad emocional, flexibilidad a la hora de ser integrado en
Para ello, se están desarrollando las denominadas ”Interfaces otras plataformas (PC’s, PDA’s, TV Digital, etc.) y sobre todo,
Conversacionales de Usuario”, que integran un asistente virtual respuesta en tiempo real, ya que las animaciones pregrabadas
3D capaz de realizar funciones del sistema. En este articulo se no sirven si se desea una comunicación interactiva.
presenta un proyecto industrial (*) basado en este tipo de inter-
faces, describiendo su modo de funcionamiento, la importancia En el apartado 2 se describe la importancia del uso de emo-
de unir el uso de la sı́ntesis de voz a una representación gráfica ciones y el empleo de lenguas minoritarias en las nuevas tec-
tridimensional y las aplicaciones que puede tener. nologı́as. A continuación, en el apartado 3, pasamos a explicar
el proyecto en el que estamos trabajando (ABATEUS), con una
(*) Este trabajo ha sido parcialmente financiado por el pro- descripción del sistema desarrollado y sus funcionalidades. Por
grama INTEK 2001 del Gobierno Vasco, código CN01BA09. último, en el apartado 4, se describen algunas de las posibles
aplicaciones que pueden tener este tipo de interfaces, tanto en
1. Introducción general como para nuestro proyecto en concreto.
Recientemente la influencia de los ordenadores ha crecido
hasta el punto de convertirse en una herramienta muy útil y
utilizada por la mayorı́a de las personas, no sólo en su trabajo,
sino también en su tiempo de ocio. Con este crecimiento, la
tecnologı́a ha ido también evolucionando y es cada vez más
potente y novedosa, pero también más compleja y difı́cil de
entender para el usuario medio. Es ası́ como surge la necesidad
de realizar un cambio en los sistemas y métodos de interacción
hombre-maquina[1]. Hoy en dı́a, la forma más común de
realizar cualquier tarea en un ordenador personal esta basada
en el paradigma WIMP (Windows, Iconos, Menús y Punteros).
Sin embargo, este modo de actuación es insuficiente para
proporcionar al usuario una interfaz natural e interactiva, que le
permita un uso eficiente de las nuevas tecnologı́as.

La forma de comunicación natural entre humanos esta


basada en el habla. Las innovadoras interfaces de usuario que
actualmente están siendo desarrolladas, incorporan módulos
de sı́ntesis y reconocimiento de voz. Una manera adicional
de enriquecer estas nuevas interfaces es la integración en el
Figura 1: Consola de ABATEUS. Cabeza de BetiZu
sistema de un asistente virtual 3D, más comúnmente denomi-
nado ’avatar’, con capacidad de habla en tiempo real. En estas
nuevas interfaces, llamadas ”interfaces conversacionales de
usuario”, la figura del avatar juega un papel muy importante. 2. El proyecto ABATEUS
Los avatares son personajes virtuales, representados por
el cuerpo entero o únicamente por la cabeza, que pueden El objetivo global del proyecto ABATEUS es implementar una
simular aspectos de la comunicación humana (oral o no oral), y plataforma para el desarrollo de avatares parlantes en euskera,
Figura 2: Arquitectura del Sistema.

basados en los personajes animados de dos productoras de VICOMTech colabora en estos proyectos con GRIS y ZGDV
televisión y explorar formas innovadoras de utilizarlos en (Departamento de Digital Storytelling) compartiendo sus
aplicaciones multimedia y Televisión Digital, ası́ como en conocimientos en el área de avatares, en la que ambos grupos
su entorno de producción televisiva tradicional. El proyecto han tenido una gran experiencia. ZGDV, GRIS y VICOMTech
está basado en un primer prototipo de plataforma de avatares, son miembros de la INI-GraphicsNet.
que existe actualmente para otras lenguas.
El grupo Aholab, de la UPV/EHU, está desarrollando un
Para el desarrollo del proyecto se ha formado un consorcio sintetizador de voz en Euskera capaz de soportar carga emo-
integrado por la asociación VICOMTech, el Grupo Aholab cional. Su primera versión, sin carga emocional, ya ha sido in-
de la Universidad del Paı́s Vasco/Euskal Herriko Unibertsi- tegrada en ABATEUS.
tatea(UPV/EHU) y las productoras Baleuko y Talape. Actualmente el primer prototipo es completamente fun-
cional y capaz de sintetizar textos en euskera con el personaje de
Baleuko y Talape cuentan con una amplia experiencia BetiZu. El trabajo en sı́ntesis de voz emocional, calidad de ren-
en animación 3D. Baleuko ha producido, entre otros, uno de derización e integración en otros módulos o plataformas está en
los primeros largometrajes 3D en Europa. Produce también curso.
alrededor de 8 minutos semanales de BetiZu, una serie de
animación 3D para el canal de televisión vasco, ETB, que se ha 2.1. Descripción del sistema
convertido en uno de los programas televisivos para niños más
Como se puede ver en la Figura 2, la arquitectura del sis-
vistos en el Paı́s Vasco.
tema está dividida en tres módulos fundamentales que expli-
camos a continuación:
Baleuko y Talape están interesados en el área de gráficos
por computador y su aplicación para televisión, en particular, 2.1.1. Módulo de Sı́ntesis de Voz (Aholab)
para el personaje BetiZu, una vaca espacial que habla euskera
[Figura 1]. El proyecto ABATEUS ayudará en el proceso El funcionamiento del sistema es el siguiente: el texto
de producción de Baleuko a automatizar la animación facial etiquetado de entrada (que puede provenir de múltiples posibles
de sus personajes en las secuencias habladas y permitirá el fuentes: teclado, Internet, archivo), contiene el texto que se
uso de su personaje estrella en otras áreas innovadoras y va a pronunciar, más unas etiquetas especiales que indican las
poco convencionales. Esta tecnologı́a puede mejorar el actual emociones con que se deben emitir ciertas partes del texto,
escenario de modelado, animación y producción de contenidos ası́ como eventos emocionales complejos relacionados tales
televisivos y extender las actividades de las empresas a otros como risas, lloros, etc.
canales de comunicación como puede ser Internet o CD’s
multimedia. El módulo de preprocesado interpreta ese texto etiquetado
y extrae las emociones que se transfieren a la plataforma gráfica
VICOMTech es responsable de la plataforma avatar, para controlar la expresión de la cara. El texto a pronunciar,
especialmente de la sincronización entre la animación facial ası́ como las emociones y los eventos relacionados con ellas
y el audio, y de los algoritmos de gráficos 3D. Dentro de este se transfieren también al procesador lingüı́stico del conversor
área es importante destacar la relevancia de las expresiones texto a voz.
emocionales en la animación facial ası́ como de la imple-
mentación de las reglas de comportamiento, para dar al avatar El procesador lingüı́stico calcula la cadena de sonidos
una movilidad creı́ble y poder integrarlo en aplicaciones de TV. necesaria para emitir el mensaje contenido en el texto con la
emoción indicada por las etiquetas, asignando a cada fonema 2.2. Funcionalidades de ABATEUS
sus caracterı́sticas prosódicas, principalmente su duración
A continuación se presentan algunas de las principales fun-
y entonación. Estas caracterı́sticas prosódicas, junto con la
cionalidades que ya ofrece la plataforma avatar desarrollada
cadena de sonidos a pronunciar (fonemas y sonidos asociados a
para el proyecto:
los eventos emocionales) se transfieren a la plataforma gráfica
y al módulo motor de sı́ntesis de voz en Euskera. MULTILUNGUALIDAD :
Un resultado clave de nuestro proyecto es la inclusión
Finalmente el motor de sı́ntesis genera la señal de voz del euskera en la plataforma de desarrollo del avatar.
correspondiente, que se lanza simultáneamente a la secuencia Ası́, el sistema está disponible para el inglés, el castel-
animada de imágenes calculada por la plataforma avatar. lano y el alemán. Para estas lenguas la voz es sintetizada
utilizando el sistema de sı́ntesis público MBROLA [3].
Para el caso del euskera, como ya se ha mencionado, se
Una de las labores de Aholab es la grabación y la creación incorpora el sistema de sı́ntesis AhoTTS [4]
de una Base de Datos emocional con la voz de BetiZu usando
los estudios de grabación de Baleuko.
ANIMACIÓN FACIAL :
Las partes faciales que son habitualmente animadas
2.1.2. Módulo de Animación y Sincronización (VICOMTech) en el avatar son: la cabeza, los labios, los ojos, las
pupilas, las cejas y las pestañas. Para este trabajo, se
Por otro lado, para reproducir la salida gráfica se necesitan utilizan también animaciones propias del ’cartoon’,
algunos de los parámetros del sintetizador de voz con el fin de como el movimiento de las orejas de Betizu, la nariz, etc.
coordinar los gestos faciales de habla. Principalmente son la
frecuencia fundamental o pitch y la duración de cada fonema,
Algunas de las animaciones simplemente se real-
aunque también se incluyen sonidos y eventos emocionales
izan generando una deformación individual más una
basados en marcas o etiquetas del texto.
traslación o desplazamiento en una determinada trayec-
toria, como es el caso de las pupilas o el movimiento
Con estos datos, se asociará cada fonema a su visema de la cabeza. Otras, como las de los labios, se realizan
correspondiente -equivalente visual del fonema- mediante utilizando técnicas de morphing.
técnicas avanzadas de morphing [2] y con base en ’objetivos
morph’ básicos (morph targets) que representan posiciones
preestablecidas del rostro. La animación 3D gestual del habla
está basada en los parámetros procedentes del sintetizador junto
con la aplicación de una serie de reglas de comportamiento
internas (asociadas con emociones), y la combinación de los
objetos básicos, establecidos previamente, y combinados con la
técnica morphing. Cada objeto es una representación 3D de la
cara en una posición determinada (ej. Boca abierta en forma de
O). De esta manera, se podrán representar cambios a lo largo
del tiempo como una interpolación de figuras dadas.

Los objetos básicos son determinados para un personaje


particular mediante diversas posiciones faciales, representadas
por mallas poligonales en ficheros con el formato estándar de
Alias Wavefront. Estas posiciones faciales, pueden ser fácil-
mente producidas en el entorno usual de trabajo de Baleuko y
Talape.

2.1.3. Módulo de Adaptación de Geometrı́as (VICOMTech)

Este es el módulo encargado de adaptar nuevos personajes


a la plataforma a partir de los ficheros de mallas obtenidos en
los entornos habituales de trabajo de Baleuko y Talape para
animación 3D. La generación de los archivos de mallas es
completamente automática, puesto que éste es un estándar de
facto para la descripción de mallas poligonales en la industria
de animación gráfica. Para cada personaje debe generarse un
número preestablecido de posiciones faciales estáticas 3D.

A partir de estos archivos, el módulo adaptador de mallas


poligonales faciales genera una representación interna de la in-
formación geométrica apta para el procesado y la aplicación Figura 3: Técnica Morphing.
de las técnicas de morphing necesarias para la animación en
la plataforma.
Para representar una animación con esta técnica, lo DIFERENTES PERSONAJES :
primero que hay que hacer es encontrar un apropiado El sistema es flexible, de tal forma que contiene un
conjunto de objetos básicos (Bi en la Figura 3 y en la módulo especial que permite el cambio de un avatar a
fórmula 1), de tal manera que todas las expresiones otro de una manera sencilla para el usuario. Esto permi-
faciales necesarias para producir la animación, se tirá a la empresa la utilización futura de la plataforma
puedan obtener a partir de una combinación de estos ABATEUS, no sólo para su personaje protagonista,
objetos básicos. Para este proyecto se han definido 14 BetiZu, sino para cualquiera de ellos. Ası́ mismo, la
objetos básicos diferentes. arquitectura del sistema soporta avatares de carácter
humano o de dibujo animado 3D.
La animación se representa por una geometrı́a base (ej:
malla headDefault) y un conjunto de keyframes o vector TEXTURAS Y MATERIALES :
de pesos. Cada valor del vector de pesos corresponde al El sistema soporta materiales diferentes y texturas,
valor de interpolación (ai en la Figura 3 y en la fórmula incluyendo fotografı́as de personas. Con dos o tres fotos
1). Los objetos básicos están definidos por una serie de es posible reproducir un avatar con una apariencia real,
vértices , vij que se mueven a lo largo del tiempo para aunque actualmente este proceso requiere una intensa
producir la animación. Las secuencias de animaciones intervención manual del programador.
se van a generar realizando las operaciones definidas en
la fórmula 1 según los valores de entrada, tal y como se
observa en la figura 3. EVENTOS :
El sistema es capaz de captar eventos de usuario tales
como ”Parar!.o ”Hablar!”. La lı́nea de investigación
n−1
X n−1
X está centrada actualmente en los eventos emocionales,
B(a) = ai B i = ( ai vij ) (1) como risas, suspiros, sorpresa, llanto, etc. que se
i=0 i=0 introducen manualmente en el texto de entrada.

EMOCIONES FACIALES :
Una de las principales ventajas de contar con un 3. Lı́neas de aplicación
avatar 3D conversacional es la de generar al usuario la El prototipo podrá ser fácilmente extensible a cualquiera de
ilusión de estar interactuando con el sistema como si los siguientes escenarios:
estuviera comunicándose con una persona real. Esto se
consigue imitando diálogos y formas de movimiento
de las comunicaciones entre humanos. Un ejemplo del
empleo de estas estrategias de comunicación nos lo
proporcionan los sistemas de ’Digital StoryTelling’[5].

La sincronización del habla con la animación facial, y la


simulación de expresiones emocionales son actualmente
áreas de investigación muy activas y son elementos
claves en el proceso de comunicación. La expresividad
y las reglas de comportamiento del avatar son tan im-
portantes para conseguir captar la atención del usuario
como una buena calidad de voz e imagen.
Las emociones implementadas en el avatar son un
subgrupo de las emociones definidas según MPEG-4:
alegrı́a, tristeza, enfado y neutral, con un control
paramétrico de la intensidad de cada una de ellas.
Figura 4: BetiZu en la web.
ALTA RESOLUCIÓN :
El objetivo del proyecto es permitir, tanto como sea
posible, el soporte de modelos de alta resolución. 3.1. Internet
La investigación se centra en soportar las mismas
resoluciones utilizadas por la empresa en los procesos Actualmente, Internet es un medio bien conocido y que
de animación 3D, sin perder calidad en una ejecución esta al alcance de muchos usuarios. Es una vı́a rápida de
rápida y sincronizada con el audio. Actualmente utilizan información, pero también de comunicación.
modelos de aproximadamente 25000 polı́gonos para las
animaciones faciales finales, aunque durante el proceso Las redes no son exclusivamente utilizadas hoy en dı́a
de animacion trabajan con modelos menos pesados. como medio de búsqueda de información sobre múltiples
La plataforma gráfica, actualmente es capaz de mover temas, sino también como vı́a de comunicación con otros
modelos de 5000 polı́gonos. La resolución final utilizada puntos del mundo, ya sea a través del correo electrónico
permitirá al usuario ejecutar el programa en un PC como a través del chat. La utilización de avatares en la red
ordinario con tarjeta gráfica sin ninguna especificación [6], personaliza la conexión del visitante, haciéndola más
especial. natural. El papel del avatar integrado en una página web ofrece,
entre otras, funcionalidades interactivas como: asistentes en
e-commerce o e-learning, acompañante y guı́a en los juegos de el lenguaje de comunicación, el tipo de interfaces y los
red o Tele-presencia en chats. servicios interactivos que se les proporcione durante la tele-
formación[11].
En nuestro caso[Figura 4], la aplicación consiste en un
lector de noticias de BetiZu para la página web de Baleuko. La tele-presencia es esencial para captar la atención del
Este prototipo ha sido implementado mediante applets de Java. alumno. Por ello, los avatares ofrecerán un incremento en
La animación gráfica se ejecuta en el cliente mientras que la la aceptación del sistema de educación, tomando el rol de:
generación de los archivos de audio se generan en el servidor. profesor, alumno o compañero, o incluso como guı́a en un
La arquitectura de red está diseñada para que el usuario no Entorno Virtual Educativo.
tenga que instalar ningún nuevo programa en su ordenador, de
tal forma que podrá interactuar con BetiZu en el momento de
En la figura 5 se observa un prototipo con base en un en-
conectarse a la página. Toda la ejecución es transparente para él.
torno virtual educativo en el que BetiZu actúa como profesora.
El entorno consiste en un espacio tridimensional dividido en
tres zonas o habitaciones que contienen diversos objetos sobre
3.2. Televisión Digital Interactiva
los que se puede interactuar. El usuario puede moverse por todo
La televisión digital interactiva enriquece la experiencia el entorno, siempre en el plano horizontal, pudiendo orientar la
de ver televisión, dando al espectador la posibilidad de ser un vista en los tres ejes. Se han tenido en cuenta las posibles coli-
agente activo gracias a varias aplicaciones[7], como pueden ser; siones que puedan ocurrir entre el visitante y el entorno, de tal
Chat, Juegos, E-commerce, Guı́a de programas electrónicos, forma que el usuario no podrá atravesar las paredes ni los ob-
etc. El avatar tiene cabida dentro de todas estas aplicaciones jetos. La implementación del prototipo esta realizada en Open
ayudando a generar en el espectador la sensación de estar Inventor y C++. El principal elemento de interacción entre el
realmente interactuando con un personaje real y de una manera visitante y el entorno es BetiZu. Como se observa en la figura
individualizada. Como ejemplo, algunas de las aplicaciones de 5, ésta se encuentra en una ventana activa fuera del entorno vir-
avatares para una plataforma televisiva podrı́an ser: tual. Cuando detecta alguna tipo de interacción con el entorno,
averigua de donde viene la orden y realiza las acciones perti-
nentes, como comenzar una descripción del objeto o explicar
Guı́a a través de la programación televisiva y de los difer-
las posibilidades de interacción que ofrece la habitación virtual
entes canales.
en la que se encuentra el usuario.
Personaje que puede interactuar individualmente con el
espectador transmitiendo contenidos interactivos.
Presentador virtual

3.3. Aplicaciones multimedia


Las aplicaciones multimedia, como audio, vı́deo, etc.
son un gran apoyo a la hora de presentar información de
cualquier tipo, educativo, de ocio, etc. Pero muchas veces, no
es suficiente.

Cada vez se está utilizando más el contenido hyper-media


[8], pero sigue faltando el agente inteligente con representación
gráfica, que permita una interacción natural para el hombre.
Dentro del contexto Edutainment (Educación y Entretenimien-
to) podemos tomar como ejemplo una aplicación multimedia
cuyo objetivo sea contar cuentos a niños. El audio y el vı́deo
son imprescindibles para ello, pero para captar la atención del
espectador, poder personalizar el cuento y hacerlo dinámico,
según indican los estudios realizados sobre Digital Storytelling, Figura 5: BetiZu integrada en Entorno Educativo.
falta la figura del ’cuenta cuentos’[9].

En el contexto concreto del proyecto ABATEUS, un cuenta-


3.5. Entornos normales de producción para televisión
cuentos con la apariencia de Betizu, en el que el niño pudiera
ver cómo su personaje de dibujos animados le cuenta un cuento Las animaciones 3D para televisión actualmente utilizan
personalizado e interactivo, serı́a de gran ayuda para la produc- algunos de los programas de modelado y animación existentes
ción y difusión de la serie. La caracterı́stica de personalización en el mercado.
se consigue gracias a la capacidad de respuesta en tiempo real
del sistema.
En concreto, las empresas Baleuko y Talape, animan su
serie televisiva, con uno de estos programas comerciales real-
3.4. Educación
izándolo de forma manual. Integrando esta tecnologı́a en su en-
La interacción estudiante-estudiante, en adición a la torno actual de producción, se podrı́a ayudar a la automatización
interacción estudiante-contenido y estudiante-profesor, es una de la animación facial en las secuencias habladas. El módulo de
parte a menudo descuidada en la educación a distancia [10]. animación que utilizan, obtendrı́a como entrada, la salida gráfi-
En este contexto, la motivación de los alumnos variará según ca y el audio sincronizados de la plataforma avatar.
View publication stats

4. Conclusiones y Trabajo Futuro ternet Video. In: Kluev, V.V. (Hrsg.) u.a.; World Scien-
tific and Engineering Society (WSES): Proceedings of
Los avatares y las interfaces conversacionales de usuario
WSES Conferences 2001. CD-ROM : SSIP-MIV- SIM-
abren muchas puertas a la interacción hombre-maquina,
RODLICS. 2001
proveyendo una interfaz mucho más natural e intuitiva. En
definitiva, son una forma innovadora y audaz para mejorar [7] Hari Om Srivastava: Interactive TV: Technology and Mar-
la interfaz de usuario en varios aspectos, y muy flexible para kets. Editado por: Digital Audio And Video Series.
ser integrado en otras plataformas. En concreto, para este [8] Braun, N., Finke, M. Interaction of Video on Demand Sys-
proyecto, se va a facilitar con valor adicional, la integración de tems with Human-like Avatars and Hypermedia. 7th In-
los avatares en la televisión 3D, en la producción de pelı́culas y ternational Workshop on Interactive Distributed Multime-
en áreas relacionadas. dia Systems and Telecommunication Services, IDMS2000
(en cooperación con ACM SIGCOMM y SIGMM) Oc-
Por otro lado, las lenguas minoritarias han sido dejados de tubre 17-20, 2000, Enschede, Holanda.
lado en el mercado dentro del área de las tecnologı́as del habla.
Esta tecnologı́a debe poder llegar a todas las culturas por lo [9] Ryokai, K., Vaucelle, C., Cassell, J.(2002). ”Literacy
que consideramos prioritario el desarrollo de avatares en estas Learning by Storytelling with a Virtual Peer”. Proceedings
lenguas. of Computer Support for Collaborative Learning. January
7-11, Boulder, CO, pp. 352-360.
Encontramos ası́ dos tecnologı́as con mucho potencial [10] Antón Nijholt. Computer-facilitated Communit Building
de sinergia, la de la sı́ntesis de voz y la de gráficos por for E-Learning. Center of Telematics and Information
computador. Dentro del área de sı́ntesis de voz, es importante Technology. University of Twente, Po Box 217. Publica-
resaltar la necesidad de avanzar especialmente en las lenguas tion 2002
minoritarias, y los avatares necesitan de esta capacidad para [11] Ryokai, K., Vaucelle, C., Cassell, J.(2002). ”Literacy
poder comunicarse con el usuario. Este proyecto une ambas Learning by Storytelling with a Virtual Peer”. Proceedings
tecnologı́as y es la prueba de que existen muchas posibilidades of Computer Support for Collaborative Learning. January
cientı́ficas y prácticas de interacción entre ambos. Con el se 7-11, Boulder, CO, pp. 352-360.
mejora la calidad de interacción entre el hombre y la máquina,
ofreciendo al usuario la posibilidad de hacerlo en su propio
idioma.

Se han obtenido ya unos buenos resultados iniciales, que


serán mejorados en la segunda fase del proyecto.

Las lı́neas de investigación futuras se centrarán en las ex-


presiones corporales y relaciones espaciales. Esto significa am-
pliar la animación facial a animación corporal y a su integración
total en entornos virtuales, aplicando reglas de comportamien-
to dependiendo de su situación espacial dentro del entorno. Por
otro lado, existe la necesidad de crear una comunicación habla-
da bidireccional, en la que el usuario pueda utilizar para la in-
teracción, además de el ratón y el teclado, su propia voz. Por
ello, otra de las lı́neas de investigación futuras en el área de
avatares conversacionales es la incorporación de sistemas de re-
conocimiento de voz.

5. Referencias
[1] Maes, P.: Agents that Reduce Work and Information Over-
load, Communications of the ACM, Vol. 7/7, July 1994.
[2] Alexa M., Behr J., Müller W. (2000). ”The Morph Node”.
Proc. Web3d/VRML 2000, Monterey, CA., pp. 29-34
[3] http://tcts.fpms.ac.be/synthesis/mbrola.html
[4] Inma Hernaez, Eva Navas, Juan Luis Murugarren, Bor-
ja Etxebarria: Description of the AhoTTS System for the
Basque Language.2001
[5] Norbert Braun, ”Storytelling & Conversation to Improve
the Fun Factor in Software Applications”. CHI 2002
Conference on Human Factors in Computing Systems,
Workshop Funologie, Minneapolis, Minnesota, SIGCHI,
ACM, USA ”Interactive problem solving with speech”, J.
Acoust. Soc. Amer., Vol. 84, 1988, p S213(A).
[6] Braun N, Finke M, Rieger Th: Community TV: An Ap-
proach to Interaction for Groups and Single Users on In-

También podría gustarte