Está en la página 1de 5

Computación Afectiva aplicada a la valoración emocional en contextos

gastronómicos.
Jorge Ierache , Iris Sattolo, Gabriela Chapperón, Rocío Ierache, Facundo Nervo,
Fernando Elkfury, Ramiro Nicolosi, Gonzalo Ponce.

Instituto de Sistemas Inteligentes y Enseñanza Experimental de la Robótica (ISIER)


Secretaria de Ciencia y Tecnología -Universidad de Morón

Cabildo 134, Buenos Aires, Argentina

jierache@unimoron.edu.ar

Resumen imágenes de alimentos estandarizados con


sus evaluaciones subjetivas. La base de
Este proyecto de investigación aplicada imágenes de OLAF (Open Library of
se orienta a la captura de estados Affective Food) tiene el propósito
emocionales de personas interactuando en específico de estudiar las emociones hacia
contextos gastronómicos, a través de un la comida. Se ha argumentado que las
Framework Multimodal, con la capacidad evaluaciones de alimentos no son válidas
de registrar datos tanto fisiológicos como entre individuos y grupos, a menos que los
biométricos, contribuye a reflejar el estado sentimientos hacia las señales alimentarias
emocional con una mayor fidelidad que la se comparen con los sentimientos hacia
obtenida cuando se utilizan pocos medios experiencias intensas no relacionadas con
de recolección de datos o encuestas. Se la comida, que sirven como puntos de
pretende obtener información en un referencia. Este proyecto continua las
contexto multimodal, a fin de valorar el líneas I+D del ISIER-UM; particularmente
grado de placer-rechazo, e intensidad que en el contexto de la computación cognitiva
se producen en una persona frente a y afectiva, en este orden se desarrollaron
diferentes comidas o alimentos. investigaciones con el empleo de interface
cerebro-máquina (BCI) aplicada a la
Palabras clave: Computación Afectiva domótica y a la robótica[1][2][3],
Alimentación, Datos Biométricos, Datos influencia en el estado biométrico
Fisiológicos, Framework Multimodal, emocional de personas, explotación de
datos electroencefalograma (EEG) y
Neuromarketing.
parámetros fisiológicos de usuarios
interactuando en contextos virtuales[4]
Contexto [5], y valoración del grado de atención de
Este proyecto de investigación aplicada alumnos en contextos áulicos[6].
se presentó en la convocatoria PIO-UM, se
Introducción
radica en el Instituto de Sistemas
Inteligentes y Enseñanza Experimental de Rosalind Picard define a la computación
la Robótica ISIER UM y capitaliza las
afectiva como “la informática que se
bases iniciales del proyecto PING/17-03-
JI-002 UM. Existen conjuntos de relaciona con las emociones, no sólo con

664
las consideradas más importantes, como la de mouse, tecleo y micrófono [18][19].
alegría o la tristeza, sino también con el
interés, el aburrimiento o la frustración, Como trabajos multimodales que integran
que son las que se dan en relación con los información fisiológica de diferentes
ordenadores” [7]. Sandra Baldasarri fuentes se pueden citar a [20],[21].
plantea que “los sistemas “afectivos”, En el uso de estados afectivos utilizando
deben ser capaces de: a) capturar y enfoques multimodales, existen distintos
reconocer los estados emocionales del desafíos, como lo son: (a) decidir qué
usuario a través de mediciones sobre modalidades combinar; (b) recopilar datos
señales generadas en la cara, la voz, el de entrenamiento; (c) manejo de datos
cuerpo, o cualquier otro reflejo del proceso faltantes, manejo de diferentes tasas de
emocional que se esté llevando a cabo; b) muestreo e interdependencia de
procesar esa información clasificando, modalidades al construir modelos; (d)
gestionando, y aprendiendo por medio de decidir cómo fusionar datos de diferentes
algoritmos que se encargan de recoger y modalidades; y (e) decidir cómo evaluar
comparar gran cantidad de casos, y que los estados emocionales. Particularmente
tienen en cuenta los estados emocionales en las líneas I+D de computación afectiva
del usuario y, en su caso, del ordenador; y, trabajamos con: EEG-BCI pasivos -los que
por último, c) generar las respuestas y las recolectan información del estado del
emociones correspondientes, que pueden usuario (a partir de biomarcadores) con el
expresarse a través de diferentes canales: objeto de evaluar/mejorar la interacción
colores, sonidos, robots, o personajes entre el hombre y el ambiente virtual, real
virtuales dotados de expresiones faciales, o mixto-, sensores fisiológicos (ECG-
gestos, voz, etc.” [8] De acuerdo con los Ritmo Cardíaco, Conductancia), Imágenes
tipos de datos que se utilizan en los reales y de base de datos – IAPS [22] [23],
sistemas propuestos, pueden clasificarse OLAF [24], [25], encuestas SAM (por sus
en sistemas unimodales -los que exploran siglas en inglés Self-Assessment Manikin)
una sola fuente de datos-, y multimodal - [26], y el “circunflex model” de Rusell
los que combinan dos o más fuentes de [27].
datos-. Para deducir el estado emocional
de un individuo en un contexto multimodal Se reconoce ampliamente que la expresión
se tiene que registrar, simultáneamente, afectiva humana consiste en una
diversa información biométrica. coordinación compleja de señales. Se
espera que analizar múltiples señales y su
Como trabajos unimodales se pueden citar interdependencia mutua produzca
como ejemplo a: captura de rostro con modelos que reflejen con mayor precisión
cámaras o a través de videos [9],[10], [11]; la naturaleza subyacente de la expresión
captura de electrocardiograma (ECG) afectiva humana. Los enfoques
[12][13][14][15]; captura de cadencia de multimodales contribuyen a mejorar la
tecleo [16]; captura de rostro con posición capacidad de detección de emociones, al
de la cabeza [17]; captura de movimientos basar sus decisiones en los distintos

665
canales disponibles. Variación de Ritmo Cardíaco
(HRV) y Respuesta Galvánica
Líneas de Investigación, de la Piel (GSR).
Desarrollo e Innovación
• Integrar imágenes del contexto
Las líneas de I+D se centran en un gastronómico, imagen del rostro
framework multimodal para la captura de del sujeto de estudio, y datos de
estados emocionales, con capacidad de inferencia de estado emocional.
registrar datos biométricos y fisiológicos
de personas interactuando en contextos • Integrar test de Rusell y
gastronómicos, a fin de facilitar la encuesta SAM
explotación de información, para la
• Capturar ambientes (imágenes
integración y desarrollo de aplicaciones en
OLAF, imágenes propietarias, o
el contexto de la computación afectiva.
situaciones reales de
degustación)
Resultados y Objetivos
• Integrar herramientas de
Se espera alcanzar una valoración del explotación de datos y
grado de excitación-valencia (EEG), descubrimiento de datos.
inferencia de estado emocional en función
de la captura de rostro, y valoración SAM 1. FORMACIÓN DE RECURSOS
en contextos virtuales empleando HUMANOS
imágenes del banco OLAF, imágenes Este proyecto cuenta con un investigador
propietarias, imágenes IAPS, en contexto formado, un investigador en formación
reales de degustación empleando platos vincula una doctoranda en Ciencias
preparados en conjunto con imágenes Informáticas, una maestrada en Lenguajes
(IAPS) previas y posteriores a la y Sistemas Informáticos y una maestranda
degustación. Sintéticamente esperamos en marketing estratégico digital, y la
ver el grado de placer-rechazo que produce participación de un Chef profesional
una comida, en particular, en una persona. Técnica superior en gastronomía. Como
En trabajos contribuyentes se así también suma tres estudiantes de grado
desarrollaron frameworks con aplicación a en el marco de las líneas de investigación
contextos virtuales [5] y de educación [6], del área de computación afectiva
estas experiencias permiten plantear para
este dominio gastronómico los siguientes
objetivos específicos:

• Integrar interfaces BCI

• Integrar tracking de ojos

• Integrar sensores fisiológicos

666
Referencias del usuario. Obtenido de
http://hdl.handle.net/10915/53441
[1] Ierache, J., Pereira, G., Iribarren, J., & [9] van der Haar, D. T. (2019). Student
Sattolo , I. (2012). Robot Control on Emotion Recognition. International
the Basis of Bioelectrical Signals. En Conference on Human-Computer
Robot Intelligence Technology and interaction (págs. 301-311). Springer
Applications 2012 (pp. 337-346). Chan
Korea: Springer [10] Zatarain Cabada, R., Barron
Estrada, M. L., Halor-Hernandez, G.,
[2] Ierache, J., Pereira, G., Sattolo, I., & Reyes-García, C. A. (2014).
Guerrero, A., DÁlotto, J., & Iribarren, Emotion Recognition in Intelligent
J. (2011). Control vía Internet de un Tutoring Systems. Mexican
Robot ubicado en un sitio remoto International Conference on Artifitial
aplicando una Interfase Cerebro- Intelligence (págs. 494-504).
Máquina. XVII CACIC 2011 (págs. Mexico: Springer
1373-1382). La Plata: REDUnci [11] Wei-Long, Z., & Bao-Liang, L.
[3] Ierache, J., Nervo, F., Pereira, G., & (2015). Investigating Critical
Iribarren, J. (2014). Estado Emocional Frequency Bands and Channels for
Centrado en Estímulos,Aplicando EEG-Based Emotion Recognition
Interfase Cerebro-Maquina. XX with Deep Neural Networks. En I. X.
CACIC, 2014. Bs.As.: REDUnci Library, IEEE Transactions on
[4] Ierache, J., Cervino, C., Eszter , E., Autonomous Mental Development,
Fortin , D., & Castro Menna, A. vol. 7, no. 3, 9/ 2015 (págs. 162-175).
(2018). Influencias del estado IEEE
biométrico- emocional de personas [12] Agriafioti, F., Hatzinakos, D., &
interactuando en contextos de Anderson,, K. (2012). «ECG Pattern
entornos virtuales. WICC, pp 785- Analysis for emotion detection.
789). Corrientes Transactions of affective computing
[5] Ierache, J., Nicolosi, R., Ponce, G., (págs. 102-115). IEEE
Cervino, C., & Eszter, E. (2018). [13] Bong, S., Murugappan, M., &
Registro emocional de personas Yaacob, S. (2012). Analysis of
interactuando en contextos de Electrocardiogram (ECG) Signals for
entornos virtuales. XXIV CACIC Human Emotional Stress
2018, (págs. 877-886). i Classification. International
[6] Ierache, J., Ponce, G., Nicolosi, R., Conference on Intelligent Robotics,
Sattolo, I., & Chapperón, G. (2019). Automation, and Manufacturing
Valoración del grado de atención en (págs. 198-205).
contextos áulicos con el empleo de Springer
interfase cerebro-computadora. [14] Rodriguez Aguiñaga, A., López
CACIC 2019, en prensa Ramirez, M., & Baltazar Flores, M.
[7] Picard, R. (2000). Affective (2015). Classification model of
Computing. En T. M. press, Affective arousal and valence mental states by
Computing (págs. 4-8). Cambridge EEG signals analysis and Brodmann
Massachusetts: The Mit Press correlations. International Journal of
[8] Baldasarri, S. S. (15 de 9 de 2016). Advanced Computer Science and
Computación afectiva: tecnología y Applications, (págs. 1-9 volumen 6 N|
emociones para mejorar la experiencia 6). SAI

667
[15] Ali, M., MachoT, F., Mosa, A., & applications in the context of affective
Kyamakya, K. (2016). A novel EEG- computing. XXIII CACIC 1030-1039
based emotion recognition approach La Plata REDUnci.
for e- healthcare applications. 31st [22] Lang, P.J., Bradley, M.M., &
Annual ACM Symposium on Applied Cuthbert, B.N. International Affective
Computing (págs. 162-164). Pisa Picture System (IAPS): Technical
Italia: ACM. Manual and Affective Ratings. NIMH
[16] CALOT, E., IERACHE, J., ,1997
HASPERUÉ, W.. 2019. Robustness of [23] Lang, P. J., Bradley, M. M., &
keystroke dynamics identification Cuthbert, B. N. (2008). Affective
algorithms against brain-wave ratings of pictures an instruction
variations associated with emotional manual. International affective picture
variations. En Advances in Intelligent system (IAPS) Technical Report A-8.
Systems and Computing. Springer, c. Gainesville: University of Florida.
En prensa [24] OLAF, the Open Library of
[17] Xu, R., Chen, J., Han, J., Tan, L., Affective Foods in ADULTS:
& Xu, L. (2019). Towards emotion- http://digibug.ugr.es/handle/10481/4149
sensitive learning cognitive state 9 Vigente: 29/03/2020
analysis of big data in education deep [25] OLAF, Open Library of Affective
learning-based. En Computing (págs. Foods: A tool to investigate the
1-16). Austria: Springer Viena. emotional impact of food in
[18] Salmeron-Majadas, S., Santos, O., adolescents
& Boticario, J. (2014). An evaluation https://zenodo.org/record/10202#.XoC
of mouse and keyboard interaction 024hKiUl Vigente: 29/03/2020
indicators towards non-intrusive and [26] Lang, P. J. The cognitive
lowcost affective modeling in an psychophysiology of emotion: Fear
educational context. 18th International and anxiety. In A. H. Tuma & J. D.
Conference on Knowledge-Based and Maser (Eds.), Anxiety and the anxiety
Intelligent Information & Engineering disorders (pp.131-170). Hillsdale,
Systems - KES2014 NJ,US. (1985).
[19] Calot, E., Ierache, J., & Hasperué, [27] Posner, J., Russell , J., & Peterson,
W. (2019). Robustness of keystroke B. (2005). “The circumplex model of
dynamics identification algorithms affect: an integrative approach to
against brain-wave variations affective neuroscience, cognitive
associated with emotional variations. development, and psychopathology.”,
En Intelligent Systems and Development and psychopathology,
applications (págs. 194-211). Londres: vol. 17, n° 3, págs. 715-34, 2005,
Springer Cham. ISSN: 0954-5794. Development and
[20] Wiew, M., & Lachiri, Z. (2017). psychopathology, 715-34 Vol 17 n° 3.
Emotion Classificationin Arousal
Valence Model using MAHNOB-HCI
Database. nternational Journal of
Advanced Computer Science and
Applications, 1-6.
[21] Calot, E., & Ierache, J. (2017).
Multimodal biometric recording
architecture for the exploitation of

668

También podría gustarte