Documentos de Académico
Documentos de Profesional
Documentos de Cultura
orientada a mejorar la
calidad de vida y cuidado de
personas mayores en
ambientes inteligentes
Escuela Superior de
Ingeniería Informática Octubre 2019
Agradecimientos
ciona con los datos obtenidos del paciente, mientras que “Regulación
de Emoción” ofrecerá diferentes piezas de música y configuraciones
de luz/color. El módulo de “Control de Respuesta Emocional” fun-
ciona como bucle de control para confirmar el efecto de la regulación
emocional sobre la emoción detectada.
Índice de figuras XV
1. Introducción 3
1.1. Motivación . . . . . . . . . . . . . . . . . . . . . . 3
1.2. Objetivos . . . . . . . . . . . . . . . . . . . . . . . 5
2.4. Conclusiones . . . . . . . . . . . . . . . . . . . . . 36
3.6.1. eMotion . . . . . . . . . . . . . . . . . . . . 66
3.6.3. FaceSense . . . . . . . . . . . . . . . . . . . 69
3.6.4. FaceReader . . . . . . . . . . . . . . . . . . 70
3.7. Conclusiones . . . . . . . . . . . . . . . . . . . . . 71
II Metodología y Desarrollo 75
6. Experimentos 159
IV Conclusiones 195
Bibliografía 207
6.1. Modelo circunflejo con las 7 clases del modelo SVM 164
XVIII Índice de figuras
Introducción y estado de la
cuestión
Capítulo 1
Introducción
1.1. Motivación
1.2. Objetivos
Capítulo 1. Introducción.
En este primer capítulo, en el cual nos encontramos, se des-
criben los motivos que han impulsado a la realización de este
trabajo y los objetivos que se persiguen.
Capítulo 6. Experimentos.
En este capítulo veremos los experimentos que se van a realizar
sobre la aplicación. En primer lugar se generan dos modali-
dades de detección SVM diferentes, una sin probabilidades y
otra con probabilidades, con el fin de comprobar cuál ofrece
mejores resultados. Se propone también realizar un modelo
SVM utilizando a un único usuario, para comprobar si mejora
los resultados de predicción de emociones, y una agrupación
de emociones, de manera que todas las emociones negativas se
consideren como un único grupo a la hora de hacer la clasifica-
ción.
Por otra parte, también se debe tener en cuenta que los precios
elevados que puedan tener estas tecnologías también pueden ser un
problema. Puede producirse el rechazo de estas tecnologías por parte
de los usuarios.
cia, como el desarrollado por Lin et al. [2006], que además de enviar
la llamada de emergencia correspondiente cuando se pulsa el botón,
adjunta información adicional sobre la ubicación del paciente. Este
sistema está sobre todo orientado a pacientes con demencia senil, que
pueden desorientarse cuando se encuentran fuera de casa. Gracias a
este dispositivo es más fácil localizarlos y atenderlos rápidamente.
Otro campo que también puede ser de gran ayuda para que
las personas mayores se sientan más seguras en sus hogares es la
detección de problemas cardíacos, ya que las cardiopatías son una de
las principales causas de muerte entre las personas de la tercera edad.
Existen diferentes tipos de sistemas para la detección de emergencias
cardíacas. Por ejemplo, el sistema presentado por Alwan et al. [2006a]
monitoriza la actividad cardíaca del paciente de forma continua. El
sistema genera alertas cuando las pulsaciones se mantienen en un
rango superior a 100 ppm durante 10 minutos, o en un rango inferior a
35 ppm durante 45 minutos. También existen sistemas empleados para
monitorizar pacientes a los que se les ha realizado una intervención
26 Calidad de vida y cuidado del anciano
2.4. Conclusiones
Todos estos datos permitirán tener una mejor visión del estado
en el que se encuentra la detección facial de emociones, de cómo ha
evolucionado la detección automática y cuáles han sido sus principales
motivaciones, y servirán para saber qué se puede aportar a este campo.
3.6.1. eMotion
3.6.3. FaceSense
3.6.4. FaceReader
3.7. Conclusiones
Metodología y Desarrollo
Capítulo 4
Arquitectura de Inteligencia
Ambiental para la detección y
regulación de emociones
del hardware. Cada nivel está definido según la información que reci-
be de entrada, cómo se transforman esos datos y los resultados que
envía al siguiente nivel. En la Figura 4.2 aparecen representados estos
niveles.
Nivel 1: Adquisición
4.1 Descripción general 81
Este es uno de los niveles más importantes. Aquí los datos prima-
rios se interpretan a través de diferentes algoritmos. Esto significa que
los datos de entrada se transforman en características más informati-
vas que resumen los datos básicos. Cada característica interpretada es
un dato de especial interés para los siguientes niveles.
Nivel 7: Actuación
Figura 4.3 Diseño general de la arquitectura distribuida para detección y regulación de emociones en ambientes inteligentes
4.2 Detección de emociones 85
De esta manera, todos los módulos obtendrán como salida una se-
rie de etiquetas diferentes entre ellas. Esta información puede detectar
estados emocionales distintos, algunos de ellos incluso en contradic-
ción con el detectado en otro módulo. Por ello, a un nivel superior,
encontramos el módulo “Clasificación de Emoción”, que es necesario
para conseguir una salida óptima. El estado emocional consensuado se
calcula fusionando los valores de Detección Facial de Emoción, De-
tección de Comportamiento y Detección de Valencia/Excitación. Es
importante conseguir una fusión de datos óptima, ya que la detección
y regulación de emociones solo es viable si todos los datos registrados
por los sensores dan suficiente información consensuada sobre la
emoción detectada. La emoción detectada se etiqueta finalmente en
una de estas categorías:
q
d((x1 , y1 ,t1), (x2 , y2 ,t2)) = (x1 − x2)2 + (y1 − y2)2 (4.1)
4.5. Conclusiones
tamaño más adecuado para las caras. En la Figura 5.3 podemos ver
cómo evoluciona el ajuste para diferentes tamaños de caras. Para cada
uno de los tamaños se ha obtenido el tiempo necesario para hacer la
predicción de la emoción y se ha indicado con puntos rojos cuando
el ajuste facial no se ha realizado de manera correcta. Para realizar
esta prueba se ha utilizado una imagen que contiene una cara de 240
píxeles y que, por la expresión facial, resulta difícil de ajustar porque
necesita una cierta resolución para poder conseguir las características
faciales correctamente.
5.4.1. ASMLibrary
como por ejemplo los puntos de la zona de los ojos, mientras que
otros generan una nube de puntos más difusa, como en la zona de la
mandíbula.
Tras las pruebas realizadas a los tres modelos podemos decir que
el más adecuado para el análisis de emociones es el de la base de
datos XM2VTS. Aunque trabajar con 68 puntos hará que la aplicación
sea más lenta, este modelo es el más preciso de todos los que se han
analizado. Además cuenta con suficientes puntos para obtener carac-
terísticas detalladas de la expresión facial, tanto sobre su posición
como sobre su forma, y eso nos permitirá hacer una clasificación más
adecuada de las emociones.
132 Detección facial de emociones en ambientes inteligentes
Una vez que hemos obtenido los puntos faciales gracias al mo-
delo ASM tenemos que decidir qué puntos pueden resultarnos útiles
para extraer las características faciales que nos permitirán detectar
emociones. Basándonos en los estudios previos que se comentaron en
el Capítulo 3, se ha decidido que el sistema analizará las caracterís-
ticas señaladas indicadas en la Figura 5.12 y que se describen en la
Tabla 5.3, ya que son los que mejor reflejan el sistema de codificación
de acciones faciales (FACS) de Ekman and Friesen [2002].
Código Descripción
Distancia vertical entre el extremo interno de la ceja iz-
C1 quierda y la línea que conecta los extremos internos de
los ojos
Distancia vertical entre el extremo interno de la ceja de-
C2 recha y la línea que conecta los extremos internos de los
ojos
Distancia vertical entre el extremo externo de la ceja
C3 izquierda y la línea que conecta los extremos internos de
los ojos
Distancia vertical entre el extremo externo de la ceja
C4 derecha y la línea que conecta los extremos internos de
los ojos
C5 Distancia entre los extremos internos de las cejas
Distancia entre el extremo exterior y el párpado superior
C6
del ojo izquierdo
Distancia entre el extremo exterior y el párpado superior
C7
del ojo derecho
Distancia entre el extremo interior y el párpado superior
C8
del ojo izquierdo
Distancia entre el extremo interior y el párpado superior
C9
del ojo derecho
Distancia entre el extremo exterior y el párpado inferior
C10
del ojo izquierdo
Distancia entre el extremo exterior y el párpado inferior
C11
del ojo derecho
Distancia entre el extremo interior y el párpado inferior
C12
del ojo izquierdo
Distancia entre el extremo interior y el párpado inferior
C13
del ojo derecho
Distancia entre el párpado superior y el párpado inferior
C14
del ojo izquierdo
Distancia entre el párpado superior y el párpado inferior
C15
del ojo derecho
C16 Distancia entre el extremo izquierdo y superior de la boca
C17 Distancia entre el extremo derecho y superior de la boca
C18 Distancia entre el extremo izquierdo e inferior de la boca
C19 Distancia entre el extremo derecho e inferior de la boca
C20 Distancia entre el extremo derecho e izquierdo de la boca
C21 Distancia entre el extremo superior e inferior de la boca
Distancia entre el extremo superior de la boca y la base
C22
de la nariz
Tabla 5.3 Lista de características geométricas
5.5 Extracción de características 135
5.8 podemos ver los puntos del modelo con sus correspondientes
índices. El acceso a cada uno de estos puntos se hace igual que a un
vector, y para cada uno de los puntos obtenemos sus coordenadas X
e Y en la imagen. Así pues, (x0 , y0 ) serán las coordenadas del punto
0 del modelo, (x1 , y1 ) las del punto 1, etc. En general, (xn , yn ) son
las coordenadas del punto n del modelo. Mediante estas coordenadas
podemos calcular las distancias que conformarán las características.
A continuación podemos ver los cálculos que se realizan para cada
una de ellas. El resultado de todas las características se da en píxeles:
donde A(29, 34), B(29, 34) y C(29, 34) son las componentes
de la ecuación de la recta que forman los puntos 29 y 34 del
modelo. Se calculan mediante las expresiones 5.2, 5.3 y 5.4.
q
C5 = (x18 − x24 )2 + (y18 − y24 )2 (5.8)
q
C6 = (x28 − x27 )2 + (y28 − y27 )2 (5.9)
q
C7 = (x33 − x32 )2 + (y33 − y32 )2 (5.10)
q
C8 = (x28 − x29 )2 + (y28 − y29 )2 (5.11)
q
C9 = (x33 − x34 )2 + (y33 − y34 )2 (5.12)
q
C10 = (x30 − x27 )2 + (y30 − y27 )2 (5.13)
q
C11 = (x35 − x32 )2 + (y35 − y32 )2 (5.14)
q
C12 = (x30 − x29 )2 + (y30 − y29 )2 (5.15)
q
C13 = (x35 − x34 )2 + (y35 − y34 )2 (5.16)
q
C14 = (x30 − x28 )2 + (y30 − y28 )2 (5.17)
q
C15 = (x35 − x33 )2 + (y35 − y33 )2 (5.18)
q
C16 = (x51 − x48 )2 + (y51 − y48 )2 (5.19)
q
C17 = (x51 − x54 )2 + (y51 − y54 )2 (5.20)
q
C18 = (x57 − x48 )2 + (y57 − y48 )2 (5.21)
q
C19 = (x57 − x54 )2 + (y57 − y54 )2 (5.22)
q
C20 = (x54 − x48 )2 + (y54 − y48 )2 (5.23)
5.6 Clasificación de emoción 139
q
C21 = (x57 − x51 )2 + (y57 − y51 )2 (5.24)
q
C22 = (x41 − x51 )2 + (y41 − y51 )2 (5.25)
Donde:
1. Alegría
2. Tristeza
142 Detección facial de emociones en ambientes inteligentes
3. Enfado
4. Miedo
5. Asco
6. Sorpresa
7. Neutral
Una vez escalados los datos tenemos que elegir el método que
vamos a utilizar para la clasificación. Como vamos a distinguir entre
7 clases tendremos que utilizar un método SVM multiclase, que
se implementan utilizando varias SVM de dos clases. Existen dos
posibles enfoques:
l
1 T
mı́n w w +C ∑ ξi (5.26)
w,b,ξ 2 i=1
nu = 0.431030
1 vs j,
2 vs j,
. . .,
j vs j + 1,
j vs j + 2,
. . .,
j vs k
Y el valor de y:
+-+-+-+--------------------+
|1|1|1| |
|v|v|v| SVs de la clase 1 |
|2|3|4| |
+-+-+-+--------------------+
|1|2|2| |
|v|v|v| SVs de la clase 2 |
|2|3|4| |
+-+-+-+--------------------+
|1|2|3| |
|v|v|v| SVs de la clase 3 |
|3|3|4| |
+-+-+-+--------------------+
|1|2|3| |
|v|v|v| SVs de la clase 4 |
|4|4|4| |
+-+-+-+--------------------+
5.8. Conclusiones
Experimentos y resultados
Capítulo 6
Experimentos
Para ello, pediremos a una persona que represente las seis emo-
ciones básicas y crearemos un modelo SVM empleando únicamente
estas imágenes. A continuación, realizaremos pruebas de predicción
de emociones utilizando imágenes de esa persona que no hayan sido
empleadas durante el entrenamiento. Así podremos comprobar si rea-
lizar un modelo SVM personalizado puede ofrecer mejores resultados
que un modelo general.
Figura 6.1 Modelo circunflejo con las 7 clases del modelo SVM
6.3 Agrupación de emociones 165
Datos y resultados
Característica Valor
Tipo de SVM ν-SVM multiclase
Tipo de kernel RBF (Radial Basis Function)
Probabilidades No
Parámetro ν 0.52
Parámetro γ 0.12
Número de clases 7
Número de vectores de soporte 237
Tabla 7.3 Características del modelo SVM sin probabilidades
γ/ν 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9
0,1 80,68 81,94 82,66 83,92 82,88 81,89 81,89 81,89 81,89
0,2 79,91 80,95 82,22 84,20 83,59 82,77 82,77 82,77 82,77
0,3 79,64 81,01 82,49 83,87 83,92 83,32 83,32 83,32 83,32
0,4 79,91 80,95 82,27 83,98 84,25 83,37 83,37 83,37 83,37
0,5 80,07 81,12 82,16 83,92 84,47 83,65 83,65 83,65 83,65
0,6 80,35 81,45 82,33 84,03 84,31 83,54 83,54 83,54 83,54
0,7 80,51 81,61 82,93 84,25 84,80 83,87 83,87 83,87 83,87
0,8 80,46 81,72 83,21 84,20 84,91 83,92 83,92 83,92 73,92
0,9 80,95 81,78 83,76 84,58 84,91 84,20 84,20 84,20 74,20
1 81,67 82,00 83,81 84,47 74,58 84,20 84,20 84,20 84,20
Tabla 7.4 Validación cruzada para modelo SVM con probabilidades
γ/ν 0,46 0,47 0,48 0,49 0,5 0,51 0,52 0,53 0,54 0,55
0,81 84,97 84,91 84,80 85,02 84,91 84,97 84,64 84,75 84,53 84,58
0,82 84,91 85,02 84,91 85,02 84,91 85,02 84,58 84,75 84,53 84,53
0,83 84,75 85,08 85,02 85,02 84,80 85,02 84,64 84,69 84,58 84,53
0,84 84,80 85,13 84,91 84,91 84,80 84,86 84,75 84,69 84,64 84,58
0,85 84,80 85,02 84,91 84,91 84,86 84,80 84,75 84,58 84,58 84,58
0,86 84,69 84,97 84,91 84,97 84,80 84,80 84,69 84,53 84,58 84,58
0,87 84,69 84,91 84,86 84,86 84,86 84,75 84,58 84,47 84,58 84,58
0,88 84,80 84,97 84,91 84,86 84,86 84,86 84,58 84,53 84,58 84,58
0,89 84,80 84,97 84,86 84,80 84,91 84,91 84,58 84,53 84,58 84,58
0,9 84,80 85,02 84,91 84,97 84,91 84,86 84,53 84,58 84,53 84,69
Tabla 7.5 Validación para aproximación al segundo decimal para
modelo SVM con probabilidades
Característica Valor
Tipo de SVM ν-SVM multiclase
Tipo de kernel RBF (Radial Basis Function)
Probabilidades Sí
Parámetro ν 0.47
Parámetro γ 0.84
Número de clases 7
Número de vectores de soporte 237
Tabla 7.6 Características del modelo SVM con probabilidades
en negrita las celdas que serían aciertos para cada etiqueta, mientras
que el resto de celdas serían predicciones incorrectas. Por ejemplo, la
celda ubicada en la columna Tristeza y en la fila Alegría mostraría el
porcentaje de imágenes en las que la predicción debería ser Alegría,
pero el clasificador ha predicho Tristeza.
modelo consigue identificar que la boca está abierta, lo que hace que
la predicción de la emoción sea correcta.
ceño que por los extremos, lo que puede estar produciendo que
el sistema no las consiga diferenciar bien. En la Figura 7.10(d)
tenemos un ejemplo de captura en la que el sistema ha predicho
Miedo correctamente.
γ/ν 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9
0,1 85,24 86,67 86,67 86,19 85,24 83,33 80,95 79,05 40,00
0,2 86,19 87,14 86,19 87,14 83,81 82,86 80,95 80,00 40,95
0,3 85,71 86,67 84,76 86,19 84,29 82,38 80,00 79,52 42,38
0,4 86,19 86,19 84,76 85,24 84,29 82,86 80,00 78,57 41,90
0,5 87,14 86,19 84,76 85,24 84,29 81,90 79,52 78,57 41,90
0,6 87,14 86,19 84,76 85,24 83,33 80,95 79,05 79,05 42,38
0,7 87,14 86,19 84,29 84,76 82,86 80,95 78,57 79,05 41,43
0,8 87,62 86,19 84,29 83,81 81,90 80,95 78,57 78,10 41,43
0,9 87,14 85,71 84,76 83,33 81,90 80,95 78,57 77,62 40,95
1 86,67 85,71 84,29 82,86 81,90 81,43 79,52 77,14 40,48
Tabla 7.14 Validación cruzada para entrenamiento SVM con un único
sujeto
γ/ν 0,06 0,07 0,08 0,09 0,1 0,11 0,12 0,13 0,14 0,15
0,76 87,62 87,62 87,62 87,62 87,62 87,14 87,14 87,14 87,14 86,67
0,77 87,62 87,62 87,62 87,62 87,62 87,14 87,14 87,14 87,14 86,67
0,78 87,62 87,14 87,62 87,62 87,62 87,14 87,14 87,14 87,14 86,67
0,79 87,62 87,62 87,62 87,62 87,62 87,14 87,14 87,14 87,14 86,67
0,8 87,62 87,62 87,62 87,62 87,62 87,14 87,14 87,14 87,14 86,67
0,81 87,62 87,62 87,62 87,62 87,62 87,14 87,14 87,14 87,14 86,67
0,82 87,62 87,62 87,62 87,62 87,62 87,14 87,14 87,14 87,14 86,67
0,83 87,62 87,62 87,62 87,62 87,62 87,14 87,14 87,14 87,14 86,67
0,84 87,62 87,62 87,62 87,62 87,62 87,14 87,14 87,14 86,67 86,67
0,85 87,62 87,62 87,62 87,62 87,62 87,14 87,14 87,14 86,67 86,67
Tabla 7.15 Validación para aproximación al segundo decimal para
modelo SVM con un único sujeto
Característica Valor
Tipo de SVM ν-SVM multiclase
Tipo de kernel RBF (Radial Basis Function)
Probabilidades Sí
Parámetro ν 0.1
Parámetro γ 0.8
Número de clases 7
Número de vectores de soporte 147
Tabla 7.16 Características del modelo SVM con un único sujeto
ya que son con los que mejores resultados hemos obtenido con siete
clases.
7.6. Conclusiones
Hemos podido observar que las principales razones por las que
se producen incorrecciones en las predicciones del sistema son:
Por ejemplo, si una persona tiene las cejas muy cercanas a los
ojos, el sistema detecta Enfado cuando está en estado Neutral,
porque la acción unitaria de bajar las cejas es una característica
propia de Enfado.
Conclusiones
Capítulo 8
8.1. Conclusiones
Bachorik, J. P., Bangert, M., Loui, P., Larke, K., Berger, J., Rowe,
R., & Schlaug, G. (2009). Emotion in motion: Investigating the
time-course of emotional judgments of musical stimuli. Music
Perception: An Interdisciplinary Journal, 26 (4), 355–364.
Bahadori, S., Cesta, A., Grisetti, G., Iocchi, L., Leone, G. R., Nardi,
D., Oddi, A., Pecora, F., & Rasconi, R. (2004). Robocare: Perva-
sive intelligence for the domestic care of the elderly. Intelligenza
Artificiale, 1, 16–21.
Banse, R. & Scherer, K. (1996). Acoustic profiles in vocal emotion
expression. Journal of personality and social psychology, 70,
614–36.
Bargal, S., Barsoum, E., Canton Ferrer, C., & Zhang, C. (2016).
Emotion recognition in the wild from videos using images. pp.
433–436.
Benitez-Quiroz, C. F., Srinivasan, R., & Martinez, A. M. (2016).
Emotionet: An accurate, real-time algorithm for the automatic
annotation of a million facial expressions in the wild. In: 2016
IEEE Conference on Computer Vision and Pattern Recognition
(CVPR) pp. 5562–5570.
Bhardwaj, N. & Dixit, M. (2016). A review: Facial expression detec-
tion with its techniques and application. International Journal of
Signal Processing, Image Processing and Pattern Recognition, 9
(6), 149–158.
Blackman, S., Matlo, C., Bobrovitskiy, C., Waldoch, A., Fang, M. L.,
Jackson, P., Mihailidis, A., Nygaard, L., Astell, A., & Sixsmith,
A. (2015). Ambient assisted living technologies for aging well: A
scoping review. Journal of Intelligent Systems, 0.
Bosch, N., D’Mello, S., Baker, R., Ocumpaugh, J., Shute, V., Ventura,
M., Wang, L., & Zhao, W. (2015). Automatic detection of learning-
centered affective states in the wild. In: Proceedings of the 20th
international conference on intelligent user interfaces pp. 379–388.
Brattico, E. et al. (2006). Cortical processing of musical pitch as
reflected by behavioural and electrophysiological evidence. In:
Helsinki University. Helsingin yliopisto.
Buckland, M., Frost, B., & Reeves, A. (2006). Liverpool telecare
pilot: telecare as an information tool. Informatics in primary care,
14, 191–6.
Caclin, A., Brattico, E., Tervaniemi, M., Näätänen, R., Morlet, D.,
Giard, M.-H., & McAdams, S. (2006). Separate neural processing
of timbre dimensions in auditory sensory memory. Journal of
cognitive neuroscience, 18 (12), 1959–1972.
Bibliografía 209
Calvaresi, D., Cesarini, D., Sernani, P., Marinoni, M., Dragoni, A. F.,
& Sturm, A. (2016). Exploring the ambient assisted living do-
main: A systematic review. Journal of Ambient Intelligence and
Humanized Computing, 8, 239–257.
Campos, W., Martínez Rebollar, A., Sanchez, W., Estrada Esquivel,
H., Castro-Sánchez, N., & Mújica-Vargas, D. (2016). A systematic
review of proposals for the social integration of elderly people
using ambient intelligence and social networking sites. Cognitive
Computation, 8.
Ito, T. A., Cacioppo, J. T., & Lang, P. J. (1998). Eliciting affect using
the international affective picture system: Trajectories through eva-
luative space. Personality and social psychology bulletin, 24 (8),
855–879.
Jaques-Dalcroze, E. (2014). Rhythm, music and education. New York,
USA: Read Books Ltd.
Jeon, M. (2015). Lessons from emotional driving research. In: 19th
Triennial Congress of the IEA. Melbourne, Australia.
Jeon, M. & Walker, B. N. (2011). What to detect?: Analyzing factor
structures of affect in driving contexts for an emotion detection
and regulation system. Proceedings of the Human Factors and
Ergonomics Society Annual Meeting, 55.
Jesorsky, O., Kirchberg, K. J., & Frischholz, R. W. (2001). Robust face
detection using the hausdorff distance. In: International conference
on audio-and video-based biometric person authentication pp. 90–
95. https://www.bioid.com/facedb/.
Jung, H., Lee, S., Yim, J., Park, S., & Kim, J. (2015). Joint fine-
tuning in deep neural networks for facial expression recognition.
In: Proceedings of the IEEE international conference on computer
vision pp. 2983–2991.
Juslin, P. N. & Sloboda, J. A. (2001). Music and emotion: Theory
and research. Oxford: Oxford University Press.
KaewTraKulPong, P. & Bowden, R. (2002). An improved adapti-
ve background mixture model for real-time tracking with shadow
detection. In: Video-based surveillance systems pp. 135–144. Sprin-
ger.
Kahou, S. E., Bouthillier, X., Lamblin, P., Gulcehre, C., Michalski,
V., Konda, K., Jean, S., Froumenty, P., Dauphin, Y., Boulanger-
Lewandowski, N., et al. (2016). Emonets: Multimodal deep lear-
ning approaches for emotion recognition in video. Journal on
Multimodal User Interfaces, 10 (2), 99–111.
Kahou, S. E., Pal, C., Bouthillier, X., Froumenty, P., Gülçehre, Ç.,
Memisevic, R., Vincent, P., Courville, A., Bengio, Y., Ferrari, R. C.,
et al. (2013). Combining modality specific deep neural networks
for emotion recognition in video. In: Proceedings of the 15th
ACM on International conference on multimodal interaction pp.
543–550.
Kanade, T., Cohn, J., & Tian, Y.-L. (2000). Comprehensive Database
for Facial Expression Analysis. In: Proceedings of the 4th IEEE
International Conference on Automatic Face and Gesture Recogni-
tion pp. 46 – 53. http://www.pitt.edu/~emotion/ck-spread.htm.
214 Bibliografía
Karg, M., Samadani, A.-A., Gorbet, R., Kühnlenz, K., Hoey, J., &
Kulić, D. (2013). Body movements for affective expression: A
survey of automatic recognition and generation. IEEE Transactions
on Affective Computing, 4 (4), 341–359.
Karunanithi, M. (2007). Monitoring technology for the elderly patient.
Expert review of medical devices, 4, 267–77.
Kensinger, E. A. & Corkin, S. (2004). Two routes to emotional
memory: Distinct neural processes for valence and arousal. Procee-
dings of the National Academy of Sciences, 101 (9), 3310–3315.
Kiecolt-Glaser, J. K. & Glaser, R. (2001). Stress and immunity: Age
enhances the risks. Current Directions in Psychological Science,
10 (1), 18–21.
Kim, D. H., Baddar, W. J., Jang, J., & Ro, Y. M. (2017). Multi-
objective based spatio-temporal feature representation learning
robust to expression intensity variations for facial expression re-
cognition. IEEE Transactions on Affective Computing, 10 (2),
223–236.
Kleinpell, R. & Avitall, B. (2007). Integrating telehealth as a strategy
for patient management after discharge for cardiac surgery: Results
of a pilot study. The Journal of cardiovascular nursing, 22, 38–42.
Kleinsmith, A. & Bianchi-Berthouze, N. (2012). Affective body ex-
pression perception and recognition: A survey. IEEE Transactions
on Affective Computing, 4 (1), 15–33.
Knyazev, B., Shvetsov, R., Efremova, N., & Kuharenko, A. (2017).
Convolutional neural networks pretrained on large face recognition
datasets for emotion classification from video. In: arXiv preprint
arXiv:1711.04598.
Koelsch, S., Fritz, T., v. Cramon, D. Y., Müller, K., & Friederici, A. D.
(2006). Investigating emotion with music: an fmri study. Human
brain mapping, 27 (3), 239–250.
Koelstra, S., Muhl, C., Soleymani, M., Lee, J.-S., Yazdani, A., Ebrahi-
mi, T., Pun, T., Nijholt, A., & Patras, I. (2011). Deap: A database for
emotion analysis; using physiological signals. IEEE transactions
on affective computing, 3 (1), 18–31.
Koné, C., Tayari, I. M., Le-Thanh, N., & Belleudy, C. (2015). Mul-
timodal recognition of emotions using physiological signals with
the method of decision-level fusion for healthcare applications. In:
International Conference on Smart Homes and Health Telematics
pp. 301–306. Springer.
Kotteritzsch, A. & Weyers, B. (2015). Assistive technologies for older
adults in urban areas: A literature review. Cognitive Computation,
8.
Bibliografía 215
Lin, C. C., Chiu, M. J., Hsiao, C. C., Lee, R. G., & Tsai, Y. S. (2006).
Wireless health care service system for elderly with dementia. IEEE
Transactions on Information Technology in Biomedicine, 10 (4),
696–704.
Liu, H., Ning, H., Mu, Q., Zheng, Y., Zeng, J., T. Yang, L., Huang,
R., & Ma, J. (2017). A review of the smart world. In: Future
Generation Computer Systems.
Liu, M., Wang, R., Li, S., Shan, S., Huang, Z., & Chen, X. (2014).
Combining multiple kernel methods on riemannian manifold for
emotion recognition in the wild. pp. 494–501.
Liu, Y., Zeng, J., Shan, S., & Zheng, Z. (2018). Multi-channel pose-
aware convolution neural networks for multi-view facial expression
recognition. In: 2018 13th IEEE International Conference on
Automatic Face & Gesture Recognition (FG 2018) pp. 458–465.
Lucey, P., Cohn, J. F., Kanade, T., Saragih, J., Ambadar, Z., & Matt-
hews, I. (2010). The Extended Cohn-Kande Dataset (CK+): A
complete facial expression dataset for action unit and emotion-
specified expression. In: Proceedings of the 3th IEEE Works-
hop on CVPR for Human Communicative Behavior Analysis.
http://www.pitt.edu/~emotion/ck-spread.htm.
Ludwig, W., Wolf, K.-H., Duwenkamp, C., Gusew, N., Hellrung, N.,
Marschollek, M., Wagner, M., & Haux, R. (2012). Health-enabling
technologies for the elderly - an overview of services based on a
literature review. Comput. Methods Prog. Biomed. 106 (2), 70–78.
Lv, Y., Feng, Z., & Xu, C. (2014). Facial expression recognition
via deep learning. In: 2014 International Conference on Smart
Computing pp. 303–308.
Mahto, S. & Yadav, Y. (2014). A survey on various facial expression
recognition techniques. In: International Journal of Advanced Re-
search in Electrical, Electronics and Instrumentation Engineering.
Manuj, A. & Agrawal, S. (2015). Automated human facial expres-
sion and emotion detection: A review. International Journal of
Computer Applications, 110 (2).
Matsunaga, M., Isowa, T., Kimura, K., Miyakoshi, M., Kanayama, N.,
Murakami, H., Sato, S., Konagaya, T., Nogimori, T., Fukuyama,
S., Shinoda, J., Yamada, J., & Ohira, H. (2008). Associations
among central nervous, endocrine, and immune activities when
positive emotions are elicited by looking at a favorite person. Brain,
Behavior, and Immunity, 22 (3), 408 – 417.
McDuff, D., Karlson, A., Kapoor, A., Roseway, A., & Czerwinski, M.
(2012). Affectaura: An intelligent system for emotional memory.
In: Proceedings of the SIGCHI Conference on Human Factors in
Bibliografía 217
Computing Systems CHI ’12 pp. 849–858, New York, NY, USA:
ACM.
McNaney, R., Thieme, A., Gao, B., Ladha, C., Woo, W., Olivier, P.,
Jackson, D., & Ladha, K. (2012). Objectively monitoring wellbeing
through pervasive technology.
Medjahed, H., Istrate, D., Boudy, J., Baldinger, J.-L., & Dorizzi,
B. (2011). A pervasive multi-sensor data fusion for smart home
healthcare monitoring. In: 2011 IEEE International Conference on
Fuzzy Systems (FUZZ-IEEE 2011) pp. 1466–1473.
Mégret, R., Dovgalecs, V., Wannous, H., Karaman, S., Benois-Pineau,
J., El Khoury, E., Pinquier, J., Joly, P., André-Obrecht, R., Gaëstel,
Y., & Dartigues, J.-F. (2010). The IMMED Project: Wearable Video
Monitoring of People with Age Dementia. In: ACM Multimedia
2010 - Video Program pp. Pages 1299–1302. Firenze, Italy.
Memon, M., Wagner, S., Pedersen, C., Beevi, F., & Hansen, F. (2014).
Ambient assisted living healthcare frameworks, platforms, stan-
dards, and quality attributes. Sensors, 14, 4312–4341.
Meng, Z., Liu, P., Cai, J., Han, S., & Tong, Y. (2017). Identity-aware
convolutional neural network for facial expression recognition. In:
2017 12th IEEE International Conference on Automatic Face &
Gesture Recognition (FG 2017) pp. 558–565.
Mihailidis, A., Carmichael, B., & Boger, J. (2004). The use of com-
puter vision in an intelligent environment to support aging-in-place,
safety, and independence in the home. Trans. Info. Tech. Biomed. 8
(3), 238–247.
Mizuno, T. & Sugishita, M. (2007). Neural correlates underlying
perception of tonality-related emotional contents. Neuroreport, 18
(16), 1651–1655.
Mubashir, M., Shao, L., & Seed, L. (2013). A survey on fall detection:
Principles and approaches. Neurocomputing, 100, 144 – 152.
Special issue: Behaviours in video.
Nambu, M., Nakajima, K., Noshiro, M., & Tamura, T. (2005). An
algorithm for the automatic detection of health conditions. an image
processing technique for diagnosing poor health in the elderly.
IEEE engineering in medicine and biology magazine: the quarterly
magazine of the Engineering in Medicine & Biology Society, 24,
38–42.
Nasoz, F., Lisetti, C. L., Alvarez, K., & Finkelstein, N. (2003). Emo-
tion recognition from physiological signals for user modeling of
affect. Pittsburgh, PA, USA.
218 Bibliografía
Ramos, V., García, J., Moreno Gil, O., del Pozo Peralta, J., Carranza,
N., & Blanco, P. (2009). Investigación en tecnologías de inteligen-
cia ambiental para la salud del futuro.
Ranzato, M., Susskind, J., Mnih, V., & Hinton, G. (2011). On deep
generative models with applications to recognition. IEEE.
Rashidi, P. & Mihailidis, A. (2013). A survey on ambient-assisted
living tools for older adults. IEEE Journal of Biomedical and
Health Informatics, 17 (3), 579–590.
Ringeval, F., Amiriparian, S., Eyben, F., Scherer, K., & Schuller, B.
(2014). Emotion recognition in the wild: Incorporating voice and
lip activity in multimodal decision-level fusion. In: Proceedings of
the 16th International Conference on Multimodal Interaction pp.
473–480.
Rolston, A. & Lloyd-Richardson, E. (2017). What is emotion regu-
lation and how do we do it? In: Cornell Research Program on
Self-Injury and Recovery.
Romano, M. J. & Stafford, R. S. (2011). Electronic health records and
clinical decision support systems: Impact on national ambulatory
care quality. Archives of Internal Medicine, 171 (10), 897–903.
Roychowdhury, S. & Emmons, M. (2015). A survey of the trends in
facial and expression recognition databases and methods. In: arXiv
preprint arXiv:1511.02407.
Ruotsalainen, M., Ala-Kleemola, T., & Visa, A. (2007). Gais: a met-
hod for detecting interleaved sequential patterns from imperfect
data. In: Proceedings of the 2007 IEEE Symposium on Computatio-
nal Intelligence and Data Mining pp. 530–534. Honolulu, Hawaii,
USA.
Russell, J. A. (1980). A circumplex model of affect. Journal of
personality and social psychology, 39 (6), 1161–1178.
Sabu, E. & Mathai, P. P. (2015). An extensive review of facial ex-
pression recognition using salient facial patches. In: Applied and
Theoretical Computing and Communication Technology (iCATccT),
2015 International Conference on pp. 847–581.
Saha, A., De, A., Pal, D. M. C., & Kar, N. (2014). Different tech-
niques of automatic facial expression recognition: A survey. In:
Second International Conference on Advances in Computing, Com-
munication and Information Technology CCIT-2014 pp. 45–49.
Samson, S., Ehrlé, N., & Baulac, M. (2001). Cerebral substrates for
musical temporal processes. Annals of the New York Academy of
Sciences, 930 (1), 166–178.
220 Bibliografía
Yan, J., Zheng, W., Cui, Z., Tang, C., Zhang, T., Zong, Y., & Sun,
N. (2016). Multi-clue fusion for emotion recognition in the wild.
In: Proceedings of the 18th ACM International Conference on
Multimodal Interaction ICMI ’16 pp. 458–463, New York, NY,
USA: ACM.
Yuen, P., Hong, K., Chen, T., Tsitiridis, A., Kam, F., Jackman, J.,
James, D., Richardson, M., Williams, L., Oxford, W., et al. (2009).
Emotional & physical stress detection and classification using ther-
mal imaging technique. In: 3rd International Conference on Crime
Detection and Prevention. IET.
Yumak-Kasap, Z. (2012). Emosonet: An emotion-aware social net-
work for emotional wellbeing.
Zeng, Z., Pantic, M., Roisman, G. I., & Huang, T. S. (2009). A Survey
of Affect Recognition Methods - Audio, Visual, and Spontaneous
Expressions. IEEE Transactions on Pattern Analysis and Machine
Intelligence, 31, 39–58.
Zhang, X., Yin, L., Cohn, J. F., Canavan, S., Reale, M., Horowitz, A.,
& Liu, P. (2013). A high-resolution spontaneous 3d dynamic facial
expression database. In: 2013 10th IEEE International Conference
and Workshops on Automatic Face and Gesture Recognition (FG)
pp. 1–6. IEEE.
Zhao, G., Huang, X., Taini, M., Li, S. Z., & PietikäInen, M. (2011).
Facial expression recognition from near-infrared videos. Image
and Vision Computing, 29 (9), 607–619.
Zhao, X., Liang, X., Liu, L., Li, T., Han, Y., Vasconcelos, N., & Yan, S.
(2016). Peak-piloted deep network for facial expression recognition.
In: European conference on computer vision pp. 425–442, Springer
: Springer.
Zhao, X., Zhang, H., & Xu, Z. (2012). Expression recognition by
extracting facial features of shapes and textures. Journal of Compu-
tational Information Systems, 8, 3377–3384.
Zhou, Q. & Wang, X. (2013). Real-time facial expression recognition
system based-on geometric features. Lecture Notes in Electrical
Engineering, 212, 449–456.
Apéndice A
Sistema de Codificación de
Acciones Faciales (FACS)