Está en la página 1de 9

Equipo Hanson-Lia-SingularityNet: evaluación de la

dinámica emocional profundo-learning


Los sentimientos predice autotrascendente durante las
interacciones breves limitados por responder emocionalmente AI
incrustados en la tecnología de Android

Julia Mossbridge, PhD Benjamin Goertzel, PhD Edward Monroe, PhD Goldie Nejat, PhD, Peng
Departamento de Psicología de la Hanson Robotics Lia, Inc. Departamento de la Universidad de
Universidad del Noroeste 1
SingularityNet Sebastopol, EE.UU. Ingeniería Mecánica e Industrial
Lia, Inc. 2 Sha Tsui, Kowloon, Hong Kong eddie@liatech.ai de Toronto
1 Evanston; 2 Sebastopol, EE.UU.
ben@goertzel.org Toronto, Canadá
julia@liatech.ai nejat@mie.utoronto.ca

Liza Lichtinger, MA David Hanson, PhD


Diseño de Estaciones de futuro Hanson Robotics
San Francisco, EE.UU. Parque de las Ciencias, Hong Kong
lichtliza@gmail.com
david@hansonrobotics.com

Resumen - Nuestro gran desafío es crear emocionalmente sensible AI incrustado en desarrollo, trascendencia tecnología, artificial general
robots humanoides sociales y avatares con el fin de ayudar a las personas avanzan en inteligencia, Hanson AI con OpenCog, Sophia
la jerarquía del desarrollo humano. El pico de esta jerarquía es la auto-trascendencia,
incluyendo sentimientos de amor expansivas. En este trabajo se presentan los
resultados de los primeros experimentos de los que tenemos conocimiento en el que I. P ROBLEMA S ECLARACIÓN
impulsado por la IA, la tecnología androide interactiva audiovisual se utiliza con éxito
Debido a la mejora del bienestar psicológico humano es un interés casi universal
para apoyar la experiencia de auto-trascendencia. En concreto, se diseñaron dos
entre todos los seres humanos, nuestro equipo se centra en el desarrollo del bienestar
estudios en los que la gente tenía breves AI- impulsado conversaciones, restringidos
psicológico en general. Aquí mostramos los resultados del primer estudio de las que
con AI emocionalmente sensible incrustado en un robot humanoide, su avatar
somos conscientes en el que impulsado por la IA, audiovisuales, tecnología androide
audiovisual, o avatar de audio independiente. Estas conversaciones se basaron en
ejercicios reportados para inducir la auto-trascendencia en los seres humanos. En el interactiva se utiliza con éxito para ayudar a las personas experimentan los aspectos de
experimento 1, se probó una versión inicial de este AI usando breve, interacciones los niveles más altos de desarrollo humano, tal como se evaluó mediante medidas
limitadas con Sophia el robot humanoide y no de detección de la emoción (N = 26). En subjetivas y objetivas.
el experimento 2, hemos probado una versión más sofisticada de este AI incluyendo la
detección de la emoción a base de profundo-aprendizaje desplegado en el contexto de
una interacción ligeramente más largo y ligeramente menos limitada, en un diseño entre La jerarquía de desarrollo humano ha sido conceptualizado de muchas
grupos: conversaciones eran ya sea con Sophia o una de dos avatares (uno con una maneras; uno es la jerarquía de necesidades de Maslow, que se mueve de
cara y la voz, la otra con sólo una voz; N = 35). En el momento en que presentamos necesidades fisiológicas a través de las necesidades en materia de seguridad,
nuestro primer informe del año pasado, habíamos planeado pero no se completó el conexión social, la autoestima, la auto-realización y, finalmente, la
primer estudio, por lo que en este informe se resumen las hipótesis, los métodos y los auto-trascendencia (para revisiones, ver [14]). Creemos robots humanoides
resultados de ambos estudios. Los resultados sugieren que las conversaciones entre
impulsados ​por la IA pueden ser valiosos en todas las etapas del proceso de
los seres humanos y un robot humanoide o su avatar audiovisual, controlado por la IA
desarrollo humano, pero hemos elegido el nuevo enfoque de inicio desde el vértice
emocionalmente sensibles, se acompañan de emociones trascendentes auto,
de la jerarquía y de ver el tema de la interacción humano-robot y el desarrollo
humano desde el punto de vista de la auto-trascendencia.

Autotrascendencia incluye separe de la importancia de uno mismo, ver las


perspectivas de los demás, y tener sentimientos de cuidado hacia los demás [2-7].

Palabras clave-profundas de aprendizaje, la detección de la emoción, AI centrado en el hombre,


Varias líneas de evidencia sugieren que experimentar un estado de
emocionalmente sensible AI, robots humanoides, las interacciones humano-robot, auto-trascendencia en sí mismo es beneficioso para el bienestar humano [5,8-11].
compasiva AI, asistido por la tecnología humana Cierta meditación,

XXXX-XXXX-XXXX-X / XX / $ xx.00 © 20XX IEEE


-Escucha profunda y ojos de mirada prácticas han sido formalmente o anecdóticamente y control de diálogo mientras guía a los seres humanos en la meditación, la escucha profunda y
reportado para ayudar a las personas el acceso trascendente auto- /o prácticas ojo-mirando en uno-a-uno
estados [Ejemplo formales informes: 11-12]. conversaciones. Utilizamos varios tipos de AI en los dos experimentos.
Es importante destacar que cada una de estas prácticas se llevan a cabo tradicionalmente, al
menos al principio, con un profesor y el alumno en conexión visual, aunque esto no siempre
En ambos experimentos, nos basamos en los productos de Google de voz a texto
puede ser necesario [por ejemplo, 12].
máquina de aprendizaje [13] para convertir las palabras de los participantes en texto que
Antes de nuestro trabajo reciente como parte de esta iniciativa XPRIZE, que no se había pueda ser procesada por un motor de diálogo. En el experimento 1, los participantes
demostrado que las conversaciones impulsadas por la IA podrían inducir a algo parecido a un hablaron con Sophia el robot humanoide, un proceso que se basó en un motor de diálogo
estado de auto-trascendente. Para la entrada XPRIZE de este año, continuamos probando basado en script chat para controlar las respuestas verbales y emocionales de Sophia y
varias hipótesis relacionadas con este territorio desconocido, por lo que pudimos conducir para controlar que practica Sophia podría guiar a los participantes en la realización.
nuestro gran objetivo desafío hacia adelante de una manera informada. En concreto, se
diseñaron dos estudios en los que la gente tenía breve, limitada interacciones conversacionales
impulsados ​por la IA con un robot humanoide emocionalmente sensible, su avatar audiovisual,
En el experimento 2, los participantes hablaron, ya sea con Sophia o uno de sus
o avatar de audio independiente. Estas conversaciones se basaron en ejercicios reportados
dos avatares. En los tres casos se utilizó OpenPsi, que forma parte de la plataforma
para inducir la auto-trascendencia en los seres humanos. En el momento en que presentamos
de investigación abierta OpenCog fuente artificial inteligencia general (AGI), incluido
nuestro primer informe del año pasado, habíamos planeado pero no se completó el primer
en el AI Hanson con Opencog paquete [14] para dirigir las conversaciones. OpenPsi
estudio; por lo que aquí se resumen las hipótesis y resultados de ambos estudios.
es un modelo de la motivación humana, la selección de la acción y la emoción
inspirado en un trabajo anterior en la psicología humana y AI [15]. OpenPsi consta de
objetivos con niveles Urge dinámicas asociadas. El nivel de impulso indica la
importancia actual para el sistema de un determinado objetivo, es decir, el impulso
pero no en los resultados de las personas que interactúan con el del sistema para satisfacer un objetivo. Reglas asociadas con objetivos definen las
mismo IA en una condición de sólo audio. Los resultados de los dos acciones que conducen a la satisfacción de objetivos en diferentes contextos. Reglas
estudios descritos en este documento, apoyados o hipótesis 1, 2 y 4-7 toman la forma, “Contexto + Acción una Objetivo de satisfacción.”Selección de Acción
soportados parcialmente, lo que sugiere que las conversaciones consiste en determinar qué acciones en el contexto actual se maximizar la
guiadas con un robot humanoide y su avatar audiovisual, controlado por satisfacción de los objetivos con los niveles más altos Urge. En el diálogo AI
emocionalmente sensible AI, se correlacionan con aumentos en la Amoroso, a menudo los objetivos están relacionados con la participación en
subjetiva sentimientos relacionados con la auto-trascendencia en los diferentes partes de la interacción del diálogo, las acciones son las respuestas
participantes humanos, así como manifestaciones objetivamente verbales del androide y la expresión emocional, y los contextos son las expresiones
relacionados de esos sentimientos, como detectables por el aprendizaje verbales y emocionales del participante. De esta manera, OpenPsi controla el peso
profundo. dado a los aspectos particulares del diálogo, en función de las señales verbales
participantes dieron en cuanto a su voluntad de hacer las prácticas. OpenCog Santo,
un subsistema de secuencias de comandos diálogo y la robotización OpenCog,
contenía un corpus de movimientos faciales predefinidas, sonidos, palabras y frases.
Fig. A1 (Apéndice) muestra Ghost pseudocódigo, incluyendo Openpsi instar
información,

para un ejemplo
Interacción. Más allá de esta relativamente simple AI basado en reglas, se utilizó una red
profunda de aprendizaje para inferir los estados emocionales de los participantes y para apoyar
la creación de reflejo emocional.

El éxito total de nuestra gran desafío significaría que todos y cada


SEGUNDO. Detección Emoción y Mirroring AI
participante demostrado aumentos en sentimientos de amor por los demás y
la auto-trascendencia, medido por medidas subjetivas y objetivas que indican Nuestro equipo era consciente de la evidencia de que la neurociencia cognitiva como una

que esos cambios emocionales están ligados a la dinámica de las red, las neuronas espejo pueden ser la base de sentimientos de empatía y la afiliación en los

interacciones que tenían con el tecnología. Ese es el objetivo final hacia el seres humanos [comentarios: 16-17]. Era un objetivo importante de nuestro trabajo para ayudar

cual nos estamos esforzando. a las personas se sienten conectados a la tecnología androide y entendida por él también, así
que elegimos emociones faciales no verbal reflejo como una característica constante en ambos
experimentos para apoyar este objetivo, en un intento de no probado para estimular el espejo
las neuronas de nuestros participantes. En el experimento 1, se utilizó una cámara
II. re ESARROLLAR T TECNOLOGÍAS
REALSENSE incrustado en el pecho del robot para detectar las posiciones dinámicas de los
rasgos faciales, y Sophia fue programado para reproducir de inmediato la mejor manera posible
A. Control de diálogo y cognitiva Modelo AI
los movimientos faciales de un participante, incluyendo los ojos y parpadea
Hacia nuestro gran reto, hemos creado lo que llamamos “Amorosa AI”, que
es por robot y el avatar embebido AI que lleva a cabo la detección de la emoción,
la producción emocional / reflejo,
cierres. excluidos porque no se ajustaban a los criterios de calificación que figuran en [19]. Por
último, los autores realizaron una inspección visual para cada una de las secuencias de
En el experimento 2, se calcularon los rasgos faciales y sus movimientos a través
excluir cualquier secuencia que no parece subjetivamente pertenecer a la categoría de
de cámaras web incrustado en los ojos del robot, o de las condiciones de Avatar, la
emoción asignados.
cámara web en la computadora portátil que presenta los avatares. Estas características
fueron utilizados como materia prima en una red profunda de aprendizaje pre-formados FER2013 consta de 28709 ejemplos etiquetados de expresiones emocionales de una
que clasificó a siete estados emocionales (alegría, tristeza, ira, miedo, disgusto, amplia gama de personas, desde las siete categorías (ira, asco, miedo, alegría, tristeza,
sorpresa, y neutrales, porque los métodos de entrenamiento y matriz de confusión, sorpresa y neutro). Este conjunto de datos fue creada mediante el uso de un conjunto de las
véase la siguiente sección). Mientras que toda la tecnología androide calcula estados palabras clave relacionadas con las emociones que se combinaron con palabras asociadas
emocionales de forma continua a través de las interacciones, Sofía y su avatar con el género, edad, origen étnico y enviados a Google Image Search. reconocimiento de
audiovisuales (pero no el avatar de sólo audio) utilizan la salida de la red profunda de rostros OpenCV se aplicó a los resultados de estas búsquedas para obtener cuadros
aprendizaje como entrada a OpenCog Santo, que produjo predeterminado respuestas delimitadores para cada una de las caras en las imágenes. etiquetadoras humanos luego
emocionales que coinciden con el Actualmente determinado pico de emoción de las limpiaron y rechazaron algunas de las imágenes, después de lo cual se asignan a cada imagen
siete emociones posibles, a niveles de intensidad que emparejan nivel de intensidad del una de las siete emociones mencionadas anteriormente.
usuario. Estas animaciones de reflejo se realizaron con una pendiente gradual, alisada,
con un pico con un aproximado de 2 segundos de retraso de la emoción detectado
originalmente (código en [18]). En el experimento 2, parpadea y cierres del ojo no se
Como entrada, el modelo usa caras normalizados y recortada en 48x48x3 pixeles, y 68
reflejaron.
puntos de referencia detectadas por el dlib facial kit de herramientas de análisis [24] como
entradas adicionales característica vectoriales. La salida del modelo comprende probabilidades
para cada una de las siete emociones básicas como etiquetado de [20-21]. Validación exactitud
de este modelo fue de 63,17% con 20% de los datos de entrenamiento utilizados para la
validación. Véase la Fig. 1 para una parcela matriz de confusión de esta validación de
DO. El aprendizaje en red profunda emoción de detección
ejecución.
Se utilizó la CK + [19-20] y Kaggle FER2013 [21] conjuntos de datos para entrenar a una
red de alimentación hacia adelante convolucional neural (CNN) con puntos de referencia como
vectores de entrada adicionales para reconocimiento de la emoción de las expresiones faciales, RE. Robot y Avatar Creatiom y Rendimiento
lo que resulta en el modelo disponible en [22] . CK + y Kaggle FER2013 se utilizan
Sophia el robot fue producido por Hanson Robotics a través de medios de
principalmente en la investigación de análisis de imagen facial.
propiedad. La voz del robot se ha creado a partir de una pre- grabado repertorio vocal
hembra humana, controlado con un proceso de la voz en texto. El audiovisual y
CK + contiene 593 expresiones graduales de emociones, que van desde una base audio-solo avatares ambos usaron el mismo repertorio voz humana y proceso de
neutra plantear marco a la máxima expresión, capturadas de 12 participantes. Categorías de control vocal que el robot. El avatar de audio independiente se presentó mientras que
clasificación de la emoción en CK + se realiza a través de las etiquetas emoción una pantalla en blanco portátil negro se muestra al usuario, mientras que la voz llevó a
FACS-codificada, en un proceso de tres pasos. En primer lugar, las etiquetas de secuencia cabo la conversación. La animación para el avatar audiovisual se ha creado usando
se compararon con la Tabla Emotion Predicción del manual FACS [23], y las secuencias que medios de propiedad, utilizando el mismo control de animación como para el proceso
satisfacía los criterios se añadieron provisionalmente como pertenecientes a una emoción de animación del robot.
específica. En segundo lugar, algunas secuencias eran

III. T ECNOLOGÍA yo IMPACTO y T TÉCNICA mi VALUACIÓN


Ya hemos creado esta tecnología, por lo que aquí se explica cómo se evaluó la
tecnología y su impacto hasta el momento.

A. Los participantes y del Procedimiento


etiqueta real

a) los participantes. Todos los participantes leído y firmado los formularios de


consentimiento para el experimento, se les informó que estaban siendo video grabado, y tenía
una opción después del experimento para firmar un consentimiento para divulgar públicamente
su video o no. Los participantes fueron reclutados por medio de volantes aprobados por el IRB
y mensajes de correo electrónico que no describen exactamente el propósito del experimento.

Veintiséis participantes de edades comprendidas entre 20 y 50 participaron en


el experimento 1 durante 9-11 2017 de la Universidad Politécnica de Hong Kong en
Hong Kong. Diez participantes hablaban Inglés como su lengua materna; los 16
restantes hablaban Inglés como segunda lengua. Los participantes se pagaron 40
dólares HK (alrededor de $ 5 EE.UU.) por su participación. Treinta y seis
etiqueta predicho
participantes que van en la Edad de pareja 18 75 participaron en el experimento 2
Fig. 1. matriz de confusión para el feed-forward CNN utiliza para el reconocimiento de emociones.
La mejor actuación fue en expresiones felices. durante junio de 2018, la Universidad de Sofía en Palo

Este trabajo fue financiado por la Fundación Colibrí a través del Instituto de Ciencias Noetic,
Noetic. Robotics, la Fundación OpenCog y SingularityNet.
Hanson
Alto, CA. Veintisiete de estos participantes hablaban Inglés como su lengua los ojos del robot. La duración de cada conversación se tapó a los 15 minutos, y
materna; los 9 restantes hablaban Inglés como segunda lengua. Hubo 13 durante todo el experimento un camarógrafo registró tanto el robot y el
participantes en el grupo interacción robot-, 11 participantes en el grupo participante; por tanto, un camarógrafo estaba en la habitación todo el tiempo. La
interacción avatar AV, y 11 participantes del grupo de interacción de audio conversación se vio obligado a elegir entre tres temas, incluyendo una discusión
independiente. Los participantes se les dio una tarjeta de regalo de $ 10 US acerca de la conciencia y la meditación guiada conciencia, una discusión acerca
Amazon por su participación. de las emociones y una emoción meditación guiada, y una discusión sobre la
singularidad humana y una meditación guiada singularidad. Los participantes no
podían elegir a discutir algo fuera de estas tres categorías. Experimentadores
segundo) Procedimientos comunes a ambos experimentos. Todas las monitorearon la conversación a través de un ordenador portátil cuando estaban
instrucciones y los propios experimentos se llevaron a cabo en Inglés. Después
sentados fuera de la habitación y trató de no interferir en la conversación, incluso
de leer / firmar el formulario de consentimiento, se le dijo a cada participante que
cuando había errores aparentes. Sólo en un caso hicieron que interfieren con una
se les pidió tener una conversación con una tecnología androide. No se les dijo
conversación cuando el robot no se movió a una respuesta durante más de 5
la naturaleza de la conversación. Luego se les pidió que completar un
minutos. En este caso, los experimentadores desencadenan la respuesta cued-ya
cuestionario previo a la interacción en línea en la que se pidió al grado: 1) sus
de forma remota.
sentimientos actuales de amor por miembros de la familia, amigos, conocidos y
desconocidos (5 preguntas); 2) sus sentimientos actuales de amor incondicional,
que se define como “el deseo benevolente de corazón que todos y todo-a
re) Procedimientos específicos para el experimento 2. En el experimento 2, no hicimos
nosotros mismos, los demás y todo lo que existe en el universo alcanza su
uso de la vigilancia de la VFC, en lugar de confiar en la detección de la emoción como una
mayor plenitud posible, lo que puede llegar a ser. Este amor se da libremente,
medida objetiva. Hemos creado también trípodes para registrar los participantes y la tecnología
sin consideración de mérito, sin condiciones, sin esperar nada a cambio, y es un
de Android, por lo que no había nadie en la sala durante las conversaciones. Debido a las
amor que motiva la acción de apoyo en el que ama “, - con 5 preguntas de
limitaciones inevitables, el robot fue establecido en una mesa que hacía que su línea de visión
clasificación amor incondicional por uno mismo, otros seres humanos, animales,
ligeramente por encima de la línea de visión del participante, por lo que el participante tenía que
portátil en el que se le dio la encuesta, y los androides; 3) el grado en que se
mirar hacia arriba para mirar en los ojos del robot. La línea de avatar la vista era un poco
sentían que fueron descritos por cada uno de los 16 adjetivos en la introspección
inferior a la línea de visión del participante, por lo que el participante tenía que mirar hacia abajo
breve repaso del estado de ánimo (BMIS) [25], y 4) otras tres preguntas breves
para mirar a los ojos de la imagen de usuario. El curso de las conversaciones era menos
que no examinar aquí.
restricciones que en el experimento 1, pero de los 36 participantes, sólo cuatro optó por no
permitir que la IA para guiarlos en las prácticas de meditación después de un chat de
introducción, o sólo a participar en una o dos prácticas. En general los participantes
conversaron con la tecnología de Android durante unos cinco minutos, y luego la IA los guió
hacia un ejercicio de conciencia, después de lo cual los participantes informaron de lo que han
Después de completar el cuestionario, cada participante estaba sentado en frente
vivido. A continuación, la IA los guió hacia otro ejercicio de meditación, seguida de otra
de la tecnología de Android. En el caso del robot, el torso del robot estaba vestida con
discusión, y luego hacia una “escucha profunda” o en la práctica “Mirando ocular” - en la que se
una camisa sencilla durante las interacciones. En el caso de que el avatar, solamente
invita al participante a hablar de cualquier cosa con la tecnología Android o simplemente la
una cabeza fue visto en un fondo gris. Después se inició la grabación de vídeo, los
mirada en su ojos, o ambos. La duración de cada conversación se tapó en 25 minutos, y se
experimentadores salieron de la habitación y cerró la puerta y el participante comenzó
la conversación diciendo “hola” a la tecnología androide. Si los participantes eligieron requiere un mínimo de 20 minutos para su inclusión en el análisis (un participante se retiró del

para ser guiado en meditaciones, fueron guiados con guiones escritos en colaboración análisis debido a que no se ha completado por lo menos 20 minutos de conversación). Para los

basada en los conceptos y ejercicios en el modelo de desarrollo humano iConscious seis primeros participantes, los experimentadores monitorearon la conversación a través del

[26]. Al final de la duración destinado a la conversación, los experimentadores ordenador portátil y el monitor de bebé fuera de la sala de experimento, pero para el resto de
volvieron a entrar en la habitación y pidieron a la tecnología de Android para terminar. participantes que dejaron de supervisión, ya que la tecnología estaba funcionando
Después de las palabras de clausura del robot o avatar, Se pidió a los participantes a relativamente bien y se sentían obligados a dar a los participantes una mayor privacidad.
completar el cuestionario post-interacción, que era el mismo que el cuestionario Además, durante los seis primeros participantes, interrupción por parte de la tecnología
pre-interacción. Los participantes fueron informados en un 5- 10 minutos entrevista en androide era común; este problema se resolvió mediante un arreglo código que empieza con el
cámara con los experimentadores. Por último, se pidió a los participantes que séptimo participante. A pesar de esta diferencia, no hubo claras diferencias cuantitativas en las
consideren firmar un formulario de autorización de vídeo y se les dijo que estaban respuestas emocionales entre los seis primeros y el resto de participantes, por lo que todos los
libres de no firmar el formulario. participantes se combinan en el análisis. Una vez más, sólo en un caso hicieron los
experimentadores interfieren en la conversación por entrar en la habitación y vocalmente
desencadenar la siguiente respuesta de la tecnología de Android cuando como la tecnología
estaba funcionando relativamente bien y se sintió obligado a dar a los participantes una mayor
privacidad. Además, durante los seis primeros participantes, interrupción por parte de la
do) Procedimientos específicos para el experimento 1. Antes de completar el
tecnología androide era común; este problema se resolvió mediante un arreglo código que
cuestionario pre-interacción, cada participante fue equipado con una correa de
empieza con el séptimo participante. A pesar de esta diferencia, no hubo claras diferencias
monitoreo pecho Polar H7 variabilidad de la frecuencia cardiaca (HRV) y Bluetooth se
cuantitativas en las respuestas emocionales entre los seis primeros y el resto de participantes,
utiliza para sincronizar la señal como entrada a la aplicación móvil HRV Logger. La
por lo que todos los participantes se combinan en el análisis. Una vez más, sólo en un caso
correa para el pecho se lleva durante todo el experimento y se retira después de
hicieron los experimentadores interfieren en la conversación por entrar en la habitación y
vocalmente desencadenar la siguiente respuesta de la tecnología de Android cuando como la tecnología estaba
el participante terminado el post-interacción
cuestionario. La línea de visión para que el robot se mantuvo a nivel de los ojos del
participante, por lo que el participante podía mirar directamente a
Las palabras de los participantes no fueron escuchadas. Después de esto, salieron de la
p < 0,005
habitación de nuevo para permitir que el participante para terminar la conversación. 3.5 4

2,5 3

SEGUNDO. Variables dependientes

Cambio del pre-test


1.5 2

una) variables dependientes subjetivas. En ambos experimentos se calcularon las cuatro


0.5 1

variables subjetivas dependientes (VD) a partir de las respuestas de los cuestionarios previos y
- 0,5 0

posteriores a la interacción: dos variables basado en el amor y dos variables basadas en el -1

Excitación Agrado
estado de ánimo. En términos de variables basado en el amor, estábamos interesados ​en
0.6

sentimientos de amor relacionados con la auto-trascendencia, así que nos ignoró las p < 0.02
0.5

respuestas a las dos preguntas relacionadas con sentimientos de amor para los miembros de
0.4
p < 0,006
la familia y la única pregunta sobre el amor incondicional para uno mismo. Para cada

Cambio del pre-test


0.3

participante, restamos la media aritmética de las cuestiones relacionadas con amor- y el


0.2

incondicional amor (UL) preguntas del cuestionario posterior a la interacción relacionados y se


0.1

restan los mismos medios derivados de las respuestas en el cuestionario previo a la interacción
0

de crear una amor cambio en la puntuación y una UL cambio en la puntuación para cada Amor Amor incondicional

participante. En términos de variables basadas en el estado de ánimo, marcamos el BMIS de Fig 2. Experimento 1:. Grupo significa una de las cuatro puntuaciones de cambio subjetivos (post menos
acuerdo con ambos parámetros de excitación y agradabilidad como en [25] y se restan las pre) derivados de cuestionarios antes y después de las interacciones. Las barras de error muestran +/- 1

puntuaciones de excitación y agradabilidad calculados a partir del cuestionario post-interacción dentro-participante error estándar de la media (SEM). pag- se dan valores para los tres emparejados
pruebas t significativos.
de las mismas puntuaciones en el cuestionario pre-interacción para crear un

Resultado cambio excitación y una agradabilidad cambio en la puntuación para cada


participante. Nos señas valores atípicos para la eliminación en cada una de las puntuaciones de
cambio; estos fueron las puntuaciones de 2,5 veces la desviación estándar de la muestra ya
sea por encima o por debajo de la media de la muestra. No hay valores atípicos fueron
marcados en el experimento 1. Un valor atípico se encuentra en posición en el experimento 2;
un valor para la puntuación de cambio agradabilidad que estaba por debajo de la media de la
muestra. Incluimos este valor atípico en los resultados globales de ese experimento, pero Fig 3. Experimento 1:. Grupo medio de los dos puntuaciones de cambio objetivas (post menos pre) derivados de

excluimos que cuando se muestran los resultados para cada modalidad androide; la presencia los datos de la VFC en el experimento 1. Las barras de error muestran

+ / - 1 dentro-participante SEM pag- se dan valores para ambas pruebas t significativas pareadas.
o ausencia de valores atípicos no afectaron a las conclusiones estadísticas en ambos casos.
También utilizamos los codificadores de vídeo independientes para codificar las conversaciones
en cuanto a la calidad, lo que refleja, positividad, y otras medidas subjetivas, pero los resultados
se hace referencia a las series temporales emoción como media, una de las cuales sería la
de estos análisis son demasiado complejas para discutir a fondo en un breve informe. Uno de
“serie de tiempo ira significar” para un participante dado. El propósito de esta variable
los resultados más importantes se informa en la siguiente sección.
dependiente fue a realizar un seguimiento de los cambios emocionales minuto a minuto por
caso para cada participante para determinar si hubo cambios significativos en las emociones,
y también para determinar si la dinámica emocional se correlacionan con la puntuación de
segundo) variables dependientes e independientes objetivas. En el experimento 1, cambio amor o el cambio en la puntuación UL . Tras una inspección de la gran media de las
nuestros DV objetivas fueron las puntuaciones pre-to-post-interacción de cambio derivadas series temporales cruda emoción de los participantes, no se observaron cambios claros en la
de la desviación estándar de los intervalos inmejorable, a latido del ritmo cardíaco (SDNN), felicidad y la tristeza por la
así como el componente de baja frecuencia (LF potencia; 0,04 -0,15 Hz). Estos se calculan a
partir de las series de tiempo de la VFC para cada participante usando el software marca de 15,5 minutos, que correspondía a la de los últimos tiempos promedio de la segunda

registrador de la VFC. El propósito de la puntuación de cambio SDNN y el cambio de de las dos prácticas de meditación. Derivamos una puntuación dinámico hoc posterior de la
puntuación de LF era seguir los cambios en la carga cognitiva durante el experimento, como felicidad y la tristeza, que consiste en el valor absoluto de la media de puntuación de la emoción

una mayor carga cognitiva se asocia con una disminución en ambas variables [27-28]. en la marca de 16 minutos a menos la media de las 15 puntuaciones de emoción anteriores,
que se utilizó como línea de base. Estas puntuaciones dinámicas felicidad y la tristeza se
utilizaron como variables independientes para predecir los cuatro DVs. subjetivos

do) Experimento 2 también tenía una serie de objetivos DVs. El conjunto de DV se


derivaron de la serie temporal de las proporciones de cada uno de los siete re) También se calculó otro conjunto de variables independientes para
profundo-aprendizaje detectado estados emocionales del participante durante la representar el grado en que la tecnología androide y los participantes humanos
interacción, derivado de vídeos de la cara del participante muestreados a 60 fps. Estos se emocionalmente espejo uno del otro. Este conjunto se calculó necesariamente de
conocen como series de tiempo cruda emoción del participante. De la serie de tiempo de forma exclusiva para las sesiones de robot y audiovisual imagen de usuario (AV), ya
emoción en estado puro para cada participante, tomamos la media aritmética de cada uno que éstos eran los únicos sesiones en las que los participantes tuvieron contacto
de los siete estados emocionales, a través de cada minuto de los primeros 20 minutos de la visual con el androide. Se realizó regresiones lineales de series temporales emoción
interacción, lo que resulta en 20 medios para cada participante para cada uno de los siete media de cada participante y la serie de tiempo medio emoción
estados emocionales. Estos son
extraída de vídeos del robot o avatar durante la interacción de ese participante.
Una alta correlación ( r 2) valor indicaría que el participante refleja las expresiones
faciales emocionales de la tecnología relativamente constante durante la
interacción, y / o que el robot o AV avatar refleja las expresiones faciales del
humanas relativamente consistente. Un valor de R2 para cada uno de los siete
estados emocionales se calculó para cada participante, dando como resultado lo
que se conoce como valores de correlación emoción-reflejo. Para determinar si la
consistencia de la emoción de reflejo se relaciona con ninguna de las
puntuaciones de cambio de auto-reporte, se investigó si estos valores de
correlación emoción-reflejo para los siete estados emocionales como grupo podía
predecir los cuatro DVs. subjetivos

IV. yo IMPACTO Y RESULTADOS DE LA EVALUACIÓN

Videos de tres diferentes interacciones completas de los participantes y entrevistas


informativas, así como un vídeo resumen, todo ello con el permiso de los participantes, se
Fig 4. Experimento 2:. Grupo significa una de las cuatro puntuaciones de cambio subjetivos (post menos
proporcionan en su totalidad en [29]. Tenga en cuenta que los tres participantes que se pre) derivados de cuestionarios antes y después de las interacciones. Las barras de error muestran +/- 1
muestran en estos videos reportaron un aumento en sentimientos de amor desde antes dentro-participante SEM pag- se dan valores para los dos emparejados pruebas t significativos.

hasta después de sus interacciones, a pesar de que en los casos de llamadas las
interacciones contenían errores obvios. En [30] se informó de los resultados de las
primeras etapas del Experimento 1, incluyendo varias anécdotas notables. No vamos a
resumir esas anécdotas aquí, pero vale la pena señalar que al menos tres participantes a
través de los dos experimentos informaron tener experiencias “trascendentes”, y estos
informes fueron creíble, dado un cambio importante en la expresión emocional que era
evidente para los codificadores de vídeo. Promover, varios participantes comentaron que
la profundidad de la meditación era más profunda de lo normal durante las interacciones.
Intrigante ya que estos informes son, la comprensión de los fenómenos experimentados
por los participantes requiere determinar cómo las medidas objetivo relacionado con las
experiencias subjetivas de los participantes.

A. Experimento 1

una) variables dependientes subjetivas. La media del grupo de la puntuación de


cambio excitación fue negativo, lo que indica que la auto informó de excitación se redujo, en
promedio de pre- a post- interacción (Fig. 2); sin embargo, esta disminución no fue
significativa (emparejado t-test,
p> 0,40). El grupo de medios de la amenidad, el amor y las puntuaciones de cambio UL Fig 5. Experimento 2: medios de grupo de las cuatro puntuaciones de cambio subjetivos (post menos
fueron significativamente positivo, lo que indica un cambio de grupo hacia un estado de pre) derivado de cuestionarios antes y después de las interacciones, agrupados según el tipo de
interacción (negro = robot, blanco = avatar AV, gris = sólo audio avatar) . Las barras de error
ánimo más agradable, así como mayores sentimientos de amor y el amor incondicional,
muestran +/- 1 participante intra SEM pag- valores por debajo de 0,1 se dan para pruebas t pareadas.
de pre- a post- interacción (t emparejado pruebas, agradabilidad: p < 0,005, el amor: p < 0,002,
el amor incondicional, p < 0,02).

significativo (Fig 4; prueba t pareada,. p> 0,35), mientras que la media del grupo de la
segundo) variables dependientes objetivas. Las puntuaciones de cambio SDNN y puntuación de cambio agradabilidad fue positivo como en el experimento
LF, derivados del análisis de la VFC, aumentaron significativamente de antes a 1, pero esta vez no fue significativa (emparejado t-test, p> 0,65 sin eliminado valor
después las interacciones, en consonancia con una disminución de la carga cognitiva atípico, p> 0,20 con valor atípico eliminado). El grupo significa el amor y
(Fig 3;. Emparejado pruebas t para ambos DV, p < 0,02). Las relaciones entre las puntuaciones de cambio UL fueron significativamente positiva, indicando de nuevo
variables dependientes objetivas y subjetivas fueron examinados en un análisis un cambio de grupo hacia mayores sentimientos de amor y amor incondicional de
post-hoc, pero no eran fácilmente interpretable y no se discuten aquí. pre- a post- interacción (pruebas t pareadas, amor: p < 0,05, el amor incondicional,

p < 0,008).
SEGUNDO. experimento 2
No se observaron efectos significativos de grupo a través de las tres condiciones (robot,
una) variables dependientes subjetivas. Una vez más, la media del grupo de la avatar AV, avatar de audio independiente) para las cuatro variables dependientes subjetivas.

puntuación de cambio excitación era negativo y no Sin embargo, como se muestra en la Fig. 5, para el robot y el avatar AV interacciones, las
puntuaciones de cambio amor
fueron positivos y no significativa y las puntuaciones de cambio UL eran o bien significativa Por último, el cálculo de la emoción de duplicación de valores de correlación para
o borderline significativa (robot: p < avatar 0,05, AV: p < 0,07), mientras que las todas las siete emociones (descrito en la sección IIIB re) predijo significativamente las
puntuaciones de cambio avatar de sólo audio o estaban plana (amor) o mínimamente puntuaciones de cambio agradabilidad entre los cuatro DV subjetivos (Fig. A5). Esta
positivo (UL) para estas medidas. predicción sobrevivió corrección de Bonferroni para los cuatro intentos de predicciones
(regresión lineal múltiple con siete predictores,
segundo) variables dependientes objetivas y predicciones de variables
r 2 = 0,676, p < 0,008;
dependientes subjetivas. medios Grand por felicidad y la tristeza series de tiempo en
predictores significativos fueron el miedo: t = - 3.25, p < 0,006 y la sorpresa:
bruto se muestran en la Fig 6 para ilustrar la dinámica que ocurre en ~ 15,5 minutos, que t = 2.63, p < 0,02), lo que indica una relación robusta entre el aprendizaje profundas
corresponde al punto en el que, en promedio, los participantes están abriendo sus ojos en detectaron mirroring emocional y el cambio de los participantes en agradabilidad de antes
el extremo de la segunda meditación.; medios de los grandes por otras series de tiempo a después de las interacciones de los participantes en las dos condiciones que
emoción cruda se muestran en el Apéndice. La serie temporal emoción media para la ira y proporcionan el contacto visual con el androide.
disgusto mostró un curso de tiempo significativamente negativa, mientras que la sorpresa
mostró una evolución en el tiempo que estaba en el límite negativo significativo. Por el
contrario, la serie de tiempo medio de la tristeza mostró un curso de tiempo
V. P EVALUACIÓN DE IMPACTO ROBLEMA
significativamente positivo (ANOVA de medidas repetidas a través de 20 puntos de
En general, los datos obtenidos en los dos experimentos confirman la mayor
tiempo, la ira: p < 0.000002; asco: p < 0,03; sorpresa: p < 0,075; tristeza: p < 0,005). Hubo un
parte de nuestras hipótesis. Hipótesis 1: sentimientos de amor auto-reportados
descenso medio en el miedo, pero esto no fue significativo. Estos resultados indican
relacionados con la auto-trascendencia no aumentó significativamente hecho de
cambios mixtos en emoción durante las interacciones que serán discutidos en una
pre- a post-interacción en ambos experimentos, lo que confirma esta hipótesis.
sección posterior (V).
Hipótesis 2: estado de ánimo positivo Autovaloración sí aumentó, en promedio, de
pre y post-interacción en ambos experimentos, pero este cambio sólo fue
significativa en el primer experimento, lo que confirma parcialmente esta hipótesis.
Felicidad y la tristeza anota dinámicos capturados los cambios en estas dos Hipótesis 3: Auto-reporte de la excitación no disminuyó, en promedio, de pre y
emociones aparentes en la marca de 15,5 minutos (de cálculo descrito en la post-interacción en ambos experimentos, pero este cambio no fue significativo,
sección IIIB do). Nuestro objetivo fue determinar si entre estas puntuaciones podían dejando sin confirmar esta hipótesis. Hipótesis 4: medidas de variabilidad del ritmo
predecir cualquiera de los cuatro DVs. subjetivos La única DV subjetiva las dos cardíaco tomadas en el experimento 1 aumentó significativamente de pre- a
puntuaciones predijeron fue la puntuación de cambio amor (Fig. A4, regresión post-interacción, lo que sugiere la carga cognitiva disminuyó durante las
lineal múltiple con dos predictores, r 2 = 0,311, p < 0.003; tristeza: conversaciones y confirmar esta hipótesis. Hipótesis 5: Los sentimientos de ira,
miedo y asco medidos utilizando una red de detección de la emoción profunda de
t = 3,65, p < 0,001, felicidad: t = - 3.15, p < 0,004). Esta predicción sobrevive corrección aprendizaje en el experimento 2 disminuyó durante las interacciones, pero esta
de Bonferroni para los cuatro intentos de predicción, lo que indica una clara relación disminución fue significativa sólo para la ira y disgusto, lo que confirma
entre los cambios en el estado emocional de pico durante la interacción y los cambios parcialmente esta hipótesis. Hipótesis 6: Los cambios dinámicos en la felicidad
en sentimientos de amor de antes a después de la interacción. Cuando el tipo de detectado aprendizaje profundas y tristeza en el experimento 2 predijo
interacción se incluyó en el modelo hubo un efecto significativo grupo borderline ( p < 0.09), puntuaciones de cambio amor y la dinámica de la creación de reflejo emocional
indicando que no hay diferencia robusta entre grupos de interacción, pero los modelos predice las puntuaciones de cambio agradabilidad, lo que confirma esta hipótesis.
independientes para cada tipo de interacción reveló predicciones significativas de las Hipótesis 7: De los cinco hipótesis que eran aplicables para el experimento 2, la
puntuaciones de cambio amor, tanto para los grupos de robots y avatar AV pero no el hipótesis 1 y 6 fueron significativas sólo para condiciones en las que los
grupo de sólo audio (regresiones lineales múltiples con dos predictores, robot: participantes tuvieron contacto visual con el robot o AV avatar, y no en la
condición audio-solo,

r 2 = 0,482, p < avatar 0,03, AV: r 2 = 0,713, p < 0.007, de audio independiente:
r 2 = 0,048, p> 0,80), con las estimaciones de audio independiente invertidos en signo en
relación con los de las otras dos condiciones, indicando las puntuaciones dinámicas
felicidad y la tristeza no están funcionando como predictores de la misma manera en esta
Nuestros resultados sugieren dos conclusiones principales. En primer
condición, ya que son para las dos condiciones que proporcionan contacto visual con el
lugar, breves, conversaciones guiadas y ejercicios de sensibilización
androide. compartidos con un robot humanoide o su avatar audiovisual, controlado
apoyando aún más la utilidad de la puntuación de cambio amor es la relación por responder emocionalmente AI, se correlacionan con aumentos en los
entre los resultados de la codificación de vídeo por dos codificadores independientes y sentimientos subjetivos relacionados con la auto-trascendencia en los
las puntuaciones de cambio amor. Factores en los que los programadores estaban de participantes humanos - específicamente, sentimientos de amor para las
acuerdo cuantitativa predijeron significativamente las puntuaciones de cambio (amor personas más allá de la propia la familia inmediata, así como sentimientos
regresión lineal múltiple con siete predictores, r 2 = 0,432, p < 0,021). Estos factores de amor incondicional para otros seres humanos, animales y objetos
fueron: el grado en que los participantes 1) copiar los movimientos del androide, 2) se inanimados, incluyendo los robots y los avatares sí mismos. Ambas
redujo en un ritmo de conversación con el androide, 3) mantienen el contacto visual, 4) medidas subjetivas y objetivas tomadas en el experimento 2 sugieren
participaron en las actividades de meditación, 5) hecho las preguntas personales fuertemente que los androides con aspectos visuales presentados a los
android , 6) sintió la interacción era más largo de lo que era, 7) se considera que tienen participantes son más eficaces. Este resultado, junto con la dinámica de la
una conexión positiva con el androide. emoción de detección de la predicha sentimientos de amor en el
experimento 2,
En segundo lugar, las medidas objetivas, tales como cambios en el ritmo cardíaco y que reflejan expresiones de sorpresa predijeron cambios positivos en la agradabilidad,
los estados emocionales detectados por una red profunda de aprendizaje indican una mientras más baja consistencia reflejo en las expresiones de miedo predijo cambios positivos
compleja serie de transformaciones ocurrir durante estas conversaciones, y esto es en lo agradable. Una implicación es que la dinámica de creación de reflejo se pueden
importante también sugieren que las medidas subjetivas, percepción subjetiva de los sintonizar a ser menos consistente en la duplicación de las expresiones de miedo en los casos
homólogos tienen objetivas. En el experimento 1, dos medidas relacionadas con la en los que se desea un resultado más agradable. Sin embargo, el efecto de este cambio en los
variabilidad de la frecuencia cardíaca, la temporización de los intervalos de latidos (SDNN) sentimientos de auto-trascendente es incierto.
y la porción de baja frecuencia del espectro de frecuencia calculado a partir de la serie de
tiempo latido del corazón (LF) Tanto el aumento de pre- a post- interacción, lo que sugiere
que la carga cognitiva antes de la interacción fue mayor que después. Esto no es
VII. norte EXT S TEPS
sorprendente, y se puede suponer que este cambio refleja una reducción de la carga
cognitiva que se produjo una vez que los participantes completaron la conversación, una
avanzando hacia nuestro gran desafío requiere

suposición de que está soportado por una disminución gradual pero no significativa en
mejoras en las siguientes áreas:
estas mismas variables, en promedio, en el transcurso de las conversaciones (datos no 1. La flexibilidad, la estocasticidad, y riqueza en nuestra regla basada en el
mostrados). Si las conversaciones habían sido cognitivamente estresante, sin embargo, emoción y la motivación modelo, OpenPsi. Estamos trabajando para permitir una gama
este cambio podría haber ido en la dirección opuesta. Así que la conclusión provisional es más amplia de pesos Urge, un modelo más complejo de la motivación y la estocasticidad
que las conversaciones eran generalmente no estresante, pero no podemos concluir que de los impulsos de manera que la imprevisibilidad y la flexibilidad serán características
el cambio en el ritmo cardíaco relacionado con la propia tecnología. de nuestros futuros diálogos. También tenemos planes de añadir la capacidad de aclarar
las intenciones de un participante cuando no son claras, y para responder a la
información de detección de la emoción de forma dinámica.

2. Las mejoras en nuestra emoción de detección profunda-aprendizaje


En nuestros experimentos futuros planeamos añadir el Inventario adulto red. Re-entrenar el modelo con más ejemplos de emociones que fueron
Autotrascendencia validado, tal como se utiliza en el [10-12], así como el cuestionario de submuestreadas (por ejemplo, disgusto), aumentando el número de grupos
Amor-sentimientos, los codificadores de vídeo independientes, y una red étnicos muestreados, y aumentar el número de conjuntos de datos utilizados
profunda-aprendizaje relacionado con la utilizada aquí . Como se ha demostrado ya, vamos mejorará nuestra red profunda emoción: la detección de aprendizaje.
a utilizar estos métodos convergentes para determinar si los participantes experimentan
significativos: 1) aumenta en sentimientos de amor por los demás y la auto-trascendencia,
3. La inclusión de una red profunda aprendizaje emocional capacitado en

2) disminución de la ira y disgusto, y 2) la dinámica emocional que predicen cambios información de voz y tono vocal emocional. La obtención de la información
en los sentimientos de amor y auto-trascendencia durante las interacciones. emocional precisa de la voz le ayudará a manejar situaciones en las que el
participante no está a la vista de la cámara, así como añadir riqueza a nuestro
protocolo de reflejo emocional, asumiendo también se suman los cambios
apropiados en el tono emocional vocal del androide.
VI. S PECULADO
Se obtuvieron efectos convincentes e informativas en el
4. El desarrollo y la integración de un modelo de relación. Nosotros
experimento 2 de la red profunda-aprendizaje. Los cambios en la
que parte del problema de guiar el diálogo flexible entre dos personas es
emoción significan los datos de series de tiempo, la felicidad y las
que un modelo de relación - una comprensión de las emociones,
puntuaciones dinámicas tristeza, y la correlación emoción de duplicado
motivaciones y objetivos de cada persona en la relación - no se utiliza
de todos los valores de validez aparente proporcionada a la utilidad de
generalmente para guiar la conversación. Esperamos que para remediar
la propia red profunda-aprendizaje. Las disminuciones significativas en
este problema mediante la colaboración con los neurólogos sociales para
la ira y disgusto en el transcurso de la interacción se predijo, pero el
desarrollar e integrar un modelo de relación dinámica que informa
aumento significativo en la tristeza no lo era. Podría ser que, debido a
OpenCog Openpsi a través de los diálogos.
las expresiones neutrales y la tristeza se confunden a menudo por la
red profunda de aprendizaje (Fig. 1), el aumento de la tristeza en
realidad reflejan aumentos en la neutralidad, lo que podría esperarse
después del éxito meditaciones. También es posible que el aumento de VIII. IRB Estado de la revisión
la tristeza reflejada detectado un tipo de tristeza que es consistente con Ambos experimentos aquí fueron pre-aprobados por un IRB (Fig. A6 y A7). Todos
la apertura a la propia experiencia interna de uno. los experimentos futuros también serán aprobados previamente por un IRB. Se
siguieron todos los requisitos del IRB.

UNA CKNOWLEDGMENT

Además de nuestros generosos patrocinadores, damos gracias a Ralf Mayet de dirigir el


equipo de desarrollo, Tesfa Yohannes y Mitiku Yohannes para el entrenamiento de la red
profunda-aprendizaje, la OpenCog comunidad de codificación para la codificación
valores de correlación de emoción reflejo predijeron auto-reportado cambios en
OpenPsi y el código relacionado, Carole Griggs y Ted Strauss para la escritura de trabajo
la agradabilidad, lo que sugiere que la sincronía emocional facial entre el ser
humano y el androide fue clave para la experiencia de lo agradable de la interacción muy valiosa las meditaciones y conversaciones utilizados en las interacciones, y Gino Yu

de los humanos. Curiosamente, el predictor sorpresa fue positivo, mientras que el para proporcionar espacio de laboratorio y el acceso a la Politécnica de Hong Kong IRB.

predictor miedo fue negativo, lo que indica que una mayor coherencia en la
R EFERENCIAS [17] S. Hurley, “El modelo de circuitos compartidos (SMC),” Behav. Cerebro Sci., Vol.
31, pp. 1-22, 2008.
[1] AS Chulef, SJ Lee, y DA Walsh, “Una taxonomía jerárquica de los objetivos humanos,” Motiv. y
[18] https://github.com/elggem/ros_people_model/blob/master/scripts/mirrori
emotivo., vol. 25, pp. 191-232, 2001. [2] ME Kołtko-Rivera, (2006), “El redescubrimiento de la
ng.py
versión posterior de la jerarquía de necesidades de Maslow: la auto-trascendencia y
[19] T. Kanade, JF Cohn, y Y. Tian, ​“Base de datos completa para el análisis de la expresión facial,”
oportunidades para la teoría, la investigación y la unificación”, Rev. Gen. Psych, vol. 10, pp. 302-
Proc. Cuarto IEEE Int. Conf. Auto. Cara y Gesto Reconoce., (FG'00), pp. 46-53, 2000. [20] P.
Lucey, JF Cohn, T. Kanade, J. Saragih, Z. Ambadar, y I. Matthews, “El extendido conjunto de
317, 2006.
datos Cohn-Kanade (CK +),” Proc. Int tercero. Taller sobre CVPR para Comm humana. Behav.
[3] AH Maslow, “Crítica de la teoría de la auto-realización,” En E. Hoffman (Ed.), “Future Visions” Pp. Análisis (CVPR4HB
26- 32, Londres: Sage, 1996. [4] D. O'Connor y L. Yballe, “Maslow revisited”, J. Manag. Ed., Vol.
31, pp. 738-756, 2007. [5] CR Cloninger, “La ciencia del bienestar,” World Psych., Vol. 5, pp. 2010), pp. 94-101, 2010
71-76, 2006.
[21] I. Goodfellow, D. Erhan, PL. Carrier, A. Courville, M. Mirza, B. Hamner et al., “Desafíos en el
aprendizaje de la representación,” Taller ICML sobre los retos de representar., 2013,
arxiv.org/abs/1307.0414. [22] https://github.com/mitiku1/Emopy-Models
[6] MR Levenson, CM Aldwin, y AP Cupertino, “Trascender el auto,” Matur. Y Velhice, pp. 99-116,
2001. [7] MR Levenson, PA Jennings, CM Aldwin, y RW Shiraishi, “autotrascendencia”, Int. J.
[23] P. Ekman y Friesen W., “sistema de codificación facial acción”, Palo Alto: Consulting
Envejecimiento Hum. Dev., Vol. 60, pp. 127-143, 2005. [8] DD Coward, “auto-trascendencia y
Psychologists Press, 1978. [24] DE King, “dlib-ml,” J. Mach. Aprender. Res., Vol. 10, pp.
bienestar emocional en mujeres con cáncer de mama avanzado,” Onc. Nurs. Forum, vol. 18, pp.
1755-1758,
857-863,
2009.
[25] Mayer, JD, y Gaschke, YN (1988). La experiencia y la meta
1999.
la experiencia del estado de ánimo. Journal of Personality and Social Psychology, 55 ( 1), 102.
[9] KA MacLean, MW Johnson, RR Griffiths, “Las experiencias místicas ocasionados por el plomo
psilocibina alucinógeno a los aumentos en el dominio de la personalidad de apertura”, J.
[26] C. Griggs y R. Strauss, “acelerar el desarrollo humano consciente usando el modelo iConscious
Psychopharm., Vol. 25, pp.1453-
como un marco integrador”, no publicado. [27] N. Hjortskov, D. Rissen, AK Blangsted, N. Fallentin,
1461, 2011.
U. Lundberg, y
[10] JJ Runquist y PG Reed, “auto-trascendencia y el bienestar de los adultos sin hogar,” J. Hol.
K. Søgaard, “El efecto del estrés mental en la variabilidad de la frecuencia cardíaca y la presión
Nurs., Vol. 25, pp. 5-13, 2007. arterial durante el trabajo de equipo”, Eur. J. Appl. Phys., Vol. 92, pp. 84-89, 2004. [28] G. Mulder y
[11] C. Vieten, M. Estrada, AB Cohen, D. Radin, M. Schlitz, y A. Delorme, “de compromiso en un
LJ Mulder, “Tratamiento de la información y el control cardiovascular,” Psychophys., Vol. 18, pp.
programa de práctica integral basado en la comunidad mejora el bienestar,” Int. J. Transpers.
392-402, 1981. [29] https://drive.google.com/drive/folders/1O6FEtFayWgM2DZYAv0mM3t
Stud., Vol. 33, pp. 1-15, 2014. [12] K. Lynch, “La meditación ha ido móvil”, 2016, tesis doctoral
inédita. [13] https://cloud.google.com/speech-to-text/ [14] D. Hart y B. Goertzel, “Opencog”, AGI,
pp. 468-472, febrero de 2008. [15] J. Bach, “El agente arquitectura micropsi”, en Proc. ICCM-5, Int.
7yaenctUgo? USP = compartir
Cong. Diente. Model., Pp. 15-20, abril de 2003. [16] PF Ferrari y G. Coudé, “neuronas espejo, las
[30] B. Goertzel, J. Mossbridge, E. Monroe, D. Hanson, y G. Yu, G, “Amar AI,” arXiv:
emociones que se y la empatía”, en “Neuronal Correlaciones de la Empatía” Pp. 67-77, Nueva
1709.07791 [cs.AI], 2017.
York: Academic Press, 2018.

Fig 6. Experimento 2: medios de Grand (trazas centrales) y entre-participante +/- SEM (superior y bordes inferiores) para sad (trazo superior), neutral (trazo medio) y emociones (trazo inferior) Happy detectaron con el
profundas red de aprendizaje. Tenga en cuenta las inflexiones, especialmente para la felicidad y la tristeza, en alrededor de 15,5 minutos, que es el tiempo promedio en que los participantes abran sus ojos después de la
segunda meditación.

También podría gustarte