Está en la página 1de 5

Universidad Nacional

de San Agustín

Facultad de Ingeniería de Producción y


Servicios
Escuela Profesional de Ingeniería de
Sistemas
Proyecto: ​Detección de emociones a través una cámara
web
Integrantes:
❏Acuña Huisacayna Jhonatan Jesús
❏Samanez Jimenez Cesar Salvador
Curso:​ Arquitectura de Computadores
Docente:​ Pedro Rodriguez

Arequipa – Perú
2019
 

Detección de emociones a través de una cámara web 

Jhonatan Acuña Cesar Samanez

Este proyecto consiste en el reconocimiento facial de una persona en particular a través de la


cámara web, la cual toma una foto y es almacenada en un servidor, se utiliza una neurona para
entrenar nuevos rostros y sean detectados posteriormente.

Una vez almacenada en el servidor es extraída su url para ser procesada a través de un
programa en Java, el cual utiliza la api de Microsoft Azure y lo procesa en la nube, finalmente nos
devuelve un archivo de texto con las emociones que se lograron percibir así como sus respectivos
porcentajes. Cabe resaltar que esta API-REST contiene más parámetros para evaluar como
edad, color de ojos, piel, cabello entre muchas otras, pero nos centraremos en las emociones.

Hardware
❏ Cámara web o cámara de un móvil.
❏ Sensor de proximidad(para que el rostro esté dentro de los parámetros).
❏ VPS para almacenar las imágenes.

Software
❏ Programación en Python y Java.
❏ Neurona Artificial programada en Python.
❏ Face Api (API-REST de Microsoft Azure).
1. Detección de rostros a través de la cámara web o del móvil

2. Entrenamiento de la neurona(.yml) para más adelante reconocer quien está registrado.


3. Una vez entrenada la neurona cada vez de realizar una nueva prueba, veremos que
reconoce a la persona a través de patrones faciales.

4. La imagen es subida a un servidor VPS y almacenada.

5. Se extrae la url de la imagen almacenada en el VPS para poder procesarlo con el archivo
que utiliza la API-REST en Java.
6. El procesamiento de la imagen a través de esta api nos devuelve un archivo JSON que
contiene la información necesaria que requerimos, extraemos solo las emociones y
veremos los porcentajes de las emociones detectadas.
Por ejemplo el rostro se encuentra como neutral con un 99% de exactitud pero se reconoce
un poco de ira, desprecio y sorpresa en menos de 1%.

Esta información puede ser comprobada a través del portal de Microsoft Azure

Finalmente los resultados serán presentados como una identificación en la parte izquierda
irá la foto y el parte derecha irá la información obtenida, acompañada de una interfaz.

También podría gustarte