Está en la página 1de 63

UNIVERSIDAD POLITÉCNICA SALESIANA

SEDE QUITO

CARRERA DE INGENIERÍA ELECTRÓNICA

DESARROLLO DE UN SISTEMA DE IDENTIFICACIÓN DE


PERSONAS CON UN DRONE MEDIANTE EL USO DE REDES
NEURONALES ARTIFICIALES Y VISIÓN ARTIFICIAL

Trabajo de titulación previo a la obtención del


Título de Ingeniero Electrónico

Autor: Bryan Miguel Pazmiño Camacho

Tutor: Carmen Johanna Celi Sánchez

Quito-Ecuador
2023
CERTIFICADO DE RESPONSABILIDAD Y AUDITORIA DEL TRABAJO
DE TITULACIÓN

Yo, Bryan Miguel Pazmiño Camacho con documento de identificación N° 0928642560


manifiesto que:

Soy el autor y responsable del presente trabajo; y, autorizo a que sin fines de lucro la
Universidad Politécnica Salesiana pueda usar, difundir, reproducir o publicar de
manera total o parcial el presente trabajo de titulación.

Quito, 10 de febrero del año 2023

Atentamente,

--------------------------------------------
Bryan Miguel Pazmiño Camacho
0928642560

i
CERTIFICADO DE CESIÓN DE DERECHOS DE AUTOR DEL TRABAJO
DE TITULACIÓN A LA UNIVERSIDAD POLITÉCNICA SALESIANA

Yo, Bryan Miguel Pazmiño Camacho, con documento de identificación N°


0928642560, manifestó mi voluntad y cedo a la Universidad Politécnica Salesiana la
titularidad sobre los derechos patrimoniales en virtud de que soy el autor del proyecto
técnico: “Desarrollo de un sistema de identificación de personas con un drone
mediante el uso de redes neuronales artificiales y visión artificial”, mismo que ha sido
desarrollado para optar por el título de Ingeniero Electrónico, en la Universidad
Politécnica Salesiana, quedando la Universidad facultada para ejercer plenamente los
derechos cedidos anteriormente.

En concordancia con lo manifestado, suscribo este documento en el momento que hago


la entrega del trabajo final en formato digital a la Biblioteca de la Universidad
Politécnica Salesiana.

Quito, 10 de febrero del 2023

Atentamente,

-------------------------------------------
Bryan Miguel Pazmiño Camacho
0928642560

ii
CERTIFICADO DE DIRECCIÓN DEL TRABAJO DE TITULACIÓN

Yo, Carmen Johanna Celi Sánchez con documento de identificación N° 1717437808, docente
de la Universidad Politécnica Salesiana, declaro que bajo mi tutoría fue desarrollado el
trabajo de titulación: DESARROLLO DE UN SISTEMA DE IDENTIFICACIÓN DE
PERSONAS CON UN DRONE MEDIANTE EL USO DE REDES NEURONALES
ARTIFICIALES Y VISIÓN ARTIFICIAL, realizado por Bryan Miguel Pazmiño
Camacho con documento de identificación N° 0928642560, obteniendo como
resultado final el trabajo de titulación bajo la opción Proyecto técnico que cumple con
todos los requisitos determinador por la Universidad Politécnica Salesiana.

Quito, 10 de febrero del 2023

Atentamente,

--------------------------------------------------------
Ing. Carmen Johanna Celi Sánchez, Mgtr
1717437808

iii
DEDICATORIA

El presente proyecto está dedicado a mis padres; Marcos Pazmiño y Rosa Camacho
quienes con su apoyo, confianza y paciencia he podido cumplir un sueño más en mi
vida, los cual me inculcaron de valores para llegar a esta instancia de mi carrera
profesional.

iv
AGRADECIMIENTO

Al terminar este proyecto quiero expresar mi gratitud a Dios primeramente, por


cuidarme, guiarme y fortalecerme a lo largo de mi vida estudiantil, a mis padres por
ser aquellas personas que con su ejemplo de trabajo, honradez y sacrificio he podido
gozar de un estudio de primera en la Universidad, de igual manera a todos los docentes
quienes con su enseñanza y conocimiento hicieron que pueda crecer día a día como
profesional, de igual manera a mis compañeros de la carrera que gracias a su amistad
y confianza he apreciado sobre el trabajo en equipo y aplicarlo a mi vida laboral.

v
ÍNDICE GENERAL

CERTIFICADO DE RESPONSABILIDAD Y AUDITORIA DEL TRABAJO DE


TITULACIÓN....................................................................................................... i
CESIÓN DE DERECHOS DE AUTOR ............................................................... ii
DECLARATORIA DE COAUTORÍA DEL DOCENTE TUTOR ....................... iii
DEDICATORIA...................................................................................................iv
AGRADECIMIENTO ........................................................................................... v
ÍNDICE GENERAL .............................................................................................vi
ÍNDICE DE FIGURAS ..................................................................................... viii
ÍNDICE DE TABLAS ..........................................................................................ix
RESUMEN............................................................................................................ x
ABSTRACT .........................................................................................................xi
INTRODUCCIÓN .............................................................................................. xii
CAPÍTULO 1 ........................................................................................................ 1
ANTECEDENTES ................................................................................................ 1
1.1 Planteamiento del problema ............................................................. 1
1.2 Justificación ..................................................................................... 1
1.3 Objetivos ......................................................................................... 2
1.3.1 Objetivo General.............................................................................. 2
1.3.2 Objetivos Específicos ...................................................................... 2
1.4 Delimitación .................................................................................... 3
CAPÍTULO 2 ........................................................................................................ 4
MARCO CONCEPTUAL ..................................................................................... 4
2.1 Inteligencia artificial ........................................................................ 4
2.1.1 Machine Learning ............................................................................ 4
2.1.2 Deep Learning ................................................................................. 4
2.2 Redes neuronales artificiales ............................................................ 5
2.2.1 Red Neuronal Convolucional ........................................................... 6
2.3 Visión artificial ................................................................................ 7
2.3.1 Etapas de un Sistema de Visión Artificial ........................................ 7
2.4 Procesamiento Digital de Imágenes.................................................. 8
2.4.1 Imágenes digitales ........................................................................... 8

vi
2.5 Detección de Objetos ....................................................................... 9
2.5.1 Detección Facial .............................................................................. 9
2.5.2 Características Haar ....................................................................... 10
2.5.3 Composición de propiedades que forman características faciales
comparables ................................................................................................ 11
2.5.4 Criterios para el Reconocimiento Facial ......................................... 11
2.5.5 Detección de Bordes ...................................................................... 11
2.6 UAV’s ........................................................................................... 12
2.6.1 Drone Phantom 4 pro V2.0 ............................................................ 12
2.7 Python - OpenCV .......................................................................... 13
2.8 Escala de Grises ............................................................................. 14
2.9 Reconocimiento de una circunferencia ........................................... 14
CAPÍTULO 3 ...................................................................................................... 15
DISEÑO E IMPLEMENTACIÓN ....................................................................... 15
3.1 Desarrollo de la propuesta.............................................................. 15
3.1.1 Red neuronal ................................................................................. 15
3.1.2 Software ........................................................................................ 16
3.1.3 Descripción del Software ............................................................... 18
3.2 Estación ......................................................................................... 26
3.3 Resumen de costos ......................................................................... 26
CAPÍTULO 4 ...................................................................................................... 27
PRUEBAS Y RESULTADOS ............................................................................. 27
4.1 Puesta en marcha del sistema ......................................................... 27
4.2 Ensayos de la Red Neuronal Artificial CNN .................................. 27
4.3 Pruebas de funcionamiento ............................................................ 28
CONCLUSIONES ............................................................................................... 31
RECOMENDACIONES ...................................................................................... 32
REFERENCIAS BIBLIOGRÁFICAS ................................................................. 33
ANEXOS ............................................................................................................ 36

vii
ÍNDICE DE FIGURAS

Figura 2.1. Esquema de una red neuronal. ............................................................. 5


Figura 2.2. Red Neuronal Convolucional. ............................................................. 7
Figura 2.3. Etapas de un sistema de visión artificia en lazo abierto. ....................... 8
Figura 2.4. Bloque de adquisición y conversión de una muestra. ........................... 9
Figura 2.5. Detección de borde usando el gradiente. ............................................ 12
Figura 2.6. Drone Phantom 4 pro V2.0 ............................................................... 13
Figura 3.1. Diagrama de bloque del sistema. ....................................................... 15
Figura 3.2. Diagrama de secuencia. ..................................................................... 16
Figura 3.3. Arquitectura del sistema. ................................................................... 17
Figura 3.4. Persona a la cual se necesita identificar. ............................................ 18
Figura 3.5. Diagrama de flujo del sistema ........................................................... 19
Figura 3.6. Diagrama de flujo; Reconcomiendo de rostro positivo ...................... 20
Figura 3.7. Diagrama de flujo; Reconcomiendo de rostros negativos .................. 21
Figura 3.8. Diagrama de flujo; Creación y proceso de aprendizaje de la CNN ..... 22
Figura 3.9. Gráfica de Perdida de la Red Neuronal .............................................. 23
Figura 3.10. Gráfica de Precisión de la Red Neuronal ......................................... 24
Figura 3.11. Diagrama de flujo; Funcionamiento del modelo CNN ..................... 25
Figura 4.1. Reconocimiento facial del sujeto de la base de datos. ........................ 30

viii
ÍNDICE DE TABLAS

Tabla 2.1. Características del drone seleccionado. ............................................... 12


Tabla 2.2. Características CrystalSky .................................................................. 13
Tabla 3.1. Laptop Lenovo Características ........................................................... 26
Tabla 3.2. Presupuesto final de proyecto ............................................................. 26
Tabla 4.1. Ensayos. ............................................................................................. 27
Tabla 4.2. Pruebas del sistema. ........................................................................... 29

ix
RESUMEN

El uso de sistemas de reconocimiento facial representa un importante avance en el área


de la visión artificial, este campo tecnológico evoluciona día a día por lo que
frecuentemente se exhiben diferentes aplicaciones en base a esta tecnología que se
puede aplicar en diversos sectores para brindar seguridad y control.

El presente trabajo desarrolla un sistema de identificación de personas con un drone a


través del uso de redes artificiales y visión artificial el cual utiliza el lenguaje de
programación Python, en base a TensorFlow y Keras para la creación de le red
neuronal artificial y HaarCascade como método de detección de rostros cuyo código
es albergado en una Laptop Lenovo que se conectara con el UAV. Lo que permitirá la
adquisición, el pre procesamiento de imágenes, la comparación y procesamiento
digital de las muestras para el aprendizaje de la red neuronal y de esta forma la
identificación de las personas buscadas.

Este tipo de sistema posee un enfoque educativo y demostrativo para los nuevos
estudiantes que cursen las materias de sistemas inteligentes e inteligencia artificial de
la Universidad Politécnica Salesiana, Quito-Campus Sur. La finalidad de este trabajo
se enfoca en el ámbito de seguridad y control de las personas dentro del área
universitaria.

Mediante la implementación del sistema tanto la red neuronal como la visión artificial,
se comprobó su efectividad en un entorno controlado dando como un resultado una
efectividad del 80% en la detección del rostro de la persona a identificar.

x
ABSTRACT

The use of facial recognition systems represents an important advance in the area
of artificial vision, this technological field evolves day by day, which is why
different applications are frequently exhibited based on this technology that can be
applied in various sectors to provide security and control.

The present work develops a system of identification of people with a drone


through the use of artificial networks and artificial vision which uses the Python
programming language, based on TensorFlow and Keras for the creation of the
artificial neural network and HaarCascade as a method. face detection whose code
is stored in a Lenovo Laptop that will be connected to the UAV. What will allow
the acquisition, the pre-processing of images, the comparison and digital
processing of the samples for the learning of the neural network and in this way
the identification of the wanted persons.

This type of system has an educational and demonstrative approach for new
students who study the subjects of intelligent systems and artificial intelligence at
the Salesian Polytechnic University, Quito-South Campus. The purpose of this
work focuses on the field of security and control of people within the university
area.

Through the implementation of the system, both the neural network and the
artificial vision, its effectiveness was verified in a controlled environment,
resulting in an effectiveness of 80% in the detection of the face of the person to be
identified.

xi
INTRODUCCIÓN

Los procesos de visión artificial son herramientas de autentificación muy modernas


que existe en el mundo, siendo así el reconocimiento facial un instrumento muy
confiable al momento de utilizarlo.

El presente proyecto pretende desarrollar un sistema de identificación de personas en


ambientes controlados (luminosidad y distancia entre la persona y el drone) en el cual
se usará un drone que será el encargado de enfocar a las personas que se encuentran
estáticas con el fin de enviar la información necesaria a la estación (laptop), de esta
manera combinar técnicas de extracción de características faciales donde estos datos
serán ingresados a la red neuronal artificial para su respectivo aprendizaje y posterior
identificación el rostro de la persona.

El reconocimiento facial permite identificar mediante la comparación de rasgos (ojos,


nariz, boca) como características geométricas y la variación de patrones de las mismas
(Ibarra & Paredes, 2018). El desarrollo de una red neuronal convolucional es diseñado
para trabajar como la corteza visual del cerebro humano donde se puede seccionar las
imágenes obtenidas como un conjunto de matrices bidimensionales (Méndez Gómez,
2019) por lo que es necesario extraer los datos necesarios mediante algoritmos
específicos dentro del análisis al momento de crear cualquier tipo de red artificial.
(Jiménez Silva, 2018)

Para el desarrollo de este proyecto se ha dividido el documento como se detalla a


continuación:

El primer capítulo, describe los antecedentes del proyecto técnico, donde se detalla el
problema de estudio, la justificación y objetivos.

El segundo capítulo, detalla el marco de referencia, la información recolectada para el


desarrollo del sistema de reconocimiento facial.

El tercer capítulo, describe el diseño e implementación del sistema de reconocimiento

xii
facial para la identificación de personas con un drone mediante redes neuronales
artificiales.

En el cuarto capítulo se detallan las pruebas y resultados obtenidos del sistema de


reconocimiento facial.

Por último, se presentan las conclusiones obtenidas al realizar la interacción con la


aplicación así mismo las recomendaciones y trabajos futuros.

xiii
CAPÍTULO 1
ANTECEDENTES

1.1 Planteamiento del problema

Actualmente la inteligencia artificial (IA) con la revolución de la ciencia y la


tecnología tiene un impacto profundo que promueve la modernización (Serrano
Fuentes, 2020) en los diferentes campos de trabajo donde el ser humano busca mejorar
la eficiencia de sus productos para aumentar la productividad. En la Industria 4.0
requieren de tecnologías capaces de detectar objetos estáticos o en movimiento y
analizar el entorno para mejorar la ejecución de tareas. (Palacios, 2022)

En Ecuador existe una gran demanda de casos de personas reportadas como


desaparecidas, solo en los últimos 5 años existe un aumento alarmante con un
promedio de 9277 casos cada año. Donde el sistema de búsqueda policial establece un
periodo de aceptación de casos entre 48 a 72 horas después de lo sucedido según los
informes de los familiares de las personas desaparecidas ya sea por secuestro, trata de
personas, tráfico de personas, asesinatos, la respuesta debe ser inmediata por parte de
la agencia policial. (DINASED-DINAPEN., 2019)

Hoy en día, los sistemas de reconocimiento facial son una parte fundamental en el
desarrollo de la seguridad y control de un país debido a sus grandes aplicaciones de
uso, sin embargo, este tipo de tecnología al ser desarrollada a mayor escala en otros
países del primer mundo implica altos costos al momento de implementarla en el país,
por ende, se pretende desarrollar un sistema de bajo costo utilizando tecnología de
hardware y software libre para obtener mayor accesibilidad para estudiantes.

1.2 Justificación

La inteligencia artificial ha tenido un auge en estos últimos años debido a la variedad


de campos de investigación como son los sistemas de reconocimiento facial que están
integrados en las cámaras de vigilancia dentro de las zonas más concurridas de las
1
principales ciudades del mundo pudiendo estas identificar a personas en tiempo real,
sin embargo, en el Ecuador no existe este tipo de tecnología a gran escala debido a
razones de costos, políticas entre otras. (Llanes, 2015)

Por lo que, es importante crear sistemas de reconocimiento facial con el fin de


controlar, ayudar y fortalecer la seguridad, tomando en cuenta que se puede desarrollar
con tecnología que se encuentra y se adquiere dentro del país, abriendo así nuevos
nichos de mercados en el área de la investigación y desarrollo de procesos de
vanguardia que permite al ecuatoriano crecer como profesional aplicando tecnologías
hechas en el país.

La investigación de (Cajas Idrovo & Viri Ávila, 2017) (Sánchez, 2012) muestra los
desarrollos de inteligencia artificial con el fin de mejorar el proceso frente a situaciones
de inseguridad y falta de control dentro de un área establecida dando solución al
problema con un sistema basado en Inteligencia Artificial.

1.3 Objetivos

1.3.1 Objetivo General

Diseñar un sistema de reconocimiento facial para la identificación de personas con un


drone mediante redes neuronales artificiales.

1.3.2 Objetivos Específicos


- Investigar el estado del arte para la selección de un UAV’s acorde al propósito y
necesidades del proyecto, mediante el cumplimiento de las características de
diseño.

- Analizar los algoritmos de extracción de características específicas del rostro


mediante la visión artificial para la correcta selección en el proceso.

- Desarrollar algoritmos neuronales en la estación remota para el reconocimiento de


rostros mediante aprendizaje supervisado.

2
- Realizar el análisis del sistema de identificación mediante pruebas experimentales
en ambientes controlados de laboratorio para la validación del funcionamiento.

1.4 Delimitación

El sistema está enfocado en el reconocimiento de personas en un ambiente controlado,


la cual tienes la siguiente característica:

- El drone estará volando a 2 metros enfocando el rostro de la persona en


movimiento o estático con una iluminación óptima para el procesamiento.

El prototipo no está diseñado para funcionar en entornos con climas lluvioso o con
poca iluminación, por lo que no se recomienda usar en ese tipo de escenarios.

3
CAPÍTULO 2
MARCO CONCEPTUAL

Este capítulo presenta información fundamental que permite la comprensión y


desarrollo del proyecto, además presenta fundamentación teórica sobre temas
relacionados.

2.1 Inteligencia artificial

En 1956 John McCarthy, un celebre informático y destacado experto en el campo de


las Ciencias de la Computación, definió la inteligencia artificial como la ciencia de
crear máquinas inteligentes, especialmente programas informáticos inteligentes. La
inteligencia artificial se encuentra en desarrollo y evolución constante, y cada vez se
brindan más capitales a ello, debido a que hoy en día su uso tiene aplicación casi en
cualquier campo. (Ahonen, 2004)

En el área de la inteligencia artificial se debe enfatizar que existen varias ramas, como
el aprendizaje automático, las redes neuronales, el aprendizaje profundo, y la visión
artificial.

2.1.1 Machine Learning

El aprendizaje automático es una rama de la inteligencia artificial donde el software


puede aprender de una base de datos, para así tomar una decisión correcta sin la
intervención del humano, todo esto se logra programando algoritmos y funciones
matemáticas.

Existen 3 tipos de machine learning: el aprendizaje supervisado, el aprendizaje no


supervisado y el aprendizaje por refuerzo. (Dalal, 2005)

2.1.2 Deep Learning

El deep learning o aprendizaje profundo se compone de estructuras lógicas que se


asemejan al sistema cognitivo del ser humano, con diferentes unidades de proceso,
cada una de ellas formada por un algoritmo de machine learning. Estas capas forman

4
una red neuronal artificial donde sus nodos interactúan y se conectan entre sí, los datos
ingresan por la capa de entrada, se procesan en las capas profundas y finalmente se
logra el resultado, como se muestra en el diagrama de la Figura 2.1. En los niveles
profundos, hay un proceso de extracción de características que utilizan un método para
examinar los datos que pasan entre cada nodo o neurona. Entrenar una red neuronal
consiste en ajustar consideraciones de cada uno de los nodos para dar como resultado
un ajuste máximo a los datos conocidos. (Mari, 2020)

Figura 2.1. Esquema de una red neuronal.


Fuente: (UC Business Analytics R Programming Guide)

2.2 Redes neuronales artificiales

Las Redes Neuronales Artificiales son sistemas de procesamiento de la información


donde su estructura y funcionamiento se basan en redes neuronales biológicas, por lo
que son una agrupación de nodos o neuronas conectadas entre sí por un valor numérico
denominado peso. (Rumelhart, 1986). Estos son modelos que han surgido como un
experimento para formalizar la estructura del cerebro humano. Una red neuronal trata
de entender del cerebro humano a través de la práctica y la extracción de conocimiento
partir de un conjunto de datos que igualan la estructura del sistema nervioso. (Lopez,
2008).

5
Es un ejemplo de procesamiento de información que está infundido en el sistema
nervioso biológico, está compuesto por una capa de entrada, oculta y de salida, según
lo que se desee diseñar esta puede ser manipulada para lograr el objetivo planteado.
(Kausar, 2016)

Las redes neuronales artificiales (RNA) son una rama con mayor representatividad en
el ámbito científico de la Inteligencia Artificial, el cual pretende imitar el
comportamiento del cerebro humano; donde el aprendizaje es caracterizado a través
de la práctica y la extracción de información del entorno, comparándose con el
esquema de la estructura neuronal del cerebro. (Alain, 2018)

2.2.1 Red Neuronal Convolucional

El origen de las redes neuronales convolucionales radica en que son similares a la


corteza visual primaria del cerebro biológico. En un cerebro biológico, hay
neuronas que se especializan en detectar patrones simples e identificar objetos en
campos receptivos. (Morocho, 2019)

En el campo de las redes neuronales artificiales, como Deep Learning o


aprendizaje profundo, existe las denominadas convolutional neural network
(CNN, por su sigla en inglés), que están diseñadas para reconocer y clasificar
imágenes. (Matínez, 2018)

Una red neuronal convolucional consta de una capa de entrada, capas


convolucionales y múltiples capas, como una red perceptrón multicapa. Donde las
capas convolucionales se encargan de crear mapas de características mediante el
uso de filtros o kernel, se utiliza una capa oculta de tipo Max-Pooling, que se
encarga de reducir las dimensiones de ancho y alto para la siguiente capa
convolucional, cada capa convolucional usa la función de activación ReLu y en la
capa de salida se obtiene el resultado del análisis, usando la función de activación
de Softmax podemos determinar la probabilidad de que una salida sea un rostro

6
conocido, y la otra salida un rostro desconocido. En la siguiente Figura 2.2. se
observará la estructura básica de una red neuronal convolucional

Figura 2.2. Red Neuronal Convolucional.


Fuente: (KeepCoding, 2022)

2.3 Visión artificial

La visión artificial tiene como objetivo la adquisición de información del mundo físico
a partir de imágenes, para luego ser procesadas por algún tipo de CPU, por lo que se
puede decir que actúa sobre una realidad que le provee información sobre formas,
colores, etc. (L Larcher, 2011), Se trata de una tecnología que combina las
computadoras con las cámaras de video para obtener, estudiar e interpretar imágenes
de una forma semejante a la intervención visual humana. (Herrero, 2005)

Actualmente, una de las principales funciones para las que se utiliza es el


reconocimiento y análisis de objetos en imágenes y videos, pero también tiene
aplicación en campos como la industria, la medicina o la conducción autónoma. (G.E.,
2012)

2.3.1 Etapas de un Sistema de Visión Artificial

• Etapa 1, sensorial, consiste en la captura o adquisición de imágenes digitales


mediante el sensor.

• Etapa 2, el procesamiento de imágenes digitales, en donde, el uso de filtros y

7
transformaciones geométricas, se excluirán partes de la imagen que no son necesarias.

• Etapa 3, segmentación, aísla lo que interesa de una escena para comprender.

• Etapa 4, etapa de reconocimiento, se distingue lo segmentado, por medio del análisis


de las características, ver Figura 2.3.

Figura 2.3. Etapas de un sistema de visión artificia en lazo abierto.


Fuente: (L Larcher, 2011)

2.4 Procesamiento Digital de Imágenes

El procesamiento digital de imágenes es un conjunto de técnicas que se aplican sobre


la representación digital de una imagen, con el fin de recalcar elementos de la escena,
para facilitar su análisis, ya sea por parte del humano o un sistema de visión artificial.
Las técnicas de procesamiento de imágenes se aplican cuando es necesario modificar
una imagen para destacar cierto aspecto de la información contenida, para mejorar su
apariencia, o cuando se requiere contrastar, medir o clasificar. (Bellera., 1997)

2.4.1 Imágenes digitales

Una imagen que se presenta en escala grises se define como una función bidimensional
F(x,y), donde F es un par ordenado definido que representa el nivel de gris; x, y son
coordenadas espaciales. (Woods., 2002)

La captación de imágenes digitales se da por medio de un muestreo en un intervalo de


tiempo. La imagen se trata como una cuadrícula y los pixeles son parte de la cuadricula,
mediante el uso de una cámara se puede tomar una muestra y luego convertir una señal
analógica a digital mediante módulos digitalizadores, estos valores se almacenan en la
memoria para su análisis, recolección y procesamiento. Por último, se debe convertir

8
la señal digital en una señal analógica para visualizar la imagen procesada en un
monitor de TV, ver Figura 2.4. (Politécnico, 2017)

Figura 2.4. Bloque de adquisición y conversión de una muestra.


Fuente: (Politécnico, 2017)

2.5 Detección de Objetos

La detección de objetos es una tarea frecuente en visión artificial, se da al realizar


diferencias de imágenes continuas, el ruido de las imágenes puede dar diferencias
donde no hay movimiento, a su vez si el obstáculo en movimiento se traslada muy
lento en correlación a la frecuencia con que se identifican las imágenes, la diferencia
resultante puede ser muy pequeña que no manifieste el movimiento. Una opción para
evitar este inconveniente es comparar las imágenes mediante un proceso por regiones,
también se lo hace mediante la detección de bordes que es más firme ante los cambios
de iluminación, el flujo óptico es un método de apreciación de movimiento que puede
ser realizado por técnicas de gradiente, correlación o filtros sensibles a la velocidad;
también se utiliza el método de comparar cada imagen con una de referencia que posea
sólo la parte estática de la escena. (Garcia, 2002)

2.5.1 Detección Facial

La detección facial no es más que encontrar las áreas dentro de una imagen o video
que contienen rostros, es decir elimina todo lo que sea fondo, y obtiene la ubicación y
tamaño exacto de la cara, este proceso se divide en dos: detección y reconocimiento.
(Jones, 2004)

9
El procedimiento del método de detección de rostros se basa en el algoritmo propuesto
por Viola Jones, el cual consiste en un procesamiento en tiempo real para la detección
de rostros, aplicando algoritmos AdaBoost para clasificar las características
rectangulares en etapas de "cascada". Su concepto primitivo permite que la imagen de
fondo se descarte rápidamente. Para ello el algoritmo de Viola-Jones se utiliza para
detectar la cara interior del rectángulo en la imagen. Luego, las características
complejas de la cara de la región del rectángulo se analizan mediante análisis
discriminante y las características de la cara compuesta se ingresan en el clasificador
para el reconocimiento facial. (Kartika, 2018)

Los pasos principales del algoritmo Viola-Jones son los siguientes:

• Detección de imágenes faciales mediante funciones de Haar.

• La velocidad de cálculo de las características de Haar se mejora a


través del gráfico integral.

• Entrenar el conjunto de datos faciales a través del clasificador


AdaBoost en cascada

• El clasificador de detección entrenado se utiliza para la detección


final de la imagen facial.

2.5.2 Características Haar

Los rostros humanos tienen algunas propiedades similares pueden adaptarse mediante
características Haar. Al hablar de propiedades comunes de la cara se tienen que: la
región del ojo es más oscura que las mejillas superiores, así también la región del
puente nasal es más brillante que los ojos (Andreea, 2016)

10
2.5.3 Composición de propiedades que forman características faciales
comparables

Las composiciones de las características faciales son: localización y tamaño de cejas,


ojos, boca, puente de la nariz así también el valor de gradientes orientados de
intensidades de píxeles (Andreea, 2016).

2.5.4 Criterios para el Reconocimiento Facial

El operador Patrones Binarios Locales (LBP) se usa para describir regiones locales del
rostro que después son agrupadas para formar una descripción global. (Ríos., 2013).
En la configuración del operador Patrones Binarios Locales hay 255 patrones, 58 son
uniformes y 197 de ellos no son patrones uniformes, lo que simboliza una disminución
del histograma del 76.86% por cuadro. Con estos parámetros este método (LBP)
calcula un histograma de 59 posiciones, en cada una de las 49 regiones divididas,
después se procede a realizar un histograma para cada una de las 49 regiones en las
que se ha dividido el rostro. (Corrales., 2013).

Al hacer el reconocimiento facial se emplea el vector guardado previamente para


calcular el umbral igual entre el rostro a reconocer y el de la base de datos, si el umbral
es el más bajo será el que identifique el rostro. (Corrales., 2013)

2.5.5 Detección de Bordes

Para la detección de bordes por medio del cálculo de la gradiente de la intensidad de


la imagen, se debe obtener dos imágenes: la primera imagen por medio de la derivada
de la dirección vertical y la siguiente imagen usando la segunda derivada de la
dirección vertical, con estos valores se encuentra la dirección de cada uno de los
píxeles y el gradiente de borde. (OpenCV., 2014). En la Figura 2.5 se puede observar
la detección de borde usando el gradiente. Las herramientas que se usan para obtener
la detección de bordes son algunas y estas se basan en el funcionamiento en algoritmos
matemáticos. (OpenCV., 2014)

11
Figura 2.5. Detección de borde usando el gradiente.
Fuente: (OpenCV., 2014)

2.6 UAV’s

Se denomina vehículo aéreo no tripulado el cual fue desarrollado para aplicaciones


militares como evaluación del campo de batalla y reconocimiento de bases aéreas.
Luego, su uso se está expandiendo rápidamente a aplicaciones comerciales, científicas,
agrícolas y otras. (Song, 2019)

2.6.1 Drone Phantom 4 pro V2.0

Es un vehículo aéreo no tripulado, ver Figura 2.6, el cual posee distintas características
que se muestran en la siguiente Tabla 2.1.

Tabla 2.1. Características del drone seleccionado.

Característica Valor

Marca Dji
Peso 1388 gramos
Campo de visión 60 a 70°
Capacidad de vuelo 5870 mAh
Autonomía de vuelo 30 minutos aprox.
Altitud de vuelo 120m
Cámara 4K /60fps
Temperatura máxima de 40°
funcionamiento
Distancia de control 7 km sin obstrucciones
Tabla de características del drone seleccionado para el sistema.
Fuente: (Pro, 2022)

12
Figura 2.6. Drone Phantom 4 pro V2.0
Fuente: (Pro, 2022)

Dentro de la línea de drones del tipo Phantom, la marca DJI ha creado una pantalla
denominada CrystalSky el cual es una herramienta versátil al momento de la
captura de imágenes que el drone visualiza, en la siguiente tabla podemos observar
algunas de sus características, ver Tabla 2.2.

Tabla 2.2. Características CrystalSky


Característica Valor

Marca Dji
tamaño 5,5 pulgadas
Tipo de memoria MicroSD
Resolución 1920 x 1080
Tipo salida HDMI 4K
Conectividad Wifi: 2.4G, 5.2G y 5.8G
Cámara 4K /60fps
Aplicación DJI Go, DJI Go 4
Sistema Androide

Tabla de características de la pantalla CrystalSky.


Fuente: (DJI, 2022)

2.7 Python - OpenCV

Open Source Computer Vision Library es una herramienta que se usa en aplicaciones
de visión artificial, es librería de código libre, usada por empresas y personas naturales.
(OpenCV, 2018)

13
OpenCV tiene sus diferentes aplicaciones tales como generación de algoritmos para
reconocimiento de objetos, creación de ambientes virtuales mediante la colección de
imágenes, rastrear objetos que estén en movimiento, reconocimiento facial,
aplicaciones para realidad aumentada, entre otros. (OpenCV, 2018)

OpenCV es una librería de código abierto en temas de visión artificial y machine


learning por lo que es compatible con algunos sistemas operativos como MacOS,
Windows y Android. (OpenCV, 2018)

2.8 Escala de Grises

Al tener una muestra es decir una imagen dada por una cámara, esta debe pasar por un
proceso de filtrado para mejorar la calidad de la muestra es decir obtener un resultado
propicio. Para suavizar una imagen es necesario convertir la imagen original en escala
de grises para así trabajar con esta última. (OpenCV., 2014)

2.9 Reconocimiento de una circunferencia

Para el reconocimiento de la circunferencia se necesita el algoritmo de la


Transformada Hough Circle, el cual requiere tres parámetros: centro de la
circunferencia en el eje de las ordenadas, centro de la circunferencia en el eje de
coordenadas de las abscisas y el radio del círculo, la cual nos permite aislar
características dentro de la circunferencia al momento de identificar un rostro dentro
de una imagen, (OpenCV., 2014)

14
CAPÍTULO 3
DISEÑO E IMPLEMENTACIÓN

En el presente capítulo se describe el proceso para el desarrollo del proyecto, se detalla


el proceso para la identificación de personas con un drone mediante el uso de redes
neuronales artificiales y visión artificial.

3.1 Desarrollo de la propuesta

Mediante el siguiente diagrama de bloques mostrado en la Figura 3.1 se observa el


proceso que se llevó a cabo para el desarrollo del sistema de identificación de personas
con un drone utilizando redes neuronales artificiales y visión artificial.

Figura 3.1. Diagrama de bloque del sistema.


Figura elaborada por: Bryan Miguel Pazmiño Camacho.

Para realizar el sistema, se debe realizar el siguiente proceso:

3.1.1 Red neuronal

Para el proceso de aprendizaje de la red neuronal a continuación, se muestra el


diagrama de secuencia utilizado para entrenar a la neurona de la siguiente manera
como se visualiza en la siguiente Figura 3.2.

15
Figura 3.2. Diagrama de secuencia.
Figura elaborada por: Bryan Miguel Pazmiño Camacho.

3.1.2 Software

• Python con ANACONDA


Se dirige a la extensión https://www.anaconda.com/products/individual lo cual
permite la descarga de Python. Anaconda es un software, que nos permite instalar
y administrar paquetes en lenguaje de programación Python, posterior trabajar con
Jupyter Notebook, el cual es una interfaz web de código abierto que permite la
inclusión de texto, video e imágenes mediante la ejecución del lenguaje de
programación que requiera, que para este sistema se basara en Python.

Para el desarrollo de la red neuronal artificial se requiere la utilización de las


siguientes bibliotecas; TensorFlow que permite crear tareas de aprendizaje, y
Keras orientada para la creación de redes neuronales, de igual manera la utilización
de las siguientes librerías.

16
Librerías de Python usadas:

• Opencv: Es una librería de código abierto creada por Intel, que dispone de
una cantidad importante de librerías para el desarrollo de programación
orientada a la visión artificial.

• HaarCascade: Permite seccionar el rostro de una imagen o video.

• Numpy: Permite realizar operaciones entre matrices o vectores.

• Matplotlib: Reconoce gráficas en dos dimensiones mediante coordenadas.

• Os: Permite realizar funciones de sistema como lectura de archivos


creación de carpetas, renombrar, borrar.

• Imutils: Admite realizar procesos de imagen como rotación, traslación

A continuación, se mostrará la arquitectura del sistema que está basado el proyecto,


ver Figura 3.3.

Figura 3.3. Arquitectura del sistema.


Figura elaborada por: Bryan Miguel Pazmiño Camacho.

17
3.1.3 Descripción del Software

El objetivo es crear un sistema de redes neuronales con la capacidad de leer una base
de datos de imágenes de 150 x 150 pixeles de rostros de personas para verificar si esta
se encuentra o no en el video captado por un dron para ello es necesario organizar paso
a paso como va a trabajar el programa, todo basado en Python, Opencv, TensorFlow y
Keras:

- Obtener muestras del rostro de la persona a la cual se va a reconocer como se


visualiza en la Figura 3.4.

Figura 3.4. Persona a la cual se necesita identificar.


Figura elaborada por: Bryan Miguel Pazmiño Camacho.

- Usando el algoritmo Haar Cascade para obtener únicamente los rostros de cada
fotograma captado por el dron.

- El código antes mencionado almacena en una carpeta, con el nombre de cada


persona, 150 muestras para el proceso de aprendizaje de la red neuronal.

- De igual manera como se usó rostros de una persona a la que se necesita


identificar, se debe incluir en una carpeta de imágenes de personas que no se
necesita reconocer. Es importante tener una base de imágenes de personas que no
se desea reconocer mayor al número de imágenes de la persona que se necesita
reconocer con el fin de perfeccionar el aprendizaje de la red neuronal.

- Una vez más se usa el algoritmo Haar Cascade para segmentar los rostros de
18
las personas que aparezcan en estas imágenes, esto con el fin de orientar a la red
neuronal a identificar lo que es un rostro desconocido.

- Se tienen 2 objetivos a identificar: positivos (todo rostro que se requiera


identificar) y negativos (todo rostro que no tenga una identificación en la base de
datos).
- Por último, se configuran parámetros de aprendizaje para que la red neuronal
reconozca diferentes tipos de rostros según rasgos faciales. Esto se observar en el
siguiente diagrama de flujo de manera sintetizada, ver Figura 3.5

Figura 3.5. Diagrama de flujo del sistema


Figura elaborada por: Bryan Miguel Pazmiño Camacho.

19
A continuación, se detalla el proceso de manera técnica mediante diagramas de flujos
de los 4 procesos necesarios para el funcionamiento del sistema.

-Reconocimiento del rostro de la persona a reconocer.

Figura 3.6. Diagrama de flujo; Reconcomiendo de rostro positivo


Figura elaborada por: Bryan Miguel Pazmiño Camacho.

Como se puede observar en la Figura 3.6, el primer proceso es la identificación del


rostro de la persona a identificar, por medio de la visión artificial segmentamos el área
del rostro en un formato de 150x150 pixeles, con un total de 150 muestras que serán
almacenas en una carpeta denomina “Bryan”.

20
-Reconocimiento de los rostros que no se quieren reconocer.

Figura 3.7. Diagrama de flujo; Reconcomiendo de rostros negativos


Figura elaborada por: Bryan Miguel Pazmiño Camacho.

Como se puede observar en la Figura 3.7, el segundo proceso es la identificación de


los rostros de personas desconocidas las cuales se escogieron de manera aleatoria, esto
con el fin de enseñar a la red neuronal artificial lo que es un rostro desconocido, que
por medio de la visión artificial segmentamos el área del rostro en un formato de
150x150 pixeles, con un total de 200 muestras que serán almacenas en una carpeta
denomina “Otros”.

21
-Entrenamiento de la Red Neuronal Artificial CNN

Figura 3.8. Diagrama de flujo; Creación y proceso de aprendizaje de la CNN


Figura elaborada por: Bryan Miguel Pazmiño Camacho.

Como se puede observar en la Figura 3.8, el tercer proceso conlleva la creación y el


entrenamiento de la CNN, para ello, mediante la librería Keras, se crea el vector de los
elementos positivos y negativos mediante un acumulador cuyo vector [150, 150, 3] se
reduce su dimensión debido al tiempo de aprendizaje que tiende la red neuronal a crear
los modelos CNN.

Luego se configura las capas de la red convolucional, la cual consta de 3 capas ocultas
de 200, 100 y 50 neuronas, donde se delimita el valor de corte de asociación entre
pesos de borde, con una capa densa de 50 neuronas con una probabilidad máxima en
salida de 2 vías.

Mediante TensorFlow se crea tareas de aprendizaje, que para este caso se ingresó la
cantidad de 20 iteraciones. A medida que se evalúa cada iteración de aprendizaje, la
red tiene la capacidad de mejorar la precisión para alcanzar una detección más eficiente
al momento de detectar un rostro. La eficacia de la red se fundamenta en la cantidad y

22
la calidad de las muestras almacenadas, de esta forma se garantiza que las iteraciones
convergan en un resultado más favorable para el aprendizaje, cuyo resultado final nos
proporcionó modelos CNN que podemos ejecutar para poder identificar los rostros de
las personas y si encuentra un rostro con la base de datos podrá identificar.

Dentro del proceso del aprendizaje de la red neuronal podemos graficar los datos
obtenidos de los modelos CNN para observar tanto la gráfica de perdida, así como
también la precisión de la red.

Figura 3.9. Gráfica de Perdida de la Red Neuronal


Figura elaborada por: Bryan Miguel Pazmiño Camacho

En el caso de la Figura 3.9, podemos observar que la perdida de la red neuronal, se


reduce al momento que el número de épocas aumenta, es decir que al momento que
exista una comparación entre un rostro n con respecto al rostro de la base de datos, la
red neuronal podrá identificarla, esto se visualiza en la curva del training loss y test
loss.

23
Figura 3.10. Gráfica de Precisión de la Red Neuronal
Figura elaborada por: Bryan Miguel Pazmiño Camacho

De igual manera en la Figura 3.10, podemos observar que la precisión que tiene la red
aumenta proporcionalmente al incremento del número de épocas, debido a que la red
tiene una perdida menor, la precisión tiende a mejorar por lo que el reconocimiento de
las personas que visualiza el drone será rápida y eficaz, esto se visualiza en la curva
del training accuracy y test accuracy.

24
-Funcionamiento del modelo CNN

Figura 3.11. Diagrama de flujo; Funcionamiento del modelo CNN


Figura elaborada por: Bryan Miguel Pazmiño Camacho.

Como se puede observar en la Figura 3.11, el último proceso es el funcionamiento de


la red neuronal artificial, donde podemos verificar que los modelos CNN al momento
de ser llamados pueda identificar los rostros que el drone pueda visualizar y poder
identificar el rostro de la persona que está en la base de datos.

25
3.2 Estación

Todo el desarrollo del código para el sistema fue realizado en Python donde se implementó y
se ejecutó dentro de un laptop personal, el cual tiene las siguientes características básicas y
necesarias para el funcionamiento del proyecto, ver Tabla 3.1.

Tabla 3.1. Laptop Lenovo Características


Sistema Windows 10 home
Tipo de sistema Sistema operativo 64 bits, procesador
Sistema x64
Procesador Inter(R) Core i5-825U CPU @ 1.60Hz (8
CPUs), ~1.8GHz
Memoria (RAM) 12288MB ≈ 12,0GB
Tarjeta Intel(R) UHD Graphics Family
Tipo de DAC Internal
Pantalla Memoria total 6226 MB
Memoria de pantalla (VRAM) 128 MB
Memoria compartida 6098 MB
Modo 1366 x 768 (32bit) (60Hz)
Tabla elaborada por: Bryan Miguel Pazmiño Camacho

3.3 Resumen de costos

En la siguiente Tabla 3.1, se puede observar el valor total del proyecto realizado, así
como también una descripción de los elementos usados con sus respectivos precios.

Tabla 3.2. Presupuesto final de proyecto


Tipo Descripción Cantidad P. Unitario P. Final
Materiales Lapto Lenovo 1 $600.00 $600.00
Adaptador HDMI/USB 1 $20.00 $20.00
Cable HDMI 1 $5.00 $5.00
Pantalla DJI CrysalSky 1 $300.00 $300.00
Drone DJI Phantom 4 1 $3,500.00 $3,500.00
pro V2.0
Gastos Horas de ingeniería 300 $2.50 $750.00
varios
Valor Total del Hardware $4425.00
Valor Total del Software $750.00
Valor Total $5175.00
Tabla de costo del proyecto aproximadamente, elaborado por: Bryan Miguel
Pazmiño Camacho

26
CAPÍTULO 4
PRUEBAS Y RESULTADOS

Este capítulo detalla los resultados de los ensayos de rendimiento del sistema de
identificación de personas con un dron utilizando una red neuronal convolucional y
visión artificial, para poder verificar el correcto funcionamiento.

4.1 Puesta en marcha del sistema

El procedimiento para la puesta en marcha del sistema.

a. Sobrevuela el dron, el cual será controlado a distancia.


b. Fotografía el rostro de la persona cada segundo.
c. Envía las fotografías a la red neuronal CNN para el análisis.
d. Verificación en el banco de datos.
e. Identifica el rostro del individuo.

4.2 Ensayos de la Red Neuronal Artificial CNN

Para el proceso de aprendizaje de la red neuronal se tomaron 150 muestras, pero para
llegar a ese valor se realizaron varios ensayos con valores inferiores y superiores del
rostro de la persona a identificar y así obtener un número razonable de muestras que
permitan reconocer a la persona de forma correcta.

Para ello se probó el código sin la necesidad de la intervención del drone y mediante
videos se demostró la eficiencia de la red neuronal artificial CNN.

Tabla 4.1. Ensayos.


Muestras Rasgos faciales
10 55%
20 60%
30 65%
40 70%
50 70%
60 75%
70 78%
80 79%
90 79%

27
100 86%
110 86%
120 86%
130 87%
140 88%
150 90%
160 90%
170 90%
180 90%
190 90%
200 90%

Tabla elaborada por: Bryan Miguel Pazmiño.

Como podemos observar en la Tabla 4.1, las muestras representan el número de


fotográficas del sujeto que se requiere reconocer, y el porcentaje es lo que representa
la comparación de los rasgos faciales de rostros positivos y negativos, esto se obtiene
mediante código realizado anteriormente, de igual manera al tener un número de
muestras igual o superiores a 150 el porcentaje de efectividad es de 90%, tomando en
cuenta que al ingresar un número de muestras inferior el porcentaje de efectividad
tiende a bajar.

4.3 Pruebas de funcionamiento

Los experimentos se realizaron evaluando parámetros como la distancia entre el dron


y las personas, como también el ambiente en el que este se pueda desarrollar. Tomando
en cuenta que el ambiente desarrollado es dentro un día común.

En la Tabla 4.2 se observará el resultado de las pruebas del sistema bajo parámetros
en un ambiente controlado, con una distancia entre el dron y las personas de 2 a 4
metros, para ello se tomó un día al azar y se evaluó el sistema cada 30 minutos durante
el día, esto con el fin de observar el compartimiento del sistema bajo una variación de
iluminación del entorno.

28
Tabla 4.2. Pruebas del sistema.

Prueba N° Hora del día Detección


1 5:00 NO
2 5:30 NO
3 6:00 SI
4 6:30 SI
5 7:00 SI
6 7:30 SI
7 8:00 SI
8 8:30 SI
9 9:00 SI
10 9:30 SI
11 10:00 SI
12 10:30 SI
13 11:00 SI
14 11:30 SI
15 12:00 SI
16 12:30 SI
17 13:00 SI
18 13:30 SI
19 14:00 SI
20 14:30 SI
21 15:00 SI
22 15:30 SI
23 16:00 SI
24 16:30 SI
25 17:00 SI
26 17:30 SI
27 18:00 NO
28 18:30 NO
29 19:00 NO
30 19:30 NO

Tabla de elaborada por: Bryan Miguel Pazmiño Camacho.

Media porcentual x=24*(100) /30=80%


En la Tabla 4.2 se muestra que de un total de 30 pruebas 24 son favorables, teniendo
una efectividad del 80%, logrando detectar el rostro de la persona que ha sido
identificada del banco de datos, el cual se puede observar en la Figura 4.1.

29
Figura 4.1. Reconocimiento facial del sujeto de la base de datos.
Figura elaborada por: Bryan Miguel Pazmiño Camacho.

Con todas las pruebas realizadas se pudo comprobar que en un ambiente controlado se
tuvo una efectividad del 80%, logrando detectar el rasgo facial del individuo hasta una
distancia que varía entre 2 a 4 metros, pudiendo observar que el sistema en un ambiente
no controlado, es decir con poca luz, el sistema tiende a fallar.

El tiempo de detección varia en la distancia a la que se encuentra el objetivo, ya que el


sistema cuando el sujeto a identificar está a una distancia mayor a 4 metros el sistema
no es capaz de reconocer, de igual manera el número de personas dentro del área de
visión que el drone puede observar, el sistema tiende a tener un retraso, debido a que
la estación no es capaz de procesar tanta información, cabe recalcar que el tiempo de
reconocimiento de los rostros que se visualiza el drone con el sujeto a identificar es
casi inmediato aproximadamente 300ms. Además, estas pruebas se enfocan más a un
ambiente controlado, ya que el dispositivo aéreo no está diseñado bajo condiciones
climáticas de lluvia o vientos fuertes u poca iluminación ya que puede sufrir algún
accidente. Con las pruebas y resultados obtenidos se pudo comprobar que el sistema
no es recomendado en las horas de la noche ya que no logra detectar con eficiencia el
rostro del objetivo debido a poca luz.

30
CONCLUSIONES

Se determinó que el uso del dron Phantom 4 pro V2.0 permite la transmisión de video
en calidad 4K (3840x2160) que proporciona una mayor información de las personas
captadas por lo que se usó el algoritmo Haar Cascade para la extracción de las
características del rostro, dicha información es ingresada a la red neuronal artificial
convolucional CNN, mediante el desarrollo e implementación en el software Python
con el uso de librerías orientadas a la inteligencia artificial y visión artificial, el cual
nos permitió crear modelos neuronales que mediante el ingreso de las muestras en la
capa de entrada y estableciendo los parámetros de las capas ocultas garantizan que en
las capas de salidas de la red neuronal identifique el rostro de la persona.

Se observó que, mediante las pruebas realizadas en un ambiente controlado, se validó


el funcionamiento del sistema logrando tener un porcentaje de efectividad en el
reconocimiento del 80%, ver Tabla 4.2 permitiendo determinar así posibles mejoras
del software y hardware para desarrollarlos en futuros trabajos.

El tiempo reconocimiento de los rostros de las personas al momento de ser captadas


por el drone y visualizar esta información en la estación, comparando así con la
información de la base de datos del sujeto a reconocer, el tiempo es casi inmediata
aproximadamente 300 milisegundos.

Se determinó que, mediante todas las pruebas realizadas en un ambiente controlado,


se establece que el sistema cumple con los requerimientos, considerando que la
distancia óptima es menor a 4 metros con una iluminación optima y necesaria ya que
el dispositivo aéreo no fue diseñado bajo condiciones climáticas fuertes y de poca
iluminación.

31
RECOMENDACIONES

La base de datos debe actualizarse según sea necesario, especialmente si el sujeto a


localizar cambia de apariencia, de esta manera garantizar el correcto funcionamiento
del sistema, así como también que el entorno sea controlado debido que el sistema
tiende a fallar en condiciones de poca luz y una distancia considerable.

Se recomienda que al momento de realizar el vuelo del drone dentro de un área, lea y
siga las instrucciones de guía de vuelo que viene incorporado en el manual, como
medida de seguridad del que opera el drone como las personas y animales del entorno.

Los modelos de redes neuronales realizan cálculos en tiempo real necesitando de


procesadores que cumplan con los objetivos del proyecto tomando cuenta
especificaciones para evitar retrasos o interrupciones, por cual se recomienda el uso de
laptops con procesadores de última generación (Core i9-12900K), así como tarjetas
gráficas (AMD Radeon™ RX Vega 56).

32
REFERENCIAS BIBLIOGRÁFICAS

Ahonen, T. H. (2004). Face recognition with local binary patterns. Obtenido de


https://doi.org/10.1007/978-3-540-24670-1_36

Alain, M. V. (2018). Sistema Inteligente Basado en Redes Neuronales para mejorar


la. Ladero. Universidad Cesa Vallejo.

Andowl. (15 de 05 de 2022). Obtenido de


https://importadoraandowl.com/catalogo/drones/drones-1

Andreea, P. V. (2016). Aplicacion para deteccion y reconocimiento facial en


interiores. Universidad de Sevilla.

Bellera., R. M. (1997). Bases del Procesamiento de Imágenes Médicas. Venezuela :


Universidad de Los Andes, Facultad de Ingeniería, Grupo de Ingeniería
Biomédica de la ULA.

Beltrán, L. A., & Acevedo Mosqueda, M. (2008). Reconocimiento de Voz usando


Redes Neuronales. 89-99. In 6to Congreso Internacional de Cómputo en
Optimización y Software. CiCos.

Cajas Idrovo & Viri Ávila. (2017). Uso de la inteligencia artificial. Colombia.

Celi, J. (2020). Informatica industrial. Obtenido de


https://virtual.ups.edu.ec/presencial56/pluginfile.php/497187/mod_resource/c
ont
convolucional?, ¿. e. (7 de Junio de 2021). Obtenido de
https://forum.huawei.com/enterprise/es/%C2%BFqu%C3%A9-es-la-red-
neuronal-convolucional/thread/746075-100757

Corrales., P. A. (2013). Prototipo de sistema piloto para control de acceso basado en


reconocimiento de rostros. . Universidad Militar Nueva Granada.

Dalal, N. &. (2005). Histograms of oriented gradients for human detection. Obtenido
de https://doi.org/10.1109/CVPR.2005.177

DINASED-DINAPEN. (Junio de 2019). Desaparecidos Ecuador. Obtenido de


http://www.desaparecidosecuador.gob.ec/

DJI. (2022). CrystalSky. Obtenido de https://www.dji.com/crystalsky/info


dji. (14 de Marzo de 2022). Guia de inicio rapida del Phantom 4. Obtenido de
https://dl.djicdn.com/downloads/phantom_4/es/ES-
Phantom%204%20Quick%20Start%20Guide%20v1.2.pdf

G.E. (2012). Aplicación práctica de la visión artificial en el control de procesos


industriales. . Barcelona: Gobirno de España. Ministerio de Educacion.

Garcia, J. U. (2002). Fusión de algoritmos para detectar objetos en movimiento.


España: Universidad de Oriente, Cuba. Universidad de Alcalá.

33
Herrero, I. (2005). Aspectos de un Sistema de Visión Artificial. Universidad Nacional
de Quilmes – Ing. en Automatización y Control Industrial.

Ibarra, J., & Paredes, K. (Enero de 2018). Redes neuronales artificiales para el control
de acceso basado en reconocimiento facial. Ibarra, Ecuador: Revista PUCE.

Jiménez Silva, I. (2018). Reconocimiento facial basado en redes neuronales


convolucionales. Sevilla: Universidad de Sevilla.

Jones, P. V. (2004). Robust real-time face detection.

juanbarrios. (2022). Big Data. Obtenido de https://www.juanbarrios.com/redes-


neurales-convolucionales/

Kartika, C. K. (2018). Facial Emotion Recognition Based on Viola-Jones Algorithm


in the Learning Environment. IEEE.

Kausar, F. &. (2016). Artificial neural network: Framework for fault tolerance and
future. ICEEOT.

KeepCoding, R. (23 de agosto de 2022). KeepCoding. Obtenido de


https://keepcoding.io/blog/arquitectura-tipica-red-neuronal-convolucional/

L Larcher, E. B. (2011). Algoritmo para detección de bordes y ulterior determinación


de objetos en imágenes digitales. En M. C. 30.

Llanes, R. S. (2015). Desarrollo y Aplicación de Técnicas de Inteligencia


Computacional. Obtenido de
http://www.revistaccuba.sld.cu/index.php/revacc/article/view/239/239
Lopez, &. F. (2008). Las Redes Neuronales Artificiales. España: Netbiblo S.L.

Mari, D. C. (Junio de 2020). Análisis de un sistema de reconocimiento facial a partir


de una base de datos realizado mediante python.
Matínez, J. (2018). Reconocimiento de imagenes . Universidad Politécnica de Madrid.
Méndez Gómez, J. (Agosto de 2019). Sistema de reconocimiento facial basado en
Redes Neuronales Convolucionales sobre dispositivo Raspberry Pi. España:
Universidad de Sevilla.
Morocho, J. (Enero de 2019). Detección de tumores cutáneos malignos y benignos.
Quito, Ecuador: Escuela Politécnica Nacional.

OpenCV. (2018). Obtenido de https://opencv.org

OpenCV. ( 2014). Transform, Hough Circle . Obtenido de https://docs.opencv.org/3.0-


beta/doc/tutorials/imgproc/imgtrans/hough_circle/hough_circle.html

Palacios, C. R. (2022). Desarrollo de un sistema de localización de objetos mediante


un brazo robótico controlado por comando de voz y visión artificial en el
contexto de la industria 4.0 . Guayaquil, Ecuador: Universidad Politécnica
Salesiana.
Pezoa Gutiérrez, W. &. (2017). Combined Approach using Artificial Vision and
Neural Networks for Facial Recognition. Chile: CHILECON.

34
Politécnico, C. I. (2017). Célula de Fabricación Flexible ETI. Obtenido de
http://www.etitudela.com/celula/downloads/visionartificial.pdf

Pro, F. 4. (20 de Febrero de 2022). Dji. Obtenido de dji: https://www.dji.com/phantom-


4-pro/info

Ríos., J. E. (2013). Reconocimiento facial en tiempo real. Universidad Autónoma de


Madrid.

Rossius, S. (2013). Reconocimiento de objetos mediante WebCam en tiempo real.


Universidad Politécnica de Valencia.

Rumelhart, D. H. (1986). Learning internal representations by error propagation.


Cambridge.

Sánchez, B. I. (2012). Inteligencia artificial aplicaciones.

Serrano Fuentes, M. L. (2020). Coffee Fruit Recognition Using Artificial Vision and
neural NETWORKS. En In 2020 5th International Conference on Control and
Robotics Engineering. IEEE.
snaptain. (2022). versus. Obtenido de https://versus.com/es/snaptain-sp500

Song, Z. Z. (December de 2019). Unmanned Aerial Vehicle Coverage Path Planning


Algorithm Based on Cellular Automata. CIS IEEE.

Wen-yao, L. &. (2019). Face Detection Based on Viola-Jones Algorithm Applying


Composite Features. IEEE.

Woods., R. C. (2002). Digital image processing. 2.a ed. Prentice hall Upper Saddle
River.

35
ANEXOS

Anexo #1 Toma de muestras de la persona a reconocer.

Como se puede observar se realiza la toma de muestras del individuo mediante un


video, y se recorta sus rasgos faciales y se los guarda en una carpeta que para este caso
se tienen 50 muestras.

36
Anexo #2 Funcionamiento del reconocimiento facial.

Como se puede observar el reconocimiento tiende a fallar por el ingreso de pocas


muestras a la red neuronal.

Anexo #3 Funcionamiento del sistema en distintos ambientes.

1. Reconocimiento facial con 50 muestras en un ambiente controlado

Como se puede observar al momento de realizar las pruebas, el sistema posee


errores al momento de identificar.

37
2. Reconocimiento facial con 150 muestras en un ambiente controlado.

Como se puede observar al tener un mayor número de muestras al ingreso de


la red neuronal tiene una mayor precisión al momento de identificar.

3. Reconocimiento facial con 150 muestras en un ambiente no controlado.

Al ser un ambiente no controlado la luminosidad es importante para el


desarrollo del sistema por la cual tiende a tener errores.

38
Como se puede observar en la siguiente imagen aún sigue teniendo errores, sin
embargo, al momento de cambiar parámetros a la red neuronal, se puede
mitigar y mejorar la red, de esta manera modificar los modelos hasta que estos
puedan minimizar los errores y que llegue a identificar correctamente.

Como se puede observar en un ambiente no controlado con buena iluminación,


pero una distancia considerable, el sistema no es capaz de reconocer el
individuo.

39
Anexo 4 Proceso del funcionamiento del sistema.

1. Se enciende el dron y se vincula con la pantalla DJI CrystalSky que a


su vez se conecta con el control. La pantalla DJI CrystalSky es un tipo de
monitor de la marca DJI con la capacidad de receptar las imágenes o videos
que el drone genera, a su vez tiene la característica de poseer salidas del tipo
USB y HDMI

2. Mientras el dron se está posicionando hacia el entorno, la pantalla CrystalSky


se conecta un cable del tipo HDMI hacia un adaptador tipo HDMI/USB, el cual
se conecta a la estación (laptop).

40
3. Ahora en la estación se corre el programa ejecutando el modelo de la red neural
y de esta manera se identifican los rostros de las personas y si se encuentra
alguna que está en la base de datos lo va a reconocer.

41
Anexo 5 Guía de manejo rápida del Drone Phantom 4 Pro V2.0

Para prender el drone, pulse una, después


otra y mantenga pulsado para encender o
apagar, el cual se encuentra en la parte
posterior del drone. Para verificar el
nivel de batería pulse una vez.

Encendemos el control remoto y


verificamos el nivel de la batería, a
continuación, se descarga la app DJI GO
mediante un código QR o se conecta a la
Dji CrystalSky, para luego vincular el
drone siguiendo los pasos del manual.

Despegue y aterrizaje manual (el despegue y aterrizaje automático se realiza


mediante la app).

Antes de arrancar verificar en la app que esté vinculado el drone con el control de
mando.

Para realizar el arranque de los motores


se realiza la siguiente combinación de
palancas.

Para detener los motores se realiza la


siguiente combinación de palancas.

Para despegar, palanca izquierda


arriba(despacio).

42
Para aterrizar, palanca izquierda
abajo(despacio), hasta tocar el suelo y si
mantiene esa posición unos segundos los
motores se detendrán

Control de vuelo
La palanca izquierda controla la altitud y la dirección de la aeronave, mientras que
la derecha controla los movimientos hacia delante, atrás, izquierda y derecha.

Palanca Izquierda

Palanca Derecha

Fuente: (dji, 2022)

43
Anexo 7 Código de programación del sistema realizado en Python.

Captura de rostros positivos.

44
Captura de rostros negativos.

Lectura de archivos

45
Creación de la Red Neuronal Convolucional

Proceso de entrenamiento

Proceso de aprendizaje

46
47
Matriz de Confusión

48
Reconocimiento + Prueba CNN

49

También podría gustarte