Está en la página 1de 49

FACULTAD DE INGENIERIA Y ARQUITECTURA

ESCUELA PROFESIONAL DE
INGENIERIA CIVIL

OPTIMIZACION Y REGULACION DE UNA RED NEURONAL


PARA LA DETECCION DE FALLAS EN LOS PAVIMENTOS
MEDIANTE PROCESAMIENTO DIGITAL DE IMAGENES

AUTOR (ES):
Roldan Vera, Cesar Guillermo (orcid.org/0000-0001-7563-1286)
Velarde Chimbor, Jesús (orcid.org/0000-0002-7604-9770)

ASESOR(A)(ES):

Noriega Vidal, Eduardo Manuel (https://orcid.org/0000-0001-7674-7125)

LÍNEA DE INVESTIGACIÓN:

Diseño de Infraestructura Vial

LÍNEA DE RESPONSABILIDAD SOCIAL UNIVERSITARIA:

Innovación Tecnológica y desarrollo sostenible.

TRUJILLO _ PERÚ

2023
INDICE DE CONTENIDOS

DECLARATORIA DE AUTENTICIDAD DEL ASESOR...................................ii

DECLARATORIA DE ORIGINALIDAD DEL AUTOR/ AUTORES..................iii

ÍNDICE DE CONTENIDOS............................................................................ iv

ÍNDICE DE TABLAS....................................................................................... v

ÍNDICE DE FIGURAS...................................................................................vi

I. INTRODUCCIÓN..................................................................................1

II. MARCO TEÓRICO...............................................................................2

III. METODOLOGÍA (Proyecto de investigación cuantitativo)...................3

3.1. Tipo y diseño de investigación.............................................................3

3.2. Variables y operacionalización............................................................3

3.3. Población, muestra y muestreo...........................................................3

3.4. Técnicas e instrumentos de recolección de datos................................4

3.5. Procedimientos.....................................................................................5

3.6. Método de análisis de datos.................................................................5

3.7. Aspectos éticos....................................................................................5

IV. ASPECTOS ADMINISTRATIVOS........................................................6

4.1. Recursos y presupuesto......................................................................6

REFERENCIAS.............................................................................................10

ANEXOS....................................................................................................... 11
I. INTRODUCCION

En la actualidad, los estudios de optimización de pavimentos son una tarea cada vez
más necesaria, no sólo para reducir el costo inicial de las ideas de proyecto vial, sino
también para reducir la huella de carbono del proyecto y su consumo de piedra, por lo
tanto, la detección de fallas en los pavimentos es una tarea muy importante para su
mantenimiento y la seguridad en el transporte, los métodos tradicionales son muy
costosos, lentos y subjetivos; con nuevas investigaciones se han implementado las
técnicas basadas en el procesamiento digital de imágenes que permiten automatizar y
mejorar el proceso de detección de fallas, una de estas técnicas es el uso de redes
neuronales artificiales, que son capaces de aprender y reconocer patrones complejos a
partir de datos.

Según (Beltrán, 2012), Los sistemas integran las variables de carácter subjetivo y
cualitativo, utilizadas comúnmente para describir los niveles de severidad del deterioro;
comparando los comportamientos observados y los estimados, se encontró que el
sistema propuesto permite representar de manera bastante aproximada las
características reales del pavimento; por ello, resulta razonable concluir que puede
utilizarse con confianza para la evaluación estructural de pavimentos flexibles, con muy
bajo costo computacional.

Así mismo, (Peñaloza, 2020).en su investigación titulada: ‘’ Incidencia de redes


neuronales para la evaluación estructural y funcional de la carpeta asfáltica’’ explica que
explorando la inteligencia artificial como análisis multicriterio, diversidad y Soluciones
alternativas relacionadas con el desarrollo de programas informáticos. "inteligente" es la
necesidad de modelar variables complejas con probabilidad integrar cada vez más
validación y pensamiento humanos en la programación Los algoritmos informáticos son
posibles utilizando inteligencia artificial. almacenar grandes cantidades de información,
resolver problemas en diversos campos la capacidad de adaptarse a nuevas
circunstancias y obtener nueva información de ellas experiencia; Por lo tanto, la
planificación vial es un desafío constante para mejorar procesos con métodos más
eficientes y confiables que pueden ayudar al proceso, teniendo en cuenta la rapidez
3
necesaria para tomar decisiones.

Segun (Jhonatan, 2018) en su investigación titulada: (Estimación del Índice de


Regularidad Internacional en Pavimentos Flexibles Usando Redes Neuronales
Artificiales) indica que estudios destinados a determinar la eficacia de los métodos de las
redes neuronales artificiales(RNA) para poder determinar la relación entre el estado
operativo y los parámetros en cual se determina el deteriodo el pavimento, arrojó
resultados diferentes entre los investigadores, Por ejemplo, Timm y Turochy (2014)
concluyeron en su investigación que no se recomienda el uso basado en redes
neuronales artificiales. Saghafi et al. (2009) Las RNA nos indica que tienen buen
comportamiento hasta el momento; la presente investigación trae un nuevo caso al
campo de la tecnología que permite el análisis, la efectividad de las redes neuronales
artificiales en su aplicación en el diseño pavimento y posibles causas que lo afectan.

Así mismo, (Reyes-Ortiz, Enero-Junio 2019) indica que como consecuencia de los
crecientes costes de mantenimiento, renovación y construcción de carreteras, el estudio
de las estructuras de los pavimentos para conocer su comportamiento y sus propias
propiedades mecánicas, para analizar la distribución y localización de sus partículas se
ha convertido en un campo técnico importante. Las nuevas herramientas analíticas
pretenden mejorar la eficiencia de esta investigación reduciendo sus costes y tiempo de
ejecución con la ayuda del procesamiento digital de imágenes. La sensibilidad del
procesamiento digital tradicional a perturbaciones externas que pueden modificar la
imagen es limitada, por ello se han introducido diversas técnicas de inteligencia artificial
para optimizar los algoritmos. Este trabajo proporciona una visión general de diversas
aplicaciones de técnicas recientes de inteligencia artificial en el procesamiento de
imágenes. A continuación, se revisa el trabajo realizado específicamente con imágenes
de pavimentos y se presentan posibles implementaciones futuras en este campo
utilizando inteligencia artificial.

Por tanto, bajo estas premisas se plantea el siguiente problema general: ¿Cómo es la
optimización y regulación de una red neuronal para la detección de fallas en los
4
pavimentos mediante procesamiento digital de imágenes? Con la ejecución de este
proyecto se busca optimizar la red neuronal de los pavimentos, esto permitirá a los
ingenieros obtener el diseño mas adecuado, utilizando la inteligencia artificial. Por otro
lado, la justificación teórica se menciona a continuación: la optimización y regulación de
una red neuronal, podrá ayudar a la mejora de los pavimentos y a una mayor
durabilidad, importancia de la optimización de una red neuronal para el diseño.

El presente trabajo de investigación plantea como justificación teorica el poder contribuir


con el aprendizaje y el uso de procesamiento digital de imágenes mediante Yolo v8
desarrollado en la ingeniería civil, propuesto en una zona de Trujillo, ya que esta zona no
existe muchos antecedentes de procesamiento digital mediante Yolo V8 aplicado en la
ingeniería civil.

Asi mismo como justificación práctica, se plantea como finalidad el poder desarrollar la
optimización y regulación de una red neuronal para la detección de fallas en los
pavimentos mediante procesamiento digital de imágenes, recortando el tiempo de
búsqueda y obtener resultados referentes a las propiedades de los algoritmos, utilizando
el lenguaje de programación Yolo V8 como una aplicación hacia la ingeniería civil.

Como justificación metodológica se plantea el hecho de contribuir considerablemente


en el desarrollo de futuras investigaciones para el mismo ámbito, ya que es una temática
de creciente popularidad e innovación . Se tiene conocimiento que el procesador de
imágenes Yolo V8 es muy didáctico y nos permite aplicarlo en diferentes campos de
investigación, uno de estos es la ingeniera civil donde se busca implementar y
desarrollar la investigación.

Para este investigación se a planteado como objetivo general optimizar y regular una
red neuronal para la detección de fallas en los pavimentos mediante procesamiento
digital de imágenes; por consiguiente, se consideraron los siguientes objetivos
específicos: recopilar imágenes de pavimentos con y sin fallas para procesar mediante
Yolo V8; entrenar al procesador digital de imágenes para evaluar su desempeño en
datos no utilizados previamente en Yolo V.8; documentar datos obtenidos en el proceso
5
y obtener los resultados con Yolo V.8

A partir de esto, se plantea la siguiente hipótesis general: si es posible optimizar y


regular una red neuronal para la detección de fallas en los pavimentos mediante
procesamiento digital de imágenes.

II. MARCO TEORICO

Como referencia internacional tenemos:


Según estudios realizados nos indica que todo el cálculo de variables se realiza
mediante algoritmos matemáticos, este proceso permite examinar muchas
opciones en un tiempo más corto; a diferencia del diseño tradicional, donde los
diseñadores solo pueden comparar 2 o 3 alternativas, y no es imposible estar
seguro, si se ha elegido el mejor.

Según (moreno, 2010) en Bogotá existen diferentes tipos de fallas en las


estructuras pavimentadas, y cada tipo de falla se manifiesta en diferentes tipos de
deterioros, ahora, el tipo de daño dependerá de la estructura del suelo,
subrasante, tipo de trafico vehicular, dosificación de las capas granulares y
mezclas asfálticas, asi como el proceso de construcción.

Según (Luis, y otros, 2016)El pavimento flexible propuesto en Colombia será una
vía o pavimento de asfalto natural que conectará la carretera Totumo y la Vereda
Llanos del Combeima, con una longitud de 2 kilómetros, extendiéndose de 2 a 4
kilómetros en Ibag, estado de Tolima. departamento. Una vez conocidos los
resultados del procedimiento se puede concluir que se utiliza el método
RACIONAL para obtener la estructura para el diseño.

Como referencia nacional


La detección e identificación de diversas averías se puede encontrar en el
camino, fue de gran ayuda y prueba para determinar el estado donde se
encuentra. De esta forma, se abren las puertas para llegar al sistema de gestión
6
del mantenimiento con revestimientos tanto rígidos como flexibles; implementado
en 1974-1976 por el Centro de Ingeniería de la Fuerza Aérea de los Estados
Unidos Mohamed Y. Shahin, Michael I. Darter y Starr D. Kohn, El método del
índice de condición del pavimento

Según (Alex Campos Quispe, 2020) en Chota-Cajamarca durante años, la


detección de fallas en los pavimentos flexibles se a realizado de forma
tradicionales como PCI, VIZIR y el método de observación visual. Sin embargo,
en la actualidad se están desarrollando tecnologías que facilitan y mejoran la
eficiencia, utilizando técnicas de aprendizaje profundo asociadas al
procesamiento de imágenes para detectar fallas y lograr un análisis.
El objetivo del estudio es utilizar inteligencia artificial con el Software Yolo V8 para
detectar y analizar defectos en los pavimentos

2.1 A continuación se presentan las bases teóricas de la presente


investigación:

2.1.1 INTELIGENCIA ARTIFICIAL:

Según (Rouhiainen, 2008) para brindar una definición más detallada,


podríamos decir que la IA es la capacidad de las máquinas para usar algoritmos,
aprender de los datos y utilizar lo aprendido en la toma de decisiones tal y como
lo haría un ser humano. Asimismo, la proporción de errores es significativamente
menor en las máquinas que realizan las mismas tareas que sus contrapartes
humanas. La idea de que los ordenadores o los programas informáticos puedan
tanto aprender como tomar decisiones es particularmente importante y algo
sobre lo que deberíamos ser conscientes, ya que sus procesos están creciendo
exponencialmente con el tiempo. Debido a estas dos capacidades, los sistemas
de inteligencia artificial pueden realizar ahora muchas de las tareas que antes
estaban reservadas sólo a los humanos.

2.1.2 APRENDIZAJE AUTOMATICO


7
En pocas palabras, según (Rouhiainen, 2008) se trata un aspecto de la
informática en el que los ordenadores o las máquinas tienen la capacidad de
aprender sin estar programados para ello. 3 Los primeros ordenadores
personales, que estuvieron disponibles para los consumidores a partir de la
década de 1980, fueron programados explícitamente para realizar ciertas
acciones. Por el contrario, gracias al aprendizaje automático, muchos de los
dispositivos que verás en el futuro obtendrán experiencia y conocimientos a partir
de la forma en que son utilizados para poder ofrecer una experiencia al usuario
personalizada. El aprendizaje automático usa algoritmos para aprender de los
patrones de datos. Éste es un sencillo ejemplo de cómo los algoritmos pueden
usarse para aprender patrones y utilizar el conocimiento adquirido para tomar
decisiones.

2.1.3 Procesamiento de imágenes

Según (Gómez, 2015) el procesamiento digital de imágenes permite definir


criterios de intervención en actividades de mantenimiento rutinario mediante
algoritmos aplicados a registros fotográficos de pavimentos. Esto lo hace con el
objetivo de identificar de manera mas confiable el deterioro que existe en
carreteras que caen por debajo de un cierto umbral de gravedad. La grabación de
imágenes peude considerarse, por lo tanto una contribución inestimable para
aumentar la eficicnecia de las inversiones en varios sistemas específicos. Sin
embargo es importante recordar que las herramientas de este tipo complementan
la norma técnica y no las remplazan.

2.1.4 Inteligencia de enjambre:

Según (Muñoz, y otros, 2008) indica que en ese artículo proporciona una visión
general del concepto de inteligencia de enjambre y algunas perspectivas sobre la
investigación utilizando estas técnicas, con el objetivo de proporcionar un punto
de partida para futuras investigaciones en diversas áreas de la ingeniería. Para
preparar esta revisión se realizó una búsqueda bibliográfica en bases de datos
actualizadas de artículos clásicos sobre este tema, así como de aplicaciones
modernas y resultados publicados, especialmente en los campos del control
8
automático, procesamiento de señales e imágenes y robótica. Está hecho. Extraer
los conceptos más relevantes y organizarlos cronológicamente. El resultado es
una taxonomía de la computación evolutiva, las diferencias entre la inteligencia de
enjambre y otros algoritmos evolutivos, y una visión integral de las diversas
técnicas y aplicaciones.

2.1.5 PYTHON

El software libre se ha convertido en uno de los movimientos tecnológicos de mayor auge


en el siglo XXI. Para su desarrollo ha sido necesario contar con un grupo de herramientas
que hagan óptima su utilización y sean fáciles de aprender. Python es un lenguaje de
programación que cumple con lo planteado y se viene perfilando como una opción
recomendada para el desarrollo de software libre. Python es considerado un lenguaje
amplio y versátil, al ser aplicado en el ámbito de la ingeniería civil, nos ayudará a mejorar
procesos en la gestión y desarrollo estructural.

2.1.7.1 Algoritmos de Seguimiento:

(Bagnato, 2023)Demuestra que se han desarrollado varios algoritmos para


realizar el seguimiento de objetos y resolver los problemas anteriores. Los
más famosos son la clasificación, la clasificación profunda y el seguimiento
de bytes, y constantemente aparecen nuevos algoritmos. Lo básico que
esperamos de un algoritmo de detección es identificar primero un objeto y
luego mantener esa "etiqueta" a lo largo del tiempo. Pero... al analizar vídeo
en vivo, no congele la imagen durante más de 1 segundo. De lo contrario,
será una experiencia desagradable. Enumeremos algunos algoritmos de
seguimiento y sus características. Más adelante, explicaremos un poco más
sobre el algoritmo de Byte Track que usaremos en este proyecto.

9
2.1.7.2 SORT
Según, (Bewley, 2022) demuestra que SORT es una implementación básica
de un marco de seguimiento visual de múltiples objetos basado en técnicas
básicas de asociación de datos y estimación de estado. Está diseñado para
aplicaciones de seguimiento en línea donde solo están disponibles
fotogramas pasados y presentes y crean identificaciones de objetos sobre la
marcha. Este rastreador mínimo no admite la oclusión ni la repoblación de
objetos, pero está destinado a servir como base y banco de pruebas para el
desarrollo futuro de rastreadores.

2.1.7.3 DEEPSORT

Según (Bagnato, 2023)Mejora a Sort al agregar información sobre la


apariencia del objeto mediante un vector creado a partir de las capas
ocultas de una red neuronal profunda que debe ser entrenada.

2.1.7.4 STRONGSORT

Una de las características clave de StrongSORT es el uso de redes


neuronales profundas para extraer características de una imagen que
sean resistentes a los cambios de apariencia, como cambios en la
iluminación, el punto de vista y la oclusión. StrongSORT también utiliza
un filtro de Kalman para modelar el movimiento del objeto objetivo y
estimar su posición en fotogramas posteriores.
StrongSORT es un potente algoritmo de seguimiento de objetos que
proporciona mayor precisión y solidez en escenarios de seguimiento
desafiantes. Si está interesado en utilizar StrongSORT para el
seguimiento de objetos, hay varias implementaciones disponibles o
puede implementar su propia versión basada en la investigación
publicada.

2.1.7.5 FAIRMOT

Para (Bewley, 2022) es un modelo para el seguimiento de múltiples

10
objetos que consta de dos ramas homogéneas para predecir
puntuaciones de objetividad en píxeles y características de Re
identificación.
Tenga en cuenta que las dos ramas son completamente homogéneas,
lo que esencialmente difiere de los métodos anteriores que realizan la
detección y la Re identificación en un estilo en cascada.
2.1.7.6 BYTETRACK

Según (Zhang, 2022)El seguimiento de objetos múltiples (MOT) tiene como


objetivo estimar cuadros delimitadores e identidades de objetos en videos.
La mayoría de los métodos obtienen identidades asociando cuadros de
detección cuyas puntuaciones son superiores a un umbral. Los objetos con
puntuaciones de detección bajas, e .Para resolver este problema,
presentamos un método de asociación simple, eficaz y genérico, que realiza
el seguimiento asociando casi todos los cuadros de detección en lugar de
solo los de mayor puntuación. Para los cuadros de detección de puntuación
baja, utilizamos sus similitudes con los tracklets para recuperar objetos
reales y filtrar las detecciones de fondo. Cuando se aplica a 9 rastreadores
de última generación diferentes, nuestro método logra una mejora constante
en la puntuación IDF1 que oscila entre 1 y 10 puntos.Para mejorar el
rendimiento de última generación de MOT, diseñamos un rastreador simple
y potente, llamado ByteTrack.

III. METODOLOGIA

3.1 Tipo y diseño de investigación


a. Tipo de investigación
EL presente trabajo de investigación, se basará en la metodología
aplicada debido a que se usará herramientas tecnológicas bajo un
enfoque cuantitativo, esto permitirá un horizonte claro en la aplicación
del aprendizaje profundo, usando técnicas de procesamiento de
imágenes. Asimismo, con esta metodología nos permitirá ubicar puntos
específicos en un mapa de fotogramas, lo que conllevará obtener
formas.

b. Diseño de investigacion
11
3.2 Variables y operación
3.3 Población, muestra y muestreo
3.4 Técnicas e instrumentos de recolección de datos
3.5 Procedimientos
3.6 Método de análisis de datos
3.7 Aspectos éticos.
IV. ASPECTOS ADMINISTRATIVOS
4.1 Recursos y Presupuesto
4.2 Financiamiento
4.3 Cronograma de ejecución
REFERENCIAS

*https://repositorio.ucv.edu.pe/bitstream/handle/20.500.12692/120359/Astudillo_MFR-
Flores_APA-SD.pdf?sequence=1&isAllowed=y

* Beltrán Calvo, Gloria Inés;2012 -REPOSITORIO FACULTAD DE INGENIERIA- ; Pavimentos


flexibles, auscultación no destructiva, redes neuronales, lógica difusa, inteligencia artificial
http://132.248.52.100:8080/xmlui/bitstream/handle/132.248.52.100/5145/Tesis.pdf?
sequence=1&isAllowed=y

Bach: PEÑALOZA BUSTAMANTE, JUL ANDERLI- ‘’INCIDENCIA DE REDES NEURONALES


PARA LA EVALUACIÓN ESTRUCTURAL Y FUNCIONAL DE LA CARPETA ASFÁLTICA”-
https://repositorio.upla.edu.pe/bitstream/handle/20.500.12848/2146/T037_45306423_T.pdf?
sequence=1&isAllowed=y

(Reyes-Ortiz, Enero-Junio Técnicas de


2019)- inteligencia artificial utilizadas
en el procesamiento de imágenes y su aplicación en el análisis de pavimentos
https://revistas.eia.edu.co/index.php/reveia/article/view/1215/1229

https://repositorio.uniandes.edu.co/bitstream/handle/1992/11262/u429609.pdf?sequence=1
(moreno, 2010)

file:///C:/Users/Lenovo/Downloads/Art%C3%ADculo+Original.pdf – chota Ref. nacional


12
https://planetadelibrosec0.cdnstatics.com/libros_contenido_extra/
40/39308_Inteligencia_artificial.pdf - inteligencia artificial

https://www.aprendemachinelearning.com/seguimiento-de-objetos-con-yolo-v8-y-bytetrack-
object-tracking/

https://www.aprendemachinelearning.com/seguimiento-de-objetos-con-yolo-v8-y-bytetrack-
object-tracking/

https://github.com/ifzhang/ByteTrack

ANEXOS

I. INTRODUCCIÓN

En la actualidad existen pavimentos en buen estado, debido a una buena calidad en la


composición de los componentes de sus estructuras en asfaltados o en concretos, esta
calidad también se debe a una buena gestión de monitoreos que se deben realizar de
manera constante por parte de las autoridades competentes, los mismos que deben
analizar y realizar los mantenimientos correspondientes sobre estas anomalías que se
generan en el tiempo en las superficies viales, asimismo cabe mencionar que en otras
partes del mundo como en Europa su población se encuentra satisfecho por la calidad de
sus estructuras viales, mientras que la puntuación en números decimales en américa
latina sobre la calidad empleada abarca el 3,6 punto una ligera mejora entre los años
2007 y 2008 donde alcanzó 3,2 puntos, en comparación a los años 2015 y el 2016 en el
cual alcanza 3,5 puntos (Chauvet y Albertone, 2018), mientras que en América del Norte
específicamente en México según el Instituto Nacional de Estadística y Geografía - INEGI
el promedio total del buen estados de sus vías de transportes abarca a un 17.3% de

13
aprobación (Arellano, 2020), de sus estructuras superficiales que se encuentran
deterioradas o agrietadas (Moriyoshi et al.,2021), a causa de diferentes factores como la
baja calidad de los componentes en las estructuras de los asfaltados de pistas o
concretos los cuales se encuentran propensos a agrietarse, asimismo están expuestos a
cambios climáticos así como el incremento de transporte público, transportes de cargas
pesadas, falta de señalización (Li, Liu, Li, Guo, Wu, 2021); factores que debilitan y
ocasionan accidentes por su mala infraestructura (Chun y Ryu 2019) impactando en la
población, y congestionando el tráfico en el transporte público (Azimjonova y Özmen,
2021).

En el Perú la calidad de sus infraestructuras viales en términos generales alcanza a un


nivel de insatisfacción por parte de la comunidad, ya que la inversión y ejecución en el
rubro del sector de construcción sólo durante el cuarto trimestre del 2021 alcanzó a un
índice muy bajo del -5,8% el cual acredita que el Estado no ejecuta adecuadamente la
inversión en el sector, donde se encuentran rubros importantes de inversión en
infraestructuras viales, sistemas de saneamientos entre otros que permitan que las vías
de transportes se encuentren en buenas condiciones, solo durante el último trimestre del
2021 ejecutaron los departamentos de: Amazonas - 13 30.6%, Ancash 6.2%, Apurímac -
5.9%, Arequipa -4.5%, Ayacucho -13.2%, Cajamarca -5.1%, Cusco 11.3%, Huancavelica
-21.7%, Huánuco -22.3%, Ica 9.6%, Junín 11.3%, La Libertad -14.2%, Lambayeque -
4.4%, Lima -2.7%, Loreto -19.2%, Madre de Dios - 6.0%, Moquegua -9.0%, Pasco -22%,
Piura -13%, Puno -10.8%, San Martin -28.4%, Tacna -4.8%, Tumbes -8.1%, Ucayali -
24.2% (Instituto Nacional de Estadística e Informática, 2022), en la siguiente figura se
aprecia la inversión aplicada en cada departamento.

14
Figura 1. Índice de inversión en el sector construcción según zona geográfica. Fuente:
Indicador de la actividad productiva departamental del cuarto trimestre del 2021 con
información disponible al 03-03-2022 del Instituto Nacional de Estadística e Informática.
14 Como se visualiza en la Figura 1, el departamento de La libertad registra un indicador
negativo alcanzando el -17.7% en el sector de construcción el cual se ve reflejado en el
estado de las estructuras viales de la región, así como de sus provincias, mientras que
en el distrito de el porvenir la infraestructura vial solo mejoró el 12.25% durante el 2019,
equivalente a 121,721.45 𝑚2 (Municipalidad provincial de trujilo, 2019)

Bajo ese contexto uno de los problemas que atraviesa la zona de El Porvenir del distrito
de Trujillo son sus estructuras viales donde existen grietas y huecos, por lo que se
plantea identificar estas zonas defectuosas con la ayuda de la tecnología y desarrollar un
sistema inteligente que detecta grietas y huecos de las superficies viales en la zona de El
Porvenir , siendo las principales calles como: AV. Pumacahua, AV. Sánchez Carrión
Cuadra 4,5,6 y7, Calle Micaela Bastidas asimismo el presente trabajo de investigación se
apoyó en estudios basados con Deep Learning y estructuras algorítmicas de redes

15
neuronales que permiten automatizar los procesos de detección de grietas y huecos a
través del aprendizaje profundo en un corto tiempo; además servirá estandarizar
modelos de análisis que permita mitigar errores durante el proceso de análisis

En lo que corresponde a la justificación práctica se puede mencionar que a través del


aprendizaje profundo facilita realizar análisis de grietas, el cual se estandariza a partir de
una imagen previo al entrenamiento a fin de extraer y visualizar fallas de los pavimentos
asfaltados o de concretos (Cheng, Patel, Wen, Bullock, Habib, 2020), esto consiste en
rasterizar las imágenes usando arquitecturas y modelos (Zhang et al., 2020) a fin de
obtener resultados deseados durante el proceso de identificación de grietas (Arbaoui et
al., 2021), para contribuir con la estandarización de los modelos teóricos. Además, existe
otras metodologías de redes neurales para detectar como YOLOv3 (Opara et al.,2021),
asimismo los antecedentes internacionales, donde se emplearon técnicas para detectar
o identificar objetos (Coluccia et al., 2021), gracias a la visión por computadoras se
aplica diferentes algoritmos de redes neuronales para el reconocimiento de imágenes
(Morales, Sarabakha y Kayacan, 2020), así como el aprendizaje profundo que permita
detectar grietas en pavimentos (Shatnawi, 2018), de estructuras como el concreto (Shim
et al., 2020), usando umbrales para la segmentación del tratado de imágenes (Yusof et
al., 2021).

Asimismo, el desarrollo del sistema inteligente contribuirá con mejorar el estilo de vida de
la sociedad donde se implemente, ya que existe en la región y otros una red vial donde
se presenta anomalías superficiales como grietas, huecos que afecta indirecta o
directamente el transporte de sus pobladores, así como económicamente,
ambientalmente, es por ello que al aplicar estos tipos de sistemas inteligentes podremos
obtener valores que nos permitan generar reportes estandarizados a fin de informar a las
autoridades competentes quienes se encargan de supervisar y mantener 16 en buen
estado, asimismo el sistema podrá contribuir con la estandarización de otras actividades
que permita mejorar la calidad de vida de una región o estado.

Una de las importancias del sistema inteligente es que se desarrolla en base a software

16
de código abierto que no generan un costo en la adquisición de las herramientas
tecnológicas ya que estos son flexibles y se pueden adaptar para el análisis de datos de
otras actividades relacionadas al rubro del transporte como la señalización vial, estado
vial, tráfico vial que contribuyan con mejorar el transporte público, información que suma
para el estudio de mejoras de la población. Asimismo, a través de estos sistemas
mejorara la vida social de la comunidad gracias a las planificaciones y acciones que
tomen los encargados del sector, en lo que corresponde a las medidas correctivas que
identifiquen de aquellas enfermedades estructurales que vienen a travesando las calles
del sector producto de diferentes causas, las cuales deben ser detectadas a tiempo y
mantenerlas en buen estado para el normal funcionamiento de estas vías.

Para el presente trabajo de investigación y en concordancia con la realidad problemática


se planteó la siguiente pregunta del problema general ¿ De qué manera la inteligencia
artificial permite la Detección de Fallas en Pavimentos de una Zona del Porvenir 2023?,
asimismo se plantearon las siguientes preguntas del problema específico como:

a) ¿De qué manera se medirá las grietas y huecos en las superficies de estructuras
viales de las calles principales de la zona de Trujillo en el distrito del Porvenir usando
YOLO v8 en el 2023?; b) ¿De qué manera se obtendrá con la detección de grietas y
huecos aplicando las 17 redes neuronales multicapas en las principales calles Trujillo en
el distrito del Porvenir en el 2023 ?.

Bajo ese contexto el objetivo primordial fue determinar con YOLO v8, la detección de
fallas que se presentan en las principales calles pavimentadas de una zona de Trujillo en
el distrito del Porvenir en el 2023.

OBJETIVOS (FALTA 1)

*Determinar con inteligencia artificial (YOLO v8 ) la detección de huecos en pavimentos


de las principales calles pavimentadas de la zona de Trujillo en el distrito del Porvenir en

17
el 2023. •

*: Determinar con YOLO V8 la detección de grietas en pavimentos de las principales


calles pavimentadas de la zona de de Trujillo en el distrito del Porvenir en el 2023. •

Como hipótesis global se consigna que, a través de YOLO v8 permite detectar fallas en
pavimentos de una zona del distrito de de Trujillo en el distrito del Porvenir en el 2023. •

Hipótesis especifico 1: La inteligencia Artificial nos permite detectar huecos en las


principales calles pavimentadas de una zona de de Trujillo en el distrito del Porvenir en el
2023, ya que existe una alta precisión de resultados positivos aplicando YOLO v8 bajo
las arquitecturas de Redes Neuronales Convolucionales donde se utiliza la función de
activación Relu, el cual permite aprender de manera óptima (De Ryck, Lanthaler y
Mishra, 2021).
Hipótesis especifico 2: La inteligencia artificial Yolo V8 permite detectar grietas en las
principales calles pavimentadas de una zona de de Trujillo en el distrito del Porvenir en el
2023. •el objetivo general es desarrollar e implementar una red neuronal que sea capaz
de detectar y clasificar las fallas en los pavimentos a partir de imágenes digitales con un
alto nivel de precisión y eficiencia.

Recopilar y preprocesar los datos de imágenes de pavimentos, incluyendo la


segmentación y etiquetado de las fallas presentes en las imágenes.

Desarrollar un sistema completo de detección de fallas en pavimentos que integre el


modelo de red neuronal optimizado en la aplicación (YOLO v8).

Evaluar y seleccionar las arquitecturas de redes neuronales convolucionales (CNN) más


adecuadas para el procesamiento de imágenes de pavimentos.

18
II. MARCO TEORICO
Las estructuras viales son muy importantes en una nación para su desarrollo económico,
pero no es una tarea sencilla poder mantener en buen estado debido a que implica
factores gubernamentales, financieros, participación ciudadana entre otros, que ameritan
implementar métodos eficientes que pueda detectar anomalías que se generan sobre las
estructuras viales en el tiempo como grietas y huecos en pavimentos de forma
automática utilizando algunas funciones que se adquieran en el proceso de selección de
19
información (Opara et al., 2021).

Generalmente la composición de las estructuras viales está compuesta por diferentes


tipos de materiales como el hormigón (Shim et al. 2020), este tipo de material en el
tiempo se debilita ocasionando el desgaste de sus componentes los cuales están
expuestas a ocasionar un grado de peligro en el transporte vial.

Según Moriyoshi et al (2021) menciona que el desgastamiento que ocurre sobre las
estructuras viales en pavimentos de asfaltado o concreto se produce a consecuencia de
las grietas, huecos o deterioros debido a que los componentes que forman estas
estructuras son débiles en el sentido que no cuentan con materiales que garanticen la
calidad y la vital útil de estas estructuras, por lo que es importante detectar estas fallas
que ocurre sobre los pavimentos a través de las técnicas del aprendizaje profundo así
como afrontando las limitaciones que se pueda presentar como las condiciones de
variación de texturas, iluminación o estados que ocurren durante el cambio climático,
para lo cual es importante que las redes neuronales estén preparados para identificar
estas zonas defectuosas utilizando las técnicas basada en la visión computacional el
cual mejore la precisión gracias al entrenamiento, pruebas del rendimiento, métodos
aplicados con el aprendizaje profundo (Puly et al., 2017) y el uso de herramientas
tecnológicas para el etiquetado (Aizam et al., 2021) (Skalski, 2022).

A fin de obtener los indicadores de la sensibilidad, precisión, puntuación se aplicó las


siguientes formulas:

20
Donde: Verdadero positivo será representado por TP, falsos positivos por FP y los falsos
negativos por FN (Opara et al., 2021), (Slami y Yun, 2021), (Qiao et al., 2021). Estas
fórmulas son aplicadas con metodologías y técnicas del aprendizaje profundo para
obtener resultados en la detección de grietas y huecos sobre estructuras de pavimentos.

Es por ello que, Yusof et al (2021) enfatiza en la importancia de las vías, debido a que a
través de ellas se interconecta diferentes pueblos, comunidades, distritos, países y hasta
continentes. En ese sentido es común que se presenten desgastes o fallas sobre las
superficies de los pavimentos debido al alto índice de transporte de diferentes tipos de
cargas pesadas o livianos, interrumpiendo el objetivo de estas vías; es por ello que se
requiere mantener estas vías en buen estado, para ello se debe realizar un
mantenimiento adecuado y monitoreo constante a través de las capturas de imágenes el
cual permita recolectar, clasificar y analizar.

Según Sabino. El proceso de la investigación define la muestra como un proceso que


sea manejable sobre los elementos de la población que está compuesto por un conjunto
de elementos también conocido como el universo que sea capaz de reducir en pequeñas
partes para que sean accesibles al momento de analizar los datos que serán las
muestras, para ello y bajo ese concepto el tipo de muestra será probabilístico ya que se
analizar los grupos pequeños de la población de forma aleatoria asignando un número a
cada elemento que estarán en la muestra, y estos puedan ser analizados a través de
sistemas inteligentes. Mientras que Arias. El proyecto de investigación en la muestra lo
define como un proceso global donde se conoce la probabilidad de cada individuo que
conforma la muestra

Sin embargo, nuevas tecnologías han desarrollado sistemas sofisticados e inteligentes


fusionadas con el aprendizaje profundo que tiene la finalidad de detectar grietas y
huecos que se generan a través del tiempo y estas puedan ser analizadas mediante
técnicas basadas en datos. Según Cheng et al (2020) propone una metodología basada

21
en umbral intenso que estandariza las supervisiones mediante estrategias del 21 Deep
Learning el cual utiliza datos etiquetados facilitando el entrenamiento para las redes
neuronales.

Hasta ahora se han implementado múltiples metodologías que detectan fallas en


estructuras utilizando algoritmos que desarrollan técnicas para su mantenimiento, pero
este se ha detectado más en estudios de microgrietas donde se aplica el reconocimiento
de patrones de imágenes usando el aprendizaje profundo, según Yusof et al (2021)
utilizó el método umbralización de imágenes debido a que esta metodología se prepara
mediante una herramienta de etiquetado, para analizar las grietas sobre los pavimentos.
Por otro lado, Shatnawi (2018), utilizó otra metodología para extraer grietas de los
pavimentos mediante la captura de imágenes, permitiendo un análisis más preciso en la
identificación de las formas de grietas superficiales, donde se puede determinar las
características de la imagen como dimensiones (alto, ancho), tamaño, información que
es importante para un entrenamiento mediante el reconocimiento de patrones de las
redes neuronales

El primer diseño o modelo sobre las redes neuronales nace por la década de 1943
planteado por Warren McCulloch, neurofisiólogo, y Walter Pitts, matemático, crearon una
red neuronal utilizando los circuitos eléctricos y elaboraron un modelo informático que
permitió calcular las redes neuronales basado en las matemáticas y el algoritmo umbral
lógica dirigida a la inteligencia artificial (Chagas, 2019). Asimismo, la red neuronal
perceptrón es un pilar fundamental en las redes neuronales artificiales, ya que es un
modelo de aprendizaje el cual tiene como objetivo aprender automáticamente, así como
reconocer patrones, tomar decisiones, comportamientos, entre otras actividades gracias
a la entrada de datos (Sarmiento, 2020), este puede relacionar las variables de salida o
el objetivo que se desea obtener.
En base al primer diseño de redes neuronales nace la historia de la inteligencia artificial
por la década de 1950, con un grupo de expertos en la informática y el gran aporte del
brillante matemático Alan Turing, quien escribió el artículo denominado “Computing
Machines and Intelligence” haciéndose una pregunta si las computadoras podrían 22
“pensar” como los seres humanos, hecho que fue reconocido como el padre de la

22
Inteligencia Artificial. Como tal, la inteligencia artificial es un campo muy amplio que
abarca varias ramas, siendo las más importantes como el aprendizaje automático y el
aprendizaje profundo, además incluye varios enfoques que no involucran precisamente
al aprendizaje automático, ya que “Las aplicaciones de inteligencia artificial y el
aprendizaje profundo se han vuelto vitales para la gestión de la infraestructura de
mantenimiento” (Opara et al. 2021).

Asimismo, en dicha década se originó la metodología del aprendizaje profundo gracias al


incremento masivo de datos, el cual permitió programar unidades de procesamiento
gráfico, mediante el cual procesan operaciones matemáticas complejas como vectores o
matrices que generalmente se encuentran en los modelos de Inteligencia Artificial, en
ese sentido el aprendizaje profundo o Deep Learning facilita tareas de automatización de
máquinas por si sola en base a los errores, esto era una nueva forma de aprendizaje de
información basada en capas continuas o multicapas de redes neuronales
Asimismo, la inteligencia artificial fue reforzada por la década de 1956 con una
conferencia de John McCarthy, mientras que Michael Jordan incorpora una arquitectura
de las “RNNs” para el aprendizaje profundo por el año 1986, no obstante, esta
arquitectura alcanza a su mayor estudio y aplicación en la industria a partir del año 2015
aplicando librerías de código abierto como TensorFlow, PyTorch para el desarrollo del
aprendizaje automático (Abeliuk y Gutierrez, 2021).

Además, el aprendizaje profundo implica varias capas continuas de redes neuronales,


así como algoritmos complejos en capas no lineales aplicadas en la inteligencia artificial,
lo que ha logrado un aprendizaje de patrones en poco tiempo, a partir del año 2010 la
industria de la inteligencia artificial revolucionó a gran escala logrando grandes avances
tecnológicos, como el reconocimiento de imágenes, reconocimiento de voz entre otros
(Revista Bits de Ciencia, 2021), es decir que estos avances está conformado por un
conjunto de algoritmos enlazados entre sí, siendo el objetivo 23 simular los
comportamientos que hace el ser humano como reconocer una gama de objetos y
diferenciar de ellos que es una función básica de las neuronas. Para Jaafari et al. (2021),
define que el campo del Deep Learning fue testigo del gran avance de la ciencia que ha
sido capaz de llegar al punto que las máquinas tengan esa capacidad de poder entender

23
y manipular datos para tomar una decisión y procesarlas. Entonces podemos mencionar
que los principales algoritmos que se aplican en el aprendizaje profundo son los
supervisado o generativas e híbridas.

Bajo este concepto podemos mencionar que la estructura de las redes neuronales
aplicadas en la inteligencia artificial tiene similitud con la estructura de la red neuronal
biológica, como entrada de información a través de las dendritas el cual está unida
mediante la sinapsis con el núcleo donde se procesa la información para que a través del
conducto del axón emita la salida de datos procesados, este evento conlleva al
aprendizaje interconectada y almacenada por el ser humano.

Figura 3. Adaptación sobre la red neuronas artificiales: a) representa neurona con una
entrada mientras que en b) son múltiples entradas (Sarmiento, 2020)

No obstante, en el mundo de la inteligencia artificial existen varios tipos de redes


neuronales siendo las más importantes los modelos perceptrón multicapas, redes
convolucionales y las redes recurrentes, para cada tipo la certeza de probabilidad es
altamente considerado por la precisión en sus cálculos que procesa los algoritmos en
emitir un resultado.
Las redes neuronales o perceptrón multicapas es un modelo de red neuronal artificial
donde su arquitectura, está formada por una capa de entrada, pueden existir una a más
capas ocultas y una capa de salida, clasificada como múltiples capas (Bienvenido, Marín,
Sánchez, Fernández, Moyano, 2019). La capa de entrada contiene varias neuronas
como categorías que se puede asignar a las variables dependientes, mientras que la

24
capa de salida serán las variables independientes o respuestas

Mientras que la red neuronal convolucional, es un modelo CNN (Convolutional Neural


Network), que tiene características valiosas para el procesamiento de imagen, a raíz de
los errores que va identificando estos los utiliza para las actualizaciones de los
parámetros de forma automática y toma la imagen como entrada a fin de extraer las
características del mismo para su reconocimiento a través de la capa de neuronas que
están enlazadas al núcleo el cual comparten información entre las mismas, este proceso
agiliza profundamente la complejidad y velocidad de entrenamiento (Zhang,2021). Según
los estudios realizados por Enzo et al (2021), analizó que los parámetros de información
obtenidas a partir de la etapa de validación y prueba fueron exitosas o erróneas esto va
depender mucho de la calidad de entrenamiento que se haya realizado a las imágenes a
través de la metodología de clasificación y las arquitecturas que se apliquen, en las
siguientes graficas se muestra los modelos de tipos de arquitecturas que se aplican las
CNN.

Figura 4. Estructura U-net con CNN (Lee et al., 2019)

25
Figura 5. Arquitectura AlexNet, aplicada con CNN (Turay, 2022)

Figura 6. Adaptación del modelo estructurado de red neuronal convolucional multicapas


(Ramalingam et al., 2021)

26
Figura 7. Arquitectura de red neuronal convolucional de forma unitaria (Fan et al., 2020).

Así como las redes neuronales recurrentes que se encuentran bajo un modelo dinámico
RNN (Recurrent Neural Networks), estos son útiles al momento de analizar secuencias
de gran tamaño de variables, reproducir y asociar temporalmente hasta que finalizar su
proceso, generalmente son usadas en las predicciones no líneas, así como en los
modelamientos de sistemas dinámicos o tratamientos que se pueden dar en las
secuencias, usando la metodología de las redes profundas el cual permite ubicar puntos
específicos (Almeida et al. 2021), lo que conlleva a procesarlas con redes neuronales
convolucionales (CNN) para su activación mediante la función ReLu (Rectified Lineal
Unit), y el aprendizaje profundo (Kumar et al., 2021), en estructuras denominadas
CrackDFAN (Qiao et al., 2021), debido al alto nivel de precisión en detectar grietas en
pavimentos basados a través del entrenamiento con las redes neuronales (CNN), que
usa una arquitectura Encoder-Decoder, en fusión con el modelo DeepLabv3+ (Zhang et
al. 2020) para el procesamiento de las imágenes.

Además, una de las redes neuronales del aprendizaje profundo muy conocido es
YOLOv3, método que se utiliza para la detección de objetos y posicionamiento a partir
de una imagen, este proceso es fundamental para la detección de tipos de agrietamiento
y huecos en superficies de pavimentos (Opara et al.,2021)

27
Asimismo, para el análisis y desarrollo del sistema inteligente se usará la metodología y
técnica especializada CommonKADS el mismo que garantizará resultados positivos
gracias a los aspectos esenciales que ofrece esta metodología como los niveles
contextuales que abarcan los módulos de la organización, tareas, agentes, así como el
nivel conceptual compuesto por el conocimiento y la comunicación, como último nivel se
encuentra el artefacto que incorpora el diseño (Palma y Morales, 2008), todos estos
niveles y modelos se encuentran relaciones entre si con un objetivo tal como se puede
visualizar en la siguiente gráfica.

Figura 8. Adaptación del esquema general de la metodología CommonKADS. Fuente:


Inteligencia Artificial José T. Palma M. Roque M.

28
A través del esquema CommonKADS, compuesto por tres niveles fundamentales y sus
respectivos módulos permitió gestionar y desarrollar adecuadamente las diferentes
actividades que se aplicaron para el desarrollo del sistema donde se 28 documentó a
través de las plantillas que se encuentran anexas en la sección de anexos.
1. Nivel contextual: se genera un documento detallado sobre los objetivos, así como
otros elementos que se usaran durante el desarrollo del presente proyecto,
considerando los siguientes módulos.

 Modelo de organización (OM): a través de los formularios se recolectará la


información para su análisis basado en el conocimiento y poder identificar los
problemas, así como las oportunidades que existan.
 Modelo de tareas (MT): adquiere las principales tareas que soluciona el
sistema.
 Modelo agente: encargado de ejecutar las tareas ya sea a través de una
persona o un sistema informático, el mismo que deberá detallar las
funciones, características, autorizaciones y limitaciones del agente.

2. Nivel conceptual: describe la estructura, conocimiento y tares que se


implementaran con los siguientes módulos.
 Modelo de conocimiento: señala tipos y estructuras del conocimiento a nivel
de tareas.
 Modelo de comunicaciones: se encargará de interactuar la información entre
el agente involucrado y las tareas.

3. Nivel de artefacto: menciona como pasar del nivel conceptual a la


implementación del software señalando su arquitectura y sistema.
 Módulo de diseño: a través de este módulo encargado de recolectar las
especificaciones técnicas del sistema previo recorrido de los puntos antes
señalados, ya que se detallar la arquitectura del sistema para su
implementación y ejecución del mismo, basados en los conocimientos y
métodos.

29
La metodología Scrum nace por la década de 1990 para administrar procesos que se
desarrollan en la construcción de sistemas compuestos por un equipo de recursos
humanos el cual tiene la finalidad de crear sistemas flexibles y este puede optimizar la
gestión de trabajo en forma sistémica (Soukaina et al., 2021), es así que para el
desarrollo del marco de trabajo se aplicó la metodología ágil Scrum que es muy
utilizada en los proyectos modernos para el desarrollo de software aplicada en
sistemas inteligentes el cual se caracteriza por su trabajo colaborativo en equipo,
integración de varios procesos y por su complejidad en tecnologías innovadoras,
técnicas robustas que permiten mejorar los resultados en base a nuevos enfoques y
soluciones (Prokopenko et al. 2021), definiendo una serie de actividades para ser
ejecutadas durante en el desarrollo del trabajo en base a etapas denominados sprint
(Adel, 2022).

Dueño del producto

Maestro Scrum

El equipo Rev isión yretrospectiva


Sprint de Sprint
24 Hrs

Activ idad 1 Herramienta


Sprint
Sprint
. 1 - 4 semanas
. Herramientas
. Roles, f ases
búsqueda de
información
métodos
técnicas Desglose de
Selección
Activ idad N Metodologías tareas

Infomación y
Pilar de sitsema
Herramientas Trabajoterminado

Figura 9. Adaptación de la metodología SCRUM para el desarrollo del trabajo


(Soukaina et al., 2021), (Shahzad et al., 2022).

30
También, existe el modelo de proceso unificado (RUP) dividida en fases para el
desarrollo de software como la concepción, elaboración, construcción y transición, a
estas fases podríamos aplicar una programación extrema (XP) ya que este procesO
conlleva a niveles extremos en los requerimientos expresados en escenarios a través
de una serie de tareas, generalmente este tipo de proceso son ejecutados por
usuarios en pares donde realizan las buenas prácticas como el desarrollo incremental,
la inclusión del cliente, las personas involucradas en el proyecto, los constantes
cambios y mantener su simplicidad durante la escritura de código (Sommerville, 2011).

Para detectar fallas en estructuras de las calles a través del aprendizaje profundo es
necesario adquirir algunos componentes como: CPU (Central Processing Unit)
Intel(R) Core (TM) i7-10700 (2.90GHz) RAM 16GB con sistema operativo de
Windows 10 basado en (64 bits), para realizar el entrenamiento de las Redes
Neuronales, un teléfono inteligente con cámara integrada de 13MB (Maeda et al.
2018), (Kumar et al. 2021), que nos permitirá recolectar la información (MaXiaohe et
al. 2021), luego de la captura se tendrá se realizar el etiquetado de las imágenes a
través de la herramienta MakeAlphaSense a fin de etiquetar de forma manual las
imágenes en pixel y convertir en formato json; asimismo existe una variedad de
herramientas que permiten el etiquetado (Qiao et al., 2021) tal como se visualiza en
el Anexo 16, para su análisis se usó tecnologías de software libre Python, Tensor
Flow, Keras, Pytorch, YOLOv5, Colab, Google Maps, que nos permitirá estructurar
los algoritmos así como el aplicativo a través de la escritura de códigos, por lo que se
aplicará una investigación Pre- Experimental, que consistirá en capturar datos,
procesar los modelos de segmentación, clasificar imágenes así como el
reconocimiento de formas (Bouguezzi et al. 2021).
Bajo ese concepto de requerimientos es importante mencionar sobre las
herramientas tecnológicas que se usaron durante el desarrollo del sistema
inteligente, así como las librerías que se incorporaron al sistema, en los siguientes
párrafos se describe sobre cada una de ellas.

Python, es un tipo de lenguaje de programación muy usada en la industria

31
tecnológica el cual fue creado por Guido Van Rossum por el año 1989, siendo uno de
los leguajes más usados en el mercado según el reporte de encuestas emitida por la
compañía Tiobe Software (Jansen, 2022), en el cual se recopila información sobre el
uso de los

lenguajes de programación activa hasta el mes de junio de 2022 (Cass, 2021), tal
como se aprecia en la siguiente figura.

CALIFICACIÓN DE LENGUAJE DE PROGRAMAC


IÓN(JUNIO 2022)
12.20%

11.91%

10.47%

9.63%

6.12%

5.42%

2.09%

1.94%

1.85%

1.55%

1.33%

1.32%

1.25%

1.02%

1.02%

0.98%

0.76%

0.76%

0.75%

0.74%
VISUAL BASIC

JAVASCRIPT
C++

RUBY
PERL

LUA
C

R
PHP
CLASSIC VISUAL

DELPHI/OBJEC
C#

GO
SQL

OBJECTIVE-

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
SWIF
PYTHO

ASSEMBLY LANGUAG

PROLO
JAV

TPASCAL
A

BASIC
N

G
C
E

Figura 10. Adaptación del cuadro estadístico sobre la calificación de lenguajes de


programación registrado a junio de 2022, según el reporte emitida por TIOBE.

En la figura anterior se aprecia en primera fila con una calificación de 12.20%


acredita al lenguaje de programación Python, gracias a la cantidad de librerías
disponibles a la población de forma gratuita en su portal oficial
(‘https://www.python.org/’), el cual se utilizó con la importación de diferentes librerías
necesarias para la implementación del sistema inteligente, así como para el
entrenamiento de las redes neuronales, bajo ese contexto la versión aplicada en el

32
proyecto se utilizó Python 3.9.

Asimismo, a través del servicio Colab se realizó la programación y ejecución de


YOLO, así como la de sus librerías de forma óptima el cual garantizó la confiabilidad
gracias a su arquitectura (Opara et al. 2021), asimismo la escritura de código bajo
este servicio de Colab no requiere realizar configuraciones, también se tiene acceso
a GPU´s o Unidad de Procesamiento Gráfico de forma gratuita el cual optimiza el
procesamiento de información en grandes lotes del aprendizaje profundo. No
obstante, el servicio de la compañía Google ofrece una gama de recursos y
productos gratuitos, así como

API´s para incorporar en proyectos, es por ello que se adiciona los servicios de
Google Maps.

Por otro lado la participación de PyTorch fue importante para desarrollar el sistema
inteligente ya que brinda un conjunto de bibliotecas de tensores estructurados
multidimensionales que están especialmente optimizadas para implementar el
presente trabajo de investigación gracias a los aprendizajes profundos de la
inteligencia artificial siendo sus principales características numpy y la redes
neuronales profundas que se utilizan mediante las unidades de procesamiento
gráfico GPU o a través de las unidades central de procesamiento CPU, asimismo
esta arquitectura es muy usada en reconocimiento y detección de clases sobre
estructuras pavimentos como grietas, huecos el cual hace uso de algoritmos de
redes neuronales convolucionales (Arbaoui et al., 2021), (Shim et al., 2020),
sofisticados en la precisión y velocidad del proceso (Qiao et al., 2021).

Asimismo, se utilizó las herramientas tecnológicas que ofrece la compañía esri


fundada por Jack Dangermond como ArcGIS Pro y ArcMap que permitió la edición,
diseño, tratamiento y publicación de información geográfica que está relacionado a la
zona de estudio, también una organización más estructurada sobre la ubicación
geográfica que se requirió para el flujo de trabajo optimizado en la recolección de
capturas de imágenes de las pistas con grietas y huecos.

Para contribuir con el párrafo anterior se utilizaron las herramientas tecnológicas de


Adobe Inc. que se aplicaron en la vectorización, redimensionamiento, creación de
figuras geométricas para el aplicativo y esta tenga como producto de calidad en la
33
estética visual para el usuario. Sin embargo, se complementa con el uso del software
Visual Paradigm en su versión 16.3 donde se estructuró los diferentes procesos para
el desarrollo del aplicativo, así como Bizagui Modeler, Archi – archimate modelling en
su versión 4.8.1 que complementa con el diseño y flujo del trabajo sistémico

Para visualizar y calcular figuras estadísticas se utilizó la herramienta tecnológica de


IBM denominado IBM SPSS Statistics en su versión 26, que permitió extraer

información estadística de forma eficaz el cual contribuye con la precisión de datos,


así como la gestión y análisis requerida para la investigación.

La codificación de código es fundamental para el proceso, en ello se utilizaron las


herramientas como Pycharm Community, Spyder, Anaconda 3, Anaconda Navigator,
Qt Designer, aplicativos esenciales que permitieron organizar, estructurar el flujo de
desarrollo de trabajo, a ello se incorporaron librerías gratuitas como PyQt5, cv2,
Numpy, Keras, PyTorch, Pandas, json, yaml, así como hojas de estilo en sus
formatos css, qss y otras que requeridas en el desarrollo del sistema.

34
35
36
37
38
1
I. MARCO TEÓRICO

Se redacta en prosa y sin subtítulos, es una síntesis de los antecedentes


investigados a nivel nacional e internacional (de preferencia, todos los
antecedentes, deben corresponder a investigaciones publicadas en revistas
indexadas de alto impacto que se encuentren en base de datos Scopus, Scielo y
WOS); las teorías, los enfoques conceptuales donde se enmarca la investigación.

Se sugiere para pregrado de 5 a 7 páginas.

2
II. METODOLOGÍA (Proyecto de investigación cuantitativo)

Mínimo 4 páginas, se redacta en tiempo futuro.

3.1. Tipo y diseño de investigación


3.1.1. Tipo de investigación
Puede ser básica o aplicada (CONCYTEC 2018).

3.1.2. Diseño de investigación

● Diseño experimental: preexperimental, cuasi experimental y


experimental puro.

● Diseño no experimental: transversal descriptivo (simple, comparativo,


correlacional, correlacional causal o predictivo) y explicativo,
longitudinal, estudio de casos, bibliográfico o documental, u otros según
especialidad.

3.2. Variables y operacionalización

Se enuncia la o las variables estudiadas, señalando la categoría de cada


una (Independiente o dependiente, cualitativa o cuantitativa). En anexos se
considerará la tabla de operacionalización de variables, la misma que debe incluir
como mínimo: definición conceptual, definición operacional, indicadores y escala
de medición, considerando el carácter de las variables de las diferentes
disciplinas.

• Definición conceptual: Define la variable en función a la concepción que se


tiene de ésta en la investigación; debe incluir la cita referencial.

• Definición operacional: Detalla la forma en que se va a medir las variables


en estudio. Si es necesario se considerará dimensiones de la variable.

3.3. Población, muestra y muestreo

3.3.1. Población

Está constituida por un conjunto de personas o elementos que


poseen características comunes (criterios de selección: inclusión y
exclusión), que son estudiadas por el investigador, las mismas que
permiten realizar las generalizaciones a partir de la observación de la
muestra. En caso de
3
trabajarse con toda la población, se eliminará el rubro correspondiente a la
muestra.

● Criterios de inclusión: Características que hacen que una persona


o un elemento sean considerados como parte de la población.

● Criterios de exclusión: Condición que no tiene la población y que


origina su exclusión de la investigación; éstos no constituyen la
negación de los criterios de inclusión.

3.3.2. Muestra

Son los elementos de una población; se explica el tamaño de la


muestra y el cómo se determinó ésta. Sustentar que el tamaño de la
muestra guarde relación con el método estadístico, su tipo o diseño de
investigación. La determinación del tamaño de la muestra se considerará
en anexos.

3.3.3. Muestreo

Describe la técnica estadística utilizada para la obtención de la


muestra.

3.3.4. Unidad de análisis

Cada una de las personas o elementos que tienen la misma


característica seleccionados de la población para conformar la muestra.

3.4. Técnicas e instrumentos de recolección de datos

Incluye las técnicas (Encuesta, entrevista o análisis documental) e


instrumentos de recolección de datos (cuestionario, guía de entrevista o ficha de
análisis documental investigación). En aquellos instrumentos o cuestionarios que
requieren la validez de contenido deberán utilizar una matriz de evaluación por
juicio de expertos (Ver Anexo 2) y utilizar la V Aiken para que sustente la validez.
Para la determinación de la confiabilidad utilizar la prueba de Alfa de Cronbach,
Dos mitades de Gutman, KR20 o KR21 según corresponda a la naturaleza de las
variables. Las investigaciones deben demostrar el tipo de validez y confiabilidad
que acredite las propiedades psicométricas para el estudio, indicando el análisis
de datos.

4
3.5. Procedimientos

Describe el modo de recolección de información, la manipulación o control


de variables y las coordinaciones institucionales requeridas para la realización de
la investigación, cuyo documento de aceptación debe ser incluido en anexos.

3.6. Método de análisis de datos

Incluye el método de procesamiento y análisis de datos indicando el


estadístico que utilizará considerando el diseño del estudio; además el software
que ha permitido el procesamiento de los datos.

3.7. Aspectos éticos

Describe los criterios (nacionales e internacionales) que se utilizan para


garantizar la calidad ética de la investigación, explicando la aplicación de los
principios éticos (beneficencia, no maleficencia, autonomía y justicia), según
corresponda. Debe considerar los formatos de consentimiento o asentimiento
informado en su investigación, según corresponda (Ver Anexos 3, 4 y 5).

5
III. ASPECTOS ADMINISTRATIVOS

Mínimo 4 páginas.

4.1. Recursos y presupuesto

Son los gastos que se invierten en el proyecto de investigación. Para la


codificación de los gastos se utiliza el clasificador de gastos del Ministerio de
Economía y Finanzas del año fiscal.

● Recursos Humanos: Se describe el personal que participará en el trabajo


de investigación: personal técnico, administrativo y de servicio, asesores,
etc. Para proyectos con financiamiento externo detallar incentivos
monetarios de los investigadores, pago a tesistas, honorarios para personal
técnico o gestor tecnológico de investigación si fuera el caso.

● Equipos y bienes duraderos: En caso se adquieran equipos se debe


detallar el monto de compra, instalación, puesta en operación, capacitación
del personal en el uso de equipos adquiridos.

● Materiales e insumos: Incluye la compra de materiales, insumos, reactivos,


accesorios, componentes electrónicos o mecánicos, bienes no
inventariables; también la compra de material bibliográfico como manuales,
bases de datos, libros especializados, otros, y/o suscripciones a redes de
información (en físico o electrónico) o software especializado para el
desarrollo de los proyectos de investigación.

● Asesorías especializadas y servicios: Se precisan los gastos programados


por servicios de laboratorio, recolección de datos, procesamiento de
muestras, análisis y diseño, si fuera el caso.

● Gastos operativos: Corresponden a gastos recurrentes de las actividades


de apoyo a la administración del proyecto: útiles de oficina, impresiones y
viajes relacionados a trabajos de campo. Para proyectos con
financiamiento externo, incluir otros gastos logísticos del proyecto como: El
incentivo monetario para el coordinador administrativo, pasantías,
participación en eventos científicos, costo de publicación de artículos
científicos en revistas

6
indizadas, gastos para registro de propiedad intelectual y otras actividades
propias del proyecto si fuese incluido en el financiamiento.

En lo que corresponda al aporte no monetario (valorizado) se tendrá́ en


cuenta lo siguiente:

Rubros Aporte no monetario

Se valora el uso de los equipos y bienes


duraderos de la entidad adquiridos con
Equipos y bienes duraderos
anterioridad al proyecto según su vida útil.

Puede incluir el salario o la dedicación de


tiempo (en horas) de los investigadores,
Recursos humanos
personal técnico, que participarán en el
proyecto de investigación según lo soliciten
las bases del financiamiento externo.

Materiales e insumos, asesorías Se valoran según su costo actual en el


especializadas y servicios, mercado.
gastos operativos

En lo que corresponda al aporte monetario se tendrá́ en cuenta lo siguiente:

Rubros Aporte monetario

Equipamiento para investigación que se va


a adquirir a partir del proyecto.
Equipos y bienes duraderos

Honorarios o salario de los investigadores,


gestor tecnológico o técnicos adicionales,
que participarán en el o los proyectos de
investigación o desarrollo tecnológico.
Incentivo adicional que la Entidad Solicitante

Recursos humanos contemple para el investigador a integrar al

7
proyecto. Gastos relacionados a su
incorporación en planilla de ser el caso.

Materiales e insumos, Pagos o compras realizadas con relacióna


asesorías especializadas y la ejecución de la propuesta.
servicios, gastos operativos

4.2. Financiamiento

Se refiere a cómo se van a cubrir los gastos de la investigación, puede ser


autofinanciado (por el autor), financiado por la UCV a través de un fondo de apoyo
a la investigación, o financiado por alguna entidad pública o privada. Si es
necesario se especifica la asignación porcentual de cada una de las fuentes de
financiamiento.

Entidad financiadora Monto Porcentaje

4.3. Cronograma de ejecución

Se señala en función del tiempo en que se van a realizar cada una de las
actividades programadas para el trabajo de investigación. Se recomienda emplear
el diagrama de Gantt. El cronograma del proyecto debe iniciar con la aprobación
del proyecto y finalizar con la elaboración del artículo científico en la experiencia
curricular de desarrollo de proyecto de investigación.

8
Se presenta el siguiente ejemplo:

Año

Nº ACTIVIDADES
S1 S2 S3 S4 S5 S15 S16

9
REFERENCIAS

Es la lista de fuentes citadas en el estudio que deben ser redactadas según


normas internacional dependiendo el área de conocimiento: programas de
estudios de Humanidades, Derecho y Psicología según Norma APA-7; programas
de estudio de Ciencias de la Salud (Excepto Psicología) según Normas de
Vancouver y para programas de estudio de Ingeniería y Arquitectura según
Normas ISO; considerando, además, de manera obligatoria los siguientes
criterios:

● La cantidad mínimo de referencias en pregrado son 30 referencias.

● Por lo menos el 70% del total de las referencias deben ser de los últimos 7
años, salvo casos que sean sustentados debidamente por el asesor, sin
embargo, se recomienda priorizar siempre las referencias más actuales.

● Por lo menos el 70% de las referencias debe corresponder a artículos de


revistas científicas indexadas; si la disciplina lo permite, se sugiere el uso a
totalidad de artículos científicos para facilitar su publicación en una base de
datos de alto impacto.

● El 30% de las referencias pueden ser libros, tesis, resúmenes de


congresos, jurisprudencia u otros.

● Por lo menos el 40% del total de las referencias deben ser en inglés, sin
embargo, se recomienda priorizar el uso de la totalidad de referencias en
inglés u otro idioma extranjero. En derecho, debido a la peculiaridad de la
disciplina, se recomienda uso de al menos el 20% de referencias en inglés.

10
ANEXOS

Conformado de manera obligatoria por:

● Anexo 1. Tabla de operacionalización de variables o Tabla de


categorización (según corresponda)

● Anexo 2. Instrumento de recolección de datos

● Anexo 3: Evaluación por juicio de expertos

● Anexo 4: Modelo del consentimiento o asentimiento informado UCV.

● Anexo 5: Resultado de reporte de similitud de Turnitin

Según corresponda, también se incluirá: Cálculo del tamaño de la muestra,


validez y confiabilidad de los instrumentos de recolección de datos, autorización
de aplicación del instrumento firmado por la respectiva autoridad, consentimiento
informado, cuadros, figuras, fotos, planos, documentos o cualquier otro que ayude
a esclarecer más la investigación, etc.

Tabla de operacionalización de variables

Variables Definición Definición Escala de


Dimensión Indicadores
de estudio conceptual operacional medición

Agregar Dimensiones e indicadores siempre y cuando la variable lo requiera

11

También podría gustarte