Documentos de Académico
Documentos de Profesional
Documentos de Cultura
FACULTAD DE INGENIERÍA
Carrera de Ingeniería de Sistemas Computacionales
Autor:
Divad Jair Masgo Ferreyra
Asesor:
Mg. Richerd Homero Rodas Cueva
Lima - Perú
2020
IMPLEMENTACIÓN DE UN SISTEMA WEB BASADO EN VISIÓN ARTIFICIAL Y
GEOLOCALIZACIÓN, Y SU INFLUENCIA EN LA VIGILANCIA
DEL DISTRITO DE LINCE, 2020.
El asesor Mg. Richerd Homero Rodas Cueva, Docente de la Universidad Privada del Norte,
Facultad de Ingeniería, Carrera profesional de INGENIERÍA DE SISTEMAS
COMPUTACIONALES, ha realizado el seguimiento del proceso de formulación y
desarrollo de la investigación del estudiante:
• DIVAD JAIR MASGO FERREYRA
_____________________________________
Mg. Richerd Homero Rodas Cueva
Asesor
Calificativo: Calificativo:
( ) Excelente [18 -20] ( ) Excelente [18 -20]
( ) Sobresaliente [15 - 17] ( ) Sobresaliente [15 - 17]
( ) Buena [13 - 14] ( ) Buena [13 - 14]
( ) Desaprobación
Firman en señal de conformidad
DEDICATORIA
AGRADECIMIENTO
ÍNDICE DE CONTENIDOS
ACTA DE AUTORIZACIÓN PARA PRESENTACIÓN DEL TRABAJO DE INVESTIGACIÓN ......ii
ACTA DE EVALUACIÓN DEL TRABAJO DE INVESTIGACIÓN ................................................. iii
DEDICATORIA .............................................................................................................................iv
AGRADECIMIENTO ...................................................................................................................... v
ÍNDICE DE CONTENIDOS ...........................................................................................................vi
ÍNDICE DE TABLAS ................................................................................................................... viii
ÍNDICE DE FIGURAS ...................................................................................................................ix
ÍNDICE DE ECUACIONES ...........................................................................................................xi
RESUMEN.................................................................................................................................... xii
CAPÍTULO I. INTRODUCCIÓN .................................................................................................. 13
1.1. Bases Teóricas ............................................................................................................ 13
1.1.1. Bases Teóricas de la variable Sistema Web basado en Visión Artificial y
Geolocalización .................................................................................................................... 13
1.1.2. Bases Teóricas de la variable Vigilancia ............................................................. 42
1.1.3. Bases Teóricas de la dimensión Modelo de Comportamiento ............................ 49
1.1.4. Bases Teóricas de la dimensión Modelo de Implementación ............................. 54
1.1.5. Bases Teóricas de la dimensión Modelo de Actuación ....................................... 56
1.2. Antecedentes ............................................................................................................... 58
1.2.1. Antecedentes internacionales ............................................................................. 58
1.2.2. Antecedentes nacionales .................................................................................... 61
1.2.3. Antecedentes locales .......................................................................................... 65
1.3. Realidad problemática ................................................................................................. 70
1.4. Formulación del problema ........................................................................................... 73
1.4.1. Problema General ............................................................................................... 73
1.4.2. Problemas Específicos ........................................................................................ 73
1.5. Objetivos ...................................................................................................................... 73
1.5.1. Objetivo general .................................................................................................. 73
1.5.2. Objetivos específicos........................................................................................... 73
1.6. Hipótesis ...................................................................................................................... 73
1.6.1. Hipótesis general ................................................................................................. 73
1.6.2. Hipótesis específicas ........................................................................................... 73
CAPÍTULO II. METODOLOGÍA ................................................................................................... 74
2.1. Tipo de investigación ................................................................................................... 74
2.2. Población y muestra .................................................................................................... 75
2.3. Técnicas, instrumentos y procedimientos de recolección de datos ............................ 76
2.4. Métodos, instrumentos y procedimientos de análisis de datos ................................... 78
2.5. Procedimiento.............................................................................................................. 79
2.6. Aspectos éticos ........................................................................................................... 79
CAPÍTULO III. RESULTADOS .................................................................................................... 80
3.1. Prueba de normalidad ................................................................................................. 80
3.2. Análisis descriptivo ...................................................................................................... 81
3.2.1. Análisis descriptivo de la variable Vigilancia preprueba ..................................... 81
ÍNDICE DE TABLAS
Página
Tabla n.° 1. Comparación entre líderes de mercado en APIs de visión ..................................... 36
Tabla n.° 2. Primera generación de los sistemas de vigilancia inteligentes ............................... 43
Tabla n.° 3. Segunda generación de los sistemas de vigilancia inteligentes ............................. 44
Tabla n.° 4. Tercera generación de los sistemas de vigilancia inteligentes ............................... 45
Tabla n.° 5. Competencia de los Gobiernos Locales en materia de Seguridad Ciudadana ....... 48
Tabla n.° 6. Número total de efectivos policiales y serenos por habitante ................................. 72
Tabla n.° 7. Diseño de un solo grupo con preprueba y posprueba............................................. 74
Tabla n.° 8. Cálculo de la confiabilidad ....................................................................................... 77
Tabla n.° 9. Ficha técnica de recolección de datos .................................................................... 77
Tabla n.° 10. Expertos que validaron el instrumento de recolección de datos ........................... 78
Tabla n.° 11. Resumen de procesamiento de casos .................................................................. 80
Tabla n.° 12. Pruebas de normalidad .......................................................................................... 80
Tabla n.° 13. Resultados preprueba de la variable Vigilancia .................................................... 81
Tabla n.° 14. Resultados preprueba de la dimensión Modelo de Comportamiento ................... 82
Tabla n.° 15. Resultados preprueba de la dimensión Modelo de Actuación .............................. 83
Tabla n.° 16. Resultados posprueba de la variable Vigilancia ................................................... 84
Tabla n.° 17. Resultados posprueba de la dimensión Modelo de Comportamiento ................... 85
Tabla n.° 18. Resultados posprueba de la dimensión Modelo de Actuación .............................. 86
Tabla n.° 19. Resultados preprueba y posprueba de la variable Vigilancia ............................... 87
Tabla n.° 20. Resultados preprueba y posprueba de la dimensión Modelo de Comportamiento
..................................................................................................................................................... 88
Tabla n.° 21. Resultados preprueba y posprueba de la dimensión Modelo de Actuación ......... 89
Tabla n.° 22. Resultados de la prueba de hipótesis general ...................................................... 91
Tabla n.° 23. Resultados de la prueba de hipótesis de la dimensión Modelo de Comportamiento
..................................................................................................................................................... 92
Tabla n.° 24. Resultados de la prueba de hipótesis de la dimensión Modelo de Actuación ...... 93
Tabla n.° 25. Matriz de Consistencia ....................................................................................... 104
Tabla n.° 26. Matriz de Operacionalización de Variables ......................................................... 106
Tabla n.° 27. Matriz de preguntas e índices .............................................................................. 109
Tabla n.° 28. Base de datos de la prueba piloto ....................................................................... 110
Tabla n.° 29. Base de datos de la dimensión Modelo de Comportamiento preprueba ............ 120
Tabla n.° 30. Base de datos de la dimensión Modelo de Actuación preprueba ....................... 121
Tabla n.° 31. Base de datos de la variable Vigilancia preprueba ............................................. 122
Tabla n.° 32. Base de datos de la dimensión Modelo de Comportamiento posprueba ............ 123
Tabla n.° 33. Base de datos de la dimensión Modelo de Actuación posprueba....................... 124
Tabla n.° 34. Base de datos de la variable Vigilancia posprueba ............................................. 125
ÍNDICE DE FIGURAS
Página
Figura n.° 1. Esquema básico de una aplicación web ................................................................ 13
Figura n.° 2. Diagrama de bloques de las etapas típicas en un sistema de visión artificial ....... 15
Figura n.° 3. Esquema del sistema de visión artificial ................................................................. 15
Figura n.° 4. Relación entre dispositivos y el computador .......................................................... 17
Figura n.° 5. Esquema de funcionamiento de un filtro ................................................................ 17
Figura n.° 6. Ejemplo de segmentación identificando un texto ................................................... 18
Figura n.° 7. Esquema general de funcionamiento de un clasificador ........................................ 18
Figura n.° 8. Representación del problema de correspondencia en la visión estéreo................ 19
Figura n.° 9. Proyección perspectiva. ......................................................................................... 20
Figura n.° 10. Dispersión de luz al golpear una superficie y óptica de la lente. ......................... 20
Figura n.° 11. Matriz de filtro de color Bayer. .............................................................................. 20
Figura n.° 12. Algunas operaciones de procesamiento de imágenes más comunes. ................ 21
Figura n.° 13. Variedades de detectores de características y descriptores pueden ser usados
para analizar, describir y coincidir imágenes. ............................................................................. 22
Figura n.° 14. Algunas imágenes populares de técnicas de segmentación. .............................. 23
Figura n.° 15. Calibración y alineamiento geométrico. ............................................................... 24
Figura n.° 16. Estructura de sistemas de movimiento ................................................................ 25
Figura n.° 17. Estimación de movimiento. ................................................................................... 26
Figura n.° 18. Costura de imágenes ........................................................................................... 27
Figura n.° 19. Fusión de exposiciones múltiples para crear imágenes de alto rango dinámico. 28
Figura n.° 20. Fusionar fotografías con flash y sin flash. ............................................................ 28
Figura n.° 21. Mateado y composición de imagen. ..................................................................... 28
Figura n.° 22. Llenado de agujeros con pintura. ......................................................................... 28
Figura n.° 23. Par de imágenes con desplazamiento ................................................................. 29
Figura n.° 24. Un trazador estéreo analítico generando diagramas de contorno. ...................... 30
Figura n.° 25. Imagen sombreada ............................................................................................... 30
Figura n.° 26. Gradiente de texturas ........................................................................................... 31
Figura n.° 27. Escanear una escena con una sombra de palo. .................................................. 31
Figura n.° 28. Fusión de mapas de rango en un modelo 3D. ..................................................... 31
Figura n.° 29. Modelado automatizado en 3D de un edificio, rostro y cuerpo. ........................... 32
Figura n.° 30. Vista 3D de una reconstrucción de Photo Tourism. ............................................. 32
Figura n.° 31. Detección de rostros en tiempo real. .................................................................... 33
Figura n.° 32. Reconocimiento basado en características y regiones. ....................................... 33
Figura n.° 33. API Vision de Google ........................................................................................... 34
Figura n.° 34. Comparación de características entre APIs populares de cómputo en la nube. . 38
Figura n.° 35. Geolocalización en diversos dispositivos con API Maps ..................................... 40
Figura n.° 36. Plataforma Bing Maps de Microsoft...................................................................... 40
Figura n.° 37. Plataforma Bing Maps de Microsoft...................................................................... 41
ÍNDICE DE ECUACIONES
Página
Ecuación n.° 1. Fórmula Coeficiente Alfa de Cronbach .............................................................. 77
RESUMEN
La presente investigación tiene como objetivo determinar la influencia que existe al implementar
un sistema web basado en visión artificial y geolocalización, y su influencia en la vigilancia de las
zonas vecinales del distrito de Lince en el año 2020. Para lograr este objetivo, se emplearon
herramientas tecnológicas, innovadoras y algoritmos potentes, que funcionan a través de
servicios web proporcionados por empresas como Google y Microsoft. Algunas de las funciones
empleadas son el reconocimiento de rostros, detección de objetos y reconocimiento de
caracteres.
CAPÍTULO I. INTRODUCCIÓN
1.1. Bases Teóricas
1.1.1. Bases Teóricas de la variable Sistema Web basado en Visión
Artificial y Geolocalización
1.1.1.1. Definición de Sistema Web
Un sistema o aplicación basada en la web emplea componentes estandarizados que contribuyen
a su desarrollo haciéndolo más simple. El cliente, el servidor web y el protocolo (en este caso
HTTP) se encuentran previamente estandarizados y se comunican a través de Internet como se
muestra en la figura n° 1 (Luján, 2002, citado por Grandez, 2018).
Del mismo modo, Idárraga (2016) manifiesta que su nombre se debe a que emplea la
red para su ejecución haciendo que los contenidos alojados en la web sean accedidos desde un
ordenador mediante una conexión a internet.
Molina, Zea, Contento y García (2017), mencionan que las aplicaciones web son
herramientas que permiten efectuar operaciones desde un ordenador por medio de Internet
logrando aminorar el tiempo usado para cada actividad, además remarca que esta característica
ha permitido la aceptación y usabilidad por parte de los usuarios de este tipo de software. En ese
sentido, también permite el acceso simultaneo de usuarios a sus operaciones mediante la
composición de tareas relacionadas a la base de datos. (p.58)
Algo semejante ocurre con lo afirmado por Caivano y Villoria (2009) citado por Molina et.
al. (2017) acerca de las aplicaciones web, estas generan dinámicamente unas páginas en un
formato estandarizado como HTML y XHML los cuales son soportados por los navegadores web
comunes.
Esto nos lleva a deducir que los sistemas o aplicaciones web están hechos con el objetivo
de ser usables y desarrollados mediante el uso de estándares tanto en la comunicación como en
el proceso, empleando técnicas de centralización, accesibilidad y simultaneidad que demuestra
una ventaja frente a otras tecnologías.
Por otro lado, Szeliski (2010) sostiene que la visión artificial tiene un enfoque humano
orientado a la percepción ya que percibimos la estructura tridimensional del mundo en el que
vivimos con mucha facilidad. Además, nos ilustra una situación cotidiana que nos muestra cómo
podemos percibir características tan complejas como la forma y transparencia de los pétalos de
un simple jarrón de flores, incluso de reconocer sutiles patrones de luz y sombreado. Incluso al
mirar un retrato de grupo enmarcado, se puede contar y nombrar fácilmente a todas las personas
en la imagen adivinando sus emociones desde su aspecto facial.
Además, se definen dos términos equivalentes “la visión artificial o visión por computador
es la ciencia y la tecnología que permite a las ‘máquinas’ ver, extraer información de las imágenes
digitales, resolver alguna tarea o entender la escena que están visionando”. (García, 2012, p.5)
Figura n.° 2. Diagrama de bloques de las etapas típicas en un sistema de visión artificial
fuente: (Vélez et al., 2003, p. 19)
pretende distinguir los objetos segmentados, por medio del análisis de ciertas
Por otra parte, Loaiza et al. (2012) describe en un esquema el proceso general de visión
artificial (figura n.° 3) que consta en adquisición de imágenes, segmentación, descripción, y
detección de movimiento y seguimiento.
Según el esquema mostrado en la figura n.° 3, Loaiza et al. (2012) describe los siguientes
procesos: El primer proceso se denomina adquisición de imágenes, el cual comprende la captura
de imágenes de los tipos de intensidad, alcance y las térmicas, las cuales siempre se obtiene
una matriz 2D de valores. El segundo, se refiere a la segmentación, que consiste en la división
de una imagen digital en regiones similares en relación a características específicas, con el fin
de analizar más fácilmente. La descripción, el tercer proceso, toma las regiones de interés para
extraer propiedades o atributos para la identificación de estructuras consideradas necesarias
para su uso en las aplicaciones. Por último, la detección de movimiento y seguimiento se refiere
a las tareas que: establecen la diferencia entre el fondo de la escena y los objetos en movimiento;
distinguir esos objetos identificándolos como persona o el tipo de interés; y finalmente realizar el
seguimiento a dichos objetos a través de la escena. (pp. 89-91)
Los enfoques de Vélez et al. (2003) y Loaiza et al. (2012) coinciden en que existen cuatro
procesos necesarios para desarrollar la visión artificial, asimismo mencionan los procesos de
captura y segmentación con una diferencia en la etapa final, ya que Loaiza et al. (2012) no solo
considera el reconocimiento, sino que hace énfasis en el seguimiento a través de la escena.
Por un lado, Vélez et al. (2003) clasifica la visión artificial en cinco procesos:
Este proceso comprende las cualidades principales de la fase que involucra a la captura y
digitalización de una imagen, la adquisición de la misma del mundo físico y su progreso hacia el
dominio discreto y virtual. Asimismo, Vélez et al. (2003) sostiene que una imagen bidimensional
digital está conformada por un conjunto píxeles, que a su vez cada uno provee información sobre
una zona específica de la imagen. En el caso de imágenes conformadas por escalas de gris,
está relacionada al brillo. Por otro lado, en las imágenes a color se puede obtener mediante la
intensidad individual de los componentes que conforman el modelo cromático como el RGB. A
su vez, se encuentran involucradas técnicas de compresión dedicadas a encontrar la manera
más eficiente de almacenar imágenes. Por último, este proceso abarca también las relaciones
esenciales entre píxeles que es posible conformar en una imagen. (Vélez et al., 2003, p. 23)
Esto nos hace deducir que la elección del dispositivo de captura relacionada al
computador (figura n.° 4) y uso que se le quiera dar, influye de sobremanera en el resultado de
este nivel.
También con respecto a este nivel, Vélez et. al. (2003) dice que este proceso abarca las
operaciones y transformaciones que se ejecutan en las imágenes digitales antes de la
segmentación y reconocimiento; de tal modo que tiene por finalidad enriquecer o acentuar algún
componente de la imagen, haciendo posible que las siguientes etapas de segmentación y
clasificación se desarrollen lo más simple posible. Por otro lado, la teoría de filtros explica parte
de las operaciones involucradas en este proceso; en ese sentido, un filtro se podría definir como
una forma de cambio o transformación asociada a una señal de entrada, que mediante la
transferencia logra una señal de salida como se muestra en la figura n.° 5., estas comúnmente
pueden ser sonidos o imágenes. (p. 61)
Segmentación
Vélez et al. (2003) afirma que en este proceso se obtienen regiones homogéneas a partir de una
imagen digital, tomando en cuenta algunas propiedades tales como el brillo o el color, con la
misión de simplificar su análisis posterior y reconocimiento. Por ejemplo, al encontrar en una
fotografía el rostro de una persona o los límites de un texto determinado como se observa en la
figura n.° 6. (p. 111)
A pesar de que existen diferentes maneras para realizar este proceso, podemos crear
técnicas a medida obedeciendo al problema elegido ya que cuenta con reglas estrictas.
Adicionalmente, se consideran métodos que permiten segmentar objetos independientemente
de la posición y escala con la finalidad de afrontar algunos inconvenientes en la descripción de
los objetos que resulten de este proceso. (Vélez et al., 2003, citado por Loaiza et al., 2012, p. 90)
Clasificadores
Para comprender este proceso, Vélez et al. (2003) emplea el concepto de clases que mediante
diferentes algoritmos nos ayudan clasificar los elementos determinados que se encuentra dentro
de una escena para poder entenderla. Estos algoritmos tienen el trabajo de diferenciar entre
múltiples objetos sobre un universo de trabajo. Los clasificadores son métodos que permiten
precisar automáticamente la pertenencia de determinados objetos de un conjunto a una clase
(figura n°. 7). (p. 151)
Con esta información podremos hacer una correspondencia para efectos de esta
investigación: objeto (elemento determinado en la vía), universo de trabajo (calles del distrito) y
clases (vehículos, peatones, señales de tránsito, etc.).
Visión tridimensional
Vélez et al. (2003) manifiesta que la adquisición de un sistema en tres dimensiones de una
escena se manifiesta como uno de los mayores desafíos. La reconstrucción tridimensional para
algunos seres vivos es tan cotidiana como respirar, sin embargo, comprende la(s) proyección(es)
de un escenario real en zonas fotosensibles. Para formular el problema de una manera más
básica, emplea el método del par estereoscópico mostrado en la figura n.° 8. (p. 187)
Por otro lado, Szeliski (2010) propone trece procesos para esta clasificación de la visión artificial:
Formación de imágenes
Figura n.° 10. Dispersión de luz al golpear una superficie y óptica de la lente.
fuente: (Szeliski, 2010, p. 30)
Por último, se configura el proceso que involucra la conversión de las imágenes de color
continuo en muestras digitales discretas dentro del sensor de imagen (figura n.° 11) y evitar las
deficiencias de muestreo, como el “aliasing”.
Figura n.° 13. Variedades de detectores de características y descriptores pueden ser usados
para analizar, describir y coincidir imágenes.
fuente: (Szeliski, 2010, p. 206)
Otras clases de características igual de importantes son los bordes, por ejemplo, el perfil
de las montañas contra el cielo. Es posible combinar este tipo de características según su
orientación y apariencia local (perfiles de borde), y además pueden ser buenos indicadores de
los límites de los objetos y eventos de oclusión en secuencias de imágenes. Los bordes se
pueden agrupar en curvas más largas y segmentos de línea recta, que se pueden emparejar o
analizar directamente para encontrar puntos de fuga y, por lo tanto, parámetros de la cámara
interna y externa.
Segmentación
(a) contornos
activos;
(b) ajustes de
niveles;
(c) fusión basada
en gráficos;
(d) cambio medio;
(e) textura y cortes
intervenidos
basados en el
contorno
normalizado;
(f) MRF binario
resuelto mediante
gráficos.
Dado que la teoría sobre segmentación de imágenes es tan extensa, una buena forma
de manejar algunos de los algoritmos de mejor rendimiento es observar las comparaciones
experimentales en bases de datos con etiquetas humanas (Arbeláez, Maire, Fowlkes et al.,
2010). El más conocido de estos es Berkeley Segmentation Dataset y Benchmark (Martin,
Fowlkes, Tal et al., 2001), que consta de 1000 imágenes pertenecientes a un conjunto de datos
de Corel, las mismas que fueron etiquetadas a mano por 30 sujetos humanos.
Luego de extraer las características de las imágenes, Szeliski (2010) manifiesta que la siguiente
etapa descrita en muchos algoritmos de visión es hacer coincidir estas características en
diferentes imágenes. Un componente importante de este emparejamiento es verificar si el
conjunto de características coincidentes es geométricamente consistente, por ejemplo, si los
(a) alineamiento
geométrico de
imágenes en 2D
para coser;
(b) un objetivo de
calibración
bidimensional;
(c) calibración
desde puntos de
fuga;
(d) escena con
líneas fáciles de
encontrar y
direcciones de
desaparición.
A diferencia de la alineación de puntos en 2D y 3D que pueden ser usados para los parámetros
de calibración de las cámaras, la estructura de movimiento trata del problema de la estimación
de ubicaciones de los puntos 3D a partir de múltiples imágenes, dando como resultado un
conjunto escaso de coincidencias entre las características de la imagen. (Szeliski, 2010, p.345)
Según Ullman (1979) citado por Szeliski (2010), a pesar de que este proceso a menudo
implica la estimación simultanea de la geometría 3D (estructura) y la posición de la cámara
(movimiento), es conocido como la estructura del movimiento. Además, la geometría proyectiva
y la estructura del movimiento constituyen temas muy enriquecedores para diversos autores de
libros y encuestas.
Szeliski (2010) también manifiesta que los algoritmos para alinear imágenes y estimar el
movimiento en secuencias de video se encuentran entre los más utilizados en la visión artificial.
Por ejemplo, la alineación de imagen de velocidad de fotogramas es empleada en videocámaras
y cámaras digitales para implementar su función de estabilización de imagen (IS). Algunos
autores (Lucas y Kanade, 1981; Le Gall, 1991 citados por Szeliski) indicaron que un caso de un
algoritmo de registro de imágenes constantemente utilizado es la técnica de alineación
traslacional basada en parches (flujo óptico) como se aprecia en la figura n°.17, además
manifiestan que existen variantes de este algoritmo que se usan en casi todos los esquemas de
compresión de video con compensación de movimiento tales como MPEG y H.263. Algunos
algoritmos similares de estimación de movimiento paramétrico han encontrado una amplia
variedad de aplicaciones, incluidos los resúmenes de video, video estabilización y la compresión
de video. También se han desarrollado algoritmos de registro de imágenes más sofisticados para
imágenes médicas y teledetección. (p.383)
Asimismo, Szeliski (2010) manifiesta que los algoritmos para alinear imágenes y unirlas en foto
mosaicos sin costura, se encuentran entre las más antiguas y más utilizadas en la visión artificial
como las de Miligram en 1975 y Peleg en 1981. Los algoritmos de costura de imagen crean los
mosaicos fotográficos de alta resolución utilizados para producir los mapas digitales y fotografías
de satélite actuales. También vienen con la mayoría de las cámaras digitales y se pueden usar
para crear hermosas panorámicas ultra gran angular.
(a) porción de un
panorama
cilíndrico;
(b) panorama
esférico construido
con 54 fotografías;
(c) panorama de
múltiples imágenes
ensamblado
automáticamente a
partir de una
colección de fotos
desordenadas;
(d) sin movimiento;
(e) con eliminación
de objetos en
movimiento.
Szeliski (2010) sostiene también que, al combinar múltiples imágenes en panoramas de amplio
campo de visión, podemos crear fotografías que no podrían capturarse con una cámara normal.
Así pues, el mismo autor dice que la fotografía computacional implica el análisis de imágenes y
los algoritmos de procesamiento que se aplican a una o más fotografías para crear imágenes
que van más allá de las capacidades de los sistemas de imágenes tradicionales. Algunas de
estas técnicas ahora se están incorporando directamente en cámaras digitales. Por ejemplo,
algunas de las cámaras digitales más recientes tienen modos de barrido panorámico y toman
varias tomas en condiciones de poca luz para reducir el ruido de la imagen.
Figura n.° 19. Fusión de exposiciones múltiples para crear imágenes de alto rango dinámico.
fuente: (Szeliski, 2010, p. 468)
Otro campo de análisis comprende a los operadores de mapeo de tonos, que vuelven a
mapear imágenes ricas en dispositivos de visualización normales, como pantallas e impresoras,
así como algoritmos que combinan imágenes con y sin flash para obtener mejores exposiciones
(figura n.° 20).
Además, podemos encontrar algunos algoritmos para cortar trozos de imágenes de una
fotografía y pegarlas en otras (figura n.° 21).
También debemos conocer cómo generar nuevas texturas a partir de muestras del
mundo real para aplicaciones tales como rellenar agujeros en imágenes (figura n.° 22).
Desde las primeras investigaciones sobre la percepción visual, se sabía que percibimos
la profundidad en función de lo que vemos diferente entre el ojo izquierdo y el derecho. Lo
podemos comprobar simplemente manteniendo el dedo verticalmente frente a los ojos y cerrando
cada ojo alternativamente. Notará que el dedo salta hacia la izquierda y hacia la derecha con
respecto al fondo de la escena. El mismo fenómeno es visible en el par de imágenes de la figura
n.° 23, en el que los objetos del primer plano se desplazan hacia la izquierda y hacia la derecha
en relación con el fondo.
Reconstrucción 3D
Según Szeliski (2010) debemos considerar que la coincidencia estéreo desarrolla diversas
técnicas para reconstruir modelos 3D de alta calidad a partir de dos o más imágenes, por
consiguiente, dice que el estéreo corresponde principalmente a una de las muchas señales
potenciales que se pueden usar para inferir la forma de las imágenes. A su vez manifiesta que
la reconstrucción 3D abarca varias de estas técnicas, que incluyen no solo indicaciones visuales
como sombreado y enfoque, sino también técnicas para fusionar imágenes de rango múltiple o
profundidad en modelos 3D, así como técnicas para reconstruir modelos especializados, como
cabezas, cuerpos o arquitectura. Entre las diversas señales que pueden usarse para inferir la
forma, el sombreado en una superficie (figura n.° 25) puede proporcionar mucha información
sobre las orientaciones de superficie locales y, por lo tanto, sobre la forma general de la
superficie. Este enfoque se vuelve aún más poderoso cuando las luces que brillan desde
diferentes direcciones se pueden encender y apagar por separado considerado “photometric
stereo”. (p.579)
Además, sostiene sobre los gradientes de textura (figura n.° 26) que el acortamiento de
los patrones regulares a medida que la superficie se inclina o se dobla alejándose de la cámara,
pueden proporcionar indicaciones similares sobre la orientación de la superficie local. El enfoque
es otra indicación poderosa para la profundidad de la escena, especialmente cuando se usan
dos o más imágenes con diferentes configuraciones de enfoque.
Sobre las formas 3D dice que también se pueden estimar utilizando técnicas de
iluminación activa como franjas de luz (figura n.° 27) o buscador de rango de tiempo de vuelo.
Figura n.° 27. Escanear una escena con una sombra de palo.
fuente: (Szeliski, 2010, p. 578)
Los modelos obtenidos aplicando las técnicas mencionadas anteriormente pueden luego
fusionarse en otros modelos de superficie 3D más coherentes (figura n.° 28). Dichas técnicas se
han utilizado para construir modelos de patrimonio cultural muy detallados y precisos, como sitios
históricos.
El modelado 3D puede ser más eficiente y efectivo si sabemos algo sobre los objetos
que estamos tratando de reconstruir. Además, podemos observar tres ejemplos especializados
(figura n.° 29), pero de ocurrencia común, a saber, la arquitectura, las cabezas y los rostros, y
los cuerpos completos. Cabes señalar que además de modelar personas, también es posible
emplear técnicas para rastrearlas.
Además, Szeliski (2010) manifiesta que el renderizado basado en imágenes se convirtió en una
de las aplicaciones más interesantes de la visión computacional, debido a que las técnicas de
reconstrucción 3D de la visión artificial se combinan con técnicas de renderizado de gráficos por
computadora que utilizan vistas múltiples de una escena para crear experiencias interactivas de
realismo fotográfico, como el sistema Photo Tourism que se muestra en la figura n.° 30.
Reconocimiento
De todas las tareas visuales que podemos pedirle a una computadora que realice como analizar
una escena y reconocer todos los objetos integrantes sigue siendo la más desafiante. Mientras
que las computadoras se destacan por reconstruir con precisión la forma 3D de una escena a
partir de imágenes tomadas desde diferentes vistas, no pueden nombrar todos los objetos y
animales presentes en una imagen, incluso a nivel de un niño de dos años. Ni siquiera hay
consenso entre los investigadores sobre cuándo se puede lograr este nivel de rendimiento. En
ese sentido, partiendo de la dificultad del reconocimiento, podemos comprender que el mundo
real está hecho de un revoltijo de objetos, que se obstruyen entre sí y aparecen en diferentes
posiciones. Además, la variabilidad propia de una clase, debido a una articulación compleja no
rígida y variaciones extremas en forma y apariencia como la diferenciación entre distintas razas
de perros, hace improbable que podamos simplemente realizar una comparación exhaustiva con
una base de datos de ejemplos. (Szeliski, 2010, p.657)
Asimismo, Szeliski (2010) manifiesta que la versión más desafiante de este tipo de tarea
es el reconocimiento general de la categoría (o clase), que puede implicar el reconocimiento de
instancias de clases extremadamente variadas, como animales o muebles. Algunas técnicas
dependen puramente de la presencia de características (conocidas como modelo "bag of
words”), sus posiciones relativas (modelo basado en partes), mientras que otras comprometen
la segmentación de imágenes en regiones semánticamente significativas (figura n.°32).
Como podemos observar, ambas clasificaciones cuentan con aspectos en común tales
como la segmentación, el tratamiento de imágenes según sus características y la ubicación en
un plano tridimensional. Con esto, ambos autores tratan de asemejarse a la capacidad de
algunos seres vivos y sobre todo a la capacidad humana de comprender imágenes y extraer
información de ellas en tiempo real.
Según Google (2017), la API Vision de Google Cloud ayuda a la comprensión del contenido de
imágenes empleando técnicas de aprendizaje automático, a través de una API REST muy
amigable para los programadores. Las funciones principales radican en la clasificación de
imágenes en categorías, detección de posibles objetos y rostros dentro de una imagen, así como
la identificación de textos. Además, permite la creación de colecciones con tu propio catálogo,
monitorear contenido inapropiado, tener la capacidad de analizar sentimientos aplicándolo a
técnicas de mercadotecnia. Cabe destacar que adicionalmente puedes optar por el
almacenamiento en la nube que provee el servicio.
Según Microsoft (2017), la API Computer Vision basada en la nube proporciona a los
desarrolladores acceso a algoritmos avanzados para procesar imágenes y devolver información.
Proporcionando una imagen o enlace a una imagen en la nube, puede analizar el contenido
visual de diferentes formas dependiendo de los datos de entrada y las preferencias del usuario.
Con esta API los usuarios pueden analizar imágenes permitiendo:
- Categorizar imágenes.
Requisitos
Microsoft (2017) manifiesta que la API “devuelve etiquetas basadas en más de 2000
objetos reconocibles, seres vivos, paisajes y acciones” (p.1). Asimismo, manifiesta que este
servicio provee indicios cuando las etiquetas encontradas son confusas o de conocimiento
general, con esto trata de clarificar el sentido de la etiqueta en un entorno más familiar. Cabe
precisar que las etiquetas no se comportan de manera jerárquica, ya que forman colecciones
que a su vez sirven para constituir una descripción que sea mucho más comprensible cuando se
formen oraciones íntegras.
Amazon Rekognition
Permite añadir fácilmente el análisis de imagen y video en sus aplicaciones. Solo es necesario
proporcionar una imagen o video a la API de Amazon Rekognition y el servicio podrá identificar
objetos, personas, texto, escenas y actividades. Para este fin emplea “…la misma tecnología de
aprendizaje profundo de eficacia probada y altamente escalable desarrollada por científicos de
visión artificial de Amazon para analizar miles de millones de imágenes al día”. Otro aspecto a
destacar son los casos de uso comunes que incluyen: biblioteca de imágenes y video que permite
Según Jayakody (2018) al momento de seleccionar una API de Visión, además de las
funcionalidades que ofrece, se debe considerar las herramientas de desarrollador (Software
Development Kit SDK), la capacidad de agregar nuestros propios modelos de entrenamiento
para un grupo de datos personalizados, el costo promedio del consumo uso de la API y la
escalabilidad. Considerando los criterios mencionados, podemos elegir más fácilmente con la
información de la tabla n.° 1.
Tabla n.° 1.
Comparación entre líderes de mercado en APIs de visión
Detección de No Si No
puntos de
referencia
Detección de No Si Si
logos
Procesamiento No No Si
de video para
detección de
rostros y
escenas
Detección de Si Si Si
contenido
inapropiado
Detección de No Si Si
texto / OCR
Código de Si Si Si
ejemplo,
documentación
para
desarrollador
Entrenamiento Si No directamente, pero Si
de modelos se puede hacer
usando Tensor Flow
Java SDK Si Si No
Eclipse toolkit Si No No
Consola de Si Si Si
desarrollador
Procesamiento Si Si No
por lotes
Figura n.° 34. Comparación de características entre APIs populares de cómputo en la nube.
fuente: (Singh et al., 2019)
Finalmente, notamos que con los datos mencionados anteriormente podemos deducir
que el servicio de Azure que pertenece a Microsoft ofrece una mejor opción, ya que cuenta con
diversas características que lo diferencian de sus competidores (detección de objetos con
etiquetas, comparación de rostros y creación de modelos personalizados) y la oferta económica
hace que el sistema vaya creciendo a la par con el costo de sus servicios ya que cuenta con un
nivel gratuito de 5000 llamadas mensuales.
Por otro lado, Techopedia (2014) citado por Data Centric (2018) dice que la
geolocalización implica la identificación de la ubicación de un dispositivo tecnológico conectado
a Internet como un radar, teléfono móvil. Asimismo, manifiesta que la geolocalización emplea el
Sistema de Posicionamiento Global (GPS) y otras tecnologías relacionadas para evaluar y
especificar ubicaciones geográficas.
Para Beltrán (2015), “la geolocalización es un concepto que hace referencia a la situación
que ocupa un objeto en el espacio y que se mide en coordenadas de latitud (x), longitud (y) y
altura (z).” (p.104)
Los conceptos detallados anteriormente abonan a la idea del uso de este tipo de
tecnología para la obtención de la ubicación de dispositivos, apoyándose en la tecnología GPS
de localización mediante satélites.
Por otro lado, al ser una aplicación tan accesible debemos protegernos ante cualquier
peligro que se puedan presentar controlando las funcionalidades de ubicación de los dispositivos,
asimismo se puede emplear para mostrarte publicidad relacionada a tu ubicación en Google o
Facebook, sin embargo, pueden darle algunos usos más creativos al intentar invadir nuestra
privacidad y darle usos que no permitimos. (Data Centric, 2018, OSI, 2016)
Permite crear mapas atractivos para tus sitios, apps y plataformas internas. Utilizando la
inteligencia geográfica puede abrir nuevas posibilidades de crecimiento para las empresas.
Las API de Google Maps ofrecen acceso ilimitado a la base de datos mundial de Google
para su aplicación, con más de cien millones de fichas de empresas y lugares de interés. Si
necesita mostrar a los usuarios bares, cafeterías, aeropuertos o tiendas de alimentos cercanos,
puede proporcionar una lista filtrada con los lugares más relevantes para ellos. (Google, 2017)
Bing Maps
Microsoft (2020) describe a Bing Maps como una plataforma que proporciona múltiples APIs que
permiten acceder a los mapas en diversas modalidades: la API de control web de Bing Maps V8
que soporta Javascript y Typescript usa HTML5 y trabaja bien en la mayor parte de los sistemas
operativos del mercado; los servicios REST de Bing utilizan URL REST para realizar tareas como
crear una imagen estática de un mapa con marcadores, codificar geográficamente una dirección,
recuperar metadatos de imágenes o calcular una ruta; servicio de datos espaciales de Bing; el
SDK de control de Bing Maps; y aplicaciones para Windows 10.
Mapbox
Es una plataforma de mapeo de código abierto para el diseño de mapas personalizados, también
cuentan con APIs y SDKs que se emplean como componentes básicos para integrar la
localización en cualquier aplicación móvil o web. (Mapbox, 2020).
RapidAPI (2018) hace una comparación entre los diez mejores servicios de mapas para
desarrolladores (figura n.° 38). Para lo cual se toman diversos criterios que posicionan a Google
Maps como el indicado para el desarrollo del sistema web.
Por otro lado, Foresti (2000) referente a los sistemas de vigilancia genéricos “Consiste
en una serie de sensores, situados en posiciones estratégicas del espacio a vigilar y conectados,
a través de medios de transmisión adecuados, al correspondiente receptor” (p. 21). No obstante,
el sistema de sensores puede estar formado por distintos tipos de elementos y a su vez usar solo
algunos de ellos; sin embargo, esto no implica, que los sensores comprendidos no puedan ser
utilizados juntamente con otros para mejorar el rendimiento del sistema.
Esto quiere decir que la videovigilancia inteligente abarca un mayor campo de influencia
a la hora de combatir no solo la inseguridad ciudadana, sino todo acto que vaya en contra de
algún bien público o privado.
1° generación
Técnicas Sistemas analógicos de CCTV
2° generación
Técnicas Vigilancia visual automatizada mediante la combinación de la
tecnología de visión por computadora con sistemas CCTV.
(DSP), que permite construir cámaras inteligentes o cámaras inteligentes con autonomía (local)
capacidades de procesamiento. (Valera, 2006, p.20)
Tabla n.° 4.
Tercera generación de los sistemas de vigilancia inteligentes
3° generación
Técnicas Sistema de vigilancia wide-area.
Ventajas - Información más precisa como resultado de combinar
diferentes tipos de sensores.
- Distribución.
Problemas - Distribución de la información (integración y comunicación)
- Metodología de diseño.
- Plataformas móviles.
- Plataformas multi-sensor.
Investigación Actual - Inteligencia distribuida versus centralizada.
- Fisión de datos.
- Marco de razonamiento probabilístico.
- Técnicas de vigilancia multi-camera.
Fuente: (Valera y Velastin, 2005), traducido por el tesista.
Detección y rastreo
Para Collins et al. (2000) implica la extracción en tiempo real de objetos de un video y el
seguimiento continuo de este a lo largo del tiempo formando trayectorias. De acuerdo con
Stauffer y Grimson existen técnicas de aprendizaje estadístico no supervisado para agrupar la
trayectoria de objetos producida por la extracción del background perteneciente a una escena
específica. Un punto de vista específico describe la trayectoria de múltiples cámaras combinadas
dentro de una escena en común, utilizando una técnica de calibración descrita por Lee, Romano
y Stein, quienes determinan de manera automática de las vistas superpuestas de la cámara
mientras observa un conjunto reducido de objetos en movimiento localizados en un entorno
plano.
Ésta técnica se relaciona con la detección periódica de movimientos que implican la marcha
humana y las descripciones del cuerpo humano a través del tiempo. (Collins et al., 2000)
Análisis de actividad
Así pues, Collins et al. (2000) manifiesta que esta categoría tiene la misión de analizar
secuencias temporales de observaciones de objetos para producir descripciones de alto nivel
involucrando diferentes tipos de agentes. Esto lo presenta como una de las más importantes
áreas de futuras investigaciones en la videovigilancia.
Tan Kok Kheng (s.f.) citado por Albusac (2008), alto funcionario de una de las empresas
que implementan sistemas de vigilancia más importantes, considera que “tras 20 minutos de
vigilancia, la atención humana a los detalles del vídeo disminuye hasta niveles inaceptables y la
vídeovigilancia deja de tener sentido. La vídeovigilancia tradicional ya no puede cumplir las, cada
vez mayores, demandas del sector” (p.1). Esto quiere decir que la desventaja principal de estos
sistemas va en relación a la vinculación intensa con el humano que está detrás, debido a
circunstancias como el cansancio por largas horas de trabajo, la atención reducida por el uso de
una gran cantidad de pantallas simultáneamente que disminuyen la efectividad al momento de
descubrir circunstancias extrañas simultáneamente. Por lo que, este funcionario propone el uso
de sistemas de vigilancia que tengan la posibilidad de comprender lo que está sucediendo.
Por otro lado, Valera (2006) manifiesta que uno de los mayores avances de la historia
de sociedad fue la industrialización y por lo tanto la automatización de ciertos procesos. Desde
entonces, las investigaciones y desarrollo fueron orientándose a la automatización de más
actividades en la industria, reduciendo costos, tiempo y uso de recursos humanos. Los sistemas
de visión pudieron crecer en algunos campos, el grado de automatización de procesos o incluso
introducir un cierto grado de automatización en procesos que no fueron automatizados. En ese
contexto, la aplicación de sistemas de visión es globalmente usada en el campo médico para la
propuesta de diagnóstico como en (Tierney et al. 2000), o la probabilidad de eficiencia en el
catálogo de información. La rapidez del envío de datos resultando de la operación de
herramientas online y sistemas de procesamiento de imágenes definan pasos importantes para
los sistemas de salud modernos en las que la comunicación entre instituciones permita el
intercambio de información y consecuentemente aumente la eficiencia del sistema de salud.
Por otra parte, el Ministerio del Interior ([MININTER], 2013) considerando la creación del
Sistema Nacional de Seguridad Ciudadana [SNSC] creado por Ley 27933 plantea que la
seguridad ciudadana es “la acción integrada que desarrolla el Estado, con la colaboración de la
ciudadanía, para asegurar la convivencia pacífica, la erradicación de la violencia y la utilización
pacífica de las vías y espacios públicos, así como para contribuir a la prevención (…)”. (p.8)
En el año 2016, el Congreso de la República del Perú establece en el artículo II del Decreto
Legislativo n.° 1267 manifiesta que la Policía Nacional del Perú es un “órgano de carácter civil al
servicio de la ciudadanía, que depende del Ministerio del Interior; con competencia administrativa
y operativa para el ejercicio de la función policial en todo el territorio nacional” (p.1)
También destaca las funciones de la Policía Nacional del Perú en el artículo III del mismo
decreto:
patrimonio público y privado. (4) Previene, investiga los delitos y faltas, combate
la delincuencia y el crimen organizado. (5) Vigila y controla las fronteras. (6) Vela
Para tales efectos, en el Decreto Supremo n.° 026-2017-IN establece que las comisarías
forman parte de la estructura orgánica de la PNP como un órgano desconcentrado:
Comisaría
Según INEI (2012) el término comisaría se refiere a una “dependencia policial encargada de
mantener el orden público, con funciones preventivas y de investigación en una determinada
jurisdicción a nivel nacional” (p.255).
“La visión de una comisaría es ser una dependencia de la Policía Nacional del Perú,
generadora de seguridad, protección, tranquilidad y paz social, consolidando la confianza y
credibilidad de la comunidad, mediante un servicio de calidad.” (Municipalidad Provincial de Ilo,
p.1) Asimismo, tiene la misión de “garantizar el orden público, la seguridad ciudadana y la paz
social, contribuyendo al desarrollo socio-económico en su circunscripción territorial”.
(Municipalidad Provincial de Ilo, 2016, p.1)
En Lince existe solo una comisaría que brinda seguridad al distrito como se puede
apreciar en la figura n° 40.
disponibles siempre que una persona autorizada necesite hacer uso de ellos. (b)
Por otro lado, Ko (2011) sostiene que existe una necesidad en crecimiento de las
aplicaciones de vigilancia hacia el análisis del comportamiento humano e identificación de sujetos
con la finalidad de detectar posibles amenazas.
En esa línea, Ahmad et al. (2013) plantea algunas soluciones para este modelo como
detección, posicionamiento, identificación y seguimiento:
Detección
Ahmad et al. (2013) manifiesta que esta función define un evento como la intrusión de un objeto
en un área de vigilancia, por lo que, para lograr una seguridad efectiva, es de suma importancia
tratar de detectar dichos eventos para poder notificar al sistema.
Detección
Sin detección
Cobertura parcial
Cobertura total
Asimismo, Ahmad et al. (2013) revela que existen dos tipos de detección que se deben
considerar al medir esta solución: detección basada en cobertura total y detección basada en
cobertura parcial. Este último necesita que el posicionamiento de los nodos asegure la detección
de los objetos con relación a un modelo de movimiento específico de los objetos. (figura n.° 41)
Posicionamiento
A diferencia de la función anterior, Ahmad et al. (2013) manifiesta que esta función calcula la
posición de un objeto intruso en el área de vigilancia. Siendo la latitud, longitud y altitud los
parámetros con que se describe la posición del objeto. La función de posicionamiento puede
dividirse en dos tipos: mapeado y basado en triangulación. El de tipo mapeado utiliza una
referencia con respecto a algún punto o superficie plana. A su vez, el posicionamiento basado
en triangulación utiliza la técnica del mismo nombre, que consiste en la superposición de al
menos dos cámaras. La superposición puede ser de dos tipos: fija o dinámica. La primera de
estas se obtiene con cámaras estáticas mientras que la segunda con cámaras PTZ. (figura n.°
42)
Posicionamiento
Sin
posicionamiento
Mapeado
Superposición fija
Triangulación
Superposición
dinámica
Identificación
Esta función reconoce el objeto intruso identificando su forma, tamaño y la distancia del objeto
con respecto al nodo de monitoreo. Para lo cual procede a identificar una clase de objetos o a
un individuo específico en una clase (figura n.° 43). Dicho de otra manera, si existe la necesidad
de detectar cualquier ser humano, entonces se aplica la identificación basada en la clase. En
cambio, si es necesario identificar a un ser humano específico dentro de un grupo de humanos,
entonces estará basada en el individuo. (Ahmad et al., 2013)
El autor comenta también que para lograr un resultado satisfactorio es necesario emplear
un modelo estadístico al momento de identificar un objeto consiguiendo una alta probabilidad de
identificación.
Identificación
Sin identificación
Individual
Clase
Rastreo
Ahmad et al. (2013) para la función de rastreo, manifiesta que monitorea el desplazamiento de
un objeto en la zona de vigilancia, esto dependiendo de la cobertura suministrada por las
cámaras. El autor también identifica dos tipos de rastreo: uno basado en cobertura total y otro en
cobertura parcial (figura n.° 44).
Sin rastreo
Rastreo
Cobertura total
Cobertura parcial
Como su propio nombre lo dice, el primer tipo de cobertura forma un anillo alrededor del
área de vigilancia empleado para la detección, posicionamiento e identificación de objetos. Con
esto el área interna puede rastrear un objeto más no identificarlo, haciendo que la tarea de
supervisión se divida en dos partes: identificación (anillo) y seguimiento (área interna).
Manejo de contenido
Los datos de video recopilados en el área de vigilancia son manejados por esta función. Los
sistemas CCTV es un ejemplo común de este tipo. A su vez algunas aplicaciones recopilan estos
datos y los muestran en un terminal de video donde personas puedan monitorearlos. Existen
también los que adicionalmente a esta función, almacenan los datos de video para su uso
posterior (figura n.° 46). (Ahmad et al., 2013)
Manejo de Contenido
Sin manejo de
contenido
Mostrado
Almacenado
Por otro lado, Aviles y Cobeña (2015) demostraron que la implementación de un sistema
de seguridad compuesto a su vez por un sistema de alarma y otro sistema de Circuito Cerrado
de Televisión (CCTV), conlleva el empleo de cámaras, sensores magnéticos y sensores de
presencia o volumétrico.
Tipo de sensor
Un sensor es una parte vital de un nodo de monitoreo. Se divide en dos categorías principales:
sensores ópticos y multimodales (figura n.° 47). Un sensor óptico detecta la luz que puede caer
en tres categorías, como la luz visible, la luz infrarroja (IR) o la luz ultravioleta (UV). Asimismo,
un sensor óptico puede ser de color, monocromático, infrarrojo, tiempo de vuelo (time-of-flight),
escáner láser, etc. El tipo de sensor de cámara que será seleccionado para una aplicación
depende de la naturaleza de la aplicación. Los sensores multimodales incluyen sensores que
detectan características físicas distintas de la luz, como sonido, movimiento, presión, etc.
Tipo de Sensor
Óptico
Multimodal
Conectividad de nodo
Ahmad et al. (2013), con respecto a los nodos desplegados para una aplicación de vigilancia,
pueden funcionar como nodos aislados o nodos conectados. Los nodos aislados no tienen
colaboración con los nodos vecinos y no pueden formar una red. Los nodos conectados
colaboran y coordinan con los nodos vecinos formando una red. Una red puede ser de dos tipos,
homogénea o heterogénea. En una red homogénea, todos los nodos de monitoreo utilizan el
mismo tipo de sensores y la óptica de acompañamiento. En una red heterogénea, los nodos de
monitoreo usan diferentes tipos de sensores o la óptica de acompañamiento (figura n.° 48).
Conectividad de Nodo
Aislado
Homogéneo
Conectado
Heterogéneo
Algunos nodos pueden usar sensores ópticos mientras que otros pueden usar sensores
no ópticos. Incluso en el caso de utilizar solo sensores ópticos, el nodo puede formar redes
heterogéneas debido al uso de diferentes tipos de sensores de imágenes. Si los nodos usan el
mismo tipo de sensores de imagen, la red puede ser heterogénea debido al diferente tipo de
óptica utilizada con estos sensores de imagen. (Ahmad et al., 2013)
Dentro de cada tipo de fijación, existen otras dos categorías disponibles en los que se
incluyen nodos estáticos y dinámicos. Estas categorías definen la actividad de un nodo en
términos de cambio en el campo de visión después de la instalación de los nodos. Un nodo
estático tiene un campo de visión fijo. No obstante, un nodo dinámico puede cambiar su campo
de visión tanto horizontal como verticalmente con respecto al espacio después de su despliegue
y además puede cambiar su propiedad de zoom. Un ejemplo se este tipo de nodo se implementa
con cámaras PTZ. (figura n.° 49)
Fijación de Nodo
Estático
Fijo
Dinámico
Estático
Móvil
Dinámico
desde el módulo de control del sistema DT Bird en caso de riesgo de colisión. (Ahmad et al.,
2013)
En ese sentido, Sabri et al. (2018) definen un diagrama de flujo (figura n.° 50) para
mostrar las acciones que realizará cuando se detecte movimiento en la zona de vigilancia, estas
acciones comprenden un sistema de inicialización y configuración, un sistema principal de
activación de monitoreo, otro módulo de actuadores, y la parte que realiza el procesamiento y
comunicación (figura n.° 51).
Finalmente, este modelo contempla las acciones a realizar frente a la detección de algún
hecho fuera de lo normal en el área de vigilancia, para tal fin se apoyará en actuadores y
procederá con la captura continua de imágenes.
1.2. Antecedentes
1.2.1. Antecedentes internacionales
1.2.1.1. Variable: Sistema web basado en visión artificial y geolocalización
El artículo científico titulado “Automatic recognition of facial expression based on computer vision”
de Shaoping, Z. (2015). Siendo un paper perteneciente al Department of Information
Management Hunan University of Finance and Economics de Changsha, China. Abarcando un
campo de investigación de la visión artificial ya que tiene como objetivo el reconocimiento de
expresiones faciales en una secuencia de video. Se propone dos fases acerca de las expresiones
faciales (extracción de características y reconocimiento de expresiones faciales). En primer lugar,
se hace uso de Active Appearance Model (AAM) para extraer características de textura global y
técnicas de flujo óptico para caracterizar las expresiones faciales que determina la información
de velocidad facial. Luego, estas dos características son integradas y convertidas a palabras
visuales usando modelos “bag-of-words”, y las expresiones faciales son representadas por un
número de palabras visuales. En segundo lugar, el modelo Latent Dirichlet Allocation (LDA) es
utilizado para clasificar diferentes expresiones faciales tales como “enfado”, “disgusto”, “miedo”,
“felicidad”, “neutralidad”, “tristeza” y “sorpresa”. Los resultados experimentales mostraron que el
método propuesto no solo brindaba estabilidad y robustez, sino que mejora la proporción de
reconocimiento eficientemente, pero también necesita la menor dimensión cuando logra la mayor
proporción de reconocimiento, lo que demuestra que el método propuesto es superior a otros.
Finalmente, llegó a la conclusión de que el reconocimiento de expresiones faciales puede darnos
avances significativos en cuanto a seguridad pública, seguridad financiera, predicción “drug-
activity”, recuperación de imágenes, detección de rostros, etc. Los modelos AAM y de flujo óptico
fueron muy trascendentales a la hora de extraer características de las expresiones faciales, para
luego convertirlas en palabras visuales mediante el modelo “bag-of-words”. El modelo LDA
reconoce diferentes categorías de expresiones faciales y a su vez aumentaba la exactitud
mediante la información de las etiquetas. Los resultados experimentales revelan que el método
propuesto mejora significantemente la exactitud y desempeño mejor que otros realizados
anteriormente. Este antecedente me permitió conocer el alcance del estudio de la visión artificial
aplicado al reconocimiento de expresiones faciales utilizando distintos modelos para la obtención
de una mejor exactitud en sus resultados.
El trabajo de investigación titulado “Prototype Robot for Computer Vision and Control Systems
Applications” de Masetti, A. (2017). El cual es un paper redactado en el marco del XX Concurso
de Trabajos Estudiantiles en la Universidad Nacional de Rosario, Argentina. Este documento
comprende el diseño y desarrollo de un robot como prototipo útil para la investigación académica
en las áreas de Visión por Computadora y Dinámica de Sistemas de Control. Este robot está
compuesto por tres ruedas, dos de ellas se pueden controlar de forma independiente y la tercera
se usa para estabilizar. El robot también incluye una cámara web provista de control de giro e
inclinación, a su vez puede operar en modo independiente o puede controlarse de forma remota.
Se presentaron algunas aplicaciones ya implementadas en el robot. Finalmente, se consideró
este trabajo de investigación oportunamente ya que en el proceso de construcción del robot se
emplearon algoritmos relacionadas a la dimensión de implementación de la variable dependiente
entre los que están el reconocimiento facial, seguimiento e identificación.
El trabajo de investigación titulado “Vehicle classification and speed estimation using Computer
Vision techniques” de Yabo, A.; Arroyo, S.; Safar F. y Oliva, D. (2016). El cual es un paper
redactado en el marco del XXV Congreso Argentino de Control Automático de la Universidad
Nacional de Quilmes, Argentina. El cual implementa un sistema de clasificación y estimación de
velocidad de vehículos en tiempo real, para aplicar a los vídeos adquiridos de las cámaras de
tráfico instaladas en las carreteras. En este sentido, se realizaron las funciones de: detección de
vehículos en movimiento a través de técnicas de segmentación en segundo plano, comparación
de diferentes clasificadores supervisados (por ejemplo, redes neuronales artificiales) para la
clasificación de vehículos en categorías: (automóvil, motocicleta, camioneta y autobús / camión),
aplicación de un método de calibración para georreferenciar vehículos utilizando imágenes
satelitales y estimación de la velocidad de los vehículos por clase utilizando el seguimiento de
características además de algoritmos de los vecinos más cercanos. Finalmente, dado que el
sistema general se diseñó teniendo en cuenta el costo de tiempo de cada algoritmo, el método
resultante fue capaz de funcionar con una frecuencia de 10 a 15 fps, dependiendo de la
El trabajo de investigación titulado “Robust Multi-person Tracking for Real-Time Intelligent Video
Surveillance” de Jin-Woo, Choi; Daesung, Moon y Jang-Hee, Yoo (2015). El cual es un paper
para el ETRI Journal del programa ICT R&D del MSIP, Rep. de Korea. En este paper se propone
un nuevo algoritmo de seguimiento de múltiples objetos en tiempo real, aplicado a la
videovigilancia inteligente. Para lograrlo se utilizó el filtrado de partículas y múltiples técnicas de
detección con la finalidad de disminuir el tiempo de cálculo del algoritmo. Luego de aplicar estas
técnicas se obtuvo un algoritmo robusto capaz de detectar y rastrear objetivos humanos sin
supervisión, además de hacerlo en tiempo real y con una alta tasa de precisión. Por lo tanto, este
paper aporta a la presente investigación dando luces respecto a la detección de hechos delictivos
y accidentes de tránsito indicadores pertenecientes a la variable dependiente, mediante el rastreo
de personas en tiempo real y así tener la capacidad de generar alertas tempranas.
diversos factores atenuantes (cambios de escala, rotación e iluminación). Es por esto que la
etapa de preprocesamiento comprende la eliminación o reducción del ruido que se presenta
como consecuencia de movimientos involuntarios. Además, se aborda la problemática y las
aplicaciones en diversos campos de estudio; mencionando los procesos posteriores que
necesitan de la estabilización para obtener mejores resultados. Adicionalmente, se mencionan
alternativas para la solución del problema central, desarrollando las características, ventajas y
desventajas. Existen las soluciones mecánicas y digitales utilizando Registro de Imágenes para
objetos 2D y Structure From Motion incluyendo Geometría Epipolar para objetos 3D.
Posteriormente se explica el algoritmo de estabilización de video por medio de diagramas,
esquemas e imágenes; con el diagrama de flujo de pasa a realizar el pseudocódigo utilizado en
la solución describiendo sus diferentes etapas de desarrollo. Mediante simulaciones se pudo
ejecutar la evaluación de los resultados obtenidos, utilizando videos de una base de datos se
realizaron las pruebas empleando la herramienta Voodoo Tracker de detección y tracking de
puntos. Llegando a concluir que la Geometría Epipolar reduce el costo computacional debido a
que las relaciones geométricas de proyección son almacenadas en una matriz fundamental de
3x3 por lo que no es necesario almacenar información tridimensional. En cuanto al número de
puntos tomados como referencia condiciona la implementación, debido a los ruidos y
movimientos bruscos o cambios en la iluminación ya que con esto se pierde efectividad. Los
resultados obtenidos reflejaron que el algoritmo de estabilización tiene un efecto en la
disminución del error de distancia de las coordenadas, considerando que los parámetros
atenuantes influyeron de nuevo en los resultados. Para contrarrestar el tiempo de procesamiento
se deben utilizar videos con mayor calidad. Por lo tanto, este antecedente me permitió definir el
indicador que hace referencia a la detección de personas mediante el uso de diferentes
herramientas y algoritmos.
El artículo científico titulado “Estudio de un sistema de visión para control de pesos y tamaño de
racimos de uva de mesa” de Basilio, O. (2015). Siendo una tesis para optar por el grado de
Magister en Ingeniería Mecatrónica en la Pontificia Universidad Católica del Perú en Lima, Perú.
El cual tiene como objetivo determinar la viabilidad del uso de redes neuronales y sistemas de
visión para la determinación de peso y tamaño de racimos de uva. Para esto se diseñó un sistema
que permite extraer de manera automatizada el peso de los racimos de uva. Además, se
aplicaron técnicas de visión por computadora. Al finalizar, se obtuvo que el sistema generó una
eficiencia del 95% en la fase de clasificación del tamaño y 70% en la clasificación por peso.
Concluyendo que este tipo de algoritmo de visión es adecuado realizando el entrenamiento
correspondiente. Con esto, el motivo de la elección del antecedente recae en el empleo de la
fase de clasificación de imágenes mediante el proseo de entrenamiento, la cual se utiliza en la
presente investigación.
El artículo científico titulado “Desarrollo de un Sistema de Visión Artificial para realizar una
Clasificación Uniforme de Limones” de Del Castillo, E. (2018). Siendo una tesis para optar por el
título profesional de Ingeniero de Sistemas Computacionales en la Universidad Privada del Norte
en Trujillo, Perú. El cual tiene como objetivo principal la creación de un sistema de visión artificial
que realice una clasificación uniforme de limones. Las formas y dimensiones de los limones a
ser analizados están sujetos al códex de la lima-limón de la Organización de Comida y Agricultura
de las Naciones Unidas. Para esto se diseñó una solución de acuerdo a las fases de la visión
artificial y aplicando los algoritmos correspondientes se obtuvo como resultado de eficacia de
83.9%, sensibilidad de 82.8% y especificidad del 100%, logrando clasificar los limones en 0.33
segundos. Concluyendo que el sistema de visión artificial implementado permite realizar una
clasificación uniforme de limones. Por lo tanto, la consideración de este antecedente responde a
que la implementación de algoritmos de visión artificial de acuerdo con sus fases tiene pertinencia
con la presente investigación ya que trata de aplicarlos a diferentes escenarios empleando la
clasificación vista en el modelo de comportamiento de la variable dependiente.
aplicar este modelo se concluyó que para el uso de la solución en un sistema de videovigilancia
se debería implementar una técnica de segmentación automática de acciones que permita
recortar automáticamente las múltiples acciones que se puedan identificar en una secuencia de
videovigilancia. En tanto al motivo de elección de este trabajo de investigación, responde a que
abarca las técnicas de vigilancia propuestas por Collins et al. (2000) como la detección y rastreo,
análisis de movimientos humanos, y análisis de actividad; todo esto relacionándolo a la etapa de
segmentación de la visión artificial que describen Vélez et al. (2003).
1.2.3. Antecedentes locales
1.2.3.1. Variable: Sistema web basado en visión artificial y geolocalización
El trabajo de investigación titulado “Histograma de orientación de gradientes aplicado al
seguimiento múltiple de personas basado en video” de Tolentino A. (2015). La cual es una tesis
para optar por el grado académico de Magíster en Informática con mención en Ciencias de la
Computación en la Pontificia Universidad Católica del Perú en Lima, Perú. En relación con el
contenido de este trabajo de investigación se puede desprender que en cuanto a la visión
computacional es trascendente el seguimiento múltiple de personas en escenas reales, aplicado
a los sistemas de vigilancia, robótica, seguridad peatonal o marketing. Por lo tanto, el objetivo se
centra en exponer una propuesta basada en Histograma de Orientación de Gradientes (HOG)
para el seguimiento múltiple de personas basadas en video. Concluyendo que se buscó combinar
clasificación, seguimiento y asociación, presentándose así una alta tasa de exactitud para la
clasificación de personas sobre imágenes. Por tal motivo se recogió este antecedente ya que
describe la relación entre visión artificial y aplicaciones como la videovigilancia, ambas variables
independientes y dependiente correspondientemente, ratificando la influencia que implica una en
la otra. Además de que el seguimiento de personas ayude a determinar el nivel de calificación
sobre uno de los indicadores de la variable dependiente.
Que es una tesis para lograr el grado de Bachiller en la Pontificia Universidad Católica del Perú,
Lima, Perú. En el que se aborda el uso del descriptor LBP con el fin de describir expresiones
faciales para luego clasificarlas dentro de emociones generales. A su vez, las técnicas de
aprendizaje automático conforman una herramienta verdaderamente funcional que combina
entrenamiento del software y optimización de recursos con el fin de realizar cálculos complejos
en el menor tiempo posible. En cuanto a las expresiones faciales conocidas, existen inexactitudes
delimitadas por el fingimiento de expresiones o la cultura, ya que ambas pueden transmitir
información errónea. Para darle solución a este inconveniente, existen los Sistemas de
Codificación de Acción Facial (FACS) que utilizan unidades de acción (AU) para la identificación
de músculos en el rostro, ya que individual o grupalmente causan cambios en el comportamiento
facial. Las principales emociones reconocidas comprenden enojo, asco, felicidad, tristeza, miedo
y asombro. Para eso se describe los siguientes pasos para la obtención del resultado esperado
(fase de detección, caracterización y clasificación). Las imágenes utilizadas en el experimento
fueron obtenidas de la base de datos Cohn-Kanade, permitiendo que se puedan elegir en su
mayoría para el entrenamiento del modelo y otras para las pruebas. Una de las conclusiones a
la que llegó fue que la primera fase desarrollada en el método de Viola-Jones, contemplaba que
fuera posible brindar una tasa de detección elevada; sin embargo, esta no permitía rotaciones
mayores a 15 grados, entonces es necesario utilizar un método más robusto. En cambio, en la
siguiente fase, el método LBP pudo representar y acentuar satisfactoriamente las líneas
marcadas por las expresiones en los rasgos faciales. En consecuencia, la experimentación lleva
a pensar que debe existir un equilibrio en la gradualidad de las tazas de reconocimiento y
pudiendo ajustar el número de divisiones en la imagen LBP se obtienen variaciones mucho más
relevantes. Este antecedente me permitió recoger uno de los tantos indicadores descritos en esta
investigación, además del uso de algoritmos y métodos que serán utilizados en la práctica del
reconocimiento facial.
Según una encuesta realizada por IPSOS (2016), en seis países de Latinoamérica, una
de cada cuatro personas es víctima de algún delito cada año, siendo el Perú, un país con mayor
índice delictivo de esta naturaleza; donde el 33% ha sido blanco de un delito en el último año,
seguido de México con 28%. Esto refleja la sensación de inseguridad tan arraigada en la región.
Por otra parte, INEI (2020) en sus constantes boletines acerca de la situación peruana,
podemos observar en áreas urbanas desde agosto del 2018 un sostenido incremento y
predominancia de hechos delictivos en las ciudades de 20 mil a más habitantes, de los cuales el
robo de dinero, cartera o celular se destaca como el delito más concurrente. Asimismo, la
percepción de inseguridad puede llegar a más del 85% en las ciudades urbanas.
Figura n.° 53. Población del área urbana víctima de algún hecho delictivo agosto 2018 a enero
2020
Fuente: INEI, 2020
Esto refleja la urgente necesidad de terminar con este tipo de crímenes en esta parte de
la capital. Siendo la Policía Nacional y la Seguridad Municipal los llamados a velar por la
seguridad de los ciudadanos, los cuales no cumplen en la práctica un papel de autoridad en estos
sectores. Existen medidas por parte del Ministerio de Interior como el Programa de Recompensas
orientado a casos de criminalidad establecido mediante el Decreto Legislativo N°1180, publicado
el 27 de julio del 2015. La cual consiste en la difusión de información perteneciente a los
delincuentes más buscados y ofrecer una recompensa a cambio de información acerca de ellos.
De modo que existen múltiples empresas que brindan seguridad; sin embargo, estos
esfuerzos resultan inoperantes frente al uso de armas por parte de los delincuentes estando
impedidos de alertar a las autoridades acerca del acontecimiento. A su vez algunos distritos
cuentan con redes de vigilancia con cámaras de seguridad, ubicadas en las principales vías de
la ciudad que cumplen un papel importante al momento de identificar a los delincuentes, placas
de autos y servir como medio probatorio. Sin embargo, si este sistema no se encuentra integrado
con las diferentes comisarías de la zona, no es posible tomar acciones preventivas frente a un
acontecimiento delictivo en desarrollo y frustrarlo.
Tabla n.° 6.
Número total de efectivos policiales y serenos por habitante
Asimismo, el tipo de esta investigación es aplicada, ya que el objeto de esta es una parte
de la realidad concreta que se da en el tiempo y ocupa espacio. Además, tiene como objetivo
práctico, elaborar y aplicar propuestas prácticas para solucionar los problemas específicos de la
presente investigación o que se pueda investigar soluciones de uso inmediato (Caballero, 2014).
Tabla n.° 7.
Diseño de un solo grupo con preprueba y posprueba
G O1 X O2
Muestra
Albert (2007) se refiere a la muestra como una “pequeña porción representativa y adecuada del
universo o población que es definida por el investigador con el objetivo de medir con un criterio
de significatividad y veracidad las variables que se pretende estudiar” (p.24). Esto implica que
dicho grupo tiene que tener representatividad debido a que los resultados necesitan
generalizarse o extrapolarse a la población elegida, en tal sentido se desprende que debe ser
concretado mediante un proceso de muestreo (Albert, 2007).
Tipo de muestreo
Además, Hernández et al. (2014) sostienen lo siguiente sobre las investigaciones con
enfoque cuantitativo:
Tamaño de muestra
Posteriormente, con la población definida se procede a hallar la muestra, que para este caso se
considerará una muestra censal, lo que significa que el estudio se aplicará a toda la población
conformada por las nueve zonas vecinales del distrito de Lince en el año 2020, que forman parte
del grupo de estudio identificado en el diseño de esta investigación.
“Proceso de la investigación por el que se aprende una determinada realidad para conocer sus
características, definir un problema o evaluar situaciones…puede convertirse en un
procedimiento propio del método utilizado en la comprobación de la hipótesis” (Álvarez y Sierra,
2001 citado por UPN, 2016). Se empleará la observación como técnica de recolección de datos
y el uso del cuestionario aplicado al coordinador de la Central de Monitoreo del distrito,
establecimiento encargado del registro de incidencias, monitoreo de cámaras y vehículos, y
atención al vecino en casos de alertas.
Instrumento de medición
Según UPN (2014), “en el caso de investigaciones descriptivas o explicativas se refieren a los
formatos para registrar o analizar los datos” (p.16). Estos instrumentos deben estar
estandarizados o validados científicamente, en caso no sea así deben estar descritos. Esto
quiere decir que, si el autor es el investigador, es necesario indicarlo y detallar la base teórica
que se empleó para su elaboración (UPN, 2014).
Confiabilidad
K Si
2
= 1−
K −1 S
2
T
Considerando que Garson (2013) citado por Hernández et al. (2014) establece que si el
valor del coeficiente es 0.60 se considera aceptable para propósitos exploratorios y 0.70 para
fines confirmatorios, resultando “bueno” 0.80 en un alcance explicativo el cual es empleado en
la presente investigación. Entonces, luego de remplazar los valores obtenemos como resultado
el valor de 0.8. De manera que, se concluye que el instrumento es confiable.
Tabla n.° 8.
Cálculo de la confiabilidad
Expresión Valor
K 17.0
S Si2 3.19
ST2 14.19
Alfa de Cronbach 0.82
Ficha técnica
Tabla n.° 9.
Ficha técnica de recolección de datos
Ítem Descripción
Nombre Cuestionario para variable “Vigilancia”
Autor Divad Jair Masgo Ferreyra
Año 2020
Procedencia Lima – Perú
Tipo de Cuestionario
instrumento
Objetivo Recolectar información para determinar la influencia de la
implementación de un sistema web basado en visión artificial y
geolocalización, y su influencia en la vigilancia de las zonas del
distrito de Lince.
Administración Individual
Duración aprox. 10 min.
Aplicación Directa
Estructura El instrumento consta de 17 ítems o preguntas las cuales se
basan en respuestas con 5 opciones.
Validez
2.5. Procedimiento
Según Hernández et al. (2014), las fases del proceso del análisis de datos cuantitativos son:
Tercero, explorar los datos: analizarlos y visualizarlos por variable del estudio.
Quinto, se lleva a cabo análisis estadístico descriptivo de cada variable del estudio.
POSPRUEBA Casos
VAR Válido Perdidos Total
VIGILANCIA N Porcentaje N Porcentaje N Porcentaje
PREPRUEBA Moderadamente
1 100,0% 0 0,0% 1 100,0%
VAR alto
VIGILANCIA Alto 6 100,0% 0 0,0% 6 100,0%
Muy alto 2 100,0% 0 0,0% 2 100,0%
Fuente: Elaboración propia asistida por el software SPSS versión 22
Entonces como se puede apreciar en la tabla n.° 11, se observa el resumen de procesamiento
de casos los cuales serán tomados en cuenta en las pruebas de normalidad. Posteriormente,
para realizar este procedimiento se tuvo en cuenta las siguientes premisas:
K < 30 Shapiro-Wilk
K > 30 Kolmogorov-Smirnov
De acuerdo con los valores mostrados en la tabla n.° 12, donde se observa que el nivel de
significancia es 0.001. Debido a que el valor de la significancia es menor o igual al error mínimo
aceptado (0.05), se concluye que los datos analizados tienen una distribución normal y con esto
se acepta la hipótesis nula, dando pie a la utilización del coeficiente de correlación de Spearman
en las pruebas de hipótesis.
Porcentaje Porcentaje
Valor Frecuencia Porcentaje Valido Acumulado
Muy bajo 1 0 0.00% 0% 0%
Bajo 2 0 0.00% 0% 0%
Moderadamente bajo 3 5 55.56% 56% 56%
Moderado 4 4 44.44% 44% 100%
Moderadamente alto 5 0 0.00% 0% 100%
Alto 6 0 0.00% 0% 100%
Muy alto 7 0 0.00% 0% 100%
Total 9 100.00% 100%
Fuente: Elaboración propia asistida por el software SPSS versión 22
Porcentaje Porcentaje
Valor Frecuencia Porcentaje Valido Acumulado
Muy bajo 1 0 0.00% 0% 0%
Bajo 2 0 0.00% 0% 0%
Moderadamente bajo 3 5 55.56% 56% 56%
Moderado 4 4 44.44% 44% 100%
Moderadamente alto 5 0 0.00% 0% 100%
Alto 6 0 0.00% 0% 100%
Muy alto 7 0 0.00% 0% 100%
Total 9 100.00% 100%
Fuente: Elaboración propia asistida por el software SPSS versión 22
Porcentaje Porcentaje
Valor Frecuencia Porcentaje Valido Acumulado
Muy bajo 1 0 0.00% 0% 0%
Bajo 2 0 0.00% 0% 0%
Moderadamente bajo 3 3 33.33% 33% 33%
Moderado 4 6 66.67% 67% 100%
Moderadamente alto 5 0 0.00% 0% 100%
Alto 6 0 0.00% 0% 100%
Muy alto 7 0 0.00% 0% 100%
Total 9 100.00% 100%
Fuente: Elaboración propia asistida por el software SPSS versión 22
Porcentaje Porcentaje
Valor Frecuencia Porcentaje Valido Acumulado
Muy bajo 1 0 0.00% 0% 0%
Bajo 2 0 0.00% 0% 0%
Moderadamente bajo 3 0 0.00% 0% 0%
Moderado 4 0 0.00% 0% 0%
Moderadamente alto 5 1 11.11% 11% 11%
Alto 6 6 66.67% 67% 78%
Muy alto 7 2 22.22% 22% 100%
Total 9 100.00% 100%
Fuente: Elaboración propia asistida por el software SPSS versión 22
Porcentaje Porcentaje
Valor Frecuencia Porcentaje Valido Acumulado
Muy bajo 1 0 0.00% 0% 0%
Bajo 2 0 0.00% 0% 0%
Moderadamente bajo 3 0 0.00% 0% 0%
Moderado 4 0 0.00% 0% 0%
Moderadamente alto 5 2 22.22% 22% 22%
Alto 6 5 55.56% 56% 78%
Muy alto 7 2 22.22% 22% 100%
Total 9 100.00% 100%
Fuente: Elaboración propia asistida por el software SPSS versión 22
Porcentaje Porcentaje
Valor Frecuencia Porcentaje Valido Acumulado
Muy bajo 1 0 0.00% 0% 0%
Bajo 2 0 0.00% 0% 0%
Moderadamente bajo 3 0 0.00% 0% 0%
Moderado 4 1 11.11% 11% 11%
Moderadamente alto 5 5 55.56% 56% 67%
Alto 6 3 33.33% 33% 100%
Muy alto 7 0 0.00% 0% 100%
Total 9 100.00% 100%
Fuente: Elaboración propia asistida por el software SPSS versión 22
Mod. bajo 0 (0%) 0 (0%) 0 (0%) 0 (0%) 1 (11%) 4 (44%) 0 (0%) 5 (56%)
Moderado 0 (0%) 0 (0%) 0 (0%) 0 (0%) 0 (0%) 2 (22%) 2 (22%) 4 (44%)
Mod. alto 0 (0%) 0 (0%) 0 (0%) 0 (0%) 0 (0%) 0 (0%) 0 (0%) 0 (0%)
Alto 0 (0%) 0 (0%) 0 (0%) 0 (0%) 0 (0%) 0 (0%) 0 (0%) 0 (0%)
Muy alto 0 (0%) 0 (0%) 0 (0%) 0 (0%) 0 (0%) 0 (0%) 0 (0%) 0 (0%)
TOTAL 0 (0%) 0 (0%) 0 (0%) 0 (0%) 1 (11%) 6 (67%) 2 (22%) 9(100%)
Fuente: Elaboración propia asistida por el software SPSS versión 22
preprueba y posprueba, donde se aprecia que la variación más notable fue que el 44% que
calificó como moderadamente bajo en la preprueba, pasaron al nivel alto en la posprueba.
Mod. bajo 0 (0%) 0 (0%) 0 (0%) 0 (0%) 2 (22%) 3 (33%) 0 (0%) 5 (56%)
Moderado 0 (0%) 0 (0%) 0 (0%) 0 (0%) 0 (0%) 2 (22%) 2 (22%) 4 (44%)
Mod. alto 0 (0%) 0 (0%) 0 (0%) 0 (0%) 0 (0%) 0 (0%) 0 (0%) 0 (0%)
Alto 0 (0%) 0 (0%) 0 (0%) 0 (0%) 0 (0%) 0 (0%) 0 (0%) 0 (0%)
Muy alto 0 (0%) 0 (0%) 0 (0%) 0 (0%) 0 (0%) 0 (0%) 0 (0%) 0 (0%)
TOTAL 0 (0%) 0 (0%) 0 (0%) 0 (0%) 2 (22%) 5 (56%) 2 (22%) 4(100%)
Fuente: Elaboración propia asistida por el software SPSS versión 22
fue que el 33% que calificó como moderadamente bajo en la preprueba, pasaron al nivel alto en
la posprueba.
Mod. bajo 0 (0%) 0 (0%) 0 (0%) 1 (11%) 2 (22%) 0 (0%) 0 (0%) 3 (33%)
Moderado 0 (0%) 0 (0%) 0 (0%) 0 (0%) 3 (33%) 3 (33%) 0 (0%) 6 (67%)
Mod. alto 0 (0%) 0 (0%) 0 (0%) 0 (0%) 0 (0%) 0 (0%) 0 (0%) 0 (0%)
Alto 0 (0%) 0 (0%) 0 (0%) 0 (0%) 0 (0%) 0 (0%) 0 (0%) 0 (0%)
Muy alto 0 (0%) 0 (0%) 0 (0%) 0 (0%) 0 (0%) 0 (0%) 0 (0%) 0 (0%)
TOTAL 0 (0%) 0 (0%) 0 (0%) 1 (11%) 5 (56%) 3 (33%) 0 (0%) 9 (100%)
Fuente: Elaboración propia asistida por el software SPSS versión 22
Implementación en la preprueba y posprueba, donde se aprecia que la variación más notable fue
que el 33% que calificó como moderado en la preprueba, pasaron al nivel moderadamente alto
en la posprueba. A su vez, este escenario se repite con otro 33% que calificó como moderado
Por otra parte, la prueba de hipótesis implica un análisis estadístico donde se consideró
el coeficiente de correlación de Spearman, ya que es una medida de correlación para variables
en un nivel de medición ordinal, que se encuentra dentro del tipo no paramétrico. (Hernández et
al., 2014)
En relación a lo observado en la tabla n.° 22, se tiene un nivel de significancia igual a 0.074 el
cual es mayor a 0.05, que se considera como límite para determinar la hipótesis que será
aceptada. Para tales fines, se encuentra que la significancia unilateral es mayor a 0.05, por lo
tanto, se acepta la hipótesis nula (H0) y se rechaza la hipótesis alternativa (H1). Lo que significa
En relación a lo observado en la tabla n.° 23, se tiene un nivel de significancia igual a 0.048 el
cual es menor a 0.05, que se considera como límite para determinar la hipótesis que será
aceptada. Para tales fines, se encuentra que la significancia unilateral es menor a 0.05, por lo
tanto, se acepta la hipótesis alternativa (H1) y se rechaza la hipótesis nula (H0). Lo que significa
que la implementación de un sistema web basado en visión artificial y geolocalización influye
en el año 2020. Asimismo, se determinó con la ayuda del coeficiente de correlación de Spearman
que el nivel de influencia de la variable independiente en la dimensión modelo de comportamiento
En relación a lo observado en la tabla n.° 24, se tiene un nivel de significancia igual a 0.08 el cual
es mayor a 0.05, que se considera como límite para determinar la hipótesis que será aceptada.
Para tales fines, se encuentra que la significancia unilateral es mayor a 0.05, por lo tanto, se
acepta la hipótesis nula (H0) y se rechaza la hipótesis alternativa (H1). Lo que significa que la
implementación de un sistema web basado en visión artificial y geolocalización no influye
año 2020.
variación más notable consiste en el cruce del nivel moderadamente bajo y alto en la preprueba
de hipótesis, según se refleja en la tabla n.° 22, se observa que el nivel de significancia
equivalente a 0.074 es mayor a 0.05, determinándose de esta manera que no existe influencia
expresado por Ahmad et al. (2013, pp.1 y 25) donde afirma que el diseño de sistemas de
vigilancia depende de una serie de campos multidisciplinarios cuyos ejemplos comunes incluyen
el desarrollo de sensores, procesamiento de imágenes, procesamiento de señales, redes,
comunicación, visión por computadora; además sostiene que las disciplinas más importantes que
son vitales para cualquier sistema de vigilancia son el procesamiento de imágenes y señales los
de lo sostenido anteriormente, Tolentino (2015, p. 40) indica que sus resultados experimentales
demuestran la validez del modelo de visión artificial propuesto, que consta de una estructura
basados en sus recorridos por establecimientos como centros comerciales o tiendas por
departamentos; los cuales conforman aplicaciones de la vigilancia pero que no considera todo el
modelo propuesto por Ahmad et al. (2013). En este mismo marco de resultados se encuentra
que Peláez (2013, p. 154) logró demostrar que el diseño de un sistema de video vigilancia IP
investigación estuvieron dispuestas en función del alcance del proyecto, ya que la solución
con un plan de acción que tenga un alcance mucho mayor y que contemple no solo el desarrollo
de un sistema web, sino también la adquisición y despliegue de equipos y servicios necesarios
contingencia que la variación más notable consiste en el cruce del nivel moderadamente bajo y
alto en la preprueba y posprueba según corresponda, lo conforman el 33% del total de la muestra;
en la contrastación de hipótesis, según se refleja en la tabla n.° 23, se observa que el nivel de
significancia equivalente a 0.048 es menor a 0.05 determinándose de esta forma que existe
influencia positiva de la variable independiente en la dependiente; asimismo, se determinó con
resultados concuerdan con Salcedo (2018, p.109), que realizó con éxito un diseño considerando
Asimismo, el presente estudio confirma lo expresado también por Ahmad et al. (2013, p.1) donde
encontró que los resultados del análisis de los sistemas de vigilancia basados en la taxonomía
seguimiento; por otro lado, la función de detección es de tipo distribuido mientras que la función
de identificación está basada en clases; además se determinó que gran parte de los sistemas de
vigilancia no implementan la función de manejo de contenido. En este mismo marco de
resultados se encuentra que Fuentes y Montesinos (2017, p.75) concluyen que uno de los
principales factores del proyecto Smart City: para la seguridad ciudadana – cámaras inteligentes
que depende de la cobertura suministrada por las cámaras en la zona de vigilancia, lo que no
era posible por la existencia de zonas ciegas en el distrito, que será posible en un futuro
contingencia que la variación más notable consiste en el cruce del nivel moderado y
moderadamente alto en la preprueba y posprueba según corresponda, lo conforman el 33% del
total de la muestra, a su vez este escenario se repite en el cruce del nivel moderado y alto; en la
contrastación de hipótesis, según se muestra en la tabla n.° 24, se observa que el nivel de
significancia equivalente a 0.08 es mayor a 0.05 determinándose de esta manera que no existe
concuerdan con Peláez (2013, p. 154) con respecto a la mejora del tiempo de respuesta ya que
la consulta en tiempo real con el sistema actual es de 27.26 segundos, en comparación al sistema
propuesto por Peláez que es de 3.42 segundos, determinando una disminución del tiempo de
23.84 segundos; lo cual permitió una reducción del 87.45% de las consultas de acceso remoto;
por otro lado los resultados que encuentra Gonzales y Johnson (2013, p.76) mediante un análisis
comparativo entre los modelos del proceso de atención en comisarías de otros lugares del
mundo, pudo observar que no existe una solución que resuelva completamente el problema
planteado en cuanto a la atención de los ciudadanos; sin embargo, pudo gestionar eficientemente
registro para el usuario. Asimismo, el presente estudio confirma lo expresado por Ahmad et al.
(2013, p. 22) donde encuentra que, en cuanto al modelo de actuación, la mayoría de los sistemas
a un evento dentro del área de vigilancia, sin embargo, siempre dependen de que tan cerca
vigilancia mejor distribuidos y con agentes disponibles para atender cualquier situación, además
se debe el evaluar el uso y difusión del aplicativo móvil “Lince Alerta” que ya existía de cara al
ciudadano.
4.2. Conclusiones
concluye que no existe influencia positiva del sistema web basado en visión artificial
Entonces, podemos decir que para mejorar estos resultados se podría desarrollar un
proyecto con un plan de acción que tenga un alcance mucho mayor y que contemple
en este caso, por ser menor a 0.05 se acepta la hipótesis específica de investigación
y se concluye que existe influencia positiva del sistema web basado en visión artificial
este caso, por ser mayor a 0.05 no se acepta la hipótesis específica de investigación
y se concluye que no existe influencia positiva del sistema web basado en visión
en el año 2020. Entonces podemos decir que, para mejorar estos resultados, se
REFERENCIAS
Ahmad, N., O’Nils, M., & Lawal, N. (2013). A Taxonomy of Visual Surveillance Systems. Reporte
de Investigación, Mid Sweden University, Department of Electronics Design, Suecia.
Albert Gómez, M. J. (2007). La investigación educativa. España: McGraw-Hill / Interamericana
Editores.
Albusac Jiménez, J. A. (2008). Vigilancia Inteligente: Modelado de Entornos Reales e
Interpretación de Conductas para la Seguridad. España: Universidad Castilla-La
Mancha.
Alegre, E., Barreiro, J., Castejón, M., & Suarez, S. (2008). Computer Vision and Classification
Techniques on the Surface Finish Control in Machining Processes. Universidad de León.
León, España: E.I. Industrial e Informática.
Amazon. (2020). ¿Qué es Amazon Rekognition? Obtenido de
https://docs.aws.amazon.com/es_es/rekognition/latest/dg/what-is.html
Aviles Salazar, A. D., & Cobeña Mite, K. L. (2015). Diseño e implementación de un sistema de
seguridad a través de cámaras, sensores y alarma, monitorizado y controlado
telemétricamente para el centro de acogida “patio mi pana” perteneciente a la fundación
Proyecto Salesiano. Universidad Politécnica Salesiana, FACULTAD DE INGENIERÍAS,
Guayaquil, Ecuador. Obtenido de https://dspace.ups.edu.ec/handle/123456789/10401
Basilio, O. (2015). Estudio de un sistema de visión para control de pesos y tamaño de racimos
de uva de mesa. Tesis de Maestría, Pontificia Universidad Católica del Perú, Escuela de
Posgrado, Lima, Perú.
Beltrán López, G. (14 de Julio de 2015). La Geolocalización Social. Revista de Geografía, 27,
97-118.
Berrios, Y. (2012). Sistema de videovigilancia utilizando cámaras web como alternativa para
mejorar el nivel de percepción de seguridad de la ciudad de Bagua Grande. Tesis de
Bachiller, Universidad Católica Santo Toribio de Mogrovejo, Facultad de Ingeniería,
Chiclayo, Perú.
Bocanegra, R. (2012). Desarrollo de una aplicación web para el monitoreo de vehículos con
dispositivos GPS que comercializa una empresa de telecomunicaciones. Tesis de
Licenciatura, Universidad Ricardo Palma, Facultad de Ciencias e Ingeniería, Lima, Perú.
Caballero Romero, A. (2000). Metodología de la Investigación Científica. Diseños con Hipótesis
Explicativas. Lima: Udegraf.
Caballero Romero, A. (2014). Metodología Integral Innovadora para planes y tesis. México D.F.:
Cengage Learning Editores.
Caivano, R., & Villoria, L. (2009). Aplicaciones web 2.0. Mexico: Eduvim.
Cama, Y. (2015). Prototipo computacional para la detección y clasificación de expresiones
faciales mediante la extracción de patrones binarios locales. Tesis de Bachiller, Pontificia
Universidad Católica del Perú, Facultad de Ciencias e Ingeniería, Lima, Perú.
Cea D'Ancona, Á. (2004). Métodos de encuesta; Teoría y práctica; Errores y mejora. Madrid,
España: Editorial Síntesis.
Centro de Promoción Educativa de la Universidad Nacional de Trujillo (CEPEUNT). (1974).
Seminario Taller de Metodología de la Investigación Científica. Trujillo: Centro de
Promoción Educativa de la Universidad Nacional de Trujillo.
Collins, R., Lipton, A., & Kanade, T. (2000). Introduction to the Special Section on Video
Surveillance. IEEE: Transactions on Pattern Analysis and Machine Intelligence.
Congreso de la República del Perú. (27 de Julio de 2015). Art. 4: "Procedimiento". D. Leg. N 1182
Decreto Legislativo que regula el uso de los datos derivados de las Telecomunicaciones
para la identificación, localización y geolocalización de equipos de comunicación, en la
lucha contra la delincuencia y el crimen organizado. Obtenido de Normas Legales El
Peruano.
Congreso de la República del Perú. (24 de Setiembre de 2015). Art. 8: "Uso de cámaras de
videovigilancia en vehículos de servicio de transporte público de pasajeros". D. Leg. N
1218. Decreto Legislativo que regula el uso de las cámaras de videovigilancia. Obtenido
de Normas Legales El Peruano.
gobiernos locales. Perú: Fortalecimiento del Sistema Nacional Presupuestario en los tres
niveles de gobierno.
Ministerio del Interior - MININTER. (2013). Plan Nacional de Seguridad Ciudadana. Acuerdo
Nacional por la Seguridad Ciudadana. Perú: Consejo Nacional de Seguridad Ciudadana
- CONASEC. Obtenido de http://www.pcm.gob.pe/seguridadciudadana/wp-
content/uploads/2013/05/Plan.Nacional.Seguridad.Ciudadana.2013-2018.pdf
Molina Rios, J. R., Zea Ordoñez, M. P., Contento Segarra, M. J., & García Zerda, F. G. (2017).
ESTADO DEL ARTE: METODOLOGÍAS DE DESARROLLO EN APLICACIONES WEB.
3C Tecnología, 6, 54-71. doi:http://dx.doi.org/10.17993/3ctecno.2016.v6n3e23.54-71
Oficina de Seguridad del Internauta de España. (20 de Setiembre de 2016). Geolocalización
virtudes y riesgos. Obtenido de Blog:
https://www.osi.es/es/actualidad/blog/2016/09/20/geolocalizacion-virtudes-y-riesgos
Pavón, J. (2016). Análisis técnico de la implementación de un Sistema de seguridad de video
vigilancia, caso de estudio Aeropuerto Internacional Mariscal Sucre del Ecuador. Tesis
de Maestría, Pontificia Universidad Católica del Ecuador, Facultad de Ingeniería, Quito,
Ecuador.
Peláez, J. (2013). Diseño de un Sistema de Video Vigilancia IP para la Corte Superior de Justicia
- La Libertad. Tesis de Licenciatura, Universidad Privada del Norte, Facultad de
Ingeniería, Trujillo, Perú.
Porras, J. (2014). CLASIFICATION SYSTEM BASED ON COMPUTER VISION. Escuela
Profesional de Ingeniería Electrónica Universidad Ricardo Palma.
Programa de las Naciones Unidas para el Desarrollo (PNUD). (2014). Informe Regional de
Desarrollo Humano 2013-2014. Seguiridad Ciudadana con Rostro Humano. Estados
Unidos: Centro Regional de Servicios para América Latina y el Caribe.
Ramírez, J. (2017). Propuesta de un Modelo para el Reconocimiento de escenas violentas en
video. Tesis de Licenciatura, Universidad Nacional de San Agustín, Facultad de
Ingeniería de Producción y Servicio, Arequipa, Perú.
RapidAPI. (2020). The Top 10 Mapping & Maps APIs (for Developers in 2018). Obtenido de
https://rapidapi.com/blog/top-map-apis/#summary-best-mapping-apis
Rodriguez Benito, E. (2010). La Geolocalización, Coordenadas hacia el Éxito. II Congreso
Internacional Comunicación 3.0, 1-12.
Rosete, L. (2016). Sistema domótico de vigilancia básico para vivienda en la Ciudad de México,
basado en hardware libre como recurso de bajo costo. Tesis de Maestría, Universidad
Nacional Autónoma de México, México.
Sabri, N., Salim, M. S., Fouad, S., Aljunid, S. A., AL-Dhief, F. T., & Rashidi, C. B. (2018). Design
and Implementation of an Embedded Smart Intruder Surveillance System. MATEC Web
of Conferences. doi:https://doi.org/10.1051/matecconf/201815006019
Salcedo Del Solar, S. C. (2018). DISEÑO DE UN CENTRO DE CONTROL Y MONITOREO
(CCTV) CON SISTEMA DE RADIOENLACES PARA LA SEGURIDAD EN LA
MUNICIPALIDAD DE ISLAY MATARANI, AREQUIPA 2018. UNIVERSIDAD NACIONAL
DE SAN AGUSTIN DE AREQUIPA, FACULTAD DE INGENIERÍA DE PRODUCCIÓN Y
SERVICIOS. Arequipa, Perú: ESCUELA PROFESIONAL DE INGENIERÍA
ELECTRÓNICA.
Seisdedor, G. (2015). Smart Cities: Transformación digital de las ciudades. Centro de Innovación
del Sector Público de PwC e IE Business School.
Shaoping, Z. (2015). Automatic recognition of facial expression based on computer vision. Paper,
University of Finance and Economics, Department of Information Management Hunan,
Changsha, China.
Sierra Bravo, R. (2003). Técnicas de investigación social; Teoría y ejercicios (Cuarta ed.). Madrid:
Internacional Thomson Editores.
Sierra, C. (2017). Propuesta del Sistema de Video Vigilancia en la Seguridad Ciudadana distrito
de Pueblo Libre 2016-2020. Tesis de Maestría, Universidad César Vallejo, Escuela de
Posgrado, Lima, Perú.
Singh, J., Wheeler, J., Fong, N., & Chaudhary, S. (2019). A Comparison of Public Cloud Computer
Vision Services. OSF.
ANEXOS
Variable Dependiente: Vigilancia Los modernos sistemas de Modelo de Comportamiento Tipo de detección
vigilancia consisten en miles de
cámaras que se despliegan en
un área de vigilancia para Cantidad de sucesos localizados
recopilar datos. Se extrae
información útil de estos datos
para detectar, rastrear y
Grado de identificación
reconocer objetos de interés
para comprender y analizar sus
actividades. (Ahmad, O'Nils y
Lawal, 2013) Cantidad de vehículos rastreados
Grado de usabilidad
Cuál es el nivel de respuesta ante una alerta de un hecho en Mayor a 7 minutos Menor a 7 Menor a 5 minutos Menor a 3 Menor a 1 minuto
13
desarrollo Muy bajo minutos Bajo Medio minutos Alto Muy alto
Cuál es el nivel de respuesta ante una alerta de un hecho Mayor a 7 minutos Menor a 7 Menor a 5 minutos Menor a 3 Menor a 1 minuto
14
futuro Muy bajo minutos Bajo Medio minutos Alto Muy alto
Cuál es el nivel de disponibilidad del servicio de vigilancia en el <75%-100%] Muy
15 0% Nulo <0%-25%] Bajo <25%-50%] Medio <50%-75%] Alto
día alto
Cuál es el nivel de disponibilidad del servicio de vigilancia en la <75%-100%] Muy
16 0% Nulo <0%-25%] Bajo <25%-50%] Medio <50%-75%] Alto
semana alto
Cuál es el nivel de disponibilidad del servicio de vigilancia en el <75%-100%] Muy
17 0% Nulo <0%-25%] Bajo <25%-50%] Medio <50%-75%] Alto
mes alto
ITEM 10
ITEM 11
ITEM 12
ITEM 13
ITEM 14
ITEM 15
ITEM 16
ITEM 17
ITEM 1
ITEM 2
ITEM 3
ITEM 4
ITEM 5
ITEM 6
ITEM 7
ITEM 8
ITEM 9
SUMA
Índices DE
ITEMS
1 4 3 2 1 1 1 1 3 3 3 3 2 2 1 4 3 4 41
2 3 2 1 1 1 1 2 3 2 2 2 2 2 1 3 2 3 33
3 4 3 2 1 1 1 1 3 3 3 3 2 2 1 4 3 4 41
4 3 2 2 2 1 1 1 2 2 2 2 1 1 2 4 3 3 34
VARP (Varianza
S T2
de la población) 0.25 0.25 0.19 0.19 0.00 0.00 0.19 0.19 0.25 0.25 0.25 0.19 0.19 0.19 0.19 0.19 0.25 14.19
3.19
i
2
K S
= 1−
K −1
2
ST
Figura n.° 65. Fórmula Coeficiente Alfa de Cronbach
fuente: (Elaboración propia, 2020)
SUJETOS PREG01 PREG02 PREG03 PREG04 PREG05 PREG06 PREG07 PREG08 PREG09 PREG10 PREG11 TOTAL B_7
S1 4 3 3 2 2 1 2 4 3 3 3 30 4
S2 2 2 2 1 1 1 2 3 2 2 2 20 3
S3 4 2 2 2 2 1 2 3 3 3 3 27 4
S4 2 3 3 1 1 1 2 4 2 2 2 23 3
S5 2 2 2 1 1 1 2 4 2 2 2 21 3
S6 4 3 3 1 2 1 2 4 3 3 3 29 4
S7 4 2 2 2 2 1 2 3 3 3 3 27 4
S8 2 2 2 2 1 1 2 4 2 2 2 22 3
S9 2 2 2 1 1 1 2 3 2 2 2 20 3
SUJETOS PREG01 PREG02 PREG03 PREG04 PREG05 PREG06 PREG07 PREG08 PREG09 PREG10 PREG11 TOTAL B_7
S1 4 4 4 5 5 4 4 5 5 4 5 49 7
S2 4 3 3 4 3 4 4 5 5 3 3 41 6
S3 4 3 3 5 5 4 4 5 4 4 5 46 6
S4 4 4 4 4 3 4 4 5 5 3 3 43 6
S5 4 3 2 4 3 4 4 5 5 3 3 40 5
S6 4 4 4 4 2 4 4 5 4 4 5 44 6
S7 4 4 4 5 5 4 4 5 5 4 5 49 7
S8 2 3 3 5 5 4 4 5 4 3 5 43 6
S9 2 2 2 4 2 4 4 5 4 3 3 35 5
Según Szeliski (2010), este tipo de tecnología tiene aplicación también en diversos
campos como la biometría, entretenimiento, educación, medicina, entre otros. Siendo la
seguridad uno de los campos más explotados actualmente; en comparación, existen diversas
aplicaciones utilizadas en la mayoría de los sistemas de vigilancia.
Así pues, de lograr los resultados esperados en esta investigación, la propuesta podría
ser replicada en otros distritos de la capital, que cuenten con sistemas de vigilancia similares.
Significando una merma en los indicadores tan de inseguridad actuales del país, combatiendo
así a la delincuencia común y organizada.
Las cámaras de vigilancia son las encargadas de captar todo lo que ocurra en una casa o
negocio, por lo que son un elemento vital en cualquier instalación.
Es una red de visión remota más abierta, con acceso vía redes locales o globales como Internet.
Comisaría
Google Maps
Permite crear mapas atractivos para tus sitios, apps y plataformas internas. Utilizando la
inteligencia geográfica puede abrir nuevas posibilidades de crecimiento para las empresas.
Inteligencia Artificial
Policía Nacional
La Policía Nacional del Perú es una institución del Estado creada para garantizar el orden interno,
el libre ejercicio de los derechos fundamentales de las personas y el normal desarrollo de las
actividades ciudadanas. Es profesional y jerarquizada.
Programa de Recompensas
Serenazgo Municipal
Sistema Web
Aplicaciones alojadas en un servidor en Internet o Intranet, a diferencia de las páginas web, estas
tienen funcionalidades más complejas y potentes que responden a casos muy particulares.
Videovigilancia
Un sistema de video vigilancia utiliza cámaras IP para su monitoreo, las cuales pueden ser
colocadas en lugares públicos y privados para la prevención del crimen y/o combate del crimen.
Supuestos
- Nuestra institución tiene la suficiente infraestructura y personal capacitado para realizar
este proyecto.
Geolocalización Obtiene localización del Si RF 14 Permitir obtener la ubicación del vehículo Registrar Técnico
vehículo Localización
Registra posición del vehículo Si RF 15 Permitir registra la ubicación del vehículo de manera
automática
Consulta bitácora de Si RF 16 Permitir visualizar la bitácora de localización de la flota Consultar Bitácora de
localización vehicular Localización
Gestión de Registra datos de vehículo Si RF 17 Permitir registrar datos de vehículos nuevos Gestionar Flota
Activos Vehicular
Modifica datos de vehículo Si RF 18 Permitir modificar datos de vehículos registrados
Elimina datos de vehículo Si RF 19 Permitir dar de baja a vehículos registrados
Consulta datos de flota Si RF 20 Permitir visualizar una lista de vehículos registrados Consulta Flota
vehicular Vehicular
Registra datos cámara de Si RF 21 Permitir registrar datos de cámaras de seguridad Gestionar Cámara
seguridad nuevas
Modifica datos de cámara de Si RF 22 Permitir modificar datos de cámaras registradas
seguridad
Elimina datos de cámara de Si RF 23 Permitir dar de baja a cámaras registradas
seguridad
Consulta datos de cámaras de Si RF 24 Permitir visualizar una lista de cámaras registradas Consultar Cámara
seguridad
Registra datos de PARMET Si RF 25 Permitir registrar datos de PARMET nuevos Gestionar PARMET
Modifica datos de PARMET Si RF 26 Permitir modificar datos de PARMET registrados
Elimina datos de PARMET Si RF 27 Permitir dar de baja a PARMET registrados
Consulta datos de PARMET Si RF 28 Permitir visualizar una lista de PARMET registrados Consultar PARMET
Registra datos de usuario Si RF 29 Permitir registrar datos de usuarios nuevos Gestionar Usuario
Modifica datos de usuario Si RF 30 Permitir modificar datos de usuarios registrados
Elimina datos de usuario Si RF 31 Permitir dar de baja a usuarios registrados
Consulta datos de usuario Si RF 32 Permitir visualizar una lista de usuarios registrados Consultar Usuario
Gestión de Visualiza reportes de alertas Si RF 33 Permitir visualizar reportes de alertas generados en el Consultar Reporte de
Reportes diarios día Alertas
Visualiza reportes de alertas Si RF 34 Permitir visualizar reportes de alertas generados en la
semanales semana
Visualiza reportes de alertas Si RF 35 Permitir visualizar reportes de alertas generados en el
mensuales mes
Visualiza reporte de flota Si RF 36 Permitir visualizar reportes de la flota vehicular Consultar Reporte de
vehicular Flota Vehicular
Visualiza reportes de ubicación Si RF 37 Permitir visualizar reportes de ubicaciones de vehículos
de vehículos
RNF 13 Integridad y consistencia de El sistema manejará transacciones protegidas ante eventuales errores. Ante
los datos la falla del aplicativo, se contará con mecanismos de restauración con el
objetivo de evitar inconsistencia de datos.
RNF 14 Tiempo de sesión El tiempo máximo por inactividad de una sesión de usuario será de 20
minutos.
RNF 15 Manual de Usuario El sistema debe contar con un manual de usuario debidamente estructurado.
El cual podrá ser visualizado y descargado en formato PDF desde el mismo
aplicativo.
RNF 16 Interfaz del Administrador El sistema debe otorgarle total dominio sobre todas y cada una de las
interfaces al usuario con el rol de Administrador.
RNF 17 Interface intuitiva Ofrecer interfaz fácil, intuitiva, con menús sensibles al contexto, navegación.
RNF 18 Software Servidor Los componentes utilizados para la instalación del servidor de aplicaciones y
de base de datos son:
- MSSQL Server
- Windows Server 2008 R2 Estándar
RNF 19 Legales y de derecho de Los derechos de autor del sistema corresponden única y exclusivamente a
autor Divad Jair Masgo Ferreyra.
2. Documentación de Usuario
Acceso al sistema
Vista Inicio
Vista de Geolocalización