Está en la página 1de 59

Traducido del inglés al español - www.onlinedoctranslator.

com

borde de video

Guía de mejores prácticas de análisis de video

VideoEdge 5.4.1 8200-1834-20 B0

septiembre 2019

www.americandynamics.net
Derechos de autor

© 2019 Johnson Controls. Reservados todos los derechos. JOHNSON CONTROLS, TYCO y AMERICAN DYNAMICS son marcas comerciales y/
o marcas comerciales registradas. El uso no autorizado está estrictamente prohibido.

Aviso
La información de este manual estaba actualizada cuando se publicó. El fabricante se reserva el derecho de revisar y mejorar sus
productos. Todas las especificaciones están sujetas a cambios sin previo aviso.

Las ofertas y especificaciones de los productos están sujetas a cambios sin previo aviso. No todos los productos incluyen todas las características; consulte las hojas de datos del

producto para obtener información completa sobre las funciones.

Servicio al Cliente

Gracias por usar los productos de American Dynamics. Respaldamos nuestros productos a través de una extensa red mundial de
distribuidores. El distribuidor a través del cual compró originalmente este producto es su punto de contacto si necesita servicio o
soporte. Nuestros distribuidores están capacitados para brindar lo mejor en servicio y soporte al cliente. Los distribuidores deben
comunicarse con American Dynamics al (800) 507-6268 o (561) 912-6259 o en la Web en www.americandynamics.net.

Marcas registradas

Windows® es una marca registrada de Microsoft Corporation. PS/2® es una marca registrada de International
Business Machines Corporation.

Las marcas comerciales, los logotipos y las marcas de servicio que se muestran en este documento están registrados en los Estados Unidos
[u otros países]. Cualquier uso indebido de las marcas registradas está estrictamente prohibido y Tyco Security Products hará cumplir
enérgicamente sus derechos de propiedad intelectual en la máxima medida de la ley, incluida la persecución penal cuando sea necesario.
Todas las marcas comerciales que no son propiedad de Tyco Security Products son propiedad de sus respectivos dueños y se usan con
permiso o están permitidas por las leyes aplicables.

Las ofertas y especificaciones de los productos están sujetas a cambios sin previo aviso. Los productos reales pueden variar de las fotos. No todos los productos
incluyen todas las características. La disponibilidad varía según la región; comuníquese con su representante de ventas.

Descargo de responsabilidad MPEG-4

Este producto está autorizado bajo la Licencia de cartera de patentes visuales MPEG-4 para el uso personal y no comercial de
un consumidor para (i) codificar video de acuerdo con el estándar visual MPEG-4 (“Video MPEG-4”) y/o (ii) decodificar video
MPEG-4 que fue codificado por un consumidor involucrado en una actividad personal y no comercial y/o fue obtenido de un
proveedor de video autorizado por MPEG LA para proporcionar video MPEG-4. No se otorga ninguna licencia ni se implicará
para ningún otro uso. Se puede obtener información adicional, incluida la relativa a usos y licencias promocionales, internos
y comerciales, de MPEG LA, LLC. Ver HTTP://WWW.MPEGLA.COM

H.264 Descargo de responsabilidad

Este producto está autorizado bajo la Licencia de cartera de patentes de AVC para el uso personal y no comercial de un
consumidor para (i) codificar video de acuerdo con el estándar AVC ("Video AVC") y/o (ii) decodificar video AVC que fue codificado
por un consumidor que participa en una actividad personal y no comercial y/o se obtuvo de un proveedor de video con licencia
para proporcionar video AVC. No se otorga ninguna licencia ni se implicará para ningún otro uso. Se puede obtener información
adicional de MPEG LA, LLC. Ver HTTP://WWW.MPEGLA.COM

H.265 Descargo de responsabilidad

Este producto tiene licencia y está cubierto por una o más reivindicaciones de las patentes enumeradas en www.hevcadvance.com

Este producto tiene licencia bajo la cartera de patentes MPEG LA HEVC.

2
Tabla de contenido
Inteligencia de vídeo 6

¿Qué es la videointeligencia? 6

Tipos de eventos de inteligencia de video 6

Detección y dirección de objetos 6

Permanencia y permanencia de objetos 6

Entrar y salir de objetos 7

cable trampa 7

Multitudes y colas 7

Cliente Presente 7

Cambios de escena 7

Minería de datos de inteligencia de video 7

Inteligencia de video en profundidad 8

Configuración 8

Regla de detección de objetos 8

Regla de dirección 10

Regla de permanencia 10

Regla de permanencia 11

Regla de protección perimetral 11

Introducir regla 12

regla de salida 13

regla trampa 13

Regla de formación de multitudes 13

Regla de longitud de cola 14

Regla abandonada/retirada 14

Firmas de color 15

mapas de calor dieciséis

Aplicaciones de videointeligencia 17

Conteo de personas 17

Análisis de los datos 21

3
Análisis retrospectivo 21

Punto de venta (POS) 22

Análisis de la tasa de conversión 27

Mejores prácticas de inteligencia de video 28

Ubicación de la cámara 28

Deslumbramiento y luces intermitentes 29

Luces móviles y faros de vehículos 29

Luz insuficiente por la noche. 29

Oscuridad 30

superficies reflectantes 31

Tamaño de los objetos 32

Separación de bienes y personas 32

Problemas de obstrucción: estantes y personas 33

Condiciones ambientales 34

Objetos en movimiento 35

Ubicación de la cámara: buenos y malos ejemplos 35

Región de interés correcta 37

Evaluación del sitio 37

Precisión de medición 39

Inteligencia profunda 40

¿Qué es la Inteligencia Profunda? 40

Tipos de eventos de inteligencia profunda 41

Detección de personas en una zona 41

Persona moviéndose en una dirección 41

Cable trampa de conteo de personas 41

Persona que permanece o habita 41

persona que entra o sale 41

formación de multitudes 41

Análisis de longitud de cola 41

Minería de datos de inteligencia profunda 42

4
Mejores prácticas de inteligencia profunda 42

Tipo de cámara y ubicación 42

Encendiendo 42

modelo de red neuronal 42

Detección de movimiento 44

Mejores prácticas de detección de movimiento 44

Reconocimiento de Matrículas 45

¿Qué es el reconocimiento de matrículas? 45

Mejores prácticas de reconocimiento de matrículas 45

Modelos de cámara 45

Captura de placa 45

Configuración de cámara e imagen 46

Reconocimiento facial 47

¿Qué es el reconocimiento facial? 47

Mejores prácticas de reconocimiento facial 47

Captura de rostro 47

Configuración de cámara e imagen 47

Encendiendo 48

Inscripción de rostros 48

Ubicación de la cámara para el reconocimiento facial 51

Ajuste de parámetros 52

Verificación facial con victor Swipe and Show 53

Descripción general 53

Solución de problemas 54

Apéndice A - Códigos de países ISO 3166 55

5
Inteligencia de vídeo

Esta sección está destinada a los administradores de seguridad y del sistema VideoEdge responsables de configurar y mantener las
instalaciones de Video Intelligence. Proporciona orientación conceptual y asesoramiento sobre la instalación y configuración de hardware,
así como explicaciones detalladas de las funciones del software Video Intelligence.

¿Qué es la videointeligencia?
Video Intelligence es un motor de seguimiento y detección de objetos basado en vídeo. Utiliza algoritmos de visión por computadora para
analizar el video de vigilancia y proporcionar capacidades avanzadas de análisis de video. El software Video Intelligence "observa" cada cuadro
de video de la cámara y registra toda la actividad en la escena. Los operadores pueden buscar y analizar rápidamente los metadatos de video
grabados para responder preguntas como las siguientes:

• ¿Cuándo apareció este paquete descartado en el área de acoplamiento?

• ¿Cuántas personas se quedaron frente a mi nueva pantalla de tapa lateral?

• ¿Cuándo tengo clientes esperando, desatendidos, en mi departamento de electrónica?

• ¿Cuándo entró alguien a la oficina del capataz?

Video Intelligence es un complemento con licencia por canal para VideoEdge NVR. Para obtener el máximo valor de los metadatos de Video
Intelligence, se puede utilizar American Dynamics victor Unified Client para analizar los datos.

Tipos de eventos de inteligencia de video


VideoEdge Video Intelligence convierte el video en metadatos. Estos metadatos se pueden analizar para detectar cuándo ocurren ciertos
eventos en la vista de la cámara. Los metadatos se pueden analizar cuando se captura el video para detectar estos eventos en tiempo real.
Alternativamente, los metadatos registrados se pueden analizar para averiguar cuándo ocurrieron estos eventos en el pasado. Los tipos de
eventos que se pueden detectar están relacionados con la apariencia y el movimiento de los objetos en la escena y con los cambios en la
escena misma.

Detección y dirección de objetos


El tipo de evento más básico es detectar cuándo un objeto, por ejemplo, una persona o un vehículo, ingresa a un área designada de la vista de
la cámara. Esta área designada se denomina región de interés (ROI). Este tipo de regla de evento se utiliza para crear una zona de detección o
un cable trampa en el campo de visión. Cuando un objeto ingresa a la zona o cruza el cable trampa, Video Intelligence lo detecta. Especifique
una dirección de viaje para detectar objetos que se mueven hacia la zona o cruzan el cable trampa en una dirección determinada.

Permanencia y permanencia de objetos

Además de detectar cuando los objetos se mueven en una determinada dirección, se pueden detectar objetos que permanecen inmóviles durante un
período de tiempo definido. El evento de permanencia de Video Intelligence identifica objetos que permanecen en la misma ubicación durante un
período de tiempo, mientras que el evento Linger identifica objetos que permanecen en la misma área general durante algún tiempo. Por ejemplo,
una persona que camina de un lado a otro en un ROI se demora en el área, pero no se consideraría que habita porque se está moviendo demasiado. El
ROI y la cantidad de tiempo que el objeto debe permanecer o detenerse para ser detectado se pueden definir manualmente.

6
Entrar y salir de objetos
Los metadatos de Video Intelligence se pueden analizar para detectar cuándo los objetos entran o salen de una escena que es monitoreada por una
cámara. Los objetos pueden entrar o salir de la escena moviéndose desde uno de los bordes, o pueden hacerlo atravesando una puerta o portal que
se encuentra en la escena misma. En cualquier caso, los tipos de regla Entrar y Salir pueden detectar objetos que entran o salen de la escena a través
de una ROI.

cable trampa

Use el evento Tripwire para contar objetos que se mueven en dos direcciones opuestas, como entrar y salir de una habitación u otro espacio.
Dibuje una línea, que funcione como cable trampa, en el campo de visión y luego seleccione qué lado está "adentro" y qué lado está "afuera".
Video Intelligence detecta cuándo los objetos cruzan el cable trampa y lleva un conteo continuo de la cantidad de objetos que han cruzado el
cable trampa en cada dirección. Los cables trampa y sus recuentos actuales se pueden mostrar en video en vivo en victor Unified Client

Multitudes y colas
Algunos tipos de eventos de Video Intelligence están relacionados con el comportamiento de objetos individuales en la vista de cámara. Video
Intelligence también proporciona tipos de eventos que analizan qué grupos de objetos están haciendo. La regla de formación de multitudes puede
detectar cuándo hay más de un cierto número de objetos en un ROI. La regla de longitud de cola puede detectar cuándo las filas de personas o
vehículos se vacían, tienen una longitud corta, media o larga.

Cliente Presente
Para situaciones que involucran terminales de punto de venta, cajeros automáticos, quioscos y otros tipos de puntos de servicio, a
veces es útil saber cuándo un cliente estuvo presente o no. El tipo de evento Video Intelligence Customer Present es una forma
avanzada de detección de objetos que también tiene en cuenta la perspectiva de la cámara y el tamaño del objeto. Esta regla se usa
junto con el análisis de POS.

Cambios de escena
Algunos tipos de eventos de Video Intelligence involucran objetos que se mueven en la escena. Video Intelligence también observa cambios en
la escena misma. Estos cambios ocurren cuando los objetos permanecen en la escena, como cuando una persona estaciona un automóvil, o
cuando los objetos se eliminan de la escena, como cuando un cliente toma un par de jeans de una exhibición para probárselos. Los metadatos
de Video Intelligence se pueden analizar para detectar cambios en un ROI dentro de una escena, para determinar cuánto cambio ocurre y la
tasa de cambio. Esto puede ayudarlo a distinguir entre comportamientos normales y anormales, como distinguir entre compras de rutina y
eventos de barrido de estantes.

Minería de datos de inteligencia de video


La detección de eventos en los metadatos de Video Intelligence, ya sea en tiempo real o posterior al evento, es solo una forma de utilizar
estos datos. Los metadatos son un registro de todos los eventos en la cámara. Al extraer los datos, puede contar personas y objetos, realizar
análisis de tráfico y actividad, y detectar tendencias y anomalías.

Los mapas de calor de VideoEdge proporcionan una forma de visualizar los metadatos de Video Intelligence, mostrándole dónde y cuándo ocurre la
actividad en formato gráfico. Con el visualizador de datos de cliente unificado de victor, puede analizar eventos a lo largo del tiempo y filtrar por la hora
del día y el día de la semana. Los datos de Video Intelligence se pueden combinar con datos de eventos de punto de venta y control de acceso para
mejorar la inteligencia del sitio, como las tasas de conversión de compradores y la detección de seguimiento.

7
Inteligencia de video en profundidad
Esta sección describe los detalles de la regla de eventos de Video Intelligence para cada tipo de regla. Se describen todos los
parámetros y se proporcionan pautas para crear alarmas efectivas.

Configuración
Para configurar los ajustes de Video Intelligence, primero debe seleccionar Video Intelligence como tipo de análisis de vídeo. Configure los
ajustes en la pestaña Función y transmisiones de la Lista de dispositivos.

• Ancho/alto mínimo del objeto: estas dos configuraciones determinan el tamaño mínimo de los objetos que Video
Intelligence detectará y rastreará en la escena. Estos valores se refieren a la cantidad de píxeles en el flujo de
Analytics, que van desde 3 píxeles a 10 píxeles. Una configuración más pequeña detectará objetos más pequeños u
objetos más alejados de la cámara. Sin embargo, si no necesita detectar objetos muy pequeños o lejanos, puede usar
un valor más alto para evitar falsos positivos de cambios muy pequeños.

• Compensar el movimiento de la cámara: Video Intelligence requiere cámaras en una posición fija. A veces, una cámara está
sujeta a vibraciones o sacudidas debido a la forma en que está montada. Esta configuración se puede usar para compensar
pequeñas cantidades de batido y ayudar a mejorar los resultados. Sin embargo, esta configuración puede causar problemas
y requiere más recursos del servidor; solo utilícelo cuando sea necesario.

• Resolución del flujo de análisis: las versiones anteriores de Video Intelligence limitaban la resolución del flujo de
análisis a CIF. A partir de VideoEdge 5.0, Video Intelligence procesa resoluciones de hasta 1920x1080. La
ventaja de una resolución más alta es el mayor rango para detectar objetos. Sin embargo, el procesamiento de
resoluciones más altas utiliza más recursos NVR.

Varios ajustes de la cámara también pueden influir en el funcionamiento de Video Intelligence. Estos ajustes se pueden encontrar en la pestaña General de la lista
de dispositivos.

• Look-Down: use esta configuración para indicar que la cámara está montada en una configuración de look-down. Algunos tipos
de reglas usan esta configuración para mejorar los resultados.

• Tipo de sensor de imagen: Video Intelligence optimiza los algoritmos para cámaras térmicas o visibles. Normalmente,
VideoEdge determinará automáticamente qué tipo de sensor usa la cámara. Esta configuración se puede utilizar para
forzar un tipo u otro en los casos en que falla la detección automática.

Regla de detección de objetos

El tipo de evento más simple que se puede detectar es la aparición de un objeto en un área o región de interés (ROI). Cada
vez que un objeto, como una persona o un vehículo, ingresa o aparece en el ROI, se detecta como un objeto nuevo en ese
ROI. Si el objeto sale de la ROI y regresa, será detectado nuevamente.

Este tipo de evento se puede utilizar para definir cables de disparo o zonas de protección. Dibuje un ROI de umbral delgado, o cubra una zona
completa con el ROI, y el sistema detectará cada vez que una persona u objeto cruce el umbral o ingrese a la zona.

8
Figura 1

Por ejemplo, el ROI que se muestra en la Figura 1 se monitorea para detectar cuándo las personas ingresan al área alrededor de las exhibiciones de
productos.

El software Video Intelligence produce metadatos continuamente, independientemente de las alarmas definidas. El ROI que dibuje no
es parte de los metadatos, por lo que puede dibujar un nuevo ROI y usarlo para buscar objetos en videos grabados previamente en
cualquier zona o cruzar cualquier umbral. Debido a que el análisis de video ya se completó, estas búsquedas son muy rápidas.

El tipo de evento Detección de objetos también presenta el parámetro Superposición (%). El parámetro de superposición se refiere a la forma
en que los objetos detectados se relacionan con el ROI. Es el porcentaje del objeto que debe estar dentro o superponerse al ROI para que se
cuente ese objeto. Un valor alto, como 100%, significa que el objeto debe estar completamente dentro del ROI. Un valor bajo, como el 10 %,
significa que el objeto simplemente tiene que tocar el ROI.

Figura 2

En la Figura 2, la región amarilla es el ROI. Con un valor de Superposición más alto, el objeto debe estar principalmente dentro del ROI para activar
una alarma (como se ve a la izquierda). Con un valor de Superposición más bajo, el objeto solo necesita tocar el ROI (como se ve a la derecha). El
porcentaje de superposición se refiere a la cantidad del cuadro rojo que está dentro del ROI amarillo.

El parámetro Superposición se puede utilizar para ajustar los resultados. Con la regla de detección de objetos, la configuración de superposición más baja producirá
la mayoría de los resultados. A medida que aumente el valor de la configuración, la cantidad de resultados disminuirá. En este sentido, actúa como un ajuste de
sensibilidad. Las configuraciones de superposición más altas ignorarán los objetos que están solo parcialmente en la región, incluidas las sombras proyectadas por
los objetos y los objetos que pasan u ocluyen el ROI pero no completamente dentro de él.

La regla de detección de objetos también tiene el parámetro Color. Este parámetro se puede usar para detectar solo objetos de ciertos colores.
Consulte Firmas de color más adelante en esta sección para obtener más detalles.

9
Regla de dirección

El tipo de evento Dirección detecta personas, vehículos u otros objetos que se mueven en una determinada dirección. El motor de Video
Intelligence detecta objetos en cada cuadro de video y, con el tiempo, crea una "pista" de cómo se mueve un objeto en la escena. El parámetro
principal de esta regla es Dirección. Esta es la dirección de movimiento en la que un objeto debe moverse para ser detectado. Las direcciones
de movimiento corresponden a las direcciones de la brújula (norte, sur, este y oeste) y son relativas al campo de visión de la cámara. Por
ejemplo, la parte superior de la pantalla es el norte y el lado izquierdo de la pantalla es el oeste.

Cuando dibuje un ROI para eventos de dirección, dibuje una ruta en el suelo. Para obtener los mejores resultados, dibuje una ruta clara y sencilla, como
una línea recta o un arco. Evite caminos con ángulos agudos.

Nota:
Asegúrese de que el ROI solo cubra la ruta que debe seguir la persona o el objeto para desencadenar un evento de dirección. Si el ROI
cubre un área más grande que la requerida, cualquier sujeto que siga parcialmente la ruta del ROI no activará un evento de dirección.

figura 3

La Figura 3 muestra una ruta de retorno de la inversión. Si una persona comenzaba en la parte inferior del camino y luego giraba a la derecha hacia la
primera puerta de la oficina, la persona no sería detectada porque no cubrió la mayor parte del ROI amarillo dibujado en el piso.

La regla Dirección también tiene un parámetro Superposición (%). El valor Superposición debe mantenerse bajo, de modo que se puedan detectar
los objetos que ingresan parcialmente en la ruta definida por el ROI. Ajuste el valor del parámetro Superposición para ajustar los resultados.

El otro parámetro de la regla de Dirección es el Tiempo de Travesía (segs). Este parámetro determina si se detecta un objeto al cruzar la ROI,
en función de la velocidad del objeto. Si el Tiempo transversal se establece en cero segundos, se detecta cualquier objeto que se mueva a
través de la ROI en la dirección definida. Si el tiempo transversal se establece en un segundo o más, solo se detectan los objetos que se
mueven a través de la mayor parte del ROI en ese tiempo. No se detectan los objetos que tardan más que la duración en moverse a través de
la ROI. Cuanto menor sea el valor de Tiempo transversal, más rápido debe moverse un objeto para ser detectado. Ajuste el parámetro Tiempo
transversal para evitar la detección de objetos que se mueven demasiado lento para ser de interés.

La regla Dirección también tiene el parámetro Color. Este parámetro se puede usar para detectar solo objetos de ciertos colores. Consulte
Firmas de color en esta sección para obtener más detalles.

Regla de permanencia

El tipo de evento Linger se usa para detectar personas u objetos que permanecen en una región de interés durante un período de tiempo determinado.
Un objeto es persistente si simplemente permanece en el ROI. El objeto puede moverse o quedarse quieto, siempre que permanezca en el ROI. La regla
Permanencia tiene el parámetro Superposición (%), que se aplica a todo el tiempo que el objeto permanece. el perezoso

10
El parámetro de tiempo (segundos) se utiliza para definir cuánto tiempo debe permanecer un objeto antes de que se detecte. Aunque puede establecer un tiempo
de permanencia bastante alto, la regla funciona mejor con tiempos de menos de uno o dos minutos.

La regla Linger también tiene el parámetro Color. Este parámetro se puede usar para detectar solo objetos de ciertos colores. Consulte Firmas de color
más adelante en esta sección para obtener más detalles.

Regla de permanencia

El tipo de evento Dwell es muy similar al tipo de evento Linger. La única diferencia es que mientras el objeto está en el ROI, debe permanecer
mayormente inmóvil y no moverse. Una pequeña cantidad de movimiento es aceptable, pero no más que eso. Por ejemplo, una persona que
hace cola o una persona que mira productos en un estante. Si estás pensando en personas que viven, entonces no están dando un paso. Si
está pensando en la vivienda de un automóvil, entonces sus ruedas no se mueven. Todo objeto de vivienda es también un objeto persistente,
pero no todo objeto persistente es un objeto de vivienda.

La regla de permanencia tiene el parámetro Superposición (%), que se aplica a todo el tiempo que el objeto permanece. También tiene el
parámetro Dwell Time (secs). Puede configurar el tiempo de permanencia bastante alto, pero funciona mejor con tiempos de treinta
segundos o menos. Un objeto que habita durante mucho tiempo puede considerarse un objeto abandonado.

La regla Dwell también tiene el parámetro Color. Este parámetro se puede usar para detectar solo objetos de ciertos colores. Consulte Firmas
de color en esta sección para obtener más detalles.

Regla de protección perimetral


La regla de protección perimetral se usa para detectar objetos que cruzan un perímetro para ingresar a un área protegida, o que
permanecen a lo largo del perímetro durante un período de tiempo. Esta regla utiliza un ROI especial con dos áreas: el área protegida y el
área perimetral. Generalmente, el área perimetral se encuentra a lo largo de uno o más lados del área protegida. Por ejemplo, una cámara
con una vista de una cerca donde el área protegida podría estar dentro de la cerca y el área del perímetro podría incluir la cerca y un área
frente a ella.

La regla de protección perimetral tiene un parámetro de tiempo de permanencia (segundos). Cuando un objeto permanece en el área
del perímetro durante este tiempo, activará la regla. Si un objeto atraviesa el área del perímetro y entra en el área protegida, activará
la regla. En este caso, no importa cuánto tiempo estuvo el objeto en el área del perímetro.

La regla de protección perimetral también tiene parámetros de tamaño de objeto mínimo y máximo. Puede usar estos parámetros para
filtrar falsas alarmas de objetos que son demasiado grandes o pequeños para ser interesantes. Por ejemplo, un animal pequeño o una
gran sombra.

Figura 4

La Figura 4 muestra una vista de la cerca perimetral.

• La región amarilla es el área protegida.

• La región verde es el área perimetral.

11
• La región roja es el tamaño máximo del objeto.

• El área magenta es el tamaño mínimo del objeto.

Introducir regla

El tipo de evento Enter se usa para detectar objetos que ingresan al campo de visión de la cámara a través de una puerta o un umbral. Dibuje
un ROI que contenga completamente la entrada o el umbral. El motor de Video Intelligence busca objetos que aparecen dentro del ROI y
luego se mueven fuera de él. El ROI debe ser lo suficientemente grande como para contener toda la entrada, incluida la puerta
completamente abierta. La puerta en sí es un objeto en movimiento, pero si dibuja el ROI para que la puerta permanezca dentro, entonces la
puerta no activará un golpe de entrada falso. En la Figura 5, el ROI, que se muestra en amarillo, contiene completamente la puerta.

Figura 5

Si la pared alrededor de la puerta contiene vidrio, inclúyalo también en el ROI. Asegúrese de que cualquier objeto que entre por la
puerta aparezca dentro de la ROI. Si el ROI no contiene el cristal, es posible que los objetos primero se vean a través del cristal fuera
del ROI y no desencadenarían un golpe.

La regla Enter tiene el parámetro Superposición (%). Este parámetro se aplica al objeto cuando aparece en el ROI. Los valores de
superposición más altos tienden a funcionar mejor. Si el campo de visión es tal que las personas que entran por la puerta pueden agruparse,
considere ampliar la parte del ROI que conduce a la puerta. La idea es hacer que el ROI sea lo suficientemente grande para que las personas
se separen antes de salir del ROI. De esa manera, cada persona desencadenará un golpe.

La regla Enter también puede detectar objetos que ingresan a la escena desde el borde del campo de visión. Dibuje el ROI contra el borde del
campo de visión, de modo que los objetos aparezcan dentro del ROI y luego salgan de él. La figura 6 muestra un sujeto que ingresa al ROI
desde el borde del campo de visión.

12
Figura 6

La regla Enter también tiene el parámetro Color. Este parámetro se puede usar para detectar solo objetos de ciertos colores. Consulte Firmas
de color en esta sección para obtener más detalles.

regla de salida

El tipo de evento Salir es lo opuesto a la regla Entrar y se utiliza para detectar objetos que salen del campo de visión de la cámara a
través de una puerta o un umbral. El motor de Video Intelligence busca objetos que están fuera del ROI, luego se traslada al ROI y
desaparece de la vista.

Los mismos consejos de dibujo de ROI para los tipos de eventos de entrada también se aplican a los tipos de eventos de salida. Consulte la sección Introducir regla.

La regla de salida también tiene el parámetro Color. Este parámetro se puede usar para detectar solo objetos de ciertos colores. Consulte Firmas de
color en esta sección para obtener más detalles.

regla trampa
El tipo de evento Tripwire se usa para detectar y contar objetos que se mueven en dos direcciones opuestas, "dentro" y "fuera". Dibuje una
línea en el campo de visión donde se mueven los objetos que desea contar. A medida que el centro del objeto cruza el cable trampa, el
conteo en esa dirección se incrementa y se genera una alarma. Elija un Tiempo de restablecimiento para la hora del día en que desea que se
restablezcan los conteos, y elija un Umbral de conteo para generar una alarma una vez que los conteos de "entrada" o "salida" alcancen el
umbral.

Aunque puede crear un cable trampa en cualquier área de cualquier campo de visión, puede lograr los mejores resultados eligiendo un
campo de visión que separe los objetos en movimiento tanto como sea posible. Cuando los objetos se agrupan mientras cruzan el cable
trampa, es posible que solo se registren como un solo objeto que cruza. Cuando los objetos son personas o automóviles, una vista aérea
proporciona la mejor separación y los recuentos más precisos.

Regla de formación de multitudes

El tipo de evento de formación de multitudes se utiliza para detectar cuándo se detectan más de un cierto número de objetos en un ROI. Esta
regla funciona mejor en escenas con un amplio campo de visión. Los objetos deben ser vistos individualmente antes de que entren al grupo
para ser contados. Es posible que los grupos de objetos que siempre están juntos y se mueven juntos no se cuenten individualmente.

Este tipo de evento tiene el parámetro Superposición (%); y solo los objetos que satisfacen esta configuración se cuentan en el grupo. Use el
parámetro Tamaño del grupo para establecer qué tan grande debe ser el grupo para desencadenar un golpe. Para una regla de alarma,
recibirá una alerta cuando una multitud crezca por encima del tamaño dado y otra alerta cuando vuelva a caer. Para una regla de búsqueda,
cada resultado dará la duración durante la cual la multitud fue mayor que el tamaño dado.

13
Regla de longitud de cola

El tipo de evento Longitud de cola detecta cuando una cola o fila de personas o automóviles es corta, mediana, larga,
vacía o no vacía. Esta regla utiliza un ROI especial que tiene tres áreas diferentes: corto, medio y largo. Cada área se
dibuja por separado, pero juntas deben indicar el área donde se forma la cola.
Figura 7

La Figura 7 muestra una región de cola con áreas cortas (verde), medianas (amarillas) y largas (magenta).

Después de dibujar las tres áreas de la cola, la longitud de la cola se determina utilizando la detección de objetos en cada
área. Si se detecta un objeto en el área corta, pero no en el área media, la cola es corta. Si se detectan objetos en las áreas
corta y mediana pero no en el área larga, la cola es mediana. Si se detectan objetos en todas las áreas, la cola es larga. Si no
se detecta ningún objeto en ninguna de las áreas, la cola está vacía.

Las regiones de cola pueden curvarse, doblarse, ir detrás de oclusiones o zigzaguear a través de un área. Sin embargo, para obtener los mejores resultados, las tres
regiones de la cola deben ser adyacentes y no superponerse, como se muestra en la Figura 7.

Utilice el parámetro Superposición (%) para ajustar cómo se detectan los objetos en cada una de las tres áreas. Elija la
longitud de la cola que desea activar: vacía, no vacía, corta, media o larga. La regla de alerta generará una alarma cuando la
cola entre y salga de la longitud elegida. La regla de búsqueda devolverá el tiempo que la cola estuvo en la longitud elegida.

Evite reflejos excesivos y sombras en el área de la cola. Si la superficie del suelo es reflectante, coloque la cámara en un ángulo que
reduzca o evite los reflejos en el campo de visión. Si hay sombras fuertes en el área de la cola, ajuste la iluminación para reducir su
impacto si es posible.

Regla abandonada/retirada
El tipo de evento Abandonado/Eliminado se usa para buscar objetos que se abandonaron en un ROI o para buscar cuándo se
eliminó un objeto de un ROI. El motor de Video Intelligence detecta esto buscando cambios en el fondo de la escena de la
cámara. Cuando se deja un objeto o se lo quitan, se realiza un cambio en el fondo de la escena. Es este cambio el que se
detecta. Utilice el parámetro Superposición (%) para definir si el objeto debe estar completamente dentro del ROI o no,
cuando se deja atrás o se elimina.

El tipo de evento Abandonado/Eliminado también se puede utilizar para detectar cambios en la escena, como la manipulación. Por ejemplo,
la instalación de un skimmer en un cajero automático puede detectarse como un objeto abandonado (el skimmer). También se puede
detectar escribir graffiti en una pared, al igual que dañar o quitar la señalización. Cada vez que se realiza un cambio semipermanente en el
fondo de la escena, se puede detectar con el evento Abandonado/Eliminado.

14
Además de Superposición, también están disponibles dos parámetros adicionales de "Borrado". Considere la posibilidad de exhibir un producto en una
tienda minorista. Es un comportamiento normal que un cliente tome uno o dos artículos mientras compra. Pero puede que no sea normal que un
cliente tome todos o la mayoría de los artículos a la vez. Eso puede indicar un robo. Los ladrones sofisticados pueden incluso tomar algunos artículos a
la vez para evitar sospechas. Pero siguen regresando a la pantalla para tomar algunos más, de modo que después de 5 o 10 minutos, la mayoría de los
elementos se han eliminado. Eso también puede ser sospechoso.

Los parámetros de borrado están diseñados para ayudar a detectar estos casos sospechosos. El parámetro Cantidad cambiada (%) le
permite definir qué porcentaje de la región debe cambiar antes de que se detecte. Por ejemplo, al 50 %, el cambio debe detectarse en
la mitad del ROI y los cambios más pequeños se ignorarán. Cuando se produce un cambio, Video Intelligence mide el área del cambio
y la compara con el área del ROI. Si es más que la cantidad cambiada, se activará una alerta.

El parámetro Dentro de (segundos) se refiere a la cantidad de tiempo durante el cual puede tener lugar el cambio. Cada vez que se
detecta un cambio, Video Intelligence mide el área. Cada área cambiada se agrega hasta que el área total supera el umbral de
Cantidad cambiada. Pero si el valor Dentro de (segundos) transcurre antes de exceder el umbral, el monto total se reduce por el
monto vencido. Por ejemplo, si la configuración es 50 % de la cantidad cambiada y 300 dentro de (segundos), cuando todos los
cambios durante un período de 5 minutos suman el 50 % o más del ROI, se activará una alarma.

Figura 8

Nota:
Cuando se utiliza Abandonado/Eliminado para monitorear activos, es mejor dibujar un ROI que se ajuste bien al dispositivo de visualización.
Cuando hace esto, la cantidad cambiada coincide con los activos tomados. Use una superposición más alta para que se ignoren los cambios cerca
del dispositivo. En la Figura 8, el ROI se limita al dispositivo de visualización.

Firmas de color
Cada objeto que detecta el motor de Video Intelligence recibe una firma de color en los metadatos. Durante el tiempo que el objeto
es visible en la cámara, se analiza para determinar cuál de los siguientes colores aparece cerca: rojo, magenta, azul, cian, verde,
amarillo, negro, blanco y gris. En cada cuadro de video, el análisis se repite, de modo que, con el tiempo, si el objeto cambia de
posición y muestra diferentes colores, también se registran. La firma de color del objeto es el conjunto de todos los colores
observados para él.

Cada una de las reglas de eventos de Video Intelligence que se aplican a objetos individuales tiene un parámetro Color que se puede usar para filtrar los
resultados a uno o más colores. Cuando no se selecciona ningún color, el filtrado de color se desactiva y todos los objetos que cumplan la regla se
activarán independientemente del color. Elija uno o más valores de color para desencadenar solo resultados que tengan al menos uno de esos colores
en su firma.

Al usar firmas de color, es importante recordar que el sistema está grabando los colores tal como aparecen en la transmisión de
video, y no necesariamente cómo se ven en la vida real. Si la calibración del color de la cámara es mala, lo que en realidad es
amarillo en el mundo real puede volverse verde en el video grabado. Estos objetos tendrán solo una firma verde.

15
Algunos colores, tal como los percibe el ojo, pueden no corresponder a los colores registrados por la cámara o mostrados por el
monitor. Puede haber varias razones técnicas para esto. La mejor manera de paliar este problema es realizar la calibración de
color (o balance de blancos) de la cámara.

Sería extremadamente beneficioso realizar la calibración del balance de blancos de cualquier cámara que se vaya a utilizar con filtros de
color. El procedimiento de balance de blancos difiere de un fabricante a otro y entre diferentes modelos de cámara del mismo fabricante.
Consulte el manual del usuario de la cámara para obtener instrucciones.

Para obtener el mejor beneficio de la calibración del color, tanto la cámara como la pantalla deben calibrarse en color. Tenga en cuenta que una
cámara con balance de blancos adecuado dará resultados de percepción diferentes si está conectada a una pantalla calibrada incorrectamente. Si este
es el caso, los resultados de alerta y búsqueda devueltos por el NVR pueden parecer incorrectos.

Los objetos brillantes (o superficies muy reflectantes) parecen aumentar el contenido de amarillo en las firmas de color. Una causa de esto son las
fuentes de luz artificial para interiores que contienen un tono amarillo. Esto es cierto para cualquier fuente de luz blanquecina en el entorno. El efecto
puede ser imperceptible a simple vista, pero puede tener un poderoso efecto de sesgo en el filtro de color. La iluminación fluorescente presenta un tono
verdoso, la iluminación incandescente presenta un tono naranja rojizo y la luz solar presenta un tono azulado.

Los colores más oscuros tienden a activar filtros negros o grises, lo cual es de esperar. A medida que los objetos se vuelven gradualmente más
oscuros, pierden su tono de color. En consecuencia, se les asignan etiquetas grises y/o negras. El uso de fuentes de luz artificial para iluminar las áreas
más oscuras de la escena contrarrestará este efecto.

Las sombras pueden asignar colores falsos a un objeto, incluso sombras apenas perceptibles para el ojo humano. La adición de fuentes de luz
artificial para minimizar las sombras en la escena podría ayudar a aliviar este problema. Dependiendo de la cantidad de luz natural en la
escena, el contenido y la intensidad de las sombras pueden cambiar a lo largo del día. Esto también debe tenerse en cuenta.

Los tonos de gris pueden activar el blanco, el gris y/o el negro y, a menudo, dos de estos colores a la vez. Esto es de esperar, ya que el gris es
un color muy subjetivo.

mapas de calor

Los mapas de calor visualizan toda la actividad detectada en una vista de cámara durante un cierto período de tiempo. Los niveles de
actividad se visualizan codificando con colores cada sección de la vista de la cámara. La escala de colores utilizada para codificar el mapa por
colores varía de azul a rojo, con áreas de alta actividad que van hacia la parte roja de la escala. En la Figura 9, hay un alto nivel de actividad
en el área detrás de las mesas. En comparación, hay un bajo nivel de actividad en la parte superior de las paredes.

Figura 9

Visualizar qué áreas de la vista de una cámara tienen más actividad puede brindarle información sobre el flujo de tráfico en esa área. Esto
podría ser útil para decirle cómo se usa un espacio o cómo reorganizar el espacio para que sea más efectivo. Por ejemplo, en el comercio
minorista, un mapa de calor puede decirle qué pantallas son las más populares o cómo colocar la señalización para maximizar la exposición.

dieciséis
Las escalas de color del mapa de calor varían según el período de tiempo que se analiza. Para comparar mapas de calor de diferentes cámaras, las
escalas de color del mapa de calor deben ser las mismas. Los mapas de calor que cubren el mismo período de tiempo tienen las mismas escalas de
color. Por ejemplo, para monitorear el tráfico de dos salidas de edificios diferentes, cree un mapa de calor para cada salida durante el mismo período
de tiempo y compare los resultados. También se pueden comparar mapas de calor de la misma cámara en diferentes momentos. Ambos mapas de
calor deben haber sido evaluados durante el mismo período de tiempo, para que sus escalas de color sean las mismas. Por ejemplo, para comparar el
tráfico matutino y vespertino en un pasillo, cree un mapa de calor para una hora de la mañana y otro mapa de calor para una hora de la tarde.

Aplicaciones de videointeligencia

Conteo de personas
La forma más común de conteo de personas usando análisis de video es contar la cantidad de personas que se mueven a través de un
área, contando cada dirección por separado. Por ejemplo, la entrada a una tienda donde se cuenta la cantidad de personas que
entran a la tienda y la cantidad de personas que salen de la tienda. Las siguientes secciones describen cómo usar Video Intelligence
para contar personas en este tipo de escenario.

Configuración de la cámara

Aunque es posible contar personas y otros objetos usando casi cualquier opción de montura de cámara, a través de las diversas reglas
disponibles en el paquete Video Intelligence, a menudo se logra la mejor precisión usando una cámara con una orientación hacia abajo. Una
orientación mirando hacia abajo es cuando la cámara se monta directamente sobre el área a monitorear, a una altura de 10 pies a 20 pies
(3,05 m a 6,1 m), y apunta directamente hacia abajo para monitorear un área de aproximadamente 150 pies cuadrados. pies a 200 pies
cuadrados (14 m² a 18,5 m²) de tamaño. Esta configuración aumenta la precisión del análisis de video ya que reduce la complejidad de la
escena. Este tipo de escena es realmente bidimensional porque los objetos están a una profundidad de campo fija y, por lo general, no se
superponen ni se ocluyen entre sí.

Figura 10

La Figura 10 muestra una vista de cámara mirando hacia abajo. Este tipo de vista de cámara es más fácil de analizar porque el ángulo de la cámara reduce la
posibilidad de que las personas se superpongan dentro del campo de visión.

Aunque la escena es más simple, todavía hay varios factores que afectarán la calidad de los análisis. Los problemas de iluminación, como
sombras fuertes o pisos reflectantes, deben reducirse o eliminarse tanto como sea posible. El tamaño y la velocidad de los objetos en
movimiento en la escena también son importantes. Los objetos deben tener al menos el 10%, y preferiblemente más cerca del 20%, del
tamaño del campo de visión. Si los objetos se mueven muy rápido, debe aumentar el área monitoreada para que

17
los objetos en movimiento permanecen en el campo de visión durante al menos unos segundos. Si es posible, se deben evitar los pisos muy oscuros y se debe
tratar de mantener fuera de la escena cualquier movimiento que no sea interesante, como el de un letrero que se balancea, una puerta que se mueve, una
pasarela móvil o una escalera mecánica.

Configuración de alertas

Una vez montada la cámara, el siguiente paso es configurar una o más reglas de alerta de Video Intelligence. Referirse aInteligencia de vídeo
sección de laGuía de usuario e instalación de VideoEdgepara instrucciones generales. Si desea contar las personas que entran y las que salen
de un área, puede usar la regla Tripwire. Esta regla funciona bien en la orientación de la cámara mirando hacia abajo o arriba, y proporciona
los conteos de "entrada" y "salida" usando una sola regla. Estos conteos se pueden mostrar en una vista de video en vivo. No está limitado a la
regla Tripwire y puede usar cualquier regla de Video Intelligence. Cada regla se puede contar individualmente. Si desea contar las personas
que permanecen en un área, puede usar una sola regla de permanencia o puede configurar cuatro reglas para contar las personas que vienen
de cuatro direcciones diferentes. No hay límite para la cantidad de reglas que puede configurar en la cámara y contar.

Figura 11

La figura 11 muestra una región de interés (ROI) definida para el conteo de personas.

También tiene flexibilidad en el tipo de regla que utiliza. Se puede utilizar cualquiera de las reglas de objetos incluidas con Video Intelligence:
Detección de objetos, Objeto abandonado/retirado, Dirección, Permanecer, Entrar y Salir. Por ejemplo, puede usar una regla de dirección este
para contar las personas que entran y una regla de dirección oeste para contar las personas que salen. Alternativamente, puede configurar
dos reglas de dirección para contar las personas que entran por la izquierda y las personas que entran por la derecha. Hay muchas
posibilidades. Ver el¿Qué tipo de regla debo usar? sección para obtener información sobre cada tipo de regla.

Para los escenarios típicos de conteo de personas, en los que se cuenta el número de personas que cruzan una línea en cada dirección, la
regla Entrar de Video Intelligence tiene muy buena precisión. Dibuja una región que cubra la mitad del campo de visión. Esta regla detectará
a las personas que salen de la región (cruzando la línea definida por el borde de la región). Cree otra regla con una región que cubra la otra
mitad del campo de visión. Esta regla detectará a las personas que cruzan la línea en sentido contrario.

¿Qué tipo de regla debo usar?


Ya sea que utilice una vista descendente o una vista en perspectiva más tradicional, se puede utilizar cualquiera de los tipos de reglas de Video
Intelligence. También se puede utilizar la detección de movimiento.

cable trampa –Usa esta regla para contar objetos que se mueven en dos direcciones opuestas a lo largo de una línea.

18
Detección de objetos –Utilice esta regla para contar los objetos que ingresan o cruzan una región de la vista de la cámara. Cada objeto se
cuenta una vez, sin importar cuánto tiempo permanezca en la región o lo que haga en la región. Si el objeto sale de la región y vuelve a entrar
más tarde, se volverá a contar.

Dirección y permanencia–Utilice estas reglas para contar objetos que ingresan a una región de la cámara y se mueven en una dirección
configurada (o persistentes). Cada objeto se contará solo una vez (incluso si se demora de nuevo o vuelve en zigzag para volver a ir en la misma
dirección), a menos que abandone la región por completo y vuelva a entrar más tarde.

Entrada salida–Utilice estas reglas para contar los objetos que aparecen en la cámara dentro de una región y luego salen de ella (una puerta
en una vista en perspectiva o en el borde de la cámara en una vista desde abajo), o se mueven hacia una región y desaparecen de ella.
cámara en su interior. Cada objeto se contará una sola vez.

Objeto Abandonado / Eliminado–Utilice esta regla para contar los cambios en el fondo de la escena, cuando se agregan o
eliminan objetos.

Regiones de alerta

La selección de una buena región depende del tipo de escena y del punto de vista de la cámara. En general, hay tres tipos de escenas:
patio, pasillo y portal. En una escena de patio (Figura 12), no hay un punto específico de entrada o salida, y las personas no están obligadas
a moverse por un camino en particular. Una escena de pasillo típica (Figura 13) restringe el movimiento a lo largo de un camino particular,
y puede haber más de un punto de entrada o salida en la región del pasillo. Finalmente, en una escena de entrada (Figura 14), hay un
punto específico de entrada o salida y el movimiento a través de ese punto está restringido. Para cada uno de estos tipos de escena, puede
tener cámaras montadas en orientaciones de perspectiva o de vista hacia abajo.

Figura 12

La figura 12 muestra una escena tipo patio: definición de un ROI de regla de entrada que cubre aproximadamente el 20 % de la escena. Esto contará a las
personas que ingresan por el borde superior y se mueven hacia el sur, pero no contará a las personas que ingresan por el lado izquierdo/derecho.

En las escenas de patio, si le interesa contar a las personas que aparecen estrictamente en el borde superior y se mueven en dirección sur, dibuje una
región que cubra aproximadamente el 20 % de la escena desde la parte superior (consulte la Figura 12). Para contar las personas que aparecen cerca de
la parte superior de la vista y se mueven en dirección sur, dibuje una región más inclusiva que cubra aproximadamente el 50% de la escena desde la
parte superior. Tenga en cuenta que la regla Entrar requiere que la persona esté completamente dentro de la región cuando aparece, por lo que
aumentar la región al 50 % incluirá a las personas que pueden aparecer en la parte superior izquierda y superior derecha de la escena. De manera
similar, para otras reglas, ajuste la región según lo que desee contar y cómo funciona la regla. Esto se aplica tanto a las cámaras de vista hacia abajo
como a las de perspectiva.

19
Figura 13

La figura 13 muestra una escena de tipo pasillo: definición de una ROI de regla de dirección en el pasillo izquierdo para contar las personas que se mueven de sur
a norte, y definición de una ROI de regla de detección de objetos en el pasillo derecho para contar las personas que entraron en ese pasillo.

Para escenas de pasillo, la región debe cubrir el camino donde desea contar personas. Si desea contar las personas que ingresan al pasillo,
dibuje un ROI que cubra la entrada y hágalo lo suficientemente largo para que las personas tarden unos segundos en salir. Si desea contar
todas las personas que pasaron por el pasillo, puede dibujar una región que cubra todo el pasillo con una regla de detección de objetos. Para
vistas de cámara en perspectiva o mirando hacia abajo, la región debe dibujarse de modo que las personas se superpongan con ella al
menos en la cantidad de superposición especificada en la regla de alerta.

Figura 14

La figura 14 muestra una escena de tipo puerta: definición de un ROI de regla de entrada para contar las personas que ingresan por la puerta. En este caso,
se puede usar la misma región para un ROI de regla de salida.

Para contar personas en una escena de entrada, la región debe contener el área de entrada o salida. Para las vistas hacia abajo, se
recomienda montar la cámara de manera que la puerta no obstruya esta región. Si la entrada está cerca de un lugar donde la gente pasa sin
pasar por la puerta, las reglas de entrada y salida también pueden contar erróneamente a esas personas. En tales casos, se puede usar una
regla de Dirección, o puede hacer que la región sea más pequeña para evitar a los transeúntes. Para las vistas en perspectiva, normalmente
no es posible dibujar una región por donde entran o salen personas sin incluir la puerta y otros elementos del fondo. En tales casos, dibuje
una región lo suficientemente grande como para que contenga la puerta cuando se abra.

20
Análisis de los datos

Una vez que haya configurado las reglas de alerta, el software Video Intelligence que se ejecuta en el VideoEdge NVR genera alertas.
Esas alertas se envían a victor y se almacenan en el diario. Desde aquí puedes analizar los resultados.

Primero, seleccione los eventos en el Diario que desea visualizar. Seleccione Informes y visualización de datos en la pestaña Inicio y, a
continuación, elija las opciones Intervalo de fechas e Informe. Elija Video como Categoría y Actividad de dispositivo de video/audio como
Plantilla, y luego elija la cámara en el campo Dispositivo, Alarmas en el campo Tipo de actividad y Tipo y nombre de alarma en los campos de
opción. Si creó varias reglas de conteo diferentes, seleccione cada una, ya sea por nombre o tipo. A continuación, puede guardarlo como un
nuevo informe mediante el icono Guardar. Una vez guardado, puede ejecutar o visualizar fácilmente ese informe en otro momento sin tener
que configurar todos los campos.

Cuando ejecuta un informe, se buscan en el diario los eventos correspondientes, que luego se muestran. Puede revisar los detalles
de cada evento y ver el video correspondiente. El número de entradas de eventos es el recuento de la regla correspondiente sobre el
intervalo de fechas del informe.

Cuando visualiza un informe, los eventos correspondientes se trazan a lo largo del tiempo. Según el rango de fechas del informe, se pueden
mostrar por semana, por día, por hora o por minuto. Cada regla se traza como una serie de datos separada, por lo que puede comparar los
recuentos de Entrada y Salida, Izquierda y Derecha, etc. Profundice en el gráfico para ver los detalles de cada período de tiempo o vea el
video de eventos individuales.

Figura 15

El visualizador de datos, que se muestra en la Figura 15, traza eventos a lo largo del tiempo. Puede desglosar o ampliar para revisar por mes,
por semana, por día, por hora o por minuto.

Nota:
Los análisis de video no son perfectos y pueden cometer errores. Siempre pruebe su configuración en video real y verifique los resultados
para determinar la mejor región y configuración de búsqueda, y para comprender las fallas que pueden ocurrir.

Análisis retrospectivo
Además de usar el visualizador de datos con alertas en el diario victor, también puede usarlo para analizar los resultados de búsqueda. Una
ventaja de visualizar los resultados de búsqueda es que puede analizar eventos pasados. Por ejemplo, tiene una gran venta pero la tienda se
desempeñó peor de lo esperado según los datos de ventas. Puede ingresar y analizar los datos de tráfico utilizando búsquedas de Video
Intelligence durante el período de tiempo de la venta; no es necesario haber configurado reglas de alerta antes de la venta.

Otra ventaja de analizar los resultados de la búsqueda es ajustar las reglas de alerta. Para hacer esto, configure las cámaras, habilite Video Intelligence
y déjelo funcionar durante aproximadamente una semana recopilando datos. Luego, use reglas de búsqueda para probar diferentes regiones y
parámetros, analizando los resultados y afinando hasta obtener los resultados que desea. Cuando tienes la regla correcta,

21
haga clic en el botón Guardar como alerta en la ventana de resultados de búsqueda y la regla se guardará como una nueva regla de alerta. Ahora
sabe que la regla recopilará los datos correctos a partir de ahora.

Punto de venta (POS)


Cuando se trabaja con datos de excepciones y transacciones de POS, a veces es importante saber si un cliente estuvo presente en
una terminal de POS durante una transacción en particular. Video Intelligence proporciona una función analítica para verificar si un
cliente está presente. En esta sección, se describe cómo configurar la analítica Presente del cliente y usarla con datos de POS.

El primer paso es configurar dónde se espera que estén los clientes en la vista de cámara. Esto se hace definiendo una Región de
cliente en la cámara asociada con el objeto Terminal POS. Haga clic con el botón derecho en un terminal POS en la Lista de
dispositivos y elija Definir región. Esto abrirá el cuadro de diálogo Editor de regiones para ese terminal. Seleccione la cámara
asociada para definir la región del cliente. Se muestra una vista en vivo de la cámara y puede usar las herramientas de dibujo para
crear regiones en la vista de la cámara.

Hay cuatro tipos de regiones disponibles: Terminal, Cliente, Empleado y Mercancía. Cada uno indica en qué parte de la
escena esperaría ver esa parte de una transacción de POS. Seleccione el tipo de región que le gustaría crear y dibuje la
región en el video. Puede crear más de una región de cada tipo. La región del cliente se utiliza para realizar la analítica del
presente del cliente.

Nota:
No hay análisis para la presencia de empleados o mercancías, solo para la presencia del cliente. Las otras regiones son solo para
fines de visualización.

La mejor forma de dibujar una región de cliente depende de la orientación de la cámara. Para una cámara montada con una orientación hacia
abajo, la región del cliente debe indicar el área del piso donde se espera que los clientes permanezcan en la terminal POS (consulte la Figura
16 para ver un ejemplo de una región del cliente en una cámara típica montada hacia abajo). La analítica Cliente presente busca objetos de
primer plano en la región en el momento de la transacción. Seleccione la configuración de orientación "mirar hacia abajo" en la configuración
de la cámara VideoEdge para habilitar este modo.

22
Figura 16

La Figura 16 muestra la región del cliente (área resaltada en amarillo) en una cámara típica montada con vista hacia abajo. Cuando la cámara está en
una orientación de perspectiva y no en una orientación de mirada hacia abajo, entonces la Región del cliente funciona mejor cuando indica un plano en
un espacio tridimensional alrededor de la terminal POS. Esto se logra dibujando un trapezoide con lados verticales, como se muestra en la Figura 8. La
parte superior del trapezoide debe indicar aproximadamente dónde se encuentran las cabezas de las personas cuando están de pie en la terminal, y la
parte inferior debe indicar aproximadamente la parte más baja de las personas que se ven. Estos podrían ser sus pies o su abdomen cuando están
parados detrás de un mostrador.

Figura 17

En la Figura 17 se representan tres regiones de clientes. La más cercana a la cámara se extiende hasta el suelo, porque los clientes de este
lado son totalmente visibles para la cámara. Los del otro lado solo se extienden hasta el mostrador, porque eso es todo lo que la cámara
puede ver de los clientes del otro lado. Tenga en cuenta que cada región de cliente es un trapezoide con lados aproximadamente verticales.

La Figura 18 muestra un ejemplo de una buena ubicación de la cámara y la selección de la región del cliente para una cámara en perspectiva. La
analítica Cliente presente busca objetos de primer plano en la región cuya parte superior esté cerca de la parte superior de la región y cuya parte
inferior esté cerca de la parte inferior de la región. Esto ignora a las personas que se encuentran más lejos de la terminal o más cerca de la cámara. No
seleccione la configuración de orientación de "mirar hacia abajo" en la configuración de la cámara VideoEdge cuando habilite este modo.

23
La Figura 19 es un ejemplo de una mala ubicación de la cámara para el análisis de Customer Present. La cámara se coloca casi
directamente detrás de la terminal POS y, como resultado, el empleado que opera la terminal oculta a los clientes. El
algoritmo de análisis de video no considerará al cliente y al empleado por separado y el objeto correspondiente a su unión no
satisfará las condiciones de Cliente Presente descritas en el párrafo anterior. En este ejemplo particular, la parte inferior del
objeto conjunto no estará cerca de la parte inferior de la Región del cliente (resaltada en amarillo en la figura).

La figura 20 muestra una ubicación de la cámara aún más difícil con respecto al análisis Camera Present. Hay 3 terminales POS en la cámara,
pero debido a la abundancia de desorden alrededor de las terminales, sería difícil incluso para un observador humano, y mucho menos para
los algoritmos de análisis de video, ubicar a los clientes. En el marco que se muestra en la Figura 20, en realidad hay un cliente frente a una de
las terminales, pero no es fácilmente visible.

Figura 18

La Figura 18 muestra la región del cliente (área resaltada en amarillo) para una cámara montada en una orientación en perspectiva. Esta es
una buena posición de cámara, ya que separa bien las regiones de clientes y empleados.

24
Figura 19

La Figura 19 muestra un ejemplo de una mala ubicación de la cámara para cámaras montadas en una orientación en
perspectiva. El empleado ocluye al cliente y el objeto resultante no encaja en la Región del cliente (resaltada en amarillo).
Figura 20

La Figura 20 ilustra otro ejemplo de una mala ubicación de la cámara para cámaras montadas en una orientación en perspectiva. Los
clientes están ocluidos por el desorden alrededor de las terminales y por la actividad en otras terminales.

La Figura 21 presenta un ejemplo de una cámara en una orientación en perspectiva, montada con un ángulo tan grande con el
techo (cerca del ángulo recto), que usar el modo de mirar hacia abajo mejora el rendimiento del análisis Customer Present.

La Figura 22 muestra otro ejemplo del uso del modo de cámara mirando hacia abajo para el análisis de Customer Present. Hay tres terminales POS en
esta vista de cámara. Los clientes que interactúan con la Terminal 1 en el lado izquierdo son completamente visibles y se puede seleccionar una buena
región de clientes para esa terminal. Sin embargo, en el lado derecho, los clientes que esperan en fila para la Terminal 3 están ocupando un área donde
debería estar una Región de clientes para la Terminal 2. Los clientes que actualmente están interactuando con la Terminal 3 están ocluyendo
parcialmente a los clientes que interactúan con la Terminal 2. Este es un ejemplo de una mala ubicación de la cámara, especialmente si estamos
interesados en transacciones de POS en la Terminal 2 y, hasta cierto punto, en

25
Terminal 3. Una solución sería colocar una cámara encima de la Terminal 3, y posiblemente otra encima de la Terminal 2, en una verdadera orientación
mirando hacia abajo, como en la Figura 16.

Figura 21

La Figura 21 muestra una cámara montada con cierta perspectiva, que es más adecuada para el procesamiento en el modo de
vista hacia abajo del análisis actual del cliente. La región del cliente está resaltada en amarillo.

Figura 22

La Figura 22 muestra una cámara montada con cierta perspectiva, que es más adecuada para el procesamiento en el modo de vista hacia
abajo. Los clientes de la Terminal 1, a la izquierda, son visibles, por lo que el análisis actual del cliente funciona bien. Este no es el caso de las
Terminales 2 y 3, a la derecha, ya que los clientes que esperan en la fila de la Terminal 2 están en la Región de Clientes de la Terminal 3.

El objeto Terminal POS en victor tiene dos propiedades: Buscar antes de segundos y Buscar después de segundos. Cuando se utiliza la
analítica Cliente presente para verificar si una persona está presente durante una transacción, el sistema agrega estos valores a la hora de
inicio y finalización de la transacción de POS para determinar la ventana de tiempo en la que buscar un cliente. Puede ajustar los valores para
cada terminal de forma independiente.

26
Si la cámara asociada con un terminal POS tiene una licencia de Video Intelligence y una Región de cliente definida, el análisis Cliente
presente está disponible para ese terminal. Al realizar una búsqueda de transacciones de POS en ese terminal, o al importar excepciones de
POS en ese terminal, los resultados se pueden filtrar según si un cliente se detectó o no en el terminal en el momento de la transacción. Esta
opción está disponible en el cuadro de diálogo de búsqueda de transacciones de TPV y en el paso Opciones de importación del asistente de
importación de informes de excepciones.

Nota:
Los análisis de video no son perfectos y pueden cometer errores. Siempre pruebe su configuración en video real y verifique los resultados
para determinar la mejor región del cliente y la configuración de búsqueda y para comprender las fallas que pueden ocurrir.

Análisis de la tasa de conversión

Otra aplicación común del análisis del tráfico de video en el comercio minorista es calcular las tasas de conversión. Este análisis compara los volúmenes
de tráfico de la tienda con los volúmenes de ventas, midiendo la tasa a la que los compradores se convierten en compradores. La diferencia en los
volúmenes de tráfico y ventas representa oportunidades de ventas perdidas y se puede analizar a lo largo del tiempo para estudiar los efectos
estacionales y promocionales.

Considere el siguiente escenario: tenemos una tienda pequeña con una sola entrada y queremos analizar las tasas de conversión de los DVD
lanzados recientemente que se muestran en una pantalla de tapa lateral prominente. La siguiente sección usará este escenario para mostrar
cómo usar el Visualizador de datos para analizar datos de múltiples reglas de Video Intelligence en múltiples cámaras, junto con resultados de
búsqueda de datos de punto de venta (POS).

Configuración de la cámara

Configuraremos dos cámaras para este ejemplo. La primera será una cámara de mirada hacia abajo en la entrada de la tienda. Esta cámara
se utilizará para contar las personas que ingresan a la tienda. Crearemos una regla de alerta Enter en la cámara llamada “Store Traffic”.

Figura 23

La segunda cámara se montará con una vista de la tapa del extremo donde se muestran los DVD y el pasillo frente a ella (consulte la Figura
23). En esta cámara, crearemos una regla de detección de objetos llamada "Tráfico de pasillo" para contar las personas que caminan por el
pasillo. También crearemos una regla Linger, llamada "DVD Lingers", en la pantalla de la tapa final.

Análisis de los datos

Para analizar las tasas de conversión, debemos importar los datos del punto de venta (POS) para que podamos comparar el tráfico de video con el tráfico de
ventas. Puede importar los datos utilizando el complemento victor POS.

Nota:
Las características de POS son un complemento con licencia para el cliente unificado de victor. Se debe obtener una licencia antes de que las funciones de POS estén

disponibles.

27
Primero, vaya a victor Journal y cree un visualizador de datos para la alerta "Tráfico de la tienda". Luego, agregue las alertas "Tráfico de pasillo" y "Persistentes de
DVD" a esa ventana del Visualizador de datos. Finalmente, use el asistente de búsqueda y recuperación de POS para encontrar todas las transacciones de POS que
incluyen ventas del DVD. Desde la ventana de resultados, agregue los resultados a la ventana del visualizador de datos que contiene los datos de alerta. Ahora
puede analizar visualmente las tasas de conversión de las personas que ingresan a la tienda, a las personas en el pasillo, a las personas que se quedan en la tapa
final, a las personas que compran DVD, por día o por hora, durante cualquier período de tiempo que elija.

Mejores prácticas de inteligencia de video

Ubicación de la cámara
El éxito del análisis de video depende de tener video de buena calidad de cámaras que estén posicionadas para brindar las mejores
vistas posibles. Esta sección describe las mejores prácticas para la colocación de la cámara en diversas condiciones y entornos.
Considere los requisitos de análisis de video antes de colocar cámaras.

Considere las siguientes pautas generales para optimizar el análisis de video, que se analizarán con más detalle en esta
sección:

• Garantice una cobertura completa de los artículos protegidos.

• Utilice soportes de cámara adecuados.

• Superponga las vistas de la cámara para garantizar que no haya puntos ciegos.

• Optimice la ubicación de la cámara para ahorrar costos y seguridad.

• Asegúrese de que el campo de visión de la cámara esté libre de obstrucciones.

• Utilice alarmas y búsquedas que coincidan con el entorno.

• Siempre que sea posible, monte las cámaras en estructuras estables existentes.

• Deben evitarse las cámaras PTZ, pero si utiliza cámaras PTZ, tenga en cuenta las siguientes
recomendaciones:

• Utilice vistas junto con una cámara PTZ con posiciones preestablecidas, en lugar de crear vistas basadas en
posiciones no preestablecidas que haya configurado manualmente. No usar ajustes preestablecidos
dificulta el monitoreo analítico; Si crea una vista en Analytics en función de una posición que configuró
manualmente y luego se desplaza, inclina o aleja, es difícil volver a mover la cámara a la posición original
más adelante para que Analytics pueda reanudar la supervisión.

• Si está utilizando una cámara PTZ que cambia de posición automáticamente a intervalos, o un
multiplexor que cambia entre cámaras automáticamente a intervalos, se recomienda que
establezca el intervalo en no menos de 30 segundos para la mayoría de las reglas.

Los siguientes factores pueden afectar la calidad del video:

• Problemas de iluminación

• Tamaño de los objetos

• Separación de objetos

• Obstrucciones

• Condiciones ambientales
• Objetos en movimiento

Cada uno de estos elementos será abordado en esta sección.

28
Deslumbramiento y luces intermitentes

El deslumbramiento puede ser causado por la luz reflejada en superficies como el agua o el vidrio. También puede ser causado por la luz, como la
luz artificial brillante del alumbrado público, que se refleja en la lente de una cámara.

Asunto

El deslumbramiento puede desencadenar falsas alarmas y hacer que los análisis pasen por alto eventos.

Solución
Para evitar que los reflejos afecten el análisis, cambie la posición de la cámara para que no apunte a la fuente del resplandor. Si esto no es
posible, considere agregar filtros polarizadores a la lente de la cámara.

Luces móviles y faros de vehículos


Un error común de ubicación de la cámara es colocar una cámara cerca de una carretera que se enfrenta al tráfico que se aproxima, lo que permite que
los faros de los vehículos brillen o parpadeen en la lente de la cámara. Esto provoca un fenómeno conocido como floración. Blooming es cuando una
cámara está saturada de luz brillante. Blooming impide temporalmente que los análisis controlen la cámara.

Asunto

Los faros de los vehículos, las luces de freno y otras luces en movimiento pueden provocar la floración.

Figura 24 Figura 25

Soluciones
• Coloque las cámaras al lado del tráfico vehicular en lugar de frente a él, o amplíe o aléjese del tráfico.

• Utilice cámaras térmicas.

Luz insuficiente por la noche.


Durante la noche, cuando no hay suficiente luz artificial para proporcionar iluminación, los resultados analíticos pueden degradarse cuando se
usan cámaras sin capacidad de visión nocturna o con poca luz.

Figura 26 Figura 27

29
Asunto

La luz artificial inadecuada durante la noche puede hacer que los análisis pasen por alto eventos y se disparen falsas alarmas.

Soluciones
• Utilice luz artificial para iluminar la escena.

• Reemplace la cámara con una cámara integrada de día/noche (IDN).

• Utilice una cámara térmica.

Oscuridad
Las sombras pueden hacer que los análisis pasen por alto eventos, lo que provoca que se activen falsas alarmas. Las sombras en movimiento pueden causar
alertas falsas y resultados de búsqueda inexactos, ya que los objetos dentro de las áreas sombreadas pueden no ser claramente visibles. Las causas de las
sombras incluyen nubes, árboles y follaje.

Asunto

Con las sombras en movimiento, es posible que los objetos dentro de las sombras no sean claramente visibles, lo que hace que los análisis pasen por alto eventos y
se activen falsas alarmas.

Figura 28 Figura 29

Soluciones
• Proporcionar una iluminación adecuada para el área o bien protegido.

30
Traducido del inglés al español - www.onlinedoctranslator.com

• Utilice cámaras térmicas.

superficies reflectantes
Las superficies reflectantes pueden activar falsas alarmas en el análisis, ya que provocan deslumbramiento y pueden hacer que el análisis confunda
los reflejos con objetos reales. Para detener las falsas alarmas causadas por los reflejos, coloque la cámara para evitar la fuente del reflejo.

Los ejemplos de superficies reflectantes incluyen:

• Masas de agua, como océanos, lagos o piscinas.


• Espejos

• Ventanas
• Faros

Cuerpos de agua
Los cuerpos de agua como océanos, ríos, arroyos, lagos y piscinas pueden activar falsas alarmas. El deslumbramiento y el movimiento del agua pueden
hacer que los análisis confundan partes del agua con objetos. Para detener las falsas alarmas, intente colocar la cámara de manera que no mire hacia el
agua. Los problemas con las superficies reflectantes suelen ser más difíciles de resolver que las sombras.

Superficies sólidas reflectantes

Las superficies sólidas altamente reflectantes, como espejos, ventanas y faros, pueden hacer que el motor de análisis confunda la
luz reflejada con objetos.

Figura 30

Soluciones
• Colocación correcta de la cámara y garantizar niveles de iluminación adecuados.

• Utilice cámaras térmicas.

• Cuando defina un ROI para búsquedas y alertas, excluya áreas que contengan superficies reflectantes o deslumbrantes.

31
Tamaño de los objetos

El análisis de video integrado en VideoEdge Video Intelligence se enfocará y reconocerá mejor los activos y las personas cuando representen
una porción más grande de la vista de la cámara.

El tamaño de los activos o las personas en la vista de la cámara depende de una serie de factores, incluidos los siguientes:

• El tamaño del objeto del mundo real.

• La distancia de la cámara al objeto.


• La distancia focal de la lente (nivel de zoom).

Suponiendo que el tamaño físico de los activos sea fijo, los problemas de tamaño en la cámara se pueden abordar acercando la
cámara o aumentando el nivel de zoom, quizás con una nueva lente.

Si la mercancía es demasiado pequeña en la vista de la cámara, el movimiento de la mercancía se ignorará como ruido de la cámara.
Asegúrese de que la mercancía a proteger cubra al menos el 5% de la vista de la cámara.

Figura 31

En la Figura 31, los activos cerca de la mitad del estante son lo suficientemente grandes como para rastrearlos. Los activos cerca del final de la pantalla son
demasiado pequeños.

Separación de bienes y personas


Video Intelligence separa activos, como productos en un estante, de personas, como clientes que caminan por el pasillo frente al
estante, en función de su patrón de movimiento a lo largo del tiempo. Si las personas y los activos ocupan regularmente el mismo
espacio en la vista de una cámara durante períodos prolongados, la eficacia del software disminuye. Ajustar las vistas de la cámara
puede resolver este problema.

Asunto

Los activos no se pueden distinguir de las personas.

Solución
Corrija el ángulo de la cámara para separar el activo protegido de las personas del fondo.

Figura 32 Incorrecto: Los activos y las personas son Figura 33 Correcto: Los activos y las personas son
mezclado apartado

32
Solución
Asegúrese de dibujar el área de interés correcta. Una persona inmóvil podría confundirse con un activo y podría activar
una alerta si se aleja.

Figura 34 Incorrecto: la región de interés contiene Figura 35 Correcto: Región de interés


bienes y personas contiene solo activos

Problemas de obstrucción: estantes y personas


Asunto

Los estantes y las personas pueden crear un "efecto de pared", bloqueando un área de visión.

Solución
Apunte cámaras a lo largo del estante, colocadas de manera que una persona no bloquee el artículo que se está protegiendo.

Figura 36 Incorrecto: Vista de bloques de estantes Figura 37 Incorrecto: Vista de bloques de personas

33
Figura 38 Correcto: Vista desbloqueada

Condiciones ambientales
Asunto

Las condiciones climáticas pueden causar problemas con el análisis si la vista de la cámara tiene parte de su región de interés (ROI)
mirando por una ventana o es una cámara exterior.

Considere condiciones exteriores como las siguientes:

• Precipitación

• Viento

• El movimiento del Sol

34
Figura 39

Otra consideración para la ubicación de la cámara es la época del año o estación. Si se instala una cámara en el invierno y hay un
árbol en la región de interés, el tamaño del árbol y la cantidad de vista que ocupa aumentarán a medida que avance el año y el árbol
gane hojas. Asegúrese de que ninguna vista de la cámara apunte a través de las ramas de los árboles.

Soluciones
• Corrija la posición de la cámara y evite colocar las cámaras donde se vean directamente afectadas por la
precipitación.

• Usar cámaras térmicas

• Excluir áreas que contengan ramas en movimiento u objetos similares, al definir un ROI para búsquedas y
alertas.

Objetos en movimiento

Asunto

Los objetos en constante movimiento pueden causar problemas de análisis. Ejemplos incluyen:

• Puertas correderas automáticas

• Escaleras mecánicas

• Tráfico de fondo a través de puertas o ventanas de vidrio

• Árboles y arbustos que se balancean

Soluciones
• Corrija la posición de la cámara y, si es posible, evite colocar las cámaras donde se vean directamente afectadas por objetos
en movimiento.

• Excluir áreas que contengan objetos en movimiento al definir el ROI para búsquedas y alertas.

Ubicación de la cámara: buenos y malos ejemplos


Las siguientes vistas de cámara muestran ejemplos adicionales de buenas y malas vistas de cámara.

Protección de activos

Figura 40 Bueno: Vista sin obstrucciones. Figura 41 Incorrecto: vista obstruida.

35
Seguimiento de personas

Figura 42 Bueno: Pista suficiente, no Figura 43 OK: Algunas pistas, algunas


obstrucciones obstrucciones

Persistir

Figura 44 Malo: Vista cortada por la pantalla. Figura 45 Incorrecto: No hay espacio delante de la pantalla.

Figura 46 Buena vista para demorarse. Figura 47 Buena vista para permanecer en dos carriles.

36
Región de interés correcta
Asunto

Las regiones de interés mal definidas pueden hacer que las personas y los objetos interfieran con las alertas y los resultados de la búsqueda.

Solución
Para las cámaras que cubren la mercancía, la mercancía de interés debe estar completamente dentro de la vista de la cámara. Si
también está interesado en monitorear cómo interactúan los clientes con esa mercancía, incluya el pasillo frente a la mercancía en
la vista de la cámara.

Figura 48 Mala vista: Persona bloqueando vista. Figura 49 Mala vista: Vista de bloqueo de estante.

Evaluación del sitio


Esta sección describe el formulario de evaluación del sitio y su importancia en la recopilación de la información requerida para una operación exitosa
de análisis de video. El formulario de evaluación del sitio tiene dos propósitos principales:

1 Para capturar información relevante del sitio sobre posibles problemas de colocación de cámaras, por cámara.

2 Para ayudar a determinar si una solución de análisis de video es viable al ilustrar las posiciones y configuraciones
de la cámara.

Objetivos del cliente y análisis de amenazas


• Analice las amenazas previstas y los objetivos generales de la instalación de Video Intelligence con los usuarios.

• Discutir todos los escenarios de amenazas previstos con el usuario por cámara.

37
• Describir completamente los escenarios de detección.

• Describa completamente los escenarios de no detección.

• Revisar cualquier movimiento intrascendente.

• Describir escenarios de notificación por alerta. Esto incluye determinar qué personal debe ser notificado sobre un
evento detectado y por qué mecanismo, por ejemplo, a través de una consola de alerta, correo electrónico o
asistente digital personal (PDA).

• Discutir los requisitos futuros que pueden afectar las decisiones de implementación temprana.

Mapa del sitio

Considere los siguientes factores ambientales:

• Revisar la colocación de obstrucciones naturales y artificiales y si estas obstrucciones son permanentes o


temporales. Tome nota de las obstrucciones que pueden cambiar con las estaciones, como la visibilidad a
través de árboles con y sin hojas.

• Ubicaciones de caminos e información sobre el tráfico anticipado, incluyendo:

• Información vehicular como tamaño, número, velocidad promedio y trayectoria de los faros.

• Información sobre peatones, incluida la velocidad media, la dirección y la densidad.

• Información detallada sobre la ubicación de la cámara, que incluye:

• Ubicaciones físicas de las cámaras

• Tipo de montaje de cámara, por ejemplo, fijo o PTZ, alojado o abierto

• Estructuras sobre las que se montan las cámaras. Por ejemplo, considere el movimiento estructural o las
vibraciones de los sistemas HVAC.

• Posibilidad de manipulación de la cámara

• Altura, inclinación y distancia focal de la cámara

• Si la cámara es interior o exterior


• La distancia desde el área de interés
• Una determinación de la cobertura adecuada para satisfacer las metas de detección del sistema.

• La ubicación de todas las fuentes de iluminación, como la iluminación incandescente, activada por movimiento o
infrarroja.

• La ubicación de todas las superficies reflectantes, incluyendo:

• Espejos o vidrio espejado

• Ventanas
• Cuerpos de agua

• Acero

Cámaras
Para cada cámara involucrada en la instalación analítica, registre la siguiente información:

• Tipo de cámara, como monocromática, a color, día/noche integrada, con poca luz, luz amplificada o infrarrojos con visión
de futuro (FLIR)

• Marca de la cámara

• Modelo de cámara

• Índice de sensibilidad a la luz en lux

• Tipo de lente y grados de visión

38
• Años en servicio o problemas de mantenimiento

• Resolución de salida en píxeles

• Cuadros por segundo

• Tipo de iluminación requerida, como incandescente, infrarroja o LED

• Si se trata de una cámara con calefacción o refrigeración

Ambiente
Registre las condiciones ambientales que pueden tener un efecto en las cámaras, incluyendo:

Interior

• Iluminación y cambios de iluminación anticipados, como la luz del sol a través de las ventanas

• Niveles de tráfico previstos para las personas que pasan frente a las cámaras

Exterior
• Cambios de iluminación

• Niveles de tráfico o actividad anticipados

• El camino del sol


• Fenómenos climáticos y frecuencia

• Lluvia, lluvia helada, granizo, nieve, vientos fuertes, tornados, huracanes y tormentas de arena

• Flora, incluidos árboles, arbustos y pastos altos

• Fauna, incluidas aves y animales pequeños y grandes

Precisión de medición
Hay varias formas diferentes de medir la precisión del análisis de video. La comparación de los resultados de una regla analítica con
lo que realmente sucede en el video produce tres casos:

• La analítica detecta un evento que realmente sucedió. Este es un resultado de coincidencia o verdadero positivo (TP).

• La analítica detecta un evento que en realidad no sucedió. Esto es un error o un resultado falso positivo (FP).

• Las analíticas no detectan un evento que realmente sucedió. Este es un resultado erróneo o falso negativo (FN).

Para el conteo de personas u objetos, medimos la precisión del conteo: cuántos eventos se detectaron (TP+FP) en comparación con
cuántos eventos ocurrieron realmente (TP+FN). Podemos expresar esto como (TP+FP)/(TP+FN). Esto mide la precisión del conteo.
Pero en realidad no mide la precisión de la detección. Los análisis pueden cometer muchos errores (FP+FN), pero mientras FP y FN
tengan aproximadamente el mismo tamaño, la precisión del conteo será alta. No es necesario que detecte un solo evento
correctamente para obtener una puntuación positiva. Esta es la puntuación de 'recuento'.

Si realmente queremos medir la precisión de la detección de eventos, podemos usar una fórmula diferente1: TP/(TP+(FN+FP)/2). Esta expresión es mucho
menos indulgente. La única forma de obtener una puntuación perfecta es no tener errores, donde tanto FN como FP son 0. Tienes que detectar al menos
un evento real para obtener una puntuación positiva. A esto lo llamamos la puntuación de 'detección'.

La mayoría de las personas que cuentan soluciones en el mercado citan la precisión utilizando la puntuación de conteo. Para el conteo de personas y
objetos, esta es una buena medida, siempre que se mida en un número significativo de eventos y en una amplia gama de escenas. Los análisis pueden
cometer errores, pero para obtener una buena puntuación de conteo no pueden cometer demasiados errores (hay un FN máximo fijo) y los errores que
cometen son imparciales (distribuidos uniformemente entre FN y FP). Pero si el puntaje de conteo se mide sobre una pequeña cantidad de eventos o una
pequeña cantidad de escenas, no se puede confiar en el puntaje de conteo como un indicador verdadero de la calidad del análisis.

1Esta fórmula está extraída de “Revisión y comparación de medidas para sistemas automáticos de videovigilancia”, Baumann
et. Alabama.

39
Inteligencia profunda

Esta sección está destinada a los administradores de seguridad y del sistema VideoEdge responsables de configurar y mantener las
instalaciones de Deep Intelligence. Proporciona orientación conceptual y asesoramiento sobre la instalación y configuración de hardware, y
explicaciones de las funciones del software Deep Intelligence.

¿Qué es la Inteligencia Profunda?


Deep Intelligence es un motor de seguimiento y detección de personas basado en vídeo. Utiliza una red neuronal que nuestros
ingenieros capacitaron con aprendizaje profundo para analizar el video de vigilancia y proporcionar funciones de detección, seguimiento
y conteo de personas en las vistas de la cámara desde arriba.

El software Deep Intelligence analiza cada cuadro de video de la cámara, detecta personas en el campo de visión y rastrea cómo
esas personas se mueven debajo de la cámara. Los operadores pueden buscar y analizar rápidamente los metadatos de video
grabados para comprender la cantidad de personas y el movimiento de las personas que pasan debajo de la cámara.

Para obtener los mejores análisis de inteligencia profunda, utilice el cliente unificado de victor.

Figura 50 Vista de cámara descendente de Deep Intelligence

Deep Intelligence proporciona los siguientes tipos de información:

• Cuántas personas hay en un área.

• Cuántas personas pasaron por un área en particular en un momento en particular.

• Cuántas personas se quedaron en un área.

• A qué horas la gente está esperando en un área.

• A qué hora entró alguien en un área.

40
Tipos de eventos de inteligencia profunda
VideoEdge Deep Intelligence detecta la ubicación y el movimiento de las personas debajo de la cámara. Al analizar estos datos,
puede detectar cuándo ocurren ciertos eventos en la vista de la cámara y configurar alarmas basadas en los eventos.

El video se puede analizar para detectar eventos en tiempo real, mientras que los metadatos grabados se pueden analizar para detectar eventos en el
pasado. Los tipos de eventos que se pueden detectar están relacionados con la apariencia y el movimiento de las personas en la escena.

Detección de personas en una zona

Utilizar elDetección de objetosevento para detectar cuando una persona está en una región de interés (ROI) dentro de la vista de la cámara.
Cree un ROI en el campo de visión. El ROI puede ser la vista de cámara completa o varias zonas en la misma vista de cámara. Deep
Intelligence detecta a una persona cada vez que ingresa un ROI.

Persona moviéndose en una dirección

Utilizar elDirecciónevento para detectar cuando una persona se mueve en cierta dirección en la vista de la cámara. Cree un ROI y elija una
dirección: arriba, abajo, izquierda, derecha o en diagonal. Deep Intelligence detecta cada vez que una persona se mueve a través del ROI
en la dirección seleccionada. Configure tantas direcciones como sea necesario.

Cable trampa de conteo de personas

Utilizar elcable trampaevento para contar el número de personas que ingresan a un área y el número de personas que salen de un área.
Dibuje una línea, que funciona como cable trampa, en el campo de visión y luego seleccione de qué lado estáeny de que lado estafuera. Deep
Intelligence detecta cuándo las personas cruzan el cable trampa y lleva un recuento continuo de la cantidad de personas que han cruzado el
cable trampa en cada dirección. Los cables trampa con conteos actuales se pueden mostrar en video en vivo en victor Unified Client.

Persona que permanece o habita


Utilizar elResidirevento para detectar personas que se quedan quietas por un tiempo. Utilizar elPersistirevento para detectar personas que permanecen en la
misma área general durante algún tiempo. Especifique el ROI y la cantidad de tiempo que las personas deben quedarse o permanecer. Deep Intelligence detecta
cuando una persona permanece o permanece en un ROI durante un período de tiempo seleccionado.

persona que entra o sale


Utilizar elIngresarySalidaeventos para detectar cuando alguien entra o sale del campo de visión en un área determinada. Cree un ROI a lo
largo del borde del campo de visión. Deep Intelligence detecta cada vez que alguien entra o sale de la vista de la cámara en esa área.

formación de multitudes

Utilizar elFormación de multitudesevento para detectar cuando más de un número específico de personas están en un área al mismo
tiempo. Dibuje un ROI y establezca el tamaño mínimo de multitud. Deep Intelligence detecta cuándo el número de personas en el ROI
alcanza o supera el tamaño de multitud mínimo seleccionado.

Análisis de longitud de cola


Utilizar elColaevento para detectar cuándo se forman filas de personas debajo de la cámara. Dibuje un ROI que defina cuándo
la línea es corta, mediana y larga. Deep Intelligence detecta cuándo la cola cambia entre estas longitudes y cuándo está vacía.

41
Minería de datos de inteligencia profunda
La detección de eventos en los metadatos de Deep Intelligence, ya sea en tiempo real o posterior al evento, es solo una forma de utilizar estos
datos. Los metadatos son un registro de toda la actividad en la cámara. Al extraer los datos, puede contar personas, realizar análisis de tráfico
y actividad, y detectar tendencias y anomalías.

Los mapas de calor de VideoEdge visualizan los metadatos de Deep Intelligence y le muestran dónde y cuándo se produce la actividad en formato
gráfico. Con la función Visualizador de datos de cliente unificado de victor, puede analizar eventos a lo largo del tiempo y filtrar por la hora del día y el
día de la semana. Puede combinar datos de Deep Intelligence con datos de eventos de punto de venta y control de acceso para mejorar la inteligencia
del sitio, como las tasas de conversión de compradores y la detección de seguimiento.

Mejores prácticas de inteligencia profunda


Para obtener un rendimiento óptimo y resultados precisos con VideoEdge Deep Intelligence, siga las prácticas recomendadas que se describen a continuación.

Tipo de cámara y ubicación


• Utilice una cámara con una distancia focal normal; no utilice una cámara con lente gran angular o teleobjetivo.

• Monte la cámara sobre la cabeza y apunte hacia abajo.

• Monte la cámara entre 8 y 14 pies sobre el suelo.

Encendiendo

• Use buena iluminación y tiempos de exposición rápidos para minimizar el desenfoque de movimiento.

• Ajuste el piso y la iluminación para brindar un contraste efectivo entre las personas y el piso.

modelo de red neuronal


VideoEdge Deep Intelligence utiliza un modelo de red neuronal para reconocer personas en una vista de cámara desde arriba. Los modelos de redes
neuronales funcionan mediante el reconocimiento de patrones de datos. Para Deep Intelligence, los datos son píxeles de imagen de video. El modelo
está entrenado para reconocer cuándo un grupo de píxeles de imágenes de video se parece a una persona desde arriba.

Área de detección

Para reconocer un grupo de píxeles como una persona, el modelo debe ver a la persona completa. Esto significa que cuando una persona está
en el borde de la cámara y parcialmente fuera del campo de visión, no será reconocida. La persona será detectada una vez que se mueva
completamente dentro del campo de visión. Considere esto cuando dibuje regiones de interés y cables trampa. Los cables trampa creados
cerca del borde de la vista de la cámara pueden pasar por alto las detecciones. Cree cables trampa en el centro de la vista de la cámara.

Sensibilidad

A veces, un grupo de píxeles puede parecer muy similar a una persona, incluso cuando no lo es. Por el contrario, a veces una persona real
puede no parecer una persona. El modelo de red neuronal tiene un nivel de confianza cada vez que decide que un grupo de píxeles
representa a una persona. Si Deep Intelligence detecta cosas que no son personas, o no detecta personas, puede ajustar la Sensibilidad de
detección de Deep Intelligence en la página Configuración de la cámara para mejorar los resultados.

42
reentrenamiento

A veces, el campo de visión de la cámara puede ser tan diferente a cualquier cosa en la que se haya entrenado el modelo de red neuronal que
Deep Intelligence no funciona bien, incluso después de ajustar la Sensibilidad de detección de Deep Intelligence. Es posible mejorar los
resultados recopilando videos de muestra y usándolos para ajustar el entrenamiento del modelo.

43
Detección de movimiento

Mejores prácticas de detección de movimiento

Para asegurarse de obtener resultados de la más alta calidad al usar la detección de movimiento, se recomienda que observe las
siguientes prácticas recomendadas.

• Un objeto que muestra movimiento debe tener un tamaño mínimo de 8 x 8 píxeles para ser detectado.

• El color del objeto (en escala de grises) debe ser aproximadamente un 10-15% diferente al del fondo.

• La velocidad de cuadro del video debe ser lo suficientemente alta para capturar el objeto en uno o más cuadros capturados.

• Los eventos de detección de movimiento crean entradas en la base de datos del servidor de aplicaciones victor. Es importante
asegurarse de que los parámetros de detección de movimiento sean precisos para evitar generar entradas falsas.

• Para las cámaras configuradas para mostrar la hora actual dentro de la imagen, excluya la región de Marca de tiempo de la
detección de movimiento, ya que la marca de tiempo cambia constantemente y podría registrarse como movimiento.

• Trate de no apuntar las cámaras a la luz del sol, ya que un alto brillo impedirá la detección del movimiento de objetos
brillantes, como una persona con una camisa blanca.

• Evite áreas con movimiento persistente, como árboles, luces parpadeantes o señales giratorias, utilizando
una región de interés adecuada.

• No utilice la detección de movimiento en cámaras en movimiento, como cámaras PTZ, cámaras que vibren debido al
viento u otros efectos, o cámaras montadas en dispositivos móviles.

44
Reconocimiento de Matrículas

Esta sección está destinada a los administradores de seguridad y del sistema VideoEdge responsables de configurar y mantener las
instalaciones de reconocimiento de matrículas. Proporciona orientación conceptual y asesoramiento sobre la instalación y configuración
del hardware, y explicaciones de las funciones del software de reconocimiento de matrículas.

¿Qué es el reconocimiento de matrículas?


El reconocimiento de matrículas (LPR) es un complemento con licencia para American Dynamics VideoEdge NVR. Puede usar LPR
para detectar matrículas de vehículos en la vista de la cámara y reconocer las letras y números que forman la cadena de matrículas.
Puede usar VideoEdge LPR para admitir alertas de lista blanca y lista negra, y búsquedas en lista blanca y lista negra, en matrículas.

Las funciones de VideoEdge LPR están diseñadas para su uso en entornos controlados y cooperativos. Los ejemplos comunes incluyen puntos de
control de acceso para empleados o usuarios. Los operadores de vehículos deben ser participantes dispuestos. Monte las cámaras en una posición
que esté cerca de los sujetos previstos, con poco o ningún movimiento del vehículo, para lograr resultados de reconocimiento consistentes.

Nota:
VideoEdge LPR solo debe usarse para fines informativos y de verificación secundaria.

Mejores prácticas de reconocimiento de matrículas

Modelos de cámara
Los siguientes modelos de cámara admiten el reconocimiento de matrículas (LPR):

• Eje Q-1765-LE
• Minidomo Illustra Pro de 2MP

• Cámara Bullet Illustra Pro LT de 3MP

El soporte de LPR no se limita a la lista anterior. Comuníquese con su representante de ventas para obtener una lista actualizada de los modelos de cámaras
compatibles con LPR.

Captura de placa
Para un rendimiento óptimo y resultados precisos con VideoEdge LPR, es importante capturar imágenes apropiadas y adecuadas de las
matrículas para su reconocimiento. Cuando utilice VideoEdge LPR, tenga en cuenta las siguientes prácticas recomendadas:

• Utilice una cámara dedicada al propósito de LPR. Utilice una segunda cámara (sin LPR) para obtener una visión general del
área/vehículo si lo desea.

• Use un conjunto de lentes de teleobjetivo para un campo de visión de no más de 6 pies a 8 pies de ancho para capturar la placa.

• Monte la cámara a una distancia de entre 15 y 50 pies del vehículo/matrícula, siempre que la matrícula tenga una
altura de entre 20 y 45 píxeles. Asegúrese de que el ancho de trazo de las letras y los números de la matrícula sea
de al menos 3 píxeles. La altura de píxel adecuada en cada caso de uso variará según la lente/zoom de la cámara y
la configuración de resolución analítica.

• Monte la cámara a una altura de 3 pies a 15 pies, con un ángulo de no más de 30 grados con respecto al vehículo/placa.

45
• Coloque la cámara frente al vehículo/placa y ajuste la cámara con un ángulo de no más de 15 grados fuera del
centro.

• Monte y gire la cámara de manera que se pueda dibujar una línea horizontal que cruce tanto el borde izquierdo como el
borde derecho de la matrícula.

• Posicione la cámara para evitar cualquier objeto no deseado en la imagen que pueda oscurecer la matrícula.

• Coloque la cámara de modo que la placa aparezca en el centro de la imagen. No se reconocen las placas cercanas al
borde de la imagen.

• Coloque la cámara lejos de la luz solar directa para evitar oscurecer la matrícula.
• Coloque la cámara de modo que la matrícula no refleje la luz solar directa hacia la cámara, ya que esto podría
oscurecer la matrícula.

• En el punto donde se puede reconocer la matrícula (entre 20 y 45 píxeles), asegúrese de que la cámara no esté
colocada directamente en línea con los faros del vehículo, ya que esto puede causar que el campo de visión se
oscurezca. Coloque la cámara de modo que las luces no incidan directamente en la cámara.

Configuración de cámara e imagen

Para obtener un rendimiento óptimo y resultados precisos con VideoEdge LPR, configure los ajustes de cámara e imagen teniendo en
cuenta las siguientes prácticas recomendadas:

• Asegúrese de que los caracteres de la placa tengan entre 20 y 45 píxeles de altura.

• Utilice cámaras con buena sensibilidad a la luz baja para mejorar el rendimiento.

• Utilice una mejor iluminación para reducir el ruido de la imagen y permitir una velocidad de obturación más rápida.

• Utilice iluminación infrarroja (IR) para mejorar el rendimiento.

• Utilice una velocidad de obturación alta para reducir el desenfoque de movimiento causado por el vehículo en movimiento.

• Por lo general, se prefiere 1/500 s o más rápido.

• Aumente la ganancia de la cámara para capturar una imagen más brillante cuando utilice una velocidad de obturación alta.

• Tenga en cuenta que una velocidad de obturación alta reducirá el rendimiento en escenarios con poca luz.

• Utilice una imagen en blanco y negro para mejorar la imagen en escenarios con poca luz.

• Reduzca la configuración de nitidez en la cámara para reducir el ruido en escenarios con poca luz.

• Utilice un iluminador de infrarrojos externo para mejorar el reconocimiento en situaciones de poca luz.

Nota:
VideoEdge LPR no es compatible con los canales analógicos VideoEdge Hybrid.

Figura 51 - Campo de visión de la imagen Figura 52 - Campo de visión de la imagen con matrícula

46
Reconocimiento facial

¿Qué es el reconocimiento facial?


Face Recognition es un complemento con licencia para American Dynamics VideoEdge NVR. Puede inscribir sujetos en una base de datos de
reconocimiento facial para usar con análisis de reconocimiento y detección facial. Esto permite que VideoEdge identifique a las personas que
están cargadas en la base de datos de inscripción de rostros, así como realizar una detección de rostros simple que no requiere inscripción.
Puede crear, editar y eliminar entradas de la base de datos utilizando victor. Para obtener más información, consulte elGestión de identidad
sección de la Guía de administración y configuración de victor Unified Client.

Las funciones de reconocimiento facial de VideoEdge están diseñadas para su uso en entornos controlados y cooperativos. Los ejemplos comunes
incluyen puntos de control de acceso para empleados o usuarios. Los sujetos de reconocimiento facial deben dirigir su rostro hacia la cámara. Los
resultados de reconocimiento consistentes requieren cámaras montadas de corto alcance o con zoom especial y sin desenfoque de movimiento. Hay
muchas formas de engañar al sistema, por lo que los sujetos que no cooperan pueden evitar fácilmente el reconocimiento.

Nota:
El reconocimiento facial VideoEdge se debe utilizar para fines informativos y de verificación secundaria.

Mejores prácticas de reconocimiento facial

Captura de rostro

Para optimizar el rendimiento de VideoEdge Face Recognition, debe capturar imágenes de rostros apropiadas y apropiadas. Utilice las
siguientes prácticas para obtener resultados más precisos.

• La cara del sujeto debe ser visible en una posición casi frontal con no más de más o menos 15 grados de giro o
inclinación. Esto significa que la cámara debe montarse dentro de los 15 grados del nivel de los ojos del sujeto.

• La cara completa del sujeto debe ser visible dentro de la imagen y la región de interés. Si la cara del sujeto está parcialmente
obstruida o fuera de la vista de la cámara, el rendimiento se degrada.

• Ambos ojos del sujeto deben ser visibles.


• Solo debe haber variaciones menores en la expresión facial y la pose entre las imágenes de inscripción y el video capturado.
Las imágenes de inscripción de rostros deben contener expresiones faciales neutras y variaciones naturales.

• Controlar el número de rostros en la escena. Evite las multitudes y los grupos densos de personas, y evite
imágenes faciales en el fondo o en la ropa.

• Reduzca el desenfoque de movimiento tanto como sea posible. El desenfoque y la distorsión reducen el rendimiento del reconocimiento.
Asegúrese de que la cámara esté correctamente montada, estable y enfocada.

• Asegúrese de que la cámara esté montada de modo que la cara del sujeto se capture en posición vertical y minimice la
rotación de la cámara en relación con la cara del sujeto.

Configuración de cámara e imagen

Para obtener un rendimiento optimizado y resultados precisos con el reconocimiento facial VideoEdge, configure los ajustes de la cámara y la
imagen según las siguientes prácticas recomendadas.

• No utilice cámaras con obturador enrollable, ya que presenta distorsión de movimiento.

47
• Configure los ajustes de iluminación y exposición para minimizar el desenfoque de movimiento. Tenga en cuenta que establecer un valor de

exposición máximo demasiado bajo puede generar un ruido excesivo en la imagen.

• Para evitar el desenfoque de movimiento, utilice una velocidad de obturación máxima de 1/100 s o más rápida.

• Las cámaras con sensores más grandes brindan una mejor sensibilidad a la luz para el reconocimiento facial.

• Para un rendimiento óptimo, son preferibles los lentes de alta resolución (megapíxeles) y rápidos (f1.6 o superior).

• Use una lente de distancia focal fija, enfocada en el extremo más alejado del área de interés.

• Use una lente de 8 mm a 12 mm para vistas ampliadas de rostros. No se recomienda una lente de 3 mm a menos que la persona esté
demasiado cerca de la cámara.

• Evite utilizar el reconocimiento facial en cámaras analógicas. Las cámaras analógicas pueden introducir artefactos, ruido y distorsiones que
impactan negativamente en los resultados del reconocimiento facial.

• Si está utilizando un flujo H.264 para análisis, considere las siguientes prácticas recomendadas:

• Seleccione la tasa de bits variable (VBR) como Control de tasa de bits.

• Si corresponde, seleccione una tasa de bits entre 8000 Kbps y 16000 Kbps.

• Seleccione Alto como configuración de perfil. La siguiente mejor configuración es Main, seguida de Baseline.

• Si está utilizando una transmisión MJPEG para análisis, establezca la Calidad en 85.

Encendiendo

Para optimizar el rendimiento y obtener resultados precisos con VideoEdge Face Recognition, configure los ajustes de iluminación teniendo en
cuenta las siguientes prácticas recomendadas.

• Utilice una iluminación uniforme en el rostro, sin sombras fuertes.

• Utilizar iluminación frontal, evitando sombras y deslumbramientos en los rostros.

• Evite arreglos de iluminación que provoquen deslumbramiento en los anteojos. Coloque las fuentes de luz fuera del área donde los
reflejos golpean la cámara.

• Evite fuentes de luz que iluminen a los sujetos desde arriba. Esto provoca fuertes sombras erráticas que cambian
dramáticamente con la posición.

• Evite las áreas donde la luz solar directa pueda impactar sobre el sujeto; por ejemplo, desde áreas exteriores o desde
ventanas. La luz solar directa puede causar una fuerte iluminación asimétrica y sombras en la cara del sujeto.

• Utilice el control de ganancia automático en entornos que se ven afectados por la variación de la luz.

Inscripción de rostros
El éxito del reconocimiento facial depende de la calidad de las imágenes de inscripción que se proporcionen. Esta sección brinda
orientación sobre las mejores prácticas para cualquier imagen utilizada para el registro de rostros.

48
directo Cara girada ligeramente a la derecha: 10 grados

Cara girada ligeramente a la izquierda: 10 grados Cara ligeramente inclinada hacia arriba: 10 grados

49
Cara ligeramente inclinada hacia abajo: 10 grados

Al registrar una cara, tenga en cuenta las siguientes prácticas recomendadas:

• Utilice una vista frontal de la cara.

• Solo una cara debe estar presente en la imagen que se está registrando.

• Use múltiples imágenes o videos para la inscripción. Utilice al menos de 3 a 5 imágenes por persona inscrita. Use pequeñas
variaciones, como las siguientes, cuando tome la foto.

• Varíe el ángulo, es decir, la guiñada, cabeceo y balanceo, de la cara en cada foto entre 10° y
20°.

• Cambiar la distancia a la que se está tomando la foto para que la altura del rostro sea un poco menos de
la mitad de la altura de la imagen, un cuarto de la altura de la imagen, entre otras variaciones,
dependiendo de la distancia de reconocimiento requerida.

• Utilice variaciones naturales en la expresión facial.

• Asegúrese de que el tamaño de la cara en la imagen sea de al menos 100 a 120 píxeles de ancho. Para mejorar la precisión, la
cara debe tener al menos 150 píxeles a 200 píxeles de ancho.

• Utilice una buena iluminación ambiental, sin sombras fuertes, deslumbramiento o reflejos en la cara.

• Asegúrese de que no haya artefactos de compresión en la imagen o el video.

• No utilice imágenes en las que la persona lleve gafas de sol o sombrero.

• No utilice imágenes en las que el rostro tenga un ángulo superior a 20°.

• No utilice imágenes de baja resolución en las que el rostro tenga menos de 100 píxeles.

• No utilice imágenes en las que el rostro esté borroso.

• No utilice imágenes en las que el rostro esté demasiado cerca de la cámara; las caras no deben estar distorsionadas o cortadas por el
borde del marco.

Es esencial que las fotos de inscripción facial cumplan con ciertos estándares de calidad. La siguiente tabla muestra ejemplos de fotos de
inscripción de caras buenas y malas.

Tabla 1 Posturas de registro facial

Figura 53 Figura 54

50
Tabla 1 Posturas de registro facial

Pose de inscripción incorrecta, el sujeto está sonriendo. Mala iluminación, el sujeto está sobreexpuesto.

Figura 55 Figura 56

Mala pose de inscripción; la cara del sujeto está


inclinada más de 15 grados y los ojos del sujeto están Buena pose de inscripción.
cerrados.

Ubicación de la cámara para el reconocimiento facial

Para habilitar el reconocimiento facial, debe colocar las cámaras de seguridad en el ángulo correcto. La siguiente tabla muestra ejemplos
de una buena y mala ubicación de la cámara.

Tabla 2 Reconocimiento facial

Figura 57 Figura 58

Buen ángulo de cámara, pero mal sujeto: El Mal ángulo de cámara, cara del sujeto más de 15
los ojos del sujeto están cerrados. grados inclinados.

51
Ajuste de parámetros
Si el análisis de reconocimiento facial produce muy pocas detecciones, demasiados falsos positivos o demasiados falsos negativos, es
posible que deba ajustar ciertos parámetros para mejorar los resultados. Puede ajustar el rendimiento del análisis de reconocimiento
facial de la cámara editando la configuración en la página Función y secuencias.

Al ajustar la configuración, aumente o disminuya el valor gradualmente según sea necesario, antes de probar el resultado. Luego, si es necesario,
ajuste otras configuraciones relevantes. Es posible que deba ajustar una combinación de configuraciones para lograr los mejores resultados.

Asunto

Hay muy pocas detecciones de rostros.

Soluciones

Si el análisis de reconocimiento facial no detecta una cantidad suficiente de rostros, considere ajustar la siguiente
configuración, en orden de preferencia:

1. Aumente la configuración de Sensibilidad de detección de rostros.

2. Aumente la resolución de la transmisión, hasta 1920x1200.

3. Disminuya la configuración de Tamaño mínimo de cara.

Asunto

Hay una alta proporción de coincidencias falsas.

Soluciones

Una coincidencia falsa ocurre cuando una persona es detectada y mal identificada. Si la analítica de reconocimiento facial produce
demasiadas coincidencias falsas, considere ajustar la siguiente configuración, en orden de preferencia:

1. Disminuya la configuración de Sensibilidad de reconocimiento facial.

2. Aumente la configuración de Tamaño mínimo de cara.

3. Disminuya la configuración de Sensibilidad de detección de rostros.

Además, considere mejorar las fotografías de inscripción, de acuerdo con las mejores prácticas descritas en el Imágenes de inscripción
sección.

Asunto

Hay una alta proporción de falsos negativos.

Soluciones

Se produce un falso negativo cuando se detecta una persona inscrita, pero no se la identifica. Si el análisis de reconocimiento facial no logra
identificar una alta proporción de personas inscritas, considere ajustar las siguientes configuraciones, en orden de preferencia:

1. Aumente la configuración de Sensibilidad de reconocimiento facial.

2. Aumente la configuración de Tamaño mínimo de cara.

3. Disminuya la configuración de Sensibilidad de detección de rostros.

Además, considere mejorar las fotografías de inscripción, de acuerdo con las mejores prácticas descritas en el Imágenes de inscripción
sección.

52
Verificación facial con victor Swipe and Show

Descripción general

Use VideoEdge Face Recognition para verificar que la persona que usa una credencial para acceder coincida con la persona que está
registrada para esa credencial. Para configurar la interfaz victor Swipe and Show para la verificación facial, complete los siguientes
pasos.

1. Instalar cámaras de verificación facial

Instalar una o más cámaras en el punto de control de acceso para capturar el rostro de una persona cuando solicita acceso; por ejemplo,
cuando deslizan su tarjeta para abrir una puerta. Siga las mejores prácticas detalladas en esta guía para optimizar la captura de rostros.

2. Habilite el análisis de verificación facial

Utilice la interfaz de administración de VideoEdge para habilitar la verificación facial en la cámara.

Nota:
Necesitará una licencia de verificación facial disponible para habilitar la verificación facial en la cámara.

3. Reiniciar vencedor

Para detectar la nueva configuración de VideoEdge, reinicie el cliente unificado de victor y el servidor de aplicaciones de victor.

4. Asociar Cámaras a la Puerta de Acceso


Asegúrese de que el punto de control de acceso esté configurado como un objeto de puerta en el cliente unificado de victor. Edite el objeto puerta y en
sus asociaciones agregue la cámara o cámaras que están instaladas en el punto de control.

5. Inscribir Personal
Cree una lista del personal en el cliente unificado de victor que desea verificar en el punto de control de acceso. Asegúrese de que estos registros de
personal contengan una o más imágenes de rostros.

a Sobre elConfiguraciónpestaña, seleccionePersonal, luego seleccione

B Mostrar todo. Seleccione los perfiles de la Vista dinámica de personal.

• Para seleccionar un perfil, haga clic en el icono de flecha ( ) junto al nombre del
perfil.

• Para seleccionar varios perfiles, mantenga presionada la tecla Ctrl y luego seleccione los
perfiles desde la vista dinámica. Los perfiles seleccionados se resaltan en azul.

53
C Haga clic derecho en los perfiles seleccionados, luego seleccione Enviar imagen a la base de datos de reconocimiento facial.

Nota:
• Los pasos anteriores deben completarse primero, para que victor se registre con los servidores VideoEdge correctos.
• Asegúrese de que el personal se inscriba mediante este método en lugar de usar la página de inscripción en la interfaz de
administración de VideoEdge. Esto asegura que la cara inscrita esté conectada al registro de personal de victor.

6. Ejecutar deslizar y mostrar

Inicie Swipe and Show y configúrelo para monitorear la puerta que está asociada con el punto de control de acceso para la
verificación facial. Hay varias formas de configurar Swipe and Show:

• Configurar Deslizar y mostrar para monitorear todas las puertas.

• Arrastre la puerta a la lista de monitores Swipe and Show.

• Abra el menú contextual de la puerta y seleccione Supervisar con deslizar y mostrar.

Solución de problemas
• Si la interfaz Deslizar y mostrar no muestra video, confirme que una o más cámaras estén asociadas con el
objeto de puerta.

• Si la interfaz muestra video, pero no muestra los indicadores de Verificación facial verde o rojo, verifique que la
Verificación facial tenga licencia y esté habilitada para la cámara.

• Si no se está verificando al personal, verifique que estén registrados y que la vista de la cámara siga las mejores prácticas que
se muestran en este documento.

• Si el video no aparece en ninguna parte del cliente unificado de victor, confirme que la grabadora y la cámara estén habilitadas.

54
Apéndice A - Códigos de países ISO 3166

FA AFGANISTÁN
HACHA ISLAS ALAND
Alabama ALBANIA
DZ ARGELIA
COMO SAMOA AMERICANA
ANUNCIO ANDORRA
OA ANGOLA
AI ANGUILA
AQ ANTÁRTIDA
AG ANTIGUA Y BARBUDA
Arkansas ARGENTINA
SOY ARMENIA
AW ARUBA
Australia AUSTRALIA
EN AUSTRIA
Arizona AZERBAIYÁN
licenciatura BAHAMAS
BH BAHREIN
BD BANGLADESH
cama y desayuno BARBADOS
POR BIELORRUSIA
SER BÉLGICA
BZ BELICE
BJ BENÍN
BM ISLAS BERMUDAS

BT BUTÁN
BO BOLIVIA, ESTADO PLURINACIONAL DE
BQ BONAIRE, SAN EUSTACIO Y SABA BOSNIA
licenciado en Letras Y HERZEGOVINA
B/N BOTSUANA
BV ISLA BOUVET
BR BRASIL
IO TERRITORIO BRITÁNICO DEL OCÉANO
BN ÍNDICO BRUNÉI DARUSSALAM
BG BULGARIA
BF BURKINA FASO
BI BURUNDI
KH CAMBOYA
CM CAMERÚN
California CANADÁ
CV CABO VERDE
Kentucky ISLAS CAIMÁN
FC REPÚBLICA CENTROAFRICANA
DT CHAD
CL CHILE
CN CHINA
CX ISLA DE NAVIDAD
CC ISLAS COCOS (KEELING)
CO COLOMBIA
kilómetros COMORAS
C.G. CONGO
CD CONGO, LA REPÚBLICA DEMOCRÁTICA DEL

55
CK ISLAS COOK
RC COSTA RICA
CI COSTA DE MARFIL
HORA CROACIA
CU CUBA
CW CURAZAO
CY CHIPRE
CZ REPUBLICA CHECA
no sé DINAMARCA
DJ DJIBUTI
MD DOMINICA
HACER REPÚBLICA DOMINICANA
CE ECUADOR
P.EJ EGIPTO
SV EL SALVADOR
GQ GUINEA ECUATORIAL
Urgencias ERITREA
EE.UU. ESTONIA
hora del Este ETIOPÍA
FK ISLAS MALVINAS (MALVINAS) ISLAS
FO FEROE
F.J. FIJI
FI FINLANDIA
FR FRANCIA
novia Guayana Francesa
FP POLINESIA FRANCÉS
TF TERRITORIOS FRANCESES DEL SUR
Georgia GABÓN
GM GAMBIA
GE GEORGIA
Delaware ALEMANIA
GH GHANA
soldado americano GIBRALTAR
GRAMO GRECIA
GL GROENLANDIA
GD GRANADA
médico de cabecera GUADALUPE
GU GUAM
GT GUATEMALA
GG GUERNSEY
GN GUINEA
GW GUINEA-BISSAU
GY GUAYANA
HT HAITÍ
HM ISLA HEARD E ISLAS MCDONALD SANTA SEDE
Virginia (ESTADO DE LA CIUDAD DEL VATICANO)
hn HONDURAS
Hong Kong HONG KONG
HU HUNGRÍA
ES ISLANDIA
EN INDIA
IDENTIFICACIÓN INDONESIA
infrarrojos IRÁN, REPÚBLICA ISLÁMICA DE
CI IRAK
ES DECIR IRLANDA

56
ESTOY ISLA DEL HOMBRE

ILLINOIS ISRAEL
ESO ITALIA
JM JAMAICA
JP JAPÓN
JE JERSEY
JO JORDÁN
KZ KAZAJSTÁN
KE KENIA
KI KIRIBATI
KP COREA, REPÚBLICA POPULAR DEMOCRÁTICA DE
CR COREA, REPÚBLICA DE
kilovatios KUWAIT
KG KIRGUISTÁN
LA REPÚBLICA DEMOCRÁTICA POPULAR LAO
BT LETONIA
libra LÍBANO
LS LESOTO
LR LIBERIA
LY LIBIA
LI LIECHTENSTEIN
LT LITUANIA
LU LUXEMBURGO
mes MACAO
MK MACEDONIA, ANTIGUA REPÚBLICA YUGOSLAVA DE
mg MADAGASCAR
megavatios MALAWI
MI MALASIA
MV MALDIVAS
ML MALÍ
MONTE MALTA
mh ISLAS MARSHALL
mq MARTINICA
SRES MAURITANIA
MU MAURICIO
YouTube MAYOTTE
MX MÉXICO
FM MICRONESIA, ESTADOS FEDERADOS DE
Maryland MOLDOVA, REPÚBLICA DE
MC MÓNACO
Minnesota MONGOLIA
YO MONTENEGRO
SRA MONTSERRAT
MAMÁ MARRUECOS
mz MOZAMBIQUE
milímetro MYANMAR
N/A NAMIBIA
NR NAURU
notario público NEPAL
Países Bajos PAÍSES BAJOS
CAROLINA DEL NORTE NUEVA CALEDONIA
Nueva Zelanda NUEVA ZELANDA
NI NICARAGUA
nordeste NÍGER
NG NIGERIA

57
NU NIUE
NF ISLA NORFOLK
parlamentario ISLAS MARIANA DEL NORTE
NO NORUEGA
OM OMÁN
paquete PAKISTÁN
VP PALAU
PD PALESTINA, ESTADO DE
Pensilvania PANAMÁ
PG PAPÚA NUEVA GUINEA
py PARAGUAY
EDUCACIÓN FÍSICA PERÚ
PH FILIPINAS
NP PITCAIRN
ES POLONIA
PT PORTUGAL
relaciones públicas PUERTO RICO
control de calidad KATAR
RE REUNIÓN
RO RUMANIA
ru FEDERACIÓN RUSA
RW RUANDA
licenciado en Derecho SAN BARTOLOMÉ
SH SANTA HELENA, ASCENSIÓN Y TRISTAN DA CUNHA SAN
KN CRISTÓBAL Y NIEVES
LC SANTA LUCÍA
FM SAN MARTÍN (PARTE FRANCESA) SAN
PM PEDRO Y MIQUELÓN SAN VICENTE Y LAS
CV GRANADINAS SAMOA
SW
SM SAN MARINO
ST SANTO TOMÉ Y PRÍNCIPE
SA ARABIA SAUDITA
número de serie SENEGAL
RS SERBIA
CAROLINA DEL SUR SEYCHELLES
SL SIERRA LEONA
SG SINGAPUR
SX SINT MAARTEN (PARTE HOLANDA)
SK ESLOVAQUIA
SI ESLOVENIA
SB ISLAS SALOMÓN
ENTONCES SOMALIA
ES SUDÁFRICA
SG GEORGIA DEL SUR Y LAS ISLAS SANDWICH DEL SUR SUDÁN
SS DEL SUR
ES ESPAÑA
L.K. SRI LANKA
Dakota del Sur SUDÁN
RS SURINAM
sj SVALBARD Y JAN MAYEN
SZ SUAZILANDIA
SE SUECIA
CH SUIZA
SY REPÚBLICA ÁRABE SIRIA

58
TW TAIWÁN, PROVINCIA DE CHINA
T.J. TAYIKISTÁN
TZ TANZANIA, REPÚBLICA UNIDA DE
JU TAILANDIA
TL TIMOR LESTE
TG IR
conocimientos tradicionales TOKELAU
A TONGA
TT TRINIDAD Y TOBAGO
Tennesse TÚNEZ
TR PAVO
TM TURKMENISTÁN
CT ISLAS TURCAS Y CAICOS TUVALU
televisión

UG UGANDA
AU UCRANIA
AE EMIRATOS ÁRABES UNIDOS
ES REINO UNIDO
nosotros ESTADOS UNIDOS
UM ESTADOS UNIDOS ISLAS MENORES EXTRANJERAS
UY URUGUAY
UZ UZBEKISTÁN
VU VANUATU
VE VENEZUELA, REPÚBLICA BOLIVARIANA DE
VN VIET NAM
VG ISLAS VÍRGENES, ISLAS
VI VÍRGENES BRITÁNICAS, EE. UU.
WF WALLIS Y FUTUNA
eh SAHARA OCCIDENTAL
S.M YEMEN
ZM ZAMBIA
ZW ZIMBABUE

59

También podría gustarte