Está en la página 1de 117

Programación de

sistemas de visión
Insight Explorer – Easy Builder

Eliezer Quintana
Monterrey diciembre 2019
1

Introducción
1.1 Sistemas de visión
 Cuando nos referimos a los sistemas de visión, nos estamos refiriendo a la
disciplina de carácter científico que se ocupa de los métodos usados para
adquirir, procesar y analizar las imágenes del mundo real con la finalidad de
producir una información que pueda ser tratada por una máquina. Así mismo, los
sistemas de visión artificial, son los diversos sistemas que utilizan de esta
tecnología para llevar a cabo este trabajo.
1.2 Tecnología y sistemas de visión
 Los sistemas de visión son fundamentales a la hora de resolver los problemas que
acontecen en el control de procesos de fabricación que se llevan a cabo en un
proceso continuo.
 Además, constituye una herramienta de gran ayuda en la producción de la
mayoría de los procesos industriales donde se ha implementado la
automatización de dichos procesos.
 Según el tipo de tecnología que se utilice en cada caso, se estará hablando de un
tipo u otro.
 De esta forma, los sistemas de visión se pueden catalogar en tres categorías:
sensores de visión, cámaras inteligentes y sistemas de visión artificial. No
existe un límite bien definido entre una categoría y otra. De esta forma, se
pueden encontrar características que se den de manera múltiple en varias
categorías.
1.3 Sensores de visión
 Los sensores de visión cuentan con más prestaciones, mayor complejidad y un
precio más elevado que los tradicionales sensores fotoeléctricos. Aunque
también con menores prestaciones que las cámaras inteligentes, o los sistemas
de visión integrados o aquellos que están basados en el uso de un PC. Además, los
sensores de visión también pueden hacer el trabajo de múltiples sensores de tipo
fotoeléctrico. No obstante, mientras que los sistemas de visión proporcionan
datos concretos, los sensores de visión solo ofrecerán resultados de paso o fallo.
 Comparados con otros sistemas de visión, los sensores de visión incluyen una
funcionalidad que permite su puesta en marcha de forma muy sencilla y
rápida. De hecho, acostumbran a tener un tamaño bastante reducido y un menor
coste, aunque esto también conlleva una potencia de cálculo más pequeña.
1.4 Cámaras inteligentes y sistemas de visión integrados
 Tanto las cámaras inteligentes, como los sistemas de visión integrados,
constituyen un avance considerable en lo que a sensores de visión se refiere.
Cuentan con la ventaja de que son fáciles de incorporar, mayor potencia de
cálculo, una resolución mayor y, además, están abiertas a múltiples aplicaciones
de diferentes tipologías.
 Además, las cámaras inteligentes incluyen un sensor de captura, aunque sea en
un espacio muy reducido, una memoria para el almacenamiento, el
correspondiente procesador, y los mecanismos de entrada y salida. No obstante,
lo más común, es que requieran de una placa de entrada y salida adicional, al
menos cuando se quieran conectar con el resto de los sistemas de la fábrica que
estén automatizados.
1.4 Cámaras inteligentes y sistemas de visión integrados
 Por otro lado, los sistemas de visión integrados se diferencian de las cámaras
inteligentes en que, tanto el sensor como la memoria de la cámara, se ubican en
un cabezal remoto de un tamaño bastante reducido. Así mismo, el procesador y
las entradas y salidas, así como la conexión con el resto del ecosistema
industrial, se ubican en un elemento de dimensiones pequeñas y que puede
situarse junto a otros elementos propios de la automatización.
 Otra de las ventajas que presenta este tipo de tecnología cuando se la compara
con las cámaras inteligentes es que, con un único elemento de proceso, se
puede conectar diversos cabezales de visión en remoto. Esto permite reducir el
coste de las aplicaciones cuando estas requieran de diferentes tomas de la misma
pieza.
 Cuando se habla de la potencia de cálculo de este tipo de sistemas, debemos
tener en cuenta que disponen de un potencial lo suficientemente elevado como
para poder resolver la mayoría de las aplicaciones de visión industrial.
1.5 Sistemas de visión avanzados
 Este tipo de tecnología es parecida a la que se usa en los sistemas de visión
integrados. Sin embargo, en este caso, cuentan con un potencial mayor en su
hardware, así como un número mayor también cuando se habla de sus funciones
en lo que se refiere a software y procesamiento de datos. Esta tipología de
sistemas está dirigido especialmente a las aplicaciones de una complejidad muy
elevada, como pueden ser los sistemas de visión que se tienen que integrar en
una maquinaria que fabrique un OEM (Original Equipment Manufacturer, en
español, fabricante de equipos originales).
1.6 Beneficios de los sistemas de visión artificial
 Aumento de la productividad: Como no podía ser de otro modo, al llevar a cabo
la supervisión de la producción gracias a la aplicación de controles de calidad, se
está eliminando la parte defectuosa de la misma. Lo que repercute en los índices
de productividad de forma positiva.
 Disminución de la pérdida de materiales: Así mismo, debido al control que se
lleva a cabo, se eliminan las unidades que están en mal estado, reduciendo el
uso de los materiales en unidades defectuosas antes de que lleguen al final de la
cadena de montaje.
 Reducción de costes: Este beneficio se deriva directamente del aumento de la
productividad y de la disminución de la pérdida de los materiales, ya que
repercute positivamente en los costes económicos finales.
 Producto final de mejor calidad: Por otro lado, al obtener un producto libre de
defectos o elementos deteriorados, se está ofreciendo un producto de una
calidad mucho más elevada, lo que implica un producto que satisfará a los
clientes finales de forma asegurada.
1.7 Aplicaciones de los sistemas de visión artificial
 Automoción: Tienen utilidades en la inspección de la fabricación y en el
ensamblaje de todas y cada una de las piezas.
 Alimentación: Especialmente en el control de calidad de cada tipo de producto
alimentario, ya que se controla cada una de las fases del producto.
 Envases y embalajes: Permite controlar la presencia o ausencia de marcadores.
 Electrónica: Permite controlar la correcta soldadura y ensamblaje de las piezas.
 Logística e identificación: La visión artificial industrial cumple un papel de
carácter predominante en este campo.
2
Hardware y
conexiones
2.1 Introducción
 Antes de comenzar a centrarnos en In-Sight EasyBuilder, echemos un vistazo a la
línea completa de productos de visión artificial que ofrece Cognex para satisfacer
cualquier solución en visión.
2.1 Introducción
 Los lectores de códigos de barras DataMan están optimizados con algoritmos
patentados para las tasas de lectura más altas (99.9%) en las aplicaciones más
desafiantes para la identificación basadas en etiquetas.
 Los sensores de desplazamiento (3D) optimizan la calidad del producto al
proporcionar una inspección tridimensional de su productos Estos sensores
industriales vienen con un controlador de visión, software Cognex Designer y
Herramientas de visión 3D y 2D de clase mundial.
 VisionPro y Cognex Vision Library (CVL) es un software que tienen la inteligencia
para ignorar variaciones en la apariencia visual, mientras se enfocan en las
características críticas que determinan la aceptabilidad de un producto.
2.1 Cámaras insight
 Dependiendo del modelo, un dispositivo In-Sight se denomina técnicamente
"sensor" o "sistema de visión", pero nosotros a menudo nos referimos a ellas como
una "cámara". Existen cuatro series:
 Micro
 2000
 5000
 7000
 8000
 9000
2.1 Cámaras insight
 Las cámaras In-Sight se programan mediante una aplicación llamada In-Sight
Explorer, que se ejecuta en una PC que esté conectada a la misma red de la
cámara. El "lenguaje" de programación es en realidad una hoja de cálculo, muy
similar a Excel. Llamamos a la hoja de cálculo y todo su contenido: Job.
 In-Sight Explorer tiene dos modos:
 Modo de hoja de cálculo, en el que configura la hoja de cálculo en sí.
 Modo EasyBuilder, en el que realiza una serie de pasos para crean la hoja de cálculo
en modo wizard.
 Una vez que se ha creado el Job, no necesita tener una PC en la red para
ejecutar el trabajo.
 Puede crear, editar y ver trabajos desde In-Sight Explorer. Se puede ver más de
una cámara a la vez mediante la capacidad de mosaico de In-Sight Explorer en su
menú desplegable de Windows.
2.2 VisionView
 La interfaz del operador VisionView es ideal para monitorear y controlar los
sistemas de visión Cognex y Lectores de identificación basados en imágenes en el
piso de la fábrica y permite controles de operador específicos para la aplicación.
 Una pantalla táctil VisionView puede mostrar hasta 9 cámaras In-Sight al mismo
tiempo. Puede ser personalizada para mostrar los valores especificados de un
trabajo y para permitir las entradas del operador de los parámetros
especificados.
2.2 VisionView
 El software de la aplicación VisionView está disponible en cuatro plataformas (VisionView PC,
VisionView 900 Panel, VisionView VGA y VisionView CE-SL para paneles CE de terceros) que
cuentan con:
 Detección automática - detecta rápidamente cualquier sistema de visión Cognex en su red.
 Mezcle y combine los sistemas Cognex In-Sight y DataMan - Vea hasta nueve sistemas en mosaico.
 Interfaz gráfica: muestra imágenes a color, con superposiciones gráficas de los resultados y controles de
operador.
 Actualizaciones rápidas de imágenes - vea las imágenes de inspección más recientes para que pueda ver
su proceso en tiempo real.
 Acceso a CustomViews y EasyView - Los controles del operador creados en la hoja de cálculo de los
elementos seleccionados del software In-Sight EasyBuilder aparecerán en la pantalla de VisionView.
 Capacidad de tiempo de ejecución para entrenar fuentes, sin una PC - Sin tiempo de inactividad
durante los cambios - ideal para Aplicaciones OCR / OCV.
2.3 EasyBuilder mode
 La interfaz EasyBuilder le permite seguir una serie de pasos para programar el
Job, estos pasos crean la hoja de cálculo para ti.
 Los beneficios de la interfaz EasyBuilder incluyen:
 Proporciona configuraciones intuitivas para las aplicaciones.
 No ves la hoja de cálculo. EasyBuilder la crea para ti.
 Hace que incluso las herramientas de visión más potentes sean fáciles de usar.
2.4 Spreadsheat mode
 La interfaz de hoja de cálculo le permite configurar la hoja de cálculo en sí. Esto
permite la personalización para ajustar a nuestras necesidades específicas.
 Los beneficios de la interfaz de hoja de cálculo incluyen:
 Permite el acceso a todas las funciones In-Sight.
 Permite la creación de una interfaz gráfica de usuario personalizada (Vista
personalizada).
 Permite declaraciones lógicas complejas.
 Puede ser un poco más rápido.
 Capacidades de secuencias de comandos
2.5 Round Trip Development
 El desarrollo de ida y vuelta se refiere al proceso de creación de una aplicación
de visión artificial tanto en EasyBuilder y entornos de desarrollo de hojas de
cálculo de In-Sight Explorer.
 Un trabajo iniciado en el entorno EasyBuilder se puede editar en el entorno de la
hoja de cálculo, lo que permite personalización de parámetros expuestos en la
interfaz EasyBuilder. Por ejemplo, los parámetros para las herramientas de
ubicación e inspección pueden agregarse, eliminarse o cambiarse de nombre, y la
lógica y funcionalidades adicionales que solo están disponibles en el entorno de
la Hoja de cálculo también se puede agregar para mejorar los trabajos de
EasyBuilder.
 NOTA: No todos los sensores In-Sight pueden acceder a la hoja de cálculo o
cargar trabajos de EasyBuilder que han sido modificados en el entorno de hoja de
cálculo. Si un trabajo desarrollado en el entorno EasyBuilder se edita en el
entorno de la hoja de cálculo, este trabajo no se puede implementar en un
sensor In-Sight de EasyBuilder.
2.6 Conexiones
 Existen dos tipos de redes:
 Dirección Ip estática
 La dirección Ip y la submascara es asignada por el usuario. (administrador de la red)
 Se mantiene la misma.

 Dirección Ip dinámica
 La dirección Ip y la submáscara son asignadas por el servidor (computadora)
 Puede cambiar, dependiendo el lservidor.

 Nota. Una cámara In-sight puede ser configurada como sea. Una cámara nueva o
reparada es enviada como DHCP.
2.6 Conexiones
 Una subred es un grupo de cámaras In-Sights con direcciones IP similares.
 La máscara de la subred define que parte de la dirección IP se refiere a la red y
qué parte se refiere al host. La máscara de la subred debe ser la misma para
todos los dispositivos en una red. Ejemplo: 255.255.255.0.
 Nota. El 255 significa que todas las direcciones IP en esta subred son idénticas en
esta posición. El 0 significa que cada dirección IP es diferente en esta posición.
 En una red estática, una persona especifica la máscara de la subred. En una red
dinámica, el servidor DHCP asigna La máscara de la subred.
 Hay tres tipos o clases de máscaras de subred. La clase de una subred particular
en una red es definida por el número de bits utilizados para representar las
porciones de la red y dirección del host en la dirección IP, como en la tabla a
continuación:
2.6 Conexiones

Host
Class Subnet Mask Network Address Address
A 255.0.0.0 8 bit 24 bit
B 255.255.0.0 16 bit 16 bit
C 255.255.255.0 24 bit 8 bit
2.7 Conectarse a una cámara
 Aunque puede haber más de un sensor o emulador en la lista de herramientas
disponibles conectadas a la red, solo una instancia (abierta) de In-Sight Explorer
se puede conectar a las cámaras.
2.7 Conectarse a una cámara
 Si la cámara no aparece en la lista, se tiene que agregar. Para agregar una
cámara, se debe asegurar que la cámara está encendida y conectada en la red.
Darle click al botón Refresh para asegurar que la lista es la última. Si todavía no
aparece, se debe agreagar con el botón Add.
2.8 Emulador
 En el menú System->Options->Emulation, In-Sight Explorer se puede configurar
para emular cualquier modelo de Cámara In-Sight. Un emulador incluye
herramientas que son opcionales, como PatMax. Un emulador de cámara a color
Incluye herramientas de color.
 El uso de un emulador, permite probar cámaras que no tiene y que pueden tener
diferentes herramientas o diferente resolución. Al utilizar imágenes de prueba,
esas imágenes deben coincidir con la resolución de la cámara emulada.
 Incluso puede ejecutar el emulador cuando no hay cámaras conectadas en red a
la PC. Esto se llama modo independiente o programación fuera de línea. Para
Habilitar el emulador en una PC, se debe ingresar clave, que es un número
obtenido del sitio web de Cognex y que es diferente para cada PC. Solo necesita
ingresar la clave una vez para cada PC. La obtención de una clave se explicará
cuando el menú System->Options sea cubierto más adelante.
2.9 Lab
 Verificar los led indicadores de una cámara insight
 Haga clic en el icono de In-Sight Explorer en su escritorio para iniciar In-Sight
Explorer. O bien, Programas de menú de inicio Cognex In-Sight Explorer (ISE) en
su PC.
 Confirme que está en la vista de Easy Builder y en el paso Aplicación: obtener
Conectado se resalta, si no se hace clic en él.
2.9 Lab
 Haga clic en Ver -> Barras de herramientas, confirme que la Pantalla de trabajo y
el Estándar estén marcados.
2.9 Lab
 En el Panel de configuración, haga clic en su cámara In-Sight en la lista de
sistemas. No haga seleccione el emulador. NOTA: El nombre predeterminado de
la cámara es el modelo más los últimos 6 dígitos de la cámara. Dirección MAC que
se encuentra en la parte superior de la carcasa de la cámara. El nombre que ves
puede ser diferente, si un usuario anterior lo cambió.
2.9 Lab
 Si la cámara no está en la lista, haga clic en el botón Actualizar. Si aún no lo hace
aparece, haga clic en el botón Agregar y vea si aparece. Si no, apague y encienda
la cámara mientras está en la ventana Agregar y debería aparecer.
 A continuación, configurare su cámara a los valores predeterminados de fábrica,
lo que eliminará cualquier cambios en los ajustes realizados en su cámara por
una clase anterior. Haga clic nuevamente en Agregar:
2.9 Lab
 Esto lo llevará a la ventana Agregar sensor. El nombre de tu cámara no debería
aparecer, porque ahora está configurado correctamente
2.9 Lab
 Haga clic en Aplicar y siga las instrucciones resultantes para apagar y encender su
cámara. Esta tomará alrededor de 2 minutos, momento en el cual un mensaje
indicará que el reinicio fue exitoso. Cierre la ventana Agregar sensor.
 9. Haga clic en el botón Conectar o haga doble clic en el icono de su cámara para
conectarse.
3
Sofware, imagen y
calibración
3.1 Imágenes
3.1.1 Campo de visión
 El campo de visión (field of view FOV) Es la imagen formada por el área de
inspección. La selección del FOV es fundamental para realizar una buena
inspección. La relación entre el FOV y la resolución es fundamental para el
análisis de medidas.
3.1 Imágenes
3.1.2 Charge Coupled Device
 El Charge Coupled Device (CCD) es un circuito integrado grabado en una
superficie de silicio que tiene elementos que son sensibles a la luz llamados
píxeles. Esto también se llama sensor de imagen. El CCD convierte la luz en un
voltaje analógico, la cámara luego convierte el voltaje analógico en un valor
digital.
 La imagen se divide en una cuadrícula de elementos cuadrados llamados píxeles.
Cada píxel consta de una ubicación dentro de la imagen (coordenadas X / Y) y un
valor (imagen monocromática) o valores (imagen a color) de intensidad de luz.
3.2 Cámaras
3.2.1 Monocromáticas
 La intensidad de una cámara monocromática es representada como un valor en la
escala de grises de 0 a 255, donde 0 representa negro y 255 blanco.
3.2 Cámaras
3.2.2 Cámaras a color
 Las cámaras a color obtienen imágenes separada por tres componentes, en cada
componente los píxeles tiene un valor de 0 a 255.
 Estos componentes pueden ser representados como una combinación de:
 Red, Green and Blue (RGB)
 Red = 255, 0, 0
 Green = 0, 255 , 0
 Blue = 0, 0, 255
 Hue, Saturación e intensidad (HSI)
 Red = 0, 255, 85
 Green = 85, 255, 85
 Blue = 170, 255, 85
3.3 Lentes e iluminación
 Los lentes mientras no sean fijos, tienes dos controles para ajuste: exposición y
foco. Con la exposición se regula la cantidad de luz que entrará al CCD al
momento de tomar la foto, esta función es la misma que realiza el iris en el ojo
humano. Y el foco se regula enfoque del lente.
 La iluminación son lámparas utilizadas para mejorar la calidad de la imagen,
puede ser de barra, circulares, de sombra, etc.
3.4 Offline Online
 El modo Online, significa que todas las señales de entrada y salida están
habilitadas. Mientras se está Online se puede realizar lo siguiente:
 Recibir triggers de adquisición.
 Señales seriales I/O
 Señales discretas I/O
 Señales de red I/O
 Pero no se puede realizar:
 Editar la hoja de cálculo.
3.4 Offline Online
 El modo Offline, significa que la mayoría de las señales de entrada y salida están
deshabilitadas. Mientras se está en modo Offline se puede realizar lo siguiente:
 Editar la hoja de cálculo.
 Pero no se puede realizar:
 Recibir triggers de adquisición.
 Señales seriales I/O
 Señales discretas I/O
 Señales de red I/O
3.5 Inight Explorer
 In-Sight Explorer proporciona una interfaz de gestión y operación potente y
completamente integrada para configurar sistema de visión, todo dentro de un
único paquete de software. In-Sight Explorer incluye dos entornos de desarrollo
para programar y administrar sistemas de visión In-Sight: EasyBuilder y
Spreadsheet.
 In-Sight Explorer detecta automáticamente cualquier sistema de visión In-Sight
en su subred y los muestra. Los sistemas de visión con el icono de una cámara
representan sistemas de visión In-Sight reales (por ejemplo, In-Sight 5100)
mientras que el ícono de la computadora representa emuladores In-Sight que se
ejecutan en PC en red. El nombre de emulador es el nombre de la computadora
bajo Microsoft Windows. Para asegurarse de que la lista esté actualizada,
seleccione View -> Refresh o presione <F5>.
 Puede ver más de una cámara en In-Sight Explorer yendo al menú de Windows y
seleccionando Una de las opciones de mosaico. Esto mostrará todas las cámaras a
las que está conectado.
3.6 Configurar imagen
 Si ya estamos conectados a la cámara, el siguiente paso es configurar la imagen.
 Get Image - ¿Dónde se captura la imagen?
 Acquisition Settings - ¿Cómo se adquiere la imagen? Configuración del trigger,
exposición, iluminación y enfoque.
 Calibration: una operación crítica en aplicaciones que requieren precisión en la
alineación. Los errores en la calibración pueden tener efectos sutiles pero importantes
en los resultados.
3.7 Edición de configuración de adquisición
3.7.1 Disparador
 El cuadro de grupo Editar configuración de adquisición permite:
 Ajustar los controles de activación de adquisición.
 Compensar la exposición y el brillo.
 Luces de control para cámaras In-Sight
 Modo del Disparador (trigger) en línea:
 Cámara - Conexiones de disparador (+) y disparador (-) (también conocido como
hardware).
 Continuo - Permite adquisiciones de imágenes en ejecución libre (pseudo-live).
 Externo - Disparador mediante entrada discreta (a través de la placa IO).
 Manual: permite la adquisición de imágenes al presionar <F5>
 Red - Adquisición de esclavos en configuración maestro / esclavo.
 Ethernet en tiempo real
3.7 Edición de configuración de adquisición
3.7.1 Disparador
 Retardo del disparador
 Permite especificar un retraso, en milisegundos (0 a 10,000), entre el momento en que
se activa el disparador
 Intervalo del disparador
 Permite especificar un intervalo en milisegundos (0 a 10,000; el valor predeterminado
es 500), entre cada adquisición cuando el control del disparador (trigger) se establece
en Continuo.
3.7 Edición de configuración de adquisición
3.7.1 Disparador
3.7 Edición de configuración de adquisición
3.7.2 Exposición
 Permite especificar el tiempo de exposición. Cuando el sistema de visión In-Sight
recibe una señal de disparo, la luz es recibida por el sensor de imagen durante la
duración especificada.
 Auto-exposición
 Permite que el sistema de visión determine automáticamente la exposición. Este
control ayuda a compensar condiciones de iluminación inconsistentes, como
reflejos de superficies metálicas brillantes, sombras cambiantes y cambios de
iluminación de fondo.
 Continuo: activa el sistema de visión automáticamente para ajustar la exposición,
dependiendo de las condiciones de luz, para cada adquisición de imagen.
 Disparo único: ajusta la exposición del sistema de visión en función de la primera
adquisición de imagen; la configuración de exposición permanecerá para cada
adquisición de imagen posterior.
3.7 Edición de configuración de adquisición
3.7.2 Exposición
 Botón de región de exposición
 Permite definir un área específica de la imagen que se expondrá durante la adquisición
de imágenes. Esta función es útil en situaciones donde solo una parte de la imagen es
consistentemente más oscura o más brillante.
 Tiempo máximo de exposición
 Permite especificar el tiempo máximo de exposición utilizado al determinar la
exposición adecuada.
 Brillo objetivo
 Brillo = porcentaje de píxeles saturados en la región de exposición automática (0-100%)
3.8 Calibración
3.8 Calibración
 ¿Qué significa tener 108 píxeles de largo?
 Esto cambia con cada entorno de cámara en función de:
 Distancia de trabajo (parte a la cámara).
 Montaje de la cámara (directamente sobre o en ángulo).
 Óptica utilizada (lente).
3.8 Calibración
 Calibración de escala, identifica una distancia en la imagen y le dice a
EasyBuilder en qué distancia se encuentra. Unidades del mundo real, como mm.
EasyBuilder ya sabe cuál es la distancia en términos de píxeles, por lo que puede
convertir la longitud de píxeles a mundo real.
 Calibración de cuadrícula, coloca un patrón de cuadrícula estándar (puntos o
cuadrados), llamada calibrateGrid, debajo de la cámara y le dice a EasyBuilder
cuál es la distancia del mundo real entre los puntos o el tamaño de las fichas.
EasyBuilder localiza todos los puntos o esquinas de los cuadrados y crea una tabla
que relaciona cada distancia en píxeles con su distancia correspondiente en
unidades del mundo real. Esa tabla se almacena en el trabajo por la función que
hace todo esto
3.8 Calibración
 Distorsión de lentes y perspectiva
3.8 Calibración
3.8 Calibración
 Tipos de calibración:
 La escala X / Y: se usa cuando se conocen los valores de la escala X e Y para calcular
una calibración simple.
 Borde a borde: se usa cuando conoce la distancia entre dos entidades de borde.
 X / Y Borde a borde: se usa cuando conoce la distancia entre dos pares de bordes; uno
en la horizontal dirección, y otra en dirección vertical. Combinando la medida
horizontal y la dimensión con la medida vertical y la dimensión crea dos escalas
independientes.
 Círculo: se usa cuando se conoce el diámetro de una entidad circular.
 La opción de Calibración de cuadrícula crea un "mapa" del área de la imagen al
adquirir una imagen de un patrón de cuadrícula de puntos o cuadros. Esta opción
relaciona las características encontradas de la cuadrícula (los puntos o intersecciones
de cuadrados) al espaciado de cuadrícula especificado por el usuario del patrón de
cuadrícula. Este proceso crea un Cálculo altamente preciso que luego se puede utilizar
para transformar características distorsionadas en su forma correcta.
3.8 Calibración
 El vértice del mosaico (el punto donde se juntan las esquinas de cuatro mosaicos)
se utiliza para determinar la ubicación de la característica; los vértices pueden
ser ubicado con precisión cuando el sensor es de hasta 45 grados perpendicular a
la superficie; proporciona un marcador fiducial (marcador de referencia) para
determinar el origen de la cuadrícula e identificar la orientación de la cuadrícula
en el espacio del mundo real
3.9 Resumen
 Las imágenes están compuestas de píxeles, cada uno representado por:
 Coordenada X, Y
 Valor de escala de grises (0 - 255)
 Tres formas de obtener imagen:
 Disparador manual (F5)
 Video en vivo: se utiliza para configurar parte
 Cargar imágenes desde la PC
 La calibración de escala convierte el mundo de píxeles al mundo real
 Grid Calibration convierte píxeles a unidades del mundo real y también compensa la
distorsión del lente.
3.10 Lab
 Abrir MyFocus.job.
 NOTA: confirme que ha cargado o creado el trabajo correcto mirando el título de
la ventana.

 Seleccione Cuadrícula como el tipo de calibración en Calibrar imagen a unidades


del mundo real
3.10 Lab
 NOTA: Use la cuadrícula de tablero de ajedrez con fiducial (barras de localización
XY).
3.10 Lab
 Haz clic en el botón Calibrar. Se abre el cuadro de diálogo CalibrateGrid.

 Seleccione la configuración que coincida con la placa de calibración de imagen


del tablero de ajedrez como se muestra.
 Tipo de rejilla: Tablero, con fiducial
 Espaciado de cuadrícula: consulte a su instructor
 Unidades de cuadrícula: milímetros
 Número de poses: 1
 Modelo de lente: Radial
3.10 Lab
 Haga clic en el paso Pose y haga clic en el botón Video en vivo.

 Coloque la cuadrícula de tablero de ajedrez debajo de la cámara y ajústela según el


contraste y la nitidez si necesario.
 Haga clic en cualquier lugar de la imagen para detener el modo en vivo y verifique las
marcas X verdes en la imagen del tablero de ajedrez.
 NOTA: Si no hay marcas verdes, regrese al paso pose
 a. Imagen en vivo
 b. Imagen estática (ampliada)
3.10 Lab

 Confirme que los puntos de Características encontrados no son 0.

 Haz clic en el botón Calibrar.


3.10 Lab
 Se muestran los resultados de la calibración.

 Haga clic en el botón Aceptar para completar el procedimiento de calibración.


 Guarde el trabajo como MyGridCalibration.job en la cámara In-Sight y en su
propia carpeta en la PC
4
Detección de
patrones
4 Detección de patrones
 Las herramientas de detección de patrones se utilizan para definir una
característica en la imagen que proporciona datos posicionales. Estas
herramientas crean un dispositivo, que se utiliza para ubicar una parte de la
imagen de manera rápida y confiable, incluso si la parte inspeccionada, gira o
aparece en diferentes lugares de la imagen.
4.1 Posición
 Cuando una patrón se mueve en el campo de visión (FOV), las herramientas que
inspeccionan un área determinada del patrón también se deben mover, esto se
hace mediante "Fixturing". Para tener en cuenta el movimiento del patrón, se
necesitan dos parámetros:
 Determinar (x, y) ubicación de la parte
 Determinar orientación
 Una herramienta de patrón devuelve estos dos valores.
4.2 Herramientas de detección de patrón
4.2 Herramientas de detección de patrón
 Las herramientas de coincidencia de patrones incluyen las siguientes funciones:
 Patrón: localiza una característica de patrón único; informa las coordenadas X, Y,
ángulo y puntaje del modelo encontrado. Genera un Fixture al que pueden hacer
referencia otras herramientas.
 Patrón PatMax: localiza una característica del patrón, utilizando algoritmos PatMax;
informa las coordenadas X, Y, ángulo y puntaje del patrón encontrado. Se usa
comúnmente como un accesorio para orientar otras herramientas de visión.
4.3 PatMax
 El algoritmo PatMax es una colección de características geométricas donde cada
característica es un punto en el límite entre dos regiones de valores de píxel
diferentes. PatMax calcula representaciones geométricas de curvas.
 Esto lo hace más preciso que FindPatterns, que solo detecta las curvas con
segmentos de línea.
4.3 PatMax
 Treshold (umbral)
4.3 PatMax
 Treshold (umbral)
4.3 PatMax
 Ignorar polaridad
4.3 PatMax
 Resultados
4.4 Comparación de algoritmos
4.5 Detección de márgenes
 Las herramientas de bordes detectan bordes al examinar una región de interés
(ROI) para detectar discontinuidades en la polaridad de píxeles, es decir, un área
de la imagen donde hay un cambio brusco entre claro y oscuro (o viceversa).
4.5 Detección de márgenes
 Configuación
4.6 Blob
 En la terminología de visión artificial, cualquier grupo bidimensional, de forma
variable y sombreado de manera similar.
 Los píxeles conectados se pueden denominar blob. Encontrarlos en una región de
interés (ROI) y clasificarlos según criterios específicos se llama blob durante este
proceso, los píxeles en el ROI se dividen en dos categorías, Blob y Fondo.
 La detección de los blob esta basado en el valor umbral de escala de grises. Este
valor umbral separa los píxeles, debajo del umbral se clasifican como negros, y
los valores por encima del umbral se clasifican como blancos.
4.7 Círculo
 La herramienta de ubicación de círculo se usa para localizar una entidad circular
que se encuentra dentro de los parámetros especificados.
 Las herramientas informan las coordenadas X, Y del círculo encontrado (su
centro) y el diámetro.
4.8 Sumario
 En esta sección cubrimos los siguientes temas:
 Las herramientas de detección de patrones se pueden usar para encontrar la posición
de la pieza o para usarse como un fixture
 Se necesitan tres parámetros para tener en cuenta el movimiento completo de una
parte: x, y y ángulo
 Las herramientas de patrones proporcionan los tres parámetros
4.9 Lab
 Cargue MyScaleCalibration.job.
 Haga clic en el botón Localizar pieza.
 Seleccione PatMax® Pattern en las Herramientas de ubicación y haga clic en el
botón Agregar.

 Aparecerá un cuadro de búsqueda y modelo en la ventana de imagen.


4.9 Lab

 Haga clic en la región del modelo y muévase sobre el logotipo COGNEX.


 NOTA: no es necesario mover la región de búsqueda.
4.9 Lab
4.9 Lab
4.9 Lab
4.9 Lab
4.9 Lab
5

Inspecciones
5 Inspecciones
 Las herramientas de inspección se utilizan para construir su aplicación de visión
artificial basada en el análisis de imágenes.
 Estas herramientas se pueden usar individualmente o agrupadas para tomar
decisiones complejas.
5 Inspecciones
 Presencia / Ausencia: verifica si la función está presente
 Medición - características de medición.
 Conteo: determina el número de instancias de una parte
 Identificación: Encuentra códigos de barras, códigos 2D, OCV / OCR
 Geometría: crea líneas, puntos o ángulos
 Matemáticas y lógica - Funciones matemáticas, lógica y tendencia
 Plot: Dibuja texto y formas en la imagen.
 Filtro de imagen: modifica la imagen para manipular las funciones
 Detección de defectos: Encuentra defectos en bordes y cuentas
 Calibración - Funciones de calibración avanzadas
5.1 Presencia / ausencia
 Las herramientas de presencia / ausencia se utilizan para calificar si una
característica está presente o ausente en la imagen. Se agregan Seleccionando
una herramienta y presionando el botón de agregar.
5.1 Presencia / ausencia
 Brillo: busca un valor promedio de escala de grises de los píxeles en la región.
 Contraste: analiza la diferencia entre el valor medio en escala de grises por
encima del umbral y la escala de grises media por debajo del umbral.
 Patrón PatMax: Utiliza el algoritmo PatMax, basado en una representación
entrenada de ese modelo.
 Patrón: Busca una característica patrón, basada en una representación
entrenada de ese patrón.
 Recuento de píxeles: Identifica una región según el número de píxeles blancos o
negros en la región.
5.1 Presencia / ausencia
 Blob: determina si una característica de blob está presente o no.
 Borde: busca entidades de borde lineal que se encuentran dentro de los
parámetros especificados.
 Círculo: busca entidades de borde circular que se encuentran dentro de los
parámetros especificados.
 Nitidez: determina si una imagen se enfoca o no correctamente.
5.2 Mediciones
 Distancia: Calcula la distancia entre dos entidades de entrada e informa la
distancia calculada.
 Ángulo: Calcula el ángulo entre dos entidades de borde.
 Área de blob: Mide el área de la característica de blob encontrada más grande e
informa el tamaño. Esta herramienta se usa para medir un solo blob.
 Blob Áreas (1 - 10): Mide el área de la característica de blob más grande e
informa el tamaño de la gota más grande. Esta herramienta se usa para medir
hasta 10 blobs.
 Diámetro del círculo: Se usa para medir el diámetro de una circulo
 Conectividad circular: Se usa para medir la distancia entre los centros de dos
círculos
5.2 Mediciones
 Medir radio: La herramienta informa el radio de la curva.
 Puntos mínimo / máximo: Mide la posición de los bordes y determina qué puntos
de borde son más cercano y más alejado del borde encontrado de la región que
define el borde. Una vez se ha identificado el borde, la herramienta construye
una línea o círculo de mejor ajuste sobre la entidad del borde. Luego, la
herramienta informa los puntos de borde más cercanos y más alejados de la línea
de mejor ajuste o circulo.
5.3 Herramientas de conteo
 Blobs: cuenta el número de instancias de blobs presentes en una región de la
imagen.
 Bordes: cuenta el número de bordes presentes en una región de la imagen.
 Pares de aristas: cuenta el número de instancias de pares de márgenes lineales
presentes en una región de la imagen.
 Patrones PatMax: cuenta las instancias de una función de patrón, utilizando el
algoritmo PatMax, basado en una representación entrenada de ese patrón
(llamado Modelo).
 Patrón: cuenta las instancias de una característica de patrón, basada en una
representación entrenada de ese patrón (llamado Modelo).
5.4 Herramientas de geometría
 Las herramientas de geometría se utilizan para crear referencias geométricas en
la imagen.
 Las herramientas de geometría permiten calcular fácilmente la distancia entre
construcciones geométricas estándar como:
 Líneas
 Segmentos
 Angulos
 Puntos
 También permiten la creación de construcciones geométricas dadas entradas
como:
 Un círculo de mejor ajuste desde puntos
 Una línea de mejor ajuste desde puntos
 Un punto de dos líneas de intersección
5.4 Herramientas de geometría
6
Identificación y
Filtros
6 Identificación
 Las herramientas de identificación se utilizan para identificar y verificar códigos
y símbolos 1D y 2D, textos alfanuméricos.
6 Identificación
 Leer códigos 1D y Leer códigos 1D (1 - 20): Decodifican y / o verifican ID
códigos de barras,
 Leer códigos 2D y Leer códigos 2D (1 - 20): Decodifican y / o verifican códigos
QR y
 Leer código postal: Decodifica y / o verifica un solo símbolo
 Leer texto (OCR Max): Se usa para leer y / o verificar una cadena de texto
dentro de una región
6.1 Mostrar resultados de las herramientas
 Cuando se tienen muchas herramientas en la lista de resultados, puede ser difícil
determinar qué herramienta corresponde a qué región de la imagen. El valor
predeterminado es mostrar todas las herramientas.
 Puedes cambiar esto con:
 Ver Mostrar solo gráficos de herramientas seleccionadas
 Esto mostrará la región para la herramienta individual que seleccione.

 Se pueden volver a mostrar todos los gráficos haciendo clic nuevamente en:
 Ver Mostrar solo gráficos de herramientas seleccionadas
6.2 Filtros
 Definen técnicas para mejorar la imagen que se aplicarán a la región. El
resultado de la técnica de mejora de la imagen se actualizará automáticamente
dentro de la región.
6.2 Filtros
 Binarizado (predeterminado): filtra la imagen según un umbral de escala de
grises en blanco (255) o negro (0).
 Distancia en escala de grises: Filtros basados en el valor de escala de grises de
cada píxel de salida como la diferencia entre el valor de escala de grises de cada
píxel de entrada y el nivel de umbral.
 Invertir: Filtro basado en una inversión de escala de grises de valores de píxeles-
Rango de umbral: filtros basados en un umbral binario (blanco y negro) que
compara cada entrada.
 Rango de umbral: Filtro basado en un umbral binario (blanco y negro) que
compara cada píxel con dos valores de umbral (mínimo y máximo) para
determinar si el píxel resultad es blanco o negro y genera una imagen donde si el
valor de píxel de entrada es igual o superior al mínimo o al máximo, el píxel de
salida es blanco, y si el valor del píxel de entrada está dentro del mínimo o
máximo, el El píxel de salida es negro.
7

I/O digitales
7 I/O Digitales
7 Entradas/Salidas Digitales
 La configuración de Entradas / Salidas se utiliza para definir señales discretas de
las cámaras y módulos de E / S.

 NOTA: Esta configuración está deshabilitada cuando se usa un emulador


7 Entradas/Salidas Digitales
7 Entradas/Salidas Digitales
8
Comunicaciones de
Red
8 Comunicaciones de Red
8 Comunicaciones de Red
 La comunicación de red se usa para enviar los resultados de la inspección hacía
un EasyView, FTP, PLC o robot.
8.1 Tipos de comunicaciones
 OPC - Open Platform Communications: Es un estándar de conectividad
industrial que permite la transferencia de datos de automatización entre
hardware y software de automatización. OPC se basa en la tecnología cliente /
servidor. El protocolo OPC es un estándar abierto, lo que significa menores costos
para los fabricantes y más opciones para usuarios.
 EasyView: Se pueden enviar los resultados a un EasyView para que se muestren
los datos, también se puede determinar si los datos pueden ser editables por el
operador. Primero se debe crear la ventana del EasyView en EasyBuilder y
guárdelo con el trabajo de la cámara.
 FTP - Protocolo de transferencia de archivos - La cámara In-Sight tiene un cliente
/ servidor FTP integrado que permite compartir archivos con otros sensores en la
red utilizando el protocolo FTP. la cámara también se puede iniciar desde un host
que no sea In-Sight en la red (en cuyo caso, la cámara In-Sight. actúa como el
servidor FTP).
8.2 Agregar un dispositivo de comunicación
 Elija un protocolo de comunicación seleccionando un Dispositivo, un Fabricante
(si corresponde) y un Protocolo.

 PLC / Controlador de movimiento: prepara la configuración del protocolo de


comunicaciones para los PLC.
 Robot: prepara la configuración del protocolo de comunicaciones para robots.
 Otros: permite configuraciones de comunicaciones personalizadas.
8.2 Agregar un dispositivo de comunicación
8.3 PLC
 Usar el Add-on Profile (AOP) de Cognex en el PLC cuando se desea una
comunicación con una cámara In-Sight. El AOP se puede descargar desde el sitio
web de Cognex.
8.3 PLC
8.3 PLC

También podría gustarte