Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Configuración de la cámara 2
Calibración de la cámara 2
Configuración de la cámara 4
Calibración de la cámara 7
Anexo 15
Síntesis del proceso de configuración básica Vision 2D:
(Previo paso a configuración del proceso de visión, se deben configurar Tool y Frame, explicados en sus
respectivos manuales)
3. Configuración de la cámara:
4. Calibración de la cámara:
2
V1.1
- SAVE
- END EDIT
3
V1.1
Proceso de configuración básica Vision 2D:
Para realizar la configuración del sistema de visión, podemos subdivir el proceso en 5 pasos:
1. Configuración de la UTool
2. Configuración del UFrame
3. Configuración de la cámara
4. Calibración de la cámara
5. Configuración del proceso de visión
Los puntos 1 y 2 se pueden realizar mediante la utilización de los manuales “Manual UFrame” y “Manual UTool”.
3. Configuración de la cámara
Conectándonos al Web Server del robot, facilitaremos el trabajo considerablemente. Una vez estemos
conectados, en el apartado iRVision entraremos en Vision Setup:
Una vez dentro del Vision Setup, nos aparecerá el siguiente menú:
4
V1.1
El primer paso a realizar será la configuración de la cámara, en el menú que nos encontramos
procederemos a realizar los siguientes pasos:
Pulsaremos CREATE en la barra inferior para crear una nueva cámara y se nos abrirá el siguiente menú:
Una vez creada la cámara, ya nos aparecerá en la lista de cámaras disponibles, pero falta realizar la
configuración de dicha cámara. Para ello, teniendo la cámara marcada, pulsaremos el botón EDIT de
la barra inferior para editar los parámetros de configuración.
5
V1.1
Debería abrirse un submenú que tendría este aspecto:
Los parámetros a configurar se encuentran en la barra lateral derecha, y con la barra inferior se podrán
realizar capturas con la cámara mediante el botón SNAP o se podrá ver la imagen en vivo con el botón
LIVE.
Se debe configurar el modelo correcto de cámara en el apartado Camera Type, en nuestro caso: Sony
XC-56.
El parámetro Port Number dependerá si hay múltiples cámaras o no. Si no las hay, será 1.
Otro punto a configurar es el Tiempo de exposición o Exposure Time, que se debe configurar de modo
que se logren ver los puntos nítidamente, quedando bien contrastados con el fondo.
Se debe tener en cuenta si la cámara está montada o no sobre el robot. Si es así se debe marcar la
casilla Robot-Mounted Cam. y determinar el Robot Holding Cam. y el Group correspondiente.
4. Calibración de la cámara
Una vez configurada la cámara, en nuestro caso CAM3, vamos a proceder a realizar la calibración de
dicha cámara.
6
V1.1
Primeramente, pulsamos en la barra inferior: [VTYPE ]; 2.Camera Calibration Tools. Debería aparecer
una pantalla como la siguiente:
Ya estaremos dentro del menú de calibración, ahora hay que pulsar CREATE para así crear una nueva
calibración y definiremos el tipo de calibración en Type y nombraremos la calibración en Name. En
nuestro caso, el tipo de calibración será un Grid Pattern Calibration Tool y la nombraremos como
CALIB5. Finalmente una vez seguidos estos pasos, pulsamos OK en la barra inferior.
Para acceder a la configuración de la calibración, se debe pulsar EDIT en la barra inferior una vez ha
sido creada dicha calibración. Debería abrirse una pantalla tal que:
7
V1.1
En el parámetro Camera seleccionamos la cámara que queremos calibrar, en nuestro caso CAM3. Una
vez seleccionada la cámara, aparecerá automáticamente una imagen tomada por la cámara
seleccionada.
En el parámetro Robot-Held Cal. Grid, pondremos que No, por lo tanto no hay que especificar qué
robot dispone la matriz (Robot Holding Grid) ni a qué grupo pertenece dicho robot (Group).
En el parámetro Cal. Grid Frame se debe especificar el UFrame en que la matriz de calibración está
dispuesta. En nuestro caso será el UFrame 6, el mismo que el Application Frame. Es relevante
mencionar que aunque en este caso el Cal. Grid Frame y el Application Frame sean el mismo, no es
estrictamente necesario y puede darse el caso de que sean diferentes.
(Si hubiéramos seleccionado Orthogonal, se necesitaría que la relación entre la cámara y el plano de calibración en cuestión
fuera ortogonal, perderíamos precisión a medida que nos acercamos a los bordes de la imagen captada y además que la
calibración sólo valdría para la altura calibrada y a diferentes alturas habría que recalibrar el plano ya que si no se recalibra
pueden darse imprecisiones.)
En el parámetro 1st Plane debemos pulsar el botón Find. Al pulsar Find, se nos abrirá una pantalla
donde nos permitirá seleccionar el área de detección de puntos para que se calibre la cámara gracias
a la detección de éstos. Cabe destacar que cuantos más puntos detecte, mejor calibración recibirá la
cámara. En la siguiente imagen podemos ver el proceso de selección del área de detección (mediante
el cuadro modificable rosa) para realizar la calibración de la cámara. Una vez seleccionada el área,
deberemos pulsar el botón de OK de la barra inferior.
8
V1.1
Una vez finalizado el proceso de calibración, la barra superior derecha del menú de calibración (donde
pone Grid Pattern Calibration Tool) cambiará de color rojo a color verde como muestra de que ha
sido calibrada por completo.
Una vez finalizada la calibración, se debe pulsar SAVE y END EDIT en la barra inferior.
9
V1.1
5. Configurar proceso de visión
Una vez tenemos terminado el punto 4, Calibración de la cámara, procederemos a realizar la
configuración del proceso de visión, pulsando: [VTYPE] ; 3.Vision Process Tools
Dentro del menú selector de proceso de visión crearemos un nuevo proceso pulsando CREATE.
Entonces nos aparecerá por pantalla un submenú que nos permitirá escoger qué tipo de proceso
(Type) queremos configurar y qué nombre le damos al proceso (Name). En este caso utilizaremos el
proceso 2-D Single-View Vision Process y le daremos el nombre de PV1, una vez hecho esto pulsamos
OK en la barra inferior.
Entraremos en el proceso pulsando EDIT en la barra inferior y una vez dentro podremos ver que hay
2 apartados:
2-D Single-View Vision Process: Dónde podremos determinar los parámetros generales del
proceso de visión
GPM Locator Tool 1: Dónde podremos configurar el proceso de identificación del objeto que
hay que manipular.
En primer lugar, en el menú 2-D Single-View Vision Process, por el momento sólo modificaremos el
siguiente parámetro:
Una vez seleccionada la calibración de cámara del proceso de visión, se debe realizar la configuración
del GPM Locator Tool 1. Ya dentro del menú de GPM Locator Tool 1, se deberá colocar una pieza en
10
V1.1
el plano de calibración, dentro del área de detección y pulsaremos SNAP en la barra inferior para
realizar una captura de la pieza en el plano y configurar la detección de dicha pieza.
Pulsamos Teach para seleccionar el área de detección (área rosa modificable) exclusiva de cada pieza
independiente, una vez la tenemos pulsamos OK en la barra inferior:
Habiendo seleccionado el área de cada pieza, ahora procederemos a determinar las áreas destacables
de cada pieza (útiles para realizar la detección) y las áreas menospreciables (que no interesa detectar).
11
V1.1
En Training Mask, seleccionaremos el área menospreciable, que no interesa detectar. Viendo la
imagen, una vez marcadas las partes menospreciables, dejando solo el perfil de la pieza, nos queda
algo parecido a esto y pulsamos OK en la barra inferior:
Ahora procederemos a configurar el Emphasis Area, es decir, el área que nos interesará enfatizar para
una detección correcta de la pieza. Realizaremos el marcado del área enfatizada del mismo modo que
en el Training Mask y nos quedará:
Una vez ya finalizada la configuración del GPM Locator Tool 1, pasaremos a acabar de completar la
configuración del 2-D Single-View Vision Process.
12
V1.1
Por ahora completaremos los parámetros restantes, en concreto:
Para que el robot vaya al punto de cogida deseado, se deberá llevar al robot a la posición de referencia
y grabar un punto en dicha posición (por ej. P[1]). Mediante programación, el robot irá siempre a ese
punto con un offset determinado dependiendo de la detección gracias al proceso de visión.
13
V1.1
Una vez finalizada la configuración del proceso de visión se deberá pulsar el botón SAVE de la barra
inferior y también se podrá comprobar como la barra superior derecha del menú del proceso (donde
pone 2-D Single-View Vision Process) cambiará de color rojo a color verde como muestra de que ha
sido configurado por completo:
Para finalizar el proceso, pulsaremos END EDIT para terminar con la edición del proceso de visión.
14
V1.1
Anexo:
Para realizar pruebas se pueden colocar una o varias piezas (siempre teniendo en cuenta el parámetro
Number to find) y se pulsará el botón SNAP+FIND para hacer una captura y que se detecte pieza.
Varios ejemplos podrían ser:
Una vez veamos que el sistema detecta las diferentes piezas que presentamos en el área de detección,
se puede proceder a realizar un programa que llame a las funciones de Visión para que el robot vaya
a los puntos donde hay pieza y realice una función de Pick correspondiente a la posición de las piezas
detectadas gracias al sistema de Visión.
1: Activamos Frame 6
2: Activamos Tool 6
3: Ejecutamos el proceso de búsqueda
de pieza por proceso de visión “Lata”
4: Obtenemos offset de mov. (para pick)
y guardado en VR[7]; Sino, jump a LBL99
5: Movimiento al punto P[1], que es el
Ref. Pos. Status, con un offset en Z
(guardado en PR[50]) y con el offset del
VR[7] para movernos al punto de la
pieza.
6: Movimiento al mismo punto que “5:”
pero sin el offset en Z (bajada para Pick)
7: Subida al mismo punto que “5:”
8: Salimos a punto de reposo fuera de
área de visión
9: LBL[99]
11: END
12: Punto de referencia preguardado 15
V1.1
El primer paso que se sigue en el programa es la activación de Frame y Tool previamente configurados.
Dichas activaciones se realizan en las líneas de código 1 y 2 respectivamente del ejemplo.
El siguiente paso sería realizar la ejecución del proceso de visión. En el caso del ejemplo se ejecuta el
proceso nombrado “Lata” pero si quisiéramos utilizar el proceso creado en el punto “5. Configurar
proceso de visión”, llamaríamos al proceso PV1. Este paso corresponde a la línea de código 3.
Una vez encontrada la pieza se obtiene el offset en relación a la posición de referencia, y en caso de
no encontrarla, se procede a saltar a la línea correspondiente a la LBL[99]. Este paso corresponde a la
línea de código 4.
En las líneas de código 5, 6 y 7, se efectúa el movimiento descrito por el punto de referencia, grabado
en P[1] y el offset obtenido mediante el proceso de visión. Primeramente se mueve encima de la pieza
con un offset levantado en Z, posteriormente el robot baja en Z realizando el proceso de pick y
finalmente vuelve a subir en Z acabando en la misma posición que la descrita en la línea de código 5.
Se realiza un movimiento fuera del área de visión en la línea 9 y se coloca la LBL[99] en la línea 10.
En la línea de código 12 se encuentra guardado un punto, que será la posición de referencia necesaria
para el programa.
16
V1.1