Documentos de Académico
Documentos de Profesional
Documentos de Cultura
1Caso de Estudio
. Datos generales
. Datos específicos
1
Laboratorios Induquímica S.A, Fecha de visita: 30 de setiembre del 2017, Recuperado de:
http://www.induquimica.com/go.php/inicio
y excelencia en el producto2. Además, el almacén se encuentra aislado de la planta para
evitar la contaminación cruzada, es decir, evitar la transferencia de bacterias peligrosas
de un alimento a otro3. También, el depósito cuenta con condiciones ambientales optimas
que cumplen con el requerimiento de temperatura y humedad que tienen los
medicamentos.
De esta manera, según el diagnóstico aplicado, la empresa solo cuenta con el proceso
automatizado de blísteado y encintado, pero no de encajado o envasado de blísteres.
Además, no tienen un control de calidad para todos los productos guardados en el almacén
de aislamiento, solo para algunos al azar, con el fin de decir que el lote se encuentra en
buenas condiciones. De esta manera, es posible aplicar un modelo de encajado de pastillas
2
Lloyd's Register Quality Assurance, ISO 9001 Sistemas de Gestión de la Calidad, Fecha de visita: 30 de
setiembre del 2017, Recuperado de: http://www.lrqa.es/certificaciones/iso-9001-norma-calidad/
3
Instituto Nacional para la Seguridad y Salud Ocupacional (NIOSH), Reducción de la contaminación
cruzada, Fecha de publicación: 19 de noviembre del 2012, Recuperado de:
https://www.cdc.gov/spanish/niosh/topics/bbp_sp/bodyart_sp/contamination_sp.html
4
Video institucional Laboratorios Induquímica, Fecha de visita: 30 de setiembre del 2017, Recuperado
de: https://www.youtube.com/watch?v=pq4tN4oTZg8&t=37s
envasadas, con el fin de automatizar el proceso y evitar ineficiencia por fallas en el
proceso de encajado manual de pastillas envasadas.
Fuente: http://www.induquimica.com/go.php/inicio
A partir del problema planteado, se concluye que existe una ineficiencia por fallas en el
proceso de encajado manual de pastillas envasadas. De esta manera, ¿Es posible solventar
la ineficiencia del encajado de píldoras envasadas por fallas en el proceso de embalado
manual de blísteres en movimiento continuo sobre un transportador en los laboratorios
industriales farmacéuticos de Lima?
El proyecto consiste en dos técnicas las cuales están divididas en tres partes. La primera
técnica es la utilización de un brazo robot industrial pick and place, la cual abarca las dos
primeras partes del proyecto, que son el diseño y construcción de esta máquina autónoma
e independiente. La segunda técnica es el reconocimiento de objetos mediante una cámara
sensorial, la cual abarca la tercera y última parte del proyecto. De esta manera, el proyecto
radica sobre el diseño, construcción y control de un brazo robot industrial pick and place
para la aplicación de encajado de pastillas envasadas o blísteres, mediante el uso de un
sensor de visión denominado Kinect, el cual pueda reconocer el blíster que se encuentra
en movimiento en tiempo real sobre el transportador, con el fin de sincronizarse con el
desplazamiento del fármaco en la faja, y así evitar ineficiencia por fallas en el proceso de
encajado manual de pastillas envasadas. Además, se automatiza el proceso de encajado,
se reduce las pérdidas del producto médico si este llegara a caerse del transportador y se
reduce o se desplaza a otra área al personal que se encarga de embalar las pastillas
envasadas o de personal que se encuentre operando un robot pick and place. De esta
manera, se reduce los gastos que traería la pérdida del fármaco y la innecesaria presencia
de operarios en el proceso de encajado manual.
Por consiguiente, la solución que se plantea con el siguiente proyecto está dividida en tres
partes. La primera parte consiste en el diseño de un brazo robótico de 3 grados de libertad
(GDL), el cual pueda realizar tareas de picking, diseñado en AutoCAD e Inventor, con el
fin de tener exactitud en el diseño de las piezas y un modo de simular el movimiento del
robot.
La tercera parte consiste en el control del brazo robot ya construido mediante una cámara
sensorial denominada Kinect, de la plataforma de Xbox360 de Microsoft, la cual pueda
reconocer el objeto que pasa sobre esta, en este caso los blísteres, mediante un algoritmo
de procesamiento digital de imágenes (PDI) dentro de un microcontrolador Raspberry Pi
3 en el entorno del programa Visual Studio 2015 en lenguaje C#. De esta manera, ya no
es necesaria la presencia de operarios en el encajado de blísteres, debido a que se
automatiza el proceso y así se reduce la ineficiencia que existe por fallas en el proceso de
encajado manual de pastillas envasadas.
5
Ministerio de sanidad, servicios sociales e igualdad (España), Fecha de publicación: Enero del 2008,
Recuperado de https://www.aemps.gob.es/cima/pdfs/es/ft/66496/FT_66496.pdf
6
Empaques industriales Carbajal, recuperado de http://empaquescolombia.carvajal.com/empaques-
industriales/blisters-y-bandejas-industrial/
preciso y no sea tan pesado. En esta parte se utilizará la tesis del Ing. Carlos Soto Bravo,
con el título “Brazo robótico de 5GDL con sistema de control modificable por el usuario
para fines de investigación en Ingeniería Robótica”. La cual consiste en el diseño de un
brazo robótico de 5 grados de libertad con un sistema de control de movimiento
modificable por el usuario y un control de seguridad que garantice el bienestar del usuario
y de la máquina7.
7
Carlos Andrés Soto Bravo, Brazo robótico de 5GDL con sistema de control modificable por el usuario
para fines de investigación en ingeniería robótica, Fecha de publicación: 8 de enero de 2016, Recuperado
de http://tesis.pucp.edu.pe/repositorio/handle/123456789/6493
8
Código de demostración de Kinect, Microsoft, Fecha de publicación: 4 de noviembre de 2016, Recuperado
de https://blogs.windows.com/buildingapps/2016/11/04/kinect-demo-code-and-new-driver-for-uwp-now-
available/#pQbmAKmgtezBhTrv.97
Mediante el algoritmo que tendrá la Raspberry Pi 3, se busca detectar los bordes del blíster
sobre un grupo de este mismo encima un transportador que pasará sobre la cámara Kinect,
y así contabilizarlo y dirigir el brazo hacia esa posición, encajarlo, seguir hasta llenar la
caja, desplazar otra caja, volverla a llenar, y así sucesivamente. En efecto, en el paper
“Texture edge-guided depth recovery for structured light-based depth sensor”, los autores
plantean mejorar el mapa de profundidad de la camara Kinect, ya que a pesar de ser una
camara sensorial de bajo costo y permite capturar profundidad, reconoce el objeto con
ruido. De esta manera, con el algoritmo planteado por los autores, es posible reconocer
un blíster en específico, además que no es necesario que se encuentre en el conjunto de
300 objetos domésticos comunes encontrados dentro de la memoria de una Kinect9. De
esta manera, el brazo robot diseñado y construido puede detectar y desplazarse hacia el
blíster reconocido, a pesar del ruido que pueda producir la Kinect10.
9
RGB-D Object Dataset, Fecha de publicación: 2011, Recuperado de: https://rgbd-
dataset.cs.washington.edu/
10
Huiping Deng, Jin Wu, Lei Zhu, Zengqiang Yan y Li Yu, Texture edge-guided depth recovery for
structured light-based depth sensor, Fecha de publicación: 17 de febrero del 2016, Multimedia Tools
Application, Volumen: 76, Issue: 3, Página: 4211-4226, Recuperado de:
https://www.semanticscholar.org/paper/Texture-edge-guided-depth-recovery-for-structured-Deng-
Wu/4fc8cffcfc9f4879b35d53eafb1e6fdda2161f6f
Figura 4: Diagrama de bloques para solucionar el error de mapa de profundidad de
una Kinect
Fuente: https://www.semanticscholar.org/paper/Texture-edge-guided-depth-recovery-
for-structured-Deng-Wu/4fc8cffcfc9f4879b35d53eafb1e6fdda2161f6f
Diferentes empresas han tenido una idea similar para la automatización de la selección de
productos mediante robots que trabajan de manera autónoma. En efecto, la empresa
Universal Robots cuenta con brazos robóticos que ejecutan de forma autónoma la mayor
parte de las aplicaciones de pick and place, en donde la programación es bastante práctica,
sencilla e intuitiva de utilizar para producciones lentas y de pequeño volumen. Sin
embargo, en producciones donde la velocidad es un poco mayor, parece ser que es
necesario un operador del brazo o un equipo más sofisticado, de más alto costo y de más
alta calidad que pueda ejecutar la acción, pero es necesario que haya alguien dentro para
que pueda manejarlo ya que supera sus limitaciones12. De esta manera, es necesario que
haya un operario cerca de la máquina para que la supervise.
11
Hongtai Cheng, Zhifei Zhang y Wei Li, Modelado de errores dinámicos y compensación en el proceso
de Pick-and-place del robot Delta de alta velocidad Fecha de publicación: 5 de octubre de 2015, Recuperado
de http://ieeexplore.ieee.org/document/7287906/
12
Universal Robots, Recuperado de https://www.universal-robots.com/es/aplicaciones/pick-place/
Figura 5: Proceso de encajado manual en la empresa farmacéutica Laproff
Fuente: https://www.laproff.com/
13
Grupo Savia, Fecha de visita: 30 de setiembre del 2017, Recuperado de:
http://gruposavia.eu/es/blog/automatizacion-maquina-para-el-encajado-de-pastillas-de-especies
1.5. Motivación
La principal motivación es la ambición de investigar más sobre los brazos robóticos y las
aplicaciones que pueden tener estos en la industria para automatizar un proceso, además
del anhelo de buscar una manera de cómo controlarlos sin tener a un usuario que los
opere, ya que la industria va avanzando cada vez más rápido, es necesario que la
ingeniería Mecatrónica avance a la misma velocidad ganando sus propios méritos.
También, de cómo diferentes ramas de dicha carrera pueden crear una sinergia con otros
temas como el procesamiento digital de imágenes (PDI), obteniendo una combinación
eficiente y fascinante.
1.6.1. Objetivos
Cantidad Nombre del producto Imagen del producto Valor unitario (Soles) Valor Total (Soles)
1 Tira de Leds 20 20
4 Filamento Impresora 3D 10 40
Total 3610
El proyecto técnicamente consiste en un brazo robot industrial Pick and Place montado
sobre una banda transportadora, controlado mediante una cámara Kinect de Xbox360,
conectada a una Raspberry Pi 3, programada en el entorno de Visual Studio 2015 en
lenguaje C#, cuya función será el reconocimiento de blísteres que pasen sobre la faja
transportadora en movimiento continuo, donde cada vez que un blíster se encuentre
encima de la cámara, esta tomará una foto y mediante un algoritmo de procesamiento de
imágenes, se detecta la posición del medicamento, de esta manera el brazo robot se
dirigirá hacia las píldoras, lo recogerá y transportará a su respectivo contenedor y así
sucesivamente. Actualmente, los laboratorios farmacéuticos cuentan con un proceso
manual de encajado de pastillas envasadas, de esta manera, es posible aplicar el proyecto
sobre este esquema. Sin embargo, existen diferentes máquinas pick and place en el
mercado que también pueden trabajar de la manera propuesta. En efecto, la empresa
Yaskawa presenta a los robots pick and place MOTOMAN, los cuales pueden llevar a
cabo tareas tediosas y repetitivas con una facilidad, velocidad y precisión en todas las
áreas de producción, especialmente en aplicaciones de montaje en la industria de la
electrónica, como selección y posicionamiento de componentes electrónicos en placas
PCB14.
Además, la empresa Essemtec distribuye los Pick and Place Cobra, los cuales constan de
múltiples motores de alta velocidad para la inserción de componentes electrónicos para
la fabricación de placas en SMD15. De esta manera, diferentes máquinas que actualmente
14
Yaskawa, Pick and Place, Fecha de publicación: 2013, Recuperado de:
http://www.motoman.es/es/aplicaciones/pick-and-place/
15
Essemtec, Máquina de inserción para SMD, Fecha de publicación: 2015, Recuperado de:
http://www.directindustry.es/prod/essemtec/product-55556-456983.html
se encuentran en el mercado también pueden ejercer la labor que se propone en el
documento. Sin embargo, dichas empresas se encuentran en otro rubro y otro segmento
de mercado, en este caso la electrónica.
2.1. Prefacio
Los artículos seleccionados fueron diez, los cuales se dividieron en tres grandes
subgrupos o tipologías, los cuales describen cada parte del desarrollo de las dos técnicas
presentadas.
1. Diseño Diseño y control de un brazo robot
2. Construcción Manipulación de Máquinas Pick and Place
3. Control Reconocimiento de objetos con Kinect
En el primer grupo se encontró tres artículos, los cuales consisten en el diseño y control
de un brazo robot en diferentes aplicaciones. La gran mayoría de los documentos
describen como los grados de libertad (GDL) afectan en el proceso de control de un brazo
robot, además del típico control que existe en estos, el cual es mediante sensores de visión
o cámaras.
Paper 1:” Simulating Kinect Infrared and Depth Images (Simulación de imágenes
infrarrojas y de profundidad de Kinect)”
Objetivo: El problema que los autores se enfocan en resolver son las limitaciones que
existen para todas las aplicaciones que utilizan un sensor Kinect que no tengan relación
con el reconocimiento y estimación de secuencia de poses humanas y navegación
autónoma, como el reconocimiento de objetos inanimados y rígidos. Debido a que
Microsoft sólo proporciona software de seguimiento para poses humanas en su kit de
desarrollo de software o que los objetos sensados no se encuentren dentro de la base de
datos que la Kinect proporciona. Por consiguiente, esto provoca que los investigadores
utilicen herramientas imprecisas o costosas para recopilar los datos imperfectos o utilizar
un objeto que se le acerque, pero genera un modelo menos perfecto y con ruido no
homogéneo.
La motivación de los autores en realizar este estudio se enfoca en resolver las limitaciones
que existen sobre el reconocimiento de objetos inertes mediante un simulador práctico,
fiable y extensible de infrarrojos para el Kinect (IR) y de profundidad con modelos
incorporados de moteado y ruido, implementando tecnología de codificación de luz
especializada de acuerdo con un patrón de punto de transmisión IR único y estimando
imágenes de profundidad ruidosas atípicas a las de cualquier otro sensor de imagen de luz
estructurada o de rango.
De esta manera, los resultados obtenidos por los autores demuestran que el simulador
produce con precisión un error de profundidad axial a partir de superficies planas con
ángulos de inclinación diferentes, así como el sesgo y el error lateral estándar del borde
horizontal y vertical del objeto. Sin embargo, sin considerar el ruido producido, es un
modelo el cual supera los límites dados por Microsoft, ya que permite reconocer objetos
inamovibles y no solo movimiento y oscilación humana.
Fuente: http://ieeexplore.ieee.org/document/7328728/
Sin embargo, el proyecto solo plantea la proyección de puntos IR ideal, pero sigue siendo
óptimo para la construcción de modelos de error axial y lateral más fieles al objeto
inanimado real, el reconocimiento de objetos mejorado y métodos de estimación de pose,
y el desarrollo de un simulador para otros sensores de profundidad que emplean un
sistema de iluminación estructurado parecido al de la Kinect.
4. Principal Resultado:
El estudio sirvió de apoyo para entender el desarrollo de una útil herramienta infrarroja y
de simulación de imágenes en profundidad para una cámara sensorial Kinect de
Microsoft, además de poder utilizarse también para desarrollar nuevos modelos de error
a partir de factores estocásticos y sistemáticos, así como para refinar y probar métodos de
reconocimiento de objetos, reconstrucción y pose.
El sistema propuesto por los autores también está construido para adoptar fácilmente otros
sistemas luminosos estructurados con un patrón conocido fijo espacialmente. La
simulación también puede ampliarse a otros sistemas de proyección de luz, donde se
puedan obtener o estimar los parámetros del sistema.
Además, el ruido del modelo planteado se utiliza como parte de una nueva clase de
estimadores para el reconocimiento de objetos y de poses. De esta manera, se simula una
imagen de profundidad libre de ruido del CAD (Conversor Análogo Digital) de un objeto,
donde se transforma la imagen de profundidad en una nube de puntos de modelo predicha
para alinearla con una nube de puntos de medición derivada de una imagen de
profundidad real. Sin embargo, se asumen generalmente que los errores de medida 3-D
de pares del punto son independientes y homogéneos. Pero, el proyecto solo plantea la
proyección de puntos IR ideal, gracias a esto, se debe idear un sistema que calibre el
patrón de puntos replicado a cualquier sensor Kinect real.
Paper 2:” Texture edge-guided depth recovery for structured light-based depth sensor
(Recuperación de profundidad guiada por bordes para el sensor de profundidad
estructurado basado en la luz)”
El proceso por el cual los autores resuelven la poca precisión en la calidad del mapa de
profundidad está conformado en un diagrama de bloques tras analizar los tipos de
soluciones existentes.
Figura 7: Diagrama de bloques para solucionar el error de mapa de profundidad de
una Kinect
Fuente: https://www.semanticscholar.org/paper/Texture-edge-guided-depth-recovery-
for-structured-Deng-Wu/4fc8cffcfc9f4879b35d53eafb1e6fdda2161f6f
En el segundo paso, los valores de profundidad en las regiones incorrectas se refinan para
corregir los errores de profundidad en el mapa de profundidad inicial. Durante el curso
del refinamiento, los parches a lo largo de los límites de profundidad reciben un valor de
prioridad temporal, que determina el orden en el que se llenan. El cálculo de prioridad
está sesgado en aquellos parches que están en la continuación de bordes fuertes y que
están rodeados por píxeles de alta confianza. Los valores de profundidad reales se
calculan utilizando un filtro de coste ponderado. El mapa de profundidad recuperado se
devuelve al proceso y luego sigue un módulo de refinamiento iterativo. De esta manera,
el método propuesto utiliza la información de textura como guía para recuperar las
regiones límite del mapa de profundidad.
Fuente: https://www.semanticscholar.org/paper/Texture-edge-guided-depth-recovery-
for-structured-Deng-Wu/4fc8cffcfc9f4879b35d53eafb1e6fdda2161f6f
4. Principal Resultado:
El enfoque investigado se interpreta como un módulo iterativo de pintura para refinar las
regiones incorrectas alrededor de los límites de los objetos, extrayendo los bordes
verdaderos de los datos RGB-D y los bordes falsos del mapa de profundidad,
rellenándolos para detectar las regiones incorrectas entre los dos bordes. Por consiguiente,
las regiones de error se refinan de modo que los bordes de la imagen en color y mapa de
profundidad son la alineación.
Paper 3:” Feature Interaction Augmented Sparse Learning for Fast Kinect Motion
Detection (Característica de interacción Aprendizaje escaso aumentado para la
detección de movimiento rápido Kinect)”
La motivación de los autores en realizar este estudio se enfoca en el gran valor que tiene
la cámara Kinect en el mercado y el impacto significativo ocasionado en la vida de los
usuarios que utilizaron el sensor como diversión. Además, otra inspiración que tuvieron
los autores fue por el éxito que ocasionó la aparición de la Kinect, ya que fue el primer
mando que utilizó la tecnología de reconocimiento de movimiento. También, la estructura
bien adaptada de los datos del esqueleto que genera la cámara es útil para la investigación
y aplicación de algoritmos.
4. Principal Resultado:
Paper 4:” RGB-D Object Recognition and Grasp Detection Using Hierarchical
Cascaded Forests (Reconocimiento de objeto RGB-D y detección de agarre utilizando
bosques en cascada jerárquicos)”
16
Saimadhu Polamuri, How the random forest algorithm works in machine learning, Fecha de
publicación: 22 de mayo del 2017, Recuperado de: http://dataaspirant.com/2017/05/22/random-forest-
algorithm-machine-learing/
2. Descripción del aporte del autor:
El proceso por el cual los autores resuelven las fallas en el reconocimiento de objetos por
un sensor de visión y la relación detección/reconocimiento por el mal sincronismo entre
una máquina y el sensor, está dividido en seis partes importantes, las cuales los cuatro
bloques del medio son el valor agregado de los autores, mediante un diagrama de bloques.
Fuente: http://ieeexplore.ieee.org/document/7820198/
En segundo lugar, los autores Introducen una nueva representación de datos RGB-D para
extraer características altamente discriminatorias mediante el uso de redes neuronales
convolucionales (CNN) pre-entrenadas. Para eso proponen un método que captura la
apariencia e información estructural de una nube de puntos RGB-D a través de múltiples
mapas de características (color RGB, gradientes de color, normales de superficie locales,
orientaciones locales de superficies normales y distancias proyectadas de los puntos de la
nube de puntos) denominada por los autores como EMBedding estructural (STEM) de
datos RGB-D. Además, muestran que las características de CNN extraídas usando los
mapas de características de STEM producen mejoras sustanciales sobre el uso ingenuo
de imágenes en bruto RGB-D para las tareas de reconocimiento de objetos y detección de
agarre.
En tercer lugar. Los autores presentan una evaluación extensa del marco propuesto en dos
conjuntos de datos desafiantes, el primer conjunto como el conjunto de datos de objetos
RGB-D de Washington, para el reconocimiento de objetos; y el conjunto de datos de
objetos de Cornell Grasping, para reconocimiento de objetos y detección de agarre. De
esta manera, el marco propuesto por los autores produce mejoras sustanciales en el
reconocimiento.
Finalmente, los autores presentan experimentos robóticos del mundo real utilizando
transmisiones de video en vivo desde una Kinect montado en una plataforma robótica
interna llamada Artificial Intelligence Personal Assistance Robot (AIPAR), con el fin de
demostrar las capacidades del marco propuesto para generalizar con éxito a objetos
desconocidos con tasas de éxito de hasta al 93% para el reconocimiento de objetos y al
92% para ejecutar capturas exitosas.
4. Principal Resultado:
El proceso por el cual los autores proponen un nuevo método de fabricación de piezas
impresas en una impresora 3D, está representado en un diagrama de bloques.
De esta manera, el sistema propuesto por los autores tiene como objetivo de ser un
accesorio que se puede instalar en impresoras 3D de código abierto sin la necesidad de
modificaciones. El sistema consiste en un brazo robótico, circuitos de control, sensores,
un sistema de visión artificial para monitorear el progreso del trabajo, un software para la
integración de los sistemas involucrados y el uso de un adhesivo específico para
garantizar que las piezas salgan fácilmente de la placa de construcción después de que el
trabajo haya terminado.
Además, el sistema propuesto solo funciona con piezas impresas en polímero de ABS.
También, se debe tener en cuenta que el sistema propuesto por los autores puede usar
varias entradas para activar la acción de eliminación de piezas del brazo robótico.
Finalmente, el sistema de visión por computadora que monitorea la impresión y el estado
leído de la integración con el software de control de la impresora.
Fuente:
https://www.researchgate.net/publication/317127540_Sequential_additive_manufacturi
ng_Automatic_manipulation_of_3D_printed_parts
4. Principal Resultado:
17
Sethi3D, Manual de instrucciones para montaje de impresora 3D Sethi3D AiP 3D, Recuperado de:
http://www.sethi.com.br/blog/wp-content/uploads/2015/05/Manual_Montagem_AiP_LCD_Integrado.pdf
Una vez que finaliza el trabajo de impresión, el sistema observa si el extrusor está en la
posición deseada y envía los comandos de movimiento al brazo del robot, el cual desplaza
las piezas para la siguiente impresión.
Fuente:
https://www.researchgate.net/publication/317127540_Sequential_additive_manufacturi
ng_Automatic_manipulation_of_3D_printed_parts
Paper 6:” Pick-place of dynamic objects by robot manipulator based on deep learning
and easy user interface teaching systems (Pick-place de objetos dinámicos mediante
manipulador de robots basado en aprendizaje profundo y sistemas de enseñanza de
fácil interfaz de usuario)”
Objetivo: El problema que los autores se enfocan en resolver es sobre las complejas
técnicas de enseñanza que existen para manipular un robot pick and place autónomo que
utiliza el reconocimiento de objetos en tiempo real, para aplicaciones de ensamblaje tipo
Humano-Robot, debido al aumento de robots autómatas de pequeño tamaño en la vida
cotidiana de la industria, junto con la aparición de operarios inexpertos incapaces de
enseñar varios movimientos difíciles de ejecutar en corto tiempo al robot para el labor de
ensamblaje.
El resultado obtenido es otra motivación para los autores, ya que facilita el uso de robots
autónomos que ayudan a usuarios no experimentados a completar diferentes tareas de
montaje.
El proceso por el cual los autores resuelven las complejas técnicas de enseñanza utilizadas
actualmente en robots pick and place, está organizado en 4 secciones. En la primera
sección, se explica las tareas a realizar del robot, en este caso es recoger un objeto
específico seleccionado por el usuario sobre una mesa con varios objetos distintos
dispersos aleatoriamente, y colocarlo en el lugar de destino, reconociendo el objeto
mediante una cámara USB. De esta manera, el robot tiene que generar la trayectoria al
objeto en tiempo real basado en su ubicación inicial y la ubicación del objeto. De esta
18
Geomagic, Los Dispositivos Hápticos de Geomagic, Fecha de publicación: 2016, Recuperado de:
http://www.geomagic.com/es/products/phantom-omni/overview
manera, se plantea tres sistemas de enseñanza intuitivos para enseñarle al robot trayectorias
complejas. Los tres sistemas desarrollados se basan en el dispositivo háptico, el iPhone y el
sensor Kinect.
4. Principal Resultado:
Paper 7:” Real-Time Grasping Planning for Robotic Bin-Picking and Kitting
Applications (Planificación de agarre en tiempo real para aplicaciones robóticas de
recolección de basura - Picking y kitting)”
El proceso por el cual los autores resuelven el desafío de la planificación del agarre en
tiempo real de manos roboticas de alto grado de libertad, utiliza dos estrategias de
reducción de dimensión simples y efectivas, el volumen intersecado y los planos de rizado
de dedos, para descomponer un problema de planificación de agarre lento en espacio de
alta dimensión en varios problemas de planificación de agarre en espacio de baja
dimensión que pueden resolverse en real hora.
Fuente: http://ieeexplore.ieee.org/document/7893003/
4. Principal Resultado:
Fuente: http://ieeexplore.ieee.org/document/7893003/
Tipología 3: Manipulación de máquinas pick and place
Paper 8:” A Hybrid Switched Reactive-Based Visual Servo Control of 5-DOF Robot
Manipulators for Pick-and-Place Tasks (Un control servo visual híbrido con
conmutación de reactivos de manipuladores de robots de 5-DOF para tareas de
recogida y colocación)”
Objetivo: El problema que los autores se enfocan en resolver trata sobre los enfoques de
control de agarre robótico tradicional, los cuales tienden a fallar debido a las
incertidumbres en la pose del objeto y la poca retroalimentación del objeto enfocado
mediante un sensor de visión. De esta manera, los autores se centran en mejorar el control
Pick and Place basado en la visión, es decir, mejorar las técnicas del control de un servo
visualmente.
El proceso por el cual los autores mejoran el control Pick and Place de un manipulador
robótico de 5 GDL es mediante una actividad, la cual tiene como objetivo agarrar un
objeto de color y colocarlo en una caja, que tiene diferentes formas de agujeros con
diferentes colores, donde la máquina tendrá los parámetros de control presentados por los
autores. De esta manera, el robot debe reconocer el color y la forma del objeto de interés
e intentar colocarlo en una de las cajas a través de un agujero con el mismo color y forma.
Fuente: http://ieeexplore.ieee.org/document/6920015/
De esta manera, proceso por el cual los autores resuelven la problemática aplicada a un
brazo robot de 5 GDL, está conformado en un diagrama de bloques tras analizar los tipos
de soluciones existentes.
Figura 18: Diagrama de bloques sobre la autonomía de un brazo robot Pick and Place
controlado mediante un sensor de visión
Fuente: http://ieeexplore.ieee.org/document/6920015/
4. Principal Resultado:
El estudio sirvió de apoyo para entender el desarrollo de una nueva estructura de servo
control visual basada en reactivos, inspirada en un comportamiento sensorial y de
reacción sin la computación matricial de interacción inversa, para manejar este problema.
Para ayudar en la tarea de agarrar un objeto cúbico, los autores un nuevo algoritmo de
estimación de orientación de objetos basado en imágenes que estima con precisión la
orientación del objeto con el rendimiento en tiempo real.
Además, proponen un enfoque de función reactivo para mapear directamente los errores
de posición de la imagen a las velocidades del efector final deseadas sin interacción
inversa de la computación matricial, modelado difuso y aprendizaje de base de reglas
difusas. Esta característica ayuda a simplificar el diseño del controlador servo visual.
Además, la función reactiva propuesta tiene en cuenta el hardware para mejorar la
fiabilidad y la aplicabilidad del controlador propuesto en aplicaciones prácticas.
Objetivo: El problema que los autores se enfocan en resolver es sobre la deficiencia que
existe en la mayoría de los sistemas de teleoperación, controlados mediante un sensor
háptico, sin retroalimentación háptica, como la retroalimentación de la fuerza, para
completar una tarea. De esta manera, el sentido humano multifacético del tacto no es
aprovechado por la mayoría de los sistemas de teleoperación para el manejo de una pinza
o mano robot.
El proceso por el cual los autores resuelven la deficiencia que existe en la mayoría de los
sistemas de teleoperación inicia mediante un análisis de los dispositivos táctiles anteriores
que fueron creados para mejorar la usabilidad de los robots teleoperados o máquinas que
tienen el potencial de ser utilizados en la teleoperación.
4. Principal Resultado:
Fuente: http://ieeexplore.ieee.org/document/7479565/
Por consiguiente, los resultados obtenidos por los autores en las tareas aplicadas al
dispositivo fueron aceptables, como el número de veces que el sujeto golpeó el objeto,
que indica qué tan bien el sujeto pudo controlar la mano del robot en el entorno remoto;
los objetos fueron cada vez más flexibles más a menudo cuando los sujetos recibieron
retroalimentación de fuerza de agarre y un poco menos a menudo cuando recibieron
retroalimentación de contacto. Los sujetos que manipularon el bloque rígido lo derribaron
menos veces cuando recibieron una respuesta de fuerza de agarre que cuando se desactivó
la respuesta de fuerza de agarre. De esta manera, la retroalimentación háptica es necesaria
para que los robots teleoperados tengan sensibilidad ante un objeto, sin embargo, no todas
las combinaciones de sensibilidad proporcionadas por el tacto humano son beneficiarias.
Una inspiración adicional sobre el aporte de los autores es que los resultados pueden ser
adoptados adicionalmente en el análisis dinámico de otros manipuladores paralelos en el
mercado, con solo los índices CVI y JRI.
También se analiza el índice de CVI, es decir el índice de inercia del espacio articular que
ilustra la consistencia de aceleración de cada miembro del manipulador paralelo19, donde
se propone evaluar la similitud de la propiedad de inercia de diferentes miembros, que es
igual al coeficiente de variación de los principales elementos diagonales en la matriz de
inercia del espacio articular. El índice CVI es el complemento esencial del índice JRI
existente, es decir el índice de Inercia Reflejada Conjunta existente20. Además, los índices
19
Zhaokun Zhang, Zhufeng Shao, Liping Wang, Albert J. Shih, Optimal Design of a High-Speed Pick-and-
Place Cable-Driven Parallel Robot, Fecha de publicación: 6 de julio del 2017, Recuperado de:
https://link.springer.com/chapter/10.1007/978-3-319-61431-1_29
20
Jiao Mo, Zhu-Feng Shao, Liwen Guan, Fugui Xie and Xiaoqiang Tang, Dynamic performance Analysis
of the X4 high-speed pick-and-place parallel robot, Fecha de publicación: agosto 2017, Recuperado de:
CVI y JRI son adoptados juntos para llevar a cabo el análisis completo sobre el
rendimiento dinámico para el manipulador paralelo de alta velocidad. De esta manera, se
ilustran las distribuciones de los valores CVI y JRI en el área de trabajo accesible y se
analiza el comportamiento dinámico del manipulador paralelo X4.
El proceso por el cual los autores resuelven el problema sobre el rendimiento dinámico
por el movimiento típico que tienen los brazos robot industriales pick and place es
mediante el análisis del robot de alta velocidad paralelo X4. De esta manera, los autores
empiezan con un prototipo virtual del robot explicando en detalle el modelo cinemático
del manipulador paralelo X4.
Fuente: https://dl.acm.org/citation.cfm?id=3062814
De esta manera, los autores obtienen que el robot X4 se compone de dos cuerpos (el
extremo del eje y la base) y cuatro miembros R-2-R idénticos, donde cada miembro es
https://www.researchgate.net/publication/311785177_Dynamic_performance_analysis_of_the_X4_high-
speed_pick-and-place_parallel_robot
accionado por un servomotor y reductor de engranaje planetario. Además, el mecanismo
posee 4 DoFs, incluyendo tres traducciones y una rotación alrededor de la dirección
vertical.
Luego, ya teniendo el modelo virtual, los autores aplican las ecuaciones cinemáticas y las
matrices Jacobianas de los miembros del manipulador paralelo X4 modelado, de acuerdo
con el criterio de Grübler-Kutzbach, donde el número de DoFs del manipulador X4 es
igual a 24 DoFs asociados con enlaces móviles menos un total de 20 restricciones
independientes. De esta manera, con el principio de trabajo virtual, se aplica el modelo
dinámico y la matriz de inercia del espacio conjunto, donde las fuerzas de inercia y los
momentos de torsión del efector final y de los miembros se deducen en el bastidor de
base.
Finalmente, los autores proponen un índice de CVI basado en el índice JRI obtenido por
el modelo dinámico y la matriz de inercia, gracias a esto, el comportamiento dinámico
del manipulador paralelo X4 se analiza con estos dos índices, donde la matriz de inercia
JRI en el espacio de unión refleja las relaciones entre la aceleración angular y el par de
accionamiento de las articulaciones revolucionarias motrices. Para el manipulador
paralelo X4, se requiere un movimiento de alta velocidad de pick and place, lo que
significa una gran aceleración en el desplazamiento corto, y la fuerza de inercia es
dominante.
Figura 21: Demostración del robot Delta de alta velocidad paralelo X4 para tareas de
Picking
Fuente: http://www.omron.com.au/data_pdf/cat/I001-E4-
01_Pick%20%26%20Place%20Brochure.pdf?id=3389
4. Principal Resultado:
El estudio sirvió de apoyo para entender los cambios en el comportamiento dinámico del
manipulador paralelo X4, revelando en simulación que el índice JRI está bien
complementado con el índice CVI. Finalmente, se discute el espacio de trabajo sobre el
cual estará la máquina con un buen rendimiento dinámico. De esta manera, se proporciona
un nuevo enfoque para el análisis dinámico y diseño óptimo para el robot pick and place
de alta velocidad paralelo.
2.3. Conclusiones
En lo que respecta al manejo de máquinas Pick and place, los tres artículos describen
como diferentes aparatos Pick and Place comerciales son utilizados actualmente. Sin
embargo, existen limitaciones de estos equipos, los cuales incentivaron a los autores en
desarrollar soluciones alternativas a las convencionales, las cuales pueden llegar a ser
muy tediosas, como la lógica difusa o implementación de otros equipos. Además, los
documentos coinciden en que las máquinas que se encuentran actualmente en el mercado,
aunque sean las más sofisticadas, cada una cuenta con sus propios errores. En resumen,
estos errores incentivaron también a que los autores propongan soluciones ante estos, con
el fin de mejorar la manipulación de estas máquinas.
Los artículos seleccionados coinciden en que la cámara kinect es accesible y útil para el
procesamiento de imágenes en movimiento continuo. Sin embargo, los documentos
también coinciden en los errores que tiene este sensor de visión, como el ruido que existe
en el mapeo de profundidad. Además, los autores coinciden en que solo el sensor kinect
es útil en el ámbito de reconocimiento facial y detección de movimiento humano, y solo
para algunos objetos que se encuentren dentro de la base de datos de la cámara, los cuales
son un aproximado a 300 objetos con modelado 3D reconocible. En resumen, a diferencia
de los problemas que aparecen sobre un reconocido sensor de visión, los autores plantean
una solución con resultados eficientes.
A partir de los tres grandes temas extraídos de la lectura, de los diez artículos científicos
seleccionados, se puede concluir que para diseñar, construir y controlar un brazo robot
industrial Pick and Place mediante el reconocimiento de objetos con un sensor de visión,
es necesario disponer de un hardware óptimo para no depender demasiado del software.
En efecto, el sensor de visión Kinect es muy utilizado en el procesamiento de Imágenes,
sin embargo, el hecho de que sea utilizado no significa que sus resultados sean los más
apropiados, debido a que los autores de la tipología número 3 explican que el sensor de
visión cuenta con errores en su mapa de profundidad y adquisición de ruido por su
resolución espacial. Sin embargo, para la aplicación de reconocer pastillas envasadas en
movimiento constante sobre una faja transportadora, la camara diseñada por Microsoft
encaja perfectamente. Además, la elección de la cantidad de grados de libertad que tendrá
un brazo robot en su etapa de diseño, y posteriormente construcción, es muy
indispensable, debido a que mientras más movimientos tenga la máquina Pick and Place,
mas métodos de control serán necesarios para su control. De esta manera, para la
aplicación de seleccionar blísteres en movimiento, encaja a la perfección los 3 GDL
planteados en el documento.