Está en la página 1de 54

DANIEL ALEJANRO MONTOYA GODENZI

1Caso de Estudio

. Datos generales

La empresa a la que va dirigido el proyecto se denomina Laboratorios Induquímica S.A


ubicada en la calle Santa Lucia 152 Villa Marina, Chorrillos, Lima, Perú. Esta empresa
se encuentra en el campo farmacéutico logrando una posición como uno de los fabricantes
más importantes del Perú con productos de muy buena calidad y aceptación. Se
especializan sobretodo en la fabricación de medicinas Antiretrovirales y para el
tratamiento del cáncer.

Su visión consiste en ser líder en la producción y comercialización de productos


farmacéuticos a nivel Nacional e Internacional, enfocándose en brindar soluciones
confiables e innovadoras en los diferentes sectores del mercado. Su misión consiste en
innovar, producir y comercializar productos farmacéuticos de la más alta calidad, con el
fin de contribuir a la salud y bienestar de la sociedad. Su objetivo principal desde su
fundación fue convertirse en uno de los fabricantes más importantes del país, teniendo
como política estar comprometidos con la calidad de sus productos para la satisfacción
de todos sus clientes1.

Figura 1: Logo Laboratorios Induquímica S.A.


Fuente: http://www.induquimica.com/go.php/inicio

. Datos específicos

La empresa Laboratorios Induquímica S.A. cuenta con un almacén de productos


especiales diseñado para conservar insumos con las condiciones exigidas por la norma
ISO-9001. Es decir, cuenta con un sistema de gestión de la calidad que le ayuda a
controlar y mejorar su rendimiento y así conducirlo hacia la eficiencia, servicio al cliente

1
Laboratorios Induquímica S.A, Fecha de visita: 30 de setiembre del 2017, Recuperado de:
http://www.induquimica.com/go.php/inicio
y excelencia en el producto2. Además, el almacén se encuentra aislado de la planta para
evitar la contaminación cruzada, es decir, evitar la transferencia de bacterias peligrosas
de un alimento a otro3. También, el depósito cuenta con condiciones ambientales optimas
que cumplen con el requerimiento de temperatura y humedad que tienen los
medicamentos.

El laboratorio cuenta con un control de calidad, donde por un periodo de cuarentena se


inspecciona algunos medicamentos de todo el grupo para comprobar si el insumo cuenta
con las características adecuadas para utilizarlo.

En el proceso de producción de antineoplásicos y antiretrovirales de Induquímica, las


tabletas y capsulas son elaboradas bajo estrictos controles. Empieza con un proceso de
granulación o de mezcla simple donde los equipos operan bajo personal calificado,
además en esta sección se uniformiza los lotes de fabricación mezclándolos para ser
trasladados a un proceso de tableteado o encapsulado para obtener así las capsulas. La
planta de producción de la empresa farmacéutica cuenta con una blístera y una
encintadora en salas acondicionadas para que los operarios puedan realizar un trabajo
eficiente en el momento de embalar el producto y despacharlo. El personal que se
encuentra a cargo de los procesos cuenta con uniformes que los protegen de sustancias
altamente activas, además de equipamiento especial que les suministra oxígeno para
procesos de mezclado4.

De esta manera, según el diagnóstico aplicado, la empresa solo cuenta con el proceso
automatizado de blísteado y encintado, pero no de encajado o envasado de blísteres.
Además, no tienen un control de calidad para todos los productos guardados en el almacén
de aislamiento, solo para algunos al azar, con el fin de decir que el lote se encuentra en
buenas condiciones. De esta manera, es posible aplicar un modelo de encajado de pastillas

2
Lloyd's Register Quality Assurance, ISO 9001 Sistemas de Gestión de la Calidad, Fecha de visita: 30 de
setiembre del 2017, Recuperado de: http://www.lrqa.es/certificaciones/iso-9001-norma-calidad/
3
Instituto Nacional para la Seguridad y Salud Ocupacional (NIOSH), Reducción de la contaminación
cruzada, Fecha de publicación: 19 de noviembre del 2012, Recuperado de:
https://www.cdc.gov/spanish/niosh/topics/bbp_sp/bodyart_sp/contamination_sp.html
4
Video institucional Laboratorios Induquímica, Fecha de visita: 30 de setiembre del 2017, Recuperado
de: https://www.youtube.com/watch?v=pq4tN4oTZg8&t=37s
envasadas, con el fin de automatizar el proceso y evitar ineficiencia por fallas en el
proceso de encajado manual de pastillas envasadas.

Figura 2: Proceso de encajado manual en los Laboratorios Induquímica

Fuente: http://www.induquimica.com/go.php/inicio

1.1.4. Formulación del problema

A partir del problema planteado, se concluye que existe una ineficiencia por fallas en el
proceso de encajado manual de pastillas envasadas. De esta manera, ¿Es posible solventar
la ineficiencia del encajado de píldoras envasadas por fallas en el proceso de embalado
manual de blísteres en movimiento continuo sobre un transportador en los laboratorios
industriales farmacéuticos de Lima?

1.2. Propuesta de investigación

El proyecto consiste en dos técnicas las cuales están divididas en tres partes. La primera
técnica es la utilización de un brazo robot industrial pick and place, la cual abarca las dos
primeras partes del proyecto, que son el diseño y construcción de esta máquina autónoma
e independiente. La segunda técnica es el reconocimiento de objetos mediante una cámara
sensorial, la cual abarca la tercera y última parte del proyecto. De esta manera, el proyecto
radica sobre el diseño, construcción y control de un brazo robot industrial pick and place
para la aplicación de encajado de pastillas envasadas o blísteres, mediante el uso de un
sensor de visión denominado Kinect, el cual pueda reconocer el blíster que se encuentra
en movimiento en tiempo real sobre el transportador, con el fin de sincronizarse con el
desplazamiento del fármaco en la faja, y así evitar ineficiencia por fallas en el proceso de
encajado manual de pastillas envasadas. Además, se automatiza el proceso de encajado,
se reduce las pérdidas del producto médico si este llegara a caerse del transportador y se
reduce o se desplaza a otra área al personal que se encarga de embalar las pastillas
envasadas o de personal que se encuentre operando un robot pick and place. De esta
manera, se reduce los gastos que traería la pérdida del fármaco y la innecesaria presencia
de operarios en el proceso de encajado manual.

Por consiguiente, la solución que se plantea con el siguiente proyecto está dividida en tres
partes. La primera parte consiste en el diseño de un brazo robótico de 3 grados de libertad
(GDL), el cual pueda realizar tareas de picking, diseñado en AutoCAD e Inventor, con el
fin de tener exactitud en el diseño de las piezas y un modo de simular el movimiento del
robot.

La segunda parte consiste en la construcción de robot pick and place diseñado


anteriormente. Debido a que los blísteres no son muy pesados. Es más, según el ministerio
de sanidad, servicios sociales e igualdad del gobierno de España, cada pastilla de
paracetamol comprimido llega a pesar 250mg5. Además, cada paquete de blíster llega a
12g y en este pueden entrar hasta 12 pastillas6. De esta manera, el brazo robótico debe ser
liviano para conseguir más velocidad al momento de desplazar los medicamentos.
Entonces, las piezas que se utilizarán para construir el brazo serán hechas en una
impresora 3D para reducir su peso.

La tercera parte consiste en el control del brazo robot ya construido mediante una cámara
sensorial denominada Kinect, de la plataforma de Xbox360 de Microsoft, la cual pueda
reconocer el objeto que pasa sobre esta, en este caso los blísteres, mediante un algoritmo
de procesamiento digital de imágenes (PDI) dentro de un microcontrolador Raspberry Pi
3 en el entorno del programa Visual Studio 2015 en lenguaje C#. De esta manera, ya no
es necesaria la presencia de operarios en el encajado de blísteres, debido a que se
automatiza el proceso y así se reduce la ineficiencia que existe por fallas en el proceso de
encajado manual de pastillas envasadas.

Fundamentos y descripción de la técnica

En la primera parte del proyecto se resalta la investigación de como diseñar un brazo


robot, el cual cumpla con la condición de poder desplazarse a una alta velocidad, sea

5
Ministerio de sanidad, servicios sociales e igualdad (España), Fecha de publicación: Enero del 2008,
Recuperado de https://www.aemps.gob.es/cima/pdfs/es/ft/66496/FT_66496.pdf
6
Empaques industriales Carbajal, recuperado de http://empaquescolombia.carvajal.com/empaques-
industriales/blisters-y-bandejas-industrial/
preciso y no sea tan pesado. En esta parte se utilizará la tesis del Ing. Carlos Soto Bravo,
con el título “Brazo robótico de 5GDL con sistema de control modificable por el usuario
para fines de investigación en Ingeniería Robótica”. La cual consiste en el diseño de un
brazo robótico de 5 grados de libertad con un sistema de control de movimiento
modificable por el usuario y un control de seguridad que garantice el bienestar del usuario
y de la máquina7.

En la segunda parte del proyecto se resalta la construcción de la máquina, junto a su parte


mecánica, en donde la investigación será sobre el ensamblaje de cada una de las piezas,
las cuales estarán hechas en una Impresora 3D; el peso de estas; el costo y el material a
utilizar para su impresión, el cual pueda seguir cumpliendo con las especificaciones dadas
en la primera parte del proyecto.

En la tercera y última parte del proyecto se resalta la investigación sobre el uso de la


Kinect de Xbox360 en el entorno del programa de Visual Studio 2015 en el lenguaje C#
dentro de una Raspberry Pi 3. Gracias a esto, el brazo robot será capaz de reconocer
formas y profundidad, así reconocerá los blísteres que pasaran encima de esta cámara
sensorial8.

Figura 3: Ejemplo de segmentación y esqueletización mediante una cámara Kinect


Fuente: developer.microsoft.com/en-us/windows/kinect

7
Carlos Andrés Soto Bravo, Brazo robótico de 5GDL con sistema de control modificable por el usuario
para fines de investigación en ingeniería robótica, Fecha de publicación: 8 de enero de 2016, Recuperado
de http://tesis.pucp.edu.pe/repositorio/handle/123456789/6493
8
Código de demostración de Kinect, Microsoft, Fecha de publicación: 4 de noviembre de 2016, Recuperado
de https://blogs.windows.com/buildingapps/2016/11/04/kinect-demo-code-and-new-driver-for-uwp-now-
available/#pQbmAKmgtezBhTrv.97
Mediante el algoritmo que tendrá la Raspberry Pi 3, se busca detectar los bordes del blíster
sobre un grupo de este mismo encima un transportador que pasará sobre la cámara Kinect,
y así contabilizarlo y dirigir el brazo hacia esa posición, encajarlo, seguir hasta llenar la
caja, desplazar otra caja, volverla a llenar, y así sucesivamente. En efecto, en el paper
“Texture edge-guided depth recovery for structured light-based depth sensor”, los autores
plantean mejorar el mapa de profundidad de la camara Kinect, ya que a pesar de ser una
camara sensorial de bajo costo y permite capturar profundidad, reconoce el objeto con
ruido. De esta manera, con el algoritmo planteado por los autores, es posible reconocer
un blíster en específico, además que no es necesario que se encuentre en el conjunto de
300 objetos domésticos comunes encontrados dentro de la memoria de una Kinect9. De
esta manera, el brazo robot diseñado y construido puede detectar y desplazarse hacia el
blíster reconocido, a pesar del ruido que pueda producir la Kinect10.

De esta manera, se plantea reconocer el mapa de profundidad de la foto de la pastilla


envasada cuando se encuentre debajo de la Kinect, mediante el siguiente diagrama de
bloques.

9
RGB-D Object Dataset, Fecha de publicación: 2011, Recuperado de: https://rgbd-
dataset.cs.washington.edu/
10
Huiping Deng, Jin Wu, Lei Zhu, Zengqiang Yan y Li Yu, Texture edge-guided depth recovery for
structured light-based depth sensor, Fecha de publicación: 17 de febrero del 2016, Multimedia Tools
Application, Volumen: 76, Issue: 3, Página: 4211-4226, Recuperado de:
https://www.semanticscholar.org/paper/Texture-edge-guided-depth-recovery-for-structured-Deng-
Wu/4fc8cffcfc9f4879b35d53eafb1e6fdda2161f6f
Figura 4: Diagrama de bloques para solucionar el error de mapa de profundidad de
una Kinect

Fuente: https://www.semanticscholar.org/paper/Texture-edge-guided-depth-recovery-
for-structured-Deng-Wu/4fc8cffcfc9f4879b35d53eafb1e6fdda2161f6f

En resumen, la investigación consiste en como diseñar, construir y controlar un brazo


robótico de 3 GDL para aplicaciones de picking hasta una carga útil de 1kg junto a un
algoritmo de PDI aplicado al reconocimiento de objetos en movimiento en tiempo real
utilizando una Kinect programada en el entorno del programa Visual Studio 2015 dentro
de una Raspberry Pi 3.
1.4 Antecedentes de la propuesta

La industria de la automatización industrial ha crecido debido a la necesidad de producir


con mayor velocidad los productos. De esta manera, se construyeron diferentes tipos de
robots los cuales puedan satisfacer dicha necesidad, por consiguiente, apareció la
tecnología pick and place. Sin embargo, esta tarea tiene un cierto límite cuando el
producto va a una velocidad a la que el robot no fue diseñado o el producto no se encuentra
en una posición exacta. En efecto, en las aplicaciones de picking y colocación de alta
velocidad del Robot Delta, la clave para el éxito del robot es detectar, rastrear y predecir
la posición de la pieza exactamente en tiempo real. Sin embargo, debido a que la pieza de
trabajo se mueve continuamente en el transportador, la visión y el robot no puede
compartir el mismo espacio de trabajo, es difícil lograr una alta precisión en el sistema de
alta velocidad11.

Diferentes empresas han tenido una idea similar para la automatización de la selección de
productos mediante robots que trabajan de manera autónoma. En efecto, la empresa
Universal Robots cuenta con brazos robóticos que ejecutan de forma autónoma la mayor
parte de las aplicaciones de pick and place, en donde la programación es bastante práctica,
sencilla e intuitiva de utilizar para producciones lentas y de pequeño volumen. Sin
embargo, en producciones donde la velocidad es un poco mayor, parece ser que es
necesario un operador del brazo o un equipo más sofisticado, de más alto costo y de más
alta calidad que pueda ejecutar la acción, pero es necesario que haya alguien dentro para
que pueda manejarlo ya que supera sus limitaciones12. De esta manera, es necesario que
haya un operario cerca de la máquina para que la supervise.

Por otro lado, la automatización industrial se ha expandido a diferentes zonas


manufactureras. Sin embargo, aún existen algunas industrias donde la mayor parte de la
producción está compuesta por operarios. En efecto, la empresa farmacéutica Laproff
utiliza una gran cantidad de operarios en el proceso de encajado de blísteres.

11
Hongtai Cheng, Zhifei Zhang y Wei Li, Modelado de errores dinámicos y compensación en el proceso
de Pick-and-place del robot Delta de alta velocidad Fecha de publicación: 5 de octubre de 2015, Recuperado
de http://ieeexplore.ieee.org/document/7287906/
12
Universal Robots, Recuperado de https://www.universal-robots.com/es/aplicaciones/pick-place/
Figura 5: Proceso de encajado manual en la empresa farmacéutica Laproff

Fuente: https://www.laproff.com/

De esta manera, que un laboratorio farmacéutico utilice mano de obra en el proceso de


encajado trae consigo fallas humanas a comparación de utilizar una máquina. Por
consiguiente, aparece una deficiencia por fallas en el proceso de encajado manual de
pastillas envasadas. De esta manera, existen máquinas especializadas para el encajado de
pastillas, pero no píldoras para el uso médico, sino para caldos o salsas. En efecto, La
empresa Savia tiene en su catálogo máquinas totalmente automáticas para el encajado de
las pastillas de caldo, en donde la cadencia de encajado es de 500 pastillas por minuto13.

En resumen, la tecnología pick and place es útil al momento de automatizar un proceso,


además existen diversas máquinas que cuya función solo está para un área específica, mas
no para otra, aunque a esta le sirviese bastante, como el caso de la maquina encajadora de
pastillas.

13
Grupo Savia, Fecha de visita: 30 de setiembre del 2017, Recuperado de:
http://gruposavia.eu/es/blog/automatizacion-maquina-para-el-encajado-de-pastillas-de-especies
1.5. Motivación

La principal motivación es la ambición de investigar más sobre los brazos robóticos y las
aplicaciones que pueden tener estos en la industria para automatizar un proceso, además
del anhelo de buscar una manera de cómo controlarlos sin tener a un usuario que los
opere, ya que la industria va avanzando cada vez más rápido, es necesario que la
ingeniería Mecatrónica avance a la misma velocidad ganando sus propios méritos.
También, de cómo diferentes ramas de dicha carrera pueden crear una sinergia con otros
temas como el procesamiento digital de imágenes (PDI), obteniendo una combinación
eficiente y fascinante.

De esta manera, los resultados deseados sobre el proyecto deben responder la


problemática, con el fin de obtener un avance eficiente en la tecnología pick and place
sin que operarios se encuentren a disposición de ayudar a la máquina.

Entonces, el resultado que se espera obtener hacia la ineficiencia en laboratorios


industriales farmacéuticos por fallas en el proceso de encajado manual de pastillas
envasadas, es la independencia y autonomía de la máquina pick and place sobre el
encajado de blísteres en movimiento continuo, donde la visión del robot es la cámara
Kinect, la cual se espera que sea capaz de reconocer los blísteres que pasen sobre esta,
con el algoritmo planteado, para que el brazo robot actúe de forma inmediata y pueda
guardar las píldoras, y así agilizar el proceso; evitar pastillas rotas dentro de los blísteres;
tener un control del número de cajas que se fabrica diariamente con pastillas, y que en
cada una tenga dentro el mismo número de píldoras envasadas y evitar quejas con los
distribuidores sobre el producto que llegó dañado.

1.6. Gestión del proyecto

1.6.1. Objetivos

El problema que se enfoca en el documento es en resolver la ineficiencia que existe por


fallas en el proceso de encajado manual de pastillas envasadas en movimiento continuo
sobre un transportador, mediante el ensamblado funcional de un brazo robot industrial
Pick and Place, controlado por una cámara sensorial Kinect, con el fin de aumentar la
eficiencia del proceso de embalado de blísteres.
De esta manera, los laboratorios industriales farmacéuticos no se someten a criticas ante
el público consumidor, como personas o cadenas de farmacias, no gastan dinero en
contratar a gente inexperta o gente experta, pero con demandas altas de sueldo, y entregan
un producto de calidad asegurándose de que este no tenga ningún error al ser despachado
a cadenas de venta.
1.6.2. Cronograma proyectado para Tesis I y Tesis II
Noviembre Diciembre Enero Febrero Marzo Abril Mayo Junio Julio Agosto
S1 S2 S3 S4 S1 S2 S3 S4 S1 S2 S3 S4 S1 S2 S3 S4 S1 S2 S3 S4 S1 S2 S3 S4 S1 S2 S3 S4 S1 S2 S3 S4 S1 S2 S3 S4 S1 S2 S3 S4
Desarrollo del Capitulo I y Capitulo II del
documento
Investigación sobre tipo de transportador
a utilizar
Investigación sobre la ténica de control a
utilizar (Control Discreto)
Investigación sobre el tipo de material a
utilizar
Investigación sobre el tipo de algoritmo a
utilizar

Investigación sobre la iluminación a utilizar


Investigación sobre el tipo de sensor
ultrasonico a utilizar
Diseño de las piezas del brazo robot a
construir
Investigación sobre el movimiento de
brazos robot de 3GDL
Investigación sobre el tipo de tornillos a
utilizar
Impresión de Piezas 3D en una impresora
3D
Construcción del brazo robot Industrial
Pick and Place
Construcción del transportador elegido
anteriormente
Implementar transportador, brazo robot y
sensor ultrasonico en una sola base
Implementar el algoritmo de control sobre
la Raspberry Pi 3
Instalar cámara sensorial Kinect en la base
construida
Investigación sobre el tipo de filtro
suavizador a utilizar (Filtro Gaussiano)
Regular Iluminación sobre la maquina
construida
Pruebas del prototipo ya armado
completamente
Mejoras del prototipo mediante el
resultado de las pruebas

Tabla 1: Cronograma proyectado para Tesis I y Tesis II


1.6.3. Gestión de recursos /presupuesto

Cantidad Nombre del producto Imagen del producto Valor unitario (Soles) Valor Total (Soles)

1 Impresora 3D AnyCubic 1100 1100

Servomotor digital RADIOCONTROL


4 120 480
de alta velocidad HD 7kg

1 Cámara Kinect Xbox360 100 100

1 Tira de Leds 20 20

4 Filamento Impresora 3D 10 40

1 Transportador de Rodillos Motorizado 1500 1500

1 Fuente de alimentación ACE PC 20 20


1 Raspberry Pi 3 200 200

Pantalla LCD tactil 7 pulg. para


1 150 150
Raspberry Pi 3

Total 3610

Tabla 2: Materiales necesarios para implementar el proyecto


1.6.4. Alcance

El proyecto consiste en mejorar la ineficiencia del encajado manual de pastillas


envasadas que se encuentran en constante movimiento implementando un sistema
mecatrónica basado en el uso de un brazo robot industrial Pick and place para automatizar
y mejorar la eficiencia del empacado de medicinas de los laboratorios industriales
farmacéuticos de Lima, en este caso la empresa Laboratorios Induquímica.

1.6.5. Comparativo Técnico de la propuesta con otras soluciones tecnológicas


desarrolladas en el mercado

El proyecto técnicamente consiste en un brazo robot industrial Pick and Place montado
sobre una banda transportadora, controlado mediante una cámara Kinect de Xbox360,
conectada a una Raspberry Pi 3, programada en el entorno de Visual Studio 2015 en
lenguaje C#, cuya función será el reconocimiento de blísteres que pasen sobre la faja
transportadora en movimiento continuo, donde cada vez que un blíster se encuentre
encima de la cámara, esta tomará una foto y mediante un algoritmo de procesamiento de
imágenes, se detecta la posición del medicamento, de esta manera el brazo robot se
dirigirá hacia las píldoras, lo recogerá y transportará a su respectivo contenedor y así
sucesivamente. Actualmente, los laboratorios farmacéuticos cuentan con un proceso
manual de encajado de pastillas envasadas, de esta manera, es posible aplicar el proyecto
sobre este esquema. Sin embargo, existen diferentes máquinas pick and place en el
mercado que también pueden trabajar de la manera propuesta. En efecto, la empresa
Yaskawa presenta a los robots pick and place MOTOMAN, los cuales pueden llevar a
cabo tareas tediosas y repetitivas con una facilidad, velocidad y precisión en todas las
áreas de producción, especialmente en aplicaciones de montaje en la industria de la
electrónica, como selección y posicionamiento de componentes electrónicos en placas
PCB14.

Además, la empresa Essemtec distribuye los Pick and Place Cobra, los cuales constan de
múltiples motores de alta velocidad para la inserción de componentes electrónicos para
la fabricación de placas en SMD15. De esta manera, diferentes máquinas que actualmente

14
Yaskawa, Pick and Place, Fecha de publicación: 2013, Recuperado de:
http://www.motoman.es/es/aplicaciones/pick-and-place/
15
Essemtec, Máquina de inserción para SMD, Fecha de publicación: 2015, Recuperado de:
http://www.directindustry.es/prod/essemtec/product-55556-456983.html
se encuentran en el mercado también pueden ejercer la labor que se propone en el
documento. Sin embargo, dichas empresas se encuentran en otro rubro y otro segmento
de mercado, en este caso la electrónica.

CAPITULO II: “Estado del Arte”

2.1. Prefacio

El presente trabajo de investigación se realizó con el fin de mejorar la eficiencia en el


proceso de encajado de pastillas envasadas en movimiento continuo para los laboratorios
industriales farmacéuticos de Lima. Por consiguiente, se planteó el diseño de un modelo
de encajado de blísteres mediante el diseño y construcción de un brazo robot industrial
pick and place, controlado mediante reconocimiento de objetos en movimiento en un
transportador con una cámara sensorial. De esta manera, la solución planteada se
encuentra dividida en dos técnicas las cuales están divididas en tres partes.

 Elaboración de un brazo robot industrial Pick and Place:


1. Diseño
2. Construcción
 Reconocimiento de objetos via Cámara Kinect:
3. Control

Al momento de realizar la búsqueda de artículos científicos no se encontraron


antecedentes específicos para esta propuesta, por lo que la investigación se dirigió al
campo del desarrollo y control de tecnología pick and place, con el fin de encontrar
información con respecto a cómo implementar la solución de la propuesta. De esta
manera, se inició una búsqueda de trabajos de investigación realizados en otros países en
torno al tema de interés. Esta búsqueda se realizó a través de bases de datos científicas
tales como IEEE Xplorer, Scopus, Emerald Insight, Web on Science, entre otros.

Todos los artículos utilizados y revisados están indexados en revistas especializadas y


validadas, su idioma es extranjero y el tiempo de antigüedad máximo es de cuatro años.
Esta característica permite contar con información actual y relevante acorde a la realidad
mundial.

Los artículos seleccionados fueron diez, los cuales se dividieron en tres grandes
subgrupos o tipologías, los cuales describen cada parte del desarrollo de las dos técnicas
presentadas.
1. Diseño Diseño y control de un brazo robot
2. Construcción Manipulación de Máquinas Pick and Place
3. Control Reconocimiento de objetos con Kinect

En el primer grupo se encontró tres artículos, los cuales consisten en el diseño y control
de un brazo robot en diferentes aplicaciones. La gran mayoría de los documentos
describen como los grados de libertad (GDL) afectan en el proceso de control de un brazo
robot, además del típico control que existe en estos, el cual es mediante sensores de visión
o cámaras.

En el segundo grupo se encontró tres artículos, los cuales consisten en la manipulación


de máquinas Pick and Place. La gran mayoría de los artículos describen como diferentes
máquinas Pick and Place comerciales son utilizadas actualmente. Sin embargo, existen
limitaciones de estos equipos, los cuales incentivan a diferentes autores en desarrollar
soluciones alternativas a las convencionales, las cuales pueden llegar a ser muy tediosas,
como la lógica difusa o implementación de otros equipos.

El tercer grupo describe las diversas maneras de cómo obtener un eficiente


reconocimiento de objetos con el sensor de visión Kinect. La gran mayoría de artículos
describe como la cámara Kinect de Microsoft es una de las más accesibles para los
investigadores y utilizadas para el procesamiento de imágenes (PDI). Sin embargo, estos
sensores de visión tienen cierto error al momento de captar un video o imagen. De esta
manera, se obtuvieron cuatro documentos los cuales sirven de referencia de cómo
solventar los errores más comunes, con el fin de obtener un buen procesamiento.

A continuación, se muestra un cuadro de clasificación de los artículos científicos por cada


tema encontrado en la investigación.
2.2. Resumen por Articulo

Tipología 1: Reconocimiento de objetos con Kinect

Paper 1:” Simulating Kinect Infrared and Depth Images (Simulación de imágenes
infrarrojas y de profundidad de Kinect)”

Objetivo: El problema que los autores se enfocan en resolver son las limitaciones que
existen para todas las aplicaciones que utilizan un sensor Kinect que no tengan relación
con el reconocimiento y estimación de secuencia de poses humanas y navegación
autónoma, como el reconocimiento de objetos inanimados y rígidos. Debido a que
Microsoft sólo proporciona software de seguimiento para poses humanas en su kit de
desarrollo de software o que los objetos sensados no se encuentren dentro de la base de
datos que la Kinect proporciona. Por consiguiente, esto provoca que los investigadores
utilicen herramientas imprecisas o costosas para recopilar los datos imperfectos o utilizar
un objeto que se le acerque, pero genera un modelo menos perfecto y con ruido no
homogéneo.

1. Motivación del autor:

La motivación de los autores en realizar este estudio se enfoca en resolver las limitaciones
que existen sobre el reconocimiento de objetos inertes mediante un simulador práctico,
fiable y extensible de infrarrojos para el Kinect (IR) y de profundidad con modelos
incorporados de moteado y ruido, implementando tecnología de codificación de luz
especializada de acuerdo con un patrón de punto de transmisión IR único y estimando
imágenes de profundidad ruidosas atípicas a las de cualquier otro sensor de imagen de luz
estructurada o de rango.

Otra inspiración fue el extenso estudio de los mecanismos subyacentes y las


características de desempeño del sensor, así como los modelos empíricos propios
recientemente elaborados para el ruido de intensidad, moteado y detector del patrón de
puntos IR recibido.

2. Descripción del aporte del autor:

La principal contribución de los autores en el artículo es que proponen para la cámara


Kinect un predictor y simulador de alta fidelidad IR y de imágenes en profundidad que
modela la física del sistema transmisor-receptor, un patrón de puntos IR único, una
tecnología de procesamiento disparidad-profundidad, y el moteado de intensidad aleatoria
y el ruido IR en los detectores. El modelo tiene en cuenta características importantes del
sistema de triangulación estéreo de Kinect, incluyendo sombreado de profundidad,
separación de puntos IR, propagación y oclusiones, estimación de disparidad basada en
correlación entre ventanas de imágenes de IR medidas y de referencia y refinamiento de
subpixel.

De esta manera, los resultados obtenidos por los autores demuestran que el simulador
produce con precisión un error de profundidad axial a partir de superficies planas con
ángulos de inclinación diferentes, así como el sesgo y el error lateral estándar del borde
horizontal y vertical del objeto. Sin embargo, sin considerar el ruido producido, es un
modelo el cual supera los límites dados por Microsoft, ya que permite reconocer objetos
inamovibles y no solo movimiento y oscilación humana.

3. Proceso para resolver el Problema:

El proceso por el cual los autores resuelven el problema de reconocimiento de objetos


inanimados y rígidos no incluidos en la base de datos de la Kinect, o aplicaciones que no
tengan que comprender con el reconocimiento de secuencia de poses humanas, se
estructura de la siguiente manera. La primera sección ofrece una revisión exhaustiva de
las especificaciones de hardware y software que posee la Kinect, además de una visión
general para generar varios intentos de modelos empíricos que calculan el error axial y
lateral.

En la siguiente sección, se construye un conjunto de modelos empíricos para la intensidad


aleatoria de moteado de los puntos y el ruido IR en los detectores de la cámara. De esta
manera, el conjunto de información se utiliza para construir el simulador Kinect propuesto
por los autores, que modela la estimación de la disparidad para construir imágenes de
profundidad a partir de imágenes IR simuladas. Sin embargo, el simulador se centra en
los primeros principios y no modela los filtros de post-procesamiento para mejorar las
estimaciones de profundidad. En la última sección, se presentan resultados de ejemplo
del simulador para comprobar si el simulador cumple con lo que los autores buscaban
resolver, donde se comparan con datos experimentales y modelos de error existentes para
validar la exactitud.
Figura 6: Imagen IR simulada junto con su par escalada

Fuente: http://ieeexplore.ieee.org/document/7328728/

Sin embargo, el proyecto solo plantea la proyección de puntos IR ideal, pero sigue siendo
óptimo para la construcción de modelos de error axial y lateral más fieles al objeto
inanimado real, el reconocimiento de objetos mejorado y métodos de estimación de pose,
y el desarrollo de un simulador para otros sensores de profundidad que emplean un
sistema de iluminación estructurado parecido al de la Kinect.

4. Principal Resultado:

El estudio sirvió de apoyo para entender el desarrollo de una útil herramienta infrarroja y
de simulación de imágenes en profundidad para una cámara sensorial Kinect de
Microsoft, además de poder utilizarse también para desarrollar nuevos modelos de error
a partir de factores estocásticos y sistemáticos, así como para refinar y probar métodos de
reconocimiento de objetos, reconstrucción y pose.

El sistema propuesto por los autores también está construido para adoptar fácilmente otros
sistemas luminosos estructurados con un patrón conocido fijo espacialmente. La
simulación también puede ampliarse a otros sistemas de proyección de luz, donde se
puedan obtener o estimar los parámetros del sistema.

Además, el ruido del modelo planteado se utiliza como parte de una nueva clase de
estimadores para el reconocimiento de objetos y de poses. De esta manera, se simula una
imagen de profundidad libre de ruido del CAD (Conversor Análogo Digital) de un objeto,
donde se transforma la imagen de profundidad en una nube de puntos de modelo predicha
para alinearla con una nube de puntos de medición derivada de una imagen de
profundidad real. Sin embargo, se asumen generalmente que los errores de medida 3-D
de pares del punto son independientes y homogéneos. Pero, el proyecto solo plantea la
proyección de puntos IR ideal, gracias a esto, se debe idear un sistema que calibre el
patrón de puntos replicado a cualquier sensor Kinect real.

Paper 2:” Texture edge-guided depth recovery for structured light-based depth sensor
(Recuperación de profundidad guiada por bordes para el sensor de profundidad
estructurado basado en la luz)”

Objetivo: El problema que los autores se enfocan en resolver es sobre la insuficiente


calidad del mapa de profundidad que tiene un sensor de profundidad óptico, en este caso
una Kinect de Xbox360, para aplicaciones de reconocimiento de profundidad de varios
objetos en un ambiente, debido a agujeros, ruidos y artefactos que existen dentro de su
información de profundidad.

1. Motivación del autor:

La motivación de los autores en realizar este estudio se enfoca en investigar un método


el cual pueda solventar la poca calidad del mapa de profundidad de una cámara Kinect a
través de diferentes herramientas de procesamiento de imágenes que cada autor por
separado realiza. En efecto, recientemente se ha aplicado una familia de enfoques de
aprendizaje llamada aprendizaje estructurado a problemas de etiquetado de imagen
semántica y detección de bordes. De esta manera, se puede obtener un buen rendimiento
en tiempo real y también lograr una detección de borde de última generación. Gracias a
esto, la inspiración por los resultados positivos se considera también como otra
motivación que aparece durante el desarrollo del algoritmo. Es decir, la motivación es
que los bordes y contornos del mapa de profundidad son consistentes con la imagen de
color correspondiente.

2. Descripción del aporte del autor:

La principal contribución de los autores en el artículo es que proponen un marco iterativo


de refinamiento de límites de profundidad para recuperar el mapa de profundidad de la
Kinect extrayendo el borde de profundidad y detectando las regiones incorrectas y
rellenando las regiones de error hasta que los bordes de profundidad son consistentes con
los bordes de textura.
Además, se propone un método de detección de bordes de datos de objetos RGB-D
inspirado en el aprendizaje de profundidad. Los bordes de textura se extraen de la imagen
en color con la ayuda de técnicas de detección de bordes basadas en el aprendizaje de
profundidades. Mediante la incorporación de información espacial tridimensional
proporcionada por el mapa de profundidad inicial, se eliminan los bordes de textura
existentes en el interior de los objetos. Entonces, se obtiene un mapa de borde de
profundidad claro y verdadero.

También, se propone un orden de relleno con prioridad para pintar la región de


profundidad que falta. Los valores de profundidad reales se calculan utilizando un filtro
de coste ponderado, en el que se consideran las medidas de similitud de color, espacio y
de frecuencia de ocurrencia en el modelo de error gaussiano. En resumen, el documento
ha presentado un nuevo método para solucionar el error del mapa de profundidad para
recuperar la profundidad de la Kinect.

3. Proceso para resolver el Problema:

El proceso por el cual los autores resuelven la poca precisión en la calidad del mapa de
profundidad está conformado en un diagrama de bloques tras analizar los tipos de
soluciones existentes.
Figura 7: Diagrama de bloques para solucionar el error de mapa de profundidad de
una Kinect

Fuente: https://www.semanticscholar.org/paper/Texture-edge-guided-depth-recovery-
for-structured-Deng-Wu/4fc8cffcfc9f4879b35d53eafb1e6fdda2161f6f

En la primera etapa, se obtiene un mapa de profundidad recuperado inicial rellenando los


orificios usando filtros tales como filtro bilateral de unión (JBU). A continuación, se
extraen los bordes del mapa inicial de profundidad recuperado. Además, los bordes de
textura se extraen de la imagen en color con la ayuda de una técnica de detección de
bordes basada en el aprendizaje reciente. Mediante la incorporación de información
espacial tridimensional proporcionada por el mapa de profundidad inicial, se eliminan los
bordes de textura existentes en el interior de los objetos. Por lo tanto, obtenemos un mapa
de borde de profundidad claro y verdadero. Después de eso, se proyecta el borde de
profundidad real al mapa de profundidad recuperado inicialmente. Entonces, las regiones
entre los bordes verdaderos y los bordes iniciales de la profundidad son regiones
incorrectas.

En el segundo paso, los valores de profundidad en las regiones incorrectas se refinan para
corregir los errores de profundidad en el mapa de profundidad inicial. Durante el curso
del refinamiento, los parches a lo largo de los límites de profundidad reciben un valor de
prioridad temporal, que determina el orden en el que se llenan. El cálculo de prioridad
está sesgado en aquellos parches que están en la continuación de bordes fuertes y que
están rodeados por píxeles de alta confianza. Los valores de profundidad reales se
calculan utilizando un filtro de coste ponderado. El mapa de profundidad recuperado se
devuelve al proceso y luego sigue un módulo de refinamiento iterativo. De esta manera,
el método propuesto utiliza la información de textura como guía para recuperar las
regiones límite del mapa de profundidad.

Figura 8: Mapa de profundidad de objetos 3D

Fuente: https://www.semanticscholar.org/paper/Texture-edge-guided-depth-recovery-
for-structured-Deng-Wu/4fc8cffcfc9f4879b35d53eafb1e6fdda2161f6f
4. Principal Resultado:

El estudio sirvió de apoyo para entender el desarrollo de un nuevo método sobre la


detección de objetos utilizando la cámara sensorial Kinect, en este caso un procedimiento
para la recuperación del mapa de profundidad. Los resultados experimentales demuestran
que el método propuesto proporciona bordes afilados y claros para la profundidad de la
Kinect, además los bordes de profundidad están alineados con los bordes de la textura.

El enfoque investigado se interpreta como un módulo iterativo de pintura para refinar las
regiones incorrectas alrededor de los límites de los objetos, extrayendo los bordes
verdaderos de los datos RGB-D y los bordes falsos del mapa de profundidad,
rellenándolos para detectar las regiones incorrectas entre los dos bordes. Por consiguiente,
las regiones de error se refinan de modo que los bordes de la imagen en color y mapa de
profundidad son la alineación.

La clave del éxito es el uso de la detección de bordes de profundidad RGB-D, inspirada


en la detección de bordes basada en bloques estructurados. Además, a diferencia de la
mayoría de los métodos de mejora de profundidad que utilizan procesamiento Raster Scan
o técnica de observación de barrido para rellenar agujeros, el método investigado está
diseñado para decidir el orden de relleno de las regiones que faltan a través de una función
de prioridad. La prioridad anima a los bordes a crecer primero y reconstruir así
correctamente las regiones que faltan. En resumen, actualmente, todavía se está
investigando extensiones para una detección de región incorrecta más precisa, como la
segmentación RGB-D.

Paper 3:” Feature Interaction Augmented Sparse Learning for Fast Kinect Motion
Detection (Característica de interacción Aprendizaje escaso aumentado para la
detección de movimiento rápido Kinect)”

Objetivo: El problema que los autores se enfocan en resolver es la ineficiente detección


de movimientos en tiempo real, hechos por usuarios, con poca precisión y rapidez,
mediante una cámara sensorial Kinect de Xbox360 de Microsoft, para el entretenimiento
actual de la interacción Humano-Computadora (Human Computer Interaction - HCI).
1. Motivación del autor:

La motivación de los autores en realizar este estudio se enfoca en el gran valor que tiene
la cámara Kinect en el mercado y el impacto significativo ocasionado en la vida de los
usuarios que utilizaron el sensor como diversión. Además, otra inspiración que tuvieron
los autores fue por el éxito que ocasionó la aparición de la Kinect, ya que fue el primer
mando que utilizó la tecnología de reconocimiento de movimiento. También, la estructura
bien adaptada de los datos del esqueleto que genera la cámara es útil para la investigación
y aplicación de algoritmos.

2. Descripción del aporte del autor:

La principal contribución de los autores en el artículo es que proponen un sistema


detección de movimientos de entretenimiento en tiempo real que debe completar la
extracción de características y la clasificación de manera eficiente mientras el usuario está
jugando, utilizando datos simples del esqueleto adquirido por la camara sensorial Kinect,
en donde principalmente se enfocan en acelerar la predicción con alta precisión mediante
un nuevo modelo de regresión que integra la interacción de características y la norma
Schatten-p.

3. Proceso para resolver el Problema:

El proceso por el cual los autores resuelven la ineficiente detección de movimientos en


tiempo real hechos por usuarios, utilizan una función de incrustación en una estructura
unitaria para capturar la propiedad lineal dentro de los datos, al mismo tiempo que
muramos la correlación entre el efecto lineal y el efecto no lineal, aplicado sobre una
máquina, que incluye un entorno poco ambiguo que incluye ejercicios de ajuste y de
aptitud física como entrenamiento y baile. De esta manera, beneficia de la explotación
de la interacción de características de los movimientos.

4. Principal Resultado:

El estudio sirvió de apoyo para entender el desarrollo de un algoritmo de validación para


el eficiente y eficaz reconocimiento, y detección de movimiento en el entorno de
entretenimiento basado en Kinect. Con base los datos del esqueleto dados por la Kinect,
los autores han propuesto explotar la interacción de características para capturar más
información entre las diferentes articulaciones.
La interacción de características se incorpora a un modelo de regresión lineal, lo que hace
que el clasificador lineal resultante sea eficiente para la predicción. Además, el efecto
principal lineal de la característica original y el orden superior no lineal de la interacción
se deben correlacionar. La norma Schatten-p se utiliza para extraer tal relevancia, lo que
ayuda a optimizar aún más el modelo de clasificación.

Paper 4:” RGB-D Object Recognition and Grasp Detection Using Hierarchical
Cascaded Forests (Reconocimiento de objeto RGB-D y detección de agarre utilizando
bosques en cascada jerárquicos)”

Objetivo: El problema que los autores se enfocan en resolver es la falla en el


reconocimiento de objetos mediante una cámara visual para su recolección en los sistemas
robóticos actuales de reconocimiento de objetos y detección de agarre, los cuales están
muy por detrás de los niveles de rendimiento humano, debido a una visión RGB-D ruidosa
de un objeto, debido a las condiciones del ambiente, como iluminación variable, sombras
y mediciones ruidosas de sensores de bajo costo, como la camara Kinect. De esta manera,
el problema detección / reconocimiento es generado por el ruido del ambiente externo.

1. Motivación del autor:

La motivación de los autores en realizar este estudio se enfoca en investigar el


reconocimiento de objetos mediante el método de cascada de bosques aleatorios, debido
a que los autores ya tienen versiones anteriores del trabajo, donde presentan una
arquitectura en cascada de bosques aleatorios (CaRF), es decir predecir el
comportamiento de un cierto instrumento promediando el ruido con el fin de reducir la
variación16, para reconocer categorías de objetos en nubes de puntos RGB-D. De esta
manera, la motivación que tienen los autores es producir una versión mejorada y
extendida de CaRF para manejar otras tareas de alto nivel, como la detección de agarre
de objetos en escenas del mundo real.

16
Saimadhu Polamuri, How the random forest algorithm works in machine learning, Fecha de
publicación: 22 de mayo del 2017, Recuperado de: http://dataaspirant.com/2017/05/22/random-forest-
algorithm-machine-learing/
2. Descripción del aporte del autor:

La principal contribución de los autores en el artículo es que proponen un sistema de


reconocimiento de objetos para producir una relación detección/reconocimiento mediante
redes neuronales convolucionales aplicando el método de cascada de bosques aleatorios,
con el fin de tener una alta tasa de objetos reconocido y una alta tasa de recolección de
estos mismos.

3. Proceso para resolver el Problema:

El proceso por el cual los autores resuelven las fallas en el reconocimiento de objetos por
un sensor de visión y la relación detección/reconocimiento por el mal sincronismo entre
una máquina y el sensor, está dividido en seis partes importantes, las cuales los cuatro
bloques del medio son el valor agregado de los autores, mediante un diagrama de bloques.

Figura 9: Diagrama de bloques para solucionar fallas en el reconocimiento de objetos


por un sensor de visión y la relación detección/reconocimiento por el mal sincronismo
entre una máquina y el sensor

Fuente: http://ieeexplore.ieee.org/document/7820198/

En primer lugar, los autores presentan un marco unificado para el reconocimiento y


detección de agarre de objetos RGB-D en escenas del mundo real. Para esto los autores
proponen una nueva función de objetivo de entrenamiento, donde ase buscar implementar
predictores discretos y continuos basados en etiquetas de clase de objeto discretas y
verdades de tierra de agarre y pose continuo en diferentes niveles de la jerarquía de
imágenes.

En segundo lugar, los autores Introducen una nueva representación de datos RGB-D para
extraer características altamente discriminatorias mediante el uso de redes neuronales
convolucionales (CNN) pre-entrenadas. Para eso proponen un método que captura la
apariencia e información estructural de una nube de puntos RGB-D a través de múltiples
mapas de características (color RGB, gradientes de color, normales de superficie locales,
orientaciones locales de superficies normales y distancias proyectadas de los puntos de la
nube de puntos) denominada por los autores como EMBedding estructural (STEM) de
datos RGB-D. Además, muestran que las características de CNN extraídas usando los
mapas de características de STEM producen mejoras sustanciales sobre el uso ingenuo
de imágenes en bruto RGB-D para las tareas de reconocimiento de objetos y detección de
agarre.

En tercer lugar. Los autores presentan una evaluación extensa del marco propuesto en dos
conjuntos de datos desafiantes, el primer conjunto como el conjunto de datos de objetos
RGB-D de Washington, para el reconocimiento de objetos; y el conjunto de datos de
objetos de Cornell Grasping, para reconocimiento de objetos y detección de agarre. De
esta manera, el marco propuesto por los autores produce mejoras sustanciales en el
reconocimiento.

Finalmente, los autores presentan experimentos robóticos del mundo real utilizando
transmisiones de video en vivo desde una Kinect montado en una plataforma robótica
interna llamada Artificial Intelligence Personal Assistance Robot (AIPAR), con el fin de
demostrar las capacidades del marco propuesto para generalizar con éxito a objetos
desconocidos con tasas de éxito de hasta al 93% para el reconocimiento de objetos y al
92% para ejecutar capturas exitosas.

4. Principal Resultado:

El estudio sirvió de apoyo para entender el desarrollo de un nuevo método de


reconocimiento de objetos retroalimentado a una maquinaria. De esta manera, los autores
presentan un nuevo método basado en el marco de bosques jerárquicos en cascada para
el reconocimiento y la detección gradual de objetos RGB en escenas del mundo real. Para
lograr esto, los autores utilizaron una representación de imagen novedosa denominada
STEM, para extraer características multimodales utilizando grandes modelos de CNN, y
una arquitectura en cascada de RF (STEM-CaRF) Los experimentos dados por los autores
muestran que las funciones basadas en STEM separan las clases de los objetos de una
manera altamente discriminativa en comparación con las características locales extraídas
de imágenes en bruto RGB-D.

Además, el marco propuesto STEM-CaRF produce precisiones superiores de


reconocimiento de objetos y detección de agarre en comparación con el estado de los
métodos modernos. También, todos los experimentos de los autores utilizaron una
plataforma robótica interna donde el marco propuesto es robusto para el ruido del mundo
real y se generaliza a nuevas instancias de objetos con altas exactitudes predictivas. De
esta manera, se soluciona la presencia del ruido blanco en los sensores de imagen.
Tipología 2: Diseño y control de un brazo robot

Paper 5:” Sequential additive manufacturing: automatic manipulation of 3D printed


parts (Fabricación aditiva secuencial: manipulación automática de piezas impresas en
3D)”

Objetivo: El problema que los autores se enfocan en resolver es sobre la fabricación


secuencial de partes impresas en una impresora 3D, debido a que el operador debe retirar
la pieza terminada y preparar la máquina para la próxima impresión. De esta manera, las
máquinas o impresoras para estos procesos necesitan manipulación manual para la
instalación y eliminación de partes terminadas.

1. Motivación del autor:

La motivación de los autores en realizar este estudio se enfoca en investigar un método


el cual se pueda automatizar la extracción de las piezas impresas por una impresora 3D
sin interrumpir el proceso de impresión. Además, otra motivación que tienen los autores
es aplicar su idea sobre una impresora 3D, la cual es aplicada para fabricación AM
(Fabricación Aditiva), la cual se está volviendo cada vez más extendida y conveniente de
usar debido a su costo cada vez más bajo y su accesibilidad de las impresoras 3D.

2. Descripción del aporte del autor:

La principal contribución de los autores en el artículo es que proponen un nuevo método


para solucionar un inconveniente que existe en la mayoría de las impresoras 3D estándar,
las cuales solo pueden ejecutar un trabajo de impresión a la vez, y las siguientes tareas
solo pueden comenzar después de que un operador retire la pieza impresa y prepare la
impresión para la siguiente parte. De esta manera, el sistema propuesto por los autores
puede comunicarse con la impresora 3D utilizando comandos especiales de código G que
pueden incorporarse en cada código G para publicar información sobre el estado del
trabajo de impresión, como inicio, cambio de capa o trabajo finalizado.

El código G es interpretado por el software de control de la impresora del Servidor


Repetier y se envía, usando Internet, a un sistema independiente, que comienza a
monitorear la impresora usando técnicas de visión por computadora. Cuando el sistema
de visión por computadora detecta que la impresora ya no se mueve o cuando se ejecuta
un comando G-Code final, entonces lo controla para quitar la pieza de la placa de
construcción de la impresora.

3. Proceso para resolver el Problema:

El proceso por el cual los autores proponen un nuevo método de fabricación de piezas
impresas en una impresora 3D, está representado en un diagrama de bloques.

Figura 10: Diagrama de bloques para la fabricación de piezas impresas


Fuente:
https://www.researchgate.net/publication/317127540_Sequential_additive_manufacturi
ng_Automatic_manipulation_of_3D_printed_parts

De esta manera, el sistema propuesto por los autores tiene como objetivo de ser un
accesorio que se puede instalar en impresoras 3D de código abierto sin la necesidad de
modificaciones. El sistema consiste en un brazo robótico, circuitos de control, sensores,
un sistema de visión artificial para monitorear el progreso del trabajo, un software para la
integración de los sistemas involucrados y el uso de un adhesivo específico para
garantizar que las piezas salgan fácilmente de la placa de construcción después de que el
trabajo haya terminado.

Además, el sistema propuesto solo funciona con piezas impresas en polímero de ABS.
También, se debe tener en cuenta que el sistema propuesto por los autores puede usar
varias entradas para activar la acción de eliminación de piezas del brazo robótico.
Finalmente, el sistema de visión por computadora que monitorea la impresión y el estado
leído de la integración con el software de control de la impresora.

Figura 11: Brazo robótico para despachar piezas impresas en 3D

Fuente:
https://www.researchgate.net/publication/317127540_Sequential_additive_manufacturi
ng_Automatic_manipulation_of_3D_printed_parts

4. Principal Resultado:

El estudio sirvió de apoyo para entender el desarrollo de un nuevo método de fabricación


secuencial de piezas impresas en una impresora 3D. De esta manera, los autores
construyeron un prototipo del sistema propuesto utilizando una impresora Sethi3D AiP
3D17, que está conectada mediante un cable USB a una computadora que ejecuta el
sistema operativo Linux y el software de control de impresora 3D Repetier Server. El
sistema de control del robot implementó una ley de control proporcional que recibe la
posición angular deseada para cada enlace a través del puerto USB del servidor. El
sistema define una trayectoria deseada para el efecto final del robot usando un programa,
que calcula las posiciones angulares resultantes para los enlaces a través de la cinemática
inversa. Un script de supervisión consulta el estado de la impresora a través del servidor
web cada 30 segundos.

17
Sethi3D, Manual de instrucciones para montaje de impresora 3D Sethi3D AiP 3D, Recuperado de:
http://www.sethi.com.br/blog/wp-content/uploads/2015/05/Manual_Montagem_AiP_LCD_Integrado.pdf
Una vez que finaliza el trabajo de impresión, el sistema observa si el extrusor está en la
posición deseada y envía los comandos de movimiento al brazo del robot, el cual desplaza
las piezas para la siguiente impresión.

Figura 12: Prototipo brazo robot instalado en la impresora Sethi3D

Fuente:
https://www.researchgate.net/publication/317127540_Sequential_additive_manufacturi
ng_Automatic_manipulation_of_3D_printed_parts

Paper 6:” Pick-place of dynamic objects by robot manipulator based on deep learning
and easy user interface teaching systems (Pick-place de objetos dinámicos mediante
manipulador de robots basado en aprendizaje profundo y sistemas de enseñanza de
fácil interfaz de usuario)”

Objetivo: El problema que los autores se enfocan en resolver es sobre las complejas
técnicas de enseñanza que existen para manipular un robot pick and place autónomo que
utiliza el reconocimiento de objetos en tiempo real, para aplicaciones de ensamblaje tipo
Humano-Robot, debido al aumento de robots autómatas de pequeño tamaño en la vida
cotidiana de la industria, junto con la aparición de operarios inexpertos incapaces de
enseñar varios movimientos difíciles de ejecutar en corto tiempo al robot para el labor de
ensamblaje.

1. Motivación del autor:

La motivación de los autores en realizar este estudio se enfoca en desarrollar una


aplicación la cual pueda incentivar el avance de la robótica actual mediante el
reconocimiento de objetos por DBNN para aplicaciones en tiempo real, donde el robot
recoge el objeto requerido por el usuario y lo coloca en la ubicación de destino, utilizando
tres sistemas de enseñanza fáciles de usar, para sujetos no experimentados.

El resultado obtenido es otra motivación para los autores, ya que facilita el uso de robots
autónomos que ayudan a usuarios no experimentados a completar diferentes tareas de
montaje.

2. Descripción del aporte del autor:

La principal contribución de los autores en el artículo es que proponen tres sistemas de


enseñanza intuitivos para manipular robots autónomos. En el primer sistema de
enseñanza, se utiliza un iPhone para controlar el movimiento del robot, donde los datos
de los sensores del iPhone se transmiten de forma inalámbrica a una computadora, que
genera el movimiento del robot.

En el segundo sistema de enseñanza, se utiliza un dispositivo háptico de seis grados de


libertad para enseñar el deseado movimiento, es decir mediante dispositivos que pueden
medir de forma precisa la posición espacial 3D a lo largo de los ejes X, Y y Z; y la
orientación, como el giro, inclinación y dirección18.

En el tercer sistema de enseñanza, se utiliza el sensor Kinect. El robot sigue el movimiento


de la mano derecha del operador capturado por la imagen de profundidad de la Kinect.
La trayectoria del robot es guardada y repetida después de completar la tarea. De esta
manera, utilizan diferentes algoritmos de aprendizaje de sensores de fuerza, donde no hay
contacto entre el usuario y el robot durante la enseñanza proceso.

3. Proceso para resolver el Problema:

El proceso por el cual los autores resuelven las complejas técnicas de enseñanza utilizadas
actualmente en robots pick and place, está organizado en 4 secciones. En la primera
sección, se explica las tareas a realizar del robot, en este caso es recoger un objeto
específico seleccionado por el usuario sobre una mesa con varios objetos distintos
dispersos aleatoriamente, y colocarlo en el lugar de destino, reconociendo el objeto
mediante una cámara USB. De esta manera, el robot tiene que generar la trayectoria al
objeto en tiempo real basado en su ubicación inicial y la ubicación del objeto. De esta

18
Geomagic, Los Dispositivos Hápticos de Geomagic, Fecha de publicación: 2016, Recuperado de:
http://www.geomagic.com/es/products/phantom-omni/overview
manera, se plantea tres sistemas de enseñanza intuitivos para enseñarle al robot trayectorias
complejas. Los tres sistemas desarrollados se basan en el dispositivo háptico, el iPhone y el
sensor Kinect.

En la segunda sección, se explica el método de reconocimiento de objetos utilizando el


método DBNN mediante aprendizaje profundo, es decir, conocer más abstracto la
representación de los datos de entrada en forma de capas, donde se utiliza muchas capas
llamadas máquinas Boltzmann restringidas (RBM), donde las neuronas de cada capa
están totalmente conectadas a las neuronas de otra capa.

En la tercera sección, se utilizan métodos de enseñanza para la planificación del camino.


Los tres sistemas desarrollados se basan en el dispositivo háptico, el iPhone y el sensor
Kinect.

Figura 13: Métodos de enseñanza aplicados a un brazo robot


Fuente: http://www.emeraldinsight.com/doi/full/10.1108/IR-05-2016-0140

El primer sistema de enseñanza es mediante un dispositivo háptico, el cual está conectado


con el robot y la PC comunicados mediante la Aplicación (API) OpenHaptics, esta
plataforma permite la navegación tridimensional y retroalimentación de fuerza que
integran el sentido del tacto en los sistemas de modelado 3D midiendo de forma precisa
la posición espacial 3D. Los ángulos de articulación del dispositivo se convierten en
ángulos de la articulación midiendo la posición, control de fuerza y servo-control del
robot. La pinza del robot se controla presionando un botón, que está conectado con un
Arduino Mega. Cuando es presionado, la pinza está abierta y sino, se cierra.
El segundo sistema de enseñanza es mediante un iPhone, el cual está conectado con el
ordenador mediante una red local LAN a una velocidad de comunicación máxima de 54
Mbps. De esta manera, se recopila los datos de los sensores de aceleración midiendo los
ejes X, Y y Z, y se convierten en movimiento del robot por el PC.

El tercer sistema de enseñanza es mediante una Kinect conectada con el PC de mediante


el cable USB. Si el sujeto está de pie delante del sensor Kinect, el robot reproduce la
mano derecha moviéndose en las direcciones X, Y y Z. El seguimiento y posicionamiento
se realiza utilizando el RGB y la profundidad imágenes capturadas por el sensor Kinect.
A partir de la imagen de fila, primero, se extraen los componentes rojos. Mediante el uso
de la mediana filtro, se elimina el ruido. Entonces, la imagen en escala de grises es
convertido a la imagen binaria. A medida que el sujeto levanta la otra mano, la velocidad
de movimiento del robot se reduce para aumentar la precisión y reducir el error. La pinza
del robot se controla abriendo o cerrando la mano de cualquier brazo.

En la cuarta y última sección, se compara los resultados experimentales para el


reconocimiento de objetos de los sistemas de enseñanza y la generación de movimiento
del robot.
Figura 14: Control de brazo robot mediante reconocimiento de objetos
Fuente: http://www.emeraldinsight.com/doi/full/10.1108/IR-05-2016-0140

4. Principal Resultado:

El estudio sirvió de apoyo para entender el desarrollo de técnicas de enseñanza no


complejas para el manejo de robots pick and place controlados mediante el
reconocimiento de objetos utilizando DBNN (Decision-based Neural Network o red
neuronal basada en la decisión). La aplicación de DBNN facilita la adición de diferentes
objetos. Además, los objetos pueden ser reconocidos en diferentes posiciones,
orientaciones y condiciones de iluminación aumentando el número de imágenes utilizadas
durante el proceso de entrenamiento.

Además, se desarrolla y evalúa tres dispositivos de enseñanza intuitivos para manipular


robots autónomos. Los dispositivos que se utilizan son un celular iPhone de Apple, un
sensor háptico y sensor Kinect de Microsoft. El rendimiento se evaluó en términos de
tiempo para realizar las tareas y la precisión en el rendimiento de la tarea. Los resultados
muestran que el dispositivo háptico fue el más fácil de usar. El menor error fue logrado
por el sensor del iPhone. Por consiguiente, el DBNN y los sistemas de enseñanza intuitiva
se integraron en una tarea de selección y colocación que mostraba un buen desempeño.
Gracias a esto, se inspira a mejorar los resultados aumentando el número de objetos a ser
reconocidos, además de evaluar la tasa de reconocimiento de DBNN en diferentes
condiciones ambientales para generar una mejor interacción robot humano.

Paper 7:” Real-Time Grasping Planning for Robotic Bin-Picking and Kitting
Applications (Planificación de agarre en tiempo real para aplicaciones robóticas de
recolección de basura - Picking y kitting)”

Objetivo: El problema que los autores se enfocan en resolver es la difícil tarea de


planificación del agarre de una variedad de piezas en tiempo real para manos robóticas
complejas de alto grado de libertad (GDL), a comparación de una pinza paralela
tradicional o una herramienta personalizada para el extremo de un brazo robot, debido a
la alta dimensión que presentan las manos robóticas con dedos múltiples.

1. Motivación del autor:

La motivación de los autores en realizar este estudio se enfoca en investigar un método


el cual haga más entendible el control de manos robots de una gran cantidad de GDL,
además de incentivar las manos robóticas con dedos múltiples, ya que pueden ofrecer un
mayor grado de destreza para agarrar una variedad de piezas que una pinza tradicional o
una herramienta personalizada en el extremo de un brazo robot. De esta manera, otra
motivación para los autores es la tarea desafiante que conlleva investigar sobre la
planificación del agarre en tiempo real para manos robóticas complejas.

2. Descripción del aporte del autor:

La principal contribución de los autores en el artículo es que proponen un algoritmo de


planificación de agarre en tiempo real que utiliza estrategias de reducción de dimensión
simples y efectivas de volumen intersecado y los planos de rizado de dedos. De esta
manera, los autores descomponen un problema de planificación de agarre que consume
mucho tiempo en el espacio de alta dimensión en varios problemas de planificación de
agarre en el espacio de baja dimensión que se puede calcular en tiempo real. Por
consiguiente, los autores demuestran mediante simulación, experimentos físicos y
aplicaciones robóticas de picking y kitting en dos plataformas robóticas con tres manos
robóticas diferentes.

3. Proceso para resolver el Problema:

El proceso por el cual los autores resuelven el desafío de la planificación del agarre en
tiempo real de manos roboticas de alto grado de libertad, utiliza dos estrategias de
reducción de dimensión simples y efectivas, el volumen intersecado y los planos de rizado
de dedos, para descomponer un problema de planificación de agarre lento en espacio de
alta dimensión en varios problemas de planificación de agarre en espacio de baja
dimensión que pueden resolverse en real hora.

De esta manera, los autores presentan dos enfoques principales en la investigación de


planificación de comprensión, analizan el principal obstáculo para lograr el desempeño
en tiempo real y resaltan los enfoques para superar el obstáculo de desempeño. Por
consiguiente, presentan el modelo de malla triple del objeto y el modelo cinemático de la
mano del robot con las áreas de contacto de agarre deseadas. Después, resumen
brevemente el enfoque del volumen intersectado para la colocación del objeto de la palma
con restricciones ambientales. También, presentan el concepto de planos de rizado de
dedos y la generación de polígonos 2D como un plano de rizado de dedos. Finalmente,
los autores resumen el algoritmo y hacen las pruebas experimentales físicas, con el fin de
obtener los resultados que buscan.
Figura 15: Control de robot humanoide de múltiples grados de libertad (GDL)

Fuente: http://ieeexplore.ieee.org/document/7893003/

4. Principal Resultado:

El estudio sirvió de apoyo para entender el desarrollo de un nuevo método sobre


planificación del agarre de piezas mediante manos robots de múltiples GDL. De esta
manera, los autores lograron el objetivo inicial de desarrollar un planificador de kitting
en tiempo real sin una base de datos preestablecida, con múltiples manos robóticas, para
una variedad de objetos 3D complejos, mediante estrategias de reducción de dos
dimensiones, el volumen intersecado y los planos de rizado de dedos, los cuales han
demostrado ser simples y efectivas, y permiten implementar los algoritmos de
planificación de captación en tiempo real.

En lugar de perder tiempo en el control de colisiones o el cálculo de la distancia, el


volumen intersecado entre el volumen de agarre y el volumen del objeto puede planificar
rápidamente la colocación de la palma automáticamente con restricciones
medioambientales en tiempo real. Los planos de rizado de dedos descomponen
eficazmente el problema de planificación de agarre difícil con formas complejas 3D en
varios problemas de planificación de agarre para polígonos planos bidimensionales. En
resumen, los autores fueron capaces de integrar y demostrar un nuevo planificador de
agarre en tiempo real mediante experimentos físicos y aplicaciones robóticas de
recolección de basura y kits en dos plataformas robóticas con tres manos robóticas
diferentes.

Figura 16: Diagrama de control de una pinza de múltiples GDL

Fuente: http://ieeexplore.ieee.org/document/7893003/
Tipología 3: Manipulación de máquinas pick and place

Paper 8:” A Hybrid Switched Reactive-Based Visual Servo Control of 5-DOF Robot
Manipulators for Pick-and-Place Tasks (Un control servo visual híbrido con
conmutación de reactivos de manipuladores de robots de 5-DOF para tareas de
recogida y colocación)”

Objetivo: El problema que los autores se enfocan en resolver trata sobre los enfoques de
control de agarre robótico tradicional, los cuales tienden a fallar debido a las
incertidumbres en la pose del objeto y la poca retroalimentación del objeto enfocado
mediante un sensor de visión. De esta manera, los autores se centran en mejorar el control
Pick and Place basado en la visión, es decir, mejorar las técnicas del control de un servo
visualmente.

1. Motivación del autor:

La motivación de los autores en realizar este estudio se enfoca en investigar el control de


agarre robótico para brazos robot Pick and Place de 5 grados de libertad (GDL), sin
utilizar diferentes sistemas complicados y difíciles de entender. En efecto, las técnicas de
control difuso, el cual está relacionado con la manera en que las personas perciben el
medio, por ejemplo, ideas relacionadas con la altura de una persona, velocidad con la que
se mueve un objeto, etc., han demostrado una forma factible de implementar un servo
visual sin computación matricial de interacción, obteniendo velocidades de control del
dominio difuso. Sin embargo, la selección de parámetros adecuados no es una tarea fácil,
sobre todo para el diseño de un servo controlador visual para un brazo robot de 5 GDL.
De esta manera, la motivación de los autores ante esta problemática, genera que
desarrollen un nuevo método que mapee directamente las entradas del sistema para
controlar las salidas sin procesos de fuzzificación y defuzzificación.

2. Descripción del aporte del autor:

La principal contribución de los autores en el artículo es que proponen un nuevo método


de control de agarre robótico diferente al convencional utilizado, como lógica difusa, para
un eficiente control Pick and Place basado en la visión. De esta manera, los autores
proponen una nueva estructura de servo control visual basada en reactivos, inspirada en
un comportamiento sensorial y de reacción sin la computación matricial de interacción
inversa, para manejar este problema.
La estructura propuesta es similar a los enfoques basados en lógica, pero sin los requisitos
de la modelación difusa. Para lograr esto, los autores presentan un nuevo enfoque de
función reactiva sensible al hardware para mapear directamente un vector de error de
posición de la imagen a un final deseado vector de velocidad efectora bajo la
consideración de limitaciones de hardware. Este enfoque ayuda a simplificar la
implementación de servosistemas visuales con una confiabilidad mejorada. Además, el
sistema de control propuesto es un controlador de conmutación híbrido que consiste en
esquemas de planificación reactivos tanto basados en imágenes como en posiciones, lo
que permite mejorar la robustez y la efectividad del servo sistema visual.

3. Proceso para resolver el Problema:

El proceso por el cual los autores mejoran el control Pick and Place de un manipulador
robótico de 5 GDL es mediante una actividad, la cual tiene como objetivo agarrar un
objeto de color y colocarlo en una caja, que tiene diferentes formas de agujeros con
diferentes colores, donde la máquina tendrá los parámetros de control presentados por los
autores. De esta manera, el robot debe reconocer el color y la forma del objeto de interés
e intentar colocarlo en una de las cajas a través de un agujero con el mismo color y forma.

Figura 17: Definición de objetos utilizados para el procesamiento de Imágenes (PDI)

Fuente: http://ieeexplore.ieee.org/document/6920015/

De esta manera, proceso por el cual los autores resuelven la problemática aplicada a un
brazo robot de 5 GDL, está conformado en un diagrama de bloques tras analizar los tipos
de soluciones existentes.
Figura 18: Diagrama de bloques sobre la autonomía de un brazo robot Pick and Place
controlado mediante un sensor de visión

Fuente: http://ieeexplore.ieee.org/document/6920015/

4. Principal Resultado:

El estudio sirvió de apoyo para entender el desarrollo de una nueva estructura de servo
control visual basada en reactivos, inspirada en un comportamiento sensorial y de
reacción sin la computación matricial de interacción inversa, para manejar este problema.
Para ayudar en la tarea de agarrar un objeto cúbico, los autores un nuevo algoritmo de
estimación de orientación de objetos basado en imágenes que estima con precisión la
orientación del objeto con el rendimiento en tiempo real.

Además, proponen un enfoque de función reactivo para mapear directamente los errores
de posición de la imagen a las velocidades del efector final deseadas sin interacción
inversa de la computación matricial, modelado difuso y aprendizaje de base de reglas
difusas. Esta característica ayuda a simplificar el diseño del controlador servo visual.
Además, la función reactiva propuesta tiene en cuenta el hardware para mejorar la
fiabilidad y la aplicabilidad del controlador propuesto en aplicaciones prácticas.

Paper 9:” Effects of Grip-Force, Contact, and Acceleration Feedback on a


Teleoperated Pick-and-Place Task (Efectos de Grip-Force, contacto y
retroalimentación de aceleración en una tarea teleoperada Pick-and-Place)”

Objetivo: El problema que los autores se enfocan en resolver es sobre la deficiencia que
existe en la mayoría de los sistemas de teleoperación, controlados mediante un sensor
háptico, sin retroalimentación háptica, como la retroalimentación de la fuerza, para
completar una tarea. De esta manera, el sentido humano multifacético del tacto no es
aprovechado por la mayoría de los sistemas de teleoperación para el manejo de una pinza
o mano robot.

1. Motivación del autor:

La motivación de los autores en realizar este estudio se enfoca en investigar la utilidad de


la fuerza de agarre y la alta frecuencia de la retroalimentación de aceleración en los
sistemas de teleoperación. Además, otra inspiración para los autores son las mejoras
adicionales proporcionadas por la retroalimentación aparte de las fundamentales, como
la presión y el contacto con la punta del dedo. Gracias a esto, la inspiración por los
resultados positivos se considera también como otra motivación que aparece durante el
desarrollo del trabajo. Es decir, la presencia de retroalimentación de las características del
tacto humano en el agarre permite controlar con mayor precisión la posición del control
del robot.

2. Descripción del aporte del autor:

La principal contribución de los autores en el artículo es que proponen la


retroalimentación de la fuerza de agarre no puesta a tierra, la presión de contacto con la
punta del dedo y la retroalimentación háptica de aceleración de alta frecuencia para
mejorar rendimiento de una tarea de recolección y colocación mediante un robot
teleoperado Pick and Place.

De esta manera, treinta sujetos usaron un sistema de teleoperación que consiste en un


dispositivo háptico usado en la mano derecha del sujeto, un robot humanoide remoto y
un sistema de captura de movimiento para mover un objeto a una ubicación, en donde los
sujetos modifican las condiciones hápticas obtenidas activando y desactivando la
retroalimentación de fuerza de agarre, retroalimentación de contacto y retroalimentación
de aceleración.

3. Proceso para resolver el Problema:

El proceso por el cual los autores resuelven la deficiencia que existe en la mayoría de los
sistemas de teleoperación inicia mediante un análisis de los dispositivos táctiles anteriores
que fueron creados para mejorar la usabilidad de los robots teleoperados o máquinas que
tienen el potencial de ser utilizados en la teleoperación.

De esta manera, los autores describen el sistema de teleoperación, incluido el dispositivo


háptico personalizado. Donde plantean una tarea experimental y una hipótesis principal,
luego brindan detalles sobre los procedimientos experimentales de ese estudio mediante
un dispositivo háptico portátil que controla la apertura de la pinza del robot mediante
pruebas sobre la cantidad de fuerzas aplicada a un objeto, la flexibilidad de un objeto y la
manipulación de objetos rígidos. Finalmente, los autores muestran e interpretan los
resultados.

4. Principal Resultado:

El estudio sirvió de apoyo para entender el desarrollo los efectos en el rendimiento de la


maquina mediante la retroalimentación de la fuerza de agarre, además de la necesidad de
la retroalimentación háptica para un buen desempeño de un robot teleoperado. Por
ejemplo, la retroalimentación de la fuerza de agarre redujo el número de intentos de
recolección fallidos, el número de agarres inestables y caídas durante las fases de
levantamiento y retención, y el número de caídas durante la fase de acción de reemplazo
mediante un dispositivo háptico portátil.
Figura 19: Sensor háptico para retroalimentación de Fuerza

Fuente: http://ieeexplore.ieee.org/document/7479565/

Mediante el prototipo, la retroalimentación afectó el desempeño de la tarea de una manera


positiva, mediante las fases de acción de la tarea de Pick and Place para resaltar cómo la
presencia o ausencia de fuerza de agarre, contacto con el dedo y presión y aceleración de
la retroalimentación afectó bien este mismo.

Por consiguiente, los resultados obtenidos por los autores en las tareas aplicadas al
dispositivo fueron aceptables, como el número de veces que el sujeto golpeó el objeto,
que indica qué tan bien el sujeto pudo controlar la mano del robot en el entorno remoto;
los objetos fueron cada vez más flexibles más a menudo cuando los sujetos recibieron
retroalimentación de fuerza de agarre y un poco menos a menudo cuando recibieron
retroalimentación de contacto. Los sujetos que manipularon el bloque rígido lo derribaron
menos veces cuando recibieron una respuesta de fuerza de agarre que cuando se desactivó
la respuesta de fuerza de agarre. De esta manera, la retroalimentación háptica es necesaria
para que los robots teleoperados tengan sensibilidad ante un objeto, sin embargo, no todas
las combinaciones de sensibilidad proporcionadas por el tacto humano son beneficiarias.

Paper 10:” Dynamic performance analysis of the X4 high-speed pick-and-place


parallel robot (Análisis de rendimiento dinámico del robot paralelo de alta velocidad
pick-and-place X4)”

Objetivo: El problema que los autores se enfocan en resolver es el rendimiento dinámico


por el movimiento típico que tienen los brazos robot industriales pick and place, donde la
mayoría de las operaciones de picking requieren el movimiento SCARA (Selective
Compliance Assembly Robot Arm) que es 4 DoFs (Degrees of Freedom o Grados de
Libertad - GDL), donde tres DoFs son de traslación y un DoF de rotación alrededor de la
dirección vertical.

1. Motivación del autor:

La motivación e inspiración de los autores en realizar este estudio se basa en la solución


del movimiento típico que tienen los brazos robot industriales pick and place
determinando el comportamiento dinámico para el manipulador paralelo X4, De esta
manera, los futuros resultados motivan a seguir investigando a los autores con otra
investigación, en donde los índices CVI y JRI se estudiarán conjuntamente para definir el
espacio de trabajo dinámico óptimo y así establecer el índice global para el diseño óptimo
del manipulador paralelo de alta velocidad diseñado virtualmente.

Una inspiración adicional sobre el aporte de los autores es que los resultados pueden ser
adoptados adicionalmente en el análisis dinámico de otros manipuladores paralelos en el
mercado, con solo los índices CVI y JRI.

2. Descripción del aporte del autor:

La principal contribución de los autores en el artículo es un modelo dinámico aplicado


para el robot manipulador paralelo de alta velocidad X4 con el principio de trabajo virtual.
Con las matrices Jacobianas de las extremidades, establecen expresiones concisas del
modelo dinámico y de la matriz de inercia en el espacio articular. De esta manera, se
analiza el impacto dominante de la propiedad de inercia del manipulador paralelo de alta
velocidad sobre los pares de impulsión.

También se analiza el índice de CVI, es decir el índice de inercia del espacio articular que
ilustra la consistencia de aceleración de cada miembro del manipulador paralelo19, donde
se propone evaluar la similitud de la propiedad de inercia de diferentes miembros, que es
igual al coeficiente de variación de los principales elementos diagonales en la matriz de
inercia del espacio articular. El índice CVI es el complemento esencial del índice JRI
existente, es decir el índice de Inercia Reflejada Conjunta existente20. Además, los índices

19
Zhaokun Zhang, Zhufeng Shao, Liping Wang, Albert J. Shih, Optimal Design of a High-Speed Pick-and-
Place Cable-Driven Parallel Robot, Fecha de publicación: 6 de julio del 2017, Recuperado de:
https://link.springer.com/chapter/10.1007/978-3-319-61431-1_29
20
Jiao Mo, Zhu-Feng Shao, Liwen Guan, Fugui Xie and Xiaoqiang Tang, Dynamic performance Analysis
of the X4 high-speed pick-and-place parallel robot, Fecha de publicación: agosto 2017, Recuperado de:
CVI y JRI son adoptados juntos para llevar a cabo el análisis completo sobre el
rendimiento dinámico para el manipulador paralelo de alta velocidad. De esta manera, se
ilustran las distribuciones de los valores CVI y JRI en el área de trabajo accesible y se
analiza el comportamiento dinámico del manipulador paralelo X4.

Finalmente, se determina el comportamiento dinámico para el manipulador paralelo X4,


cuando el ángulo de rotación del extremo de extremo es cero o dirección opuesta. Por
consiguiente, los índices dinámicos y el método de análisis de ilustrado en el artículo de
los autores pueden ser adoptado adicionalmente en el análisis dinámico de otros
manipuladores paralelos.

3. Proceso para resolver el Problema:

El proceso por el cual los autores resuelven el problema sobre el rendimiento dinámico
por el movimiento típico que tienen los brazos robot industriales pick and place es
mediante el análisis del robot de alta velocidad paralelo X4. De esta manera, los autores
empiezan con un prototipo virtual del robot explicando en detalle el modelo cinemático
del manipulador paralelo X4.

Figura 20: Robot Delta de alta velocidad paralelo X4

Fuente: https://dl.acm.org/citation.cfm?id=3062814

De esta manera, los autores obtienen que el robot X4 se compone de dos cuerpos (el
extremo del eje y la base) y cuatro miembros R-2-R idénticos, donde cada miembro es

https://www.researchgate.net/publication/311785177_Dynamic_performance_analysis_of_the_X4_high-
speed_pick-and-place_parallel_robot
accionado por un servomotor y reductor de engranaje planetario. Además, el mecanismo
posee 4 DoFs, incluyendo tres traducciones y una rotación alrededor de la dirección
vertical.

Luego, ya teniendo el modelo virtual, los autores aplican las ecuaciones cinemáticas y las
matrices Jacobianas de los miembros del manipulador paralelo X4 modelado, de acuerdo
con el criterio de Grübler-Kutzbach, donde el número de DoFs del manipulador X4 es
igual a 24 DoFs asociados con enlaces móviles menos un total de 20 restricciones
independientes. De esta manera, con el principio de trabajo virtual, se aplica el modelo
dinámico y la matriz de inercia del espacio conjunto, donde las fuerzas de inercia y los
momentos de torsión del efector final y de los miembros se deducen en el bastidor de
base.

Finalmente, los autores proponen un índice de CVI basado en el índice JRI obtenido por
el modelo dinámico y la matriz de inercia, gracias a esto, el comportamiento dinámico
del manipulador paralelo X4 se analiza con estos dos índices, donde la matriz de inercia
JRI en el espacio de unión refleja las relaciones entre la aceleración angular y el par de
accionamiento de las articulaciones revolucionarias motrices. Para el manipulador
paralelo X4, se requiere un movimiento de alta velocidad de pick and place, lo que
significa una gran aceleración en el desplazamiento corto, y la fuerza de inercia es
dominante.

Figura 21: Demostración del robot Delta de alta velocidad paralelo X4 para tareas de
Picking

Fuente: http://www.omron.com.au/data_pdf/cat/I001-E4-
01_Pick%20%26%20Place%20Brochure.pdf?id=3389
4. Principal Resultado:

El estudio sirvió de apoyo para entender los cambios en el comportamiento dinámico del
manipulador paralelo X4, revelando en simulación que el índice JRI está bien
complementado con el índice CVI. Finalmente, se discute el espacio de trabajo sobre el
cual estará la máquina con un buen rendimiento dinámico. De esta manera, se proporciona
un nuevo enfoque para el análisis dinámico y diseño óptimo para el robot pick and place
de alta velocidad paralelo.

2.3. Conclusiones

2.3.1. Conclusiones para Tipología 1: Diseño y control de un brazo robot

Los artículos que aportaron información a la técnica propuesta en la presente


investigación fueron múltiples casos de estudios que mostraron resultados efectivos. De
esta manera, los tres artículos tienen semejanza entre sí, debido a que cada uno explica el
uso de un brazo robot o el diseño de este mismo, además que cada documento busca una
manera de cómo controlarlo sin la necesidad de algún operario y llegar a que la máquina
sea autónoma, con el fin de aplicarlo en alguna tarea de Picking. Por ejemplo, en el paper
número cinco, los autores diseñan un brazo robot de 2 GDL, con el fin de automatizar la
extracción de piezas impresas para una impresora 3D, con el fin de evitar interrupciones
en la impresión y se obtenga una fabricación secuencial.

2.3.2. Conclusiones para Tipología 2: Manipulación de Máquinas Pick and Place

En lo que respecta al manejo de máquinas Pick and place, los tres artículos describen
como diferentes aparatos Pick and Place comerciales son utilizados actualmente. Sin
embargo, existen limitaciones de estos equipos, los cuales incentivaron a los autores en
desarrollar soluciones alternativas a las convencionales, las cuales pueden llegar a ser
muy tediosas, como la lógica difusa o implementación de otros equipos. Además, los
documentos coinciden en que las máquinas que se encuentran actualmente en el mercado,
aunque sean las más sofisticadas, cada una cuenta con sus propios errores. En resumen,
estos errores incentivaron también a que los autores propongan soluciones ante estos, con
el fin de mejorar la manipulación de estas máquinas.

2.3.3. Conclusiones para Tipología 3: Reconocimiento de objetos con Kinect

Los artículos seleccionados coinciden en que la cámara kinect es accesible y útil para el
procesamiento de imágenes en movimiento continuo. Sin embargo, los documentos
también coinciden en los errores que tiene este sensor de visión, como el ruido que existe
en el mapeo de profundidad. Además, los autores coinciden en que solo el sensor kinect
es útil en el ámbito de reconocimiento facial y detección de movimiento humano, y solo
para algunos objetos que se encuentren dentro de la base de datos de la cámara, los cuales
son un aproximado a 300 objetos con modelado 3D reconocible. En resumen, a diferencia
de los problemas que aparecen sobre un reconocido sensor de visión, los autores plantean
una solución con resultados eficientes.

2.3.4. Conclusiones generales

A partir de los tres grandes temas extraídos de la lectura, de los diez artículos científicos
seleccionados, se puede concluir que para diseñar, construir y controlar un brazo robot
industrial Pick and Place mediante el reconocimiento de objetos con un sensor de visión,
es necesario disponer de un hardware óptimo para no depender demasiado del software.
En efecto, el sensor de visión Kinect es muy utilizado en el procesamiento de Imágenes,
sin embargo, el hecho de que sea utilizado no significa que sus resultados sean los más
apropiados, debido a que los autores de la tipología número 3 explican que el sensor de
visión cuenta con errores en su mapa de profundidad y adquisición de ruido por su
resolución espacial. Sin embargo, para la aplicación de reconocer pastillas envasadas en
movimiento constante sobre una faja transportadora, la camara diseñada por Microsoft
encaja perfectamente. Además, la elección de la cantidad de grados de libertad que tendrá
un brazo robot en su etapa de diseño, y posteriormente construcción, es muy
indispensable, debido a que mientras más movimientos tenga la máquina Pick and Place,
mas métodos de control serán necesarios para su control. De esta manera, para la
aplicación de seleccionar blísteres en movimiento, encaja a la perfección los 3 GDL
planteados en el documento.

También podría gustarte