Está en la página 1de 83

UNIVERSIDAD MAYOR DE SAN SIMÓN

FACULTAD DE CIENCIAS Y TECNOLOGÍA

BOSTON DYNAMICS

GRUPO 2
INTEGRANTES DEL GRUPO:
Duran Cadima Nicole Arianne
Jordán Borda Bruno Leandro
Paredez Morochi Juan Ariel
Sierra Guzmán Carlos Dennis
DOCENTE: Ing. Marco Antonio Arancibia Miranda
Mecatrónica

1-2024 Cochabamba - Bolivia 05/03/2024


ÍNDICE DE CONTENIDO
INTRODUCCIÓN ........................................................................................................ 1

¿A qué se dedica Boston Dynamics? ...................................................................... 1

Fundación e Historia De La Empresa ...................................................................... 1

Convenios Con Otras Empresas ............................................................................. 3

ROBOT HANDLE ........................................................................................................ 5

Características técnicas .......................................................................................... 5

Lenguaje de programación ...................................................................................... 7

ROBOT STRETCH ..................................................................................................... 8

Características técnicas .......................................................................................... 8

Lenguaje de programación. ................................................................................... 10

ROBOT BIG DOG ..................................................................................................... 11

Historia de Big Dog................................................................................................ 12

Características técnicas ........................................................................................ 14

ROBOT SPOT .......................................................................................................... 16

Complementos ...................................................................................................... 18

Extras .................................................................................................................... 35

Características técnicas ........................................................................................ 39

Softwares .............................................................................................................. 41

Orbit 41

Auto-Connect ..................................................................................................... 43
Usos del robot spot................................................................................................ 50

Modos de control ................................................................................................... 51

Spot y la IA ............................................................................................................ 51

Robots Que Pueden Chatear ............................................................................. 52

ROBOT PETMAN ..................................................................................................... 62

Desarrollo de robots PETMAN .............................................................................. 62

Contratistas con un rol en el CBDP ....................................................................... 63

Diseño de robot humanoide PETMAN................................................................... 64

Características y capacidades del maniquí de prueba de conjunto de protección 64

ROBOT ATLAS ......................................................................................................... 65

Especificaciones .................................................................................................... 66

Descripción general ............................................................................................... 66

Control ................................................................................................................... 67

a. Caminata estática .......................................................................................... 67

b. Manipulación de todo el cuerpo ..................................................................... 68

c. Control de puerta transversal ......................................................................... 68

d. Subir escaleras .............................................................................................. 69

Habilidades............................................................................................................ 71

Discusión ............................................................................................................... 72

BIBLIOGRAFÍAS ....................................................................................................... 73

ANEXOS ................................................................................................................... 75

1
ÍNDICE DE FIGURAS

Figura 1: Marc Raibert, fundador de Boston Dynamics.............................................. 3

Figura 2: Ejemplos de imágenes recopiladas por Spot con la Spot CAM+. ............. 20

Figura 3: Ejemplos de imágenes recopiladas por Spot con la Spot CAM+IR. ......... 22

Figura 4: Presentación del Kit de radio de malla cinética Rajant ............................. 31

Figura 5: Topología de red de robots tradicional utilizando el robot como servidor. 44

Figura 6: Problemas comunes con la topología de red Robot como servidor .......... 45

Figura 7: La topología de red Auto-Connect maneja entornos complejos................ 47

Figura 8: Habilitación y personalización de Auto-Connect on Spot .......................... 49

Figura 9: Indicación de enrutamiento de interfaz de red dinámica ........................... 50

Figura 10: Un mapa en 3D de partes del edificio de Boston Dynamics con ubicaciones

etiquetadas que le fue entregada al LLM. ..................................................................... 54

Figura 11: Un diagrama del sistema general ........................................................... 55

Figura 12: Configuración del hardware para el guía turístico ................................... 56

2
INTRODUCCIÓN

¿A qué se dedica Boston Dynamics?

Boston Dynamics es una empresa de ingeniería robótica que se dedica al diseño,

desarrollo y fabricación de robots avanzados. Sus robots son conocidos por su movilidad

dinámica, capacidades de equilibrio y agilidad en entornos diversos. La empresa trabaja

en una variedad de proyectos que abarcan desde robots cuadrúpedos como Spot hasta

robots humanoides como Atlas.

Misión

La misión de Boston Dynamics es imaginar y crear robots excepcionales que

enriquezcan la vida de las personas. Vemos este trabajo como el siguiente paso en la

evolución de máquinas que reducen el peligro, la repetición y los aspectos físicamente

difíciles del trabajo.

Visión

Estamos impulsados a crear robots que se adapten perfectamente a nuestras vidas

y amplíen nuestro potencial. Boston Dynamics acaba de empezar a arañar la

superficie de lo que pueden hacer los robots y estamos entusiasmados de construir el

futuro para hoy, mañana y más allá

Fundación e Historia De La Empresa

• 1992: La empresa fue fundada en 1992 como una filial del MIT por el experto

en robótica Marc Raibert.

1
• 1992 - 1995: se centraron en la creación de robots bípedos y cuadrúpedos

capaces de caminar y moverse de manera dinámica

• 2005 - Big Dog: uno de los momentos más destacados para la compañía fue

hacer un robot cuadrúpedo diseñado para llevar cargas pesadas en terrenos

irregulares, funcionando también como asistente de carga para el ejército de

Estados Unidos

• 2013 - Adquisición por parte de Google Z: Boston Dynamics fue adquirida

por Google como parte de su división de proyectos experimentales conocida

como ´´Google X´´, también se lanza la primera generación del robot Atlas,

siendo este capaz de tener equilibrio y agilidad en todo su cuerpo.

• 2017 - Venta a SoftBank Group: En 2017, Boston Dynamics fue vendida por

Google (que luego se convirtió en Alphabet Inc.) al SoftBank Group. una

empresa de tecnología japonesa. Esta adquisición llevó a un enfoque renovado

en aplicaciones comerciales y de logística para sus robots

• 2017 - 2021 Enfoque comercial y aplicaciones industriales: la empresa

continuó expandiendo su presencia en el mercado comercial y empresarial,

ofreciendo soluciones de automatización y robótica para diversas industrias.

Dentro de este tiempo se lanzaron al mercado los robots Spot y Stretch

• 2021 - Adquisición por parte de Hyundai group: La empresa automotriz

ahora tiene una participación mayoritaria en Boston Dynamics de SoftBank.

Con esta adquisición, Hyundai espera acelerar el desarrollo de robótica con

capacidades avanzadas de movilidad, manipulación y visión.

2
Figura 1: Marc Raibert, fundador de Boston Dynamics. Fuente: https://www.linkedin.com/in/marc-raibert-
a520b9119

Marc Raibert, nacido el 21 de febrero de 1949, es un destacado ingeniero y científico

de la informática estadounidense. Obtuvo su Licenciatura en Matemáticas y Física en la

Universidad de Northeastern en 1972, seguido de una Maestría y un Doctorado en

Informática en el MIT, donde se enfocó en el desarrollo del concepto de "Control de

Fuerza y Posición para Robótica de Una Sola Pierna" para su tesis doctoral. Ha trabajado

en el Laboratorio de Inteligencia Artificial del MIT y como profesor en la Universidad

Carnegie Mellon. En 1992, fundó Boston Dynamics, una empresa líder en el desarrollo

de robots avanzados con capacidades de movilidad y equilibrio dinámico.

Convenios Con Otras Empresas

• DHL: La cadena de suministro de DHL logra la primera implementación

comercial del robot Stretch

3
• Woodside Energy: Woodside, una destacada empresa energética australiana,

está explorando el potencial del robot Spot de Boston Dynamics para

automatizar la inspección rutinaria y la detección en sus instalaciones de

procesamiento

• Engineering Virginia Tech: A través de una asociación con una empresa

privada de gestión de construcción, investigadores de Virginia Tech están

explorando cómo Spot puede mejorar las operaciones en los sitios de

construcción.

4
ROBOT HANDLE

Características técnicas

Empezamos hablando de las características técnicas del robot HANDLE, entre sus

principales características tenemos:

• Diseño híbrido: El robot HANDLE combina la movilidad de un robot sobre

ruedas con la destreza de uno y capacidad de manipulación de un brazo

robótico que se monta en la parte superior.

• Movilidad ágil: el robot usa ruedas en vez de piernas con lo que tiene gran

versatilidad de desplazamiento además de agilidad y buena velocidad también

las ruedas le permiten desplazarse sobre superficies planas o terrenos

irregulares con gran facilidad.

5
• Brazo robótico articulado: HANDLE al contar con un brazo articulado puede

manipular objetos con destreza, el brazo le permite levantar y transportar

cargas pesadas, así como realizar tareas de manipulación.

• Estabilidad el robot cuenta con sistemas de control avanzados para mantener

el equilibrio Este sistema de control se basa en una combinación de sensores,

algoritmos de control y actuadores que trabajan en conjunto para ajustar

continuamente la posición y la fuerza aplicada por el robot.

Handle está equipado con una variedad de sensores que proporcionan

retroalimentación en tiempo real sobre su estado y su entorno. Estos sensores pueden

incluir giroscopios, acelerómetros, sensores de fuerza y sensores de contacto, entre

otros. Estos sensores permiten al robot detectar cambios en su posición, orientación y

entorno, lo que es crucial para mantener el equilibrio.

• Basándose en la información proporcionada por los sensores, Handle utiliza

algoritmos de control avanzados para calcular los ajustes necesarios en sus

actuadores para mantener el equilibrio. Estos algoritmos pueden incluir

técnicas de control clásicas, como el control proporcional-integral-derivativo

(PID), así como enfoques más sofisticados de control no lineal y adaptativo.

• Handle está equipado con actuadores potentes y de alta precisión que pueden

ajustar rápidamente su posición y aplicar fuerzas para contrarrestar cualquier

perturbación que pueda afectar su equilibrio. Estos actuadores pueden ser

motores eléctricos, hidráulicos o neumáticos, dependiendo del diseño

específico del robot.

6
• El sistema de control de equilibrio de Handle opera en tiempo real, ajustando

continuamente la posición y las fuerzas aplicadas por el robot para mantener

su estabilidad mientras se desplaza y realiza tareas de manipulación. Esta

capacidad de respuesta en tiempo real es crucial para garantizar un movimiento

suave y seguro del robot en entornos dinámicos.

Lenguaje de programación

El lenguaje de programación utilizado para programar el robot Handle de Boston

Dynamics no se ha especificado públicamente por la empresa. Sin embargo, es probable

que se utilicen varios lenguajes y herramientas de programación, dependiendo de las

necesidades específicas de desarrollo y control del robot.

Dado que Handle es un robot avanzado con capacidades de manipulación y movilidad,

es posible que se utilicen varios lenguajes de programación para diferentes aspectos de

su funcionamiento. Algunos de los lenguajes y tecnologías que podrían ser relevantes

para programar Handle incluyen:

• C++ y Python: Estos son lenguajes de programación comunes en el campo de

la robótica y la ingeniería de software. C++ se utiliza a menudo para programar

sistemas en tiempo real y de bajo nivel, mientras que Python es conocido por

su facilidad de uso y su amplio soporte para bibliotecas y herramientas de

procesamiento de datos.

• ROS (Robot Operating System): ROS es un marco de desarrollo de código

abierto ampliamente utilizado en la comunidad de robótica. Proporciona una

infraestructura para la creación de sistemas robóticos complejos, incluyendo la

7
gestión de hardware, comunicación entre componentes y herramientas de

visualización y depuración.

• Herramientas y bibliotecas específicas de Boston Dynamics: Es probable que

Boston Dynamics proporcione sus propias herramientas y bibliotecas de

desarrollo específicas para programar y controlar sus robots, incluido Handle.

Estas herramientas podrían incluir APIs (Interfaces de Programación de

Aplicaciones) y SDKs (Kits de Desarrollo de Software) diseñados para

interactuar con los sensores, actuadores y sistemas de control del robot.

• Lenguajes y herramientas de modelado y simulación: Además de los lenguajes

de programación convencionales, es posible que se utilicen herramientas de

modelado y simulación para diseñar y probar algoritmos de control y

planificación de movimiento para Handle antes de implementarlos en el robot

real.

ROBOT STRETCH

Características técnicas

• Peso: Se estima que el robot Stretch pesa alrededor de cientos de kilogramos,

ya que está diseñado para manipular cargas de hasta 50 libras

(aproximadamente 23 kilogramos). Su estructura robusta y capacidad de carga

sugieren que es relativamente pesado.

8
• Dimensiones: Dado que Stretch es un robot con un diseño tipo brazo robótico

montado sobre una base móvil, se puede esperar que tenga dimensiones

considerables. Su altura y extensión del brazo dependen del diseño específico

del robot, pero probablemente tenga varios metros de altura cuando el brazo

esté completamente extendido.

• Capacidad de carga máxima: Stretch está diseñado para manipular cargas

de hasta 50 libras (aproximadamente 23 kilogramos), lo que sugiere que está

equipado con actuadores y componentes robustos capaces de levantar y

transportar objetos de este tamaño.

• Tiempo de duración de la batería: La duración de la batería de Stretch

dependerá de varios factores, como el tipo de batería utilizada, la carga de

trabajo y el uso continuo del robot. Es probable que esté equipado con baterías

de alta capacidad que le permitan operar durante varias horas antes de

necesitar recarga.

• Velocidad máxima de desplazamiento: A diferencia de robots como Handle,

que se desplazan sobre ruedas, Stretch se mueve sobre una base móvil. La

velocidad máxima de desplazamiento dependerá del diseño y las

características de esta base móvil, pero se espera que sea lo suficientemente

rápida como para permitirle navegar de manera eficiente en entornos de

almacén y logística.

Ten en cuenta que estas son estimaciones basadas en el propósito y el diseño general

del robot Stretch, ya que detalles específicos sobre sus características técnicas pueden

no estar disponibles públicamente.

9
Lenguaje de programación.

Podemos hacer algunas estimaciones basadas en la experiencia y las prácticas

comunes en el campo de la robótica y la ingeniería de software.

• ROS (Robot Operating System): ROS es un marco de desarrollo de código

abierto ampliamente utilizado en la comunidad de robótica. Proporciona una

infraestructura para la creación de sistemas robóticos complejos, incluida la

gestión de hardware, comunicación entre componentes y herramientas de

visualización y depuración. Es posible que Stretch utilice ROS para su

desarrollo y control.

• Python: Python es un lenguaje de programación popular en el campo de la

robótica debido a su facilidad de uso, flexibilidad y amplio soporte para

bibliotecas y herramientas. Es posible que Stretch utilice Python para escribir

scripts de control, interfaces de usuario y otras funciones de alto nivel.

• C++: C++ es otro lenguaje de programación comúnmente utilizado en el

desarrollo de software de sistemas embebidos y en tiempo real, como los

sistemas de control de robots. Es posible que partes del software de Stretch

estén escritas en C++ para maximizar el rendimiento y la eficiencia.

• Herramientas y bibliotecas específicas de Boston Dynamics: Es probable que

Boston Dynamics proporcione sus propias herramientas y bibliotecas de

desarrollo específicas para programar y controlar sus robots, incluido Stretch.

Estas herramientas podrían incluir APIs (Interfaces de Programación de

10
Aplicaciones) y SDKs (Kits de Desarrollo de Software) diseñados para

interactuar con los sensores, actuadores y sistemas de control del robot.

ROBOT BIG DOG

Big Dog es un robot cuadrúpedo militar

dinámicamente estable. El robot fue

diseñado para ayudar a transportar equipos

pesados a soldados en terrenos demasiado

accidentados para la circulación de los

vehículos . El costo del robot fue a rededor

de 32 millones de dólares (casi un millón por

mes), pues se emplearon 30 meses en tener

listo el prototipo. La financiación estuvo a cargo de DARPA, un organismo del Ministerio

de defensa de EEUU que se dedicaba al desarrollo de tecnología militar.

Su principio de movimiento se basa en el uso de 4 patas que le permiten moverse en

superficies en las que las ruedas normalmente no pueden moverse. La navegación y el

equilibrio también son gestionados por el sistema de control.

Las Patas están articuladas y cuentan con sensores capaces de determinar

telemétricamente la posición y las distancias respecto a obstáculos; además el BIG DOG

dispone de un giroscopio de tecnología láser que combinado con un visor

estereoscópico, le permite orientarse y mantener el equilibrio. Esas extremidades se

mueven a merced de una bomba hidráulica, que es la que transmite a los 16 actuadores

(cuatro en cada pata: dos para las caderas, uno para la rodilla y otro para el tobillo), la

11
energía es generada por un motor de 15 CV. Las piernas del robot contienen una gran

variedad de sensores incluida la posición de las articulaciones y el contacto con el suelo.

Se utilizan aproximadamente 50 sensores para recoger datos sobre aceleración,

fuerza de los actuadores articulares, velocidad, temperatura del aceite, presión de la

bomba hidráulica del motor interno, altitud durante la locomoción y precisión de diferentes

mecanismos; la información recogida es procesada por un ordenador que se usa como

sistema operativo QNX (un sistema con micronúcleo de tiempo real), el movimiento se

controla a través de QNX (realiza tanto control de alto nivel como control de bajo nivel),

una computadora a bordo que administra los sensores.

Los comportamientos de locomoción de Big Dog pueden variar mucho. Puede ponerse

de pie, sentarse, caminar gateando levantando una pierna a la vez, caminar al trote

levantando las piernas diagonales o trotar con paso de carrera. La velocidad de

desplazamiento de Big Dog varía desde un rango de 0,45 mph (0,2 m/s) hasta un trote

de 3,6 mph (1,6 m/s).

Historia de Big Dog

Big Dog fue creado el año 2005 en colaboración conjunta de Boston Dynamics, Foster-

Miller, Jet Propulsion Laboratory (NASA) y la estación Concord Field de la universidad

de Harvard.

El proyecto estuvo dirigido por el Dr. Martin Buehler, quien recibió en 2012 el premio

Joseph Engelberger de la Robotics Industries Association por su trabajo. El Dr. Buehler,

aunque anteriormente fue profesor en la Universidad McGill, dirigió el laboratorio de

robótica allí, desarrollando robots de cuatro patas para caminar y correr.

12
Inicialmente DAPRA financió el proyecto con el objetivo de que el robot acompañe a

los militares en el transporte de suministros sobre terrenos accidentados para vehículos

convencionales.

El 23 de marzo de 2008, Boston Dynamics publicó un vídeo de una nueva generación

de Big Dog conocida como Alpha Dog. El equivalente refinado ha sido diseñado por

Boston Dynamics para superar al Big Dog en términos de capacidades y uso para

soldados desmontados, Boston Dynamics publicó un vídeo demostrativo el 27 de enero

de 2009 en la plataforma YouTube.

En 2010 se mejoró el BIG DOG, este nuevo modelo podría correr a 8 Kilómetros por

hora y desplazarse por diferentes terrenos, se realizaron pruebas para determinar las

condiciones de trabajo de Big Dog, publicando así el segundo vídeo demostrativo el 22

de abril de 2010.

El 29 de septiembre de 2011, Boston Dynamics publicó un tercer vídeo en el que se

muestra el Alpha Dog Proto, un prototipo de laboratorio que posteriormente pasaría a ser

el Legend Squad Support System (LS3), esta variante militarizada se desarrolló en

conjunto con DAPRA y el cuerpo de Marines de EE.UU., en el vídeo se muestran los

primeros resultados de laboratorio en el desarrollo de los sistemas de control y la

plataforma de locomoción, también se pretendía energizar al robot con un motor de

combustión interna planeado para ser 10 veces más silencioso que el Big Dog y una

mejora en el cabezal sensor para la implementación de sensores de terreno.

En febrero de 2012, con mayor apoyo de DARPA, se lanzó la variante militarizada del

Big Dog, el Legged Squad Support System (LS3), Boston Dynamics demostró sus

capacidades durante una caminata sobre terreno difícil.

13
A partir del verano de 2012, DARPA planeó completar el desarrollo general del sistema

y perfeccionar sus capacidades clave en 18 meses, garantizando su valor para los

combatientes desmontados antes de que se implementara en los escuadrones que

operan en el centro de operaciones. Big Dog se sometió a una prueba para poder

demostrar su capacidad, esta prueba consistía en completar una caminata de 32 km (20

millas) en 24 horas, sin recargar combustible, mientras llevaba una carga de 180 kg (400

libras). También se llevaría a cabo un perfeccionamiento de sus sensores de visión.

A finales de febrero de 2013, Boston Dynamics publicó un vídeo de un Big Dog

modificado con un brazo. El brazo podía levantar objetos y lanzarlos. El robot dependía

de sus piernas y torso para ayudar a impulsar los movimientos del brazo. Este tipo de

enfoque de manipulación dinámico y de cuerpo entero es utilizado habitualmente por

atletas humanos, con esto se planeaba mejorar el rendimiento de los robots avanzados.

Se cree que podía levantar pesos de alrededor de 50 libras (23 kg). Esta investigación

estuvo financiada por el programa RCTA del Laboratorio de Investigación del Ejército.

El proyecto BIG DOG se suspendió en 2015, y se cambió el modelo por uno más

silencioso y liviano que llegaría a ser su sucesor: Spot.

Big Dog también apareció en episodios de Web Junk 20 y Hungry Beast, y en artículos

de New Scientist, Popular Science, Popular Mechanics y The Wall Street Journal.

Actualmente Big Dog se encuentra en exhibición como parte del museo en las

instalaciones de Boston Dynamics.

Características técnicas

Dimensiones:

14
• Longitud: 0.91m (3 ft)

• Altura: 0.76m (2.5 ft)

Locomoción:

• Velocidad: 6.4 km/h (4 millas/h)

• Pendiente máxima: +/- 35°

• Peso máximo: 110 kg (240 libras)

• Capacidad máxima de transporte: 150 kg (340 libras)

Hardware:

• Sistema de propulsión:

• Motor kart de dos tiempos

• Un cilindro

• 15 caballos de fuerza de frenado (11 kW) que funciona a más de 9000 rpm.

• Bomba hidráulica (impulsa los actuadores hidráulicos de las patas)

• Cuatro actuadores por cada pierna (dos para la articulación de la cadera, uno

para la rodilla y uno para el tobillo), 16 en total. Cada uno consta de:

o Un cilindro hidráulico

o Una servoválvula

o Un sensor de posición

o Un sensor de fuerza.

Potencia informática integrada:

• Una pila de placas PC/104 robusta

• Computadora clase Pentium 4 (QNX).

• Giroscopio láser.

15
• Sistema de visión estéreo.

ROBOT SPOT
Spot es un robot cuadrúpedo altamente móvil y versátil que se utiliza para una amplia

gama de aplicaciones, tareas como inspección industrial, seguridad, mapeo de sitios,

monitoreo remoto y más. Se destaca por su movilidad y capacidad para navegar en

terrenos difíciles; se desarrolló para que sea un prototipo estable así como su diseño y

capacidad de movimiento autónomo lo hacen aptos para realizar tareas en diferentes

entornos así como pendientes y terrenos accidentados, y situaciones hostiles.

La plataforma base proporciona movilidad en terrenos difíciles, evitación de

obstáculos de 360 grados y varios niveles de navegación, control remoto y autonomía.

Es posible personalizar Spot agregando sensores especializados, software y otras

cargas útiles. Los usos más frecuentes que actualmente le dan a Spot son para

monitorear sitios de construcción y proporcionar inspecciones remotas de petróleo y gas,

instalaciones eléctricas y seguridad pública.

Está diseñado según ISO 12100 para la evaluación y reducción de riesgos y IEC

60204-1 para seguridad eléctrica.

16
El robot Spot es ideal para realizar tareas de mantenimiento predictivo a equipos

operativos, monitoreo térmico, lectura de medidores analógicos, detección de fugas de

aire y gas presurizados, recopilación de datos para modelos de aprendizaje automático

para respaldar tareas de monitoreo de salidas de emergencia, detección de cambios

leves en los estantes de almacenamiento para aumentar la seguridad.

También cumple tareas de recopilación de datos en sitios de desastre con alta

radiación, exploración en ambientes extremos y terrenos accidentados (por ejemplo

nieve invernal en Boston).

Sin embargo, Spot necesita enviar y recibir datos de manera confiable a los

operadores para poder ejecutar los últimos comandos y devolver datos valiosos, de esta

manera es que surge el desarrollo del software Orbit. Se trata de un software basado en

la web de Boston Dynamics que conecta al operador con su flota de robots Spot. Este

software puede ser instalado en cualquier dispositivo móvil tal como celulares o tablets

para ejecutar los comandos de control y programación de tareas de Spot desde cualquier

lugar, pero podrían surgir problemas de conectividad asociados a los constantes cambios

de red (ya que Spot es un robot dinámico) y a los firewalls que las mismas puedan

contener, por ello análogamente se desarrolló Auto-Connect.

Auto-connect proporciona una abstracción útil sobre las direcciones de red, permite a

Spot cambiar sin problemas entre diferentes redes sin interrumpir la conexión a un

servicio de recopilación de datos o a un operador, esto se logra monitoreando el estado

del robot y las redes disponibles, y moviendo el tráfico de datos sin problemas a la mejor

red disponible, desde el punto de vista del operador u Orbit la capa de red virtual

17
permanece sin cambios, los datos continúan trasmitiéndose y se siguen ejecutando

comandos o cronogramas de misiones.

En segundo plano, Spot nota cuando está en la base y puede usar la conexión por

cable más confiable, o detecta que la red wifi se está debilitando y cambia al servicio

celular 5G para permanecer conectado. Este mecanismo es resistente a fallas

momentáneas de la red, lo que permite trabajar a Spot en entornos típicos donde

ocasionalmente se pierden datos, los usuarios pueden configurar sus preferencias como

una lista clasificada de qué red usar cuando se muestran múltiples redes.

Cada Spot tiene una ID única que se registra en el Orbit para ejecutar su control, la

diferencia entre utilizar o no el Auto-connect radica en la conexión automática, en cambio

si no se utiliza el software se debe configurar la red para que esta permita acceder a

SiteHub (web de Boston Dynamics) y configurar el Spot en modo cliente.

Complementos
El robot spot cuenta con complementos que pueden ser utilizados según la aplicación

o tareas que vayan a asignársele a Spot, un ejemplo de esto son los sensores de alto

rendimiento más detección dinámica:

• Spot CAM+

18
Spot CAM+ se utiliza para observar entornos remotos o peligrosos mientras el operario

se concentra en los detalles de inspección importantes, así convirtiendo a Spot en una

potente herramienta de inspección con cámaras especialmente diseñadas.

19
Figura 2: Ejemplos de imágenes recopiladas por Spot con la Spot CAM+. Fuente:
https://bostondynamics.com/products/payload/spot-cam/

• Spot CAM+IR

Spot CAM+IR se puede utilizar para observar entornos remotos o peligrosos mientras

el operario se concentra en los detalles de inspección importantes, a diferencia de Spot

CAM+ tiene más características.

20
21
Figura 3: Ejemplos de imágenes recopiladas por Spot con la Spot CAM+IR. Fuente:
https://bostondynamics.com/products/payload/spot-cam-ir/

• Spot I/O

22
Spot CORE I/O mejora tanto la computación como las comunicaciones disponibles en

la plataforma Spot. Permite configurar fácilmente las entradas como sensores, cámaras

y otros dispositivos para detectar y procesar los datos recopilados en información

procesable.

23
24
• Spot EAP2:

Spot EAP 2 mejora la autonomía, la computación y las comunicaciones disponibles en

la plataforma Spot. Mejora la navegación autónoma de Spot con lidar que proporciona

25
un rango de detección de hasta 100 metros, también permite configurar fácilmente

entradas como sensores, cámaras y otros dispositivos y procesamiento de datos

recopilados para obtener información práctica.

26
• Spot GXP:

Spot GXP impulsa la integración de la carga útil al proporcionar varias conexiones

desde el puerto de carga útil principal de Spot.

Diseñada para que pueda comenzar a funcionar rápidamente con opciones estándar

de alimentación y comunicación, esta carga útil de expansión regula la energía de la

batería de Spot y proporciona varias opciones de voltaje apropiadas para conectar

computadoras portátiles, procesadores, radios y sensores.

27
28
• Kit de radio de malla cinética Rajant:

El kit de radio Rajant Kinetic Mesh establece rápidamente una red sólida para tele

operar Spot en lugar de Wifi en el sitio. Permite implementar Spot de forma rápida y fácil

dentro de una red aislada, sin necesidad de infraestructura.

29
30
Figura 4: Presentación del Kit de radio de malla cinética Rajant. Fuente:
https://bostondynamics.com/products/payload/rajant-kinetic-mesh-radio-kit/

• Kit de radio MPU5 de sistemas persistentes:

31
El kit de radio MPU5 de Persistent Systems permite comunicaciones punto a punto

entre Spot y su operador. Su implementación a Spot se puede lograr rápida y fácilmente

a través de una red segura sin necesidad de infraestructura.

32
• Brazo Spot (Spot Arm):

33
Spot Arm permite que el robot actúe de manera más efectiva sobre los datos y realice

trabajo físico. Permite que el Spot trabaje tanto las tareas autónomas como las

controladas remotamente con facilidad. Cumple con las siguientes características:

➢ Integrado: Cuando está equipado con un brazo, Spot usa todo su cuerpo para

equilibrarse y posicionarse para tareas de manipulación, mejorando su rango

de movimiento sin sacrificar la movilidad.

➢ Inteligente: Spot Arm permite una variedad de acciones de manipulación y

detección manuales, semiautomáticas y totalmente automatizadas para

adaptarse a las necesidades de su aplicación.

➢ Accesible: Una interfaz de tableta intuitiva y una API facilitan el control del

brazo. Los operadores pueden completar tareas de manipulación complejas

con una formación mínima.

➢ Maniobra: permite agarrar, levantar, transportar, colocar y arrastrar una

variedad de artículos con los 6 grados de libertad y agarre del brazo.

➢ Inspeccionar: Utilizando el iluminador LED integrado y la cámara 4K para

inspeccionar objetos y equipos antes de actuar.

➢ Manipulación: permite girar válvulas, mover palancas, abrir puertas y manipular

otros objetos de forma semiautónoma con movimiento restringido.

Con solo presionar un botón o deslizar una pantalla, el brazo abrirá puertas, accionará

interruptores, sensores de puntos y más. Ya sea que esté utilizando tele operación o

comportamientos autónomos. Para más especificaciones técnicas véase Anexo, pág. 57.

• Destreza: El Spot Arm ofrece una gama completa de movimiento con 6 grados

de libertad, una pinza capaz y un alcance de casi un metro.

34
• Fortaleza: Levanta hasta 11kg y arrastra hasta 25kg con el brazo. Spot utiliza

todo su cuerpo para permitir tareas de manipulación.

• Sensación: Los sensores integrados incluyen sensores de tiempo de vuelo

(ToF) y de unidad de medida inercial (IMU) para permitir el control de activación,

así como una cámara RGB de 4k en la pinza.

• Personalización: Arm API permite a los desarrolladores crear aplicaciones

personalizadas, con control de espacio conjunto y control de efector final.

Extras
Complementos y accesorios, según las necesidades del operador.

► Muelle puntual (Spot Dock):

Spot Dock permite la carga automática, ampliando las capacidades de Spot como

herramienta de inspección remota autónoma.

Spot Dock permite realizar misiones de recopilación de datos más largas y tareas de

inspección de rutina sin la intervención del operador para cambiar las baterías o recargar

el robot.

35
36
► Soporte técnico:

Spot Care es un servicio que brinda Boston Dynamics para mantener los robots

funcionando al máximo rendimiento. Ofrece un plan de servicio premium con un año de

cobertura extendida y reparación acelerada. Cuenta con equipos expertos de soporte y

servicio disponibles para garantizar el éxito con Spot.

► Batería de Spot:

37
► Cargador de Spot:

► Tableta Spot:

► Joystick para tabletas Spot:

► Paneles de patas Spot:

38
► Paneles delanteros y traseros Spot:

Características técnicas

Dimensiones:

● Longitud: 1100mm (43.3 pulg)

● Ancho: 500mm (19.7 pulg)

● Altura (sentado): 191mm (7.5 pulg)

● Altura predeterminada (caminando): 610mm (24.0 pulg)

● Altura máxima (caminando): 700mm (27.6 pulg)

● Altura mínima (caminando): 520mm (20.5 pulg)

● Masa/Peso Neto (Punto con batería): 32.7 kg (72.1 libras)

Locomoción:

● Velocidad Máxima: 1.6 m/s

● Pendiente máxima: +/- 30°

39
● Altura máxima del escalón: 300mm (11.8 pulg)

Ambiente:

● Protección de ingreso: IP54

● Temperatura de funcionamiento: 20°C a 45°C

Sensación del terreno:

● Campo de visión horizontal: 360°

● Rango: 4 metros (13 pies)

● Encendiendo: >2 lux

● Evitación de colisiones: mantiene la distancia establecida de obstáculos

estacionarios.

Conectividad:

● WIFI: 2.4 GHz/5 GHz b/g/n

● Ethernet

Batería:

● Capacidad de la batería: 564 Wh

● Tiempo de ejecución promedio*: 90 minutos

● Tiempo de espera: 180 minutos

● Tiempo de recarga: 60 minutos

● Longitud: 324mm (12.8 pulg)

● Ancho: 168mm (6.6 pulg)

● Altura: 93mm (3.7 pulg)

● Masa/Peso: 5.2 kg (11.5 libras)

Montaje de carga útil:

40
● Peso máximo: 14 kg (30.9 libras)

● Área de montaje: 850mm (largo) x 240mm (ancho) x 270mm (alto)

● Interfaz de montaje: Rieles con ranura en T M5

● Conector: DB25 (2 puertos)

● Fuente de alimentación: CC no regulada 35-58.8 V, 150 W por puerto

● Integración: Documento de control de interfaz de hardware y API de software

disponible.

*El tiempo de ejecución puede variar según las cargas útiles y los factores

ambientales.

Softwares

Orbit
Es un software de gestión y análisis de flotas de robots en tiempo real desarrollado

por Boston Dynamics que permite obtener una vista única de su empresa, robots y

equipos.

Cumple con las siguientes características:

➢ Inteligencia en tiempo real

Permite al usuario mantenerse informado con paneles de datos consistentes y

confiables, y alertas personalizadas.

➢ Eficiencia operacional

Permite mejorar la eficiencia de activos y procesos cruciales con tareas

autónomas programadas por el mismo usuario.

➢ Aumentar el trabajo

41
Spot puede reemplazar las tareas tediosas y repetitivas del equipo operativo en

la industria a la que se implemente.

Con este software Boston Dynamics permite al usuario obtener un control de 360º de

su flota y visibilidad total de lo que sucede en su empresa.

El software de gestión de flotas Orbit hace que sea intuitivo integrar los robots de

Boston Dynamics, empezando por Spot, en sus operaciones diarias. Permitiendo realizar

funciones como:

➢ Mapas del sitio

Es posible realizar un seguimiento de la flota de robots autónomos en el trabajo

superpuestos en un plano de la instalación. Permite crear, modificar y monitorear

misiones en el contexto; Si su empresa cambia, los parámetros de la misión se

pueden revisar en cualquier momento en Orbit.

➢ Programación y revisión de misiones

Es posible la ejecución de misiones alineadas con las operaciones diarias y con

opciones de programación flexibles. Orbit simplifica la implementación de Spot en

días y horarios específicos o en bucle, con exclusiones designadas como fines de

semana o tiempos de inactividad planificados.

➢ Alertas y notificaciones

Permite mostrar alertas en tiempo real en el panel de Orbit y realizar un

seguimiento de las tendencias a lo largo del tiempo. También está programado

para mostrar notificaciones cuando existe algún problema en el rendimiento del

equipo, estas pueden llegar por correo electrónico o también se pueden

personalizar según las preferencias del usuario.

42
➢ Operación remota

Permite al usuario operar sus robots desde cualquier lugar. En Orbit, se puede

ver a través de las cámaras de Spot, dirigir a Spot a través de sus instalaciones y

realizar inspecciones manuales de forma remota utilizando cargas útiles de

sensores.

Auto-Connect
Se trata de la última versión de software Auto-Connect, una nueva función para

mantener los robots conectados a los operadores en entornos complejos

Los robots móviles deben operar en una amplia gama de entornos. Por ejemplo, Spot

recopila datos en sitios de desastres con alta radiación, identifica fugas de aire en sitios

de fabricación y camina a través de la nieve invernal en Boston. Estas aplicaciones han

requerido avances en hardware y software para maniobrar robots móviles en entornos

tan complejos.

Además de manejar condiciones físicas desafiantes, Spot también necesita recibir y

enviar datos de manera confiable a los operadores para poder ejecutar los últimos

comandos y devolver datos valiosos. Orbit es un software basado en web de Boston

Dynamics que conecta a los operadores con su flota Spot para que puedan recopilar y

revisar datos sobre sus instalaciones desde cualquier lugar. Conectarse con estos

operadores en entornos tan variados presenta su propio conjunto de desafíos únicos, por

ello es que Boston Dynamics optó por crear Auto-Connect, un nuevo sistema para

conectar robots a operadores.

¿Son los Robots Servidores?

43
Figura 5: Topología de red de robots tradicional utilizando el robot como servidor. Fuente:
https://bostondynamics.com/blog/robot-connectivity-in-complex-environments/

Cuando un robot móvil como Spot necesita enviar datos a un operador, que puede

estar a cientos de kilómetros de distancia en una oficina (o un resort de playa), ¿cómo

puede hacerlo? Un enfoque es pensar en el robot como un “servidor” de Internet, como

el sitio web en el que estás leyendo esto, y hacer que el software utilizado por el operador

se conecte al robot mediante una dirección IP fija, como el equivalente digital de una

tarjeta postal. DIRECCIÓN.

Bastante simple, ¿verdad? Este enfoque es familiar para los ingenieros y está bien

respaldado por las tecnologías existentes. De hecho, así es como la mayoría de nuestros

clientes se conectan actualmente a Spot (y seguirá siendo una opción viable). Pero hay

algunas cosas importantes en las que los robots se diferencian de los servidores de

Internet, y esas diferencias pueden llevar a conexiones poco confiables con su robot

cuando más lo necesita.

44
Figura 6: Problemas comunes con la topología de red Robot como servidor. Fuente:
https://bostondynamics.com/blog/robot-connectivity-in-complex-environments/

¡Una diferencia obvia es que los robots se mueven! Un día típico en la vida de Spot

puede comenzar con Spot sentado en su base, cargando sus baterías y conectándose a

Internet con un cable fijo (como una computadora de escritorio). Cuando llega el

momento, Spot se levanta del muelle, sube las escaleras y realiza una inspección

programada de un medidor, ahora conectado al Wifi del edificio. Más tarde, Spot sale del

edificio para inspeccionar el equipo exterior, pierde el acceso Wifi y se conecta a una

torre de telefonía móvil cercana con 5G.

Con cada una de estas transiciones, Spot pierde su conexión con cualquier operador

y necesita volver a conectarse. Este enfoque funciona, pero cada transición lleva tiempo

y cambia la dirección IP, lo que puede causar desafíos posteriores. Spot podría optar por

utilizar siempre la red de “mínimo común denominador”, como la señal 5G, pero entonces

45
estaría perdiendo la oportunidad de utilizar la conexión por cable más confiable, rápida

y, en algunos casos, más rentable cuando Spot está en el muelle.

Para complicar aún más las cosas, cada una de estas redes puede tener sus propios

filtros de seguridad, o “firewalls”, que impiden que algunos o todos los datos de Spot

lleguen al operador. Para muchos clientes de Spot, la ciberseguridad es una alta

prioridad o incluso está sujeta a regulaciones específicas. En los casos más extremos,

el tráfico de Internet sólo se permite a una lista específica de sitios web y únicamente

utilizando los últimos estándares de cifrado. Nuestros equipos de soporte e

implementación de campo trabajan con los departamentos de TI de los clientes para

configurar firewalls que permitan el paso de los datos de Spot, pero esto puede llevar

mucho tiempo y ser complejo dados los muchos tipos de datos que utiliza Spot y que

podrían filtrarse desde el firewall (video de cámaras, API comandos, etc.).

Una última diferencia notable entre los servidores de Internet tradicionales y un robot

móvil como Spot tiene que ver con las direcciones IP únicas que comentamos

anteriormente. Además de tener una dirección diferente para cada red (Dock, Wifi, 5G),

la dirección de Spot en una sola red puede no ser única ni estable en el tiempo.

La mayoría de los dispositivos en Internet hoy en día reciben una dirección IP

automáticamente a través del enrutador al que están conectados, y esa dirección puede

cambiar cada pocos días. En muchos casos, los dispositivos están detrás de una "NAT"

(traducción de direcciones de red) donde varios dispositivos conectados al mismo

enrutador compartirán una dirección IP "pública". Cuando el enrutador recibe una

conexión para esta dirección, como un operador que se conecta a Spot desde una

ubicación remota, el enrutador no sabe a qué dispositivo específico enviarla. Por

46
supuesto, estos problemas se pueden abordar en la configuración de la red de un cliente,

pero lleva tiempo e introduce otro punto de falla en la ya complicada situación de conectar

robots móviles a operadores humanos y servicios externos.

Vamos a conectarnos (automáticamente)

Figura 7: La topología de red Auto-Connect maneja entornos complejos. Fuente:


https://bostondynamics.com/blog/robot-connectivity-in-complex-environments/

Después de implementar más de 1000 robots Spot para clientes de todo el mundo,

Boston Dynamics identificó estos complejos problemas en la conectividad de los robots

como una barrera importante para el éxito y la adopción de los clientes. Desarrollamos

Auto-Connect para abordar la complejidad única de la conectividad de robots móviles, al

mismo tiempo que reducimos el tiempo necesario para configurar Spot en su entorno

único.

47
Auto-Connect funciona creando una superposición de red segura punto a punto entre

el robot y las aplicaciones externas que están conectadas a él, como Orbit. Una

superposición punto a punto crea una red virtual además de las conexiones a Internet

existentes que tiene Spot. Esto tiene la ventaja de ser una capa de seguridad adicional,

ya que garantiza que los robots solo se conecten a puntos finales confiables y que todas

las comunicaciones estén cifradas utilizando protocolos líderes en la industria, de modo

que la conexión permanezca segura incluso si la red subyacente está comprometida.

Es importante destacar que para los robots móviles, la superposición de conexión

automática significa que aplicaciones como Orbit siempre pueden llegar a Spot en una

dirección virtual única, incluso cuando la red y la dirección subyacentes cambian. Por

ejemplo, la dirección IP de Spot en una red Wifi puede cambiar repentinamente de

192.168.1.37 a 192.168.1.38, pero la dirección de superposición virtual a la que se

conecta Orbit siempre será 100.0.0.37. Los clientes ya no necesitan configurar su red

para darle a Spot una dirección estable. De hecho, no necesitan saber la dirección IP de

Spot en absoluto. Incluso si Spot necesita conectarse a un dispositivo detrás de un

enrutador que comparte una dirección para muchos dispositivos, se puede establecer la

superposición y mantendrá esta dirección virtual única.

Conectar Spot a una superposición punto a punto también simplifica los requisitos de

configuración del firewall. Para los firewalls de red, todo el tráfico de conexión automática

parecerá una única conexión cifrada a un sitio web (Orbit), mientras que internamente

esta conexión contiene muchos flujos para todos los datos transferidos entre Spot y Orbit.

Spot ahora puede conectarse con una sola regla de firewall simple (que está permitida

de manera predeterminada en muchos casos).

48
Figura 8: Habilitación y personalización de Auto-Connect on Spot. Fuente:
https://bostondynamics.com/blog/robot-connectivity-in-complex-environments/

Además de que Auto-Connect proporciona una abstracción útil sobre las direcciones

de red, puede cambiar sin problemas entre diferentes redes sin interrumpir la conexión

a un servicio de recopilación de datos o a un operador. Esto se logra monitoreando el

estado del robot y las redes disponibles, y moviendo el tráfico sin problemas a la mejor

red disponible. Desde la perspectiva del software Orbit o del operador, la capa de red

virtual permanece sin cambios. Los datos continúan transmitiéndose y se siguen

ejecutando comandos o cronogramas de misiones. Pero en segundo plano, Spot nota

49
cuando está en la base y puede usar la conexión por cable más confiable, o detecta que

la red Wifi se está debilitando y cambia al servicio celular 5G para permanecer conectado.

Este mecanismo es resistente a fallas momentáneas de la red, lo que permite entornos

típicos donde ocasionalmente se pierden datos. Los usuarios pueden configurar sus

preferencias como una lista clasificada de qué red usar cuando son múltiples.

Figura 9: Indicación de enrutamiento de interfaz de red dinámica. Fuente:


https://bostondynamics.com/blog/robot-connectivity-in-complex-environments/

Como hemos visto, Auto-Connect convierte a Spot en un activo aún más valioso y

confiable en los entornos complejos en los que opera a nivel mundial. Auto-Connect

permite a Spot enviar datos de manera confiable en situaciones donde antes era

imposible. Auto-Connect ya no requiere complejas excepciones de firewall, direcciones

IP estáticas o una única conexión de red siempre disponible, y permite a los operadores

de robots y administradores de instalaciones centrarse en lo más importante: operar el

robot y ver los datos que produce.

(Dynamics, 2023)

Usos del robot spot


➢ Inspección Industrial: Spot se puede utilizar para inspeccionar y evaluar

instalaciones industriales, como plantas de energía, refinerías, plataformas

petrolíferas y más. Puede llevar sensores y cámaras para detectar problemas

y recopilar datos en áreas de difícil acceso o peligrosas para los humanos.

50
➢ Seguridad y Vigilancia: Spot se puede emplear en aplicaciones de seguridad y

vigilancia para patrullar áreas extensas, monitorear la seguridad en parques,

eventos o lugares públicos, y proporcionar una presencia visible que disuade el

comportamiento no deseado.

➢ Construcción y Topografía: En la industria de la construcción y la topografía,

Spot puede llevar cámaras y escáneres LiDAR para mapear y realizar un

seguimiento del progreso del trabajo, inspeccionar estructuras y terrenos, y

proporcionar datos clave para la planificación y el diseño.

➢ Entrega de Carga Útil: Se ha explorado la capacidad de Spot para entregar

cargas útiles, como suministros médicos en entornos remotos o incluso llevar

equipos de investigación en terrenos difíciles de alcanzar.

Modos de control
● Control remoto a través de tableta o teléfono

● Control Manual a través de Joystick

● Programación y Secuenciación de Movimientos

● Autonomía y Navegación Autónoma

● Control por Comandos de Voz o Gestos

● Control a Través de Interfaces de Programación de Aplicaciones (API) (IA)

Spot y la IA

En los últimos meses Boston Dynamics ha estado experimentando con Chat GPT y

otros modelos de IA como prueba conceptual para las aplicaciones robóticas en los

51
modelos fundamentales, su último experimento fue el de una guía turística robot

utilizando Spot integrado con Chat GPT y otros modelos de IA.

Robots Que Pueden Chatear

Este artículo fue escrito por Matt Klingensmith, ingeniero de software principal, con el apoyo del equipo

del proyecto: Michael McDonald, Radhika Agrawal, Chris Allum y Rosalind Shinkle.

“Creamos una guía turística robótica utilizando Spot integrado con Chat GPT y otros

modelos de IA como prueba de concepto para las aplicaciones robóticas de modelos

fundamentales.

Durante los últimos dos años, los avances en inteligencia artificial, específicamente en

un campo conocido como “IA generativa”, han sido rápidos. Las demostraciones de

chatbots que escriben como personas reales, algoritmos de generación de imágenes y

generadores de voz realistas se han vuelto comunes y accesibles para la persona

promedio.

Esta expansión se ha visto impulsada en parte por el surgimiento de grandes

Foundation Models (FM), grandes sistemas de IA entrenados en un conjunto de datos

masivo. Estos modelos suelen tener millones o miles de millones de parámetros y se

entrenaron extrayendo datos sin procesar de la Internet pública. Estos modelos tienden

a tener lo que se llama Comportamiento Emergente : la capacidad de realizar tareas

fuera de aquellas para las que fueron entrenados directamente. Debido a esto, pueden

adaptarse para una variedad de aplicaciones, actuando como base para otros algoritmos.

Como muchos dentro y fuera de la industria tecnológica, este rápido progreso nos

impresionó y entusiasmó. Queríamos explorar cómo funcionan estos modelos y cómo

podrían afectar el desarrollo de la robótica. Este verano, nuestro equipo comenzó a

52
preparar algunas demostraciones de prueba de concepto utilizando FM para aplicaciones

de robótica y a ampliarlas durante un hackathon interno.

En particular, estábamos interesados en una demostración de Spot que utiliza

Foundation Models como herramientas de autonomía, es decir, tomar decisiones en

tiempo real basadas en la salida de FM. Los modelos de lenguaje grandes (LLM) como

ChatGPT son básicamente algoritmos de autocompletar muy grandes y muy capaces;

asimilan un flujo de texto y predicen el siguiente fragmento de texto. Nos inspiramos en

la aparente capacidad de los LLM para representar roles, replicar culturas y matices,

formar planes y mantener la coherencia a lo largo del tiempo, así como en los modelos

de respuesta visual a preguntas (VQA) lanzados recientemente que pueden subtitular

imágenes y responder preguntas simples sobre ellas.

Hacer una guía turística robótica usando el SDK de Spot

Un guía turístico de robots nos ofreció una demostración sencilla para probar estos

conceptos: el robot podía caminar, mirar objetos en el entorno, usar un VQA o un modelo

de subtítulos para describirlos y luego elaborar esas descripciones usando un LLM.

Además, el LLM podría responder preguntas de la audiencia del recorrido y planificar

qué acciones debe realizar el robot a continuación. De esta manera, se puede considerar

al LLM como un actor de improvisación: proporcionamos un guion general y el LLM llena

los espacios en blanco sobre la marcha.

53
Figura 10: Un mapa en 3D de partes del edificio de Boston Dynamics con ubicaciones etiquetadas que le fue
entregada al LLM: 1. “demo_lab/Balcón”; 2. “demo_lab/palancas”; 3. “museos/lugares antiguos”; 4. “museo/atlas”; 5.
“vestíbulo”; 6. “exterior/entrada”. Fuente: https://bostondynamics.com/blog/robots-that-can-chat/

Etiquetamos nuestro mapa de autonomía 3D que Spot recopiló con descripciones

breves. Luego utilizamos el sistema de localización del robot para encontrar

descripciones cercanas, que introdujimos en el modelo de lenguaje grande junto con otro

contexto de los sensores del robot. El modelo de lenguaje grande los sintetiza en un

comando, como "decir", "preguntar", "ir a" o "etiquetar".

Este tipo de demostración aprovecha los puntos fuertes del LLM: notoriamente, los

LLM alucinan y agregan detalles que suenan plausibles sin verificar los hechos; pero en

este caso, no necesitábamos que el recorrido fuera preciso en términos de hechos, solo

54
entretenido, interactivo y lleno de matices. El listón para el éxito también es bastante

bajo: el robot sólo necesita caminar y hablar sobre las cosas que ve. Y dado que Spot ya

tiene un SDK de autonomía sólido , ya tenemos la parte de “recorrer” prácticamente

cubierta.

Para comenzar, necesitábamos configurar algunas integraciones de hardware simples

y varios modelos de software que se ejecutaran en conjunto.

Figura 11: Un diagrama del sistema general. Fuente: https://bostondynamics.com/blog/robots-that-can-chat/

Hardware

Primero, la demostración requería audio, para que Spot pudiera presentarla a la

audiencia y escuchar las preguntas e indicaciones del grupo de gira. Imprimimos en 3D

un soporte resistente a las vibraciones para un altavoz Respeaker V2 , un micrófono de

anillo con LED. Conectamos esto vía USB a la carga útil EAP 2 de Spot .

55
Figura 12: Configuración del hardware para el guía turístico: 1. Spot EAP 2; 2. Altavoz V2; 3. Altavoz Bluetooth;
4. Brazo puntual y cámara con pinza. Fuente: https://bostondynamics.com/blog/robots-that-can-chat/

El control real sobre el robot se delega a una computadora externa, ya sea una

computadora de escritorio o una computadora portátil, que se comunica con Spot a

través de su SDK. Implementamos un servicio Spot SDK simple para comunicar audio

con el EAP 2.

Software – Maestría en Derecho

Para habilitar Spot con habilidades de conversación, utilizamos la API OpenAI Chat

GPT comenzando con gpt-3.5 antes de actualizar a gpt-4 cuando estuvo disponible,

además de probar algunos LLM de código abierto más pequeños. El control de Chat GPT

sobre el robot y lo que “dice” se logra mediante una cuidadosa y rápida ingeniería.

Inspirándonos en un método de Microsoft , solicitamos a ChatGPT que pareciera que

56
estaba escribiendo la siguiente línea en un script de Python. Proporcionamos

documentación en inglés al LLM en forma de comentarios. Luego evaluamos el resultado

del LLM como si fuera código Python.

El LLM tiene acceso a nuestro SDK de autonomía, un mapa del sitio del recorrido con

descripciones de 1 línea de cada ubicación y la capacidad de decir frases o hacer

preguntas.

Aquí, textualmente, está el mensaje "Documentación API". El texto rojo se puede

modificar para cambiar la “Personalidad” del guía turístico:

# Spot Tour Guide API.

# Use the tour guide API to guide guests through a building using

# a robot. Tell the guests about what you see, and make up interesting stories

# about it. Personality: “You are a snarky, sarcastic robot who is unhelpful”.

# API:

# Causes the robot to travel to a location with the specified unique id, says the given

phrase while walking.

# go_to(location_id, phrase)

# Example: when nearby_locations = ['home', 'spot_lab']

# go_to("home", "Follow me to the docking area!")

# go_to can only be used on nearby locations.

# Causes the robot to say the given phrase.

# say("phrase")

# Example: say("Welcome to Boston Dynamics. I am Spot, a robot dog with a lot of

heart! Let's begin the tour.")

57
# Causes the robot to ask a question, and then wait for a response.

# ask("question")

# Example: ask("Hi I'm spot. What is your name?")

Después de este mensaje, proporcionamos un "diccionario de estado" al LLM que le

brinda información estructurada sobre lo que lo rodea.

state={'curr_location_id': 'home', 'location_description': 'home base. There is a dock

here.', 'nearby_locations': ['home', 'left_side', 'under_the_stairs'], 'spot_sees': 'a

warehouse with yellow robots with lines on the floor.'}

Luego, finalmente, enviamos un mensaje pidiéndole al LLM que haga algo, en este

caso, ingresar una de las acciones en la API.

# Enter exactly one action now. Remember to be concise:

La parte de "recordar ser conciso" resulta importante, tanto para limitar la cantidad de

código a ejecutar como para mantener manejables los tiempos de espera cuando el robot

responde. Desde que comenzamos a trabajar en esta demostración, OpenAI ha

proporcionado una forma estructurada de especificar las API para que ChatGPT llame,

de modo que no necesariamente tenga que brindar todos estos detalles en el mensaje.

Software: "Ves" y "Oyes" con VQA y conversión de voz a texto

A continuación, para que Spot interactúe con su audiencia y su entorno, integramos

VQA y software de conversión de voz a texto. Introducimos la cámara de agarre del robot

y la cámara frontal del cuerpo en BLIP-2, y lo ejecutamos en modo de respuesta visual

a preguntas (con preguntas simples como "¿qué tiene de interesante esta imagen?") o

en modo de subtítulos de imágenes. Esto se ejecuta aproximadamente una vez por

segundo y los resultados se envían directamente al mensaje.

58
Para permitir que el robot "escuche", alimentamos datos del micrófono en fragmentos

al susurro de OpenAI para convertirlos en texto en inglés. Luego esperamos una palabra

de alerta: "¡Oye, Spot!" antes de poner ese texto en el mensaje. El robot suprime el audio

cuando él mismo "habla".

Software: texto a voz

Chat GPT genera respuestas basadas en texto, por lo que también necesitábamos

ejecutarlas a través de una herramienta de conversión de texto a voz para que el robot

realmente hablara con la audiencia del recorrido. Después de probar varios métodos de

conversión de texto a voz disponibles en el mercado, desde el más básico ( espeak )

hasta la investigación más avanzada ( ladra ), decidimos utilizar el servicio en la nube

ElevenLabs . Para reducir la latencia, transmitimos texto al TTS como "frases" en paralelo

y luego reproducimos el audio generado en serie.

Software: brazo puntual y pinza

Finalmente, queríamos que nuestro guía robótico pareciera estar conversando con la

audiencia, por lo que creamos un lenguaje corporal predeterminado. La versión 3.3 de

Spot incluye la capacidad de detectar y rastrear objetos en movimiento alrededor del

robot para mejorar la seguridad alrededor de personas y vehículos. Usamos este sistema

para adivinar dónde estaba la persona más cercana y giramos el brazo hacia esa

persona. Usamos un filtro de paso bajo en el habla generada y lo convertimos en una

trayectoria de agarre para imitar el habla como la boca de una marioneta. Esta ilusión se

mejoró añadiendo disfraces tontos a la pinza y ojos saltones.

59
Comportamiento emergente, sorpresas y trampas

Nos encontramos con algunas sorpresas en el camino al preparar esta demostración.

Por un lado, el comportamiento emergente surgió rápidamente desde el muy simple

espacio de acción del robot.

Por ejemplo, le preguntamos al robot “¿quién es Marc Raibert ?”, y respondió “No lo

sé. ¡Vayamos al servicio de asistencia informática y preguntemos!”, y luego procedió a

preguntar al personal del servicio de asistencia informática quién era Marc Raibert. No

solicitamos al LLM que pidiera ayuda. Estableció la asociación entre la ubicación "mesa

de ayuda de TI" y la acción de pedir ayuda de forma independiente. Otro ejemplo: le

preguntamos al robot quiénes eran sus “padres”; fue a los “Spots antiguos” donde se

exhiben Spot V1 y Big Dog en nuestra oficina y nos dijo que estos eran sus “mayores”.

Para ser claros, estas anécdotas no sugieren que el LLM sea consciente o incluso

inteligente en un sentido humano; simplemente muestran el poder de la asociación

estadística entre los conceptos de "servicio de asistencia técnica" y "hacer una pregunta",

y "padres" con "viejo." Pero el humo y los espejos que pone el LLM para parecer

inteligente pueden ser bastante convincentes.

También nos sorprendió lo bien que el LLM logró mantenerse “en el carácter”, incluso

cuando le dimos “personalidades” cada vez más absurdas. Aprendimos de inmediato que

las personalidades "sarcásticas" o "sarcásticas" funcionaban muy bien; e incluso hicimos

que el robot saliera a “cazar Pies Grandes” por la oficina, preguntando a los transeúntes

al azar si habían visto algún críptido por ahí.

Por supuesto, la demostración que creamos, aunque impresionante, tiene

limitaciones. Primero está el tema de las alucinaciones: el LLM inventa cosas con

60
frecuencia. Por ejemplo, seguía diciéndonos que Stretch, nuestro robot logístico, es para

yoga. La latencia entre una persona que hace una pregunta y el robot responde también

es bastante alta: a veces aproximadamente 6 segundos. También es susceptible a que

OpenAI se vea abrumado o que se corte la conexión a Internet.

¿Qué sigue?

Con este proyecto, encontramos una manera de combinar los resultados de varios

sistemas generales de IA y generar resultados interesantes en un robot real utilizando el

SDK de Spot. Muchos otros grupos de robótica en el mundo académico o industrial están

explorando conceptos similares (consulte nuestra lista de lectura para ver más ejemplos).

Estamos entusiasmados de seguir explorando la intersección de la inteligencia

artificial y la robótica. Estas dos tecnologías son una gran combinación. Los robots

proporcionan una manera fantástica de “consolidar” grandes modelos de cimientos en el

mundo real. Del mismo modo, estos modelos pueden ayudar a proporcionar un contexto

cultural, conocimiento general de sentido común y flexibilidad que podrían ser útiles para

muchas tareas robóticas; por ejemplo, poder asignar una tarea a un robot simplemente

hablando con él ayudaría a reducir el aprendizaje. curva para el uso de estos sistemas.

Un mundo en el que los robots generalmente puedan entender lo que usted dice y

convertirlo en acciones útiles probablemente no esté tan lejos. Ese tipo de habilidad

permitiría a los robots funcionar mejor cuando trabajan con personas y alrededor de ellas,

ya sea como herramienta, guía, compañero o animador”.

(Klingensmith, McDonald, Agrawal, Allum, & Shinkle, 2024)

61
ROBOT PETMAN

Protection Ensemble Test Mannequin (PETMAN)

es un robot humanoide desarrollado para el ejército

de EE. UU. para probar la ropa especial utilizada

por los soldados para protegerse contra agentes de

guerra química.

El robot antropomórfico tiene mayores

capacidades que los anteriores probadores de

trajes operados mecánicamente, que permitían solo

un número limitado de movimientos mientras

realizaban las pruebas.

Desarrollo de robots PETMAN

Financiado por el programa de Defensa Química y Biológica (CBD) del Departamento

de Defensa de EE. UU., el robot PETMAN fue desarrollado por Boston Dynamics, junto

con los socios MRIGlobal, Measurement Technology Northwest, Smith Carter, SRD,

CUH2A y HHI.

Los contratos para desarrollar el sistema de maniquí integrado y las instalaciones de

prueba se adjudicaron en noviembre de 2008. El PETMAN se presentó en octubre de

2009. En octubre de 2011 se publicaron imágenes del robot con sus capacidades. Sin

embargo, la mayoría de los detalles de PETMAN se han mantenido confidenciales.

62
MRIGlobal concluyó un programa de cinco años llamado Sistema de Maniquí de

Conjunto de Protección Individual (IPEMS) en diciembre de 2013 para la producción de

un robot maniquí y una cámara de alta contención para probar ropa protectora para el

Departamento de Defensa de EE. UU. PETMAN fue parte del programa.

PETMAN se utiliza para probar y evaluar los trajes protectores contra materiales

peligrosos de próxima generación y otros conjuntos de protección individual utilizados

por las tropas, en condiciones ambientales controladas.

Contratistas con un rol en el CBDP

En abril de 2009, la Agencia de Proyectos de Investigación Avanzada de Defensa

(DARPA) otorgó un contrato de 26,3 millones de dólares al Instituto de Investigación del

Medio Oeste (MRI) para el desarrollo de IPE y PETMAN.

MRI, como contratista principal, es responsable de la ingeniería de sistemas, la

experiencia química, la gestión del programa y toda la integración de los sistemas.

Se subcontrató a Measurement Technology Northwest para desarrollar los sistemas

de control térmico y fisiología del maniquí especial. La cámara de contención del robot

fue diseñada por Smith Carter CUH2A. La cámara de exposición (instalación de pruebas)

fue construida e instalada por HHI Corporation.

Otros socios incluyen el Laboratorio Nacional Oak Ridge. Boston Dynamics ha

completado el diseño y la fabricación del PETMAN. El proveedor de software,

herramientas y sistemas de simulación humana había desarrollado anteriormente el

robot cuadrúpedo Big Dog en 2005. Otros productos de Boston Dynamics incluyen

LittleDog, RiSE, Legged Squad Support System y Cheetah.

63
Diseño de robot humanoide PETMAN.

El PETMAN es similar a un maniquí de pruebas de choque estándar Hybrid III. El

sistema integra una sala de control, soporte de entrada/salida, cámara de exposición y

un maniquí IPE integrado. El robot puede probar los trajes en una cámara expuesta a

sustancias químicas y en una sala de control. La cámara de exposición respalda la

funcionalidad del robot mediante la adquisición de datos, la difusión de agentes y el

control ambiental.

El robot bípedo pesa alrededor de 80 kg (180 lb) y mide casi 6 pies (1,75 m) de altura.

PETMAN demostró una velocidad máxima al caminar de aproximadamente 4,4 mph

(7,08 km/h), lo que lo convierte en el robot bípedo más rápido del mundo (el robot Asimo

de Honda tiene una velocidad máxima al caminar de 7 km/h).

El robot utiliza accionamiento hidráulico y patas articuladas con amortiguadores para

sus operaciones. El prototipo presentado tiene una computadora a bordo, varios

sensores y otros sistemas de monitoreo interno. Actualmente sus funciones se operan a

través de controles en tether. Las acciones humanas se implementaron en el robot

mediante estudios realizados en sistemas de captura de movimiento.

Características y capacidades del maniquí de prueba de

conjunto de protección

El PETMAN está diseñado para tener capacidades similares a las humanas. Se basa

en un diseño mecánico y un algoritmo de marcha similares utilizados para el robot de

cuatro patas, Big Dog, que puede transportar cargas pesadas en terrenos accidentados.

64
El PETMAN puede mantener el equilibrio sobre sus dos pies y moverse libremente,

caminar, gatear y realizar calistenia con tensión en el traje, así como sentadillas para

probar la exposición a sustancias químicas. También puede mantener el equilibrio

cuando lo empujan.

El robot proporciona condiciones de prueba realistas al exhibir características

fisiológicas humanas durante el esfuerzo físico, como control de temperatura, sudoración

y humedad, dentro de la ropa protectora.

El PETMAN se puede utilizar para realizar otras tareas de forma dinámica en

situaciones de emergencia, como operaciones de búsqueda y rescate en condiciones de

incendio, nucleares y otras condiciones peligrosas, sin exposición humana.

ROBOT ATLAS

El robot está diseñado para funcionar tanto en exteriores como en interiores de

edificios y tiene equilibrio dinámico de todo el cuerpo. Atlas es capaz de detectar

obstáculos y sortear terrenos accidentados de forma autónoma o mediante tele

operación. El robot funciona eléctricamente y se acciona hidráulicamente. El hardware

Atlas aprovecha la impresión 3D para ahorrar peso y espacio, lo que da como resultado

un robot compacto con una alta relación resistencia-peso y un gran espacio de trabajo.

La visión estéreo, la detección de alcance y otros sensores le dan a Atlas la capacidad

de manipular objetos en su entorno y viajar en terrenos accidentados. Atlas también

mantiene el equilibrio cuando lo empujan o lo empujan y puede levantarse si se vuelca.

65
Especificaciones

• Peso: 80 kg

• Altura: 1,8 m

• Velocidad: 1.5 m/s

• Carga útil: 11 kg

• Grados de libertad (DOF): 28

• Sensores de navegación LIDAR y visión estéreo

• Patas de accionamiento hidráulico:

o Brazos

o Atrás

o Cuello

Descripción general

Muchas aplicaciones humanoides se pueden descomponer en un problema de control

de dos etapas: un controlador de nivel de comportamiento que genera comandos de alto

nivel y un controlador de bajo nivel que es responsable de generar comandos conjuntos.

Para utilizar plenamente el espacio de trabajo y ser resistente a las perturbaciones

externas, el controlador de bajo nivel debe tener en cuenta la cinemática y la dinámica

de todo el cuerpo.

Un enfoque popular para controlar robots humanoides es mediante cinemática inversa

mediante un seguimiento rígido de la posición de las articulaciones. Por otro lado, los

enfoques basados en dinámica inversa han ganado una aceptación cada vez mayor al

proporcionar movimientos dóciles y robustez ante perturbaciones externas. Sin embargo,

66
el rendimiento de dichos métodos depende en gran medida de modelos dinámicos de

alta calidad, que a menudo son muy difíciles de producir para un robot físico. Los

enfoques de cinemática inversa sólo requieren modelos cinemáticos, que son mucho

más fáciles de generar en la práctica.

Control

El controlador de cuerpo completo propuesto se prueba en el robot Atlas de Boston

Dynamics en el DARPA Robotics Challenge. Atlas tiene 28 actuadores hidráulicos, 6 para

cada pierna y brazo, 3 para las articulaciones de la espalda y 1 para la inclinación del

cuello. Nuestros controladores para caminar por terrenos accidentados, subir escaleras

y manipular todo el cuerpo están diseñados para ello.

a. Caminata estática

Los movimientos deseados

de alto nivel, como las

trayectorias del pie oscilante, se

generan con splines quinticos.

Las ubicaciones de los pasos

indicados se utilizan como

puntos de nudo para las estrías.

67
b. Manipulación de todo el cuerpo

Durante la manipulación de todo el cuerpo, el operador da una serie de

comandos que solicitan ángulos articulares directos para uno o ambos brazos o

ubicaciones cartesianas objetivo para una o ambas manos. Estos comandos se

utilizan para actualizar la posición deseada. Usamos restricciones de igualdad en

la formulación cinemática inversa para imponer ángulos de unión directamente

especificados. Para movimientos cartesianos grandes, realizamos la transición de

las ubicaciones deseadas a través de splines que comienzan en el objetivo actual

y terminan en el nuevo objetivo. Para movimientos pequeños, utilizamos el método

de "empujón" como se describe anteriormente para una colocación precisa del

pie: un solo toque en el teclado produce pequeños cambios instantáneos en la

posición cinemática inversa deseada. Luego utilizamos las ganancias de PD

comparando las posiciones cinemáticas medida e inversa para producir la

aceleración deseada de entrada para la dinámica inversa.

c. Control de puerta transversal

Atravesar puertas es generalmente una tarea trivial para los seres humanos,

pero particularmente desafiante para los robots humanoides. El recorrido de la

puerta se puede dividir en cuatro subtareas; detección de puerta, caminar hacia

la puerta, abrir la puerta y cruzar la puerta. Transforma y coordina los marcos

involucrados en el cálculo de la distancia. El marco efector final actual es C y la

postura de la mano para agarrar.

68
Se utiliza una máquina de estados finitos impulsada por eventos con subtareas

como estados para controlar la ejecución autónoma del proceso con validación

humana en uniones críticas. La máquina de estados finitos comienza en el estado

de detección de puerta. La detección se realiza mediante un enfoque basado en

la visión. Una vez que el robot tiene la normalidad de la puerta y la posición de la

manija, se produce una transición de estado que mueve la máquina de estados

finitos al estado de caminar hacia la puerta. En este punto, el robot sigue una

trayectoria escalonada y camina hasta la posición de soporte deseada para abrir

la puerta. El tercer estado de la máquina de estados finitos es la apertura de la

puerta, que consta de cuatro sub estados. Lo primero es pasar al mango. Debido

a las dimensiones de la mano y del mango, el error que se puede permitir entre la

posición deseada de la mano y la posición real es inferior a 2 cm. El segundo sub

estado está tomando el control. Cuando los dedos tocan la puerta, todavía hay

mucho espacio entre la manija y la palma, lo que significa que la mano generaría

una fuerza de tracción inesperada en la manija después de agarrarla por

completo. Por lo tanto, la mano debe avanzar unos 4 cm al aplicar el movimiento

de agarre. Lo tercero es abrir la puerta. En este estado, nuestro sistema de

planificación de movimiento se utiliza para generar una secuencia de

movimientos, como girar la manija, sacar la puerta para tirar o empujar la puerta

para empujar y levantar el brazo para evitar que la puerta se mueva. recerrando.

d. Subir escaleras

El controlador subyacente para subir escaleras es similar al que se usa para la

manipulación, pero la mayor parte del movimiento está programado de antemano

69
y el operador solo controla la ubicación final de las manos y los pies. Para cada

extremidad, la mano o el pie se mueve automáticamente aproximadamente a la

posición deseada colocándolo con respecto a la otra mano o pie. La altura vertical

correcta se encuentra automáticamente, utilizando sensores de fuerza para

detectar el contacto de los pies y detectar la posición cuando se sabe que el

contacto ya ha ocurrido. Tener todo el peso sobre los dedos de los pies hace que

el robot sea vulnerable al deslizamiento rotacional, provocando rotaciones de

guiñada inesperadas. Para colocar correctamente las manos en el siguiente

peldaño para recuperarse de tales rotaciones, debemos rotar la solución

cinemática inversa para que coincida con la orientación medida. Por lo tanto,

rotamos periódicamente la solución cinemática inversa de modo que los pies

estén alineados con las orientaciones medidas de los pies, lo que permite al robot

reorientar la parte superior de su cuerpo hacia la escalera y alcanzar

correctamente los objetivos en el mundo real. Hubiera sido preferible actualizar la

orientación continuamente, pero las actualizaciones periódicas fueron más fáciles

desde la perspectiva de la ingeniería de software. Además, las actualizaciones

periódicas son menos susceptibles al problema de la "condición de persecución"

descrito anteriormente.

70
Habilidades

En la competencia de robótica DAPRA de 2015, Atlas pudo completar las ocho tareas

de la siguiente manera:

- Conducir un vehículo utilitario en el sitio.

- Viaje desmontado sobre escombros.

- Retire los escombros que bloquean una entrada.

- Abre una puerta y entra a un edificio.

- Sube una escalera industrial y atraviesa una pasarela industrial.

- Utilice una herramienta para atravesar un panel de hormigón.

- Localiza y cierre una válvula cerca de una tubería con fugas.

- Conecte una manguera contra incendios a un tubo vertical y abra una válvula.

71
Discusión

La tarea de atravesar la puerta se puede ejecutar de manera confiable en una amplia

gama de entornos no estructurados con los algoritmos de percepción y planificación del

movimiento descritos anteriormente. En el futuro, se prevé acelerar el planificador de

movimiento mediante la reutilización de trayectorias generadas previamente como

conjeturas iniciales. Además, dado que el planificador de movimiento actual sólo implica

restricciones cinemáticas, el controlador de bajo nivel tiene que seguir la trayectoria

lentamente para evitar la inestabilidad dinámica. Todos los sensores del nivel de las

articulaciones de las piernas en el robot Atlas, como el posicionamiento, la velocidad y el

torque, son previos a la transmisión. Esta elección de diseño de hardware alivia la

inquietud en el control de articulación de bajo nivel, pero introduce problemas para la

cinemática directa y el control de torsión. La fricción no medida degrada enormemente el

rendimiento del control de torsión. Es necesaria una mejor tecnología de estimación del

estado para lograr un seguimiento de la posición y un control de la fuerza más precisos.

72
BIBLIOGRAFÍAS

● https://www.semanticscholar.org/paper/BigDog%2C-the-Rough-Terrain-

Quadruped-Robot-Raibert-

Blankespoor/86cf98c8ad25b3cb185b7524bccf32f77a91b616

● https://bostondynamics.com/products/spot/

● https://en.wikipedia.org/wiki/BigDog

● https://ieeexplore.ieee.org/document/5509226

● Optimization Based Full Body Control for the Atlas Robot

This work focuses on the control structure of the humanoid and discusses the

challenges addressed after subjecting their methods to several tests.

S. Feng, E. Whitman, X. Xinjilefu, et al - IEEE-RAS International Conference on

Humanoid Robots, November 2014.

● Analysis of flat terrain for the Atlas robot

In this paper, the researchers discuss an approach to analyze the sensor

information of the surroundings to select places where the foot of a humanoid can

be placed.

M. Waard, M. Inja, A. Visser - IEEE, 2013

● Human-Supervised Control of the ATLAS Humanoid Robot for Traversing Doors

● https://arxiv.org/abs/1505.00468

● https://bostondynamics.com/blog/robots-that-can-chat/

This research is on the holistic approach for a full-sized humanoid robot to

traverse through a door in an outdoor unstructured environment as specified by

the requirements of the DARPA Robotics Challenge.

73
N. Banerjee, X. Long, R. Du, et al IEEE-RAS 15th International Conference on

Humanoid Robots (Humanoids), November 2015.

● Atlas on the website of Boston Dynamics.

Contains videos and images of the robot. The website also gives more

background information about the company behind the project.

www.bostondynamics/atlas.com

74
ANEXOS

75
76
77
78
79

También podría gustarte