Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Ir a la navegaciónIr a la búsqueda
Índice
1 Término
1.1 Otros términos
2 Historia
2.1 2007
2.2 2010
2.3 2014 a 2017
2.4 Estado del arte en 2021
3 Sensores
4 Aplicaciones
4.1 Características y limitantes de la tecnología
5 Categorías
5.1 SLAM visual indirecto
5.2 SLAM visual directo
5.3 SLAM visual e inercial
5.4 SLAM visual semántico
5.5 Inteligencia artificial espacial
6 Partes de un sistema de SLAM visual
6.1 Tecnologías involucradas
6.2 Tecnologías emparentadas
7 Sistemas de SLAM visual
8 Enlaces externos
9 Referencias
Término
SLAM visual es una traducción aproximada del inglés visual SLAM donde el acrónimo
SLAM (Simultaneous Localization And Mapping) ha cobrado significancia universal
convirtiéndose en un nombre propio, de manera que se lo adopta como anglicismo y se
lo prefiere frente a su versión traducida MYLS (Mapeo Y Localización Simultáneos)
que nadie utiliza.
visual SLAM
vSLAM
monocular SLAM
PTAM
Historia
2007
El proyecto iniciador de SLAM visual fue el publicado en el paper MonoSLAM3 en 2007
de Andrew Davison, que describió el primer algoritmo capaz de realizar SLAM en
tiempo real con las imágenes de una cámara. MonoSLAM es un acrónimo de monocular
SLAM, que hace hincapié en el uso de una cámara única (monocular, contrario a
estereoscopía) como único sensor. La PC requería GPU , la aplicación funcionaba
como prueba de concepto pero era muy limitada para usos prácticos, pues rápidamente
se quedaba sin memoria por lo que sólo podía mapear pequeñas habitaciones. Con
posterioridad a la publicación y debido al creciente interés, Davidson compartió el
código que se podía descargar desde su página.
2010
El mismo laboratorio creador de MonoSLAM presentó DTAM: Dense Tracking and Mapping
in Real-Time, el primer sistema directo que no se concentra en puntos sino que
utiliza la imagen completa, denominando por oposición SLAM visual indirecto al
resto de los sistemas.
2014 a 2017
En 2014 la Universidad Técnica de Munich (TUM) publicó LSD-SLAM,4 Large Scale
Direct SLAM,5 iniciando la categoría SLAM visual semidirecto y marcando un hito
histórico: fue el primer sistema capaz de ejecutarse en tiempo real en una PC sin
GPU y de los primeros en publicar su código fuente como código abierto, lo que
facilitó la instalación y prueba a miles de aficionados que popularizaron las
posibilidades de SLAM visual. A partir de LSD-SLAM los sistemas de SLAM visual se
abocarían al uso en tiempo real sin GPU en una PC y a publicar su código fuente
abierto para conseguir el apoyo de la comunidad en su depuración y mejora.
ORB-SLAM2 y LSD-SLAM representan el estado del arte y son los grandes pilares de
las categorías de sistemas indirecto y semidirecto . ORB-SLAM2 parece haber
presentado mejor base para refinamientos y desarrollo de características
superiores, y se usa como base para mejoras paulatinas, como lo demuestran ORB-
SLAM3 (2021), SVDL (2019) y OpenVSLAM (2019), tres proyectos destacados entre
muchos otros.
Sensores
Hay esencialmente 3 tipos de cámaras usadas en SLAM visual:
monocular: una sola cámara, tal como fue formulado el problema original
cámara estéreo: dos cámaras de pose conocida, típicamente paralelas y alineadas
cámara RGB-D: cámaras de profundidad, relevan un modelo 3D pero con baja resolución
Algunos sistemas complementan la cámara con un acelerómetro 3D, entrando en la
categoría SLAM visual e inercial.
Aplicaciones
Si bien esta tecnología ha madurado en laboratorio, todavía tiene un largo camino
para llegar a productos. Las principales aplicaciones son:
Los sistemas SLAM visuales tienen fuertes limitantes: requieren una escena
visualmente estática, lo que implica que no tenga partes móviles ni cambios de
iluminación. Las partes móviles interfieren con el proceso de mapeo. Los cambios de
iluminación hacen irreconocibles los elementos mapeados. Los sistemas más modernos
son robustos, diseñados para tolerar una porción de elementos visuales en
movimiento siempre que no dominen la vista, y algún cambio de iluminación. Como
consecuencia estos sistemas no son compatibles con estos tipos de escena:
escenas naturales, con pasto que crece y cambia su aspecto a lo largo de los días,
y árboles cuyas ramas se mueven por el viento
ambientes con muebles que cambiarán de posición
no reconoce la misma escena de día y de noche
Por lo expuesto, estos sistemas funcionan mejor en ambientes artificiales
(construidos por el hombre), usualmente en lugares cerrados con iluminación
artificial. En cuanto a navegación autónoma se distingue su uso en ámbitos privados
y en la vía pública. En ámbitos privados pequeños (casas y oficinas) o grandes
(countries y establecimientos industriales) SLAM visual se tiene una aplicación
experimental exitosa con drones y para robots móviles (AGV). En vía pública, más
específicamente en automotores autónomos, SLAM visual puede incorporarse como un
sistema accesorio, pero no se lo considera como sistema de navegación principal.
Estos vehículos tienden a emplear otros sistemas de SLAM más confiables, pero que
emplean sensores muchos más caros que las cámaras.
Categorías
A medida que se avanza en la investigación y desarrollo de SLAM visual, el problema
se va especializando paulatinamente y surgen categorías no excluyentes que agrupan
los diferentes abordajes.
SLAM
SLAM visual
SLAM visual directo
SLAM visual semidirecto
SLAM visual indirecto
SLAM visual e inercial
SLAM visual semántico
Spatial AI: Inteligencia artificial espacial
Por operar sobre puntos, esta categoría también recibe el nombre de SLAM visual de
partículas., o también basado en características.
Inicialización
Mapeo y localización en paralelo
Localización sin mapeo
Relocalización
Cierre de bucle
Fusión de mapas
Sacrificio de elementos redundantes (map culling)
Tecnologías involucradas
SLAM visual es un problema extremadamente complejo, que requiere el uso experto de
una larga serie de tecnologías diversas que combinan geometría, informática, visión
artificial y optimización numérica. Éste es un resumen no exhaustivo:
Odometría visual
Structure from motion
Sistemas de SLAM visual
Alrededor de 2014 se hizo costumbre acompañar las publicaciones de papers de SLAM
visual, con código abierto disponible usualmente en GitHub y para Linux. Es
inviable confeccionar una lista exhaustiva de todos los sistemas de SLAM visual, a
continuación se listan los más destacados.
youtube.com
LSD-SLAM stereo 2015 vision.in.tum.de semidirecto estéreo youtube.com
LSD-SLAM omnidireccional 2015 vision.in.tum.de semidirecto gran angular
omnidireccional
youtube.com
ORB-SLAM 2015 webdiis.unizar.es indirecto monocular github.com
Linux
RGB-D
github.com
Linux
youtube.com
Visual-Inertial Monocular SLAM With Map Reuse 2017 indirecto monocular
IMU
youtube.com
OpenVSLAM 2019 readthedocs.io Indirecto monocular
gran angular
omnidireccional
estéreo
RGB-D
IMU
github.com
Linux
Windows
Mac
youtube.com
SVDL 2019 indirecto
semidirecto
github.com youtube.com
Visual-Inertial Mapping with Non-Linear Factor Recovery 2020 vision.in.tum.de
indirecto monocular
IMU
github.com youtube.com
ORB-SLAM3 2021 Indirecto monocular
gran angular
omnidireccional
estéreo
RGB-D
IMU
github.com
Linux
youtube.com
Los primeros sistemas de SLAM visual se hicieron sobre MatLab. Al poco tiempo
buscando eficiencia computacional los sistemas se comenzaron a desarrollar en C++,
el lenguaje que domina la escena en la actualidad. La gran mayoría de los
desarrollos se realizan sobre Linux, el código abierto se comparte para ser
compilado. Con la permanente evolución de WSL nuevos sistemas de SLAM visual
comienzan a incluir instrucciones para instalación en Windows.
Enlaces externos
OpenSLAM, sitio web con código y herramientas de SLAM visual
Referencias
«Video de donde se obtuvo la imagen de ORB-SLAM2».
«Sitio web de PTAM».
«Paper de MonoSLAM».
«Sitio de LSD-SLAM del grupo de visión artificial de TUM».
«Video de LSD-SLAM».
«Sitio del proyecto ORB-SLAM».
«Video de ORB-SLAM2».
«Paper de Visual-Inertial Monocular SLAM with Map Reuse».
«Video de dron autónomo con LSD-SLAM».
«Video de realidad aumentada con ORB-SLAM2».
«FutureMapping: The Computational Structure of Spatial AI Systems».
Control de autoridades
Proyectos WikimediaWd Datos: Q104724151
Categorías: RobóticaVisión por computadoraVehículos autónomos
Menú de navegación
No has accedido
Discusión
Contribuciones
Crear una cuenta
Acceder
ArtículoDiscusión
LeerEditarVer historial
Buscar
Buscar en Wikipedia
Portada
Portal de la comunidad
Actualidad
Cambios recientes
Páginas nuevas
Página aleatoria
Ayuda
Donaciones
Notificar un error
Herramientas
Lo que enlaza aquí
Cambios en enlazadas
Subir archivo
Páginas especiales
Enlace permanente
Información de la página
Citar esta página
Elemento de Wikidata
Imprimir/exportar
Crear un libro
Descargar como PDF
Versión para imprimir
En otros idiomas
Añadir enlaces
Esta página se editó por última vez el 13 oct 2021 a las 02:34.
El texto está disponible bajo la Licencia Creative Commons Atribución Compartir
Igual 3.0; pueden aplicarse cláusulas adicionales. Al usar este sitio, usted acepta
nuestros términos de uso y nuestra política de privacidad.
Wikipedia® es una marca registrada de la Fundación Wikimedia, Inc., una
organización sin ánimo de lucro.
Política de privacidadAcerca de WikipediaLimitación de responsabilidadVersión para
móvilesDesarrolladoresEstadísticasDeclaración de cookiesWikimedia FoundationPowered
by MediaWiki