Está en la página 1de 1

MODELO CINEMÁTICO PARA DATA SENSOR FUSION

EN VEHÍCULO VOLADOR NO TRIPULADO


Oscar Javier Montañez Sogamoso
GINTEL
oscarjavier.montanez@uptc.edu.co

Resumen

Los sistemas de navegación autónoma actuales, exigen en su


correcto funcionar la implementación de conjuntos de sensores
que permitan medir una misma variables a partir de fenómenos
físicos a menudo diferentes. Brindando una segunda perspectiva
al controlador-pc cerebro del sistema autónomo[1-2]. Esta
implementación de conjunto de sensores hace uso de diferentes
técnicas: estadística[3], de lógica difusa y para el caso de este
trabajo el filtro Kalman Extendido (Extended Kalman Filter,
EKF)[4]. Esta último, parte del modelado cinemático en el que la
fusión de sensores tiene lugar y a partir de ahí lograr una efectiva
fusión de datos, filtrados contra las posibles incertidumbres en
mediciones realizadas por los sensores al sistema medido[5].
Fig. 1. Revisión de Estado del Arte
Formulación del problema

Examinar la posibilidad de generar un filtro Kalman para la


fusión de sensores LiDAR y RADAR en un vehículo volador no
tripulado omnidireccional, a partir de los trabajos previos Resultados
realizados por autores con respecto a la navegación autónoma de Las ecuaciones obtenidas corresponden a:
vehículos automotores.
Objetivos
General Generar un modelo para la fusión de datos de sensores
haciendo uso de un EKF para un Sensor LiDAR y un radar.
Específicos:
• Identificar trabajos previos realizados por diferentes autores en
el tema de EKF para ser implementados en un vehículo
volador omnidireccional.
• Generar un modelo cinemático para la fusión de sensores.
• Garantizar un bajo uso de CPU para eficiencia energética.
• Plantear escenarios de simulación para evaluar el desempeño del
modelo propuesto.
Metodología Bibliografía
El proceso de investigación tiene su inicio con la revisión de [1] T. Kim, J. Lee and T. Park, "Fusing Lidar, Radar, and Camera Using Extended Kalman Filter for
Estimating the Forward Position of Vehicles," 2019 IEEE International Conference on Cybernetics
trabajos previos: artículos, tesis y libros sobre el tema en busca and Intelligent Systems (CIS) and IEEE Conference on Robotics, Automation and Mechatronics
de modelos allegados al objetivo de esta investigación. Teniendo (RAM), 2019, pp. 374-379, doi: 10.1109/CIS-RAM47153.2019.9095859
[2] Y. Wang, D. Liu and E. Matson, "Accurate Perception for Autonomous Driving: Application of
en cuenta factores como: Kalman Filter for Sensor Fusion," 2020 IEEE Sensors Applications Symposium (SAS), 2020, pp. 1-
6, doi: 10.1109/SAS48726.2020.9220083.
- ¿Cuáles son los métodos para fusión de datos de sensores más [3] J. Han, J. Kim and N. Son, "Persistent automatic tracking of multiple surface vessels by fusing
usados por los diferentes autores? radar and lidar," OCEANS 2017 - Aberdeen, 2017, pp. 1-5, doi: 10.1109/OCEANSE.2017.8084714.
[4] B. Kim, K. Yi, H. Yoo, H. Chong and B. Ko, "An IMM/EKF Approach for Enhanced
-¿Cuáles son los modelos cinemáticos mas convenientes para el Multitarget State Estimation for Application to Integrated Risk Management System," in IEEE
modelado del sistema teniendo en cuenta qué se hará uso de un Transactions on Vehicular Technology, vol. 64, no. 3, pp. 876-889, March 2015, doi:
10.1109/TVT.2014.2329497.
sensor LiDAR y un RADAR? [5] H. Lee, H. Chae, K Yi, “A geometric Model based 2D LiDAR/Radar Sensor Fusion Tracking
Surronounding Vehicles” 2019 International Federation of Automatic Control hosting by Elseiver
(IFAC), 2019, pp 131-135, doi: 10.1016/j.ifacol.2019.08.060.

Centro de Gestión de
Investigación y Extensión de la
Facultad Seccional Sogamoso

También podría gustarte