Documentos de Académico
Documentos de Profesional
Documentos de Cultura
I. INTRODUCCIÓN
La mayoría de los fabricantes de automóviles emplean
algún tipo de sistema de cámaras, al menos en sus modelos de
gama alta, ya sea una simple cámara de visión trasera para
protección en caso de vuelco, una cámara frontal para aviso de
salida de carril, aviso de colisión frontal, etc., o cámaras
estéreo para una estimación más completa de la profundidad
del entorno por delante del vehículo. Naturalmente, las
aplicaciones más avanzadas requieren unidades de
procesamiento de gama más alta y, como tales, suponen un
mayor coste de producción para los fabricantes. Sin embargo,
a medida que avanza la legislación sobre seguridad de los
automóviles, los sistemas de cámaras se irán incorporando
cada vez más a los vehículos de gama baja, y pronto serán un
equipamiento de serie en muchas variantes de vehículos.
La Fig. 1 ofrece una visión general de varias aplicaciones
actuales basadas en la visión, desde aplicaciones de
visualización como Surround View (SV) hasta sistemas de
asistencia al conductor como Cross Traffic Alert (CTA), Park
Assist (PA) y Collision Warning (FCW y RCW). También se
están produciendo (o se producirán pronto) varios sistemas de
visión críticos para la seguridad, como el Control de Crucero
Adaptativo (ACC) y la sustitución electrónica de retrovisores
(CMS). Lo que salta a la vista es que los sistemas de cámaras
se cuentan entre los sensores más versátiles disponibles para el
mercado de la automoción, ya que ofrecen la gama de
aplicaciones más amplia de todos los sistemas de sensores.
El objetivo de este artículo es ofrecer un estudio de alto
nivel sobre la tecnología, el desarrollo de aplicaciones de
visión y las tecnologías actuales y futuras. Se incluirán los
tema pertinente, ya que en muchas jurisdicciones los
legisladores están empezando a aplicar leyes que permiten los
vehículos autónomos en las vías públicas. Con ello, están
reconociendo el hecho de que los vehículos autónomos
revolucionarán la industria automovilística en todo el mundo,
al mejorar la seguridad vial, la eficiencia del tráfico y la
experiencia general de la conducción. Discutiremos la
necesidad de modelar y formular el problema en un marco
genérico, que sea robusto y escalable para dar soporte a
diferentes aplicaciones. También propondremos un modelo
de software genérico escalable para el desarrollo de ADAS
basados en la visión.
Fig. 1. Interconexión del sistema de cámaras y campo de visión de la
aplicación.
II. TAXONOMÍA
En esta sección, presentamos diferentes formas de
clasificar los sistemas de visión y su uso para ofrecer
funcionalidades ADAS. En la bibliografía actual, no existe
una terminología y una clasificación coherentes para las
aplicaciones analizadas en este documento. Aquí proponemos
una terminología coherente y precisa para los ADAS basados
en la visión.
A. Aplicaciones establecidas
Las aplicaciones ADAS basadas en la visión empezaron a
aparecer en la producción en serie a principios de la década de
2000 con el lanzamiento de sistemas como la advertencia de
abandono de carril (LDW) [8]. Desde entonces, se ha
producido un rápido desarrollo en el área de los ADAS
basados en la visión. Esto se debe a las enormes mejoras en el
hardware de procesamiento e imagen, y al impulso de la
industria automovilística por añadir más funciones ADAS con
el fin de aumentar la seguridad y mejorar el conocimiento de
la marca en el mercado. Como las cámaras se están aceptando
rápidamente como equipamiento de serie para mejorar la
visibilidad del conductor (sistemas de visión envolvente), es
lógico que estos sensores se empleen paralelamente para
aplicaciones ADAS.
B. Aplicaciones emergentes
Mientras que las aplicaciones establecidas mencionadas
anteriormente siguen desarrollándose para mejorar su
robustez, precisión y disponibilidad, hay una serie de nuevas
aplicaciones ADAS en desarrollo. Estas nuevas ayudas al
conductor suelen requerir una combinación de las aplicaciones
establecidas, además de algunas funciones de visión de nuevo
desarrollo, así como la fusión con otras tecnologías de
sensores. A continuación presentamos algunas de las muchas
aplicaciones ADAS que llegarán al mercado en los próximos
años.
VI. CONCLUSIÓN
En este documento hemos descrito para la comunidad ITS
una taxonomía del campo de la visión por ordenador en las
aplicaciones ADAS. Discutimos algunos de los usos actuales
y futuros de la visión por ordenador en el desarrollo
comercial de vehículos autónomos. También se propuso una
arquitectura escalable para el desarrollo de aplicaciones de
visión.
La ADAS basada en la visión es un área amplia y
apasionante con muchos retos. A su vez, esto está impulsando
el desarrollo de la teoría de la visión por ordenador. La visión
por ordenador es un campo de investigación en el que es fácil
hacer funcionar un prototipo, pero sigue siendo difícil
conseguir un sistema preciso que pueda utilizarse en un
vehículo de producción. Hace cinco años la conducción
autónoma parecía imposible, pero después de que Google
demostrara su coche sin conductor, se ha producido un rápido
progreso e interés en el desarrollo de la tecnología. La
mayoría de los grandes
fabricantes de vehículos están promoviendo algún tipo de [10] S. Sivaraman y M. Trivedi, "Looking at Vehicles on the Road: A Survey
autonomía de los vehículos. Los sistemas de visión of Vision-Based Vehicle Detection, Tracking, and Behavior
A n a l y s i s ", Intelligent Transportation Systems, IEEE Transactions
desempeñan un papel importante como sensores de detección on, 14(4):1773-1795, 2013.
y como parte de la HMI de los vehículos autónomos, lo que [11] J. Leea, at al., "Lane-keeping assistance control algorithm using
convierte a las cámaras en una atractiva solución de sensores. differential braking to prevent unintended lane departures", Control
El aumento de la demanda de visión por ordenador en Engineering Practice 23:1-13, 2014.
automoción, unido al incremento de la resolución de imagen [12] A. López, et al., "Nighttime Vehicle Detection for Intelligent Headlight
(1 megapíxel es el estándar actual), ha hecho que la potencia Control", Lecture Notes in Computer Science, 5259:113-124, 2008.
de cálculo de los procesadores aumente también enormemente. [13] Y. Dong, et al., "Driver Inattention Monitoring System for Intelligent
Dispositivos recientes como EyeQ4 y Tegra X1 tienen >10 Vehicles: A Review", Intelligent Transportation Systems, IEEE
Transactions on, 12(2):596-614, 2010.
veces más potencia de procesamiento que los dispositivos
utilizados anteriormente, como los SOC utilizados en el [14] E. Ohn-Bar y M. Trivedi, "Hand Gesture Recognition in Real Time for
Automotive Interfaces: A Multimodal Vision-Based Approach and
proyecto Audi zFAS [36]. Aunque en un futuro inmediato no Evaluations", Intelligent Transportation Systems, IEEE Transactions on
sea posible fabricar en serie un coche totalmente autónomo, el 15(6): 2368-2377, 2014.
impulso hacia ese objetivo está impulsando la robustez, la [15] Y.-C. Liu, et. al, "Bird's-Eye View Vision System for Vehicle
precisión y el rendimiento de las aplicaciones de visión. En Surrounding Monitoring", Lecture Notes in Computer Science
consonancia, organismos reguladores como EuroNCAP y 4931:207-218, 2008.
NHTSA están introduciendo una legislación progresiva para [16] Noche Ver Asistencia Más: el tercer ojo -
imponer sistemas de seguridad obligatorios, a pesar de los http://www.daimler.com/dccom/0-5-1210218-1-1210320-1-0-0- 1210228-
0-0-135-0-0-0-0-0-0-0-0.html
problemas de responsabilidad, y están empezando a legislar
[17] T. Ringbeck y B. Hagebeuker, "A 3D time of flight camera for object
para permitir la circulación de vehículos autónomos en la red detection", Optical 3-D Measurement Techniques, 2007.
de carreteras públicas. [18] Documentación de OpenCV - http://docs.opencv.org/
Debido a la limitación de páginas, el contenido de este [19] R. Szeliski, Computer Vision: Algorithms and Applications, Springer,
estudio es de alto nivel. Los autores están trabajando en un 2010.
estudio más detallado que también incluirá los aspectos de [20] A. B. Hillel, R. Lerner, D. Levi, G. Raz, "Recent progress in road and
lane detection: a survey", Machine Vision and Applications 25(3):727-
hardware y software del desarrollo de ADAS basados en la 745, 2014.
visión. Los algoritmos pueden estar estrechamente
[21] L. Najman y M. Schmitt. "Watershed of a continuous function", Signal
relacionados con el tipo de hardware utilizado, de ahí el Processing 38:99-112, 1994.
campo de la visión integrada. También cubriremos los [22] C. Harris y M. Stephens, "A combined corner and edge detector",
procesos de desarrollo de software para automoción que Proceedings of the 4th Alvey Vision Conference, pp. 147-151, 1988.
abarcan la seguridad funcional, etc. El marco estadístico [23] B. D. Lucas y T. Kanade "An iterative image registration technique with
escalable se tratará con más detalle con un modelado y análisis an application to stereo vision", Proceedings of Imaging Understanding
estadístico más formalizado que abarque ejemplos concretos. Workshop, pp. 121-130, 1981.
[24] B.K.P. Horn y B.G. Schunck, "Determinación del flujo óptico".
Artificial Intelligence 17:185-203, 1981.
REFERENCIAS
[25] R. Hartley y A. Zisserman, Multiple View Geometry in Computer
[1] F. Stein, "El reto de poner algoritmos de visión en un coche". Computer V i s i o n , Cambridge University Press, marzo de 2004.
Vision and Pattern Recognition Workshops (CVPRW), 2012 IEEE [26] R. E. Kalman, "A New Approach to Linear Filtering and Prediction
Computer Society Conference on. IEEE, 2012. Problems". Journal of Basic Engineering 82: 35, 1960.
[2] B. Kisačanin y M. Gelautz. Avances en visión por ordenador embebida. [27] P. Del Moral, "Filtrado no lineal: Interacting Particle Solution". Markov
Cham: Springer International Publishing, 2014. Processes and Related Fields 2 (4):555-580, 1996.
[3] A. Chavan y S. K. Yogamani, "Electr. & Comput. Eng, Texas Tech [28] P. Dollar, et al., "Detección de peatones: An evaluation of the state of
Univ., Lubbock, TX, USA". ITS Telecommunications (ITST), 2012 the art", Pattern Analysis and Machine Intelligence, IEEE Transactions
12th International Conference on. IEEE, 2012. on 34(4): 743-761, 2012.
[4] T. E. Trimble, et al., "Human Factors Evaluation of Level 2 and Level 3 [29] A. Geiger, et. al., "¿Estamos preparados para la conducción autónoma?
Automated Driving Concepts: Past Research, State of Automation The KITTI Vision Benchmark Suite", Conference on Computer Vision
Technology, and Emerging System Concepts", nº DOT HS 812 043. and Pattern Recognition (CVPR), 2012.
2014.
[30] Shotton, Jamie, et al., "Real-time human pose recognition in parts from
[5] A. Mogelmose, M. Trivedi y T. B. Moeslund. "Detección y análisis de single depth images", Communications of the ACM 56(1):116-124,
señales de tráfico basados en la visión para sistemas inteligentes de 2013.
asistencia al conductor: Perspectivas y encuesta". Sistemas de transporte
inteligentes, IEEE Transactions on 13,4 (2012): 1484-1497. [31] R. Mottaghi, et al., "The role of context for object detection and
semantic segmentation in the wild", Computer Vision and Pattern
[6] Conjuntos de datos de Automotive Vision: Recognition (CVPR), 2014 IEEE Conference on. IEEE, 2014.
La referencia alemana de reconocimiento de señales de tráfico - [32] Farabet, Clement, et al. "Learning hierarchical features for scene
http://benchmark.ini.rub.de/?section=gtsrb&subsection=news labeling" Pattern Analysis and Machine Intelligence, IEEE Transactions
Conjunto de datos Caltech Lanes - on 35.8 (2013): 1915-1929.
http://vision.caltech.edu/malaa/datasets/caltech- lanes/ [33] Proyecto Dave - http://www.cs.nyu.edu/~yann/research/dave/
[7] D. Savage, et al., "Crossing traffic alert and obstacle detection with the [34] S. Levine, et al., "End-to-End Training of Deep Visuomotor Policies",
Valeo 360Vue® camera system", ERTICO 9th ITS European Congress, arXiv BVLC Report Series #100, 2015.
junio de 2013.
[35] Conducción profunda - http://deepdriving.cs.princeton.edu/
[8] A. B. Hillel, et al. "Recent progress in road and lane detection: a
survey", Machine Vision and Applications 25(3): 727-745, 2014. [36] zFAS - http://on-demand.gputechconf.com/gtc/2015/video/S5637B.html
[9] L. Xiaoa y F. Gao, "A comprehensive review of the development of
adaptive cruise control systems", Vehicle System Dynamics:
International Journal of Vehicle Mechanics and Mobility, 48(10):1167-
1192, 2010.