Está en la página 1de 9

Sistema de Visión Artificial

Marcos Iglesias García Alejandro Lorenzo Prada


Ingeniería en Telecomunicaciones Ingeniería en Telecomunicaciones
5º Curso 5º Curso
Universidad Carlos III Universidad Carlos III
Madrid, Spain Madrid, Spain
marcos.iglesias@alumnos.uc3m.es alejandro.lorenzo@alumnos.uc3m.es

Este documento presenta un sistema de comunicaciones, sistemas mecánicos


completo de visión artificial desarrollado e adaptados a los terrenos y una infinidad de
implementado para el reconocimiento y detección de tópicos que deben ser estudiados a fondo para
obstáculos de un robot móvil. Dicho sistema integra lograr la independencia de un sistema robótico.
métodos de segmentación estadística con filtrado en El control de navegación trata precisamente de
frecuencia para conseguir independencia respecto a integrar todos estos tópicos para lograr la
la luminosidad. planificación de trayectorias, en función del
ambiente real y la misión del robot [2]. En este
El sistema propuesto determina la posición sentido, el mayor logro en robótica móvil es sin
y orientación del robot móvil usando patrones de duda la pareja de Robots que llevan a cabo su
coincidencia basados en la segmentación del color trabajo en el Planeta Marte: Spirit y
mediante el uso de distancias de Mahalanobis. Al Opportunity, en la Fig.1.1, los cuales cuentan,
mismo tiempo sitúa en el espacio el resto de entre otras cosas, con uno de los sistemas de
obstáculos que forman su entorno usando un navegación más avanzados que se ha
esquema paralelo basado en el detector de bordes desarrollado. Este sistema contempla la
Sobel y en el método de determinación de umbrales planificación de la trayectoria a seguir por el
de Otsu. robot en base a la información obtenida por
diversos sensores, entre los cuales destacan dos
1. INTRODUCCIÓN pares de visión estereoscópica. La información
recolectada es procesada por el módulo de
El campo de la robótica abarca un control de navegación diseñado para calcular la
amplio espectro de aplicaciones, entre las cuales trayectoria del robot, protegiéndolo de
figuran diseños para robots móviles terrestres, situaciones de riesgo, tales como pendientes
acuáticos, aéreos y espaciales. Gran parte de las excesivas, huecos o rocas, y generando la
investigaciones hoy en día están enfocadas en trayectoria óptima para el robot, en términos de
técnicas de navegación autónoma, tal como se seguridad y alcance de los objetivos.
desprende del último reporte sobre el estado del
arte en robótica elaborado por el World
Evaluation Technology Center [1], en el cual
se destacan sistemas robóticos autónomos
diseñados en Universidades y Centros de
Investigación alrededor del mundo.
En el caso de robots móviles, los
procesos de cognición asociados a la
planificación de los movimientos, son
competencia del control de navegación [2].
Dada una información local o global del
ambiente que rodea al robot, y la misión que
este debe cumplir, el control de navegación es Figura 1.1. Robot móvil quasi-autonomo desarrollado por la
NASA: Spirit
un módulo encargado de tomar decisiones
acordes con esta información y alcanzar el Entre la gran diversidad de técnicas
objetivo de la forma más segura y optima desarrolladas para la navegación autónoma,
posible. podemos encontrar el método de navegación
En robótica móvil existe una fuerte por campos de velocidades, el cual fue in-
corriente de investigación dedicada a troducido por Horowitz [3] [4] [5] para el
algoritmos y sistemas de navegación autónoma, control de manipuladores, y luego fue
tanto en ambientes estructurados como en extendido para el caso de robots móviles. El
terrenos desconocidos, que abarca el estudio de control de navegación por campos de veloci-
técnicas que versan sobre fusión sensorial, dades consiste en asignar un vector, en
visión artificial, sistemas cooperativos, manejo términos de módulo y ángulo, a cada punto del
en tiempo real de eventos aleatorios, sistemas espacio de trabajo del robot, para así especificar
la tarea del robot a través de la velocidad y de los problemas tratados en este trabajo, y
orientación que este debe seguir en función de cuya integración modular permite la
su posición. Es de notar que esta técnica implementación completa del sistema de
elimina la dependencia temporal, y que el control.
control de movimiento se ejecuta sólo en
términos de las velocidades lineal y angular del
robot.

1.1 Antecedentes y Justificación

El uso de campos de velocidades como


referencias para controladores es un tópico muy
estudiado a nivel mundial [6] [7] [8], pues
entre otras cosas permite separar el problema
del seguimiento de contornos en dos etapas: la
de seguimiento del ángulo del vector, y la de
seguimiento de su magnitud.
La separación del problema principal
de control por campos de velocidades en dos Figura 1.2: Representación del espacio de trabajo del robot, sus
dimensiones, y ubicación de la cámara
sub-problemas totalmente independientes
permite al investigador plantear e integrar Por una parte, se presenta el problema
soluciones más sencillas para alcanzar el de la implementación de la solución en
objetivo final de hacer control por campos de Hardware y Software, la cual debe cumplir con
velocidades. los requerimientos y limitaciones que puedan
Los trabajos realizados hasta el tener las condiciones inherentes al espacio de
momento en generación de campos de veloci- trabajo así como el robot móvil; mientras que
dades, contemplan campos con velocidad por otra parte nos encontramos con el
constante, los cuales especifican la misión del problema objeto de estudio: el control del robot
robot móvil a través del ángulo de los vectores. móvil usando campos de velocidades como
Por ello es necesario desarrollar un sistema de referencia, y realimentación visual.
generación de campos de velocidades que
contemple la generación del modulo de la ve-
locidad, para ser utilizada como referencia del
sistema de control, junto con la referencia de
ángulo.
Se ha llegado a desarrollar el control
de ángulo de un robot móvil desplazándose a
velocidad constante en el trabajo de Medina-
Meléndez [9], dejando la puerta abierta para el
desarrollo de un sistema de control del modulo
de la velocidad.
Por otra parte, en el área de visión, se
plantea desarrollar los primeros pasos para
Figura 1.3: Desglose de los problemas a tratar
pasar de un sistema de visión artificial en
blanco y negro a un sistema de visión a color. Este es un esquema clásico de control,
en el cual encontramos tres partes principales:
1.2 Descripción del Problema
La Referencia. Se toman como
El presente trabajo plantea el diseño e referencia campos de velocidades, que a través
implementación de un sistema de control por de un vector asignado para cada punto del
campos de velocidades, usando realimentación espacio, especifica tanto el modulo de la
visual. El espacio de trabajo del robot móvil velocidad como el ángulo que el robot debe
está definido como una superficie rectangular, seguir. La generación de dichas referencia
sobre la cual se ubica una cámara con capacidad constituye uno de los módulos del sistema.
de tomar una imagen del espacio completo. Una El Controlador. Se plantea el control
representación posible del espacio se ilustra en en dos niveles: un control de navegación
la Fig.1.2. relacionado directamente con los campos de
La implementación de un sistema de velocidades en modulo y ángulo, y un control
control por campos de velocidades en el ámbito de bajo nivel, cuyo objetivo es controlar las
previamente descrito, requiere la integración de velocidades lineal y angular del robot móvil,
diversos módulos, los cuales pueden ser empleando dos controladores PID.
tratados como problemas independientes. En la
Fig.1.3 se encuentra un desglose de alto nivel
La Realimentación. Consiste en un
sistema de visión artificial (SVA) capaz de
reconocer al robot y calcular su posición y
orientación, así como detectar obstáculos en el
espacio de trabajo, indicando sus posiciones y
dimensiones. El sistema de visión artificial
interactúa con el control de navegación,
mientras que el control de bajo nivel cuenta con
realimentación por medición de velocidad a
través de enconders. La información propor-
cionada por el SVA también se utiliza en la
generación de los campos de velocidades.
1.3 Objetivos
Figura 1.4: Diagrama de Bloques del Sistema Propuesto
Implementar un sistema de control por
campos de velocidades para la plataforma
robótica móvil realimentado por un sistema de
visión artificial.

1.4 Planteamiento de la Solución


El control del robot móvil bajo las
condiciones de este ambiente demanda un
esquema de trabajo como el ilustrado en la
Fig.1.4. A nivel de control se plantean dos
grandes bloques: el control de navegación,
constituido por las tareas de planificación, y el
control de motores que se refiere directamente Figura 1.5: Resumen SVA
al control de las velocidades lineal y angular.
En este esquema encontramos un desglose de
alto nivel de los procesos requeridos para la
implementación del sistema de control con 2.1 Algoritmo del Sistema de Visión
realimentación visual. Artificial
El sistema de visión artificial tiene El ambiente de trabajo del robot es
como objetivo determinar la posición y una superficie rectangular con objetos distribui-
orientación del robot móvil, así como la dos de manera aleatoria, como se muestra en la
ubicación y dimensiones de los obstáculos. Se Fig. 1.2, en la que el robot debe ejecutar tareas
propone utilizar un esquema combinado de de manera automática especificada a priori a
técnicas de procesamiento de imágenes que través de un campo de velocidades. Sistemas
permitan alcanzar el objetivo, buscando robóticos similares se han propuesto
siempre la disminución de los tiempos de anteriormente en [8].
procesamiento requeridos por los algoritmos.
El reconocimiento del robot está basado en la Un problema bien conocido en el
segmentación de la imagen en el espacio de procesamiento de imágenes de ambientes reales
prominencia, utilizando la Distancia de es el generado por los cambios de iluminación,
Mahalanobis, mientras que la detección de más aún si se trabaja con procesamiento a color.
obstáculos se logra mediante segmentación en Como puede notarse de la Fig. 1.2, existen
el plano de luminancia, aplicando el método de sombras, efectos de reflexión, y otros efectos
Otsu. Ambos métodos son estadísticos, que varían con el tiempo que son difíciles de
característica que se aprovecha con el objetivo predecir. La propuesta para resolver este
de lograr independencia del nivel de problema es el uso de un esquema paralelo de
iluminación. En la Fig.1.5 encontramos un detección entre algoritmos con poca
resumen de las técnicas utilizadas en el SVA. dependencia de la iluminación.
2. SISTEMA DE VISION ARTIFICIAL El sistema de visión se puede dividir
en bloques con tareas específicas, como se
En esta sección se presenta el ilustra en la Fig. 2.1. El primer paso en este
desarrollo e implementación de un Sistema de diagrama de bloques es la adquisición de la
Visión Artificial (SVA) para el reconocimiento imagen, seguido del acondicionamiento inicial
del robot móvil y la detección de obstáculos en de esta, que elimina ruido a través de un filtro
la superficie de trabajo. Se desarrollan los mediana y realiza la conversión de espacio de
fundamentos teóricos de procesamiento de color de RGB (formato de la cámara utilizada) a
imágenes utilizados en el diseño del SVA, al YCbCr, por ser este el espacio de color
tiempo que se describen cada una de las etapas empleado por el resto del sistema.
del sistema implementado.
Figura 2.1: Diagrama de Bloques del SVA completo

construye evaluando la expresión (2.2) para


Existen dos grandes bloques
cada pixel de la imagen.
principales: uno dedicado al reconocimiento del
robot móvil, y otro responsable de la detección
de los obstáculos en el espacio de trabajo.
Ambos están constituidos por varios procesos
organizados en serie y en paralelo, tal como se
observa en la Fig. 2.1.
Sin embargo, este método tiene una
2.2 Reconocimiento del Robot Móvil desventaja que radica en el hecho de que todas
las componentes de color son tratadas de la
El reconocimiento del robot se realiza misma manera, despreciando así la posibilidad
a través de la segmentación de la imagen a de que cada una de ellas pueda tener diferentes
color, el cual es un proceso que divide la imagen patrones de distribución. Esto se hace claro al
en regiones que obedecen a un patrón de color recordar que el lugar geométrico de la distancia
común [10]. La idea principal es que teniendo euclidia constante es una esfera en el espacio
conocimiento previo del patrón de color del RGB, o una circunferencia en 2D, por lo que
robot, es posible construir una máscara binaria todas las componentes deberían distribuirse de
que indique los pixeles de la imagen que la misma manera en todas las direcciones para
corresponden al robot. El mayor problema que esta métrica sea efectiva.
asociado a estos sistemas de segmentación, es la
En el contexto de este problema surge
variación en la iluminación de la escena,
el uso de otra métrica: la distancia de Maha-
reflexiones imprevistas, imágenes mal
lanobis, la cual fue introducida por Prasanta
enfocadas, sombras y otros efectos que
Mahalanobis en 1936 [11] como una
continuamente y de manera aleatoria alteran la
generalización de la Distancia Euclidia, que
intensidad de luz adquirida por la cámara. La
toma en cuenta las varianzas y covarianzas de
propuesta para lidiar con este problema es
las variables, introduciendo la Matriz de
realizar la segmentación utilizando la métrica
Covarianza E, como se muestra en (2.3). Éste
de Mahalanobis, ya que esta considera
método aparece en la bibliografía aportada,
variaciones estocásticas del patrón a segmentar.
[12] [13], obteniendo resultados con una tasa
2.2.1 Segmentación por color utilizando la de error alrededor del 2.4 % [14], así como en
Distancia de Maha-lanobis análisis de imágenes satelitales [15],
exhibiendo una buena efectividad en esta tarea
El procedimiento más común utilizado y mostrando el uso potencial de esta técnica
para realizar la segmentación por color de una como clasificador en otras tareas automáticas,
imagen, es el cálculo de la Distancia Euclídea como realimentación visual para un sistema de
n-dimensional entre las intensidades de un control.
píxel y las intensidades correspondientes al
color que se desea segmentar. La distancia
Euclidiana es calculada utilizando (2.1), donde La matriz de covarianza está definida
es el vector de intensidades del pixel por (2.4), donde E es el operador del valor
estudiado, y es el vector de las intensidades esperado.
medias del color que el SVA debe segmentar.

Si esta distancia es menor a


determinado umbral, se considera que el pixel
pertenece a la región segmentada. Usando el
espacio de color RGB, la máscara binaria se
2.2.2 Selección del Espacio de Color

En primera instancia es necesario


seleccionar el espacio de color y el modelo
estadístico del color i.e. y ). Se desarrolla un
modelo estadístico para su color.
El espacio de color a utilizar es el de
Luminancia, Crominancia Roja y Crominancia
Azul (YCbCr), ya que este modelo cuenta con la
ventaja de separar en gran medida la
información de color de la información de De (2.8) puede notarse que
iluminación. La iluminación queda contenida en constante describe una elipse centrada en
el canal Y, mientras que la información de color , cuyo eje mayor y menor forman un
está representada en los planos Cb y Cr, por lo
que la segmentación de color se puede realizar ángulo θ con los ejes cartesianos, siendo θ el
en un espacio bidimensional, y no ángulo especificado por (2.9). Los ejes de la
tridimensional como sería necesario en el caso elipse representan las componentes principales
de RGB. de la muestra de color.
En este modelo de color, cuando
ocurren variaciones en la iluminación de la
imagen, los cambios se reflejan directamente en
el plano Y, mientras que para los planos Cb y
Cr el efecto es casi inocuo. 2.2.3 Cálculo de la Media y de la Matriz de
Covarianza
La conversión de RGB a YCbCr es una
combinación lineal establecida por el conjunto En vista de la definición dada por (2.4),
de ecuaciones (2.5). la matriz de covarianza en el espacio de
prominencia CbCr se presenta en (2.10),

Los valores de la matriz A son i.e. una matriz cuadrada con las varianzas de las
especificados por el estándar Rec. 601 (SDTV), variables en la diagonal principal, y las
y se encuentran en (2.6). covarianzas cruzadas en la diagonal inversa.
Claramente, estas variables son en este caso la
prominencia azul y la roja.
La matriz de covarianza (2.11) es
Las componentes de prominencia Cb y siempre simétrica porque
Cr son usadas en el cálculo de la distancia de y como consecuencia también lo es.
Mahalanobis, obteniendo (2.7) como la
distancia entre un pixel y un grupo de pixeles
(conjunto de pixeles muestra del color a
segmentar) representados por la media en Cb y
Con el objetivo de calcular ,
en
se elaboró una muestra de pixeles extraídos de
fotos de la superficie de robot bajo diferentes
condiciones de iluminación. En la Fig. 2.3 se
donde es una matriz de dimensiones 2 x 2. encuentra la muestra en color, así como sus
En general, al trabajar con un espacio de color componentes Y, Cb y Cr.
n-dimensional, la matriz de covarianza tiene Para esta muestra, los resultados
dimensiones n x n. Esto puede interpretarse de obtenidos se presentan en (2.12).
(2.4) ó (2.7).
El diagrama de bloques utilizado para
calcular la distancia de Mahalanobis (2.7) en
Simulink se encuentra en la Fig.2.2.
Definiendo y valiéndonos del
hecho que (como se muestra más
adelante), (2.7) puede reescribirse como (2.8),
Figura 2.2: Cálculo distancia de Mahalanobis. Simulink

Mahalanobis como métrica para la


segmentación de estas variables.

Figura 2.3: Muestra de colores de la superficie del robot bajo


diferentes condiciones de iluminación, usada para el cálculo de E, Figura 2.4: Distribución bivariada de la crominancia roja y azul
y las medias de Cb y Cr de la muestra de colores

2.2.4 Umbral de Distancia La máscara de Mahalanobis se somete


al umbral seleccionado, y luego es procesada
El criterio para construir la máscara para eliminar ruido y homogeneizar la imagen
binaria es evaluar la expresión (2.7) para cada aplicando la operación de closing. El diagrama
pixel y aplicar un umbral como el indicado por de bloques en SIMULINK del procesamiento de
(2.13). la máscara se muestra en la Fig.2.5.
Una máscara obtenida
experimentalmente se muestra en la Fig. 2.6,
donde puede observarse que el resultado es
El umbral se debe seleccionar en muy preciso, inclusive en aquellas zonas con
función de la distribución de las componentes iluminación irregular, como las ruedas y los
de prominencia. La Fig. 2.4 muestra esta bordes.
distribución para la muestra de pixeles de la
Fig. 2.3, con algunas elipses (formando un La máscara calculada a través de
ángulo con el eje horizontal) segmentación en base a la distancia de Maha-
para diferentes umbrales. lanobis es independiente del color del fondo y
de sus características visuales, hecho que
Es importante destacar que la representa una característica valiosa en
distribución espacial de las componentes Cb y aplicaciones robóticas.
Cr conforma una elipse, mostrando así la
conveniencia del uso de la distancia de

Figura 2.5: Diagrama de bloques en Simulink para procesamiento de la máscara


se parece al fondo, sin embargo la identificación
de bordes puede reconocer la presencia del
objeto.
2.3.1 Detector de Bordes de Sobel

El operador gradiente es utilizado para


Figura 2.6: Máscara del robot obtenida usando la distancia de
medir la magnitud y dirección de los bordes
Mahalanobis presentes en una imagen. Esto requiere el
cálculo de las derivada parciales discretas de la
2.2.5 Análisis de la Imagen imagen f(x, y) con respecto a x y para todo par
(x, y). El detector de bordes de Sobel consiste
Es necesario extraer información de la en obtener una aproximación de estas derivadas
imagen para obtener la posición y orientación utilizando un kernel de dimensiones 3x3
del robot. En primer lugar se establecen los convolucionado con la imagen, como se
sistemas de referencia: un sistema global que muestra en (2.14).
coincide con los ejes de la imagen y que es
usado para determinar la posición del robot, y
un sistema local móvil atado al robot, utilizado
para determinar su orientación.
La posición del robot se calcula como
el centroide de los pixeles positivos en la Este operador tiene la propiedad de
máscara del robot, medido en pixeles. La actuar como un supresor de ruido, lo cual
orientación se determina construyendo un seg- resulta muy conveniente. El resultado es una
mento de recta, que une el centroide del robot y imagen en escala de grises que representa la
el centroide de hoyo negro ubicado en la parte intensidad de los bordes, la cual se somete a un
trasera del robot. La orientación se mide como umbral para obtener una imagen binaria que
el ángulo que forma este segmento de recta con identifica los bordes, como la mostrada en la
el eje x global. Fig. 2.9 (b).
Debido a variaciones en la iluminación 2.3.3 Procesamiento de la Imagen
y otros efectos, la máscara podría tener más de
un hoyo negro en el interior del robot, por ello El resultado del detector de bordes se
se incluye un algoritmo de pre procesamiento superpone con el resultado del método de Otsu,
de la máscara, que consiste en la operación usando el operador lógico OR. Luego, se utiliza
morfológica open, con el propósito de eliminar la operación morfológica open para expandir
otros hoyos. los bordes y aéreas, de tal manera que se
2.3 Reconocimiento de Obstáculos conecten, en aquellos casos en los que quedaron
separados luego del OR. El resultado de esta
El reconocimiento de los obstáculos en operación se muestra en la Fig. 2.9 (d). En la
el espacio de trabajo del robot se basa en un máscara de los obstáculos hay pixeles que
esquema paralelo de detección de bordes, corresponden al robot, los cuales son removidos
mediante el operador gradiente de Sobel, y un utilizando la información de la Máscara de
algoritmo de umbralización para separar a los Mahalanobis de la Fig. 2.9 (e), para finalmente
objetos del fondo de la imagen, basado en el obtener la máscara de los obstáculos de la Fig.
método de Otsu. El resultado se consigue como 2.9 (f).
el OR lógico de los resultados de cada técnica,
logrando así solventar errores de alguno de los Una vez que se obtienen las mascara
algoritmos. del robot y de los obstáculos, el sistema calcula
el rectángulo de menor área que los envuelve
La detección de bordes trabaja sobre el por completo.
gradiente de la imagen f(x, y), siendo por ello
un procedimiento sensible a cambios abruptos Todo el sistema fue implementado en
en la imagen, mientras que la segmentación de MatLab y Simulink, obteniendo un tiempo de
Otsu se enfoca en la frecuencia en la que pixeles procesamiento que varía de 0.8sec a 1.2sec por
con intensidades similares parecen imagen.
espacialmente conectados en la imagen. Por lo
tanto, el detector de bordes tiene un desempeño
pobre en las zonas de la imagen que aparecen
difuminadas, mientras que la segmentación
presentará mejores resultados en este caso. Por
el contrario, el método de Otsu falla si el objeto
Figura 2.11: Correlación cruzada

3. TRABAJOS FUTUROS

En el área de Visión Artificial se


propone continuar con el estudio y desarrollo
de técnicas de procesamiento de imágenes,
aplicadas a la solución de diferentes problemas
en robótica, tales como:
Visión global del espacio de trabajo del
robot y extracción de información
relevante. Algunos puntos a desarrollar en
Figura 2.9: Resultados globales del SVA. (a) Vista del espacio de el futuro son la calibración de la cámara y
trabajo. (b) Máscara de bordes por el método Sobel. (c) Mascara extensión de los algoritmos para robótica
de objetos por el método de Otsu. (d) Resultado de aplicar la
operación open a la imagen (b)OR(c). (e)Mascara de
cooperativa con detección de varios
Mahalanobis para el robot. (f)Máscara de obstáculos (d) después robots.
de remover los pixeles del robot.

2.4 Propuesta para Condiciones de Visión Estereoscópica.


Iluminación Extremas

Un esquema para la detección del


robot que permite ampliar el rango de acción 4. REFERENCIAS BIBLIOGRÁFICAS
del plateado anteriormente, es incorporar
reconocimiento de patrones por correlación [1] Y. Bekey, G.; Junku. The status of robotics.
cruzada, en paralelo con el cálculo de la IEEE Robotics and Automatitation Magazine, 15,
distancia de Mahalanobis. El resultado se puede March 2008.
representar como una balanza en la que el [2] I. R. Siegwart, R.;Nourbakhsh. Autonomous
método de Mahalanobis ofrece mejores Mobile Robots. The MIT Press, 2004.
resultados en condiciones medias de
iluminación, mientras que la correlación es más [3] R. Li, P.Y.; Horowitz. Passive velocity field
eficiente en condiciones extremas. Esto se control of mechanical manipulators. IEEE Trans.
ilustra en la Fig.2.10. on Robot. and Automat., 15(4):751-763, 1999.
La correlación cruzada se hace más [4] R. Li, P.Y.; Horowitz. Passive velocity field
eficiente al utilizarla sobre la detección de control (pvfc): Part i - geometry and robustness.
bordes. Así, la correlación se efectúa entre una
IEEE Trans. on Robot. and Automat., 46(9):1346-
plantilla de los bordes del robot, y la imagen
1359, 2001.
producto del detector de bordes de Sobel, como
la mostrada en la Fig.2.11(a), obteniendo el [5] R. Li, P.Y.; Horowitz. Passive velocity field
resultado mostrado en la Fig.2.11(b), donde el control (pvfc): Part ii - application to contour
punto más claro representa la correlación más
alta, y por tanto la ubicación del robot. following. IEEE Trans. on Robot. and Automat.,
46(9):1360-1371, 2001.
[6] T.; Hu G.; Crane-C. Dixon, W. E.; Galluzo.
Adaptive velocity field control of a wheeled mobile
robot. In Proc. Int. Work. on Rob. Mot. and Cont.,
pages 145-150, June 2005.

Figura 2.10: Efecto balanza entre métodos de reconocimiento de


patrones
[7] J. H. Yamakita, M.; Suh. Adaptive generation
of desired velocity field for leader-follower type
mobile robots with decentralized pvfc. In Proc.
IEEE Int. Conf. on Robot. and Automat.,pages
3495-3501, Seoul, Korea, May 2001.
[8] Kelly, R.; Sanchez, V.; Bugarin, E.; Rodriguez,
H. A fixed - camera controller for visual guidance
of mobile robots via velocity fields. In Proc. IEEE
Conf. on Robot. and Automat., pages 3137-3142,
Barcelona, Spain, April 2005.
[9] J. M Bolanños; G. Fernóandez-Loópez y J. C.
Grieco. W. Medina-Melóendez; L. Fermón.
Velocity field angle control of wheeled robots. In
Proceedings of the 9th International Conference on
Artificial Intelligence and Soft Computing (ICAISC
2008), Zakopane, Polonia, September
2006.
[10] R. Gonzóalez, R.; Woods. Digital Image
Processing. Prentice Hall, 3 edition, August 2007.
[11] P. Mahalanobis. On the generalized distance
in statistics. Proceedings of the National Institute
ofScience, 2:49-55, 1936.
[12] H. Chengjun Liu; Wechsler. A shape - and
texture - based enhanced fisher classifier for face
recognition. IEEE Transactions on Image
Processing, 10(4):598-608, 2001.
[13] N.W.; Vixie K.R.; Wohlberg B.E. Fraser,
A.M.; Hengartner. Incorporating invariants in
mahalanobis distance based classifiers: application to
face recognition. volume 4, pages
3118-3123, Portland, U.S.A., July 2003.
[14] M. Partridge, M.; Jabri. Face recognition
using a new distance metric. volume 2, pages
584-593, 2000.
[15] M.B.; Pointet A.; Cammoun L.; Caloz R.;
Thiran J. Ph. Gigandet, X.; Cuadra. Region -based
satellite image classification: method and validation.
In IEEE Int. Conf. on Image Processing, volume 3,
pages 832-835, Genoa, Italy, September 2005.

También podría gustarte