Documentos de Académico
Documentos de Profesional
Documentos de Cultura
INGENIERÍA ELECTRÓNICA E
INFORMÁTICA INDUSTRIAL
Escuela Técnica Superior de Ingenieros Industriales
Autor
Director
2007
ii
(D-15)
Presidente:
Vocal:
Vocal:
Vocal:
Secretario:
Suplente:
Suplente:
EL SECRETARIO
iii
iv
A Gregorio y Ubaldina, mis padres.
A Walter, Miriam, Godofredo y Beatriz, mis hermanos.
A Nadia, mi sobrina.
A la 1ra Com. parroquia Lambramani de Arequipa.
A la 3ra Com. parroquia La Merced de Madrid.
v
vi
RESUMEN
vii
tridimensional. Se verifica la conveniencia de este nuevo método al no
depender de las mismas relaciones que el jacobiano analítico.
viii
ABSTRACT
The present thesis deals with the visual servoing of an articular system of 3
d.o.f. using two fixed and weakly calibrated cameras. The servoing architecture
is Image Based Visual Servoing, and this work deals especifically whith the on-
line estimation of the image Jacobian.
New algorithms for the estimation of the imagen Jacobian with no iteratives
techniques are proposed. These new algorithms are based on the definition of a
reliability factor which depends on both movements already realized into the
joint space and their respective feature changes. In addition to the reliability
factor, information from the epipolar geometry standed for the fundamental
matrix has been also incorporated in the estimation of the imagen Jacobian.
Experiments have been carried out in both positioning tasks and following tasks.
By comparison with the existing methods in the literature, it is showed that the
incorporation of the epipolar geometry and the reliabilty factor in the estimation
of the image Jacobian, increases robustness of the system against noise.
ix
Furthermore two control visual aplications are presented. In the first one, two
methods of estimation of the image Jacobian from lines are described. In the
second one, a visual servoing of mobile robots using the estimation of the
homography between a plane and the image is described.
x
AGRADECIMIENTOS
xi
Fernando Matía. Extiendo también mi gratitud al profesor Ricardo Carelli del
INAUT.
P. Lizardo Pari P.
xii
INDICE GENERAL
1 INTRODUCCIÓN............................................................................................................... 31
1.1 MOTIVACION. ....................................................................................................... 31
1.2 ENCUADRE DEL PROBLEMA Y CONTRIBUCIONES...................................... 34
1.3 ESQUEMA GENERAL DE LA TESIS. .................................................................. 36
1.4 PUBLICACIONES................................................................................................... 37
1.4.1 PUBLICACIONES REFERENCIADAS EN EL ISI........................................... 38
1.4.2 CONTRIBUCIONES A CONGRESOS INTERNACIONALES. ....................... 38
1.4.3 CONTRIBUCIONES A CONGRESOS NACIONALES.................................... 39
2 ESTADO DEL ARTE ......................................................................................................... 41
2.1 ESTADO DEL ARTE DEL CONTROL VISUAL. ................................................. 41
2.1.1 CONFIGURACIONES CÁMARA-ROBOT....................................................... 42
2.1.1.1 SEGÚN LA MANERA EN QUE ESTÁ DISPUESTA LA CÁMARA
RESPECTO AL ROBOT................................................................................................. 42
2.1.1.2 SEGÚN EL NÚMERO DE CÁMARAS. ....................................................... 43
2.1.2 ESQUEMAS DE CONTROL VISUAL. ............................................................. 43
2.1.2.1 EN FUNCIÓN DE LA ESTRUCTURA DE CONTROL............................... 44
2.1.2.2 EN FUNCIÓN DE LA DEFINICIÓN DEL ERROR. .................................... 46
2.1.2.3 EN FUNCIÓN DEL CAMPO VISUAL. ........................................................ 52
2.1.2.4 EN FUNCIÓN DEL MODELO 3D DEL OBJETO........................................ 52
2.1.2.5 EN FUNCIÓN DEL MODELO VISUAL-MOTOR....................................... 53
2.2 ESTADO DEL ARTE DE LA ESTIMACIÓN DEL JACOBIANO DE LA
IMAGEN ................................................................................................................................. 57
3 MODELOS DE CÁMARAS Y ROBOT............................................................................. 61
3.1 MODELO DE UNA CAMARA............................................................................... 61
3.1.1 MODELO PINHOLE .......................................................................................... 61
3.1.2 PARÁMETROS INTRÍNSECOS Y EXTRÍNSECOS. ....................................... 62
3.1.3 MATRIZ DE PROYECCIÓN. ............................................................................ 65
3.1.4 DISTORSION...................................................................................................... 66
3.1.5 CALIBRACIÓN DE LA CÁMARA. .................................................................. 67
xiii
3.1.5.1 MÉTODO DE ZHANG. ................................................................................. 69
3.2 MODELO DE DOS CAMARAS. ............................................................................ 72
3.2.1 GEOMETRÍA EPIPOLAR.................................................................................. 73
3.2.2 LA MATRIZ FUNDAMENTAL......................................................................... 75
3.2.3 PROPIEDAD DE RESTRICCIÓN EPIPOLAR.................................................. 76
3.2.4 MATRIZ ESENCIAL.......................................................................................... 77
3.2.4.1 RECUPERACIÓN DE R Y t A PARTIR DE LA MATRIZ ESENCIAL.. 78
3.2.5 DETERMINACIÓN DE LA MATRIZ FUNDAMENTAL. ............................... 80
3.2.5.1 METODO DE MÍNIMOS CUADRADOS..................................................... 85
3.2.5.2 MÉTODO BASADO EN LA DESCOMPOSICIÓN SINGULAR SVD........ 86
3.2.5.3 MÉTODO DE LOS 7 PUNTOS. .................................................................... 86
3.2.5.4 MÉTODO DE MINIMIZAR LA DISTANCIA GEOMÉTRICA A LA
CORRESPONDIENTE LÍNEA EPIPOLAR................................................................... 87
3.2.5.5 MÉTODO RANSAC. ..................................................................................... 88
3.2.5.6 MÉTODO DE LA MÍNIMA MEDIANA LMedS.......................................... 89
3.2.6 CONSIDERACIONES EN LA DETERMINACIÓN DE LA MATRIZ
FUNDAMENTAL............................................................................................................... 90
3.2.6.1 NORMALIZACIÓN DE LOS DATOS DE ENTRADA................................ 90
3.2.6.2 RESTRICCIÓN DE SINGULARIDAD. ........................................................ 91
3.2.7 HOMOGRAFIA ENTRE DOS VISTAS............................................................. 92
3.2.8 RELACION ENTRE HOMOGRAFIAS Y LA MATRIZ FUNDAMENTAL.... 97
3.2.9 CALIBRACIÓN DEL PAR ESTÉREO. ........................................................... 100
3.2.10 RECONSTRUCCIÓN TRIDIMENSIONAL. ................................................... 101
3.2.10.1 MINIMIZAR LA DISTANCIA DE LOS RAYOS REPROYECTADOS.
101
3.3 MODELO DEL ROBOT........................................................................................ 103
3.3.1 CÁLCULO DE LA CINEMÁTICA DIRECTA................................................ 104
3.3.2 CÁLCULO DE LA CINEMÁTICA DIFERENCIAL. ...................................... 106
3.3.3 CASO DE EJES DE ROTACIÓN QUE NO SE CORTAN. ............................. 108
3.3.4 CÁLCULO DE LA CINEMÁTICA DIFERENCIAL PARA EL CASO DE EJES
NO ALINEADOS.............................................................................................................. 110
3.4 RESULTADOS EXPERIMENTALES. ................................................................. 110
3.4.1 ENTORNO DE PRUEBAS. .............................................................................. 110
3.4.1.1 HARDWARE................................................................................................ 111
3.4.1.2 SOFTWARE. ................................................................................................ 113
3.4.1.3 CARACTERÍSTICAS VISUALES. ............................................................. 114
3.4.2 ESTIMACION DE LA MATRIZ FUNDAMENTAL....................................... 117
3.4.3 RECUPERACIÓN DE LA ROTACIÓN Y LA TRASLACIÓN A PARTIR DE
LA MATRIZ FUNDAMENTAL: .................................................................................... 122
3.4.4 RECUPERACIÓN DE LA ROTACIÓN, TRASLACIÓN Y ORIENTACIÓN A
PARTIR DE HOMOGRAFÍAS......................................................................................... 124
3.4.5 DETERMINACIÓN DE LA SEPARACIÓN ENTRE LOS EJES DE
ROTACION DEL SISTEMA ARTICULAR MEDIANTE VISIÓN. ............................... 126
3.5 CONCLUSIONES.................................................................................................. 133
4 ESTIMACIÓN DEL JACOBIANO DE LA IMAGEN. .................................................... 135
4.1 INTRODUCCIÓN.................................................................................................. 135
4.2 JACOBIANO DE LA IMAGEN. ........................................................................... 136
xiv
4.2.1 JACOBIANO DE UN PUNTO.......................................................................... 137
4.2.2 JACOBIANO DE UNA LÍNEA. ....................................................................... 139
4.3 JACOBIANO VISUAL-MOTOR. ......................................................................... 140
4.4 JACOBIANO PARA DOS O MÁS CÁMARAS................................................... 140
4.5 CONSIDERACIONES PREVIAS EN LA ESTIMACIÓN DEL JACOBIANO. .. 142
4.6 ESTIMACIÓN DEL JACOBIANO CON MÉTODOS NO ITERATIVOS........... 143
4.6.1 ESTIMACIÓN DEL JACOBIANO EN BASE A LOS N ÚLTIMOS
MOVIMIENTOS............................................................................................................... 144
4.7 ESTIMACIÓN DEL JACOBIANO CON MÉTODOS ITERATIVOS. ................ 145
4.7.1 MÉTODO DE BROYDEN................................................................................ 145
4.7.2 UTILIZANDO EL FILTRO DE KALMAN...................................................... 146
4.7.3 MÉTODO DE MÍNIMOS CUADRADOS RECURSIVOS. ............................. 147
4.8 NUEVOS ALGORITMOS DE ESTIMACIÓN DEL JACOBIANO. .................... 147
4.8.1 BASADOS EN LA FIABILIDAD. ................................................................... 148
4.8.1.1 M MOVIMIENTOS MÁS FIABLES DE LOS N ÚLTIMOS. ................ 149
4.8.1.2 M MOVIMIENTOS MÁS FIABLES. ....................................................... 149
4.8.1.3 N ÚLTIMOS MOVIMIENTOS PONDERADOS POR SU FIABILIDAD.
150
4.8.2 MÉTODO DE ESTIMAR EL JACOBIANO DE LA IMAGEN BASADO EN LA
MATRIZ FUNDAMENTAL............................................................................................. 150
4.9 EXPERIMENTOS.................................................................................................. 154
4.10 CONCLUSIONES.................................................................................................. 164
5 TAREAS DE CONTROL.................................................................................................. 167
5.1 LEY DE CONTROL ESTÁTICA. ......................................................................... 168
5.1.1 ANALISIS DE ESTABILIDAD........................................................................ 170
5.2 LEY DE CONTROL DINÁMICA. ........................................................................ 171
5.3 EXPERIMENTOS Y RESULTADOS. .................................................................. 171
5.3.1 ENTORNO DE PRUEBAS. .............................................................................. 172
5.3.2 INDICES DE EVALUACIÓN. ......................................................................... 173
5.3.3 ESPACIO DE TRABAJO.................................................................................. 174
5.3.4 CASO ESTÁTICO. ........................................................................................... 175
5.3.5 CASO DINÁMICO. .......................................................................................... 198
5.3.6 CONCLUSIONES. ............................................................................................ 212
5.3.6.1 CASO ESTÁTICO........................................................................................ 212
5.3.6.2 CASO DINÁMICO....................................................................................... 213
5.3.6.3 CONCLUSIONES GENERALES. ............................................................... 214
6 JACOBIANO ANALÍTICO DE LA IMAGEN................................................................. 215
6.1 EXPRESIÓN DEL JACOBIANO ANALÍTICO DE LA IMAGEN. ..................... 215
6.2 CALIBRACIÓN CÁMARA-ROBOT.................................................................... 219
6.2.1 ESTRATEGIA DE ENCONTRAR TRANSFORMACIÓN 3D RÍGIDA ENTRE
DOS SISTEMAS DE COORDENADAS POR EL MÉTODO DE DESCOMPOSICIÓN
SINGULAR SVD. ............................................................................................................. 221
6.3 EXPERIMENTOS REALIZADOS........................................................................ 223
6.3.1 DETERMINACIÓN DE LA POSICIÓN DE LOS CINCO PUNTOS DEL
PATRÓN EN EL SISTEMA DEL TERCER ESLABÓN................................................. 223
6.3.1.1 DETERMINACIÓN DE LA DISTANCIA δ . ............................................ 224
xv
6.3.1.2 DETERMINACIÓN DE LOS PUNTOS DEL PATRÓN EN EL SISTEMA
DE COORDENADAS DEL TERCER ESLABÓN....................................................... 225
6.3.2 RESULTADOS DE COMPARAR EL JACOBIANO ANALÍTICO DE LA
IMAGEN Y EL JACOBIANO ESTIMADO..................................................................... 227
6.3.2.1 CASO ESTÁTICO........................................................................................ 227
6.3.2.2 CASO DINÁMICO....................................................................................... 244
6.4 CONCLUSIONES.................................................................................................. 259
6.4.1 DEL JACOBIANO ANALITICO ..................................................................... 259
6.4.2 DE LA CALIBRACIÓN CÁMARA-ROBOT. ................................................. 260
6.4.3 DE LA COMPARACIÓN ENTRE EL JACOBIANO ESTIMADO Y EL
JACOBIANO ANALÍTICO. ............................................................................................. 260
7 CONTROL VISUAL A PARTIR DE LÍNEAS. ............................................................... 261
7.1 INTRODUCCIÓN.................................................................................................. 261
7.2 REPRESENTACIÓN DE LÍNEAS........................................................................ 262
7.3 MATRIZ DE INTERACCIÓN A PARTIR DE LÍNEAS. ..................................... 264
7.4 MÉTODOS DE CONTROL PROPUESTOS......................................................... 265
7.4.1 PRIMER METODO. ......................................................................................... 265
7.4.2 SEGUNDO MÉTODO. ..................................................................................... 266
7.5 LEY DE CONTROL. ............................................................................................. 267
7.6 EXPERIMENTOS REALIZADOS........................................................................ 267
7.6.1 TAREA DE ALINEAMIENTO......................................................................... 268
7.7 CONCLUSIONES.................................................................................................. 275
8 APLICACIÓN A ROBOTS MÓVILES. ........................................................................... 277
8.1 MODELO DEL ROBOT MOVIL.......................................................................... 278
8.2 MEDIDAS VISUALES DE LA POSICIÓN Y ORIENTACIÓN DEL OBJETO DE
CONTROL. ........................................................................................................................... 279
8.3 DETECCIÓN VISUAL .......................................................................................... 280
8.3.1 MEDIANTE LA PROYECCIÓN EN PERSPECTIVA Y RELACIONES
GEOMÉTRICAS............................................................................................................... 281
8.3.2 MEDIANTE TRANSFORMACIONES PROYECTIVAS................................ 283
8.4 SIMULACIÓN DE LA DETECCIÓN VISUAL. .................................................. 284
8.4.1 PRUEBAS REALIZADAS. .............................................................................. 285
8.4.1.1 CONDICIONES IDEALES. ......................................................................... 286
8.4.1.2 VARIACIÓN DE LOS PARÁMETROS EXTRÍNSECOS.......................... 288
8.4.1.3 INTRODUCCIÓN DE RUIDO. ................................................................... 290
8.4.2 PRECISIÓN DE LOS RESULTADOS. ............................................................ 294
8.5 EXPERIMENTOS DE CONTROL REALIZADOS.............................................. 296
8.6 CONCLUSIONES.................................................................................................. 299
8.6.1 DE LA SIMULACIÓN...................................................................................... 299
8.6.2 DE LA EJECUCIÓN DE LA TAREA DE CONTROL. ................................... 300
9 CONCLUSIONES Y TRABAJOS FUTUROS................................................................. 301
9.1 CONCLUSIONES Y APORTACIONES............................................................... 301
9.2 TRABAJOS FUTUROS......................................................................................... 305
ANEXO A ................................................................................................................................. 307
ANEXO B ................................................................................................................................. 311
ANEXO C ................................................................................................................................. 315
ANEXO D ................................................................................................................................. 317
xvi
ANEXO E.................................................................................................................................. 323
BIBLIOGRAFÍA ....................................................................................................................... 327
xvii
xviii
INDICE DE FIGURAS
xx
Figura 3.43.-Ejes de giro obtenidos halladas para el segundo eslabón (negro) y para el tercer
eslabón en las posiciones θ 2 = 0 (rojo) θ 2 = −13000 (verde) y θ 2 = −26000 (azul),
θ 2 = 13000 (magenta) y θ 2 = 26000 (cian)........................................................................ 132
Figura 3.44.-Vista en detalle de los 5 ejes de rotación (horizontales) del tercer eslabón obtenidos,
con el eje de rotación (vertical) del segundo eslabón visto de canto (color negro).................... 132
xxi
Figura 5.1.- Esquema de control basado en características........................................................ 168
Figura 5.2.- Esquema general de control. .................................................................................. 172
Figura 5.3.- Trayectoria con sobreoscilación. El índice 3 mide las distancias d1, d2 y d3......... 174
Figura 5.4.- Posiciones de referencia para el caso estático. ....................................................... 175
Figura 5.5.- Indice 0 sin ruido.................................................................................................... 177
Figura 5.6.- Indice 1 sin ruido.................................................................................................... 177
Figura 5.7.- Indice 2 sin ruido.................................................................................................... 178
Figura 5.8.- Indice 3 sin ruido.................................................................................................... 178
Figura 5.9.- Indice 4: tiempo promedio de estimación del jacobiano ........................................ 179
Figura 5.10.- Indice 0 con ruido. ............................................................................................... 181
Figura 5.11.- Indice 1 con ruido. ............................................................................................... 181
Figura 5.12.- Indice 2 con ruido. ............................................................................................... 182
Figura 5.13.- Indice 3 con ruido. ............................................................................................... 182
Figura 5.14.- Relación con/sin ruido para el índice 0 ................................................................ 183
Figura 5.15.-Relación con/sin ruido para el índice 1 ................................................................. 184
Figura 5.16.-Relación con/sin ruido para el índice 2 ................................................................. 184
Figura 5.17.-Relación con/sin ruido para el índice 3 ................................................................. 185
Figura 5.18.- Evolución articular para el algoritmo 3LAST...................................................... 186
Figura 5.19.- Evolución articular para el algoritmo 3+REL ...................................................... 187
Figura 5.20.- Evolución articular para el algoritmo 10LASTW ................................................ 188
Figura 5.21.- Evolución articular para el algoritmo 10+REL .................................................... 189
Figura 5.22.- Evolución articular para el algoritmo FUNDMAT .............................................. 190
Figura 5.23.- Evolución articular para el algoritmo BROYDEN............................................... 191
Figura 5.24.- Evolución articular para el algoritmo RLS........................................................... 192
Figura 5.25.- Evolución articular para el algoritmo KALMAN ................................................ 193
Figura 5.26.-Indice 0 con ruido gaussiano de σ = 1 para ........................................................ 194
Figura 5.27.-Indice 1 con ruido gaussiano de σ = 1 para ........................................................ 195
Figura 5.28.- Indice 2 con ruido gaussiano de σ = 1 para ....................................................... 195
Figura 5.29.- Indice 3 con ruido gaussiano de σ = 1 para ....................................................... 196
Figura 5.30.- Evolución articular para FUNDMAT con ruido de σ = 1 .................................. 197
Figura 5.31.- Evolución articular para RLS con ruido de σ = 1 .............................................. 197
Figura 5.32.- Trayectoria a seguir para el caso dinámico. ......................................................... 199
Figura 5.33.- Indice 0 sin ruido.................................................................................................. 200
Figura 5.34.- Indice 5 sin ruido.................................................................................................. 200
Figura 5.35.- índice 0 con ruido................................................................................................. 202
Figura 5.36.- Indice 5 con ruido ................................................................................................ 203
Figura 5.37.- Evolución articular para el algoritmo 3LAST...................................................... 204
Figura 5.38.- Evolución articular para el algoritmo 3+REL ...................................................... 205
Figura 5.39.- Evolución articular para el algoritmo 10LASTW ................................................ 206
Figura 5.40.- Evolución articular para el algoritmo 10+REL .................................................... 207
Figura 5.41.- Evolución articular para el algoritmo FUNDMAT .............................................. 208
Figura 5.42.- Evolución articular para el algoritmo BROYDEN............................................... 209
Figura 5.43.- Evolución articular para el algoritmo RLS........................................................... 210
Figura 5.44.- Evolución articular para el algoritmo KALMAN. ............................................... 211
xxii
Figura 6.1.- Configuración cámara fija con las diferentes transformaciones............................. 216
Figura 6.2.- Relación entre las coordenadas del robot y las de la cámara.................................. 219
Figura 6.3.- N puntos medidos en dos sistemas de coordenadas diferentes............................... 220
Figura 6.4.- Un movimiento con dos posiciones adyacentes del efector final unido a la cámara.
................................................................................................................................................... 220
Figura 6.5.- Posición de la plataforma en el sistema del tercer eslabón donde se indica la
distancia δ del plano de la plataforma al eje Y3 del sistema del tercer eslabón. ..................... 223
Figura 6.6.-Vista de canto del eje Y3 del sistema del tercer eslabón con los arcos descritos por
cada uno de los cinco puntos del patrón en la posición ( d1 = 0, θ 2 = 0 ). Se muestra la posición
de la plataforma que contiene el patrón de cinco puntos. .......................................................... 224
Figura 6.7.-Ubicación de cada uno de los cinco puntos del patrón en el plano de la plataforma,
en relación al sistema de coordenadas de la cámara 1. .............................................................. 226
Figura 6.8.- Indice 0 sin ruido.................................................................................................... 228
Figura 6.9.- Indice 1 sin ruido.................................................................................................... 229
Figura 6.10.- Indice 2 sin ruido.................................................................................................. 229
Figura 6.11.- Indice 3 sin ruido.................................................................................................. 230
Figura 6.12.- Indice 4: tiempo promedio de estimación del jacobiano de la imagen en ms. ..... 231
Figura 6.13.- Indice 0 con ruido. ............................................................................................... 232
Figura 6.14.- Indice 1 con ruido. ............................................................................................... 232
Figura 6.15.- Indice 2 con ruido. ............................................................................................... 233
Figura 6.16.- Indice 3 con ruido. ............................................................................................... 233
Figura 6.17.- Indice 4 con ruido. ............................................................................................... 234
Figura 6.18.- Evolución articular para 3LAST. ......................................................................... 235
Figura 6.19.- Evolución articular para FUNDMAT. ................................................................. 236
Figura 6.20.- Evolución articular para el método RLS. ............................................................. 237
Figura 6.21.- Evolución articular para el método de BROYDEN. ............................................ 238
Figura 6.22.- Evolución articular para el jacobiano analítico. ................................................... 239
Figura 6.23.- Indice 0 con ruido. ............................................................................................... 240
Figura 6.24.- Indice 1 con ruido. ............................................................................................... 241
Figura 6.25.- Indice 2 con ruido. ............................................................................................... 241
Figura 6.26.- Indice 3 con ruido. ............................................................................................... 242
Figura 6.27.- Evolución articular para FUNDMAT σ = 1 . ..................................................... 243
Figura 6.28.- Evolución articular para el jacobiano analítico con perturbación de la
transformación cámara-robot del 5%, para σ = 0 ................................................................... 243
Figura 6.29.- Evolución articular para el jacobiano analítico con perturbación de la
transformación cámara-robot del 5%, para σ = 1 .................................................................... 244
Figura 6.30.- Indice 0 sin ruido caso dinámico.......................................................................... 245
Figura 6.31.- Indice 1 sin ruido caso dinámico.......................................................................... 246
Figura 6.32.- Indice 5 sin ruido caso dinámico.......................................................................... 246
Figura 6.33.- Indice 0 con ruido caso dinámico......................................................................... 247
Figura 6.34.- Indice 1 con ruido caso dinámico......................................................................... 248
Figura 6.35.- Indice 5 con ruido caso dinámico......................................................................... 248
Figura 6.36.- Evolución articular para el método 3LAST caso dinámico.................................. 250
Figura 6.37.- Evolución articular para el método FUNDMAT caso dinámico.......................... 251
xxiii
Figura 6.38.- Evolución articular para el método RLS caso dinámico. ..................................... 252
Figura 6.39.- Evolución articular para el método de BROYDEN caso dinámico...................... 253
Figura 6.40.- Evolución articular para el jacobiano ANALÍTICO caso dinámico. ................... 254
Figura 6.41.- Indice 0................................................................................................................. 255
Figura 6.42.- Indice 1................................................................................................................. 256
Figura 6.43.- Indice 5................................................................................................................. 256
Figura 6.44.- Evolución articular para el método FUNDMAT σ = 1 , caso dinámico............. 257
Figura 6.45.- Evolución articular para el jacobiano analítico con perturbación de la
transformación cámara-robot del 5%, caso dinámico. ............................................................... 258
Figura 7.1.- Interpretación geométrica de las coordenadas normalizadas de Plüker. ............... 262
Figura 7.2.- Dos vistas de una línea 3D y sus planos de interpretación.................................... 263
Figura 7.3.- Representación normal de una línea....................................................................... 264
Figura 7.4. Método NORM, error medio en % VS número de iteraciones usando una línea,
casos: sin ruido, y con ruido añadido de σ = 0.3 y σ = 0.5 . .............................................. 269
Figura 7.5. Método THRH, error medio en % VS número de iteraciones usando una línea, casos:
sin ruido, y con ruido añadido de σ = 0.3 y σ = 0.5 . ......................................................... 269
Figura 7.6. Método ANALITICO, error medio en % VS número de iteraciones usando una línea,
casos: sin ruido, y con ruido añadido de σ = 0.5 y σ = 1.0 . ............................................... 270
Figura 7.7. Método NORM, error medio en % VS número de iteraciones para usando tres
líneas, casos: sin ruido, y con ruido añadido de σ = 0.2 . ....................................................... 271
Figura 7.8. Método THRH, error medio en % VS número de iteraciones para usando tres líneas,
casos: sin ruido, y con ruido añadido de σ = 0.3 y σ = 0.5 . .............................................. 271
Figura 7.9. Método ANALITICO, error medio en % VS número de iteraciones usando tres
líneas, casos: sin ruido, y con ruido añadido de σ = 0.5 y σ = 1.0 . .................................... 272
Figura 7.10. Evolución en articulaciones para 10 posiciones, método NORM considerando una
línea sin ruido. ........................................................................................................................... 273
Figura 7.11. Evolución en articulaciones para 10 posiciones, método THRH considerando una
línea sin ruido. ........................................................................................................................... 273
Figura 7.12. Evolución en articulaciones para 10 posiciones, método ANALÍTICO
considerando una línea sin ruido. .............................................................................................. 274
xxiv
Figura 8.14.- Errores método geométrico con ty =20 ; ax =2.5 ; az =2.5 ; σ =2.5 ..................... 293
Figura 8.15.- Errores método por homografía con ty =20 ; ax =2.5 ; az =2.5 ; σ =2.5 .............. 293
Figura 8.16.-Elemento se seguimiento....................................................................................... 295
Figura 8.17.- Imagen procesada del elemento de seguimiento. ................................................. 295
Figura 8.18.- Robot utilizado en el experimento. ...................................................................... 296
Figura 8.19.- Evolución de la distancia al vehículo objetivo. .................................................... 297
Figura 8.20.- Evolución de los ángulos ϕ y θ . ....................................................................... 297
Figura 8.21.- Acciones de control.............................................................................................. 298
Figura 8.22.- Velocidad estimada del objetivo. ......................................................................... 299
Figura 8.23.- Trayectoria seguida por el robot móvil seguidor.................................................. 299
xxv
xxvi
INDICE DE TABLAS
Tabla 6.1.- Coordenadas de cada uno de los cinco puntos del patrón en el sistema de
coordenadas de la primera cámara............................................................................................. 225
Tabla 6.2.- Coordenadas de cada uno de los cinco puntos del patrón en el sistema de
coordenadas del tercer eslabón. ................................................................................................. 226
Tabla 6.3.- Valores para los 5 índices para el jacobiano analítico, caso estático, sin ruido y con
ruido añadido de σ = 0.5 ........................................................................................................ 227
Tabla 6.4.- Valores para los 3 índices para el jacobiano ANALÍTICO, caso dinámico, sin ruido y
con ruido añadido de σ = 0.5 . ................................................................................................ 245
Tabla 7.1.- Promedio del número de movimientos de establecimiento con ruido y sin ruido
añadido. ..................................................................................................................................... 275
xxvii
Tabla 8.1.- Resultados con: ty =0 ; ax =0 ; az =0 ; σ =0 ........................................................... 288
Tabla 8.2.- Resultados con: ty =30 ; ax =0 ; az =0 ; σ =0 ......................................................... 288
Tabla 8.3.- Resultados con: ty =0 ; ax =5; az =0 ; σ =0 ............................................................ 290
Tabla 8.4.- Resultados con: ty =0 ; ax =0 ; az =5 ; σ =0 ........................................................... 290
Tabla 8.5.- Resultados con: ty =5 ; ax =5 ; az =5 ; σ =0 ........................................................... 290
Tabla 8.6.- Resultados con: ty =0 ; ax =0 ; az =0 ; σ =1 ........................................................... 292
Tabla 8.7.- Resultados con: ty =30 ; ax =5 ; az =5 ; σ =1 ......................................................... 292
Tabla 8.8.- Resultados con: ty =20 ; ax =2.5 ; az =2.5 ; σ =2.5 ................................................ 294
xxviii
TERMINOLOGÍA MATEMÁTICA
UTILIZADA
xxx
CAPITULO 1
1 INTRODUCCIÓN
1.1 MOTIVACION.
De todos ellos, son los sensores visuales los que presentan mejores prestaciones,
pues aparte de aportar flexibilidad al sistema, suministran información
geométrica y dinámica del entorno en la cual se mueve el robot, permitiendo
conocer tanto los objetos presentes en la escena como su posición, orientación y
velocidad con elevada prescisión.
Maru et al. [122] fue uno de los primeros autores en realizar control visual en un
sistema de dos cámaras, gracias a un par de cámaras paralelas calcula el
32
Introducción.
33
Capítulo 1
34
Introducción.
35
Capítulo 1
En el capítulo dos se presenta el estado del arte del control visual en general
para posteriormente describir el estado del arte de la estimación del jacobiano de
la imagen.
36
Introducción.
cada uno de los algoritmos propuestos. Este capítulo se complementa con los
anexos C y D.
1.4 PUBLICACIONES.
37
Capítulo 1
38
Introducción.
39
Capítulo 1
40
CAPITULO 2
42
Estado del Arte.
Amplificadores
de potencia
1 e Controlador τ
2 4
5 Robot Cámara
3 + visual
-
características
de referencia
4
1 2
5 3
extracción de imagen
características
Figura 2. 1.-Control visual directo.
44
Estado del Arte.
Amplificadores
de potencia
1 e Controlador
q Controlador
τ
2 4
5 Robot
3 + visual visual
-
características
de referencia
cámara
4
1 2
5 3
extracción de imagen
características
Figura 2.2.- Control visual mirar y mover dinámico.
45
Capítulo 2
posición de e
referencia + Control Robot cámara
-
estimación 4
1 2
de
5 3
posición
extracción de imagen
características
modelo de
modelo 3D
cámara
46
Estado del Arte.
estos parámetros, por lo que será robusto a los errores tanto de la calibración
de la cámara como de la calibración del robot [82] [178].
1 e
2 4
5 Control Robot cámara
3 +
-
características
de referencia modelo de
profundidad
cámara
4
1 2
5 3
extracción de imagen
características
Figura 2.4.- Control visual basado en imagen.
48
Estado del Arte.
s*
posición v
+- Robot Cámara
ω
uθ * rotación
+-
control
uθ
s reconstrucción 1 2
4
euclídea parcial 5 3
extracción de imagen
características
Figura 2.5.- Control visual 2½D.
49
Capítulo 2
50
Estado del Arte.
del movimiento en los otros dos ejes (ejes X e Y). La matriz de interacción se
divide en dos matrices, la primera de ellas se forma con la primera, segunda,
cuarta y quinta columna de la matriz de interacción por lo que depende de
los ejes X e Y, mientras que la segunda matriz es formada con la tercera y
sexta columna, y depende solamente del eje Z. Esta última matriz es
dependiente de dos nuevas características visuales fácilmente determinadas a
partir de las originales. En las pruebas realizadas se observa que con este
esquema se evitan los movimientos complicados en el espacio 3D para
conseguir la permanencia de las características visuales en el pano de la
imagen.
e
Control Robot cámara
+
-
movimiento
de referencia
extracción de imagen
movimiento
51
Capítulo 2
52
Estado del Arte.
Esta clasificación fue propuesta por D. Kragic [95], se considera como elemento
de clasificación el modelo Visual-Motor del sistema, es decir la relación de
cambio entre la parte motora del sistema y las características en la imagen. Se
dice que es conocido a priori si se dispone de los modelos de los diferentes
elementos del sistema, caso contrario se debe realizar una estimación, se tiene:
53
Capítulo 2
-
Modelo Visual-motor
También podría incluirse otros criterios, como la ley de control a utilizar: ley
de control proporcional basada en pseudoinversa del jacobiano de la imagen
[82] utilizada por la mayoría de autores. En [174] a partir de la ley proporcional
se implementa un controlador no lineal al adicionar un término adicional que
compensa las incertidumbres. Otro controlador no lineal se impementa en [70].
En [136] se utilizan controladores PI, de asignación de polos y LQG. En [71] se
utiliza un controlador öptimo cuadrático lineal LQ. En [133] se implementa un
controlador particionado que integra un controlador cinemático con un
controlador visual para controlar una unidad pan-til en tareas de seguimiento. En
[81] se presenta una combinación del control visual basado en imagen con un
controlador de fuerza, para implementar un controlador híbrido visión/fuerza.
54
Estado del Arte.
Otro campo del control visual es dotar al sistema de robustez ya sea frente a
errores de modelado o a perturbaciones, a fin de operar en escenarios reales,
como en [96] donde se fusiona información de diferentes características
presentes en la escena a través de un proceso de votado. En [95] y [97] se
presentan tareas combinadas utilizando esta misma técnica. En [174] se
implementa un controlador robusto basado en la ley proporcional [82] al
adiconarle un término que compensa las incertidumbres. En [182] se usa un
esquema PBVS, se aplica el filtro de Kalman para predecir la posición relativa
del objeto, se utiliza una base de datos con características visuales adecuadas
que son utilizadas para realizar una trayectoria óptima, también se aplican
55
Capítulo 2
A diferencia del uso de puntos en la imagen, pocos trabajos han sido dedicados a
control visual a partir de líneas, la principal razón es la dificultad de manejar
las características de las líneas en la imagen, las cuales representan en geometría
proyectiva la proyección de un plano 3D que pasa por el centro óptico de la
cámara. Aplicaciones en sistemas monocámara se tiene en [46] donde la tarea
es posicionar la cámara con respecto a una autopista representada por tres líneas
paralelas que están en un plano, el jacobiano de la imagen es calculado
considerando constante la altura a la que se encuentra la cámara sobre la
autopista. En [6] se representa una línea en base a coordenadas de Plücker para
desacoplar la ley de control en dos partes: primero alineación de la orientación,
y luego alineación del plano de interpretación; la orientación 3D de la línea es
detectada con ayuda de un puntero láser. En [62] las coordenadas de Plücker son
usadas para representar una línea y una tarea de alineamiento es llevada a cabo
como dos tareas simultáneas de alineamiento punto a línea. Aplicaciones con
dos vistas se tiene en [57] donde una línea 3D es alineada con otra por medio de
56
Estado del Arte.
58
Estado del Arte.
59
Capítulo 2
Jacobiano de la Imagen
60
CAPITULO 3
centro x
óptico y
oc f
xc zc eje óptico
(uo , vo )
yc u
m v
xw zw
plano de ow
la Imagen yw
M
u v f
= = (3.1)
X c Yc Z c
62
Modelos de Cámaras y Robot.
x = uo + f x u
(3.2)
y = vo + f y v
⎡ x ⎤ ⎡ fx 0 uo ⎤ ⎡ u ⎤ ⎡ x⎤ ⎡u ⎤
⎢ y⎥ = ⎢ 0 fy vo ⎥⎥ ⎢⎢ v ⎥⎥ ó ⎢ y ⎥ = K ⎢v ⎥
⎢ ⎥ ⎢ ⎢ ⎥ ⎢ ⎥ (3.3)
⎢⎣ 1 ⎥⎦ ⎢⎣ 0 0 1 ⎥⎦ ⎢⎣ 1 ⎥⎦ ⎢⎣ 1 ⎥⎦ ⎢⎣ 1 ⎥⎦
⎡ fx 0 uo ⎤
K = ⎢⎢ 0 fy vo ⎥⎥ (3.4)
⎢⎣ 0 0 1 ⎥⎦
⎡ fx f x cot θ uo ⎤
⎢ fy ⎥
K=⎢0 vo ⎥ (3.5)
⎢ sin θ ⎥
⎢0 0 1 ⎥⎦
⎣
63
Capítulo 3
y
v
m
vo u
θ
0
uo x
Figura 3.2.- Parámetros intrínsecos de la cámara.
⎡Xc ⎤
1 ⎢ ⎥
q= = ( )
T
Y u , v ,1
Zc ⎢ ⎥ (3.6)
c
⎢⎣ Z c ⎥⎦
m = Kq (3.7)
64
Modelos de Cámaras y Robot.
⎡R t ⎤
Mc = ⎢ ⎥ Mw (3.8)
⎣ 0 1⎦
λm = PM w (3.9)
⎡R t ⎤
P = Kπo ⎢ ⎥ (3.10)
⎣ 0 1⎦
65
Capítulo 3
3.1.4 DISTORSION.
ud = uu + Du (uu , vu )
(3.11)
vd = vu + Dv (uu , vu )
donde (uu , vu ) son las coordenadas del punto central de la imagen sin distorsión,
(ud , vd ) son las mismas pero con distorsión. D(uu , vu ) es la distorsión añadida
que involucra la distorsión radial y tangencial.
posición con
distorsión
u
dt dr
v
posición
ideal
66
Modelos de Cámaras y Robot.
donde
r 2 = uu2 + vu2 (3.13)
⎡ ⎛ r2 ⎞⎤
xd = xu + ( xu − uo ) ⎢ k1r 2 + k2 r 4 + 2 p1vu + p2 ⎜ + 2uu ⎟ ⎥
⎣ ⎝ uu ⎠⎦
(3.15)
⎡ 2 ⎛ r2 ⎞⎤
yd = yu + ( yu − vo ) ⎢ k1r + k2 r + 2 p2uu + p1 ⎜ + 2vu ⎟ ⎥
4
⎣ ⎝ vu ⎠⎦
a) b)
Figura 3.4.- Objetos de calibración: a) planar b) cúbica.
68
Modelos de Cámaras y Robot.
Considerando (3.9) y
(3.10), la relación entre un punto 3D M = [ X W YW ZW 1] en el sistema de
coordenadas del mundo, y su proyección en la imagen m = ( x, y,1)T puede ser
escrita como:
λm = K [ R t ] M (3.16)
⎡ fx γ uo ⎤
K = ⎢⎢ 0 fy vo ⎥⎥
⎢⎣ 0 0 1 ⎥⎦
⎡ XW ⎤
⎡x⎤ ⎢Y ⎥ ⎡ XW ⎤
λ ⎢⎢ y ⎥⎥ = K [r1 r2 r3 t ] ⎢ W ⎥ = K [r1 r2 t ] ⎢⎢ YW ⎥⎥ (3.17)
⎢ 0 ⎥
⎢⎣ 1 ⎥⎦ ⎢ ⎥ ⎢⎣ 1 ⎥⎦
⎣ 1 ⎦
69
Capítulo 3
λm = HM (3.18)
r1T r1 = r2T r2
(3.20)
r1T r2 = 0
70
Modelos de Cámaras y Robot.
⎡ 1 −γ γ v0 − f y u0 ⎤
⎢ ⎥
⎢ f x2 f x2 f y f x2 f y ⎥
⎢ −γ (γ v0 − f y u0 ) v0 ⎥⎥
−γ γ2 1
B=⎢ + − 2 (3.23)
⎢ f x2 f y 2
f f 2
f y2 f x2 f y2 fy ⎥
⎢ ⎥
x y
⎢ γ v0 − f y u0 −γ (γ v0 − f y u0 ) v0 (γ v0 − f y u0 ) 2 v02 ⎥
⎢ 2 2 2
− + + 1⎥
⎣ fx f y f f
x y f y2 f x2 f y2 f y2 ⎦
Por lo tanto las restricciones (3.21) pueden ser re-escritas como una ecuación
homogénea en b de la forma:
⎡ v12
T
⎤
⎢ T⎥
b=0 (3.26)
⎣ ( v11 − v 22 ) ⎦
se tendrán tantas ecuaciones (3.26) como imágenes del plano se tenga, las cuales
se pueden apilar para formar un sistema de la forma
Vb = 0 (3.27)
71
Capítulo 3
r1 = λ K −1h1
r2 = λ K −1h 2
(3.29)
r3 = r1 × r2
t = λ K −1h3
donde λ = 1/ K −1h1 = 1/ K −1h 2 .
Una vez obtenidos estos datos, sirven como datos iniciales para una etapa de
refinamiento a través de técnicas iterativas, donde además se estiman las
distorsiones radial y tangencial.
72
Modelos de Cámaras y Robot.
73
Capítulo 3
~
M
~'
lm
lm'
~
m
~'
m
C
~ C'
e ~
e'
74
Modelos de Cámaras y Robot.
l1
l2
l3 l’3
l’2
l4 l’1
I1 I2
l’4
C1 e1 e2
C2
lm' = Fm (3.30)
Igualmente, para la línea epipolar l m ' de la primera imagen (línea epipolar
izquierda) se tiene:
75
Capítulo 3
m 'T Fm = 0 (3.33)
mT FT m ' = 0 (3.34)
Fe = 0 FT e ' = 0 (3.35)
76
Modelos de Cámaras y Robot.
⎡M ⎤
λ m = K [ I 0] ⎢ ⎥
⎣1⎦
⎡M ⎤ (3.36)
λ ' m ' = K '[R t ] ⎢ ⎥
⎣1⎦
F = K '−T [t ]x RK −1 (3.38)
donde [t ]x es la matriz skew symmetric de t .
E = [t ]x R (3.39)
La matriz esencial E es también una matriz singular (pero con sus dos valores
singulares iguales), posee cinco grados de libertad: tres por la rotación R y dos
por la traslación t .
F = K '−T EK −1 (3.40)
77
Capítulo 3
q 'T Eq = 0 (3.41)
E = UDVT (3.42)
⎡1 0 0 ⎤
D = ⎢⎢0 1 0 ⎥⎥
(3.43)
⎢⎣0 0 0 ⎥⎦
⎡0 −1 0 ⎤ ⎡ 0 1 0⎤
W = ⎢1 0 0 ⎥ , Z = ⎢⎢ −1 0 0 ⎥⎥
⎢ ⎥ (3.44)
⎢⎣0 0 1 ⎥⎦ ⎢⎣ 0 0 0 ⎥⎦
78
Modelos de Cámaras y Robot.
P = [ I | 0]
(3.45)
P ' = [R | t]
S = [ t ]x (3.46)
se cumple que
St = 0 (3.47)
79
Capítulo 3
⎡ 0 1 0 ⎤ ⎡u1 t ⎤ ⎡ 0 ⎤ ⎡ uT2 t ⎤ ⎡ 0 ⎤
T
(UWV T | α u3 )
(UWV T | −α u3 )
(3.51)
(UWT V T | α u3 )
(UWT V T | −α u3 )
80
Modelos de Cámaras y Robot.
m 'Ti Fm i = 0 (3.52)
se tiene:
ATi f = 0 (3.55)
donde
y
f = [ f11 , f12 , f13 , f 21 , f 22 , f 23 , f31 , f32 , f33 ] (3.57)
T
81
Capítulo 3
Af = 0 (3.58)
donde
⎡ A1T ⎤
⎢ ⎥
A=⎢ ⎥ (3.59)
⎢ ATn ⎥
⎣ ⎦
El caso más sencillo de los métodos lineales es el método de los 7 puntos donde
se requieren para la determinación de F solamente 7 puntos correspondidos, se
tiene por lo tanto una matriz A 7 × 9 de rango 7, donde la solución de (3.58) es
una combinación lineal de f1 y f 2 de la forma α f1 + (1 − α )f 2 , donde f1 y f 2 son
vectores que forman el espacio nulo derecho de A , la determinación del escalar
α se consigue utilizando la restricción de singularidad:
i
método mínimos cuadrados asume el último elemento de F valor 1, lo cual es
válido al ser una matriz homogénea, formándose un sistema de la forma
A ' f ' = c9 donde A ' es una matriz n × 8 , f ' los ocho primeros elementos de f ,
y c9 la novena columna de A con signo cambiado; la resolución de f ' , se
realiza con el método de solución de ecuaciones normales. Existe otro método
basado en el análisis de los vectores propios, que considera la solución de la
82
Modelos de Cámaras y Robot.
Los métodos no lineales igual que los lineales, tampoco toman en cuenta la
restricción del determinante, por lo que su comportamiento es muy parecido; se
basan en criterios geométricos y son resueltos principalmente por técnicas
iterativas, y utilizan un método lineal para la determinación de una matriz
fundamental inicial.
determinación de la
Matriz fundamental
i
es una función de peso cuya expresión depende del tipo de estimador a utilizar
[67]. LMedS y RANSAC son muy parecidos, ambos métodos seleccionan
aleatoriamente un conjunto de puntos a partir del cual calculan la matriz
fundamental por un método lineal, la diferencia entre ellos es la forma de elegir
la matriz fundamental final. LMedS calcula para cada F hallada, la mediana de
las distancias entre los puntos y su correspondiente línea epipolar, la matriz
fundamental buscada será la que corresponda a la menor mediana. RANSAC
calcula el número de inliers para el cual la F lo maximiza, una vez descartados
los outliers, se recalcula la F con el fin de obtener mejores resultados.
4.0 6
3.5 métodos
robustos
3.0 5 mínimos
cuadrados
2.5
3 4 7
2.0
outlier
1.5
1.0 2
0.5
1
0.0
2.0 4.0 6.0 8.0 10.0
Figura 3.8.- Comparación entre un método lineal y otro robusto.
84
Modelos de Cámaras y Robot.
(
min ∑ m′i T Fmi )
2
i
(3.61)
en matrices:
min Af
2 (3.62)
85
Capítulo 3
min Af
2
sujeto a f = 1 (3.66)
AT Af = λf (3.67)
f = α f1 + (1 − α )f 2 (3.68)
86
Modelos de Cámaras y Robot.
det [α f1 + (1 − α )f 2 ] = 0 (3.69)
donde l 'i = Fmi = [l '1 , l '2 , l '3 ]T , considerando ambas imágenes, la función de
coste toma la siguiente forma:
donde:
1/ 2
⎛ 1 1 ⎞
wi = ⎜ 2 2 + 2 2 ⎟ (3.73)
⎝ l1 + l2 l '1 + l '2 ⎠
87
Capítulo 3
log (1 − P )
N= (3.74)
log ⎡1 − (1 − ε ) ⎤
p
⎣ ⎦
88
Modelos de Cámaras y Robot.
La matriz fundamental buscada será calculada con un método lineal a partir del
subconjunto con la mayor cantidad de puntos que cumplan con la relación
(3.76).
⎡ 5 ⎤
σ̂ = 1.4826⎢1 + (3.78)
n − p ⎥⎦
MJ
⎣
89
Capítulo 3
⎧1 si ri 2 < (2.5σˆ ) 2
wi = ⎨ (3.79)
⎩0 otro caso
donde ri 2 es:
min ∑ wi ri 2 (3.81)
i
90
Modelos de Cámaras y Robot.
(traslación).
• La distancia promedio de los puntos transformados al nuevo origen sea
2 (escalado).
• Esta transformación es aplicada a cada una de las imágenes
independientemente.
91
Capítulo 3
F = USVT (3.84)
S = diag (r , s, t ) (3.85)
Una homografía es una transformación proyectiva entre dos planos (Figura 3.9),
donde cualquier punto m k perteneciente al plano π k está relacionado
linealmente con su respectivo punto m i perteneciente al plano π i por la
homografía H ik de la forma:
λmi = H ik m k (3.87)
92
Modelos de Cámaras y Robot.
mk
πk
H ik
• • mi
• •
πi
0
Figura 3.9.- Transformación proyectiva H ik entre los planos π k y π i
λm 2 = H 21m1 (3.88)
λ2m 2 = H 2π mπ (3.90)
λm 2 = H 2π H1−π1m1 (3.91)
H 21 = H 2π H1−π1 (3.92)
93
Capítulo 3
π
M
p1 p2
d1 m1 m2
z x
n1
z
01 x 02
y y
R 21 , t 21
Una homografia entre dos vistas, puede ser expresada como función de la
rotación, de la traslación entre los centros ópticos de ambas cámaras dividida
entre la distancia entre el plano π y el centro óptico de la primera cámara, y del
vector normal al plano π con referencia al centro óptico de la primera cámara
[49]:
t 21 T
H 21 = R 21 + n1 (3.93)
d1
λm 2 = G 21m1 (3.94)
94
Modelos de Cámaras y Robot.
λq 2 = H 21q1 (3.96)
p 2 = R 21p1 + t 21 (3.98)
n1T p1
d1 = n1T p1 ó 1= (3.99)
d1
95
Capítulo 3
⎛ t nT ⎞
p 2 = ⎜ R 21 + 21 1 ⎟ p1 ó p 2 = H 21p1 (3.100)
⎝ d1 ⎠
⎡X2 ⎤ ⎡ X1 ⎤
⎢Y ⎥ = H ⎢Y ⎥
⎢ 2⎥ 21 ⎢ 1 ⎥ (3.101)
⎢⎣ Z 2 ⎥⎦ ⎢⎣ Z1 ⎥⎦
96
Modelos de Cámaras y Robot.
HT F + FT H = 0 (3.104)
HT Fe = −FT He
He = e ' y He = 0 (3.105)
HT Fm = −FT Hm
H T l ' = − FT m '
97
Capítulo 3
HT l ' = l (3.106)
F = [e ']× H (3.109)
ecuación compatible con (3.104) y que además muestra una forma de calcular la
matriz fundamental si se conoce una homografia y el epipolo de la segunda
cámara que puede encontrarse en base a relaciones geométricas, es el método
denominado paralaje virtual [14] donde es necesario un plano π , una
homografía H calculada a través de los puntos de este plano, y dos puntos
tridimensionales M1 y M 2 que no pertenezcan a este plano (
Figura 3.11). Las proyecciones de los dos puntos virtuales M1π y M 2π en la
segunda imagen son
98
Modelos de Cámaras y Robot.
M1 M2
π
M 2π
M 1π
m1,
m1 m1,π
m2,
' ,
m2 l1 m
2π
l2'
O
e' O'
99
Capítulo 3
−1
⎡ R 21 t 21 ⎤ ⎡ R 2W t 2W ⎤ ⎡ R1W t1W ⎤
⎢ 0 = (3.113)
⎣ 1 ⎥⎦ ⎢⎣ 0 1 ⎥⎦ ⎢⎣ 0 1 ⎥⎦
donde R1W , t1W y R 2W , t2W son las transformaciones entre el sistema del mundo
y la primera y segunda cámara respectivamente.
y
z
x
0W
R1W , t1W R 2W , t 2W
z x
z
01 x 02
y y
R 21 , t 21
100
Modelos de Cámaras y Robot.
⎡X ⎤
⎢Y ⎥ ⎡X ⎤
m ∼ P⎢ ⎥ ó m ∼ KR ⎢⎢ Y ⎥⎥ (3.114)
⎢Z ⎥
⎢ ⎥ ⎢⎣ Z ⎥⎦
⎣0⎦
⎡X ⎤
R K m ∼ ⎢⎢ Y ⎥⎥
−1 −1
(3.115)
⎢⎣ Z ⎥⎦
101
Capítulo 3
M
R2 , t2
I, 0
m1 m2
z
z
02 x
01 x
R 21 , t 21 y
y
n 2
102
Modelos de Cámaras y Robot.
⎡M ⎤
⎡I3 − R1−1K1−1m1 0 0 ⎤ ⎢ ⎥ ⎡ t1 ⎤
⎢ ⎥ ⎢ λ1 ⎥ ⎢ ⎥
⎢I3 − R −21K −21m 2 0 ⎥ ⎢ λ ⎥ = ⎢t 2 ⎥ (3.119)
⎢ ⎥⎢ 2⎥ ⎢ ⎥
⎢ ⎥ ⎢ ⎥
⎣⎢ I 3 0 0 − R −n1K −n1m n ⎦⎥ ⎢ ⎥ ⎣t n ⎦
⎢⎣ λn ⎥⎦
⎡R 2 t 2 ⎤ ⎡ R 21 t 21 ⎤ ⎡ I 3 0⎤ ⎡ R 21 t 21 ⎤
⎢0 = =
⎣ 1 ⎥⎦ ⎢⎣ 0 1 ⎥⎦ ⎢⎣ 0 1 ⎥⎦ ⎢⎣ 0 1 ⎥⎦
⎡M ⎤
⎡I3 −K1−1m1 0 ⎤⎢ ⎥ ⎡ 0 ⎤
⎢ ⎥ λ1 = ⎢ ⎥ (3.120)
⎣I3 0 − R −21K −21m 2 ⎦ ⎢ ⎥ ⎣t12 ⎦
⎢⎣ λ2 ⎥⎦
103
Capítulo 3
Z 3 Y3
X3
Z2
X2
Y2
X0 Z
0
d2c
Y0
Y1 X1
Z1
Figura 3.14.- Sistemas de referencia del robot para calcular la cinemática directa
por el método de Denavit-Hartenberg
104
Modelos de Cámaras y Robot.
muestran en la Figura 3.14, se supone que tanto los ejes de rotación de los
eslabones 3 y 2 así como el eje de rotación del eslabón 2 y el eje del eslabón 1 se
cortan en el espacio, además, que la plataforma del tercer eslabón descansa en el
eje del mismo (caso ideal). Además para evitar que algunas medidas aumenten
las posibles fuentes de errores, se ha considerado coincidentes en posición los
sistemas de referencia 0 y 1, así también los sistemas 2 y 3. En base a esta
configuración se han obtenido los parámetros de Denavit-Hartenberg que se
muestran en la (Tabla 3.1), donde d1 ,θ 2 ,θ3 , son variables y d 2 c es constante.
Eslabón θi αi ai di
1 90º -90º 0 d1
2 θ2 90º 0 −d2c
3 θ3 90º 0 0
⎡ 0 0 −1 0 ⎤
⎢1 0 0 0 ⎥
H 01 = ⎢ ⎥ (3.121)
⎢0 −1 0 d1 ⎥
⎢ ⎥
⎣0 0 0 1 ⎦
⎡cθ 2 0 sθ 2 0 ⎤
⎢ sθ 0 −cθ 2 0 ⎥⎥
H12 = ⎢ 2 (3.122)
⎢ 0 1 0 −d 2c ⎥
⎢ ⎥
⎣ 0 0 0 1 ⎦
105
Capítulo 3
⎡c θ3 0 sθ3 0⎤
⎢ sθ 0 −cθ3 0 ⎥⎥
H 23 = ⎢ 3
⎢ 0 1 0 0⎥ (3.123)
⎢ ⎥
⎣ 0 0 0 1⎦
⎡ 0 −1 0 d2c ⎤
⎢ cθ 0 sθ 2 0 ⎥⎥
H 02 = H 01H12 = ⎢ 2
⎢ − sθ 2 0 cθ 2 d1 ⎥ (3.124)
⎢ ⎥
⎣ 0 0 0 1 ⎦
⎡ − sθ3 0 c θ3 d 2c ⎤
⎢ c θ cθ sθ 2 c θ 2 sθ 3 0 ⎥⎥
H 03 = H 01H12 H 23 = ⎢ 2 3 (3.125)
⎢ − sθ 2 c θ3 cθ2 − sθ 2 sθ 3 d1 ⎥
⎢ ⎥
⎣ 0 0 0 1 ⎦
⎡ q1 ⎤ ⎡ d1 ⎤
⎡p ⎤ ⎢ ⎥ (3.126)
⎢ω ⎥ = J R q donde q = ⎢⎢ q2 ⎥⎥ = ⎢θ 2 ⎥
⎣ ⎦ ⎢⎣ q3 ⎥⎦ ⎢⎣θ3 ⎥⎦
106
Modelos de Cámaras y Robot.
⎡z z1 × (p − p1 ) z 2 × (p − p 2 ) ⎤
JR = ⎢ 0 ⎥ (3.127)
⎣0 z1 z2 ⎦
⎡0 ⎤ ⎡ −1⎤ ⎡ 0 ⎤
z 0 = ⎢⎢0 ⎥⎥ , z1 = ⎢⎢ 0 ⎥⎥ , z 2 = ⎢⎢ sin θ 2 ⎥⎥
(3.128)
⎢⎣1 ⎥⎦ ⎢⎣ 0 ⎥⎦ ⎢⎣cos θ 2 ⎥⎦
⎡d2c ⎤ ⎡0⎤ ⎡ d 2c ⎤
p = ⎢⎢ 0 ⎥⎥ , p1 = ⎢⎢ 0 ⎥⎥ , p 2 = ⎢⎢ 0 ⎥⎥
(3.129)
⎢⎣ d1 ⎥⎦ ⎢⎣ d1 ⎥⎦ ⎢⎣ d1 ⎥⎦
⎡0 0 0 ⎤
⎢0 0 0 ⎥⎥
⎢
⎢1 0 0 ⎥ (3.130)
JR = ⎢ ⎥
⎢0 −1 0 ⎥
⎢0 0 sin θ 2 ⎥
⎢ ⎥
⎢⎣0 0 cos θ 2 ⎥⎦
107
Capítulo 3
En este caso se considera que el eje de rotación del segundo eslabón (eje Z del
sistema del primer eslabón) no se corta en el espacio con el eje de rotación del
tercer eslabón (eje Y del sistema del tercer eslabón), habiendo un
desplazamiento a2c (Figura 3.15), que deberá considerarse en los parámetros de
Denavit-Hartenberg los cuales se muestran en la Tabla 3.2.
Z3
Z2 Y3
X2 X3
a2c
Y2
X0 Z
d 2c 0
Y0
Y1 X1
Z1
Figura 3.15.- Sistemas de referencia del robot para calcular la cinemática directa
por el método de Denavit-Hartenberg, considerando el desplazamiento entre los
ejes de rotación del segundo y tercer eslabón.
Eslabón θi αi ai di
1 90º -90º 0 d1
2 θ2 90º a2c d 2c
3 θ3 90º 0 0
108
Modelos de Cámaras y Robot.
⎡ 0 0 −1 0 ⎤
⎢1 0 0 0 ⎥
H 01 = ⎢ ⎥ (3.131)
⎢0 −1 0 d1 ⎥
⎢ ⎥
⎣0 0 0 1 ⎦
⎡cθ 2 0 sθ 2 a2 c cθ 2 ⎤
⎢ sθ 0 −cθ 2 a2 c sθ 2 ⎥⎥
H12 = ⎢ 2 (3.132)
⎢ 0 1 0 −d 2 c ⎥
⎢ ⎥
⎣ 0 0 0 1 ⎦
⎡c θ3 0 sθ3 0⎤
⎢ sθ 0 −cθ 3 0 ⎥⎥
H 23 = ⎢ 3 (3.133)
⎢ 0 1 0 0⎥
⎢ ⎥
⎣ 0 0 0 1⎦
⎡ 0 −1 0 d2c ⎤
⎢ cθ 0 sθ 2 a2 c cθ 2 ⎥⎥
H 02 = H 01H12 = ⎢ 2
⎢ − sθ 2 0 cθ 2 − a2 c sθ 2 + d1 ⎥ (3.134)
⎢ ⎥
⎣ 0 0 0 1 ⎦
⎡ − sθ3 0 c θ3 d 2c ⎤
⎢ c θ cθ sθ 2 c θ 2 sθ3 a2 c cθ 2 ⎥⎥
H 03 = ⎢ 2 3 (3.135)
⎢ − sθ 2 c θ3 cθ2 − sθ 2 sθ3 − a2 c sθ 2 + d1 ⎥
⎢ ⎥
⎣ 0 0 0 1 ⎦
109
Capítulo 3
⎡ d 2c ⎤ ⎡0⎤
p = p 2 = ⎢ a2 c c θ 2 ⎥ , p1 = ⎢⎢ 0 ⎥⎥
⎢ ⎥ (3.136)
⎢⎣ − a2 c s θ 2 + d1 ⎥⎦ ⎢⎣ d1 ⎥⎦
⎡0 0 0 ⎤
⎢0 −a s θ 0 ⎥⎥
⎢ 2c 2
⎢1 − a2 c cθ 2 0 ⎥ (3.137)
JR = ⎢ ⎥
⎢0 −1 0 ⎥
⎢0 0 sθ2 ⎥
⎢ ⎥
⎣⎢ 0 0 c θ 2 ⎦⎥
110
Modelos de Cámaras y Robot.
3.4.1.1 HARDWARE.
111
Capítulo 3
112
Modelos de Cámaras y Robot.
3.4.1.2 SOFTWARE.
113
Capítulo 3
• Patrón compuesto por 25 cuadrados negros sobre fondo blanco plano (Figura
3.19), se ha utilizado en tareas de calibración y en tareas de estimación de la
matriz fundamental, las características a detectarse son las coordenadas
( x, y ) de las esquinas (un total de 100) de cada uno de estos cuadrados.
• Patrón de cinco puntos negros sobre fondo blanco plano (Figura 3.20), las
características a extraer son las coordenadas ( x, y ) del centro de gravedad
de cada uno de estos puntos (por lo que se puede considerar hasta diez
114
Modelos de Cámaras y Robot.
1 4
5 3
• Patrón negro de forma triangular sobre fondo blanco plano (Figura 3.22), las
características a extraer son los bordes de este triángulo que representarán
115
Capítulo 3
116
Modelos de Cámaras y Robot.
117
Capítulo 3
118
Modelos de Cámaras y Robot.
119
Capítulo 3
120
Modelos de Cámaras y Robot.
Se observa a partir de la Figura 3.24, que en todos los métodos, el error medio
disminuye con el número de puntos, hasta llegar a un número de puntos de
convergencia cercano a 480. Los métodos lineales siguen un comportamiento
casi lineal de error máximo VS número de puntos, este comportamiento no se
observa en los métodos robustos.
En las Figura 3.26 y Figura 3.27 se observa que dentro de los límites
encontrados experimentalmente (hasta un valor de σ = 1.2 , aunque el método
SVD soporta hasta σ = 1.5 ) tanto el error medio y máximo se incrementan con
el ruido gaussiano. obteniéndose buenos resultados en error medio los métodos
NL, LMedS y LLST, mientras que en error máximo RANSAC, LMedS y SVD.
121
Capítulo 3
122
Modelos de Cámaras y Robot.
123
Capítulo 3
124
Modelos de Cámaras y Robot.
125
Capítulo 3
126
Modelos de Cámaras y Robot.
127
Capítulo 3
Figura 3.37.- Trayectorias circulares y centros de giro generadas por cada uno
de los cinco puntos del patrón, al girar θ 3 cuando θ 2 = 0 .
Figura 3.38.- Trayectorias circulares y centros de giro generadas por cada uno
de los cinco puntos de la plataforma, al girar θ 3 cuando θ 2 = −13000 .
128
Modelos de Cámaras y Robot.
Figura 3.39.- Trayectorias circulares y centros de giro generadas por cada uno
de los cinco puntos del patrón, al girar θ 3 cuando θ 2 = 13000 .
En cada una de las gráficas 3D anteriores, se observa que la recta que representa
a los centros de giro corresponderá al eje de giro del eslabón. Esta recta se
obtendrá mediante un proceso de regresión lineal. Las gráficas para
θ 2 = −26000 y θ 2 = 26000 no se presentan pues son muy similares.
129
Capítulo 3
Figura 3.40.- Trayectorias circulares y centros de giro generados por cada uno
de los cinco puntos del patrón, al girar θ2 cuando θ3 = 20000 .
130
Modelos de Cámaras y Robot.
Del mismo modo se observa también en cada una de estas gráficas, que la recta
que representa a los centros de giro corresponderá al eje de rotación del segundo
eslabón. Como no se ha movido el primer eslabón, el eje del segundo eslabón es
fijo para cualquier posición del tercer eslabón, por lo que se le puede determinar
a partir de todos los centros (15) encontrados para las tres posiciones del tercer
eslabón.
131
Capítulo 3
132
Modelos de Cámaras y Robot.
Observando la Figura 3.44, los ejes de rotación del tercer eslabón circunscriben
una circunferencia de radio a2c . El centro de esta circunferencia, corresponde la
posición del eje de rotación del segundo eslabón. Según el modelo propuesto en
la Figura 3.15, el radio de giro a2c corresponde a la distancia entre el eje Z del
sistema de coordenadas del primer eslabón y el eje de rotación del tercer
eslabón. Se ha determinado este valor igual a a2 c = 3.08 mm.
3.5 CONCLUSIONES.
133
Capítulo 3
hayan eliminado los errores de distorsión los resultados obtenidos son mucho
mejores.
134
CAPITULO 4
4.1 INTRODUCCIÓN.
e(t ) = 0 (4.2)
s = J vr (4.3)
⎡ ∂s1 ∂s1 ⎤
⎢ ∂r ∂rp ⎥
⎢ 1 ⎥
Jv = ⎢ ⎥ (4.4)
⎢ ⎥
⎢ ∂sm ∂sm ⎥
⎢ ∂r1 ∂rp ⎥⎦
⎣
136
Estimación del Jacobiano de la Imagen
⎡ fX ⎤
⎡u ⎤ ⎢ Z ⎥ (4.5)
m=⎢ ⎥=⎢ ⎥
⎣v ⎦ ⎢ fY ⎥
⎣⎢ Z ⎦⎥
137
Capítulo 4
⎡ XZ − XZ ⎤
⎢f ⎥
Z2 ⎥ (4.6)
m=⎢
⎢ YZ − YZ ⎥
⎢⎣ f Z 2 ⎥⎦
⎡ f u uv − f 2 − u2 ⎤
⎢− 0 v⎥
Z Z f f (4.7)
m=⎢ ⎥r
⎢ f v f +v
2 2
uv ⎥ c
⎢ 0 − − −u ⎥
⎣ Z Z f f ⎦
T
donde rc = ⎡⎣Vx Vy Vz ω x ω y ω z ⎤⎦ es el vector de velocidades espaciales
referidos al sistema de coordenadas de la cámara. En caso que la variación del
punto r esté referenciado a un sistema de coordenadas B cualquiera, deberá
realizarse una transformación del sistema B al sistema de coordenadas de la
cámara c (ver anexo A ecuación A.6) de la forma:
⎡R [t cB ]× R cB ⎤
rc = ⎢ cB r (4.8)
⎣ 0 R cB ⎥⎦ B
⎡ f u uv − f 2 − u2 ⎤
⎢− Z 0
Z f f
v⎥
Jv = ⎢ ⎥ (4.9)
⎢ f v f +v2 2
uv ⎥
⎢ 0 − − −u ⎥
⎣ Z Z f f ⎦
138
Estimación del Jacobiano de la Imagen
⎡ J vi ⎤
⎢ ⎥
Jv = ⎢ ⎥ (4.10)
⎢J v ⎥
⎣ m/2 ⎦
139
Capítulo 4
s = Jq (4.13)
⎡ ∂s1 ∂s1 ⎤
⎢ ∂q ∂qn ⎥
⎢ 1 ⎥
J=⎢ ⎥ (4.15)
⎢ ⎥
⎢ ∂sm ∂sm ⎥
⎢⎣ ∂q1 ∂qn ⎥⎦
Realizar control visual con el jacobiano visual-motor trae sus ventajas, pues su
estimación no depende de la profundidad Z, además esta estimación se puede
llevar a cabo directamente a partir de cambios en articulaciones y cambios en
características en pixeles. La estimación del jacobiano en la presente tesis, se
refiere a la estimación del jacobiano visual-motor que en adelante en este
capítulo se le llamará con el nombre genérico de jacobiano.
140
Estimación del Jacobiano de la Imagen
⎡J ⎤
J = ⎢ 1⎥ (4.16)
⎣J 2 ⎦
141
Capítulo 4
∆s ∆q (4.18)
=J ó ∆s = J∆q
∆t ∆t
∆s k = s k − s k −1 (4.20)
142
Estimación del Jacobiano de la Imagen
∆q k = q k − q k −1 (4.21)
⎡ ∆q ⎤
⎡ ∆xk ⎤ ⎡ J11 J12 J13 ⎤ ⎢ 1k ⎥ (4.22)
⎢ ⎥=⎢ ∆q
J 23 ⎥⎦ ⎢ 2 k ⎥
⎣ ∆yk ⎦ ⎣ J 21 J 22
⎢⎣ ∆q3k ⎥⎦
⎡J J12 J13 ⎤
J = ⎢ 11
J 23 ⎥⎦
(4.24)
⎣ J 21 J 22
143
Capítulo 4
Método propuesto por Sutanto [166], utiliza una aproximación de primer orden,
y estima el jacobiano en base a la información en características y
articulaciones de los N últimos movimientos realizados. El jacobiano estimado
se supone constante durante estos N últimos movimientos. Considerando la
ecuación (4.18) se cumple que:
⎡ ∆sTk − N +1 ⎤ ⎡ ∆qTk − N +1 ⎤
⎢ ⎥ ⎢ ⎥ T
⎢ ⎥=⎢ ⎥J (4.25)
⎢ ∆sTk ⎥ ⎢ ∆qTk ⎥
⎣ ⎦ ⎣ ⎦
Ax = b (4.26)
x = A −1b (4.27)
x = A+b (4.28)
A + = ( A T A ) AT
−1
(4.29)
144
Estimación del Jacobiano de la Imagen
⎛ ∂e k ⎞ T
⎜ ∆e k + ∂t ∆t − J k −1∆q k ⎟ ∆q k (4.30)
J k = J k −1 + ⎝ ⎠
∆q k ∆q k
T
donde
e k = s*k − s k (4.31)
∂e k
es el error en características de la imagen, s*k son características deseadas,
∂t
es la velocidad del error. Cuando no hay cambio en las características deseadas
este último término se hace cero, y se tiene la expresión para una tarea de
posicionamiento (caso estático).
145
Capítulo 4
En este método se considera que las ecuaciones de estado del sistema son [151]:
⎧ x k +1 = x k + ηk
⎨ (4.32)
⎩ y k = Ck x k + υk
T
⎡ ∂s ∂s2 ∂sm ⎤
x=⎢ 1 … (4.33)
⎣ ∂q ∂q ∂q ⎥⎦
∂si
donde es cada fila del jacobiano J k a encontrarse, s1 , s 2, … , s m
∂q
características de la imagen. y k = s k +1 − s k es el vector de medidas, ηk y υk
ruido del estado y de la medida respectivamente, y
⎡ ∆qTk 0 ⎤
⎢ ⎥
Ck = ⎢ ⎥ (4.34)
⎢ 0 ∆qTk ⎥⎦
⎣
Pk−+1 = Pk + Rη
−1
K k +1 = Pk−+1CTk ⎡⎣Ck Pk−+1CTk + Rυ ⎤⎦ (4.35)
Pk +1 = [ I − K k +1Ck ] Pk−+1
xˆ k +1 = xˆ k + K k +1 [ y k +1 − Ck xˆ k ]
146
Estimación del Jacobiano de la Imagen
Se basa en las ecuaciones del filtro de Kalman iterativo con factor de olvido,
realizándose un filtrado de los datos de entrada, que lo hace adecuado para casos
con datos contaminados con ruido. Las ecuaciones de este método se obtienen
minimizando una función ponderada exponencialmente [141], las cuales son:
⎛ ∂e k ⎞ T
⎜ ∆e k + ∂t ∆t − J k −1∆q k ⎟ ∆q k Pk −1
J k = J k −1 + ⎝ ⎠ (4.36)
λ + ∆qTk Pk −1 ∆q k
1⎛ Pk −1∆q k ∆qTk Pk −1 ⎞
Pk = ⎜ P − ⎟ (4.37)
λ ⎝ k −1 λ + ∆qTk Pk −1∆q k ⎠
147
Capítulo 4
1
Factor 1i =
abs ( ∆s i − F ) (4.39)
+R
F
148
Estimación del Jacobiano de la Imagen
⎛ q + q i −1 ⎞
Factor 2 ki = q k − ⎜ i ⎟
⎝ 2 ⎠ (4.40)
(A T
WA ) x = AT Wb (4.41)
⎡ fia1 ⎤
⎢ ⎥
⎢ ⎥
⎢ fia1 ⎥
⎢ ⎥
W=⎢ ⎥ (4.42)
⎢ fiaN ⎥
⎢ ⎥
⎢ ⎥
⎢ fiaN ⎥⎦
⎣
150
Estimación del Jacobiano de la Imagen
métodos descritos en el capítulo tres, siendo esto un proceso bastante tratado por
muchos autores [67] [183].
∆s k = J∆q k
(4.43)
∆s 'k = J ' ∆q k
donde los parámetros para la segunda cámara son representados por '.
Considerando las características x e y asociadas a cada punto ( x, y ) en la
imagen, se tienen cuatro ecuaciones por punto utilizado (dos ecuaciones por
cada imagen), se añade una quinta ecuación que representa la restricción
epipolar (3.33) para las proyecciones de este punto:
s 'Tk Fs k = 0 (4.44)
151
Capítulo 4
s k −1 = s k − ∆s k
(4.45)
s 'k −1 = s 'k − ∆s 'k
s k −1 = s k − J∆q k
(4.46)
s 'k −1 = s 'k − J ' ∆q k
s k −1 = s k − J∆q k
(4.47)
s 'k −1 = s 'k − J ' ∆q k
( s ' − J ' ∆q ) F ( s )
T
k k k − J∆q k = 0 (4.49)
desarrollando:
152
Estimación del Jacobiano de la Imagen
⎪⎩
donde las incógnitas del sistema (4.52) son los elementos de los jacobianos J y
J' .
Hay que hacer notar que el sistema (4.52) corresponde a las proyecciones en la
imagen de un punto en a escena, si se consideran mayor número de puntos, se
153
Capítulo 4
4.9 EXPERIMENTOS.
154
Estimación del Jacobiano de la Imagen
inicio
final
155
Capítulo 4
3+REL izq
1400
1200
1000
800
600
400
200
0
15
14 5
13 4
12 3
11 2
10+REL izq
4.5
3.5
2.5
1.5
0.5
0
15
14
13 5
12 4
11 3
2
156
Estimación del Jacobiano de la Imagen
10LASTW izq
0
15
14 5
13 4
12
11 3
2
FUNDMAT izq
0
15
14
13 5
12 4
11 3
2
157
Capítulo 4
3LAST izq
4
x 10
1.5
0.5
0
15 5
14
4
13
12 3
11 2
BROYDEN izq
0
15
14 5
13 4
12 3
11
2
158
Estimación del Jacobiano de la Imagen
RLS izq
0
15 5
14 4
13
12 3
11
2
KALMAN izq
0
15
14 5
13 4
12
11 3
2
159
Capítulo 4
3.5
2.5
1.5
0.5
0
15 5
14
13 4
12 3
11
2
160
Estimación del Jacobiano de la Imagen
14
12
10
0
15
14
13
12
11 4 5
2 3
70
60
50
40
30
20
10
15 5
14
13 4
12 3
11
2
161
Capítulo 4
15
14
13 5
12 4
11 3
2
0
15
14 5
13 4
12
11 3
2
162
Estimación del Jacobiano de la Imagen
10
15
14
13
12 5
11 4
3
2
100
80
60
40
20
0
15 5
14
13 4
12 3
11
2
20
15
10
15
14
13 5
12 4
11 3
2
Se observa que los algoritmos 3LAST y 3+REL muestran algún valor singular
muy distorsionado en el caso sin ruido añadido, generando una gráfica no
uniforme de difícil lectura. Este comportamiento se magnifica en el caso con
ruido, se considera por lo tanto estos dos algoritmos como de menor calidad.
Algunos algoritmos presentan un buen comportamiento en el caso sin ruido,
mientras que con ruido añadido decae su comportamiento, es el caso de los
métodos BROYDEN, KALMAN y 10+REL. Un caso especial es el método
RLS que en el caso con ruido mantiene su buen comportamiento a no ser por un
valor singular en la posición once. Se observa que FUNDMAT mantiene su
buen comportamiento tanto en el caso sin ruido como con ruido.
4.10 CONCLUSIONES.
164
Estimación del Jacobiano de la Imagen
165
CAPITULO 5
5 TAREAS DE CONTROL.
e = −λ e (5.2)
Capítulo 5.
s* e Controlador q robot
visual
−
s
Sistema de
visión
e = s * −s (5.3)
e = −s = − Jq (5.4)
Jq = λ (s * −s) = λe (5.5)
168
Tareas de Control.
q = λ J −1 (s * −s) (5.6)
q = λ J + (s * −s) (5.7)
J + = ( JT J ) JT
−1
(5.8)
q = λ J + (s * −s) + (I − J + J )b (5.9)
J + = JT ( JT J )
−1
(5.10)
169
Capítulo 5.
L = 1/ 2 e(q, t )
2 (5.11)
ˆ +e
L = e T e = −λ e T JJ (5.12)
170
Tareas de Control.
• número de puntos considerados del objeto de control: desde dos hasta cinco.
• ruido gaussiano artificialmente añadido en la detección de características: sin
ruido añadido, con ruido añadido.
• Caso estático (tarea de posicionamiento).
• Caso dinámico (tarea de seguimiento).
171
Capítulo 5.
Para tal fin se han definido unos índices (ver apartado 5.3.2) que evalúan el
comportamiento de los algoritmos, dando una estimación de los errores en
características de la imagen y errores en articulaciones, del tiempo promedio de
establecimiento y de su sobreoscilación, así como del tiempo de procesamiento
que requiere cada algoritmo. El comportamiento de todos los algoritmos se
muestra en gráficas 2D que representan índices VS número de puntos
considerados en el control, también se presentan gráficos 3D que muestran la
trayectoria seguida en el espacio articular. En las pruebas con ruido añadido, el
ruido añadido es de tipo gaussiano con un valor de σ = 0.5 .
CV-M50
Matrox
Meteor II
Sistema articular
MIL
RS-232C
Controlador
Figura 5.2.- Esquema general de control.
172
Tareas de Control.
Figura 5.3.- Trayectoria con sobreoscilación. El índice 3 mide las distancias d1,
d2 y d3.
El espacio de trabajo está definido en la (Tabla 5.1), donde las unidades son
milésimas de milímetro para la primera articulación y de milésimas de grado
para la segunda y tercera articulaciones. Dentro del espacio delimitado por estos
valores en articulaciones, se garantiza una correcta detección de las
características visuales.
174
Tareas de Control.
175
Capítulo 5.
176
Tareas de Control.
177
Capítulo 5.
178
Tareas de Control.
Se observa que en general 3LAST y 3+REL son los algoritmos que poseen peor
comportamiento aunque 10LASTW también puede estar entre este grupo. Los
demás algoritmos tienen un comportamiento relativamente similar, destacando
como mejores en el índice 0: BROYDEN, KALMAN y FUNDMAT; en el
índice 1: BROYDEN y FUNDMAT; en los índices 2 y 3: BROYDEN y
KALMAN.
Los resultados para las pruebas con ruido añadido se presentan a continuación
en la Tabla 5.3:
179
Capítulo 5.
A partir de estos valores numéricos se han generado las siguientes gráficas para
todos los índices (desde la Figura 5.10 hasta la Figura 5.13):
180
Tareas de Control.
181
Capítulo 5.
182
Tareas de Control.
A partir de los resultados de las pruebas sin ruido añadido y con ruido añadido,
se presentan también gráficas que muestran la relación con ruido/sin ruido
(Figura 5.14-Figura 5.17). Estas gráficas dan una idea de la respuesta de cada
algoritmo con respecto al ruido:
183
Capítulo 5.
184
Tareas de Control.
185
Capítulo 5.
a) sin ruido
b) con ruido
186
Tareas de Control.
a) sin ruido
b) con ruido
187
Capítulo 5.
a) sin ruido
b) con ruido
188
Tareas de Control.
a) sin ruido
b) con ruido
189
Capítulo 5.
a) sin ruido
b) con ruido
190
Tareas de Control.
a) sin ruido
b) con ruido
191
Capítulo 5.
a) sin ruido
b) con ruido
192
Tareas de Control.
a) sin ruido
b) con ruido
193
Capítulo 5.
194
Tareas de Control.
195
Capítulo 5.
196
Tareas de Control.
197
Capítulo 5.
Considerando además las gráficas para los índices, se puede decir que
FUNDMAT posee un mejor comportamiento que RLS para el caso con ruido
añadido de σ = 1 .
198
Tareas de Control.
inicio
final
Resultados para los índices evaluados en el caso sin ruido añadido se muestra en
la tabla siguiente (Tabla 5.4):
199
Capítulo 5.
A partir de esta tabla se consiguen las gráficas siguientes para los índices 0 y 5:
200
Tareas de Control.
A continuación se muestra la Tabla 5.5 con los resultados de las pruebas con
ruido añadido:
201
Capítulo 5.
202
Tareas de Control.
203
Capítulo 5.
a)sin ruido
b) con ruido
204
Tareas de Control.
a)sin ruido
b) con ruido
205
Capítulo 5.
a)sin ruido
b) con ruido
206
Tareas de Control.
a) sin ruido
b) con ruido
207
Capítulo 5.
a)sin ruido
b) con ruido
208
Tareas de Control.
a)sin ruido
b) con ruido
209
Capítulo 5.
a)sin ruido
b) con ruido
210
Tareas de Control.
a)sin ruido
b) con ruido
211
Capítulo 5.
5.3.6 CONCLUSIONES.
Para el caso sin ruido, las gráficas muestran que el algoritmo que presenta un
mejor comportamiento en todos los índices es BROYDEN, teniendo también un
buen comportamiento RLS, FUNDMAT KALMAN y 10+REL: estos
algoritmos presentan menores errores en características y en articulaciones,
menor tiempo de establecimiento y menor sobreoscilación. Como era de
esperarse, el tiempo medio de cálculo del jacobiano se incrementa con el
número de puntos, el tiempo más alto lo presenta 10LASTW seguido de
FUNDMAT. En general, los errores articulares, el tiempo de establecimiento y
la sobreoscilación disminuyen al aumentar el número de puntos considerados, el
sistema tiene un mejor comportamiento al disponer de más información para
efectuar el control.
Para las pruebas realizadas con ruido añadido, se observa que los algoritmos que
realizan un proceso de filtrado son muy robustos como RLS y KALMAN,
mientras que de los algoritmos iterativos, BROYDEN el más sensible al ruido.
En general, se destacan como los algoritmos de mejor comportamiento
FUNDMAT y RLS. Se puede considerar que 10+REL también presenta un buen
comportamiento. Considerando las gráficas para los índices y las de evolución
articular, BROYDEN es muy sensitivo al ruido, y junto con 3LAST y 3+REL
son los algoritmos que presentan un mal comportamiento frente al ruido.
212
Tareas de Control.
213
Capítulo 5.
214
CAPITULO 6
El jacobiano del robot es una matriz que debe calcularse en cada ciclo de
control, éste depende de la cinemática directa y de la cinemática diferencial del
robot con respecto al punto de referencia del robot previamente elegido.
x
oc2
x z
z y
y oe o
JR x
c2
Wo oc1
y z y
o x
z c1
Wo
s = J v ( u , v, Z ) rc (6.1)
216
Jacobiano Analítico de la Imagen.
⎡ 1 u ⎤
− 0 uv −(1 + u 2 ) v⎥
⎡f 0 ⎤⎢ Z Z (6.2)
JV (u, v, Z ) = ⎢ x ⎢ ⎥
⎣0 f x ⎥⎦ ⎢ 1
−u ⎥
v
0 − (1 + v 2 ) uv
⎣⎢ Z Z ⎦⎥
rc = W co ro (6.3)
donde ro está referido a la base del robot y Wco está dada por (ver Anexo A):
⎡R [t co ]x R co ⎤
Wco = ⎢ co (6.4)
⎣ 03 R co ⎥⎦
s = J v ( u , v, Z ) Wco NJ R q (6.6)
217
Capítulo 6
⎡ I [t 03 ]x ⎤
N=⎢ 3 (6.7)
⎣0 I 3 ⎥⎦
J = J v ( u , v, Z ) Wco NJ R (6.8)
Hay que hacer notar que en esta configuración cámara fija con dos cámaras
(Figura 6.1), existe una transformación Wco diferente para cada cámara, las
cuales son matrices contantes.
218
Jacobiano Analítico de la Imagen.
R, t
Figura 6.2.- Relación entre las coordenadas del robot y las de la cámara.
219
Capítulo 6
3
2 1
N
z y
y
om z od x
x
R ,t
ze
02 0c
B zc
xe ye xc yc
X
ze
0c
01 zc A zw
xe xc
ye yc xw 0
X yw
Figura 6.4.- Un movimiento con dos posiciones adyacentes del efector final
unido a la cámara.
220
Jacobiano Analítico de la Imagen.
di = Rm i + t (6.9)
N 2
min ∑ ˆ m − tˆ
di − R i (6.10)
i =1
N 2
min ∑ d ci − Rm
ˆ
ci (6.11)
i =1
donde
221
Capítulo 6
1 N
d ci = di − d con d= ∑ di
N i =1
1 N (6.12)
m ci = mi − m con m = ∑ mi
N i =1
N
min ∑ (dTci d ci + mTci m ci − 2dTci Rm
ˆ
ci ) (6.13)
i =1
ˆ = VUT
R (6.15)
ˆ
tˆ = d − Rm (6.16)
222
Jacobiano Analítico de la Imagen.
Z3
X3 δ
X2 Z 2Y3
Y2
223
Capítulo 6
Z3
plataforma
Y3
X3
Figura 6.6.-Vista de canto del eje Y3 del sistema del tercer eslabón con los arcos
descritos por cada uno de los cinco puntos del patrón en la posición
( d1 = 0, θ 2 = 0 ). Se muestra la posición de la plataforma que contiene el patrón
de cinco puntos.
224
Jacobiano Analítico de la Imagen.
Tabla 6.1.- Coordenadas de cada uno de los cinco puntos del patrón en el
sistema de coordenadas de la primera cámara.
En esta posición, giramos el segundo eslabón, los centros de los arcos descritos
coincidirán en un mismo punto (experimentalmente estos centros de giro no
coinciden ligeramente, se toma el centroide de todos ellos), el cual es la
intersección del eje Z3 con el plano del patrón (Figura 6.7). Conociendo este
punto de intersección, el vector dirección del eje Y3 (que se determinó en el
apartado 3.4.5), y la posición de cada uno de los 5 puntos del patrón (Tabla 6.1),
se determina la posición de cada uno de estos puntos en el plano del patrón con
referencia al punto de intersección. Estas posiciones en el plano del patrón
corresponden a las posiciones X3,Y3 del sistema de coordenadas del tercer
eslabón, las cuales se recogen en la Tabla 6.2.
225
Capítulo 6
Y3
3
4 X3
2
Z3
5
Figura 6.7.-Ubicación de cada uno de los cinco puntos del patrón en el plano de
la plataforma, en relación al sistema de coordenadas de la cámara 1.
Tabla 6.2.- Coordenadas de cada uno de los cinco puntos del patrón en el
sistema de coordenadas del tercer eslabón.
226
Jacobiano Analítico de la Imagen.
CASO ESTÁTICO
2 3 4 5
ÍNDICES
PUNTOS PUNTOS PUNTOS PUNTOS
Indice 0 159.153 160.628 160.194 163.744
Indice 1* 31.40 31626.0 31569.2 31498.2
SIN
Indice 2 7.090 7.454 7.454 7.636
RUIDO
Indice 3 0.089 0.114 0.102 0.134
Indice 4# 4.218 5.198 4.671 4.140
Indice 0 165.796 167.939 167.783 168.733
CON Indice 1* 33.03 33464.0 34017.5 33466.8
RUIDO Indice 2 8.727 11.636 13.272 15.909
σ = 0.5 Indice 3 0.417 0.853 1.280 1.409
Indice 4# 3.236 3.267 3.936 4.307
* dividido por 1000 # en milisegundos
227
Capítulo 6
Las gráficas del comportamiento del jacobiano analítico sin ruido añadido para
cada uno de los índices se presentan entre la Figura 6.8 y la Figura 6.11, y a fin
de tener gráficas más claras, se presentan no todos algoritmos estudiados en el
capítulo 5, sinó solamente los más representativos.
228
Jacobiano Analítico de la Imagen.
229
Capítulo 6
230
Jacobiano Analítico de la Imagen.
Se observa que los dos algoritmos que ocupan mayor tiempo de procesamiento
son FUNDMAT y ANALÍTICO, pero el método ANALÍTICO toma mucho
mayor tiempo de procesamiento (con dos o tres puntos casi el doble), a
diferencia de FUNDMAT que su tiempo de procesamiento se incrementa con el
número de puntos considerados. A partir de la gráfica se observa que el método
de BROYDEN y 3LAST poseen el menor tiempo de procesamiento.
231
Capítulo 6
232
Jacobiano Analítico de la Imagen.
233
Capítulo 6
A partir de las gráficas anteriores se observa que hay tres métodos que
básicamente responden de igual manera para todos los índices: FUNDMAT,
RLS y ANALÍTICO, mientras que 3LAST y BROYDEN son los de más bajo
comportamiento, pero siendo 3LAST el peor. A continuación se presenta la
gráfica para el índice 4 en milisegundos:
234
Jacobiano Analítico de la Imagen.
a) sin ruido
b) con ruido
235
Capítulo 6
a) sin ruido
b) con ruido
236
Jacobiano Analítico de la Imagen.
a) sin ruido
b) con ruido
237
Capítulo 6
a) sin ruido
b) con ruido
238
Jacobiano Analítico de la Imagen.
a) sin ruido
b) con ruido
239
Capítulo 6
3LAST, entre los que mejor se comportan ante el ruido se observa que son
FUNDMAT y ANALÍTICO.
240
Jacobiano Analítico de la Imagen.
241
Capítulo 6
Se observa que para todos los índices el método FUNDMAT tiene un mejor
comportamiento frente al método ANALÍTICO, se hace notar que la gráfica
para el índice 1 (Figura 6.24) muestra un aparente buen comportamiento del
método ANALÍTICO, pero si observamos la trayectoria generada en el espacio
de las articulaciones (Figura 6.29), además por la propia definición de este
índice como la suma de la trayectoria seguida por el sistema, se concluye que
esta gráfica realmente no refleja un buen comportamiento del jacobiano
ANALÍTICO.
242
Jacobiano Analítico de la Imagen.
243
Capítulo 6
244
Jacobiano Analítico de la Imagen.
CASO DINÁMICO
2 3 4 5
ÍNDICES
PUNTOS PUNTOS PUNTOS PUNTOS
Indice 0 14.235 15.159 15.333 15.172
SIN
Indice 1* 3.356 3.374 3.375 3.392
RUIDO
Indice 5* 0.436 0.274 0.307 0.537
CON Indice 0 14.519 15.526 15.631 15.490
RUIDO Indice 1* 3.351 3.385 3.372 3.391
σ = 0.5 Indice 5* 0.438 0.296 0.310 0.542
* dividido por 1000
245
Capítulo 6
246
Jacobiano Analítico de la Imagen.
247
Capítulo 6
248
Jacobiano Analítico de la Imagen.
249
Capítulo 6
a) σ =0
b) σ = 0.5
250
Jacobiano Analítico de la Imagen.
a) σ =0
b) σ = 0.5
251
Capítulo 6
a) σ =0
b) σ = 0.5
252
Jacobiano Analítico de la Imagen.
a) σ =0
b) σ = 0.5
253
Capítulo 6
a) σ =0
b) σ = 0.5
254
Jacobiano Analítico de la Imagen.
255
Capítulo 6
256
Jacobiano Analítico de la Imagen.
257
Capítulo 6
a) σ =0
b) σ =1
258
Jacobiano Analítico de la Imagen.
6.4 CONCLUSIONES.
259
Capítulo 6
260
CAPITULO 7
7.1 INTRODUCCIÓN.
aX + bY + cZ = d ó nT X = d (7.1)
k u n
l
O P
i p
j
imagen
262
Control Visual a Partir de Lineas.
Por lo que los elementos de esta línea en la imagen son los elementos del vector
normal n al plano de interpretación.
linea 3D
n1 u n2
O1 O2
u = n1 ×n 2 (7.3)
263
Capítulo 7.
au + bv + c = 0 (7.5)
⎛b⎞ c (7.7)
θ = arctan ⎜ ⎟ , ρ =−
a⎝ ⎠ a 2 + b2
θ x
264
Control Visual a Partir de Lineas.
s = J v Wco NJ R q (7.9)
T
donde s = ⎡⎣θ ρ ⎤⎦ , q vector con variación de articulaciones, y Wco , N, J R son
los mismos parámetros que se describen en el apartado 6.1.
Para el presente caso de control visual con dos cámaras, simplemente se apilan
los jacobianos analíticos pertenecientes a cada cámara como se describió en el
apartado 4.4.
s = ⎡⎣ n1y n1z n2 y n2 z ⎤⎦
T
(7.10)
265
Capítulo 7.
Ax = B (7.11)
s = [θ1 ρ1 θ 2 ρ2 ] (7.12)
T
266
Control Visual a Partir de Lineas.
min ( Ax - B ) W -1 ( Ax - B ) (7.13)
T
Se utiliza una ley de control estática como la descrita en el apartado 5.1, caso el
caso de más características que grados de libertad. La ley de control es
porporcional basada en la pseudoinversa del jacobiano de la imagen [82]:
q k +1 = q k + λ J + e k (7.14)
267
Capítulo 7.
tercer método a partir del jacobiano analítico para líneas basada en la expresión
(7.8).
268
Control Visual a Partir de Lineas.
sin ruido
1.2
con ruido σ =0.3
con ruido σ =0.5
1
error medio %
0.8
0.6
0.4
0.2
0
0 5 10 15 20 25 30
Número de iteraciones
sin ruido
1.2 con ruido σ =0.3
con ruido σ =0.5
1
error medio %
0.8
0.6
0.4
0.2
0
0 5 10 15 20 25 30
Número de iteraciones
sin ruido
1.2 con ruido σ =0.5
con ruido σ =1
1
error medio %
0.8
0.6
0.4
0.2
0
0 5 10 15 20 25 30
Número de iteraciones
270
Control Visual a Partir de Lineas.
0.7
0.6
error medio %
0.5
0.4
0.3
0.2
0.1
0
0 5 10 15 20 25 30
Número de iteraciones
sin ruido
1.2 con ruido σ =0.3
con ruido σ =0.5
1
error medio %
0.8
0.6
0.4
0.2
0
0 5 10 15 20 25 30
Número de iteraciones
271
Capítulo 7.
sin ruido
0.9
con ruido σ =0.5
0.8 con ruido σ =1
0.7
0.6
error medio %
0.5
0.4
0.3
0.2
0.1
0
0 5 10 15 20 25 30
Número de iteraciones
A partir de estas gráficas se observa que todos los métodos realizan la tarea de
control. Sin ruido y con ruido, el método analítico posee un mejor
comportamiento que los demás. Con ruido, el método NORM sólo control hasta
un valor de σ = 0.5 para el control con una línea y σ = 0.2 para con tres líneas,
mientras que THRH hasta σ = 0.5 para el control tanto con una como con tres
líneas.
272
Control Visual a Partir de Lineas.
4
x 10
-1
-2
-3
4
6
2
4 4
x 10 0 4
2 x 10
-2 0
4
x 10
-1
-2
-3
4
6
2
4 4
x 10 0 4
2 x 10
-2 0
273
Capítulo 7.
4
x 10
-1
-2
-3
4
6
2
4 4
x 10 0 4
2 x 10
-2 0
274
Control Visual a Partir de Lineas.
7.7 CONCLUSIONES.
Los resultados de las pruebas realizadas indican que en ausencia de ruido los
métodos NORM , THRH y ANALITICO prácticamente responden igual.
Para una línea, el método NORM responde mejor que el método THRH, dando
valores menores de error medio. Más no así con dos o más líneas donde se
275
Capítulo 7.
observa que el método THRH es más robusto que el método NORM aunque a
costa de reducir la velocidad de convergencia.
Las pruebas con ruido añadido, mostraron que el método NORM es muy
sensitivo al ruido, el control fue posible solamente con valores bajos de ruido
gaussiano. Para una línea, sólo hasta σ = 0.5 . Para dos o tres líneas, sólo hasta
σ = 0.2 . Para valores superiores a estos, el control falla (campos vacíos de la
Tabla 7.1).
276
CAPITULO 8
vT
ϕd v d
Control Robot
sistema
Vision System ϕ
dd
ω de visión
θ
x = v cos ϕ
y = v sin ϕ (8.1)
ϕ =ω
278
Aplicación a Robots Móviles.
v1 + v2 v1 − v2 (8.3)
v= y ω=
2 L
El robot está equipado con una cámara fija montada en el centro del robot que
captura la imagen de un patrón montado en la parte posterior de un vehículo
objetivo y perpendicular al suelo. Este patrón está constituido por cuatro marcas
de forma cuadrada cuyas medidas y distancias entre ellas son conocidas (
Figura 8.3). Para facilitar los cálculos, se asume que el centro óptico de la
cámara y el punto central del patrón están a la misma altura.
A B 70mm
200mm
C D
200mm
279
Capítulo 8.
Para realizar la tarea de control, las variables a ser medidas por el sistema de
visión son (ϕ , θ , d ) que dan la posición y orientación del vehículo objetivo con
respecto al robot móvil (Figura 8.4).
vT θ
R, t Vehículo
objetivo
dϕ
v
Robot móvil
280
Aplicación a Robots Móviles.
Para una posición general del patrón como en la (Figura 8.4), se tiene un
esquema como el de la Figura 8.5 del plano horizontal XZ del sistema de
coordenadas de la cámara. Además se tiene un esquema de la imagen del patrón
como el la Figura 8.6 donde se asume que las distancias entre los centros de los
cuadrados son valores conocidos E.
ZC E
zR
zT ϕT
zL
θ Marcas B y D
θ Marcas A y C
d φ
f XC
xB xA xL xT xR
X
yA A B
yB hR
yD hL
yC
C D
xA, xC
xB, xD
Y
281
Capítulo 8.
xR + xL
xT =
2
zR + zL
zT = (8.4)
2
−1 x R − x L
ϕ T = cos ( )
E
E E
zL = f , zR = f
hL hR
xL =
zL
xA ,
z
x R = R xB (8.5)
f f
⎛ zR − zL ⎞
φ = tan −1 ⎜⎜ ⎟⎟
⎝ xR − xL ⎠
⎛ xT ⎞
ϕ = tan −1 ⎜⎜ ⎟⎟ (8.6)
⎝ zT ⎠
θ = ϕ +φ
d = xT2 + z T2
282
Aplicación a Robots Móviles.
H=R+
t T
n1 (8.7)
d1
Los parámetros que nos dan la posición y orientación del vehículo objetivo con
respecto al sistema de la cámara se encuentran con las siguientes relaciones
geométricas:
283
Capítulo 8.
d = t x2 + t z2
⎛t ⎞ (8.8)
ϕ = tan −1 ⎜ x ⎟
⎝ tz ⎠
θ = ϕ − φY
Donde φY es el ángulo pitch (giro alrededor del eje Y) de los ángulos de Euler
de R . Este método será denominado por homografía.
284
Aplicación a Robots Móviles.
En la prueba el robot que se mueve parte de una distancia de 1000 mm del otro,
con orientación nula (relativa a la cámara) del patrón de seguimiento. Su
evolución se aprecia en (Figura 8.7) Durante la evolución se calculan para cada
método los errores de las variables a controlar (ϕ , θ , d ) con respecto a los
encontrados en condiciones ideales. Todos los ángulos se expresan en grados, y
las distancias en milímetros.
285
Capítulo 8.
286
Aplicación a Robots Móviles.
287
Capítulo 8.
MÉTODO
var.
La tabla 8.2 muestra los resultados para la prueba con ty =30, hay que destacar
que se observa que al método geométrico no le afecta variaciones en ty.
MÉTODO
var.
El las Figura 8.10 y Figura 8.11 se describen los resultados obtenidos cuando el
ángulo ax vale 5 grados y el resto cero, se aprecia un mejor comportamiento del
método por homografía. En la Tabla 8.3 se recogen los resultados numéricos. De
igual modo se observa el mismo comportamiento en las tablas Tabla 8.4 y
Tabla 8.5 .
288
Aplicación a Robots Móviles.
289
Capítulo 8.
MÉTODO
var.
MÉTODO
var.
MÉTODO
var.
290
Aplicación a Robots Móviles.
291
Capítulo 8.
MÉTODO
var.
En la Tabla 8.7 se recogen los resultados para el caso cuando todos los ejes
tienen variaciones y además la detección se asume con ruido de σ = 1 . Se
observa altos valores de errores principalmente para el desplazamiento d en el
método geométrico, el método por homografia sigue dando menores valores
para los errores.
MÉTODO
var.
Pruebas con altos valores de ruido en conjunto con variaciones en los otros ejes
se muestran por ejemplo en la Figura 8.14 y Figura 8.15, la Tabla 8.8 recoge sus
valores numéricos.
292
Aplicación a Robots Móviles.
Figura 8.14.- Errores método geométrico con ty =20 ; ax =2.5 ; az =2.5 ; σ =2.5
Figura 8.15.- Errores método por homografía con ty =20 ; ax =2.5 ; az =2.5 ;
σ =2.5
293
Capítulo 8.
MÉTODO
var.
294
Aplicación a Robots Móviles.
295
Capítulo 8.
296
Aplicación a Robots Móviles.
Distance [mm]
1.5
0.5
0
0 100 200 300 400 500 600 700 800
Samples
0.2
-0.2
-0.4
0 100 200 300 400 500 600 700 800
Samples
a) evolución del ángulo ϕ .
0.5
-0.5
-1
0 100 200 300 400 500 600 700 800
Samples
b) evolución del ángulo θ .
297
Capítulo 8.
-5
-10
0 100 200 300 400 500 600 700 800
Samples
a)velocidad de rotación
200
100
-100
0 100 200 300 400 500 600 700 800
Samples
b)velocidad lineal
298
Aplicación a Robots Móviles.
400
200
-200
-400
0 100 200 300 400 500 600 700 800
Samples
-500
Y [m m ]
-1000
-1500
0 500 1000 1500 2000 2500 3000 3500
X [mm]
8.6 CONCLUSIONES.
8.6.1 DE LA SIMULACIÓN.
299
Capítulo 8.
El método por homografía se comporta mejor cuanto más distintos de cero sean
los parámetros extrínsecos considerados como constantes. Además suministra
unos valores que pueden ser aprovechados.
300
CAPITULO 9
302
Conclusiones y Trabajos Futuros.
las prestaciones del control visual, por lo que constituye un aporte de la presente
tesis.
303
Capítulo 9.
304
Conclusiones y Trabajos Futuros.
jacobiano, control visual basado en las líneas. El primero de estos métodos toma
en cuenta la posición 3D de la línea en el espacio de trabajo, mientras que en el
segundo se estima el jacobiano de la imagen a partir de las caracteristicas
medidas directamente en la imagen. Este aspecto también constituye un aporte,
pues no se ha reportado en la literatura la estimación del jacobiano a partir de
líneas.
305
Capítulo 9.
306
ANEXO A
r = ⎡⎣t x ty tz φ ψ γ ⎤⎦ (A.1)
r = ⎣⎡Vx Vy Vz
T
ω x ω y ω z ⎦⎤ = ⎡⎣TT ΩT ⎤⎦
T (A.2)
Sea M un punto rígidamente unido al efector final del robot con coordenadas
M = [ X Y Z ] respecto a un sistema de coordenadas base, la derivada
T
c
r = c We e r (A.5)
donde c We es una matriz de transformación expresada como:
⎡ I 3 [ c t e ]x ⎤ ⎡ c R e 0 ⎤ ⎡ c R e [ c t e ]x c R e ⎤
c
We = ⎢ ⎥⎢ ⎥=⎢ ⎥ (A.6)
⎣0 I3 ⎦ ⎣ 0 c
Re ⎦ ⎣ 0 c
Re ⎦
308
Consideraciones Sobre el Cuerpo Rígido.
⎡ 0 −vz vy ⎤
⎢ ⎥
[ v]× = ⎢ vz 0 − vx ⎥ (A.11)
⎢ −v y vx 0 ⎥⎦
⎣
Normalmente una tarea robótica está especificada con respecto a uno o varios
sistemas de referencia. Por ejemplo, la cámara puede dar información de la
localización de un objeto con respecto al sistema de referencia de la cámara
mientras que la configuración usada para agarrar el objeto puede estar
especificada con respecto al sistema de coordenadas del efector final del robot.
309
Anexo A.
⎡R t BA ⎤
H BA = ⎢ BA
⎣ 0 1 ⎥⎦ (A.12)
X B = H BA X A = R BA X A + t BA (A.13)
H CE = H CD H DE (A.14)
donde
⎡R t CE ⎤ ⎡ R CD R DE R CD t DE + t CD ⎤
H CE = ⎢ CE =
⎣ 0 1 ⎥⎦ ⎢⎣ 0 1 ⎥
⎦
(A.15)
⎡R t ⎤ −1⎡RT −RT t ⎤
Si H=⎢ ⎥ entonces H =⎢ ⎥ (A.16)
⎣ 0 1⎦ ⎣ 0 1 ⎦
310
ANEXO B
⎡u ⎤
M = λ m = λ ⎢⎢ v ⎥⎥
(B.3)
⎢⎣ 1 ⎥⎦
M ' = RM + t = λ Rm + t , (B.4)
M∞
M
m '∞
m
m'
lm'
p p'
C C'
312
Propiedad de Restricción Epipolar.
La línea epipolar puede ser definida por dos puntos. El primero de ellos puede
1
ser obtenido proyectando M ' con λ = 0 , que da p ' = t siendo t z el tercer
tz
elemento del vector de traslación t , p ' por las propiedades proyectivas también
puede escribirse como p ' = t . Este punto es de hecho la proyección del centro
óptico de la primera cámara sobre la segunda. El segundo punto puede obtenerse
1
proyectando M ' con λ = ∞ , que da m '∞ = T Rm , donde r3 es la tercera fila
r3 m
de la matriz de rotación R ; m '∞ también puede escribirse como m '∞ = Rm .
l 'm = Em (B.7)
Es fácil ver que todas las líneas epipolares en la segunda imagen pasan por el
punto p ' . De hecho, las líneas epipolares en la segunda imagen son la
proyección del haz de semi-líneas que empiezan en el centro óptico C de la
primera cámara, y ellas necesariamente pasarán a través del punto p ' que es la
proyección de C . El punto p ' viene a ser el el epipolo de la segunda imagen.
313
Anexo B.
314
ANEXO C
Es una extensión del concepto de valores propios para una matriz no cuadrada.
Dada una matriz A de dimensión m × n , la matriz AT A tiene n valores
propios no negativos λ1 ≥ λ2 ≥ … ≥ λn ≥ 0 , ordenados de mayor a menor, que
pueden ser expresados en la forma:
λi ≥ σ i2 con σ i ≥ 0 (C.1)
Los escalares σ 1 ≥ σ 2 ≥ … ≥ σ n ≥ 0 son llamados los valores singulares de A .
La descomposición en valores singulares (SVD) de la matriz A está dado por:
A = USV T (C.2)
donde U es una matriz ortogonal m × m :
U = [u1 u 2 … u m ] (C.3)
V = [ v1 v2 … vn ] (C.4)
y S es una matriz m × n
Anexo C.
⎡D 0⎤
S=⎢ ⎥ con D = diag {σ 1 , σ 2 ,..., σ r ,} (C.5)
⎣ 0 0⎦
Las columnas de U son los vectores propios de la matriz AAT , mientras que las
columnas de V los vectores propios de AT A . Aplicando las propiedades
descritas se cumple que
316
ANEXO D
METODO DE LEVENBERG-MARQUARDT
x = f (p) (D.1)
x − f (pˆ ) (D.2)
Por otro lado, el error de los parámetros se puede representar por ∆ para las
sucesivas k estimaciones de p de la siguiente forma:
Anexo D.
pˆ k +1 = pˆ k + ∆ k (D.4)
ˆ k , se tiene:
Suponiendo que la función f es lineal en el entorno de p
∂f
donde ℑk = es el jacobiano de la función f con respecto a p .
∂p k
de donde:
que:
N ' = N + λI (D.8)
318
Método de Levenberg-Marquardt.
se hace λ = λ × 10 . Se repite este ciclo hasta que la diferencia entre los errores
de una iteración y la anterior sea muy cercana a cero.
⎧ ∆si = J i ∆q
⎪
⎨ ∆s 'i = J 'i ∆q (D.10)
⎪
⎩0 = ∆q J 'i FJ i ∆q − ∆q J 'i Fsi − s 'i FJ i ∆q
T T T T T
por cada punto útil i utilizado, donde i = 1,…, imax , donde para nuestro sistema
implementado el máximo número de puntos útiles es cinco: imax = 5 .
⎡ ∆xi ⎤
⎢ ∆y ⎥
⎢ i⎥
x i = ⎢ ∆x 'i ⎥ (D.12)
⎢ ⎥
⎢ ∆y 'i ⎥
⎢⎣ 0 ⎥⎦
319
Anexo D.
⎛ x1 ⎞ ⎛ f (p1 ) ⎞
⎜x ⎟ ⎜ f (p ) ⎟
x=⎜ 2⎟ y f (p) = ⎜ 2 ⎟
(D.15)
⎜ ⎟ ⎜ ⎟
⎜ ⎟ ⎜ ⎟
⎝ xn ⎠ ⎝ f (p n ) ⎠
⎛ b1 ⎞
⎜b ⎟
p=⎜ 2⎟ (D.16)
⎜ ⎟
⎜ ⎟
⎝ bn ⎠
320
Método de Levenberg-Marquardt.
⎡ J (2 i −1)1 ⎤
⎢J ⎥
⎢ (2 i −1)2 ⎥
⎢ J (2 i −1)3 ⎥
⎢ ⎥
⎢ J (2 i )1 ⎥
⎢ J (2 i )2 ⎥
⎢ ⎥
⎢ J (2 i )3 ⎥
bi = ⎢ ⎥ (D.17)
J'
⎢ (2 i −1)1 ⎥
⎢ J '(2 i −1)2 ⎥
⎢J ' ⎥
⎢ (2 i −1)3 ⎥
⎢ J '(2 i )1 ⎥
⎢ ⎥
⎢ J '(2 i )2 ⎥
⎢ J '(2 i )3 ⎥
⎣ ⎦
⎛ ∂f (p) ⎞
B=⎜ ⎟ (D.18)
⎝ ∂b ⎠
V = BT B (D.19)
V * = V + λI (D.20)
ε B = BT ε (D.21)
Se calcula el incremento:
321
Anexo D.
∆ = V *−1 ε B (D.22)
pˆ Nuevo = pˆ + ∆ (D.23)
Se calcula el nuevo error para este pˆ Nuevo , si es menor que el anterior se toma
λ = λ /10 y se recalculan los p̂ a partir de los pˆ Nuevo . Si el error es mayor, se
toma λ = λ × 10 y se vuelven a calcular los p ˆ Nuevo a partir de los antiguos p̂ .
Se itera hasta que la diferencia entre los errores de una iteración a la siguiente
sea próxima a cero.
322
ANEXO E
La variación del ángulo de error ϕ tiene tres términos: la velocidad angular del
robot móvil y el efecto rotacional de las velocidades lineales de ambos vehículos
expresados por:
sen θ sen ϕ~ (E.3)
ϕ~ = ω + v T +v
d d
1
v= (vT cos θ − f (e) )
cos ϕ~
sen θ sen ϕ~ (E.4)
ω = − f (ϕ~ ) − vT −v
d d
donde f (e) , f (ϕ~ ) ∈ Ω , y Ω es un conjunto de funciones definido como
f (e) = k e tanh(λe e)
(E.5)
f (ϕ~ ) = kϕ tanh(λϕ ϕ~)
e = − f e (e) (E.6)
ϕ~ = − f (ϕ~)
ϕ
324
Control Servo Visual de un Robot Móvil.
ANÁLISIS DE ESTABILIDAD
e2 ϕ 2
V = V1 + V2 = + (E.7)
2 2
Como se puede ver, las ecuaciones (E.4) requieren conocer la velocidad lineal
vT del vehículo objetivo. Esta variable debe ser estimada a partir de la
información visual disponible. Despejando de la ecuación (E.2), y considerando
una diferencia discreta entre sucesivas posiciones con un período de muestreo
T , esta velocidad puede ser estimada como:
( d k − d k −1 ) / T + v cos ϕ (E.9)
vˆT =
cos θ
Considerando que la velocidad del vehículo objetivo estimada como v̂T las
ecuaciones de lazo cerrado (E.6) se pueden escribir como:
325
Anexo E.
∆vT (E.15)
δe =
ke
Una condición suficiente para que V 2 sea negativa, es tomando el rango lineal
de f (ϕ~ ) para errores pequeños de ϕ y reemplazando d = d d − δ e , es:
~
∆v T (E.16)
k ϕ~ ϕ >
dd − δ e
~
Lo que implica que el error ϕ~ converja a la región Bδ ϕ~ ϕ (t ) → Bδ ϕ con
t →∞
∆ vT (E.18)
ke >
dd
326
BIBLIOGRAFÍA
the 1999 IEEE Int. Conf. on Multisensor Fusion & Integration for
Intelligent Systems. Taipei, Taiwan, 1999.
[9] Basri, R., Rivlin, E., and Shimshoni, I. Visual Homing: Surfing on the
Epipoles. International Journal of Computer Vision, 33(2), pp. 22-39,
1999.
[10] Barrientos, A., Peñin, L.F., Balaguer, C., y Aracil, R. Fundamentos de
Robótica. Ed. Mc Graw Hill /Interamericana de España S.A., Madrid,
1997.
[11] Benhimane, S., and Malis, E. Homography-Based 2D Visual Servoing.
Proceedings of the 2006 IEEE International Conference on Robotics
and Automation, Orlando Florida, Mayo, 2006.
[12] Bensalah, F., and Chaumette, F. Compensation of Abrupt Motion
Changes in Target Tracking by Visual Servoing. IEEE/RSJ Int. Conf.
Intell. Robots Syst., IROS’95, Pittsburgh, PA, vol. 1, pp. 181-187, Aug.
1995.
[13] Bien, Z., Jang, W., and Park, J. Characterisation of Using Feature
Jacobian Matrix for Visual Servoing. K. Hashimoto Ed., Visual
Servoing, vol. 7, pp. 317-363, World Scientific, Singapore, 1993.
[14] Boufama, B., and Mohr, R. Epipole and Fundamental Matrix
Estimation Using Virtual Parallax. Proceeding of the Fifth Conference
on Computer Vision. Cambridge MA, USA, 1995.
[15] Bourquardez, O., and Chaumette, F. Visual Servoing of an Airplane for
Alignment with Respect to a Runway. Proceeding of the 2007 IEEE
International Conference on Robotics and Automation, Roma, April
10-14 2007.
[16] Broyden, C.G. Mathematics of Computation. V. 19, pp. 577-593, 1965.
[17] Caprile, B., and Torre, V. Using Vanishing Points for Camera
Calibration. International Journal of Computer Vision. 4, pp. 127-140.
1990.
[18] Carelli, R., Soria, C.M., and Morales B. Vision-Based Tracking Control
for Mobile Robots. Proceedings of the 12th International Conference on
Advance Robotics ICAR’05, July 18-20, pp.148-152, 2006.
[19] Cervera, E., Berry, F., and Martinet, P. Stereo Visual Servoing with a
Single Point: a Comparative Study. Proceedings of the IEEE
International Conference on Advanced Robotics (ICAR’01), pp. 213-
218, Budapest Hungary.
[20] Chaumette F. Image Moments: A General and Useful Set of Features
for Visual Servoing. IEEE Transactions on Robotics and Automation,
Vol. 20, No 4, 2004.
328
Bibliografía.
329
Bibliografía.
330
Bibliografía.
331
Bibliografía.
332
Bibliografía.
333
Bibliografía.
[82] Hutchinson, S., Hager, G.D. and Corke, P.I. A tutorial on Visual Servo
Control. IEEE Transaction on Robotics and Automation. Vol. 12 No 5,
1996.
[83] Hutchinson, S., and Gans, N. Switching Approaches to Visual Servo
Control. Proceedings IEEE Int. Symposium, 27-30 October, 2002.
[84] Iwatsuki, M., and Okiyama, N. A New Formulation of Visual Servoing
Based on Cylindrical Coordinate System. IEEE Trans. Robot.
Automat., vol 21, Nº 2, pp. 266-273, April, 2005.
[85] Jagersand, M., Nelson, R. and Fuentes, O. Experimental Evaluation of
Uncalibrated Visual Servoing for Precision Manipulation. Proceedings
of Int. Conf. Robotics & Automation, 1997.
[86] Jagersand, M. and Nelson, R. Visual Space Task Specification,
Planning and Control. Proceedings IEEE Int. Symp. On Computer
Vision, 1995.
[87] Jagersand, M. Image Based View synthesis of Articulated Agents.
Proceedings of the IEEE Computer Society Conference on Computer
Vision and Pattern Recognition, pp. 1047-1053, 1997.
[88] Jagersand, M. and Nelson, R. Adaptive Differencial Visual Feedback
for Uncalibrated Hand-Eye Coordination and Motor Control. TR No
579. U. of Rochester, 1994.
[89] Jang, W., and Bien, Z. Feature-based Visual Servoing of an Eye-in-
Hand Robot with Improved Tracking Perfomance. Proceedings of the
1991 IEEE International Conference on Robotics and Automation.
Sacramento, California, April, 1991.
[90] Khadraoui, D., Motyl, G., Martinet, P., Gallice, J., and Chaumette, F.
Visual Servoing in Robotics Scheme Using a Camera/Laser-Stripe
Sensor. IEEE Transactions on Robotics and Automation, Vol. 12, Nº 5,
October, 1996.
[91] Kelly, R. Robust Asymptotically Stable Visual Servoing of Planar
Robots. IEEE Transactioins on Robotics and Automation, Vol. 12, No
5, Octuber, 1996.
[92] Kelly, R., Shirkey, P., and Spong, M.W. Fixed-Camera Visual Servo
Control for Planar Robots. Proceedings of the IEEE International
Conference on Robotics and Automation. Minneapolis, Minnesota,
April, 1996.
[93] Kelly, R., Carelli, R., Nasisi, O., Kuchen, B., and Torres, F. Stable
Visual Servoing of Camera-in-Hand Robotic Systems. IEEE/ASME
Transaction on Mechatronics, vol. 5, No 1, March, 2000.
334
Bibliografía.
[94] Kelly, R., Favela, J., Ibarra, J., and Bassi, D. Asymptotically Stable
Visual Servoing of Manipulators via Neural Networks. Journal of
Robotic Systems 17, Nº 12, pp. 659-669, 2000.
[95] Kragic, D. Visual Servoing for Manipulation: Robustness and
Integration Issues. PhD thesis, Computational Vision and Perceptive
Laboratory (CVAP), Royal Institute of Technology, Stockholm,
Sweden, 2001.
[96] Kragic, D., and Christensen, H. Cue Integration for Visual Servoing.
IEEE Transactions on Robotics and Automation, vol. 17, Nº 1,
February, 2001.
[97] Kragic, D., Bjorkman, M., Christensen, H.I., and Eklundh, J.O. Vision
for Robotic Object Manipulation in Domestic Settings. Robotics and
Autonomous Systems Vol. 52, pp. 85-100, 2005.
[98] Kim, G.W., Lee, B.H. and Kim, M.S. Uncalibrated Visual Servoing
Technique Using Large Residual. Proceedings of the 2003 IEEE
International Conference on Robotics & Automation. Taipei, Taiwan,
September 14-19, 2003.
[99] Lamiroy, B., Espiau, B., Andreff, N., and Horaud, R. Controling
Robots with Two Cameras: How to Do Properly. Proc. IEEE/RSJ Int.
Conf. on Robotics and Automation, pp. 2100-2105, 2000.
[100] Lamiroy, B. Puget, C. Horaud, R. What Metric Stereo Can Do for
Visual Servoing. Proceedings of the 2000 IEEE/RSJ Int. Conf. On
Intelligent Robots and Systems, pp. 251-256, 2000.
[101] Lapresté, J.T., Jurie, F., Dhome, M., and Chaumette, F. An Efficient
Method to Compute the Inverse Jacobian Matrix in Visual Servoing.
Procedings of the 2004 IEEE International Conference on Robotics &
Automation, New Orleans, LA, April, 2004.
[102] Li, M., Betsis, D. and Lavest, J.M. Kinematic Calibration of the KTH
Head-Eye Sistem. Technical Report Computational Vision and Active
Percepcion Laboratory. Nov, 1994.
[103] Lippiello, V., Siciliano, B. and Villani, L. Position and Orientation
Estimation Based on Kalman Filtering of Stereo Images. Proceedings
of the 2001 IEEE International Conference on Control Applications,
Mexico City, September 5-7, 2001.
[104] Lippiello, V., Siciliano, B. and Villani, L. Robust Visual Tracking
Using a Fixed Multi-Camera System. Proceedings of the 2003 IEEE
International Conference on Robotics & Automation, Taipei,
September 14-19, 2003.
335
Bibliografía.
336
Bibliografía.
337
Bibliografía.
[129] Namiki, A., Nakabo, Y., Ishii, I., and Ishikawa, M. 1-ms Sensory-Motor
Fusion System. IEEE/ASME Transactions on Mechatronics, vol. 5, No
3, September 2000.
[130] Namiki, A., Hashimoto, K., and Ishikawa, M. A Hierarchical Control
Architecture for High-Speed Visual Servoing. International Journal of
Robotics Research, vol. 22, No 10-11, pp. 873-888, 2003.
[131] Nelson, B. and Kosla, P.K. Integrating Sensor Placement and Visual
Tracking Strategies. Procc. IEEE Int. Conf. On Robotics and
Automation. pp. 1351-1356, 1994.
[132] Odobez, J., and Bouthemy, P. Robust Multiresolution Estimation of
Parametric Motion Models. Journal of visual communication and
Image Representation, 6(4), pp. 348-365, 1995.
[133] Oh, P.Y., and Allen, P.K. Visual Servoing by Partitioning Degrees of
Freedom. IEEE Transactions on Robotics and Automation, Vol. 17, No
1, Frebruary 2001.
[134] Oh, P.Y., and Allen, P.K. Perfomance of a Partitioned Visual Feedback
Controller. Proceedings of the 1999 IEEE International Conference on
Robotics and Automation Detroit, Michigan, May, 1999.
[135] Papanikolopoulos, N.P., and Khosla, P.K. Adaptive Robotics Visual
Tracking: Theory and Experiments. IEEE Transactions on Automatic
and Control, vol 38 N3, 1993.
[136] Papanikolopoulos, N.P., Khosla, P.K., and Kanade, T. Visual Tracking
of a Moving Target by a Camera Mounted on a Robot: A Combination
of Vision and Control. IEEE Transactions on Robotics and
Automation, vol 9, pp. 14-35, 1993.
[137] Pari, L., Sebastián, J.M., González, C., and Angel, L. Image Based
Visual Servoing: a New Method for the Estimation of the Image
Jacobian in Dynamic Environments. Lecture Notes in Computer
Science 4141: pp. 850-861, 2006.
[138] Pichler, A. and Jagersand, M. Uncalibrated Hibrid Force-Vision
Manipulation. Proceedings of the 2000 IEEE/RSJ Int. conf. On
Intelligent Robots and Systems, 2000.
[139] Piepmeier, J.A., McMurray, G.V. and Lipkin, H. A Dynamic Quasi-
Newton Method forUncalibrated Visual Servoing. Proceedings of the
1999 IEEE International Conference on Robotics and Automation, pp
1595-1600, 1999.
[140] Piepmeier, J. A., McMurray, G.V. and Lipkin, H. (1999). A Dynamic
Jacobian Estimation for Uncalibrated Visual Servoing. Proceedings of
338
Bibliografía.
339
Bibliografía.
[153] Sanderson, A., and Weiss, L. Image-Based Visual Servo Control Using
Relational Graph Error Signals. Procc. IEEE pp. 1074-1077, 1980.
[154] Sebastian, J.M., Pari, L., Gonzales, C., and Angel, L. A New Method
For the Estimation of the Image Jacobian of the Control of the
Uncalibrated Join System. Lecture Notes in Computer Sciences LNCS.
Vol 3522, pp. 631-638, 2005.
[155] Sequeira, P.J., Caldas, J.R. Camera Configurations of a Visual
Servoing Setup, for a 2 DOF Planar Robot. Proceedings of the 7th
IFAC Symposium on Robot Control SYROCO 2003, Wroclow,
Poland, September 1-3, 2003.
[156] Sequeira, P.J., Mendonca, L.F., Sousa, J., and Caldas, J.R.
Uncalibrated Eye-to-Hand Visual Servoing Using Inverse Fuzzy
Models. IEEE Transactions on Fuzzy Systems, to appear, 2007.
[157] Scheering, C., and Kersting, B. Uncalibrated Hand-Eye Coordination
with a Redundant Camera. Proceeding of the 1998 IEEE International
Conference on Robotics & Automation, Leuven, Belgium, May, 1998.
[158] Sciavicco, L., and Siciliano, B. Modelling and Control of Robot
Manipulators. Springer-Verlag, London, 2005.
[159] Shen, Xiao-Jing and Pan, Jun-Min. A Simple Adaptive Control for
Visual Servoing. Proceedings of the Second International Conference
on Machine Learning and Cibernetics, Xi’an, 2003.
[160] Shiray, Y., and Inoue, H. Guiding a Robot by Visual Feedback in
Assembly Tasks. Pattern Recognition. 5, pp. 99-108, 1973.
[161] Shiu, Y.C., Ahmad S. Calibration of Wrist-Mounted Robotic Sensors
by Solving Homogeneous Transform Equations of the Form AX=XB.
IEEE Transaction on Robotics and Automation, Vol. 5 No. 1, February,
1989.
[162] Silveira, G.F., Carvalho, R.H., Rives, P., Azinheira, J., Bueno, S., and
Madrid, M. Optimal Visual Servoed Guidance of Outdoor Autonomous
Robotic Airships. Proceedings of the American Control Conference,
Anchorage, AK, 2002.
[163] Silveira, G.F., Azinheira, J.R., Rives, P., and Bueno, S. Line Following
Visual Servoing for Aerial Robots Combined with Complementary
Sensors. ICAR’03, Coimbra, Portugal, pp. 1160-1165, July 2003.
[164] Su, J., Pan, Q., and Luo, Z. Full DOF calibration-Free Robotic Hand-
Eye Coordinaron Based on Fuzzy Neural Network. F. Yin, J. Wang,
and C. Guo (Eds.): ISNN2004, LNCS 3174, pp. 7-12, 2004.
340
Bibliografía.
341
Bibliografía.
[177] Weiss, L.E., Sanderson, A.C. and Neuman, C.P. Dynamic Visual Servo
Control of Robots: An Adaptive Image-Based Approach. IEEE
International Conference on Robotics and Automation. Vol. 2, pp. 662-
668, 1985.
[178] Weiss, L.E., Sanderson, A. C. and Neuman, C.P. Dynamic Sensor-
Based Control of Robots with Visual Feedback. IEEE Journal of
Robotics and Automation, RA– 3 (5): pp. 404-417, 1987.
[179] Wijesoma, S., Wolfe, D., and Richards, R. Eye-to-Hand Coordination
for Vision-Guided Robot Control Applications. International Journal on
Robotics Research, vol. 12, No 1, pp.65-68, 1993.
[180] Wilson, W. Visual Servo Control of Robots Using Kalman Filter
Estimates of Robots Pose Relative to Work-Pieces. Visual servoing. K
Hashimoto Ed. Singapore: World Scientific, pp. 71-104, 1994.
[181] Wilson, W.J., Willians, C.C. and Bell, G. Relative End-Effector
Control Using Cartesian Position Based Visual Servoing. IEEE
Transactions on Robotics and Automation, vol 12, No 5, 1996.
[182] Wilson, W., Hull, C.W., and Janabi-Sharifi, F. Robust Image
Processing and Position-Based Visual Servoing. M. Vincze & Hager
Ed. “Robust vision for manipulation”. Spie/IEEE Series, pp. 163-220,
2000.
[183] Xu, G., and Zhang, Z. Epipolar Geometry in Stereo, Motion and Object
recognition. A Unified Approach. Kluver Academic Publishers. The
Netherlands, 1996.
[184] Zhang, Z. Determining the Epipolar Geometry and its Uncertainty: A
Review. International Journal of Computer Vision 27(2), pp. 161-195,
1998.
[185] Zhang, Z. A Flexible New Technique for Camera Calibration. 7th
International Conference on Computer Vision, 1999.
[186] Zhang, Z., Deriche, R., Faugeras, O., and Luong, Q.T. A Robust
Technique for Matching Two Uncalibrated Images Through the
Recovery of the Unknouwn Epipolar Geometry. Artificial Intelligence
78(1-2), pp. 87-119, 1995.
[187] Zhang, Z., and Ostrowski, J. Optimal Motion Planning in the Image
Plane for Mobile Robots. IEEE International Conference in Robotics
and Automation, San Francisco, CA, 2000.
[188] Zhang, Z. and Hanson, A.R. Scaled Euclidean 3D Rreconstruction
Based on Externally Uncalibrated Cameras. IEEE Symposium on
Computer Vision, Coral Gables, Floride, 1995.
342