Documentos de Académico
Documentos de Profesional
Documentos de Cultura
JORGE DELGADO GARCÍA
Dpto. Ingeniería Cartográfica, Geodésica y Fotogrametría
Universidad de Jaén
Servicio de Publicaciones
Universidad de Jaén
ÍNDICE
Índice .................................................................................................................................... i
Presentación...................................................................................................................xxiii
Prólogo............................................................................................................................ xxvi
Capítulo 1. Introducción................................................................................................... 1
1.1 Concepto de Fotogrametría Digital .............................................................. 1
1.2 La imagen digital. Ventajas e inconvenientes de la utilización de
imágenes digitales en Fotogrametría ........................................................... 2
1.2.1 Ventajas e inconvenientes de las imágenes digitales.................. 4
1.3 Historia de la Fotogrametría Digital ............................................................ 6
1.3.1 De la Fotogrametría Analítica a la Fotogrametría
Digital ............................................................................................... 6
1.3.2 El periodo de desarrollo conceptual (1955‐1982) ........................ 8
1.3.3 El periodo de diseño previo y las primeras realizaciones
(1982‐1988) ..................................................................................... 10
1.3.4 El periodo de desarrollo de la interfaz de usuario, la
automatización y la especialización (1988‐…)........................... 14
1.4 Fundamentos y cuestiones abiertas en Fotogrametría Digital................ 16
1.5 Fotogrametría Digital: oportunidades y potencial ................................... 17
Referencias bibliográficas .................................................................................... 18
Capítulo 2. Sistemas fotogramétricos digitales .......................................................... 21
2.1 Sistemas fotogramétricos digitales y estaciones fotogramétricas
digitales ......................................................................................................... 21
2.1.1 Elementos que componen un sistema fotogramétrico
digital.............................................................................................. 22
2.2 Esquema de trabajo con un sistema fotogramétrico digital .................... 37
2.2.1 Preparación del trabajo................................................................. 38
2.2.2 Procedimientos de orientación .................................................... 38
2.2.3 Aplicaciones................................................................................... 40
2.3 Clasificación de los procesos en Fotogrametría Digital ........................... 41
2.3.1 Nivel sistema ................................................................................. 43
2.3.2 Nivel bajo ....................................................................................... 44
2.3.3 Nivel medio ................................................................................... 44
2.3.4 Nivel alto........................................................................................ 45
2.4 Análisis de la rentabilidad de una estación fotogramétrica
digital (DPW)................................................................................................. 46
2.5 Clasificación de los sistemas fotogramétricos digitales ........................... 48
Anexo 2.1. Ejemplos de sistemas fotogramétricos digitales............................ 51
Referencias bibliográficas .................................................................................... 85
i
ii ÍNDICE
Capítulo 3. Sistemas de Adquisición de Imágenes Digitales Fotogramétricas..... 87
3.1 Introducción................................................................................................... 87
3.2 Sensores electroópticos ................................................................................. 90
3.2.1 Geometría y propiedades radiométricas de los sensores
electroópticos .................................................................................90
3.3 Cámaras CCD .............................................................................................. 100
3.3.1 Diseño de la cámara .................................................................... 100
3.3.2 Cámaras de video estándar ........................................................ 101
3.3.3 Cámaras CCD de alta resolución............................................... 101
3.3.4 Cámaras digitales de imagen fija............................................... 103
3.3.5 Transmisión y captura de imágenes CCD................................ 105
3.3.6 Digitalizadoras de imagen.......................................................... 107
3.3.7 Sensores digitales empleados en Fotogrametría ..................... 108
3.3.8 Calibración del sensor aerotransportado ADS40 .................... 139
3.3.9 Calibración de cámaras digitales para su empleo en
trabajos de Fotogrametría No Topográfica .............................. 145
3.3.10 Método general de calibración de cámaras digitales .............. 147
3.3.11 Comparación entre cámaras digitales y cámaras
fotográficas convencionales ....................................................... 151
3.3.12 Desarrollos futuros y perspectivas............................................ 156
3.4 Escáneres ...................................................................................................... 157
3.4.1 Componentes de los escáneres .................................................. 158
3.4.2 Análisis de las características técnicas de los escáneres ......... 162
3.4.3 Escáneres no fotogramétricos .................................................... 170
3.4.4 Calibración de escáner ................................................................ 172
3.4.5 Análisis de coste y beneficios de sistemas escáner.................. 195
Anexo 3.1. Ejemplos de escáneres utilizados en Fotogrametría.................... 197
Referencias bibliográficas................................................................................... 209
Capítulo 4. Preprocesamiento de imágenes digitales fotogramétricas ................. 213
4.1 Sistemas de almacenamiento y manipulación de imágenes
digitales fotogramétricas ............................................................................ 213
4.1.1 Sistemas de almacenamiento ..................................................... 214
4.1.2 Manipulación de datos en Fotogrametría Digital ................... 217
4.2 Compresión de imágenes ........................................................................... 220
4.2.1 Métodos de compresión no degradativos ................................ 222
4.2.2 Métodos de compresión degradativa ....................................... 229
Anexo 4.1. Terminología informática relacionada con el almacenamiento
de imágenes digitales ..................................................................... 243
Anexo 4.2. Formatos gráficos de almacenamiento de imágenes digitales... 245
Anexo 4.3. Estructura del fichero LOR50‐50.TIF............................................. 254
Referencias bibliográficas................................................................................... 255
FOTOGRAMETRÍA DIGITAL iii
Capítulo 5. Procesamiento de imágenes digitales fotogramétricas........................257
5.1 Introducción .................................................................................................257
5.2 Modelos de imágenes ..................................................................................259
5.3 Operaciones elementales con imágenes digitales ....................................263
5.3.1 Propiedades de los histogramas de la imagen .........................264
5.3.2 Funciones elementales.................................................................265
5.4 Operaciones locales en imágenes digitales...............................................269
5.4.1 Operadores lineales .....................................................................270
5.4.2 Operadores no lineales ................................................................279
5.5 Morfología ....................................................................................................282
5.5.1 Operadores morfológicos............................................................282
5.5.2 Morfología para imágenes en tonos de gris..............................284
5.6 Pirámides de imágenes ...............................................................................286
5.6.1 Pirámide gausiana........................................................................286
5.6.2 Pirámide laplaciana .....................................................................287
5.7 Corrección de imágenes ..............................................................................288
5.7.1 Método de validación cruzada ...................................................289
5.7.2 Método de eliminación del ruido mediante filtrado
adaptativo .....................................................................................289
5.7.3 Eliminación de filas o columnas erróneas.................................293
5.8 Transformaciones geométricas...................................................................293
5.8.1 Tamaño de una imagen transformada mediante rotación......295
5.8.2 Remuestreo ...................................................................................295
5.9 Segmentación de la imagen ........................................................................297
5.9.1 Métodos de segmentación puntual............................................299
5.9.2 Métodos de segmentación a nivel de área ................................300
5.9.3 Tratamiento de imágenes clasificadas.......................................303
5.9.4 Medidas sobre las imágenes segmentadas ...............................304
Referencias bibliográficas ...................................................................................305
Capítulo 6. Automatización del proceso de medida en Fotogrametría
6.1 Introducción .................................................................................................307
6.2 La automatización del proceso de medida. Concepto de matching......308
6.3 Métodos de reducción del espacio de búsqueda .....................................310
6.3.1 Influencias de las condiciones de la toma y de la
superficie del terreno ...................................................................311
6.3.2 Espacio de búsqueda y aproximaciones ...................................313
6.4 Clasificación de los métodos de stereo‐matching....................................320
6.5 Matching a nivel de área.............................................................................321
6.5.1 Método de correlación cruzada..................................................324
6.5.2 Técnicas de cálculo mediante mínimos cuadrados..................328
6.5.3 Técnicas basadas en el análisis de Fourier ................................343
6.6 Matching a nivel de elementos...................................................................343
6.6.1 Factores a tener en cuenta en el diseño de un sistema
iv ÍNDICE
normalizadas) ...............................................................................469
8.3.2 Pirámides de imágenes................................................................469
8.3.3 Extracción de elementos y matching .........................................469
8.3.4 Reconstrucción de superficie ......................................................470
8.3.5 Control de calidad y evaluación de los métodos
automáticos de generación de MDE ..........................................472
8.4 Sistemas comerciales de generación automática de MDE ......................477
8.4.1 Sistema SOCET SET ATE de BAE Systems...............................477
8.4.2 Sistema Inpho Match‐T ...............................................................479
Capítulo 9. Extracción automática de elementos cartográficos...............................483
9.1 Introducción .................................................................................................483
9.2 Métodos interactivos para la extracción de elementos ...........................487
9.2.1 Construcción de topologías a partir de medidas no
estructuradas ................................................................................487
9.2.2 Alineamiento interactivo de entidades del objeto ...................487
9.3 Detección automática de objetos................................................................489
9.3.1 Herramientas monoscópicas.......................................................490
9.3.2 Métodos basados en el matching estereoscópico y el
análisis de resultados...................................................................496
9.3.3 Métodos basados en la aplicación de técnicas de matching
a nivel de modelo .........................................................................500
9.3.4 Clasificación..................................................................................502
9.3.5 Fusión de la información proveniente de diferentes
sensores .........................................................................................503
9.4 Reconstrucción automática de objetos ......................................................503
9.4.1 Métodos semiautomáticos ..........................................................504
9.4.2 Métodos automáticos basados en el empleo de modelos
paramétricos .................................................................................511
Referencias bibliográficas ...................................................................................518
Capítulo 10. Ortofotografía digital ..............................................................................521
10.1 Introducción. Conceptos básicos ...............................................................521
10.2 Rectificación de imágenes digitales ...........................................................524
10.2.1 Métodos de rectificación .................................................................525
10.2.2 Rectificación de imágenes SPOT ....................................................529
10.3 Etapas de realización de una ortorrectificación mediante el método
diferencial .....................................................................................................537
10.3.1 Adquisición de la información de partida ................................537
10.3.2 Orientación fotogramétrica.........................................................539
10.3.3 Generación de MDE.....................................................................539
10.3.4 Ajustes radiométricos ..................................................................540
10.3.5 Transformaciones geométricas...................................................544
10.3.6 Confección del mosaico final......................................................545
vi ÍNDICE
11.4.1 Necesidades de la medida médica.............................................604
11.4.2 Medida de superficie ...................................................................605
11.4.3 Estudios dinámicos ......................................................................608
Referencias bibliográficas .......................................................................................609
viii ÍNDICE
FOTOGRAMETRÍA DIGITAL ix
ÍNDICE DE TABLAS
Capítulo 1. Introducción
Tabla 1.1. Número de sistemas fotogramétricos analíticos y digitales exhibidos en los
Congresos de la ISPRS en el periodo 1976‐1996................................................................ 7
Tabla 1.2. Conceptos para la automatización de la interpretación de imágenes........................... 9
Tabla 1.3. Principales características de los restituidores digitales................................................ 10
Tabla 1.4. Aspectos básicos relativos al diseño de los sistemas fotogramétricos digitales ........ 10
Tabla 1.5. Características del DSCC .................................................................................................... 11
Tabla 1.6. Requisitos de los sistemas fotogramétricos ..................................................................... 12
Tabla 1.7. Características básicas de los sistemas fotogramétricos digitales................................ 14
Tabla 1.8. Características actuales de los sistemas fotogramétricos digitales .............................. 16
Capítulo 2. Sistemas fotogramétricos digitales
Tabla 2.1. Sistemas de visión estereoscópica en restituidores digitales ........................................ 26
Tabla 2.2. Sistemas de control de movimiento en el modelo.......................................................... 31
Tabla 2.3. Diferencias entre los sistemas analíticos y digitales en cuanto a la orientación
de los fotogramas ................................................................................................................. 40
Tabla 2.4. Comparación del procedimiento de trabajo en los sistemas analíticos y digitales ... 42
Tabla 2.5 Clasificación de procesos fotogramétricos....................................................................... 42
Tabla 2.6 Coste inicial y coste anual equivalente............................................................................. 47
Tabla 2.7 Modelos de estimación de costes ...................................................................................... 48
Tabla A2.1 Errores teóricos en DVP ................................................................................................. 75
Tabla A2.2 Errores reales en DVP..................................................................................................... 76
Capítulo 3. Sistemas de adquisición de imágenes digitales fotogramétricas
Tabla 3.1 Evolución de la resolución y distorsión en los objetivos de la serie RC8 a RC30 . 90
Tabla 3.2 Cámaras tipo still video comercializadas.................................................................. 104
Tabla 3.3 Características de las normas de video más empleadas ......................................... 106
Tabla 3.4 Esquema de fases de trabajo con la cámara DMC ................................................... 116
Tabla 3.5 Características de los sensores del sistema ADS40 .................................................. 121
Tabla 3.6 Sensores digitales operacionales, en visible e infrarrojo......................................... 130
Tabla 3.7 Sistemas espaciales dotados de sensores estereoscópicos ...................................... 134
Tabla 3.8 Características cartográficas de las imágenes captadas con sensores
electroópticos ................................................................................................................. 135
Tabla 3.9 Comparación de costes de los productos .................................................................. 135
Tabla 3.10 Sistemas de captura de imágenes radar .................................................................... 136
Tabla 3.11 Cámaras de alta resolución empleadas en Fotogrametría No Topográfica......... 137
Tabla 3.12 Cámaras digitales de alta velocidad........................................................................... 140
Tabla 3.13 Cámaras empleadas en el test de calibración ........................................................... 145
Tabla 3.14 Comparación entre la cámara de película y la cámara digital ............................... 153
Tabla 3.15 Comparación entre cámaras analógicas y digitales en la planificación de
un vuelo .......................................................................................................................... 155
Tabla 3.16 Comparación entre cámaras analógicas y digitales en la planificación de
un vuelo situación futura ............................................................................................. 155
Tabla 3.17 Nivel de ruido y función de expansión de diferentes escáneres ........................... 168
x ÍNDICE
Capítulo 5. Procesamiento de imágenes digitales fotogramétricas
Tabla 5.1 Efectos del filtrado en una imagen a la que se le ha introducido ruido
artificialmente ................................................................................................................ 292
Capítulo 6. Automatización del proceso de medida en Fotogrametría
Tabla 6.1 Ejemplo de aplicación de matching de mínimos cuadrados unidimensional
para el cálculo del vector desplazamiento. Niveles digitales correspondientes
a las series f y g .............................................................................................................. 332
Tabla 6.2 Ejemplo de aplicación de matching de mínimos cuadrados unidimensional
para el cálculo del vector desplazamiento. Resultados numéricos parciales
del cálculo del vector desplazamiento....................................................................... 333
Tabla 6.3 Ejemplo de aplicación de matching de mínimos cuadrados unidimensional
para el cálculo del vector desplazamiento Resultados de la aplicación a las
series originales del vector de desplazamiento obtenido en la primera
iteración aplicando un posterior remuestreo............................................................ 333
Tabla 6.4 Cálculo de los centros de gravedad de series unidimensionales .......................... 334
Tabla 6.5 Datos de partida y resultados numéricos parciales del cálculo de una
función de deformación compuesta por un vector desplazamiento y un
factor de escala............................................................................................................... 336
Tabla 6.6 Elementos de los bordes............................................................................................... 356
FOTOGRAMETRÍA DIGITAL xi
Capítulo 7. Automatización del proceso de medida en Fotogrametría
Tabla 7.1 Resultados de la determinación de la posición de la marca fiducial mediante
el método del centroide ................................................................................................ 395
Tabla 7.2 Resultados de la localización a nivel de subpíxel .................................................... 397
Tabla 7.3 Resultados de la Orientación Interna Automática................................................... 405
Tabla 7.4 Métodos de orientación interna autónoma ............................................................... 406
Tabla 7.5 Diferencias entre la orientación relativa manual y automática ............................. 407
Tabla 7.6 Resultados de la Orientación Relativa (Modelo Finlandia).................................... 414
Tabla 7.7 Resultados de la Orientación Relativa (Modelo Baviera) ....................................... 415
Tabla 7.8 Resultados de las orientaciones relativas automáticas............................................ 416
Tabla 7.9 Comparación del grado de automatización en los diferentes métodos de
aerotriangulación........................................................................................................... 420
Tabla 7.10 Publicaciones sobre sistemas de aerotriangulación digital automática ............... 431
Tabla 7.11 Características básicas de los sistemas de aerotriangulación digital
automática ...................................................................................................................... 431
Tabla 7.12 Características del bloque Wittenbach....................................................................... 432
Tabla 7.13 Resultados del ajuste del bloque Wittenbach utilizando BLUH ........................... 436
Tabla 7.14 Número de fotogramas por punto de paso en el bloque Wittenbach .................. 436
Tabla 7.15 Resultados de la comprobación de la orientación del bloque Wittenbach .......... 437
Tabla 7.16 Tiempo de operador requerido para la aerotriangulación del bloque
Wittenbach en los distintos sistemas.......................................................................... 437
Capítulo 8. Generación automática de modelos digitales de elevaciones
Tabla 8.1 Comparación entre la adquisición manual y automática de datos para la
generación de MDE....................................................................................................... 460
Tabla 8.2 Criterios de calidad del OSI en la producción de MDE .......................................... 467
Tabla 8.3 Control de calidad de MDE generados automáticamente...................................... 475
Capítulo 9. Extracción automática de elementos cartográficos
Tabla 9.1 Métodos de extracción de elementos ......................................................................... 490
Capítulo 10. Ortofotografía digital
Tabla 10.1 Resultados de la rectificación de imágenes SPOT mediante DLT......................... 537
Tabla 10.2 Ventajas e inconvenientes de la tecnología de impresión de chorro de tinta...... 560
Tabla 10.3 Ventajas e inconvenientes de la tecnología de impresión de inyección de
tinta sólida ...................................................................................................................... 560
Tabla 10.4 Ventajas e inconvenientes de la tecnología de impresión láser ............................. 560
Tabla 10.5 Ventajas e inconvenientes de la tecnología de impresión de transferencia
térmica de ceras ............................................................................................................. 561
Tabla 10.6 Ventajas e inconvenientes de la tecnología de impresión por sublimación ........ 562
Tabla 10.7 Resoluciones en líneas por pulgada para un número fijo de tonos de gris con
resoluciones de 300, 600 y 5080ppp............................................................................ 566
Tabla 10.8 Comparación de los costes de las fases de dos ejemplos de ortofotografía......... 567
Tabla 10.9 Coste aproximado de la toma de puntos de apoyo ................................................. 568
xii ÍNDICE
Capítulo 11. Aplicaciones no cartográficas de la Fotogrametría Digital
Tabla 11.1 Comparación entre los resultados de APDIS y las verificaciones sobre el
terreno ............................................................................................................................. 594
Tabla 11.2 Sistemas digitales para la realización de medidas faciales .................................... 606
Tabla 11.3 Sistemas fotogramétricos digitales para la medida de espalda............................. 607
FOTOGRAMETRÍA DIGITAL xiii
ÍNDICE DE FIGURAS
Capítulo 1. Introducción
Fig.1.1. Proceso de digitalización ...................................................................................................... 3
Fig.1.2. La imagen digital ................................................................................................................... 3
Fig.1.3. Relación entre resolución espacial y espacio requerido para el almacenamiento....... 5
Fig.1.4. Análisis histórico de los métodos fotogramétricos .......................................................... 7
Fig.1.5. Elementos de un restituidor analítico................................................................................. 8
Fig.1.6. Elementos fundamentales de un sistema fotogramétrico digital y el impacto de
la interacción humana y la automatización de medidas e interpretación en la
eficiencia y aceptación......................................................................................................... 17
Capítulo 2. Sistemas fotogramétricos digitales
Fig.2.1. Proceso fotogramétrico digital........................................................................................... 22
Fig.2.2. Diagrama de flujo de un Sistema Fotogramétrico Digital............................................. 23
Fig.2.3. Elementos constituyentes de un sistema fotogramétrico digital ................................. 24
Fig.2.4. Sistemas de visualización estereoscópica empleados en Fotogrametría Digital....... 27
Fig.2.5. Visión estereoscópica por polarización pasiva ............................................................... 27
Fig.2.6. Visión estereoscópica por polarización activa ................................................................ 28
Fig.2.7. Conmutación automática de la observación monóscopica/estereoscópica................ 28
Fig.2.8. Visualización estereoscópica por separación óptica con un solo monitor ................. 30
Fig.2.9. Visualización estereoscópica por separación óptica con dos monitores .................... 30
Fig.2.10. Sistemas de control de movimiento en el modelo 3D.................................................... 31
Fig.2.11. Sistemas de desplazamiento de imagen y cursor ........................................................... 32
Fig.2.12. Esquema de las diferentes ventanas de almacenamiento en relación con el
tamaño de una imagen........................................................................................................ 34
Fig.2.13. Precisión de medida al nivel de sub‐píxel ....................................................................... 36
Fig.2.14. Procesos en un Sistema Fotogramétrico Digital ............................................................. 43
Fig.2.15. Funciones que debe incluir un restituidor digital de gama baja y media .................. 46
Fig.A2.1. Sistema SOCET SET® ........................................................................................................... 52
Fig.A2.2. El sistema SOCET SET® en el entorno de producción cartográfica fotogramétrica.. 52
Fig.A2.3. Estructura de módulos del Sistema SOCET SET® .......................................................... 53
Fig.A2.4. Sistema fotogramétrico digital Z/I Imaging Imagestation 2002 ................................... 58
Fig.A2.5. Flujo de trabajo en Fotogrametría Digital ........................................................................ 58
Fig.A2.6. Flujo de trabajo en la realización de medidas digitales y aerotriangulación ............. 59
Fig.A2.7. Flujo de captura, revisión y control de entidades 3‐D ................................................... 60
Fig.A2.8. Flujo de trabajo en la captura y edición de los MDE ..................................................... 61
Fig.A2.9. Flujo de trabajo en la ortorrectificación de fotografías y generación de mosaicos.... 61
Fig.A2.10. Sistema Softplotter de Autometric Inc. ............................................................................ 64
Fig.A2.11. Sistema Summit PC dotado de sistema de manivelas y tableta para el control
del modelo y del programa ............................................................................................... 67
Fig.A2.12. Sistema DiAP dotado de manivelas y pedal para el movimiento en el modelo ....... 70
Fig.A2.13. Sistema DVP equipado con doble monitor, sistema de visión estereoscópica
mediante estereoscopio de espejos y escáner Sharp JX‐600.......................................... 72
Fig.A2.14. Proceso Fotogramétrico en el DVP ................................................................................... 73
xiv ÍNDICE
Capítulo 3. Sistemas de adquisición de imágenes digitales fotogramétricas
Fig.3.1. Sistemas de adquisición de imágenes en el proceso fotogramétrico digital .............. 89
Fig.3.2. Analogía de la matriz de cubos para la explicación del funcionamiento de
un sensor electroóptico ....................................................................................................... 91
Fig.3.3. Relación entre señal y ruido en un sensor CCD ............................................................. 96
Fig.3.4. Respuesta espectral de diferentes sensores CCD, fotografía y ojo humano .............. 97
Fig.3.5. Elementos funcionales de una cámara digital............................................................... 100
Fig.3.6. Esquema de una cámara de alta resolución con sistema de refrigeración ............... 102
Fig.3.7. Sistema de coordenadas y barrido en una escena de video........................................ 106
Fig.3.8. Sistema MOMS................................................................................................................... 110
Fig.3.9. Sistemas de captación en sensores digitales aerotransportados ................................ 111
Fig.3.10. Cámaras de sensor matricial. ........................................................................................... 112
Fig.3.11. Sensor ADS de Leica Geosystems ................................................................................... 112
Fig.3.12. Captura de imágenes mediante cámaras digitales....................................................... 113
Fig.3.13. Diferencias en el proceso de orientación entre las imágenes obtenidas por un
sensor digital y las obtenidas mediante una cámara convencional analógica......... 114
Fig.3.14. Desplazamiento entre las bandas de los sensores lineales como consecuencia
de la orientación de los sensores ..................................................................................... 114
Fig.3.15. Características geométricas de las imágenes................................................................. 115
Fig.3.16. Configuración de la cámara DMC .................................................................................. 115
Fig.3.17. Cámara Vexcel UltracamD............................................................................................... 117
Fig.3.18. Ejemplos del vuelo de pruebas realizado con la cámara Vexcel UltracamD........... 118
Fig.3.19. Imagen de la estrella de Siemens captada con una película convencional y
con la cámara digital UltracamD..................................................................................... 119
Fig.3.20. Objetivo del sensor ADS40............................................................................................... 120
Fig.3.21. Detalle del plano focal del sensor ADS40 ...................................................................... 120
Fig.3.22. Componentes y conexiones del sistema informático de la cámara ........................... 122
Fig.3.23. Captura de pantalla del sistema de navegación ........................................................... 123
Fig.3.24. Componentes básicos para la integración entre el ADS40 y el IMU/GPS ................ 125
Fig.3.25. Sistema de postproceso en un flujo de producción fotogramétrica digital.............. 125
Fig.3.26. Diagrama del flujo de postproceso ................................................................................. 126
Fig.3.27. Imagen original y rectificada en función de los ángulos de orientación
determinados por la IMU ................................................................................................. 128
Fig.3.28. Imagen de detalle en la que se muestra el efecto de la rectificación en la
corrección de la imagen de una torre de TV ................................................................. 128
Fig.3.29. Imagen obtenida con la versión EM del sensor en la que se observan
los tratamientos aplicados para el ajuste a nivel local de zonas subexpuestas ....... 129
Fig.3.30. Captura de la imagen y generación de los pares estereoscópicos en el sistema
SPOT .................................................................................................................................... 131
Fig.3.31. Geometría de la captura de imágenes SPOT ................................................................. 132
Fig.3.32. Esquema de trabajo con imágenes SPOT estereoscópicas .......................................... 133
Fig.3.33. Instalaciones de calibración de la DLR........................................................................... 140
Fig.3.34. Esquema del calibrador de la DLR ................................................................................. 141
Fig.3.35. Funciones de expansión del punto para el sensor nadiral.......................................... 142
Fig.3.36. FTM del sensor nadiral del sistema ADS40................................................................... 142
Fig.3.37. Instalación del ADS40 en el interior del goniómetro vertical codificado................. 143
Fig.3.38. Función de transferencia óptica, de transferencia de modulación y de fase
de la OTF ............................................................................................................................. 144
Fig.3.39. Señal lineal .......................................................................................................................... 144
FOTOGRAMETRÍA DIGITAL xv
Capítulo 6. Automatización del proceso de medida en Fotogrametría
Fig.6.1 . Principio de stereo‐matching ........................................................................................... 308
Fig.6.2. Representación de la toma de la imagen de un punto del terreno P (sobre
terreno llano) en los fotogramas tomados desde O= y O@............................................ 311
Fig.6.3. Par estereoscópico formado por dos fotogramas con diferente escala ..................... 312
Fig.6.4. Efecto de la diferencia de los ángulos de rotación entre las dos imágenes del par 312
Fig.6.5. Efecto de la inclinación del terreno................................................................................. 313
Fig.6.6. Efecto del relieve en la superficie del terreno que es cubierta por cada uno de
los píxeles de las imágenes que forman un modelo estereoscópico.......................... 313
Fig.6.7. Geometría epipolar............................................................................................................ 314
Fig.6.8. Definición del espacio de búsqueda en función del error de determinación de
la cota del punto del terreno ............................................................................................ 315
Fig.6.9. Método VLL para la reducción del espacio de búsqueda ........................................... 317
Fig.6.10. Ejemplos de pares de líneas de desplazamiento vertical ............................................ 317
Fig.6.11. Aplicación del método VLL ............................................................................................. 318
Fig.6.12. Aplicación combinada de los métodos de líneas epipolares y VLL .......................... 318
Fig.6.13. Pirámide de imágenes ....................................................................................................... 319
Fig.6.14. Matching a nivel de área y a nivel de elemento............................................................ 321
Fig.6.15. Esquema general de un proceso de ABM ...................................................................... 322
Fig.6.16. Principio de la correlación cruzada................................................................................. 325
Fig.6.17. Cálculo del coeficiente de correlación con nivel de precisión de subpíxel............... 326
Fig.6.18. Problemas típicos en la determinación del valor máximo en la correlación............ 327
Fig.6.19. Proceso de observación ............................................................................................................................................................... 329
Fig.6.20. Principio de la aproximación diferencial aplicado al cálculo del vector de
desplazamiento entre series unidimensionales............................................................. 331
Fig.6.21. Series correspondientes a los datos experimentales del ejemplo 1............................ 332
Fig.6.22. Resultado de la aplicación del vector de desplazamiento calculado en la
primera iteración a las series originales ......................................................................... 334
Fig.6.23. Matching a nivel de elementos ........................................................................................ 344
Fig.6.24. Utilización de los elementos extraídos para la representación de elementos
reales .................................................................................................................................... 344
Fig.6.25. Discontinuidades físicas que producen bordes en la imagen digital ........................ 348
Fig.6.26. Tipos de puntos.................................................................................................................. 349
Fig.6.27. Localización de un punto triple y de un punto circular simétrico ............................ 350
Fig.6.28. Tipos de bordes .................................................................................................................. 352
Fig.6.29. Método de la eliminación de los gradientes no máximos ........................................... 353
Fig.6.30. Filtro LoG ............................................................................................................................ 355
Fig.6.31. Extracción de elementos mediante el método de operador LoG ............................... 356
Fig.6.32. Determinación de la posición del borde ........................................................................ 356
Fig.6.33. Clasificación de píxeles de borde en función de la vecindad ..................................... 357
Fig.6.34. Transformada de Hough .................................................................................................. 358
xviii ÍNDICE
Fig.10.10. Definición de los sistemas de coordenada imagen y la geometría del sensor
SPOT .................................................................................................................................... 533
Fig.10.11. Corrección de las coordenadas imagen del efecto de inclinación en el eje de
captura ................................................................................................................................. 537
Fig.10.12. Diagrama de flujo de la aplicación del proceso de rectificación de imágenes SPOT
mediante DLT..................................................................................................................... 538
Fig.10.13. Etapas básicas de realización de ortofotogramas mediante el método de
rectificación diferencial ..................................................................................................... 538
Fig.10.14. Efecto del punto caliente................................................................................................... 542
Fig.10.15. Compensación del efecto de punto caliente .................................................................. 542
Fig.10.16. Distribución de la corrección del efecto de punto caliente dentro del área de
influencia del mismo ......................................................................................................... 543
Fig.10.17. Efecto de las expresiones de corrección del efecto de punto caliente ....................... 544
Fig.10.18. Diagrama de flujo de realización de una rectificación mediante el método
diferencial............................................................................................................................ 545
Fig.10.19. Elaboración manual de un mosaico de fotografías aéreas .......................................... 546
Fig.10.20. Delimitación manual de las líneas de empalme en la confección de una
ortoimagen .......................................................................................................................... 547
Fig.10.21. Ajuste radiométrico mediante cálculo de las diferencias e interpolación lineal
en la franja de empalme.................................................................................................... 548
Fig.10.22. Ajuste radiométrico mediante cálculo de las diferencias e interpolación lineal
en la franja de empalme aplicado a la formación de una banda................................ 548
Fig.10.23. Aplicación de los métodos de interpolación al ajuste radiométrico de
ortoimágenes ...................................................................................................................... 549
Fig.10.24. Influencia del error altimétrico en el error posicional en una fotografía aérea ....... 552
Fig.10.25. Relación entre los errores en la ortoimagen y los errores del MDE .......................... 553
Fig.10.26. Problemas de generación de ortofotografías en zonas urbanas................................. 555
Fig.10.27. Ejemplo de los problemas existentes en la elaboración de ortofotografías en
zonas urbanas ..................................................................................................................... 556
Fig.10.28. Proceso de ortofotografía real.......................................................................................... 557
Fig.10.29. Ejemplo de ortofotografía real ......................................................................................... 557
Fig.10.30. Corrección del desplazamiento en pasos a diferente nivel......................................... 558
Fig.10.31. Tecnología de chorro de tinta continua.......................................................................... 559
Fig.10.32. Tecnología burbujas de tinta ............................................................................................ 559
Fig.10.33. Tecnología de impresión láser ......................................................................................... 561
Fig.10.34. Transferencia térmica de ceras ........................................................................................ 561
Fig.10.35. Sublimación ........................................................................................................................ 562
Fig.10.36. Técnicas de medios tonos mediante tramado ............................................................... 563
Fig.10.37. Píxel con un medio tono ................................................................................................... 563
Fig.10.38. Matriz límite, planos de salida y medios tonos ............................................................ 564
Fig.10.39. Función spot clásica, utilizada en lenguaje Postscript................................................. 564
Fig.10.40. Medios tonos Bayer y medios tonos clásicos................................................................. 565
Fig.10.41. Distribución del error en el dithering............................................................................. 565
Fig.10.42. Conceptos básicos en la generación de perspectivas y animaciones......................... 578
Fig.10.43. Diagrama de flujo del módulo PSCENE de SOCET SET ............................................ 579
Fig.10.44. Captura de pantalla del módulo Perspective Scene de LH Systems......................... 579
Fig.10.45. Generación de perspectivas en zonas urbanas ............................................................. 580
Fig.10.46. Visualización fotorrealística del impacto visual de implantación de dos
molinos de viento............................................................................................................... 581
xxii ÍNDICE
Capítulo 11. Aplicaciones no cartográficas de la Fotogrametría Digital
Fig.11.1. Laboratorio de medida con el automóvil sobre la plataforma giratoria y el
sistema de cámaras ............................................................................................................ 585
Fig.11.2. Patrón de calibración del Instituto de Geodesia y Fotogrametría de la ETH
de Zurich con las marcas en el muro y la estructura ................................................... 586
Fig.11.3. Imagen de la zona de la puerta tomada con la cámara 1, mostrando los
problemas derivados de la baja resolución de la cámara y el efecto del
blooming ............................................................................................................................. 587
Fig.11.4. Sistema de medida fotogramétrica de trayectoria en fluidos..................................... 589
Fig.11.5. Ejemplo de una ambigüedad sin solución utilizando dos cámaras .......................... 590
Fig.11.6. Ejemplo de la formación de tripletas consistentes ....................................................... 590
Fig.11.7. Geometría de la trayectoria de los rayos........................................................................ 591
Fig.11.8. Vectores de velocidad obtenidos a partir de la trayectoria de las
partículas en un tiempo de 1s .......................................................................................... 592
Fig.11.9. Diagrama de flujo para el programa APDIS ................................................................. 593
Fig.11.10. Ejemplos de imágenes de pavimento afectado por un deterioro tipo Acocodrilo@.. 594
Fig.11.11. Tiempos de adquisición y de procesamiento de diferentes sistemas
fotogramétricos .................................................................................................................. 596
Fig.11.12. Módulos funcionales de un sistema de visión automática ......................................... 596
Fig.11.13. Sistema de adquisición de datos y elementos de procesamiento del robot ............. 597
Fig.11.14. Tareas, temporización y elementos de hardware del robot........................................ 598
Fig.11.15. Fotogrametría Digital Arquitectónica con el sistema DIPAD .................................... 600
Fig.11.16. Vista parcial del edificio de residencia de estudiantes del campus de la ETH
de Zurich ............................................................................................................................. 600
Fig.11.17. Productos generados con DIPAD ................................................................................... 601
Fig.11.18. Imagen original y realzada correspondiente a una pintura rupestre ....................... 602
Fig.11.19. Imagen de Buda de estilo Sukhothai .............................................................................. 603
Fig.11.20. Medida faciales .................................................................................................................. 606
Fig.11.21. Representación vectorial del movimiento de un atleta en el momento de tomar
la salida en una prueba ..................................................................................................... 609
Presentación
xxiii
xxiv PRESENTACIÓN
Me resulta muy grata la tarea de presentar al lector este libro
“Fotogrametría Digital”, obra de Jorge Delgado García, Profesor Titular del
Departamento de Ingeniería Cartográfica, Geodésica y Fotogrametría de la
Universidad de Jaén en el que se intenta abarcar todos los aspectos contenidos
en la generación de productos cartográficos mediante la aplicación de las
técnicas de Fotogrametría Digital.
La utilización de las imágenes digitales en Fotogrametría ha producido un
interesante cambio en la generación de documentos cartográficos, pasando
desde la situación de una disciplina que sólo atraía la atención de un grupo
reducido de profesionales a una situación en la que las personas interesadas
son cada vez más.
El estudio y utilización de las técnicas fotogramétricas digitales requiere
recurrir a la utilización de métodos y técnicas, en la mayoría de ocasiones de
uso muy reciente o de contenido poco común. Esto da lugar a que para una
correcta utilización de los mismos y su mejor aprovechamiento, el técnico
deba ser capaz no sólo de saber cómo se aplican sino que profundizar en las
mismas y saber cuáles son sus fundamentos teóricos. Esto da lugar a que se
necesiten conocimientos que abarcan muy diversos campos del saber, por lo
que es necesario calificar a la Fotogrametría Digital como una disciplina
multidisciplinar en la que se exige una base de fundamentos científicos y
técnicos, que abarcarían desde los propios fundamentos fotogramétricos, a
otros relacionados con la electrónica, informática, estadística, ... .
Sólo este hecho justificaría la oportunidad del intento de realizar una obra
que trate de compilar la diversidad temática que cubre la Fotogrametría
xxv
xxvi PRÓLOGO
Digital, así como el estado actual de los conocimientos en ese dominio, e
incluso de los aspectos aún mal conocidos y en los que se centran o deben
centrarse los esfuerzos. Corrobora también esta oportunidad el hecho de la
escasez de textos sobre este tema en lengua castellana, por lo que puede
constituir una aportación interesante no sólo para España, sino para los países
iberoamericanos y aquellos que se expresan en lenguas afines.
El libro se estructura en 11 capítulos que recorren los diferentes procesos
necesarios para generar información cartográfica a través de la Fotogrametría
Digital. Así en el capítulo I se recogen los aspectos introductorios, así como
una pequeña introducción histórica de gran interés para el análisis de las
líneas de investigación abiertas dentro de la Fotogrametría Digital y su estado
actual de conocimiento. El capítulo II se dedica al estudio de los Sistemas
Fotogramétricos Digitales como elementos fundamentales en el proceso
fotogramétrico digital realizando un análisis de los elementos constituyentes
de dichos sistemas y los sistemas actualmente comercializados. El capítulo III
aborda las técnicas de captura de imágenes digitales, tanto de forma directa
mediante la utilización de sensores digitales aerotransportados de reciente
comercialización como los escáneres, realizando hincapié en su calibración y
aplicaciones fotogramétricas. Los capítulos IV y V analizan las técnicas
básicas de análisis digitales de imágenes fotogramétricas, análisis centrado en
las técnicas de compresión y almacenamiento de las imágenes y en las de
mejora de la calidad de las mismas. Con el capítulo VI comienza el análisis de
los procedimientos de automatización de la medida sobre las imágenes
digitales, en el mismo se analizan los aspectos relativos a la identificación de
elementos homólogos en las imágenes (matching), y que constituye el núcleo
fundamental de la automatización del proceso fotogramétrico digital. En los
tres capítulos siguientes (VII, VIII y IX) recogen la aplicación de las técnicas
de matching para la orientación fotogramétrica, la generación automática de
modelos digitales de elevaciones y la extracción automática de modelos
digitales de elevaciones, respectivamente. En el capítulo X se trata uno de los
aspectos de mayor interés dentro de la Fotogrametría Digital, la generación de
ortofotografías, el cual ha sido, sin lugar a dudas, uno de los motores que ha
propiciado el auge de la Fotogrametría Digital en estos últimos años. Por
último, el libro concluye con un capítulo dedicado a las aplicaciones no
cartográficas de Fotogrametría Digital (Capítulo XI), en el que se recogen
diferentes ejemplos con fines industriales, de conservación del patrimonio,
médicos, ... .
Por último, quiero poner de manifiesto la importancia que entraña la
realización de obras como la que hoy presento, que debería encontrar, en
FOTOGRAMETRÍA DIGITAL xxvii
todos los estamentos de la gran familia cartográfica, el apoyo necesario para
que no fueran excepciones, sino la regla para permitir la adecuada
comprensión del proceso fotogramétrico digital. En este libro se nos
proporciona un claro ejemplo de la filosofía de su autor de no sólo limitarse a
enseñar sino a enseñar a aprender, algo evidentemente más complejo pero
que no es sino una necesidad para todos los que estamos de una manera u
otra involucrados en el ámbito de la cartografía en la que cada día aparecen
nuevos instrumentos, técnicas y productos que nos obligan a realizar un
esfuerzo de actualización para mantenernos a día. Así el libro incorpora un
elevado número de referencias bibliográficas que permitirán al lector que lo
desee profundizar más en aspectos específicos del libro mediante una
consulta directa con las fuentes de referencia.
Para terminar, no quiero dejar de expresar mi agradecimiento al Prof.
Jorge Delgado por brindarme la oportunidad de prologar esta obra, que
espero que sirva de guía a todos los que nos dedicamos a la aplicación de
técnicas fotogramétricas digitales para la generación de productos
cartográficos.
Prof. Dr. Alfonso Gómez Molina
Prof. Titular Universidad Politécnica de Madrid
Director Gerente de Stereocarto S.L. (Madrid)
Capítulo 1. Introducción
1
2 INTRODUCCIÓN
Intervalo de
muestreo en y
Pixel Intervalo de muestreo en x
FOTOGRAMETRÍA DIGITAL 3
Fig.1.1. Proceso de digitalización: a partir de una imagen real se obtiene la imagen digital,
definida por una matriz de píxeles según un determinado intervalo de muestreo
1000
Fotografía en color
100
Fotografía en B/N
10
1
100 90 80 70 60 50 40 30 20 10 0 Tamaño de pixel (µm)
300 400 600 1200 2540 Resolución espacial (ppp)
Fig.1.3. Relación entre resolución espacial y espacio requerido para el almacenamiento. Cálculos realizados
para un fotograma de formato 23x23 cm., considerando que no se emplea ningún sistema de compresión
6 INTRODUCCIÓN
EVOLUCIÓN REVOLUCIÓN
Analógicos Analíticos Digitales
(70 años) (20 años) (? años)
1900 1970 1990 ?
Fig. 1.4. Análisis histórico de los métodos fotogramétricos (Leberl, 1991)
Así es necesario recordar que la Fotogrametría Analítica (cuya base teórica data
de 1957 -fecha de invención del restituidor analítico-) no ha sido generalmente
aceptada hasta finales de la década de los 70. Este ritmo de evolución no parece que
se vaya a mantener en la Fotogrametría Digital, así la tendencia experimentada, el
interés mostrado por constructores y usuarios y el gran desarrollo del hardware (y su
abaratamiento) hace que sea previsible una evolución mucho más rápida.
Como muestras de la evolución comparada entre Fotogrametría Digital y
Fotogrametría Analítica, en la Tabla 1.1 se presenta un resumen del número de
equipos presentados en los diferentes congresos de la Sociedad Internacional de
Fotogrametría y Teledetección (ISPRS).
Tabla 1.1. Número de sistemas fotogramétricos analíticos y digitales exhibidos en los Congresos de la
ISPRS en el período 1976-1996 (Saleh et al., 1994)
Sistemas 1976 1980 1984 1988 1992 1996
Analíticos 7 12 20 15 7 <7
Digitales -- -- -- 6 10 >10
Sistema de
Restituidor = Visión-medición + + Ordenador
Analítico
operador humano
realización y las dificultades, así indica que el diseño de un restituidor digital "debería
estar basado en el uso de equipos estándar y en el software de los restituidores
analíticos existentes”. Sarjakoski define en este artículo las principales características
que definen un restituidor digital (Tabla 1.3), en su planteamiento el operador
interviene en los procesos de visualización e interpretación, ayudado por un sistema
de correlación de imágenes digitales mediante un adecuado diseño del software.
Tabla 1.3. Principales características de los restituidores digitales (Sarjakoski, 1981)
No es necesaria una alta precisión de los componentes óptico mecánicos
No es necesaria una calibración instrumental de forma regular
Las imágenes digitales son estables y se pueden manejar sin operaciones manuales
El modelo estereoscópico puede ser cambiado de forma rápida
Se puede seleccionar la presentación óptima para la interpretación
El proceso de restitución puede ser complementado con la correlación de imágenes digitales
Se pueden realizar medidas estereoscópicas
Las ideas más importantes de este período pueden ser esquematizadas en tres
apartados básicos que son los que definen los sistemas fotogramétricos digitales
(Tabla 1.4).
Tabla 1.4. Aspectos básicos relativos al diseño de los sistemas fotogramétricos digitales (Gülch, 1994)
Datos de entrada y Sensores:
Las imágenes digitales son estables, se pueden almacenar en bases de datos, no requieren
interacción manual para su acceso, dependiendo su calidad de la digitalización.
Las imágenes digitales al eliminar la necesidad del proceso fotográfico permiten la realización de
medidas en tiempo real (on-line)
formato digital registradas en una cinta magnética. La utilización de este sistema era
similar al de un restituidor analógico o analítico en lo relativo a aerotriangulación,
mono o estereocompilación manual de planimetría o de datos de cota topográfica,
pero permite la superposición gráfica de forma mono o estereoscópica para la edición
y revisión de resultados e implementa estereocorrelación automatizada para la
obtención de información de cota y para la transferencia de puntos. Case indica que
este sistema actúa de una forma similar a los sistemas analíticos (Tabla 1.5).
Tabla 1.5. Características del DSCC (Case, 1982)
Sistema de visión binocular electrónico (en lugar de utilizar copias sobre película o papel y sistema
de visión óptico.
Manivelas, pedales, ratón, teclas de función, … para el control (imágenes, indice flotante, …) y
selección de las opciones de trabajo
Procesamiento de imágenes de gran tamaño (20000x20000 píxeles)
Posibilidad de mediciones a escala del subpixel mediante el movimiento de la imagen manteniendo
el cursor fijo
Posibilidad de trazado de elementos en el área de visión mediante el movimiento del cursor
manteniendo la imagen fija
Posibilidad del tratamiento previo de la imagen
Correlación de la imagen para la elaboración de MDT
Superposición de datos de forma mono o estereoscópica
estos sistemas entonces no existentes, fueron la base para el desarrollo de los sistemas
actuales de correlación de imágenes en tiempo real.
Grün (1986) introduce nuevas ideas relativas al potencial y al diseño de las
estaciones fotogramétricas digitales. Los nuevos diseños contemplan la utilización de
imágenes digitales obtenidas con diferentes plataformas (cámaras aéreas, satélite,
fotogrametría terrestre, …), lo que permite el realizar todos los trabajos de
fotogrametría con un único sistema. Ésta es una de las grandes ventajas con respecto a
los sistemas analógicos y analíticos, la integración de todo el proceso en un único
sistema, flexible y universal, que permite obtener productos tanto en formato
analógico -hardcopy- como en formato digital -softcopy-. A Grün se debe la
denominación de Softcopy Photogrammetry que ciertos autores norteamericanos,
utilizan como sinónimo de la Fotogrametría Digital.
Como fruto de la popularidad de estas nuevas técnicas, en el período 1984-88 se
crea un grupo de trabajo dentro de la ISPRS sobre Sistemas Fotogramétricos
Integrados. En Makarovic (1986) se presentan los principales aspectos de los sistemas
de tipo digital, este artículo marca la tendencia que se ha mantenido estos últimos
años, del hardware al software, es decir, de los sistemas analógicos a los digitales, de
los métodos manuales a los automatizados.
En el siguiente Congreso de la ISPRS celebrado en Kyoto en 1988, se presenta la
primera estación de trabajo estereofotogramétrica digital comercial, la KERN DSP1
(Cogan et al., 1988a), junto a diversos sistemas a nivel de prototipo. Todos estos
sistemas estaban basados en los sistemas de procesamiento de imágenes y su
desarrollo estaba determinado por el auge de la utilización de imágenes satélite en
formato digital (LANDSAT, SPOT), y la necesidad de contar con un sistema
fotogramétrico que pudiera trabajar con este tipo de imágenes evitando la necesidad
de su transformación a información analógica con la pérdida de información que ello
conlleva. La KERN DSP1 no se presenta como un sustituto de los sistemas analíticos
sino como un primer ensayo sobre el que ir perfeccionando el sistema, que quizá se
puede considerar adelantado a la situación técnica actual del momento, aunque es
necesario tener en cuenta que cumplía con todos los requisitos indicados en Gugan y
Dowman (1986) para el diseño de un sistema digital. Cogan y Polasek. (1988b)
indican los requisitos de un sistema fotogramétrico digital que se resumen en la
Tabla 1.6.
Tabla 1.6. Requisitos de los sistemas fotogramétricos (Cogan y Polasek, 1988b)
Optimización de la relación precio-rendimiento mediante la utilización de un diseño modular y
continuo
El sistema debe ser fiable y útil
Software sencillo de utilizar y con unos resultados eficientes
Un único instrumento que se pueda integrar con los sistemas de información geográfica
Tabla 1.7. Características básicas de los sistemas fotogramétricos digitales (Gülch, 1994)
Datos de entrada y Sensores:
Imágenes de satélite (directamente en formato digital), imágenes aéreas (digitalizadas debido a la falta
de cámaras de calidad) e imágenes de Fotogrametría de objeto cercano (Close-Range) directamente
en formato digital.
Hardware e Interfaz usuario:
El sistema debe estar formado por elementos estándar tanto a nivel de equipos como programas.
Importancia del remuestreo epipolar en tiempo real para generar modelos estereoscópicos libres
de paralaje en Y.
El interfaz con el usuario debe contar con adecuadas herramientas de edición y superposición
gráfica mono y estereoscópica, y poder ser utilizado por operadores no especialistas en la captura
de datos.
No siempre es necesario contar con sistemas de visión estereoscópica.
Software y Automatización:
El sistema debe ser universal y permitir la resolución automática de determinados procesos
fotogramétricos (interacción humana como antítesis de la eficacia).
Debe permitir el procesamiento de imágenes múltiples, con sistemas de correlación en tiempo real
para ayudar al operador en las medidas del paralaje.
En otro artículo publicado el mismo año, Helava (1991b) indica que los sistemas
fotogramétricos digitales no deben ser considerados como nuevos tipos de
restituidores analíticos, sino como un instrumento revolucionario. Estos instrumentos
permiten explotar completamente el potencial de la relación matemática existente
entre píxel y terreno que ofrece el sistema digital y que no existe en los sistemas
basados en películas convencionales. Con imágenes y un modelo digital del terreno
(MDT) disponible se puede preparar con facilidad un modelo totalmente orientado,
pudiendo ser el tratamiento fotogramétrico necesario transparente para el usuario.
Förstner (1991) realiza una detallada descripción del papel de los conceptos y
tareas "La labor de la Fotogrametría es la extracción de información a partir de
imágenes siendo esta información de tipo geométrico y semántico". En
Quam et al (1991) la expresión "fusión de información" es trasladada al contexto de la
modelización cartográfica. Esto posibilita la utilización de diferentes fuentes de
información. Por otro lado, el conocimiento de la iluminación de los modelos permite
la generación de imágenes sintéticas o secuencias de imágenes que utilizan la
modelización -rendering- para aumentar el realismo de las perspectivas.
Ackermann (1992) describe el poder de las herramientas, que han posibilitado la
rápida ascensión de la Fotogrametría Digital. El avance en la tecnología informática
ha sido un factor determinante. Ackermann indica la necesidad de crear un sistema
basándose en la precisión, la eficiencia, la fiabilidad y la universalidad, también hace
hincapié en la fuerte convergencia entre la Fotogrametría y la Teledetección.
Ebner et al. (1992) resumen muchos de los aspectos anteriores. El software
compatible es un factor clave para permitir la utilización de hardware estándar y, por
otro lado, el avance de las técnicas pone de manifiesto la necesidad de la existencia de
"cajas negras" en las que se realicen los cálculos fotogramétricos de una forma
transparente al usuario no experto.
Sarjakoski y Lammi trabajan en este sentido considerando las estaciones de
trabajo fotogramétricas como útiles estereoscópicos para el análisis en un entorno SIG
(Sarjakoski y Lammi, 1992), presentando la ventaja de la posibilidad de realizar
mediciones precisas en 3D. Estos autores también indican la ventaja de la rapidez en
el procesamiento de la información y la generación de los mapas lo que permite la
continua revisión de los productos cartográficos finales.
La democratización de la Fotogrametría es también una idea recogida por
Derenyi (1993) que propone el término "desktop mapping", para los usuarios que no
son expertos en Fotogrametría o Cartografía. Para el desarrollo de este tipo de
trabajos la Fotogrametría Digital supone una importante ayuda mediante la
automatización y transparencia de los procesos fotogramétricos.
Farrow y Murray (1992) indica la gran importancia relativa del software frente al
hardware. Los autores dan una visión de fácil comprensión acerca de qué tipos de
software deben ser incluidos en la estación fotogramétrica: entrada de datos,
captura/edición y salida de resultados. Estos elementos son los más comúnmente
requeridos en los organismos encargados de los trabajos cartográficos y por ello
deben estar incluidos en las estaciones digitales.
16 INTRODUCCIÓN
Leberl (1992) indica las diferencias entre "softcopy" y "hardcopy", los datos en
informática se denominan "softcopy format" mientras que las reproducciones
impresas de dichos datos se denominan "hardcopy format", así trasladando ese
concepto a la Fotogrametría, las imágenes digitales serían softcopy mientras que las
imágenes analógicas son hardcopy. En este trabajo se encuentran ideas muy
interesantes de la utilización de la Fotogrametría como una herramienta para el
desarrollo, utilización y revisión de SIG, lo que él denomina "democratización de la
Fotogrametría".
La situación actual de la Fotogrametría Digital en cuanto a desarrollo de hardware
y de algoritmos puede ser resumida en la Tabla 1.8.
Tabla 1.8. Características actuales de los sistemas fotogramétricos digitales (Gülch, 1994)
Datos de entrada y Sensores:
La información debe ser preprocesada contando con un sistema de compresión/descompresión de
las imágenes digitales.
Es importante disponer de la información necesaria para la creación de modelos de objetos
semánticos.
Hardware e Interfaz usuario:
Se tiende a la democratización con interface para usuarios no expertos mediante el diseño de
sistemas únicos con la posibilidad de implementar herramientas a medida en función de las
necesidades del usuario.
El sistema debe permitir la captura de datos en tiempo real.
Software y Automatización:
El sistema debe contar con unos niveles altos de precisión y fiabilidad.
Debe contar con sistemas de reconocimiento semiautomático de formas, así como con
herramientas de visualización realística y animación.
Debe ser integrable en sistemas tipo CAD o SIG.
EFICIENCIA Y ACEPTACIÓN
pequeña grande
Interacción Automatización
Medida
Visión Interpretación
Control 3-D
Entrada: Salida:
- Imágenes - Coordenadas
- Digitalizadores Ordenador objeto
- Cámaras on-line - Ortofotos
- Modelos de - Descripción
objetos semántica
- Modelos de - Visualización
iluminación - Animación
- ... - ...
Base de Datos
REFERENCIAS BIBLIOGRÁFICAS
Ackermann,F. (1991): Structural Changes in Photogrammetry. Proc.of the 43rd Photogrammetric Week at
Stuttgart University, 9-14 September, pp.9-23.
Ackermann,F. (1992): Struckturwandel in der Photogrammetrie. Zeitschrift für Photogrammetrie und
Fernerkundung 1/1992.
Ackermann,F. (1996): Digital Photogrammetry: Challenge and Potential. PE&RS, 62(6), Junio 1996,
p.679.
Albertz, J., König, G.(1984): A Digital Stereophotogrammetric System. 15th ISPRS Congress, Rio de
Janeiro, IAPRS 25-A2.
Case,J.B. (1982): The Digital Stereo Comparator/Compiler (DSCC). ISPRS Com.II, Symp., Ottawa,
IAPRS, 24-II.
Cogan,L., Gugan,D.J., Hunter,D., Lutz,S., Peny,C. (1988a): KERN DSP-1 - Digital Stereo
Photogrammetric System. 16th ISPRS Congr., Kyoto, IAPRS, 27-B2.
Cogan,L., Polasek,A. (1988b): KERN Integrated Systems Hardware and Software Architecture. 16th
ISPRS Cong., Kyoto, IAPRS, 27-B2.
Derenyi, E.E., (1993): Low cost softcopy mapping, SPIE'93 Conf. on 'Integrating Photogrammetric
Techniques with Scene Analysis and Machine Vision'. Orlando, Florida, SPIE vol.1944.
Dowman,I. (1989): Digital Systems for Mapping from SPOT Data. Conf. on Southern African Surveyors.
8.3.
Euget,G., Vigneron,C. (1988): MATRA TRASTER T10N Digital Stereoplotter. 16th ISPRS Cong., Kyoto,
IAPRS, 27-B2.
Ebner,H., Dowman,I., Heipke,C. (1992): Design and Algorithmic Aspects of Digital Photogrammetric
Systems, 17th ISPRS Cong., Washington, D.C., IAPRS, 29-B2.
Farrow,J.E., Murray,K.J. (1992): Digital Photogrammetry - Options and Opportunities. 17th ISRPS Cong.,
Washington D.C., IAPRS, 29-B2.
FOTOGRAMETRÍA DIGITAL 19
Förstner,W. (1991): Concepts and Algoritms for Digital Photogrammetric Systems. Zeitschrift für
Photogrammetrie und Fenerkundung 5/1991.
Gosh,S.K. (1988): Analytical Photogrammetry. 2ª Ed. Pergamon Press.
Gugan,D.J. y Dowman,I.J. (1986): Desing and Implementation if a Digital Photogrammetric System.
ISPRS Com.II Symp, Baltimore, May, IAPRS, 26-2.
Grün,A. (1986): The Digital Photogrammetric Station at the ETH Zurich. ISPRS Com.II Symp., Baltimore,
May, IAPRS, 26-2.
Gülch, E. (1994): Fundamentals of Softcopy Workstations. En: ASPRS. Proceedings Mapping and Remote
Sensing Tools for the 21st Century with feature emphasis on public/private interaction. 26-29 Agosto.
Washington D.C. pp.193-204.
Helava,U.V.(1958): Analytical Plotter in Photogrammetric Production Line. Photogrammetric Engineering,
24(5).
Helava,U.V.(1988): On System Concepts for Digital Automation. 16th ISPRS Congress, Kyoto, IAPRS,
27-B2.
Helava,U.V. (1991a): State of the Art in Digital Photogrammetric Workstations. Phot. Journal of Finland,
12(2).
Helava,U.V.(1991b): Prospects in Digital Photogrammetry. Phot Journal of Finland, 12(2).
Hobrough,G.L.(1959): Automatic Stereo Plotting. Photogrammetric Engineering, 25.
Konecky,G., Lohmann,P.(1988): A Digital Image Mapping System. 16th ISPRS Cong., Kyoto, IAPRS, 27-
B11.
Leberl,F.W. (1991): The Promise of Softcopy Photogrammetry. En: Ebner et al.(eds). Digital
Photogrammetric Systems. Ed. Wichmann. Karslruhe.
Leberl,F.W. (1992): Design alternatives for Digital Photogrammetric Systems. 17th ISPRS Congr.,
Washington D.C., IAPRS, 29-B2.
Makarovic,B.(1986): Integrated Photogrammetric Systems. ISPRS Com.II Symp, Baltimore, May, IAPRS,
26-2.
Panton,D.J.(1978): A flexible Approach to Digital Stereo Mapping. Photogrammetric Engineering &
Remote Sensing, 44(12).
Quam,L., Strat.,T. (1991): SRI Image Understanding Research in Cartographic Feature Extraction. En:
Ebner et al (eds) Digital Photogrammetric Systems, Wichmann. Karlsruhe.
Rosenberg ,P.(1955): Information Theory and Electronic Photogrammetry. Photogrammetric Engineering,
21(2).
Rosenfeld, A. (1965): Automatic Imagery Interpretation. Photogrammetric Engineering, 31(2).
Saleh, R.A.; Scarpace, F.L.; Dahman, N.A. (1994): Softcopy Photogrammetric System Evaluation for
Production Environment. En: ASPRS. Proceedings Mapping and Remote Sensing Tools for the 21st
Century with feature emphasis on public/private interaction. 26-29 Agosto. Washington D.C., 211-222.
Sarjakoski,T. (1981): Concept of a Completely Digital Stereoplotter. The Photog. Journal of Finland, 2.
Sarjakoski,T., Lammi,J. (1992): Requirements of a Stereo Workstation for GIS environment. 17th ISPRS
Congress, Washington D.C., August, IAPRS, 29-B2.
Schenk,T. (1986): Concepts and Models in Photogrammetric Systems. ISPRS Com. II Symp., Baltimore,
May, IAPRS, 26.2.
Schenk,T. (1988): The Effect of Digital Photogrammetry on Existing Photogrammetric Concepts,
Procedures and Systems. 16th ISPRS Cong., Kyoto, IAPRS, 27-B9.
Schenk,T. (1996): Current Status and Future Directions of Digital Photogrammetry: A Personal View.
PE&RS, 62(6), p.682.
Schneider, W. y Hanh, M. (1994): Bildflug mit Real-time-Disk - Experiment geglückt. GIS 1/1994.
Sharp,J.V., Christensen,R.L., Gilman,W.L., Schulman,F.D. (1965): Automatic Map Compilation Using
Digital Techniques. Photogrammetric Engineering, 31(2).
Slama,C.C. (ed.) (1980): Manual of Photogrammetry. 4ª Ed. ASP. Bethesda, Maryland 1056 p.
Stokes,J. (1988): A Photogrammetric Monoplotter for Digital Map Revision Using the Image Processing
System GOP-300. 16th ISPRS Congr., Kyoto, IAPRS, 27-B2.
Thompson, M. y Gruner, H. (1980): Foundations of Photogrammetry. En: Slama, C. (ed.) Manual of
Photogrammetry. American Society of Photogrammetry. Bethesda, Maryland. 1-36.
Thom, C. y Jurvillier, I. (1993): Experiencies with a digital aerial camera at Institut Géographique National
(France). Photogrammetric Week '93, Fristch, D.; Hobbie, D.(ed). Wichmann, Verlag.
21
22 SISTEMAS FOTOGRAMÉTRICOS DIGITALES
Cámara
convencional
Cámara Digital
Objeto
Proceso
fotográfico
Digitalización
Imágenes Digitales
Sistemas de
Impresión
Datos de Entrada
Datos Raster
Digitales Analógicos
Datos Vector
Analógicos Digitales
Fotografía
Fotografía
Terrest re
Teodolito
Cámara
Satélite
Satélite
Datos
Sensor
Sensor
Mapas
Planos
Aérea
Video
Aéreo
SEM
CAD
CCD
SIG
Temáticos
ESCÁNER
Fotogramet ría
Operador
Visión Análisis de Humano
Automát ica Imágenes
perspectiva
Mosaico de
(wireframe)
Curvas de
imágenes
Imágenes
Vistas en
Ortofotos
vectorial
Terreno
Estereo
digital
Mapa
Mapa
MDE
nivel
Interfaz Usuario
Programas
de Control
Aplicación Operador
Host
Entrada de I magen
Sist emas de Observ ación
Sobreimposición
Esc áner
Procesamient o de
Imágenes Digitales
Observador múltiple NO SI SI
Posibilidad de otras Sí, con pantallas Sí, pero real sólo con No se deben mezclar
ventanas simultáneas múltiples pantallas múltiples mono y estéreo
FOTOGRAMETRÍA DIGITAL 27
CPU
Buffer Imágenes 1 y 2
IMAGEN 1 IMAGEN 2
PANTALLA RGB
Sincronizador de polarización
120 Hz: Imagen monoscópica
60Hz: Imagen estereoscópica
CPU
Buffer Imágenes 1 y 2
IMAGEN 1 IMAGEN 2
Monitor
Estéreo
Monitor
Mono
Señal Estéreo
Infrarrojo 170º
VISIÓN MONOSCÓPICA
VISIÓN
ESTEREOSCÓPICA
ESTEREÓSCOPO DE ESPEJOS
PANTALLA RGB
IZQUIERDA DERECHA
CPU
Buffer Imágenes 1 y 2
IMAGEN 1 IMAGEN 2
Fig.2.8. Visualización estereoscópica por separación óptica con un solo monitor (Schenk, 1995)
ESTEREÓSCOPO DE ESPEJOS
PANTALLA 1 PANTALLA 2
IZQUIERDA DERECHA
CPU 1 CPU 2
Buffer Imágenes 1 Buffer Imágenes 2
IMAGEN 1 IMAGEN 2
Fig.2.9. Visualización estereoscópica por separación óptica con dos monitores (Schenk, 1995)
Fig.2.10. Izq.: Trackball; Centro: Ratón 3D de Immersion Co.; Der.: Ratón Leica Topomouse
32 SISTEMAS FOTOGRAMÉTRICOS DIGITALES
Fig.2.11. Sup.: Desplazamiento con el sistema de imagen fija-cursor móvil. La imagen que se presenta
siempre es la misma salvo que el cursor se desplace fuera de límites. Inf: Desplazamiento con el sistema de
cursor fijo-imagen móvil. La imagen se va desplazando conforme se desplaza el cursor
pueda realizar el desplazamiento sin problemas en una distancia dos veces mayor que
la porción de imagen presentada en la pantalla adicional al propio del desplazamiento.
Para que no existan problemas de desplazamiento al alcanzar los límites de la
porción de imagen almacenada en la memoria de video, es necesario que los límites se
vayan actualizando de una forma simultánea al desplazamiento del cursor. Así, si
tomamos como referencia nuestro ejemplo, se dispone de un tiempo de 1 s para el
refresco total, o lo que es lo mismo, se necesitará una velocidad de transferencia de 32
Mb/s desde el disco duro a través del bus del sistema a la memoria de video. El
problema es que los sistemas actuales no ofrecen estas velocidades (el Fast Wide
SCSI-2 permite 20Mb/s, suficiente para el roaming de imágenes en 256 tonos de
gris).
Una posible solución para evitar este problema es dedicar una parte de la memoria
del sistema para almacenar una porción más grande que la almacenada en la memoria
de video (figura 2.12) y realizar la transferencia entre memoria del sistema y memoria
de video, transferencia que es más rápida que la establecida entre disco duro y
memoria de video, técnica conocida como caché y que es frecuentemente empleada
para agilizar los procesos en los sistemas operativos actuales.
b
a
Fig.2.12. Esquema de las diferentes ventanas de almacenamiento en relación con el tamaño de una imagen.
La imagen presentada viene definida por el tamaño del monitor y la resolución de la tarjeta gráfica (a),
en este caso 19.2mmx15.4mm. El desplazamiento en tiempo real sólo es posible es la ventana de memoria
de video (b). La memoria del sistema (c) almacena una porción mayor de la imagen. La trayectoria (d) se
predice en función de los últimos movimientos del cursor (Schenk,1999)
Pixel monitor
Pixel Imagen
Cursor
a b
Fig.2.13. Precisión de medida al nivel de sub-píxel.
a: utilización de zoom positivo (un píxel de imagen se representa en varios píxeles de pantalla 3x3);
b: desplazamiento diferencial de la imagen con respecto a la pantalla (tomada de Schenk, 1999)
a) Orientación interna.
El proceso de orientación interna analítica determina la relación entre los sistemas
de coordenadas placa y fotografía, permitiendo determinar la posición exacta de la
diapositiva en la placa. En la orientación interna de una imagen digital es similar a la
de una fotografía en formato analógico con la única diferencia de que es necesario
introducir los errores derivados del proceso de digitalización. La transformación
relaciona, en este caso, coordenadas píxel y fotocoordenadas.
La característica básica en cuanto al procedimiento de trabajo de la orientación
interna en un sistema analítico es la capacidad del sistema de desplazarse a las
proximidades de la marca fiducial, en función de la información introducida a partir
del certificado de calibración de la cámara. Esta capacidad de desplazamiento también
existe en los sistemas digitales con una importante diferencia, únicamente se desplaza
el cursor o la porción de imagen presentada en la pantalla, lógicamente, no existe
ningún desplazamiento de tipo mecánico.
Otra importante diferencia es que la orientación interna digital puede ser realizada
de una forma automática mediante un simple procedimiento de reconocimiento de
patrones. El sistema rastrea la imagen y es capaz de reconocer la posición de las
marcas fiduciales y calcular las transformaciones correspondientes.
b) Orientación relativa.
El aspecto común en el procedimiento seguido por ambos sistemas es el
desplazamiento automático a los puntos de Von Grüber a fin de eliminar el paralaje y,
de esta forma, realizar el cálculo de la orientación relativa de una forma analítica. La
única diferencia es la posibilidad de encontrar los puntos homólogos de una forma
automática basándose en los procedimientos de correlación de imágenes partiendo de
aproximaciones iniciales en cuanto a la orientación.
Otra importante diferencia entre ambos sistemas es que mientras que en el sistema
analítico, una vez realizada la orientación la obtención de las coordenadas modelo se
realiza en tiempo real, en la mayoría de los equipos digitales es necesaria una etapa
previa de remuestreo epipolar de la imagen, de forma que las filas de la misma sean
paralelas a la base (Cho et al, 1992), al realizar esta transformación aunque se puede
perder precisión debido a la necesidad de un remuestreo (sobre todo si el proceso se
repite varias veces) se consigue una gran mejora en tiempo de cálculo, puesto que, los
puntos homólogos se encuentran en la misma fila.
Por tanto, en un sistema digital la orientación relativa puede ser automatizada de
forma que se convierta en un proceso autónomo (Schenk y Toth, 1991;
Tang y Heipke, 1993). Así de puede plantear un sistema en el que el primer contacto
del usuario con el modelo se realice una vez realizadas las orientaciones interna y
relativa y el modelo ya presente geometría epipolar.
c) Orientación absoluta
Durante el proceso de orientación absoluta se establece la relación entre el espacio
modelo y el espacio objeto. Para ello es necesario disponer de puntos de control que
permitan establecer dicha relación, la identificación de los puntos de control suele ser
40 SISTEMAS FOTOGRAMÉTRICOS DIGITALES
una tarea compleja, incluso para los operadores humanos, debido a problemas de
identificación, contraste u ocultamiento, por tanto, el reconocimiento automático de
los puntos de control es una tarea que aún está a algunos años de automatizarse, sobre
todo en el caso de fotografías aéreas, si bien existen algunos ensayos de
automatización que han sido llevados incluso a entornos de producción utilizando
puntos preseñalizados o bien localizados en elementos característicos del terreno,
como por ejemplo, cornisas de edificios.
A modo de resumen se incluyen en la Tabla 2.3 las principales diferencias en
cuanto al procedimiento de trabajo relativo a la orientación de los pares en un sistema
analítico y un sistema digital (Schenk, 1995).
Tabla 2.3. Diferencias entre los sistemas analíticos y digitales en cuanto a la orientación de los fotogramas
Sistema Analítico Sistema Digital
Requiere disponer de un laboratorio fotográfico Incorpora procedimientos de análisis de imágenes
para tareas como copias, ampliaciones, para la mejor interpretación de las mismas
reducciones, …
Requiere visor Requiere un sistema estereoscópico de monitor
Rotación del campo de vista por prismas Dove Rotación de la imagen mediante remuestreo
(proceso lento y con pérdida de precisión)
Zoom continuo y rápido El zoom requiere refresco de la pantalla (lento)
2.2.3 Aplicaciones
a) Aerotriangulación
La aerotriangulación es un buen ejemplo para demostrar el potencial de los
sistemas digitales para la automatización del proceso fotogramétrico.
Tradicionalmente, la aerotriangulación comenzaba con la preparación de los
fotogramas realizando la selección de un considerable número de puntos que
aparecieran en tantos fotogramas como fuera posible. Tras esta etapa de preparación,
los puntos seleccionados eran transferidos a todos los fotogramas, dependiendo en
gran medida la calidad de los resultados de la calidad de esta transferencia de puntos.
Sólo después de que los puntos eran transferidos y claramente identificados en todos
los fotogramas era posible comenzar el proceso de medida.
En los sistemas digitales la transferencia de los puntos se realiza de una forma
automática mediante procesos de correlación de imágenes (multiple image matching).
Esta automatización permite aumentar considerablemente el número de puntos
FOTOGRAMETRÍA DIGITAL 41
Tabla 2.4. Comparación del procedimiento de trabajo en los sistemas analíticos y digitales (Schenk, 1995)
Sistema analítico Sistema Digital
Esencial Óptimo
Definición proyecto y modelo,... Igual
Insertar fotogramas Identificar ficheros imágenes Acceso > 20 imágenes
Control de visión
Iluminación diapositivas Realce de imágenes
Marca flotante Cursor (tamaño, forma, color)
Zoom individual Zoom individual Zoom suave y progresivo
Prismas Dove Rotación de imágenes
Orientación interna
Desplazamiento automático Desplazamiento automático Procedimiento autónomo
Cálculos analíticos Cálculos analíticos
Orientación relativa
Desplazamiento automático Trabajo monoscópico
Eliminación de paralaje manual Eliminación de paralaje manual Procedimiento autónomo
Cálculos analíticos Cálculo analítico/Remuestreo epipolar Remuestreo en tiempo real
Orientación absoluta
Identificación puntos de control Igual Procedimiento automático
Proceso de medida
Cálculos analíticos Cálculos analíticos
Aerotriangulación
Selección de puntos Igual Automático
Transferencia de puntos Automático Autónomo
Ajuste de bloques Igual
MDE
Introducción características Igual
Digitalización líneas ruptura Igual Automático
Muestreo progresivo Automático Autónomo
Restitución planimétrica
Trazado manual Superposición de elementos Procesos de seguimiento
Superposición opcional automático de líneas
IMÁGENES DIGITALES
Preprocesamiento
Correcciones Radiométricas
Realce del Contrastre
Identificación de puntos
y Orientación Automática
Orientación Interna y Relativa
Remuestreo, Orientación Absoluta
Matching de imágenes
Extracción de
Correlación cruzada, método VLL, información semántica
Mínimos cuadrados, mm.cc. adaptativo
Extracción de elementos,
punto multiple, programación dinámica Análisis Imágenes, Análisis Geométrico
Matching en espacio objeto
RESULTADOS PRELIMINARES
Comprobación de Resultados
Postprocesamiento
Filtrado de MDE,
Edición interactiva
RESULTADOS FINALES
MANIPULACION ORIENTACION,
ENTRADA ANALISIS DE
Y CALIBRACION Y
DE VISUALIZACION IMAGENES Y POSICIONAMIENTO
DATOS MEDIDAS
IMAGEN DEL PUNTO
CONTROL
PROCESAMIENTO GENERACION EDICION
DE
IMAGEN MDT MDT CALIDAD
SALIDA INTERFAZ
VISUALIZACIÓN DE DE USUARIO
RESULTADOS GRAFICO
Fig.2.15. Funciones que debe incluir un restituidor digital de gama baja y media
necesario tener en cuenta que esta clasificación está un poco desfasada debido a que
la concepción modular de los sistemas permiten la configuración en función de las
necesidades y que no existan estaciones específicas para cada función:
a) Estación Estéreo
b) Estación Mono
c) Estación de Aerotriangulación
d) Estación de generación de MDT
e) Estación de generación de Ortofotografías
a) Estaciones Estéreo.
Estos equipos se utilizan para la restitución facilitada por la visión estereoscópica
que proporcionan. Dentro de este grupo se pueden distinguir entre sistemas de alto
rendimiento y de bajo rendimiento. Los primeros permiten la generación de todo el
abanico de productos fotogramétricos (aerotriangulación, MDT, ortoimágenes, …) y
son la lógica evolución de los equipos analíticos. Las operaciones de medida de
coordenadas de la imagen se realizan mediante un cursor que está localizado en el
centro de la pantalla, mientras que las imágenes se desplazan mediante la acción del
operador en un ratón 3D. Ejemplos de este tipo son:
− Autometric Softplotter (http://www.ismcorp.com, 2003)
− BAE Systems SOCET SET (http://www.baesystems.com, 2003)
− DAT EM SummitPC (http://www.datem.com, 2003)
− Leica Erdas Imagine OrthoMAX (http://www.erdas.com, 2003)
− Leica LPS (http://www.lh-systems.com, 2003)
− VirtuoZo (http://www.virtuozo.com, 2003)
− Z/I ImageStation (http://www.ziimaging, 2003) e
Los sistemas de bajo coste son más económicos, suelen incorporar menor número
de funciones que los equipos de gama alta o bien se trata de sistemas cuyo nivel de
evolución es más limitado. Dentro de este subtipo se podrían incluir los siguientes
equipos:
− Digi3D (http://www.digi21.net, 2003)
− DVP Digital Video Plotter (http://dvp.ca, 2003)
− R-Wel DMS (http://www.rwel.com, 2003)
− PhoTopol (http://www.topol.cz, 2003)
b) Estaciones Mono.
Estos equipos se utilizan para la extracción de información planimétrica a partir de
ortoimágenes en formato digital, utilizándose como información auxiliar el modelo
digital de terreno con el que fue creada la ortoimagen. La información 3D será
obtenida evidentemente a partir de dicho modelo al carecer el sistema de visión
estereoscópica. Por tanto, la precisión de los resultados está relacionada con la
precisión del MDT empleado para la creación de la ortofotografía y de la
identificación de los elementos que en visión monoscópica es más compleja que
utilizando la estereoscopia. Las principales aplicaciones de los equipos mono están en
trabajos en los que se requiere una menor precisión. Algunos de estos sistemas
incluyen software para la orientación de la imagen, generación de MDT y producción
50 SISTEMAS FOTOGRAMÉTRICOS DIGITALES
de ortoimágenes. En la mayoría de los casos los sistemas de esta clase son los mismos
que los incluidos en la clase anterior pero sin incorporar los sistemas de visualización
estereoscópica.
c) Estaciones para la Aerotriangulación.
Actualmente este tipo de estaciones no se comercializan, aunque en numerosas
empresas se dispone actualmente de sistemas estándar empleadas para
aerotriangulación digital, dotadas del software específico y de sistemas de
visualización en estéreo. Su utilización se basaba en la obtención de los parámetros de
la orientación externa mediante la medida de las coordenadas de los puntos
homólogos en diferentes imágenes y la realización del ajuste de los bloques. La
transferencia de puntos es realizada automáticamente bajo la supervisión de un
operador, que puede ver de una forma simultánea las imágenes en la pantalla, una en
cada ventana. El único sistema comercializado fue la Helava-Leica Digital
Photogrammetric Workstation 100 (Miller et al., 1992).
Actualmente, se comercializan varios sistemas informáticos dedicados
exclusivamente a la aerotriangulación, que se pueden adquirir como módulos
independientes para interconectarlos a nuestro sistema fotogramétrico digital, entre
ellos, destacan el sistema Match-AT de Inpho GmbH, bien conocido al ser el motor
de los antiguos sistemas de aerotriangulación que incorporaban los sistemas de Z/I
Imaging (hasta el año 2001).
d) Estaciones para la obtención de MDT.
El objetivo de estas estaciones es exclusivamente la extracción automática del
MDT a partir de imágenes estereoscópicas. Algunos equipos incorporan software para
la orientación de imágenes y un programa de MDT, necesitando algunos la
realización de una transformación epipolar como paso previo para la obtención del
modelo y algunos están especializados para la utilización de imágenes de pequeña
escala y/o sensores especiales. Existe una amplia gama de posibilidades de
verificación y edición de los modelos obtenidos, así como de niveles de precisión.
Dentro de este grupo se puede señalar el sistema Inpho Match-T.
e) Estaciones para la obtención de ortoimágenes.
En estos equipos se lleva a cabo la ortoproyección digital. La mayoría de los
equipos incluyen software para la obtención de mosaicos y ortoimágenes y tienen
conexiones para realizar las entradas y salidas mediante escáneres y trazadores
gráficos. Además es importante tener en cuenta que la mayoría de los programas
dedicados a la teledetección (ER-Mapper, ENVI, ...) incorporan en la actualidad
módulos para la generación de ortofotografías y mosaicos.
En el anexo 2.1 se presenta para una relación de los equipos más conocidos a nivel
mundial, incluyendo referencias bibliográficas sobre los mismos. Evidentemente ésta
no pretende ser una lista exhaustiva, lo que sería casi imposible debido a la rápida
evolución del mercado, por lo que se aconseja para obtener la información más
actualizada la consulta por parte del lector de las páginas web de las diferentes
empresas.
FOTOGRAMETRÍA DIGITAL 51
Sistemas de Navegación
ASCOT, Flykin Suite+
Película (RC30)
Cámaras digitales
Sensores Digitales Aereos
Imágenes Satélite
Escáner Fotogramétrico
Analógicas Digitales
Estereóscopos ST4,TSP1 DSW500
Transferidor de puntos PUG4 SCAN
DODGER
Sistemas Analíticos Estación Fotogramétrica Digital
SD2000/3000 SOCET SET
COLORISS DODGER
ORIMA
Sistemas SIG y Teledetección
ORIMA
PRO600/Microstation Geo PRO600/Microstation G
Prod uctos de salida (salida impresa, soporte magnético, CD, DVD, Internet)
Fotog rafía aérea, Imagen Digital, Datos Vectori ales, Bases de Datos SIG, MDE, Ortofotos, Perspectivas y Animaciones
LANDSAT CIB
ERS IRS
SPOT CADRG Importación/E xportación imágenes
SIR-C RADARSAT y modelos de sensores
JERS Ikonos
QuickBird ...
CONVERT
IMAGE MAP
LAMPS2
ORTHO-MOSAIC
Productos CAPTURE NT
DOQ
Geocity Conexiones con otros
PSP
programas desarrollados por terceros
XMAP
LOS
VrOne
EasyCopy EasyConvert
EasyCapture) otros
Figura A2.3. Estructura de módulos del Sistema SOCET SET® Versión 4.2 (LH Systems, 2000)
CORE: Es el módulo básico del sistema SOCET SET®. Este módulo permite la
importación y la exportación de la mayoría de los formatos de imagen, así como el
tratamiento previo de las mismas (ajuste de histograma, filtrados, brillo/contraste, …)
54 SISTEMAS FOTOGRAMÉTRICOS DIGITALES
Figura A2.4. Sistema fotogramétrico digital Z/I Imaging Imagestation 2002 (Z/I Imaging, 2003)
Orientación
Escaneo de del modelo
MDE Mapas
Fotogramas
Imágenes Entidades
Datos Digitales
Digitales SIG
Triangulación
Secciones
Ingeniería
Transversales
a) Medición y triangulación
El esquema del proceso de orientación y aerotriangulación se muestra en la figura
A2.6 y se basa en la utilización de los módulos siguientes:
a) ImageStation Model Setup (ISMS)
b) ImageStation Digital Mensuration (ISDM)
c) ImageStation Automatic Aerotriangulation (ISAT)
d) ImageStation Multisensor Triangulation
Triangulación Proceso
Escaneo de Aérea de ortofotos
Fotogramas
Transferencia
puntos/medida
Imágenes
Digitales Manual o Triangulación Creación de
Automática
de satélite estéreomodelo
Fig. A2.6. Flujo de trabajo en la realización de medidas digitales y aerotriangulación (Intergraph, 1999)
SIG
Orientación
Escaneo de del modelo Captura / Revisión Mapas
Fotogramas Entidades
Imágenes
SIG Datos Digitales
Digitales
Triangulación
Ingeniería
Fig. A2.7. Flujo de captura, revisión y control de entidades 3-D (Intergraph, 1999)
Tratamiento
Datos MDE
MDE Captura/Edición Mosaico
interactiva Fichero
del MDE
MDE
Captura/Edición
Modelo Secciones
automática
Estéreo del MDE
c) Generación de Ortofotografías
La generación de ortofotografías y mosaicos se realiza mediante los módulos
ImageStation Base Rectifier (ISBR) y el ImageStation OrthoPro (ISOP) (figura A2.9).
Fichero
Procesado
MDE
MDE
Cinta
Escaneo de CD
Fotogramas
Resección Ajuste de tonos Control de
Rectificación
foto única en mosaicos calidad
Imágenes
Digitales
Ortofoto
digital
clásica para su generación que se agrupan en cuatro tareas que están perfectamente
controladas mediante una tabla de tareas realizadas y pendientes. Las tareas a realizar
son:
a) Configuración del proyecto (Project Setup)
b) Definición del modelo (Model Definition)
c) Selección automática de los puntos de paso (Automatic Tie Point Selection)
d) Ajuste del bloque (Aerotriangulation/Bundle Adjustment)
e) Ortorrectificación (Orthophoto production)
a) Configuración del proyecto: Permite al usuario definir los parámetros básicos del
proyecto como tipo de imágenes (admite fotogramas aéreos, imágenes satélite,
imágenes de video e incluso de cámaras digitales y de pequeño formato), sistema de
coordenadas y datum, información de la calibración de la cámara o sensor y los
puntos de apoyo y control terrestre, permitiendo la introducción de parámetros de
orientación obtenidos en vuelo mediante sistemas GPS/IMU.
b) Definición del modelo: Esta fase consiste en la identificación de las imágenes que
configuran el modelo o el bloque, además en la misma se realiza la orientación interna
semiautomática de las imágenes (en el caso de trabajar con imágenes provenientes de
cámaras métricas) y la introducción de los puntos de apoyo y de control.
c) Selección automática de los puntos de paso: El sistema incorpora herramientas para
la identificación automática de los puntos de paso mediante sistemas de correlación
de imágenes, en los que es necesario introducir los parámetros clásicos de número de
puntos, tamaño de las ventanas patrón y de búsqueda, así como los límites de
tolerancia para la aceptación de los pares identificados.
d) Aerotriangulación y ajuste del bloque: El sistema realiza un ajuste de bloque con
autocalibración incorporando herramientas automáticas para la comprobación de
errores probables en la aerotriangulación y la evaluación/corrección/ajuste de los
mismos.
e) Ortorrectificación: Utilizando un MDE importado en el sistema (esta versión no
incorpora sistemas de generación automática de MDE) se realiza el proceso de
ortorrectificación mediante procesos en lote (modo batch) realizándose el mosaico
mediante el módulo de ERDAS Imagine Mosaic Tool.
4.2 Imagine OrthoPRO
Las diferencias fundamentales entre este módulo y el anterior son la capacidad del
Imagine OrthoPRO para la generación automática de MDE. El sistema empleado para
la generación del modelo digital es el de correlación jerárquica e incorpora
herramientas para la revisión y edición del modelo digital generado.
Requerimientos del sistema
Sistema OrthoMAX:
− Plataformas: SGI IRIS 5.3 ó 6.2; Sun OS 4.1.3 ó 4.1.4; Sun Solaris 2.4 ó 2.5;
HP-UX 9.0.7, Windows XP
− Sistemas gráficos: X11/Motif (SGI y HP); OpenWindows 3.0 (SunOS);
OpenWindows 3.3 (Sun Solaris), Windows GUI
64 SISTEMAS FOTOGRAMÉTRICOS DIGITALES
− 64 Mb RAM
− Espacio de almacenamiento: 350Mb para ERDAS Imagine v.8.2 y 100Mb
para Imagine OrthoMAX v.8.2
− 300 Mb para espacio de swap
− 2 a 5 Gb de espacio para procesamiento de las imágenes
− Sistema de visión estereoscópica:
SGI: Sistema CrystalEyes con emisor y gafas activas
Sun y HP: Sistema CrystalEyes con caja de sincronización GDC3,
emisor y gafas activas.
Windows: Sistema CrystalEyes con emisor y gafas activas
Sistema OrthoBASE:
− Plataforma: Microsoft Windows 9x/NT/2000/ME/XP
− Procesador mínimo Intel Pentium
− Memoria RAM: mínimo 64Mb
− Tarjeta gráfica compatible SVGA
− 240Mb de disco duro.
Fig.A2.13. Sistema DVP equipado con doble monitor, sistema de visión estereoscópica mediante
estereoscopio de espejos y escáner Sharp JX-600 (situado en la parte izquierda de la fotografía)
Módulo
Malla Calibración Fichero
Calibración Escáner Corrección
Escaneada (DVPS) Escáner
- Resección
DVRO
Módulo
Ficheros Imagen Ortoimagen
Ortoimágenes
Ráster de: DVR3
- Bloques de fotografías Módulos DVP:
- Pares estereoscópicos Módulo - Restitución
terrestres o aéreos Mosaico Estereoscópica
- Pares imágenes SPOT DVPMOS - Restitución 3D
- 1 Fotograma Monoscópica
(Orto +TIN)
Módulo Imagen - Restitución 2D
Rectificación Rectificada Monoscópica
DVR2 2D
DVPN,SATIN
DVRN
Módulo
Fichero
MDT TIN
DVPTIN TIN
Ficheros de
1 fotografía Módulo Fichero Módulo elementos
en tableta Resección Parámetros Restitución gráficos
digitalizadora DVROT Orientación Monoscópica 3D (X,Y,Z)
DVPMONO o
2D (X,Y)
Los módulos más importantes de esta versión eran (Gagnon et al., 1995):
DVPS: Módulo de calibración del escáner
DVPO: Módulo de orientación en dos pasos (interna, relativa y absoluta) de
fotogramas aéreas o terrestres. Las coordenadas de la fotografía son determinadas
mediante la aplicación de una transformación ortogonal (o afín) estándar a las
coordenadas de los píxeles almacenadas en forma de matriz bidimensional. Los
parámetros de transformación son obtenidos mediante la aplicación de un ajuste por
mínimos cuadrados al sistema lineal de ecuaciones empleando las coordenadas
calibradas y observadas de las marcas fiduciales. La orientación relativa es resuelve
igualmente por mínimos cuadrados usando la condición de coplanaridad,
almacenándose los resultados de la misma en un fichero para su posterior consulta o
análisis (valores de los elementos de la orientación, paralajes residuales en y en los
puntos de orientación relativa, y el paralaje en y a la escala de la fotografía (obtenida
a partir de la focal de la cámara y la base del modelo).
Las coordenadas de terreno u objeto X son calculadas a partir de las coordenadas
del modelo x mediante la aplicación de la transformación de similaridad basada en la
formulación de Espacio-M (Blais, 1979).
X = k M x + Xo
74 SISTEMAS FOTOGRAMÉTRICOS DIGITALES
Cada iteración proporciona una serie de parámetros a,b,…,g, que son utilizados
para obtener los valores de k, M, y Xo (bastan con 3 iteraciones para lograr la
convergencia). Cuando la orientación absoluta se completa, el sistema proporciona un
listado de los puntos de control, con sus coordenadas y discrepancias, así como el
error medio en X,Y y Z.
DVPSPOT: Módulo de orientación de imágenes SPOT
DVRO: Módulo de resección espacial, que permite la orientación en 1 paso
(orientación interna, resección espacial) utilizando una única fotografía.
DVPN, DVRN: Módulos de restitución fotogramétrica en visión estereoscópica o
monoscópica, permitiendo la conexión con otros programas de diseño mediante la
exportación en formato AutoCAD DXF y Microstation DGN.
DVR2: Módulo de generación de fotografías rectificadas mediante la aplicación de
una transformación proyectiva bidimensional.
DVR3: Módulo de generación de ortofotografías mediante la aplicación de
rectificación diferencial.
TIN: Módulo de generación de Modelos Digitales de Terreno en formato TIN
(Triangle Irregular Network -Red de Triángulos Irregulares-) mediante la
aproximación de Delaunay y permitiendo la incorporación de líneas de ruptura.
DVPTRI: Módulo de captura digital de datos para aerotriangulación.
b) Aplicaciones y precisión.
En los sistemas fotogramétricos digitales el factor básico que controla la precisión
es la resolución de la digitalización. Nolette et al.(1992) han realizado diferentes
análisis de precisión controlando la precisión en planimetría y altimetría de modelos a
diferentes escalas, obteniendo las siguientes expresiones.
σxy = PS x P x 0.7 x 10 E-6 σz = PS x P x F/B x 0.5 x 10 E-6
donde: PS: Denominador de la escala de la fotografía P: Tamaño del píxel (µm)
F: Distancia focal de la cámara empleada (mm) B: Fotobase (mm)
En la Tabla A2.1 se muestran ejemplos de las precisiones previstas en función de
la escala de la fotografía y la resolución espacial empleada en el proceso de
digitalización. En la Tabla A2.2 se presentan valores de errores reales de diversos
modelos, los errores han sido expresados en µm a escala de la fotografía. La
FOTOGRAMETRÍA DIGITAL 75
geometría de todos los modelos es la misma, han sido tomados con una cámara de
152mm de distancia focal y con un 60% de solape longitudinal. Las fotografías han
sido digitalizadas a 450 ppp (tamaño de píxel 56µm), por lo que la precisión teórica a
nivel de subpíxel es de 40µm. En todos los casos, la orientación relativa y absoluta ha
sido realizada con 10 puntos homogéneamente repartidos por el modelo utilizándose
un número variable entre 12 y 44 puntos para controlar la precisión.
Tabla A2.1. Errores teóricos en DVP
Resolución Tamaño
Escala
Imagen imagen Tamaño píxel Precisión planimétrica Precisión Altimétrica
Foto
(ppp) (Mb)
Imagen Terreno emc máx. int. alt. emc
(µm) (m) (m) (m) (m)
1:2500 1000 82 25 0.06 0.04 0.09 0.11 0.05
800 53 32 0.08 0.06 0.11 0.14 0.07
600 30 42 0.11 0.07 0.15 0.18 0.09
400 13 64 0.16 0.11 0.22 0.27 0.14
200 3.3 127 0.32 0.22 0.44 0.54 0.27
1:5000 1000 82 25 0.13 0.09 0.18 0.21 0.11
800 53 32 0.16 0.11 0.22 0.27 0.14
600 30 42 0.21 0.15 0.29 0.36 0.18
400 13 64 0.32 0.22 0.45 0.54 0.27
200 3.3 127 0.64 0.44 0.89 1.08 0.54
1:10000 1000 82 25 0.25 0.18 0.35 0.43 0.21
800 53 32 0.32 0.22 0.45 0.54 0.27
600 30 42 0.42 0.29 0.59 0.71 0.36
400 13 64 0.64 0.45 0.90 1.09 0.54
200 3.3 127 1.27 0.89 1.78 2.16 1.08
1:15000 1000 82 25 0.38 0.26 0.53 0.64 0.32
800 53 32 0.48 0.34 0.67 0.82 0.41
600 30 42 0.63 0.44 0.88 1.07 0.54
400 13 64 0.96 0.67 1.34 1.63 0.82
200 3.3 127 1.91 1.33 2.67 3.24 1.62
1:20000 1000 82 25 0.50 0.35 0.70 0.85 0.43
800 53 32 0.64 0.45 0.90 1.09 0.54
600 30 42 0.84 0.59 1.18 1.43 0.71
400 13 64 1.28 0.90 1.79 2.18 1.09
200 3.3 127 2.54 1.78 3.56 4.32 2.16
El tamaño de almacenamiento está referido para imágenes de 8bits (256 tonos de gris), las imágenes en
color requieren el triple de espacio de almacenamiento.
El error medio cuadrático en planimetría viene definido como el 70% del tamaño del píxel, el error
máximo se puede obtener como dos veces el error cuadrático medio.
La diferencia de cota mínima detectable se obtiene como (distancia focal x base ) / tamaño de píxel,
siendo el error cuadrático medio la mitad de la diferencia de cota mínima detectable.
La precisión altimétrica ha sido calculada para f=152mm, b=90mm (60% solape)
76 SISTEMAS FOTOGRAMÉTRICOS DIGITALES
Hardware y Software.
La digitalización de imágenes fotográficas produce ficheros de gran tamaño,
teniendo en cuenta el entorno operativo sobre el que se desarrolla en sistema DVP
(PC funcionando bajo Windows). Afortunadamente el coste de almacenamiento por
Mb cada día es menor y por otro lado, la oferta de sistemas de respaldo cada vez es
más importante.
Es muy importante que el disco duro del sistema y la controladora sean tan rápidos
como sea posible debido a que en el DVP actúan como apoyo de la memoria video.
Por otro lado, se ha comprobado (Nolette et al.,1992) la importancia de configurar un
caché de disco en el sistema, fundamentalmente para la velocidad de visualización y
siempre, lógicamente que la memoria RAM del sistema lo permita.
Para obtener una velocidad de visualización lo más rápida posible, la transferencia
de datos entre el disco y la tarjeta de video debe realizarse directamente sin ningún
tipo de transformación de los datos, por lo que es necesario que todas las
transformaciones, si fueran precisas, se realizaran una única vez y los datos
transformados fueran almacenados en los ficheros que emplea el software
fotogramétrico. No obstante, es importante tener en cuenta que debido a los grandes
avances tecnológicos en informática este es un problema que progresivamente será
menos importante.
a) Visualización de los fotogramas
Debido a que el objetivo de diseño de este equipo pasaba por la utilización de
hardware estándar y de bajo precio, se presenta una opción de visión estereoscópica
mediante un estereoscopio de espejos en la parte frontal del monitor mostrándose
ambas fotografías de una forma simultánea en la pantalla dividida en dos zonas. El
estereoscopio montado está compuesto de 4 espejos y dos lentes y aunque no permite
el ajuste de la distancia interpupilar el diámetro de las lentes es suficiente para
compensar las diferencias posibles entre los diferentes observadores. Este sistema
tiene el inconveniente de dividir por dos la zona de trabajo de la pantalla, aunque
presenta la ventaja de utilizar hardware estándar.
La visualización de los fotogramas se realiza de forma de que un píxel de la
fotografía se corresponde con un píxel en la pantalla, por lo que dependiendo de la
resolución empleada en la digitalización el área que se visualiza de la imagen varia.
Cuando se requiere un trabajo de detalle se debe trabajar con resoluciones elevadas,
FOTOGRAMETRÍA DIGITAL 77
las mismas coordenadas terreno (en el caso de que el dibujo sea planimétrico, el
sistema le aplica automáticamente un valor de cota).
9. Desktop Mapping System (DMS) de R-Wel Inc.
El sistema DMS se presenta como un sistema fotogramétrico digital de bajo coste
para la restitución (fotointerpretación) y la generación de ortoimágenes. El sistema
presenta las siguientes características en cuanto a su funcionalidad:
a) Visualización y tratamiento de imágenes. El sistema permite la visualización de
ficheros de imágenes, bases de datos vectoriales y modelos digitales de elevaciones
pudiendo obtener las coordenadas píxel de los elementos así como su nivel digital.
Incorpora tratamientos de realce de imágenes mediante ecualización del histograma
así como técnicas de fusión para la integración de imágenes de diferentes resoluciones
espaciales o espectrales o de diferente fecha. También incorpora filtros de paso alto
para resaltar los bordes y facilitar la restitución.
b) Aerotriangulación: El sistema permite la identificación de puntos de paso así
como los puntos de apoyo y control terrestre, necesarios para la orientación de las
imágenes generando ficheros que serán posteriormente resueltos en los programas
PCGIANTo AeroSys, entre otros.
c) Restitución estereoscópica: Una vez que las imágenes están orientadas es
posible la obtención de la información plani-altimétrica de los elementos contenidos
en el modelo. El sistema incorpora herramientas para la clasificación temática de las
imágenes facilitando su interpretación. Por otro lado, dispone de un sistema para la
generación de modelos digitales de elevaciones mediante las técnicas de correlación
automática, que permite la medida de los datos a partir de una malla definida por el
usuario. El modelo generado puede ser superpuesto a las imágenes para la revisión y
edición del modelo.
d) Generación de ortofotografías y mosaícos: El sistema incorpora un módulo para
la realización de ortoimágenes mediante rectificación diferencial utilizando la
información derivada del proceso de orientación y el MDE generado, así como un
módulo para la fusión de las ortoimágenes en un único fichero que contiene el
mosaico final.
Requerimientos del sistema:
− Plataforma: Windows 95/98/ME/XP
− Procesador: Intel o compatible
− Memoria RAM: Superior a 128 Mb
− Disco duro: 10 a 20 Gb
− Tarjeta gráfica con resolución mínima 1024x768 pixels (24 bits color)
− Tableta digitalizadora: Altek, Summagraphics, GTCO, Calcomp, Kurta,…
cámara. Sobre estas imágenes, hay que seleccionar y agregar manualmente los puntos
de control terrestre incluyendo las ventajas de la identificación automática en el resto
de las imágenes, que son el esqueleto para el ajuste posterior con otros programas
conocidos (Albany, PAT-B,etc.).
El resultado de este proceso son archivos con extensión [.mea] en formato de
Albany o Pat-B con coordenadas instrumentales para cada línea de vuelo, preparados
para ser exportados, ajustados y vueltos a importar con interfaces directas. El
resultado del ajuste con el software disponible (ALBANY, PAT-B, WUCAPS, etc.),
es un archivo con coordenadas reales x,y,z; para cada punto del control terrestre
medido en campo o generado y calculado en gabinete.
Una vez importadas las coordenadas ajustadas, con la opción "Create Stereo
Models", VirtuoZo crea de forma automática y en orden consecutivo subdirectorios
correspondientes a cada modelo; y cada subdirectorio de un modelo incluye sus
propios archivos con los parámetros de la orientación interna, relativa y absoluta.
Generación Automática de MDE
El sistema VirtuoZo incorpora un módulo de generación automática de MDE
mediante correlación automática siguiendo el intervalo definido por el usuario,
proporcionando una base de datos de puntos con coordenadas x,y,z. El resultado de la
estéreo-correlación automática es una malla regular de puntos 3D (pegs),
superpuestos al modelo. La velocidad de este proceso está en torno a 600 ptos/s. Los
modelos generados se pueden editar utilizando los sistemas de visión estereoscópica
(únicamente versión Profesional y Clásica) ajustando la posición "Z" de cada punto.
Ortofotografía Digital
Utilizando el MDE extraído del modelo estereoscópico o importado de otra fuente
junto con los resultados de la orientación se obtiene de forma automática la ortofoto a
la escala seleccionada por el usuario. Este proceso se realiza de forma desatendida sin
necesidad de un operador. Una vez creadas las ortofotos de cada modelo se puede
obtener el mosaico de forma automática sin discrepancias en las líneas del empalme
de los modelos adyacentes. La duración de este proceso depende del número de
modelos y la resolución de la ortofoto final.
Curvas de nivel
El sistema incorpora la opción del trazado de curvas de nivel a partir del MDE y
de la equidistancia definida por el usuario. Las curvas obtenidas se obtienen en
formato AutoCad y MicroStation.
Ortofotografías + Curvas de nivel
Los dos archivos raster de la ortofoto y las curvas de nivel se pueden juntar en uno
solo y exportar para impresión en trazadores gráficos o sistemas de filmación a partir
de archivos digitales.
FOTOGRAMETRÍA DIGITAL 83
Restitución
La restitución de la planimetría se realiza de la misma forma que en un restituidor
tradicional (analógico o analítico) utilizando una biblioteca de símbolos, tipos de
línea, etc., con la ventaja adicional de la superposición de los elementos restituidos
sobre el modelo. Otra opción de gran interés es la posibilidad de posado automático
en el modelo sin tener que actuar sobre “Z” y tomando los valores del MDE
disponible. La restitución se puede realizar también en entorno MicroStation.
REFERENCIAS BIBLIOGRÁFICAS
Albertz, J. y König, G. (1991). The Advanced Digital Stereophotogrammetric System of the TU Berlin. En:
Ebner, H. et al. (eds): Digital Photogrammetric Systems. Ed. Wichmann. Karslruhe, 17-27.
Ballard,D.H. y Brown,C.M. (1982). Computer Vision, Ed. Prentice-Hall. Englewood Cliffs, N.J., 523 p.
Benard, M. (1987). Automatic Stereophotogrammetry: A Method based on Feature Detection and Dynamic
Programming. Photogrammetria, 39, 169-181.
Bethel, J. (1986). The DSR11 Image Correlator. Technical Papers, ASPRS, vol. 4, Washington, 6 pp.
Blais, J.A.R. (1979). Least Squares Block Adjustment of Stereoscopic Models and Error Analysis. Tesis
Doctoral. Dpt. of Surveying and Engineering. UNB. Technical Report nº 30001. Division of Surveying
Engineering. Univ. of Calgary.
Case, J. (1982). The Digital Stereo Comparator/Compiler (DSCC). IAPRS, 24(2), 23-29.
Cho,W., Madani, M. y Schenk, T. (1992). Resampling digital imagery to epipolar geometry. IAPRS,
29(B3): 404-408.
Dowman, I. (1991). Desing of Digital Photogrammetric Systems. En: Ebner et al.. Digital Photogrammetric
Systems. Wichmann, Karslruhe. 28-38.
Dowman, I. y Upton, M. (1992). A SUN Enviroment for SAR geocoding. Proc. 3 GeoSAR Workshop.
Fairhan Castle.
Ebner, H. y Heipke, C. (1988). Integration of Digital Image Matching and Object Surface Reconstruction.
Int. Arch. of Photogrammetry and Remote Sensing, 27-11, II/ 534-545.
Förstner, W. (1990). Concepts and Algoritms for Digital Photogrammetric Systems. IAPRS, 28-2, 144-171.
Foley, B.L. (1993). Past, Present and Pricing of Orthophotos. Proc. of the Int. Soc. of Optical Engineering.
State of the Art Mapping. Orlando, Florida. 13-15 Abril. 242-245.
Gagnon, P.A.; Agnard, J.P.; Nolette, C. y Boulianne, M. (1990). A Microcomputer Based General
Photogrammetric System. PE&RS, 56(5), 623-625.
Gagnon, P.A.; Boulianne, M.; Agnard, J.P.; Nolette, C. y Coulombe, J. (1995). Present Status of the DVP
System. Geomatica, 49(4), 479-487.
Graham, L.N.; Ellison, K. y Riddell, C.S. (1997). The Architecture of a Softcopy Photogrammetry System.
PE&RS, 63(8), 1013-1020.
Gruen, A. (1985). Adaptative Least Squares Correlation: A Powerful Image Matching Technique. South
African Journal for Photogrammetry, Remote Sensing and Cartography, 14, 175-187.
Heipke, C. (1990). Multiple Image Matching in Object Space. IAPRS, 28-3, 294-302.
Heipke,C. (1995). State of the Art of Digital Photogrammetric Workstations for Topographical
Applications. PE&RS, 61(1).
Helava, U.V. (1988). Object-Space Least Squares Correlation. PE&RS, 54, 711-714.
Intergraph (1999). Información de la compañía.
Kölbl, O.; Boutaleb, A.K. y Penis, C. (1987). A Concept for Automatic Derivation of a Digital Terrain
Model with the Kern DSR 11. ISPRS Intercommission Conf. on Fast Processing of Photogrammetric
Data, Interlaken, 306-317.
Li, R. (1990). Erfassung unstetiger Oberflächen aus digitalen Bilddaten durch Flächen-und
Kantenzuordnung Deutsche Geodätische Kommision, Reihe C, Heft, Nr 364, 77 p.
Marr,D. (1982). Vision. W.H. Freeman and Co. New York. 397 p.
Miller,S., Helava,U.V., y Devenecia,K. (1992). Softcopy photogrammetric workstations. PE&RS, 58(1),
77-83.
Nolette,C., Gagnon,P.A. y Agnard,J.P.(1992). The DVP: Design, operation and perfomance. PE&RS 58(1),
65-69.
Pertl, A. y Ackermann, F. (1982). Zuordnung kleiner Bildflächen durch Digitale Korrelation. Bonn. 16 p.
Saleh, R.A.; Scarpace, F.L. y Dahman, N.A. (1994). Softcopy Photogrammetric System Evaluation for
Production Environment. Proc. Mapping and Remote Sensing Tools for the 21st century. ASPRS. 26-29
Agosto. Washington.
Saleh, R.A. (2000). The cost and benefits of softcopy photogrammetric production. IAPRS, XXXIII (B2),
476-481.
Sarjakoski, T. (1981). Concept of a completely digital stereoplotter. The Photogrammetry Journal of
Finland, 8(2), 95-100.
Schenk,T. (1994). Concepts and Algorithms in Digital Photogrammetry. ISPRS Journal of Photogrammetry
and Remote Sensing. 49(6), 2-8.
86 SISTEMAS FOTOGRAMÉTRICOS DIGITALES
Schenk, T. (1995). Digital Photogrammetric Systems. Proc. 2nd Course in Digital Photogrammetry.
Universidad de Bonn. 17 p.
Schenk, T. (1999). Digital Photogrammetry. vol. I. TerraScience, Laurelville, Ohio. 428 p.
Schenk, T. y Toth, C.K. (1991). Towards an Autonomous System for Orienting Digital Stereo Pairs.
PE&RS, 57(8), 1057-1064.
Schenk,T. y Toth,C.K. (1992). Conceptual issues of Softcopy Photogrammetric Workstations. PE&RS,
58(1), 101-110.
Schenk, T. y Toth, C.K. (1997). Conceptual Framework of a Generalized Roaming Scheme. PE&RS, 63(8),
959-964.
Spradley, L.M. (1994). Cost-effective data for regional GIS bases. IAPRS, 30(4), Athens, Georgia, pp. 203-
208.
Tang, L. y Heipke, Ch. (1993). An approach for Automatic Relative Orientation. Optical 3D Measurement
Techniques II, Wichmann, Karslruhe, 345-354.
Thorpe, J. (1991). The Future of Digital Ortophotography in GIS in the USA. Proc. of the 43rd
Photogrammetric Week at Stuttgart University, Germany. 9-14 Sept, 145-153.
Walker, S. (1996). Digital Photogrammetric Workstations 1992-1996. IAPRS, 31(B2), 384-395.
Wrobel, B. (1987). Facets Stereo Vision (FAST Vision) - A New Approach to Computer Stereo Vision and
to Digital Photogrammetry. ISPRS Intercommission Conf. On Fast Processing of Photogrammetric
Data, Interlaken, 231-258.
3.1 Introducción.
3.2 Sensores electroópticos.
3.3 Cámaras CCD.
3.4 Escáneres.
Anexo 3.1. Ejemplos de Escáneres empleados en Fotogrametría
3.1 INTRODUCCIÓN
El proceso de captura de la imagen es un proceso fundamental en Fotogrametría.
Las imágenes del objeto de interés deben ser capturadas y almacenadas para realizar
las medidas fotogramétricas aplicando las transformaciones necesarias para pasar del
espacio imagen al espacio objeto. Por lo general, la Fotogrametría ha empleado
procedimientos fotográficos para la captura de las imágenes, imágenes que
básicamente pertenecían a la zona visible o próxima al visible del espectro
electromagnético, aunque para aplicaciones concretas se utilizaban otras zonas. Sin
embargo, independientemente de la longitud de onda utilizada, se utilizaba un sistema
de lentes y una película fotográfica en el plano focal para el registro de la proyección
perspectiva del objeto.
Esta imagen adquirida en el plano focal era tradicionalmente registrada en
cristales de haluro de plata sobre un soporte de poliéster o cristal. La Fotografía es
una técnica bien conocida, por lo que la integridad, estabilidad y longevidad de los
registros fotográficos es controlable y predecible, siendo el único inconveniente el
tiempo requerido para llevar a cabo el proceso fotográfico (revelado-fijado-secado-
copiado) y la imposibilidad de modificación de la imagen una vez que se completa el
proceso fotográfico.
El desarrollo del tubo de rayos catódicos (1897) plantea la primera posibilidad de
imágenes no fotográficas, pero hasta 1923 no se perfecciona la cámara de tubo para
87
88 SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS
adquirir imágenes. Los sistemas utilizaban un tubo de vacío, una pantalla sensible a la
luz y un haz de electrones para presentar y registrar las imágenes, respectivamente. La
aparición y auge de la televisión a partir de la década de los años 30 extienden la
utilización de este tipo de técnicas que no son utilizadas con fines cartográficos hasta
mediada la década de los 50 (Rosenberg, 1955).
Estos sistemas con tubo de video presentaban el inconveniente de incorporar
elementos móviles que eran vulnerables a modificaciones medioambientales
(básicamente, presión y/o temperatura) o condiciones electromagnéticas,
especialmente a las vibraciones, limitando su precisión y eficacia.
Los sensores tipo solid-state fueron desarrollados a principios de la década de los
70. La imagen es captada por la conversión de los fotones en cargas eléctricas, en
lugar de por una reacción química (proceso fotográfico) o por un cambio de
resistividad (tubos de imagen). La ventaja fundamental es que los elementos del
sensor son discretos y están ensamblados en un soporte estable proporcionando una
mayor precisión geométrica que la alcanzada por los sistemas de tubo de imagen.
No obstante, la implantación de este tipo de sensores no fue instantánea, es
importante tener en cuenta que en los años 70, las cámaras de tubo de imagen tenían
mejor resolución, una respuesta más uniforme y eran construidas con una gran calidad
mientras que los sensores solid-state tenían mejor relación señal-ruido, mejor calidad
geométrica, mayor estabilidad y menor tamaño (Hall, 1977). En la década de los 80 se
generaliza la utilización de los sensores solid-state para la mayor parte de las cámaras
de televisión y video doméstico, gracias a su menor coste, menor ruido, rango
dinámico mayor y un excelente rendimiento comparado con otros sensores. Es
importante tener en cuenta el fuerte incremento de prestaciones de dichos sensores en
el período desde su aparición (menos de 25 años) pasando de matrices con un número
de píxel de 96 a los más de 50.000.000 actuales, con tamaños de píxel que han
descendido de las 25 a las 5 µm actuales.
Una ventaja fundamental de este tipo de sensores es que los valores de carga son
leídos de una forma que permiten la lectura o almacenamiento de la señal en un
sistema informático de una forma directa, permitiendo la aplicación de
procedimientos matemáticos y de análisis de imágenes para mejorar la calidad de la
misma permitiendo su modificación tanto geométrica como radiométrica.
La característica básica de la Fotogrametría Digital es la utilización de imágenes
en formato digital, este hecho va a ser determinante para establecer las ventajas e
inconvenientes de esta metodología, basándose en gran parte, en las ventajas e
inconvenientes de las imágenes digitales.
Para la adquisición de imágenes digitales fotogramétricas son empleados dos
procedimientos básicos (fig.3.1):
a) utilización de sensores digitales, o bien sensores analógicos dotados de un
conversor analógico/digital.
b) digitalización de imágenes analógicas adquiridas con cámaras fotográficas
convencionales.
FOTOGRAMETRÍA DIGITAL 89
Actualización
Cartográfica
SIG
Sistema
Archivos
Flujo de Trabajo basado en toma de imágenes digitales
Cámara Visualización
Preproc esado DPW
Digital
Análisis Digital
B/N de Imágenes
Fig.3.1. Sistemas de adquisición de imágenes en el proceso fotogramétrico digital (LH Systems, 2000)
(lp/mm). Este parámetro que se establece mediante la calibración utilizando para ello
la fotografía de patrones calibrados depende de cinco factores esenciales: la calidad
de la lente, la definición de la película, los desplazamientos en la imagen debido al
desplazamiento de la plataforma, el desplazamiento angular y la calidad de la película
empleada para la copia. Además intervienen otros factores, que no pueden ser
controlables en el diseño de la cámara como por ejemplo, el estado de la atmósfera y
el nivel de contraste del terreno a fotografiar, que reducen la calidad del fotograma
real a una cifra en torno a 40 lp/mm.
Este nivel de resolución práctica de 40 lp/mm (es decir, tamaño de píxel en torno a
10µm -de 8 a 12.5µm-) implica unas necesidades de almacenamiento en vuelo
difícilmente alcanzables con la tecnología actual. Así una imagen de 23x23cm tendría
un tamaño de 23000x23000 píxeles lo que resultaría un tamaño de fichero de la
imagen digital de 500Mb (en 256 tonos de gris) o 1500Mb (en color real, 16.7
millones de colores). Este volumen debe ser almacenado en el escaso tiempo
disponible entre tomas que suele ser inferior a 10 s y necesitando un volumen
suficiente teniendo en cuenta el número de tomas que se realiza en un vuelo.
Por otro lado, el esfuerzo de desarrollo e investigación ha producido una
importante mejora en los niveles de resolución así en la Tabla 3.1 se muestra, a modo
de ejemplo, los resultados medios de las calibraciones realizadas por Leica
Geosystems sobre objetivos instalados en cámaras del tipo RC (RC8 a RC30).
Tabla 3.1. Evolución de la resolución y distorsión en los objetivos de la serie RC8 a RC30 (LH Systems,
2000)
Año Tipo de objetivo AWAR (lp/mm) Resolución (µm)
1961 15UAG 55 (f:5.6) 10
1972 UAGI 57 (f:5.6) 4
1972 UAGII 59 (f:5.6) 3
1978 15/4 UAG 90 (f:5.6) 2
1995 UAGS 105 (f:4) 2
En todos los casos la distancia focal es aproximadamente 152mm
Fotones
Cinta transportadora
Cinta transportadora
Registro de medida
Fig.3.2. Analogía de la matriz de cubos para la explicación del funcionamiento de un sensor electroóptico
(tomado de Janesick y Blouke, 1987)
3.2.1.2. Color
Los sensores solid state son inherentemente acromáticos, en el sentido de que la
imagen atraviesa un intervalo amplio del espectro visible o cercano al visible. Las
imágenes registradas, al igual que las películas fotográficas pancromáticas, son una
amalgamación a lo largo de dicho intervalo. La falta de sensibilidad específica a un
determinado color da lugar a las imágenes monocromáticas, en las cuales sólo se
utiliza como variable la luminancia o brillo, representándose en una escala de grises.
El color puede ser introducido por dos métodos. El primero es registrar tres
imágenes de la misma escena, una en cada canal básico (rojo-verde-azul RGB o cian-
magenta-amarillo CMY). Las tres imágenes se obtienen mediante la utilización de
rueda de filtro de colores, que es rotada en cada captura o bien mediante la utilización
de tres juegos de sensores con filtros permanentes. Evidentemente, la primera
posibilidad sólo es viable si el objeto no está en movimiento y si la cámara realiza una
toma estática.
La segunda posibilidad es utilizar dentro del mismo sensor elementos con filtros
sensibles a diferentes longitudes, es decir, se alternan filas sensibles a cada uno de los
colores según esquemas como por ejemplo, RGBRGBRGB… o en filas alternativas
GRGR… y BGBG… debido a que el ojo humano es más sensible a la banda amarillo-
verde en el espectro visible. Debido a que el ojo humano es más sensible a fuertes
variaciones en la intensidad que a variaciones en el color, la mayoría de los sensores
tienen el 75% de elementos sensibles al verde y 25% sensibles al azul y rojo (Parulski
et al, 1992). Cada fila de elementos proporciona unos valores de rojo, verde y azul
que se combinan para obtener la imagen en color. La ventaja más importante de este
procedimiento es que sólo requiere disponer de una única matriz CCD y una sola
exposición, por tanto, es muy utilizada. Las imágenes monocromas pueden obtenerse
mediante la media ponderada en función de la respuesta espectral de los tres valores
obtenidos para cada uno de los canales, efectuando un filtrado que reduce la
discriminación de la imagen (Shortis et al, 1995).
3.2.1.3. Señales falsas
Las señales falsas (spurious signals) de los CCD son efectos sistemáticos que se
originan como consecuencia de defectos en la fabricación de los sensores o bien por
deficiencias en la tecnología de los CCD. Los efectos más importantes son la
corriente de oscuridad (dark current), blooming, smear, traps y blemishes. Todos
estos efectos producen la degradación de la calidad de la imagen y pueden ser
detectados por la inspección de las imágenes y minimizadas mediante la calibración
radiométrica del sensor.
a) Corriente de Oscuridad (Dark current)
Los sensores CCD se van progresivamente llenando con cargas aunque no exista
iluminación, alcanzando la capacidad total en un tiempo denominado tiempo de
almacenamiento. Esta carga no puede ser diferenciada de la carga producida por la luz
y depende de la profundidad del sensor.
94 SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS
para la reducción de los efectos de los traps es conservarlos siempre cargados, este
sesgo de carga denominado fat zero es introducido previamente a la acumulación de
la carga y posteriormente restado en la lectura. Esta técnica tiene el problema de la
disminución del rango dinámico del sensor. Los traps pueden ser puestos de
manifiesto como líneas oscuras de longitud corta que tienden a alargarse en las
imágenes de intensidad uniforme (flat field images). Para temperatura ambiental, este
tipo de señales son parcialmente eliminadas por la corriente de oscuridad.
e) Blemishes
Los blemishes son defectos en el material que compone el sensor, como, por
ejemplo, defectos cristalográficos en el silicio, o defectos producidos en el proceso de
fabricación. Estos defectos se caracterizan por afectar a un sólo punto, a una línea o a
un área.
Algunos fabricantes clasifican sus sensores en función del número y localización
de los blemishes. Por ejemplo, la matriz Dalsa 2048x2048 de clase 1 está virtualmente
libre de blemishes con un número inferior a 100 defectos puntuales, 5 de área y
ninguna columna defectuosa, por otro lado, la matriz de clase 3, puede presentar hasta
500 defectos puntuales, 50 de área y 10 columnas defectuosas.
3.2.1.4. Fuentes de ruido
Los sensores CCD presentan fuentes de ruido tanto sistemáticas como aleatorias
que afectan a la señal producida por la imagen incidente. Las fuentes de ruido más
importantes son el ruido fotónico y el ruido del circuito.
a) Ruido fotónico.
El ruido se produce durante la integración de la carga y su transferencia. La
generación de carga es intrínsecamente un proceso estadístico debido a la llegada
aleatoria y la absorción de fotones producida por la imagen incidente. El ruido
fotónico es igual a la raíz cuadrada del nivel de señal. Por tanto, la relación
señal/ruido es máxima cuando los elementos de los sensores están cerca de su
capacidad completa. Otras fuentes de ruido asociadas es el ruido de corriente de
oscuridad (dark current noise), asociada con la generación de señales de baja
intensidad que se rige igualmente por procesos de tipo aleatorio.
b) Ruido del circuito.
El ruido del circuito está presente siempre en cualquier sistema electrónico, y los
sensores CCD no son ninguna excepción. El ruido se produce principalmente en el
amplificador que multiplica el voltaje de salida de cada elemento de sensor
transformándola en una señal válida, tras la lectura de cada señal el amplificador debe
ser inicializado (voltaje cero), la incertidumbre de si se logra o no esta inicialización
se conoce como ruido de inicialización (reset noise). Este tipo de ruido evidentemente
está relacionado con la velocidad de lectura, así por ejemplo, es casi nulo en las
cámaras de lectura lenta (utilizadas principalmente con fines científicos) como, por
ejemplo, la cámara diseñada por Ford Aerospace que tiene una matriz de 4096x4096
elementos y que presenta niveles de ruido de inicialización inferior a 1 electrón
(Janesick et al., 1990), si bien presenta el inconveniente que requiere 64 lecturas de
96 SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS
600 0.12
500 0.10
400 0.08
Ruido de fondo
300 0.06
Ruido Fotónico
200 0.04
0 0
0 101 102 103 10 4 105
Señal (electrones)
regiones del espectro del ultra-violeta y el azul debido a que estas longitudes de onda
tienen penetración mínima en el silicio. A pesar de esta limitación, los sensores CCD
tienen una respuesta espectral mucho más amplia que el ojo humano o las emulsiones
fotográficas clásicas (pancromáticas) (fig.3.4).
0.5
Eficiencia Relativa
0.4 CCD con iluminación frontal
0.3
0.2
CCD de iluminación
frontal con filtro IR
0.1
0.0
Violeta Verde Amarillo Rojo
300 400 500 600 700 800 900 1000
Longitud de onda (nanometros)
Fig.3.4. Respuesta espectral de diferentes sensores CCD, fotografía y ojo humano
Por otro lado, el diseño de los sensores puede optimizarse para reducir al máximo
esta absorción utilizando materiales como el oxido de estaño o indio o bien
reduciendo el espesor utilizando un revestimiento de dióxido de silicio ultrafino. No
obstante, el método más extendido para solucionar este problema es la
retroiluminación, esta técnica requiere que la parte posterior del sensor sea reducida
de su espesor normal de 200 µm a tan sólo 8 µm (Janesick y Blouke, 1987). La luz
incidente no tiene que atravesar la parte anterior lográndose de esta forma una
sensible mejora en la respuesta espectral. Estos sistemas sólo se utilizan en
determinadas aplicaciones, como por ejemplo, captura de imágenes astronómicas, no
siendo recomendadas para otras aplicaciones debido a la mayor fragilidad de los
sensores.
Para conseguir que la respuesta espectral de los sensores CCD sea lo más parecida
posible a la respuesta del ojo humano se suelen emplear filtros infrarrojos que reducen
la sensibilidad de los sensores por encima de los 700nm, por otro lado, el empleo de
estos filtros es aconsejable, puesto que, reducen los efectos indeseables en la
respuesta producidos por una mayor penetración de los fotones de luz infrarroja, que
originan el reflejo contra la parte posterior del sensor y la lectura de los mismos por
los elementos limítrofes produciendo el efecto conocido como lectura óptica cruzada
(optical crosstalk). Este efecto es particularmente acusado con el empleo de objetivos
de gran ángulo de campo y grandes formatos debido a que permiten una mayor
inclinación en los ángulos de incidencia.
98 SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS
3.2.1.6. Linealidad
La generación de carga a partir de la iluminación incidente es básicamente un
proceso lineal para los sensores por lo que teóricamente debería existir una relación
lineal entre la intensidad de la luz incidente y la señal de salida. Sin embargo, la señal
debe ser amplificada y transmitida por circuitos electrónicos, los cuales no suelen
mantener dicha linealidad en su respuesta. La señal de salida de un elemento puede
ser expresada como:
s = k q( + d
donde s es el nivel de señal de salida, k es una constante de proporcionalidad, q es la
carga generada y d es la señal de corriente de oscuridad.
La salida del elemento del sensor es lineal cuando ( es igual a 1. El error de
linealidad o error ( se calcula mediante la captura de imágenes uniformes de
diferentes intensidades y posteriormente se evalúan las respuestas y las relaciones.
Estos errores suelen ser inferiores al 3% (Séquin y Tompsett, 1975) para los CCD e
inferiores al 2% para CCD utilizados en aplicaciones científicas (aplicaciones
astronómicas u otras aplicaciones en las que la respuesta radiométrica es de gran
importancia) (Janesick et al, 1981). Esta reducción del error se obtiene mediante la
reducción de la velocidad de la lectura, la reducción de la potencia de amplificación y
utilizando muestreos múltiples.
3.2.1.7. Relación señal/ruido
La relación señal/ruido (SNR -signal to noise ratio-) se define como el cociente
entre el nivel de señal y el ruido de una captura determinada, y se mide en decibelios.
El valor viene dado por la expresión:
SNRdB= 20 log (s / Fs)
donde s es la señal y Fs es la desviación típica de la señal.
Los valores de SNR máximos se obtienen a los niveles de señal máxima. Así los
valores comunes para sensores CCD científicos están en torno a los 50 a 60 dB para
capacidades de carga de 105 y 106 electrones. La SNR baja a 20-30 dB,
respectivamente a niveles de 0-1% de la intensidad de luz de la señal máxima.
Para obtener una estimación más real de la SNR se debe incluir en la expresión los
valores de los ruidos de circuito (c) y del ruido de corriente de oscuridad (d).
s
SNR =
s + d +c
Los valores obtenidos en esta expresión son peores que los obtenidos en la
expresión original especialmente para niveles de señal bajos, y permiten establecer las
diferencias entre sensores estándar domésticos y los de aplicación científica, ambos
con respuestas muy parecidas a niveles altos pero con considerables diferencias a
niveles bajos debido a la mejor calidad de construcción y de los circuitos en estos
últimos.
FOTOGRAMETRÍA DIGITAL 99
Pins de conexión
Componentes Alimentación
electrónicos y
de la cámara Señal
Objetivo Sustrato
Difusor
cerámica
Fig.3.5. Elementos funcionales de una cámara digital
calidad y estar mal alineado con respecto al sensor (Burner et al., 1995) y, por otro
lado, el sensor no suele estar fijado de una forma adecuada al cuerpo de la cámara
(Gruen et al, 1995). Por tanto, la utilización de estas cámaras con fines
fotogramétricos pasan irremisiblemente por un proceso de calibración que se ha de
repetir frecuentemente y siempre teniendo en cuenta que los desajustes pueden ser
importantes, siendo aconsejable la elección de un procedimiento de autocalibración en
el que se calculen los parámetros internos de la cámara para cada toma.
Otro aspecto importante de las cámaras CCD es la importancia de la temperatura
de funcionamiento, debido a que el registro se establece mediante la lectura por un
sistema electrónico de la luz incidente, la respuesta dependerá de la temperatura del
sensor siendo aconsejable un tiempo de calentamiento en torno a 1-2 horas.
Las aplicaciones más importantes de este tipo de cámaras son aquellas que
requieren una mayor resolución geométrica o radiométrica como, por ejemplo, las
medidas de brillo, espectrografía o detección de objetos en aplicaciones astronómicas
(Delamere et al., 1991), exploración planetaria (Klaasen et al., 1991), biología celular
e inspección de rayos X (Blouke et al.,1995) y metrología industrial (Pettersen, 1992).
Por lo general, las cámaras de alta resolución tienen un formato cuadrado, es
decir, no conservan la relación 4:3. La resolución de estas cámaras es superior a los
1000x1000 píxeles, llegando a valores máximos de 5128x5128 píxeles (Dalsa) si bien
existen resoluciones mayores pero con una comercialización limitada. Estas matrices
pueden ser ensambladas obteniendo cámaras de una mayor resolución como por
ejemplo, el conjunto de 30 matrices de 2048x2048 empleada en un programa
astronómico (Blouke,1995).
Estas cámaras tienen un tamaño considerable, no sólo debido al tamaño del
sensor sino a todos los componentes adicionales, por lo que incorporan objetivos tipo
F, lo que permite un amplio rango de posibilidades.
Por otro lado, estas cámaras suelen incorporar un sistema de refrigeración para
reducir la oscuridad actual e incrementar el rango dinámico. El sistema de
refrigeración se instala en una cámara hermética y alcanza temperaturas de -60ºC (si
bien en algunos casos específicos, la temperatura puede llegar a -120ºC incorporando
incluso nitrógeno líquido). La linealidad de estas cámaras se puede considerar
perfecta, debido a lo avanzado del diseño del sensor y a su bajo nivel de ruido
(fig.3.6).
de control
Obturador mecánico
Modulo
Energía
Aletas de refrigeración
Salida de
estado
Sensor
Almacenamiento
y visualización
Conversor AD
de la imagen
Objetivo
de bajo ruido
Salida d e datos
Ventana sellada digitales (píxe les)
Refrigerador termoeléctrico
Pixels
Barrido
Líneas de barrido
(Fila,f; Columna,c)
Filas Lineas de barrido horizontal
Retrazo horizontal
Retrazo vertical
Vexcel Imaging GmbH, de sensores de este tipo, el Leica ADS40, la Z(I DMC y la
Vexcel Ultracam, respectivamente.
Estas presentaciones son el fruto de un importante esfuerzo investigador por parte
de dichas empresas contando con la colaboración de diversos organismos como, por
ejemplo, la Agencia Espacial Alemana (Deustche Forschungsanstalt für Luft- und
Raumfahrt -DLR-). Estas colaboraciones han dado lugar a diversos sensores de tipo
experimental entre los que se pueden destacar el MOS (Modular Optoelectronic
Scanner), el WAOSS (Wide Angle Optoelectronic Scanner), el WAAC (Wide Angle
Airborne Camera) que consiste en una adaptación del WAOSS para fotogrametría
aérea y arquitectónica. Estos sistemas desarrollados por Leica Geosystems y la DLR
se basan en la obtención de imágenes estereoscópicas utilizando un único objetivo y
tres CCD lineales.
La cámara WAOSS era una cámara estereoscópica de objetivo granangular
desarrollada para la misión espacial Deep Space Mission Mars-96, y debido a
problemas en su lanzamiento nunca llegó a estar operativo. Las características del
WAOSS eran:
- Angulo de campo: 80º; Distancia focal: 21.7mm
- Número de líneas CCD: 3, Elementos del CCD: 5184
- Tamaño del elemento: 7µm
- Canales espectrales: Nadir 470 a 670 nm; Delante, Atrás 580nm a 770nm
- Capacidad estereoscópica debido a las 3 líneas
- Alta resolución radiométrica (8bit) y rango dinámico (11 bit)
- Alta precisión geométrica
- Resolución terreno variable debido a sistemas de agrupamiento de píxeles
Para cubrir un rango más amplio de aplicaciones potenciales se desarrolló a partir
de la cámara anterior, la cámara WAAC. Esta cámara incorpora el mismo sistema
óptico y de captura de información, con un diseño modular para probar diferentes
tecnologías y aplicaciones con resoluciones terreno en torno a 1m.
Otro sensor desarrollado en Alemania y con el sistema de 3 líneas estéreo es el
sensor MOMS-02P -Modular Optoelectronic Multiespectral Stereoscanner- (fig.3.8)
que fue puesto en órbita en la misión alemana espacial D2, y cuenta con siete bandas
de las cuales tres son pancromáticas y dispuestas oblicuamente hacia adelante y atrás
y verticalmente hacia abajo. El ángulo de incidencia es de -21.4ºC y una banda en
estéreo de 37/40km. El escáner de captación vertical tiene un tamaño de píxel de
4.5x4.5m, mientras que los oblicuos tienen un tamaño 3 veces mayor (13.5m). A
pesar de que inicialmente este era un sistema experimental y no estando prevista su
continuidad (Ackermann, 1990; Ackermann et al., 1990) lo cierto es que aún está
realizando capturas e incluso comercializando tanto las imágenes como los productos
derivados. El estudio de la precisión de este sistema de captación de imágenes en
estereoscopia ha sido analizado por Ebner et al.(1990) y por Kornus et al. (1996)
planteando la necesidad de que fueran establecidas de una forma concreta la posición
y altitud en el momento de la captura, parámetros que pueden ser fácilmente
obtenidos de los sistemas de navegación, a partir de los datos y los modelos orbitales.
Estos parámetros son combinados con los resultados del tratamiento de los datos de la
110 SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS
imagen y los puntos de control terrestre mediante una aproximación por mínimos
cuadrados.
Señales digitales de la imagen
Señal A
Señal B Cinta magnética Dirección de vuelo
Señal C
Sensor B Sensor C
Punto imagen Punto imagen Punto imagen
(sensor A) xA ,yA (sensor B) x B ,y B (sensor C) xC,yC
Sensor A
EB
EA
H
EC
PT
Terreno
Fig.3.9. Sistemas de captación en sensores digitales aerotransportados (Sandau et al., 2000). Izq: Sensor
lineal compuesto por 3 sensores pancromáticos -en negro- y varios sensores multiespectrales -en tonos de
gris-; Der.: Sensor de matriz cuadrada compuesta por un conjunto de matrices RGB e IR
Fig.3.10. Cámaras de sensor matricial. Izq: Esquema del diseño de la cámara digital DMC de ZI Imaging
(Hinz et al., 2000); Der.: Sensor Vexcel Ultracam (Vexcel Imaging GmbH, 2003)
Por último, la presencia del píxel central nadiral con desplazamiento nulo debido
al relieve en la banda de imágenes captada con el sensor en posición nadiral permite
una aplicación en la elaboración de ortofotografías de una forma sencilla (fig.3.15).
FOTOGRAMETRÍA DIGITAL 115
a) d)
b)
e)
c)
Antena GPS
Pantalla
piloto
Unidad de
control Terminal
Quick-look
Sistema Control Electrónica RAID
del vuelo
Plano focal Sistema
GPS Almacenamiento
Montura estabilizada
1-8
Objetivos
Tabla 3.4. Esquema de fases de trabajo con la cámara DMC (Hinz et al., 2000)
Lugar Fases Procesos
Gabinete Pre-procesamiento Planificación de la misión
las imágenes. En todo momento, el operador puede controlar la calidad de las mismas
mediante el monitor en tiempo real (Quick-view).
Tras el aterrizaje, los datos almacenados son trasvasados al sistema de
postprocesamiento, para facilitar esta tarea el sistema de almacenamiento es
removible, evitando la inactividad del sistema mediante las transferencias.
El objetivo del post-proceso es preparar las imágenes originales para que puedan
ser utilizadas en cualquier estación fotogramétrica digital. En este proceso, las
imágenes son normalizadas, verificadas, rectificadas y ajustadas en todo y,
finalmente, almacenadas en un formato estándar. Asimismo, se dispone de la
información referida al proyecto de vuelo. Esta fase se realiza en modo desatendido
(batch mode) y permite la generación de imágenes intermedias en 4 niveles:
- nivel 1: imagen original normalizada. Imagen corregida radiométricamente en
la que se han eliminado los píxeles defectuosos.
- nivel 1a: imagen virtual. Las imágenes parciales son corregidas de distorsión
dando lugar a una imagen con perspectiva central (mosaico).
- nivel 1b: Imagen en color (imagen con los canales RGB) o composición de
color (imagen fusionada RGB y pancromática).
- nivel 2: Imagen georreferenciada (imagen generada a partir del nivel 1a ó 1b
mediante las medidas del sistema GPS/INS).
El formato final de salida de la imagen puede ser TIFF o JPEG.
Una diferencia muy importante de esta cámara con respecto a la Z(I DMC es en el
procedimiento realizado en la toma de las diferentes imágenes, que después se
compondrán dando lugar a la imagen final. En la Z(I DMC todas las imágenes son
tomadas en el mismo momento (sincrónicas) lo que implica que los centros de
118 SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS
proyección están situados en diferentes posiciones (las originadas por las distancias
propias de los objetivos en el cono de la cámara) mientras que en la Vexcel
UltracamD las imágenes son tomadas en la misma localización, es decir, existe un
cierto lapso de tiempo entre las tomas de las imágenes parciales (sintópicas). La
cámara incorpora un sistema de 8 elementos ópticos que dan lugar un total de 33
imágenes. Estas 33 imágenes se combinan de forma que 13 imágenes dan lugar a una
imagen en color y las 20 restantes a una imagen pancromática de alta resolución,
siguiendo un procedimiento de ajuste entre las imágenes que proporcionan imágenes
continuas en la que los empalmes no se detectan, utilizando el procedimiento que ya
fue empleado en ciertos escáneres como el Vexcel VX3000.
La imagen pancromática generada tiene unas dimensiones de 11500x7500 píxeles
que considerando el tamaño de píxel de 9mm da lugar a una imagen con un tamaño de
103.5x67.5mm, mientras que la imagen color, que en realidad es una imagen
multiespectral de cuatro canales (azul, verde, rojo e infrarrojo) tiene unas dimensiones
de 4008x2672 píxeles que mantienen el tamaño de 9mm. Las imágenes tienen una
resolución radiométrica superior a los 12 bits (fig.3.18).
Fig.3.18. Ejemplos del vuelo de pruebas realizado con la cámara Vexcel UltracamD. La imagen de la
derecha es una imagen en color transformada para su publicación (Vexcel Imaging GmbH, 2003)
La cámara tiene una distancia focal de 100mm con una apertura relativa de 5.6
con un ángulo de campo de 55º (transversal a la dirección de la pasada) y 37º
(longitudinal) y un obturador entre 1/60 y 1/500, incorporando un sistema de
compensación del movimiento de la imagen (TDI –time delay integration–). La
cámara permite la captura de 1.3 imágenes/s lo que permite la captura de imágenes de
alta resolución a solapes longitudinales que pueden llegar al 90% (fig.3.19).
Para el almacenamiento de las imágenes incorpora un espacio de 1.5Tb (que el
año que viene está previsto que ascienda a 10Tb) que permite el almacenamiento de
2725 imágenes.
Procesamiento de los datos.-
Tras finalizar la captura de las imágenes, el procesamiento puede comenzar en el
mismo vuelo de regreso. Tras tomar tierra es posible elegir entre 3 opciones:
FOTOGRAMETRÍA DIGITAL 119
Fig.3.19. Imagen de la estrella de Siemens captada con una película convencional (izq.) y con la cámara
digital UltracamD (der). Se puede observar la ausencia de granularidad en la imagen derecha que permite
una mejor definición de la imagen, lo que produce que el radio crítico es de 4.9 mm frente a los 9 mm de la
cámara de película convencional (Vexcel Imaging GmbH, 2003)
Fig. 3.20. Objetivo del sensor ADS40. Izq.: Vista externa del objetivo;
Der.: Esquema de las trayectorias de los rayos (Eckardt et al.,2000; Sandau et al.,2000)
b) Sensores CCD
El sistema ADS40 incorpora 7 sensores lineales paralelos (tres pancromáticos con
orientaciones frontal, nadiral y trasera, tres para la captura de imágenes en color RGB
y uno para la captura de imágenes infrarrojas (Tabla 3.5).
Cada línea pancromática está formada por dos sensores líneas de 12000 píxeles,
desplazados 0.5 píxeles uno respecto del otro. Las líneas de color son capturadas
mediante un sensor de 12000 píxeles y son superpuestas para configurar la imagen en
color durante el vuelo, mediante la utilización de espejos dicroíticos, que dividen el
rayo de luz en sus tres componentes básicos sin que esto represente una pérdida de
energía.
FOTOGRAMETRÍA DIGITAL 121
IO-Box
Ordenador
Otros
de la cámara
interfaces
Cuerpo Cámara
IMU Electrónica
POS
Electrónica
Procesamiento Interfaz Sistema de
Imagen Registro Almacenamiento
Óptica Masivo
Interface Interface
Operador Piloto
Fig. 3.22. Componentes y conexiones del sistema informático de la cámara (Eckardt et al., 2000)
- IO-Box
El IO-Box es un sistema de conexión para periféricos externos. Su diseño es
modular y permite al ADS40 adaptarse a las modificaciones futuras. Por esta razón,
será posible trabajar con el ADS40 junto con otros sistemas RC30 o PAV30, u otros
sistemas como un espectrómetro o un escáner láser.
e) Sistema de control del vuelo y del sensor (FCMS)
Todas las características de precisión y eficacia del sensor no tienen sentido si se
carece de un sistema adecuado de control. El objetivo fundamental de un vuelo
fotogramétrico es realizar el recorrido completo en el menor tiempo posible (motivos
económicos) y ajustándose en todo momento a las especificaciones del vuelo -altura,
inclinaciones, velocidad,…- (motivos técnicos). Para facilitar esta tarea el sistema
incorpora el sistema de gestión del sensor y del vuelo que consta de cinco partes:
− gestión del vuelo
− sistema de navegación
− control del sensor
− registro de los datos del vuelo y errores
- Gestión del vuelo.
El sistema de gestión del vuelo es el elemento fundamental del sistema FCMS y
coordina la información suministrada por el sistema de navegación, el sistema de
control del sensor. El interfaz con el operador se realiza mediante una pantalla táctil
en un entorno gráfico de sencillo manejo.
- Sistema de navegación
El sistema de navegación está diseñado para reducir al máximo el tiempo de
vuelo y optimizar las tomas. El piloto se debe concentrar tan sólo en la navegación
mientras que el operador se ocupa del sensor y la toma de las imágenes. El sistema se
basa en la experiencia adquirida en el sistema ASCOT, incorporando diversas ayudas
tanto para la navegación (camino más corto para la siguiente pasada, deriva con
124 SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS
respecto la dirección marcada,…) como para las tomas (fotogramas restantes, tiempo
para llegar al inicio de pasada,…).
- Control del sensor
El módulo de control de sensor se encarga de la gestión del hardware de captura
de las imágenes. Los parámetros son configurados por el operador o definidos en el
plan de vuelo.
- Registro de los datos del vuelo y errores
Durante el vuelo se almacenan diferentes datos para permitir una precisa
evaluación de lo sucedido durante el vuelo. La trayectoria del vuelo, con los puntos de
partida y de llegada de cada una de las secuencias de imágenes así como los
parámetros individuales del sensor pueden ser recuperados tras el vuelo.
f) Sistema de posicionamiento
Con el objeto de obtener imágenes de alta resolución a partir de las líneas
capturadas por los sensores es necesario conocer la orientación de cada una de las
líneas. Este proceso se realiza mediante procedimientos de correlación automática
(matching) similares a los empleados actualmente en los sistemas de
aerotriangulación digital automática, si bien es importante tener en cuenta la
complejidad de los sistemas a resolver debido a que es necesario calcular los
parámetros de orientación externa para cada una de las líneas que forman la banda de
imagen. Debido a esto, es necesario la introducción de información adicional
proporcionada por los sistemas de posicionamiento realizando la orientación mediante
el método directo (con escasa dependencia del control terrestre y utilizando los
propios parámetros de la cámara). Para ello la cámara incorpora un sistema de
posicionamiento GPS/inercial y de orientación desarrollado por la empresa Applanix
Corp. para el ADS40 (fig.3.24).
El sistema consta de cuatro componentes principales: la unidad de medida inercial
(IMU), el ordenador del sistema de posicionamiento (POS), un receptor de altas
prestaciones L1/L2 y un programa de postproceso para la obtención de los resultados
finales. La información de la velocidad incremental y de los ángulos obtenidos del
IMU se integra para proporcionar una aproximación eficaz para la determinación de
la posición de la cámara (posición, velocidad y orientación). La posición y velocidad
obtenida del GPS se emplea para detectar y corregir errores de baja frecuencia en las
soluciones alcanzadas.
El IMU es instalado directamente en el cuerpo de la cámara, a diferencia de las
cámaras convencionales que no están preparadas para ello lo que puede producir
problemas de movimiento relativo entre la cámara y el IMU. El sistema POS y el
receptor están incorporados en el sistema informático de la cámara, y están
conectados con el sistema IMU mediante un cable de fibra óptica. Como información
adicional, se incorpora la propia información proporcionada por la montura
estabilizadora en la que se instala la cámara.
FOTOGRAMETRÍA DIGITAL 125
Cuerpo Cámara
Electrónica
Cuerpo
Cámara
IMU
Plano Focal
Receptor Interfaz
GPS Registro
Datos
Sistema
Sistema Antena Almacenamiento
NMEA
RTCM GPS Masivo
Fig.3.24. Componentes básicos para la integración entre el ADS40 y el IMU/GPS (Eckardt et al., 2000)
Vectores
ADS40 Visualización
Sistema de Post- estéreo/mono
Procesamiento MDE
captura simultánea Mosaicos
de varios canales Sistema de ...
espectrales Almacenamiento
Masivo
Nivel 0 (imágenes brutas)
Nivel 1 (imágenes rectificadas)
Nivel 2 (ortoimágenes)
Posición y orientación
g) Sistema de postproceso
Las funciones básicas del sistema de postproceso son las siguientes (fig.3.25):
− descarga de las imágenes y de la información complementaria del vuelo del
126 SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS
PROCESO EN VUELO
Lectura MMS
6 ω ϕ
3
0
κ
-3
-6
0
Fig.3.27. Imagen original y rectificada en función de los ángulos de orientación determinados por la IMU.
Las imágenes fueron obtenidas por la versión EM del sensor ADS en Abril de 1999, con una altura de
vuelo de 3000m (tamaño del píxel sobre el terreno de 25cm) (Fricker et al., 1999a, 1999b)
B
NºPixels NºPixels
15000 15000
10000 10000
5000 5000
0 0
0 1000 2000 3000 0 1000 2000 3000
ND ND
a) Sistemas de registro
- Sensor SPOT
Las ventajas del empleo de las imágenes satélite son conocidas, pero merece la
pena ser destacadas las siguientes:
− las imágenes satélite proporcionan una cobertura constante y global de la
superficie terrestre y su puesta a disposición del usuario es muy rápida (unos
pocos días desde el momento de la captura).
− los costes de la imagen se reducen considerablemente frente a los métodos
clásicos de fotogrametría analógica (sobre todo para pequeñas escalas) así el
coste por km2 de una imagen SPOT es aproximadamente 3 veces menor -el
coste real de una imagen SPOT se puede estimar en un 300% del precio de
venta- que el de una imagen fotográfica, aunque evidentemente ésta última
presenta una mayor resolución (12cms frente a los 10-20m), si bien esta
resolución es de escasa utilidad para la generación de mapas a pequeña escala
(Konecny, 1990). El efecto de las subvenciones sobre el precio de compra de
las imágenes por parte de las imágenes de los satélites lanzados por
organizaciones estatales (Landsat, SPOT, IRS,...) queda patente si se
comparan dichos precios con los correspondientes a los nuevos satélites de
muy alta resolución (por ejemplo, Ikonos o QuickBird) que han sido puestos
en órbita por empresas privadas con diferente política de comercialización.
− se produce una considerable reducción de costes al necesitar un número de
puntos de apoyo considerablemente menor.
− las imágenes satélite son proporcionadas en formato digital, por lo que pueden
ser directamente integradas en los procesos informáticos (Fotogrametría
Digital), reduciéndose los costes de la producción de los mapas gracias al
elevado nivel de automatización de los sistemas fotogramétricos digitales.
Geometría de las imágenes SPOT. Particularidades.
Una fotografía aérea es una imagen perspectiva central de una zona de la
FOTOGRAMETRÍA DIGITAL 131
Lí nea de barrido
Línea de barrido
(Tiempo2)
(Tiempo1)
Figura 3.30. Captura de la imagen y generación de los pares estereoscópicos en el sistema SPOT
X t , Yt , Z t
ω t , ϕ t , κt f
a
ya
YA
ZA
XA
Una escena completa de una imagen SPOT-1A pancromática está compuesta por
6000x6000 píxeles. El tamaño CCD de cada píxel es 13x13 µm. La distancia focal
nominal es de 1.082m. El tiempo de muestreo ente dos líneas consecutivas es
aproximadamente de 0.0015 s Si bien es importante tener en cuenta que debido a
desajustes del sensor los valores de tamaño del píxel y de distancia focal pueden
variar ligeramente. Las coordenadas imagen se pueden establecer mediante las
siguientes relaciones:
xi = 0
yi = [Nº Pixel - (6000+1)/2] * 0.013 mm
f = 1082 mm
El esquema de trabajo para la utilización de las imágenes SPOT para la extracción
de información topocartográfica del terreno se muestra en la figura 3.32 y se verá con
mayor profundidad en el capítulo relativo a la orientación de imágenes
fotogramétricas.
La única posibilidad real de eliminar el lapso de tiempo entre dos pasadas del
satélite para obtener visión estereoscópica es la utilización de un estéreo satélite con
al menos dos matrices de sensores realizando la captación de forma simultánea
(oblicuamente hacia adelante y hacia atrás) si bien es preferible incorporar tres
(adelante, vertical y atrás) como fue propuesto por Colvocoresses (1979) y
posteriormente se ha implementado en los sensores aerotransportados digitales.
FOTOGRAMETRÍA DIGITAL 133
SPOT CCT
Intersección
Información topográfica
3D del terreno
debe aumentarse para las imágenes espaciales hasta al menor 1500 debido a la
resolución angular mucho más elevada de los sensores digitales.
Tabla 3.7. Sistemas espaciales dotados de sensores estereoscópicos
SPOT ASTER
MOMS-02 CBERS OMI
XS P (EOS)
Tabla 3.8. Características cartográficas de las imágenes captadas con sensores electroópticos
Sensor Planimetría Detectabilidad Altimetría
Precisión Útil mapa Tamaño Útil mapa Precisión Equidistancia
σp (m) a escala de pixel a escala σh (m) (m)
Landsat MSS 40 1:200.000 79 -- -- --
Landsat TM 20 1:100.000 30 -- 25 125
SPOT-P 3 1:25.000 10 1:100.000 5 25
KATE 200 12 1:100.000 (31) -- 35 175
KFA 1000 4 1:25.000 (4) 1:25.000 15 75
MC Zeiss 7 1:50.000 (18) 1:100.000 20 100
LFC Itek 5 1:25.000 (7) 1:50.000 15 75
posiciones de los objetos en el visible/térmico van a ser función de los ángulos entre
los rayos que emite el objeto y recibe el sensor mientras que en las imágenes radar
será función de las longitudes de dichos rayos. En terreno llano y con requerimientos
de precisiones bajos, esto no es excesivamente problemático. Pero si el terreno tiene
un relieve más escarpado o bien necesitamos una mayor precisión entonces es
necesario el remuestreo de las imágenes a un sistema de referencia común, teniendo
en cuenta las elevaciones del terreno mediante la elaboración de un MDE a partir de
las imágenes del visible o del radar. Si bien la mejor elección será un análisis
conjunto de ambos MDE junto con los puntos de control. Konecny y Schuhr (1990)
tratan del ajuste de bloques en imágenes satélite, la rectificación digital y la calidad de
los mapas y mosaicos derivados de las imágenes radar.
- ERS/JERS/Radarsat
En la actualidad se abren nuevas posibilidades para los estudios de tipo
medioambiental mediante la utilización de los satélites radar entre otros el canadiense
Radarsat (Ahearn et al, 1990), el europeo ERS-1 y el japonés JERS-1. Junto a estos
equipos otras plataformas están en fase de diseño así el futuro SPOT tiene previsto la
incorporación de una banda radar (Aguttes, 1990) y se plantean como de gran interés
debido a la posibilidad de deducción del MDE (Im, 1990; Konecny and Schuhr,1990;
Shi, 1990; Dowman,1992).
Tabla 3.10. Sistemas de captura de imágenes radar
SIR-C ALMAZ
ERS-1 JERS-1 RADARSAT EOS SAR
X-SAR 1,2
Cobertura del
C L,C,X L C L,C,X S
espectro
Quad(C,L) Quad(L),
Polarización VV HH HH HH
VV,(X) Dual(C,X)
Angulo visión 23º 15-60º 35º 20-50º 15-40º 30-60º
Resolución (m) 30 25 30 10-100 20-250 15-30
Cobertura de
100 10-150 80 50/500 30-500 20
barrido (km)
Altitud de la
800 215 568 792 620 300
órbita (km)
Inclinación
98º 57º 98º 98.6º 98º 73º
órbita
Lanzamiento 1991 1993/94/96 1992 1994 1999 1990
imagen y/o su baja resolución limitan su campo de aplicación y las cámaras de alta
resolución que son demasiado caras para la mayoría de las aplicaciones, aunque es
previsible que esta situación cambie debido a la rápida evolución de la tecnología de
los semiconductores y la microelectrónica.
- Cámaras para la adquisición de imágenes de alta velocidad de captación
Cada vez es más frecuente en los trabajos fotogramétricos no topográficos el
trabajo con objetos en rápido movimiento, lo que requiere la captación de imágenes
con una elevada frecuencia temporal, para lo que se utilizan cámaras de alta velocidad
capaces de ofrecer hasta 30000 imágenes/s frente a las 50-60 imágenes/s de las
estándar.
Tabla 3.11. Cámaras de alta resolución empleadas en Fotogrametría No Topográfica
Formato NºPixel Tam pixel Modo Precisión Pixel
Modelo
(mm2) (HxV) (µm2) CCD Relativa1 (mm)
ValvoNXA1010 6.0x4.5 604x576 10.0x7.8 FT 1:17000 0.03
Sony XC-77 8.8x6.6 768x493 17.0x13.0 IL 1:15000 0.04
Aqua SM72 8.8x6.6 384x576 23.0x23.0 FT 1:11000 0.04
Pulnix TM-560 8.8x6.6 500x582 17.6x11.3 IL 1:15000 0.04
CIDTEC 2710 8.8x6.6 776x512 12.0x13.7 CID 1:15000 0.04
Videk Megaplus 9.0x7.0 1320x1035 6.8x6.8 FT 1:40000 0.03
Thomson 19.5x19.5 1024x1024 19.0x19.0 FT 1:4000 0.03
CSFTHX31156
Tektronix TK1024 24.6x24.6 1024x1024 24.0x24.0 FT 1:40000 0.03
Kodak 4-Mega 18.4x18.4 1024x1024 9.0x9.0 FT 1:80000 0.03
Tektronix TK2048 55.3x55.3 2048x2048 27.0x27.0 FT 1:80000 0.03
Ford Aerospace2 30.7x30.7 4096x4096 7.5x7.5 FT 1:160000 0.03
Kontron ProgRes 9x7 2994x2320 2.8x2.8 IL 1:35000 0.07
Rollei RSC 55x55 5500x7050 10.0x7.8 FT 1:70000 0.09
Kern E2-SE 200gon 604x576 10.0x7.8 FT 1000000 0.05
1
La precisión fue estimada por Böseman et al, 1990; 2No disponible en el mercado civil
Fuente de Cuerpo
calibración caliente
Mesa de
rotación-inclinación
Anillo de Colimador Vis-Sensor
Filtro mezcla de luz
MWIR
Óptica Teodolito
Fuente de luz Monocromador
(halógeno, Hg, Xe) LWIR placa x-z
Obtur ador Telescopio de
autocolimación
Fuente IR
Colimador IR
Fig.3.38. Sup: Función de transferencia óptica (en tono claro, patrón teórico; en tono oscuro, registro real).
Inf.: Función de transferencia de modulación (tono oscuro) y función de fase de la OTF (en tono oscuro).
FTM>0.6} v< 22.8 lp/mm; FTM>0.3} v< 60.9 lp/mm; FTM>1.0} v < 150.7 lp/mm
(Schuster y Braunecker, 2000)
2.6m
1.1m
2.0m
X
Muro
X
1.1m
Z
2.6 m
3.6 m
3.3.9.4. Resultados
Las coordenadas de los píxeles de todas las imágenes fueron medidas
semiautomáticamente mediante el método de identificación de elementos homólogos
con ajuste por mínimos cuadrados (least square matching), con una precisión interna
de 0.01 del espaciado del píxel. Las coordenadas del píxel fueron transformadas a
coordenadas imagen e introducidas en un programa de ajuste de haces, utilizando un
conjunto de 9 parámetros adicionales (localización del punto principal, constante de la
cámara, escala de factor en x, cizalla, dos parámetros de distorsión radial simétrica y
dos parámetros para la distorsión de descentre.
La precisión de la imagen en términos de píxel de la JVC varía entre 1/21 y 1/25
que es de 3.5 a 4 veces inferior a la SONY (1/79 a 1/85), siendo la precisión en el
espacio objeto de 4 a 5 veces inferior en la JVC, esta inferior precisión geométrica de
la JVC es debida al empleo de un sensor a color. La exactitud de la ProgRes es
inferior que la obtenida con la SONY, este hecho sorprendente es debido si duda al
FOTOGRAMETRÍA DIGITAL 147
tamaño de la marca empleada, que lleva a que el tamaño de la marca para la SONY
deba ser de 1/120 y de la ProgRes de 1/512, lo que se correspondería con diámetros
de la marca de 40mm para la SONY y menos de 10mm para la ProgRes.
Un aspecto de gran interés es el efecto que tiene los gradientes de iluminación y la
oblicuidad de la toma de la imagen, estos aspectos son básicos para asegurar unas
buenas condiciones del experimento.
j
Matriz
(Imagen digital)
i
Objetivo+Sensor
Espacio
y
Objeto
x
Fig.3.41. Relación fotocoordenadas y coordenadas imagen
∆I' = e1 + e 2 ∆I + e3∆J ⎫ ∆I = I − Io
⎬
∆J ' = e 4 + e5∆I + e6 ∆J ⎭ ∆J = J − J o
donde x,y,z son las coordenadas de los puntos fotográficos en el espacio objeto y aij
representan los elementos de la matriz de rotación.
Las cámaras digitales no suelen incorporar marcas fiduciales, por lo que los
coeficientes ei no pueden ser obtenidos directamente. Para establecer la
transformación se realiza la Transformación Lineal Directa –DLT– que relaciona las
coordenadas imagen digitalizadas y las coordenadas espacio objeto.
A partir de las expresiones anteriores, despejando ∆I y ∆J y combinando los
valores de las distancias focales y los elementos de la orientación externa se obtienen
las ecuaciones de la DLT:
FOTOGRAMETRÍA DIGITAL 149
L1x + L 2 y + L3z + L 4 L 5 x + L 6 y + L 7 z + L8
∆I = ∆J =
L9 x + L10 y + L11z + 1 L9 x + L10 y + L11z + 1
r= (I − Io )2 + (J − J o )2
Los componentes de la distorsión en las direcciones x e y son:
δri =
∆I
r
(
δ r = ∆I k1r 2 + k 2 r 4 + k 3r 6 ) δ rj =
∆J
r
(
δr = ∆J k1r 2 + k 2 r 4 + k 3r 6 )
Las funciones de descentramiento pueden ser expresadas como:
( )[ ( )
δdi = 1 + p'3 r 2 p'1 r 2 + 2∆I 2 + 2p'2 ∆I∆J ] ( )[ (
δdj = 1 + p'3 r 2 2p'1 ∆I∆J + p'2 r 2 + 2∆J 2 )]
donde p´1, p´2 y p´3 representan los coeficientes de la corrección de la distorsión de
descentramiento.
La última corrección a aplicar es la corrección de la distorsión lineal, esta
corrección es compleja debido a la falta de información que incorporan las cámaras al
respecto. Para la eliminación de esta distorsión se emplea un ajuste polinómico del
tipo:
δm = m1I + m2 I3 + m3 I5 + m4 I7
Siendo la expresión final de la calibración:
150 SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS
L1x + L 2 y + L 4 L 5 x + L 6 y + L8
∆I − δi = ∆J − δ j =
L9 x + L10 y + 1 L9 x + L10 y + 1
δi = k1 (∆I r2) + k2 (∆I r4) + k3 (∆I r6) + p1 (r2 + 2 ∆I2) + p2 (2 ∆I ∆J) + p3 (2 r2 ∆I ∆J) +
+ p4 (r2 (r2 + 2 ∆I2)) + m1 (∆I) + m2 (∆I)3 + m3 (∆I)5 + m4 (∆I)7
δj = k1 (∆J r2) + k2 (∆J r4) + k3 (∆J r6) + p1 (2∆I ∆J) + p2 (r2 + 2 ∆J2) +p3 (r2 (r2 + 2 ∆I2)) +
+ p4 (2 r2 ∆I ∆J)
Comparando dicha expresión con la referente a la distorsión de descentramiento se
obtiene que:
p1 = p'1 p2 = p'2 p3 = p'2 p'3 p4 = p'1 p'3
Por tanto, se deben calcular los 11 parámetros de la transformación lineal -DLT-
Li y los parámetros ki, pi, mi que son los parámetros de la transformación de
corrección de distorsiones -DSTP-.
3.3.10.3. Solución del modelo
El método de resolución del modelo se basa en el parecido existente entre los
parámetros de la DLT y de la DSTP. Cuando no existen condiciones en el sistema de
ajuste, es imposible obtener una solución correcta. Puede ser empleado un
procedimiento de ajuste secuencial, alternando los dos conjuntos incógnitas
aprovechando la elevada correlación entre ambas.
Partiendo de que los parámetros de la DSTP y la posición del centro de la imagen
digital son conocidos, las ecuaciones de observación para la DLT pueden ser escritos
como:
DI - δi = A / C DJ - δj = B / C
siendo A = L 1 x + L2 y + L 4 B = L 5 x + L6 y + L8 C = L9 x + L10 y + 1
Las ecuaciones de error correspondiente en la matriz pueden ser expresados como:
vl = Gl ul + kl = 0 (1)
Tras obtener los parámetros de la DLT se pueden rescribir las expresiones de la
DST como:
I - A/C = Io + δri + δdi + δm
J - B/C = Jo + δrj + δdj
Io, Jo son las coordenadas correspondientes al centro de la imagen digital y debe
ser consistente en el centro de la imagen óptica, resolviendo los sistemas anteriores
para calcular las distorsiones. Las ecuaciones del error en la forma matricial
correspondientes a las anteriores expresiones:
vd = Gd ud + kd = 0 (2)
Alternando los anteriores dos grupos de cálculo hasta que las correcciones de los
parámetros de la DLT y de la DTSP son muy pequeñas, se pueden obtener las
soluciones deseadas.
Evidentemente, las ecuaciones del error no tienen carácter lineal, la solución se
obtiene por un proceso iterativo por mínimos cuadrados.
FOTOGRAMETRÍA DIGITAL 151
En la ecuación (1),
⎡r 2 + 2∆I 2 2∆I∆J (
r 2 r 2 + 2∆I 2 ) ⎤
2r 2 ∆I∆J
Dd = ⎢
⎣⎢ 2∆I∆J
2
r + 2∆J 2 2
2r ∆I∆J 2 2
( ⎥
r r + 2∆J ⎦⎥ 2
)
Puesto que, k1, k2, k3, p1, p2, p3 y p4 son muy pequeños, la matriz Od puede
expresarse como:
⎡1 0 ⎤
Od = ⎢ ⎥
⎣0 1 ⎦
Las soluciones totales del modelo de calibración para una cámara digital consisten
en las ecuaciones (1) y (2) y sus submatrices. La ecuación (1) incluye una
transformación afín y puede ser empleada para la calibración de un escáner. La
combinación de las ecuaciones (1) y (2) se utiliza para la calibración de cámaras de
matriz lineal y cámaras de matriz 2D. El procedimiento de la solución se muestra en
la fig.3.42.
3.3.11 Comparación entre cámaras digitales y cámaras fotográficas
convencionales
James (1992) y Schenk (1999) realizan un estudio comparativo entre los sensores
digitales y las cámaras fotogramétricas convencionales (entendiendo dentro de este
grupo a las cámaras cuyas propiedades métricas permanecen constantes entre dos
calibraciones) apuntando las ventajas e inconvenientes de cada grupo.
Una hipótesis previa que se aplica en Fotogrametría es que la captura de los datos
se realiza mediante la utilización de cámaras cuyas propiedades métricas permanecen
constantes dentro de un amplio espacio de condiciones ambientales (presión,
temperatura,Y). Dentro de las propiedades métricas se incluyen la posición del punto
principal, el valor de la distancia focal calibrada, los parámetros y valores de la
distorsión radial y tangencial, las posiciones de las marcas fiduciales, la planeidad del
plano focal y el poder de resolución de la lente. Como consecuencia de esto, las
cámaras fotogramétricas son construidas de forma que las posiciones relativas de los
elementos que la componen (lentes del objetivo, eje óptico, plano focal,Y)
permanecen constantes durante el periodo entre calibraciones. Estas consideraciones
no suelen ser tenidas en cuenta en el proceso de fabricación de las cámaras digitales.
152 SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS
Entrada de observaciones
Se considera la DSTP?
Ajuste simultáneo para los
parámetros de la DLT y DSTP
No Sí
Resolución DSTP
Correcciones inferiores
al nivel límite de precisión?
Sí
SALIDA DE RESULTADOS
Otra cuestión a tener en cuenta son los valores de resolución angular y de ángulo
de campo asociado a los sensores que incorporan matrices de pequeño tamaño. En las
cámaras convencionales el ángulo de campo viene definido por la distancia focal y el
tamaño del formato obteniéndose valores máximos superiores a 1001 utilizando
objetivos supergranangulares mientras que la resolución es un parámetro obtenido de
la fotografía y análisis de patrones de frecuencia y se expresa en líneas-par/mm dando
lugar al parámetro de resolución angular que es igual al valor de la resolución espacial
dividida por la distancia focal calibrada.
Así una cámara aérea convencional con una resolución de 100 lp/mm y un
objetivo supergranangular de 88mm, tiene a una resolución angular de 1/(200*88)=
=5.7x10-5. Una cámara CCD con un sensor de alta resolución (tamaño del sensor de
2.5") y una distancia focal de 60mm tiene un ángulo de campo de 72º y una
resolución angular igual a 2 x 15µm/60mm = 5 x 10-4.
Para mejorar la resolución, se debe utilizar una distancia focal mayor pero esto
repercute negativamente en el ángulo de campo. Este hecho es particularmente
patente en las cámaras de sensores de menor tamaño (inferior a 1") con objetivos tipo
C (distancia focal igual a 17.526mm).
FOTOGRAMETRÍA DIGITAL 153
Tabla 3.16. Comparación de cámaras analógicas y digitales -situación futura- (Fricker, 1998)
Cámara aérea Cámara digital Cámara digital
Tipo de cámara
(tipo Leica RC30) de matriz de CCD lineal
N1 de píxeles (dirección transversal) 25400 (equiv) 9000 20000
Ángulo de campo 74º 62º 62º
Distancia de vuelo recorrida (km) 258 741 322
Número de escenas 136 1040 80
Número de líneas de vuelo 8 23 10
Altura de vuelo (m) 3414 1500 3331
Anchura de barrido (km) 5.15 1.8 4.0
Tiempo de vuelo -sin giros- (h) 0.7 2 0.9
Tiempo de giros (h) 0.3 1.1 0.4
Tiempo total de vuelo (h) 1 3.1 1.3
156 SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS
Hiperespectral
Sensores
Resolución Espacial
Multiespectrales
Multiespectral
Sen otrans
Aere
Ikon
IRS
sore port
os
-C
SPO
Micr
s Di ados
Cámaras Aéreas
T-
Pancromática
osa
gita
5
télite
les
s
3.4 ESCÁNERES
Como se comentó en el apartado introductorio, en la actualidad el sistema más
empleado para la captación de imágenes digitales en Fotogrametría Digital es la
digitalización de las imágenes obtenidas mediante una cámara analógica
convencional, sobre todo en los trabajos de Fotogrametría Topográfica. Por tanto, un
elemento básico en cualquier sistema fotogramétrico digital es el escáner. En este
apartado se analizan los diversos tipos de escáner, las características que deben tener
para su utilización en fotogrametría así como el procedimiento de calibración,
aspectos básicos de gran influencia en la precisión final del trabajo.
Los escáneres de documentos pueden ser clasificados en 6 grupos de acuerdo con
su funcionalidad:
- Escáneres fotogramétricos
- Monocomparadores o restituidores analíticos adaptados
- Escáneres de documentos de gran formato
- Microdensimetros
- Escáneres de sobremesa (desktop scanners -DTP-)
- Otros escáneres específicos, como los escáneres de diapositivas de pequeño
formato, los dispositivos multifuncionales (escáner, fax, impresora), escáneres
de microfichas,...
Debido al objeto de este libro, el análisis se centrará en los escáneres
fotogramétricos y los escáneres de sobremesa que pueden ser utilizados en ciertos
trabajos de tipo fotogramétrico.
158 SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS
Fig. 3.45. Interior del escáner Leica DSW500, en que se puede observar
el sistema de placas y los rollos de película (LH Systems, 2000).
Placa Difusora
Lente Condensadora
Película
Sensores
es medida. Sin embargo, la medida de las corrientes de cada uno de los elementos no
es sencilla, por lo que se recurre a la transferencia de las cargas de unos elementos a
otros. La carga electrónica producida por la radiación puede ser transmitida sin sufrir
ninguna perdida, a lo largo de la matriz y posteriormente leída y cuantificada, este
sistema es el empleado por los CCD. No obstante, la transmisión de la carga es más
compleja en la matriz rectangular que en la lineal, así Murphy et al.(1989) demuestra
como el rango dinámico del sistema lineal es en torno a 5 veces mayor que el de la
matriz rectangular.
Por lo general, el fotodetector mide un valor proporcional a la iluminación
(cantidad de luz que alcanza la célula fotosensible) o la exposición, siendo ésta el
producto de la iluminación por el tiempo de exposición. Está claro que el flujo de luz
está integrado en un intervalo de tiempo, proceso que se controla mediante un
obturador bien mecánico o electrónico. Para el usuario, es importante conocer que el
fotodetector mide un valor proporcional a la transparencia o a la reflectancia de la
fotografía. La señal electrónica es posteriormente convertida a un valor numérico por
un circuito electrónico, que generalmente proporciona una señal de 8 bits. Por tanto,
la transparencia de una diapositiva se divide en 256 tonos de gris, cifra que puede
parecer muy fina, aunque el problema es que el ojo humano no es sensible a la
transparencia sino a la densidad (D=log 1/T), produciéndose el hecho de que el sensor
es muy sensible para las zonas muy claras, pero la sensibilidad decrece rápidamente
para las zonas oscuras. A pesar de esto, es necesario considerar que esta limitación de
8 bits es necesaria para la limitación de espacio de almacenamiento en disco. La
sensibilidad del fotosensor depende de un gran número de factores electrónicos y
eventualmente también del ruido de los fotones, siendo importante tener en cuenta
que la iluminación no es un fenómeno continuo sino discreto debido a la propia
naturaleza de los fotones. El ruido de un fotosensor (R) se expresa usualmente en
decibelios y se define por la relación:
amplitud máxima
R (decibelios) = 20 log
corriente de oscuridad
plano del sensor con el plano de la imagen. Además en los sensores a color es
fundamental para asegurar la coincidencia entre los tres planos de color
(pasadas).
- Control de la placa.
- Memoria: La señal digital puede ser almacenada temporalmente en la
memoria interna para pasar a continuación al disco de almacenamiento en el
ordenador principal.
- Interfaz de salida: Proporciona el enlace entre el escáner y el ordenador
principal en el que se ubica el sistema principal de almacenamiento. El
parámetro básico para evitar desbordamientos en la memoria es la velocidad
de transferencia que debe ser función de la velocidad de desplazamiento de la
placa, así como de la resolución de la imagen.
Du Pont
1850 2540ppp 0.011 0.014 0.017 0.021 10 40*46 72.3 53.3 0.044 0.060 0.073 0.090
1875 2540ppp off 0.008 0.009 0.009 0.008 10 62*56 88.1 68.4 0.047 0.053 0.053 0.047
1875 1132ppp soft 0.013 0.018 0.023 0.028 22 40*44 48.6 16.8 0.055 0.076 0.097 0.118
1875 1132ppp off 0.009 0.011 0.013 0.014 22 60*64 64.0 35.8 0.056 0.068 0.081 0.087
Vexcel VX3000 Difusa
10µm 0.036 0.038 0.044 0.051 10 18*18 40.9 16.0 0.065 0.068 0.092 0.092
24µm 0.021 0.019 0.019 0.020 24 58*52 54.0 27.7 0.116 0.105 0.105 0.110
Phillips CCD en el DSR15
oscuro (GV90 – 0.4D) 0.017 0.018 0.017 0.019 8*12 36*40 62.6 49.4 0.065 0.068 0.065 0.072
medio (GV130 – 0.4D) 0.025 0.012 0.013 0.013 38*48 69.6 54.6 0.056 0.052 0.056 0.056
brillante (CV230 – 0.4D) 0.026 0.015 0.013 0.017 43*66 79.7 64.4 0.095 0.083 0.083 0.095
Agfa ACS100
2400ppp (EPFL) 0.025 0.026 0.027 0.029 10 35*38 74.2 37.9 0.093 0.096 0.100 0.107
1800ppp (firm) 0.044 0.045 0.044 0.049 14 34*34 59.8 13.6 0.150 0.153 0.150 0.167
900ppp (firm) 0.088 0.089 0.134 0.121 28 30*30 12.4 6.4 0.264 0.267 0.402 0.363
300ppp(firm) 0.190 0.142 0.103 0.061 85 250*14 62.3 14.4 3.800 2.800 2.100 1.200
5 87.5 65.5
Agfa Horizon 1200 ppp 0.010 0.011 0.011 0.011 21 114*12 0.117 0.129 0.129 0.129
Screen DT-S1030AI 2000ppp 0.038 0.037 0.026 0.026 13 26*36 58.4 15.9 0.123 0.115 0.079 0.079
Crosfield Directa
900ppp 0.062 0.058 0.054 0.050 28 34*52 27.3 9.5 0.267 0.249 0.232 0.215
1800ppp 0.060 0.059 0.059 0.058 14 19*33 37.4 14.7 0.156 0.153 0.252 0.151
8.6
Perkin Elmer 20x20G 0.042 0.047 0.053 0.064 22 22*22 1.9 0.092 0.103 0.117 0.141
Werhli RM-1 0.027 0.024 0.026 0.026 12 29*32 61.8 20.3 0.084 0.074 0.081 0.081
Zeiss PhotoScan PS1
7.5µm 0.058 0.060 0.071 0.080 7.5 12*14 46.6 9.1 0.075 0.078 0.092 0.104
15µm 0.024 0.026 0.029 0.029 15 27.36 50.9 19.4 0.074 0.081 0.090 0.090
Los valores de ruido de la imagen se refieren a la desviación típica de los niveles de gris calculados en una matriz de 20x20 píxeles en áreas homogéneas expresados en
densidad.
Los valores estandarizados se refieren a una función de expansión puntual de 10µm.
SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS
FOTOGRAMETRÍA DIGITAL 169
que para una cámara de media resolución (40 lp/mm), es decir, aproximadamente
25µm, resultaría un tamaño de píxel equivalente entre 9 y 13 µm.
b) Ruido de las imágenes digitales
El ruido de la imagen digital es un factor de gran importancia para la apreciación
de la calidad del escáner, debido a que es un factor determinante en la calidad de la
imagen final. Esta calidad de la imagen puede ser considerablemente mejorada
mediante el empleo de técnicas de análisis de imágenes, si bien es importante tener en
cuenta que las posibilidades de mejora están condicionadas al nivel de ruido existente.
La determinación del ruido de la imagen se puede establecer de una forma simple, se
seleccionan regiones homogéneas de la imagen (en torno a 20x20 píxeles) y se calcula
la desviación típica de los valores incluidos en el sector. Es importante tener en cuenta
que para efectuar una comparación entre diferentes imágenes es necesario tener en
cuenta el tamaño de píxel o, si es posible, la función de expansión. Teniendo en
cuenta las leyes de la propagación de errores, una imagen digitalizada con un tamaño
de píxel de 20x20µm debería tener sólo la mitad de ruido que una imagen con tamaño
de píxel 10x10µm. Por tanto, para comparar imágenes obtenidas con diferentes
tamaños de píxeles es necesario estandarizar las medidas a un determinado tamaño de
píxel (suele considerarse 10µm). Para obtener este valor, es necesario determinar el
tamaño de la función de expansión mediante la correlación, y posteriormente
multiplicar el ruido de la imagen por la anchura de la función y después dividirlo por
10 para referirlo al tamaño de píxel deseado. En la Tabla 3.17 se da información del
nivel de ruido de los diferentes escáneres.
c) Rango de densidad dinámica de los escáneres fotográmétricos
El parámetro de más compleja determinación en la práctica es el rango de
densidad dinámica (rango dinámico) debido a los problemas de los negativos
originales digitalizados -especialmente en fotografías de gran escala- producidos por
170 SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS
Fig. 3.49. Problema de alineamiento entre dos sensores lineales (Baltsavias, 1996)
Fig.3.51. Errores de submuestreo. Izq.: Imagen escaneada a 1200 ppp. Der.: Imagen escaneada a
2400ppp. Aparecen líneas verticales en la imagen de mayor resolución cada 2 píxeles (Baltsavias, 1996)
5. Smearing (fig.3.52)
Al igual que el error anterior afecta a los sensores lineales y consiste en que las
líneas horizontales aparecen más gruesas y con un contraste menor que las verticales.
Fig.3.52. Smearing de líneas horizontales. A: Dirección de barrido, B: Dirección del sensor CCD
(Baltsavias, 1996)
6. Enfoque
El plano del sensor debe ser paralelo a la placa del sensor y el enfoque debe ser
correcto. Además, es necesario tener en cuenta que debido a los problemas de
astigmatismo de la lente del sensor pueden existir problemas de no coincidencia entre
los elementos verticales y horizontales de la imagen.
7. Coincidencia entre canales
El error consiste en un desplazamiento relativo entre los diferentes canales de las
imágenes en color. Puede ser debido a problemas de posicionamiento del sensor o
bien a aberraciones cromáticas de la lente u otros elementos ópticos.
8. Precisión de posicionamiento geométrico, uniformidad y repetibilidad
La característica fundamental es la precisión de posicionamiento, de forma que si
es alta en todo el formato se garantizan la uniformidad y la repetibilidad. Este error es
típico de los escáneres no fotogramétricos.
FOTOGRAMETRÍA DIGITAL 175
9. Resolución geométrica
En realidad no se refiere a un error, sino a un parámetro que define la calidad del
sensor y que, debido a su importancia, debe ser determinado y optimizado.
Habitualmente, se determina mediante el cálculo de la función de transferencia de
modulación.
10. Falta de perpendicularidad
Si las líneas/columnas del CCD no son paralelas a la dirección de digitalización,
se producen efectos de escalera (shear). Este efecto también se produce si existen
problemas de ortogonalidad en el sensor. Es corregido mediante la transformación
afín en la orientación interna.
11. Linealidad de la escala de grises
Indica la relación que debe existir entre los electrones generados en el sensor y los
niveles digitales de la imagen obtenida. Dicha relación debe ser lineal pero por
problemas técnicos se producen diferencias en torno a 0.5% por el amplificación del
chip.
12. Rango dinámico
Como la resolución geométrica, el rango dinámico es un parámetro (no un error)
que debe ser determinado y optimizado. Se refiere a la capacidad del sensor para
detectar diferencias de nivel de gris y capturar imágenes de contraste alto. El rango
dinámico depende del nivel de ruido y este depende a su vez de la densidad. Este
parámetro debe ser calculado para diferentes niveles de densidad.
13. Balance de color
Puesto que los CCD no presentan una respuesta uniforme en el espectro visible (la
sensibilidad del azul es menor que la correspondiente al rojo y al verde) es necesario
ajustar diferentes parámetros (ajuste de iluminación, velocidad de digitalización,
tiempo de integración, Y) para cada canal y de esta forma, obtener una imagen
compensada.
14. Precisión radiométrica
Dentro de este apartado se deben analizar diferentes tipos de ruido (ruido térmico,
blooming, smearing, tailing,...) si bien suelen ser considerados de una forma conjunta
al ser su separación muy difícil. La comprobación se basa en el análisis de la
uniformidad de la respuesta fotométrica, mediante el escaneo de patrones
homogéneos. Generalmente, se asume que estos errores son constantes a lo largo del
tiempo al depender del sensor.
15. Tamaño de píxel
El tamaño real del píxel puede variar del valor definido en la resolución
geométrica y además puede ser diferente en las dos direcciones. Se establece
mediante una transformación afín.
176 SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS
7. Errores de mosaico
Estos errores pueden aparecer en los escáneres fotogramétricos cuando se
combinan porciones de imágenes para dar lugar a la imagen final (-tiles- en el caso de
los sensores matriciales o -swaths- en el caso de los sensores lineales). Puesto que
estos escáneres son geométricamente muy precisos y los errores geométricos son poco
frecuentes este tipo de errores son poco frecuente. Además los escáneres
fotogramétricos incorporan técnicas de identificación automática de puntos
homólogos -matching- para el case entre las diferentes porciones. Los errores
radiométricos suelen ser más frecuentes, especialmente en el caso de los sensores
CCD lineales y pueden llegar a alcanzar varias decenas de niveles digitales. Estos
errores son producidos a las diferentes respuestas de los elementos individuales del
sensor, problemas de calibración radiométrica, o de falta de uniformidad o
inestabilidad de la iluminación.
8. Saturación CCD
Está relacionada con el rango dinámico. La saturación del CCD se puede producir
aunque el rango dinámico esté bien ajustado si las tablas de consulta no están bien
ajustadas al no determinar de una forma correcta las zonas más iluminadas y más
oscuras de la escena.
9. Linejitter
Se produce en los sensores matriciales o por problemas de sincronización entre los
píxeles. Su magnitud es en torno a 0.1 píxeles.
10. Polvo, desperfectos de la película, etc.
3.4.4.2 Procedimiento general de calibración
A. Materiales necesarios para la calibración
a) Patrones de calibración de resolución
Las placas de calibración de resolución se deben construir en vidrio y pueden
encontrarse en positivo o en negativo. Los patrones más frecuentemente empleados
son:
- Placa de calibración de la USAF (Fuerzas Aéreas de los Estados Unidos de
América). Esta placa incorpora patrones de 3 pares de líneas con resolución
entre 0.25 y 228 lp/mm con incrementos de 1.12 con líneas horizontales y
verticales (fig.3.55).
- Placa de calibración NBS. Esta placa incorpora patrones de 5 pares de líneas
con resolución entre 1 y 500 lp/mm con incrementos de 1.12 con líneas
horizontales y verticales.
- Placa de patrones de 15 pares de líneas empleadas para el cálculo de funciones
de transferencia de modulación, con dos tipos de resoluciones de 1 a 1000
lp/mm ó de 1 a 625 lp/mm con incrementos de 1.26. Este tipo de patrones sólo
incorporan líneas verticales.
178 SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS
El tipo de placa a utilizar debe ser elegida en función del tipo de escáner que se
desea calibrar atendiendo a los resultados previsibles. Al respecto es importante tener
en cuenta que en la mayoría de los casos (escáner con resolución entre 5 y 84 µm) es
suficiente el disponer de un patrón entre 3.6 y 100 lp/mm, siendo el intervalo de
mayor interés el comprendido entre 20 y 50 lp/mm.
Otro tipo de placas empleadas para la determinación de la resolución del escáner
son:
- placas de grupos de patrones paralelos con un número de pares de líneas igual
o mayor que 3 con frecuencia creciente.
- placas de Fresnel que consisten en anillos concéntricos con simetría radial y
distribución de intensidad sinusoidal.
En todos los casos es fundamental el que las placas sean de alta calidad, en
especial, en los aspectos relativos al contraste, la definición de bordes y planeidad de
la placa.
b) Cuñas de escalas de grises
Estas cuñas son suministradas por las casas de productos fotográficos (Agfa,
Kodak, Y). Así, por ejemplo, Kodak comercializa la cuña opaca en tonos de gris SR37
de tamaño 21x2cm con rangos de densidad de 0.0 a 1.8D con incrementos de 0.05D y
la cuña transparente ST34 de tamaño 13x1.5cm con rango de densidad de 0.0 a 3.4D
con incrementos de 0.1D (fig.3.56). También es posible construir la cuña mediante el
procedimiento indicado en Dam (1994) y posteriormente medidos con un
microdensitometro. Las cuñas deben ser conservadas en condiciones ambientales
adecuadas, libres de polvo y deben ser comprobadas con un microdensitometro para
evaluar posibles cambios en la densidad de la cuña. El requisito fundamental de las
cuñas es la homogeneidad de cada uno de los tramos de densidad y el conocimiento
preciso de los valores de densidad.
FOTOGRAMETRÍA DIGITAL 179
Fig.3.56. Patrones de calibración radiométrica. Sup.: Cuña de grises de intervalo de densidad de 0.0 a
0.24D; Medio: Cuña Kodak ST34 –original en color–; Inf.: Cuña Kodak Q-60a –original en color–.
Fig.3.58. Placa reticulada en los bordes para ser empleada de forma simultánea con la película
g) Películas aéreas
También pueden deben ser utilizadas en la calibración películas aéreas de alta
calidad tanto pancromáticas como en color, para comprobar el funcionamiento del
sistema en los casos reales.
Estas placas suelen tener un precio en torno a 600 € cada una de ellas, salvo las
reticuladas cuyo precio puede ascender a 1200 ó 1800 € (placa de 11x11 líneas)
mientras que las placas más densas pueden costar más de 6.000 €. Una alternativa
puede ser trazar una retícula sobre un material indeformable y realizar la medida con
un comparador de precisión.
Un aspecto de gran importancia es el tipo de marca que incorporan las placas
reticuladas. Así se pueden encontrar diferentes tipos de marcas que deben ser
escogidas fundamentalmente en función del procedimiento de medida, así los
patrones de tipo cruz suelen ser los más adecuados para la medida manual (la marca
de medida suele ser una cruz) mientras que para la medida automática lo más
aconsejable es una marca de forma de punto que tenga un tamaño en torno a 5 píxeles
FOTOGRAMETRÍA DIGITAL 181
comparación entre el nivel digital de la fila o columna con las filas y columnas
adyacentes. El ruido debido al polvo u otras causas puede ser detectado puesto que
produce discontinuidades a nivel local que no se extienden en toda la columna. Esta
detección del ruido puede ser empleada para la realización de una estimación
simultánea de los píxeles con ruido.
Las vibraciones en la dirección vertical se detectan utilizando las cruces y puntos
situados sobre la línea vertical del patrón de retícula para escanear conjuntamente con
la imagen (fig.3.58). Las vibraciones en la dirección horizontal se detectan utilizando
las líneas de borde en el mismo patrón. Las vibraciones en ambos casos producen que
las líneas rectas aparezcan como líneas curvas sinusoidales. Utilizando técnicas de
análisis de imágenes se extraen puntos de la línea y se ajusta una recta obteniéndose
los residuos. Estos errores pueden ser corregidos posteriormente mediante una
transformación lineal y el remuestreo en la dirección horizontal en la que se detectan
errores debido a la vibración.
La falta de uniformidad en la iluminación puede ser corregida mediante la
digitalización de un área homogénea y la estimación de los valores de corrección para
cada elemento del sensor. Para ello se utiliza la digitalización de una placa de vidrio o
bien cuñas de gris (con diferentes niveles de densidad, por ejemplo, 0.0, 1.0, 2.0).
Para reducir el efecto del ruido, se pueden tomar varias imágenes y promediarlas. Este
procedimiento debe ser realizado para cada digitalización, cada canal de color.
a) Calibración geométrica.-
El procedimiento seguido para la realización de la calibración de escáner consistió
en la digitalización de las diferentes placas de calibración geométrica. La captura de
las imágenes fue repetida 6 veces, repartidas de la siguiente forma, 3 medidas el
primer día y 3 medidas el segundo día, con el objetivo de analizar la repetibilidad
geométrica a corto y medio plazo. La digitalización se realizó con un tamaño de píxel
de 12.5µm, y tanto en tonos de gris como en color, para establecer la coincidencia
entre las diferentes capas de color.
Las coordenadas de las cruces fueron medidas mediante un procedimiento
automático mediante el método de identificación automática (matching) de patrones
por mínimos cuadrados -LSTM- (Grün, 1985; Baltsavias, 1991) obteniéndose
precisiones entre 0.02-0.03 píxeles en las medidas. Tras el proceso de medida
automática se revisan manualmente aquellas medidas automáticas en las que se
habían obtenido malos resultados de correlación. Los resultados obtenidos fueron
comparados con el sistema que incorpora el escáner para la calibración automática.
Una vez efectuadas las medidas se realizaron los siguientes test geométricos:
1. Test geométrico global. Se calcula una transformación afín entre las coordenadas
píxel obtenidas y las coordenadas de referencia de las cruces, utilizándose para cada
digitalización tres conjuntos de datos (todas las medidas, sólo las 4 cruces de los
extremos y sólo 8 cruces situadas en las esquinas y centros de los lados; mediante las
dos últimas medidas se intenta simular el procedimiento de orientación interna que se
efectuará sobre las marcas fiduciales). La utilización de las tres placas con distintas
densidades de cruces permite analizar la influencia de este factor en los parámetros
finales de transformación y los residuos no corregidos.
2. Errores de desplazamiento entre canales. Dichos errores fueron comprobados
mediante la comparación de las coordenadas de las cruces entre pares de canales (R-
G, R-B, G-B).
3. Test geométrico local. Debido a que este sistema funciona mediante un
procedimiento de tile (se digitaliza en pequeñas porciones que posteriormente dan
lugar a la imagen final) se analiza el comportamiento geométrico de cada porción de
una forma individual. De esta forma se establecen los errores primarios debidos a los
componentes ópticos del sensor (básicamente distorsión radial), debido a que los
errores de posicionamiento mecánico y vibraciones son absorbidos por los
coeficientes de translación de la transformación afín.
4. Repetibilidad. Fue comprobada mediante la comparación de las medidas efectuada
a partir de las imágenes obtenidas en distintos momentos, así se disponía de 3
imágenes tomadas de forma consecutiva (repetibilidad en corto periodo de tiempo) y
otras 3 tomadas al día siguiente.
5. Estabilidad y robustez. Fue establecida mediante la comparación de los resultados
de la misma placa empleando diferentes parámetros de ajuste de calibración, entre las
diferentes placas y entre los dos sistemas disponibles.
6. Resolución geométrica. Se determina mediante la inspección visual de la imagen
FOTOGRAMETRÍA DIGITAL 185
b) Calibración radiométrica.-
Para la realización de la calibración radiométrica se digitalizó la cuña de
densidades tanto en niveles de gris como en color, a dos tamaños de píxel diferentes
(12.5µm y 25µm) y empleando tablas de consulta (lookup table -LUT-) de tipo lineal
y logarítmico.
Los tests radiométricos aplicados han sido:
1. Estimación del nivel de ruido. Este parámetro fue obtenido a partir de la media y
desviación típica de cada densidad de la cuña de densidades, escogiéndose siempre la
misma porción dentro de la zona de nivel de densidad.
2. Linealidad y rango dinámico. La linealidad fue comprobada mediante la
representación del logaritmo del nivel de gris medio frente a la densidad calibrada
respectiva, los puntos de la representación deben estar dispuestos sobre una línea recta
y ser equidistantes.
3. Rango dinámico. Para el cálculo del rango dinámico previamente es necesario
establecer los niveles de densidad mínima no saturada y densidad máxima detectable.
El nivel de densidad mínima no saturada se establece en función del nivel de densidad
que proporciona un nivel digital no nulo mientras que el nivel máximo se calcula
teniendo en cuenta las siguientes condiciones:
a) la distancia del valor medio de gris de una densidad detectable a partir de los
valores medios de sus dos niveles de densidad vecinos debe ser igual a la suma
de la desviación típica de la densidad detectable y las desviaciones de los
vecinos, es decir:
Mi-1 + SDi-1 + SDi < Mi < Mi+1 - SDi+1 - SDi
donde: M media del nivel de densidad de la cuña
SD desviación típica del nivel de densidad de la cuña
i nivel del valor de densidad creciente
b) la desviación típica del nivel de densidad debe ser mayor de 0.1, a objeto de
evitar el fenómeno que se observa de que la señal saturada presenta valores de
desviación típica muy bajos.
c) la existencia de diferencia entre el valor redondeado a número entero del valor
medio de densidad del nivel analizado con respecto al resto de niveles de la
cuña.
4. Errores. Con el objeto de determinar errores radiométricos entre las diferentes
porciones de imagen (tiles) o errores de tipo electrónico asociados con el sensor
(polvo electrónico) se someten las imágenes a un filtro de Wallis de forma que se
aumente el contraste de la imagen y dichos defectos se hagan más visibles.
c) Resultados.-
Las principales conclusiones del trabajo fueron:
186 SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS
Lámpara fluorescente
Fotograma
Placa
Movimiento de la placa
Control de
Codificador desplazamiento
Lente
Motor Temporizador
Sensor TDI
Conversor A/D Buffer de línea
(vista frontal)
f = 75mm
o=2 f i =2 f
Fig.3.62. Esquema óptico del escáner RM-1
Fotograma Lente Sensor
Plano imagen
Plano sensor
o=2 f i =2 f
i =2 f+ x
Fig.3.63. Efecto del desplazamiento de la posición del sensor
Plano imagen
Plano sensor
Posición Desplazada Posición Original
de la lente de la lente
o=2 f-x i =2 f+ x
δy D ⎡ 2fx − x 2 ⎤
= ⎢ ⎥
δx 4f ⎢⎣ f 2 + x 2 − 2fx ⎦⎥
c) Ajuste de la escala
El ajuste de escala necesita un planteamiento similar al ajuste del enfoque. Como
se ha comentado con anterioridad, la modificación de la posición del sensor implica
una modificación de las distancias imagen y objeto, por lo que se modifica la relación
de ampliación.
2f + x x δm 1
m= = 1+ =
2f 2f δx 2f
625/0 56 29 0 0 182 91
4/621 35 20 24 -4 73 56
UMAX
Mirage 8/617 32 20 20 -7 67 54
625/0 18 19 0 0 56 51
Los errores son por lo general mayores en el eje x (dirección del sensor) y ponen
de manifiesto valores de distorsión de la lente grandes. Los errores máximos se
producen en las zonas de borde, por lo cual, los errores mayores se detectan cuando se
realiza la transformación afín utilizando únicamente los 4 puntos de las esquinas. En
todos los casos, los errores máximos están en el orden de 2.5 a 3.5 veces el error
medio cuadrático.
Las precisiones alcanzadas ponen de manifiesto que estos escáneres pueden ser
utilizados para muchos trabajos de precisión media. Así, por ejemplo, un escáner con
un error geométrico de 100 µm, que se emplee para la digitalización de fotogramas a
escala 1:40000 con una resolución de 25µm (tamaño de píxel sobre el terreno de 1m)
producirá un error planimétrico de 4m en la imagen. Si la ortoimagen se representa a
escala 1:20000 de 0.2mm, o 0.4mm si se representa a 1:10000, cifras que pueden ser
aceptables para muchos usuarios.
FOTOGRAMETRÍA DIGITAL 193
Tabla 3.20. Resultados de la calidad geométrica de los escáneres tras la calibración (Baltsavias y Waegli,
1996). Valores expresados en µm.
4 8 8 4 6 22 27
Agfa Horizon
8 7 6 3 0 20 20
4 7 6 5 5 14 16
Sharp JX-610
8 5 4 4 1 14 15
UMAX 4 19 10 -15 2 40 23
Mirage D-16L
8 14 8 -9 1 30 22
4 18 11 8 -5 45 25
Agfa Arcus II
8 16 9 4 3 39 28
UMAX 4 12 6 -6 -1 32 15
PowerLook
8 12 6 -5 1 33 16
Tabla 3.21. Errores de desplazamiento entre los canales R,G,B en imágenes en color (Baltsavias y Waegli,
1996). Valores en µm
R-G 18 29 17 28 3 1
Agfa Horizon
R-B 4 20 1 19 1 32
R-G 7 4 -7 -3 1 7
Sharp JX-610
R-B 10 2 -9 2 1 4
R-G 5 19 4 15 1 47
UMAX Mirage D-16L
R-B 10 16 9 -9 2 43
R-G 2 9 0 7 6 22
Agfa Arcus II
R-B 4 10 -1 -6 1 23
único equipo de restitución y que el ritmo de trabajo está en torno a 1 modelo/día con
lo cual será necesario digitalizar una fotografía al día (la otra será común a otro
modelo). El número de años necesario para la amortización del scanner se obtiene
mediante:
Coste por fotografía: 12€
Fotografías/día: 1 Fotografías/año: 240
Coste anual: 12€/foto x 240 fotografías/año = 2880 €/año
Coste del sistema: 45000€
Años para amortizar: 45000€ / 2880€/año = 15.6 años
Tabla 3.23. Precios aproximados y características de los escáneres fotogramétricos más frecuentemente
empleados (modificado de Baltsavias, 1998)
Precio Total Sistema y Distribuidor Características
(€) (área, resolución, velocidad, sensor), Y
130.000 Z)I Photoscan 2002 27.5x25cm; 7-224µm; máx. 4 Mb/s
(ZI Imaging) CCD color Kodak trilineal 10200 pix
150.000 Leica DSW 600 26.5x26.5cm; mín 4 µm
(Leica Helava Systems) Kodak Megaplus 1.6i, 4.2i, 6.3i
45.000 Vexcel UltraScan5000 28x44cm; min 5 µm; 0.83 Mb/s
(Vexcel Imaging GmbH) CCD color trilineal 6000 píxeles
50.000 RasterMaster RM-2 25x25cm; min 10µm; 1.2Mb/s
(Wehrli & Assoc) Matriz lineal con 20482 sensores
32.500 Delta-Scan 30x30cm; min 7 µm; 0.13 Mb/s
(Geosystem) Matriz Sony 3x5300x8
1. ZI Imaging PhotoScan
Este es el escáner fotogramétrico más difundido en nuestro país. Su diseño es fruto
de la colaboración entre Intergraph y Carl Zeiss, previa a la fusión de ambas marcas.
El escáner está compuesto por la unidad de digitalización y un ordenador funcionando
en entorno Windows NT que hace las funciones de estación de trabajo (fig.A3.1).
Fig.A3.1. Escáner PhotoScan de Z)I Imaging. Se puede observar el ordenador de control y la unidad de
digitalización equipada con rollos para alimentación automática (ZIImaging, 2003)
198 SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS
1. Unidad de digitalización
La unidad de digitalización incorpora los elementos óptico-mecánicos con
desplazamiento en una dirección y la cámara CCD y el sistema de iluminación con
desplazamiento en la otra dirección.
El sistema mecánico se basa en el restituidor analítico Zeiss Planicomp y permite
la digitalización de fotogramas de tamaño máximo de 250x275mm (fig.A3.2).
12
11
13 14
8 15
7
16 2 3
5 6
10
4
Fig.A3.2. Esquema del escáner Z)I Imaging PhotoScan. 1: Chasis de aluminio, 2: Guía y carro primario, 3:
Codificador lineal, 4: Carro secundario, 5: Sistema óptico de lentes, 6: Módulo del sensor, 7: Portaplacas,
8: Tapa de vidrio, 9: Sistema de iluminación, 10: Fibra óptica, 11: Portarrollos, 12: Bobina de película, 13:
Tapa externa, 14: Tapa del instrumento, 15: Panel de control, 16: Sistema electrónico (Z)I Imaging, 2003)
Fig.A3.3. Sistema de digitalización por rollos del Photoscan (Z)I Imaging, 2003)
2. Leica DSW600
Este escáner fotogramétrico fue lanzado al mercado en Agosto del 2002. El
DSW600 se ha construido como desarrollo de la serie DSW que comenzó con el
sistema DSW200 y tuvo su continuidad con los modelos 300 y 500.
El DSW600 (fig.A3.4) es un sistema para la digitalización de diapositivas y
negativos en color y blanco/negro, tanto en rollo como en formatos sueltos,
produciendo imágenes digitales de precisión fotogramétrica para su utilización en
sistemas fotogramétricos digitales.
Fig.A3.4. Izq.: Escáner Leica DSW600; Der.: Interior del DSW en el que se puede observar
el sistema de iluminación y de rollo automático (Leica Geosystems, 2003)
los antiguos sistemas DSW200/300 fue el cambio del sistema de iluminación por una
lámpara de xenón continua a una lámpara de xenón estromboscópica. Los escáneres
DSW trabajan utilizando cámaras de matriz rectangular que capturan porciones de
imagen que después son montadas sobre un continuo con un tamaño máximo de
260x260mm. El sistema de control actúa en este sistema sobre los pulsos de luz
mediante los comandos del software, de forma que el usuario tiene total control sobre
los sensores CCD, frente a otros sistemas en los que se controla el tiempo de
integración del sensor. Por otro lado, incorpora un sistema para facilitar el cambio del
tamaño de píxel entre diferentes tamaños de digitalización.
La placa XY es similar en calidad a la que incorporan los comparadores y permite
el posicionamiento independiente para cada eje, alcanzando unas prestaciones muy
elevadas con un mantenimiento periódico muy reducido. La base del sistema la
constituye la cámara digital de Kodak Megaplus, pudiendo elegirse entre los modelos
de 1.6, 4.2 y 6.3 megapíxeles, con un diseño planteado para la reducción de la
distancia entre la fuente de iluminación y la cámara de forma que no se utilizan
espejos y lentes para modificar los rayos. Por otro lado, tanto la placa como el sistema
óptico se ha aislado para eliminar el polvo y la suciedad y evitar que existan reflejos
de luz extraña en el sistema durante la digitalización. La iluminación se instala
separada de la placa y de la cámara para eliminar las deformaciones producidas por el
calor.
Características técnicas
Tecnología de digitalización: Placa móvil XY y CCD matricial fijo.
Resolución geométrica: 0.5 µm
Precisión geométrica: Error medio cuadrático inferior a 2 µm en cada eje
Tamaño máximo de formato: 260 x 260 mm
Velocidad de desplazamiento máxima: 100 mm/s
Sistema de alimentación por rollo con diámetro máximo de 194mm, longitud
máxima de 152m, con anchura de la película de 70 a 240mm. Tiene una velocidad
de desplazamiento máximo de 100mm/s con tiempo de rebobinado de 5 minutos
para un rollo de 152m y con una velocidad de avance de la película superior a
0.3m/s.
Sistema óptico y electrónico: Iluminación por lámpara de xenón con rueda de
filtro de color y cámara digital Kodak Megaplus con tamaño del sensor de 9 µm.
Incorpora una lente Schneider 120 mm, con corrección de color.
Tamaño de pixel de la imagen entre 4 y 20 µm (rango de variación continua) con
una resolución óptica de 33 lp/mm para 15 µm, 40 lp/mm para 12.5 µm, 100
lp/mm para 5 µm.
Rango radiométrico entre 0.1 y 2.5D con resolución de 0.01D a 1.0D.
Tiempos de digitalización inferiores a 2 minutos para la digitalización de un
fotograma en tonos de gris a 15 µm y 4 minutos para fotograma en color.
3. Vexcel VX4000
El escáner VX4000 ha sido diseñado y es comercializado por Vexcel Imaging Co.
(Boulder, Colorado). El VX4000 es un escáner diseñado para la digitalización de
imágenes para trabajos fotogramétricos, de procesamiento de imagen o de sistemas de
202 SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS
Fig.A3.5. Escáner VX4000 de Vexcel Imaging Co. (Vexcel Imaging Co., 2000)
Este sistema está compuesto del escáner, el ordenador de control y del monitor de
visualización en tiempo real. El escáner se caracteriza por ser un escáner plano de tipo
vertical y de gran formato cuyos movimientos y captura de imágenes se realizan
mediante un ordenador de control que tiene la ventaja de la observación en tiempo
real de la imagen capturada lo que permite la selección precisa de regiones de interés
en la digitalización.
El sistema permite la digitalización de imágenes tanto monocromas como en
color, con un tamaño que puede alcanzar 254x508mm, con resoluciones entre 7.5µm
y 210µm con incrementos de 0.1µm sin necesidad de remuestreo posterior. Por otro
lado, permite la incorporación de un sistema de rollos para la digitalización
desatendida.
Tecnología
Una de las características principales del Vexcel VX4000 son las innovadoras
soluciones que plantea en cuanto a su diseño, tanto a nivel de hardware como de
software. La precisión geométrica del sistema se obtiene mediante la técnica de la
Areseau@ invisible. El sistema incorpora dos placas de vidrio en las que se coloca la
película, la placa frontal tiene una serie de marcas en el área activa formando una
retícula, estas líneas pueden ser iluminadas selectivamente u ocultadas para
proporcionar un marco de referencia para el alineamiento de la cámara.
La imagen de la retícula se utiliza para el cálculo de la localización de la cámara
en el momento de la captura de la imagen. Esta información se utiliza para corregir la
geometría de la imagen y las distorsiones de la escala que pueden ser introducidos por
la cámara y el objetivo.
La combinación de la malla y el software de procesamiento de la imagen
proporcionan una precisión geométrica muy buena con unos elementos constructivos
de bajo coste. El escáner proporciona un fichero digital que tiene un error máximo de
3µm RMS en el área de 23x23cm de una fotografía aérea estándar digitalizada a una
resolución de 10µm. Con una precisión radiométrica superior a 2 niveles digitales en
el área de 23x23cm.
FOTOGRAMETRÍA DIGITAL 203
Componentes: Escáner
La característica más peculiar de la unidad de digitalización del VX4000 es la
colocación de la portaplaca en posición vertical, que se coloca frente al sistema de
iluminación que es controlado por un ordenador. Un brazo controla la posición del
sensor que incorpora una matriz de 512x480 elementos (pudiendo instalarse como
opción una matriz 1000x1000 elementos).
Un sistema controla la distancia entre la película y la lente, y entre la lente y el
sensor, permitiendo la modificación de la resolución por un sistema óptico (no por
remuestreo). La resolución elegida es precisa debido a la corrección de escala y de
posicionamiento que se incorpora junto con el sistema de la reseau invisible.
La iluminación es proporcionada por un sistema basado en la técnica del cátodo
frío. Este sistema es controlado con un diodo que regula la luz y asura la estabilidad a
lo largo del proceso de digitalización.
La digitalización de imágenes en color se logra mediante la incorporación de 3
filtros que se introducen en el camino óptico.
Controlador
El VX4000 incorpora un ordenador para el control del movimiento y el sistema de
iluminación. Este ordenador se utiliza para el control del sistema así como el
almacenamiento de las imágenes capturadas, así como la autocalibración del sistema.
Este sistema incorpora un sistema para la digitalización desatendida así como un
programa de aerotriangulación digital funcionando como monocomparador.
Características técnicas:
- Sistema de iluminación: Luz catódica fría con intensidad variable (controlada
por software).
- Sensor: Cámara CCD con objetivo de focal fija y resolución 1024x1024.
- Ordenador e interfaz: Software de control bajo entorno Windows.
- Sistema óptico: Rango de ampliación de 16.5 a 1, con zoom en los 2 ejes.
- Resolución espacial: Variable de forma continua con incrementos de 0.1µm
entre 7.5 µm y 210µm (3400 ppp a 120 ppp).
- Precisión geométrica: 1/3 pixel RMS (RMS de 2.5 µm a resolución de
7.5µm).
- Resolución espectral: Digitalización a 24 bits (color real) o a 8 bits (256 tonos
de gris).
- Uniformidad radiométrica: 2 niveles de gris RMS (modo intensidad).
- Formato: 254x508mm con un ángulo de campo máximo instantáneo de
120x120mm.
- Dimensiones y peso: 750 mm x 585 mm x 830 mm; 77 kg.
- Condiciones ambientales de trabajo: Es un equipo que se adapta al entorno de
una oficina normal sin requerir ninguna instalación especial, aunque se debe
cuidar su limpieza y que no exista polvo ni particulas en el ambiente.
- Software de calibración: Ajuste del tamaño de pixel, Enfoque automático,
Autoposicionamiento, Autocalibración para el ajuste de gris.
204 SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS
Fig.A3.6. Escáner Vexcel UltraScan 5000. Izq.: Vista general del escáner, Der.: Sistema de digitalización
mediante rollo (Vexcel Imaging GmbH, 2000).
Fig.A3.8. Escáner DeltaScan. Izq.: Vista general; Der.: Detalle del interior (Geosystem, 2000)
REFERENCIAS BIBLIOGRÁFICAS
Ackermann,F. (1990). MOMS2000 -eine Strategie Skizze zur zukünftigen optischen Erderkundung aus
dem Weltraum. Univ. Hannover. 79-89.
Ackermann,F. et al.(1990). MOMS-02 a multispectral stereo imager for the second German Spacelab
mission D2. IAPRS, 28(1), 110-116.
Aguttes,J.P. (1990). Capatibilities of a new radar system based on advanced sensor technologies. IAPRS,
28(1a), 1-9.
Ahearn, F.J. et al (1990). A review of remote sensing for tropical forest management to define possible
Radarsat contributions. IAPRS, 28(1), 30-39.
Agfa-Gevaert, Ltd., INFO (1986). Technical Information on Aviophot Pan 200PE and on Aviophot Pan
150PE.
ASPRS/ASCE (1994). Glossary of Mapping Sciences. Bethesda USA, 581 p.
Atkinson, K.B. (1996). Close Range Photogrammetry and Machine Vision. Whittes Publishing, Londres,
372 p.
Baltsavias, E.P. (1991). Multiphoto Geometrically Constrained Matching. Tesis Doctoral. Institute of
Geodesy and Photogrammetry, ETH Zurich, Mitteilungen 49, 221 p.
Baltsavias, E.P. (1996). The Agfa Horizon Scanner. Characteristics, Testing and Evaluation. IAPRS, 30,
I/5. Viena.
Baltsavias, E.P. (1998). Photogrammetric Scanners - Survey, Technological developments and
requirements. IAPRS, 32, 1, 44-52.
Baltsavias, E.P. y Bill, R. (1994) Scanners - a survey of curreent technology and future needs. IAPRS, 30,
1, 130-143.
Baltsavias, E.P. y Waegli, B. (1996). Quality Analysis and Calibration of DTP Scanners. ISPRS
Commision I, Working Group 5. XXX Int. Congress Photogrammetry and Remote Sensing. Viena.
Baltsavias, E.P.; Haering, S.; Kersten, T. y Dam, A. (1998). Geometric and Radiometric Evaluation of the
DSW300 roll film scanner. ISPRS Journal of Photogrammetry and Remote Sensing, 53 (4), 217-234.
Bercha,F.G. y Dechka, J.A.(1990). Airborne digital data acquisition techniques. IAPRS, 28(1), 30-39.
Bethel,J.S. (1995). Geometric alignement and calibration of a photogrammetric image scanner. ISPRS
Journal of Photogrammetry and Remote Sensing, 50(2), 37-42.
Beyer, H.A. (1992a). Accurate Calibration of CCD Cameras. IEEE Computer Society Conference on
Computer Vision & Pattern Recognition 1992 (CVPR92). Champaign, Illinois, Junio 1992, 96-101.
Beyer, H.A. (1992b). Advances in Characterisation and Calibration of Digital Imaging Systems. IAPRS,
29(B5), 545-555.
Beyer, H.A. (1992c). Geometric and Radiometric Analysis of a CCD-Camera Based Phoogrammetric
Close-Range System. Tesis Doctoral. Institute of Geodesy and Photogrammetry, ETH Zurisch,
Mitteilungen, 51, 186 p.
Beyer,H.A. (1995). Digital photogrammetry in industrial applications. IAPRS, 30(5W1), 373-375.
Blouke, M.M. (1995). Charge-coupled devices meet as the test as X-ray detectors. Photonic Spectra,
Nov.1995, 118-120.
Blouke, M.M.; Heidtmann,D.L.; Corrie,B.; Lust,M.L. y Janesick, J.R. (1985). Large area CCD image
sensors for scientific applications. Solid State Imaging Arrays. SPIE 570:82-85.
Burner, A.W.; Snow, W.L.; Goad, W.K. (1985). Close-range photogrammetry with video cameras. Proc.
Technical Papers, 51st American Society of Photogrammetry Annual Meeting, Washington, 62-77.
Chen, L.Ch. Y Lee, L.H. (1990). A systematic approach to digital mapping using SPOT satellite imagery.
Trasnaction of the Chinese Institute of Engineers. Serie D. 2(1): 53-62.
Chen, Y. y Schenk, A.F. (1992). A rigorous calibration method for digital cameras. IAPRS, 29(B-1), 199-
205.
Colvocoresses, A.P.(1979). Proposed parameters for Mapsat. Photogramm.Eng., 45:501-506.
Dam, A. (1994). Results using the Kodak 2000x2000 matrix CCD camera for photogrammetric film
scanning. En: Proceedings OEEPE-ISPRS Joint Workshop on the Analysis of Photo-Scanners,
Lausanne, Suiza.
Dahm, W. et al (1990). Four dimensional laser induced fluorescence measurements of conserved scalar
mixing in turbulent flows. Proceedings del 51 International Symp. on the Application of the Laser
Techniques in Fluid Mechanics, Lisboa, Julio 9-12.
Delamere, W.A.; Ebben, T.; Murata-Seawalt,D.; Blouke,M.M.; Reed,R. y Woodgate,B. (1991). The space
telescope imaging spectograph 20482CCD and its characteristics. Charge Coupled Deviced and Solid
State Optical Sensors II, SPIE 1447: 288-297.
210 SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS
Delgado,J. y Cardenal, J. (1999). Calibración del escáner Agfa Horizon Plus de los Servicios Técnicos de
Apoyo a la Investigación de la Universidad de Jaén. Inédito.
Dowman,I. (1992). A digital workstation for SAR data. ISPRS Journal of Photogrammetry and Remote
Sensing. 51.
Ebner,H. et al (1990). A simulation study on point determination using MOMS-02/D2 imagery. IAPRS,
28(1), 21-29.
Eckardt, A.; Braunecker, B. y Sandau, R. (2000). Performance of the imaging system in the LH Systems
ADS40 Airborne Digital Sensor. IAPRS, 33, B1, 104-109.
Fraser, C.S. y Shortis, M.R. (1995). Metric exploitation of still video imagery. Photogrammetric Record,
15(85), 107-122.
Fraser,C.S.; Shortis, M.R. y Ganci,G. (1995). Multi-sensor system self-calibration. Videometrics IV. SPIE
2598: 2-15.
Fricker,P.(1998). Digital Airborne Photogrammetric Cameras -a balance between spatial and spectral
resolution. Inédito.
Fricker, P.; Sandau , R. y Walker, A.S. (1999a). LH System=s Airborne Digital Sensor - a new forward-
looking approach-. ISPRS WG III/1 Workshop ADirect vs. Indirect Methods of Sensor Orientation@.
Barcelona, 25-26 Nov. 10 pág.
Fricker, P.; Sandau, R. y Walker, A.S. (1999b). Development of an Airborne Digital Sensor for
Photogrammetric and Remote Sensing Applications. Información de la compañía.
Geosystems (2000,2003). Página web de la compañía. (http://www.vinnitsa.com/geo)
Gruber, M.; Leberl, F.W. y Thallinger, G. (1998). Novel high-precision photogrammetric scanning.
Proceedings of GIS/LIS=98. Ft. Worth, Texas, USA.
Gruen, A. (1985). Adaptative least squares correlation: a powerful image matching technique.
S.Afr.J.Photogramm., Remote Sensing Cartogr. 14(3), 175-187.
Gruen,A.; Maas,H.G. y Keller, A. (1995). Kodak DCS200 a camera for high accuracy measurements?
Videometrics IV. SPIE 2598: 52-59.
Hall, J.A. (1977). Can solid-state imaging devices replace television camera tube? Optical Engineering,
16(3), 224-232.
Hartl,P. (1989). Remote Sensing and Satellite Navigation: Complementary Tools of Space Technology.
Photogrammetric Record, 13(74), 263-275.
Hinz, A. (1999). The Z/I Imaging Digital Aerial Camera System. En: Fritsch, D. y Spiller, R.,
Photogrammetric Week=99, Wichmann, Heidelberg, Alemania.
Hinz, A.; Dörstel, C. y Heier, H. (2000). Digital Modular Camera: System Concept and Data Processing
Workflow. IAPRS, 33, B2, 164-171.
Hoffman, O. y Náve, P. (1994). DPS- A Digital Photogrammetric System for Producing Digital Elevation
Models and Orthophotos by Means of Linear Array Scanner Imagery. PE&RS, 50(8), 1135.
Höflinger, W. y Beyer, H.A. (1993). Evaluation of the geometric perfomance of a standard S-VHS
camcorder. Videometrics II, SPIE 2067: 104-114.
Im, E. (1990). System concepts for high-resolution land and ice topographic mapping altimeters. IAPRS,
28(1), 88-91.
Jacobsen,K. (1990). Cartographic Potential of Space Images. IAPRS, 28(2), Techn.Univ Dresden,
Germany, 127-134.
James, D. (1992). Integrating EO Capabilities into Existing Film Recce Systems. Proc. of the Int. Soc. for
Optical Engineering, Airbone Reconnaissance XVI, SPIE, 1763: 139-150.
Janesick, J.R. y Hynecek,J. y Blouke,M.M. (1981). Virtual phase imager for Galileo. Solid State Imagers
for Astronomy. SPIE 290: 165-173.
Janesick, J.R. y Blouke, M.M. (1987). Sky on a chip: the fabulous CCD. Sky and Telescope, 74(3), 238-
242.
Janesick, J.R.; Elliott, T.; Dingizian, A.; Bredthauer, R.; Chandler, C.; Westphal, J. Y Gunn, J. (1990). New
advancements in charge-coupled device technology -sub-electron noise and 4096x4096 píxeles CCD.
Charge-Coupled Devices and Solid State Optical Sensors. SPIE 1242: 223-237.
Johnson,H. (1990). High Speed Solid State Camera Systems for Digital Photogrammetry. Videography and
Photonics Working Group of SPIE. OE Reports Octubre 1990.
Klaasen,K.P.; Clary, M.C. y Janesick, J.R. (1984). Charge-coupled device television camera for NASA=s
Galileo mission to Jupiter. Optical Engineering, 23(3), 334-342.
Kersten,J.P. y Maas, H.G. (1994). Digital high resolution still video camera versus film-based camera in
photogrammetric industrial metrology. IAPRS, 30(4), 114-121.
King, D.; Walsh, P. y Ciuffreda, F. (1994). Airborne Digital Frame Camera Imaging for Elevation
FOTOGRAMETRÍA DIGITAL 211
Tempelmann, U.; Börner, A.; Chaplin, B.; Hinsken, L.; Mykhalevych, B.; Miller, S.; Recke, U.; Reulke, R.;
Uebbing, R. (2000). Photogrammetric software for the LH Systems ADS40 Airborne Digital Sensor.
IAPRS, 33, B2, 552-559.
Trinder, J. (1987). Measurements in Digitised Hardcopy Images. PE&RS, 53(3), 315-321.
Trinder, J. (1989). Precision of Digital Target Location. PE&RS, 55(6), 883-886.
Thomson (1988). The CCD Image Sensor. Publicación de la marca Thomson CMS, ref.n1 DB2-CCD-1288.
Vexcel Imaging GmbH (2000). Información de la compañía.
Vexcel Imaging GmbH (2003). Información de la compañía.
Vexcel Imaging GmbH (2003). Página web de la compañía (http://www.vexcel.co.at)
Vieth, C. (1974). Messverfahren der Photographie. R. Oldenbourg Verlag, Munchen-Wien. Focal Press,
London-New York, 108-128.
Walker, A.S. (2000). LH=s Systems forthcoming airborne digital sensor. Información de la compañía.
ZI Imaging (2000). Página web de la compañía. (http://www.zi-imaging.com)
ZI Imaging (2003). Página web de la compañía (http://www.zi-imaging.com)
213
214 PREPROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS
Fig.4.1. Dispositivos de almacenamiento de información: a) Batería de discos duros con capacidad total de
45Gb, b) Disco óptico multifunción de 1.3Gb, c) Sistemas de discos ópticos múltiples de 16 y 144 discos,
d) a f) Sistemas de backup de cinta múltiple
torno a 120.000€, sin ninguna capacidad RAID (en el caso de que se incorpore algún
sistema RAID el precio podría ser el doble). Este desembolso inicial es complicado de
justificar, además es necesario tener en cuenta los elevados costes de mantenimiento
de un sistema de este tipo y el corto ciclo de vida de un disco duro, junto con el
problema en bloque de la producción en caso de avería en el disco.
El sistema de almacenamiento jerárquico de datos (HSM) es una tecnología
comúnmente utilizada para el almacenamiento de datos en entornos de servidores. En
este tipo, los sistemas de almacenamiento se dividen en 2 ó más niveles. Cada nivel
juega un papel de memoria caché para el siguiente nivel. Es decir, el dispositivo está
compuesto por diferentes unidades de almacenamiento, diferencias que estriban en la
velocidad de acceso y, por tanto, en el coste del mismo (€/Mb), mediante un proceso
transparente al usuario, el sistema automáticamente desplaza los ficheros de una
unidad a otra en función de un criterio predeterminado (basado en la frecuencia de
acceso), cuando el fichero es desplazado en su lugar se almacena un fichero de
referencia de un tamaño mucho menor que va indicar el lugar al cual se ha desplazado
el fichero original (stub file), cuando el sistema intenta acceder a algún fichero situado
en un nivel bajo automáticamente se le traslada al nivel superior (más rápido). El
coste de un sistema HSM compuesto de un disco duro múltiple de 420Gb y un
sistema de cintas automatizado de 1.6Tb incluyendo el software es inferior a
150.000€.
La última opción de digitalización-procesado-borrado es una solución que cada
vez es más viable teniendo en cuenta que cada vez los escáneres son más rápidos, así
se puede digitalizar una fotografía de 23x23cm con un tamaño de 12.5µm en un
tiempo aproximado de 5 minutos (tiempo en un escáner lento puede llegar a ser 1
hora). Los tres principales inconvenientes de esta opción son que los escáneres
rápidos son todavía sistemas muy caros; por otro lado, se requiere el traslado de las
imágenes desde el sistema de digitalización al sistema de procesamiento
fotogramétrico y por último, esta opción requiere repetir ciertos procesos (orientación
interna, por ejemplo).
Otro aspecto necesario en el proceso fotogramétrico es el archivo de resultados.
Los discos magnetoópticos, los CD-R (DVD-R, DVD+R) y las cintas de backup son
los sistemas más frecuentemente empleados. Un disco óptico de lectura/escritura tiene
una capacidad de 1.3Gb, la unidad de lectura tiene un coste de 450€ y el coste de un
disco virgen es de 30€. Un sistema de grabación de CD-ROM tiene un precio
habitualmente inferior a 200€ y el coste de un CD-ROM virgen es de unos 0.60€. Sin
embargo, el inconveniente más grave que presentan es su capacidad limitada (la
capacidad máxima de un DVD es actualmente de 4.2Gb, cifra que en muchas
ocasiones es insuficiente para el almacenamiento de la información generada en un
proyecto fotogramétrico). Las cintas tipo DAT ó DLT son otro sistema muy popular
de almacenamiento de información, el coste de la unidad está en torno a 18.000€ y el
coste de una cinta en torno a 12€.
Otro problema adicional planteado es la salvaguarda de la información generada,
así se plantea que en un futuro los clásicos almacenes de fotogramas con temperatura
y humedad controladas pasarán a convertirse en archivos de imágenes digitales. La
220 PREPROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS
donde p(gi) es la probabilidad de aparición de cada valor de gris, que se obtiene del
histograma de la imagen. Si el histograma siguiera una distribución uniforme la
entropía tomaría un valor máximo en Hmáx = log2 M, donde M es el número de niveles
digitales. Puesto que las imágenes reales no siguen distribuciones de probabilidad
uniformes, la redundancia R se define como R = log2 M - H (Lynch, 1985).
En la Tabla 4.2 se muestran valores de entropía y redundancia tomados de Novak
y Shanin (1996).
Tabla 4.2. Entropías y Redundancias de imágenes fotogramétricas (en bits/pixel)
Bits/pixel Imagen Aérea Imagen Terrestre (Carretera) Imagen Marca (Target)
Entropía 5.79 3.36 2.75
Redundancia 2.21 4.64 5.25
ABCDDDDDDDDEEEEEEEEE ABC+8D+9E
Longitud: 20 bytes Longitud: 9 bytes
El inconveniente de este método es que emplea 3 valores para cada cadena si bien
tiene la importante ventaja de su flexibilidad para la compresión de imágenes que
presenten zonas homogéneas y heterogéneas.
El método de compresión RLE es utilizado por diversos formatos además del
anteriormente mencionado MacPaint, así se emplea por PCX, GEM, TIFF y TGA (ver
anexo 4.2).
4.2.1.2. Compresión Huffman
Este método de compresión se puede considerar como un estándar debido a su
amplia utilización desde su publicación en 1952 (Huffman, 1952) hasta
aproximadamente finales de la década de los 70. El método se basa en el empleo de
códigos de longitud variable que sustituyen a los valores originales de la imagen. La
longitud del código de codificación es inversamente proporcional a la frecuencia de
aparición del dato en la imagen digital. En realidad la filosofía del método ha sido
empleada con anterioridad en otros lenguajes cifrados, así por ejemplo, en lenguaje
Morse la longitud de cada carácter es proporcional a la frecuencia de aparición del
mismo, así por ejemplo, el carácter E, considerado como de muy frecuente aparición,
es codificado como . , mientras que el carácter Q de menor frecuencia viene
codificado por - - . - .
Los códigos Huffman son calculados a partir del análisis de los datos de la imagen
original y asignando códigos de menor longitud a los datos más frecuentes, siendo el
objetivo la reducción del número medio de bits por carácter empleado para la
codificación.
Así si se considera el siguiente párrafo:
AÉsta era la inscripción que había en la puerta de cristal de una tiendecita, pero
naturalmente sólo se veía así cuando se miraba a la calle, a través del cristal, desde el
interior en penumbra.@ (La historia interminable, Michael Ende)
y se realiza el histograma de frecuencias de los diferentes códigos (caracteres) se
observa como el símbolo más frecuente es el espacio con 34 apariciones, seguido de
las vocales a (24 veces) y la e (22 veces), símbolos que deben recibir códigos de
longitud menor para optimizar la longitud del fichero comprimido, mientras que los
símbolos h, q, É y é, sólo aparecen 1 vez, con lo cual se les debe asignar una longitud
mayor. En la Tabla 4.3 se presentan los diferentes símbolos, su frecuencia absoluta de
aparición, así como el código asignado y la longitud del mismo.
Los símbolos de mayor frecuencia de aparición son el espacio (34 apariciones) y
las vocales a (24 apariciones) y e (22 apariciones) que reciben los códigos Huffman
más cortos (longitud igual a 3). La utilización de dicha tabla de codificación es muy
simple así, por ejemplo, la palabra cristal vendrá codificada por:
Palabra separada por letras: c - r - i - s - t - a – l
Códigos de cada letra: 00101 - 0110 - 1110 - 1100 - 1101 - 010 - 1010
224 PREPROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS
Frecuencia Relativa (% )
20
15
10
0
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
Número Digital
ND Prob. Cód 1 2 3 4 5 6 7 8 9 10 11 12 13 14
7 0.1474 001 001 001 001 001 001 001 001 000 11 10 01 00 1 0
8 0.1420 010 010 010 010 010 010 010 010 001 000 11 10 01 00 1
6 0.1264 011 011 011 011 011 011 011 011 010 001 000 11 10 01
9 0.1196 100 100 100 100 100 100 100 100 011 010 001 000 11
10 0.1066 110 110 110 110 110 110 110 101 100 011 010 001
5 0.0884 0000 0000 0000 0000 0000 0000 111 110 101 100 011
11 0.0608 1010 1010 1010 1010 1010 0001 0000 111 110 101
4 0.0524 1011 1011 1011 1011 1011 1010 0001 0000 111
0 0.0395 1111 1111 1111 1111 1110 1011 1010 0001
3 0.0339 00010 00010 00010 00010 1111 1110 1011
2 0.0241 11101 11101 11100 00011 00010 1111
1 0.0183 000110 000110 11101 11100 00011
12 0.0142 000111 000111 000110 11101
13 0.0128 111001 111000 000111
14 0.0110 1110000 111001
15 0.0025 1110001
0.40 0.385
0.3 0.3769
4 0.39 4 4 0.3767 4
0.2
0.380
0.1 0.38 0.3765
5 5 5 5
0.0 0.37 0.3763 0.37630
Fig. 4.6. Procedimiento de codificación aritmética (Press et al., 1994)
a) La transformación DCT
El primer paso de la compresión JPEG consiste en la división de la imagen en
porciones de tamaño 8x8 píxeles (tiles), que se procesan de izquierda a derecha y de
arriba abajo, modificando sus niveles digitales al restarle el valor 2n-1, es decir, 128
para las imágenes usuales de 256 tonos de gris -n=8 bits-). En la Tabla 4.4.izq se
muestra los niveles digitales de una porción de 8x8 píxeles correspondiente a una
imagen real y en la Tabla 4.4.der el resultado de restarle a la porción el valor de 2n-1
(128).
Tabla 4.4. Transformación JPEG etapa previa. Izq.:Porción de la imagen original; Der.: Valores de la
imagen original desplazados -2n-1
52 55 61 66 70 61 64 73 -76 -73 -67 -62 -58 -67 -64 -55
63 59 66 90 109 85 69 72 -65 -69 -62 -38 -19 -43 -59 -56
62 59 68 113 144 104 66 73 -66 -69 -60 -15 16 -24 -62 -55
63 58 71 122 154 106 70 69 -65 -70 -57 -6 26 -22 -58 -59
67 61 68 104 126 88 68 70 -61 -67 -60 -24 -2 -40 -60 -58
79 65 60 70 77 68 58 75 -49 -63 -68 -58 -51 -65 -70 -53
85 71 64 59 55 61 65 83 -43 -57 -64 -69 -73 -67 -63 -45
87 79 69 68 65 76 78 94 -41 -49 -59 -60 -63 -52 -50 -34
⎡ (2 x + 1)uπ ⎤ ⎡ (2 y + 1)vπ ⎤
N −1N −1
C(u , v ) = α(u )α(v ) ∑ ∑ f (x, y)cos⎢⎣ 2 N ⎥⎦
cos ⎢
⎣ 2N ⎦
⎥
x =0y=0
232 PREPROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS
⎡ (2 x + 1)uπ ⎤ ⎡ (2 y + 1)vπ ⎤
N −1N −1
f (x , y ) = ∑ ∑ α(u )α(v )C(u, v)cos⎢⎣ 2 N ⎥⎦
cos ⎢
⎣ 2N ⎦
⎥
x =0y=0
1 2
donde α(u),α(v)= para u,v=0 y para u,v=1, ...,N-1.
N N
Esta es la etapa donde se produce una mayor reducción del tamaño a la vez que la
pérdida de información más importante, reduciendo el número de valores distintos. El
coeficiente superior izquierda es denominado DC, mientras que el resto reciben la
denominación de AC. La cuantificación de los coeficientes AC produce numerosos
ceros, especialmente para las frecuencias más altas. Para aprovechar este hecho, la
matriz bidimensional de coeficientes se transforma en una vector unidimensional
mediante su ordenación en zig-zag (fig.4.8). Esta ordenación ordena los coeficientes
cuantificados en un orden aproximadamente descendente, la mayoría de los
coeficientes de la zona final son ceros.
DC
-26 -3 -6 2 2 0 0 0
1 -2 -4 0 0 0 0 0
-3 1 5 -1 -1 0 0 0
-4 1 2 -1 0 0 0 0
1 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0
Fig.4.8. Ordenación en zig-zag
234 PREPROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS
Catálogo
Imagen Fraccionada
Trazado medio
(
z F ≥ F1−α / 2 voriginal , v comprimida ) o zF ≤
(
1
F1− α / 2 vcomprimida , voriginal )
donde voriginal, vcomprimido son los grados de libertad y F representa el valor de la
distribución F. Los niveles de confianza (1-α/2) en los que la hipótesis H0 puede ser
rechazada se muestran en la Tabla 4.9.
Tabla 4.9. Niveles de confianza de aceptación de la hipótesis de la no existencia de diferencias
significativas en términos de varianza obtenidas mediante el test F
Excelente (1:7) Alta (1:15) Regular (1:66)
80.2% 99.7% 99.9%
Tabla 4.10. Errores cuadráticos medios de las diferencias perpendiculares entre los valores originales y
los de las imágenes comprimidas. Valores de error expresados en píxeles
Imagen (Nivel de compresión) Emax RSME V
Excelente (1:7) 1.00 "0.30 886
Alta (1:15) 1.40 "0.31 878
Regular (1:66) 3.32 "0.65 864
Tabla 4.11. Diferencias entre un conjunto de elementos de la imagen original y las obtenidas de las
imágenes comprimidas
Imagen (Nivel de compresión) Emax RSME V
Excelente (1:7) 0.27 "0.12 99
Alta (1:15) 0.73 "0.18 99
Regular (1:66) 2.76 "0.50 99
Fig.4.11. Ejemplo de JPEG con una tasa de compresión alta (Lizard Tech, 1997)
Cuantización 3 bit
512x512
Cuantización 1 bit
1024x1024
IMAGEN ORIGINAL
Fig.4.12. Esquema de la compresión HPC
Fig.4.13. Imagen Original e Imagen del nivel superior obtenida mediante HPC
se toma k=0). Burt y Adelson (1983) proponen una función ponderadora gausiana,
equivalente a un filtro de paso bajo, para eliminar las correlaciones píxel a píxel
cuando se realiza la estimación de Gk+1(i,j) a partir de Gk(i,j).
La reducción nivel a nivel se realiza mediante la aplicación de la expresión:
2 2
G k (i, j) = ∑ ∑ w (m, n )G k −1 (m + 2i, n + 2 j)
m = −2 n = −2
donde w(m,n) es una función ponderadora gausiana la cual se puede generar mediante
la ecuación w(m,n)=f(m) f(n), siendo f(m) una función normalizada y simétrica
definida por:
2
∑ f (m) = 1 f (m ) = f (− m ) m = 0, 1, 2
m = −2
Una de las funciones que satisface las condiciones anteriores es (Burt y Adelson,
1983):
f(0)=c f(-1)=f(1)= 1/4 f(-2)=f(2)=(1/4) - (c/2)
donde c es una constante y puede ser ajustada a objeto de minimizar la entropía y
varianza de las imágenes laplacianas.
Si la dimensión de Gk--1(i,j) es 2M x 2 N y la de Gk (i,j) es 2M-1+1 x 2N-1+1, es decir,
la resolución en el nivel k se reduce siempre del nivel k al k-1 en una relación de 2 en
cada dimensión. Las imágenes resultantes se ordenan en una pirámide que se
denomina gausiana, representando el nivel de mayor resolución la base, pudiendo
pasar de una imagen de menor resolución Gk a una de mayor resolución G=k-1
mediante la aplicación del correspondiente estimador:
2 2
⎡⎛ i + m ⎞ ⎛ j + n ⎞⎤
G 'k (i, j) = 4 ∑ ∑ w (m, n )G k +1 ⎢⎣⎜⎝ ⎟, ⎜ ⎟⎥
m = −2 n = −2
2 ⎠ ⎝ 2 ⎠⎦
donde sólo los píxeles que han que las expresiones entre corchetes sean enteros son
utilizadas para la suma. La imagen diferencia es denominada imagen laplaciana y
viene definida por:
Lk(i,j) = Gk(i,j) - G=k(i,j)
donde Lk(i,j) también es denominado como error de predicción, que suele tener un
rango dinámico pequeño. La codificación de la imagen original es reemplazada por la
codificación de las imágenes laplacianas organizadas como pirámide, existiendo
únicamente el problema de la elección de la constante c. Esta constante se elige de
forma que las diferencias entre las imágenes estimadas y la original (o la
correspondiente del nivel inferior) sean mínimas en términos de varianza y entropía.
Burt y Adelson (1983) indican que un valor óptimo de c es 0.6.
FOTOGRAMETRÍA DIGITAL 241
Sea una imagen con 10 píxeles por línea. Cada línea se compone, a su vez, de cuatro series con diez
datos. Cada una de estas series indica el valor de las componentes roja, azul y verde y la intensidad
Linea 0: Rojo AA AA AA AA AA 55 55 AA AA AA
Azul 00 00 00 00 12 00 00 00 00 00
Verde FF FF FF 43 43 43 43 43 43 43
Intensidad AA AA FE AA AA AA AA AA AA AA
Formato BMP.
Este el formato que utiliza Windows para su fondo de pantalla (wallpaper). Puede
usar un máximo de 24 bits de profundidad de color. Su cabecera describe las
dimensiones y los colores, y el resto del fichero contiene los bytes que definen
propiamente la imagen. Acabada esta cabecera comienza la tabla de definición de
colores. Estos colores se definen por medio de intensidades relativas de cada uno de
los colores fundamentales (RGB), utilizando un byte para cada uno de ellos y otro que
queda reservado.
Parámetro Bytes Significado
biSize 4 Longitud de la cabecera
biWidht 4 Anchura de la imagen en píxeles
biHeight 4 Altura de la imagen en píxeles
biplanos 2 Número de planos (normalmente 1)
biBitCount 2 Número de bits por píxel
biCompression 4 Compresión utilizada (RGB, RLE8 ó RLE4)
biSizeImage 4 Tamaño de la imagen en bytes
biXpelspermeter 4 Resolución horizontal en píxeles/metro
biYpelspermeter 4 Resolución vertical en píxeles/metro
biClrUsed 4 N1 de índices de color (0 = biBitCount)
biClrImportant 4 Número de índices de color que se consideran importantes para la
visualización (0 = todos por igual)
En la parte dedicada a los datos de la imagen aparece, en primer lugar un byte que
indica el número inicial de bits para los códigos LZW de compresión, seguido por los
propios bloques de datos. Estos tiene una longitud entre 0 y 255 bytes, cantidad que
viene dada por el primer byte del sub-bloque. Como final de la secuencia del sub-
bloque se encuentra el valor 0. Tras toda esta información se encuentra un área
opcional denominada Graphic Control Extension, cuyos parámetros son retardo en la
decodificación y espera de entrada por el usuario, características que apenas son
usadas.
El siguiente bloque contiene información que se supone será leída por humanos.
Comienza con un 21 hexadecimal, seguido por FE hexadecimal y los comentarios en
formato ASCII de 7 bits y acaba con un cero. El denominado bloque Trailer finaliza
la descripción del fichero con un 3B hexadecimal.
La compresión LZW, citada anteriormente, es un método de compresión por
códigos de longitud variable, surgido como alternativa al RLE. Es una variación del
algoritmo Lempel-Ziv, por medio del cual se codifican las series o patrones de bits
que se repiten a lo largo del fichero por medio de un número índice, por el que se
sustituye esta serie, permitiendo así un ahorro considerable. Al comenzar la
codificación se fija un número inicial de bits que se pueden utilizar para realizar la
codificación, así si el valor introducido es 3, sólo se podrán introducir 8 patrones o
series (23). En el momento en que esta capacidad se rebase, se aumenta el número de
bits en uno, razón por el que se le denomina código de longitud variable. El proceso
seguido por la codificación LZW es el siguiente: se leen los datos de entrada y se
construye una tabla con códigos con los patrones detectados. Cada vez que aparece
uno nuevo, se incluye en la tabla, y si ya existía se escribe en el fichero de salida el
valor del código asociado. Posteriormente se realiza una segunda compresión, o para
ser más precisos un empaquetamiento, ya que como hemos visto los códigos de
compresión variarán en longitud a partir de un cierto valor que se fija de antemano.
Formato TIF.
El formato TIF nació como una mejora de los PCX ya existentes, y se caracteriza
principalmente por estar orientado al intercambio de ficheros entre diferentes
entornos. Dentro de la estructura del formato TIF se pueden encontrar campos que no
están expresamente definidos en la especificación estándar, pero que pueden ser
utilizados con determinadas aplicaciones ("áreas privadas"). No obstante, la
estructura general de un fichero TIF se puede dividir en tres partes bien diferenciadas:
la cabecera, la IFD (Image File Directory) y la imagen propiamente dicha.
La cabecera se compone tan sólo de 8 bytes. Los bytes 0 y 1 especifican el orden
con que se encuentran almacenados los restantes bytes: si aparece II (4Dh 4Dh)
utilizarán el formato Intel, de menos a más significativos: mientras que si aparece
MM (49h 49h) utilizarán el formato Motorola, de más a menos significativos. Los
bytes 2 y 3 almacenan el número de versión, mientras que del 4 al 7 se guarda el
desplazamiento del primer mapa de imagen o IFD.
Una vez finalizada la cabecera, comienza en la posición apuntada por los bytes 4 a
7 de la misma, la primera zona IFD. Cada zona se compone de secuencias de 12 bytes
FOTOGRAMETRÍA DIGITAL 249
y finaliza con un puntero de 4 bytes hacia la siguiente zona IFD, salvo la última, en la
que estos bytes se rellenan con ceros. La estructura de cada una de estas estructuras de
12 bytes queda reflejada en la siguiente tabla.
Bytes Descripción
0-1 Tag o idenficación del campo
2-3 Tipo de campo, según la siguiente tabla:
1: Byte (8 bits) entero sin signo
2: ASCII (8 bits) código ASCII
3: SHORT (16 bits) entero sin signo
4: LONG (32 bits) entero sin signo
5: RATIONAL (64 bits) dos LONG (numerador y denominador)
4-7 Longitud del dato en las unidades del campo anterior
Si el dato en cuestión ocupa menos de cuatro bytes, para ahorrar espacio se coloca en estos
bytes, en vez del puntero
8-11 Offset del dato señalado por el tag dentro del fichero
Para más detalles acerca de este formato se recomienda la consulta del estándar
del formato TIF publicado por Aldus Corporation (1992) y disponible en
http://www.aldus.com.
Formato GeoTIFF.
A pesar de que el formato TIF es uno de los formatos gráficos más populares para
el almacenamiento de imágenes digitales, presenta un serio inconveniente para su
utilización directa en cartografía, su estándar no contempla la incorporación de
información cartográfica. Este problema ha sido solventado por diversas empresas
(Intergraph, ESRI, Island Graphics, Y), creando etiquetas (tags) propios para
almacenar dicha información, aunque con el problema de la falta de compatibilidad al
ser estructuras propias de cada sistema (private tags).
250 PREPROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS
GTRasterTypeGeoKey = 1 (RasterPixelIsArea)
ProjectedCSTypeGeoKey = 32660 (PCS_WGS84_UTM_zone_60N)
PCSCitationGeoKey = "UTM Zone 60 N with WGS84"
b) Fotografía aérea de la que sólo se conocen varios puntos expresados en grados.
Se trata de una fotografía aérea de la que sólo se conoce la posición de varios
puntos medidos con un GPS y referidos en el sistema WGS84. La esquina superior
izquierda está a 120ºW y 30º20'N y la esquina inferior derecha está a 116º40'W y
30º20'N. La fotografía no está corregida geométricamente.
ModelTiepointTag=( 0.0, 0.0, 0.0, -120.0, 32.0, 0.0,
0.0, 1000.0, 0.0, -120.0, 30.33333, 0.0,
1000.0, 1000.0, 0.0, -116.6666667, 30.33333, 0.0)
GeoKeyDirectoryTag:
GTModelTypeGeoKey = 1 (ModelTypeGeographic)
GTRasterTypeGeoKey = 1 (RasterPixelIsArea)
GeographicTypeGeoKey = 4326 (GCS_WGS_84)
c) Modelo Digital de Elevaciones
El Servicio Cartográfico del Ejército Norteamericano (Defense Mapping Agency -
DMA-) almacena los modelos digitales de elevaciones utilizando una proyección
equirrectangular, de forma que puede ser referida a un sistema de coordenadas
geográficas WGS84. El ejemplo concreto se trata del modelo digital de elevaciones de
una zona boscosa en el que el nivel digital 0 se corresponde a una cota de 1000m
(referido al elipsoide de referencia WGS84) y cuya esquina superior izquierda está
situada a 120ºW, 32ºN, y tiene una tamaño de píxel de 0.2º/píxel en longitud y
0.1º/píxel en latitud.
ModelTiepointTag =(0.0, 0.0, 0.0, -120.0, 32.0, 1000.0)
ModelPíxelescale = (0.2, 0.1, 1.0)
GeoKeyDirectoryTag:
GTModelTypeGeoKey = 2 (ModelTypeGeographic)
GTRasterTypeGeoKey = 2 (RasterPixelIsPoint)
GeographicTypeGeoKey = 4326 (GCS_WGS_84)
VerticalCSTypeGeoKey = 5030 (VertCS_WGS_84_ellipsoid)
VerticalCitationGeoKey = "WGS 84 Ellipsoid"
VerticalUnitsGeoKey = 9001 (Linear_Meter)
Formato TGA
Este es el formato de los ficheros Targa de TrueVision permitiendo el
almacenamiento de imágenes monocromáticas o en color de 24 o 32 bits de
profundidad.
La estructura de la cabecera es la siguiente. El byte 0 contiene la longitud del
campo de identificación de la imagen, que se encuentra después del byte 10 de esta
cabecera. El siguiente byte indica la presencia o ausencia de un mapa de color. A
continuación viene el tipo de imagen (0: no hay datos; 1: mapa de color, sin
252 PREPROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS
compresión; 2: color real, sin compresión; 3: blanco y negro, sin compresión; 9: mapa
de color, codificada RLE; 10: color real con RLE y 11: blanco y negro con RLE).
Los bytes 3 a 7 de la cabecera contienen la especificación del mapa de color. De
estos, 2 bytes señalan el índice de la primera entrada en el mapa; otros 2 indican el
número de entradas y un último byte marca el tamaño de cada definición de color (8,
24 ó 32 bits, normalmente).
El byte 8 y siguientes de la cabecera dan la localización, tamaño y número de
profundidad de color. La posición horizontal de la esquina inferior izquierda requiere
4 bytes (2 para la posición horizontal y otros 2 para la vertical). Análogamente se
requieren otros 4 bytes para señalar la anchura y altura en píxeles de la imagen. A
continuación se encuentra 1 byte que indica la profundidad de color por píxel (8, 16,
24 ó 32 bits, habitualmente).
Para el último byte de la cabecera se analizan los bits por separado. Los dos
primeros (bits 7 y 6) no se utilizan (deben ser 0). Los dos siguientes indican el orden
en el cual los píxeles van a ser transferidos a pantalla (00, inferior izquierda; 01,
inferior derecha; 10, superior izquierda; 11, superior derecha). Los 4 últimos bits
sirven para indicar el número de bits de atributos por píxel.
Tras la cabecera comienzan los datos de la imagen y del mapa de color. La
identificación de la imagen, de longitud variable, determinada por el byte de offset 0
de la cabecera. La longitud del mapa de color viene dada por los campos de número
de entradas de la tabla y por la longitud de cada uno de éstos, en formato RGB. Los
bits sobrantes de los bytes que se tomen se usarán para los datos del canal alfa o canal
de atributos.
La parte de datos de la imagen contiene un número de píxeles igual al producto de
las dimensiones de alto por ancho. Cada píxel se especifica con un número entero de
bytes que puede ser o bien una referencia a un índice del mapa de color o bien una
referencia a un índice del mapa de color o bien los datos para Alfa-Rojo-Verde-Azul.
Esta zona es la que podrá ir codificada por RLE, según lo indique el byte 1 de la
cabecera.
A continuación se encuentra la denominada área del desarrollador, área reservada
por TrueVision para que los desarrolladores incluyan datos para los cuales no se ha
reservado una zona concreta de la especificación del formato. El comienzo de la zona
queda indicada por los bytes 4 a 7 del final de fichero y puede contener a su vez, más
de un campo de desarrollador, por lo que el primer byte de esta zona nos proporciona
el número de entradas en esta área.
Adicionalmente se incluye la denominada área de extensión, zona que fue creada
básicamente para proporcionar mayor información acerca de la imagen, su creador y
el software usado. Comienza en el offset señalado por el primer campo del footer,
contando a partir del comienzo del fichero. Si éste fuera cero, no existe esta área.
En la posición apuntada por los valores de 490-493, se encuentra representado el
mapa de líneas de barrido, que indica las direcciones o desplazamientos en los que se
encuentran los datos de cada una de las líneas. La longitud de este campo es variable,
FOTOGRAMETRÍA DIGITAL 253
4949
002ª
00 00 00 08
00 0B
00FF 0003 00000001 00000001 255-SubFileType 255
0100 0003 00000001 000001CB 256-Image Widht 459 pix
0101 0003 00000001 000001CB 257-Image Lenght 459 pix
0102 0003 00000001 00000008 258-Bits per sample
0106 0003 00000001 00000001 262-Photom Interp. 255=Blanco
0107 0003 00000001 00000001 263-Thresholding
0108 0003 00000001 00000004 264-Cell widht
0109 0003 00000001 00000004 265-Cell lenght
0111 0004 00000001 000000A2 273-Strip Offset Long.Cab: 162
011ª 0005 00000001 00000092 282-Resol.X Refer: 146
011B 0005 00000001 0000009A 283-Resol Y Refer: 154
0000 0000 000000 Bits en 0 hasta posición 146
0007C06F 00001027 Resolución X 508015 / 10000 = 50.8 ppp
0007C06F 00001027 Resolución Y 508015 / 10000 = 50.8 ppp
28(40) 25(37) 25(37) 25(37) 24(36) 33(51)
....
FOTOGRAMETRÍA DIGITAL 255
REFERENCIAS BIBLIOGRÁFICAS
Aldus Corporation (1992). TIFF. Revision 6.0. 123 p.
Burt,P.J. y Adelson, E.H. (1983). The Laplacian pyramid as a compact image code. IEEE Transactions and
Communications. 31(4), 532-540.
González, R.C. y Woods, R.E. (1996). Tratamiento Digital de Imágenes. Ed. Addison-Wesley, Díaz de
Santos, Madrid, 772 p.
Huffman, D.A. (1952). A Method of Construction of Minimum Redundancy Codes. Proc. of the IRE, 1098-
1101.
Lammi,J. y Sarjakoski, T. (1995). Image Compression by the JPEG Algorithm. Photogrammetric
Engineering & Remote Sensing. 61(10), 1261-1266.
Lizard Tech (1997). Mr SID. White Paper. 13 pág. Información de la compañía.
Lynch, T. (1985). Data Compression Techniques and Applications. Lifetime Learning Publications.
Belmont, California.
Mikhail, E.M.; Akey,M.L. y Mitchell, O.R. (1984). Detection and subpixel location of photogrammetric
targets in digital images. Photogrammetria, 39(3), 63-83.
Novak, K. y Shanin, F.S. (1996). A Comparison of two Image Compresion Techniques for Softcopy
Photogrammetry. PE&RS, 62(6), 695-701.
Press, W.H.; Teulosky, S.A.; Vetterling, W.T. y Flannery, B.P. (1994). Numerical Recipes in FORTRAN.
The Art of Scientific Computing. 20 Ed. 905 p.
Rabbani, M. y Jones, P. (1990). Digital Image Compression Techniques. SPIE Optical Engineering Press,
Bellingham, Washington.
Sester, M. (1994). Test on Image Understanding. ISPRS III/3 Working Group. University of Stuttgart.
Storer, J. (1988). Data Compression: Methods and Theory. Computer Science Press. Rockville, Maryland.
Welch, R. (1984). A technique for high-performance data compression. IEEE Computer, 17 (6), 8-19.
Zip,J. y Lempel, A. (1977). An universal algorithm for sequential data compression. IEEE Transactions on
Information Theory. Mayo 1977.
256 PREPROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS
Capítulo 5. Procesamiento de Imágenes
Digitales Fotogramétricas
5.1 Introducción
5.2 Modelos de imágenes digitales
5.3 Operaciones elementales con imágenes digitales
5.4 Operaciones locales en imágenes digitales
5.5 Operadores morfológicos
5.6 Pirámides de imágenes
5.7 Corrección de imágenes
5.8 Transformaciones geométricas
5.9 Segmentación de la imagen
5.1 INTRODUCCIÓN
Bajo la denominación de Procesamiento de Imágenes Digitales se incluyen un
gran número de técnicas que incluyen todas las fases del trabajo con las imágenes
digitales, desde la adquisición hasta la representación de los resultados (imágenes)
finales tanto en formato digital como analógico (técnicas de impresión), pasando por
la transmisión y análisis de las mismas (fig.5.1). El objetivo fundamental de este
procesamiento es la mejora de la calidad visual de las imágenes para facilitar su
interpretación y análisis, tanto por parte del operador como de los sistemas
automatizados. El procesamiento de imágenes digitales puede dividirse en las
siguientes áreas:
- técnicas de adquisición de imágenes: abordan las diferentes formas para la
obtención de imágenes digitales, tanto de una forma directa (objeto a imagen
digital) como mediante la digitalización de imágenes en formato analógico (de
objeto a fotografía analógica y de ésta, a imagen digital). Estas técnicas ya
fueron abordadas en el capítulo 3 de este libro.
- técnicas de almacenamiento y compresión: incluyen las diferentes técnicas
para el almacenamiento de las imágenes digitales así como para su
257
258 PROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS
Digitalización
Realce de Modificación
Rectificación
la imagen valores imagen
Pirámides
Filtrado Transformación
de imágenes
Segmentación Codificación
Extracción
de elementos
Clasificación Visualización
A B C
D E F
Fig.5.2. Imagen digital representada en diferentes resoluciones. A) 322x390 píxeles, B) 161x195 píxeles,
C) 80x98 píxeles, D) 40x49 píxeles, E) 20x24 píxeles, F) 10x12 píxeles
x
Fila
UAG15 Nº6868
v
Columna
Filas
a
ez
ab
C
la
de
en
rg
Vi
c/
Fig.5.5. Imágenes multiespectrales (imágenes en color real). Sup.: Descomposición de la imagen en color
en los canales rojo, verde y azul (RGB); Inf.: Descomposición de la imagen en color en los canales
intensidad, tono y saturación (IHS)
f) Secuencias de imágenes.
Una secuencia de imágenes es un conjunto ordenado de imágenes. Por tanto, son
conjuntos de imágenes a las que se le ha añadido una dimensión más que define el
orden que suele ser el tiempo o el espacio. En la figura 5.6 se muestran un ejemplo de
secuencia de imágenes.
En la figura 5.7 se muestran dos imágenes digitales, así como sus correspondientes
histogramas e histogramas acumulados.
A
B
f p f p f p
0.15 1.0 0.15 1.0 0.15 1.0
Mínimo: 6 Mínimo: 19 Mínimo: 6
Máximo: 255 Máximo: 255 Máximo: 230
Media: 121.02 0.8 Media: 143.47 0.8 Media: 103.21 0.8
Varianza:4992.84 Varianza: 3952.69 Varianza: 3305.10
0.10 0.10 0.10
0.6 0.6 0.6
Fig.5.7. Imagen digital correspondiente a una fotografía aérea en la que se han diferenciado dos partes con
diferente tono. A: Zona con tonos claros; B: Zona con tonos oscuros. En la parte inferior se presentan los
histogramas y estadísticos básicos de la imagen completa y de las zonas A y B, para observar la relación
entre los tonos, la forma de los histogramas (simples y acumulados) y los estadísticos de las imágenes
FOTOGRAMETRÍA DIGITAL 265
Dicha función puede venir definida mediante un tabla como por ejemplo, la
ecualización de los valores g 0 [0,M-1].
M −1
∑ H(i)
m
g' (r ) = M
i =g
M −1
∑ H(i)
m
i =0
A B
C D
Fig 5.8. Ejemplos de aplicación de operaciones elementales para la manipulación de la imagen de la fig 5.7.
a) corrección gamma (a=0, b0[0,1], c>1), b) inversión, c) modificación del contraste mediante la expansión
del intervalo 40-200 a los valores 0 a 255 -aquellos valores con valores fuera de rango son igualados a los
límites-, d) cuantización con 2 valores límites (40 y 200), dando lugar a tres clases (negro, gris y blanco)
Es importante tener en cuenta que la expansión del histograma no tiene porque ser
una función lineal, así, por ejemplo, se puede emplear una función de tipo
logarítmico, que suele dar mejores resultados en cuanto a calidad visual. Esto se debe
a que el ojo humano percibe las diferencias de brillo en la imagen mediante una escala
logarítmica.
La ecualización del histograma es una transformación que pretende obtener a
partir de una imagen digital g1 una imagen resultante g2, con la característica de tener
un histograma uniforme (todas las clases con frecuencias similares). En la práctica es
frecuente no poder obtener un histograma perfectamente uniforme, consiguiéndose
tan sólo un histograma cuasi-uniforme.
Sea h1(x) el histograma de la imagen original y h2(x) el histograma de la imagen
ecualizada, que deberá ser, en la medida de lo posible, uniforme. Si la imagen
contiene un total de N píxeles y existen L niveles digitales posibles, para que el
268 PROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS
histograma sea uniforme debería corresponder a cada nivel digital un número total de
N/L píxeles.
L −1 N
h 2 (y ) =
L L
siendo h1(y) = N / (L-1).
dy
=
d
{f (x )} = L − 1 h1(x )
dx dy N
Este proceso de muestra de una forma gráfica en la figura 5.9. En dicha figura se
representa se muestra el histograma de la imagen original g1 en posición normal,
mientras que el histograma de la imagen resultante g2 se muestra rotado 90º.
La figura 5.10 muestra el efecto de la ecualización sobre una imagen con un débil
contraste así como los histogramas de la imagen original y la resultante. El
histograma de la imagen original tiene un carácter bimodal que se corresponde con los
dos tonos de gris predominantes en la imagen (niveles digitales aproximados 110 y
150) con frecuencias superiores a 0.10, mientras que la imagen resultante estos
máximos aunque se mantienen (el histograma no es uniforme) presentan frecuencias
menores (inferiores a 0.10) y se separan (niveles digitales aproximados 50 y 215). La
calidad de la imagen final mejora facilitando su interpretación, así como su análisis
mediante técnicas automáticas.
h(g1)
g2
h(g2)
g1
Frec.Relativa Frec.Relativa
0.20 0.20
0.15 0.15
0.10 0.10
0.05 0.05
0.00 0.00
0 50 100 150 200 250 0 50 100 150 200 250
Nivel Digital Nivel Digital
g' (r ) = f (g1 (r ), g 2 (r )) = g1 (r ) + g 2 (r )
g ' (r ) = f (g1 (r ), g 2 (r )) = g1 (r ) − g 2 (r )
g' (r ) = f (g1 (r ), g 2 (r )) = g1 (r ) * g 2 (r )
g (r )
g ' (r ) = f (g1 (r ), g 2 (r )) = 1
g 2 (r )
resultante de la operación g=(ro) es una función f que depende de los valores g(ro),
g(r1),..., g(rN) siendo r1,..., rN píxeles situados a una cierta distancia r+∆r. Por tanto, el
resultado no depende sólo del propio valor del píxel sino que también está influido
por los píxeles que le rodean, este tipo de operadores es el más empleado en el
procesamiento de imágenes en Fotogrametría Digital, puesto que, permite el
tratamiento de imágenes que presenten irregularidades tales como ruido.
La función f puede ser:
- una función lineal o no lineal
- una expresión analítica, o explícitamente descrita mediante una tabla de
equivalencia
5.4.1 Operadores lineales
Sea f un operador del tipo g=(r) = f( g(r)). El operador se dice que es lineal si:
g=1(r) = f (a g1(r))
g=2(r) = f (b g2(r)), œ a,b 0 úm, m 0 {1,2,Y}
g=1(r) + g=2(r) = f (a g1(r)) + f (b g2(r)) = f (a g1(r) + b g2(r))
para unas imágenes cualesquiera g1, g2. Una ventaja muy importante de los
operadores lineales es la posibilidad de asignar la respuesta de la función aplicada
sobre una imagen a partir del conocimiento de la respuesta de la función al ser
aplicada a imágenes simples. Los operadores lineales f tienen sólo un campo limitado
de aplicación en comparación con los operadores no lineales. Esencialmente, los
operadores lineales pueden ser clasificados en filtros de paso bajo y paso alto, filtros
de paso de banda y barreras de banda.
5.4.1.1 Aproximación de una función imagen
Una imagen digital puede ser entendida como una función entera definida en un
espacio discreto pero también es posible interpretarla como un conjunto de valores de
una función real en un dominio continuo. El problema surge en la definición de dicha
función, si bien es importante tener en cuenta que una interpolación exacta de la
imagen carece de sentido y además requiere un elevado número de coeficientes (una
imagen de tamaño 5x5 píxeles requiere 25 coeficientes).
En la práctica se trabaja con aproximaciones a la función imagen. La forma más
simple para la aproximación de la función g(r) es la utilización de un desarrollo de
Taylor de orden L:
L n
g ξ,η = a 00 + a10 (f − ξ ) + a 01 (c − η) + ... = ∑ ∑ a n −m,m (f − ξ)n −m (c − η)m
n =0 m =0
∑1 = 1 ∑ k = k ∑ l = l
{u , k}∈U {u , k}∈U {u , k}∈U
⎛ 1 k l k2 kl l 2 ⎞⎟⎛ a 00 ⎞ ⎛ g ⎞
⎜ ⎜ ⎟ ⎜ ⎟
⎜k k 2
kl k 3
k l 2
kl 2 ⎟⎜ a10 ⎟ ⎜ kg ⎟
⎜ ⎟⎜ ⎟ ⎜ ⎟
⎜ l kl kl 2 k 2l kl 2 l3 ⎟⎜ a 01 ⎟ ⎜ lg ⎟
=
⎜k2 k3 k 2l k4 k 3l k 2 l 2 ⎟⎜ a 20 ⎟ ⎜ k g ⎟
2
⎜ 2 2 2 3
⎟⎜ ⎟ ⎜ ⎟
⎜ kl k l k l k l k 2l2 kl3 ⎟⎜ a11 ⎟ ⎜ k lg ⎟
⎜ 2 ⎟⎜ ⎟ ⎜ 2 ⎟
⎝l kl 2 l3 k 2l2 kl3 l 4 ⎠⎝ a 02 ⎠ ⎝ l g ⎠
⎛9 0 0 6 0 6⎞
⎜ ⎟
⎜0 6 0 0 0 0⎟
⎜0 0 6 0 0 0⎟
⎜ ⎟
⎜6 0 0 6 0 4⎟
⎜ ⎟
⎜9 0 0 0 4 0⎟
⎜6 0 0 4 0 6 ⎟⎠
⎝
siendo su matriz inversa:
⎛ 5 1 1⎞
⎜ 0 0 − 0 − ⎟
⎜ 9 3 3⎟
⎜ 0 1
0 0 0 0 ⎟
⎜ 6 ⎟
⎜ 1 ⎟
⎜ 0 0 0 0 0 ⎟
⎜ 6 ⎟
⎜− 1 0 0
1
0 0 ⎟
⎜ 3 2 ⎟
⎜ 1 ⎟
⎜ 0 0 0 0 0 ⎟
⎜ 4 ⎟
⎜⎜ − 1 0 0 4 0
1 ⎟
⎟
⎝ 3 2 ⎠
5 1 1 1⎛ ⎞
a 00 = g − k 2g − l 2 g = ⎜ 5 ∑
g (k , l ) − 3 ∑
k 2g(k , l ) −3 l2g(k , l )⎟ =
∑
9 3 3 ⎜
9 {k ,l∈U} ⎟
⎝ {k ,l∈U} {k ,l∈U} ⎠
∑ ∑( )
1 ⎛⎜ ⎞
1 1
= 5 − 3k 2 − 3l2 g (f − k , c − l )⎟
9 ⎜⎝ k = −1 l = −1 ⎟
⎠
⎡− 1 0 − 1⎤ ⎡ − 1 − 1 − 1⎤
1⎢ ⎥ 1⎢ ⎥
a10 = −1 0 − 1⎥ a 01 = 0 0 0⎥
6⎢ 6⎢
⎢⎣− 1 0 − 1⎥⎦ ⎢⎣ 1 1 1 ⎥⎦
⎡1 − 2 1⎤ ⎡ 1 0 − 1⎤ ⎡1 1 1 ⎤
1⎢ ⎥ 1⎢ ⎥ 1⎢ ⎥
a 20 = ⎢1 − 2 1⎥ a11 = 0 0 0⎥ a 02 = ⎢− 2 − 2 − 2⎥
6 4⎢ 6
⎢⎣1 − 2 1⎥⎦ ⎢⎣− 1 0 1 ⎥⎦ ⎢⎣ 1 1 1 ⎥⎦
En la figura 5.11 se pueden observar los efectos de los diferentes operadores sobre
una imagen.
En la práctica a10 se denomina operador de gradiente en la dirección x, a01
gradiente en la dirección y, a20 operador de laplace en la dirección x y a02 en la
dirección y.
A B C
D E F
Fig. 5.11. Resultados de aplicar los filtros de aproximación a la imagen de la figura 5.7. A) a00 , B) a10 ,
C) a01, D) a20 ,E) a11 , F) a02. l es igual a 2 y la vecindad {k,l}=U es definida por k = {-1,0,-1} y l = {-1,0,-1}
5.4.1.2 Convolución
La convolución es una operación básica en el procesamiento de imágenes y es una
operación básica en la teoría de sistemas lineales. La convolución se representa como
f * g y se define como el producto de la función f y la función que se desplaza g. Este
concepto se representa mediante el resultado del producto de dos imágenes de forma
que una imagen se desplaza sobre la otra. La definición general de la convolución
para n=1 y n=2 es
+∞ +∞ +∞
(f * g )(n ) = ∑ f (r )g(n − r ) (f * g )(n, m ) = ∑ ∑ f (r, c)g(n − r, m − c)
r = −∞ r = −∞ c = −∞
en la que se han suprimido los ceros exteriores. Dicha matriz es conocida como kernel
del filtro.
La convolución a*b de dos funciones a = (2, 1, 3, 1, 1, 1) y b = (1, 2, 1, 2, 1, 2)
estando definidas en el dominio [0,...,5].
5
(a * b )(0) = 1 ∑ a (i )b(− i ) = a (0)b(0) + a (1)b(− 1) + a (2)b(− 2) + a (3)b(− 3) + a (4)b(− 4) + a (5)b(− 5) = 2
6 i =0
5
(a * b )(1) = 1 ∑ a (i )b(1 − i ) = a (0)b(1) + a (1)b(0) + a (2)b(− 1) + a (3)b(− 2) + a (4)b(− 3) + a (5)b(− 4) = 5
6 i =0
M
a * b = (2, 5, 7, 12, 10, 15)
Este kernel de convolución puede ser empleado para el cálculo de la media en una
vecindad de 3x3 y se denomina filtro de media 3x3 y es un tipo de filtro muy
frecuente para el suavizado de imágenes, eliminando los valores poco frecuentes
(fig.5.12).
A B1 B2 B3
Fig.5.12. Influencia del tamaño del kernel en el filtrado de media. A: Imagen original; B1: Tamaño del
kernel 5x5 píxeles; B2: Tamaño del kernel 15x15 píxeles; B3: Tamaño del kernel 25x25 píxeles
denota por la letra B. El filtro binomial en una vecindad de 3x3 viene dado por la
expresión:
⎡1 2 1 ⎤
1 ⎢ ⎥
B(22) = 2 4 2⎥
16 ⎢
⎣⎢1 2 1 ⎥⎦
El indice 2 indica el orden del binomio y el valor (2) la dimensión del kernel. Este
kernel bidimensional puede ser separado en dos kernels unidimensionales:
⎡1 ⎤
( )
B(22) = B(21) * B(21)
T
=
1
4
[1 2 1]* 1 ⎢⎢2⎥⎥ = 1 [1 1]* 1 ⎡⎢ ⎤⎥ * 1 [1 1]
4 2
1
2 ⎣1⎦ 2
⎢⎣1 ⎥⎦
A C1 C2 C3
Fig.5.13. Ejemplos de aplicación del filtro gausiano. A: Imagen original; B1: Imagen filtrada con filtro
gausiano (σ=2); B2: Imagen filtrada con filtro gausiano (σ=4); B3: Imagen filtrada con filtro gausiano
(σ=8). En todos los casos el kernel del filtro es de 25x25 píxeles
⎡− 1 − 2 − 1⎤ ⎡− 1⎤
⎢ ⎥ 1 1⎢ ⎥ 1 1 ⎡1⎤ 1 ⎡− 1⎤ ⎡1⎤
hy = ⎢ 0 0 0 ⎥ = [1 2 1]* ⎢ 0 ⎥ = [1 1]* ⎢ ⎥ * ⎢ ⎥ * ⎢ ⎥
4 2 2 2 ⎣1⎦ 2 ⎣ 1 ⎦ ⎣1⎦
⎢⎣ 1 2 1 ⎥⎦ ⎢⎣ 1 ⎥⎦
5.4.1.5 Correlación
Una operación muy importante en Fotogrametría es la correlación entre dos
imágenes. La correlación puede ser interpretada como una medida de la similitud o
del parecido entre dos imágenes, si existe un desplazamiento entre ambas imágenes,
la correlación establece el vector desplazamiento registrado siendo básico para la
automatización de los procesos de orientación y de generación de modelos digitales
(medida de paralajes).
La expresión general de la correlación para n=1 y n=2 es:
+∞ +∞ +∞
(f ⊗ g )(n ) = ∑ f (n + r )g(l) (f ⊗ g )(n, m ) = ∑ ∑ f (n + r, m + c)g(l, k )
r = −∞ r = −∞ c = −∞
B C
A B
C D
Fig.5.15. Efectos de la aplicación de operadores de orden a una imagen digital (fig.5.7). A: Filtro de la
mediana; B: Filtro de mínimo; Filtro de máximo; D: Filtro de mínimo/máximo adaptativo
280 PROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS
- Filtro de la mediana.
Una de las características fundamentales del filtro de la mediana es que es un filtro
de paso bajo de carácter no lineal. El filtro de la mediana se basa en el cálculo de la
mediana de los píxeles incluidos dentro de la ventana de filtrado (fig.5.16).
178 220 172 120 169 111 220 178 220 172 120 169 111 220
175 255 45 209 253 61 136 175 255 45 209 253 61 136
Pixeles de la
77 20 147 191 189 98 101 ventana ordenados 77 20 147 191 189 98 101
56 26 19 63 169 62 81 19 63 127 131 147 169 189 191 194 56 26 19 147 169 62 81
188 131 194 127 131 29 16 188 131 194 127 131 29 16
Mediana
174 112 118 77 226 221 187 174 112 118 77 226 221 187
150 207 72 195 185 164 52 150 207 72 195 185 164 52
140
Media
120
100
80
Media na
60
Orig inal
40
0 5 10 15 20
Posición
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
Serie Original 52 50 51 47 49 50 49 50 50 49 147 147 151 148 149 146 150 148 147 153
Filtro Media (1x3) 51 49 49 48 49 49 49 49 82 114 148 148 149 147 148 148 148 149
Filtro Mediana (1x3) 51 50 49 49 50 50 50 50 50 147 147 148 149 148 149 148 148 148
Fig.5.17. Ejemplo de aplicación de media y mediana sobre un borde en una imagen digital
⎛ ∂g (r ) / ∂r ⎞
∇g (r ) = ⎜⎜ ⎟⎟
⎝ ∂g (r ) / ∂c ⎠
- Magnitud del gradiente.
El gradiente L de una imagen g(r) es un vector definido por la derivada de G para
todas las posibles direcciones y la magnitud del gradiente │L│ se obtiene mediante la
ecuación:
⎛ ∂g (r ) ⎞ ⎛ ∂g (r ) ⎞
2 2
∇g(r ) = ⎜ ⎟ +⎜ ⎟
⎝ ∂r ⎠ ⎝ ∂c ⎠
Aunque existen otras posibles definiciones entre las que se pueden indicar:
∂g (r ) ∂g (r ) ⎧ ∂g(r ) ∂g (r ) ⎫
∇g(r ) = + ∇g(r ) = máx ⎨ , ⎬
∂r ∂c ⎩ ∂r ∂c ⎭
∇g(r ) = a10
2 2
+ a 01
∂ 2 g(r ) ⎛ ∂g(r ) ⎞ ∂ 2 g (r ) ∂g (r ) ∂g (r ) ∂ 2 g (r ) ⎛ ∂g (r ) ⎞
2 2
− ⋅⎜ ⎟ +2 ⋅ ⋅ − ⋅⎜ ⎟
C= ∂r 2
⎝ ∂c ⎠ ∂r ∂c ∂r ∂c 2 ⎝ ∂r ⎠
⎛ ∂g (r ) ⎞ ⎛ ∂g (r ) ⎞
2 2
⎜ ⎟ +⎜ ⎟
⎝ ∂r ⎠ ⎝ ∂c ⎠
282 PROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS
En el trabajo con imágenes digitales, las derivadas parciales son reemplazadas por
sus aproximaciones correspondientes δg(r)/δr = a10, δg(r)/δc = a01 ,... . Además, la
curvatura resultante es multiplicada por el gradiente debido a que sólo los bordes que
son distinguibles son interesantes. La curvatura final resultante K puede ser calculada
como:
2 2
− a 20a 01 + 2a11a10a 01 − a 02a10
K= 2 2
a10 + a 01
A B C
5.5 MORFOLOGÍA
La morfología matemática es una herramienta general basada en la teoría de
conjuntos (Serra, 1982, 1988; Matheron, 1975; Sternberg, 1986; Haralick et al.,
1987). Esta metodología inicialmente fue aplicada a las imágenes de tipo binario
extendiéndose en la actualidad su aplicación a cualquier tipo de imagen.
A B1 B2
C1 C2
Fig.5.19. Aplicación de los filtros de detección de bordes sobre una imagen digital.
A: Imagen original; B1: Resultado de la aplicación del filtro Sobel; B2: Suma de la imagen original
y el resultado de la aplicación del filtro Sobel; C1: Resultado de la aplicación del filtro Roberts;
C2: Suma de la imagen original y el resultado de la aplicación del filtro Roberts
5.5.1.1. Dilatación
La definición de la dilatación se basa en la suma de Minkowski.
A r B = {x+y : x 0 A, y 0 B} , A, B 0 ún
y es definida por: A r B = {x : A 1 (B + x) … 0}
La propiedad geométrica básica de la dilatación es: A f A r B, y produce en la
parte exterior suavizado y relleno de las pequeñas irregularidades en función del
tamaño de B, produciendo cierre de grietas.
5.5.1.2. Erosión
La definición de la erosión se basa en la resta de Minkowski.
A s B = (Ac r B)c
y es definida por A s B = {x : (B + x) f A}
La propiedad geométrica básica de la erosión es: A g A s B, y produce suavizado
en las zonas interiores y puede originar la desaparición de pequeñas partes.
La dilatación y la erosión no son operaciones inversas. La dilatación y la erosión
son invariantes por traslación, pero generalmente no son lineales al ser operadores de
orden de carácter especial. Las propiedades básicas son:
284 PROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS
A s B = (Ac r B)c
(A s B)c = Ac r B
Ac s B = (A r B)c
(Ac s B)c = A r B
5.5.1.3. Cierre
Es una operación que consiste en la aplicación de una forma sucesiva de dilatación
y erosión. El cierre viene definido por:
A C B = (A r B) s B
y produce suavizado con cierre de grietas y huecos orientados hacia el exterior y
elimina huecos y crestas del interior.
5.5.1.4. Apertura
Es una operación que consiste en la aplicación de una forma sucesiva de erosión y
dilatación. La apertura viene definida por:
A B B = (A s B) r B
A B
C D E F
Fig.5.21. Efecto de la aplicación de las operaciones morfológicas básicas a una imagen binaria obtenida a
partir de una fotografía aérea. A: Imagen original; B: Imagen binaria; C: Imagen sometida al operador de
dilatación; D: Imagen sometida al operador de erosión, E: Imagen sometida al operador de cierre; F:
Imagen sometida al operador de apertura. Tamaño del elemento estructural del operador = 3x3 píxeles
Por último, las operaciones de apertura y cierre se definen de la misma forma que
cuando se trabaja con imágenes binarias y consisten en la aplicación de una operación
sucesiva de dilatación y erosión o erosión y dilatación, respectivamente.
Los efectos de las operaciones de morfología matemática sobre una imagen en
tonos de gris se muestran en la figura 5.22.
286 PROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS
B C D E
Nivel Digital Nivel Digital Nivel Digital Nivel Digital
180 180 180 180
90 90 90 90
60 60 60 60
30 30 30 30
0 0 0 0
0 20 40 60 80 100 120 0 20 40 60 80 100 120 0 20 40 60 80 100 120 0 20 40 60 80 100 120
Columna Columna Columna Columna
Fig.5.22. Efectos de la aplicación de las operaciones morfológicas básicas a una imagen en tonos de gris.
A: Imagen original; B: Imagen sometida al operador de dilatación; C: Imagen sometida al operador de
erosión, D: Imagen sometida al operador de cierre; E: Imagen sometida al operador de apertura. En todos
los casos el elemento estructural del operador es una ventana 3x3 píxeles. En la parte inferior de la figura se
muestra un perfil de los niveles digitales de las diferentes imágenes correspondiente a la fila 56
(2 )
β/2 α β/2
I
(1 )
I
(0 )
I
Fig.5.23. Representación gráfica de la generación de una pirámide gausiana (Faber, 1998)
Es importante tener en cuenta que las operaciones lineales entre las imágenes sólo
son posibles si las imágenes que intervienen tienen las mismas dimensiones. Así, no
es posible el cálculo de la diferencia entre dos imágenes de diferente nivel de la
pirámide, siendo necesario, el remuestreo de la pirámide del nivel superior,
duplicando sus filas y columnas. Las técnicas más habituales de remuestreo son: el
vecino más próximo, la interpolación bilineal y la convolución bicúbica que serán
analizados con detalle en el apartado 5.8.
288 PROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS
- - -
Eliason y McEwen (1990) distinguen dos tipos de ruido, por un lado, el ruido que
produce que un píxel no tenga ningún parecido con los que le rodean produciendo el
efecto conocido como "sal y pimienta" (salt and pepper) y, por otro lado, los píxeles
cuyo nivel digital tiene relación con su entorno pero que ha sufrido algún tipo de
modificación en su número digital.
Las técnicas de eliminación del ruido en las imágenes digitales se basan en la
hipótesis de la coherencia de la misma, es decir, que los píxeles adyacentes estén
correlacionados. Partiendo de este hecho, la eliminación del ruido requiere un análisis
conceptual que asigna al píxel con ruido un nuevo valor digital como una función de
su vecindad.
La detección del ruido puede ser realizada por la comparación del número digital
del píxel con un valor que se considera representativo del entorno, estableciendo
posteriormente si la diferencia obtenida se puede considerar aceptable o no.
Schowengert (1983) sugiere que un píxel se puede considerar que tiene ruido si la
diferencia entre su número digital y la media de los valores de los píxeles vecinos
supera un determinado valor fijado por el usuario, si esto sucede el píxel con ruido es
sustituido por un valor promediado (la media, la mediana, Y).
d 2(i )
p(f (i )) = 0 si T <
varf (x )
− t (n −1, a ) =
(f (i ) − m(x )) < t
(n −1, a )
VAR (x )
d 2(i ) ⎡ d 2(i ) ⎤
p(f (i )) = 0 si T <
var(x )
siendo d 2(i ) = (f (i ) − m(x ))2 y L = ∑ ⎢⎣T − var(x )⎥⎦
Estimándose la media y la varianza a partir de los valores digitales de los píxeles
incluidos dentro de la ventana.
El criterio selectivo del filtro propuesto por Eliason y McEwen (1990) puede ser
considerado como un caso particular que adopta una función de pertenencia no lógica:
el usuario predefine el intervalo, si la diferencia es menor que el intervalo definido la
función de pertenencia es igual a 1, en caso contrario, 0.
Este filtro propuesto por Silva y Haertel (1995) ha sido comparado tanto con
filtros lineales clásicos como con el filtro de Eliason y McEwen, observándose en
todos los casos que la detección y eliminación del ruido ha sido totalmente
292 PROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS
donde C es el número total de columnas, fm(i), fm(i+1) es el nivel digital medio de las
filas i e i+1, respectivamente.
El coeficiente de correlación se obtiene mediante la normalización de las
covarianzas.
r (i, i + 1)
ρ(i, i + 1) =
r (i, i ) r (i + 1, i + 1)
A B
r
1.00
0.95
0.90
Fila: 38
r=0.8962 Fila: 93 Fila: 168
C r=0.8791 r=0.8869
0.85
0 30 60 90 120 150 180
Fila
Fig.5.25. A: Imagen digital en la que aparecen tres filas erróneas; B: Imagen corregida mediante la
sustitución de las filas erróneas detectadas mediante correlación por los valores medios de las filas
adyacentes; C: Representación de los valores del coeficiente de correlación entre filas
Las transformaciones geométricas son muy frecuentes en Fotogrametría Digital,
aplicándose, por ejemplo, en:
- tras la orientación interna, con el objeto de hacer paralelo y ajustar en escala el
sistema de coordenadas imagen al sistema de fotocoordenadas.
- tras la orientación relativa, con el objeto de situar los pares de fotogramas en
una posición normalizada (ver capítulo 6). En esta posición, las líneas
epipolares coinciden con las filas y los puntos homólogos están situados sobre
la misma fila en las dos imágenes.
- las transformaciones geométricas son básicas en proceso fundamentales en la
Fotogrametría Digital como la generación de fotografías rectificadas o la
generación de ortofotografías (rectificación diferencial).
- la generación de perspectivas realísticas requiere la superposición de las
imágenes sobre los modelos digitales del terreno. Esta superposición requiere
la transformación geométrica de la imagen para ajustarla a la nueva posición
del sistema de coordenadas y del punto de vista.
Existen diferentes modelos matemáticos para establecer la relación entre dos
imágenes, o entre una imagen y el espacio objeto. Una transformación geométrica se
puede considerar como el resultado de aplicar una expresión del tipo x== S R x + t a
una imagen digital, donde x es la posición del pixel en la imagen original, x= es la
posición transformada del pixel que ocupaba la posición x, S es la matriz de escala, R
FOTOGRAMETRÍA DIGITAL 295
α
f
Fig. 5.26. Rotación de una imagen digital. Izq: Imagen original definida en el sistema de coordenadas f,c;
Der: Imagen rotada (de mayor tamaño que la imagen original)
Fig. 5.27. Ejemplo de rotación de una imagen digital. Izq: Imagen original (tamaño 1000x1000 píxeles);
Der: Imagen rotada 151 (tamaño de la imagen rotada: 1225x1125 píxeles, ángulo de rotación: 151)
5.8.2 Remuestreo
Como se indicó en el inicio de este apartado, las transformaciones geométricas
296 PROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS
Fig. 5.28. Efecto de la rotación en la posición de los píxeles de la imagen. (Schenk, 1999)
φ (i,j) φ (i,j+1)
i'
u=f(x,y)
v=g(x,y)
φ(i+1,j) φ(i+1,j+1)
j'
φ (i,j)
φ (i,j+1)
φ (i,j+1)
φ(i',j')
φ(i+1,j)
φ(i+1,j')
φ(i+1,j+1)
φ(i,j)
i' Interpolaciones
polinómicas cúbicas
φ(i+3,j+3)
j'
Fig.5.31. Efectos del remuestreo en la imagen digital. Sup.: Imagen original; Inf.: Imagen transformada
(cambio de escala x2), izq: Vecino más próximo; centro: Interpolación bilineal; der: convolución cúbica
búsqueda de las características de los vecinos que permitan definir las clases. Esta
búsqueda se puede plantear de dos formas: la clasificación a nivel de píxel o la
delimitación de límites en la imagen.
30
a b c 20 C B A A B C
10
0
0 64 128 192 255
Nivel digital
Fig.5.32. Segmentación de la imagen digital en función del histograma.
Izq.: Imagen original; centro: histograma; der.: imagen clasificada (Schenk, 1999)
30
a b c 20 A A
10
0
0 64 128 192 255
Nivel digital
Fig.5.33. Error en la segmentación de la imagen debido a un histograma inadecuado (Schenk, 1999)
300 PROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS
40 f
30
20 C B A
10
0
0 64 128 192 255
Nivel digital
Fig.5.34. Segmentación de una imagen aleatoria. En este caso aunque el histograma permita la
diferenciación de las tres clases existentes, la segmentación carece de interés práctico
3 3 3 3 3 0 1 2 3 0 1 2 3
1 0 2 0 0 0 0 1 0
1 3 3 3 3
1 1 3 2 3 2 2 0 2 1 3 2 0 0
1 1 0 2 2 0 0 2 1 2 0 0 2 0
1 0 0 2 2 0 0 1 7 3 0 0 2 6
⎛ G y (i, j) ⎞
∑ ∑ θi, jIi, j
Ii, j = G 2x (i, j) + G 2y (i, j)
i = 0 j= 0
θi, j = arctan⎜⎜ ⎟ θ=
⎝ G x (i, j) ⎠
⎟ m −1 n −1
∑ ∑ Ii , j
i = 0 j= 0
donde Gx(i,j), Gy(i,j) son las componentes x e y del vector gradiente en el píxel (i,j) y
m x n es el tamaño de la ventana.
No obstante, debido a que en las imágenes fotogramétricas aéreas reales no suelen
existir orientaciones predominantes, se suelen considerar varias orientaciones (0º, 45º,
90º, 135º).
b) Frecuencia espacial: La frecuencia espacial local se define como ω = 2 π / T,
siendo T la longitud de onda que se considera como representativa de la dimensión
media de los elementos texturales de la imagen en cada subdivisión. El valor se debe
calcular para la orientación predominante.
c) Tamaño del filtro: La desviación típica de la componente gausiana controla el
tamaño del filtro de Gabor. La selección del tamaño dependerá de diversos factores,
como, por ejemplo, el contenido de la imagen, la escala, la resolución,... .
En la figura 5.38 se muestra un ejemplo de aplicación de los filtros de Gabor a la
segmentación de una imagen aérea, utilizando fases de 0º y 90º.
Fig.5.38. Aplicación del filtro de Gabor. Izq: Imagen original de tamaño 512x512 píxeles;
Der: Imagen clasificada mediante filtros de Gabor con tamaños de filtro σ= 3, 6, 9, 12
FOTOGRAMETRÍA DIGITAL 303
5.9.3.2. Esqueletización
Esta operación también es denominada detecto de la línea media o adelgazamiento
y consiste en la reducción del objeto alargado (relación óptima longitud/anchura=10)
sin perder la conectividad principal (Bel-Lan y Montoto,1981).
El método consiste en el borrado, sucesivo, de los bordes hasta definir un eje que,
posteriormente, permite deducir longitudes y orientaciones, en la imagen analizada.
Este algoritmo tiene cierta sensibilidad a los bordes del objeto de forma que si estos
son excesivamente dentados se obtiene una línea media ramificada, para evitar este
problema es necesario la aplicación previa e un filtro de paso bajo, de baja definición
(3x3).
5.9.3.4. Relleno
Este algoritmo está diseñado para buscar el cierre, en las estructuras binarias, y
asignar, dentro de las mismas, el valor de cada píxel P(x,y)=0 a uno nuevo P(x,y)=1.
La base del algoritmo es sencilla, se trata de reconocer la estructura y operar con los
píxeles de valor nulo, dentro de un espacio acotado, por píxeles de valor unidad,
rellenando interactivamente zonas.
304 PROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS
5.9.3.5. Criba
Este método es un clasificador experto basado en la selección, mediante
morfología matemática, de una ventana de trabajo (mxn), eliminando aquellos objetos
(asociaciones de píxeles con un mismo valor) que estén por debajo de la misma; es
decir, menores que el rango de actuación matricial. Las matrices que menor tamaño
que la establecida arbitrariamente cambia de valor, pasando de P(x,y)=1 a P(x,y)=0,
manteniendo, en cambio, las restantes. Este proceso es muy útil para la eliminación de
ruidos de fondo y determinación de áreas conocidas.
donde n es el número de vértices del polígono y (xi,yi) son las coordenadas de cada
uno, asumiendo que xn = x1 e yn = y1.
b) Longitud del perímetro.
Se calcula mediante la fórmula:
n
L= ∑ (x i − x i +1 )2 (yi − yi +1 )2
i =1
( 2π r )
2
Área Círculo P2
= πr
2
Dispersión = =
Área Polígono A 4π A
c a 2 − b2
e= =
a 2
REFERENCIAS BIBLIOGRÁFICAS
Ballard, D.H.; Brown, C.M. (1982). Computer Vision, Prentice-Hall, Nueva York.
Bel-Lan, A. (1978). Métodos de cuantificación de parámetros petrográficos mediante proceso digital de
análisis de imágenes microscópicas. Tesis de Licenciatura. Facultad de CC.Geológicas. Univ. de Oviedo.
Bel-Lan, A. y Montoto, L. (1981). A Thinning Transform of Digital Images. Signal Processing, 3, 37-47.
Burt, P.J. y Adelson, E.H. (1983). The Laplacian pyramid as a compact image code. IEEE Transactions and
Communications. 31(4), 532-540.
Eliason, E. y McEwen, A.S.(1990). Adaptative Box Filter for Removal of Random Noise from Digital
Images. PE&RS, 56(4), 453-458.
Faber,P. (1998). Digital Image Processing. 3rd Course in Digital Photogrammetry. Universidad de Bonn.
González, R.C. y Woods, R.E. (1996). Tratamiento Digital de Imágenes. Ed. Addison-Wesley / Díaz de
Santos, 772 p.
Haralick, R.M. y Shapiro, L.G. (1993). Computer and Robot Vision (vol.2). Addison-Wesley Publ.Co., 630
p.
Haralick,R.M.; Sternberg,S.R. y Zhuang,X. (1997). Image Analysis using Mathematical Morphology.
Trans. on Patterns Analysis and Machine Intelligence, 9(4), 532-550.
Jähne, B. (1991). Digital Image Processing-Concepts, Algorithms and Scientific Applications. 40 ed.
Springer. Berlin.
Jähne, B. (1997). Practical Handbook on Image Processing for Scientific Applications. CRC Press.
Jain, A. (1988). Fundamentals of Digital Image Processing. Prentice Hall, Englewood Cliffs, New Jersey.
Jiménez, J. y Navalón, J.L. (1982). Some Experiments in Image Vectorisation. IBM Journal of Research
and Development, 26, 727-734.
Kulpa, Z. (1976). Area and perimeter measurement of blobs in discrete binary pictures. Computer Graphics
and Image Processing, 6, 434-451.
Matheron,G. (1975). Random sets and integral geometry, Wiley & Sons, Nueva York.
Moik, T.G. (1980). Digital Processing of Remotely Sensed Images. Washington. NASA.
Pal,S. y Dutta Majumder,M.D. (1986). Fuzzy Mathematical Approach to Pattern Recognition. John Wiley
306 PROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS
6.1 Introducción
6.2 La automatización del proceso de medida. El concepto de matching.
6.3 Métodos para la reducción del espacio de búsqueda
6.4 Clasificación de los métodos de matching
6.5 Matching a nivel de área
6.6 Matching a nivel de elemento
6.7 Problemas asociados con el matching
6.8 Diseño de un sistema de matching
Anexo 6.1. Obtención de imágenes normalizadas
6.1 INTRODUCCIÓN
En este tema se van a abordar una de las principales ventajas de la metodología
fotogramétrica digital frente a las técnicas analógicas o analíticas, la posibilidad de
automatización del proceso de medida sobre la imagen digital. Esta posibilidad de
automatización de la medida es la que marca la principal diferencia en cuanto al
proceso entre una estación fotogramétrica digital y un restituidor digital, la estación
no es simplemente un restituidor analítico que trabaja con imágenes digitales, sino
que se debe considerar como una evolución de dichos equipos. El trabajo con
imágenes digitales, por así decirlo Ainformatizadas@, permite que la máquina
Avisualice@ o procese la información contenida en dichas imágenes posibilitando la
automatización del proceso. Las principales ventajas de esta automatización es la
ganancia de objetividad frente al trabajo de un operador, necesariamente subjetivo así
como una importante ventaja en rentabilidad al reducir el tiempo de proceso lo que
permite obtener de una forma rápida, más acorde con las necesidades de la sociedad
actual, la información contenida en los fotogramas. No obstante, también es necesario
tener en cuenta que se produce la desventaja de la pérdida de información semántica
307
308 AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA
P'
P"
r p
1 2
I I
TG 2
T
1
c
-1
T (I 2)
G
P'
-1
P'=T (P")
G
1
r I
P’ P”
P’ P”
Fig.6.2. Representación de la toma de la imagen de un punto del terreno P (sobre terreno llano) en los
fotogramas tomados desde O= y O@. La única diferencia entre ambos es una traslación entre las imágenes
O”
O’
P’ P”
P’
Fig.6.3. Par estereoscópico formado por dos fotogramas con diferente escala.
En el esquema de la izquierda se muestra la diferencia en cuanto a la superficie cubierta por cada píxel
P’ P’ P’
Fig.6.4. Efecto de la diferencia de los ángulos de rotación entre las dos imágenes del par.
Izq: Rotación del eje x (dirección de vuelo); Centro: Rotación del eje y (dirección perpendicular al eje de
vuelo en el plano del fotograma); Der: Rotación del eje z (eje óptico de la cámara)
P’ P” P’ P”
P P
P’ P” P’
Fig.6.5. Efecto de la inclinación del terreno. Izq: Inclinación del terreno con un eje coincidente a la línea de
la base; Der: Inclinación del terreno con un eje perpendicular a la línea de la base
O’ O”
Fig.6.6. Efecto del relieve en la superficie del terreno que es cubierta por cada uno
de los píxeles de las imágenes que forman un modelo estereoscópico
Y''
O' X'
X''
O''
e'
e''
En el caso general, las líneas epipolares no son paralelas al eje x del fotograma,
por lo que se suele aplicar una transformación que asegure dicho paralelismo,
consiguiendo que las líneas epipolares coincidan con las filas de la imagen, dando
lugar a lo que se denominan images normalizadas. En el Anexo 6.1 se muestra un
método para la obtención de imágenes normalizadas a partir de imágenes digitales de
las que se conozcan los parámetros de la orientación.
FOTOGRAMETRÍA DIGITAL 315
P’ S” P” I”
Ho
P
∆z
Zp
I
datum
Ho Ho
x"S = x 'S − b o x"I = x 'I − b o
H o − ZS H o − ZI
expresión que puede simplificarse si se tiene en cuenta que x’S es igual que x’I y que
la base (B) es igual a b (Ho-ZP)/ f, quedando:
∆Z
e = b o (H o − Z P )
(H o − Z I )(H o − ZS )
si se iguala el denominador a (Ho-ZP)2 y simplificando, se obtiene:
∆Z
e = bo
(H o − Z P )
6.3.2.2 Método VLL
Otro método de gran utilidad para la reducción del espacio de búsqueda es el
empleo de las líneas verticales (vertical line locus) (Gyer, 1981; Bethel, 1986). Este
método es menos empleado que el de la geometría epipolar si bien se puede emplear
de una forma conjunta para dotar de robustez a los resultados obtenidos a partir de las
imágenes epipolares (fig.6.9).
Para la aplicación de este método se parte de una posición estimada P de la
superficie del terreno T en el espacio objeto, y de dos puntos I y S, que vienen
definidos por el intervalo de error previsible en la determinación de la cota de T. De
esta forma, y si las aproximaciones son correctas se define un intervalo de cota entre
los puntos I y S, dentro del cual deberán estar incluidos tanto la estimación P
(ocupando el centro del intervalo) como el punto real del terreno T.
FOTOGRAMETRÍA DIGITAL 317
O”
O’
I”
S” e”
I’
e’ S’
P
T
I
Fig.6.9. Método VLL para la reducción del espacio de búsqueda
v”3
v’3
n’ v”2 n”
o’ o”
v”1
v’1
L”
L’ v”
v’
U”
U’
La aplicación del método VLL adquiere especial interés cuando se realiza de una
forma conjunta con el método de las líneas epipolares a objeto de proporcionar una
mayor robustez a los resultados obtenidos. Krupnik y Schenk (1994) proponen una
solución combinada (fig.6.12).
O’ O”
TS S’ S” I”
I’ TI
I’ EI
ES S’
Fig.6.12. Aplicación combinada de los métodos de líneas epipolares y VLL (Schenk, 1999)
El método VLL es muy útil para aplicaciones en las que se necesitan obtener las
posiciones conjugadas de puntos que ocupan localizaciones determinadas en el
espacio objeto, como, por ejemplo, la generación de modelos digitales de terreno.
El fundamento de este método se basa en que los errores del método de matching
dependen sólo del tamaño del píxel, por lo cual mediante este esquema de resolución
variable se van refinando progresivamente los resultados, utilizando siempre un
espacio de búsqueda (factor determinante para el tiempo de cálculo) similar
apoyándose en los resultados obtenidos del nivel de la pirámide superior. Para más
detalles acerca de la metodología de la construcción de las pirámides de imágenes se
recomienda la consulta del apartado correspondiente en el capítulo 5.
244 245 248 260 107 102 111 123 223 228 266 239 241 102 111 123 223 228 266 239 241 230 236 243 223 226
241 230 236 230 219 121 96 92 89 101 202 212 271 121 96 92 89 101 202 212 271 242 225 223 241 229
236 243 223 229 223 223 113 96 73 77 82 91 198 223 113 96 73 77 82 91 198 221 236 241 230 221
230 242 241 230 231 242 222 102 95 83 75 84 121 242 222 102 95 83 75 84 121 228 242 266 243 243
226 189 225 221 236 241 230 226 113 91 93 71 82 241 230 226 113 91 93 71 82 95 213 241 230 230
211 82 121 226 219 232 231 229 223 101 89 84 89 232 231 229 223 101 89 84 89 75 93 242 225 242
241 84 89 100 223 236 230 221 219 211 117 100 82 236 230 221 219 211 117 100 82 75 96 100 189 241
232 78 87 107 226 231 223 243 226 213 111 101 75 231 223 243 226 213 111 101 75 73 75 84 242 232
89 109 226 223 236 242 236 230 223 101 95 92 93 242 236 230 223 101 95 92 93 96 93 213 243 236
202 198 219 225 223 241 230 213 113 84 78 84 89 241 230 213 113 84 78 84 89 82 221 236 266 231
219 226 219 230 236 243 223 100 89 82 73 77 82 243 223 100 89 82 73 77 82 117 225 223 241 242
223 225 230 223 226 225 114 87 78 75 78 92 189 225 114 87 78 75 78 92 189 230 236 243 223 241
226 236 231 230 230 100 91 84 89 93 219 213 221 100 91 84 89 93 219 213 221 236 242 236 221 243
+ g1
f
TG
-1
TI + g2
n2
Fig.6.15. Esquema general del proceso de ABM. La imagen original f es captada dando lugar a una imagen
g1 a la que se le sumará un cierto ruido n1 y, por otro lado, una imagen que es transformada tanto a nivel
geométrico como radiométrico la imagen g2 que también presenta un ruido n2
Los valores de este coeficiente presentan unos rangos de variación más amplios
que los del anterior coeficiente, lo que dificulta la interpolación para obtener la
precisión a nivel de subpíxel. El valor máximo se corresponde con el punto de
correlación.
c) suma de las diferencias absolutas
t t
∆ (x , y ) = ∑∑ [Im (x, y) − It (x, y )]
x =1 y =1
x =1 y =1 x =1 y =1
valor se aproxime a 0 no existe ninguna similitud mientras que cuando tome valor 1
existe similitud total, el valor -1 indica una similitud inversa es decir que cuando en
una imagen crece el valor digital de un pixel en la otra imagen decrece en el mismo
orden de magnitud. La ventaja fundamental de esta medida de similitud es el ajuste de
los valores de medía y varianza de gran utilidad cuando las imágenes presentan
diferencias radiométricas entre las dos tomas.
3. Los algoritmos de resolución
La lista de algoritmos es compleja y depende de las funciones de transformación a
aplicar y del conocimiento previo de las condiciones de la toma, y se diferencian tanto
en el espacio de búsqueda como en los procedimientos finales de cálculo los más
empleados son:
- búsqueda completa
- búsqueda secuencial
- búsqueda heurística
- mínimos cuadrados iterativos
- algoritmos simples
- programación dinámica
6.5.1. Método de correlación cruzada
Los métodos de correlación cruzada fueron los primeros en aplicarse a la
correlación de imágenes digitales. La correlación cruzada es una técnica muy potente
para establecer la correspondencia entre imágenes digitales (Jähne, 1989) y se basa en
dos premisas:
- las dos imágenes sólo han sufrido diferencias geométricas debido a la
translación.
- las dos imágenes sólo sufren diferencias radiométricas debido a cambios
de tipo lineal en brillo y contraste.
La transformación geométrica se puede expresar como:
⎛ p⎞ ⎛ r ⎞ ⎛u ⎞
TG : ⎜⎜ ⎟⎟ = ⎜⎜ ⎟⎟ − ⎜⎜ ⎟⎟
⎝ q ⎠i ⎝ c ⎠i ⎝ v ⎠
que presenta una estructura lineal con los parámetros pI=(a,b)T (fig.6.16).
FOTOGRAMETRÍA DIGITAL 325
M
c
m
N v q
n Pi
(ri ,c j ) = (p i ,q j ) + (u,v)
⎡ ⎞ ⎤
2
1 ⎛⎜
m m
1 ⎢
σ g2 (u , v ) = ∑ g12 (ri − u , c i − v ) − ∑ g 2 (ri − u , c i − v )⎟ ⎥
1 m −1 ⎢ i =1
m ⎜⎝ i =1 ⎟ ⎥
⎠ ⎦⎥
⎣⎢
Si los valores de aproximación empleados son poco exactos, puede realizarse una
búsqueda completa en la ventana de búsqueda. Sin embargo, es aconsejable realizar la
correlación utilizando una estrategia con mayor detalle progresivamente. Esta técnica
se basa en el empleo de pirámides de imágenes en las dos imágenes I1 e I2. La
correlación comienza en la cima de la pirámide que consiste en dos pequeñas
ventanas de tamaño entre 10x10 y 40x40 píxeles, seleccionándose una ventana en la
imagen izquierda (ventana patrón) e intentando identificarla en la imagen derecha
(ventana de búsqueda). Una vez identificada se transfieren las posiciones estimadas al
nivel inferior de la pirámide, repitiéndose el proceso hasta que se alcance el nivel más
bajo. La ventaja fundamental de este procedimiento es la velocidad de cálculo
(Hannah, 1974).
Los valores estimados (u*,v*)(0) son redondeados a valores enteros y la precisión
alcanzada suele estar en torno a los 1/3 píxel.
326 AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA
El error de estimación puede ser utilizado para evaluar los resultados de las
técnicas de correlación, en especial, para comprobar si el modelo geométrico consiste
en un desplazamiento o incluye otros tipos de transformaciones geométricas.
La calidad de la estimación depende de la pendiente de la gráfica de correlación,
así cuando la pendiente es mayor se obtienen mejores estimaciones, mientras que en
pendientes bajas se tienen problemas de incertidumbres. Los problemas más
frecuentes se presentan en la figura 6.18.
1.00
uo, ρo Máximo
u-,ρ- u+ ,ρ+
Coeficiente de correlación
0.75
0.50
0.25
0.00
Posición de correlación
Fig.6.18. Problemas típicos en la determinación del valor máximo en la correlación (Schenk, 1999)
Además es necesario considerar que las imágenes no están libres de ruido, por lo
que la relación buscada debe ser:
g1(x)= f(x) + n1(x)
g2(x)= a [f(x) +n2(x)] + b
donde n1 y n2 son los niveles de ruido de la imagen que son del tipo Aruido blanco@ y
son independientes entre sí, con varianza σn1=σn2=σn y f es una función estocástica
con varianza σ2f e independiente de n1 y n2, resultando las varianzas y covarianza
siguientes:
σ2g1= σ2f + σ2n
σ g2= a2 (σ2f + σ2n)
2
σg1,g2 = a σ2f
siendo el coeficiente de correlación igual a:
σ g1 , g 2 σ f2
ρ1, 2 = =
σg σg 2 σ f2 + σ 2n
1
y
g(x)
u(x i)
xi y(x i) x
Fig.6.19. Proceso de observación. La función observada g(x) es una versión de la función deformada f(y)
que produce un desplazamiento u(xi) entre el punto y(xi) y el original xi. (Förstner, 1993)
g,f
g(x)
f(x-u o)
∆ui
xi x,y
∂Ω ∂
m m ⎛ m ⎞
=
∂∆û ∂∆û ∑ (f 'i ∆g i + f 'i ∆û )2 = 2∑ f 'i ∆g i + 2⎜⎜ ∑ f 'i2 ⎟⎟∆û = 0
i =1 i =1 ⎝ i =1 ⎠
n m
∑ f 'i ∆g i ∑ [g(x i ) − f (x i − u o )] f ' (x i )
∆û = i =1 = − i =1
m m
∑ f 'i2 ∑ [f ' (x i )]2
i =1 i =1
σ 2n
σ 2û =
m
∑ f 'i2
i =1
siendo σn la desviación típica del ruido que puede ser estimada a su vez a partir de los
residuos del ajuste por mínimos cuadrados si m es lo suficientemente grande.
m 2
1
σˆ 2n = ∑ [g(x i ) − f (x i − û )]
m − 1 i =1
Esta estimación tiene una precisión controlada por la expresión (Koch, 1987):
1
σˆ σˆ = σˆ n
n (
2 m − mp )
siendo mp el número de incógnitas (en este caso, igual a 1, el vector desplazamiento)
y m el número de valores que intervienen en la estimación. Así, para alcanzar errores
por debajo del 10% de la señal, el número de muestras necesario es superior a 72.
Ejemplo 1. Cálculo del vector desplazamiento entre dos series unidimensionales
mediante mínimos cuadrados.
En la Tabla 6.1 se muestran los niveles digitales correspondientes a dos series
unidimensionales de una zona de borde de una imagen digital, los perfiles
correspondientes se muestran en la figura 6.21.
Tabla 6.1. Niveles digitales correspondientes a las series f y g
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
fi 20 20 20 20 40 60 80 80 80 80 80 80 80 80 80
gi 28 26 28 52 74 84 82 84
75
Ser ie g
Ser ie f
50
25
0
0 2 4 6 8 10 12 14 16
Po sic ión
El proceso del cálculo del desplazamiento comienza por la obtención de f=i y ∆gi,
que permiten el cálculo del incremento ∆û que aplicar al vector desplazamiento ûo, los
resultados numéricos parciales se muestran en la Tabla 6.2.
Tabla 6.2. Resultados numéricos parciales del cálculo del vector desplazamiento
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
∆gi 8 -14 -32 -28 -6 4 2 4
fi' 0 0 10 20 20 10 0 0 0 0 0 0 0
fi' * gi 80 -280 -640 -280 0 0 0 0
fi'2 100 400 400 100 0 0 0 0
m
∑ ∆gif 'i 1120 σn 1
∆û = i =1 = = 1.12 σˆ u = = = 0.03
m 1000 m 1000
∑ f 'i2 ∑ f 'i2
i =1 i =1
En la figura 6.22 se puede observar como se produce una importante mejora del
ajuste. El parámetro fundamental de calidad de la estimación de la función de
deformación (vector desplazamiento) se calcula en función de los residuos (σn=6.24
niveles digitales) y su valor considerablemente, mayor que el valor teórico (σn=1 nivel
digital) indica la existencia de una función de deformación más compleja que una
simple traslación. Para comprobar este hecho se procede al cálculo de una segunda
iteración, utilizando como datos de entrada, las series deformadas en función de los
resultados de la primera iteración. La corrección del vector de desplazamiento
obtenida para la segunda iteración es de 0.29, valor que está situado por debajo del
tamaño del píxel, por lo que se puede considerar que los resultados de la primera
iteración son adecuados.
334 AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA
Nivel Digital
100
75
50
Serie f
Serie g
25
0
0 2 4 6 8 10 12 14 16 18
Posición
Aplicando las expresiones anteriores a los datos del ejemplo 1, se obtiene como
resultado xof= 5.5 y xog= 7.1, resultando un vector de desplazamiento de 1.6, cifra
similar a la alcanzada en las dos iteraciones realizadas en el ejemplo 1
(1.12+0.29=1.41). Los cálculos detallados se muestran en la Tabla 6.4.
Tabla 6.4. Cálculo de los centros de gravedad de series unidimensionales
I 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
fi 20 20 20 20 40 60 80 80 80 80 80 80 80 80 80
gi 28 26 28 52 74 84 82 84
f'i 0 0 10 20 20 10 0 0 0 0 0 0 0
f'i2 0 0 100 400 400 100 0 0 0 0 0 0 0
f'i2*xi 0 0 400 2000 2400 700 0 0 0 0 0 0 0
g'i 0 13 23 16 4 0
g'i2 0 169 529 256 16 0
g'i2 * xi 0 1014 3703 2048 144 0
FOTOGRAMETRÍA DIGITAL 335
g(xi)= f( ŝo x=i - ûo) - f=( ŝo x=i - ûo) ∆û + f=( ŝo x=i - ûo) x=i ∆ ŝ + n(xi)
Ejemplo 2. Cálculo del vector desplazamiento y factor de escala entre dos series
unidimensionales mediante mínimos cuadrados.
En la tabla 6.5 se muestran los datos de partida (iguales que los del Ejemplo 1) así
como los resultados numéricos parciales correspondientes al cálculo del vector
desplazamiento y factor de escala entre dos series unidimensionales, considerando
como aproximaciones iniciales ûo=1 y ŝo =1.
336 AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA
Tabla 6.5. Datos de partida y resultados numéricos parciales del cálculo de una función de deformación
compuesta por un vector desplazamiento y un factor de escala
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
fi 20 20 20 20 40 60 80 80 80 80 80 80 80 80 80
gi 28 26 28 52 74 84 82 84
fi' 0 0 10 20 20 10 0 0 0 0 0 0 0
fi'2 0 0 100 400 400 100 0 0 0 0 0 0 0
fi'2*xi 0 0 500 2400 2800 800 0 0 0 0 0 0 0
fi'2*xi2 0 0 2500 14400 19600 6400 0 0 0 0 0 0 0
∆gi 8 6 -12 -8 -6 4 2 4
fi'*∆gi 0 60 -240 -160 -60 0 0 0
fi'*∆gi*xi 0 300 -1440 -1120 -480 0 0 0
∑
⎛ a o2 f 'i2
⎜ − ao ∑ f 'i f i − ao ∑ f 'i ⎞⎟⎛⎜ ∆û ⎞⎟ ⎛⎜ − a o ∑ f 'i ∆g i ⎞⎟
⎜− a
⎜ o ∑
f 'i f i ∑ f i2 ∑ f i ⎟⎟⎜⎜ ∆â ⎟⎟ = ⎜⎜ ∑ f i ∆g i ⎟⎟
∑
⎜ − a o f 'i ∑ fi 1 ⎟⎝ b̂ ⎠ ⎜⎝ ∑ ∆g i ⎟
⎠
⎝ ⎠
- Iteraciones y remuestreo
La resolución del problema de matching mediante mínimos cuadrados presenta el
inconveniente de que la función f(y) es marcadamente no lineal, por ello es necesario
tener en cuenta que en particular si las aproximaciones iniciales no son buenas, los
estimados necesitan un largo proceso de refinamiento mediante iteraciones y
correcciones diferenciales de los resultados.
Un problema asociado al de las iteraciones es el del remuestreo. Los resultados
derivados del proceso de matching dan lugar a posiciones no enteras por lo que es
necesario el cálculo del valor correspondiente en la posición entera a fin de proceder a
la siguiente iteración.
6.5.2.2 Matching de ventanas bidimensionales
En este caso se intenta establecer la función de deformación (geométrica y/o
radiométrica) que es necesario aplicar a una determinada ventana (ventana de
búsqueda) para conseguir una correspondencia adecuada con la otra ventana (ventana
patrón).
- Estimación de los parámetros de desplazamiento
El modelo más sencillo de matching es:
p=x-u q=y–v
basado en la idea de que la deformación es debida exclusivamente a un
desplazamiento (u,v) entre las dos ventanas.
El modelo linealizado es del tipo:
∆gi = -fri ∆û - fci ∆ v̂ + ni
con:
∂f (p, q ) ∂f (p, q )
f ri = f ci =
∂r r = ri − û o ∂c r = ri − û o
c = c i − v̂ o c = c i − v̂ o
para todos los m píxeles (ri,ci) que componen la ventana. En la mayoría de los casos
(ri,ci) están dispuestos de acuerdo con una malla m = mr mc.
Las ecuaciones normales vienen dadas por: N ŷ = h
h(f) = a7f + a8
donde n1 y n2 son los niveles de ruido en las dos imágenes g1 y g2. Dichos ruidos son
blancos con desviaciones típicas σ n y σn . 1 2
Las incógnitas del sistema son los parámetros a1, Y, a8, siendo necesario contar
con las aproximaciones siguientes que dan lugar al modelo linealizado siguiente:
∆gi = fri ri dâ1 + fri ci dâ2 + fri dâ3 + fci ri dâ4 + fci ci dâ5 + fci dâ6 + fi dâ7 + 1 dâ8 + ni
siendo: dâk = âk - âok, k = 1,Y,8
∆gi = g2(ri,ci) - g1(p0i,q0i)
ni’ = n2(ri,ci) - n1(p0i,q0i)
∂ĝ1 (ri , c i ) ∂ĝ (r , c )
f ri = , f c i = 1 i i , f i = ĝ1 (ri , c i )
∂r ∂c
⎛p⎞ ⎛a a 02 ⎞⎛ r ⎞ ⎛ a 03 ⎞
⎜⎜ ⎟⎟ = ⎜⎜ 01 ⎟⎜ ⎟ + ⎜ ⎟
⎝ ⎠ 0i ⎝ a 04
q a 05 ⎟⎠⎜⎝ c ⎟⎠ i ⎜⎝ a 06 ⎟⎠
donde ĝ1 que es una versión suavizada de g1. En este caso, de nuevo se requiere al
menos una interpolación lineal para g1, fri, fci, para evitar soluciones inestables.
Se obtiene la matriz de ecuaciones normales N siguiente:
FOTOGRAMETRÍA DIGITAL 341
⎛ ∑ f r2 r 2 ∑f 2
rc ∑f r
2
| ∑ f f r ∑ f f rc ∑ f f r
2
| ∑ f fr ∑ f r ⎞⎟
⎜ r r r c r c r c r r
⎜
⎜
∑f r
2 2
c ∑f c
r
2
| ∑ f f cr ∑ f f c ∑ f f c
r c r c
2
r c | ∑ f fc ∑ f c ⎟⎟
r r
⎜ ∑f r
2
| ∑f f r ∑f f c ∑f f
r c r c r c | ∑f f ∑f ⎟
r r
⎜ −− −− −− | −− −− −− | −− −− ⎟
⎜ ⎟
⎜ | ∑ f c2 r 2 ∑ f c2 rc ∑ f c2 r | ∑ fr fcr ∑ fcr ⎟
⎜
⎜
| ∑f c
2 2
c ∑f c 2
c | ∑ f fc
r ∑ f c c ⎟⎟
⎜ | ∑f c
2
| ∑f f c ∑ fc ⎟
⎜ −− −− −− | −− −− −− | −− −− ⎟
⎜ ⎟
⎜
⎜⎜
| | ∑f 2 ∑ f ⎟⎟
⎝ | | ∑1 ⎟⎠
en la que se han omitido los índices de las sumatorias que se establecen entre todos
los píxeles (ri,ci) incluidos en la ventana considerada. El segundo término de la
expresión (h) viene dado por:
⎛ m ⎞
⎜ ∑ f r ri ∆g i ⎟
⎜ i=1 ⎟
i
⎜ m ⎟
⎜ ∑ f r c i ∆g i ⎟
i
⎜ i=1m ⎟
⎜ ⎟
⎜ ∑ r i ⎟ f ∆ g i
⎜ i=1− − − ⎟
⎜ m ⎟
⎜ ∑ f c ri ∆g i ⎟
⎜ i
⎟
h = ⎜ im=1 ⎟
⎜ ∑ f c c i ∆g i ⎟
⎜ i=1 ⎟
i
⎜ m ⎟
⎜ ∑ f c ∆g i ⎟ i
⎜ i=1 ⎟
⎜ m− − − ⎟
⎜ f i ∆g i ⎟
⎜ ∑ i =1
⎟
⎜ m ⎟
⎜ ∑ 1∆g i ⎟
⎜ ⎟
⎝ i=1 ⎠
La sistema de ecuaciones normalizado N ŷ = h se define para las 8 incógnitas
ŷ =(∆âk) e incluye las 6 correcciones ∆ûk a los valores aproximados de las
transformaciones geométricas y las correcciones ∆â7 y ∆â8 para la transformaciones
radiométricas. Dichos valores corregidos serán empleados como aproximaciones
iniciales para la siguiente iteración.
âk = â0k + ∆âk; k = 1, Y, 8
342 AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA
σˆ â k = σˆ n Q kk
Ackermann (1984), Mitchell y Pilgrim (1987) y Pertl (1985) analizan las ventajas
e inconvenientes de este método:
Ventajas:
1. Este método permite la corrección de los problemas geométricos y
radiométricos de la imagen.
2. La solución tiene un alto nivel de redundancia, incluso para matrices
pequeñas, proporcionando robustez al estimado.
3. El procedimiento iterativo va alcanzando soluciones parciales que optimizan
el proceso de búsqueda y, por tanto, se reduce el tiempo de cálculo
permitiendo la obtención de soluciones en tiempo real.
4. Los resultados de la solución de mínimos cuadrados permite el cálculo de
diferentes estadísticos como, por ejemplo, matrices de varianza-covarianza,
que permiten el análisis de la bondad del ajuste.
FOTOGRAMETRÍA DIGITAL 343
σˆ â k = σˆ n Q kk
Ackermann (1984), Mitchell y Pilgrim (1987) y Pertl (1985) analizan las ventajas e
inconvenientes de este método:
Ventajas:
1. Este método permite la corrección de los problemas geométricos y
radiométricos de la imagen.
2. La solución tiene un alto nivel de redundancia, incluso para matrices
pequeñas, proporcionando robustez al estimado.
3. El procedimiento iterativo va alcanzando soluciones parciales que optimizan
el proceso de búsqueda y, por tanto, se reduce el tiempo de cálculo
permitiendo la obtención de soluciones en tiempo real.
4. Los resultados de la solución de mínimos cuadrados permite el cálculo de
diferentes estadísticos como, por ejemplo, matrices de varianza-covarianza,
que permiten el análisis de la bondad del ajuste.
Inconvenientes:
1. La dependencia de la solución del gradiente de los niveles digitales,
particularmente en las técnicas de cálculo de la pendiente. La influencia de la
calidad radiométrica es tan grande que puede producir mayores diferencias
geométricas que las propias que presente la imagen (Rosenholm,1978).
2. La transformación geométrica utilizada necesita ser capaz de corregir las
diferencias de la imagen debido a la perspectiva. La transformación afín
indicada anteriormente cumple esta necesidad en matrices de pequeño
tamaño (Ackermann, 1984). En el caso de que las diferencias geométricas
sean debido exclusivamente a un cambio de escala, el método de mínimos
cuadrados es conceptualmente similar al de correlación cruzada.
3. El algoritmo es desarrollado mediante la utilización de una expansión de
Taylor para la linearización de las ecuaciones de observación produciendo la
eliminación de los términos no lineales de alto orden.
Fig.6.23. Matching a nivel de elementos, Izq: Fotograma empleado por el ejército americano para definir
objetivos en la II Guerra Mundial; Der: Esquema realizado mediante fotointerpretación. Se puede
comprobar como la visualización de la figura de la derecha permite obtener una buena aproximación de los
elementos de la imagen, aunque se produzca una cierta pérdida de información
Fig.6.24. Izq: Utilización de los elementos extraídos para la representación de elementos reales (figura
tomada de un tratado de Historia Natural de 1881); Der: Utilización de los elementos extraídos en un libro
infantil para la enseñanza de los objetos (la escasa edad de los lectores no impide que establezcan las
relaciones necesarias entre los bordes y el objeto real que conocen)
En este apartado se van a abordar los procesos de nivel medio, básicos para la
extracción de los elementos que intervienen en los procesos de matching a nivel de
elemento. En el capítulo correspondiente a la extracción semiautomática de elementos
cartográficos (tema 9) se tratarán los procesos de nivel alto.
La extracción de elementos implica el concepto de borde en la imagen digital. Un
borde de una imagen digital es una línea imaginaria en la imagen en la que se produce
un cambio brusco de brillo (Nalwa,1993). Existen cinco causas que pueden producir
bordes en la imagen digital (fig.6.25):
- discontinuidades en la superficie del objeto
- discontinuidades por problemas de reflejos debidos a la iluminación
- discontinuidades por problemas de profundidad
- discontinuidades por problemas de reflectancia en la superficie
- discontinuidades producidas por cambios de iluminación
A G UA
Es importante tener en cuenta que no todos los bordes tienen interés en el proceso
de matching, sino únicamente los que tienen relación con el objeto.
Fig. 6.26 Tipos de puntos. Izq a der.: Circulares simétricos; Puntos Finales; Esquinas; Puntos múltiples
⎛ H ⎞
K = det⎜⎜ 2
⎟
2 ⎟
⎝ 1 + gr + gc ⎠
donde: H es un término que contiene las derivadas parciales segundas de la
imagen en los ejes coordenadas r (filas) y c (columnas).
det determinante
FOTOGRAMETRÍA DIGITAL 351
Fig.6.27. Sup: Localización de un punto triple (izq) mediante la utilización de las direcciones de gradientes
(centro) y de las direcciones del borde (der); Inf: Localización de un punto circular simétrico (izq) mediante
la utilización de las direcciones de gradientes (centro) y de las direcciones del borde (der)
⎛ ∑ g 2r − ∑ g r g c ⎞⎟
ˆ = ⎜∑ r ∑ c r ⎟
⎛ g 2r − g g c ⎞
⎜ β
⎜ ∑ grgc ∑ g c2 ⎟⎠ ⎜⎝ ∑ g r g c r + ∑ g c2 c ⎟⎠
⎝
La precisión de los puntos detectados puede ser obtenida a partir del análisis de la
matriz N. El peso wi se estima mediante la expresión w=1/tr N-1 = det N / tr N, siendo
tr N y det N, la traza y el determinante de N respectivamente. λ1 y λ2 proporcionan los
dos valores propios (eigenvalues) de la elipse de confianza que definen la forma de la
elipse v2 = λ2 / λ1.
La selección de las ventanas se establece en función de la precisión de la
localización de los puntos extraídos, para ello es necesario cumplir dos condiciones:
- las elipses de confianza deben de tener una escasa diferencia entre los ejes
(deben ser circulares) para evitar la selección de puntos en bordes o elementos
texturales direccionales, que permiten la localización precisa en una dirección
pero cuya determinación en la dirección perpendicular es ambigua.
- las elipses de confianza deben ser pequeñas para evitar la selección de puntos
en zonas de la imagen en las que existan cambios de intensidad demasiado
pequeños.
a b c d e f g
g(x) g(x)
a b e
c f g
x x
Fig.6.28. Tipos de bordes. Izq: Borde s.str.; Der: Líneas
- Píxeles de borde
El objetivo de esta etapa es obtener a partir de las regiones de borde la definición
de cadenas de borde que tengan una anchura de un píxel. Los píxeles que definen
estas cadenas tienen una alta probabilidad de ser los píxeles de borde.
En el caso de que se considere que el borde ocupa una línea media de la región de
borde se pueden emplear técnicas de esqueletización o de adelgazamiento (ver
capítulo 5) (Rosenfeld y Kak, 1982). Evidentemente, esta situación no es común en los
casos reales por lo que es necesario recurrir a métodos más complejos para la
determinación de la posición de los píxeles de borde. Estos métodos se basan en el
análisis de la vecindad local de cada píxel (método de non-maxima-supression) o
mediante técnicas de carácter global (método de relajación y transformada de Hough).
El método de non-maxima-supression (Canny, 1983) consta de dos etapas: a) la
selección de los píxeles de vecindad en la dirección del gradiente que serán
empleados en la comparación; b) supresión de los píxeles en los que el valor del
gradiente es inferior a los de los píxeles de la vecindad. Un método para la realización
de la primera etapa es el método de vecindad N8. Dado un pixel de borde g(f,c) y su
dirección del gradiente g=, perpendicular al borde e, el primer paso es la estimación de
los puntos P1 y P2. Los valores del gradiente para P1 y P2 pueden ser aproximados
mediante una simple interpolación lineal entre los valores de gradiente de los dos
píxeles adyacentes.
g’
te
ien
ad
gr
el
nd
ió
cc
P1
re
Di
Di
P2 re
cc
ió
n de
lb
or
de
e
∆
(x,y)
w=25 píxeles
0.5
w=15 píxeles
w=5 píxeles
0
-0.5
-1
-1.5
-2
En la figura 6.31 se puede observar como los zero crossings de ambas imágenes
son similares en forma, pero pueden presentar diferencias en cuanto a sus conexiones
o bien aparecer en una sola imagen. El problema consiste en partiendo de un conjunto
de bordes L = L1,..., Lm definidos en una imagen encontrar el conjunto R = R1, Y, Rn
de la otra imagen mediante el matching de los segmentos S = {Sj, Sk} con Sj 0 L y Sk0
0 R. Es importante tener en cuenta que ni el principio ni el fin de los bordes tienen
que ser idénticos.
- Elementos del borde
La extracción de los elementos del borde (edgels -edge elements-) es la primera
etapa de transición entre los píxeles del borde en el dominio discreto de la imagen y la
descripción simbólica del borde. Esta etapa incluye la estimación de las propiedades
de los píxeles del borde necesarios para los siguientes procesos de interpretación. Las
propiedades más frecuentes se resumen en la Tabla 6.6.
FOTOGRAMETRÍA DIGITAL 357
Fig.6.31. Extracción de elementos mediante el método de operador LoG (tomada de Schenk, 1999)
Tabla 6.6. Elementos de los bordes
Coordenadas Los valores de las coordenadas pueden ser determinados mediante la aproximación de
reales los valores de intensidad, gradientes o laplacianos a un polinomio de primer, segundo o
tercer orden en la dirección del gradiente o por la estimación de la posición del Azero
crossing@. Dependiendo del tamaño de las ventanas y de los valores de gradiente se
pueden alcanzar precisiones entre 0.2 y 0.02 píxeles (fig.6.32).
Orientación Se obtiene mediante la arcotangente del cociente entre las diferencias a nivel de
columnas y de filas. La dirección del gradiente es perpendicular a la orientación.
Curvatura La curvatura se obtiene mediante la expresión clásica (ver capítulo 5) en función de los
gradientes.
Contraste Se obtiene como la diferencia expresada en valores absolutos entre los niveles digitales
de los píxeles situados a la izquierda y derecha del considerado.
Intensidad Se define como la media aritmética entre los píxeles situados a la izquierda y derecha
media del píxel considerado.
Forma Se obtiene como función del valor cuadrático del gradiente.
Fig.6.32. Determinación de la posición del borde. Izq: mediante el punto de inflexión de la intensidad;
Centro: Máximo del gradiente; Der: Zero crossing de los valores laplacianos
358 AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA
- Extracción de cadenas
El siguiente paso consiste en la agrupación de los diferentes elementos de los
bordes en función al borde al que pertenecen, de forma que un borde está definido por
una secuencia de elementos de borde.
La agregación de los elementos de borde puede ser realizada mediante técnicas
locales (seguimiento de líneas) o globales (transformada de Hough, programación
dinámica, algoritmos de búsqueda heurística). Su objetivo final es la obtención de las
cadenas que consisten de elementos de borde conectados y que limitan dos regiones,
en función del tipo de conexiones se pueden considerar tres tipos de elementos de
borde (fig.6.33):
- píxel de extremo (end pixel): en su vecindad sólo aparece un elemento de
borde
- píxel de línea (line pixel): en su vecindad aparecen dos elementos de borde
- píxel de nodo (node pixel): en su vecindad aparecen al menos tres elementos
de borde
El método más simple para la clasificación de los píxeles de borde en función del
borde al que pertenecen es el método de seguimiento de líneas. El método consiste en
la selección de un píxel de extremo (que sólo tiene en su vecindad un píxel de borde)
que no pertenezca a ningún borde que haya sido definido con anterioridad, a partir del
cual se define el borde en función de las vecindades mediante la selección de píxeles
de línea hasta que aparece un píxel de extremo o un nodo.
Cada vez es más frecuente la utilización de métodos de tipo global, en particular la
transformada de Hough. Este método se basa en un cambio de sistema de
representación. Así una línea recta de longitud s y orientación θ puede ser
representada como: s = x cos θ + y sen θ. La transformada de Hough de dicha línea es
un punto definido en el sistema de coordenadas (s, θ), de forma que todos los puntos
de dicha línea se representan en el mismo punto (fig.6.34).
FOTOGRAMETRÍA DIGITAL 359
y θ
s (s,θ )
θ
x s
Fig.6.34. Transformada de Hough
ϕ
n R
r
P
α
Si se considera una imagen que contiene tres bordes L1, L2, L3 se puede
determinar con facilidad cuál de ellas presenta un mayor parecido con el patrón. Para
ello se compara cada registro de la tabla-R de cada uno de los píxeles que componen
cada línea con los valores del patrón, la diferencia mínima de valores indicará cuál es
el elemento seleccionado.
r 270
r220
r270
r270 r156
r156
r270
r270
L3
r220
L1
L2
Fig.6.36. Matching de líneas mediante la utilización de la transformada de Hough
x s
Fig. 6.37. Representación ψ-s . Izq: Curva original; Der: Curva ψ- s
-π/2
π/2
-π/2
π/2
-π/2
π/2
y ψ
0
-π/2
x s
P1 Pn P1 Pn
P1 Pn P1 Pn
P1 Pn P1 Pn
Pk
P1 Pn P1 Pn P1 Pn
Fig.6.39. Algoritmo de división-fusión. Izq y centro: La cadena de píxeles se aproxima a líneas rectas
mediante la aplicación del algoritmo de división; Der: El pixel Pk es eliminado por la aplicación del
algoritmo de fusión al estar dentro de la tolerancia de la línea predeterminada
- Técnicas de clasificación
Las técnicas de clasificación (thresholding) o técnicas basadas en la utilización de
histogramas consisten en cuatro etapas:
1. Cálculo del histograma
2. Elección de los valores de corte: La elección de los valores de corte es la
decisión más compleja en el proceso de clasificación y se realiza en
función de la forma del histograma y del conocimiento de la imagen a
segmentar. Desafortunadamente, no siempre la decisión es sencilla, puesto
que, en la mayor parte de los casos los histogramas presentan muchos
picos y valles, que dificultan su clasificación.
3. Clasificación de los píxeles: Una vez determinados los valores límites de
las clases se realiza la clasificación.
4. Extracción de regiones mediante el método de componentes conectados:
En esta etapa se realiza la agrupación de los píxeles individuales a las
regiones. Los píxeles que están clasificados dentro de la misma clase
deben estar conectadas por al menos un píxel. La conectividad se define
mediante el método de vecindad N8 o N4.
Este tipo de técnicas dan buenos resultados y son eficaces si los objetos que se van
a reconocer o analizar no son demasiado complejos, como sucede en las imágenes
industriales. El problema fundamental de este método es la determinación automática
de los valores de corte, que a veces está directamente relacionado con el conocimiento
físico de los objetos de la imagen.
L
Y
* *
(u ,v )
-L u L
F O T OG RAM ET RIA I N F O R M A C I O N
Pareja: fotografia-fotogrametría
número de elementos eliminados: 3 (fotogrametría)
número de elementos insertados: 0
número de elementos reemplazados: 1 (f por m)
Distancia: 3+ 0 + 1 = 4
Pareja: fotografía-información
número de elementos eliminados: 4 (información)
número de elementos insertados: 3 (fotografía)
número de elementos reemplazados: 2 (f por c, a por n)
Distancia: 4 + 3 + 2 = 9
Por tanto, se considera que es mejor la similitud entre las palabras fotografía y
fotogrametría, que entre fotografía e información.
Este tipo de matching ha sido utilizado para la correspondencia de imágenes que
presentan un número elevado de discontinuidades (Baker y Binford, 1982; Ohta y
Kanade, 1987).
contiene
a b a b azul
rojo
sobre
c c rojo
sobre
sobre sobre
d e blanco d e blanco
sobre
g g sobre
amarillo
f dentro f verde
Fig.6.42. Izq: Imagen segmentada; Der: Características y relaciones entre los elementos extraídos
Tabla 6.8. Elementos extraídos (regiones), atributos y relaciones
Elem Color Forma a b c d e f G
a rojo irregul
b azul irregul contiene sobre sobre
c rojo irregul
d blanco irregul sobre sobre sobre
e blanco irregul izquierda sobre
f verde irregul
g Amarillo irregul dentro
no, dentro, sobre, debajo, a la izquierda de, a la derecha de, contiene a, vecino
de, cualquiera, enfrente de, detrás de, cierra a
Utilizando esta información se puede establecer la siguiente correspondencia: a
(sol), b(cielo), c(tejado), d(pared), e(pared), f(suelo), g(coche).
Evidentemente, esta correspondencia no es sencilla de establecer en especial en el
caso de tratar con imágenes reales, siendo fundamental el contar con una buena base
de datos así como algoritmos de correspondencia optimizados. Los algoritmos más
frecuentes son:
- relajación discreta (Price,1985; Hummel y Zucker,1983)
- búsqueda jerárquica (búsqueda de árbol) (Shapiro y Haralick, 1987)
El método más sencillo es el de la búsqueda jerárquica. En este algoritmo el
problema de correspondencia se establece en un árbol que consta de nodos y bordes
(Nilsson,1971). Cada nodo se debe entender como una relación posible entre una
característica de un elemento P1 y una característica de un elemento P2. Los bordes
representan las relaciones entre diferentes nodos. El proceso comienza con el nodo
principal, que representa el problema inicial, y cada camino desde el nodo inicial a los
nodos de los extremos representa posibles relaciones entre los atributos. La
profundidad del árbol es igual al número de primitivas en la lista P1.
La forma más frecuentemente empleada para la búsqueda es del tipo sistemático
(búsqueda ciega), si bien por el elevado esfuerzo de cálculo necesario es habitual la
introducción de la información adicional disponible lo que agiliza los cálculos y
mejora las soluciones. Debido a la complejidad de la búsqueda jerárquica este método
sólo se aplica a conjuntos de datos dispersos, como, por ejemplo, las descripciones
simbólicas de alto nivel, así Vosselman (1992, 1994) aplica este método al
reconocimiento y localización de objetos cuando no existe información disponible.
En la figura 6.43 se presenta un ejemplo de búsqueda jerárquica ciega construida
con las clases extraídas de la figura 6.42 P1={a,b,c,d,e,f,g} y
P2={sol,cielo,tejado,pared, coche,terreno}. La solución proporcionada es
{(a,sol),(b,cielo),(c,pared),(d,tejado), (e,pared),(f,terreno),(g,coche)} alcanzada tras 19
intentos (si bien este número es muy dependiente del orden inicial ya que con otras
combinaciones iniciales, la cifra se puede elevar a 25, si bien es importante indicar
que se alcanza la misma solución).
Este método es especialmente recomendable cuando se trabaja con imágenes que
tengan distorsiones importantes debido a que la correspondencia se establece entre las
descripciones de los elementos, reduciendo el efecto de las distorsiones. Presenta
además la ventaja de utilizar medidas de similitud a nivel global, por lo que no
requiere disponer de aproximaciones iniciales. No obstante, debido al problema del
elevado tiempo de cálculo es necesario, en la mayor parte de los casos, la reducción
del espacio de búsqueda mediante la introducción de restricciones geométricas o bien
mediante la introducción de información adicional referente a las condiciones de las
tomas de las imágenes.
372 AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA
a sol
b cielo
g sol coche
c) Problemas texturales
- La ausencia de elementos característicos del objeto que dificulten la
identificación del mismo, o bien el tamaño del objeto que produzca que sus
limites queden fuera de la zona del modelo.
- La existencia de elementos que se repiten en la imagen como, por ejemplo,
postes telefónicos o de luz, marcas viales, campos cultivados, Y).
- La existencia de superficies colgadas, como por ejemplo, intersecciones a
distinto nivel de vías de comunicación.
- Objetos de tamaño igual a un píxel que son complejos de detectar en la
fotografía.
- La existencia de niveles ambiguos como por ejemplo la cima de los árboles
y el terreno que está bajo ellos.
ADQUISICIÓN DE LA IMAGEN
Geométrico
PREPROCESAMIENTO
DE LA IMAGEN
Radiométrico
EXTRACCION DE ELEMENTOS
A FUSIONAR
REPRESENTACION SIMBÓLICA
FUSION DE ELEMENTOS
(MATCHING)
Correlación
SISTEMA
CENTRAL Operadores de interés
INTERFACE USUARIO
DE
CONTROL
Interpolación
PRODUCTOS
FOTOGRAMETRICOS
Geometría Epipolar
En la figura A6.2 se presenta un par estereoscópico con geometría epipolar siendo
C= y C=> sus centros de proyección. El plano epipolar es definido por los dos centros
de proyección y el punto objeto P. Las líneas epipolares e= y e=> se definen de la
intersección del plano epipolar y los planos de las imágenes.
En la mayoría de los casos, los dos ejes de toma de las fotografías no son paralelos
ni perpendiculares a la base aérea (C=C=>), entonces es necesario la transformación de
las imágenes a una posición en las que las líneas epipolares conjugadas sean paralelas
al eje x del sistema de coordenadas imagen, es decir, que tengan la misma coordenada
Y. Las imágenes normalizadas deben ser paralelas a la base aérea y deben tener la
misma distancia focal.
columna columna
fila
fila
columna columna
fila
fila
columna columna
fila
fila
Fig.A6.1. Relación de las imágenes. Arriba: Par estereoscópico; Centro: Imágenes normalizadas a partir de
los parámetros de orientación externa; Abajo: Corrección de los errores de la cámara (distorsión radial), de
los errores debidos a la refracción atmosférica y a los errores del escáner
FOTOGRAMETRÍA DIGITAL 377
C’
C”
P’ e’
e” P”
C’
P
C”
P’
e’
e” P”
P
Fig.A6.2. Sup: Par estereoscópico en su posición original. Inf: Transformada normalizada
en la que las filas de ambas imágenes coinciden con las líneas epipolares (Schenk, 1999)
donde xp,yp son las coordenadas imagen, fp la distancia focal, r11Yr33 son los
elementos de la matriz ortogonal de rotación R que define la orientación de la cámara
378 AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA
y Xo,Yo,Zo son las coordenadas del punto de vista y X,Y,Z las coordenadas de los
puntos objeto.
Los elementos de la matriz de rotación son obtenidos mediante las siguientes
expresiones:
m11 = cosϕ cosκ
m12 = cosω senκ + senω senϕ cosκ
m13 = senω senκ - cosω senϕ senκ
m21 = -cosϕ senκ
m22 = cosω cosκ - senω senϕ senκ
m23 = senω cosκ + cosω senϕ senκ
m31 = senϕ
m32 = -senω senϕ
m33 = cosω cosϕ
La transformación se realiza en dos pasos, en primer lugar se pasa de la imagen
original (imagen píxel) a la imagen verdaderamente vertical y posteriormente esta
imagen es normalizada. En la figura A6.3 se muestra la relación entre imagen píxel e
imagen normalizada.
C'' (X'',Y'',Z'')
C'(X',Y',Z')
Κ P''
Φ
Bz By
Bx
P'
f N''
f N' A''
A'
Z
N''
N'
X
Fig.A6.3. Relación entre imagen píxel e imagen normalizada (Cho y Schenk, 1992)
FOTOGRAMETRÍA DIGITAL 379
donde xN,yN son las coordenadas de la imagen normalizada, xo,yo son las
fotocoordenadas en la imagen original y r11...r33 son los elementos de la matriz de
rotación RN.
380 AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA
b) Transformación proyectiva
La transformación proyectiva puede ser aplicada debido a que la imagen píxel y la
imagen normalizada son dos planos.
c11x p + c12 y p + c13 c 21x p + c 22 y p + c 23
xN = yN =
c 31x p + c 32 y p + 1 c 31x p + c 32 y p + 1
r31 r32
c 31 = c 32 =
f P r33 f P r33
Z
Y
f
f
Y
1 1
c'31 = c13 c'32 = c23
f Pf N f Pf N
Para el caso general de diferentes focales (fP … fN), los coeficientes de proyección
inversa son obtenidos por la inversión de la matriz RN, debido a que RN-1 … RNT.
Tras la aplicación de la transformación geométrica, el problema es determinar que
valor de gris le corresponde a cada píxel debido a que la posición proyectada del píxel
no tiene porqué coincidir con la posición original del mismo ni con un valor entero.
Para el remuestreo se suelen emplear dos técnicas:
a) Vecino más próximo (interpolación de orden cero). El nivel digital será el
correspondiente al píxel transformado más próximo. Es un método muy
simple pero que puede producir efectos no deseables.
b) Interpolación bilineal. Los niveles digitales de los 4 píxeles más cercanos
contribuyen en el cálculo del nivel digital final en función de la inversa de su
distancia.
En resumen se aplican cuatro transformaciones (fig.A6.5):
T1: Transformación entre la fotografía original (diapositiva) y la imagen digital
(imagen píxel). Los parámetros de transformación se determinan en el proceso de
calibración del sistema de captura (cámara o escáner). Las referencias empleadas son
las marcas fiduciales, los puntos de control o la cuadricula del formato (réseau).
T2: Transformación proyectiva entre la fotografía original y la fotografía normalizada.
T3: Definición del sistema de coordenadas para la imagen píxel en la geometría
epipolar (imagen normalizada) (fig.A.6.6). El origen de la imagen digital normalizada
se determina en función de la coordenada y máxima que determina la fila 0 para
ambas imágenes. La coordenada x mínima de ambas coordenadas define la columna
0. Para el cálculo del tamaño de la imagen digital normalizada se calcula de diferencia
máxima de coordenadas dmáx, tanto en la dirección x- como y-. A continuación se
puede elegir dos opciones:
- conservar el tamaño de píxel original, p, y calcular el número de píxeles r
mediante r = dmáx / p.
- conservar el número de píxeles original y calcular el nuevo tamaño de píxel
mediante p = dmáx / r.
382 AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA
1 col
1
col
2
2
T4 3
3 4 4
fila fila
Imagen Digital Imagen Digital Normalizada
(Fotografía original)
Fig.A6.5. Relación entre fotografía y imagen píxel, en posición real y normalizada (Cho y Schenk, 1992)
columna P2 columna
P2 P3 y
y P3
x
x
dm áx
P1 P4 P1
P4
fila
fila
fila columna
Fig.A6.6. Determinación del tamaño de la imagen normalizada (Schenk,1999)
REFERENCIAS BIBLIOGRÁFICAS
Ackermann,F. (1984). Digital Image Correlation: Perfomance and Potential Application in
Photogrammetry. Photogrammetric Record, 11 (64), 429-439.
Attneave, F. (1954). Some Information Aspects of Visual Perception. Psycological Review, 61, 183-193.
Baker, H.H. y Binford, T.O. (1982). Depth from Edges and Intensity Based Stereo. En: International Joint
Conference on Artificial Intelligence, Vancouver, Canada, 631-636.
Ballard,D.H. (1981). Generalizing the Hough transform to detect arbitrary shapes. Pattern Recognition,
13(2), 111-222.
Ballard,D.H. y Brown,C.M. (1982). Computer Vision, Prentice-Hall, Englewoods Cliffs, New Jersey.
Bernstein, R. (1973). Scene Correction (Precision Processing) of ERTS Sensor Data using Digital Image
Processing Techniques, Proc. of the 3rd ERTS Symposium, vol. 1-A, NASA, SP-351.
Bethel,J. (1986). The DSR11 image correlator. Proc. ACSM/ASPRS Annual Convention, 4, 44-49.
Boyer, K.L. y Kak, A.C. (1988). Structural Stereopsis for 3-D Vision. IEEE Transactions on Pattern
Analysis and Machine Intelligence, 10(2), 144-166.
Brügelmann, R. y Förstner, W. (1992). Noise Estimation for Color Edge Extraction. En: Förstner,W. y
Ruwiedel, S. (eds). Robust Computer Vision, Wichmann, Karlsruhe, 90-107.
Brunn, A. (1998). Techniques for Automatic Building Extraction. Proc. 3rd Course on Digital
Photogrammetry. Landesvermessungsamt Nordrhein-Westfalen, Institute of Photogrammetry Univ of
Bonn, 9-13 Febrero.
Burkhardt,H. y Moll, H. (1979). A modified Newton-Raphson Search for the Model-Adaptative
Identification of Delays. Proc. of the IFAC Symposium on the Identification and System Parameter
Estimation, Darmstadt, Alemania, 1279-86.
Canny,J.F. (1983). Finding Edge and Lines in Images. Technical Report 720, Massachusettes Institute of
Technology, Artifical Laboratory, Massachusettes, USA.
Canny,J.F. (1986). A Computational Approach to Edge Detection. IEEE Transactions on Pattern Analysis
and Machine Intelligence PAMI-8, 6, 679-698.
Chen, Y. y Schenk, T. (1992). A rigorous calibration method for digital camera. IAPRS, 29(B1),199-205.
Cho, W.; Schenk, T. y Madani, M. (1992). Resampling digital imagery to epipolar geometry. IAPRS,
29(B3),404-408.
Dreschler,L. (1981). Ermittlung markanter Punkte auf den Bildern bewegter Objekte und Berechnung einer
3-D Beschreibung auf dieser Grundlage. Ph.D. Thesis, Universität Hamburg, Fachbereich Informatik.
Förstner,W. (1982). On the Precision of Digital Correlation. IAPRS, 24(3), 176-189. Helsinki.
Förstner,W. (1986). A Feature Based Correspondence Algorithm for Image Matching. IAPRS, 26(3/3),
150-166. Rovaniemi.
Förstner,W. (1993). Matching Techniques. En: Haralick, R.M. y Shapiro, L. (eds) Computer and Robot
Vision. Addison-Wesley, 289-378.
Förstner,W. y Gülch,E. (1987). A Fast Operator for Detection and Precise Location of Distinct Points,
Corners and Circular Features. En: Intercommission Conference on Fast Processing of Photogrammetric
Data, 281-305.
Fuchs,C. (1998). Extraktion polymorpher Bildstrukturen und ihre topologische und geometrische
Gruppierung. Ph.D. Thesis, Universität Bonn.
Gopfert, W.M. (1980). Image Correlation and Change Detection. 14th ISPRS Congress, Comm.3 (WG2),
246-255. Hamburg.
Greenfeld,J.S. (1991). An Operator-Based Matching System. PE&RS, 57(8), 1049-1055.
Grimson,W.E.L. (1981). Theory of Stereo Human Vision. Phil.Tras.Royal Soc of London, B292, 217-253.
Grün,A. (1985). Adaptative Least Squares Correlation: a Powerful Image Matching Technique. South
Africa Journal of Photogrammetry, Remote Sensing and Cartography, 14(3), 175-187.
Gyer,M. (1981). Automated stereo photogrammetric terrain elevation extraction. Tech.Report, Gyer and
Saliba, Inc.
Hahn,M. (1994). Bildsequenzanalyse fûr die passive Navigation. Ph.D. thesis, Institu t für
Photogrammetrie, Universität Stuttgart.
Hannah, M.J. (1974). Computer Matching of Areas in Stereo Images. Ph.D. Thesis, Stanford University,
Report STAN-CS-74-483, Stanford, California.
Helava,U.V. (1976). Digital Correlation in Photogrammetric Instruments. IAPRS, 23(2),Helsinki.
Helava,U.V. (1978). Digital Correlation in Photogrammetric Instruments. Photogrammetria, 34, 19-41.
Helava,U.V. (1988). Object Space Least Squares Correlation. Proc. ACSM-ASPRS Annual Convention,
St.Louis, Missouri, 3, 46-55.
FOTOGRAMETRÍA DIGITAL 385
Vosselman, G. (1992). Relational Matching. Lecture Notes in Computer Science 628. Springer-Verlag.
Vosselman, G. (1994). On the use of Tree Search methods in Digital Photogrammetry. En: Ebner, Heipke,
Eder (eds.). ISPRS, vol. 30 (3/2), 886-893. SPIE.
Weidner, U. (1994). Parameterfree Information-Preserving Surface Restoration. En: Eklundh,J.O. (ed.)
Computer Vision. ECCV=94, vol. II, 218-224.
Wild, D. (1998). Automatic Generation of Digital Elevation Models. Proc. 3rd Course on Digital
Photogrammetry. Landesvermessungsamt Nordrhein-Westfalen / Institute of Photogrammetry
University of Bonn, 9-13 Febrero.
Wolff,K. (1998). Automatic Orientation Procedures. Proc. 3rd Course on Digital Photogrammetry.
Landesvermessungsamt Nordrhein-Westfalen / Institute of Photogrammetry University of Bonn, 9-13
Febrero.
Zamperoni, P. (1991). Methoden der Digitalen Bildsignalverarbeitung. Vieweg.
Zheng, Y.J. (1993). Inverse und schlecht gestelle probleme in der photogrammetrischen
objektrekonstruction. DGK-C 390.
7.1 Introducción.
7.2 Automatización del proceso de Orientación Interna.
7.3 Automatización del proceso de Orientación Relativa.
7.4 Aerotriangulación Digital Automática.
7.5 Automatización del proceso de Orientación Absoluta.
7.1 INTRODUCCIÓN
La primera cuestión que cabe plantearse cuando se analiza la automatización de
un proceso son las necesidades reales de automatización así como las ventajas
derivadas de la misma. La orientación en los sistemas fotogramétricos analíticos
consta de una etapa de medida manual (con desplazamientos automatizados) y un
proceso de cálculo automatizado mediante la aplicación de programas informáticos
para el cálculo de los parámetros de la orientación. Este proceso puede ser
considerado como un proceso fiable y bastante rápido. Por tanto, sólo es justificable la
automatización de la orientación en el caso de que pueda ser realizar a mayor
velocidad, sin la participación directa de un operador (que se limitaría al análisis y
comprobación), siempre que se obtenga un grado de precisión similar a la de las
medidas manuales.
La importancia de la automatización del proceso de orientación de los fotogramas
radica en el hecho de que es el primer paso para la obtención de un sistema de
cartografía automatizado (Schenk, 1989; Schenk et al., 1991). En la figura 7.1 se
muestra el esquema conceptual de dicho sistema, que en base a la clasificación clásica
de la visión computerizada se divide en tres niveles: En cada nivel se procesa la
información de la imagen que será analizada e integrada en el siguiente nivel,
consiguiendo que aunque uno de los niveles no sea robusto su combinación si lo sea.
387
388 AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA
IMAGENES ORIGINALES
Orientación
Agrupación Segmentación
centro perspectivo x
columna
p
f
PP P
PS
CF
fila
128
128
12
8
705
89
5
64
64
Fig.7.3. Morfología de una marca fiducial correspondiente a la cámara Leica RC-30 (medidas en µm).
Los rectángulos de la parte derecha indican el número de marca (n14 - esquina superior derecha).
392 AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA
Valor de corte: 71
ND Máximo: 196
0.10 Media: 28.21
D.Típica: 33.59
0.08
0.06
0.04
0.02
0.00
0 50 100 150 200 250
Nivel Digital
Para que la binarización sea adecuada es necesario que el histograma presente una
estructura bimodal, con un máximo en los valores mínimos que representa el nivel de
gris del fondo y el otro máximo (con menor frecuencia) en los valores máximos que
representan los pixeles que forman la marca.
El problema básico en este procedimiento es la determinación del valor de corte.
Otsu (1979) propone un método para la determinación automática del valor de corte
basado en la minimización de la suma ponderada de las varianzas de los grupos. Sea t
el valor de corte que divide la imagen en dos grupos, i1 e i2, de varianzas σ21(t) y
σ22(t), la suma ponderada de las varianzas de los grupos viene dada por:
σ 2w = s1 (t ) σ12 (t ) + s 2 (t ) σ 22 (t )
t N
t N ∑ p(i ) i ∑ p( j) j
s1 (t ) = ∑ p(i ) s 2 (t ) = ∑ p(i) µ1 (t ) = i =1
s1 (t )
µ 2 (t ) =
j= t +1
s 2 (t )
i =1 j= t +1
t t
∑ (i − µ1 (t ))2 ∑ ( j − µ 2 (t ))2
σ12 (t ) = i =1 σ 22 (t ) = i =1
s1 (t ) s 2 (t )
Probabilidad
0.14
ND Mínimo: 0
Valor de corte 1: 25
Valor de corte 2: 50
Valor de corte 3: 71
Valor de corte 4: 90
0.12 ND Máximo: 196
Media: 34.64
0.10
D.Típica: 56.07
0.08
0.06
0.04
Marca 1 0.02
0.00
0 50 100 150 200 250
Nivel Digital
Probabilidad
0.14
ND Mínimo: 0
Valor de corte 1: 25
Valor de corte 2: 50
Valor de corte 3: 71
Valor de corte 4: 90
0.12 ND Máximo: 197
0.10 Media: 32.36
D.Típica: 53.33
0.08
0.06
0.04
Marca 2 0.02
0.00
0 50 100 150 200 250
Nivel Digital
Marca 1
Marca 2
4.0 10 10 6.0
4.0 10 10 6.0
Nivel Digital
200
150
100
50
Marca 1 Marca 2
0
0 20 40 60 80 100 120
Columna
Fig.7.7. Perfiles de las marcas 1 y 2 de la fig 7.5. Fotogramas digitalizados a partir de negativos
(transformados a positivos) a 21µm con un escáner fotogramétrico Vexcel VX-3000 Plus
Tabla 7.1. Resultados de la determinación de la posición de la marca mediante el método del centroide a
partir de imágenes binarizadas aplicado a las marcas 1 y 2 de la figura 7.5
Marca 1 Marca 2
Valor de corte
N1Píxeles X y N1Píxeles x Y
25 3461 61.949 59.488 3299 62.642 59.327
50 3221 61.563 59.573 3001 62.613 60.226
71 (σ2w mín.marca 1) 3083 61.722 59.703 2778 62.306 60.352
90 (σ2w mín.marca 2) 2983 61.923 59.710 2567 62.970 60.359
ventana 3x3 que contiene a los valores máximos a una superficie cuadrática mediante
un proceso de mínimos cuadrados. La ecuación de observaciones es del tipo:
ri= a xi2 + b yi2 + c xi yi + d xi + e yi + f - ρi
donde ρi, i=1,Y,9 son los coeficientes de correlación correspondientes a la ventana
3x3. El valor máximo de la superficie viene dado por las expresiones:
2ax + cy + d = 0
cx + 2by + e = 0
Trinder et al. (1995), entre otros autores, plantean que la binarización de la imagen
es un proceso innecesario en la orientación interna autónoma mediante correlación
cruzada, con los inconvenientes añadidos de la necesidad de la elección de un valor de
corte que a veces es problemática que además supone una pérdida de información (el
nivel digital de la imagen se sustituye por un nivel digital binario 0-1).
El procedimiento para la aplicación del método de correlación cruzada sobre la
imagen original eliminando el proceso de binarización comienza con la creación de
patrones ideales de la marca fiducial teniendo en cuenta la función de expansión de la
línea. A continuación estos patrones son remuestreados utilizando diferentes
desplazamientos a nivel de subpíxel (0.2, 0.4, 0.6, 0.8) (fig.7.8) y correlacionados
con la imagen real obteniendo los coeficientes de correlación y determinando el
máximo mediante ajuste por mínimos cuadrados de una superficie cuadrática a la
zona de máximos.
∆c
∆f
Fig.7.8. Patrón ideal de una marca fiducial remuestreado según diferentes posiciones a nivel de subpixel.
Los valores digitales que se obtienen en cada caso son ligeramente distintos al depender de la superficie de
marca fiducial que se sitúa sobre cada pixel (Schenk,1999)
Estructura Relación
Fig.7.9. Elementos que componen las marcas fiduciales y relaciones entre los mismos (Schenk, 1999)
398 AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA
Fig.7.10. Sup: Izq: Imagen original; Der: Resultado de la extracción de bordes de la imagen digital
mediante la aplicación de un filtro de Roberts. Inf: (de izq a der): Extracción de la zona de la marca;
Binarización de la región; Selección de los pixeles mediante un proceso de detección de círculos; Selección
de los pixeles mediante un proceso de detección de líneas que forman -45 y 45º
- Detección de círculos
El método más frecuentemente empleado para la detección de círculos es la
técnica de la transformada de Hough (ver capítulo 6). Un círculo puede ser
representado en el dominio espacio como:
(x-xo)2 + (y-yo)2 = r2
donde xo,yo es el centro, r el radio y x,y las variables.
Si se considera un punto perteneciente al círculo xi,yi y los parámetros del mismo
xo,yo,r (a,b,r) su representación en el dominio de los parámetros (a,b) también será un
círculo de forma que todos los círculos se intersectan en un punto que define el centro
del círculo. Debido a esto sólo es necesario identificar tres puntos del círculo para
tener caracterizado el mismo, el centro se localiza mediante la intersección de los
círculos representados en el dominio de los parámetros, mientras que el radio se
define como la distancia entre el centro calculado y los puntos localizados en el
dominio del espacio (fig.7.11).
Este método se puede aplicar para la detección de círculos en la zona de la imagen
en la que está incluida la marca fiducial. El radio de los círculos a localizar se conoce
con precisión a partir de la información de la cámara empleada, por lo que se puede
reducir el dominio de los parámetros (a,b,r) a un dominio bidimensional (a,b). El
proceso comienza con la detección de bordes y con la creación de una matriz
bidimensional xo,yo denominada matriz de acumulación.
FOTOGRAMETRÍA DIGITAL 399
b
0 4
1
-1 0
2
5
-2 0
y
70 -3 0 3
60 6 -4 0
50 3 -5 0
5 7
40 2
-6 0
30 7
4 1 -7 0 6
20
10 -8 0
0 -9 0
0 10 20 30 40 50 60 70 -8 0 -7 0 -6 0 -5 0 -4 0 -3 0 -2 0 -1 0 0 10 20 30
x a
Fig.7.11. Relación entre la representación de los puntos en el dominio del espacio (izq) y en el dominio de
los parámetros (der). Cada punto da lugar a un círculo, la intersección de los círculos en el dominio de los
parámetros de los puntos pertenecientes a un mismo círculo en el dominio del espacio define el centro del
círculo en el dominio del espacio (Schenk, 1999)
Por último, cada uno de los píxeles clasificados como bordes son representados en
dicha matriz, tras la conclusión del proceso se identifican los elementos de la matriz
con un mayor número de píxeles que definen la posición del centro del círculo.
- Detección de líneas rectas
Teniendo en cuenta el diseño de las marcas fiduciales es necesario la detección de
conjuntos de líneas paralelas que forman cruces (orientación de las líneas 0 y 901) o
aspas (orientación de las líneas -45 y +451), además la longitud de las mismas es
conocida.
Para su detección se emplea la transformada de Hough con un procedimiento
similar al empleado en la detección de círculos. La expresión de la recta es del tipo
y=mx+c, en el dominio del espacio que se representa en el dominio de los parámetros
en función de la pendiente (m) y la ordenada en el origen (c), por lo que sólo se
consideran las rectas con pendientes en función de las orientaciones de las rectas
buscadas con la información adicional de que las rectas deben ir agrupadas de dos en
dos y que deben formar 901 con otro par de líneas.
- Localización precisa de la marca
Para conseguir una localización más precisa de la marca se procede a un ajuste por
mínimos cuadrados en alguna de las estructuras bien definidas de la misma. Así, por
ejemplo, se puede plantear el ajuste en los círculos concéntricos que dan lugar al
anillo característico de la marca y a continuación repetir el proceso con los pares de
líneas rectas.
Las expresiones analíticas de los dos círculos son:
400 AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA
- Método de Schickler
El método de Schickler (Schickler, 1995; Schickler y Poth, 1996) fue desarrollado
en el marco de un convenio de colaboración entre el Instituto de Fotogrametría de la
FOTOGRAMETRÍA DIGITAL 401
3 6 2
7 5
4 8 1
Fig.7.13. Sup: Símbolos para la identificación de las marcas fiduciales en la cámara Leica RC-30.
Inf: Distribución de las marcas en el fotograma (la etiqueta de la cámara focal,
situada en la parte inferior derecha indica la dirección del eje x positivo)
Φ
d
r r
ri
d ro
Fig.7.14. Elementos para la descripción de patrones. Izq: circulo (r,d); cruz (ri,ro,d,Φ) y punto (r)
ventaja lógica del rendimiento más elevado, con tiempos medios que oscilan entre los
5 y los 23 s frente a los 40 s por imagen de las medidas realizadas por el operador.
Tabla 7.3. Resultados de la Orientación Interna Automática (tiempos medidos en una SunSparc 20/71)
n1 n1 de σo(µm) tiempo medida (s)
Modelo Tipo µm
fotos marcas máx mín med máx mín med
LMK b/n 25 14 8 7.9 3.1 5.2 8 3 6
UMK color 12.5 3 4 5.1 2.8 4.2 26 19 23
RC20 b/n 12.5 52 4 16.2 1.4 5.3 26 4 11
RC30 b/n 25 291 8 24.0 4.7 7.7 8 3 5
- Método de Lue
El método de Lue (1997) tiene como objetivo la realización de una orientación
interna autónoma, para lo cual utiliza una versión modificada el método de matching
de malla recursiva-ventana dinámica (RG-DW) empleado en el módulo Digital Ortho
de ERDAS 7.5 para la generación de MDE (Lue y Novak, 1991, 1992) al que se ha
añadido un proceso de matching por mínimos cuadrados para mejorar la precisión de
la medida.
El proceso se basa en la aplicación de una variante del método de matching de
patrones por mínimos cuadrados para lo cual utiliza una base de datos existente en el
sistema Softplotter que contiene los principales modelos de cámaras. Para reducir el
espacio de búsqueda y agilizando el proceso y proporcionándole una mayor robustez
se utilizan pirámides de imágenes (4 niveles: 1:1, 4:1, 16:1, 64:1) en las zonas en las
que se prevé que estén localizadas las marcas. El tamaño de la ventana de búsqueda se
disminuye desde el tamaño de 512x512 píxeles para la primera marca hasta 128x128
para las últimas marcas debido a que la precisión de la zona es mayor, al ir empleando
las medidas efectuadas para el refinamiento de los parámetros.
Tras el proceso de búsqueda de las marcas en cada imagen, se calculan los
parámetros de transformación en función de las coordenadas medidas -localizadas- y
las calibradas. Si el error medio cuadrático es superior a un determinado límite, el
programa advierte al usuario y registra los resultados en un fichero para su consulta
posterior.
Este método fue aplicado en su versión beta (1995) en más de 400 fotogramas,
tanto en blanco/negro como en color, con diferentes escalas y digitalizadas con
diferentes escáneres con resoluciones entre 15 y 30 µm. La medida automática de
3268 fiduciales (421 fotogramas) obtuvo coeficientes de correlación superiores al
95% en 2755 marcas (84.3%) y entre el 95 y 90% en 442 marcas (13.5%), con errores
medios cuadráticos de 0.325 píxeles (con un mejor resultado de 0.130 píxeles) y unos
tiempos de ejecución entre 5 y 9 s para la medida de un fotograma con 8 marcas
fiduciales en una estación Silicon Graphics Indigo 2 con R4000/150MHz.
En la Tabla 7.4 se resumen los diferentes métodos de orientación interna
autónoma incorporados en sistemas comerciales y organismos.
406 AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA
Tabla 7.4. Métodos de orientación interna autónoma (Lue, 1996; Strackbein y Henze,1995)
Método Localización Localización Estimación de Disponibilidad Comentarios
aproximada de precisa de las la orientación
las marcas marcas
Kersten y Transformada Matching por Depende del Uso interno en Las marcas se
Häring Hough mínimos tipo de cámara Swissair definen como
modificada cuadrados Photo+Surveys elementos
Ltd.
Lue Correlación Matching por Manual Softplotter de Las marcas se
jerárquica de mínimos Autovision Int. incluyen en una
niveles de gris cuadrados base de datos
Schickler Correlación Correlación de Automática Phodis de Zeiss Permite diferentes
jerárquica de niveles de gris marcas. Detección
niveles de gris positivo/negativo
Strackbein Análisis de la Ajuste de Manual? Uso interno en la Sólo para marcas
y Henze imagen binaria parábolas a los LVA Nordrhein- circulares
sin pirámide niveles Westfalen
digitales
homólogos de forma que se mejora la robustez hasta llegar a niveles comparables con
los sistemas manuales de orientación relativa.
En la Tabla 7.5 se resumen las diferencias más importantes entre el procedimiento
de orientación relativa manual y el de orientación relativa automática.
Tabla 7.5. Diferencias entre la orientación relativa manual y automática (Schenk, 1999)
Orientación Relativa Manual Orientación Relativa Automática
Operador manual El operador es el propio sistema
- Selecciona y mide los puntos - Extrae y correlaciona elementos
- Selección óptima - La selección es aleatoria y objetiva
- Número de puntos reducido - Número de puntos muy elevado
- Medida estereoscópica - Identifica elementos homólogos
- Trabajo de gran precisión - Trabajo con menor precisión
Procedimientos de ajuste a nivel puntual, mediante Procedimientos de ajuste a nivel de puntos aunque
el empleo de las expresiones de colinearidad o los algoritmos buscan la correspondencia de los
coplanaridad elementos y no de los puntos
−(1 / 2 )
Precisión de los parámetros de orientación σ p ≈ σ o (dr )
σo pequeño, redundancia (r) pequeña, el factor c σo mayor, c aproximadamente igual, la redundancia
depende de la distribución de los puntos (r) es mucho mayor y compensa el valor de σo
EXTRACCIÓN DE
E LEMENTOS
MATCHING DE
E LEMENTOS
CÁLCULO DE PA RÁMETROS
DE ORIENTACIÓN RELATIVA
No Nive l Intermedio de la
E valu ació n d e Resultados Pirámide de Imá genes?
Sí
Bucle del Primer Subpro ceso
Sí Bucle del
S egundo Sub proceso
Parámetros de Orie ntación
Re lati va y Pu ntos Co njugado s
Fig.7.15. Concepto del algoritmo de orientación relativa automática (Liang y Heipke, 1996)
- Extracción de elementos
Los elementos que podemos extraer de una imagen son básicamente: puntos,
bordes (o líneas) y áreas. Para la orientación automática relativa es más aconsejable la
utilización de elementos de carácter puntual debido a que tiene una geometría más
estable y son más sencillos de utilizar para la orientación relativa. Existen diversos
métodos que nos permiten realizar la extracción de estos elementos de la imagen
(Moravec, 1976; Hannah, 1980; Dreschler, 1981; Förstner, 1986) siendo los más
aconsejados para la extracción en fotografías reales el de laplaciana de una gausiana,
el de Förstner y el de Moravec.
Luhmann y Altrogge (1986) indican que los operadores con mayores ventajas son
el de Förstner y el de Moravec. El operador de Förstner tiene las mismas ventajas
teóricas que el de Moravec (invariante a la rotación, precisión potencial a nivel de
subpíxel) si bien presenta el inconveniente de su mayor lentitud frente al operador
clásico de Moravec.
- Fusión de elementos
Una vez obtenidos los elementos a fusionar de ambas imágenes, la siguiente etapa
consiste en la identificación de los elementos homólogos. Para ello se plantea la
utilización de un modelo matemático para transformar los elementos de un fotograma
al otro y una posterior medida de similitud para formar y evaluar las fusiones siendo
el modelo más frecuentemente empleado es la colinealidad. Para el nivel de la
pirámide más alto, los parámetros de orientación iniciales se calculan a partir de los
datos de entrada, suponiendo la superficie del terreno de la zona de solape como de
elevación constante. Para los niveles inferiores se van utilizando los resultados de los
niveles más elevados, tanto los parámetros de orientación como los puntos de control.
Dichos parámetros y puntos se utilizan para la transformación de los elementos de la
imagen izquierda a la derecha, la cota requerida para los cálculos se obtiene a partir
de los puntos del modelo conocidos para el anterior nivel: primero, los puntos del
modelo se proyectan en la imagen izquierda y posteriormente se busca el punto del
modelo del nivel anterior más próximo al elemento considerado obteniéndose una
aproximación a la cota final del elemento.
Para identificar los elementos homólogos de uno determinado, se determina una
línea epipolar en la imagen derecha mediante la utilización de las ecuaciones de
colinealidad junto con los parámetros de orientación actuales en el nivel de la
pirámide en el que se está trabajando. Si se considera la geometría epipolar el
elemento a identificar estará en la misma línea epipolar si bien es necesario tener en
cuenta que no se utilizan valores exactos sino simplemente aproximaciones, por lo
que en lugar de establecerse una línea de búsqueda se plantean unas ciertas
tolerancias, dando lugar a una banda de búsqueda.
Todos los elementos que han sido identificados en la fotografía derecha dentro de
la banda de búsqueda se consideran como posibles elementos homólogos del
elemento considerado. Para cada pareja de elementos se calcula el coeficiente de
correlación Q, si este valor es superior a un determinado nivel la pareja es considerada
válida en términos de radiometría y se calcula la distancia entre el elemento de la
FOTOGRAMETRÍA DIGITAL 411
fotografía derecha y la línea epipolar. Entre todas las posibles líneas se seleccionan
los n elementos con distancias más cortas, n es un número predefinido que indica el
número máximo de parejas en la imagen derecha que pueden ser consideradas como
conjugadas a un elemento en la imagen izquierda. La medida de similitud para la
fusión se establece en función de la distancia entre un elemento en la imagen derecha
a la línea epipolar correspondiente y los coeficientes de correlación obtenidos.
La fusión de elementos no es un proceso simple, existiendo diferentes problemas
que dificultan el proceso:
- el primer problema surge del hecho de que no todos los píxeles extraídos
como elementos singulares tienen su correspondiente homólogo en el otro
fotograma. Así, por ejemplo, la esquina definida por una pared vertical de un
edificio tendrá longitudes diferentes en cada fotograma en función de su
distancia al nadir, por lo que no todos los píxeles tendrán su correspondencia
directa.
- otro problema se produce debido a que el proceso de extracción de elementos
no es un proceso libre de error, por lo que en un fotograma pueden aparecer
elementos (bordes) Afalsos@ o bien pueden omitirse la extracción de ciertos
elementos al no superar las condiciones de variabilidad las dos regiones que
éste separe.
- la extracción de los puntos y su localización en la imagen, así como la
identificación de los puntos homólogos en la otra imagen del par es un
proceso que conlleva un determinado error que debe ser tenido en cuenta en
todo el proceso de orientación y, en especial, en el cálculo de los parámetros.
dirección paralela a la línea de base. Estos errores no tienen efecto en los parámetros
de orientación, sin embargo, producen errores en la determinación de la altitud de los
puntos del modelo. Para solventar este problema, se puede asumir que el área de
solape es plana, ignorando las ondulaciones del terreno para los niveles más elevados
de la pirámide. Los parámetros de este plano son determinados por un ajuste de
mínimos cuadrados utilizando las coordenadas de los puntos del modelo disponibles
como observaciones. En niveles de la pirámide inferiores se utilizan las coordenadas
modelo de los puntos del nivel anterior y se realiza un ajuste por mínimos cuadrados.
Los puntos que tienen residuos superiores a 3 veces la desviación típica resultante son
considerados erróneos y descartados. Por lo general, conforme aumenta el relieve
aumenta la desviación típica obtenida por lo que se aumenta la tolerancia y los puntos
eliminados son menores, así en una zona llana la desviación sería muy pequeña y sólo
serán conservados aquellos puntos con residuos muy pequeños. Por tanto, se trata de
una técnica con tolerancia variable en función del tipo de relieve.
- Factores de control utilizados
Como se ha comentado con anterioridad, en la primera fase del cálculo se
necesitan unos parámetros iniciales de cálculo, estos parámetros son básicamente:
− tamaño del píxel de imagen.
− tolerancia para la extracción de elementos.
− tamaño de la ventana de búsqueda y de la ventana para el cálculo del
coeficiente de correlación.
− el factor de escala para la eliminación de parejas erróneas.
Los factores clave para determinar la calidad del proceso de orientación son el
número y la distribución de los puntos homólogos localizados. La desviación típica de
los cinco parámetros de la orientación estará afectada por dichos factores aunque su
interpretación individualizada es compleja. Para que un conjunto de valores sea
considerado como correcto deben cumplirse dos condiciones: el número de puntos
identificados como homólogos debe ser superior a un determinado límite (se suele
imponer 30) y además estos puntos deben estar distribuidos por el modelo de forma
de que si lo dividimos en 3x5 partes en cada una de ellas exista al menos 1 punto.
La selección entre todos los conjuntos que cumplan las dos condiciones anteriores
se establece en base al cálculo de las desviaciones típicas en planimetría de las cuatro
esquinas del modelo utilizando la matriz de covarianza de los cinco parámetros de la
orientación relativa y la propagación del error, el error final de un conjunto de datos
será el máximo de esos cuatro puntos. Evidentemente, el conjunto de datos con un
error más bajo será considerado como el mejor conjunto y los parámetros de
orientación calculados serán los utilizados como datos de entrada en el siguiente nivel
de la pirámide.
- Desplazamiento en la ventana. Cambio de nivel en la pirámide
La idea del trabajo en pirámides de imágenes y el cálculo en niveles de resolución
progresivamente más elevada se basa en la idea de que un elemento seleccionado en
un nivel será en el siguiente nivel una de estas tres posibilidades:
FOTOGRAMETRÍA DIGITAL 413
Fig.7.16. Orientación Relativa (Modelo Finlandia). Sup: Elementos extraídos del nivel 5;
Medio: Puntos conjugados nivel 5; Inf: Puntos conjugados imagen original (nivel 0)
FOTOGRAMETRÍA DIGITAL 415
Fig.7.17. Orientación Relativa (Modelo Bavaria). Sup: Elementos extraídos del nivel 5;
Medio: Puntos conjugados nivel 5; Inf: Puntos conjugados imagen original (nivel 0)
416 AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA
Por otro lado, fueron realizadas las orientaciones de otros 8 modelos de diferentes
características tanto en escalas 1:3000 a 1:34000 como en tipos de terreno (tabla 7.8)
desde modelos urbanos a zonas montañosas. En todos los casos las precisiones
obtenidos están en torno a las que podrían obtenerse de forma manual (3.2 a 3.6 µm),
comprobándose mediante un operador que todos los modelos estaban libres de
paralaje y. El tiempo medio para la realización de la orientación relativa fue de 4
minutos partiendo de que las pirámides de imágenes ya estaban realizadas así como la
orientación interna de cada nivel.
Tabla 7.8. Resultados de las orientaciones relativas automáticas (Liang y Heipke, 1996)
Nº. Puntos σ σ
Modelo Tipo Terreno Escala
Conjugados (µm) (pix)
Bayer,Zell Montañoso, Forestal 1:34000 220 3.6 0.24
Bopfingen Accidentado, Fuertes Pendientes 1:25000 183 3.3 0.22
CZ1 Agrícola 1:12000 203 3.4 0.23
Eichstätt Abrupto, Agrícola (industrial) 1:17000 713 3.3 0.22
Finlandia Llano, Agrícola, Forestal 1:15000 603 3.4 0.23
Bavaria Ondulado, Agrícola, Forestal 1:15000 977 3.5 0.23
Noruega Accidentado, Costero, Agrícola 1:6000 686 3.3 0.22
Pomona Densamente construído 1:25000 457 3.5 0.23
Tasmania Accidentado, Residencial 1:12000 962 3.5 0.23
Weilheim Abrupto, Sin cultivo 1:3000 260 3.2 0.21
ϕ2 ϕ1
κ2 κ1
ω2 ω1
Para cubrir estos objetivos, el proceso se divide en una serie de tareas que se muestran
en la figura 7.19. En dicha figura se clasifican las tareas en función de su
automatización, así las tareas sombreadas son las que requieren la participación del
operador, el resto son procesos automáticos que se desarrollan en modos de procesos
por lotes en los que la única misión del operador es la de supervisión de los
resultados, y si lo considera oportuno, modificación de parámetros, edición de
datos,… . En la Tabla 7.9 se muestran la comparación entre los diferentes métodos de
aerotriangulación (analíticos, digitales interactivos y digitales automáticos) en lo
referente al grado de automatización.
420 AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA
Tabla 7.9. Comparación del grado de automatización en los diferentes métodos de aerotriangulación
(Schenk, 1997)
Digital
Tareas Analítico
Interactivo Automático
Identificación de puntos de apoyo M M M
Selección de puntos de bloque M I A
Transferencia de puntos M I A
Medida
- puntos de apoyo M M M
- puntos de bloque M I A
Ajuste de bloques A A A
Cálculo de aproximaciones
Ajuste final d el bloque
iniciales para los elementos d e
orientación externa y MDE
- Información inicial
Las entradas del sistema son:
- las imágenes digitales con la orientación interna realizada
- un listado de la secuencia de imágenes por banda y bloque
- el fichero de parámetros de la cámara
- el fichero de los puntos de control
La primera fase incluye la generación de un bloque inicial utilizando las imágenes
a baja resolución. Este bloque incluye la información de los fotogramas, los
parámetros de orientación externa de los mismos y un modelo digital de elevaciones
inicial del área cubierta por el proyecto. Esta información es utilizada en la segunda
fase es la que se seleccionan los puntos de bloque. Tras estas dos fases iniciales el
operador tiene la oportunidad de visualizar y editar los puntos de los bloques,
concluyéndose la etapa previa integrada por las fases 0 a 4.
Final de la banda j?
AJUSTE DE BLOQUES
a) Formación de bandas.-
La formación de bandas es un proceso de tres pasos en el que primero se calcula el
modelo, luego se ajusta a escala y se traslada al sistema de coordenadas de la banda.
El proceso más frecuente empleado para la creación del modelo es el sistema
mixto propuesto por Schenk et al. (1991), en el que se utiliza un sistema de matching
422 AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA
donde pi-1,j y pi,j son las distancias desde el centro de proyección del modelo i-1 y del i
a los respectivos puntos del modelo del par j.
Imagen k-1
Imagen k-1
Imagen k
Fig.7.21. Identificación de los puntos para ajuste en escala. Los triángulos representan
los puntos encontrados en el modelo i y los círculos representan los puntos pertenecientes
al modelo anterior (Toth y Krupnik, 1996)
b) Conexión de bandas
El proceso comienza con la determinación de los puntos de paso entre bandas,
mediante la aplicación del mismo sistema de detección de bordes y matching que se
FOTOGRAMETRÍA DIGITAL 423
4 3
4 5 6
5 4
3
4
c) Sistemas de bloques
Una de las ventajas de los sistemas de aerotriangulación digital automática es la
posibilidad de disponer de sistemas de bloques tridimensionales. El plano XY del
sistema es discretizado en una malla regular de espaciado 1mm. Toda la información
geométrica, como esquinas de las imágenes o puntos imagen son convertidos a
formato raster y almacenados en un sistema de bloque bidimensional. El objetivo
principal es proporcionar la información acerca de la cobertura sobre el terreno de las
imágenes, lo que permite el análisis de las áreas con un mayor grado de solape que las
que deben ser seleccionados y medidos los puntos de bloque.
424 AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA
Fig.7.23. Selección automática de los puntos de enlace entre dos bandas vecinas, se puede observar la
correcta localización a pesar del desplazamiento entre ambos fotogramas (Toth y Krupnik, 1996)
Fotograma
Superficie
Proyección
Fig.7.24. Esquema del sistema de bloques 3D. El plano XY es el sistema de cobertura de bloques cuya
función es almacenar las coberturas de las imágenes que forman un bloque (Toth y Krupnik, 1996)
Imagen 1
Imagen i
Imagen 2
Imagen j
Imagen n
Fig.7.27. Localización de los puntos que servirán de aproximaciones para la correlación entre 4 fotogramas
en el ajuste de bloques (cada porción de imagen tiene un tamaño 512x512)
Los dos aspectos básicos a tener en cuenta son la conexión entre procedimientos
automáticos e interacción del operador y, por otro lado, las necesidades de
almacenamiento y cálculo del sistema informático.
100 fotografías (cada una de unos 80Mb, con un tamaño de 15µm y una tasa de
compresión JPEG de Q=25) por lo que el volumen total ronda los 8 Gb. Este volumen
requiere una gran labor de diseño de los procedimientos de cálculo, así es aconsejable
el sistema de pirámides de imágenes, descomponer el proceso (necesariamente largo)
en subpartes y, por último, establecer baterías de procesamiento de datos.
DATOS ENTRADA
Preparación
COBERTU RA INICIAL
(Baja Resolución) Formación Bloques
Orientación Pares Selección y Medida
(Matching nivel elemento Manual de los Puntos
con resolución baja)
COBERTU RA INICIAL
(Alta Resolución) Selección Puntos
de Bloque Medida Manual
(Matching nivel elemento de las porciones
con resolución alta)
Ajuste de Bloques
DATOS DE SALIDA
7.4.3.1. Preparación
Los trabajos de preparación incluyen toda aquella información necesaria para
determinar la matriz de cobertura bidimensional en el plano XY. Para ello, es
necesaria la recopilación de la configuración del bloque (plan de vuelo, solapes
aproximados longitudinal y transversal), así como la posición de las posiciones de los
puntos de toma de los fotogramas (GPS). Además es necesaria la información relativa
a los parámetros de orientación interna y las fotocoordenadas de los puntos de control
(medidas manualmente).
7.4.3.3. Medida
El objetivo de esta fase es determinar los puntos correspondientes de una forma lo
más precisa posible. Es sistema más empleado en la actualidad es la realización de un
stereo matching mediante mínimos cuadrados utilizando imágenes de alta resolución,
necesitando muy buenas aproximaciones, así, por ejemplo, ya no son válidas las
aproximaciones basadas en la fase de formación del bloque.
El primer paso del proceso de medida es el cálculo de las aproximaciones
necesarias, el procedimiento es similar al de la formación de los bloques pero ahora
centrado en el tratamiento de las porciones comunes de fotogramas. A pesar de todo
esta es la etapa más delicada de automatizar y requiere la participación del operador
cuando fallan los sistemas automáticos.
430 AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA
El restituidor analítico Kern DSR14 tiene una precisión estimada de 5-8 µm. El
ajuste se podría haber efectuado utilizando la versión completa del programa
ORIMA-T no disponible en la empresa encargada del trabajo (Swissphoto
Vermessung AG). En el proceso se detectó la presencia de tres puntos erróneos
(errores groseros) y fue necesario la eliminación de las coordenadas X,Y de un punto
de control debido a posibles problemas con las coordenadas.
Phodis-AT detectó de una forma correcta todos los errores groseros de las medidas
automáticas de forma que el sistema externo de ajuste no pudo detectar ningún error.
lugar a lo que se conoce como orientación directa que ha sido empleada con éxito
para la localización de diversos sensores (radar, satélites multiespectrales,...). En la
actualidad estos sistemas alcanzan precisiones del orden de 10 cm en posición y de 20
segundos de arco en orientación mediante la aplicación de las técnicas de postproceso.
Estos parámetros permiten la orientación de fotografías aéreas de escala 1:6500
digitalizadas a 20µm con una precisión en torno a 10-20 cm sin utilizar puntos de
apoyo. Una ventaja básica de la orientación directa (utilizando los sistemas de
posicionamiento y orientación del sensor sin utilizar medidas sobre la imagen) es que
la orientación es totalmente independiente de los errores producidos en el posterior
tratamiento de la imagen (digitalización) que en el proceso de orientación indirecta se
acumulan en la orientación absoluta y afectan a los resultados. Además, la orientación
obtenida mediante orientación directa es homogénea en todo el modelo, eliminando la
dependencia de la orientación indirecta de la posición de los puntos de apoyo
considerados.
A pesar de todo lo anterior es necesario tener en cuenta que en la actualidad, la
aplicación fundamental de la utilización de sistemas de posicionamiento global en
vuelo es disponer de buenas aproximaciones para la orientación absoluta (reducción
de los espacios de búsqueda de las ventanas que contienen las posiciones de los
puntos de apoyo).
7.5.1 Orientación Absoluta Automática utilizando puntos de control
El procedimiento de orientación absoluta automática mediante la identificación y
medida de los puntos de control intenta reproducir el proceso realizado por el
operador. Como se ha indicado con anterioridad se trata de una tarea de compleja
automatización debido a la complejidad propia de las imágenes.
Una de las condiciones fundamentales que deben cumplir los puntos de control es
que puedan ser fácilmente identificables y distinguibles en la imagen, por tanto, deben
ser únicos (si existe un elemento repetitivo dificulta la identificación del punto de
control) y deben ser medidos con la mayor precisión posible. En la práctica es posible
emplear puntos naturales seleccionados sobre la imagen o bien puntos preseñalizados,
ambos con la condición de que aparezcan en el mayor número de fotogramas
posibles.
Los principales problemas para la identificación automática de los puntos de
control son:
- el tamaño de los puntos sobre los que es necesario efectuar la medida debe ser
reducida para que no exista incertidumbre en la misma, pero ello produce que
sea representado en la imagen digital en un número de píxeles muy reducido.
Por tanto, su detección es compleja dentro de una imagen que presenta un
tamaño mucho mayor y en la cual pueden existir píxeles cuya respuesta
espectral sea similar a la del punto de control o bien que presente problemas
radiométricos que igualen las señales. El problema fundamental es que los
puntos de control se diseñan o escogen pensando en el esquema de medida
mediante operador, desde una filosofía completamente diferente a la de la
medida automática.
440 AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA
Fig.7.30. Diferentes ejemplos de marcas artificiales instaladas para la orientación absoluta del modelo.
Izq: Marca en forma de cruz, Centro: Marca en forma de T;
Der: Marca en forma de T a la que se le ha volado la parte superior
FOTOGRAMETRÍA DIGITAL 441
vistas a la automatización del proceso. Los clásicos puntos de apoyo tienden a ser
sustituidos por elementos de apoyo (fundamentalmente, de carácter lineal). El proceso
de orientación automática mediante elementos lineales comprende tres etapas:
1. Extracción de los elementos lineales de la imagen.
2. Establecimiento de la correspondencia entre los elementos lineales extraídos y
los elementos de control.
3. Determinación de los parámetros de orientación externa de la imagen.
7.5.2.1 Correspondencia entre elementos extraídos y elementos de apoyo
Para la establecer la correspondencia entre los elementos extraídos y los elementos
de apoyo se pueden emplear básicamente dos métodos: matching a nivel de elementos
o el método de ensayo y error, que fue comentado con anterioridad en el apartado
referente a la orientación relativa automática.
Los elementos extraídos pueden ser representados por una secuencia de píxeles de
la imagen, al igual que los elementos de apoyo pueden ser representados por una
secuencia de puntos 3D en el espacio objeto. El método de ensayo y error parte de que
ambas representaciones tienen aproximadamente la misma densidad de puntos. Este
hecho es fundamental para que se pueda establecer una correspondencia adecuada
entre ambos conjuntos de datos.
Las expresiones de colinealidad definen la relación entre el espacio imagen y el
espacio objeto (terreno). Para la determinación de la relación basta con disponer de
tres pares de estas ecuaciones ya que la resolución del sistema permite el cálculo de
los seis parámetros de orientación externa. Si se plantea un espacio 6D de parámetros,
éste contendrá todas las posibles soluciones obtenidas de las todas las posibles
combinaciones de tres puntos establecidas entre los elementos extraídos y los
elementos de apoyo. La determinación de la solución correcta se establece desde el
punto de vista estadístico mediante una matriz de acumulación de resultados, ya que
todas las parejas correctas proporcionarán la misma solución, mientras que las
incorrectas tenderán a dar muy diversas (y, muchas veces, ilógicas) soluciones. El
único problema de este método es el enorme esfuerzo de cálculo que conlleva, así por
ejemplo, con un número de 100 elementos extraídos y de 100 elementos de apoyo,
teniendo en cuenta que el número de variables es 3, el número total de soluciones
viene dado por la expresión:
n! m! 100! 100!
s= = = 1.51011
k! (n − k )! (m − k )! 100! (100 − 3)! (100 − 3)!
Para evitar este problema Habib et al.(2000) plantea una solución consistente en
trabajar sólo con parejas formadas entre un punto extraído de la imagen y un punto de
apoyo, planteando sólo 2 ecuaciones de colinealidad que permite el cálculo de dos
parámetros de forma simultánea. Para completar el número total de parámetros se
plantea una secuencia iterativa del tipo: {Xc,Yc}; {Zc}; {ω,φ}; {κ}.
Una vez que los parámetros de la orientación son calculados se revisan las
correspondencias establecidas, eliminando aquellas parejas erróneas y realizando el
cálculo final mediante colinealidad convencional.
FOTOGRAMETRÍA DIGITAL 443
Por tanto, la curva viene descrita por un conjunto de vectores L(t) dentro de un
determinado intervalo <a,b> (fig.7.31).
Z
Y t=b
lb
la
t=a
Fig.7.31. Representación paramétrica de una línea tridimensional. El parámetro de la curva t toma valores
dentro del intervalo <a,b>. La curva comienza en t=a en una posición definida por el vector la y termina en
t=b en una posición definida por el vector lb (Schenk, 1999)
y p = −f
(X(t ) − Xc ) r21 + (Y(t ) − Yc ) r22 + (Z(t ) − Zc ) r23
(X(t ) − Xc ) r31 + (Y(t ) − Yc ) r32 + (Z(t ) − Zc ) r33
444 AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA
Esta expresión debe ser linealizada con respecto al parámetro t, con lo que se
obtiene una ecuación de observaciones que expresa la dirección de tangente
observada como función de los parámetros de la orientación externa y el parámetro de
la curva t.
Si la curva de apoyo es un borde definido en el espacio imagen por una secuencia
de píxeles, la dirección de la tangente puede ser fácilmente obtenida mediante una
representación en código de cadena. Este tipo de representación es la versión discreta
de la primera derivada que proporciona la dirección de la tangente, aunque sólo en
ocho direcciones. La figura 7.32 muestra un ejemplo con dos puntos P1 y P2, cuyos
valores de dirección de la tangente τ=1 y τ=2 pueden ser calculados mediante el cálculo
de los valores medios de los puntos situados en las proximidades de P1 y P2.
C
P1
τ’1
Z τ’2 P 2
t1
τ1
τ2 t2
X
Fig.7.32. Medida de los puntos P1 y P2 de la curva de apoyo en el espacio imagen.
Los parámetros de la curva t1 y t2 definen la posición de los puntos medidos en el espacio objeto.
La información relativa a las direcciones de las tangentes de la curva de apoyo τ=1 y τ=2
puede ser utilizada como información adicional e independiente (Schenk, 1999)
446 AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA
7.5.3.1 Metodología
Sea S1 = {p1,p2,...,pn} una superficie descrita por n puntos discretos p que están
distribuidos de una forma aleatoria en la misma. Sea S2 = {q1,q2,...,qm} una segunda
superficie descrita por m puntos discretos q aleatoriamente distribuidos en S2. En
realidad, ambas superficies son iguales pero referidas a diferentes sistemas de
coordenadas, así en el problema concreto de la orientación absoluta S1 es la superficie
en el espacio objeto -terreno- y S2 es la superficie en el espacio modelo, de forma que
si se obtiene una transformación adecuada entonces S1 = S=2, siendo S=2 la transforma
de S2 según dicha transformación, realizándose la igualdad en el espacio objeto. Es
importante tener en cuenta, que en ambas superficies aparecerán errores aleatorios en
la medida de los puntos p y q y además que el número de puntos (discretización de las
superficies) es diferente en S1 y S2.
El problema se reduce, por tanto, al cálculo de una función de transformación en
la que los puntos pertenecientes a la segunda superficie q son transformados a la
primera mediante la minimificación de las diferencias. Este problema tiene un
carácter no lineal siendo necesario disponer de aproximaciones iniciales. La
FOTOGRAMETRÍA DIGITAL 447
0 0 0 0 0 1 0 −1 0
∂R ∂R ∂R
= 0 0 −1 = 0 0 0 = 1 0 0
∂dω ∂dϕ ∂dκ
0 1 0 −1 0 0 0 0 0
las ecuaciones de observación linealizadas son:
∂ ∂ ∂
= − Z cos β + Y cos γ = − Z cos α − X cos γ = −Y cos α + X cos β
∂ω ∂ϕ ∂ϕ
∂ ∂ ∂
= − cos α = − cos β = − cos β
∂X t ∂Yt ∂Z t
∂
= (X − Ydκ + Zdϕ)cos α + (Xdκ + Y − Zdω)cos β + (− Xdϕ + Ydω + Z)cos γ
∂s
Si los puntos p, contenidos en la porción de superficie SPq no pueden ser ajustados
a un plano se puede utilizar una superficie de segundo orden. Si tampoco es correcto
el ajuste, esta zona del modelo debería ser descartada y el punto q no daría lugar a
ninguna ecuación de observaciones. En el caso de que el ajuste sea correcto se plantea
la situación que se representa en la figura 7.33.
Dirección perpendicular
a la superficie que pasa q
por el punto q
Puntos experimentales
p1
p3 Porción de superficie
SPq
Z
p2
v
Fig.7.33. Determinación de la distancia menor entre el punto q y la superficie Spq (Schenk, 1999)
Para los puntos de apoyo están definidos no tanto como elementos individuales
sino como elementos de apoyo (modelo de puntos de control) (fig.7.34). Estos
elementos consisten en bordes definidos en un sistema de coordenadas terreno
tridimensional y son localizados y medidos en un proceso de matching a nivel de
elementos.
Creación de los
modelos 3D de apoyo
Extracción de bordes
sobre la imagen
Agrupación de orientaciones
(Pose clustering)
Auto-comprobación de resultados
Fig.7.35. Fases del proceso de orientación absoluta automática por el método de Schickler (1992,1993)
Las etapas 1 a 3 se emplean de una forma individual sobre cada uno de los
elementos de apoyo considerados, mientras que las etapas 4 a 6 se aplican de una
forma global en toda la imagen.
Este programa ha sido sometido a diversas pruebas, en la más importante se
realizó la orientación de 195 imágenes comparándose los resultados obtenidos con los
derivados de un proceso de orientación clásica mediante ajuste de bloques. La
desviación típica de las coordenadas del centro de proyección fue de 1m y de 10mgon
en los ángulos de orientación en el caso más desfavorable. Este proceso se completó
en un tiempo aproximado de 1 minuto/imagen en un sistema Sun Sparc 10. Un
aspecto muy interesante que pone de manifiesto la calidad de los resultados (y en
452 AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA
Fig.7.36. Zona de la imagen en la que aparecen un total de 10 alcantarillas (Drewniok y Rohr, 1997)
Fig. 7.37. Resultados de la localización de las alcantarillas en una pequeña zona de imagen en la que
aparecen cinco puntos. De los 10 puntos posibles identificados como con una alta correlación con el
modelo analítico (izq) se han seleccionado cuatro como correctas (der) (Drewniok y Rohr, 1997)
Fig.7.38. Ejemplos de detección automática de elementos naturales del terreno. Sup: Ejemplo de detección
de un cauce fluvial; Inf: Ejemplo de detección de los límites de una parcela (Vosselmann y Haala, 1992)
REFERENCIAS BIBLIOGRÁFICAS
Ackermann,F. y Tsingas,V. (1994). Automatic Digital Aerial Triangulation. Proceedings ASPRS Annual
Convention, Reno, 1994. pp.1-12.
ACSE,ACSM,ASPRS (1994). Glossary of Mapping Sciences. ASPRS, Bethesda, Maryland, 581 p.
Agouris, P. (1992). Multiple Image Multipoint Matching for Automatic Aerotriangulation. Dissertation.
Dpt. of Geodetic Science and Surveying. Universidad de Ohio.
ASPRS(1993). PE&RS. Número especial dedicado a GPS Photogrammetry, 59.
Bolles, R.C. y Fishler, M.A. (1981). Random Sample Consensus: a paradigm for model fitting with
applications to image analysis and automated cartography. Band 24, 381-395. Comm. of ACM.
Braun, J.; Tang, L. y Debitsch, R. (1996). PHODIS-AT An Automated System for Aerotriangulation.
IAPRS, 31(B2), 32-37.
Burman, H. y Torlegård, K. (1994). Empirical results of GPS-supported block triangulation. OEEPE
Publication n.29.
Devenecia, K.; Miller, S.; Pacey, R. y Walker, S. (1996). Experiences with a Commercial Package for
Automated Aerial Triangulation. Proceedings of ASPRS/ACSM Annual Convention, vol 1, 548-557.
Dreschler,L. (1981). Ermittlung markanter Punkte auf den Bildern bewegter Objekte und Berechnung einer
3D-Beschreibung auf dieser Grundlage. Tesis Doctoral. Fachbereich Informatic, Universidad de
Hamburgo.
Drewniok, C. y Rohr, K. (1997). Exterior orientation -an automatic approach based on fitting analytic
landmark models. ISPRS Journal of Photogrammetry and Remote Sensing, 52, 132-145.
Ebner, H. y Ohlhof, T. (1994). Utilization of ground control points for image orientation without point
identification in image space. IAPRS, 30(3/1), 206-211.
Ebner, H. y Strunz, G. (1988). Combined point determination using digital terrain models as control
information. IAPRS, 27 (B11/3), 578-587.
FOTOGRAMETRÍA DIGITAL 455
Ebner, H.; Strunz, G. y Colomina, I. (1991). Block triangulation with aerial and space imagery using DTM
as control information. ACSM-ASPRS Auto-Carto 10, 5, 76-85.
Förstner,W. (1986). A Feature Based Correspondence Algorithm for Image Matching. Int. Archives for
Photogrammetry and Remote Sensing, 26(3/3), 150-166.
Gülch,E. (1994). Using feature extraction to prepare the automated measurement of control points in digital
aerial triangulation. IAPRS, 30(3/1), 333-340.
Gülch, E. (1995). From control points to control structures for absolute orientation and aerial triangulation
in digital photogrammetry. Zeitschrift für Photogrammetrie und Fernerkundung, 63(3), 130-136.
Haala,N. y Vosselman, G. (1992). Recognition of Road and River Patterns by Relational Matching. ISPRS
29(B3), 969-975.
Habib, A.; Asmamaw, A.; Kelley, D. y May, M. (2000). Linear features in Photogrammetry. Report n1450.
Department of Civil and Environmental Engineering and Geodetic Science. The Ohio State University,
Columbus, OH 43210.
Hannah,M.J.(1980). Bootstrap Stereo. Proceedings of Imagen Understanding Workshop. College Park,
Maryland, 201-208.
Haralick, R. y Shapiro, L. (1992). Computer and Robot Vision. Addison-Wesley Publ. Co. Inc.
Häring,S. (1995). Automatisierung der Inneren Orientierung. Tesis semestral, Instituto de Geodesia y
Fotogrametria, ETH Zurich.
Hartfiel, P. (1999). Higher Performance with Automated Aerial Triangulation. En: Fristch, D. y Hobbie, D.
(eds.), Photogrammetric Week=97, Wichmann Verlag, Karlsruhe, 109-113.
Heipke, C. y Eder, K. (1999). Performance of Tie-Point Extraction in Automatic Aerial Triangulation.
Frankfürt au Main, 453 p.
Hough,P. (1962). Method and Means for Recognizing Complex Patterns, US Patent 3069654.
Hueckel, M.H. (1971). An operator which locates edges in digitized pictures. J.Assoc.Computing
Machinery, 18(1), 113-125.
Illingworth,J. y Kittler,J. (1988). A survey of the Hough Transform. Computer Vision Graphics and Image
Processing, 44, 87-116.
Jaw, J.J. (1999). Control surface in aerial triangulation in aerial triangulation. Tesis Doctoral. Departament
of Civil and Environmental Engineering and Geodetic Science. Ohio State University, Columbus, Ohio,
OH43210.
Käser, C.; Eidenbenz, C. y Baltsavias, E. (1999). Evaluation and Testing of Several Digital
Photogrammetric Systems for System Acquisition by a National Mapping Agency. IAPRS, 32 (2), 140-
148.
Kersten, Th. (1999a). Digital Aerial Triangulation with HATS. Proceedings of the OEEPE Workshop on
Automation in Digital Photogrammetric Production. París, 21-24 Junio. pp.283-300.
Kersten, Th. (1999b). Results of Digital Aerial Triangulation using different software packages.
Proceedings of the OEEPE Workshop on Digital Photogrammetric Production. París, 21-24 Junio.
Kersten, Th. y Häring, S. (1995). Automatic Interior Orientation for Digital Aerial Images. Informe interno,
Instituto de Fotogrametria y Geodesia, ETH Zurich.
Kersten, Th. y Häring, S. (1997). Automatic Interior Orientation of Digital Aerial Images. PERS 63(8),
1007-1011.
Kersten,Th. y O`Sullivan, W. (1996). Digital Aerial Triangulation with the Helava Automated
Triangulation System (HATS). OEEPE Workshop on the AApplication of Digital Photogrammetric
Workstations@. Lausanne, 4-6 Marzo, 1996.
Kersten, Th.; Häring, S. y O=Sullivan, W. (1998). Digital Aerial Triangulation in Alpine Regions - A
Challenge. IAPRS, 32(2), 149-156.
Krzystek, P. (1998). Automatic Aerial Triangulation - Conceptual aspects and new investigations.
Proceedings 3rd Course in Digital Photogrammetry. University of Bonn. 9-13 Febrero.
Krzystek, P.; Heuchel, T.; Hirt, U. y Petran, F. (1996). An integral approach to automatic aerial
triangulation and automatic DEM. IAPRS, 31(B3), 405-414.
LH Systems (1999). Información de la compañía.
Liang,T. y Heipke, Ch. (1996). Automatic Relative Orientation of Aerial Images. PERS, 62(1), 47-55.
Lue, Y. (1996). Fully operational automatic interior orientation. Proceedings GeoInformatics, Honk Hong,
Band 1, pp.26-35.
Lue, Y. (1997). One step to a higher level of automation of softcopy photogrammetry Automatic Interior
Orientation. ISPRS Journal of Photogrammetry and Remote Sensing, 52(1), 103-109.
Lue, Y. y Novak, K. (1991). Recursive grid-dynamic window matching for automatic DEM generation.
Technical Papers GIS/LIS. ACSM-ASPRS Fall Convention, Atlanta, pp.A254-260.
456 AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA
Lue, Y. y Novak, K. (1992). RG-DW Image matching scheme and its application. IAPRS, 29(B3), 813-
819.
Luhmann,T. y Aaltrogge,G. (1986). Interest Operators for Image Matching. Proc. ISPRS Com.III,
Rovaniemi, Finlandia, 459-474.
Masala, B. (1999). Experiences on Automatic Digital Aerotriangulation. Proceedings of the OEEPE
Workshop on Automation in Digital Photogrammetric Production. París, 21-24 Junio. pp. 277-282.
Mayr,W. (1993). Photogrammetric Digital Image Processing at Carl Zeiss. Photogrammetric Week=93
(D.Fristch y D. Hobbie, eds.). Wichmann, 103-110.
Moravec, H.P. (1977). Towards automatic visual obstacle avoidance. Proceedings of the 5th Joint
Conference on Artificial Intelligence. Cambridge. p.584.
Nalwa,V.S. y Binford, T.O.(1986). On detecting edges. IEEE Trans. On Pattern Analysis and Machine
Intelligence. 8(6), 699-714.
Otsu, N. (1979). A threshold selection method from gray-level histograms. IEEE Transactions on Systems,
Man and Cybernetics, 9, 62-66.
Rohr,K. (1992). Modelling and identification of characteristic intensity variations. Image Vision Comput.,
10(2), 66-76.
Sahoo, P. (1988). A survey of thresholding techniques. Computer Vision, Graphics and Image Processing,
41, 233-260.
Schenk,T. (1989). Towards Automatic Data Collection for GIS. GIS, 2(2), 12-19.
Schenk, T. (1997). Towards Automatic Aerial Triangulation. ISPRS Journal of Photogrammetry & Remote
Sensing, 57, 110-121.
Schenk, T. (1999). Digital Photogrammetry. vol. 1. Ed. TerraScience. Laurelville, Ohio. 428 p.
Schenk, T. (1999a). Matching surfaces. Technical notes in Photogrammetry, n115, Departament of Civil
Engineering and Geodetic Science, Ohio State University, Columbus, OH43210, 21 p.
Schenk,T. y Toth, C. (1993). Use of object space matching for feature extraction in multiple aerial images,
SPIE Proceedings, 1944:58-67.
Schenk,T.; Li, J.C. y Toth,C. (1991). Towards an autonomous system for orienting digital stereopairs.
PERS, 57(8), 1057-1064.
Schickler, W. (1992). Feature matching for outer orientation of single images using 3-D wireframe
controlpoints. IAPRS, 29(B3), 591-598.
Schickler, W. (1993). Towards automation in Photogrammetry - An example: Automatic Exterior
Orientation. Geodetical Info Magazine, 7(4), 32-35.
Schickler, W. (1995). Ein operationelles Verfahren zur automatischen inneren Orientierung von
Luftbildern. Zeitschrift für Photogrammetrie und Fernerkundung, 63(3), 115-122.
Schickler,W. y Poth,Z. (1996). Automatic Interior Orientation and its Daily Use. ISPRS, 31(B3), 746-751.
Strackbein, H. y Henze, M. (1995). Automatische innere Orientierung. Technical Report,
Landesvermessungsamt Nordrhein-Westfalen.
Tang, L. y Heipke, C. (1996). Automatic relative orientation of aerial images. PE&RS, 62(1), 47-55.
Toth,C.K. y Krupnik,A. (1996). Concept, Implementation and Results of an Automatic Aerotriangulacion
System. PERS, 62(6), Junio 1996, 711-717.
Trinder, J.C.; Jansa,J. y Huang, Y. (1995). An assessment of the precision and accuracy of methods of
digital target detection, ISPRS Journal of Photogrammetry and Remote Sensing, 50(2), 12-20.
Urset, A. y Maalen-Johansen, I. (1999). Automatic Triangulation in Nordic Terrain - Experiences and
Challenges with MATCH-AT. Proceedings of the OEEPE Workshop on Automation in Digital
Photogrammetric Production. París, 21-24 Junio. pp. 259-268.
Vosselman, G. y Haala, N. (1992). Erkennung topographischer passpunkte durch relationale zuordnung.
Zeitschrift für Photogrammetrie und Fernerkundung, 60(6), 170-176.
Zalmanson, G. (2000). Hierarchical recovery of exterior orientation from parametric and natural 3D curves.
Tesis Doctoral, Report n.452, Departament of Civil and Environmental Engineering and Geodetic
Science, Ohio State University, Columbus, OH 43210.
8.1 Introducción.
8.2 Modelos Digitales del Terreno.
8.3 Automatización del proceso de generación de Modelos Digitales de Elevaciones.
8.4 Sistemas comerciales para la generación automática de MDE.
8.1 INTRODUCCIÓN
Tal y como se ha venido comentando a lo largo de este libro, una de las ventajas
más importantes de la Fotogrametría Digital es la posibilidad de la automatización,
bien total o parcial, de los procesos fotogramétricos. En este capítulo se analizan los
aspectos relativos a la automatización del proceso de generación de modelos digitales
de elevaciones.
La extracción de la información tridimensional del terreno (o de los objetos que
aparecen sobre el mismo) se conoce clásicamente con el nombre de restitución o
vectorización y, es frecuentemente uno de los objetivos fundamentales de los trabajos
fotogramétricos. Esta fase representa la mayor parte del coste de un proyecto
cartográfico basado en el empleo de técnicas fotogramétricas, que puede llegar a
alcanzar el 60% de coste total para escalas grandes (Vosselman, 1998) (fig.8.1).
Por otro lado, es necesario tener en cuenta que estas tareas de extracción de
información de la imagen son particularmente complejas de automatizar debido a que
en ellas la aportación de la información semántica extraída por el operador es
fundamental. El operador “comprende” la imagen y selecciona los elementos de
mayor interés aplicando una cierta generalización, tarea que es de difícil
automatización.
457
458 GENERACIÓN AUTOMÁTICA DE MODELOS DIGITALES DE ELEVACIONES
Aerotriangulación
15%
Vuelo
8%
Apoyo de campo
6%
Revisión en campo
Restitución
12%
59%
Fig.8.1. Coste de las diferentes fases de un proceso cartográfico para grandes escalas (Vosselman, 1998)
El criterio básico para optar por una u otra estructura es la cantidad de información
(entendiendo como densidad de información, es decir, cantidad de información por
unidad de superficie) y la distribución de la misma. Así para información capturada
por procedimientos mediante operador (o bien levantamientos taquimétricos en
campo) la solución óptima será el empleo de una estructura TIN, puesto que, la
densidad de información suele ser menor y además se centra en las líneas
características del relieve (líneas de ruptura, puntos de cota singular, …) que se
mantendrán en el modelo TIN al ser éste un sistema exacto (los puntos del modelo
coinciden con los puntos medidos). El problema de esta estructura es que es más
compleja en cuanto al almacenamiento, se requiere el almacenamiento de todas las
coordenadas de los puntos del modelo así como el de las relaciones entre puntos para
formar los triángulos y las relaciones entre los tríángulos para formar la red. Si la
captura de información ha sido realizada de forma automática, la densidad de
información va a ser mucho más alta y además los puntos se distribuyen según una
malla aproximadamente regular, por tanto, parece que el procedimiento más lógico es
el empleo de una malla regular. El empleo de modelos tipo raster, que incluyen una
interpolación para pasar de los puntos medidos a los puntos del modelo, permite el
filtrado de puntos erróneos así como un estructura de almacenamiento en fichero
óptima (sólo se requiere el almacenamiento de la coordenada Z y una cabecera en la
que se indique las coordenadas de origen de la malla, espaciado y orientación de la
misma), pudiendo ser utilizada directamente en diversos tratamientos fotogramétricos
como, por ejemplo, la generación de perspectivas realísticas y la generación de
ortofotografías.
Por tanto, todo parece apuntar que el predominio que actualmente tiene la
estructura TIN, basada en parte por el hecho de que es empleada en un gran número
de programas de generación de MDE, quedará restringida a los modelos con un
escaso número de puntos (Topografía clásica, GPS, Fotogrametría con operador)
siendo la estructura empleada para la generación de MDT con métodos automáticos la
malla regular.
Los modelos mediante malla regular requieren como paso intermedio un proceso
de interpolación que calcula el valor de la variable en los puntos de la malla del
modelo a partir de los puntos experimentales medidos. Durante la década de los 70, se
planteó un interesante debate acerca de los diferentes métodos de interpolación,
actualmente esta cuestión ha perdido gran parte de su interés, puesto que, se ha
demostrado que siempre que el procedimiento de captura de la información (en
cuanto a densidad y distribución) sea la adecuada, los métodos dan resultados muy
parecidos.
Los métodos de interpolación pueden ser clasificados en tres grandes grupos:
a) métodos basados en el ajuste polinómico de polinomios de elevado orden,
dentro de este grupo destacan los métodos basados en las medias móviles y
los planos tangenciales móviles.
b) métodos basados en la utilización de elementos finitos.
c) métodos basados en la aplicación de estimaciones estadísticas que operan con
funciones de covarianza o las propiedades de correlación del terreno.
FOTOGRAMETRÍA DIGITAL 463
s 2 (n − 1)
χ2 = Z
Z
σ2
Z
existen partes del terreno que no son visibles y, por tanto, no se pueden medir de una
forma directa. Este problema que es común, tanto para los métodos manuales como
para los métodos automáticos, evidentemente afectan más a éstos últimos, puesto que,
el operador “entiende” la fotografía y sólo situará puntos de medida en aquellas zonas
no cubiertas por la vegetación o en los espacios existentes entre los edificios,
procedimiento imposible en el sistema automático que trabaja “a ciegas”. La única
posibilidad es la eliminación de elementos aislados, como por ejemplo, árboles y
casas, mediante la introducción de unos límites máximos de diferencia de paralaje
entre puntos vecinos del modelo, por lo que cuando se detecta un importante cambio
de cota se considerará como un punto anómalo y será eliminado del modelo.
La captura de líneas de ruptura y otros elementos morfológicos es otro problema
para la captura automática de información, necesitando aún una etapa de medida
interactiva que aunque ralentiza el proceso de generación del modelo, cuenta con la
ventaja de la información semántica que introduce el operador en la interpretación de
la imagen. No obstante, en la actualidad se está realizando un importante esfuerzo en
la detección automática de líneas de ruptura de pendiente basadas en métodos de
extracción de bordes.
Captura de Imágenes
(Vuelo o Archivo) Extracción del MDE
Control Terrestre
(Puntos d e Apoyo) Edición del MDE
Fig.8.3. Esquema general del proceso de captura de datos para el MDE (Cory y McGill, 1999)
persisten ciertos problemas en áreas con una textura pobre o en áreas de gran
complejidad, como por ejemplo, áreas urbanas fotografias a gran escala.
Los aspectos claves de la generación de los MDE son cuatro:
a) el remuestreo de la imagen según una geometría epipolar (imágenes
normalizadas).
b) el empleo de las pirámides de imágenes.
c) la utilización de métodos de matching a nivel de área y elemento.
d) las técnicas de reconstrucción de superficies.
dy
z(i-1,j) z(i,j) z(i,j)
Asumiendo que los residuos vs, vxx(i,j), vyy(i,j), vxy(i,j) pueden ser considerados
como ruido blanco y con una distribución normal. Los coeficientes ai vienen dados por
los elementos de convolución que son aplicados a los 9 elementos que integran el
valor v, según la estructura:
⎛ ⎡1 − 2 1 ⎤ ⎞ ⎛ ⎡1 2 1 ⎤⎞ ⎛ ⎡1 0 1⎤ ⎞
⎜1⎢ ⎥⎟ ⎜1⎢ ⎥⎟ ⎜1⎢ ⎥⎟
a T2 = vect⎜ ⎢1 − 4 2⎥ ⎟ a 3T = vect⎜ ⎢− 2 − 4 − 2⎥ ⎟ a T4 = vect⎜ ⎢0 0 0⎥ ⎟
⎜⎜ 4 ⎢1 − 2 1 ⎥ ⎟⎟ ⎜⎜ 4 ⎢ 1 2
⎟
1 ⎥⎦ ⎟⎠ ⎜⎜ 4 ⎢1 0 1⎥ ⎟⎟
⎝ ⎣ ⎦⎠ ⎝ ⎣ ⎝ ⎣ ⎦⎠
− Zona Reims: Llana sin árboles, con buena calidad de imágenes y puntos de
control.
− Zona Agen: Terreno ondulado con árboles
− Zona Corbeil: Terreno llano con imágenes de calidad media
Un aspecto que tiene gran influencia es el tipo de medidas, así el sistema
automático tiene mayor precisión en los objetos de contraste más marcado, al igual
que sucede en las medidas realizadas por operador y, también la calidad de las
medidas es mayor cuando el sistema (o el operador) selecciona los puntos en los que
efectuar las medidas que cuando se trabaja con perfiles (modo dinámico).
El control visual de los resultados fue realizado por superposición de las curvas de
nivel (derivadas directamente del MDE) a las imágenes, apreciándose lo siguiente:
− el MDE realizado por correlación parece que está sobre el terreno.
− las obstrucciones existentes en el terreno, por ejemplo, edificios, puede ser
fácilmente eliminados si están aislados. Cuando sus dimensiones son
superiores de un centenar de metros, es necesario realizar una restitución
adicional, al menos que el proyecto no requiera una gran precisión.
− la función de fusión de datos permite la creación de MDE que describe de una
forma adecuada la superficie y los objetos que se encuentran en ella.
− las funciones de edición son absolutamente necesarias para transformar la
superficie del MDE. La correlación proporciona una buena descripción de la
superficie del terreno pero no puede tener en cuenta los factores que afectan
negativamente a los resultados: variaciones fotométricas (reflectancia
especular), movimiento de objetos, obstrucciones (nubes, sombras,…),
influencia de la atmósfera y de la meteorología (viento,…).
En el IGN francés se han realizado estudios adicionales que ponen de manifiesto
que las curvas de nivel derivadas de un MDT generado automáticamente son más
suaves que las generadas por un operador utilizando las técnicas clásicas
fotogramétricas, si bien se pueden corresponder aproximadamente con la media de los
trazados que realizan varios operadores sobre un mismo modelo.
Krzystek y Wild (1998) presentan otro control de calidad de MDE generados de
una forma automática en 10 modelos estereoscópicos de fotogramas con escalas entre
1:4000 y 1:40000 en zonas con relieve variable (desde llanas a montañosas) y
utilizando 2 resoluciones de digitalización diferentes (15 y 30 µm) y 2 modelos
estereoscópicos de imágenes SPOT.
Los modelos estereoscópicos fueron comprobados utilizando un número entre
2000 y 5000 puntos por modelo, resultando un error en torno a 0.01 %h para terreno
llano y ondulado, obteniéndose en muchos casos incluso mejores resultados, para los
modelos montañosos el error fue de 0.02%h, asimismo también se detecta un cierto
deterioro de los resultados con el aumento del tamaño de pixel. En las figuras 8.6 y
8.7 se muestran los resultados obtenidos de la generación automática así como de la
extracción manual de 3 modelos, cuyos resultados han sido extraídos de Torlegard et
al. (1984). Las imágenes SPOT empleadas son del tipo SPOT 1A, con un tamaño de
píxel sobre el terreno de 10m. Los dos modelos considerados pertenecen a una zona
FOTOGRAMETRÍA DIGITAL 475
% h
0.25
Resolución: 15µm
E 1:30000
0.20
E 1:40000
E 1:23000
E 1:6000
0.15
E 1:12000
E 1:4000
E 1:15000
E 1:7500
0.10
0.05
0.00
Ligeramente
Llano Ondulado Montañoso
ondulado
% h
0.6
Resolución: 30 µm
E 1:30000
0.5 Modelos obtenidos manualmente
E 1:8500
E 1:17000
0.4
E 1:10000
E 1:30000
E 1:40000
E 1:23000
E 1:30000
0.3
E 1:6000
E 1:15000
E 1:12000
E 1:7500
E 1:4000
0.2
0.1
0.0
Ligeramente
Llano Ondulado Montañoso
ondulado
20
15
10
0
Llano Montañoso
Fig.8.7. Precisión de los MDE obtenidos automáticamente a partir de pares estereoscópicos
de imágenes SPOT utilizando el programa MATCH-T (Krzystek y Wild, 1998)
FOTOGRAMETRÍA DIGITAL 477
Aerotriangulación
Selección de Imágenes
Definición de límites
- polígono
- rectángulo máximo
- superficie modelos ester eóscopicos
- coordenadas esquinas
Método
Adaptativo: Se ajusta automáticamente la estrategia
en función del tipo de terreno.
No Adaptativo: El usuario debe escoger una estrategia
en función del tipo de terreno.
Parámetros de filtrado
Método Adaptativo:
Factor de suavizado, Precisión, Eliminación de
obstáculos (árboles, casas, ...).
Método NoAdaptativo:
Seintroducen en la definición de la estrategia.
Extracción A utomática
Terreno
Símbolo Equidistancia
Color Tipo de línea
Figure of Merit (FOM) Color
Gr osor de línea
El módulo ITE permite la edición del modelo generado utilizando tres conjuntos
de herramientas:
− herramientas puntuales, que actúan sobre un punto (nodo) determinado del
modelo
− herramientas a nivel de área, que actúan de una forma conjunta sobre los
nodos incluidos dentro de un polígono definido por el usuario.
− herramientas geomórficas, que se emplean para proporcionar información
adicional al MDE para conseguir un ajuste más correcto con la realidad.
Tras la fase de edición se almacena el MDE en un formato propio de SOCET SET
que puede ser posteriormente exportado a diferentes formatos de intercambios entre
otros listado de puntos XYZ en formato ASCII y formato ARCGRID.
REFERENCIAS BIBLIOGRÁFICAS
Ackermann, F. (1996). Techniques and Strategies for DEM Generation. En: Greeve, C. (ed.) Digital
Photogrammetry: An addendum to the Manual of Photogrammetry. ASPRS, Bethesda, Maryland, 247 p.
Berry, J.K. (1988). Maps as data: fundamental considerations in computer assisted map analysis.
GIS/LIS’88 Proceedings, San Antonio, Texas, 273-284.
Chapman, C.A. (1952). A new quantitative method of topographic analysis. American Journal of Science.
250, 428-452.
Chrisman, N.R. (1991). The error component in spatial data. En: Maguire, D.J.; Goodchild, M.F. y Rhind,
D.W. (eds.). Geographic Information Systems. Principles and Applications. Ed. Longman, Londres,
vol.1, 165-174.
Cory, M.J. y McGill, A. (1999). DTM Derivation at Ordnance Survey Ireland. En: Kölbl, O. (ed.).
Proceedings of the OEEPE-Workshop on Automation in Digital Photogrammetric Production. Marne la
Vallée, 22-24 Junio. OEEPE Oficial Publication, nº37, 189-208.
Doyle, F.J. (1978). Digital Terrain Models: an overview. PE&RS, 44(12), 1481-1485.
Duperet, A. (1996). Automatic Derivation of a DTM to Produce Contour Lines. OEEPE Workshop on the
Application of Digital Photogrammetric Systems. Ecole Polytechnique Fédérale du Lausanne. 4-6
Marzo.
Ebner, H.; Reinhardt, W. y Hö_ler,R. (1984). Generation, management and utilization of high fidelity
digital terrain models. IAPRS, 27(B11), 556-566.
Felicisimo, A.M. (1994a). Modelos Digitales del Terreno. Introducción y Aplicaciones en las Ciencias
Ambientales. Ed. Pentalfa. Oviedo. 222 p.
Felicisimo,A.M. (1994b). Parametric statisticial method for error detection in digital elevation models.
ISPRS Journal of Photogrammetry and Remote Sensing, 49(4), 29-33.
Förstner,W. (1989). Tutorial for Robust Statintial Methods for Computer Vision. San Diego.
Hannah,M.J. (1981). Error detection and correction in Digital Terrain Models. PE&RS, 47(1), 63-69.
Huber, P.J. (1981). Robust Statistics, Ed. Wiley and Sons. New York.
Joly,F. (1988). La Cartografía. Ed. Oikos-Tau. Barcelona.
Krzystek, P. y Wild, D. (1998). Generation of Digital Elevation Models. Proceedings of the 3rd Course in
Digital Photogrammetry. University of Bonn - Landesvermessungsamt Nordrhein Westfalen. 9-13
Febrero.
FOTOGRAMETRÍA DIGITAL 481
Moellering, H. (1983). Designing interactive cartographic systems using the concepts of real and virtual
maps. En: Clark, K.C. (ed.) Analytical and computer cartography. Ed. Prentice-Hall. Englewoods-Cliffs,
New Jersey, 290 p.
Nagao, M.; Mukai, Y.; Ayabe, K.; Arai, K. y Nakazawa, T. (1988). A study of reducing abnormal
elevations in automatic computations of elevations from satellite data. IAPRS, 27(B4), 280-288.
Torlegard,K.; Oestman, A. y Lindgren, R. (1984). A Comparative Test of Photogrammetrically Sampled
Digital Elevation Models. IAPRS, Comm. III, Rio de Janeiro, 1065-1071.
Turner, J.C. (1970). Matemática moderna aplicada. Probabilidades, estadística e investigación operativa.
Ed. Alianza, Madrid, 550p.
Vosselman, G. (1998). Comunicación personal.
Weibel, R. y Heller, R. (1991). Digital Terrain Modelling. En: Maguire, D.J.; Goodchild, M.F. y Rhind,
D.W. (eds.). Geographic Information Systems. Principles and Applications. Ed. Longman, Londres,
vol.2, 269-297.
9.1 Introducción.
9.2 Métodos interactivos de extracción de elementos.
9.3 Detección automática de objetos.
9.4 Reconstrucción automática de objetos.
9.1 INTRODUCCIÓN
La extracción de elementos cartográficos es la tarea principal de las aplicaciones
fotogramétricas convencionales. Consiste en la extracción de elementos construidos
por el hombre, como por ejemplo, carreteras, edificios, … junto con elementos
naturales ríos, límites de cultivos y/o bosques, …. En la actualidad dichas medidas
son realizadas por equipos fotogramétricos de alta precisión manejados por un
operador humano. La aparición de las imágenes digitales permite el procesamiento de
imágenes múltiples y la sustitución de los sistemas de visión de las imágenes
analógicas (ópticos) por sistemas informatizados, siendo el objetivo final la
automatización del proceso fotogramétrico.
Los primeros esfuerzos de automatización han ido en la línea de automatizar los
procesos mejor conocidos como, por ejemplo, la generación automática de modelos
digitales de terreno (Gülch, 1994), pudiendo establecerse que en la actualidad dichos
procesos pueden realizarse de forma automática en unos márgenes de precisión
similares a la realización mediante operador con un lógico ahorro de tiempo de
proceso.
Sólo en los últimos años, la investigación se ha encaminado a la automatización de
procesos más complejos como, por ejemplo, la extracción automática de elementos
cartográficos.
483
484 EXTRACCIÓN AUTOMÁTICA DE ELEMENTOS CARTOGRÁFICOS
SEGMENTACIÓN
ANÁLISIS
INTERPOLACIÓN CODIFICACIÓN
REMUESTREO COMPRESIÓN
MEDIDAS 3-D
MEDIDAS
CUALITATIVAS
Fig.9.1. Estrategia para la resolución de diferentes tareas relacionadas con el análisis de imágenes.
La segmentación es una tarea relacionada con el objeto y se utiliza en diferentes procesos de extracción
de información que incluyen geometría y semántica para la reconstrucción de, por ejemplo, edificios
o sólo geometría, para el remuestreo de la imagen y la compresión (Gülch, 1995)
Extracción de elementos
Automático imagen individual Semiautomático
(puntos, esquinas, líneas)
Datos 3D
Extracción de elementos
Manual Nubes de puntos múltiples imágenes
Curvas (modelo de cámara integrado)
+ vectores
Planos de entidades
geométricas (3DFACE)
Objetos
(casas, tejados, ...)
Sistema gráfico
Extracción de elementos
múltiples imágenes
(modelo de cámara integrado)
Edición, Visualización,
Animación
AutoCAD
Fig.9.3. Modelo 3D generado a partir de medidas manuales de los edificios y estructuración automática
(Grün et al., 1993)
FOTOGRAMETRÍA DIGITAL 489
Selección de imágenes
para la modelización
Imágenes
Establecimiento Sistema
Coordenadas Espacio 3D Modelo de la escena
y transformaciones 3D a 2D
(modelo de cámara)
Estrategia extracción
El principal problema con todos los métodos es que carecen de una estrategia
jerárquica para la detección de la importancia de las estructuras en combinación con
una localización precisa de los elementos que las constituyen. Se asume que la
imagen original tiene la resolución adecuada para la detección de las estructuras de
interés. Desafortunadamente el ruido y los detalles sin interés producen problemas en
la detección (fig.9.6). El problema radica en que la resolución óptima para la
detección rara vez coincide con la resolución óptima para la localización precisa de la
estructura, por lo que la detección y la localización son dos procesos relacionados
FOTOGRAMETRÍA DIGITAL 491
Por otro lado, es importante tener en cuenta que no es suficiente con la extracción
de elementos individuales de la imagen siendo necesaria la combinación de los
elementos individuales en estructuras más complejas para lo que se requiere a su vez
el establecimiento de las relaciones entre los elementos extraídos.
Un aspecto fundamental para la automatización del proceso es el ajuste
automático de los parámetros del proceso, así valores iniciales como los tamaños de
las ventanas, tolerancias, límites de convergencia,… deben ser ajustados de una forma
automática a partir del conocimiento previo de la escena. En el caso de que esto no
sea posible, es necesario disponer al menos de procedimientos de ajuste automático a
partir de los resultados parciales extraídos de la imagen.
Otro aspecto a tener en cuenta en la extracción junto con la resolución es la escala
de la imagen. Los métodos de extracción de bajo nivel parten de la hipótesis de que la
imagen original tiene la escala óptima para la detección de las estructuras de la
imagen. El problema surge es que los objetos reales y sus estructuras derivadas son
sólo válidas para un determinado rango de escalas.
La teoría de escala de espacio (Witkin, 1983) proporciona un marco para la
detección de estructuras significativas y su escala. Sin embargo, la representación del
espacio de escala bruta proporciona sólo información implícita de los niveles digitales
de las imágenes suavizadas a las diferentes escalas mientras que la información
explícita de los elementos y relaciones entre los elementos a las diferentes escalas se
pierden.
Lindeberg (1991) desarrolló esta idea utilizando una representación denominada
boceto inicial de escala de espacio (scale-space primal sketch) que permite la
extracción de la información explícita bajo la forma de regiones o relaciones entre
regiones a las diferentes escalas. Este esquema se basa en la extracción de regiones en
las imágenes (fig.9.7), proceso para el que tan sólo es necesario disponer de un
conocimiento inicial de la imagen y si comportamiento bajo las variaciones en escala.
La metodología se basa en tres ideas iniciales:
- Estructura de imagen significativa. Una región definida en una determinada
escala de espacio se corresponde con una región relevante en la imagen.
492 EXTRACCIÓN AUTOMÁTICA DE ELEMENTOS CARTOGRÁFICOS
Contraste
Superficie de la región
(blob support region)
Fig.9.7. Parámetros cuantitativos descriptivos de una región definida en función de los niveles de gris en el
caso bidimensional: volumen, área y contraste. La región definida por los niveles de gris tiene una
superficie definida en el espacio (x,y) y el nivel de gris (z) (Lindeberg, 1991)
A B
Fig.9.10. División de la escena. Izq: Imagen original; Der: Imagen dividida (Quam,1991)
Fig.9.12. Aplicación del método de la agrupación perceptual a la extracción de las pistas del aeropuerto
JFK (Price y Huertas, 1992). Sup: izq) Imagen original; der) segmentos lineales extraídos;
Inf: izq) elementos de interés; der) pistas y marcas viales detectadas
496 EXTRACCIÓN AUTOMÁTICA DE ELEMENTOS CARTOGRÁFICOS
Fig.9.13. Aplicación de las herramientas monoculares a la extracción de edificios (McGlone, 1993). Sup:
izq) Imagen original; centro) bordes horizontales; der) bordes verticales; Inf: izq) hipótesis geométricas
consistentes; centro) resultados verificados de hipótesis de edificios; der) resultados finales
Interpolación de superficies
Análisis de superficies
Detección de desniveles
Agrupación de bordes 3D
Clasificación de bordes 3D
Primitivas simbólicas
Fig.9.14. Esquema del método de matching estereoscópico y análisis de superficies 3D
(Wang y Schenk, 1992)
C D
E F
Fig.9.15. Aplicación del método basado en el matching estereoscópico y análisis de superficies 3D.
A) Par estereoscópico original; B) Bordes extraídos y correlacionados; C) Representación tridimensional
del MDE; D) Representación en tonos de gris del MDE; e) Mapa de curvas de nivel del MDE; F) Detección
de los edificios en función de los cambios de pendiente (Wang y Schenk, 1992)
FOTOGRAMETRÍA DIGITAL 499
Modelos Disparidad
Matching estereoscópico Filtrado
Hipótesis de edificios
A B
C D
E F
G H
Fig.9.17. Ejemplo de aplicación del método de Wang (Wang y Schenk, 1992). a y b) Imágenes originales;
c) Mapa de disparidad sin corrección; d) Segmentación de la imagen izquierda; e) Mapa de disparidad con
corrección; f) Estructuras lineales; g) Estructuras rectangulares; h) Perspectiva final
500 EXTRACCIÓN AUTOMÁTICA DE ELEMENTOS CARTOGRÁFICOS
Fig.9.18. Método de Haala (1994). De arriba hacia abajo. 1: Par estereoscópico original con los
bordes extraídos (blanco) y la región 3D detectada y segmentos tridimensionales (negro). 2: izq) Vista
perspectiva de los segmentos tridimensionales extraídos; der) Ortoimagen con los elementos extraídos
(negro) y los elementos agrupados (blanco). 3: Modelo de alambre del edificio proyectado sobre el par
estereoscópico. D: izq) Imagen izquierda con los edificios reconstruidos y los segmentos empleados;
der) Vista perspectiva final generada (Haala y Hahn, 1995)
R1 L1
R3 Ra
Lb
La
R2
Rb
Rd
Rc
R4 L2
L1 La Lb
L2 Lb La
R1 Ra Rb Rc Rd Ra Rb Rc Rd
R2 Rb Rc Rd
R3 Rb Rd
R4 Rd
Fig.9.20. Ejemplo de matching relacional. Sup: izq) Imagen correspondiente al canal Intensidad;
centro) Imagen correspondiente al canal tno; der) Imagen binarizada; Inf: izq) líneas extraídas de la imagen;
centro) mapa de la zona; der) modelo de la estructura extraída (Haala y Vosselman, 1992)
9.3.4 Clasificación
Una información de gran utilidad, aunque no siempre puede es fácil de integrar en
el proceso es la información de carácter no geométrico obtenida el análisis de la
escena por parte del operador (clasificación).
9.3.4.1 Clasificación basada en la textura de la imagen
La clasificación textural de la imagen para su interpretación es una técnica
clásicamente empleada en los procesos de interpretación de imágenes en
Teledetección. Estos métodos también pueden ser empleados sobre imágenes
fotogramétricas aéreas (Baley, 1993) obteniendo como resultado la delimitación de
zonas de características texturales comunes a partir de la división de la imagen en
pequeñas zonas y la asignación de las mismas a una determinada clase.
9.3.4.2 Clasificación basada en la aplicación de modelos de información
Füger (1992) y Stilla (1994) proponen un método de clasificación de imágenes
aéreas basado en la utilización de modelos de los objetos. En este método se generan
las estructuras de los objetos utilizando modelos genéricos de objetos almacenados en
una base de datos integrada en el sistema. Las entidades, como, por ejemplo, los
segmentos rectilíneos son extraídos de las imágenes aéreas y clasificadas dentro de las
clases predefinidas (calles, cruces, edificios, ...). Este método es de gran utilidad para
los procesos de actualización cartográfica en los que se dispone de información previa
de la escena (modelos iniciales) que deben ser actualizados o comprobados.
FOTOGRAMETRÍA DIGITAL 503
Fig.9.21. Resultados obtenidos de la clasificación aplicada sobre una imagen aérea mediante
el método de Fuger et al., 1991. En la imagen se pueden observar las calles (trazadas en blanco),
los cruces (marcados con +) y las casas extraídas
Fig.9.22. Modelo digital de superficie obtenido mediante sistema láser aerotransportado (Förstner, 1997).
Datos proporcionados por TopoSys, Ravensburg
Fig.9.23. Aplicación del método de seguimiento de bordes y matching de patrones (Grün, 1993).
a) Fin de borde encontrado; b) Cambios del nivel de gris del fondo; c) Sombras, oclusiones o distorsiones;
d) Resultado final con los problemas encontrados
Fig. 9.24. Extracción del contorno de un río mediante la introducción de un punto situado en su interior
(izq) y la aplicación de técnicas de agrupamiento de regiones. Der: Imagen resultante (Vosselman, 1998)
506 EXTRACCIÓN AUTOMÁTICA DE ELEMENTOS CARTOGRÁFICOS
Filtro de gradiente
Esqueletización
Seguimiento de bordes
Conversión
vector-raster
sí Parada debido a
discontinuidades
no
Actualización de dirección
no Nueva dirección sí
correcta?
Fig.9.26. Extracción semiautomática de carreteras a partir de imágenes satélite y fotografía aérea mediante
el método de Grün y Lin (1994) (Grün y Lin, 1994). Sup: izq) imagen SPOT-P en la que aparecen
señaladas las posibles zonas problemáticas (rectángulos blancos), der) imagen a la que se ha aplicado una
transformación wavelet con las carreteras suavizadas; Inf: izq) ejemplo de extracción de una carretera; der)
ejemplo de carreteras extraídas a partir de una imagen aérea
Fig.9.27. Extracción de carreteras mediante modelos de curvas activas abiertas (Quam, 1991)
Fig.9.28. Modelos de curvas activas cerradas para la extracción de edificios (Gülch, 1991). Sup: izq)
Imagen original segmentada; centro) Posición inicial de la curva activa en el nivel de la pirámide 0; der)
Posición inicial de la curva activa en el nivel de la pirámide 1; Inf: izq) Posición de la curva tras 25
iteraciones; centro) Posición de la curva tras 40 iteraciones; der) Resultado final tras 75 iteraciones
y”
y’
y’ y”
x” 2’
p’ p” x’
l’ 1’ 4’ x”
x’ 3’ l”
2
L
4
Z Z
1
Y Y
3
X X
D
δ línea 3
|
|s
eδ
r=
eδ
Y
Y
φ
X
Z
S1
d1
P
(S
d -S
δ Y Z
2
)
1
γ eφ
d2
Y
X eγ S2
eδ
X
línea 3D
Fig.9.30. Sup: izq) Representación de líneas 3D en función de los parámetros (δ,φ,r,γ), es decir, sus
coordenadas esféricas y un ángulo; der) Representación de una línea horizontal;
Inf: izq) Representación de una línea vertical; der) intersección de dos líneas en la que se
puede aplicar la condición de coplanaridad l(s1,s2),d1,d2l = 0
v5 l14
v9
Inclinación
l9 l5 l13 Longitud (l) del tejado
v1 l15 c6 c5
v8 l1 c2
v6 l10 l2 c7
v10 l12 l8
l6 c1 Altura (h)
v4 l11
v2 c3 c4
v7 Posición imagen (f,c)
l7 l4
l3 Anchura (a) Ángulo de orientación
v3
Fig.9.32. Reconstrucción de objetos con el modelo de objeto “completo” (Mueller y Olson, 1993)
8
l
3
h2 7
6
z
h1
5
y
b
x
1
4. Por último, son obtenidas la altura de los edificios a partir del modelo digital
de elevaciones original.
Esta metodología ha sido aplicada al conjunto de datos FLAT del Grupo de
Trabajo III de la ISPRS (Fristch et al., 1994). La zona cubierta por las imágenes se
una zona urbana con edificios simples y aislados del que se dispone un modelo digital
con una resolución de 1m (x e y). Una representación tridimensional en modelo de
alambre se muestra en la figura 9.34, además se muestra el fotograma izquierdo del
modelo y el modelo digital de elevaciones.
La primera etapa consiste en la segmentación del modelo a fin de separar por un
lado los edificios y por otro el terreno (fig.9.35), esta etapa es de particular
importancia, puesto que de la misma depende los resultados finales de la
modelización y viene definida tanto por el método de segmentación empleado
(básicamente del tamaño de la ventana empleado) como por la resolución del modelo
digital empleado.
Fig.9.35. Izq. Representación de la superficie del terreno obtenida a partir de un proceso de apertura
(tamaño de la matriz 15 pixels). Centro: Modelo digital diferencia entre el modelo total y la superficie del
terreno. Der. Extracción de los edificios mediante segmentación de la imagen
w
w w
w
h12 v1
h12 h31
h12 h31
w w v
h16 h31
h11,t h33
h15 h12
w w h12 h31
w h33
h12 h13 w h31
w h31
v
h14 h33
v w w h33
v h12
h12 h31
h32
w h33
h31 h34
h11,t w
v v h11
h34
h12
h12 h34
h31
w w h31
h11
w h31
h34
h31 h34
h11
h12 h31 w
h31
v v w
h11 h31
? ?
h42
h42
? ? ? h42 h42 v
w h25 h25 h25 h25 h44 h42 h42
w w h41
w h42
v w v
v
w w
h22 h22 w h45
w
v v
h42 w h42
v v h41
w
v v h43 w
h42 h42
h42
h21,t h21,t h42
v v h41 v
h42 v
h42
h23
w1
v2 w w
w3
w4 h12
w1 h
v2
h34 w1 v
h16 h33 h
h3# h15# v1# h
h31# w w
h42 w3 h14
h34 h42 h
h31# w4# h13# h
w1 h24 w w h
h42 w1
h43 h33 h w
h43# h33 h
h31# h31# h
w1 h3# v
h42 h42
v1# h42 v w
w2 h44#
h
w3
h
w4# h21 h
h v v
v2
h33
h3# h h
h42 w w
h12 h
v2 h
h31
h42
v v
Fig.9.36. Reconstrucción de objetos con modelos genéricos a nivel de imágenes múltiples (Gülch, 1992)
518 EXTRACCIÓN AUTOMÁTICA DE ELEMENTOS CARTOGRÁFICOS
REFERENCIAS BIBLIOGRÁFICAS
Al-Tahir,R. Y Schenk, T. (1992). On the interpolation problem of automated surface reconstruction.
IAPRS, 29 (B3), 227-232.
Bailey, R.R.; Pettit, E.J. y Borochoff, R.T. (1993). Automatic recognition of USGS land use/cover
categories using statistical and neural network classifiers. Proc. SPIE’93 Conference on “Integration
Photogrammetric Techniques with Scene Analysis and Machine Vision”. 14-15 Abril. Orlando, Florida.
Busch, A. (1994). Fast Recognition of Lines in Digital Images without user-supplied parameters. IAPRS,
30-3/1. ISPRS Com.III Symposium, Munich, Alemania. Septiembre.
Chung, R.C. y Nevatia, R. (1992). Recovering Building Structures from Stereo. IEEE Workshop on
Application of Computer Vision. Palm Springs, CA, USA.
Colomer, J.L. y Colomina, I. (1994). Digital Photogrammetry at the Institute Cartogràphic de Catalunya.
Photogrammetric Record, 14(84), 943-956.
Dang, T.; Jamet, O. y Maître, H. (1994). Using Disparity Models and Objects Models to Improve Stereo
Reconstruction of Buildings, ZPF, 5/1994.
Delgado, J.; Cardenal, J. y Gómez, A. (2000). Extraccion semiautomática de edificios a partir de modelos
digitales de superficie mediante técnicas de análisis digital de imágenes y modelización paramétrica.
Topografía y Cartografía, 95, 2-18.
Firestone, L.; Rupert, S.; Olson, J. y Mueller, W. (1996). Automated Feature Extraction.: the key of future
productivity. PE&RS, 62(6), 671-674.
Förstner, W. (1991). Tutorial - High Level Image Analysis. ISPRS Conference Digital Photogrammetric
Systems. Munich, 3 Septiembre.
Förstner, W. (1992). Fusion Information in Remote Sensing, Trabajo presentado al XVII Congreso de la
ISPRS.
Förstner, W. (1993). A Future of Photogrammetric Research. NTG-Geodesia, 35, 8.
Förstner, W. (1997). Building Extraction from Digital Surface Models. http://www.ipf.uni-bonn.de
Fristch, D.; Hahn, M.; Haala, N. y Sester, M. (1993). Tutorial - Photogrammetric Image Processing’93. 44th
Photogrammetric Week. Stuttgart, Septiembre.
Fristch,D.; Sester,M. y Schenk,T. (1994). Test on image understanding . En: ISPRS Comm.III Symp.
Spatial Information from Digital Photogrammetry and Computer Vision, SPIE, pp.243-248.
Fua, P. y Hanson, A.J. (1987). Resegmentation using generic shape locating general cultural objects.
Pattern Recognition Lett., 5, 243-252.
Fuchs,C. y Förstner,W. (1995). Polymorphic grouping for image segmentation . 5th ICCV, 1995, Boston,
175-182.
Füger, H.; Jurkiewicz, K.; Lütjen, K. y Stilla, U. (1992). Ein wissensbasiertes system für die automatische
bildanalyse. IAPRS, 29 (B3), 167-172.
Gülch, E. (1991). Automatic Extraction of Geometric Features from Digital Imagery. En: Ebner, H.,
Fristch, D.; Heipke, Ch. Digital Photogrammetric Systems. Ed. Herbert Wichman Verlag, Karlsruhe,
Alemania, pp.74-85.
Gülch, E. (1992). A Knowlegde based approach to reconstruct buildings in digital aerial imagery. IAPRS,
29(B3), 410-417.
Gülch, E. (1994). Fundamentals of Softcopy Photogrammetric Workstations. Proceedings Mapping and
Remote Sensing Tools for the 21st century. ASPRS. 26-29 Agosto. pp.193-204.
Gülch, E. (1995). Information Extraction from Digital Images - A KTH approach. En: Grün, A.; Kuebler,
O.; Agouris, P. Automatic Extraction of Man-Made Objects from Aerial and Space Images. Ascona
Workshop. Ed. Birkhäuser-Verlag. Basilea, Suiza. pp. 73-82.
Grün, A. y Li, H. (1994). Semi-automatic road extraction by dinamic programming. Proceedings Com. III
Symposium, Münich, IAPRS, 30, 3/1.
Grün, A.; Streilein, A.; Stallman, D. y Han, H. (1993). Automation of House Extraction from Aerial and
Terrestrial Images. Proc. Conference AUSIA 93 (2nd International Conference Coloquium of
LIESMARS). 19-22 Octubre. Wuhan, China.
Haala, N. (1994). Building Detection of Buildings by fusion of range and image data. ZPF 5/1994.
Haala, N. y Hahn, M. (1995). Data fusion for the detection and reconstruction of buildings. En: Grün, A.;
Kúbler, O. y Agouris, P. (eds.) Automatic Extraction of Man-Made Objects from Aerial and Space
Images. pp.211-220.
Haala, N. y Vosselman, G. (1992). Recognition of Road and River Patterns by Relational Matching.
IAPRS, 29(B3), 969-975.
Hanson,A.J. y Quam,L.H. (1988). Overview of the SRI Cartographic Modeling Environment. Image
Understanding Workshop. Cambridge, Massachusetts, 6-8 Abril, vol. II.
FOTOGRAMETRÍA DIGITAL 519
Herman,M. y Kanade,T. (1986). The 3D mosaic scene understanding system. En: Pentland, A.P. (ed) From
Pixels to Predicates. Ablex Publ.Co., Norwood, N.J. pp. 322-358.
Heikilä, J. (1991). Use of linear features in Digital Photogrammetry. The Photogrammetric Journal of
Finland, 12(2), 40-56.
Heipke, Ch.; Englisch, A.; Speer, T.; Stier, S. y Kutka, R. (1994). Semiautomatic Extraction of Roads from
Aerial Images. Proceedings Com. III Symposium, Münich. IAPRS, 30, 3/1.
Huertas, A. y Nevatia, R. (1988). Detecting Buildings in Aerial Images. Computer Vision and Image
Processing, 41, 131-152.
Huertas, A.; Lin, C. y Nevatia, R. (1993). Detection of Buildings from Monocular Views of Aerial Scenes
using Perceptual Grouping and Shadows. DARPA IU Workshop, Washington D.C.
Krabill,W.G. (1989). GPS application to laser profiling and laser scanning for digital terrain models. En:
Proc. 42nd Photogrammetric Week, Stuttgart, pp.329-340.
Krabill,W.G.; Collins,J.G.; Link,L.E.; Swift,R.N. y Butler, M.L. (1984). Airborne laser topographic
mapping results. PE&RS, 50(6),685-694.
Lang, F. y Schickler, W. (1993). Semiautomatische 3D-Gebäudeerfassung. ZPF-Zeitschrift für
Photogrammetrie und Fernerkundung, 5/93.
Lin,C.; Huertas,A. y Nevatia, R.(1994). Detection of buildings using perceptual grouping and shadows.
Proc.Computer Vision and Pattern Recognition, pp.62-69.
Lin, C.; Huertas, A.; Nevatia, R. (1995). Detection of Buildings from Monocular Images. En: Grün, A.;
Kübler, O. y Agouris, P. Automatic Extraction of Man-Made Objects from Aerial and Space Images. Ed.
Birkhäuser-Verlag, Basilea. pp. 125-134.
Lindeberg, T. (1991). Discrete Scale-Space Theory and Scale-Space Primal Sketch. Dissertation,
Computational Vision and Active Perception Laboratory. Royal Institute of Technology. Estocolmo,
Suecia.
McGlone, J.C. y Shufelt, J.A. (1993). Incorporating Vanishing Point Geometry in Building Extraction
Techniques with Scene Analysis and Machine Vision. 14-15 Abril. Orlando, Florida.
McGlone, J.C. y Shufelt, J.A. (1994). Projective and Object Space Geometry for Monocular Building
Extraction. Proc. IEEE Computer Society Conference on Computer Vision and Pattern Recognition.
Seattle, Washington, 21-23 Junio.
McKeown, D.M. (1990). Toward Automatic Cartographic Feature Extraction. En: Pau, L.F. Mapping and
Spatial Modelling for Navigation, NATO ASI Series, vol. F65, Ed. Springer-Verlag, Berlin-Heidelberg.
McKeown, D.M. (1991). Information Fusion in Cartographic Feature Extraction from Aerial Imagery. En:
Ebner, H.; Fritsch, D. y Heipke, Ch. (eds.) Digital Photogrammetric Systems. Ed. Herbert Wichmann
Verlag, Karlsruhe, Alemania, pp. 103-110.
McKeown, D.M. (1993). Integration of Photogrammetric Cues into Cartographic Feature Extraction. Proc.
SPIE’93 Conference on Integration Photogrammetric Techniques with Scene Analysis and Machine
Vision. 14-15 Abril, Orlando, Florida.
Mueller, W.J. y Olson, J.A. (1993). Model-based feature extraction. Proceedings SPIE’93 Conference on
Integration Photogrammetric Techniques with Scene Analysis and Machine Vision. 14-15 Abril. Florida.
Mulawa, D.C.; Mikhail, E.M. (1988). Photogrammetric Treatment of Linear Features. IAPRS, 27, B10.
Muller, H. (1998). Experiences with Semiautomatic Building Extraction. Proc. 3rd Course in Digital
Photogrammetry. Institute für Photogrammetrie Universität Bonn - Landvermessungsamt Nordrhein-
Westfalen.
Murphy, M.E. (1993). Rapid Generation and Use of 3D Site Models to Aid Imagery Analysis/Systems
Performing Image Exploitation. Proc. SPIE’93 Conference on Integration Photogrammetric Techniques
with Scene Analysis and Machine Vision. 14-15 Abril. Orlando, Florida.
Neuenschwander, W.; Fua, P.; Székely, G. y Kübler, O. (1995). From Ziplock Snakes to VelcroTM surfaces.
En: Grün, A.; Kübler, O. y Agouris, P. Automatic Extraction of Man-Made Objects from Aerial and
Spaces Images. pp. 105-114.
Price, K. y Huertas, A. (1992). Using Perceptual Grouping to Detect Objects in Aerial Scenes. IAPRS, 29
(B3), 842-855.
Quam, L. y Strat, T. (1991). SRI Image Understanding Research in Cartographic Feature Extraction. En:
Ebner, H.; Fritsch, D. y Heipke, Ch. (eds.). Digital Photogrammetric Systems. Ed. Herbert Wichman
Verlag, Karlsruhe, Alemania, pp. 111-122.
Rosenfeld, A. (1965). Automatic Imagery Interpretation. Photogrammetric Engineering, 31, 2.
Ruskoné, R.; Airault, S. y Jamet, O. (1994). A road extraction system using the connectivity properties of
the network. ZPF5/1994.
520 EXTRACCIÓN AUTOMÁTICA DE ELEMENTOS CARTOGRÁFICOS
Schenk, T. (1993). Imagery Understanding and Digital Photogrammetry. En: Fristch y Hobbie (eds.).
Photogrammetric Week’93. Ed: Herbert Wichman Verlag. Karslruhe, Alemania.
Schickler, W. (1992). Feature Matching for outer orientation of single images using 3-D wireframe
controlpoints. IAPRS, 29(B3), 591-598.
Shaim, F. (1993). Automatic Extraction of Roads from Digital Images. ISPRS III/3 Workshop on
“Understanding Aerial Images with Emphasis on Urban Scenes”. Columbus, Ohio. Noviembre.
Shufelt, J.A. y McKeown, D.M. (1993). Fusion of Monocular Cues to Detect Man-Made Structures in
Aerial Imagery. Computer Vision and Graphics Image Processing: Image Understanding, 57, 3, Mayo.
Solberg, R. (1992). Semi-automatic revision of topographic maps from satellite imagery. IAPRS, 29(B4),
549-556.
Stilla, U.; Hajdu, A. (1994). Map-aided structural analysis of aerial images. En: Ebner, H.; Heipke, C. y
Eder, K. (eds.). Spatial Information from digital photogrammetry and computer vision. ISPRS
Commission III Symp., Munich. Bellingham, SPIE, 30, Part 3/2, 769-775.
Vosselman, G. (1992). Relational Matching. Lectures Notes in Computer Science, 628S, Springer-Verlag.
Vosselman, G. (1998). Cartographic Feature Extraction. Proc. 3rd Course in Digital Photogrammetry.
Institute für Photogrammetrie Universität Bonn - Landvermessungsamt Nordrhein-Westfalen.
Vosselman,G. y Haala, N. (1992). Erkennung topographischer pa_punkte durch relationale zuordnung.
ZPF-Zeitschrift für Photogrammetrie und Fernerkundung, 6/92.
Wang, Z. y Schenk, T. (1992). 3D urban area surface analysis. IAPRS, 29(B3), 720-726.
Witkin, A. (1983). Scale-space filtering. Proc. of the 7th IJCAI.
Wilkin,A. (1992). Robust 3D object representation by linear features. IAPRS, 29, B5.
Zielinski, H. (1993). Object Reconstruction with Digital Line Photogrammetry. Dissertation, Department of
Geodesy and Photogrammetry, KTH, Estocolmo.
Zong, J.; Li, J.C.; Schenk, T. (1992). Aerial Image Matching based on zero crossings. IAPRS, 29(B3), 144-
150.
521
522 ORTOFOTOGRAFÍA DIGITAL
Fig.10.2. Ortoproyectores analógicos. Izq: Carl Zeiss DP-3; Der: Wild PPO-8
Fig.10.3. Ortoproyectores analíticos. Izq: Wild Avioplan (1976); Der: Zeiss Z2 Orthocomp (1980)
r img= F (ximg, yimg , zobj ,c) r obj = F (xobj , yobj , zobj ,c)
El método directo sólo asigna los valores de gris que son dados por la imagen
original; además, el contraste y la densidad no cambian por la transformación. Sin
embargo, puede suceder que algunos píxeles no obtengan ningún valor, lo que implica
que deben ser completados en una segunda pasada. La transformación indirecta
asigna un valor de gris a un píxel a una posición concreta del resultado final mediante
la interpolación a partir de los niveles de gris originales. Los métodos de interpolación
más empleados son el de interpolación bilineal y el de convolución cúbica debido al
efecto de suavizado que aplican a las imágenes, que es equivalente a un proceso de
filtrado de paso bajo. Para más detalles sobre los métodos de remuestreo consultar el
apartado correspondiente del capítulo 5.
10.2.1. Métodos de Rectificación
Los métodos más frecuentes de rectificación de imágenes fotográficas
digitalizadas son tres: rectificación polinómica, transformación proyectiva y
rectificación diferencial.
10.2.1.1 Rectificación polinómica
526 ORTOFOTOGRAFÍA DIGITAL
a la altura de vuelo con la que se toma la imagen y afecta poco a los resultados
finales.
3'
4'
2'
1'
3
4
2
x
4' 3'
1' y
2'
3
4
raster de una matriz de elevaciones. Este modelo debe estar referido a un sistema de
proyección de coordenadas que será en el que se obtenga la imagen rectificada.
El objetivo de la rectificación de las imágenes digitales es asignar a cada uno de
los elementos de la matriz del modelo digital el valor de gris correspondiente. Para la
determinación del valor de gris se utiliza el siguiente procedimiento. Las coordenadas
terreno X,Y,Z de los puntos que integran el modelo digital son transformados en
coordenadas imagen x,y mediante la expresión de colinearidad.
r11 ( X − X o ) + r21 ( Y − Yo ) + r31 ( Z − Zo )
x = xp − c = f x ( x ', y ')
r13 ( X − X o ) + r23 ( Y − Yo ) + r33 ( Z − Zo )
r12 ( X − X o ) + r22 ( Y − Yo ) + r32 ( Z − Zo )
y = yp − c = f y ( x ', y ')
r13 ( X − X o ) + r23 ( Y − Yo ) + r33 ( Z − Zo )
donde x’,y’ son las coordenadas equivalentes a las coordenadas terreno X,Y, xp, yp
son las coordenadas del punto principal de la cámara, c la constante de la cámara
(distancia focal), rij los elementos de la matriz de rotación e XoYoZo la posición de la
cámara en el momento de la toma (centro proyectivo).
El valor de gris correspondiente a la posición imagen x,y es obtenida mediante la
aplicación de una técnica de remuestreo. El valor es almacenado en la posición X,Y
correspondiente de la ortofotografía que se está generando.
Para realizar esta transformación es necesario disponer de los siguientes
parámetros:
1) Orientación Interna de la cámara:
xp,yp Coordenadas del punto principal de la cámara
c Distancia focal de la cámara
2) Orientación Externa de la cámara
Xo,Yo,Zo Coordenadas centro perspectivo
rij Elementos de la matriz de rotación en función de los
ángulos ω, ϕ, κ.
3) El tamaño del pixel de la inagen digital en unidades cámara (mm)
4) El tamaño de la malla del modelo digital en unidades terreno (m)
5) Las coordenadas de referencia del modelo digital en una determinada
proyección cartográfica (normalmente las coordenadas de la esquina superior
izquierda).
P1 P2 P3
O
P4 P6
C B P5
G F
HI R
D E
P7 P9
P8
E
donde n es el número de iteraciones hasta que se cumpla que |tn+1-tn| < 10-6.
3) Cuando se ha calculado el momento de la toma ta,, se calculan las
coordenadas
nºlíneas = ta / 0.0015 nº columna = ya / 0.013mm
ya se calcula sustituyendo ta en la ecuación de colinealidad.
Xt , Yt , Zt
ωt , ϕ t , κ t f
a
ya
YA ZA
XA
y eje xi
v eje yi
f
eje yi
az
eje xi
Tr a
eje yp
eje xp
za
Línea de barrido de imagen tra
la
de
ón
c ci
re
x
Di
u
que establece la relación entre las coordenadas imagen (x,y) medidas a partir de la
esquina superior izquierda de la imagen, y las coordenadas imagen corregidas para la
escena que pueden ser usadas en las ecuaciones de colinearidad. Así, esta relación
transforma las coordenadas píxel de una imagen tomada con geometría de perspectiva
lineal a unas coordenadas de una imagen tomadas con geometría de perspectiva
central.
Así, las ecuaciones de colinearidad se pueden expresar como:
⎡d 2 0 d1 ⎤ ⎡ x ⎤ ⎛ ⎡ X Gs ⎤ ⎡ X C ⎤ ⎞
⎢ ⎥⎢ ⎥ ⎜⎢ ⎥ ⎢ ⎥⎟
⎢d5 d4 d 3 ⎥ ⎢ y ⎥ = S M ⎜ ⎢ YGs ⎥ − ⎢ YC ⎥ ⎟
⎢⎣ 0 0 −f ⎥⎦ ⎢⎣ 1 ⎥⎦ ⎜⎢Z ⎥ ⎢Z ⎥⎟
⎝ ⎣ Gs ⎦ ⎣ C ⎦ ⎠
que se puede expresar de forma simplificada como:
Mi xi = S M (XGs - XG)
⎡ X Gs ⎤
⎡ X Gs ⎤ ⎡ X C ⎤ ⎡1 0 0 − X C ⎤ ⎢ ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ Y
X Gs − X C = ⎢ YGs ⎥ − ⎢ YC ⎥ = ⎢0 1 0 − YC ⎥ ⎢ Gs ⎥
⎢Z ⎥
⎢⎣ ZGs ⎥⎦ ⎢⎣ ZC ⎥⎦ ⎢⎣0 0 1 − ZC ⎥⎦ ⎢ Gs ⎥
⎣⎢ 1 ⎦⎥
Además las coordinas imagen pueden ser expresadas como función de las
coordenadas terreno como:
⎡ −d 4 f d 5f 0 ⎤ ⎡ m11 m12 m13 ⎤
⎛ S ⎞⎢ ⎥⎢ ⎥
x i = SM i−1M ( X Gs − X C ) = ⎜ ⎟⎢ 0 −d 2f 0 ⎥ ⎢ m 21 m 22 m 23 ⎥
⎝ −d 2 d 4 f ⎠ ⎢ −d d −d 2d 3 + d1d 5 d 2d 4 ⎥⎦ ⎢⎣ m31 m32 m33 ⎥⎦
⎣ 1 4
⎡ X Gs ⎤ ⎡X ⎤
⎡1 0 0 − X C ⎤ ⎢ ⎥ ⎡ a11 a12 a13 a14 ⎤ ⎢ Gs ⎥
⎢ ⎥ ⎢ YGs ⎥ ⎛ S ⎞⎢ ⎥ Y
⎢0 1 0 −YC ⎥ ⎢ Z ⎥ = ⎜ d d f ⎟ ⎢a 21 a 22 a 23 a 24 ⎥ ⎢ Gs ⎥
⎢Z ⎥
⎢⎣0 0 1 − ZC ⎥⎦ ⎢ Gs ⎥ ⎝ 2 4 ⎠ ⎢a
⎣ 31 a 32 a 33 a 34 ⎥⎦ ⎢ Gs ⎥
⎣⎢ 1 ⎦⎥ ⎣⎢ 1 ⎦⎥
donde: a11 = d4 f m11 + d4 d1 m31
a12 = d4 f m12 + d4 d1 m32
a13 = d4 f m13 + d1 d4 m33
a14 = -d4 f A1 + d4 d1 A3
a21 = -d5 f m11 + d2 f m21 + d2 d3 m31 - d1d5 m31
a22 = -d5 fm12 + d2 fm22 + d2d3 m32 - d1d5 m32
a23 = -d5 fm13 + d2 f m23 + d2 d3 m33 - d1 d5 m33
a24 = d5 f A1 - d2 fA2 - d2d3 A3 + d1d5 A3
a31 = -d2d4m31
a32 = -d2d4 m32
a33 = -d2d4m33
a34 = d2d4A3
A1 = m11 XC + m12 YC + m13 ZC
A2 = m21 XC + m22 YC + m23 ZC
A3 = m31 XC + m32 YC + m33 ZC
La expresión matricial anterior puede escribirse de una forma idéntica a la
expresión de la Transformación Lineal Directa (Abed Al-Aziz y Karara, 1971).
L1X Gs + L 2 YGs + L3 ZGs + L 4 L5 X Gs + L6 YGs + L7 ZGs + L8
x= y=
L9 X Gs + L10 YGs + L11ZGs + 1 L9 X Gs + L10 YGs + L11ZGs + 1
donde L1, …, L11 son los 11 parámetros de transformación lineal entre el espacio
imagen bidimensional y el espacio imagen tridimensional. Estos parámetros son
función de los cinco parámetros de transformación y de corrección/transformación (d1
… d5) y de los 6 parámetros de orientación externa:
536 ORTOFOTOGRAFÍA DIGITAL
L1 = -a11 / a34; L2 = -a12 / a34; L3 = -a13 / a34; L4 = -a14 / a34; L5 = -a21 / a34;
L6 = -a22 / a34; L7 = -a23 / a34; L8 = -a24 / a34; L9 = a31 / a34; L10 = a32 / a34; L11 = a33 /a34
Correcciones Geométricas
Las coordenadas imagen (u,v) tienen que ser corregidas de los errores sistemáticos
causados por la rotación de la Tierra y el ángulo con respecto al nadir antes de la
aplicación del modelo anterior.
a) Rotación de la Tierra.
La Tierra gira alrededor de su eje a una velocidad media (Ve) de 0.00007272205
rad/seg. Esta rotación introduce errores en las direcciones de las filas y las columnas.
Las distorsiones de la escena dependen de diversos factores, como por ejemplo, la
inclinación de la orbita (i), el ángulo de incidencia de la escena (') y la latitud del
centro de la escena (N). Dichos errores pueden ser corregidos con las siguientes
fórmulas:
Du = Ve Rn cos (No) sen (() (St u) /dg Dv = Ve Rn cos (No) cos (() (St u) /dg
donde:
Du, Dv correcciones del número de fila y columna, respectivamente.
No latitud geocéntrica del punto terreno = arctg [(be2/ae2) tag (N)]
Rn= be / (1-cos (No))2 / 149) 0.5
ae, be semiejes menor y mayor del elipsoide GRS80
( ángulo de orientación de la escena, el cual es el ángulo formado
entre el meridiano y la perpendicular a la línea del centro de la
escena.
sen(()=[sen(No) sen ('-T)-cos(i)]/[cos(No) cos('-T)]
dg resolución del pixel en el terreno (10m)
b) Angulo de inclinación del nadir
El ángulo de inclinación del nadir produce variaciones del tamaño de celda en la
dirección del número de columna creciente. Si se conoce el ángulo de vista del nadir
se pueden corregir los números de columna de cualquier punto de la imagen
utilizando las expresiones (fig.10.11):
a = arctg (d/f)
D1 = H tan (wi - vf a)
D2 = H tan (wi - vf a + va)
S f
ωt
Terreno
D1
D2
Fig.10.11. Corrección de las coordenadas imagen del efecto de inclinación en el eje de captura
Ajuste mm.cc.
Determinación de los 11
parámetros de la DLT
Determinación Coordenadas
Terreno para la intersección
de los puntos conjugados del par
del MDE está reduciendo de una forma muy importante su coste. Un aspecto crucial
en la generación del MDE es el relativo al espaciado del mismo, al respecto no
existen normas exactas debido a que la problemática puede ser muy diversa, salvo la
lógica de que el número debe ser el necesario para lograr una adecuada representación
del sistema. Como primera aproximación se puede considerar que para relaciones de
ampliación inferiores a 3, el espaciado debe ser en torno a 12-24mm sobre la escala
final del mapa, para relaciones entre 3 y 8, el espaciado puede ser de 8-16mm y para
ampliaciones mayores de 4-8mm. Otro aspecto importante es que el MDE no tiene
porqué ser homogéneo en todo el área, pudiéndose incrementar la densidad en las
zonas de mayor relieve.
Para evitar estos problemas los escáneres incorporan módulos de ajuste entre las
porciones utilizando para ello la pequeña zona de solape que se produce en la
digitalización. No obstante, en casos de digitalización en condiciones extremas, como
por ejemplo, en el caso de fotogramas de deficiente iluminación es posible que
aparezca este fenómeno siendo necesario recurrir a un análisis mediante perfiles y la
compensación de las diferencias basadas en las expresiones del cambio de
iluminación desde el centro al borde del formato E= Eo sen4", siendo E la iluminación
en un determinado punto de la porción, Eo la iluminación en el centro y " el ángulo
que forma el punto con respecto al eje óptico.
10.3.4.2 Ajuste del histograma
El objetivo fundamental de la digitalización debe ser el conseguir a partir de la
imagen analógica original una imagen digital de óptima calidad para la visualización.
Para conseguir dicha calidad es fundamental que la imagen aproveche toda la anchura
del histograma posible (es decir, que estén representados el mayor número de niveles
digitales posible) sin que se produzca saturación en los extremos (habitualmente se
consideran como valores extremos 14 y 242 que deben presentar frecuencias de 5 y
98%). Para ello en el momento de la digitalización se deben seleccionar las zonas más
claras y oscuras de la imagen ajustando las curvas tonales (paletas de color o lookup-
table) de forma a que en dichas localizaciones se alcancen los niveles digitales
mínimo y máximo. Un aspecto básico para que esta operación sea efectiva es que se
empleen los mismos parámetros para los fotogramas del bloque que presenten similar
comportamiento, así normalmente, se consideran los de la misma pasada.
10.3.4.3 Compensación de puntos calientes
En los fotogramas se observa como existe un cambio de iluminación en función de
la inclinación solar (fig.10.14), la función que representa el cambio de iluminación es
de tipo gausiano con un cambio máximo B y una anchura A, representándose
mediante la expresión (fig.10.15 y 10.16):
f(x) = B * e exp (-(A * x)2)
siendo: x: distancia horizontal al punto de iluminación máxima
A: cambio máximo de iluminación (máximo de la curva)
B: anchura de la campana de la función
Para el cálculo del parámetro B de la función es necesario la medida del nivel
digital de un píxel de baja intensidad que no esté afectado por el efecto del punto
caliente y de un punto similar que sí esté afectado La diferencia entre ambos debe ser
transformado a un valor de corrección mediante la expresión:
B=
( nd pc )
− nd npc * 255
255 − nd npc
donde: ndpc: nivel digital del píxel de baja intensidad con efecto de punto
caliente.
ndnpc: nivel digital del píxel de baja intensidad no afectado por el efecto de
punto caliente.
542 ORTOFOTOGRAFÍA DIGITAL
Sol
Plano negativo
del fotograma
Plano positivo
del fotograma
Aerosol
Fig.10.15. Compensación del efecto de punto caliente (hot spot) (Knabenschuh, 1998)
FOTOGRAMETRÍA DIGITAL 543
f(x
)
l
de
n
ió ris
cc g
r re de
Región de o l B
punto caliente C iv e
n
(hot spot)
4
0
Centro
Periferia
D
al ista
c e nc
nt ia
ro
x
255
Nivel de gris
fpc
255 - mng
mng pc
255
Valor de gris
correcto (nominal)
mngfpc
Función base
B
Distancia al centro
0 de la zona pto.caliente
B
x
Centro de la zona Periferia de la zona
de punto caliente de punto caliente
Fig.10.17. Efecto de las expresiones de corrección del efecto de punto caliente (hot spot)
en función de los niveles digitales (Knabenschuh, 1998)
radiométrico, entre las diferentes ortoimágenes que dan lugar al mosaico. El empalme
geométrico, aunque en principio puede parecer más complejo la verdad es que no
plantea problemas en la práctica gracias al empleo de sistemas de ajuste por bloques
(que homogeneizan los parámetros de la orientación de todas las imágenes) y de MDE
a nivel de bloque (que elimina las posibles discontinuidades entre los modelos). El
empalme radiométrico es más complejo recurriéndose en la actualidad a tres tipos de
soluciones: elaboración del mosaico sin ningún tipo de corrección realizándose esta
con posterioridad; definición de las líneas de empalme en elementos de carácter lineal
disimulando las diferencias radiométricas y, por último, cálculo de líneas de empalme
mediante sistemas de ajuste por mínimos cuadrados.
La primera solución es en principio una de las más empleadas puesto que permiten
automatizar el proceso de ortorrectificación, retrasando el ajuste radiométrico a una
fase posterior que no requiere ser realizada en un sistema fotogramétrico digital
pudiendo ser hecha con cualquier sistema de tratamiento de imágenes (por ejemplo,
Adobe Photoshop, Corel PhotoPaint, Paint Shop Pro).
La definición de límites de empalme, requiere una labor previa de digitalización
de los diferentes polígonos sobre el modelo estereoscópico. Cada polígono contendrá
a modo de atributo la fotografía original que es necesario emplear para la obtención
de la imagen rectificada. Esta solución aunque requiere una labor delicada de
selección de los polígonos y asignación a los fotogramas, permite un buen control de
los resultados obtenidos. En la figura 10.20 se muestra un ejemplo de delimitación del
mosaico mediante delimitación manual de líneas de empalme.
Por último, es necesario indicar que también se han propuesto soluciones de tipo
automático basadas en el análisis de las zonas de solape que existen entre las
ortoimágenes que dan lugar al mosaico final. Dentro de esa línea se encuentran
diversos métodos que van desde un ajuste gradual en función de las diferencias
encontradas mediante procesos de media ponderada en función de la distancia al
borde hasta métodos más complejos basados en el ajuste por mínimos cuadrados
buscando la minimificación estadística de las diferencias entre las imágenes a
empalmar.
FOTOGRAMETRÍA DIGITAL 547
...
i
ndi i1 nddi1
...
n
valor de corrección
vci i1
vci i3
3 ...
... 3 j
vcd i3
vcdi1
...
n
vc tm
Valor de corrección
1 2 3
m-1 m
Distancia al borde
izquierdo de la porción
(pixels)
vc t3
vc t1
Imagen digitalizada
Cambio radiométrico
continuo
Resultado método
de interpolación 1
2z cvp i1
Resultado método
de interpolación 2
10.3.8 Almacenamiento
No tiene sentido la preocupación que se ha mostrado por la generación del
documento cartográfico que es el ortofotomapa si no se mantiene en el archivo del
mismo. Al respecto es necesario tener en cuenta que uno de los principales problemas,
aunque cada vez de menor importancia debido al avance de los sistemas informáticos,
es el almacenamiento de las imágenes digitales generadas, dado su enorme volumen.
Las normas habituales aconsejan el empleo de formatos estándar (TIFF, JPEG,…)
para el almacenamiento de las imágenes generadas (tanto ortoimágenes como
550 ORTOFOTOGRAFÍA DIGITAL
f
Error ∆ X asociado a ∆ Z
terreno
∆Z
∆X
Fig.10.24. Influencia del error altimétrico en el error posicional en una fotografía aérea
Así, por ejemplo, si se desea realizar una ortofotografía a escala 1:10000 a partir
de una fotografía aérea a escala 1:40000 tomada con una cámara de distancia focal
152mm a una altura de vuelo sobre el terreno de 6080m, el error máximo admisible a
la escala de representación es de 0.2mm (2m sobre el terreno). Si se sustituye este
valor en la expresión que nos proporciona el desplazamiento debido al relieve dr= (r
)h) / H’, se obtiene que el error máximo altimétrico admisible es de
aproximadamente 2m. Los factores a tener en cuenta en el cálculo son:
- distancia focal de la cámara que determina la altura de vuelo para una
determinada escala.
- formato de la fotografía que marca el valor de distancia radial máxima
definida como la semidiagonal del formato (en el caso de un fotograma de
formato 23x23cm dicha distancia será aproximadamente de 16cm).
- solapes longitudinal y transversal que determinarán la distancia máxima en la
que aparece la imagen de un punto en las diferentes imágenes en las que ésta
aparece.
- relación de escala entre la fotografía original y la ortofotografía a generar que
determinan la relación de ampliación de los errores en la imagen original.
Así, por ejemplo, si la escala deseada en el ejemplo anterior es 1:5000, sería
necesario una precisión de 1m en el modelo, al ser el error máximo admisible
en la ortofotografía de 0.2mmx5000=1m.
p’ p’
P’
dh dh’
P”
Superficie del MDE
P
X’P
dx
Superficie del terreno
X”P
Fig.10.25. Relación entre los errores en la ortoimagen y los errores del MDE (Norvelle, 1996)
554 ORTOFOTOGRAFÍA DIGITAL
Este método ha sido aplicado a diversos ejemplos reales obteniéndose muy buenos
resultados con un número inferior a 3 iteraciones quedando sólo errores que deberán
ser corregidos mediante un operador mediante métodos manuales. En estas pruebas se
ha comprobado que el método es 10 veces más rápido que los métodos manuales de
edición.
tiempo invertido como por la subjetividad introducida por el técnico encargado del
proceso.
Southard (1994) desarrolló se ha desarrollado un procedimiento analítico para la
corrección del desplazamiento debido al relieve en estos casos, las imágenes
resultantes son conocidas como “ortofotografías reales” (-true orthophotos-). El
problema se ilustra en la figura 10.26 en la que se puede observar que aunque el
proceso clásico no presenta ningún problema para el punto a, se toma la cota Za del
punto correspondiente y se proyecta sobre las imágenes para obtener el nivel digital
que se le debe asignar a la ortoimagen, si presenta importantes problemas en los
puntos b y c. En el punto b debido a un problema de oclusión producida por el
edificio se asigna al píxel de la ortofotografía correspondiente con la posición del
punto b un nivel digital que en la realidad se corresponde con el tono del tejado del
edificio, la situación es parecida en el punto c en el que se le asigna al punto c en la
ortoimagen el tono de la pared cuando en realidad le debería corresponder el tono del
tejado. Estos problemas producen que los edificios aparezcan desplazados con
respecto a su posición correcta, siendo este desplazamiento directamente proporcional
a la distancia radial que ocupa el edificio en la fotografía medida con respecto al nadir
(punto de desplazamiento debido al relieve nulo) y a la altura del objeto (en este caso
concreto, del edificio), con lo cual la ortoimagen cumplirá el requisito de la
proyección ortogonal impuesto por el que no deben ser visibles los elementos
verticales que aparezcan en las ortoimágenes (fig 10.27). Este problema es más
importante si se tiene en cuenta que los ortofotomapas finales están compuestos por
varias ortoimágenes en cada una de las cuales se producirá el desplazamiento de
acuerdo con la posición de su nadir, dando lugar a diferentes direcciones de
desplazamiento en el mosaico final.
Terreno (MDE)
1 1 A
2
2
b c Pixeles Ortoimagen a
Fig.10.29. Ejemplo de ortofotografía real. Izq: Ortofotografía real; Der: Ortofotografía Convencional.
Observar el desplazamiento sufrido por los edificios 1 y 2 así como el evidente cambio de escala
sufrido por la diferencia de cota, este desplazamiento incluso produce que en el caso de las dos
torres gemelas del edificio 1, la situada en la parte superior quede fuera de la ortoimagen;
asimismo el terreno señalado con el número 3 no es visible en la ortofotografía convencional
por el problema del desplazamiento del edificio 1 (LH Systems, 1995).
Puente no corregido
Puentes no corregidos
Puentes corregidos
Fig.10.30. Corrección del desplazamiento en pasos a diferente nivel (LH Systems, 1999)
Cristal
piezoeléctrico
Resistencia Eléctrica
Búrbuja
Búrbuja Gota
lanzada Gota
Resistencia Eléctrica lanzada
El método de thermal ink jet fue inventado en 1979 por la empresa Hewlett
Packard y fue comercializado en 1984 bajo la denominación de ThinkJet, en su
desarrollo se han invertido unas enormes sumas de dinero (del orden de miles de
millones de dólares) de forma que en la actualidad, la frecuencia de lanzamiento se ha
multiplicado por 43, se ha reducido su tamaño considerablemente, la vida del
cartucho tiene una duración 100 veces mayor y el cartucho de tinta contiene 100
veces más tinta. Así en los sistemas HP DesignJet 1000 la frecuencia de lanzamiento
es de 12KHz, con una resolución de 600ppp y 512 orificios en una banda de 21.7mm.
Los factores básicos a tener en cuenta en el análisis del rendimiento y prestaciones
del sistema de inyección de tinta son:
- sistema de almacenamiento de tinta: es aconsejable que el volumen de tinta
disponible sea elevado de forma que no sean necesarios cambios frecuentes
cuando se trabaja con formatos grandes y alta producción. La importancia del
volumen se pone de manifiesto en la cifra de la evolución de las capacidades
que han pasado de 4ml en el sistema ThinkJet (1985) a 410ml en el sistema
DesignJet 1000 Series. Asimismo es aconsejable que el diseño de los
560 ORTOFOTOGRAFÍA DIGITAL
10.6.1.3 Láser
La tecnología láser empleado en estos sistemas es la misma que se emplea en las
fotocopiadoras (fig.10.33):
1. Un rayo láser barre la superficie de un cilindro electroestático, creando una
imagen latente. El cilindro tiene la capacidad de producir electricidad al ser
sometido a la exposición de luz.
2. La imagen electroestática es posteriormente pasada por un polvo especial
(toner), cuyas partículas son atraídas por las cargas eléctricas del cilindro.
3. La imagen es transferida al papel mediante un proceso de diferencias de
voltaje entre el papel y el cilindro (2000 v en el papel y 1000 v en el
cilindro).
4. La imagen es finalmente fijada mediante presión y calor.
5. El cilindro se limpia y queda listo para la impresión de la siguiente imagen.
1.6 La impresión de los documentos en color se realiza mediante la repetición del
proceso para cada uno de los colores básicos.
Tabla 10.4. Ventajas e inconvenientes de la tecnología de impresión láser
Ventajas del láser Inconvenientes del láser
Elevada velocidad
Resultados resistentes (long lasting result)
FOTOGRAMETRÍA DIGITAL 561
Película Papel
Hoja de papel no usada con ceras
Resistencia
eléctrica
Película Papel
Hoja de papel no usada
plástica
Resistencia
eléctrica
Poliéster
Fig.10.35. Sublimación
para una celdilla de tamaño n x n, el número máximo de tonos viene dado por (n x n),
así por ejemplo una celdilla de 2x2 puede producir 5 tonos de gris.
El aspecto clave es decidir si los píxeles de cada celda deben ser blancos o negros,
para ello se utiliza una matriz limite, cuyos elementos corresponden a cada píxel de la
celda de forma que el plano de salida es cubierto por patrones regulares en función de
los valores asignados en la imagen digital a cada píxel.
Ordenado Irregular
Agrupado
Disperso
Fig.10.36. Técnicas de medios tonos mediante tramado (imágenes ampliadas) (Meylan, 1996)
Celdilla de Registro
B C
Fig.10.38. A) Matriz límite; B) El plano de salida (es decir, la hoja de papel) es cubierta por dichas
matrices límite; C) Los tonos medios son obtenidos por la comparación entre los píxeles de la imagen a
imprimir y los valores límites, si el valor límite es superior el pixel de salida será negro (Meylan, 1996)
⎛π x −π⎞ ⎛π y−π⎞
1
sen ⎜
2 ⎟ + sen ⎜ 2 ⎟
s ( x, y ) = − ⎝ ⎠ ⎝ ⎠
2 4
⎛ 1 L 1⎞
n ⎜ ⎟
donde m= Um = ⎜ M L M ⎟ D1 = 0
2 ⎜ 1 L 1⎟
⎝ ⎠
Fig.10.40. Sup: medios tonos Bayer. Inf: medios tonos clásicos aplicados a una escala de gris
(Meylan, 1996).
X 7/16E
3/16E 5/16E 1/16E
Fig.10.41. Izq: Distribución del error en el dithering; der: modelos obtenidos con los tonos variables
El principal problema se deriva del hecho que el resultado sea dependiente del
proceso aplicado (es decir, el orden es el cual los píxeles son procesados) y la
aparición de modelos erróneos cuando se trata con tonos que varian lentamente.
Los mejores resultados son obtenidos cuando se añade ruido a la imagen antes de
la aplicación del proceso de difusión.
566 ORTOFOTOGRAFÍA DIGITAL
Tabla 10.7. Resoluciones en líneas por pulgada para un número fijo de tonos de gris con resoluciones de
300, 600 y 5080ppp
Número de tonos 16 25 36 64 256
300 ppp 75 60 50 37 18
600 ppp 150 120 100 74 36
5080 ppp 1270 1000 850 630 315
FOTOGRAMETRÍA DIGITAL 567
Para el cálculo total se debe tener en cuenta el coste de la toma de los puntos sobre
el terreno más el coste de la aerotriangulación. Las tarifas de la aerotriangulación
suelen estar en torno a las 30 €/fotograma. Así, para un proyecto de tamaño medio
con un número de puntos de control de 50 a 100 (partiendo de que el número de
puntos de apoyo por fotograma son 1.5) tendríamos un coste de aproximadamente
180€/fotograma (300 € si se requiere panelado artificial).
una forma expresa la prohibición del remuestreo de las imágenes para obtener un
tamaño de píxel menor al empleado en el proceso de digitalización.
Con respecto a los modelos digitales del terreno y a los puntos de control terrestre
tampoco aporta excesiva información indicando únicamente que debe ser lo
suficientemente preciso para asegurar la adecuada corrección de la imagen a la escala
deseada y que la información referente al proceso de generación del mismo debe ser
incluída en el apartado correspondiente al fichero de metainformación.
10.8.1.4 Georreferenciación
Las imágenes deberán estar referidas a un sistema de coordenadas, como, por
ejemplo, UTM y a un determinado datum horizontal, toda la información referida al
sistema de representación deberá aparecer reflejada en la metainformación.
Para la georreferenciación de la imagen se incluirán las coordenadas terreno
relativas al píxel de posición (0,0) y la resolución de la imagen, expresada en
coordenadas terreno, en X e Y.
10.8.1.5 Resolución
En el estándar se diferencian claramente entre dos tipos de resolución: resolución
espacial (tamaño de píxel sobre el terreno, ground sample distance) y resolución
radiométrica (relativa a la sensibilidad de la imagen para detectar diferencias en el
terreno).
Se permite el remuestreo de las imágenes para obtener imágenes de mayor tamaño
de píxel que el de las imágenes originales. El caso inverso, es decir, la obtención de
imágenes con tamaño de píxel menor se debe realizar dentro de los límites expuestos
por el teorema de Nyquist (remuestreo máximo de 2 veces para evitar la aparición de
defectos en la imagen). En el caso de que se aplique cualquier tipo de remuestreo
debe ser indicado en el fichero de metainformación correspondiente.
El estándar recomienda trabajar con imágenes en blanco y negro que serán
representadas como datos binarios en 8 bits, si bien contempla el trabajo con
imágenes en color de 24 bits (3 bytes). Los niveles digitales variarán de una forma
lineal entre el 0 (negro) y el 255 (blanco) y las zonas no cubiertas por la ortoimagen
recibirán nivel digital igual a 0.
10.8.1.6 Precisión
El estándar utiliza las indicaciones del National Standard for Spatial Data
Accuracy (NSSDA) para el tratamiento estadístico de los errores para determinar la
precisión final de la ortoimagen. El método empleado es el empleo de la raíz del error
cuadrático medio para estimar la precisión posicional, indicando los resultados con
una precisión del 95%, es decir, el 95% de los puntos se deben encontrar por debajo
del error indicado como representativo de la ortoimagen.
No se indican valores límites de precisión, indicándose no obstante la necesidad
de que se introduzcan límites en función de las aplicaciones específicas, asimismo
recomienda que se empleen los utilizados en National Map Accuracy Standards -
FOTOGRAMETRÍA DIGITAL 573
NMAS- (U.S. Bureau of Budget, 1947) o los Accuracy Standards for Large-Scale
Maps (ASPRS, 1990).
En cualquier caso se indica la obligación de indicar la precisión calculada en la
metainformación del fichero.
a) Precisión absoluta:
1.7 P: La ortoimagen cumple las especificaciones de la precisión requerida
para el trabajo (National Map Accuracy Program).
F: La ortoimagen no cumple con las especificaciones de precisión absoluta
requerida para el trabajo.
b) Precisión de empalme con otras hojas:
1.8 P: La ortoimagen presenta desplazamientos con respecto a las hojas
adyacentes inferiores a 7m"3.5m
F: La ortoimagen presenta desplazamientos con respecto a las hojas
adyacentes superiores de 7m.
c) Digitalización de la imagen:
1.9 P: No se aprecian visualmente líneas de digitalización o porciones
(tiles) de digitalización en la imagen.
F: Se aprecian visualmente líneas de digitalización o porciones (tiles) de
digitalización en la imagen.
d) Defectos de la imagen digital (blemishes, ...)
1. Existen defectos en una superficie superior al 20% de la ortoimagen o
existe algún defecto con un tamaño superior a 100 píxeles.
2. Existen defectos en una superficie entre el 10% y el 20% de la
ortoimagen o existe algún defecto con un tamaño superior a 80 píxeles.
3. Existen defectos en una superficie entre el 5% y el 9% de la ortoimagen
o existe algún defecto con un tamaño superior a 70 píxeles.
4. Los defectos en la imagen representan una superficie inferior al 5% o
existe algún defecto con un tamaño superior a 60 píxeles.
5. No existen defectos visibles
e) Presencia de rayas en la imagen debido al efecto de la presión
1. Existen más de 10 rayas de presión en la ortoimagen o la anchura media
mayor de cualquier raya es mayor que 6 píxeles.
2. Existen entre 5 y 10 rayas de presión en la ortoimagen y la anchura
media mayor de las rayas es inferior a 6 píxeles.
3. Existen menos de 5 rayas de presión en la ortoimagen y su anchura
media mayor es menor de 6 píxeles.
4. Existen menos de 5 rayas de presión en la ortoimagen y su anchura
media mayor es menor de 4 píxeles.
5. No son visibles rayas de presión.
f) Presencia de rayas en la imagen
FOTOGRAMETRÍA DIGITAL 575
j) Mosaico
1. Existen diferentes radiométricas significativas entre los fotogramas. Las
diferencias en los tonos de gris entre las dos zonas de empalme superan
los 50 niveles digitales (20% de los niveles digitales posibles).
2. Existen diferencias radiométricas entre los fotogramas con diferencias
entre el 15% y el 20% de los niveles digitales posibles (38 a 50 ND).
3. Existen diferencias radiométricas entre los fotogramas con diferencias
entre el 10% y el 15% de los niveles digitales posibles (26 a 38 ND).
4. Existen diferencias radiométricas entre los fotogramas con diferencias
entre el 5% y el 15% de los niveles digitales posibles (13 a 26 ND).
5. No existen diferencias radiométricas visibles entre los fotogramas que
componen la ortoimagen.
Visual
(aim)
Punto visado
(aim point)
Objetos
Puntos visados
(aim points)
Direcciones de observación
Puntos de vista
(eyepoints)
Trayectoria puntos de vista Puntos visados generados
(eyepoint route) (generated aim points)
Objetos
10.9.1.2 Procedimiento
Para la generación de perspectivas y animaciones es necesario disponer de la
información siguiente:
- modelo digital de elevaciones
- imágenes georreferenciadas
- ficheros de elementos vectoriales restituidos (opcional)
- ficheros de elementos con texturas (opcional)
Además el usuario habitualmente debe definir el fichero de parámetros en el que
se define el ángulo de campo, los planos de corte de la perspectiva, los aspectos
relativos a la iluminación,Y , así como el fichero de trayectoria de los puntos de vista
y de los puntos visados y, en su caso, los parámetros de generación de nuevos puntos
añadidos mediante splines.
Como muestra del esquema de trabajo a seguir en la figura 10.43 se presenta el
diagrama de flujo del módulo Perspective Scenes incluido en el sistema SOCET SET
de BAE Systems.
FOTOGRAMETRÍA DIGITAL 579
Definición de
trayectoria
(Route Setup)
Generación de la escena
(Scene Rendering)
Ficheros de perspectivas
2 ó más perspectivas
Animación
Fig.10.43. Diagrama de flujo del módulo PSCENE de SOCET SET (LH Systems, 1999b)
Fig.10.44. Captura de pantalla del módulo Perspective Scene de LH Systems (LH Systems, 1999)
580 ORTOFOTOGRAFÍA DIGITAL
Terreno
obtuvieron los modelos, tanto para el terreno como para el molino, mediante draping.
Ambos modelos fueron posteriormente superpuestos obteniéndose el resultado final
que se muestra en la figura 10.46.
Fig.10.46. Visualización fotorrealística del impacto visual de implantación de dos molinos de viento
REFERENCIAS BIBLIOGRÁFICAS
Abed Al-Aziz, Y.A. y Karara, H.M. (1971). Direct Linear Transformation from Comparator Coordinates
into Object Space Coordinates in Close-Range Photogrammetry. Proc. ASP/UI Symposium on Close-
Range Photogrammetry. pp 420-475.
Ackermann, F. (1996). Techniques and Strategies for DEM Generation. En: Greeve, C. (ed.) Digital
Photogrammetry: An addendum to the Manual of Photogrammetry. ASPRS, Bethesda, Maryland, 247 p.
Baehr, H.P. (1985). Digitale Bildverarbeitung. Anwendung in der Photogrammetrie. Helbert Wichmann
Verlag, Karlsruhe.
Berry, J.K. (1988). Maps as data: fundamental considerations in computer assisted map analysis.
GIS/LIS’88 Proceedings, San Antonio, Texas, 273-284.
Chen, L.Ch. y Lee, L.H. (1993). Rigorous Generation of Digital Orthophotos from SPOT Images. PE&RS,
59(5), 655-661.
Dick, V.A.; Lawson, J.A.; Smith, J.D.; Beach, R.J. (1982). Computing - An Introduction to Structural
Problem Solving using PASCAL. Reston Publ. Co., Reston, Virginia, 625 p.
El-Manadili, Y. y Novak, K. (1996). Precision Rectification of SPOT Imagery using the Direct Linear
Transformation Model. PE&RS, 62(1), 67-72.
Jensen, R.J. (1986). Introductory Image Processing. Prentice-Hall, Englewood Cliffs, Nueva Jersey. 379 p.
Keating, T.J. y Boston, D.R. (1979). Digital Ortophoto Production Using Scanning Microdensitometers.
PE&RS, 45(6), 735-740.
Knabenschuh, M. (1998). Experiences with Digital Orthophotoproduction. Proceedings 3rd Course of
Digital Photogrammetry. Institute of Photogrammetry University of Bonn.
Konecny, G. (1979). Methods and Possibilities for Digital Differential Rectification. PE&RS, 45(6), 727-
734.
Kraus, L. (1992, 1997). Photogrammetry. Vol. I: Fundamental and Standard Processes. 4ª Edición. Vol. II:
Advanced Methods and Applications. 4ª Edición. Ed. Dümmler, Colonia, Alemania. 397 p. (vol. I), 466
p. (vol. II). ISBN: 3-427-78684-6 (vol.I); 3-427-78694-3 (vol.II)
LH Systems (1994,1995,1999). Información de la compañia.
LH Systems (1999b). Socet Set v.4.2 User=s manual. 802 p.
Mayr, W. y Heipke, C. (1988). A Contribution to Digital Orthophoto Generation.IAPRS, Kyoto (Japón),
27(B11): IV430-IV439.
Meylan, D. (1996). An Introduction to Digital Printing Techniques. OEEPE Workshop on the Application
of Digital Photogrammetric Systems. Ecole Polytechnique Fédérale du Lausanne. 4-6 Marzo.
1.10 Novak, K. (1992). Rectification of Digital Imagery. PE&RS. 58(3), 339-344.
582 ORTOFOTOGRAFÍA DIGITAL
O'Neill, M.A. y Dowman, I.J. (1988). The Generation of Epipolar Synthetic Stereo Mates for SPOT Images
using a DEM. IAPRS, Kyoto (Japón), 27(B3): 587-598.
Piedfort, J. (1999). Financial Aspects and Economics of Tenders. OEEPE Workshop on Automation in
Digital Photogrammetric Production, Marne la Vallée, 22-24 Junio. Official Publication n137, pp. 399-
404.
Rosenfeld, A. y Kak, A. (1982). Digital Picture Processing. vol.2. 20 Ed. Academic Press. Nueva York,
349 p.
Southard, G.W. (1994). True Orthophoto Capabilities of SOCET SET. Englewood, Colorado. Leica/Helava
Inc. 8p.
U.S. Bureau of Budget (1947). United States National Map Accuracy Standards. U.S. Bureau of the
Budget, Washington.
Wiggenhagen, M. (1999). Remarks on Quality Control of Digital Orthophotos. OEEPE Workshop on
Automation in Digital Photogrammetric Production, Marne la Vallée, 22-24 Junio. Official Publication
n137, pp. 325-327.
Wolf, P.R. (1987). Elements of Photogrammetry with Air Photo Interpretation and Remote Sensing.
McGraw-Hill, 20 Ed., Singapur, 628 p.
11.1 Introducción.
11.2 Aplicaciones industriales.
11.3 Aplicaciones arquitectónicas y de conservación del patrimonio.
11.4 Aplicaciones médicas.
11.1 INTRODUCCIÓN
Dentro de este capítulo se van a presentar una serie de ejemplos de aplicación de
la metodología fotogramétrica sobre imágenes digitales a diversos campos.
Evidentemente, la lista de los ejemplos presentados no pretende ser exhaustiva, sino
simplemente poner de manifiesto las posibilidades de la metodología, por dicha razón,
los ejemplos presentados se centran en aplicaciones de las denominadas no
topográficas ya habiendo sido comentados en anteriores capítulos diversos ejemplos
de aplicaciones topográficas.
La Fotogrametría Digital aplicada a las aplicaciones no topográficas presenta
importantes ventajas, entre las que pueden señalarse:
S la utilización de sistemas fotogramétricos digitales simplifica
considerablemente el proceso fotogramétrico, debido al elevado grado de
automatización que incorporan dichos sistemas.
S el coste de adquisición y mantenimiento de los sistemas fotogramétricos
digitales es considerablemente menor, y además debido a que se apoyan en
sistemas de hardware estándar dichos costes se reducirán progresivamente, al
aumentarse su implantación en los procesos productivos.
S la utilización de imágenes digitales en campos donde tradicionalmente se han
empleado cámaras convencionales de formato medio permite el empleo de
escáner de formato pequeño o bien el empleo de cámaras digitales, teniendo
en cuenta que en la mayor parte de los casos las condiciones de toma se
583
584 APLICACIONES NO CARTOGRÁFICAS DE LA FOTOGRAMETRÍA DIGITAL
Fig.11.1. Laboratorio de medida con el automóvil sobre la plataforma giratoria y el sistema de cámaras
puntos por segundo (utilizando una estación de trabajo Sun SparcStation 1), cifra que
sin duda puede ser mejorada con las estaciones actuales.
Los resultados finales ponen de manifiesto una discrepancia entre los valores
obtenidos mediante teodolito y los obtenidos a partir de la fotografías del orden de
0.3mm (error medio cuadrático tras aplicar una transformación de similaridad). Así
las precisiones deducidas son de 0.42, 0.30 y 0.76mm -XYZ- que suponen una
precisión en espacio imagen del orden de 1/20 de pixel (0.52 y 0.57µm -xy-). En
cuanto al tiempo es importante tener en cuenta que todo este estudio piloto,
incluyendo el proceso de calibración de las cámaras se realizó en 3 días.
Proyector
Espejo
Sincronizador
D
C
b’ a’ a“ b“
P A
B C
Imagen 3
D
Una vez que las correspondencias han sido establecidas, se calculan las
coordenadas objeto de los puntos mediante la aplicación de la ecuación de
colinealidad con parámetros adicionales para la corrección de la distorsión de la lente
y de la geometría del sensor, junto con la consideración del cambio del indice de
refracción del medio aplicando las expresiones empleadas en la Fotogrametría
subacuática (fig.11.7).
Plano del sensor
n1=aire
N
e n2=vidrio
n3=agua
d
R ∆R P
P
R
Fichero vectorial
Sí
No
GRADO DE DETERIORO
Bajo
Medio
Alto
Determinación del
Longitud de los vectores bloque más pequeño
definido por las grietas
INFORME FINAL
Tipo de deterioro
Grado
Densidad
Como puede observarse los resultados alcanzados son muy buenos, a excepción de
la determinación del grado de deterioro en el tipo Acocodrilo@, esto se debe a que este
FOTOGRAMETRÍA DIGITAL 595
11.2.5 Robótica
La robótica es la tecnología relacionada con el diseño y fabricación de autómatas
o robots. En la actualidad constituye una de las ramas de la industria básicas para el
desarrollo de diversas actividades como por ejemplo, montajes, inspección,
navegación, transporte, aplicaciones médicas, Y. Los robots que son capaces de
interaccionar con el medio a través de la captura e interpretación de imágenes del
mismo son denominados robots con visión y pueden ser considerados como un tipo de
máquinas inteligentes. Las funciones básicas que debe incorporar una máquina
inteligente son la comprensión de órdenes, la interacción con el entorno y la
resolución de problemas. La comprensión de órdenes se refiere a la interacción entre
la máquina y el operador humano y varía en función del tipo de máquina y en el grado
de la instrucción desde el cómo al qué. La interacción con el medio se refiere a la
capacidad de la máquina de percibir, razonar, comprender, planear y ejecutar en
función de las características del medio que le rodea. Para la percepción se pueden
emplear una amplia variedad de sensores entre los que se pueden citar: visión, fibra
óptica, ultrasonidos, microondas, inerciales (acelerómetros), dedos táctiles, Y.
Las características que debe cumplir un sistema para que sea empleado en visión
robótica vienen determinadas por la necesidad de la retroalimentación con la
máquina. La información proveniente de la visión debe ser procesada rápidamente,
puesto que, diversas acciones de la máquina se apoyan en dicha información. Por
tanto, los sistemas de visión robótica pueden ser considerados como sistemas
fotogramétricos digitales de rango cercano en tiempo real que deben cumplir las
siguientes características:
a) capacidad para el autodiagnóstico,
b) alta precisión y rendimiento (basado en la redundancia de datos
proporcionados por el sensor),
c) flexibilidad de trabajo para las funciones de reconstrucción 3D.
La aplicación de los sistemas de visión automatizada a los robots es una técnica
muy reciente. Así, al final del 1982 sólo existían muy pocas instalaciones industriales
usando robots con visión en los Estados Unidos, cifra que se eleva hasta el centenar a
finales de los 80. No obstante, es importante tener en cuenta que los sistemas
existentes no cumplen en su mayoría las tres condiciones impuestas anteriormente,
estando su diseño planteado para trabajar en unas determinadas condiciones muy
concretas y en la mayoría de los casos sin incorporar sistemas de autodiagnóstico.
El primer problema que se plantea para el diseño de una solución
fotogramétricamente robusta y rigurosa es que el rendimiento de adquisición y
procesamiento de datos debe ser muy rápido. Así es necesario tener en cuenta que una
cámara CCD genera una cantidad aproximada de 0.25Mb por imagen, lo que supone
6.25Mb/s considerando una frecuencia de 25Hz (o 12.5Mb/s si se trabaja con
imágenes estéreo) (fig.11.11). Estas cifras son difícilmente alcanzables con los
sistemas informáticos actuales, salvo que ciertas operaciones sean incorporadas
596 APLICACIONES NO CARTOGRÁFICAS DE LA FOTOGRAMETRÍA DIGITAL
270Mb
2250 TH
16Mb
35
27 TA
32Mb
Retroalimentación Operador
Control del
y/o
proceso
Sistema experto
R R R
Almacenamiento
11.2.5.1 Ejemplos
A. Sistema para el control en tiempo real del brazo articulado de la plataforma
espacial Shuttle.
Pinkney (1978) y Kratky (1979) presentan el sistema que incorpora el brazo
articulado de la plataforma espacial Shuttle. Se trata de un sistema de visión
automática que proceso casi en tiempo real (near real-time) con una cámara vidicon
(30Hz) situada en el propio brazo (sistema de captura próximo al sistema de
FOTOGRAMETRÍA DIGITAL 597
ejecución: sistema Aojo en la mano@ -eye in hand-). El satélite incorpora una serie de
puntos de referencia que se emplean para la realización del cálculo de la orientación
de la cámara mediante resección espacial obteniendose una precisión de 5mm y una
fracción de grado en la orientación.
La velocidad necesaria para el procesamiento se consigue mediante un
miniordenador PDP-11/45 que realiza la resección espacial en 14 ms (el 50% del
tiempo del ciclo de video 33 ms), este tiempo de procesamiento puede ser reducido a
3 ms en el caso de las aproximaciones iniciales, sacrificando precisión a cambio de
velocidad.
B. Sistema para la estéreopsis
Hobrough y Hobrough (1985) presentan el sistema STEREOPSIS, que consiste en
un sistema para la transformación -de una forma totalmente transparente al usuario-
de dos señales de video bidimensionales a un modelo digital tridimensional del
espacio de trabajo. El sistema proporciona información de la profundidad para cada
uno de los pixels del área del modelo cada 17ms, es decir, a una velocidad superior a
la del sistema de visión humano, para ello utiliza integración en hardware de diversas
funciones (detectores de bordes, monitores de objetos, sistema para evitar colisiones,
etc.).
C. Robot para jugar al tenis de mesa
Beyer et al (1989) diseño un robot que juega al tenis de mesa. Para ello el sistema
incorpora dos cámaras CCD y los componentes de hardware que se muestran en la
figura 11.13. El sistema tiene una velocidad de respuesta de 80ms y las coordenadas
tridimensionales de la pelota son disponibles cada 40ms, mientras que las
coordenadas imagen son extraídas cada 20ms. El esquema de temporización se
muestra en la figura 11.14.
Controlador
del Mano del robot
movimiento
de la mano
VME-bus
Motores de
Controlador desplazamiento
del movimiento de la mano
del robot
(MC 68000)
ADDA
Contadores Motores de
desplazamiento
del robot
Memoria
Tarea Obturador Lectura del sensor Cálculo de: - Extrapolación del Inicialización y control
electrónico Generación del video - Coordenadas pixels modelo de trayectoria de todos los movimientos
y sincronización a partir de los momentos - Estrategia de juego del robot y de la raqueta
Cálculo de los momentos - Transformación coordenadas - Obtención de parámetros
Suma de pixel blanco pixel a coordenadas imagen para los controladores
- Corrección de errores - Orientación, velocidad y
sistemáticos momento de impacto de
- Coordenadas 3D la raqueta
Control del
Estrategia y
Interface Procesador del movimiento
modelo de del robot
Cámaras CCD procesamiento sistema de visión trayectoria
de la señal MC-68000 MC-68000
MC-68020
Contadores ADDA
Video y
sincronización
Procesamiento
Analógico Digital Software
Estación
Objeto Fotogramétrica
Digital
Cámara Sistema CAD
Imágenes
digital
Digitales
Fig.11.16. Vista parcial del edificio de residencia de estudiantes del campus de la ETH de Zurich
FOTOGRAMETRÍA DIGITAL 601
Fig.11.18. Imagen original y realzada correspondiente a una pintura rupestre (Queensland, Australia)
Fig.11.19. Imagen de Buda de estilo Sukhothai. a) Imagen original, b) Modelo digital derivado,
c) Incorporación del modelo en una reconstrucción tridimensional
Otra necesidad importante es que la medida realizada debe llevar asociada una
cierta información de tipo médico, por lo que es aconsejable que sea realizada por un
especialista en medicina y que el sistema sea de sencillo manejo. El interés de la
aplicación de las técnicas fotogramétricas digitales puede venir por la posibilidad de
tratamiento de la imagen digital (es importante tener en cuenta que existen muy
buenos especialistas de análisis de imágenes dentro de la medicina) y trabajando con
regiones del espectro diferentes al visible (termografías, infrarrojo, Y).
11.4.2.4 Resultados
Si se desea plantear una aplicación fotogramétrica para la resolución de problemas
médicos, indudablemente es necesario proporcionar al cliente o usuario la
información médica que éste demanda. Esta necesidad ya ha sido puesta de manifiesto
por diversos autores, entre los que destacan los trabajos de Hierholzer y Drerup
(1989) que intentó obtener los parámetros de curvatura de la columna vertebral en
lugar de un simple trazado de su forma; Adams et al (1989) que analizaba la
evolución mediante el trazado de vectores en un espacio tridimensional.
El resultado más demandado suele ser un análisis comparativo de superficies,
mediante el cual se pretende realizar análisis antropológicos de los pacientes, o bien
analizar la evolución de un determinado paciente a una enfermedad o tratamiento
aplicado. Para la comparación entre superficies pueden aplicarse dos métodos, el
empleo de puntos de control determinados que plantean problemas en cuanto a la
permanencia de las marcas, la selección de los puntos y los problemas para que el
sistema (que se pretende que sea totalmente automático) identifique dichos puntos, o
bien el empleo de modelos digitales totalmente referenciados a un marco externo que
nos permita la superposición inequívoca y el análisis de las diferencias entre los
sucesivos modelos generados (Pilgrim, 1989, 1991; Karras y Petsa, 1992, 1993).
REFERENCIAS BIBLIOGRÁFICAS
Adams, L.P. y Rüther,H. (1989). A stereophotogrammetric system using multiple digital cameras for
accurate placement of a proton beam. En: Grün,A. y Kahmen,H. (eds.). Optical 3D Measurement
Techniques. Proc. Conf. Viena. Herbert Wichmann, Karslruhe, pp.164-172.
Banda,F.A.S.; Müller,J.P.; Bhatia,S.N. y Bukhary,M. (1992). Automatic generation of facial DEM=s.
IAPRS, 24(B5), 893-896.
Baltsavias, E.P. (1991). Multiphoto Geometrically Constrained Matching. Tesis Doctoral. Instituto de
Geodesia y Fotogrametría. ETH Zurich, 221p.
Beyer,H.A. (1995). Automated dimensional inspection with real-time photogrammetry. ISPRS Journal of
Photogrammetry and Remote Sensing, 50(3), 20-26.
Beyer,H.A.; Fässler,H.P. y Wen,J. (1989). Real-time photogrammetry in high speed robotics. En: Grün,A.
y Kahmen,H. (eds.). Optical 3D measurement techniques. Wichmann, Karlsruhe, pp.271-280.
Bruhn,E. y Wittwer,W. (1991). Digitale Fotogrammetrische Bildauswertung im Industriellen Fahrzeugbau.
43 Photogrammetrische Woche. Universidad de Stuttgart.
1.11 BTS (1994). ELITE Motion Analysis brochure. Bioengineering Technology and Systems, Milán.
Deacon,A.T.; Anthony,A.G.; Bhatia,S.N. and Müller,J.P. (1991). Evaluation of a CCD-based facial
measurement system. Med.Inform., 16(2),213-228.
El-Hakim, S.F. (1986). A real-time system for object measurement with CCD cameras. IAPRS, 26(5), 363-
373.
Ferrigno,G.; Borguese,N.A. y Pedotti,A. (1990). Pattern recognition in automatic human motion analysis.
ISPRS Journal of Photogrammetry and Remote Sensing, 45, 227-246.
Fua, P. y Hanson, A.J. (1987). Resegmentation using generic shape locating general cultural objects.
Pattern Recognition Lett., 5, 243-252.
Fuchs,C. y Förstner,W. (1995). Polymorphic grouping for image segmentation. 5th ICCV, 1995, Boston,
175-182.
Fristch,D.; Sester,M. y Schenk,T. (1994). Test on image understanding. En: ISPRS Comm.III Symp.
Spatial Information from Digital Photogrammetry and Computer Vision, SPIE, pp.243-248.
Georgeopoulos, A. y Tournas,E. (1994). Digital rectification using a PC. IAPRS, 30(5), 102-108.
610 APLICACIONES NO CARTOGRÁFICAS DE LA FOTOGRAMETRÍA DIGITAL
Georgeopoulos,A.; Loizos,A. y Flouda,A. (1995). Digital image processing as a tool for pavement distress
evaluation. ISPRS Journal of Photogrammetry and Remote Sensing, 50(1), 23-33.
Grün,A. y Baltsavias,E. (1989). Automatic 3D measurement of human faces with CCD cameras. En:
Baumann,J.U. y Herron,R.E. (eds.). Biostereometrics >88. SPIE, 1030: 106-116.
Haggren, H. (1991). Real-time photogrammetry and robot vision. 43 Photogrammetrische Woche.
Universidad de Stuttgart.
Hanaizumi, H.; Tsumashima,T. y Fujimura,S. (1994). Application of proximity stereometry to archaeology
-3D shape measurement of the head of a wooden statue. IAPRS, 30(5), 150.154. Herman,M. y
Kanade,T. (1986). The 3D mosaic scene understanding system. En: Pentland, A.P. (ed) From Pixels to
Predicates. Ablex Publ.Co., Norwood, N.J. pp. 322-358.
Hierholzer,E. y Drerup,B. (1989). Assessment of three dimensional scoliotic deformity by
rasterstereography. En: En: Baumann,J.U. y Herron,R.E. (eds.). Biostereometrics >88. SPIE, 1030: 9-16.
Hobrough,G.L. y Hobrough,T.B. (1995). A future for real-time photogrammetry. Vermessung,
Photogramm. Kulturtechn, pp.312-315.
Höhle,J. y Joergensen,M.P. (1996). Photogrammetry for 3D visualisation. GIM Journal, March 1996,
pp.52-55.
Karras,G.E. y Petsa,E. (1992). On detection of deformation in reconstructed body models. En: Dansereau,J.
(ed.). International Symposium on 3D Scoliotic Deformities. Fischer-Verlag, Stuttgart, pp.370-375.
Karras,G.E. y Petsa,E. (1993). DEM deformation and detection of deformation in close-range
photogrammetry without control. PE&RS, 59(9), 1419-1424.
Krabill,W.G. (1989). GPS application to laser profiling and laser scanning for digital terrain models. En:
Proc. 42nd Photogrammetric Week, Stuttgart, pp.329-340.
Krabill,W.G.; Collins,J.G.; Link,L.E.; Swift,R.N. y Butler, M.L. (1984). Airborne laser topographic
mapping results. PE&RS, 50(6),685-694.
Kratky,V. (1979). Real-time photogrammetry support of dynamic three-dimensional control. PE&RS, 45,
1231-1242.
Lin,C.; Huertas,A. y Nevatia, R.(1994). Detection of buildings using perceptual grouping and shadows.
Proc.Computer Vision and Pattern Recognition, pp.62-69.
Maas,H.G. (1991). Digital Photogrammetry for Determination of Tracer Particle Coordinates in Turbulent
Flow Research. PE&RS, 57(12), 1593-1597.
Maas,H.G. y Kersten,T. (1994). Digital Close-Range Photogrammetry in a Shipyard. GIM Journal, Agosto
1994, 25-27.
Macleod,A.; Morris,J.R.W. y Lyster,M. (1990). Highly accurate video coordinate generation for automatic
3D trajectory calculation. En: Walton, J.S. (ed.). Image-based motion measurement. SPIE, 1356, 12-18.
McGlone,J.C. y Shufelt,J.A. (1994). Projective and Object space geometry for monocular building
extraction. Proc.Computer Vision and Pattern Recognition, pp.54-61.
Mitchell,H.L. (1994). A comprehensive system for automated body surface measurement. IAPRS, 30(5),
265-272.
Mitchell,H.L. (1995). Applications of digital photogrammetry to medical investigations. ISPRS Journal of
Photogrammetry and Remote Sensing, 50(3), 27-36.
Ogleby,C.L. (1991). The surveys, visualization and animation of El Qitar. En: McClellan (ed.). El-Qitar: A
Bronze Age Fortress on the Euphrates. 197 p.
Ogleby,C.L. (1995). Advances in the digital recording of cultural monuments. ISPRS Journal of
Photogrammetry and Remote Sensing, 50(3), 8-19.
Peterson, A.E.; Durdle,N.G.; Raso,V.J. y Hill, D.L. (1993). Calibration of video cameras for scoliosis
mapping. Geomatica, 47(1), 29-38.
Pilgrim, L.J.(1989). Detection of change in three dimensional models with time -their medical application.
En: Baumann,J.U. y Herron,R.E. (eds.). Biostereometrics >88. SPIE, 1030: 130-137.
Pilgrim, L.J.(1991). Simultaneous three dimensional object matching and surface difference detection in a
minimally restrained environment. Research Report 066.08.1991. Departament of Civil Engineering and
Surveying, Universidad de Newcastle, Australia.
Pinkney, H.F.L. (1978). Theory and development of an on-line 30Hz video photogrammetry system for
real-time three-dimensional control. Proc. ISP Comm.V, Estocolmo.
Sawyer,P. y Bell,J. (1994). Photogrammetric recording and 3D visualization of Ninstints, a world heritage
site. IAPRS, 30(5), 345-348.
Scheneider,C.T. y Sinnreich,K. (1990). Concept of an optical coordinate measurement machine. SPIE
vol.1395, Close Range Photogrammetry Meets Machine Vision, pp.816-822.
FOTOGRAMETRÍA DIGITAL 611