Está en la página 1de 642

Fotogrametría Digital

JORGE DELGADO GARCÍA 
Dpto. Ingeniería Cartográfica, Geodésica y Fotogrametría 
Universidad de Jaén

Servicio de Publicaciones
Universidad de Jaén
   
ÍNDICE 

Índice .................................................................................................................................... i 
Presentación...................................................................................................................xxiii 
Prólogo............................................................................................................................ xxvi 
Capítulo 1. Introducción................................................................................................... 1 
  1.1  Concepto de Fotogrametría Digital .............................................................. 1 
  1.2  La imagen digital. Ventajas e inconvenientes de la utilización de 
    imágenes digitales en Fotogrametría ........................................................... 2 
      1.2.1  Ventajas e inconvenientes de las imágenes digitales.................. 4 
  1.3  Historia de la Fotogrametría Digital ............................................................ 6 
      1.3.1  De la Fotogrametría Analítica a la Fotogrametría 
        Digital ............................................................................................... 6 
      1.3.2  El periodo de desarrollo conceptual (1955‐1982) ........................ 8 
      1.3.3  El periodo de diseño previo y las primeras realizaciones 
        (1982‐1988) ..................................................................................... 10 
1.3.4 El periodo de desarrollo de la interfaz de usuario, la 
  automatización y la especialización (1988‐…)........................... 14 
  1.4  Fundamentos y cuestiones abiertas en Fotogrametría Digital................ 16 
  1.5  Fotogrametría Digital: oportunidades y potencial ................................... 17 
  Referencias bibliográficas .................................................................................... 18 
 
Capítulo 2. Sistemas fotogramétricos digitales .......................................................... 21 
2.1 Sistemas fotogramétricos digitales y estaciones fotogramétricas 
digitales  ......................................................................................................... 21 
2.1.1    Elementos que componen un sistema fotogramétrico 
    digital.............................................................................................. 22 
2.2 Esquema de trabajo con un sistema fotogramétrico digital .................... 37 
2.2.1  Preparación del trabajo................................................................. 38 
2.2.2  Procedimientos de orientación .................................................... 38 
2.2.3  Aplicaciones................................................................................... 40 
2.3 Clasificación de los procesos en Fotogrametría Digital ........................... 41 
2.3.1  Nivel sistema ................................................................................. 43 
2.3.2  Nivel bajo ....................................................................................... 44 
2.3.3  Nivel medio ................................................................................... 44 
2.3.4  Nivel alto........................................................................................ 45 
2.4 Análisis de la rentabilidad de una estación fotogramétrica 
  digital (DPW)................................................................................................. 46 
2.5 Clasificación de los sistemas fotogramétricos digitales ........................... 48 
Anexo 2.1. Ejemplos de sistemas fotogramétricos digitales............................ 51 
Referencias bibliográficas .................................................................................... 85 
 

  i 
ii  ÍNDICE 

Capítulo 3. Sistemas de Adquisición de Imágenes Digitales Fotogramétricas..... 87 
3.1  Introducción................................................................................................... 87 
3.2  Sensores electroópticos ................................................................................. 90 
  3.2.1  Geometría y propiedades radiométricas de los sensores 
      electroópticos .................................................................................90 
3.3  Cámaras CCD .............................................................................................. 100 
  3.3.1  Diseño de la cámara .................................................................... 100 
  3.3.2  Cámaras de video estándar ........................................................ 101 
  3.3.3  Cámaras CCD de alta resolución............................................... 101 
  3.3.4  Cámaras digitales de imagen fija............................................... 103 
  3.3.5  Transmisión y captura de imágenes CCD................................ 105 
  3.3.6  Digitalizadoras de imagen.......................................................... 107 
  3.3.7  Sensores digitales empleados en Fotogrametría ..................... 108 
  3.3.8  Calibración del sensor aerotransportado ADS40 .................... 139 
  3.3.9  Calibración de cámaras digitales para su empleo en  
      trabajos de Fotogrametría No Topográfica .............................. 145 
  3.3.10  Método general de calibración de cámaras digitales .............. 147 
  3.3.11  Comparación entre cámaras digitales y cámaras  
      fotográficas convencionales ....................................................... 151 
  3.3.12  Desarrollos futuros y perspectivas............................................ 156 
3.4  Escáneres ...................................................................................................... 157 
  3.4.1  Componentes de los escáneres .................................................. 158 
  3.4.2  Análisis de las características técnicas de los escáneres ......... 162 
  3.4.3  Escáneres no fotogramétricos .................................................... 170 
  3.4.4  Calibración de escáner ................................................................ 172 
  3.4.5  Análisis de coste y beneficios de sistemas escáner.................. 195 
Anexo 3.1. Ejemplos de escáneres utilizados en Fotogrametría.................... 197 
Referencias bibliográficas................................................................................... 209 
 
Capítulo 4. Preprocesamiento de imágenes digitales fotogramétricas ................. 213 
4.1 Sistemas de almacenamiento y manipulación de imágenes 
  digitales fotogramétricas ............................................................................ 213 
  4.1.1  Sistemas de almacenamiento ..................................................... 214 
  4.1.2  Manipulación de datos en Fotogrametría Digital ................... 217 
4.2  Compresión de imágenes ........................................................................... 220 
  4.2.1  Métodos de compresión no degradativos ................................ 222 
  4.2.2  Métodos de compresión degradativa ....................................... 229 
Anexo 4.1. Terminología informática relacionada con el almacenamiento 
      de imágenes digitales ..................................................................... 243 
Anexo 4.2. Formatos gráficos de almacenamiento de imágenes digitales... 245 
Anexo 4.3. Estructura del fichero LOR50‐50.TIF............................................. 254 
Referencias bibliográficas................................................................................... 255 
 
 
FOTOGRAMETRÍA DIGITAL  iii 

Capítulo 5. Procesamiento de imágenes digitales fotogramétricas........................257 
  5.1  Introducción .................................................................................................257 
  5.2  Modelos de imágenes ..................................................................................259 
  5.3  Operaciones elementales con imágenes digitales ....................................263 
    5.3.1  Propiedades de los histogramas de la imagen .........................264 
    5.3.2  Funciones elementales.................................................................265 
  5.4  Operaciones locales en imágenes digitales...............................................269 
    5.4.1  Operadores lineales .....................................................................270 
    5.4.2  Operadores no lineales ................................................................279 
  5.5  Morfología ....................................................................................................282 
    5.5.1  Operadores morfológicos............................................................282 
    5.5.2  Morfología para imágenes en tonos de gris..............................284 
  5.6  Pirámides de imágenes ...............................................................................286 
    5.6.1  Pirámide gausiana........................................................................286 
    5.6.2  Pirámide laplaciana .....................................................................287 
  5.7  Corrección de imágenes ..............................................................................288 
    5.7.1  Método de validación cruzada ...................................................289 
    5.7.2  Método de eliminación del ruido mediante filtrado  
        adaptativo .....................................................................................289 
    5.7.3  Eliminación de filas o columnas erróneas.................................293 
  5.8  Transformaciones geométricas...................................................................293 
    5.8.1  Tamaño de una imagen transformada mediante rotación......295 
    5.8.2  Remuestreo ...................................................................................295 
  5.9  Segmentación de la imagen ........................................................................297 
    5.9.1  Métodos de segmentación puntual............................................299 
    5.9.2  Métodos de segmentación a nivel de área ................................300 
    5.9.3  Tratamiento de imágenes clasificadas.......................................303 
    5.9.4  Medidas sobre las imágenes segmentadas ...............................304 
  Referencias bibliográficas ...................................................................................305 
     
Capítulo 6. Automatización del proceso de medida en Fotogrametría 
  6.1  Introducción .................................................................................................307 
  6.2  La automatización del proceso de medida. Concepto de matching......308 
  6.3  Métodos de reducción del espacio de búsqueda .....................................310 
    6.3.1  Influencias de las condiciones de la toma y de la  
        superficie del terreno ...................................................................311 
    6.3.2  Espacio de búsqueda y aproximaciones ...................................313 
  6.4  Clasificación de los métodos de stereo‐matching....................................320 
  6.5  Matching a nivel de área.............................................................................321 
    6.5.1  Método de correlación cruzada..................................................324
    6.5.2  Técnicas de cálculo mediante mínimos cuadrados..................328 
    6.5.3  Técnicas basadas en el análisis de Fourier ................................343 
  6.6  Matching a nivel de elementos...................................................................343 
    6.6.1  Factores a tener en cuenta en el diseño de un sistema 
iv  ÍNDICE 

        de matching a nivel de elementos ............................................. 345 


    6.6.2  Extracción de elementos ............................................................. 347 
    6.6.3  Técnicas de matching a nivel de elementos ............................. 365 
  6.7  Problemas asociados con el stereo‐matching........................................... 371 
  6.8  Diseño de un sistema de matching ........................................................... 372
  Anexo 6.1.  Obtención de imágenes normalizadas...................................... 374 
  Referencias bibliográficas................................................................................... 383 
 
Capítulo 7. Automatización del proceso de orientación fotogramétrica. ............. 387 
  7.1  Introducción................................................................................................. 387 
  7.2  Automatización del proceso de orientación interna ............................... 389 
    7.2.1  Orientación interna interactiva .................................................. 390 
    7.2.2  Orientación interna autónoma................................................... 390 
  7.3  Automatización del proceso de orientación relativa .............................. 406 
    7.3.1  Orientación relativa interactiva ................................................. 407 
    7.3.2  Orientación relativa automática ................................................ 407 
  7.4  Aerotriangulación digital automática....................................................... 418 
    7.4.1  Objetivos de los sistemas de aerotriangulación digital 
        automática .................................................................................... 419 
    7.4.2  Fases del proceso de aerotriangulación digital automática ... 419 
    7.4.3  Aspectos relativos al desarrollo de la metodología ................ 427 
    7.4.4  Resultados de la aerotriangulación digital automática .......... 430 
    7.4.5  Sistemas comerciales ................................................................... 430 
    7.4.6  Comparación de resultados entre aerotriangulación 
        analítica y digital ......................................................................... 431 
  7.5  Automatización del proceso de orientación absoluta............................. 437 
    7.5.1  Orientación absoluta automática utilizando puntos de 
        control ........................................................................................... 439 
    7.5.2  Orientación automática con líneas de apoyo ........................... 441 
    7.5.3  Orientación automática con superficies de apoyo .................. 446 
    7.5.4  Ejemplos de procedimientos de orientación absoluta 
        automática .................................................................................... 449 
  Referencias bibliográficas................................................................................... 454 
 
Capítulo 8. Generación automática de modelos digitales de elevaciones. .......... 457 
  8.1  Introducción................................................................................................. 457 
  8.2  Modelos digitales del terreno .................................................................... 458 
    8.2.1  Captura de información experimental...................................... 459 
    8.2.2  Estructuras de los MDT. Métodos de interpolación ............... 460 
    8.2.3  Precisión, calidad y productividad ........................................... 463 
    8.2.4  Aplicaciones de los MDE............................................................ 467 
    8.2.5  Problemas en la generación fotogramétrica de los MDE........ 467 
  8.3  Generación automática de modelos digitales de elevaciones................ 468 
    8.3.1  Remuestreo epipolar de la imagen (imágenes  
FOTOGRAMETRÍA DIGITAL  v 

        normalizadas) ...............................................................................469 
    8.3.2  Pirámides de imágenes................................................................469 
    8.3.3  Extracción de elementos y matching .........................................469 
    8.3.4  Reconstrucción de superficie ......................................................470 
    8.3.5  Control de calidad y evaluación de los métodos  
        automáticos de generación de MDE ..........................................472 
  8.4  Sistemas comerciales de generación automática de MDE ......................477 
    8.4.1  Sistema SOCET SET ATE de BAE Systems...............................477 
    8.4.2  Sistema Inpho Match‐T ...............................................................479 
 
Capítulo 9. Extracción automática de elementos cartográficos...............................483 
  9.1  Introducción .................................................................................................483 
  9.2  Métodos interactivos para la extracción de elementos ...........................487 
    9.2.1  Construcción de topologías a partir de medidas no 
        estructuradas ................................................................................487 
    9.2.2  Alineamiento interactivo de entidades del objeto ...................487 
  9.3  Detección automática de objetos................................................................489 
    9.3.1  Herramientas monoscópicas.......................................................490 
    9.3.2  Métodos basados en el matching estereoscópico y el  
        análisis de resultados...................................................................496 
    9.3.3  Métodos basados en la aplicación de técnicas de matching 
        a nivel de modelo .........................................................................500 
    9.3.4  Clasificación..................................................................................502 
    9.3.5  Fusión de la información proveniente de diferentes  
        sensores .........................................................................................503 
  9.4  Reconstrucción automática de objetos ......................................................503 
    9.4.1  Métodos semiautomáticos ..........................................................504 
    9.4.2  Métodos automáticos basados en el empleo de modelos 
        paramétricos .................................................................................511 
  Referencias bibliográficas ...................................................................................518 
 
Capítulo 10. Ortofotografía digital ..............................................................................521 
  10.1  Introducción. Conceptos básicos ...............................................................521 
  10.2  Rectificación de imágenes digitales ...........................................................524 
    10.2.1  Métodos de rectificación .................................................................525 
    10.2.2  Rectificación de imágenes SPOT ....................................................529 
  10.3  Etapas de realización de una ortorrectificación mediante el método 
    diferencial .....................................................................................................537 
    10.3.1  Adquisición de la información de partida ................................537 
    10.3.2  Orientación fotogramétrica.........................................................539 
    10.3.3  Generación de MDE.....................................................................539 
    10.3.4  Ajustes radiométricos ..................................................................540 
    10.3.5  Transformaciones geométricas...................................................544 
    10.3.6  Confección del mosaico final......................................................545 
vi  ÍNDICE 

    10.3.7  Edición cartográfica..................................................................... 549 


    10.3.8  Almacenamiento.......................................................................... 549 
  10.4  Calidad de la imagen ortorrectificada ...................................................... 550 
    10.4.1  La importancia de la precisión del MDE .................................. 551 
  10.5  Generación de ortofotografías en zonas urbanas .................................... 554 
  10.6  Impresión de imágenes digitales............................................................... 558 
    10.6.1  Técnicas de impresión................................................................. 558 
    10.6.2  Técnicas de tramado para medios tonos .................................. 562 
    10.6.3  Reproducción del tono................................................................ 566 
    10.6.4  Aplicaciones fotogramétricas..................................................... 566 
  10.7  Factores que determinan el coste final de un proyecto de  
    ortofotografía ............................................................................................... 567 
    10.7.1  Coste de las imágenes ................................................................. 567 
    10.7.2  Coste del apoyo terrestre ............................................................ 568 
    10.7.3  Coste de la generación del modelo digital de elevaciones ..... 569 
    10.7.4  Coste de la ortorrectificación...................................................... 569 
    10.7.5  Costes de la edición y reproducción final ................................ 569 
    10.7.6  El factor escala.............................................................................. 570 
  10.8  Estándares de control de calidad en las ortoimágenes........................... 570 
    10.8.1  Normas del Federal Geographic Data Committee .................. 570 
    10.8.2  Normas del Estado de Vermont ................................................ 573 
    10.8.3  Norma DIN .................................................................................. 576 
    10.8.4  Situación en nuestro país............................................................ 576 
  10.9  Generación de perspectivas y animaciones ............................................. 577 
    10.9.1  Aspectos metodológicos ............................................................. 577 
    10.9.2  Ejemplo de aplicación ................................................................. 580 
  Referencias bibliográficas....................................................................................... 581 
 
Capítulo 11. Aplicaciones no cartográficas de la Fotogrametría Digital .............. 583 
  11.1  Introducción................................................................................................. 583 
  11.2  Aplicaciones industriales ........................................................................... 584 
    11.2.1  Aplicaciones de la Fotogrametría Digital al control 
        dimensional en la industria del automóvil .............................. 584 
11.2.2 Control dimensional de grandes estructuras 
  (industría naval) .......................................................................... 587 
11.2.3 Aplicaciones para la determinación de trayectorias de 
objetos en movimiento (hidráulica) .......................................... 588 
11.2.4 Aplicaciones a la ingeniería civil (control de estado del 
pavimento..................................................................................... 592 
    11.2.5  Robótica ........................................................................................ 595 
  11.3  Aplicaciones arquitectónicas y de conservación del patrimonio .......... 598 
    11.3.1  Otros ejemplos de aplicaciones fotogramétricas digitales 
        para la arquitectura y el registro del patrimonio artístico...... 601 
  11.4  Aplicaciones médicas.................................................................................. 603 
FOTOGRAMETRÍA DIGITAL  vii 

    11.4.1  Necesidades de la medida médica.............................................604 
    11.4.2  Medida de superficie ...................................................................605 
    11.4.3  Estudios dinámicos ......................................................................608 
  Referencias bibliográficas .......................................................................................609 
viii  ÍNDICE 
FOTOGRAMETRÍA DIGITAL  ix 

ÍNDICE DE TABLAS 

Capítulo 1. Introducción 
Tabla 1.1. Número de sistemas fotogramétricos analíticos y digitales exhibidos en los 
  Congresos de la ISPRS en el periodo 1976‐1996................................................................ 7 
Tabla 1.2. Conceptos para la automatización de la interpretación de imágenes........................... 9 
Tabla 1.3. Principales características de los restituidores digitales................................................ 10 
Tabla 1.4. Aspectos básicos relativos al diseño de los sistemas fotogramétricos digitales ........ 10 
Tabla 1.5. Características del DSCC .................................................................................................... 11 
Tabla 1.6. Requisitos de los sistemas fotogramétricos ..................................................................... 12 
Tabla 1.7. Características básicas de los sistemas fotogramétricos digitales................................ 14 
Tabla 1.8. Características actuales de los sistemas fotogramétricos digitales .............................. 16 
 
Capítulo 2. Sistemas fotogramétricos digitales 
Tabla 2.1. Sistemas de visión estereoscópica en restituidores digitales ........................................ 26 
Tabla 2.2. Sistemas de control de movimiento en el modelo.......................................................... 31 
Tabla 2.3. Diferencias entre los sistemas analíticos y digitales en cuanto a la orientación 
  de los fotogramas ................................................................................................................. 40 
Tabla 2.4. Comparación del procedimiento de trabajo en los sistemas analíticos y digitales ... 42 
Tabla 2.5  Clasificación de procesos fotogramétricos....................................................................... 42 
Tabla 2.6  Coste inicial y coste anual equivalente............................................................................. 47 
Tabla 2.7  Modelos de estimación de costes ...................................................................................... 48 
Tabla A2.1  Errores teóricos en DVP ................................................................................................. 75 
Tabla A2.2  Errores reales en DVP..................................................................................................... 76 

Capítulo 3. Sistemas de adquisición de imágenes digitales fotogramétricas 
Tabla 3.1  Evolución de la resolución y distorsión en los objetivos de la serie RC8 a RC30 . 90 
Tabla 3.2  Cámaras tipo still video comercializadas.................................................................. 104 
Tabla 3.3  Características de las normas de video más empleadas ......................................... 106 
Tabla 3.4  Esquema de fases de trabajo con la cámara DMC ................................................... 116 
Tabla 3.5  Características de los sensores del sistema ADS40 .................................................. 121 
Tabla 3.6  Sensores digitales operacionales, en visible e infrarrojo......................................... 130 
Tabla 3.7  Sistemas espaciales dotados de sensores estereoscópicos ...................................... 134 
Tabla 3.8  Características cartográficas de las imágenes captadas con sensores  
  electroópticos ................................................................................................................. 135 
Tabla 3.9  Comparación de costes de los productos .................................................................. 135 
Tabla 3.10  Sistemas de captura de imágenes radar .................................................................... 136 
Tabla 3.11  Cámaras de alta resolución empleadas en Fotogrametría No Topográfica......... 137 
Tabla 3.12  Cámaras digitales de alta velocidad........................................................................... 140 
Tabla 3.13  Cámaras empleadas en el test de calibración ........................................................... 145 
Tabla 3.14  Comparación entre la cámara de película y la cámara digital ............................... 153 
Tabla 3.15  Comparación entre cámaras analógicas y digitales en la planificación de  
  un vuelo .......................................................................................................................... 155 
Tabla 3.16  Comparación entre cámaras analógicas y digitales en la planificación de  
  un vuelo situación futura ............................................................................................. 155 
Tabla 3.17  Nivel de ruido y función de expansión de diferentes escáneres ........................... 168 
x  ÍNDICE 

Tabla 3.18  Características técnicas de algunos escáneres de sobremesa ................................. 171 


Tabla 3.19  Resultados de la calidad geométrica de los escáneres sin calibración ................. 192 
Tabla 3.20  Resultados de la calidad geométrica de los escáneres tras la calibración............ 194 
Tabla 3.21  Errores de desplazamiento entre los canales R,G,B en imágenes en color .......... 194 
Tabla 3.22  Calibración radiométrica con la cuña de grises........................................................ 195 
Tabla 3.23  Precios aproximados y características de los escáneres fotogramétricos más 
frecuentemente empleados.......................................................................................... 196 
Tabla 3.24  Periodo de amortización de un escáner fotogramétrico en función del coste  
  del equipo y del número de fotografías procesadas diariamente ......................... 196 
Tabla A3.1  Características técnicas de los sistemas DSW........................................................... 200 
 
Capítulo 4. Preprocesamiento de imágenes digitales fotogramétricas 
Tabla 4.1  Soportes de almacenamiento....................................................................................... 216 
Tabla 4.2  Entropías y redundancias en imágenes fotogramétricas........................................ 221 
Tabla 4.3  Tabla de codificación .................................................................................................... 224 
Tabla 4.4  Transformación JPEG (etapa previa) ......................................................................... 231 
Tabla 4.5  Valores transformados mediante la transformación de coseno discreto ............. 232 
Tabla 4.6  Matriz de coeficientes de cuantificación JPEG ......................................................... 233 
Tabla 4.7  Valores transformados cuantificados y redondeados............................................. 233 
Tabla 4.8  Precisión puntual de las medidas de elementos lineales sobre las imágenes  
  comprimidas .................................................................................................................. 236 
Tabla 4.9  Niveles de confianza de aceptación de la hipótesis de la no existencia de  
  diferencias significativas en términos de varianza obtenidas mediante el 
  test F ................................................................................................................................ 236 
Tabla 4.10  Errores cuadráticos medios de las diferencias perpendiculares entre los  
  valores originales y los de las imágenes comprimidas ........................................... 237 
Tabla 4.11  Diferencias entre un conjunto de elementos de la imagen original y las  
  obtenidos de las imágenes comprimidas .................................................................. 237 

Capítulo 5. Procesamiento de imágenes digitales fotogramétricas 
Tabla 5.1  Efectos del filtrado en una imagen a la que se le ha introducido ruido  
  artificialmente ................................................................................................................ 292 
 
Capítulo 6. Automatización del proceso de medida en Fotogrametría 
Tabla 6.1  Ejemplo de aplicación de matching de mínimos cuadrados unidimensional 
  para el cálculo del vector desplazamiento. Niveles digitales correspondientes 
  a las series f y g .............................................................................................................. 332 
Tabla 6.2  Ejemplo de aplicación de matching de mínimos cuadrados unidimensional 
  para el cálculo del vector desplazamiento. Resultados numéricos parciales 
  del cálculo del vector desplazamiento....................................................................... 333 
Tabla 6.3  Ejemplo de aplicación de matching de mínimos cuadrados unidimensional 
  para el cálculo del vector desplazamiento Resultados de la aplicación a las 
  series originales del vector de desplazamiento obtenido en la primera  
  iteración aplicando un posterior remuestreo............................................................ 333 
Tabla 6.4  Cálculo de los centros de gravedad de series unidimensionales .......................... 334 
Tabla 6.5  Datos de partida y resultados numéricos parciales del cálculo de una 
  función de deformación compuesta por un vector desplazamiento y un  
  factor de escala............................................................................................................... 336 
Tabla 6.6  Elementos de los bordes............................................................................................... 356 
FOTOGRAMETRÍA DIGITAL  xi 

Tabla 6.7  Tabla‐R del elemento mostrado en la figura 6.35..................................................... 359 


Tabla 6.8  Elementos extraídos (regiones), atributos y relaciones........................................... 369 
Tabla 6.9  Atributos posibles en las clases definidas según el objeto...................................... 369 
Tabla 6.10  Posibles relaciones de vecindad entre los atributos ................................................ 369 

Capítulo 7. Automatización del proceso de medida en Fotogrametría
Tabla 7.1  Resultados de la determinación de la posición de la marca fiducial mediante 
  el método del centroide ................................................................................................ 395 
Tabla 7.2  Resultados de la localización a nivel de subpíxel .................................................... 397 
Tabla 7.3  Resultados de la Orientación Interna Automática................................................... 405 
Tabla 7.4  Métodos de orientación interna autónoma ............................................................... 406 
Tabla 7.5  Diferencias entre la orientación relativa manual y automática ............................. 407 
Tabla 7.6  Resultados de la Orientación Relativa (Modelo Finlandia).................................... 414 
Tabla 7.7  Resultados de la Orientación Relativa (Modelo Baviera) ....................................... 415 
Tabla 7.8  Resultados de las orientaciones relativas automáticas............................................ 416 
Tabla 7.9  Comparación del grado de automatización en  los diferentes métodos de 
  aerotriangulación........................................................................................................... 420 
Tabla 7.10  Publicaciones sobre sistemas de aerotriangulación digital automática ............... 431 
Tabla 7.11  Características básicas de los sistemas de aerotriangulación digital 
  automática ...................................................................................................................... 431 
Tabla 7.12  Características del bloque Wittenbach....................................................................... 432 
Tabla 7.13  Resultados del ajuste del bloque Wittenbach utilizando BLUH ........................... 436 
Tabla 7.14  Número de fotogramas por punto de paso en el bloque Wittenbach .................. 436 
Tabla 7.15  Resultados de la comprobación de la orientación del bloque Wittenbach .......... 437 
Tabla 7.16  Tiempo de operador requerido para la aerotriangulación del bloque 
  Wittenbach en los distintos sistemas.......................................................................... 437 
 
Capítulo 8. Generación automática de modelos digitales de elevaciones 
Tabla 8.1  Comparación entre la adquisición manual y automática de datos para la 
  generación de MDE....................................................................................................... 460 
Tabla 8.2  Criterios de calidad del OSI en la producción de MDE .......................................... 467 
Tabla 8.3  Control de calidad de MDE generados automáticamente...................................... 475 
 
Capítulo 9. Extracción automática de elementos cartográficos 
Tabla 9.1  Métodos de extracción de elementos ......................................................................... 490 
 
Capítulo 10. Ortofotografía digital 
Tabla 10.1  Resultados de la rectificación de imágenes SPOT mediante DLT......................... 537 
Tabla 10.2  Ventajas e inconvenientes de la tecnología de impresión de chorro de tinta...... 560 
Tabla 10.3  Ventajas e inconvenientes de la tecnología de impresión de inyección de 
  tinta sólida ...................................................................................................................... 560 
Tabla 10.4  Ventajas e inconvenientes de la tecnología de impresión láser ............................. 560 
Tabla 10.5  Ventajas e inconvenientes de la tecnología de impresión de transferencia 
  térmica de ceras ............................................................................................................. 561 
Tabla 10.6  Ventajas e inconvenientes de la tecnología de impresión por sublimación ........ 562 
Tabla 10.7  Resoluciones en líneas por pulgada para un número fijo de tonos de gris con 
  resoluciones de 300, 600 y 5080ppp............................................................................ 566 
Tabla 10.8  Comparación de los costes de las fases de dos ejemplos de ortofotografía......... 567 
Tabla 10.9  Coste aproximado de la toma de puntos de apoyo ................................................. 568 
xii  ÍNDICE 

Tabla 10.10  Equivalencia terminológica y definiciones ............................................................... 577 

Capítulo 11. Aplicaciones no cartográficas de la Fotogrametría Digital
Tabla 11.1  Comparación entre los resultados de APDIS y las verificaciones sobre el 
  terreno ............................................................................................................................. 594 
Tabla 11.2  Sistemas digitales para la realización de medidas faciales .................................... 606 
Tabla 11.3  Sistemas fotogramétricos digitales para la medida de espalda............................. 607 
 
FOTOGRAMETRÍA DIGITAL  xiii 

ÍNDICE DE FIGURAS

Capítulo 1. Introducción 
Fig.1.1.  Proceso de digitalización ...................................................................................................... 3 
Fig.1.2.  La imagen digital ................................................................................................................... 3 
Fig.1.3.  Relación entre resolución espacial y espacio requerido para el almacenamiento....... 5 
Fig.1.4.  Análisis histórico de los métodos fotogramétricos .......................................................... 7 
Fig.1.5.  Elementos de un restituidor analítico................................................................................. 8 
Fig.1.6.  Elementos fundamentales de un sistema fotogramétrico digital y el impacto de 
    la interacción humana y la automatización de medidas e interpretación en la  
    eficiencia y aceptación......................................................................................................... 17 
 
Capítulo 2. Sistemas fotogramétricos digitales 
Fig.2.1.  Proceso fotogramétrico digital........................................................................................... 22 
Fig.2.2.  Diagrama de flujo de un Sistema Fotogramétrico Digital............................................. 23 
Fig.2.3.  Elementos constituyentes de un sistema fotogramétrico digital ................................. 24 
Fig.2.4.  Sistemas de visualización estereoscópica empleados en Fotogrametría Digital....... 27 
Fig.2.5.  Visión estereoscópica por polarización pasiva ............................................................... 27 
Fig.2.6.   Visión estereoscópica por polarización activa ................................................................ 28 
Fig.2.7.   Conmutación automática de la observación monóscopica/estereoscópica................ 28 
Fig.2.8.   Visualización estereoscópica por separación óptica con un solo monitor ................. 30 
Fig.2.9.   Visualización estereoscópica por separación óptica con dos monitores .................... 30 
Fig.2.10.  Sistemas de control de movimiento en el modelo 3D.................................................... 31 
Fig.2.11.  Sistemas de desplazamiento de imagen y cursor ........................................................... 32 
Fig.2.12.  Esquema de las diferentes ventanas de almacenamiento en relación con el  
    tamaño de una imagen........................................................................................................ 34 
Fig.2.13.  Precisión de medida al nivel de sub‐píxel ....................................................................... 36 
Fig.2.14.  Procesos en un Sistema Fotogramétrico Digital ............................................................. 43 
Fig.2.15.  Funciones que debe incluir un restituidor digital de gama baja y media .................. 46 
Fig.A2.1.  Sistema SOCET SET® ........................................................................................................... 52 
Fig.A2.2.  El sistema SOCET SET® en el entorno de producción cartográfica fotogramétrica.. 52 
Fig.A2.3.  Estructura de módulos del Sistema SOCET SET® .......................................................... 53 
Fig.A2.4.  Sistema fotogramétrico digital Z/I Imaging Imagestation 2002 ................................... 58 
Fig.A2.5.  Flujo de trabajo en Fotogrametría Digital ........................................................................ 58 
Fig.A2.6.  Flujo de trabajo en la realización de medidas digitales y aerotriangulación ............. 59 
Fig.A2.7.  Flujo de captura, revisión y control de entidades 3‐D ................................................... 60 
Fig.A2.8.  Flujo de trabajo en la captura y edición de los MDE ..................................................... 61 
Fig.A2.9.  Flujo de trabajo en la ortorrectificación de fotografías y generación de mosaicos.... 61 
Fig.A2.10. Sistema Softplotter de Autometric Inc. ............................................................................ 64 
Fig.A2.11. Sistema Summit PC dotado de sistema de manivelas y tableta para el control 
    del modelo y del programa  ............................................................................................... 67 
Fig.A2.12. Sistema DiAP dotado de manivelas y pedal para el movimiento en el modelo ....... 70 
Fig.A2.13. Sistema DVP equipado con doble monitor, sistema de visión estereoscópica 
    mediante estereoscopio de espejos y escáner Sharp JX‐600.......................................... 72 
Fig.A2.14. Proceso Fotogramétrico en el DVP ................................................................................... 73 
 
xiv  ÍNDICE 

Capítulo 3. Sistemas de adquisición de imágenes digitales fotogramétricas 
Fig.3.1.   Sistemas de adquisición de imágenes en el proceso fotogramétrico digital .............. 89 
Fig.3.2.   Analogía de la matriz de cubos para la explicación del funcionamiento de  
    un sensor electroóptico ....................................................................................................... 91 
Fig.3.3.   Relación entre señal y ruido en un sensor CCD ............................................................. 96 
Fig.3.4.   Respuesta espectral de diferentes sensores CCD, fotografía y ojo humano .............. 97 
Fig.3.5.   Elementos funcionales de una cámara digital............................................................... 100 
Fig.3.6.   Esquema de una cámara de alta resolución con sistema de refrigeración ............... 102 
Fig.3.7.   Sistema de coordenadas y barrido en una escena de video........................................ 106 
Fig.3.8.   Sistema MOMS................................................................................................................... 110 
Fig.3.9.   Sistemas de captación en sensores digitales aerotransportados ................................ 111 
Fig.3.10.  Cámaras de sensor matricial. ........................................................................................... 112 
Fig.3.11.  Sensor ADS de Leica Geosystems ................................................................................... 112 
Fig.3.12.  Captura de imágenes mediante cámaras digitales....................................................... 113 
Fig.3.13.  Diferencias en el proceso de orientación entre las imágenes obtenidas por un  
    sensor digital y las obtenidas mediante una cámara convencional analógica......... 114 
Fig.3.14.  Desplazamiento entre las bandas de los sensores lineales como consecuencia 
    de la orientación de los sensores ..................................................................................... 114 
Fig.3.15.  Características geométricas de las imágenes................................................................. 115 
Fig.3.16.  Configuración de la cámara DMC .................................................................................. 115 
Fig.3.17.  Cámara Vexcel UltracamD............................................................................................... 117 
Fig.3.18.  Ejemplos del vuelo de pruebas realizado con la cámara Vexcel UltracamD........... 118 
Fig.3.19.  Imagen de la estrella de Siemens captada con una película convencional y  
    con la cámara digital UltracamD..................................................................................... 119 
Fig.3.20.  Objetivo del sensor ADS40............................................................................................... 120 
Fig.3.21.  Detalle del plano focal del sensor ADS40 ...................................................................... 120 
Fig.3.22.  Componentes y conexiones del sistema informático de la cámara ........................... 122 
Fig.3.23.  Captura de pantalla del sistema de navegación ........................................................... 123 
Fig.3.24.  Componentes básicos para la integración entre el ADS40 y el IMU/GPS ................ 125 
Fig.3.25.  Sistema de postproceso en un flujo de producción fotogramétrica digital.............. 125 
Fig.3.26.  Diagrama del flujo de postproceso ................................................................................. 126 
Fig.3.27.  Imagen original y rectificada en función de los ángulos de orientación 
    determinados por la IMU ................................................................................................. 128 
Fig.3.28.  Imagen de detalle en la que se muestra el efecto de la rectificación en la  
    corrección de la imagen de una torre de TV ................................................................. 128 
Fig.3.29.  Imagen obtenida con la versión EM del sensor en la que se observan  
    los tratamientos aplicados para el ajuste a nivel local de zonas subexpuestas ....... 129 
Fig.3.30.  Captura de la imagen y generación de los pares estereoscópicos en el sistema  
    SPOT .................................................................................................................................... 131 
Fig.3.31.  Geometría de la captura de imágenes SPOT ................................................................. 132 
Fig.3.32.  Esquema de trabajo con imágenes SPOT estereoscópicas .......................................... 133 
Fig.3.33.  Instalaciones de calibración de la DLR........................................................................... 140 
Fig.3.34.  Esquema del calibrador de la DLR ................................................................................. 141 
Fig.3.35.  Funciones de expansión del punto para el sensor nadiral.......................................... 142 
Fig.3.36.  FTM del sensor nadiral del sistema ADS40................................................................... 142 
Fig.3.37.  Instalación del ADS40 en el interior del goniómetro vertical codificado................. 143 
Fig.3.38.  Función de transferencia óptica, de transferencia de modulación y de fase  
    de la OTF ............................................................................................................................. 144 
Fig.3.39.  Señal lineal .......................................................................................................................... 144 
FOTOGRAMETRÍA DIGITAL  xv 

Fig.3.40.  Patrón de calibración y toma de fotografías.................................................................. 146 


Fig.3.41.  Relación fotocoordenadas y coordenadas imagen ....................................................... 148 
Fig.3.42.  Procedimiento de calibración........................................................................................... 152 
Fig.3.43.  Distribución del mercado entre los diferentes sensores y plataformas en  
    función de la resolución espacial y espectral ................................................................ 157 
Fig.3.44.  Esquema de un escáner plano y de un escáner plano.................................................. 158 
Fig.3.45.  Interior del escáner Leica DSW500 ................................................................................. 159 
Fig.3.46.  Iluminación de un sistema con luz directa a través de un condensador o  
    luz difusa por una placa de difusión .............................................................................. 159 
Fig.3.47.  Escáner Helava‐Leica DSW200 en el que se puede observar la esfera difusora 
    situada en la parte superior.............................................................................................. 160 
Fig.3.48.  Líneas verticales y bandeado horizontal........................................................................ 173 
Fig.3.49.  Problema de alineamiento entre dos sensores lineales................................................ 173 
Fig.3.50.  Problema de solape............................................................................................................ 173 
Fig.3.51.  Errores de submuestreo .................................................................................................... 174 
Fig.3.52.  Smearing de líneas horizontales...................................................................................... 174 
Fig.3.53.  Ecos en la imagen digital .................................................................................................. 176 
Fig.3.54.  Vibraciones en la dirección horizontal ........................................................................... 176 
Fig.3.55.  Placa de calibración de la resolución geométrica de las Fuerzas Aéreas de los 
    Estados Unidos de América ‐USAF‐............................................................................... 178 
Fig.3.56.  Patrones de calibración radiométrica ............................................................................. 179 
Fig.3.57.  Patrón de puntos y de líneas diseñado por Heidenhain ............................................. 179 
Fig.3.58.  Placa reticulada en los bordes para ser empleada de forma simultánea con 
    la película ............................................................................................................................ 180 
Fig.3.59.  Diferentes tipos de marcas empleados en las placas reticuladas............................... 181 
Fig.3.60.  Representación vectorial de los residuos en el proceso de calibración 
    de un escáner Vexcel Ultrascan5000. .............................................................................. 186 
Fig.3.61.  Esquema de un escáner RM‐1.......................................................................................... 188 
Fig.3.62.  Esquema óptico de un escáner RM‐1.............................................................................. 188 
Fig.3.63.  Efecto del desplazamiento de la posición del sensor ................................................... 188 
Fig.3.64.  Efecto del desplazamiento en la posición de la lente................................................... 189 
Fig.3.65.  Problemas en la rotación del espejo................................................................................ 190 
Fig.A3.1.  Escáner PhotoScan de Z)I Imaging ................................................................................. 197 
Fig.A3.2.  Esquema del escáner Z)I Imaging PhotoScan. .............................................................. 198 
Fig.A3.3.  Sistema de digitalización por rollos del Photoscan...................................................... 199 
Fig.A3.4.  Escáner Leica DSW600 ...................................................................................................... 199 
Fig.A3.5.  Escáner VX4000 de Vexcel Imaging Co.......................................................................... 202 
Fig.A3.6.  Escáner Vexcel UltraScan 5000 ........................................................................................ 204 
Fig.A3.7.  Escáner XL‐10 ..................................................................................................................... 206 
Fig.A3.8.  Escáner DeltaScan .............................................................................................................. 207 
 
Capítulo 4. Preprocesamiento de imágenes digitales fotogramétricas 
Fig.4.1.   Dispositivos de almacenamiento de información ........................................................ 218 
Fig.4.2.   Construcción de la tabla de códigos Huffman.............................................................. 225 
Fig.4.3.   Imagen SUBURB‐L e histograma de los niveles digitales correspondientes ........... 226 
Fig.4.4.   Resultados de la codificación Huffman ......................................................................... 226 
Fig.4.5.   Ejemplo de compresión de una línea mediante el método de Huffman  
    modificado .......................................................................................................................... 228 
Fig.4.6.   Procedimiento de codificación aritmética...................................................................... 230 
xvi  ÍNDICE 

Fig.4.7.   Esquema de compresión/descompresión por el método JPEG .................................. 231 


Fig.4.8.   Ordenación en zig‐zag ...................................................................................................... 233 
Fig.4.9.   Compresión de una imagen de gran tamaño................................................................ 234 
Fig.4.10.  Diferencias perpendiculares entre los extremos de los elementos lineales.............. 235 
Fig.4.11.  Ejemplo de JPEG con una tasa de compresión alta...................................................... 237 
Fig.4.12.  Esquema de la compresión HPC..................................................................................... 239 
Fig.4.13.  Imagen Original e Imagen del nivel superior obtenida mediante HPC................... 239 
 
Capítulo 5. Procesamiento de imágenes digitales fotogramétricas 
Fig.5.1  .  Diagrama de flujo de la aplicación de las técnicas de procesamiento de la  
    imagen digital en Fotogrametría ..................................................................................... 258 
Fig.5.2.   Imagen digital representada en diferentes resoluciones............................................. 260 
Fig.5.3.   Sistemas de coordenadas.................................................................................................. 260 
Fig.5.4.   Ejemplos de imágenes digitales ...................................................................................... 262 
Fig.5.5.   Imágenes multiespectrales (imágenes en color real) ................................................... 263 
Fig.5.6.   Secuencia de imágenes correspondiente a la toma de fotogramas aéreos para 
    el trabajo fotogramétrico estereoscópico........................................................................ 263 
Fig.5.7.   Imagen digital correspondiente a una fotografía aérea en la que se han  
    diferenciado dos partes con diferente tono ................................................................... 264 
Fig.5.8.   Ejemplos de aplicación de operaciones elementales para la manipulación de  
    la imagen ............................................................................................................................. 267 
Fig.5.9.   Ecualización del histograma ............................................................................................ 268 
Fig.5.10.  Ejemplo de ecualización del histograma ....................................................................... 269 
Fig.5.11.  Resultados de aplicar los filtros de aproximación a la imagen .................................. 273 
Fig.5.12.  Influencia del tamaño del kernel en el filtrado de media ........................................... 275 
Fig.5.13.  Ejemplos de aplicación del filtro gausiano .................................................................... 277 
Fig.5.14.  Aplicación de la correlación entre imágenes digitales para la identificación de  
    la posición de la marca fiducial en una imagen digital ............................................... 278 
Fig.5.15.  Efectos de la aplicación de operadores de orden a una imagen digital.................... 279 
Fig.5.16.  Metodología de aplicación del filtro de la mediana..................................................... 280 
Fig.5.17.  Ejemplo de aplicación de media y mediana sobre un borde en una imagen  
    digital ................................................................................................................................... 280 
Fig.5.18.  Operadores de gradiente aplicados sobre la imagen................................................... 282 
Fig.5.19.  Aplicación de los filtros de detección de bordes sobre una imagen digital............. 283 
Fig.5.20.  Efecto de la aplicación de las operaciones morfológicas básicas ............................... 285 
Fig.5.21.  Efecto de la aplicación de las operaciones morfológicas básicas a una imagen  
    binaria obtenida a partir de una fotografía aérea......................................................... 285 
Fig.5.22.  Efectos de la aplicación de las operaciones morfológicas básicas a una imagen 
    en tonos de gris .................................................................................................................. 286 
Fig.5.23.  Representación gráfica de la generación de una pirámide gausiana ........................ 287 
Fig.5.24.  Ejemplo de una pirámide gausiana y su correspondiente pirámide laplaciana ..... 288 
Fig.5.25.  Detección de filas erróneas en la imagen digital .......................................................... 294 
Fig.5.26.  Rotación en un imagen digital......................................................................................... 295 
Fig.5.27.  Ejemplo de rotación de una imagen digital................................................................... 295 
Fig.5.28.  Efecto de la rotación en la posición de los píxeles de la imagen................................ 296 
Fig.5.29.  Interpolación bilineal ........................................................................................................ 297 
Fig.5.30.  Método de remuestreo mediante convolución cúbica................................................. 298 
Fig.5.31.  Efectos del remuestreo en la imagen digital.................................................................. 298 
Fig.5.32.  Segmentación de la imagen digital en función del histograma ................................. 299 
FOTOGRAMETRÍA DIGITAL  xvii 

Fig.5.33.  Error en la segmentación de la imagen debido a un histograma inadecuado......... 299 


Fig.5.34.  Segmentación de una imagen aleatoria.......................................................................... 300 
Fig.5.35.  Aplicación de las técnicas de segmentación a la localización de una marca  
    fiducial ................................................................................................................................. 300 
Fig.5.36.  Segmentación mediante matriz de concurrencia.......................................................... 301 
Fig.5.37.  Vistas en perspectivas de las componentes del filtro de Gabor ................................. 301 
Fig.5.38.  Aplicación del filtro de Gabor ......................................................................................... 302

Capítulo 6. Automatización del proceso de medida en Fotogrametría
Fig.6.1  .  Principio de stereo‐matching ........................................................................................... 308 
Fig.6.2.   Representación de la toma de la imagen de un punto del terreno P (sobre  
    terreno llano) en los fotogramas tomados desde O= y O@............................................ 311 
Fig.6.3.   Par estereoscópico formado por dos fotogramas con diferente escala ..................... 312 
Fig.6.4.   Efecto de la diferencia de los ángulos de rotación entre las dos imágenes del par 312 
Fig.6.5.   Efecto de la inclinación del terreno................................................................................. 313 
Fig.6.6.   Efecto del relieve en la superficie del terreno que es cubierta por cada uno de  
    los píxeles de las imágenes que forman un modelo estereoscópico.......................... 313 
Fig.6.7.   Geometría epipolar............................................................................................................ 314 
Fig.6.8.   Definición del espacio de búsqueda en función del error de determinación de 
    la cota del punto del terreno ............................................................................................ 315 
Fig.6.9.   Método VLL para la reducción del espacio de búsqueda ........................................... 317 
Fig.6.10.  Ejemplos de pares de líneas de desplazamiento vertical ............................................ 317 
Fig.6.11.  Aplicación del método VLL ............................................................................................. 318 
Fig.6.12.  Aplicación combinada de los métodos de líneas epipolares y VLL .......................... 318 
Fig.6.13.  Pirámide de imágenes ....................................................................................................... 319 
Fig.6.14.  Matching a nivel de área y a nivel de elemento............................................................ 321 
Fig.6.15.  Esquema general de un proceso de ABM ...................................................................... 322 
Fig.6.16.  Principio de la correlación cruzada................................................................................. 325 
Fig.6.17.  Cálculo del coeficiente de correlación con nivel de precisión de subpíxel............... 326 
Fig.6.18.  Problemas típicos en la determinación del valor máximo en la correlación............ 327 
Fig.6.19.  Proceso de observación ............................................................................................................................................................... 329 
Fig.6.20.  Principio de la aproximación diferencial aplicado al cálculo del vector de 
desplazamiento entre series unidimensionales............................................................. 331 
Fig.6.21.  Series correspondientes a los datos experimentales del ejemplo 1............................ 332 
Fig.6.22.  Resultado de la aplicación del vector de desplazamiento calculado en la  
    primera iteración a las series originales ......................................................................... 334 
Fig.6.23.  Matching a nivel de elementos ........................................................................................ 344 
Fig.6.24.  Utilización de los elementos extraídos para la representación de elementos 
    reales .................................................................................................................................... 344 
Fig.6.25.  Discontinuidades físicas que producen bordes en la imagen digital ........................ 348 
Fig.6.26.  Tipos de puntos.................................................................................................................. 349 
Fig.6.27.  Localización de un punto triple y de un punto circular simétrico ............................ 350 
Fig.6.28.  Tipos de bordes .................................................................................................................. 352 
Fig.6.29.  Método de la eliminación de los gradientes no máximos ........................................... 353 
Fig.6.30.  Filtro LoG ............................................................................................................................ 355 
Fig.6.31.  Extracción de elementos mediante el método de operador LoG ............................... 356 
Fig.6.32.  Determinación de la posición del borde ........................................................................ 356 
Fig.6.33.  Clasificación de píxeles de borde en función de la vecindad ..................................... 357 
Fig.6.34.  Transformada de Hough .................................................................................................. 358 
xviii  ÍNDICE 

Fig.6.35.  Descripción de una línea mediante la transformada Hough generalizada.............. 358 


Fig.6.36.  Matching de líneas mediante la utilización de la transformada de Hough ............. 359 
Fig.6.37.  Representación ψ‐s ............................................................................................................ 359 
Fig.6.38.  Ejemplos de transformación ψ‐s...................................................................................... 360 
Fig.6.39.  Algoritmo de división‐fusión .......................................................................................... 361 
Fig.6.40.  Tipos de elementos puntuales de unión (nodos).......................................................... 366 
Fig.6.41.  Representación de los desplazamientos obtenidos para las diferentes parejas 
    de elementos entre imágenes o entre imagen y objeto ................................................ 366 
Fig.6.42.  Imagen segmentada. Características y relaciones entre los elementos extraídos ... 369 
Fig.6.43.  Árbol de búsqueda correspondiente a las clases extraídas de la imagen de la 
    figura 6.42............................................................................................................................ 371 
Fig.6.44.  Esquema general de un sistema de stereo‐matching................................................... 373 
Fig.A6.1.  Relación de las imágenes .................................................................................................. 375 
Fig.A6.2.  Par estereoscópico en su posición original y transformada normalizada ................ 376 
Fig.A6.3.  Relación entre imagen píxel e imagen normalizada .................................................... 377 
Fig.A6.4.  Transformación de imagen píxel a imagen normalizada............................................ 379 
Fig.A6.5.  Relación entre fotografía y imagen píxel, en posición real y normalizada .............. 381 
Fig.A6.6.  Determinación del tamaño de la imagen normalizada ............................................... 381 
Fig.A6.7.  Imágenes originales y normalizadas .............................................................................. 382 
 
Capítulo 7. Automatización del proceso de orientación fotogramétrica 
Fig.7.1.   Esquema de un sistema de cartografía automática...................................................... 388 
Fig.7.2.   Sistema de coordenadas definidos en la imagen digital ............................................. 389 
Fig.7.3.   Morfología de una marca fiducial correspondiente a la cámara Leica RC‐30 ......... 391 
Fig.7.4.   Resultados de la binarización en función de la morfología del histograma ............ 392 
Fig.7.5.   Resultados de la binarización para diferentes valores de corte ................................. 394 
Fig.7.6.   Efecto de la discretización del proceso de digitalización............................................ 395 
Fig.7.7.   Perfiles de las marcas 1 y 2 de la fig 7.5 ......................................................................... 395 
Fig.7.8.   Patrón ideal de una marca fiducial remuestreado según diferentes posiciones 
    a nivel de subpixel ............................................................................................................. 396 
Fig.7.9.   Elementos que componen las marcas fiduciales y relaciones entre los mismos ..... 397 
Fig.7.10.  Extracción de elementos de interés de la marca fiducial mediante filtrado ............ 398 
Fig.7.11.  Relación entre la representación de los puntos en el dominio del espacio y en el 
    dominio de los parámetros .............................................................................................. 399 
Fig.7.12.  Etapas en la realización de la orientación interna automática ................................... 403 
Fig.7.13.  Símbolos para la identificación de las marcas fiduciales en la cámara Leica  
    RC‐30 y distribución de las marcas en el fotograma.................................................... 404 
Fig.7.14.  Elementos para la descripción de patrones ................................................................... 404 
Fig.7.15.  Concepto del algoritmo de orientación relativa automática ...................................... 409 
Fig.7.16.  Orientación Relativa (Modelo Finlandia) ...................................................................... 414 
Fig.7.17.  Orientación Relativa (Modelo Baviera).......................................................................... 415 
Fig.7.18.  Esquema de las zonas de Von Grüber y los parámetros de orientación que se 
    resuelven secuencialmente en dichas localizaciones ................................................... 418 
Fig.7.19.  Diagrama esquemático del sistema de aerotriangulación automática ..................... 420 
Fig.7.20.  Bloque diagrama de la etapa de formación de bloques............................................... 421 
Fig.7.21.  Identificación de los puntos para ajuste en escala........................................................ 422 
Fig.7.22.  Ejemplo de localización de las zonas en el área de solape transversal indicando 
    el número de fotogramas que está situado en cada zona ........................................... 423 
Fig.7.23.  Selección automática de los puntos de enlace entre dos bandas vecinas ................. 424 
FOTOGRAMETRÍA DIGITAL  xix 

Fig.7.24.  Esquema del sistema de bloques 3D............................................................................... 425 


Fig.7.25.  Bloque diagrama del procedimiento de matching multiple directo ......................... 426 
Fig.7.26.  Correlación multiimagen.................................................................................................. 427 
Fig.7.27.  Localización de los puntos que servirán de aproximaciones para la correlación  
    entre 4 fotogramas en el ajuste de bloques .................................................................... 427 
Fig.7.28.  Diagrama esquemático del Sistema de Aerotriangulación Automático................... 428 
Fig.7.29.  Captura de pantalla del sistema BAE Systems SOCET‐SET en el proceso de 
    detección y edición de errores groseros ......................................................................... 434 
Fig.7.30.  Diferentes ejemplos de marcas artificiales instaladas para la orientación 
    absoluta del modelo .......................................................................................................... 440 
Fig.7.31.  Representación paramétrica de una línea tridimensional........................................... 443 
Fig.7.32.  Medida de los puntos P1 y P2 de la curva de apoyo en el espacio imagen............... 445 
Fig.7.33.  Determinación de la distancia menor entre el punto q y la superficie Spq ............... 448 
Fig.7.34.  Ejemplo de un elemento tridimensional de apoyo....................................................... 450 
Fig.7.35.  Fases del proceso de orientación absoluta automática por el método de 
    Schickler............................................................................................................................... 451 
Fig.7.36.  Zona de la imagen en la que aparecen un total de 10 alcantarillas ........................... 452 
Fig.7.37.  Resultados de la localización de las alcantarillas ......................................................... 453 
Fig.7.38.  Ejemplos de detección automática de elementos naturales del terreno ................... 454 
 
Capítulo 8. Generación automática de modelos digitales de elevaciones 
Fig.8.1.   Coste de las diferentes fases de un proceso cartográfico para grandes escalas....... 458 
Fig.8.2.   Diferencias en la captura de datos para la generación del MDE ............................... 460 
Fig.8.3.   Esquema general del proceso de captura de datos para el MDE............................... 468 
Fig.8.4.   Pirámide de imágenes y MDE derivados a partir de un fotograma 1:8.400  
    utilizando el programa MATCH‐T ................................................................................. 470 
Fig.8.5.   Interpolación mediante elementos finitos...................................................................... 471 
Fig.8.6.   Precisión de los MDE obtenidos automáticamente a partir de fotogramas aéreos 
utilizando el programa MATCH‐T ................................................................................. 476 
Fig.8.7.   Precisión de los MDE obtenidos automáticamente a partir de pares  
    estereoscópicos de imágenes SPOT utilizando el programa MATCH‐T.................. 476 
Fig.8.8.   Diagrama de flujo del proceso de extracción automática del terreno en el  
    módulo ATE del sistema SOCET SET ............................................................................ 478 
Fig.8.9.   Diagrama de flujo del proceso de edición interactiva del terreno en el  
    módulo ITE de SOCET SET.............................................................................................. 479 
 
Capítulo 9. Extracción automática de elementos cartográficos 
Fig.9.1.   Estrategia para la resolución de diferentes tareas relacionadas con el análisis 
    de imágenes ........................................................................................................................ 486 
Fig.9.2.   Organigrama del procedimiento de extracción interactiva ........................................ 488 
Fig.9.3.   Modelo 3D generado a partir de medidas manuales de los edificios y 
    estructuración automática ................................................................................................ 488 
Fig.9.4.   Organigrama del sistema de reconstrucción del objeto a partir de primitivas ....... 489 
Fig.9.5.   Ejemplos de aplicación del método de alineamiento interactivo de entidades  
    del objeto ............................................................................................................................. 489 
Fig.9.6.   Problemas de detección de elementos debido al ruido y la existencia de  
    elementos carentes de interés en la imagen................................................................... 491 
Fig.9.7.   Parámetros cuantitativos descriptivos de una región definida en función de  
    los niveles de gris en el caso bidimensional: volumen, área y contraste .................. 492 
xx  ÍNDICE 

Fig.9.8.   Definición de las regiones según el esquema del espacio de escala.......................... 492 


Fig.9.9.   Integración del esquema de escala de espacio con la detección de bordes.............. 493 
Fig.9.10.  División de la escena ......................................................................................................... 494 
Fig.9.11.  Aplicación del método de la agrupación perceptual a la extracción de  
    rectángulos para la extracción de edificios.................................................................... 495 
Fig.9.12.  Aplicación del método de la agrupación perceptual a la extracción de las  
    pistas del aeropuerto JFK ................................................................................................. 495 
Fig.9.13.  Aplicación de las herramientas monoculares a la extracción de edificios ............... 496 
Fig.9.14.  Esquema del método de matching estereoscópico y análisis de superficies 3D ..... 497 
Fig.9.15.  Aplicación del método basado en el matching estereoscópico y análisis de  
    superficies 3D ..................................................................................................................... 498 
Fig.9.16.  Diagrama de flujo del método de Dang et al. ............................................................... 499 
Fig.9.17.  Ejemplo de aplicación del método de Wang................................................................. 499 
Fig.9.18.  Método de Haala (1994).................................................................................................... 500 
Fig.9.19.  Matching relacional ........................................................................................................... 501 
Fig.9.20.  Ejemplo de matching relacional ...................................................................................... 502 
Fig.9.21.  Resultados obtenidos de la clasificación aplicada sobre una imagen aérea 
    mediante el método de Fuger et al., 1991 ...................................................................... 503 
Fig.9.22.  Modelo digital de superficie obtenido mediante sistema láser aerotransportado.. 504 
Fig.9.23.  Aplicación del método de seguimiento de bordes y matching de patrones............ 505 
Fig.9.24.  Extracción del contorno de un río mediante la introducción de un punto  
    situado en su interior y la aplicación de técnicas de agrupamiento de regiones .... 505 
Fig.9.25.  Extracción semiautomática de carreteras en imágenes aéreas ................................... 506 
Fig.9.26.  Extracción semiautomática de carreteras a partir de imágenes satélite y  
    fotografía aérea mediante el método de Grün y Lin (1994) ........................................ 507 
Fig.9.27.  Extracción de carreteras mediante modelos de curvas activas abiertas ................... 508 
Fig.9.28.  Modelos de curvas activas cerradas para la extracción de edificios ......................... 509 
Fig.9.29.  Fotogrametría a nivel de líneas 3D ................................................................................. 509 
Fig.9.30.  Representación de líneas 3D en función de los parámetros (δ,φ,r,γ) ......................... 510 
Fig.9.31.  Identificación manual de las correspondencias entre los elementos extraídos 
    en seis imágenes mediante la utilización de un sistema de ventanas múltiples ..... 511 
Fig.9.32.  Reconstrucción de objetos con el modelo de objeto “completo” ............................... 512 
Fig.9.33.  Sistema de reconstrucción semiautomática de edificios de Lang y Schickler 
    (1993).................................................................................................................................... 512 
Fig.9.34.  Ejemplo FLAT ‐ISPRS WG3 ............................................................................................. 516 
Fig.9.35.  Representación de la superficie del terreno obtenida a partir de un proceso de  
    apertura ............................................................................................................................... 517 
Fig.9.36.  Reconstrucción de objetos con modelos genéricos a nivel de imágenes múltiples 517 
 
Capítulo 10. Ortofotografía Digital 
Fig.10.1.  Ejemplos de rectificadores analógicos............................................................................ 522 
Fig.10.2.  Ortoproyectores analógicos ............................................................................................. 523 
Fig.10.3  Ortoproyectores analíticos ............................................................................................... 523 
Fig.10.4  Transformación directa e indirecta de un píxel ............................................................ 525 
Fig.10.5  Transformación proyectiva .............................................................................................. 527 
Fig.10.6  Rectificación de una fotografía inclinada de un mosaico............................................ 528 
Fig.10.7.  Transformación proyectiva en la geometría del satélite SPOT .................................. 528 
Fig.10.8.  Método de la traza del rayo ............................................................................................. 531 
Fig.10.9.  Método indirecto................................................................................................................ 532 
FOTOGRAMETRÍA DIGITAL  xxi 

Fig.10.10. Definición de los sistemas de coordenada imagen y la geometría del sensor 
    SPOT .................................................................................................................................... 533 
Fig.10.11. Corrección de las coordenadas imagen del efecto de inclinación en el eje de 
    captura ................................................................................................................................. 537 
Fig.10.12. Diagrama de flujo de la aplicación del proceso de rectificación de imágenes SPOT 
    mediante DLT..................................................................................................................... 538 
Fig.10.13. Etapas básicas de realización de ortofotogramas mediante el método de  
    rectificación diferencial ..................................................................................................... 538 
Fig.10.14. Efecto del punto caliente................................................................................................... 542 
Fig.10.15. Compensación del efecto de punto caliente .................................................................. 542 
Fig.10.16. Distribución de la corrección del efecto de punto caliente dentro del área de 
    influencia del mismo ......................................................................................................... 543 
Fig.10.17. Efecto de las expresiones de corrección del efecto de punto caliente ....................... 544 
Fig.10.18. Diagrama de flujo de realización de una rectificación mediante el método 
    diferencial............................................................................................................................ 545 
Fig.10.19. Elaboración manual de un mosaico de fotografías aéreas .......................................... 546 
Fig.10.20. Delimitación manual de las líneas de empalme en la confección de una 
    ortoimagen .......................................................................................................................... 547 
Fig.10.21. Ajuste radiométrico mediante cálculo de las diferencias e interpolación lineal 
    en la franja de empalme.................................................................................................... 548 
Fig.10.22. Ajuste radiométrico mediante cálculo de las diferencias e interpolación lineal 
    en la franja de empalme aplicado a la formación de una banda................................ 548 
Fig.10.23. Aplicación de los métodos de interpolación al ajuste radiométrico de 
    ortoimágenes ...................................................................................................................... 549 
Fig.10.24. Influencia del error altimétrico en el error posicional en una fotografía aérea ....... 552 
Fig.10.25. Relación entre los errores en la ortoimagen y los errores del MDE .......................... 553 
Fig.10.26. Problemas de generación de ortofotografías en zonas urbanas................................. 555 
Fig.10.27. Ejemplo de los problemas existentes en la elaboración de ortofotografías en 
    zonas urbanas ..................................................................................................................... 556 
Fig.10.28. Proceso de ortofotografía real.......................................................................................... 557 
Fig.10.29. Ejemplo de ortofotografía real ......................................................................................... 557 
Fig.10.30. Corrección del desplazamiento en pasos a diferente nivel......................................... 558 
Fig.10.31. Tecnología de chorro de tinta continua.......................................................................... 559 
Fig.10.32. Tecnología burbujas de tinta ............................................................................................ 559 
Fig.10.33. Tecnología de impresión láser ......................................................................................... 561 
Fig.10.34. Transferencia térmica de ceras ........................................................................................ 561 
Fig.10.35. Sublimación ........................................................................................................................ 562 
Fig.10.36. Técnicas de medios tonos mediante tramado ............................................................... 563 
Fig.10.37. Píxel con un medio tono ................................................................................................... 563 
Fig.10.38. Matriz límite, planos de salida y medios tonos ............................................................ 564 
Fig.10.39. Función spot clásica, utilizada en lenguaje Postscript................................................. 564 
Fig.10.40. Medios tonos Bayer y medios tonos clásicos................................................................. 565 
Fig.10.41. Distribución del error en el dithering............................................................................. 565 
Fig.10.42. Conceptos básicos en la generación de perspectivas y animaciones......................... 578 
Fig.10.43. Diagrama de flujo del módulo PSCENE de SOCET SET ............................................ 579 
Fig.10.44. Captura de pantalla del módulo Perspective Scene de LH Systems......................... 579 
Fig.10.45. Generación de perspectivas en zonas urbanas ............................................................. 580 
Fig.10.46. Visualización fotorrealística del impacto visual de implantación de dos 
    molinos de viento............................................................................................................... 581 
xxii  ÍNDICE 

Capítulo 11. Aplicaciones no cartográficas de la Fotogrametría Digital 
Fig.11.1.  Laboratorio de medida con el automóvil sobre la plataforma giratoria y el  
    sistema de cámaras ............................................................................................................ 585 
Fig.11.2.  Patrón de calibración del Instituto de Geodesia y Fotogrametría de la ETH 
    de Zurich con las marcas en el muro y la estructura ................................................... 586 
Fig.11.3.  Imagen de la zona de la puerta tomada con la cámara 1, mostrando los  
    problemas derivados de la baja resolución de la cámara y el efecto del 
    blooming ............................................................................................................................. 587 
Fig.11.4.  Sistema de medida fotogramétrica de trayectoria en fluidos..................................... 589 
Fig.11.5.  Ejemplo de una ambigüedad sin solución utilizando dos cámaras .......................... 590 
Fig.11.6.  Ejemplo de la formación de tripletas consistentes ....................................................... 590 
Fig.11.7.  Geometría de la trayectoria de los rayos........................................................................ 591 
Fig.11.8.  Vectores de velocidad obtenidos a partir de la trayectoria de las  
    partículas en un tiempo de 1s .......................................................................................... 592 
Fig.11.9.  Diagrama de flujo para el programa APDIS ................................................................. 593 
Fig.11.10. Ejemplos de imágenes de pavimento afectado por un deterioro tipo Acocodrilo@.. 594 
Fig.11.11. Tiempos de adquisición y de procesamiento de diferentes sistemas 
    fotogramétricos .................................................................................................................. 596 
Fig.11.12. Módulos funcionales de un sistema de visión automática ......................................... 596 
Fig.11.13. Sistema de adquisición de datos y elementos de procesamiento del robot ............. 597 
Fig.11.14. Tareas, temporización y elementos de hardware del robot........................................ 598 
Fig.11.15. Fotogrametría Digital Arquitectónica con el sistema DIPAD .................................... 600 
Fig.11.16. Vista parcial del edificio de residencia de estudiantes del campus de la ETH 
    de Zurich ............................................................................................................................. 600 
Fig.11.17. Productos generados con DIPAD ................................................................................... 601 
Fig.11.18. Imagen original y realzada correspondiente a una pintura rupestre ....................... 602 
Fig.11.19. Imagen de Buda de estilo Sukhothai .............................................................................. 603 
Fig.11.20. Medida faciales .................................................................................................................. 606 
Fig.11.21.  Representación vectorial del movimiento de un atleta en el momento de tomar 
    la salida en una prueba ..................................................................................................... 609 
Presentación

La implantación de los estudios de Ingeniería en Geodesia y Cartografía ha


supuesto por un lado, la corrección de un error histórico en el sistema universitario
español que carecía de una titulación de nivel superior que abordará de una forma
global toda la problemática relacionada con la Cartografía y la Geodesia y, por otro
lado, un importante reto para las Universidades que incluyen en su oferta académica
dicha titulación debido a la falta de experiencia docente en el tema.
Este reto ha sido particularmente apasionante para una Universidad como la de
Jaén, nacida de la escisión de la Universidad de Granada tan sólo un año antes de la
puesta en marcha de la titulación. Es evidente que para superar este reto sólo había un
camino posible: un importante esfuerzo por parte de todos, tanto a nivel institucional
como de cada uno de los profesores implicados en la titulación.
Dentro del tema que aborda este libro, la Fotogrametría Digital, el reto adquiere si
es posible aún más interés. La Fotogrametría Digital se trata de una técnica de muy
reciente aparición (finales de la década de los 80) y que sin duda está suponiendo una
importante revolución dentro del mundo de la Fotogrametría, tanto en los resultados y
rentabilidad derivada como en los procedimientos y sistemas de producción. Todos
estos factores se aúnan en la Fotogrametría Digital proporcionándole el interés que
poseen todas las nuevas técnicas, en las que al quedar mucho por hacer, se abre ante
los estudiantes, investigadores y profesionales un amplio mundo de posibilidades y de
campos de actuación.
Estos factores deben ser tenidos en cuenta a la hora de establecer la docencia de la
misma. Por un lado, son técnicas que debido a su carácter novedoso el alumno
desconoce o bien sólo tiene vagas referencias de las mismas a menudo bastante
alejadas de la realidad bien por obsoletas o bien por demasiado optimistas, debido a
los rápidos cambios experimentados en la misma. Por otro lado, existe además un
problema adicional: la escasez de fuentes bibliográficas, en estos momentos, la mayor
parte de la información aún reside en revistas científicas o bien en volúmenes

  xxiii 
xxiv  PRESENTACIÓN 

publicados en congresos, a los que el acceso es complejo y aún más cuando


prácticamente toda la información está en un idioma diferente al nuestro.
Este motivo fue el que me llevó en 1995 a la realización de este libro. En el mismo
se recogen los aspectos básicos tanto teóricos como prácticos de la Fotogrametría
Digital, intentando seguir una estructura básica en un proceso fotogramétrico digital,
desde los sistemas de adquisición de la imagen a los productos derivados pasando por
los procedimientos fotogramétricos aplicados, estructurados en un total de 11
capítulos que incluyen 460 figuras y 97 tablas, y más de 500 referencias
bibliográficas.
Deseo aprovechar esta oportunidad para agradecer a todas aquellas personas que
han hecho posible este libro. En primer lugar, a mis compañeros del Departamento de
Ingeniería Cartográfica, Geodésica y Fotogrametría de la Universidad de Jaén, en
especial, a los Prof. Dr. F. Javier Cardenal Escarcena y Prof. Dr. Santiago García
López con los que tantas horas de Acharlas@ y Aproyectos@ fotogramétricos hemos
compartido y al Prof. Dr. F. Javier Ariza López que tanto ha insistido en la
publicación de este libro. En segundo lugar, y no por ello menos importante, a todas
aquellas personas que me han proporcionado información sin la cual este libro no
hubiera sido posible, en especial, al Prof. Dr. E. Baltsavias del ETH de Zurich, al
Prof. Dr. E. Gülch de Inpho GmbH y al Prof. Dr. C. McGlone de la Carnegie Mellon
University así como a los miembros del Institut für Photogrammetrie de la
Universidad de Bonn y a las diferentes casas comerciales. Asimismo deseo agradecer
muy especialmente al Prof. Dr. Alfonso Gómez Molina de la Universidad Politécnica
de Madrid y Director Gerente de Stereocarto S.L. la revisión final del manuscrito y la
confección del prólogo del mismo.
También deseo expresar mi más sincero agradecimiento a todos aquellos alumnos
que a lo largo de estos años me han ido realizando sugerencias, que siempre han sido
de interés, aceptadas de buen grado, y que en medida de lo posible están reflejadas en
este volumen final.
Por último, agradecer a mi familia por todo el tiempo que este libro les ha robado,
y sobre todo sus gestos de ánimo y aliento que han sido fundamentales para que este
libro haya sido una realidad.
Debido a las limitaciones propias de escribir un libro en un tema que experimenta
un avance tan rápido como éste, por tanto, el autor agradece a todos aquellos lectores
sus comentarios, críticas y sugerencias.
Prof. Dr. Jorge Delgado García
Dpto. Ingeniería Cartográfica, Geodésica y Fotogrametría
Escuela Politécnica Superior - Universidad de Jaén
Campus de las Lagunillas, Edif. A-3. 23071-Jaén (España)
Tlf. (34)-953-212468 Fax: (34)-953-212485 e-mail: jdelgado@ujaen.es

Jaén, Diciembre de 2004


Prólogo

Me  resulta  muy  grata  la  tarea  de  presentar  al  lector  este  libro 
“Fotogrametría  Digital”,  obra  de  Jorge  Delgado  García,  Profesor  Titular  del 
Departamento  de  Ingeniería  Cartográfica,  Geodésica  y  Fotogrametría  de  la 
Universidad de Jaén en el que se intenta abarcar todos los aspectos contenidos 
en  la  generación  de  productos  cartográficos  mediante  la  aplicación  de  las 
técnicas de Fotogrametría Digital. 
La utilización de las imágenes digitales en Fotogrametría ha producido un 
interesante  cambio  en  la  generación  de  documentos  cartográficos,  pasando 
desde la situación  de  una  disciplina que  sólo  atraía  la atención de  un  grupo 
reducido de profesionales a una situación en la que las personas interesadas 
son cada vez más. 
El  estudio  y  utilización  de  las  técnicas  fotogramétricas  digitales  requiere 
recurrir a la utilización de métodos y técnicas, en la mayoría de ocasiones de 
uso muy reciente o de contenido poco común. Esto da lugar a que para una 
correcta  utilización  de  los  mismos  y  su  mejor  aprovechamiento,  el  técnico 
deba ser capaz no sólo de saber cómo se aplican sino que profundizar en las 
mismas y saber cuáles son sus fundamentos teóricos. Esto da lugar a que se 
necesiten conocimientos que abarcan muy diversos campos del saber, por lo 
que  es  necesario  calificar  a  la  Fotogrametría  Digital  como  una  disciplina 
multidisciplinar  en  la  que  se  exige  una  base  de  fundamentos  científicos  y 
técnicos,  que  abarcarían  desde  los  propios  fundamentos  fotogramétricos,  a 
otros relacionados con la electrónica, informática, estadística, ... . 
Sólo este hecho justificaría la oportunidad del intento de realizar una obra 
que  trate  de  compilar  la  diversidad  temática  que  cubre  la  Fotogrametría 

  xxv 
xxvi  PRÓLOGO 

Digital,  así  como  el  estado  actual  de  los  conocimientos  en  ese  dominio,  e 
incluso  de  los  aspectos  aún  mal  conocidos  y  en  los  que  se  centran  o  deben 
centrarse  los  esfuerzos.  Corrobora  también  esta  oportunidad  el  hecho  de  la 
escasez  de  textos  sobre  este  tema  en  lengua  castellana,  por  lo  que  puede 
constituir una aportación interesante no sólo para España, sino para los países 
iberoamericanos y aquellos que se expresan en lenguas afines. 
El libro se estructura en 11 capítulos que recorren los diferentes procesos 
necesarios para generar información cartográfica a través de la Fotogrametría 
Digital.  Así  en  el  capítulo  I  se  recogen  los  aspectos  introductorios,  así  como 
una  pequeña  introducción  histórica  de  gran  interés  para  el  análisis  de  las 
líneas de investigación abiertas dentro de la Fotogrametría Digital y su estado 
actual  de  conocimiento.  El  capítulo  II  se  dedica  al  estudio  de  los  Sistemas 
Fotogramétricos  Digitales  como  elementos  fundamentales  en  el  proceso 
fotogramétrico digital realizando un análisis  de los elementos constituyentes 
de dichos sistemas y los sistemas actualmente comercializados. El capítulo III 
aborda  las  técnicas  de  captura  de  imágenes  digitales,  tanto  de  forma  directa 
mediante  la  utilización  de  sensores  digitales  aerotransportados  de  reciente 
comercialización como los escáneres, realizando hincapié en su calibración y 
aplicaciones  fotogramétricas.  Los  capítulos  IV  y  V    analizan  las  técnicas 
básicas de análisis digitales de imágenes fotogramétricas, análisis centrado en 
las  técnicas  de  compresión  y  almacenamiento  de  las  imágenes  y  en  las  de 
mejora de la calidad de las mismas. Con el capítulo VI comienza el análisis de 
los  procedimientos  de  automatización  de  la  medida  sobre  las  imágenes 
digitales, en el mismo se analizan los aspectos relativos a la identificación de 
elementos homólogos en las imágenes (matching), y que constituye el núcleo 
fundamental  de  la  automatización  del  proceso  fotogramétrico  digital.  En  los 
tres  capítulos  siguientes  (VII,  VIII  y  IX)  recogen  la  aplicación  de  las  técnicas 
de  matching  para  la  orientación  fotogramétrica,  la  generación  automática  de 
modelos  digitales  de  elevaciones  y  la  extracción  automática  de  modelos 
digitales de elevaciones, respectivamente. En el capítulo X se trata uno de los 
aspectos de mayor interés dentro de la Fotogrametría Digital, la generación de 
ortofotografías, el cual ha sido, sin lugar a dudas, uno de los motores que ha 
propiciado  el  auge  de  la  Fotogrametría  Digital  en  estos  últimos  años.  Por 
último,  el  libro  concluye  con  un  capítulo  dedicado  a  las  aplicaciones  no 
cartográficas  de  Fotogrametría  Digital  (Capítulo  XI),  en  el  que  se  recogen 
diferentes  ejemplos  con  fines  industriales,  de  conservación  del  patrimonio, 
médicos, ... . 
Por  último,  quiero  poner  de  manifiesto  la  importancia  que  entraña  la 
realización  de  obras  como  la  que  hoy  presento,  que  debería  encontrar,  en 
FOTOGRAMETRÍA DIGITAL  xxvii 

todos los estamentos de la gran familia cartográfica, el apoyo necesario para 
que  no  fueran  excepciones,  sino  la  regla  para  permitir  la  adecuada 
comprensión  del  proceso  fotogramétrico  digital.  En  este  libro  se  nos 
proporciona un claro ejemplo de la filosofía de su autor de no sólo limitarse a 
enseñar  sino  a  enseñar  a  aprender,  algo  evidentemente  más  complejo  pero 
que  no  es  sino  una  necesidad  para  todos  los  que  estamos  de  una  manera  u 
otra involucrados en el ámbito de la cartografía en la que cada día aparecen 
nuevos  instrumentos,  técnicas  y  productos  que  nos  obligan  a  realizar  un 
esfuerzo  de  actualización  para  mantenernos  a  día.  Así  el  libro  incorpora  un 
elevado  número  de  referencias  bibliográficas  que  permitirán  al  lector  que  lo 
desee  profundizar  más  en  aspectos  específicos  del  libro  mediante  una 
consulta directa con las fuentes de referencia. 
Para  terminar,  no  quiero  dejar  de  expresar  mi  agradecimiento  al  Prof. 
Jorge  Delgado  por  brindarme  la  oportunidad  de  prologar  esta  obra,  que 
espero  que  sirva  de  guía  a  todos  los  que  nos  dedicamos  a  la  aplicación  de 
técnicas  fotogramétricas  digitales  para  la  generación  de  productos 
cartográficos. 
 
 
 
             
  Prof. Dr. Alfonso Gómez Molina 
  Prof. Titular Universidad Politécnica de Madrid 
  Director Gerente de Stereocarto S.L. (Madrid) 
Capítulo 1. Introducción

1.1 Introducción. Concepto de Fotogrametría.


1.2 La imagen digital. Ventajas e inconvenientes de la utilización de imágenes
digitales en Fotogrametría.
1.3 Historia de la Fotogrametría Digital.
1.4 Fundamentos y cuestiones abiertas en Fotogrametría Digital.
1.5 Fotogrametría Digital: oportunidades y potencial.

En este capítulo se analizan los aspectos conceptuales básicos de la Fotogrametría


Digital. El análisis se establece mediante una comparación con las anteriores
metodologías fotogramétricas, básicamente, la metodología analítica, intentando
poner de manifiesto las ventajas e inconvenientes de la metodología digital. Además
se presenta una revisión de la evolución histórica de la Fotogrametría Digital que
pone de manifiesto el rápido avance que ha experimentado esta metodología y la
importancia relativa de las diferentes tendencias de desarrollo de los sistemas
fotogramétricos digitales. Por último, se presenta un breve resumen de la situación
actual de la Fotogrametría Digital haciendo especial hincapié en aquellas cuestiones
que aún permanecen abiertas y que constituyen las líneas de investigación prioritarias
de los laboratorios de Fotogrametría de mayor prestigio a nivel mundial.

1.1 CONCEPTO DE FOTOGRAMETRÍA DIGITAL


La Sociedad Americana de Fotogrametría definía la Fotogrametría como “el arte o
ciencia de obtener medidas fiables mediante fotografías” en sus tres primeras
ediciones del Manual of Photogrammetry publicadas en 1944, 1952 y 1966. En la
cuarta edición (Slama, 1980) la definición fue revisada quedando de la forma
siguiente: “la Fotogrametría como el arte, ciencia y tecnología de obtener
información fidedigna de los objetos físicos y del medio ambiente mediante procesos
de registro, medición e interpretación de imágenes fotográficas y de modelos de
energía radiante electromagnética y otros fenómenos”. Como se puede observar
existen dos diferencias fundamentales, en primer lugar, se extiende el objeto de la

  1 
2  INTRODUCCIÓN 

Fotogrametría que pasa de limitarse a obtener medidas a obtener información de los


objetos, cualquiera que sea la naturaleza de la misma, por otro lado, desaparece la
eliminación que suponía que el único método de registro fuera la fotografía. Esta
modificación viene a reconocer que las imágenes pueden ser adquiridas, no sólo
mediante el empleo de una cámara convencional sino mediante la utilización de
sensores especiales, incluyendo los sensores multiespectrales (Thompson y Gruner,
1980).
En 1985, la Sociedad Americana de Fotogrametría pasa a denominarse como
Sociedad Americana de Fotogrametría y Teledetección y en 1988 se adopta la
siguiente definición conjunta para los términos Fotogrametría y Teledetección, que
desde entonces pasan a ser sinónimos: “Fotogrametría y Teledetección son las artes,
ciencias y tecnologías de obtener información fiable sobre los objetos físicos y su
entorno, mediante el proceso de registro, medida e interpretación de imágenes y
representaciones digitales de patrones de energía obtenidos de sensores remotos
(noncontact sensor systems)”.
Como conclusión, se puede definir la Fotogrametría Digital como el arte, ciencia
y técnica de obtener información fiable sobre los objetos físicos y su entorno
mediante el proceso de registro, medida e interpretación de imágenes en formato
digital.

1.2 LA IMAGEN DIGITAL. VENTAJAS E INCONVENIENTES DE LA


UTILIZACIÓN DE LAS IMÁGENES DIGITALES EN
FOTOGRAMETRÍA
Una imagen digital es una función F(x,y), donde x e y representan unas
coordenadas y el valor F(x,y), es proporcional a la transmitancia o reflectividad de la
luz, que se reconoce visualmente por el nivel de color o gris de la misma en el punto
considerado (x,y). Al proceso de obtención de imágenes digitales se le denomina
digitalización y consiste en la descomposición de la imagen real en una matriz
discreta de puntos de un determinado tamaño, tomando un valor denominado número
o nivel digital, que puede representar información de diversa naturaleza, así puede ser
proporcional a las características físicas del área (radiancia, reflectividad,
transmisividad, emisividad, …) o bien representar los valores resultantes de la
manipulación de la información original mediante técnicas de análisis de imágenes.
Estos valores suelen venir representados utilizando un determinado rango de valores
de tipo entero, por lo que el valor a representar debe ser acotado en una serie de k
intervalos, de forma que el nivel digital de cada punto, quede dentro de un intervalo
definido anteriormente. A cada elemento de la matriz se le denomina pixel (picture x
elemento) y le corresponde uno o más valores digitales (número digital -ND-)
(fig.1.1).
Representación de una línea en formato raster

Intervalo de
muestreo en y
Pixel Intervalo de muestreo en x
FOTOGRAMETRÍA DIGITAL   3 

Fig.1.1. Proceso de digitalización: a partir de una imagen real se obtiene la imagen digital,
definida por una matriz de píxeles según un determinado intervalo de muestreo

La matriz definida por los números digitales tiene carácter multidimensional en


función de las capas de información almacenadas (bandas o canales). Entre las
imágenes más frecuentemente empleadas se encuentran las imágenes monocanal:
imágenes binarias (blanco/negro) y las imágenes pancromáticas o monocromáticas;
las imágenes de tres canales como las imágenes en color (1 canal para cada color
básico -rojo verde azul-); y, por último, las imágenes multicanal como las imágenes
multiespectrales y hiperespectrales compuestas por un elevado número de canales que
reflejan la respuesta espectral del objeto para un determinado intervalo de longitudes
de onda. 
Las imágenes más frecuentemente empleadas en Fotogrametría son las imágenes
monocanal (pancromáticas) y en menor medida, las imágenes en color, si bien el
empleo de éstas últimas ha sufrido un importante crecimiento en los últimos años.
En las imágenes pancromáticas el tono de la señal está representado,
habitualmente, por 8 bits = 1 byte. Con esta dimensión se tiene la posibilidad de
codificar 256 tonos = 28 tonos de gris (0 a 255). Esta cifra que en principio puede
parecer escasa, es suficiente para todas las aplicaciones teniendo en cuenta que el ojo
humano sólo puede distinguir aproximadamente 24 tonos. Generalmente la
correspondencia que se aplica entre el valor digital y el tono (tabla de consulta o look
up table -LUT-) es negro (0) y blanco (255). En las imágenes en color el esquema de
almacenamiento es similar utilizando cada píxel tres números enteros de 8 bits para su
codificación (uno para cada canal), por lo que se requiere tres veces más espacio para
su almacenamiento (fig.1.2).

192 207 210 214 215 ...


200 206 211 203 ...
202 208 196 103 ...
208 198 108 ...
186 115 ...
90 ...
...  
Fig. 1.2. Imagen digital. En el centro ampliación de un elemento (casa)
y representación numérica en función de la equivalencia de la tabla de consulta
4  INTRODUCCIÓN 

La calidad de una imagen digital depende, además del número de tonos o


colores que incluya, del tamaño de la retícula empleada para la codificación que da
lugar al concepto del tamaño de píxel o resolución espacial. La resolución espacial
viene definida por el tamaño del píxel equivalente sobre el terreno que se conoce
habitualmente con el nombre de surfel (surface element) o con las iniciales del
término anglosajón Ground Sample Distance (-GSD-, distancia de muestreo en el
terreno). El valor del GSD dependerá, lógicamente, del tamaño del píxel de la imagen
y de la escala de la misma. Así elementos de gran tamaño producen perdida de
información y elementos demasiado pequeños requieren disponer de un gran espacio
de almacenamiento. Es importante tener en cuenta que la calidad final de la imagen
debe ser función del sistema disponible (tanto en lo referente a posibilidades gráficas -
número de colores que es capaz de presentar- como del almacenamiento disponible)
por lo que se puede considerar un problema de tipo económico. 

1.2.1 Ventajas e inconvenientes de las imágenes digitales


Las ventajas e inconvenientes de la Fotogrametría Digital frente a otras
metodologías fotogramétricas tales como la Fotogrametría Analógica y la
Fotogrametría Analítica, son función de las características propias del tipo de
imágenes que se emplean, por tanto, las ventajas e inconvenientes están directamente
ligados con los correspondientes a la utilización de imágenes digitales.
Ventajas:
1) Las imágenes digitales, por su soporte de almacenamiento carecen de los
problemas derivados de la estabilidad dimensional que afecta a las imágenes
analógicas cuando se modifican las condiciones medioambientales de su
almacenamiento. Por otro lado, al no requerir la manipulación directa a la hora de
ser utilizadas se elimina el deterioro producido por esta causa.
2) Las imágenes digitales permiten una fácil duplicación y transmisión siendo
únicamente necesario disponer de los medios informáticos apropiados,
eliminando la necesidad de contar con laboratorios fotográficos convencionales.
3) Las características de la imagen, como por ejemplo, el nivel de brillo y el de
contraste, pueden ser modificadas mediante el empleo de técnicas de análisis de
imágenes, con el objetivo de mejorar la calidad visual de la misma o bien para
resaltar algún elemento de la imagen favoreciendo de este modo su
interpretación.
4) Los productos derivados de la Fotogrametría Digital son obtenidos en formato
digital por lo que son fácilmente integrables en entornos tipo Diseño Asistido por
Ordenador (DAO -CAD-) o Sistemas de Información Geográfica (SIG).
5) Debido a las características de las imágenes empleadas se eliminan gran parte de
los elementos de mayor coste de los sistemas analógicos (ópticas y sistemas
mecánicos de precisión), disminuyendo de una forma considerable los gastos de
mantenimiento. Además, la precisión no está ligada al diseño constructivo del
equipo sino a los métodos empleados (software).
FOTOGRAMETRÍA DIGITAL   5 

6) El sistema de captura de imágenes debido a sus propias características permite la


adquisición sin el contacto directo del operador, utilizando sistemas
automatizados (autómatas) para la ubicación y monitores remotos para el
encuadre, aspecto de especial interés para la captura de imágenes en zonas poco
accesibles o de especial peligro para los operadores.
7) Por último, si bien se puede considerar la ventaja más importante, la utilización
de imágenes digitales permite la automatización parcial del proceso con lo que
conlleva de aumento del rendimiento, así mismo permite el trabajo en tiempo real
o casi real. 
Inconvenientes:
1) Se trata de una técnica de reciente aparición (finales de los 80), por lo que en
ciertos aspectos aún está en desarrollo.
2) Los problemas derivados de la necesidad de un proceso de digitalización. La
mayoría de los sistemas actuales de captura directa de imágenes digitales
presentan una escasa resolución, y los de alta resolución tienen precio muy
elevado estando más dentro de tareas investigadoras que en el entorno
productivo. Por tanto, la solución actual se basa en la digitalización de imágenes
adquiridas con cámaras analógicas debido a limitaciones tecnológicas.
3) La necesidad de almacenamiento que es muy elevada para los niveles de
precisión equivalente a los procesos fotogramétricos analíticos, así una imagen en
blanco y negro de 23x23cm (formato común empleado en las cámaras
fotogramétricas terrestres) digitalizada a una resolución, expresada como tamaño
de píxel de 15µm ocupa un espacio en disco en torno a los 223 Mb (256 tonos de
gris), esta cifra se multiplicará por 3 si el almacenamiento se realiza en color real
-669Mb- (16.7 millones de colores). Es importante tener en cuenta que en un
proyecto se manejan un número considerable de imágenes por lo que los
volúmenes de almacenamiento requeridos son importantes (fig.1.3).
10000
Espacio de almacenamiento (Mb)

1000

Fotografía en color
100

Fotografía en B/N

10

1
100 90 80 70 60 50 40 30 20 10 0 Tamaño de pixel (µm)
300 400 600 1200 2540 Resolución espacial (ppp)

Fig.1.3. Relación entre resolución espacial y espacio requerido para el almacenamiento. Cálculos realizados
para un fotograma de formato 23x23 cm., considerando que no se emplea ningún sistema de compresión
6  INTRODUCCIÓN 

1.3 EVOLUCIÓN HISTÓRICA DE LA FOTOGRAMETRÍA DIGITAL

1.3.1 De la Fotogrametría Analítica a la Fotogrametría Digital


Los métodos fotogramétricos pueden ser clasificados en función de la forma del
método de la resolución del problema fotogramétrico. Así se puede distinguir entre
Fotogrametría Analógica, resolución mediante analogías mecánicas y Fotogrametría
Electrónica, en la que los sistemas óptico-mecánicos se sustituyen, total o
parcialmente, por un sistema informático encargado de la realización de los cálculos.
La Fotogrametría Electrónica mediante el apoyo informático empleado consigue una
importante mejora en cuanto a la precisión de los resultados y flexibilidad del equipo,
pudiendo utilizar fotogramas de muy distinto origen (desde fotogramas de rango
cercano a fotogramas aéreos) y diferentes características de toma (inclinación, base
fotográfica, distancia focal, …).
Dentro de los métodos fotogramétricos electrónicos se pueden distinguir la
Fotogrametría Analítica y la Fotogrametría Digital.
La Fotogrametría Analítica aborda la resolución informatizada de los cálculos
fotogramétricos, utilizando como información de entrada las medidas realizadas sobre
la fotografía (en formato analógico). La utilización del apoyo informático permite la
rápida obtención de las relaciones existentes entre los puntos del objeto y sus
correspondientes imágenes así como los errores del sistema (Gosh, 1988).
La Fotogrametría Digital se caracteriza por utilizar información (imágenes) en
formato digital. Este aspecto va a determinar muchas de las ventajas e inconvenientes
que tienen estas técnicas, definidos por los importantes cambios conceptuales y
metodológicos que serán analizados en los sucesivos capítulos. Así Ackermann
(1991) indicó que "con las cámaras digitales y el procesamiento de imágenes
digitales, la Fotogrametría trabajará en un entorno completamente diferente,
caracterizado por diferentes equipos, técnicas, oportunidades y por una forma
distinta de pensar".
Así una de las polémicas que se han planteado en la última década en el mundo
de la Fotogrametría es si la Fotogrametría Digital se podía considerar como una digna
sucesora en cuanto a rendimiento y precisión de la Fotogrametría Analítica.
Al respecto es importante tener en cuenta que el cambio de la fotogrametría
clásica analógica a la fotogrametría analítica no supuso ningún tipo de modificación
en cuanto a principios ni resultados, puesto que el cambio era el resultado de una
lógica evolución de los aspectos relacionados con la precisión y la productividad de
los métodos fotogramétricos, se trata por tanto de una simple evolución metodológica.
En cambio, la transición entre la Fotogrametría Analítica y la Fotogrametría Digital se
presenta como la aplicación de unos procedimientos clásicos a una plataforma nueva.
Así todos los procesos fotogramétricos convencionales continúan aplicándose y se
producen los mismos productos: básicamente, coordenadas de los objetos, mapas y
imágenes ortorrectificadas. No obstante, esta situación aparente oculta una
perspectiva de modificación de toda la estructura como apuntó Ackermmann, por lo
que podríamos hablar de revolución tecnológica (fig.1.4).
FOTOGRAMETRÍA DIGITAL   7 

EVOLUCIÓN REVOLUCIÓN
Analógicos Analíticos Digitales
(70 años) (20 años) (? años)
1900 1970 1990 ?
Fig. 1.4. Análisis histórico de los métodos fotogramétricos (Leberl, 1991)

Así es necesario recordar que la Fotogrametría Analítica (cuya base teórica data
de 1957 -fecha de invención del restituidor analítico-) no ha sido generalmente
aceptada hasta finales de la década de los 70. Este ritmo de evolución no parece que
se vaya a mantener en la Fotogrametría Digital, así la tendencia experimentada, el
interés mostrado por constructores y usuarios y el gran desarrollo del hardware (y su
abaratamiento) hace que sea previsible una evolución mucho más rápida.
Como muestras de la evolución comparada entre Fotogrametría Digital y
Fotogrametría Analítica, en la Tabla 1.1 se presenta un resumen del número de
equipos presentados en los diferentes congresos de la Sociedad Internacional de
Fotogrametría y Teledetección (ISPRS).
Tabla 1.1. Número de sistemas fotogramétricos analíticos y digitales exhibidos en los Congresos de la
ISPRS en el período 1976-1996 (Saleh et al., 1994)
Sistemas 1976 1980 1984 1988 1992 1996
Analíticos 7 12 20 15 7 <7
Digitales -- -- -- 6 10 >10

Es indudable que actualmente la Fotogrametría está inmersa en una revolución


que afectará a la forma de entender la Cartografía en el futuro. Así ahora es frecuente
escuchar a los usuarios de sistemas fotogramétricos la frase "mi próximo equipo va a
ser una estación digital", que refleja esta corriente y una fuerte expectativa. No
obstante, es importante tener en cuenta que también es frecuente oír la frase "en mi
vida no es posible que un sistema digital pueda competir con un sistema analítico" si
bien particularmente parece más coherente la opinión de que "no existe nada tan
preciso como un sistema analítico si bien un sistema digital con resolución de
digitalización de 15µm se aproxima bastante". En resumen, mientras que el sistema
analítico se trata de una concepción consolidada (y quizá un poco en desuso) el
sistema digital se trata de una concepción nueva que es el resultado de un fuerte
esfuerzo de investigación que se ha desarrollado en la última década y que
previsiblemente seguirá recibiendo importantes mejoras en un plazo breve de tiempo.
La aceptación de una nueva técnica por parte de los usuarios es compleja, en
especial, en un campo como la Fotogrametría, debido a su directa relación con el
proceso productivo, así en 1996 existían en torno a los 400 sistemas digitales (Schenk,
1996) de los que tan sólo un 50% estaba dentro de los procesos productivos. Es decir,
sólo en torno a 200 equipos digitales se dedicaban a la producción, cifra muy pequeña
frente a los 1200-1500 sistemas analíticos y los 4000-5000 sistemas analógicos que
aún estaban en funcionamiento.
8  INTRODUCCIÓN 

1.3.2 El periodo de desarrollo conceptual (1955-1982)


El inicio de la Historia de la Fotogrametría Digital se puede situar en 1955 con la
publicación por parte de Rosenberg de un artículo (Rosenberg, 1955), acerca de la
Teoría de la Información y la Fotogrametría Electrónica. En dicho artículo se plantea
que "la Teoría de la Información es una guía y ayuda en el estudio, evaluación y
desarrollo de métodos e instrumentos fotogramétricos, topográficos y cartográficos
para la automatización electrónica de la elaboración de mapas". El proceso
cartográfico se contempla como un flujo de información que se inicia con el registro
de la imagen y finaliza con la obtención final del mapa. Un sistema de fotogrametría
comprendería el registro electrónico o digitalización de las imágenes y su
almacenamiento en una cinta magnética o bien en forma de onda modulada de radio.
El análisis consiste en realizar comparaciones electrónicas, ajustes y fusiones para
desarrollar procesos fotogramétricos tales como la orientación, rectificación, medida
del relieve,…. Rosenberg analiza diferentes posibilidades para realizar el registro
digital desde los aviones, algunas de las cuales han sido retomadas en los últimos años
(Thom y Jurvillier, 1993; Schneider y Hahn, 1994). Sin embargo, Rosenberg fue
consciente de las limitaciones técnicas de su época cuando indica que "pasará mucho
tiempo hasta que se alcance el nivel de una Fotogrametría Electrónica,
completamente automatizada", así predecía las dificultades que incluso persisten
actualmente en el desarrollo de los sistemas, y que poco a poco, se van solventando
alcanzándose muchos de los objetivos inicialmente propuestos.
En 1958, Helava, inventor del restituidor analítico, describe las ventajas que
tienen este tipo de restituidores frente a los clásicos de tipo analógico (Helava, 1958).
Helava considera que las dos partes principales de un restituidor analítico son el
sistema de visión-medición y el ordenador (fig.1.5). La aparición de los sistemas
analíticos planteó unas importantes expectativas, muchas de las cuales se han
convertido en realidad, acerca de sus posibilidades de mejorar el rendimiento del
procedimiento fotogramétrico y su mayor nivel de precisión. Los restituidores
analíticos permiten un alto nivel de precisión, ofrecen gran versatilidad y un cierto
grado de automatización, en especial en lo relativo a los procedimientos de
orientación. Es importante establecer que el grado de automatización se alcanza
mediante el cálculo numérico de los procedimientos de orientación y no mediante la
automatización del proceso de medida que se sigue realizando mediante un índice
flotante, al igual que en los restituidores clásicos de tipo analógico. No obstante,
Helava menciona la posibilidad de reemplazar al operador humano por un
instrumento mecánico, un correlador electrónico (Hobrough, 1959) para automatizar
el trazado de curvas de nivel. También Helava indica la posibilidad de extraer
información mediante el tratamiento de imágenes empleando técnicas de
digitalización electrónica y posterior impresión.

Sistema de
Restituidor = Visión-medición + + Ordenador
Analítico
operador humano

Fig.1.5. Elementos de un restituidor analítico (Helava, 1958)


FOTOGRAMETRÍA DIGITAL   9 

En Sharp et al. (1965) se describe el sistema de compilación digital automatizada


de mapas -Digital Automatic Map Compilation (DAMC)- para el trazado de mapas
topográficos y la producción de ortofotografías utilizando imágenes digitalizadas. El
sistema requiere un operador para la identificación estereoscópica, la medida precisa
de puntos de control y la edición final del mapa utilizando la correlación de imágenes
digitales para automatizar las medidas de paralaje. Sharp et al. (1965) indican que el
aspecto básico de este sistema es la calidad de la digitalización debido a que todos los
procesos dependen de la misma. En resumen, se pueden establecer tres aspectos
diferenciales que están presentes en el restituidor digital en comparación con el
analítico:
a) el restituidor digital utiliza imágenes en formato digital
b) algunos de los procesos de desplazamiento y cálculo están automatizados
c) el usuario sólo se requiere para las tareas de interpretación y la
revisión/edición final de resultados.
Rosenfeld (1965) se manifiesta en contra de la interpretación completamente
automatizada debido a que "las imágenes del mundo real son tan complejas y tan
variadas que no puede existir una aproximación estándar para la selección de
medidas con el fin de la interpretación", idea aún extensamente aceptada. Además
Rosenfeld formula cuatro fundamentos (Tabla 1.2) que la utilización de los sistemas
informáticos en apoyo del operador. En la actualidad aún se trabaja en esta dirección,
puesto que aún no existen soluciones reales automatizadas con fines cartográficos.
Tabla 1.2. Conceptos para la automatización de la interpretación de imágenes (Rosenfeld, 1965)
ƒ Presentación de la imagen de una forma automatizada para la interpretación por un operador.
ƒ Realización de identificaciones parciales de una forma automatizada para la verificación de las
mismas por parte de un operador.
ƒ Ayuda en el proceso de toma de decisiones mediante análisis informático para los operadores.
ƒ Realización de medidas en las imágenes que han sido identificadas por un operador.

Panton (1978) crea la base para el desarrollo de lo que denominó algoritmos


inteligentes de extracción de modelos digitales de terreno, de análisis de texturas, de
extracción de elementos, de seguimiento de curvas de nivel y para la creación de
estructuras de bases de datos simbólicas. En la actualidad, es habitual hablar de
"sistemas de cartografía integrados", "bases de datos digitales" y "estaciones de
trabajo interactivas", conceptos sin duda basados en el planteado por Panton: "datos
de muy diversa procedencia pueden, dentro de un mismo sistema, ser procesados,
catalogados, relacionados, y utilizados para una amplia gama de aplicaciones
cartográficas". Estas son las líneas básicas de los sistemas digitales actuales, tal y
como se pueden contemplar en la actualidad.
En 1981 se describe por primera vez un restituidor completamente digital con una
unidad de procesamiento central, un interfaz para el operador y una serie de
periféricos (Sarjakoski, 1981). Estos componentes tenían esencialmente la misma
función que en los de los restituidores analíticos, pero con una diferencia esencial, las
dos imágenes del modelo estereoscópico eran almacenadas en formato digital. Dichas
imágenes se visualizan en la pantalla del operador controlada por la unidad de
procesamiento central. Sarjakoski plantea igualmente, los detalles técnicos de la
10  INTRODUCCIÓN 

realización y las dificultades, así indica que el diseño de un restituidor digital "debería
estar basado en el uso de equipos estándar y en el software de los restituidores
analíticos existentes”. Sarjakoski define en este artículo las principales características
que definen un restituidor digital (Tabla 1.3), en su planteamiento el operador
interviene en los procesos de visualización e interpretación, ayudado por un sistema
de correlación de imágenes digitales mediante un adecuado diseño del software.
Tabla 1.3. Principales características de los restituidores digitales (Sarjakoski, 1981)
ƒ No es necesaria una alta precisión de los componentes óptico mecánicos
ƒ No es necesaria una calibración instrumental de forma regular
ƒ Las imágenes digitales son estables y se pueden manejar sin operaciones manuales
ƒ El modelo estereoscópico puede ser cambiado de forma rápida
ƒ Se puede seleccionar la presentación óptima para la interpretación
ƒ El proceso de restitución puede ser complementado con la correlación de imágenes digitales
ƒ Se pueden realizar medidas estereoscópicas

Las ideas más importantes de este período pueden ser esquematizadas en tres
apartados básicos que son los que definen los sistemas fotogramétricos digitales
(Tabla 1.4).

Tabla 1.4. Aspectos básicos relativos al diseño de los sistemas fotogramétricos digitales (Gülch, 1994)
Datos de entrada y Sensores:

ƒ Las imágenes digitales son estables, se pueden almacenar en bases de datos, no requieren
interacción manual para su acceso, dependiendo su calidad de la digitalización.

ƒ Las imágenes digitales al eliminar la necesidad del proceso fotográfico permiten la realización de
medidas en tiempo real (on-line)

Sistemas e Interfaz del usuario:


ƒ Los costes del equipo son reducidos al emplear sistemas de visualización de imágenes de tipo
estándar, eliminando los componentes electroópticos de alta precisión y la necesidad de la
calibración instrumental.
ƒ Es necesario disponer de un interfaz adecuado de usuario con sistema de visión estereoscópica y
controles XYZ.
Programas y Automatización:
ƒ Los costes de procesamiento se reducen al implementar sistemas cartográficos integrados con
automatización en las tareas de medida (orientación, trazado de curvas de nivel, producción de
ortofotografías y mosaícos, …).

1.3.3 El periodo de diseño previo y las primeras realizaciones (1982-1988)


Este período comprende los años que llevan desde el desarrollo de las ideas
conceptuales analizadas en el apartado anterior hasta la aparición en el mercado de un
restituidor digital (1988).
Case (1982) presenta el diseño de un prototipo de un sistema fotogramétrico
digital -Digital Stereo Comparator/Compiler (DSCC)-. El DSCC fue concebido como
un restituidor analítico que aceptaba, como información de entrada, imágenes en
FOTOGRAMETRÍA DIGITAL   11 

formato digital registradas en una cinta magnética. La utilización de este sistema era
similar al de un restituidor analógico o analítico en lo relativo a aerotriangulación,
mono o estereocompilación manual de planimetría o de datos de cota topográfica,
pero permite la superposición gráfica de forma mono o estereoscópica para la edición
y revisión de resultados e implementa estereocorrelación automatizada para la
obtención de información de cota y para la transferencia de puntos. Case indica que
este sistema actúa de una forma similar a los sistemas analíticos (Tabla 1.5).
Tabla 1.5. Características del DSCC (Case, 1982)
ƒ Sistema de visión binocular electrónico (en lugar de utilizar copias sobre película o papel y sistema
de visión óptico.
ƒ Manivelas, pedales, ratón, teclas de función, … para el control (imágenes, indice flotante, …) y
selección de las opciones de trabajo
ƒ Procesamiento de imágenes de gran tamaño (20000x20000 píxeles)
ƒ Posibilidad de mediciones a escala del subpixel mediante el movimiento de la imagen manteniendo
el cursor fijo
ƒ Posibilidad de trazado de elementos en el área de visión mediante el movimiento del cursor
manteniendo la imagen fija
ƒ Posibilidad del tratamiento previo de la imagen
ƒ Correlación de la imagen para la elaboración de MDT
ƒ Superposición de datos de forma mono o estereoscópica

Durante el período 1982-1984, se generaliza la expresión de Fotogrametría Digital


y se comienza el desarrollo de diferentes sistemas y modelos, con diversos aspectos
técnicos y soluciones técnicas.
En 1984 tiene lugar en Río de Janeiro el Congreso de la Sociedad Internacional
de Fotogrametría y Teledetección (ISPRS). En dicho congreso, Albertz y König
(1984) presentan un sistema de procesamiento digital de imágenes adaptado,
presentando cambios en el hardware, la estereovisión y las posibilidades de control
tridimensional. Albertz indica la necesidad de un operador, asistido por la correlación
de imágenes para las labores de medida de paralaje.
Gugan y Dowman (1986) exponen las cuatro características esenciales para un
sistema fotogramétrico digital:
a) digitalización en tiempo real del modelo en 3-D
b) la visión estereoscópica
c) la posibilidad de manejar volúmenes de imágenes grandes
d) la precisión de medida a nivel del subpíxel
Los aspectos relacionados con la recogida de información, la correlación de
imágenes y el procesamiento de las imágenes fueron considerados como
características de diseño opcionales. Su sistema consistía en un sistema de
procesamiento de la imagen, que permitía el procesar imágenes de gran tamaño en
tiempo real y en visión estereoscópica. Los sistemas que se apuntaban como más
interesantes a la hora de mostrar las imágenes fueron la fusión (flicker) o bien la
partición de la pantalla (split). Para el control tridimensional del modelo, con la
precisión del subpixel, se necesitaban sistemas de control de coordenadas continuos,
12  INTRODUCCIÓN 

estos sistemas entonces no existentes, fueron la base para el desarrollo de los sistemas
actuales de correlación de imágenes en tiempo real.
Grün (1986) introduce nuevas ideas relativas al potencial y al diseño de las
estaciones fotogramétricas digitales. Los nuevos diseños contemplan la utilización de
imágenes digitales obtenidas con diferentes plataformas (cámaras aéreas, satélite,
fotogrametría terrestre, …), lo que permite el realizar todos los trabajos de
fotogrametría con un único sistema. Ésta es una de las grandes ventajas con respecto a
los sistemas analógicos y analíticos, la integración de todo el proceso en un único
sistema, flexible y universal, que permite obtener productos tanto en formato
analógico -hardcopy- como en formato digital -softcopy-. A Grün se debe la
denominación de Softcopy Photogrammetry que ciertos autores norteamericanos,
utilizan como sinónimo de la Fotogrametría Digital.
Como fruto de la popularidad de estas nuevas técnicas, en el período 1984-88 se
crea un grupo de trabajo dentro de la ISPRS sobre Sistemas Fotogramétricos
Integrados. En Makarovic (1986) se presentan los principales aspectos de los sistemas
de tipo digital, este artículo marca la tendencia que se ha mantenido estos últimos
años, del hardware al software, es decir, de los sistemas analógicos a los digitales, de
los métodos manuales a los automatizados.
En el siguiente Congreso de la ISPRS celebrado en Kyoto en 1988, se presenta la
primera estación de trabajo estereofotogramétrica digital comercial, la KERN DSP1
(Cogan et al., 1988a), junto a diversos sistemas a nivel de prototipo. Todos estos
sistemas estaban basados en los sistemas de procesamiento de imágenes y su
desarrollo estaba determinado por el auge de la utilización de imágenes satélite en
formato digital (LANDSAT, SPOT), y la necesidad de contar con un sistema
fotogramétrico que pudiera trabajar con este tipo de imágenes evitando la necesidad
de su transformación a información analógica con la pérdida de información que ello
conlleva. La KERN DSP1 no se presenta como un sustituto de los sistemas analíticos
sino como un primer ensayo sobre el que ir perfeccionando el sistema, que quizá se
puede considerar adelantado a la situación técnica actual del momento, aunque es
necesario tener en cuenta que cumplía con todos los requisitos indicados en Gugan y
Dowman (1986) para el diseño de un sistema digital. Cogan y Polasek. (1988b)
indican los requisitos de un sistema fotogramétrico digital que se resumen en la
Tabla 1.6.
Tabla 1.6. Requisitos de los sistemas fotogramétricos (Cogan y Polasek, 1988b)
ƒ Optimización de la relación precio-rendimiento mediante la utilización de un diseño modular y
continuo
ƒ El sistema debe ser fiable y útil
ƒ Software sencillo de utilizar y con unos resultados eficientes
ƒ Un único instrumento que se pueda integrar con los sistemas de información geográfica

En Euget y Vigneron (1988) se expone la relación explícita entre la estación


fotogramétrica y la base de datos geográfica. Las funciones del operador consisten la
detección y corrección de errores de los MDT (modelos digitales de terreno)
generados automáticamente. El objetivo de las estaciones fotogramétricas digitales es
FOTOGRAMETRÍA DIGITAL   13 

aumentar el rendimiento con respecto a los restituidores de tipo analítico elevando el


grado de automatización mientras que la ergonomía y la precisión se mantienen.
Konecny y Lohmann (1988) indican las ventajas del remuestreo epipolar de las
imágenes para la visualización y la medición, un principio fundamental muy común
en la actualidad, haciendo especial hincapié en los aspectos referentes a la integración
de los resultados y a la conexión con SIG, procesamiento de diferentes tipos de datos
(información de fotografías aéreas, datos geológicos, datos estadísticos, …) y la
posibilidad de utilización de los sistemas por usuarios no expertos.
En Stokes (1988) se presenta un sistema de revisión de mapas rápido y preciso
basado en la visión monoscópica de imágenes digitales, demostrando que la visión
estereoscópica no es necesaria para todas las aplicaciones.
Schenk analiza los aspectos relativos a la automatización de las estaciones
digitales (Schenk, 1986, 1988), estableciendo una fuerte crítica contra el
procedimiento de ensayo y error apostando por la teoría de la cartografía real. Un
sistema consiste en un equipo informático (-hardware- o soporte físico), un paquete
de programas (-software- o soporte lógico), no existiendo un consenso en qué debe
realizar el ordenador de una forma automatizada y qué debe realizar el operador. La
Fotogrametría Digital no debe limitarse a realizar medidas sobre puntos, debe
proporcionar una información semántica que facilite la producción final del mapa. La
principal diferente entre un SIG y un sistema de fotogrametría digital, es que la
información está recogida en fotografías y tiene que ser extraída. Schenk indica que
es básico el comprender cómo el ser humano resuelve los problemas antes de
desarrollar los métodos apropiados. Las ideas de Schenk han tenido una fuerte
influencia en la Fotogrametría Digital, tanto en la investigación, como en el desarrollo
de sistemas y los usuarios de los mismos.
Según Helava (1988) la interacción humana es una antítesis a la eficiencia,
representando además un aumento en el coste del hardware (visualización,
control,…). El diseño de un sistema fotogramétrico digital debe encaminarse a la
automatización total, así señala que "el principal mérito de la Fotogrametría Digital
es su potencial para una eficiente automatización". Helava investiga en detalle las
posibilidades de automatización de los procesos fotogramétricos, con la conclusión de
que desde la orientación y la triangulación aérea, a la generación de ortofotografías y
MDT pueden o podrían ser automatizados, con una única excepción, el
reconocimiento de formas. Sugiere centrarse en el problema de la interpretación de las
imágenes, así como de la creación de sistemas de manejo de datos que permitieran el
procesar los grandes volúmenes necesarios para la realización de proyectos reales.
En resumen, en este período se experimenta una fuerte evolución que se puede
resumir en la Tabla 1.7. En dicha tabla se puede observar como se mantiene la
división en las tres grandes partes de la Tabla 1.4, si bien los avances más importantes
se centran en el hardware y software.
14  INTRODUCCIÓN 

Tabla 1.7. Características básicas de los sistemas fotogramétricos digitales (Gülch, 1994)
Datos de entrada y Sensores:
ƒ Imágenes de satélite (directamente en formato digital), imágenes aéreas (digitalizadas debido a la falta
de cámaras de calidad) e imágenes de Fotogrametría de objeto cercano (Close-Range) directamente
en formato digital.
Hardware e Interfaz usuario:
ƒ El sistema debe estar formado por elementos estándar tanto a nivel de equipos como programas.
ƒ Importancia del remuestreo epipolar en tiempo real para generar modelos estereoscópicos libres
de paralaje en Y.
ƒ El interfaz con el usuario debe contar con adecuadas herramientas de edición y superposición
gráfica mono y estereoscópica, y poder ser utilizado por operadores no especialistas en la captura
de datos.
ƒ No siempre es necesario contar con sistemas de visión estereoscópica.
Software y Automatización:
ƒ El sistema debe ser universal y permitir la resolución automática de determinados procesos
fotogramétricos (interacción humana como antítesis de la eficacia).
ƒ Debe permitir el procesamiento de imágenes múltiples, con sistemas de correlación en tiempo real
para ayudar al operador en las medidas del paralaje.

1.3.4 El período de desarrollo de la interfaz de usuario, la automatización y la


especialización (1988-…)
El grupo de trabajo de la ISPRS II/III establece la siguiente definición para los
Sistemas de Fotogrametría Digital: "un sistema de Fotogrametría Digital se define
como un conjunto de software y hardware cuyo objetivo es la generación de
productos fotogramétricos a partir de imágenes digitales mediante técnicas manuales
y automatizadas". Estos dos tipos de técnicas, manuales y automatizadas, constituyen
las líneas de investigación prioritarias desde 1988 y han dado lugar a un importante
número de sistemas fotogramétricos que se han diseñado desde entonces.
Dowman (1989) describe un sistema para la cartografía a partir de datos derivados
de imágenes de SPOT, estableciéndose una relación directa entre Fotogrametría y
Teledetección. El sistema es flexible permitiendo que se puedan utilizar imágenes que
provienen de diferentes sensores para su corrección, generación del MDT y para la
interpretación planimétrica.
Helava (1991a) analiza la evolución que han sufrido las estaciones fotogramétricas
digitales en los últimos 25 años, indicando el tremendo efecto revolucionario en la
Fotogrametría, así como en la Teledetección y los SIG. En este trabajo Helava indica
también una serie de elementos fundamentales para el desarrollo de los sistemas
fotogramétricos digitales:
− la necesidad de disponer de un sistema de descompresión de imágenes en
tiempo real que permita aumentar la capacidad de almacenamiento y las
velocidades de transferencia.
− las ventajas de la generación de perspectivas, utilizando representaciones
realistas.
− la importancia de las herramientas de extracción para la detección de formas.
FOTOGRAMETRÍA DIGITAL   15 

En otro artículo publicado el mismo año, Helava (1991b) indica que los sistemas
fotogramétricos digitales no deben ser considerados como nuevos tipos de
restituidores analíticos, sino como un instrumento revolucionario. Estos instrumentos
permiten explotar completamente el potencial de la relación matemática existente
entre píxel y terreno que ofrece el sistema digital y que no existe en los sistemas
basados en películas convencionales. Con imágenes y un modelo digital del terreno
(MDT) disponible se puede preparar con facilidad un modelo totalmente orientado,
pudiendo ser el tratamiento fotogramétrico necesario transparente para el usuario.
Förstner (1991) realiza una detallada descripción del papel de los conceptos y
tareas "La labor de la Fotogrametría es la extracción de información a partir de
imágenes siendo esta información de tipo geométrico y semántico". En
Quam et al (1991) la expresión "fusión de información" es trasladada al contexto de la
modelización cartográfica. Esto posibilita la utilización de diferentes fuentes de
información. Por otro lado, el conocimiento de la iluminación de los modelos permite
la generación de imágenes sintéticas o secuencias de imágenes que utilizan la
modelización -rendering- para aumentar el realismo de las perspectivas.
Ackermann (1992) describe el poder de las herramientas, que han posibilitado la
rápida ascensión de la Fotogrametría Digital. El avance en la tecnología informática
ha sido un factor determinante. Ackermann indica la necesidad de crear un sistema
basándose en la precisión, la eficiencia, la fiabilidad y la universalidad, también hace
hincapié en la fuerte convergencia entre la Fotogrametría y la Teledetección.
Ebner et al. (1992) resumen muchos de los aspectos anteriores. El software
compatible es un factor clave para permitir la utilización de hardware estándar y, por
otro lado, el avance de las técnicas pone de manifiesto la necesidad de la existencia de
"cajas negras" en las que se realicen los cálculos fotogramétricos de una forma
transparente al usuario no experto.
Sarjakoski y Lammi trabajan en este sentido considerando las estaciones de
trabajo fotogramétricas como útiles estereoscópicos para el análisis en un entorno SIG
(Sarjakoski y Lammi, 1992), presentando la ventaja de la posibilidad de realizar
mediciones precisas en 3D. Estos autores también indican la ventaja de la rapidez en
el procesamiento de la información y la generación de los mapas lo que permite la
continua revisión de los productos cartográficos finales.
La democratización de la Fotogrametría es también una idea recogida por
Derenyi (1993) que propone el término "desktop mapping", para los usuarios que no
son expertos en Fotogrametría o Cartografía. Para el desarrollo de este tipo de
trabajos la Fotogrametría Digital supone una importante ayuda mediante la
automatización y transparencia de los procesos fotogramétricos.
Farrow y Murray (1992) indica la gran importancia relativa del software frente al
hardware. Los autores dan una visión de fácil comprensión acerca de qué tipos de
software deben ser incluidos en la estación fotogramétrica: entrada de datos,
captura/edición y salida de resultados. Estos elementos son los más comúnmente
requeridos en los organismos encargados de los trabajos cartográficos y por ello
deben estar incluidos en las estaciones digitales.
16  INTRODUCCIÓN 

Leberl (1992) indica las diferencias entre "softcopy" y "hardcopy", los datos en
informática se denominan "softcopy format" mientras que las reproducciones
impresas de dichos datos se denominan "hardcopy format", así trasladando ese
concepto a la Fotogrametría, las imágenes digitales serían softcopy mientras que las
imágenes analógicas son hardcopy. En este trabajo se encuentran ideas muy
interesantes de la utilización de la Fotogrametría como una herramienta para el
desarrollo, utilización y revisión de SIG, lo que él denomina "democratización de la
Fotogrametría".
La situación actual de la Fotogrametría Digital en cuanto a desarrollo de hardware
y de algoritmos puede ser resumida en la Tabla 1.8.
Tabla 1.8. Características actuales de los sistemas fotogramétricos digitales (Gülch, 1994)
Datos de entrada y Sensores:
ƒ La información debe ser preprocesada contando con un sistema de compresión/descompresión de
las imágenes digitales.
ƒ Es importante disponer de la información necesaria para la creación de modelos de objetos
semánticos.
Hardware e Interfaz usuario:
ƒ Se tiende a la democratización con interface para usuarios no expertos mediante el diseño de
sistemas únicos con la posibilidad de implementar herramientas a medida en función de las
necesidades del usuario.
ƒ El sistema debe permitir la captura de datos en tiempo real.
Software y Automatización:
ƒ El sistema debe contar con unos niveles altos de precisión y fiabilidad.
ƒ Debe contar con sistemas de reconocimiento semiautomático de formas, así como con
herramientas de visualización realística y animación.
ƒ Debe ser integrable en sistemas tipo CAD o SIG.

1.4 FUNDAMENTOS Y CUESTIONES ABIERTAS EN FOTOGRAMETRÍA


DIGITAL
En las Tablas 1.4, 1.7 y 1.8 se puede observar la tendencia general de la evolución
de la Fotogrametría Digital a lo largo de su corta historia. Durante este período la
importancia relativa de cada uno de los aspectos que integran el sistema (captura de
información, hardware y software) ha ido variando. En esta evolución el software
tiene en la actualidad la importancia mayor, básicamente en los aspectos referidos al
desarrollo de entornos de usuarios de cómoda utilización más que en lo relativo a
automatización de los procesos fotogramétricos. No obstante, el dilema entre el
desarrollo de un sistema automatizado y un sistema controlado por el usuario de una
forma sencilla sigue vigente (fig.1.6). Sin embargo, es evidente que la tendencia es
hacia la total automatización ya que como indicaba Helava la automatización es la
base de la eficiencia y precisión, y como no del rendimiento como para la difusión de
este tipo de técnicas.
FOTOGRAMETRÍA DIGITAL   17 

1.5 FOTOGRAMETRÍA DIGITAL: OPORTUNIDADES Y POTENCIAL


La evaluación del estado actual y del desarrollo de la Fotogrametría Digital debe
tener en cuenta diversos aspectos y consideraciones de diferentes naturaleza
(Ackermann, 1996):
1. Como mínimo, la Fotogrametría Digital debe proporcionar al menos el nivel de
rendimiento de la Fotogrametría Analógica y Analítica. Las estaciones de trabajo
digitales deben tener al menos las prestaciones de los restituidores analíticos de
imágenes digitales. Alcanzar estos mínimos no supone ninguna ventaja por parte de la
Fotogrametría Digital con respecto a los anteriores métodos, debido a la inercia de los
sistemas productivos, salvo que sean considerablemente más rápidos y más baratos.
2. La baza esencial de las nuevas tecnologías radica en la posibilidad de alcanzar
mayor rendimiento y una mayor gama de productos que las técnicas existentes. En la
Fotogrametría Digital dicha posibilidad se centraría en la automatización de los
procesos fotogramétricos. Los primeros ejemplos de tareas susceptibles de ser
automatizados han sido la medida de puntos de paso/enlace en los procesos de
aerotriangulación digital, la generación de modelos digitales de terreno mediante la
aplicación de técnicas de correlación de imágenes y la generación de ortofotografías,
sin olvidar diversas medidas y funciones de orientación. Esta automatización ha sido
la que ha supuesto el auge de la Fotogrametría Digital. Es necesario tener en cuenta
que la calidad y economía de los productos obtenidos son factores decisivos para
marcar la aceptación de las nuevas técnicas por los usuarios (fig.1.6).

EFICIENCIA Y ACEPTACIÓN

pequeña grande

Interacción Automatización
Medida
Visión Interpretación

Control 3-D

Entrada: Salida:
- Imágenes - Coordenadas
- Digitalizadores Ordenador objeto
- Cámaras on-line - Ortofotos
- Modelos de - Descripción
objetos semántica
- Modelos de - Visualización
iluminación - Animación
- ... - ...
Base de Datos

Fig.1.6. Elementos fundamentales de un sistema fotogramétrico digital y el impacto de


la interacción humana y la automatización de medidas e interpretación en la eficiencia y aceptación

3. La cartografía digital y la extracción de objetos a partir de las imágenes


digitales necesitará la intervención humana durante algún tiempo. Por lo que en una
primera aproximación no parece que presente ninguna ventaja particular con respecto
a las técnicas analíticas, sin embargo, es necesario tener en cuenta que aunque los
18  INTRODUCCIÓN 

procesos no sean completamente automáticos si lo son muchas de las tareas. Este


hecho junto con la incorporación de diversas herramientas de procesamiento de la
imagen y edición facilitan los trabajos contribuyendo a un aumento de la rentabilidad
del proceso cartográfico.
4. Otra ventaja importante en favor de los sistemas digitales es su concepción
como sistemas totales, lo que permite el tratamiento de imágenes de muy diversa
procedencia en un sólo equipo, desde imágenes de rango cercano (cámaras digitales)
hasta imágenes instaladas en plataformas espaciales (imágenes satélite).
5. Los sistemas digitales pueden integrar, fusionar y comparar conjuntos de datos
de diferentes procedencias, dando lugar a un abanico muy amplio de operaciones
dentro y fuera del contexto cartográfico. Así el sistema fotogramétrico se puede
considerar como un elemento básico en los sistemas de información geográfica
tridimensionales.
Como resumen se puede indicar que en base a las anteriores consideraciones, la
dirección hacia la cual se dirige la Fotogrametría Digital está clara. En la actualidad se
trata de una técnica con un nivel de desarrollo y de implementación considerable que
continuará su desarrollo apoyándose en la consistencia de sus planteamientos y
centrándose en la automatización de la extracción de información de la imagen
(restitución automática o al menos herramientas para la asistencia en los trabajos de
restitución). Es evidente, la rápida transición que se está experimentando en los países
más desarrollados, mientras que en los países subdesarrollados está transición será
mucho más lenta debido a las dificultades que tienen los mismos para introducirse en
este tipo de técnicas.

REFERENCIAS BIBLIOGRÁFICAS
Ackermann,F. (1991): Structural Changes in Photogrammetry. Proc.of the 43rd Photogrammetric Week at
Stuttgart University, 9-14 September, pp.9-23.
Ackermann,F. (1992): Struckturwandel in der Photogrammetrie. Zeitschrift für Photogrammetrie und
Fernerkundung 1/1992.
Ackermann,F. (1996): Digital Photogrammetry: Challenge and Potential. PE&RS, 62(6), Junio 1996,
p.679.
Albertz, J., König, G.(1984): A Digital Stereophotogrammetric System. 15th ISPRS Congress, Rio de
Janeiro, IAPRS 25-A2.
Case,J.B. (1982): The Digital Stereo Comparator/Compiler (DSCC). ISPRS Com.II, Symp., Ottawa,
IAPRS, 24-II.
Cogan,L., Gugan,D.J., Hunter,D., Lutz,S., Peny,C. (1988a): KERN DSP-1 - Digital Stereo
Photogrammetric System. 16th ISPRS Congr., Kyoto, IAPRS, 27-B2.
Cogan,L., Polasek,A. (1988b): KERN Integrated Systems Hardware and Software Architecture. 16th
ISPRS Cong., Kyoto, IAPRS, 27-B2.
Derenyi, E.E., (1993): Low cost softcopy mapping, SPIE'93 Conf. on 'Integrating Photogrammetric
Techniques with Scene Analysis and Machine Vision'. Orlando, Florida, SPIE vol.1944.
Dowman,I. (1989): Digital Systems for Mapping from SPOT Data. Conf. on Southern African Surveyors.
8.3.
Euget,G., Vigneron,C. (1988): MATRA TRASTER T10N Digital Stereoplotter. 16th ISPRS Cong., Kyoto,
IAPRS, 27-B2.
Ebner,H., Dowman,I., Heipke,C. (1992): Design and Algorithmic Aspects of Digital Photogrammetric
Systems, 17th ISPRS Cong., Washington, D.C., IAPRS, 29-B2.
Farrow,J.E., Murray,K.J. (1992): Digital Photogrammetry - Options and Opportunities. 17th ISRPS Cong.,
Washington D.C., IAPRS, 29-B2.
FOTOGRAMETRÍA DIGITAL   19 

Förstner,W. (1991): Concepts and Algoritms for Digital Photogrammetric Systems. Zeitschrift für
Photogrammetrie und Fenerkundung 5/1991.
Gosh,S.K. (1988): Analytical Photogrammetry. 2ª Ed. Pergamon Press.
Gugan,D.J. y Dowman,I.J. (1986): Desing and Implementation if a Digital Photogrammetric System.
ISPRS Com.II Symp, Baltimore, May, IAPRS, 26-2.
Grün,A. (1986): The Digital Photogrammetric Station at the ETH Zurich. ISPRS Com.II Symp., Baltimore,
May, IAPRS, 26-2.
Gülch, E. (1994): Fundamentals of Softcopy Workstations. En: ASPRS. Proceedings Mapping and Remote
Sensing Tools for the 21st Century with feature emphasis on public/private interaction. 26-29 Agosto.
Washington D.C. pp.193-204.
Helava,U.V.(1958): Analytical Plotter in Photogrammetric Production Line. Photogrammetric Engineering,
24(5).
Helava,U.V.(1988): On System Concepts for Digital Automation. 16th ISPRS Congress, Kyoto, IAPRS,
27-B2.
Helava,U.V. (1991a): State of the Art in Digital Photogrammetric Workstations. Phot. Journal of Finland,
12(2).
Helava,U.V.(1991b): Prospects in Digital Photogrammetry. Phot Journal of Finland, 12(2).
Hobrough,G.L.(1959): Automatic Stereo Plotting. Photogrammetric Engineering, 25.
Konecky,G., Lohmann,P.(1988): A Digital Image Mapping System. 16th ISPRS Cong., Kyoto, IAPRS, 27-
B11.
Leberl,F.W. (1991): The Promise of Softcopy Photogrammetry. En: Ebner et al.(eds). Digital
Photogrammetric Systems. Ed. Wichmann. Karslruhe.
Leberl,F.W. (1992): Design alternatives for Digital Photogrammetric Systems. 17th ISPRS Congr.,
Washington D.C., IAPRS, 29-B2.
Makarovic,B.(1986): Integrated Photogrammetric Systems. ISPRS Com.II Symp, Baltimore, May, IAPRS,
26-2.
Panton,D.J.(1978): A flexible Approach to Digital Stereo Mapping. Photogrammetric Engineering &
Remote Sensing, 44(12).
Quam,L., Strat.,T. (1991): SRI Image Understanding Research in Cartographic Feature Extraction. En:
Ebner et al (eds) Digital Photogrammetric Systems, Wichmann. Karlsruhe.
Rosenberg ,P.(1955): Information Theory and Electronic Photogrammetry. Photogrammetric Engineering,
21(2).
Rosenfeld, A. (1965): Automatic Imagery Interpretation. Photogrammetric Engineering, 31(2).
Saleh, R.A.; Scarpace, F.L.; Dahman, N.A. (1994): Softcopy Photogrammetric System Evaluation for
Production Environment. En: ASPRS. Proceedings Mapping and Remote Sensing Tools for the 21st
Century with feature emphasis on public/private interaction. 26-29 Agosto. Washington D.C., 211-222.
Sarjakoski,T. (1981): Concept of a Completely Digital Stereoplotter. The Photog. Journal of Finland, 2.
Sarjakoski,T., Lammi,J. (1992): Requirements of a Stereo Workstation for GIS environment. 17th ISPRS
Congress, Washington D.C., August, IAPRS, 29-B2.
Schenk,T. (1986): Concepts and Models in Photogrammetric Systems. ISPRS Com. II Symp., Baltimore,
May, IAPRS, 26.2.
Schenk,T. (1988): The Effect of Digital Photogrammetry on Existing Photogrammetric Concepts,
Procedures and Systems. 16th ISPRS Cong., Kyoto, IAPRS, 27-B9.
Schenk,T. (1996): Current Status and Future Directions of Digital Photogrammetry: A Personal View.
PE&RS, 62(6), p.682.
Schneider, W. y Hanh, M. (1994): Bildflug mit Real-time-Disk - Experiment geglückt. GIS 1/1994.
Sharp,J.V., Christensen,R.L., Gilman,W.L., Schulman,F.D. (1965): Automatic Map Compilation Using
Digital Techniques. Photogrammetric Engineering, 31(2).
Slama,C.C. (ed.) (1980): Manual of Photogrammetry. 4ª Ed. ASP. Bethesda, Maryland 1056 p.
Stokes,J. (1988): A Photogrammetric Monoplotter for Digital Map Revision Using the Image Processing
System GOP-300. 16th ISPRS Congr., Kyoto, IAPRS, 27-B2.
Thompson, M. y Gruner, H. (1980): Foundations of Photogrammetry. En: Slama, C. (ed.) Manual of
Photogrammetry. American Society of Photogrammetry. Bethesda, Maryland. 1-36.
Thom, C. y Jurvillier, I. (1993): Experiencies with a digital aerial camera at Institut Géographique National
(France). Photogrammetric Week '93, Fristch, D.; Hobbie, D.(ed). Wichmann, Verlag.

IAPRS: International Archives of Photogrammetry & Remote Sensing.


PE&RS: Photogrammetry Engineering & Remote Sensing.
20  INTRODUCCIÓN 
Capítulo 2. Sistemas Fotogramétricos Digitales

2.1 Sistemas fotogramétricos digitales y estaciones fotogramétricas digitales.


2.2 Esquema de trabajo con un sistema fotogramétrico digital.
2.3 Clasificación de los procesos en Fotogrametría Digital.
2.4 Análisis de la rentabilidad de una estación fotogramétrica digital (DPW).
2.5 Clasificación de los sistemas fotogramétricos digitales.
Anexo 2.1. Ejemplos de sistemas fotogramétricos digitales.

En este capítulo se abordan los aspectos conceptuales relativos al diseño de los


sistemas fotogramétricos digitales prestando una especial atención a los aspectos
relacionados con las características y peculiaridades de los mismos. A continuación,
se analiza el esquema de trabajo a seguir con un sistema fotogramétrico digital,
comparándolo con el sistema clásico empleado con los sistemas analíticos y
analógicos. Por último, se establece una clasificación de los diferentes equipos y se
presenta un breve análisis referente a la rentabilidad de dichos equipos, concluyendo
el capítulo con un anexo en el que se recogen a modo de ejemplo diversos equipos
existentes en el mercado.

2.1 SISTEMAS FOTOGRAMÉTRICOS DIGITALES Y ESTACIONES


FOTOGRAMÉTRICAS DIGITALES
Las primeras definiciones de Sistemas Fotogramétricos Digitales (Digital
Photogrammetric Systems -DPS-) y de Estaciones Fotogramétricas Digitales (Digital
Photogrammetric Workstation -DPWS-) datan de principios de la década de los 80
(Sarjakoski, 1981;Case, 1982). En 1988, el grupo de trabajo II/III (Sistemas para el
Procesamiento y Análisis de Datos) de la Sociedad Internacional de Fotogrametría y
Teledetección (ISPRS) define un Sistema Fotogramétrico Digital como el conjunto de
hardware y software cuyo objetivo es la generación de productos fotogramétricos a
partir de imágenes digitales mediante técnicas manuales y automatizadas. Estos
productos pueden ser utilizados directamente o bien ser la fuente de información de

 
21 
22  SISTEMAS FOTOGRAMÉTRICOS DIGITALES 

entrada para un Sistema de Información Geográfica (SIG) o un Sistema de Diseño


Asistido (CAD).
El sistema fotogramétrico digital incluye todos los elementos necesarios tanto a
nivel de software como de hardware para obtener los productos fotogramétricos a
partir de las imágenes digitales, incluyendo también sistemas de captura de imágenes
(interfaces de conexión con cámaras digitales o sistemas de digitalización de
imágenes en formato analógico -escáner-) así como sistemas de impresión final
(filmadoras, trazadores gráficos, impresoras de imágenes, …). El elemento
fundamental del sistema fotogramétrico digital es la estación fotogramétrica digital -
Digital Photogrammetric Workstation- (conocido también como restituidor digital, si
bien este nombre no es el más adecuado puesto que sólo hace referencia a una de las
tareas de la estación, el proceso de restitución).

2.1.1 Elementos componentes de un Sistema Fotogramétrico Digital


El objetivo fundamental de un sistema fotogramétrico, cualquiera que sea la
metodología empleada para su construcción es la obtención de información espacial
de objetos a partir de imágenes de los mismos, en el caso concreto de los Sistemas
Fotogramétricos Digitales, a partir de imágenes en formato digital.
En la figura 2.1 se presenta de una forma esquemática el proceso fotogramétrico
digital cuyo diagrama de flujo de información se presenta en la figura 2.2.

Cámara
convencional
Cámara Digital

Objeto
Proceso
fotográfico

Digitalización

Imágenes Digitales

SISTEMA FOTOGRAMÉTRICO DIGITAL


Ortofotografías, MDT, Restitución, ...

Sistemas de
Impresión

SISTEMA CARTOGRAFIA CARTOGRAFIA


CAD DIGITAL ANALÓGICA

Fig.2.1. Proceso fotogramétrico digital


FOTOGRAMETRÍA DIGITAL   23 

Datos de Entrada

Datos Raster
Digitales Analógicos

Datos Vector
Analógicos Digitales

Fotografía

Fotografía

Terrest re

Teodolito
Cámara
Satélite

Satélite
Datos

Sensor
Sensor

Mapas

Planos
Aérea

Video
Aéreo
SEM

CAD
CCD

SIG
Temáticos

ESCÁNER

Base de Datos Mixta

Base de Datos Ráster Base de Datos Vectorial Base de Datos Temática

Estación de Trabajo Fotogramétrica (DPW)

Fotogramet ría
Operador
Visión Análisis de Humano
Automát ica Imágenes

Productos Fotogramétricos en formato digital


Mod. alambre
Coordenadas

perspectiva

Mosaico de
(wireframe)

Curvas de

imágenes

Imágenes
Vistas en

Ortofotos

vectorial
Terreno

Estereo
digital
Mapa

Mapa
MDE

nivel

DISPOSITIVOS PERIFÉRICOS DE SALIDA


(Filmadora, Trazadores gráficos, ...)

Productos Fotogramétric os en formato analógico

Fig.2.2. Diagrama de flujo de un Sistema Fotogramétrico Digital (Albertz y König,1991)

El primer aspecto a tener en cuenta en el análisis del diagrama de flujo mostrado


en la figura 2.2 es la gran variedad de datos de entrada, así es posible la utilización en
un único sistema (carácter universal) desde imágenes obtenidas de microscopios
electrónicos de barrido (SEM -Scanning Electron Microscope-), a imágenes obtenidas
mediante sensores remotos instalados en satélites, pasando por fotografías de rango
cercano y fotografías aéreas convencionales. Además, es absolutamente necesario
disponer de un sistema de importación de ficheros en formato vectorial, que se utiliza
en los procesos de extracción de actualización y verificación de la información
extraída, mediante superposición de los elementos gráficos. Por último, el sistema
debe contar con periféricos adecuados para la impresión de los resultados en formato
analógico, en función de las necesidades de los usuarios.
Teniendo en cuenta dichas necesidades, un sistema fotogramétrico digital debe
cumplir los siguientes requerimientos en cuanto a hardware (fig.2.3):
24  SISTEMAS FOTOGRAMÉTRICOS DIGITALES 

− un sistema de digitalización de imágenes analógicas.


− posibilidad de entrada directa de datos en formato digital (p.ej., cámara digital)
para la realización de aplicaciones fotogramétricas en tiempo real.
− sistema de medida 3D de imágenes digitales de diferentes fuentes y geometrías
− manipulación y procesamiento de imágenes de gran tamaño en un tiempo
razonable.
− generación automática de modelos digitales de elevaciones con precisión al
nivel de subpíxel.
− obtención de ortofotografías digitales en un tiempo de proceso aceptable.
− visualización de las imágenes estereoscópicas en color real.
− interfaz con SIG con superposición monóscopica y estereoscópica de elementos
gráficos y con funciones de edición para modificar dichos elementos.
− Impresoras de imágenes y trazadores gráficos para la impresión analógica de los
resultados.

Interfaz Usuario

Programas
de Control
Aplicación Operador
Host

Monitores Cont rolador

Entrada de I magen
Sist emas de Observ ación

Buffer Informac ión


Película
Óptica
CCD Dis co

Sobreimposición
Esc áner
Procesamient o de
Imágenes Digitales

Fig.2.3. Elementos constituyentes de un sistema fotogramétrico digital

La tendencia actual de diseño de los sistemas fotogramétricos digitales es la


utilización de una concepción modular ofreciendo grandes posibilidades para la
expansión del sistema tanto al nivel de software como de hardware. Además, cada vez
es más frecuente la utilización de hardware estándar, dentro de las posibilidades
debido a las características particulares de este tipo de sistemas, para conseguir por un
lado, la compatibilidad con otros sistemas, facilitar las tareas de mantenimiento y la
reducción de costes de los equipos.
FOTOGRAMETRÍA DIGITAL   25 

Las peculiaridades más importantes de un restituidor fotogramétrico se encuentran


en la interfaz con el usuario: necesidad de visión estereoscópica, obtención de
coordenadas en tiempo real, precisión de medida al nivel de subpíxel.
A) Sistema de Visualización
El sistema de visualización es un elemento fundamental en cualquier sistema
fotogramétrico al ser el enlace básico entre el operador y el sistema para la
interpretación de las imágenes, teniendo una gran influencia en un aspecto básico para
la productividad del sistema, como es la fatiga del operador. La visualización en las
estaciones fotogramétricas digitales se realiza mediante el empleo de monitores de
alta resolución (siendo aconsejables resoluciones mínimas de 1280x1024) en color de
8 bits o bien en color real (24 bits) con posibilidad de superponer elementos gráficos
de forma no destructiva, por lo que se eliminan los sistemas ópticos de elevado coste
y complicado mantenimiento que incorporan los sistemas analógicos y analíticos. La
presentación de la imagen en un monitor permite unos primeros ajustes básicos,
como, por ejemplo, brillo y contraste.
Otro aspecto de importancia es la facilidad de obtener aumento/disminución en la
visualización mediante operaciones informáticas, tarea conocida comúnmente bajo el
término anglosajón zoom. Este zoom (positivo o negativo) es logrado mediante una
modificación del número de píxeles de imagen que se muestran en cada píxel de la
pantalla. La presentación, por defecto de la imagen (nivel de zoom 1:1) será de la
forma que un píxel de la imagen se corresponde con un píxel de pantalla, pudiendo
efectuar tanto zoom positivos (a un píxel de la imagen le corresponden varios píxeles
de la pantalla) como negativos (a un píxel de la pantalla le corresponden varios
píxeles de la imagen, tomándose el valor medio como representativo). La facilidad de
utilización del zoom, no limitado por factores mecánicos u ópticos, debe ser
considerada con cierta reserva, es necesario tener en cuenta que a mayor factor de
zoom se reduce el campo de visión, por lo que la visión de conjunto (y la visión
estereoscópica, si ésta se emplea) se dificultará aumentando la fatiga del operador.
La comparación entre las características de visualización de un sistema analítico y
uno digital pueden establecerse mediante la observación de un fotograma de alta
resolución (70 lp/mm, es decir, un tamaño de píxel entre 5 y 7 µm). Un operador es
capaz de discernir a simple vista y a una distancia normal de observación (25 cm)
entre 7 y 8 lp/mm, por lo cual podemos observar el fotograma ampliado 10 veces sin
perder calidad, aunque lógicamente el campo de observación quedará reducido a
aproximadamente 20mmx20mm. Para alcanzar la misma calidad de observación en
un sistema digital se necesita una resolución de 6 µm, por lo que el área de
20mmx20mm, implicaría la necesidad de disponer de un monitor de 3000x3000
píxeles de resolución. Este tipo de monitores es poco frecuente y de muy elevado
precio, particularmente si se considera la necesidad de que incorporen visión en color
real (24 bits o más). Por tanto, la limitación viene marcada por la resolución del
monitor (1280x1024) que permitirá una resolución de digitalización en torno a 15 µm,
que implica una reducción del 60% en la calidad de observación respecto a un sistema
analítico, o bien la opción de trabajar con zonas de visión más reducidas.
26  SISTEMAS FOTOGRAMÉTRICOS DIGITALES 

Para la realización de numerosas tareas fotogramétricas se requiere la


visualización estereoscópica del modelo. Para obtener la percepción de la
profundidad, y por tanto, la visión estereoscópica es necesario que se observe cada
imagen que integra el modelo con el ojo correspondiente (la imagen izquierda por el
ojo izquierdo y viceversa). La forma más sencilla de conseguir este efecto es el
conocido como método analógico que es el empleado en los sistemas analíticos y
analógicos, que permite al cerebro interpretar las paralajes observados como
diferencias de profundidad. Este método sólo puede ser utilizado en un entorno de
fotogrametría digital mediante la utilización de la técnica de pantalla partida (la
pantalla se divide en dos partes, en la izquierda se presenta la imagen izquierda y en la
derecha se presenta la derecha), por tanto, es necesario buscar soluciones alternativas.
La forma más común es la visualización de las dos imágenes alternativamente a una
frecuencia muy elevada (>60Hz) y la incorporación de un obturador que controle que
la visión de la imagen izquierda se realice por el ojo izquierdo y la derecha por el ojo
derecho. Este es el principio empleado por los sistemas de gafas activas, de pantalla
activa y gafas pasivas así como de los cascos de realidad virtual (HMD, Head
Mounted Display).
En los equipos digitales las formas de obtener dicha visualización se basan en la
separación de las imágenes (Tabla 2.1 y figura 2.4). Dicha separación puede ser:
1. Espacial: Se presentan las dos imágenes que forman el modelo en una
pantalla partida -split- o bien en diferentes monitores realizando la
observación mediante un estereoscopio.
2. Temporal: Las imágenes se muestran alternativamente en la pantalla.
3. Radiométrica: Las imágenes reciben diferente tratamiento radiométrico en
función de si se trata de la imagen izquierda o derecha (principio del
anaglifo).
4. Combinaciones de los métodos anteriores.

Tabla 2.1. Sistemas de visión estereoscópica en restituidores digitales


División de la pantalla Pasiva Activa
(separación espacial) (separación temporal) (separación temporal)

Visión estéreo libre NO SI SI

Observador múltiple NO SI SI

Resolución imagen Completa ½ ½

Pantallas múltiples Posible No (interferencias) posible

Posibilidad de otras Sí, con pantallas Sí, pero real sólo con No se deben mezclar
ventanas simultáneas múltiples pantallas múltiples mono y estéreo
FOTOGRAMETRÍA DIGITAL   27 

Fig.2.4. Sistemas de visualización estereoscópica empleados en Fotogrametría Digital.


Izq.: Pantalla partida (sistema DVP); Centro: Gafas pasivas (sistema NuVision, Z-Screen);
Der.: Gafas activas (sistema Stereographics)

La técnica más empleada en la actualidad es la utilización de separación temporal


y polarización en modo activo o pasivo (flicker), existiendo diferentes formas para la
realización de la observación final (formato electro-estereoscópico).
En el caso de la polarización pasiva se instala una pantalla de polarización en el
frente del monitor (fig.2.5). Las imágenes se presentan alternando a una velocidad de
120 Hz y la pantalla de polarización cambia la polarización en sincronización con la
presentación de las imágenes. El operador utiliza gafas pasivas vertical y
horizontalmente polarizadas. En el caso del sistema activo la pantalla de polarización
está incluida en las propias gafas utilizando un sistema de LCD (Pantalla de Cuarzo
Líquido) en sincronización con el sistema mediante infrarrojos (fig.2.6). En este
último caso, el peso de las gafas es mayor debido a la necesidad de incorporar en las
mismas el polarizador LCD y la batería.

Gafas polarizadas pasivas

Polarización vertical Polarización horizontal

Imagen dividida en dos


PANTALLA RGB regiones con planos de
polarización perpendiculares

CPU
Buffer Imágenes 1 y 2

IMAGEN 1 IMAGEN 2

Fig. 2.5. Visión estereoscópica por polarización pasiva.


Las imágenes se presentan alternativamente a una velocidad de 120Hz usando una pantalla de polarización.
La visión se obtiene mediante la utilización de gafas pasivas (Schenk, 1995)
28  SISTEMAS FOTOGRAMÉTRICOS DIGITALES 

Gafas polarizadas activas

PANTALLA RGB
Sincronizador de polarización
120 Hz: Imagen monoscópica
60Hz: Imagen estereoscópica

CPU
Buffer Imágenes 1 y 2

IMAGEN 1 IMAGEN 2

Fig.2.6. Visión estereoscópica por polarización activa.


Las imágenes se presentan alternativamente a una frecuencia de 120 Hz y la visualización
se realiza mediante gafas activas sincronizadas con el sistema (Schenk, 1995)

La ventaja fundamental de ambos métodos es que permiten la visualización


estereoscópica de varios operadores de una forma simultánea sobre el mismo monitor,
permitiendo el movimiento de la cabeza. Por otro lado, permiten la utilización
simultánea de monitores monoscópicos y estereoscópicos así como la superposición
de elementos en color (figura 2.7). La principal desventaja es la reducción del brillo
con relación a un monitor normal debido a la doble frecuencia (120Hz frente a 60Hz)
y la absorción de luz por la pantalla de polarización o el obturador LCD. Estos
problemas se compensan mediante la utilización de monitores de fósforo muy rápido.
Sincronizador

Monitor
Estéreo
Monitor
Mono
Señal Estéreo
Infrarrojo 170º

VISIÓN MONOSCÓPICA

VISIÓN
ESTEREOSCÓPICA

Fig.2.7. Conmutación automática de la observación monóscopica/estereoscópica


FOTOGRAMETRÍA DIGITAL   29 

El método de visualización mediante separación temporal de imágenes (sistema de


gafas activas o pasivas) presenta ciertos problemas entre los que se puede indicar:
a) flicker
b) iluminación asimétrica
c) crosstalk (ghosting)
d) absorción de la señal
a) Flicker: El término anglosajón flicker hace referencia al problema que peores
efectos tiene en la visión estereoscópica mediante sistemas de gafas. Consiste en que
las imágenes parece que retiemblan en la pantalla. Este problema puede variar
dependiendo principalmente del brillo y tamaño del monitor y se presenta
especialmente en pantallas con una frecuencia de refresco débil (60 Hz). Existen dos
tipos de flicker, uno debido a la iluminación ambiental (room flicker) y otro debido al
proceso propiamente dicho (image flicker). Para atenuar sus efectos se puede reducir
el nivel de iluminación del local (room flicker), ajustar los niveles de brillo y contraste
de las imágenes o utilizar monitores con mayores frecuencias (120 Hz).
b) Iluminación asimétrica: Las diferencias de iluminación, aunque sean pequeñas (del
orden del 3%) en las imágenes que forman el modelo estereoscópico producen en el
operador un aumento del efecto de flicker.
c) Crosstalk (Ghosting): Otro fenómeno frecuente es el conocido como crosstalk.
Consiste en una interferencia entre las dos señales. Este problema puede deberse a
desajustes entre la obturación de las gafas y la de la pantalla. En principio, el
problema suele residir en el monitor debido a una persistencia en la iluminación del
fósforo fuera de su periodo correspondiente. En el caso de que la imagen derecha no
desaparezca totalmente de la pantalla (se queda como una imagen residual o
“fantasma” de donde proviene el nombre de ghosting) produce que la visión no sea
correcta. Este efecto es más importante para imágenes con elevados niveles de
paralajes o muy contrastadas.
d) Absorción de la señal: Este fenómeno en realidad no afecta a la comodidad de la
visión aunque puede alterar la posibilidad de identificar elementos en las imágenes. El
problema consiste en una absorción de la señal producida por la introducción de
filtros en la pantalla (sistema de gafas pasivas) o de gafas polarizadas (sistema de
gafas activas) que reduce la cantidad de luz recibida por el observador.
En el sistema de visión estereoscópica mediante imagen partida se instala un
estereóscopo de espejos frente al (a los) monitor(es). La visualización se obtiene
presentando la imagen izquierda en la mitad izquierda del monitor (o bien en el
monitor izquierdo si se emplean dos monitores) y la derecha en su mitad
correspondiente (figs. 2.8 y 2.9).
Esta técnica reduce la zona del modelo observable, pero proporciona un entorno
muy familiar a los operadores habituados a los sistemas analógicos y analíticos y
permite el empleo de monitores y tarjetas gráficas normales (60Hz). Además permite
la visualización de imágenes en color así como la superposición de elementos
gráficos, si bien presenta el problema de que sólo es posible (al menos en primera
medida) la observación de un solo operador de forma simultánea.
30  SISTEMAS FOTOGRAMÉTRICOS DIGITALES 

ESTEREÓSCOPO DE ESPEJOS

PANTALLA RGB

IZQUIERDA DERECHA

CPU
Buffer Imágenes 1 y 2

IMAGEN 1 IMAGEN 2

Fig.2.8. Visualización estereoscópica por separación óptica con un solo monitor (Schenk, 1995)

ESTEREÓSCOPO DE ESPEJOS

PANTALLA 1 PANTALLA 2

IZQUIERDA DERECHA

CPU 1 CPU 2
Buffer Imágenes 1 Buffer Imágenes 2

IMAGEN 1 IMAGEN 2

Fig.2.9. Visualización estereoscópica por separación óptica con dos monitores (Schenk, 1995)

La visualización mediante el sistema de anaglifo presenta las dos imágenes que


forman el modelo en color rojo y verde (o azul) y la visión se logra mediante el
empleo de unas gafas de anaglifo. Mediante esta técnica, la visualización de imágenes
en color real es compleja y además es complicada la superposición de elementos
gráficos. Por otro lado, la calidad visual dificulta el posado en el modelo y produce
una considerable fatiga en el operador, quedando básicamente limitada para la
FOTOGRAMETRÍA DIGITAL   31 

generación de productos tridimensionales para usuarios que carecen de sistemas


complejos de visión estereoscópica.
B) Control Tridimensional
El control tridimensional es otro de los aspectos más importantes de un sistema
digital. La ergonomía y facilidad del control afecta de una forma importante al
rendimiento del sistema. El control tridimensional viene definido por la marca
flotante y los sistemas de desplazamiento tridimensional en el modelo.
En los sistemas analógicos y analíticos el tamaño de la marca flotante es fijo (o
como máximo variable dentro de un rango determinado) condicionando la precisión
final de la medida efectuada sobre las imágenes. En los sistemas digitales la marca
viene definida como un conjunto de píxeles definidos en un plano de bits en el que la
imagen no se presenta (superposición no destructiva). La marca se desplaza por el
modelo píxel a píxel, lo que evidentemente es una desventaja frente a los sistemas
analíticos en cuanto a la suavidad del desplazamiento, si bien presenta la importante
ventaja de eliminar las limitaciones de la marca (la marca puede ser definida con el
tamaño deseado) así como los atributos de la misma (básicamente, forma y color)
para facilitar la visualización en función del tipo de imagen empleado (pancromática,
color, …).
El cursor puede ser controlado de diferentes formas que se resumen en la
Tabla 2.2. Estas formas de desplazamiento pueden ser clasificadas en función de si el
control requerido es en 2D ó 3D. La opción preferible por razones de precisión,
estabilidad y facilidad de utilización es la combinación de un ratón 2D (para el
movimiento en XY) y un sistema de bola (para el movimiento en Z), este sistema
puede presentarse como dos sistemas independientes o como un sistema integrado
(ratón 3D) (figura 2.10). Otra posibilidad, de gran interés en cuanto a la economía de
su utilización, si bien presenta una escasa ergonomía es el control directo mediante
teclado. Por último, es importante señalar que algunos fabricantes incorporan como
opción el esquema clásico de manivelas y pedal de Z, a fin de facilitar a los
operadores habituados a estos sistemas de desplazamiento la migración a los sistemas
fotogramétricos digitales.
Tabla 2.2. Sistemas de control de movimiento en el modelo
2D 3D
- Ratón - Ratón 3D - Trackball (ratón de bola)
- Trackball (ratón de bola) - Teclado - Manivelas y pedal
- Teclado - Cursor 3D+teclas de función
- Manivelas

Fig.2.10. Izq.: Trackball; Centro: Ratón 3D de Immersion Co.; Der.: Ratón Leica Topomouse
32  SISTEMAS FOTOGRAMÉTRICOS DIGITALES 

En lo que respecta al desplazamiento del cursor existen dos posibilidades: que el


cursor se desplace permaneciendo las imágenes quietas o bien que sean éstas las que
se muevan estando el cursor fijo en el centro de la pantalla (roaming) (fig.2.11). La
primera solución es más sencilla y económica, empleándose en la mayoría de los
equipos de nivel bajo, este sistema presenta el inconveniente de la pérdida de visión
estereoscópica cuando se necesita cambiar la zona de trabajo debido a la necesidad de
regeneración de las imágenes lo que produce un evidente perdida de rendimiento del
equipo. La segunda opción es más interesante debido a que la forma de operar es
similar a la que se sigue en un sistema analógico o analítico, aunque para ser
implementada requiere disponer de un equipo con un rendimiento gráfico suficiente
(velocidades de video en torno a 1 millón de vectores 3D/s) para permitir que el
desplazamiento de las imágenes se realice de una forma progresiva, continua y rápida.
Este sistema tiene especiales ventajas en el caso que los desplazamientos en el modelo
sean pequeños, puesto que, de lo contrario se requiere la carga de una nueva zona de
la imagen, produciéndose movimientos discontinuos que producen fatiga en el
observador.

Fig.2.11. Sup.: Desplazamiento con el sistema de imagen fija-cursor móvil. La imagen que se presenta
siempre es la misma salvo que el cursor se desplace fuera de límites. Inf: Desplazamiento con el sistema de
cursor fijo-imagen móvil. La imagen se va desplazando conforme se desplaza el cursor

Para ilustrar las necesidades del sistema para la visualización continua,


supongamos el siguiente ejemplo: se dispone de un sistema fotogramétrico digital con
una resolución de 1280x1024 y se trabaja con imágenes en color real con un tamaño
de píxel de 15x15µm (imagen de tamaño aproximado de 16000x16000 píxeles y un
volumen de almacenamiento de 730Mb). Si se utiliza un sistema de compresión de la
imagen con una relación de compresión de 3, será necesario un espacio de
almacenamiento para cada imagen en torno a 240Mb, es decir, serán necesarios 24Gb
para el almacenamiento de un proyecto que incluya 100 imágenes.
FOTOGRAMETRÍA DIGITAL   33 

Puesto que se desea la visualización estereoscópica de imágenes en color se


necesita una memoria de 1280x1024x3 bytes = 3.932.160 bytes para la presentación
de cada imagen, es decir, un espacio en torno a 8Mb para la presentación del modelo
estereoscópico. Si se emplea un sistema de estereoscopía mediante imágenes
alternantes (gafas pasivas o activas) es necesario contar una velocidad de refresco de
120Hz para crear la sensación de visión estereoscópica en el operador, para lo cual, es
necesario una velocidad de transferencia de 1280x1024x3x120 = 472Mb/s, que sólo
puede ser alcanzada mediante el empleo de sistemas de memoria de alta velocidad
(VRAM).
No obstante, es importante tener en cuenta que el desplazamiento en el modelo en
los sistemas digitales es simplemente una emulación (en realidad, se puede decir, que
es una mala emulación) del desplazamiento de la marca flotante en los sistemas
analógicos o analíticos. Se trata de un problema típico de falta de medios tecnológicos
en la actualidad, por tanto, su solución está condicionada al avance de los medios
básicamente informáticos utilizados.
Uno de los problemas que se plantean en el desplazamiento en el modelo en los
sistemas digitales es la extensión del trabajo, así mientras que en el sistema analítico
sólo es posible la observación simultánea de un modelo en los sistemas digitales no
existen limitaciones en el número de modelos a presentar simultáneamente (salvo las
propias del equipo utilizado, que considerando el avance de los sistemas -cada 18
meses la capacidad de almacenamiento se duplica y el precio se reduce a la mitad-, es
previsible que en un corto plazo de tiempo se almacenen en el disco duro los
proyectos completos), por tanto, la extensión ya no es el modelo sino el proyecto (o al
menos la zona de proyecto a la que se puede acceder directamente -disco duro-).
El objetivo que se plantea es que los modelos una vez orientados se almacenen en
el disco duro, de forma que cuando en el proceso de restitución o revisión cuando se
llegue al límite del modelo el cambio se efectúe de una forma automática.
Dentro de un modelo se pueden distinguir básicamente tres tipos de
desplazamiento (Schenk y Toth, 1997):
1. Desplazamiento lento durante el proceso de restitución o edición. Este
desplazamiento requiere disponer de visión estereoscópica continuada y de una
velocidad en torno a 10 mm/s -los operadores expertos pueden alcanzar velocidades
en torno a 20mm/s- (667 píxeles/s en un fotograma digitalizado a 15 µm/pixel),
realizándose modelo a modelo. Case (1982) plantea que la porción de imagen
presentada en la pantalla debe poder ser cruzada en un tiempo máximo de 2 s en
cualquier dirección, esto implica velocidades desplazamiento de 10mm/s en nuestro
ejemplo. Graham et al. (1997) indican que para el sistema ImageStation Z de ZI
Imaging la velocidad máxima es de 200 píxeles/s, lo que implica una velocidad de 3
mm/s. Otro problema ligado al del desplazamiento es que conforme el cursor se
desplaza es necesario cargar nuevas porciones de imagen. Para que esta carga sea
eficiente es aconsejable el evitar la lectura directa desde el disco duro, optando por
sistemas más rápidos como, por ejemplo, el almacenamiento en memoria de video.
Por este motivo, es aconsejable que la memoria de video instalada sea al menos 4
veces el tamaño del monitor (32 Mb VRAM, en nuestro ejemplo), de forma que se
34  SISTEMAS FOTOGRAMÉTRICOS DIGITALES 

pueda realizar el desplazamiento sin problemas en una distancia dos veces mayor que
la porción de imagen presentada en la pantalla adicional al propio del desplazamiento.
Para que no existan problemas de desplazamiento al alcanzar los límites de la
porción de imagen almacenada en la memoria de video, es necesario que los límites se
vayan actualizando de una forma simultánea al desplazamiento del cursor. Así, si
tomamos como referencia nuestro ejemplo, se dispone de un tiempo de 1 s para el
refresco total, o lo que es lo mismo, se necesitará una velocidad de transferencia de 32
Mb/s desde el disco duro a través del bus del sistema a la memoria de video. El
problema es que los sistemas actuales no ofrecen estas velocidades (el Fast Wide
SCSI-2 permite 20Mb/s, suficiente para el roaming de imágenes en 256 tonos de
gris).
Una posible solución para evitar este problema es dedicar una parte de la memoria
del sistema para almacenar una porción más grande que la almacenada en la memoria
de video (figura 2.12) y realizar la transferencia entre memoria del sistema y memoria
de video, transferencia que es más rápida que la establecida entre disco duro y
memoria de video, técnica conocida como caché y que es frecuentemente empleada
para agilizar los procesos en los sistemas operativos actuales.

b
a

Fig.2.12. Esquema de las diferentes ventanas de almacenamiento en relación con el tamaño de una imagen.
La imagen presentada viene definida por el tamaño del monitor y la resolución de la tarjeta gráfica (a),
en este caso 19.2mmx15.4mm. El desplazamiento en tiempo real sólo es posible es la ventana de memoria
de video (b). La memoria del sistema (c) almacena una porción mayor de la imagen. La trayectoria (d) se
predice en función de los últimos movimientos del cursor (Schenk,1999)

2. Desplazamiento rápido entre zonas del modelo. Este desplazamiento se utiliza


para la selección de zonas utilizando la imagen como guía o apoyo, la velocidad del
desplazamiento va a marcar dos factores claves, por un lado, la resolución de
presentación en pantalla requerida (a mayor velocidad el operador es capaz de captar
menos detalles, por lo que es absurdo presentar las imágenes a su resolución máxima)
y, por otro lado, la necesidad de visión estereoscópica (cuando la velocidad de
desplazamiento supera un cierto límite el operador es incapaz de realizar la fusión de
las imágenes).
FOTOGRAMETRÍA DIGITAL   35 

3. Desplazamiento muy rápido sin presentar las imágenes. Si la velocidad de


desplazamiento supera un determinado límite no tiene sentido la presentación de la
imagen, puesto que el operador no puede interpretarla. Un ejemplo claro de esta
situación sería el desplazamiento automático entre puntos de Von Grüber o bien el
desplazamiento a puntos de coordenadas conocidas.
Este esquema se plantea en función de las necesidades del operador pero es
necesario tener en cuenta las limitaciones propias del sistema, relativas básicamente a
limitaciones de almacenamiento y de velocidades de transferencia de datos.
Si se considera un proyecto tipo de tamaño medio se puede considerar un número
en torno a 300 fotogramas a color de tamaño 23x23cm (12 pasadas con 25 fotogramas
por pasada) digitalizadas a una resolución de 15 µm (16000x16000 píxeles) que cada
uno necesita para su almacenamiento un espacio de 768Mb sin comprimir, que
comprimidos podría ser en torno a 80Mb (considerando una relación de compresión
del 10 a 1 adecuada para imágenes en color, en el caso de ser imágenes en blanco y
negro sería mejor considerar 5 a 1). El espacio requerido para el almacenamiento de
los fotogramas del proyecto sería 300 fotogramas x 80 Gb/imagen= 24Gb, a los que
sería necesario añadir unos 45Mb del MDE considerando 1 punto de la malla cada
milímetro de imagen y los necesarios para almacenar la información vectorial de la
imagen que podría establecerse en torno entre 1 y 5 Gb. Por tanto, son cifras que
pueden almacenarse con una relativa facilidad en el disco duro.
La velocidad de transferencia de la información entre el sistema y el monitor es
función del sistema gráfico empleado. Una característica fundamental del sistema
gráfico es la memoria VideoRAM (VRAM) que posea. Para la presentación de
modelo estereoscópico formado por dos imágenes digitales en un monitor de una
resolución de 1280x1024 con una profundidad de color de 32 bits (24 bits -color real-
y 8 bits de superposición no destructiva) se requiere una memoria de
aproximadamente 10 Mb (1280 píxeles x 1024 píxeles x 4 bytes x 2 imágenes). No
obstante, las tarjetas gráficas pueden incorporar una cantidad de memoria mayor (en
torno a 40Mb) que permite el almacenamiento de una zona mayor de imagen y el
desplazamiento por la misma sin necesidad de acceder al disco duro. La velocidad de
refresco necesaria para la presentación de dicha imagen es 1280 píxeles x 1024
píxeles x 4 bytes x 120 Hz = 629 Mb/s, puesto que sólo se representa una imagen del
par.
En el modo de desplazamiento lento (estereoscópico de digitalización) con una
velocidad de 667 píxeles/s se alcanza el límite de la imagen presentada en un tiempo
aproximado de 2 s, siendo necesario recargar la imagen en la memoria de video a una
velocidad en torno a 10 Mb/s, es decir, el acceso al disco duro debe ser de 1 Mb/s,
puesto que, la imagen se almacena en el mismo comprimida 10 veces. Estas cifras no
suponen ningún problema actualmente con los sistemas de transferencia de datos de
alta velocidad (3 a 5 Mb/s).
En el modo de desplazamiento de navegación (desplazamiento rápido
monoscópico) se elimina la visión estereoscópica y además la resolución se reduce
considerablemente (se puede utiliza un tamaño de píxel de aproximadamente 450 µm
con un tamaño de imagen de 512x512 píxeles). Partiendo del dato de que el cursor
36  SISTEMAS FOTOGRAMÉTRICOS DIGITALES 

puede atravesar la pantalla en 2 s, se alcanzaría el borde de la pasada en


aproximadamente 8 s, es decir, dicha velocidad de desplazamiento permitiría la
presentación de más de 1 imagen/s, velocidad totalmente adecuada.
En el tercer modo de desplazamiento, el desplazamiento muy rápido sin
presentación de las imágenes, se puede considerar que las imágenes se cargan en
tiempo real, puesto que el tiempo necesario para cargar una imagen del proyecto (en
este caso el desplazamiento no se limita dentro del modelo sino dentro del proyecto)
es de 1 s, correspondiente a 4Mb/s de transferencia y 1 Mb de las imágenes
comprimidas (10Mb sin comprimir).
C) Precisión de medida al nivel de subpíxel
Por último, una de las características más importantes de un Sistema
Fotogramétrico Digital es la posibilidad de trabajar con precisión del subpíxel. La
precisión de las medidas realizadas por un operador sobre la imagen dependen de las
características de los elementos a medir (no todos los elementos se identifican con la
misma facilidad sobre la imagen); de la resolución de la imagen (a mayor resolución
tendremos menor tamaño de píxel y la discretización producida por la digitalización
será menos destructiva); y, por último, del tamaño del cursor. El factor clave es el
tamaño del píxel. Una solución directa para mejorar la precisión de medida es utilizar
un mayor número de píxeles de pantalla para representar la imagen. En la
figura 2.13 a) se muestra como se pueden emplear 3x3 píxeles de pantalla para
representar 1 píxel de imagen, con esto se logra que si el error máximo de medida en
el nivel de zoom 1:1 es de 2 píxeles (desviación típica de 0.5 píxeles) se obtenga una
desviación típica en la medida de 0.15 píxeles (0.5x1/3). Este método plantea el
problema que al aumentar el número de píxeles de pantalla por píxel de imagen se
reduce el campo de visión y se dificulta la visión del operador provocando fatiga. La
segunda solución se muestra en la figura 2.13 b) y consiste en que el cursor se
mantiene fijo en el centro de la pantalla y la imagen es la que se desplaza. En este
caso el desplazamiento no necesita ser igual a 1 píxel, pudiendo establecerse
desplazamientos diferenciales a nivel de subpíxel, mediante el remuestreo de la
imagen en tiempo real.

Pixel monitor

Pixel Imagen

Cursor
a b
Fig.2.13. Precisión de medida al nivel de sub-píxel.
a: utilización de zoom positivo (un píxel de imagen se representa en varios píxeles de pantalla 3x3);
b: desplazamiento diferencial de la imagen con respecto a la pantalla (tomada de Schenk, 1999)

El concepto de estación fotogramétrica digital actual sigue los siguientes


principios (Dowman y Upton, 1992; Heipke, 1995; Schenk y Toth, 1992).
ƒ Utilización de hardware y software estándar.
− Sistema operativo estándar (fundamentalmente, Microsoft Windows).
FOTOGRAMETRÍA DIGITAL   37 

− Programación en C y C++ (algunos procedimientos en FORTRAN).


− Acceso a sistemas creados por terceros (VMEbus, SBus).
− Entorno gráfico mediante ventanas (MS Windows, XWindows).
ƒ Utilización de ordenadores de propósito general, potentes y flexibles sin
emplear ningún tipo de hardware especial
− Empleo de sistemas informáticos estándar (COST)
− Trabajo en red para compartir los recursos
− Ampliaciones y extensiones sencillas
− Posibilidad de utilización de software de propósito general
− Soporte de periféricos de entrada y salida para la adquisición de imágenes y
la impresión: disponibilidad de una amplia gama de drivers
− Programación en un lenguaje de alto nivel que permite transferencias entre
diferentes sistemas
− Utilización de herramientas de programación potentes
− Posibilidad de trabajo multiusuario y multitarea
− Sistema de visualización por pantalla rápido y de alta resolución
− Sistema de trabajo en ventanas potente
− Velocidad de procesamiento alta
− Memoria principal y capacidad de disco suficiente y con posibilidades de
ampliación
− Velocidades de transferencia de datos altas
− Precio razonable
ƒ Desarrollo de software modular y flexible
− Software que permitan modificaciones y mejoras de una forma sencilla
− Utilización de formatos de datos comunes
− Interfaz de usuario cómodo basado en un entorno gráfico
− Sistema mixto, es decir, que permite la elaboración de los procesos de una
forma automática, semiautomática y manual

2.2 ESQUEMA DE TRABAJO CON UN SISTEMA FOTOGRAMÉTRICO


DIGITAL
En este apartado se comparan las estaciones fotogramétricas digitales con los
restituidores analíticos desde un punto de vista operativo, es decir, en cuanto a la
resolución de problemas fotogramétricos reales. Esta comparación intenta aclarar los
principios básicos de trabajo de las estaciones digitales; plantear las principales
diferencias entre los sistemas analíticos y digitales en cuanto a la forma de trabajar y
establecer las principales ventajas e inconvenientes de los sistemas digitales frente a
los analíticos. Esta comparación se va a establecer en tres apartados:
1. Preparación del trabajo
2. Procedimientos de orientación
3. Aplicaciones
38  SISTEMAS FOTOGRAMÉTRICOS DIGITALES 

2.2.1 Preparación del trabajo


La fase de preparación comienza con la definición del proyecto, que incluye
información relativa al tamaño del área a cubrir, tolerancias permisibles, escala media
de trabajo, datos derivados del certificado de calibración de la cámara, puntos de
control y parámetros del sistema. Por otro lado, para cada modelo es necesaria cierta
información adicional, como por ejemplo, qué fotogramas lo integran, sistema de
visión (orto o pseudo) y procedimientos de orientación a aplicar. La necesidad y el
tipo de información requerida son similares en ambos casos, analítico-analógico y
digital.
La primera operación que se realiza en un sistema analítico, una vez creadas todas
las bases de datos que recogen la información del proyecto (definición del proyecto)
es la colocación de los fotogramas en las placas. En esta operación comienzan las
diferencias significativas, así en el sistema digital la “colocación” consiste
simplemente en la identificación de los archivos que contienen cada una de las
imágenes. Dependiendo de las características de la estación, básicamente de la
capacidad de almacenamiento en disco y de la memoria RAM, el acceso a la imagen
será directo o requerirá el transferir la imagen desde algún sistema de almacenamiento
masivo (cinta de backup o CD-ROM). Es necesario recordar, que debido al gran
espacio requerido para el almacenamiento de las imágenes y las características de los
equipos actuales, se suele trabajar de una forma simultánea con un número en torno a
unas 50 imágenes.
El último paso dentro de esta etapa preparatoria lo constituye el ajuste de las
condiciones de visualización de los fotogramas. Este ajuste en los sistemas analíticos
se limita básicamente a las condiciones de iluminación, factor de zoom de
observación, tamaño de la marca métrica y sistema de visualización (orto o
pseudoscópico). En los sistemas digitales todas estas funciones están basadas en
procedimientos derivados de las técnicas de análisis digital de imágenes, así es
posible, entre otras, el ajuste de brillo y contraste, el realce de bordes, filtros para la
eliminación de ruido y las transformaciones binarias, si bien debido al gran tamaño de
la imagen estas operaciones no llegan a realizarse en tiempo real. Así por ejemplo,
mientras que la rotación de la imagen mediante la utilización de prismas Dove es muy
simple, en la imagen digital requiere la aplicación del algoritmo de rotación y un
posterior remuestreo, lo cual ralentiza el proceso a la vez que produce una pérdida de
precisión, especialmente si se aplica varias veces sobre las mismas imágenes.
Otras diferencias importantes y ya comentadas en el apartado anterior son las
relativas a la forma y tamaño del cursor así como a las diferencias en cuanto al zoom
y el campo de visión.
2.2.2 Procedimientos de orientación
Una vez que las diapositivas ya están colocadas en las placas (o bien
seleccionados los ficheros que contienen las imágenes que forman los modelos) y el
sistema de visión ha sido ajustado ya puede comenzar el procedimiento de
orientación.
FOTOGRAMETRÍA DIGITAL   39 

a) Orientación interna.
El proceso de orientación interna analítica determina la relación entre los sistemas
de coordenadas placa y fotografía, permitiendo determinar la posición exacta de la
diapositiva en la placa. En la orientación interna de una imagen digital es similar a la
de una fotografía en formato analógico con la única diferencia de que es necesario
introducir los errores derivados del proceso de digitalización. La transformación
relaciona, en este caso, coordenadas píxel y fotocoordenadas.
La característica básica en cuanto al procedimiento de trabajo de la orientación
interna en un sistema analítico es la capacidad del sistema de desplazarse a las
proximidades de la marca fiducial, en función de la información introducida a partir
del certificado de calibración de la cámara. Esta capacidad de desplazamiento también
existe en los sistemas digitales con una importante diferencia, únicamente se desplaza
el cursor o la porción de imagen presentada en la pantalla, lógicamente, no existe
ningún desplazamiento de tipo mecánico.
Otra importante diferencia es que la orientación interna digital puede ser realizada
de una forma automática mediante un simple procedimiento de reconocimiento de
patrones. El sistema rastrea la imagen y es capaz de reconocer la posición de las
marcas fiduciales y calcular las transformaciones correspondientes.
b) Orientación relativa.
El aspecto común en el procedimiento seguido por ambos sistemas es el
desplazamiento automático a los puntos de Von Grüber a fin de eliminar el paralaje y,
de esta forma, realizar el cálculo de la orientación relativa de una forma analítica. La
única diferencia es la posibilidad de encontrar los puntos homólogos de una forma
automática basándose en los procedimientos de correlación de imágenes partiendo de
aproximaciones iniciales en cuanto a la orientación.
Otra importante diferencia entre ambos sistemas es que mientras que en el sistema
analítico, una vez realizada la orientación la obtención de las coordenadas modelo se
realiza en tiempo real, en la mayoría de los equipos digitales es necesaria una etapa
previa de remuestreo epipolar de la imagen, de forma que las filas de la misma sean
paralelas a la base (Cho et al, 1992), al realizar esta transformación aunque se puede
perder precisión debido a la necesidad de un remuestreo (sobre todo si el proceso se
repite varias veces) se consigue una gran mejora en tiempo de cálculo, puesto que, los
puntos homólogos se encuentran en la misma fila.
Por tanto, en un sistema digital la orientación relativa puede ser automatizada de
forma que se convierta en un proceso autónomo (Schenk y Toth, 1991;
Tang y Heipke, 1993). Así de puede plantear un sistema en el que el primer contacto
del usuario con el modelo se realice una vez realizadas las orientaciones interna y
relativa y el modelo ya presente geometría epipolar.
c) Orientación absoluta
Durante el proceso de orientación absoluta se establece la relación entre el espacio
modelo y el espacio objeto. Para ello es necesario disponer de puntos de control que
permitan establecer dicha relación, la identificación de los puntos de control suele ser
40  SISTEMAS FOTOGRAMÉTRICOS DIGITALES 

una tarea compleja, incluso para los operadores humanos, debido a problemas de
identificación, contraste u ocultamiento, por tanto, el reconocimiento automático de
los puntos de control es una tarea que aún está a algunos años de automatizarse, sobre
todo en el caso de fotografías aéreas, si bien existen algunos ensayos de
automatización que han sido llevados incluso a entornos de producción utilizando
puntos preseñalizados o bien localizados en elementos característicos del terreno,
como por ejemplo, cornisas de edificios.
A modo de resumen se incluyen en la Tabla 2.3 las principales diferencias en
cuanto al procedimiento de trabajo relativo a la orientación de los pares en un sistema
analítico y un sistema digital (Schenk, 1995).
Tabla 2.3. Diferencias entre los sistemas analíticos y digitales en cuanto a la orientación de los fotogramas
Sistema Analítico Sistema Digital
Requiere disponer de un laboratorio fotográfico Incorpora procedimientos de análisis de imágenes
para tareas como copias, ampliaciones, para la mejor interpretación de las mismas
reducciones, …
Requiere visor Requiere un sistema estereoscópico de monitor

Marca flotante Cursor 3-D

Rotación del campo de vista por prismas Dove Rotación de la imagen mediante remuestreo
(proceso lento y con pérdida de precisión)
Zoom continuo y rápido El zoom requiere refresco de la pantalla (lento)

Superposición de elementos gráficos requiere La superposición se incorpora por defecto en los


sistemas adicionales de elevado coste sistemas
Desplazamiento libre en el modelo El desplazamiento requiere refresco de la pantalla

Sólo es posible la observación simultánea de 2 Se pueden observar más de 2 fotogramas abriendo


fotogramas más ventanas
La búsqueda de puntos conjugados requiere El procedimiento de stereomatching puede
siempre operador automatizar la identificación de puntos homólogos

2.2.3 Aplicaciones

a) Aerotriangulación
La aerotriangulación es un buen ejemplo para demostrar el potencial de los
sistemas digitales para la automatización del proceso fotogramétrico.
Tradicionalmente, la aerotriangulación comenzaba con la preparación de los
fotogramas realizando la selección de un considerable número de puntos que
aparecieran en tantos fotogramas como fuera posible. Tras esta etapa de preparación,
los puntos seleccionados eran transferidos a todos los fotogramas, dependiendo en
gran medida la calidad de los resultados de la calidad de esta transferencia de puntos.
Sólo después de que los puntos eran transferidos y claramente identificados en todos
los fotogramas era posible comenzar el proceso de medida.
En los sistemas digitales la transferencia de los puntos se realiza de una forma
automática mediante procesos de correlación de imágenes (multiple image matching).
Esta automatización permite aumentar considerablemente el número de puntos
FOTOGRAMETRÍA DIGITAL   41 

utilizados en la aerotriangulación, así se pasa del número típico de 9 a 50, e incluso,


100 puntos por lo que se incrementa considerablemente la robustez de los resultados.
b) Generación automática de MDE
Una de las tareas en las que los sistemas digitales se muestran como más
interesantes es la generación automática de MDE, siendo ésta una de las líneas de
investigación que más esfuerzo ha registrado en los últimos años y que, aunque
siguen persistiendo ciertos problemas (líneas de ruptura de pendiente, oclusiones,
zonas de bajo contraste, …) se pueden considerar los resultados como aceptables.
El procedimiento de trabajo consiste en la generación autónoma (sin intervención
del operador) del MDE. Este MDE posteriormente será revisado y editado por un
operador humano, lo que reduce parcialmente el ahorro, tanto en tiempo como en
dinero, de la generación automática del mismo.
c) Producción de ortofotografías digitales
En los últimos años se ha observado un fuerte incremento en la demanda de
ortofotografías. La generación de ortofotografías se simplifica considerablemente en
el entorno digital, así el MDE empleado para la rectificación diferencial de la imagen
es el derivado automáticamente que se puede considerar como bastante preciso en
especial si se obtiene a partir de fotogramas de pequeña escala y el proceso se limita a
eliminar los posibles desplazamientos debido al relieve y a la inclinación del
fotograma.
Otros productos relacionados directamente y que sólo es posible su obtención en
un entorno digital son las vistas en perspectivas así como las perspectivas animadas.
En la Tabla 2.4 se presenta a modo de resumen una comparativa de los diferentes
procesos y productos fotogramétricos realizados en un sistema fotogramétrico
analítico y un sistema fotogramétrico digital.

2.3 CLASIFICACIÓN DE LOS PROCESOS EN FOTOGRAMETRÍA


DIGITAL

Los diferentes procesos de la Fotogrametría Digital que se presentan en la


figura 2.14 pueden ser divididos en las cuatro categorías que se presentan en la
Tabla 2.5. Esta clasificación se deriva directamente de la que se establece en los
procesos de visión computerizada (Marr, 1982; Ballard y Brown, 1982). En ambos
casos, tanto en la Fotogrametría Digital como en la Visión Automatizada, el objetivo
final es la obtención de descripciones generales a partir de escenas de imágenes,
debiendo ser dichas descripciones ser explicitas y claras. Mediante estas técnicas se
intenta cubrir el gran vacío existente entre la imagen original (representación icónica
de la realidad) y la descripción simbólica de la escena, proceso que evidentemente, se
resuelve mediante la aproximación en varios pasos. Las principales etapas se definen
basándose en el nivel de visión: nivel sistema, nivel bajo, nivel medio y nivel alto.
42  SISTEMAS FOTOGRAMÉTRICOS DIGITALES 

Tabla 2.4. Comparación del procedimiento de trabajo en los sistemas analíticos y digitales (Schenk, 1995)
Sistema analítico Sistema Digital
Esencial Óptimo
Definición proyecto y modelo,... Igual
Insertar fotogramas Identificar ficheros imágenes Acceso > 20 imágenes
Control de visión
Iluminación diapositivas Realce de imágenes
Marca flotante Cursor (tamaño, forma, color)
Zoom individual Zoom individual Zoom suave y progresivo
Prismas Dove Rotación de imágenes
Orientación interna
Desplazamiento automático Desplazamiento automático Procedimiento autónomo
Cálculos analíticos Cálculos analíticos
Orientación relativa
Desplazamiento automático Trabajo monoscópico
Eliminación de paralaje manual Eliminación de paralaje manual Procedimiento autónomo
Cálculos analíticos Cálculo analítico/Remuestreo epipolar Remuestreo en tiempo real
Orientación absoluta
Identificación puntos de control Igual Procedimiento automático
Proceso de medida
Cálculos analíticos Cálculos analíticos
Aerotriangulación
Selección de puntos Igual Automático
Transferencia de puntos Automático Autónomo
Ajuste de bloques Igual
MDE
Introducción características Igual
Digitalización líneas ruptura Igual Automático
Muestreo progresivo Automático Autónomo
Restitución planimétrica
Trazado manual Superposición de elementos Procesos de seguimiento
Superposición opcional automático de líneas

Tabla 2.5. Clasificación de procesos fotogramétricos (Schenk, 1994)


Nivel Procesos/Algoritmos Tareas

Sistema Almacenamiento y visualización de imágenes Manipulación de imágenes digitales

Bajo Procesamiento, identificación de puntos Procesamiento de imágenes,


homólogos y extracción de información Orientación, Ortofotos, MDT,...
Medio Agrupamiento de imágenes Reconstrucción de superficies y figuras

Alto Interpretación de imágenes Reconocimiento de objetos


FOTOGRAMETRÍA DIGITAL   43 

IMÁGENES DIGITALES

Preprocesamiento
Correcciones Radiométricas
Realce del Contrastre

Identificación de puntos
y Orientación Automática
Orientación Interna y Relativa
Remuestreo, Orientación Absoluta

Matching de imágenes
Extracción de
Correlación cruzada, método VLL, información semántica
Mínimos cuadrados, mm.cc. adaptativo
Extracción de elementos,
punto multiple, programación dinámica Análisis Imágenes, Análisis Geométrico
Matching en espacio objeto

RESULTADOS PRELIMINARES

Comprobación de Resultados
Postprocesamiento
Filtrado de MDE,
Edición interactiva

RESULTADOS FINALES

Fig.2.14. Procesos en un Sistema Fotogramétrico Digital

2.3.1 Nivel sistema


Las funciones básicas de un sistema fotogramétrico digital deben proporcionar la
manipulación de las imágenes digitales. El sistema debe ser capaz de adquirir la
imagen tanto a partir de sus propios medios de adquisición (digitalizadoras o
conexiones a cámaras digitales) como mediante la importación de imágenes
adquiridas con medios ajenos, mediante la lectura de cintas u otro sistema de
almacenamiento informático. La información debe ser almacenada en forma de
proyectos que permitan una fácil creación, gestión, almacenamiento y recuperación.
Además, el sistema debe incorporar la posibilidad de conexión a los sistemas de
información más importantes, para el posterior análisis de la información extraída de
las imágenes. Las imágenes y la información vectorial deben ser mostradas de una
forma superpuesta utilizando sistemas de visión estereoscópica.
44  SISTEMAS FOTOGRAMÉTRICOS DIGITALES 

2.3.2 Nivel bajo


Este nivel representa las funciones mínimas que tienen las estaciones de trabajo de
fotogrametría digital (softcopy workstations).
Los procesos básicos que se incluyen dentro de este nivel son el preprocesamiento
de la imagen y la identificación de elementos homólogos (image matching).
Los tratamientos que se encuadran dentro del preprocesamiento de la imagen,
incluyen las técnicas clásicas de realce de imágenes tales como, expansión del
histograma (contrast stretching), filtrado, …, con el objetivo de mejorar la calidad
visual de la imagen y facilitar de esta forma su interpretación. Además, se incorporan
las técnicas de mejora radiométrica de la imagen a objeto de compensar las
diferencias de tono en los fotogramas que forman el modelo.
Las técnicas de matching de imágenes son la base de diversas tareas del proceso
fotogramétrico digital. Así son utilizadas, por ejemplo, en las técnicas de orientación,
en los procesos de identificación de puntos de paso en aerotriangulación y en la
elaboración de los modelos digitales al permitir la identificación de puntos homólogos
en las diferentes imágenes. Estas técnicas (que serán analizadas en detalle en el
capítulo 6) han surgido en la última década, como fruto del enorme esfuerzo
investigador en dicha línea, pudiendo distinguirse como métodos básicos:
− Correlación Cruzada
− Matching de mínimos cuadrados (Pertl y Ackermann,1982), que alcanza buenos
resultados necesitando unas aproximaciones iniciales adecuadas para lograr la
convergencia del sistema y la estabilidad de las soluciones.
− Correlación adaptativa de mínimos cuadrados (Gruen,1985), que permite la
realización del proceso de matching con múltiples imágenes.
− Método VLL (vertical line locus) (Bethel,1986) basado en la correlación
cruzada.
− Programación dinámica (Benard,1987; Koelbl et al.,1987; Li,1990) que es un
método basado en la fusión de bordes, reduciendo considerablemente el tiempo
de cálculo.
− Matching en el espacio objeto (Wrobel, 1987; Ebner y Heipke, 1988;
Helava, 1988; Heipke, 1990).

2.3.3 Nivel medio


Como se indica en la Tabla 2.5, las tareas relacionadas con el nivel medio son la
reconstrucción de superficies y figuras. Con la reconstrucción de superficies a
diferencia de la generación de MDT, no se pretende la representación del objeto de
una forma precisa y con una densa información sino de una forma tan explícita como
sea posible, así en lugar de trabajar con una nube de puntos situados en el espacio 3D,
se pretende fragmentar la superficie en segmentos continuos, que están relacionadas
con las superficies de los objetos.
Este tipo de procesos son los que consumen más tiempo en el proceso
fotogramétrico, y aunque la metodología digital plantea la automatización de la
extracción de elementos, en la actualidad sólo existen sistemas semiautomáticos
FOTOGRAMETRÍA DIGITAL   45 

(Förstner, 1990), que incluyen algoritmos como, por ejemplo, el seguimiento de


líneas.
Dichos procedimientos pertenecen a la organización perceptual. Por esta
denominación se entiende la capacidad de los humanos y de animales de detectar
estructuras relevantes en los objetos que con la información de entrada para el
reconocimiento de formas y la interpretación de la imagen.

2.3.4 Nivel alto


Para que una persona responda adecuadamente a los estímulos recibidos en los
órganos de la visión es necesario que exista una etapa de análisis, interpretación y
comprensión de los mismos. Este proceso es el que se debe seguir en una visión
automatizada de un robot o un vehículo autónomo. En Fotogrametría Digital, un
aspecto fundamental lo constituye el reconocimiento y la localización de formas
mientras que la interpretación de la imagen queda en un segundo lugar. Las etapas
interpretativas de análisis de la información y de sus interrelaciones suelen ser en la
mayor parte de los casos gestionadas mediante un SIG.
Teniendo en cuenta los principios anteriores las funciones que debe desarrollan un
sistema en una configuración completa son:
− Entrada de datos: Adquisición de la imagen (digitalización y escáner) mediante
el empleo de cámaras CCD y escáneres. Calibración geométrica y radiométrica
de los sensores CCD. Importación de información desde bases de datos.
− Manipulación de imágenes y visualización: Transformaciones geométricas,
desplazamientos dentro de la imagen, ampliaciones. Visualización mono y
estereoscópica de las imágenes.
− Procesamiento de la imagen: Reducción de ruido, realce de la imagen (mejora
de contraste y de bordes) y operaciones de preselección, algebraicas y lógicas.
Transformaciones binarias de la imagen.
− Análisis de la imagen y medida: Medida manual de las coordenadas de los
píxeles y de los valores de gris. Determinación de elementos 2D y 3D mediante
diferentes algoritmos de identificación de puntos homólogos (semiautomáticos
o automáticos), extracción de elementos, seguimiento de líneas, procedimientos
de segmentación y agrupamiento, ….
− Orientación, calibración y posicionamiento de puntos.
− Generación de MDT. Algoritmos de interpolación, derivación de mallas
regulares, líneas de nivel, perfiles.
− Edición de MDT. Verificación, detección de bordes y rupturas, …
− Generación de ortofotografías. Rectificación diferencial. Ortofotos de imágenes
con geometría perspectiva o matriz lineal.
− Edición de ortofotografías. Mosaicos, correcciones, edición de píxeles y
regiones de la imagen de una forma individual.
− Control de calidad. Comprobación manual y edición de ortofotografias y
productos en visualización mono y estereoscópica.
− Gráficos vectoriales. Generación de símbolos, anotaciones, contornos, mapas de
malla, leyendas, trazado y relleno de polígonos, … .
46  SISTEMAS FOTOGRAMÉTRICOS DIGITALES 

− Conversiones raster-vector y vector-raster.


− Visualización. Modelos de alambre 3D, modelización, integración de
información raster y vector (mapas existentes,…), superposición de capas raster
a los modelos de alambre, edición de colores, animación.
− Salidas: Rutinas de trazado gráfico. Salida en película de alta calidad.
Exportación a bases de datos.
Una de las ventajas fundamentales de los sistemas fotogramétricos digitales es que
pueden ser configurados en función de las propias necesidades del usuario gracias a
su diseño modular. En la figura 2.15 se muestran dos posibles ejemplos de
configuraciones para un equipo de gama baja y otro de gama media.

MANIPULACION ORIENTACION,
ENTRADA ANALISIS DE
Y CALIBRACION Y
DE VISUALIZACION IMAGENES Y POSICIONAMIENTO
DATOS MEDIDAS
IMAGEN DEL PUNTO

CONTROL
PROCESAMIENTO GENERACION EDICION
DE
IMAGEN MDT MDT CALIDAD

GENERACIÓN EDICION GRAFICOS CONVERSION


DE DE VECTORIALES RASTER/VECTOR
ORTOFOTOS ORTOFOTOS INTERACTIVOS VECTOR/RASTER

SALIDA INTERFAZ
VISUALIZACIÓN DE DE USUARIO
RESULTADOS GRAFICO

CONFIGURACION MINIMA EXTENSIONES PARA CONFIGURACION MEDIA

Fig.2.15. Funciones que debe incluir un restituidor digital de gama baja y media

2.4 ANÁLISIS DE RENTABILIDAD DE UNA ESTACIÓN


FOTOGRAMÉTRICA DIGITAL (DPW)
Tal y como indica Saleh (2000) la evaluación de la rentabilidad de un sistema
fotogramétrico digital no es una tarea sencilla, debido a la gran cantidad de variables
que es necesario considerar. Para obtener el coste por hora de una estación, deben
conocerse varios parámetros. El primero es el coste del sistema fotogramétrico digital.
En la actualidad el mercado está saturado de equipos con diferentes características en
cuanto a prestaciones y, evidentemente también en coste. El precio de estos equipos
oscila entre 40.000 y 100.000€, precio bastante interesante si se compara al precio
actual de un restituidor analítico que puede oscilar entre 80.000 y 120.000€. El coste
FOTOGRAMETRÍA DIGITAL   47 

aproximado inicial de estos sistemas se resume en la Tabla 2.6, en la que también se


indica el coste anual equivalente (C.A.E.) considerando un periodo de depreciación de
5 años. El tiempo de depreciación es uno de los factores críticos en la determinación
del coste de la estación debido a la rápida evolución de la tecnología informática este
periodo podría ser incluso menor (3 ó 4 años, Foley, 1993). Así teniendo en cuenta la
situación actual del mercado, en tan sólo seis meses el equipo puede quedarse
anticuado, y su precio haber descendido al 50% del coste original. Es importante, no
obstante tener en cuenta, que no todos los componentes del sistema de devalúan de
igual forma, y algunos elementos como por ejemplo, memorias RAM, monitores de
gran formato, … se deprecian a un ritmo mucho menor.

Tabla 2.6. Coste inicial y coste anual equivalente (€)


Sistema Coste inicial C.A.E. Coste hora (1 turno) Coste hora (2 turnos)

Digital básico 48.000 23.350 12,17 6,08

Digital de gama alta 96.000 40.000 20,85 10,42

Analítico básico 85.000 33.320 17,36 8,68

Analítico de gama alta 120.000 46.700 24,34 12,17

Un aspecto muy importante para establecer el análisis de la rentabilidad es


considerar el precio del sistema en función del volumen de producto obtenido (¿qué
obtengo por lo que pago?), no existiendo una relación directa entre el precio de
compra del equipo y las posibilidades del mismo. Este hecho es consecuencia de la
fuerte competencia entre los diferentes sistemas comercializados, produciéndose una
situación muy saludable tanto en lo relativo a precios como de desarrollo tecnológico.
La selección de la estación de trabajo debe ser realizada cuidadosamente atendiendo
básicamente a los productos que deseemos obtener de ella (cartografías a pequeña o
gran escala, MDT, ortofotografías, …) lo que permite al comprador descontar
aquellas capacidades menos relevantes, puesto que existen muchas funciones que
quizá no sean empleadas con asiduidad y que recargan considerablemente el precio
final del equipo. En el Anexo 2.1 muestra a modo de resumen los equipos más
frecuentes indicando las posibilidades de trabajo y las características del sistema
informático.
Otro factor clave va a ser el nivel de facturación del sistema. El esquema de
precios comprende el proceso total desde la adquisición de los fotogramas hasta la
publicación final del mapa, existiendo diferentes opciones en cuanto a la adquisición
de la imagen y el control (panelado artificial o puntos naturales). Para estandarizar los
costes, las mismas opciones deben ser utilizadas en ambos estimados, lo cual lleva a
la adquisición de imágenes con la opción B, y control con paneles. En resumen, una
cifra en torno a 800€/modelo (sin panelado) se podría considerar una cifra aceptable
(Thorpe, 1991). En base a esta cifra y teniendo en cuenta que se requieren entre 8 y 16
horas para completar el proceso completo, resultaría un coste horario entre 100 y 50€.
48  SISTEMAS FOTOGRAMÉTRICOS DIGITALES 

A la vista de las cifras anteriores, el coste por hora de la estación sería


aproximadamente de 8€, considerando una amortización a tres años. Dicha cifra
representa aproximadamente el 10% del coste total de la producción, teniendo en
cuenta la necesidad de otros costes no considerados de carácter tangible e intangible.
Así una relación en torno al 30% se podría considerar como límite superior
aconsejable para el coste de sistema.
Tabla 2.7. Modelos de estimación de costes (Saleh et al, 1994)
Tarea Estimación de Spradley(1) Estimación de Saleh-Scarpace(2)
Adquisición de la imagen
Opción A: Avión y Lab.propios
Fotografía 300 No aplicable
Digitalización 18 x 2 = 36 ---
Total 336(3) ---
Opción B: Compra
Fotografía 15 x 2 = 30 22.5 x 2 = 45
Digitalización 18 x 2 = 36 18 x 2 = 36
Total 66 81
Control
con panelado 600(3) 600(3)
sin panelado 300 300
Triangulación 22.5 x 2 = 45 18.8 x 2 = 37.6
Modelo Digital de Terreno 300 300
Ortorrectificación 75 38
Edición final 100 75
TOTAL 841 831.6
(1)
Modelo de Spradley (1994)
(2)
Modelo de Saleh-Scarpace desarrollado en el Laboratorio de Fotogrametría Digital en la Universidad de
Wisconsin-Madison
(3)
Esta opción no es utilizada

2.5 CLASIFICACIÓN DE LAS ESTACIONES FOTOGRAMÉTRICAS


DIGITALES
A pesar de la corta historia de las Estaciones Fotogramétricas Digitales existen
diferentes clasificaciones. Así, por ejemplo, Walker (1996) plantea una clasificación
compuesta por cinco clases en función de su funcionalidad, de forma que en la
categoría superior se encuentran las estaciones con una funcionalidad completa
mientras que en el nivel inferior se encuentran las estaciones con capacidades
limitadas. Dowman (1991) propone las categorías siguientes:
a) Rendimiento y funcionalidad de un restituidor analítico pero con extracción
automática de elementos.
b) Rendimiento y funcionalidad de un restituidor analítico pero con sistema de
extracción de elementos asistido por un sistema informático.
c) Sistemas diseñados para aplicaciones específicas con rendimientos muy
elevados pero con funcionalidad limitada.
d) Rendimiento y funcionalidad limitada, pero coste bajo.
Los productos que se pueden obtener de las estaciones fotogramétricas digitales
son un buen criterio para la clasificación de las estaciones (Heipke, 1995), si bien es
FOTOGRAMETRÍA DIGITAL   49 

necesario tener en cuenta que esta clasificación está un poco desfasada debido a que
la concepción modular de los sistemas permiten la configuración en función de las
necesidades y que no existan estaciones específicas para cada función:
a) Estación Estéreo
b) Estación Mono
c) Estación de Aerotriangulación
d) Estación de generación de MDT
e) Estación de generación de Ortofotografías
a) Estaciones Estéreo.
Estos equipos se utilizan para la restitución facilitada por la visión estereoscópica
que proporcionan. Dentro de este grupo se pueden distinguir entre sistemas de alto
rendimiento y de bajo rendimiento. Los primeros permiten la generación de todo el
abanico de productos fotogramétricos (aerotriangulación, MDT, ortoimágenes, …) y
son la lógica evolución de los equipos analíticos. Las operaciones de medida de
coordenadas de la imagen se realizan mediante un cursor que está localizado en el
centro de la pantalla, mientras que las imágenes se desplazan mediante la acción del
operador en un ratón 3D. Ejemplos de este tipo son:
− Autometric Softplotter (http://www.ismcorp.com, 2003)
− BAE Systems SOCET SET (http://www.baesystems.com, 2003)
− DAT EM SummitPC (http://www.datem.com, 2003)
− Leica Erdas Imagine OrthoMAX (http://www.erdas.com, 2003)
− Leica LPS (http://www.lh-systems.com, 2003)
− VirtuoZo (http://www.virtuozo.com, 2003)
− Z/I ImageStation (http://www.ziimaging, 2003) e
Los sistemas de bajo coste son más económicos, suelen incorporar menor número
de funciones que los equipos de gama alta o bien se trata de sistemas cuyo nivel de
evolución es más limitado. Dentro de este subtipo se podrían incluir los siguientes
equipos:
− Digi3D (http://www.digi21.net, 2003)
− DVP Digital Video Plotter (http://dvp.ca, 2003)
− R-Wel DMS (http://www.rwel.com, 2003)
− PhoTopol (http://www.topol.cz, 2003)
b) Estaciones Mono.
Estos equipos se utilizan para la extracción de información planimétrica a partir de
ortoimágenes en formato digital, utilizándose como información auxiliar el modelo
digital de terreno con el que fue creada la ortoimagen. La información 3D será
obtenida evidentemente a partir de dicho modelo al carecer el sistema de visión
estereoscópica. Por tanto, la precisión de los resultados está relacionada con la
precisión del MDT empleado para la creación de la ortofotografía y de la
identificación de los elementos que en visión monoscópica es más compleja que
utilizando la estereoscopia. Las principales aplicaciones de los equipos mono están en
trabajos en los que se requiere una menor precisión. Algunos de estos sistemas
incluyen software para la orientación de la imagen, generación de MDT y producción
50  SISTEMAS FOTOGRAMÉTRICOS DIGITALES 

de ortoimágenes. En la mayoría de los casos los sistemas de esta clase son los mismos
que los incluidos en la clase anterior pero sin incorporar los sistemas de visualización
estereoscópica.
c) Estaciones para la Aerotriangulación.
Actualmente este tipo de estaciones no se comercializan, aunque en numerosas
empresas se dispone actualmente de sistemas estándar empleadas para
aerotriangulación digital, dotadas del software específico y de sistemas de
visualización en estéreo. Su utilización se basaba en la obtención de los parámetros de
la orientación externa mediante la medida de las coordenadas de los puntos
homólogos en diferentes imágenes y la realización del ajuste de los bloques. La
transferencia de puntos es realizada automáticamente bajo la supervisión de un
operador, que puede ver de una forma simultánea las imágenes en la pantalla, una en
cada ventana. El único sistema comercializado fue la Helava-Leica Digital
Photogrammetric Workstation 100 (Miller et al., 1992).
Actualmente, se comercializan varios sistemas informáticos dedicados
exclusivamente a la aerotriangulación, que se pueden adquirir como módulos
independientes para interconectarlos a nuestro sistema fotogramétrico digital, entre
ellos, destacan el sistema Match-AT de Inpho GmbH, bien conocido al ser el motor
de los antiguos sistemas de aerotriangulación que incorporaban los sistemas de Z/I
Imaging (hasta el año 2001).
d) Estaciones para la obtención de MDT.
El objetivo de estas estaciones es exclusivamente la extracción automática del
MDT a partir de imágenes estereoscópicas. Algunos equipos incorporan software para
la orientación de imágenes y un programa de MDT, necesitando algunos la
realización de una transformación epipolar como paso previo para la obtención del
modelo y algunos están especializados para la utilización de imágenes de pequeña
escala y/o sensores especiales. Existe una amplia gama de posibilidades de
verificación y edición de los modelos obtenidos, así como de niveles de precisión.
Dentro de este grupo se puede señalar el sistema Inpho Match-T.
e) Estaciones para la obtención de ortoimágenes.
En estos equipos se lleva a cabo la ortoproyección digital. La mayoría de los
equipos incluyen software para la obtención de mosaicos y ortoimágenes y tienen
conexiones para realizar las entradas y salidas mediante escáneres y trazadores
gráficos. Además es importante tener en cuenta que la mayoría de los programas
dedicados a la teledetección (ER-Mapper, ENVI, ...) incorporan en la actualidad
módulos para la generación de ortofotografías y mosaicos.
En el anexo 2.1 se presenta para una relación de los equipos más conocidos a nivel
mundial, incluyendo referencias bibliográficas sobre los mismos. Evidentemente ésta
no pretende ser una lista exhaustiva, lo que sería casi imposible debido a la rápida
evolución del mercado, por lo que se aconseja para obtener la información más
actualizada la consulta por parte del lector de las páginas web de las diferentes
empresas.
FOTOGRAMETRÍA DIGITAL   51 

ANEXO 2.1. EJEMPLOS DE SISTEMAS FOTOGRAMÉTRICOS


DIGITALES
En este anexo se recoge información relativa a los sistemas fotogramétricos
digitales más frecuentes en el mercado. Es importante tener en cuenta que el auge del
sector y las características propias del mismo han dado lugar a una gran proliferación
de sistemas así como a grandes cambios en los mismos, gracias a la implementación
de nuevas técnicas y procesos derivadas de la investigación, por tanto, el objetivo de
este anexo es presentar la situación actual en el momento de la redacción de este libro
y se recomienda al lector el contacto directo con las páginas de Internet de las casas
comerciales que a continuación se detallan:
Autometric http://www.autometric.com
BAE Systems http://www.baesystems.com
DAT/EM http://www.datem.com
Digi3D http://www.digi21.net
DVP-GSI Inc. http://www.dvp.ca
ERDAS http://www.gis.leica-geosystems.com
Inpho http://www.inpho.de
ISM http://www.ismcorp.com
Leica Geosystems http://www.gis.leica-geosystems.com
R-Wel Inc. http://www.rwel.com
TopoL http://www.topol.cz
VirtuoZo http://www.virtuozo.com
Z/I Imaging http://www.ziimaging.com

1. BAE Systems SOCET SET®


El desarrollo de este sistema se remonta a los inicios de la década de los 80, en la
que la empresa Helava Associates (fundada por U.V.Helava, inventor del restituidor
analítico) fue subcontratada por General Dynamics para participar en un contrato
financiado por la U.S.Defense Mapping Agency (Servicio Cartográfico del Ejército
norteamericano) para el desarrollo de sistemas fotogramétricos digitales. Con
posterioridad este sistema fue trasladado al mercado civil dando lugar en 1990, al
primer sistema comercial de Helava bajo plataforma UNIX (Sun OS).
Se trata de un sistema que ha alcanzado una gran difusión como consecuencia de
que ha sido distribuido por la empresa Leica Geosystems (previamente, por Helava
Associates y LH Systems) en el mercado civil, de forma que es uno de los sistemas
con un mayor de equipos instalados. En la actualidad, tras la reciente ruptura del
acuerdo de comercialización entre la empresa de desarrollo (BAE Systems) y la
empresa comercializadora (Leica Geosystems) que ha tenido lugar en el verano de
2003, la comercialización se realiza a través de la empresa BAE Systems Mission
Solutions que ya se encargaba previamente de la comercialización de algunas
aplicaciones desarrolladas con fines militares.
El sistema SOCET SET® (SOftCopy Exploitation Tools) (figura A2.1) es un
sistema de tipo modular, de forma que los clientes pueden configurar su sistema en
función de sus necesidades o posibilidades, incluyendo todas las fases del proceso
52  SISTEMAS FOTOGRAMÉTRICOS DIGITALES 

fotogramétrico desde la importación de las imágenes hasta la generación de productos


finales pensado para integrarse en un sistema de producción cartográfica (figura
A2.2).

Figura A2.1. Sistema SOCET SET® Versión 4.2.


Sup: Versión Sun equipado con gafas pasivas y manivelas; Inf izq: Versión Windows NT equipado con
gafas activas; Inf.der.: Detalle del ratón 3D (LH Systems, 2000)

Sistemas de Navegación
ASCOT, Flykin Suite+
Película (RC30)
Cámaras digitales
Sensores Digitales Aereos

Imágenes Satélite
Escáner Fotogramétrico
Analógicas Digitales
Estereóscopos ST4,TSP1 DSW500
Transferidor de puntos PUG4 SCAN
DODGER
Sistemas Analíticos Estación Fotogramétrica Digital
SD2000/3000 SOCET SET
COLORISS DODGER
ORIMA
Sistemas SIG y Teledetección
ORIMA
PRO600/Microstation Geo PRO600/Microstation G

Prod uctos de salida (salida impresa, soporte magnético, CD, DVD, Internet)
Fotog rafía aérea, Imagen Digital, Datos Vectori ales, Bases de Datos SIG, MDE, Ortofotos, Perspectivas y Animaciones

Figura A2.2. El sistema SOCET SET® en el entorno de producción


cartográfica fotogramétrica (LH Systems, 2000)

Las principales aplicaciones fotogramétricas que permite son:


− visualización estereoscópica
− triangulación automática
FOTOGRAMETRÍA DIGITAL   53 

− generación automática de modelos digitales de elevaciones


− captura de elementos 2D o 3D
− producción de ortofotografías y mosaicos
− fotointerpretación
− realidad virtual
− medidas en fotogrametría de rango cercano e industrial
Los principales productos que puede producir son:
− modelos digitales del terreno
− mapas de curvas de nivel
− información vectorial (puntos, líneas, polígonos, edificios, atributos, …)
− ortofotografías y mosaicos
− ortofotomapas
− perspectivas y animaciones
El sistema se estructura según los siguientes módulos (figura A2.3):
CORE Módulo fotogramétrico básico

STEREO Visualización estereoscópica

LANDSAT CIB
ERS IRS
SPOT CADRG Importación/E xportación imágenes
SIR-C RADARSAT y modelos de sensores
JERS Ikonos
QuickBird ...

Automatic Point Measurement

MultiSensor Triangulation Orientación y triangulación


de imágenes
MODEL SETUP

CONVERT

Automatic Terrain Extraction


Modelos Digitales de Terreno (MDT)
Interactive Terrain Extraction

FEATURE Interfaz ESRI-SDE Captura y edición de elementos DEVKIT Herramientas de desarrollo


MC&G
RAPIDSCENE Interfaz
DODGER OPENFLIGHT Interfaz Salida de datos para la
visualización y simulación
LAYER MOSAIC TOPSCENE Interfaz

TRUE ORTHO OPENINVENTOR Interfaz

IMAGE MAP
LAMPS2
ORTHO-MOSAIC
Productos CAPTURE NT
DOQ
Geocity Conexiones con otros
PSP
programas desarrollados por terceros
XMAP
LOS
VrOne
EasyCopy EasyConvert
EasyCapture) otros

Figura A2.3. Estructura de módulos del Sistema SOCET SET® Versión 4.2 (LH Systems, 2000)

CORE: Es el módulo básico del sistema SOCET SET®. Este módulo permite la
importación y la exportación de la mayoría de los formatos de imagen, así como el
tratamiento previo de las mismas (ajuste de histograma, filtrados, brillo/contraste, …)
54  SISTEMAS FOTOGRAMÉTRICOS DIGITALES 

y la definición del proyecto (sistema de coordenadas y proyección). Asimismo,


mediante este módulo se realiza la orientación interna automática o interactiva de las
imágenes así como el remuestreo epipolar en tiempo real.
Importación de imágenes: Además de los formatos de imágenes cómunes, el sistema
permite la importación de las imágenes de diferentes sensores (incorporando los
modelos necesarios para su orientación y tratamiento). Las imágenes que pueden ser
tratadas son: LANDSAT, SPOT, JERS, IRS, RADARSAT, ERS, SIR-C, CIB,
CADRG, Ikonos, Quickbird, ... .
STEREO: Es el módulo de observación estereoscópica del sistema. La observación
estereoscópica puede ser realizada mediante gafas activas o pasivas, incluyendo
roaming.
Multi-Sensor Triangulation: Es el módulo de ajuste de bloque y análisis de la
triangulación que permite la definición del bloque, el análisis numérico y gráfico de
errores. Incluye la posibilidad de la introducción de información GPS en vuelo así
como la resolución mediante DLT, rectificación polinómica o ajuste simultáneo, para
los diversos modelos de sensores implementados en el sistema. El cliente puede optar
por un módulo de coste y prestaciones reducidas (MODEL SETUP) limitado a 1 ó 2
imágenes.
Automatic Point Measurement: Es el módulo de medida automática de puntos de
paso, según una configuración definida por el operador, permitiendo igualmente la
transferencia de puntos de control entre las diferentes imágenes.
CONVERT (sólo en versión Sun): Importación y exportación de los datos de
orientación entre los siguientes sistemas: SOCET/SET, SD2000/3000, DSR, AC1, BC
x, S9-AP, Wehrli Alpha 2000, Carl Zeiss P-Series e instrumentos analógicos.
Automatic Terrain Extraction: Este módulo permite la generación completa de MDE
mediante el método de identificación automática (matching) entre dos o varias
imágenes. El usuario selecciona los parámetros del modelo (límite, espaciado,
estructura, …) y puede introducir las líneas de ruptura antes o después de la
generación. Incorpora herramientas para el filtrado de obstáculos (edificios, árboles,
…) así como la detección automática de líneas de ruptura.
Interactive Terrain Extraction: Este módulo se utiliza para la edición/captura del
MDE. ITE permite la superposición del MDE extraído sobre las imágenes en formato
de puntos, mallas o curvas de nivel, incorporando un gran número de herramientas
para su edición, permitiendo también la generación de mapas de sombras.
FEATURE: Permite la extracción y edición de elementos 3D de la imagen (puntos,
líneas, polígonos, polilíneas, volúmenes) incluyendo herramientas para la obtención
de medidas (longitudes, áreas, perímetros, anchura, ...). Incorpora herramientas de
asistencia a la restitución como el posado automático en el terreno y la extracción
semiautomática de elementos como lagos, edificios, vegetación, … y de operaciones
lógicas simples de bases de datos. Incorpora interfaces de conexión con ESRI/SDE
(ArcInfo v.8) y con NIMA OMNIBUS.
FOTOGRAMETRÍA DIGITAL   55 

DODGER: Módulo de ajuste automático (balanceo) de diferencias radiométricas entre


las imágenes de forma que se mejora la calidad de los mosaicos finales. Permite la
eliminación de los puntos calientes (hot spots), diferencias de iluminación, ...
TRUE ORTHO: Elimina el desplazamiento debido al relieve que se produce en
edificios y elementos a diferente nivel (puentes, …). Así mismo permite la generación
de modelos estereoscópicos artificiales con el factor de exageración del relieve
deseado por el usuario.
ORTHO-MOSAIC: Generación de mosaicos de ortofotografías a partir de una o
varias imágenes, sin necesidad de la creación de las ortofotografías intermedias,
siendo necesario únicamente definir el área, tamaño de píxel y los algoritmos,
realizando de una forma automática el empalme y el ajuste radiométrico. Asimismo
permite la comparación de imágenes generadas en diferente momento (detección de
cambios) y la fusión de imágenes de diferente resolución.
LAYER-MOSAIC: Creación de mosaicos a partir de ortofotografías individuales,
permitiendo la definición de las líneas de empalme de una forma manual.
IMAGE MAP: Creación de ortofotomapas a partir de imágenes (bruta,
ortofotografías, mosaicos), permitiendo la superposición de elementos vectoriales
obtenidos a partir de PRO600 o FEATURE y la generación de la hoja final
incluyendo la información marginal.
DOQ: Generación de Digital Ortho Quads de acuerdo con las especificaciones del
USGS.
PSP: Creación de perspectivas fotorrealísticas mediante la superposición del modelo
digital de elevaciones y las imágenes, permitiendo la generación de animaciones en
función de una ruta definida por el operador.
LOS: Análisis de visibilidad a partir de un punto de vista definido por el usuario.
EasyCopy: Modulo de conversión de formatos de imágenes así como de generación
de captura de pantallas.
DEVKIT: Librerías y documentación para la creación de módulos que permite la
lectura y escritura de ficheros SOCET SET, así como la implementación de nuevos
métodos y aplicaciones.
Interfaces con otros sistemas: El sistema incorpora interfaces con diversos sistemas
desarrollados por otras empresas como, por ejemplo, RAPIDSCENE (generación de
perspectivas fotorrealísticas), TOPSCENE (importación y exportación de imágenes,
elementos y MDE con el sistema del Ministerio de Defensa de los Estados Unidos de
América), OPENFLIGHT (interfaz de intercambio con el formato del sistema de
renderización industrial Openflight), OPENINVENTOR (interfaz con
OPENINVENTOR, que es una extensión de OPENFLIGHT), LAMPS2 (interfaz con
el SIG y el sistema cartográfico desarrollado por Laser-Scan), Geocity (interfaz con el
sistema de información geográfica francesa desarrollado por Syseca), VrOne (interfaz
con el sistema fotogramétrico desarrollado por la empresa norteaméricana 3Di, LLC),
CaptureNT (captura y edición de elementos en entorno AutoCAD desarrollado por
56  SISTEMAS FOTOGRAMÉTRICOS DIGITALES 

DAT/EM Systems Int.), XMAP (sistema de captura de elementos diseñado por la


empresa suiza Aviosoft).
Requerimientos del sistema
El sistema se comercializa actualmente en dos versiones: Microsoft Windows y
Sun Microsystems/Solaris (UNIX).
Versión Microsoft Windows (NT/2000/XP Professional):
− Para los sistemas estereoscópicos con roaming se recomienda un sistema con
doble procesador, mientras que para los sistemas sin roaming o para los
sistemas monoscópicos es suficiente con una sistema monoprocesador.
− Memoria mínima 256Mb RAM (aconsejable 512 Mb)
− Lector CD-ROM
− Visión monoscópica:
Tarjeta gráfica de 24 bits (AGP o PCI)
Monitor de alta resolución de tamaño mínimo 19"
− Visión estereoscópica
Tarjeta gráfica Oxygen Wildcat 6120 (roaming) para 1 ó 2 monitores
Tarjeta con doble salida para visualización sin roaming
Monitor de alta resolución de tamaño mínimo 19"
Sistema activo: CrystalEyes
Sistema pasivo: Stereographics Z2000i Screen y gafas pasivas
− Tarjeta de red 10/100
− Discos de almacenamiento de alta velocidad SCSI
− Sistema de desplazamiento mediante ratón 3D, trackball o manivelas y pedales

Versión Sun Microsystems Solaris


− Sistema Ultra 60
− Velocidad de proceso 333 MHz o mayor
− Memoria mínima 256Mb RAM (aconsejable 512 Mb)
− Lector CD-ROM
− Visión monoscópica:
Tarjeta gráfica de 24 bits (PGX)
Monitor de alta resolución de tamaño mínimo 19"
− Visión estereoscópica
Tarjeta gráfica adicional Creaton 3D o Elite 3D/6M para monitor estéreo
Monitor de alta resolución de tamaño mínimo 19"
Sistema activo: CrystalEyes
Sistema pasivo: Stereographics Z2000i Screen y gafas pasivas
− Tarjeta de red 10/100
− Sistema de almacenamiento masivo tipo DLT o cinta de 8mm
− Discos de almacenamiento de alta velocidad SCSI
− Sistema de desplazamiento mediante ratón 3D, trackball o manivelas y pedales
FOTOGRAMETRÍA DIGITAL   57 

2. Sistema Leica Photogrammetric Suite (LPS)


Se trata del nuevo sistema desarrollado por la empresa Leica tras su ruptura del
acuerdo de comercialización de SOCET SET con BAE Systems. Este sistema
pretende iniciar su comercialización a finales del año 2003 y se plantea como un
sistema integral que permita la obtención de todo el abanico de productos
fotogramétricos.
Aunque aún no se conocen detalles concretos del desarrollo el sistema LPS
integrará en un sistema fotogramétrico módulos desarrollados por Leica que son bien
conocidos como, por ejemplo, el módulo de orientación fotogramétrica ORIMA, el
sistema de restitución en entorno MicroStation PRO600 junto al sistema de
correlación incorporado ya en el sistema de medida automática de puntos del sistema
ERDAS Imagine.
Según la información del fabricante (http://www.gis.leica-geosystems.com), los
módulos que compondrán dicho sistema serán los siguientes:
- LPS Core: Que incorporará las herramientas de visión, de
importación/exportación de imágenes, de tratamiento digital de las imágenes,
así como las herramientas de orientación (orientación interna automática,
triangulación de imágenes satélite, medida automática y manual de puntos) de
generación de productos (mosaicos de ortoimágenes, producción cartográfica,
visualización 3D, ajuste radiométrico). Constituye en núcleo básico del
sistema Leica Photogrammetry Suite.
- LPS Stereo: Es el módulo correspondiente para la visión estereoscópica de las
imágenes incorporando las funciones de zoom y roaming continuo. Asimismo
incorporará un sistema de información de precisión en tiempo real.
- LPS Terrain Editor: Utiliza el sistema LPS Stereo para la edición de MDT.
Incorpora diversas herramientas de edición a nivel puntual, de área y
geomorfológicas. Asimismo admite diversos formatos de MDT.
- LPS ORIMA: Es la versión para el sistema fotogramétrico digital del
conocido software de aerotriangulación de Leica (utilizado en los restituidores
analíticos) que ahora además incorpora un módulo para la orientación de
imágenes provenientes del sensor ADS40. Requiere el módulo LPS Stereo
para la realización de las medidas de los puntos de control y la revisión de la
aerotriangulación.
- LPS PRO600. Utiliza el módulo LPS Stereo para la restitución en entorno de
Microstation v.8. Se trata de la versión para el sistema fotogramétrico digital
del software de restitución de Leica utilizado tanto en los sistemas analíticos
como en los sistemas digitales bajo entorno Socet Set.
- LPS Automatic Terrain Extraction. Es el módulo de generación automática de
modelos digitales a partir de imágenes multiples mediante correlación cruzada
con la posibilidad de introducción de entidades cartográficas. Incorpora un
sistema de informe de precisiones alcanzadas.
58  SISTEMAS FOTOGRAMÉTRICOS DIGITALES 
®
3. Z(I Imaging Imagestation
El sistema Imagestation® (figura A2.4) es comercializado por la fusión de las
empresas Zeiss e Intergraph que ha dado lugar a la nueva empresa (joint venture) Z/I
Imaging. Este sistema es el resultado de la evolución de los sistemas desarrollados por
Intergraph, tanto analíticos InterMap Analytic como digitales InterMap ImageStation
así como de los sistemas desarrollados por Zeiss (sistemas analíticos de la serie P y
sistemas digitales de la serie Phocus).

Figura A2.4. Sistema fotogramétrico digital Z/I Imaging Imagestation 2002 (Z/I Imaging, 2003)

El diseño del sistema es modular y permite la realización de todas las fases de la


producción cartográfica mediante la aplicación de las técnicas fotogramétricas
digitales (figura A2.5). El proceso completo se puede dividir en tres flujos de trabajo:
a) medición y triangulación (incluye la creación del proyecto, importación de las
imágenes y el proceso de orientación fotogramétrica); b) restitución y generación del
MDE y c) generación de ortofotografías y mosaicos.
Generación de la
base de datos fotogramétrica Ortofotografía SIG

Orientación
Escaneo de del modelo
MDE Mapas
Fotogramas

Imágenes Entidades
Datos Digitales
Digitales SIG
Triangulación

Secciones
Ingeniería
Transversales

Explotación de los datos por el usuario


Fig. A2.5. Flujo de trabajo en Fotogrametría Digital (Integraph, 1999)

El proceso comienza con la administración del proyecto mediante la herramienta


ImageStation Photogrammetric Manager (ISPM) que permita la entrada de datos e
imágenes, así como información complementaria que puede provenir de diversos
sistemas de aerotriangulación.
FOTOGRAMETRÍA DIGITAL   59 

a) Medición y triangulación
El esquema del proceso de orientación y aerotriangulación se muestra en la figura
A2.6 y se basa en la utilización de los módulos siguientes:
a) ImageStation Model Setup (ISMS)
b) ImageStation Digital Mensuration (ISDM)
c) ImageStation Automatic Aerotriangulation (ISAT)
d) ImageStation Multisensor Triangulation

Triangulación Proceso
Escaneo de Aérea de ortofotos
Fotogramas
Transferencia
puntos/medida
Imágenes
Digitales Manual o Triangulación Creación de
Automática
de satélite estéreomodelo

Fig. A2.6. Flujo de trabajo en la realización de medidas digitales y aerotriangulación (Intergraph, 1999)

El módulo ISMS permite la orientación manual de las imágenes bien a nivel de


imagen o de modelo, permitiendo la orientación interna, relativa, absoluta y la
resección de las imágenes.
El módulo ISDM permite la realización de medidas en bloques de imágenes así
como el ajuste del bloque. Este módulo incorpora herramientas de correlación y de
transferencia de puntos que permiten la entrada a los sistemas de aerotriangulación.
Los puntos en cada imagen pueden ser medidos tanto en visión monoscópica como
estereoscópica y los resultados pueden ser exportados en los formatos más habituales
de los sistemas de aerotriangulación. Este módulo incorpora una herramienta de gran
interés para la captura de puntos de control a partir de la identificación de éstos en la
cartografía o en ortofotografías ya georreferenciadas, a pesar de que estén realizadas
en sistemas de proyección diferentes al de nuestro proyecto. El ajuste del bloque se
realza mediante la herramienta PhotoT incluida en el módulo ISDM, mediante la
resolución de los sistemas mediante mínimos cuadrados permitiendo la introducción
de información a priori y el análisis posterior de los errores y el control de calidad del
proceso.
El módulo ISAT es el módulo de aerotriangulación digital automática que
combina los procesos de medida, cálculo y edición/revisión. El núcleo de este módulo
fue el paquete Match-AT de la empresa Inpho GmbH. Match-AT y utiliza las técnicas
de correlación entre imágenes para la generación de los puntos de paso, para lo cual
es necesario la introducción de los parámetros básicos y la realización de la
orientación interna (automática) así como la medida de los puntos de apoyo y de
control, información que se utiliza para la configuración del bloque. Tras el proceso
de medida automática se lleva a cabo el ajuste del bloque y la depuración de los
resultados. Dicha depuración se lleva a cabo con herramientas para la edición, análisis
e incluso remedida de puntos incorrectamente correlacionados.
60  SISTEMAS FOTOGRAMÉTRICOS DIGITALES 

El módulo ISMST es el módulo de medición y triangulación para imágenes


satélite (SPOT, Landsat, IRS), que se utiliza en combinación con el módulo ISDM
para la realización de las medidas y la revisión de resultados. Este módulo incorpora
diferentes modelos de sensor dependiendo de la naturaleza de las imágenes
incorporando éstos en los modelos de colinealidad.
b) Restitución y generación del MDE
Tras completar la fase de orientación fotogramétrica ya puede comenzar la fase de
extracción de la información del modelo (figura A2.7). La extracción de la
información del modelo (restitución y generación de MDE) se realiza mediante los
módulos siguientes:
a) ImageStation Stereo Display (ISSD)
b) ImageStation Feature Collection (ISFC)
c) ImageStation DTM Collection (ISDC)
d) ImageStation Automatic Elevation (ISAE)

SIG

Orientación
Escaneo de del modelo Captura / Revisión Mapas
Fotogramas Entidades

Imágenes
SIG Datos Digitales
Digitales
Triangulación

Ingeniería

Fig. A2.7. Flujo de captura, revisión y control de entidades 3-D (Intergraph, 1999)

El módulo ISSD es el que permite la visualización estereoscópica de los modelos


tanto de imágenes en tonos de gris como en color y la superposición de la información
vectorial a los modelos. Este módulo incorpora el sistema Frame Sequential Stereo
que mejora la calidad y el contraste de las imágenes, reduciendo la fatiga del operador
mediante el mantenimiento de la resolución total de la pantalla en la dirección Y, lo
que evita que el operador tenga que reenfocar la vista cuando visualiza los menús y
ventanas no estéreo.
El módulo ISFC es una herramienta de bajo coste para la restitución con el objeto
de la generación de cartografía a partir de cualquier tipo de imágenes digitales
(fotogramas aéreos, imágenes satélite, ...). El sistema funciona bajo entorno
Microstation y los resultados se pueden utilizar directamente en el entorno Intergraph
MGE (Modular GIS Environment).
El módulo ISDC es un sistema de captura interactiva de MDE basado en un
sistema de visualización estéreo y correlación (figura A2.8). Este módulo se utiliza de
forma conjunta con el módulo ISFC para la definición de líneas de ruptura (entidades
morfológicas). La información extraída con este módulo puede ser utilizada
FOTOGRAMETRÍA DIGITAL   61 

directamente en otros paquetes de Intergraph como, por ejemplo, Terrain Analyst,


InRoads, Siteworks, Inrail, para la realización de diversas operaciones de ingeniería.
El módulo ISAE extrae automáticamente los puntos de MDE a partir de las
imágenes digitales mediante la utilización de correlación y las pirámides de imágenes,
junto con herramientas basadas en los elementos finitos para dotar de robustez al
modelo generado.

Tratamiento
Datos MDE
MDE Captura/Edición Mosaico
interactiva Fichero
del MDE
MDE

Captura/Edición
Modelo Secciones
automática
Estéreo del MDE

Fig.A2.8. Flujo de trabajo en la captura y edición de los MDE (Intergraph,1999)

c) Generación de Ortofotografías
La generación de ortofotografías y mosaicos se realiza mediante los módulos
ImageStation Base Rectifier (ISBR) y el ImageStation OrthoPro (ISOP) (figura A2.9).

Fichero
Procesado
MDE
MDE
Cinta
Escaneo de CD
Fotogramas
Resección Ajuste de tonos Control de
Rectificación
foto única en mosaicos calidad
Imágenes
Digitales
Ortofoto
digital

Fig. A2.9. Flujo de trabajo en la ortorrectificación de fotografías


y generación de mosaicos (Intergraph, 1999)

La generación de ortofotografías y mosaicos se realiza mediante los módulos


ImageStation Base Rectifier (ISBR) y el ImageStation OrthoPro (ISOP) (figura A2.9).
El módulo ISBR permite la realización de imágenes rectificadas y ortofotografías
a partir de las imágenes originales orientadas y en función de los parámetros definidos
por el usuario (tamaño del píxel, área, ...) incluyendo además herramientas para el
control de calidad de la ortofotografía y la generación de mosaicos.
El módulo ISOP es el sistema completo de realización de ortofotografías digitales
combinando los aspectos específicos de la fotogrametría y el tratamiento de imágenes
digitales. El usuario controla el flujo de trabajo mediante dos comandos incluidos en
GeoMedia, el primero se utiliza para la selección y preparación de las imágenes de
62  SISTEMAS FOTOGRAMÉTRICOS DIGITALES 

entrada y el segundo para la realización de la ortofotografía y el ajuste radiométrico


de los contrastes y la generación del mosaico de la zona especificada.
Requerimientos del sistema
− Se recomienda un sistema con doble procesador, aunque el sistema puede
instalarse en un sistema con un solo procesador.
− Memoria del sistema 512Mb (ampliable a 2Gb).
− Sistema gráfico 3DLabs Wildcat 6210, con acelerador gráfico AGP Pro,
color 24bits y resolución de pantalla máxima de 2.5 megapixels
− Sistema de visión estereoscópica mediante gafas activas CrystalEyes o de
gafas pasivas en el monitor de 21".
− Ratón 3D.
− Discos duros Ultra-2 SCSI-
− Monitor 21" (1600x1200) (como opción se puede incorporar un monitor
panorámico de 24" o 28" con resolución de 1920x1080).
− Tarjeta de red 10/100.
La empresa Z(I Imaging distribuye una versión en entorno UNIX basado en el
antiguo sistema Zeiss Phodis, con estructura y filosofía similar al sistema
ImageStation, pero adaptado a empresas u organismos cuyo trabajo se centra en el
sistema operativo UNIX.

4. Erdas-Imagine OrthoMAX y OrthoBASE


Este es un buen ejemplo de la tendencia actual que está experimentando la
Fotogrametría Digital, la integración en potentes paquetes de Teledetección o de
Sistemas de Información Geográfica, con el objetivo de la generación de modelos
digitales de terreno, restitución 3D y la generación de ortofotografías mediante el
método de rectificación diferencial. Este hecho produce que día a día la delgada línea
que separa la Fotogrametría y la Teledetección se vaya haciendo más débil, debido a
que la aparición de los nuevos sistemas de captación de imágenes instalados en los
satélites cada día tienen mayor resolución debiendo recurrirse a las técnicas
fotogramétricas para una adecuada georreferenciación de las imágenes obtenidas. Esta
tendencia es observada en la mayoría de los sistemas, así cada vez más los sistemas
clásicamente fotogramétricos permiten la importación y tratamiento de imágenes
satélite y los programas de teledetección (incluso los más simples, van incorporando
módulos de orientación de fotogramas aéreos y ortorrectificación, como por ejemplo,
ER-Mapper de Earth Resource Mapping -http://www.ermapper.com- o ENVI de
Research System Inc -http://www.rsi.com-).
La empresa ERDAS que fue recientemente adquirida por la empresa Leica
Geosystems ofrece dos módulos OrthoBASE y OrthoPRO integrados en el sistema de
tratamiento de imágenes digitales Imagine que incluyen las operaciones de
triangulación de imágenes individuales o de bloques de imágenes, la extracción del
modelo digital del terreno y la ortorrectificación.
4.1 Imagine OrthoBASE
Este módulo permite la generación de ortofotografías siguiendo la estructura
FOTOGRAMETRÍA DIGITAL   63 

clásica para su generación que se agrupan en cuatro tareas que están perfectamente
controladas mediante una tabla de tareas realizadas y pendientes. Las tareas a realizar
son:
a) Configuración del proyecto (Project Setup)
b) Definición del modelo (Model Definition)
c) Selección automática de los puntos de paso (Automatic Tie Point Selection)
d) Ajuste del bloque (Aerotriangulation/Bundle Adjustment)
e) Ortorrectificación (Orthophoto production)
a) Configuración del proyecto: Permite al usuario definir los parámetros básicos del
proyecto como tipo de imágenes (admite fotogramas aéreos, imágenes satélite,
imágenes de video e incluso de cámaras digitales y de pequeño formato), sistema de
coordenadas y datum, información de la calibración de la cámara o sensor y los
puntos de apoyo y control terrestre, permitiendo la introducción de parámetros de
orientación obtenidos en vuelo mediante sistemas GPS/IMU.
b) Definición del modelo: Esta fase consiste en la identificación de las imágenes que
configuran el modelo o el bloque, además en la misma se realiza la orientación interna
semiautomática de las imágenes (en el caso de trabajar con imágenes provenientes de
cámaras métricas) y la introducción de los puntos de apoyo y de control.
c) Selección automática de los puntos de paso: El sistema incorpora herramientas para
la identificación automática de los puntos de paso mediante sistemas de correlación
de imágenes, en los que es necesario introducir los parámetros clásicos de número de
puntos, tamaño de las ventanas patrón y de búsqueda, así como los límites de
tolerancia para la aceptación de los pares identificados.
d) Aerotriangulación y ajuste del bloque: El sistema realiza un ajuste de bloque con
autocalibración incorporando herramientas automáticas para la comprobación de
errores probables en la aerotriangulación y la evaluación/corrección/ajuste de los
mismos.
e) Ortorrectificación: Utilizando un MDE importado en el sistema (esta versión no
incorpora sistemas de generación automática de MDE) se realiza el proceso de
ortorrectificación mediante procesos en lote (modo batch) realizándose el mosaico
mediante el módulo de ERDAS Imagine Mosaic Tool.
4.2 Imagine OrthoPRO
Las diferencias fundamentales entre este módulo y el anterior son la capacidad del
Imagine OrthoPRO para la generación automática de MDE. El sistema empleado para
la generación del modelo digital es el de correlación jerárquica e incorpora
herramientas para la revisión y edición del modelo digital generado.
Requerimientos del sistema
Sistema OrthoMAX:
− Plataformas: SGI IRIS 5.3 ó 6.2; Sun OS 4.1.3 ó 4.1.4; Sun Solaris 2.4 ó 2.5;
HP-UX 9.0.7, Windows XP
− Sistemas gráficos: X11/Motif (SGI y HP); OpenWindows 3.0 (SunOS);
OpenWindows 3.3 (Sun Solaris), Windows GUI
64  SISTEMAS FOTOGRAMÉTRICOS DIGITALES 

− 64 Mb RAM
− Espacio de almacenamiento: 350Mb para ERDAS Imagine v.8.2 y 100Mb
para Imagine OrthoMAX v.8.2
− 300 Mb para espacio de swap
− 2 a 5 Gb de espacio para procesamiento de las imágenes
− Sistema de visión estereoscópica:
SGI: Sistema CrystalEyes con emisor y gafas activas
Sun y HP: Sistema CrystalEyes con caja de sincronización GDC3,
emisor y gafas activas.
Windows: Sistema CrystalEyes con emisor y gafas activas
Sistema OrthoBASE:
− Plataforma: Microsoft Windows 9x/NT/2000/ME/XP
− Procesador mínimo Intel Pentium
− Memoria RAM: mínimo 64Mb
− Tarjeta gráfica compatible SVGA
− 240Mb de disco duro.

5. Softplotter de Autometric Incorporated.


El sistema Softplotter (figura A2.10) es comercializado por la empresa Autometric
Incorporated y se estructura en una serie de módulos (denominadas herramientas) que
comparten el entorno gráfico y que permiten la configuración del sistema en función
de las necesidades del cliente. El esquema de trabajo del sistema se basa en el nivel
del proyecto que se gestiona mediante la herramienta Production Manager (PM) y que
permite la introducción de los parámetros del mismo que serán utilizados en las
diferentes fases del proceso.

Fig. A2.10. Sistema Softplotter de Autometric Inc.

El sistema incorpora las siguientes herramientas:


− Importación de imágenes (Image Import)
− Triangulación (Multi Sensor Triangulation)
− Visión estereoscópica (Stereo tool)
− Generación y edición de MDE (Surface tool, DEM tool)
FOTOGRAMETRÍA DIGITAL   65 

− Generación de ortofotografías (Ortho tool)


− Generación de mosaíco (Mosaic tool)
− Medida (Mensuration tool)
− Restitución (KDMS tool, DGN tool)
− Trazado de curvas de nivel (TERRAMODEL)
− Producción cartográfica (ERDAS IMAGINE)
a) Importación de imágenes: Se realiza mediante el módulo Image Import. El sistema
acepta de una forma directa las imágenes generadas por los escáneres fotogramétricos
más conocidos (ZI Imaging, LH Systems, Vexcel, Wehrli, ISM,…) así como los
formatos cómunes (TIFF, ERDAS lan y img, SPOT, …) así como formatos genéricos
binarios.
b) Triangulación: Se realiza mediante el módulo Multi-Sensor Triangulation (MST).
MST permite la orientación de imágenes provenientes de la práctica totalidad de
cámaras y sensores (cámaras aéreas convencionales y panorámicas, imágenes satélite,
…) incorporando la información adicional disponible para facilitar la orientación
(posición y orientación de la cámara en vuelo mediante sistemas GPS y efemérides
del satélite). El proceso comienza por la orientación interna automática mediante
correlación de imágenes (incorpora una amplia base de datos de las cámaras más
conocidas) y a continuación se identifican de una forma automática mediante
correlación de imágenes los puntos de enlace y de paso para la orientación relativa del
bloque.
c) Visión estereoscópica: Una vez orientadas las imágenes se realiza el remuestreo
epipolar de las mismas para la eliminación del paralaje Y y de esa forma facilitar la
visión estereoscópica del modelo. Los modelos estereoscópicos pueden ser creados
con cualquier tipo de imagen aceptada por el sistema y orientada en el proceso de
triangulación. Se pueden elegir dos tipos de sistema de visualización estereoscópica:
el sistema QBS (quad buffered stereo) y el sistema FSS (full screen stereo)
dependiendo de la configuración del sistema empleada. Con el sistema QBS es
posible compartir la visualización de ventanas monoscópicas y estereoscópicas
(permite varias ventanas estereoscópicas simultáneas) en la misma pantalla mientras
que en el sistema FSS la visión es integramente estereoscópica.
d) Generación y Edición de MDE: La generación y edición de MDE se realiza
mediante dos módulos: DEM tool, para la generación/edición de MDE en formato
TIN y Surface Tool, para la generación/edición de MDE en formato de malla regular.
El sistema utiliza un procedimiento desarrollado por Autometric Inc. para la
correlación entre las imágenes que alcanza velocidades incluso superiores de 1000
puntos/seg, dependiendo de la configuración del sistema, permitiendo la definición de
estrategias de correlación por parte del usuario. Los MDE generados pueden ser
superpuestos a la imagen para comprobar su calidad y facilitar su edición, así como la
introducción de líneas de ruptura y puntos singulares.
e) Generación de ortofotografías: El proceso de generación de ortofotografías es un
proceso totalmente autónomo (desatendido) que funciona mediante procesos por lotes
66  SISTEMAS FOTOGRAMÉTRICOS DIGITALES 

(batch) utilizando como información de entrada las imágenes orientadas y el modelo


digital de elevaciones depurado.
f) Generación de mosaicos: La herramienta Mosaic Tool agrupa las ortoimágenes
generadas en un solo fichero (mosaico). Las imágenes que se desean empalmar
pueden ser comprobadas de una forma gráfica para comprobar el solape, la cobertura
y la calidad de las líneas de empalme, permitiendo la introducción de líneas de
empalme definidas por el usuario. Una ventaja importante de este sistema es lo que se
denomina “mosaico virtual”. El “mosaico virtual” consiste en el mantenimiento de la
configuración hasta que se desea el almacenamiento definitivo del mosaico. Este
almacenamiento puede ser realizado en partes para evitar problemas de
almacenamiento en disco o, incluso, la división en hojas puede ser realizada a partir
del “mosaico virtual”.
g) Medida: El sistema incorpora una herramienta para la realización de medidas de
tipo monoscópico o estereoscópico sobre las imágenes que permite la creación de
archivos de informe en formato ASCII que contienen los elementos medidos. Estos
elementos pueden ser: puntos, distancias, acimutes, pendientes, perímetros, áreas, etc.
h) Restitución: Este sistema incorpora dos módulos de restitución diferentes. El
módulo KDSM (Kork Digital Mapping System) se basa en la utilización del sistema
Kork para la restitución. El sistema Kork es un paquete especialmente diseñado para
la captura fotogramétrica de información cartográfica y su utilización está muy
difundida entre los operadores de los sistemas tanto analógicos como analíticos.
Permite el intercambio de información con los formatos más comunes DXF, DGN y
ARC/INFO, entre otros. El segundo módulo, DGN Tool, es una herramienta de
restitución en entorno Microstation.
i) Trazado de curvas de nivel: El sistema Softplotter incorpora para el trazado y
manipulación de los modelos digitales de elevación con el conocido paquete
TERRAMODEL desarrollado por Spectra Precision (actualmente, Plus 3).
j) Producción cartográfica: La producción cartográfica de los productos obtenidos
mediante Softplotter se realizan mediante el programa ERDAS Imagine al cual se
accede de una forma directa desde el propio menú del programa. Esta opción
proporciona al usuario el acceso a las potentes herramientas de edición suministradas
con ERDAS Imagine para la composición de los mapas, las importación y
exportación de las imágenes y datos vectoriales así como para el procesamiento de las
imágenes.
Requisitos del sistema
− Plataforma: PC funcionando en entorno Windows NT
− Procesador: Recomendado sistema con doble procesador Pentium
− Memoria RAM: mínima 256Mb
− Sistema de visión estereoscópica: requiere un monitor con refresco horizontal
mínima de 115kHz y vertical mínima de 160Hz
FOTOGRAMETRÍA DIGITAL   67 

6. DAT-EM International SummitPC


El sistema SummitPC (figura A2.11) es comercializado por la empresa DAT-EM
International y es la versión Microsoft Windows del sistema Digitus, comercializado
previamente por esta empresa bajo plataforma UNIX. Esta empresa tiene acuerdos
para la comercialización conjunta del sistema DAT-EM, el escáner Vexcel UltraScan
5000 y el software desarrollado por la empresa Inpho GmbH, dando lugar a la alianza
conocida con el nombre de GeoToolbox.

Fig. A2.11. Sistema Summit PC dotado de sistema de manivelas y tableta (touch-pad)


para el control del modelo y del programa (DAT/EM, 2000).

El sistema Summit PC se compone de los siguientes módulos:


− SummitPC: Núcleo del sistema fotogramétrico digital
− CaptureNT: Sistema de restitución bajo entorno AutoCAD o MicroStation,
que puede ser utilizado en sistemas de tipo analítico o analógico.
− Super/Imposition: Módulo que permite la visualización de la información
vectorial extraída superpuesta a la imagen.
− Map/Editor: Sistema de edición vectorial y producción cartográfica final bajo
entorno AutoCAD o MicroStation.
El esquema de trabajo con el sistema Summit PC comienza con la definición del
proyecto introduciendo la información clásica referente a archivos que contienen las
imágenes, información de la cámara empleada, puntos de apoyo y control terrestre,
etc. incorporando sistemas automáticos de procesamiento de la imagen para realizar
las pirámides de imágenes y la compresión de las mismas.
Una vez generado el proyecto, el trabajo continúa con la orientación del bloque
que configura nuestro proyecto. La orientación se estructura en orientación interna,
relativa y automática. La orientación interna se realiza de una forma semiautomática
en la que el sistema conduce el cursor a las proximidades de la marca y el operador
debe realizar el posado preciso. La orientación interna se realiza de forma
semiautomática en la que se sistema se desplaza a las posiciones del modelo para que
el operador realice la medida de los puntos de Von Grüber o bien de forma manual de
68  SISTEMAS FOTOGRAMÉTRICOS DIGITALES 

gran utilidad para la orientación relativa de modelos no convencionales (fotogrametría


terrestre). Por último, se realiza la orientación absoluta incorporando sistemas
automáticos para la detección de errores groseros permitiendo al operador una sencilla
depuración del proceso. Asimismo, permite la introducción de parámetros de la
orientación externa obtenidos de sistemas de posicionamiento tipo Applanix POS/AV.
El proceso de aerotriangulación es compatible con los programas AeroSys (cuya
demo se incluye con el sistema), Albany y PATB.
Una vez orientado el modelo se puede proceder a la extracción de la información,
ya sean modelos digitales de elevaciones, restitución o ortofotografías.
La generación y edición de los modelos digitales del elevaciones se realiza
mediante un enlace transparente para el usuario con los sistemas Match-T (generación
del modelo digital del terreno) y SCOP (interpolación del MDE y generación de
curvas de nivel) desarrollados por la empresa Inpho GmbH. De forma opcional se
pueden integrar otros programas como, por ejemplo, GEOPAK Site Contour Package
(en entorno MicroStation), SurvCADD (en entorno AutoCAD) o bien realizar la
exportación del MDE obtenido en formato (ASCII XYZ) para su tratamiento en
cualquier otro programa.
La restitución se realiza mediante el módulo Capture NT (disponible en versión
AutoCAD o MicroStation). Este módulo realiza la conexión entre el sistema
fotogramétrico digital Summit PC y los programas de CAD, permitiendo la captura
directa de información tridimensional a partir del modelo estereoscópico y su
almacenamiento en formato AutoCAD dwg o MicroStation dgn. Para la restitución es
indispensable contar con un sistema de visualización estereoscópica que se realiza
mediante el sistema de gafas activas de Stereographics o el de pantalla activa y gafas
pasivas de NuVision o Zscreen de Stereographics.
Otro elemento básico del sistema es la superposición de la información extraída
(vectorial) y los modelos estereoscópicos. Esta superposición es básica para la edición
de los elementos extraídos así como para tareas de actualización cartográfica,
permitiendo importantes mejoras en el rendimiento del proceso así como en la calidad
de los productos generados.
Requerimientos del sistema:
− Sistema operativo Microsoft NT/2000/XP Professional
− Placa biprocesador con un mínimo de 512Mb RAM
− Disco duro SCSI
− Monitor de 85 Hz (son aconsejables dos monitores de tamaño mínimo de
19")
− 2 puertos serie libres (3 si se utilizan manivelas, ratón 3D y tableta Polytel)
− 1 ranura AGP libre (para conectar la tarjeta gráfica Matrox G400)
− 1 ranura PCI o ISA libre (para la tarjeta DAT/EM Sync)
− Sistema de gafas activas Stereographics o de pantalla activa Stereographics Z
Screen
− Sistema de manivelas XY/pedal Z y pedales DAT/EM o ratón 3D para el
desplazamiento en el modelo.
FOTOGRAMETRÍA DIGITAL   69 

− Tableta Polytel Keypad 300 y tarjeta Polywedge DAT/EM Sync


− AutoCAD R14 y/o MicroStation SE o MicroStation J

7. DiAP (Digital Analytical Plotter) de ISM Corp.


El sistema DiAP (Digital image Analytical Plotter) (figura A2.12) desarrollado
por la empresa canadiense ISM Corp. es un equipo fotogramétrico digital montado
sobre plataformas PC/Windows NT, desarrollado en entorno Microstation ‘95.
El sistema presenta un diseño modular siendo los módulos básicos:
− IXO: Módulo de orientación interna y externa
− SVI: Módulo de visión estereoscópica
− 3D: Interfaz 3D en tiempo real con Microstation
− eSDI: Interfaz de visualización con roaming de imágenes e información
vectorial.
- Módulo de orientación interna y externa: El proceso de orientación sigue el esquema
clásico seguido en los sistemas analíticos de medida de las marcas fiduciales
(orientación interna), eliminación del paralaje residual en los puntos de Von Grüber
(orientación relativa) y medida de los puntos de apoyo terrestre (orientación absoluta).
El procedimiento puede ser automatizado mediante la utilización de los módulos
Auto-Image Mensuration (AIM) que se basa en un algoritmo propio de correlación
jerárquica y Auto-Procedural Management (Apro) que permite la práctica
automatización de los procesos de orientación fotogramétrica. Por otro lado, para la
orientación de grandes bloques se puede optar por el módulo DiAP-ATM de
aerotriangulación, incluyendo la definición del bloque, orientación interna y medida
de puntos, así como el ajuste del bloque.
- Módulo de visión estereoscópica: Permite la visión estereoscópica de modelos a
cualquier nivel de zoom y con la información vectorial superpuesta. La empresa ISM
distribuye el módulo DiAP Viewer que es un programa independiente que permite la
visualización estereoscópica de cualquier tipo de imágenes con la única introducción
de sus parámetros de orientación (Xo,Yo,Zo,ω,ϕ,κ).
- Módulo de generación de MDE: El módulo AIM puede ser empleado para la
identificación de puntos homólogos en el plano epipolar consiguiente la obtención de
las coordenadas terreno y la obtención de los datos necesarios para el MDE. Mediante
este procedimiento es posible la generación de la obtención de los puntos necesarios
para la generación de un MDE en formato TIN con unos buenos niveles de precisión,
consistencia y rendimiento. El sistema complementa la gestión del MDE mediante la
inclusión del programa TIN/CIP que permite la creación del modelo (definición de la
red de triángulos), mostrar los triángulos superpuestos a la imagen, exportar los
triángulos y almacenar el modelo. Por otro lado, a partir de la malla generada es
posible el trazado de las curvas de nivel, así como el filtrado o realce de las curvas.
- Módulo de generación de ortofotografías: El módulo SysImage incorpora las
herramientas necesarias para la generación de ortofotografías, el ajuste radiométrico
de las imágenes y la creación del mosaico con definición de las líneas de empalme
según las líneas seleccionadas por el usuario.
70  SISTEMAS FOTOGRAMÉTRICOS DIGITALES 

- Módulo de restitución: Para la obtención de la información cartográfica el sistema


cuenta con el módulo Production Works que está desarrollado en entorno
Microstation y que incluye las herramientas de Feature Code Editor para la definición
de la estructura de las bases de datos cartográficas (capas, nombres, códigos, atributos
gráficos, …) y de Icon Editor para el diseño de símbolos para emplear en
fotointerpretación y restitución.
Requisitos del sistema:
− Plataforma: Windows NT/2000/XP Professional
− Mono o Biprocesador compatible Windows
− Memoria mínima: 128Mb RAM
− Disco duro de alta capacidad
− Monitor de 21" con velocidades mínimas de refresco de 120Hz(v) y 85kHz(h)
− Sistema de desplazamiento: ratón 3D o manivelas XY y pedal Z

Fig.A2.12. Sistema DiAP dotado de manivelas y pedal para el movimiento en el modelo

8. Digital Video Plotter (DVP) de DVP-GSI Inc.


Este sistema se ha convertido en uno de los clásicos del mercado fotogramétrico
digital. Este equipo fue diseñado en el Departamento de Ciencias Geodésicas y
Teledetección de la Universidad de Laval en Quebec (Canadá) como un sistema
didáctico y la versión comercial fue presentada por primera vez en 1988, siendo
distribuido en exclusiva desde Noviembre de 1990 a Mayo de 1998 por la empresa
Leica bajo el nombre de Leica DVP. En la actualidad, existen más de 300 usuarios
(con un número de licencias en torno a 600) distribuidos en 56 países distintos.
FOTOGRAMETRÍA DIGITAL   71 

En la actualidad el sistema trabaja en un entorno Windows (Windows 95/98, NT,


2000. XP) y permite cubrir la totalidad del proceso fotogramétrico digital: orientación
(aerotriangulación), restitución monoscópica y estereoscópica, generación de
ortofotografías y mosaicos, así como visualización estereoscópica de imágenes, con
una gran flexibilidad en cuanto al trabajo a realizar (fotogrametría terrestre, industrial,
aérea a gran o pequeña escala, a partir de imágenes SPOT, …), así este sistema ha
alcanzado un importante éxito para la realización de trabajos fotogramétrico
medioambientales (relacionados con la fotointerpretación).
En la actualidad se distribuye en las siguientes versiones:
− DVP Complete W/S
− DVP Orthomosaic
− DVP Vectorization
− DVP Aerotriangulation
El DVP Complete W/S incorpora las funciones básicas para la obtención de
productos fotogramétricos. Así tiene funciones para la superposición de elementos
vectoriales a los modelos estereoscópicos y para la importación/exportación tanto de
elementos restituidos como de imágenes incorporando herramientas para la
importación de los parámetros de orientación.

El DVP OrthoMosaic está diseñado como un paquete independiente para la


producción de ortofotografías y mosaicos digitales. Proporciona todas las
herramientas necesarias para la georreferenciación y el mosaico de las imágenes,
herramentas que le permitirán generar un TIN, rectificar imágenes a nivel individual y
crear un mosaico. El DVP OrthoMosaic aplica las técnicas de rectificación diferencial
para la generación de ortofotografías a partir de sus parámetros de orientación y el
MDE de la zona considerada. El sistema incorpora una interfaz gráfica pensada para
facilitar el proceso de la generación de mosaicos de una forma intuitiva y visual. El
módulo permite la importación de los modelos digitales de diversos formatos
incluyendo DXF, DGN y ASCII. Además incorpora herramientas para el ajuste
radiométrico del mosaico final así como para el trabajo por lotes de modo
desatendido.

El DVP Vectorization es un sistema fotogramétrico digital diseñado para la


captura de información 3D a partir de imágenes orientadas. El sistema incorpora
herramientas para la restitución 3D que incorporan superposición de los elementos
restituidos sobre los modelos estereoscópicos, para la captura de datos para la
generación de MDE así como para la importación/exportación de los ficheros
generados (a formato DXF o DGN). Los parámetros de orientación de las imágenes
son importados de los obtenidos en la orientación con otros sistemas (por ejemplo,
DVP Aerotriangulation).

El DVP Aerotriangulation es un sistema de aerotriangulación digital que


utiliza las facilidades proporcionadas por los sistemas digitales para facilitar la
72  SISTEMAS FOTOGRAMÉTRICOS DIGITALES 

medida de los puntos de paso/enlace en el sistema, incorporando un sistema para la


orientación del bloque mediante ajuste de haces.

El DVP es un equipo fotogramétrico de nivel inicial que utiliza hardware estándar,


pudiendo instalarse en un PC estándar equipado con una tarjeta gráfica que permita
emulación VESA o 8514 y equipado con una tableta digitalizadora compatible
Summagraphics. El elemento más característico de este equipo era el sistema de
visión estereoscópica, que consiste en un estereoscopio de espejos situado frente al
monitor, permitiendo la realización de los diversos procesos fotogramétricos (figura
A2.13). Si bien es importante indicar que el sistema puede configurarse con un
sistema de ratón 3D (Immersion) y un sistema de gafas activas o pasivas.

Fig.A2.13. Sistema DVP equipado con doble monitor, sistema de visión estereoscópica mediante
estereoscopio de espejos y escáner Sharp JX-600 (situado en la parte izquierda de la fotografía)

El objetivo inicial planteado en el desarrollo del DVP fue el de crear un sistema


que utilizando software estándar (concepto de coste nulo de hardware - Dangermond
y Morehouse, 1987-) permitiera la resolución de problemas fotogramétricos comunes
en un entorno de sencilla utilización (Gagnon et al., 1990). Por otro lado, disponer de
un equipo de tales características permitiría por un lado mejorar el rendimiento de los
equipos fotogramétricos mediante la utilización de equipos más económicos y de
mayor eficiencia de cálculo y por otro lado, difundir las técnicas fotogramétricas de
una manera simple.
En la figura A2.14 se muestra el diagrama de flujo del DVP (en su versión 3.5
bajo DOS) presentando los diferentes módulos del programa, así como la información
utilizada y los productos derivados del proceso. Mediante el análisis de este esquema
se puede establecer la estructura básica de un sistema fotogramétrico digital de bajo
coste en cuanto a procesos y módulos.
FOTOGRAMETRÍA DIGITAL   73 

Módulo
Malla Calibración Fichero
Calibración Escáner Corrección
Escaneada (DVPS) Escáner

Puntos Módulos DVP:


Control
- Triangulación
DVPTRI Fichero
Parámetros
- Orientación Orientación
DVPO,DVPSPOT

- Resección
DVRO
Módulo
Ficheros Imagen Ortoimagen
Ortoimágenes
Ráster de: DVR3
- Bloques de fotografías Módulos DVP:
- Pares estereoscópicos Módulo - Restitución
terrestres o aéreos Mosaico Estereoscópica
- Pares imágenes SPOT DVPMOS - Restitución 3D
- 1 Fotograma Monoscópica
(Orto +TIN)
Módulo Imagen - Restitución 2D
Rectificación Rectificada Monoscópica
DVR2 2D
DVPN,SATIN
DVRN
Módulo
Fichero
MDT TIN
DVPTIN TIN

Ficheros de
1 fotografía Módulo Fichero Módulo elementos
en tableta Resección Parámetros Restitución gráficos
digitalizadora DVROT Orientación Monoscópica 3D (X,Y,Z)
DVPMONO o
2D (X,Y)

Fig.A2.14. Proceso Fotogramétrico en el DVP (Versión 3.5, Julio 1994)

Los módulos más importantes de esta versión eran (Gagnon et al., 1995):
DVPS: Módulo de calibración del escáner
DVPO: Módulo de orientación en dos pasos (interna, relativa y absoluta) de
fotogramas aéreas o terrestres. Las coordenadas de la fotografía son determinadas
mediante la aplicación de una transformación ortogonal (o afín) estándar a las
coordenadas de los píxeles almacenadas en forma de matriz bidimensional. Los
parámetros de transformación son obtenidos mediante la aplicación de un ajuste por
mínimos cuadrados al sistema lineal de ecuaciones empleando las coordenadas
calibradas y observadas de las marcas fiduciales. La orientación relativa es resuelve
igualmente por mínimos cuadrados usando la condición de coplanaridad,
almacenándose los resultados de la misma en un fichero para su posterior consulta o
análisis (valores de los elementos de la orientación, paralajes residuales en y en los
puntos de orientación relativa, y el paralaje en y a la escala de la fotografía (obtenida
a partir de la focal de la cámara y la base del modelo).
Las coordenadas de terreno u objeto X son calculadas a partir de las coordenadas
del modelo x mediante la aplicación de la transformación de similaridad basada en la
formulación de Espacio-M (Blais, 1979).
X = k M x + Xo
74  SISTEMAS FOTOGRAMÉTRICOS DIGITALES 

El factor de escala k, la matriz ortogonal M y el vector de translaciones Xo son


obtenidos por mínimos cuadrados utilizando los puntos de control. Las siete
incógnitas independientes se calculan mediante la aplicación de la siguiente forma
linealizada de una forma iterativa:
⎡X ⎤ ⎡+ a + b + c ⎤ ⎡ x ⎤ ⎡ e ⎤
⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥
⎢Y ⎥ = ⎢− b + a + d ⎥ ⎢ y ⎥ + ⎢f ⎥
⎢⎣ Z ⎥⎦ ⎢⎣ − c − d + a ⎥⎦ ⎢⎣ z ⎥⎦ ⎢⎣g ⎥⎦

Cada iteración proporciona una serie de parámetros a,b,…,g, que son utilizados
para obtener los valores de k, M, y Xo (bastan con 3 iteraciones para lograr la
convergencia). Cuando la orientación absoluta se completa, el sistema proporciona un
listado de los puntos de control, con sus coordenadas y discrepancias, así como el
error medio en X,Y y Z.
DVPSPOT: Módulo de orientación de imágenes SPOT
DVRO: Módulo de resección espacial, que permite la orientación en 1 paso
(orientación interna, resección espacial) utilizando una única fotografía.
DVPN, DVRN: Módulos de restitución fotogramétrica en visión estereoscópica o
monoscópica, permitiendo la conexión con otros programas de diseño mediante la
exportación en formato AutoCAD DXF y Microstation DGN.
DVR2: Módulo de generación de fotografías rectificadas mediante la aplicación de
una transformación proyectiva bidimensional.
DVR3: Módulo de generación de ortofotografías mediante la aplicación de
rectificación diferencial.
TIN: Módulo de generación de Modelos Digitales de Terreno en formato TIN
(Triangle Irregular Network -Red de Triángulos Irregulares-) mediante la
aproximación de Delaunay y permitiendo la incorporación de líneas de ruptura.
DVPTRI: Módulo de captura digital de datos para aerotriangulación.
b) Aplicaciones y precisión.
En los sistemas fotogramétricos digitales el factor básico que controla la precisión
es la resolución de la digitalización. Nolette et al.(1992) han realizado diferentes
análisis de precisión controlando la precisión en planimetría y altimetría de modelos a
diferentes escalas, obteniendo las siguientes expresiones.
σxy = PS x P x 0.7 x 10 E-6 σz = PS x P x F/B x 0.5 x 10 E-6
donde: PS: Denominador de la escala de la fotografía P: Tamaño del píxel (µm)
F: Distancia focal de la cámara empleada (mm) B: Fotobase (mm)
En la Tabla A2.1 se muestran ejemplos de las precisiones previstas en función de
la escala de la fotografía y la resolución espacial empleada en el proceso de
digitalización. En la Tabla A2.2 se presentan valores de errores reales de diversos
modelos, los errores han sido expresados en µm a escala de la fotografía. La
FOTOGRAMETRÍA DIGITAL   75 

geometría de todos los modelos es la misma, han sido tomados con una cámara de
152mm de distancia focal y con un 60% de solape longitudinal. Las fotografías han
sido digitalizadas a 450 ppp (tamaño de píxel 56µm), por lo que la precisión teórica a
nivel de subpíxel es de 40µm. En todos los casos, la orientación relativa y absoluta ha
sido realizada con 10 puntos homogéneamente repartidos por el modelo utilizándose
un número variable entre 12 y 44 puntos para controlar la precisión.
Tabla A2.1. Errores teóricos en DVP
Resolución Tamaño
Escala
Imagen imagen Tamaño píxel Precisión planimétrica Precisión Altimétrica
Foto
(ppp) (Mb)
Imagen Terreno emc máx. int. alt. emc
(µm) (m) (m) (m) (m)
1:2500 1000 82 25 0.06 0.04 0.09 0.11 0.05
800 53 32 0.08 0.06 0.11 0.14 0.07
600 30 42 0.11 0.07 0.15 0.18 0.09
400 13 64 0.16 0.11 0.22 0.27 0.14
200 3.3 127 0.32 0.22 0.44 0.54 0.27
1:5000 1000 82 25 0.13 0.09 0.18 0.21 0.11
800 53 32 0.16 0.11 0.22 0.27 0.14
600 30 42 0.21 0.15 0.29 0.36 0.18
400 13 64 0.32 0.22 0.45 0.54 0.27
200 3.3 127 0.64 0.44 0.89 1.08 0.54
1:10000 1000 82 25 0.25 0.18 0.35 0.43 0.21
800 53 32 0.32 0.22 0.45 0.54 0.27
600 30 42 0.42 0.29 0.59 0.71 0.36
400 13 64 0.64 0.45 0.90 1.09 0.54
200 3.3 127 1.27 0.89 1.78 2.16 1.08
1:15000 1000 82 25 0.38 0.26 0.53 0.64 0.32
800 53 32 0.48 0.34 0.67 0.82 0.41
600 30 42 0.63 0.44 0.88 1.07 0.54
400 13 64 0.96 0.67 1.34 1.63 0.82
200 3.3 127 1.91 1.33 2.67 3.24 1.62
1:20000 1000 82 25 0.50 0.35 0.70 0.85 0.43
800 53 32 0.64 0.45 0.90 1.09 0.54
600 30 42 0.84 0.59 1.18 1.43 0.71
400 13 64 1.28 0.90 1.79 2.18 1.09
200 3.3 127 2.54 1.78 3.56 4.32 2.16
El tamaño de almacenamiento está referido para imágenes de 8bits (256 tonos de gris), las imágenes en
color requieren el triple de espacio de almacenamiento.
El error medio cuadrático en planimetría viene definido como el 70% del tamaño del píxel, el error
máximo se puede obtener como dos veces el error cuadrático medio.
La diferencia de cota mínima detectable se obtiene como (distancia focal x base ) / tamaño de píxel,
siendo el error cuadrático medio la mitad de la diferencia de cota mínima detectable.
La precisión altimétrica ha sido calculada para f=152mm, b=90mm (60% solape)
76  SISTEMAS FOTOGRAMÉTRICOS DIGITALES 

Tabla A2.2. Errores reales en DVP


RMS Ptos Control
Modelo Escala Nº Ptos. Control
XY Z
1 1:6000 34 35 14
2 1:6000 40 34 17
3 1:6000 45 35 12
4 1:5000 42 42 33
5 1:40000 50 33 44

Hardware y Software.
La digitalización de imágenes fotográficas produce ficheros de gran tamaño,
teniendo en cuenta el entorno operativo sobre el que se desarrolla en sistema DVP
(PC funcionando bajo Windows). Afortunadamente el coste de almacenamiento por
Mb cada día es menor y por otro lado, la oferta de sistemas de respaldo cada vez es
más importante.
Es muy importante que el disco duro del sistema y la controladora sean tan rápidos
como sea posible debido a que en el DVP actúan como apoyo de la memoria video.
Por otro lado, se ha comprobado (Nolette et al.,1992) la importancia de configurar un
caché de disco en el sistema, fundamentalmente para la velocidad de visualización y
siempre, lógicamente que la memoria RAM del sistema lo permita.
Para obtener una velocidad de visualización lo más rápida posible, la transferencia
de datos entre el disco y la tarjeta de video debe realizarse directamente sin ningún
tipo de transformación de los datos, por lo que es necesario que todas las
transformaciones, si fueran precisas, se realizaran una única vez y los datos
transformados fueran almacenados en los ficheros que emplea el software
fotogramétrico. No obstante, es importante tener en cuenta que debido a los grandes
avances tecnológicos en informática este es un problema que progresivamente será
menos importante.
a) Visualización de los fotogramas
Debido a que el objetivo de diseño de este equipo pasaba por la utilización de
hardware estándar y de bajo precio, se presenta una opción de visión estereoscópica
mediante un estereoscopio de espejos en la parte frontal del monitor mostrándose
ambas fotografías de una forma simultánea en la pantalla dividida en dos zonas. El
estereoscopio montado está compuesto de 4 espejos y dos lentes y aunque no permite
el ajuste de la distancia interpupilar el diámetro de las lentes es suficiente para
compensar las diferencias posibles entre los diferentes observadores. Este sistema
tiene el inconveniente de dividir por dos la zona de trabajo de la pantalla, aunque
presenta la ventaja de utilizar hardware estándar.
La visualización de los fotogramas se realiza de forma de que un píxel de la
fotografía se corresponde con un píxel en la pantalla, por lo que dependiendo de la
resolución empleada en la digitalización el área que se visualiza de la imagen varia.
Cuando se requiere un trabajo de detalle se debe trabajar con resoluciones elevadas,
FOTOGRAMETRÍA DIGITAL   77 

pero se presenta el problema de que el área presentada es menor por lo que el


operador puede tener dificultades debido a la perdida de perspectiva, por lo general el
límite de trabajo para una pantalla de 800x600 es de 450ppp.
Las tarjetas de video permiten el trabajar con 256 colores, de los cuales los 64
primeros se emplean para la visualización en tonos de gris (0 a 63), los siguientes
64x2 colores se emplean para trazados no destructivos utilizados para las
superposiciones, así es posible el borrar vectores trazados sobre la imagen sin destruir
ésta. Los últimos 64 colores son para colores destructivos empleados para la
modificación de los datos de la imagen y para la presentación de texto, así como para
los menús del programa.
b) Movimiento del modelo.
Considerando las características del hardware utilizado, en particular en lo
referente a sistema gráfico, la única solución posible es el movimiento del índice
flotante sobre la imagen que permanece fija, lo que únicamente requiere el refresco de
la imagen cuando es necesario observar otra parte del modelo. Las ventajas básicas de
este sistema es que no necesita el almacenamiento de la imagen en memoria,
pudiendo permanecer ésta en el disco duro al cual se accedería sólo cuando fuera
necesario mostrar otra parte del modelo. Por otro lado, los sistemas de imágenes
móviles presentan problemas de adaptación del ojo cuando se produce el movimiento
de los píxeles en la pantalla por motivos de discontinuidad de movimiento.
Una vez que se ha completado la orientación relativa, el sistema mantiene fija la
fotografía izquierda y permite la movilidad de la fotografía derecha para la
eliminación de la paralaje en y, con el objetivo final de que los dos índices estén
situados en la misma línea epipolar horizontal. El desplazamiento de la imagen
derecha sólo tiene lugar cuando el diferencia entre la posición original del cursor y la
posición calculada es mayor que medio píxel, teniendo en cuenta que para evitar
retrasos innecesarios se ha aplicado un retardo de 0.25 s desde el momento en el que
índice se detenga, antes de que comience el proceso de movimiento de la imagen.
Cuando se ha completado la orientación absoluta, el índice flotante se mueve a
una elevación constante de forma que el paralaje en x es continuamente calculado
para determinar la posición del píxel en la imagen derecha correspondiente a la
posición dada en la imagen izquierda.
Para facilitar al operador el movimiento del modelo, en la esquina inferior derecha
se muestran un esquema de las porciones de imagen que se están visualizando.
c) Trazado y superposición
El proceso de trazado final conlleva diversas funciones relacionadas con el
tratamiento de imágenes, el diseño asistido y las bases de datos. El DVP incluye un
número mínimo de funciones gráficas necesarias para el trazado recibiendo cada uno
de estos atributos un código distinto, realizándose su almacenamiento en una base de
datos localizando los objetos en un espacio de coordenadas terreno (3-D). Asimismo,
permite la importación de ficheros de otros programas comerciales (AutoCad,
Microstation, ACDS,…) siempre que el dibujo a importar este lógicamente referido a
78  SISTEMAS FOTOGRAMÉTRICOS DIGITALES 

las mismas coordenadas terreno (en el caso de que el dibujo sea planimétrico, el
sistema le aplica automáticamente un valor de cota).
9. Desktop Mapping System (DMS) de R-Wel Inc.
El sistema DMS se presenta como un sistema fotogramétrico digital de bajo coste
para la restitución (fotointerpretación) y la generación de ortoimágenes. El sistema
presenta las siguientes características en cuanto a su funcionalidad:
a) Visualización y tratamiento de imágenes. El sistema permite la visualización de
ficheros de imágenes, bases de datos vectoriales y modelos digitales de elevaciones
pudiendo obtener las coordenadas píxel de los elementos así como su nivel digital.
Incorpora tratamientos de realce de imágenes mediante ecualización del histograma
así como técnicas de fusión para la integración de imágenes de diferentes resoluciones
espaciales o espectrales o de diferente fecha. También incorpora filtros de paso alto
para resaltar los bordes y facilitar la restitución.
b) Aerotriangulación: El sistema permite la identificación de puntos de paso así
como los puntos de apoyo y control terrestre, necesarios para la orientación de las
imágenes generando ficheros que serán posteriormente resueltos en los programas
PCGIANTo AeroSys, entre otros.
c) Restitución estereoscópica: Una vez que las imágenes están orientadas es
posible la obtención de la información plani-altimétrica de los elementos contenidos
en el modelo. El sistema incorpora herramientas para la clasificación temática de las
imágenes facilitando su interpretación. Por otro lado, dispone de un sistema para la
generación de modelos digitales de elevaciones mediante las técnicas de correlación
automática, que permite la medida de los datos a partir de una malla definida por el
usuario. El modelo generado puede ser superpuesto a las imágenes para la revisión y
edición del modelo.
d) Generación de ortofotografías y mosaícos: El sistema incorpora un módulo para
la realización de ortoimágenes mediante rectificación diferencial utilizando la
información derivada del proceso de orientación y el MDE generado, así como un
módulo para la fusión de las ortoimágenes en un único fichero que contiene el
mosaico final.
Requerimientos del sistema:
− Plataforma: Windows 95/98/ME/XP
− Procesador: Intel o compatible
− Memoria RAM: Superior a 128 Mb
− Disco duro: 10 a 20 Gb
− Tarjeta gráfica con resolución mínima 1024x768 pixels (24 bits color)
− Tableta digitalizadora: Altek, Summagraphics, GTCO, Calcomp, Kurta,…

10. PhoTopoL de TopoL Software sro.


El sistema PhoTopoL es un sistema fotogramétrico digital de bajo coste
desarrollado por la empresa checa TopoL Software sro. que permite la realización de
todos los trabajos necesarios para la obtención de documentos cartográficos a partir
FOTOGRAMETRÍA DIGITAL   79 

de imágenes en formato digital. El sistema permite la generación automática de


modelos digitales del terreno, de ortofotografías y además incorpora un sistema de
información geográfica propio para la gestión de la información capturada.
El diseño del sistema es totalmente modular siendo las funciones básicas del
sistema las siguientes:
a) orientación
b) visualización y edición estereoscópica
c) generación automática de modelos digitales de elevaciones
d) ortorrectificación
a) Orientación: El sistema calcula en primer lugar la orientación interna de los
fotogramas y después realiza la orientación externa. La orientación externa de una
imagen o de un par estereoscópico puede realizarse mediante el procedimiento clásico
en dos pasos (orientación relativa y transformación espacial) o mediante el ajuste del
bloque. El sistema permite la exportación de la información para su utilización con el
sistema AeroSys.
b) Visualización y edición estereoscópica: El sistema de visión estereoscópica emplea
dos tarjetas gráficas estándar que soporten DirectX 6.0 con sistemas de gafas activas
de Stereographics o pasivas de Z-Screen, utilizando monitores de alto refresco para
evitar interferencias en la visualización. Para el desplazamiento por el modelo se
emplean sistemas de manivelas aunque pueden emplearse algunos ratones estándar
(por ejemplo, Microsoft EasyMouse) o tabletas digitalizadoras como sistemas de
movimiento 3D. El sistema permite la superposición gráfica de los elementos
restituidos sobre las imágenes para facilitar las labores de revisión y/o edición de los
mismos.
c) Generación automática de modelos digitales de elevaciones: El sistema utiliza
sistemas de correlación digital para la extracción de las coordenadas terreno de los
puntos de una forma automática. El módulo permite la introducción y edición de
líneas de ruptura.
d) Ortorrectificación: El sistema incorpora un módulo para la generación de
ortofotografías a partir de fotografías aéreas, el cálculo de la ortorrectificación puede
ser realizada píxel a píxel o bien mediante triángulos definidos por el usuario.
El sistema es totalmente modular de forma que el usuario puede adaptar el sistema
a sus necesidades concretas pudiendo definirse tres opciones básicas:
− Ortorrectificación: PhoTopoL Orthophoto, que incluye TopoL for Windows
DEM, el cálculo de las orientaciones y el módulo de ortorrectificación.
− Generación Automática de MDE y Ortofotografías: PhoTopoL Generation,
que incluye TopoL for Windows DEM, el cálculo de las orientaciones, el
módulo de ortorrectificación, el módulo de correlación y el módulo Atlas de
tratamiento de MDE.
− Edición estéreo: PhoTopoL Stereo, que incluye TopoL for Windows DEM, el
cálculo de las orientaciones, el módulo de ortorrectificación, el módulo de
correlación, el módulo de edición estereoscópica y el módulo Atlas de
tratamiento de MDE.
80  SISTEMAS FOTOGRAMÉTRICOS DIGITALES 

El módulo Atlas es un módulo de tratamiento de MDE que permite la generación


del MDE, la edición interactiva de la superficie, el cálculo de las curvas de nivel y la
exportación de los resultados para un máximo de 60.000 puntos en la versión base. La
versión más alta permite el tratamiento de 4 millones de puntos, la generación de
perspectivas y la generalización del MDE eliminando los puntos que no tienen
importancia en el modelo.
11. VirtuoZo
El software que incorpora este equipo fue desarrollado en la Universidad de
Wuhan (R.P.China) siendo posteriormente comercializado por la empresa australiana
Geonautics WuDAMS Pty Ltd siendo el sistema distribuido por VirtuoZo Systems
International Pty Ltd. VirtuoZo es un conjunto de software basado en la plataforma
UNIX para Silicon Graphics (IRIX) y Windows NT.
Actualmente, el uso predominante de VirtuoZo abarca la creación de DTM/DEM
con intervalo por X,Y seleccionado por el usuario y orto-imágenes para propósitos
cartográficos, además de ser una fuente de información para sistemas de información
geográfica (GIS).
El programa se comercializa en tres versiones de nivel de prestaciones creciente y
en entornos Unix y Windows NT:
− Versión Lite
− Versión Classic
− Versión Professional
Las prestaciones y requisitos de cada una de las versiones son las siguientes:
Versión Lite:
Generación de MDE, Ortoimágenes, Mapas de curvas de nivel, Restitución 3D,
visualización estereoscópica o monoscópica.
Configuración recomendada:
− Windows NT/2000/XP Professional (Win 9x/ME - para visión
monoscópica)
− Mínimo Intel Pentium II or III 300Mhz, 128Mb RAM, 6Gb disco duro
− Monitor 17"/21" Multisync, 65536 col., 1024x768 pixels, refresco vert.
100Hz
− Tarjeta gráfica Diamond Fire GL1000 Pro (o cualquiera compatible con
OpenGL si la visualización no es estereoscópica)
− Sistema de visión estereoscópica NuVision 60GX LCD
− Sistema de digitalización 3D de VirtuoZo System
Versión Classic
Las posibilidades de la versión Classic son todas las incluidas en la versión Lite
permitiendo además la generación de mapas de curvas de nivel en formato raster, la
creación de mosaicos de MDE, de ortofotografías y de mapas de curvas de nivel de un
número ilimitado de modelos.
FOTOGRAMETRÍA DIGITAL   81 

Configuración recomendada (sólo mejoras con respecto a la versión Lite)


− Procesador Intel Pentium II o III 400Mhz (o superior)
− 256Mb RAM, Disco duro 9Gb UltraWide SCSI
− Sistema de visión estereoscópica NuVision 60GX (gafas activas) o gafas
pasivas y filtro polarizador para monitor 17/21"
− Programa Microstation 95 -J para digitalización estereoscópica 3D
Módulos de la extensión profesional
− Importación de MDE
− Rectificación de una imagen individual
− Módulo de conexión con los programas de ajuste de bloques
− Módulo de generación automática de puntos de paso
− Módulo de procesamiento de imágenes SPOT.
− Módulo de enlace VirtuoZo/MicroStation (incluído en la versión
Classic-PXM en la versión Lite)
Configuración recomendada
Igual que la correspondiente a la versión Classic
El esquema de trabajo con VirtuoZo viene marcado por el diseño modular del
sistema siguiendo un esquema clásico de trabajo a fin de simplificar el aprendizaje a
operadores de otros sistemas y facilitar su manejo.
Trabajos preparativos.
Las fotografías escaneadas con un escáner fotogramétrico se ordenan por orden
consecutivo de número de fotos y líneas de vuelo (strips) llenando las tablas
correspondientes con las opciones de"SETUP" en el menú principal del programa. El
usuario también debe especificar la ubicación (directorio) de los archivos de la
cámara (datos de marcas fiduciales y centro, distancia focal y parámetros de
distorsión del objetivo), puntos de apoyo terrestre, escalas del producto final,
resolución deseada de la ortofoto final, intervalos de DTM/DEM, curvas de nivel, etc.
Orientación
El esquema de orientación es el proceso clásico que comienza con la orientación
interna automática (1 s/foto) con posibilidad de introducción manual para imágenes
con marcas de difícil identificación o con problemas geométricos (deformación del
soporte, problemas de calibración de cámara o escáner,...).
Una vez terminada la orientación interna, el sistema se realiza la orientación
relativa y el cálculo de los ángulos de orientación y bases para cada modelo. Para ello
el sistema diseña el esquema de los puntos de paso de acuerdo con la ubicación
clásica de Von Grüber, eligiendo habitualmente un número superior a 6 puntos por
modelo (habitualmente 30), lo que permite depurar los resultados eliminando los
puntos con errores elevados.
Cada uno de estos puntos se selecciona sobre la imagen automáticamente por el
software y se le asignan identificación y coordenadas instrumentales respecto al punto
de mejor simetría (best point of simetry), que marca el dato de la calibración de la
82  SISTEMAS FOTOGRAMÉTRICOS DIGITALES 

cámara. Sobre estas imágenes, hay que seleccionar y agregar manualmente los puntos
de control terrestre incluyendo las ventajas de la identificación automática en el resto
de las imágenes, que son el esqueleto para el ajuste posterior con otros programas
conocidos (Albany, PAT-B,etc.).
El resultado de este proceso son archivos con extensión [.mea] en formato de
Albany o Pat-B con coordenadas instrumentales para cada línea de vuelo, preparados
para ser exportados, ajustados y vueltos a importar con interfaces directas. El
resultado del ajuste con el software disponible (ALBANY, PAT-B, WUCAPS, etc.),
es un archivo con coordenadas reales x,y,z; para cada punto del control terrestre
medido en campo o generado y calculado en gabinete.
Una vez importadas las coordenadas ajustadas, con la opción "Create Stereo
Models", VirtuoZo crea de forma automática y en orden consecutivo subdirectorios
correspondientes a cada modelo; y cada subdirectorio de un modelo incluye sus
propios archivos con los parámetros de la orientación interna, relativa y absoluta.
Generación Automática de MDE
El sistema VirtuoZo incorpora un módulo de generación automática de MDE
mediante correlación automática siguiendo el intervalo definido por el usuario,
proporcionando una base de datos de puntos con coordenadas x,y,z. El resultado de la
estéreo-correlación automática es una malla regular de puntos 3D (pegs),
superpuestos al modelo. La velocidad de este proceso está en torno a 600 ptos/s. Los
modelos generados se pueden editar utilizando los sistemas de visión estereoscópica
(únicamente versión Profesional y Clásica) ajustando la posición "Z" de cada punto.
Ortofotografía Digital
Utilizando el MDE extraído del modelo estereoscópico o importado de otra fuente
junto con los resultados de la orientación se obtiene de forma automática la ortofoto a
la escala seleccionada por el usuario. Este proceso se realiza de forma desatendida sin
necesidad de un operador. Una vez creadas las ortofotos de cada modelo se puede
obtener el mosaico de forma automática sin discrepancias en las líneas del empalme
de los modelos adyacentes. La duración de este proceso depende del número de
modelos y la resolución de la ortofoto final.
Curvas de nivel
El sistema incorpora la opción del trazado de curvas de nivel a partir del MDE y
de la equidistancia definida por el usuario. Las curvas obtenidas se obtienen en
formato AutoCad y MicroStation.
Ortofotografías + Curvas de nivel
Los dos archivos raster de la ortofoto y las curvas de nivel se pueden juntar en uno
solo y exportar para impresión en trazadores gráficos o sistemas de filmación a partir
de archivos digitales.
FOTOGRAMETRÍA DIGITAL   83 

Restitución
La restitución de la planimetría se realiza de la misma forma que en un restituidor
tradicional (analógico o analítico) utilizando una biblioteca de símbolos, tipos de
línea, etc., con la ventaja adicional de la superposición de los elementos restituidos
sobre el modelo. Otra opción de gran interés es la posibilidad de posado automático
en el modelo sin tener que actuar sobre “Z” y tomando los valores del MDE
disponible. La restitución se puede realizar también en entorno MicroStation.

12. Sistema Digi3D


El sistema Digi3D es un sistema fotogramétrico muy difundido en nuestro país
entre las empresas del sector. La ventaja fundamental del sistema es su reducido coste
y la flexibilidad de sus configuraciones. Así, por ejemplo, en cuanto al sistema de
visualización estereoscópica permite incorporar cualquier tipo de sistema tanto
mediante estereoscopios como de gafas activas o pasivas. El sistema de
desplazamiento en el modelos puede ser realizado mediante la incorporación de
ratones convencionales, ratones 3D, manivelas e incluso joysticks.
El sistema permite la manipulación de imágenes de diversos formatos (TIFF
planos y con tiles, BMP, JPG, MrSID, ...). En lo referente a la orientación incorpora
un esquema de orientación interna que puede ser manual o automática mediante
correlación con ajuste mediante transformación afín por mínimos cuadrados y
presentación de informe de parámetros y residuos de la transformación, orientación
relativa que también puede ser manual o automática incorporando herramientas de
correlación con estimación robusta para la detección de errores groseros y resolución
final mediante colinealidad y, por último, orientación absoluta que se realiza de forma
manual si bien cuenta con ayudas para la transferencia de los puntos ya medidos
mediante correlación. El sistema calcula los parámetros de orientación mediante la
matriz de Rodríguez que se toman como aproximados en la linealización de la matriz
de Euler ajustándose el sistema de ecuaciones por mínimos cuadrados.
El sistema incorpora un sistema de aerotriangulación con ayudas por correlación,
tanto por haces como por modelos independientes contando con ayudas en la medida
similares a las que se emplean en la orientación absoluta para la búsqueda de puntos
por correlación así como para el etiquetado automático de los puntos. Los resultados
se almacenan para permitir el trabajo directo con PatM y PatB. El sistema dispone de
un generador automático de reseñas en formato html que es posible personalizar para
la presentación de las capturas de imágenes de las posiciones de los puntos de apoyo y
de aerotriangulación indicando sus correspondientes coordenadas terreno.
Una vez que las imágenes ya han sido orientadas es posible la generación
automática de modelos digitales del terreno mediante correlación. El sistema mide de
forma automática conjuntos de puntos posados sobre el terreno tanto de forma
interactiva como en forma de procesos por lotes. El módulo permite la configuración
de los parámetros que intervienen en el proceso de forma que es posible el ajuste de
los mismos para obtener los resultados óptimos.
84  SISTEMAS FOTOGRAMÉTRICOS DIGITALES 

El sistema incorpora módulos para la restitución (basado en el conocido sistema


Digi empleado en los sistemas analógicos y analíticos) con superposición
estereoscópica de los vectores obtenidos así como para la generación de
ortofotografías.
Por último, señalar como característica destacable la posibilidad de instalación de
módulos externos (pluggins) que, por ejemplo, permiten la programación de muestras
órdenes por parte del usuario, la generación de informes sobre el rendimiento del
operador del sistema y los enlaces con las bases de datos.
FOTOGRAMETRÍA DIGITAL   85 

REFERENCIAS BIBLIOGRÁFICAS
Albertz, J. y König, G. (1991). The Advanced Digital Stereophotogrammetric System of the TU Berlin. En:
Ebner, H. et al. (eds): Digital Photogrammetric Systems. Ed. Wichmann. Karslruhe, 17-27.
Ballard,D.H. y Brown,C.M. (1982). Computer Vision, Ed. Prentice-Hall. Englewood Cliffs, N.J., 523 p.
Benard, M. (1987). Automatic Stereophotogrammetry: A Method based on Feature Detection and Dynamic
Programming. Photogrammetria, 39, 169-181.
Bethel, J. (1986). The DSR11 Image Correlator. Technical Papers, ASPRS, vol. 4, Washington, 6 pp.
Blais, J.A.R. (1979). Least Squares Block Adjustment of Stereoscopic Models and Error Analysis. Tesis
Doctoral. Dpt. of Surveying and Engineering. UNB. Technical Report nº 30001. Division of Surveying
Engineering. Univ. of Calgary.
Case, J. (1982). The Digital Stereo Comparator/Compiler (DSCC). IAPRS, 24(2), 23-29.
Cho,W., Madani, M. y Schenk, T. (1992). Resampling digital imagery to epipolar geometry. IAPRS,
29(B3): 404-408.
Dowman, I. (1991). Desing of Digital Photogrammetric Systems. En: Ebner et al.. Digital Photogrammetric
Systems. Wichmann, Karslruhe. 28-38.
Dowman, I. y Upton, M. (1992). A SUN Enviroment for SAR geocoding. Proc. 3 GeoSAR Workshop.
Fairhan Castle.
Ebner, H. y Heipke, C. (1988). Integration of Digital Image Matching and Object Surface Reconstruction.
Int. Arch. of Photogrammetry and Remote Sensing, 27-11, II/ 534-545.
Förstner, W. (1990). Concepts and Algoritms for Digital Photogrammetric Systems. IAPRS, 28-2, 144-171.
Foley, B.L. (1993). Past, Present and Pricing of Orthophotos. Proc. of the Int. Soc. of Optical Engineering.
State of the Art Mapping. Orlando, Florida. 13-15 Abril. 242-245.
Gagnon, P.A.; Agnard, J.P.; Nolette, C. y Boulianne, M. (1990). A Microcomputer Based General
Photogrammetric System. PE&RS, 56(5), 623-625.
Gagnon, P.A.; Boulianne, M.; Agnard, J.P.; Nolette, C. y Coulombe, J. (1995). Present Status of the DVP
System. Geomatica, 49(4), 479-487.
Graham, L.N.; Ellison, K. y Riddell, C.S. (1997). The Architecture of a Softcopy Photogrammetry System.
PE&RS, 63(8), 1013-1020.
Gruen, A. (1985). Adaptative Least Squares Correlation: A Powerful Image Matching Technique. South
African Journal for Photogrammetry, Remote Sensing and Cartography, 14, 175-187.
Heipke, C. (1990). Multiple Image Matching in Object Space. IAPRS, 28-3, 294-302.
Heipke,C. (1995). State of the Art of Digital Photogrammetric Workstations for Topographical
Applications. PE&RS, 61(1).
Helava, U.V. (1988). Object-Space Least Squares Correlation. PE&RS, 54, 711-714.
Intergraph (1999). Información de la compañía.
Kölbl, O.; Boutaleb, A.K. y Penis, C. (1987). A Concept for Automatic Derivation of a Digital Terrain
Model with the Kern DSR 11. ISPRS Intercommission Conf. on Fast Processing of Photogrammetric
Data, Interlaken, 306-317.
Li, R. (1990). Erfassung unstetiger Oberflächen aus digitalen Bilddaten durch Flächen-und
Kantenzuordnung Deutsche Geodätische Kommision, Reihe C, Heft, Nr 364, 77 p.
Marr,D. (1982). Vision. W.H. Freeman and Co. New York. 397 p.
Miller,S., Helava,U.V., y Devenecia,K. (1992). Softcopy photogrammetric workstations. PE&RS, 58(1),
77-83.
Nolette,C., Gagnon,P.A. y Agnard,J.P.(1992). The DVP: Design, operation and perfomance. PE&RS 58(1),
65-69.
Pertl, A. y Ackermann, F. (1982). Zuordnung kleiner Bildflächen durch Digitale Korrelation. Bonn. 16 p.
Saleh, R.A.; Scarpace, F.L. y Dahman, N.A. (1994). Softcopy Photogrammetric System Evaluation for
Production Environment. Proc. Mapping and Remote Sensing Tools for the 21st century. ASPRS. 26-29
Agosto. Washington.
Saleh, R.A. (2000). The cost and benefits of softcopy photogrammetric production. IAPRS, XXXIII (B2),
476-481.
Sarjakoski, T. (1981). Concept of a completely digital stereoplotter. The Photogrammetry Journal of
Finland, 8(2), 95-100.
Schenk,T. (1994). Concepts and Algorithms in Digital Photogrammetry. ISPRS Journal of Photogrammetry
and Remote Sensing. 49(6), 2-8.
86  SISTEMAS FOTOGRAMÉTRICOS DIGITALES 

Schenk, T. (1995). Digital Photogrammetric Systems. Proc. 2nd Course in Digital Photogrammetry.
Universidad de Bonn. 17 p.
Schenk, T. (1999). Digital Photogrammetry. vol. I. TerraScience, Laurelville, Ohio. 428 p.
Schenk, T. y Toth, C.K. (1991). Towards an Autonomous System for Orienting Digital Stereo Pairs.
PE&RS, 57(8), 1057-1064.
Schenk,T. y Toth,C.K. (1992). Conceptual issues of Softcopy Photogrammetric Workstations. PE&RS,
58(1), 101-110.
Schenk, T. y Toth, C.K. (1997). Conceptual Framework of a Generalized Roaming Scheme. PE&RS, 63(8),
959-964.
Spradley, L.M. (1994). Cost-effective data for regional GIS bases. IAPRS, 30(4), Athens, Georgia, pp. 203-
208.
Tang, L. y Heipke, Ch. (1993). An approach for Automatic Relative Orientation. Optical 3D Measurement
Techniques II, Wichmann, Karslruhe, 345-354.
Thorpe, J. (1991). The Future of Digital Ortophotography in GIS in the USA. Proc. of the 43rd
Photogrammetric Week at Stuttgart University, Germany. 9-14 Sept, 145-153.
Walker, S. (1996). Digital Photogrammetric Workstations 1992-1996. IAPRS, 31(B2), 384-395.
Wrobel, B. (1987). Facets Stereo Vision (FAST Vision) - A New Approach to Computer Stereo Vision and
to Digital Photogrammetry. ISPRS Intercommission Conf. On Fast Processing of Photogrammetric
Data, Interlaken, 231-258.

PE&RS: Photogrammetric Engineering & Remote Sensing


IAPRS: International Archives for Photogrammetry and Remote Sensing
ASPRS: American Society for Photogrammetry and Remote Sensing
Capítulo 3. Sistemas de Adquisición de
Imágenes Digitales Fotogramétricas

3.1 Introducción.
3.2 Sensores electroópticos.
3.3 Cámaras CCD.
3.4 Escáneres.
Anexo 3.1. Ejemplos de Escáneres empleados en Fotogrametría

3.1 INTRODUCCIÓN
El proceso de captura de la imagen es un proceso fundamental en Fotogrametría.
Las imágenes del objeto de interés deben ser capturadas y almacenadas para realizar
las medidas fotogramétricas aplicando las transformaciones necesarias para pasar del
espacio imagen al espacio objeto. Por lo general, la Fotogrametría ha empleado
procedimientos fotográficos para la captura de las imágenes, imágenes que
básicamente pertenecían a la zona visible o próxima al visible del espectro
electromagnético, aunque para aplicaciones concretas se utilizaban otras zonas. Sin
embargo, independientemente de la longitud de onda utilizada, se utilizaba un sistema
de lentes y una película fotográfica en el plano focal para el registro de la proyección
perspectiva del objeto.
Esta imagen adquirida en el plano focal era tradicionalmente registrada en
cristales de haluro de plata sobre un soporte de poliéster o cristal. La Fotografía es
una técnica bien conocida, por lo que la integridad, estabilidad y longevidad de los
registros fotográficos es controlable y predecible, siendo el único inconveniente el
tiempo requerido para llevar a cabo el proceso fotográfico (revelado-fijado-secado-
copiado) y la imposibilidad de modificación de la imagen una vez que se completa el
proceso fotográfico.
El desarrollo del tubo de rayos catódicos (1897) plantea la primera posibilidad de
imágenes no fotográficas, pero hasta 1923 no se perfecciona la cámara de tubo para
 
87 
88  SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

adquirir imágenes. Los sistemas utilizaban un tubo de vacío, una pantalla sensible a la
luz y un haz de electrones para presentar y registrar las imágenes, respectivamente. La
aparición y auge de la televisión a partir de la década de los años 30 extienden la
utilización de este tipo de técnicas que no son utilizadas con fines cartográficos hasta
mediada la década de los 50 (Rosenberg, 1955).
Estos sistemas con tubo de video presentaban el inconveniente de incorporar
elementos móviles que eran vulnerables a modificaciones medioambientales
(básicamente, presión y/o temperatura) o condiciones electromagnéticas,
especialmente a las vibraciones, limitando su precisión y eficacia.
Los sensores tipo solid-state fueron desarrollados a principios de la década de los
70. La imagen es captada por la conversión de los fotones en cargas eléctricas, en
lugar de por una reacción química (proceso fotográfico) o por un cambio de
resistividad (tubos de imagen). La ventaja fundamental es que los elementos del
sensor son discretos y están ensamblados en un soporte estable proporcionando una
mayor precisión geométrica que la alcanzada por los sistemas de tubo de imagen.
No obstante, la implantación de este tipo de sensores no fue instantánea, es
importante tener en cuenta que en los años 70, las cámaras de tubo de imagen tenían
mejor resolución, una respuesta más uniforme y eran construidas con una gran calidad
mientras que los sensores solid-state tenían mejor relación señal-ruido, mejor calidad
geométrica, mayor estabilidad y menor tamaño (Hall, 1977). En la década de los 80 se
generaliza la utilización de los sensores solid-state para la mayor parte de las cámaras
de televisión y video doméstico, gracias a su menor coste, menor ruido, rango
dinámico mayor y un excelente rendimiento comparado con otros sensores. Es
importante tener en cuenta el fuerte incremento de prestaciones de dichos sensores en
el período desde su aparición (menos de 25 años) pasando de matrices con un número
de píxel de 96 a los más de 50.000.000 actuales, con tamaños de píxel que han
descendido de las 25 a las 5 µm actuales.
Una ventaja fundamental de este tipo de sensores es que los valores de carga son
leídos de una forma que permiten la lectura o almacenamiento de la señal en un
sistema informático de una forma directa, permitiendo la aplicación de
procedimientos matemáticos y de análisis de imágenes para mejorar la calidad de la
misma permitiendo su modificación tanto geométrica como radiométrica.
La característica básica de la Fotogrametría Digital es la utilización de imágenes
en formato digital, este hecho va a ser determinante para establecer las ventajas e
inconvenientes de esta metodología, basándose en gran parte, en las ventajas e
inconvenientes de las imágenes digitales.
Para la adquisición de imágenes digitales fotogramétricas son empleados dos
procedimientos básicos (fig.3.1):
a) utilización de sensores digitales, o bien sensores analógicos dotados de un
conversor analógico/digital.
b) digitalización de imágenes analógicas adquiridas con cámaras fotográficas
convencionales.
FOTOGRAMETRÍA DIGITAL   89 

Flujo de Trabajo basado en toma de imágenes analógicas


MDE
IR IR
Escáne r DPW
Cámara Ortofotos
Aérea Color Col
Laboratorio
B/N Restituidor Mosaicos
B/N
A nalóg ico
Ti pos d e pelícu la Ana litíco
Restitución

Actualización
Cartográfica

SIG
Sistema
Archivos
Flujo de Trabajo basado en toma de imágenes digitales

Cámara Visualización
Preproc esado DPW
Digital
Análisis Digital
B/N de Imágenes

Imp resora Col Clasificación


captur a
simu ltá nea de
varios ca nales MS
espectrales

Fig.3.1. Sistemas de adquisición de imágenes en el proceso fotogramétrico digital (LH Systems, 2000)

En la actualidad, la primera opción está prácticamente limitada a aplicaciones de


tipo no topográfico, basadas en la utilización de cámaras de video o cámaras digitales
que permiten la realización de trabajos fotogramétricos en tiempo real. Las
aplicaciones topográficas a partir de imágenes obtenidas directamente en formato
digital se limitan a la utilización de imágenes satélite que incorporan posibilidades
estereoscópicas (por ejemplo, SPOT) si bien es importante indicar que en un futuro
inminente se prevé un importante cambio en esta situación como consecuencia de la
comercialización de sensores digitales aerotransportados diseñados para su utilización
en trabajos cartográficos fotogramétricos (LH Systems, 2000; ZI Imaging, 2000).
No obstante, es importante tener en cuenta que si bien la transición entre cámaras
analógicas y digitales es un proceso que es asumido por muchos (Hartl,1989) no es en
absoluto un proceso simple ni rápido. La transición será compleja, ya que la
competencia con respecto a las cámaras fotográficas va a ser muy dura al ser las
cámaras analógicas instrumentos que han alcanzado un importante grado de madurez
y perfección de funcionamiento y además requieren fuertes inversiones.
En la actualidad las cámaras métricas analógicas utilizadas suelen tener una
distancia focal de 152mm y un formato de 230x230mm, registrándose la imagen de
una forma instantánea en la película fotográfica. La película fotográfica puede ser
considerada como una matriz prácticamente infinita de elementos sensibles a la luz,
motivo por el cual se puede considerar que son los elementos de captación de
imágenes remotas con mayor resolución. La resolución de una cámara es puesta de
manifiesto mediante el parámetro de la resolución media ponderada por el área
(AWAR -area weighted average resolution-) que se expresa en líneas par por mm
90  SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

(lp/mm). Este parámetro que se establece mediante la calibración utilizando para ello
la fotografía de patrones calibrados depende de cinco factores esenciales: la calidad
de la lente, la definición de la película, los desplazamientos en la imagen debido al
desplazamiento de la plataforma, el desplazamiento angular y la calidad de la película
empleada para la copia. Además intervienen otros factores, que no pueden ser
controlables en el diseño de la cámara como por ejemplo, el estado de la atmósfera y
el nivel de contraste del terreno a fotografiar, que reducen la calidad del fotograma
real a una cifra en torno a 40 lp/mm.
Este nivel de resolución práctica de 40 lp/mm (es decir, tamaño de píxel en torno a
10µm -de 8 a 12.5µm-) implica unas necesidades de almacenamiento en vuelo
difícilmente alcanzables con la tecnología actual. Así una imagen de 23x23cm tendría
un tamaño de 23000x23000 píxeles lo que resultaría un tamaño de fichero de la
imagen digital de 500Mb (en 256 tonos de gris) o 1500Mb (en color real, 16.7
millones de colores). Este volumen debe ser almacenado en el escaso tiempo
disponible entre tomas que suele ser inferior a 10 s y necesitando un volumen
suficiente teniendo en cuenta el número de tomas que se realiza en un vuelo.
Por otro lado, el esfuerzo de desarrollo e investigación ha producido una
importante mejora en los niveles de resolución así en la Tabla 3.1 se muestra, a modo
de ejemplo, los resultados medios de las calibraciones realizadas por Leica
Geosystems sobre objetivos instalados en cámaras del tipo RC (RC8 a RC30).
Tabla 3.1. Evolución de la resolución y distorsión en los objetivos de la serie RC8 a RC30 (LH Systems,
2000)
Año Tipo de objetivo AWAR (lp/mm) Resolución (µm)
1961 15UAG 55 (f:5.6) 10
1972 UAGI 57 (f:5.6) 4
1972 UAGII 59 (f:5.6) 3
1978 15/4 UAG 90 (f:5.6) 2
1995 UAGS 105 (f:4) 2
En todos los casos la distancia focal es aproximadamente 152mm

3.2 SENSORES ELECTROÓPTICOS


Una comparación muy ilustrativa empleada por Shortis y Beyer (Atkinson, 1996)
para explicar el funcionamiento de un sensor solid-state es asemejarlo a un conjunto
de cubos que captan los fotones de luz (fig.3.2). Cada cubo en la matriz se
corresponde con un elemento fotosensible denominado elemento del sensor. Los
cubos "cargados" de fotones de luz se transportan en una serie de cintas hasta una
cinta transversal que ejerce de registro y en el que se miden los fotones captados.
Los sensores de captura de imágenes modernos están formados por un sustrato
semiconductor que puede almacenar y transmitir carga eléctrica. El sensor se divide
en una matriz de elementos sensibles, denominados sels. El sustrato del
semiconductor es silicio al que se han añadido una serie de impurezas con una capa
superior de 0.1 µm de espesor de dióxido de silicio que actúa como aislante. El tipo
fotodiodo tiene una región con sesgo positivo debajo de la capa superficial, mientras
FOTOGRAMETRÍA DIGITAL   91 

que el tipo MOS tiene un metal o electrodo de polisilicio (o puerta) interestratificado


en la superficie.

Fotones

Cinta transportadora

Cinta transportadora
Registro de medida

Fig.3.2. Analogía de la matriz de cubos para la explicación del funcionamiento de un sensor electroóptico
(tomado de Janesick y Blouke, 1987)

La absorción de fotones de luz debajo de la superficie del sensor produce la


elevación de electrones en cada elemento. El electrón es libre de desplazarse dentro
de la capa de cristal de silicio o de recombinarse en un hoyo, que es una ausencia
temporal de un electrón en la estructura cristalina regular. La región de sesgo positivo
atrae las cargas eléctricas negativas y los electrones se acumulan en la zona situada
justo debajo de la superficie del sensor. Debido a la existencia de un campo eléctrico,
la zona de acumulación es conocida como pozo de potencial (potencial well) en el que
los electrones quedan atrapados.
La absorción intrínseca en el silicio es el efecto fundamental para las regiones
visible y cercana al visible del espectro electromagnético. La energía requerida para
liberar electrones del silicio es tal que se requiere una longitud de onda entre 400 y
1100 nm. Fuera de este intervalo, el silicio es opaco a la luz ultravioleta y transparente
al infrarrojo. Debido a esto los sensores utilizados para la captación de imágenes
dentro de la zona del visible están provistos de un filtro infrarrojo para eliminar las
radiaciones que queden fuera de la zona deseada.
La absorción extrínseca debida a las impurezas del silicio es el mecanismo de
detección de longitudes de onda mayores. La sensibilidad espectral del sensor
dependerá del tipo de impurezas introducidas. La profundidad de penetración de los
fotones en el sensor depende de su longitud de onda, a mayor longitud la penetración
es mayor, de forma que las impurezas se suelen introducir a lo largo de todo el sensor.
Existe una relación lineal entre el número de fotones detectados y el número de
hoyos de electrones, y además del nivel de carga generado. Si la capacidad de los
pozos de potencial es sobrepasada entonces la carga rebosa afectando a los elementos
sensibles vecinos, produciendo un fenómeno denominado blooming. Para prevenir
esto las filas de elementos están aisladas entre si, mediante canales de parada (channel
stops). El tamaño de los canales reduce la proporción del área sensible a la luz.
92  SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

3.2.1 Geometría y propiedades radiométricas de los sensores electroópticos


3.2.1.1. Lectura del sensor y geometría de la superficie
La uniformidad de los elementos del sensor y la planeidad de la superficie del
mismo son factores de gran importancia si se desea utilizar la cámara para
aplicaciones fotogramétricas. La precisión en el proceso de fabricación del sensor
tiene un impacto directo en la aplicación del principio de colinearidad.
a) Geometría de los elementos del sensor
Los sensores CCD son fabricados por la colocación de diferentes capas sobre un
sustrato de silicio. La geometría de las diferentes capas depositadas es controlada por
un proceso fotolitográfico que es el mismo que se emplea en la construcción de
circuitos integrados. La fotolitografía utiliza máscaras que son preparadas a un
tamaño mucho mayor que el producto final y aplicados utilizando técnicas de
reducción óptica o fotográfica. El área no incluida en la máscara es preparada para el
depósito del material mediante luz ultravioleta sometiéndose después a la acción del
material vaporizado.
El límite de precisión y exactitud geométrica de los sensores CCD puede ser
deducida de la precisión y exactitud del proceso fotolitográfico. La generación actual
de microprocesadores se fabrica con unas reglas de diseño de 0.3-0.5 µm, lo que
requiere precisiones de alineamiento del orden de 0.1µm, con lo que se alcanzan
precisiones de 1/60 a 1/100 el tamaño del elemento para matrices de 8x8mm.
b) Planeidad de la superficie
La planeidad del sensor CCD es una propiedad que depende de la forma general
del sustrato de silicio y de la microtopografía del sustrato. Los primeros sensores
CCD tenían una resolución baja y pequeños formatos por lo que la planeidad de la
superficie no era un factor a tener en cuenta. Con el crecimiento de la resolución de
los sensores y el incremento del tamaño de los formatos se llega a ángulos de
incidencia próximos a 45º. No obstante, la utilización de este tipo de cámaras con
fines métricos es aún muy reciente, por lo que es extraño que el fabricante
proporcione información acerca de la planeidad de la película.
Como ejemplo señalar que la cámara Thompson CSF incorpora un sensor de
1024x1024 con una tolerancia de planeidad de 10µm, siendo el tamaño del elemento
19µm (diagonal de la matriz 27.5mm), lo que con un objetivo de 14mm de distancia
focal da lugar a ángulos de incidencia de 45º. Esta magnitud de errores requiere
correcciones cuando se realicen trabajos de cierta precisión siendo su modelización
compleja (procedimientos de autocalibración de la cámara).
La microtopografía viene dada por la superficie inicial del silicio y la estructura de
las puertas utilizadas para el acoplamiento de cargas. Las irregularidades se
establecen mediante medidas de gran precisión en microscopios electrónicos
presentando variaciones del orden de 0.5µm (Lee et al., 1985), con máximos del
orden de 1µm. El efecto de la microtopografía, especialmente combinada con otros
factores, como por ejemplo, ángulos de incidencia grandes, todavía no ha sido lo
suficientemente investigado ni experimentado.
FOTOGRAMETRÍA DIGITAL   93 

3.2.1.2. Color
Los sensores solid state son inherentemente acromáticos, en el sentido de que la
imagen atraviesa un intervalo amplio del espectro visible o cercano al visible. Las
imágenes registradas, al igual que las películas fotográficas pancromáticas, son una
amalgamación a lo largo de dicho intervalo. La falta de sensibilidad específica a un
determinado color da lugar a las imágenes monocromáticas, en las cuales sólo se
utiliza como variable la luminancia o brillo, representándose en una escala de grises.
El color puede ser introducido por dos métodos. El primero es registrar tres
imágenes de la misma escena, una en cada canal básico (rojo-verde-azul RGB o cian-
magenta-amarillo CMY). Las tres imágenes se obtienen mediante la utilización de
rueda de filtro de colores, que es rotada en cada captura o bien mediante la utilización
de tres juegos de sensores con filtros permanentes. Evidentemente, la primera
posibilidad sólo es viable si el objeto no está en movimiento y si la cámara realiza una
toma estática.
La segunda posibilidad es utilizar dentro del mismo sensor elementos con filtros
sensibles a diferentes longitudes, es decir, se alternan filas sensibles a cada uno de los
colores según esquemas como por ejemplo, RGBRGBRGB… o en filas alternativas
GRGR… y BGBG… debido a que el ojo humano es más sensible a la banda amarillo-
verde en el espectro visible. Debido a que el ojo humano es más sensible a fuertes
variaciones en la intensidad que a variaciones en el color, la mayoría de los sensores
tienen el 75% de elementos sensibles al verde y 25% sensibles al azul y rojo (Parulski
et al, 1992). Cada fila de elementos proporciona unos valores de rojo, verde y azul
que se combinan para obtener la imagen en color. La ventaja más importante de este
procedimiento es que sólo requiere disponer de una única matriz CCD y una sola
exposición, por tanto, es muy utilizada. Las imágenes monocromas pueden obtenerse
mediante la media ponderada en función de la respuesta espectral de los tres valores
obtenidos para cada uno de los canales, efectuando un filtrado que reduce la
discriminación de la imagen (Shortis et al, 1995).
3.2.1.3. Señales falsas
Las señales falsas (spurious signals) de los CCD son efectos sistemáticos que se
originan como consecuencia de defectos en la fabricación de los sensores o bien por
deficiencias en la tecnología de los CCD. Los efectos más importantes son la
corriente de oscuridad (dark current), blooming, smear, traps y blemishes. Todos
estos efectos producen la degradación de la calidad de la imagen y pueden ser
detectados por la inspección de las imágenes y minimizadas mediante la calibración
radiométrica del sensor.
a) Corriente de Oscuridad (Dark current)
Los sensores CCD se van progresivamente llenando con cargas aunque no exista
iluminación, alcanzando la capacidad total en un tiempo denominado tiempo de
almacenamiento. Esta carga no puede ser diferenciada de la carga producida por la luz
y depende de la profundidad del sensor.
94  SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

La corriente de oscuridad para imágenes individuales es generada tanto en el


periodo de iluminación como en el de lectura. Los CCD con mayor periodo de
iluminación (IL CCD) acumularán mayor cantidad corriente de oscuridad y de ruido.
Como los diferentes elementos del sensor requieren diferentes tiempos de lectura, el
nivel de corriente de oscuridad variará en función de una pendiente de tipo lineal,
presentando diferentes niveles a lo largo de la superficie de la imagen, si bien es
necesario tener en cuenta que este tipo de ruido está asociado con otros por lo cual la
tendencia lineal no se suele observar en la imagen final. Otro factor de gran
importancia es la temperatura que marca la velocidad de las reacciones electrónicas
por lo que es aconsejable que el calibrado de los sensores se realice a la misma
temperatura que se vaya a realizar el trabajo.
Existen dos técnicas para la reducción de la corriente de oscuridad. La oscuridad
actual está fuertemente correlacionada con la temperatura de trabajo, por lo que una
reducción de 5-10ºC reduce la generación de ruido en un factor de 2. Es por ello, que
numerosos sensores CCD científicos incorporan sistemas de refrigeración que
descienden la temperatura de trabajo a niveles de hasta -50ºC, para mejorar el rango
dinámico y en consecuencia la sensibilidad radiométrica del sensor. No obstante, esta
solución sólo es justificable cuando se requieren grandes tiempos de exposición
(captura de imágenes astronómicas, …) pero la opción preferible es la reducción de
tiempos de exposición que posibilita la captura de imágenes en movimiento y la
eliminación de estos sistemas de refrigeración complejos y costosos.
b) Blooming
Cuando incide demasiada luz en un elemento o grupo de elementos del sensor, la
capacidad de carga de los pozos puede sobrepasarse. El exceso de carga afecta a los
elementos vecinos, de igual forma que en un conjunto de cubos cuando uno rebosa el
agua puede pasarse a los cubos limítrofes. Este efecto es conocido como blooming y
se asociada a fuentes de iluminación de gran intensidad, como por ejemplo, marcas
retroreflectivas (targets) iluminadas por un flash.
Aunque el blooming no puede ser eliminado totalmente de los sensores, la
inclusión de canales antiblooming reduce mucho el efecto así en la actualidad los
niveles de iluminación permisibles son 10000 veces los niveles de saturación mientras
que en los primeros sensores eran de tan sólo 100 veces.
c) Smear
El smear describe el fenómeno que produce una fuente de luz intensa en la
dirección de las columnas. El efecto aparente del smear en la imagen adquirida es
muy parecido en todos los tipos de sensores, pero el origen físico es diferente. Este
efecto usualmente se define como la relación entre el cambio en el brillo de la imagen
sobre o bajo un área brillante que cubra un 10% del tamaño del sensor en la dirección
de las columnas.
d) Traps
Los traps son defectos producidos por un problema local de eficiencia en la
transferencia de carga, debido básicamente a problemas de fabricación. Un método
FOTOGRAMETRÍA DIGITAL   95 

para la reducción de los efectos de los traps es conservarlos siempre cargados, este
sesgo de carga denominado fat zero es introducido previamente a la acumulación de
la carga y posteriormente restado en la lectura. Esta técnica tiene el problema de la
disminución del rango dinámico del sensor. Los traps pueden ser puestos de
manifiesto como líneas oscuras de longitud corta que tienden a alargarse en las
imágenes de intensidad uniforme (flat field images). Para temperatura ambiental, este
tipo de señales son parcialmente eliminadas por la corriente de oscuridad.
e) Blemishes
Los blemishes son defectos en el material que compone el sensor, como, por
ejemplo, defectos cristalográficos en el silicio, o defectos producidos en el proceso de
fabricación. Estos defectos se caracterizan por afectar a un sólo punto, a una línea o a
un área.
Algunos fabricantes clasifican sus sensores en función del número y localización
de los blemishes. Por ejemplo, la matriz Dalsa 2048x2048 de clase 1 está virtualmente
libre de blemishes con un número inferior a 100 defectos puntuales, 5 de área y
ninguna columna defectuosa, por otro lado, la matriz de clase 3, puede presentar hasta
500 defectos puntuales, 50 de área y 10 columnas defectuosas.
3.2.1.4. Fuentes de ruido
Los sensores CCD presentan fuentes de ruido tanto sistemáticas como aleatorias
que afectan a la señal producida por la imagen incidente. Las fuentes de ruido más
importantes son el ruido fotónico y el ruido del circuito.
a) Ruido fotónico.
El ruido se produce durante la integración de la carga y su transferencia. La
generación de carga es intrínsecamente un proceso estadístico debido a la llegada
aleatoria y la absorción de fotones producida por la imagen incidente. El ruido
fotónico es igual a la raíz cuadrada del nivel de señal. Por tanto, la relación
señal/ruido es máxima cuando los elementos de los sensores están cerca de su
capacidad completa. Otras fuentes de ruido asociadas es el ruido de corriente de
oscuridad (dark current noise), asociada con la generación de señales de baja
intensidad que se rige igualmente por procesos de tipo aleatorio.
b) Ruido del circuito.
El ruido del circuito está presente siempre en cualquier sistema electrónico, y los
sensores CCD no son ninguna excepción. El ruido se produce principalmente en el
amplificador que multiplica el voltaje de salida de cada elemento de sensor
transformándola en una señal válida, tras la lectura de cada señal el amplificador debe
ser inicializado (voltaje cero), la incertidumbre de si se logra o no esta inicialización
se conoce como ruido de inicialización (reset noise). Este tipo de ruido evidentemente
está relacionado con la velocidad de lectura, así por ejemplo, es casi nulo en las
cámaras de lectura lenta (utilizadas principalmente con fines científicos) como, por
ejemplo, la cámara diseñada por Ford Aerospace que tiene una matriz de 4096x4096
elementos y que presenta niveles de ruido de inicialización inferior a 1 electrón
(Janesick et al., 1990), si bien presenta el inconveniente que requiere 64 lecturas de
96  SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

cada elemento lo que implica un tiempo de captura de la imagen de 11 minutos, no


obstante es importante tener en cuenta que en las cámaras de televisión o de video
doméstico debido a la necesidad de captar imágenes en movimiento la velocidad es
alta y el ruido es importante, representándose como un nivel constante para todos los
niveles de lectura.
c) Otros ruidos
Otros tipos de ruidos intrínsecos son el ruido de transferencia de carga (charge
transfer noise), el ruido de cero gordo (fat zero noise) y el anteriormente comentado
ruido de corriente de oscuridad (dark current noise). El ruido de transferencia de
carga está presente debido a las fluctuaciones aleatorias en la transferencia de los
elementos. Es proporcional a la raíz cuadrada del número de transferencias y al nivel
de señal.
Utilizando las estimaciones de diversas fuentes de ruido, constantes y
dependientes del nivel de señal, se puede estimar el nivel de ruido para un sensor
CCD estándar y para unas condiciones determinadas de temperatura. En la figura 3.3
se muestra como las imágenes de baja intensidad pueden ser difícilmente distinguibles
del ruido, mientras que la situación varía en las imágenes de alta intensidad con
relaciones señal/ruido óptimas.

600 0.12

500 0.10

Ruido (% de señal máxima)


Ruido total
Ruido (electrones)

400 0.08

Ruido de fondo
300 0.06

Ruido Fotónico
200 0.04

Ruido de transferencia de carga


100 0.02
Ruido de inicialización del amplificador
Ruido de corriente de oscuridad

0 0
0 101 102 103 10 4 105
Señal (electrones)

Fig.3.3. Relación entre señal y ruido en un sensor CCD

3.2.1.5. Respuesta espectral


Los sensores suelen recibir la iluminación por su zona frontal por lo que la luz
incidente necesita atravesar varias capas de estructuras, antes de ser absorbida por el
silicio. Las componentes de la luz de longitudes de onda cortas son absorbidas por los
dióxidos de silicio y polisilicio de dichas estructuras, reduciendo la sensibilidad en las
FOTOGRAMETRÍA DIGITAL   97 

regiones del espectro del ultra-violeta y el azul debido a que estas longitudes de onda
tienen penetración mínima en el silicio. A pesar de esta limitación, los sensores CCD
tienen una respuesta espectral mucho más amplia que el ojo humano o las emulsiones
fotográficas clásicas (pancromáticas) (fig.3.4).

0.6 CCD retroiluminado

0.5

Eficiencia Relativa
0.4 CCD con iluminación frontal

0.3

0.2
CCD de iluminación
frontal con filtro IR
0.1

0.0
Violeta Verde Amarillo Rojo
300 400 500 600 700 800 900 1000
Longitud de onda (nanometros)
Fig.3.4. Respuesta espectral de diferentes sensores CCD, fotografía y ojo humano

Por otro lado, el diseño de los sensores puede optimizarse para reducir al máximo
esta absorción utilizando materiales como el oxido de estaño o indio o bien
reduciendo el espesor utilizando un revestimiento de dióxido de silicio ultrafino. No
obstante, el método más extendido para solucionar este problema es la
retroiluminación, esta técnica requiere que la parte posterior del sensor sea reducida
de su espesor normal de 200 µm a tan sólo 8 µm (Janesick y Blouke, 1987). La luz
incidente no tiene que atravesar la parte anterior lográndose de esta forma una
sensible mejora en la respuesta espectral. Estos sistemas sólo se utilizan en
determinadas aplicaciones, como por ejemplo, captura de imágenes astronómicas, no
siendo recomendadas para otras aplicaciones debido a la mayor fragilidad de los
sensores.
Para conseguir que la respuesta espectral de los sensores CCD sea lo más parecida
posible a la respuesta del ojo humano se suelen emplear filtros infrarrojos que reducen
la sensibilidad de los sensores por encima de los 700nm, por otro lado, el empleo de
estos filtros es aconsejable, puesto que, reducen los efectos indeseables en la
respuesta producidos por una mayor penetración de los fotones de luz infrarroja, que
originan el reflejo contra la parte posterior del sensor y la lectura de los mismos por
los elementos limítrofes produciendo el efecto conocido como lectura óptica cruzada
(optical crosstalk). Este efecto es particularmente acusado con el empleo de objetivos
de gran ángulo de campo y grandes formatos debido a que permiten una mayor
inclinación en los ángulos de incidencia.
98  SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

3.2.1.6. Linealidad
La generación de carga a partir de la iluminación incidente es básicamente un
proceso lineal para los sensores por lo que teóricamente debería existir una relación
lineal entre la intensidad de la luz incidente y la señal de salida. Sin embargo, la señal
debe ser amplificada y transmitida por circuitos electrónicos, los cuales no suelen
mantener dicha linealidad en su respuesta. La señal de salida de un elemento puede
ser expresada como:
s = k q( + d
donde s es el nivel de señal de salida, k es una constante de proporcionalidad, q es la
carga generada y d es la señal de corriente de oscuridad.
La salida del elemento del sensor es lineal cuando ( es igual a 1. El error de
linealidad o error ( se calcula mediante la captura de imágenes uniformes de
diferentes intensidades y posteriormente se evalúan las respuestas y las relaciones.
Estos errores suelen ser inferiores al 3% (Séquin y Tompsett, 1975) para los CCD e
inferiores al 2% para CCD utilizados en aplicaciones científicas (aplicaciones
astronómicas u otras aplicaciones en las que la respuesta radiométrica es de gran
importancia) (Janesick et al, 1981). Esta reducción del error se obtiene mediante la
reducción de la velocidad de la lectura, la reducción de la potencia de amplificación y
utilizando muestreos múltiples.
3.2.1.7. Relación señal/ruido
La relación señal/ruido (SNR -signal to noise ratio-) se define como el cociente
entre el nivel de señal y el ruido de una captura determinada, y se mide en decibelios.
El valor viene dado por la expresión:
SNRdB= 20 log (s / Fs)
donde s es la señal y Fs es la desviación típica de la señal.
Los valores de SNR máximos se obtienen a los niveles de señal máxima. Así los
valores comunes para sensores CCD científicos están en torno a los 50 a 60 dB para
capacidades de carga de 105 y 106 electrones. La SNR baja a 20-30 dB,
respectivamente a niveles de 0-1% de la intensidad de luz de la señal máxima.
Para obtener una estimación más real de la SNR se debe incluir en la expresión los
valores de los ruidos de circuito (c) y del ruido de corriente de oscuridad (d).
s
SNR =
s + d +c

Los valores obtenidos en esta expresión son peores que los obtenidos en la
expresión original especialmente para niveles de señal bajos, y permiten establecer las
diferencias entre sensores estándar domésticos y los de aplicación científica, ambos
con respuestas muy parecidas a niveles altos pero con considerables diferencias a
niveles bajos debido a la mejor calidad de construcción y de los circuitos en estos
últimos.
FOTOGRAMETRÍA DIGITAL   99 

3.2.1.8. Rango dinámico


El rango dinámico se define como la relación entre un pico de señal y el nivel más
bajo de ruido del sistema o como la relación en intensidad de luz, entre los puntos más
altos y bajos cuando la relación SNR es igual a 1. Los valores típicos de rango
dinámico oscilan entre 104 y 105 ó 60-100 dB. Este valor es mucho más elevado que
la relación SNR, al estar considerar el ruido más bajo libre de ruidos por incidencia de
la señal.
3.2.1.9. Función de Transferencia de Modulación
La función de transferencia de modulación (FTM) viene determinada por la
geometría del píxel. La FTM es una función decreciente que indica la evolución de la
modulación (rango de densidades registradas por el sensor) en función de la
modificación de la frecuencia espacial del patrón fotografiado. Dicha función alcanza
un valor nulo que es denominado límite de Nyquist, que es la frecuencia espacial en la
que ½ pares de líneas se corresponden a 1 píxel. Si se sobrepasa este límite la
información espacial se degrada, por lo que determina el límite de resolución de la
imagen digital.
3.2.1.10. No uniformidad y calibración radiométrica
La falta de uniformidad en la respuesta radiométrica (PRNU -photo response non
uniformity-) es el término que se aplica para definir las variaciones de la señal entre
elementos del sensor, dado el mismo nivel y longitud de onda de la luz incidente. La
PRNU es producida por diversas causas, como por ejemplo, variaciones en la
superficie y espaciado de los elementos e irregularidades en el sustrato. La PRNU de
muy bajas frecuencias es conocida como shading y se produce por variaciones en el
tiempo de la lectura o la capacidad de registro.
La PRNU depende fundamentalmente de la longitud de onda de la luz incidente
más que de otros factores como la intensidad de la iluminación o la temperatura del
sensor (Purll, 1985) por lo que la instalación de un filtro infrarrojo es aconsejable para
reducir la no uniformidad.
El efecto de la PRNU se establece mediante la captura de una imagen oscura, una
imagen uniforme y la imagen de interés. La imagen oscura es una exposición sin luz
incidente y la imagen uniforme se obtiene mediante la captura de una imagen con luz
incidente uniforme (mediante patrón calibrado o, habitualmente mediante la captura
de una imagen de un cielo preferiblemente de noche de luna nueva sin estrellas). La
corrección se obtiene de la expresión:
I −I
Ic = r d
If − Id

donde Ic es la intensidad corregida del elemento, Ir es la intensidad registrada para el


elemento, Id es la intensidad de la imagen oscura e If es la intensidad de la imagen
uniforme.
La fórmula se basa en la suposición de la linealidad de respuestas de los elementos
del sensor siendo necesario reescalar la intensidad para un rango adecuado para la
100  SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

aplicación. Este proceso requiere un importante esfuerzo de cálculo para imágenes de


alta resolución y debe aplicarse exclusivamente cuando la respuesta radiométrica es
básica en la resolución del trabajo. En la mayoría de las aplicaciones fotogramétricas,
la importancia del trabajo reside en la calidad geométrica del sensor de forma que se
garantice la exactitud de las medidas, quedando relegadas a un segundo plano las
características radiométricas de la imagen.

3.3 CÁMARAS CCD


3.3.1 Diseño de la cámara
Las cámaras CCD tienen un diseño muy distinto que las cámaras convencionales
de película. En primer lugar, el área sensible es generalmente mucho más pequeña
que el necesario para el almacenamiento de la película en las cámaras de película, por
otro lado, suele incorporar un pequeño compartimiento en el que se encuentran los
componentes electrónicos asociados con la lectura, suministro de energía eléctrica y
transmisión/almacenamiento de datos.
La figura 3.5 muestra un esquema típico de los elementos funcionales de una
cámara CCD. Entre el objetivo y el sensor, como se ha comentado con anterioridad se
incorporan uno o más elementos ópticos. Entre los que cabe destacar, un filtro
infrarrojo para eliminar las longitudes de onda superiores a 700nm; un difusor, que
consiste en una lámina de cuarzo birrefringente que tiene una utilidad de filtrado de
paso bajo, si bien requiere la instalación de filtros polarizantes. Además, en las
cámaras de CCD tipo frame transfer es frecuente la instalación de un obturador para
limitar el efecto del smear.
Filtro IR Sensor
Cobertura protectora de vidrio

Pins de conexión

Componentes Alimentación
electrónicos y
de la cámara Señal

Objetivo Sustrato
Difusor
cerámica
Fig.3.5. Elementos funcionales de una cámara digital

El sensor está montado en un paquete estándar formado por la cobertura de vidrio,


el sensor, el sustrato cerámico y las clavijas de conexión (pines) para el suministro
eléctrico y la transferencia de la información capturada. Un aspecto de gran
importancia en el diseño de la cámara es el montaje del sensor y del objetivo, debido a
que la función básica de este tipo de cámaras es la utilización doméstica o fotográfica
profesional primando las características radiométricas (calidad de color) sobre las
geométricas, por lo que el montaje de las lentes del objetivo suele ser de escasa
FOTOGRAMETRÍA DIGITAL   101 

calidad y estar mal alineado con respecto al sensor (Burner et al., 1995) y, por otro
lado, el sensor no suele estar fijado de una forma adecuada al cuerpo de la cámara
(Gruen et al, 1995). Por tanto, la utilización de estas cámaras con fines
fotogramétricos pasan irremisiblemente por un proceso de calibración que se ha de
repetir frecuentemente y siempre teniendo en cuenta que los desajustes pueden ser
importantes, siendo aconsejable la elección de un procedimiento de autocalibración en
el que se calculen los parámetros internos de la cámara para cada toma.
Otro aspecto importante de las cámaras CCD es la importancia de la temperatura
de funcionamiento, debido a que el registro se establece mediante la lectura por un
sistema electrónico de la luz incidente, la respuesta dependerá de la temperatura del
sensor siendo aconsejable un tiempo de calentamiento en torno a 1-2 horas.

3.3.2 Cámaras de video estándar


El tipo más común de cámara tipo solid state es la cámara de televisión, que suele
ser denominada CCTV o cámara de video, que utiliza un sensor CCD y produce una
señal de video estándar. Este tipo de cámara se utiliza para muy diversas aplicaciones,
entre las que se puede destacar, cadenas de televisión, video doméstico, sistemas de
seguridad, visión automatizada, fotogrametría en tiempo real y metrología industrial.
Estas cámaras adoptan el formato clásico de 4:3 (anchura-altura) de las primeras
cámaras de tubo de imagen. Los formatos son denominados en función de su diagonal
expresada en pulgadas. Así las primeras cámaras de video estaban equipadas con
sensores de 2/3" (8.8x6.6mm), aunque en la actualidad debido a la reducción del
tamaño de los sensores los tamaños se han reducido siendo disponibles dimensiones
de 1/2" (6.4x4.8mm) y 1/3"(4.9x3.7mm). La resolución de este tipo de cámaras no es
excesivamente elevada, dependiendo del estándar de video empleado, las resoluciones
típicas son del orden de 700x500 (hxv), resultando un tamaño de píxel de
aproximadamente 10µm para el formato 2/3" y 5µm para el 1/3". La fabricación de
sensores de tamaño inferior a 5µm no es aconsejable debido a la pérdida de rango
dinámico.
Desde hace algunos años está teniendo lugar el desarrollo de lo que ha venido a
denominarse televisión de alta definición (HDTV -High Definition Television-). Estas
cámaras incorporan un sensor de 1" con un ratio de 16:9 (hxv) (14x8mm), como
ejemplo de estas cámaras Sony ha lanzado al mercado una cámara de video con una
resolución de 1920x1024 píxeles que ha sido empleada con fines fotogramétrico
produciendo resultados esperanzadores (Peipe,1995).

3.3.3 Cámaras CCD de alta resolución


Las cámaras CCD de alta resolución presentan importantes diferencias con
respecto a las cámaras de video estándar. La principal diferencia es que las cámaras
CCD de alta resolución (también conocidas como cámaras científicas o cámaras de
barrido lento -slow scan cameras-) no producen salida de video estándar. Las
velocidades de salida son mucho menores a fin de aminorar el ruido del circuito
pasando de valores superiores a 10MHz a 50kHz.
102  SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

Las aplicaciones más importantes de este tipo de cámaras son aquellas que
requieren una mayor resolución geométrica o radiométrica como, por ejemplo, las
medidas de brillo, espectrografía o detección de objetos en aplicaciones astronómicas
(Delamere et al., 1991), exploración planetaria (Klaasen et al., 1991), biología celular
e inspección de rayos X (Blouke et al.,1995) y metrología industrial (Pettersen, 1992).
Por lo general, las cámaras de alta resolución tienen un formato cuadrado, es
decir, no conservan la relación 4:3. La resolución de estas cámaras es superior a los
1000x1000 píxeles, llegando a valores máximos de 5128x5128 píxeles (Dalsa) si bien
existen resoluciones mayores pero con una comercialización limitada. Estas matrices
pueden ser ensambladas obteniendo cámaras de una mayor resolución como por
ejemplo, el conjunto de 30 matrices de 2048x2048 empleada en un programa
astronómico (Blouke,1995).
Estas cámaras tienen un tamaño considerable, no sólo debido al tamaño del
sensor sino a todos los componentes adicionales, por lo que incorporan objetivos tipo
F, lo que permite un amplio rango de posibilidades.
Por otro lado, estas cámaras suelen incorporar un sistema de refrigeración para
reducir la oscuridad actual e incrementar el rango dinámico. El sistema de
refrigeración se instala en una cámara hermética y alcanza temperaturas de -60ºC (si
bien en algunos casos específicos, la temperatura puede llegar a -120ºC incorporando
incluso nitrógeno líquido). La linealidad de estas cámaras se puede considerar
perfecta, debido a lo avanzado del diseño del sensor y a su bajo nivel de ruido
(fig.3.6).

Energía y señales Entrad a de


Temporizador

del reloj comandos

de control
Obturador mecánico

Modulo
Energía
Aletas de refrigeración

Salida de
estado
Sensor

Almacenamiento
y visualización
Conversor AD

de la imagen

Objetivo
de bajo ruido

Salida d e datos
Ventana sellada digitales (píxe les)

Refrigerador termoeléctrico

Interfaz del ordenador

Fig.3.6. Esquema de una cámara de alta resolución con sistema de refrigeración

Las cámaras de alta resolución tienen ciertas desventajas en cuanto a su uso. El


tiempo de captura y almacenamiento de la imagen puede extenderse hasta los varios
minutos debido al elevado número de píxeles y a la baja velocidad de lectura-
transferencia, por lo que no pueden utilizarse para la toma de imágenes en
FOTOGRAMETRÍA DIGITAL   103 

movimiento. Por otro lado, el transporte es complejo debido a los sistemas de


refrigeración y los interfaces específicos para el almacenamiento de las imágenes.

3.3.4 Cámaras Digitales de Imagen Fija (Still Video Cameras)


El principal problema de las cámaras de alta resolución es la necesidad de estar
conectadas a un sistema informático para realizar el almacenamiento de las imágenes.
Esta limitación desaparece en las cámaras de video de imagen fija (still video
cameras) que cuentan con un sistema de almacenamiento local de las imágenes.
Las primeras still video cameras aparecen a finales de la década de los 80, se
trataba de cámaras que incorporaban sensores CCD monocromos de baja resolución
incorporando sistemas de discos magnéticos para almacenar las imágenes (Dycam
Model 1 y Canon Ion). Estas cámaras eran compactas, con objetivo de foco fijo y
flash incorporado destinadas a su utilización en fotografía periodística, su aplicación
en trabajos fotogramétricos estaba muy limitada debido a la escasa resolución de sus
imágenes y al número relativamente bajo de imágenes que era posible almacenar.
En 1991, la aparición de la Kodak DCS100 modificó esta concepción. Dicha
cámara incorporaba un sensor de 1524x1028 píxeles en un formato de cámara reflex
de 35mm, que permitía la utilización de un amplísimo abanico de objetivos si bien el
sistema de almacenamiento era independiente. El modelo siguiente, la DCS200
incorporaba un disco duro en el cuerpo de cámara con posibilidad de almacenar 50
imágenes. Uno de los modelos más conocidos de esta serie es la DCS420 que se
comercializaba en versiones monocroma, color e infrarrojo. Esta cámara permitía el
almacenamiento de 5 fotografías de una forma rápida (2-3 s) e incorporaba un sistema
de disco removible con almacenamiento de 100 imágenes. Esta cámara ha sido muy
empleada por los fotógrafos periodísticos, siendo también utilizada para aplicaciones
fotogramétricas: como, por ejemplo, control de calidad en trabajos aeronaúticos
(Beyer,1995; Fraser et al.,1995), la medida y control de grandes estructuras (Fraser y
Shortis, 1995; Kersten y Maas, 1994) y registro arquitectónico (Streilein y Gaschen,
1994).
En la Tabla 3.2 se clasifican algunos de los modelos de cámaras empleados para
trabajos fotogramétricos.
Las cámaras pueden ser diseñadas específicamente como cámaras digitales como
la Kodak DCS420 o bien aprovechar el diseño de una cámara convencional en la que
se conserva el cuerpo y se sustituye el almacén de la película por un elemento en el
que se incorpora el sensor, la unidad de almacenamiento y la alimentación como, por
ejemplo, la Rollei ChipPack.
Las cámaras de baja resolución suelen utilizar el formato de 4:3 y suelen ser de
tipo compactas con foco fijo y control de exposición limitado. Estas cámaras son muy
utilizadas en fotografía periodística y presentan la característica de poder disminuir la
resolución de la imagen captada a fin de aumentar la capacidad de almacenamiento o
bien incorporar sistemas de compresión de imágenes. Estas cámaras suelen incorporar
una tarjeta de memoria interna de 1Mb si bien cada vez es más frecuente la utilización
de tarjetas de memoria tipo PCMCIA, Compact Flash u otros tipos.
104  SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

Tabla 3.2. Cámaras tipo still video comercializadas


Still video cámaras de matriz de baja resolución
Apple
Cámara Kodak DC-50 Chinon ES-3000 Casio QV-10
QuickTake 150
Píxeles (hxv) 640x480 756x504 640x480 320x240
Almacenamiento 16 a 32 7 a 22
5 a 40 (resolución) 96
de la imagen (compresión) (compresión)
Características Memoria PCMCIA Memoria 16 Mb
Memoria PCMCIA
especiales Zoom Pantalla LCD
Still video cámaras de matriz de media a alta resolución
Canon Kodak Agfa Rollei Kodak Dicomed
Cámara
DCS3 DCS420 Action Cam ChipPack DCS465 Bigshot
Canon Nikon Minolta
Cuerpo 6x6cm 2 ¼" 2 ¼"
EOS 1-N N-90 Dynax 500
Píxeles 1268 1524 1528 2048 3060 4096
hxv: 1012 1012 1146 2048 2036 4096
Tamaño
sensor 20.5x16.4 13.8x9.2 16.5x12.4 30x30 27.5x15.5 60x60
xy(mm)
Sist. Discos Discos Discos Interfaz Interfaz
Interfaz SCSI
Almacen. PCMCIA PCMCIA PCMCIA SCSI SCSI
Bandeado Bandeado Bandeado Bandeado
Color 3CCD 3 barridos
filas RGB filas RGB filas RGB filas RGB
Still video cámaras de sistema de barrido de alta resolución
Dicomed Kontron ProgRes Rollei Digital Zeiss UMK
Cámara Leaf Lumina
DCB 3012 ScanPack HighScan
Tipo de
Lineal Lineal Área Área Área
barrido
Píxeles 6000 2700 3072 5000 15141
hxv 7520 3400 2320 5850 11040
Formato 2 1/4" 2 1/4" 5.6x6.4mm 6x6cm 18x12cm
Tipo
SCSI PC PC SCSI SCSI
interfaz
Exposiciones
Color 3 pasadas 3 pasadas 3 pasadas Monocroma
simples

La mayoría de las cámaras actuales permiten la captura de imágenes en color para


lo cual suelen incorporar sistemas de bandeado tipo RGB.
Las cámaras de resolución media a alta incorporan sistemas de almacenamiento
removibles como discos PCMCIA o interfaces para conexión a un ordenador
personal, si bien esta última opción limita considerablemente las portabilidad de los
equipos. Por último, las cámaras de barrido de alta resolución, debido al tamaño de las
imágenes que capturan no suelen incorporar sistemas propios de almacenamiento
siendo obligada la conexión a un ordenador y pueden llegar a necesitar varios minutos
para capturar y transferir una imagen, por lo que su utilización está restringida a la
fotogrametría de objeto estático desde una plataforma estable.
FOTOGRAMETRÍA DIGITAL   105 

3.3.5. Transmisión y Captura de Imágenes CCD


3.3.5.1. Señales de video analógicas
La transmisión de las imágenes desde las primeras cámaras de tubo de imagen
hasta las actuales cámaras tipo solid state ha venido marcada por el tipo de señal de
video analógica que se emplea en las emisiones de televisión. La señal analógica es
una señal continua que se transmite en frecuencias de radio a través de la atmósfera o
mediante un cable coaxial. La temporización y estructura de las señales fue
determinada con la aparición de la televisión, para conseguir una uniformidad en el
formato de la imagen y la transmisión desde las emisoras.
3.3.5.2. Normas
El primer estándar para la televisión comercial monocromática, conocido como
RS-170 fue creado por la Comisión Federal de Comunicaciones (Federal
Communications Commissión) de los Estados Unidos en 1941, siendo definido por el
Comite de Sistemas de Televisión Nacional (NTSC) y la Asociación de Industriales
Electrónicos. En 1953, se modifica esta definición para contemplar la emisión de
imágenes en color siendo el sistema empleado en Estados Unidos, Canadá, Japón
entre otros países, hasta llegar al total de 32 países.
En 1950, el Comité Consultivo Internacional de las Radiocomunicaciones (CCIR)
define los estándares de video para las emisiones de televisión en monocromo y color,
desarrollándose dos sistemas PAL (fase de línea alternante) y SECAM (color
secuencial y memoria) que se utilizan en más de 100 países, principalmente en
Europa y África.
Recientemente, se ha propuesto otro estándar HDTV (televisión de alta definición)
cuyo objetivo ha sido la mejora de la resolución y del rango dinámico, si bien en la
actualidad existen discusiones entre los fabricantes a la hora de la definición del
estándar final.
Las principales diferencias entre los diferentes sistemas consisten en el número de
líneas horizontales en la imagen y en la frecuencia de transmisión, que las convierten
en incompatibles entre sí. En la Tabla 3.3 se muestran las características de las 3
normas existentes.
3.3.5.3. Estructura de la imagen
Los estándares de video utilizan el principio del entrelazado vertical para
reducir la frecuencia de transmisión requerida. En lugar de transmitir la imagen
completa, se transmiten dos conjuntos de líneas de una forma secuencial, mostrando
las imágenes en forma alternativa y secuencial y de una forma inapreciable para el ojo
humano. Así se transmiten y presentan alternativamente las líneas impares y las líneas
pares de la imagen, a diferencia de los sistemas no entrelazados empleados en
informática.
106  SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

Tabla 3.3. Características de las normas de video más empleadas


Norma RS-170 CCIR HDTV
Frecuencia de pantalla (Hz) 30 25 30
Entrelazado 2:1 2:1 2:1
Frecuencia de barrido (Hz) 60 50 60
Número de líneas horizontales 525 625
Número de líneas horizontales activas 480 576 1125
Frecuencia de línea (Hz) 15750 15626 33750
Tiempo de línea activa (µseg) 52.5 52 25.85
Píxeles por línea (típico) 752 744 1920
Relación h/v 4:3 4:3 16:9
Tamaño imagen (píxeles) 360960 428544 2160000

El sensor capta la imagen siguiendo el esquema de líneas impares y pares,


partiendo del extremo superior izquierdo de la pantalla hasta llegar al extremo inferior
derecho, el tiempo que tarda el barrido en recuperar su posición en la izquierda de
cada una de las líneas se denomina retrazo horizontal mientras que el tiempo en
recuperar la posición superior se denomina retrazo vertical. Las posiciones vienen
definidas por las coordenadas relativas a la fila y a la columna (fig.3.7).
Barrido
Origen (0,0) Columnas

Pixels
Barrido

Líneas de barrido

(Fila,f; Columna,c)
Filas Lineas de barrido horizontal
Retrazo horizontal
Retrazo vertical

Fig.3.7. Sistema de coordenadas y barrido en una escena de video

3.3.5.4. Visualización y Almacenamiento


Para la visualización es necesario contar con un monitor capaz de presentar
señales de video en tiempo real. Existe una gama muy extensa en cuanto a la calidad y
características de los mismos, por lo que habrá que seleccionar aquel modelo que sea
más adecuado a la aplicación deseada. Los sistemas de cámaras de TV generalmente
utilizan monitores monocromos de pequeño formato con las opciones mínimas,
mientras que las cámaras profesionales utilizadas en las cadenas televisivas utilizan
monitores de color de gran formato con los controles suficientes para optimizar la
calidad de la imagen. Estos monitores suelen incorporan una única señal de video y
sincronización a través de una conexión de cable coaxial. Sin embargo, algunos
monitores permiten la introducción por separado de las señales de sincronización por
FOTOGRAMETRÍA DIGITAL   107 

separado, o para los monitores de color, separar las señales de luminancia y


cromacidad o los canales rojo, verde y azul para mejorar la reproducción de color.
También existe una amplia gama de sistemas de almacenamiento para video
analógico en cuanto a calidad y características. Los sistemas de almacenamiento
fueron inicialmente desarrollados para su utilización de la industria televisiva pero,
durante las últimas dos décadas, el mercado ha crecido espectacularmente. Las cintas
de video son construidas en diferentes formatos VHS, Video8 y Beta con tiempos de
grabación hasta de varias horas, siendo un medio de grabación de imágenes muy
económico. Los sistemas más empleados son VHS y, más recientemente, S-VHS,
debido a su mayor resolución horizontal.
El almacenamiento de imágenes de video analógico para aplicaciones
fotogramétricas requiere asegurar la calidad métrica de las mismas durante su
grabación y posterior reproducción. Aspectos tales como la calidad del medio de
registro y de la temporización de la señal pueden perjudicar negativamente a las
características radiométricas y geométricas de la imagen (Shortis et al., 1993;
Höflinger y Beyer, 1993; Snow y Shortis, 1995). La grabación digital de imágenes
analógicas, mediante sistemas como los videos digitales de calidad profesional no han
sido empleados para aplicaciones fotogramétricas debido a su elevado coste, siendo la
tendencia la utilización de ordenadores para el almacenamiento con sistemas como,
por ejemplo, el Photo-CD.

3.3.6 Digitalizadoras de imagen (Frame grabbers)


Una tarjeta digitalizadora de imagen es un circuito impreso diseñado para ser
instalado en un ordenador. Su función es muestrear instantáneamente la salida desde
un sensor que transmite señal de video analógica. La señal de video es continua y será
clasificada en función de una serie de clases, que serán los que definen los niveles
digitales de la imagen, para ser posteriormente almacenada en un ordenador. El
almacenamiento se realizará como valores de intensidad, las dos imágenes que
componen la señal de video estándar son compuestas en una única imagen digital
ensamblada con la estructura normal de filas y columnas.
En función de la aplicación se puede necesitar el muestreo intermitente para el
almacenamiento de imágenes individuales, o bien la grabación de cortas secuencias o
directamente la lectura de la señal de video realizar el procesamiento en tiempo real.
Las características más importantes de una digitalizadora son la memoria de video
disponible, la posibilidad de almacenamiento de imágenes en color y la posibilidad de
separar la señal de entrada en diferentes canales.
Estas diferentes características, junto con el hecho de que el diseño está
directamente relacionado con el tipo de ordenador en el que va instalado, da lugar a
una gran variedad de tarjetas en el mercado.
3.3.6.1. Conversión analógico-digital
El conversor de señal analógica a digital se encarga de la traducción de la señal de
video de entrada en valores discretos que pueden ser almacenados en la memoria en
108  SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

formato de datos digitales. Básicamente, el proceso consiste en la discretización de la


señal de voltaje continuo de 0.0v a 0.7v al rango de la imagen digital deseada.
Los conversores fueron desarrollados a finales de los 70 y en la actualidad son
ampliamente utilizados como componentes para la adquisición de datos o como
instrumentos individuales. Las velocidades de conversión alcanzan hasta los 1GHz,
aunque la mayoría de los sistemas presentan frecuencias de 20-30Mhz. La resolución
final de la imagen, aunque los valores típicos van desde los 6 a los 14 bits (de 8 -256
tonos de gris- o 12 bits -4096 tonos de gris-). La resolución deberá ir en relación a la
resolución radiométrica del sensor CCD, que viene marcada por el rango dinámico del
sensor. Así una resolución de 14 bits se corresponde con 16000 valores de intensidad
que sólo son alcanzados en sensores CCD de baja velocidad de barrido y refrigerados.
La memoria también es un factor clave, así las primeras digitalizadoras sólo tenían
capacidad para almacenar una imagen mientras que las actuales suelen tener hasta
256Mb de memoria incorporada que les permite la captura de 740 imágenes en
formato estándar RS-170, que equivalen a una secuencia continua de 25 s.
3.3.6.2. Ruido
Los circuitos electrónicos que incorporan las digitalizadoras de imagen producen
errores sistemáticos y aleatorios. Por ejemplo, las digitalizadoras pueden dar lugar a
un patrón de ruido fijo y no linealidad de la respuesta fenómenos que pueden ser
detectados utilizando imágenes medias producidas por un generador de señales de
video. Estos errores sistemáticos alcanzar valores del orden de 1 a 2% de la señal de
pico (Beyer,1992c), pero pueden ser eliminados de la imagen mediante un
procedimiento de corrección a nivel local o global.
Los errores aleatorios son causados por el ruido de cuantificación. Este ruido es
simplemente, el ruido asociado al error de redondeo, debido a que la señal analógica
es continua y debe ser convertida a una señal discreta.
La expresión del ruido de cuantificación es:
1
σo = Q
12

donde Q es el paso de cuantificación que es equivalente a 0.8mV de la señal analógica


(o 110 electrones de un total de 105 electrones) en una digitalizadora de 256 niveles,
que da lugar a un valor de SNR de 59dB para el nivel máximo de señal. Este valor
debe ser sumado al ruido del sensor y elevará el nivel de ruido de fondo.

3.3.7 Sensores digitales empleados en Fotogrametría


3.3.7.1. Sensores aerotransportados
Todo parece apuntar que en los próximos años se va a experimentar un
importante cambio en la utilización de sensores digitales aerotransportados con fines
cartográficos fotogramétricos. Este cambio se va apoyar en la reciente
comercialización por parte de las empresas Leica Geosystems, Z(I Imaging y Vexcel
FOTOGRAMETRÍA DIGITAL   109 

Vexcel Imaging GmbH, de sensores de este tipo, el Leica ADS40, la Z(I DMC y la
Vexcel Ultracam, respectivamente.
Estas presentaciones son el fruto de un importante esfuerzo investigador por parte
de dichas empresas contando con la colaboración de diversos organismos como, por
ejemplo, la Agencia Espacial Alemana (Deustche Forschungsanstalt für Luft- und
Raumfahrt -DLR-). Estas colaboraciones han dado lugar a diversos sensores de tipo
experimental entre los que se pueden destacar el MOS (Modular Optoelectronic
Scanner), el WAOSS (Wide Angle Optoelectronic Scanner), el WAAC (Wide Angle
Airborne Camera) que consiste en una adaptación del WAOSS para fotogrametría
aérea y arquitectónica. Estos sistemas desarrollados por Leica Geosystems y la DLR
se basan en la obtención de imágenes estereoscópicas utilizando un único objetivo y
tres CCD lineales.
La cámara WAOSS era una cámara estereoscópica de objetivo granangular
desarrollada para la misión espacial Deep Space Mission Mars-96, y debido a
problemas en su lanzamiento nunca llegó a estar operativo. Las características del
WAOSS eran:
- Angulo de campo: 80º; Distancia focal: 21.7mm
- Número de líneas CCD: 3, Elementos del CCD: 5184
- Tamaño del elemento: 7µm
- Canales espectrales: Nadir 470 a 670 nm; Delante, Atrás 580nm a 770nm
- Capacidad estereoscópica debido a las 3 líneas
- Alta resolución radiométrica (8bit) y rango dinámico (11 bit)
- Alta precisión geométrica
- Resolución terreno variable debido a sistemas de agrupamiento de píxeles
Para cubrir un rango más amplio de aplicaciones potenciales se desarrolló a partir
de la cámara anterior, la cámara WAAC. Esta cámara incorpora el mismo sistema
óptico y de captura de información, con un diseño modular para probar diferentes
tecnologías y aplicaciones con resoluciones terreno en torno a 1m.
Otro sensor desarrollado en Alemania y con el sistema de 3 líneas estéreo es el
sensor MOMS-02P -Modular Optoelectronic Multiespectral Stereoscanner- (fig.3.8)
que fue puesto en órbita en la misión alemana espacial D2, y cuenta con siete bandas
de las cuales tres son pancromáticas y dispuestas oblicuamente hacia adelante y atrás
y verticalmente hacia abajo. El ángulo de incidencia es de -21.4ºC y una banda en
estéreo de 37/40km. El escáner de captación vertical tiene un tamaño de píxel de
4.5x4.5m, mientras que los oblicuos tienen un tamaño 3 veces mayor (13.5m). A
pesar de que inicialmente este era un sistema experimental y no estando prevista su
continuidad (Ackermann, 1990; Ackermann et al., 1990) lo cierto es que aún está
realizando capturas e incluso comercializando tanto las imágenes como los productos
derivados. El estudio de la precisión de este sistema de captación de imágenes en
estereoscopia ha sido analizado por Ebner et al.(1990) y por Kornus et al. (1996)
planteando la necesidad de que fueran establecidas de una forma concreta la posición
y altitud en el momento de la captura, parámetros que pueden ser fácilmente
obtenidos de los sistemas de navegación, a partir de los datos y los modelos orbitales.
Estos parámetros son combinados con los resultados del tratamiento de los datos de la
110  SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

imagen y los puntos de control terrestre mediante una aproximación por mínimos
cuadrados.
Señales digitales de la imagen

Señal A
Señal B Cinta magnética Dirección de vuelo
Señal C

Sensor B Sensor C
Punto imagen Punto imagen Punto imagen
(sensor A) xA ,yA (sensor B) x B ,y B (sensor C) xC,yC

Sensor A

b/2 b/2 Objetivo


de la cámara

EB
EA
H
EC

PT

Terreno

Fig.3.8. Sistema MOMS (adaptado de Hofmann y Nave,1984)

A partir de 1990 se diseñaron diversos sistemas similares al MOMS de


adquisición de imágenes digitales. Así la British Aerospace está desarrollando el
Optical Mapping Instrument (OMI) que ha sido diseñado para la cartografía
topográfica y tiene un periodo de vida previsto de 15 años. La NASA, junto con la
ESA y la NASDA dentro del programa EOS (Earth Observation System) tiene
previsto el desarrollo de un sistema denominado Advanced Spaceborne Thermal
Emission and Reflection Radiometer (ASTER).
El Canada Centre of Remote Sensing (CCRS) ha desarrollado un sistema similar
al MOMS pero para su ubicación en aviones (MEIS). Mediante este satélite se
pretende el lanzamiento de una nueva línea de investigación para la captación de
fotografías aéreas en formato digital eliminando los retrasos que suponen el
procesamiento fotográfico de las imágenes convencionales, si bien es necesario tener
en cuenta que, en el momento actual, la escasa resolución de la imagen y la enorme
cantidad de información que necesita ser almacenada y transmitida presenta
dificultades técnicas de complicada resolución.
FOTOGRAMETRÍA DIGITAL   111 

Las pautas del diseño de los sensores digitales aerotransportados fueron


establecidas en la reunión de la OEEPE de París en 1994. En dicha reunión se
plantearon como aspectos básicos conceptuales los siguientes:
- gran ángulo de campo y anchura de barrido, para reducir al máximo el número
de pasadas necesarias para cubrir un área.
- alta resolución y precisión, tanto de carácter geométrico como radiométrico,
con el objeto de satisfacer al mayor número de usuarios que requieran dichas
resoluciones y precisiones.
- posibilidad de captura de imágenes multiespectrales, cada día más utilizadas
en la elaboración de trabajos de cartografía ambiental y de recursos naturales.
- posibilidad de captura de imágenes estereoscópicas, que encuentren su
adecuado tratamiento en los sistemas fotogramétricos digitales actualmente
existentes en el mercado facilitando su carácter estereoscópico la extracción
de información de las mismas.
En la actualidad existen dos conceptos distintos en lo referente al diseño de los
sensores digitales aerotransportados: la utilización de sensores lineales y la utilización
de sensores matriciales (fig.3.9). En el sistema de sensores lineales se introducen 3
sensores pancromáticos con orientaciones frontal, nadiral y trasera y varios sensores
multiespectrales en las proximidades del sensor pancromático nadiral. En el sistema
de matriz cuadrada se agrupan diversas matrices con diferentes características
espectrales (pancromática, color y falso color). El sistema de sensor lineal ha sido el
adoptado por el sensor Leica ADS40 mientras que el de sensor matricial es el
aplicado en el Z(I DMC y el Vexcel Ultracam.

Fig.3.9. Sistemas de captación en sensores digitales aerotransportados (Sandau et al., 2000). Izq: Sensor
lineal compuesto por 3 sensores pancromáticos -en negro- y varios sensores multiespectrales -en tonos de
gris-; Der.: Sensor de matriz cuadrada compuesta por un conjunto de matrices RGB e IR

La opción de la matriz rectangular requiere disponer de varios elementos


matriciales para poder obtener una resolución adecuada, similar a la obtenida por las
cámaras convencionales. Así, por ejemplo, la cámara DMC (Digital Modular Camera)
puede incorporar hasta un total de 7 cámaras (4 cámaras pancromáticas, 3 cámaras en
los canales rojo, verde y azul con la mitad de resolución espacial) instaladas sobre una
plataforma giroestabilizadora T-AS (figura 3.10).
112  SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

Fig.3.10. Cámaras de sensor matricial. Izq: Esquema del diseño de la cámara digital DMC de ZI Imaging
(Hinz et al., 2000); Der.: Sensor Vexcel Ultracam (Vexcel Imaging GmbH, 2003)

La opción de la matriz lineal ha sido experimentada por el DLR alemán desde la


década de los setenta y, como se ha comentado con anterioridad, se basa en la
utilización de varios sensores lineales con características espectrales diferentes y ha
sido la elegida por Leica Geosystems para el diseño del nuevo sensor digital
aerotransportado ADS40 (fig.3.11).

Fig.3.11. Sensor ADS de Leica Geosystems.


Izq.: Versión EM (finales de 1998), Der: ADS40. (Fricker et al.,1999b, Leica Geosystems, 2003)

El planteamiento teórico de los sensores lineales es bastante simple, el método


consiste en la captura de forma simultánea de tres líneas del terreno utilizando para
ello tres sensores de tipo lineal con diferentes inclinaciones (frontal, nadiral y trasero),
de forma que en realidad tras la realización de una pasada lo que se obtiene son 3
bandas de imágenes compuestas por cada una de las líneas capturadas por los sensores
(figura 3.12). La estereoscopia en este tipo de sensores se consigue combinando las
imágenes proporcionadas por cada uno de los sensores (frontal-nadiral, trasero-
nadiral, frontal-trasero) presentando tres importantes características, que van a
condicionar el tratamiento necesario para la extracción de la información de la misma
mediante la aplicación del método fotogramétrico. Dichas características son:
- todos los puntos del terreno aparecen en las tres imágenes.
- para cada una de las bandas existen tantos centros de proyección como líneas
componen la banda.
- en cada una de las líneas nadirales existe un píxel (píxel central) en el que el
desplazamiento debido al relieve es nulo.
La aparición de todos los puntos del terreno en las tres bandas de imágenes
(frontal-nadiral-trasera) representa una importante ventaja al proporcionar una mayor
robustez a los resultados obtenidos de la correlación cuando se utiliza el método de
FOTOGRAMETRÍA DIGITAL   113 

identificación automática de puntos homólogos en múltiples imágenes (multiple


image matching). Por el contrario, la utilización de las imágenes fotográficas clásicas
que habitualmente limitan la zona de puntos triples a tan sólo el 60% de la superficie
total del fotograma en el caso de emplear valores comunes de solape longitudinales
(fig.3.12).

Fig.3.12. Captura de imágenes mediante cámaras digitales.


Izq.: Captura mediante un sensor lineal que obtiene de una forma simultánea las tres bandas de imagen
(frontal, nadiral y trasera) apareciendo todos los elementos del terreno en las tres imágenes. Der.: Captura
mediante cámara de matriz cuadrada en la que tan sólo el 60% de la superficie aparece en tres imágenes

La segunda característica que en principio puede parecer que representa un


inconveniente al necesitar el cálculo de un mayor número de incógnitas en los
sistemas de ecuaciones de la orientación, se resuelve con la información
complementaria al proceso de orientación dado que la cámara posee sistemas de
posicionamiento GPS/INS. Esta permite contar con unas aproximaciones de alta
calidad en el proceso de resolución de los sistemas planteados, con valores de
aproximación en navegación mediante técnicas diferenciales cinemático de código de
1 a 10 m y en posicionamiento mediante técnicas diferenciales de fase de 1 a 10 cm
(fig.3.13). A ello hay que añadir la característica que debido a la inclinación de los
sensores, las porciones de terreno registradas en cada momento por los diferentes
sensores son distintas, lo que equivale que para corresponder las diferentes bandas de
imagen es necesario introducir un desplazamiento en las mismas (fig.3.14).
114  SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

Sensor Digital Aerotransportado Fotografía Analógica Digitalizada

**** Cantidad de Información **


*** GPS ***
*** Interpolación IMU
******** Centros Proyección Interpolados **
* Puntos de apoyo terrestre *
**** Matching puntos de paso/enlace **
Depende del IMU Nº Puntos paso/enlace pequeño

Fig.3.13. Diferencias en el proceso de orientación entre las imágenes obtenidas por


un sensor digital lineal y las obtenidas mediante una cámara convencional analógica (Walker, 1999)

Banda sensor frontal

Banda sensor nadiral

Banda sensor trasero

La misma porción de terreno Diferente porción de terreno


para diferentes posiciones del sensor para la misma posición del sensor

Fig.3.14. Desplazamiento entre las bandas de los sensores lineales


como consecuencia de la orientación de los sensores (Walker, 2000)

Por último, la presencia del píxel central nadiral con desplazamiento nulo debido
al relieve en la banda de imágenes captada con el sensor en posición nadiral permite
una aplicación en la elaboración de ortofotografías de una forma sencilla (fig.3.15).
FOTOGRAMETRÍA DIGITAL   115 

a) d)

b)
e)

c)

Fig.3.15. Características geométricas de las imágenes.


Imágenes del sensor de tres líneas: a) frontal; b) nadiral; c) trasera.
Imágenes de cámara convencional: d) fotografía convencional; e) pasada de fotogramas convencionales

3.3.7.2. Cámara Digital Modular (DMC) de Z/I Imaging


La idea en la que se basa el diseño de esta cámara es la de combinar varias
cámaras para ampliar el valor del ángulo de campo, esta idea ya fue utilizada en los
tiempos iniciales de la Fotogrametría Aérea, como la cámara de Aschenbrenner de
1926 que incorporaba 9 objetivos de distancia focal 53.5mm que permitían un ángulo
de campo de 140º con un tamaño de formato de 250x250mm, si bien se abandonaron
en la década de los 40, al aparecer cámaras de gran formato con un solo objetivo
similares a las actuales.
La figura 3.16 muestra un esquema general de los componentes de la cámara. La
cámara puede incorporar de una forma opcional pantallas de información para el
piloto y sistemas de posicionamiento inercial en vuelo. El tamaño de la cámara es
similar al de la cámara RMK-TOP por lo que utiliza la plataforma giroestabilizadora
T-AS.

Antena GPS

Pantalla
piloto

Unidad de
control Terminal
Quick-look
Sistema Control Electrónica RAID
del vuelo
Plano focal Sistema
GPS Almacenamiento
Montura estabilizada
1-8
Objetivos

Fig.3.16. Configuración de la cámara DMC (Hinz et al., 2000)

La configuración del número de sensores de la cámara es configurable por el


usuario y puede variar entre 1 y 8 (4 pancromáticos de alta resolución y 4
multiespectrales de resolución reducida). Sobre los elementos de captación de la
imagen se incorporan los componentes electrónicos del sistema y la unidad de control
que se comunica con los sistemas de posicionamiento y de almacenamiento.
116  SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

El elemento clave de la cámara DMC lo constituyen el conjunto de sensores y


objetivos. La utilización de varios sensores viene condicionada por motivos
tecnológicos y económicos. La versión de alta resolución incorpora 4 sensores
pancromáticos de tamaño 7000x4000 con objetivos de 120mm de distancia focal y
apertura relativa máxima de f/4. Esta configuración permite la obtención de imágenes
con un tamaño de más de 12000 píxeles perpendicular a la traza del vuelo y 8000 a lo
largo de la traza, dando lugar a un ángulo de campo de 74º. Los canales para la
captación de imágenes en color son montados en la parte exterior permitiendo la
incorporación de 4 cámaras (rojo, verde, azul e infrarrojo) con un tamaño del sensor
de 3000x2000 y con objetivos de 25mm de distancia focal y de apertura máxima de
f/4. El tamaño de los píxeles en los sensores es de 12µmx12µm con un rango
dinámico superior a 12 bits. Estos sensores incorporan un sistema de integración
retardado en el tiempo (TDI) que permite la compensación del movimiento de la
imagen (Hinz, 1999), que permite una definición de imagen muy buena como fue
verificado en el vuelo de pruebas realizado en Enero del 2000.
Una vez capturadas las imágenes éstas deben ser procesadas utilizando el software
específico que permitirá su utilización en los sistemas fotogramétricos digitales. El
diagrama de flujo del procesamiento se esquematiza en la Tabla 3.4.

Tabla 3.4. Esquema de fases de trabajo con la cámara DMC (Hinz et al., 2000)
Lugar Fases Procesos
Gabinete Pre-procesamiento Planificación de la misión

Avión Vuelo fotográfico Sistema de control de navegación y vuelo


Software de control de la cámara
Control de calidad en vuelo (Quick-view)
Almacenamiento de datos

Hangar Post-proceso Intercambio de datos (RAID)


Gabinete Comprobación (Quick-view, Informe vuelo)
Post-proceso:
- Corrección radiométrica
- Corrección geométrica
- Mosaico
- Imágenes en color
- Composiciones de color
Almacenamiento de imágenes y distribución

Gabinete Adquisición datos Tratamiento fotogramétrico de las imágenes

El trabajo comienza incluso antes de la realización del vuelo, con la fase de


planificación de la misión y la transferencia de los resultados del proyecto de vuelo al
sistema de navegación.
Durante el vuelo dos sistemas trabajan de forma simultánea, el sistema de gestión
del vuelo (Flight Management System -FMS-) y el sistema de control de la cámara. El
sistema de control de la cámara es el responsable de la gestión de los diferentes
parámetros de la cámara e interacciona con el sistema de gestión del vuelo (y con el
sistema de navegación en el caso de que esté incorporado) para la adecuada toma de
FOTOGRAMETRÍA DIGITAL   117 

las imágenes. En todo momento, el operador puede controlar la calidad de las mismas
mediante el monitor en tiempo real (Quick-view).
Tras el aterrizaje, los datos almacenados son trasvasados al sistema de
postprocesamiento, para facilitar esta tarea el sistema de almacenamiento es
removible, evitando la inactividad del sistema mediante las transferencias.
El objetivo del post-proceso es preparar las imágenes originales para que puedan
ser utilizadas en cualquier estación fotogramétrica digital. En este proceso, las
imágenes son normalizadas, verificadas, rectificadas y ajustadas en todo y,
finalmente, almacenadas en un formato estándar. Asimismo, se dispone de la
información referida al proyecto de vuelo. Esta fase se realiza en modo desatendido
(batch mode) y permite la generación de imágenes intermedias en 4 niveles:
- nivel 1: imagen original normalizada. Imagen corregida radiométricamente en
la que se han eliminado los píxeles defectuosos.
- nivel 1a: imagen virtual. Las imágenes parciales son corregidas de distorsión
dando lugar a una imagen con perspectiva central (mosaico).
- nivel 1b: Imagen en color (imagen con los canales RGB) o composición de
color (imagen fusionada RGB y pancromática).
- nivel 2: Imagen georreferenciada (imagen generada a partir del nivel 1a ó 1b
mediante las medidas del sistema GPS/INS).
El formato final de salida de la imagen puede ser TIFF o JPEG.

3.3.7.3. Cámara Digital Vexcel UltracamD


La cámara digital de Vexcel se denomina Ultracam D y fue presentada en el 2003
en Anchorage (Alaska). Se trata de una cámara compuesta por una matriz de sensores
matriciales, tanto de tipo pancromático como de canales del visible (rojo-verde-azul)
que se utilizan para la generación de imágenes en color (fig.3.17).

Fig.3.17. Cámara Vexcel UltracamD. Izq.: Sensor, Centro: Dispositivo de almacenamiento;


Der.: Monitor de control (Vexcel Imaging GmbH, 2003)

Una diferencia muy importante de esta cámara con respecto a la Z(I DMC es en el
procedimiento realizado en la toma de las diferentes imágenes, que después se
compondrán dando lugar a la imagen final. En la Z(I DMC todas las imágenes son
tomadas en el mismo momento (sincrónicas) lo que implica que los centros de
118  SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

proyección están situados en diferentes posiciones (las originadas por las distancias
propias de los objetivos en el cono de la cámara) mientras que en la Vexcel
UltracamD las imágenes son tomadas en la misma localización, es decir, existe un
cierto lapso de tiempo entre las tomas de las imágenes parciales (sintópicas). La
cámara incorpora un sistema de 8 elementos ópticos que dan lugar un total de 33
imágenes. Estas 33 imágenes se combinan de forma que 13 imágenes dan lugar a una
imagen en color y las 20 restantes a una imagen pancromática de alta resolución,
siguiendo un procedimiento de ajuste entre las imágenes que proporcionan imágenes
continuas en la que los empalmes no se detectan, utilizando el procedimiento que ya
fue empleado en ciertos escáneres como el Vexcel VX3000.
La imagen pancromática generada tiene unas dimensiones de 11500x7500 píxeles
que considerando el tamaño de píxel de 9mm da lugar a una imagen con un tamaño de
103.5x67.5mm, mientras que la imagen color, que en realidad es una imagen
multiespectral de cuatro canales (azul, verde, rojo e infrarrojo) tiene unas dimensiones
de 4008x2672 píxeles que mantienen el tamaño de 9mm. Las imágenes tienen una
resolución radiométrica superior a los 12 bits (fig.3.18).

Fig.3.18. Ejemplos del vuelo de pruebas realizado con la cámara Vexcel UltracamD. La imagen de la
derecha es una imagen en color transformada para su publicación (Vexcel Imaging GmbH, 2003)

La cámara tiene una distancia focal de 100mm con una apertura relativa de 5.6
con un ángulo de campo de 55º (transversal a la dirección de la pasada) y 37º
(longitudinal) y un obturador entre 1/60 y 1/500, incorporando un sistema de
compensación del movimiento de la imagen (TDI –time delay integration–). La
cámara permite la captura de 1.3 imágenes/s lo que permite la captura de imágenes de
alta resolución a solapes longitudinales que pueden llegar al 90% (fig.3.19).
Para el almacenamiento de las imágenes incorpora un espacio de 1.5Tb (que el
año que viene está previsto que ascienda a 10Tb) que permite el almacenamiento de
2725 imágenes.
Procesamiento de los datos.-
Tras finalizar la captura de las imágenes, el procesamiento puede comenzar en el
mismo vuelo de regreso. Tras tomar tierra es posible elegir entre 3 opciones:
FOTOGRAMETRÍA DIGITAL   119 

Fig.3.19. Imagen de la estrella de Siemens captada con una película convencional (izq.) y con la cámara
digital UltracamD (der). Se puede observar la ausencia de granularidad en la imagen derecha que permite
una mejor definición de la imagen, lo que produce que el radio crítico es de 4.9 mm frente a los 9 mm de la
cámara de película convencional (Vexcel Imaging GmbH, 2003)

a) extraer los datos y fusionarlos fuera de la unidad del ordenador preparándolos


para procesarlos y realizar la entrega a los clientes.
b) mantener los datos en los ordenadores de abordo (esta opción se aconseja en
zonas muy frías) donde ser realiza el procesamiento. En este tipo de sistemas
el procesamiento de 2000 imágenes es de 10 horas, permitiendo
posteriormente la entrega de las imágenes.
c) extraer la caja de almacenamiento y realizar el procesamiento en el propio
gabinete (u hotel) preparando las imágenes para su entrega, lo que puede
permitir incluso la reducción del tiempo de procesamiento en el caso de poder
disponer de ordenadores de sobremesa con mayor velocidad de proceso.

3.3.7.4. Sensor Digital Aerotransportado ADS40 de Leica Geosystems


a) Objetivo y plano focal.
El objetivo del sensor ADS40 ha sido especialmente diseñado para las
aplicaciones fotogramétricas y de teledetección de alta resolución. Las lentes son
similares a las empleadas en las cámaras convencionales RC-30, con las mismas
características de tamaño, peso, resolución y eficiencia luminosa. No obstante, el
diseño en este caso no se basa, a diferencia de las cámaras convencionales, en la
reducción de la distorsión radial, sino en cuanto a la telecentricidad. Esta
característica es básica en cualquier tipo de cámara digital, pero es crítica en la
ADS40 debido a la necesidad de captura de imágenes multiespectrales con una banda
estrecha de registro. Debido a la telecentricidad del objetivo es posible que los
píxeles de líneas adyacentes se iluminen mediante rayos perpendiculares (fig.3.20).
El plano focal incorpora 4 zócalos para la instalación de los sensores CCD: dos
incluyen líneas simples y los dos restantes, incluyen líneas triples (fig.3.21). Para el
diseño del plano focal es fundamental tener en cuenta el alineamiento de los distintos
120  SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

sensores CCD, el control de la temperatura en los sensores CCD y las interconexiones


con la óptica y los filtros. La precisión de la colocación de los sensores es superior a
1µm, con errores finales de planeidad tras la compensación de ±10µm, cifra que
permite asegurar un correcto enfoque en todo el formato.

Fig. 3.20. Objetivo del sensor ADS40. Izq.: Vista externa del objetivo;
Der.: Esquema de las trayectorias de los rayos (Eckardt et al.,2000; Sandau et al.,2000)

Fig.3.21. Detalle del plano focal del sistema ADS40


en el que se pueden observar los zócalos de los sensores CCD (Sandau et al., 2000)

b) Sensores CCD
El sistema ADS40 incorpora 7 sensores lineales paralelos (tres pancromáticos con
orientaciones frontal, nadiral y trasera, tres para la captura de imágenes en color RGB
y uno para la captura de imágenes infrarrojas (Tabla 3.5).
Cada línea pancromática está formada por dos sensores líneas de 12000 píxeles,
desplazados 0.5 píxeles uno respecto del otro. Las líneas de color son capturadas
mediante un sensor de 12000 píxeles y son superpuestas para configurar la imagen en
color durante el vuelo, mediante la utilización de espejos dicroíticos, que dividen el
rayo de luz en sus tres componentes básicos sin que esto represente una pérdida de
energía.
FOTOGRAMETRÍA DIGITAL   121 

Tabla 3.5. Características de los sensores del sistema ADS40


Banda pancromática
Tamaño del sensor: 2 x 12000 píxeles
Tamaño del píxel: 6.5µm
Ángulos entre los sensores: Frontal-nadir: 26º
Frontal-trasera: 42º
Nadir-trasera: 16º
Banda color e infrarrojo
Tamaño del sensor: 12000 píxeles
Longitudes de onda: Rojo: 608-662 nm
Verde: 533-587nm
Azul: 428-492nm
Infrarrojo: 703-757nm (opcional 833-887nm)

c) Sistemas de procesamiento de la señal.


El plano focal incorpora únicamente los componentes electrónicos mínimos
necesarios para el funcionamiento de los CCD, realizándose el procesamiento en
subunidades independientes situadas en parte posterior de la cámara. Este esquema
permite una mayor flexibilidad en cuanto a la configuración de los diferentes tipos de
sensores que puede incorporar la cámara.
d) Ordenador digital y almacenamiento
El sistema informático de la cámara incorporar los siguientes componentes
(fig.3.22):
− unidad de control de la cámara y de procesamiento de datos
− sistema de almacenamiento de las imágenes y de los datos del vuelo
− componentes electrónicos del sistema de orientación y posicionamiento
− elementos de control del usuario e interfaz con el operador y piloto
− unidad de interfaz con otros sensores y periféricos (IO-Box)

- Unidad de control de la cámara y de procesamiento de datos.


El principal componente del sistema informático de la cámara es el canal de
transferencia de imágenes de alta velocidad, diseñado para permitir la transferencia
entre los sensores y el sistema de almacenamiento en tiempo real. El sistema
incorpora sistemas de compresión de imágenes tanto de tipo no degradativo como
JPEG y garantiza velocidades de 40Mb/s, con máximos superiores a varios cientos de
Mb/s.
- Sistema de almacenamiento de datos
El sistema de almacenamiento recoge todos los datos del vuelo (imágenes,
orientación, configuración del bloque, …). Consiste en un conjunto de discos duros
con una capacidad total de 200-800Gb, acondicionados para las condiciones
medioambientales del funcionamiento en vuelo. Este volumen permite el
almacenamiento de la información de misiones con una duración de hasta 4 horas.
122  SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

RC30 Otros Futuras


PAV30 sensores opciones

IO-Box

Ordenador
Otros
de la cámara
interfaces
Cuerpo Cámara

IMU Electrónica
POS

Electrónica
Procesamiento Interfaz Sistema de
Imagen Registro Almacenamiento
Óptica Masivo

CPU e Interfaz Discos


Interfaces Usuarios Sistema
PAV30

Interface Interface
Operador Piloto

Fig. 3.22. Componentes y conexiones del sistema informático de la cámara (Eckardt et al., 2000)

- Componentes electrónicos del sistema de orientación y posicionamiento


El sistema de orientación y posicionamiento del ADS40 es fundamental para el
posterior procesado de las imágenes. Consiste en un sistema de posicionamiento y
orientación de Applanix (POS) desarrollado específicamente para el ADS40. La
unidad de medida inercial (IMU) del POS se sitúa en la cámara y registra los
movimientos del plano focal. Los datos proporcionados por el POS son almacenados
como parte de los datos del vuelo en el sistema de almacenamiento.
- Interfaz operador y piloto
Durante el vuelo es fundamental que tanto el operador como el piloto dispongan
de un interfaz cómodo, simple y completo para comprobar el funcionamiento correcto
del sistema. Esto es especialmente importante cuando la complejidad de las imágenes
capturadas es mayor. En la figura 3.23 se muestra una pantalla de ejemplo del interfaz
de navegación.
FOTOGRAMETRÍA DIGITAL   123 

Fig.3.23. Captura de pantalla del sistema de navegación (Eckardt et al.,2000)

- IO-Box
El IO-Box es un sistema de conexión para periféricos externos. Su diseño es
modular y permite al ADS40 adaptarse a las modificaciones futuras. Por esta razón,
será posible trabajar con el ADS40 junto con otros sistemas RC30 o PAV30, u otros
sistemas como un espectrómetro o un escáner láser.
e) Sistema de control del vuelo y del sensor (FCMS)
Todas las características de precisión y eficacia del sensor no tienen sentido si se
carece de un sistema adecuado de control. El objetivo fundamental de un vuelo
fotogramétrico es realizar el recorrido completo en el menor tiempo posible (motivos
económicos) y ajustándose en todo momento a las especificaciones del vuelo -altura,
inclinaciones, velocidad,…- (motivos técnicos). Para facilitar esta tarea el sistema
incorpora el sistema de gestión del sensor y del vuelo que consta de cinco partes:
− gestión del vuelo
− sistema de navegación
− control del sensor
− registro de los datos del vuelo y errores
- Gestión del vuelo.
El sistema de gestión del vuelo es el elemento fundamental del sistema FCMS y
coordina la información suministrada por el sistema de navegación, el sistema de
control del sensor. El interfaz con el operador se realiza mediante una pantalla táctil
en un entorno gráfico de sencillo manejo.
- Sistema de navegación
El sistema de navegación está diseñado para reducir al máximo el tiempo de
vuelo y optimizar las tomas. El piloto se debe concentrar tan sólo en la navegación
mientras que el operador se ocupa del sensor y la toma de las imágenes. El sistema se
basa en la experiencia adquirida en el sistema ASCOT, incorporando diversas ayudas
tanto para la navegación (camino más corto para la siguiente pasada, deriva con
124  SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

respecto la dirección marcada,…) como para las tomas (fotogramas restantes, tiempo
para llegar al inicio de pasada,…).
- Control del sensor
El módulo de control de sensor se encarga de la gestión del hardware de captura
de las imágenes. Los parámetros son configurados por el operador o definidos en el
plan de vuelo.
- Registro de los datos del vuelo y errores
Durante el vuelo se almacenan diferentes datos para permitir una precisa
evaluación de lo sucedido durante el vuelo. La trayectoria del vuelo, con los puntos de
partida y de llegada de cada una de las secuencias de imágenes así como los
parámetros individuales del sensor pueden ser recuperados tras el vuelo.
f) Sistema de posicionamiento
Con el objeto de obtener imágenes de alta resolución a partir de las líneas
capturadas por los sensores es necesario conocer la orientación de cada una de las
líneas. Este proceso se realiza mediante procedimientos de correlación automática
(matching) similares a los empleados actualmente en los sistemas de
aerotriangulación digital automática, si bien es importante tener en cuenta la
complejidad de los sistemas a resolver debido a que es necesario calcular los
parámetros de orientación externa para cada una de las líneas que forman la banda de
imagen. Debido a esto, es necesario la introducción de información adicional
proporcionada por los sistemas de posicionamiento realizando la orientación mediante
el método directo (con escasa dependencia del control terrestre y utilizando los
propios parámetros de la cámara). Para ello la cámara incorpora un sistema de
posicionamiento GPS/inercial y de orientación desarrollado por la empresa Applanix
Corp. para el ADS40 (fig.3.24).
El sistema consta de cuatro componentes principales: la unidad de medida inercial
(IMU), el ordenador del sistema de posicionamiento (POS), un receptor de altas
prestaciones L1/L2 y un programa de postproceso para la obtención de los resultados
finales. La información de la velocidad incremental y de los ángulos obtenidos del
IMU se integra para proporcionar una aproximación eficaz para la determinación de
la posición de la cámara (posición, velocidad y orientación). La posición y velocidad
obtenida del GPS se emplea para detectar y corregir errores de baja frecuencia en las
soluciones alcanzadas.
El IMU es instalado directamente en el cuerpo de la cámara, a diferencia de las
cámaras convencionales que no están preparadas para ello lo que puede producir
problemas de movimiento relativo entre la cámara y el IMU. El sistema POS y el
receptor están incorporados en el sistema informático de la cámara, y están
conectados con el sistema IMU mediante un cable de fibra óptica. Como información
adicional, se incorpora la propia información proporcionada por la montura
estabilizadora en la que se instala la cámara.
FOTOGRAMETRÍA DIGITAL   125 

Cuerpo Cámara
Electrónica
Cuerpo
Cámara

IMU

Plano Focal

Ordenador POS Óptica Ordenador Cámara


Interfaz
Interfaz Registro
Montura Estabilizada Externo

Receptor Interfaz
GPS Registro
Datos

Sistema
Sistema Antena Almacenamiento
NMEA
RTCM GPS Masivo

Fig.3.24. Componentes básicos para la integración entre el ADS40 y el IMU/GPS (Eckardt et al., 2000)

El sistema POS proporciona información en tiempo real e información para el


post-proceso. La información en tiempo real se utiliza para el control de vuelo
(navegación) y de la montura de la cámara. El sistema de post-proceso (fig.3.25)
procesa la información del sistema de almacenamiento masivo (MMS), conservando
los datos originales para posteriores comprobaciones e integra dicha información con
la de la estación base GPS en tierra.
Sistema de
Almacenamiento

Vectores
ADS40 Visualización
Sistema de Post- estéreo/mono
Procesamiento MDE
captura simultánea Mosaicos
de varios canales Sistema de ...
espectrales Almacenamiento
Masivo
Nivel 0 (imágenes brutas)
Nivel 1 (imágenes rectificadas)
Nivel 2 (ortoimágenes)
Posición y orientación

líneas RGB superpuestas Datos de la estación


mediante procedimiento óptico base GPS

Fig.3.25. Sistema de postproceso en un flujo de producción


fotogramétrica digital (Tempelmann et al., 2000)

g) Sistema de postproceso
Las funciones básicas del sistema de postproceso son las siguientes (fig.3.25):
− descarga de las imágenes y de la información complementaria del vuelo del
126  SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

sistema de almacenamiento masivo del sensor y conversión de los productos


a formato estándar (Nivel 0).
− post-proceso de la información GPS/IMU para la determinación de la
posición y orientación del sensor.
− rectificación de las imágenes para conseguir la visión estereoscópica y
permitir la aplicación de los procesos de identificación automática de puntos
(Nivel 1).
Tras la finalización del vuelo, la matriz de discos se extrae del ordenador de
control de la cámara y se conecta mediante un puerto SCSI al sistema de postproceso
en tierra. Durante la descarga la información se reordena separando las imágenes de la
información referente al posicionamiento y las características del vuelo. Para permitir
una cómoda manipulación de las imágenes, éstas son recortadas en porciones de
formato aproximadamente cuadrado aunque siempre se mantiene la estructura de la
pasada, fundamental para las operaciones de orientación. La descarga se realiza en
sistemas de varias cintas tipo DLT (capacidad total en torno a 200Gb) en un proceso
largo (varias horas) pero desatendido. El esquema general del sistema de postproceso
se muestra en la figura 3.26.

PROCESO EN VUELO

Estación Base GPS MMS

Lectura MMS

Datos Referencia Datos Brutos Metainformación


Imágenes
GPS GPS/IMU Proyecto/Banda/Imagen

Triangulación con ORIMA para SOCET SET

- Procesamiento Fotogramétrico Digital


- Análisis Digital de Imágenes
- Nivel 2: Ortofotografías y mosaícos

Información vectorial, MDE, Ortofotografías, Mosaícos, Análisis de Imágenes,...

Fig.3.26. Diagrama de flujo del post-proceso (Tempelmann et al., 2000)


FOTOGRAMETRÍA DIGITAL   127 

Las informaciones del GPS y de la IMU son capturadas durante el vuelo y


almacenadas en el sistema de almacenamiento masivo (MMS). Esta información se
combina en el post-proceso con la información de la estación de referencia en tierra
para proporcionar la información de posición y orientación de cada línea de imagen.
Como resultado de esta etapa del proceso se obtiene un fichero de datos para cada
línea de la imagen que contiene los datos de la orientación externa.
La alta frecuencia de información de la IMU (800 líneas/s) se utiliza para
comprobar la información GPS entre los registros del receptor (2 muestras/s),
proporcionando la posición de la cámara entre los puntos medidos por el GPS. La
IMU registra la posición relativa y la información de la orientación de la cámara de
una forma muy precisa y en intervalos de tiempo muy cortos, que puede ser
transformada al sistema WGS84 utilizando la información GPS.
Tras el procesamiento de la información GPS/IMU, los resultados se emplean para
la rectificación de las imágenes mediante su proyección en un plano de cota
determinada especificada por el usuario, con ello se consigue la obtención de
imágenes de gran calidad de visión estereoscópica y que además permiten una
sencilla aplicación de los métodos automáticos de correlación (generación automática
de MDE). Las imágenes obtenidas son denominadas imágenes de Nivel 1 y se
almacenan en formatos estándar (TIFF de 8 ó 16 bits) partidas en pequeñas porciones
para facilitar su tratamiento en los sistemas fotogramétricos digitales incluyendo la
información de su georreferenciación aproximada (sin emplear la información de los
puntos de apoyo terrestre). En las figuras 3.27 y 3.28 se muestran dos ejemplos de la
imagen original y la imagen rectificada en función de los ángulos de orientación
medidos por la IMU.
Estas imágenes pueden ser integradas en cualquier sistema fotogramétrico digital
para su posterior análisis y la generación de los productos fotogramétricos derivados
(MDE, Ortofotografías, Mosaicos, Restituciones, …).
- Características radiométricas
Una de las ventajas más importantes de la captura directa de la imagen digital es
la relativa a la calidad radiométrica de la imagen. El sistema ADS40 ha sido diseñado
para proporcionar imágenes con una buena relación señal/ruido (fundamental para el
postproceso de la imagen fundamental en la automatización del proceso
fotogramétrico digital) así como una buena uniformidad en función de la señal
luminosa recibida. El sensor presenta un rango dinámico de 12 bits con una señal
independiente del ruido siempre superior a 8 bits. La calidad radiométrica de las
imágenes se puede observar en la figura 3.29 correspondiente al vuelo realizado sobre
la ciudad de Berlín con la versión EM el día 23 de abril de 1999, con una altura de
vuelo de 3000m y un tamaño de píxel sobre el terreno de 0.25m.
128  SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

6 ω ϕ
3
0

κ
-3
-6
0

Fig.3.27. Imagen original y rectificada en función de los ángulos de orientación determinados por la IMU.
Las imágenes fueron obtenidas por la versión EM del sensor ADS en Abril de 1999, con una altura de
vuelo de 3000m (tamaño del píxel sobre el terreno de 25cm) (Fricker et al., 1999a, 1999b)

Fig.3.28. Imagen de detalle en la que se muestra el efecto de la rectificación en la


corrección de la imagen de una torre de TV. Las imágenes fueron obtenidas por la versión EM del sensor
ADS en Abril de 1999, con una altura de vuelo de 3000m (tamaño del píxel sobre el terreno de 25cm)
(Fricker et al., 1999a, 1999b)
FOTOGRAMETRÍA DIGITAL   129 

B
NºPixels NºPixels
15000 15000

10000 10000

5000 5000

0 0
0 1000 2000 3000 0 1000 2000 3000
ND ND

Fig.3.29. Imagen obtenida con la versión EM del sensor en la que se observan


los tratamientos aplicados para el ajuste a nivel local de zonas subexpuestas
-sombras- (A) y sobreexpuestas (B) (Fricker et al., 1999a)

3.3.7.5. Sistemas instalados en satélites


En Fotogrametría, los sistemas electroópticos de captación de imágenes mejor
conocidos son NOAA, AVHRR, Landsat MSS y TM y SPOT HRV (multiespectral -
XS- y pancromático -P-). De los cuales el SPOT puede ser utilizado como sensor para
la cartografía topográfica a escala 1:50000 debido a su resolución de 10m en modo
pancromático y a su capacidad de visión estereoscópica, si bien es necesario tener en
cuenta que la visión estereoscópica con SPOT se consigue mediante la utilización de
imágenes correspondientes a diferentes órbitas obtenidas con un sensor oblicuo que
puede dificultar la interpretación de la imagen. Al respecto es importante tener en
cuenta la necesidad de mapas a escalas entre 1:50000 y 1:100000, para aplicaciones
de administración del territorio y planificación. Este rango de escalas suelen ser
elegidas como las escalas base para los programas cartográficos llevados a cabo por
los Institutos y Servicios cartográficos de los diferentes países, no obstante, sólo el
42% de la superficie terrestre (excluyendo la Antártida) está cartografiada a una
escala superior a 1:125000, y de este área sólo el 2% sufren revisiones anuales. Esta
situación sólo puede ser cambiada si se plantean cambios radicales en las estrategias
de elaboración de cartografía y en ese cambio, sin duda pueden desempeñar un
130  SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

importante papel, la cartografía a partir de la información proporcionada por los


satélites de alta resolución.
Tabla 3.6. Sensores digitales operacionales, en visible e infrarrojo
Satélite Tamaño Píxel Anchura Barrido Nº. Bandas Tiempo de Repetición
Meteorológico
5km global 3 30 min
Geoestacionario
Meteorológico
1km --- --- 12 h
Polar
Landsat TM 30(120)m 185km 6 18 días
--- 7 ---
Meteor Rusia 30(100)m
--- 3 ---
MOS Japón 50m --- 3 ---
IRS-1 India 36m --- 4 ---
SPOT-XS 20m 60+60km 3 5-28 días
SPOT-P 10m 60+60km 1 5-28 días

a) Sistemas de registro
- Sensor SPOT
Las ventajas del empleo de las imágenes satélite son conocidas, pero merece la
pena ser destacadas las siguientes:
− las imágenes satélite proporcionan una cobertura constante y global de la
superficie terrestre y su puesta a disposición del usuario es muy rápida (unos
pocos días desde el momento de la captura).
− los costes de la imagen se reducen considerablemente frente a los métodos
clásicos de fotogrametría analógica (sobre todo para pequeñas escalas) así el
coste por km2 de una imagen SPOT es aproximadamente 3 veces menor -el
coste real de una imagen SPOT se puede estimar en un 300% del precio de
venta- que el de una imagen fotográfica, aunque evidentemente ésta última
presenta una mayor resolución (12cms frente a los 10-20m), si bien esta
resolución es de escasa utilidad para la generación de mapas a pequeña escala
(Konecny, 1990). El efecto de las subvenciones sobre el precio de compra de
las imágenes por parte de las imágenes de los satélites lanzados por
organizaciones estatales (Landsat, SPOT, IRS,...) queda patente si se
comparan dichos precios con los correspondientes a los nuevos satélites de
muy alta resolución (por ejemplo, Ikonos o QuickBird) que han sido puestos
en órbita por empresas privadas con diferente política de comercialización.
− se produce una considerable reducción de costes al necesitar un número de
puntos de apoyo considerablemente menor.
− las imágenes satélite son proporcionadas en formato digital, por lo que pueden
ser directamente integradas en los procesos informáticos (Fotogrametría
Digital), reduciéndose los costes de la producción de los mapas gracias al
elevado nivel de automatización de los sistemas fotogramétricos digitales.
Geometría de las imágenes SPOT. Particularidades.
Una fotografía aérea es una imagen perspectiva central de una zona de la
FOTOGRAMETRÍA DIGITAL   131 

superficie terrestre, realizándose la creación de los modelos estereoscópicos que nos


van a permitir la obtención de las coordenadas terreno dentro de las fotografías
correspondientes a una misma pasada, siendo los parámetros de orientación de cada
una de las imágenes la posición de la cámara en el momento del disparo (Xo,Yo;Zo) y
los tres giros de orientación del eje óptico (n,T,6).
La geometría del sensor SPOT (y la de otros satélites) está basada en el principio
del “push broom” (rastreador de empuje) que difiere considerablemente de la
geométrica perspectiva de la imagen fotográfica. La principal diferencia es que la
formación de la imagen se realiza mediante la captura de líneas de barrido
individuales, que son capturadas según una frecuencia que viene marcada por la
velocidad de barrido del sensor. Por tanto, la imagen (si ésta se considera como la
sucesión de líneas de barrido) será infinitamente larga en la dirección de la órbita en
cada instante se limita a una línea de barrido que contiene al sensor. Por otro lado, la
frecuencia constante lleva a que los parámetros de orientación externa de cada una de
las bandas sea dependiente del momento de la toma, siendo esta propiedad la única
que hace posible la orientación de las imágenes, al ser estos parámetros variables en
cada línea de barrido (fig.3.30).
Tiempo2
Tiempo1 S2
S1
Órbita 1 Órbita 2
Órbita

Lí nea de barrido
Línea de barrido
(Tiempo2)
(Tiempo1)

Figura 3.30. Captura de la imagen y generación de los pares estereoscópicos en el sistema SPOT

La geometría de muestreo de las imágenes SPOT se muestra en la figura 3.31,


siendo D.V. la dirección de vuelo, f la distancia focal y PPtn el punto principal en el
momento de muestreo t. Debido a esta geometría se mantiene una perspectiva central
en cada línea, manteniéndose una geometría aproximadamente equivalente a una
perspectiva paralela a lo largo de la línea de vuelo. Para un punto A en una línea
muestreada en el instante tn, el punto imagen correspondiente a debe satisfacer la
condición de colinearidad con los parámetros de orientación expresados en función
del instante de la toma (Xc,Yc,Zc,ω,ϕ,κ). De la misma forma, para el punto B del
terreno su punto imagen b debe cumplir la condición de colinearidad para el instante
tm de la toma. La relación entre líneas de muestreo es obtenida mediante polinomios
de bajo orden en función del tiempo de muestreo (Chen y Lee, 1990).
132  SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

X t , Yt , Z t
ω t , ϕ t , κt f

a
ya

YA
ZA

XA

Fig.3.31. Geometría de la captura de imágenes SPOT (Chen y Lee, 1990)

Una escena completa de una imagen SPOT-1A pancromática está compuesta por
6000x6000 píxeles. El tamaño CCD de cada píxel es 13x13 µm. La distancia focal
nominal es de 1.082m. El tiempo de muestreo ente dos líneas consecutivas es
aproximadamente de 0.0015 s Si bien es importante tener en cuenta que debido a
desajustes del sensor los valores de tamaño del píxel y de distancia focal pueden
variar ligeramente. Las coordenadas imagen se pueden establecer mediante las
siguientes relaciones:
xi = 0
yi = [Nº Pixel - (6000+1)/2] * 0.013 mm
f = 1082 mm
El esquema de trabajo para la utilización de las imágenes SPOT para la extracción
de información topocartográfica del terreno se muestra en la figura 3.32 y se verá con
mayor profundidad en el capítulo relativo a la orientación de imágenes
fotogramétricas.
La única posibilidad real de eliminar el lapso de tiempo entre dos pasadas del
satélite para obtener visión estereoscópica es la utilización de un estéreo satélite con
al menos dos matrices de sensores realizando la captación de forma simultánea
(oblicuamente hacia adelante y hacia atrás) si bien es preferible incorporar tres
(adelante, vertical y atrás) como fue propuesto por Colvocoresses (1979) y
posteriormente se ha implementado en los sensores aerotransportados digitales.
FOTOGRAMETRÍA DIGITAL   133 

SPOT CCT

Extracción de la información de los ficheros

Cálculo de los parámetros Identifica ción de Información


iniciales de orientació n puntos homólogos del sistema

Información de Modelización de la órbita


los puntos de control y condicione s de la toma

Ajuste de los parámetros


orbitales y de la toma

Intersección

Información topográfica
3D del terreno

Fig. 3.32. Esquema de trabajo con imágenes SPOT estereoscópicas

3.3.7.6. Espectrómetros de imágenes


El sistema canadiense MEIS es un espectrómetro de imágenes con capacidad
estereoscópica, pero cada vez es mayor el interés que representan los espectrómetros
de una gran cantidad de bandas de poca anchura. La resolución espacial es también
muy elevada así el HIRIS (High Resolution Imaging Spectrometer), AVIRIS
(Airborne Visible and Infrared Imaging Spectrometer, 224 bandas, 20 m pixel),
MODIS-T (Moderate Resolution Imaging Spectrometer Nadir and Tiled), TIMS
(Thermal Infrared Multispectral Scanner, 6 bandas, 20 m pixel), ASAS (Advanced
Solid-State Array Spectrometer, 29 bandas, 2 m pixel), y MERIS (Medium Resolution
Imaging Spectrometer, 15 bandas, 250 y/o 1000 m) pertenecerían a este grupo de
interés para la cartografía topográfica, cuando el registro de un mapa temático es
necesario para el análisis y preparación del mapa topográfico final.
Ackermann (1990) ha analizado la posibilidad de utilización de los sensores
espaciales con fines topográficos frente al uso de los sistemas clásicos de fotografía
analógica. La relación clásica de establecer la relación entre la escala del mapa y la de
la fotografía viene dada por la regla de Von Gruber:
mf = c m p

donde mf es el módulo de la escala de la foto y mp es el módulo de la escala del mapa,


y c es una constante que clásicamente ha tomado un valor entre 200 y 300 para las
fotografías aéreas convencionales. Ackermann plantea que el valor de la constante c
134  SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

debe aumentarse para las imágenes espaciales hasta al menor 1500 debido a la
resolución angular mucho más elevada de los sensores digitales.
Tabla 3.7. Sistemas espaciales dotados de sensores estereoscópicos
SPOT ASTER
MOMS-02 CBERS OMI
XS P (EOS)

Pixel terreno 20 10 4.5 13.5 20 5 2.5 15


Bandas 3 1 1 2/3 4/1 1 1 3
Anchura (km) 60+60 37 78 113 60 15 60
Relación B/H 0-1.0 0.6/1.2 0-1.2 0.7 0.6
Lateral Frontal Lateral Frontal Frontal
Estéreo
5-28 días Trasero Atrás 3-26 días Trasero Nadir
Incl orbital 98.7º 28.5º 98.5º Polar 98.2º

Otro análisis necesario para establecer las posibilidades es la precisión geométrica.


Así en planimetría se suele establecer que la precisión final del mapa debe ser 0.2mm
a la escala de publicación. En altimetría, la precisión requerida debe ser 1/5 de la
equidistancia entre curvas de nivel. Por otro lado, un parámetro necesario establecer
es la detectabilidad que nos va a controlar el tamaño del píxel, así para los edificios
aislados y caminos debe ser de 2m, para carreteras locales y hidrografía de detalle 5m
y 10 m para carreteras principales y bloques de edificios. Utilizando esta
aproximación, Konecny (1990) ha comparado algunos sensores para la cartografía
desde el espacio.
Jacobsen (1990) indica, basándose en experimentos prácticos, que la cartografía a
escala 1:50.000 es posible con las imágenes de LFC, Kate 1000 y SPOT, apuntando si
bien los resultados mejores fueron alcanzados con las imágenes de la Kate 1000, los
resultados finales no diferían en exceso de los obtenidos con SPOT. Konecny (1990)
comparó los costes de los distintos sistemas espaciales disponibles en términos de
coste por imagen, por unidad de área y por millón de píxeles. Estableciendo las
siguientes conclusiones:
− las cámaras espaciales son las más económicas y ofrecen una mejor
información.
− la fotografía aérea es el sistema más caro considerando el precio por unidad de
superficie (sin considerar a los satélites de alta resolución de última generación
tipo QuickBird o Ikonos, con costes no subvencionados).
− el coste real de las imágenes satélite está muy por encima del coste de venta,
así el coste real de Landsat es del doble y el de SPOT cuatro veces mayor.
− el planteamiento de misiones tipo Shuttle no es comercialmente viable.
FOTOGRAMETRÍA DIGITAL   135 

Tabla 3.8. Características cartográficas de las imágenes captadas con sensores electroópticos
Sensor Planimetría Detectabilidad Altimetría
Precisión Útil mapa Tamaño Útil mapa Precisión Equidistancia
σp (m) a escala de pixel a escala σh (m) (m)
Landsat MSS 40 1:200.000 79 -- -- --
Landsat TM 20 1:100.000 30 -- 25 125
SPOT-P 3 1:25.000 10 1:100.000 5 25
KATE 200 12 1:100.000 (31) -- 35 175
KFA 1000 4 1:25.000 (4) 1:25.000 15 75
MC Zeiss 7 1:50.000 (18) 1:100.000 20 100
LFC Itek 5 1:25.000 (7) 1:50.000 15 75

Tabla 3.9. Comparación de los costes de los productos (Konecny, 1990)


Coste Área Tam. píxel Pixel Coste
Tamaño Nº de Coste
Sensor imagen imagen equivalente imagen millón
2 píxel canales km2
€ (km ) (relación1.5) (x106) píxeles
Landsat
600 34,225 79 -- 4 21,9 3 27
MSS
Landsat
3.600 34,225 30(120) -- 6(1) 230,0 17 16
TM
1
IRS-1 120 6,400 36 -- 4 19,07 3 6
Spot-XS 1.650 3,600 20 -- 3 27,0 75 60
Spot-P 2.100 3,600 10 -- 1 36,0 100 58
KATE
900 65,536 -- 31,1 3 203,3 2 4.45
2000
KFA
1350 7,056 -- 4,1 2 839,5 32 1.62
1000
MC 120 35,721 -- 18,1 3 327,1 0,6 0.37
LFC --- 77,146 -- 12,0 1 535,7 -- --
Fotogr.
Aérea 12 7,617 -- 0,12 1 1128,3 260 0.007
1:12000
MIR 700 79,968 -- 6,6 1 1835,8 1,5 0.40
Los precios son aproximados. 1 Coste exclusivo para usuarios hindúes.

3.3.7.7. Sistemas de imágenes microondas


- SAR y SLAR
Existe un interés creciente en las plataformas SAR y SLAR para la cartografía a
escalas grandes. Los factores determinantes de este interés son la independencia
climática de la calidad de las imágenes y la posibilidad de obtener imágenes de alta
resolución. Si bien es necesario tener en cuenta que en la situación de desarrollo
actual la interpretación de este tipo de imágenes requiere el disponer de imágenes en
el espectro visible (Bercha y Dechka, 1990; Sasse et al., 1990).
La integración de las imágenes visibles/térmicas con las imágenes radar requiere
que las dos geometrías de imagen distintas sean tratadas de una forma correcta. Las
136  SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

posiciones de los objetos en el visible/térmico van a ser función de los ángulos entre
los rayos que emite el objeto y recibe el sensor mientras que en las imágenes radar
será función de las longitudes de dichos rayos. En terreno llano y con requerimientos
de precisiones bajos, esto no es excesivamente problemático. Pero si el terreno tiene
un relieve más escarpado o bien necesitamos una mayor precisión entonces es
necesario el remuestreo de las imágenes a un sistema de referencia común, teniendo
en cuenta las elevaciones del terreno mediante la elaboración de un MDE a partir de
las imágenes del visible o del radar. Si bien la mejor elección será un análisis
conjunto de ambos MDE junto con los puntos de control. Konecny y Schuhr (1990)
tratan del ajuste de bloques en imágenes satélite, la rectificación digital y la calidad de
los mapas y mosaicos derivados de las imágenes radar.
- ERS/JERS/Radarsat
En la actualidad se abren nuevas posibilidades para los estudios de tipo
medioambiental mediante la utilización de los satélites radar entre otros el canadiense
Radarsat (Ahearn et al, 1990), el europeo ERS-1 y el japonés JERS-1. Junto a estos
equipos otras plataformas están en fase de diseño así el futuro SPOT tiene previsto la
incorporación de una banda radar (Aguttes, 1990) y se plantean como de gran interés
debido a la posibilidad de deducción del MDE (Im, 1990; Konecny and Schuhr,1990;
Shi, 1990; Dowman,1992).
Tabla 3.10. Sistemas de captura de imágenes radar
SIR-C ALMAZ
ERS-1 JERS-1 RADARSAT EOS SAR
X-SAR 1,2
Cobertura del
C L,C,X L C L,C,X S
espectro
Quad(C,L) Quad(L),
Polarización VV HH HH HH
VV,(X) Dual(C,X)
Angulo visión 23º 15-60º 35º 20-50º 15-40º 30-60º
Resolución (m) 30 25 30 10-100 20-250 15-30
Cobertura de
100 10-150 80 50/500 30-500 20
barrido (km)
Altitud de la
800 215 568 792 620 300
órbita (km)
Inclinación
98º 57º 98º 98.6º 98º 73º
órbita
Lanzamiento 1991 1993/94/96 1992 1994 1999 1990

3.3.7.8. Fotogrametría Terrestre de Objeto Próximo (No Topográfica)


Las cámaras tradicionales y clásicas que se emplean para fotogrametría de objeto
próximo han sido el fototeodolito y la estereocámara con base fija, utilizando
habitualmente placas de vidrio y enfoque fijo para asegurar la estabilidad geométrica.
Cada vez es más frecuente la utilización de cámaras electrónicas para estas
aplicaciones de la fotogrametría. Estas cámaras eliminan el tiempo entre la toma de la
fotografía y su procesamiento y es el camino hacía la fotogrametría en tiempo real
(sistemas de visión automatizada). Dentro de estas cámaras se puede distinguir entre
las cámaras CCD estándar que son útiles y baratas, pero su pequeño formato de
FOTOGRAMETRÍA DIGITAL   137 

imagen y/o su baja resolución limitan su campo de aplicación y las cámaras de alta
resolución que son demasiado caras para la mayoría de las aplicaciones, aunque es
previsible que esta situación cambie debido a la rápida evolución de la tecnología de
los semiconductores y la microelectrónica.
- Cámaras para la adquisición de imágenes de alta velocidad de captación
Cada vez es más frecuente en los trabajos fotogramétricos no topográficos el
trabajo con objetos en rápido movimiento, lo que requiere la captación de imágenes
con una elevada frecuencia temporal, para lo que se utilizan cámaras de alta velocidad
capaces de ofrecer hasta 30000 imágenes/s frente a las 50-60 imágenes/s de las
estándar.
Tabla 3.11. Cámaras de alta resolución empleadas en Fotogrametría No Topográfica
Formato NºPixel Tam pixel Modo Precisión Pixel
Modelo
(mm2) (HxV) (µm2) CCD Relativa1 (mm)
ValvoNXA1010 6.0x4.5 604x576 10.0x7.8 FT 1:17000 0.03
Sony XC-77 8.8x6.6 768x493 17.0x13.0 IL 1:15000 0.04
Aqua SM72 8.8x6.6 384x576 23.0x23.0 FT 1:11000 0.04
Pulnix TM-560 8.8x6.6 500x582 17.6x11.3 IL 1:15000 0.04
CIDTEC 2710 8.8x6.6 776x512 12.0x13.7 CID 1:15000 0.04
Videk Megaplus 9.0x7.0 1320x1035 6.8x6.8 FT 1:40000 0.03
Thomson 19.5x19.5 1024x1024 19.0x19.0 FT 1:4000 0.03
CSFTHX31156
Tektronix TK1024 24.6x24.6 1024x1024 24.0x24.0 FT 1:40000 0.03
Kodak 4-Mega 18.4x18.4 1024x1024 9.0x9.0 FT 1:80000 0.03
Tektronix TK2048 55.3x55.3 2048x2048 27.0x27.0 FT 1:80000 0.03
Ford Aerospace2 30.7x30.7 4096x4096 7.5x7.5 FT 1:160000 0.03
Kontron ProgRes 9x7 2994x2320 2.8x2.8 IL 1:35000 0.07
Rollei RSC 55x55 5500x7050 10.0x7.8 FT 1:70000 0.09
Kern E2-SE 200gon 604x576 10.0x7.8 FT 1000000 0.05
1
La precisión fue estimada por Böseman et al, 1990; 2No disponible en el mercado civil

Es necesario realizar la distinción entre cámaras de alta velocidad y las que


frecuentemente son denominadas así por sus fabricantes refiriéndose a aquellas que
tienen tiempos de exposición muy cortos. Estas últimas equipadas con
intensificadores de imagen permiten trabajar con tiempos inferiores a pocos
nanosegundos y se utilizan para congelar imágenes extraordinariamente rápidas, pero
trabajan con la señal de video estándar de 50 imágenes por segundo de la norma
europea CCIR o 60 imágenes en la norma americana NTSC. Se entiende por cámara
digital de alta velocidad aquella que puede captar más de 100 imágenes por segundo.
Debido a esta gran cantidad de imágenes, no es posible plantearse el
procesamiento de las mismas en tiempo real, al menos a la velocidad de captación por
lo que es necesario el disponer de sistemas de almacenamiento de las imágenes. En
función del tipo de almacenamiento adoptado se puede distinguir entre sistemas con
138  SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

transmisión y almacenamiento de imágenes analógicas (cinta de video) y sistemas


completamente digitales (equipados con almacenamiento RAM o sistemas de
almacenamiento en disco en tiempo real). Los sistemas analógicos (Miquel, 1987)
ofrecen una mayor frecuencia de imágenes y capacidad de almacenamiento, frente a
los sistemas digitales que directamente integrables en un sistema informático y con
una mejor calidad de información especialmente indicados para aquellos usuarios que
están interesados en cualquier tipo de procesamiento de imágenes digitales.
Los sistemas basados en película ofrecen frecuencias de imágenes en torno a 1
millón de imágenes por segundo e incluso más (Johnson, 1990) o bien imágenes a
frecuencias más bajas (similares a la de los equipos digitales en alta resolución), no
obstante debido a que no se pueden considerar como equipos verdaderamente
digitales no son incluidos en este apartado.
Los sistemas digitales de alta velocidad en función de su campo de aplicación
pueden ser subdivididos en sistemas "factory floor", diseñados para la inspección
visual y sistemas basados en ordenadores, encaminados al tratamiento y
procesamiento de imágenes digitales.
Sistemas Factory floor
Los sistemas factory floor suelen ser sistemas completos que constan de una
cámara, un sistema de almacenamiento, un monitor y un panel de control. La misión
básica de estos sistemas es la grabación de sucesos rápidos y la reproducción lenta
para detectar problemas y solucionarlos y suelen emplearse en las líneas de
producción. Los costes extremadamente elevados de las líneas de producción
justifican el elevado coste del empleo de este tipo de equipos.
El sistema probablemente mejor conocido en el Kodak Ektapro 1000. Consiste en
una cámara con un sensor de blanco y negro (NMOS) con una resolución de 192x240
píxeles. La velocidad de captación es de 1000 imágenes por segundo a resolución
máxima, pero puede llegar hasta 6000 imágenes/s reduciendo la resolución a 1/6 y
quedando en 32x240 píxeles. La cámara está equipada con un obturador de 10µs,
pudiendo incorporarse un sistema de intensificación de la iluminación y un
procesador para mezclar las imágenes de dos cámaras que trabajan a resolución
reducida. Este equipo se ofrece con dos posibilidades de almacenamiento de la
imagen, una versión analógica con almacenamiento en un sistema video de 2
cabezales con 19 pistas de lectura y escritura con una duración de cinta de 40 s o bien
un sistema de video estándar si se desea abaratar los costes de adquisición del equipo.
Como alternativa digital Kodak ofrece el modelo Ektapro EM con un almacenamiento
en RAM de hasta 4800 imágenes con 8 bits de profundidad (9600 imágenes de 4 bits),
imágenes que pueden ser volcadas a una cinta de video estándar o bien a un sistema
informático mediante un interfaz GIPB.
Un sistema con una alta velocidad (analógica) es el NAC HSV 1000. El sistema se
basa en un sensor a color MOS de 2/3" que envía 500 imágenes/s con una resolución
de 262 líneas (V) y 350 pares de líneas en el centro (blanco y negro, S-VHS), 240
pares de líneas en el centro (color, VHS) o 1000 imágenes por segundo en una
resolución vertical reducida de 131 líneas. Los datos son almacenados en una cinta de
FOTOGRAMETRÍA DIGITAL   139 

video estándar S-VHS en un formato especial que permite el almacenamiento de 10


minutos de imagen en una cinta de video. La calidad de las imágenes que obtiene en
color es bastante baja puesto que está equipado con un único sensor y, además, las
imágenes no pueden ser cargadas directamente en el ordenador, por tanto, este equipo
no es indicado para su utilización en aquellos trabajos que requieran el procesamiento
previo de la imagen digital.
Sistemas conectados a un ordenador
Algunas casas comerciales ofrecen sistemas completos que consisten en una
cámara de alta velocidad y un ordenador que incorpora el control de la cámara y la
RAM para el almacenamiento de la secuencia de imágenes, estos equipos son los
adecuados para aquellos trabajos en los que se requiere una visión automatizada o
bien un acceso directo a las imágenes digitales.
El sistema Fraunhofer CAMSYS consiste en una cámara DALSA Turbosensor y
un PC conectado a la misma para el control, el ordenador va equipado de 64Mb RAM
para el almacenamiento de la imagen y el posterior volcado al disco duro. Se pueden
incorporar dos cámaras distintas una con 256x256 píxeles y 200 imágenes/s o una
cámara con 128x128 píxeles y 1000 imágenes/s Mediante un sistema de reducción de
la resolución espacial, la frecuencia de captación puede aumentarse a 3200
imágenes/s (versión 256 píxeles) o 6400 imágenes/s (128 píxeles). Al igual que
sucedía con la Ektapro EM la secuencia máxima que es posible almacenar está en
torno a los 5 segundos debido a la capacidad de la RAM.
La compañía EG&G Reticon ofrece algunos sistemas con velocidades que van
desde las 100 imágenes/s hasta las 15000 imágenes/s Las cámaras de la serie MC9000
están disponibles con 128x128 píxeles (380 imágenes/s) o 256x256 píxeles (105
imágenes/s) y son utilizadas básicamente con fines científicos (Dahm et al, 1990). La
cámara MC4256 es una cámara que presenta las mismas características en cuanto a
estructura del sensor pero que la incorporación de 8 puertos de lectura paralelos
permite aumentar la velocidad hasta 500 imágenes/s
La cámara más rápida de EG&G es la MC6464, que produce salida de video
analógica con una frecuencia de 15000 imágenes/s con un sensor de 64x64 píxeles
equipado con 32 puertos de lectura paralelos.
También existe la posibilidad de adquirir la cámara o los sensores
independientemente y el usuario será el encargado de integrarlos en su sistema de
tratamiento de la imagen. Las características de los sistemas, cámaras y sensores de
alta velocidad más frecuentes se resumen en la Tabla 3.12.

3.3.8 Calibración del sensor aerotransportado ADS40


La fabricación de sensores digitales de alta resolución requiere una calibración
geométrica, espectral y radiométrica de alta calidad. En el caso del sensor ADS40, la
calibración ha sido llevada a cabo en los laboratorios del Institute of Space Sensor
Technology de la DLR así como en las instalaciones de Leica Geosystems.
140  SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

Tabla 3.12. Cámaras digitales de alta velocidad


Velocidad Tamaño sensor Características
Almacenamiento: 40 s (analógica),
Kodak Ektapro 1000 1000 240x192
5 s (digital).Permite intensificador
NCA HSV 400 400 103 líneas Salida video analógica. 3 tubos color
NCA HSV 1000 1000 131 líneas CCD color 1 chip
60 512x512
200 256x256
DALSA Turbosensor
1000 128x128
3000 64x64
256x256
EG&G Reticon MC9000 105380
128x128
EG&G Reticon MC4256 500 256x256
EG&G Reticon MC6464
(digital) 7500 64x64
(analógica) 15000 64x64
Teta 400 204x144 Alta sensibilidad
Kodak KHS-0016 40000 128x128 640Mb/s
Sarnoff 300 1024x1024 32 puertos, retroiluminación
Sarnoff 800 512x512 16 puertos, retroiluminación
500 512x512
EG&G
1000 1024x1024

Las instalaciones de calibración del DLR fueron diseñadas inicialmente para la


calibración de sensores instalados en satélites (Schuster, 1994) y, posteriormente
adaptadas para la calibración de sensores infrarrojos. En la figura 3.33 se muestra
dicho laboratorio así como el proceso de calibración del ADS40, mientras que en la
figura 3.34 se presenta un esquema del instrumental de calibración.

Fig.3.33. Instalaciones de calibración de la DLR (Schuster y Braunecker, 2000)

Los objetivos fundamentales planteados para la calibración geométrica fueron:


− medida de alta precisión de la orientación interna de cualquier píxel activo
para la determinación de las coordenadas imagen.
− medida de la función de transferencia de modulación de cualquier píxel del
sensor.
FOTOGRAMETRÍA DIGITAL   141 

Fuente de Cuerpo
calibración caliente

Mesa de
rotación-inclinación
Anillo de Colimador Vis-Sensor
Filtro mezcla de luz

MWIR

Óptica Teodolito
Fuente de luz Monocromador
(halógeno, Hg, Xe) LWIR placa x-z
Obtur ador Telescopio de
autocolimación

Fuente IR

Colimador IR

Fig.3.34. Esquema del calibrador de la DLR (Schuster y Braunecker, 2000)

La medida de la orientación interna se realiza mediante la iluminación individual a


un determinado píxel mediante el colimador, midiéndose los ángulos α (ángulo de la
dirección de la línea) y β (ángulo perpendicular a la dirección de la línea), siendo
posteriormente transformados al sistema de coordenadas imagen x’,y’,z’.
La medida de la función de transferencia de modulación se realiza mediante el
cálculo de la función de expansión del punto (point spread function –PSF–). A partir
de dicha función es posible la obtención de la FTM mediante una transformada rápida
de Fourier (FFT). Un aspecto a tener en cuenta en el proceso de calibración es que es
necesario conocer el píxel en cuestión sobre el que se establece la PSF debido a que
esta función es de tipo bidimensional por lo que es necesario realizar dos
estimaciones, una coincidente con la línea de vuelo y otra perpendicular. En la figura
3.35 se muestra las funciones de expansión del punto para el sensor situado en
posición nadiral, en la que se puede observar las diferencias de resolución entre la
dirección coincidente con el eje de vuelo y la dirección de las líneas de la imagen
digital. A partir de estas funciones es posible la obtención de las funciones de
transferencia de modulación que ponen de manifiesto la resolución geométrica de la
cámara y que en el caso de este sensor deberá ser calculada para las diferentes
posiciones de cada sensor. En la figura 3.36 se muestran las funciones
correspondientes al sensor nadiral para píxeles situados en posiciones 0º y +10º.
142  SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

Fig.3.35. Funciones de expansión del punto para el sensor nadiral.


Izq.: Dirección del vuelo. Der: Dirección perpendicular al vuelo (Schuster y Braunecker, 2000

Fig.3.36. FTM del sensor nadiral del sistema ADS40.


Izq: Pixel situado a 0º, Der: Pixel situado a +10º (Schuster y Braunecker, 2000)

El sensor ADS40 ha sido sometido también a calibración en las instalaciones de


Leica Geosystems en Heerbrugg (Suiza). La calibración geométrica en este caso
incluyó la determinación cuantitativa de la calidad de la imagen de la geometría de la
misma. Para esta determinación se ha empleado un goniómetro vertical codificado,
similar al empleado para la calibración de las cámaras analógicas (fig.3.37).
FOTOGRAMETRÍA DIGITAL   143 

Fig.3.37. Instalación del ADS40 en el interior del goniómetro


vertical codificado (Schuster y Braunecker, 2000)

El criterio empleado por Leica Geosystems para la determinacion de la calidad de


la imagen para un determinado píxel es la función de transferencia óptica (OTF). La
OTF describe la variación del contraste transferido a través de la óptica para una
determinada frecuencia espacial y debe ser determinada para diferentes profundidades
de imagen.
En la figura 3.38 se muestran los resultados de la medida. El patrón ideal
(compuesto de líneas blancas y negras con una anchura de 3µm) se representa en tono
oscuro mientras que el registro efectuado se representa en tono gris claro y presenta
valores de contraste menores. Esta función puede ser utilizada para calcular la FTM.
La calibración radiométrica del sistema se ha efectuado en el laboratorio de la
DLR, si bien se ha diseñado un sistema similar en el laboratorio de Leica Geosystems.
Esta calibración tiene como objetivo fundamental analizar la uniformidad de la
imagen registrada para señales uniformes. Para ello se ilumina la cámara con una
señal uniforme obteniendo la señal que se muestra en la figura 3.39a, La intensidad de
la señal registrada disminuye en los extremos debido a la ley conocida como cos4α. El
procedimiento consiste simplemente en obtener unos valores de corrección (fig.3.39b)
para obtener una señal lo más homogénea posible (fig.3.39c).
144  SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

Fig.3.38. Sup: Función de transferencia óptica (en tono claro, patrón teórico; en tono oscuro, registro real).
Inf.: Función de transferencia de modulación (tono oscuro) y función de fase de la OTF (en tono oscuro).
FTM>0.6} v< 22.8 lp/mm; FTM>0.3} v< 60.9 lp/mm; FTM>1.0} v < 150.7 lp/mm
(Schuster y Braunecker, 2000)

Fig.3.39. Señal lineal. a) Señal registrada no corregida; b) Valores de corrección;


c) Valores corregidos. (Schuster y Braunecker, 2000)

Otra particularidad de los sensores digitales es su amplitud espectral a diferencia


de las cámaras convencionales en las que debido a sólo son sensibles en una banda
muy estrecha del espectro. Debido a esta característica es necesario determinar el
comportamiento espectral de la radiancia de una determinada fuente luminosa. Para
ello se realizan las siguientes operaciones:
1. Medidas de la irradiancia en la parte frontal de la cámara con un detector que
permita discriminar las longitudes de onda.
2. Medida de la respuesta espectral de los píxeles y normalización del
comportamiento espectral.
3. Medida de una fuente absoluta calibrada (esfera radiométrica) que cubra todo
el ángulo de campo de la cámara
4. Cálculo de los valores absolutos de corrección radiométrica.
FOTOGRAMETRÍA DIGITAL   145 

3.3.9 Calibración de cámaras digitales para su empleo en trabajos de


Fotogrametría No Topográfica
El presente test ha sido realizado en el ETH de Zurich y ha sido tomado de
trabajos de Beyer (1992a, 1992b).
3.3.9.1. Cámaras empleadas
Para la realización del test fueron empleadas tres cámaras (de coste bajo, medio y
alto) cuyas características técnicas se resumen en la Tabla 3.13.
Tabla 3.13. Cámaras empleadas en el test de calibración.
Espaciado del píxel Precio aproximado
Cámara Sensor Píxeles (x y)
(µm) (€)1
JVC GR-S77E 1/2" 728x568 8.7x8.3 1.100

SONY-XC77CE 2/3" 728x568 11x11 2.100

ProgRes 3000 2/3" 3072x2320 2.83x2.75 22.500


1
El precio se considera el relativo a la fecha de realización de las pruebas.

3.3.9.2. Patrón de calibración


La exactitud métrica de las cámaras fue comprobada utilizando un patrón de
calibración tridimensional de tamaño 2.6x2.0x1.1 m3 (fig.3.40). El patrón consta de
162 elementos localizados en una pared y 5 barras de aluminio situadas 1.1m delante
de la pared. Los marcas son de forma circular con un diámetro de 20mm y color
negro, con un pequeño círculo central de color blanco. La marca negra fue la
empleada para las medidas de la imagen obtenida de la cámara CCD, mientras que el
círculo central blanco fue el empleado con el teodolito.
Los ejes considerados fueron: X, en el plano de la pared y paralelo al suelo; Y, en
el plano de la pared y perpendicular al suelo y Z, perpendicular a la pared y fueron
establecidos con una precisión de 0.02 mm en X e Y, y con 0.03mm en Z.
Realizándose un total de 48 fotografías con la JVC y la SONY y 24 fotografías con la
ProgRes, desde los mismos lugares.
3.3.9.3. Adquisición de la imagen
La escala media de la imagen es 1:603 (la distancia media al objeto es 2863mm)
para la JVC y 1:374 (distancia media al objeto de 3350mm) para la SONY y la
ProgRes, con lo que se obtiene una representación de las marcas en la cámara de 2.5 a
9.3 en la JVC, 3.2 a 9.1 en la SONY y 12.8 a 35.7 en la ProgRes. El tamaño óptimo
de representación de la marca fue establecido en 6x6 píxeles, lo que sólo se alcanza
para la JVC y la SONY para las marcas más cercanas, mientras que las marcas más
alejadas apenas se distinguen en la JVC, que presenta una calidad considerablemente
inferior que la JVC.
146  SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

2.6m

1.1m

2.0m
X

Muro

X
1.1m
Z
2.6 m
3.6 m

Fig.3.40. Patrón de calibración y toma de fotografías

3.3.9.4. Resultados
Las coordenadas de los píxeles de todas las imágenes fueron medidas
semiautomáticamente mediante el método de identificación de elementos homólogos
con ajuste por mínimos cuadrados (least square matching), con una precisión interna
de 0.01 del espaciado del píxel. Las coordenadas del píxel fueron transformadas a
coordenadas imagen e introducidas en un programa de ajuste de haces, utilizando un
conjunto de 9 parámetros adicionales (localización del punto principal, constante de la
cámara, escala de factor en x, cizalla, dos parámetros de distorsión radial simétrica y
dos parámetros para la distorsión de descentre.
La precisión de la imagen en términos de píxel de la JVC varía entre 1/21 y 1/25
que es de 3.5 a 4 veces inferior a la SONY (1/79 a 1/85), siendo la precisión en el
espacio objeto de 4 a 5 veces inferior en la JVC, esta inferior precisión geométrica de
la JVC es debida al empleo de un sensor a color. La exactitud de la ProgRes es
inferior que la obtenida con la SONY, este hecho sorprendente es debido si duda al
FOTOGRAMETRÍA DIGITAL   147 

tamaño de la marca empleada, que lleva a que el tamaño de la marca para la SONY
deba ser de 1/120 y de la ProgRes de 1/512, lo que se correspondería con diámetros
de la marca de 40mm para la SONY y menos de 10mm para la ProgRes.
Un aspecto de gran interés es el efecto que tiene los gradientes de iluminación y la
oblicuidad de la toma de la imagen, estos aspectos son básicos para asegurar unas
buenas condiciones del experimento.

3.3.10 Método general de calibración de cámaras digitales


Este método de calibración fue propuesto por Chen y Schenk (1992) y es válido
para la calibración tanto de cámaras digitales como de sistemas escáner.
3.3.10.1. Fuentes de error de las cámaras digitales
Los errores típicos de las imágenes captados por una cámara digital provienen de
3 fuentes: deformación de la imagen digitalizada, distorsión del objetivo y
movimiento de la matriz CCD.
La deformación de la imagen digitalizada es equivalente a la deformación de la
película durante la proyección óptica. Es la deformación entre la matriz de la imagen
digitalizada y la imagen óptica formada por la lente. Esta deformación se corrige
mediante una transformación afín, que intenta caracterizar por un lado, la posible
rotación entre la matriz y la imagen captada y, por otro lado, la posibilidad de la
existencia de diferencias en cuanto al tamaño de los elementos que componen la
matriz CCD.
La distorsión del objetivo incluye básicamente la distorsión radial y la distorsión
de descentramiento. La distorsión radial es aproximadamente simétrica a la escala del
tamaño del píxel con respecto al punto principal de la imagen óptica. La distorsión de
descentramiento es el error producido por la inconsistencia entre el centro óptico y el
centro geométrico de la lente. La distorsión de descentramiento incluye asimismo la
componente radial y una componente tangencial, consideradas clásicamente.
El movimiento lineal es el error debido al desplazamiento del sistema de barrido y
en el mismo intervienen factores muy diversos, como por ejemplo, la inestabilidad en
el suministro de energía, inestabilidad del rendimiento del motor y ruido electrónico.
3.3.10.2. Modelo matemático para la calibración
Para la calibración de cámaras digitales, es necesaria la transformación entre las
coordenadas digitalizadas y las coordenadas del espacio objeto (fotografía).
Generalmente, esta transformación se efectúa en dos etapas, en primer lugar, se
realiza la transformación de las coordenadas de la matriz digitalizada en coordenadas
ópticas, en segundo lugar, se realiza la transformación en coordenadas fotográficas.
La transformación de coordenadas digitalizadas a coordenadas imagen puede ser
expresada como:
148  SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

j
Matriz
(Imagen digital)
i

Objetivo+Sensor

Espacio
y
Objeto

x
Fig.3.41. Relación fotocoordenadas y coordenadas imagen

∆I' = e1 + e 2 ∆I + e3∆J ⎫ ∆I = I − Io

∆J ' = e 4 + e5∆I + e6 ∆J ⎭ ∆J = J − J o

siendo: ∆Ι´, ∆J´ fotocoordenadas resultantes


IyJ coordenadas de la imagen digitalizada (obtenidas mediante su
medida en la pantalla)
ei coeficientes de transformación
Io y Jo coordenadas del origen del origen de la imagen digital
(correspondientes al centro de la imagen óptica y obtenidas
mediante su medida en la pantalla)
∆Ι, ∆J coordenadas de la imagen digitalizada referidas al centro de la
imagen óptica
Cuando no se considera la distorsión de la lente ni los movimientos lineales, las
ecuaciones de colinealidad pueden ser expresadas como:

x a11 (x − x o ) + a12 (y − y o ) + a13 (z − z o )


∆I' = −f i ∆I' = e1 + e 2 ∆I + e 3 ∆J = −f i
z a 31 (x − x o ) + a 32 (y − y o ) + a 33 (z − z o )
y a (x − x o ) + a 22 (y − y o ) + a 23 (z − z o )
∆J ' = −f i ∆J ' = e 4 + e 5 ∆I + e 6 ∆J = −f i 21
z a 31 (x − x o ) + a 32 (y − y o ) + a 33 (z − z o )

donde x,y,z son las coordenadas de los puntos fotográficos en el espacio objeto y aij
representan los elementos de la matriz de rotación.
Las cámaras digitales no suelen incorporar marcas fiduciales, por lo que los
coeficientes ei no pueden ser obtenidos directamente. Para establecer la
transformación se realiza la Transformación Lineal Directa –DLT– que relaciona las
coordenadas imagen digitalizadas y las coordenadas espacio objeto.
A partir de las expresiones anteriores, despejando ∆I y ∆J y combinando los
valores de las distancias focales y los elementos de la orientación externa se obtienen
las ecuaciones de la DLT:
FOTOGRAMETRÍA DIGITAL   149 

L1x + L 2 y + L3z + L 4 L 5 x + L 6 y + L 7 z + L8
∆I = ∆J =
L9 x + L10 y + L11z + 1 L9 x + L10 y + L11z + 1

siendo los coeficientes Li los parámetros de transformación entre la imagen


digitalizada y las coordenadas fotográficas.
Los parámetros de la DLT son utilizados para determinar la transformación entre
una fotografía en el espacio objeto y la correspondiente imagen digitalizada, debido a
que el espacio objeto es un espacio bidimensional, la coordenada z es igual a cero
para todos los puntos de control del espacio objeto. Por tanto, las expresiones de la
DLT pueden reescribirse como:
L1x + L 2 y + L 4 L 5 x + L 6 y + L8
∆I = ∆J =
L 9 x + L10 y + 1 L 9 x + L10 y + 1

Si se consideran la distorsión de la lente y la distorsión lineal de la matriz CCD, las


distorsiones δi y δj pueden ser expresadas como:
δi = δri + δdi + δm δj = δrj + δdj
siendo δri, δrj coeficientes de distorsión radial en la dirección x e y
δdi, δdj coeficientes de distorsión de descentramiento en la dirección x e y
δm coeficiente de distorsión debido al movimiento lineal de barrido
La distorsión radial puede ser expresada por δr = k1 r3 + k2 r5 + k3 r7, siendo ki son
los coeficientes de distorsión radial y r la distancia radial referida al centro de la
imagen:

r= (I − Io )2 + (J − J o )2
Los componentes de la distorsión en las direcciones x e y son:

δri =
∆I
r
(
δ r = ∆I k1r 2 + k 2 r 4 + k 3r 6 ) δ rj =
∆J
r
(
δr = ∆J k1r 2 + k 2 r 4 + k 3r 6 )
Las funciones de descentramiento pueden ser expresadas como:

( )[ ( )
δdi = 1 + p'3 r 2 p'1 r 2 + 2∆I 2 + 2p'2 ∆I∆J ] ( )[ (
δdj = 1 + p'3 r 2 2p'1 ∆I∆J + p'2 r 2 + 2∆J 2 )]
donde p´1, p´2 y p´3 representan los coeficientes de la corrección de la distorsión de
descentramiento.
La última corrección a aplicar es la corrección de la distorsión lineal, esta
corrección es compleja debido a la falta de información que incorporan las cámaras al
respecto. Para la eliminación de esta distorsión se emplea un ajuste polinómico del
tipo:
δm = m1I + m2 I3 + m3 I5 + m4 I7
Siendo la expresión final de la calibración:
150  SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

L1x + L 2 y + L 4 L 5 x + L 6 y + L8
∆I − δi = ∆J − δ j =
L9 x + L10 y + 1 L9 x + L10 y + 1

δi = k1 (∆I r2) + k2 (∆I r4) + k3 (∆I r6) + p1 (r2 + 2 ∆I2) + p2 (2 ∆I ∆J) + p3 (2 r2 ∆I ∆J) +
+ p4 (r2 (r2 + 2 ∆I2)) + m1 (∆I) + m2 (∆I)3 + m3 (∆I)5 + m4 (∆I)7
δj = k1 (∆J r2) + k2 (∆J r4) + k3 (∆J r6) + p1 (2∆I ∆J) + p2 (r2 + 2 ∆J2) +p3 (r2 (r2 + 2 ∆I2)) +
+ p4 (2 r2 ∆I ∆J)
Comparando dicha expresión con la referente a la distorsión de descentramiento se
obtiene que:
p1 = p'1 p2 = p'2 p3 = p'2 p'3 p4 = p'1 p'3
Por tanto, se deben calcular los 11 parámetros de la transformación lineal -DLT-
Li y los parámetros ki, pi, mi que son los parámetros de la transformación de
corrección de distorsiones -DSTP-.
3.3.10.3. Solución del modelo
El método de resolución del modelo se basa en el parecido existente entre los
parámetros de la DLT y de la DSTP. Cuando no existen condiciones en el sistema de
ajuste, es imposible obtener una solución correcta. Puede ser empleado un
procedimiento de ajuste secuencial, alternando los dos conjuntos incógnitas
aprovechando la elevada correlación entre ambas.
Partiendo de que los parámetros de la DSTP y la posición del centro de la imagen
digital son conocidos, las ecuaciones de observación para la DLT pueden ser escritos
como:
DI - δi = A / C DJ - δj = B / C
siendo A = L 1 x + L2 y + L 4 B = L 5 x + L6 y + L8 C = L9 x + L10 y + 1
Las ecuaciones de error correspondiente en la matriz pueden ser expresados como:
vl = Gl ul + kl = 0 (1)
Tras obtener los parámetros de la DLT se pueden rescribir las expresiones de la
DST como:
I - A/C = Io + δri + δdi + δm
J - B/C = Jo + δrj + δdj
Io, Jo son las coordenadas correspondientes al centro de la imagen digital y debe
ser consistente en el centro de la imagen óptica, resolviendo los sistemas anteriores
para calcular las distorsiones. Las ecuaciones del error en la forma matricial
correspondientes a las anteriores expresiones:
vd = Gd ud + kd = 0 (2)
Alternando los anteriores dos grupos de cálculo hasta que las correcciones de los
parámetros de la DLT y de la DTSP son muy pequeñas, se pueden obtener las
soluciones deseadas.
Evidentemente, las ecuaciones del error no tienen carácter lineal, la solución se
obtiene por un proceso iterativo por mínimos cuadrados.
FOTOGRAMETRÍA DIGITAL   151 

Para un único punto, los vectores correspondientes de la expresión de los errores


pueden ser expresados como:
⎡x y 1 A A⎤
u l = [L1 K L8 ]t
⎢ 0 0 0 −x −y ⎥
Gl = ⎢ C C C C2 C2 ⎥ t
⎢0 0 0
x y 1
−y
B B
−y 2⎥

k1 = ⎢(∆I − δi ) −
A
C
( B⎤
∆J − δ j − ⎥
C⎦
)
⎣⎢ C C C C2 C ⎦⎥ ⎣

En la ecuación (1),

⎡∆Ir 2 ∆Ir 4 ∆Ir 6 ⎤ ⎡ I I3 I5 I7 ⎤


G d = [R d Dd M d Od ] Rd = ⎢ 2 4 ⎥ Md = ⎢ ⎥
⎢⎣∆Ir ∆Ir ∆Ir 6 ⎥⎦ ⎢⎣0 0 0 0 ⎥⎦

⎡r 2 + 2∆I 2 2∆I∆J (
r 2 r 2 + 2∆I 2 ) ⎤
2r 2 ∆I∆J
Dd = ⎢
⎣⎢ 2∆I∆J
2
r + 2∆J 2 2
2r ∆I∆J 2 2
( ⎥
r r + 2∆J ⎦⎥ 2
)
Puesto que, k1, k2, k3, p1, p2, p3 y p4 son muy pequeños, la matriz Od puede
expresarse como:
⎡1 0 ⎤
Od = ⎢ ⎥
⎣0 1 ⎦
Las soluciones totales del modelo de calibración para una cámara digital consisten
en las ecuaciones (1) y (2) y sus submatrices. La ecuación (1) incluye una
transformación afín y puede ser empleada para la calibración de un escáner. La
combinación de las ecuaciones (1) y (2) se utiliza para la calibración de cámaras de
matriz lineal y cámaras de matriz 2D. El procedimiento de la solución se muestra en
la fig.3.42.
3.3.11 Comparación entre cámaras digitales y cámaras fotográficas
convencionales
James (1992) y Schenk (1999) realizan un estudio comparativo entre los sensores
digitales y las cámaras fotogramétricas convencionales (entendiendo dentro de este
grupo a las cámaras cuyas propiedades métricas permanecen constantes entre dos
calibraciones) apuntando las ventajas e inconvenientes de cada grupo.
Una hipótesis previa que se aplica en Fotogrametría es que la captura de los datos
se realiza mediante la utilización de cámaras cuyas propiedades métricas permanecen
constantes dentro de un amplio espacio de condiciones ambientales (presión,
temperatura,Y). Dentro de las propiedades métricas se incluyen la posición del punto
principal, el valor de la distancia focal calibrada, los parámetros y valores de la
distorsión radial y tangencial, las posiciones de las marcas fiduciales, la planeidad del
plano focal y el poder de resolución de la lente. Como consecuencia de esto, las
cámaras fotogramétricas son construidas de forma que las posiciones relativas de los
elementos que la componen (lentes del objetivo, eje óptico, plano focal,Y)
permanecen constantes durante el periodo entre calibraciones. Estas consideraciones
no suelen ser tenidas en cuenta en el proceso de fabricación de las cámaras digitales.
152  SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

Entrada de observaciones

Parámetros de la DST disponibles?


Sí No

Resolución DLT Ecuaciones


condicionantes

Se considera la DSTP?
Ajuste simultáneo para los
parámetros de la DLT y DSTP
No Sí

Resolución DSTP

Correcciones inferiores
al nivel límite de precisión?

SALIDA DE RESULTADOS

Fig.3.42. Procedimiento de calibración

Otra cuestión a tener en cuenta son los valores de resolución angular y de ángulo
de campo asociado a los sensores que incorporan matrices de pequeño tamaño. En las
cámaras convencionales el ángulo de campo viene definido por la distancia focal y el
tamaño del formato obteniéndose valores máximos superiores a 1001 utilizando
objetivos supergranangulares mientras que la resolución es un parámetro obtenido de
la fotografía y análisis de patrones de frecuencia y se expresa en líneas-par/mm dando
lugar al parámetro de resolución angular que es igual al valor de la resolución espacial
dividida por la distancia focal calibrada.
Así una cámara aérea convencional con una resolución de 100 lp/mm y un
objetivo supergranangular de 88mm, tiene a una resolución angular de 1/(200*88)=
=5.7x10-5. Una cámara CCD con un sensor de alta resolución (tamaño del sensor de
2.5") y una distancia focal de 60mm tiene un ángulo de campo de 72º y una
resolución angular igual a 2 x 15µm/60mm = 5 x 10-4.
Para mejorar la resolución, se debe utilizar una distancia focal mayor pero esto
repercute negativamente en el ángulo de campo. Este hecho es particularmente
patente en las cámaras de sensores de menor tamaño (inferior a 1") con objetivos tipo
C (distancia focal igual a 17.526mm).
FOTOGRAMETRÍA DIGITAL   153 

Por último, es necesario analizar los conceptos de resolución espacial y tamaño de


píxel. En las películas fotográficas, los cristales de haluro de plata de tamaño
microscópico (décimas de micra -grano fino- a unas micras -grano grueso-). El
proceso de la fotografía es eminentemente un proceso binario -el cristal es afectado o
no por la luz. En el caso de que sea afectado por la luz se produce el depósito de la
plata metálica con lo que el negativo se oscurece y el positivo es más claro, en el caso
contrario, el haluro de plata no expuesto se elimina en el lavado quedando sólo el
soporte de la película con el nivel de velado como densidad fotográfica y el positivo
toma un tono oscuro. Evidentemente, la fotografía presenta diferentes tonos de gris
que vienen dados por el porcentaje de cristales de haluro afectados por la luz en un
determinado área, así si una zona existen n cristales de haluro de plata teóricamente
tendremos 2n posibles tonos de gris diferentes, si bien teniendo en cuenta que la
distribución de los cristales no es homogénea el número de tonos varía entre n y 2n.
La imagen latente puede ser comparada con la carga acumulada en el sensor CCD
mientras que la película relevada puede ser comparada con la señal efectivamente
medida en el sensor.
Como resumen se presentan en la Tabla 3.14 las principales diferencias entre las
cámaras de película y las cámaras digitales.
Tabla 3.14. Comparación entre la cámara de película y la cámara digital
Cámara de película Cámara digital
Distancia focal 50 a 80 para grandes matrices
88, 152, 210, 300
(mm) 17.526 para matrices pequeñas (tipo C)
Formato (mm) 230 x 230 63.5 x 63.5
Ángulo de 60 a 125º (sensores alta resolución)
60 a 125º
campo 25º para matrices pequeñas (tipo C)
Material
Emulsión con haluro de plata Sensor CCD
fotosensible
Compensación Sistemas mecánicos y ópticos Sistemas basados en CCD con arquitectura
movimiento Plataformas estabilizadoras TDI
Los fotones liberan e- que se Los fotones producen parejas de
Exposición combinan con Ag+ depositando electrones/hoyos, los e- son recogidos en el
plata metálica (imagen latente) capacitador
Obtenida por la transferencia de la carga al
A partir de la imagen latente
Imagen sistema de medida donde se mide, amplifica y
mediante el revelado
registra
Las películas son sensibles a la zona
Sensibilidad entre el UV y el IR. Para diferentes
La sílice es sensible a fotones con λ< 1.1µm
espectral zonas se requieren diferentes
emulsiones.
Rango
6 bits para B/N 10-12 bits
dinámico
Objetivo: AWAR > 100 lp/mm
Objetivo: Igual si se emplean los mismos
Película: > 100 lp/mm
objetivos
Resolución El movimiento de la imagen y la
CCD: Un tamaño de píxel de 15µm da lugar a
atmósfera dan lugar a valores reales
una resolución de 30-40 lp/mm
entre 50 y 60 lp/mm
154  SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

Las ventajas e inconvenientes de cada tipo se pueden resumir en:


a) Ventajas de los sensores electroópticos.
- Desarrollo tecnológico actual de los sistemas de captura, procesamiento y
almacenamiento de las imágenes digitales.
- Posibilidad de captura de imágenes en condiciones deficientes de
iluminación debido al elevado rango dinámico y a la amplia sensibilidad
espectral.
- Bajo mantenimiento, escaso número de piezas sometidas a movimiento por
lo que se evitan desajustes y necesidades de calibración y ajuste.
- Posibilidad de reutilización del sistema de almacenamiento usado en la
captura.
- Visualización y utilización de las imágenes en tiempo real lo que permite
comprobar si se cumple el proyecto de vuelo así como la extracción de la
información en tiempo real (de gran interés en aplicaciones industriales y
visión automatizada -robótica-).
- Sencilla transferencia de las imágenes, almacenamiento y compresión. Gran
durabilidad de las imágenes.
b) Inconvenientes de los sensores electroópticos.
- Los sensores, procesadores y técnicas de tratamiento y compresión de
imágenes son técnicas que aún están por desarrollar.
- Se requiere una gran cantidad de información para alcanzar los niveles de
información de las cámaras convencionales.
- Los sistemas de almacenamiento presentan espacio limitado.
- Los sensores apropiados para los trabajos cartográficos son caros.
- Es un mercado en expansión por lo que aún no existe una competencia que
haga reducir los precios de los sistemas.
c) Ventajas de las cámaras fotográficas convencionales.
- Se trata de una tecnológica totalmente madura (sistemas de compensación
del movimiento de la imagen, posibilidades de calibración, Y).
- Resolución muy elevada. Se alcanza la cobertura de amplias zonas de
terreno mediante un sistema homogéneo y con una gran capacidad de
información.
- Las técnicas de procesamiento y extracción de la información son técnicas
muy difundidas y desarrolladas.
- La película fotográfica es un medio muy económico de almacenamiento.
- El rendimiento puede ser previsto con facilidad.
- Existe un elevado número de cámaras a lo largo de todo el mundo.
d) Inconvenientes de las cámaras fotográficas convencionales.
- El procesamiento de la imagen requiere disponer de tiempo, agua limpia,
reactivos, Y y produce una imagen que no está preparada para su
manipulación electrónica.
- La película procesada debe ser digitalizada antes de ser utilizada, con el
posible riesgo de deterioro.
FOTOGRAMETRÍA DIGITAL   155 

- No se puede verificar en tiempo real si se está cumpliendo el proyecto de


vuelo.
- El tipo de emulsiones y características espectrales están limitados.
Fricker (1998) realiza un estudio comparativo entre una cámara convencional (tipo
Leica RC-30), una cámara digital de matriz (4000x4000 píxeles) y una cámara digital
de CCD lineal (12000x1, atendiendo a las conclusiones de la reunión de expertos que
se desarrolló en París en 1994). El análisis plantea los costes de realizar el vuelo de
una zona de 1000Km2 con un tamaño de píxel sobre el terreno de 20cm (tamaño de
pixel en la imagen de 9µm), con solapes longitudinal de 60% y transversal de 20% y
una velocidad del avión de 200kn.
Los resultados con los equipos de 1998 se resumen en la Tabla 3.15, mientras que
en la Tabla 3.16 se plantea una previsión en un futuro próximo como consecuencia
del avance en el tamaño de los sensores (sensor matricial de 9000x9000 píxeles y
lineal de 20000 píxeles).
Tabla 3.15. Comparación de cámaras analógicas y digitales (Fricker, 1998)

Tipo de cámara Cámara aérea Cámara digital Cámara digital


(tipo Leica RC30) de matriz de CCD lineal
N1 de píxeles (dirección transversal) 25400 (equiv) 4000 12000
Ángulo de campo 74º 62º 52º
Distancia de vuelo recorrida (km) 258 1642 547
Número de escenas 136 5200 228
Número de líneas de vuelo 8 51 17
Altura de vuelo (m) 3414 670 2457
Anchura de barrido (Km) 5.15 0.8 2.4
Tiempo de vuelo -sin giros- (h) 0.7 4.5 1.5
Tiempo de giros (h) 0.3 2.5 0.9
Tiempo total de vuelo (h) 1 7 2.4

Tabla 3.16. Comparación de cámaras analógicas y digitales -situación futura- (Fricker, 1998)
Cámara aérea Cámara digital Cámara digital
Tipo de cámara
(tipo Leica RC30) de matriz de CCD lineal
N1 de píxeles (dirección transversal) 25400 (equiv) 9000 20000
Ángulo de campo 74º 62º 62º
Distancia de vuelo recorrida (km) 258 741 322
Número de escenas 136 1040 80
Número de líneas de vuelo 8 23 10
Altura de vuelo (m) 3414 1500 3331
Anchura de barrido (km) 5.15 1.8 4.0
Tiempo de vuelo -sin giros- (h) 0.7 2 0.9
Tiempo de giros (h) 0.3 1.1 0.4
Tiempo total de vuelo (h) 1 3.1 1.3
156  SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

Como se puede observar la única posibilidad de competencia económica la plantea


la cámara de CCD lineal, por otro lado, este tipo de sistema presenta la ventaja de que
permite introducir sistemas multiespectrales con gran facilidad, junto con la ventaja
de tener un sensor más simple con lo que se facilita la calibración radiométrica no
siendo necesario disponer de obturador y permitiendo un ritmo de captura compatible
con la velocidad normal de crucero. Los inconvenientes del sistema de CCD lineal
radican en el hecho que una mayor complejidad en los procedimientos de orientación,
puesto que, la imagen en realidad está compuesta por una serie de líneas que
presentan diferentes parámetros de orientación externa.

3.3.12 Desarrollos futuros y perspectivas


La resolución, calidad y sofisticación de las cámaras solid state ha sido mejorada
rápidamente en las últimas dos décadas, esta mejora ha ido permitiendo una
utilización cada día mayor de dichas cámaras con fines fotogramétricos. Así, por
ejemplo, la resolución de las cámaras cada vez es mayor, siendo en la actualidad
posibles sensores con resoluciones del orden de 10000x10000 píxeles, si bien el coste
de su producción sería demasiado elevado. No obstante, es previsible que en unos
pocos años se pueda disponer de cámaras con resoluciones de 3000x3000 píxeles por
el precio equivalente a una cámara de video doméstica actual. Por otro lado, cámaras
de barrido lineal con resoluciones del orden de 9000 a 12000 píxeles proporcionarán
imágenes con una calidad suficiente para ser sometidas a procedimientos de
correlación de imágenes digitales y sobrepasando, incluso la calidad de las
diapositivas actuales.
No obstante todo apunta a que la transición de las cámaras analógicas a las
digitales será un proceso largo, así, por ejemplo, Loedeman (1999) apunta que durará
al menos una década. En la actualidad, las cámaras digitales que estarán disponibles
en breve se plantean más que como una alternativa a las cámaras convencionales,
como una plataforma intermedia entre los sensores de alta resolución instalados en los
satélites (tipo Ikonos o QuickBird) y las cámaras convencionales. La distribución del
mercado para los diferentes sensores y plataformas en función de la resolución
espacial y espectral se muestra en la figura 3.43. Las cámaras digitales ocupan una
posición intermedia entre los satélites de resolución métrica y las cámaras
convencionales de resolución de unos pocos centímetros, proporcionando imágenes
multiespectrales, como respuesta a la mayor demanda de imágenes de este tipo por
parte de todos los usuarios tras la generalización del uso de las técnicas de
teledetección.
FOTOGRAMETRÍA DIGITAL   157 

Hiperespectral
Sensores

Resolución Espacial
Multiespectrales

Multiespectral

Sen otrans
Aere
Ikon
IRS

sore port
os
-C
SPO
Micr

s Di ados
Cámaras Aéreas

T-
Pancromática
osa

gita
5
télite

les
s

100m 10m 1m 0.1m 0.01m


Resolución Espacial
Fig.3.43. Distribución del mercado entre los diferentes sensores y
plataformas en función de la resolución espacial y espectral (LH Systems, 1999)

3.4 ESCÁNERES
Como se comentó en el apartado introductorio, en la actualidad el sistema más
empleado para la captación de imágenes digitales en Fotogrametría Digital es la
digitalización de las imágenes obtenidas mediante una cámara analógica
convencional, sobre todo en los trabajos de Fotogrametría Topográfica. Por tanto, un
elemento básico en cualquier sistema fotogramétrico digital es el escáner. En este
apartado se analizan los diversos tipos de escáner, las características que deben tener
para su utilización en fotogrametría así como el procedimiento de calibración,
aspectos básicos de gran influencia en la precisión final del trabajo.
Los escáneres de documentos pueden ser clasificados en 6 grupos de acuerdo con
su funcionalidad:
- Escáneres fotogramétricos
- Monocomparadores o restituidores analíticos adaptados
- Escáneres de documentos de gran formato
- Microdensimetros
- Escáneres de sobremesa (desktop scanners -DTP-)
- Otros escáneres específicos, como los escáneres de diapositivas de pequeño
formato, los dispositivos multifuncionales (escáner, fax, impresora), escáneres
de microfichas,...
Debido al objeto de este libro, el análisis se centrará en los escáneres
fotogramétricos y los escáneres de sobremesa que pueden ser utilizados en ciertos
trabajos de tipo fotogramétrico.
158  SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

3.4.1 Componentes de los escáneres


La configuración de un escáner está decisivamente marcada por el tipo de
fotodetectores utilizado. Los fotodetectores más frecuentemente empleados son los
fotomultiplicadores y los CCD (charge-couple-detectors). La diferencia básica entre
ambos tipos reside en que el fotomultiplicador sólo puede ser utilizado como un
elemento aislado, presentando un tiempo de respuesta muy rápido y una sensibilidad
muy alta, mientras que los CCD se agrupan formando matrices lineales o
rectangulares. La mayoría de los escáneres basados en el principio de los
fotomultiplicadores son de tambor. En este tipo, el documento original está montado
en un tambor rotatorio. El fotodetector está montado fuera del tambor y digitaliza la
imagen punto a punto siguiendo líneas. Cuando se utilizan diapositivas, el documento
se ilumina desde el interior del tambor utilizando dispositivos que eviten el
calentamiento, como por ejemplo, iluminación fría por fibra óptica o incluso
iluminación por láser. Este tipo de escáneres ofrece un nivel extraordinariamente alto
de rendimiento referido a la resolución y rango dinámico. Sin embargo, el hecho de
que la fotografía vaya montada sobre un tambor representa una cierta desventaja en
cuanto a asegurar la planeidad de la película sobre el mismo (fig.3.44).

Fig.3.44. Esquema de un escáner plano (izq.) y de un escáner plano (der.)

El montaje de la película entre dos placas de vidrio asegura el mantenimiento de la


planeidad de la película y una mejor protección, pero sólo es posible para los
escáneres planos. El sistema de placas es similar al de los sistemas analíticos. En este
caso, la película se coloca en una plataforma móvil movida por motores,
desplazándose con respecto al sensor y la iluminación o bien en una plataforma fija,
siendo en este caso móviles el sistema de iluminación y captación. La precisión de
este tipo de sistemas es de 2µm y el movimiento es controlado por un servosistema
con codificadores lineales con precisión superior a la micra. La velocidad máxima es
entre 10 y 20 mm/s.
Algunos escáneres incorporan sistemas de escaneo de rollos de película mediante
un procedimiento similar al almacén que incorporan las cámaras aéreas, salvo por la
falta de sistema de vacío. De esta forma se permite la digitalización desatendida de
cientos de fotografías (fig.3.45).
FOTOGRAMETRÍA DIGITAL   159 

Fig. 3.45. Interior del escáner Leica DSW500, en que se puede observar
el sistema de placas y los rollos de película (LH Systems, 2000).

Otro elemento de gran importancia es el sistema de iluminación. Se pueden


distinguir básicamente dos sistemas de iluminación: directa y difusa (fig.3.46).

Placa Difusora
Lente Condensadora

Película

Sensores

Fig.3.46. Iluminación de un sistema con luz directa a través de un condensador (izq)


o luz difusa por una placa de difusión (der).

La iluminación directa utiliza un condensador para la distribución de la luz


generada por un foco puntual en la superficie a digitalizar. Una ventaja de este tipo de
iluminación es su bajo coste, aunque debe de tener en cuenta que la fuente de luz no
genere excesivo calor, lo que provocaría la deformación del original, si bien incluso
este problema se puede solucionar mediante la transmisión de la luz mediante fibra
óptica, alejando el original de la fuente calorífica. Una iluminación directa produce
un ángulo de apertura óptica reducida e incrementa considerablemente la profundidad
de campo. Además este sistema es poco sensible a los problemas de desenfoque,
aunque debido a que la luz es bastante coherente se pueden provocar problemas de
difracción.
La luz difusa se puede obtener de diversas formas, utilizando una placa de vidrio
difusora; empleando una luz fluorescente, la cual tiene un fuerte efecto difusor o, por
último, como solución más refinada el empleo de un canal de luz y una esfera de
vidrio vacía y recubierta en su interior por dióxido de magnesio denominada
Ulbritchtkugel, la luz incide lateralmente y sale de la esfera por una apertura muy
pequeña (1/50 del diámetro de la esfera) (Vieth, 1974). En la figura 3.47 se muestra
una imagen del antiguo escáner fabricado por Helava-Leica, el DSW200, en el que se
puede observar la esfera en la parte superior.
160  SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

Fig. 3.47. Escáner Helava-Leica DSW200 en el que se puede observar la


esfera difusora situada en la parte superior

Es importante tener en cuenta que en las ampliadoras ópticas actuales


generalmente se emplea iluminación difusa, mientras que los instrumentos más
antiguos (como, por ejemplo, los rectificadores) se emplean condensadores y lentes
Fresnel. Por lo general, la luz difusa proporciona una imagen más agradable, así los
principales fabricantes de material fotográfico recomiendan para la realización de
medidas sensitométricas instrumentos con luz difusa, puesto que los resultados son
sensiblemente distintos a los de la luz directa, el cociente entre la transparencia
medida con ambos métodos es conocida como cociente de Callier y es proporcional a
la granularidad de la película.
Un elemento básico en el escáner es el sensor. La función del sensor es la
Amedida@ y el Aregistro@ de la densidad de la película. La luz que se recibe por la
película es absorbida (la película se calienta), reflejada o transmitida. La relación
entre la luz transmitida y la luz reflejada se denomina transmitancia y cuya inversa se
denomina opacidad. La densidad fotográfica es igual al logaritmo de la opacidad.
Existen diversos tipos de sensores de los cuales en la actualidad los más utilizados son
los fotomultiplicadores y los sensores lineales o matriciales. El fotomultiplicador se
basa en el efecto de la luz eléctrica externa. Si la luz incide en el cátodo, los
electrones se liberan y son atraídos por el ánodo siendo cuantificada la corriente
producida.
Para conseguir una mayor sensibilidad, el flujo de fotoelectrones producidos en el
cátodo son amplificados por la introducción de cátodos auxiliares, denominados
dinodos. Estos fotosensores son los que actúan como fotomultiplicadores y tienen una
elevada sensibilidad y un rango dinámico muy alto, con un escaso tiempo de
respuesta.
Otro tipo de fotodetectores empleados durante bastante tiempo han sido los
fotodiodos y los fototransistores. Estos elementos se basan en la denominada luz
interna. En este caso, los elementos se integran en un chip de silicio de forma lineal o
matricial, cuando la luz incide en el chip, se produce una corriente de electrones que
FOTOGRAMETRÍA DIGITAL   161 

es medida. Sin embargo, la medida de las corrientes de cada uno de los elementos no
es sencilla, por lo que se recurre a la transferencia de las cargas de unos elementos a
otros. La carga electrónica producida por la radiación puede ser transmitida sin sufrir
ninguna perdida, a lo largo de la matriz y posteriormente leída y cuantificada, este
sistema es el empleado por los CCD. No obstante, la transmisión de la carga es más
compleja en la matriz rectangular que en la lineal, así Murphy et al.(1989) demuestra
como el rango dinámico del sistema lineal es en torno a 5 veces mayor que el de la
matriz rectangular.
Por lo general, el fotodetector mide un valor proporcional a la iluminación
(cantidad de luz que alcanza la célula fotosensible) o la exposición, siendo ésta el
producto de la iluminación por el tiempo de exposición. Está claro que el flujo de luz
está integrado en un intervalo de tiempo, proceso que se controla mediante un
obturador bien mecánico o electrónico. Para el usuario, es importante conocer que el
fotodetector mide un valor proporcional a la transparencia o a la reflectancia de la
fotografía. La señal electrónica es posteriormente convertida a un valor numérico por
un circuito electrónico, que generalmente proporciona una señal de 8 bits. Por tanto,
la transparencia de una diapositiva se divide en 256 tonos de gris, cifra que puede
parecer muy fina, aunque el problema es que el ojo humano no es sensible a la
transparencia sino a la densidad (D=log 1/T), produciéndose el hecho de que el sensor
es muy sensible para las zonas muy claras, pero la sensibilidad decrece rápidamente
para las zonas oscuras. A pesar de esto, es necesario considerar que esta limitación de
8 bits es necesaria para la limitación de espacio de almacenamiento en disco. La
sensibilidad del fotosensor depende de un gran número de factores electrónicos y
eventualmente también del ruido de los fotones, siendo importante tener en cuenta
que la iluminación no es un fenómeno continuo sino discreto debido a la propia
naturaleza de los fotones. El ruido de un fotosensor (R) se expresa usualmente en
decibelios y se define por la relación:
amplitud máxima
R (decibelios) = 20 log
corriente de oscuridad

Un valor estándar de R es 40 decibelios, lo que significa que para una densidad de


2 el ruido sería tan grande como la señal, para los escáneres de alta calidad el nivel de
ruido sería de tan sólo 0.01, para el mismo nivel de densidad. Es importante tener en
cuenta que el ruido, es prácticamente constante para todos los valores de gris, al
menos en una primera aproximación.
Por último, los escáneres incorporan diversos elementos que se encuadran dentro
de los componentes electrónicos de los escáneres. Entre los que se pueden destacar:
- Conversor A/D: La carga acumulada en los elementos del sensor CCD es
leída y convertida a una señal de video analógica. La salida del escáner es una
señal digital que contiene los niveles de gris de todos los píxeles. El conversor
A/D discretiza la señal analógica en 2n niveles, siendo n el número de bits
necesario. Aunque la mayoría de los escáneres presentan una salida de 8 bits,
el trabajo interno se realiza con un número mayor 10 ó 12 bits, para eliminar
en lo posible los problemas en las zonas sub- y sobresaturadas.
- Control del sensor: El control del sensor es básico para hacer coincidir el
162  SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

plano del sensor con el plano de la imagen. Además en los sensores a color es
fundamental para asegurar la coincidencia entre los tres planos de color
(pasadas).
- Control de la placa.
- Memoria: La señal digital puede ser almacenada temporalmente en la
memoria interna para pasar a continuación al disco de almacenamiento en el
ordenador principal.
- Interfaz de salida: Proporciona el enlace entre el escáner y el ordenador
principal en el que se ubica el sistema principal de almacenamiento. El
parámetro básico para evitar desbordamientos en la memoria es la velocidad
de transferencia que debe ser función de la velocidad de desplazamiento de la
placa, así como de la resolución de la imagen.

3.4.2 Análisis de las características técnicas de los escáneres


La calidad de los escáneres a emplear en Fotogrametría es un factor decisivo para
la calidad del proceso de digitalización y, por tanto, para la calidad del producto
fotogramétrico final. Debido a esto es de gran importancia verificar la calidad de la
digitalización, tanto geométrica como radiométrica. Los factores más importantes que
deben ser considerados a la hora de establecer la calidad de un escáner son:
3.4.2.1. Iluminación
La iluminación debe ser alta para conseguir una buena calidad radiométrica y una
relación señal-ruido óptima. Al respecto es necesario tener en cuenta la velocidad de
digitalización y las pérdidas de iluminación que se producen en los sistemas ópticos
(así por ejemplo, Baltsavias y Bill (1994) indican que en un escáner Agfa Horizon
equipado con una lámpara de 400W sólo alcanza la superficie del sensor CCD una
cantidad en torno a 100mW), en especial en la banda azul. A mayor intensidad
luminosa será posible una mayor velocidad de digitalización al reducir el tiempo de
integración en los sensores CCD. No obstante, hay que considerar que una mayor
intensidad luminosa produce una mayor cantidad de calor que puede influir
negativamente en el proceso de digitalización salvo que se tomen las medidas
oportunas, como, por ejemplo, la utilización de luz fría o bien la incorporación de
sistemas de refrigeración.
Por otro lado, es necesario tener en cuenta las características radiométricas de la
luz así como su estabilidad temporal. La iluminación debe ser uniforme en todo el
campo de visión del sensor, por lo que es aconsejable la utilización de sistemas de
iluminación de tipo difuso.
3.4.2.2. Rango dinámico y bits de cuantificación
El rango dinámico de las películas puede ser en casos extremos muy alto (por
ejemplo, 16000:1). Para reproducir en nuestra imagen digital esta gama de tonos sería
necesario disponer de un sistema de cuantificación de 16bits. En las imágenes aéreas
el rango dinámico es considerablemente menor, por lo que es suficiente disponer de
sistemas con 10 ó 12 bits de profundidad de color.
FOTOGRAMETRÍA DIGITAL   163 

Esta profundidad de color sólo se refiere al sensor, puesto que, en la mayoría de


los casos se produce una reducción en la imagen final a 8 bits para garantizar la
compatibilidad de formatos así como para reducir el tamaño del fichero final. Esta
táctica es esgrimida por los vendedores de escáneres como una mejora en la calidad
de la imagen final, lo que sólo es cierto en determinadas ocasiones existiendo el
problema adicional de que en la mayoría de los casos el usuario no puede controlar el
proceso y desconoce los criterios empleados para la transformación del histograma.
Así en el caso de que el nivel de ruido sobrepase la cantidad de electrones
equivalentes a un nivel digital en la cuantificación de 10 ó 12 bits, este ruido se
transmitirá a la imagen final en 8 bits.
Los escáneres que se empleen en trabajos de tipo fotogramétrico deben tener un
rango dinámico entre 0.0 y 3.5D. El valor de 0.0 es necesario para la digitalización de
placas de vidrio, puesto que el nivel de velado de las películas está entre 0.1 y 0.2D,
mientras que el nivel de 3.5D se necesita para la digitalización de imágenes en blanco
y negro con fuertes diferencias de contraste y para la mayoría de las imágenes en
color.
3.4.2.3. Reproducción de color
Debido al auge de las fotografías en color es importante que el escáner tenga la
capacidad de digitalizar fotografías en color. La digitalización de originales en color
puede ser realizada por cuatro métodos distintos:
- instalación de filtros primarios o complementarios espacialmente intercalados
en los elementos del sensor
- uso de CCD de 3 chips
- empleo de lámparas fluorescentes y filtros dicroicos
- utilización de filtros externos al sensor
Las tres primeras soluciones requieren una sola pasada, mientras que la última
requiere tres pasadas, una por canal. La primera solución presenta el problema de la
reducción de la resolución final así como posibles problemas en el balance de color,
en especial con el canal azul. El segundo método es el más conveniente aunque
también es necesario tener en cuenta que es el más caro. El tercer procedimiento ha
sido bastante empleado debido a su buena relación entre resultados y coste, si bien a
veces presenta problemas de smearing. Por último, el cuarto método puede dar lugar a
problemas de desplazamientos relativos entre los canales (colores) de la imagen en el
caso de que el posicionamiento del sensor no sea correcto o bien por problemas de la
cámara u otras partes ópticas del escáner.
3.4.2.4. Velocidad de digitalización
Este parámetro es a menudo utilizado como un argumento comercial y, a menudo,
no refleja el rendimiento real del sistema. Es importante tener en cuenta que el tiempo
de digitalización que es necesario considerar es el tiempo total.
Así Baltsavias y Bill (1994) indican como el tiempo total necesario para la
digitalización a una resolución de 21µm de una imagen de 30Mb en un escáner Agfa
Horizon con una memoria de 32Mb y conectado a una estación Sun Sparc2 es de 2
164  SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

minutos. Teóricamente el escáner es capaz de desplazar el sensor a una velocidad de


100mm/s lo que teniendo en cuenta que el sensor tiene un tamaño de 3x5000 píxeles
implicaría que podría digitalizarse a una resolución de 21µm, una porción de
15000x4762 píxeles en 1 s, lo que implicaría una anchura de banda de 71MHz. Sin
embargo, el diseño del escáner incorpora un ancho de banda de tan sólo 15MHz, por
lo que la velocidad máxima de desplazamiento a 21µm, es de 21mm/s Por otro lado,
es necesario tener en cuenta que el tiempo de integración de la señal es de 1ms, por lo
que en 1s serán escaneados 1000 píxeles. Si se analiza el rendimiento real del escáner,
se observa que estos valores no son alcanzados, puesto que, la velocidad es de
12,5mm/s (9MHz de anchura de banda), por lo que, el tiempo de digitalización de la
imagen de 30Mb se eleva a 3.3s A este tiempo es necesario añadir el tiempo de
transferencia al ordenador y el almacenamiento de datos. Por tanto, se puede
comprobar como el proceso más lento es el de transferencia y grabación, por lo que
las características de velocidad del escáner no son cruciales, salvo que se consideren
en conjunto escáner-ordenador de control y almacenamiento.
Además es necesario considerar que el proceso propio de la digitalización
conlleva un ajuste previo de las imágenes que a menudo consume un tiempo
considerablemente mayor y que el proceso de digitalización sólo es uno más en la
cadena fotogramétrica digital que incluye procesos como la importación de las
imágenes, la orientación, la generación y edición de modelos digitales,... que suelen
ser largos. Por tanto, la preocupación en los tiempos de digitalización debe ocupar un
segundo plano, salvo que nuestro único objetivo sea la digitalización en sí misma
(servicio de digitalización), sobre todo teniendo en cuenta que un sistema más rápido
suele ser un sistema más caro (de adquisición) y además mucho más sofisticado al
requerir tiempos de desplazamiento y posicionamiento del sensor más reducidos así
como menores periodos de integración de la imagen.
3.4.2.5. Resolución geométrica óptima
La cuestión de la resolución geométrica óptima es una cuestión aún de debate. La
resolución será función del tamaño de píxel pudiendo distinguir cuatro tipos distintos:
- Tamaño de píxel del sensor: Tamaño de un elemento de la matriz CCD.
Habitualmente tienen un tamaño entre 10 y 15 µm.
- Tamaño de píxel del escáner: Indica el tamaño de píxel del sensor proyectado
sobre la fotografía que se está digitalizando.
- Tamaño de píxel refinado: Es el resultado final después del postprocesamiento
de la imagen escaneada, en el caso de no existir postproceso es similar al
tamaño de píxel del escáner.
- Tamaño de píxel de la fotografía: En realidad se refiere a la equivalencia de la
resolución de la película. Este concepto carece de sentido físico real debido a
que el píxel no existe en la fotografía.
En el caso de que la cámara que incorpora el escáner no esté en movimiento, el
tamaño de píxel del escáner es igual al tamaño de píxel del sensor multiplicada por la
ampliación del sistema óptico del escáner. En el caso de que el escáner esté en
movimiento, el tamaño de píxel del escáner en la dirección de barrido será función de
la velocidad de barrido y el tiempo de exposición. Si denominamos ∆t al tiempo de
FOTOGRAMETRÍA DIGITAL   165 

integración y v a la velocidad de barrido entonces el tamaño del píxel del escáner en


la dirección y es sy = v ∆t, mientras que en la dirección x es sx= ss m, siendo ss el
tamaño del sensor y m la relación de ampliación del sistema óptico. En realidad es
necesario indicar que el tamaño del píxel suele ser cuadrado en la práctica totalidad de
sistemas, con lo que en realidad se controla es la velocidad de avance para alcanzar un
tamaño de píxel deseado.
El valor del tamaño de píxel debe estar directamente relacionado con la precisión
del trabajo a desarrollar. Si se pretende mantener toda la información existente en la
fotografía analógica (con resoluciones en torno a 60lp/mm) sería necesario emplear
tamaños de píxel en torno a 6µm (2.8 píxeles por par de líneas) que daría lugar a
imágenes en torno a 1.5Gb por canal, que pondrían en problemas a cualquier usuario
para su posterior manipulación y procesamiento. Por tanto, en este sentido es
necesario aplicar la lógica y seleccionar el tamaño de píxel en función de la aplicación
que se le va a dar a la imagen:
- Fotointerpretación. Las cámaras empleadas presentan una resolución en torno
a 30 lp/mm, que puede llegar hasta los 60 lp/mm si se emplean sistemas de
compensación del movimiento de la imagen.
- Orientación interna: El procedimiento de medida automática más
frecuentemente utilizado por los sistemas fotogramétricos digitales es el de
matching por mínimos cuadrados con precisiones en torno a 0.1 píxeles, por
lo que una resolución de 1200 ppp (21µm) sería suficiente.
- Precisión de posado puntual. Los sistemas fotogramétricos actuales empleados
para la elaboración de cartografía presentan precisiones de "2µm en la
fotografía, lo que permite la realización de medidas de paralaje estereoscópico
del mismo orden. No obstante, las precisiones estereoscópicas dinámicas son
el orden de "10 a 15 µm, es decir, 1/10000 la distancia focal de la cámara
empleada, si bien es importante tener en cuenta que la precisión será función
del trabajo a desarrollar así para trabajos de aerotriangulación será necesaria
una precisión de " 2 µm equivalente a la alcanzada con los sistemas
analíticos.
- Aerotriangulación: En un test de la OEEPE se analizó la influencia del tamaño
de píxel en los resultados de la aerotriangulación de un bloque concluyendo
que los errores eran de 5µm para la imagen de 15µm y de 6.5µm para la
imagen de 30µm.
- Generación de MDT: Los tamaños de píxel frecuentemente utilizados varían
entre 10 y 30µm, alcanzándose precisiones en torno a 0.1l la altura de vuelo
sobre el terreno en el MDT en ambos casos (Krzystek y Wild, 1992).
- Ortofotografías. Puesto que la ortofotografía se presenta como un documento
cartográfico equivalente al mapa, no es lógico plantear una resolución
superior en la primera. La ortofotografía no requiere, por tanto, una precisión
mayor que "0.2mm a la escala de la presentación, siendo posible plantear una
precisión mayor "0.5mm, e incluso, "1mm, puesto que siempre existen
detalles en la fotografía original que no pueden ser rectificados. La resolución
de digitalización dependerá de la relación entre la fotografía y la
ortofotografía generada, con una relación de amplificación de x5, una
precisión de 20 a 40µm, sería aceptable. Además es importante tener en
166  SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

cuenta el hecho de la legibilidad de la imagen, no siendo aconsejable, la


representación de más de 8 píxeles/mm (125µm), que equivale teniendo en
cuenta la relación de amplificación a 25µm sobre la fotografía original.
Como conclusión se puede indicar que no existe una norma clara acerca de la
resolución geométrica óptima del escáner. Al respecto, es importante la reflexión que
se realiza en el trabajo de Baltsavias y Bill (1994) en el que se indica que
curiosamente la resolución más recomendada por los vendedores coincide con la
resolución máxima que pueden alcanzar sus escáneres.
Es importante que el escáner pueda escanear imágenes a diferente resolución e
incluso digitalizar a diferentes resoluciones dentro de una misma imagen. La primera
condición es prácticamente incorporada en todos los escáneres y es alcanzada por
alguno de los siguientes procedimientos:
- zoom óptico: reenfoque cuando se produce un cambio de resolución, lo que
implica la necesidad de componentes muy estables y autocalibración
- zoom electrónico
- modificación del tamaño de pixel
- microdigitalización (Signum HIRES)
- utilización de dos sensores de diferente resolución (DSW100)
- zoom mediante software
3.4.2.6. Ruido de la imagen
El ruido de una película fotográfica está definido básicamente por su granularidad.
Si se consideran los valores dados por los constructores, el ruido del sensor no debería
exceder "0.03-0.05D para un tamaño de píxel de 10x10µm (pudiendo alcanzarse
valores de 0.02 - 0.03D si se emplean películas de gran calidad como la Kodak
Panatomic X-film. La función de transferencia de modulación de los escáneres
permite obtener la equivalencia correspondiente al tamaño de píxel.
3.4.2.7. Compresión de datos
Es importante que el escáner tenga algún sistema de compresión de información
debido a los importantes volúmenes de datos que se generan.
Como se puede comprobar no es demasiado complicado el establecer la calidad de
un escáner atendiendo a las siete propiedades indicadas anteriormente, el único
problema que surge es que esta información es en la mayoría de los casos complicada
de conseguir, especialmente en aquellos sistemas que no están especialmente
diseñados para la realización de trabajos fotogramétricos.
Existen cuatro propiedades básicas para comprobar la calidad de un escáner en lo
relativo a la reproducción del tono (Kölbl, 1994):
a) la función de transferencia de modulación (FTM)
b) el ruido de la imagen digital
c) el rango de densidad dinámica del escáner
d) las distorsiones de la imagen
FOTOGRAMETRÍA DIGITAL   167 

a) Función de transferencia de modulación


La resolución de la imagen de las fotografías aéreas generalmente viene expresada
como resolución en líneas par por milímetro, sin embargo, este es un parámetro
subjetivo que depende del contraste del objeto y de la habilidad del operador que haya
realizado la comprobación. Es evidente, que un parámetro de la importancia de la
resolución espacial no puede estar sujeto a ambigüedades de este tipo, por lo que es
preferible emplear la función de transferencia de modulación (FTM). La FTM
proporciona una información mucho más completa, así mientras que la resolución en
líneas par por milímetro representa sólo las frecuencias límite para las que un patrón
de líneas regular puede ser discernido, la FTM indica la reducción de contraste de
una onda sinusoidal para diferentes frecuencias y puede ser obtenida de una forma
sencilla de la imagen digital. Un método simple de obtención de dicha función es la
determinación de la correlación del tono de gris entre los píxeles más próximos. De
esta forma, se obtiene la denominación función de expansión del punto, que en una
primera aproximación tomará la forma de una función de Gauss con pendientes más o
menos acusadas. La transformación de Fourier de esta función gausiana, es decir, de
la función de expansión del punto, será la FTM. La función de correlación entre
píxeles de diferentes órdenes de vecindad (primero, segundo,...) proporciona
información acerca de la función de expansión lineal y la distancia entre los puntos de
inflexión de esta función puede ser considerada como una medida de la resolución, así
Kölbl y Bäch (1996) ha comprobado que el grado de precisión de la determinación
está en el 10%. En la Tabla 3.17 se incluye un resumen de las características de
diferentes escáneres determinados según este procedimiento.
Si se desea asegurar el mantenimiento de la calidad de la imagen original, se debe
trabajar con una resolución en la que el tamaño del píxel sea aproximadamente de la
mitad de la amplitud de la función gausiana de expansión del punto, tomando siempre
como valor máximo dicha amplitud. Esto implica que los tamaños de píxel mínimos
que debe incorporar el escáner en el ajuste de la resolución debe ser 10x10µm para
fotografías en B/N y valores en torno a 15 ó 20 µm para fotografías en color, estos
valores deberán ser menores en el caso de que se desee trabajar con películas de alta
resolución. La granularidad de la película es un factor directamente relacionado con la
resolución de la imagen. La granularidad es un criterio muy importante para la
selección de una película, este parámetro es medido con un microdensímetro de
iluminación difusa utilizando patrones de densidad conocida, en una ventana de un
tamaño en torno a 48-50 µm y con una ampliación de x12. Los valores de
granularidad de las películas más frecuentemente empleadas (Kodak, 1982; Agfa,
1986) están en torno a los 25-30, mientras que las de alta resolución este valor
disminuye hasta 9-12.
Otro factor de gran importancia es la precisión del posado, así Trinder (1987)
analiza los errores estadísticos cometidos en el posado de elementos simétricos de la
imagen (marcas fiduciales) y los expresa como función de la resolución de la
digitalización (0.18*tamaño del pixel), así para resoluciones de 25µm serían
predecibles errores de "4µm, este error representó un error de medida de paralaje de
"9.4µm. Trinder (1987) indica que los tamaños de pixel de 10x10µm se pueden
considerar como suficientes para las operaciones fotogramétricas.
Tabla 3.17. Nivel de ruido y función de expansión de diferentes escáneres
168 

Ruido estandarizado a 10µm


Ruido de la imagen medido en [D] Exp. Corr.% Nivel (expresado en [D])
Pixel Tipo
Escáner (x,y)
µm de luz
0.4D 0.5D 0.6D 0.7D µm 1 2 0.4D 0.5D 0.6D 0.7D

Du Pont
1850 2540ppp 0.011 0.014 0.017 0.021 10 40*46 72.3 53.3 0.044 0.060 0.073 0.090
1875 2540ppp off 0.008 0.009 0.009 0.008 10 62*56 88.1 68.4 0.047 0.053 0.053 0.047
1875 1132ppp soft 0.013 0.018 0.023 0.028 22 40*44 48.6 16.8 0.055 0.076 0.097 0.118
1875 1132ppp off 0.009 0.011 0.013 0.014 22 60*64 64.0 35.8 0.056 0.068 0.081 0.087
Vexcel VX3000 Difusa
10µm 0.036 0.038 0.044 0.051 10 18*18 40.9 16.0 0.065 0.068 0.092 0.092
24µm 0.021 0.019 0.019 0.020 24 58*52 54.0 27.7 0.116 0.105 0.105 0.110
Phillips CCD en el DSR15
oscuro (GV90 – 0.4D) 0.017 0.018 0.017 0.019 8*12 36*40 62.6 49.4 0.065 0.068 0.065 0.072
medio (GV130 – 0.4D) 0.025 0.012 0.013 0.013 38*48 69.6 54.6 0.056 0.052 0.056 0.056
brillante (CV230 – 0.4D) 0.026 0.015 0.013 0.017 43*66 79.7 64.4 0.095 0.083 0.083 0.095
Agfa ACS100
2400ppp (EPFL) 0.025 0.026 0.027 0.029 10 35*38 74.2 37.9 0.093 0.096 0.100 0.107
1800ppp (firm) 0.044 0.045 0.044 0.049 14 34*34 59.8 13.6 0.150 0.153 0.150 0.167
900ppp (firm) 0.088 0.089 0.134 0.121 28 30*30 12.4 6.4 0.264 0.267 0.402 0.363
300ppp(firm) 0.190 0.142 0.103 0.061 85 250*14 62.3 14.4 3.800 2.800 2.100 1.200
5 87.5 65.5
Agfa Horizon 1200 ppp 0.010 0.011 0.011 0.011 21 114*12 0.117 0.129 0.129 0.129
Screen DT-S1030AI 2000ppp 0.038 0.037 0.026 0.026 13 26*36 58.4 15.9 0.123 0.115 0.079 0.079
Crosfield Directa
900ppp 0.062 0.058 0.054 0.050 28 34*52 27.3 9.5 0.267 0.249 0.232 0.215
1800ppp 0.060 0.059 0.059 0.058 14 19*33 37.4 14.7 0.156 0.153 0.252 0.151
8.6
Perkin Elmer 20x20G 0.042 0.047 0.053 0.064 22 22*22 1.9 0.092 0.103 0.117 0.141
Werhli RM-1 0.027 0.024 0.026 0.026 12 29*32 61.8 20.3 0.084 0.074 0.081 0.081
Zeiss PhotoScan PS1
7.5µm 0.058 0.060 0.071 0.080 7.5 12*14 46.6 9.1 0.075 0.078 0.092 0.104
15µm 0.024 0.026 0.029 0.029 15 27.36 50.9 19.4 0.074 0.081 0.090 0.090
Los valores de ruido de la imagen se refieren a la desviación típica de los niveles de gris calculados en una matriz de 20x20 píxeles en áreas homogéneas expresados en
densidad.
Los valores estandarizados se refieren a una función de expansión puntual de 10µm.
SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 
FOTOGRAMETRÍA DIGITAL   169 

No obstante esta resolución debe ser función de la resolución de la cámara y la


granularidad de la película empleada, pudiendo establecerse la siguiente relación:
1000 granularidad
µm < p < 25 * µm
(3.3 * n ) 20

donde n es la resolución de la cámara empleada expresada en lp/mm y p es la


resolución de la digitalización expresada en µm. Así para cámaras de 30 lp/mm y
granularidad de 20 resultaría 10µm < p < 25µm, que pasaría a 5µm < p < 12.5µm,
para cámaras de 60 lp/mm.
Light (1983) propone otra expresión con el mismo fin que intenta relacionar la
resolución espacial de la cámara con la resolución empleada en el proceso de
digitalización.

Re solución cámara(µm) Re solución cámara(µm)


≤ Tamaño del pixel ≤
2 2 2

que para una cámara de media resolución (40 lp/mm), es decir, aproximadamente
25µm, resultaría un tamaño de píxel equivalente entre 9 y 13 µm.
b) Ruido de las imágenes digitales
El ruido de la imagen digital es un factor de gran importancia para la apreciación
de la calidad del escáner, debido a que es un factor determinante en la calidad de la
imagen final. Esta calidad de la imagen puede ser considerablemente mejorada
mediante el empleo de técnicas de análisis de imágenes, si bien es importante tener en
cuenta que las posibilidades de mejora están condicionadas al nivel de ruido existente.
La determinación del ruido de la imagen se puede establecer de una forma simple, se
seleccionan regiones homogéneas de la imagen (en torno a 20x20 píxeles) y se calcula
la desviación típica de los valores incluidos en el sector. Es importante tener en cuenta
que para efectuar una comparación entre diferentes imágenes es necesario tener en
cuenta el tamaño de píxel o, si es posible, la función de expansión. Teniendo en
cuenta las leyes de la propagación de errores, una imagen digitalizada con un tamaño
de píxel de 20x20µm debería tener sólo la mitad de ruido que una imagen con tamaño
de píxel 10x10µm. Por tanto, para comparar imágenes obtenidas con diferentes
tamaños de píxeles es necesario estandarizar las medidas a un determinado tamaño de
píxel (suele considerarse 10µm). Para obtener este valor, es necesario determinar el
tamaño de la función de expansión mediante la correlación, y posteriormente
multiplicar el ruido de la imagen por la anchura de la función y después dividirlo por
10 para referirlo al tamaño de píxel deseado. En la Tabla 3.17 se da información del
nivel de ruido de los diferentes escáneres.
c) Rango de densidad dinámica de los escáneres fotográmétricos
El parámetro de más compleja determinación en la práctica es el rango de
densidad dinámica (rango dinámico) debido a los problemas de los negativos
originales digitalizados -especialmente en fotografías de gran escala- producidos por
170  SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

las importantes diferencias de contraste. Es importante tener en cuenta que el negativo


digital es sólo un producto intermedio que puede ser convertido fácilmente a la
imagen en positivo. Sin embargo, la sensibilidad de los sensores suele ser
considerablemente más baja para las zonas oscuras de la imagen, por lo que puede
darse el caso de que una vez transformadas a positivo no se alcance el grado de
diferenciación deseado. Para controlar el grado de densidad dinámica del escáner se
utiliza un patrón de grises y se analiza posteriormente como los niveles de grises se
reflejan en la imagen digital. Para sistemas con CCD el límite de sensibilidad se
puede situar en torno a 1.0-1.3D mientras que para los sistemas dotados de
fotomultiplicadores el rango es considerablemente más amplio.
d) Distorsiones de la imagen
El motivo fundamental de la aparición de distorsiones en la imagen son los efectos
de borde o problemas de ajuste entre los distintos elementos de captación. Estos
problemas debido a que no siguen normas de comportamiento generales son difíciles
de corregir y se detectan por problemas de ajuste entre bandas escaneadas con el
mismo sistema.

3.4.3 Escáneres no fotogramétricos (escáneres de sobremesa) -DTP-


La característica fundamental de los escáneres no fotogramétricos es que no han
sido construidos pensando en su utilización para trabajos cartográficos o
fotogramétricos. Esta característica constituye evidentemente una limitación en
cuanto a la calidad geométrica de los mismos, pero, por otro lado, es necesario tener
en cuenta que el sector de los escáneres de sobremesa constituye uno de los sectores
más importantes del mercado informático. La fuerte competencia de este sector
conlleva a que día a día la calidad de los escáneres sea mejor. Estos sistema suelen
incorporar sistemas ópticos, de iluminación y sensores de una calidad aceptable y
además incluyen software estándar (la mayoría permite la digitalización a través de
programas de tratamiento de imágenes tipo Adobe Photoshop o Corel PhotoPaint,
mediante el enlace TWAIN) y de sencilla utilización (están pensados para su
utilización por usuarios no expertos, incorporando gran cantidad de herramientas de
ajuste automático que suelen dar buenos resultados) todo ello con un precio muy
interesante. Estos hechos los convierten en una buena opción, siempre que los
trabajos a desarrollar no exijan un elevado nivel de precisión. Así el precio de estos
sistemas puede oscilar entre los 300 y los 12.000 €, si bien se pueden encontrar en el
mercado sistemas por precios inferiores a los 60 €.
Los escáneres de sobremesa suelen incorporan un diseño de placa fija con
óptica/iluminación/sensor móvil. Estos escáneres suelen tener resoluciones ópticas
máximas de 1200 ppp (21µm) (si bien se anuncian resoluciones mucho mayores
interpoladas 9600ppp) y un tamaño de digitalización A4. Este tamaño impide la
digitalización de fotogramas aéreos de tamaño convencional (230x230mm), por lo
que es necesario recurrir a escáneres de tamaño A3 de precio considerablemente
mayor (a partir de 6.000 €) que además deben incluir la posibilidad de digitalización
de transparencias (para poder digitalizar los negativos o diapositivas, de mayor
calidad geométrica que los contactos).
FOTOGRAMETRÍA DIGITAL   171 

La calidad radiométrica de estos escáneres e incluso, la velocidad de


digitalización, es comparable o mejor que la de los escáneres fotogramétricos,
incorporando ajustes automáticos de las curvas tonales en función de la densidad del
original que permiten la rápida realización de los ajustes que en los sistemas
fotogramétricos requieren un tiempo y unos conocimientos mucho más elevados.
Los principales inconvenientes de los escáneres de sobremesa son la insuficiente
precisión y estabilidad geométrica, producida principalmente por los errores de
posicionamiento y las inestabilidades, las fuertes distorsiones de los elementos ópticos
y la falta de software específico para la calibración.
En la Tabla 3.18 se muestran las características principales de los escáneres de
sobremesa más frecuentemente empleados para la digitalización de imágenes
fotogramétricas que permiten la digitalización de originales de tamaño 23x23cms así
como de algunos escáneres tamaño A4.
Tabla 3.18. Características técnicas de algunos escáneres de sobremesa (Baltsavias y Waegli, 1996)
Modelo Agfa Agfa UMAX UMAX Sharp
Horizon Plus Arcus II Mirage D-16L Powerlook II JX-610
Movimiento Placa fija Placa fija Placa fija Placa fija Sensor fijo
mecánico
Sensor 3 CCD CCD trilineal CCD color CCD trilineal CCD lineal
Tamaño (pix) 3x5000 5000 5000 5000 7500
Formato (mm)
Reflexión A3 210x355 305x452 212x297 305x423
Refracción 240x340 203x254 212x254
Res.geométrica
v-h (µm) 21.2x21.2 21.2x42.3 31.75x63.5 21.2x42.3 21.2x42.3
Densidad
rango/máxima 3.2/3.4 3.1/3.2 3.0/3.2 3.3/ 3.3/
Res.radiométrica
entrada (bits) 12 12 10 12 12
Salida (bits) 12 ó 8 12 ó 8 10 ó 8 12 ó 8 8
Iluminación Halógena 400W Fluorescente Halógena Cátodo frío Fluorescente
8W 3W
Pasadas para color 3 1 1 1 1
Velocidad 1.7 (B/N) 4-15 5.4(B/N) 5 (B/N) 12 (B/N)
(ms/línea) 9.9 (Color) 9.4 (Color) 35 (Color)
Memoría buffer 8 Mb 1 Mb 2Mb 2Mb
interno (opc.32Mb) (opc. 2 Mb)
Ordenador Mac,PC,Unix Mac,PC Mac,PC,Unix Mac,PC Mac,PC,Unix
Interfaz SCSI-2 SCSI-2 SCSI-2 SCSI-2 GPIB,SCSI-2
Software FotoLook MagicScan Scan JX
FotoTune Light MagicMatch Photoshop
Photoshop Photoshop ColorSync
Binuscan ColorPro
Live Picture
Precio aprox.1 (€) 24.000 27.000 720 27.000 11.500
1
Precios aproximados referidos a la fecha del trabajo de Baltsavias y Waegli, 1996)
172  SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

3.4.4 Calibración de escáner


La calibración se define como la determinación de los errores sistemáticos de un
instrumento mediante la comparación de las medidas hechas con dicho instrumento
con las realizadas con un sistema que es considerado como más preciso (Glossary of
Mapping Sciences, ASPRS/ASCE, 1994). El objetivo final de la calibración es la
obtención de la corrección de la calibración que es un conjunto de valores que
añadidos o restados a la lectura o medida del instrumento nos proporcionan un valor
más próximo a la realidad. Esta definición pone de manifiesto la complejidad del
proceso de calibración al ser un proceso dependiente del instrumento, ya que los
errores que previsiblemente nos encontraremos al realizar la calibración serán función
del diseño del instrumento y de sus componentes.
En 1993 se constituye un grupo de trabajo en el seno de la OEEPE bajo la
denominación de AAnalysis of Photo-Scanners@ que junto con el grupo de trabajo I/5
de la ISPRS AHardcopy Scanning and Preprocessing System@ se encargaron del
análisis de los diferentes sistemas fotogramétricos así como de escáneres de
sobremesa aptos para su utilización en trabajos fotogramétricos de baja o media
precisión. Como resultados más sobresalientes del trabajo de estos grupos de trabajo
se puede señalar la elaboración de un cuestionario acerca de los aspectos técnicos de
los escáneres así como la selección del material a utilizar en los procesos de
calibración. Dentro de los trabajos de este grupo se han de destacar los realizados por
Baltsavias y colaboradores en el sentido de la puesta a punto de un proceso de
calibración de escáneres y sus comprobaciones acerca de la idoneidad de los
escáneres no fotogramétricos.
3.4.4.1 Errores y parámetros
Los errores que se presentan en los escáneres pueden ser clasificados en función
de diferentes criterios. Las clasificaciones más frecuentes son distinguir entre los
errores de tipo geométrico y los de tipo radiométrico, o bien, en función del tiempo de
variación del error, entre errores de corto periodo y errores de periodo largo. Cuando
se realiza una calibración es importante tener en cuenta que no todos los errores
aparecen en todos los tipos de CCD, existiendo una estrecha relación entre el tipo de
sensor (lineal, matricial, Y) y los errores asociados.
A. Errores de periodo largo de variación
1. Errores debidos al objetivo o a otros elementos ópticos
Se refieren a los errores geométricos del tipo de la distorsión radial simétrica y la
distorsión tangencial. También pueden ser introducidos por los elementos ópticos del
escáner errores de tipo radiométrico como, por ejemplo, el bandeado (vignetting)
(fig.3.48), las sombras (shading) y las reflexiones secundarias (ecos).
FOTOGRAMETRÍA DIGITAL   173 

Fig. 3.48. Líneas verticales y bandeado horizontal (Baltsavias, 1996)

2. CCD con problemas de blemishes


Este error afecta sólo a los sensores CCD matriciales de gran tamaño. El error
consiste en píxeles individuales, líneas/columnas o zonas en los que los niveles de
gris son marcadamente distintos (más de 16 niveles de gris) que la media del entorno
por problemas de fabricación del sensor.
3. Problemas de alineamiento y solape (fig. 3.49 y 3.50)
Este error sólo se produce en los CCD lineales múltiples y se produce debido a
que los sensores del CCD no son colineales, dando lugar a solapes o lagunas que
deben ser estimadas en el proceso de calibración.

Fig. 3.49. Problema de alineamiento entre dos sensores lineales (Baltsavias, 1996)

Fig. 3.50. Problema de solape (Baltsavias, 1996)

4. Errores de submuestreo (fig.3.51)


Afectan exclusivamente a los sensores de tipo lineal (tanto individuales como
múltiples). Cuando se digitaliza a una resolución inferior al de la imagen original es
necesario realizar un remuestreo de los píxeles en la dirección horizontal
(perpendicular a la del avance del sensor) mediante un filtrado de paso bajo mientras
que en la dirección vertical los píxeles presentan un tamaño mayor debido a la
velocidad de avance del sensor. Este error da lugar a problemas de cambios de escala
entre los dos ejes que deben ser corregidos mediante el ajuste de la velocidad de
avance y del tiempo de integración del sensor.
174  SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

Fig.3.51. Errores de submuestreo. Izq.: Imagen escaneada a 1200 ppp. Der.: Imagen escaneada a
2400ppp. Aparecen líneas verticales en la imagen de mayor resolución cada 2 píxeles (Baltsavias, 1996)

5. Smearing (fig.3.52)
Al igual que el error anterior afecta a los sensores lineales y consiste en que las
líneas horizontales aparecen más gruesas y con un contraste menor que las verticales.

Fig.3.52. Smearing de líneas horizontales. A: Dirección de barrido, B: Dirección del sensor CCD
(Baltsavias, 1996)

6. Enfoque
El plano del sensor debe ser paralelo a la placa del sensor y el enfoque debe ser
correcto. Además, es necesario tener en cuenta que debido a los problemas de
astigmatismo de la lente del sensor pueden existir problemas de no coincidencia entre
los elementos verticales y horizontales de la imagen.
7. Coincidencia entre canales
El error consiste en un desplazamiento relativo entre los diferentes canales de las
imágenes en color. Puede ser debido a problemas de posicionamiento del sensor o
bien a aberraciones cromáticas de la lente u otros elementos ópticos.
8. Precisión de posicionamiento geométrico, uniformidad y repetibilidad
La característica fundamental es la precisión de posicionamiento, de forma que si
es alta en todo el formato se garantizan la uniformidad y la repetibilidad. Este error es
típico de los escáneres no fotogramétricos.
FOTOGRAMETRÍA DIGITAL   175 

9. Resolución geométrica
En realidad no se refiere a un error, sino a un parámetro que define la calidad del
sensor y que, debido a su importancia, debe ser determinado y optimizado.
Habitualmente, se determina mediante el cálculo de la función de transferencia de
modulación.
10. Falta de perpendicularidad
Si las líneas/columnas del CCD no son paralelas a la dirección de digitalización,
se producen efectos de escalera (shear). Este efecto también se produce si existen
problemas de ortogonalidad en el sensor. Es corregido mediante la transformación
afín en la orientación interna.
11. Linealidad de la escala de grises
Indica la relación que debe existir entre los electrones generados en el sensor y los
niveles digitales de la imagen obtenida. Dicha relación debe ser lineal pero por
problemas técnicos se producen diferencias en torno a 0.5% por el amplificación del
chip.
12. Rango dinámico
Como la resolución geométrica, el rango dinámico es un parámetro (no un error)
que debe ser determinado y optimizado. Se refiere a la capacidad del sensor para
detectar diferencias de nivel de gris y capturar imágenes de contraste alto. El rango
dinámico depende del nivel de ruido y este depende a su vez de la densidad. Este
parámetro debe ser calculado para diferentes niveles de densidad.
13. Balance de color
Puesto que los CCD no presentan una respuesta uniforme en el espectro visible (la
sensibilidad del azul es menor que la correspondiente al rojo y al verde) es necesario
ajustar diferentes parámetros (ajuste de iluminación, velocidad de digitalización,
tiempo de integración, Y) para cada canal y de esta forma, obtener una imagen
compensada.
14. Precisión radiométrica
Dentro de este apartado se deben analizar diferentes tipos de ruido (ruido térmico,
blooming, smearing, tailing,...) si bien suelen ser considerados de una forma conjunta
al ser su separación muy difícil. La comprobación se basa en el análisis de la
uniformidad de la respuesta fotométrica, mediante el escaneo de patrones
homogéneos. Generalmente, se asume que estos errores son constantes a lo largo del
tiempo al depender del sensor.
15. Tamaño de píxel
El tamaño real del píxel puede variar del valor definido en la resolución
geométrica y además puede ser diferente en las dos direcciones. Se establece
mediante una transformación afín.
176  SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

16. Calidad cromática


B. Errores de periodo corto de variación
1. Variaciones radiométricas temporales
Se comprueban mediante la estimación de la variación de nivel de gris en patrones
de tono homogéneo a lo largo del tiempo.
2. Bandas
Este error se produce en los sensores de tipo lineal (tanto simple como múltiple) y
consiste en la aparición de bandeado como consecuencia del ruido de corriente de
oscuridad, los problemas de falta de uniformidad y de sensibilidad.
3. Ecos
En los sensores lineales múltiples y sensores matriciales de gran tamaño con alta
velocidad de lectura mediante la incorporación de sistemas múltiples (fig.3.53).

Fig.3.53. Ecos en la imagen digital (Baltsavias, 1996)

4. Diferencias en los patrones de ruido y respuesta entre los CCD adyacentes


Este error se produce en los sensores lineales múltiples y se deben a diferencias
constructivas entre los elementos de un sensor múltiple.
5. Vibraciones
Se producen por inestabilidades del sistema de posicionamiento del escáner y son
especialmente importantes si la velocidad de digitalización es elevada (fig.3.54).

Fig.3.54. Vibraciones en la dirección horizontal (dirección del sensor).


La imagen ha sido rotada 90º para su presentación (Baltsavias, 1996)

6. Falta de uniformidad de la fuente de iluminación e inestabilidad


La no uniformidad puede ser debida a problemas con la fuente de iluminación o
por pérdida de iluminación en los extremos de las lentes. La estabilidad depende de la
fuente de iluminación y de la propia estabilidad de la fuente de alimentación.
FOTOGRAMETRÍA DIGITAL   177 

7. Errores de mosaico
Estos errores pueden aparecer en los escáneres fotogramétricos cuando se
combinan porciones de imágenes para dar lugar a la imagen final (-tiles- en el caso de
los sensores matriciales o -swaths- en el caso de los sensores lineales). Puesto que
estos escáneres son geométricamente muy precisos y los errores geométricos son poco
frecuentes este tipo de errores son poco frecuente. Además los escáneres
fotogramétricos incorporan técnicas de identificación automática de puntos
homólogos -matching- para el case entre las diferentes porciones. Los errores
radiométricos suelen ser más frecuentes, especialmente en el caso de los sensores
CCD lineales y pueden llegar a alcanzar varias decenas de niveles digitales. Estos
errores son producidos a las diferentes respuestas de los elementos individuales del
sensor, problemas de calibración radiométrica, o de falta de uniformidad o
inestabilidad de la iluminación.
8. Saturación CCD
Está relacionada con el rango dinámico. La saturación del CCD se puede producir
aunque el rango dinámico esté bien ajustado si las tablas de consulta no están bien
ajustadas al no determinar de una forma correcta las zonas más iluminadas y más
oscuras de la escena.
9. Linejitter
Se produce en los sensores matriciales o por problemas de sincronización entre los
píxeles. Su magnitud es en torno a 0.1 píxeles.
10. Polvo, desperfectos de la película, etc.
3.4.4.2 Procedimiento general de calibración
A. Materiales necesarios para la calibración
a) Patrones de calibración de resolución
Las placas de calibración de resolución se deben construir en vidrio y pueden
encontrarse en positivo o en negativo. Los patrones más frecuentemente empleados
son:
- Placa de calibración de la USAF (Fuerzas Aéreas de los Estados Unidos de
América). Esta placa incorpora patrones de 3 pares de líneas con resolución
entre 0.25 y 228 lp/mm con incrementos de 1.12 con líneas horizontales y
verticales (fig.3.55).
- Placa de calibración NBS. Esta placa incorpora patrones de 5 pares de líneas
con resolución entre 1 y 500 lp/mm con incrementos de 1.12 con líneas
horizontales y verticales.
- Placa de patrones de 15 pares de líneas empleadas para el cálculo de funciones
de transferencia de modulación, con dos tipos de resoluciones de 1 a 1000
lp/mm ó de 1 a 625 lp/mm con incrementos de 1.26. Este tipo de patrones sólo
incorporan líneas verticales.
178  SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

Fig.3.55. Placa de calibración de la resolución geométrica de las


Fuerzas Aéreas de los Estados Unidos de América –USAF–.

El tipo de placa a utilizar debe ser elegida en función del tipo de escáner que se
desea calibrar atendiendo a los resultados previsibles. Al respecto es importante tener
en cuenta que en la mayoría de los casos (escáner con resolución entre 5 y 84 µm) es
suficiente el disponer de un patrón entre 3.6 y 100 lp/mm, siendo el intervalo de
mayor interés el comprendido entre 20 y 50 lp/mm.
Otro tipo de placas empleadas para la determinación de la resolución del escáner
son:
- placas de grupos de patrones paralelos con un número de pares de líneas igual
o mayor que 3 con frecuencia creciente.
- placas de Fresnel que consisten en anillos concéntricos con simetría radial y
distribución de intensidad sinusoidal.
En todos los casos es fundamental el que las placas sean de alta calidad, en
especial, en los aspectos relativos al contraste, la definición de bordes y planeidad de
la placa.
b) Cuñas de escalas de grises
Estas cuñas son suministradas por las casas de productos fotográficos (Agfa,
Kodak, Y). Así, por ejemplo, Kodak comercializa la cuña opaca en tonos de gris SR37
de tamaño 21x2cm con rangos de densidad de 0.0 a 1.8D con incrementos de 0.05D y
la cuña transparente ST34 de tamaño 13x1.5cm con rango de densidad de 0.0 a 3.4D
con incrementos de 0.1D (fig.3.56). También es posible construir la cuña mediante el
procedimiento indicado en Dam (1994) y posteriormente medidos con un
microdensitometro. Las cuñas deben ser conservadas en condiciones ambientales
adecuadas, libres de polvo y deben ser comprobadas con un microdensitometro para
evaluar posibles cambios en la densidad de la cuña. El requisito fundamental de las
cuñas es la homogeneidad de cada uno de los tramos de densidad y el conocimiento
preciso de los valores de densidad.
FOTOGRAMETRÍA DIGITAL   179 

Fig.3.56. Patrones de calibración radiométrica. Sup.: Cuña de grises de intervalo de densidad de 0.0 a
0.24D; Medio: Cuña Kodak ST34 –original en color–; Inf.: Cuña Kodak Q-60a –original en color–.

c) Patrones para la comprobación de la falta de uniformidad de la respuesta


fotométrica
Para la comprobación se utilizan las cuñas de escalas de grises comentadas con
anterioridad o bien un objeto neutro, como, por ejemplo, una placa de vidrio.
d) Patrones de comprobación de registro de puntos y líneas
Puesto que las líneas y los puntos son elementos fundamentales en las aplicaciones
fotogramétricas, su reproducción (calidad de la imagen) debe ser comprobada
mediante la digitalización de los patrones de puntos y las líneas de tamaño variable
que se muestran en la figura 3.57.

Fig.3.57. Patrón de puntos y líneas diseñado por Heidenhain.

e) Patrones para la comprobación tonal y de reproducción de color


La placa más empleada para la comprobación tonal y de reproducción de color es
180  SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

la placa UGRA/FOGRA que tiene un tamaño de 20x27cm y puede ser utilizada


además para la determinación de granularidad, calidad de la imagen,... . Kodak
también comercializa placas opacas y transparentes (10x12cm) que son suministradas
con una tabla de referencia de color.
f) Placas reticuladas (fig.3.58)
Las placas reticuladas se emplean en las calibraciones geométricas, en especial,
para la comprobación de la precisión. Consisten en una placa de vidrio en la que se
han grabado líneas formando un reticulado con un espaciado entre 1 y 2 cm y con un
grosor entre 20 y 40 µm. Existen placas de este tipo que están especialmente
diseñadas para la digitalización conjunta con la imagen como la que incorporan los
sistemas Vexcel VX3000 y Rollei RS1-C.

Fig.3.58. Placa reticulada en los bordes para ser empleada de forma simultánea con la película

g) Películas aéreas
También pueden deben ser utilizadas en la calibración películas aéreas de alta
calidad tanto pancromáticas como en color, para comprobar el funcionamiento del
sistema en los casos reales.
Estas placas suelen tener un precio en torno a 600 € cada una de ellas, salvo las
reticuladas cuyo precio puede ascender a 1200 ó 1800 € (placa de 11x11 líneas)
mientras que las placas más densas pueden costar más de 6.000 €. Una alternativa
puede ser trazar una retícula sobre un material indeformable y realizar la medida con
un comparador de precisión.
Un aspecto de gran importancia es el tipo de marca que incorporan las placas
reticuladas. Así se pueden encontrar diferentes tipos de marcas que deben ser
escogidas fundamentalmente en función del procedimiento de medida, así los
patrones de tipo cruz suelen ser los más adecuados para la medida manual (la marca
de medida suele ser una cruz) mientras que para la medida automática lo más
aconsejable es una marca de forma de punto que tenga un tamaño en torno a 5 píxeles
FOTOGRAMETRÍA DIGITAL   181 

de diámetro. Además es importante tener en cuenta el espaciado de la retícula, valor


que debe depender de los errores a modelizar. Así para comprobar el comportamiento
general de escáner es suficiente con una placa estándar de espaciado 2x2cm, mientras
que si se desea comprobar el ajuste geométrico de las diferentes porciones de imagen
escaneadas será necesario recurrir a placas con espaciado en torno a 2x2mm, de forma
que aparezcan al menos 2x2 cruces en cada porción. Por último, la placa debe su
estable geométricamente, con desviaciones en torno a 10µm para superficies de
10x10cm, para ello se construyen con vidrios de alta calidad con coeficientes de
expansión térmica de 1.6µm/1K en 230mm.

Fig.3.59. Diferentes tipos de marcas empleados en las placas reticuladas

B. Condiciones de realización de la calibración y procedimiento


El escáner debe ser comprobado a la mayor resolución geométrica posible, de
forma que sean visibles todos los posibles errores. Por otro lado, para la calibración
radiométrica es aconsejable que bien se utilice un rango dinámico muy amplio para
que los errores se amplifiquen o bien se sometan las imágenes resultantes a algún tipo
de tratamiento (realce) para el análisis de los errores. Tras la detección de los errores,
su cuantificación siempre se debe realizar sobre las imágenes no realzadas tomadas en
condiciones normales.
Antes de realizar el proceso en sí, se debe tener la precaución de calentar el
escáner a la temperatura óptima de funcionamiento (entre 30 minutos y 1 hora
encendido suele ser suficiente) y realizar una limpieza exhaustiva en la placa de
cristal del escáner así como en todos los patrones de calibración.
La calibración debe repetirse varias veces, en especial, si se desconoce el
comportamiento temporal de los componentes. Además es necesario tener en cuenta
que la calibración radiométrica se debe repetir para cada sensor. Y los tests
relacionados con la calibración geométrica se deben efectuar para diferentes
velocidades de digitalización (diferentes resoluciones de escaneo).
El procedimiento empieza con el cálculo de la distorsión de los elementos ópticos
que se evalúa de una forma conjunta a la precisión geométrica utilizando las placas
reticuladas. La precisión geométrica del escáner se establece mediante una
transformación afín o conforme utilizando todos los puntos de la retícula como puntos
de control. El trazado de los residuos puede poner de manifiesto errores sistemáticos o
errores aleatorios de tipo local y de gran magnitud. Para analizar los errores de forma
local se repite el mismo procedimiento para zonas particulares de la placa. Una
práctica muy eficaz consiste en estimar las transformaciones utilizando para ello tan
solo las cruces situadas en las esquinas y partes centrales de la placa, simulando el
proceso de orientación interna que se efectúa con las imágenes fotogramétricas,
utilizando el resto de las cruces como puntos de comprobación.
182  SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

La precisión radiométrica y la presencia de blemishes se pueden estimar de una


manera conjunta utilizando las cuñas de grises y los patrones para la comprobación de
la falta de uniformidad en la respuesta fotométrica. La precisión radiométrica debe ser
estimada en zonas que tengan un tamaño suficiente y que no incluyan problemas
radiométricos como blesmishes, polvo,... . Los blesmishes pueden ser corregidos
sustituyendo su nivel de gris por el valor medio o la mediana de los píxeles con nivel
digital correcto que estén situadas en las proximidades.
Los errores de alineación de los sensores se obtienen mediante la digitalización de
líneas horizontales y serán detectados como discontinuidades en las líneas que
dependerán del solape de los sensores.
Los errores de submuestreo se detectan empleando el patrón de líneas y puntos,
situándolos en posición vertical y horizontal y escaneándolos a diferentes
resoluciones geométricas.
El error de smearing se detecta mediante la digitalización de los patrones de líneas
horizontales y verticales a diferentes resoluciones (velocidades), estimando la anchura
y el contraste de las líneas.
El enfoque debe ser comprobado utilizando un patrón en el que los bordes estén
bien marcados, comprobando el borde de los elementos mediante la elaboración de
perfiles de niveles digitales.
Los problemas de coincidencia entre los canales de color se ponen de manifiesto
mediante la digitalización de patrones de líneas verticales y horizontales. Dichos
patrones deben cubrir el área de la digitalización y en cada canal se deben medir las
posiciones de las esquinas y de los bordes.
La resolución geométrica se estima mediante la digitalización de los patrones de
resolución geométrica. La determinación del valor de resolución geométrica se
establece mediante el análisis de la imagen para establecer la modulación, dicha
determinación nunca debe realizarse de una forma visual.
La linealidad de los niveles digitales y el rango dinámico puede ser estimados
utilizando las cuñas de gris. Para el análisis sólo se debe emplear la parte central de
cada zona, calculando el valor medio y el error medio cuadrático de cada región. El
rango dinámico se debe comprobar utilizando imágenes de alto contraste.
Los histogramas de las imágenes ponen de manifiesto la distribución de niveles
digitales y la posible saturación, para ello se deben identificar los niveles digitales
iguales a 0 y a 255, utilizando una paleta de colores adecuada.
En los sensores de 3 CCD lineales se debe comprobar el paralelismo entre las
líneas y se debe estimar la distancia entre las líneas escaneando uno o más líneas
horizontales que cubran toda la longitud del sensor. Si la distancia entre los 3 CCD no
está ajustada de una forma correcta, la línea dará lugar a diferentes posiciones en cada
uno de los canales, dicha diferencia puede ser una traslación o una rotación.
El bandeado se detecta mediante la digitalización de un objeto homogéneo. Para la
detección se emplean perfiles tanto verticales como horizontales, realizando la
FOTOGRAMETRÍA DIGITAL   183 

comparación entre el nivel digital de la fila o columna con las filas y columnas
adyacentes. El ruido debido al polvo u otras causas puede ser detectado puesto que
produce discontinuidades a nivel local que no se extienden en toda la columna. Esta
detección del ruido puede ser empleada para la realización de una estimación
simultánea de los píxeles con ruido.
Las vibraciones en la dirección vertical se detectan utilizando las cruces y puntos
situados sobre la línea vertical del patrón de retícula para escanear conjuntamente con
la imagen (fig.3.58). Las vibraciones en la dirección horizontal se detectan utilizando
las líneas de borde en el mismo patrón. Las vibraciones en ambos casos producen que
las líneas rectas aparezcan como líneas curvas sinusoidales. Utilizando técnicas de
análisis de imágenes se extraen puntos de la línea y se ajusta una recta obteniéndose
los residuos. Estos errores pueden ser corregidos posteriormente mediante una
transformación lineal y el remuestreo en la dirección horizontal en la que se detectan
errores debido a la vibración.
La falta de uniformidad en la iluminación puede ser corregida mediante la
digitalización de un área homogénea y la estimación de los valores de corrección para
cada elemento del sensor. Para ello se utiliza la digitalización de una placa de vidrio o
bien cuñas de gris (con diferentes niveles de densidad, por ejemplo, 0.0, 1.0, 2.0).
Para reducir el efecto del ruido, se pueden tomar varias imágenes y promediarlas. Este
procedimiento debe ser realizado para cada digitalización, cada canal de color.

3.4.4.3 Ejemplos de procesos de calibración de escáneres


A continuación se resumen los procesos seguidos para la calibración de diferentes
escáneres, tanto fotogramétricos como de sobremesa. Estos procesos, presentados a
modo de ejemplo, son los trabajos desarrollados por Baltsavias et al. (1998) de
calibración de un escáner LH DSW300; Gruber et al. (1998) de calibración de un
escáner Vexcel Ultrascan 5000; Bethel (1995) de calibración de un escáner
RasterMaster RM-1; Sarjakoski (1992) de calibración de un escáner Sharp JX-600 y
Baltsavias y Waegli (1996) de calibración de diferentes escáneres de sobremesa.
A. Calibración del escáner LH DSW300
El material empleado para la realización de esta prueba fue el siguiente:
- 2 escáneres DSW300.
- 3 placas de calibración geométrica:
ƒ placa de precisión con 116x116 cruces con 2mm de espaciado y un tamaño
de 200µm y grosor de línea de 15µm, con error posicional máximo de
1µm.
ƒ la placa de calibración que incorpora el escáner con 13x13 cruces con 2cm
de espaciado y grosor de línea de 25µm con error posicional máximo de
2µm.
ƒ una placa de calibración con 23x23 cruces con espaciado de 1cm, grosor
de línea de 20µm y error posicional máximo de 1µm.
- una placa de resolución estándar (USAF) en soporte cristal.
- una cuña de calibración radiométrica realizada por Kodak (21 densidades con
intervalo de 0.15D cubriendo un rango de 0.055D a 3.205D).
184  SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

a) Calibración geométrica.-
El procedimiento seguido para la realización de la calibración de escáner consistió
en la digitalización de las diferentes placas de calibración geométrica. La captura de
las imágenes fue repetida 6 veces, repartidas de la siguiente forma, 3 medidas el
primer día y 3 medidas el segundo día, con el objetivo de analizar la repetibilidad
geométrica a corto y medio plazo. La digitalización se realizó con un tamaño de píxel
de 12.5µm, y tanto en tonos de gris como en color, para establecer la coincidencia
entre las diferentes capas de color.
Las coordenadas de las cruces fueron medidas mediante un procedimiento
automático mediante el método de identificación automática (matching) de patrones
por mínimos cuadrados -LSTM- (Grün, 1985; Baltsavias, 1991) obteniéndose
precisiones entre 0.02-0.03 píxeles en las medidas. Tras el proceso de medida
automática se revisan manualmente aquellas medidas automáticas en las que se
habían obtenido malos resultados de correlación. Los resultados obtenidos fueron
comparados con el sistema que incorpora el escáner para la calibración automática.
Una vez efectuadas las medidas se realizaron los siguientes test geométricos:
1. Test geométrico global. Se calcula una transformación afín entre las coordenadas
píxel obtenidas y las coordenadas de referencia de las cruces, utilizándose para cada
digitalización tres conjuntos de datos (todas las medidas, sólo las 4 cruces de los
extremos y sólo 8 cruces situadas en las esquinas y centros de los lados; mediante las
dos últimas medidas se intenta simular el procedimiento de orientación interna que se
efectuará sobre las marcas fiduciales). La utilización de las tres placas con distintas
densidades de cruces permite analizar la influencia de este factor en los parámetros
finales de transformación y los residuos no corregidos.
2. Errores de desplazamiento entre canales. Dichos errores fueron comprobados
mediante la comparación de las coordenadas de las cruces entre pares de canales (R-
G, R-B, G-B).
3. Test geométrico local. Debido a que este sistema funciona mediante un
procedimiento de tile (se digitaliza en pequeñas porciones que posteriormente dan
lugar a la imagen final) se analiza el comportamiento geométrico de cada porción de
una forma individual. De esta forma se establecen los errores primarios debidos a los
componentes ópticos del sensor (básicamente distorsión radial), debido a que los
errores de posicionamiento mecánico y vibraciones son absorbidos por los
coeficientes de translación de la transformación afín.
4. Repetibilidad. Fue comprobada mediante la comparación de las medidas efectuada
a partir de las imágenes obtenidas en distintos momentos, así se disponía de 3
imágenes tomadas de forma consecutiva (repetibilidad en corto periodo de tiempo) y
otras 3 tomadas al día siguiente.
5. Estabilidad y robustez. Fue establecida mediante la comparación de los resultados
de la misma placa empleando diferentes parámetros de ajuste de calibración, entre las
diferentes placas y entre los dos sistemas disponibles.
6. Resolución geométrica. Se determina mediante la inspección visual de la imagen
FOTOGRAMETRÍA DIGITAL   185 

digitalizada de la placa de resolución geométrica (la cual fue escaneada 3 veces),


estableciendo el grupo de líneas de mayor frecuencia que era posible discernir en
función del contraste de la imagen.

b) Calibración radiométrica.-
Para la realización de la calibración radiométrica se digitalizó la cuña de
densidades tanto en niveles de gris como en color, a dos tamaños de píxel diferentes
(12.5µm y 25µm) y empleando tablas de consulta (lookup table -LUT-) de tipo lineal
y logarítmico.
Los tests radiométricos aplicados han sido:
1. Estimación del nivel de ruido. Este parámetro fue obtenido a partir de la media y
desviación típica de cada densidad de la cuña de densidades, escogiéndose siempre la
misma porción dentro de la zona de nivel de densidad.
2. Linealidad y rango dinámico. La linealidad fue comprobada mediante la
representación del logaritmo del nivel de gris medio frente a la densidad calibrada
respectiva, los puntos de la representación deben estar dispuestos sobre una línea recta
y ser equidistantes.
3. Rango dinámico. Para el cálculo del rango dinámico previamente es necesario
establecer los niveles de densidad mínima no saturada y densidad máxima detectable.
El nivel de densidad mínima no saturada se establece en función del nivel de densidad
que proporciona un nivel digital no nulo mientras que el nivel máximo se calcula
teniendo en cuenta las siguientes condiciones:
a) la distancia del valor medio de gris de una densidad detectable a partir de los
valores medios de sus dos niveles de densidad vecinos debe ser igual a la suma
de la desviación típica de la densidad detectable y las desviaciones de los
vecinos, es decir:
Mi-1 + SDi-1 + SDi < Mi < Mi+1 - SDi+1 - SDi
donde: M media del nivel de densidad de la cuña
SD desviación típica del nivel de densidad de la cuña
i nivel del valor de densidad creciente
b) la desviación típica del nivel de densidad debe ser mayor de 0.1, a objeto de
evitar el fenómeno que se observa de que la señal saturada presenta valores de
desviación típica muy bajos.
c) la existencia de diferencia entre el valor redondeado a número entero del valor
medio de densidad del nivel analizado con respecto al resto de niveles de la
cuña.
4. Errores. Con el objeto de determinar errores radiométricos entre las diferentes
porciones de imagen (tiles) o errores de tipo electrónico asociados con el sensor
(polvo electrónico) se someten las imágenes a un filtro de Wallis de forma que se
aumente el contraste de la imagen y dichos defectos se hagan más visibles.
c) Resultados.-
Las principales conclusiones del trabajo fueron:
186  SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

a) Precisión geométrica: El error medio cuadrático vario entre 1.3 y 1.9µm y el


error absoluto medio máximo de 4.5 a 8µm. La distorsión de la lente
contribuye a este error total con un error cuadrático medio de 0.7 a 0.9µm.
b) Desplazamiento entre canales: Es de 1µm, es decir, inferior a la precisión
geométrica, es decir, que se puede considerar despreciable frente al error
posicional individual.
c) Repetibilidad: Es muy buena a corto y medio plazo.
d) Nivel de ruido: El escáner presenta un nivel de ruido de 1 a 1.5 niveles de gris
para un tamaño de píxel de 25 y 12.5µm, respectivamente, cuando la
equivalencia (tabla de consulta) es de tipo lineal y de 3.5 a 5 niveles de gris, si
es de tipo logarítmico.
e) Rango dinámico: El rango dinámico es de 2D (LUT lineal) y 2.16D (LUT
logarítmica) con una respuesta lineal muy buena sobre estos valores.

B. Vexcel Ultrascan 5000


El escáner Vexcel Ultrascan 5000 incorpora dos sistemas de calibración: el
primero es un sistema off-line que se aplica en el momento de la fabricación y que
debe ser repetido periódicamente y el segundo, off-line que se aplica automáticamente
en el momento de la digitalización.
a) Calibración off-line:
El proceso de calibración off-line comienza en el momento de la fabricación del
escáner y debe ser repetido periódicamente para comprobar la exactitud de los
parámetros. Se basa en el cálculo de los parámetros geométricos del escáner para
conseguir una transformación correcta entre el sistema de coordenadas interno y el
sistema de coordenadas de salida (coordenadas imagen). Esta primera etapa de la
calibración se basa en la utilización de una placa calibrada que se digitaliza y se
calculan los parámetros de transformación y los residuos de la misma. El cálculo de la
posición del centro de cada cruz de la placa calibrada en la imagen digital utiliza un
método propuesto en Trinder (1989) que proporciona una precisión entre "0.1 y
"0.05 píxeles (fig.3.60).

Fig.3.60. Representación vectorial de los residuos en el proceso de calibración


de un escáner Vexcel Ultrascan5000 (Vexcel, 2000)
FOTOGRAMETRÍA DIGITAL   187 

Los resultados experimentales muestran que los elementos ópticos y mecánicos


del escáner son bastante estables y, por tanto, dan lugar a deformaciones geométricas
predecibles que pueden ser modelizadas y corregidas si bien es necesario realizar
comprobaciones periódicas mediante la digitalización de las placas de calibración que
acompañan al escáner.
b) Calibración on-line:
Sin embargo, debido a los cambios térmicos o por desajustes mecánicos pueden
producirse algunos pequeños cambios en la geometría de cada uno de las porciones
que dan lugar a la digitalización de la imagen completa. Para eliminar estos desajustes
el escáner incorpora un sistema de calibración denominado Ahoja de trabajo@ con
marcas de referencia fuera del área de digitalización. La fotografía a digitalizar se
coloca sobre la Ahoja de trabajo@ y se introduce en el escáner para su digitalización. El
escáner captura los píxeles de la imagen y de la zona que le rodea capturando las
marcas de referencia que permitirán la corrección final de la imagen. Estas marcas
son reconocidas de una forma automática y las desviaciones entre las coordenadas
conocidas de las marcas de la placa calibrada y sus posiciones medidas serán
consideradas en el proceso de formación de la imagen final.
C. Wehrli RM-1
Bethel (1995) propone el siguiente esquema para la calibración del escáner:
a) ajuste del enfoque
b) ajuste de la rotación del sensor
c) ajuste de la escala
d) ajuste de la ortogonalidad
a) Ajuste del enfoque.
En la figura 3.61 se muestra un esquema del escáner Wehrli RM-1 mientras que
en la figura 3.62 se muestra el esquema óptico del escáner. En la calibración aplicada
se presupone que la relación de ampliación es la unidad y que el espesor de la lente es
despreciable, aspectos que se pueden justificar, puesto que, no se pretende calcular
posiciones de los componentes sino plantear que componentes son más susceptibles
de error. Con la relación de ampliación unitaria, la distancias objeto e imagen son
iguales al doble de la distancia focal de la lente (75mm). El ajuste del enfoque permite
actuar sobre dos elementos, la posición de la lente y la posición del sensor.
El objeto, la lente y la posición del sensor deben cumplir la conocida relación de la
ecuación de la lente delgada 1/f = 1/i + 1/o, siendo la relación de aumento dada por
m= i / o. Si un elemento es desplazado (lente o sensor) la relación no se cumple y no
se obtendrá una imagen nítida. Si se desplaza el sensor (fig.3.63) se produce que la
imagen aparece borrosa formándose la imagen de un punto como un círculo de radio
y, definido por:
D
x D
= 2=
y 2f 4f
188  SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

Lámpara fluorescente

Fotograma
Placa
Movimiento de la placa

Control de
Codificador desplazamiento
Lente
Motor Temporizador
Sensor TDI
Conversor A/D Buffer de línea

Espejo Buffer secundario


(vista later al)
Almacenamiento
Sensor TDI

(vista frontal)

Fig.3.61. Esquema del escáner RM-1


Fotograma Lente Sensor

f = 75mm

o=2 f i =2 f
Fig.3.62. Esquema óptico del escáner RM-1
Fotograma Lente Sensor
Plano imagen
Plano sensor

o=2 f i =2 f

i =2 f+ x
Fig.3.63. Efecto del desplazamiento de la posición del sensor

La degradación del enfoque producida por el desplazamiento del sensor viene


dada por:
δx D
=
δy 4f
FOTOGRAMETRÍA DIGITAL   189 

La figura 3.64 pone de manifiesto como un pequeño desplazamiento en la


posición de la lente, x, produce una modificación en la distancia objeto que pasa a ser
2f-x obteniéndose una nueva distancia imagen:
1 1 1
= +
f i 2f − x
Fotograma Lente Sensor

Plano imagen
Plano sensor
Posición Desplazada Posición Original
de la lente de la lente

o=2 f-x i =2 f+ x

Fig.3.64. Efecto del desplazamiento en la posición de la lente

El efecto es de signo contrario al desplazamiento del sensor, aunque el efecto es


similar, produce que la imagen de un punto sea un círculo de radio y que viene
definido por:
D D ⎡ f (2f − x ) ⎤
y= ∆i = − (2f + x )⎥
4f 4f ⎢⎣ f − x ⎦
La relación de degradación de enfoque con el desplazamiento de la lente viene
dado por:

δy D ⎡ 2fx − x 2 ⎤
= ⎢ ⎥
δx 4f ⎢⎣ f 2 + x 2 − 2fx ⎦⎥

De las dos expresiones anteriores se puede deducir como de una forma


comparativa, el movimiento del sensor afecta de una forma mucho más grave que el
movimiento de la lente.
b) Ajuste de la rotación del sensor
Las líneas del sensor deben ser estrictamente perpendiculares a la dirección del
movimiento de la digitalización. Cualquier problema de no perpendicularidad
planteara graves problemas en la escala de la imagen obtenida. Los problemas de
rotación se ponen de manifiesto mediante el análisis de imágenes mediante la
determinación de la continuidad de la línea en la imagen digital obtenida. Una vez
determinada el error en la rotación del sensor se puede corregir mediante la corrección
de la misma (fig.3.65).
190  SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

SOLAPE SOLAPE ESCALA CORRECTA

Fig.3.65. Problemas de rotación del espejo

c) Ajuste de la escala
El ajuste de escala necesita un planteamiento similar al ajuste del enfoque. Como
se ha comentado con anterioridad, la modificación de la posición del sensor implica
una modificación de las distancias imagen y objeto, por lo que se modifica la relación
de ampliación.
2f + x x δm 1
m= = 1+ =
2f 2f δx 2f

La modificación de la posición de la lente también implica modificación de la


relación de ampliación, siendo en este caso:
2f + x δm 1
m= =
2f − x δx f − x

Por tanto, la modificación de la escala es dos veces mayor cuando se considera el


desplazamiento de lente que cuando se considera el desplazamiento del sensor. Por
tanto, el procedimiento a seguir es el ajuste del enfoque utilizando la posición
aproximada de la lente y después el ajuste en escala modificando la lente, lo que
influirá poco en el enfoque de la imagen.
d) Comprobación de ortogonalidad
El último paso en la comprobación de la alineación del escáner es la digitalización
de una placa calibrada con una resolución de 12µm a objeto de identificar los
problemas de falta de ortogonalidad entre los ejes. Este problema es detectado por la
medida de las coordenadas imagen de todos los puntos calibrados en la malla y
posteriormente plantear una transformación afín de 6 parámetros:
x=aX+bY+c y=dX+eY+f
D. Sharp JX-600 (Sarjakoski, 1992)
Los elementos de mayor interés en la calibración de este escáner son el sensor
CCD y el sistema óptico, compuesto por el sistema de lentes y la placa de vidrio
portafotogramas.
El escáner está compuesto de un sensor CCD lineal, de una lente de reducción y
de tres espejos, montados en un armazón estable y que pueden ser ajustados para
corregir descalibraciones. El elemento más susceptible de introducir errores es la lente
de reducción, cuyas distorsiones geométricas afectarán directamente a la geometría de
la imagen resultante. Es necesario analizar las posibles fuentes de error posibles:
FOTOGRAMETRÍA DIGITAL   191 

a) Desplazamiento de la placa portafotogramas.


b) Planeidad de la placa
c) Planeidad del documento
d) Separación de colores
Para ello se procede a la digitalización y posterior medida de una retícula
calibrada realizando un ajuste por mínimos cuadrados a la expresión:
dy = a1 y + a2 y2
dx = b1 x + b2 y + b3 y2 + c1 I1 + Y+ cn In
siendo y: Coordenada píxel en la dirección principal de digitalización
(columna, dirección del sensor CCD)
x: Coordenada píxel en la dirección secundaria (fila, movimiento de la
placa)
dx,dy: Deformaciones geométricas en cada dirección
a1: Error en escala en la dirección principal
a2: Error en la dirección principal (distorsión radial de la lente)
b1: Error en escala en la dirección secundaria
b2: Falta de ortogonalidad de la imagen
b3: Error en la dirección secundaria (distorsión tangencial de la lente)
c1,...,cn: Errores locales en la dirección secundaria, que se suponen
periódicos con un cierto intervalo (20-200 líneas) en función de n
I1,...,In: Coeficientes de los errores locales (Ii = 1 si y/n = i, en caso
contrario Ii = 0)
El principio general seguido en este modelo es que la forma y el tamaño de los
elementos geométricos de la imagen original debido ser mantenidos en la imagen
digital obtenida. Los polinomios dx y dy describen las desviaciones que se producen
entre ambas imágenes. El modelo incluye términos de primer y segundo orden a fin
de ajustar las distorsiones introducidas por el sistema óptico. Los errores periódicos
en la dirección secundaria son modelizados asumiendo que son constantes dentro de
un intervalo.

E. Calibración de escáneres de sobremesa (Baltsavias y Waegli, 1996)


En este trabajo se calibraron 5 escáneres no fotogramétricos de sobremesa: Agfa
Horizon, Agfa Arcus II, UMAX Mirage D-16L, UMAX PowerLook, Sharp JX-610.
Todas las calibraciones se realizaron a una resolución de 600ppp (42µm), salvo el
UMAX Mirage D-16L que fue probado a 400ppp. El procedimiento seguido para la
calibración fue similar al empleado para la calibración del DSW300 que ha sido
comentado con anterioridad, empleándose para la medida de las imágenes
procedimientos automáticos de matching por mínimos cuadrados con una precisión de
0.03-0.04 píxeles (1.3µm para 600ppp).
En el test inicialmente se comprobó la calidad geométrica de los escáneres sin
aplicar ningún tipo de calibración. Para todos los escáneres, excepto el Arcus, se
realizaron dos escaneos, seleccionándose para el análisis el peor resultado. El
procedimiento fue la realización de una transformación afín, empleando 4, 8 y todos
192  SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

los puntos medidos. Con las transformaciones de 4 y 8 puntos se simula el


comportamiento de una imagen a la que posteriormente se somete a una orientación
interna mediante la medida de las marcas fiduciales, utilizándose el resto de los
puntos como puntos de control. La transformación que emplea todos los puntos
permite el establecer la calidad geométrica general del escáner. Los resultados se
resumen en la Tabla 3.19.
Tabla 3.19. Resultados de la calidad geométrica de los escáneres sin calibración (Baltsavias y Waegli,
1996). Valores expresados en µm.
Ptos Control / RMS Media Máximo absoluto
Escáner
Comprobación X y x y x Y

4/621 146 71 -5 -26 224 151


Agfa
Horizon 8/617 147 67 -4 -13 223 139

625/0 92 54 0 0 220 159

4/621 106 51 67 -39 214 117


Sharp
JX-610 8/617 91 42 45 -26 182 105

625/0 56 29 0 0 182 91

4/621 35 20 24 -4 73 56
UMAX
Mirage 8/617 32 20 20 -7 67 54

625/0 18 19 0 0 56 51

4/521 85 81 51 -69 199 151


Arcus II 8/517 76 62 36 -46 180 129

525/0 63 41 0 0 216 122

4/546 101 112 -66 103 181 177


PowerLook 8/542 87 77 -45 65 158 138

550/0 52 43 0 0 185 114

Los errores son por lo general mayores en el eje x (dirección del sensor) y ponen
de manifiesto valores de distorsión de la lente grandes. Los errores máximos se
producen en las zonas de borde, por lo cual, los errores mayores se detectan cuando se
realiza la transformación afín utilizando únicamente los 4 puntos de las esquinas. En
todos los casos, los errores máximos están en el orden de 2.5 a 3.5 veces el error
medio cuadrático.
Las precisiones alcanzadas ponen de manifiesto que estos escáneres pueden ser
utilizados para muchos trabajos de precisión media. Así, por ejemplo, un escáner con
un error geométrico de 100 µm, que se emplee para la digitalización de fotogramas a
escala 1:40000 con una resolución de 25µm (tamaño de píxel sobre el terreno de 1m)
producirá un error planimétrico de 4m en la imagen. Si la ortoimagen se representa a
escala 1:20000 de 0.2mm, o 0.4mm si se representa a 1:10000, cifras que pueden ser
aceptables para muchos usuarios.
FOTOGRAMETRÍA DIGITAL   193 

La calibración fue realizada en dos fases. En la primera fase se modelizaron los


efectos de la distorsión de los elementos ópticos. La distorsión radial de las lentes
producen importantes desplazamientos en la dirección x, mientras que la distorsión
tangencial produce desplazamientos, menores aunque significativos, en la dirección y.
El procedimiento de determinación de las correcciones en x consistió en la
digitalización de una placa reticulada y la medida mediante matching por mínimos
cuadrados de las marcas, realizando una transformación afín entre los valores
calibrados de la placa (mm) y las medidas efectuadas (mm), siendo los errores los
residuos resultantes. El proceso se repite varias veces (entre 2 y 4) para reducir los
errores temporales, debidos fundamentalmente a las vibraciones. Para la corrección en
y se sigue el mismo procedimiento con la única modificación de la introducción de un
parámetro adicional en la transformación x2, para conseguir la modelización de la
distorsión tangencial. Este tipo de errores es bastante estable y no se necesita
recalibrar el sistema, así Baltsavias y Waegli (1996) indican como en el Agfa Horizon
se mantienen valores después de un periodo de un año.
Para la segunda fase de la calibración se digitalizan las líneas del borde de las
placas y se miden mediante matching por mínimos cuadrados, estableciéndose una
transformación afín para la conversión entre el sistema de coordenadas del escáner
(pixel) y el de la placa calibrada (mm). Los residuos en el eje y de esta transformación
indican los errores en la calibración de estas líneas. Estos errores son debidos
fundamentalmente a errores de posicionamiento, y requieren la corrección previa de
los errores en el eje y debidos a la distorsión tangencial. En la Tabla 3.20 se muestran
los resultados tras la corrección de los errores detectados en el proceso de calibración
y son comparables con los mostrados en la Tabla 3.19.
Los resultados obtenidos muestran importantes mejoras en la calidad de los
resultados alcanzándose en los dos primeros casos precisiones entre 4 y 7 µm (0.1 a
0.2 píxeles), prácticamente del mismo orden que las alcanzadas en los escáneres
fotogramétricos. Una vez calibrado el escáner podría utilizarse en la práctica totalidad
de trabajos de tipo fotogramétrico, si bien existen los problemas de requerir un
material costoso (las placas de calibración), realizar las medidas y los cálculos para
determinar los errores y, por último, remuestrear la imagen de acuerdo a las
posiciones corregidas con la pérdida de calidad que todo remuestreo conlleva.
Uno de los problemas más frecuentes en los escáneres de sobremesa es la
existencia de desplazamientos entre los diferentes canales de color (RGB) que afectan
a la nitidez de la imagen final. Para comprobar este problema se debe digitalizar una
placa de resolución y separar los canales de la imagen. A continuación, se identifican
los puntos en uno de los canales y se miden en el resto mediante correlación por
mínimos cuadrados, comparándose los resultados obtenidos. Este tipo de errores se
debe fundamentalmente a problemas de posicionamiento (en los escáneres de 3
pasadas), problemas cromáticos del sistema óptico (en todos los escáneres) o a errores
en la distancia calibrada entre los CCD (en el caso de los escáneres de 3 CCD). En la
Tabla 3.21 se muestran los resultados de la comprobación en los diferentes escáneres
del test.
194  SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

Tabla 3.20. Resultados de la calidad geométrica de los escáneres tras la calibración (Baltsavias y Waegli,
1996). Valores expresados en µm.

Escáner Ptos RMS Media Máximo absoluto


control
X y x y x y

4 8 8 4 6 22 27
Agfa Horizon
8 7 6 3 0 20 20

4 7 6 5 5 14 16
Sharp JX-610
8 5 4 4 1 14 15

UMAX 4 19 10 -15 2 40 23
Mirage D-16L
8 14 8 -9 1 30 22

4 18 11 8 -5 45 25
Agfa Arcus II
8 16 9 4 3 39 28

UMAX 4 12 6 -6 -1 32 15
PowerLook
8 12 6 -5 1 33 16

Tabla 3.21. Errores de desplazamiento entre los canales R,G,B en imágenes en color (Baltsavias y Waegli,
1996). Valores en µm

RMS Media Máximo Absoluto


Escáner Canales de color
x y x y x y

R-G 18 29 17 28 3 1
Agfa Horizon
R-B 4 20 1 19 1 32

R-G 7 4 -7 -3 1 7
Sharp JX-610
R-B 10 2 -9 2 1 4

R-G 5 19 4 15 1 47
UMAX Mirage D-16L
R-B 10 16 9 -9 2 43

R-G 2 9 0 7 6 22
Agfa Arcus II
R-B 4 10 -1 -6 1 23

Como se puede comprobar los errores son importantes, en especial, en los


escáneres que realizan tres pasadas para la digitalización de originales en color. Los
errores son mayores en la dirección y debido a problemas de posicionamiento del
sensor. Es necesario tener en cuenta que este test ha sido realizado para un superficie
muy reducida (1x1cm) situada en el centro del escáner, siendo previsible que los
errores sean mayores en los bordes debidos a los problemas cromáticos de los
elementos ópticos del escáner.
Un aspecto fundamental que se debe comprobar en los escáneres no
fotogramétricos es su comportamiento radiométrico, en particular, el rango dinámico,
FOTOGRAMETRÍA DIGITAL   195 

la linealidad de la respuesta y el ruido. Para ello, se digitaliza una cuña de grises


realizando el ajuste de forma automática y se selecciona una zona del interior de cada
nivel de densidad (en torno a 150x150 píxeles). La primera operación consiste en
eliminar los píxeles afectados de ruido, para ello, se suprimen de los cálculos todos
los píxeles con valores digitales no incluidos en el rango definido por la media " 3
veces la desviación típica.
En la Tabla 3.22 se muestran los valores digitales alcanzados por los diferentes
escáneres para los niveles de densidad de la cuña.
Tabla 3.22. Calibración radiométrica con la cuña de grises (Baltsavias y Waegli,1996)
UMAX Mirage UMAX
Agfa Horizon Agfa Arcus II Sharp JX-610
D D-16L PowerLook
ND σ ND σ ND σ ND σ ND σ
0.05 248.9 1.0 255.0 0.1 255.0 0.0 255.0 0.0 219.9 1.7
0.20 177.0 1.7 199.2 1.6 221.5 2.4 209.5 2.6 161.6 2.0
0.35 128.6 1.1 151.4 1.5 150.2 1.8 140.0 1.9 117.2 1.7
0.51 95.1 0.9 113.7 1.4 100.1 1.4 92.6 1.5 83.5 1.4
0.66 74.2 0.9 87.4 1.2 68.5 1.1 63.5 1.2 60.7 1.2
0.80 60.1 0.7 68.3 1.1 47.9 0.9 44.6 0.9 45.2 1.0
0.96 48.2 0.7 52.1 1.0 32.5 0.7 30.5 0.7 32.8 0.9
1.12 38.2 0.7 39.7 0.9 22.0 0.6 20.7 0.6 23.9 0.7
1.28 29.1 0.8 30.7 0.8 15.3 0.6 14.1 0.5 17.7 0.7
1.44 21.8 1.2 23.8 0.7 10.7 0.5 9.9 0.4 13.6 0.6
1.59 15.9 0.7 18.6 0.7 7.7 0.5 7.1 0.3 10.9 0.6
1.75 11.7 1.0 14.9 0.6 5.8 0.4 5.1 0.3 8.9 0.5
1.90 8.6 1.1 11.5 0.7 4.4 0.5 3.9 0.3 7.6 0.6
2.05 5.9 1.4 9.5 0.6 3.5 0.5 3.0 0.1 6.7 0.5
2.22 3.7 1.1 7.8 0.7 2.9 0.3 2.2 0.4 6.0 0.5
2.37 2.8 0.8 6.4 0.7 2.3 0.5 2.0 0.2 5.5 0.5
2.52 2.2 0.9 5.5 0.7 2.0 0.3 1.6 0.5 5.2 0.5
2.67 1.8 1.0 4.9 0.7 1.9 0.4 1.2 0.4 5.1 0.5
2.82 1.4 1.1 4.5 0.7 1.8 0.4 1.1 0.3 4.9 0.5
2.95 1.2 1.1 4.2 0.8 1.7 0.5 1.0 0.2 4.8 0.5
3.09 1.1 1.1 4.0 0.8 1.6 0.5 1.0 0.1 4.7 0.5
Los valores en negrita marcan el nivel correspondiente al máximo rango dinámico

3.4.5. Análisis de coste y beneficios de sistemas escáner


En el mercado existe una amplia gama de sistemas escáner, con diferentes
características, tanto en precio como en capacidad de trabajo. En la Tabla 3.23 se
resumen algunos de estos equipos indicando el precio aproximado, la casa
distribuidora, la plataforma de trabajo así como las especificaciones técnicas más
importantes.
De esta lista un equipo de características y costes intermedios podría ser el Vexcel
VX5000. Para comprobar la rentabilidad de la inversión se debe comparar con otro
medio de adquirir las imágenes digitales como por ejemplo, la contrata del servicio,
con precios que pueden oscilar en torno a las 2000 ptas/fotografía (fotografía en color
con 21 µm de resolución espacial).
Un aspecto fundamental en este análisis es la cantidad de fotografías que será
necesario procesar al día. Para este ejemplo supondremos que disponemos de un
196  SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

único equipo de restitución y que el ritmo de trabajo está en torno a 1 modelo/día con
lo cual será necesario digitalizar una fotografía al día (la otra será común a otro
modelo). El número de años necesario para la amortización del scanner se obtiene
mediante:
Coste por fotografía: 12€
Fotografías/día: 1 Fotografías/año: 240
Coste anual: 12€/foto x 240 fotografías/año = 2880 €/año
Coste del sistema: 45000€
Años para amortizar: 45000€ / 2880€/año = 15.6 años
Tabla 3.23. Precios aproximados y características de los escáneres fotogramétricos más frecuentemente
empleados (modificado de Baltsavias, 1998)
Precio Total Sistema y Distribuidor Características
(€) (área, resolución, velocidad, sensor), Y
130.000 Z)I Photoscan 2002 27.5x25cm; 7-224µm; máx. 4 Mb/s
(ZI Imaging) CCD color Kodak trilineal 10200 pix
150.000 Leica DSW 600 26.5x26.5cm; mín 4 µm
(Leica Helava Systems) Kodak Megaplus 1.6i, 4.2i, 6.3i
45.000 Vexcel UltraScan5000 28x44cm; min 5 µm; 0.83 Mb/s
(Vexcel Imaging GmbH) CCD color trilineal 6000 píxeles
50.000 RasterMaster RM-2 25x25cm; min 10µm; 1.2Mb/s
(Wehrli & Assoc) Matriz lineal con 20482 sensores
32.500 Delta-Scan 30x30cm; min 7 µm; 0.13 Mb/s
(Geosystem) Matriz Sony 3x5300x8

Evidentemente, la amortización de un equipo de estas características tanto en


posibilidades de utilización como en coste es un poco compleja, siendo
exclusivamente aconsejable para empresas u organismos con elevada producción (con
un máximo de 10 fotografías/día), caso en el cual la inversión sería mucho más fácil
de amortizar. En la Tabla 3.24 se muestra la influencia de la producción diaria en el
periodo de amortización del sistema de digitalización.
Tabla 3.24. Periodo de amortización de un escáner fotogramétrico en función del coste del equipo y
del número de fotografías procesadas diariamente
Coste Número de fotografías procesadas diariamente
€ 2 fotos 4 fotos 6 fotos 8 fotos 10 fotos
150.000 26.0 13.0 8.7 6.5 5.2
130.000 23.4 11.7 7.8 5.9 4.7
50.000 8.7 4.3 2.9 2.2 1.7
32.500 5.6 2.8 1.9 1.4 1.1
Los cálculos han sido establecidos considerando 240 días laborables al año y considerando constantes el
precio de la imagen digitalizada a 12€/foto ya que el incremento del coste de la vida se puede considerar
compensado por el incremento en la competencia del sector en lo referente a trabajos de digitalización.
FOTOGRAMETRÍA DIGITAL   197 

ANEXO 3.1. EJEMPLOS DE ESCÁNERES EMPLEADOS EN


FOTOGRAMETRÍA
En este anexo se incluye información técnica referente a algunos de los escáneres
fotogramétricos más empleados en la actualidad. Evidentemente, es complicado el
mantener al día una relación de este tipo dentro de un mercado que está sufriendo una
renovación constante. El único objetivo de la misma es proporcionar una visión
general de los instrumentos empleados para la digitalización de imágenes analógicas,
al respecto se recomienda el acceso a las páginas web de las empresas distribuidoras
para la obtención de la información actualizada.
- ZI Imaging http://www.ziimaging.com
- Leica Geosystems http://www.gis.leica-geosystems.com
- Vexcel Imaging Co. (USA) http://www.veximg.com
- Vexcel Imaging GmbH (Austria) http://www.vexcel.co.at
- Wehrli & Associates rm1wa@aol.com
- GeoSystem http://www.vinnitsa.com/geo

1. ZI Imaging PhotoScan
Este es el escáner fotogramétrico más difundido en nuestro país. Su diseño es fruto
de la colaboración entre Intergraph y Carl Zeiss, previa a la fusión de ambas marcas.
El escáner está compuesto por la unidad de digitalización y un ordenador funcionando
en entorno Windows NT que hace las funciones de estación de trabajo (fig.A3.1).

Fig.A3.1. Escáner PhotoScan de Z)I Imaging. Se puede observar el ordenador de control y la unidad de
digitalización equipada con rollos para alimentación automática (ZIImaging, 2003)
198  SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

1. Unidad de digitalización
La unidad de digitalización incorpora los elementos óptico-mecánicos con
desplazamiento en una dirección y la cámara CCD y el sistema de iluminación con
desplazamiento en la otra dirección.
El sistema mecánico se basa en el restituidor analítico Zeiss Planicomp y permite
la digitalización de fotogramas de tamaño máximo de 250x275mm (fig.A3.2).

12
11
13 14

8 15
7

16 2 3

5 6
10
4

Fig.A3.2. Esquema del escáner Z)I Imaging PhotoScan. 1: Chasis de aluminio, 2: Guía y carro primario, 3:
Codificador lineal, 4: Carro secundario, 5: Sistema óptico de lentes, 6: Módulo del sensor, 7: Portaplacas,
8: Tapa de vidrio, 9: Sistema de iluminación, 10: Fibra óptica, 11: Portarrollos, 12: Bobina de película, 13:
Tapa externa, 14: Tapa del instrumento, 15: Panel de control, 16: Sistema electrónico (Z)I Imaging, 2003)

El escáner permite la digitalización de negativos y diapositivas, tanto en color (o


infrarrojo color) como en blanco y negro con una resolución mínima de 7 µm y que
podrá ser ajustada por el operador en 14, 21, 28, 56, 112 y 224 µm mediante un
sistema de agregación de píxeles, con una precisión geométrica de 1 µm y con una
exactitud superior a 2µm por eje (RMS). El sistema de digitalización se basa en el
empleo de una placa móvil que se desplaza sobre el sistema de iluminación/captura de
datos.
El sistema incorpora un sistema de iluminación halógena de 150W que ilumina la
placa mediante un cable de fibra óptica para evitar el calentamiento de la placa y las
consecuentes deformaciones en la película. El sensor que incorpora es de tipo trilineal
con una anchura de barrido de 39.424mm, que permite cubrir la superficie máxima en
sólo 6 pasadas, con un tiempo de escaneo inferior a 6 minutos para una fotografía
aérea de formato 23x23cm con una resolución de 14 µm en color. La profundidad
radiométrica es de 10 bits/canal con un rango dinámico de 2.5D, que permite obtener
salida de 8 ó 12 bits para imágenes en tonos de gris y de 24 ó 36 bits para imágenes
en color.
El PhotoScan permite como opción la instalación de un sistema de digitalización
desatendida de rollos de película (fig.A3.3) mediante un sistema de proceso por lotes
FOTOGRAMETRÍA DIGITAL   199 

que permite el control de los parámetros de la digitalización y el control del avance.


El sistema incorpora un software, denominado AutoScan que realiza de una forma
automática las siguientes funciones:
- Control de la película (avance, salto de imagen, rebobinado, Y).
- Registro de la imagen (tiempos de digitalización inferior a 6 min, color 14µm)
- Medida de las marcas fiduciales (orientación interna automática)
- Ajuste radiométrico (dodging)

Fig.A3.3. Sistema de digitalización por rollos del Photoscan (Z)I Imaging, 2003)

2. Leica DSW600
Este escáner fotogramétrico fue lanzado al mercado en Agosto del 2002. El
DSW600 se ha construido como desarrollo de la serie DSW que comenzó con el
sistema DSW200 y tuvo su continuidad con los modelos 300 y 500.
El DSW600 (fig.A3.4) es un sistema para la digitalización de diapositivas y
negativos en color y blanco/negro, tanto en rollo como en formatos sueltos,
produciendo imágenes digitales de precisión fotogramétrica para su utilización en
sistemas fotogramétricos digitales.

Fig.A3.4. Izq.: Escáner Leica DSW600; Der.: Interior del DSW en el que se puede observar
el sistema de iluminación y de rollo automático (Leica Geosystems, 2003)

En el desarrollo de este modelo se introducen como novedades más importantes,


las siguientes:
200  SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

- mejora de la automatización y digitalización eficiente a partir de rollo de


película.
- utilizar la tecnología básica del sistema DSW200/300/500 (placa móvil,
cámara fija, ...).
- mejorar el rendimiento de los sistemas DSW200/300/500 introduciendo
cámaras con matrices de mayor tamaño.
- utilización de componentes más modernos para conseguir mejores costes y
un mantenimiento más económico.
- posibilidad de incorporar lentes que permiten la digitalización con tamaño
de píxel entre 3 y 4.5µm.
- mejora de calidad de digitalización en zonas oscuras homogéneas
En la tabla A3.1 se resumen la evolución de las características técnicas de los
escáneres de la gama DSW.
Tabla A3.1. Características técnicas de los sistemas DSW
DSW100 DSW200 DSW300 DSW500 DSW600
(1989) (1995) (1997) (1999) (2002)
CCD 0.25 (x2) 4.2 1.6, 4 1.6, 4.2, 6.3 6.3
(Mpix)
Tamaño 12.5/25 5/15 4/20 4/20 4
pixel (µm)
Bits 8 10 10 10 12
Iluminación 25W halógena 175W xenón 175W xenón 10W 10W xenón
xenón strobe strobe
Ordenador MicroVAX SunSparc50MH Sun Ultra Sun / PC PC 2.4GHz
25 MHz z 250 Mhz 500 Mhz 2Gb
16 Mb 80 Mb 128 Mb 512 Mb
Tiempo 60 / 180 10 / 30 5 / 14 3/7 2/4
BN/color
12 µm
Funciones Triangul. Película en Película en Película en Película en
Película cortada rollo rollo rollo rollo
Visualizador Curvas tonales O.Interna O.Interna O.Interna
imágenes Automática Automática Automática
Ajuste Ajuste
radiométrico radiométrico

El sistema consta de los siguientes elementos:


- placa de precisión XY
- fuente de iluminación xenon
- cámara digital Kodak MegaPlus 1.6i, 4.2i or 6.3i con 12 bits de rango
dinámico
- panel de control de usuario
- componentes electrónicos y de suministro energético
- plataforma Windows XP con un PC con doble procesador de altas
prestaciones (mínimo 2x2.4GHz) con 2Gb RAM y discos de alta capacidad.
- incluye software de calibración del soporte, digitalización de la imagen,
medida de marcas fiduciales y digitalización de rollo desatendida.
La modificación más importante que se introdujo en el DSW500 con respecto a
FOTOGRAMETRÍA DIGITAL   201 

los antiguos sistemas DSW200/300 fue el cambio del sistema de iluminación por una
lámpara de xenón continua a una lámpara de xenón estromboscópica. Los escáneres
DSW trabajan utilizando cámaras de matriz rectangular que capturan porciones de
imagen que después son montadas sobre un continuo con un tamaño máximo de
260x260mm. El sistema de control actúa en este sistema sobre los pulsos de luz
mediante los comandos del software, de forma que el usuario tiene total control sobre
los sensores CCD, frente a otros sistemas en los que se controla el tiempo de
integración del sensor. Por otro lado, incorpora un sistema para facilitar el cambio del
tamaño de píxel entre diferentes tamaños de digitalización.
La placa XY es similar en calidad a la que incorporan los comparadores y permite
el posicionamiento independiente para cada eje, alcanzando unas prestaciones muy
elevadas con un mantenimiento periódico muy reducido. La base del sistema la
constituye la cámara digital de Kodak Megaplus, pudiendo elegirse entre los modelos
de 1.6, 4.2 y 6.3 megapíxeles, con un diseño planteado para la reducción de la
distancia entre la fuente de iluminación y la cámara de forma que no se utilizan
espejos y lentes para modificar los rayos. Por otro lado, tanto la placa como el sistema
óptico se ha aislado para eliminar el polvo y la suciedad y evitar que existan reflejos
de luz extraña en el sistema durante la digitalización. La iluminación se instala
separada de la placa y de la cámara para eliminar las deformaciones producidas por el
calor.

Características técnicas
Tecnología de digitalización: Placa móvil XY y CCD matricial fijo.
Resolución geométrica: 0.5 µm
Precisión geométrica: Error medio cuadrático inferior a 2 µm en cada eje
Tamaño máximo de formato: 260 x 260 mm
Velocidad de desplazamiento máxima: 100 mm/s
Sistema de alimentación por rollo con diámetro máximo de 194mm, longitud
máxima de 152m, con anchura de la película de 70 a 240mm. Tiene una velocidad
de desplazamiento máximo de 100mm/s con tiempo de rebobinado de 5 minutos
para un rollo de 152m y con una velocidad de avance de la película superior a
0.3m/s.
Sistema óptico y electrónico: Iluminación por lámpara de xenón con rueda de
filtro de color y cámara digital Kodak Megaplus con tamaño del sensor de 9 µm.
Incorpora una lente Schneider 120 mm, con corrección de color.
Tamaño de pixel de la imagen entre 4 y 20 µm (rango de variación continua) con
una resolución óptica de 33 lp/mm para 15 µm, 40 lp/mm para 12.5 µm, 100
lp/mm para 5 µm.
Rango radiométrico entre 0.1 y 2.5D con resolución de 0.01D a 1.0D.
Tiempos de digitalización inferiores a 2 minutos para la digitalización de un
fotograma en tonos de gris a 15 µm y 4 minutos para fotograma en color.
3. Vexcel VX4000
El escáner VX4000 ha sido diseñado y es comercializado por Vexcel Imaging Co.
(Boulder, Colorado). El VX4000 es un escáner diseñado para la digitalización de
imágenes para trabajos fotogramétricos, de procesamiento de imagen o de sistemas de
202  SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

información geográfica. Este escáner presenta una gran flexibilidad en cuanto al


tamaño de la película, tipo de película y resolución deseada (figura A3.5).

Fig.A3.5. Escáner VX4000 de Vexcel Imaging Co. (Vexcel Imaging Co., 2000)

Este sistema está compuesto del escáner, el ordenador de control y del monitor de
visualización en tiempo real. El escáner se caracteriza por ser un escáner plano de tipo
vertical y de gran formato cuyos movimientos y captura de imágenes se realizan
mediante un ordenador de control que tiene la ventaja de la observación en tiempo
real de la imagen capturada lo que permite la selección precisa de regiones de interés
en la digitalización.
El sistema permite la digitalización de imágenes tanto monocromas como en
color, con un tamaño que puede alcanzar 254x508mm, con resoluciones entre 7.5µm
y 210µm con incrementos de 0.1µm sin necesidad de remuestreo posterior. Por otro
lado, permite la incorporación de un sistema de rollos para la digitalización
desatendida.
Tecnología
Una de las características principales del Vexcel VX4000 son las innovadoras
soluciones que plantea en cuanto a su diseño, tanto a nivel de hardware como de
software. La precisión geométrica del sistema se obtiene mediante la técnica de la
Areseau@ invisible. El sistema incorpora dos placas de vidrio en las que se coloca la
película, la placa frontal tiene una serie de marcas en el área activa formando una
retícula, estas líneas pueden ser iluminadas selectivamente u ocultadas para
proporcionar un marco de referencia para el alineamiento de la cámara.
La imagen de la retícula se utiliza para el cálculo de la localización de la cámara
en el momento de la captura de la imagen. Esta información se utiliza para corregir la
geometría de la imagen y las distorsiones de la escala que pueden ser introducidos por
la cámara y el objetivo.
La combinación de la malla y el software de procesamiento de la imagen
proporcionan una precisión geométrica muy buena con unos elementos constructivos
de bajo coste. El escáner proporciona un fichero digital que tiene un error máximo de
3µm RMS en el área de 23x23cm de una fotografía aérea estándar digitalizada a una
resolución de 10µm. Con una precisión radiométrica superior a 2 niveles digitales en
el área de 23x23cm.
FOTOGRAMETRÍA DIGITAL   203 

Componentes: Escáner
La característica más peculiar de la unidad de digitalización del VX4000 es la
colocación de la portaplaca en posición vertical, que se coloca frente al sistema de
iluminación que es controlado por un ordenador. Un brazo controla la posición del
sensor que incorpora una matriz de 512x480 elementos (pudiendo instalarse como
opción una matriz 1000x1000 elementos).
Un sistema controla la distancia entre la película y la lente, y entre la lente y el
sensor, permitiendo la modificación de la resolución por un sistema óptico (no por
remuestreo). La resolución elegida es precisa debido a la corrección de escala y de
posicionamiento que se incorpora junto con el sistema de la reseau invisible.
La iluminación es proporcionada por un sistema basado en la técnica del cátodo
frío. Este sistema es controlado con un diodo que regula la luz y asura la estabilidad a
lo largo del proceso de digitalización.
La digitalización de imágenes en color se logra mediante la incorporación de 3
filtros que se introducen en el camino óptico.
Controlador
El VX4000 incorpora un ordenador para el control del movimiento y el sistema de
iluminación. Este ordenador se utiliza para el control del sistema así como el
almacenamiento de las imágenes capturadas, así como la autocalibración del sistema.
Este sistema incorpora un sistema para la digitalización desatendida así como un
programa de aerotriangulación digital funcionando como monocomparador.
Características técnicas:
- Sistema de iluminación: Luz catódica fría con intensidad variable (controlada
por software).
- Sensor: Cámara CCD con objetivo de focal fija y resolución 1024x1024.
- Ordenador e interfaz: Software de control bajo entorno Windows.
- Sistema óptico: Rango de ampliación de 16.5 a 1, con zoom en los 2 ejes.
- Resolución espacial: Variable de forma continua con incrementos de 0.1µm
entre 7.5 µm y 210µm (3400 ppp a 120 ppp).
- Precisión geométrica: 1/3 pixel RMS (RMS de 2.5 µm a resolución de
7.5µm).
- Resolución espectral: Digitalización a 24 bits (color real) o a 8 bits (256 tonos
de gris).
- Uniformidad radiométrica: 2 niveles de gris RMS (modo intensidad).
- Formato: 254x508mm con un ángulo de campo máximo instantáneo de
120x120mm.
- Dimensiones y peso: 750 mm x 585 mm x 830 mm; 77 kg.
- Condiciones ambientales de trabajo: Es un equipo que se adapta al entorno de
una oficina normal sin requerir ninguna instalación especial, aunque se debe
cuidar su limpieza y que no exista polvo ni particulas en el ambiente.
- Software de calibración: Ajuste del tamaño de pixel, Enfoque automático,
Autoposicionamiento, Autocalibración para el ajuste de gris.
204  SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

- Sistema de digitalización mediante rollo (Automated Film Drive -AFD-).


- Velocidad máxima de la película: 200 pies/min
- Longitud máxima del rollo: 1000 pies
- Anchura de la película: 70mm a 9.5"
4. Vexcel UltraScan5000
El UltraScan 5000 (figura A3.6) ha sido diseñado por el Institute for Computer Vision
and Graphics de la Universidad Técnica de Graz y es fabricado por la empresa Wild-
Austria GmbH y comercializado por Vexcel Imaging Austria. Este escáner permite la
digitalización de originales transparentes u opacos de tamaño máximo de
280mmx440mm con una resolución óptica ajustable entre 50 y 5080 ppp (tamaños de
pixel entre 2.5µm y 500µm).

Fig.A3.6. Escáner Vexcel UltraScan 5000. Izq.: Vista general del escáner, Der.: Sistema de digitalización
mediante rollo (Vexcel Imaging GmbH, 2000).

El sistema de captura de las imágenes es una cámara Kodak KL16003 CCD de


tipo matricial con 3*6000 elementos que permite la digitalización de imágenes en
color con una sola pasada dotado de un sistema de refrigeración para asegurar una
respuesta radiométrica homogénea. Para la iluminación incorpora dos sistemas de
iluminación (uno para transparentes y otro para opacos) incorporando una tapa para
eliminar el efecto de la luz ambiental.
El escáner tiene una exactitud geométrica superior a "2µm a resolución de
5080ppp y una repetibilidad mejor de "1µm. Su rango dinámico es de 3.4D y presenta
una uniformidad superior a "1ND a 8bits, permitiendo una salida de imágenes en
color de 36bits con un registro interno de 48bits. El escáner es controlado por un
programa en entorno Microsoft Windows y permite el almacenamiento de las
imágenes en los formatos más habituales (TIFF, RAW, EPS, DCS, SCITEX).
Características Técnicas:
- Precisión Geométrica: +1 a +2 µm mediante Acalibración en tiempo real@ y
Aajuste simultáneo@.
- Resolución Geométrica: Configurable en función del “montaje” entre las
porciones brutas leídas por el CCD.
- Resolución óptica de entrada: 5080ppp ó 5 µm y 882ppp o 29 µm.
FOTOGRAMETRÍA DIGITAL   205 

- Resoluciones de salida: Rango continuo entre 10ppp (2500 µm) y 10160ppp


(2.5µm)
- Rango dinámico de 0 a 3.6D (opcional entre 0.4 y 4.0D)
- Uniformidad superior a 1 nivel digital en 8 bits.
- Digitalización en color real en una sola pasada.
- Materiales transparentes (diapositivas o negativos) u ópacos (contactos), tanto
en color como en blanco y negro.
- Formato útil: 280 mm x 440 mm a resolución 5080 ppp, 330 mm x 440 mm a
resolución 882 ppp, 280 mm x 260 mm con sistema de rollo instalado-
- Software en entorno Windows NT con conexión mediante SCSI-2
- Formatos de salida: TIFF, RAW, EPS, DCS; 8 y 16 bits para separaciones de
color (TIFF16)
- 93 cm x 63 cm x 34 cm; 55 kg

5. Wehrli RM-2 Rastermaster


El RM-2 es un escáner plano de alta precisión diseñado para la digitalización de
imágenes fotogramétricas monocromáticas o en color con un tamaño máximo de
250x250mm. El sistema es controlado por un PC e incorpora programas de
aerotriangulación y ortorrectificación. Este escáner fue presentado en 1992 y
comercializado en 1993, con un precio muy moderado.
Descripción general
El RM-2 consiste en un portaplacas con dos ejes. La imagen es iluminada por una
luz fluorescente, dicha luz es recogida por una lente y reflejada en un espejo de 451
que redirige la luz hacia el sensor. El movimiento es controlado por un sistema de
motor y codificación con una precisión de 0.5µm. Las líneas digitalizadas
individuales son almacenadas en memoria y cuando se completa el barrido se pasa a
disco, reposicionándose para el siguiente barrido.
El sensor utilizado es del tipo de matriz rectangular de 2048x96 elementos con
tamaño de píxel de 13x13µm, de la matriz sólo son empleados 1024 píxeles, los 1024
restantes son empleados para ajuste de la posición efectiva del sensor y para
compensar la iluminación recibida al tiempo que se reducen las necesidades de
memoria a la mitad para cada barrido. La resolución máxima es 12 µm, con una
relación de tamaño próxima a 1:1, para eliminar al máximo la distorsión de la lente.
Las resoluciones menores son alcanzadas mediante la agregación de píxeles tomando
como base el tamaño de 12 µm.
6. XL-10 de ISM
El OrthoVision 950 (figura A3.7) es un sistema de digitalización comercializado
que fue diseñado por XL Vision y actualmente es comercializado por International
SysteMap Corp. Se trata de un sistema de alta velocidad para imágenes en color o
monocromáticas, proporcionando imágenes de alta calidad y excelentes características
geométricas. El tiempo de digitalización para imágenes monocromáticas es de 4.5
minutos, permitiendo la digitalización rápida para la selección de áreas de interés
(ROI) en 20 a 60 s.
206  SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

Fig.A3.7. Escáner XL-10

Configuración del sistema


El XL-10 consiste en una placa de traslación en 1 dimensión, un sistema de
captura, sistema electrónico de control y un ordenador con el software para el manejo
del sistema.
La placa de precisión se desplaza con respecto al sistema de iluminación que
permanece fija, pudiendo admitir tamaños de hasta 25x25cm, e incorporar un sistema
de rollo. El sistema de captura incluye una matriz trilineal de CCD, un conjunto de
lentes y una fuente de iluminación. La matriz CCD consiste en tres matrices lineales
de 8000 elementos que son ensambladas para proporcionar una matriz final de 24000
elementos, además cada matriz incorpora tres filas de píxeles de forma que se pueda
realizar la digitalización de la imagen en color en una sola pasada. Para formar la
imagen en el sensor se emplea una lente con aumento lateral de 1 para eliminar al
máximo las distorsiones. El sistema de iluminación es una fuente fluorescente para
conseguir el máximo rango dinámico posible (0.1 a 2.4D). El sistema permite
resoluciones ópticas de hasta 10µm, pudiendo reagruparse el tamaño para alcanzar
resoluciones menores (80µm).
El ordenador que controla el sistema es un PC (biprocesador) funcionando bajo
entorno Microsoft Windows con funciones de calibración radiométrica, geométrica,
control del rollo de película y diagnóstico del sistema.
Precisión geométrica
La precisión geométrica del sistema es 3 µm garantizando una buena repetibilidad
y un nivel de error aleatorio muy bajo. El sistema permite la obtención de un modelo
de error mediante la calibración mediante placa de reticulada de 49x49 puntos de
posición conocida (con error inferior a 1µm) y ajuste por mínimos cuadrados. Una vez
realizada la calibración la corrección se basa en el remuestreo de la imagen para
eliminar los errores de posicionamiento.
7. Escáner DeltaScan de Geosystem
Este escáner ha sido diseñado y es fabricado por la empresa ucraniana GeoSystem
y fue presentado en el Congreso de la ISPRS de Viena. Se trata de un escáner que se
comercializa con un precio realmente interesante (aproximadamente 30.000 dólares
FOTOGRAMETRÍA DIGITAL   207 

USA) y que presenta unas buenas prestaciones (fig. A3.8).

Fig.A3.8. Escáner DeltaScan. Izq.: Vista general; Der.: Detalle del interior (Geosystem, 2000)

El escáner está compuesto por un sistema de digitalización que incorpora una


cámara Sony que permite la digitalización de originales en color con una sola pasada
y un sistema de iluminación basado en iluminación mediante una matriz de LED. La
resolución máxima del sistema es de 8µm para el modelo en color y de 7µm para el
modelo en B/N, con errores cuadráticos medios inferiores a "3µm y resolución
geométrica de 1µm. El sistema trabaja con una profundidad de color interna de 12bits
y se convierte a 8bits/canal en el momento del almacenamiento, que puede ser
realizado en los formatos más comunes (TIFF, BMP, Imagen bruta), incorporando el
software ajustes radiométricos automáticos.
El formato de digitalización es de 320x320mm (anchura de 240mm si se emplea
alimentador por rollo) y el tiempo de digitalización está en torno a 20 minutos para
una fotografía de tamaño 230x230mm en color a 16µm y en torno a 10 minutos si la
digitalización se realiza en tonos de gris (8 bits).
8. Escáneres no fotogramétricos
8.1 Agfa Horizon
El Agfa Horizon se trata de un escáner no fotogramétrico en formato A3 de altas
prestaciones que ha sido utilizado para fines fotogramétricos. Actualmente ha dejado
de comercializarse debido a que la empresa Agfa ha cerrado sus líneas de
comercialización de escáneres y de cámaras digitales, si bien existen numerosas
unidades comercializadas aún operativas.
Sus características técnicas más importantes eran:
- Sistema de digitalización compuesta por 3CCD de 5000 píxeles cada uno, que
permiten una resolución espectral máxima de 3x10bits con un rango dinámico
de 3.0 D y una resolución espacial de 1200 ppp.
- El tamaño máximo de digitalización es 297x419mm para materiales opacos
(reflexión) y 217x340mm para transparencias (refracción). El tiempo de
digitalización para una zona de 116x116mm en tonos de gris es
aproximadamente 80s a una velocidad de 0.35Mb/s, con un tiempo de
almacenamiento de 300s (0.1Mb/s).
- Los originales son iluminados por 2 lámparas halógenas de 400w y la captura
208  SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

de la imagen se realiza mediante la incorporación de una lente de 107mm


desarrollada por Agfa.
- El sistema de control puede ser en entorno Mac, PC o UNIX, incorporando en
cada caso software para el pretratamiento de la imagen. Además el escáner
incorpora 8Mb de memoria interna ampliables a 32Mb.
Baltsavias (1996) ha sometido este escáner a pruebas de calibración para obtener
su calidad geométrica y radiométrica con vistas a aplicarlo a la elaboración de
trabajos fotogramétricos, las principales conclusiones de dicho trabajo plantean que la
precisión del escáner tras la calibración es de 10µm (0.5 píxeles) con una calidad
radiométrica muy buena. No obstante, es importante tener en cuenta que el problema
fundamental de este escáner es el mantenimiento de los parámetros de la calibración
geométrica, en especial, el ajuste entre las bandas de color, además es necesario tener
en cuenta que los programas de calibración no son entregados al usuario a la hora de
adquirir el sistema. Delgado y Cardenal (1999) ponen de manifiesto importantes
deficiencias en la digitalización de originales en color a alta resolución por falta de
coincidencia entre los diferentes canales, dando lugar a imágenes poco nítidas con
errores importantes en la orientación interna de las imágenes (superiores a 1 píxel).
8.2 Sharp JX-600
Se trata de un escáner no fotogramétrico que ha sido utilizado para algunos
trabajos fotogramétricos. Es un escáner plano de tamaño DIN-A3 en el que el
documento a digitalizar se sitúa sobre una placa de cristal móvil. Los valores de
intensidad son registrados por un sensor lineal CCD MN3666 con 7500 elementos de
conversión fotoelectrónica de tamaño 6µm. La luz es transmitida desde la placa al
sensor CCD con un sistema óptico consistente en una lente y tres espejos. El factor de
reducción es 4.7 siendo la resolución máxima de digitalización de 42.3µm dando
lugar a una imagen de 10200x7032 píxeles. Las fotografías en color son escaneadas
en una sola pasada mediante una lámpara fluorescente de 3 colores, además el sistema
incorpora una lámpara adicional para la digitalización de transparencias.
Sarjakoski (1992) realiza un ensayo de calibración del escáner poniendo de
manifiesto que la precisión está en torno a 1/5 del tamaño del píxel cuando se utiliza
la resolución máxima de 42.3 µm, observando que la zona de menor distorsión
geométrica es la central y aconsejando únicamente dicha zona para la digitalización
de fotogramas, cuando éstos vayan a ser utilizados con fines fotogramétricos.
Además, plantea la necesidad de la realización de un ensayo de calibración que
permita la modelización del error cometido y su corrección en los trabajos posteriores.
No obstante, el escáner presenta una buena estabilidad y repetibilidad en sus medidas.
FOTOGRAMETRÍA DIGITAL   209 

REFERENCIAS BIBLIOGRÁFICAS
Ackermann,F. (1990). MOMS2000 -eine Strategie Skizze zur zukünftigen optischen Erderkundung aus
dem Weltraum. Univ. Hannover. 79-89.
Ackermann,F. et al.(1990). MOMS-02 a multispectral stereo imager for the second German Spacelab
mission D2. IAPRS, 28(1), 110-116.
Aguttes,J.P. (1990). Capatibilities of a new radar system based on advanced sensor technologies. IAPRS,
28(1a), 1-9.
Ahearn, F.J. et al (1990). A review of remote sensing for tropical forest management to define possible
Radarsat contributions. IAPRS, 28(1), 30-39.
Agfa-Gevaert, Ltd., INFO (1986). Technical Information on Aviophot Pan 200PE and on Aviophot Pan
150PE.
ASPRS/ASCE (1994). Glossary of Mapping Sciences. Bethesda USA, 581 p.
Atkinson, K.B. (1996). Close Range Photogrammetry and Machine Vision. Whittes Publishing, Londres,
372 p.
Baltsavias, E.P. (1991). Multiphoto Geometrically Constrained Matching. Tesis Doctoral. Institute of
Geodesy and Photogrammetry, ETH Zurich, Mitteilungen 49, 221 p.
Baltsavias, E.P. (1996). The Agfa Horizon Scanner. Characteristics, Testing and Evaluation. IAPRS, 30,
I/5. Viena.
Baltsavias, E.P. (1998). Photogrammetric Scanners - Survey, Technological developments and
requirements. IAPRS, 32, 1, 44-52.
Baltsavias, E.P. y Bill, R. (1994) Scanners - a survey of curreent technology and future needs. IAPRS, 30,
1, 130-143.
Baltsavias, E.P. y Waegli, B. (1996). Quality Analysis and Calibration of DTP Scanners. ISPRS
Commision I, Working Group 5. XXX Int. Congress Photogrammetry and Remote Sensing. Viena.
Baltsavias, E.P.; Haering, S.; Kersten, T. y Dam, A. (1998). Geometric and Radiometric Evaluation of the
DSW300 roll film scanner. ISPRS Journal of Photogrammetry and Remote Sensing, 53 (4), 217-234.
Bercha,F.G. y Dechka, J.A.(1990). Airborne digital data acquisition techniques. IAPRS, 28(1), 30-39.
Bethel,J.S. (1995). Geometric alignement and calibration of a photogrammetric image scanner. ISPRS
Journal of Photogrammetry and Remote Sensing, 50(2), 37-42.
Beyer, H.A. (1992a). Accurate Calibration of CCD Cameras. IEEE Computer Society Conference on
Computer Vision & Pattern Recognition 1992 (CVPR92). Champaign, Illinois, Junio 1992, 96-101.
Beyer, H.A. (1992b). Advances in Characterisation and Calibration of Digital Imaging Systems. IAPRS,
29(B5), 545-555.
Beyer, H.A. (1992c). Geometric and Radiometric Analysis of a CCD-Camera Based Phoogrammetric
Close-Range System. Tesis Doctoral. Institute of Geodesy and Photogrammetry, ETH Zurisch,
Mitteilungen, 51, 186 p.
Beyer,H.A. (1995). Digital photogrammetry in industrial applications. IAPRS, 30(5W1), 373-375.
Blouke, M.M. (1995). Charge-coupled devices meet as the test as X-ray detectors. Photonic Spectra,
Nov.1995, 118-120.
Blouke, M.M.; Heidtmann,D.L.; Corrie,B.; Lust,M.L. y Janesick, J.R. (1985). Large area CCD image
sensors for scientific applications. Solid State Imaging Arrays. SPIE 570:82-85.
Burner, A.W.; Snow, W.L.; Goad, W.K. (1985). Close-range photogrammetry with video cameras. Proc.
Technical Papers, 51st American Society of Photogrammetry Annual Meeting, Washington, 62-77.
Chen, L.Ch. Y Lee, L.H. (1990). A systematic approach to digital mapping using SPOT satellite imagery.
Trasnaction of the Chinese Institute of Engineers. Serie D. 2(1): 53-62.
Chen, Y. y Schenk, A.F. (1992). A rigorous calibration method for digital cameras. IAPRS, 29(B-1), 199-
205.
Colvocoresses, A.P.(1979). Proposed parameters for Mapsat. Photogramm.Eng., 45:501-506.
Dam, A. (1994). Results using the Kodak 2000x2000 matrix CCD camera for photogrammetric film
scanning. En: Proceedings OEEPE-ISPRS Joint Workshop on the Analysis of Photo-Scanners,
Lausanne, Suiza.
Dahm, W. et al (1990). Four dimensional laser induced fluorescence measurements of conserved scalar
mixing in turbulent flows. Proceedings del 51 International Symp. on the Application of the Laser
Techniques in Fluid Mechanics, Lisboa, Julio 9-12.
Delamere, W.A.; Ebben, T.; Murata-Seawalt,D.; Blouke,M.M.; Reed,R. y Woodgate,B. (1991). The space
telescope imaging spectograph 20482CCD and its characteristics. Charge Coupled Deviced and Solid
State Optical Sensors II, SPIE 1447: 288-297.
210  SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

Delgado,J. y Cardenal, J. (1999). Calibración del escáner Agfa Horizon Plus de los Servicios Técnicos de
Apoyo a la Investigación de la Universidad de Jaén. Inédito.
Dowman,I. (1992). A digital workstation for SAR data. ISPRS Journal of Photogrammetry and Remote
Sensing. 51.
Ebner,H. et al (1990). A simulation study on point determination using MOMS-02/D2 imagery. IAPRS,
28(1), 21-29.
Eckardt, A.; Braunecker, B. y Sandau, R. (2000). Performance of the imaging system in the LH Systems
ADS40 Airborne Digital Sensor. IAPRS, 33, B1, 104-109.
Fraser, C.S. y Shortis, M.R. (1995). Metric exploitation of still video imagery. Photogrammetric Record,
15(85), 107-122.
Fraser,C.S.; Shortis, M.R. y Ganci,G. (1995). Multi-sensor system self-calibration. Videometrics IV. SPIE
2598: 2-15.
Fricker,P.(1998). Digital Airborne Photogrammetric Cameras -a balance between spatial and spectral
resolution. Inédito.
Fricker, P.; Sandau , R. y Walker, A.S. (1999a). LH System=s Airborne Digital Sensor - a new forward-
looking approach-. ISPRS WG III/1 Workshop ADirect vs. Indirect Methods of Sensor Orientation@.
Barcelona, 25-26 Nov. 10 pág.
Fricker, P.; Sandau, R. y Walker, A.S. (1999b). Development of an Airborne Digital Sensor for
Photogrammetric and Remote Sensing Applications. Información de la compañía.
Geosystems (2000,2003). Página web de la compañía. (http://www.vinnitsa.com/geo)
Gruber, M.; Leberl, F.W. y Thallinger, G. (1998). Novel high-precision photogrammetric scanning.
Proceedings of GIS/LIS=98. Ft. Worth, Texas, USA.
Gruen, A. (1985). Adaptative least squares correlation: a powerful image matching technique.
S.Afr.J.Photogramm., Remote Sensing Cartogr. 14(3), 175-187.
Gruen,A.; Maas,H.G. y Keller, A. (1995). Kodak DCS200 a camera for high accuracy measurements?
Videometrics IV. SPIE 2598: 52-59.
Hall, J.A. (1977). Can solid-state imaging devices replace television camera tube? Optical Engineering,
16(3), 224-232.
Hartl,P. (1989). Remote Sensing and Satellite Navigation: Complementary Tools of Space Technology.
Photogrammetric Record, 13(74), 263-275.
Hinz, A. (1999). The Z/I Imaging Digital Aerial Camera System. En: Fritsch, D. y Spiller, R.,
Photogrammetric Week=99, Wichmann, Heidelberg, Alemania.
Hinz, A.; Dörstel, C. y Heier, H. (2000). Digital Modular Camera: System Concept and Data Processing
Workflow. IAPRS, 33, B2, 164-171.
Hoffman, O. y Náve, P. (1994). DPS- A Digital Photogrammetric System for Producing Digital Elevation
Models and Orthophotos by Means of Linear Array Scanner Imagery. PE&RS, 50(8), 1135.
Höflinger, W. y Beyer, H.A. (1993). Evaluation of the geometric perfomance of a standard S-VHS
camcorder. Videometrics II, SPIE 2067: 104-114.
Im, E. (1990). System concepts for high-resolution land and ice topographic mapping altimeters. IAPRS,
28(1), 88-91.
Jacobsen,K. (1990). Cartographic Potential of Space Images. IAPRS, 28(2), Techn.Univ Dresden,
Germany, 127-134.
James, D. (1992). Integrating EO Capabilities into Existing Film Recce Systems. Proc. of the Int. Soc. for
Optical Engineering, Airbone Reconnaissance XVI, SPIE, 1763: 139-150.
Janesick, J.R. y Hynecek,J. y Blouke,M.M. (1981). Virtual phase imager for Galileo. Solid State Imagers
for Astronomy. SPIE 290: 165-173.
Janesick, J.R. y Blouke, M.M. (1987). Sky on a chip: the fabulous CCD. Sky and Telescope, 74(3), 238-
242.
Janesick, J.R.; Elliott, T.; Dingizian, A.; Bredthauer, R.; Chandler, C.; Westphal, J. Y Gunn, J. (1990). New
advancements in charge-coupled device technology -sub-electron noise and 4096x4096 píxeles CCD.
Charge-Coupled Devices and Solid State Optical Sensors. SPIE 1242: 223-237.
Johnson,H. (1990). High Speed Solid State Camera Systems for Digital Photogrammetry. Videography and
Photonics Working Group of SPIE. OE Reports Octubre 1990.
Klaasen,K.P.; Clary, M.C. y Janesick, J.R. (1984). Charge-coupled device television camera for NASA=s
Galileo mission to Jupiter. Optical Engineering, 23(3), 334-342.
Kersten,J.P. y Maas, H.G. (1994). Digital high resolution still video camera versus film-based camera in
photogrammetric industrial metrology. IAPRS, 30(4), 114-121.
King, D.; Walsh, P. y Ciuffreda, F. (1994). Airborne Digital Frame Camera Imaging for Elevation
FOTOGRAMETRÍA DIGITAL   211 

Determination. PE&RS, 60(11), 1321-1326.


Krzystek, P. y Wild, D. (1992). Experimental Accuracy Analysis of Automatically Measured Digital
Terrain Models. En: Förstner y Ruwiedel (eds.) Robust Computer Vision. Ed. Wichmann Verlag,
Karlsruhe, Alemania, 372-390.
Eastman Kodak Company (1982). Kodak Data for Aerial Photography. M-29.
Kölbl, O. (1994). Scanning and State of the Art in Scanners. En: Mapping and Remote Sensing Tools for
the 21st Century. ASPRS. Washington, Agosto, 26-29. 1994. 7-14.
Kölbl, O y Bach, U. (1996). Tone Reproduction of Photogrammetric Scanners. PE&RS 62(6), 687-694.
Konecny, G. (1990). Review of the latest technology in satellite mapping. Informe interno Inst.
Photogrammetry, Univ. Hannover, 11-22.
Konecny, G. y Schuhr, U. (1990). Progress in radar data analysis. IAPRS 28(3), Wuhan China 358-364.
Kornus, W.; Lehner, M.; Blechinger, F. y Putz, E. (1996). Geometric calibration of the stereoscopic CCD-
linescanner MOMS-2P. IAPRS, 31 (B1), 90-98.
Lee,T.H.; Tredwell,T.J.; Burkey,B.C.; Kelly,T.M.; Khosla,R.P.; Losee,D.L.; Neilsen,R.L. y
McColgin,W.C. (1985). A 360000 pixel charge coupled color image sensor for imaging photographic
negative. IEEE Transactions on Electron Devices, ED-32(8), 1439-1445.
Leica Geosystems (2003). Página web de la compañía (http://www.gis.leica-geosystems.com)
LH Systems (1999). Información de la compañía.
LH Systems (2000). Página web de la compañía (http://www.lh-systems.com)
Light, D.L. (1993). The National Aerial Photography Program as a Geographical Information System
Resource. PE&RS, 59(1), 61-65.
Loedemann, J.H. (1999). DMC: Designed with the End-use in Mind. GIM International. Octubre 1999. 44-
45.
Miquel, J.C. (1987). High Speed Video Recording. Lavoisier Publ.Inc., Nueva York.
Murphy,H., Tyler, T. y Lake, D. (1989). Image Intensifier Modules for Use with Commercially Available
Solid State Cameras. Solid State Cameras Products 1989. Publication of EG&G Reticon. 173-203.
Parulski,K.A.; D=Luna,L.J.; Benamati,B.L. y Shelley,P.R. (1992). High perfomance digital color video
camera. Journal of Electronic Imaging, 1(1), 35-45.
Peipe, J. (1995). Photogrammetric investigation of a 3000x3000 pixel high resolution still video camera.
IAPRS, 30 (5W1), 36-39.
Pettersen,A. (1992). Metrology Norway system -an on-line industrial photogrammetry system. IAPRS,
29(B5), 43-49.
Purll, D.J.(1985). Solid state image sensors. En:Bachelor, B.G.; Hill, A.D.; y Hodgson,D.C. (eds)
Automated Visual Inspection IFS Publications Ltd., Kempston, Bedford, 255-293.
Rosenberg, P.(1955). Information theory and electronic photogrammetry. Photogrammetric Engineering,
21(4), 543-555.
Sandau, R.; Braunecker, B.; Driescher, H.; Eckardt, A.; Hilbert, S.; Hutton, J.; Kirchhofer, W.;
Lithopoulos, E.; Reulke, R. y Wicki, S. (2000). Design principles of the LH Systems ADS40 Airborne
Digital Sensor. IAPRS, 33, B1, 258-265.
Sarjakoski, T.T.(1992). Suitability of the Sharp JX-600 Desktop Scanner for the Digitalization of Aerial
Color Photographs. IAPRS, 29(B2), 79-86.
Sasse,V. et al (1990). Investigations on the radiometric content of SAR. IAPRS 28(3), Wuhan, 816-831.
Schenk, T. (1999). Digital Photogrammetry. vol. I, TerraScience. 428 p.
Schuster, R., 1994: Sensor calibration and geometric calibration of a three line stereo camera. IAPRS, 30,
1, 265-271.
Schuster, R. y Braunecker, B. (2000). Calibration of the LH Systems ADS40 Airborne Digital Sensor.
IAPRS, 33 (B1), 288-294.
Séquin,C.H. y Tompsett,M.F.(1975). Charge transfer devices. Academic Press Inc., Nueva York, 309 p.
Shi,F. (1990). 3-D point positioning using SAR stereo. IAPRS, 28(3), 889-893.
Shortis,M.R.; Snow,W.L.; Childers,B.A. y Goad,W.K. (1993). The influence of storage media on the
accuracy and repeatability of photogrammetric measurements using CCD cameras. Videometrics II,
SPIE 2067: 80-92.
Shortis,M.R.; Snow,W.L. y Goad,W.K.(1995). Comparative geometric tests of industrial and scientific
CCD cameras using plumb line and test range calibrations. IAPRS, 30(5W1), 53-59.
Snow,W.L. y Shortis,M.R. (1995). A rigid body motion analysis system for offline processing of time
coded video sequences. Videometrics IV, SPIE 2598: 220-232.
Streilein, A. y Gaschen, S. (1994). Comparision of a S-VHS camcorder and a high resolution CCD camera
for use in architectural photogrammetry. IAPRS, 30(5), 382-389.
212  SISTEMAS DE ADQUISICIÓN DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

Tempelmann, U.; Börner, A.; Chaplin, B.; Hinsken, L.; Mykhalevych, B.; Miller, S.; Recke, U.; Reulke, R.;
Uebbing, R. (2000). Photogrammetric software for the LH Systems ADS40 Airborne Digital Sensor.
IAPRS, 33, B2, 552-559.
Trinder, J. (1987). Measurements in Digitised Hardcopy Images. PE&RS, 53(3), 315-321.
Trinder, J. (1989). Precision of Digital Target Location. PE&RS, 55(6), 883-886.
Thomson (1988). The CCD Image Sensor. Publicación de la marca Thomson CMS, ref.n1 DB2-CCD-1288.
Vexcel Imaging GmbH (2000). Información de la compañía.
Vexcel Imaging GmbH (2003). Información de la compañía.
Vexcel Imaging GmbH (2003). Página web de la compañía (http://www.vexcel.co.at)
Vieth, C. (1974). Messverfahren der Photographie. R. Oldenbourg Verlag, Munchen-Wien. Focal Press,
London-New York, 108-128.
Walker, A.S. (2000). LH=s Systems forthcoming airborne digital sensor. Información de la compañía.
ZI Imaging (2000). Página web de la compañía. (http://www.zi-imaging.com)
ZI Imaging (2003). Página web de la compañía (http://www.zi-imaging.com)

IAPRS: International Archives of Photogrammetry and Remote Sensing


PE&RS: Photogrammetric Engineering & Remote Sensing
Capítulo 4. Preprocesamiento de Imágenes
Digitales Fotogramétricas

4.1 Sistemas de almacenamiento y manipulación de imágenes digitales


fotogramétricas.
4.2 Compresión de imágenes digitales.
Anexo 4.1. Terminología relacionada con los sistemas de almacenamiento de
imágenes digitales.
Anexo 4.2. Formatos gráficos de almacenamiento de imágenes digitales.
Anexo 4.3. Ejemplo de la estructura de un fichero TIF.

4.1 SISTEMAS DE ALMACENAMIENTO Y MANIPULACIÓN DE


IMÁGENES DIGITALES FOTOGRAMÉTRICAS
Todos los procesos de la Fotogrametría Digital se basan en las medidas
efectuadas sobre las imágenes digitales. Estas imágenes pueden ser obtenidas
mediante la digitalización de fotografías convencionales o bien directamente mediante
la utilización de sensores. Como fue comentado en el capítulo 1, este hecho supone
importantes ventajas, apoyadas en las posibilidades de automatización del proceso,
pero a la vez plantea ciertos problemas, debido a la cantidad de información que es
necesario manipular y almacenar. Por lo que es necesario tener en cuenta las
necesidades de almacenamiento y manipulación, puesto que, en un proyecto
fotogramétrico se pueden llegar a utilizar cientos de modelos, por lo que las
cantidades requeridas pueden saturar en la práctica cualquier sistema.
Por lo anteriormente expuesto, se puede indicar que la previsión del
almacenamiento de la información digital es una de las principales preocupaciones a
la hora de trabajar con imágenes digitales fotogramétricas.

 
213 
214  PREPROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

4.1.1. Sistemas de almacenamiento


4.1.1.1. Discos magnéticos
En estos discos, la grabación de datos se realiza al pasar la superficie del medio
cerca de una cabeza que puede variar la posición del campo magnético. Los discos
magnéticos son dispositivos tipo RAD (read access direct).
La tecnología de almacenamiento en este tipo de periféricos ha sido una de las que
más rápidamente ha evolucionado en los últimos años, así en los últimos años se ha
experimentado una mejora anual en torno al 60% en cuanto a la capacidad. Dicha
mejora es el fruto de las fuertes inversiones en investigación, justificadas por la
importancia del mercado de venta de discos magnéticos. Dentro de este tipo de
sistemas se pueden distinguir básicamente dos tipos: discos duros y discos flexibles
(diskettes).
La capacidad de los discos duros ha evolucionado desde los primitivos 10Mb
hasta las capacidades actuales de varios Gb, con velocidades de acceso que varían
entre los 8 a los 80ms. Uno de los factores determinantes de la velocidad de acceso es
la velocidad de rotación, así por ejemplo, un disco moderno tipo Ultra ATA/100 de
82Gb (Maxtor Diamond 80Gb) con tiempo de acceso medio inferior a 8ms debe tener
una velocidad de giro de 5400rpm permitiendo una transferencia de datos de
100Mb/s.
La evolución del espacio de almacenamiento en los discos duros ha dado lugar a
lo que se conoce como la ley de Murch que plantea que cada 18 meses la relación
espacio de almacenamiento/precio se mejora en un factor de 2.
En el caso de que se requiera una elevada capacidad de almacenamiento se pueden
utilizar baterías de discos duros que se conectan mediante un sistema SCSI (Small
Computer System Interface) y que poseen posibilidades RAID (Redundant Arrays of
Inexpensive Disks). De esta forma se pueden alcanzar capacidades de hasta 423Gb,
cifra alcanzada en la batería que puede instalarse en opción en el escáner Z/I
Photoscan 2000 (Z/I Imaging, 2000).
La capacidad de los discos flexibles es sensiblemente más reducida entre 180Kb y
270Mb, además son considerablemente más lentos que los discos duros y menos
fiables, motivos por los que son escasamente utilizados para almacenamiento de
datos.
4.1.1.2. Discos ópticos
Los discos ópticos son sistemas tipo RAD en los que la información es leída y
escrita mediante un sistema luminoso (usualmente un láser).
Dentro de este tipo se pueden distinguir distintos tipos de tecnologías, la más
conocida de las cuales es la WORM (Write Once Read Many), es decir, sistemas que
permiten una sola escritura y múltiples lecturas. En los sistemas WORM, un haz de
rayo láser codifica la información y realiza perforaciones en la superficie del medio
(CD), permitiendo una sola escritura y múltiples lecturas. El CD tiene un diámetro
estándar de 120mm y en la actualidad constituye uno de los sistemas más populares
FOTOGRAMETRÍA DIGITAL   215 

de almacenamiento de datos, con una capacidad máxima que usualmente es de 700Mb


(80 minutos de grabación de audio convencional), aunque actualmente existen CD
que permiten grabaciones incluso superiores a 1Gb. El coste de las unidades de
grabación ha bajado drásticamente en los últimos años de forma que es posible
adquirir una grabadora/regrabadora de CD por una cantidad en torno a 60€. El
principal inconveniente de este sistema es su velocidad de transferencia de datos, si
bien ha de tenerse en cuenta que la misma se va duplicando cada año, siendo
actualmente (2003) en torno a 7.6Mb/s (x52). La denominación de las unidades es en
función del CD-ROM de velocidad simple (0.2Mb/s).
A partir de 1995, se comienza la investigación de un nuevo sistema que será el
sustituto de los CD-ROM actuales y que se denomina Digital Versatile Disc (DVD) y
que inicialmente se planteó como un sustituto de las cintas de video VHS, si bien
debido a sus características de almacenamiento se presenta como una opción muy
interesante para el almacenamiento de información digital. Las características
externas con prácticamente nulas, residiendo las diferencias en la forma de
almacenamiento de la información en el disco. En ambos sistemas la información se
almacena de una forma circular secuencial accediendo a la información desde el
interior al exterior del disco. Dentro de la pista existen una serie de hendiduras
producidas por un láser que marcan los 0 y 1, la diferencia reside en que el espaciado
entre las pistas es menor pasando de 1.6µm a 0.74µm siendo el tamaño mínimo de la
marca producida también menor (0.4µm frente a 0.83µm).
Aunque el esquema de almacenamiento previsto inicialmente para los DVD
presentaba diferentes posibilidades que llegaban hasta los 17Gb (grabación en dos
capas y dos caras), actualmente la capacidad está limitada a 4.7Gb. Los formatos para
el almacenamiento de información en DVD son tres: DVD+R, DVD-R y DVD-
RAM, con las correspondientes versiones regrabables DVD+RW, DVD-RW. Los más
empleados por los usuarios son los dos primeros como consecuencia de su mayor
compatibilidad (entre el 70% y el 88% con los reproductores de sobremesa). En los
últimos meses se han popularizado las unidades grabadoras/regrabadoras de DVD con
unos precios en torno a 300€.
La velocidad de lectura/grabación de estos sistemas se expresa en relación con la
velocidad unitaria establecida en 1.5Mb/s (equivalente a un CDx10), existiendo en la
actualidad sistemas que permiten la lectura a velocidades de escritura hasta los 5412
Kb/s (x4). El enorme mercado de estos periféricos produce un desarrollo espectacular
en los mismos, en la actualidad las líneas de trabajo planteadas van encaminadas al
aumento de la velocidad de giro de los discos lo que permite alcanzar velocidades de
escritura hasta de 176Mb/s y, por otro lado, a la utilización del láser azul que
permitirá disponer de discos con capacidades de 20Gb con velocidades de copia que
rondarán los 20x.
En la Tabla 4.1 se resumen los formatos de almacenamiento más empleados en la
actualidad indicando además información sobre el precio del almacenamiento,
posibilidades de reescritura y periféricos compatibles.
Los discos ópticos removibles funcionan de una forma similar que los sistemas
magnéticos en el sentido de que la información puede ser rescrita repetidas veces.
216  PREPROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

Dependiendo del sistema de grabación, los discos ópticos removibles se clasifican en


discos magneto-ópticos y discos de cambio de fase.
Tabla 4.1. Soportes de almacenamiento (PC Today, nº71)
Tipo de disco Coste por 100Mb Veloc.máx.escritura Nº de rescrituras Lectores compatibles
DVD-R Desde 0.04€ 6.3Mb/s (4x) - DVD-ROM, HomeDVD
DVD-RW Desde 0.12€ 3.1Mb/s (2x) 1.000 DVD-ROM, HomeDVD
DVD+R Desde 0.06€ 3.7Mb/s (2.4x) - DVD-ROM, HomeDVD
DVD+RW Desde 0.15€ 3.7Mb/s (2.4x) 1.000 DVD-ROM, HomeDVD
DVD-RAM Desde 0.28€ 3.1Mb/s (2x) 100.000 DVD-ROM con “caddy”
CD-Audio, MP3, DVD,
CD-R Desde 0.06€ 7.6Mb/s (52x) -
DVD-ROM, CD-ROM
CD-Audio, MP3, DVD,
CD-RW Desde 0.20€ 3.5Mb/s (24x) 1.000
DVD-ROM, CD-ROM
Diskette 3 ½” Desde 13.80€ 0.02Mb/s Más de 10 Unidades disco 3 ½”

En los discos magneto-ópticos, la información se graba mediante una acción


combinada del efecto del calentamiento de un láser y la influencia de una polarización
direccional del campo magnético. Cuando el material del disco se enfría la
polarización direccional de los datos puede ser decodificado por un láser. Este tipo de
grabación puede ser reversible.
En los sistemas de cambio de fase, el material del disco es una aleación que posee
dos fases de propiedades ópticas diferentes. Para la grabación de datos, un pulso láser
de alta intensidad funde un punto específico de la superficie del disco. El punto
enfriado forma una marca de fase, cuya reflectividad es distinta que la de los que le
rodean. La información escrita puede ser entonces leída mediante una decodificación
de las reflectividades. Este sistema es más interesante que los magnetoópticos en
cuanto a simplicidad, consumo energético y tamaño del sistema aunque tiene el
problema de que el número máximo de escrituras está en torno a 50000 veces frente a
las más de un millón de los magnetoópticos. Ambos sistemas son incompatibles,
requiriendo disponer de periféricos específicos.
Los discos ópticos utilizan láser infrarrojo, con una longitud de onda de 780nm y
permiten la escritura de 2Gb en un disco de 5.25". Esta capacidad puede ser
aumentada si se utilizan láseres de otras longitudes de onda (650nm -rojo- ÿ 3Gb;
415nm -azul- ÿ 5Gb). Al igual que sucedía en los sistemas magnéticos es posible el
montar baterías de discos (entre 4 y 10 lectores). Estas librerías ópticas tienen
capacidades entre 20 y 200 Gb, y están dotadas de un sistema automático que realiza
el cambio automático de los discos, controlado por un complejo sistema de software.
El tiempo de acceso medio está en 19 a 25 ms, y son los sistemas ideales para los
usuarios que requieran gran capacidad de almacenamiento o bien para sistemas de
redes. Su precio varía en función de su capacidad y velocidad, entre el 6000€ de un
sistema de lector simple y batería 16 discos ópticos y los 42000€ de un sistema de144
discos con 4 lectores.
FOTOGRAMETRÍA DIGITAL   217 

La ventaja principal de este tipo de discos es su robustez y fiabilidad con una


velocidad de acceso aceptable (20-50 ms).
4.1.1.3. Sistemas de cinta
Las cintas son otro tipo de almacenamiento magnético de datos que presenta la
ventaja de permitir el transporte de la información. Las unidades lectoras de cinta son
más económicas que los sistemas ópticos pero son considerablemente más lentas,
valga como referencia el hecho de que mientras que la velocidad de acceso a un disco
duro o a una unidad óptica se mide en ms para la unidad de cintas se mide en decenas
de minutos. Este es el motivo por el cual estos sistemas son empleados como sistemas
de backup (salvaguarda de datos) y no permitiendo en la mayor parte de los casos el
acceso directo a los mismos.
Los sistemas de cinta más empleados en la actualidad son las cintas de 8mm de la
Exabyte Corp.; las cintas de 4mm del tipo audio digital (DAT-digital audio tape-) de
Hewlett Packard y las cintas DLT también de Hewlett Packard. El almacenamiento es
de 5Gb (sin compresión de datos) para las cintas tipo Exabyte, de 24 Gb con
velocidad de acceso de 7.2 Gb/hora, para las cintas DAT y de 70Gb para el tipo DLT.
Los sistemas de cinta doble proporcionan una elevada capacidad y velocidad de
transmisión. Dos ejemplos de este tipo son el Encore Plus Tape Array (EPTA) de
Andatco Corp. y el CY-ASP de Cybernetics. Ambos sistemas utilizan cintas Exabyte
con compresión de datos. El EPTA tiene una capacidad de hasta 50Gb con dos
lectores con compresión de datos y una velocidad de transferencia de 1.5Mb/s. El CY-
ASP tiene una capacidad máxima de 70Gb con 2 cintas de 8mm con compresión de
datos y velocidad de 3.67Mb/s.
Los sistemas más sofisticados son las librerías de cintas, que pueden ser de acceso
secuencial o aleatorio, incorporando un sistema de control automatizado para el
intercambio de cintas, pudiendo alcanzarse capacidades entre 25Gb y 1.2Tb.
4.1.1.4. Almacenamiento holográfico
En 1991, un grupo de científicos de Stanford publicaron el desarrollo de un
sistema de almacenamiento mediante técnicas holográficas. En este sistema los datos
son convertidos en patrones de luz, las ondas de luz entran en un medio
fotorrefractivo, produciendo una modificación a nivel microscópico de la carga
eléctrica que afecta finalmente al índice local de refracción. Para la lectura de los
datos, se emplea un sistema láser y un elemento CCD. Los resultados expuestos
fueron modestos, con un almacenamiento de 163Mb y 6.3 Mb/s de transferencia, pero
plantean la posibilidad de alcanzar almacenamientos de varios Tb con velocidades de
1Gb/s.
4.1.2 Manipulación de datos en Fotogrametría Digital
Uno de los problemas prácticos más importantes dentro de la Fotogrametría
Digital es el almacenamiento y la manipulación de la enorme cantidad de datos que
conlleva el manejo de información digital de calidad, desde las imágenes originales
hasta los resultados finales (ortofotografías, mapas digitales, Y) pasando por todas las
etapas intermedias que multiplican los volúmenes originales.
218  PREPROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

Fig.4.1. Dispositivos de almacenamiento de información: a) Batería de discos duros con capacidad total de
45Gb, b) Disco óptico multifunción de 1.3Gb, c) Sistemas de discos ópticos múltiples de 16 y 144 discos,
d) a f) Sistemas de backup de cinta múltiple

Se han planteado diversas soluciones a este problema. La primera, es la


adquisición de sistemas de almacenamiento magnéticos u ópticos individuales para
cada estación digital. La segunda, es la compra de un sistema de almacenamiento de
gran capacidad al que se conectarán las estaciones en un sistema de red. La tercera
solución es incorporar un sistema de almacenamiento jerárquico (HSM -hierachical
storage management-). Por último, se puede optar por eliminar las imágenes una vez
procesadas.
La primera solución puede ser viable para empresas de tamaño pequeño que
tengan tan sólo una o dos estaciones digitales. Una estación fotogramétrica ideal debe
estar equipada con un CD-ROM (o DVD-ROM) y un sistema de cinta de 4 ó 8 mm.
Partiendo de que el ordenador está equipado con un SCSI, quedarán disponibles 4
puertos SCSI para la conexión de discos duros. Si se instala un disco del tipo del
Seagate 72Gb, daría lugar a una capacidad total de 288Gb. Teniendo en cuenta que
los precios de los discos duros cada vez son más bajos, en la actualidad pueden rondar
en torno a los 0.02€/Mb, el coste de esta solución sería inferior a 3.000€. Si la
máquina posee más de un canal SCSI (la mayoría de las estaciones de trabajo lo
tienen), habría espacio para alojar un número mayor de discos lo que proporcionaría
una gran capacidad de expansión de la máquina. Una máquina con un buen sistema de
almacenamiento proporciona al operador y a la empresa un buen sistema de
producción, al ahorrar muchas tareas de salvaguarda de datos y restauración posterior.
La segunda opción es el almacenamiento en un sistema central. Esta opción no es
aconsejable en Fotogrametría Digital debido a que incluso siendo el precio de los
discos cada vez más bajo, un sistema de almacenamiento de 1Tb puede costar en
FOTOGRAMETRÍA DIGITAL   219 

torno a 120.000€, sin ninguna capacidad RAID (en el caso de que se incorpore algún
sistema RAID el precio podría ser el doble). Este desembolso inicial es complicado de
justificar, además es necesario tener en cuenta los elevados costes de mantenimiento
de un sistema de este tipo y el corto ciclo de vida de un disco duro, junto con el
problema en bloque de la producción en caso de avería en el disco.
El sistema de almacenamiento jerárquico de datos (HSM) es una tecnología
comúnmente utilizada para el almacenamiento de datos en entornos de servidores. En
este tipo, los sistemas de almacenamiento se dividen en 2 ó más niveles. Cada nivel
juega un papel de memoria caché para el siguiente nivel. Es decir, el dispositivo está
compuesto por diferentes unidades de almacenamiento, diferencias que estriban en la
velocidad de acceso y, por tanto, en el coste del mismo (€/Mb), mediante un proceso
transparente al usuario, el sistema automáticamente desplaza los ficheros de una
unidad a otra en función de un criterio predeterminado (basado en la frecuencia de
acceso), cuando el fichero es desplazado en su lugar se almacena un fichero de
referencia de un tamaño mucho menor que va indicar el lugar al cual se ha desplazado
el fichero original (stub file), cuando el sistema intenta acceder a algún fichero situado
en un nivel bajo automáticamente se le traslada al nivel superior (más rápido). El
coste de un sistema HSM compuesto de un disco duro múltiple de 420Gb y un
sistema de cintas automatizado de 1.6Tb incluyendo el software es inferior a
150.000€.
La última opción de digitalización-procesado-borrado es una solución que cada
vez es más viable teniendo en cuenta que cada vez los escáneres son más rápidos, así
se puede digitalizar una fotografía de 23x23cm con un tamaño de 12.5µm en un
tiempo aproximado de 5 minutos (tiempo en un escáner lento puede llegar a ser 1
hora). Los tres principales inconvenientes de esta opción son que los escáneres
rápidos son todavía sistemas muy caros; por otro lado, se requiere el traslado de las
imágenes desde el sistema de digitalización al sistema de procesamiento
fotogramétrico y por último, esta opción requiere repetir ciertos procesos (orientación
interna, por ejemplo).
Otro aspecto necesario en el proceso fotogramétrico es el archivo de resultados.
Los discos magnetoópticos, los CD-R (DVD-R, DVD+R) y las cintas de backup son
los sistemas más frecuentemente empleados. Un disco óptico de lectura/escritura tiene
una capacidad de 1.3Gb, la unidad de lectura tiene un coste de 450€ y el coste de un
disco virgen es de 30€. Un sistema de grabación de CD-ROM tiene un precio
habitualmente inferior a 200€ y el coste de un CD-ROM virgen es de unos 0.60€. Sin
embargo, el inconveniente más grave que presentan es su capacidad limitada (la
capacidad máxima de un DVD es actualmente de 4.2Gb, cifra que en muchas
ocasiones es insuficiente para el almacenamiento de la información generada en un
proyecto fotogramétrico). Las cintas tipo DAT ó DLT son otro sistema muy popular
de almacenamiento de información, el coste de la unidad está en torno a 18.000€ y el
coste de una cinta en torno a 12€.
Otro problema adicional planteado es la salvaguarda de la información generada,
así se plantea que en un futuro los clásicos almacenes de fotogramas con temperatura
y humedad controladas pasarán a convertirse en archivos de imágenes digitales. La
220  PREPROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

tendencia actual del mercado es el disponer de sistemas de gestión de imágenes que


permitan la cómoda manipulación y control de los enormes volúmenes de
información manejados. Como referencia valga la cifra de que una empresa media
genera un volumen en torno a 20Tb/año.

4.2 COMPRESIÓN DE IMÁGENES


La compresión de las imágenes digitales es una necesidad para la mayoría de las
aplicaciones fotogramétricas, en las que suele existir un número considerable de
imágenes de gran tamaño que deben ser almacenadas en un espacio limitado o bien
transmitidas de un sistema a otro.
Para comprender de forma adecuada el concepto de compresión de archivos o
imágenes digitales, es necesario recurrir a plantear la diferencia entre información y
datos. González y Woods (1996) presentan una comparación muy ilustrativa para
poner de manifiesto la diferencia entre la cantidad de información aportada y la
cantidad de datos necesarios para aportar dicha información: Aéste podría ser el caso
si una persona muy habladora y otra muy parca en palabras contasen la misma
historia. Aquí la información en la historia; las palabras son los datos necesario para
relatar la información. Si las dos personas emplean diferente número de palabras
para contar la misma historia se crean dos versiones distintas de la misma, y al
menos una de ellas incluye datos no esenciales. Es decir, contienen datos (o
palabras) que bien proporcionan información sin relevancia o bien vuelven a decir lo
que ya se sabía@.
El objetivo fundamental de la compresión es la reducción de la cantidad de datos
necesarios para la representación de la información original, para ello se deben
eliminar aquellos datos que no proporcionen información, es decir, los datos
redundantes. Con dicha eliminación se consigue la reducción del número de bits
requeridos para representar una imagen eliminando las redundancias existentes en la
misma. La redundancia de los datos es fundamental en el proceso de compresión. Este
es un valor que puede ser cuantificado, así si n1 y n2 representan el tamaño de dos
ficheros que contienen la misma información, la redundancia relativa se define como:
1
RD = 1−
CR

donde CR se denomina relación o tasa de compresión y se define como la relación


entre el número de bits de la imagen original (n1) dividido por el número de bits de la
imagen comprimida (n2).
n1
CR =
n2

En el caso de que n2=n1, CR=1 y RD=0 no existe información redundante en el


primer conjunto de datos, si n2<n1, CR>1 y RD≈1 existe una compresión significativa
por lo que los datos del conjunto original presentan una redundancia alta. Por último,
el caso de n2>>n1, CR≈0 y RD<0 se produce cuando la imagen original tiene un
tamaño menor que la comprimida.
FOTOGRAMETRÍA DIGITAL   221 

En las imágenes digitales se pueden encontrar tres tipos básicos de redundancias:


a) Redundancia espacial. Debida a la correlación entre el nivel de gris de un
píxel y el correspondiente de los píxeles vecinos.
b) Redundancia espectral. Debida a la correlación entre el nivel digital
correspondiente a las diferentes bandas (imágenes multiespectrales).
c) Redundancia temporal. Es debida a la correlación entre las imágenes
tomadas en momentos distintos, como, por ejemplo, las imágenes que
componen una secuencia de video.
Una medida de la información real contenida en una imagen es la entropía o
incertidumbre (Lynch, 1985). La entropía indica el número mínimo de bits necesario
para la representación de una imagen sin ninguna pérdida de información. La entropía
es una medida global de la correlación espectral, espacial o temporal entre los niveles
digitales que componen la imagen. Para una imagen de n-bits con M niveles digitales
(M=2n), la entropía H se obtiene mediante:
M
H=− ∑ p(g i ) log 2 p(g i )
i=0

donde p(gi) es la probabilidad de aparición de cada valor de gris, que se obtiene del
histograma de la imagen. Si el histograma siguiera una distribución uniforme la
entropía tomaría un valor máximo en Hmáx = log2 M, donde M es el número de niveles
digitales. Puesto que las imágenes reales no siguen distribuciones de probabilidad
uniformes, la redundancia R se define como R = log2 M - H (Lynch, 1985).
En la Tabla 4.2 se muestran valores de entropía y redundancia tomados de Novak
y Shanin (1996).
Tabla 4.2. Entropías y Redundancias de imágenes fotogramétricas (en bits/pixel)
Bits/pixel Imagen Aérea Imagen Terrestre (Carretera) Imagen Marca (Target)
Entropía 5.79 3.36 2.75
Redundancia 2.21 4.64 5.25

La tasa de compresión máxima sin pérdida de información se define como (Storer,


1988):
log 2 M
∆C máx =
H
Esta tasa de compresión máxima se alcanza cuando la codificación de la imagen
da lugar a una tasa (bits/píxel) similar a la entropía, para lograr esto es necesario
eliminar o reducir la correlación entre los píxeles y además codificar los píxeles de
una forma tan eficiente como sea posible.
Cuando se realiza una compresión es necesario tener en cuenta que no todas los
ficheros pueden ser comprimidos, así un determinado algoritmo de compresión puede
producir reducción de tamaño para un determinado fichero y aumento para otro
fichero distinto.
222  PREPROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

Existen dos tipos básicos de compresión de imágenes: la compresión no


degradativa y la compresión degradativa. La diferencia entre ambos es que en el
primer tipo la imagen restaurada, es decir, sometida a un ciclo de compresión-
descompresión es exactamente igual que la imagen original, no existiendo pérdida de
información (degradación), mientras que en el segundo tipo la imagen sufre una
pérdida de información en aras de obtener una mayor tasa de compresión. El objetivo
debe ser el encontrar el punto de equilibrio que permita obtener una compresión
máxima dentro de unos niveles de pérdida de información que no afecten a la calidad
del trabajo final. Al respecto hay que tener en cuenta que aunque la degradación sea
inapreciable al nivel de visión del ojo humano si puede tener importantes efectos
cuando esta imagen sea tratada mediante un sistema informático de procesamiento de
imágenes.

4.2.1 Métodos de compresión no degradativos (lossless compression)


Algunas aplicaciones necesitan que la imagen reconstruida sea idéntica a la imagen
original. Un ejemplo puede ser las imágenes médicas en las que las variaciones de
niveles digitales pueden modificar el diagnóstico final. La compresión no degradativa
también es frecuentemente aplicada en Teledetección, donde las características
espectrales de las imágenes deben ser preservadas. Como es lógico esperar, las tasas
de compresión de este tipo de métodos son sensiblemente inferiores comparadas con
los métodos degradativos (Rabbani y Jones, 1990).
Los métodos de compresión no degradativos más frecuentemente empleados son:
a) run lenght encoding (RLE)
b) codificación Huffman
c) codificación Huffman modificada

4.2.1.1. Run Lenght Encoding (RLE)


Es uno de los métodos más simples de compresión de datos. Este método emplea
la redundancia existente entre datos consecutivos, así por ejemplo, en las imágenes
suelen existir áreas de color (nivel digital) constante, estas series de valores
repetitivos son denominadas runs, y son representadas en la imagen comprimida
mediante un valor que indica el número de veces que se repite el dato y el propio
dato, tal y como se muestra en el ejemplo:
AAAABBBBBCCCCCCCCDEEEE 4A5B8C1D4E
Longitud: 22 bytes Longitud: 10 bytes
Es importante tener en cuenta que si no existen cadenas consecutivas con el
mismo valor, el tamaño del fichero comprimido resultante será mayor que el original,
al requerir dos valores para cada píxel (número de repeticiones y dato).
Una modificación a este método, que es empleada por ejemplo en el formato
MacPaint consiste en la introducción de un código adicional (en nuestro ejemplo, el
carácter +) que indica cuando se está empleando la codificación. Así resultaría:
FOTOGRAMETRÍA DIGITAL   223 

ABCDDDDDDDDEEEEEEEEE ABC+8D+9E
Longitud: 20 bytes Longitud: 9 bytes
El inconveniente de este método es que emplea 3 valores para cada cadena si bien
tiene la importante ventaja de su flexibilidad para la compresión de imágenes que
presenten zonas homogéneas y heterogéneas.
El método de compresión RLE es utilizado por diversos formatos además del
anteriormente mencionado MacPaint, así se emplea por PCX, GEM, TIFF y TGA (ver
anexo 4.2).
4.2.1.2. Compresión Huffman
Este método de compresión se puede considerar como un estándar debido a su
amplia utilización desde su publicación en 1952 (Huffman, 1952) hasta
aproximadamente finales de la década de los 70. El método se basa en el empleo de
códigos de longitud variable que sustituyen a los valores originales de la imagen. La
longitud del código de codificación es inversamente proporcional a la frecuencia de
aparición del dato en la imagen digital. En realidad la filosofía del método ha sido
empleada con anterioridad en otros lenguajes cifrados, así por ejemplo, en lenguaje
Morse la longitud de cada carácter es proporcional a la frecuencia de aparición del
mismo, así por ejemplo, el carácter E, considerado como de muy frecuente aparición,
es codificado como . , mientras que el carácter Q de menor frecuencia viene
codificado por - - . - .
Los códigos Huffman son calculados a partir del análisis de los datos de la imagen
original y asignando códigos de menor longitud a los datos más frecuentes, siendo el
objetivo la reducción del número medio de bits por carácter empleado para la
codificación.
Así si se considera el siguiente párrafo:
AÉsta era la inscripción que había en la puerta de cristal de una tiendecita, pero
naturalmente sólo se veía así cuando se miraba a la calle, a través del cristal, desde el
interior en penumbra.@ (La historia interminable, Michael Ende)
y se realiza el histograma de frecuencias de los diferentes códigos (caracteres) se
observa como el símbolo más frecuente es el espacio con 34 apariciones, seguido de
las vocales a (24 veces) y la e (22 veces), símbolos que deben recibir códigos de
longitud menor para optimizar la longitud del fichero comprimido, mientras que los
símbolos h, q, É y é, sólo aparecen 1 vez, con lo cual se les debe asignar una longitud
mayor. En la Tabla 4.3 se presentan los diferentes símbolos, su frecuencia absoluta de
aparición, así como el código asignado y la longitud del mismo.
Los símbolos de mayor frecuencia de aparición son el espacio (34 apariciones) y
las vocales a (24 apariciones) y e (22 apariciones) que reciben los códigos Huffman
más cortos (longitud igual a 3). La utilización de dicha tabla de codificación es muy
simple así, por ejemplo, la palabra cristal vendrá codificada por:
Palabra separada por letras: c - r - i - s - t - a – l
Códigos de cada letra: 00101 - 0110 - 1110 - 1100 - 1101 - 010 - 1010
224  PREPROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

Tabla 4.3. Tabla de codificación


Símbolo Frec.Abs. Código Long.Cód. Símbolo Frec.Abs. Código Long.Cód.
Espacio 34 000 3 p 4 001000 6
A 24 010 3 o 4 001001 6
E 22 100 3 , 3 011110 6
R 12 0110 4 i 3 011111 6
L 11 1010 4 b 3 011100 6
N 11 1011 4 m 3 011101 6
S 10 1100 4 v 2 111110 6
T 10 1101 4 ó 2 111111 6
I 10 1110 4 h 1 1111010 7
C 7 00101 5 q 1 1111011 7
D 7 00110 5 É 1 1111000 7
U 6 00111 5 é 1 1111001 7

Un carácter ASCII requiere 8 bits de almacenamiento (1 byte), la longitud original


de 7 símbolos que requieren un almacenamiento de 56 bits (7 bytes) y que se reduce a
28 bits, consiguiendo una tasa de compresión de 2.0 y eficiencia de 99.29%, teniendo
en cuenta el valor de entropía de 3.9717 bits/símbolo, que indica que el espacio
mínimo para el almacenamiento de la palabra Acristal@ es de 27.8019 bits.
Para la obtención de los códigos Huffman se emplea una representación de árbol
binario. La figura 4.2 muestra el árbol correspondiente a la tabla anterior. La
asignación de códigos a partir de la tabla es simple, comenzando a partir de la raíz y
desplazándose hacia las ramas, de forma que a cada rama se le asigna el valor 0 ó 1 en
función de si está situada en la parte izquierda o derecha del árbol. El código final del
carácter estará compuesto por cada una de los códigos binarios de las ramas.
El procedimiento para la construcción del código Huffman de una imagen digital
es el siguiente:
- ordenar las probabilidades de los símbolos que componen el alfabeto de la
fuente de mayor a menor.
- comenzando por los símbolos con menores probabilidades pa y pb crear un
nuevo nodo, cuya probabilidad sea la suma de pa y pb (reducción de la fuente).
- repetir el proceso utilizando el nuevo nodo hasta que quede uso solo con
probabilidad igual a 1.
- etiquetar cada rama situada a la izquierda con un 0 y cada rama en la derecha
con un 1 (asignación de códigos).
- el código de cada símbolo original será determinado por la sucesión de los
códigos impuestos desde la raíz hacía las ramas.
La utilización del árbol binario para la codificación Huffman asegura que los
códigos generados cumplan la condición de prefijo, esta condición consiste en que
dos códigos no pueden tener el mismo prefijo, no necesitando carácter de fin de
código en el proceso de compresión/descompresión. Así si el carácter u tiene el
código 00111, no puede existir ningún símbolo que cuyo código comience con los
dígitos 00111, puesto que el sistema no podría discernir si los cinco primeros bits se
deben al código de la letra u o bien a los cinco primeros del otro símbolo.
FOTOGRAMETRÍA DIGITAL   225 
Símb olo Frec.Abs. 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22
<Espacio> 34 34 34 34 34 34 34 34 34 34 34 34 34 34 34 34 34 38 44 48 62 82 110
a 24 24 24 24 24 24 24 24 24 24 24 24 24 24 24 24 28 34 38 44 48 62 82
e 22 22 22 22 22 22 22 22 22 22 22 22 22 22 22 23 24 28 34 38 44 48
r 12 12 12 12 12 12 12 12 12 12 13 15 18 20 22 22 24 24 28 34 38
l 11 11 11 11 11 11 11 11 11 12 12 13 15 18 20 22 22 24 24 28
n 11 11 11 11 11 11 11 11 11 11 12 12 13 15 18 20 22 22 24
s 10 10 10 10 10 10 10 10 10 11 11 12 12 13 15 18 20 22
t 10 10 10 10 10 10 10 10 10 10 11 11 12 12 13 15 18
i 10 10 10 10 10 10 10 10 10 10 10 11 11 12 12 13
c 7 7 7 7 7 7 7 8 8 10 10 10 11 11 12
d 7 7 7 7 7 7 7 7 8 8 10 10 10 11
u 6 6 6 6 6 6 6 7 7 8 8 10 10
p 4 4 4 4 4 6 6 6 7 7 8 8
o 4 4 4 4 4 4 6 6 6 7 7
, 3 3 3 4 4 4 4 6 6 6
í 3 3 3 3 4 4 4 4 6
b 3 3 3 3 3 4 4 4
m 3 3 3 3 3 3 4
v 2 2 2 3 3 3
ó 2 2 2 2 3
h 1 2 2 2
q 1 1 2
É 1 1
é 1
Total: 192

Símb olo Cód 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22


<Espacio> 00 0 00 0 00 0 00 0 00 0 00 0 00 0 00 0 00 0 00 0 00 0 00 0 00 0 00 0 00 0 00 0 00 0 11 10 01 00 1 0
a 01 0 01 0 01 0 01 0 01 0 01 0 01 0 01 0 01 0 01 0 01 0 01 0 01 0 01 0 01 0 01 0 00 1 00 0 11 10 01 00 1
e 10 0 10 0 10 0 10 0 10 0 10 0 10 0 10 0 10 0 10 0 10 0 10 0 10 0 10 0 10 0 011 01 0 00 1 00 0 11 10 01
r 0110 0110 0110 0110 0110 0110 0110 0110 0110 0110 0011 0010 111 110 10 1 10 0 011 01 0 00 1 00 0 11
l 1010 1010 1010 1010 1010 1010 1010 1010 1010 0111 0110 0011 0010 111 110 10 1 10 0 011 01 0 00 1
n 1011 1011 1011 1011 1011 1011 1011 1011 1011 1010 0111 0110 0011 0010 111 110 10 1 10 0 011
s 1100 1100 1100 1100 1100 1100 1100 1100 1100 1011 1010 0111 0110 0011 0010 111 110 10 1
t 1101 1101 1101 1101 1101 1101 1101 1101 1101 1100 1011 1010 0111 0110 0011 0010 111
i 1110 1110 1110 1110 1110 1110 1110 1110 1110 1101 1100 1011 1010 0111 0110 0011
c 001 01 001 01 001 01 001 01 001 01 001 01 001 01 1111 1111 1110 1101 1100 1011 1010 0111
d 00111 00111 00111 00111 00111 0 0110 0 0110 001 01 001 00 1111 1110 1101 1100 1011
u 01110 01110 01110 01110 01110 00111 00111 0 0110 001 01 001 00 1111 1110 1101
p 001000 001000 001000 001000 001000 01110 01110 00111 0 0110 001 01 001 00 1111
o 001001 001001 001001 001001 001001 001000 01111 01110 00111 0 0110 001 01
, 01111 0 01111 0 01111 0 11110 11110 001001 001000 01111 01110 00111
í 011111 011111 011111 01111 0 11111 11110 001001 001000 01111
b 011100 011100 011100 011111 01111 0 11111 11110 001001
m 011101 011101 011101 011100 011111 01111 0 11111
v 111110 111110 111110 011101 011100 011111
ó 111111 111111 111111 111110 011101
h 1111010 11110 0 11110 0 111111
q 1111011 1111010 11110 1
É 1111000 1111011
é 1111001

Fig.4.2. Construcción de la tabla de códigos Huffman.


Sup.: Reducción de la fuente; Inf.: Asignación de los códigos

La codificación Huffman es basa en las siguientes premisas:


- no existen dos símbolos que reciban el mismo código.
- los códigos de los símbolos son construidos de forma que no sea necesario
indicar el inicio y el fin del código.
- la longitud de un código dado nunca puede ser menor que la de un código más
probable.
si los dos símbolos menos probables de una fuente con un alfabeto de tamaño a se
combinan se genera una nueva fuente con (a-1) símbolos.
Como ejemplo, en la figura 4.3 se muestra una imagen digital de tamaño 512x512
píxeles y remuestreada a 16 niveles digitales (Sester, 1994), así como el histograma
correspondiente.
El tamaño original de la imagen es de 131072 bytes, con valor de entropía de
3.5185 bits/símbolo que permite un almacenamiento óptimo teórico de 115294 bits.
Una vez aplicada la codificación Huffman se comprueba como la longitud media
ponderada en función de la frecuencia de cada símbolo es de 3.5415 bits/símbolo,
resultando un espacio de almacenamiento de 116048 bits, con una tasa de compresión
de 1.13, y una eficiencia del 97.68%.
226  PREPROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

Frecuencia Relativa (% )
20

15

10

0
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
Número Digital

Fig.4.3. Imagen SUBURB-L e histograma de los niveles digitales correspondientes


ND Prob. 1 2 3 4 5 6 7 8 9 10 11 12 13 14
7 0.1474 0.1474 0.1474 0.1474 0.1474 0.1474 0.1474 0.1474 0.1548 0.1965 0.2368 0.2684 0.3022 0.4293 0.5706
8 0.1420 0.1420 0.1420 0.1420 0.1420 0.1420 0.1420 0.1420 0.1474 0.1548 0.1965 0.2368 0.2684 0.3022 0.4293
6 0.1264 0.1264 0.1264 0.1264 0.1264 0.1264 0.1264 0.1264 0.1420 0.1474 0.1548 0.1965 0.2368 0.2684
9 0.1196 0.1196 0.1196 0.1196 0.1196 0.1196 0.1196 0.1196 0.1264 0.1420 0.1474 0.1548 0.1965
10 0.1066 0.1066 0.1066 0.1066 0.1066 0.1066 0.1066 0.1132 0.1196 0.1264 0.1420 0.1474
5 0.0884 0.0884 0.0884 0.0884 0.0884 0.0884 0.0899 0.1066 0.1132 0.1196 0.1264
11 0.0608 0.0608 0.0608 0.0608 0.0608 0.0664 0.0884 0.0899 0.1066 0.1132
4 0.0524 0.0524 0.0524 0.0524 0.0524 0.0608 0.0664 0.0884 0.0899
0 0.0395 0.0395 0.0395 0.0395 0.0504 0.0524 0.0608 0.0664
3 0.0339 0.0339 0.0339 0.0339 0.0395 0.0504 0.0524
2 0.0241 0.0241 0.0263 0.0325 0.0339 0.0395
1 0.0183 0.0183 0.0241 0.0263 0.0325
12 0.0142 0.0142 0.0183 0.0241
13 0.0128 0.0135 0.0142
14 0.0110 0.0128
15 0.0025

ND Prob. Cód 1 2 3 4 5 6 7 8 9 10 11 12 13 14
7 0.1474 001 001 001 001 001 001 001 001 000 11 10 01 00 1 0
8 0.1420 010 010 010 010 010 010 010 010 001 000 11 10 01 00 1
6 0.1264 011 011 011 011 011 011 011 011 010 001 000 11 10 01
9 0.1196 100 100 100 100 100 100 100 100 011 010 001 000 11
10 0.1066 110 110 110 110 110 110 110 101 100 011 010 001
5 0.0884 0000 0000 0000 0000 0000 0000 111 110 101 100 011
11 0.0608 1010 1010 1010 1010 1010 0001 0000 111 110 101
4 0.0524 1011 1011 1011 1011 1011 1010 0001 0000 111
0 0.0395 1111 1111 1111 1111 1110 1011 1010 0001
3 0.0339 00010 00010 00010 00010 1111 1110 1011
2 0.0241 11101 11101 11100 00011 00010 1111
1 0.0183 000110 000110 11101 11100 00011
12 0.0142 000111 000111 000110 11101
13 0.0128 111001 111000 000111
14 0.0110 1110000 111001
15 0.0025 1110001

Fig.4.4. Resultados de la codificación Huffman

Así, para la decodificación de la cadena 11110001100001100000010010100001 ...


1101000100011011 se procedería de la siguiente forma.
Se lee el primer bit (1) y se comprueba en la tabla de códigos que no existe ningún
código con longitud 1, por lo que se lee el siguiente bit (1), y se comprueba que no
existe ningún código de longitud 2 (11) por lo que se lee el tercer bit (1),
comprobándose que no se corresponde con ninguno de los códigos existentes de
longitud 3, por lo que se lee el cuatro dígito (1). En este caso, se identifica de los
códigos de longitud 4, uno coincidente (1111) que se corresponde al símbolo 0. A
continuación, el proceso se inicia de nuevo hasta conseguir la lectura del código
correspondiente al siguiente símbolo de la cadena de niveles digitales:
1111-000110-000110-0000-010-010-100-001...110-100-010-001-1011
0 1 1 5 8 8 9 7 ... 10 9 8 7 4
El principal problema de la codificación Huffman es que requiere realizar dos
pasadas sobre la imagen. La primera tiene por objeto el cálculo de las frecuencias de
FOTOGRAMETRÍA DIGITAL   227 

aparición de cada dato y la segunda para realizar la codificación propiamente dicha.


Este inconveniente puede ser importante cuando se manejan imágenes de tamaño
importante, como sería el caso de las imágenes digitales fotogramétricas. Una posible
solución consiste en el empleo de una tabla de codificación estándar obtenida a partir
del tratamiento de imágenes de similares características. Evidentemente esta solución
afecta negativamente a la tasa de compresión alcanzada, puesto que, no se emplea una
tabla de codificación específica en función del histograma sino genérica que podrá
ajustarse mejor o peor al histograma de la imagen a comprimir.
4.2.1.3. Codificación de Huffman modificada
La codificación Huffman modificada se utiliza en las máquinas de fax para la
compresión de imágenes en blanco y negro (binarias), pudiendo ser una opción para
la compresión de imágenes en formato TIFF. Este método combina el método de
Huffman con la codificación RLE.
Los ficheros binarios consisten típicamente en símbolos negros escritos sobre un
fondo blanco, utilizándose una longitud para el almacenamiento de píxel de 1 bit. El
método consiste en establecer las cadenas de códigos blancos y negros, aplicar el
método RLE y posteriormente una codificación Huffman.
El procedimiento de codificación comienza con la determinación de las cadenas
de valores blancos y negros. Si la cadena tiene una longitud menor de 63 datos se
codifica mediante los denominados terminating code, si la longitud es mayor se
necesitan dos códigos el makeup code que define el múltiplo de 64 (desde 64 a 2560)
y el terminating code que se corresponde con el valor a añadir al múltiplo para
obtener el valor exacto. Con este procedimiento se consigue la reducción de la
longitud de los códigos de Huffman mejorando la tasa de compresión.
Debido a que el 85% de los ficheros binarios presentan una estructura de texto
negro sobre fondo blanco, los códigos de Huffman están optimizados de forma que
codifiquen de una forma adecuada largas cadenas de píxeles con valor blanco y cortas
cadenas de color negro, asimismo el método parte de que el primer píxel de la línea es
blanco, en caso contrario sería necesario introducir un código de longitud 0 de color
blanco. En este método la codificación se realiza por líneas de la imagen con lo cual
en cada línea es necesario introducir un carácter de fin de línea (EOL -end of line-),
con este código adicional se evita que un problema en la transmisión (frecuente en las
líneas telefónicas de transmisión de fax) o en el almacenamiento (en el caso de las
imágenes digitales) no impida la decodificación del fichero sino simplemente de la
línea que se vea afectada.
En la figura 4.5 se muestra un ejemplo de codificación Huffman modificada de
una línea compuesta por 1275 píxeles que comienza en un carácter negro.
228  PREPROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

Longitud de la línea 1275 pixels

Longitud Color Código


0 Blanco 00110101
1 Negro 010
4 Blanco 1011
2 Negro 11
1 Blanco 0111
1 Negro 010
1266 Blanco 011011000 + 01010011
EOL 000000000001
Fig.4.5. Ejemplo de compresión de una línea mediante el método de Huffman modificado

En el ejemplo anterior se observa como una cadena de 1275 píxeles (tamaño de la


línea 1275 bits) se queda reducida a 53 bits, es decir, se obtiene una tasa de
compresión de 24.06.
4.2.1.4. Otros métodos de compresión no degradativa
1. Método de READ modificado
El método READ modificado es una técnica de codificación bidimensional
utilizada para la compresión de imágenes binarias (fundamentalmente en fax). El
método READ (Relative Element Address Designate) modificado es una revisión del
método de Huffman modificado.
La mejora del método se basa en el hecho de que el 75% de los ficheros de imagen
binarios presentan una cierta estructura entre las líneas de la imagen, existiendo una
determinada correlación entre el valor digital de un píxel y el correspondiente al píxel
situado en la línea superior. El método consiste en la división de la imagen en una
serie de grupos de líneas, realizándose para cada grupo la codificación mediante el
método de Huffman modificado de la primera línea, y refiriéndose el resto de las
líneas del grupo con referencia a ésta.
2. Método LZW
En 1977, se publicaron las bases para un nuevo método de compresión que a la
postre supuso la pérdida de hegemonía del método de codificación Huffman. El
esquema general del método se basa en la codificación a nivel de cadena en lugar a
nivel de dato, aprovechando la repetibilidad que presentan las imágenes tanto en el
dato (utilizada por Huffman) como en la secuencia (Ziv y Lempel, 1977).
En 1984, se publica el algoritmo LZW (Lempel Ziv Welch) (Welch, 1984). En
dicho trabajo se presenta una versión mejorada con respecto al trabajo inicial de 1977
en la que se elimina la necesidad de incorporar en la imagen comprimida la tabla de
codificación. Este algoritmo se ha convertido en un estándar actual del mercado
favorecido por la liberación de los derechos de la patente en poder de Unisys para
aplicaciones de carácter no comercial. En la actualidad es el método que utilizan los
sistemas UNIX, así como diversos programas en entorno PC tales como ARC y varios
formatos de almacenamiento de imágenes digitales (GIF y TIFF entre otros).
FOTOGRAMETRÍA DIGITAL   229 

Aunque la implementación del sistema LZW es laboriosa, el algoritmo es


extraordinariamente simple. El algoritmo se basa en la búsqueda de cadenas de
caracteres con códigos simples que se almacenan en una tabla de consulta. La mayor
parte de los programas que emplean LZW utilizan códigos de 12 bits por lo que
existen 4096 códigos disponibles, de los cuales los 256 (0-255) primeros se emplean
para la codificación de los caracteres individuales y los restantes (256-4095) para
representar combinaciones de datos que presenten repetibilidad.
3. Codificación aritmética
La codificación aritmética se diferencia de los métodos anteriores en que se realiza
la codificación de cadenas completas en un sólo código de tipo real de punto flotante.
A mayor longitud de la cadena, se necesitara un mayor número de dígitos y, por tanto,
una mayor precisión del número empleado como código. Este sistema requiere
realizar dos lecturas de la imagen, una en la que se calculan las frecuencias y otra en
la que se realiza la codificación propiamente dicha.
Para ilustrar mejor el funcionamiento de este procedimiento de codificación
supongamos que se dispone de una imagen que está codificada en tan sólo 5 niveles
digitales (Press et al., 1994), con las probabilidades de aparición siguientes 0.12, 0.42,
0.09, 0.30 y 0.07, respectivamente. En la figura 4.6 se muestra como se procede a la
codificación de la imagen que comienza con la secuencia 3, 4, 5,... .
El intervalo [0,1) se divide en 5 segmentos correspondientes a los 5 valores
digitales posibles, la longitud de cada segmento será la probabilidad correspondiente.
El primer valor (3) presenta un valor entre 0.37 #R < 0.46. Este intervalo es
subdividido a su vez en 5 segmentos siguiendo la misma norma anterior, la
proporcionalidad a la probabilidad de aparición. El segundo valor (4) estará
comprendido en el intervalo 0.3763 #R < 0.4033, y el tercer valor (5) siguiendo la
misma regla en el intervalo 0.37630 # R < 0.37819. Cualquier valor de R
comprendido en este rango será codificado como 3-4-5. El problema consiste en
conocer donde finaliza cada código así el intervalo 0.37630 # R < 0.37819 se
corresponderá no sólo a la secuencia 3-4-5 sino a cualquier secuencia 3-4-5-Y, por lo
que es necesario introducir un carácter de fin de mensaje (EOM -end of message-).
Puesto que, este carácter tiene una probabilidad muy baja será almacenado con un
número de bits elevado.
Evidentemente, la resolución requerida para la codificación de imágenes de gran
tamaño excedería los límites de los sistemas informáticos actuales, por lo que se opta
por la codificación de pequeños bloques de imagen.

4.2.2 Métodos de compresión degradativos


La diferencia principal entre las técnicas degradativas y no degradativas es la
inclusión de un proceso de cuantificación en las primeras. Mediante este proceso se
reduce el número de símbolos, produciendo la degradación de la imagen y
aumentando la tasa de reducción al reducir el número de bits necesario para el
almacenamiento de cada símbolo.
230  PREPROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

1.0 0.46 0.4033 0.37819


1 1 1 0.3781 1
0.9
0.45
0.400 0.3779
0.8
0.44
0.3777
0.7
2 0.43 2 0.395 2 2
0.3775
0.6
0.42
0.3773
0.5 0.390
0.41
0.4 3 3 3 0.3771 3

0.40 0.385
0.3 0.3769

4 0.39 4 4 0.3767 4
0.2
0.380
0.1 0.38 0.3765
5 5 5 5
0.0 0.37 0.3763 0.37630
Fig. 4.6. Procedimiento de codificación aritmética (Press et al., 1994)

Las técnicas de compresión degradativa constan típicamente de tres etapas:


1. Descomposición o transformación de la imagen. En esta etapa la imagen se
transforma a un nuevo dominio, el dominio de la frecuencia, para reducir el rango
dinámico de la señal (valores de gris) y para eliminar las correlaciones entre los
valores de gris originales.
2. Cuantificación. En esta etapa los valores de píxel transformados se convierten a
un conjunto finito de datos más reducidos, para así reducir el número de bits
necesarios para el almacenamiento. El tipo y grado de cuantificación es el factor
clave, tanto en la tasa de compresión, como lógicamente en la calidad de la
imagen restaurada.
3. Codificación de los símbolos. Los símbolos resultantes de la etapa anterior deben
ser codificados empleando para ello algún método óptimo, como, por ejemplo, la
codificación Huffman o la codificación aritmética.

4.2.2.1 Compresión JPEG


El estándar de compresión JPEG fue propuesto por la Joint Photographic Experts
Group (JPEG) compuesto por miembros de la International Standards Organization
(ISO) y del International Consultative Committee for Telephone and Telegraph
(CCITT) para su utilización como un estándar en la compresión de imágenes de tono
continuo (escala de grises o color).
El estándar JPEG define tres sistemas básicos de compresión:
1. el sistema básico de tipo degradativo y que se basa en la aplicación de la
FOTOGRAMETRÍA DIGITAL   231 

transformación de coseno discreto y es el más difundido debido a sus


amplias posibilidades de utilización
2. el sistema de codificación extendida, para aplicaciones de mayor compresión
o mayor precisión
3. el sistema de codificación independiente sin pérdidas de tipo degradativo y
que se emplea para compresiones reversibles, que es poco empleado.
El método JPEG consta de cuatro etapas (fig.4.7):
- División de la imagen original en subbloques de tamaño 8x8 pixels
- Transformación de Coseno Discreto (FDCT)
- Cuantificación (sólo en el método JPEG degradativo)
- Codificación de entropía (Huffman o Aritmética)
Bloque 8x8 Transformación Datos de la imagen
Codificación
Imagen Original Coseno Discreto Cuantización comprimida
Huffman
Directa

Bloque 8x8 Imagen Transformación Datos de la imagen


Decodificación
Descomprimidal Coseno Discreto Decuantización comprimida
Huffman
Inversa

Fig.4.7. Esquema de compresión/descompresión por el método JPEG

a) La transformación DCT
El primer paso de la compresión JPEG consiste en la división de la imagen en
porciones de tamaño 8x8 píxeles (tiles), que se procesan de izquierda a derecha y de
arriba abajo, modificando sus niveles digitales al restarle el valor 2n-1, es decir, 128
para las imágenes usuales de 256 tonos de gris -n=8 bits-). En la Tabla 4.4.izq se
muestra los niveles digitales de una porción de 8x8 píxeles correspondiente a una
imagen real y en la Tabla 4.4.der el resultado de restarle a la porción el valor de 2n-1
(128).
Tabla 4.4. Transformación JPEG etapa previa. Izq.:Porción de la imagen original; Der.: Valores de la
imagen original desplazados -2n-1
52 55 61 66 70 61 64 73 -76 -73 -67 -62 -58 -67 -64 -55
63 59 66 90 109 85 69 72 -65 -69 -62 -38 -19 -43 -59 -56
62 59 68 113 144 104 66 73 -66 -69 -60 -15 16 -24 -62 -55
63 58 71 122 154 106 70 69 -65 -70 -57 -6 26 -22 -58 -59
67 61 68 104 126 88 68 70 -61 -67 -60 -24 -2 -40 -60 -58
79 65 60 70 77 68 58 75 -49 -63 -68 -58 -51 -65 -70 -53
85 71 64 59 55 61 65 83 -43 -57 -64 -69 -73 -67 -63 -45
87 79 69 68 65 76 78 94 -41 -49 -59 -60 -63 -52 -50 -34

Tras la división de la imagen, cada porción se transforma al dominio de la


frecuencia empleando la función de transformación del coseno discreto. La expresión
utilizada es:

⎡ (2 x + 1)uπ ⎤ ⎡ (2 y + 1)vπ ⎤
N −1N −1
C(u , v ) = α(u )α(v ) ∑ ∑ f (x, y)cos⎢⎣ 2 N ⎥⎦
cos ⎢
⎣ 2N ⎦

x =0y=0
232  PREPROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

para u,v = 0, 1, 2, ..., N-1 y su correspondiente inversa es:

⎡ (2 x + 1)uπ ⎤ ⎡ (2 y + 1)vπ ⎤
N −1N −1
f (x , y ) = ∑ ∑ α(u )α(v )C(u, v)cos⎢⎣ 2 N ⎥⎦
cos ⎢
⎣ 2N ⎦

x =0y=0

1 2
donde α(u),α(v)= para u,v=0 y para u,v=1, ...,N-1.
N N

La transformación DCT es uno de los métodos más aplicados para la compresión


de la imagen debido a su simplicidad y su rápida implementación, presentando la
característica que es independiente de la imagen. En la Tabla 4.5 se muestra el
resultado de la transformación al bloque 8x8 de la Tabla 4.4. Esta transformación
simplemente modifica el tipo de representación de la imagen y no supone la pérdida
de información, sólo produce que la energía del bloque de la imagen sea compactada
en unos pocos coeficientes.
b) Cuantificación.
Esta etapa sólo se aplica en el caso de que se desee obtener una compresión
degradativa (lo que equivale en la mayor parte de los casos, una mayor tasa de
compresión). Consiste en la normalización de los coeficientes obtenidos de la DCT,
aplicando una normalización predefinida en la normativa del estándar, que será la
misma para todos los bloques. Cada componente de la matriz de normalización Q(u,v)
es un entero 8-bit (0 a 256) que determina el grado de cuantización. Dichos
componentes son calculados de forma que los pequeños valores estén asociados con
frecuencias bajas y los valores elevados con frecuencias altas. El nivel de compresión
de la imagen puede ser modificado mediante la introducción de cambios en esta
matriz, mediante el producto por una constante. Así, a diferentes matrices de
normalización le corresponden diferentes tasas de compresión.
Tabla 4.5. Valores transformados mediante la transformación de coseno discreto
-415 -29 -62 25 55 -20 -1 3
7 -21 -62 9 11 -7 -6 6
-46 8 77 -25 -30 10 7 -5
-50 13 35 -15 -9 6 0 3
11 -8 -13 -2 -1 1 -4 1
-10 1 3 -3 -1 0 2 -1
-4 -1 2 -1 2 -3 1 -2
-1 -1 -1 -2 -1 -1 0 -1

Los coeficientes normalizados son cuantificados mediante la aplicación de un


redondeo al número entero más próximo, así, por ejemplo, para el primer coeficiente
(0,0), el resultado sería:
T (0,0) = Redondeo [ -415 / 16 ] = -26
FOTOGRAMETRÍA DIGITAL   233 

Tabla 4.6. Matriz de coeficientes de cuantificación JPEG


16 11 10 16 24 40 51 61
12 12 14 19 26 58 60 55
14 13 16 24 40 57 69 56
14 17 22 29 51 87 80 62
18 22 37 56 68 109 103 77
24 35 55 64 81 104 113 92
49 64 78 87 103 121 120 101
72 92 95 98 112 100 103 99

Tabla 4.7. Valores transformados cuantificados y redondeados


-26 -3 -6 2 2 0 0 0
1 -2 -4 0 0 0 0 0
-3 1 5 -1 -1 0 0 0
-4 1 2 -1 0 0 0 0
1 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0

Esta es la etapa donde se produce una mayor reducción del tamaño a la vez que la
pérdida de información más importante, reduciendo el número de valores distintos. El
coeficiente superior izquierda es denominado DC, mientras que el resto reciben la
denominación de AC. La cuantificación de los coeficientes AC produce numerosos
ceros, especialmente para las frecuencias más altas. Para aprovechar este hecho, la
matriz bidimensional de coeficientes se transforma en una vector unidimensional
mediante su ordenación en zig-zag (fig.4.8). Esta ordenación ordena los coeficientes
cuantificados en un orden aproximadamente descendente, la mayoría de los
coeficientes de la zona final son ceros.
DC
-26 -3 -6 2 2 0 0 0

1 -2 -4 0 0 0 0 0

-3 1 5 -1 -1 0 0 0

-4 1 2 -1 0 0 0 0

1 0 0 0 0 0 0 0

0 0 0 0 0 0 0 0

0 0 0 0 0 0 0 0

0 0 0 0 0 0 0 0
Fig.4.8. Ordenación en zig-zag
234  PREPROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

Por tanto, la secuencia final sería:


[-26 -3 1 -3 -2 -6 2 -4 1 -4 1 1 5 0 2 0 0 -1 2 0 0 0 0 0 -1 -1 EOB]
siendo EOB un carácter especial de fin de bloque –end of block–.
c) Codificación de entropía
La siguiente etapa es la codificación de los coeficientes normalizados, para ello se
resta al DC el correspondiente DC del bloque anterior, dando lugar a un DC
diferencial que es un valor bajo debido a la elevada correlación entre los bloques.
Cada DC diferencial es codificado mediante la aplicación de un método de código de
longitud variable (Gonzalez y Woods, 1996), así como cada valor de AC.
- Compresión de imágenes en color
El esquema básico para la compresión se basa en el trabajo con imágenes de 8
bits, pero no obstante puede ser aplicado a imágenes a color. La compresión de
imágenes a color se realiza mediante la compresión de cada uno de los canales de
información, pudiéndose aplicar a cualquier tipo de modelo de color, si bien es
aconsejable aplicarlo al modelo YUV (Y: iluminancia, UV: cromacidad) en la que
cada uno de los canales es independiente.
- Compresión de imágenes de gran tamaño
La descompresión de imágenes de gran tamaño es un proceso largo, debido a esto
para la compresión de imágenes de este tipo se suele dividir en elementos de menor
tamaño y posteriormente se almacena un catálogo de forma que se permita un rápido
acceso a cada una de las partes de la imagen (fig.4.9). Esto permite además que sólo
se descomprima el fragmento de imagen en la que deseemos trabajar, lo que supone
un gran ahorro de tiempo ya que aunque el proceso de compresión sea más lento, éste
usualmente sólo se realiza una vez, mientras que el de descompresión suele ser más
frecuente.
Proceso
Compresión

Catálogo
Imagen Fraccionada

Bloques de tamaño variable


Fig.4.9. Compresión de una imagen de gran tamaño
FOTOGRAMETRÍA DIGITAL   235 

- Efectos geométricos de la compresión JPEG


En los trabajos fotogramétricos el aspecto esencial de las imágenes es su calidad
geométrica. La calidad geométrica de la imagen se puede empeorar en un proceso de
compresión de la imagen en dos formas: 1) mediante la perdida de la calidad
radiométrica de forma que el posicionamiento de los elementos sea preciso realizarlo
en una imagen borrosa; 2) por deformación de los objetos en alguna (o las dos)
direcciones. Estas degradaciones pueden ser en ambos casos locales o globales.
La pérdida de calidad geométrica de la imagen depende de diversos factores, por
un lado, del método y cantidad de compresión, pero también evidentemente de la
distribución de valores en la imagen digital y de su propia calidad. De los métodos
considerados dentro del estándar JPEG, únicamente el método de no degradativo
asegura el mantenimiento de la calidad geométrica y radiométrica de la imagen, si
bien como demuestran Mikhail et al (1984) la compresión DCT produce el
desplazamiento máximo de 0.5 píxeles de los elementos cuando se aplica una tasa de
compresión de 1:16 a una imagen de 8 bits.
Lammi y Sarjakoski (1995) estudian los efectos de la compresión en la calidad
geométrica de imágenes en color, analizando la precisión (medida de la calidad
interna o repetibilidad de las medidas) y la exactitud (medida de la calidad externa -
global- de las medidas comparadas con alguna referencia considerada como
representativa de la realidad).
La imagen original fue obtenida de la digitalización de una diapositiva de una
fotografía aérea en color utilizando para ello un escáner Sharp JX-600 con una
resolución de 600ppp y a la misma fueron aplicadas tres tasas de compresión 1:7
(Excelente), 1:15 (Alta) y 1:66 (Regular).
La calidad visual de la imagen fue muy buena en la tasa 1:7, buena en la tasa 1:15
si bien ya eran patentes los efectos de la compresión y bastante mala en la tasa 1:66,
donde los bloques de 8x8 eran claramente visibles y los límites de los objetos
fuertemente suavizados. Para la comprobación emplearon 50 elementos lineales en la
fotografía, seleccionando elementos cuyo tamaño fuera mayor que el tamaño del
bloque de compresión y además que estuvieran situados en la parte central del
fotograma, realizándose las medidas 20 veces en la imagen original y 10 veces en las
imagenes comprimidas utilizándose sistemas de medida con la precisión del subpíxel.
Tras realizar las medidas se calculó el error medio cuadrático (RSME) para las
diferencias entre los extremos de los elementos lineales (fig.4.10).

Trazado medio

Extremo del trazado lineal


Distancia perpendicular
con respecto al medio

Fig.4.10. Diferencias perpendiculares entre los extremos de los elementos lineales


236  PREPROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

Precisión de la medida puntual


La precisión de la medida puntual de los elementos lineales en las imágenes fue
calculada en base a un test estadístico. Las medidas realizadas se supone que siguen
una distribución tipo gausiana, rechazándose aquellas medidas cuyo error era superior
a 3 veces la desviación típica. Las precisiones de medida puntual de los elementos
lineales de la imagen se resumen en la Tabla 4.8.
Tabla 4.8. Precisión puntual de las medidas de elementos lineales sobre las imágenes comprimidas,
expresadas en función del error máximo (Emax) y la raíz del error medio cuadrático (RMSE). Los
valores están expresados en píxeles, también se indican en cada caso los grados de libertad del
test (v)
Imagen (Nivel de compresión) Emax RSME V
Original 0.90 "0.28 1842
Excelente (1:7) 0.84 "0.27 886
Alta (1:15) 0.88 "0.26 878
Regular (1:66) 1.15 "0.39 864

Las imágenes comprimidas fueron comparadas con la imagen original mediante


un test de comparación de varianzas (σ2original, σ2comprimida), la hipótesis se plantea
como: H0 : σ2original = σ2comprimida H1 : σ2original … σ2comprimida
El test empleado fue el test F de Snedecor utilizando como parámetro del test la
relación entre la varianza de las muestras (s2original /s2comprimida):
2
s original
zF = 2
s comprimida

La hipótesis H0 es rechazada con el nivel de confianza α si:

(
z F ≥ F1−α / 2 voriginal , v comprimida ) o zF ≤
(
1
F1− α / 2 vcomprimida , voriginal )
donde voriginal, vcomprimido son los grados de libertad y F representa el valor de la
distribución F. Los niveles de confianza (1-α/2) en los que la hipótesis H0 puede ser
rechazada se muestran en la Tabla 4.9.
Tabla 4.9. Niveles de confianza de aceptación de la hipótesis de la no existencia de diferencias
significativas en términos de varianza obtenidas mediante el test F
Excelente (1:7) Alta (1:15) Regular (1:66)
80.2% 99.7% 99.9%

Como se puede comprobar la precisión de posado a nivel puntual no difiere


estadísticamente de la precisión en la imagen original, sin embargo, en los otros casos
si se encuentran diferencias a niveles altos (superiores al 99.5%). El hecho de que la
imagen regular presente mejor precisión se debe a el hecho de que el efecto del píxel
de dicha imagen posibilita que sea más fácil repetir diferentes veces la misma medida.
Exactitud del posado
El conjunto de elementos de la imagen también fueron utilizados como referencia
para obtener la exactitud del posado. Los resultados se muestran en las Tablas 4.10 y
4.11.
FOTOGRAMETRÍA DIGITAL   237 

Tabla 4.10. Errores cuadráticos medios de las diferencias perpendiculares entre los valores originales y
los de las imágenes comprimidas. Valores de error expresados en píxeles
Imagen (Nivel de compresión) Emax RSME V
Excelente (1:7) 1.00 "0.30 886
Alta (1:15) 1.40 "0.31 878
Regular (1:66) 3.32 "0.65 864
Tabla 4.11. Diferencias entre un conjunto de elementos de la imagen original y las obtenidas de las
imágenes comprimidas
Imagen (Nivel de compresión) Emax RSME V
Excelente (1:7) 0.27 "0.12 99
Alta (1:15) 0.73 "0.18 99
Regular (1:66) 2.76 "0.50 99

La comparación de los resultados ponen de manifiesto que la imagen comprimida


bajo el nivel Excelente es muy parecida a la imagen Original, este parecido también
se mantiene para la imagen Alta, si bien en este caso ya aparecen errores sistemáticos,
estos errores crecen considerablemente en el caso de la imagen Regular, en el que las
diferencias son obvias. Las diferencias en la imagen Regular son básicamente debidas
al hecho de que los bordes de los elementos de la imagen han sido fuertemente
suavizados.
No obstante, es importante tener en cuenta otros problemas no analizados en el
trabajo de Lammi y Sarjakoski (1995) como es la aparición de un teselado en la
imagen restaurada. El problema es debido a la necesaria división de la imagen en
bloques de 8x8 (tiles) y la aplicación a cada uno de las porciones de una
transformación individual que produce discontinuidades en la imagen restaurada que
pueden tener importantes repercusiones en los procesos de correlación automática. En
la figura 4.11 se muestra un ejemplo de este efecto de teselado al aplicar JPEG con
una tasa de compresión alta.

Fig.4.11. Ejemplo de JPEG con una tasa de compresión alta (Lizard Tech, 1997)

4.2.2.2 Compresión Jerárquica Predictiva (HPC)


Este sistema de compresión de imágenes surge como un sistema de compresión
para imágenes de video. El algoritmo comienza con la creación de una representación
a escala a distintos niveles de la imagen original (pirámides de imágenes -ver apartado
4.2.4-), así por ejemplo, una imagen de un tamaño de 1024x1024 píxeles se
descompone en cinco imágenes correspondientes a cinco niveles de escala: 512x512,
256x256, 128x128 y 64x64. La pirámide se crea mediante la convolución de las
238  PREPROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

imágenes de mayor resolución mediante la aplicación de un operador gausiano y el


aumento del tamaño del píxel al doble.
Se calculan las imágenes diferencia entre los diferentes niveles. Estas diferencias
representan los componentes de alta frecuencia del nivel previo de la pirámide. La
imagen original puede ser reconstruida a partir de su representación en el nivel de
menor resolución (64x64 píxeles) y de las imágenes diferencia. Los valores de píxel
de las imágenes diferencia son normalmente pequeños y pueden ser codificados y
almacenados en un número reducido de bits, de forma que se alcanza una compresión
sin pérdida de información, no obstante para obtener mayor tasa de compresión se
utiliza la cuantificación, que produce degradación de la imagen y una compresión más
eficaz pero con pérdida de calidad.
El algoritmo de la HPC consta de las siguientes etapas (fig.4.12):
- Se crea una pirámide de imágenes mediante un operador gausiano de tamaño
3x3. Así, por ejemplo, una imagen de tamaño 1024x1024, da lugar a una
sucesión de imágenes 512x512, 256x256, 128x128 y 64x64.
- Se calculan las imágenes diferencia de todos los niveles, obteniendo en el
ejemplo anterior 4 imágenes (1024-512), (512-256), (256-128) y (128-64).
La clave del método consiste en el modo de almacenamiento de las imágenes:
- Los valores de la imagen del nivel más alto (64x64) y la primera imagen
diferencia (128/64) es almacenada como enteros con toda la profundidad de
color (8 bits).
- Los valores de la imagen diferencia 256/128 se almacenan como enteros
reduciendo la profundidad de color (por ejemplo, 5 bits).
- Los valores de la imagen diferencia de 512/256 se almacenan como enteros
reduciendo aún más la profundidad de color (por ejemplo, 3 bits).
- Los valores de la imagen diferencia 1024/512 se almacenan con una
profundidad de color mínima, al ser las diferencias previsibles muy reducidas
(1 bit).
El método HPC-8.5.3.1 alcanza una tasa de compresión de 3.6. Para obtener
mayores tasas las imágenes diferencia deben ser almacenadas con menor número de
bits, aunque con la desventaja de un mayor riesgo de degradación de la imagen.
Es un método considerablemente más rápido que el método JPEG, así Novak y
Shanin (1996) realizan un estudio comparativo entre ambos métodos, tanto en lo
relativo a tasas de compresión, como a calidad de las imágenes restauradas y
velocidad de ejecución. La tasa de compresión está relacionada con el método
empleado, así en dicho trabajo se someten a análisis JPEG-75, con una tasa de 5.9,
JPEG-40, tasa de 12.5, JPEG-25, tasa de 42.3, HPC-8.5.3.1, tasa de 3.6 y HPC-
8.3.3.1, tasa de 4.5, alcanzándose errores medios cuadráticos inferiores al píxel en
todos los métodos, con máximos inferiores al píxel en los métodos JPEG-75 y HPC-
8.5.3.1. La velocidad de compresión es sensiblemente superior en el HPC, con 5 s
para la compresión de una imagen de 1Mb en una estación Sun SparcStation 2 y 20 s
para la compresión JPEG, ascenso sin duda debido a la mayor complejidad de cálculo
y a la necesidad de la realización de una transformación de coseno discreto.
FOTOGRAMETRÍA DIGITAL   239 

PIRÁMIDE DE IMÁGENES IMÁGENES DIFERENCIA


64x64 Cuantización 8 bit
128x128
Cuantización 5 bit
256x256

Cuantización 3 bit
512x512

Cuantización 1 bit

1024x1024

IMAGEN ORIGINAL
Fig.4.12. Esquema de la compresión HPC

Una ventaja adicional del sistema HPC es la posibilidad de disponer de un


conjunto de imágenes a diferentes resoluciones que permite la resolución del
problema fotogramétrico, partiendo de una imagen generalizada (de escaso volumen
pero que refleja los elementos más relevantes de la imagen) y refinando los resultados
al descender de nivel, utilizando los resultados del nivel superior como valores de
partida (Fig.4.13).

Imagen Original (Nivel 0) (1024x1024) Imagen Nivel 4 (64x64). Ampliada 16 veces

Fig.4.13. Imagen Original e Imagen del nivel superior obtenida mediante HPC

Pirámides de tipo gausiano-laplaciano


Sea una imagen en el nivel k de la estructura de la pirámide Gk(i,j), la resolución
del siguiente nivel de la imagen k+1 es Gk+1(i,j) (usualmente para la imagen original
240  PREPROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

se toma k=0). Burt y Adelson (1983) proponen una función ponderadora gausiana,
equivalente a un filtro de paso bajo, para eliminar las correlaciones píxel a píxel
cuando se realiza la estimación de Gk+1(i,j) a partir de Gk(i,j).
La reducción nivel a nivel se realiza mediante la aplicación de la expresión:
2 2
G k (i, j) = ∑ ∑ w (m, n )G k −1 (m + 2i, n + 2 j)
m = −2 n = −2

donde w(m,n) es una función ponderadora gausiana la cual se puede generar mediante
la ecuación w(m,n)=f(m) f(n), siendo f(m) una función normalizada y simétrica
definida por:
2
∑ f (m) = 1 f (m ) = f (− m ) m = 0, 1, 2
m = −2

Una de las funciones que satisface las condiciones anteriores es (Burt y Adelson,
1983):
f(0)=c f(-1)=f(1)= 1/4 f(-2)=f(2)=(1/4) - (c/2)
donde c es una constante y puede ser ajustada a objeto de minimizar la entropía y
varianza de las imágenes laplacianas.
Si la dimensión de Gk--1(i,j) es 2M x 2 N y la de Gk (i,j) es 2M-1+1 x 2N-1+1, es decir,
la resolución en el nivel k se reduce siempre del nivel k al k-1 en una relación de 2 en
cada dimensión. Las imágenes resultantes se ordenan en una pirámide que se
denomina gausiana, representando el nivel de mayor resolución la base, pudiendo
pasar de una imagen de menor resolución Gk a una de mayor resolución G=k-1
mediante la aplicación del correspondiente estimador:
2 2
⎡⎛ i + m ⎞ ⎛ j + n ⎞⎤
G 'k (i, j) = 4 ∑ ∑ w (m, n )G k +1 ⎢⎣⎜⎝ ⎟, ⎜ ⎟⎥
m = −2 n = −2
2 ⎠ ⎝ 2 ⎠⎦

donde sólo los píxeles que han que las expresiones entre corchetes sean enteros son
utilizadas para la suma. La imagen diferencia es denominada imagen laplaciana y
viene definida por:
Lk(i,j) = Gk(i,j) - G=k(i,j)
donde Lk(i,j) también es denominado como error de predicción, que suele tener un
rango dinámico pequeño. La codificación de la imagen original es reemplazada por la
codificación de las imágenes laplacianas organizadas como pirámide, existiendo
únicamente el problema de la elección de la constante c. Esta constante se elige de
forma que las diferencias entre las imágenes estimadas y la original (o la
correspondiente del nivel inferior) sean mínimas en términos de varianza y entropía.
Burt y Adelson (1983) indican que un valor óptimo de c es 0.6.
FOTOGRAMETRÍA DIGITAL   241 

4.2.2.3 Cuantificación vectorial


Este método, al igual que el método de JPEG, comienza con la división de la
imagen en bloques de tamaño n x n píxeles, si bien en este caso no existe ninguna
predefinición en cuanto al tamaño de los mismos, si bien es frecuente el empleo de
tamaño de 4x4 píxeles. Estos bloques son comparados con un conjunto predefinido de
bloques representativos (codebook), la comparación se establece mediante el cálculo
de la sumatoria de las diferencias de cada elemento del bloque con cada elemento de
cada uno de los bloques incluidos en el libro de códigos. Aquel código que presente
una suma de diferencias menor será elegido como representativo y el bloque de la
imagen original será sustituido por el índice del bloque seleccionado.
Las relaciones de compresión que se alcanzan mediante este método son elevadas,
así por ejemplo, para una imagen de 24 bits/píxel (color RGB) para el
almacenamiento de un bloque de 4x4 píxeles es necesario 384 bits, que pueden
comprimirse en 10 bytes si se emplea una tabla de códigos de 1024 posibilidades,
alcanzándose una tasa de compresión de 38.4.
La parte más compleja del método es la definición de los bloques codificados
predefinidos. A priori, la solución más acertada podría parecer escoger como bloques
aquellas porciones de la imagen que aportan más información (por ejemplo, bordes) si
bien es necesario tener en cuenta que la frecuencia de aparición de dichos elementos
en la imagen global es baja, con lo cual la imagen comprimida tendrá poca calidad.
4.2.2.4 Compresión fractal
La compresión fractal supone una ruptura total con la filosofía actual en cuanto a
técnicas de compresión de imágenes. La diferencia entre la compresión fractal y el
resto de las técnicas reside en el hecho de que en la primera lo que se almacenan son
las fórmulas que nos van a dar lugar a la imagen. Por tanto, estas técnicas son
independientes de la resolución de la imagen.
Mediante este método las tasas de compresión que se alcanzan son muy elevadas
(en torno a 100) y se han obtenido buenos resultados en la compresión de imágenes
naturales. La base de este método reside en dividir la imagen original en porciones
más pequeñas, dichas porciones en porciones aún más pequeñas y así sucesivamente,
estableciendo de una forma analítica las relaciones existentes entre las diferentes
porciones, denominadas regiones del dominio. Dichas regiones son definidas en
función de técnicas clásicas de análisis de imágenes tales como detección de bordes,
análisis textural, ... . Al igual que el resto de los métodos degradativos, la compresión
fractal introduce efectos en la imagen tales como suavizado y eliminación de detalles,
no siendo, en principio aconsejable su utilización cuando el objetivo del trabajo
fotogramétrico sea la restitución.
4.2.2.5 Transformaciones de wavelet discretas
Los métodos basados en la aplicación de las transformaciones de wavelet discretas
están experimentando un importante auge en los últimos años. El estándar más
conocido es el método denominado Mr.SID, abreviatura de Multiresolution Seamless
Image Database, que se está implementando en la mayoría de los sistemas de
242  PREPROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

tratamiento de imágenes tanto fotogramétricas, como en Teledetección (actualmente


es utilizada en Erdas Imagine como estándar de compresión), así como en otros
organismos como, por ejemplo, el FBI norteamericano (para sus bases de datos de
huellas dactilares).
Mediante este método se obtienen tasas de compresión que alcanzan 70:1 para
imágenes en color (en torno a 3 veces más que con otros métodos similares como
JPEG). El método Mr.SID presenta en cuanto a su estructura general ciertas analogías
con el método JPEG, con la diferencia de que en el caso de Mr.SID se aplica una
transformación de wavelet discreta (DWT) en lugar de una transformación de coseno
discreto (DCT).
Las ventajas fundamentales de la transformación DWT frente a la transformación
DCT es su carácter local, con lo que proporciona mejores tasas de compresión y una
menor degradación de la imagen. La transformación DCT se basa en una
transformación Fourier e intenta describir la imagen como una superposición de ondas
de cosenos. Estas ondas son infinitas, por lo que es necesario partir la imagen en
bloques de tamaño reducido (8x8) y aplicar la transformación en cada bloque,
pudiendo producirse la aparición del teselado en la imagen comprimida (fig.4.11).
El principal problema que presenta la transformación DWT frente a la DCT es la
cantidad de memoria requerida en la transformación. La partición en bloques de la
DCT aunque puede llegar a producir efectos indeseados en la imagen es muy
eficiente, ya que sólo requiere tener acceso a dicho bloque. La transformación DWT
requiere el acceso a la imagen completa, lo cual es un problema para un gran número
de las imágenes empleadas en fotogrametría debiendo recurrir a la división de la
imagen en bloques.
Una ventaja muy importante de la transformación DWT es que es una
transformación multirresolución, incorporando la posibilidad de la descompresión
selectiva de porciones de la imagen. Estas dos ventajas facilitan de una forma muy
importante la visualización a todas las escalas de trabajo en especial las pequeñas y
medianas, con tiempos de descompresión mucho más reducidos que los de LZW o
JPEG.
FOTOGRAMETRÍA DIGITAL   243 

ANEXO 4.1. TERMINOLOGÍA INFORMÁTICA RELACIONADA CON EL


ALMACENAMIENTO DE IMÁGENES DIGITALES
Para obtener información complementaría se recomienda la consulta de la página
web http://webopedia.internet.com.
RAD: Es la sigla de Random Access Devices (Periféricos de Acceso Aleatorio) y se
utiliza para denominar a aquellos periféricos que pueden acceder directamente a una
determinada localización sin tener que desplazarse físicamente por todo el sistema.
Ultra DMA / Ultra ATA: El Ultra DMA es un protocolo desarrollado por Quantum
Corporation e Intel para permitir la transferencia de datos a velocidades de 66MBps.
Esta velocidad es el doble que la poseen los PC que no incorporan este protocolo y
para ser utilizado requiere incorporar discos con estándar Ultra ATA de transferencia.
SCSI (Small Computer System Interface): SCSI es un controlador de entrada/salida
estandarizado para periféricos (CD-ROM, discos duros, sistemas de backup, discos
ópticos, Y) empleado en los sistemas Apple Macintosh, PC y UNIX. El interface
SCSI proporciona tasas de transferencia más altas (hasta 80 Mb/s) que los puertos
convencionales paralelo y serie, con la ventaja adicional de poder enlazar varios
periféricos en serie a un único puerto.
Aunque la conexión SCSI está sujeta a un estándar ANSI, existen diversas
variaciones del mismo, de forma que existen diversos tipos de generaciones de
controladores y de conexiones.
En la actualidad, existen 9 generaciones de controladores SCSI:
- SCSI-1, es la primera generación de controladores. Su bus de intercambio de
información es de 8 bits y permite una velocidad de transferencia de 4Mb/s.
- SCSI-2, proporciona una considerable mejora con respecto a la anterior con
un bus de transferencia de 16 y 32 bits y un conector de 50 patillas en lugar
del antiguo conector de 25, permitiendo la conexión simultánea de varios
periféricos en serie. Las velocidades de transferencia de datos son de 10 Mb/s
y 40Mb/s.
- Wide SCSI: Utiliza un cable más ancho (168 cables y 68 pines) y trabaja con
transferencia de 16 bits.
- Fast SCSI: Utiliza un bus de 8 bits, pero duplica la velocidad de reloj para
permitir velocidades de transferencia de 10 Mb/s.
- Fast Wide SCSI: Tiene un bus de 16 bits y tasas de transferencia de 20 Mb/s.
- Ultra SCSI: Utiliza un bus de 8 bits con tasas de transferencia de 20 Mb/s.
- SCSI-3: Utiliza un bus de 16 bits con tasas de transferencia de 40Mb/s.
- Ultra2 SCSI: Utiliza un bus de 8 bits con tasas de transferencia de 40 Mb/s.
- Wide Ultra2 SCSI: Utiliza un bus de 16 bits y tasas de transferencia de
80Mb/s.
RAID (Redundant Arrays of Inexpensive Disks): RAID es sistema de almacenamiento
masivo que se utiliza tanto para máquinas en red como para máquinas independientes.
En este sistema, los datos se copian en múltiples discos para proporcionar una
244  PREPROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

respuesta más rápida, tolerancia a errores y corrección de errores. Existen diferentes


niveles de RAID siendo los más comunes los niveles 0, 3 y 5.
Nivel 0: Puede compartir los bloques de cada fichero entre varios discos, pero
no incorpora redundancia. Mejora el rendimiento del acceso pero no
representa ninguna mejora de seguridad frente a fallos de los discos.
Nivel 1. Proporciona copias de seguridad de los discos.
Nivel 3: Similar al nivel 0, pero reserva un disco para corrección de errores de
datos. Proporciona un buen rendimiento de acceso y un cierto nivel de
seguridad frente a la pérdida de datos.
Nivel 5: Permite compartir los datos de los bloques a nivel de bytes
incorporando información de corrección de error. Es una solución
óptima en cuanto a acceso a la información y garantía de recuperación
de datos en caso de fallo del disco.
HSM (Hierarchical Storage Management): HSM es un sistema de almacenamiento
multinivel donde cada nivel actúa como caché para los sistemas más lentos y de coste
más reducido que constituyen el nivel inferior del almacenamiento jerárquico.
FDDI (Fiber Distributed Data Interface): FDDI es un estándar ANSI (Americal
National Standard Institute) para redes locales tipo LAN (Local Area computer
Networks). En este protocolo de red, los ordenadores se conectan por un cableado de
fibra óptica que tiene una capacidad de transmisión de hasta 12.5Mb/s y distancias
hasta 100Km. FDDI representa una considerable mejora con respecto a otros tipos de
LAN como pueden ser Token Ring y Ethernet.
Ethernet: Ethernet es una estándar para redes locales (LAN) que se desarrolló por un
esfuerzo conjunto de Xerox, Digital y Intel en 1976. Ethernet fue elegido como
estándar por el Institute of Electrical Engineering and Electronics (IEEE). La
velocidad de transmisión es de 1.2Mb/s y puede conectarse a un máximo de 1024
nodos con una longitud máxima de cable de 500m, existen dos actualizaciones Fast
Ethernet (100 Base-T) con velocidad de hasta 100Mbps y Gigabit Ethernet con
velocidad de hasta 1Gbps.
DAT (Digital Audio Tape): Es un tipo de cinta magnética que utiliza un esquema
denominado helical scan para el almacenamiento de datos. Una cinta DAT tiene un
tamaño ligeramente superior a una tarjeta de crédito y permite almacenar entre 2 y 24
Gb de datos con velocidades de transferencia de 2MBps.
Los tipos de cinta DAT más frecuentes son 1/2" con capacidad de 60 a 400 Mb, 1/4"
con capacidad 40Mb a 5Gb (cintas QIC), 8mm con capacidad 5Gb a 40 Gb y cintas
helical-scan que utilizan la misma tecnología que las cintas de video y tienen la mayor
capacidad, aunque requieren lectores de alto coste y velocidad de transferencia
relativamente baja y 4mm con capacidad 2 a 24Gb (cintas DAT).
DLT (Digital Lineal Tape): Es un tipo de almacenamiento en cinta magnética
desarrollado originalmente por DEC y ahora comercializado por varias empresas. Las
cintas tienen capacidades entre 20 y 40Gb y su velocidad de acceso es más rápido que
los otros sistemas de cintas con tasas de 2.5 MBps.
FOTOGRAMETRÍA DIGITAL   245 

ANEXO 4.2. FORMATOS GRÁFICOS DE ALMACENAMIENTO DE


IMÁGENES DIGITALES
Formato PCX.
Es el formato original de los programas Paintbrush. Puede tener hasta 24 bits de
profundidad de color, aunque también hay versiones de 8 y 4 bits. El fichero PCX
comienza con una cabecera fija de 128 bytes de longitud, cuyo contenido se resumen
en la tabla adjunta. Desde la posición 16 a la 64, tal y como puede observarse, se
especifican los colores de la imagen, es decir, la paleta empleada. Su utilidad es
conseguir que la representación gráfica del fichero tenga unos colores uniformes,
mediante la definición de los porcentajes de azul, verde y rojo que componen cierto
color.
Byte Longitud Significado
0 1 Indica que es un PCX. Debe contener 0A hexadecimal
Versión de PCX
0 Paintbrush 2.5
2 Paintbrush 2.8 con información acerca de la paleta de colores
1 1
3 Paintbrush 2.8 sin información acerca de la paleta de colores
4 Paintbrush para Windows
5 Versiones superiores a la 3.0 y Publishers Paintbrush
2 1 Tipo de codificación (1 RLE; 2 No codificado)
3 1 Número de bits por píxel
4 8 Dimensiones de la imagen
12 2 Resolución horizontal de la imagen (expresada en ppp)
14 2 Resolución vertical de la imagen
16 48 Paleta de colores
64 1 Sin uso (tiene el valor 0)
65 1 Número de planos de color
66 2 Bytes por línea
68 2 Tipo de paleta (1 color o B/N; 2 escala de grises)
70 2 Dimensión horizontal de la pantalla en píxeles
72 2 Dimensión vertical de la pantalla en píxeles
74 54 Hasta el final de la cabecera, datos sin significado

La definición de los colores se efectúa de la siguiente manera, el color que se


define en la primera posición será referido como color 0 siendo posible la definición
de 16 colores (de 0 al 15) cada uno de los cuales ocupa de tres bytes, dando una
combinación rojo, verde y azul. No obstante, en la versión 5 del formato, es posible la
definición de 256 colores, mediante la definición de 3 bytes con combinación RGB.
Para el cálculo de la longitud final de cada línea debemos multiplicar el número de
planos (byte 65) por 66 (número de bytes por línea) (número de bytes por línea).
Multiplicando de nuevo por el número de líneas de la imagen y sumando los 128
bytes de la cabecera obtendremos la cantidad total de octetos (bytes) que ocupa el
fichero sin comprimir.
Finalizada la cabecera del fichero comienza la imagen propiamente dicha,
compuesta de líneas de barrido (scan lines). Estos datos siguen un método de
compresión RLE (Run Lenght Encoding), consistente en codificar las series de
repeticiones, de forma que indiquen las veces que aparece un cierto dato, seguidas por
el propio dato.
246  PREPROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

Sea una imagen con 10 píxeles por línea. Cada línea se compone, a su vez, de cuatro series con diez
datos. Cada una de estas series indica el valor de las componentes roja, azul y verde y la intensidad

Linea 0: Rojo AA AA AA AA AA 55 55 AA AA AA
Azul 00 00 00 00 12 00 00 00 00 00
Verde FF FF FF 43 43 43 43 43 43 43
Intensidad AA AA FE AA AA AA AA AA AA AA

La codificación RLE de esta línea sería:


Rojo C5 AA C2 55 C3 AA (5 repeticiones de AA, 2 de 55 y 3 de AA)
Azul C4 00 12 C5 00
Verde C3 FF C7 43
Intensidad C2 AA C1 FE C7 AA Ahorro de espacio: en torno al 50%

Formato BMP.
Este el formato que utiliza Windows para su fondo de pantalla (wallpaper). Puede
usar un máximo de 24 bits de profundidad de color. Su cabecera describe las
dimensiones y los colores, y el resto del fichero contiene los bytes que definen
propiamente la imagen. Acabada esta cabecera comienza la tabla de definición de
colores. Estos colores se definen por medio de intensidades relativas de cada uno de
los colores fundamentales (RGB), utilizando un byte para cada uno de ellos y otro que
queda reservado.
Parámetro Bytes Significado
biSize 4 Longitud de la cabecera
biWidht 4 Anchura de la imagen en píxeles
biHeight 4 Altura de la imagen en píxeles
biplanos 2 Número de planos (normalmente 1)
biBitCount 2 Número de bits por píxel
biCompression 4 Compresión utilizada (RGB, RLE8 ó RLE4)
biSizeImage 4 Tamaño de la imagen en bytes
biXpelspermeter 4 Resolución horizontal en píxeles/metro
biYpelspermeter 4 Resolución vertical en píxeles/metro
biClrUsed 4 N1 de índices de color (0 = biBitCount)
biClrImportant 4 Número de índices de color que se consideran importantes para la
visualización (0 = todos por igual)

El parámetro biBitCount puede tomar los siguientes valores:


1: si el bitmap es monocromo y cada bit representa un píxel. Si está a 0, el píxel
toma el valor de la primera entrada de la tabla y si está a 1 toma el de la
segunda entrada.
4: el bitmap tiene 16 colores y cada pixel se representa con 4 bits, que apuntan
al índice la tabla de colores.
8: se pueden representar 256 colores diferentes y para cada píxel será necesario
un byte (8 bits).
24: el bitmap tiene 16.7 millores de colores y no hay tabla de colores sino que
cada píxel queda representado por 3 bytes que indican las intensidades RGB.
En el formato BMP se pueden aplicar diferentes métodos de codificación de la
información:
FOTOGRAMETRÍA DIGITAL   247 

RLE8: Este tipo de codificación se aplica en el caso de 256 colores. Se compone de


dos bytes consecutivos. El primero indica el número de repeticiones del valor que
indica el siguiente byte. Si ese byte es 0, entonces el segundo tiene el siguiente
significado: si 0, final de línea; si 1, fin de imagen; si 2, desplazamiento (los dos
siguientes bytes indican el valor del desplazamiento horizontal y vertical desde la
posición actual.
RLE4: Usado para bitmap de 4 bits. Sigue un método de compresión análogo al
descrito anteriormente para el RLE8, pero con 4 bits.
Formato GIF.
GIF (Graphic Interchange Format) es el formato propuesto por Compuserve para el
intercambio y transmisión de información gráfica, por lo que esta entidad es la
encargada de revisar y actualizar sus especificaciones. Las versiones más extendidas
son las definidas en 1987 y 1989, conocidas como 87a y 89a. En la tabla se puede
observar la estructura de su cabecera. Tras dicha cabecera comienza la tabla global de
colores, que es donde se almacenan los valores de los colores que se usarán en la
imagen, cada uno de los cuales vendrá definido por una combinación RGB de 3 bytes.
A continuación viene la descripción de la imagen, que a su vez contiene la propia
descripción, una tabla de color global (opcional) y los datos propiamente dichos.
Posición Bytes Significado
0 3 Contiene los carácteres GIF como identificación
3 3 Versión
6 2 Ancho de la imagen en píxeles
8 2 Altura de la imagen en píxeles
10 1 Número con el siguiente significado (izquierda a derecha)
Bit 1. Si 1, existe tabla de color global
Bit 2 a 4. Número de bits por color primario
Bit 5. Si 1, la tabla de colores está ordenada
Bit 6 a 8. Tamaño de la tabla global (2n+1, con n dado por estos bits)
11 1 Color de fondo
12 1 Relación ancho/alto del pixel (entre 1:4 y 4:1)

Tras la tabla de colores comienza la descripción de la imagen. El primer byte


después de la tabla de colores contiene el valor 2C (hexadecimal), para indicar esta
separación. A continuación aparecen los valores: posición de la esquina izquierda de
la imagen en píxeles (dentro de la pantalla lógica), la posición de la parte superior de
la imagen en píxeles, la anchura de la imagen, la altura de la imagen, un byte
conteniendo información específica, y la tabla local de colores (compuesta por tríos
de bytes que definen la paleta que se usará en la siguiente imagen).
El byte de información específica indica (de izquierda a derecha):
Bit 1: Si 0, existe tabla de color local; si 1, usar tabla global.
Bit 2: Si 1, la imagen está entrelazada.
Bit 3: Si 1, la tabla local de colores está ordenada, con los colores más
frecuentes al principio.
Bit 4 y 5: Reservados.
Bits 6 a 8: Tamaño de la tabla local. La longitud será 3 por 2n+1, donde n
viene indicado por estos 3 bits.
248  PREPROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

En la parte dedicada a los datos de la imagen aparece, en primer lugar un byte que
indica el número inicial de bits para los códigos LZW de compresión, seguido por los
propios bloques de datos. Estos tiene una longitud entre 0 y 255 bytes, cantidad que
viene dada por el primer byte del sub-bloque. Como final de la secuencia del sub-
bloque se encuentra el valor 0. Tras toda esta información se encuentra un área
opcional denominada Graphic Control Extension, cuyos parámetros son retardo en la
decodificación y espera de entrada por el usuario, características que apenas son
usadas.
El siguiente bloque contiene información que se supone será leída por humanos.
Comienza con un 21 hexadecimal, seguido por FE hexadecimal y los comentarios en
formato ASCII de 7 bits y acaba con un cero. El denominado bloque Trailer finaliza
la descripción del fichero con un 3B hexadecimal.
La compresión LZW, citada anteriormente, es un método de compresión por
códigos de longitud variable, surgido como alternativa al RLE. Es una variación del
algoritmo Lempel-Ziv, por medio del cual se codifican las series o patrones de bits
que se repiten a lo largo del fichero por medio de un número índice, por el que se
sustituye esta serie, permitiendo así un ahorro considerable. Al comenzar la
codificación se fija un número inicial de bits que se pueden utilizar para realizar la
codificación, así si el valor introducido es 3, sólo se podrán introducir 8 patrones o
series (23). En el momento en que esta capacidad se rebase, se aumenta el número de
bits en uno, razón por el que se le denomina código de longitud variable. El proceso
seguido por la codificación LZW es el siguiente: se leen los datos de entrada y se
construye una tabla con códigos con los patrones detectados. Cada vez que aparece
uno nuevo, se incluye en la tabla, y si ya existía se escribe en el fichero de salida el
valor del código asociado. Posteriormente se realiza una segunda compresión, o para
ser más precisos un empaquetamiento, ya que como hemos visto los códigos de
compresión variarán en longitud a partir de un cierto valor que se fija de antemano.
Formato TIF.
El formato TIF nació como una mejora de los PCX ya existentes, y se caracteriza
principalmente por estar orientado al intercambio de ficheros entre diferentes
entornos. Dentro de la estructura del formato TIF se pueden encontrar campos que no
están expresamente definidos en la especificación estándar, pero que pueden ser
utilizados con determinadas aplicaciones ("áreas privadas"). No obstante, la
estructura general de un fichero TIF se puede dividir en tres partes bien diferenciadas:
la cabecera, la IFD (Image File Directory) y la imagen propiamente dicha.
La cabecera se compone tan sólo de 8 bytes. Los bytes 0 y 1 especifican el orden
con que se encuentran almacenados los restantes bytes: si aparece II (4Dh 4Dh)
utilizarán el formato Intel, de menos a más significativos: mientras que si aparece
MM (49h 49h) utilizarán el formato Motorola, de más a menos significativos. Los
bytes 2 y 3 almacenan el número de versión, mientras que del 4 al 7 se guarda el
desplazamiento del primer mapa de imagen o IFD.
Una vez finalizada la cabecera, comienza en la posición apuntada por los bytes 4 a
7 de la misma, la primera zona IFD. Cada zona se compone de secuencias de 12 bytes
FOTOGRAMETRÍA DIGITAL   249 

y finaliza con un puntero de 4 bytes hacia la siguiente zona IFD, salvo la última, en la
que estos bytes se rellenan con ceros. La estructura de cada una de estas estructuras de
12 bytes queda reflejada en la siguiente tabla.

Bytes Descripción
0-1 Tag o idenficación del campo
2-3 Tipo de campo, según la siguiente tabla:
1: Byte (8 bits) entero sin signo
2: ASCII (8 bits) código ASCII
3: SHORT (16 bits) entero sin signo
4: LONG (32 bits) entero sin signo
5: RATIONAL (64 bits) dos LONG (numerador y denominador)
4-7 Longitud del dato en las unidades del campo anterior
Si el dato en cuestión ocupa menos de cuatro bytes, para ahorrar espacio se coloca en estos
bytes, en vez del puntero
8-11 Offset del dato señalado por el tag dentro del fichero

Principales campos o tag


N1 de id. Tipo de dato Longitud Descripción
254(FEh) LONG 2 Tipo de fichero
256(100h) SHORT 1 Anchura de la imagen
257(101h) SHORT 1 Altura de la imagen
Tipo de compresión usada
1: Sin compresión
259(103h) SHORT 1
2: RLE Huffman (sólo para monocromo)
5: LZW
Tipo de interpretación fotométrica
0: Monocromo. El color 0 es el blanco
1: Monocromo. El color 0 es el negro
262(106h) SHORT 1
2: RGB
3: Colores de la paleta
4: Máscara de fondo
278(116h) SHORT/LONG 1 Número de columnas por fila
279(117h) SHORT Variable Número de bytes por línea
282(11Ah) RATIONAL 1 Píxeles por unidad de resolución en anchura
283(11Bh) RATIONAL 1 Píxeles por unidad de resolución en altura
305(131h) ASCII Variable Programa con el que se creó la imagen
306(132h) ASCII 20 Fecha y hora de creación

Para más detalles acerca de este formato se recomienda la consulta del estándar
del formato TIF publicado por Aldus Corporation (1992) y disponible en
http://www.aldus.com.
Formato GeoTIFF.
A pesar de que el formato TIF es uno de los formatos gráficos más populares para
el almacenamiento de imágenes digitales, presenta un serio inconveniente para su
utilización directa en cartografía, su estándar no contempla la incorporación de
información cartográfica. Este problema ha sido solventado por diversas empresas
(Intergraph, ESRI, Island Graphics, Y), creando etiquetas (tags) propios para
almacenar dicha información, aunque con el problema de la falta de compatibilidad al
ser estructuras propias de cada sistema (private tags).
250  PREPROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

La falta de un estándar para el almacenamiento de información cartográfica en


formato ráster, llevó a que a principios de la década de los 90 se iniciaran las
reuniones para establecer lo que a la postre sería el estándar GeoTIFF. En Mayo de
1995, en una reunión con participación de diversos organismos (USGS, NASA/JPL,
Y) y empresas (Intergraph, ESRI, ERDAS, SoftDesk, MapInfo, Y) se definió el
estándar GeoTIFF, si bien éste ha sufrido importantes modificaciones en los aspectos
relativos al método de parametrización de la proyección para compatibilizarlo con el
modelo de epicentro POSC y las indicaciones acerca de metainformación del Federal
Geographic Data Commitee (FGDC).
El formato GeoTIFF es simplemente un formato TIFF 6.0, al que se le han
añadido ciertas especificaciones para la introducción de la información cartográfica
de imágenes digitales provenientes de satélites o cámaras aéreas, mapas digitalizados,
modelos digitales del terreno o información resultante de análisis geográfico. Una
característica importante es que la información cartográfica va contenida en tags que
no van en contra de las recomendaciones del formato TIFF, por lo que las imágenes
GeoTIFF pueden ser leídas en un programa que acepte formato TIFF, si bien
lógicamente se perderá la información cartográfica contenida en esos tags especiales
añadidos.
El formato GeoTIFF utiliza un pequeño conjunto de tags para almacenar la
información necesaria, estos tags están estructurados en un AMetaTag@ (GeoKey) que
incluye diversos elementos de información que han sido diseñados de acuerdo con los
estándar de TIFF. Mediante esta codificación se pueden describir tipos de proyección,
de sistemas de coordenadas, datums, elipsoides, Y .
Para un estudio más completo de las características de este formato se recomienda
la consulta de las siguientes páginas de Internet:
- ftp://ftpmcmc.cr.usgs.gov/release/geotiff/jpl_mirror (que contiene la versión
más reciente del estándar GeoTIFF, así como la historia de las diferentes
versiones).
- http://www.earthlink.net/~ritter/geotiff/geotiff.html (que contiene información
acerca del formato GeoTIFF y de las especificaciones del formato con
hipertexto).
Ejemplos:
a) Ortofotografía aérea en proyección UTM
La ortofotografía está referida a una proyección UTM (zona 60), utilizando el
datum WGS84. Las coordenadas de la esquina superior izquierda de la imagen son
350807.4m (E), 5316081.3m (N) y la resolución de la ortoimagen es de 100m/píxel.
ModelTiepointTag = (0,0,0,350807.4,5316081.3,0.0)
ModelPíxelescaleTag = (100.0,100.0,0.0)
GeoKeyDirectoryTag:
ModelTiepointTag = (0, 0, 0, 350807.4, 5316081.3, 0.0)
ModelPíxelescaleTag = (100.0, 100.0, 0.0)
GeoKeyDirectoryTag:
GTModelTypeGeoKey = 1 (ModelTypeProjected)
FOTOGRAMETRÍA DIGITAL   251 

GTRasterTypeGeoKey = 1 (RasterPixelIsArea)
ProjectedCSTypeGeoKey = 32660 (PCS_WGS84_UTM_zone_60N)
PCSCitationGeoKey = "UTM Zone 60 N with WGS84"
b) Fotografía aérea de la que sólo se conocen varios puntos expresados en grados.
Se trata de una fotografía aérea de la que sólo se conoce la posición de varios
puntos medidos con un GPS y referidos en el sistema WGS84. La esquina superior
izquierda está a 120ºW y 30º20'N y la esquina inferior derecha está a 116º40'W y
30º20'N. La fotografía no está corregida geométricamente.
ModelTiepointTag=( 0.0, 0.0, 0.0, -120.0, 32.0, 0.0,
0.0, 1000.0, 0.0, -120.0, 30.33333, 0.0,
1000.0, 1000.0, 0.0, -116.6666667, 30.33333, 0.0)
GeoKeyDirectoryTag:
GTModelTypeGeoKey = 1 (ModelTypeGeographic)
GTRasterTypeGeoKey = 1 (RasterPixelIsArea)
GeographicTypeGeoKey = 4326 (GCS_WGS_84)
c) Modelo Digital de Elevaciones
El Servicio Cartográfico del Ejército Norteamericano (Defense Mapping Agency -
DMA-) almacena los modelos digitales de elevaciones utilizando una proyección
equirrectangular, de forma que puede ser referida a un sistema de coordenadas
geográficas WGS84. El ejemplo concreto se trata del modelo digital de elevaciones de
una zona boscosa en el que el nivel digital 0 se corresponde a una cota de 1000m
(referido al elipsoide de referencia WGS84) y cuya esquina superior izquierda está
situada a 120ºW, 32ºN, y tiene una tamaño de píxel de 0.2º/píxel en longitud y
0.1º/píxel en latitud.
ModelTiepointTag =(0.0, 0.0, 0.0, -120.0, 32.0, 1000.0)
ModelPíxelescale = (0.2, 0.1, 1.0)
GeoKeyDirectoryTag:
GTModelTypeGeoKey = 2 (ModelTypeGeographic)
GTRasterTypeGeoKey = 2 (RasterPixelIsPoint)
GeographicTypeGeoKey = 4326 (GCS_WGS_84)
VerticalCSTypeGeoKey = 5030 (VertCS_WGS_84_ellipsoid)
VerticalCitationGeoKey = "WGS 84 Ellipsoid"
VerticalUnitsGeoKey = 9001 (Linear_Meter)
Formato TGA
Este es el formato de los ficheros Targa de TrueVision permitiendo el
almacenamiento de imágenes monocromáticas o en color de 24 o 32 bits de
profundidad.
La estructura de la cabecera es la siguiente. El byte 0 contiene la longitud del
campo de identificación de la imagen, que se encuentra después del byte 10 de esta
cabecera. El siguiente byte indica la presencia o ausencia de un mapa de color. A
continuación viene el tipo de imagen (0: no hay datos; 1: mapa de color, sin
252  PREPROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

compresión; 2: color real, sin compresión; 3: blanco y negro, sin compresión; 9: mapa
de color, codificada RLE; 10: color real con RLE y 11: blanco y negro con RLE).
Los bytes 3 a 7 de la cabecera contienen la especificación del mapa de color. De
estos, 2 bytes señalan el índice de la primera entrada en el mapa; otros 2 indican el
número de entradas y un último byte marca el tamaño de cada definición de color (8,
24 ó 32 bits, normalmente).
El byte 8 y siguientes de la cabecera dan la localización, tamaño y número de
profundidad de color. La posición horizontal de la esquina inferior izquierda requiere
4 bytes (2 para la posición horizontal y otros 2 para la vertical). Análogamente se
requieren otros 4 bytes para señalar la anchura y altura en píxeles de la imagen. A
continuación se encuentra 1 byte que indica la profundidad de color por píxel (8, 16,
24 ó 32 bits, habitualmente).
Para el último byte de la cabecera se analizan los bits por separado. Los dos
primeros (bits 7 y 6) no se utilizan (deben ser 0). Los dos siguientes indican el orden
en el cual los píxeles van a ser transferidos a pantalla (00, inferior izquierda; 01,
inferior derecha; 10, superior izquierda; 11, superior derecha). Los 4 últimos bits
sirven para indicar el número de bits de atributos por píxel.
Tras la cabecera comienzan los datos de la imagen y del mapa de color. La
identificación de la imagen, de longitud variable, determinada por el byte de offset 0
de la cabecera. La longitud del mapa de color viene dada por los campos de número
de entradas de la tabla y por la longitud de cada uno de éstos, en formato RGB. Los
bits sobrantes de los bytes que se tomen se usarán para los datos del canal alfa o canal
de atributos.
La parte de datos de la imagen contiene un número de píxeles igual al producto de
las dimensiones de alto por ancho. Cada píxel se especifica con un número entero de
bytes que puede ser o bien una referencia a un índice del mapa de color o bien una
referencia a un índice del mapa de color o bien los datos para Alfa-Rojo-Verde-Azul.
Esta zona es la que podrá ir codificada por RLE, según lo indique el byte 1 de la
cabecera.
A continuación se encuentra la denominada área del desarrollador, área reservada
por TrueVision para que los desarrolladores incluyan datos para los cuales no se ha
reservado una zona concreta de la especificación del formato. El comienzo de la zona
queda indicada por los bytes 4 a 7 del final de fichero y puede contener a su vez, más
de un campo de desarrollador, por lo que el primer byte de esta zona nos proporciona
el número de entradas en esta área.
Adicionalmente se incluye la denominada área de extensión, zona que fue creada
básicamente para proporcionar mayor información acerca de la imagen, su creador y
el software usado. Comienza en el offset señalado por el primer campo del footer,
contando a partir del comienzo del fichero. Si éste fuera cero, no existe esta área.
En la posición apuntada por los valores de 490-493, se encuentra representado el
mapa de líneas de barrido, que indica las direcciones o desplazamientos en los que se
encuentran los datos de cada una de las líneas. La longitud de este campo es variable,
FOTOGRAMETRÍA DIGITAL   253 

pero siempre en grupos de 4 bytes. Inmediatamente, después de estos datos, y


apuntados por los valores de los bytes 482-485, se encuentran los datos de la imagen
reducida, de dimensiones máximas de 64 x 64 píxeles y que es una versión reducida
de la original. Ninguno de los datos de este área está comprimido.
Y, por último, aparece la tabla de corrección de colores, codificada en el orden
ARGB y con dos bytes por cada campo. Los bytes 0 a 3 del pie de imagen (image
footer) señalan el desplazamiento del comienzo del área de extensión. Los bytes 4 a 7
indican el desplazamiento del comienzo del área del desarrollador, mientras que los
bytes 8 a 23 identifican el tipo de imagen (debe contener la cadena TrueVision-Xfile).
Por último, aparecen dos bytes, uno con el carácter ASCII *.+ y otro con el carácter de
fin de fichero (contenido 00).
Bytes Descripción
0-1 Número de bytes necesarios para la parte de longitud fija del área de extensión. Para la
versión 2.0 debe ser 495.
2-42 Cadena ASCII de 40 caracteres, terminada con un cero, con el nombre del autor.
43-366 Comentarios, estructurados en 4 líneas de 80 caracteres, cada una terminada en un cero.
367-378 Fecha y hora de creación en formato MMDDAAHHMMSS.
379-419 Identificación de la tarea que creó la imagen.
420-425 Tiempo que se tardó en crear la imagen.
426-466 Identificación del software.
467-469 Versión del software. Los primeros dos bytes indican la versión del programa
multiplicada por cien y el tercero letra de la versión (si la hay).
470-473 Clave de color de fondo o "color transparente", en formato ARGB (Alpha, Red, Green,
Blue) con un byte cada uno.
474-477 Relación entre alto y ancho de cada píxel (proporción), el primer byte es la anchura y el
segundo la altura.
478-481 Valor de gamma (corrección) también dada como relación en el mismo formato que el
anterior. Si no hay tal corrección, se da en ambos bytes el mismo valor, para conseguir
relación 1/1.
482-485 Desplazamiento de la tabla de corrección de colores (si no hay, es 0).
486-489 Desplazamiento de la imagen reducida. Si la hay, debe estar inmediatamente antes del
pie del fichero (footer).
490-493 Desplazamiento del comienzo de la primera línea de barrido desde el comienzo del
fichero.
494 Especifica el tipo de canal alfa usado en la imagen:
0: No hay canal alfa
1: Ignorado
2: Ignorado
3: Hay datos de canal alfa
4: Tipo pre-multiplicado
254  PREPROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

ANEXO 4.3. ESTRUCTURA DEL FICHERO: LOR 50-50.TIF

4949
002ª
00 00 00 08
00 0B
00FF 0003 00000001 00000001 255-SubFileType 255
0100 0003 00000001 000001CB 256-Image Widht 459 pix
0101 0003 00000001 000001CB 257-Image Lenght 459 pix
0102 0003 00000001 00000008 258-Bits per sample
0106 0003 00000001 00000001 262-Photom Interp. 255=Blanco
0107 0003 00000001 00000001 263-Thresholding
0108 0003 00000001 00000004 264-Cell widht
0109 0003 00000001 00000004 265-Cell lenght
0111 0004 00000001 000000A2 273-Strip Offset Long.Cab: 162
011ª 0005 00000001 00000092 282-Resol.X Refer: 146
011B 0005 00000001 0000009A 283-Resol Y Refer: 154
0000 0000 000000 Bits en 0 hasta posición 146
0007C06F 00001027 Resolución X 508015 / 10000 = 50.8 ppp
0007C06F 00001027 Resolución Y 508015 / 10000 = 50.8 ppp
28(40) 25(37) 25(37) 25(37) 24(36) 33(51)
....
FOTOGRAMETRÍA DIGITAL   255 

REFERENCIAS BIBLIOGRÁFICAS
Aldus Corporation (1992). TIFF. Revision 6.0. 123 p.
Burt,P.J. y Adelson, E.H. (1983). The Laplacian pyramid as a compact image code. IEEE Transactions and
Communications. 31(4), 532-540.
González, R.C. y Woods, R.E. (1996). Tratamiento Digital de Imágenes. Ed. Addison-Wesley, Díaz de
Santos, Madrid, 772 p.
Huffman, D.A. (1952). A Method of Construction of Minimum Redundancy Codes. Proc. of the IRE, 1098-
1101.
Lammi,J. y Sarjakoski, T. (1995). Image Compression by the JPEG Algorithm. Photogrammetric
Engineering & Remote Sensing. 61(10), 1261-1266.
Lizard Tech (1997). Mr SID. White Paper. 13 pág. Información de la compañía.
Lynch, T. (1985). Data Compression Techniques and Applications. Lifetime Learning Publications.
Belmont, California.
Mikhail, E.M.; Akey,M.L. y Mitchell, O.R. (1984). Detection and subpixel location of photogrammetric
targets in digital images. Photogrammetria, 39(3), 63-83.
Novak, K. y Shanin, F.S. (1996). A Comparison of two Image Compresion Techniques for Softcopy
Photogrammetry. PE&RS, 62(6), 695-701.
Press, W.H.; Teulosky, S.A.; Vetterling, W.T. y Flannery, B.P. (1994). Numerical Recipes in FORTRAN.
The Art of Scientific Computing. 20 Ed. 905 p.
Rabbani, M. y Jones, P. (1990). Digital Image Compression Techniques. SPIE Optical Engineering Press,
Bellingham, Washington.
Sester, M. (1994). Test on Image Understanding. ISPRS III/3 Working Group. University of Stuttgart.
Storer, J. (1988). Data Compression: Methods and Theory. Computer Science Press. Rockville, Maryland.
Welch, R. (1984). A technique for high-performance data compression. IEEE Computer, 17 (6), 8-19.
Zip,J. y Lempel, A. (1977). An universal algorithm for sequential data compression. IEEE Transactions on
Information Theory. Mayo 1977.
256  PREPROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 
Capítulo 5. Procesamiento de Imágenes
Digitales Fotogramétricas

5.1 Introducción
5.2 Modelos de imágenes digitales
5.3 Operaciones elementales con imágenes digitales
5.4 Operaciones locales en imágenes digitales
5.5 Operadores morfológicos
5.6 Pirámides de imágenes
5.7 Corrección de imágenes
5.8 Transformaciones geométricas
5.9 Segmentación de la imagen

5.1 INTRODUCCIÓN
Bajo la denominación de Procesamiento de Imágenes Digitales se incluyen un
gran número de técnicas que incluyen todas las fases del trabajo con las imágenes
digitales, desde la adquisición hasta la representación de los resultados (imágenes)
finales tanto en formato digital como analógico (técnicas de impresión), pasando por
la transmisión y análisis de las mismas (fig.5.1). El objetivo fundamental de este
procesamiento es la mejora de la calidad visual de las imágenes para facilitar su
interpretación y análisis, tanto por parte del operador como de los sistemas
automatizados. El procesamiento de imágenes digitales puede dividirse en las
siguientes áreas:
- técnicas de adquisición de imágenes: abordan las diferentes formas para la
obtención de imágenes digitales, tanto de una forma directa (objeto a imagen
digital) como mediante la digitalización de imágenes en formato analógico (de
objeto a fotografía analógica y de ésta, a imagen digital). Estas técnicas ya
fueron abordadas en el capítulo 3 de este libro.
- técnicas de almacenamiento y compresión: incluyen las diferentes técnicas
para el almacenamiento de las imágenes digitales así como para su
 
257 
258  PROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

compresión, aspecto de gran importancia debido al volumen que alcanzan los


ficheros de imágenes digitales. Estas técnicas ya fueron abordadas en el
capítulo 4 de este libro.
- realce y restauración de imágenes: son las técnicas cuyo objetivo es la mejora
de la calidad visual de las imágenes así como la recuperación de imágenes
degradadas.
- segmentación: técnicas para la división de la imagen en regiones en función de
ciertas propiedades de las mismas.
- visualización: incluye las técnicas para la presentación de las imágenes en
diferentes medios, incluyendo los monitores, las impresoras y las filmadoras.

Digitalización

Realce de Modificación
Rectificación
la imagen valores imagen

Pirámides
Filtrado Transformación
de imágenes

Segmentación Codificación

Extracción
de elementos

Clasificación Visualización

Descripción Estructura Código Imagen Imagen


de los datos Binaria
Fig.5.1. Diagrama de flujo de la aplicación de las técnicas de procesamiento
de la imagen digital en Fotogrametría (Jahne, 1991)

Como se puede deducir, el procesamiento de imágenes digitales incluye técnicas


de muy diversa procedencia relacionadas con diversas disciplinas como el
procesamiento de la señal, la informática, el reconocimiento de patrones, la
inteligencia artificial y la visión robótica, siendo a menudo complejo el
establecimiento de una división entre ellas.
Evidentemente, el procesamiento de imágenes digitales desempeña un papel
fundamental en la Fotogrametría Digital, tanto que se puede considerar que la
Fotogrametría Digital son un grupo de técnicas específicas de procesamiento de
imágenes digitales cuyo objetivo fundamental es la generación de productos
cartográficos (modelos digitales del terreno, ortofotografías, Y). A menudo se ha
planteado la analogía entre las técnicas de procesamiento de imágenes digitales en el
flujo de trabajo en fotogrametría digital y el laboratorio fotográfico en la
fotogrametría analógica, si bien es importante tener en cuenta que mientras que el
FOTOGRAMETRÍA DIGITAL   259 

laboratorio fotográfico se limita a la creación de las fotografías que serán tratadas


mediante procesos ópticos y/o mecánicos, en el caso del procesamiento digital, las
técnicas incluyen todas las fases del proceso.
El propósito de este capítulo es presentar los aspectos fundamentales del
procesamiento de imágenes digitales fotogramétricas, que no son tratados en otros
capítulos. Para un estudio más detallado de las técnicas que se exponen en este
apartado se recomienda la consulta de los libros de Ballard y Brown (1982), Jähne
(1997), Rosenfeld y Kak (1982), González y Woods (1996), Ross (1996), y Parker
(1997).

5.2. MODELOS DE IMÁGENES


Una imagen digital puede ser considerada como una función continua g(x,y)
donde x,y son dos variables espaciales y la variable dependiente es el nivel de gris
(brillo). Las imágenes que representan objetos de la naturaleza no pueden ser
expresadas de una forma analítica, por lo que la única forma es su representación
mediante una función discreta. El proceso de convertir la representación continua en
una discreta es denominado digitalización. La función discreta es denominada imagen
digital g(c,f).
La imagen digital es la entrada fundamental para comenzar el tratamiento puede
ser representada mediante un conjunto de funciones imagen de tipo m-vectorial g(c,f)
0 ún, n 0 {1,2,Y}. Normalmente, m es igual a 1, 2, 3 ó 4 dimensiones y n es igual a 1
ó 2, siendo el dominio de g finito. Para todos los efectos prácticos, el rango de g se
puede considerar como continuo y representa las medidas de valores en intervalos de
espacio regulares, que determinan el tamaño de píxel (resolución de la imagen) y que
será un aspecto fundamental para la precisión de la información que de ella se derive
(fig 5.2). En el momento de la captura de la imagen la intensidad es discretizada en un
número determinado de niveles digitales. La mayoría de las imágenes son
representadas mediante funciones bidimensionales g(r)=g(f,c), que representa el valor
del brillo lumínico en un punto de localización espacial definida por un valor fila -f- y
un valor columna -c-. Así se puede definir una función g(x)=g(x,y) que será el valor
de la función continua con x,y 0 ú, y otra función g(r)=g(c,f) definida de un dominio
discreto c,f 0 Z.
La forma más frecuente de representación de las imágenes digitales es mediante
una matriz bidimensional del tipo g(f,c) (fig.5.3):
g (0, 0) g (0, 1) L g(0, C − 1)
g(1, 0 ) g (1, 1) L g(1, C − 1)
g(f , c ) =
M M M M
g(F − 1, 0 ) g (F − 1, 1) L g(F − 1, C − 1)
260  PROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

A B C

D E F
Fig.5.2. Imagen digital representada en diferentes resoluciones. A) 322x390 píxeles, B) 161x195 píxeles,
C) 80x98 píxeles, D) 40x49 píxeles, E) 20x24 píxeles, F) 10x12 píxeles

donde: f = 0,1,Y,F-1 filas


c = 0,1,Y,C-1 columnas
F número total de filas (dimensión y de la imagen)
C número total de columnas (dimensión x de la imagen)
g(f,c) nivel digital
0 u
Columnas
0

x
Fila
UAG15 Nº6868

v
Columna
Filas

Fig.5.3. Sistemas de coordenadas.


Izq.: Sistema de coordenadas filas y columnas de la imagen digital con origen (0,0) en el extremo superior
izquierdo de la imagen; Der.: Sistema de fotocoordenadas con origen en el centro del fotograma
FOTOGRAMETRÍA DIGITAL   261 

Existen diversas clasificaciones de imágenes digitales, la más frecuente atiende


básicamente a la profundidad de color de las mismas y distingue seis tipos:
a) Imágenes homogéneas.
Una imagen homogénea es una imagen en la que todos los píxeles reciben el
mismo valor de nivel digital, por tanto, sería una imagen de valor constante y es
frecuentemente empleada en las operaciones elementales con las imágenes (fig.5.4a).
b) Imágenes binarias.
Una imagen binaria es una función escalar. La particularidad de este tipo de
imágenes es que el rango de g consiste sólo de dos valores. Aunque en la mayoría de
los casos, estos valores son el 0 y el 1 (de donde reciben el nombre de binarias),
también pueden recibir otros valores como, por ejemplo, verdadero o falso, o a y b
con a…b. Un ejemplo de este tipo de imágenes se muestra en la figura (fig.5.4b).
c) Imágenes en tonos de gris.
Es uno de los tipos de imágenes más frecuentemente empleadas en Fotogrametría.
Una imagen en tonos de gris, al igual que sucedía en el caso de las imágenes binarias,
es una función escalar. En este tipo de imágenes, el brillo lumínico que depende del
número de fotones recogidos por el sensor en una determinada localización y área da
lugar a un determinado valor de gris. El rango de g es discreto, positivo y limitado por
[0,M-1], siendo M el número de valores posibles. Un ejemplo de este tipo de
imágenes se muestra en la figura 5.4c.
d) Imágenes simbólicas.
Una imagen simbólica es una representación de una noción o conocimiento de un
objeto o área, de forma que a menudo los distintos niveles digitales de la imagen se
corresponden con elementos cualitativos (tipo de cultivo, tipo de litología, Y). Un
ejemplo de este tipo de imágenes se muestra en la figura 5.4d.
e) Imágenes multiespectrales.
Un imagen multiespectral es un función vectorial con m>1. Los elementos simples
de los m vectores caracterizan diferentes bandas espectrales.
Un tipo especial de imágenes multiespectrales son las imágenes en color. Las
imágenes en color suelen estar compuestas por tres bandas g1, g2, g3. Existen diversos
modelos para la representación del color en tres canales siendo los más
frecuentemente empleados:
- modelo RGB. Los valores digitales de cada una de las bandas son los niveles
de intensidad para los colores rojo, verde y azul. Este sistema es muy utilizado
por el hecho de que la mayoría de los sistemas catódicos de color emplean
este modelo.
- modelo IHS (YUV). En este modelo los canales representan los valores de
intensidad (I ó Y), tono (H ó U) y saturación (S ó V). Este sistema utiliza un
sistema similar al de la visión humana y es el empleado por la mayoría de los
sistemas de televisión, puesto que este sistema garantiza la compatibilidad
entre los programas emitidos en color y los aparatos de televisión en blanco y
negro.
262  PROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

a
ez
ab
C
la
de
en
rg
Vi
c/

Fig.5.4. Ejemplos de imágenes digitales.


Sup.: Izq. Imagen homogénea (un único nivel digital), Centro Imagen binaria correspondiente a una
etiqueta de texto, Der. Imagen binaria de una marca fiducial;
Medio: Imágenes en tonos de gris: Izq. Fotograma aéreo de una zona urbana (gran escala), Centro
Fotografía terrestre, Der. Fotograma aéreo de una zona costera (escala media);
Inf.: Imágenes semánticas: Izq. y centro Imágenes resultantes de un proceso de extracción automática de
elementos, Der. Imagen clasificada correspondiente a un mapa de suelos

En la figura 5.5 se muestran los diferentes canales de una imagen en color. La


transformación que permite la equivalencia entre ambos modelos es del tipo:
⎛ I ⎞ ⎛ 0.299 0.587 0.114 ⎞⎛ R ⎞
⎜ ⎟ ⎜ ⎟⎜ ⎟
⎜ H ⎟ = ⎜ − 0.146 − 0.288 0.434 ⎟⎜ G ⎟
⎜ S ⎟ ⎜ 0.617 − 0.517 0.100 ⎟⎜ B ⎟
⎝ ⎠ ⎝ ⎠⎝ ⎠
FOTOGRAMETRÍA DIGITAL   263 

Fig.5.5. Imágenes multiespectrales (imágenes en color real). Sup.: Descomposición de la imagen en color
en los canales rojo, verde y azul (RGB); Inf.: Descomposición de la imagen en color en los canales
intensidad, tono y saturación (IHS)

f) Secuencias de imágenes.
Una secuencia de imágenes es un conjunto ordenado de imágenes. Por tanto, son
conjuntos de imágenes a las que se le ha añadido una dimensión más que define el
orden que suele ser el tiempo o el espacio. En la figura 5.6 se muestran un ejemplo de
secuencia de imágenes.

Fig.5.6. Secuencia de imágenes correspondiente a la toma de


fotogramas aéreos para el trabajo fotogramétrico estereoscópico

5.3 OPERACIONES ELEMENTALES CON IMÁGENES DIGITALES


El histograma de una imagen es una función, aplicable a todas las imágenes sean
cuáles sean los dominios en los que están definidas, que proporciona la frecuencia de
ocurrencia de cada valor en la imagen. La manipulación del histograma es una forma
simple pero sorprendentemente potente de modificar la imagen.
264  PROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

5.3.1 Propiedades de los histogramas de la imagen


La frecuencia h(g) de aparición en cada valor g 0 [0,M-1] en la imagen g(c,f) es
simplemente el número de elementos -píxeles- caracterizados por el valor g.
h(g) = # de elementos con el valor g
El histograma normalizado con el número de píxeles de g(c,f) es la función
empírica de densidad obtenida a partir de:
M −1
G= ∑ h (g )
g =0

y el histograma acumulado H, o, si está normalizado, la función empírica de densidad


acumulada empírica se obtiene mediante la expresión:
g
H (g ) = ∑ h (i)
i=0

En la figura 5.7 se muestran dos imágenes digitales, así como sus correspondientes
histogramas e histogramas acumulados.

A
B

f p f p f p
0.15 1.0 0.15 1.0 0.15 1.0
Mínimo: 6 Mínimo: 19 Mínimo: 6
Máximo: 255 Máximo: 255 Máximo: 230
Media: 121.02 0.8 Media: 143.47 0.8 Media: 103.21 0.8
Varianza:4992.84 Varianza: 3952.69 Varianza: 3305.10
0.10 0.10 0.10
0.6 0.6 0.6

0.4 0.4 0.4


0.05 0.05 0.05
0.2 0.2 0.2

0.00 0.0 0.00 0.0 0.00 0.0


0 50 100 150 200 250 0 50 100 150 200 250 0 50 100 150 200 250
Número Digital Número Digital Número Digital

Fig.5.7. Imagen digital correspondiente a una fotografía aérea en la que se han diferenciado dos partes con
diferente tono. A: Zona con tonos claros; B: Zona con tonos oscuros. En la parte inferior se presentan los
histogramas y estadísticos básicos de la imagen completa y de las zonas A y B, para observar la relación
entre los tonos, la forma de los histogramas (simples y acumulados) y los estadísticos de las imágenes
FOTOGRAMETRÍA DIGITAL   265 

El histograma proporciona una información de gran valor acerca de la distribución


de valores en la imagen y su distribución, reduciendo el tiempo de cálculo de la media
y la varianza de la imagen.
M −1 M −1
∑ h (g )(g − µg )2
1 1
µg =
G ∑ h(g ) g σg2 =
G −1
g =0 g =0

La mediana gm de los valores se obtiene fácilmente a partir del histograma


acumulado. El valor gm0 [0,M-1] que cumple que H(gm)=0.5 es la mediana, que se
puede considerar como un estimador robusto de la media.
Los histogramas, y por extensión, los estadísticos de la imagen son la base de los
operadores puntuales que producen cambios en la distribución de valores de la
imagen. Las operaciones más importantes son:
- la corrección y normalización del brillo o el contraste de la imagen.
- la corrección de los efectos de las características no lineales de la imagen.
- la corrección del balance de diferencias de brillo, originada por una
iluminación de la imagen con variaciones a nivel local o por problemas del
sensor.

5.3.2 Funciones elementales


Las funciones elementales son aquellas que afectan de una forma individual al
nivel digital de los píxeles sin considerar los valores de los píxeles vecinos. Dicha
modificación sólo se basa en el propio valor del píxel y en su posición.
5.3.2.1 Operadores puntuales
Los operadores puntuales son un tipo muy simple pero importante de los
operadores elementales que modifican una imagen dentro del rango disponible de
valores digitales. Todos los operadores puntuales que son independientes de la
posición del píxel reciben el nombre de homogéneos mientras que si tienen en cuenta
dicha posición se denominan no homogéneos.
Una operación puntual homogénea puede ser implementada de una forma muy
simple mediante la modificación de la tabla de consulta (lookup table -LUT-). El
procedimiento es muy sencillo y se basa en la creación de una tabla que relacione
valores antiguos y nuevos, la ventaja del empleo de esta tabla es que únicamente es
necesaria la realización de los cálculos tantas veces como valores distintos presente la
imagen y no como píxeles tenga. Los operadores puntuales más frecuentemente
aplicados son:
a) Transformaciones lineales. La función de transformación f puede ser definida de
una forma analítica mediante una expresión del tipo:
g=(r)= a + b gc(r), g 0 [0,M-1], a,b,c 0 ú
donde los parámetros a, b y c tienen el significado siguiente:
266  PROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

a <0 Mayor brillo, el histograma se desplaza a la derecha


>0 Menor brillo, el histograma se desplaza a la izquierda
b < -1 Contraste mayor e invertido
= -1 Contraste invertido
<0 Contraste menor e invertido
=0 Contraste constante
<1 Menor contraste
>1 Mayor contraste

o bien mediante una función discreta del tipo:


⎧ 0 si g (r ) < g1, con g1, g 2 ∈ [0, M − 1], g1 < g 2
⎪⎪ g (r ) − g1
g(r ) = ⎨(M − 1) si g1 ≤ g(r ) ≤ g 2
⎪ g 2 − g1
⎪⎩ (M − 1) si g (r ) > g 2

Dicha función puede venir definida mediante un tabla como por ejemplo, la
ecualización de los valores g 0 [0,M-1].
M −1
∑ H(i)
m

g' (r ) = M
i =g
M −1
∑ H(i)
m

i =0

b) Cuantización. Una cuantización es una transformación de valores discretos o


continuos en valores discretos. Consiste en la división del rango de valores originales
de la imagen en intervalos y todos los valores que están dentro del intervalo quedan
representados por un único valor. La cuantización de la imagen es un proceso
irreversible, no siendo posible la restauración de la imagen original a partir de una
imagen cuantizada. Las diferencias entre la imagen original y la imagen cuantizada se
denomina error de cuantización y es función de la distribución de los valores en la
imagen original y del número de intervalos definidos.
c) Clasificación. La clasificación es un caso límite de la cuantización. En este
operador se divide la imagen en regiones disyuntas en función de los valores de la
imagen. En el caso más simple, todos los píxeles con un valor digital superior a un
determinado límite toman un valor digital diferente a los píxeles que tienen un valor
inferior o igual que el límite impuesto. Si la operación se realiza con un único valor
límite, la imagen resultante es una imagen binaria y la operación se denomina
binarización.
Las transformaciones más frecuentes del histograma son conocidas como
expansión del histograma (histogram streching) y ecualización del histograma.
En la expansión del histograma, los niveles digitales son modificados de forma
que ocupen un mayor rango de valores posibles, aprovechando de esta forma mejor
los recursos del sistema. La forma de expansión más simple del histograma es la
expansión lineal que se lleva a cabo mediante la expresión:
g2(f,c) = (g1(f,c) + t1) * t2
FOTOGRAMETRÍA DIGITAL   267 

A B

C D

Fig 5.8. Ejemplos de aplicación de operaciones elementales para la manipulación de la imagen de la fig 5.7.
a) corrección gamma (a=0, b0[0,1], c>1), b) inversión, c) modificación del contraste mediante la expansión
del intervalo 40-200 a los valores 0 a 255 -aquellos valores con valores fuera de rango son igualados a los
límites-, d) cuantización con 2 valores límites (40 y 200), dando lugar a tres clases (negro, gris y blanco)

Los parámetros de transformación t1 y t2 son seleccionados de forma que los


niveles digitales en la imagen resultante g2 estén incluidos dentro del intervalo
deseado.
g máx − g min
t1 = g min min
2 − g1 t2 = 2 2
g1máx − g1min

Es importante tener en cuenta que la expansión del histograma no tiene porque ser
una función lineal, así, por ejemplo, se puede emplear una función de tipo
logarítmico, que suele dar mejores resultados en cuanto a calidad visual. Esto se debe
a que el ojo humano percibe las diferencias de brillo en la imagen mediante una escala
logarítmica.
La ecualización del histograma es una transformación que pretende obtener a
partir de una imagen digital g1 una imagen resultante g2, con la característica de tener
un histograma uniforme (todas las clases con frecuencias similares). En la práctica es
frecuente no poder obtener un histograma perfectamente uniforme, consiguiéndose
tan sólo un histograma cuasi-uniforme.
Sea h1(x) el histograma de la imagen original y h2(x) el histograma de la imagen
ecualizada, que deberá ser, en la medida de lo posible, uniforme. Si la imagen
contiene un total de N píxeles y existen L niveles digitales posibles, para que el
268  PROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

histograma sea uniforme debería corresponder a cada nivel digital un número total de
N/L píxeles.
L −1 N
h 2 (y ) =
L L
siendo h1(y) = N / (L-1).
dy
=
d
{f (x )} = L − 1 h1(x )
dx dy N

en donde y=f(x) es la transformación buscada.


L −1
y = f (x ) = ∫h1 (x )dx
N

Este proceso de muestra de una forma gráfica en la figura 5.9. En dicha figura se
representa se muestra el histograma de la imagen original g1 en posición normal,
mientras que el histograma de la imagen resultante g2 se muestra rotado 90º.
La figura 5.10 muestra el efecto de la ecualización sobre una imagen con un débil
contraste así como los histogramas de la imagen original y la resultante. El
histograma de la imagen original tiene un carácter bimodal que se corresponde con los
dos tonos de gris predominantes en la imagen (niveles digitales aproximados 110 y
150) con frecuencias superiores a 0.10, mientras que la imagen resultante estos
máximos aunque se mantienen (el histograma no es uniforme) presentan frecuencias
menores (inferiores a 0.10) y se separan (niveles digitales aproximados 50 y 215). La
calidad de la imagen final mejora facilitando su interpretación, así como su análisis
mediante técnicas automáticas.
h(g1)
g2
h(g2)

g1

Fig.5.9. Ecualización del histograma (Schenk, 1999)

5.3.2.2 Operaciones algebraicas


Las operaciones algebraicas son aquellas que producen una imagen g=(r) como
resultado de una operación de suma, diferencia, producto o cociente de dos imágenes
g1(r) y g2(r), realizándose dicha operación píxel a píxel.
FOTOGRAMETRÍA DIGITAL   269 

Frec.Relativa Frec.Relativa
0.20 0.20

0.15 0.15

0.10 0.10

0.05 0.05

0.00 0.00
0 50 100 150 200 250 0 50 100 150 200 250
Nivel Digital Nivel Digital

Fig.5.10. Ejemplo de ecualización del histograma (adaptada de Schenk, 1999)

g' (r ) = f (g1 (r ), g 2 (r )) = g1 (r ) + g 2 (r )
g ' (r ) = f (g1 (r ), g 2 (r )) = g1 (r ) − g 2 (r )
g' (r ) = f (g1 (r ), g 2 (r )) = g1 (r ) * g 2 (r )
g (r )
g ' (r ) = f (g1 (r ), g 2 (r )) = 1
g 2 (r )

En el caso de sumas y productos, pueden intervenir más de dos imágenes,


pudiendo ser una de las imágenes una constante. Sin embargo, las operaciones por
una constante deben ser consideradas como operaciones lineales puntuales.
Una aplicación muy importante de la suma es el cálculo de las medias entre
diferentes imágenes, así como la superposición de los contenidos de dos o varias
imágenes. La resta puede ser utilizada para la eliminación de valores erróneos en la
imagen (por ejemplo, ruido o bandeado) o para la detección de diferencias entre dos
imágenes de la misma escena o bien entre secuencias de imágenes (detección de
movimiento).
La multiplicación de dos imágenes es la operación básica en los procesos de
convolución y correlación, y puede ser empleada para la corrección de los efectos de
un proceso de digitalización en el que la sensibilidad del sensor varía de un punto a
otro de la imagen.

5.4 OPERACIONES LOCALES EN IMÁGENES DIGITALES


Las operaciones locales son una generalización de los operadores puntuales, es
decir, todos los operadores puntuales pueden ser considerados como operaciones
locales. La principal diferencia entre ambos tipos es que los operadores locales
incluyen información de los píxeles vecinos en la determinación de g=(ro). Así el valor
270  PROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

resultante de la operación g=(ro) es una función f que depende de los valores g(ro),
g(r1),..., g(rN) siendo r1,..., rN píxeles situados a una cierta distancia r+∆r. Por tanto, el
resultado no depende sólo del propio valor del píxel sino que también está influido
por los píxeles que le rodean, este tipo de operadores es el más empleado en el
procesamiento de imágenes en Fotogrametría Digital, puesto que, permite el
tratamiento de imágenes que presenten irregularidades tales como ruido.
La función f puede ser:
- una función lineal o no lineal
- una expresión analítica, o explícitamente descrita mediante una tabla de
equivalencia
5.4.1 Operadores lineales
Sea f un operador del tipo g=(r) = f( g(r)). El operador se dice que es lineal si:
g=1(r) = f (a g1(r))
g=2(r) = f (b g2(r)), œ a,b 0 úm, m 0 {1,2,Y}
g=1(r) + g=2(r) = f (a g1(r)) + f (b g2(r)) = f (a g1(r) + b g2(r))
para unas imágenes cualesquiera g1, g2. Una ventaja muy importante de los
operadores lineales es la posibilidad de asignar la respuesta de la función aplicada
sobre una imagen a partir del conocimiento de la respuesta de la función al ser
aplicada a imágenes simples. Los operadores lineales f tienen sólo un campo limitado
de aplicación en comparación con los operadores no lineales. Esencialmente, los
operadores lineales pueden ser clasificados en filtros de paso bajo y paso alto, filtros
de paso de banda y barreras de banda.
5.4.1.1 Aproximación de una función imagen
Una imagen digital puede ser entendida como una función entera definida en un
espacio discreto pero también es posible interpretarla como un conjunto de valores de
una función real en un dominio continuo. El problema surge en la definición de dicha
función, si bien es importante tener en cuenta que una interpolación exacta de la
imagen carece de sentido y además requiere un elevado número de coeficientes (una
imagen de tamaño 5x5 píxeles requiere 25 coeficientes).
En la práctica se trabaja con aproximaciones a la función imagen. La forma más
simple para la aproximación de la función g(r) es la utilización de un desarrollo de
Taylor de orden L:
L n
g ξ,η = a 00 + a10 (f − ξ ) + a 01 (c − η) + ... = ∑ ∑ a n −m,m (f − ξ)n −m (c − η)m
n =0 m =0

La interpretación de los coeficientes ar,s es sencilla. Así a00 se corresponde con la


media de la imagen, a01 y a10 son las primeras derivadas de la función δg(r)/δc y
δg(r)/δf, a02 y a20 son las segundas derivadas δ2g(r)/δc2 y δ2g(r)/δf2, a11 e la derivada
δ2g(r)/δf δc, y así sucesivamente.
FOTOGRAMETRÍA DIGITAL   271 

Los coeficientes ar,s se determinan minimizando la diferencia entre g(k,l) y gξ,η(k,l)


en la vecindad Uξ,η del punto (f,c) = (ξ,η), para dicha minimización se puede emplear
la suma de los cuadrados de los errores:
2
⎡ L n ⎤
S= ∑ [gξ,η (k, l) − g(k, l)] 2
= ∑ ⎢− g (k , l ) + ∑∑ a n − m, m (k − ξ )(l − η)⎥
{k ,l∈U ξ,η } {k ,l∈U ξ,η }⎢⎣ n =0 m =0 ⎥⎦

La solución óptima será S 6 mínimo que se determina mediante el cálculo de las


(L+1)(L+2)/2 condiciones δS / δar,s =0. Así para un desarrollo de orden 2 (L=2) y
(ξ,η)=(0,0) se obtiene:

∑ [− g(k, l) + a 00 + a10 k + a 01l + a 20 k 2 + a11kl + a 02l 2 ]


2
S=
{k , l∈U}

con S/δa00=0, S/δa10=0, S/δa01=0, S/δa20=0, S/δa11=0 y S/δa02=0 las ecuaciones


lineales resultantes son:

∑ [a 00 + a10k + a 01l + a 20k 2 + a11kl + a 02l2 ] = ∑ g(k, l)


{u , k}∈U {u , k}∈U
∑ [a 00 + a10k + a 01l + a 20k 2 + a11kl + a 02l2 ]k = ∑ g(k, l) k
{u , k}∈U {u , k}∈U
∑ [a 00 + a10k + a 01l + a 20k 2 + a11kl + a 02l2 ]l = ∑ g(k, l) l
{u , k}∈U {u , k}∈U
∑ [a 00 + a10k + a 01l + a 20k 2 + a11kl + a 02l2 ]k 2 = ∑ g(k, l) k 2
{u , k}∈U {u , k}∈U
∑ [a 2 2
00 + a10 k + a 01l + a 20 k + a11kl + a 02l kl ] = ∑ g(k, l) kl
{ }
u , k ∈U {u , k}∈U
∑ [a 00 + a10k + a 01l + a 20k 2 + a11kl + a 02 l ]l
2 2
= ∑ g(k, l) l2
{u , k}∈U {u , k}∈U
que pueden ser escritas en forma matricial, utilizando las siguientes abreviaturas:

∑1 = 1 ∑ k = k ∑ l = l
{u , k}∈U {u , k}∈U {u , k}∈U

⎛ 1 k l k2 kl l 2 ⎞⎟⎛ a 00 ⎞ ⎛ g ⎞
⎜ ⎜ ⎟ ⎜ ⎟
⎜k k 2
kl k 3
k l 2
kl 2 ⎟⎜ a10 ⎟ ⎜ kg ⎟
⎜ ⎟⎜ ⎟ ⎜ ⎟
⎜ l kl kl 2 k 2l kl 2 l3 ⎟⎜ a 01 ⎟ ⎜ lg ⎟
=
⎜k2 k3 k 2l k4 k 3l k 2 l 2 ⎟⎜ a 20 ⎟ ⎜ k g ⎟
2
⎜ 2 2 2 3
⎟⎜ ⎟ ⎜ ⎟
⎜ kl k l k l k l k 2l2 kl3 ⎟⎜ a11 ⎟ ⎜ k lg ⎟
⎜ 2 ⎟⎜ ⎟ ⎜ 2 ⎟
⎝l kl 2 l3 k 2l2 kl3 l 4 ⎠⎝ a 02 ⎠ ⎝ l g ⎠

La solución del sistema se calcula mediante la inversa de la matriz de los


coeficientes. Por ejemplo, con una vecindad {k,l} 0 U, k={-1,0,1} y l = {-1,0,1}
resultando la matriz:
272  PROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

⎛9 0 0 6 0 6⎞
⎜ ⎟
⎜0 6 0 0 0 0⎟
⎜0 0 6 0 0 0⎟
⎜ ⎟
⎜6 0 0 6 0 4⎟
⎜ ⎟
⎜9 0 0 0 4 0⎟
⎜6 0 0 4 0 6 ⎟⎠

siendo su matriz inversa:
⎛ 5 1 1⎞
⎜ 0 0 − 0 − ⎟
⎜ 9 3 3⎟
⎜ 0 1
0 0 0 0 ⎟
⎜ 6 ⎟
⎜ 1 ⎟
⎜ 0 0 0 0 0 ⎟
⎜ 6 ⎟
⎜− 1 0 0
1
0 0 ⎟
⎜ 3 2 ⎟
⎜ 1 ⎟
⎜ 0 0 0 0 0 ⎟
⎜ 4 ⎟
⎜⎜ − 1 0 0 4 0
1 ⎟

⎝ 3 2 ⎠

A partir de dicha matriz inversa es posible la determinación de los coeficientes,


así por ejemplo, el coeficiente a00 viene dado por la expresión:

5 1 1 1⎛ ⎞
a 00 = g − k 2g − l 2 g = ⎜ 5 ∑
g (k , l ) − 3 ∑
k 2g(k , l ) −3 l2g(k , l )⎟ =

9 3 3 ⎜
9 {k ,l∈U} ⎟
⎝ {k ,l∈U} {k ,l∈U} ⎠

∑ ∑( )
1 ⎛⎜ ⎞
1 1
= 5 − 3k 2 − 3l2 g (f − k , c − l )⎟
9 ⎜⎝ k = −1 l = −1 ⎟

Los coeficientes de la sumatoria que anteceden al valor de la imagen g(f-k,c-l) y el


factor para la normalización del resultado pueden expresarse de forma matricial,
denominada máscara de filtrado.
⎡− 1 2 − 1⎤
1⎢ ⎥
a 00 = 2 5 2⎥
9⎢
⎢⎣− 1 2 − 1⎥⎦

Las expresiones del resto de los coeficientes serían:


FOTOGRAMETRÍA DIGITAL   273 

⎡− 1 0 − 1⎤ ⎡ − 1 − 1 − 1⎤
1⎢ ⎥ 1⎢ ⎥
a10 = −1 0 − 1⎥ a 01 = 0 0 0⎥
6⎢ 6⎢
⎢⎣− 1 0 − 1⎥⎦ ⎢⎣ 1 1 1 ⎥⎦
⎡1 − 2 1⎤ ⎡ 1 0 − 1⎤ ⎡1 1 1 ⎤
1⎢ ⎥ 1⎢ ⎥ 1⎢ ⎥
a 20 = ⎢1 − 2 1⎥ a11 = 0 0 0⎥ a 02 = ⎢− 2 − 2 − 2⎥
6 4⎢ 6
⎢⎣1 − 2 1⎥⎦ ⎢⎣− 1 0 1 ⎥⎦ ⎢⎣ 1 1 1 ⎥⎦

En la figura 5.11 se pueden observar los efectos de los diferentes operadores sobre
una imagen.
En la práctica a10 se denomina operador de gradiente en la dirección x, a01
gradiente en la dirección y, a20 operador de laplace en la dirección x y a02 en la
dirección y.

A B C

D E F

Fig. 5.11. Resultados de aplicar los filtros de aproximación a la imagen de la figura 5.7. A) a00 , B) a10 ,
C) a01, D) a20 ,E) a11 , F) a02. l es igual a 2 y la vecindad {k,l}=U es definida por k = {-1,0,-1} y l = {-1,0,-1}

5.4.1.2 Convolución
La convolución es una operación básica en el procesamiento de imágenes y es una
operación básica en la teoría de sistemas lineales. La convolución se representa como
f * g y se define como el producto de la función f y la función que se desplaza g. Este
concepto se representa mediante el resultado del producto de dos imágenes de forma
que una imagen se desplaza sobre la otra. La definición general de la convolución
para n=1 y n=2 es
+∞ +∞ +∞
(f * g )(n ) = ∑ f (r )g(n − r ) (f * g )(n, m ) = ∑ ∑ f (r, c)g(n − r, m − c)
r = −∞ r = −∞ c = −∞

Por tanto, la convolución comprende las operaciones de traslación, multiplicación


de los componentes individuales, suma y normalización.
274  PROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

Todos los operadores lineales pueden ser definidos mediante su operador de


convolución, así, por ejemplo, los coeficientes del filtro a00 equivale al operador de
convolución siguiente:
⎡ M M M M ⎤
M
⎢ ⎥
⎢L 0 0 0 0
0 L⎥
⎢L 0 − 1 2 − 1 0 L⎥
⎢ ⎥
g ≈ ⎢L 0 2 5 2 0 L⎥
⎢L 0 − 1 2 − 1 0 L⎥
⎢ ⎥
⎢L 0 0 0 0 0 L⎥
⎢ M M M M M ⎥
⎣ ⎦

Los valores escritos en negrita son los coeficientes de a00. En la práctica el


operador de convolución g se define en una vecindad reducida de (0,0), quedando una
expresión final del tipo:
⎡− 1 2 − 1⎤
⎢ ⎥
g≈⎢2 5 2⎥
⎢⎣− 1 2 − 1⎥⎦

en la que se han suprimido los ceros exteriores. Dicha matriz es conocida como kernel
del filtro.
La convolución a*b de dos funciones a = (2, 1, 3, 1, 1, 1) y b = (1, 2, 1, 2, 1, 2)
estando definidas en el dominio [0,...,5].
5
(a * b )(0) = 1 ∑ a (i )b(− i ) = a (0)b(0) + a (1)b(− 1) + a (2)b(− 2) + a (3)b(− 3) + a (4)b(− 4) + a (5)b(− 5) = 2
6 i =0
5
(a * b )(1) = 1 ∑ a (i )b(1 − i ) = a (0)b(1) + a (1)b(0) + a (2)b(− 1) + a (3)b(− 2) + a (4)b(− 3) + a (5)b(− 4) = 5
6 i =0
M
a * b = (2, 5, 7, 12, 10, 15)

Propiedades básicas de la convolución:


a) Commutativa: f*g=g*f
b) Asociativa: (f * g1) * g2 = f * (g1 * g2)
c) Lineal: (a f) * g = a (f * g), a 0 ú. (g1 + g2 * f = f * g1 + f * g2
d) Invariante: f (-n) * g = (f * g) (-n)

5.4.1.3 Concatenación y separación de filtros


Una de las consecuencias de las propiedades anteriores es la posibilidad de
concatenar y separar filtros.
FOTOGRAMETRÍA DIGITAL   275 

La concatenación consiste en la definición de dos filtros de carácter vectorial de


forma que el resultado sea equivalente a una matriz de filtro. Así sea f * g = f * (g1 *
*g1). Sea g1 = R3(1) = 1/3 [ 1 1 1], siendo g = g1 * g1:
R5(1) = R3(1) * R3(1) = 1/9 ( [ 1 1 1] * [ 1 1 1]) = 1/9 [ 1 2 3 2 1]
La convolución puede ser calculada como:
1 1 1 * 1 1 1
1 1 1
1 1 1
1 1 1
1 2 3 21
A partir de la cual se puede definir el kernel de convolución g = g1 * g2 con g2 =
=g1T:
⎡1 1 1⎤
( )
R 3(1) = R 3(1) * R 3(1)
T 1⎢
= ⎢1 1 1⎥
9

⎢⎣1 1 1⎥⎦

Este kernel de convolución puede ser empleado para el cálculo de la media en una
vecindad de 3x3 y se denomina filtro de media 3x3 y es un tipo de filtro muy
frecuente para el suavizado de imágenes, eliminando los valores poco frecuentes
(fig.5.12).

A B1 B2 B3

Fig.5.12. Influencia del tamaño del kernel en el filtrado de media. A: Imagen original; B1: Tamaño del
kernel 5x5 píxeles; B2: Tamaño del kernel 15x15 píxeles; B3: Tamaño del kernel 25x25 píxeles

El filtro de media presenta ciertos inconvenientes relacionados con su


comportamiento en el dominio de la frecuencia (Schenk, 1999). Para evitarlos, se
suele aplicar una pequeña modificación que deja la estructura del filtro como:
⎡0.5 0.5 0.5 0.5 0.5⎤
⎢ ⎥
0.5 1 1 1 0.5⎥
1 ⎢
h = ⎢0.5 1 1 1 0.5⎥
17 ⎢ ⎥
⎢0.5 1 1 1 0.5⎥
⎢0.5 0.5 0.5 0.5 0.5⎥⎦

Otro kernel muy frecuente es la aproximación de la función de Pascal mediante


una distribución binomial, que recibe el nombre de triángulo de Pascal y que se
276  PROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

denota por la letra B. El filtro binomial en una vecindad de 3x3 viene dado por la
expresión:
⎡1 2 1 ⎤
1 ⎢ ⎥
B(22) = 2 4 2⎥
16 ⎢
⎣⎢1 2 1 ⎥⎦

El indice 2 indica el orden del binomio y el valor (2) la dimensión del kernel. Este
kernel bidimensional puede ser separado en dos kernels unidimensionales:
⎡1 ⎤
( )
B(22) = B(21) * B(21)
T
=
1
4
[1 2 1]* 1 ⎢⎢2⎥⎥ = 1 [1 1]* 1 ⎡⎢ ⎤⎥ * 1 [1 1]
4 2
1
2 ⎣1⎦ 2
⎢⎣1 ⎥⎦

La descomposición de los kernels es una operación de gran importancia ya que la


aplicación de kernels de gran tamaño requiere un importante esfuerzo de cálculo.
Dicha descomposición es simple para los kernels con un rango igual a 1, en caso
contrario el problema se complica considerablemente conectando con la
descomposición de valores singulares (SVD) (Pratt, 1991; Haralick y Shapiro, 1993).
Así, por ejemplo el kernel de convolución g puede ser descompuesto en dos kernels
unidimensionales de forma que g1 … (g2)T:
⎡ 0.11 0.32 0.11⎤ ⎡ 1 ⎤
⎢ ⎥ ⎢ ⎥
g = ⎢0.32 1 0.32⎥ = ⎢2.95⎥[0.11 0.32 0.11]
⎢⎣ 0.11 0.32 0.11⎥⎦ ⎢⎣ 1 ⎥⎦

de forma que existen diversas posibilidades de separación.


El filtro gausiano es un filtro muy empleado cuyas ventajas se basan en la propiedad
característica de que la transformada de Fourier de una función gausiana también será
una función gausiana, por lo que se conserva la forma. Esto tiene un gran interés
porque elimina uno de los principales problemas de los filtros: una ventana de tamaño
finito en el dominio del espacio da lugar a una función de transferencia infinita y a la
inversa. El kernel de filtrado gausiano viene definido por la expresión:
x 2 + y2
1 −
g(x , y ) = e 2σ 2
2πσ

El parámetro fundamental de este filtro es el parámetro σ que controla el radio de la


campana del filtro y, por tanto, su radio de acción.
Las características anteriormente señaladas aconsejan el empleo de este filtro para
diversas operaciones en Fotogrametría Digital, como, por ejemplo, la generación de
pirámides de imágenes, al eliminar el efecto de la aparición de anillos concéntricos
que tiene el filtro de media en especial para kernels de gran tamaño. En la figura 5.13
se muestran ejemplos de la aplicación de dicho filtro.
FOTOGRAMETRÍA DIGITAL   277 

A C1 C2 C3

Fig.5.13. Ejemplos de aplicación del filtro gausiano. A: Imagen original; B1: Imagen filtrada con filtro
gausiano (σ=2); B2: Imagen filtrada con filtro gausiano (σ=4); B3: Imagen filtrada con filtro gausiano
(σ=8). En todos los casos el kernel del filtro es de 25x25 píxeles

5.4.1.4 Ejemplos de filtros lineales


La mayoría de los filtros más empleados pueden ser descompuestos en filtros
binomiales y en filtros de media, así por ejemplo:
a) Filtro Sobel: Es un filtro empleado para la detección de bordes horizontales o
verticales que tiene un comportamiento especialmente bueno en imágenes con alto
nivel de ruido. El filtro viene definido por:
⎡ − 1 0 − 1⎤ ⎡1 ⎤
⎢ ⎥ 1 1⎢ ⎥ 1 1 ⎡1⎤ 1 ⎡1⎤
h x = ⎢ − 2 0 2 ⎥ = [− 1 0 1]* ⎢2⎥ = [− 1 1]* [1 1]* ⎢ ⎥ * ⎢ ⎥
2 4 2 2 ⎣1⎦ 2 ⎣1⎦
⎢⎣ − 1 0 1 ⎥⎦ ⎢⎣1 ⎥⎦

⎡− 1 − 2 − 1⎤ ⎡− 1⎤
⎢ ⎥ 1 1⎢ ⎥ 1 1 ⎡1⎤ 1 ⎡− 1⎤ ⎡1⎤
hy = ⎢ 0 0 0 ⎥ = [1 2 1]* ⎢ 0 ⎥ = [1 1]* ⎢ ⎥ * ⎢ ⎥ * ⎢ ⎥
4 2 2 2 ⎣1⎦ 2 ⎣ 1 ⎦ ⎣1⎦
⎢⎣ 1 2 1 ⎥⎦ ⎢⎣ 1 ⎥⎦

b) Filtro Krisch: Es un filtro compuesto por 8 operadores diferentes que se emplea


para la detección de bordes, el primer operador viene definido por:
⎡5 5 5⎤ ⎡ − 1 − 1 − 1⎤ ⎡1 1 1 ⎤
⎢ ⎥ 81⎢ ⎥ 4 1 ⎢ ⎥ 11
h K = ⎢ − 3 0 − 3⎥ = − 0 0 0 ⎥+ − 2 − 2 − 2⎥ + [1 1 1] + 1 [1]
5 6⎢ 5 12 ⎢ 53 5
⎢⎣ − 3 − 3 − 3⎥⎦ ⎢⎣ 1 1 1 ⎥⎦ ⎢⎣ 1 1 1 ⎥⎦

El resto de los operadores se definen a partir del primer operador mediante la


rotación a π/4.
c) Filtro Laplace. Es un filtro empleado para la detección de curvaturas en una imagen
y viene definido por:
⎡0 1 0 ⎤ ⎡1 ⎤
1⎢ ⎥ 1 1⎢ ⎥ 1 1 1 ⎡ 1 ⎤ 1 ⎡− 1⎤
hL = 1 − 4 1 = [1 − 2 1] + − 2 = [1 − 1] + [− 1 1] + ⎢ ⎥ + ⎢ ⎥
8⎢ ⎥ 4 4⎢ ⎥ 2 2 2 ⎣− 1⎦ 2 ⎣ 1 ⎦
⎢⎣0 1 0⎥⎦ ⎢⎣ 1 ⎥⎦
278  PROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

5.4.1.5 Correlación
Una operación muy importante en Fotogrametría es la correlación entre dos
imágenes. La correlación puede ser interpretada como una medida de la similitud o
del parecido entre dos imágenes, si existe un desplazamiento entre ambas imágenes,
la correlación establece el vector desplazamiento registrado siendo básico para la
automatización de los procesos de orientación y de generación de modelos digitales
(medida de paralajes).
La expresión general de la correlación para n=1 y n=2 es:
+∞ +∞ +∞
(f ⊗ g )(n ) = ∑ f (n + r )g(l) (f ⊗ g )(n, m ) = ∑ ∑ f (n + r, m + c)g(l, k )
r = −∞ r = −∞ c = −∞

que también es denominada correlación cruzada. La correlación a diferencia de la


convolución no cumple la propiedad conmutativa aunque si cumple que:

(f ¼ g) (n) = (g ¼ f) (-n) y (f ¼ g) (m,n) = (g ¼ f) (-m,-n)


La correlación también puede ser establecida dentro de una única imagen, en cuyo
caso se denomina autocorrelación. La autocorrelación se puede interpretar como una
medida de la similitud de una imagen consigo misma, es decir, de su continuidad para
determinados valores de desfase.
En la figura 5.14 se muestra una aplicación de la correlación para la identificación
de la posición de una marca fiducial en una porción de imagen digital a partir de un
patrón de la marca.

B C

Fig.5.14. Aplicación de la correlación entre imágenes digitales para la identificación de la posición de la


marca fiducial en una imagen digital (orientación interna automática). La correlación se establece a partir
del patrón de la imagen digital (A) sobre la porción de la imagen digital (ventana de búsqueda, B). Los
resultados de los coeficientes de correlación normalizados obtenidos se muestra en la figura C,
obteniéndose la posición de la marca como el máximo de la imagen (D)
FOTOGRAMETRÍA DIGITAL   279 

5.4.2 Operadores no lineales


El empleo de los operadores no lineales, del tipo máximo, mínimo o raíz cuadrada,
por ejemplo, son también muy frecuentes en Fotogrametría. Dentro de este tipo se
pueden distinguir 2 clases:
- operadores de orden
- operadores de diferenciación
5.4.2.1 Operadores de orden
Este tipo de operadores es el tipo más frecuente de operadores de tipo no lineal. Su
principio básico es muy sencillo: los valores dentro de una determinada vecindad son
ordenados en función de su valor, asignándosele al píxel central el valor mínimo
(operador de mínimo), el valor máximo (operador de máximo) o bien aquel valor que
ocupa una posición central en la lista ordenada (operador de mediana).
Aunque también se pueden definir operadores más complejos como, por ejemplo, el
operador de mínimo/máximo adaptativo que tiene la estructura:
⎧ min si (g (r ) − min ) < (máx − g(r ))
g(r ) = ⎨
⎩máx en caso contrario

En la figura 5.15 se presentan los efectos de estos operadores. Así mediante la


utilización de los operadores mínimo (y máximo) se modifican los valores eliminando
los detalles de niveles digitales bajos (o altos). El operador de la mediana presenta
importantes ventajas reduciendo el ruido de la imagen obteniéndose imágenes
suavizadas, obteniendo al mismo tiempo una mejora del contraste.

A B

C D

Fig.5.15. Efectos de la aplicación de operadores de orden a una imagen digital (fig.5.7). A: Filtro de la
mediana; B: Filtro de mínimo; Filtro de máximo; D: Filtro de mínimo/máximo adaptativo
280  PROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

- Filtro de la mediana.
Una de las características fundamentales del filtro de la mediana es que es un filtro
de paso bajo de carácter no lineal. El filtro de la mediana se basa en el cálculo de la
mediana de los píxeles incluidos dentro de la ventana de filtrado (fig.5.16).
178 220 172 120 169 111 220 178 220 172 120 169 111 220

175 255 45 209 253 61 136 175 255 45 209 253 61 136
Pixeles de la
77 20 147 191 189 98 101 ventana ordenados 77 20 147 191 189 98 101

56 26 19 63 169 62 81 19 63 127 131 147 169 189 191 194 56 26 19 147 169 62 81

188 131 194 127 131 29 16 188 131 194 127 131 29 16
Mediana
174 112 118 77 226 221 187 174 112 118 77 226 221 187

150 207 72 195 185 164 52 150 207 72 195 185 164 52

Imagen Original Resultado


Fig.5.16. Metodología de aplicación del filtro de la mediana

La mediana puede ser considerada como un estimador robusto de la media


aritmética, presentando la ventaja de no estar afectado por los valores extremos
(siempre que éstos no sobrepasen el 50% de los datos disponibles). Por tanto, es muy
aconsejable su utilización en la detección de errores de tipo puntual. Otra ventaja muy
importante de este filtro es la conservación de los bordes en el proceso de filtrado
como se pone de manifiesto en la figura 5.17, en la que se presentan los niveles
digitales correspondientes a un borde en la imagen y los resultados de aplicar sobre
dicho borde un filtrado de media y de mediana a objeto de detectar y eliminar píxeles
defectuosos.
Niv el Digital
160

140
Media
120

100

80
Media na
60
Orig inal
40
0 5 10 15 20
Posición

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
Serie Original 52 50 51 47 49 50 49 50 50 49 147 147 151 148 149 146 150 148 147 153
Filtro Media (1x3) 51 49 49 48 49 49 49 49 82 114 148 148 149 147 148 148 148 149
Filtro Mediana (1x3) 51 50 49 49 50 50 50 50 50 147 147 148 149 148 149 148 148 148

Fig.5.17. Ejemplo de aplicación de media y mediana sobre un borde en una imagen digital

5.4.2.2 Operadores de diferenciación


La primera derivada de la función imagen g(r) en una dirección da lugar al
gradiente Lg(r) en dicha dirección. Es importante tener en cuenta que el gradiente es
un operador lineal. Si se calculan los gradientes en las dos direcciones fundamentales
se obtiene el vector gradiente que viene definido por:
FOTOGRAMETRÍA DIGITAL   281 

⎛ ∂g (r ) / ∂r ⎞
∇g (r ) = ⎜⎜ ⎟⎟
⎝ ∂g (r ) / ∂c ⎠
- Magnitud del gradiente.
El gradiente L de una imagen g(r) es un vector definido por la derivada de G para
todas las posibles direcciones y la magnitud del gradiente │L│ se obtiene mediante la
ecuación:

⎛ ∂g (r ) ⎞ ⎛ ∂g (r ) ⎞
2 2
∇g(r ) = ⎜ ⎟ +⎜ ⎟
⎝ ∂r ⎠ ⎝ ∂c ⎠

Aunque existen otras posibles definiciones entre las que se pueden indicar:
∂g (r ) ∂g (r ) ⎧ ∂g(r ) ∂g (r ) ⎫
∇g(r ) = + ∇g(r ) = máx ⎨ , ⎬
∂r ∂c ⎩ ∂r ∂c ⎭

El dominio de la función g(r) es discreto, por lo que, los coeficientes de las


derivadas parciales pueden ser reemplazados por las diferencias finitas:
∂g(r ) g (r + r2 ) − g (r − r1 ) ∂g(r ) g (c + c 2 ) − g(c − c1 )
= con r1, r2 ∈ Z = con c1, c 2 ∈ Z
∂r 2 ∂c 2

Se pueden obtener buenas aproximaciones a estos valores mediante la utilización


de los filtros lineales a10 y a01 definidos en el entorno {-r1 ,Y,r2} y {-c1 ,Y,c2},
definiéndose la magnitud del gradiente como:

∇g(r ) = a10
2 2
+ a 01

En la figura 5.18 se muestra el efecto del operador de gradiente │Lg(r)│.


- Dirección del gradiente.
La magnitud del gradiente presenta la pendiente entre los niveles digitales de un
píxel y los que le rodean, perdiéndose la información direccional que puede ser
representada en base a la dirección de máxima variabilidad (mayor gradiente) como:
⎛ ∂g (r ) / ∂c ⎞
ϕ = arctg⎜⎜ ⎟⎟
⎝ ∂g(r ) / ∂r ⎠
- Curvatura.
En la geometría diferencial la curvatura C de una curva se calcula a partir de las
diferencias parciales δg(r)/δr, δg(r)/δc,... . La expresión general de la curvatura C es:

∂ 2 g(r ) ⎛ ∂g(r ) ⎞ ∂ 2 g (r ) ∂g (r ) ∂g (r ) ∂ 2 g (r ) ⎛ ∂g (r ) ⎞
2 2
− ⋅⎜ ⎟ +2 ⋅ ⋅ − ⋅⎜ ⎟
C= ∂r 2
⎝ ∂c ⎠ ∂r ∂c ∂r ∂c 2 ⎝ ∂r ⎠
⎛ ∂g (r ) ⎞ ⎛ ∂g (r ) ⎞
2 2
⎜ ⎟ +⎜ ⎟
⎝ ∂r ⎠ ⎝ ∂c ⎠
282  PROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

En el trabajo con imágenes digitales, las derivadas parciales son reemplazadas por
sus aproximaciones correspondientes δg(r)/δr = a10, δg(r)/δc = a01 ,... . Además, la
curvatura resultante es multiplicada por el gradiente debido a que sólo los bordes que
son distinguibles son interesantes. La curvatura final resultante K puede ser calculada
como:
2 2
− a 20a 01 + 2a11a10a 01 − a 02a10
K= 2 2
a10 + a 01

En la figura 5.18c se muestra el efecto de la utilización del operador K, como se


puede observar este operador detecta las esquinas de los bordes y no los bordes.

A B C

Fig.5.18. Operadores de gradiente aplicados sobre la imagen de la fig.5.7.


A: Magnitud; B: Dirección; C: Curvatura

Otro operador de diferenciación frecuentemente empleado es el filtro Roberts, que


se emplea para la detección de bordes y que utiliza las diferencias entre las diagonales
utilizando la expresión:

∇[f (x , y )] = [f (x + 1, y + 1) − f (x, y )]2 − [f (x, y + 1) − f (x + 1, y )]2


En la figura 5.19 se muestra un ejemplo de aplicación del filtro de Roberts para la
extracción de bordes comparándose con los resultados obtenidos de la aplicación del
filtro Sobel.

5.5 MORFOLOGÍA
La morfología matemática es una herramienta general basada en la teoría de
conjuntos (Serra, 1982, 1988; Matheron, 1975; Sternberg, 1986; Haralick et al.,
1987). Esta metodología inicialmente fue aplicada a las imágenes de tipo binario
extendiéndose en la actualidad su aplicación a cualquier tipo de imagen.

5.5.1 Operadores morfológicos


Las operaciones elementales de la morfología matemática son la suma de
Minkowski representada con el simbolo r, la resta de Minkowski (s) y el
complementario del conjunto A representado por Ac. La base de la modificación de la
imagen binaria es denominada elemento estructural B 0 ún.
FOTOGRAMETRÍA DIGITAL   283 

A B1 B2

C1 C2

Fig.5.19. Aplicación de los filtros de detección de bordes sobre una imagen digital.
A: Imagen original; B1: Resultado de la aplicación del filtro Sobel; B2: Suma de la imagen original
y el resultado de la aplicación del filtro Sobel; C1: Resultado de la aplicación del filtro Roberts;
C2: Suma de la imagen original y el resultado de la aplicación del filtro Roberts

5.5.1.1. Dilatación
La definición de la dilatación se basa en la suma de Minkowski.
A r B = {x+y : x 0 A, y 0 B} , A, B 0 ún
y es definida por: A r B = {x : A 1 (B + x) … 0}
La propiedad geométrica básica de la dilatación es: A f A r B, y produce en la
parte exterior suavizado y relleno de las pequeñas irregularidades en función del
tamaño de B, produciendo cierre de grietas.
5.5.1.2. Erosión
La definición de la erosión se basa en la resta de Minkowski.
A s B = (Ac r B)c
y es definida por A s B = {x : (B + x) f A}
La propiedad geométrica básica de la erosión es: A g A s B, y produce suavizado
en las zonas interiores y puede originar la desaparición de pequeñas partes.
La dilatación y la erosión no son operaciones inversas. La dilatación y la erosión
son invariantes por traslación, pero generalmente no son lineales al ser operadores de
orden de carácter especial. Las propiedades básicas son:
284  PROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

A s B = (Ac r B)c
(A s B)c = Ac r B
Ac s B = (A r B)c
(Ac s B)c = A r B
5.5.1.3. Cierre
Es una operación que consiste en la aplicación de una forma sucesiva de dilatación
y erosión. El cierre viene definido por:
A C B = (A r B) s B
y produce suavizado con cierre de grietas y huecos orientados hacia el exterior y
elimina huecos y crestas del interior.

5.5.1.4. Apertura
Es una operación que consiste en la aplicación de una forma sucesiva de erosión y
dilatación. La apertura viene definida por:
A B B = (A s B) r B

y produce un suavizado de la parte interior eliminando pequeñas partes y picos


agudos.
Utilizando las operaciones de cierre y apertura se pueden definir las expresiones
siguientes:
(A s B) r B = ((Ac r B) s B)c
((A s B) r B)c = (Ac r B) s B
(Ac s B) r B = ((A r B) s B)c
((Ac s B) r B)c = (A r B) s B
Una propiedad muy importantes es que las operaciones de cierre y apertura son
idempotentes, definiéndose las siguientes igualdades:
(A B B) B B = A B B y (A C B) C B = A C B
así para realizar suavizados más intensos, es necesario cambiar el tamaño del
elemento estructural B o bien aplicar las operaciones de dilatación y erosión
repetidamente.
En las figuras 5.20 y 5.21 se presentan los resultados de las operaciones
morfológicas sobre una imagen binaria.

5.5.2 Morfología para imágenes en tonos de gris


Los efectos que producen las operaciones de morfología matemática tienen
también aplicación en las imágenes en tonos de gris. El problema que surge de esta
aplicación es la asignación a la zona de la imagen que se modifica de un determinado
nivel digital. La solución aplicada se basa en los criterios de supremum e infinimum.
Dilatación: El valor del píxel x será reemplazado por el valor máximo de la vecindad.
(F r B) (x) = sup { F(y) : y 0 B + x}
Erosión: El valor del píxel x será reemplazado por el valor mínimo de la vecindad.
(F s B) (x) = inf { F(y) : y 0 B + x}
FOTOGRAMETRÍA DIGITAL   285 

Fig.5.20. Efecto de la aplicación de las operaciones morfológicas básicas al conjunto A utilizando el


elemento estructural B. a) Dilatación A r B; b) Erosión A s B; c) Cierre A C B y d) Apertura A B B

A B

C D E F

Fig.5.21. Efecto de la aplicación de las operaciones morfológicas básicas a una imagen binaria obtenida a
partir de una fotografía aérea. A: Imagen original; B: Imagen binaria; C: Imagen sometida al operador de
dilatación; D: Imagen sometida al operador de erosión, E: Imagen sometida al operador de cierre; F:
Imagen sometida al operador de apertura. Tamaño del elemento estructural del operador = 3x3 píxeles

Por último, las operaciones de apertura y cierre se definen de la misma forma que
cuando se trabaja con imágenes binarias y consisten en la aplicación de una operación
sucesiva de dilatación y erosión o erosión y dilatación, respectivamente.
Los efectos de las operaciones de morfología matemática sobre una imagen en
tonos de gris se muestran en la figura 5.22.
286  PROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

B C D E
Nivel Digital Nivel Digital Nivel Digital Nivel Digital
180 180 180 180

150 150 150 150

120 120 120 120

90 90 90 90

60 60 60 60

30 30 30 30

0 0 0 0
0 20 40 60 80 100 120 0 20 40 60 80 100 120 0 20 40 60 80 100 120 0 20 40 60 80 100 120
Columna Columna Columna Columna

Fig.5.22. Efectos de la aplicación de las operaciones morfológicas básicas a una imagen en tonos de gris.
A: Imagen original; B: Imagen sometida al operador de dilatación; C: Imagen sometida al operador de
erosión, D: Imagen sometida al operador de cierre; E: Imagen sometida al operador de apertura. En todos
los casos el elemento estructural del operador es una ventana 3x3 píxeles. En la parte inferior de la figura se
muestra un perfil de los niveles digitales de las diferentes imágenes correspondiente a la fila 56

5.6 PIRÁMIDES DE IMÁGENES


En la mayoría de los casos los píxeles que existen en una imagen digital real están
fuertemente correlacionados poniendo de manifiesto la continuidad existente en la
naturaleza. Así si se representa una imagen mediante todos los valores digitales, la
mayoría de la información es redundante y la aplicación de los algoritmos consume
mucho tiempo. Por tanto, el planteamiento más lógico pasa por la eliminación de la
información redundante obteniendo una representación de la imagen real pero con un
tamaño menor, ajustando su resolución espacial a la variabilidad existente en la
realidad en función de la teoría de muestreo. Este planteamiento encuentra una
solución adecuada en el empleo de las pirámides de imágenes.
Una pirámide es una estructura de imágenes generalizadas que consta de varios
niveles de resolución creciente, proporcionando una representación multiescalar con
importantes ventajas en cuanto a la optimización de los procedimientos iterativos de
tratamiento de las imágenes así como para la visualización.

5.6.1 Pirámide gausiana


La idea básica de la generación de una pirámide de imágenes es muy simple y fue
sugerida por Burt y Adelson (1983). Para la obtención de la pirámide se emplea un
filtro de suavizado (filtro de paso bajo) de dimensiones de kernel de 5, de tipo f1 = { γ,
β, α, β, γ}. En la figura 5.23 se muestra el esquema de la formación de una pirámide
FOTOGRAMETRÍA DIGITAL   287 

de imágenes. Cada fila representa un nivel de descomposición de la pirámide. Cada


cinco puntos de un nivel son ponderados, sumados y dan lugar a un único punto en el
nivel correspondiente superior. Así, la distancia (tamaño de píxel) va aumentando en
cada nivel, disminuyendo, por tanto, la resolución espacial.
(3 )
I
γ/2 γ/2

(2 )
β/2 α β/2
I

(1 )
I

(0 )
I
Fig.5.23. Representación gráfica de la generación de una pirámide gausiana (Faber, 1998)

Los coeficientes de ponderación deben ser simétricos y todos los coeficientes en el


mismo nivel deben contribuir con el mismo peso (= 1/4). Existiendo las siguientes
condiciones adicionales:
α + 2β + 2 γ = 1 α + 2γ = 2β
Los valores que se suelen emplear son: β = 1/4 y γ = 1/4 - α/2.
En la figura 5.24 se muestra una pirámide gausiana de imágenes de 3 niveles. Se
puede observar como el tamaño de la imagen decrece en cada nivel superior un factor
constante y la resolución va siendo progresivamente menor.

5.6.2 Pirámide laplaciana


A partir de la pirámide gausiana se puede obtener una segunda pirámide, la
pirámide laplaciana. Dicha pirámide laplaciana se obtiene como la diferencia entre los
sucesivos niveles de la pirámide gausiana.
d (r)(i) = g(r)(i) - g(r)(i-1)
La diferencia d(r)(i) puede ser interpretada como el error asociado con la
aproximación g(r)(i)= =f(g(r)(i)). Así mediante la utilización de las diferencias y de las
aproximaciones de g(r) se puede reconstruir la imagen original.
n
g(r )(0 ) = g(r )(n ) + ∑ d(r )(i )
i =1

Es importante tener en cuenta que las operaciones lineales entre las imágenes sólo
son posibles si las imágenes que intervienen tienen las mismas dimensiones. Así, no
es posible el cálculo de la diferencia entre dos imágenes de diferente nivel de la
pirámide, siendo necesario, el remuestreo de la pirámide del nivel superior,
duplicando sus filas y columnas. Las técnicas más habituales de remuestreo son: el
vecino más próximo, la interpolación bilineal y la convolución bicúbica que serán
analizados con detalle en el apartado 5.8.
288  PROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

En la figura 5.24 se muestra el esquema completo de la generación de una


pirámide gausiana y laplaciana.

R e mu estre o Remue streo Remue streo


Esc al a x2 Esca la x2 Esca la x2

- - -

Fig.5.24. Ejemplo de una pirámide gausiana (superior)


y su correspondiente pirámide laplaciana (inferior)

5.7 CORRECCIÓN DE IMÁGENES


La corrección de la imagen tiene por objeto la detección y corrección de píxeles
defectuosos en la imagen. Los errores a detectar varían desde los píxeles individuales
cuyo nivel digital es marcadamente distinto que los de su entorno (valor anómalo)
hasta los grupos de píxeles, habitualmente dispuestos en filas o columnas. El filtrado
de las imágenes con un filtro de paso bajo es una de las tareas más frecuentes en el
procesamiento de la imagen. Los filtros de paso bajo tienden a suavizar la imagen,
reduciendo el efecto de los píxeles que presentan una respuesta espectral que
contrasta con los píxeles que le rodea (píxeles con ruido).
Los píxeles con ruido son el resultado de problemas de malfuncionamiento del
sensor (cámara CCD o escáner), o de problemas de transmisión de los datos en la
transmisión de la información para el almacenamiento. El ruido puede ser periódico o
aleatorio, o una combinación de ambos, la presencia de ruido en una imagen digital
dificulta la interpretación de la misma y, por consiguiente, la realización de medidas
sobre ella.
FOTOGRAMETRÍA DIGITAL   289 

Eliason y McEwen (1990) distinguen dos tipos de ruido, por un lado, el ruido que
produce que un píxel no tenga ningún parecido con los que le rodean produciendo el
efecto conocido como "sal y pimienta" (salt and pepper) y, por otro lado, los píxeles
cuyo nivel digital tiene relación con su entorno pero que ha sufrido algún tipo de
modificación en su número digital.
Las técnicas de eliminación del ruido en las imágenes digitales se basan en la
hipótesis de la coherencia de la misma, es decir, que los píxeles adyacentes estén
correlacionados. Partiendo de este hecho, la eliminación del ruido requiere un análisis
conceptual que asigna al píxel con ruido un nuevo valor digital como una función de
su vecindad.
La detección del ruido puede ser realizada por la comparación del número digital
del píxel con un valor que se considera representativo del entorno, estableciendo
posteriormente si la diferencia obtenida se puede considerar aceptable o no.
Schowengert (1983) sugiere que un píxel se puede considerar que tiene ruido si la
diferencia entre su número digital y la media de los valores de los píxeles vecinos
supera un determinado valor fijado por el usuario, si esto sucede el píxel con ruido es
sustituido por un valor promediado (la media, la mediana, Y).

5.7.1 Método de validación cruzada


El problema fundamental de la detección de píxeles defectuosos mediante la
aplicación de un filtro de paso bajo (mediana) es el suavizado que aplica a la imagen,
que tiene efectos perjudiciales en especial si se desea realizar una restitución sobre la
misma. Un método que evita este problema es el de validación cruzada que consiste
en la aplicación sobre la imagen de un filtro de convolución del tipo:
1 1 1
1
h= 1 0 1
8
1 1 1

Un píxel es considerado erróneo si 2h*f - f 2 > T, donde f es la función de la


imagen y T es un valor límite predefinido.
5.7.2 Eliminación del ruido mediante filtrado de paso bajo de tipo adaptativo
basado en la aplicación de la teoría de la lógica difusa.
Elliason y McEwen (1990) indican que el empleo de los filtros de paso bajo en la
detección y corrección de píxeles con ruido sólo es eficiente si el ruido está
homogéneamente repartido en la imagen y la imagen presenta un nivel de contraste
bajo, concentraciones de ruido en determinadas zonas de la imagen producirían la
incapacidad de la detección del valor real de la imagen.
Un problema frecuente en este tipo de técnicas de filtrado de paso bajo para la
supresión de ruido lo constituye que las zonas de límite entre clases pueden ser
consideradas como píxeles con ruido debido al fuerte contraste entre niveles digitales
y ser suprimidos, por esta razón es especialmente importante la tarea de fijar el valor
máximo de diferencia permitido. Eliason y McEwen (1990) proponen la utilización de
valores estadísticos para determinar el valor máximo de diferencia, en función de la
290  PROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

media y un múltiplo de la desviación típica de los píxeles del entorno el píxel


analizado será considerado con ruido o no. No obstante, la elección del límite correcto
es una de las tareas más complejas a la hora de eliminar el ruido de la imagen, ya que
depende de la imagen en cuestión, de la zona y de los objetivos que se pretendan
derivar del análisis de la imagen, teniendo en cuenta que todos estos parámetros
pueden variar de una zona de la imagen a otra.
La particularidad del filtro de paso bajo adaptativo basado en la lógica difusa
"fuzzy" es la introducción de una segunda función ponderadora p(f(x)) resultando una
estructura del filtro de la forma:
n
g(x ) = ∑ [h(i)* f (i)* p(f (i ))]
i =1

La nueva función ponderadora p(f(i)) es una función de pertenencia que representa


el grado de pertenencia de un píxel con respecto a su vecindad en función de los
números digitales considerados, dentro de la aproximación de la lógica difusa (fuzzy).
La función de pertenencia es definida por Pal y Dutta Majumder (1986) como una
función que toma valores comprendidos entre 0 (independencia total) y 1
(dependencia total), esta función no tiene límites definidos y un mismo píxel puede
pertenecer a más de un conjunto. Al introducir esta función de pertenencia los píxeles
con ruido tomarán valores bajos con respecto a los grupos de píxeles "normales" por
lo que no intervendrán o lo harán de una forma muy poco importante (con un peso
muy bajo) en el proceso de filtrado.
Se asume que los números digitales dentro de una pequeña zona homogénea
siguen una distribución de tipo gausiano. Por tanto, los conceptos de media fuzzy (mf)
y de varianza fuzzy (varf) (Wang,1990) pueden ser calculadas para la ventana:
1 1
m f (x ) =
N ∑ [h(i)* p(f (i)) * f (i)] varf (x ) =
N ∑ [h(i) * p(f (i))* d2(i)]
donde d2(i) es el cuadrado de la distancia a la media fuzzy:
d2(i)= (f(i) - mf(x))2 y N= Σ h(i) * p(f(i))
La función p(f(i)) está basada en el concepto de distancia estadística con respecto
al nivel digital medio estimado por el valor medio de los píxeles que están incluidos
en la ventana.
1⎡ d 2(i ) ⎤ d2
p(f (i )) = ⎢T − ⎥ si T >
L⎣ varf (x ) ⎦ varf (x )

d 2(i )
p(f (i )) = 0 si T <
varf (x )

donde L es el factor de normalización dado por:


⎡ d 2(i ) ⎤
L= ∑ ⎢⎣T − varf (x )⎥⎦
FOTOGRAMETRÍA DIGITAL   291 

y T es el límite del intervalo. La determinación de este valor es de especial


importancia y en este esquema de filtro adaptativo debe variar de una zona de la
imagen a otra. Si f(x) sigue una distribución de tipo normal es una región próxima a x,
con media MED y varianza VAR, siendo sus estimados m(x) y var(x), se puede
definir una variable d1(x) que sigue una distribución de Student con n-1 grados de
libertad de la siguiente forma:
⎛ f (x ) − MED ⎞
d1(x ) = ⎜ ⎟−t
⎜ VAR (x ) ⎟ (n −1)
⎝ ⎠

puesto que MED es desconocida, se puede realizar una aproximación, sustituyendo su


valor por m(x). La probabilidad de la función de densidad de d1(x) es conocida por lo
que el valor T puede ser estimado. Así para un determinado nivel de significancia que
puede definir un intervalo fuera del cual f(i) se considerara afectado por el ruido y
sería descartado.

− t (n −1, a ) =
(f (i ) − m(x )) < t
(n −1, a )
VAR (x )

utilizándose el valor de t(n-1,a) como un estimador de T.


Un problema que conlleva este tipo de aproximación al filtrado utilizando lógica
difusa es que los parámetros fuzzy (media y varianza) no pueden ser estimados.
Aunque es posible sustituir los parámetros por sus estimadores clásicos:
1 1
m(x ) =
N ∑ [h (i )* f (i )] VAR ( x ) =
N ∑ [h(i)* d 2(i )]
que pueden ser considerados como un caso particular en el que p(f(i)) es constante. La
función de pertenencia y el cuadrado de la distancia estadística d2(i) son
posteriormente modificadas introduciendo los estimadores clásicos de la media y la
varianza.
1⎡ d 2(i ) ⎤ d 2(i )
p(f (i )) = T− si T >
L ⎢⎣ var(x ) ⎥⎦ var(x )

d 2(i ) ⎡ d 2(i ) ⎤
p(f (i )) = 0 si T <
var(x )
siendo d 2(i ) = (f (i ) − m(x ))2 y L = ∑ ⎢⎣T − var(x )⎥⎦
Estimándose la media y la varianza a partir de los valores digitales de los píxeles
incluidos dentro de la ventana.
El criterio selectivo del filtro propuesto por Eliason y McEwen (1990) puede ser
considerado como un caso particular que adopta una función de pertenencia no lógica:
el usuario predefine el intervalo, si la diferencia es menor que el intervalo definido la
función de pertenencia es igual a 1, en caso contrario, 0.
Este filtro propuesto por Silva y Haertel (1995) ha sido comparado tanto con
filtros lineales clásicos como con el filtro de Eliason y McEwen, observándose en
todos los casos que la detección y eliminación del ruido ha sido totalmente
292  PROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

satisfactoria, en términos de respeto a los niveles digitales de los valores vecinos y en


nivel mínimo de suavizado (Tabla 5.1).
Tabla 5.1. Efectos del filtrado en una imagen a la que se le ha introducido ruido artificialmente.
a) Imagen con ruido (en negrita los píxeles con ruido); b) filtro lineal 3x3, h(i)=1;
c) filtro de Eliason y McEwen; d) filtro de paso bajo adaptativo de lógica difusa
20 20 20 21 21 21 22 22 22 22 22 22 22 23 24
20 20 255 21 20 22 250 22 22 22 22 22 22 23 24
20 21 21 21 22 23 22 22 22 22 22 115 22 24 23
21 21 21 22 22 22 24 20 19 22 22 22 22 23 24
20 20 20 21 21 21 22 22 22 22 22 99 22 23 24
20 20 21 21 20 22 22 22 22 22 22 22 22 23 24
90 91 91 91 97 93 97 99 20 22 21 21 22 22 22
91 91 91 99 97 97 97 96 70 20 21 21 20 22 23
90 90 0 91 91 98 110 96 82 23 22 22 22 23 24
91 91 91 97 99 96 97 96 71 21 20 22 22 22 22
20 20 20 21 21 21 22 22 22 22 22 22 22 23 24
20 46 46 46 21 47 47 47 22 22 32 32 32 23 24
20 46 47 47 21 47 47 47 21 21 32 32 32 23 23
21 20 20 21 21 22 22 21 21 21 40 40 41 23 24
20 20 20 21 21 21 21 21 21 21 30 30 30 23 24
20 43 44 44 45 46 46 38 30 21 30 30 30 22 24
90 67 68 69 70 71 71 60 43 26 21 21 21 22 22
91 80 81 83 94 97 98 85 58 33 21 21 21 22 23
90 80 82 84 96 98 98 90 63 38 21 21 21 22 24
91 91 91 97 99 96 97 96 71 21 20 22 22 22 22
20 20 20 21 21 21 22 22 22 22 22 22 22 23 24
20 20 20 20 21 21 22 22 22 22 22 22 22 23 24
20 20 21 21 21 22 22 21 21 21 22 22 22 23 23
21 20 20 21 21 22 22 21 21 21 22 22 22 23 24
20 20 20 21 21 21 21 21 21 21 22 22 22 23 24
20 43 44 38 38 46 46 21 21 21 21 21 22 22 24
90 67 68 69 70 71 71 60 28 21 21 21 21 22 22
91 90 90 92 94 95 96 93 58 21 21 21 21 22 23
90 90 91 94 97 96 96 94 63 33 21 21 21 22 24
91 91 91 97 99 96 97 96 71 21 20 22 22 22 22
20 20 20 21 21 21 22 22 22 22 22 22 22 23 24
20 20 20 20 21 21 22 22 22 22 21 21 22 22 24
20 20 21 21 21 22 22 21 21 21 21 21 22 22 23
21 20 20 21 21 21 22 21 21 21 22 22 22 22 24
20 20 20 20 21 21 21 21 21 21 21 21 22 22 24
20 30 30 30 31 31 32 21 21 21 21 21 22 22 24
90 80 82 83 85 85 86 62 28 21 21 21 21 22 22
91 90 91 93 95 96 96 92 60 21 21 21 21 22 23
90 90 92 94 97 97 96 93 72 28 21 21 21 22 24
91 91 91 97 99 96 97 96 71 21 20 22 22 22 22
FOTOGRAMETRÍA DIGITAL   293 

5.7.3 Eliminación de filas o columnas erróneas


El procedimiento de detección de filas o columnas erróneas es similar al de la
detección de píxeles aislados y se basa en la comparación de los niveles digitales con
los del entorno, esta metodología se basa en la presunción de la existencia de una
cierta continuidad en los niveles digitales de las imágenes, lo cual se cumple para la
mayoría de las imágenes reales. Uno de los métodos más eficientes para la
comparación entre filas o entre columnas es el cálculo de los coeficientes de
correlación.
La covarianza r(i,i+1) entre las filas i e i+1 viene dada por:
C −1
1
r (i, i + 1) =
C ∑ [f (i, j) − f m (i)][f (i + 1, j) − fm (i + 1)]
j= 0

donde C es el número total de columnas, fm(i), fm(i+1) es el nivel digital medio de las
filas i e i+1, respectivamente.
El coeficiente de correlación se obtiene mediante la normalización de las
covarianzas.
r (i, i + 1)
ρ(i, i + 1) =
r (i, i ) r (i + 1, i + 1)

Si el coeficiente de correlación ρ(i,i+1) es bajo entonces se puede sospechar que


alguna de las dos filas que intervienen en el cálculo del coeficiente i o i+1 son
erróneas. Si el procedimiento se repite para todas las filas se observará cuál es el nivel
medio de correlación entre las filas y cómo las filas erróneas producen importantes
reducciones en el nivel de correlación medio, tal y como se muestra en la figura 5.25.
Una fila o columna errónea produce bajos coeficientes de correlación con las filas o
columnas inmediatamente anterior y posterior, siendo su detección muy simple. La
corrección final se suele realizar mediante la sustitución de los valores erróneos por
los valores medios entre las filas o columnas adyacentes.

5.8 TRANSFORMACIONES GEOMÉTRICAS


La característica fundamental de las transformaciones geométricas es que
modifican el espacio en el que se define la imagen digital. Así la imagen resultante de
la aplicación de las transformaciones geométricas suele tener un tamaño y/o forma
diferente a la de la imagen original. Esta modificación del tamaño y/o de la forma
produce que un pixel que ocupaba una posición f,c definida en el sistema de
coordenadas imagen de la imagen original mediante dos números enteros, pase a
ocupar una posición f=,c= en la imagen resultado. Esta posición f=,c= suele venir
definida por dos números de tipo real, siendo necesario realizar el cálculo del nivel
digital correspondiente a la posición entera más próxima (remuestreo), y de esta
forma, permitir el almacenamiento implícito como imagen binaria.
294  PROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

A B

r
1.00

0.95

0.90

Fila: 38
r=0.8962 Fila: 93 Fila: 168
C r=0.8791 r=0.8869
0.85
0 30 60 90 120 150 180
Fila

Fig.5.25. A: Imagen digital en la que aparecen tres filas erróneas; B: Imagen corregida mediante la
sustitución de las filas erróneas detectadas mediante correlación por los valores medios de las filas
adyacentes; C: Representación de los valores del coeficiente de correlación entre filas
Las transformaciones geométricas son muy frecuentes en Fotogrametría Digital,
aplicándose, por ejemplo, en:
- tras la orientación interna, con el objeto de hacer paralelo y ajustar en escala el
sistema de coordenadas imagen al sistema de fotocoordenadas.
- tras la orientación relativa, con el objeto de situar los pares de fotogramas en
una posición normalizada (ver capítulo 6). En esta posición, las líneas
epipolares coinciden con las filas y los puntos homólogos están situados sobre
la misma fila en las dos imágenes.
- las transformaciones geométricas son básicas en proceso fundamentales en la
Fotogrametría Digital como la generación de fotografías rectificadas o la
generación de ortofotografías (rectificación diferencial).
- la generación de perspectivas realísticas requiere la superposición de las
imágenes sobre los modelos digitales del terreno. Esta superposición requiere
la transformación geométrica de la imagen para ajustarla a la nueva posición
del sistema de coordenadas y del punto de vista.
Existen diferentes modelos matemáticos para establecer la relación entre dos
imágenes, o entre una imagen y el espacio objeto. Una transformación geométrica se
puede considerar como el resultado de aplicar una expresión del tipo x== S R x + t a
una imagen digital, donde x es la posición del pixel en la imagen original, x= es la
posición transformada del pixel que ocupaba la posición x, S es la matriz de escala, R
FOTOGRAMETRÍA DIGITAL   295 

es la matriz de rotación (que no tiene porqué ser necesariamente ortogonal) y, por


último, t es el vector de desplazamiento o traslación.

5.8.1 Tamaño de una imagen transformada mediante rotación


Una de las transformaciones geométricas más frecuentes es la rotación. La
aplicación de un giro a una imagen digital g de tamaño F,C implica la modificación
del tamaño de ésta, dando lugar a una imagen resultante g= de tamaño F=,C= que viene
definido por las expresiones:
F= = F cos α + C sen α
C= = C cos α + F sen α
donde α es el ángulo de rotación aplicado.
En la figura 5.26 se muestra un esquema del efecto de la rotación sobre una
imagen digital. Es importante indicar que la rotación produce que en la imagen
resultante queden zonas que no contienen información (fig.5.27).
c c

α
f
Fig. 5.26. Rotación de una imagen digital. Izq: Imagen original definida en el sistema de coordenadas f,c;
Der: Imagen rotada (de mayor tamaño que la imagen original)

Fig. 5.27. Ejemplo de rotación de una imagen digital. Izq: Imagen original (tamaño 1000x1000 píxeles);
Der: Imagen rotada 151 (tamaño de la imagen rotada: 1225x1125 píxeles, ángulo de rotación: 151)

5.8.2 Remuestreo
Como se indicó en el inicio de este apartado, las transformaciones geométricas
296  PROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

producen una modificación de la posición de los píxeles con respecto a la que


ocupaban en la imagen original (fig.5.28). Esta modificación conlleva el problema de
la asignación de los niveles digitales a los píxeles de la imagen transformada, a este
proceso se le denomina remuestreo y puede ser abordado por diferentes técnicas.

Fig. 5.28. Efecto de la rotación en la posición de los píxeles de la imagen. (Schenk, 1999)

- Vecino más próximo. Este método consiste en aplicarle al píxel de la imagen


remuestreada el valor digital del píxel más próximo de la imagen
transformada. Esta técnica tiene la ventaja del bajo esfuerzo de cálculo
necesario aunque presenta el inconveniente de que las imágenes obtenidas
suelen presentar efecto escalera.
- Interpolación bilineal. Este método emplea tres interpolaciones lineales con
respecto a los cuatro píxeles de la imagen corregida que rodean al píxel de la
imagen remuestreada. Como se muestra en la figura 5.29 las dos primeras
interpolaciones tienen como objeto el cálculo de φ (i,j=) y φ (i+1,j=) que son
obtenidos por las expresiones:
φ(i,j=)= j= φ (i,j+1) + (1-j=) φ(i,j)
φ(i+1,j)= j= φ(i+1,j+1) + (1-j=) φ(i+1,j)
siendo φ el nivel digital del píxel e (i=,j=) la posición en la nueva imagen
remuestreada. El último paso consiste en la interpolación entre los valores φ
(i,j=) y φ (i+1,j=) para calcular φ (i=,j=) mediante la expresión:
φ(i=,j=)= (1-i=) [ j= φ(i,j+1) + (1-j=) φ(i,j)] + i= [j= φ(i+1,j+1) + (1-j=) φ(i+1,j)]
Este método presenta el inconveniente con respecto al anterior de un mayor
esfuerzo de cálculo presentando la ventaja de que las imágenes obtenidas no
presentan el efecto de escalera debido a la introducción de un proceso de
interpolación (filtrado).
- Interpolación mediante convolución cúbica. Este método emplea los valores
digitales de los 16 píxeles que rodean el píxel del cuál deseemos calcular su
nivel digital. El método se basa en el ajuste de cuatro polinomios cúbicos a lo
largo de las cuatro líneas de cuatro píxeles que rodean al píxel a calcular. Un
quinto polinomio es ajustado entre los anteriores para obtener el valor digital
final para la localización deseada. El algoritmo más frecuentemente empleado
es (Moik, 1980):
FOTOGRAMETRÍA DIGITAL   297 

φ (i,j) φ (i,j+1)

i'

u=f(x,y)
v=g(x,y)
φ(i+1,j) φ(i+1,j+1)

j'

Fig. 5.29. Interpolación bilineal (Richards, 1994)

φ(i,j=)= j´ {j= (j= [φ(i,j+3) - φ(i,j+2) + φ (i,j+1) - φ (i,j)] +


+ [φ(i,j+2) - φ(i,j+3) - 2φ(i,j+1) + 2φ(i,j)]) +
+ [φ(i,j+2) - φ(i,j)]}+ φ(i,j+1)
Dicha expresión es calculada para cada una de las cuatro líneas obteniendo
las cuatro interpolaciones φ(i,j=), φ(i+1,j=), φ(i+2,j=), φ(i+3,j=), que
posteriormente son interpolados obteniendo el resultado final (fig.5.30):
φ(i=,j=)= i´ {i= (i= [φ(i+3,j=) - φ(i+2,j=) + φ (i+1,j=) - φ (i,j=)] +
+ [φ(i+2,j=) - φ(i+3,j=) - 2φ(i+1,j=) + 2φ(i,j=)]) +
+ [φ(i+2,j=) - φ(i,j=)]}+ φ(i+1,j=)
El método de la convolución cúbica presenta el inconveniente de requerir
un importante esfuerzo de cálculo obteniéndose imágenes con una apariencia
bastante suavizada, lo cual puede ser interesante para la obtención de
productos cartográficos finales pero no para la fotointerpretación al
difuminarse los bordes de los elementos.
En la figura 5.31 se muestran los efectos de la aplicación de las diferentes técnicas
de muestreo comentadas a una transformación geométrica de una imagen digital
(cambio de escala x2).

5.9 SEGMENTACIÓN DE LA IMAGEN


Uno de los procesos de tratamiento de la imagen más interesantes en
Fotogrametría Digital es la segmentación. El objetivo de la segmentación es el de
dividir la imagen original en regiones cuyas características sean similares, por lo que
conlleva una primera intención de interpretación de la imagen. Evidentemente, a
partir de esta definición se puede deducir que el concepto de segmentación no es
único, sino que dependerá de la aplicación concreta que se esté realizando.
298  PROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

φ (i,j)
φ (i,j+1)
φ (i,j+1)
φ(i',j')

φ(i+1,j)
φ(i+1,j')
φ(i+1,j+1)

φ(i,j)

i' Interpolaciones
polinómicas cúbicas

φ(i+3,j+3)
j'

Fig.5.30. Método de remuestreo mediante convolución cúbica (Richards, 1994)

Fig.5.31. Efectos del remuestreo en la imagen digital. Sup.: Imagen original; Inf.: Imagen transformada
(cambio de escala x2), izq: Vecino más próximo; centro: Interpolación bilineal; der: convolución cúbica

Los métodos de segmentación de la imagen se pueden dividir en dos categorías:


métodos de carácter puntual y métodos de carácter regional. Los métodos de
segmentación regional asignan los píxeles a determinadas clases en función de las
propiedades locales de la imagen, es decir, se analiza la vecindad del píxel en la
FOTOGRAMETRÍA DIGITAL   299 

búsqueda de las características de los vecinos que permitan definir las clases. Esta
búsqueda se puede plantear de dos formas: la clasificación a nivel de píxel o la
delimitación de límites en la imagen.

5.9.1 Métodos de segmentación puntual


La forma más simple de establecer esta subdivisión es mediante una clasificación
en la imagen en base a los niveles digitales, mediante la definición de valores límites
y la reasignación de valores digitales en función de la clase del píxel (fig.5.32).
40 f

30

a b c 20 C B A A B C

10

0
0 64 128 192 255
Nivel digital
Fig.5.32. Segmentación de la imagen digital en función del histograma.
Izq.: Imagen original; centro: histograma; der.: imagen clasificada (Schenk, 1999)

Evidentemente, el éxito alcanzado en la clasificación dependerá en gran medida


del histograma calculado. Así, en la figura 5.32 la clasificación es adecuada debido a
que el histograma permite distinguir claramente las tres clases existentes en la imagen
original. En la figura 5.33 se ha calculado un histograma inadecuado que no permite
la diferenciación de las clases y, por tanto, no es válido para la clasificación de la
imagen.
Otra cuestión básica es que para que la segmentación de la imagen tenga algún
interés es que se base no sólo en propiedades de tipo estadístico sino que tenga algún
significado real sobre la imagen. En la figura 5.34 se muestra un ejemplo de
clasificación de una imagen en función del histograma que presenta tres clases bien
diferenciadas pero que son difícilmente atribuibles a elementos de la misma.
40 f

30

a b c 20 A A

10

0
0 64 128 192 255
Nivel digital
Fig.5.33. Error en la segmentación de la imagen debido a un histograma inadecuado (Schenk, 1999)
300  PROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

40 f

30

20 C B A

10

0
0 64 128 192 255
Nivel digital
Fig.5.34. Segmentación de una imagen aleatoria. En este caso aunque el histograma permita la
diferenciación de las tres clases existentes, la segmentación carece de interés práctico

Este método de segmentación, aunque simple, proporciona muy buenos resultados


siempre que se tengan ciertas precauciones en la definición de los valores límites. En
la figura 5.35 se muestra un ejemplo de segmentación de una fotografía aérea con el
objetivo de la posterior detección de la posición de la marca fiducial (orientación
interna automática), en la misma se ha realizado la segmentación de la imagen en dos
fases, en la primera se ha separado el marco del fotograma (negro + marca) del resto y
a continuación se ha separado dentro del marco la propia marca.

Fig.5.35. Aplicación de las técnicas de segmentación a la localización de una marca fiducial

5.9.2 Métodos de segmentación a nivel de área


5.9.2.1 Matriz de coocurrencia
La matriz de coocurrencia es una técnica de segmentación a nivel de área
frecuentemente empleada para el análisis de las texturas de las imágenes digitales, en
especial, cuando éstas presentan un contraste pobre. La matriz de coocurrencia
contiene la frecuencia de aparición de parejas de niveles de gris en función de unos
patrones espaciales predeterminados. En la figura 5.36 se muestra una imagen
sintética compuesta de 5x5 píxeles que contiene 4 niveles digitales diferentes. La
dimensión de la matriz será igual al número de niveles digitales (4). Para la creación
de la matriz se definen dos patrones de coocurrencia (en la misma fila y en la
diagonal). La creación de la matriz requiere que se cuenten los casos de aparición de
los patrones predefinidos.
FOTOGRAMETRÍA DIGITAL   301 

3 3 3 3 3 0 1 2 3 0 1 2 3
1 0 2 0 0 0 0 1 0
1 3 3 3 3
1 1 3 2 3 2 2 0 2 1 3 2 0 0

1 1 0 2 2 0 0 2 1 2 0 0 2 0

1 0 0 2 2 0 0 1 7 3 0 0 2 6

Fig.5.36. Segmentación mediante matriz de concurrencia


Izq.: Imagen digital. Centro y dcha.: Matrices de coocurrencia (modificado de Schenk,1999)

5.9.2.2 Segmentación textural mediante filtros de Gabor


La ventaja fundamental del empleo de filtros basados en el empleo de funciones
de Gabor es que operan de una forma similar a como se comporta el sistema de visión
humano para la determinación de texturas. La función de Gabor bidimensional se
define por la expresión:
⎛ x2 y2 ⎞
−⎜ + ⎟
1 ⎜ 2 πσ x 2 πσ y ⎟ (2 πi (Ux + Vy ))
g(x , y ) = e ⎝ ⎠e
2πσ x σ y
donde: σx desviación típica en x
σy desviación típica en y (para todos los efectos se puede considerar σx=σy)
U = F cos θ y V = F sen θ; con θ = arctan (V / U)
La expresión anterior se puede simplificar a:
⎛ x 2 + y2 ⎞
−⎜ ⎟
⎜ 2σ 2 ⎟
g(x , y ) =e ⎝ ⎠ sen (ω(x cos θ − ysenθ) + ϕ)
siendo la frecuencia angular ω= 2 π F y n el desfase. Los parámetros fundamentales
del filtro de Gabor son la desviación típica de la componente gausiana (σ), la
frecuencia espacial (ω), la orientación (θ) y la fase (n). En la figura 5.37 se muestra
un ejemplo de la matriz de ponderadores del filtro de Gabor, tanto para su
componente real como imaginaria.

Fig.5.37. Vistas en perspectivas de las componentes del filtro de Gabor.


Izq: Componente real; Der: Componente imaginaria
302  PROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

La fase más compleja de la segmentación mediante filtros de Gabor es la selección


de los valores adecuados para los parámetros del filtro. El proceso comienza con la
subdivisión de la imagen en zonas de características aproximadamente homogéneas
mediante el cálculo de la entropía de las zonas. Una vez dividida la imagen para cada
una de las regiones se determinan los parámetros:
a) Orientación: La elección se debe realizar en función de la orientación predominante
de los elementos existentes en cada una de las subdivisiones realizadas en la imagen.
Evidentemente, no siempre se puede decidir a simple vista dicha orientación, con lo
que se suele realizar la determinación de la orientación predominante mediante el
cálculo de los vectores gradiente.
m −1 n −1

⎛ G y (i, j) ⎞
∑ ∑ θi, jIi, j
Ii, j = G 2x (i, j) + G 2y (i, j)
i = 0 j= 0
θi, j = arctan⎜⎜ ⎟ θ=
⎝ G x (i, j) ⎠
⎟ m −1 n −1
∑ ∑ Ii , j
i = 0 j= 0

donde Gx(i,j), Gy(i,j) son las componentes x e y del vector gradiente en el píxel (i,j) y
m x n es el tamaño de la ventana.
No obstante, debido a que en las imágenes fotogramétricas aéreas reales no suelen
existir orientaciones predominantes, se suelen considerar varias orientaciones (0º, 45º,
90º, 135º).
b) Frecuencia espacial: La frecuencia espacial local se define como ω = 2 π / T,
siendo T la longitud de onda que se considera como representativa de la dimensión
media de los elementos texturales de la imagen en cada subdivisión. El valor se debe
calcular para la orientación predominante.
c) Tamaño del filtro: La desviación típica de la componente gausiana controla el
tamaño del filtro de Gabor. La selección del tamaño dependerá de diversos factores,
como, por ejemplo, el contenido de la imagen, la escala, la resolución,... .
En la figura 5.38 se muestra un ejemplo de aplicación de los filtros de Gabor a la
segmentación de una imagen aérea, utilizando fases de 0º y 90º.

Fig.5.38. Aplicación del filtro de Gabor. Izq: Imagen original de tamaño 512x512 píxeles;
Der: Imagen clasificada mediante filtros de Gabor con tamaños de filtro σ= 3, 6, 9, 12
FOTOGRAMETRÍA DIGITAL   303 

5.9.3. Tratamiento de imágenes clasificadas

5.9.3.1. Detección de bordes y contornos


Existen diversos algoritmos de detección de bordes, de los cuales destaca por su
simplicidad el algoritmo de Bel-Lan et al. (1978) basado en el empleo de una
laplaciana (Rosenfeld y Kak, 1976), según la fórmula:
F(i,j) = f(u,v) - f(i,j)
donde f(u,v) son los 8 píxeles vecinos al píxel f(i,j).
Con este esquema general se pueden considerar como píxel de borde aquel que no
tiene igual valor digital que sus 8 píxeles vecinos (criterio de conectividad a ocho -
Jiménez y Navalón, 1982-) o que sus 4 píxeles vecinos más próximos (criterio de
conectividad a cuatro -Bel-Lan, 1978-).
Este algoritmo permite la obtención, a partir de imágenes clasificadas, de
imágenes resultantes de forma que éstas últimas vienen definidas por los bordes de los
elementos de la imagen original, definiéndose el borde como una zona de
discontinuidad donde se detecta el paso de una clase a otra. Estos algoritmos operan
como filtros de paso alto en el dominio de las frecuencias.

5.9.3.2. Esqueletización
Esta operación también es denominada detecto de la línea media o adelgazamiento
y consiste en la reducción del objeto alargado (relación óptima longitud/anchura=10)
sin perder la conectividad principal (Bel-Lan y Montoto,1981).
El método consiste en el borrado, sucesivo, de los bordes hasta definir un eje que,
posteriormente, permite deducir longitudes y orientaciones, en la imagen analizada.
Este algoritmo tiene cierta sensibilidad a los bordes del objeto de forma que si estos
son excesivamente dentados se obtiene una línea media ramificada, para evitar este
problema es necesario la aplicación previa e un filtro de paso bajo, de baja definición
(3x3).

5.9.3.3. Seguimiento de líneas


Este algoritmo opera sobre las imágenes obtenidas de la esqueletización y obtiene
las coordenadas que definen cada segmento (bien mediante el almacenamiento de las
coordenadas de los píxeles que la componen o bien mediante el almacenamiento de
los vértices). El seguimiento de líneas rastrea en 8 direcciones (2 horizontales, 2
verticales y 4 diagonales) considerando que existe continuidad de la línea cuando el
valor digital obtenido es igual.

5.9.3.4. Relleno
Este algoritmo está diseñado para buscar el cierre, en las estructuras binarias, y
asignar, dentro de las mismas, el valor de cada píxel P(x,y)=0 a uno nuevo P(x,y)=1.
La base del algoritmo es sencilla, se trata de reconocer la estructura y operar con los
píxeles de valor nulo, dentro de un espacio acotado, por píxeles de valor unidad,
rellenando interactivamente zonas.
304  PROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

5.9.3.5. Criba
Este método es un clasificador experto basado en la selección, mediante
morfología matemática, de una ventana de trabajo (mxn), eliminando aquellos objetos
(asociaciones de píxeles con un mismo valor) que estén por debajo de la misma; es
decir, menores que el rango de actuación matricial. Las matrices que menor tamaño
que la establecida arbitrariamente cambia de valor, pasando de P(x,y)=1 a P(x,y)=0,
manteniendo, en cambio, las restantes. Este proceso es muy útil para la eliminación de
ruidos de fondo y determinación de áreas conocidas.

5.9.4 Medidas sobre las imágenes segmentadas


Una vez concluido el proceso de clasificación y tras operar sobre la imagen
binaria, se obtiene una imagen sobre la cual es posible realizar diversas medidas de
gran interés. Para ello, se debe convertir las unidades de imagen (píxeles) en unidades
de medida reales, más fáciles de comprender y de una aplicación directa en nuestro
trabajo, lo que se efectúa mediante un procedimiento de transformación de
coordenadas en dos dimensiones (por ejemplo, transformación afín de coordenadas).
Los resultados de cuantificación más frecuentemente utilizados son:
a) Área.
Este cálculo tiene la expresión matemática siguiente:
n
1
S= ∑
2 i =1
(x i − x i +1 )(yi − yi +1 )

donde n es el número de vértices del polígono y (xi,yi) son las coordenadas de cada
uno, asumiendo que xn = x1 e yn = y1.
b) Longitud del perímetro.
Se calcula mediante la fórmula:
n
L= ∑ (x i − x i +1 )2 (yi − yi +1 )2
i =1

y con las mismas consideraciones notacionales que la fórmula anterior.


Esto se interpreta como que el perímetro de una región vendrá dado por la suma
de los puntos del borde, teniendo en cuenta que los saltos en la horizontal y vertical
los contamos como 1 y en la diagonal como 21/2 (Kulpa, 1976). Para obtener los
puntos que forman el perímetro de la imagen binaria es necesario someterla a un
proceso de seguimiento de líneas, estableciéndose (Kulpa, 1976) que el error con
respecto al área real no supera el 5%, manteniéndose en la mayoría de los casos por
debajo del 1%.
c) Dispersión
Es la relación entre la forma de cada grano y su circunferencia equivalente de
acuerdo con la expresión:
FOTOGRAMETRÍA DIGITAL   305 

( 2π r )
2

Área Círculo P2
= πr
2
Dispersión = =
Área Polígono A 4π A

siendo P el perímetro del elemento y A su área. Evidentemente cuanto más se


aproxime a un círculo el área de un grano, tenderá a 1 este coeficiente. También es
usual la utilización de la inversa de esta cantidad que presenta las ventajas de que los
valores oscilan entre 0 y 1.
d) Diámetro medio
Este parámetro se obtiene a partir del diámetro máximo y mínimo establecido por
el criterio de la ventana de Feret, considerando estos dos diámetros definidos por una
ventana rectangular, tangente a la línea que forma el borde del grano. Si se elimina la
ventana máxima se obtiene el diámetro mínimo e invirtiendo el proceso, el diámetro
máximo. El diámetro medio viene dado como la media de ambos.
e) Factor de elongación
Es otro parámetro de gran interés a la hora de la interpretación de la imagen, y se
basa en la relación existente entre el diámetro máximo y mínimo del objeto, con
respecto a su elipse equivalente. Su relación paramétrica viene dada por la expresión:

c a 2 − b2
e= =
a 2

REFERENCIAS BIBLIOGRÁFICAS
Ballard, D.H.; Brown, C.M. (1982). Computer Vision, Prentice-Hall, Nueva York.
Bel-Lan, A. (1978). Métodos de cuantificación de parámetros petrográficos mediante proceso digital de
análisis de imágenes microscópicas. Tesis de Licenciatura. Facultad de CC.Geológicas. Univ. de Oviedo.
Bel-Lan, A. y Montoto, L. (1981). A Thinning Transform of Digital Images. Signal Processing, 3, 37-47.
Burt, P.J. y Adelson, E.H. (1983). The Laplacian pyramid as a compact image code. IEEE Transactions and
Communications. 31(4), 532-540.
Eliason, E. y McEwen, A.S.(1990). Adaptative Box Filter for Removal of Random Noise from Digital
Images. PE&RS, 56(4), 453-458.
Faber,P. (1998). Digital Image Processing. 3rd Course in Digital Photogrammetry. Universidad de Bonn.
González, R.C. y Woods, R.E. (1996). Tratamiento Digital de Imágenes. Ed. Addison-Wesley / Díaz de
Santos, 772 p.
Haralick, R.M. y Shapiro, L.G. (1993). Computer and Robot Vision (vol.2). Addison-Wesley Publ.Co., 630
p.
Haralick,R.M.; Sternberg,S.R. y Zhuang,X. (1997). Image Analysis using Mathematical Morphology.
Trans. on Patterns Analysis and Machine Intelligence, 9(4), 532-550.
Jähne, B. (1991). Digital Image Processing-Concepts, Algorithms and Scientific Applications. 40 ed.
Springer. Berlin.
Jähne, B. (1997). Practical Handbook on Image Processing for Scientific Applications. CRC Press.
Jain, A. (1988). Fundamentals of Digital Image Processing. Prentice Hall, Englewood Cliffs, New Jersey.
Jiménez, J. y Navalón, J.L. (1982). Some Experiments in Image Vectorisation. IBM Journal of Research
and Development, 26, 727-734.
Kulpa, Z. (1976). Area and perimeter measurement of blobs in discrete binary pictures. Computer Graphics
and Image Processing, 6, 434-451.
Matheron,G. (1975). Random sets and integral geometry, Wiley & Sons, Nueva York.
Moik, T.G. (1980). Digital Processing of Remotely Sensed Images. Washington. NASA.
Pal,S. y Dutta Majumder,M.D. (1986). Fuzzy Mathematical Approach to Pattern Recognition. John Wiley
306  PROCESAMIENTO DE IMÁGENES DIGITALES FOTOGRAMÉTRICAS 

& Sons. Nueva York. Cap. 1,2.


Parker, J.R. (1997). Algorithms for image processing and computer vision. John Wiley & Sons, Nueva
York, 416 p.
Pratt, W.K. (1991). Digital Image Processing. Wiley & Sons, Nueva York.
Richards, J.A. (1994). Remote Sensing Digital Image Analysis. 20 Edición. Springer-Verlag. Berlin. 340 p.
Rosenfeld, A. y Kak, A.C. (1976). Digital Picture Processing. vol.1 10 Ed. Academic Press. Orlando,
Florida
Rosenfeld, A. y Kak, A.C. (1982). Digital Picture Processing. 20 Ed. Academic Press. Orlando, Florida,
435 p.
Ross, J. (1996). Handbook of Image Prcessing. CRC Press.
Schenk, T. (1999). Digital Photogrammetry. vol. 1, TerraScience, 428 p.
Schowengert,R.A. (1983). Techniques for Image Processing and Clasification in Remote Sensing.
Academic Press, New York, 249p.
Serra, J. (1982 y 1988). Image analysis and morphology. vols. 1 y 2. Academic Press, Londres.
Silva,J.A. y Haertel, V. (1995). Adaptative Low-Pass Fuzzy Filter for Noise Removal. PE&RS 61(10),
1267-1272.
Sternberg, S.R. (1986). Grayscale morphology. Computer Vision and Graphical Image Processing, 35(3),
333-355.
Wang,F. (1990). Improving Remote Sensing Analysis Through Fuzzy Information Representation. PE&RS
56(4), 453-458.
Capítulo 6. Automatización del Proceso de
Medida en Fotogrametría

6.1 Introducción
6.2 La automatización del proceso de medida. El concepto de matching.
6.3 Métodos para la reducción del espacio de búsqueda
6.4 Clasificación de los métodos de matching
6.5 Matching a nivel de área
6.6 Matching a nivel de elemento
6.7 Problemas asociados con el matching
6.8 Diseño de un sistema de matching
Anexo 6.1. Obtención de imágenes normalizadas

6.1 INTRODUCCIÓN
En este tema se van a abordar una de las principales ventajas de la metodología
fotogramétrica digital frente a las técnicas analógicas o analíticas, la posibilidad de
automatización del proceso de medida sobre la imagen digital. Esta posibilidad de
automatización de la medida es la que marca la principal diferencia en cuanto al
proceso entre una estación fotogramétrica digital y un restituidor digital, la estación
no es simplemente un restituidor analítico que trabaja con imágenes digitales, sino
que se debe considerar como una evolución de dichos equipos. El trabajo con
imágenes digitales, por así decirlo Ainformatizadas@, permite que la máquina
Avisualice@ o procese la información contenida en dichas imágenes posibilitando la
automatización del proceso. Las principales ventajas de esta automatización es la
ganancia de objetividad frente al trabajo de un operador, necesariamente subjetivo así
como una importante ventaja en rentabilidad al reducir el tiempo de proceso lo que
permite obtener de una forma rápida, más acorde con las necesidades de la sociedad
actual, la información contenida en los fotogramas. No obstante, también es necesario
tener en cuenta que se produce la desventaja de la pérdida de información semántica

 
307 
308  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

que posee el trabajo de interpretación de un modelo fotogramétrico por parte de un


operador.
Dentro de este capítulo se va a analizar la metodología básica que permite la
automatización del proceso del proceso de medida, denominada matching que
consiste básicamente en la identificación automática de puntos en función de un
determinado criterio de correspondencia previamente impuesto. Al respecto es
importante indicar que existen diferentes términos para designar este proceso, así en
nuestro país a menudo se ha empleado el término correlación, que es bastante
inapropiado debido a que hace referencia a un método concreto y no al conjunto de
métodos que incluye el matching; en visión automatizada, se emplea el término de
problema de correspondencia, que si bien refleja de una forma adecuada en qué
consiste el problema está poco implementada en el ámbito fotogramétrico.

6.2 LA AUTOMATIZACIÓN DEL PROCESO DE MEDIDA. EL CONCEPTO


DE MATCHING
El término anglosajón match tiene diferentes acepciones que van desde un partido
o encuentro deportivo (por ejemplo, tennis match) a un compromiso matrimonial
(prospective marriage partner). La definición más correcta en nuestro contexto sería
la identificación de una persona o cosa igual a otra. En Fotogrametría y
Teledetección, el término matching puede ser definido como el establecimiento de
correspondencia entre diversos conjuntos de datos, que pueden ser imágenes, mapas,
objetos o elementos de un SIG. Esta correspondencia se establece mediante la
deformación de una de las imágenes para obtener el mejor ajuste con la otra imagen
del par, de forma que se obtiene una función de transformación geométrica y una
función de transformación de intensidades (fig.6.1).
c q

P'

P"

r p
1 2
I I
TG 2
T
1
c

-1
T (I 2)
G

P'

-1
P'=T (P")
G

1
r I

Fig.6.1. Principio de stereo-matching.


La imagen I2 es deformada de forma que se consigue el mejor ajuste a la imagen I1.
El punto P= puede ser transformado a P@ utilizando la función de transformación geométrica T12
FOTOGRAMETRÍA DIGITAL   309 

En Fotogrametría existen diversos procesos que pueden considerarse como un


matching, así por ejemplo, la orientación interna es un proceso de matching en el que
la imagen de una marca fiducial se correlaciona con un modelo bidimensional teórico
de la fiducial extraído del proceso de calibración de la cámara; la orientación relativa
y transferencia de puntos en aerotriangulación consiste en la identificación de puntos
homólogos en los fotogramas que forman el modelo; la orientación absoluta, que
pretende la identificación de los puntos de control en el modelo; y una vez orientado
el par, la generación de modelos digitales de elevaciones, mediante la identificación
de puntos homólogos que nos proporcionan información acerca de la forma de los
objetos o, en este caso, el terreno; que conduce finalmente al reconocimiento de
formas y objetos.
Como se puede observar el matching cubre prácticamente todas los procesos
relacionados con la metodología fotogramétrica, siendo en la actualidad una de las
líneas de investigación de mayor importancia e interés. En este tema se tratarán
exclusivamente las técnicas de matching de imágenes digitales que consisten en el
establecimiento automático de correspondencias entre elementos extraídos de dos o
más imágenes digitales que cubren una zona común.
La resolución de este problema es básica para el planteamiento de la
automatización del proceso cartográfico, si bien es necesario considerar que a pesar
de que las primeras soluciones para el matching de imágenes fueron propuestas a
finales de la década de los 50 (Hobrough, 1959) utilizando aún imágenes analógicas,
la solución aún no es completa, aunque en la actualidad se alcanzan resultados que se
pueden considerar como muy satisfactorios. La explicación de esta falta de resolución
del problema es simple: la gran dependencia de estas técnicas de los instrumentos de
cálculo (ordenadores) ha limitado el avance de las técnicas al avance de la
informática. Es necesario tener en cuenta que un fotograma de tamaño de 23x23cm
digitalizado a una resolución de 7µm, tiene un número de píxeles en torno a
32900x32900, por lo que si se ha realizado el par estereoscópico con un solape
longitudinal del 60%, el número de operaciones necesarias es de
0.6x32900x32900.6.4x108. Si se intenta buscar la correspondencia de todos los
píxeles a nivel individual el número total de operaciones ascenderá a 1017. El
problema se complica aún más si se tiene en cuenta que el número de valores posibles
que puede tomar el píxel es de 256 (entre 0 y 255, si se dispone de una imagen de 8
bits de profundidad de color), con lo cual si la imagen tiene un histograma uniforme
se tendría en torno a 128500 píxeles para cada nivel, dando lugar a un total de 2.5x106
parejas, situación que se complica aún más si se considera el ruido contenido en las
imágenes ("5 niveles digitales) que eleva hasta 107 soluciones posibles de la que tan
sólo una es correcta. Por tanto, la resolución del matching a nivel de elementos
individuales -píxeles- es prácticamente imposible. Por lo que se llega a dos problemas
fundamentales en el proceso de matching:
- los costes de cálculo son elevados y deben ser controlados.
- si se considera exclusivamente la información local los resultados pueden ser
ambiguos.
310  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

El problema fundamental en el proceso de stereo-matching es la pérdida de


información. El problema consiste en la propia metodología fotogramétrica, la
Fotogrametría intenta la reconstrucción de la forma de un objeto tridimensional a
partir de proyecciones bidimensionales del mismo tomadas desde puntos de vista
ligeramente diferentes. En el proceso de la proyección se produce una pérdida de
información, que es evidente en el caso de las oclusiones (partes del objeto que no
aparecen en la imagen debido al ángulo de toma). Esto produce que el matching de
imágenes pertenezca al grupo de métodos denominados problemas inversos, que son
del tipo de los problemas mal planteados. Un problema se considera que está bien
planteado si:
- existe una solución posible
- la solución es única
- la solución depende de una forma continua de las aproximaciones iniciales de
partida
El matching de imágenes es un problema mal planteado, debido a que para un
punto dado en una imagen, el punto correspondiente puede no existir debido a un
problema de oclusión (no se cumple la primera condición), o bien pueden existir
varios puntos posibles debido a problemas de estructuras repetitivas o superficie del
objeto semitransparente (no se cumple la segunda condición), además, la solución
puede ser inestable debido a problemas de ruido de la imagen (no se cumple la tercera
condición) (Zheng, 1993).
Este tipo de problemas de difícil solución pueden ser convertidos en problemas
bien planteados mediante la introducción de información adicional sobre el problema.
Afortunadamente, se pueden plantear varias presunciones cuando se trabaja con
imágenes fotogramétricas digitales:
- los valores digitales de las diferentes imágenes han sido adquiridos utilizando
la misma o similar banda espectral.
- la iluminación y los efectos atmosféricos son constantes en el intervalo de
tiempo entre tomas.
- los elementos fotografiados son inmóviles.
- la superficie de los objetos se puede considerar continua.
- la superficie de los objetos es opaca.
- la superficie de los objetos presenta una función de reflexión de luz más o
menos difusa.
- se conocen los valores iniciales tales como el solape aproximado y la altura
media del terreno.

6.3 MÉTODOS DE REDUCCIÓN DEL ESPACIO DE BÚSQUEDA


Como se ha indicado en el apartado anterior la única forma posible y eficaz para
llegar a una solución del problema de la identificación automática de puntos
homólogos es la introducción de hipótesis y condiciones que reduzcan el espacio de
búsqueda. Con la introducción de estas hipótesis y condiciones se intenta aportar
información complementaria al proceso a objeto de facilitar su resolución y eliminar
FOTOGRAMETRÍA DIGITAL   311 

posibles ambigüedades en la búsqueda, a través de conocer el efecto que tienen


determinadas condiciones de toma en la posición de los puntos a buscar.

6.3.1 Influencias de las condiciones de la toma y de la superficie del terreno


La introducción de la información relativa a la toma tiene una gran importancia en
el proceso de búsqueda, ya que condicionan la posición del punto a buscar. La
situación ideal es la de dos fotogramas tomados desde la misma altura de vuelo con la
misma distancia focal (igual escala), sobre un terreno llano y sin problemas de deriva
ni inclinaciones (fig.6.2). En este caso la escala del fotograma será constante (terreno
llano) y cada píxel se corresponderá con un píxel en el otro fotograma. Cualquier
modificación con respecto a estas condiciones ideales produce importantes
distorsiones.
O’ O”

P’ P”

P’ P”

Fig.6.2. Representación de la toma de la imagen de un punto del terreno P (sobre terreno llano) en los
fotogramas tomados desde O= y O@. La única diferencia entre ambos es una traslación entre las imágenes

6.3.1.1 Efecto de la diferencia de escala entre las dos imágenes


La figura 6.3 muestra el efecto que tiene sobre un par estereoscópico la diferencia
de escala producida por un cambio en la altura de vuelo sobre el terreno. La
proyección de los elementos conjugados no se puede realizar de una forma directa
como consecuencia del cambio de escala.

6.3.1.2 Efecto de diferentes ángulos de orientación entre las dos imágenes


La figura 6.4 muestra el efecto que tiene sobre la superficie de las zonas patrón y
de búsqueda la existencia de cambios en los ángulos de orientación de los fotogramas
que componen el modelo. En todos los casos se puede comprobar como la búsqueda
de los puntos homólogos píxel a píxel no daría buenos resultados debido a las
distorsiones geométricas introducidas por las diferentes orientaciones.
312  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

O”

O’

P’ P”

P’

Fig.6.3. Par estereoscópico formado por dos fotogramas con diferente escala.
En el esquema de la izquierda se muestra la diferencia en cuanto a la superficie cubierta por cada píxel

P’ P’ P’

Fig.6.4. Efecto de la diferencia de los ángulos de rotación entre las dos imágenes del par.
Izq: Rotación del eje x (dirección de vuelo); Centro: Rotación del eje y (dirección perpendicular al eje de
vuelo en el plano del fotograma); Der: Rotación del eje z (eje óptico de la cámara)

6.3.1.3 Efecto de la inclinación del terreno


En los casos anteriores se ha considerado que el terreno es llano y paralelo a la
orientación de la imagen izquierda, lo cual, desgraciadamente no es el caso común en
el trabajo fotogramétrico. En la figura 6.5 se muestran dos casos de inclinación de los
fotogramas, en el dibujo de la izquierda se presenta el caso de una rotación en la línea
de la base (O=O@) cuyo efecto es pequeño al producir la misma distorsión geométrica
en ambas imágenes mientras que en el dibujo de la derecha se presenta el caso de una
rotación en una dirección perpendicular a la de la base, con importantes efectos en la
geometría de las imágenes al modificar la escala en la dirección del vuelo (dirección x
del fotograma).

6.3.1.4 Efecto del relieve en las distorsiones geométricas


Un aspecto fundamental que es necesario tener en cuenta es el efecto que tiene el
relieve. En la figura 6.6 se muestra el efecto del relieve en el caso de un par
estereoscópico vertical.
FOTOGRAMETRÍA DIGITAL   313 
O’ O” O’ O”

P’ P” P’ P”

P P

P’ P” P’

Fig.6.5. Efecto de la inclinación del terreno. Izq: Inclinación del terreno con un eje coincidente a la línea de
la base; Der: Inclinación del terreno con un eje perpendicular a la línea de la base
O’ O”

Fig.6.6. Efecto del relieve en la superficie del terreno que es cubierta por cada uno
de los píxeles de las imágenes que forman un modelo estereoscópico

6.3.2 Espacio de búsqueda y aproximaciones


Debido a todos los problemas que se han indicado en los apartados anteriores, es
fundamental la reducción del espacio de búsqueda, para optimizar el tiempo de
cálculo y los resultados obtenidos. Las soluciones más frecuentemente adoptadas son
el empleo de las líneas epipolares y la utilización de las líneas verticales de
localización (vertical line locus).
314  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

6.3.2.1 Líneas epipolares


El empleo de la línea epipolar es un método de gran utilidad para la reducción del
espacio de búsqueda. La figura 6.7 muestra el esquema de la geometría epipolar. El
plano epipolar viene definido por los dos centros de proyección O= y O@ y el punto del
terreno P. Las dos líneas epipolares e= y e@ son las intersecciones del plano epipolar
con los planos de la imagen. El plano epipolar contiene a los puntos conjugados los
cuales están situados en las líneas epipolares.
Z'
Z''
Y'

Y''
O' X'
X''
O''

e'
e''

Fig.6.7. Geometría Epipolar. El plano epipolar (sombreado en la figura) es definido


por los centros de proyección O= y O@ y por el punto del terreno P, la intersección de
dicho plano con los fotogramas da lugar a las líneas epipolares (e= y e@)

En el caso general, las líneas epipolares no son paralelas al eje x del fotograma,
por lo que se suele aplicar una transformación que asegure dicho paralelismo,
consiguiendo que las líneas epipolares coincidan con las filas de la imagen, dando
lugar a lo que se denominan images normalizadas. En el Anexo 6.1 se muestra un
método para la obtención de imágenes normalizadas a partir de imágenes digitales de
las que se conozcan los parámetros de la orientación.
FOTOGRAMETRÍA DIGITAL   315 

Cuando se trabaja con imágenes normalizadas, al seleccionar un elemento de una


de las imágenes que forma el par (por ejemplo, el elemento puntual P=) se puede
realizar una importante reducción del espacio de búsqueda al saber que el elemento
conjugado P@ estará situado sobre la misma fila.
Esta importante reducción del espacio de búsqueda puede ser mejorada, puesto
que, si se conoce la cota aproximada del punto P sobre el terreno es posible el cálculo
del paralaje del punto y, por tanto, de las coordenadas que ocupará la imagen del
punto P en un fotograma (P@) a partir de las coordenadas del punto en el otro
fotograma del modelo (P=). No obstante, es aconsejable que se plantee la búsqueda
dentro de una ventana centrada en el punto P@, las dimensiones de la misma serán
función de los errores previsibles cometidos tanto en los parámetros de orientación de
los fotogramas del modelo (que marcarán la calidad de la normalización de las
imágenes) como en la determinación de la cota del terreno (que marca el paralaje del
punto), tal y como se muestra en la figura 6.8.
O’ O”

P’ S” P” I”

Ho

P
∆z

Zp
I

datum

Fig.6.8. Definición del espacio de búsqueda (e) en función del error de


determinación de la cota del punto del terreno (S)

En el caso de fotografías verticales la posición aproximada del punto conjugado P@


del fotograma derecho correspondiente a un punto del terreno P de cota Zp en función
de las coordenadas del punto imagen P= del fotograma izquierdo se obtiene mediante
las expresiones:
B
x"p = x 'p − p x p px p = f
H o − ZP
316  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

siendo xp@ la fotocoordenada x del punto P@ del fotograma derecho, xp= la


fotocoordenada del punto P= del fotograma izquierdo, pxp el paralaje longitudinal del
punto P, B la base del modelo, HO la altura de vuelo respecto al nivel de referencia
(datum), ZP la cota del punto P y f la distancia focal de las cámaras.
El valor de la base B es igual a boHO/f, por lo que sustituyendo en la anterior
expresión resulta:
Ho
x"p = x 'p − bo
H o − ZP

Aplicando esta expresión en los puntos extremos del intervalo L y U, y teniendo


en cuenta que las fotografías se consideran verticales, se obtiene el intervalo de
búsqueda en la imagen.
e = x"S − x"I

Ho Ho
x"S = x 'S − b o x"I = x 'I − b o
H o − ZS H o − ZI

de donde resulta que:


⎛ Ho ⎞ ⎛ Ho ⎞
e = x"S − x"I = ⎜⎜ x 'S − b o ⎟ − ⎜ x 'I −b o
⎟ ⎜


⎝ H o − ZS ⎠ ⎝ H o − ZI ⎠

expresión que puede simplificarse si se tiene en cuenta que x’S es igual que x’I y que
la base (B) es igual a b (Ho-ZP)/ f, quedando:
∆Z
e = b o (H o − Z P )
(H o − Z I )(H o − ZS )
si se iguala el denominador a (Ho-ZP)2 y simplificando, se obtiene:
∆Z
e = bo
(H o − Z P )
6.3.2.2 Método VLL
Otro método de gran utilidad para la reducción del espacio de búsqueda es el
empleo de las líneas verticales (vertical line locus) (Gyer, 1981; Bethel, 1986). Este
método es menos empleado que el de la geometría epipolar si bien se puede emplear
de una forma conjunta para dotar de robustez a los resultados obtenidos a partir de las
imágenes epipolares (fig.6.9).
Para la aplicación de este método se parte de una posición estimada P de la
superficie del terreno T en el espacio objeto, y de dos puntos I y S, que vienen
definidos por el intervalo de error previsible en la determinación de la cota de T. De
esta forma, y si las aproximaciones son correctas se define un intervalo de cota entre
los puntos I y S, dentro del cual deberán estar incluidos tanto la estimación P
(ocupando el centro del intervalo) como el punto real del terreno T.
FOTOGRAMETRÍA DIGITAL   317 

O”

O’

I”
S” e”

I’
e’ S’

P
T

I
Fig.6.9. Método VLL para la reducción del espacio de búsqueda

El intervalo definido entre I y S (dos puntos situados en la misma vertical y a


diferente cota) es proyectado en las imágenes dando lugar a las líneas v= y v@. Dichas
líneas presentan una geometría con desplazamiento radial a partir del nadir y cuya
longitud dependerá del desplazamiento radial dr que a su vez es función de la
distancia radial con respecto al nadir, el intervalo de cota entre los puntos I y S y la
altura de vuelo con respecto al terreno (fig.6.10).

v”3
v’3

n’ v”2 n”
o’ o”
v”1
v’1

Fig.6.10. Ejemplos de pares de líneas de desplazamiento vertical

El método VLL puede ser aplicado de diferentes formas, así la forma de


utilización más común es la que se muestra en la figura 6.11. La aplicación consiste
en la búsqueda de la correspondencia en los puntos límites del intervalo I y S, lo que
permite definir el espacio de búsqueda en la línea que los une. El procedimiento de
matching es aplicado sobre dicha línea determinando el máximo de similaridad la
posición del punto buscado.
318  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

L”

L’ v”

v’
U”

U’

Fig.6.11. Aplicación del método VLL

La aplicación del método VLL adquiere especial interés cuando se realiza de una
forma conjunta con el método de las líneas epipolares a objeto de proporcionar una
mayor robustez a los resultados obtenidos. Krupnik y Schenk (1994) proponen una
solución combinada (fig.6.12).
O’ O”

TS S’ S” I”
I’ TI

I’ EI

ES S’

Fig.6.12. Aplicación combinada de los métodos de líneas epipolares y VLL (Schenk, 1999)

El proceso comienza con el matching en el punto I, realizándose varias


aproximaciones en la línea epipolar I= I@, que se establece dejando fijo un punto (por
ejemplo, I=) y desplazando el otro (I@), hasta que se localiza la posición con mejor
índice de similaridad (E=I). La posición encontrada siempre debe estar a la derecha de
I= puesto que la superficie verdadera estará a mayor cota que I en el espacio objeto. A
continuación, se repite el mismo procedimiento con el punto S, utilizando los puntos
S= (fijo) y S@ (móvil) hasta localizar E=S. La posición encontrada siempre debe estar a
la izquierda de S= puesto que la superficie del terreno estará a menor cota. La línea de
los puntos homólogos correctos intersecta a la línea v= en la localización
correspondiente a la superficie del terreno, que es el punto que se desea buscar.
FOTOGRAMETRÍA DIGITAL   319 

El método VLL es muy útil para aplicaciones en las que se necesitan obtener las
posiciones conjugadas de puntos que ocupan localizaciones determinadas en el
espacio objeto, como, por ejemplo, la generación de modelos digitales de terreno.

6.3.2.3 Pirámides de Imágenes


La aplicación de los métodos de las líneas epipolares y VLL permiten importantes
reducciones del espacio de búsqueda, pero para que sean eficientes necesitan buenas
aproximaciones iniciales. La forma más sencilla de disponer de dichas
aproximaciones es plantear el proceso de búsqueda de una manera iterativa,
empleando imágenes con diferentes resoluciones -pirámides de imágenes- (fig.6.13).

NIVE L 1 (512x512 pixels)

NIVE L 2 (1024 x10 24 p ixe ls)

NIVE L 3 (2048 x20 48 p ixe ls)

NIVE L 4 (4096 x40 96 p ixe ls)

Fig.6.13. Pirámide de imágenes

El número de niveles de la pirámide dependerá de los siguientes factores:


- características de las imágenes digitales (tamaño y resolución)
- características de la toma (distancia focal y escala del fotograma)
- precisión de la aproximación a la cota del punto
Así, por ejemplo, para un modelo estereoscópico a escala 1:5000 tomado con una
cámara gran angular (f =152mm), con un base aérea de 460m (bo= 92mm) y una cota
media del terreno de 700m sobre el nivel de referencia con un error de "25m si se
desea limitar el espacio de búsqueda a 10 píxeles será necesario considerar 9 niveles
de la pirámide. Aplicando la expresión del tamaño de la ventana de búsqueda en
función de la paralaje se obtiene:
∆Z
e ≈ bo = 6.05mm
(H o − Z P )
utilizando los valores: bo=92mm = B * E = 460m/5000
(Ho-ZP)=760m=(f * E-1) = 0.152m * 5000
Ho=1460m=(Ho-ZP)+ZP=760m+700m
El espacio s calculado de 6.05mm, implica un tamaño de píxel de 0.605mm, si se
considera el tamaño deseado de 10 píxeles, por lo que teniendo en cuenta que la
generación de la pirámide se efectúa con aumento del tamaño en relación de 2, se
obtendrá un tamaño de 0.896mm para el nivel 128:1 (8 niveles de la pirámide),
partiendo del tamaño original de 7µm (1:1).
320  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

El fundamento de este método se basa en que los errores del método de matching
dependen sólo del tamaño del píxel, por lo cual mediante este esquema de resolución
variable se van refinando progresivamente los resultados, utilizando siempre un
espacio de búsqueda (factor determinante para el tiempo de cálculo) similar
apoyándose en los resultados obtenidos del nivel de la pirámide superior. Para más
detalles acerca de la metodología de la construcción de las pirámides de imágenes se
recomienda la consulta del apartado correspondiente en el capítulo 5.

6.4 CLASIFICACIÓN DE LOS MÉTODOS DE STEREO-MATCHING


Existe una gran variedad de métodos de matching que han aparecido en las
últimas décadas. Estos métodos se han desarrollado en disciplinas muy diversas, y
están influidos por la teoría y los métodos utilizados en las mismas.
Desafortunadamente, no existe una base teórica común a todas las técnicas ya que en
muchos casos son métodos concretos para la resolución de problemas específicos
planteándose grandes diferencias entre los datos de entrada, las configuraciones
experimentales, las formas de proceso, las presunciones teóricas, Y, que no hacen sino
reflejar la complejidad que conlleva el matching complicando lógicamente la
clasificación de los métodos de stereo matching.
Por tanto, parece más lógico en lugar de establecer una descripción de los
diferentes métodos intentar establecer los aspectos comunes entre ellos y agruparlos
en función de su estrategia de identificación y fusión. Los aspectos claves para esta
clasificación son:
- )qué se selecciona para el matching?
- )qué modelos se emplean para la definir dichos elementos a fusionar,
tanto radiométrica como geométricamente?
- )cómo se cuantifica el grado de similaridad entre los elementos de las
diferentes imágenes y cómo se obtiene la identificación óptima?
- )qué estrategia se emplea para controlar el algoritmo de matching?
El factor clave que permite la clasificación de los diferentes métodos de matching
es el tipo de elementos a identificar y fusionar, pudiendo establecerse dos grupos con
características marcadamente diferentes, por un lado, aquellos métodos que intentar la
correlación entre los valores digitales de unas ventanas previamente definidas
(ventana patrón y de búsqueda) que se denominan matching basados en el área (area
based matching -ABM-) y aquellos métodos que previamente realizan la extracción
de los elementos significativos de la imagen (límites de objetos, Y) y posteriormente
realizan la fusión de los mismos y que reciben el nombre de matching basados en los
elementos (feature based matching -FBM-). Existe además otro conjunto de métodos
que usa descripciones de los objetos que aparecen en las imágenes que se denominan
métodos de matching relacional (relational matching –RM–).
Esta diferencia relativa al tipo de elementos a identificar marca el tipo de
procedimiento a lo largo de todo el proceso. En ambos casos se puede establecer una
segunda clasificación en cuanto al ámbito de búsqueda en la otra imagen, pudiendo
distinguirse entre local si la zona en la que se intenta localizar el elemento
correspondiente está en torno a 50x50 píxeles y global si abarca la imagen completa.
FOTOGRAMETRÍA DIGITAL   321 
FOTOGRAMA IZQUIERDO FOTOGRAMA DERECHO

244 245 248 260 107 102 111 123 223 228 266 239 241 102 111 123 223 228 266 239 241 230 236 243 223 226

241 230 236 230 219 121 96 92 89 101 202 212 271 121 96 92 89 101 202 212 271 242 225 223 241 229

236 243 223 229 223 223 113 96 73 77 82 91 198 223 113 96 73 77 82 91 198 221 236 241 230 221

230 242 241 230 231 242 222 102 95 83 75 84 121 242 222 102 95 83 75 84 121 228 242 266 243 243

226 189 225 221 236 241 230 226 113 91 93 71 82 241 230 226 113 91 93 71 82 95 213 241 230 230

211 82 121 226 219 232 231 229 223 101 89 84 89 232 231 229 223 101 89 84 89 75 93 242 225 242

241 84 89 100 223 236 230 221 219 211 117 100 82 236 230 221 219 211 117 100 82 75 96 100 189 241

232 78 87 107 226 231 223 243 226 213 111 101 75 231 223 243 226 213 111 101 75 73 75 84 242 232

89 109 226 223 236 242 236 230 223 101 95 92 93 242 236 230 223 101 95 92 93 96 93 213 243 236

202 198 219 225 223 241 230 213 113 84 78 84 89 241 230 213 113 84 78 84 89 82 221 236 266 231

219 226 219 230 236 243 223 100 89 82 73 77 82 243 223 100 89 82 73 77 82 117 225 223 241 242

223 225 230 223 226 225 114 87 78 75 78 92 189 225 114 87 78 75 78 92 189 230 236 243 223 241

226 236 231 230 230 100 91 84 89 93 219 213 221 100 91 84 89 93 219 213 221 236 242 236 221 243

229 223 101 89

221 219 211 117

243 226 213 111

230 223 101 95

STEREO MATCHING A NIVEL DE IMAGEN STEREO MATCHING A NIVEL DE ELEMENTO

Fig.6.14. Matching a nivel de área y a nivel de elemento

6.5 MATCHING A NIVEL DE ÁREA (AREA BASED MATCHING -ABM-)


El proceso de matching basado en el área se basa en la correlación entre dos
matrices de niveles de reflectividad (números digitales). Este fue el primer método de
matching .
El matching a nivel de área comienza con dos descripciones D1 y D2 que son
idénticas a las imágenes (a nivel de pixel) I=1 = f (I1) e I=2= f (I2), siendo I1 e I2, las
imágenes originales obtenidas.
La idea del matching a nivel de área consiste en la modificación del tamaño y la
posible deformación de una de las imágenes hasta conseguir el mejor ajuste posible en
cuanto a sus intensidades con respecto a la otra imagen.
máxT (similaridad (I1, T(I2)))!T* mínT (distancia (I1, T(I2)))!T*
El mejor ajuste puede ser obtenido bien por aumento del parecido o similaridad o
bien por disminución de las diferencias o distancias.
En el caso más simple, de una imagen monocanal gk(zi) (k= 1,2; zi= (ri, ci)), se
puede plantear el siguiente modelo (g=Ñ g1; g@ Ñ g2, Y):
g=(zi') = f(zi') + n= (zi') g@(zi') = h(f(zi'; pG); pI) + n@ (zi@)
con la transformación geométrica definida como:
TG = f : ú2 ! ú2
322  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

que depende de los parámetros geométricos pG y de la transformación de intensidades:


TI = h : ú ! ú
que depende de los parámetros radiométricos pI.
El modelo incluye los siguientes componentes (fig.6.15):
n1

+ g1
f
TG
-1
TI + g2

n2

Fig.6.15. Esquema general del proceso de ABM. La imagen original f es captada dando lugar a una imagen
g1 a la que se le sumará un cierto ruido n1 y, por otro lado, una imagen que es transformada tanto a nivel
geométrico como radiométrico la imagen g2 que también presenta un ruido n2

f(z=i) = f(ri,ci) la imagen ideal


g=(z=i)= g1(ri,ci) la primera imagen
n=(z=i)= n1(ri,ci) el ruido de la primera imagen
g@(z@i)= g1(pi,qi) la segunda imagen
n@(z@i)= n1(pi,qi) el ruido de la segunda imagen
TG= f una transformación geométrica entre el sistema de
coordenadas de la primera imagen (r-c) y el sistema de
coordenadas de la segunda imagen (p,q)
pG los parámetros de la transformación geométrica TG
TI = h una transformación de intensidades
pI los parámetros de la transformación de intensidades TI
Existen ciertas variaciones entre la forma de abordar y resolver este problema, en
función del tipo de transformación T aplicado, la medida de similaridad elegida y el
algoritmo para encontrar la solución:
1. La función de transformación TG
La transformación se refiere implícitamente al paso del modelo objeto e intenta
reproducir el tipo de superficie. Existen diversos tipos de transformaciones ente las
cuales se pueden indicar:
- translación (plano horizontal)
- translación y rotación
- translación, rotación y cambio de escala
- transformación afín (superficie localmente plana)
- proyectiva (superficie plana a nivel global)
- suavizado (superficie suavizada sin oclusiones)
- suavizado discreto (superficie suavizada a distintos niveles, con posibles
oclusiones).
La traslación es utilizada en la correlación cruzada para la transferencia de puntos
en superficies que se sean lo suficientemente plantas, la transformación afín es el
FOTOGRAMETRÍA DIGITAL   323 

proceso de matching por mínimos cuadrados (superficies localmente suavizadas) y el


modelo más general (suavizado discreto) en el matching de puntos múltiples que se
emplea para el matching de imágenes SPOT.
2. La medida de similaridad
Su objeto es cuantificar el grado de parecido entre dos imágenes que suele
consistir en una correlación cruzada normalizada o en una función de diferencias de
intensidad. Existen diferentes coeficientes de correlación algunos de los más
frecuentes son (Helava,1978; Mitchell y Pilgrim, 1987 y Gopfert, 1980):
a) suma de los productos de intensidades
t t
σ(x , y ) = ∑∑ [I m (x, y)I t (x, y)]
x =1 y =1

donde Im(x,y) Nivel digital de la matriz de búsqueda para el pixel de coordenadas


x,y
It(x,y) Nivel digital de la matriz patrón para el pixel de coordenadas x,y
t Dimensión de la matriz patrón
b) suma de los productos reducidos según la media (covarianza)
t t
σ(x , y ) = ∑∑ [Im (x, y) − Im ][It (x, y) − It ]
x =1 y =1

en la que se añaden las medias aritméticas de las intensidades de ventana patrón ( I m )


y la de búsqueda ( I t ), siendo σ(x,y) la covarianza.

Los valores de este coeficiente presentan unos rangos de variación más amplios
que los del anterior coeficiente, lo que dificulta la interpolación para obtener la
precisión a nivel de subpíxel. El valor máximo se corresponde con el punto de
correlación.
c) suma de las diferencias absolutas
t t
∆ (x , y ) = ∑∑ [Im (x, y) − It (x, y )]
x =1 y =1

d) correlación cruzada normalizada


t t
∑∑ (Im (x, y) − Im )(It (x, y) − It )
σ' (x , y ) = − 1 ≤ σ' (x , y ) ≤ 1
x =1 y =1
t t t t
∑∑ (Im (x, y ) − Im ) ∑∑ (It (x, y) − It )
2 2

x =1 y =1 x =1 y =1

donde I m e I t son los valores medios de la ventana patrón y de búsqueda y σ’(x,y) el


coeficiente de correlación normalizado que tomará valores entre -1 y 1. Cuando el
324  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

valor se aproxime a 0 no existe ninguna similitud mientras que cuando tome valor 1
existe similitud total, el valor -1 indica una similitud inversa es decir que cuando en
una imagen crece el valor digital de un pixel en la otra imagen decrece en el mismo
orden de magnitud. La ventaja fundamental de esta medida de similitud es el ajuste de
los valores de medía y varianza de gran utilidad cuando las imágenes presentan
diferencias radiométricas entre las dos tomas.
3. Los algoritmos de resolución
La lista de algoritmos es compleja y depende de las funciones de transformación a
aplicar y del conocimiento previo de las condiciones de la toma, y se diferencian tanto
en el espacio de búsqueda como en los procedimientos finales de cálculo los más
empleados son:
- búsqueda completa
- búsqueda secuencial
- búsqueda heurística
- mínimos cuadrados iterativos
- algoritmos simples
- programación dinámica
6.5.1. Método de correlación cruzada
Los métodos de correlación cruzada fueron los primeros en aplicarse a la
correlación de imágenes digitales. La correlación cruzada es una técnica muy potente
para establecer la correspondencia entre imágenes digitales (Jähne, 1989) y se basa en
dos premisas:
- las dos imágenes sólo han sufrido diferencias geométricas debido a la
translación.
- las dos imágenes sólo sufren diferencias radiométricas debido a cambios
de tipo lineal en brillo y contraste.
La transformación geométrica se puede expresar como:
⎛ p⎞ ⎛ r ⎞ ⎛u ⎞
TG : ⎜⎜ ⎟⎟ = ⎜⎜ ⎟⎟ − ⎜⎜ ⎟⎟
⎝ q ⎠i ⎝ c ⎠i ⎝ v ⎠

que sólo contiene dos parámetros de transformación pG = (u,v)T.


La transformación geométrica se puede expresar como:
TI : h (f ) = a + b f

que presenta una estructura lineal con los parámetros pI=(a,b)T (fig.6.16).
FOTOGRAMETRÍA DIGITAL   325 

M
c

m
N v q
n Pi

(ri ,c j ) = (p i ,q j ) + (u,v)

Fig.6.16. Principio de la correlación cruzada (Lang y Förstner, 1995)

La estimación inicial pG*(0) = (u*, v*) 0T puede ser obtenida como:


máxu,v ρ12(u,v) ! (u*, v*) (0)
siendo
ρg1 ,g 2 (u , v )
ρ12 (u , v ) =
ρg1 (u , v ) ρg 2

El resultado de la estimación es independiente de las diferencias en brillo y


contraste presentes en las imágenes debido a la normalización en media y varianza
aplicada a las mismas. El proceso de estimación suele realizarse en un proceso en
espiral a partir de un valor aproximado para el aumento, deteniéndose en el caso de
que se encuentre un máximo de ρ12.
⎡ ⎞ ⎤
2
1 ⎛⎜
m m
σg2 2 (u, v ) = 1 ⎢⎢ ∑ ( g 22 ri , ci ) − ⎜ g 2 (ri , ci )⎟ ⎥⎥
∑ ⎟
m −1 i =1
m ⎝ i =1 ⎠ ⎦⎥
⎣⎢

⎡ ⎞ ⎤
2
1 ⎛⎜
m m
1 ⎢
σ g2 (u , v ) = ∑ g12 (ri − u , c i − v ) − ∑ g 2 (ri − u , c i − v )⎟ ⎥
1 m −1 ⎢ i =1
m ⎜⎝ i =1 ⎟ ⎥
⎠ ⎦⎥
⎣⎢

Si los valores de aproximación empleados son poco exactos, puede realizarse una
búsqueda completa en la ventana de búsqueda. Sin embargo, es aconsejable realizar la
correlación utilizando una estrategia con mayor detalle progresivamente. Esta técnica
se basa en el empleo de pirámides de imágenes en las dos imágenes I1 e I2. La
correlación comienza en la cima de la pirámide que consiste en dos pequeñas
ventanas de tamaño entre 10x10 y 40x40 píxeles, seleccionándose una ventana en la
imagen izquierda (ventana patrón) e intentando identificarla en la imagen derecha
(ventana de búsqueda). Una vez identificada se transfieren las posiciones estimadas al
nivel inferior de la pirámide, repitiéndose el proceso hasta que se alcance el nivel más
bajo. La ventaja fundamental de este procedimiento es la velocidad de cálculo
(Hannah, 1974).
Los valores estimados (u*,v*)(0) son redondeados a valores enteros y la precisión
alcanzada suele estar en torno a los 1/3 píxel.
326  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

El método de correlación cruzada permite el cálculo de estimaciones con precisión


por debajo del nivel del píxel, esta posibilidad que fue apuntada por Bernstein (1973)
fue implementada por Helava (1976) y Panton (1978). El método más frecuente se
basa en la utilización de la posición entera uo en la que se alcanza el coeficiente de
correlación máximo ρo así como las dos posiciones adyacentes u- y u+, con niveles de
correlación ρ- y ρ+, respectivamente. La posición con precisión a nivel de subpíxel se
obtiene mediante una interpolación de tipo cuadrático mediante la expresión:
1
ρ' (u o )
(ρ + − ρ − ) ρ+ − ρ−
û = uo − = uo − 2 ∆ x = uo −
ρ" (u o ) 1 2(ρ + − 2ρ o + ρ − )
(ρ + − 2ρo + ρ − )
∆x 2
donde ∆x es el espaciado entre los puntos que se han empleado para el cálculo de la
correlación, siendo la última expresión la más utilizada al considera un espaciado
igual al pixel.
El error de la estimación viene dado por la expresión:
1 1 − ρo ∆x 2
σ 2û =
m ρo − ρ+ + 2ρo − ρ−

El error de estimación puede ser utilizado para evaluar los resultados de las
técnicas de correlación, en especial, para comprobar si el modelo geométrico consiste
en un desplazamiento o incluye otros tipos de transformaciones geométricas.
La calidad de la estimación depende de la pendiente de la gráfica de correlación,
así cuando la pendiente es mayor se obtienen mejores estimaciones, mientras que en
pendientes bajas se tienen problemas de incertidumbres. Los problemas más
frecuentes se presentan en la figura 6.18.
1.00

uo, ρo Máximo

u-,ρ- u+ ,ρ+
Coeficiente de correlación

0.75

0.50

0.25

0.00
Posición de correlación

Fig.6.17. Cálculo del coeficiente de correlación con nivel de precisión de subpíxel


FOTOGRAMETRÍA DIGITAL   327 

Fig.6.18. Problemas típicos en la determinación del valor máximo en la correlación (Schenk, 1999)

Además es necesario considerar que las imágenes no están libres de ruido, por lo
que la relación buscada debe ser:
g1(x)= f(x) + n1(x)
g2(x)= a [f(x) +n2(x)] + b
donde n1 y n2 son los niveles de ruido de la imagen que son del tipo Aruido blanco@ y
son independientes entre sí, con varianza σn1=σn2=σn y f es una función estocástica
con varianza σ2f e independiente de n1 y n2, resultando las varianzas y covarianza
siguientes:
σ2g1= σ2f + σ2n
σ g2= a2 (σ2f + σ2n)
2

σg1,g2 = a σ2f
siendo el coeficiente de correlación igual a:
σ g1 , g 2 σ f2
ρ1, 2 = =
σg σg 2 σ f2 + σ 2n
1

Con la siguiente relación señal/ruido:


ρ1, 2 σf2 SNR 2
SNR 2 = siendo SNR 2 = y ρ1,2 =
1 − ρ1, 2 σ 2n SNR 2 + 1

Por tanto, el coeficiente de correlación máximo depende de la relación señal-ruido


que tenga la imagen digital, así valores de coeficientes de correlación inferiores a 0.5
se corresponden con imágenes digitales en las que el ruido es inferior a la señal (SNR
menor que 1).
6.5.1.1 Ventajas e Inconvenientes del método de correlación cruzada
1. La correlación cruzada puede ser considerada como el método óptimo para la
estimación de ajustes entre dos imágenes cuando el ruido de las mismas es blanco, es
decir, las intensidades son variables aleatorias independientes con la misma
desviación típica.
2. Si la señal es homogénea, es decir, con una varianza constante σg1(u) = σg1, la
normalización entre σg1, σg2 puede ser omitida, calculandose el estimado mediante el
cálculo del máximo para la covarianza σg1g2 (u,v).
3. Si, además de la varianza constante se puede considerar que la media de la señal es
cero, sólo tiene que ser maximizada la suma de los productos Σ g1 (ri-u, ci-v) g2 (ri,ci).
328  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

Dicha normalización puede ser conseguida mediante la sustitución de g por (g - µ) / σg


donde µ y σg son las medias y desviación típica locales. Los productos pueden ser
directamente obtenidos de una tabla de consulta incrementando la eficiencia del
procedimiento.
4. En la actualidad existen circuitos integrados (chips) capaces de determinar la
correlación cruzada para ventanas de 64x64 píxeles en unos pocos milisegundos, por
lo que prácticamente se puede plantear la correlación cruzada en tiempo real.
5. Las aplicaciones más importantes de la correlación cruzada son las siguientes:
- transferencia de puntos en aerotriangulación digital automática y en el registro
de imágenes satélite.
- localización de marcas fiduciales, puntos de control definidos por marcas
artificiales (targets) o puntos de enlace (tie points).
- medida de modelos digitales de elevaciones.
- reconocimiento de números o carácteres estandarizados.
- seguimiento de objetos en secuencias de imágenes (Hahn, 1994).
6. Los principales inconvenientes de la correlación cruzada son los siguientes:
- la precisión decrece rápidamente si no se cumple el modelo geométrico. No se
deben) utilizar modelos con ángulos de rotación superiores a 201 y diferencias
en escala del 30%.
- la extensión del espacio de búsqueda cuando se determinan otros parámetros
(por ejemplo, rotación o escala) da lugar a procesos de cálculo muy elevados,
convirtiendo este método en un método poco eficaz. Así Gopfert (1980)
establece que si la matriz patrón tiene un tamaño de t x t pixels y la matriz de
búsqueda s x s pixels, es necesaria la comparación de (s - t + 1)2 x t2 parejas
durante los procesos de correlación. Un aspecto de gran interés que simplifica
el proceso de cálculo de una forma notable es la utilización de la geometría
epipolar (Konecny y Pape, 1981; Keating et al., 1975; Panton, 1978) (ver
anexo 6.1).
- la correlación cruzada no puede abordar oclusiones de una manera directa.
Estos inconvenientes son parcialmente eliminados en el método de mínimos
cuadrados (least square matching –LSM–).
6.5.2. Técnicas de cálculo mediante mínimos cuadrados (Least Square Matching)
El matching por mínimos cuadrados fue utilizado inicialmente en Fotogrametría
como un método de matching en una dimensión (Förstner, 1982), posteriormente y de
una forma paralela Grün (1985) y el grupo de Stuttgart (Ackermann, 1984; Pertl,
1984) desarrollan la versión bidimensional bajo condiciones limitantes, a fin de evitar
el problema de las múltiples soluciones y del pequeño radio de convergencia.
6.5.2.1 Matching de series unidimensionales
El objetivo del matching mediante mínimos cuadrados es la estimación de los
parámetros de transformación que permitan la correspondencia entre las dos series,
tanto de tipo geométrico como radiométrico. Dicha estimación tendrá un marcado
carácter no lineal por lo que su resolución requiere el disponer de aproximaciones
FOTOGRAMETRÍA DIGITAL   329 

iniciales adecuadas y se abordará mediante la linealización de los sistemas de


ecuaciones y la solución mediante iteraciones y correcciones sucesivas.
El tipo de matching más sencillo es el de series unidimensionales, que pueden
provenir de la aplicación de las técnicas de reducción del espacio de búsqueda en
espacios bidimensionales (geometría epipolar y método VLL).
Para facilitar la explicación del proceso de estimación se supone que no existen
cambios de intensidad entre las dos imágenes producidos como consecuencia de la
modificación de la dirección de visualización.
Se plantea un esquema general en el que y(xi) = xi - û(xi), siendo û(xi) la
deformación que es necesario aplicar a xi para lograr la correspondencia entre ambas
series (fig.6.19).
f(y)

y
g(x)

u(x i)
xi y(x i) x

Fig.6.19. Proceso de observación. La función observada g(x) es una versión de la función deformada f(y)
que produce un desplazamiento u(xi) entre el punto y(xi) y el original xi. (Förstner, 1993)

El modelo no lineal es del tipo:


g(xi) = f [ xi - û(xi)] + n(xi)
donde f serie 1: ventana de búsqueda
g serie 2: patrón de búsqueda
xi posición
n(xi) ruido de la imagen (se considera independiente de la señal, con
media cero y varianza unitaria)
û función de transformación (ûo= aproximación inicial de û)
Para la estimación de la función deformación û(xi) se requiere una aproximación
inicial ûo(xi) y la resolución se alcanza mediante un proceso iterativo.
û(xi) = ûo(xi) + ∆û (xi)
siendo ∆û (xi), la corrección a aplicar a la aproximación de la función de deformación
ûo(xi) para alcanzar una estimación más correcta de u(xi), û(xi).
330  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

Empleando las siguientes abreviaturas:


gi=g(xi) ûi=û(xi) ∆ûi=∆û(xi) ni=n(xi) ûoi=ûo(xi)
se puede rescribir la expresión del modelo como:
gi = f(xi -ûi) + ni = f(xi - ûoi - ∆ûi) + ni i = 1, ..., m
Linealizando f en el punto xi-ûoi se obtiene:
gi = f(xi - ûoi) - f=(xi - ûoi) ∆ûi + 2 f@(xi -ûoi - ξ∆ûi) (∆ûi)2 + ni
df d 2f
siendo ξ i [0,1] y f ' (y ) = f " (y ) = 2 .
dy dy

Si se considera sólo la derivada de primer orden se tiene que:


∆gi= ∆g(xi) = g(xi) - f (xi - ûoi)
siendo su derivada:
f=i= f= (xi - ûoi)
obteniendo el modelo linealizado en el que ∆gi y f=i son conocidos y ∆ûi es la
incógnita.
∆gi = -f=i ∆ûi + ni
df (y )
g(x i ) − f [x i − û o (x i )] = − ∆û (x i ) + n (x i )
dy y = x
i − û o (x i )

Considerando que la derivada f=i no es nula se tiene que:


∆g i g (x i ) − f [x i − û o (x i )]
∆û i = − =−
fi df (y )
dy y = x − û (x )
i o i

siendo ûi = ûoi + ∆ûi


La función de deformación estimada a nivel local û(xi) utiliza la diferencia entre
las funciones f y g en las posiciones xi - ûo(xi) y xi, respectivamente y la pendiente de
la función f, f= (fig. 6.20). Este procedimiento también es denominado aproximación
diferencial (Huang, 1981).
La varianza σ2∆gi de ∆gi es igual a la varianza del ruido σ2n obteniendo la
desviación típica σ û i del estimado ûi =ûo(xi) - ∆ûi como:
σn
σû =
i f 'i

Evidentemente, la precisión depende de la pendiente f=i de la función siendo mayor


cuanto mayor sea ésta, de forma que si f=i es igual a cero, no será posible obtener una
estimación de la función de deformación, si la pendiente es baja, el peso de la
estimación (parámetro indicador de su calidad) wi= f=i2 / σ2n, también lo será.
FOTOGRAMETRÍA DIGITAL   331 

g,f

g(x)

g(x i) - f [x i-uo(x i)] = ∆g i


αi

f(x-u o)
∆ui

xi x,y

Fig.6.20. Principio de la aproximación diferencial aplicado al cálculo del vector de desplazamiento


entre dos series unidimensionales (Förstner, 1993)

- Estimación del vector de desplazamiento.


En este primer caso se considera que la función de desplazamiento û(xi), toma un
valor constante independiente de la posición, û(xi) = û de forma que y(xi) = xi - û, se
parte de una aproximación inicial al desplazamiento û, ûo, siendo û = uo + ∆û.
Linealizando f en el punto xi - ûo para cada posición de i se obtiene:
f [xi - (ûo + ∆û)] = f(xi - ûo) - f=(xi - ûo) ∆û
siendo el modelo linealizado:
g(xi) = f(xi - ûo) - f=(xi - ûo) ∆û + ni ∆gi = -f=i ∆û + ni
Minimizando la suma de cuadrados de los residuos ni escogiendo los valores
adecuados de ∆ûi tenemos:
n
Ω= ∑ n i2
i =1

∂Ω ∂
m m ⎛ m ⎞
=
∂∆û ∂∆û ∑ (f 'i ∆g i + f 'i ∆û )2 = 2∑ f 'i ∆g i + 2⎜⎜ ∑ f 'i2 ⎟⎟∆û = 0
i =1 i =1 ⎝ i =1 ⎠
n m
∑ f 'i ∆g i ∑ [g(x i ) − f (x i − u o )] f ' (x i )
∆û = i =1 = − i =1
m m
∑ f 'i2 ∑ [f ' (x i )]2
i =1 i =1

La precisión de la estimación del vector de desplazamiento viene dada por la


expresión (Förstner, 1993).
332  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

σ 2n
σ 2û =
m
∑ f 'i2
i =1

siendo σn la desviación típica del ruido que puede ser estimada a su vez a partir de los
residuos del ajuste por mínimos cuadrados si m es lo suficientemente grande.
m 2
1
σˆ 2n = ∑ [g(x i ) − f (x i − û )]
m − 1 i =1

Esta estimación tiene una precisión controlada por la expresión (Koch, 1987):
1
σˆ σˆ = σˆ n
n (
2 m − mp )
siendo mp el número de incógnitas (en este caso, igual a 1, el vector desplazamiento)
y m el número de valores que intervienen en la estimación. Así, para alcanzar errores
por debajo del 10% de la señal, el número de muestras necesario es superior a 72.
Ejemplo 1. Cálculo del vector desplazamiento entre dos series unidimensionales
mediante mínimos cuadrados.
En la Tabla 6.1 se muestran los niveles digitales correspondientes a dos series
unidimensionales de una zona de borde de una imagen digital, los perfiles
correspondientes se muestran en la figura 6.21.
Tabla 6.1. Niveles digitales correspondientes a las series f y g
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
fi 20 20 20 20 40 60 80 80 80 80 80 80 80 80 80
gi 28 26 28 52 74 84 82 84

Niv el Digi tal


10 0

75

Ser ie g
Ser ie f
50

25

0
0 2 4 6 8 10 12 14 16
Po sic ión

Fig.6.21. Series correspondientes a los datos experimentales del ejemplo 1


FOTOGRAMETRÍA DIGITAL   333 

El proceso del cálculo del desplazamiento comienza por la obtención de f=i y ∆gi,
que permiten el cálculo del incremento ∆û que aplicar al vector desplazamiento ûo, los
resultados numéricos parciales se muestran en la Tabla 6.2.
Tabla 6.2. Resultados numéricos parciales del cálculo del vector desplazamiento
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
∆gi 8 -14 -32 -28 -6 4 2 4
fi' 0 0 10 20 20 10 0 0 0 0 0 0 0
fi' * gi 80 -280 -640 -280 0 0 0 0
fi'2 100 400 400 100 0 0 0 0
m
∑ ∆gif 'i 1120 σn 1
∆û = i =1 = = 1.12 σˆ u = = = 0.03
m 1000 m 1000
∑ f 'i2 ∑ f 'i2
i =1 i =1

suponiendo un valor de σn de 1 nivel digital.


Una vez realizada esta primera iteración, el desplazamiento debe ser aplicado a las
series, realizando un remuestreo, en la Tabla 6.3 se muestran los resultados numéricos
de la aplicación del vector de desplazamiento calculado en la primera iteración que se
representan gráficamente en la figura 6.22.
Tabla 6.3. Resultados de la aplicación a las series originales del vector de desplazamiento obtenido en la
primera iteración aplicando un posterior remuestreo
i 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17
fi 20.0 20.0 20.0 37.6 57.6 77.6 80.0 80.0 80.0 80.0 80.0 80.0 80.0 80.0 80.0
gi 28.0 26.0 28.0 52.0 74.0 84.0 82.0 84.0

En la figura 6.22 se puede observar como se produce una importante mejora del
ajuste. El parámetro fundamental de calidad de la estimación de la función de
deformación (vector desplazamiento) se calcula en función de los residuos (σn=6.24
niveles digitales) y su valor considerablemente, mayor que el valor teórico (σn=1 nivel
digital) indica la existencia de una función de deformación más compleja que una
simple traslación. Para comprobar este hecho se procede al cálculo de una segunda
iteración, utilizando como datos de entrada, las series deformadas en función de los
resultados de la primera iteración. La corrección del vector de desplazamiento
obtenida para la segunda iteración es de 0.29, valor que está situado por debajo del
tamaño del píxel, por lo que se puede considerar que los resultados de la primera
iteración son adecuados.
334  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 
Nivel Digital
100

75

50
Serie f
Serie g

25

0
0 2 4 6 8 10 12 14 16 18
Posición

Fig.6.22. Resultado de la aplicación del vector de desplazamiento calculado


en la primera iteración a las series originales

- Cálculo de los centros de gravedad de series unidimensionales


Unos parámetros de gran utilidad en la identificación de los desplazamientos entre
series unidimensionales son los centros de gravedad, que se obtienen mediante las
expresiones:
m m
∑ f 'i2 x i ∑ g'i2 xi
x of = i =1 x of = i =1
m m
∑ f 'i2 ∑ g'i2
i =1 i =1

Aplicando las expresiones anteriores a los datos del ejemplo 1, se obtiene como
resultado xof= 5.5 y xog= 7.1, resultando un vector de desplazamiento de 1.6, cifra
similar a la alcanzada en las dos iteraciones realizadas en el ejemplo 1
(1.12+0.29=1.41). Los cálculos detallados se muestran en la Tabla 6.4.
Tabla 6.4. Cálculo de los centros de gravedad de series unidimensionales
I 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
fi 20 20 20 20 40 60 80 80 80 80 80 80 80 80 80
gi 28 26 28 52 74 84 82 84
f'i 0 0 10 20 20 10 0 0 0 0 0 0 0
f'i2 0 0 100 400 400 100 0 0 0 0 0 0 0
f'i2*xi 0 0 400 2000 2400 700 0 0 0 0 0 0 0
g'i 0 13 23 16 4 0
g'i2 0 169 529 256 16 0
g'i2 * xi 0 1014 3703 2048 144 0
FOTOGRAMETRÍA DIGITAL   335 

- Estimación del vector de desplazamiento y factor de escala


En este segundo caso se considera en el modelo de deformación (función de
deformación) la existencia de una traslación (vector de desplazamiento u) y un
cambio de escala (factor de escala s).
yi = ŝ (x i − x o ) − û = ŝ x 'i − û

siendo x=i = xi - xo.


El modelo lineal resultante es del tipo: g(xi) = f ( ŝ x=i - u*) + n (xi).
Si se consideran las aproximaciones iniciales ŝo y ûo, para el factor de escala ŝ y
para el vector desplazamiento û y se linealiza la expresión en ŝo x=i - ûo se tiene:

g(xi)= f( ŝo x=i - ûo) - f=( ŝo x=i - ûo) ∆û + f=( ŝo x=i - ûo) x=i ∆ ŝ + n(xi)

que da lugar al modelo linealizado:


∆gi= -f=i ∆û + f=i x=i ∆ ŝ + n(xi)
Minimizando Ω = Σ n2(xi) con respecto a las incógnitas û y ŝ e igualando a 0.

⎜ ∑ f 'i2 − ∑ f 'i2 x'i ⎞⎟ ⎛⎜ ∆û ⎞⎟ = ⎛⎜ − ∑ f 'i ∆gi ⎞⎟
⎜−
⎝ ∑ f 'i2 x 'i ∑ f 'i2 x'i2 ⎟⎠ ⎜⎝ ∆ŝ ⎟⎠ ⎜⎝ ∑ f 'i x'i ∆gi ⎟⎠
sistema que se resuelve mediante mínimos cuadrados, obteniendo las correcciones ∆û
y ∆ŝ que se aplican a las aproximaciones iniciales ûo y ŝo , hasta lograr la
convergencia deseada.
La varianza del ruido se obtiene al igual que en el caso de la estimación del vector
desplazamiento en función de los residuos mediante la expresión:
m
1
σˆ 2n = ∑
m − 2 i =1
(∆g i − f 'i ∆û − f 'i x 'i ∆ŝ )2

Ejemplo 2. Cálculo del vector desplazamiento y factor de escala entre dos series
unidimensionales mediante mínimos cuadrados.
En la tabla 6.5 se muestran los datos de partida (iguales que los del Ejemplo 1) así
como los resultados numéricos parciales correspondientes al cálculo del vector
desplazamiento y factor de escala entre dos series unidimensionales, considerando
como aproximaciones iniciales ûo=1 y ŝo =1.
336  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

Tabla 6.5. Datos de partida y resultados numéricos parciales del cálculo de una función de deformación
compuesta por un vector desplazamiento y un factor de escala
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
fi 20 20 20 20 40 60 80 80 80 80 80 80 80 80 80
gi 28 26 28 52 74 84 82 84
fi' 0 0 10 20 20 10 0 0 0 0 0 0 0
fi'2 0 0 100 400 400 100 0 0 0 0 0 0 0
fi'2*xi 0 0 500 2400 2800 800 0 0 0 0 0 0 0
fi'2*xi2 0 0 2500 14400 19600 6400 0 0 0 0 0 0 0
∆gi 8 6 -12 -8 -6 4 2 4
fi'*∆gi 0 60 -240 -160 -60 0 0 0
fi'*∆gi*xi 0 300 -1440 -1120 -480 0 0 0

Que da lugar al sistema siguiente:


⎛ 1000 −6500 ⎞⎛ ∆û ⎞ ⎛ 400 ⎞
⎜⎜ ⎟⎟⎜⎜ ⎟⎟ = ⎜⎜ ⎟⎟
⎝ − 6500 42900 ⎠⎝ ∆ŝ ⎠ ⎝ − 2740 ⎠

cuya solución es: ∆û = -1; ∆ŝ = -0.215.


Los valores obtenidos deben ser sumados a las aproximaciones iniciales dando
lugar a los resultados finales de la iteración: û = 0; ŝ = 0.785.
Por otro lado, y a modo de comprobación se pueden aplicar estos parámetros a los
centros de gravedad:
x'of = ( ŝ * xog) + û = (0.785 * 7.1) + 0 = 5.57
que es similar al valor del centro de gravedad calculado para la serie f (xof=5.5).
Estimación de función de deformación con parámetros geométricos (vector de
desplazamiento) y radiométricos (brillo y contraste).
El modelo puede incorporar no sólo parámetros de tipo geométrico sino que
también es posible incorporar ajustes de tipo radiométrico, como, por ejemplo, ajustes
de brillo y contraste, dando lugar a un modelo no lineal del tipo:
g(xi) = a f(xi - u) + b + n(xi)
donde a representa el parámetro de ajuste del contraste y b el parámetro de ajuste de
brillo.
Para la resolución de este modelo es necesario disponer de aproximaciones para a
(âo) y u (ûo) no siendo necesario para el parámero b debido a su carácter lineal. Tras la
linealización se obtiene un modelo del tipo:
∆gi = ∆g(xi) = g(xi) - âo f(xi-ûo)
dando lugar a la expresión final:
∆gi = -âo f=i ∆û + fi ∆â + b̂ + ni
El sistema de ecuaciones normalizado para la resolución mediante mínimos
cuadrados es:
FOTOGRAMETRÍA DIGITAL   337 


⎛ a o2 f 'i2
⎜ − ao ∑ f 'i f i − ao ∑ f 'i ⎞⎟⎛⎜ ∆û ⎞⎟ ⎛⎜ − a o ∑ f 'i ∆g i ⎞⎟
⎜− a
⎜ o ∑
f 'i f i ∑ f i2 ∑ f i ⎟⎟⎜⎜ ∆â ⎟⎟ = ⎜⎜ ∑ f i ∆g i ⎟⎟

⎜ − a o f 'i ∑ fi 1 ⎟⎝ b̂ ⎠ ⎜⎝ ∑ ∆g i ⎟

⎝ ⎠

siendo las incógnitas ∆û, ∆â y b̂ , es decir, las correcciones a las aproximaciones


iniciales û = ûo + ∆û; â = âo + ∆â y el parámetro de ajuste del brillo.
La precisión de los estimados se obtiene mediante el cálculo de la inversa del
sistema normalizado:
σ û = σ n q11 σâ = σ n q 22 σ b̂ = σ n q 33

obteniendo la expresión de la varianza del ruido mediante:


m
∑[ ]
1
g (x i ) − â * f (x i − û ) − b̂
2
σˆ 2n =
m − 3 i =1

Ejemplo 3. Cálculo de una función de deformación compuesta por vector de


desplazamiento y parámetros radiométricos (ajuste de brillo y contraste).
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
fi 10 10 10 10 20 30 40 40 40 40 40 40 40 40 40
gi 14 13 14 26 37 42 41 42
fi' 0 0 5 10 10 5 0 0 0 0 0 0 0
f'i2 0 0 0 25 100 100 25 0 0 0 0 0 0 0 0
fi' * fi 0 0 0 50 200 300 200 0 0 0 0 0 0 0 0
fi2 100 100 100 100 400 900 1600 1600 1600 1600 1600 1600 1600 1600 1600
∆gi 4 -7 -16 -14 -3 2 1 2
fi*∆gi 40 -140 -480 -560 -120 80 40 80
fi'*∆gi 20 -70 -160 -70 0 0 0 0

⎛ 250 − 750 − 30 ⎞⎛ ∆û ⎞ ⎛ 100 ⎞


⎜ ⎟⎜ ⎟ ⎜ ⎟
⎜ − 750 7900 230 ⎟⎜ ∆ŝ ⎟ = ⎜ − 90 ⎟
⎜ − 30 230 8 ⎟⎠⎜⎝ b̂ ⎟⎠ ⎜⎝ 1 ⎟⎠

siendo los resultados:


∆û = 0.7958 ∆â = -0.1170 b̂ = 6.2262
que deben añadirse a las aproximaciones iniciales:
ûo = 0 âo = 1
dando lugar a:
∆û = 0.7958 ∆â = -0.8829 b̂ = 6.2262
Estos parámetros serán aplicados a la serie inicial de acuerdo con la
transformación geométrica y radiométrica planteada obteniendo una serie ajustada
sobre la cual se deberán calcular nuevos parámetros hasta alcanzar la convergencia.
338  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

- Iteraciones y remuestreo
La resolución del problema de matching mediante mínimos cuadrados presenta el
inconveniente de que la función f(y) es marcadamente no lineal, por ello es necesario
tener en cuenta que en particular si las aproximaciones iniciales no son buenas, los
estimados necesitan un largo proceso de refinamiento mediante iteraciones y
correcciones diferenciales de los resultados.
Un problema asociado al de las iteraciones es el del remuestreo. Los resultados
derivados del proceso de matching dan lugar a posiciones no enteras por lo que es
necesario el cálculo del valor correspondiente en la posición entera a fin de proceder a
la siguiente iteración.
6.5.2.2 Matching de ventanas bidimensionales
En este caso se intenta establecer la función de deformación (geométrica y/o
radiométrica) que es necesario aplicar a una determinada ventana (ventana de
búsqueda) para conseguir una correspondencia adecuada con la otra ventana (ventana
patrón).
- Estimación de los parámetros de desplazamiento
El modelo más sencillo de matching es:
p=x-u q=y–v
basado en la idea de que la deformación es debida exclusivamente a un
desplazamiento (u,v) entre las dos ventanas.
El modelo linealizado es del tipo:
∆gi = -fri ∆û - fci ∆ v̂ + ni
con:
∂f (p, q ) ∂f (p, q )
f ri = f ci =
∂r r = ri − û o ∂c r = ri − û o
c = c i − v̂ o c = c i − v̂ o

∆û o = û − û o ∆v̂ o = ∆v̂ − v̂ o ∆g i = g (ri , c i ) − f (ri − û o , c i − v̂ o )

para todos los m píxeles (ri,ci) que componen la ventana. En la mayoría de los casos
(ri,ci) están dispuestos de acuerdo con una malla m = mr mc.
Las ecuaciones normales vienen dadas por: N ŷ = h

siendo N: matriz de ecuación normal N de dimensiones 2x2.


⎛ m 2 m ⎞

⎜ ∑fr
i
∑ fr fc i i

⎟ ⎛ N11 N12 ⎞
N=⎜ m i =1 i =1 ⎟ = ⎜⎜ ⎟

m
⎟ ⎝ N 21 N 22 ⎟⎠

⎜ f ri f c i ∑ f c2 i ⎟
⎝ i =1 i =1 ⎠
FOTOGRAMETRÍA DIGITAL   339 

h: vector del término independiente


⎛ m ⎞
⎜ ∑
⎜ − f ∆g ⎟
ri i

h = ⎜ im=1 ⎟
⎜ ⎟
⎜ − f ∑
ci ∆ g i⎟
⎝ i =1 ⎠
ŷ : vector de incógnitas
⎛ ∆û ⎞
ŷ = ⎜⎜ ⎟⎟
⎝ ∆v̂ ⎠
El sistema se resuelve utilizando la matriz de ponderadores Q:
1 ⎛ N 22 − N12 ⎞
Q = N −1 = ⎜
2 ⎜− N

N11N 22 − N12 ⎝ 12 N11 ⎟⎠

Los resultados son ∆û y ∆ v̂ , que sumados a las aproximaciones iniciales ûo y v̂ o,


definen el vector de desplazamiento û, v̂ , y que permiten el cálculo de la desviación
típica del ruido de las ventanas:
m
1
σ 2n = ∑ [g(ri , ci ) − f (ri − û, ci − v̂ )]2
m − 2 i =1

Estos resultados pueden ser utilizados para la obtención de la matriz de covarianza


de un desplazamiento û, v̂ desconocido.
−1
⎛ m 2 m ⎞


fr
i
∑ ∑ f r fci ⎟
i ⎟
Cov(ŷ, ŷ ) = σˆ n Q = σˆ n ⎜ mi =1
2 2 i =1
m ⎟
⎜ 2 ⎟

⎜ f ri f c i ∑ fc ⎟
i
⎝ i =1 i =1 ⎠
siendo los errores de dicha estimación:
N 22 N11
σˆ û = σˆ n Q11 = σˆ n 2
σˆ v̂ = σˆ n Q11 = σˆ n 2
N11N 22 − N12 N11N 22 − N12

El coeficiente de correlación entre ambos desplazamientos ρû, v̂ viene dado por la


expresión:
− N12
ρ û , v̂ =
N11N 22

La precisión alcanzada depende de tres factores:

Varianza del ruido ( σ̂ 2n ): Es un factor fundamental. El conocimiento previo de la


varianza del ruido σ̂ 2n evita la utilización de estimaciones de dicha varianza
mejorando los resultados finales.
340  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

El número de píxeles utilizados (m): La desviación típica decrece linealmente con


respecto el número de píxeles que intervienen en el cálculo, siempre que se introduzca
nueva información al ampliar la ventana y cuando el gradiente medio cuadrático
permanezca constante.

El gradiente medio cuadrático en la ventana ∇f∇f T : Este indicador es ( )


fundamental para la comprobación de la bondad del ajuste.
- Estimación de transformaciones lineales
El modelo que se considera para el caso de la correspondencia de dos pequeñas
ventanas es del tipo:
g1(ri,ci)=f(ri,ci) + n1(ri,ci)
g2(ri,ci)=h [f(pi,qi)] + n2(ri,ci)
con:
⎛ p ⎞ ⎛ a1 a 2 ⎞ ⎛ r ⎞ ⎛ a3 ⎞
⎜⎜ ⎟⎟ = ⎜⎜ ⎟−⎜ ⎟ +⎜ ⎟
⎝q⎠ ⎝a4 a 5 ⎟⎠ ⎜⎝ c ⎟⎠i ⎜⎝ a 6 ⎟⎠

h(f) = a7f + a8
donde n1 y n2 son los niveles de ruido en las dos imágenes g1 y g2. Dichos ruidos son
blancos con desviaciones típicas σ n y σn . 1 2

Las incógnitas del sistema son los parámetros a1, Y, a8, siendo necesario contar
con las aproximaciones siguientes que dan lugar al modelo linealizado siguiente:
∆gi = fri ri dâ1 + fri ci dâ2 + fri dâ3 + fci ri dâ4 + fci ci dâ5 + fci dâ6 + fi dâ7 + 1 dâ8 + ni
siendo: dâk = âk - âok, k = 1,Y,8
∆gi = g2(ri,ci) - g1(p0i,q0i)
ni’ = n2(ri,ci) - n1(p0i,q0i)
∂ĝ1 (ri , c i ) ∂ĝ (r , c )
f ri = , f c i = 1 i i , f i = ĝ1 (ri , c i )
∂r ∂c

⎛p⎞ ⎛a a 02 ⎞⎛ r ⎞ ⎛ a 03 ⎞
⎜⎜ ⎟⎟ = ⎜⎜ 01 ⎟⎜ ⎟ + ⎜ ⎟
⎝ ⎠ 0i ⎝ a 04
q a 05 ⎟⎠⎜⎝ c ⎟⎠ i ⎜⎝ a 06 ⎟⎠

donde ĝ1 que es una versión suavizada de g1. En este caso, de nuevo se requiere al
menos una interpolación lineal para g1, fri, fci, para evitar soluciones inestables.
Se obtiene la matriz de ecuaciones normales N siguiente:
FOTOGRAMETRÍA DIGITAL   341 

⎛ ∑ f r2 r 2 ∑f 2
rc ∑f r
2
| ∑ f f r ∑ f f rc ∑ f f r
2
| ∑ f fr ∑ f r ⎞⎟
⎜ r r r c r c r c r r



∑f r
2 2
c ∑f c
r
2
| ∑ f f cr ∑ f f c ∑ f f c
r c r c
2
r c | ∑ f fc ∑ f c ⎟⎟
r r

⎜ ∑f r
2
| ∑f f r ∑f f c ∑f f
r c r c r c | ∑f f ∑f ⎟
r r
⎜ −− −− −− | −− −− −− | −− −− ⎟
⎜ ⎟
⎜ | ∑ f c2 r 2 ∑ f c2 rc ∑ f c2 r | ∑ fr fcr ∑ fcr ⎟


| ∑f c
2 2
c ∑f c 2
c | ∑ f fc
r ∑ f c c ⎟⎟
⎜ | ∑f c
2
| ∑f f c ∑ fc ⎟
⎜ −− −− −− | −− −− −− | −− −− ⎟
⎜ ⎟

⎜⎜
| | ∑f 2 ∑ f ⎟⎟
⎝ | | ∑1 ⎟⎠

en la que se han omitido los índices de las sumatorias que se establecen entre todos
los píxeles (ri,ci) incluidos en la ventana considerada. El segundo término de la
expresión (h) viene dado por:

⎛ m ⎞
⎜ ∑ f r ri ∆g i ⎟
⎜ i=1 ⎟
i

⎜ m ⎟
⎜ ∑ f r c i ∆g i ⎟
i
⎜ i=1m ⎟
⎜ ⎟
⎜ ∑ r i ⎟ f ∆ g i

⎜ i=1− − − ⎟
⎜ m ⎟
⎜ ∑ f c ri ∆g i ⎟
⎜ i

h = ⎜ im=1 ⎟
⎜ ∑ f c c i ∆g i ⎟
⎜ i=1 ⎟
i

⎜ m ⎟
⎜ ∑ f c ∆g i ⎟ i

⎜ i=1 ⎟
⎜ m− − − ⎟
⎜ f i ∆g i ⎟
⎜ ∑ i =1

⎜ m ⎟
⎜ ∑ 1∆g i ⎟
⎜ ⎟
⎝ i=1 ⎠
La sistema de ecuaciones normalizado N ŷ = h se define para las 8 incógnitas
ŷ =(∆âk) e incluye las 6 correcciones ∆ûk a los valores aproximados de las
transformaciones geométricas y las correcciones ∆â7 y ∆â8 para la transformaciones
radiométricas. Dichos valores corregidos serán empleados como aproximaciones
iniciales para la siguiente iteración.
âk = â0k + ∆âk; k = 1, Y, 8
342  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

La fase de mayor esfuerzo de cálculo lo constituye la construcción de la matriz de


ecuaciones normalizadas. Si g2 no tiene un nivel de ruido elevado, simplemente se
debería utilizar una estimación de g1 y g2 ( ĝ1 y ĝ 2 ), para la determinación de fi, f r y
i

f c , que no necesitan actualizarse en cada iteración. En este caso, sólo es necesaria la


i

actualización del vector de términos independientes h. Con esta simplificación se


reduce el tiempo y se incrementa el radio de convergencia (Burkhardt y Moll, 1979).
La varianza del ruido estimada viene dada por la expresión:
1 m
σˆ 2n = ∑ [â 7 g1 (p i , q i ) + â 8 − g 2 (ri , ci )] 2
m − 8 i =1
con
⎛ p̂ i ⎞ ⎛ â1 â 2 ⎞⎛ ri ⎞ ⎛ â 3 ⎞
⎜⎜ ⎟⎟ = ⎜⎜ ⎟⎟⎜⎜ ⎟⎟ + ⎜⎜ ⎟⎟
⎝ q̂ i ⎠ ⎝ â 4 â 5 ⎠⎝ c i ⎠ ⎝ â 6 ⎠
La matriz inversa de la matriz de ecuaciones normalizadas Q se utiliza para la
obtención de las desviaciones típicas de los estimados σ̂ â k .

σˆ â k = σˆ n Q kk

que permite establecer la precisión de la escala, rotación y desplazamientos


estimados.
Cuando se trabaja con ventanas de pequeño tamaño (superior a 9x9) no es posible
la determinación de los 8 parámetros, debido a que las imágenes no contienen el
número de elementos suficiente para garantizar la estimación, por lo que se suelen
eliminar los parámetros relacionados con la escala (a1, a5 y a7) y los desplazamientos
(a2 y a4).

6.5.2.3 Ventajas e Inconvenientes del métodos de mínimos cuadrados

Ackermann (1984), Mitchell y Pilgrim (1987) y Pertl (1985) analizan las ventajas
e inconvenientes de este método:

Ventajas:
1. Este método permite la corrección de los problemas geométricos y
radiométricos de la imagen.
2. La solución tiene un alto nivel de redundancia, incluso para matrices
pequeñas, proporcionando robustez al estimado.
3. El procedimiento iterativo va alcanzando soluciones parciales que optimizan
el proceso de búsqueda y, por tanto, se reduce el tiempo de cálculo
permitiendo la obtención de soluciones en tiempo real.
4. Los resultados de la solución de mínimos cuadrados permite el cálculo de
diferentes estadísticos como, por ejemplo, matrices de varianza-covarianza,
que permiten el análisis de la bondad del ajuste.
FOTOGRAMETRÍA DIGITAL   343 

σˆ â k = σˆ n Q kk

que permite establecer la precisión de la escala, rotación y desplazamientos


estimados.
Cuando se trabaja con ventanas de pequeño tamaño (superior a 9x9) no es posible
la determinación de los 8 parámetros, debido a que las imágenes no contienen el
número de elementos suficiente para garantizar la estimación, por lo que se suelen
eliminar los parámetros relacionados con la escala (a1, a5 y a7) y los desplazamientos
(a2 y a4).

6.5.2.3 Ventajas e Inconvenientes del métodos de mínimos cuadrados

Ackermann (1984), Mitchell y Pilgrim (1987) y Pertl (1985) analizan las ventajas e
inconvenientes de este método:

Ventajas:
1. Este método permite la corrección de los problemas geométricos y
radiométricos de la imagen.
2. La solución tiene un alto nivel de redundancia, incluso para matrices
pequeñas, proporcionando robustez al estimado.
3. El procedimiento iterativo va alcanzando soluciones parciales que optimizan
el proceso de búsqueda y, por tanto, se reduce el tiempo de cálculo
permitiendo la obtención de soluciones en tiempo real.
4. Los resultados de la solución de mínimos cuadrados permite el cálculo de
diferentes estadísticos como, por ejemplo, matrices de varianza-covarianza,
que permiten el análisis de la bondad del ajuste.

Inconvenientes:
1. La dependencia de la solución del gradiente de los niveles digitales,
particularmente en las técnicas de cálculo de la pendiente. La influencia de la
calidad radiométrica es tan grande que puede producir mayores diferencias
geométricas que las propias que presente la imagen (Rosenholm,1978).
2. La transformación geométrica utilizada necesita ser capaz de corregir las
diferencias de la imagen debido a la perspectiva. La transformación afín
indicada anteriormente cumple esta necesidad en matrices de pequeño
tamaño (Ackermann, 1984). En el caso de que las diferencias geométricas
sean debido exclusivamente a un cambio de escala, el método de mínimos
cuadrados es conceptualmente similar al de correlación cruzada.
3. El algoritmo es desarrollado mediante la utilización de una expansión de
Taylor para la linearización de las ecuaciones de observación produciendo la
eliminación de los términos no lineales de alto orden.

6.5.3 Técnicas basadas en el Análisis de Fourier


Esta técnica se basa en la utilización de transformadas de Fourier, es decir, en la
aplicación de métodos de aumento de fase (Gopfert,1980). Esta técnica sólo es
eficiente cuando se utiliza con matrices patrón de gran tamaño en relación a la matriz
344  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

de búsqueda, lo que generalmente no ocurre en el caso del matching de imágenes


fotogramétricas, así por ejemplo, Stokes (1986) pone de manifiesto la ineficacia de
este método para el trabajo con imágenes reales.
Las imágenes completas son representadas mediante componentes sinusoidales
calculándose el aumento de fase entre las ondas mediante las series de Fourier de las
dos funciones que representan las imágenes. Las traslaciones resultantes, son válidas
para imágenes sintéticas pero no para imágenes reales debido a que se pierde la
dependencia existente entre amplitud de fase y traslación cuando la imagen presenta
ruido.

6.6 MATCHING A NIVEL DE ELEMENTOS (FEATURE BASED


MATCHING -FBM-)
El matching a nivel de elementos se basa en la utilización de elementos extraídos
de la imagen para establecer la correspondencia entre las mismas, en lugar de utilizar
los niveles digitales de la misma. Para ello es necesario asumir que la descripción
proporcionada por los elementos extraídos puede sustituir de una forma correcta a la
información proporcionada por los niveles digitales de la imagen. La utilización de
elementos en lugar de imágenes originales permite seleccionar una representación
mucho más invariante con respecto a las distorsiones tales como iluminación,
reflectancia o geometría, lo que produce que este tipo de métodos sea más robusto que
los basados en los contrastes de intensidad (area based matching). El matching a
nivel de elementos se popularizó mucho a finales de la década de los setenta cuando
se descubrió que la capacidad humana de visión estereoscópica se basa en la
identificación de elementos (bordes) homólogos en lugar de utilizar la distribución de
tonos en la escena (Grimson, 1981; Horn, 1983).
Las ventajas del matching a nivel de elementos presentan el inconveniente de una
ligera pérdida de precisión debida a que los elementos extraídos no pueden
reemplazar a la imagen completa en todos los detalles (Lang y Förstner, 1995), junto
con ciertos problemas que pueden surgir en la propia extracción de los elementos de
la imagen (iluminación, sombras, falta de textura, Y) (fig.6.23; fig.6.24).
FOTOGRAMETRÍA DIGITAL   345 

Fig.6.23. Matching a nivel de elementos, Izq: Fotograma empleado por el ejército americano para definir
objetivos en la II Guerra Mundial; Der: Esquema realizado mediante fotointerpretación. Se puede
comprobar como la visualización de la figura de la derecha permite obtener una buena aproximación de los
elementos de la imagen, aunque se produzca una cierta pérdida de información

Fig.6.24. Izq: Utilización de los elementos extraídos para la representación de elementos reales (figura
tomada de un tratado de Historia Natural de 1881); Der: Utilización de los elementos extraídos en un libro
infantil para la enseñanza de los objetos (la escasa edad de los lectores no impide que establezcan las
relaciones necesarias entre los bordes y el objeto real que conocen)

Los métodos de matching a nivel de elementos constan de dos etapas. En primer


lugar, la detección de los elementos de interés y sus atributos en todas las imágenes y,
en segundo lugar, la determinación de las correspondencias entre los elementos
detectados. Ambas etapas están lógicamente relacionadas, puesto que la primera fase
de extracción de elementos se debe realizar de manera tal que permita una sencilla
identificación de los elementos homólogos que además esté libre de errores y precisa.
Los elementos extraídos pueden ser puntos, líneas o áreas. Los elementos
puntuales son extraídos mediante operadores locales, que se denominan operadores de
interés (interest operators). La bondad de los puntos se basa en ciertos atributos, por
ejemplo, elevada varianza del nivel de gris, discontinuidades en la función de
autocorrelación, Y . Los elementos se seleccionan en el interior de una ventana
rectangular o circular, con criterios de búsqueda isótropos o en direcciones
preseleccionadas, estableciendo un límite en cuanto a las características de los
346  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

elementos a determinar. Los atributos calculados de cada elemento dependen de la


dimensión de trabajo y del tipo de elemento así como de la complejidad de cálculo y
la precisión del matching. Los elementos seleccionados deben cumplir las siguientes
condiciones:
a) Densidad-detección: los elementos deben aparecer en todas las imágenes con
la suficiente densidad para establecer el análisis de correspondencias.
b) Distinguibilidad: Los elementos extraídos deben ser perfectamente
distinguibles con respecto al resto de elementos de su entorno.
c) Invarianza: La posición de los elementos extraídos debe ser invariable con
respecto a las distorsiones geométricas y radiométricas previsibles. Esta
propiedad es fundamental para garantizar la calidad de los resultados de los
procesos en los que intervengan los datos extraídos.
d) Estabilidad: La posición de los elementos extraídos debe ser invariable con
respecto al punto de vista empleado. Para ello se deben utilizar elementos
situados en características destacables del objeto y que estén poco afectadas
por oclusiones.
e) Precisión de la localización: Los elementos deben permitir una localización
precisa en todas las imágenes en las que aparezca.
f) Interpretabilidad: Los elementos seleccionados deben permitir una
interpretación. Aunque esta condición no es necesaria en el proceso de
matching es de gran utilidad en el proceso posterior de comprobación/edición
de los resultados.
g) Velocidad: Los elementos deben ser extraídos rápidamente de forma que esta
fase no disminuya la eficacia y rentabilidad del proceso.
Es importante tener en cuenta que la importancia relativa entre estas condiciones
varía de una imagen a otra, siendo importante establecer en función de la imagen y de
la aplicación a desarrollar cuál es el tipo de elemento a extraer.

6.6.1 Factores a tener en cuenta en un sistema de stereo matching a nivel de


elementos
A la hora del diseño de un sistema de stereo matching se deben tomar una serie de
decisiones en base a unos factores que serán los que van a marcar a la postre la
flexibilidad y robustez del sistema. Los factores más importantes son:

6.6.1.1. Elementos a identificar


Tenemos cuatro posibilidades básicas en cuanto a que elementos vamos a
identificar en las imágenes para realizar la fusión de las mismas: punto, línea, área y
listas semánticas. Cada tipo de elementos tendrá sus ventajas e inconvenientes,
existiendo por lo general una relación directa entre la habilidad para resolver fusiones
de elementos ambiguos y la complejidad del elemento a fusionar. Así, por ejemplo,
para realizar la fusión de un punto es necesario el formular diversas hipótesis de
trabajo como por ejemplo, que no exista paralaje en el eje y y que el paralaje en x esté
limitado a unos pocos píxeles. En el caso de la fusión de bordes de elementos (fusión
de líneas) la fusión se puede establecer sin considerar tantas limitaciones alcanzando
unos resultados totalmente satisfactorios.
FOTOGRAMETRÍA DIGITAL   347 

6.6.1.2. Extracción de los elementos identificados


Los elementos de carácter puntual son identificados mediante la utilización de
operadores de interés. Con respecto a la detección de límites de elementos existen
diversos métodos desde los más simples que únicamente considerar el cambio de
valor de la imagen (criterio de conectividad) a los más complejos como por ejemplo
el empleo del filtro LoG (Marr y Hildreth, 1980) y el filtro de Canny (1986). También
existen diferentes técnicas para la identificación de áreas como por ejemplo, el cálculo
del coeficiente de correlación máximo (Helava, 1978), mediante planteamiento más
complejos basados en el cálculo de mínimos cuadrados (Helava, 1988; Ackermann,
1984; Grün, 1985; Forstner, 1986).

6.6.1.3. Estrategia de búsqueda


El objetivo de este factor es la reducción del tamaño del espacio de búsqueda de
forma que se alcancen unas dimensiones más fáciles de manejar. Inicialmente cada
elemento de un fotograma puede correlacionarse con cualquier elemento del otro
fotograma que forma el modelo y dentro de este amplio conjunto de información se
pueden encontrar varios elementos que podrían ser los correspondientes elementos
homólogos. Esta aproximación dificulta la posterior fusión, la situación ideal sería la
identificación de un elemento (o al menos un conjunto muy reducido de elementos)
entre los cuales el sistema discriminaría cuál tiene estadísticamente más probabilidad
de ser el elemento homólogo. La forma más sencilla de limitar el número de
elementos encontrados consiste en reducir el espacio de búsqueda, mediante la
utilización de la geometría epipolar y empleo de líneas de localización vertical (VLL).
Para poder introducir la condición de geometría epipolar de una forma automática
es necesario el introducir una estrategia de búsqueda de tipo jerárquico (de menor a
mayor de detalle). Esta estrategia implica que en las fases iniciales sólo unos pocos
elementos serán identificados y localizados para la fusión (aquellos que sean más
característicos en la imagen) y que serán empleados para introducir una serie de
condiciones limitantes en la identificación de elementos de mayor detalle que
posiblemente incorporen mayor problemática de localización. Estos elementos de
mayor detalle se van utilizando para la mejora de la orientación inicial mediante la
aplicación de un proceso iterativo que va calculando las soluciones en función de la
información que se le va introduciendo al sistema. Un ejemplo práctico de estrategia
de búsqueda jerárquica de gran utilización lo constituyen las pirámides de imágenes
así como el empleo de filtros de imagen de paso bajo.
Otra metodología de reducción del espacio de búsqueda es aprovechar la
información derivada de anteriores identificaciones y considerar la escasa variación
entre dos elementos contiguos a fusionar, permitiendo la predicción de la posición del
elemento contiguo.
Un aspecto fundamental para la reducción del espacio de búsqueda lo constituye la
selección del elemento a identificar, así se pueden plantear dos tipos básicos de
sistemas de stereo matching, por un lado, un sistema basado en la identificación a
nivel de píxel seleccionando un número reducido de puntos de gran relevancia en la
fotografía y utilizar un número elevado de niveles en la pirámide de imágenes a
348  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

objeto de facilitar la identificación o bien, utilizar la identificación de elementos más


complejos lo que facilita la identificación permitiendo la reducción de niveles en la
pirámide.

6.6.1.4. Selección de resultados


Es raro que un elemento se correlacione con un único elemento de la otra imagen,
especialmente si las condiciones para la selección de los posibles elementos
homólogos no son demasiado restrictivas, es importante tener en cuenta que la
imposición de condiciones limitantes muy duras implica que sea imposible la
localización de elementos homólogos cuando existen problemas de tipo geométrico
(distorsiones) o radiométricos (cambios de contraste). El proceso de selección del
elemento homólogo entre los candidatos es un proceso eminentemente de tipo
estadístico, basado en el cálculo del soluciones mediante mínimos cuadrados a partir
de medidas de similitud estadística o análisis bayesiano o bien mediante la
comparación de los histogramas de frecuencias de los patrones buscados. El elemento
con mayor probabilidad será, lógicamente, el seleccionado como homólogo.

6.6.1.5. Control de calidad


Los elementos considerados como homólogos en función de los criterios
estadísticos deben ser coherentes entre sí, por lo que es necesario el análisis de las
fusiones a nivel global eliminándose aquellos casos que no se ajustan bien al
contexto.

6.6.2 Extracción de elementos


Para la extracción de elementos de la imagen se emplean los denominados
operadores de interés, que pueden extraer puntos, líneas, regiones,... . Su importancia
es tanta que a menudo la extracción de elementos se considera como el primer paso de
un sistema de procesamiento de imágenes enfocado a la extracción de información.
Los elementos a extraer se pueden clasificar en tres grandes grupos:
a) Proceso de nivel bajo: Se definen en el dominio discreto de la imagen, es decir,
tanto las entradas como las entradas del proceso son imágenes icónicas y se basan en
propiedades del píxel como, por ejemplo, color, gradiente, textura,... . Estos procesos
son los empleados en el matching a nivel de área.
b) Proceso de nivel medio: Los procesos de nivel medio representan la transición
entre la descripción icónica de la imagen (empleada en el matching a nivel de área) y
la descripción simbólica de la imagen (empleada en el matching a nivel de elemento).
Mediante la aplicación de los procesos de nivel medio se permite la extracción de
elementos de diferentes características y propiedades (puntos, líneas, regiones) que
definen los diferentes objetos que aparecen reflejados en la imagen.
c) Proceso de nivel alto: Los procesos de nivel alto incluyen los procesos de
interpretación y medida en los que se introduce información de tipo semántica
(extracción de elementos cartográficos en una imagen, extracción de marcas
fiduciales en una fotografía aérea).
FOTOGRAMETRÍA DIGITAL   349 

En este apartado se van a abordar los procesos de nivel medio, básicos para la
extracción de los elementos que intervienen en los procesos de matching a nivel de
elemento. En el capítulo correspondiente a la extracción semiautomática de elementos
cartográficos (tema 9) se tratarán los procesos de nivel alto.
La extracción de elementos implica el concepto de borde en la imagen digital. Un
borde de una imagen digital es una línea imaginaria en la imagen en la que se produce
un cambio brusco de brillo (Nalwa,1993). Existen cinco causas que pueden producir
bordes en la imagen digital (fig.6.25):
- discontinuidades en la superficie del objeto
- discontinuidades por problemas de reflejos debidos a la iluminación
- discontinuidades por problemas de profundidad
- discontinuidades por problemas de reflectancia en la superficie
- discontinuidades producidas por cambios de iluminación

Cambios en la orientación de la superficie

Cambio de iluminación por reflejos

Cambios de profundidad (oc lusiones)


Cambios de reflectividad en la superficie

A G UA

Cambios de iluminación (sombras)


Fig.6.25. Discontinuidades físicas que producen bordes en la imagen digital (Nalwa, 1993)

Es importante tener en cuenta que no todos los bordes tienen interés en el proceso
de matching, sino únicamente los que tienen relación con el objeto.

6.6.2.1 Extracción de puntos


Los puntos son objetos de la imagen cuyas propiedades geométricas pueden
representarse sólo con dos coordenadas (x,y). Se pueden distinguir cuatro tipos de
puntos (fig.6.26):
- puntos circulares simétricos: representan discontinuidades locales en el interior
de zonas de imagen homogéneas, cuyo tamaño (demasiado pequeño para ser
considerados como regiones) y se caracterizan por un elevado nivel de simetría
circular (por ejemplo, alcantarillas).
- puntos finales: definen el principio o el fin de una línea.
- esquinas: vienen definidos por la intersección de dos líneas
- puntos múltiples: definidos por la intersección de varias líneas, siempre más de
dos.
350  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

Fig. 6.26 Tipos de puntos. Izq a der.: Circulares simétricos; Puntos Finales; Esquinas; Puntos múltiples

La representación simbólica de dichos puntos está compuesta por la información


geométrica (coordenadas), radiométrica (tono) y atributos de relación. Los elementos
puntuales son muy utilizados en los procesos de matching tanto para la orientación de
imágenes como para la generación de MDE.
Los procedimientos más empleados para la extracción de puntos son:
- matching de puntos mediante patrones
- detección de esquinas basados en propiedades de geometría diferencial
- detección de puntos por optimización local
La obtención de los puntos es un proceso de tres etapas:
- selección de las zonas en las que están situados los puntos aplicando un
procedimiento de binarización en función de un valor límite
- selección de los puntos dentro de las regiones mediante las técnicas de
adelgazamiento
- determinación precisa de la posición de los puntos mediante procedimientos
de mínimos cuadrados

a) Matching de puntos mediante patrones


Una posibilidad de detectar las regiones en las que están situadas los puntos es
definir un patrón de los puntos que sea representativo de la estructura de los puntos
que se pretende extraer. La idea básica del matching de patrones es encontrar los
lugares en los que se produce el mejor ajuste entre el patrón y la imagen. La similitud
entre el patrón y la imagen puede ser evaluada mediante la utilización de coeficientes
de correlación o de diferencias cuadráticas.
Los principales problemas del matching mediante patrones son las limitaciones
derivadas del número y tipo de patrones, la sensibilidad a los cambios en escala y a la
rotación de las imágenes (los patrones son sensibles a la rotación).

b) Detección de esquinas mediante el análisis de la curvatura


La detección se basa en el cálculo de la curvatura K, que se define como:

⎛ H ⎞
K = det⎜⎜ 2

2 ⎟
⎝ 1 + gr + gc ⎠
donde: H es un término que contiene las derivadas parciales segundas de la
imagen en los ejes coordenadas r (filas) y c (columnas).
det determinante
FOTOGRAMETRÍA DIGITAL   351 

gr, gc derivada de la imagen en el sentido de las filas y de las columnas,


respectivamente
El signo de K puede ser utilizado para la clasificación de los píxeles y para la
detección de esquinas, buscando los píxeles en los que se definen el máximo positivo
de detH (operador de Beaudet), el valor máximo de K (Dreschler, 1981) o mediante el
análisis de la curvatura en el espacio (operador Deriche/Giraudon) (fig.6.27).

Fig.6.27. Sup: Localización de un punto triple (izq) mediante la utilización de las direcciones de gradientes
(centro) y de las direcciones del borde (der); Inf: Localización de un punto circular simétrico (izq) mediante
la utilización de las direcciones de gradientes (centro) y de las direcciones del borde (der)

c) Detección de puntos mediante optimización


Moravec (1977) propuso un método para la detección de puntos que puedan ser
fácilmente identificados en pares estereoscópicos. El método se basa en la
clasificación del punto por la estimación de las varianzas en una pequeña ventana
alrededor del punto (4x4, 8x8). Este método es utilizado en numerosos algoritmos y
fue el operador que ha servido para otros métodos de detección de puntos (Paderes et
al.,1984; Förstner y Gülch, 1987).
Los operadores de interés basados en la optimización constan de tres etapas:
1. Selección de ventanas óptimas
2. Clasificación de la función imagen en el interior de las ventanas
seleccionadas
3. Estimación del punto óptimo dentro de la ventana
La evaluación de la localización de los puntos se base en modelos geométricos y
se formula en un modelo de Gauss-Markov (Koch,1988): y+e=X β̂ con el sistema de
ecuaciones normales N β̂ =h, donde N=XTWX y h=XTWy. El vector y contiene los n
valores observados, β̂ contiene las u incógnitas (la localización del punto r̂ , ĉ ), X,
W y N definen la matriz de diseño, de pesos y la matriz normalizada. El sistema de
ecuaciones normalizadas es:
352  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

⎛ ∑ g 2r − ∑ g r g c ⎞⎟
ˆ = ⎜∑ r ∑ c r ⎟
⎛ g 2r − g g c ⎞
⎜ β
⎜ ∑ grgc ∑ g c2 ⎟⎠ ⎜⎝ ∑ g r g c r + ∑ g c2 c ⎟⎠

La precisión de los puntos detectados puede ser obtenida a partir del análisis de la
matriz N. El peso wi se estima mediante la expresión w=1/tr N-1 = det N / tr N, siendo
tr N y det N, la traza y el determinante de N respectivamente. λ1 y λ2 proporcionan los
dos valores propios (eigenvalues) de la elipse de confianza que definen la forma de la
elipse v2 = λ2 / λ1.
La selección de las ventanas se establece en función de la precisión de la
localización de los puntos extraídos, para ello es necesario cumplir dos condiciones:
- las elipses de confianza deben de tener una escasa diferencia entre los ejes
(deben ser circulares) para evitar la selección de puntos en bordes o elementos
texturales direccionales, que permiten la localización precisa en una dirección
pero cuya determinación en la dirección perpendicular es ambigua.
- las elipses de confianza deben ser pequeñas para evitar la selección de puntos
en zonas de la imagen en las que existan cambios de intensidad demasiado
pequeños.

6.6.2.2 Extracción de bordes


Según las definiciones de Ballard y Brown (1982), Rosenfeld y Kak (1982) y
Nalwa (1993) un borde es una línea que se puede definir en la imagen y que refleja un
cambio de propiedades en la imagen (brillo, color, textura) en el sentido perpendicular
a la misma. Los bordes pueden ser clasificados en dos clases (fig.6.28):
- bordes s.str.: que representan límites entre dos regiones. Las regiones tienen
valores digitales distintos y aproximadamente constantes.
- líneas: que representan discontinuidades en la orientación de las superficies o
bien objetos alargados (calles, canales,...).
La extracción de bordes da lugar a una descripción incompleta de la imagen, es
decir, los bordes no construyen los límites cerrados de las regiones homogéneas de la
imagen. Los tipos de representación de los bordes dependen mucho del método a
aplicar, conteniendo información geométrica, radiométrica y así como atributos
relacionales.
Existen diversos métodos para la extracción de bordes, puesto que, siempre ha
constituido uno de los aspectos que más interés ha despertado dentro del análisis
digital de imágenes. Las diferencias de los métodos se basan en su complejidad,
flexibilidad y rendimiento. El rendimiento dependerá de la bondad de los resultados
de la detección, es decir, de la probabilidad de aparición de bordes inexistentes y la
precisión de la localización de los bordes.
FOTOGRAMETRÍA DIGITAL   353 

a b c d e f g

g(x) g(x)

a b e

c f g
x x
Fig.6.28. Tipos de bordes. Izq: Borde s.str.; Der: Líneas

Los métodos suelen constar de cinco fases:


1. extracción de las regiones de borde: extracción de todos los píxeles que
pertenecen a un borde. Dichas regiones suelen ser alargadas en función de
la morfología del borde.
2. extracción de los píxeles de borde: extracción de los píxeles que tienen una
mayor probabilidad de pertenecer al borde reduciendo las regiones a
cadenas de anchura de un píxel.
3. extracción de los elementos del borde: consiste en la estimación de los
atributos del borde (posición real de los píxeles de borde, precisión,
orientación, ...).
4. extracción de cadenas: unión de los píxeles que pertenecen al mismo borde.
5. extracción de bordes: aproximación de las cadenas mediante una función
analítica, para definir formas más complejas (por ejemplo, polígonos).
- Regiones de borde
La extracción de los bordes de la imagen digital no es una tarea simple debido a
diversos problemas (contraste débil en la imagen, ruido,...) por lo que la primera fase
consiste sólo en la definición de las zonas de borde, reduciendo el espacio de
búsqueda en la que se proceda a la posterior detección de bordes. El objetivo de esta
fase es la extracción de todos los píxeles de la imagen de entrada que puedan ser
píxeles de borde. La extracción puede ser realizada mediante la aplicación de diversos
métodos:
a) Matching de patrones: Se basa en la utilización de diferentes patrones de
borde para cada tipo de borde que se prevee encontrar.
b) Operadores de gradientes: Este método se basa en la utilización de las
derivadas de la función de intensidad de la imagen para la detección de
bordes. Para ello es necesario la búsqueda de los gradientes significativos o
bien mediante la utilización de gradientes cuadráticos gfgf, gcgc y gfgc,
354  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

mediante el empleo de operadores de clasificación sobre las imágenes de los


gradientes.
c) Modelos paramétricos de borde: Un ejemplo de este tipo de modelos
paramétricos es el método de las caras de Haralick (Haralicks facet model).
La base de este método es el ajuste de las zonas locales de la superficie de la
imagen g con un polinomio de primer orden (planos inclinados o caras).
Dichas caras son caracterizadas por tres parámetros α, β, γ que son
evaluadas mediante estimaciones por mínimos cuadrados. El modelo viene
dado por la expresión g(f,c)=αf + βc + γ + n(f,c), donde α y β son las
pendientes de la cara, γ es la altura de la cara y n(f,c) es el ruido asociado.

- Píxeles de borde
El objetivo de esta etapa es obtener a partir de las regiones de borde la definición
de cadenas de borde que tengan una anchura de un píxel. Los píxeles que definen
estas cadenas tienen una alta probabilidad de ser los píxeles de borde.
En el caso de que se considere que el borde ocupa una línea media de la región de
borde se pueden emplear técnicas de esqueletización o de adelgazamiento (ver
capítulo 5) (Rosenfeld y Kak, 1982). Evidentemente, esta situación no es común en los
casos reales por lo que es necesario recurrir a métodos más complejos para la
determinación de la posición de los píxeles de borde. Estos métodos se basan en el
análisis de la vecindad local de cada píxel (método de non-maxima-supression) o
mediante técnicas de carácter global (método de relajación y transformada de Hough).
El método de non-maxima-supression (Canny, 1983) consta de dos etapas: a) la
selección de los píxeles de vecindad en la dirección del gradiente que serán
empleados en la comparación; b) supresión de los píxeles en los que el valor del
gradiente es inferior a los de los píxeles de la vecindad. Un método para la realización
de la primera etapa es el método de vecindad N8. Dado un pixel de borde g(f,c) y su
dirección del gradiente g=, perpendicular al borde e, el primer paso es la estimación de
los puntos P1 y P2. Los valores del gradiente para P1 y P2 pueden ser aproximados
mediante una simple interpolación lineal entre los valores de gradiente de los dos
píxeles adyacentes.
g’
te
ien
ad
gr
el
nd

cc

P1
re
Di

Di
P2 re
cc

n de
lb
or
de
e

Fig.6.29. Método de la eliminación de los gradientes no máximos (non-maxima-suppression) de Canny


FOTOGRAMETRÍA DIGITAL   355 

La localización de los bordes también puede ser realizado mediante el análisis de


las segundas derivadas (laplacianas). Las laplacianas, conocidas en la literatura
anglosajona bajo la denominación de AMexican Hat@ (sombrero mejicano) son
empleadas en el operador de la laplaciana de la gausiana (filtro LoG) u operador de
Marr-Hildreth (Marr y Hildreth, 1980). En su diseño se intentó integrar los
conocimientos de visión biológica en un modelo para la extracción de elementos para
su posterior análisis. Así se intentó simular el comportamiento del filtro al del ojo
humano, la forma de la distribución que representa la sensibilidad de las celdillas del
ojo humano se puede describir analíticamente como una laplaciana de la gausiana, por
lo que dicha operación es la base del filtro. Por otro lado, estos autores observaron
que el ojo humano tiene distintos niveles de resolución que vienen marcados por la
amplitud de los canales de visión, que matemáticamente se puede simular mediante la
modificación de la desviación típica del filtro LoG. Además el filtro LoG optimiza las
dos limitaciones en conflicto en el dominio del espacio y de la frecuencia.
x 2 + y2
1 −
G (x , y ) = e 2σ 2

La segunda derivada de la imagen filtrada indica los cambios bruscos. Ambas


operaciones, filtrado y detección de bordes, pueden ser combinadas, así tomando la
segunda derivada de la expresión anterior se obtiene el operador LoG.
x 2 + y2
⎡ x 2 + y2 ⎤ −
∇ G (x , y ) = ⎢
2
2
− 2⎥ e 2σ 2
⎢⎣ σ ⎥⎦

En la figura 6.30 se muestra una representación tridimensional así como una


sección del filtro LoG, la anchura de la depresión central w, está relacionada con σ,
parámetro del filtro gausiano, mediante la expresión:
w = 2 2σ

Mediante la convolución de la imagen original I(x,y) con el operador LoG se


obtiene la imagen filtrada:
C (x,y) = L2 G (x,y) * I (x,y)
Los bordes vienen dados por aquellas localizaciones en las que C(x,y)=0, que se
denominan zero crossings. La distancia media entre los zero crossings es
aproximadamente igual a w. Por tanto, el factor clave en la aplicación del filtro,
puesto que, controla el número de bordes detectados es el valor inicial de w (w 0).
Este valor debe ser elegido de forma que los elementos seleccionados (bordes) lo sean
de tal forma que el matching pueda establecerse sin ambigüedades. Así en el nivel
superior de la pirámide (512x512 píxeles) se suele elegir un radio de acción del
operador LoG de 1.8 w, siendo los coeficientes de las zonas exteriores a 1.8 del orden
de 1/2048 veces inferiores a los coeficientes centrales. Si se toma un valor de w = 15
píxeles, es posible esperar la aparición de (512 - 2 x 27)/15 • 30 zero crossings. Si se
consigue la identificación de la tercera parte de estos puntos se plantea el matching
con aproximadamente 100 puntos.
356  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

Filtro LoG (w=25) Filtro LoG (w =15) Filtro LoG (w=5)


(x,y)
w=25 píxeles
0.5
w=15 píxeles
w=5 píxeles
0

-0.5

-1

-1.5

-2

w=5 w=15 w=25


-2.5
-25 -20 -15 -10 -5 0 5 10 15 20 25
x (y=0)

Fig.6.30. Filtro LoG. Arriba: Representaciones 3D de la matriz de ponderadores;


Abajo: Sección transversal (y=0)

En la figura 6.31 se puede observar como los zero crossings de ambas imágenes
son similares en forma, pero pueden presentar diferencias en cuanto a sus conexiones
o bien aparecer en una sola imagen. El problema consiste en partiendo de un conjunto
de bordes L = L1,..., Lm definidos en una imagen encontrar el conjunto R = R1, Y, Rn
de la otra imagen mediante el matching de los segmentos S = {Sj, Sk} con Sj 0 L y Sk0
0 R. Es importante tener en cuenta que ni el principio ni el fin de los bordes tienen
que ser idénticos.
- Elementos del borde
La extracción de los elementos del borde (edgels -edge elements-) es la primera
etapa de transición entre los píxeles del borde en el dominio discreto de la imagen y la
descripción simbólica del borde. Esta etapa incluye la estimación de las propiedades
de los píxeles del borde necesarios para los siguientes procesos de interpretación. Las
propiedades más frecuentes se resumen en la Tabla 6.6.
FOTOGRAMETRÍA DIGITAL   357 

Fig.6.31. Extracción de elementos mediante el método de operador LoG (tomada de Schenk, 1999)
Tabla 6.6. Elementos de los bordes
Coordenadas Los valores de las coordenadas pueden ser determinados mediante la aproximación de
reales los valores de intensidad, gradientes o laplacianos a un polinomio de primer, segundo o
tercer orden en la dirección del gradiente o por la estimación de la posición del Azero
crossing@. Dependiendo del tamaño de las ventanas y de los valores de gradiente se
pueden alcanzar precisiones entre 0.2 y 0.02 píxeles (fig.6.32).
Orientación Se obtiene mediante la arcotangente del cociente entre las diferencias a nivel de
columnas y de filas. La dirección del gradiente es perpendicular a la orientación.
Curvatura La curvatura se obtiene mediante la expresión clásica (ver capítulo 5) en función de los
gradientes.
Contraste Se obtiene como la diferencia expresada en valores absolutos entre los niveles digitales
de los píxeles situados a la izquierda y derecha del considerado.
Intensidad Se define como la media aritmética entre los píxeles situados a la izquierda y derecha
media del píxel considerado.
Forma Se obtiene como función del valor cuadrático del gradiente.

g(r,c) g’(r,c) g”(r,c)

(r,c) (r,c) (r,c)

Fig.6.32. Determinación de la posición del borde. Izq: mediante el punto de inflexión de la intensidad;
Centro: Máximo del gradiente; Der: Zero crossing de los valores laplacianos
358  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

- Extracción de cadenas
El siguiente paso consiste en la agrupación de los diferentes elementos de los
bordes en función al borde al que pertenecen, de forma que un borde está definido por
una secuencia de elementos de borde.
La agregación de los elementos de borde puede ser realizada mediante técnicas
locales (seguimiento de líneas) o globales (transformada de Hough, programación
dinámica, algoritmos de búsqueda heurística). Su objetivo final es la obtención de las
cadenas que consisten de elementos de borde conectados y que limitan dos regiones,
en función del tipo de conexiones se pueden considerar tres tipos de elementos de
borde (fig.6.33):
- píxel de extremo (end pixel): en su vecindad sólo aparece un elemento de
borde
- píxel de línea (line pixel): en su vecindad aparecen dos elementos de borde
- píxel de nodo (node pixel): en su vecindad aparecen al menos tres elementos
de borde

pixel de extremo (end pixel)

pixel de línea (line pixel)

pixel de nodo (node pixel)

Fig.6.33. Clasificación de píxeles de borde en función de la vecindad


(número de píxeles de borde en la vecindad)

El método más simple para la clasificación de los píxeles de borde en función del
borde al que pertenecen es el método de seguimiento de líneas. El método consiste en
la selección de un píxel de extremo (que sólo tiene en su vecindad un píxel de borde)
que no pertenezca a ningún borde que haya sido definido con anterioridad, a partir del
cual se define el borde en función de las vecindades mediante la selección de píxeles
de línea hasta que aparece un píxel de extremo o un nodo.
Cada vez es más frecuente la utilización de métodos de tipo global, en particular la
transformada de Hough. Este método se basa en un cambio de sistema de
representación. Así una línea recta de longitud s y orientación θ puede ser
representada como: s = x cos θ + y sen θ. La transformada de Hough de dicha línea es
un punto definido en el sistema de coordenadas (s, θ), de forma que todos los puntos
de dicha línea se representan en el mismo punto (fig.6.34).
FOTOGRAMETRÍA DIGITAL   359 
y θ

s (s,θ )

θ
x s
Fig.6.34. Transformada de Hough

La transformada de Hough es un método que es empleado para la detección de


líneas rectas a partir de un conjunto de puntos. Si se parte de un píxel de extremo (x,y)
todas las líneas que pasan por (x,y) se representan en el espacio (s,θ) como una línea.
La estrategia consiste en calcular la línea que en el espacio (s,θ) correspondiente a
cada elemento del borde en el espacio x,y. A continuación se definen las rectas en el
espacio (x,y) mediante la intersección de posiciones en (s,θ).
El método de Hough puede ser modificado para la detección de otros tipos de
líneas (líneas curvas, círculos,...) dando lugar al método denominado transformada de
Hough generalizada (Ballard, 1981).
La idea básica del método de la transformada de Hough generalizada es también la
transformación del espacio con respecto de un píxel de referencia R. Así si se
considera un píxel P, el vector que une el píxel de referencia y el píxel considerado se
puede expresar como función de su orientación y su módulo. Estos valores son
almacenados en una tabla (tabla-R) en la que se almacena la orientación θ, el módulo
r y la tangente, que es la empleada en la identificación de borde.
y

ϕ
n R
r

P
α

Fig.6.35. Descripción de una línea mediante la transformada Hough generalizada.


El punto de referencia R es elegido de una forma arbitraria. Para cada píxel P se
calculan las coordenadas polares r,α y el azimut ϕ (Schenk, 1999)
360  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

Tabla 6.7. Tabla-R del elemento mostrado en la figura 6.35


Punto X y rx ry r α ϕ
R 78.155 183.072
1 225.054 65.935 146.899 -117.137 187.884 309 52
2 223.113 63.386 145.958 -119.686 187.983 310 49
Y Y Y Y Y Y Y Y
P 158.765 166.642 80.609 -16.430 82.267 282 22
n 4.280 195.310 -73.875 12.238 74.882 279 16

Si se considera una imagen que contiene tres bordes L1, L2, L3 se puede
determinar con facilidad cuál de ellas presenta un mayor parecido con el patrón. Para
ello se compara cada registro de la tabla-R de cada uno de los píxeles que componen
cada línea con los valores del patrón, la diferencia mínima de valores indicará cuál es
el elemento seleccionado.

r 270
r220

r270

r270 r156
r156
r270
r270
L3
r220
L1
L2
Fig.6.36. Matching de líneas mediante la utilización de la transformada de Hough

Un tipo de representación muy utilizada en la descripción de líneas es la


transformación en el dominio de ψ-s (Ballard y Brown, 1982), aplicada para el
matching de elementos (Li y Schenk, 1990). La curva ψ-s es una representación
funcional en la que la longitud del arco s se representa en función de la tangente ψ
(fig.6.37).
y ψ

x s
Fig. 6.37. Representación ψ-s . Izq: Curva original; Der: Curva ψ- s

Este tipo de representación presenta las siguientes ventajas:


FOTOGRAMETRÍA DIGITAL   361 

- la representación es invariante con respecto a la posición en el dominio x,y


original, y lo que es más importante es invariante a la rotación. Así una
rotación en la línea sólo produce un desplazamiento vertical en la
representación
- el grado de la línea original se reduce en 1. Así las líneas rectas se
representan como líneas horizontales, los círculos como líneas rectas con
una pendiente que es proporcional a la curvatura
- los vértices de las líneas rectas producen discontinuidades en la curva ψ-s
- la curva ψ-s es simétrica si se invierte la curva original
Dichos efectos se muestran en los ejemplos de la fig.6.38.
π/2

-π/2
π/2

-π/2
π/2

-π/2
π/2
y ψ
0

-π/2
x s

Fig.6.38. Ejemplos de transformación ψ-s.


a) b): Líneas rectas que dan lugar en la transformación a líneas horizontales cuyo valor de ψ depende de la
orientación con respecto al eje x, la diferencia entre ambas figuras es sólo una rotación que da lugar a un
cambio en el valor de ψ -desplazamiento vertical-; c) d): Líneas curvas que dan lugar a líneas rectas cuya
pendiente será función de la curvatura, la diferencia entre ambas figuras es sólo una rotación que da lugar a
un cambio en el valor de ψ -desplazamiento vertical- (Schenk,1999)

Los vértices indican cambios en curvatura. Los bordes de forma similar se


caracterizan por vértices similares. Siendo la primera etapa la identificación de todos
los vértices en la otra imagen con ángulos y orientaciones similares, resultando lo que
se denomina el conjunto de candidatos.

- Aproximación de los bordes


Las cadenas que definen los bordes se definen en el modelo de imagen discreta
representándose por un conjunto de elementos de borde conectados. Así, para obtener
una descripción simbólica de los bordes es necesaria la realización de una última fase,
la transformación en un modelo continuo, el plano.
Existen diversos métodos de realizar esta descripción, por ejemplo, se pueden
aplicar técnicas de ajuste como, por ejemplo, splines, curvas de Bézier, descripciones
362  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

de Fourier, Y que presentan el inconveniente de suavizar las líneas y que tienen


escasas aplicaciones en líneas rectas. El método más habitual es la discretización de
los elementos en tramos rectos, que puede ser realizado por diversos algoritmos:
- algoritmo de fusión (merging): considera cada píxel a lo largo de los bordes
y los va agrupando en una línea mientras que se obtiene un ajuste adecuado.
Si la introducción de un píxel afecta al ajuste a la línea el anterior píxel
considerado se considera como píxel de extremo de la línea anterior y el
píxel introducido como el primer píxel de la siguiente línea. El problema
fundamental de este método es que los resultados alcanzados dependen del
punto en el que se inicie el proceso.
- algoritmo de división (splitting): consiste en la división de las líneas en dos
partes hasta que se consiga el ajuste de los píxeles de cada parte en una
recta. Si la distancia máxima es mayor que un determinado valor el
segmento se divide en dos segmentos en la posición en la que la distancia
máxima es encontrada.
- algoritmo de fusión y división (merge&split): este algoritmo combina las
ventajas de los dos métodos anteriores, de forma que inicialmente el
conjunto de elementos de borde se divide en función de su orientación y de
una distancia máxima y posteriormente se agrupan las líneas mediante el
algoritmo de fusión (fig.6.39).

P1 Pn P1 Pn

P1 Pn P1 Pn

P1 Pn P1 Pn
Pk

P1 Pn P1 Pn P1 Pn
Fig.6.39. Algoritmo de división-fusión. Izq y centro: La cadena de píxeles se aproxima a líneas rectas
mediante la aplicación del algoritmo de división; Der: El pixel Pk es eliminado por la aplicación del
algoritmo de fusión al estar dentro de la tolerancia de la línea predeterminada

La precisión de la descripción simbólica, es decir, los parámetros del borde


pueden ser mejorados mediante un proceso de estimación por mínimos cuadrados,
ajustando todos los parámetros que pertenecen al borde dentro del proceso. Los
valores observados son dados por las coordenadas reales (xi,yi) de cada parámetro de
borde y los pesos dados por la magnitud del gradiente cuadrático. La matriz de
covarianza de los parámetros estimados proporciona la información del borde.
FOTOGRAMETRÍA DIGITAL   363 

6.6.2.3 Extracción de regiones


Las regiones (blobs) son zonas de la imagen en la que existen ciertos criterios de
similitud como, por ejemplo, un determinado nivel digital o determinadas
características texturales en la imagen. El resultado del proceso es la división o
segmentación de la imagen en un determinado número de regiones. Si la división es
correcta, la unión de dichas regiones debe dar lugar a la imagen completa inicial,
dichas regiones deben estar conectadas y limitadas por líneas simples.
En función de los resultados se pueden distinguir dos tipos de segmentaciones:
- segmentación incompleta: La imagen se divide inicialmente en regiones
homogéneas y hetereogéneas, con lo que no se cumple la definición de la
similitud de las regiones obtenidas.
- segmentación completa: La imagen se divide completamente en regiones,
cumpliendo la definición.
La definición simbólica de las regiones debe incluir atributos geométricos,
radiométricos y relacionales. Una región es representada geométricamente por sus
límites, o alternativamente por la lista de píxeles que la integran. A partir de dichos
atributos se pueden obtener propiedades derivadas como, por ejemplo, tamaño, forma,
centro de gravedad, dirección media,... . Los atributos radiométricos más habituales
son la intensidad media de la región, la varianza de los niveles y parámetros
texturales. Por último, los atributos relacionales consisten en un listado de las
relaciones entre regiones y de éstas con los elementos que los definen (esquinas,
bordes,...).
La extracción de regiones presenta importantes aplicaciones en el análisis digital
de imágenes, como, por ejemplo, para la compresión de imágenes mediante la
agrupación de píxeles con características comunes; el análisis de las imágenes
binarias y la interpretación de imágenes de alto nivel.
Existen diversos métodos para la extracción de regiones en una imagen digital que
reciben varias clasificaciones.
En función del número de píxeles que intervienen en la obtención de las medidas
de similitud u homogeneidad se pueden distinguir entre métodos globales que
incluyen toda la imagen y métodos locales que incluyen sólo la vecindad del píxel
considerado.
En función del tipo de agrupamiento se puede distinguir entre métodos que
realizan el proceso de agrupamiento en el dominio de la imagen (método de
crecimiento o fusión de regiones, división de regiones, algoritmo de división y fusión)
y métodos que realizan el agrupamiento en dos fases, en la primera se analizan las
propiedades que discriminan los píxeles de la imagen completa y utiliza el resultado
para definir varias clases de objetos, como las técnicas de clasificación y de
agrupamiento (thresholding y clustering).
364  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

- Técnicas de clasificación
Las técnicas de clasificación (thresholding) o técnicas basadas en la utilización de
histogramas consisten en cuatro etapas:
1. Cálculo del histograma
2. Elección de los valores de corte: La elección de los valores de corte es la
decisión más compleja en el proceso de clasificación y se realiza en
función de la forma del histograma y del conocimiento de la imagen a
segmentar. Desafortunadamente, no siempre la decisión es sencilla, puesto
que, en la mayor parte de los casos los histogramas presentan muchos
picos y valles, que dificultan su clasificación.
3. Clasificación de los píxeles: Una vez determinados los valores límites de
las clases se realiza la clasificación.
4. Extracción de regiones mediante el método de componentes conectados:
En esta etapa se realiza la agrupación de los píxeles individuales a las
regiones. Los píxeles que están clasificados dentro de la misma clase
deben estar conectadas por al menos un píxel. La conectividad se define
mediante el método de vecindad N8 o N4.
Este tipo de técnicas dan buenos resultados y son eficaces si los objetos que se van
a reconocer o analizar no son demasiado complejos, como sucede en las imágenes
industriales. El problema fundamental de este método es la determinación automática
de los valores de corte, que a veces está directamente relacionado con el conocimiento
físico de los objetos de la imagen.

- Técnicas de crecimiento de regiones y de fusión de regiones


Como su propio nombre indica las técnicas de crecimiento de regiones y de fusión
de regiones siguen una estrategia de tipo ascendente: comienzan a partir de un píxel o
pequeña porción de la imagen (la semilla) y la extracción se realiza mediante la
adición de todos los píxeles que se encuentren en la vecindad que cumplan una
determinada condición de similitud. Si la imagen contiene más de una región (que es
el caso más habitual) será necesario realizar un proceso de crecimiento o fusión para
cada una de ellas, lo cual puede ser realizado de forma independiente o en paralelo. El
proceso se puede resumir en 3 etapas:
1. Determinación de las semillas. El objetivo de esta fase es la selección de
los puntos de partida (semillas) a partir de los cuales se llevará a cabo el
crecimiento. Para conseguir una adecuada segmentación de la imagen es
fundamental que exista al menos una semilla en cada porción de imagen, si
la posición de las semillas es conocida a priori se puede utilizar
directamente el método de crecimiento de regiones, en el caso contrario, es
necesario recurrir al método de fusión de regiones.
2. El método de crecimiento de regiones comienza en las semillas y finaliza
cuando todos los píxeles están asignados a una determinada clase. Existen
diversas técnicas para realizar la fusión que pueden ser clasificadas en
función del número de píxeles que intervienen en la decisión de
agrupamiento, es decir, en la evaluación de la homogeneidad. Este método
es, evidentemente, muy sensible a la existencia de píxeles por altos niveles
FOTOGRAMETRÍA DIGITAL   365 

de ruido, por lo que es aconsejable trabajar a nivel de medias locales en la


vecindad o en los píxeles previamente extraídos. Mediante la utilización de
la información derivada de la aplicación de los operadores laplacianos o de
gradiente es posible realizar la extracción de los bordes de una forma
simultánea a la creación de las regiones, utilizándose estos para comprobar
la bondad del proceso de segmentación.
3. El método de crecimiento de regiones parte de la suposición de que la
imagen está totalmente segmentada en regiones y su objetivo es fusionar
las diferentes regiones que no son significativamente diferentes. El
principal problema de la extracción de regiones mediante el algoritmo de
crecimiento de regiones es el orden de fusión. El orden empleado
determina el resultado final, salvo que se empleen técnicas de trabajo en
paralelo como, por ejemplo, las técnicas de relajación, por lo que a
menudo es necesario realizar varias pruebas y comprobar en cuál de ellas
se obtiene el mejor resultado.
Actualmente, es muy frecuente el empleo de una técnica mixta entre la división y
la fusión (split & merge) que parte de una división previa de la imagen a partir de la
cual se inicia un proceso de fusión de regiones que satisfagan un cierto criterio de
homogeneidad y de división de regiones en las que se sobrepase un determinado
umbral de varianza. El proceso continua hasta que todas las regiones cumplan el
criterio preimpuesto y no sea posible la realización de más divisiones o fusiones.
Consiste en una primera fase de división de la imagen en porciones que cumplan un
determinado criterio de homogeneidad, lo que habitualmente se realiza mediante la
subdivisión de las áreas en porciones en función de la varianza encontrada en las
mismas. La ventaja fundamental de este método es que es considerablemente más
rápido que la aplicación de los algoritmos de división y de fusión de forma
independiente (Zamperoni, 1991).

6.6.2.4 Extracción polimórfica de elementos


La representación simbólica de la imagen mediante la extracción de elementos
(puntos, líneas, regiones) de una forma individualizada no es una tarea simple, debido
a que la aplicación de diferentes técnicas para cada tipo de elementos puede dar lugar
a que los elementos extraídos sean incoherentes entre sí, con el problema añadido de
necesitar la implementación de diversas técnicas y el control de diversos parámetros.
La solución de este problema pasa por la extracción simultánea de todos los
elementos así como de sus relaciones mutuas mediante la aplicación de las técnicas de
extracción polimórfica de elementos desarrolladas en el Instituto de Fotogrametría de
la Universidad de Bonn (Fuchs,1998).
El proceso se aplica en tres fases bien diferenciadas:
1. preprocesamiento de la imagen de entrada para la eliminación del ruido
(Brügelmann y Förstner, 1993) y de restauración de las imágenes (Weidner,
1994).
2. extracción simultánea de elementos (puntos, líneas y regiones), que
comprende a su vez tres etapas:
366  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

2.1. clasificación de los píxeles en uno de los tres tipos de elementos a


extraer.
2.2. localización de los elementos dentro de los elementos de tipo región.
2.3. aproximación de las líneas y límites de regiones mediante la
aplicación de funciones analíticas
3. determinación de las relaciones entre los diferentes elementos extraídos, que
se resumen en la construcción del gráfico de relaciones entre elementos
(FAG, feature adjacency graph).
Para más detalles acerca de esta técnica de extracción simultánea se recomienda la
consulta de la página web http://www.ipb.uni-bonn.de/ipb/projects/fex/fex.html.

6.6.3 Técnicas de matching a nivel de elementos


Las numerosas aplicaciones que presenta el matching a nivel de elementos da
lugar a la existencia de diferentes técnicas, en especial, si se tiene en cuenta que en la
mayoría de los casos se tratan de técnicas muy específicas desarrolladas para
solventar problemas específicos. Las técnicas más frecuentemente empleadas son:
- agrupación de orientaciones (pose clustering)
Es una herramienta muy potente para la localización de objetos en el caso de que
sólo sea necesario la estimación de pocos parámetros o bien cuando el número de
elementos extraídos Afalsos@ sea muy elevado (Stockman,1987; Stockman et al.,
1982).
- estimación robusta (robust estimation)
Es una técnica que proporciona muy buenos resultados en el caso de que se
dispongan de buenas aproximaciones iniciales para los parámetros de la
transformación (Förstner, 1986).
- matching de cadenas (string matching)
Es una técnica que se aplica en el caso de que la descripción simbólica de la
imagen esté compuesta por una lista ordenada de elementos.
- matching relacional (relational matching)
Es el método más general para el establecimiento de correspondencia entre las
descripciones pudiendo utilizar cualquier tipo de elementos y relaciones (Boyer y
Kak, 1988; Price y Huertas, 1992; Vosselman, 1992).

6.6.3.1 Agrupación de orientaciones


Este método puede ser aplicado para la determinación de los parámetros de
transformación entre dos imágenes o entre una imagen y un objeto. El fundamento de
este método es combinar cada elemento de la imagen con cada uno de los elementos
de la otra imagen (u objeto) determinando los parámetros de la transformación
geométrica y seleccionando el conjunto de parámetros que es más adecuado, en
función de los resultados globales obtenidos.
El método requiere disponer de una descripción simbólica de las imágenes de los
elementos puntuales existentes en la(s) imágen(es) (u objeto) que deben ser
FOTOGRAMETRÍA DIGITAL   367 

clasificados como nodos X, L, Y o T (fig.6.40) y supone que no existen diferencias


significativas entre las escalas de las imágenes siendo necesario tan sólo la
determinación de una traslación.

L
Y

Fig.6.40. Tipos de elementos puntuales de unión (nodos)

La medida de similitud simplemente indica que dos elementos (puntos) son


similares si y sólo si pertenecen al mismo tipo, esta medida es aplicada a todos los
pares (Pi,Pm) con Pi 0 PI y Pm 0 PM y tipoi=tipoj de forma que se obtiene:
uim = ri - pm vim = ci -qm
Los resultados de la comparación de cada uno de los elementos se representan en
un gráfico, determinándose los valores finales de los parámetros de la transformación
geométrica como los valores más probables obtenidos (fig.6.41).

* *
(u ,v )

-L u L

Fig.6.41. Representación de los desplazamientos obtenidos para las


diferentes parejas de elementos entre imágenes o entre imagen y objeto

Este método presenta importantes analogías con el método de correlación cruzada


por lo que comparte en buena medida sus ventajas e inconvenientes. El problema
fundamental del método es la necesidad de disponer de medidas de similitud
adecuadas y asegurar que se cumpla el modelo geométrico predefinido. Otro
problema de este método es el elevado tiempo de cálculo que requiere que será
368  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

función del número de elementos que intervengan en el matching (n2p, siendo n el


número de elementos y p el número de parámetros a determinar).
El método debe ser aplicado en el caso de que:
- el número de incógnitas sea pequeño
- las imágenes tengan un nivel de ruido alto o la calidad de los elementos
extraídos no sea buena (alta presencia de elementos Afalsos@)
- sean posibles varias soluciones
Este método ha sido aplicado con éxito a la automatización de procesos de
orientación automática (Wolff, 1998).

6.6.3.2 Estimación robusta


El principio del método anterior es reemplazar el problema del matching por la
estimación de los parámetros de transformación. En el caso de necesitar la estimación
de un número importante de parámetros es necesario el disponer de herramientas que
permitan la determinación de la calidad de las fusiones, rechazando las parejas mal
correlacionadas.
Una solución muy adecuada para dicho proceso de control de calidad de los
resultados es la aplicación de los estimaciones robustos de máxima verosimilitud
(estimadores de tipo M) (Paderes et al, 1984; Förstner, 1986).
Las condiciones previas para la aplicación de este método son:
- El número relativo de parejas erróneas debe ser pequeño, cuando se
consideran los pesos individuales. El porcentaje de parejas erróneas puede
ascender al 80-90%, pero siempre que éstas reciban pesos bajos
- El tamaño de los errores no debe ser grande y en ningún caso exceder el
tamaño de observaciones
- Es necesario disponer de buenas aproximaciones iniciales. La calidad de las
aproximaciones acelera la convergencia
La estimación robusta mediante la utilización de estimadores tipo M ha sido
aplicada con éxito a la generación automática de modelos digitales del terreno (Wild,
1998), la orientación externa (Wolff, 1998), la aerotriangulación digital automática
(Krzystek, 1998) y para la detección automáticas de edificios (Brunn,1998).

6.6.3.3 Matching de cadenas


En muchos casos la descripción de un objeto viene dada como una lista ordenada
de elementos que necesita ser comparada con otra lista ordenada de elementos del
objeto de referencia.
Existen diversos ejemplos de este tipo de matching:
- la descripción de los límites de una figura plana, es decir, una polilínea que
contenga tramos rectos y curvos. La línea puede ser descrita como una serie
ordenada de -1, 0 y +1, en función del signo de curvatura.
FOTOGRAMETRÍA DIGITAL   369 

- matching a nivel de perfiles de intensidad, en los que se plantea la


correspondencia en función de la posición del píxel en el perfil (orden) y del
valor de intensidad o de gradiente.
- matching entre cadenas alfanuméricas a fin de establecer el parecido entre
dos palabras.
El aspecto fundamental del proceso consiste en la determinación de la similitud
entre las cadenas para lo cual se suele emplear el parámetro de la distancia
Levenshtein, que se obtiene como el número mínimo de la suma de elementos
eliminados, insertados y reemplazados:
D(s,t)= min (ne + ni + nr)
siendo: ne ... número de elementos eliminados
ni ... número de elementos insertados
nr ... número de elementos reemplazados
Así, por ejemplo, si se consideran la palabra de referencia fotografía y se intenta
buscar la correspondencia con las palabras: fotogrametría e información, se pueden
obtener las siguientes combinaciones y distancias:
F O T OG RAF IA F O T OG RAF IA

F O T OG RAM ET RIA I N F O R M A C I O N

Pareja: fotografia-fotogrametría
número de elementos eliminados: 3 (fotogrametría)
número de elementos insertados: 0
número de elementos reemplazados: 1 (f por m)
Distancia: 3+ 0 + 1 = 4
Pareja: fotografía-información
número de elementos eliminados: 4 (información)
número de elementos insertados: 3 (fotografía)
número de elementos reemplazados: 2 (f por c, a por n)
Distancia: 4 + 3 + 2 = 9
Por tanto, se considera que es mejor la similitud entre las palabras fotografía y
fotogrametría, que entre fotografía e información.
Este tipo de matching ha sido utilizado para la correspondencia de imágenes que
presentan un número elevado de discontinuidades (Baker y Binford, 1982; Ohta y
Kanade, 1987).

6.6.3.4 Matching relacional


El matching relacional es la técnica de matching a nivel de elementos más potente,
trabaja a partir de la descripción simbólica de los elementos (incluyendo las
relaciones entre los mismos).
El método parte de una imagen segmentada (fig.6.42) sobre la que se produce una
primera Ainterpretación@ de la imagen. Así, por ejemplo, sobre la imagen segmentada
que aparece en la parte izquierda de la figura 6.42 (evidemente simplificada) se puede
370  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

proceder a la clasificación de las diferentes clases aparecidas (Tabla 6.8). Esta


clasificación se compara a fin de establecer la correspondencia entre el objeto y las
clases obtenidas de la segmentación con una base de datos que contiene información
acerca de las clases posibles y de sus atributos y relaciones (Tabla 6.9, Tabla 6.10).

contiene
a b a b azul
rojo
sobre

c c rojo
sobre
sobre sobre

d e blanco d e blanco

sobre
g g sobre
amarillo

f dentro f verde

Fig.6.42. Izq: Imagen segmentada; Der: Características y relaciones entre los elementos extraídos
Tabla 6.8. Elementos extraídos (regiones), atributos y relaciones
Elem Color Forma a b c d e f G
a rojo irregul
b azul irregul contiene sobre sobre
c rojo irregul
d blanco irregul sobre sobre sobre
e blanco irregul izquierda sobre
f verde irregul
g Amarillo irregul dentro

Tabla 6.9. Atributos posibles en las clases definidas según el objeto


Clase Color posible Forma posible
sol amarillo, naranja, rojo, blanco circulo,redondeado, parcial redond,irregular
cielo azul, gris, negro, blanco irregular
tejado rojo, marrón, gris, blanco, verde, negro paralelas,rectangular,triáng,polilgonal,irregular
pared blanco, gris, marrón, negro, rosa,... paralelas,rectangular,penta,poligonal,irregular
coche cualquiera redondeada,ovalada
terreno marrón, gris, blanco, verde Irregular

Tabla 6.10. Posibles relaciones de vecindad entre los atributos


Sol cielo tejado pared coche Terreno
sol No en,debajo sobre,izq,der sobre,izq,der sobre sobre
cielo contiene,sobre sobre sobre sobre sobre
tejado debajo,izq,der debajo vecino,izq,der sobre cualq sobre
pared debajo debajo debajo cualq,izq,der cualq sobre
coche debajo debajo cualquiera frente,detrás,izq,der cualq sobre,en
terreno Debajo debajo debajo debajo Cierra

Los atributos de forma posibles son:


circular, redondeado, parcialmente redondeado, irregular, paralelas,
rectángulo, triángular, pentágono, polígonal, ovalada.
Los atributos de relación son:
FOTOGRAMETRÍA DIGITAL   371 

no, dentro, sobre, debajo, a la izquierda de, a la derecha de, contiene a, vecino
de, cualquiera, enfrente de, detrás de, cierra a
Utilizando esta información se puede establecer la siguiente correspondencia: a
(sol), b(cielo), c(tejado), d(pared), e(pared), f(suelo), g(coche).
Evidentemente, esta correspondencia no es sencilla de establecer en especial en el
caso de tratar con imágenes reales, siendo fundamental el contar con una buena base
de datos así como algoritmos de correspondencia optimizados. Los algoritmos más
frecuentes son:
- relajación discreta (Price,1985; Hummel y Zucker,1983)
- búsqueda jerárquica (búsqueda de árbol) (Shapiro y Haralick, 1987)
El método más sencillo es el de la búsqueda jerárquica. En este algoritmo el
problema de correspondencia se establece en un árbol que consta de nodos y bordes
(Nilsson,1971). Cada nodo se debe entender como una relación posible entre una
característica de un elemento P1 y una característica de un elemento P2. Los bordes
representan las relaciones entre diferentes nodos. El proceso comienza con el nodo
principal, que representa el problema inicial, y cada camino desde el nodo inicial a los
nodos de los extremos representa posibles relaciones entre los atributos. La
profundidad del árbol es igual al número de primitivas en la lista P1.
La forma más frecuentemente empleada para la búsqueda es del tipo sistemático
(búsqueda ciega), si bien por el elevado esfuerzo de cálculo necesario es habitual la
introducción de la información adicional disponible lo que agiliza los cálculos y
mejora las soluciones. Debido a la complejidad de la búsqueda jerárquica este método
sólo se aplica a conjuntos de datos dispersos, como, por ejemplo, las descripciones
simbólicas de alto nivel, así Vosselman (1992, 1994) aplica este método al
reconocimiento y localización de objetos cuando no existe información disponible.
En la figura 6.43 se presenta un ejemplo de búsqueda jerárquica ciega construida
con las clases extraídas de la figura 6.42 P1={a,b,c,d,e,f,g} y
P2={sol,cielo,tejado,pared, coche,terreno}. La solución proporcionada es
{(a,sol),(b,cielo),(c,pared),(d,tejado), (e,pared),(f,terreno),(g,coche)} alcanzada tras 19
intentos (si bien este número es muy dependiente del orden inicial ya que con otras
combinaciones iniciales, la cifra se puede elevar a 25, si bien es importante indicar
que se alcanza la misma solución).
Este método es especialmente recomendable cuando se trabaja con imágenes que
tengan distorsiones importantes debido a que la correspondencia se establece entre las
descripciones de los elementos, reduciendo el efecto de las distorsiones. Presenta
además la ventaja de utilizar medidas de similitud a nivel global, por lo que no
requiere disponer de aproximaciones iniciales. No obstante, debido al problema del
elevado tiempo de cálculo es necesario, en la mayor parte de los casos, la reducción
del espacio de búsqueda mediante la introducción de restricciones geométricas o bien
mediante la introducción de información adicional referente a las condiciones de las
tomas de las imágenes.
372  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 
a sol

b cielo

c cielo tejado pared

d tejado terreno tejado terreno tejado

e cielo tejado pared

g sol coche

f tejado terreno tejado terreno


Fig.6.43. Árbol de búsqueda correspondiente a las clases extraídas de la imagen de la figura 6.42

6.7 PROBLEMAS ASOCIADOS CON EL STEREO MATCHING


a) Problemas fotométricos (radiométricos)
- Relacionados con la resolución debido a las condiciones atmosféricas y la
calidad de la óptica de la cámara (especialmente en las zonas de esquina).
Las imágenes correspondientes tendrán diferentes formas.
- Relacionados con la reflectancia, en especial cuando se fotografían masas
de agua.
- Relacionados con la iluminación, como el diferente ángulo de iluminación
por el sol y la aparición de nubes que oculten zonas o bien produzcan
sombras en la fotografía.
- La existencia de elementos de tamaño inferior al píxel y que modifiquen el
valor digital del mismo sin poder ser detectados en la imagen digital (Horn,
1983).
- Diferencias en cuanto a las condiciones de toma de las fotografías
analógicas.
- Problemas relacionados con el procesado de la película, como puede ser
aparición de líneas o puntos, debido a manipulaciones incorrectas o a los
productos químicos.
- Problemas derivados del proceso de digitalización de la fotografía analógica
(saturación del sensor, rango dinámico del sensor, Y).
b) Problemas geométricos
- El desplazamiento por el relieve produce el ocultamiento de elementos del
objeto a reconocer.
- Cambios de escala en el fotograma debido a variaciones en la distancia
entre el elemento y la cámara.
- Relación base/altura, a menor relación base/altura las distorsiones
geométricas son menores pero existen problemas en la determinación de la
altura de los elementos y viceversa.
FOTOGRAMETRÍA DIGITAL   373 

c) Problemas texturales
- La ausencia de elementos característicos del objeto que dificulten la
identificación del mismo, o bien el tamaño del objeto que produzca que sus
limites queden fuera de la zona del modelo.
- La existencia de elementos que se repiten en la imagen como, por ejemplo,
postes telefónicos o de luz, marcas viales, campos cultivados, Y).
- La existencia de superficies colgadas, como por ejemplo, intersecciones a
distinto nivel de vías de comunicación.
- Objetos de tamaño igual a un píxel que son complejos de detectar en la
fotografía.
- La existencia de niveles ambiguos como por ejemplo la cima de los árboles
y el terreno que está bajo ellos.

6.8 DISEÑO DE UN SISTEMA DE MATCHING


Cuando se aborda el diseño de un sistema de matching es importante tener en
cuenta que sólo existe un sistema de identificación de puntos homólogos capaz de
solventar todos los problemas que se indican en el apartado anterior, el ojo humano.
Un operador experimentado puede llegar a realizar la identificación de los puntos
incluso en condiciones muy adversas, por tanto, en el diseño del sistema automático el
planteamiento más lógico sería el de repetir las tareas realizadas por un operador.
El punto de partida clásico es considerar lo que conocemos de la visión y la
percepción humana y aplicarla al sistema automático. Esta incorporación debe
realizarse de una forma flexible para permitir modificaciones posteriores del sistema.
El aspecto fundamental de la visión humana para la identificación de los límites es la
detección de los bordes para la comprensión de las imágenes y el reconocimiento de
los objetos, así Attneave (1954) indica como únicamente con un boceto (un conjunto
de líneas que definen las formas de los objetos) se puede realizar la identificación de
los objetos. Desde este punto de vista, el procesamiento de matrices de niveles de gris
de una imagen digital durante el proceso de stereo matching conlleva la manipulación
de un volumen de información en muchos casos innecesaria, puesto que para la
determinación de las formas bastaría con la definición de los límites.
El operador humano sigue para la interpretación una estrategia de grado de detalle
progresivo, de forma que inicialmente analiza el aspecto global de la fotografía y
posteriormente, va analizando los detalles. Así cuando se realiza una orientación
relativa mediante operador se suelen seguir los siguientes pasos: a) se observan los
dos fotogramas (antes de colocarlos en el restituidor) de forma que se obtiene
información de la relación existente entre ambas fotografías; b) identificación al
menor nivel de aumento posible de los elementos más característicos del fotograma
(edificios, intersecciones, Y) y c) aumentando el nivel de aumento realizar la
identificación de detalle de los puntos homólogos.
Por último, el ojo humano utiliza el conocimiento para resolver los problemas
complejos implícitos en la interpretación de imágenes complejas. Es importante tener
en cuenta que el proceso de visión estereoscópica en sí no es proceso inteligente, la
inteligencia sólo es necesaria para la resolución de los problemas de interpretación de
374  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

la imagen, por tanto es necesaria la introducción en el sistema de orientación


automática de una base de datos que proporciona la información necesaria para
interpretar los casos conflictivos de una forma similar a la que procedería un
operador, con la ventaja adicional que el sistema automático la aplicaría de una forma
objetiva. La introducción de esta base de datos constituye una de los pasos más
complejos de la automatización del proceso fotogramétrico.
Teniendo en cuenta las consideraciones anteriormente expuestas se puede elaborar
el esquema general de un sistema de stereo matching (fig.6.44).

ADQUISICIÓN DE LA IMAGEN

Geométrico

PREPROCESAMIENTO
DE LA IMAGEN

Radiométrico

EXTRACCION DE ELEMENTOS
A FUSIONAR

REPRESENTACION SIMBÓLICA

FUSION DE ELEMENTOS
(MATCHING)

Correlación

SISTEMA
CENTRAL Operadores de interés
INTERFACE USUARIO
DE
CONTROL

Interpolación

PRODUCTOS
FOTOGRAMETRICOS

Determinación de Puntos Mapas MDT Ortofotos Fotointerpretación


(Puntos) (Líneas) (Superficies) (Imágenes) (Información)

Fig.6.44. Esquema general de un sistema de stereo-matching (tomado de Greenfeld, 1991)


FOTOGRAMETRÍA DIGITAL   375 

ANEXO 6.1. OBTENCIÓN DE IMÁGENES NORMALIZADAS.


La mayor parte de los algoritmos de visión computerizada y fotogrametría digital
se basan en la hipótesis de que el par estéreo de imágenes se ha tomado según una
geometría de imágenes normalizadas. Es decir, que las líneas de barrido del par son
líneas epipolares. Esta condición se cumple cuando los dos ejes de la cámara de un
sistema estereoscópico son paralelas entre sí y perpendiculares a la base.
Kreiling (1976) describe un método para recuperar la geometría epipolar a partir
de los parámetros de la orientación relativa independiente. La geometría sólo se
recupera con respecto al espacio modelo. No obstante, en numerosas ocasiones el
interés de la transformación se centra en el hecho de que la geometría epipolar se
mantenga en el espacio objeto. Schenk (1990) propone el procedimiento para obtener
imágenes normalizadas remuestreadas con los elementos de orientación externa tras la
orientación absoluta.
Se denomina imagen normalizada a aquella imagen construida con geometría
epipolar en el espacio objeto, frente al concepto de imagen real que será aquella
tomada en el momento de la exposición. La imagen que es paralela al plano XY del
espacio objeto recibe el nombre de imagen verdaderamente vertical (fig.A.6.1).

Geometría Epipolar
En la figura A6.2 se presenta un par estereoscópico con geometría epipolar siendo
C= y C=> sus centros de proyección. El plano epipolar es definido por los dos centros
de proyección y el punto objeto P. Las líneas epipolares e= y e=> se definen de la
intersección del plano epipolar y los planos de las imágenes.
En la mayoría de los casos, los dos ejes de toma de las fotografías no son paralelos
ni perpendiculares a la base aérea (C=C=>), entonces es necesario la transformación de
las imágenes a una posición en las que las líneas epipolares conjugadas sean paralelas
al eje x del sistema de coordenadas imagen, es decir, que tengan la misma coordenada
Y. Las imágenes normalizadas deben ser paralelas a la base aérea y deben tener la
misma distancia focal.

Cálculo de la Imagen Normalizada


a) Calibración de la cámara
Las imágenes digitales pueden ser obtenidas directamente a partir de cámaras
digitales, o indirectamente mediante la utilización de imágenes analógicas y la
digitalización mediante un escáner. En ambos casos, el sistema de captación (cámara
o escáner) debe ser calibrado para conocer básicamente las dos fuentes de distorsión
(distorsión de la lente, errores de la cámara digital) (Chen y Schenk, 1992). Con la
calibración de la cámara se obtiene una imagen digital libre de distorsión (imagen
píxel).
376  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

columna columna

fila

fila
columna columna
fila

fila

columna columna
fila

fila

Fig.A6.1. Relación de las imágenes. Arriba: Par estereoscópico; Centro: Imágenes normalizadas a partir de
los parámetros de orientación externa; Abajo: Corrección de los errores de la cámara (distorsión radial), de
los errores debidos a la refracción atmosférica y a los errores del escáner
FOTOGRAMETRÍA DIGITAL   377 

C’

C”

P’ e’

e” P”

C’
P

C”
P’
e’

e” P”

P
Fig.A6.2. Sup: Par estereoscópico en su posición original. Inf: Transformada normalizada
en la que las filas de ambas imágenes coinciden con las líneas epipolares (Schenk, 1999)

b) Transformación de la imagen píxel a la imagen normalizada


La imagen normalizada es una imagen píxel en geometría epipolar referida al
espacio objeto. Los elementos de orientación externa son tres ángulos de rotación y la
localización del punto de vista en el sistema de coordenadas del espacio objeto. La
relación que se establece se basa en la ecuación de colinearidad.
r11 (X − X o ) + r12 (Y − Yo ) + r13 (Z − Zo )
x p = −f p
r31(X − X o ) + r32 (Y − Yo ) + r33 (Z − Zo )

r21 (X − X o ) + r22 (Y − Yo ) + r23 (Z − Zo )


y p = −f p
r31(X − X o ) + r32 (Y − Yo ) + r33 (Z − Zo )

donde xp,yp son las coordenadas imagen, fp la distancia focal, r11Yr33 son los
elementos de la matriz ortogonal de rotación R que define la orientación de la cámara
378  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

y Xo,Yo,Zo son las coordenadas del punto de vista y X,Y,Z las coordenadas de los
puntos objeto.
Los elementos de la matriz de rotación son obtenidos mediante las siguientes
expresiones:
m11 = cosϕ cosκ
m12 = cosω senκ + senω senϕ cosκ
m13 = senω senκ - cosω senϕ senκ
m21 = -cosϕ senκ
m22 = cosω cosκ - senω senϕ senκ
m23 = senω cosκ + cosω senϕ senκ
m31 = senϕ
m32 = -senω senϕ
m33 = cosω cosϕ
La transformación se realiza en dos pasos, en primer lugar se pasa de la imagen
original (imagen píxel) a la imagen verdaderamente vertical y posteriormente esta
imagen es normalizada. En la figura A6.3 se muestra la relación entre imagen píxel e
imagen normalizada.
C'' (X'',Y'',Z'')

C'(X',Y',Z')
Κ P''
Φ
Bz By
Bx
P'

f N''

f N' A''
A'

Z
N''

N'

X
Fig.A6.3. Relación entre imagen píxel e imagen normalizada (Cho y Schenk, 1992)
FOTOGRAMETRÍA DIGITAL   379 

La primera transformación (imagen píxel a imagen verdaderamente vertical)


consiste simplemente en una rotación con RT, siendo R la matriz ortogonal de
rotación.
La segunda transformación (imagen verdaderamente vertical a imagen
normalizada, consiste en la realización de los tres giros (κ sobre el eje Z, n sobre el
eje Y y ω sobre el eje X). Los ángulos de rotación κ, n pueden ser obtenidos a partir
de las componentes de la base Bx, By, Bz y ω a partir de los ángulos de orientación
externa.
By Bz ω'+ω"
Κ = arctan Φ = − arctan Ω=
Bx 2
Bx + By 2 2

donde BX = X@-X=; BY = Y@- Y=; BZ = Z@-Z=.


La matriz de rotación de la base será: RB = RΩRΦRκ, siendo:
⎛ cos Κ senΚ 0 ⎞ ⎛ cos Φ 0 − senΦ ⎞ ⎛1 0 0 ⎞
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
R K = ⎜ − senΚ cos Κ 0 ⎟ RΦ = ⎜ 0 1 0 ⎟ R Ω = ⎜ 0 cos Ω senΩ ⎟
⎜ 0 0 1 ⎟⎠ ⎜ senΦ 0 cos Φ ⎟ ⎜ 0 − senΩ cos Ω ⎟
⎝ ⎝ ⎠ ⎝ ⎠

La matriz de rotación de la base RB es una matriz combinada en la que la primera


rotación es sobre el eje Z, seguida por una rotación sobre el eje Y y eje X.
Dependiendo de la rotación sobre el eje X, existen diferentes imágenes.
La matriz de rotación normalizada RN es una multiplicación de dos matrices de
rotación: la rotación desde la imagen píxel a la posición verdaderamente vertical y la
rotación desde la posición verdaderamente vertical a la posición normalizada.
RN = RB RT
siendo RN la matriz de rotación normalizada (que transforma de imagen píxel a
imagen normalizada) y debe ser calculada para cada fotograma debido a que depende
de los elementos de orientación externa. Pueden utilizarse dos métodos para la
transformación de imagen píxel a imagen normalizada (condición de colinearidad y
transformación proyectiva).
a) Transformación mediante condición de colinearidad (fig.A6.4).
Las ecuaciones de la condiciones de colinearidad pueden ser utilizadas para la
transformación de la imagen píxel a la imagen normalizada.
r11x p + r12 y p − r13f p r21x p + r22 y p − r23f p
x N = −f N y N = −f N
r31x p + r32 y p − r33f p r31x p + r32 y p − r33f p

donde xN,yN son las coordenadas de la imagen normalizada, xo,yo son las
fotocoordenadas en la imagen original y r11...r33 son los elementos de la matriz de
rotación RN.
380  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

b) Transformación proyectiva
La transformación proyectiva puede ser aplicada debido a que la imagen píxel y la
imagen normalizada son dos planos.
c11x p + c12 y p + c13 c 21x p + c 22 y p + c 23
xN = yN =
c 31x p + c 32 y p + 1 c 31x p + c 32 y p + 1

Si se comparan ambos métodos se pueden plantear las siguientes equivalencias


entre los coeficientes:
f N r11 f N r12 f N r13
c11 = c12 = c13 = −
f P r33 f P r33 f P r33

f N r21 f N r22 f N r23


c 21 = c 22 = c 23 = −
f P r33 f P r33 f P r33

r31 r32
c 31 = c 32 =
f P r33 f P r33
Z

Y
f

f
Y

Fig.A6.4. Transformación de imagen píxel a imagen normalizada (Cho y Schenk, 1992)


FOTOGRAMETRÍA DIGITAL   381 

Cuando se realiza la transformación de la imagen píxel en imagen normalizada, el


teselado cuadrático de la imagen píxel da lugar a un teselado no cuadrático de la
imagen normalizada. Para evitar la realización de interpolaciones es recomendable la
proyección del teselado de la imagen normalizada de nuevo sobre la imagen píxel.
Los coeficientes de proyección inversa son obtenidos de la misma forma RNT si la
distancia focal es la misma (fP=fN).
c'11 = c11 c'12 =c 21 c'13 = c31f P f N

c'21 = c12 c'22 = c 22 c'32 = c32f P f N

1 1
c'31 = c13 c'32 = c23
f Pf N f Pf N

Para el caso general de diferentes focales (fP … fN), los coeficientes de proyección
inversa son obtenidos por la inversión de la matriz RN, debido a que RN-1 … RNT.
Tras la aplicación de la transformación geométrica, el problema es determinar que
valor de gris le corresponde a cada píxel debido a que la posición proyectada del píxel
no tiene porqué coincidir con la posición original del mismo ni con un valor entero.
Para el remuestreo se suelen emplear dos técnicas:
a) Vecino más próximo (interpolación de orden cero). El nivel digital será el
correspondiente al píxel transformado más próximo. Es un método muy
simple pero que puede producir efectos no deseables.
b) Interpolación bilineal. Los niveles digitales de los 4 píxeles más cercanos
contribuyen en el cálculo del nivel digital final en función de la inversa de su
distancia.
En resumen se aplican cuatro transformaciones (fig.A6.5):
T1: Transformación entre la fotografía original (diapositiva) y la imagen digital
(imagen píxel). Los parámetros de transformación se determinan en el proceso de
calibración del sistema de captura (cámara o escáner). Las referencias empleadas son
las marcas fiduciales, los puntos de control o la cuadricula del formato (réseau).
T2: Transformación proyectiva entre la fotografía original y la fotografía normalizada.
T3: Definición del sistema de coordenadas para la imagen píxel en la geometría
epipolar (imagen normalizada) (fig.A.6.6). El origen de la imagen digital normalizada
se determina en función de la coordenada y máxima que determina la fila 0 para
ambas imágenes. La coordenada x mínima de ambas coordenadas define la columna
0. Para el cálculo del tamaño de la imagen digital normalizada se calcula de diferencia
máxima de coordenadas dmáx, tanto en la dirección x- como y-. A continuación se
puede elegir dos opciones:
- conservar el tamaño de píxel original, p, y calcular el número de píxeles r
mediante r = dmáx / p.
- conservar el número de píxeles original y calcular el nuevo tamaño de píxel
mediante p = dmáx / r.
382  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

ANTES DE LA ORIENTACIÓN DESPUES DE LA ORIENTACIÓN


Y
Y
1 1 2
2
T2
X
X
3
3 4
4
Fotografía
Original Fotografía
Orientada
T1 T3

1 col
1
col
2

2
T4 3

3 4 4
fila fila
Imagen Digital Imagen Digital Normalizada
(Fotografía original)

Fig.A6.5. Relación entre fotografía y imagen píxel, en posición real y normalizada (Cho y Schenk, 1992)

columna P2 columna
P2 P3 y
y P3

x
x

dm áx
P1 P4 P1
P4
fila

fila

fila columna
Fig.A6.6. Determinación del tamaño de la imagen normalizada (Schenk,1999)

T4: Transformación de la imagen normalizada para realizar el remuestreo. El


resultado será la imagen normalizada en geometría epipolar (fig.A6.7).
El proceso total consta de 6 etapas:
- Orientación interna que determina la función de transformación T1, que
establece la relación entre el sistema de coordenadas píxel y el sistema de
fotocoordenadas.
FOTOGRAMETRÍA DIGITAL   383 

- Con la función de transformación T1 se calcula la posición de los puntos de


las esquinas P1, ... , P4 en el sistema de fotocoordenadas.
- Calcular las imágenes normalizadas en el sistema de fotocoordenadas.
- Determinar la coordenada y mínima y la coordenada x mínima de los puntos
de las esquinas. Esto define el origen de las imágenes digitales normalizadas.
- Determinar la diferencia de coordenadas máxima dmáx entre los puntos de las
esquinas para determinar el tamaño (número de píxeles) o el tamaño de píxel
de la imagen digital normalizada.
- Remuestrear la imagen digital normalizada mediante la aplicación de la
función de transformación T4, que se puede calcular mediante una
transformación perspectiva entre las dos imágenes utilizando los puntos de las
esquinas.

Fig.A6.7. Imágenes originales (sup.) y normalizadas (inf.)


(resolución del original 512x512 píxeles). (Cho y Schenk, 1992)
384  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

REFERENCIAS BIBLIOGRÁFICAS
Ackermann,F. (1984). Digital Image Correlation: Perfomance and Potential Application in
Photogrammetry. Photogrammetric Record, 11 (64), 429-439.
Attneave, F. (1954). Some Information Aspects of Visual Perception. Psycological Review, 61, 183-193.
Baker, H.H. y Binford, T.O. (1982). Depth from Edges and Intensity Based Stereo. En: International Joint
Conference on Artificial Intelligence, Vancouver, Canada, 631-636.
Ballard,D.H. (1981). Generalizing the Hough transform to detect arbitrary shapes. Pattern Recognition,
13(2), 111-222.
Ballard,D.H. y Brown,C.M. (1982). Computer Vision, Prentice-Hall, Englewoods Cliffs, New Jersey.
Bernstein, R. (1973). Scene Correction (Precision Processing) of ERTS Sensor Data using Digital Image
Processing Techniques, Proc. of the 3rd ERTS Symposium, vol. 1-A, NASA, SP-351.
Bethel,J. (1986). The DSR11 image correlator. Proc. ACSM/ASPRS Annual Convention, 4, 44-49.
Boyer, K.L. y Kak, A.C. (1988). Structural Stereopsis for 3-D Vision. IEEE Transactions on Pattern
Analysis and Machine Intelligence, 10(2), 144-166.
Brügelmann, R. y Förstner, W. (1992). Noise Estimation for Color Edge Extraction. En: Förstner,W. y
Ruwiedel, S. (eds). Robust Computer Vision, Wichmann, Karlsruhe, 90-107.
Brunn, A. (1998). Techniques for Automatic Building Extraction. Proc. 3rd Course on Digital
Photogrammetry. Landesvermessungsamt Nordrhein-Westfalen, Institute of Photogrammetry Univ of
Bonn, 9-13 Febrero.
Burkhardt,H. y Moll, H. (1979). A modified Newton-Raphson Search for the Model-Adaptative
Identification of Delays. Proc. of the IFAC Symposium on the Identification and System Parameter
Estimation, Darmstadt, Alemania, 1279-86.
Canny,J.F. (1983). Finding Edge and Lines in Images. Technical Report 720, Massachusettes Institute of
Technology, Artifical Laboratory, Massachusettes, USA.
Canny,J.F. (1986). A Computational Approach to Edge Detection. IEEE Transactions on Pattern Analysis
and Machine Intelligence PAMI-8, 6, 679-698.
Chen, Y. y Schenk, T. (1992). A rigorous calibration method for digital camera. IAPRS, 29(B1),199-205.
Cho, W.; Schenk, T. y Madani, M. (1992). Resampling digital imagery to epipolar geometry. IAPRS,
29(B3),404-408.
Dreschler,L. (1981). Ermittlung markanter Punkte auf den Bildern bewegter Objekte und Berechnung einer
3-D Beschreibung auf dieser Grundlage. Ph.D. Thesis, Universität Hamburg, Fachbereich Informatik.
Förstner,W. (1982). On the Precision of Digital Correlation. IAPRS, 24(3), 176-189. Helsinki.
Förstner,W. (1986). A Feature Based Correspondence Algorithm for Image Matching. IAPRS, 26(3/3),
150-166. Rovaniemi.
Förstner,W. (1993). Matching Techniques. En: Haralick, R.M. y Shapiro, L. (eds) Computer and Robot
Vision. Addison-Wesley, 289-378.
Förstner,W. y Gülch,E. (1987). A Fast Operator for Detection and Precise Location of Distinct Points,
Corners and Circular Features. En: Intercommission Conference on Fast Processing of Photogrammetric
Data, 281-305.
Fuchs,C. (1998). Extraktion polymorpher Bildstrukturen und ihre topologische und geometrische
Gruppierung. Ph.D. Thesis, Universität Bonn.
Gopfert, W.M. (1980). Image Correlation and Change Detection. 14th ISPRS Congress, Comm.3 (WG2),
246-255. Hamburg.
Greenfeld,J.S. (1991). An Operator-Based Matching System. PE&RS, 57(8), 1049-1055.
Grimson,W.E.L. (1981). Theory of Stereo Human Vision. Phil.Tras.Royal Soc of London, B292, 217-253.
Grün,A. (1985). Adaptative Least Squares Correlation: a Powerful Image Matching Technique. South
Africa Journal of Photogrammetry, Remote Sensing and Cartography, 14(3), 175-187.
Gyer,M. (1981). Automated stereo photogrammetric terrain elevation extraction. Tech.Report, Gyer and
Saliba, Inc.
Hahn,M. (1994). Bildsequenzanalyse fûr die passive Navigation. Ph.D. thesis, Institu t für
Photogrammetrie, Universität Stuttgart.
Hannah, M.J. (1974). Computer Matching of Areas in Stereo Images. Ph.D. Thesis, Stanford University,
Report STAN-CS-74-483, Stanford, California.
Helava,U.V. (1976). Digital Correlation in Photogrammetric Instruments. IAPRS, 23(2),Helsinki.
Helava,U.V. (1978). Digital Correlation in Photogrammetric Instruments. Photogrammetria, 34, 19-41.
Helava,U.V. (1988). Object Space Least Squares Correlation. Proc. ACSM-ASPRS Annual Convention,
St.Louis, Missouri, 3, 46-55.
FOTOGRAMETRÍA DIGITAL   385 

Hobrough,G.(1978). Digital on-line correlation. Bildmessung und Luftbildwesen, 46(3),79-86.


Horn, B.K.P. (1983). Noncorrelation methods for stereo matching. PE&RS, 49(4), 535-536.
Huang,T.S. (1981). Image Sequence Analysis. Springer-Verlag, New York.
Hummel, R. y Zucker, S. (1983). On the foundations of relaxations labeling processes. IEEE Transactions
on Pattern Analysis and Machine Intelligence, 5, 267-287.
Jähne, B. (1989). Digitale Bildverarbeitung. Springer-Verlag.
Keating, T.J.; Wolf,P.R. y Scarpace, F.L. (1975). An Improved Method of Digital Image Correlation.
Photogrammetric Engineering, 41(8), 993-1002.
Koch,K.R. (1988). Parameter estimation and hypothesis testing in linear models. Springer.
Konecny,G. y Pape,D. (1981). Correlation Techniques and Devices. PE&RS, 47(3), 323-333.
Kreiking, W. (1976). Automatische Herstellung von Höhenmodellen und Orthophotos aus Stereobildern
durch digitale Korrelation. Dissertation TU Karlsruhe.
Krupnik,A. y Schenk,T. (1994). Prediciting the reability of matched points. Proc. ACSM/ASPRS Annual
Convention, 1, 337-343.
Krzystek, P. (1998). Automatic Aerial Triangulation. Proc. 3rd Course on Digital Photogrammetry.
Landesvermessungsamt Nordrhein-Westfalen, Institute of Photogrammetry Univ of Bonn, 9-13 Febrero.
Lang, F. y Förstner, W. (1995). Matching Techniques. Proc. 2nd Course on Digital Photogrammetry.
Landesvermessungsamt Nordrhein-Westfalen / Institute of Photogrammetry Univ of Bonn, 9-13
Febrero.
Li, J.C. y Schenk,T. (1990). Aerial Image Matching using ψ-s representation. Technical Notes
Photogrammetry, n.4, Department of Geodetic Science and Surveying, Ohio State University.
Marr,D. y Hildreth,E.C. (1980). A Theory of Edge Detection. Phil. Trans. Royal Society of London, B207,
187-217.
Mitchell, H.L. y Pilgrim, L.J. (1987). Selection of an Image Correlation Algorithm. Conference on Close
Range Photogrammetry. University of Melbourne.
Moravec,H.P. (1977). Toward Automatic Visual Obstacle Avoidance. Proc. International Joint Conference
Artifical Intelligence.
Nalwa, V.S. (1993). A Guided Tour of Computer Vision. Addison Wesley, 1993.
Nilsson,N.J. (1971). Problem - solving in Artificial Intelligence. Ed. Mac Graw-Hill. Nueva York.
Ohta, Y. y Kanade, T. (1987). Stereo by Intra- and Inter-Scanline Search Using Dynamic Programming.
IEEE Transactions on Patterns Analysis and Machine Intelligence, PAMI-7: 139-154.
Paderes,F.C.; Mikhail, E.M. y Förstner,W. (1984). Rectification of Single and Multiple Frames of Satellite
Scanner Imagery using Points and Edges as Control. NASA Symposium on Mathematical Pattern
Recognition and Image Analysis.
Panton,D.J. (1978). A Flexible Approach to Digital Stereo Mapping. Proc. of the DTM Symposium,
American Society of Photogrammetry, St Louis, 32-60.
Pertl,A. (1984). Digital Image Correlation with the Analytical Plotter Planicomp C100. IAPRS, 25(A3a),
Rio de Janeiro.
Pertl,A. (1985). Digital Image Correlation with an Analytical Plotter. Photogrammetria, 40, 9-19.
Price, K. (1985). Relaxation Matching Techniques - A Comparison. IEEE Transactions on Pattern Analysis
and Machine Intelligence. PAMI-7, 617-623.
Price, K. y Huertas, A. (1992). Using Perceptual Grouping to detect Objects in Aerial Scenes. IAPRS,
29(B3), 842-855.
Rosenfeld, A. y Kak, A.C. (1982). Digital Image Processing. vol. 2. Academic Press.
Rosenholm, D. (1978). Multipoint matching using least squares technique for elevation of three
dimensional models. PE&RS, 53(6), 621-626.
Schenk,T. (1990). Computation of epipolar geometry. Technical Notes in Photogrammetry n.5, Dept. of
Geodetic Science and Surveying. The Ohio State University.
Schenk,T. (1999). Digital Photogrammetry. vol. I, TerraScience, Laurelville, Ohio, 428 p.
Shapiro, L.G. y Haralick, R.M. (1987). Relational Matching. Applied Optics, 26, 1845-1851.
Stockman, G.C. (1987). Object Recognition and Localization via Pose Clustering. Computer Vision,
Graphics and Image Processing, 40, 361-387.
Stockman, G.C.; Kopstein, S. y Bennett, S. (1982). Matching Images to Models for Image Registration and
Object Location via Pose Clustering. IEEE Transaction on Pattern Analysis and Machine Intelligence,
PAMI-4, 229-241.
Stokes, J. (1986). Are Phase Shift Methods suitable for Image Matching in Photogrammetry?
Photogrammetric Report, n.51, Department of Photogrammetry, Royal Institute of Photogrammetry,
Estocolmo, Suecia.
386  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

Vosselman, G. (1992). Relational Matching. Lecture Notes in Computer Science 628. Springer-Verlag.
Vosselman, G. (1994). On the use of Tree Search methods in Digital Photogrammetry. En: Ebner, Heipke,
Eder (eds.). ISPRS, vol. 30 (3/2), 886-893. SPIE.
Weidner, U. (1994). Parameterfree Information-Preserving Surface Restoration. En: Eklundh,J.O. (ed.)
Computer Vision. ECCV=94, vol. II, 218-224.
Wild, D. (1998). Automatic Generation of Digital Elevation Models. Proc. 3rd Course on Digital
Photogrammetry. Landesvermessungsamt Nordrhein-Westfalen / Institute of Photogrammetry
University of Bonn, 9-13 Febrero.
Wolff,K. (1998). Automatic Orientation Procedures. Proc. 3rd Course on Digital Photogrammetry.
Landesvermessungsamt Nordrhein-Westfalen / Institute of Photogrammetry University of Bonn, 9-13
Febrero.
Zamperoni, P. (1991). Methoden der Digitalen Bildsignalverarbeitung. Vieweg.
Zheng, Y.J. (1993). Inverse und schlecht gestelle probleme in der photogrammetrischen
objektrekonstruction. DGK-C 390.

IAPRS: International Archives of Photogrammetry and Remote Sensing


PE&RS: Photogrammetric Engineering & Remote Sensing
Capítulo 7. Automatización del Proceso de
Orientación Fotogramétrica

7.1 Introducción.
7.2 Automatización del proceso de Orientación Interna.
7.3 Automatización del proceso de Orientación Relativa.
7.4 Aerotriangulación Digital Automática.
7.5 Automatización del proceso de Orientación Absoluta.

7.1 INTRODUCCIÓN
La primera cuestión que cabe plantearse cuando se analiza la automatización de
un proceso son las necesidades reales de automatización así como las ventajas
derivadas de la misma. La orientación en los sistemas fotogramétricos analíticos
consta de una etapa de medida manual (con desplazamientos automatizados) y un
proceso de cálculo automatizado mediante la aplicación de programas informáticos
para el cálculo de los parámetros de la orientación. Este proceso puede ser
considerado como un proceso fiable y bastante rápido. Por tanto, sólo es justificable la
automatización de la orientación en el caso de que pueda ser realizar a mayor
velocidad, sin la participación directa de un operador (que se limitaría al análisis y
comprobación), siempre que se obtenga un grado de precisión similar a la de las
medidas manuales.
La importancia de la automatización del proceso de orientación de los fotogramas
radica en el hecho de que es el primer paso para la obtención de un sistema de
cartografía automatizado (Schenk, 1989; Schenk et al., 1991). En la figura 7.1 se
muestra el esquema conceptual de dicho sistema, que en base a la clasificación clásica
de la visión computerizada se divide en tres niveles: En cada nivel se procesa la
información de la imagen que será analizada e integrada en el siguiente nivel,
consiguiendo que aunque uno de los niveles no sea robusto su combinación si lo sea.

 
387 
388  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

IMAGENES ORIGINALES

Orientación

REMUESTREO EN GEOMETRIA EPIPOLAR

Detección de elementos Textura Análisis Multiespectral

ESPACIO OBJETO ORIGINAL

Agrupación Segmentación

ESPACIO OBJETO SEGMENTADO

Comprensión imagen Interpretación Reconocimiento Objetos

DESCRIPCIÓN GEOMÉTRICA Y SEMÁNTICA


DEL ESPACIO OBJETO

Fig.7.1. Esquema de un sistema de cartografía automática. (Schenk et al, 1991)

En este esquema de automatización la orientación de los fotogramas tiene tres


funciones: la primera consiste en establecer la relación entre el espacio imagen y el
espacio objeto. Después de haber determinado los parámetros de orientación, las
imágenes son remuestreadas a una geometría normalizada en función de las líneas
epipolares (ver Anexo 6.1) y, por último, proporciona una primera aproximación a la
superficie del terreno, mediante la identificación de numerosos (cientos) de puntos
homólogos bien distribuidos en el modelo (Schenk et al, 1990).
La orientación de los fotogramas se ha dividido clásicamente en tres procesos:
orientación interna, orientación relativa y orientación absoluta. En la actualidad, la
orientación interna utilizando la identificación de las marcas fiduciales en función del
tipo de cámara utilizado para la toma de la fotografía es un proceso totalmente
automatizado en la mayoría de los sistemas (Mayr,1993). La orientación relativa es un
proceso de gran importancia en el proceso fotogramétrico al ser básico para asegurar
la visión estereoscópica libre de paralaje y la transferencia de puntos, así como para el
remuestreo epipolar de las imágenes digitales, también se puede considerar
FOTOGRAMETRÍA DIGITAL   389 

automatizada. Y, por último, la orientación absoluta los sistemas automáticos en la


actualidad son escasos y sólo funcionan adecuadamente bajo ciertas condiciones
restrictivas (Haala y Vosselman, 1992; Schickler, 1992 y Gülch, 1994) debido a la
necesidad de la identificación de unos puntos concretos (puntos de apoyo): No
obstante, es importante tener en cuenta que la tendencia actual es a minimizar la
dependencia del proceso fotogramétrico del apoyo terrestre, mediante la
incorporación de sistemas GPS que permiten la identificación del punto de toma
(ASPRS,1993).

7.2. AUTOMATIZACIÓN DEL PROCESO DE ORIENTACIÓN INTERNA


El objetivo de la orientación interna es la obtención de la función de
transformación que relaciona los elementos medidos en la imagen digital (sistema de
coordenadas píxel -columna, fila-) con el sistema tridimensional de fotocoordenadas
(sistema de coordenadas imagen) que tiene su origen en el centro perspectivo
(fig.7.2).
z
y

centro perspectivo x

columna
p
f

PP P
PS
CF

fila

Fig.7.2. Sistema de coordenadas definidos en la imagen digital

El sistema de coordenadas imagen se utiliza como referencia para designar las


posiciones en el espacio imagen. Su origen se sitúa en el centro perspectivo. Las
marcas fiduciales de la diapositiva definen el centro fiducial (CF), mientras que la
posición del punto principal de autocolimación (PPA) se establece en el proceso de
calibración. El punto de mejor simetría, PS, es el origen de la distorsión radial. En
este sistema cada punto P de la imagen viene definido por el vector p.
xp
p = yp
−f

La transformación se establece entre dos planos, por lo que en la mayoría de los


casos se utilizan transformaciones de 6 parámetros, para asegurar la correcta
definición de los factores de escala en los ejes x e y, mediante una resolución de los
sistemas de ecuaciones establecidos entre la medida de las marcas fiduciales (4 u 8) y
390  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

las coordenadas calibradas de las mismas, proporcionando un sistema de 8 o 16


ecuaciones que se resuelve por mínimos cuadrados. Aunque en las cámaras de 8
marcas fiduciales cada vez es más frecuente el empleo de transformaciones de 8
parámetros.

7.2.1 Orientación Interna Interactiva


La orientación interna interactiva (orientación interna manual) que incorporan las
estaciones fotogramétricas digitales es similar al proceso seguido en los restituidores
analíticos. El sistema establece una primera aproximación que sitúa la marca de
medida en la proximidad de la primera marca fiducial para la medida precisa de la
misma. Tras la medida el cursor se desplaza a la siguiente marca, repitiéndose el
proceso hasta completar todas las medidas en todas las marcas. En la mayoría de los
casos, las medidas efectuadas se utilizan como información en el proceso de
aproximación a las marcas restantes, de forma que el ajuste cada vez es mejor.
Las diferencias más importantes con respecto a los sistemas analíticos vienen
marcadas por la ausencia de elementos óptico-mecánicos por lo que no es necesario el
desplazamiento mecánico agilizando el proceso y por la posibilidad de definir la
forma y tamaño del cursor lo que facilita el proceso de medida. Como inconvenientes
se puede indicar los problemas derivados de la discretización que se produce en el
proceso de digitalización que dificulta el proceso de localización de la marca.

7.2.2. Orientación Interna Autónoma


En la actualidad el proceso de orientación interna está automatizado al 100% de
forma que puede ser realizado sin la participación del operador (proceso autónomo).
El objetivo planteado ha sido el desarrollo de un proceso tipo Acaja-negra@ en la que la
participación del operador no sea necesaria, esto conlleva un esfuerzo de desarrollo
considerablemente mayor que debe incluir un proceso de detección automática de
errores siempre con un rendimiento al menos igual, tanto en tiempo de ejecución
como en precisión, que los procedimientos interactivos y automáticos (proceso en el
que existe la participación del operador para la supervisión de los resultados).
Los objetivos planteados para el proceso son:
- identificación y localización de las marcas fiduciales con precisión de
subpíxel. La precisión a nivel de subpíxel es necesario debido a que el
tamaño del píxel utilizado en la digitalización de los fotogramas
(habitualmente, entre 15 y 28µm) es considerablemente mayor que la
precisión exigida en la medida de las marcas fiduciales.
- proceso autónomo. Un proceso autónomo requiere que se pueda adaptar a
los problemas que puedan aparecer en el mismo (localización del fotograma
en el escáner, utilización de diapositivas o negativos, empleo de diferentes
tipos de cámaras con distintos diseños y posiciones de marcas fiduciales,
existencia de ruido en la imagen digital,...).
- utilización de diapositivas y negativos.
- utilización de fotogramas pancromáticos o en color.
FOTOGRAMETRÍA DIGITAL   391 

- empleo de imágenes de baja resolución. El empleo de imágenes de baja


resolución dificulta el proceso como consecuencia de la pérdida del punto
central de la marca al aumentar el tamaño de píxel, debiendo estimarse
dicha posición en función de los elementos de la marca que aparezcan en la
imagen digital.
Como información de entrada al proceso se dispone habitualmente de:
- información del escáner, que permite deducir el ángulo de rotación máximo
posible.
- información derivada del fichero de la imagen digital, que en la mayoría de
los formatos incorpora información relativa al tamaño de la imagen (número
de filas y columnas) así como tamaño de píxel, tipo de interpretación
fotométrica (positivo o negativo) y profundidad de color.
- información derivada del certificado de calibración de la cámara, en
especial, el número y posición de las marcas fiduciales, la posición del
centro fiducial y desplazamiento entre éste y el punto principal, los valores
de distorsión radial y la distancia focal calibrada.

7.2.2.1 Métodos de Orientación Interna Autónoma


En la actualidad el proceso de identificación y localización de las marcas
fiduciales puede ser abordado de acuerdo con dos estrategias:
- matching a nivel de área: el proceso parte de la binarización de la imagen
realizándose la localización mediante un proceso de correlación cruzada
mediante el empleo de un patrón o planteando el proceso como un proceso
de autocorrelación por simetría de la marca.
- matching a nivel de elemento: el proceso plantea la correspondencia entre
los elementos extraídos de las marcas fiduciales y modelos teóricos de las
marcas (fig.7.3).
1150 256
13
45

128
128
12
8

705
89
5

64
64

Fig.7.3. Morfología de una marca fiducial correspondiente a la cámara Leica RC-30 (medidas en µm).
Los rectángulos de la parte derecha indican el número de marca (n14 - esquina superior derecha).
392  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

7.2.2.2 Métodos de Orientación Interna Autónoma mediante matching a nivel de área


Los métodos de orientación interna autónoma mediante matching a nivel de área
requiere disponer de una extracción previa de la zona de imagen en la que están
contenidas las marcas fiduciales. El procedimiento más frecuente consiste en la
binarización de los patrones extraídos mediante la aplicación de un nivel de corte en
función de la forma del histograma (fig.7.4).
Probabilidad
0.14
ND Mínimo: 0
0.12

Valor de corte: 71
ND Máximo: 196
0.10 Media: 28.21
D.Típica: 33.59
0.08
0.06
0.04
0.02
0.00
0 50 100 150 200 250
Nivel Digital

Fig.7.4. Resultados de la binarización en función de la morfología del histograma


en la marca 1 de una cámara Wild RC-10

Para que la binarización sea adecuada es necesario que el histograma presente una
estructura bimodal, con un máximo en los valores mínimos que representa el nivel de
gris del fondo y el otro máximo (con menor frecuencia) en los valores máximos que
representan los pixeles que forman la marca.
El problema básico en este procedimiento es la determinación del valor de corte.
Otsu (1979) propone un método para la determinación automática del valor de corte
basado en la minimización de la suma ponderada de las varianzas de los grupos. Sea t
el valor de corte que divide la imagen en dos grupos, i1 e i2, de varianzas σ21(t) y
σ22(t), la suma ponderada de las varianzas de los grupos viene dada por:
σ 2w = s1 (t ) σ12 (t ) + s 2 (t ) σ 22 (t )

donde s1(t) y s2(t) son las probabilidades del grupo 1 y 2, respectivamente.


El procedimiento se basa en la obtención del valor límite t en el que σ2ω(t) alcanza
el mínimo. Para el cálculo de las varianzas de cada grupo es necesario el cálculo de
las medias µ1(t) y µ2(t). El proceso se repite para cada valor de corte.
FOTOGRAMETRÍA DIGITAL   393 

t N

t N ∑ p(i ) i ∑ p( j) j
s1 (t ) = ∑ p(i ) s 2 (t ) = ∑ p(i) µ1 (t ) = i =1
s1 (t )
µ 2 (t ) =
j= t +1
s 2 (t )
i =1 j= t +1

t t
∑ (i − µ1 (t ))2 ∑ ( j − µ 2 (t ))2
σ12 (t ) = i =1 σ 22 (t ) = i =1
s1 (t ) s 2 (t )

Los valores alcanzados de la aplicación de este método a las marcas 1 y 2 de una


cámara Wild RC-10, son de 71 y 90, respectivamente, cuyos resultados se muestran
en la figura 7.5.
Haralick y Shapiro (1992) describe otros métodos más sofisticados para la
determinación de valores de corte, por otro lado, Sahoo (1988) realiza una revisión de
los métodos de binarización.
De todas formas, sea cual sea el proceso elegido para la binarización es necesario
tener en cuenta que la discriminación nunca va a ser perfecta, de forma que píxeles
pertenecientes a la marca fiducial se considerarán dentro de la clase que integra los
píxeles del fondo y a la inversa, píxeles del fondo serán considerados como parte de la
marca fiducial.
Una vez que las porciones de imagen han sido binarizadas se procede a la
localización de la posición de las marcas. Entre los objetivos propios del método de
orientación interna autónoma se plantea la medida con precisión a nivel de subpíxel.
Por tanto, es necesario alcanzar precisiones del orden de 3µm, cifra similar a la que se
obtiene con los sistemas analíticos, por lo que es aconsejable una precisión en torno a
1/10 de píxel.
Un problema adicional que se presenta es el de la discretización producto del
proceso de digitalización. Así en la figura 7.6 se muestra un ejemplo simplificado del
efecto de la digitalización en una marca teórica de forma cuadrada. Debido al proceso
de digitalización la respuesta captada por el sensor del escáner no es uniforme y
dependerá de la superposición entre la marca y el tamaño de píxel, que tendrá
importantes efectos en el proceso de binarización. En la figura 7.7 se muestran los
perfiles correspondientes a la marca 1 y 2 (fig.7.5) en la que se pueden apreciar las
diferencias entre los niveles digitales de ambas marcas, así como la presencia de
ruidos en los niveles bajos.
El problema consiste en la determinación del centro de la marca fiducial.
Probablemente, el método más sencillo es considerar al centroide como el centro de la
marca. Este procedimiento aunque simple está muy afectado por la discretización de
la digitalización (remuestreo) y el valor de corte elegido, de forma de diferentes
valores, dan lugar a diferentes resultados por lo que la robustez del resultado es baja
(Tabla 7.1).
394  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

Probabilidad
0.14
ND Mínimo: 0

Valor de corte 1: 25

Valor de corte 2: 50

Valor de corte 3: 71

Valor de corte 4: 90
0.12 ND Máximo: 196
Media: 34.64
0.10
D.Típica: 56.07
0.08
0.06
0.04
Marca 1 0.02
0.00
0 50 100 150 200 250
Nivel Digital
Probabilidad
0.14
ND Mínimo: 0

Valor de corte 1: 25

Valor de corte 2: 50

Valor de corte 3: 71

Valor de corte 4: 90
0.12 ND Máximo: 197
0.10 Media: 32.36
D.Típica: 53.33
0.08
0.06
0.04
Marca 2 0.02
0.00
0 50 100 150 200 250
Nivel Digital

Valor de corte 1: 25 Valor de corte 2: 50 Valor de corte 3: 71 Valor de corte 4: 90

Marca 1

Marca 2

Fig.7.5. Resultados de la binarización para diferentes valores de corte, elegidos en función


de la morfología del histograma (25 y 50) y en función del método de la minimización
de σ (71 y 90) en las marcas 1 y 2 de una cámara Wild RC-10
FOTOGRAMETRÍA DIGITAL   395 

3.2 8.0 8.0 4.8

4.0 10 10 6.0

4.0 10 10 6.0

0.8 2.0 2.0 2.0

Fig.7.6. Efecto de la discretización del proceso de digitalización.


Izq: Posición de la teórica marca fiducial cuadrada sobre la malla de píxeles;
Centro: Respuesta del sensor, función de la superficie de marca que se localiza sobre el píxel;
Der: Binarización con valor de corte 5, que falsea la posición real de la marca (Schenk,1999)

Nivel Digital
200

Marca 1 Marca 1 Marca 1

150

Marca 2 Marca 2 Marca 2

100

50

Marca 1 Marca 2

0
0 20 40 60 80 100 120
Columna

Fig.7.7. Perfiles de las marcas 1 y 2 de la fig 7.5. Fotogramas digitalizados a partir de negativos
(transformados a positivos) a 21µm con un escáner fotogramétrico Vexcel VX-3000 Plus
Tabla 7.1. Resultados de la determinación de la posición de la marca mediante el método del centroide a
partir de imágenes binarizadas aplicado a las marcas 1 y 2 de la figura 7.5
Marca 1 Marca 2
Valor de corte
N1Píxeles X y N1Píxeles x Y
25 3461 61.949 59.488 3299 62.642 59.327
50 3221 61.563 59.573 3001 62.613 60.226
71 (σ2w mín.marca 1) 3083 61.722 59.703 2778 62.306 60.352
90 (σ2w mín.marca 2) 2983 61.923 59.710 2567 62.970 60.359

Otro método para la determinación de la posición con precisión a nivel de


subpíxel es el de correlación cruzada. El método de la correlación cruzada utiliza una
imagen ideal (patrón) de la marca que compara con las imágenes binarizadas de las
marcas (ver apartado correspondiente en el capítulo 4). Para cada posición se calcula
el coeficiente de correlación y una vez terminado el proceso se realiza el ajuste de la
396  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

ventana 3x3 que contiene a los valores máximos a una superficie cuadrática mediante
un proceso de mínimos cuadrados. La ecuación de observaciones es del tipo:
ri= a xi2 + b yi2 + c xi yi + d xi + e yi + f - ρi
donde ρi, i=1,Y,9 son los coeficientes de correlación correspondientes a la ventana
3x3. El valor máximo de la superficie viene dado por las expresiones:
2ax + cy + d = 0
cx + 2by + e = 0
Trinder et al. (1995), entre otros autores, plantean que la binarización de la imagen
es un proceso innecesario en la orientación interna autónoma mediante correlación
cruzada, con los inconvenientes añadidos de la necesidad de la elección de un valor de
corte que a veces es problemática que además supone una pérdida de información (el
nivel digital de la imagen se sustituye por un nivel digital binario 0-1).
El procedimiento para la aplicación del método de correlación cruzada sobre la
imagen original eliminando el proceso de binarización comienza con la creación de
patrones ideales de la marca fiducial teniendo en cuenta la función de expansión de la
línea. A continuación estos patrones son remuestreados utilizando diferentes
desplazamientos a nivel de subpíxel (0.2, 0.4, 0.6, 0.8) (fig.7.8) y correlacionados
con la imagen real obteniendo los coeficientes de correlación y determinando el
máximo mediante ajuste por mínimos cuadrados de una superficie cuadrática a la
zona de máximos.

∆c
∆f

Fig.7.8. Patrón ideal de una marca fiducial remuestreado según diferentes posiciones a nivel de subpixel.
Los valores digitales que se obtienen en cada caso son ligeramente distintos al depender de la superficie de
marca fiducial que se sitúa sobre cada pixel (Schenk,1999)

En la Tabla 7.2 se muestran los resultados de la localización de una marca fiducial


mediante el método del centroide a partir de una imagen binaria, el método de
correlación cruzada sobre una imagen binarizada y el método de correlación cruzada
sobre la imagen original con el empleo de patrones teóricos desplazados a nivel de
subpíxel.
FOTOGRAMETRÍA DIGITAL   397 

Tabla 7.2. Resultados de la localización a nivel de subpíxel


Coeficiente Localización Error
Correlación Fila columna fila columna Comentarios
0.111 0.889 -0.089 0.289 Centroide en imagen binaria
0.9258 0.078 0.921 -0.122 0.321 Corr.Cruzada en imagen binaria
0.9776 0.221 0.600 0.021 0.000 Desplaz. en 0.4/0.6
0.9762 0.200 0.608 0.000 0.008 Desplaz. en 0.2/0.4
0.9728 0.200 0.621 0.000 0.021 Desplaz. en 0.2/0.8
0.9556 0.218 0.618 0.018 0.018 Desplaz. en 0.4/0.8

7.2.2.3 Métodos de Orientación Interna Autónoma mediante matching a nivel de


elemento
La orientación interna autónoma presenta la importante ventaja de que consiste en
la localización de un elemento artificial (la marca fiducial) claramente distinguible en
la imagen tanto por su forma como por su nivel digital. Esta situación se revela como
ideal para la aplicación de métodos de matching a nivel de elementos debido a la
facilidad de la extracción y al conocimiento previo del tipo de elementos a extraer y
de las relaciones que deben de existir entre los mismos.
Las marcas fiduciales suelen estar compuestas por tres tipos de elementos: líneas
rectas -segmentos-, círculos y discos (fig.7.3). Por otro lado, las relaciones están muy
bien definidas, dos círculos concéntricos de diferente tamaño forman un anillo y
parejas de líneas forman regiones rectangulares rectilíneas que se disponen en forma
de cruz o de aspa, por último, en el centro aparecerá (dependiendo de la resolución de
la digitalización) una región de tipo circular. En la figura 7.9 se muestran los
diferentes elementos que constituyen la marca así como sus agrupaciones, en la figura
7.10 se muestra un ejemplo de aplicación a una marca.

Estructura Relación

Segmento de línea Elemento gráfico

Círculos Elemento gráfico

Par de líneas 2 s egmentos de línea paralelos

Par de líneas con


una discontinuidad 2 pares de líneas paralelas
2 pares de líneas paralelas con
Cruz o aspa un discontinuidad simétrica y
dispuestas perpendicularmente

Anillo 2 c írculos concéntricos

Fig.7.9. Elementos que componen las marcas fiduciales y relaciones entre los mismos (Schenk, 1999)
398  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

Fig.7.10. Sup: Izq: Imagen original; Der: Resultado de la extracción de bordes de la imagen digital
mediante la aplicación de un filtro de Roberts. Inf: (de izq a der): Extracción de la zona de la marca;
Binarización de la región; Selección de los pixeles mediante un proceso de detección de círculos; Selección
de los pixeles mediante un proceso de detección de líneas que forman -45 y 45º

- Detección de círculos
El método más frecuentemente empleado para la detección de círculos es la
técnica de la transformada de Hough (ver capítulo 6). Un círculo puede ser
representado en el dominio espacio como:
(x-xo)2 + (y-yo)2 = r2
donde xo,yo es el centro, r el radio y x,y las variables.
Si se considera un punto perteneciente al círculo xi,yi y los parámetros del mismo
xo,yo,r (a,b,r) su representación en el dominio de los parámetros (a,b) también será un
círculo de forma que todos los círculos se intersectan en un punto que define el centro
del círculo. Debido a esto sólo es necesario identificar tres puntos del círculo para
tener caracterizado el mismo, el centro se localiza mediante la intersección de los
círculos representados en el dominio de los parámetros, mientras que el radio se
define como la distancia entre el centro calculado y los puntos localizados en el
dominio del espacio (fig.7.11).
Este método se puede aplicar para la detección de círculos en la zona de la imagen
en la que está incluida la marca fiducial. El radio de los círculos a localizar se conoce
con precisión a partir de la información de la cámara empleada, por lo que se puede
reducir el dominio de los parámetros (a,b,r) a un dominio bidimensional (a,b). El
proceso comienza con la detección de bordes y con la creación de una matriz
bidimensional xo,yo denominada matriz de acumulación.
FOTOGRAMETRÍA DIGITAL   399 
b

0 4
1

-1 0
2
5
-2 0
y
70 -3 0 3

60 6 -4 0

50 3 -5 0
5 7
40 2
-6 0
30 7
4 1 -7 0 6
20

10 -8 0

0 -9 0
0 10 20 30 40 50 60 70 -8 0 -7 0 -6 0 -5 0 -4 0 -3 0 -2 0 -1 0 0 10 20 30
x a

Fig.7.11. Relación entre la representación de los puntos en el dominio del espacio (izq) y en el dominio de
los parámetros (der). Cada punto da lugar a un círculo, la intersección de los círculos en el dominio de los
parámetros de los puntos pertenecientes a un mismo círculo en el dominio del espacio define el centro del
círculo en el dominio del espacio (Schenk, 1999)

Por último, cada uno de los píxeles clasificados como bordes son representados en
dicha matriz, tras la conclusión del proceso se identifican los elementos de la matriz
con un mayor número de píxeles que definen la posición del centro del círculo.
- Detección de líneas rectas
Teniendo en cuenta el diseño de las marcas fiduciales es necesario la detección de
conjuntos de líneas paralelas que forman cruces (orientación de las líneas 0 y 901) o
aspas (orientación de las líneas -45 y +451), además la longitud de las mismas es
conocida.
Para su detección se emplea la transformada de Hough con un procedimiento
similar al empleado en la detección de círculos. La expresión de la recta es del tipo
y=mx+c, en el dominio del espacio que se representa en el dominio de los parámetros
en función de la pendiente (m) y la ordenada en el origen (c), por lo que sólo se
consideran las rectas con pendientes en función de las orientaciones de las rectas
buscadas con la información adicional de que las rectas deben ir agrupadas de dos en
dos y que deben formar 901 con otro par de líneas.
- Localización precisa de la marca
Para conseguir una localización más precisa de la marca se procede a un ajuste por
mínimos cuadrados en alguna de las estructuras bien definidas de la misma. Así, por
ejemplo, se puede plantear el ajuste en los círculos concéntricos que dan lugar al
anillo característico de la marca y a continuación repetir el proceso con los pares de
líneas rectas.
Las expresiones analíticas de los dos círculos son:
400  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

(xi -xo)2 +(yi -yo)2 - R12 = ri


(xj -xo)2 +(yj-yo)2 - R22 = rj
siendo xi,yi los píxeles del círculo exterior de radio conocido R1 y xj,yj los píxeles del
círculo interior de radio conocido R2. Teniendo en cuenta los posibles errores
aleatorios en las posiciones de los píxeles, las ecuaciones anteriores constituyen las
ecuaciones de observaciones en las que los segundos miembros se corresponden con
los residuos.
Linealizando dichas ecuaciones con respecto a los parámetros xo,yo se obtiene:
ri= -2(xi -xo) ∆xo -2(yi-yo) ∆yo -(xi -xo)2 +(yi -yo)2 - R12
rj= -2(xj -xo) ∆xo -2(yj -yo) ∆yo -(xj -xo)2 +(yj -yo)2 - R22
Cada píxel de cada uno de los círculos da lugar a una ecuación de observación,
pudiendo alcanzarse sistemas de alta redundancia debido al elevado número de
píxeles incluidos (superior a 100). El sistema además se completa con las ecuaciones
referentes a las líneas:
yn -yo -m1 (xn -xo)= rn
ym -yo -m2(xm -xo)=rm
donde xn,yn son los píxeles de la línea con pendiente m1 y xm,ym los píxeles de la línea
con pendiente m2, y xo,yo la posición de la marca fiducial. En este caso tanto las
pendientes como el centro son desconocidos por lo que las expresiones deben ser
linealizadas:
m1 ∆xo -∆yo +(yn -yo) -m1(xn -xo)= rn
m2 ∆xo -∆yo +(ym -yo) -m2 (xm-xo)= rm
que da lugar a un sistema de alta redundancia con sólo 4 incógnitas xo,yo,m1,m2, que
facilita la depuración de píxeles que no pertenezcan a las marcas obteniendo unas
soluciones robustas y de alta precisión.

7.2.2.4 Ejemplos de sistemas de Orientación Interna Autonóma


En este apartado se presentan algunos ejemplos de sistemas de orientación interna
autónoma en sistemas comerciales y de uso interno en empresas de producción
cartográfica, indicando las fases de realización y los resultados alcanzados. Las
soluciones mostradas son:
- Método de Schickler (1995) y Schickler y Poth (1996) implementado en el
sistema Zeiss Phodis.
- Método de Häring (1995) y Kersten y Häring (1997) implementado sobre un
sistema Helava/Leica DPW770 para el uso interno de la empresa Swissair
Photo+Surveys Ltd.
- Método de Lue (1997) implementado en el sistema Softplotter de Autovision
International.

- Método de Schickler
El método de Schickler (Schickler, 1995; Schickler y Poth, 1996) fue desarrollado
en el marco de un convenio de colaboración entre el Instituto de Fotogrametría de la
FOTOGRAMETRÍA DIGITAL   401 

Universidad de Bonn y la empresa Carl Zeiss y fue implementado en el sistema Zeiss


Phodis.
Las características del proceso son:
- proceso totalmente autónomo que no requiere valores iniciales de
aproximación
- se puede utilizar para imágenes en color o pancromáticas
- se puede utilizar para imágenes en positivo o negativo, realizándose
automáticamente la detección
- incorpora sistemas de detección de errores basados en el empleo de algoritmos
robustos
La información necesaria para el proceso es:
- una imagen digital y su correspondiente pirámide de imágenes
- la resolución aproximada de la imagen (tamaño de píxel)
- el tipo de cámara y la información recogida en el certificado de calibración
- patrones de las marcas fiduciales

Las fases del proceso son:


- Remuestreo de los patrones en función de la resolución de la imagen
- Obtención de las pirámides de imágenes
- Localización de las cuatro marcas fiduciales invariantes, cuya forma es
independiente de la orientación de la imagen (marcas 1 a 4)
- Detección de la orientación que tuvo la imagen en el momento de la
digitalización, mediante el reconocimiento de las formas asimétricas de las
marcas 5 a 8
- Medida precisa de todas las marcas mediante el empleo de matching de
patrones (template matching) con precisión de 1/10 píxel
- Estimación de los parámetros de transformación entre el sistema de
coordenadas pixel (columnas-filas) y el sistema de coordenadas imagen
(fotocoordenadas)
- Sistema de autodiagnóstico para el análisis del resultado final con respecto a
la precisión y la sensibilidad
El paso más importante es la localización de las marcas fiduciales invariantes con
la orientación. Para conseguir una localización robusta se procede a una búsqueda
jerárquica empleando la pirámide de imágenes. Las etapas en la localización de las
marcas fiduciales 1 a 4 son las siguientes:
- definición del área de búsqueda: El área de búsqueda depende de la calidad de
la localización alcanzada en el nivel superior de la pirámide.
- binarización: La binarización se efectúa empleando dos niveles de corte, uno
referente directamente al nivel digital que es extraído del histograma y otro en
función del gradiente cuadrático de la imagen, con el objeto de mejorar la
clasificación de la imagen.
- correlación binaria: Para la detección de las marcas fiduciales se emplea una
correlación cruzada entre la imagen binarizada y el patrón remuestreado. La
precisión alcanzada depende del número de píxeles del patrón, la similitud
402  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

entre la imagen y el patrón, la textura de la imagen y el tamaño del píxel que


se considera igual en fila y columna.
Por último, el sistema incorpora un sistema de detección automática de errores
groseros similar a la técnica RANSAC propuesta por Bolles y Fishler (1981).
Los resultados de este método son altamente satisfactorios. Así en diversas
pruebas realizadas con el sistema para diferentes cámaras, películas y resoluciones se
alcanzó una orientación interna correcta en el 94% de los casos, siendo detectados los
errores por el procedimiento automático de diagnosis en el 6% restante. El tiempo de
ejecución de la orientación interna es aproximadamente de 20 s en un sistema Silicon
Graphics Indigo2 y la precisión de 0.2 píxeles, comparable a los resultados
alcanzados por un operador en la orientación interna manual.

- Método de Kersten y Häring


El método de Kersten y Häring fue desarrollado en la empresa Swissair
Photo+Surveys Ltd. y fue incorporado en una estación Helava/Leica DPW770.
Las características del proceso son:
− proceso totalmente autónomo.
− requiere información del tipo de película (positivo o negativo).
− no realiza la identificación automática de la orientación de la imagen.
− incorpora algoritmos robustos de detección de las marcas.
La información necesaria para el proceso es:
− una imagen digital y su correspondiente pirámide de imágenes.
− la resolución aproximada de la imagen (tamaño de píxel).
− el tipo de cámara y la información recogida en el certificado de calibración.
− el tipo de película empleada (positivo o negativo).
− si las marcas que aparecen en la imagen no tienen identificación se requiere
un parámetro que defina la orientación del fotograma en la digitalización.
Las fases del proceso son (fig.7.12):
1. Extracción de las zonas de la imagen en las que están incluidas las marcas
fiduciales. Para dicha extracción se emplea el tamaño del píxel y la posición
de las marcas calibradas para la estimación de las zonas.
2. Localización de las marcas mediante la aplicación de la transformada de
Hough modificada, refinando las medidas mediante un proceso de matching
de patrones por mínimos cuadrados utilizando como aproximaciones iniciales
los valores obtenidos de la transformada de Hough.
3. Estimación de los parámetros de transformación entre el sistema de
coordenadas píxel (columnas-filas) y el sistema de coordenadas imagen
(fotocoordenadas).
FOTOGRAMETRÍA DIGITAL   403 

Datos Generación Extracción


de de de
Entrada Patrones Patrones

Marcas Fiduciales 3-... Marcas Fiduciales 1-2

Localización precisa Localización


Transformación y aproximada
Orientación

Fig.7.12. Etapas en la realización de la orientación interna automática (Kersten y Haering, 1997).

La información de entrada la constituye los datos que se extraen del certificado de


calibración de la cámara (coordenadas imagen de las marcas fiduciales y modelo de
cámara) y la imagen digital (tamaño de píxel y tipo de película -positivo o negativo-).
La primera etapa consiste en la extracción de zonas de la imagen original a fin de
evitar que el proceso de búsqueda tenga lugar en la imagen completa, así, por
ejemplo, se pueden extraer porciones de 15x15mm de la imagen a partir de los datos
de posición de las marcas fiduciales y del tamaño de la imagen (tamaño de píxel) de
forma que exista certeza de que en las zonas de la imagen original seleccionadas
aparecen las marcas fiduciales a identificar. Si se utilizan imágenes en color, las zonas
seleccionadas se convierten a escala de grises, así como los negativos a positivos.
Una vez extraídas las ventanas se realiza una primera aproximación mediante la
transformación Hough (Hough, 1962; Illingworth y Kittler, 1988), realizando un
posicionamiento más preciso mediante un matching por mínimos cuadrados
utilizando como aproximaciones iniciales a fin de optimizar el tiempo de cálculo se
realiza los valores obtenidos de la localización Hough sólo en las dos primeras
marcas, mientras que las aproximaciones de las posiciones del resto de las marcas se
extrae mediante una transformación bidimensional.
Para que el proceso sea totalmente automático la cámara empleada debe tener
algún símbolo que permita la identificación de la marca, como por ejemplo, las
marcas que incorporan las cámaras fabricadas por Leica (fig.7.13), en caso contrario,
el operador debe introducir la orientación general de digitalización del fotograma.
La precisión de los resultados depende en buena medida de la calidad de los
patrones utilizados, así la generación de patrones para cada modelo de cámara es un
trabajo básico. El esquema propuesto por Kersten y Haering (1997) utiliza una
descripción de las marcas en lugar de un modelo raster de las mismas, con objeto de
evitar la gestión de una base de datos de diferentes modelos de cámaras con diferentes
resoluciones. Cada patrón es descrito por la combinación de 3 elementos (círculo,
cruz y punto) en un fichero tipo ASCII (fig.7.14).
404  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

3 6 2

7 5

4 8 1

Fig.7.13. Sup: Símbolos para la identificación de las marcas fiduciales en la cámara Leica RC-30.
Inf: Distribución de las marcas en el fotograma (la etiqueta de la cámara focal,
situada en la parte inferior derecha indica la dirección del eje x positivo)
Φ
d
r r

ri
d ro

Fig.7.14. Elementos para la descripción de patrones. Izq: circulo (r,d); cruz (ri,ro,d,Φ) y punto (r)

Esta metodología ha sido probada mediante la realización de una prueba con 5


modelos de cámaras distintos y 3 escáneres a diferentes resoluciones (12.5 a 42 µm)
cuyos resultados fueron publicados en Kersten y Haering (1995), con resultados de 5
a 14µm (0.2 a 0.5 píxel) con los escáneres fotogramétricos (PS1 y DSW100) y errores
del orden de 1 a 3 píxeles con los escáneres no fotogramétricos no calibrados (Agfa
Horizon). En la Tabla 7.3 se presentan los resultados obtenidos en la Swissair
Photo+Surveys en condiciones de producción. En dicho estudio se concluye que los
errores obtenidos son similares a los obtenidos con sistemas analíticos e incluso
mejores que los obtenidos mediante el posicionamiento manual de las marcas, con la
FOTOGRAMETRÍA DIGITAL   405 

ventaja lógica del rendimiento más elevado, con tiempos medios que oscilan entre los
5 y los 23 s frente a los 40 s por imagen de las medidas realizadas por el operador.
Tabla 7.3. Resultados de la Orientación Interna Automática (tiempos medidos en una SunSparc 20/71)
n1 n1 de σo(µm) tiempo medida (s)
Modelo Tipo µm
fotos marcas máx mín med máx mín med
LMK b/n 25 14 8 7.9 3.1 5.2 8 3 6
UMK color 12.5 3 4 5.1 2.8 4.2 26 19 23
RC20 b/n 12.5 52 4 16.2 1.4 5.3 26 4 11
RC30 b/n 25 291 8 24.0 4.7 7.7 8 3 5

- Método de Lue
El método de Lue (1997) tiene como objetivo la realización de una orientación
interna autónoma, para lo cual utiliza una versión modificada el método de matching
de malla recursiva-ventana dinámica (RG-DW) empleado en el módulo Digital Ortho
de ERDAS 7.5 para la generación de MDE (Lue y Novak, 1991, 1992) al que se ha
añadido un proceso de matching por mínimos cuadrados para mejorar la precisión de
la medida.
El proceso se basa en la aplicación de una variante del método de matching de
patrones por mínimos cuadrados para lo cual utiliza una base de datos existente en el
sistema Softplotter que contiene los principales modelos de cámaras. Para reducir el
espacio de búsqueda y agilizando el proceso y proporcionándole una mayor robustez
se utilizan pirámides de imágenes (4 niveles: 1:1, 4:1, 16:1, 64:1) en las zonas en las
que se prevé que estén localizadas las marcas. El tamaño de la ventana de búsqueda se
disminuye desde el tamaño de 512x512 píxeles para la primera marca hasta 128x128
para las últimas marcas debido a que la precisión de la zona es mayor, al ir empleando
las medidas efectuadas para el refinamiento de los parámetros.
Tras el proceso de búsqueda de las marcas en cada imagen, se calculan los
parámetros de transformación en función de las coordenadas medidas -localizadas- y
las calibradas. Si el error medio cuadrático es superior a un determinado límite, el
programa advierte al usuario y registra los resultados en un fichero para su consulta
posterior.
Este método fue aplicado en su versión beta (1995) en más de 400 fotogramas,
tanto en blanco/negro como en color, con diferentes escalas y digitalizadas con
diferentes escáneres con resoluciones entre 15 y 30 µm. La medida automática de
3268 fiduciales (421 fotogramas) obtuvo coeficientes de correlación superiores al
95% en 2755 marcas (84.3%) y entre el 95 y 90% en 442 marcas (13.5%), con errores
medios cuadráticos de 0.325 píxeles (con un mejor resultado de 0.130 píxeles) y unos
tiempos de ejecución entre 5 y 9 s para la medida de un fotograma con 8 marcas
fiduciales en una estación Silicon Graphics Indigo 2 con R4000/150MHz.
En la Tabla 7.4 se resumen los diferentes métodos de orientación interna
autónoma incorporados en sistemas comerciales y organismos.
406  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

Tabla 7.4. Métodos de orientación interna autónoma (Lue, 1996; Strackbein y Henze,1995)
Método Localización Localización Estimación de Disponibilidad Comentarios
aproximada de precisa de las la orientación
las marcas marcas
Kersten y Transformada Matching por Depende del Uso interno en Las marcas se
Häring Hough mínimos tipo de cámara Swissair definen como
modificada cuadrados Photo+Surveys elementos
Ltd.
Lue Correlación Matching por Manual Softplotter de Las marcas se
jerárquica de mínimos Autovision Int. incluyen en una
niveles de gris cuadrados base de datos
Schickler Correlación Correlación de Automática Phodis de Zeiss Permite diferentes
jerárquica de niveles de gris marcas. Detección
niveles de gris positivo/negativo
Strackbein Análisis de la Ajuste de Manual? Uso interno en la Sólo para marcas
y Henze imagen binaria parábolas a los LVA Nordrhein- circulares
sin pirámide niveles Westfalen
digitales

7.3. AUTOMATIZACIÓN DEL PROCESO DE ORIENTACIÓN RELATIVA


El proceso de orientación relativa de los fotogramas que componen un par
estereoscópico es un proceso bien conocido y fundamental en los procesos que
implican observación estereoscópica de modelos, como, por ejemplo, la generación de
modelos digitales de elevaciones y la restitución. En los sistemas analíticos el proceso
está muy optimizado ya que en un tiempo de aproximadamente 15 minutos el
operador completa todo el trabajo consistente en la eliminación del paralaje residual
(py) en los puntos de Von Grüber (habitualmente, 6), el cálculo de los parámetros de
orientación relativa y, si procede, la depuración de las medidas efectuadas en función
de los residuos obtenidos.
La automatización del proceso requiere que el sistema sea capaz de realizar la
identificación de puntos homólogos en ambos fotogramas. Esta identificación se
realiza mediante procesos de matching (ver capítulo 6) y presenta frente al proceso de
orientación interna, importante diferencias. La primera diferencia viene dada por el
hecho de que mientras que en la orientación interna el elemento a localizar es la
marca fiducial, perfectamente caracterizada en la imagen, en la orientación relativa se
debe de localizar una serie de puntos (como mínimo 5) distribuidos en el modelo
estereoscópico. La identificación de puntos sobre el modelo conlleva ciertos
problemas consecuencia de la propia geometría de la fotografía, así es posible que
puntos que existan sobre un fotograma no aparezcan en el otro debido a problemas de
oclusión, o bien que existan ambigüedades en la localización debido a que el punto
identificado en el primer fotograma sea un elemento repetitivo (por ejemplo, marcas
viales en un carretera). Al respecto es importante tener en cuenta que mientras que el
proceso de medida manual de marcas fiduciales en la orientación interna es un
proceso en el que prácticamente no interviene las dotes de interpretación del operador,
la medida de puntos para la orientación relativa conlleva un proceso de interpretación
de la imagen.
Para proporcionar una mejor robustez al sistema de orientación relativa automática
se procede a la orientación mediante la identificación de elementos (no puntuales)
FOTOGRAMETRÍA DIGITAL   407 

homólogos de forma que se mejora la robustez hasta llegar a niveles comparables con
los sistemas manuales de orientación relativa.
En la Tabla 7.5 se resumen las diferencias más importantes entre el procedimiento
de orientación relativa manual y el de orientación relativa automática.
Tabla 7.5. Diferencias entre la orientación relativa manual y automática (Schenk, 1999)
Orientación Relativa Manual Orientación Relativa Automática
Operador manual El operador es el propio sistema
- Selecciona y mide los puntos - Extrae y correlaciona elementos
- Selección óptima - La selección es aleatoria y objetiva
- Número de puntos reducido - Número de puntos muy elevado
- Medida estereoscópica - Identifica elementos homólogos
- Trabajo de gran precisión - Trabajo con menor precisión
Procedimientos de ajuste a nivel puntual, mediante Procedimientos de ajuste a nivel de puntos aunque
el empleo de las expresiones de colinearidad o los algoritmos buscan la correspondencia de los
coplanaridad elementos y no de los puntos
−(1 / 2 )
Precisión de los parámetros de orientación σ p ≈ σ o (dr )
σo pequeño, redundancia (r) pequeña, el factor c σo mayor, c aproximadamente igual, la redundancia
depende de la distribución de los puntos (r) es mucho mayor y compensa el valor de σo

7.3.1 Orientación Relativa Interactiva


Los sistemas fotogramétricos de gama baja o media no incorporan procesos de
orientación relativa automática. Los requisitos de este tipo de sistemas es que tengan
las mismas prestaciones que los sistemas fotogramétricos analíticos. El proceso en los
restituidores analíticos consta básicamente de la eliminación (mediante visión
estereoscópica) de la paralaje residual en los puntos de Von Grüber, realizándose el
desplazamiento a las zonas de una forma automática en función de los patrones de
distribución de puntos que incorpora el sistema. Una vez medidos los puntos se
realiza el cálculo de los parámetros de la orientación relativa facilitando la tarea de
depuración de los puntos medidos.
En los sistemas fotogramétricos digitales la orientación relativa interactiva es
similar, con las diferencias lógicas derivadas de la falta de elementos ópticos-
mecánicos para el desplazamiento y observación de las fotografías. Esta falta conlleva
importantes ventajas al requerir tan sólo la carga de las zonas seleccionadas de las
imágenes acelerando el proceso. El proceso de medida se efectúa dejando fijo el
cursor de una imagen sobre algún elemento característico de la misma y llevando el
cursor de la otra al mismo detalle, para refinar la medida los sistemas suelen
incorporar métodos para el posado automático de la marca.

7.3.2 Orientación Relativa Automática


7.3.2.1 Orientación Relativa Automática con elementos de interés
El método de orientación relativa automática mediante la correspondencia de
puntos extraídos mediante operadores de interés es el método más directo y sencillo
de integrar, siendo en la actualidad el método más empleado (Tang y Heipke, 1996;
Hahn y Kiefner, 1994). Este método además presenta la ventaja de aprovechar los
408  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

algoritmos de orientación de pares estereoscópicos a nivel puntual utilizando en los


restituidores analíticos.
Los sistemas de orientación relativa automática basados en la correspondencia de
puntos homólogos extraídos mediante operadores de interés se basan en 4 aspectos
claves:
a) son sistemas que trabajan a nivel de elementos (incluidos puntos).
b) utilizan una estrategia de búsqueda de menor a mayor detalle.
c) está controlado por las limitaciones radiométricas y geométricas.
d) utiliza un gran número de elementos para la orientación.

a) La elección de un esquema de identificación a nivel de elementos se debe a que los


métodos de matching a nivel de elementos son menos sensibles a los cambios
radiométricos entre las imágenes y, además suelen ser más rápidos. No obstante,
existen algunos sistemas que incorporan un procedimiento de matching a nivel de
área en las últimas etapas con el objeto de aumentar la precisión aunque en la mayoría
de los casos, la mejora no justifica el esfuerzo de cálculo y programación. Los
elementos utilizados son puntuales debido a que a pesar de que contienen menor
información que las líneas, presentan las ventajas de que son más fáciles de describir
y además son invariantes con respecto al centro de proyección.
b) Las imágenes fotogramétricas contienen una gran cantidad de información en la
que se basa la calidad final del trabajo, por ello es necesario que las imágenes sean
digitalizadas con tamaños de píxel de 10 a 25 µm, e incluso menores. Esto conlleva
que el volumen de almacenamiento de cada imagen supera los 100Mb. Para que el
procesamiento de esta información sea ágil, se utilizan las pirámides de imágenes a
objeto de establecer una estrategia de búsqueda en niveles de resolución espacial (y,
por tanto, de precisión) crecientes. Así, por ejemplo, con un tamaño de píxel de 15µm
el tamaño de la imagen, considerando un fotograma de 230x230mm es de
15360x15360 píxeles que se estructura en 7 niveles de pirámide dando un nivel
superior de 240x240 píxeles.
c) El sistema, evidentemente, no dispone de la misma información que el operador a
la hora de seleccionar los puntos, para limitar este problema se introducen en el
sistema ciertas condiciones tanto de tipo radiométrico como geométrico, como por
ejemplo, la geometría epipolar, la correlación cruzada,... . Estas limitaciones tienen
como objeto reducir el número de puntos erróneamente identificados como
homólogos.
d) La utilización de un gran número de elementos (más de 100) frente al escaso
número de los sistemas de tipo analítico (de 6 a 15), aumenta la robustez de los
resultados, ofreciendo sencillos métodos para eliminar aquellos puntos que por su
elevado error pueden ser considerados mal identificados al tiempo que flexibiliza en
parte la necesidad de precisión en la identificación.
En la figura 7.15 se muestra el esquema general de un sistema de orientación
relativa automática.
FOTOGRAMETRÍA DIGITAL   409 

GE NERACIÓN DE PIRÁMIDE S INFORMACIÓN


IMÁGENES DIGITALE S
DE IMÁGENES ADICIONAL

EXTRACCIÓN DE
E LEMENTOS

MATCHING DE
E LEMENTOS

Selección del Nivel


Inferior de la Pirámide

CÁLCULO DE PA RÁMETROS
DE ORIENTACIÓN RELATIVA

No Nive l Intermedio de la
E valu ació n d e Resultados Pirámide de Imá genes?


Bucle del Primer Subpro ceso

Ultimo Ni vel de la No Desplazamiento de la Venta na


Pirámide de Imá genes? al Nivel Infe rior de l a P irámide

Sí Bucle del
S egundo Sub proceso
Parámetros de Orie ntación
Re lati va y Pu ntos Co njugado s

Fig.7.15. Concepto del algoritmo de orientación relativa automática (Liang y Heipke, 1996)

La información de partida necesaria para el proceso es básicamente:


- parámetros de orientación interna de la cámara
- relación entre los sistemas de coordenadas placa e imagen
- el orden de las imágenes (fichero del fotograma derecho y del izquierdo)
- valores aproximados de solape longitudinal y transversal

El proceso de orientación relativa comienza en el nivel más alto de la pirámide de


imágenes (mayor tamaño de píxel, menor tamaño de fichero, resolución mínima) y
termina en el nivel más bajo (menor tamaño de píxel, mayor tamaño de fichero,
resolución máxima) y se puede dividir en dos subprocesos. El primer subproceso
comprende desde el nivel superior hasta el nivel intermedio y en cada nivel se realiza
la extracción de elementos independientemente en cada imagen, calculándose los
parámetros de orientación en base al matching de dichos elementos en función de las
limitaciones radiométricas y geométricas anteriormente comentadas. El nivel
intermedio, límite de este primer subproceso se puede considerar como aquel en el
que se puede procesar todo el modelo de una forma rápida permitiendo comprobar
que el paso de un nivel a otro se realiza de una forma correcta. Los puntos
identificados y los parámetros de orientación obtenidos en el primer subproceso son la
entrada del segundo subproceso. En el segundo subproceso la búsqueda se centrará
exclusivamente en una ventana definida por el tamaño trasladado del píxel del
anterior nivel permitiendo una mejora de los resultados (se utilizan imágenes de
mayor resolución) sin afectar de una forma negativa a la velocidad del proceso.
410  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

- Extracción de elementos
Los elementos que podemos extraer de una imagen son básicamente: puntos,
bordes (o líneas) y áreas. Para la orientación automática relativa es más aconsejable la
utilización de elementos de carácter puntual debido a que tiene una geometría más
estable y son más sencillos de utilizar para la orientación relativa. Existen diversos
métodos que nos permiten realizar la extracción de estos elementos de la imagen
(Moravec, 1976; Hannah, 1980; Dreschler, 1981; Förstner, 1986) siendo los más
aconsejados para la extracción en fotografías reales el de laplaciana de una gausiana,
el de Förstner y el de Moravec.
Luhmann y Altrogge (1986) indican que los operadores con mayores ventajas son
el de Förstner y el de Moravec. El operador de Förstner tiene las mismas ventajas
teóricas que el de Moravec (invariante a la rotación, precisión potencial a nivel de
subpíxel) si bien presenta el inconveniente de su mayor lentitud frente al operador
clásico de Moravec.

- Fusión de elementos
Una vez obtenidos los elementos a fusionar de ambas imágenes, la siguiente etapa
consiste en la identificación de los elementos homólogos. Para ello se plantea la
utilización de un modelo matemático para transformar los elementos de un fotograma
al otro y una posterior medida de similitud para formar y evaluar las fusiones siendo
el modelo más frecuentemente empleado es la colinealidad. Para el nivel de la
pirámide más alto, los parámetros de orientación iniciales se calculan a partir de los
datos de entrada, suponiendo la superficie del terreno de la zona de solape como de
elevación constante. Para los niveles inferiores se van utilizando los resultados de los
niveles más elevados, tanto los parámetros de orientación como los puntos de control.
Dichos parámetros y puntos se utilizan para la transformación de los elementos de la
imagen izquierda a la derecha, la cota requerida para los cálculos se obtiene a partir
de los puntos del modelo conocidos para el anterior nivel: primero, los puntos del
modelo se proyectan en la imagen izquierda y posteriormente se busca el punto del
modelo del nivel anterior más próximo al elemento considerado obteniéndose una
aproximación a la cota final del elemento.
Para identificar los elementos homólogos de uno determinado, se determina una
línea epipolar en la imagen derecha mediante la utilización de las ecuaciones de
colinealidad junto con los parámetros de orientación actuales en el nivel de la
pirámide en el que se está trabajando. Si se considera la geometría epipolar el
elemento a identificar estará en la misma línea epipolar si bien es necesario tener en
cuenta que no se utilizan valores exactos sino simplemente aproximaciones, por lo
que en lugar de establecerse una línea de búsqueda se plantean unas ciertas
tolerancias, dando lugar a una banda de búsqueda.
Todos los elementos que han sido identificados en la fotografía derecha dentro de
la banda de búsqueda se consideran como posibles elementos homólogos del
elemento considerado. Para cada pareja de elementos se calcula el coeficiente de
correlación Q, si este valor es superior a un determinado nivel la pareja es considerada
válida en términos de radiometría y se calcula la distancia entre el elemento de la
FOTOGRAMETRÍA DIGITAL   411 

fotografía derecha y la línea epipolar. Entre todas las posibles líneas se seleccionan
los n elementos con distancias más cortas, n es un número predefinido que indica el
número máximo de parejas en la imagen derecha que pueden ser consideradas como
conjugadas a un elemento en la imagen izquierda. La medida de similitud para la
fusión se establece en función de la distancia entre un elemento en la imagen derecha
a la línea epipolar correspondiente y los coeficientes de correlación obtenidos.
La fusión de elementos no es un proceso simple, existiendo diferentes problemas
que dificultan el proceso:
- el primer problema surge del hecho de que no todos los píxeles extraídos
como elementos singulares tienen su correspondiente homólogo en el otro
fotograma. Así, por ejemplo, la esquina definida por una pared vertical de un
edificio tendrá longitudes diferentes en cada fotograma en función de su
distancia al nadir, por lo que no todos los píxeles tendrán su correspondencia
directa.
- otro problema se produce debido a que el proceso de extracción de elementos
no es un proceso libre de error, por lo que en un fotograma pueden aparecer
elementos (bordes) Afalsos@ o bien pueden omitirse la extracción de ciertos
elementos al no superar las condiciones de variabilidad las dos regiones que
éste separe.
- la extracción de los puntos y su localización en la imagen, así como la
identificación de los puntos homólogos en la otra imagen del par es un
proceso que conlleva un determinado error que debe ser tenido en cuenta en
todo el proceso de orientación y, en especial, en el cálculo de los parámetros.

- Cálculo de los Parámetros de Orientación Relativa


Tras la identificación de elementos, se calculan los parámetros de orientación
relativa para cada nivel de la pirámide mediante un ajuste de haces mediante mínimos
cuadrados utilizando los candidatos para los puntos conjugados como observaciones.
Las incógnitas son los parámetros de orientación Y, Z, φ, ω, κ de la segunda imagen y
las coordenadas modelo de los puntos conjugados. Los valores iniciales para el
cálculo de los parámetros de orientación se obtienen a partir de la información de
entrada adicional, y, en los niveles inferiores de la pirámide de los parámetros
correspondientes al nivel anterior.
En el proceso de ajuste, los datos con errores elevados se eliminan de la lista de
candidatos. Para cada pareja se analizan los residuos, eliminándose aquellas parejas
cuyos residuos son mayores que el tamaño de píxel de las imágenes integrantes del
modelo. Una vez eliminados aquellas parejas con residuos elevados se realiza un
ajuste mediante mínimos cuadrados obteniéndose como resultados los parámetros de
orientación, las coordenadas modelo de los puntos homólogos del nivel de la pirámide
considerado y la desviación típica de todas las incógnitas que es considerada como
una medida de la desviación típica de los errores en la determinación de las
coordenadas imagen.
La utilización de la geometría epipolar, previene la aparición de errores en la
dirección perpendicular a la línea de la base, pero no puede detectar errores en la
412  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

dirección paralela a la línea de base. Estos errores no tienen efecto en los parámetros
de orientación, sin embargo, producen errores en la determinación de la altitud de los
puntos del modelo. Para solventar este problema, se puede asumir que el área de
solape es plana, ignorando las ondulaciones del terreno para los niveles más elevados
de la pirámide. Los parámetros de este plano son determinados por un ajuste de
mínimos cuadrados utilizando las coordenadas de los puntos del modelo disponibles
como observaciones. En niveles de la pirámide inferiores se utilizan las coordenadas
modelo de los puntos del nivel anterior y se realiza un ajuste por mínimos cuadrados.
Los puntos que tienen residuos superiores a 3 veces la desviación típica resultante son
considerados erróneos y descartados. Por lo general, conforme aumenta el relieve
aumenta la desviación típica obtenida por lo que se aumenta la tolerancia y los puntos
eliminados son menores, así en una zona llana la desviación sería muy pequeña y sólo
serán conservados aquellos puntos con residuos muy pequeños. Por tanto, se trata de
una técnica con tolerancia variable en función del tipo de relieve.
- Factores de control utilizados
Como se ha comentado con anterioridad, en la primera fase del cálculo se
necesitan unos parámetros iniciales de cálculo, estos parámetros son básicamente:
− tamaño del píxel de imagen.
− tolerancia para la extracción de elementos.
− tamaño de la ventana de búsqueda y de la ventana para el cálculo del
coeficiente de correlación.
− el factor de escala para la eliminación de parejas erróneas.
Los factores clave para determinar la calidad del proceso de orientación son el
número y la distribución de los puntos homólogos localizados. La desviación típica de
los cinco parámetros de la orientación estará afectada por dichos factores aunque su
interpretación individualizada es compleja. Para que un conjunto de valores sea
considerado como correcto deben cumplirse dos condiciones: el número de puntos
identificados como homólogos debe ser superior a un determinado límite (se suele
imponer 30) y además estos puntos deben estar distribuidos por el modelo de forma
de que si lo dividimos en 3x5 partes en cada una de ellas exista al menos 1 punto.
La selección entre todos los conjuntos que cumplan las dos condiciones anteriores
se establece en base al cálculo de las desviaciones típicas en planimetría de las cuatro
esquinas del modelo utilizando la matriz de covarianza de los cinco parámetros de la
orientación relativa y la propagación del error, el error final de un conjunto de datos
será el máximo de esos cuatro puntos. Evidentemente, el conjunto de datos con un
error más bajo será considerado como el mejor conjunto y los parámetros de
orientación calculados serán los utilizados como datos de entrada en el siguiente nivel
de la pirámide.
- Desplazamiento en la ventana. Cambio de nivel en la pirámide
La idea del trabajo en pirámides de imágenes y el cálculo en niveles de resolución
progresivamente más elevada se basa en la idea de que un elemento seleccionado en
un nivel será en el siguiente nivel una de estas tres posibilidades:
FOTOGRAMETRÍA DIGITAL   413 

− una indicación de un elemento en un nivel inferior


− una representación de varios elementos en un nivel inferior
− un pseudoelemento que desaparecerá posteriormente
El procedimiento de cambio de un nivel a otro se realiza en una serie de pasos:
− proyección de un par de puntos conjugados al nivel inmediato inferior y
definición de la ventana de búsqueda alrededor de cada punto en el nuevo
nivel
− división de cada ventana y proceso de extracción de elementos
− identificación de elementos homólogos
− cálculo de las coordenadas modelo para cada pareja de candidatos de puntos
homólogo utilizando los parámetros de orientación del nivel anterior
− eliminación de las parejas erróneas usando la aproximación de un plano a la
superficie del modelo
− cálculo de los parámetros de orientación relativa con las parejas seleccionadas
en el anterior paso
Con este sistema se consigue que el tiempo de búsqueda de los puntos homólogos
sea aproximadamente el mismo en todos los niveles de la pirámide, puesto que la
búsqueda se restringe a la zona donde existía algún elemento de interés en el anterior
nivel, si bien se van refinando las medidas debido al menor tamaño del píxel en cada
descenso de nivel.

- Ejemplo práctico de orientación relativa automática mediante elementos de interés


Los ejemplos que se presentan en este apartado han sido tomados de Liang y
Heipke (1996) y consisten en la orientación relativa de 2 modelos de diferentes
características texturales de imagen y tipos de terreno. Ambos modelos tienen escala
1:15000 y fueron digitalizados con un tamaño de píxel de 15µm y 8 bits de resolución
espectral (aprox.235Mb/imagen).
El primer modelo corresponde a unas imágenes tomadas en Finlandia en un
terreno dedicado a usos agrícolas (con algunas zonas de bosque) de relieve llano
(desnivel máximo 50m) aunque presentando algunas líneas de ruptura. El solape
lateral del modelo es del 60%. Las imágenes del segundo modelo fueron tomada en la
zona de Bavaria (Alemania) en una zona agrícola similar a la anterior si bien el
terreno es ondulado (desnivel máximo 160m) y el solape lateral es del 80%. La
orientación se realizó mediante un sistema de pirámides de imágenes (con siete
niveles) construidas utilizando un filtro de paso bajo.
En las tablas 7.6 y 7.7 se muestran los resultados de la orientación relativa de
ambos modelos (fig.7.16 y 7.17). Como se puede observar en los dos modelos se
obtienen un elevado número de puntos conjugados siendo la desviación típica de las
coordenadas imagen σ para el nivel 0 (nivel inferior) 0.23 píxel (3.4µm), cifra similar
a la que se alcanza con las medidas manuales. Otro aspecto de interés es que el valor
de σ se mantiene aproximadamente constante (expresado en píxeles) para todos los
niveles de la pirámide lo que pone de manifiesto que la precisión del matching
depende exclusivamente del tamaño del píxel.
414  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

Tabla 7.6. Resultados de la Orientación Relativa (Modelo Finlandia)


Elementos
Pixel/ Tamaño Parejas Parejas Puntos σ
Nivel Extraidos
Imagen píxel (µm) seleccionadas Eliminadas Identificados
Izq Der µm píx
6 2402 960 692 660 158 0 158 197.7 0.21
5 4802 480 2430 2298 528 38 490 127.2 0.27
4 9602 240 3989 3821 2909 1542 1367 53.6 0.22
3 19202 120 4262 4153 3472 1942 1530 25.9 0.22
2 38402 60 4383 4310 3051 1724 1327 13.4 0.22
1 76802 30 4538 4474 2518 1472 1046 6.6 0.22
0 153602 15 4771 4619 1823 1220 603 3.4 0.22

Fig.7.16. Orientación Relativa (Modelo Finlandia). Sup: Elementos extraídos del nivel 5;
Medio: Puntos conjugados nivel 5; Inf: Puntos conjugados imagen original (nivel 0)
FOTOGRAMETRÍA DIGITAL   415 

Tabla 7.7. Resultados de la Orientación Relativa (Modelo Baviera)


Elementos
Pixel/ Tamaño Parejas Parejas Puntos σ
Nivel Extraidos
Imagen píxel (µm) seleccionadas Eliminadas Identificados
Izq Der µm píx
6 2402 960 862 858 470 11 459 731.9 0.76
5 4802 480 3024 3061 488 50 438 155.1 0.32
4 9602 240 3466 3495 2452 1372 1080 52.4 0.22
3 19202 120 3762 3820 2964 1793 1171 25.3 0.21
2 38402 60 3965 3982 3532 2344 1188 13.4 0.22
1 76802 30 4131 4104 4413 3240 1173 6.9 0.23
0 153602 15 4276 4317 4763 3786 977 3.5 0.23

Fig.7.17. Orientación Relativa (Modelo Bavaria). Sup: Elementos extraídos del nivel 5;
Medio: Puntos conjugados nivel 5; Inf: Puntos conjugados imagen original (nivel 0)
416  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

Por otro lado, fueron realizadas las orientaciones de otros 8 modelos de diferentes
características tanto en escalas 1:3000 a 1:34000 como en tipos de terreno (tabla 7.8)
desde modelos urbanos a zonas montañosas. En todos los casos las precisiones
obtenidos están en torno a las que podrían obtenerse de forma manual (3.2 a 3.6 µm),
comprobándose mediante un operador que todos los modelos estaban libres de
paralaje y. El tiempo medio para la realización de la orientación relativa fue de 4
minutos partiendo de que las pirámides de imágenes ya estaban realizadas así como la
orientación interna de cada nivel.
Tabla 7.8. Resultados de las orientaciones relativas automáticas (Liang y Heipke, 1996)
Nº. Puntos σ σ
Modelo Tipo Terreno Escala
Conjugados (µm) (pix)
Bayer,Zell Montañoso, Forestal 1:34000 220 3.6 0.24
Bopfingen Accidentado, Fuertes Pendientes 1:25000 183 3.3 0.22
CZ1 Agrícola 1:12000 203 3.4 0.23
Eichstätt Abrupto, Agrícola (industrial) 1:17000 713 3.3 0.22
Finlandia Llano, Agrícola, Forestal 1:15000 603 3.4 0.23
Bavaria Ondulado, Agrícola, Forestal 1:15000 977 3.5 0.23
Noruega Accidentado, Costero, Agrícola 1:6000 686 3.3 0.22
Pomona Densamente construído 1:25000 457 3.5 0.23
Tasmania Accidentado, Residencial 1:12000 962 3.5 0.23
Weilheim Abrupto, Sin cultivo 1:3000 260 3.2 0.21

7.3.2.2 Cálculo de parámetros de orientación relativa sin proceso de matching


Schenk (1999) propone un método para el cálculo de los parámetros de
orientación relativa sin la necesidad de realizar la identificación de los elementos
homólogos del par.
El procedimiento propuesto se basa en un proceso de ensayo y error dentro de un
espacio 5-D donde los ejes de coordenadas se corresponden con los parámetros de
orientación definidos dentro de un espacio finito (definido por los valores lógicos de
los parámetros en función de la geometría de tomas) y discreto. La correspondencia
entre los elementos homólogos se plantea en base a un procedimiento de ensayo y
error, de forma que se establecen todos los conjuntos posibles de 5 puntos, se calculan
los parámetros de orientación relativa y se representan en una matriz de acumulación.
Los resultados finales del proceso vienen definidos por los máximos de la matriz de
acumulación.
Este proceso presenta como problema fundamental el importante esfuerzo de
cálculo que es necesario llevar a cabo. El esfuerzo de cálculo viene dado por dos
factores fundamentales: el número de puntos extraídos y la discretización del espacio
de las soluciones.
El número de puntos extraídos condiciona el número de ensayos necesarios para la
obtención de la solución, el elevado número de elementos extraídos produce que el
número de combinaciones sea muy elevado siendo un importante problema para su
resolución incluso con los potentes sistemas informáticos actuales. Así, por ejemplo,
1000 puntos extraídos en una imagen dan lugar a 5.7x1015 combinaciones de 5
elementos.
FOTOGRAMETRÍA DIGITAL   417 

Las dimensiones del espacio de la matriz de acumulación es un problema quizá


aún más grave puesto que afecta no al tiempo de cálculo sino al dimensionado de la
memoria del sistema. Si se considera una precisión de 1' dentro de un rango de "51 en
los ángulos de orientación, se definen 600 unidades por ángulo que requieren una
matriz de 7.8x1013 elementos en los que se deben almacenar números de importante
tamaño.
Las soluciones más simples para la resolución de este problema pasan por la
subdivisión de la imagen en regiones más pequeñas, la reducción del número de
parámetros o una discretización más grosera del espacio de parámetros.
Habib et al. (2000) propone un sistema para eliminar el problema del esfuerzo de
cálculo en el proceso de orientación relativa automática por ensayo y error. El
procedimiento intenta imitar el esquema de trabajo seguido por los operadores en la
realización de la orientación relativa en los restituidores analógicos. En la orientación
relativa analógica, el operador selecciona 6 puntos distribuidos por el modelo e
intenta realizar el posado en los mismos actuando en cada caso en un elemento de
orientación distinto, puesto que en cada una de las zonas la paralaje residual (py) está
relacionado con un determinado parámetro de orientación. El proceso se realiza varias
veces refinando los resultados en distintas iteraciones. El método propuesto consiste
en la división de la imagen en 6 subzonas (fig.7.18) que coinciden con las zonas de
Von Grüber y en cada una de ellas se intenta el ajuste de un determinado parámetro.
Mediante este método se consigue, por un lado, la reducción de los puntos ya que sólo
se consideran los que están dentro de la zona y, por otro lado, la reducción del espacio
de la matriz de acumulación de un espacio 5-D a espacios 1-D.
El método consta de las siguientes etapas:
- Determinación de la localización y tamaño de las subimágenes, centradas en
las zonas de Von Grüber. Las subimágenes deben estar en la zona de solape
de los modelos. Para dicha determinación es fundamental disponer de un
conocimiento aproximado de los valores de solape longitudinal del par así
como de las elevaciones del terreno.
- Selección de todos los elementos de interés que se encuentran en cada una de
las regiones y construcción de todos las parejas posibles. Cada par se calcula
el parámetro de orientación en función de la zona considerada y se actualiza la
matriz de acumulación.
- Concluido el proceso de comparación se buscan los máximos de la matriz de
acumulación y se determinan los elementos conjugados correspondientes.
- Se repiten los pasos 2 y 3 para el resto de zonas de Von Grüber.
- Se calculan los parámetros de orientación relativa mediante un proceso
convencional de ajuste con determinación de valores erróneos y eliminación
de parejas ambiguas.
418  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

ϕ2 ϕ1

κ2 κ1

ω2 ω1

Fig.7.18. Esquema de las zonas de Von Grüber y los parámetros de orientación


que se resuelven secuencialmente en dichas localizaciones (Schenk, 1999)

7.4 AEROTRIANGULACIÓN DIGITAL AUTOMÁTICA


A diferencia de los procesos de orientación, la realización del proceso de
aerotriangulación tiene carácter opcional, si bien en la actualidad es difícil imaginar
un proyecto cartográfico de cierta envergadura sin la realización de una fase de
aerotriangulación. El objetivo fundamental de la aerotriangulación es la
determinación de coordenadas horizontales y/o verticales de puntos del terreno a
partir de las medidas realizadas sobre los fotogramas y de coordenadas conocidas de
otros puntos del terreno (ACSE,ACSM,ASPRS,1994), por este motivo, se ha
convertido en una práctica habitual hasta el nivel que se puede considerar una fase
más de cualquier proceso cartográfico.
El proceso de aerotriangulación consta de cuatro etapas:
- Preparación: Es necesario la localización en cada fotografía de un número
adecuado de puntos bien distribuidos. La localización debe ser realizada de
forma que el mismo punto aparezca en el mayor número de fotografías
posible. A cada punto seleccionado se le debe asignar un código.
- Transferencia de puntos: Los puntos seleccionados en la fase anterior debe ser
marcados en todos los fotogramas, utilizando un transferidor de puntos.
- Medida de los puntos: Todos los puntos seleccionados, incluyendo los puntos
de control, deben ser medidos con la mayor precisión posible en todos los
fotogramas en los que aparezcan.
- Ajuste del bloque: Se realiza a partir de las fotocoordenadas medidas en la
etapa anterior mediante el empleo de programas específicos que incorporan
sistemas de análisis, revisión y edición.
Si se analiza la evolución de las técnicas y resultados de la aerotriangulación en
las últimas tres décadas, se observa un impresionante avance. Así se ha producido un
incremento de la precisión de 25µm a 5µm (el proceso global es cinco veces más
preciso) y con un incremento del rendimiento en torno a 10 veces. Estas mejoras se
deben básicamente a tres motivos:
- la aparición a finales de la década de los 60 e inicios de la década de los 70 de
los métodos de ajuste de bloques y de análisis de propagación de los errores.
La implementación de estos métodos en los sistemas analíticos que
FOTOGRAMETRÍA DIGITAL   419 

comenzaban a comercializarse y cuyo uso era cada vez más generalizado,


representó una importante mejora, en especial, en la tarea de transferencia de
los puntos y análisis de los resultados.
- la utilización de los métodos de posicionamiento global (GPS) en su triple
vertiente: medida de coordenadas de los puntos de apoyo terrestre, control de
navegación y control de posicionamiento. La introducción del GPS en
Fotogrametría ha supuesto otro hito importante, del que todavía se están
derivando consecuencias, en el aumento del rendimiento de la toma de los
puntos de apoyo y, en especial, en la reducción del número de puntos de
apoyo necesarios para la orientación gracias a la determinación de la posición
y orientación de la cámara en el momento de la toma.
- el empleo de las técnicas de identificación automática de puntos homólogos
en los procesos de transferencia de puntos. La automatización de este proceso
supone una importante revolución al afectar de una forma drástica al proceso
de aerotriangulación. Al respecto es importante indicar que la introducción de
los métodos de ajuste de bloques, los sistemas analíticos o el empleo de
sistemas de navegación y posicionamiento no supuso cambios en las tareas
manuales del proceso, salvo una mayor precisión y comodidad en los
desplazamientos. La introducción de la Fotogrametría Digital y de los
sistemas fotogramétricos digitales añaden una nueva dimensión a la
aerotriangulación, basada básicamente en la automatización de algunas de las
tareas mediante la aplicación de técnicas de análisis digital (selección,
transferencia, medida de los puntos así como el ajuste de bloques).

7.4.1 Objetivos de los Sistemas de Aerotriangulación Automática


Los principales objetivos que pretenden cubrir los sistemas de aerotriangulación
automática son los siguientes:
- automatización de la fase de preparación del proyecto de aerotriangulación,
incluyendo la selección automática de los puntos del bloque.
- automatización de la fase de transferencia de puntos, es decir, la localización
exacta de cada punto del bloque en todas las imágenes en las que se encuentra.
- mejora del proceso de ajuste de bloques mediante el incremento del número
de puntos de bloque.
- proporcionar productos adicionales, como por ejemplo, fotomosaicos.

7.4.2 Fases del proceso de Aerotriangulación Digital Automática

Para cubrir estos objetivos, el proceso se divide en una serie de tareas que se muestran
en la figura 7.19. En dicha figura se clasifican las tareas en función de su
automatización, así las tareas sombreadas son las que requieren la participación del
operador, el resto son procesos automáticos que se desarrollan en modos de procesos
por lotes en los que la única misión del operador es la de supervisión de los
resultados, y si lo considera oportuno, modificación de parámetros, edición de
datos,… . En la Tabla 7.9 se muestran la comparación entre los diferentes métodos de
aerotriangulación (analíticos, digitales interactivos y digitales automáticos) en lo
referente al grado de automatización.
420  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

Tabla 7.9. Comparación del grado de automatización en los diferentes métodos de aerotriangulación
(Schenk, 1997)
Digital
Tareas Analítico
Interactivo Automático
Identificación de puntos de apoyo M M M
Selección de puntos de bloque M I A
Transferencia de puntos M I A
Medida
- puntos de apoyo M M M
- puntos de bloque M I A
Ajuste de bloques A A A

Introducción de Selección de las


parámetros iniciales ventanas de matching

Medid a de Matching con


puntos de apoyo múltiples imágenes

Cálculo de aproximaciones
Ajuste final d el bloque
iniciales para los elementos d e
orientación externa y MDE

Determinación de huellas Análisis de resultados


de los fotogramas
sobre e l terreno

Edición de medidas y/o


Selección de los parámetros iniciales
puntos de paso

Fig.7.19. Diagrama esquemático del sistema de aerotriangulación automática (Schenk, 1997)

- Información inicial
Las entradas del sistema son:
- las imágenes digitales con la orientación interna realizada
- un listado de la secuencia de imágenes por banda y bloque
- el fichero de parámetros de la cámara
- el fichero de los puntos de control
La primera fase incluye la generación de un bloque inicial utilizando las imágenes
a baja resolución. Este bloque incluye la información de los fotogramas, los
parámetros de orientación externa de los mismos y un modelo digital de elevaciones
inicial del área cubierta por el proyecto. Esta información es utilizada en la segunda
fase es la que se seleccionan los puntos de bloque. Tras estas dos fases iniciales el
operador tiene la oportunidad de visualizar y editar los puntos de los bloques,
concluyéndose la etapa previa integrada por las fases 0 a 4.

- Transferencia y medida de puntos


La transferencia de puntos y la fase de medida se realizan en dos pasos. En primer
lugar, se calculan las aproximaciones para los puntos de bloque y posteriormente se
FOTOGRAMETRÍA DIGITAL   421 

realiza un matching de precisión sobre estas aproximaciones. El proceso concluye con


el análisis de los resultados por el operador y la ejecución del programa de ajuste de
bloques.

Formación de los bloques


El objetivo de la formación de los bloques es generar un sistema de referencia para
todas las imágenes del proyecto de aerotriangulación. Este sistema será sobre el que
se refieran todas las medidas realizadas automáticamente. La precisión de las medidas
debe ser aproximadamente "1mm a la escala del fotograma, para satisfacer esta
precisión no es suficiente con aplicar una transformación similar bidimensional de los
fotogramas en el sistema del bloque, siendo necesario disponer de un modelo digital
aproximado de la zona y proyectar las esquinas del fotograma en la superficie. La
figura 7.20 muestra un esquema de la fase de formación de bloques y bandas en el
sistema.

Orientación Relativa Dependiente Modelo i

Ajuste de Escala Modelo i

Traslación Modelo i al sistema de la banda

Final de la banda j?

Calculo de los puntos de paso

Transformación de la banda a bloque

Final del bloque?

Puntos de Control disponibles ?

AJUSTE DE BLOQUES

Fig.7.20. Bloque diagrama de la etapa de formación de bloques (Schenk y Krupnik, 1996)

a) Formación de bandas.-
La formación de bandas es un proceso de tres pasos en el que primero se calcula el
modelo, luego se ajusta a escala y se traslada al sistema de coordenadas de la banda.
El proceso más frecuente empleado para la creación del modelo es el sistema
mixto propuesto por Schenk et al. (1991), en el que se utiliza un sistema de matching
422  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

jerárquico a nivel de elementos para calcular las primeras aproximaciones y un


matching a nivel de área en el nivel de máxima resolución para el cálculo de las
localizaciones precisas de los puntos correspondientes.
En la formación de las bandas se utiliza sólo la primera parte del esquema de
orientación relativa (matching a nivel de elementos) identificando cientos de puntos,
lo que facilita la identificación de los puntos correlacionados erróneamente
proporcionando además una mayor exactitud al ajuste.
Mediante la utilización de la orientación relativa dependiente se asegura que los
ángulos de rotación de la nueva imagen son determinados con respecto al modelo
anterior (o con respecto al sistema de coordenadas de la banda). La escala del nuevo
modelo es el único parámetro que no está determinado, este problema es de sencilla
solución si se dispone de los puntos de paso. La escala se estima mediante la
comparación de puntos próximos. Si se supone que el modelo i es el nuevo modelo,
que está formado por las imágenes k y k+1, el anterior modelo i-1 estará formado por
las imágenes k-1 y k, por tanto, se puede utilizar la imagen k como referencia. La
figura 7.21 ilustra el procedimiento, el objetivo es encontrar los puntos, indicados en
la figura como círculos que están próximos a los puntos marcados por triángulos.
Estos últimos son puntos pertenecientes al modelo i mientras que los anteriores son
pertenecientes al modelo i-1. Una vez determinados todos los pares de puntos posibles
se calcula la escala mediante una media ponderada en función de la inversa de la
distancia entre los puntos que integran la pareja.
n p i −1, j 1
s= ∑ p i, j d j
j =1

donde pi-1,j y pi,j son las distancias desde el centro de proyección del modelo i-1 y del i
a los respectivos puntos del modelo del par j.

Imagen k-1
Imagen k-1
Imagen k

Fig.7.21. Identificación de los puntos para ajuste en escala. Los triángulos representan
los puntos encontrados en el modelo i y los círculos representan los puntos pertenecientes
al modelo anterior (Toth y Krupnik, 1996)

b) Conexión de bandas
El proceso comienza con la determinación de los puntos de paso entre bandas,
mediante la aplicación del mismo sistema de detección de bordes y matching que se
FOTOGRAMETRÍA DIGITAL   423 

emplea en la orientación automática relativa. Las parejas de correlación se establecen


entre las imágenes adyacentes correspondientes a bandas vecinas.
Aunque el solapamiento transversal está limitado a un porcentaje en torno al 20-
30%, pueden detectarse docenas de puntos, de los cuales se deberán seleccionar
aquellos puntos que aparezcan en un mayor número de imágenes (fig.7.22). La
orientación relativa dependiente realizada entre bandas proporciona un segundo
conjunto de centros de proyección para la nueva banda. Debido a que el solape es
reducido es necesario controlar la rotación ω que no debe exceder nunca la tolerancia
("3o). Por último, se transforma la banda actual a la anterior mediante un ajuste
polinómico, utilizando los dos conjuntos de centros de proyección como puntos de
control.

4 3

4 5 6
5 4

3
4

Fig.7.22. Ejemplo de localización de las zonas en el área de solape transversal


indicando el número de fotogramas que está situado en cada zona

Si existen puntos de control disponibles, entonces se realiza un ajuste de bloques.


Este proceso, aún no puede realizarse de forma automática, si bien es importante tener
en cuenta que la tendencia actual es la reducción al máximo de los puntos de apoyo,
debido a su elevado coste. Para ello se instalan sistemas de posicionamiento global
(GPS) en el avión que al proporcionar la posición del mismo en el momento de la
toma de la fotografía, reducen el número de puntos de control necesarios.

c) Sistemas de bloques
Una de las ventajas de los sistemas de aerotriangulación digital automática es la
posibilidad de disponer de sistemas de bloques tridimensionales. El plano XY del
sistema es discretizado en una malla regular de espaciado 1mm. Toda la información
geométrica, como esquinas de las imágenes o puntos imagen son convertidos a
formato raster y almacenados en un sistema de bloque bidimensional. El objetivo
principal es proporcionar la información acerca de la cobertura sobre el terreno de las
imágenes, lo que permite el análisis de las áreas con un mayor grado de solape que las
que deben ser seleccionados y medidos los puntos de bloque.
424  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

Fig.7.23. Selección automática de los puntos de enlace entre dos bandas vecinas, se puede observar la
correcta localización a pesar del desplazamiento entre ambos fotogramas (Toth y Krupnik, 1996)

La figura 7.24 muestra un sistema de bloque tridimensional así como el plano


discretizado bidimensional. Si se considera una configuración de solapamientos
estándar (60%, longitudinal y 20% transversal) y un tamaño de discretización de
1mm, el tamaño del bloque bidimensional será:
Longitud (L) = 230 (0.4 n + 0.6) píxeles Anchura (A) = 230 (0.8 s + 0.2) píxeles
donde n es el número de fotogramas por banda y s es el número de bandas. Para un
bloque con 10 bandas y 20 fotogramas por banda, el tamaño del sistema
bidimensional será de 1978x1886 píxeles. Incluso, para un proyecto de grandes
dimensiones (30 bandas y 40 fotogramas/banda) el tamaño de la matriz sería de
3818x5566 que no es excesivo teniendo en cuenta la cantidad de almacenamiento
necesitada para las imágenes (cada fotograma en torno a 100 Mb).
FOTOGRAMETRÍA DIGITAL   425 

Fotograma

Superficie

Proyección

Fig.7.24. Esquema del sistema de bloques 3D. El plano XY es el sistema de cobertura de bloques cuya
función es almacenar las coberturas de las imágenes que forman un bloque (Toth y Krupnik, 1996)

d) Selección de los puntos de bloque


El objetivo de esta etapa es la determinación automática de los posibles puntos de
bloque, las localizaciones precisas son calculadas en la etapa de medida. El sistema de
bloque con su resolución de 1mm sirve como base para la selección de los puntos de
bloque.
Existen diferentes criterios de selección, incluyendo la calidad de la imagen y la
localización en el espacio objeto (superficie plana). Probablemente el factor más
decisivo es el número de imágenes en la que aparece un punto de bloque. Por otro
lado, la densidad de puntos de bloques contribuye a la robustez del ajuste de bloques.
Debido a razones económicas, el número tradicionalmente se ha limitado al mínimo
debido a que el coste aumentaba proporcionalmente al número de puntos medidos, lo
que no sucede en la aerotriangulación digital.
El sistema del bloque contiene toda la información necesaria para seleccionar
puntos de bloque en áreas de solape elevado. En bloques con características de solape
estándar, los primeros puntos seleccionados serán aquellos que aparezcan en las 6
fotografías.
El método de matching mediante mínimos cuadrados requiere la introducción de
valores aproximados de los puntos correspondientes. El problema surge cuando las
aproximaciones iniciales no son válidas, puesto que existe gran diferencia entre los
resultados finales y dichas aproximaciones. Así en el caso de fotografías aéreas de
zonas montañosas, este hecho puede darse frecuentemente, debido al gran
desplazamiento debido al relieve. Para la corrección de dicho desplazamiento es
necesario disponer de un modelo digital del terreno del área cubierta por los
fotogramas, lo que no siempre es posible debido a que la generación del modelo
digital suele ser un paso posterior a la realización de la aerotriangulación. Por tanto,
es necesario el disponer de un MDT basado en la única información derivada de la
aerotriangulación, aunque éste sólo sea aproximado.
El método más empleado se basa en el conocimiento aproximado de los
parámetros de orientación mediante los sistemas de navegación GPS que permiten el
conocimiento del punto de toma del fotograma. La orientación automática relativa
puede establecer en una resolución media (en torno a 500µm) proporcionando las
426  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

coordenadas modelo de varios cientos de puntos que pueden representar un MDT


aproximado, si bien se puede trabajar en varios niveles de la pirámide para ir
completando el MDT en función de las necesidades de precisión de las
aproximaciones iniciales (aproximadamente 50µm).
Toth y Krupnik (1996) proponen otro método que comienza con la proyección de
los puntos del bloque en el nivel de resolución más alta, una ventana se centra en la
localización aproximada de los puntos bloque en todas las imágenes. Para asegurar la
localización de los puntos correspondientes debe existir un solape suficiente
realizándose el matching de estas ventanas mediante el método de matching múltiple
a nivel de elemento (fig 7.25).

Proyección de los Puntos de Bloque en el


Nivel Inferior de la Pirámide de Imágenes

Definir las porciones de imagen


alrededor de los Puntos de Bloque

Registro de las porciones de imagen

Búsqueda de los mismos elementos


en todas las porciones

Matching de las porciones de


las diferentes imágenes

Fig. 7.25. Bloque diagrama del procedimiento de matching multiple directo

- Matching de los puntos del bloque


El objetivo del matching múltiple es determinar las localizaciones precisas de los
puntos correspondientes a partir de n imágenes (n$2). Todas las imágenes
contribuyen de una forma simultánea para mejorar el proceso de ajuste de los bloques,
esto constituye una de las ventajas más importantes de la Aerotriangulación Digital
frente a la Aerotriangulación Clásica (analógica o analítica) en la que un operador
sólo puede realizar la correlación entre dos imágenes (Agouris, 1992; Schenk y Toth,
1993).
FOTOGRAMETRÍA DIGITAL   427 

Imagen 1

Imagen i
Imagen 2

Imagen j
Imagen n

Fig.7.26. Correlación multiimagen

Fig.7.27. Localización de los puntos que servirán de aproximaciones para la correlación entre 4 fotogramas
en el ajuste de bloques (cada porción de imagen tiene un tamaño 512x512)

7.4.3 Aspectos relativos al desarrollo de la metodología

Los dos aspectos básicos a tener en cuenta son la conexión entre procedimientos
automáticos e interacción del operador y, por otro lado, las necesidades de
almacenamiento y cálculo del sistema informático.

La necesidad de disponer de un esquema semiautomático que combine


adecuadamente la automatización de ciertos procesos con la revisión y análisis de los
resultados parciales realizada por el operador es fundamental debido a la
imposibilidad actual (y en un futuro cercano) de la automatizacion total del proceso.
Con respecto a las necesidades es necesario tener en cuenta el elevado volumen de
información que se maneja, los proyectos de aerotriangulación manejan en torno a
428  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

100 fotografías (cada una de unos 80Mb, con un tamaño de 15µm y una tasa de
compresión JPEG de Q=25) por lo que el volumen total ronda los 8 Gb. Este volumen
requiere una gran labor de diseño de los procedimientos de cálculo, así es aconsejable
el sistema de pirámides de imágenes, descomponer el proceso (necesariamente largo)
en subpartes y, por último, establecer baterías de procesamiento de datos.

El esquema aproximado del sistema se muestra en la figura 7.28, incluyendo las


tareas de preparación, formación de bloques y medida.

Información GPS Puntos Control Pirámides


Proyecto Aerotransportado Terrestre Imágenes

DATOS ENTRADA
Preparación

COBERTU RA INICIAL
(Baja Resolución) Formación Bloques
Orientación Pares Selección y Medida
(Matching nivel elemento Manual de los Puntos
con resolución baja)

COBERTU RA INICIAL
(Alta Resolución) Selección Puntos
de Bloque Medida Manual
(Matching nivel elemento de las porciones
con resolución alta)

PUNTOS INICIALES BLOQUE


Matching de los Matching de los pares
diferentes porciones
(Matching nivel área (Matching nivel área
con resolución alta) con resolución alta)

PUNTOS REFINADOS BLOQUE

Ajuste de Bloques

DATOS DE SALIDA

Fig.7.28. Diagrama esquemático del Sistema de Aerotriangulación Automático (Toth y Krupnik,1996)


FOTOGRAMETRÍA DIGITAL   429 

7.4.3.1. Preparación
Los trabajos de preparación incluyen toda aquella información necesaria para
determinar la matriz de cobertura bidimensional en el plano XY. Para ello, es
necesaria la recopilación de la configuración del bloque (plan de vuelo, solapes
aproximados longitudinal y transversal), así como la posición de las posiciones de los
puntos de toma de los fotogramas (GPS). Además es necesaria la información relativa
a los parámetros de orientación interna y las fotocoordenadas de los puntos de control
(medidas manualmente).

7.4.3.2. Formación de Bloques


La formación de bloques es un proceso automático. Comienza con la correlación
entre las imágenes adyacentes mediante un sistema de matching a nivel de elemento,
similar al utilizado en la orientación relativa. Mediante este método se localizan
cientos de puntos, con una precisión de "1pixel y que son almacenados en el fichero
de foto. Después de que todas las imágenes son correlacionadas, el operador examina
los resultados, mediante el análisis de un fichero de resultados en el que se indican los
principales problemas encontrados durante el proceso de matching.
La siguiente etapa es el registro de los fotogramas en un sistema común de
coordenadas. Esto se realiza en tres pasos: formación de bandas, conexión de bandas
y ajuste de bloques. Este proceso se realiza automáticamente de una forma secuencial
y sólo se detiene en el caso de que se encuentren errores graves. La formación de
bandas se basa en la realización de una orientación relativa con estimación de escala,
la conexión de bandas consiste simplemente en la realización de un proceso de
matching entre bandas identificando los puntos que nos permitirán la conexión y, por
último, si existen puntos de control disponibles se efectuará un proceso de ajuste de
bloques mediante polinomios.
Los resultados de este proceso es un conjunto de parámetros de orientación
aproximada para todos los fotogramas del proyecto. Además, en el caso de que se
calcule el ajuste de bloques se obtendrán las coordenadas aproximadas de los puntos
de bloque, así como las coberturas recalculadas que serán utilizadas para refinar el
proceso.

7.4.3.3. Medida
El objetivo de esta fase es determinar los puntos correspondientes de una forma lo
más precisa posible. Es sistema más empleado en la actualidad es la realización de un
stereo matching mediante mínimos cuadrados utilizando imágenes de alta resolución,
necesitando muy buenas aproximaciones, así, por ejemplo, ya no son válidas las
aproximaciones basadas en la fase de formación del bloque.
El primer paso del proceso de medida es el cálculo de las aproximaciones
necesarias, el procedimiento es similar al de la formación de los bloques pero ahora
centrado en el tratamiento de las porciones comunes de fotogramas. A pesar de todo
esta es la etapa más delicada de automatizar y requiere la participación del operador
cuando fallan los sistemas automáticos.
430  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

7.4.4. Resultados de la Aerotriangulacion Digital Automática


La principal ventaja de la aerotriangulación digital, es la considerable reducción
en cuanto a tiempo de proceso. Así Ackermann y Tsingas (1994) indican que el
proceso total puede completarse en un tiempo inferior a 10 minutos/imagen con un
sistema optimizado.
La principal mejora de rendimiento es relativo a la precisión, incluso aplicando tan
sólo matching a nivel de elemento. En el nivel de 15 µm la precisión en la medida de
fotocoordenadas es de 5 µm. Este valor es comparable a precisión obtenida por los
métodos convencionales estándar de transferencia de puntos y marcado artificial
(pugging), en donde los mejores resultados son de 7 µm, aunque los valores más
frecuentes están en torno a 10 µm, por tanto, se puede concluir que la metodología
digital es al menos tan precisa como la metodología clásica analógica o analítica.
Esa conclusión es referente exclusivamente a la medida en una imagen. El
resultado final en cuanto a determinación de las incógnitas, especialmente, los
parámetros de orientación externa, suele mejorar mucho más como consecuencia de la
medida de un elevado número de puntos. Así, por ejemplo, se suelen tomar 30 puntos
en cada una de las 9 zonas de imagen consideradas con una precisión de 5 µm en
lugar de 1 ó 2 puntos con una precisión de 5 µm, por lo que los resultados finales
mejoran de 7 a 10 veces si se considera un sólo punto y de 5 a 7 si se toman 2 puntos.
Es importante tener en cuenta que el planteamiento es distinto en la
aerotriangulación digital que en la clásica (analógica-analítica), puesto que, se busca
la exactitud de los parámetros de orientación más que la precisión de los puntos
considerados individualmente, de forma que se plantea un esquema de orientación
deducida del proceso de aerotriangulación y no la aerotriangulación como fuente de
información para el proceso de orientación en puntos individuales.
La precisión puede ser mejorada utilizando un procedimiento de matching en
múltiples imágenes, tal y como propone, Schenk y Toth (1993), en cuyo caso la
precisión es del orden de 0.1 píxeles o, incluso mejor, es decir, 1.5µm para imágenes
de 15 µm. Los resultados finales considerando 30 puntos por zona dan lugar a
resultados 20 veces mejores que los de la aerotriangulación clásica.
En la actualidad una de las líneas de investigación con mayor auge dentro de la
Fotogrametría Digital es el diseño y depuración de este tipo de sistemas de
aerotriangulación digital automática, en la actualidad ya existen algunos sistemas en
el mercado. Para más detalles, consultar el trabajo de Kölbl (1996) en el que realiza
un análisis comparativo de algunos de los sistemas más conocidos (HATS de Helava-
Leica, DCCS de Helava y ImageStation de Intergraph) así como los de Kersten y
O=Sullivan (1996) y Beckschäfer (1996) en el que se comentan los equipos de Helava
e Intergraph, respectivamente.

7.4.5 Sistemas comerciales


Los principales sistemas comercializados para la realización de aerotriangulacíón
digital automática son:
FOTOGRAMETRÍA DIGITAL   431 

- BAE Systems Multisensor Triangulation (módulo de SOCET SET), que


puede ser instalado en plataformas Windows NT o UNIX.
- Z/I Imaging ISAT, que se ejecuta sobre plataformas Windows NT
- Z/I Imaging Phodis-AT, que se ejecuta sobre plataformas Silicon Graphics
- Inpho Match-AT, que se ejecuta sobre plataformas NT y UNIX y que viene
instalado en diferentes sistemas o bien como un sistema independiente
En la Tabla 7.10 se resumen las principales publicaciones referentes a estos
sistemas, tanto por parte de las casas comerciales como por parte de usuarios de estos
sistemas.
Tabla 7.10. Publicaciones sobre sistemas de aerotriangulación digital automática (Kersten, 1999b)
Sistema Artículos de casas comerciales Artículos de usuarios
BAE Systems MST DeVenecia et al. (1996) Kersten y O=Sullivan (1996)
Kersten y Häring (1997)
Kersten et al. (1998)
Kersten (1999a)
Inpho Match-AT Krzystek et al. (1996) Käser et al. (1999)
Krzystek (1998)
Z/I Imaging Match-AT Urset y Maalen-Johansen
(1999)
Z/I Imaging Phodis-AT Braun et al. (1996) Hartfiel (1999); Masala (1999)
Tabla 7.11. Características básicas de los sistemas de aerotriangulación digital automática (Kersten, 1999b)
Características MST Match-AT Match-AT Phodis-AT
(LH Systems) (Z/I Imaging) (Inpho) (Z/I Imaging)
Orientación Interna automática semi-automática semi-automática automática
Integración MDT Sí Sí Sí No
Integración GPS valores iniciales Sí Sí valores iniciales
APM Sí Sí Sí Sí
Algoritmo correl.cruzada FBM/ABM FBM/ABM FBM/ABM
IPM estéreo estéreo Mono Mono
Ajuste de bloques módulo integrado Integrado externo

7.4.6 Comparación de resultados entre aerotriangulación analítica y digital


Desde la aparición de los sistemas comerciales de aerotriangulación digital se ha
despertado un interés en la comparación de los resultados derivados de ésta frente a
los obtenidos utilizando el esquema clásico en un restituidor analítico.
Uno de las pruebas más interesantes es el promovido por la OEEPE/ISPRS con el
objetivo de analizar el rendimiento de los principales sistemas de aerotriangulación
digital automática, en especial, la extracción y medida automática de puntos de paso.
El test fue desarrollado por 21 participantes (4 empresas de software, 5 organismos de
producción cartográfica, 4 empresas privadas y 3 institutos de investigación)
utilizando los sistemas Leica (HATS - Helava Aerotriangulation System), Inpho e
Intergraph (Match-AT) y Zeiss Phodis-AT. Los resultados del test fueron publicados
en Heipke y Eder (1999).
Para la realización del mismo se utilizó el bloque Wittenbach, cuyas
características se resumen en la Tabla 7.12.
432  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

Tabla 7.12. Características del bloque Wittenbach


Fecha del vuelo 20 de Abril de 1998
Cámara/Objetivo Leica RC30 - 152mm
Escala del fotograma Aprox. 1:8000
Solape (longitudinal/transversal) 80%, 30%
asadas/fotogramas 4/48
Rango de cotas 480-820m
Características del terreno Zona rural con algunos pequeños núcleos urbanos y bosques
N1 de puntos de apoyo 16 (preseñalizados)
Escáner LH Systems DSW300
Tamaño del pixel 12.5µm

Se utilizaron un total de 34 imágenes en color del bloque que fueron digitalizadas


en un escáner fotogramétrico Leica DSW300 instalado en una estación Sun Ultra 1
con una resolución de 12.5µm en formato TIF (para su utilización posterior en Socet
Set fue transformado a formato ViTec) empleando un tiempo de 15 minutos por
imagen. El tamaño de cada fichero fue de 330 Mb.
La aerotriangulación de este test fue realizada en tres sistemas distintos:
- un restituidor analítico Kern DSR14 equipado con el software de
aerotriangulación ORIMA-T.
- una estación fotogramétrica digital Leica SOCET SET (v.4.0.10.2) –este
sistema es actualmente comercializado por BAE Systems- equipada con el
módulo HATS (Helava AeroTriangulation System) instalada en una estación
de trabajo Sun Ultra 2.
- una estación fotogramétrica digital equipada con el software de
aerotriangulación digital Match-AT v.2.0.1 de Inpho GmbH instalado en una
estación de trabajo Silicon Graphics O2 R5000.
- una estación fotogramétrica digital que incorporaba el software Zeiss Phodis-
AT.
La información de partida utilizada en los tres casos fue:
- contactos de las fotografías en color imágenes analógicas (diapositivas)
- imágenes digitales
- gráfico del vuelo
- localización de los puntos de apoyo en un mapa 1:25000
- reseñas de los puntos de apoyo
- valores aproximados de localización de la cámara extraídos a partir del mapa
1:25000 y la altura marcada en el altímetro.
En todos los casos la aerotriangulación se realizó a partir de las imágenes sin
comprimir y sin disponer de un modelo digital de las elevaciones de la zona.

7.4.6.1 Aerotriangulación Analítica (sistema Kern DSR-14 con ORIMA-T)


Las fases de trabajo realizadas con el sistema analítico Kern DSR-14 fueron las
siguientes:
1.- Preparación
- Marcado de los puntos de control en los contactos.
- Introducción de la información de la cámara y los puntos de control.
FOTOGRAMETRÍA DIGITAL   433 

2.- Medidas con ORIMA


- Colocación de las diapositivas en color en las placas del restituidor.
- Orientación interna.
- Medidas de los puntos de control del terreno.
- Medidas de los puntos de paso en las posiciones de Von Grüber y marcado de
los mismos en los contactos.
- Ajuste de cada modelo medido para el control de calidad en la dirección de la
pasada.
3.- Ajuste y control de calidad
- Transferencia de datos (fotocoordenadas y coordenadas terreno) a un software
de ajuste de bloques.
- Ajuste del bloque utilizando el programa BLUH (Universidad de Hannover)
incluyendo la eliminación de valores erróneos (blunder) y el control de
calidad.
- Actualización de los elementos de orientación en el sistema analítico.

El restituidor analítico Kern DSR14 tiene una precisión estimada de 5-8 µm. El
ajuste se podría haber efectuado utilizando la versión completa del programa
ORIMA-T no disponible en la empresa encargada del trabajo (Swissphoto
Vermessung AG). En el proceso se detectó la presencia de tres puntos erróneos
(errores groseros) y fue necesario la eliminación de las coordenadas X,Y de un punto
de control debido a posibles problemas con las coordenadas.

7.4.6.2 Aerotriangulación Digital Automática (sistema BAE Systems SOCET SET)


El esquema de trabajo con el sistema SOCET SET fue el siguiente:
1.- Preparación
- Preparación de ficheros (cámara, valores aproximados de orientación de las
diferentes imágenes, puntos de control).
- Importación de las imágenes e introducción de los valores aproximados de
orientación de las imágenes y generación de las pirámides de imágenes.
- Orientación Interna Automática (Kersten y Häring, 1997).
- Introducción de los parámetros de aerotriangulación con un modelo de puntos
de paso que incluye 98 puntos por imagen.
- Comprobación visual de la disposición del bloque (control de calidad de los
valores aproximados de orientación).
2.- Medidas en HATS
- Medida semiautomática o interactiva (IPM) de los puntos de control
- Medida automática (APM) de los puntos de paso
- Ajuste inicial mediante el módulo ASimultaneous Solve@ incluyendo detección
de errores groseros y revisión/edición de medidas (fig.7.29).
- Medida semiautomática o interactiva (IPM) de puntos de paso adicionales
3.- Ajuste y control de calidad
- Transferencia de datos (fotocoordenadas y coordenadas terreno) a un software
de ajuste de bloques.
434  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

- Ajuste del bloque utilizando el programa BLUH (Universidad de Hannover)


incluyendo la eliminación de valores erróneos (blunder) y el control de
calidad.
- Actualización de los elementos de orientación en el sistema fotogramétrico
digital.
En el proceso de medida automática se midieron un total de 2192 puntos (65%)
mientras que la medida falló en 578 puntos. El sistema incorpora un método para la
detección automática de aquellas zonas en la que es necesario realizar medidas de
puntos de paso, reduciendo la edición al máximo. En el proceso de ajuste se
detectaron 10 puntos con errores groseros, procediendo a la revisión de la medida. Por
otro lado, se eliminaron de una forma automática aquellos puntos con errores
superiores a 20µm (146 puntos).

Fig.7.29. Captura de pantalla del sistema BAE Systems SOCET-SET


en el proceso de detección y edición de errores groseros (LH Systems, 1999)

7.4.6.3 Aerotriangulación Digital Automática (sistema MATCH-AT)


El esquema de trabajo con el sistema MATCH-AT fue el siguiente:
1.- Preparación
- Transferencia automática de los parámetros iniciales de triangulación desde el
sistema HATS al fichero de proyecto de MATCH-AT.
- Generación de las pirámides de imágenes.
- Definición y edición de los siguientes parámetros: proyecto, fotogramas,
pasadas, bloques, puntos, matching, ajuste.
- Medida semiautomática de cuatro puntos de control bien distribuidos en el
bloque.
- Delimitación de las zonas de puntos de paso en las posiciones de Von Grüber
incluyendo comprobación visual y edición.
FOTOGRAMETRÍA DIGITAL   435 

2.- Medidas en MATCH-AT


- Medida automática (APM) de los puntos de paso a través de un proceso de
matching por mínimos cuadrados (FBM/ABM).
- Ajuste del bloque que se efectúa durante el proceso de medida e incorpora
técnicas de estadística robusta para la detección de errores groseros.
- Medida semiautomática de los puntos de control.
3.- Ajuste y control de calidad
- Transferencia de datos (fotocoordenadas y coordenadas terreno) a un software
de ajuste de bloques.
- Ajuste del bloque utilizando el programa BLUH (Universidad de Hannover)
incluyendo la eliminación de valores erróneos (blunder) y el control de
calidad.
La fase más lenta de todo el proceso fue la generación de las pirámides de
imágenes (aproximadamente 10 min/imagen). El sistema Match-AT realizó de una
forma adecuada la detección de errores groseros y el ajuste posterior con BLUH fue
correcto.

7.4.6.4 Aerotriangulación Digital Automática (sistema Zeiss Phodis-AT)


La aerotriangulación digital con el sistema Zeiss Phodis-AT fue realizada
directamente por la empresa Zeiss Oberkochen. El esquema de trabajo con el sistema
Phodis-AT fue el siguiente (Braun et al., 1996):
1.- Preparación
- Preparación de ficheros (cámara, valores aproximados de orientación de las
diferentes imágenes, puntos de control).
- Importación de las imágenes e introducción de los valores aproximados de
orientación de las imágenes y generación de las pirámides de imágenes.
- Orientación Interna Automática.
- Definición de los parámetros de aerotriangulación.
- Comprobación visual de la disposición del bloque (control de calidad de los
valores aproximados de orientación).
2.- Medidas en Phodis-AT
- Medida semiautomática o interactiva (IPM) de los puntos de control.
- Medida automática (APM) de los puntos de paso.
- Medida semiautomática o interactiva (IPM) de puntos de paso adicionales.
3.- Ajuste y control de calidad
- Transferencia de datos (fotocoordenadas y coordenadas terreno) a un software
de ajuste de bloques.
- Ajuste del bloque utilizando el programa BLUH (Universidad de Hannover)
incluyendo la eliminación de valores erróneos (blunder) y el control de
calidad.
En este caso no fue posible la medida de un punto de control como consecuencia
de no estar claramente definido en la imagen. Se introdujeron puntos de paso
adicionales para conseguir una mejor conexión de las líneas 2, 3 y 4. El sistema de
436  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

Phodis-AT detectó de una forma correcta todos los errores groseros de las medidas
automáticas de forma que el sistema externo de ajuste no pudo detectar ningún error.

7.4.6.5 Resultados del ajuste de bloques


Antes del ajuste final del bloque se realizó la corrección de las fotocoordenadas de
los desplazamientos por curvatura terrestre y refracción atmosférica. Todas las
observaciones (fotocoordenadas y coordenadas terreno de los puntos de apoyo) fueron
ajustados en un sistema de ajuste de bloque con autocalibración (programa BLUH).
En todos los casos se ha considerado una desviación típica para las coordenadas
terreno de los puntos de apoyo de 5cm (xyz) y un valor de σo de 5µm (0.4 píxeles).
Los residuos (error medio cuadrático RMS) de los puntos de control se resumen
en la Tabla 7.13. Los resultados en todos los casos son similares, aunque se detectan
ligeras diferencias en planimetría, alcanzándose los mejores resultados con HATS
(2.2cm -x- y 3.8cm -y-), mientras que el valor de σo es similar en todos los sistemas
(en torno a 5.5µm) salvo en HATS en el que es ligeramente peor (6.6µm). En esta
tabla se puede comprobar como en contra de lo que podría parecer a priori no se
alcanzan los mejores resultados en el sistema analítico, en el que se obtienen valores
similares a los sistemas digitales tanto en error de coordenadas como en σo.
Tabla 7.13. Resultados del ajuste del bloque Wittenbach utilizando BLUH (Kersten, 1999b)
RMS x RMS y RMS z
Sistema I S C H/V σo (µm) O R
(cm) (cm) (cm)
DSR14 35 4 15/16 5.5 1256 521 3.3 3.2 6.2
Match-AT 34 4 16/16 5.3 7042 3314 4.1 3.7 6.1
Phodis-AT 34 4 15/15 5.6 15165 5292 5.3 4.5 6.7
HATS 34 4 16/16 6.6 4262 1775 2.2 3.8 5.0
I: Nº Imágenes; S: Nº de pasadas; C: Nº de puntos de apoyo; O: Observaciones; R: Redundancia

En la Tabla 7.14 se muestra el número de fotogramas en los que aparecen cada


uno de los puntos de paso medido. Este parámetro es básico para analizar el
rendimiento de cada sistema para proporcionar una geometría de bloque estable al
establecer un número suficiente de puntos dentro del bloque. En este caso se observa
como la mejor selección de los puntos se alcanza en el sistema analítico en el que un
15.1% de los puntos aparecen en más de 6 imágenes, gracias a la labor del operador
en el proceso de selección. Los sistemas digitales alcanzan resultados similares si bien
son ligeramente mejores en Match-AT.
Tabla 7.14. Número de fotogramas por punto de paso en el bloque Wittenbach (Kersten,1999b)
Sistema Número de fotogramas/punto
2 % 3 % 4 % 5 % 6 % 7 %
Kern DSR14 38 22.1 83 45.2 15 20.8 10 5.8 14 8.1 12 7.0
Match-AT 410 35.0 537 45.9 94 8.0 90 7.7 40 3.4 0 0.0
Phodis-AT 2231 69.3 889 27.6 74 2.3 21 0.7 5 0.1 0 0.0
HATS 410 54.1 228 30.1 39 5.1 42 5.5 36 4.8 3 0.4

La precisión empírica de cada sistema fue comprobada utilizando algunos puntos


de apoyo como puntos de comprobación. En este caso se utilizó un número de puntos
de apoyo mínimo para la orientación del bloque -5- (cuatro puntos en cada extremo y
un punto en el centro) mientras que los puntos restantes -11- eran empleados para la
comprobación. Los resultados de la comprobación se muestran en la Tabla 7.15. En
FOTOGRAMETRÍA DIGITAL   437 

dicha tabla se puede comprobar como sorprendentemente los mejores resultados no se


alcanzan en el sistema analítico, debido quizá a problemas de conexión de las fotos
del bloque. Todos los sistemas digitales alcanzan resultados similares (y
considerablemente mejores que el sistema analítico).
Tabla 7.15. Resultados de la comprobación de la orientación del bloque Wittenbach (Kersten 1999b)
Sistema A H/V C H/V σo (µm) σ X (cm) σ Y (cm) σ Z (cm)
DSR14 5/5 11/11 5.5 17.2 22.8 41.0
Match-AT 5/5 11/11 5.4 8.6 11.2 18.0
Phodis-AT 5/5 11/11 5.6 10.8 11.6 20.3
HATS 5/5 11/11 6.7 9.7 10.1 16.1

7.4.6.6 Tiempo necesario


El tiempo necesario para la realización de la aerotriangulación digital y analítica
del bloque Wittenbach en los diferentes sistemas se resume en la Tabla 7.16. En dicha
tabla se considera exclusivamente el tiempo de operador al ser un factor determinante
en el coste económico del proceso. En el análisis de estos valores es necesario tener
en cuenta que en cada sistema el operador era distinto (si bien todos con gran
experiencia) y que los tiempos del sistema Phodis-AT fueron proporcionados
directamente por la empresa que comercializa el sistema Zeiss.
Aunque los resultados particulares para cada sistema son diferentes, debido tanto
al grado de automatización del proceso y a problemas específicos de la
aerotriangulación de este bloque concreto, se puede indicar como primera conclusión
que el tiempo necesitado con los sistemas digitales es la tercera parte del requerido
con el sistema analítico.
Tabla 7.16. Tiempo de operador requerido para la aerotriangulación del bloque Wittenbach en los distintos
sistemas (Kersten, 1999b)
Fases DSR-14 Match-AT Phodis-AT HATS
Preparación (h) 5.0 1.5 1.0 1.5
Medidas de aerotriangulación (h) 10.5 5.5 3.5 4.5
Ajuste de bloque y control de calidad (h) 2.0 0.5 1.0 3.5
Tiempo Total (h) 17.5 7.5 5.5 9.5
Número de imágenes 35 34 34 34
Tiempo por imagen (min) 30.0 13.2 9.7 16.8

7.5 AUTOMATIZACIÓN DEL PROCESO DE ORIENTACIÓN ABSOLUTA


El problema de la orientación absoluta es la obtención de la función de
transformación entre el sistema de coordenadas modelo y el sistema de coordenadas
terreno en el que se desea obtener la información cartográfica. Para la determinación
de dicha función de transformación es necesario disponer de una información común
a ambos sistemas, es decir, es necesario realizar la medida sobre el sistema de
coordenadas modelo de un número determinado de puntos de los que se conozcan sus
coordenadas en el sistema terreno.
El interés que se ha experimentado por la automatización del proceso de
orientación absoluta viene marcado por dos factores claramente negativos:
438  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

- el hecho de que la complejidad de la automatización del proceso de


orientación absoluta, es en una primera aproximación, considerablemente
mayor que la del proceso de orientación interna o la de orientación relativa.
- la tendencia actual de la reducción del número de puntos necesarios mediante
la aplicación de las técnicas de aerotriangulación y de empleo de sistemas
GPS/INS en vuelo. Cuando se utilizan dichas técnicas y métodos es
fundamental la calidad de la medida sobre la imagen siendo básica para esta
tarea la labor de fotointerpretación que realiza el operador.
No obstante, el interés de la automatización del proceso de orientación automática
viene determinado por tres factores:
- la automatización del proceso cartográfico mediante la aplicación de técnicas
fotogramétricas pasa por la automatización del proceso de orientación
absoluta. Además es necesario considerar que la automatización de estos
procesos de identificación de puntos de apoyo sobre la imagen tiene indudable
interés para la orientación de otros tipos de imágenes, como, por ejemplo, las
imágenes de satélite.
- la identificación manual y medida de los puntos de apoyo consume un tiempo
aproximado entre el 10 y el 20% para un bloque (si no se utilizan sistemas de
posicionamiento global en vuelo). La reducción de este tiempo es importante
y pasa por el diseño de herramientas que facilite el proceso de identificación
(con aproximaciones en tiempo real que eviten el tiempo necesario para el
desplazamiento hasta la zona en la que se encuentra el punto a medir) y de
medida (sistemas de posado automático sobre el terreno).
- la utilización de sistemas de posicionamiento global en vuelo es todavía
reducida y además no es previsible su uso generalizado para grandes escalas
(Burman y Torlegård, 1994). La implementación tiene como factores en
contra el elevado coste de los sistemas debido al escaso número de fabricantes
(en torno a 150.000 € por cámara) y el hecho de que no se conoce con
exactitud la estabilidad de dichos sistemas en el tiempo. Por tanto, en la
actualidad, y durante algunos años aún, se seguirá trabajando con bloques
clásicos con sistemas de orientación indirecta mediante puntos de apoyo.
Para superar esta dependencia del operador, se pueden adoptar dos soluciones, la
primera consiste en la utilización de puntos preseñalizados en la imagen con lo que se
simplifica la tarea de identificación asemejándose en dicho caso el proceso bastante,
aunque con una mayor complejidad, a lo que sería un proceso de orientación interna
automática; la segunda, consiste en la sustitución de los puntos de control por
elementos (no puntuales) de control con lo que se facilita su localización en la imagen
al reducirse la ambigüedad de identificación (al aumentar la complejidad del elemento
extraído se reduce el número de elementos similares en la imagen y se facilita su
localización).
Otro aspecto fundamental para facilitar el proceso de orientación absoluta
automática es disponer de unas buenas aproximaciones de los parámetros de
orientación externa (posición y orientación de las cámaras). En esta línea se plantea la
utilización, cada día más frecuente, de sistemas de posicionamiento GPS/INS dando
FOTOGRAMETRÍA DIGITAL   439 

lugar a lo que se conoce como orientación directa que ha sido empleada con éxito
para la localización de diversos sensores (radar, satélites multiespectrales,...). En la
actualidad estos sistemas alcanzan precisiones del orden de 10 cm en posición y de 20
segundos de arco en orientación mediante la aplicación de las técnicas de postproceso.
Estos parámetros permiten la orientación de fotografías aéreas de escala 1:6500
digitalizadas a 20µm con una precisión en torno a 10-20 cm sin utilizar puntos de
apoyo. Una ventaja básica de la orientación directa (utilizando los sistemas de
posicionamiento y orientación del sensor sin utilizar medidas sobre la imagen) es que
la orientación es totalmente independiente de los errores producidos en el posterior
tratamiento de la imagen (digitalización) que en el proceso de orientación indirecta se
acumulan en la orientación absoluta y afectan a los resultados. Además, la orientación
obtenida mediante orientación directa es homogénea en todo el modelo, eliminando la
dependencia de la orientación indirecta de la posición de los puntos de apoyo
considerados.
A pesar de todo lo anterior es necesario tener en cuenta que en la actualidad, la
aplicación fundamental de la utilización de sistemas de posicionamiento global en
vuelo es disponer de buenas aproximaciones para la orientación absoluta (reducción
de los espacios de búsqueda de las ventanas que contienen las posiciones de los
puntos de apoyo).
7.5.1 Orientación Absoluta Automática utilizando puntos de control
El procedimiento de orientación absoluta automática mediante la identificación y
medida de los puntos de control intenta reproducir el proceso realizado por el
operador. Como se ha indicado con anterioridad se trata de una tarea de compleja
automatización debido a la complejidad propia de las imágenes.
Una de las condiciones fundamentales que deben cumplir los puntos de control es
que puedan ser fácilmente identificables y distinguibles en la imagen, por tanto, deben
ser únicos (si existe un elemento repetitivo dificulta la identificación del punto de
control) y deben ser medidos con la mayor precisión posible. En la práctica es posible
emplear puntos naturales seleccionados sobre la imagen o bien puntos preseñalizados,
ambos con la condición de que aparezcan en el mayor número de fotogramas
posibles.
Los principales problemas para la identificación automática de los puntos de
control son:
- el tamaño de los puntos sobre los que es necesario efectuar la medida debe ser
reducida para que no exista incertidumbre en la misma, pero ello produce que
sea representado en la imagen digital en un número de píxeles muy reducido.
Por tanto, su detección es compleja dentro de una imagen que presenta un
tamaño mucho mayor y en la cual pueden existir píxeles cuya respuesta
espectral sea similar a la del punto de control o bien que presente problemas
radiométricos que igualen las señales. El problema fundamental es que los
puntos de control se diseñan o escogen pensando en el esquema de medida
mediante operador, desde una filosofía completamente diferente a la de la
medida automática.
440  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

- frecuentemente, los puntos presentan diversos problemas derivados de la


propia geometría de las imágenes, así pueden estar ocultos en algún
fotograma. Este problema que es fácilmente solventado por un operador puede
producir problemas importantes si el sistema identifica algún elemento del
entorno del punto como el propio punto que no aparece en la misma,
falseando el resultado de la orientación.

7.5.1.1 Detección Automática de Marcas Artificiales (targets)


Una solución muy eficaz para la medida automática de los puntos de control es el
empleo de marcas artificiales. Esta solución cuya utilización es muy frecuente en los
trabajos de Fotogrametría No Topográfica (en especial, Fotogrametría Industrial) es
desgraciadamente poco empleada en nuestro país en los trabajos cartográficos de
Fotogrametría Aérea, debido en parte a los problemas logísticos que plantea (es
necesario la instalación previa de las marcas) y la elevación del coste derivado.
La forma de las marcas es muy variadas, así cada vez es más frecuente las marcas
con forma de AT@, AV@, AX@, A+@ (fig.7.30) frente a las marcas circulares tradicionales.
Los factores claves que definen el diseño de la marca son:
- las marcas instaladas sobre el terreno deben ser de fácil detección
- deben estar geométricamente bien definidas (la forma y dimensiones deben
ser constante en todo el fotograma)
- el tamaño debe ser como norma general de 0.01 a 0.1mm (lado del cuadrado
que engloba al círculo en el caso de las marcas circulares) sobre la imagen.
Asimismo es aconsejable añadir elementos lineales de mayor tamaño (0.05 a
0.5mm y separados 0.02 a 0.2mm de la marca) para facilitar su identificación
- deben ser de fácil representación
- deben ser visibles desde diferentes direcciones
- deben estar bien distribuidas en la imagen
- deben ser independientes del contenido de la imagen
- deben presentar un adecuado contraste con respecto al terreno sobre el que se
sitúa
- deben ser independientes (o al menos verse afectadas lo menos posible) por la
escala de la imagen

Fig.7.30. Diferentes ejemplos de marcas artificiales instaladas para la orientación absoluta del modelo.
Izq: Marca en forma de cruz, Centro: Marca en forma de T;
Der: Marca en forma de T a la que se le ha volado la parte superior
FOTOGRAMETRÍA DIGITAL   441 

La detección y medida automática de las marcas artificiales para la orientación


absoluta del modelo se realiza mediante la aplicación de métodos de matching, bien a
nivel de área (los más frecuentes) o a nivel de elemento o relacional.
El procedimiento más frecuente para la medida de las marcas artificiales se basa
en la aplicación de los métodos de matching (matching por mínimos cuadrados o
matching mediante correlación cruzada). Para el empleo de estos métodos es
necesario contar con una imagen de referencia (patrón) sobre la que se aplicarán las
transformaciones o comparaciones con respecto a la imagen en la que se debe
identificar la marca. Por tanto, el primer problema a resolver es la disponibilidad de
los patrones de las marcas, lo cual no siempre es sencillo debido a la gran variabilidad
del terreno sobre el que se sitúa la marca, junto con los cambios ambientales que
condicionan la imagen final (iluminación, topografía de la superficie, reflectancia,...).
La solución más frecuente es la utilización de patrones que intenten reflejar la
situación más frecuente, que en el caso de métodos sensibles a la rotación se sustituye
por una colección de patrones con diferentes orientaciones, corriendo el riesgo de
obtener peores niveles de correlación o bien utilizar operadores a nivel local que
ajusten las características radiométricas de la imagen en las proximidades de la marca.
Una posible solución para evitar el empleo de patrones es la utilización del
método propuesto por Gülch (1995) basado en la aplicación de matching a nivel de
elementos (segmentación de la imagen, extracción de contornos y análisis de formas).
El método consiste básicamente en un proceso de segmentación de la imagen, en la
que se intenta discernir entre el fondo y la marca, el análisis de las formas obtenidas
permitirá definir las marcas que aparecen en la imagen así como su posición en la
misma. Este método presenta importantes ventajas como, por ejemplo, la posibilidad
de detección de marcas ocultas parcialmente o bien como sucedía en el ejemplo
mostrado en la figura 7.31 der. que hayan sufrido algún desperfecto desde su
colocación hasta el momento del vuelo.

7.5.1.2 Detección automática de elementos naturales


Tal y como se ha comentado en el apartado anterior la situación más frecuente en
los trabajos de Fotogrametría Aérea es que no se disponga de preseñalización de los
puntos de control sobre el terreno mediante marcas artificiales, debiendo recurrir a la
medida de puntos situados sobre elementos naturales característicos del terreno
(cruces de carreteras, esquinas de edificios, Y). La orientación absoluta mediante la
utilización de medidas sobre los elementos naturales requiere, en primer lugar, la
identificación del elemento sobre el terreno y, a continuación, la medida precisa de la
posición del mismo. Para la identificación de este tipo de elementos es fundamental
intentar utilizar todas la información disponible (orientaciones, morfologías,
relaciones con otros elementos, colores, tamaños y superficies, Y). Para esta tarea es
fundamental la aplicación de sistemas de matching de tipo relacional, aptos para la
manipulación de datos descriptivos referentes a los elementos de control empleados.

7.5.2 Orientación Automática con líneas de apoyo


La tendencia actual es el abandono progresivo del concepto de punto de apoyo, ya
que como se ha comentado con anterioridad presenta importantes inconvenientes con
442  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

vistas a la automatización del proceso. Los clásicos puntos de apoyo tienden a ser
sustituidos por elementos de apoyo (fundamentalmente, de carácter lineal). El proceso
de orientación automática mediante elementos lineales comprende tres etapas:
1. Extracción de los elementos lineales de la imagen.
2. Establecimiento de la correspondencia entre los elementos lineales extraídos y
los elementos de control.
3. Determinación de los parámetros de orientación externa de la imagen.
7.5.2.1 Correspondencia entre elementos extraídos y elementos de apoyo
Para la establecer la correspondencia entre los elementos extraídos y los elementos
de apoyo se pueden emplear básicamente dos métodos: matching a nivel de elementos
o el método de ensayo y error, que fue comentado con anterioridad en el apartado
referente a la orientación relativa automática.
Los elementos extraídos pueden ser representados por una secuencia de píxeles de
la imagen, al igual que los elementos de apoyo pueden ser representados por una
secuencia de puntos 3D en el espacio objeto. El método de ensayo y error parte de que
ambas representaciones tienen aproximadamente la misma densidad de puntos. Este
hecho es fundamental para que se pueda establecer una correspondencia adecuada
entre ambos conjuntos de datos.
Las expresiones de colinealidad definen la relación entre el espacio imagen y el
espacio objeto (terreno). Para la determinación de la relación basta con disponer de
tres pares de estas ecuaciones ya que la resolución del sistema permite el cálculo de
los seis parámetros de orientación externa. Si se plantea un espacio 6D de parámetros,
éste contendrá todas las posibles soluciones obtenidas de las todas las posibles
combinaciones de tres puntos establecidas entre los elementos extraídos y los
elementos de apoyo. La determinación de la solución correcta se establece desde el
punto de vista estadístico mediante una matriz de acumulación de resultados, ya que
todas las parejas correctas proporcionarán la misma solución, mientras que las
incorrectas tenderán a dar muy diversas (y, muchas veces, ilógicas) soluciones. El
único problema de este método es el enorme esfuerzo de cálculo que conlleva, así por
ejemplo, con un número de 100 elementos extraídos y de 100 elementos de apoyo,
teniendo en cuenta que el número de variables es 3, el número total de soluciones
viene dado por la expresión:
n! m! 100! 100!
s= = = 1.51011
k! (n − k )! (m − k )! 100! (100 − 3)! (100 − 3)!

Para evitar este problema Habib et al.(2000) plantea una solución consistente en
trabajar sólo con parejas formadas entre un punto extraído de la imagen y un punto de
apoyo, planteando sólo 2 ecuaciones de colinealidad que permite el cálculo de dos
parámetros de forma simultánea. Para completar el número total de parámetros se
plantea una secuencia iterativa del tipo: {Xc,Yc}; {Zc}; {ω,φ}; {κ}.
Una vez que los parámetros de la orientación son calculados se revisan las
correspondencias establecidas, eliminando aquellas parejas erróneas y realizando el
cálculo final mediante colinealidad convencional.
FOTOGRAMETRÍA DIGITAL   443 

7.5.2.2 Cálculo de los parámetros de orientación con líneas de apoyo


El método anterior aunque inicialmente parte de elementos lineales de apoyo,
recurre finalmente a una solución de carácter puntual (la relación se establece entre
los píxeles de la imagen y los elementos 3D puntuales que definen los elementos de
apoyo). Zalmanson (2000) propone un nuevo método que utiliza directamente los
elementos lineales de apoyo (líneas de apoyo) basándose en su representación
paramétrica.
La forma paramétrica de una curva puede ser expresada como:
⎡X (t )⎤
⎢ ⎥
L(t ) = ⎢Y (t )⎥ a≤t≤b
⎢⎣ Z(t )⎥⎦

Por tanto, la curva viene descrita por un conjunto de vectores L(t) dentro de un
determinado intervalo <a,b> (fig.7.31).
Z

Y t=b

lb

la

t=a

Fig.7.31. Representación paramétrica de una línea tridimensional. El parámetro de la curva t toma valores
dentro del intervalo <a,b>. La curva comienza en t=a en una posición definida por el vector la y termina en
t=b en una posición definida por el vector lb (Schenk, 1999)

Para establecer la relación entre un punto extraído de la imagen xp,yp y la curva de


apoyo L(t) es necesario la modificación de las expresiones clásicas de colinealidad
dando lugar a las expresiones:
x p = −f
(X(t ) − Xc ) r11 + (Y(t ) − Yc ) r12 + (Z(t ) − Zc ) r13
(X(t ) − X c ) r31 + (Y(t ) − Yc ) r32 + (Z(t ) − Zc ) r33

y p = −f
(X(t ) − Xc ) r21 + (Y(t ) − Yc ) r22 + (Z(t ) − Zc ) r23
(X(t ) − Xc ) r31 + (Y(t ) − Yc ) r32 + (Z(t ) − Zc ) r33
444  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

En esta expresión se abandona la clásica relación entre el punto medido en la


imagen xp,yp,-f y el punto del terreno XP,YP,ZP, siendo sustituida por la relación entre
el punto medido en la imagen y localización concreta en una curva definida por el
parámetro t. La utilización de esta expresión añade una incógnita adicional (el
parámetro t de localización) a las expresiones de colinealidad.
Las ecuaciones modificadas de colinealidad deben ser linealizadas para ser
resueltas dentro de un esquema de ecuaciones lineales. La linealización requiere
valores de aproximaciones iniciales para todas las incógnitas incluido el parámetro t
del vector. La forma más razonable de estimar la aproximación to de dicho parámetro
es calcular el punto de la curva de control que está más próximo al rayo definido por
el centro perspectivo XCo,YCo,ZCo y el punto xp,yp (vector imagen) es el espacio
imagen. Con las ecuaciones de colinealidad modificadas y linealizadas, se establece
un modelo Gauss-Markov que expresa los puntos medidos en la imagen xp,yp como
función del vector de incrementos de los parámetros [∆XC,∆YC,∆ZC,∆ω ∆n,∆κ,∆t]T.
En todo el planteamiento anterior se utiliza la condición de que los vectores
imagen deben cortar a las curvas de control. Si se realizan medidas de los puntos a lo
largo de la imagen de la curva de control, cada punto da lugar a dos ecuaciones e
incrementa el número de incógnitas en uno (parámetro de la curva t) y siendo cada
nuevo punto añadido independiente a los anteriores con la única condición
introducida en este esquema es que el vector imagen a escala debe corresponderse con
la curva de control. En este planteamiento se produce una pérdida de información
como consecuencia de que una curva analítica no es sólo una secuencia de puntos sin
relación ninguna sino que posee una estructura interna de gran interés para la
localización y que deberá ser utilizada en el proceso de correspondencia. Así, la
dirección de la tangente en el espacio objeto -terreno- y el espacio imagen es un buen
ejemplo de un parámetro a introducir en el proceso debido a su carácter independiente
y a su continuidad.
La dirección de la tangente en un punto S de la curva parametrizada viene definida
por [X=(ts),Y=(ts),Z=(ts)]T. Las coordenadas imagen del punto S vienen dadas por los
parámetros de la orientación externa que dependen del parámetro de la curva t=ts,
según la expresión:
⎡ u (t ) ⎤ ⎡X (t ) − X c ⎤
⎢ ⎥ ⎢ ⎥
⎢ v (t ) ⎥ = R ⎢ Y(t ) − Yc ⎥
⎢⎣ w (t )⎥⎦ ⎢⎣ Z(t ) − Zc ⎥⎦

donde u(t) y v(t) se corresponden con los numeradores de las ecuaciones de


colinealidad y w(t) con el denominador. R es la matriz de rotación externa. Por tanto,
x(t)/f = -u(t)/w(t) e y(t)/f= -v(t)/w(t), siendo f la distancia focal. Si se calculan las
derivadas con respecto al parámetro t se obtiene:
u ' (t ) w (t ) − w ' (t ) u (t ) v' (t ) w (t ) − w ' (t ) v(t )
x ' (t ) = − f y' (t ) = − f
w 2 (t ) w 2 (t )
FOTOGRAMETRÍA DIGITAL   445 

Si se dividen las expresiones anteriores se obtiene la dirección de la tangente en el


espacio imagen, que será expresado como función de la dirección de la tangente en el
espacio objeto y los parámetros de la orientación externa.
y' (t ) u ' (t ) w (t ) − w ' (t ) v(t )
tan (τ) = =
x ' (t ) u ' (t ) w (t ) − w ' (t ) u (t )

Esta expresión debe ser linealizada con respecto al parámetro t, con lo que se
obtiene una ecuación de observaciones que expresa la dirección de tangente
observada como función de los parámetros de la orientación externa y el parámetro de
la curva t.
Si la curva de apoyo es un borde definido en el espacio imagen por una secuencia
de píxeles, la dirección de la tangente puede ser fácilmente obtenida mediante una
representación en código de cadena. Este tipo de representación es la versión discreta
de la primera derivada que proporciona la dirección de la tangente, aunque sólo en
ocho direcciones. La figura 7.32 muestra un ejemplo con dos puntos P1 y P2, cuyos
valores de dirección de la tangente τ=1 y τ=2 pueden ser calculados mediante el cálculo
de los valores medios de los puntos situados en las proximidades de P1 y P2.
C

P1
τ’1
Z τ’2 P 2

t1
τ1

τ2 t2

X
Fig.7.32. Medida de los puntos P1 y P2 de la curva de apoyo en el espacio imagen.
Los parámetros de la curva t1 y t2 definen la posición de los puntos medidos en el espacio objeto.
La información relativa a las direcciones de las tangentes de la curva de apoyo τ=1 y τ=2
puede ser utilizada como información adicional e independiente (Schenk, 1999)
446  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

Las ecuaciones modificadas de colinealidad expresan la relación entre las


posiciones de los puntos en el espacio imagen y la línea de apoyo. La ecuación de las
tangentes añade la información de la forma de la curva. Así, para cada punto se
dispone de dos ecuaciones de observación y cada tangente añade una ecuación
adicional. Por tanto, el número total de ecuaciones será 3 veces el número de puntos
medidos, siendo el número de incógnitas 6+n (los seis parámetros de orientación
externa y los n parámetros de localización en la curva t). Esta estructura del sistema
de ecuaciones debe de ser analizado ya que si se disponen de tres puntos alineados
sólo un punto y su tangente es independiente de los anteriores con lo cual la
redundancia del sistema es -4 (tres ecuaciones con siete incógnitas) siendo necesario
para la resolución del sistema el tomar tres puntos pertenecientes a diferentes líneas.
Otro aspecto a tener en cuenta es que el déficit producido dependerá del tipo de línea,
así curvas de orden mayor producen un déficit menor, así por ejemplo, las parábolas
dan lugar a un déficit de -1, mientras que los polinomios de tercer orden no producen
ningún déficit siendo posible la resolución del problema de la resección de una
imagen con la medida de tres puntos y su dirección de la tangente situados sobre una
curva polinómica de tercer orden.

7.5.3 Orientación automática con superficies de apoyo


Otra posible solución es el uso de superficies conocidas como elementos de apoyo
de una forma similar a la utilización de los puntos de apoyo. La idea original de
utilizar modelos digitales de elevaciones para la orientación de modelos fue sugerida
por Ebner y Strunz (1988). El método se basa en minimizar las diferencias en Z entre
los puntos del espacio modelo -sujetos a una transformación desconocida para su paso
al espacio objeto- y los puntos del espacio objeto -obtenidos por interpolación en el
modelo digital de elevaciones-. En Ebner et al. (1991) y Ebner y Ohlhof (1994) se
muestran diversas aplicaciones y resultados de esta metodología, más detalles de este
método se pueden encontrar en los trabajos de Jaw(1999) y Schenk(1999a).

7.5.3.1 Metodología
Sea S1 = {p1,p2,...,pn} una superficie descrita por n puntos discretos p que están
distribuidos de una forma aleatoria en la misma. Sea S2 = {q1,q2,...,qm} una segunda
superficie descrita por m puntos discretos q aleatoriamente distribuidos en S2. En
realidad, ambas superficies son iguales pero referidas a diferentes sistemas de
coordenadas, así en el problema concreto de la orientación absoluta S1 es la superficie
en el espacio objeto -terreno- y S2 es la superficie en el espacio modelo, de forma que
si se obtiene una transformación adecuada entonces S1 = S=2, siendo S=2 la transforma
de S2 según dicha transformación, realizándose la igualdad en el espacio objeto. Es
importante tener en cuenta, que en ambas superficies aparecerán errores aleatorios en
la medida de los puntos p y q y además que el número de puntos (discretización de las
superficies) es diferente en S1 y S2.
El problema se reduce, por tanto, al cálculo de una función de transformación en
la que los puntos pertenecientes a la segunda superficie q son transformados a la
primera mediante la minimificación de las diferencias. Este problema tiene un
carácter no lineal siendo necesario disponer de aproximaciones iniciales. La
FOTOGRAMETRÍA DIGITAL   447 

transformación a obtener es una transformación de similaridad tridimensional en la


que intervienen tres parámetros de transformación xt,yt,zt, tres ángulos de rotación
ω,n,κ y un factor de escala s.
Si S1 es un plano horizontal con un solo punto q de la superficie S2 es posible el
cálculo de zt. Con dos puntos adicionales es posible el cálculo de los ángulos de
rotación ω y n (la solución será más robusta cuanto más separados estén dichos
puntos) siendo necesario para el cálculo de los parámetros de translación xt,yt
disponer de dos planos paralelos al sistema de coordenadas y un cuarto plano
(paralelo a uno de los otros planos) para la determinación de la escala. Para el cálculo
de la rotación κ es necesario disponer de medidas en un plano vertical.
La configuración ideal es disponer de una superficie que tenga un plano horizontal
y tres planos verticales, además dos de los tres planos verticales deben ser
perpendiculares mientras que el otro debe ser paralelo.
Evidentemente, las superficies topográficas no suelen cumplir estas condiciones
tan restrictivas ya que en ellas no es frecuente la existencia de planos verticales, si
bien se puede recurrir a la selección de las zonas del modelo digital de elevaciones
que tengan mayores pendientes.
El modelo matemático plantea que la relación entre las dos superficies es del tipo:
q= = s R q – t
Las ecuaciones de observación son definidas por la distancia menor entre q= y la
superficie S1. La primera aproximación de S1 se puede establecer en la vecindad de q=
mediante la utilización de un plano, mediante el ajuste de dicha superficie a un
conjunto de elementos de S1 dando lugar a una porción de superficie SPq. La
distancia menor d entre q= y SPq, expresada utilizando los tres cosenos directores y la
distancia p desde el origen es:
d = q= h – p
T
con h = [cos α, cos β, cos γ] .
Así, se puede escribir la ecuación de observación para el punto q como:
r = (s R q - t) h - p – d
Esta ecuación debe ser linealizada con respecto a los siete parámetros de
transformación. En su resolución se requieren aproximaciones iniciales, que dan lugar
a una matriz de rotación inicial que sólo diferirá de la correcta en unas reducidas
diferencias angulares.
1 − dκ dϕ
R = dκ 1 − dω
− dϕ dω 1

Con las siguientes derivadas parciales:


448  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

0 0 0 0 0 1 0 −1 0
∂R ∂R ∂R
= 0 0 −1 = 0 0 0 = 1 0 0
∂dω ∂dϕ ∂dκ
0 1 0 −1 0 0 0 0 0
las ecuaciones de observación linealizadas son:
∂ ∂ ∂
= − Z cos β + Y cos γ = − Z cos α − X cos γ = −Y cos α + X cos β
∂ω ∂ϕ ∂ϕ
∂ ∂ ∂
= − cos α = − cos β = − cos β
∂X t ∂Yt ∂Z t

= (X − Ydκ + Zdϕ)cos α + (Xdκ + Y − Zdω)cos β + (− Xdϕ + Ydω + Z)cos γ
∂s
Si los puntos p, contenidos en la porción de superficie SPq no pueden ser ajustados
a un plano se puede utilizar una superficie de segundo orden. Si tampoco es correcto
el ajuste, esta zona del modelo debería ser descartada y el punto q no daría lugar a
ninguna ecuación de observaciones. En el caso de que el ajuste sea correcto se plantea
la situación que se representa en la figura 7.33.
Dirección perpendicular
a la superficie que pasa q
por el punto q

Puntos experimentales

p1
p3 Porción de superficie
SPq
Z
p2
v

Residuos del ajuste de la


Y superficie a los puntos experimentales

Fig.7.33. Determinación de la distancia menor entre el punto q y la superficie Spq (Schenk, 1999)

La distancia entre q y la superficie se mide en la dirección perpendicular a la


misma, de forma que es necesario interpolar la posición de un punto v situado en la
perpendicular que define la distancia mínima según la expresión:
d2 = (xv - xq)2 + (yv - yq)2 + (zv -zq)2
que da lugar a la ecuación de observación:
r = (xv - xq)2 + (yv - yq)2 + (zv -zq)2 - d2
que debe ser linealizada con respecto a los parámetros de transformación.
La determinación del punto v se resuelve mediante un método iterativo según el
procedimiento siguiente:
FOTOGRAMETRÍA DIGITAL   449 

- se calculan diferentes perpendiculares a la porción de imagen y se obtienen


sus componentes direccionales
- se obtiene una perpendicular media a la porción de imagen
- la dirección de la perpendicular media se aplica al punto q y se obtiene una
aproximación a la posición de v
- el procedimiento se repite en las proximidad del punto calculado hasta lograr
la convergencia de resultados
Es importante tener en cuenta que el valor de v no es excesivamente crítico, ya
que se ha comprobado que aunque errores en la posición de v producen distancias d
ligeramente mayores, los resultados de la orientación continúan siendo válidos.
El procedimiento para llevar a cabo la orientación es el siguiente y se aplica para
cada punto q de la superficie S2:
- seleccionar los puntos más cercanos p en la superficie S1 que definen la
porción de superficie SPq
- ajusta la porción de superficie SPq a un plano o superficie polinómica de
segundo orden. Si el ajuste no es correcto (se produce un suavizado excesivo)
el punto se descarta y se toma el siguiente punto q perteneciente a la
superficie del modelo digital de elevaciones del espacio objeto
- utilizar la superficie ajustada para calcular la distancia menor y plantear una
ecuación de observación
- almacenar la perpendicular a la superficie SPq
- tras el procesamiento de todos los puntos, se analizan las perpendiculares
obtenidas y se obtiene la perpendicular media
- se construyen las ecuaciones normales y se resuelven obteniendo los
parámetros. Los residuos proporcionan una medida para establecer la
proximidad de ambas superficies

7.5.4 Ejemplos de procedimientos de orientación absoluta automática


En este apartado se van a presentar tres ejemplos concretos de sistemas de
orientación absoluta automática, que si bien aún no se incluyen en los sistemas
comerciales están siendo empleados con éxito en la actualidad (2004).

7.5.4.1 Método de Schickler (1993)


El método de Schickler (1992,1993) tiene por objeto la automatización del
proceso de orientación absoluta de imágenes individuales para la generación de
ortofotografías y se está empleando en el Landervermessungsamt Nordrhein-
Westfalen (Servicio Cartográfico de la zona de Bonn). El proceso de orientación en la
zona de la que se encarga dicho servicio cartográfico se realiza utilizando una base de
datos que contiene más de 20.000 puntos de control naturales (en la mayoría de los
casos, casas que fueron tomados hace 15 años). La densidad de los puntos es
suficiente para disponer de nueve puntos de control en cada fotograma y poder
realizar la orientación de los mismos sin necesidad de recurrir a técnicas de
aerotriangulación.
450  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

Para los puntos de apoyo están definidos no tanto como elementos individuales
sino como elementos de apoyo (modelo de puntos de control) (fig.7.34). Estos
elementos consisten en bordes definidos en un sistema de coordenadas terreno
tridimensional y son localizados y medidos en un proceso de matching a nivel de
elementos.

Fig.7.34. Ejemplo de un elemento tridimensional de apoyo

La información de partida para el programa AMOR consiste básicamente en:


- base de datos de los elementos de apoyo.
- imagen digital sobre la que se ha realizado la orientación interna.
- valores aproximados de la orientación externa ("5mm en la imagen).
El procedimiento básicamente consiste en la proyección de los elementos de
apoyo sobre la imagen digital y consta de seis fases (fig.7.35).
1. Proyección del modelo tridimensional de apoyo en la imagen digital
utilizando los valores aproximados de la orientación, con lo que se obtiene
una proyección bidimensional que debe coincidir de una forma aproximada
(siempre que la aproximación a los parámetros de la orientación externa sean
correctos) con la posición del objeto en la imagen tanto en posición (errores
del orden de 100 píxeles) como en orientación (errores en el modelo de
alambre de unos pocos grados).
2. Extracción de los elementos lineales que aparezcan en dicha zona de la
imagen aérea digitalizada. La posición de estas zonas con respecto a la imagen
completa se obtienen a partir de las aproximaciones utilizadas en la etapa
anterior. El tamaño de la zona a considerar va a depender evidentemente de la
precisión de los valores de aproximación disponibles y del tamaño del
elemento de control.
3. Determinación de la posición aproximada del modelo de apoyo en la porción
extraída de la imagen mediante agrupación de orientaciones (pose clustering).
Esta técnica de matching bidimensional da como resultado un conjunto
preliminar de candidatos para la correspondencia entre la imagen y los bordes
del modelo de apoyo.
4. Detección de errores groseros mediante la utilización de la técnica RANSAC
localizando los errores de correspondencia y eliminándolos del proceso de
orientación.
FOTOGRAMETRÍA DIGITAL   451 

5. Resección espacial robusta utilizando los segmentos depurados mediante la


aplicación de técnicas de matching tridimensional obteniendo un resultado
global de orientación de la imagen.
6. Proceso de comprobación del resultado final mediante el análisis de la
configuración geométrica de los elementos de apoyo, de esta forma el propio
programa determina la validez o no de los resultados de la orientación.

Creación de los
modelos 3D de apoyo

Proyección de los modelos


3D sobre la imagen
Para cada modelo 3D de apoyo

Extracción de bordes
sobre la imagen

Bordes extraídos Bordes reducidos Bor des limpios

Agrupación de orientaciones
(Pose clustering)

Detección de errores groseros

Resección espacial robusta

Auto-comprobación de resultados

Fig.7.35. Fases del proceso de orientación absoluta automática por el método de Schickler (1992,1993)

Las etapas 1 a 3 se emplean de una forma individual sobre cada uno de los
elementos de apoyo considerados, mientras que las etapas 4 a 6 se aplican de una
forma global en toda la imagen.
Este programa ha sido sometido a diversas pruebas, en la más importante se
realizó la orientación de 195 imágenes comparándose los resultados obtenidos con los
derivados de un proceso de orientación clásica mediante ajuste de bloques. La
desviación típica de las coordenadas del centro de proyección fue de 1m y de 10mgon
en los ángulos de orientación en el caso más desfavorable. Este proceso se completó
en un tiempo aproximado de 1 minuto/imagen en un sistema Sun Sparc 10. Un
aspecto muy interesante que pone de manifiesto la calidad de los resultados (y en
452  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

especial, del sistema de autodiagnóstico) es que del total de orientaciones, el sistema


consideró correctas el 88% (en todos los casos se comprobó que eran correctas) y
como incorrectas el 12% restante (de las cuales se comprobó que el 4% eran
correctas), pero en ningún caso se cometió el error más grave, considerar como
correcta una orientación que no lo sea.

7.5.4.2 Método de Drewniok y Rohr (1997)


Drewniok y Rohr (1997) desarrollaron un procedimiento para la orientación
absoluta de los modelos basado en la detección y medida precisa de objetos planos
localizados en la imagen mediante un proceso de ajuste de modelos. El método se ha
aplicado para la orientación absoluta de los modelos mediante la localización de
alcantarillas de la que se conocen sus coordenadas terreno (fig.7.36).
El proceso requiere de la siguiente información de partida:
- imágenes aproximadamente verticales (ángulos máximos de 3º).
- áreas llanas (desniveles máximos de "20m).
- orientación interna conocida (resolución de la imagen digital).
- coordenadas aproximadas del centro de proyección.

Fig.7.36. Zona de la imagen en la que aparecen un total de 10 alcantarillas (Drewniok y Rohr, 1997)

La técnica de ajuste de modelos es una técnica de frecuente uso en visión robótica


(Hueckel, 1971; Nalwa y Binford, 1986; Rohr, 1992) y presenta ciertas similitudes
con el método de matching por correlación cruzada, con la importante diferencia de
utilizar expresiones analíticas de la marca en lugar de patrones de imagen. La
utilización de expresiones analíticas presenta importantes ventajas en el caso de que
los objetos a identificar en las imágenes presenten una geometría y radiometría
conocida, que se pueden resumir en:
- no se necesita aplicar procesos de filtrado discreto.
- no se necesita aplicar procesos de interpolación.
FOTOGRAMETRÍA DIGITAL   453 

- se mejora la capacidad de descripción de la marca a identificar.


- es posible la identificación en imágenes de baja calidad.
- es posible aplicar criterios adicionales de control de calidad.
El proceso consta de tres etapas:
1. Detección y selección de los elementos del terreno mediante un proceso de
ajuste de modelos utilizando como patrón una expresión analítica de la
imagen de la alcantarilla ajustada a la escala de la imagen.
2. Localización mediante la aplicación de un procedimiento de ajuste de cada
candidato verificando la bondad mediante el cálculo repetitivo de los
parámetros de orientación.
3. Estimación de los parámetros finales de la orientación.
Este método ha sido aplicado a fotogramas en infrarrojo a escala 1/5000, que
fueron digitalizadas con un tamaño de píxel de 30µm (tamaño de píxel sobre el
terreno de 15cm) dando lugar a imágenes de tamaño aproximado de 7700x7700
píxeles. En esta zona se dispone de una base de datos consistente en 600 puntos de
apoyo (alcantarillas) que aparecen en la zona cubierta por una imagen, de las cuales
sólo son visibles en torno a la mitad (debido fundamentalmente a problemas de
visibilidad por falta de contraste con el fondo y por la presencia de obstáculos -coches
situados sobre las mismas-). El proceso realizó la localización correcta del 80% de las
alcantarillas presentes detectando un 20% de una forma incorrecta que fue
automáticamente depurado por el propio sistema mediante el análisis estadístico de
los resultados de la orientación. En la figura 7.37 se muestra un ejemplo de las
alcantarillas localizadas.

Fig. 7.37. Resultados de la localización de las alcantarillas en una pequeña zona de imagen en la que
aparecen cinco puntos. De los 10 puntos posibles identificados como con una alta correlación con el
modelo analítico (izq) se han seleccionado cuatro como correctas (der) (Drewniok y Rohr, 1997)

7.5.4.3 Método de Vosselman y Haala (1992)


Este método se caracteriza por emplear elementos de control naturales, como, por
ejemplo, carreteras, ríos, límites de parcelas,... . El proceso de matching se plantea
454  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

como un matching relacional con un esquema de búsqueda jerárquico. La descripción


relacional utiliza, por ejemplo, los ángulos relativos entre los elementos detectados,
presentando la importante ventaja de la invariabilidad frente a los cambios de escala y
las rotaciones y que no requiere de información previa.

Fig.7.38. Ejemplos de detección automática de elementos naturales del terreno. Sup: Ejemplo de detección
de un cauce fluvial; Inf: Ejemplo de detección de los límites de una parcela (Vosselmann y Haala, 1992)

REFERENCIAS BIBLIOGRÁFICAS
Ackermann,F. y Tsingas,V. (1994). Automatic Digital Aerial Triangulation. Proceedings ASPRS Annual
Convention, Reno, 1994. pp.1-12.
ACSE,ACSM,ASPRS (1994). Glossary of Mapping Sciences. ASPRS, Bethesda, Maryland, 581 p.
Agouris, P. (1992). Multiple Image Multipoint Matching for Automatic Aerotriangulation. Dissertation.
Dpt. of Geodetic Science and Surveying. Universidad de Ohio.
ASPRS(1993). PE&RS. Número especial dedicado a GPS Photogrammetry, 59.
Bolles, R.C. y Fishler, M.A. (1981). Random Sample Consensus: a paradigm for model fitting with
applications to image analysis and automated cartography. Band 24, 381-395. Comm. of ACM.
Braun, J.; Tang, L. y Debitsch, R. (1996). PHODIS-AT An Automated System for Aerotriangulation.
IAPRS, 31(B2), 32-37.
Burman, H. y Torlegård, K. (1994). Empirical results of GPS-supported block triangulation. OEEPE
Publication n.29.
Devenecia, K.; Miller, S.; Pacey, R. y Walker, S. (1996). Experiences with a Commercial Package for
Automated Aerial Triangulation. Proceedings of ASPRS/ACSM Annual Convention, vol 1, 548-557.
Dreschler,L. (1981). Ermittlung markanter Punkte auf den Bildern bewegter Objekte und Berechnung einer
3D-Beschreibung auf dieser Grundlage. Tesis Doctoral. Fachbereich Informatic, Universidad de
Hamburgo.
Drewniok, C. y Rohr, K. (1997). Exterior orientation -an automatic approach based on fitting analytic
landmark models. ISPRS Journal of Photogrammetry and Remote Sensing, 52, 132-145.
Ebner, H. y Ohlhof, T. (1994). Utilization of ground control points for image orientation without point
identification in image space. IAPRS, 30(3/1), 206-211.
Ebner, H. y Strunz, G. (1988). Combined point determination using digital terrain models as control
information. IAPRS, 27 (B11/3), 578-587.
FOTOGRAMETRÍA DIGITAL   455 

Ebner, H.; Strunz, G. y Colomina, I. (1991). Block triangulation with aerial and space imagery using DTM
as control information. ACSM-ASPRS Auto-Carto 10, 5, 76-85.
Förstner,W. (1986). A Feature Based Correspondence Algorithm for Image Matching. Int. Archives for
Photogrammetry and Remote Sensing, 26(3/3), 150-166.
Gülch,E. (1994). Using feature extraction to prepare the automated measurement of control points in digital
aerial triangulation. IAPRS, 30(3/1), 333-340.
Gülch, E. (1995). From control points to control structures for absolute orientation and aerial triangulation
in digital photogrammetry. Zeitschrift für Photogrammetrie und Fernerkundung, 63(3), 130-136.
Haala,N. y Vosselman, G. (1992). Recognition of Road and River Patterns by Relational Matching. ISPRS
29(B3), 969-975.
Habib, A.; Asmamaw, A.; Kelley, D. y May, M. (2000). Linear features in Photogrammetry. Report n1450.
Department of Civil and Environmental Engineering and Geodetic Science. The Ohio State University,
Columbus, OH 43210.
Hannah,M.J.(1980). Bootstrap Stereo. Proceedings of Imagen Understanding Workshop. College Park,
Maryland, 201-208.
Haralick, R. y Shapiro, L. (1992). Computer and Robot Vision. Addison-Wesley Publ. Co. Inc.
Häring,S. (1995). Automatisierung der Inneren Orientierung. Tesis semestral, Instituto de Geodesia y
Fotogrametria, ETH Zurich.
Hartfiel, P. (1999). Higher Performance with Automated Aerial Triangulation. En: Fristch, D. y Hobbie, D.
(eds.), Photogrammetric Week=97, Wichmann Verlag, Karlsruhe, 109-113.
Heipke, C. y Eder, K. (1999). Performance of Tie-Point Extraction in Automatic Aerial Triangulation.
Frankfürt au Main, 453 p.
Hough,P. (1962). Method and Means for Recognizing Complex Patterns, US Patent 3069654.
Hueckel, M.H. (1971). An operator which locates edges in digitized pictures. J.Assoc.Computing
Machinery, 18(1), 113-125.
Illingworth,J. y Kittler,J. (1988). A survey of the Hough Transform. Computer Vision Graphics and Image
Processing, 44, 87-116.
Jaw, J.J. (1999). Control surface in aerial triangulation in aerial triangulation. Tesis Doctoral. Departament
of Civil and Environmental Engineering and Geodetic Science. Ohio State University, Columbus, Ohio,
OH43210.
Käser, C.; Eidenbenz, C. y Baltsavias, E. (1999). Evaluation and Testing of Several Digital
Photogrammetric Systems for System Acquisition by a National Mapping Agency. IAPRS, 32 (2), 140-
148.
Kersten, Th. (1999a). Digital Aerial Triangulation with HATS. Proceedings of the OEEPE Workshop on
Automation in Digital Photogrammetric Production. París, 21-24 Junio. pp.283-300.
Kersten, Th. (1999b). Results of Digital Aerial Triangulation using different software packages.
Proceedings of the OEEPE Workshop on Digital Photogrammetric Production. París, 21-24 Junio.
Kersten, Th. y Häring, S. (1995). Automatic Interior Orientation for Digital Aerial Images. Informe interno,
Instituto de Fotogrametria y Geodesia, ETH Zurich.
Kersten, Th. y Häring, S. (1997). Automatic Interior Orientation of Digital Aerial Images. PERS 63(8),
1007-1011.
Kersten,Th. y O`Sullivan, W. (1996). Digital Aerial Triangulation with the Helava Automated
Triangulation System (HATS). OEEPE Workshop on the AApplication of Digital Photogrammetric
Workstations@. Lausanne, 4-6 Marzo, 1996.
Kersten, Th.; Häring, S. y O=Sullivan, W. (1998). Digital Aerial Triangulation in Alpine Regions - A
Challenge. IAPRS, 32(2), 149-156.
Krzystek, P. (1998). Automatic Aerial Triangulation - Conceptual aspects and new investigations.
Proceedings 3rd Course in Digital Photogrammetry. University of Bonn. 9-13 Febrero.
Krzystek, P.; Heuchel, T.; Hirt, U. y Petran, F. (1996). An integral approach to automatic aerial
triangulation and automatic DEM. IAPRS, 31(B3), 405-414.
LH Systems (1999). Información de la compañía.
Liang,T. y Heipke, Ch. (1996). Automatic Relative Orientation of Aerial Images. PERS, 62(1), 47-55.
Lue, Y. (1996). Fully operational automatic interior orientation. Proceedings GeoInformatics, Honk Hong,
Band 1, pp.26-35.
Lue, Y. (1997). One step to a higher level of automation of softcopy photogrammetry Automatic Interior
Orientation. ISPRS Journal of Photogrammetry and Remote Sensing, 52(1), 103-109.
Lue, Y. y Novak, K. (1991). Recursive grid-dynamic window matching for automatic DEM generation.
Technical Papers GIS/LIS. ACSM-ASPRS Fall Convention, Atlanta, pp.A254-260.
456  AUTOMATIZACIÓN DEL PROCESO DE MEDIDA EN FOTOGRAMETRÍA 

Lue, Y. y Novak, K. (1992). RG-DW Image matching scheme and its application. IAPRS, 29(B3), 813-
819.
Luhmann,T. y Aaltrogge,G. (1986). Interest Operators for Image Matching. Proc. ISPRS Com.III,
Rovaniemi, Finlandia, 459-474.
Masala, B. (1999). Experiences on Automatic Digital Aerotriangulation. Proceedings of the OEEPE
Workshop on Automation in Digital Photogrammetric Production. París, 21-24 Junio. pp. 277-282.
Mayr,W. (1993). Photogrammetric Digital Image Processing at Carl Zeiss. Photogrammetric Week=93
(D.Fristch y D. Hobbie, eds.). Wichmann, 103-110.
Moravec, H.P. (1977). Towards automatic visual obstacle avoidance. Proceedings of the 5th Joint
Conference on Artificial Intelligence. Cambridge. p.584.
Nalwa,V.S. y Binford, T.O.(1986). On detecting edges. IEEE Trans. On Pattern Analysis and Machine
Intelligence. 8(6), 699-714.
Otsu, N. (1979). A threshold selection method from gray-level histograms. IEEE Transactions on Systems,
Man and Cybernetics, 9, 62-66.
Rohr,K. (1992). Modelling and identification of characteristic intensity variations. Image Vision Comput.,
10(2), 66-76.
Sahoo, P. (1988). A survey of thresholding techniques. Computer Vision, Graphics and Image Processing,
41, 233-260.
Schenk,T. (1989). Towards Automatic Data Collection for GIS. GIS, 2(2), 12-19.
Schenk, T. (1997). Towards Automatic Aerial Triangulation. ISPRS Journal of Photogrammetry & Remote
Sensing, 57, 110-121.
Schenk, T. (1999). Digital Photogrammetry. vol. 1. Ed. TerraScience. Laurelville, Ohio. 428 p.
Schenk, T. (1999a). Matching surfaces. Technical notes in Photogrammetry, n115, Departament of Civil
Engineering and Geodetic Science, Ohio State University, Columbus, OH43210, 21 p.
Schenk,T. y Toth, C. (1993). Use of object space matching for feature extraction in multiple aerial images,
SPIE Proceedings, 1944:58-67.
Schenk,T.; Li, J.C. y Toth,C. (1991). Towards an autonomous system for orienting digital stereopairs.
PERS, 57(8), 1057-1064.
Schickler, W. (1992). Feature matching for outer orientation of single images using 3-D wireframe
controlpoints. IAPRS, 29(B3), 591-598.
Schickler, W. (1993). Towards automation in Photogrammetry - An example: Automatic Exterior
Orientation. Geodetical Info Magazine, 7(4), 32-35.
Schickler, W. (1995). Ein operationelles Verfahren zur automatischen inneren Orientierung von
Luftbildern. Zeitschrift für Photogrammetrie und Fernerkundung, 63(3), 115-122.
Schickler,W. y Poth,Z. (1996). Automatic Interior Orientation and its Daily Use. ISPRS, 31(B3), 746-751.
Strackbein, H. y Henze, M. (1995). Automatische innere Orientierung. Technical Report,
Landesvermessungsamt Nordrhein-Westfalen.
Tang, L. y Heipke, C. (1996). Automatic relative orientation of aerial images. PE&RS, 62(1), 47-55.
Toth,C.K. y Krupnik,A. (1996). Concept, Implementation and Results of an Automatic Aerotriangulacion
System. PERS, 62(6), Junio 1996, 711-717.
Trinder, J.C.; Jansa,J. y Huang, Y. (1995). An assessment of the precision and accuracy of methods of
digital target detection, ISPRS Journal of Photogrammetry and Remote Sensing, 50(2), 12-20.
Urset, A. y Maalen-Johansen, I. (1999). Automatic Triangulation in Nordic Terrain - Experiences and
Challenges with MATCH-AT. Proceedings of the OEEPE Workshop on Automation in Digital
Photogrammetric Production. París, 21-24 Junio. pp. 259-268.
Vosselman, G. y Haala, N. (1992). Erkennung topographischer passpunkte durch relationale zuordnung.
Zeitschrift für Photogrammetrie und Fernerkundung, 60(6), 170-176.
Zalmanson, G. (2000). Hierarchical recovery of exterior orientation from parametric and natural 3D curves.
Tesis Doctoral, Report n.452, Departament of Civil and Environmental Engineering and Geodetic
Science, Ohio State University, Columbus, OH 43210.

IAPRS: International Archives of Photogrammetry and Remote Sensing


PE&RS: Photogrammetric Engineering & Remote Sensing
Capítulo 8. Generación Automática de Modelos
Digitales de Elevaciones

8.1 Introducción.
8.2 Modelos Digitales del Terreno.
8.3 Automatización del proceso de generación de Modelos Digitales de Elevaciones.
8.4 Sistemas comerciales para la generación automática de MDE.

8.1 INTRODUCCIÓN
Tal y como se ha venido comentando a lo largo de este libro, una de las ventajas
más importantes de la Fotogrametría Digital es la posibilidad de la automatización,
bien total o parcial, de los procesos fotogramétricos. En este capítulo se analizan los
aspectos relativos a la automatización del proceso de generación de modelos digitales
de elevaciones.
La extracción de la información tridimensional del terreno (o de los objetos que
aparecen sobre el mismo) se conoce clásicamente con el nombre de restitución o
vectorización y, es frecuentemente uno de los objetivos fundamentales de los trabajos
fotogramétricos. Esta fase representa la mayor parte del coste de un proyecto
cartográfico basado en el empleo de técnicas fotogramétricas, que puede llegar a
alcanzar el 60% de coste total para escalas grandes (Vosselman, 1998) (fig.8.1).
Por otro lado, es necesario tener en cuenta que estas tareas de extracción de
información de la imagen son particularmente complejas de automatizar debido a que
en ellas la aportación de la información semántica extraída por el operador es
fundamental. El operador “comprende” la imagen y selecciona los elementos de
mayor interés aplicando una cierta generalización, tarea que es de difícil
automatización.

 
457 
458  GENERACIÓN AUTOMÁTICA DE MODELOS DIGITALES DE ELEVACIONES 

Aerotriangulación
15%

Vuelo
8%
Apoyo de campo
6%

Revisión en campo
Restitución
12%
59%

Fig.8.1. Coste de las diferentes fases de un proceso cartográfico para grandes escalas (Vosselman, 1998)

8.2 MODELOS DIGITALES DEL TERRENO


La utilización de modelos es un esquema de trabajo muy frecuente en todas las
ciencias e ingenierías, un modelo no es sino una representación simplificada de la
realidad en la que aparecen algunas de sus propiedades (Joly, 1988). Por tanto, es
evidente que uno de los objetivos de la modelización es disponer de una
representación de la realidad simplificada en la que se conserven las propiedades que
sean básicas para nuestro análisis. Felicisimo (1994a) recoge la clasificación de
Turner (1970) de los modelos distinguiendo tres tipos básicos:
a) modelos icónicos, en los que la relación de correspondencia entre objeto y
modelo se establece atendiendo a las propiedades morfológicas (p.ej.
maquetas).
b) modelos análogos, que poseen algunas propiedades similares a los objetos
representados pero sin llegar a ser una réplica en escala de los mismos (p.ej.
mapas).
c) modelos simbólicos, que intentan representar el objeto mediante una
simbolización matemática.
Los Modelos Digitales del Terreno (MDT) son un tipo particular de modelos
simbólicos en los que se intenta representar mediante un conjunto de datos números la
distribución espacial de una característica del territorio (Doyle, 1978). Evidentemente,
una característica fundamental de los MDT es su característica de digitales frente a los
modelos clásicamente empleados en Cartografía de tipo analógico, dicha
característica implica la necesidad de una codificación que lleva a la representación
numérica de la variable a representar, pudiendo llegar a ser considerados como la
versión digital de los mapas clásicos (Moellering, 1983).
Un MDT debe cumplir dos condiciones adicionales, la primera es que debe existir
una estructura interna de los datos que represente las relaciones espaciales entre los
mismos y, por otro lado, es que la variable a representar debe de ser una variable
continua y de tipo cuantitativo. Por tanto, las variables a representar son
extraordinariamente diversas, aunque la más frecuente sin duda es la representación
de la cota o altitud de los puntos que definen la superficie de terreno que da lugar a
los Modelos Digitales de Elevaciones (término que a menudo se emplea como
FOTOGRAMETRÍA DIGITAL   459 

sinónimo de MDT) y la representación de las pendientes denominados Modelos


Digitales de Pendientes.
En resumen, un MDT puede ser considerado como una función de valor único del
tipo z = f(x,y), que para cada posición x,y proporciona un único valor de la variable z
representada, valor que se deriva de la malla del modelo, siendo ésta la diferencia
básica con respecto a otros sistemas empleados en la modelización 3D en los sistemas
tipo CAD. La generación de un MDT consta básicamente de dos partes: a)
adquisición de la información del objeto a modelizar (medida) y b) cálculo del
modelo mediante procedimientos de interpolación. Es importante tener en cuenta que
aunque las dos partes son independientes tienen fuertes relaciones, así el tipo de
algoritmo a aplicar en el modelo determinará en buena parte la distribución de los
datos experimentales y a la inversa, la cantidad y tipo de información define el tipo de
algoritmo a aplicar.

8.2.1 Captura de información experimental


Los datos de entrada para la generación de un MDE pueden provenir de muy
diversas fuentes. La más habitual es a partir de la aplicación de técnicas
fotogramétricas en fotografías aéreas, utilizando sistemas automáticos o la captura
manual mediante operador. No obstante, los MDE también pueden ser generados a
partir de levantamientos taquimétricos si bien estos métodos se restringen a zonas
muy reducidas o de elevada dificultad debido a los problemas económicos que
conllevan. Dentro de la captura fotogramétrica es importante analizar las diferencias
entre la captura manual y la captura automática. El objetivo que se plantea es obtener
una adecuada representación de la superficie del terreno con la menor cantidad de
puntos posible. Para asegurar la calidad, la información obtenida en malla regular se
completa con información de líneas de ruptura y otros elementos geomorfológicos.
Cuando la captura se realiza de forma manual mediante un sistema analítico, el
procedimiento es más lento y, por tanto, costoso. El número de puntos que se suele
extraer varía entre 2000 y 10000 puntos por modelo (con máximos que pueden
alcanzar los 20000 puntos), la velocidad de captura suele estar en torno a 2-3 s por
punto, es decir, entre 1 y 8 horas por modelo, pudiendo establecerse como cifra media
5000 puntos en un tiempo en torno a 4 horas. No obstante, es importante tener en
cuenta que se trata de un procedimiento de una elevada efectividad y con una gran
precisión, basada en el principio de pocos puntos pero bien seleccionados y bien
medidos.
Si se emplea un sistema digital, la captura aunque se efectúe de manera manual
suele ser más rápida aunque continúan siendo válidas las mismas premisas que en el
caso de la medida manual en sistemas analíticos. Si el sistema de captación es
automático el esquema de trabajo varía totalmente. El tiempo de medida de cada
punto se reduce drásticamente, en torno a 120-180 puntos/s en una estación Silicon
Graphics R4000 de 100 Mips, con lo cual el proceso se basa en disponer de muchos
puntos (aproximadamente 800000 puntos/modelo) a partir de los cuales se genera una
malla de unos 80000 puntos, dando lugar a que cada elemento de la malla está
informado por aproximadamente 10 puntos experimentales. El principio es disponer
de muchos puntos, aunque no estén en las posiciones idóneas, e incluso tengan errores
460  GENERACIÓN AUTOMÁTICA DE MODELOS DIGITALES DE ELEVACIONES 

de medida y aplicar posteriormente un procedimiento estadístico de filtrado de los


errores con el objeto de obtener un modelo de calidad y en un menor tiempo.
Posteriormente, se suele realizar una etapa de edición del modelo con la introducción
de información complementaria (líneas de ruptura, …) cuya duración media ronda los
1.5-2 horas para terrenos llanos y 4 horas para terrenos abruptos. Por tanto, la
generación automática de MDE es interesante económicamente aunque sea necesario
un importante esfuerzo de edición, con la salvedad de las zonas altamente construidas
o los MDE de gran detalle en los que la generación manual aún sigue siendo
competitiva tanto técnica como comercialmente.
Tabla 8.1. Comparación entre la adquisición manual y automática de datos para la generación de MDE
Convencional (Manual) Automática
Nº puntos/modelo 1.000-5.000 >500.000
Nº puntos de la malla/modelo 10.000-30.000 80.000-90.000
Criterios de selección del punto Muy buenos aunque subjetivos (operador) Estadísticos (objetivos)
Nº puntos/Elementos malla MDE Z0.5 >10
Precisión 0.01%h 0.01%h
Tiempo de captura 8 horas <2 horas

Punto medido Punto del MDT


Fig.8.2. Diferencias en la captura de datos para la generación del MDE. Arriba: Captura clásica por
operador; Abajo: Captura automática mediante sistemas digitales

8.2.2 Estructuras de los MDT. Métodos de interpolación


Como se ha comentado en la introducción una de las características básicas de los
MDT es que poseen una estructura interna, de relación entre los puntos que lo
integran. Existen diversas estructuras de MDT que se pueden clasificar en dos grandes
grupos, siguiendo el mismo criterio de clasificación de la información en un Sistema
de Información Geográfico:
a) Estructuras de tipo vectorial
b) Estructuras de tipo raster
FOTOGRAMETRÍA DIGITAL   461 

a) Las estructuras tipo vectorial están basada en entidades (básicamente puntos y


líneas) definidas por sus coordenadas. Dentro de esta clase se pueden distinguir 2
estructuras:
1. Estructura contornos. La representación de la variable se realiza mediante
vectores que describen la trayectoria de las líneas isométricas (en el caso
de los MDE, se trata de las curvas de nivel o isohipsas).
2. Red de Triángulos Irregulares (Triangule Irregular Network -TIN-). Es una
estructura muy empleada que plantea la descripción de la variable
mediante una red de triángulos irregulares adosados. El procedimiento de
triangulación se basa en que los puntos que definen el triángulo no pueden
ser, lógicamente, colineales, y que los ángulos que forman los lados del
triángulo sean lo más parecidos posibles (triángulo isósceles)
(Triangulación de Delanauy).
b) Las estructuras tipo raster se basa en la interpretación de la variable en base a los
valores medios de la misma en una serie de unidades elementales, de forma que las
unidades no pueden tener superficie nula, no se solapan y cubren totalmente la zona
considerada. Dentro de este grupo se pueden distinguir dos: matrices regulares y
matrices de resolución variable.
1. La estructura matricial regular ha sido empleada desde la década de los 50
(Chapman, 1952). Esta estructura es el resultado de superponer una
retícula sobre el terreno y extraer la altitud media de cada celda, asociando
dicho valor al punto medio de la misma. La estructura más empleada es la
malla cuadrada en la que no se requiere el almacenamiento de la posición,
al venir ésta implícita en la posición de la celda, el origen de la malla y el
tamaño de las unidades elementales.
2. Las matrices irregulares intentan solucionar uno de los principales
problemas del tipo anterior. Las matrices regulares emplean una cantidad
de información constante por unidad de superficie independientemente de
la complejidad de la superficie a describir. En las matrices irregulares se
intenta el agrupamiento jerárquico de las unidades elementales a objeto de
disminuir el número de elementos en las zonas de menor complejidad
(aumentando el tamaño de los elementos) y aumentar el número de
elementos en las zonas más complejas. El resultado final es una estructura
conocida bajo el nombre de quadtree.
La elección de un determinado tipo de estructura es una decisión muy importante,
puesto que, afectará a tareas de tanta importancia en la generación de un MDT como a
estrategia de captura de información, el método de interpolación empleado, la
estructura de almacenamiento en fichero así como a los resultados que del modelo se
deriven. No obstante, es importante tener en cuenta que para una cantidad de
información similar y suficiente, los resultados obtenidos presentan diferencias muy
reducidas (Berry, 1988), aunque no en lo relativo a productividad del proceso. En la
práctica, las opciones se limitan prácticamente a dos: el empleo de redes de triángulos
irregulares (estructura TIN) y el empleo de mallas regulares, puesto que, la utilización
de modelos de contornos y de estructuras de tipo jerárquico, es compleja y poco
utilizada en la práctica.
462  GENERACIÓN AUTOMÁTICA DE MODELOS DIGITALES DE ELEVACIONES 

El criterio básico para optar por una u otra estructura es la cantidad de información
(entendiendo como densidad de información, es decir, cantidad de información por
unidad de superficie) y la distribución de la misma. Así para información capturada
por procedimientos mediante operador (o bien levantamientos taquimétricos en
campo) la solución óptima será el empleo de una estructura TIN, puesto que, la
densidad de información suele ser menor y además se centra en las líneas
características del relieve (líneas de ruptura, puntos de cota singular, …) que se
mantendrán en el modelo TIN al ser éste un sistema exacto (los puntos del modelo
coinciden con los puntos medidos). El problema de esta estructura es que es más
compleja en cuanto al almacenamiento, se requiere el almacenamiento de todas las
coordenadas de los puntos del modelo así como el de las relaciones entre puntos para
formar los triángulos y las relaciones entre los tríángulos para formar la red. Si la
captura de información ha sido realizada de forma automática, la densidad de
información va a ser mucho más alta y además los puntos se distribuyen según una
malla aproximadamente regular, por tanto, parece que el procedimiento más lógico es
el empleo de una malla regular. El empleo de modelos tipo raster, que incluyen una
interpolación para pasar de los puntos medidos a los puntos del modelo, permite el
filtrado de puntos erróneos así como un estructura de almacenamiento en fichero
óptima (sólo se requiere el almacenamiento de la coordenada Z y una cabecera en la
que se indique las coordenadas de origen de la malla, espaciado y orientación de la
misma), pudiendo ser utilizada directamente en diversos tratamientos fotogramétricos
como, por ejemplo, la generación de perspectivas realísticas y la generación de
ortofotografías.
Por tanto, todo parece apuntar que el predominio que actualmente tiene la
estructura TIN, basada en parte por el hecho de que es empleada en un gran número
de programas de generación de MDE, quedará restringida a los modelos con un
escaso número de puntos (Topografía clásica, GPS, Fotogrametría con operador)
siendo la estructura empleada para la generación de MDT con métodos automáticos la
malla regular.
Los modelos mediante malla regular requieren como paso intermedio un proceso
de interpolación que calcula el valor de la variable en los puntos de la malla del
modelo a partir de los puntos experimentales medidos. Durante la década de los 70, se
planteó un interesante debate acerca de los diferentes métodos de interpolación,
actualmente esta cuestión ha perdido gran parte de su interés, puesto que, se ha
demostrado que siempre que el procedimiento de captura de la información (en
cuanto a densidad y distribución) sea la adecuada, los métodos dan resultados muy
parecidos.
Los métodos de interpolación pueden ser clasificados en tres grandes grupos:
a) métodos basados en el ajuste polinómico de polinomios de elevado orden,
dentro de este grupo destacan los métodos basados en las medias móviles y
los planos tangenciales móviles.
b) métodos basados en la utilización de elementos finitos.
c) métodos basados en la aplicación de estimaciones estadísticas que operan con
funciones de covarianza o las propiedades de correlación del terreno.
FOTOGRAMETRÍA DIGITAL   463 

Evidentemente un factor clave para asegurar la calidad del modelo generado es la


cantidad de información empleada para su generación, evidentemente a mayor
cantidad de información mayor calidad del modelo pero también un mayor coste en el
proceso de captura y generación del modelo. Por tanto, es importante establecer la
relación óptima entre calidad y coste. En los sistemas de adquisición manual se
recomienda que el número de puntos del modelo sea como máximo 2 a 3 veces el
número de puntos medidos, siempre que éstos reflejen adecuadamente la morfología
del terreno. Si la información ha sido capturada de una forma automática se
recomienda que el número de puntos de la malla sea aproximadamente la décima
parte de los puntos medidos, a fin de poder eliminar mediante un proceso de filtrado
los puntos erróneos.

8.2.3 Precisión, Calidad y Productividad


Es importante tener en cuenta que no existe ninguna norma internacionalmente
aceptada referente a la calidad de los MDE, lo que es especialmente grave debido a
que, en la mayor parte de los casos, los MDE son “herramientas” que se suelen
utilizar en otros procesos, generación de ortofotografías, cálculos de movimientos de
tierras, … acumulando los posibles errores. En la actualidad, no existe ninguna norma
general para la establecer la calidad aceptándose como criterio de calidad el que el
modelo sea adecuado al propósito concreto para el que se vaya a utilizar, así se puede
plantear que no existen modelos digitales “buenos” y “malos” sino adecuados y no
adecuados.
El concepto de la calidad del MDE es más complejo y además bastante más
ambiguo, para que un modelo sea considerado como de buena calidad es necesario
que exista una adecuada descripción morfológica del terreno (líneas de ruptura,
puntos de cota singular,…), junto con criterios bastante subjetivos acerca de la
consistencia y uniformidad de la distribución de errores dentro del MDE.
A diferencia de los mapas convencionales de curvas de nivel, los MDE no tienen
especificaciones en cuanto a su calidad y precisión, en relación con el tipo de terreno
y el tamaño de la malla empleada. En los mapas convencionales existe una clara
relación entre equidistancia y precisión altimétrica, mientras que en los MDE sólo
existen reglas escasas y poco precisas. Es evidente que a menor espaciado de la malla
se obtiene una mejor representación del terreno, pero a costa de necesitar un mayor
volumen de almacenamiento que podrá, incluso, dificultar la manipulación del
mismo. Ackermann (1996) plantea como norma general que la precisión del MDE
debería ser en torno a 1/20 veces el espaciado del mismo en terreno llano y 1/10 en el
caso de terreno abrupto. Así, por ejemplo, un modelo de 10x10m de malla (que sería
equivalente a un modelo a escala 1:10000) se supone que es un modelo de detalle y de
precisión elevada, en torno a 50cm de error medio cuadrático, en el caso de terreno
llano, cifras que pueden alcanzar a 1m para terrenos más abruptos.
El control de calidad de un documento cartográfico, en nuestro caso, los MDE
puede ser realizada mediante dos procedimientos:
− el análisis de los errores individuales de cada una de las fases que conducen a
la generación del modelo.
464  GENERACIÓN AUTOMÁTICA DE MODELOS DIGITALES DE ELEVACIONES 

− el análisis de la calidad como resultado de la comparación del modelo


generado con una fuente que se considera de mayor precisión.
Debido a que la generación de los MDE es un proceso complejo en el que
intervienen diferentes fases interconectadas en las que no siempre es sencillo la
realización del análisis de los errores, la metodología empleada para su control de
calidad es el de “caja negra”, comparando el modelo generado con una fuente
considerada de mayor precisión.
Las fuentes empleadas como “maestras” en el proceso de comparación son
habitualmente modelos digitales generados a partir de fotografías de menor escala o
bien puntos medidos por métodos topográficos (habitualmente mediante GPS)
específicamente para su utilización en el proceso de control como puntos de
comprobación. Evidentemente, el control de la calidad mediante esta comparación
requiere disponer de un MDE de menor escala, lo cual no está siempre disponible, o
bien la toma de puntos de comprobación que añade un coste adicional al proceso
teniendo en cuenta que para que el control sea válido debe existir un número mínimo
de puntos en torno a 20. Para evitar estas necesidades frecuentemente se utilizan otras
técnicas como, por ejemplo, la comparación de cada uno de los puntos del modelo
con los de su entorno (Felicisimo, 1994b) o bien la medida directa mediante operador
de puntos sobre el modelo estereoscópico. El proceso de comparación con los puntos
del entorno, conocido habitualmente como validación cruzada, debe de ser
considerado con grandes precauciones, es importante tener en cuenta que mediante
este proceso aparecerán como puntos erróneos aquellos puntos que no se asemejan a
su entorno, lo que puede ser producido por problemas en el modelo (puntos erróneos)
o, simplemente, porque dichos puntos están situados en elementos característicos del
relieve (puntos singulares) que es fundamental conservar para la adecuada
representación del modelo. La situación más sencilla y económica es la de medida de
puntos en el modelo estereoscópico que presenta el problema de no controlar los
errores en las fases de orientación del modelo limitándose al control del proceso de
modelización en sí, este hecho no es especialmente grave si se considera que en el
propio proceso de orientación ya existen sus propios controles basados en el análisis
de los residuos de las transformaciones.
La precisión (vertical) de un MDE es simplemente el error medio de los puntos
que componen el modelo dentro de la malla del MDE, como evidentemente el control
del error cometido en todos los puntos es imposible se suele tomar una muestra
considerada como lo suficientemente representativa del modelo. Sobre dichos puntos
seleccionados (al azar o bien sobre zonas que se consideren de especial
conflictividad) se analiza el error medio cometido así como el sesgo del modelo. Es
importante tener en cuenta que también deben comprobarse aspectos tales como la
precisión de la pendiente, la variación de la precisión vertical en función de la
pendiente y otros efectos relacionados con una correcta definición de las líneas de
ruptura de pendiente.
Felicísimo (1994a,1994b) recoge diversos métodos para el análisis de los errores
de los modelos que van desde los métodos basados en el simple análisis visual de los
modelos utilizando la posibilidad de la superposición de curvas de nivel o mallas de
FOTOGRAMETRÍA DIGITAL   465 

puntos sobre el modelo estereoscópico que proporcionan las estaciones


fotogramétricas digitales o la generación de vistas sombreadas del relieve (fig.8.3)
(Weibel y Heider, 1991), hasta el empleo de métodos estadísticos más complejos. La
hipótesis de la que parten dichas pruebas es la consideración de que el terreno es
contínuo (Chrisman, 1991) que permite aplicar el método de comparación con la
vecindad anteriormente mencionado basado en el análisis de las pendientes
(Hannah,1981) o en la aplicación de técnicas de análisis discriminante basados en la
utilización de un valor de corte de los errores en función de la varianza y la
correlación (Nagao et al., 1988).
Una solución muy adecuada es la aplicación de los tests utilizados para el control
estadístico de otros tipos de documentos cartográficos, como, por ejemplo, los tests
NMAS (National Map Accuracy Standard) y EMAS (Engineering Map Accuracy
Standard).
El test NMAS es un método de comparación que emplea fuentes de mayor
exactitud. Se usa como base para la comparación de puntos tanto en planimetría como
altimetría. No indica un grado de exactitud sino tan sólo si el MDE cumple los
requisitos marcados para el modelo. Por tanto, el test establece si el modelo analizado
está dentro de los límites de error definidos previamente por la componente vertical
del error posicional. El error se establece comparando las coordenadas de una muestra
de puntos sobre el modelo con las coordenadas de los mismos puntos sobre la fuente
de mayor exactitud. El proceso consta de 3 pasos:
− selección de la muestra de comparación (compuesta por un número mínimo de
20 elementos).
− determinar de las coordenadas de los elementos correspondientes.
− determinar si se cumple el estándar de exactitud vertical, para lo cual es
necesario que el error cometido sea inferior al límite impuesto en el 90% de
los puntos seleccionados.
El test EMAS fue diseñado por la ASPRS para el control de documentos
cartográficos y al igual que el anterior se basa en la comparación del modelo obtenido
con una fuente considerada de mayor precisión. El test analiza de una forma separada
cada una de las tres coordenadas que definen a los elementos sobre el mapa, en
nuestro caso concreto, sólo se efectuará en la coordenada Z al estar las coordenadas X
e Y predefinidas por la mapa de nuestro modelo.
El test es una expresión estadística de exactitud calculada sobre las componentes
de error de las coordenadas para una muestra de al menos 20 puntos. Una vez
realizada la comparación se establecen los errores medios y desviaciones obteniendo
un estadístico que viene dado por:
eZ n
tZ =
sZ

donde eZ es el error medio, n es el número de puntos empleados para el control y sZ


es la desviación típica de los errores.
466  GENERACIÓN AUTOMÁTICA DE MODELOS DIGITALES DE ELEVACIONES 

Se contempla como hipótesis nula la no existencia de sistematismos. Para


comprobar esta hipótesis se plantea la condición |tZ|Ttn-1,α, siendo α el nivel de
confianza. Si se verifica esta condición se acepta la hipótesis nula de partida, es decir,
no hay sistematismos en la coordenada Z.
El test EMAS contempla también la determinación de la presencia de errores
casuales, siendo en este caso el estadístico definido por:

s 2 (n − 1)
χ2 = Z
Z
σ2
Z

siendo σ2Ζ el límite de error aceptable en la dimensión Z.


Se contempla como hipótesis nula la no existencia de errores casuales. Para
comprobar esta hipótesis se plantea la condición |χ2Z|Tχ2n-1,α, siendo α el nivel de
confianza. Si se verifica esta condición se acepta la hipótesis nula de partida, es decir,
no hay errores casuales en la coordenada Z.

8.2.3.1 Calidad de los modelos digitales de elevaciones comercializados


En el Servicio Geológico de los Estados Unidos de América (USGS) se utiliza la
siguiente clasificación en función de la precisión vertical para los MDE de espaciado
30x30 m (escala aproximada 1:24000):
− Nivel 1. Error medio cuadrático de 7m y error medio cuadrático máximo
admisible de 15m, lo que supone errores máximos absolutos de elevación en
torno a 50m (3 veces el e.m.c. máximo). Este tipo de MDT son los empleados
para la generación de ortofotografías a escala 1:12000. Son modelos obtenidos
directamente de los modelos fotogramétricos mediante correlación automática
o captura de datos manual.
− Nivel 2. Son modelos obtenidos a partir de los mapas de líneas a escala
1/100000, la precisión media exigida es la mitad de la equidistancia y el error
máximo admisible el valor de la equidistancia. El objetivo de este tipo de
modelos es proporcionar la información numérica equivalente a la que un
usuario obtendría de los cálculos efectuados directamente sobre los mapas en
formato analógico.
− Nivel 3. Son modelos generados a partir de toda la información que se
contiene en un mapa de curvas de nivel, es decir, incorporan información
relativa a la red hidrográfica, líneas de ruptura, cuencas de drenaje, redes de
control horizontal,… lo que origina una mayor precisión en relación con el
nivel 2, siendo su precisión media en torno a un tercio de la equidistancia del
mapa original. Para su manipulación requieren disponer del software
adecuado que permita la interpolación de los diferentes conjuntos de datos con
sus particularidades. En la actualidad no se producen MDE de tipo 3.
El Ordnance Survey Ireland (Servicio Cartográfico de Irlanda) plantea los
siguientes controles de calidad en su producción de MDE (Tabla 8.2).
FOTOGRAMETRÍA DIGITAL   467 

Tabla 8.2. Criterios de calidad del OSI en la producción de MDE


Fotografía MDE de malla a pequeña escala MDE de malla a gran escala
Escala y tipo 1:30.000-1:40.000 1:1.000-1:5.000
Pancromática Pancromática o color
Imagen
Tamaño de píxel y precisión 25µm (G2-4µm) 12.5-25µm (G2-4µm)
Control terrestre G0.02m (planimetría y altimetría)
Precisión de la red G0.25m absoluta
Control en Z G0.03m relativa
Control en XY G0.25m relativa a la malla irlandesa
Aerotriangulación
emc ajuste líneas guía G0.5m G0.1m
emc ajuste planimetría G0.5-1.0m G0.25m

En España, actualmente los MDE se comercializan sin información relativa a la


precisión vertical siendo en la mayor parte de los casos, la información derivada del
proceso de restitución de las curvas de nivel sobre el que se ha obtenido un modelo
digital a malla cuadrada. Felicísimo (1994a) calcula el error de varios modelos
digitales correspondiente al MDT200, obtenido a partir de las curvas de nivel de los
mapas de escala 1:200000 y que es comercializado por el Instituto Geográfico
Nacional, obteniendo errores cuadráticos medios entre 37 y 67m, en función de la
pendiente de la zona, siendo la equidistancia de los mapas fuente de 100m.

8.2.4 Aplicaciones de los MDE


Las aplicaciones de los MDE son muy variadas y diversas. Evidentemente, el
poder disponer de un archivo numérico que define la superficie terrestre da enormes
posibilidades en cuanto a su utilización. Dentro de las aplicaciones puramente topo-
cartográficas se pueden citar la generación de curvas de nivel, el cálculo automatizado
de pendientes, la obtención de perfiles topográficos, la resolución de problemas de
intervisibilidad y la generación de ortofotografías.
Como otras aplicaciones de gran interés en las Ciencias de la Tierra pueden citarse
las relacionadas con el cálculo de volúmenes de desmonte y relleno (aplicaciones a la
Ingeniería Civil), definición de cuencas de drenaje y redes de flujo (aplicaciones a la
Hidrología), la obtención de mapas de erosión (mediante la utilización de MDE de
diferentes fechas), la modelización medioambiental (modelos de control de polución
apoyados en la distribución del viento, modelos microclimáticos, modelos de
sombras, insolación e irradiancia).

8.2.5 Problemas en la generación fotogramétrica de los MDE


La generación de MDE mediante técnicas fotogramétricas en terreno abierto es un
procedimiento con una buena precisión y un rendimiento considerable. En dichas
zonas la superficie del terreno es bien visible y si la zona no es excesivamente abrupta
se alcanzan buenos resultados, tanto mediante medida por operador como en
procedimientos automáticos (ver apartado 8.3), en este último caso, siempre que
exista una adecuada textura en la imagen que permita la adecuada correlación de las
mismas.
Si el terreno está cubierto por vegetación o edificios, está produce importantes
problemas en la generación de MDE a partir de fotogramas aéreos, puesto que,
468  GENERACIÓN AUTOMÁTICA DE MODELOS DIGITALES DE ELEVACIONES 

existen partes del terreno que no son visibles y, por tanto, no se pueden medir de una
forma directa. Este problema que es común, tanto para los métodos manuales como
para los métodos automáticos, evidentemente afectan más a éstos últimos, puesto que,
el operador “entiende” la fotografía y sólo situará puntos de medida en aquellas zonas
no cubiertas por la vegetación o en los espacios existentes entre los edificios,
procedimiento imposible en el sistema automático que trabaja “a ciegas”. La única
posibilidad es la eliminación de elementos aislados, como por ejemplo, árboles y
casas, mediante la introducción de unos límites máximos de diferencia de paralaje
entre puntos vecinos del modelo, por lo que cuando se detecta un importante cambio
de cota se considerará como un punto anómalo y será eliminado del modelo.
La captura de líneas de ruptura y otros elementos morfológicos es otro problema
para la captura automática de información, necesitando aún una etapa de medida
interactiva que aunque ralentiza el proceso de generación del modelo, cuenta con la
ventaja de la información semántica que introduce el operador en la interpretación de
la imagen. No obstante, en la actualidad se está realizando un importante esfuerzo en
la detección automática de líneas de ruptura de pendiente basadas en métodos de
extracción de bordes.

8.3 GENERACIÓN AUTOMÁTICA DE MDE


La generación automática de MDE empieza a ser una técnica habitual en todos los
sistemas fotogramétricos digitales, en la mayoría de dichos sistemas existe un módulo
que permite la extracción del MDE sin necesidad de operador, o limitando su función
a las tareas posteriores de revisión y edición.

Captura de Imágenes
(Vuelo o Archivo) Extracción del MDE

Control Terrestre
(Puntos d e Apoyo) Edición del MDE

Digitalización Control de Calidad

Aerotriang ulación Exportación del MDE

Fig.8.3. Esquema general del proceso de captura de datos para el MDE (Cory y McGill, 1999)

Los métodos más empleados se basan en la utilización de métodos de matching a


nivel de elemento o área, pirámides de imágenes, estadística robusta y reconstrucción
de superficies, aunque evidentemente existen lógicas diferencias en la forma de
resolución del problema, lo que no cabe la menor duda es que en la actualidad se trata
de un problema resuelto, en términos de precisión, velocidad y exactitud, aunque aún
FOTOGRAMETRÍA DIGITAL   469 

persisten ciertos problemas en áreas con una textura pobre o en áreas de gran
complejidad, como por ejemplo, áreas urbanas fotografias a gran escala.
Los aspectos claves de la generación de los MDE son cuatro:
a) el remuestreo de la imagen según una geometría epipolar (imágenes
normalizadas).
b) el empleo de las pirámides de imágenes.
c) la utilización de métodos de matching a nivel de área y elemento.
d) las técnicas de reconstrucción de superficies.

8.3.1 Remuestreo epipolar de la imagen (imágenes normalizadas)


La justificación de la utilización de este remuestreo fue expuesta en detalle en el
capítulo 6 y la metodología para la obtención de imágenes normalizadas en el Anexo
6.1. En resumen, sólo indicar que el objetivo de este tipo de remuestreo es la
obtención de nuevas imágenes en las que exista paralelismo entre las líneas epipolares
y las filas de la imagen digital, de forma que el espacio de búsqueda para la
identificación de los puntos homólogos se reduzca de una región bidimensional a una
zona aproximadamente unidimensional, reduciendo significativamente el tiempo de
cálculo. Al mismo tiempo, que se realiza este proceso es frecuente la introducción de
las correcciones para errores en la medida tales como la corrección por refracción
atmosférica, por la curvatura terrestre y la distorsión radial.

8.3.2 Pirámides de imágenes


Las pirámides de imágenes son muy utilizadas en Fotogrametría como método
para plantear un esquema de trabajo de aproximaciones debido a que el tamaño
original de las imágenes dificulta, si no impide, el trabajo con las imágenes a tamaño
real. La metodología de obtención de las pirámides fue comentada en el capítulo 4.
En la obtención automática de MDE las pirámides son empleadas para solventar el
problema de los valores iniciales del MDE. En las zonas superiores de la imagen (con
menor resolución) el MDE obtenido refleja los grandes rasgos del modelo
estableciéndose en función de aquellas zonas de la imagen que son lo suficientemente
representativas como para plantear la resolución de los procedimientos de
identificación automática de puntos. Tras esta primera aproximación ya se dispone de
una idea, aunque no precisa, de la morfología del terreno, lo que permite introducir
dicha información en el proceso de matching e ir refinando progresivamente los
resultados.

8.3.3 Extracción de elementos y matching


En la actualidad la mayoría de los programas de generación de MDE plantean un
esquema mixto de matching empleando matching a nivel de elemento en las primeras
iteraciones (niveles superiores de las pirámides) y a nivel de área en los últimos pasos,
para el refinamiento del modelo.
470  GENERACIÓN AUTOMÁTICA DE MODELOS DIGITALES DE ELEVACIONES 

Fig.8.4. Pirámide de imágenes y MDE derivados a partir de un fotograma 1:8.400 utilizando


el programa MATCH-T (Krzystek y Wild, 1998). Izq.: Imagen con resolución de 480µm y
tamaño de malla del MDE de 128m; Centro: Imagen con resolución de 120µm y tamaño de
malla del MDE de 32m; Der.: Imagen con resolución de 30µm y tamaño de malla del MDE de 8m

La ventaja de la aplicación en las primeras etapas del procedimiento de matching a


nivel de elemento es que en este tipo de métodos las aproximaciones iniciales no
tienen porqué ser tan precisas como en los métodos a nivel de área. Además, se
eliminan ciertos problemas como, por ejemplo, las discontinuidades de profundidad y
las oclusiones locales. Los métodos a nivel de área se utilizan en los niveles inferiores
de la pirámide en los que ya se disponen de aproximaciones precisas (obtenidas a
partir de los niveles superiores de la pirámide de imágenes y de modelos digitales de
terreno) y en las que es necesario una mayor precisión para el refinamiento del
modelo (los métodos a nivel de elemento son menos precisos debido a la perdida de
información que conlleva la necesaria etapa de extracción de elementos).
El matching final de los puntos homólogos se restringe geométricamente a las filas
de la imagen (geometría epipolar) y a unos ciertos límites de paralaje, obteniéndose
los elementos candidatos mediante un proceso basado en la utilización de técnicas de
Estadística Robusta para la eliminación de discrepancias.
8.3.4 Reconstrucción de superficie
La fase de la reconstrucción de superficie tiene como objeto la incorporación de
discontinuidades del terreno (líneas de ruptura de pendiente), así como la corrección
de errores groseros causados por los errores en la identificación de los puntos
homólogos y la existencia de obstáculos 3D.
El sistema más empleado para la reconstrucción de la superficie es la
modelización de la misma mediante técnicas de elementos finitos (Ebner et al., 1984),
así como la introducción de los principios de la estadística robusta (Huber, 1981;
FOTOGRAMETRÍA DIGITAL   471 

Förstner, 1989) con el objeto de eliminar errores de altura en puntos aislados y


detectar las discontinuidades.
En cada nivel de la pirámide la identificación de los puntos homólogos
proporciona una densa nube de puntos de los que conocemos sus coordenadas terreno.
El MDE es definido los puntos de una malla regular a partir de esa nube inicial,
mediante un procedimiento de elementos finitos bilineales con 4 vecinos de malla por
elemento (fig.8.4).

z(i-1,j+1) z(i,j+1) z(i,j+1)


dx
zs

dy
z(i-1,j) z(i,j) z(i,j)

z(i-1,j-1) z(i,j-1) z(i,j-1)

Fig.8.5. Interpolación mediante elementos finitos

El proceso de interpolación parte de la siguiente información:


− los puntos del terreno medidos: z = {zi , i = 1,k } siendo k el número de puntos
identificados.
− las curvaturas: zxx = {zxx (i,j), i=1,n; j=1,m}, zyy = {zyy (i,j), i=1,n; j=1,m}.
− las torsiones: zxy = {zxy (i,j), i=1,n; j=1,m}.
partiendo de la hipótesis de que para los r puntos de la malla del MDT (r=n x m) se
cumple que:
E (zxx) = 0; E (zyy) = 0 y E(zxy) = 0
Teniendo en cuenta el esquema de la figura 8.4, con un valor medido zs y 4 valores
a estimar en la malla se plantean las siguientes ecuaciones de observación:
zs + vs = ka z(i,j) + kb z(i+1,j) + kc z(i,j+1) + kd z(i+1,j+1)
zxx (i,j) + vxx (i,j) = a2Tu
zyy (i,j) + vyy (i,j) = a3Tu
zxy (i,j) + vxy (i,j) = a4Tu
siendo:
ka = (1-dx) (1-dy) / d2 kb = dx (1-dy) / d2
2
kc = (1-dx) dy / d kd = (dx dy) / d2
d = tamaño de la malla
dx = x(zs) - x(z(i,j)) dy = y(zs) - y (z(i,j))
u = [ z(i-1,j+1), z(i,j+1), z(i+1,j+1), z(i-1,j), z(i,j), z(i-1,j), z(i-1,j-1), z(i,j-1), z(i+1,j-1)]
472  GENERACIÓN AUTOMÁTICA DE MODELOS DIGITALES DE ELEVACIONES 

Asumiendo que los residuos vs, vxx(i,j), vyy(i,j), vxy(i,j) pueden ser considerados
como ruido blanco y con una distribución normal. Los coeficientes ai vienen dados por
los elementos de convolución que son aplicados a los 9 elementos que integran el
valor v, según la estructura:
⎛ ⎡1 − 2 1 ⎤ ⎞ ⎛ ⎡1 2 1 ⎤⎞ ⎛ ⎡1 0 1⎤ ⎞
⎜1⎢ ⎥⎟ ⎜1⎢ ⎥⎟ ⎜1⎢ ⎥⎟
a T2 = vect⎜ ⎢1 − 4 2⎥ ⎟ a 3T = vect⎜ ⎢− 2 − 4 − 2⎥ ⎟ a T4 = vect⎜ ⎢0 0 0⎥ ⎟
⎜⎜ 4 ⎢1 − 2 1 ⎥ ⎟⎟ ⎜⎜ 4 ⎢ 1 2

1 ⎥⎦ ⎟⎠ ⎜⎜ 4 ⎢1 0 1⎥ ⎟⎟
⎝ ⎣ ⎦⎠ ⎝ ⎣ ⎝ ⎣ ⎦⎠

A este modelo matemático se le introducen funciones ponderadoras con el objeto


de proporcionar una mayor robustez a los valores estimados, dando lugar a un proceso
de filtrado que está diseñado para completar zonas con información insuficiente,
debido a que el proceso tiene una elevada redundancia, aunque se elija un tamaño de
malla muy pequeño.
El motivo de la preocupación por la robustez del método es doble. En primer
lugar, es posible que se introduzcan valores de altura erróneos debido a errores de
matching, o bien por la existencia de elementos como árboles, casas, … que producen
alteraciones de la forma de la superficie del terreno. En segundo lugar, la existencia
de discontinuidades reales del terreno que deben ser detectadas, pero no eliminadas,
sino que deben introducirse en los filtros de estimación (curvaturas y torsiones) y
tenidas en cuenta.
Es importante la introducción de características morfológicas de la zona a cubrir
(curvaturas y torsiones) de forma que sea posible cubrir zonas en las cuales no haya
sido posible la obtención de puntos de medida. La falta de esta información, que
puede ser debida a una mala textura de la imagen o a la existencia de elementos
singulares eliminados.
8.3.5 Control de calidad y evaluación de los métodos automáticos de generación
de MDE
Los factores claves que afectan a la calidad de los MDE son:
− calidad de la imagen (u otros datos, como, por ejemplo, curvas de nivel)
− calidad de los puntos de control y la aerotriangulación terrestre
− algoritmos y métodos de correlación
− tipo de superficie (en especial, pendiente y tipo de cobertura del terreno)
− espaciado de la malla elegido para la representación del terreno
− sistema de control de la efectividad y la consistencia del MDE
En un proceso de producción, la comparación de los diferentes algoritmos de
cálculo se plantea en los siguientes términos:
− tiempo de cálculo
− sencillez de utilización
− calidad de resultados
a) Dentro del tiempo de cálculo hay que tener en cuenta los siguientes aspectos:
resolución (tamaño) de las imágenes utilizadas y de los diferentes niveles de la
FOTOGRAMETRÍA DIGITAL   473 

pirámide de imágenes, preprocesamiento (remuestreo epipolar, ajuste de brillo y


contraste, filtrados, …), parámetros empleados en la correlación (tamaño de las
ventanas, límites de búsqueda, …). Para la evaluación debido a que estos procesos
son largos es de gran importancia que esté diseñado el sistema para que puedan ser
ejecutado mediante baterías (procesamiento por lotes -ficheros batch-), optimizando
la ocupación del sistema durante las horas laborales.
b) Para establecer la sencillez de utilización es necesario tener en cuenta varias cosas:
calidad del manual de usuario, creación y almacenamiento de la estrategia empleada
para la correlación, flexibilidad del sistema (implementación de nuevos algoritmos o
aplicación a diferentes fines), posibilidad de trabajo y manipulación de grandes
volúmenes,… . Todos estos aspectos afectan básicamente a la relación entre el cliente
y el fabricante y afectan al diseño de hardware y software.
c) La calidad de los resultados deben ser evaluados atendiendo a las diferentes formas
del relieve en la zona donde se realice el proyecto, con el objetivo de ajustar los
parámetros y poder evaluar de forma conveniente la exactitud de los resultados. El
Institut Géographique National de Francia ha diseñado un sistema para evaluar la
calidad de los resultados basado en el trazado de curvas de nivel a partir de los
modelos digitales de elevaciones generados automáticamente.
La evaluación consta de los siguientes pasos:
− Digitalización de la imagen: para ello se emplean dos escáneres
fotogramétricos diferentes (DSW200 de Helava -tamaño de píxel mínimo
12.5µm- y el PS-1 de Zeiss-Intergraph -tamaño de píxel mínimo 15 µm-).
− Orientación interna y externa de los fotogramas: Son calculadas por los
módulos del programa utilizando las coordenadas de los puntos de control las
extraídas del programa de triangulación del IGN.
− Cálculo del modelo digital del terreno mediante el software disponible. La
única limitación introducida es que el resultado final tenga un paso de 5 m. Se
permite cualquier tipo de tratamiento previo: remuestreo epipolar, pirámides
de imágenes,… .
− Comparación estadística del MDE generado con los ficheros de los puntos de
control. Los puntos de control se refieren a diferentes entidades cartográficas
del modelo: líneas de nivel, puntos singulares, carreteras, ríos, límites sobre el
terreno (vallas, cultivos, bosques,…). Los estadísticos básicos empleados en la
comparación son el sesgo, el error medio cuadrático y las desviaciones típicas
de los errores.
− Control visual mediante la superposición de las curvas de nivel obtenidas del
MDT a las imágenes.
Duperet (1996) realiza una comparación entre diferentes métodos de obtención del
MDE, uno propio del IGN -IGN-, el ATE (Automatic Terrain Extraction)
implementado en el SOCET SET de Leica-Helava (actualmente comercializado por
BAE Systems), el T10N de MATRA CAP y el MATCH-T de Intergraph, obteniendo
los siguientes resultados para tres zonas distintas:
474  GENERACIÓN AUTOMÁTICA DE MODELOS DIGITALES DE ELEVACIONES 

− Zona Reims: Llana sin árboles, con buena calidad de imágenes y puntos de
control.
− Zona Agen: Terreno ondulado con árboles
− Zona Corbeil: Terreno llano con imágenes de calidad media
Un aspecto que tiene gran influencia es el tipo de medidas, así el sistema
automático tiene mayor precisión en los objetos de contraste más marcado, al igual
que sucede en las medidas realizadas por operador y, también la calidad de las
medidas es mayor cuando el sistema (o el operador) selecciona los puntos en los que
efectuar las medidas que cuando se trabaja con perfiles (modo dinámico).
El control visual de los resultados fue realizado por superposición de las curvas de
nivel (derivadas directamente del MDE) a las imágenes, apreciándose lo siguiente:
− el MDE realizado por correlación parece que está sobre el terreno.
− las obstrucciones existentes en el terreno, por ejemplo, edificios, puede ser
fácilmente eliminados si están aislados. Cuando sus dimensiones son
superiores de un centenar de metros, es necesario realizar una restitución
adicional, al menos que el proyecto no requiera una gran precisión.
− la función de fusión de datos permite la creación de MDE que describe de una
forma adecuada la superficie y los objetos que se encuentran en ella.
− las funciones de edición son absolutamente necesarias para transformar la
superficie del MDE. La correlación proporciona una buena descripción de la
superficie del terreno pero no puede tener en cuenta los factores que afectan
negativamente a los resultados: variaciones fotométricas (reflectancia
especular), movimiento de objetos, obstrucciones (nubes, sombras,…),
influencia de la atmósfera y de la meteorología (viento,…).
En el IGN francés se han realizado estudios adicionales que ponen de manifiesto
que las curvas de nivel derivadas de un MDT generado automáticamente son más
suaves que las generadas por un operador utilizando las técnicas clásicas
fotogramétricas, si bien se pueden corresponder aproximadamente con la media de los
trazados que realizan varios operadores sobre un mismo modelo.
Krzystek y Wild (1998) presentan otro control de calidad de MDE generados de
una forma automática en 10 modelos estereoscópicos de fotogramas con escalas entre
1:4000 y 1:40000 en zonas con relieve variable (desde llanas a montañosas) y
utilizando 2 resoluciones de digitalización diferentes (15 y 30 µm) y 2 modelos
estereoscópicos de imágenes SPOT.
Los modelos estereoscópicos fueron comprobados utilizando un número entre
2000 y 5000 puntos por modelo, resultando un error en torno a 0.01 %h para terreno
llano y ondulado, obteniéndose en muchos casos incluso mejores resultados, para los
modelos montañosos el error fue de 0.02%h, asimismo también se detecta un cierto
deterioro de los resultados con el aumento del tamaño de pixel. En las figuras 8.6 y
8.7 se muestran los resultados obtenidos de la generación automática así como de la
extracción manual de 3 modelos, cuyos resultados han sido extraídos de Torlegard et
al. (1984). Las imágenes SPOT empleadas son del tipo SPOT 1A, con un tamaño de
píxel sobre el terreno de 10m. Los dos modelos considerados pertenecen a una zona
FOTOGRAMETRÍA DIGITAL   475 

llana y a una zona muy montañosa. La orientación fue realizada mediante la


utilización de 6 puntos de control y los resultados mostrados en la figura 8.7 se
corresponden con dos niveles de la pirámide (10 y 20m), la malla del MDE elaborado
fue de 100m. Como se puede observar en la figura citada, los resultados para la zona
llana fueron muy buenos con errores del orden de 4 a 6 m (0.4 a 0.6 píxeles), mientras
que para el MDE de la zona montañosa se pueden considerar aceptables con errores
del orden de 13.4 m para la imagen de 10m y de 24.2 para la imagen de 20m, es decir,
ligeramente superiores al píxel.
Tabla 8.3. Control de calidad de MDE generados automáticamente.
Zona Reims. Escala 1/30.000, Cámara RMK TOP15, Emulsión Aviophot 200
Tamaño Carreteras Ríos Límites parcelas
Algoritmo Escáner píxel (1700 puntos) (60 puntos) (300 puntos)
(µm) sesgo Emc sesgo emc sesgo Emc
IGN DSW200 25 0.23 1.28 0.46 0.94 0.16 2.04
ATE PS1 15 -0.24 1.76 -0.15 1.59 -0.73 2.96
ATE+Edic PS1 15 -0.12 0.96 0.06 1.52 -0.10 1.39
Match T PS1 15 0.20 1.52 0.74 1.02 0.13 1.99
Tamaño Ptos.singulares Perfiles Curvas nivel
Algoritmo Escáner píxel (125 puntos) (1250 puntos) (5500 puntos)
(µm) sesgo Emc sesgo emc sesgo Emc
IGN DSW200 25 0.17 0.63 -0.20 1.25 0.16 0.72
ATE PS1 15 -0.28 0.66 -0.56 1.30 -0.27 0.96
ATE+Edic PS1 15 -0.32 0.68 -0.58 1.35 -0.29 0.89
Match T PS1 15 0.16 0.67 -0.33 2.78 -0.09 2.53
ATE+Edic significa que el MDE generado por el módulo de SOCET SET ha sido posteriormente corregido
con las herramientas propias del sistema. El MDE del IGN está filtrado, mientras que el resto son los
derivados directamente de la correlación.

Zona Agen. Escala 1/30.000, Cámara RC10 1043, Emulsión Aviophot 50


Tamaño Carreteras Ríos
Algoritmo Escáner píxel
sesgo Emc sesgo emc
(µm)
IGN DSW200 25 0.60 1.79 0.35 1.61
ATE DSW200 12.5 -0.92 1.86 -2.31 2.73
Tamaño Ptos.singulares Perfiles Curvas nivel
Algoritmo Escáner píxel
sesgo Emc sesgo emc sesgo Emc
(µm)
IGN DSW200 25 -0.22 0.87 -0.99 1.68 -0.78 1.67
ATE DSW200 12.5 -0.93 1.52 -1.90 2.55 -1.66 2.23

Zona Corbeil. Escala 1/30.000, Cámara RC10 6044, Emulsión Aviophot 50


Tamaño Carreteras Ríos
Algoritmo Escáner píxel
sesgo Emc sesgo emc
(µm)
IGN DSW200 25 0.34 1.73 -0.29 1.70
ATE DSW200 12.5 -0.65 1.85 -1.41 2.07
Tamaño Ptos.singulares Perfiles Curvas nivel
Algoritmo Escáner píxel
sesgo emc sesgo emc sesgo Emc
(µm)
IGN DSW200 25 -0.10 1.01 0.49 0.99 -0.58 0.85
ATE DSW200 12.5 -1.05 1.27 -0.27 1.01 -1.06 1.45
476  GENERACIÓN AUTOMÁTICA DE MODELOS DIGITALES DE ELEVACIONES 

% h
0.25
Resolución: 15µm

E 1:30000
0.20

E 1:40000
E 1:23000
E 1:6000
0.15

E 1:12000

E 1:4000
E 1:15000
E 1:7500
0.10

0.05

0.00
Ligeramente
Llano Ondulado Montañoso
ondulado

% h
0.6
Resolución: 30 µm

E 1:30000
0.5 Modelos obtenidos manualmente

E 1:8500

E 1:17000
0.4

E 1:10000

E 1:30000
E 1:40000
E 1:23000

E 1:30000
0.3
E 1:6000
E 1:15000

E 1:12000
E 1:7500

E 1:4000

0.2

0.1

0.0
Ligeramente
Llano Ondulado Montañoso
ondulado

Fig.8.6. Precisión de los MDE obtenidos automáticamente a partir de fotogramas aéreos


utilizando el programa MATCH-T (Krzystek y Wild, 1998)
m
30
Resolución: 10 m
25
Resolución: 20 m

20

15

10

0
Llano Montañoso
Fig.8.7. Precisión de los MDE obtenidos automáticamente a partir de pares estereoscópicos
de imágenes SPOT utilizando el programa MATCH-T (Krzystek y Wild, 1998)
FOTOGRAMETRÍA DIGITAL   477 

- Eliminación robusta de elementos aislados


Los resultados en cuanto a la precisión se refieren a zonas abiertas (no
residenciales), un aspecto de gran importancia es el comportamiento del sistema para
la detección (para su posterior eliminación) de elementos tridimensionales aislados
(casas, árboles, …).

8.4 SISTEMAS COMERCIALES DE GENERACIÓN AUTOMÁTICA DE


MDE
En este apartado se van a analizar dos de los sistemas más conocidos de
generación automática de modelos digitales de elevaciones, el sistema ATE de
SOCET SET y el sistema MATCH-T de Inpho GmbH.

8.4.1 Sistema SOCET SET ATE de BAE Systems


El proceso de generación automática del modelo digital de elevaciones comienza
con la selección del proyecto de trabajo (al que se ligará el MDE generado) y la
ejecución del módulo de generación automática (Automatic Terrain Extraction, ATE).
Una vez ejecutado el módulo ATE es necesaria la introducción de los parámetros
básicos del modelo (fig.8.8):
− las imágenes utilizadas para su generación (permite un número ilimitado de
imágenes realizando una selección automática del mejor par para la captura de
cada punto).
− el límite del MDE que puede ser definido mediante un polígono, un
rectángulo, mediante la introducción de las coordenadas de las esquinas
inferior izquierda y superior derecha o de una forma automática en función de
los modelos estereoscópicos definidos por las imágenes seleccionadas.
− la estrategia de correlación. Es posible la selección de un tipo de estrategia
adaptativa que utiliza una combinación de diferentes subestrategias,
realizándose la selección de una forma automática por parte del sistema en
función de las diferentes de cotas encontradas en el terreno. La estrategia
adaptativa permite la introducción de parámetros de filtrado y de eliminación
de obstáculos (mediante la introducción de valor máximo de anchura y de
diferencia de cota) así como la selección de la precisión (en función del nivel
mínimo de pirámide que se empleará en el proceso). La estrategia no
adaptativa se emplea para la generación de modelos en zonas en las que se
conoce a priori el tipo de terreno (se puede elegir entre diversos tipos de
estrategias o definir una propia adaptada a las necesidades), o bien en el caso
de que el usuario desee actuar sobre los parámetros de definición de la
estrategia para obtener un resultado concreto. En la estrategia no adaptativa no
es posible la introducción de parámetros de filtrado, de eliminación de
obstáculos o de precisión (salvo los definidos en la propia estrategia).
478  GENERACIÓN AUTOMÁTICA DE MODELOS DIGITALES DE ELEVACIONES 

Aerotriangulación

Extracción Automática del Terreno

Nombre del MDE

Selección de Imágenes

Definición de límites
- polígono
- rectángulo máximo
- superficie modelos ester eóscopicos
- coordenadas esquinas

Espaciado del MDE

Método
Adaptativo: Se ajusta automáticamente la estrategia
en función del tipo de terreno.
No Adaptativo: El usuario debe escoger una estrategia
en función del tipo de terreno.

Estructura del MDE


Tipo GRID: Malla regular.
Tipo TIN: Redde triángulos irr egulares.

Parámetros de filtrado
Método Adaptativo:
Factor de suavizado, Precisión, Eliminación de
obstáculos (árboles, casas, ...).
Método NoAdaptativo:
Seintroducen en la definición de la estrategia.

Almacenamiento de parámetros del MDE


(imágenes, método, espaciado, filtros, ...)

Extracción A utomática

Fig.8.8. Diagrama de flujo del proceso de extracción automática del terreno


en el módulo ATE del sistema SOCET SET (Cory y McGill, 1999)

Tras la generación automática del modelo digital de elevaciones es necesario


proceder a la revisión y edición, si procede, del mismo con vistas a obtener un modelo
que se ajuste a la realidad. Esta tarea se realiza mediante las herramientas Interactive
Terrain Graphics (ITE) incluidas en SOCET SET:
− Edición Interactiva del Terreno (ITE - Interactive Terrain Edition)
− Análisis del Terreno (Terrain Analysis)
− DTM Registration
FOTOGRAMETRÍA DIGITAL   479 

La herramienta fundamental es la edición interactiva del terreno. Mediante la


utilización de este módulo es posible la edición del MDE generado automáticamente
o la creación de MDE de forma manual (fig.8.9).

Terreno

Extracción Interactiva del Terreno

Selección de fichero de MDE

Formato de manipulación del MDE


Punto Curvas de nivel

Símbolo Equidistancia
Color Tipo de línea
Figure of Merit (FOM) Color
Gr osor de línea

Herramientas de Edición del MDE


Punto Área Geomórficas

Almacenamie nto del MDE

Exportación del MDE


Formatos Estándar : ASCII, Arc-GRID, DGN, ...
Formatos de entidades SOCET SET (Feature File)

Fig.8.9. Diagrama de flujo del proceso de edición interactiva del terreno


en el módulo ITE de SOCET SET (Cory y McGill, 1999)

El módulo ITE permite la edición del modelo generado utilizando tres conjuntos
de herramientas:
− herramientas puntuales, que actúan sobre un punto (nodo) determinado del
modelo
− herramientas a nivel de área, que actúan de una forma conjunta sobre los
nodos incluidos dentro de un polígono definido por el usuario.
− herramientas geomórficas, que se emplean para proporcionar información
adicional al MDE para conseguir un ajuste más correcto con la realidad.
Tras la fase de edición se almacena el MDE en un formato propio de SOCET SET
que puede ser posteriormente exportado a diferentes formatos de intercambios entre
otros listado de puntos XYZ en formato ASCII y formato ARCGRID.

8.4.2 Sistema Inpho Match-T


El sistema Match-T ha sido desarrollado por la empresa Inpho GmbH y es
comercializado de una forma separada o como parte en diferentes sistemas
comerciales.
480  GENERACIÓN AUTOMÁTICA DE MODELOS DIGITALES DE ELEVACIONES 

El proceso de obtención de modelos digitales de elevaciones mediante el sistema


Match-T se divide en las siguientes fases:
− Generación de imágenes epipolares. Para utilizar Match-T es necesario la
creación previa de imágenes epipolares para la posterior captura de los
elementos homogéneos. Este tipo de imágenes deben ser preparadas de una
forma independiente durante la creación del proyecto. Este proceso de larga
duración (en torno a ½ hora por imagen) se realiza de una forma desatendida
sin necesidad de participación del operador fuera de la jornada laboral.
− Definición de los parámetros del programa.
− Definición de los parámetros del modelo.
− Introducción de la información geomórfica. Esta fase permite la introducción
de elementos digitalizados capturados por el operador utilizando visión
estereoscópica.
− Reconstrucción de la superficie. Este parámetro permite ajustar los parámetros
de la malla, fundamentalmente el espaciado y el factor de filtrado de
suavizado para utilizar durante el proceso. El sistema incorpora una opción
“Adaptative Grid” que permite densificar la malla en aquellas zonas en las
que el terreno presenta mayores diferencias de cota.
− Tipo de terreno y matching.

REFERENCIAS BIBLIOGRÁFICAS
Ackermann, F. (1996). Techniques and Strategies for DEM Generation. En: Greeve, C. (ed.) Digital
Photogrammetry: An addendum to the Manual of Photogrammetry. ASPRS, Bethesda, Maryland, 247 p.
Berry, J.K. (1988). Maps as data: fundamental considerations in computer assisted map analysis.
GIS/LIS’88 Proceedings, San Antonio, Texas, 273-284.
Chapman, C.A. (1952). A new quantitative method of topographic analysis. American Journal of Science.
250, 428-452.
Chrisman, N.R. (1991). The error component in spatial data. En: Maguire, D.J.; Goodchild, M.F. y Rhind,
D.W. (eds.). Geographic Information Systems. Principles and Applications. Ed. Longman, Londres,
vol.1, 165-174.
Cory, M.J. y McGill, A. (1999). DTM Derivation at Ordnance Survey Ireland. En: Kölbl, O. (ed.).
Proceedings of the OEEPE-Workshop on Automation in Digital Photogrammetric Production. Marne la
Vallée, 22-24 Junio. OEEPE Oficial Publication, nº37, 189-208.
Doyle, F.J. (1978). Digital Terrain Models: an overview. PE&RS, 44(12), 1481-1485.
Duperet, A. (1996). Automatic Derivation of a DTM to Produce Contour Lines. OEEPE Workshop on the
Application of Digital Photogrammetric Systems. Ecole Polytechnique Fédérale du Lausanne. 4-6
Marzo.
Ebner, H.; Reinhardt, W. y Hö_ler,R. (1984). Generation, management and utilization of high fidelity
digital terrain models. IAPRS, 27(B11), 556-566.
Felicisimo, A.M. (1994a). Modelos Digitales del Terreno. Introducción y Aplicaciones en las Ciencias
Ambientales. Ed. Pentalfa. Oviedo. 222 p.
Felicisimo,A.M. (1994b). Parametric statisticial method for error detection in digital elevation models.
ISPRS Journal of Photogrammetry and Remote Sensing, 49(4), 29-33.
Förstner,W. (1989). Tutorial for Robust Statintial Methods for Computer Vision. San Diego.
Hannah,M.J. (1981). Error detection and correction in Digital Terrain Models. PE&RS, 47(1), 63-69.
Huber, P.J. (1981). Robust Statistics, Ed. Wiley and Sons. New York.
Joly,F. (1988). La Cartografía. Ed. Oikos-Tau. Barcelona.
Krzystek, P. y Wild, D. (1998). Generation of Digital Elevation Models. Proceedings of the 3rd Course in
Digital Photogrammetry. University of Bonn - Landesvermessungsamt Nordrhein Westfalen. 9-13
Febrero.
FOTOGRAMETRÍA DIGITAL   481 

Moellering, H. (1983). Designing interactive cartographic systems using the concepts of real and virtual
maps. En: Clark, K.C. (ed.) Analytical and computer cartography. Ed. Prentice-Hall. Englewoods-Cliffs,
New Jersey, 290 p.
Nagao, M.; Mukai, Y.; Ayabe, K.; Arai, K. y Nakazawa, T. (1988). A study of reducing abnormal
elevations in automatic computations of elevations from satellite data. IAPRS, 27(B4), 280-288.
Torlegard,K.; Oestman, A. y Lindgren, R. (1984). A Comparative Test of Photogrammetrically Sampled
Digital Elevation Models. IAPRS, Comm. III, Rio de Janeiro, 1065-1071.
Turner, J.C. (1970). Matemática moderna aplicada. Probabilidades, estadística e investigación operativa.
Ed. Alianza, Madrid, 550p.
Vosselman, G. (1998). Comunicación personal.
Weibel, R. y Heller, R. (1991). Digital Terrain Modelling. En: Maguire, D.J.; Goodchild, M.F. y Rhind,
D.W. (eds.). Geographic Information Systems. Principles and Applications. Ed. Longman, Londres,
vol.2, 269-297.

IAPRS: International Archives of Photogrammetry and Remote Sensing


PE&RS: Photogrammetric Engineering & Remote Sensing
482  GENERACIÓN AUTOMÁTICA DE MODELOS DIGITALES DE ELEVACIONES 
Capítulo 9. Extracción Automática de Elementos
Cartográficos

9.1 Introducción.
9.2 Métodos interactivos de extracción de elementos.
9.3 Detección automática de objetos.
9.4 Reconstrucción automática de objetos.

9.1 INTRODUCCIÓN
La extracción de elementos cartográficos es la tarea principal de las aplicaciones
fotogramétricas convencionales. Consiste en la extracción de elementos construidos
por el hombre, como por ejemplo, carreteras, edificios, … junto con elementos
naturales ríos, límites de cultivos y/o bosques, …. En la actualidad dichas medidas
son realizadas por equipos fotogramétricos de alta precisión manejados por un
operador humano. La aparición de las imágenes digitales permite el procesamiento de
imágenes múltiples y la sustitución de los sistemas de visión de las imágenes
analógicas (ópticos) por sistemas informatizados, siendo el objetivo final la
automatización del proceso fotogramétrico.
Los primeros esfuerzos de automatización han ido en la línea de automatizar los
procesos mejor conocidos como, por ejemplo, la generación automática de modelos
digitales de terreno (Gülch, 1994), pudiendo establecerse que en la actualidad dichos
procesos pueden realizarse de forma automática en unos márgenes de precisión
similares a la realización mediante operador con un lógico ahorro de tiempo de
proceso.
Sólo en los últimos años, la investigación se ha encaminado a la automatización de
procesos más complejos como, por ejemplo, la extracción automática de elementos
cartográficos.

 
483 
484  EXTRACCIÓN AUTOMÁTICA DE ELEMENTOS CARTOGRÁFICOS 

Rosenfeld (1965) plantea las cuatro líneas básicas de investigación en la


extracción automática de elementos a partir de imágenes fotogramétricas digitales
atendiendo a las experiencias investigadoras previas en visión computerizada:
− presentación de la imagen en la pantalla (visualización) para su interpretación
por parte del operador.
− identificación parcial de elementos de la imagen y posterior verificación y
completado por parte del operador mediante técnicas manuales o asistidas.
− asistencia en el proceso de toma de decisiones mediante el análisis
automatizado de las medidas realizadas por parte del operador.
− realización de medidas cuantitativas de los elementos extraídos de las
imágenes digitales que han sido identificados por el operador.
A pesar del tiempo transcurrido desde la fecha de la publicación de este trabajo
aún esta clasificación sigue perfectamente vigente, de forma que se sigue trabajando
en estas líneas, considerando que la extracción de elementos cartográficos es una tarea
más del conocimiento de la imagen, del análisis de la escena y de la interpretación de
las mismas.
Schenk (1993) proporciona una visión general del problema de la interpretación
de la imagen y describe algunas soluciones para la interpretación de las imágenes
aéreas.
Su planteamiento apunta al conocimiento de la imagen y la interpretación de la
escena de forma que ambos aspectos deben ir necesariamente interrelacionados.
Schenk (1993) plantea que un factor de especial importancia en la calidad de los
resultados es el diseño del sistema de extracción, de forma que es compleja la
solución integral al problema.
Förstner (1991) considera que la comprensión de la imagen es un tema de
investigación que cubre todos los aspectos de la visión natural y artificial. El objetivo
fundamental de la comprensión es la descripción del contenido de la imagen (objetos
y relaciones entre los mismos) con respecto a algún determinado objetivo, lo que
demuestra la estrecha relación entre la información extraída y las condiciones
impuestas en la búsqueda (qué tipo de información se desea extraer). Förstner
distingue diferentes etapas en la comprensión de la imagen en función de la
información disponible de los objetos, de sus relaciones y de los intereses
fundamentales de la extracción. En esta línea, Förstner clasifica el proceso en las
siguientes tareas fundamentales:
− detección del objeto (¿existe el elemento en la imagen?)
− localización del objeto (¿cuál es su localización precisa?)
− reconstrucción del objeto (¿cuáles son los parámetros -características- del
objeto?)
− identificación del objeto (¿de que objeto se trata en función de las
características extraídas?)
− interpretación de la imagen (¿cuáles son las relaciones entre los diferentes
objetos extraídos?)
FOTOGRAMETRÍA DIGITAL   485 

Los problemas asociados a la automatización de estas tareas son numerosos


debido a la propia complejidad del problema, debido a la perdida de la información
que se produce durante el proceso de captura de la imagen (proyección de los objetos
tridimensionales en el espacio terreno a un espacio bidimensional -espacio imagen-) y
a la falta de soluciones que se produce en determinadas ocasiones para invertir este
proceso de proyección (problema -ill posed-).
Los métodos de extracción de elementos a partir de las imágenes digitales se
clasifican en 3 diferentes niveles:
− nivel bajo: procesos en los que tan sólo interviene la propia imagen.
− nivel medio: procesos que trabajan con las estructuras de los objetos.
− nivel alto: procesos que tienen por objeto producir una descripción semántica
de los objetos y que requieren el conocimiento específico del problema a
resolver.
La estrategia más frecuentemente empleada para la interpretación de la imagen es
la división de la misma en zonas homogéneas y zonas no homogéneas (bordes
extraídos mediante un proceso de extracción de elementos) clasificadas en función de
un determinado criterio de homogeneidad. Esta metodología es conocida bajo la
denominación de segmentación de la imagen y requiere disponer de un modelo previo
de la misma. Los modelos planteados pueden ser del tipo paramétrico en el que se
desconocen los parámetros concretos de los objetos que aparecen en la imagen
aunque se conoce el tipo de elementos y las relaciones entre los mismos o de tipo
genérico en el que los elementos, las relaciones y los parámetros concretos son
desconocidos.
Förstner (1992,1993) plantea la necesidad de la integración de la información
disponible en cada una de las fases de la interpretación como única vía posible para
alcanzar la solución del problema, así, por ejemplo, señala como fuentes de
información a utilizar las imágenes, los modelos de imágenes, la información relativa
a las tomas, el análisis de las estrategias de la interpretación y el análisis final por el
operador.
En la actualidad los campos de aplicación fundamental de la interpretación
automática de las imágenes son los relacionados con la fotogrametría industrial,
debido al mayor control disponible de las tomas y la mayor simplicidad y
conocimiento, del objeto u objetos a modelizar.
Los aspectos fundamentales a tener en cuenta son los siguientes:
− extracción de los elementos de la imagen (segmentación).
− modelización (conocimiento).
− fusión de la información.
Cualquier conjunto de datos bidimensionales tiene información de dos tipos, por
un lado, geométrica y por otro lado, semántica. La información geométrica consiste
en distinguir las propiedades de las diferentes regiones existentes en la imagen y se
realiza mediante procedimientos de segmentación estableciendo los límites y las
propiedades internas de cada elemento. Cualquier tarea relacionada con la
486  EXTRACCIÓN AUTOMÁTICA DE ELEMENTOS CARTOGRÁFICOS 

interpretación, como, por ejemplo, la extracción de los edificios de una imagen,


incluye el tratamiento de la información semántica y comienza con una segmentación
para encontrar la segmentación de la imagen y posteriormente seleccionar cuáles de
los elementos reconocidos son considerados edificios (fig. 9.1).

SEGMENTACIÓN

ANÁLISIS
INTERPOLACIÓN CODIFICACIÓN
REMUESTREO COMPRESIÓN
MEDIDAS 3-D

MEDIDAS
CUALITATIVAS

Fig.9.1. Estrategia para la resolución de diferentes tareas relacionadas con el análisis de imágenes.
La segmentación es una tarea relacionada con el objeto y se utiliza en diferentes procesos de extracción
de información que incluyen geometría y semántica para la reconstrucción de, por ejemplo, edificios
o sólo geometría, para el remuestreo de la imagen y la compresión (Gülch, 1995)

La información semántica consiste en etiquetas 3-D para estos segmentos y se


obtiene mediante la utilización de sistemas de análisis tomando como información de
partida los resultados de segmentación y utilizando el conocimiento previo de los
posibles objetos para generar las etiquetas. Cualquier tarea que no tenga en cuenta la
semántica (como por ejemplo, el remuestreo o la codificación) debe utilizar la
segmentación para obtener subconjuntos de elementos que sean homogéneos en el
sentido de que tengan propiedades conocidas.
Los aspectos básicos para conseguir una adecuada extracción de información de la
imagen son:
− segmentación de la imagen para obtener un conjunto de información bien
definido para la identificación, incluyendo una descripción de la calidad
global, regional y local de la imagen así como el rendimiento de los
operadores de la imagen cuando son aplicados.
− análisis de los resultados de la segmentación basándose en tipos de objetos
esperados dados por un modelo de objeto genérico.
− a partir de las imágenes originales y de los resultados del agrupamiento, la
fotogrametría digital permite obtener una descripción detallada o medida de la
geometría de los objetos (localizaciones de puntos, ángulos entre líneas, …)
incluyendo errores de estimación.
− procesamiento de la información geométrica contenida en la imagen, es decir,
el conjunto de límites entre los diferentes elementos reconocidos junto con las
propiedades de los espacios diferenciados. El conjunto de datos que describe
esta información puede ser utilizado para recuperar la imagen original
eliminando el ruido. Esta es la base para el remuestreo, la interpolación, el
codificado y la compresión.
FOTOGRAMETRÍA DIGITAL   487 

− medidas cualitativas. Este es el proceso más complejo, puesto que requiere un


procedimiento racional de análisis y descripción, y sería la fase
correspondiente a la Fotointerpretación automática.

9.2 MÉTODOS INTERACTIVOS DE EXTRACCIÓN DE ELEMENTOS


Estos métodos siguen un esquema similar al empleado en los sistemas
fotogramétricos analíticos o analógicos sin que se registren importantes ventajas por
la utilización de sistemas digitales, salvo la utilización de ciertas herramientas de
asistencia en el proceso de restitución que ayudan al operador en su trabajo (por
ejemplo, los sistemas de posado automático) y que tienen por objeto el aumento de la
rentabilidad del proceso de restitución y la importante ventaja de disponer de la
superposición tridimensional de los elementos extraídos, de gran interés en los
procesos de actualización cartográfica y de edición. Como inconvenientes, es
necesario indicar las fuertes necesidades del sistema informático para disponer de las
prestaciones que incorporan los sistemas analíticos como, por ejemplo,
desplazamiento contínuo de la imagen, zoom,... así como para el almacenamiento de
las imágenes.
Colomer y Colomina (1994) realizó un interesante estudio comparativo entre los
rendimientos alcanzados en tareas de restitución entre sistemas analíticos y digitales
comprobando que tras un corto periodo inicial de adaptación por parte de los
operadores, el rendimiento obtenido y el nivel de estrés y fatiga eran similares.

9.2.1 Construcción de topología a partir de medidas no estructuradas


Un paso fundamental para mejorar la productividad de la restitución en los
sistemas fotogramétricos digitales es liberar al operador de la realización de medidas
estructuradas. Las medidas a realizar por el operador consistirían tan sólo en una nube
de puntos medidos automática o manualmente y que posteriormente son analizados
por el sistema que será el encargado de la generación de la topología.
Grün et al. (1993) plantea una descripción de los módulos funcionales para la
extracción de tejados de edificios (fig.9.2, fig.9.3) que permiten la extensión de los
métodos de extracción semiautomática de elementos a partir de las medidas manuales.
Los sistemas actuales plantean el ajuste de superficies planas a las nubes de puntos
medidos de forma manual o automática generando entidades compatibles con los
sistemas de dibujos asistidos por ordenador (CAD). La aplicación más importante de
este proceso es la generación de ortoimágenes en zonas urbanas (true orthophotos).

9.2.2 Alineamiento interactivo de entidades del objeto


Murphy (1993) describe un sistema para la reconstrucción de objetos a partir de
elementos extraídos de los mismos. Este procedimiento puede ser aplicado a dos o
más imágenes de las que se extraen elementos a partir de una librería de entidades
geométricas 3D que son inicialmente ajustados de forma grosera y posteriormente
refinados (fig.9.4). Este sistema presenta un buen rendimiento en las imágenes en las
que aparecen objetos simples (fig.9.5) si bien aún no es posible el ajuste fino
totalmente automático.
488  EXTRACCIÓN AUTOMÁTICA DE ELEMENTOS CARTOGRÁFICOS 

Extracción de elementos
Automático imagen individual Semiautomático
(puntos, esquinas, líneas)

Datos 3D
Extracción de elementos
Manual Nubes de puntos múltiples imágenes
Curvas (modelo de cámara integrado)
+ vectores

Planos de entidades
geométricas (3DFACE)

Construcción topología Semiautomático

Objetos
(casas, tejados, ...)

Sistema gráfico
Extracción de elementos
múltiples imágenes
(modelo de cámara integrado)
Edición, Visualización,
Animación

AutoCAD

Fig.9.2. Organigrama del procedimiento de extracción interactiva (Grün et al., 1993)

Fig.9.3. Modelo 3D generado a partir de medidas manuales de los edificios y estructuración automática
(Grün et al., 1993)
FOTOGRAMETRÍA DIGITAL   489 

Selección de imágenes
para la modelización

Imágenes

Establecimiento Sistema
Coordenadas Espacio 3D Modelo de la escena
y transformaciones 3D a 2D
(modelo de cámara)
Estrategia extracción

Biblioteca de elementos Modelización


geométricos 3D Objetos Escena
Información adicional

Herramientas de Ayuda a la Modelización Automática


Herramientas de modelización interactiva
Extracción automática de localizaciones
Extracción automática del terreno
Sistemas de ajuste de localizaciones
Sistemas de detección de edificios
Extracción automática de materiales
Extracción automática de edificios

Fig.9.4. Organigrama del sistema de reconstrucción del objeto a partir de primitivas

Fig.9.5. Ejemplos de aplicación del método de alineamiento interactivo


de entidades del objeto (Murphy, 1993)

9.3 DETECCIÓN AUTOMÁTICA DE OBJETOS


La principal tarea de la detección de objetos es comprobar la existencia de un
objeto cuyas propiedades o características son conocidas. La descripción de su
localización y forma puede ser de interés, si bien no es el objetivo primario. Sus
aplicaciones básicas en la Cartografía es la detección de objetos construidos por el
hombre y la clasificación de usos del suelo. Los métodos más frecuentemente
empleados son el uso de imágenes monoscópicas, el análisis de los resultados del
matching estereoscópico, los métodos de clasificación y los métodos de fusión de
imágenes provenientes de diversos sensores.
490  EXTRACCIÓN AUTOMÁTICA DE ELEMENTOS CARTOGRÁFICOS 

9.3.1 Herramientas monoscópicas


Es evidente que la visión monoscópica desempeña un papel muy importante en la
tarea de interpretación de las imágenes que realizamos los humanos. La utilización de
propiedades de las imágenes dependientes del proceso de la toma como, por ejemplo,
la dirección de los líneas de fuga, la aparición de sombras, … permiten extraer una
información muy valiosa de la imagen que puede ser empleada como ayuda a las
tareas de interpretación y medida por parte del operador.
Este apoyo en el proceso de interpretación de la imagen obtenido a partir de las
imágenes monoscópicas se puede plantear en dos líneas diferentes:
- extracción clásica de elementos de la imagen o segmentación de la imagen
- partición de la escena
- agrupación perceptual de la imagen

9.3.1.1 Extracción clásica de elementos de la imagen o segmentación de la imagen


Los métodos clásicos de extracción de elementos permiten la obtención de puntos,
bordes, líneas o regiones (Gülch, 1991). Existen diversos métodos de extracción de
elementos, que son más o menos adecuados para diversas tareas, bajo determinadas
condiciones con resultados más o menos óptimos.
La extracción de elementos se realiza mediante la aplicación de métodos de nivel
bajo, como los que se resumen en la Tabla 9.1.
Tabla 9.1. Métodos de extracción de elementos (Gülch, 1991)
Operadores puntuales
Operadores de interés, utilizados para la detección de puntos –nodos– de diferentes tipos, como, por
ejemplo, intersecciones o esquinas.
Métodos: Operador de Förstner, Operador de Moravec
Operadores de borde
Se pueden clasificar en cuatro categorías básicas en función del tipo de borde a extraer.
Métodos: Búsqueda de máscara (Sobel, Kirsch, Prewitt,…), Zero-crossing (Marr, Grimson, …); métodos
basados en el gradiente (operador de Canny), ajuste de bordes (Hueckel).
Operadores lineales
La extracción de líneas trabaja básicamente sobre los elementos de borde extraídos. El objetivo es la
búsqueda de elementos rectilíneos o curvilíneos con un determinado radio de curvatura.
Métodos: Seguimiento y enlace de bordes, Análisis cluster en espacios paramétricos (transformada de
Hough).
Operadores de superficie –área– (extracción de regiones)
Métodos: Crecimientos de regiones, división y fusión de regiones.

El principal problema con todos los métodos es que carecen de una estrategia
jerárquica para la detección de la importancia de las estructuras en combinación con
una localización precisa de los elementos que las constituyen. Se asume que la
imagen original tiene la resolución adecuada para la detección de las estructuras de
interés. Desafortunadamente el ruido y los detalles sin interés producen problemas en
la detección (fig.9.6). El problema radica en que la resolución óptima para la
detección rara vez coincide con la resolución óptima para la localización precisa de la
estructura, por lo que la detección y la localización son dos procesos relacionados
FOTOGRAMETRÍA DIGITAL   491 

pero independientes que deben ser abordados en etapas sucesivas y a diferentes


escalas de observación.

Fig.9.6. Problemas de detección de elementos debido al ruido y la existencia de elementos


carentes de interés en la imagen (Delgado et al., 2000)

Por otro lado, es importante tener en cuenta que no es suficiente con la extracción
de elementos individuales de la imagen siendo necesaria la combinación de los
elementos individuales en estructuras más complejas para lo que se requiere a su vez
el establecimiento de las relaciones entre los elementos extraídos.
Un aspecto fundamental para la automatización del proceso es el ajuste
automático de los parámetros del proceso, así valores iniciales como los tamaños de
las ventanas, tolerancias, límites de convergencia,… deben ser ajustados de una forma
automática a partir del conocimiento previo de la escena. En el caso de que esto no
sea posible, es necesario disponer al menos de procedimientos de ajuste automático a
partir de los resultados parciales extraídos de la imagen.
Otro aspecto a tener en cuenta en la extracción junto con la resolución es la escala
de la imagen. Los métodos de extracción de bajo nivel parten de la hipótesis de que la
imagen original tiene la escala óptima para la detección de las estructuras de la
imagen. El problema surge es que los objetos reales y sus estructuras derivadas son
sólo válidas para un determinado rango de escalas.
La teoría de escala de espacio (Witkin, 1983) proporciona un marco para la
detección de estructuras significativas y su escala. Sin embargo, la representación del
espacio de escala bruta proporciona sólo información implícita de los niveles digitales
de las imágenes suavizadas a las diferentes escalas mientras que la información
explícita de los elementos y relaciones entre los elementos a las diferentes escalas se
pierden.
Lindeberg (1991) desarrolló esta idea utilizando una representación denominada
boceto inicial de escala de espacio (scale-space primal sketch) que permite la
extracción de la información explícita bajo la forma de regiones o relaciones entre
regiones a las diferentes escalas. Este esquema se basa en la extracción de regiones en
las imágenes (fig.9.7), proceso para el que tan sólo es necesario disponer de un
conocimiento inicial de la imagen y si comportamiento bajo las variaciones en escala.
La metodología se basa en tres ideas iniciales:
- Estructura de imagen significativa. Una región definida en una determinada
escala de espacio se corresponde con una región relevante en la imagen.
492  EXTRACCIÓN AUTOMÁTICA DE ELEMENTOS CARTOGRÁFICOS 

- Escala apropiada. El nivel de escala de espacio en la cual la región alcanza su


volumen máximo es la escala relevante para tratar la región individual.
- Representación espacial. La superficie de una determinada región es
representada por la correspondiente de la región al nivel apropiado.
Volumen de la región
(blob volume)

Contraste

Superficie de la región
(blob support region)
Fig.9.7. Parámetros cuantitativos descriptivos de una región definida en función de los niveles de gris en el
caso bidimensional: volumen, área y contraste. La región definida por los niveles de gris tiene una
superficie definida en el espacio (x,y) y el nivel de gris (z) (Lindeberg, 1991)

A B

Fig.9.8. Definición de las regiones según el esquema del espacio de escala.


A) Relación entre las regiones de nivel de gris correspondientes a niveles adyacentes;
B) Representación 3D de las diferentes regiones en función de los niveles de gris (Lindeberg, 1991)

El método de extracción básico para las estructuras de imágenes se basa en cuatro


etapas diferentes:
- Generación de regiones de escala de espacio para la extracción de regiones en
todos los niveles de escala y establecimiento de los enlaces entre las regiones
de las diferentes escalas.
FOTOGRAMETRÍA DIGITAL   493 

- Cálculo del volumen para las regiones a las diferentes escalas.


- Determinación de la escala para cada región en la que se asumen su volumen
máximo y la extracción de la región en ese nivel de escala.
- Ordenar las regiones en el orden de significación descendente.
Información Localización precisa
de la escala de los bordes

Regiones extraídas del Detección de bordes+ Localización precisa de


boceto de espacio de escala matching grosero inicial bordes a escala de detalle

Fig.9.9. Integración del esquema de escala de espacio con


la detección de bordes (Lindeberg, 1991)

9.3.1.2 División de la escena


Una escena natural puede ser considerada como el conjunto de zonas homogéneas
y heterogéneas. La distribución de las zonas suele incluir la presencia mayoritaria de
zonas homogéneas que se delimitan en función de algún criterio de homogeneidad
(nivel digital, color, textura, …). El objetivo final de la división de la escena es la
segmentación de la imagen en regiones homogéneas introduciendo el conocimiento
específico del que se dispone a priori. Un aspecto fundamental en la utilización de
este conocimiento es la introducción de constreñimientos en la extracción tal y como
se describe en Quam (1991). El problema se plantea como un problema de
optimización del tipo MDL (minimum description lenght) mediante el cual se
clasifican los límites en esquinas, uniones en T, líneas que cruzan o líneas rectilíneas,
aquellos bordes que no están incluidas en una de estas clases son consideradas como
outliers. Los principales problemas de este método son el enorme tamaño del espacio
de búsqueda y las dificultades de combinar diferentes métodos de segmentación que
complican de una forma importante la aplicación práctica del mismo. La descripción
más simple de las regiones y de sus límites es considerada como óptima y es
seleccionada como tal. Un ejemplo de la aplicación de esta metodología se muestra en
la figura 9.10 en el que la imagen de una casa se divide en regiones con
constreñimientos en los límites en cuanto a su paralelismo.
9.3.1.3 Agrupamiento perceptual
Otro método es la obtención de estructuras de nivel superior a partir de elementos
individuales que son combinados o agrupados de acuerdo con los modelos previos de
los objetos.
Un ejemplo típico de la aplicación de este método es el seguimiento de bordes o el
enlace de bordes en los que los elementos individuales -bordes- son agrupados
siguiente un esquema específico.
494  EXTRACCIÓN AUTOMÁTICA DE ELEMENTOS CARTOGRÁFICOS 

Fig.9.10. División de la escena. Izq: Imagen original; Der: Imagen dividida (Quam,1991)

La mayoría de los métodos de seguimiento de bordes (trackers) parten de un


segmento inicial trazado por el operador, del que se extrae un nivel digital
característico del objeto así como la dirección a nivel local y la curvatura del
elemento. Estos valores estimados son empleados para predecir la posición del
elemento a extraer y se irán reajustando en función de los elementos que se vayan
extrayendo. Este método ha sido aplicado a diferentes ejemplos reales que incluyen
desde imágenes satélite hasta fotogramas aéreos de gran escala con buenos resultados
destacando, entre otros, los trabajos de Solberg (1992), Shaim (1993), Busch (1994) y
Vosselman (1998).
Otro método de carácter más general que se basa en el agrupamiento perceptual
fue presentado por Huertas y Nevatia (1988) y Price (1992). El método trabaja en el
dominio de la imagen y aplica parámetros de similitud, de estructura, de escala, de
significación y de representación. El agrupamiento perceptual y los constreñimientos
desempeñan un papel crucial en el método. Así, por ejemplo, para la detección de
edificios se plantea la búsqueda de líneas en la imagen que formen rectángulos (fig.
9.11), mientras que para la detección de carreteras se establecen condiciones de
colinealidad entre los márgenes de las mismas y las marcas viales (fig.9.12). Este
método ha sido aplicado con éxito a la detección de objetos en imágenes aéreas, más
detalles pueden ser consultados en Huertas et al. (1993).
Por último, existe un método que se basa en la aplicación de la geometría del
punto de fuga (McGlone, 1993, 1994; McKeown, 1990, 1991, 1993; Shufelt, 1993).
Mediante el análisis de las direcciones de los bordes extraídos de las imágenes se
pueden clasificar los mismos en bordes horizontales y verticales y a partir de esta
clasificación y mediante la aplicación de modelos de edificios es posible la detección
de las esquinas que permiten la delimitación de los edificios y el trazado final
atendiendo a ciertos parámetros preimpuestos relativos a la geometría de los edificios
a extraer (forma, geometría, dimensiones, …). Estos elementos extraídos son
finalmente verificados utilizando la información derivada de la propia imagen como,
por ejemplo, intensidad de las sombras e iluminación solar, utilizando para ello tomas
en diferentes direcciones. Un ejemplo de los resultados de la aplicación de este
método se muestra en la figura 9.13.
FOTOGRAMETRÍA DIGITAL   495 

Fig.9.11. Aplicación del método de la agrupación perceptual a la extracción de rectángulos para la


extracción de edificios (Price y Huertas, 1992). Sup: izq) Imagen original; centro) segmentos
extraídos de la imagen; der) estructuras lineales y nodos; Inf: izq) relaciones de paralelismo;
centro) estructuras rectangulares; der) rectángulos seleccionados

Fig.9.12. Aplicación del método de la agrupación perceptual a la extracción de las pistas del aeropuerto
JFK (Price y Huertas, 1992). Sup: izq) Imagen original; der) segmentos lineales extraídos;
Inf: izq) elementos de interés; der) pistas y marcas viales detectadas
496  EXTRACCIÓN AUTOMÁTICA DE ELEMENTOS CARTOGRÁFICOS 

Fig.9.13. Aplicación de las herramientas monoculares a la extracción de edificios (McGlone, 1993). Sup:
izq) Imagen original; centro) bordes horizontales; der) bordes verticales; Inf: izq) hipótesis geométricas
consistentes; centro) resultados verificados de hipótesis de edificios; der) resultados finales

9.3.2 Métodos basados en el matching estereoscópico y el análisis de resultados


La utilización de los métodos de estéreo matching es un procedimiento muy
frecuente en la actualidad para la obtención de información 3D de la imagen, como
por ejemplo, en la generación de MDE. En este proceso se extrae información tanto
del propio terreno como de los objetos artificiales situados son el mismo (edificios,
árboles, …) que habitualmente es eliminada para obtener mapas de curvas de nivel
válidos. En el caso concreto de la extracción de objetos, la información de mayor
interés es la información eliminada, con el objetivo final de la detección, localización
y parametrización de los objetos de la escena.
Uno de los métodos más avanzados es el propuesto por McKeown
(1990,1991,1993), McGlone y Shufelt (1993,1994) y Shufelt (1993) que combina la
información extraída de la imagen mediante el proceso de matching con la
información obtenida mediante el análisis monoscópico de las escenas. En este
método los resultados del proceso de matching son refinados mediante la
segmentación monoscópica, así, por ejemplo, se utiliza la información monoscópica
para la determinación de qué cota será más adecuada para ser aplicada al edificio de
las extraídas en el proceso de matching.
Otro método propuesto por Al-Tahir y Schenk (1992), Zong (1992) y Wang
(1992) propone la realización de un proceso de estéreo matching combinado con una
interpolación de la superficie y una etapa final del análisis tridimensional de la
superficie (fig.9.14). El matching es empleado en la etapa inicial para la generación
de un mapa de disparidad (Zong et al., 1992) que es empleado para la interpolación de
diferentes superficies del modelo que se corresponden con los distintos niveles de la
pirámide, dando lugar a una superficie final refinada (Al-Tahir y Schenk, 1992). Esta
FOTOGRAMETRÍA DIGITAL   497 

superficie es analizada en tres etapas (Wang y Schenk, 1992): a) detección de


desniveles, agrupamiento de bordes 3D y clasificación final. Este método permite
obtener como resultado derivado la superficie topográfica del terreno, una vez
eliminados los obstáculos. Un ejemplo de aplicación se muestra en la figura 9.15.

Matching bidimensional de bordes

Interpolación de superficies

Análisis de superficies

Detección de desniveles

Agrupación de bordes 3D

Clasificación de bordes 3D

Primitivas simbólicas
Fig.9.14. Esquema del método de matching estereoscópico y análisis de superficies 3D
(Wang y Schenk, 1992)

Chung y Nevatia (1992) presenta un método basado en el cálculo de la jerarquía


de descripciones entre los elementos extraídos (bordes, segmentos lineales, nodos,...)
A partir de imágenes individuales y la fusión de estos elementos en diferentes niveles.
Los límites de las superficies de ajustar a modelos previos utilizando condiciones
como la coplanaridad y la colinealidad.
Dang et al. (1994) utiliza los modelos de disparidad y la información fotométrica
para mejorar la reconstrucción de los edificios. El flujo de trabajo se muestra en la
figura 9.16. El proceso comienza con un procedimiento de matching estereoscópico
que proporciona un mapa de disparidad que se filtra mediante la aplicación de
modelos planares de superficie, a este proceso de matching se le aplican
constreñimientos derivados de la aplicación del detector de bordes de Canny-Deriche.
Las estructuras lineales detectadas a partir de los bordes seleccionados en el mapa de
disparidad son agrupadas de acuerdo con las leyes Gestalt de agrupamiento,
utilizando criterios de proximidad, similitud, cercanía, continuidad, simetría para la
generación de estructuras rectangulares como modelo básico de los edificios. Estas
estructuras rectangulares son utilizadas para recalcular un nuevo mapa de disparidad
que será el empleado como modelo final. Un ejemplo de aplicación de este método se
muestra en la figura 9.17.
498  EXTRACCIÓN AUTOMÁTICA DE ELEMENTOS CARTOGRÁFICOS 

C D

E F

Fig.9.15. Aplicación del método basado en el matching estereoscópico y análisis de superficies 3D.
A) Par estereoscópico original; B) Bordes extraídos y correlacionados; C) Representación tridimensional
del MDE; D) Representación en tonos de gris del MDE; e) Mapa de curvas de nivel del MDE; F) Detección
de los edificios en función de los cambios de pendiente (Wang y Schenk, 1992)
FOTOGRAMETRÍA DIGITAL   499 

Imagen derecha Imagen izquierda

Contornos Regiones Contornos

Modelos Disparidad
Matching estereoscópico Filtrado

Modelos Agrupación perceptual

Hipótesis de edificios

Fig.9.16. Diagrama de flujo del método de Dang et al. (1992)

A B

C D

E F

G H

Fig.9.17. Ejemplo de aplicación del método de Wang (Wang y Schenk, 1992). a y b) Imágenes originales;
c) Mapa de disparidad sin corrección; d) Segmentación de la imagen izquierda; e) Mapa de disparidad con
corrección; f) Estructuras lineales; g) Estructuras rectangulares; h) Perspectiva final
500  EXTRACCIÓN AUTOMÁTICA DE ELEMENTOS CARTOGRÁFICOS 

Haala (1994) presenta un método similar. En este caso el MDE se obtiene


mediante la aplicación de un proceso de matching a nivel de elemento. La existencia
de máximos a nivel local en el MDE indica la posible presencia de edificios que se
combina con la extracción de regiones de imagen de las zonas de interés aplicando un
método de matching tridimensional para el ajuste de los modelos de los edificios
derivados del MDE. Un ejemplo de aplicación de este método se muestra en la figura
9.18.

Fig.9.18. Método de Haala (1994). De arriba hacia abajo. 1: Par estereoscópico original con los
bordes extraídos (blanco) y la región 3D detectada y segmentos tridimensionales (negro). 2: izq) Vista
perspectiva de los segmentos tridimensionales extraídos; der) Ortoimagen con los elementos extraídos
(negro) y los elementos agrupados (blanco). 3: Modelo de alambre del edificio proyectado sobre el par
estereoscópico. D: izq) Imagen izquierda con los edificios reconstruidos y los segmentos empleados;
der) Vista perspectiva final generada (Haala y Hahn, 1995)

9.3.3 Métodos basados en la aplicación de técnicas de matching a nivel de modelo


Existen ciertos casos en las que se dispone de un modelo explícito del objeto a
detectar que puede ser utilizado para la mejora de los resultados de la extracción. Esta
información se introduce en el proceso mediante un ajuste del modelo con la imagen
mediante un proceso de matching a nivel de elementos (Schickler, 1992) o un proceso
de matching relacional (Fritsch, 1993, entre otros).
FOTOGRAMETRÍA DIGITAL   501 

9.3.3.1 Matching a nivel de elementos de segmentos rectilíneos


El objetivo del método propuesto por Schickler (1992) es la obtención de una
forma automática de los parámetros de orientación externa de imágenes
fotogramétricas aéreas individuales a partir de un aproximaciones a los valores de
orientación y un modelo de alambre 3D de los puntos de apoyo (ver apartado 7.5.4.1).
Para cada punto de control se proyecta el modelo 3D en la imagen 2D y se realiza la
correlación entre el mismo y los elementos extraídos en la imagen mediante la
aplicación de un método de agrupamiento de orientaciones (pose clustering). Por
último, se lleva a cabo un proceso de estimación robusta de los parámetros de la
orientación con lo que se aplica un proceso de autodiagnóstico para la depuración de
los resultados.
9.3.3.2 Matching relacional de estructuras
Una posible mejora al método anterior es la utilización del método de matching
relacional que utiliza en el proceso de correlación no sólo a los elementos sino
también las relaciones entre los mismos. Vosselman (1992); Vosselman y Haala
(1992); Haala y Vosselman (1992) y Fristchet al.(1993) proponen métodos para el
matching relacional entre elementos puntuales, líneas y regiones cuya aplicación
fundamental es la orientación externa automática, si bien en su procedimiento se parte
de un reconocimiento de objetos (elementos de control) empleando una búsqueda
jerárquica mediante árbol.

R1 L1
R3 Ra
Lb

La
R2
Rb

Rd
Rc
R4 L2

L1 La Lb

L2 Lb La

R1 Ra Rb Rc Rd Ra Rb Rc Rd

R2 Rb Rc Rd

R3 Rb Rd

R4 Rd

Fig.9.19. Matching relacional. Elementos y árbol de búsqueda.


Sup: Imagen original y modelo. Inf: Representación de las posibles relaciones y árbol de
búsqueda para la selección de la relación óptima (Fristch et al.,1993)
502  EXTRACCIÓN AUTOMÁTICA DE ELEMENTOS CARTOGRÁFICOS 

Fig.9.20. Ejemplo de matching relacional. Sup: izq) Imagen correspondiente al canal Intensidad;
centro) Imagen correspondiente al canal tno; der) Imagen binarizada; Inf: izq) líneas extraídas de la imagen;
centro) mapa de la zona; der) modelo de la estructura extraída (Haala y Vosselman, 1992)

9.3.4 Clasificación
Una información de gran utilidad, aunque no siempre puede es fácil de integrar en
el proceso es la información de carácter no geométrico obtenida el análisis de la
escena por parte del operador (clasificación).
9.3.4.1 Clasificación basada en la textura de la imagen
La clasificación textural de la imagen para su interpretación es una técnica
clásicamente empleada en los procesos de interpretación de imágenes en
Teledetección. Estos métodos también pueden ser empleados sobre imágenes
fotogramétricas aéreas (Baley, 1993) obteniendo como resultado la delimitación de
zonas de características texturales comunes a partir de la división de la imagen en
pequeñas zonas y la asignación de las mismas a una determinada clase.
9.3.4.2 Clasificación basada en la aplicación de modelos de información
Füger (1992) y Stilla (1994) proponen un método de clasificación de imágenes
aéreas basado en la utilización de modelos de los objetos. En este método se generan
las estructuras de los objetos utilizando modelos genéricos de objetos almacenados en
una base de datos integrada en el sistema. Las entidades, como, por ejemplo, los
segmentos rectilíneos son extraídos de las imágenes aéreas y clasificadas dentro de las
clases predefinidas (calles, cruces, edificios, ...). Este método es de gran utilidad para
los procesos de actualización cartográfica en los que se dispone de información previa
de la escena (modelos iniciales) que deben ser actualizados o comprobados.
FOTOGRAMETRÍA DIGITAL   503 

Fig.9.21. Resultados obtenidos de la clasificación aplicada sobre una imagen aérea mediante
el método de Fuger et al., 1991. En la imagen se pueden observar las calles (trazadas en blanco),
los cruces (marcados con +) y las casas extraídas

9.3.5 Fusión de la información proveniente de diferentes sensores


En los últimos años se está experimentando una tendencia al empleo de técnicas
de generación de MDE que no emplean procesos de matching. Una de las más
empleadas es el empleo de sistemas láser aerotransportados (airborne laser scanners)
que miden de una forma directa puntos del terreno con una elevada densidad de
puntos (en torno a 5mx5m) constituyéndose como una alternativa real a los sistemas
fotogramétricos clásicos. Estos sistemas combinan la utilización de sistemas láser de
alta frecuencia con sistemas de posicionamiento de alta precisión (GPS/INS) con
tamaños del punto (laser spot) sobre el terreno entre 30cm y 140cm, presentando la
importante ventaja del poder de penetración del láser en las zonas de vegetación, en
las cuales el terreno no puede ser medido mediante imágenes aéreas. No obstante, es
importante tener en cuenta que uno de los principales problemas de los sistemas de
adquisición y tratamiento de los modelos digitales de superficie, el de las paredes
verticales, continua sin resolverse con este sistema. A pesar de todo, es indudable que
constituye una importante fuente de información que puede ser integrada al sistema
para mejorar o facilitar la extracción de los elementos situados en el terreno. En la
figura 9.22 se muestra un ejemplo de MDE generado mediante un sistema láser.

9.4 RECONSTRUCCIÓN AUTOMÁTICA DE OBJETOS


El principal objetivo de la reconstrucción de objetos es la determinación de las
propiedades físicas y geométricas así como la topología y otras relaciones entre las
partes que componen a los mismos (Förstner, 1991). Dentro del mundo de la
Cartografía los elementos de mayor interés en la extracción automática suelen ser los
elementos introducidos en el terreno por el hombre (carreteras y edificios) debido a su
mayor interés socioeconómico, a que están sometidos a cambios más rápidos y
frecuentes y a que presentan unas relaciones y estructuras geométricas, en numerosos
casos, bien definidas.
504  EXTRACCIÓN AUTOMÁTICA DE ELEMENTOS CARTOGRÁFICOS 

Fig.9.22. Modelo digital de superficie obtenido mediante sistema láser aerotransportado (Förstner, 1997).
Datos proporcionados por TopoSys, Ravensburg

Es importante tener en cuenta la información disponible en este momento del


proceso. Cuando se aborda la extracción automática de los elementos cartográficos es
conocido el tipo de objeto a extraer y su posición aproximada así como la orientación
de la imagen y la escala aproximada de la misma. Asimismo también es necesario
plantear el grado de interacción por parte del usuario en el proceso que puede ir desde
tan sólo la fase de interpretación a emplearse también en la fase de medida (por
ejemplo, para la medida de puntos de semilla que se emplearán en el proceso de
extracción automática).

9.4.1 Métodos semiautomáticos


En la actualidad los métodos semiautomáticos son los que presentan un estadio de
desarrollo más avanzado. En ellos el usuario proporciona la información inicial
necesaria para la extracción realizando a continuación una labor de
verificación/supervisión-corrección de los mismos. La mayoría de estos métodos se
aplican a nivel monoscópico, obteniéndose la información altimétrica de un MDE
asociado. Dentro de este grupo se pueden diferenciar los siguientes métodos:
a) seguimiento de bordes y matching de patrones
b) seguimiento de carreteras y enlace
c) modelos de curvas activas
d) fotogrametría a nivel de líneas 3D

9.4.1.1 Seguimiento de bordes y matching de patrones


Existen diversos métodos para relacionar los bordes extraídos de la imagen con el
objeto de dar lugar a estructuras con un mayor sentido físico. Uno de los métodos más
conocidos y empleados es el propuesto por Grün (1993) que se basa en la aplicación
de un matching de mínimos cuadrados al que se le introducen constreñimientos de
carácter geométrico para buscar la correspondencia entre los elementos extraídos y
FOTOGRAMETRÍA DIGITAL   505 

patrones sintéticos de bordes. Como información de partida requiere un primer punto


del borde y la distancia máxima entre dos puntos del borde a la hora de realizar el
seguimiento automático. El sistema se detiene cuando detecta algún problema en el
proceso de matching, este problema puede ser debido a bordes poco definidos,
cambios en el tono del fondo, sombras, oclusiones o distorsiones.
Este método ha sido aplicado con muy buenos resultados en aplicaciones
fotogramétricas de rango cercano (close-range) y presenta la importante ventaja de
poder realizar el proceso de identificación de la estructura en varias imágenes de una
forma simultánea, lo que permite el seguimiento del borde en 3D. En la actualidad el
método requiere de un considerable trabajo de verificación y corrección por parte del
operador. En la figura 9.23 se muestra un ejemplo de la aplicación de este método a la
extracción del tejado de una casa.

Fig.9.23. Aplicación del método de seguimiento de bordes y matching de patrones (Grün, 1993).
a) Fin de borde encontrado; b) Cambios del nivel de gris del fondo; c) Sombras, oclusiones o distorsiones;
d) Resultado final con los problemas encontrados

En la figura 9.24 se muestra la aplicación de este método a la extracción de un río.


En la figura 9.24 izq aparece marcado el punto inicial de semilla a partir del cual y
mediante el análisis de las diferencias de nivel digital aprovechando la circunstancia
de la homogeneidad de niveles que presenta el río se definen sus límites. Como puede
observarse en la figura 9.24 der existen ciertos problemas en el trazado como, por
ejemplo, la presencia de árboles en el margen derecho que requieren la posterior
edición por parte del operador. Firestone et al. (1996) aplican esta técnica con éxito
para la extracción de lagos y pantanos a pequeña escala en la que los problemas en la
detección del borde son menores.

Fig. 9.24. Extracción del contorno de un río mediante la introducción de un punto situado en su interior
(izq) y la aplicación de técnicas de agrupamiento de regiones. Der: Imagen resultante (Vosselman, 1998)
506  EXTRACCIÓN AUTOMÁTICA DE ELEMENTOS CARTOGRÁFICOS 

9.4.1.2 Seguimiento de carreteras y enlace


Heipke et al. (1994) propone un método de seguimiento de bordes en imágenes
monoscópicas. El método utiliza un sistema combinado de detección y seguimiento
del borde, en el que el operador debe proporcionar como información inicial el punto
y la dirección de inicio. El sistema utiliza dicha información para la extracción de los
bordes en una pequeña zona de la imagen (área de interés) mediante procesos de
binarización y esqueletización, continuando la extracción hasta que los bordes
extraídos presentan unas características fuera de los límites introducidos por el
operador (longitud, dirección,…), momento en el cual el operador debe de intervenir
de nuevo para reactivar el proceso. El esquema de trabajo se muestra en la figura
9.25. Este método se basa en el procedimiento empleado para la extracción de
carreteras a partir de mapas digitalizados en formato ráster y en la actualidad se está
aplicando a imágenes aéreas.
Selección punto inicial

Elección de dirección inicial

Selección de área de interés

Filtro de gradiente

Binarización por valor límite

Esqueletización

Seguimiento de bordes

Conversión
vector-raster
sí Parada debido a
discontinuidades

no

Actualización de dirección

no Nueva dirección sí
correcta?

Fig.9.25. Extracción semiautomática de carreteras en imágenes aéreas.


Izq: Diagrama de flujo del proceso; Der: sup) Información de partida: punto inicial y
dirección aproximada del borde, inf) resultado final de la extracción del borde (el sistema se detuvo
como consecuencia de un cambio importante en la dirección del borde) (Heipke et al., 1994)
FOTOGRAMETRÍA DIGITAL   507 

Grün y Li (1994) proponen otro sistema para la extracción semiautomática de


carreteras. Este método combina la transformación wavelet para el suavizado de las
carreteras con un algoritmo de extracción de elementos basado en sistemas de
programación dinámica. En la figura 9.26 se muestra un ejemplo de aplicación de este
método a la extracción de una carretera a partir de una imagen SPOT-P. El proceso de
extracción se inicia con la introducción de una serie de puntos semilla para la
extracción del borde en función de un modelo que consta de seis propiedades
geométricas y fotométricas, introducidas en el proceso como constreñimientos y
funciones de distancia estadística. A la imagen se le aplica una transformación
wavelet piramidal y sobre los bordes extraídos se aplica el algoritmo de programación
dinámica para la selección de los segmentos óptimos. El valor de Z es obtenido en
tiempo real a partir de la interpolación en un MDE asociado. Este método ha sido
aplicado con buenos resultados tanto en imágenes satélite como en fotografías aéreas
(fig. 9.26c y d).

Fig.9.26. Extracción semiautomática de carreteras a partir de imágenes satélite y fotografía aérea mediante
el método de Grün y Lin (1994) (Grün y Lin, 1994). Sup: izq) imagen SPOT-P en la que aparecen
señaladas las posibles zonas problemáticas (rectángulos blancos), der) imagen a la que se ha aplicado una
transformación wavelet con las carreteras suavizadas; Inf: izq) ejemplo de extracción de una carretera; der)
ejemplo de carreteras extraídas a partir de una imagen aérea

9.4.1.3 Modelos de curvas activas


Otros métodos para la extracción de elementos a nivel global son los modelos de
curvas activas o “snakes” (Gülch, 1991; Quam, 1991; Grün, 1993). Estos métodos
están diseñados específicamente para su empleo en métodos semiautomáticos en los
que el usuario introduce algunos puntos semilla distribuidos a lo largo del elemento a
extraer y la curva activa se ajusta al elemento en función de un procedimiento de
508  EXTRACCIÓN AUTOMÁTICA DE ELEMENTOS CARTOGRÁFICOS 

minimización de energía. El único problema de este método es encontrar el equilibrio


entre las fuerzas internas de la curva (rubber band) y las fuerzas externas (imagen)
que condicionan el comportamiento de la curva. Una ventaja muy importante de las
curvas activas es la posibilidad de trabajar en zonas con baja textura o problemas de
oclusiones o sombras.
Este método ha sido empleado para la extracción de carreteras a partir de
imágenes aéreas (Quam,1991) partiendo de una serie de puntos iniciales e
introduciendo condicionantes como el paralelismo entre los bordes, obteniendo los
dos bordes de la carretera de una forma simultánea (fig.9.27), presentando mejores
resultados que la extracción mediante seguimiento local de bordes (Grün,1993).

Fig.9.27. Extracción de carreteras mediante modelos de curvas activas abiertas (Quam, 1991)

Las curvas activas cerradas son empleadas para la extracción de edificios


(Gülch,1991; Quam, 1991). En este caso los valores aproximados pueden ser
proporcionados a partir de un proceso de crecimiento o de división de regiones,
aunque los mejores resultados se continúan obteniendo a partir de la introducción de
puntos por parte del operador. Además se introducen algunas limitaciones de tipo
geométrico como, por ejemplo, el paralelismo y la ortogonalidad, aunque su
introducción sólo se ha probado en casos muy concretos. Un ejemplo de extracción
del tejado mediante curvas activas cerradas se muestra en la figura 9.28. La imagen de
partida ha sido previamente segmentada en regiones utilizándose dichos bordes como
información de partida en el proceso de extracción (fig.9.28b). El proceso es de tipo
iterativo dando lugar a un ajuste progresivo de la curva (fig.9.28c,d) hasta obtener el
resultado final (fig.9.28e).
Se han realizado pruebas sobre la aplicación de este método en la generación
automática de mapas de usos de suelo (mapas de vegetación) a partir de imágenes
multiespectrales clasificadas, con fines de actualización cartográfica y utilizando
como información de partida los mapas anteriores.
9.4.1.4. Fotogrametría a nivel de líneas 3D
Un elemento fundamental en el proceso de extracción de elementos cartográficos
a partir de imágenes aéreas es el modelo digital de elevaciones, que se obtiene de
forma automática mediante la medida de puntos homólogos identificados mediante
procesos de matching a nivel de área o de elemento. El problema de esta metodología
es que presenta importantes problemas en la identificación de objetos en zonas
FOTOGRAMETRÍA DIGITAL   509 

urbanas o con importante vegetación impidiendo la extracción de los objetos como


consecuencia de oclusiones, discontinuidades y orientación.
Mulawa y Mikhail (1988) proponen un método alternativo que trabaja a nivel de
líneas tridimensionales en lugar de a nivel de puntos. Este método ha sido
desarrollado por varios autores (Heikkilä, 1991; Wilkin, 1992; Zielinski, 1993)
presentado importantes ventajas con respecto al trabajo clásico a nivel puntual, en
particular en los aspectos relativos a la identificación de estructuras homólogas en las
imágenes al no necesitar la correspondencia a nivel puntual (fig.9.29). El proceso de
matching se realiza mediante el ajuste por mínimos cuadrados en el espacio terreno lo
que permite la introducción directa de constreñimientos tridimensionales en el
proceso de matching.

Fig.9.28. Modelos de curvas activas cerradas para la extracción de edificios (Gülch, 1991). Sup: izq)
Imagen original segmentada; centro) Posición inicial de la curva activa en el nivel de la pirámide 0; der)
Posición inicial de la curva activa en el nivel de la pirámide 1; Inf: izq) Posición de la curva tras 25
iteraciones; centro) Posición de la curva tras 40 iteraciones; der) Resultado final tras 75 iteraciones

y”
y’
y’ y”
x” 2’
p’ p” x’
l’ 1’ 4’ x”
x’ 3’ l”
2
L

4
Z Z
1
Y Y
3

X X

Fig.9.29. Fotogrametría a nivel de líneas 3D. Izq: Fotogrametría estereoscópica clásica;


Der: Fotogrametría a nivel de línea (Zielinski, 1993)
510  EXTRACCIÓN AUTOMÁTICA DE ELEMENTOS CARTOGRÁFICOS 

Los principales campos de aplicación de la fotogrametría a nivel de líneas son la


actualización cartográfica, la modelización de discontinuidades en el proceso de
reconstrucción de superficies, el reconocimiento de objetos artificiales y la
modelización de alta precisión en sistemas de imágenes no métricas (Heikkilä,1991).
Zielinski (1993) expone el método de introducción de la información de las líneas 3D
en el proceso de matching mediante la transformación previa de las mismas en cuatro
parámetros (δ,φ,r,γ) (fig.9.30), lo que simplifica la selección de las líneas en función
de su orientación (horizontales, verticales, paralelas, líneas que intersectan, …). Este
método puede ser modificado para el procesamiento simultáneo de imágenes
múltiples y el empleo de otros tipos de líneas como, por ejemplo, círculos o curvas.
Z

eγ eγ
línea 3D
S Z eφ =d
d
S
γ γ=100
g

D
δ línea 3
|
|s


r=


Y
Y
φ

X
Z
S1
d1

P
(S
d -S
δ Y Z
2
)
1

γ eφ
d2
Y
X eγ S2

X
línea 3D

Fig.9.30. Sup: izq) Representación de líneas 3D en función de los parámetros (δ,φ,r,γ), es decir, sus
coordenadas esféricas y un ángulo; der) Representación de una línea horizontal;
Inf: izq) Representación de una línea vertical; der) intersección de dos líneas en la que se
puede aplicar la condición de coplanaridad l(s1,s2),d1,d2l = 0

El problema actual de este método, que aún permanece sin resolver es la


identificación automática de las líneas homólogas, tarea que debe ser realizada por el
operador mediante una identificación en imágenes múltiples.
FOTOGRAMETRÍA DIGITAL   511 

Fig.9.31. Identificación manual de las correspondencias entre los elementos extraídos en


seis imágenes mediante la utilización de un sistema de ventanas múltiples (izq);
reconstrucción tridimensional de las líneas 3D identificadas

9.4.2 Métodos automáticos basados en el empleo de modelos paramétricos


Todos los métodos de extracción sea cual sea su grado de automatización
requieren disponer de un modelo del objeto. En los métodos basados en los modelos
paramétricos se conoce el número y tipo de los parámetros, siendo necesaria la
estimación de los valores concretos que toman los parámetros en cada caso. En este
tipo de métodos la intervención del usuario suele consistir en la selección de una base
de datos adecuada a los elementos a extraer y al trazado de forma aproximada de los
elementos. La reconstrucción de los objetos requiere disponer de elementos de
sencilla interpretación en las imágenes (imágenes agrupadas o segmentadas) y los
métodos más comunes son la modelización con primitivas de objetos, los métodos
que emplean modelos de objeto completos a nivel de imágenes individuales o
múltiples y los entornos de modelización interactiva.
Un ejemplo de sistema que emplea primitivas de los objetos a partir de imágenes
individuales para la extracción de edificios es descrita en Mueller y Olson(1993). En
este sistema el usuario selecciona el modelo más adecuado al tipo de edificio a extraer
(fig.9.32) e introduce los valores límites de longitud, anchura, altura e inclinación del
tejado así como una localización aproximada. El sistema ajusta la estructura a los
elementos extraídos de la imagen y realiza el trazado que deberá ser posteriormente
verificado por el usuario. El método es muy rápido en zonas residenciales con
edificios con características similares (urbanizaciones de casas aisladas).
Otro método basado en el empleo de modelos de objetos “completos” es el
propuesto por Lang y Schickler (1993). Este sistema incorpora diferentes tipos de
edificios (fig.9.33) que el usuario deberá elegir así como proporcionar la posición
aproximada del edificio a extraer. El trazado se realiza automáticamente utilizando los
bordes extraídos en una o varias imágenes realizándose la estimación de la posición
del edificio, su orientación y su forma. Este método trabaja muy bien en todos los
casos en los que los edificios a extraer se adecuan a los modelos existentes en la base
de datos.
Hanson y Quam (1988) y Quam (1991) diseñaron un sistema al que denominan
entorno de modelización cartográfica que permite la utilización de diversas fuentes de
512  EXTRACCIÓN AUTOMÁTICA DE ELEMENTOS CARTOGRÁFICOS 

información (imágenes, MDE, modelos de objetos) y que permite la introducción de


información geométrica externa (modelos de iluminación, por ejemplo) para la
creación de modelos de alambre superpuestos a las imágenes reales o a imágenes
sintéticas.

Tejado plano Tejado a dos aguas Tejado a cuatro aguas


(flat roof) (gabbled roof) (hipped roof)

v5 l14
v9
Inclinación
l9 l5 l13 Longitud (l) del tejado
v1 l15 c6 c5
v8 l1 c2
v6 l10 l2 c7
v10 l12 l8
l6 c1 Altura (h)
v4 l11
v2 c3 c4
v7 Posición imagen (f,c)
l7 l4
l3 Anchura (a) Ángulo de orientación
v3

Fig.9.32. Reconstrucción de objetos con el modelo de objeto “completo” (Mueller y Olson, 1993)

8
l
3

h2 7

6
z
h1
5
y
b

x
1

Fig.9.33. Sistema de reconstrucción semiautomática de edificios de Lang y Schickler (1993).


Sup: Modelos de edificios disponibles; Inf: Captura de pantalla del sistema (Muller, 1998)
FOTOGRAMETRÍA DIGITAL   513 

9.4.2.1 Extracción de carreteras


Ruskoné et al. (1994) presenta un método de extracción de carreteras basado en el
empleo de modelos genéricos de las carreteras, combinados con métodos de detección
de elementos y modelos de curvas activas.
El proceso comienza con la extracción de los elementos más importantes de la
imagen mediante un criterio de bajo nivel. La imagen a continuación es segmentada
mediante la delimitación de las regiones en una imagen de gradientes. Las regiones
son filtradas considerando criterios impuestos de superficie y forma (elongación). Por
último, se aplica un método de seguimiento de líneas para realizar el trazado y enlace
de la red de carreteras utilizando criterios de minimización de coste. Una vez que la
red inicial ha sido trazada el sistema completa las discontinuidades empleando
métodos de alto nivel y se genera la topología final, para la revisión y edición por
parte del operador.
9.4.2.2 Extracción de edificios
En la actualidad existe una necesidad creciente de disponer de descripciones
tridimensionales de las zonas urbanas para diversas aplicaciones como planificación
urbanística, investigación en temas de microclimas urbanos, instalación de
transmisores y de antenas de telecomunicaciones (telefonía móvil, por ejemplo). Esta
información actualmente es prácticamente inexistente, dando que la cartografía
urbana es esencialmente una cartografía plana (bidimensional) y, a lo sumo, incorpora
algún tipo de información acerca de la altura del edificio (en numerosas ocasiones
indicando el número de plantas del mismo). Es importante tener en cuenta que la
adquisición de esta información con los medios disponibles hasta hace unos pocos
años era muy costosa, debido a la elevada cantidad de información necesaria para la
modelización tridimensional. Actualmente, la aparición de nuevas técnicas basadas
principalmente en la utilización de levantamientos topográficos de detalle mediante
sistemas láser aerotransportado y de imágenes digitales está cambiando esta situación
permitiendo una rápida adquisición de la información necesaria, basada en un elevado
grado de automatización.
A pesar de los avances referentes a la captura de la información hay que tener en
cuenta que la modelización urbana no es una tarea fácil. La interpretación automática
de la información digital requiere disponer de una modelización explícita. La
dificultad de la modelización depende básicamente de dos factores:
- la complejidad de la escena. Los edificios de estructura simple representan un
porcentaje pequeño del total. Los modelos que se suelen emplear son de tipo
paramétrico (McGlone y Shufelt, 1994) que describe a los edificios como un
pequeño conjunto de parámetros, o bien de tipo prismático (Herman y
Kanade, 1986) que define a los edificios por el polígono que define su planta
y su altura. Si bien cada vez es más frecuente el empleo de sistemas más
complejos de uniones de bloques con diferentes formas y alturas (Lin et al,
1994) y el empleo de descripciones relacionales para la descripción de
edificios complejos (Fua y Hanson, 1987).
514  EXTRACCIÓN AUTOMÁTICA DE ELEMENTOS CARTOGRÁFICOS 

- el tipo de sensor empleado para la captura de los datos. Si se emplean


fotografías aéreas en formato digital, la metodología fotogramétrica se basa
en la aplicación de las técnicas de identificación automática de puntos
homólogos (stereo matching), aunque es necesario tener en cuenta que las
condiciones de aplicación de esta técnica en modelos urbanos no son las
óptimas debido fundamentalmente a la frecuente presencia de oclusiones, la
necesidad de representar estructuras verticales y los fuertes cambios de
paralaje que implican dichas estructuras verticales. El empleo de sistemas de
tipo láser (Krabill et al, 1984; Krabill , 1989) proporcionan directamente las
coordenadas terreno 3D de los datos de la superficie, con una elevada
precisión en altura que desgraciadamente no se mantiene en planimetría,
además presentan varios problemas importantes en primer lugar el elevado
coste debido a su reducido ángulo de campo, la imposibilidad de representar
elementos verticales y los problemas de oclusiones típicos de las zonas
urbanas.
A pesar de estos inconvenientes de ambas técnicas es importante tener en cuenta
que el empleo de las mismas, bien de forma individual o combinada, permite obtener
unas aproximaciones muy buenas a la superficie visible del terreno sobre todo
teniendo en cuenta que cuando se trabaja a escalas medias los requisitos en cuanto a
resolución no son excesivamente exigentes.
La metodología más frecuentemente empleada es la extracción de los edificios a
partir de modelos digitales de alta resolución. Las etapas básicas son:
a) generación automática de los modelos digitales de elevaciones de alta
resolución.
b) detección de edificios en el modelo digital.
c) construcción de una descripción geométrica para cada uno de los edificios
detectados.
a) Las características que debe tener el modelo es que el espaciado sea lo
suficientemente denso que permita la identificación de los edificios. El espaciado
empleado suele variar entre 0.5 y 5m dependiendo de la escala del fotograma y de la
precisión con la que se desee la definición de los elementos en el modelo.
Es importante tener en cuenta que el modelo digital generado nunca va a poder
registrar de una forma completa la morfología de los edificios, así por ejemplo,
existirán zonas de oclusión que no poder ser registradas. Por otro lado, en el modelo
existen otros elementos (que no son edificios) que han sido captados (vehículos,
árboles,…) y que deben ser diferenciados de los edificios.
La reconstrucción de las formas requiere una regularización empleándose
habitualmente una regularización local adaptativa.
b) El esquema que se plantea para la detección de edificios es muy simple, los
edificios presentan una mayor elevación que el espacio que los rodea. Por tanto,
debemos extraer cual es la superficie del terreno y mediante una simple diferencia con
respecto al modelo original se puede detectar la posición de los edificios.
FOTOGRAMETRÍA DIGITAL   515 

Para la obtención del modelo digital de la superficie del terreno se emplean


técnicas derivadas de la morfología matemática aplicada a la imagen digital que
representa el modelo original (que incorpora tanto la superficie del terreno como otros
objetos -casas, vehículos, árboles, …-). El procedimiento se basa en aplicar un filtro
de mínimo con una matriz -kernel- que tenga un tamaño inferior al previsto por los
edificios, este filtro actúa como una erosión, posteriormente a la imagen erosionada se
le aplica un filtro de máximo con el mismo tamaño de kernel que actúa como una
dilatación, por lo que en conjunto se aplica una apertura.
Una vez que los dos modelos ya están disponibles (modelo original y modelo de la
superficie del terreno) la identificación de los edificios consta simplemente en el
cálculo de la diferencia entre ambos. El problema es establecer el valor límite para
que una diferencia entre ambos modelos sea considerada como un edificio, o al
menos, un posible edificio.
c) Por último, los edificios detectados son reconstruidos geométricamente. Las
descripciones utilizadas dependen de la complejidad de los mismos, empleándose
habitualmente modelos paramétricos y prismáticos.
Los modelos paramétricos se utilizan para la descripción de edificios simples,
compuestos por bloques prismáticos separados entre sí. Estos modelos se basan en la
descripción del edificio mediante una serie de parámetros de forma (por ejemplo,
longitud, anchura y altura para los edificios de tejado plano y longitud, anchura, altura
a la base del tejado y altura del tejado para los edificios de tejado inclinado) y unos
parámetros de orientación con respecto al sistema de coordenadas terreno.
Los modelos prismáticos utilizan como información de partida una imagen
segmentada y refinada. Los límites de cada segmento son simplificados y
simplificados utilizando el conocimiento previo acerca de la estructura de los
edificios. Dicha modelización se divide en una serie de etapas:
1. Vectorización. A partir de las imágenes segmentada y refinada de tipo binario
en la que se muestra la posición de los edificios se realiza una transformación
raster a vector. Dicha transformación se establece manteniendo los píxeles
exteriores a cada edificios y posteriormente se obtienen las coordenadas de
los píxeles que integran el límite que son almacenadas (formato vectorial).
2. Una vez que la imagen ha sido vectorizada se aplica un procedimiento para la
eliminación del ruido de discretización, que origina que las líneas no
aparezcan como tramos rectos sino como una serie de pequeños segmentos
que ponen de manifiesto el teselado previo.
3. La última etapa se la extracción final de la forma mediante la aplicación del
algoritmo de longitud mínima de descripción (minimum description length,
MDL) que simplifica las formas derivadas de la fase anterior realizando
ajustes entre las formas obtenidas y los modelos previstos, mediante la
aplicación de técnicas basadas en la estimación robusta (Fuchs y Förstner,
1995).
516  EXTRACCIÓN AUTOMÁTICA DE ELEMENTOS CARTOGRÁFICOS 

4. Por último, son obtenidas la altura de los edificios a partir del modelo digital
de elevaciones original.
Esta metodología ha sido aplicada al conjunto de datos FLAT del Grupo de
Trabajo III de la ISPRS (Fristch et al., 1994). La zona cubierta por las imágenes se
una zona urbana con edificios simples y aislados del que se dispone un modelo digital
con una resolución de 1m (x e y). Una representación tridimensional en modelo de
alambre se muestra en la figura 9.34, además se muestra el fotograma izquierdo del
modelo y el modelo digital de elevaciones.
La primera etapa consiste en la segmentación del modelo a fin de separar por un
lado los edificios y por otro el terreno (fig.9.35), esta etapa es de particular
importancia, puesto que de la misma depende los resultados finales de la
modelización y viene definida tanto por el método de segmentación empleado
(básicamente del tamaño de la ventana empleado) como por la resolución del modelo
digital empleado.

Fig.9.34. Ejemplo FLAT -ISPRS WG3.


Arriba: Representación tridimensional en modelo de alambre de una zona del modelo digital (resol.1x1m).
Abajo: Izq. Fotograma izquierdo del modelo, Der. Representación en tonos de gris del MDE
(los tonos más claros se corresponden con zonas más elevadas)

Tras la segmentación se realiza la vectorización, la eliminación del ruido de la


discretización, la simplificación de las formas y la generación de la topología final
que incluye el etiquetado de los elementos que componen el edificio (fig.9.36).
FOTOGRAMETRÍA DIGITAL   517 

Fig.9.35. Izq. Representación de la superficie del terreno obtenida a partir de un proceso de apertura
(tamaño de la matriz 15 pixels). Centro: Modelo digital diferencia entre el modelo total y la superficie del
terreno. Der. Extracción de los edificios mediante segmentación de la imagen

w
w w

w
h12 v1
h12 h31
h12 h31
w w v
h16 h31
h11,t h33
h15 h12
w w h12 h31
w h33
h12 h13 w h31
w h31
v
h14 h33
v w w h33
v h12
h12 h31
h32
w h33
h31 h34
h11,t w
v v h11
h34
h12
h12 h34
h31
w w h31
h11
w h31
h34
h31 h34
h11
h12 h31 w

h31
v v w

h11 h31

? ?
h42
h42
? ? ? h42 h42 v
w h25 h25 h25 h25 h44 h42 h42
w w h41
w h42
v w v
v
w w
h22 h22 w h45
w
v v
h42 w h42
v v h41
w
v v h43 w
h42 h42
h42
h21,t h21,t h42
v v h41 v
h42 v
h42
h23

w1
v2 w w
w3
w4 h12
w1 h
v2
h34 w1 v
h16 h33 h
h3# h15# v1# h
h31# w w
h42 w3 h14
h34 h42 h
h31# w4# h13# h
w1 h24 w w h
h42 w1
h43 h33 h w
h43# h33 h
h31# h31# h
w1 h3# v
h42 h42
v1# h42 v w
w2 h44#
h
w3
h
w4# h21 h
h v v
v2
h33
h3# h h
h42 w w

h12 h
v2 h
h31
h42
v v

Fig.9.36. Reconstrucción de objetos con modelos genéricos a nivel de imágenes múltiples (Gülch, 1992)
518  EXTRACCIÓN AUTOMÁTICA DE ELEMENTOS CARTOGRÁFICOS 

REFERENCIAS BIBLIOGRÁFICAS
Al-Tahir,R. Y Schenk, T. (1992). On the interpolation problem of automated surface reconstruction.
IAPRS, 29 (B3), 227-232.
Bailey, R.R.; Pettit, E.J. y Borochoff, R.T. (1993). Automatic recognition of USGS land use/cover
categories using statistical and neural network classifiers. Proc. SPIE’93 Conference on “Integration
Photogrammetric Techniques with Scene Analysis and Machine Vision”. 14-15 Abril. Orlando, Florida.
Busch, A. (1994). Fast Recognition of Lines in Digital Images without user-supplied parameters. IAPRS,
30-3/1. ISPRS Com.III Symposium, Munich, Alemania. Septiembre.
Chung, R.C. y Nevatia, R. (1992). Recovering Building Structures from Stereo. IEEE Workshop on
Application of Computer Vision. Palm Springs, CA, USA.
Colomer, J.L. y Colomina, I. (1994). Digital Photogrammetry at the Institute Cartogràphic de Catalunya.
Photogrammetric Record, 14(84), 943-956.
Dang, T.; Jamet, O. y Maître, H. (1994). Using Disparity Models and Objects Models to Improve Stereo
Reconstruction of Buildings, ZPF, 5/1994.
Delgado, J.; Cardenal, J. y Gómez, A. (2000). Extraccion semiautomática de edificios a partir de modelos
digitales de superficie mediante técnicas de análisis digital de imágenes y modelización paramétrica.
Topografía y Cartografía, 95, 2-18.
Firestone, L.; Rupert, S.; Olson, J. y Mueller, W. (1996). Automated Feature Extraction.: the key of future
productivity. PE&RS, 62(6), 671-674.
Förstner, W. (1991). Tutorial - High Level Image Analysis. ISPRS Conference Digital Photogrammetric
Systems. Munich, 3 Septiembre.
Förstner, W. (1992). Fusion Information in Remote Sensing, Trabajo presentado al XVII Congreso de la
ISPRS.
Förstner, W. (1993). A Future of Photogrammetric Research. NTG-Geodesia, 35, 8.
Förstner, W. (1997). Building Extraction from Digital Surface Models. http://www.ipf.uni-bonn.de
Fristch, D.; Hahn, M.; Haala, N. y Sester, M. (1993). Tutorial - Photogrammetric Image Processing’93. 44th
Photogrammetric Week. Stuttgart, Septiembre.
Fristch,D.; Sester,M. y Schenk,T. (1994). Test on image understanding . En: ISPRS Comm.III Symp.
Spatial Information from Digital Photogrammetry and Computer Vision, SPIE, pp.243-248.
Fua, P. y Hanson, A.J. (1987). Resegmentation using generic shape locating general cultural objects.
Pattern Recognition Lett., 5, 243-252.
Fuchs,C. y Förstner,W. (1995). Polymorphic grouping for image segmentation . 5th ICCV, 1995, Boston,
175-182.
Füger, H.; Jurkiewicz, K.; Lütjen, K. y Stilla, U. (1992). Ein wissensbasiertes system für die automatische
bildanalyse. IAPRS, 29 (B3), 167-172.
Gülch, E. (1991). Automatic Extraction of Geometric Features from Digital Imagery. En: Ebner, H.,
Fristch, D.; Heipke, Ch. Digital Photogrammetric Systems. Ed. Herbert Wichman Verlag, Karlsruhe,
Alemania, pp.74-85.
Gülch, E. (1992). A Knowlegde based approach to reconstruct buildings in digital aerial imagery. IAPRS,
29(B3), 410-417.
Gülch, E. (1994). Fundamentals of Softcopy Photogrammetric Workstations. Proceedings Mapping and
Remote Sensing Tools for the 21st century. ASPRS. 26-29 Agosto. pp.193-204.
Gülch, E. (1995). Information Extraction from Digital Images - A KTH approach. En: Grün, A.; Kuebler,
O.; Agouris, P. Automatic Extraction of Man-Made Objects from Aerial and Space Images. Ascona
Workshop. Ed. Birkhäuser-Verlag. Basilea, Suiza. pp. 73-82.
Grün, A. y Li, H. (1994). Semi-automatic road extraction by dinamic programming. Proceedings Com. III
Symposium, Münich, IAPRS, 30, 3/1.
Grün, A.; Streilein, A.; Stallman, D. y Han, H. (1993). Automation of House Extraction from Aerial and
Terrestrial Images. Proc. Conference AUSIA 93 (2nd International Conference Coloquium of
LIESMARS). 19-22 Octubre. Wuhan, China.
Haala, N. (1994). Building Detection of Buildings by fusion of range and image data. ZPF 5/1994.
Haala, N. y Hahn, M. (1995). Data fusion for the detection and reconstruction of buildings. En: Grün, A.;
Kúbler, O. y Agouris, P. (eds.) Automatic Extraction of Man-Made Objects from Aerial and Space
Images. pp.211-220.
Haala, N. y Vosselman, G. (1992). Recognition of Road and River Patterns by Relational Matching.
IAPRS, 29(B3), 969-975.
Hanson,A.J. y Quam,L.H. (1988). Overview of the SRI Cartographic Modeling Environment. Image
Understanding Workshop. Cambridge, Massachusetts, 6-8 Abril, vol. II.
FOTOGRAMETRÍA DIGITAL   519 

Herman,M. y Kanade,T. (1986). The 3D mosaic scene understanding system. En: Pentland, A.P. (ed) From
Pixels to Predicates. Ablex Publ.Co., Norwood, N.J. pp. 322-358.
Heikilä, J. (1991). Use of linear features in Digital Photogrammetry. The Photogrammetric Journal of
Finland, 12(2), 40-56.
Heipke, Ch.; Englisch, A.; Speer, T.; Stier, S. y Kutka, R. (1994). Semiautomatic Extraction of Roads from
Aerial Images. Proceedings Com. III Symposium, Münich. IAPRS, 30, 3/1.
Huertas, A. y Nevatia, R. (1988). Detecting Buildings in Aerial Images. Computer Vision and Image
Processing, 41, 131-152.
Huertas, A.; Lin, C. y Nevatia, R. (1993). Detection of Buildings from Monocular Views of Aerial Scenes
using Perceptual Grouping and Shadows. DARPA IU Workshop, Washington D.C.
Krabill,W.G. (1989). GPS application to laser profiling and laser scanning for digital terrain models. En:
Proc. 42nd Photogrammetric Week, Stuttgart, pp.329-340.
Krabill,W.G.; Collins,J.G.; Link,L.E.; Swift,R.N. y Butler, M.L. (1984). Airborne laser topographic
mapping results. PE&RS, 50(6),685-694.
Lang, F. y Schickler, W. (1993). Semiautomatische 3D-Gebäudeerfassung. ZPF-Zeitschrift für
Photogrammetrie und Fernerkundung, 5/93.
Lin,C.; Huertas,A. y Nevatia, R.(1994). Detection of buildings using perceptual grouping and shadows.
Proc.Computer Vision and Pattern Recognition, pp.62-69.
Lin, C.; Huertas, A.; Nevatia, R. (1995). Detection of Buildings from Monocular Images. En: Grün, A.;
Kübler, O. y Agouris, P. Automatic Extraction of Man-Made Objects from Aerial and Space Images. Ed.
Birkhäuser-Verlag, Basilea. pp. 125-134.
Lindeberg, T. (1991). Discrete Scale-Space Theory and Scale-Space Primal Sketch. Dissertation,
Computational Vision and Active Perception Laboratory. Royal Institute of Technology. Estocolmo,
Suecia.
McGlone, J.C. y Shufelt, J.A. (1993). Incorporating Vanishing Point Geometry in Building Extraction
Techniques with Scene Analysis and Machine Vision. 14-15 Abril. Orlando, Florida.
McGlone, J.C. y Shufelt, J.A. (1994). Projective and Object Space Geometry for Monocular Building
Extraction. Proc. IEEE Computer Society Conference on Computer Vision and Pattern Recognition.
Seattle, Washington, 21-23 Junio.
McKeown, D.M. (1990). Toward Automatic Cartographic Feature Extraction. En: Pau, L.F. Mapping and
Spatial Modelling for Navigation, NATO ASI Series, vol. F65, Ed. Springer-Verlag, Berlin-Heidelberg.
McKeown, D.M. (1991). Information Fusion in Cartographic Feature Extraction from Aerial Imagery. En:
Ebner, H.; Fritsch, D. y Heipke, Ch. (eds.) Digital Photogrammetric Systems. Ed. Herbert Wichmann
Verlag, Karlsruhe, Alemania, pp. 103-110.
McKeown, D.M. (1993). Integration of Photogrammetric Cues into Cartographic Feature Extraction. Proc.
SPIE’93 Conference on Integration Photogrammetric Techniques with Scene Analysis and Machine
Vision. 14-15 Abril, Orlando, Florida.
Mueller, W.J. y Olson, J.A. (1993). Model-based feature extraction. Proceedings SPIE’93 Conference on
Integration Photogrammetric Techniques with Scene Analysis and Machine Vision. 14-15 Abril. Florida.
Mulawa, D.C.; Mikhail, E.M. (1988). Photogrammetric Treatment of Linear Features. IAPRS, 27, B10.
Muller, H. (1998). Experiences with Semiautomatic Building Extraction. Proc. 3rd Course in Digital
Photogrammetry. Institute für Photogrammetrie Universität Bonn - Landvermessungsamt Nordrhein-
Westfalen.
Murphy, M.E. (1993). Rapid Generation and Use of 3D Site Models to Aid Imagery Analysis/Systems
Performing Image Exploitation. Proc. SPIE’93 Conference on Integration Photogrammetric Techniques
with Scene Analysis and Machine Vision. 14-15 Abril. Orlando, Florida.
Neuenschwander, W.; Fua, P.; Székely, G. y Kübler, O. (1995). From Ziplock Snakes to VelcroTM surfaces.
En: Grün, A.; Kübler, O. y Agouris, P. Automatic Extraction of Man-Made Objects from Aerial and
Spaces Images. pp. 105-114.
Price, K. y Huertas, A. (1992). Using Perceptual Grouping to Detect Objects in Aerial Scenes. IAPRS, 29
(B3), 842-855.
Quam, L. y Strat, T. (1991). SRI Image Understanding Research in Cartographic Feature Extraction. En:
Ebner, H.; Fritsch, D. y Heipke, Ch. (eds.). Digital Photogrammetric Systems. Ed. Herbert Wichman
Verlag, Karlsruhe, Alemania, pp. 111-122.
Rosenfeld, A. (1965). Automatic Imagery Interpretation. Photogrammetric Engineering, 31, 2.
Ruskoné, R.; Airault, S. y Jamet, O. (1994). A road extraction system using the connectivity properties of
the network. ZPF5/1994.
520  EXTRACCIÓN AUTOMÁTICA DE ELEMENTOS CARTOGRÁFICOS 

Schenk, T. (1993). Imagery Understanding and Digital Photogrammetry. En: Fristch y Hobbie (eds.).
Photogrammetric Week’93. Ed: Herbert Wichman Verlag. Karslruhe, Alemania.
Schickler, W. (1992). Feature Matching for outer orientation of single images using 3-D wireframe
controlpoints. IAPRS, 29(B3), 591-598.
Shaim, F. (1993). Automatic Extraction of Roads from Digital Images. ISPRS III/3 Workshop on
“Understanding Aerial Images with Emphasis on Urban Scenes”. Columbus, Ohio. Noviembre.
Shufelt, J.A. y McKeown, D.M. (1993). Fusion of Monocular Cues to Detect Man-Made Structures in
Aerial Imagery. Computer Vision and Graphics Image Processing: Image Understanding, 57, 3, Mayo.
Solberg, R. (1992). Semi-automatic revision of topographic maps from satellite imagery. IAPRS, 29(B4),
549-556.
Stilla, U.; Hajdu, A. (1994). Map-aided structural analysis of aerial images. En: Ebner, H.; Heipke, C. y
Eder, K. (eds.). Spatial Information from digital photogrammetry and computer vision. ISPRS
Commission III Symp., Munich. Bellingham, SPIE, 30, Part 3/2, 769-775.
Vosselman, G. (1992). Relational Matching. Lectures Notes in Computer Science, 628S, Springer-Verlag.
Vosselman, G. (1998). Cartographic Feature Extraction. Proc. 3rd Course in Digital Photogrammetry.
Institute für Photogrammetrie Universität Bonn - Landvermessungsamt Nordrhein-Westfalen.
Vosselman,G. y Haala, N. (1992). Erkennung topographischer pa_punkte durch relationale zuordnung.
ZPF-Zeitschrift für Photogrammetrie und Fernerkundung, 6/92.
Wang, Z. y Schenk, T. (1992). 3D urban area surface analysis. IAPRS, 29(B3), 720-726.
Witkin, A. (1983). Scale-space filtering. Proc. of the 7th IJCAI.
Wilkin,A. (1992). Robust 3D object representation by linear features. IAPRS, 29, B5.
Zielinski, H. (1993). Object Reconstruction with Digital Line Photogrammetry. Dissertation, Department of
Geodesy and Photogrammetry, KTH, Estocolmo.
Zong, J.; Li, J.C.; Schenk, T. (1992). Aerial Image Matching based on zero crossings. IAPRS, 29(B3), 144-
150.

IAPRS: International Archives of Photogrammetry and Remote Sensing


ASPRS: American Society of Photogrammetry and Remote Sensing
Capítulo 10. Ortofotografía Digital

10.1 Introducción. Conceptos básicos.


10.2 Rectificación de imágenes digitales.
10.3 Etapas de realización de una ortorrectificación mediante el método diferencial.
10.4 Calidad de la imagen ortorrectificada.
10.5 Generación de ortoimágenes en zonas urbanas.
10.6 Impresión de imágenes digitales.
10.7 Factores que determinan el coste final de un proyecto de ortofotografía.
10.8 Estándares de control de calidad en las ortoimágenes.
10.9 Generación de perspectivas y animaciones.

10.1 INTRODUCCIÓN. CONCEPTOS BÁSICOS


Los métodos de rectificación han alcanzado gran importancia en los últimos años
debido al gran auge que ha experimentado la cartografía digital, frecuentemente
englobada en Sistemas de Información Geográfica y a su combinación con las
imágenes digitales, provenientes de la digitalización de fotografías analógicas o bien
directamente adquiridas en formato digital (cámaras digitales o sensores remotos).
Para asegurar que la superposición de las diferentes capas del sistema de información
sea correcta es necesario que toda la información esté referida al mismo sistema de
proyección. La mayoría de los sistemas de información o de tratamiento de imágenes
digitales incorporan procedimientos para realizar esta rectificación que se suelen
denominar métodos de georreferenciación o geocodificación. Los modelos
matemáticos utilizados van desde simples transformaciones afines utilizando
polínomios de alto orden o transformaciones proyectivas a los métodos de
rectificación diferencial con corrección del desplazamiento debido al relieve, método
especialmente indicado cuando se pretende trabajar con zonas con marcadas
diferencias de nivel.

 
521 
522      ORTOFOTOGRAFÍA DIGITAL 

El primer sistema para la generación de ortofotografías digitales utilizando


microdensímetros fue presentado por Keating y Boston (1979). Este sistema
reemplazaba la proyección óptica por un sistema de sensores electrónicos que
digitalizan pequeñas porciones de la imagen, un procesor que posiciona el sensor y un
dispositivo de escritura de película que directamente expone cada pixel transformado
en la película que contiene la ortofoto final. Los fundamentos de la rectificación
digital son tratados en Konecny (1979) y Baehr (1985). En la actualidad son módulos
básicos en todos los sistemas fotogramétricos digitales así como en los sistemas de
información geográfica y de tratamiento de imágenes satélite.
La aparición de los sistemas de rectificación digital ha supuesto un importante
cambio con respecto a los sistemas clásicos de rectificación de imágenes como, por
ejemplo, que sólo permitían la corrección de inclinación y el cambio de escala
(fig.10.1) utilizados hasta la década de los 60, los sistemas de ortoproyección
analógica como , por ejemplo, el Carl Zeiss DP-3 y el Wild PPO-8 (fig.10.2) de la
década de los 60 y los sistemas analíticos como, por ejemplo, el Wild Avioplan
(1976) y el Zeiss Z2 Orthocomp (1980) (fig.10.3) que aparecieron a finales de la
década de los 70. Estos sistemas analíticos permitían el empleo de MDE generados
previamente para la ortorrectificación de las imágenes contando con un sistema de
asistencia por ordenador, su precio rondaba los 50 millones de pesetas y debido a
esto, su difusión fue muy reducida, la producción fue en torno a 90 Wild Avioplan y
50 Zeiss Z2 Orthocomp. Es importante tener en cuenta que todos estos equipos
requerían personal muy especializado así como instalaciones adecuadas entre las que
era necesario contar con un laboratorio fotográfico.

Fig.10.1. Ejemplos de rectificadores analógicos. Estos sistemas están basados en el principio de


funcionamiento de las ampliadoras fotográficas, con la diferencia de que el tablero de copia puede ser
inclinado para corregir la inclinación del fotograma y obtener fotografías rectificadas
FOTOGRAMETRÍA DIGITAL   523 

A finales de la década de los 80 aparecen diversos sistemas de ortorrectificación


de imágenes digitales, estos sistemas han supuesto una auténtica revolución del
mercado de forma que hoy en día la mayoría de los paquetes informáticos de
teledetección, e incluso, los sistemas de información geográfica incorporan módulos
de ortorrectificación y confección de mosaícos. La mayoría de estos sistemas tienen
un manejo muy sencillo y con unos costes muy reducidos funcionando sobre
ordenadores personales lo que ha popularizado y difundido su utilización.

Fig.10.2. Ortoproyectores analógicos. Izq: Carl Zeiss DP-3; Der: Wild PPO-8

Fig.10.3. Ortoproyectores analíticos. Izq: Wild Avioplan (1976); Der: Zeiss Z2 Orthocomp (1980)

No obstante, es importante tener en cuenta que las ventajas de las ortofotografías


digitales no se limitan al abaratamiento de los costes y la sencillez de realización del
proceso sino que se extienden más allá. Las ventajas fundamentales se pueden resumir
en:
1. Calidad:
a) En el proceso de ortofotografía digital se mejora la calidad geométrica al
realizarse la rectificación píxel a píxel (o mediante el método del punto de
anclaje -anchor point-) utilizando la información del modelo digital del
terreno.
524      ORTOFOTOGRAFÍA DIGITAL 

b) La geometría de la ortoimagen digital no presenta problemas de estabilidad


geométrica
c) La radiometría puede ser mejorada mediante la aplicación de las herramientas
de ajuste (modificación del brillo y contraste, modificación de las curvas
tonales) de forma que se consiga una buena apariencia general y una
adecuada reproducción a nivel local.
2. Flexibilidad:
a) Los ajustes radiométricos permiten la utilización de vuelos que hayan sido
realizadas con diferentes condiciones de iluminación (lo cual es frecuente
cuando se trabaja con zonas grandes que no pueden ser voladas de una forma
simultánea o bien cuando es preciso suspender un vuelo por problemas
climatológicos).
b) La confección de los mosaicos finales compuestos por varias ortofotografías
que se emplean para la realización de ortofotomapas es de gran sencillez
obteniéndose productos de gran homogeneidad.
c) Las ortofotografías digitales no presentan, en una primera aproximación,
ningún límite de escala en cuanto a su impresión analógica, salvo las propias
impuestas por las precisiones que es necesario cubrir para una determinada
escala.
3. Aplicaciones:
a) La aplicación fundamental de las ortofotografías es su aplicación como capa
base de referencia en los sistemas de información geográfica. Las
ortofotografías digitales pueden ser combinadas de una forma sencilla con
otro tipo de información mediante la superposición de una capa vectorial,
siendo una herramienta de gran utilidad en la actualización cartográfica
siendo interpretadas por el propio usuario.
b) Pueden ser producidas en un plazo de tiempo muy reducido en especial si se
dispone de MDE previo (que sólo requerirá modificaciones de tipo local).
Esta reducción del tiempo de producción con respecto al tiempo necesario
para la confección de un mapa de líneas clásico se basa en el avanzado nivel
de automatización de los procesos de generación de las mismas.
c) Las ortofotografías digitales permiten la aplicación de técnicas de análisis
digital de imágenes que permiten la extracción de la información (tanto
geométrica como semántica) que contienen de una forma automática.
d) Las ortofotografías pueden ser fácilmente combinadas con modelos digitales
del terreno para producir vistas perspectivas.

10.2 RECTIFICACIÓN DE LAS IMÁGENES DIGITALES


La rectificación de las imágenes digitales no es sino una transformación que puede
ser realizada en dos direcciones. El método indirecto toma cada píxel del resultado (es
decir, de la ortofotografía) y determina su posición en la imagen original mediante
FOTOGRAMETRÍA DIGITAL   525 

una transformación fx y fy e interpola el valor de gris mediante un método de


remuestreo (Fig.10.4):
x = fx (x',y') y= fy (x',y')
siendo x,y Coordenadas de la imagen original
x',y' Coordenadas de la imagen resultado
fx( ),fy( ) Funciones de transformación

Por otro lado, la transformación directa toma como información de partida la


localización del píxel en la imagen original y transforma sus coordenadas a la imagen
resultado situado el valor del gris del píxel entero más próximo (Fig.10.4).
Plano de la imagen Plano de la imagen
img
P (ximg, y ) ximg, yimg P (r obj) ximg, yimg
Centro de proyección Centro de proyección

r img= F (ximg, yimg , zobj ,c) r obj = F (xobj , yobj , zobj ,c)

Terreno DTM Terreno DTM


zobj zobj P (xobj , yobj , zobj )
P (r img )

xobj , yobj xobj , yobj

Método Directo Método Indirecto

Original Resultado Original Resultado

TRANSFORMACION INDIRECTA TRANSFORMACION DIRECTA

Fig.10.4. Transformación directa e indirecta de un píxel (Novak, 1992 y Knabenschuch, 1998)

El método directo sólo asigna los valores de gris que son dados por la imagen
original; además, el contraste y la densidad no cambian por la transformación. Sin
embargo, puede suceder que algunos píxeles no obtengan ningún valor, lo que implica
que deben ser completados en una segunda pasada. La transformación indirecta
asigna un valor de gris a un píxel a una posición concreta del resultado final mediante
la interpolación a partir de los niveles de gris originales. Los métodos de interpolación
más empleados son el de interpolación bilineal y el de convolución cúbica debido al
efecto de suavizado que aplican a las imágenes, que es equivalente a un proceso de
filtrado de paso bajo. Para más detalles sobre los métodos de remuestreo consultar el
apartado correspondiente del capítulo 5.
10.2.1. Métodos de Rectificación
Los métodos más frecuentes de rectificación de imágenes fotográficas
digitalizadas son tres: rectificación polinómica, transformación proyectiva y
rectificación diferencial.
10.2.1.1 Rectificación polinómica
526      ORTOFOTOGRAFÍA DIGITAL 

La transformación entre la imagen original y la rectificada se realiza mediante el


empleo de polinomios.
x = fx (x’,y’) y=fy (x’,y’)
El polinomio empleado puede ser de diferente orden de acuerdo con el tipo de
rectificación que se desee aplicar con el objeto de corregir los desplazamientos de la
imagen. El número de puntos sobre los que se plantea la transformación (puntos de
coordenadas imagen y coordenadas terreno conocidas) deben ser función del orden de
polinomio elegido, así el número de puntos debe ser mayor que el orden del
polinomio más la unidad elevado al cuadrado. Así, por ejemplo, uno de los
polinomios más frecuentemente utilizados sería el de grado 2, que incluye un total de
6 incógnitas que serán obtenidas a partir de un sistema de 6 ecuaciones (con un
mínimo de 3 puntos, 2 ecuaciones por punto utilizado) o si se dispone de un mayor
número de puntos mediante la resolución por mínimos cuadrados.
z(x,y) = a + b x + c y + d x2 + e x y + f y2

donde: x,y son las coordenadas imagen de los puntos medidos


z(x,y) es la cota del punto terreno de coordenadas imagen x,y
a…f parámetros de la transformación
Este método corrige las distorsiones de la imagen en base a una red de puntos de
control. El orden del polinomio utilizado depende del número de puntos de control
disponible, siendo mayor la precisión al aumentar el número de éstos. Este método es
completamente independiente de la geometría del sensor, por lo que puede ser
empleado tanto para fotografías aéreas como para imágenes capturadas por sensores
instalados en satélites. Debido a la transformación polinómica es posible el cambio de
escala y la rotación de la imagen de la forma que mejor se ajuste a los puntos de
referencia.
Aunque el método polinómico es muy sencillo de utilizar es necesario tener en
cuenta que puede original problemas y errores en la imagen transformada, debido a
que no corrige adecuadamente los desplazamientos debidos al relieve y además no
considera las características específicas del sistema de captura de las imágenes. Si
bien es necesario indicar que algunas veces se introduce el valor de la cota del punto
considerado en el ajuste polinómico mediante la utilización de polinomios 3D.
Es importante tener en cuenta, que el incremento del número de orden del
polinomio reduce considerablemente los residuos del ajuste pero debido a
ondulaciones del terreno puede ocasionar que ser produzcan grandes errores entre los
puntos de control, como consecuencia de lo que se conoce como
sobreparametrización del ajuste polinómico.
No obstante, este método presenta la gran ventaja de que corrige en un sólo
proceso todas las distorsiones de la imagen (debido a la geometría del sensor,
curvatura de la Tierra, …). Este es un método muy empleado en la rectificación de
imágenes satélite debido a que la geometría y distorsiones de las mismas a menudo
son complejas de modelizar. Además en este tipo de imágenes, el desplazamiento
debido al relieve es muy pequeño debido a las escasas diferencias de cota en relación
FOTOGRAMETRÍA DIGITAL   527 

a la altura de vuelo con la que se toma la imagen y afecta poco a los resultados
finales.

10.2.1.2 Transformación proyectiva


La transformación proyectiva plantea la relación existente entre dos planos
(fig.10.5). Esta relación es definida por 8 parámetros que pueden calcularse a partir de
cuatro puntos de control y sus correspondientes coordenadas imagen. No es necesario
el cálculo de los elementos de la orientación interna y externa puesto que está incluido
de una forma implícita en los coeficientes obtenidos. Este método es frecuentemente
empleado para la rectificación de fotografías aéreas de zonas llanas o fotogrametría
terrestre (fachadas de edificios, …) (fig.10.6).
Las expresiones de la transformación son las siguientes:
a1x '+ a 2 y '+ a 3 b1x '+ b 2 y'+ b3
x= = f x ( x ', y ') y= = f x ( x ', y')
c1x '+ c 2 y'+ 1 c1x '+ c 2 y '+ 1

donde ai, bi y ci son los parámetros de la proyección.


O

3'
4'
2'

1'

3
4
2

Fig.10.5. Transformación proyectiva (Novak, 1992)

La transformación proyectiva puede ser modificada para la geometría del satélite.


Los sensores instalados en los satélites, como por ejemplo, SPOT, realizan la captura
mediante un barrido de líneas, por tanto, su geometría es de tipo perspectiva lineal, no
existiendo un punto de vista sino un punto de vista (fig.10.7). Cada línea de barrido
tiene un centro de perspectiva diferente que se puede asumir que están situados en una
línea recta (órbita). Si se considera el eje y en la dirección de vuelo y x representa el
píxel en la línea de barrido, la expresión de la transformación proyectiva se modifica
como:
a1x '+ a 2 y '+ a 3
x= y = b1x '+ b 2 y '+ b3
c1x '+ c 2 y'+ 1
528      ORTOFOTOGRAFÍA DIGITAL 

Fig.10.6. Rectificación de una fotografía inclinada de un mosaico


(la fotografía original tiene una inclinación de 43º) (Kraus, 1992)

x
4' 3'
1' y
2'

3
4

Fig.10.7. Transformación proyectiva en la geometría del satélite SPOT (Novak, 1992)

El empleo de este método en el tratamiento de imágenes satélites es compleja


puesto que debido a la curvatura terrestre el definir la superficie terrestre como un
plano lleva a producir errores en la imagen rectificada, incluso para terrenos llanos.
No obstante, este método es válido para la rectificación de imágenes de sensores
aerotransportados.
10.2.1.3 Rectificación diferencial
El término rectificación diferencial tiene su origen en el hecho de que la
rectificación se aplica sobre pequeñas zonas de la imagen, de una forma similar a lo
que se realizaba en los rectificadores ópticos analógicos. Para la realización de un
proceso de rectificación diferencial es necesario disponer de un modelo digital de
elevaciones almacenado de la misma forma que la imagen, es decir, con estructura
FOTOGRAMETRÍA DIGITAL   529 

raster de una matriz de elevaciones. Este modelo debe estar referido a un sistema de
proyección de coordenadas que será en el que se obtenga la imagen rectificada.
El objetivo de la rectificación de las imágenes digitales es asignar a cada uno de
los elementos de la matriz del modelo digital el valor de gris correspondiente. Para la
determinación del valor de gris se utiliza el siguiente procedimiento. Las coordenadas
terreno X,Y,Z de los puntos que integran el modelo digital son transformados en
coordenadas imagen x,y mediante la expresión de colinearidad.
r11 ( X − X o ) + r21 ( Y − Yo ) + r31 ( Z − Zo )
x = xp − c = f x ( x ', y ')
r13 ( X − X o ) + r23 ( Y − Yo ) + r33 ( Z − Zo )
r12 ( X − X o ) + r22 ( Y − Yo ) + r32 ( Z − Zo )
y = yp − c = f y ( x ', y ')
r13 ( X − X o ) + r23 ( Y − Yo ) + r33 ( Z − Zo )

donde x’,y’ son las coordenadas equivalentes a las coordenadas terreno X,Y, xp, yp
son las coordenadas del punto principal de la cámara, c la constante de la cámara
(distancia focal), rij los elementos de la matriz de rotación e XoYoZo la posición de la
cámara en el momento de la toma (centro proyectivo).
El valor de gris correspondiente a la posición imagen x,y es obtenida mediante la
aplicación de una técnica de remuestreo. El valor es almacenado en la posición X,Y
correspondiente de la ortofotografía que se está generando.
Para realizar esta transformación es necesario disponer de los siguientes
parámetros:
1) Orientación Interna de la cámara:
xp,yp Coordenadas del punto principal de la cámara
c Distancia focal de la cámara
2) Orientación Externa de la cámara
Xo,Yo,Zo Coordenadas centro perspectivo
rij Elementos de la matriz de rotación en función de los
ángulos ω, ϕ, κ.
3) El tamaño del pixel de la inagen digital en unidades cámara (mm)
4) El tamaño de la malla del modelo digital en unidades terreno (m)
5) Las coordenadas de referencia del modelo digital en una determinada
proyección cartográfica (normalmente las coordenadas de la esquina superior
izquierda).

10.2.2 Rectificación de Imágenes Satélite SPOT


En este apartado se van a analizar los métodos más frecuentemente empleados
para la rectificación de imágenes satélite.
530      ORTOFOTOGRAFÍA DIGITAL 

10.2.2.1 Método de la traza del rayo (Ray Tracing Method).


Este método es actualmente muy empleado tanto para la generación de
ortofotografías a partir de imágenes SPOT (O'Neill y Dowman, 1988) como a partir
de imágenes fotográficas aéreas digitalizadas (Mayr y Heipke, 1988). El método
parte de que los parámetros de orientación, el modelo digital de terreno y las
coordenadas del punto P en el plano imagen, IP son conocidos. La clave para la
generación de ortofotografías es determinar el punto I del terreno que se corresponde
con el punto de la imagen P, esto se realiza mediante un proceso iterativo que
determina el punto de intersección entre el rayo OP y la superficie del terreno
(fig.10.8):
1) Dada una elevación del terreno inicial ZA, se determinan las coordenadas
planimétricas del punto de intersección A entre el rayo OP y la superficie
inicial mediante las ecuaciones de colinearidad modificadas según la
geometría del sensor SPOT.
2) Traza un punto de la superficie B que tiene la misma posición planimétrica
que A, es decir XA=XB e YA=YB y utiliza el modelo digital del terreno para
determinar la cota de B (ZB).
3) Actualiza la superficie de referencia de Z=ZA a Z=ZB y repite los pasos 1 y 2
y determina la cota de los puntos C,D,E,F,G,H e I hasta lograr la
convergencia.
4) Así se consigue la determinación de las coordenadas terreno del punto I.
Cuando la correspondencia del punto se realiza a través de toda la imagen, la
imagen de salida puede ser generada mediante un procedimiento de remuestreo. En la
figura 10.8b se muestran las localizaciones rectificadas de 9 puntos (P1, …, P9),
evidentemente estos píxeles rectificados no están equidistantes ni en las posiciones
deseadas, así para un píxel Q de la ortoimagen el valor de gris puede ser interpolado a
partir de los cuatro valores más cercanos utilizando el método bilineal (Jensen, 1986).
La principal ventaja de este método es que puede ser aplicado a diferentes
sensores (SPOT, Landsat, sensores aerotransportados tipo ATM, fotografías aéreas
digitalizadas, …) sin embargo, presenta ciertos inconvenientes:
- el cálculo iterativo para la obtención del punto de intersección entre el rayo y
la superficie del terreno puede ser lento, especialmente cuando el vector
normal a la superficie tiene una dirección similar a la del rayo.
- en el remuestreo para la obtención del nivel de gris, el cálculo de los puntos
más cercanos debe ser realizado empleando números reales lo que consume
más tiempo de proceso.
- el valor de gris puede presentar ciertos errores en aquellos píxeles en los que
no ha sido proyectado ningún píxel de la imagen original (píxel R de la figura
10.8b) (Rosenfeld y Kak, 1982).
FOTOGRAMETRÍA DIGITAL   531 
O
f IP
P N

P1 P2 P3

O
P4 P6
C B P5
G F
HI R
D E
P7 P9
P8
E

Fig.10.8. Método de la traza del rayo (Ray Tracing Method).


a) Esquema de la traza b) Remuestreo del valor del pixel (Chen y Lee, 1993)

10.2.2.2 Método indirecto de Chen y Lee (1993)


Este método requiere el conocimiento de los parámetros de la orientación y el
modelo digital del terreno. El problema de la proyección ortográfica de una imagen
SPOT es un problema de seleccionar el valor de gris para cada píxel de la imagen
salida a partir de una imagen original. Así puede obtenerse la posición proyectada en
la imagen original para un punto cualquiera de la imagen salida. Las coordenadas
(X,Y,Z) de un punto A son conocidas, la localización de dicho punto en la ortoimagen
vendrá dada por el punto A' (X,Y) y se corresponde con el punto a de la imagen
original.
1) Determinar el número de línea de a, es decir, la coordenada a lo largo de la
dirección de vuelo, así como la coordenada perpendicular a la línea de vuelo,
que equivale al cálculo del tiempo de toma de la imagen de dicho punto.
Sustituyendo xi = 0 en la ecuación de colinearidad se obtiene:
r11 ( X − X o ) + r21 ( Y − Yo ) + r31 ( Z − Zo )
0=−c
r13 ( X − X o ) + r23 ( Y − Yo ) + r33 ( Z − Zo )

que se puede expresar como una función del instante de la toma:


f(tn) = m11t (X-Xtc) + m12t (Y-Ytc) + m13t (Z-Ztc) = 0

2) Aplicando el método de Newton-Rawson (Dyck et al., 1982) para la


resolución del sistema no linear anterior se puede determinar el instante de la
toma del punto A en base a sus coordenadas terreno XA, YA, ZA. La iteración
planteada es la siguiente:
f ( tn ) f (tn )
t n +1 = t n − = tn −
f '( t n ) f ( t n ) − f ( t n −1 ) / ( t n − t n −1 )
532      ORTOFOTOGRAFÍA DIGITAL 

donde n es el número de iteraciones hasta que se cumpla que |tn+1-tn| < 10-6.
3) Cuando se ha calculado el momento de la toma ta,, se calculan las
coordenadas
nºlíneas = ta / 0.0015 nº columna = ya / 0.013mm
ya se calcula sustituyendo ta en la ecuación de colinealidad.

Xt , Yt , Zt
ωt , ϕ t , κ t f

a
ya

YA ZA

XA

Fig. 10.9. Método indirecto (Chen y Lee, 1993)

Una vez determinadas las coordenadas correspondientes en la imagen original


para un determinado elemento de la imagen original, el valor de gris de la ortoimagen
se calcula utilizando la interpolación bilineal a partir de los cuatro píxeles más
próximos. La búsqueda de estos píxeles se realiza utilizando exclusivamente números
enteros, por lo que es más eficiente y con menor sesgo.
10.2.2.3 Rectificación mediante la utilización del modelo de transformación lineal
directa (DLT)
Este método ha sido propuesto por El-Manadili y Novak (1996). El sistema de
coordenadas imagen definidas en la escena SPOT es bidimensional. Tiene su origen
en la esquina superior izquierda de la imagen, el eje u en la dirección de número de
fila creciente y el eje v en perpendicular (fig.10.10). Las coordenadas píxel u,v
pueden ser convertidas a las coordenadas imagen métricas x,y mediante las relaciones
x = u d y = v d, donde u es el número de fila de la imagen y v es el número de
columna de la imagen y d es el tamaño de píxel de la imagen (13 µm para SPOT).
El sensor SPOT es un sistema de captura de imágenes con una perspectiva de
centro móvil, pudiendo definirse diferentes sistemas de coordenadas en función de los
FOTOGRAMETRÍA DIGITAL   533 

incrementos de tiempo ()T) con respecto al centro de la escena, frente al esquema


clásico de una fotografía con un único sistema de coordenadas definido en el
momento de la toma. La transformación entre el sistema de coordenadas imagen y el
sistema de coordenadas terreno se establece mediante ecuaciones de colinearidad.
Para el sistema de SPOT cada línea de barrido tiene su propia perspectiva central, por
tanto, los parámetros son función del tiempo y presentan una elevada correlación
entre las diferentes líneas de la imagen SPOT.
eje zi

y eje xi
v eje yi
f
eje yi

az
eje xi

Tr a
eje yp
eje xp

za
Línea de barrido de imagen tra
la
de
ón
c ci
re
x

Di
u

Dirección perpendicular a la traza

Fig.10.10. Definición de los sistemas de coordenada imagen y


la geometría del sensor SPOT (El Manadilli y Novak, 1996)

Las coordenadas métricas de la imagen en cualquier punto puede ser expresadas


como una función de el número de fila de la imagen (u), el número de columna de la
imagen (v), los números de fila y columna del centro de la escena (uf,vf), y la
resolución del píxel de la imagen (d) (fig.10.10).
xi = (u - int(u) - 0.5) d xp = (u-uf) d
yi = (v - vf) d yp = (v-vf) d
zi = -fi = -1.082 m zp = -fp = -1.082m
siendo xp, yp las coordenadas imagen métricas con respecto al sistema de coordenadas
de la escena; xi, yi son las coordenadas métricas de la imagen con respecto al sistema
de coordenadas de las línea de barrido y fp y fi son las distancias focales de los dos
sistemas (int(u) significa parte entera de u).
Para aplicar las ecuaciones de colinealidad a las coordenadas imagen de un punto,
primero debe ser transformado al sistema de coordenadas de la escena añadiendo
ciertas correcciones a los valores. Además, se deben corregir las coordenadas de la
escena de los efectos de las desviaciones del satélite de sus posiciones nominales,
perturbaciones en los vectores de velocidad del satélite y la relación de cambios de los
ángulos del sensor. Las correcciones de las coordenadas imagen (*x,*y) pueden ser
escritas como:
*x = c1 + c2 xi + c3 )T *y = c4 + c5 yi + c6 )T
donde c1,…,c6 son las constantes para la escena completa
)T es el incremento de tiempo con respecto al centro de la
escena (u-uf) St
St es el tiempo de muestreo 0.0015 s por línea de barrido
534      ORTOFOTOGRAFÍA DIGITAL 

Las correcciones geométricas de las distorsiones sistemáticas causadas por la


rotación de la Tierra se aplican a los números de fila y columna antes del ajuste para
reducir los efectos de las variaciones de las líneas de barrido. Las ecuaciones
anteriores puede escribirse como:
*x = c1 + c2 xi + c3 )T = c1 + c2 (u-int(u)-0.5) d + c3 (u-uf) St = c7 + c8 u d
*y = c4 + c5 yi + c6 )T = c4 + c5 (v-vf) d + c6 (u-uf) St = c9 + c10 v d + c11 u d
Obteniéndose las coordenadas imagen corregidas (x',y') mediante:
xp' = xp + *x = (u-uf) d + c7 + c8 u d = [c7 - uf d] + [c8 + 1] u d = d1 + d2(ud) = d1 + d2 x
yp' = yp + *y = (v-vf) d + c9 + c10 v d + c11 u d = [c9 - vf d] + [c10 + 1] v d + c11 u d =
= d3 + d4(vd) + d5 (ud) = d3 + d4 y + d5 x
En forma matricial:
⎡ x p ⎤ ⎡d 2 0 d1 ⎤ ⎡ x ⎤
⎢ ⎥ ⎢ ⎥⎢ ⎥
⎢ yp ⎥ = ⎢d5 d4 d3 ⎥ ⎢ y ⎥
⎢⎣ −f ⎥⎦ ⎢⎣ 0 0 −f ⎥⎦ ⎢⎣ 1 ⎥⎦

que establece la relación entre las coordenadas imagen (x,y) medidas a partir de la
esquina superior izquierda de la imagen, y las coordenadas imagen corregidas para la
escena que pueden ser usadas en las ecuaciones de colinearidad. Así, esta relación
transforma las coordenadas píxel de una imagen tomada con geometría de perspectiva
lineal a unas coordenadas de una imagen tomadas con geometría de perspectiva
central.
Así, las ecuaciones de colinearidad se pueden expresar como:

⎡d 2 0 d1 ⎤ ⎡ x ⎤ ⎛ ⎡ X Gs ⎤ ⎡ X C ⎤ ⎞
⎢ ⎥⎢ ⎥ ⎜⎢ ⎥ ⎢ ⎥⎟
⎢d5 d4 d 3 ⎥ ⎢ y ⎥ = S M ⎜ ⎢ YGs ⎥ − ⎢ YC ⎥ ⎟
⎢⎣ 0 0 −f ⎥⎦ ⎢⎣ 1 ⎥⎦ ⎜⎢Z ⎥ ⎢Z ⎥⎟
⎝ ⎣ Gs ⎦ ⎣ C ⎦ ⎠
que se puede expresar de forma simplificada como:
Mi xi = S M (XGs - XG)

donde: xi vector de coordenadas imagen,


XGs vector de puntos de control,
S factor de escala,
M matriz de rotación entre el sistema de coordenadas terreno
geocéntrico y el sistema de coordenadas corregidas de la escena,
XC coordenadas del centro de exposición del sistema de coordenadas
corregidas de la escena,
Mj matriz de los parámetros de corrección y transformación entre el
sistema de coordenadas de la imagen original y el sistema de
coordenadas corregidas de la escena.
Por tanto, se puede obtener:
FOTOGRAMETRÍA DIGITAL   535 

⎡ X Gs ⎤
⎡ X Gs ⎤ ⎡ X C ⎤ ⎡1 0 0 − X C ⎤ ⎢ ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ Y
X Gs − X C = ⎢ YGs ⎥ − ⎢ YC ⎥ = ⎢0 1 0 − YC ⎥ ⎢ Gs ⎥
⎢Z ⎥
⎢⎣ ZGs ⎥⎦ ⎢⎣ ZC ⎥⎦ ⎢⎣0 0 1 − ZC ⎥⎦ ⎢ Gs ⎥
⎣⎢ 1 ⎦⎥

Además las coordinas imagen pueden ser expresadas como función de las
coordenadas terreno como:
⎡ −d 4 f d 5f 0 ⎤ ⎡ m11 m12 m13 ⎤
⎛ S ⎞⎢ ⎥⎢ ⎥
x i = SM i−1M ( X Gs − X C ) = ⎜ ⎟⎢ 0 −d 2f 0 ⎥ ⎢ m 21 m 22 m 23 ⎥
⎝ −d 2 d 4 f ⎠ ⎢ −d d −d 2d 3 + d1d 5 d 2d 4 ⎥⎦ ⎢⎣ m31 m32 m33 ⎥⎦
⎣ 1 4
⎡ X Gs ⎤ ⎡X ⎤
⎡1 0 0 − X C ⎤ ⎢ ⎥ ⎡ a11 a12 a13 a14 ⎤ ⎢ Gs ⎥
⎢ ⎥ ⎢ YGs ⎥ ⎛ S ⎞⎢ ⎥ Y
⎢0 1 0 −YC ⎥ ⎢ Z ⎥ = ⎜ d d f ⎟ ⎢a 21 a 22 a 23 a 24 ⎥ ⎢ Gs ⎥
⎢Z ⎥
⎢⎣0 0 1 − ZC ⎥⎦ ⎢ Gs ⎥ ⎝ 2 4 ⎠ ⎢a
⎣ 31 a 32 a 33 a 34 ⎥⎦ ⎢ Gs ⎥
⎣⎢ 1 ⎦⎥ ⎣⎢ 1 ⎦⎥
donde: a11 = d4 f m11 + d4 d1 m31
a12 = d4 f m12 + d4 d1 m32
a13 = d4 f m13 + d1 d4 m33
a14 = -d4 f A1 + d4 d1 A3
a21 = -d5 f m11 + d2 f m21 + d2 d3 m31 - d1d5 m31
a22 = -d5 fm12 + d2 fm22 + d2d3 m32 - d1d5 m32
a23 = -d5 fm13 + d2 f m23 + d2 d3 m33 - d1 d5 m33
a24 = d5 f A1 - d2 fA2 - d2d3 A3 + d1d5 A3
a31 = -d2d4m31
a32 = -d2d4 m32
a33 = -d2d4m33
a34 = d2d4A3
A1 = m11 XC + m12 YC + m13 ZC
A2 = m21 XC + m22 YC + m23 ZC
A3 = m31 XC + m32 YC + m33 ZC
La expresión matricial anterior puede escribirse de una forma idéntica a la
expresión de la Transformación Lineal Directa (Abed Al-Aziz y Karara, 1971).
L1X Gs + L 2 YGs + L3 ZGs + L 4 L5 X Gs + L6 YGs + L7 ZGs + L8
x= y=
L9 X Gs + L10 YGs + L11ZGs + 1 L9 X Gs + L10 YGs + L11ZGs + 1

que se pueden expresar como:


Fx = x - L1 XGs - L2 YGs - L3 ZGs - L4 + L9 x XGs + L10 x YGs + L11 x ZGs = 0
Fy = y - L5 XGs - L6 YGs - L7 ZGs - L8 + L9 y XGs + L10 y YGs + L11 y ZGs = 0

donde L1, …, L11 son los 11 parámetros de transformación lineal entre el espacio
imagen bidimensional y el espacio imagen tridimensional. Estos parámetros son
función de los cinco parámetros de transformación y de corrección/transformación (d1
… d5) y de los 6 parámetros de orientación externa:
536      ORTOFOTOGRAFÍA DIGITAL 

L1 = -a11 / a34; L2 = -a12 / a34; L3 = -a13 / a34; L4 = -a14 / a34; L5 = -a21 / a34;
L6 = -a22 / a34; L7 = -a23 / a34; L8 = -a24 / a34; L9 = a31 / a34; L10 = a32 / a34; L11 = a33 /a34

Correcciones Geométricas
Las coordenadas imagen (u,v) tienen que ser corregidas de los errores sistemáticos
causados por la rotación de la Tierra y el ángulo con respecto al nadir antes de la
aplicación del modelo anterior.
a) Rotación de la Tierra.
La Tierra gira alrededor de su eje a una velocidad media (Ve) de 0.00007272205
rad/seg. Esta rotación introduce errores en las direcciones de las filas y las columnas.
Las distorsiones de la escena dependen de diversos factores, como por ejemplo, la
inclinación de la orbita (i), el ángulo de incidencia de la escena (') y la latitud del
centro de la escena (N). Dichos errores pueden ser corregidos con las siguientes
fórmulas:
Du = Ve Rn cos (No) sen (() (St u) /dg Dv = Ve Rn cos (No) cos (() (St u) /dg
donde:
Du, Dv correcciones del número de fila y columna, respectivamente.
No latitud geocéntrica del punto terreno = arctg [(be2/ae2) tag (N)]
Rn= be / (1-cos (No))2 / 149) 0.5
ae, be semiejes menor y mayor del elipsoide GRS80
( ángulo de orientación de la escena, el cual es el ángulo formado
entre el meridiano y la perpendicular a la línea del centro de la
escena.
sen(()=[sen(No) sen ('-T)-cos(i)]/[cos(No) cos('-T)]
dg resolución del pixel en el terreno (10m)
b) Angulo de inclinación del nadir
El ángulo de inclinación del nadir produce variaciones del tamaño de celda en la
dirección del número de columna creciente. Si se conoce el ángulo de vista del nadir
se pueden corregir los números de columna de cualquier punto de la imagen
utilizando las expresiones (fig.10.11):
a = arctg (d/f)
D1 = H tan (wi - vf a)
D2 = H tan (wi - vf a + va)

donde: d resolución del pixel imagen,


a ángulo de un pixel del centro de la escena,
H elevación del satélite sobre el elipsoide,
wi ángulo de la escena,
D1 D2 distancias terreno desde el punto del nadir a la esquina izquierda
de la línea de barrido y al punto imagen, respectivamente.
FOTOGRAMETRÍA DIGITAL   537 

Las distancias terreno medidas y corregidas en la dirección v (dm, dc) son:


dm = v dg dc = D2 - D1
y el número de columna corregido (Vc) es Vc = v (dc/dm)

S f
ωt

Terreno
D1
D2

Fig.10.11. Corrección de las coordenadas imagen del efecto de inclinación en el eje de captura

El diagrama de flujo de aplicación de este método se muestra en la figura


10.11, y ha sido verificado con mediante aplicaciones reales obteniendo unos errores
que se muestran en la Tabla 10.1.
Tabla 10.1. Resultados de la rectificación de imágenes SPOT mediante DLT (valores en m)
Desviación Típica XG YG ZG
Puntos de control 2.38 3.24 2.70
Puntos de comprobación 13.43 18.91 19.74
Datos de la imagen: SPOT estéreo-pancromática con diferencias de relieve de 310m y utilizando 12 puntos
de control tomados de un mapa con una precisión de 10m.

10.3 ETAPAS DE REALIZACIÓN DE UNA ORTORRECTIFICACIÓN


MEDIANTE EL MÉTODO DIFERENCIAL
Las principales etapas en la realización de una ortorrectificación mediante el
método diferencial se resumen en la fig.10.13.
10.3.1 Adquisición de la información de partida
La creación de una ortoimagen comienza con la planificación del vuelo. Los
factores determinantes en esta planificación son la escala del mismo que está
relacionada con la escala del producto final y que determinará el coste del proyecto,
ya que determina el número de fotogramas necesarios para cubrir una determinada
zona. Además la escala condiciona la altura de vuelo, factor básico en el cálculo del
precio por fotograma y la distancia focal de la cámara empleada.
538      ORTOFOTOGRAFÍA DIGITAL 

Coordenadas imagen (u,v) Sistema de Coordenadas


Geodésico

Corrección rotación Sistema de coordenadas


terrestre GCGCS

Corrección inclinación Sistema de coordenadas


del eje SGCGCS

Ajuste mm.cc.
Determinación de los 11
parámetros de la DLT

Determinación Coordenadas
Terreno para la intersección
de los puntos conjugados del par

Fig.10.12. Diagrama de flujo de la aplicación del proceso de rectificación de


imágenes SPOT mediante DLT

1. Planificación del vuelo, 2. Orientación del bloque mediante


Red de puntos de apoyo ajuste simultáneo

- Adquisición de las coordenadas - Obtención de las expresiones que


X,Y,Z de los puntos de apoyo relacionan el sistema coordenadas
- Toma de las imágenes y, en su imagen y en sistema terreno,
caso, digitalización de las mismas mediante el proceso de orientación
- Corrección radiométrica (interna y externa)
- Control de calidad de los puntos de - Ajuste del bloque mediante mm.cc.
apoyo y de las imagenes digitales utilizando constreñimientos con pesos

4. Ortorrectificación 3. Creación del MDE

- Rectificación diferencial utilizando - Captura automática del MDE


el MDE generado mediante procedimientos de
- Mosaico de ortoimágenes matching
- Superposición de elementos - Edición del MDE utilizando la
vectoriales superposición con el modelo
- Edición y Producción cartográfica estereoscópico
final del ortofotomapa - Almacenamiento del MDE

Fig.10.13. Etapas básicas de realización de ortofotogramas mediante el método de rectificación diferencial

Un factor muy importante a tener en cuenta que las condiciones ambientales


óptimas para la realización del vuelo son los días de nubes cerradas y altas para
conseguir una iluminación homogénea. Otro factor importante es que el ángulo de
inclinación solar sea superior a 30º de forma que se evite la aparición de sombras que
afecten a la ortoimagen final. Por último, la época del vuelo debe ser elegida en
función del objetivo al que se va a destinar la ortoimagen, así los vuelos realizados
FOTOGRAMETRÍA DIGITAL   539 

antes de la salida de las hojas (Marzo-Abril) son adecuados para obtener


ortoimágenes para la interpretación del terreno, mientras que los realizados entre
Mayo y Octubre son idóneos para obtener un buen efecto visual tridimensional.
Una vez realizado el vuelo se debe proceder a la digitalización de los fotogramas.
Para la digitalización es imprescindible la utilización de un escáner de tipo
fotogramétrico, adecuadamente calibrado que asegure un buen comportamiento
geométrico y radiométrico del mismo. Un factor clave en el proceso de digitalización
es la selección de la resolución espacial de la digitalización (tamaño de píxel). El
tamaño debe ser función de las características de la imagen, de la relación de la escala
entre el fotograma y la imagen final (se aconseja que sea 240 veces la relación de
escala empleada expresada en ppp), no olvidando las características del sistemas y los
requisitos de almacenamiento. La resolución radiométrica habitualmente empleada es
de 256 niveles digitales (8 bits) siendo especialmente importante controlar que la
imagen final no esté saturada (porcentajes máximos en los niveles 0 y 255 inferiores
al 5%) y que la presencia de ruido no sobrepase ±0.02-0.03D.
La siguiente fase del proceso debe ser el diseño y adquisición de la red de los
puntos de apoyo, esta fase es básica en la calidad del producto final y la selección de
los puntos debe ser realizada de acuerdo al método de orientación empleado
(habitualmente con empleo de aerotriangulación y ajuste simultáneo de bloques) y de
la información disponible (con el empleo de sistemas de posicionamiento GPS/INS).
Los puntos deben ser seleccionados en elementos estables y bien diferenciables del
terreno, siendo aconsejable (siempre que la temporización del proyecto lo permita)
que se realice sobre las propias imágenes digitales.

10.3.2 Orientación fotogramétrica


El procedimiento más habitual de orientación consta de una orientación interna
(semiautomática o automática) que utiliza la información de la calibración de la
cámara y las medidas sobre las marcas fiduciales, tras la cual se lleva a cabo un
proceso de orientación externa mediante ajuste simultáneo de bloques utilizando
métodos de aerotriangulación digital automática y medida manual de los puntos de
apoyo. Los resultados del proceso son por un lado los parámetros de orientación
interna que relacionan los sistemas de coordenadas imagen (píxeles) y los de
coordenadas fotográficas (mm) y, por otro lado, los parámetros de orientación externa
(posiciones y ángulos de orientación de la cámara en el momento de la toma de cada
uno de los fotogramas que componen el bloque).

10.3.3 Generación del MDE


El MDE es un componente fundamental en el proceso de generación de las
ortoimágenes. Para determinar la adecuación o no de un MDE es necesario considerar
la escala a la que se desea obtener la ortoimagen final, el tipo de terreno, las
características del vuelo (fundamentalmente, distancia focal, formato y solapes) y la
relación de escalas existente entre la imagen original y la ortoimagen final.
La creación del MDE es una de las fases más costosas del proceso de
ortorrectificación, aunque el mejor funcionamiento de los procesos de automatización
540      ORTOFOTOGRAFÍA DIGITAL 

del MDE está reduciendo de una forma muy importante su coste. Un aspecto crucial
en la generación del MDE es el relativo al espaciado del mismo, al respecto no
existen normas exactas debido a que la problemática puede ser muy diversa, salvo la
lógica de que el número debe ser el necesario para lograr una adecuada representación
del sistema. Como primera aproximación se puede considerar que para relaciones de
ampliación inferiores a 3, el espaciado debe ser en torno a 12-24mm sobre la escala
final del mapa, para relaciones entre 3 y 8, el espaciado puede ser de 8-16mm y para
ampliaciones mayores de 4-8mm. Otro aspecto importante es que el MDE no tiene
porqué ser homogéneo en todo el área, pudiéndose incrementar la densidad en las
zonas de mayor relieve.

10.3.4 Ajustes radiométricos


Las fotografías aéreas presentan frecuentemente falta de homogeneidad tanto a
nivel local como global como consecuencia de los cambios de iluminación entre los
momentos de toma de las imágenes. Estos problemas de cambios de tonos eran en la
época de los sistemas de ortorrectificación analógica uno de los principales problemas
para la consecución de un documento con una adecuada calidad.
Los cambios radiométricos se suelen producir por las siguientes causas:
- la dirección de la iluminación, en función del ángulo definido por la
posición del sol.
- la distancia focal empleada para la toma de la fotografía que condiciona el
ángulo de campo de la cámara y, por tanto, la inclinación máxima de los
rayos que forman la imagen.
- las condiciones metereológicas, en particular, la altura e intensidad de la
bruma y las condiciones de iluminación.
- la polución atmosférica, expresada como cantidad de aerosol en la
atmósfera.
- la reflectancia de los diferentes objetos topográficos.
El procesamiento radiométrico de la imagen consta básicamente de:
- ajuste radiométrico de las diferentes porciones de imagen captadas en los
escáneres de tipo matricial (pillow adaptation).
- ajuste del histograma.
- compensación de los puntos calientes de la imagen (hot spot
compensation).
- realce final global.
10.3.4.1 Ajuste radiométrico de las diferentes porciones de la imagen (pillow
adaptation)
Los escáneres de CCD matricial captan la imagen en pequeñas porciones que
vienen definidas por el tamaño del sensor y que finalmente son ensambladas en una
imagen global. Cada porción presentará cambios de iluminación, puesto que, ésta
varía desde el centro hacia los bordes produciendo un cierto teselado en la imagen que
pone de manifiesto la falta de continuidad de la imagen global.
FOTOGRAMETRÍA DIGITAL   541 

Para evitar estos problemas los escáneres incorporan módulos de ajuste entre las
porciones utilizando para ello la pequeña zona de solape que se produce en la
digitalización. No obstante, en casos de digitalización en condiciones extremas, como
por ejemplo, en el caso de fotogramas de deficiente iluminación es posible que
aparezca este fenómeno siendo necesario recurrir a un análisis mediante perfiles y la
compensación de las diferencias basadas en las expresiones del cambio de
iluminación desde el centro al borde del formato E= Eo sen4", siendo E la iluminación
en un determinado punto de la porción, Eo la iluminación en el centro y " el ángulo
que forma el punto con respecto al eje óptico.
10.3.4.2 Ajuste del histograma
El objetivo fundamental de la digitalización debe ser el conseguir a partir de la
imagen analógica original una imagen digital de óptima calidad para la visualización.
Para conseguir dicha calidad es fundamental que la imagen aproveche toda la anchura
del histograma posible (es decir, que estén representados el mayor número de niveles
digitales posible) sin que se produzca saturación en los extremos (habitualmente se
consideran como valores extremos 14 y 242 que deben presentar frecuencias de 5 y
98%). Para ello en el momento de la digitalización se deben seleccionar las zonas más
claras y oscuras de la imagen ajustando las curvas tonales (paletas de color o lookup-
table) de forma a que en dichas localizaciones se alcancen los niveles digitales
mínimo y máximo. Un aspecto básico para que esta operación sea efectiva es que se
empleen los mismos parámetros para los fotogramas del bloque que presenten similar
comportamiento, así normalmente, se consideran los de la misma pasada.
10.3.4.3 Compensación de puntos calientes
En los fotogramas se observa como existe un cambio de iluminación en función de
la inclinación solar (fig.10.14), la función que representa el cambio de iluminación es
de tipo gausiano con un cambio máximo B y una anchura A, representándose
mediante la expresión (fig.10.15 y 10.16):
f(x) = B * e exp (-(A * x)2)
siendo: x: distancia horizontal al punto de iluminación máxima
A: cambio máximo de iluminación (máximo de la curva)
B: anchura de la campana de la función
Para el cálculo del parámetro B de la función es necesario la medida del nivel
digital de un píxel de baja intensidad que no esté afectado por el efecto del punto
caliente y de un punto similar que sí esté afectado La diferencia entre ambos debe ser
transformado a un valor de corrección mediante la expresión:

B=
( nd pc )
− nd npc * 255
255 − nd npc

donde: ndpc: nivel digital del píxel de baja intensidad con efecto de punto
caliente.
ndnpc: nivel digital del píxel de baja intensidad no afectado por el efecto de
punto caliente.
542      ORTOFOTOGRAFÍA DIGITAL 

Sol
Plano negativo
del fotograma

Plano positivo
del fotograma

Aerosol

Objeto poco iluminado Objeto muy iluminado


Sombra amplia (poco contraste) Sombra oculta (elevado contraste

Fig.10.14. Efecto del punto caliente (hot spot) (Knabenschuh, 1998)

Fig.10.15. Compensación del efecto de punto caliente (hot spot) (Knabenschuh, 1998)
FOTOGRAMETRÍA DIGITAL   543 
f(x
)

l
de
n
ió ris
cc g
r re de
Región de o l B
punto caliente C iv e
n
(hot spot)
4
0
Centro

Periferia
D
al ista
c e nc
nt ia
ro
x

Fig.10.16. Distribución de la corrección del efecto de punto caliente dentro del


área de influencia del mismo (Knabenschuch, 1998)

A continuación es necesario efectuar el cálculo del parámetro A, que viene


definido por el radio de acción del efecto del punto caliente, la expresión utilizada es:
ln B − ln 4
A=
rpc
donde: rpc nivel digital del píxel que se considera no afectado
La corrección de los valores de gris para cada píxel afectado por el efecto del
punto caliente se realiza utilizando la siguiente expresión (fig.10.17):
⎛ ⎞
⎜ 255 − nd o ⎟
nd c = 255 − ⎜ ⎟ * 255
(
⎜ 255 − B * e

− A*dc 2pc
) ⎟

donde ndc nivel digital corregido
ndo nivel digital original (afectado por el efecto de punto caliente)
A,B parámetros de la función de corrección del efecto de punto caliente
dcpc distancia medida entre el punto caliente y el punto considerado
544      ORTOFOTOGRAFÍA DIGITAL 

255

Nivel de gris
fpc
255 - mng
mng pc

255
Valor de gris
correcto (nominal)
mngfpc

Función base
B
Distancia al centro
0 de la zona pto.caliente
B
x
Centro de la zona Periferia de la zona
de punto caliente de punto caliente

Fig.10.17. Efecto de las expresiones de corrección del efecto de punto caliente (hot spot)
en función de los niveles digitales (Knabenschuh, 1998)

Una vez realizada la ortorrectificación y confeccionado el mosaico es frecuente la


manipulación global de la imagen para ajustarla a los requisitos que nos definen una
calidad de impresión óptima. Los motivos más frecuentes de realización de dicha
manipulación son:
- ajuste del contraste y brillo para la reproducción óptima en los sistemas
analógicos.
- mejora de las condiciones de la imagen en especial en las zonas de bajo
contraste, efectuando expansiones del histograma a nivel local, para mejorar
la calidad de visualización y permitir la identificación de elementos en la
misma.
Además es frecuente proceder a un ajuste o retoques a nivel local para eliminar
efectos locales producidos por efectos ambientales, como, por ejemplo, la presencia
de reflejos de luz (muy frecuente en las zonas de agua, como, por ejemplo, mares y
lagos), nubes o bancos de niebla. Asimismo en esta etapa se intentan disimular
posibles desperfectos de las imágenes originales, como, por ejemplo, arañazos o
restos de suciedad (motas de polvo) en las imágenes originales.

10.3.5 Transformaciones geométricas


La característica fundamental de las ortoimágenes es que en las mismas están
referidas a un sistema de proyección ortogonal por lo que se corrigen todos los
desplazamientos producidos por la inclinación de la cámara en el momento de la toma
y los originados por los efectos de la perspectiva central típica de las tomas
fotográficas por las diferencias de distancia entre la cámara y los objetos (cota del
terreno). Por esta razón, las transformaciones geométricas son fundamentales en el
proceso de generación.
Las transformaciones geométricas necesarias para la obtención de una ortoimagen
son fundamentalmente las ligadas a la orientación interna, fundamentalmente la
FOTOGRAMETRÍA DIGITAL   545 

transformación afín que establece la relación bidireccional entre las coordenadas


imagen (píxel) y las fotocoordenadas (mm) y las relativas a los métodos de
rectificación comentados en el apartado 10.2.
Para la generación de las ortofotografías es necesaria la aplicación del método de
rectificación diferencial (salvo ciertos casos en los que se pueden utilizar métodos
más simples, como en el caso de imágenes tomadas a gran altura -como por ejemplo,
los satélites- o de terrenos con escasas diferencias de profundidad -como por ejemplo,
las fachadas de los edificios-). Dicha aplicación se establece según el diagrama de
flujo mostrado en la figura 10.18.
Una simplificación que ha venido utilizándose frecuentemente es realizar el
cálculo de las posiciones rectificadas mediante el método diferencial sólo en los
píxeles de una malla a los que se denomina puntos de anclaje (-anchor point-)
realizándose en el espacio comprendido entre dichos puntos una simple
transformación afín utilizando como información las coordenadas originales y
rectificadas de los puntos de anclaje calculados mediante rectificación diferencial.
Este método ha sido muy empleado, debido a que agiliza considerablemente los
cálculos necesarios, lo cual era fundamental cuando los sistemas informáticos
empleados para las rectificaciones no tenían grandes prestaciones, hoy en día, la
tendencia es el empleo de la ortorrectificación píxel a píxel en toda la imagen, en
especial, cuando las diferencias de cota son importantes en el terreno, ya que en estas
circunstancias el funcionamiento del método del punto de anclaje no es correcto.
Definir límites y resolución de la ortofotografía

Para cada pixel de la ortoimagen:

Coordenadas terreno X,Y de cada pixel

Calcular coordenada terreno Z a partir del MDE

Calcular fotocoordenadas mediante colinealidad

Interpolar ND a partir de los pixeles de la vecindad

Fig.10.18. Diagrama de flujo de realización de una rectificación mediante el método diferencial

10.3.6 Confección del mosaico final


La confección de los mosaicos de ortoimágenes ha sido tradicionalmente una de
los trabajos más laboriosos de la fotogrametría (fig.10.19), realizándose en las
primeras etapas de forma manual por personal especializado. En la actualidad, dentro
del tratamiento digital de las imágenes el tratamiento es totalmente automático, con la
única preocupación de conseguir un producto con una buena apariencia final. Para
ello es fundamental conseguir un buen empalme, tanto geométrico como
546      ORTOFOTOGRAFÍA DIGITAL 

radiométrico, entre las diferentes ortoimágenes que dan lugar al mosaico. El empalme
geométrico, aunque en principio puede parecer más complejo la verdad es que no
plantea problemas en la práctica gracias al empleo de sistemas de ajuste por bloques
(que homogeneizan los parámetros de la orientación de todas las imágenes) y de MDE
a nivel de bloque (que elimina las posibles discontinuidades entre los modelos). El
empalme radiométrico es más complejo recurriéndose en la actualidad a tres tipos de
soluciones: elaboración del mosaico sin ningún tipo de corrección realizándose esta
con posterioridad; definición de las líneas de empalme en elementos de carácter lineal
disimulando las diferencias radiométricas y, por último, cálculo de líneas de empalme
mediante sistemas de ajuste por mínimos cuadrados.

Fig.10.19. Elaboración manual de un mosaico de fotografías aéreas.


Izq: Recorte de las imágenes; Der: Retoque en las líneas de empalme (Wolf, 1987).

La primera solución es en principio una de las más empleadas puesto que permiten
automatizar el proceso de ortorrectificación, retrasando el ajuste radiométrico a una
fase posterior que no requiere ser realizada en un sistema fotogramétrico digital
pudiendo ser hecha con cualquier sistema de tratamiento de imágenes (por ejemplo,
Adobe Photoshop, Corel PhotoPaint, Paint Shop Pro).
La definición de límites de empalme, requiere una labor previa de digitalización
de los diferentes polígonos sobre el modelo estereoscópico. Cada polígono contendrá
a modo de atributo la fotografía original que es necesario emplear para la obtención
de la imagen rectificada. Esta solución aunque requiere una labor delicada de
selección de los polígonos y asignación a los fotogramas, permite un buen control de
los resultados obtenidos. En la figura 10.20 se muestra un ejemplo de delimitación del
mosaico mediante delimitación manual de líneas de empalme.
Por último, es necesario indicar que también se han propuesto soluciones de tipo
automático basadas en el análisis de las zonas de solape que existen entre las
ortoimágenes que dan lugar al mosaico final. Dentro de esa línea se encuentran
diversos métodos que van desde un ajuste gradual en función de las diferencias
encontradas mediante procesos de media ponderada en función de la distancia al
borde hasta métodos más complejos basados en el ajuste por mínimos cuadrados
buscando la minimificación estadística de las diferencias entre las imágenes a
empalmar.
FOTOGRAMETRÍA DIGITAL   547 

Fig.10.20. Delimitación manual de las líneas de empalme en la confección de una ortoimagen.


Izq: Vista general; Der: Imagen ampliada (LH Systems, 1999)

En el caso de que no existan diferencias radiométricas entre las imágenes se debe


producir el hecho de que los histogramas de las porciones comunes de ortoimágenes
sean iguales. Si existen diferencias se pone de manifiesto la necesidad de aplicar el
ajuste radiométrico.
El ajuste radiométrico puede ser realizado de una forma homogénea en toda la
zona común utilizando los estadísticos de cada ortoimagen a empalmar utilizando las
expresiones siguientes:
NDi − µ i ND d − µd
ND 'i = σ+µ ND'd = σ+µ
σi σd
siendo ND’i ND’d niveles digitales corregidos de las ortoimágenes izquierda y
derecha
NDi NDd niveles digitales originales de las ortoimágenes izquierda y
derecha
µi µd valores digitales medios de la zona común de la ortoimagen
izquierda y derecha
Fi Fd desviación típica de la zona común de la ortoimagen izquierda
y derecha
µ valor medio de µi y µd
F valor medio de Fi y Fd
Otra solución más efectiva consiste en el análisis de las diferencias existentes en el
borde de empalme. Estas diferencias se compensan progresivamente dentro de una
franja definida por el usuario mediante la utilización de una medida ponderada entre
los valores de las ortoimágenes a empalmar utilizando la distancia con respecto al
borde de empalme como factor inverso de ponderación. Este procedimento es el que
se ilustra en la figura 10.21, mientras que en la figura 10.22 se muestra la aplicación
del mismo a una banda de ortoimágenes.
548      ORTOFOTOGRAFÍA DIGITAL 
Borde vertical del empalme
z |cvp i1| ... 1 1 ... z |cvpi1|
1

...
i
ndi i1 nddi1

...
n

valor de corrección

vci i1
vci i3

3 ...
... 3 j

vcd i3
vcdi1

Fig.10.21. Ajuste radiométrico mediante cálculo de las diferencias e


interpolación lineal en la franja de empalme
1 ...j... m 1 ...j... m
1
i
nd ti1 nd tim nd (t+1)i1 nd (t+1)im

porción (t) porción (t+1)

...
n

vc tm
Valor de corrección

1 2 3
m-1 m
Distancia al borde
izquierdo de la porción
(pixels)
vc t3

vc t1

Fig.10.22. Ajuste radiométrico mediante cálculo de las diferencias e interpolación lineal


en la franja de empalme aplicado a la formación de una banda

Otros métodos plantean el ajuste radiométrico mediante la utilización de métodos


de interpolación más sofisticados para suavizar los cambios radiométricos como se
muestra en la figura 10.23. También se puede plantear el ajuste mediante la
determinación de los puntos de diferencias mínimas dentro de las zonas de solape, el
problema que surge es que en la mayoría de las ocasiones estos puntos no serán
contiguos por lo que es necesario plantear un ajuste por mínimos cuadrados, que
seleccione dentro de los píxeles de menor diferencia aquellos que permiten la
definición de una línea al ser contiguos.
FOTOGRAMETRÍA DIGITAL   549 
Imagen de entrada

Imagen digitalizada
Cambio radiométrico
continuo

Linea de ruptura radiométrica

Resultado método
de interpolación 1

2z cvp i1

Resultado método
de interpolación 2

Borde de Distancia al borde


la porción izquierdo de la imagen

Fig.10.23. Aplicación de los métodos de interpolación al ajuste radiométrico de ortoimágenes

10.3.7 Edición cartográfica


Para obtener un ortofotomapa es necesario añadir al mosaico general la
información tanto marginal como interior necesaria. Dentro de esta labor de edición
se procederá al recorte de las imágenes teniendo en cuenta la división de hojas
establecidas así como a la creación de las leyendas y marcos en los que se incorporará
toda la información necesaria para el usuario final.
Asimismo, es frecuente la incorporación de información de carácter vectorial
sobre el propio mosaico. Esta información puede ser el resultado de un proceso de
interpretación del mismo (como, por ejemplo, en el caso de un ortofotomapa de
interpretación de cultivos) o bien simplemente para añadir información no disponible
directamente en la imagen, como, por ejemplo, los nombres de los diferentes
elementos geográficos (ciudades, accidentes,…) y administrativos (límites
territoriales,…).

10.3.8 Almacenamiento
No tiene sentido la preocupación que se ha mostrado por la generación del
documento cartográfico que es el ortofotomapa si no se mantiene en el archivo del
mismo. Al respecto es necesario tener en cuenta que uno de los principales problemas,
aunque cada vez de menor importancia debido al avance de los sistemas informáticos,
es el almacenamiento de las imágenes digitales generadas, dado su enorme volumen.
Las normas habituales aconsejan el empleo de formatos estándar (TIFF, JPEG,…)
para el almacenamiento de las imágenes generadas (tanto ortoimágenes como
550      ORTOFOTOGRAFÍA DIGITAL 

mosaicos y ortofotomapas) siendo imprescindible el empleo de algún sistema de


georreferenciación (integrado en la propia imagen -GeoTIFF-o bien como fichero de
cabecera anexo) para su posterior utilización. Además es aconsejable la incorporación
de un archivo de metainformación en el que queden reflejados los diferentes métodos
y resultados que han dado lugar al fichero almacenado, lo que constituirá, sin duda,
una información de gran valor para un gran número de usuarios.
Por último, un aspecto muy importante y a la vez complejo es la elección de
soportes de almacenamiento. Como características fundamentales de dichos sistemas
se puede indicar que deben ser rápidos (se manejan grandes volúmenes de
información) y a la vez económicos (la gran cantidad de datos almacenados requiere
que el soporte para su almacenamiento sea económico). Actualmente, los sistemas
más empleados son los CD-ROM con capacidad entre 640Mb y 700Mb, con un
precio económico tanto de los dispositivos de grabación como del soporte y además
muy difundidos entre los usuarios y las cintas tipo EXABYTE y DAT para grandes
almacenamientos en formato de copia de seguridad.
En la elección también es importante tener en cuenta que el objetivo del
almacenamiento es proporcionar al documento de una validez temporal, de forma que
sea posible su reutilización en el futuro. Para ello se debe por un lado asegurar la
calidad del medio empleado para el almacenamiento, quedando descartados los
métodos que pueden alterarse fácilmente con el paso del tiempo y, por otro lado, la
compatibilidad, de forma que sea posible la lectura en un futuro. Ambos aspectos son
difícilmente controlables debido al rápido avance en los sistemas informáticos que
muchas veces impide la continuidad de los sistemas de almacenamiento y dificulta la
compatibilidad (como muestra simplemente se puede indicar cuántos de nosotros que
aún disponemos de programas y datos almacenados en discos flexibles de formato de
5.25" disponemos en nuestros sistemas actuales de disqueteras para dicho tipo de
discos) a la vez que la falta de perspectiva histórica hace difícil la previsión de la
durabilidad de los soportes en el tiempo.

10.4 CALIDAD DE LA IMAGEN ORTORRECTIFICADA


Una vez obtenida la imagen ortorrectificada es fundamental la supervisión de la
calidad de la misma, los efectos fundamentales que es necesario localizar son los
siguientes:
- Comprobación de que la imagen esté completa. Si el área que cubre la
imagen no está cubierta adecuadamente por un MDE se pueden producir
errores en la ortoimagen final.
- Presencia de arrastres en la imagen. Las causas más frecuentes de aparición
de arrastres (la imagen aparece movida) es la presencia de errores en el
modelo digital de elevaciones (puntos anómalos) o bien la presencia de
valores de desplazamiento debido al relieve muy elevados al encontrarnos en
el borde de la imagen. Esta última causa es muy frecuente cuando se intenta
la rectificación de una cumbre montañosa, en la que la cara orientada hacia la
cámara aparece adecuadamente rectificada pero en la cara contraria existen
arrastres debido a que una pequeña porción de la imagen original debe
“estirarse” para cubrir el área correspondiente en la ortoimagen.
FOTOGRAMETRÍA DIGITAL   551 

- Aparición de dobles imágenes. Este problema era especialmente importante


en los primeros sistemas fotogramétricos digitales que trabajaban a nivel de
modelo (como por ejemplo, el DVP) en el que errores debidos a la
orientación de las imágenes (los parámetros de la orientación externa de la
imagen derecha del primer modelo presenta ligeras diferencias con respecto a
los calculados con la misma imagen cuando hace de imagen izquierda del
segundo modelo) o bien falta de continuidad en el modelo digital de
elevaciones.
- Aparición de porciones de ortoimagen no cubiertas. Este hecho tiene el
mismo origen que la aparición de dobles imágenes pero con el resultado
contrario, no existe continuidad en la ortoimagen final por un problema de
orientación o del MDE empleado en la ortorrectificación.
- Errores planimétricos. Se comprueban mediante la medida directa de puntos
sobre el terreno que sean perfectamente distinguibles en la imagen,
comparando posteriormente sus coordenadas planimétricas.
Los principales problemas que afectan a la calidad de las ortoimágenes generadas
mediante rectificación diferencial son los debidos a los errores o falta de precisión
del modelo digital de elevaciones, dejando a un lado los problemas de ajuste
radiométrico que se compensan mediante la metodología expuesta en el apartado de
tratamiento radiométrico.

10.4.1. La importancia de la precisión del MDE


Como se ha venido comentando a lo largo de este capítulo, la importancia del
MDE es crucial en el proceso de ortorrectificación de las imágenes digitales ya que
determina la corrección a aplicar a la posición original del píxel en la imagen no
corregida. Es importante tener en cuenta que la generación del MDE es uno de los
factores claves en la determinación del coste total del proyecto, existiendo además
muy diversas fuentes para la generación del MDE con costes y precisiones muy
distintos, debiendo ser especialmente precavidos en el tipo de MDE que se utiliza
cuando se encarga una ortoimagen.
Es fundamental adecuar el MDE al caso concreto de la ortoimagen que se va a
generar, así la densidad del espaciado será función de la escala del trabajo, el tipo de
terreno y la precisión requerida de forma que en cada caso se debe plantear el estudio
específico, intentando optimizar el número de puntos, puesto que, en función de los
mismos se establece el coste final de su generación.
Los errores que existan en el MDE serán proyectados en forma de errores
horizontales en la ortofotografía dando lugar a errores de tipo planimétrico, por lo que
la precisión del MDE vendrá determinada por la precisión propia de la ortoimagen
que se desea generar (fig.10.24).
552      ORTOFOTOGRAFÍA DIGITAL 

f
Error ∆ X asociado a ∆ Z

terreno

∆Z

∆X

Fig.10.24. Influencia del error altimétrico en el error posicional en una fotografía aérea

Así, por ejemplo, si se desea realizar una ortofotografía a escala 1:10000 a partir
de una fotografía aérea a escala 1:40000 tomada con una cámara de distancia focal
152mm a una altura de vuelo sobre el terreno de 6080m, el error máximo admisible a
la escala de representación es de 0.2mm (2m sobre el terreno). Si se sustituye este
valor en la expresión que nos proporciona el desplazamiento debido al relieve dr= (r
)h) / H’, se obtiene que el error máximo altimétrico admisible es de
aproximadamente 2m. Los factores a tener en cuenta en el cálculo son:
- distancia focal de la cámara que determina la altura de vuelo para una
determinada escala.
- formato de la fotografía que marca el valor de distancia radial máxima
definida como la semidiagonal del formato (en el caso de un fotograma de
formato 23x23cm dicha distancia será aproximadamente de 16cm).
- solapes longitudinal y transversal que determinarán la distancia máxima en la
que aparece la imagen de un punto en las diferentes imágenes en las que ésta
aparece.
- relación de escala entre la fotografía original y la ortofotografía a generar que
determinan la relación de ampliación de los errores en la imagen original.
Así, por ejemplo, si la escala deseada en el ejemplo anterior es 1:5000, sería
necesario una precisión de 1m en el modelo, al ser el error máximo admisible
en la ortofotografía de 0.2mmx5000=1m.

10.4.1.1 El método de Iterative Orthophoto Refinements -IOR-


La estrecha relación existente entre la calidad del modelo digital de elevaciones y
la ortofotografía ha sido empleada por el U.S.Army Topographic Engineering en el
FOTOGRAMETRÍA DIGITAL   553 

diseño de un sistema “Iterative Orthophoto Refinements” -IOR- de depuración de los


modelos basándose en la generación de ortoimágenes y la detección de errores en las
mismas cuyos detalles se recogen en un trabajo publicado por Norvelle (1996).
El procedimiento se basa en el hecho de que si el MDE y la orientación de los
fotogramas son correctos es posible la generación de dos ortoimágenes idénticas a
partir de los fotogramas que componen el estéreomodelo. Las posibles diferencias que
puedan existir entre las dos ortoimágenes generadas serán consecuencia de errores en
el modelo digital de elevaciones si se parte del hecho de que la orientación se
considera correcta. Las diferencias existentes pueden ser medidas de una forma
automática y convertidas a errores del MDE que se aplican sobre el MDE original
obteniendo un modelo depurado. Con el MDE depurado se vuelven a generar
ortoimágenes sobre las que se vuelve a aplicar el proceso, en la mayor parte de los
casos es suficiente con dos o tres iteraciones para la corrección del MDE y la
generación de la ortoimagen final.
La figura 10.25 muestra la relación entre el error en el MDE (dh) y el error en la
ortoimagen (dx). Si existe un error en el MDE generado se le asignará al punto P
(xP,yP,zP) del terreno una posición P’ (xP’,yP’,zP’), que aplicando las ecuaciones de
colinealidad dará lugar a las posiciones x’P’,y’P’ y x”P’,y”P’, en los fotogramas derecho
e izquierdo respectivamente, siendo la distancia entre ambos puntos en la imagen dx.
Teniendo en cuenta que las posiciones de las cámaras en el momento de la toma son
conocidas es posible la obtención de la posición correcta del punto P por intersección.
El error de cota entre P’ y P puede ser calculada y si se conoce la pendiente del
terreno convertida a error en cota dh y aplicado en el MDE. Si no se conoce la
pendiente del terreno, sólo es posible una corrección aproximada dh’ obtenida como
dh’= dx (H´/B), siendo H’ la altura de vuelo sobre el terreno y B la base aérea. El
valor de dh’ es aplicado sobre el MDE y el proceso se repite hasta obtener diferencias
dh’ nulas.

p’ p’

P’

dh dh’
P”
Superficie del MDE
P
X’P
dx
Superficie del terreno
X”P

Fig.10.25. Relación entre los errores en la ortoimagen y los errores del MDE (Norvelle, 1996)
554      ORTOFOTOGRAFÍA DIGITAL 

Este método ha sido aplicado a diversos ejemplos reales obteniéndose muy buenos
resultados con un número inferior a 3 iteraciones quedando sólo errores que deberán
ser corregidos mediante un operador mediante métodos manuales. En estas pruebas se
ha comprobado que el método es 10 veces más rápido que los métodos manuales de
edición.

10.5 GENERACIÓN DE ORTOIMÁGENES EN ZONAS URBANAS


Las zonas urbanas debido a su elevado dinamismo son las regiones en las que el
esfuerzo por mantener una cartografía actualizada debe ser mayor, por un lado, el
número de clientes potenciales es más elevado y, por otro lado, el análisis de la
situación en cada momento alcanza mayor interés (análisis urbanístico, mapas
turísticos,…). No obstante, las características de estas zonas dificultan la realización
de cartografía al requerir escalas muy altas (a partir de 1:5000) existiendo además un
gran número de elementos que es necesario representar. En este esquema general se
encuadra el interés de la generación de las ortoimágenes de dichas zonas como una
forma rápida de tener un registro continuo de la situación en dicho momento. La
realización de las ortoimágenes en estas zonas presenta importantes problemas
fundamentados en la necesidad de elaborar un modelo digital del terreno en el que
incluyan los elementos construidos por el hombre (edificios, pasos a nivel,…) para
que sean adecuadamente rectificados y en el hecho de que la presencia de estos
elementos dificultan en numerosos casos la captura de la información por problemas
de oclusiones.
Para solucionar este problema suele ser necesario recurrir a planificaciones del
vuelo específicas para esta situación, con elevados solapes tanto longitudinales como
transversales y a distancias focales mayores de las convencionales para reducir el
ángulo de campo y verse menos afectados por las oclusiones, eso si, con las
complicaciones que ello conlleva en cuanto a disponibilidad de cámaras no
habituales, a la necesidad de realizar vuelos a mayor altura y el aumento del número
de fotogramas.
Otro problema adicional es la necesidad de efectuar importantes correcciones del
desplazamiento debido al relieve de objetos de gran altura sobre el terreno, como es el
caso de los árboles o los edificios. Las ortofotografías digitales convencionales
consideraban estos objetos como no rectificables de forma que se empleaba un
modelo digital de elevaciones de puntos tomados sobre el terreno, que originaba una
corrección insuficiente del desplazamiento que en razón de su cota tenían estos
objetos, de forma que existían errores planimétricos en la ortoimagen que podían
llegar a varios metros.
La primera solución que se le dio a este problema era el desplazamiento manual
del edificio u objeto a rectificar a su posición sobre la ortoimagen final utilizando las
técnicas de tratamiento de imágenes digitales y rellenando los huecos restantes con un
color homogéneo. Evidentemente este proceso requería el análisis detallado de cada
caso siendo necesario realizar las medidas de la posición en el modelo estereoscópico,
por lo que se convertía en la mayoría de los casos en un proceso inviable tanto por el
FOTOGRAMETRÍA DIGITAL   555 

tiempo invertido como por la subjetividad introducida por el técnico encargado del
proceso.
Southard (1994) desarrolló se ha desarrollado un procedimiento analítico para la
corrección del desplazamiento debido al relieve en estos casos, las imágenes
resultantes son conocidas como “ortofotografías reales” (-true orthophotos-). El
problema se ilustra en la figura 10.26 en la que se puede observar que aunque el
proceso clásico no presenta ningún problema para el punto a, se toma la cota Za del
punto correspondiente y se proyecta sobre las imágenes para obtener el nivel digital
que se le debe asignar a la ortoimagen, si presenta importantes problemas en los
puntos b y c. En el punto b debido a un problema de oclusión producida por el
edificio se asigna al píxel de la ortofotografía correspondiente con la posición del
punto b un nivel digital que en la realidad se corresponde con el tono del tejado del
edificio, la situación es parecida en el punto c en el que se le asigna al punto c en la
ortoimagen el tono de la pared cuando en realidad le debería corresponder el tono del
tejado. Estos problemas producen que los edificios aparezcan desplazados con
respecto a su posición correcta, siendo este desplazamiento directamente proporcional
a la distancia radial que ocupa el edificio en la fotografía medida con respecto al nadir
(punto de desplazamiento debido al relieve nulo) y a la altura del objeto (en este caso
concreto, del edificio), con lo cual la ortoimagen cumplirá el requisito de la
proyección ortogonal impuesto por el que no deben ser visibles los elementos
verticales que aparezcan en las ortoimágenes (fig 10.27). Este problema es más
importante si se tiene en cuenta que los ortofotomapas finales están compuestos por
varias ortoimágenes en cada una de las cuales se producirá el desplazamiento de
acuerdo con la posición de su nadir, dando lugar a diferentes direcciones de
desplazamiento en el mosaico final.

Terreno (MDE)

Terreno afectado por


la oclusión producida
por el edificio
b c Pixeles Ortoimagen a

Fig.10.26. Problemas de generación de ortofotografías en zonas urbanas (Southard, 1994)


556      ORTOFOTOGRAFÍA DIGITAL 

1 1 A

2
2

Fig.10.27. Ejemplo de los problemas existentes en la elaboración de ortofotografías en zonas urbanas.


En la imagen se puede observar la diferente inclinación de los edificios situados en la parte superior
(marcados con 1) y los de la parte inferior (marcados con 2) que ponen de manifiesto que pertenecen
a dos imágenes distintas, dicho desplazamiento es tan acusado que llega a producir oclusión en
la avenida existente entre ambos (A)

La generación de ortofotografías reales requiere la generación previa de un


modelo tridimensional de los elementos que aparecen en la fotografía utilizando para
ello los sistemas asistidos de restitución estereoscópica de los sistemas
fotogramétricos digitales que facilitan el importante trabajo que dicha modelización
necesita. El algoritmo analiza en cada punto concreto de la imagen cuál es la
fotografía en la que se minimiza el desplazamiento debido al relieve al ser la distancia
radial respecto al nadir mínima, así, por ejemplo, en el punto a de la figura 10.28 se
toma como imagen original la imagen 3 al formarse en la misma la imagen del punto
a en un posición muy cercana al nadir. Además el sistema detecta la posible existencia
de obstáculos, mediante un proceso similar al clásico de intervisibilidad empleado en
los programas de tratamiento de MDE, de esta forma se detecta la presencia de
obstáculos entre el punto b del terreno y la imagen 1, por lo cual automáticamente se
selecciona la imagen 2 en la que existe una correcta visibilidad y además reduce la
distancia con respecto a la imagen 3. Por último, al disponer del modelo digital de
elevaciones de todos los elementos, la cota que se considerará como asociada a la
posición planimétrica del punto c, será la del tejado del edificio, con lo cual el nivel
digital asignado será el correcto.
La aplicación de estos algoritmos da lugar a la ortofotografía real que tiene las
siguientes características:
- los tejados de los edificios se muestran en su posición planimétrica x,y
correcta en la ortoimagen (fig.10.29).
- los elementos verticales del terreno (p.ej. paredes de los edificios) no
aparecen en la ortoimagen.
FOTOGRAMETRÍA DIGITAL   557 

Imagen 2 Imagen 1 Imagen 3

b c Pixeles Ortoimagen a

Fig.10.28. Proceso de ortofotografía real (explicación en el texto) (Southard, 1994)

Fig.10.29. Ejemplo de ortofotografía real. Izq: Ortofotografía real; Der: Ortofotografía Convencional.
Observar el desplazamiento sufrido por los edificios 1 y 2 así como el evidente cambio de escala
sufrido por la diferencia de cota, este desplazamiento incluso produce que en el caso de las dos
torres gemelas del edificio 1, la situada en la parte superior quede fuera de la ortoimagen;
asimismo el terreno señalado con el número 3 no es visible en la ortofotografía convencional
por el problema del desplazamiento del edificio 1 (LH Systems, 1995).

- los pasos a diferente nivel, muy frecuentes en los cruces de carreteras y


autopistas aparecen en sus posiciones correctas (fig.10.30).
- no existe necesidad de falsear la cota de los elementos para conseguir
producir ortoimágenes aceptables.
558      ORTOFOTOGRAFÍA DIGITAL 

Puente no corregido

Puentes no corregidos
Puentes corregidos

Fig.10.30. Corrección del desplazamiento en pasos a diferente nivel (LH Systems, 1999)

10.6 IMPRESIÓN DE IMÁGENES DIGITALES


En la actualidad, prácticamente cualquier impresora estándar, es decir, de las que
tenemos en nuestra oficina o despacho pueden reproducir imágenes con una cierta
calidad. Esta calidad depende de la tecnología de impresión utilizada y de los métodos
empleados para simular los tonos de gris (o colores). Es importante tener en cuenta
que cada técnica de impresión tiene sus ventajas e inconvenientes y, por tanto, la
elección deberá ser realizada en base al producto que deseemos obtener (tipo, calidad,
características, tamaño, precio, Y).

10.6.1 Técnicas de Impresión


10.6.1.1 Chorro de tinta líquida (Ink-jet)
El principio básico de la tecnología del chorro de tinta es arrojar pequeñas gotas
de tinta a través de unos pequeños tubos llamados nozzles (inyectores). Estos tubos
están alineados en el cabezal de impresión y se mueven en dirección perpendicular a
la del avance del papel. Para las impresoras en color, existen un cabezal para cada uno
de los cuatro componentes básicos (CMYK, Cian, Magenta, Amarillo -Yellow-,
Negro -Black-) de forma que la impresión del documento se realiza en una sola
pasada.
Existen diferentes técnicas para lanzar la tinta a la hoja de papel:
a) Chorro de tinta continua. Se lanza a través de los inyectores un chorro de
tinta a presión que es separado en gotas mediante las vibraciones de alta
frecuencia de un cristal piezoeléctrico.
FOTOGRAMETRÍA DIGITAL   559 

Válvula Gota de tinta

Cristal
piezoeléctrico

Fig.10.31. Tecnología de chorro de tinta continua (Meylan, 1996)

b) Lanzado en demanda (drop on demand). En el circuito se mantiene tinta a


baja presión, manteniéndose la tinta en el inyector. Cuando es necesaria la
gota se produce una alta presión y se lanza la gota.
c) Burbuja (bubble ink jet, thermal ink jet). La tinta se vaporizada por una
resistencia eléctrica dentro del inyector, creando una burbuja de tinta en
estado gaseoso. Bajo el efecto de la presión, una pequeña cantidad de tinta es
lanzada (fig.10.32).

Resistencia Eléctrica

Búrbuja
Búrbuja Gota
lanzada Gota
Resistencia Eléctrica lanzada

Fig.10.32. Tecnología burbujas de tinta (Meylan, 1996)

El método de thermal ink jet fue inventado en 1979 por la empresa Hewlett
Packard y fue comercializado en 1984 bajo la denominación de ThinkJet, en su
desarrollo se han invertido unas enormes sumas de dinero (del orden de miles de
millones de dólares) de forma que en la actualidad, la frecuencia de lanzamiento se ha
multiplicado por 43, se ha reducido su tamaño considerablemente, la vida del
cartucho tiene una duración 100 veces mayor y el cartucho de tinta contiene 100
veces más tinta. Así en los sistemas HP DesignJet 1000 la frecuencia de lanzamiento
es de 12KHz, con una resolución de 600ppp y 512 orificios en una banda de 21.7mm.
Los factores básicos a tener en cuenta en el análisis del rendimiento y prestaciones
del sistema de inyección de tinta son:
- sistema de almacenamiento de tinta: es aconsejable que el volumen de tinta
disponible sea elevado de forma que no sean necesarios cambios frecuentes
cuando se trabaja con formatos grandes y alta producción. La importancia del
volumen se pone de manifiesto en la cifra de la evolución de las capacidades
que han pasado de 4ml en el sistema ThinkJet (1985) a 410ml en el sistema
DesignJet 1000 Series. Asimismo es aconsejable que el diseño de los
560      ORTOFOTOGRAFÍA DIGITAL 

cartuchos sea modular de forma que no sea necesario el cambio de todo el


cartucho de color cuando se agote un color.
- resolución máxima posible.
- transferencia de la tinta al papel.
- fijado de la tinta al papel.
Tabla 10.2. Ventajas e inconvenientes de la tecnología de impresión de chorro de tinta
Ventajas del chorro de tinta Inconvenientes del chorro de tinta
Tecnología más económica Necesita papel especial para calidad óptima
Produce colores saturados de buena calidad Lentitud en impresión de calidad final
Permite la impresión en grandes formatos de
papel

10.6.1.2 Inyección de tinta sólida (Solid ink jet)


La inyección de tinta sólida se basa en el mismo principio que la anterior (tinta
líquida), excepto en el hecho de que la tinta está almacenada en forma de barras de
cera sólida que tras ser derretidas y mezcladas en un pequeño depósito se lanzan al
papel, donde vuelve a solidificarse.
Tabla 10.3. Ventajas e inconvenientes de la tecnología de impresión de inyección de tinta sólida
Ventajas de la inyección de tinta sólida Inconvenientes de la inyección de tinta sólida
Impresión de calidad en papel estándar Bastante lenta

10.6.1.3 Láser
La tecnología láser empleado en estos sistemas es la misma que se emplea en las
fotocopiadoras (fig.10.33):
1. Un rayo láser barre la superficie de un cilindro electroestático, creando una
imagen latente. El cilindro tiene la capacidad de producir electricidad al ser
sometido a la exposición de luz.
2. La imagen electroestática es posteriormente pasada por un polvo especial
(toner), cuyas partículas son atraídas por las cargas eléctricas del cilindro.
3. La imagen es transferida al papel mediante un proceso de diferencias de
voltaje entre el papel y el cilindro (2000 v en el papel y 1000 v en el
cilindro).
4. La imagen es finalmente fijada mediante presión y calor.
5. El cilindro se limpia y queda listo para la impresión de la siguiente imagen.
1.6 La impresión de los documentos en color se realiza mediante la repetición del
proceso para cada uno de los colores básicos.
Tabla 10.4. Ventajas e inconvenientes de la tecnología de impresión láser
Ventajas del láser Inconvenientes del láser
Elevada velocidad
Resultados resistentes (long lasting result)
FOTOGRAMETRÍA DIGITAL   561 

Cartucho Fuente de láser


de tóner
Espejo
poligónico

Papel Calor y Papel impreso


presión

Fig.10.33. Tecnología de impresión láser

10.6.1.4. Transferencia térmica de ceras


Estas impresoras utilizan unas películas coloreadas especiales (el rollo de
transferencia) realizadas en cera. Dicha cera se funde localmente por la acción de
resistencias de calor controlado. Las ceras coloreadas se transfieren mediante contacto
al papel (fig.10.34). Para impresiones en color, el proceso se repite tres veces, una
para cada color básico. Esta tecnología necesita emplear papel especial.

Película Papel
Hoja de papel no usada con ceras

Cabezal térmico Hoja


de impresión impresa

Resistencia
eléctrica

Rollo de transferencia Rollo de transferencia Papel con


Película ceras
no usado usado usada

Fig.10.34. Transferencia térmica de ceras

Tabla 10.5. Ventajas e inconvenientes de la tecnología de impresión de transferencia térmica de ceras


Ventajas de la transferencia térmica de Inconvenientes de la transferencia térmica de ceras
ceras
Rapidez Necesita utilizar papel especial de elevado coste
Calidad de color excelente
Precisión geométrica

10.6.1.5 Sublimación (Dye Sublimation)


Es la técnica de mayor calidad para la impresión de imágenes. Los colores están
contenidos en un rollo de transferencia (es decir, una película plástica que contiene
capas consecutivas de los colores cian, magenta, amarillo y negro). El rollo de
transferencia pasa junto a un cabezal de impresión térmica que consiste en miles de
elementos calientes y una vez que la tinta está lo suficientemente caliente para
vaporizarse se difunde a la superficie del papel. El papel está especialmente diseñado
para absorber el vapor de la tinta (fig.10.35).
562      ORTOFOTOGRAFÍA DIGITAL 

Película Papel
Hoja de papel no usada
plástica

Cabezal térmico Hoja impresa


de impresión Tinta sublimada

Resistencia
eléctrica

Rollo de transferencia Rollo de transferencia


no usado usado

Poliéster

Fig.10.35. Sublimación

Cada elemento caliente produce 256 diferentes temperaturas, a mayor temperatura


la cantidad de tinta transferida es mayor, así es posible controlar la intensidad del
punto resultante y producir imágenes de tonos continuos, aspecto que sólo es posible
en esta tecnología.
Tabla 10.6. Ventajas e inconvenientes de la tecnología de impresión por sublimación
Ventajas de la inyección de tinta sólida Inconvenientes de la inyección de tinta sólida
Calidad fotográfica Elevado precio del papel y del rollo de
transferencia

10.6.2 Técnicas de tramado para medios tonos


Excepto la sublimación térmica, todos los métodos son binarios, es decir que el
papel recibe una cantidad de color o no. Por tanto, si se desea reproducir una escala de
tonos de gris o imágenes en color es necesaria la utilización de las técnicas de medios
tonos mediante tramado.
Esta técnica es empleada en la industria desde hace más de 150 años. La mayoría
de las impresoras digitales actuales emplean técnicas similares que intentan
reproducir los diferentes tonos de gris con puntos de diferentes tamaños, agrupando
los elementos individuales de la impresora.
La mayoría de las impresoras tienen una resolución fija debido a que el tamaño de
los puntos de impresión no es variable. Existen cuatro técnicas para la generación de
tonos medios. Dos criterios definen el tipo de medios tonos, el primero establece la
diferencia entre los métodos ordenados e irregulares donde la regularidad implica la
presencia de modelos repetitivos en la imagen reproducida. El segundo criterio
diferencia entre las técnicas que utiliza modelos dispersos a las que agrupan los
puntos en clusters.
10.6.2.1. Agrupado ordenado
Es la técnica más utilizada en las artes gráficas y la edición, así por ejemplo, es la
que se utiliza en el lenguaje Postscript. Los medios tonos son producidos por la
división de la imagen final es celdillas, estando cada celdilla compuesta de puntos
elementales (fig.10.36). El número de tonos está limitado por el tamaño de la celdilla,
FOTOGRAMETRÍA DIGITAL   563 

para una celdilla de tamaño n x n, el número máximo de tonos viene dado por (n x n),
así por ejemplo una celdilla de 2x2 puede producir 5 tonos de gris.

El aspecto clave es decidir si los píxeles de cada celda deben ser blancos o negros,
para ello se utiliza una matriz limite, cuyos elementos corresponden a cada píxel de la
celda de forma que el plano de salida es cubierto por patrones regulares en función de
los valores asignados en la imagen digital a cada píxel.

Ordenado Irregular
Agrupado

Disperso

Fig.10.36. Técnicas de medios tonos mediante tramado (imágenes ampliadas) (Meylan, 1996)

Pixel Impresora Punto a


medio tono

Celda a medio tono

Celdilla de Registro

Fig.10.37. Píxel con un medio tono


564      ORTOFOTOGRAFÍA DIGITAL 

El proceso de reproducción comprueba todos los píxeles de la imagen y los


compara con el valor límite. La condición utilizada viene dada por:
⎧⎪0 si g ( x,y ) ≤ s ( x, y )
G ( x, y ) = ⎨
⎪⎩1 si g ( x,y ) > s ( x, y )

donde G(x,y) es el valor de salida, g(x,y) es el valor de entrada y s(x,y) es el valor


límite. El proceso se muestra en la figura 10.38.

B C

Fig.10.38. A) Matriz límite; B) El plano de salida (es decir, la hoja de papel) es cubierta por dichas
matrices límite; C) Los tonos medios son obtenidos por la comparación entre los píxeles de la imagen a
imprimir y los valores límites, si el valor límite es superior el pixel de salida será negro (Meylan, 1996)

La elección de los valores límites es determinada por una función continua


denominada función spot. Generalmente, es simétrica y está suavizada presentando
una morfología similar a la de un cartón de huevos. El periodo es discretizado para
obtener la misma forma que la matriz mostrada en la figura 10.39.

⎛π x −π⎞ ⎛π y−π⎞
1
sen ⎜
2 ⎟ + sen ⎜ 2 ⎟
s ( x, y ) = − ⎝ ⎠ ⎝ ⎠
2 4

Fig.10.39. Función spot clásica, utilizada en lenguaje Postscript (Meylan, 1996).


FOTOGRAMETRÍA DIGITAL   565 

10.6.2.2. Disperso ordenado


La única característica que varia con respecto al método anterior es la matriz
límite. En el anterior método, los elementos de la matriz con valores próximos son
agrupados en la matriz. En el método disperso, los valores límites están distribuidos
uniformemente en la matriz. La generación de la imagen de salida es la misma que
observarse. La matriz limite más frecuentemente utilizada es la definida por Bayer:
⎛ 4D m 4D m + 2U m ⎞
Dn = ⎜ ⎟
⎝ m + 3U m
4D 4D m + U m ⎠

⎛ 1 L 1⎞
n ⎜ ⎟
donde m= Um = ⎜ M L M ⎟ D1 = 0
2 ⎜ 1 L 1⎟
⎝ ⎠

La principal ventaja de este tipo de dithering es que suaviza el efecto de bandeado


producido por el método anterior como es muestra en la figura 10.40.

Fig.10.40. Sup: medios tonos Bayer. Inf: medios tonos clásicos aplicados a una escala de gris
(Meylan, 1996).

10.6.2.3. Disperso irregular. Error de difusión


La idea principal de esta técnica es calcular la mejor aproximación para cada pixel
de salida, determinar el error diferencial y extenderlo a los píxeles vecinos.
El método original fue propuesto por Floyd y Steinbeck consiste en situar el valor
límite de gris al 50% y distribuir el error en los píxeles como se muestra en la figura
10.41.

X 7/16E
3/16E 5/16E 1/16E

Fig.10.41. Izq: Distribución del error en el dithering; der: modelos obtenidos con los tonos variables

El principal problema se deriva del hecho que el resultado sea dependiente del
proceso aplicado (es decir, el orden es el cual los píxeles son procesados) y la
aparición de modelos erróneos cuando se trata con tonos que varian lentamente.
Los mejores resultados son obtenidos cuando se añade ruido a la imagen antes de
la aplicación del proceso de difusión.
566      ORTOFOTOGRAFÍA DIGITAL 

10.6.2.4. Agrupado irregular


El método intenta dividir la imagen salida en porciones de una forma
pseudoaleatoria (celdillas). Cada una de esas celdas son clasificadas en base de la
intensidad local de la imagen de entrada y los puntos son agrupados en modelos
pseudoaleatorios, cuyo tamaño se distribuye alrededor de un valor elegido medio.

10.6.3 Reproducción del tono


Las técnicas anteriores pueden ser aplicadas a la impresión de imágenes en color,
para lo cual es necesario repetir el proceso para cada uno de los colores básicos y
posteriormente se superponen las imágenes. El único problema se presenta con los
medios tonos generados por el Postcript en el que es necesario tener la precaución de
las orientaciones de las cuatro capas para evitar la aparición de efectos de Moiré, las
orientaciones por defecto para son 451 para la capa de color negro, 151 para el cian,
751 para el magenta y 01 para el amarillo.

10.6.4 Aplicaciones Fotogramétricas


Los dos aspectos básicos relacionados con la impresión de ortofotografías son la
resolución geométrica y la reproducción del tono.
Como se ha indicado anteriormente las impresoras utilizan una malla de impresión
fija, por lo que existe una relación directa entre el número de tonos y la resolución
espacial que pueden alcanzar. Así una impresora con 16 tonos de gris utiliza una celda
de 4x4, lo que implica que existen un determinado número de celdas en la superficie
de la página a imprimir, si se utiliza una impresora con 64 tonos, sería necesario una
celda de tamaño 8x8 y el número de celdas que definen la superficie de la página
vendría reducida por 2 en cada dimensión, es decir, la resolución de impresión final
sería la mitad.
Otro aspecto que es necesario tener en cuenta es la relación existente entre la
resolución de la imagen original y la resolución del producto. Así es importante tener
en cuenta que no es necesario sobrecargar la impresora con una gran cantidad de
datos cuando estos no aportan una mayor calidad de impresión, así la experiencia
indica que carece de sentido la impresión de más de dos píxeles de imagen por
celdilla. Así, por ejemplo, si se desea imprimir una imagen en un trazador gráfico de
inyección de tinta, cuya resolución es de 300ppp en un papel de anchura 84cm, se
obtiene un total de 9920 píxeles de anchura de impresión. Si el tamaño de la celdilla
es de 6x6 (37 tonos de gris posibles), el número total de celdas en la anchura total es
de 1650, por lo que la imagen debería tener una anchura de 3300 píxeles.

Tabla 10.7. Resoluciones en líneas por pulgada para un número fijo de tonos de gris con resoluciones de
300, 600 y 5080ppp
Número de tonos 16 25 36 64 256
300 ppp 75 60 50 37 18
600 ppp 150 120 100 74 36
5080 ppp 1270 1000 850 630 315
FOTOGRAMETRÍA DIGITAL   567 

A modo de conclusión, antes de imprimir una imagen, se debe comprobar los


siguientes aspectos para conseguir una impresión de buena calidad y eficiente.
- resolución de la impresora
- tamaño del dibujo
- resolución de la celdilla (factor que limita el número de tonos de gris)
- tamaño del fichero (el número de pixeles no debe sobrepasar el número de
celdas por 2)

10.7 FACTORES QUE DETERMINAN EL COSTE FINAL DE UN


PROYECTO DE ORTOFOTOGRAFÍA
Antes de comenzar el análisis es necesario indicar que la gran variabilidad de
precios que ofertan las diferentes empresas en el mercado, por lo cual es fundamental
la labor del técnico que elija la oferta más adecuada, atendiendo no sólo al precio de
la misma sino a la calidad final de los resultados. Estas diferencias han sido tan
importantes que incluso han sido debatidas en la reunión de la OEEPE que tuvo lugar
en Marnee la Vallee (Francia) en Noviembre de 1999. En dicha reunión se presentó
un trabajo (Piedfort, 1999) en el que se comparaban los precios ofertados para dos
trabajos de ortofotografías obteniendo los resultados que se resumen en la Tabla 10.8,
en la que se puede observar las marcadas diferencias tanto a nivel global como
relativo por capítulos.
Tabla 10.8. Comparación de los costes de las fases de dos ejemplos de ortofotografía (Piedfort, 1999)
Proyecto 1. Año 1998. Superficie aproximada: 800 km2
Precio
Precio Precio Vuelo Precio MDE
Escala Ortorrectificación
Total (€)
€ % total € % total € % total
A 1:18000 545.526 60.101 11.02 260.839 47.81 112.990 20.71
B 1:15000 426.334 26.445 6.20 283.678 66.51 54.091 12.68
C 1:15000 204.699 41.470 20.26 37.864 18.50 76.930 37.58
D 1:20000 171.487 24.641 14.37 74.526 43.46 34.859 20.33
E 1:20000 131.856 16.828 12.76 55.293 41.93 32.455 24.61
2
Proyecto 2. Año 1999. Superficie aproximada: 80 km , Escala de vuelo: 1/4000
Precio del vuelo (€) Precio Ortorrectificación (€) Precio Impresión (€)
Color B/N Color B/N Color B/N
A 26.400 16.875 127.925 48.500 6.460 5.200
B 22.600 --- 108.900 91.500 3.500 2.850
C 20.000 15.025 75.600 57.750 3.500 1.400
D 19.750 13.100 11.300 9.700 1.950 1.300
E --- --- 10.250 7.200 3.500 2.400

10.7.1. Coste de las imágenes


La unidad básica para la determinación del coste de las imágenes es el fotograma,
por tanto, para determinar el coste final de un determinado área es necesario conocer,
por un lado, la escala de las imágenes a utilizar y, por otro lado, los valores de los
solapes (longitudinal y transversal). Para una cámara de focal fija, el área cubierta por
568      ORTOFOTOGRAFÍA DIGITAL 

un fotograma es función de la altura de vuelo con respecto al terreno (distancia


cámara-objeto), incrementando en una relación cuadrática directa, pero este aumento
de la superficie cubierta por un fotograma conlleva que sea necesario utilizar un avión
que permita mayores alturas de vuelo (mayor coste) y los problemas de encontrar
unas condiciones climáticas tales que nos permitan obtener imágenes nítidas a mayor
distancia.
Los costes de la fotografía aérea son muy variables, dos factores claves son las
condiciones climáticas de la zona y la distancia con respecto a la base de operaciones
del avión. En la mayoría de los casos, las áreas de alta densidad de población que
suelen requerir cartografías de mayor resolución espacial y una mayor frecuencia de
actualización cuentan con compañías dedicadas a la fotografía aérea, mientras que las
zonas menos pobladas (que no suelen contar con empresas de fotografía aérea) sólo
requieren cartografías de pequeña escala con lo cual se puede cubrir el terreno con un
número de fotogramas menor.
Spradley (1996) ha revisado diversos proyectos de compañías con un número de
fotogramas superior a 50 (pancromáticas) dedicadas a la toma de fotografías aéreas
obteniendo unos costes entre 90 y 120 €/fotograma para alturas de vuelo inferiores a
4500m y 150 a 180 €/fotograma para alturas de vuelo superiores a 4500m. La
diferencia se basa en la utilización de un avión de cabina presurizada, que suele
necesitar una mayor distancia de operación y requerir mejores condiciones climáticas.
Otra posibilidad que evidentemente abarata considerablemente los costes es el
empleo de fotogramas preexistentes de cualquiera de las empresas y organismos
dedicados a la elaboración de cartografía.

10.7.2. Coste del apoyo terrestre


Para proyectos de una cierta magnitud que comprendan un elevado número de
imágenes, se debe asumir que los puntos de apoyo son obtenidos mediante la
combinación de las técnicas de topografía y aerotriangulación. En un bloque de
fotogramas, deben existir un número de puntos de paso entre 9 y 12, siendo
necesarios tan sólo 1 ó 2 puntos de apoyo por fotograma. El coste de la obtención de
dichos puntos dependerá de la precisión requerida y el instrumental empleado. Para
puntos obtenidos mediante GPS y sin preseñalización se pueden indicar como cifras
orientativas las mostradas en la Tabla 10.9.
Tabla 10.9. Coste aproximado de la toma de puntos de apoyo (GPS)
Número de puntos Coste (€/punto) Coste del panel (€/punto)
10-50 120 80
50-100 90 80
+100 60 80

A veces la falta de referencias sobre el terreno, implica la necesidad del panelado


artificial de los puntos tarea que eleva los costes de la toma de los mismos, incluso
llegandolos a duplicar.
FOTOGRAMETRÍA DIGITAL   569 

Para el cálculo total se debe tener en cuenta el coste de la toma de los puntos sobre
el terreno más el coste de la aerotriangulación. Las tarifas de la aerotriangulación
suelen estar en torno a las 30 €/fotograma. Así, para un proyecto de tamaño medio
con un número de puntos de control de 50 a 100 (partiendo de que el número de
puntos de apoyo por fotograma son 1.5) tendríamos un coste de aproximadamente
180€/fotograma (300 € si se requiere panelado artificial).

10.7.3. Coste de la generación del modelo digital de elevaciones


La ortorrectificación de la imagen necesita la generación previa del modelo digital
de elevaciones para la corrección de los desplazamientos diferenciales debidos a los
cambios de relieve. Para la cartografía a pequeña y mediana escala, actualmente los
organismos encargados de la venta de cartografía suelen disponer de modelos que
pueden ser empleados para dicha corrección. Para el caso más general, de escalas
grandes (superiores a 1:20000) suele ser necesaria la generación específica del
mismo.
La necesidad de generar un modelo digital de elevaciones implica dos costes
adicionales, por un lado, requiere que se disponga de una cobertura estereoscópica
completa, y en segundo lugar, los costes propios derivados de la captura y edición de
los datos con los que generar el modelo. Si se emplea técnicas de fotogrametría digital
para la captura los costes de la captura suelen estar en torno a 30 €/modelo más los
costes de edición, que aunque son muy variables dependiendo de las característica de
la zona, se pueden establecer en 1€ cada 1000 puntos. Es decir, si partimos de una
fotografía escaneada a 25µm de resolución y se genera un modelo digital con un
espaciado de 15 píxeles (4500x8000 píxeles/modelo) se obtendría un coste de captura
de 30 € más 160 € de edición, resultando un total de 190 €.

10.7.4. Coste de la ortorrectificación


Una vez que el fotograma ya ha sido orientado y que se dispone del modelo digital
de elevaciones, la ortorrectificación es un proceso totalmente automático, que
requiere exclusivamente al operador para la definición de los límites y la selección del
tamaño final del píxel sobre el terreno. Teniendo en cuenta las características actuales
del software y hardware los rendimientos suelen ser de 100 a 200 Mb/hora, que
partiendo de un coste de equipo de 40 €/hora, da lugar a un coste aproximado de
0.26€/Mb de ortofotografía.

10.7.5. Costes de la edición y reproducción final


Una vez generada la ortofotografía en formato digital suele ser sometida a una
fase de edición final que de lugar al documento final. En esta etapa se realizan los
ajustes tonales entre las diferentes ortofotografías que integrarán el mosaico final así
como la definición de las líneas de empalme. El coste estimado suele rondar las 15000
ptas/fotograma, sin tener en cuenta el coste del material fungible (papel e impresión)
de la generación de productos en formato analógico.
570      ORTOFOTOGRAFÍA DIGITAL 

10.7.6. El factor escala


Teniendo en cuenta lo expuesto en el anterior apartado es evidente la relación
prácticamente lineal entre el número de fotogramas y el coste total del proyecto. Por
otro lado, es importante tener en cuenta que los costes por unidad de terreno están
disminuyendo de una forma drástica debido a dos motivos, en primer lugar, el
aumento de rendimiento y la disminución de precio de los sistemas fotogramétricos
digitales (impulsado en gran medida por la disminución de los costes de los sistemas
informáticos y el aumento de sus rendimientos) y, por otro lado, el aumento en la
relación de escala.
La relación de escala es la existente entre los fotogramas originales y el producto
cartográfico resultante. Tradicionalmente, dicha relación era de 1:3 a 1:5, es decir,
para la generación de una ortofotografía 1:10000 se empleaban fotogramas a escala
1:40000, relaciones basadas fundamentalmente en la experiencia. Es evidente que si
se emplea menores relaciones de escala, por ejemplo, 1:10 para cubrir la misma
superficie necesitara un número menor de fotogramas, con lo cual, y según lo
expuesto anteriormente el coste del proyecto será menor. La relación se basa en el
cálculo de los errores en las imágenes, las limitaciones en las medidas y la capacidad
de los operadores en la captura del MDE. El empleo de los sistemas actuales, tales
como cámaras de baja distorsión equipadas de sistema de compensación del
movimiento de la imagen (con resoluciones en torno a 100 líneas-par/mm), escáneres
de alta resolución y precisión, puntos de control obtenidos mediante sistemas GPS y
orientaciones mediante sistemas de ajuste de bloques, permiten el empleo de
relaciones menores y con ello reducir coste, así por ejemplo, cada vez es más
frecuente el empleo de relaciones de 12:1 e incluso superiores. No obstante es
fundamental tener en cuenta que la ortofotografía como cualquier otro proceso que da
lugar a un documento cartográfico debe ser sometida a controles de calidad y que
dichas relaciones sólo son posibles con una elevada calidad en la información
empleada en cada una de las fases.

10.8 ESTÁNDARES DE CONTROL DE CALIDAD EN LAS


ORTOIMÁGENES

10.8.1 Normas de Federal Geographic Data Commitee


El Federal Geographic Data Commitee es un organismo integrado dentro del
Departamento del Interior de los Estados Unidos de América que está formado por
representantes de diferentes ministerios y agencias norteamericanas y cuyo objetivo
es la promoción del desarrollo coordinado, la utilización, el intercambio y la difusión
de datos geográficos. Dentro de esta línea ha desarrollado el estándar de ortoimágenes
digitales (FGDC-STD-008-1999) elaborado por el subcomité de bases de datos
cartográficas (Subcommitee on Base Cartographic Data).
Dicha norma indica las normas que deben seguirse para la generación de
ortoimágenes y la información (metainformación) que debe acompañar a las mismas.
FOTOGRAMETRÍA DIGITAL   571 

10.8.1.1 Definiciones previas


Una ortoimagen digital es una imagen georreferenciada obtenida a partir de una
fotografía convencional con geometría perspectiva o de imágenes de satélite en la que
los desplazamientos de los objetos debidos a la orientación del sensor y el relieve del
terreno han sido eliminados. La ortoimagen debe tener las características geométricas
de un mapa y la calidad de imagen de una fotografía. Las ortoimágenes digitales están
compuestas por una matriz de píxeles georreferenciados que reflejan la reflectancia
del terreno como un valor discreto.

10.8.1.2 Estructura de la ortoimagen


La ortoimagen digital está compuesta por matrices rectangulares bidimensionales
de píxeles que se corresponden con zonas del terreno. Los píxeles que componen la
imagen deben estar ordenados en filas horizontales (líneas) y columnas verticales. El
orden de las filas debe ser de la parte superior a la inferior y el orden de columnas
desde la izquierda a la derecha. El origen de coordenadas imagen estará situado en la
parte superior izquierda y tendrá valor (0,0). Las imágenes que incluyen más de una
banda de información (color real, infrarrojo, multiespectral, Y) serán almacenadas en
los formatos BIL (banda intercalada por línea), BIP (banda intercalada por pixel) o
BSQ (banda secuencial).
Los niveles digitales estarán estructurados de forma que el nivel 0 se corresponde
con el color negro, siendo la representación más frecuente la de 8 bits, en la que se
corresponde el nivel digital 0 al negro y el 255 al blanco.

10.8.1.3 Fuentes de información


La información necesaria, como norma general, para la generación de
ortoimágenes es:
- un fichero de imagen no rectificada, obtenida a partir de la digitalización de
fotografías aéreas digitalizadas u otros sensores remotos.
- un modelo digital del terreno que cubra la misma área que la imagen.
- un fichero de puntos de control.
- información relativa a la calibración del sensor.
Esta información será utilizada para la georreferenciación de la imagen al sistema
de coordenadas terreno mediante el cálculo de la orientación y la posición del sensor
con respecto al terreno y la posterior corrección de los desplazamientos que afectan a
la imagen.
Aunque evidentemente es compleja la recomendación de la época del año y la
hora del día más adecuada para la adquisición de la imagen debido a que existen
aplicaciones concretas que pueden requerir ciertas condiciones específicas, se
recomienda como norma general la primavera y el otoño.
El estándar no define ninguna limitación relativa a las imágenes originales el
estándar no define ninguna limitación aunque indica la necesidad de que toda la
información relativa al tipo de imagen quede reflejado en el fichero de
metainformación. Asimismo hace referencia al proceso de digitalización indicando de
572      ORTOFOTOGRAFÍA DIGITAL 

una forma expresa la prohibición del remuestreo de las imágenes para obtener un
tamaño de píxel menor al empleado en el proceso de digitalización.
Con respecto a los modelos digitales del terreno y a los puntos de control terrestre
tampoco aporta excesiva información indicando únicamente que debe ser lo
suficientemente preciso para asegurar la adecuada corrección de la imagen a la escala
deseada y que la información referente al proceso de generación del mismo debe ser
incluída en el apartado correspondiente al fichero de metainformación.

10.8.1.4 Georreferenciación
Las imágenes deberán estar referidas a un sistema de coordenadas, como, por
ejemplo, UTM y a un determinado datum horizontal, toda la información referida al
sistema de representación deberá aparecer reflejada en la metainformación.
Para la georreferenciación de la imagen se incluirán las coordenadas terreno
relativas al píxel de posición (0,0) y la resolución de la imagen, expresada en
coordenadas terreno, en X e Y.

10.8.1.5 Resolución
En el estándar se diferencian claramente entre dos tipos de resolución: resolución
espacial (tamaño de píxel sobre el terreno, ground sample distance) y resolución
radiométrica (relativa a la sensibilidad de la imagen para detectar diferencias en el
terreno).
Se permite el remuestreo de las imágenes para obtener imágenes de mayor tamaño
de píxel que el de las imágenes originales. El caso inverso, es decir, la obtención de
imágenes con tamaño de píxel menor se debe realizar dentro de los límites expuestos
por el teorema de Nyquist (remuestreo máximo de 2 veces para evitar la aparición de
defectos en la imagen). En el caso de que se aplique cualquier tipo de remuestreo
debe ser indicado en el fichero de metainformación correspondiente.
El estándar recomienda trabajar con imágenes en blanco y negro que serán
representadas como datos binarios en 8 bits, si bien contempla el trabajo con
imágenes en color de 24 bits (3 bytes). Los niveles digitales variarán de una forma
lineal entre el 0 (negro) y el 255 (blanco) y las zonas no cubiertas por la ortoimagen
recibirán nivel digital igual a 0.

10.8.1.6 Precisión
El estándar utiliza las indicaciones del National Standard for Spatial Data
Accuracy (NSSDA) para el tratamiento estadístico de los errores para determinar la
precisión final de la ortoimagen. El método empleado es el empleo de la raíz del error
cuadrático medio para estimar la precisión posicional, indicando los resultados con
una precisión del 95%, es decir, el 95% de los puntos se deben encontrar por debajo
del error indicado como representativo de la ortoimagen.
No se indican valores límites de precisión, indicándose no obstante la necesidad
de que se introduzcan límites en función de las aplicaciones específicas, asimismo
recomienda que se empleen los utilizados en National Map Accuracy Standards -
FOTOGRAMETRÍA DIGITAL   573 

NMAS- (U.S. Bureau of Budget, 1947) o los Accuracy Standards for Large-Scale
Maps (ASPRS, 1990).
En cualquier caso se indica la obligación de indicar la precisión calculada en la
metainformación del fichero.

10.8.1.7 Calidad de los datos


En el proceso de ortorrectificación deben ser empleados métodos que por un lado
garanticen la calidad posicional de la imagen pero que conserven las características
radiométricas de las mismas.
El estándar recomienda el empleo de los métodos de remuestreo de vecino más
próximo (en imágenes de gran escala debido a que los errores cometidos son
inferiores a 0.5 píxeles) y de interpolación bilineal y convolución cúbica.
En el proceso de ortorrectificación aparecen con cierta frecuencia Aarrastres@ en la
imagen (smear) debido a problemas en el modelo digital o bien por un relieve
topográfico muy acusado. Este efecto es especialmente importante en los bordes de
las imágenes de fotografías a gran escala, que requieren un importante ajuste para
situarlas en su posición correcta. El estándar indica que cuando aparecen estos efectos
se deben aplicar todos los métodos posibles para su corrección (revisión del modelo
digital, introducción de nuevos puntos en el modelo, utilización de imágenes
adicionales,Y) si bien también indica la necesidad de analizar el esfuerzo de la
corrección de los errores para obtener un producto rentable, planteando la necesidad
de corrección en el caso de que afecten a elementos de interés en la imagen.
10.8.1.8 Mosaicos
Para el análisis de la calidad radiométrica de los mosaícos de ortofotografías
plantea la inspección visual y la selección de las líneas de empalme en elementos de
tipo lineal o bien en zonas de pequeñas variaciones, permitiendo el ajuste local de
tonos para obtener un producto con una adecuada apariencia general.

Un ejemplo completo del contenido de fichero de metafichero de información


asociada a la ortoimagen puede consultarse en la dirección:
http://www.fgdc.gov/fgdc.html.

10.8.2 Normas del Estado de Vermont


El estado norteamericano de Vermont ha diseñado un sistema de control de
calidad de los productos generados dentro del programa National Digital Orthophoto
Program que pretende cubrir la superficie de Estados Unidos de América con
ortofotografías a escala 1:12000 definidas dentro de las superficies de 7.5 minutos
definidas por el U.S. Geological Survey (Digital Orthophoto Quarter Quadrangle -
DOQQ-), si bien puede ser fácilmente extrapolable a cualquier otro tipo de trabajo
relacionado con la generación de ortoimágenes. Esta norma está disponible en la
dirección http://www.fdgv.gov/framework/refmat/vermon~1.htm.
574      ORTOFOTOGRAFÍA DIGITAL 

El proceso de evaluación consta de varias fases en las cuales la ortoimagen a


evaluar recibira dos tipos de puntuaciones: (P)ass (Correcta) y (F)ail (Incorrecta) y
otra numérica de 1 a 5. La puntuación de F en cualquier apartado conlleva el rechazo
del trabajo así como la puntuación numérica media por debajo de 3.0.
Los apartados evaluados son:

a) Precisión absoluta:
1.7 P: La ortoimagen cumple las especificaciones de la precisión requerida
para el trabajo (National Map Accuracy Program).
F: La ortoimagen no cumple con las especificaciones de precisión absoluta
requerida para el trabajo.
b) Precisión de empalme con otras hojas:
1.8 P: La ortoimagen presenta desplazamientos con respecto a las hojas
adyacentes inferiores a 7m"3.5m
F: La ortoimagen presenta desplazamientos con respecto a las hojas
adyacentes superiores de 7m.
c) Digitalización de la imagen:
1.9 P: No se aprecian visualmente líneas de digitalización o porciones
(tiles) de digitalización en la imagen.
F: Se aprecian visualmente líneas de digitalización o porciones (tiles) de
digitalización en la imagen.
d) Defectos de la imagen digital (blemishes, ...)
1. Existen defectos en una superficie superior al 20% de la ortoimagen o
existe algún defecto con un tamaño superior a 100 píxeles.
2. Existen defectos en una superficie entre el 10% y el 20% de la
ortoimagen o existe algún defecto con un tamaño superior a 80 píxeles.
3. Existen defectos en una superficie entre el 5% y el 9% de la ortoimagen
o existe algún defecto con un tamaño superior a 70 píxeles.
4. Los defectos en la imagen representan una superficie inferior al 5% o
existe algún defecto con un tamaño superior a 60 píxeles.
5. No existen defectos visibles
e) Presencia de rayas en la imagen debido al efecto de la presión
1. Existen más de 10 rayas de presión en la ortoimagen o la anchura media
mayor de cualquier raya es mayor que 6 píxeles.
2. Existen entre 5 y 10 rayas de presión en la ortoimagen y la anchura
media mayor de las rayas es inferior a 6 píxeles.
3. Existen menos de 5 rayas de presión en la ortoimagen y su anchura
media mayor es menor de 6 píxeles.
4. Existen menos de 5 rayas de presión en la ortoimagen y su anchura
media mayor es menor de 4 píxeles.
5. No son visibles rayas de presión.
f) Presencia de rayas en la imagen
FOTOGRAMETRÍA DIGITAL   575 

1. Existen más de 15 rayas en la imagen y la anchura media de las rayas es


mayor de 5 píxeles y la longitud media es mayor de 50 píxeles.
2. Existen entre 10 y 15 rayas en la imagen con una anchura media menor
o igual que 5 píxeles y una longitud media menor de 50 píxeles.
3. Existen entre 5 y 10 rayas en la imagen con una anchura media menor o
igual que 5 píxeles y una longitud media inferior a 50 píxeles.
4. Existen menos de 5 rayas en la imagen con una anchura media menor o
igual que 5 píxeles y una longitud media inferior a 50 píxeles.
5. No existen rayas visibles en la imagen.
g) Sombras
1. No existe variación en el tono de gris en las zonas de sombras.
2. Existe una variación inferior a 10 niveles digitales en las zonas de
sombra.
3. Existe una variación superior a 10 niveles digitales en el 70% de las
zonas de sombra, permitiendo la identificación de elementos del
terreno.
4. Existe una variación superior a 10 niveles digitales en el 80% de las
zonas de sombra, permitiendo la identificación de elementos del
terreno.
5. Existe una variación superior a 10 niveles digitales en el 90% de las
zonas de sombra, permitiendo la identificación de elementos del
terreno.
h) Zonas con iluminación elevada
1. No existe variación de tonos de gris en las zonas de alta iluminación.
2. Existen entre 10 y 25 áreas de elevada reflectividad en las que el rango
de niveles digitales es inferior a 10.
3. Existen entre 5 y 10 áreas de elevada reflectividad con problemas de
interpretabilidad entre fuertes y moderados en las zonas de alta
iluminación.
4. Existen menos de 5 áreas de elevada reflectividad pero no presentan
problemas de interpretabilidad.
5. No existen áreas de alta reflectividad y existe un buen contraste que
facilita la interpretación de la imagen en las zonas más iluminadas.
i) Contraste
1. En la imagen sólo aparecen representados el 60% de los niveles
digitales disponibles (153 niveles digitales)
2. En la imagen sólo aparecen representados entre el 60% y el 70% de los
niveles digitales disponibles (153 a 180 niveles digitales)
3. En la imagen sólo aparecen representados entre el 70% y el 80% de los
niveles digitales disponibles (180 a 205 niveles digitales)
4. En la imagen sólo aparecen representados entre el 80% y el 90% de los
niveles digitales disponibles (205 a 230 niveles digitales)
5. La imagen tiene un nivel de detalle excelente y se ha utilizado más del
90% de los niveles digitales disponibles.
576      ORTOFOTOGRAFÍA DIGITAL 

j) Mosaico
1. Existen diferentes radiométricas significativas entre los fotogramas. Las
diferencias en los tonos de gris entre las dos zonas de empalme superan
los 50 niveles digitales (20% de los niveles digitales posibles).
2. Existen diferencias radiométricas entre los fotogramas con diferencias
entre el 15% y el 20% de los niveles digitales posibles (38 a 50 ND).
3. Existen diferencias radiométricas entre los fotogramas con diferencias
entre el 10% y el 15% de los niveles digitales posibles (26 a 38 ND).
4. Existen diferencias radiométricas entre los fotogramas con diferencias
entre el 5% y el 15% de los niveles digitales posibles (13 a 26 ND).
5. No existen diferencias radiométricas visibles entre los fotogramas que
componen la ortoimagen.

10.8.3 Norma DIN


En la actualidad esta norma está en proceso de redacción. Wiggenhagen (1999)
expone cual será la estructura de la norma y qué tipo de información incluirá. La
norma se incluirá dentro de la norma DIN4 que es la relativa al control de calidad en
Fotogrametría y Teledetección y analizará los siguientes aspectos de las
ortoimágenes:
- Datos de la imagen (fotografías aéreas digitalizadas)
- Datos numéricos (orientación interna y externa)
- MDE (modelo de superficie y modelo de objeto)
- Métodos (interpolación y remuestreo)
- Resultados (producto en formato digital y producto en formato analógico)
Las especificaciones concretas irán incluidas en 4 anexos:
Anexo A: Especificaciones para la imagen digital
Anexo B: Descripción de los procesos de producción
Anexo C: Descripción de los parámetros de la ortofotografía y de las
dependencias funcionales
Anexo D: Requerimientos de precisión y errores para las diferentes etapas.
La calidad de las ortoimágenes será establecida en una doble vertiente, por un
lado, geométrica mediante la comparación de la posición de elementos característicos
del terreno con la realidad (puntos de control) y radiométrica mediante parámetros
estadísticos basados fundamentalmente en el análisis del histograma.

10.8.4 Situación en nuestro país


En la actualidad no existe ninguna norma específica acerca de la calidad de las
ortoimágenes generadas a partir de procesos de Fotogrametría Digital. No obstante es
importante indicar que en los pliegos de contratación se indican los controles a aplicar
en cada fase (fotografía, digitalización, orientación, generación del MDE y
ortorrectificación) aunque desgraciadamente no se estandariza la forma de entrega de
los productos para que puedan ser interpretables por el usuario como
metainformación.
FOTOGRAMETRÍA DIGITAL   577 

10.9 GENERACIÓN DE PERSPECTIVAS Y ANIMACIONES


Los modelos fotorrealísticos de construcciones proyectadas y su entorno se han
convertido en los últimos años en una herramienta para la comunicación entre los
planificadores, los políticos responsables de la elaboración de dichas obras y el
público en general, que normalmente encuentran problemas en la interpretación
directa de mapas o planos y prefieren Aver@ el estado final de la obra.
Para poder obtener la visión tridimensional de un objeto es necesario disponer por
un lado de un conjunto de coordenadas que nos definan adecuadamente la forma del
mismo (coordenadas tridimensionales que puede ser obtenidas mediante
Fotogrametría o bien de MDS previos) y, por otro lado, de imágenes del objeto que se
superpondrán al modelo de coordenadas proporcionando la textura necesaria.
Dependiendo del tipo de superficie del objeto (MDS, fachada, plano, Y) y de la
cantidad de puntos de coordenadas conocidas se emplearán diferentes métodos
conocidos con los términos anglosajones de imaging, draping y warping. En todos
estos métodos, se genera una nueva imagen a partir del remuestreo de la imagen
original, realizándose una transformación matemática y una interpolación del nivel
digital (nivel de gris o nivel de color). La diferencia fundamental entre el imaging y el
draping es la relación de tamaño entre el pixel de la imagen y el tamaño de la celdilla
del modelo digital, siendo mayor éstas últimas en el draping, por lo que es necesario
ajustar ambas resoluciones (remuestreando el MDE o bien la imagen). El método de
warping se emplea para la visualización de planos y consiste básicamente en una
transformación tridimensional que ajusta el plano de la imagen y el plano definido por
las coordenadas del objeto desde el punto de vista considerado. Estas operaciones
suelen estar integradas como módulos de programas de modelización tales como
3DStudio de Autodesk o Strada StudioPro y cada vez más en programas de
fotogrametría digital y sistemas de información geográfica.

10.9.1 Aspectos metodológicos


10.9.1.1 Terminología
Los conceptos fundamentales relacionados con la generación de perspectivas y
animaciones se muestran en la figura 10.42 y tabla 10.10.
Tabla 10.10. Equivalencia terminológica y definiciones
Punto de vista (eyepoint) Localización del observador para la generación de la perspectiva
Punto visado (aim point) Punto al cual se realiza la observación
Trayectoria de observación Conjunto ordenado de puntos de vista empleados para la generación
(eye route) de una animación
Trayectoria visada Conjunto ordenado de puntos visados empleados para la generación
(aim route) de una animación
Puntos de vista generados Conjunto de puntos de vista generados por el sistema mediante un
(generated eyepoints) procedimiento de splines o similar a partir de un conjunto más
reducido introducido por el operador
Puntos visados generados Conjunto de puntos visados generados por el sistema mediante un
(generated aim points) procedimiento de splines o similar a partir de un conjunto más
reducido introducido por el operador
578      ORTOFOTOGRAFÍA DIGITAL 
Punto de vista
(eyepoint)

Visual
(aim)

Punto visado
(aim point)

Objetos

Puntos visados
(aim points)

Trayectoria puntos visados

Direcciones de observación

Puntos de vista
(eyepoints)
Trayectoria puntos de vista Puntos visados generados
(eyepoint route) (generated aim points)

Puntos de vista generados


(generated eyepoints)

Objetos

Fig.10.42. Conceptos básicos en la generación de perspectivas y animaciones (LH Systems, 1999b)

10.9.1.2 Procedimiento
Para la generación de perspectivas y animaciones es necesario disponer de la
información siguiente:
- modelo digital de elevaciones
- imágenes georreferenciadas
- ficheros de elementos vectoriales restituidos (opcional)
- ficheros de elementos con texturas (opcional)
Además el usuario habitualmente debe definir el fichero de parámetros en el que
se define el ángulo de campo, los planos de corte de la perspectiva, los aspectos
relativos a la iluminación,Y , así como el fichero de trayectoria de los puntos de vista
y de los puntos visados y, en su caso, los parámetros de generación de nuevos puntos
añadidos mediante splines.
Como muestra del esquema de trabajo a seguir en la figura 10.43 se presenta el
diagrama de flujo del módulo Perspective Scenes incluido en el sistema SOCET SET
de BAE Systems.
FOTOGRAMETRÍA DIGITAL   579 

Definición de
trayectoria
(Route Setup)

Fichero de trayectoria Ficheros de restitución Ficheros de MDE Ficheros de imágen


(Route Feature File) (Feature Files) (DEM Files) y de orientación
(Image & support Files)

Definición puntos de vista Selección Contenido Parámetros Perspectiva


(Eyepoint setup) (Content Selection) (Parameter Setup)

Fichero Puntos de Vista Fichero Contenido Escena Fichero Parámetros Escena


(Eyepoint file) (Scene Content File) (Scene Parameter File)

Generación de la escena
(Scene Rendering)

Ficheros de perspectivas

2 ó más perspectivas

Animación

Fig.10.43. Diagrama de flujo del módulo PSCENE de SOCET SET (LH Systems, 1999b)

Fig.10.44. Captura de pantalla del módulo Perspective Scene de LH Systems (LH Systems, 1999)
580      ORTOFOTOGRAFÍA DIGITAL 

10.9.1.3 Generación de animaciones en zonas urbanas


Los programas específicos de generación de perspectivas y animaciones incluidos
en los sistemas fotogramétricos digitales incluyen herramientas para introducir en el
proceso de la generación las líneas de ruptura de pendiente, aspecto fundamental en la
generación de animaciones en las zonas urbanas en las que la presencia de edificios
plantea importantes problemas en la generación a partir del modelo digital bruto
generación de animaciones en zonas urbanas (fig.10.45).

Edificio Puntos del MDE

Terreno

Puntos obtenidos del


fichero de restitución
Edificio
Puntos del MDE

Fig.10.45. Generación de perspectivas en zonas urbanas (LH Systems, 1999b)

10.9.2 Ejemplo de aplicación


Como ejemplo de este tipo de aplicaciones Höhle y Joergensen (1996) presentan
la visualización realística relativa a la ubicación de una serie de generadores eólicos.
El rendimiento de los generadores (molinos de viento) depende de una adecuada
localización en el terreno, no obstante, el impacto visual de estos molinos es
importante, debido básicamente a su altura (aproximadamente 90m) y a que deben ser
colocados en zonas libres de obstáculos para asegurar un correcto caudal de aire. Por
tanto, este tipo de instalaciones requiere un estudio de impacto ambiental en el cual
será importante disponer de algún tipo de visualización realística (estática o dinámica)
que permita analizar cuál será el estado final una vez ubicado el molino.
La información disponible consistía en un MDE con estructura de malla regular y
un espaciado de 20mx20m y una ortoimagen de la zona a estudiar con un tamaño de
pixel sobre el terreno de 0.6mx0.6m, así como la estructura del molino diseñada en
AutoCAD. La primera etapa consiste en el ajuste entre ambos conjuntos de
información seleccionandose el tamaño de malla de 2.5mx2.5m como un buen
compromiso entre el volumen de información a procesar y la resolución del producto
final, tras seleccionar la posición del punto de vista y la orientación de la visual se
FOTOGRAMETRÍA DIGITAL   581 

obtuvieron los modelos, tanto para el terreno como para el molino, mediante draping.
Ambos modelos fueron posteriormente superpuestos obteniéndose el resultado final
que se muestra en la figura 10.46.

Fig.10.46. Visualización fotorrealística del impacto visual de implantación de dos molinos de viento

REFERENCIAS BIBLIOGRÁFICAS
Abed Al-Aziz, Y.A. y Karara, H.M. (1971). Direct Linear Transformation from Comparator Coordinates
into Object Space Coordinates in Close-Range Photogrammetry. Proc. ASP/UI Symposium on Close-
Range Photogrammetry. pp 420-475.
Ackermann, F. (1996). Techniques and Strategies for DEM Generation. En: Greeve, C. (ed.) Digital
Photogrammetry: An addendum to the Manual of Photogrammetry. ASPRS, Bethesda, Maryland, 247 p.
Baehr, H.P. (1985). Digitale Bildverarbeitung. Anwendung in der Photogrammetrie. Helbert Wichmann
Verlag, Karlsruhe.
Berry, J.K. (1988). Maps as data: fundamental considerations in computer assisted map analysis.
GIS/LIS’88 Proceedings, San Antonio, Texas, 273-284.
Chen, L.Ch. y Lee, L.H. (1993). Rigorous Generation of Digital Orthophotos from SPOT Images. PE&RS,
59(5), 655-661.
Dick, V.A.; Lawson, J.A.; Smith, J.D.; Beach, R.J. (1982). Computing - An Introduction to Structural
Problem Solving using PASCAL. Reston Publ. Co., Reston, Virginia, 625 p.
El-Manadili, Y. y Novak, K. (1996). Precision Rectification of SPOT Imagery using the Direct Linear
Transformation Model. PE&RS, 62(1), 67-72.
Jensen, R.J. (1986). Introductory Image Processing. Prentice-Hall, Englewood Cliffs, Nueva Jersey. 379 p.
Keating, T.J. y Boston, D.R. (1979). Digital Ortophoto Production Using Scanning Microdensitometers.
PE&RS, 45(6), 735-740.
Knabenschuh, M. (1998). Experiences with Digital Orthophotoproduction. Proceedings 3rd Course of
Digital Photogrammetry. Institute of Photogrammetry University of Bonn.
Konecny, G. (1979). Methods and Possibilities for Digital Differential Rectification. PE&RS, 45(6), 727-
734.
Kraus, L. (1992, 1997). Photogrammetry. Vol. I: Fundamental and Standard Processes. 4ª Edición. Vol. II:
Advanced Methods and Applications. 4ª Edición. Ed. Dümmler, Colonia, Alemania. 397 p. (vol. I), 466
p. (vol. II). ISBN: 3-427-78684-6 (vol.I); 3-427-78694-3 (vol.II)
LH Systems (1994,1995,1999). Información de la compañia.
LH Systems (1999b). Socet Set v.4.2 User=s manual. 802 p.
Mayr, W. y Heipke, C. (1988). A Contribution to Digital Orthophoto Generation.IAPRS, Kyoto (Japón),
27(B11): IV430-IV439.
Meylan, D. (1996). An Introduction to Digital Printing Techniques. OEEPE Workshop on the Application
of Digital Photogrammetric Systems. Ecole Polytechnique Fédérale du Lausanne. 4-6 Marzo.
1.10 Novak, K. (1992). Rectification of Digital Imagery. PE&RS. 58(3), 339-344.
582      ORTOFOTOGRAFÍA DIGITAL 

O'Neill, M.A. y Dowman, I.J. (1988). The Generation of Epipolar Synthetic Stereo Mates for SPOT Images
using a DEM. IAPRS, Kyoto (Japón), 27(B3): 587-598.
Piedfort, J. (1999). Financial Aspects and Economics of Tenders. OEEPE Workshop on Automation in
Digital Photogrammetric Production, Marne la Vallée, 22-24 Junio. Official Publication n137, pp. 399-
404.
Rosenfeld, A. y Kak, A. (1982). Digital Picture Processing. vol.2. 20 Ed. Academic Press. Nueva York,
349 p.
Southard, G.W. (1994). True Orthophoto Capabilities of SOCET SET. Englewood, Colorado. Leica/Helava
Inc. 8p.
U.S. Bureau of Budget (1947). United States National Map Accuracy Standards. U.S. Bureau of the
Budget, Washington.
Wiggenhagen, M. (1999). Remarks on Quality Control of Digital Orthophotos. OEEPE Workshop on
Automation in Digital Photogrammetric Production, Marne la Vallée, 22-24 Junio. Official Publication
n137, pp. 325-327.
Wolf, P.R. (1987). Elements of Photogrammetry with Air Photo Interpretation and Remote Sensing.
McGraw-Hill, 20 Ed., Singapur, 628 p.

IAPRS: International Archives of Photogrammetry and Remote Sensing


PE&RS: Photogrammetric Engineering & Remote Sensing
Capítulo 11. Aplicaciones No Cartográficas de la
Fotogrametría Digital

11.1 Introducción.
11.2 Aplicaciones industriales.
11.3 Aplicaciones arquitectónicas y de conservación del patrimonio.
11.4 Aplicaciones médicas.

11.1 INTRODUCCIÓN
Dentro de este capítulo se van a presentar una serie de ejemplos de aplicación de
la metodología fotogramétrica sobre imágenes digitales a diversos campos.
Evidentemente, la lista de los ejemplos presentados no pretende ser exhaustiva, sino
simplemente poner de manifiesto las posibilidades de la metodología, por dicha razón,
los ejemplos presentados se centran en aplicaciones de las denominadas no
topográficas ya habiendo sido comentados en anteriores capítulos diversos ejemplos
de aplicaciones topográficas.
La Fotogrametría Digital aplicada a las aplicaciones no topográficas presenta
importantes ventajas, entre las que pueden señalarse:
S la utilización de sistemas fotogramétricos digitales simplifica
considerablemente el proceso fotogramétrico, debido al elevado grado de
automatización que incorporan dichos sistemas.
S el coste de adquisición y mantenimiento de los sistemas fotogramétricos
digitales es considerablemente menor, y además debido a que se apoyan en
sistemas de hardware estándar dichos costes se reducirán progresivamente, al
aumentarse su implantación en los procesos productivos.
S la utilización de imágenes digitales en campos donde tradicionalmente se han
empleado cámaras convencionales de formato medio permite el empleo de
escáner de formato pequeño o bien el empleo de cámaras digitales, teniendo
en cuenta que en la mayor parte de los casos las condiciones de toma se
 
583 
584  APLICACIONES NO CARTOGRÁFICAS DE LA FOTOGRAMETRÍA DIGITAL 

realizan mediante cámara estacionada. La utilización de cámaras digitales


eliminan la necesidad de procesado fotográfico convencional de la película
abriendo un importante campo a lo que se conoce como Fotogrametría en
tiempo real (Real-Time Photogrammetry).
S otra importante ventaja es la posibilidad de utilizar sistemas de captación de
imágenes en movimiento, aspecto básico para el estudio de problemas
dinámicos.
Por tanto, se abre un importante y fascinante campo de trabajo, que en nuestro país
se encuentra escasamente cubierto y que, en mi opinión, puede ser una importante
salida profesional para los futuros Ingenieros en Geodesia y Cartografía, así como de
cualquier profesional dedicado a la Fotogrametría.

11.2 APLICACIONES INDUSTRIALES


Si existe algún campo de aplicaciones no topográficas que se ha beneficiado sin
duda de la aparición de las técnicas digitales, éste ha sido la industria. Los avances
experimentados en diferentes áreas permiten que hoy en día se puedan plantear la
existencia de equipos de fotogrametría en tiempo real. Entre los avances de mayor
importancia deben indicarse los relacionados con las cámaras de video (analógicas y
digitales) en cuanto a su resolución y la puesta a punto de técnicas de calibración
geométrica y radiométrica que permiten asegurar la calidad de imagen, así como los
relacionados con los equipos informáticos que permiten la digitalización de imágenes
(si éstas han sido adquiridas con un sistema de tipo analógico) y los sistemas de
almacenamiento y posterior tratamiento de dichas imágenes. Esto ha producido que
existan diversos equipos con unas precisiones muy elevadas y con una flexibilidad
que permiten su aplicación en la producción real (Scheneider y Sinnreich, 1990;
Bruhn y Wittwer, 1991; Haggren, 1991; El-Hakim, 1986).
Con respecto a las aplicaciones industriales se puede realizar el mismo comentario
que se realizó al comienzo de este capítulo. El campo de aplicación de este tipo de
técnicas en la industria que podría ser tema para otro libro, quedando evidentemente
fuera de los objetivos de este libro realizar una revisión pormenorizada de los
sistemas, técnicas y resultados, dentro de este apartado únicamente se van a presentar
dos ejemplos que se consideran de especial interés e ilustrativos del resto de
posibilidades.
11.2.1 Aplicaciones de la Fotogrametría Digital al control dimensional en la
industria del automóvil
El ejemplo recogido en este apartado ha sido tomado de trabajos de Beyer (Beyer,
1995) cuyo objetivo era poner las posibilidades de la Fotogrametría Digital en el
control dimensional de automóviles en las pruebas de impacto. Estas pruebas de
impacto, muy difundidas en los últimos años, consisten en analizar las deformaciones
que sufre un determinado automóvil tras ser sometido a una colisión, para ello se
requiere la medición de las coordenadas tridimensionales de un número de puntos
variable entre 50 y 400, antes y después de la colisión, lo que dependiendo del método
de medida supone un trabajo entre 1 y 3 días. El objetivo es realizar la medición sobre
imágenes tomadas con cámaras de TV convencionales y empleando técnicas
FOTOGRAMETRÍA DIGITAL   585 

fotogramétricas para la determinación de las coordenadas objeto, lo que reduce el


tiempo necesario para la medida así como adecuar la medida a las necesidades del
ensayo (existe un documento de estado previo y posterior a la colisión por lo que se
puede retirar el vehículo), pudiendo ajustar el número de puntos medidos en función
de los resultados obtenidos e incluso incorporar nuevos puntos no marcados pero que
están situados en elementos característicos del automóvil.
El trabajo llevado a cabo por Beyer (1995) consiste en la determinación de las
coordenadas de 73 puntos de control situados en un automóvil (Wolkswagen Passat
Variant) introduciendo las condiciones de que sólo se emplean cámaras de video
convencionales y con el requerimiento de que los valores de coordenadas obtenidos
presenten una precisión similar a la que se alcanza con los métodos convencionales
(sistema de teodolitos industriales con precisión de 1mm) para lo cual se compararon
los resultados obtenidos mediante Fotogrametría y mediante Topografía.
En la figura 11.1 se muestra el laboratorio de medida. El coche se instala en una
plataforma giratoria con giros cada 301. Las imágenes son tomadas mediante una
sistema de dos cámaras Sony XC77CE con un objetivo de 9mm en posiciones
conocidas y en todos los lados del automóvil. Los puntos de control se materializaron
mediante marcas artificiales para facilitar la identificación de los puntos y eliminar los
errores debido a la incertidumbre del punto de medida, situandose un total de 58
puntos en el exterior del coche y 15 en el interior.

Fig.11.1. Laboratorio de medida con el automóvil sobre la plataforma giratoria y el sistema de cámaras

Las marcas empleadas fueron de material reflectivo con diámetros entre 20 y


30mm y con un pequeño punto negro en el centro que facilitaban su empleo con
ambos sistemas de medida (fotogrametría y teodolito). Las imágenes fueron
posteriormente digitalizadas con una resolución de 726x568mm con un tamaño de
pixel equivalente de 11x11µm.
La primera tarea realizada en el trabajo fue la calibración de las cámaras con el
objeto de conocer sus parámetros de orientación interna, los parámetros relativos a la
distorsión así como las funciones necesarias para realizar la transformación entre el
espacio pixel y las espacio foto (coordenadas pixel a fotocoordenadas). Para llevar a
cabo la calibración de las cámaras se diseño una estructura tridimensional de tamaño
586  APLICACIONES NO CARTOGRÁFICAS DE LA FOTOGRAMETRÍA DIGITAL 
3
4.2x2.0x1.1m con 186 puntos de control (fig.11.2). Los puntos de control fueron
materializados mediante marcas artificiales reflectivas de color negro con un diámetro
de 20mm y un punto blanco central (el tamaño equivalente en pixel de las marcas era
entre 2.4 y 4.0 pixels). Las imágenes para la calibración fueron obtenidas con giros
entre 0 y 901 con una estación de 6 puntos de toma. La identificación de los puntos
homólogos sobre la imagen fue realizada mediante el empleo de matching por
mínimos cuadrados.
Las fotocoordenadas obtenidas fueron introducidas en un ajuste de haces estando
cada punto objeto representado en un número mínimo de 9 imágenes y máximo de 48
(media de 33.5), obteniendose una precisión de 0.22, 0.10 0.56mm en X, Y y Z,
respectivamente (X e Y definidas en el plano del muro y Z en la dirección de las
cámaras). La precisión en el espacio imagen era del orden de 1/13 pixels. Es
importante tener en cuenta que la precisión estaba afectada negativamente por la
existencia de gradientes locales de iluminación en el interior de las marcas así como
las fuertes distorsiones que introduce la cámara que alcanzan las 182µm (16 pixels) en
la esquina del formato (6x8mm), que llega a ser percibido en las imágenes que capta,
así se puede observar como la imagen de la estructura empleada para la calibración
aparece deformada.

Fig.11.2. Patrón de calibración del Instituto de Geodesia y Fotogrametría de la ETH de Zurich


con las marcas en el muro y la estructura

Las coordenadas imagen de todos los puntos marcados fueron determinados


siguiendo un proceso semiautomático. En una primera fase, se realiza la medición
manual de un número bajo de marcas (4 a 6) con el objetivo de realizar la orientación
externa, con los parámetros de la orientación externa obtenidos se plantean unas
primeras aproximaciones a la localización de las marcas en cada una de las imágenes
capturadas, realizando primero la medición de las marcas externas y, por último,
cuando los resultados son lo suficientemente robustos, se procede a la medida de las
marcas internas (de mayor complejidad como consecuencia de los problemas de
visualización -radiométricos-). Los puntos fueron medidos mediante un
procedimiento de matching por mínimos cuadrados a una velocidad aproximada de 8
FOTOGRAMETRÍA DIGITAL   587 

puntos por segundo (utilizando una estación de trabajo Sun SparcStation 1), cifra que
sin duda puede ser mejorada con las estaciones actuales.
Los resultados finales ponen de manifiesto una discrepancia entre los valores
obtenidos mediante teodolito y los obtenidos a partir de la fotografías del orden de
0.3mm (error medio cuadrático tras aplicar una transformación de similaridad). Así
las precisiones deducidas son de 0.42, 0.30 y 0.76mm -XYZ- que suponen una
precisión en espacio imagen del orden de 1/20 de pixel (0.52 y 0.57µm -xy-). En
cuanto al tiempo es importante tener en cuenta que todo este estudio piloto,
incluyendo el proceso de calibración de las cámaras se realizó en 3 días.

11.2.2 Control dimensional de grandes estructuras (industría naval)


Un trabajo con unos objetivos similares al comentado anteriormente de Beyer
(1995) fue realizado por Maas y Kersten (1994) con la diferencia de la escala de
trabajo, en este caso los objetos a controlar eran secciones de un casco de un barco
con unas dimensiones aproximadas de 25mx25mx12m y un peso de varios cientos de
toneladas, este trabajo es de gran interés debido a que problemas de dimensionado
pueden ocasionar la necesidad de realizar complicados y costosos trabajos de ajuste
entre las diferentes secciones.

Fig.11.3. Imagen de la zona de la puerta tomada con la cámara 1, mostrando los


problemas derivados de la baja resolución de la cámara y el efecto del blooming
(imagen transformada a negativo para la mejor identificación de las marcas)

El planteamiento de este trabajo es similar al anterior, se emplean una serie de


marcas artificiales reflectivas (en torno a 50) con un tamaño de 20mm (distancia de
toma 50m) realizandose la captura de las imágenes en condiciones reales de trabajo
(es impensable el detener el trabajo de los astilleros para realizar el control
dimensional de la sección), lo que implica la existencia de vibraciones, luces -
588  APLICACIONES NO CARTOGRÁFICAS DE LA FOTOGRAMETRÍA DIGITAL 

provenientes de soldaduras- indeseadas, diferencias de temperaturas, oclusiones, y


necesidad de alejarse en exceso para realizar ciertas tomas por motivos de seguridadY
que afectarán al resultado final pero que es imposible de separar del proceso propio de
trabajo.
El tipo de cámara utilizada para realizar la captura fue una cámara digital Kodak
DCS-200, que es simplemente una cámara reflex normal Nikon 8008s a la que se le
ha incorporado un sistema de captura de imágenes digital del almacén de la película
convencional. Esta cámara permite el almacenamiento de un número máximo de 50
imágenes con una resolución de 1524x1012 pixels (14mmx9.3mm), siendo de
funcionamiento totalmente autónomo.
Para la toma de las imágenes se empleo un objetivo de 18mm (equivalente a un
45mm en una cámara de 35mm) y se realizaron imágenes desde 5 estaciones (por
problemas de seguridad), tomandose en cada estación un total de 2 fotografías,
realizándose en algunas estaciones imágenes rotadas 901 y 1801 para comprobar la
calibración de la cámara, con un total de 19 imágenes.
Las precisiones alcanzadas en este trabajo fueron del orden de 0.60, 1.7, 0.75mm -
XYZ-, es decir, unas precisiones del orden de 1:40000 teniendo en cuenta las
dimensiones del objeto, al respecto es importante tener en cuenta que como ha sido
comentado con anterioridad las condiciones de trabajo no fueron las óptimas,
pudiendo alcanzar precisiones mayores con otras condiciones (los autores plantean
precisiones de 1:75000 a 1:90000). En cuanto al error en espacio imagen son del
orden de 0.45-0.49µm, que implica una precisión en el espacio imagen del orden de
1:20000 a 1:30000, cifras que difícilmente se pueden alcanzar con una cámara
convencional de pequeño formato.
11.2.3 Aplicaciones para la determinación de trayectorias de objetos en
movimiento (hidráulica)
Existen un elevado número de aplicaciones industriales que requieren establecer
no sólo las coordenadas de unos determinados puntos sino la trayectoria que
describen los mismos al desplazarse. Uno de los ejemplos más característicos es el
estudio de fluidos en Hidromecánica en donde es básico la caracterización espacio-
temporal de las características del fluido.
Las técnicas básicas que se han empleado hasta la actualidad han sido la
anemometría doppler láser y la fotografía convencional (con cámara de alta velocidad
o cámara de cine). El primer método tiene el grave inconveniente de su complejidad
técnica y que sólo proporciona información de tipo bidimensional aunque con una
precisión muy buena aunque limitada a nivel de un punto. El empleo de técnicas
fotográficas convencionales elimina el problema de la obtención de la información
tridimensional aunque la aplicación de las técnicas fotogramétricas convencionales a
este problema no es un problema sencillo, debido fundamentalmente al elevado
número de imágenes que intervienen y a la falta de referencias claras para efectuar las
medidas.
FOTOGRAMETRÍA DIGITAL   589 

Sección del canal

Proyector
Espejo

Videograbador 1 Cámaras CCD


Motor
Generador
de patrón
Videograbador 2

Videograbador 3 Raíl Láser

Sincronizador

Fig.11.4. Sistema de medida fotogramétrica de trayectoria en fluidos (Maas,1991)

Maas (1991) plantea la posibilidad de realizar la determinación de las


características hidrodinámicas de un fluido mediante el empleo de un sistema de
cámaras CCD y aplicando los métodos de fotogrametría digital. El sistema propuesto
que se muestra en la figura 11.4 estaba formado por un conjunto de 3 cámaras CCD
sincronizadas que se desplazaban sobre un raíl en la misma dirección y velocidad que
el flujo que discurría sobre un canal en el que se añadían una serie de marcas con un
tamaño de 50µm de forma que fueran perceptibles en las imágenes pero que no
afectarán al flujo. El procedimiento de trabajo se puede dividir en cinco etapas:
- captura de las imágenes y digitalización
- técnicas de realce de la imagen y segmentación
- determinación de correspondencias entre las diferentes imágenes
- determinación de coordenadas
- determinación de trayectorias
La captura de imágenes se realizó empleando 3 cámaras CCD sincronizadas
(Aqua TV HR 480, de formato de 2") realizandose la iluminación de las marcas
mediante un sistema de rayo láser sincronizado con las cámaras con una duración de
4ms que ilumina una zona de canal de 150x150x20 mm3 y que se desplaza en el
mismo rail que las cámaras. El experimento tiene una duración de 15 s con lo cual el
número de imágenes disponibles es de 1125 (3 cámaras * 25 imágenes/s * 15 s). El
elevado número de imágenes impide el almacenamiento en tiempo real en formato
digital recurriendose a un almacenamiento en formato analógico y su posterior
digitalización.
Previamente a la captura de las imágenes reales se procedió a la calibración del
sistema empleando una placa de calibración de tamaño 220mmx220mm con 85
puntos de control localizados en 2 planos, cuyas coordenadas fueron determinadas
con una elevada precisión, realizandose la calibración antes y después de cada ensayo.
El tratamiento digital aplicado a las imágenes es muy simple, consiste en intentar
realzar las partículas de color claro frente al fluido de color oscuro. Para ello se aplica
un filtrado de paso alto para eliminar las irregularidades del fondo y posteriormente se
590  APLICACIONES NO CARTOGRÁFICAS DE LA FOTOGRAMETRÍA DIGITAL 

extraen las partículas mediante una binarización de la imagen, realizandose


posteriormente el cálculo del centro de gravedad de las partículas. El problema más
importante que aparece en el proceso de medida es el elevado número de partículas
(2000 a 3000) que produce problemas de solapamiento (oclusiones) que dificultan el
proceso de medida. Por tanto, es necesaria la realización de un análisis de
correspondencia entre las diferentes imágenes disponibles.
El análisis de correspondencia entre las diferentes imágenes se basa en la
utilización de la geometría epipolar, que reduce el problema de la búsqueda de los
elementos homólogos de dos a una dimensión, aunque es necesario tener en cuenta
que debido a los problemas de distorsión de la lente, los puntos homólogos se sitúan
en lugar de sobre una línea recta sobre una línea curva. Además si se conocen los
rangos de profundidad es posible establecer también límites en cuanto al paralaje
previsto (en el caso concreto de este estudio la longitud de la línea epipolar
considerada era de aproximadamente 50 píxeles). Para asegurar la localización de los
puntos homólogos a la línea epipolar se le añade una cierta tolerancia, convirtiendola
en una banda epipolar. En las condiciones favorables sólo existe un candidato en el
área seleccionada que será elegido como homólogo, el problema surge cuando no
existe ningún candidato, caso en el cual es necesario ampliar los valores de tolerancia
considerados o bien existen varios candidatos, situación que se resuelve introduciendo
una tercera cámara (fig.11.5 y 11.6).
A

D
C

b’ a’ a“ b“

Fig.11.5. Ejemplo de una ambigüedad sin solución utilizando dos cámaras


Imagen 1 Imagen 2

P A
B C

Imagen 3
D

Fig.11.6. Ejemplo de la formación de tripletas consistentes.


En la imagen 2 existen 3 candidatos para el punto P (A,B,C) y también tres
candidatos en la imagen 3 (D,E,F), por tanto, sólo la tripleta P,B,E es consistente
FOTOGRAMETRÍA DIGITAL   591 

Una vez que las correspondencias han sido establecidas, se calculan las
coordenadas objeto de los puntos mediante la aplicación de la ecuación de
colinealidad con parámetros adicionales para la corrección de la distorsión de la lente
y de la geometría del sensor, junto con la consideración del cambio del indice de
refracción del medio aplicando las expresiones empleadas en la Fotogrametría
subacuática (fig.11.7).
Plano del sensor

n1=aire
N

e n2=vidrio

n3=agua
d

R ∆R P
P
R

Fig.11.7. Geometría de la trayectoria de los rayos

El último problema que se plantea es la definición de las trayectorias de las


partículas, evidentemente la complejidad de la determinación crece al aumentar el
número de partículas y dependerá de las características del flujo. El problema no es
simple, en especial, si el desplazamiento entre dos instantes de tiempo consecutivos es
mayor que la distancia media entre las partículas. La solución al problema no es
simple y se basa en un conocimiento aproximado de las características del flujo
auxiliado con la correlación entre imágenes consecutivas que debido a la proximidad
temporal presenta una fuerte correlación radiométrica.
Los resultados obtenidos de este experimento permiten la determinación correcta
de un número en torno a 700 partículas (de las 2000 ó 3000 existentes) pudiendo
representarse los resultados en forma de vectores de velocidad en los tres ejes XYZ.
La desviación típica de las coordenadas calculadas son de 0.08, 0.09 y 0.22mm -XYZ,
siendo XY la dirección del flujo y Z la profundidad-, para un volumen de
150x150x20mm3. El tiempo de cálculo para una tripleta de imágenes es de 30 a 40
segundos, incluyendo desde el preprocesamiento de la imagen hasta la determinación
del desplazamiento de las partículas (fig.11.8).
592  APLICACIONES NO CARTOGRÁFICAS DE LA FOTOGRAMETRÍA DIGITAL 

Fig.11.8. Vectores de velocidad obtenidos a partir de la trayectoria de las


partículas en un tiempo de 1s. Arriba: plano XY; Abajo: plano XZ

11.2.4 Aplicaciones a la ingeniería civil (control de estado del pavimento)


Dentro de este apartado se ha seleccionado una aplicación por su indudable
utilidad, el control del estado del pavimento). La tarea de mantenimiento de las
carreteras pasa por contar con sistemas de adquisición de información del estado de
las mismas a fin de gestionar adecuadamente los recursos y tomar las medidas
oportunas en aquellos lugares que así lo demanden. Actualmente los análisis del
estado de las carreteras se suele realizar mediante vehículos que recorren la carretera
y un grupo de técnicos anota (manualmente o con el auxilio de un ordenador) el
estado de la carretera por la que discurren, evidentemente esto conlleva el que el
desplazamiento del vehículo sea lento y que la apreciación del estado sea subjetiva y
dependa del operador que toma las anotaciones.
Georgeopoulos et al (1995) diseñaron un sistema de adquisición de la información
necesaria basado en la adquisición de imágenes y su posterior tratamiento
fotogramétrico. El trabajo a desarrollar consta de dos etapas, en primer lugar es
necesario la captura de la imagen de la zona afectada, y, en segundo lugar, se tratarán
dichas imágenes y se cuantificará el estado del pavimento.
La primera etapa se realiza en un vehículo que se desplaza por la carretera dotado
de una cámara y un sistema de almacenamiento de las imágenes (digitales o
analógicas). Las imágenes una vez almacenadas son trasladadas al laboratorio en
donde se realiza el tratamiento de las mismas consistente en una binarización con el
objeto de separar la zona afectada del resto del pavimento y, por último, la
identificación del tipo de deterioro existente.
La identificación del tipo de deterioro consta de dos etapas: en primer lugar, se
realiza la vectorización de la imagen binaria. Los vectores obtenidos (en función de su
orientación, longitud, paralelismo y densidad por unidad de área) son empleados para
establecer el tipo y grado de deterioro sufrido por la carretera.
El diagrama de flujo del programa se muestra en la figura 11.9.
FOTOGRAMETRÍA DIGITAL   593 

Fichero vectorial

Direcciones de los vectores

Agrupamiento de los vectores en horizontales y verticales

Primera clasificación en: horizontal, vertical y cuarteada (cocodrilo)

Transversal ANÁLISIS DE LA POSICIÓN


No Identificación
o RELATIVA DE LOS VECTORES de polígonos
Longitudinal? VERTICALES Y HORIZONTALES

Existen vectores Tamaño de


paralelos? Sí polígonos

No

TIPO DE DETERIORO TIPO DE DETERIORO


Transversal o Bloque o
Longitudinal Cuarteado

Anchura de las grietas


Anchura de las grietas
Presencia de uniones y ramificaciones

GRADO DE DETERIORO
Bajo
Medio
Alto

Determinación del
Longitud de los vectores bloque más pequeño
definido por las grietas

Area del bloque obtenido

DENSIDAD DE DETERIORO DENSIDAD DE DETERIORO


en metros en metros cuadrados

INFORME FINAL
Tipo de deterioro
Grado
Densidad

Fig.11.9. Diagrama de flujo para el programa APDIS –Programa para la


evaluación automática del deterioro del pavimento-
594  APLICACIONES NO CARTOGRÁFICAS DE LA FOTOGRAMETRÍA DIGITAL 

Este programa ha sido sometido a un control de resultados comparando los


resultados que se derivan del mismo con datos tomados directamente sobre el terreno.
Para la realización del test se empleó una cámara no métrica de formato de 35mm y
las diapositivas fueron digitalizadas con un escáner plano a 600ppp, las imágenes tras
ser preprocesadas para mejorar su respuesta radiométrica y reducir el nivel de ruido
fueron transformadas a binarias (fig.11.10), para introducirlas en el programa de
interpretación automática.

Fig.11.10. Ejemplos de imágenes de pavimento afectado por un deterioro tipo Acocodrilo@.


Sup.izq: Imagen digital original; Sup.der.: Imagen realzada; Centro izq.: Imagen binaria;
Centro der.: Imagen binaria con reducción del nivel de ruido; Inf.izq.: Imagen binaria
dividida en subáreas; Inf.der.: Resultado del procedimiento de conexión de grietas

Los resultados se resumen en la Tabla 11.1 expresandose en porcentajes el grado


de acuerdo entre las observaciones directas sobre el terreno y los resultados derivados
de APDIS.
Tabla 11.1. Comparación entre los resultados de APDIS y las verificaciones sobre el terreno
Tipo de deterioro Tipo Grado Densidad/extensión
Longitudinal 86 83 100
Bloques 100 80 100
ACocodrilo@ 100 50 100
Transversal 72 80 87
Sin grietas 90 --- ---

Como puede observarse los resultados alcanzados son muy buenos, a excepción de
la determinación del grado de deterioro en el tipo Acocodrilo@, esto se debe a que este
FOTOGRAMETRÍA DIGITAL   595 

tipo de deterioro cuando el grado es elevado produce la removilización del pavimento


no siendo interpretado correctamente por el sistema.

11.2.5 Robótica
La robótica es la tecnología relacionada con el diseño y fabricación de autómatas
o robots. En la actualidad constituye una de las ramas de la industria básicas para el
desarrollo de diversas actividades como por ejemplo, montajes, inspección,
navegación, transporte, aplicaciones médicas, Y. Los robots que son capaces de
interaccionar con el medio a través de la captura e interpretación de imágenes del
mismo son denominados robots con visión y pueden ser considerados como un tipo de
máquinas inteligentes. Las funciones básicas que debe incorporar una máquina
inteligente son la comprensión de órdenes, la interacción con el entorno y la
resolución de problemas. La comprensión de órdenes se refiere a la interacción entre
la máquina y el operador humano y varía en función del tipo de máquina y en el grado
de la instrucción desde el cómo al qué. La interacción con el medio se refiere a la
capacidad de la máquina de percibir, razonar, comprender, planear y ejecutar en
función de las características del medio que le rodea. Para la percepción se pueden
emplear una amplia variedad de sensores entre los que se pueden citar: visión, fibra
óptica, ultrasonidos, microondas, inerciales (acelerómetros), dedos táctiles, Y.
Las características que debe cumplir un sistema para que sea empleado en visión
robótica vienen determinadas por la necesidad de la retroalimentación con la
máquina. La información proveniente de la visión debe ser procesada rápidamente,
puesto que, diversas acciones de la máquina se apoyan en dicha información. Por
tanto, los sistemas de visión robótica pueden ser considerados como sistemas
fotogramétricos digitales de rango cercano en tiempo real que deben cumplir las
siguientes características:
a) capacidad para el autodiagnóstico,
b) alta precisión y rendimiento (basado en la redundancia de datos
proporcionados por el sensor),
c) flexibilidad de trabajo para las funciones de reconstrucción 3D.
La aplicación de los sistemas de visión automatizada a los robots es una técnica
muy reciente. Así, al final del 1982 sólo existían muy pocas instalaciones industriales
usando robots con visión en los Estados Unidos, cifra que se eleva hasta el centenar a
finales de los 80. No obstante, es importante tener en cuenta que los sistemas
existentes no cumplen en su mayoría las tres condiciones impuestas anteriormente,
estando su diseño planteado para trabajar en unas determinadas condiciones muy
concretas y en la mayoría de los casos sin incorporar sistemas de autodiagnóstico.
El primer problema que se plantea para el diseño de una solución
fotogramétricamente robusta y rigurosa es que el rendimiento de adquisición y
procesamiento de datos debe ser muy rápido. Así es necesario tener en cuenta que una
cámara CCD genera una cantidad aproximada de 0.25Mb por imagen, lo que supone
6.25Mb/s considerando una frecuencia de 25Hz (o 12.5Mb/s si se trabaja con
imágenes estéreo) (fig.11.11). Estas cifras son difícilmente alcanzables con los
sistemas informáticos actuales, salvo que ciertas operaciones sean incorporadas
596  APLICACIONES NO CARTOGRÁFICAS DE LA FOTOGRAMETRÍA DIGITAL 

directamente en el hardware de la máquina mediante el diseño de procesadores


específicos para cada tarea. En la figura 11.12 se muestran las distintas etapas de
procesamiento y el hardware asociado para un sistema de visión general.
Velocidad de adquisición
de datos (Kb/s)
AA
15000
270Mb
12500
NRTP RTP
6250 0.25-0.50Mb

270Mb
2250 TH

16Mb
35
27 TA
32Mb

1 semana 1 día 1 hora 1 min 1 seg 25Hz Frecuencia de


video procesamiento

Fig.11.11. Tiempos de adquisición y de procesamiento de diferentes sistemas fotogramétricos.


AA: Aérea Analógica RC-10 1:10000, p=60%; RTP: Fotogrametría Tiempo Real CCD, sistema
mono/estéreo; TH: Terrestre híbrida CRC-1 (23x23cm), TA: Terrestre analógica, 35Kb/s (Hasselblad
6x6cm), 27Kb/s (9x12cm SMK). Tamaño de pixel considerado en la fotografía analógica 15µm

Retroalimentación Operador
Control del
y/o
proceso
Sistema experto

Generación Adquisición Reconocimiento Extracción de


Preprocesamiento Posicionamiento
de la imagen de la imagen Localización información

Interacción del operador


Presentación de imágenes
y resultados
Iluminación Cámaras
Tarjeta Memoria Procesador Ordenador
Objetos Coprocesador
digitalizadora Bus imagen imagen principal
Señales video Imagen Bus
Imagen

Bus de datos y control

R R R
Almacenamiento

Fig.11.12.Módulos funcionales de un sistema de visión automática.


R: Integración en hardware para el procesamiento a gran velocidad

11.2.5.1 Ejemplos
A. Sistema para el control en tiempo real del brazo articulado de la plataforma
espacial Shuttle.
Pinkney (1978) y Kratky (1979) presentan el sistema que incorpora el brazo
articulado de la plataforma espacial Shuttle. Se trata de un sistema de visión
automática que proceso casi en tiempo real (near real-time) con una cámara vidicon
(30Hz) situada en el propio brazo (sistema de captura próximo al sistema de
FOTOGRAMETRÍA DIGITAL   597 

ejecución: sistema Aojo en la mano@ -eye in hand-). El satélite incorpora una serie de
puntos de referencia que se emplean para la realización del cálculo de la orientación
de la cámara mediante resección espacial obteniendose una precisión de 5mm y una
fracción de grado en la orientación.
La velocidad necesaria para el procesamiento se consigue mediante un
miniordenador PDP-11/45 que realiza la resección espacial en 14 ms (el 50% del
tiempo del ciclo de video 33 ms), este tiempo de procesamiento puede ser reducido a
3 ms en el caso de las aproximaciones iniciales, sacrificando precisión a cambio de
velocidad.
B. Sistema para la estéreopsis
Hobrough y Hobrough (1985) presentan el sistema STEREOPSIS, que consiste en
un sistema para la transformación -de una forma totalmente transparente al usuario-
de dos señales de video bidimensionales a un modelo digital tridimensional del
espacio de trabajo. El sistema proporciona información de la profundidad para cada
uno de los pixels del área del modelo cada 17ms, es decir, a una velocidad superior a
la del sistema de visión humano, para ello utiliza integración en hardware de diversas
funciones (detectores de bordes, monitores de objetos, sistema para evitar colisiones,
etc.).
C. Robot para jugar al tenis de mesa
Beyer et al (1989) diseño un robot que juega al tenis de mesa. Para ello el sistema
incorpora dos cámaras CCD y los componentes de hardware que se muestran en la
figura 11.13. El sistema tiene una velocidad de respuesta de 80ms y las coordenadas
tridimensionales de la pelota son disponibles cada 40ms, mientras que las
coordenadas imagen son extraídas cada 20ms. El esquema de temporización se
muestra en la figura 11.14.

Estrategia Posición de la pelota Sistema de visión estereoscópica


y modelo y tiempo (MC 68000)
de trayectoria
(MC 68020)

Controlador
del Mano del robot
movimiento
de la mano
VME-bus

Motores de
Controlador desplazamiento
del movimiento de la mano
del robot
(MC 68000)

ADDA

Contadores Motores de
desplazamiento
del robot
Memoria

Fig.11.13. Sistema de adquisición de datos y elementos de procesamiento del robot


598  APLICACIONES NO CARTOGRÁFICAS DE LA FOTOGRAMETRÍA DIGITAL 
Tiempo tras
0 ms 20ms 40ms 60ms 80ms
suceso

Tarea Obturador Lectura del sensor Cálculo de: - Extrapolación del Inicialización y control
electrónico Generación del video - Coordenadas pixels modelo de trayectoria de todos los movimientos
y sincronización a partir de los momentos - Estrategia de juego del robot y de la raqueta
Cálculo de los momentos - Transformación coordenadas - Obtención de parámetros
Suma de pixel blanco pixel a coordenadas imagen para los controladores
- Corrección de errores - Orientación, velocidad y
sistemáticos momento de impacto de
- Coordenadas 3D la raqueta

Entrada al Nivel de corte Parámetros para:


(threshold level) - Transformación pixel a imagen
sistema - Orientación de las cámaras
- Errores sistemáticos

Transmisión Imagen Suma de momentos Posición 3D y tiempo Parámetros de la pelota devuelta

Control del
Estrategia y
Interface Procesador del movimiento
modelo de del robot
Cámaras CCD procesamiento sistema de visión trayectoria
de la señal MC-68000 MC-68000
MC-68020
Contadores ADDA

Video y
sincronización
Procesamiento
Analógico Digital Software

Fig.11.14. Tareas, temporización y elementos de hardware del robot.

11.3 APLICACIONES ARQUITECTÓNICAS Y DE CONSERVACIÓN DEL


PATRIMONIO
Una de las primeras aplicaciones no topográficas de la Fotogrametría fue la
utilización con fines arquitectónicos para la obtención de documentos con carácter
métrico de los edificios de interés. La preocupación por disponer de registros de los
bienes considerados de interés cultural ha sido una constante desde hace varios siglos,
si bien a partir de la II Guerra Mundial el interés ha ido en aumento. Así la Carta de
Venecia del Consejo Internacional de Monumentos y Lugares (ICOMOS) y su
versión revisada de Australía establece que cualquier acción a realizar Adebe ser
precedida de un estudio profesional que ponga de manifiesto las evidencias físicas,
documentales o de cualquier otro tipo, y el tipo de construcción previo a la alteración
del elemento a reconstruir.
La Fotogrametría indudablemente tiene un papel de gran importancia a la hora de
establecer esos documentos previos, en especial si se consideran las nuevas técnicas
de tipo digital. No en vano existe un cómite específico (Comité Internacional de la
Fotogrametría Arquitectónica -CIPA-) así como una comisión (Comisión V) de la
Sociedad Internacional de Fotogrametría y Teledetección -ISPRS-.
La aplicación de las técnicas fotogramétricas al registro de monumentos es tan
antigua como la propia Fotogrametría, así es necesario tener en cuenta que la
Fotogrametría inicialmente es terrestre, puesto que se inventó antes de la aparición y
difusión de la aviación. Hasta hace pocos años, el trabajo con restituidores de tipo
analógico imponía que los modelos debían seguir el caso normal (con ejes paralelos y
la cámara en posición vertical) extrapolando las metodologías empleadas en
Fotogrametría Aérea al caso terrestre, con la ventaja adicional de disponer de un
control mayor sobre la posición de la cámara y su orientación en el momento de la
FOTOGRAMETRÍA DIGITAL   599 

toma. La aparición de los sistemas fotogramétricos de tipo analítico permite una


mayor flexibilidad, puesto que, la formación del modelo se realiza de una forma
numérica no existiendo limitaciones en cuanto a la formación del mismo, además
estos sistemas permiten la corrección de las distorsiones del objetivo en tiempo real,
por lo que permite la utilización de cámaras de tipo semimétrico, de menor coste y
mayor portabilidad.
La introducción de la metodología digital en el tratamiento de las imágenes
fotogramétricas digitales introduce unas nuevas posibilidades en cuanto a
automatización del proceso y a la obtención de nuevos productos resultantes como,
por ejemplo, visualizaciones fotorrealísticas o animaciones.
Los objetivos que debe cumplir un sistema fotogramétrico digital aplicado al
tratamiento de imágenes arquitectónicas son:
1. Proporcionar la información necesaria para realizar una descripción
geométrica y semántica del objeto.
2. Permitir la adquisición y procesamiento de la información de una forma
rápida y cómoda.
3. Producir productos tales como simulaciones, animaciones, manipulaciones
dentro de un sistema CAD.
Otro aspecto importante es que el sistema permita la entrada de imágenes tomadas
con diferentes tipos de cámaras, desde cámaras métricas de tipo analógico a cámaras
digitales, o incluso, cámaras no métricas o cámaras de video doméstico, puesto que,
en numerosas ocasiones las imágenes disponibles del edificio a restituir suelen ser
tomadas con fines artísticos más que métricos. Por tanto, el sistema debe permitir la
entrada de fotografías de escasa resolución y trabajar con sistemas de fotogrametría
convergente para aumentar la robustez de las medidas efectuadas, dichas medidas
deben ser efectuadas de una forma automática, o al menos semiautomática, asistida
por el operador. Para lograr dicha automatización es necesario disponer de una cierta
información inicial, por ejemplo, qué tipo de edificio se va a restituir, cuál es la
información geométrica y semántica requerida tanto en la adquisición de la
información como en la representación, cuál es el tipo y calidad de los datos de
partida (imágenes, puntos de control, información acerca de la orientación y posición
de las cámaras, Y) y cuál es el grado deseado de intervención del operador en el
proceso de medida. Al respecto, es importante tener en cuenta que la Fotogrametría
Arquitectónica suele ser de compleja restitución y, por tanto, es aconsejable el empleo
de sistemas semiautomáticos que sigan el principio de la visión humana para la
interpretación de las imágenes (mediante agrupamiento) y que realicen las medidas de
una forma rápida y precisa, esto ha sido resumido en la frase Ainterpretar la imagen
como un humano y medir como una máquina@ (Streilein, 1994). Así la tarea del
operador se limita a interpretar la imagen desde un punto de vista cualitativo mientras
que el tratamiento de la información se realiza con la ayuda del ordenador.
Siguiendo estas condiciones de diseño, en el Instituto de Geodesia y Fotogrametría
de la ETH de Zurich se ha desarrollado un sistema fotogramétrico digital
automatizado conocido como DIPAD (Digital Photogrametry and Architectural
Design) cuyo diagrama de trabajo se muestra en la figura 11.15.
600  APLICACIONES NO CARTOGRÁFICAS DE LA FOTOGRAMETRÍA DIGITAL 
Cámara Procesado
Digitalización
de película fotográfico

Estación
Objeto Fotogramétrica
Digital
Cámara Sistema CAD
Imágenes
digital
Digitales

Fig.11.15. Fotogrametría Digital Arquitectónica con el sistema DIPAD

Dicho sistema ha sido sometido a diversas pruebas una de ellas recogidas en el


trabajo de Streilein (1994) en la que se plantea la restitución de un edificio de
residencia de estudiantes del campus de la ETH de Zurich mediante la utilización de
imágenes (fig.11.16) tomadas con una cámara de video doméstico. El edificio tiene
unas dimensiones aproximadas de 55m x 11m de planta y 8m de altura y la cámara
utilizada fue la JVC Camcorder GR-S77E que incorpora un sensor color de 2",
siendo posteriormente digitalizadas las imágenes con una resolución final de 728x568
píxeles. Además se diseño una red de puntos de control con un número total de 19
puntos distribuidos por la fachada y preseñalizados. El número total de imágenes
digitalizadas fue de 22, de forma que cada punto se encontraba en media en 2.3
imágenes.

Fig.11.16. Vista parcial del edificio de residencia de estudiantes del campus de la ETH de Zurich
FOTOGRAMETRÍA DIGITAL   601 

Fig.11.17. Productos generados con DIPAD

11.3.1 Otros ejemplos de aplicaciones fotogramétricas digitales para la


arquitectura y el registro del patrimonio artístico.
Los ejemplos aquí presentados son tomados de un trabajo de Ogleby (1995) que
intenta poner de manifiesto las posibilidades de la metodología digital para el registro
del patrimonio cultural, centrandose en los siguientes aspectos:
1. pinturas rupestres
2. registro arquitectónico
3. representación realística y nuevas técnicas de representación informática
602  APLICACIONES NO CARTOGRÁFICAS DE LA FOTOGRAMETRÍA DIGITAL 

11.3.1.1 Pinturas rupestres


La existencia de pinturas rupestres es un hecho común a lo largo del mundo, y
suelen representar una herramienta indispensable para el estudio y compresión de
nuestros antepasados más remotos, al basarse en representaciones de sus costumbres y
rituales. El registro de estas pinturas ha sido clásicamente realizado mediante la
realización de dibujos o bocetos, utilizando cuadriculas de referencia en el caso de
que se desee una mayor precisión. Evidentemente la fotografía puede desempeñar un
papel muy importante debido a la objetividad de su representación y a la cantidad de
información que almacena. El único inconveniente es que el estado de conservación
de las pinturas suele desaconsejar el empleo de iluminación artificial. Esto dificulta la
toma de los fotogramas, si bien gracias a la posibilidad de empleo de cámaras
digitales o bien al empleo de las técnicas de realce de las imágenes sobre imágenes
analógicas digitalizadas, el rango de operatividad es mucho mayor.

Fig.11.18. Imagen original y realzada correspondiente a una pintura rupestre (Queensland, Australia)

11.3.1.2 Registro de edificios


El registro de edificios ha sido uno de los campos de aplicación más importante en
la Fotogrametría y en los próximos años tendrá aún más importancia debido a las
nuevas posibilidades de modelización 3D que proporciona la Fotogrametría Digital,
combinando la precisión métrica de la Fotogrametría con las posibilidades texturales
que proporciona el empleo de imágenes digitales.

11.3.1.3 Representación y modelización realística


Los modernos sistemas de animación y visualización realística plantean un sinfín
de posibilidades de gran interés en el registro de información relacionada con el
patrimonio artístico. Estos sistemas son capaces de generar vistas de formas y
superficies desde cualquier punto de vista, dando a cada material sus características de
superficie que poseen.
Un ejemplo de las posibilidades que ofrece este tipo de técnicas es los trabajos
llevados a cabo en las ciudades de El Qitar (Ogleby, 1991), Sukhothai y Ayuthaya.
Mediante el empleo de fotografías tomadas con cámaras de 35mm se crean modelos
tridimensionales de los edificios (templos) incluso añadiendo estatuas y detalles que
han sido retirados del lugar y trasladados a museos. En la figura 11.19 se muestra la
fotografía de una estatua de Buda, el modelo digital derivado de la estatua y su
montaje en la modelo tridimensional de reconstrucción del templo.
FOTOGRAMETRÍA DIGITAL   603 

Fig.11.19. Imagen de Buda de estilo Sukhothai. a) Imagen original, b) Modelo digital derivado,
c) Incorporación del modelo en una reconstrucción tridimensional

Existen numerosos ejemplos de estas aplicaciones como los presentados a la


reunión de la Comisión V de la ISPRS en Melbourne (1994) y el Congreso
Internacional realizado en Viena en 1996. En dichos congresos se han presentado
trabajos relativos a la rectificación digital de fotografías antiguas de edificios
(Georgeopoulos y Tournas, 1994), el uso de cámaras de video convencionales para la
creación de modelos tridimensionales en arquitectura (Streilein y Gaschen, 1994), la
generación de animaciones en video para el registro de monumentos como por
ejemplo el totem de Haida (Sawyer y Bell, 1994), la creación de modelos digitales del
terreno en estatuas (Hanaizumi et al, 1994), entre otros.

11.4 APLICACIONES MÉDICAS


La Medicina es una disciplina en la que la utilización de las imágenes es muy
frecuente, así los diagnósticos más frecuentes se apoyan en inspecciones visuales
(aspecto general del enfermo) o bien en imágenes tomadas del mismo (radiografías,
resonancias, Y), por tanto, no es de extrañar que el empleo de la Fotogrametría al
estudio del cuerpo humano sea casi tan antiguo casi como la propia Fotogrametría, así
Sheffer y Herron (1989) indican la aplicación de las técnicas fotogramétricas en la
Guerra Civil Americana (finales del s.XIX). El objetivo básico de la aplicación es la
obtención de medidas de diversos elementos del cuerpo humano, desde cuerpos
completos, extremidades, torsos, hasta medidas de detalle en paladar, mandíbulas e
incluso, retinas. Para la elaboración de estos trabajos han sido empleados sistemas
analógicos, analíticos y actualmente sistemas digitales, que aumentan
considerablemente el rendimiento al presentar un alto de automatización más elevado
y permitir el tratamiento de imágenes en movimiento casi en tiempo real.
604  APLICACIONES NO CARTOGRÁFICAS DE LA FOTOGRAMETRÍA DIGITAL 

Las aplicaciones médicas en función de sus requerimientos específicos pueden


agruparse en tres grandes grupos:
1. Aplicaciones que requieren la medida de la forma de varias superficies. Las
superficies a menudo suelen carecer de elementos característicos, en el
sentido de elementos distinguibles o textura de la imagen. La localización de
marcas (targets) es poco frecuente. Dentro de este grupo se incluyen las
medidas de partes del cuerpo humano que son accesibles desde el exterior
(cara, espalda, torso, Y) o bien de difícil acceso (dientes, mandíbulas, paladar,
retina, Y).
2. Medidas que se basan en el control de una serie de marcas y que
habitualmente se asocian a estudios de procesos dinámicos, aunque
habitualmente también incluyen la medida de la espina dorsal.
3. Medidas de diversas partes del cuerpo humano y prótesis que son medidas
empleando técnicas de fotogrametría de objeto próximo y que no están
afectadas por los requerimientos médicos.
Además es necesario tener en cuenta otras medidas que se efectúan para examen
médico interno como pueden ser radiografías, resonancias magnéticas, Y que dan
lugar a imágenes susceptibles de ser tratadas fotogramétricamente.

11.4.1 Necesidades de la medida médica


A pesar de las ventajas y las posibilidades que presenta el tratamiento
fotogramétrico de imágenes médicas, las cuales serán puestas de manifiesto en este
apartado, la verdad es que las aplicaciones reales se limitan prácticamente a ensayos
dentro del mundo de la investigación y con escasa continuidad temporal, las únicas
aplicaciones comerciales disponibles se limitan a análisis dinámicos de movimientos
corporales y a medidas de deformación, especialmente de la columna vertebral.
Este hecho sorprendente se debe a que hasta la aparición de los sistemas digitales
el proceso fotogramétrico era muy laborioso y requería contar con instrumental y
personal especializado lo que impedía su aplicación en el tratamiento médico real.
Con la aparición de los sistemas fotogramétricos digitales, la situación ha cambiado
radicalmente, los equipos presentan un grado de automatización muy elevado y
además el diseño de los equipos se basa en una concepción de equipos estándar lo que
abarata su adquisición y mantenimiento.
Las ventajas fundamentales que se pueden apuntar es que la fotografía constituye
un sistema de captura de tipo instantáneo, objetivo y global que no requiere un
contacto físico con el objeto a medir, proporcionando un documento con una elevada
información (que podrá ser obtenida a posteriori en función de las necesidades del
estudio) y de elevada precisión (que dependerá del instrumental empleado para la
captura y la medida sobre los fotogramas). Estas ventajas se hacen más patentes, si
cabe, si se comparan con las metodologías actuales como, por ejemplo, la instalación
de acelerómetros, electrogoniómetros y los sistemas de escáner médico, que suelen
ser lentos y molestos para el paciente impidiendo o interfiriendo en los movimientos
del mismo.
FOTOGRAMETRÍA DIGITAL   605 

Otra necesidad importante es que la medida realizada debe llevar asociada una
cierta información de tipo médico, por lo que es aconsejable que sea realizada por un
especialista en medicina y que el sistema sea de sencillo manejo. El interés de la
aplicación de las técnicas fotogramétricas digitales puede venir por la posibilidad de
tratamiento de la imagen digital (es importante tener en cuenta que existen muy
buenos especialistas de análisis de imágenes dentro de la medicina) y trabajando con
regiones del espectro diferentes al visible (termografías, infrarrojo, Y).

11.4.2 Medida de superficies


La medida de superficies en medicina lleva consigo una serie de características
particulares que acarrean una serie de problemas, así a diferencia de lo que sucede en
Fotogrametría aérea y/o Fotogrametría Arquitectónica (Terrestre), las medidas de la
superficie deben realizarse sobre imágenes que carecen de elementos característicos
(diferencias de textura) lo que evidentemente dificulta la aplicación de los métodos de
identificación automática de puntos homólogos (métodos de estéreo-matching). Por
otro lado, las necesidades en cuanto a la densidad de las medidas a efectuar no es alta
por lo que es un campo ideal para el trabajo con cámaras digitales de baja resolución,
lo que abarata costes, simplifica el proceso y lo acelera al evitar el proceso
fotográfico.
La utilidad de la Fotogrametría a la medida de superficies del cuerpo humano
nunca ha alcanzado gran impacto debido en parte a que cada vez más la exploración
médica es interna por lo que la medida de superficies externas queda limitada
prácticamente a estudios de tipo antropológico o cuando no es aconsejable someter al
paciente a reconocimiento que lleven implícito algún tipo de radiación (rayos X, Y).

11.4.2.1. Medidas faciales.


La realización de medidas faciales ha sido tradicionalmente un campo de
aplicación de las técnicas fotogramétricas a la medicina. Su utilidad básica es la ayuda
en las tareas de reconstrucción en cirugía así como el estudio evolutivo de las
operaciones efectuadas. Este tipo de medidas tienen dos características específicas: la
necesidad de alta precisión y resolución muy fina en las medidas y los problemas
derivados de la elevada curvatura del objeto a restituir que produce problemas en los
sistemas de estéreo-matching (fig.11.20).
En la Tabla 11.2 se muestran varios ejemplos de las configuraciones y productos
que se extraen de diversos equipos digitales.
606  APLICACIONES NO CARTOGRÁFICAS DE LA FOTOGRAMETRÍA DIGITAL 

Fig.11.20. a) Contornos superimpuestos a la ortofoto de la reconstrucción facial,


b) Visualización fotorrealística mediante la superposición de la ortofoto a un modelo digital,
c) Presentación de los diferentes resultados en las caras de un cubo (Baltsavias, 1991).
Tabla 11.2. Sistemas digitales para la realización de medidas faciales (Mitchell, 1995)
Grun y Baltsavias, Deacon et al, 1991 Banda et al, 1992 Urquhart y Siebert,
1989 1993
Uso Medida facial Morfología facial y Cirugía y estudios Aplicaciones
crecimiento de población médicas y no
médicas
Cámaras AQUA CCD COHU (699x580) Pulnix CCD Sony CCD
(604x576) Objetivo 35mm (512x80) 8bits (587x768) Objetivo
50mm
Condiciones 2 cámaras con 0.2m 2 cámaras a 2m del 4 cámaras formado 2 cámaras situadas
de toma de base y objeto objeto un arco alrededor a 3m del objeto y
situado a 3m de la cara con gran solape
Captura de Líneas verticales con Puntos según una Puntos según una Puntos aleatorios
datos diferentes espaciados malla irregular o malla irregular o
en x e y regular regular
Método de LSM, con Se seleccionan 5 ó Se extraen puntos Correlación (ABM)
estéreo introducción de 6 puntos y después significativos
Matching aproximaciones a las se realiza un LSM mediante el
orientaciones adaptativo de 8 operador de
conocidas parámetros Foerstner y
después se aplica
LSM adaptativo de
8 parámetros
Rendimiento 40min para la Precisión: 0.5mm 16000 puntos en Precisión: 0.2mm
generación de la 4000-6000 puntos 30min según una (XY) y 0.5mm (Z)
imagen final por cara malla densa con 100000 puntos en
2000 puntos con una precisión de tiempo real
0.1mm de precisión 0.5mm (dependiendo del
equipo informático
empleado)
Productos Vistas en perspectiva Modelos Modelos digitales Modelos
del modelo en renderizados, de elevaciones renderizados,
alambre, contornos y modelos en contornos y
estereopares en alambre y estereopares en la
pantalla secciones pantalla
FOTOGRAMETRÍA DIGITAL   607 

11.4.2.2. Medidas de espalda y torso


La aplicación más frecuente de las medidas fotogramétricas de torso y espalda es
para los estudio de escoliosis (desviación de columna vertebral), tanto para la
detección como para el análisis de la evolución producida por las medidas correctoras
aplicadas. La medida de torso y espalda es más sencilla que las medidas faciales
debido a su menor curvatura. En la Tabla 11.3 se muestran tres ejemplos de sistemas
fotogramétricos digitales para tal fin.
Tabla 11.3. Sistemas fotogramétricos digitales para la medida de espalda (Mitchell, 1995)
Trinder et al., 1994 Peterson et al,1993 Mitchell, 1994
Uso Medidas en maniquis Control de escoliosis Control de escoliosis
Camaras Video Sony Super-8 Video JVC Video Phillips (604x588)
(649x491)
Condiciones 2 cámaras a 1.7m del 3 cámaras a una 2 cámaras con una base de
de toma objeto y con diferentes distancia entre 1.6 y 200mm y distancia objeto de 2m
bases 2m
Textura Malla Modelo de puntos Malla
Matching ABM con una Manual LSM de 8 parámetros basado en
transformación afín de 6 la identificación de puntos
parámetros y 2 parámetros extraídos
radiométricos y
limitaciones geométricas
Rendimiento Precisión: 1-2mm Estado de diseño Precisión: 1mm
Espaciado malla: 12mm
Productos --- Modelo 3D Contornos y MDT

La medida de torsos también es de gran utilidad, especialmente para los estudios


de distribución de masas en el cuerpo. Para la medida se han venido empleando
cámaras analógicas aunque últimamente cada vez es más frecuentes el empleo de
cámaras de video y cámaras tipo CCD (solid-state). Así Wong et al (1992) realiza un
elevado número de medidas con el objeto del estudio de la distrubución de la grasa
mediante la toma de imágenes con una red de 9 cámaras CCD (con matriz de 490x800
píxeles) que son agrupadas en 3 tripletas cada una situada a 1.8m del paciente,
registrándose 6 poses distintas del paciente. Para evitar los problemas derivados de la
falta de textura se emplea un proyector de diapositivas que superpone un modelo de
puntos que serán posteriormente empleados en el proceso de matching. Los resultados
permiten el cálculo de áreas volúmenes y secciones, con errores inferiores al 5% en el
cálculo de volúmenes.

11.4.2.3 Otras medidas de superficies


Otras medidas de superficies que se han realizado sobre las medidas de
extremidades con dos finalidades fundamentales, por un lado, el estudio de la
distribución de grasa y la medida de miembros amputados para el diseño y la
construcción de prótesis; senos para prevenir enfermedades; pies, para el diseño de
zapatos correctores; paladar, dentaduras y dientes, para la fabricación de prótesis
dentales.
608  APLICACIONES NO CARTOGRÁFICAS DE LA FOTOGRAMETRÍA DIGITAL 

11.4.2.4 Resultados
Si se desea plantear una aplicación fotogramétrica para la resolución de problemas
médicos, indudablemente es necesario proporcionar al cliente o usuario la
información médica que éste demanda. Esta necesidad ya ha sido puesta de manifiesto
por diversos autores, entre los que destacan los trabajos de Hierholzer y Drerup
(1989) que intentó obtener los parámetros de curvatura de la columna vertebral en
lugar de un simple trazado de su forma; Adams et al (1989) que analizaba la
evolución mediante el trazado de vectores en un espacio tridimensional.
El resultado más demandado suele ser un análisis comparativo de superficies,
mediante el cual se pretende realizar análisis antropológicos de los pacientes, o bien
analizar la evolución de un determinado paciente a una enfermedad o tratamiento
aplicado. Para la comparación entre superficies pueden aplicarse dos métodos, el
empleo de puntos de control determinados que plantean problemas en cuanto a la
permanencia de las marcas, la selección de los puntos y los problemas para que el
sistema (que se pretende que sea totalmente automático) identifique dichos puntos, o
bien el empleo de modelos digitales totalmente referenciados a un marco externo que
nos permita la superposición inequívoca y el análisis de las diferencias entre los
sucesivos modelos generados (Pilgrim, 1989, 1991; Karras y Petsa, 1992, 1993).

11.4.3 Estudios dinámicos


El objetivo básico de los estudios dinámicos del cuerpo humano es "la
comprensión de las reglas generales que definen los movimientos humanos Y y Y
para el diagnóstico precoz y el tratamiento de problemas motores" (Ferrigno et al,
1990).
Las aplicaciones de la fotogrametría a estudios dinámicos suelen emplear marcas
artificiales (targets) con el objeto de determinar la trayectoria que siguen una serie de
puntos característicos durante el movimiento. Los estudios de movimiento requieren
disponer de una cobertura completa del paciente a fotografiar utilizándose un
esquema de cámaras múltiples. El tipo de cámaras empleado suele ser de alta
velocidad y se emplea un procedimiento de reconocimiento de patrones para el
reconocimiento de marcas (que suelen ser reflectivas), si bien no es tarea fácil porque
durante el movimiento ciertas marcas puede estar ocultas o ser difícilmente visibles al
estar situadas en zonas de sombra.
Los resultados se suelen expresar mediante esquemas que ponen de manifiesto el
movimiento según un determinado intervalo de tiempo (fig.11.21).
Un estudio de este tipo muy significativo fue el realizado por Ferrigno et al (1990)
en el que se emplearon marcas artificiales reflectivas (con tamaño variable entre 1 y
8mm) y un sistema de cámaras de televisión de tipo analógico, digitalizándose
posteriormente la señal con una resolución de 256x256 píxeles y 16 niveles de gris.
Este estudio dio lugar a la comercialización de un sistema (que ya empleaba cámaras
CCD) y que comercializa la empresa BTS (1994).
FOTOGRAMETRÍA DIGITAL   609 

Fig.11.21. Representación vectorial del movimiento de un atleta en el


momento de tomar la salida en una prueba

Otro sistema similar es el sistema VICON desarrollado por Macleod et al (1990)


que fue el primer sistema comercial para el análisis de movimientos humanos basado
en la aplicación de técnicas fotogramétricas. Este sistema emplea cámaras de video
convencionales y marcas artificiales reflectivas que son identificadas
automáticamente mediante un proceso de análisis de la imagen digital. La precisión
del sistema es submilimétrica.

REFERENCIAS BIBLIOGRÁFICAS
Adams, L.P. y Rüther,H. (1989). A stereophotogrammetric system using multiple digital cameras for
accurate placement of a proton beam. En: Grün,A. y Kahmen,H. (eds.). Optical 3D Measurement
Techniques. Proc. Conf. Viena. Herbert Wichmann, Karslruhe, pp.164-172.
Banda,F.A.S.; Müller,J.P.; Bhatia,S.N. y Bukhary,M. (1992). Automatic generation of facial DEM=s.
IAPRS, 24(B5), 893-896.
Baltsavias, E.P. (1991). Multiphoto Geometrically Constrained Matching. Tesis Doctoral. Instituto de
Geodesia y Fotogrametría. ETH Zurich, 221p.
Beyer,H.A. (1995). Automated dimensional inspection with real-time photogrammetry. ISPRS Journal of
Photogrammetry and Remote Sensing, 50(3), 20-26.
Beyer,H.A.; Fässler,H.P. y Wen,J. (1989). Real-time photogrammetry in high speed robotics. En: Grün,A.
y Kahmen,H. (eds.). Optical 3D measurement techniques. Wichmann, Karlsruhe, pp.271-280.
Bruhn,E. y Wittwer,W. (1991). Digitale Fotogrammetrische Bildauswertung im Industriellen Fahrzeugbau.
43 Photogrammetrische Woche. Universidad de Stuttgart.
1.11 BTS (1994). ELITE Motion Analysis brochure. Bioengineering Technology and Systems, Milán.
Deacon,A.T.; Anthony,A.G.; Bhatia,S.N. and Müller,J.P. (1991). Evaluation of a CCD-based facial
measurement system. Med.Inform., 16(2),213-228.
El-Hakim, S.F. (1986). A real-time system for object measurement with CCD cameras. IAPRS, 26(5), 363-
373.
Ferrigno,G.; Borguese,N.A. y Pedotti,A. (1990). Pattern recognition in automatic human motion analysis.
ISPRS Journal of Photogrammetry and Remote Sensing, 45, 227-246.
Fua, P. y Hanson, A.J. (1987). Resegmentation using generic shape locating general cultural objects.
Pattern Recognition Lett., 5, 243-252.
Fuchs,C. y Förstner,W. (1995). Polymorphic grouping for image segmentation. 5th ICCV, 1995, Boston,
175-182.
Fristch,D.; Sester,M. y Schenk,T. (1994). Test on image understanding. En: ISPRS Comm.III Symp.
Spatial Information from Digital Photogrammetry and Computer Vision, SPIE, pp.243-248.
Georgeopoulos, A. y Tournas,E. (1994). Digital rectification using a PC. IAPRS, 30(5), 102-108.
610  APLICACIONES NO CARTOGRÁFICAS DE LA FOTOGRAMETRÍA DIGITAL 

Georgeopoulos,A.; Loizos,A. y Flouda,A. (1995). Digital image processing as a tool for pavement distress
evaluation. ISPRS Journal of Photogrammetry and Remote Sensing, 50(1), 23-33.
Grün,A. y Baltsavias,E. (1989). Automatic 3D measurement of human faces with CCD cameras. En:
Baumann,J.U. y Herron,R.E. (eds.). Biostereometrics >88. SPIE, 1030: 106-116.
Haggren, H. (1991). Real-time photogrammetry and robot vision. 43 Photogrammetrische Woche.
Universidad de Stuttgart.
Hanaizumi, H.; Tsumashima,T. y Fujimura,S. (1994). Application of proximity stereometry to archaeology
-3D shape measurement of the head of a wooden statue. IAPRS, 30(5), 150.154. Herman,M. y
Kanade,T. (1986). The 3D mosaic scene understanding system. En: Pentland, A.P. (ed) From Pixels to
Predicates. Ablex Publ.Co., Norwood, N.J. pp. 322-358.
Hierholzer,E. y Drerup,B. (1989). Assessment of three dimensional scoliotic deformity by
rasterstereography. En: En: Baumann,J.U. y Herron,R.E. (eds.). Biostereometrics >88. SPIE, 1030: 9-16.
Hobrough,G.L. y Hobrough,T.B. (1995). A future for real-time photogrammetry. Vermessung,
Photogramm. Kulturtechn, pp.312-315.
Höhle,J. y Joergensen,M.P. (1996). Photogrammetry for 3D visualisation. GIM Journal, March 1996,
pp.52-55.
Karras,G.E. y Petsa,E. (1992). On detection of deformation in reconstructed body models. En: Dansereau,J.
(ed.). International Symposium on 3D Scoliotic Deformities. Fischer-Verlag, Stuttgart, pp.370-375.
Karras,G.E. y Petsa,E. (1993). DEM deformation and detection of deformation in close-range
photogrammetry without control. PE&RS, 59(9), 1419-1424.
Krabill,W.G. (1989). GPS application to laser profiling and laser scanning for digital terrain models. En:
Proc. 42nd Photogrammetric Week, Stuttgart, pp.329-340.
Krabill,W.G.; Collins,J.G.; Link,L.E.; Swift,R.N. y Butler, M.L. (1984). Airborne laser topographic
mapping results. PE&RS, 50(6),685-694.
Kratky,V. (1979). Real-time photogrammetry support of dynamic three-dimensional control. PE&RS, 45,
1231-1242.
Lin,C.; Huertas,A. y Nevatia, R.(1994). Detection of buildings using perceptual grouping and shadows.
Proc.Computer Vision and Pattern Recognition, pp.62-69.
Maas,H.G. (1991). Digital Photogrammetry for Determination of Tracer Particle Coordinates in Turbulent
Flow Research. PE&RS, 57(12), 1593-1597.
Maas,H.G. y Kersten,T. (1994). Digital Close-Range Photogrammetry in a Shipyard. GIM Journal, Agosto
1994, 25-27.
Macleod,A.; Morris,J.R.W. y Lyster,M. (1990). Highly accurate video coordinate generation for automatic
3D trajectory calculation. En: Walton, J.S. (ed.). Image-based motion measurement. SPIE, 1356, 12-18.
McGlone,J.C. y Shufelt,J.A. (1994). Projective and Object space geometry for monocular building
extraction. Proc.Computer Vision and Pattern Recognition, pp.54-61.
Mitchell,H.L. (1994). A comprehensive system for automated body surface measurement. IAPRS, 30(5),
265-272.
Mitchell,H.L. (1995). Applications of digital photogrammetry to medical investigations. ISPRS Journal of
Photogrammetry and Remote Sensing, 50(3), 27-36.
Ogleby,C.L. (1991). The surveys, visualization and animation of El Qitar. En: McClellan (ed.). El-Qitar: A
Bronze Age Fortress on the Euphrates. 197 p.
Ogleby,C.L. (1995). Advances in the digital recording of cultural monuments. ISPRS Journal of
Photogrammetry and Remote Sensing, 50(3), 8-19.
Peterson, A.E.; Durdle,N.G.; Raso,V.J. y Hill, D.L. (1993). Calibration of video cameras for scoliosis
mapping. Geomatica, 47(1), 29-38.
Pilgrim, L.J.(1989). Detection of change in three dimensional models with time -their medical application.
En: Baumann,J.U. y Herron,R.E. (eds.). Biostereometrics >88. SPIE, 1030: 130-137.
Pilgrim, L.J.(1991). Simultaneous three dimensional object matching and surface difference detection in a
minimally restrained environment. Research Report 066.08.1991. Departament of Civil Engineering and
Surveying, Universidad de Newcastle, Australia.
Pinkney, H.F.L. (1978). Theory and development of an on-line 30Hz video photogrammetry system for
real-time three-dimensional control. Proc. ISP Comm.V, Estocolmo.
Sawyer,P. y Bell,J. (1994). Photogrammetric recording and 3D visualization of Ninstints, a world heritage
site. IAPRS, 30(5), 345-348.
Scheneider,C.T. y Sinnreich,K. (1990). Concept of an optical coordinate measurement machine. SPIE
vol.1395, Close Range Photogrammetry Meets Machine Vision, pp.816-822.
FOTOGRAMETRÍA DIGITAL   611 

Sheffer,D.B. y Herron,R.E. (1989). Biostereometrics. En: Karara,H.M. (ed.). Non-Topographic


Photogrammetry. ASPRS, pp.359-366.
Streilein, A. (1994). Towards automation in architectural photogrammetry: CAD-based 3D-feature
extraction. ISPRS Journal of Photogrammetry and Remote Sensing, 49(5), 4-15.
Streilein, A. y Gaschen, S. (1994). Comparision of a S-VHS camcorder and a high-resolution CCD camera
for use in architectural photogrammetry. IAPRS 30(5), 382-389.
Trinder, J.C.; Nade,S. y Vuillemin,A.(1994). Application of photogrammetric measurements in medicine.
IAPRS, 30(5), 396-400.
Urquhart,C.W. y Siebert, J.P. (1993). Towards reat-time dynamic close-range photogrammetry. En: El-
Hakim, H.M. (ed.). Videometrics II, SPIE 2067: 240-251.
Wong,K.W.; Ke,Y.; Slaughter,M. y Gretebeck,R. (1992). A computer vision system for mapping human
bodies. IAPRS, 24(B5),: 850-855.

IAPRS: International Archives of Photogrammetry and Remote Sensing


PE&RS: Photogrammetric Engineering & Remote Sensing
612  APLICACIONES NO CARTOGRÁFICAS DE LA FOTOGRAMETRÍA DIGITAL 

También podría gustarte