Está en la página 1de 199

UNIVERSIDAD DE SANTIAGO DE CHILE

FACULTAD DE INGENIERÍA
DEPARTAMENTO DE INGENIERÍA EN INFORMÁTICA

EVALUACIÓN DE ALGORITMOS PARA CORRECCIÓN


ORTOGONAL DE IMÁGENES, OBTENIDAS MEDIANTE UAV
USADAS PARA GENERAR MOSAICOS Y MODELOS 3D

FELIPE ANDRÉS FUENTES BRAVO

Profesor guía: Master, Fernando


Contreras Botto
Profesor co-guía: Ing. Arturo Álvarez Cea
Trabajo de titulación presentado en
conformidad a los requisitos para obtener
el Grado de Magíster en Ingeniería en
Informática

Santiago - Chile

2013
© Felipe Andrés Fuentes Bravo
Se autoriza la reproducción parcial o total de esta obra, con fines académicos, por
cualquier forma, medio o procedimiento, siempre y cuando se incluya la cita
bibliográfica del documento.
RESUMEN

La fotogrametría es una ciencia que se dedica a apoyar, mediante el uso de imágenes, a


la topografía, aunque hoy en día se ha ampliado incluyendo la agricultura, la minería, el
urbanismo e inclusive la historia. Junto a ella se encuentran los UAV, que son vehículos
aéreos sin tripulantes, utilizados para sobrevolar ciertas zonas a bajo costo y sin correr
muchos peligros. Estos están ligados a la fotogrametría desde los años 1850
aproximadamente, donde se comenzó el estudio de la fotogrametría aérea.

La aerofotogrametría, como la fotogrametría, se basa en la vista humana, la cual permite


distinguir profundidades dado dos planos generados por los ojos. A estos planos se les
llama planos estereoscópicos. La fotogrametría une imágenes mediante este principio
generando mosaicos y modelos en dos y tres dimensiones. Para esto utiliza distintos
métodos, entre los cuales está el método por pasadas, el de modelos independientes y el
de haces.

Para las características del proyecto en estudio, el método por pasadas es el ideal a
implementar, el cual es comparado cuantitativa y cualitativamente con el algoritmo de
punto de fuga, utilizando para éste último la proyección de las edificaciones humanas.
Como parte del trabajo ha planteado una pregunta a responder, la cual busca verificar si
el algoritmo de punto de fuga tendrá mejores resultados que el otro método de
triangulación aérea para sectores urbanos.

También se aprovecha este trabajo para realizar las mismas comparaciones con un
software comercial, específicamente Agisoft Photo Scan.

Cabe destacar que la pregunta es respondida de forma negativa, principalmente por los
problemas que posee el algoritmo de punto de fuga para la generación final de los
modelos a utilizar. Además ambos algoritmos se ven en desventaja con Photo Scan,
dado principalmente a la experiencia que posee éste último en empresa.

Palabras Claves: fotogrametría aérea, UAV, rectificación ortogonal, Modelos 2D,


Modelos 3D.

i
ABSTRACT

Photogrammetry is a science that is dedicated to supporting, using images, topography,


although today it has expanded to include agriculture, mining, urban and even history.
Along with it are the UAV, which are unmanned aerial vehicles, used to fly over certain
areas at low cost and without running many dangers. These are linked to
photogrammetry since the 1850s about where the study of aerial photogrammetry began.

Aerial photographs, such as photogrammetry, is based on the human eye, which


distinguishes two levels deep as generated by the eyes, these planes are called
stereoscopic planes. Photogrammetry joins images by this principle generating mosaics
and models in two and three dimensions, using different methods for this, among which
is the last method, the independent models and the beam.

For the characteristics of the project under consideration, the previous method is ideal to
implement, which is compared quantitatively and qualitatively with the vanishing point
algorithm, using for the latter the projection of human constructions. As part of the
research seeks verification of the hypothesis, which indicates that the vanishing point
algorithm will perform better than the other method of aerial triangulation.

This paper also fail to make the same comparisons with specifically Agisoft Photo Scan
commercial software.

Note that both the hypothesis has been rejected by the problems that the algorithm
possesses vanishing point for the final generation of the models used. Furthermore, both
algorithms are disadvantaged with Photo Scan, mainly because the latter has experience
in a company.

Keywords: Aerial Photogrammetry, UAV, orthogonal rectification, 2D Models, Models

iii
TABLA DE CONTENIDOS

CAPÍTULO 1. Introducción .......................................................................................... 1

1.1 Antecedentes y motivación ................................................................................. 1

1.1.1 Aerofotogrametría y UAV ........................................................................... 3

1.1.2 Corrección ortogonal .................................................................................... 5

1.1.3 Mosaico fotogramétrico ............................................................................... 6

1.1.4 Modelamiento 3D....................................................................................... 10

1.2 Descripción del problema .................................................................................. 11

1.3 Pregunta de trabajo a realizar ............................................................................ 12

1.4 Solución propuesta ............................................................................................ 13

1.5 Objetivos y alcances del proyecto ..................................................................... 13

1.5.1 Objetivo general ......................................................................................... 13

1.5.2 Objetivos específicos ................................................................................. 14

1.5.3 Alcances del proyecto ................................................................................ 15

1.6 Metodología y herramientas utilizadas .............................................................. 16

1.6.1 Metodología ............................................................................................... 16

1.6.2 Herramientas .............................................................................................. 19

1.6.3 Organización del documento...................................................................... 20

CAPÍTULO 2. Fotogrametría ...................................................................................... 22

2.1 Historia de la fotogrametría ............................................................................... 22

2.2 Tipos de fotogrametría ...................................................................................... 25

v
2.2.1 Fotogrametría terrestre ...............................................................................26

2.2.2 Fotogrametría aérea ....................................................................................30

2.2.2.1 fotogrametría aérea satelital ................................................................34

2.2.2.2 Fotogrametría aérea con vehículos tripulados ....................................35

2.2.2.3 Fotogrametría aérea con vehículos no tripulados ...............................41

CAPÍTULO 3. Fotogrametría aérea con imágenes digitales .......................................43

3.1 Historia de los UAV y fotogrametría digital .....................................................43

3.2 Operaciones en las imágenes digitales ..............................................................48

3.2.1 Transformación de coordenadas.................................................................48

3.2.1.1 Transformaciones bidimensionales .....................................................49

3.2.1.2 Transformaciones tridimensionales ....................................................50

3.2.2 Orientación de la imagen............................................................................52

3.2.2.1 Sistema de coordenadas ......................................................................52

3.2.2.2 Distorsiones de las imágenes ..............................................................54

3.2.2.3 Orientaciones ......................................................................................58

3.2.2.4 Puntos de control.................................................................................63

3.2.3 Corrección de errores o remuestreo ...........................................................64

3.3 Algoritmos existentes ........................................................................................66

3.3.1 Triangulación aérea ....................................................................................66

3.3.1.1 Descripción del proceso de triangulación aérea ..................................66

3.3.1.2 Métodos de triangulación aérea ..........................................................72

3.3.2 Punto de Fuga ...........................................................................................109

3.3.2.1 Búsqueda de los objetos ....................................................................113

3.3.2.2 Movimiento del punto de fuga ..........................................................116

vi
3.4 Algoritmos de apoyo ....................................................................................... 118

3.4.1 Búsqueda de puntos en común ................................................................. 118

3.4.1.1 Método de la covarianza ................................................................... 119

3.4.1.2 Método del coeficiente de correlación .............................................. 120

3.4.1.3 Método de los valores absolutos de la tonalidad del pixel ............... 121

3.4.1.4 Método del cuadrado de las diferencias de los valores de tonalidad de


los pixeles 122

3.4.2 Disminución de ruido de la imagen ......................................................... 122

3.4.3 Corrección del solape de dos imágenes ................................................... 125

3.5 Modelos obtenidos .......................................................................................... 127

3.5.1 Modelo 2D ............................................................................................... 128

3.5.2 Modelo 3D ............................................................................................... 129

CAPÍTULO 4. Implementación ................................................................................ 131

4.1 Selección de algoritmos................................................................................... 131

4.2 Selección del lenguaje de programación ......................................................... 134

4.3 Explicación de la solución ............................................................................... 137

4.3.1 Algoritmo de triangulación aérea ............................................................. 137

4.3.2 Algoritmo de punto de fuga ..................................................................... 147

CAPÍTULO 5. Pruebas y resultados.......................................................................... 151

5.1 Pruebas ............................................................................................................ 151

5.1.1 Descripción de las pruebas a realizar ....................................................... 151

5.1.2 Datos utilizados en las pruebas ................................................................ 152

5.2 Resultados ....................................................................................................... 154

5.2.1 Resultados obtenidos por cada prueba ..................................................... 154

vii
5.2.2 Análisis de los resultados .........................................................................157

CAPÍTULO 6. Conclusiones .....................................................................................161

Bibliografía.....................................................................................................................165

Glosario de términos ......................................................................................................171

Anexo A. Requisitos del sistema....................................................................................175

A.1 Diagrama general de procesos .........................................................................176

viii
ÍNDICE DE FIGURAS

Figura 1-1: Áreas de la fotogrametría. ............................................................................... 2

Figura 1-2: Primer UAV del tipo aeroplano utilizado por Przybilla y Wester-Ebbinghaus
en 1978. .............................................................................................................................. 4

Figura 1-3: Orientación de la cámara y resultados en la escala de distorsión.................... 8

Figura 1-4: Resultado del proceso de matching sin la eliminación del ruido. ................... 9

Figura 1-5: Resultado del proceso de matching con la eliminación del ruido. .................. 9

Figura 1-6: Representación del desarrollo del software necesario para el proyecto. ....... 18

Figura 2-1: Cámara blanca basada en el prisma de Wollaston. ....................................... 23

Figura 2-2: Etapas de la fotogrametría. ............................................................................ 24

Figura 2-3: Divisiones de la fotogrametría. ..................................................................... 26

Figura 2-4: Representación gráfica de la fotogrametría de intersección.......................... 27

Figura 2-5: Castillo de Vicennes. ..................................................................................... 28

Figura 2-6: Funcionamiento del estereocomparador de Pulfrich. .................................... 29

Figura 2-7: Proyector doble de Grasser. .......................................................................... 31

Figura 2-8: Esquema del Multiplex de Gasser y von Gruber........................................... 32

Figura 2-9: Divisiones de la fotogrametría aérea. ............................................................ 34

Figura 2-10: División de las áreas de la fotogrametría aérea. .......................................... 35

Figura 2-11: Paralaje horizontal. ...................................................................................... 37

ix
Figura 2-12: Vuelo fotogramétrico ideal. .........................................................................37

Figura 2-13: Efecto de la fuerza del viento sobre la trayectoria verdadera. .....................38

Figura 2-14: Resultado del efecto de la deriva en el Paralaje Horizontal. .......................39

Figura 2-15: Problemas dado el relieve............................................................................39

Figura 2-16: Vuelo con disminución del recubrimiento. .................................................40

Figura 2-17: Planificación de vuelo con variación entre origen de imágenes. ................40

Figura 2-18: Planificación del vuelo con variación de altura. ..........................................41

Figura 3-1: Paralaje horizontal. ........................................................................................46

Figura 3-2 : Diferencia de paralaje horizontal y vertical. ................................................46

Figura 3-3: Modelo estereoscópico. .................................................................................48

Figura 3-4: Giro bidimensional. .......................................................................................50

Figura 3-5: Giro 𝛺 en la trasformación tridimensional. ...................................................51

Figura 3-6: Sistemas fiducial y coordenadas de la fotografía. .........................................53

Figura 3-7: Efecto de la distorsión del lente de la cámara. ..............................................55

Figura 3-8: Condición de coplanariedad. .........................................................................60

Figura 3-9: Condición de colinearidad. ............................................................................61

Figura 3-10: Remuestreo de imágenes. ............................................................................65

Figura 3-11: Puntos de control planimétrico (izquierda) y altimétrico (derecha). ...........69

Figura 3-12: Sistema con origen en el centro de proyección izquierdo. ..........................74

Figura 3-13: Representación de cada modelo independiente. ..........................................75

x
Figura 3-14: Formación de la pasada. .............................................................................. 76

Figura 3-15: Modelos que cumplen condiciones de haz izquierdo fijo. .......................... 77

Figura 3-16: Ajuste de escala de dos modelos consecutivos. .......................................... 78

Figura 3-17: Deformación del modelo de una pasada debido a errores. .......................... 81

Figura 3-18: Ángulo de inclinación entre modelos. ......................................................... 85

Figura 3-19: Ajuste planimétrico en triangulación aérea por modelos independientes. .. 88

Figura 3-20: Representación gráfica de la triangulación aérea por haces. ..................... 101

Figura 3-21: Condición de colineación. ......................................................................... 102

Figura 3-22: Principio del punto de fuga. ...................................................................... 109

Figura 3-23: Imágenes y su distribución de líneas en la parte superior de construcciones.


........................................................................................................................................ 111

Figura 3-24: Indicación del punto de fuga de una imagen. ............................................ 112

Figura 3-25: Matriz patrón. ............................................................................................ 119

Figura 3-26: Representación de la unión de dos imágenes. ........................................... 123

Figura 3-27: Cuatro vecinos de un pixel. ....................................................................... 123

Figura 3-28: Ocho vecinos. ............................................................................................ 124

Figura 3-29: Solape de dos imágenes. ........................................................................... 126

Figura 3-30: Modelo 2D. ............................................................................................... 128

Figura 3-31: Mallas regulares para la generación de modelos 3D. ................................ 130

Figura 4-1: Diagrama de clases del proyecto ................................................................. 136

xi
Figura 4-2: Simulación de vuelo fotogramétrico ...........................................................137

Figura 4-3: Ejemplo de pertenencia a la pasada de imágenes. .......................................138

Figura 4-4: Imagen 1 del ejemplo de pertenencia a una pasada. ....................................139

Figura 4-5: Imagen 2 del ejemplo de pertenencia a una pasada. ....................................139

Figura 4-6: Imagen 3 del ejemplo de pertenencia a una pasada. ....................................140

Figura 4-7: Imagen 4 a evaluar en la pasada de pertenencia a una pasada. ...................141

Figura 4-8: Imagen 1 de ejemplo de unión de imágenes. ...............................................142

Figura 4-9: Imagen 2 de ejemplo de unión de imágenes. ...............................................143

Figura 4-10: Imagen 3 de ejemplo de unión de imágenes. .............................................143

Figura 4-11: Unión de las imágenes de ejemplo 1 y 2. ..................................................144

Figura 4-12: Unión de las imágenes de ejemplo 2 y 3. ..................................................145

Figura 4-13: Identificación de los objetos de una imagen .............................................148

Figura 5-1: Uso de memoria en la ejecución de la prueba 2 en software Photo Scan ...155

Figura 5-2: Resultados de las pruebas en cuanto al tiempo utilizado. ...........................157

Figura 5-3: Resultados de las pruebas con respecto al uso de la CPU ...........................158

Figura 5-4: Resultados de las pruebas con respecto al uso de la memoria principal (Valor
máximo disponible 3GB) ...............................................................................................159

Figura A-1: DFD General ..............................................................................................181

xii
ÍNDICE DE TABLAS

Tabla 1-1: Herramientas de desarrollo utilizadas............................................................. 19

Tabla 3-1: Pasos a seguir en la fase de procesamiento de datos según el método


aerofotogramétrico utilizado. ........................................................................................... 71

Tabla 4-1: Características de los distintos algoritmos de triangulación aérea ............... 133

Tabla 5-1: Datos de prueba ............................................................................................ 152

Tabla 5-2: Pruebas realizadas......................................................................................... 153

Tabla 5-3: Resultados de las pruebas ............................................................................. 156

Tabla A-1: Elementos de los DFD ................................................................................. 176

Tabla A-2: Procesos del DFD General. ......................................................................... 177

Tabla A-3: Recursos internos y reportes del DFD General. .......................................... 178

Tabla A-4: Recursos externos. ....................................................................................... 180

xiii
CAPÍTULO 1. INTRODUCCIÓN

1.1 ANTECEDENTES Y MOTIVACIÓN

Los mapas han sido una herramienta muy útil a lo largo de la historia para el desarrollo
de la humanidad, ya que éstos le han proporcionado ayuda para conocer los alrededores
de sus asentamientos urbanos permitiendo así la generación de rutas de comercio entre
ciudades o de navegación para la realización de viajes. Lo mismo ocurre con los planos,
utilizados principalmente en la organización de ciudades mediante la generación de
planos urbanísticos tales como vías de escape en caso de catástrofes.

Pero no solo las ciudades se han visto beneficiadas con los planos. Muchas empresas se
han servido de las características de estos últimos, para mejorar su organización interna,
generar vías de escape, establecer la mejor ubicación para materiales y crear rutas al
interior de sus establecimientos.

En un inicio, la elaboración de planos y mapas resultaba compleja y desventajosa en


comparación con la realidad actual debido a diversas razones, entre ellas lo tedioso de su
construcción, ya que se elaboraban en base al uso de medidas y observaciones realizadas
por los propios creadores; el gran uso de recursos económicos y de tiempo,
principalmente en el viaje del personal destinado a su construcción; la pobre precisión
obtenida, dada la inexistencia de herramientas para efectuar mediciones de larga
distancia.

El desarrollo de la tecnología ha alivianado el proceso de construcción de los planos y


mapas, utilizando principalmente fotografías, las cuales mediante un proceso de unión
CAPÍTULO 1. INTRODUCCIÓN

permiten generar una vista completa del sector del cual se quiere obtener información.
Este proceso es conocido como fotogrametría.

Pero ¿qué es la fotogrametría? Según Eisenbeiss, (2009), la fotogrametría corresponde a


la ciencia que, mediante el uso de técnicas y métodos, puede deducir, a partir de una o
más fotografías, la forma y dimensiones de un objeto, obteniendo de esta forma
información cuantitativa y cualitativa de él. Durante el último tiempo ha sido
desarrollada mediante el procesamiento digital de imágenes. Su uso tiene como fin
apoyar a otras ciencias tales como la topografía, cartografía, arquitectura, agricultura y
minería, entre otras.

La fotogrametría puede ser llevada a cabo tanto terrestre como aérea, como es el caso de
Google Earth. Esta última, más conocida como aerofotogrametría, es la que actualmente
se considera para ciertos estudios de percepción remota por medio de imágenes digitales
capturadas por medio de satélites, vehículos aéreos tripulados y vehículos aéreos no
tripulados (UAV por las siglas inglesas para Unmanned Aereal Vehicle). La Figura 1-1
esquematiza las áreas de la fotogrametría previamente descritas y sus herramientas
asociadas.

fotogrametría

Terrestre Aérea

Satelital Vehiculos Vehiculos no


tripulados tripulados

Figura 1-1: Áreas de la fotogrametría.

2
CAPÍTULO 1. INTRODUCCIÓN

Para el presente trabajo es necesario estudiar la aerofotogrametría con UAV y las


principales herramientas necesarias para procesar las imágenes obtenidas, a saber:
corrección ortogonal, generación de mosaicos bidimensionales y modelos
tridimensionales.

1.1.1 Aerofotogrametría y UAV

El desarrollo de la fotogrametría aérea comienza cuando Gaspard Tournachon obtiene la


primera fotografía aérea desde un globo aerostático en Paris, en el año 1858 (Eisenbeiss,
2009). Desde entonces se ha llevado a cabo distintos experimentos en búsqueda de
nuevos métodos para capturar imágenes sin necesidad de que un ser humano pilotee un
vehículo aéreo. El vehículo de uso más frecuente en dichos experimentos es el globo,
tanto aerostático como otras versiones, aunque también se ha utilizado otros medios
como cometas, palomas y cohetes.

Existe una gran variedad de tipos de UAV, los cuales se pueden clasificar en diversas
categorías (Eisenbeiss, 2009): de ala fija y de ala móvil, como lo son helicópteros y
cuadrocópteros. La Figura 1-2 (Eisenbeiss, 2009) muestra un modelo de UAV de ala
fija.

El primer experimento con un UAV de ala fija fue llevado a cabo en 1979 por Przybilla
y Wester-Ebbinghaus, quienes utilizaron un control manual y un UAV de la empresa
Hegi1, el cual realizó el vuelo a la altura de 150 metros.

1
Las especificaciones del avión se encuentran en (Eisenbeiss, 2009).

3
CAPÍTULO 1. INTRODUCCIÓN

Desde entonces se ha diseñado distintos modelos de globos, aviones y helicópteros


manejados de forma remota para realizar la captura de imágenes digitales, los cuales, a
su vez, han sido utilizados para distintos estudios, tales como: captura de documentación
arqueológica, realización de estudios arquitectónicos y estudios de hábitats animales.

Figura 1-2: Primer UAV del tipo aeroplano utilizado por Przybilla y Wester-
Ebbinghaus en 1978.

En el año 2004, durante un congreso de ISPRS (International Society for


Photogrammetry and Remote Sensing), Nagai propone el uso de una tecnología que
integra el sistema LiDAR (Light Detection and Ranging) y cámaras CCD (Charge-
Coupled Device) con posicionamiento GPS (Global Positioning System) mediante el uso
de un helicóptero de la marca Subaru (Eisenbeiss, 2009). Durante el mismo año, la
Academia China de Topografía y Cartografía desarrolló un UAV de ala fija equipado
con una cámara, con la intención de construir modelos 3D de los edificios capturados en
las imágenes, pero, dada las condiciones ambientales, era difícil manipular el vehículo,
lo cual impedía la toma ideal de fotografías para construir estos modelos. Como
consecuencia, no fue posible utilizar estas imágenes directamente, lo que permitió el uso

4
CAPÍTULO 1. INTRODUCCIÓN

de mosaicos en 2D y una base de datos SIG (Sistema de Información Geográfica) para


reconstruir los modelos 3D deseados.

En 2006, WITAS (The Wallenberg Laboratory for research on Information Technology


and Autonomous System) propone el uso de tecnología GSM (Global System for Mobile
Communications) como medio de comunicación entre UAV, trabajo en el que se hace
uso de un teléfono móvil Sony Ericsson y el helicóptero no tripulado RMAX (construido
por Yamaha). La utilización del sistema GSM permite editar la línea del plan de vuelo,
cambiar la vista de la cámara, visualizar los mensajes de registro de vuelo e insertar y
extraer zonas de exclusión aérea durante el vuelo.

Durante el año 2007, Nebiker y Eugster, se centraron en los estudios de helicópteros y


cuadricópteros para el geo-registro de imágenes.

En los últimos años, las investigaciones orientadas al desarrollo de nuevos UAV se han
centrado en generar modelos con menor costo, teniendo como uno de sus focos
principales el desarrollo de herramientas que entreguen estabilidad de vuelo y el vuelo
pre-programado, es decir, sin el uso de controles manuales que guíen a los UAV.

1.1.2 Corrección ortogonal

Una tarea muy frecuente en fotogrametría aérea es la identificación de puntos


coincidentes en dos o más imágenes. Este proceso se dificulta significativamente al
trabajar con imágenes aéreas sin ningún tipo de rectificación debido a diversos factores,
los cuales se detallan en Caimel Benítez (2002). Como consecuencia de lo anterior, los
modelos generados a partir de las imágenes son de una calidad significativamente
inferior.

5
CAPÍTULO 1. INTRODUCCIÓN

Los sistemas LiDAR permiten la generación de modelos tridimensionales a partir de


imágenes las cuales son apoyadas mediante el uso de un láser que permite obtener las
posiciones relativas de los objetos que han sido capturados en ella. Es por esto que son la
alternativa más ampliamente utilizada para la captura de información detallada, debido a
la gran cantidad de datos de apoyo que entrega al proceso de corrección el sistema láser
pulsado a las imágenes capturadas con la cámara. Por este motivo los sistemas LiDAR
son considerados como ideales para la generación de modelos 3D (S. Gehrke, K. Morin,
M. Downey, N. Boehrer, & T. Fuchs, 2012). No obstante, existe una alternativa de
menor costo, que no incorpora el láser, que es adecuada para la generación de modelos
2D y 3D, y que además obtiene una buena corrección ortogonal: la triangulación aérea
(para la cual existen múltiples variantes) mediante la cual se puede obtener información
en los ejes de coordenadas X, Y, Z para un punto que aparezca en dos imágenes.

Según Qingyuan, Wenyang, Lei, Jinling, & You (2011), una ayuda para el proceso de
triangulación aérea es el uso de información de vuelo obtenida al momento de sacar la
imagen. Esta información se refiere precisamente a los ángulos de desviación (pitch,
roll, yaw) del UAV y a la geo-localización, otorgada mediante el uso de GPS.

Durante los últimos años se ha investigado la forma de realizar este proceso mediante el
uso de una sola imagen, utilizando la idea de puntos de fuga de los objetos, para así
generar una corrección ortogonal de cada objeto de forma independiente (Irles, Jiménez,
Oliva, & Velasco, 2005).

1.1.3 Mosaico fotogramétrico

La generación de mosaicos fotogramétricos hoy en día se realiza mediante el


seguimiento de ciertos procesos, los cuales son explicados a continuación:

6
CAPÍTULO 1. INTRODUCCIÓN

 Obtención de puntos de juntura: Es el proceso principal para la generación de


los mosaicos, ya que es obligatorio para realizar la corrección ortogonal de las
fotografías. A pesar de la existencia de algoritmos que realizan este proceso para
imágenes digitales, las herramientas de software estudiadas integran además la
posibilidad de que sea el usuario quien ingrese estos puntos. Para cada uno de ellos
es necesario conocer sus coordenadas X, Y, Z, correspondientes a la latitud,
longitud y altitud en el plano (el cual puede ser de referencia o corresponder
directamente a posiciones geográficas). El conocimiento de la coordenada Z no es
necesario para el proceso, pero permite la generación de mosaicos con mayor
detalle.

La cantidad de puntos necesarios para la realización de la corrección ortogonal


depende principalmente del software a utilizar, siendo la cota inferior encontrada
en esta investigación de diez puntos (para el software Pix4D).

 Corrección ortogonal: El ideal es que las imágenes a utilizar hayan sido


obtenidas en un ángulo perpendicular al vuelo, es decir, que la imagen sea vertical,
tal como se muestra en la Figura 1-3. Esto resulta casi imposible debido a que
durante el vuelo para la obtención de las imágenes se ve afectado por condiciones
climáticas, las cuales afectan el proceso de obtención, siendo el principal factor el
viento.

 Matching: El proceso de matching consiste en juntar las imágenes ortocorregidas


mediante el uso de los puntos de juntura de las imágenes, generando muchas veces
solape entre ellas.

 Eliminación de bordes y unificación de tonalidades: La obtención de


imágenes de un mismo sector en distintos tiempos y ángulos de captura provoca
que la tonalidad de colores sea distinta para cada fotografía. Esto se debe a la
diferencia del ángulo de iluminación y a fenómenos meteorológicos y ambientales,
tales como las nubes, al momento de la captura.

7
CAPÍTULO 1. INTRODUCCIÓN

Figura 1-3: Orientación de la cámara y resultados en la escala de distorsión.

Luego de realizar el proceso de matching de las imágenes, el modelo obtenido es similar


al que se muestra en la Figura 1-4, resultado final que entregan muchas herramientas de
software. Estos resultados no son cien por ciento útiles para los trabajos realizados por la
fotogrametría, por lo que es necesario eliminar el ruido del mosaico, conformado
principalmente por la diferencia de tonalidades de los sectores solapados de las
imágenes. Tras eliminar el ruido se obtiene un modelo como el presentado en la Figura
1-5.

Los mosaicos obtenidos tras el proceso de matching, con o sin la eliminación del ruido
de las imágenes, son llamados modelos 2D, los cuales son evaluados con respecto a
otros modelos del mismo sector generados con anterioridad para así obtener información
relativa a la corrección en la construcción de los modelos y al grado de error de éstos
últimos.

8
CAPÍTULO 1. INTRODUCCIÓN

Figura 1-4: Resultado del proceso de matching sin la eliminación del ruido.

Figura 1-5: Resultado del proceso de matching con la eliminación del ruido.

9
CAPÍTULO 1. INTRODUCCIÓN

1.1.4 Modelamiento 3D

En el ámbito de la fotogrametría, la principal herramienta de ayuda no la constituyen los


modelos 2D. Este rol ha sido asumido por los modelos 3D debido a que pueden ser más
ampliamente utilizados (Eisenbeiss, 2009; Gülch, 2011). Los modelos 3D más
comúnmente generados son los DTM (Digital Terrain Models) y los DSM (Digital
Surface Models), siendo la principal diferencia entre los DTM y DSM es que los últimos
contemplan dentro del modelado todo tipo de superficie, destacando las construcciones
humanas y otros elementos, como la vegetación; mientras que los primeros no los
incorporan.

Tal como menciona en la sección 1.1.1, se ha llevado a cabo experimentos para la


realización de modelos 3D junto al vuelo fotogramétrico, pero debido a los problemas
causados por las condiciones medioambientales se prefiere emplear mosaicos 2D como
base para los modelos 3D.

Para generar los modelos 3D es necesario tener una nube de puntos, es decir, un
conjunto de puntos definidos por sus coordenadas X, Y, Z. Es frecuente que muchos de
estos sean los mismos puntos de juntura utilizados en la generación del modelo 2D, para
los cuales no es obligatorio conocer el valor de la coordenada Z. En último caso, se hace
necesario realizar un proceso de triangulación aérea para obtener el valor de la
coordenada faltante (Pérez Benedito, J. L., Belber Arroyo, M., & Carretero Díaz, A,
2005).

Una vez obtenida la nube de puntos, ésta posteriormente se utiliza para generar una
especie de malla virtual, usualmente formando triángulos con los puntos, en la cual se
muestran las elevaciones y depresiones del terreno, sin mayor información que ésta. Tras
una segunda etapa, consistente en superponer el modelo 2D y la malla de puntos, se
obtiene finalmente el modelo 3D deseado.

10
CAPÍTULO 1. INTRODUCCIÓN

La generación de modelos 3D es sumamente costosa tanto en cantidad de cómputo


necesario como la capacidad de almacenamiento interno, lo que ha gatillado el
surgimiento de una nueva área de estudio dedicada a la determinación de nuevas
alternativas para disminuir los costos y tiempos necesarios (Loch-Dehbi & Plümer,
2011; Pérez Benedito et al., 2005).

El uso de herramientas de posicionamiento geográfico, que entregan la posición de los


objetos de manera más exacta, ha hecho que los modelos 3D sean cada vez más precisos.

1.2 DESCRIPCIÓN DEL PROBLEMA

Hoy en día existe una gran variedad de herramientas de software para generar modelos
2D y 3D y todas han debido enfrentarse al problema de cómo utilizar los recursos
informáticos (tales como el tiempo de cómputo y el uso de memoria interna) de manera
eficiente para trabajar con las imágenes digitales.

Las herramientas de software disponibles en el mercado se sirven de diversos


mecanismos para obtener los modelos, en especial los 2D, pero cada uno de dichos
mecanismos entrega mosaicos fotogramétricos de distinta calidad. Algunas herramientas
de software utilizan pocos recursos informáticos y entregan resultados paupérrimos y
otras entregan resultados significativamente mejores pero a un costo muy elevado en
cuanto a memoria y tiempo de cómputo.

En el ámbito de las herramientas de software estudiado para el presente trabajo es


posible encontrar herramientas gratuitas, de costo monetario fijo o, incluso, con precios
que varían de acuerdo a las funcionalidades a emplear, siendo las aplicaciones
comerciales las que entregan mejores resultados (Ref. Sisar Ltda.).

11
CAPÍTULO 1. INTRODUCCIÓN

En relación a los algoritmos existentes para la generación de modelos 2D y 3D, el más


ampliamente utilizado es aquel que hace uso de los puntos de juntura existentes en dos
imágenes capturadas consecutivamente, con los cuales se realiza el proceso de
triangulación aérea para conseguir las desviaciones existentes (Caimel Benítez, 2002).
Irles (2005) muestra que existe una técnica alternativa basada en la ubicación de
elementos dentro de una imagen, de los cuales es necesario obtener su perspectiva a fin
de determinar el punto de fuga correspondiente, haciendo posible la realización de la
corrección ortogonal necesaria para la construcción de mosaicos fotogramétricos a ser
posteriormente utilizados para generar modelos 3D.

Además de lo mencionado anteriormente, es posible diseñar algoritmos especializados


para generar modelos 3D en ciudades (Loch-Dehbi & Plümer, 2011).

1.3 PREGUNTA DE TRABAJO A REALIZAR

De acuerdo a los contenidos tratados en la sección 1.2, se formula la siguiente pregunta


para el desarrollo de este trabajo:

“¿Será el algoritmo de punto de fuga quien generará mejores resultados para la


reconstrucción de mapas aéreos de zonas urbanas, en comparación con el algoritmo de
triangulación aérea?”.

12
CAPÍTULO 1. INTRODUCCIÓN

1.4 SOLUCIÓN PROPUESTA

Para poder dar respuesta a la pregunta planteada en la sección 0 es necesario realizar


pruebas con ambos algoritmos con fotografías obtenidas de un sector poblado,
principalmente utilizando una ciudad. Además se debe ver cómo se comportan los
algoritmos en un sector que no sea tan poblado.

Dado que no existe una herramienta de software que implemente el algoritmo de punto
de fuga y que muchas de las aplicaciones investigadas utilizan algoritmos privados, se
hace necesario programar ambos métodos y obtener la malla de puntos para la
generación de modelos 3D. En consecuencia, se requiere construir una aplicación de
escritorio que sea capaz de generar mosaicos 2D y obtener la nube de puntos para los
modelos 3D, sirviéndose para ambas cosas de los algoritmos de triangulación aérea y de
punto de fuga. Además, la aplicación debe entregar el tiempo de ejecución requerido
para cada uno de los pasos dados, a fin de determinar el tiempo total de ejecución de
cada algoritmo.

1.5 OBJETIVOS Y ALCANCES DEL PROYECTO

1.5.1 Objetivo general

El objetivo general del proyecto consiste en responder la pregunta planteada en la


sección 0 de forma positiva o negativa, para lo cual se debe desarrollar una herramienta
de software que permita llevar a cabo la corrección ortogonal de las imágenes para la

13
CAPÍTULO 1. INTRODUCCIÓN

generación de mosaicos fotogramétricos y modelos tridimensionales, utilizando


imágenes obtenidas por el vuelo de un UAV.

1.5.2 Objetivos específicos

Como objetivos específicos para este proyecto se tiene:

1. Desarrollar una aplicación de software que permita la generación de


corrección ortogonal de imágenes aéreas. Es en este punto donde se debe
recibir las imágenes aéreas y su información de vuelo2.

2. Desarrollar una aplicación de software que permita la generación de


mosaicos fotogramétricos a partir de imágenes aéreas. En este punto las
imágenes corregidas en el punto 1 son unidas, obteniendo el mosaico del
sector sobrevolado o solo una parte de él.

3. Desarrollar una aplicación de software que implemente para la realización


de los puntos 1 y 2 los algoritmos de triangulación aérea y punto de fuga.

4. Desarrollar una aplicación de software que permita generar una nube de


puntos, la cual puede ser utilizada posteriormente para generar modelos
3D.

5. Comparar los resultados de ambos algoritmos mediante medidas


cuantitativas y cualitativas para las fases de corrección ortogonal,
generación de mosaicos bidimensionales y modelos 3D.

2
La información del vuelo no es un requisito para la realización de la corrección ortográfica, ya que ésta
se puede obtener de otras formas, las cuales son explicadas en el CAPÍTULO 3.

14
CAPÍTULO 1. INTRODUCCIÓN

En el desarrollo del proyecto estos objetivos deben ser desarrollados de forma


secuencial, exceptuando el punto 3 (ya que afecta al punto 1 y 2 a la vez), dado que los
resultados de cada una de esas etapas son necesarios para la siguiente.

1.5.3 Alcances del proyecto

Dentro de los alcances del proyecto se establece que:

1. Se debe realizar la corrección ortogonal de las imágenes.

2. Se debe realizar mosaicos 2D.

3. Se debe realizar modelos 3D.

4. Se debe realizar una comparación entre los algoritmos en cada uno de los
procesos, evaluando los recursos utilizados versus los resultados obtenidos,
principalmente, el tiempo utilizado en comparación a la calidad de la respuesta.

5. No se realiza el trabajo de optimizar los algoritmos propuestos.

6. No se contempla la incorporación de discriminación de imágenes de forma


automática, por lo cual el usuario debe seleccionar solo las imágenes que desea utilizar.
Además, tal como se mencionó en la sección 1.1.3, las imágenes a utilizar son verticales
al vuelo, como esto no es así en la mayoría de los casos se debe realizar el proceso de
corrección ortogonal, pero éste posee sus limitaciones, sobre todo en el grado de
desviación que poseen las imágenes, tema que es tratado en la sección 3.3, el uso de
imágenes de este tipo produce que los resultados sean malos (Sisar Ltda.).

7. No se incluye el estudio del vuelo fotogramétrico.

15
CAPÍTULO 1. INTRODUCCIÓN

1.6 METODOLOGÍA Y HERRAMIENTAS UTILIZADAS

1.6.1 Metodología

La metodología a utilizar es híbrida, sobre todo porque se utilizan distintas herramientas


de distintas metodologías, siendo la columna principal AUP (Agile Unified Process), ya
que:

 Existe software comercial que realiza el procedimiento, se encuentran los


requisitos desde un comienzo, los cuales quedan claros y son en los que se basa el
producto final.

 Es necesario que el desarrollo del software sea de forma incremental, cumpliendo


en cada una de las etapas un objetivo específico. El orden de desarrollo
corresponde al mismo expuesto dentro de la sección 1.5.2.

 Como se necesita un cliente para que dé cuenta del cumplimiento de los


requisitos y la calidad del software, este rol es llevado a cabo por el profesor del
Departamento de Ingeniería Informática Arturo Álvarez, quien además es el
gerente general de la empresa SISAR Ltda.

AUP, al estar basado en la metodología RUP (Rational Unified Process), utiliza ciertos
artefactos, basados en el modelado ágil. Dentro de los aparatos a utilizar en el desarrollo
de este proyecto se tiene:

 Lista de requisitos y su especificación mediante el uso de casos de uso.

 El diseño del proceso a realizar mediante un diagrama de flujo de datos (DFD3)

3
Data Flow Diagram

16
CAPÍTULO 1. INTRODUCCIÓN

Todos estos elementos son necesarios para el desarrollo de la aplicación y para el


cliente.

El desarrollo de la aplicación es dividida en cuatro fases, utilizando el método de


resolución de problemas división en subfases, las cuales son abordadas como un
desarrollo incremental, porque luego de la aprobación de la etapa se avanza a la
siguiente. Las etapas dentro del proyecto son similares a los objetivos específicos
señalados en la sección 1.5.2; las etapas son:

1. Corrección ortogonal de imágenes

2. Realización de mosaicos fotogramétricos

3. Realización de modelos 3D

4. Producto final

5. Prueba de la pegunta de trabajo, mencionada en la sección 0.

Para cada una de estas etapas se utiliza una nueva división, dando cuatro sub etapas, las
cuales están relacionadas con la metodología AUP, éstas son:

1. Concepción: Se define qué es lo que es realizado por la etapa en sí.

2. Planificación: Se define el cómo es desarrollada la etapa para cumplir los


objetivos planteados anteriormente.

3. Desarrollo: Se realiza la construcción de acuerdo a lo planificado


anteriormente.

4. Pruebas: Se ejecuta el plan de pruebas, con el fin de detectar posibles


errores y comprobar el correcto funcionamiento de la aplicación.

En cuanto a las etapas de concepción y planificación, es necesario una investigación


previa dividida en las fases de:

17
CAPÍTULO 1. INTRODUCCIÓN

1. Recopilación: Se recopila información necesaria para la etapa a


desarrollar, basándose específicamente en documentos tales como libros y
artículos de revistas, entre otros. Acá sólo se hace una búsqueda y
almacenamiento de los documentos.

2. Selección: Se lee la información almacenada, se analiza si posee relación


con la etapa a desarrollar, si es así se agrupa, en caso contrario se mantiene
almacenada para su posterior uso.

3. Resumen: Luego de cada lectura se realiza un resumen del documento.

4. Clasificación: Se clasifica cada documento dependiendo de qué sección de


la etapa pertenece el documento y, en donde es utilizada.

El proceso del desarrollo de la aplicación se refleja en la Figura 1-6.

Corrección ortogonal de imágenes


Generación de mosaicos fotogramétricos
Concepción Generación de nube de puntos
Planificación Concepción para modelos 3D Unificación final
Desarrollo
y pruebas
Planificación Concepción finales
Pruebas de Desarrollo Planificación Concepción
corrección de
Pruebas de Desarrollo Planificación
imágenes
mosaicos
Pruebas de Desarrollo
fotogramétricos
generación de
Pruebas finales
nube de puntos
para modelos 3D

Figura 1-6: Representación del desarrollo del software necesario para el proyecto.

18
CAPÍTULO 1. INTRODUCCIÓN

1.6.2 Herramientas

Las herramientas de desarrollo son separadas por cada una de las actividades a realizar,
dentro de lo mencionado en la sección 1.6.1. Estas herramientas se pueden observar en
la Tabla 1-1.

Tabla 1-1: Herramientas de desarrollo utilizadas.

Actividad Tarea Herramienta

Plataforma de Soportar programas a utilizar Windows 7 Ultimate (Service


trabajo durante todo el desarrollo de la Pack 1)
tesis.

Captura de Lectura de documentos Microsoft Word 2010 (Versión


requerimientos 14.0.7113.5005) (32 bits)
Adobe ReaderX (Versión 10.1.9)
Navegación Web Google Chrome (Versión
33.0.1750.117 m)
Mozilla Firefox (Versión 27.0.1)
Diseño de DFD PowerDesigner (Versiones 12.5 y
16.1)
Programación Soporte para lenguaje Java NetBeans IDE 7.3
Java Java (Versión 7 Update 17)
JDK JDK 1.7.0_17-b02
Comunicación Correo electrónico Correo institucional de la
Universidad de Santiago de Chile
(Plataformas de Google)
Chat Skipe (Versión 5.8.0.158)
Hangout (Chat del correo de
Google)
Almacenamiento de archivos Dropbox (Versión web)
compartidos con profesor guía. Dropbox (Versión escritorio
1.4.9)

19
CAPÍTULO 1. INTRODUCCIÓN

Tabla 1.1: Herramientas de desarrollo utilizadas (Continuación).

Actividad Tarea Herramienta

Obtención de PTGui PTGui (Versión 8.1.2)


resultados con PhotoScan PhotoScan (Versión 0.8.5)
otros software
PIX4D PIX4D Versión Online
Documentación Planificación Microsoft Proyect 2010 (Versión
14.0.6112.5000)
Generación y almacenamiento de Microsoft Excel 2010 (Versión
información. 14.0.6112.5000)
Realizar documentación Microsoft Word 2010 (Versión
14.0.6112.5000)

1.6.3 Organización del documento

Este documento se encuentra organizado en capítulos, dentro de los cuales se aborda el


desarrollo del trabajo realizado. Para esto se comienza con una vista general de la
historia del problema en el capítulo 2, que se enfoca en la fotogrametría, cuál ha sido su
historia y su división en tipos; lo último depende del área donde se desarrolle, señalando
de este modo la fotogrametría aérea y terrestre, separando cada uno de estos temas en
secciones. Posteriormente, se encapsula el problema en un área más pequeña, especifica
de acuerdo al objetivo general del presente trabajo, por lo cual en el capítulo 3, por
medio de secciones, se aborda la aerofotogrametría en específico, su historia, y los
distintos modelos que se pueden obtener, finalizando con la explicación de los
algoritmos utilizados en el trabajo.

Luego de abarcar la teoría necesaria para entender la solución desarrollada, en el


capítulo 4, se señalan los algoritmos a utilizar y el porqué de su elección.

20
CAPÍTULO 1. INTRODUCCIÓN

Posteriormente, dentro del mismo capítulo, pero en una sección distinta, se encuentra la
explicación, en forma de algoritmos dando a conocer en primer lugar el algoritmo para
la triangulación aérea y posteriormente el utilizado para la técnica de punto de fuga.

Ya señalada la solución, se menciona las pruebas realizadas durante el trabajo, esto se


puede ver en el capítulo 5, donde en primer lugar se describe las pruebas desarrolladas y
los datos utilizados, para luego mostrar los resultados obtenidos y su análisis en la
sección siguiente.

Finalmente el documento culmina con las conclusiones mostradas en el capítulo 6,


señalando la respuesta obtenida para la pregunta planteada, su discusión y reflexión, el
análisis obtenido de la obtención de cada uno de los objetivos específicos del trabajo y
se deja propuestos posibles estudios que se pueden hacer a partir del trabajo mostrado.

Además el documento posee al final una lista con los términos utilizados, con una
explicación más extensa que la mostrada dentro del documento, en el glosario de
términos. También se muestra los anexos necesarios para la comprensión del software
generado, correspondientes a la lista de requerimientos, diagramas utilizados en la
construcción.

21
CAPÍTULO 2. FOTOGRAMETRÍA

2.1 HISTORIA DE LA FOTOGRAMETRÍA

El uso de perspectivas para realizar levantamiento de terreno, tiene su primera aparición


el año 1725, cuando Capeller, en Suiza, cartografió el monte Pilatus utilizando una
forma, que hoy en día se conoce como el método de las intersecciones de la Topografía.
El procedimiento fotogramétrico actual comenzó a ser utilizada por Louis Daguerre, en
1839, siendo seguido por Argo, en 1840, quién demostró que se puede producir mapas
topográficos mediante el uso de fotografías. Fue el coronel del Cuerpo de Ingenieros de
la Armada Francesa, Aimé Laussedat, quien realizó el primer experimento de este estilo,
siendo esto considerado como el primer experimento dentro de la fotogrametría.

La fotogrametría, según la ASPRS (American Society for Photogrammetry and Remote


Sensing) se define como “…el arte, ciencia y tecnología de obtener información fiel
acerca de los objetos físicos y su entorno a través de procesos de grabación, medición e
interpretación de imágenes fotográficas…”.

Laussedat intentó varias veces realizar fotogrametría desde imágenes aéreas, pero tuvo
una serie de dificultades en este proceso, por lo cual se centró en generar mapas a partir
de fotografías terrestres, empleando las perspectivas de los objetos. Este proceso lo
realizó basándose en el prisma de Wollaston, el cual se muestra en la Figura 2-1.

Fue en 1859, en la exposición de una ponencia, cuando Aime Laussedat anunció el uso
del fototeodolito para la Topografía. En ella se explicó el método utilizado para la
determinación de coordenadas objetivo, las cuales son obtenidas por la intersección de
rayos a partir de un par de fotografías. Gracias a este trabajo Laussedat es considerado el
CAPÍTULO 2. FOTOGRAMETRÍA

Padre de la fotogrametría. Este procedimiento es llamado “fotogrametría de


intersección”, que utiliza imágenes de los objetos que fueron obtenidas desde su base.

Figura 2-1: Cámara blanca basada en el prisma de Wollaston.

Tanto la fotogrametría como la tecnología utilizada en ella han ido evolucionando a la


par, siendo iniciado en la cercanía del año 1850 por las fotografías. Tuvieron que pasar
cerca de cincuenta años para que se introdujera un nuevo invento, el estéreo comparador,
creado por Carl Pulfrich en 1901, el cual fue utilizado en la fotogrametría
estereoscópica. Este instrumento permitió la generación de elementos tridimensionales a
partir de fotografías terrestres.

Con la invención del avión, en el año 1902 por los hermanos Oliver y Wilbur Wright, se
amplió el mundo de la fotogrametría al ámbito aéreo. El avión junto al estéreo
comparador fueron utilizados por primera vez para un trabajo topográfico en 1913
(Lerma García, 2002), iniciando de esta forma la etapa de la fotogrametría analógica
(Chueca Pazos, 1982; Lerma García, 2002).

Otros instrumentos importantes utilizados por la fotogrametría durante el periodo de la


fotogrametría analógica son el estéreo autógrafo, construido por Von Orel en 1909, y el
orthophotoscope, desarrollado en 1950 por Bean Russell (Chueca Pazos, 1982). Mayor
información de esta etapa se encuentra en la sección 2.2.1.

23
CAPÍTULO 2. FOTOGRAMETRÍA

Posteriormente, junto con el desarrollo de las computadoras, una mejor capacidad de uso
de información y tratamiento de datos, la fotogrametría entró en su etapa analítica, en
donde destacaron inventos como el restituidor analítico, creado por Uki Helava en 1957
(Chueca Pazos, 1982).

Finalmente, ya con una mejor capacidad de almacenamiento de fotografías digitales en


conjunto a la evolución de la computación, fue posible tratar la información sin la
necesidad de tener la fotografía física, dando inicio a la era de la fotogrametría digital
(Chueca Pazos, 1982, Lerma García, 2002). Se ahonda más sobre esta etapa en las
secciones 2.2.1 y 2.2.2.

Las etapas de la fotogrametría se muestran en la Figura 2-2 (Lerma García,2002), en


donde también es bueno dar a saber que a pesar de la evolución de las ciencias y las
tecnologías asociadas a la fotogrametría, el desarrollo de las etapas analógicas, analíticas
y digitales ha perdurado en el tiempo.

Figura 2-2: Etapas de la fotogrametría.

24
CAPÍTULO 2. FOTOGRAMETRÍA

2.2 TIPOS DE FOTOGRAMETRÍA

La fotogrametría se puede dividir según sus características siendo una de ellas el uso que
se le piensa dar a las imágenes obtenidas. Es en esta división donde se encuentra la
fotogrametría imperativa, la cual reconoce e identifica objetos y obtiene su significado
mediante un análisis sistemático. Acá se encuentran, como una sub división, la
fotointerpretación y la teledetección.

Dentro de esta división también se encuentra la fotogrametría métrica, la cual busca


información en cuanto a las distancias de forma bidimensional como tridimensional, es
decir, se encuentra relacionada con la medición lineal, puntual y superficial. También,
dentro de sus usos se encuentra la reconstrucción espacial de objetos y superficies, en
donde se puede encontrar la fotogrametría métrica absoluta y la relativa.

Otra forma de división de la fotogrametría es mediante el tipo de fotografías que se estén


utilizando, indicando principalmente el lugar de donde fueron obtenidas. Es acá donde
se encuentra la fotogrametría aérea y terrestre. A pesar de que Aimé Laussedat realizó
los primeros experimentos para la fotogrametría aérea, fue la terrestre la que se investigó
en los inicios.

Las ramas que posee la fotogrametría de acuerdo a las divisiones mencionadas se pueden
ver en la Figura 2-3.

El presente trabajo abarca la fotogrametría imperativa y métrica, ya que el cliente desea


la investigación de objetos como también el cálculo de dimensiones dentro de los
modelos generados. En cuanto a la forma en que fueron capturadas las imágenes, este
trabajo se centra en la fotogrametría aérea, pero gran parte de los fundamentos utilizados
en ésta provienen de la fotogrametría terrestre.

25
CAPÍTULO 2. FOTOGRAMETRÍA

fotogrametría

Según su forma
Según su uso
de captura

Imperativa Métrica Terrestre Aérea

Relativa Absoluta

Figura 2-3: Divisiones de la fotogrametría.

2.2.1 Fotogrametría terrestre

La fotogrametría terrestre se basa en la generación de modelos o planos mediante el uso


de herramientas y fotografías obtenidas desde la tierra. Ésta se inició con Aimé
Laussedat el año 1849, luego de tratar de hacer fotogrametría aérea y fallar. En este tipo
de fotogrametría se utiliza principalmente las técnicas descritas por Daguerre y Arago,
mencionado en la sección 2.1.

El evento que marcó la fotogrametría terrestre fue la creación y uso de fototeodolitos en


el año 1859.

El procedimiento iniciado por Laussedat es llamado fotogrametría de intersección, el


cual consiste en la toma de fotografías de un objeto o paisaje desde dos extremos de una
base, como se muestra en la Figura 2-4 (Juliá, 2002).

26
CAPÍTULO 2. FOTOGRAMETRÍA

Figura 2-4: Representación gráfica de la fotogrametría de intersección.

Para esto es necesario conocer la medida b y su azimut (ángulo que posee la proyección
O1 y O2 y el norte geográfico), las coordenadas de uno de sus extremos y los ángulos
que forman con esa base (𝛼0′ o 𝛼0′′ ). Si los planos son verticales, entonces los ángulos
horizontales y de pendiente, es decir, 𝛼′, 𝛼′′ y 𝛽′ ,𝛽′′ respectivamente, se podrán obtener
mediante fórmulas, utilizando las coordenadas x’, x’’, z’, z’’.4

En cambio, si hay que determinar una gran cantidad de puntos es conveniente realizar un
procedimiento gráfico. En la Figura 2-5 (Juliá, 2002) se muestra el procedimiento de
iconometría para el levantamiento del castillo de Vincennes. Éste hace uso de una
cámara clara, en cambio si se utilizan fotografías el método se llama metrofotografía
(Juliá, 2002).

Fue en 1858 cuando Meydenbaurer utilizó intersecciones a partir de fotografías, con el


fin de realizar un levantamiento de obras arquitectónicas, llamando a este procedimiento

4
Todas las variables mencionadas son de acuerdo a la Figura 2-4.

27
CAPÍTULO 2. FOTOGRAMETRÍA

fotogrametría, en donde, se resuelve la planimetría de forma gráfica, mientras que la


altimetría se realiza de forma numérica.

Figura 2-5: Castillo de Vicennes.

El principal problema que se tenía en esos tiempos con los inventos disponibles era la
ubicación de un mismo punto dentro de dos fotografías de ángulos distintos. Esto fue
resuelto mediante la identificación y uso de los puntos homólogos, llamados así por
Pulfrich en 1901.

Los puntos homólogos son obtenidos mediante el uso de las visiones y mediciones
estereoscópicas. El aparato que realizaba este trabajo fue llamado estereocomparador de
Pulfrich. La construcción de este aparato fue gracias a que Pulfrich participó
activamente en el diseño del telémetro estereoscópico de Zeiss, además de su
conocimiento sobre la propuesta de desplazar micrométricamente cuadrículas sobre
fotografías estereoscópicas de Stolze, en 1892.

28
CAPÍTULO 2. FOTOGRAMETRÍA

El estereocomparador de Pulfrich funcionaba mediante el principio de marca flotante,


como se aprecia en la Figura 2-6, en el cual si los puntos M’ y M’’ se mueven de forma
paralela a la dirección O’ O’’, el observador percibirá un solo punto M, por lo cual, M’ y
M’’ serán puntos homólogos con alta precisión (Juliá, 2002). Así se procesan fotografías
terrestres y las coordenadas en el espacio de un punto específico se obtienen mediante
fórmulas sencillas, para luego continuar el procedimiento topográfico.

Figura 2-6: Funcionamiento del estereocomparador de Pulfrich.

El estereocomparador de Pulfrich fue uno de los hitos fundamentales de la


fotogrametría, convirtiéndose en la base de otras innovaciones. El siguiente invento fue
el estereoautrográfo de von Orel en 1914, el cual utilizó como base el
estereocomparador de Pulfrich y le acopló un dispositivo de regletas mecánicas, las
cuales transmiten los valores de las coordenadas de los puntos en las fotografías. Este
fue el primer aparato que permitía el trazado continuo de los rasgos cartográficos, lo que
posibilitaba una representación del relieve mucho más fiel en comparación con los

29
CAPÍTULO 2. FOTOGRAMETRÍA

procedimientos utilizados anteriormente. Desde entonces se comenzó a hablar de un


cartografiado automático de fotografías terrestres.

Finsterwalder explica que las expectativas de este invento no lograron cumplirse ya que
el procedimiento sólo era posible cuando se podía encontrar lugares de toma de
imágenes fijas con una vista libre y con condiciones favorables al terreno que se desea
cartografiar, como lo son las montañas o colinas; pero en llanos u otros lugares
similares, el estereoautrográfo no funcionaba.

Otro de los inventos importantes fue el cartógrafo construido por el coronel español
Jesús Ordovás el año 1923, el cual fue utilizado hasta el año 1950 por el Instituto
Geográfico de España, obteniendo un excelente rendimiento. También se encuentra el
estereógrafo, construido en Argentina el año 1920 y perfeccionado en 1926.

2.2.2 Fotogrametría aérea

Inicialmente la fotogrametría aérea era desarrollada mediante imágenes obtenidas desde


las laderas escarpadas de los cerros, continuando con capturas desde globos o dirigibles,
hasta el día de hoy, donde la mayoría es capturada desde aviones o satélites.

Fue en 1897 cuando Scheimpflug realizó los primeros trabajos de rectificación de


imágenes, lo cual permitió sentar las bases, en el año 1898, para la proyección doble5
(Cobos, 2001; Juliá, 2002).

Los instrumentos utilizados en la fotogrametría aérea poseen mayor complejidad que


aquellos utilizados en la fotogrametría terrestre, debido a que dentro de la primera las

5
La explicación de la proyección doble se encuentra en Cobos, Salinas y Domínguez, 2001

30
CAPÍTULO 2. FOTOGRAMETRÍA

orientaciones y posiciones de la cámara son desconocidas, además los planos no son


verticales y sus ejes tampoco son paralelos. Es por esto que el primer instrumento apto
para la fotogrametría aérea fue construido el año 1915 por Gasser, utilizando como base
las ideas de Scheimpflug (Figura 2-7). Este restituidor consiste en que imágenes de dos
dimensiones provocan un efecto tridimensional al verse con unos lentes especiales. Este
invento fue la base para que Nistri, en el año 1920, construyera el fotocartógrafo.

Figura 2-7: Proyector doble de Grasser.

Fue en el año 1899 cuando Finsterwalder propuso que para resolver el problema de las
orientaciones de las imágenes se debía realizar tres pasos, los cuales consisten en
obtener una orientación interior, una relativa y finalmente una absoluta. Otra forma de
resolver el problema fue propuesta por Otto von Gruber, el año 1924.

Fue el año 1921 cuando Baursfeld, mediante el principio de Porro – Kope, utilizado en
la construcción del estereoplanígrafo de Zeiss, construyó lo que fue considerado en su
tiempo como estereorestituidor más exacto. Durante el mismo año, el italiano Santoni
diseñó un autoreductor, volviendo de esta forma a la proyección mecánica. Santoni

31
CAPÍTULO 2. FOTOGRAMETRÍA

incorporó al autoreductor ideas que permitieron la eliminación de los efectos de


distorsión del lente, la curvatura terrestre y la refracción.

Durante los años sesenta los instrumentos de proyección mecánica fueron sustituidos por
el Planimap y el Planicart construidos por Zeiss Oberkochen. Pero el procedimiento de
triangulación aérea nació cuando Gasser y von Gruber decidieron diseñar el
procedimiento de concatenación de modelos. Para esto construyeron el Multiplex
(Figura 2-8), en el cual introdujeron elementos como el paralelogramo de Zeiss.

Figura 2-8: Esquema del Multiplex de Gasser y von Gruber.

La fotogrametría no ha alterado sus fundamentos, pero si lo han hecho los instrumentos


que se utilizan para ella. Schenk (1999) indica que las oportunidades de la fotogrametría
han aumentado gracias al uso de las imágenes digitales, que han sido de gran ayuda para
la fotogrametría, ampliando las áreas de desarrollo de esta ciencia.

La fotogrametría se ha diversificado en variadas áreas donde se encuentran


subdivisiones dependiendo del uso que se le dé a los mosaicos generados, su forma y
medio de captura (Pérez Álvarez, 2001 a).

32
CAPÍTULO 2. FOTOGRAMETRÍA

En cuanto al uso que se le da a los mosaicos fotogramétricos se encuentra la


teledetección6, planimetría7, y topografía8.

En cuanto a la forma de captura se encuentra la automática o asistida, siendo la primera


obtenida de acuerdo a medidas de tiempo y distancia, mientras que la segunda se realiza
mediante la intervención humana (Eisenbeiss, 2009).

Para el medio de captura se encuentra la fotogrametría satelital, con ejemplos como


Google Earth; estas imágenes son utilizadas inicialmente para realizar la comparación
de los modelos generados. También están aquellas fotografías obtenidas mediante el uso
de vehículos aéreos tripulados, los cuales se han utilizado durante la gran mayoría de los
años de fotogrametría aérea. Finalmente, las imágenes se pueden obtener mediante el
uso de vehículos aéreos no tripulados, ahora mayoritarios, a pesar de que su uso se basa
desde el año 1858 mediante el uso de globos aerostáticos, palomas equipadas con
cámaras, aviones no tripulados. La división de la fotogrametría aérea se muestra en la
Figura 2-9.

La fotogrametría aérea mezcla las diferentes áreas para realizar los trabajos
fotogramétricos, por lo cual se pueden encontrar trabajos de fotogrametría aérea que son
realizados para planimetría, utilizando una captura automática con imágenes obtenidas
desde satélites. Las distintas mezclas que se encuentran dentro de la literatura para la
fotogrametría aérea se observan en la Figura 2-10.

6
Se le da mayor importancia a la naturaleza del objeto de donde se realiza la captura de la imagen.
7
Utiliza modelos bidimensionales, en donde sólo se ve la geometría de forma horizontal de los objetos.
8
Utiliza modelos tridimensionales, en donde se trabaja la geometría de forma tridimensional de los
objetos.

33
CAPÍTULO 2. FOTOGRAMETRÍA

2.2.2.1 fotogrametría aérea satelital

La fotogrametría aérea satelital utiliza imágenes obtenidas desde satélites, las cuales en
su gran mayoría son privadas como lo menciona Juliá (2002).

Teledetección

Según su uso Planimetría

Topografía

Automática
fotogrametría Forma de
Aérea captura
Asistida

Satélite

Según su medio Vehículo


de captura tripulado
Vehículo no
tripulado

Figura 2-9: Divisiones de la fotogrametría aérea.

Las imágenes satelitales encontradas en el mercado pueden poseer trabajo


fotogramétrico o no, tal como lo menciona Villasante (2002).

Como se mencionó anteriormente, también se pueden encontrar fotografías satelitales


gratuitas y aplicaciones que las utilicen. Un ejemplo de esto es Google Earth el cual está
disponible en sus versiones online y de plataforma.

34
CAPÍTULO 2. FOTOGRAMETRÍA

Figura 2-10: División de las áreas de la fotogrametría aérea.

2.2.2.2 Fotogrametría aérea con vehículos tripulados

La fotogrametría aérea con uso de vehículos tripulados o no tripulados se divide en tres


etapas, las cuales son:

1. Planificación del vuelo: Etapa en la cual se indica el sector a sobrevolar y como


se debe realizar el vuelo en específico, con el fin de abordar toda el área
necesaria para el proyecto.
2. Planificación del control terrestre: En esta etapa se realizan los trabajos
topográficos necesarios para aumentar la precisión de los modelos que se
obtendrán.
3. Estimación de los costos: Acá se evalúa cuan costoso es el proyecto a realizar.

Al realizar este trabajo se obtienen productos tales como fotomapas, mosaicos, mapas
topográficos y las propias fotografías aéreas (Pérez Álvarez, 2001a).

35
CAPÍTULO 2. FOTOGRAMETRÍA

Los vehículos tripulados poseen relación directa con la etapa de planificación del vuelo,
en donde, según Pérez Álvarez (2001a), se les puede dar dos tipos de misiones, las
cuales son:

 Sobrevolar la zona a una altitud en función a la escala deseada del proyecto,


tomando como referencia la distancia principal de la cámara.
 Cubrir la zona deseada mediante imágenes, con el fin de obtener sectores
comunes entre fotografías contiguas, llamado zona de recubrimiento.

El vuelo fotogramétrico se evalúa de acuerdo a dos puntos de vista, uno económico y


otro técnico. En cuanto al último mencionado, según Pérez Álvarez (2001a) y Sánchez
Sobrino (2006), debe cumplirse que:

 El modelo estereoscópico debe presentarse lo más uniforme posible en cuanto a


la escala utilizada y los recubrimientos realizados. Además debe tener una
superficie máxima.
 Las imágenes deben ser lo más verticales posibles, como se muestra en la Figura
1-3. También debe existir la información necesaria para corregir los
desplazamientos angulares.
 Las fotografías deben cumplir con las propiedades de la aplicación métrica.

En cuanto al punto de vista económico se dice que la superficie debe ser cubierta con el
mínimo número de fotogramas para la escala escogida. De esta forma se obtiene un
menor número de modelos, lo cual disminuye el número de trabajos fotogramétricos ha
aumentado el rendimiento.

El primer problema a resolver para la planificación del vuelo fotogramétrico es el


escoger una escala de vuelo adecuada, la cual depende del tamaño de los objetos que se
quiera detectar.

Una vez determinada la escala del vuelo, se continúa con la siguiente etapa, la cual
consiste en planificar el recubrimiento de la zona, iniciando por el recubrimiento

36
CAPÍTULO 2. FOTOGRAMETRÍA

longitudinal. Es en esta etapa que se necesita las fotografías en las cuales existe una zona
de recubrimiento o paralaje horizontal, lo cual se muestra en la Figura 2-11 9.

Figura 2-11: Paralaje horizontal.

En un vuelo ideal las imágenes contiguas poseerán el mismo paralaje horizontal, por lo
cual no habría desviación entre ellas, como se muestra en la Figura 2-12.

Figura 2-12: Vuelo fotogramétrico ideal.

9
Figura obtenida de Pérez Álvarez, 2001 y modificada por Felipe Fuentes.

37
CAPÍTULO 2. FOTOGRAMETRÍA

Posterior a realizar un recubrimiento horizontal es necesario realizar el recubrimiento


lateral, el cual consiste en diversos recubrimientos horizontales entre sí, con el fin cubrir
todo el terreno del proyecto.

Los vuelos fotogramétricos poseen diversos factores que lo afectan, entre los cuales
Pérez Álvarez (2001a) menciona:

 La deriva: Corresponde a la fuerza que ejerce el viento sobre el avión durante el


vuelo, lo cual se ve reflejado en la Figura 2-13 (Pérez Álvarez, 2001a). El eje de
simetría del avión es llamado azimut verdadero el cual corresponde a un vuelo en
⃗⃗⃗𝑝 es la fuerza de los
ausencia de viento, el cual coincide con el eje de vuelo; 𝑉
⃗⃗⃗𝑣 es la fuerza del viento (también
motores del avión (con velocidad y dirección); 𝑉
con velocidad y dirección). La ruta real está representada por ⃗⃗⃗
𝑉𝑠 , y el ángulo de
desviación es 𝑑.

Figura 2-13: Efecto de la fuerza del viento sobre la trayectoria verdadera.

Con la influencia de la deriva, el paralaje horizontal se ve afectado, dando como


resultado lo que se muestra en la Figura 2-14 (Pérez Álvarez, 2001a).

 Vuelo en terrenos montañosos: Cuando el terreno de vuelo no es plano, el


recubrimiento de las imágenes puede variar, como se muestra en la Figura 2-15
(Pérez Álvarez, 2001a), en donde la imagen de la derecha muestra el

38
CAPÍTULO 2. FOTOGRAMETRÍA

recubrimiento ideal, mientras que la de la izquierda muestra lo sucedido en


terrenos montañosos.

Figura 2-14: Resultado del efecto de la deriva en el Paralaje Horizontal.

Figura 2-15: Problemas dado el relieve.

En la imagen de la derecha de la Figura 2-15 se puede observar que el


⃗⃗⃗⃗⃗ , posee un valor similar a B; en cambio en el terreno
recubrimiento buscado 𝑃𝑃
⃗⃗⃗⃗⃗ , quedando sin recubrir el espacio ⃗⃗⃗⃗⃗
montañoso el área recubierta es 𝐵𝐶 𝑃𝐵 y ⃗⃗⃗⃗⃗
𝐶𝑃.
Por esto es que si se realiza un vuelo con altura y la distancia de toma de
imágenes se mantiene constante, se producirá una disminución del área de
recubrimiento tal como se muestra en la Figura 2-16 (Pérez Álvarez, 2001a).

39
CAPÍTULO 2. FOTOGRAMETRÍA

Figura 2-16: Vuelo con disminución del recubrimiento.

Para solucionar, en alguna medida, la diferencia del área de recubrimiento


existen dos posibles soluciones. La primera, indicada principalmente para
terrenos en los cuales las alturas varíen progresivamente, consiste en calcular la
distancia entre el origen de cada una de las imágenes a tomar, variando de esta
forma la distancia entre las tomas de cada imagen, tal como se muestra en la
Figura 2-17. En cambio, la segunda opción consiste en aumentar la altura del
vuelo con respecto al terreno, como se ve en la Figura 2-18 (Pérez Álvarez,
2001a).

Figura 2-17: Planificación de vuelo con variación entre origen de imágenes.

40
CAPÍTULO 2. FOTOGRAMETRÍA

Figura 2-18: Planificación del vuelo con variación de altura.

2.2.2.3 Fotogrametría aérea con vehículos no tripulados

Como se ha mencionado anteriormente, la fotogrametría mediante vehículos no


tripulados y con vehículos tripulados es muy similar. Los vehículos no tripulados,
llamados UAV, consisten en vehículos aéreos que no poseen una tripulación a bordo, en
su mayoría son manejados vía control remoto, aunque hoy en día se encuentran aquellos
que realizan vuelos previamente programados.

El uso de los UAV en la fotogrametría ha sido de gran ayuda, ya que gracias a ellos se
ha podido realizar proyectos fotogramétricos en lugares donde antes no se podía,
principalmente por la seguridad de la tripulación no era posible sobrevolar esos sectores.
Además los UAV permiten realizar vuelos a menor altura, posibilitando de esta forma
una disminución de la escala del proyecto. Otro factor que también hay que tener en
consideración con estos vehículos es el bajo costo que poseen en comparación con los
vehículos tripulados. Pero a la vez los UAV poseen desventajas, tales como la
incapacidad de recorrer grandes sectores, al ser de materiales livianos, muchas veces el
viento produce que no se pueda llevar a cabo el proyecto y deben ser constantemente
monitoreados mediante algún aparato de envío y recibo de señales en caso de que este

41
CAPÍTULO 2. FOTOGRAMETRÍA

vehículo se pierda durante el vuelo. Comúnmente estos aparatos poseen un dispositivo


GPS que los ayuda en su misión (Haala, Cramer, Weimer, & Trittler, 2011; Niethammer
et al., 2011; Qingyuan et al., 2011; Zhang, 2008).

Como se ha mencionado anteriormente, este trabajo está basado especialmente en la


fotogrametría desarrollada por los UAV, tema que es tratado en el capítulo 3.

42
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON
IMÁGENES DIGITALES

3.1 HISTORIA DE LOS UAV Y FOTOGRAMETRÍA DIGITAL

Como explica Eisenbeiss (2009) los UAV son vehículos aéreos motorizados sin
tripulación, es decir, sin un piloto humano en la aeronave, además de ser reutilizables,
pueden ser comandados mediante control remoto, semiautónomos, autónomos o una
combinación de estos.

El término fotogrametría mediante UAV es descrita como la medición fotogramétrica de


superficies mediante operadores controlados remotamente, semiautomáticos o
automáticos equipados con sistemas de medición fotogramétrica, incluyendo cámaras,
sistemas térmicos, infrarrojos o una combinación de éstos. Actualmente los UAV poseen
implementados sensores que registran las coordenadas globales de las imágenes
(Eisenbeiss, 2009).

Como se menciona en la sección 1.1.1, la primera aproximación a la fotogrametría con


UAV fue realizada por Gaspard Tournachon en 1858, mediante imágenes tomadas desde
un globo aerostático. Desde ese entonces se ha desarrollado diversas formas de realizar
este tipo de trabajo, utilizando por ejemplo animales, específicamente palomas, y
cometas, para que con el paso del tiempo se llegara a la construcción de modelos de ala
fija y últimamente se han realizado experimentos con helicópteros. Sobre estos últimos
se puede encontrar diversos modelos en el mercado desde una a ocho hélices, siendo
aquellos que ostentan una mayor cantidad de hélices los que se benefician de una
superior estabilidad durante el vuelo, permitiendo de esta forma proyectos
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

fotogramétricos con sumas facilidades, ya que pueden despegar y aterrizar en forma


vertical, evitando así la necesidad de un sector destinado al aterrizaje.

En conjunto al desarrollo de los UAV estuvo la evolución de la tecnología necesaria


para el almacenamiento de imágenes, lo cual comenzó con la invención de la cámara
clara, la cual es basada en los prismas de Wollaston; a pesar que existen indicios de
cámaras oscuras desde la época de Aristóteles. Gracias al aporte de la cámara clara
Laussedat construyó el fototeodolito en el año 1859 (Juliá, 2002), pero éste no se podía
transportar libremente, y mucho menos en los vehículos aéreos no tripulados. Fue recién
en 1865 cundo Johann Zahn creó la primera cámara portátil, la cual guardaba la
información en fotografías de papel. El año 1969, Willard Boyle y George Smith,
diseñaron la estructura básica de lo que podría ser acoplado como dispositivo de
almacenamiento de información para la cámara fotográfica. Fue recién en el año 1991
cuando salió al mercado, considerándose como la primera cámara digital, las cuales son
utilizadas hoy en día en los UAV para realizar trabajos fotogramétricos (Benjamin,
1994).

Actualmente la gran mayoría de los proyectos fotogramétricos utilizan cámaras digitales,


que almacenan imágenes del mismo tipo con que se trabaja directamente en
computadoras.

Las imágenes digitales poseen una estructura compuesta principalmente por un conjunto
de pequeñas regiones definidas por su brillo y color, llamadas pixeles; estos últimos
están ubicados en la imagen mediante un sistema de coordenadas (𝑥, 𝑦). El color en las
imágenes puede ser almacenado como el color tal cual o como el nivel de gris que se
posee en el pixel determinado (Sánchez Sobrino, 2006).

Los pixeles, dependiendo del formato de almacenamiento y lectura, se pueden encontrar


representando un mismo color de distinta forma, en donde el modelo de color más
utilizado es el RGB (Red, Green, Blue o en español rojo, verde y azul) el cual representa
un color mediante la suma de las tres tonalidades mencionadas, representadas mediante

44
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

una intensidad representada por un número entero que se encuentra entre 0 y 255 (para
una representación de ocho bits), donde la presencia total de color está representada por
la combinación (255, 255, 255), mientras que la ausencia es lo contrario, es decir, (0, 0,
0). Cada uno de estos números representa respectivamente la presencia del color rojo,
verde y azul en el pixel. Otros modelos de color existentes son CMYK (Cyan, Magenta,
Yellow y Key, en español el cian, magenta, amarillo y la llave, que resulta ser el negro),
el HSL (Hue, Saturation, Lightness; Matriz, Saturación, Luminosidad), el HSV (Hue,
Saturation, Value; Matriz, Saturación, Valor), el modelo RYB (Red, Yellow y Blue; rojo,
amarillo y azul) (Barla, Odone, & Verri, 2003).

La fotogrametría pretende realizar en forma general una visión estereoscópica de los


objetos, es decir una observación de estos en tres dimensiones (basándose en cómo la
percepción humana obtiene información de cercanía de un objeto).

Como se explica en el capítulo 2, las fotografías se van tomando de forma secuencial


además debe existir terreno común entre dos fotografías consecutivas, llamado paralaje
horizontal. También se menciona que las imágenes corresponden a una representación
de dos dimensiones y la fotogrametría busca como generar la tercera, la que representa
la altura. Esto se ve reflejado en la Figura 3-1, en la cual se muestra que el paralaje de un
punto depende de dos factores fijos, los cuales son la distancia focal 𝑓 y la base o
distancia entre tomas B, y un valor variable que resulta ser la altitud del punto. Con esto
se puede concluir que el paralaje está directamente relacionado con la altitud del punto,
siendo mayor para los puntos altos (A) y menor para los puntos bajos (B) (Sánchez
Sobrino, 2006).

Existen dos tipos de paralajes, uno horizontal, el cual ya ha sido explicado


anteriormente, y otro vertical, el cual se encuentra en las imágenes paralelas entre sí, las
cuales son obtenidas en distintas líneas de vuelo (Figura 3-2). Este tipo de solape entre
las imágenes sirve para eliminar las últimas fallas que existan con respecto a la
orientación de las imágenes, aunque la relevancia de este paralaje es mucho menor para

45
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

el cálculo de la altura de un punto común entre imágenes. El proceso donde se utiliza


esta característica es llamado orientación relativa.

Figura 3-1: Paralaje horizontal.

Figura 3-2 : Diferencia de paralaje horizontal y vertical.

Para obtener la altura de un punto, independiente del sistema métrico utilizado, se realiza
un proceso formulado por Stolze el año 1892 en donde se utiliza el principio de una
marca flotante, proceso que es explicado por Sánchez Sobrino (2006).

46
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

La repetición de este proceso para un conjunto de imágenes de forma análoga permite la


generación de mapas o planos. A este proceso se le llama el problema fundamental de la
fotogrametría, el cual consiste en: “la reconstrucción de la geometría en las posiciones
de los fotogramas” (Sánchez Sobrino, 2006).

La construcción de mapas se realiza mediante el uso de tres procesos, en donde cada uno
resuelve una orientación de la imagen por separado. Las orientaciones a trabajar son la
interna, relativa y absoluta. Éstas son explicadas con respecto a la Figura 3-3 (Sánchez
Sobrino, 2006), y son respectivamente:

 La orientación interna: Consiste en averiguar la distancia focal 𝑓 de la cámara


y la posición del punto principal en cada fotografía (𝑤).

 Orientación relativa: Consiste en orientar dos fotogramas en el mismo espacio.


Si al realizar este proceso se elimina el paralaje vertical, teniendo de esta forma el
problema resuelto, y la recta ⃗⃗⃗⃗⃗⃗⃗⃗⃗ ⃗⃗⃗⃗⃗⃗⃗⃗⃗
𝑎1 𝑂1 se cortará con 𝑎 2 𝑂2 precisamente en el punto A.

Este problema frecuentemente se resuelve mediante el uso de seis incógnitas (tres


traslaciones y tres giros), lo que se puede reducir a cinco variables buscadas, ya
que la modificación de la base (𝑏𝑥 ) consiste en un cambio de escala del modelo.

 Orientación absoluta: Consiste en el posicionamiento y nivelación del modelo


con respecto al sistema de referencia terrestre. Esto se resuelve mediante el uso de
puntos de control en terreno identificables en los fotogramas.

47
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

Figura 3-3: Modelo estereoscópico.

3.2 OPERACIONES EN LAS IMÁGENES DIGITALES

3.2.1 Transformación de coordenadas

Para generar un modelo fotogramétrico es necesario realizar los procesos para generar
las orientaciones internas, relativas y absolutas. Para esto se necesita hacer ciertos
trabajos en las fotografías, los cuales consisten en desplazamientos, giros y
transformaciones, las que son explicadas dentro de este capítulo. En primer lugar se
muestra las transformaciones bidimensionales, para posteriormente explicar las
tridimensionales en base al tipo de imágenes utilizadas en el presente trabajo.

48
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

3.2.1.1 Transformaciones bidimensionales

I. Traslación

Cuando el origen de ambas imágenes es distinto se debe realizar una traslación de las
coordenadas, con respecto a (1) y (2):

𝑋 = 𝑥 + 𝑇𝑥 (1)
𝑌 = 𝑦 + 𝑇𝑦 (2)

Donde 𝑥 es la coordenada inicial y 𝑇𝑥 es la traslación en el eje x que se quiere dar.


Similar es lo que ocurre con el eje y.

II. Escala

Para realizar un cambio de escala se tienen las ecuaciones (3) y (4).

𝑋 = 𝜆𝑥 (3)
𝑌 = 𝜆𝑦 (4)

Donde 𝜆 es cambio de escala, sin generar una distorsión de la imagen, que se quiere
realizar.

III. Rotación

Para rotar una imagen, en el eje z, de forma bidimensional se utiliza las ecuaciones (5) y
(6), basadas en la Figura 3-4 (Sánchez Sobrino, 2006).

49
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

𝑋 = 𝑥 cos 𝛼 − 𝑦 sin 𝛼 (5)


𝑌 = 𝑥 sin 𝛼 + 𝑦 cos 𝛼 (6)

Figura 3-4: Giro bidimensional.

Con lo explicado anteriormente se tiene que la transformación bidimensional de una


imagen se define de forma matricial mediante la ecuación (7), la cual es utilizada para
las imágenes cuando se realiza rotación, escalamiento y traslación, en ese orden.

𝑋 cos 𝛼 − sin 𝛼 𝑥 𝑇𝑥
[ ] = 𝜆[ ] [𝑦] + [𝑇 ] (7)
𝑌 sin 𝛼 cos 𝛼 𝑦

3.2.1.2 Transformaciones tridimensionales

Al realizar transformaciones tridimensionales se debe realizar tres giros distintos en


torno a los ejes x, y, z; los cuales serán llamados Ω, ϕ, κ respectivamente. Basándose en
la Figura 3-5 (Sánchez Sobrino, 2006) la cual se encuentra rotada alrededor del eje x, el
cual será considerado perpendicular al papel, en donde se obtienen las ecuaciones (8),
(9) y (10).

50
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

Figura 3-5: Giro 𝛺 en la trasformación tridimensional.

I. El giro Ω será:

𝑥Ω 1 0 0 𝑥′
𝑦
[ Ω ] = [0 cos Ω sin Ω ] [𝑦′] (8)
𝑧Ω 0 − sin Ω cos Ω 𝑧′

II. El giro 𝜙 será:

𝑥𝜙 cos 𝜙 0 − sin 𝜙 𝑥′
[𝑦ϕ ] = [ 0 1 0 ] [𝑦′] (9)
𝑧𝜙 sin 𝜙 0 cos 𝜙 𝑧′

III. El giro 𝜅 será:

𝑥𝜅 cos 𝜅 sin 𝜅 0 𝑥′
𝑦
[ 𝜅 ] = [− sin 𝜅 cos 𝜅 0] [𝑦′] (10)
𝑧κ 0 0 1 𝑧′

51
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

Añadiendo traslación y el factor correspondiente a la escala, se tendrá la fórmula


señalada en (11).

𝑋 1 + cos 𝜙 + cos 𝜅 sin 𝜅 − sin 𝜙 𝑥 𝑇𝑥


[𝑌 ] = 𝜆 [ − sin 𝜅 1 + cos Ω + cos 𝜅 sin Ω ] [𝑦] + [𝑇𝑦 ] (11)
𝑍 sin 𝜙 − sin Ω 1 + cos Ω + cos Ω 𝑧 𝑇𝑧

3.2.2 Orientación de la imagen

3.2.2.1 Sistema de coordenadas

Para el proceso de realización del mapa final del proyecto fotogramétrico es necesario
guiar el trabajo por un sistema coordenado. De esta forma se podrá identificar puntos de
control tanto de terreno como de las imágenes. Para esto se pueden manejar tres sistemas
de coordenadas distintas, que son:

 Sistema de coordenadas de la fotografía: Sistema que se le da a los puntos de


una imagen, rectangular con origen en el punto principal, llamado 𝑤, con el eje x
en dirección del vuelo y el eje y perpendicular a éste, para que de esta forma
cualquier punto dentro de la imagen pueda ser representado por las coordenadas
bidimensionales (𝑥𝑝 , 𝑦𝑝 ). Para esto se define marcas fiduciales tanto en el eje x
como en el eje y, quedando de esta forma el centro fiducial, lo que es llamado
sistema fiducial (Sánchez Sobrino, 2006).

Aunque rara vez el centro fiducial coincide con 𝑤 (siendo el fiducial el centro
geométrico y 𝑤 es el físico (𝑥0 , 𝑦0 )) se puede realizar una traslación desde el
centro fiducial al centro de proyección 𝑤, obteniendo de esta forma el sistema de

52
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

coordenadas de la fotografía. Por lo cual, para cada imagen resulta necesario


calcular el centro principal, su distancia focal 𝑓 y la distorsión que puede tener la
imagen, lo que se puede realizar mediante el uso de los datos de la calibración de
la cámara fotográfica y midiendo las coordenadas de la fotografía.

En las imágenes también se tendrá una tercera coordenada, la cual será dada por la
distancia focal del lente de la cámara al momento de tomar la imagen, donde
cualquier medición es tomada con origen en el centro fiducial, por lo que el
sistema tridimensional será dado por (12) y (13).

Sistema positivo: (𝑥𝑝 − 𝑥0 , 𝑦𝑝 − 𝑦0 , −𝑓) (12)


Sistema negativo: (𝑥𝑝 − 𝑥0 , 𝑦𝑝 − 𝑦0 , 𝑓) (13)

En la Figura 3-6 (Sánchez Sobrino, 2006) se puede observar lo mencionado


anteriormente donde el centro fiducial está dado por el origen de las coordenadas
X, Y, Z y el centro de proyección está señalado en el punto (X0, Y0)

Figura 3-6: Sistemas fiducial y coordenadas de la fotografía.

53
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

 Sistema de coordenadas del modelo: Es un sistema tridimensional el cual toma


como origen la fotografía que se encuentra al inicio del vuelo fotogramétrico, o la
que esté más a la izquierda, mientras que la dirección del vuelo es tomado como la
referencia del eje x para el modelo. Este sistema es particular para cada modelo,
pero con el uso de los ordenadores y puntos de control en terreno ha perdido
validez para el proceso fotogramétrico.

 Sistema de coordenadas del terreno: Consta de las coordenadas reales que


tiene el modelo y que se pueden cartografiar; según el Instituto Geográfico Militar
(IGM) el sistema a utilizar en Chile es el SIRGAS10 – Chile, basado en el SIRGAS
2000, el cual permite el uso de aparatos GPS para la ubicación geográfica.

3.2.2.2 Distorsiones de las imágenes

Para utilizar el sistema de coordenadas del terreno es necesario realizar un conjunto de


rotaciones y correcciones, por lo cual las coordenadas corregidas con respecto al
desplazamiento del centro fiducial y las coordenadas del punto principal serán dadas por
(14) y (15).

𝑥′𝑝 = 𝑥𝑝 + 𝑥0 (14)
𝑦′𝑝 = 𝑦𝑝 + 𝑦0 (15)

10
SIRGAS: Sistema de Referencia Geocéntrico para las Américas.

54
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

Dentro de las distorsiones que se debe tener en cuenta para el trabajo fotogramétrico se
tienen las mencionadas a continuación.

 Distorsión por el lente de la cámara: Esta es una distorsión producida por el


lente al momento que el haz de luz lo atraviesa, tal como se muestra en Figura 3-7
(Pérez Álvarez, 2001a).

Figura 3-7: Efecto de la distorsión del lente de la cámara.

En efecto, la distorsión del lente dará como origen a tres distorsiones; la distorsión
radial simétrica, la radial asimétrica y la tangencial. Comúnmente las dos últimas
no se toman en cuenta al momento de la corrección (Pérez Álvarez, 2001a).

La distorsión radial simétrica: se especifica en el certificado de calibración de


la cámara, y viene en función de la distancia radial (𝑟) y de su distorsión (∆𝑟).
Generalmente para obtenerla se realiza una aproximación a un polinomio de la
distorsión radial de la lente, el cual consiste en aproximar el polinomio de la
ecuación (16).

55
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

∆𝑟 = 𝑎1 𝑟 + 𝑎2 𝑟 3 + 𝑎3 𝑟 5 + 𝑎4 𝑟 7 (16)

(𝑟 = √𝑥𝑇2 + 𝑦𝑇2 ) (17)

donde 𝑥𝑇 , 𝑦𝑇 corresponden a las coordenadas transformadas del punto


correspondiente, y vienen dadas por las ecuaciones (18), (19) y (20).

𝑥𝑇 = 𝑥𝐹 − 𝑥𝜔 (18)
𝑦𝑇 = 𝑦𝐹 − 𝑦𝜔 (19)
𝑥𝐹 𝜆 cos 𝛼 −(𝜆𝑦 (cos 𝛼 sin 𝑏 + sin 𝛼 cos 𝑏)) 𝑥𝐾
[𝑦 ] = [ 𝑥 ] + [𝑥 ] (20)
𝐹 𝜆𝑥 sin 𝛼 𝜆𝑦 (cos 𝛼 sin 𝑏 + sin 𝛼 cos 𝑏) 𝐾

Siendo las variables restantes las correspondientes a los puntos y ángulos


correspondientes a la transformación bidimensional mencionada en la sección
3.2.1. Los coeficientes 𝑎1 ,𝑎2 , 𝑎3 y 𝑎4 definen la forma que posee la curva.

Posteriormente, la corrección de los puntos viene dada por las ecuaciones (21) y
(22).
∆𝑟𝑥𝑡
𝑥 ′ = 𝑥𝑇 + ∆𝑥𝑇 = + 𝑥𝑇 (21)
𝑟
∆𝑟𝑦𝑡
𝑦 ′ = 𝑦𝑇 + ∆𝑦𝑇 = + 𝑦𝑇 (22)
𝑟

 Distorsión del objetivo: Ésta es una de las deformaciones en las imágenes que
más interfieren en la búsqueda de puntos homólogos entre imágenes. Depende
directamente de la distancia radial del punto, y se puede expresar como un
polinomio de grado impar expresado en (23) (Sánchez Sobrino, 2006):

∆𝑟 = 𝐾1 𝑟 3 + 𝐾2 𝑟 5 + 𝐾3 𝑟 7 + ⋯ (23)

56
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

donde 𝑟 corresponde a la distancia radial del punto y 𝐾𝑖 son constantes, aunque


usualmente sólo se trabaja con 𝐾1 , el cual es un coeficiente que depende de las
condiciones de presión, temperatura y humedad existentes al momento de tomar la
fotografía.

 Refracción atmosférica: Cuando se tiene fotografías a pequeña escala se


produce una distorsión dada por la refracción del rayo de la toma de imagen la
cual es expresada en (24).

𝑟3
∆𝑟 = 𝐾 (𝑟 + ) (24)
𝑓2

donde 𝐾 depende de la altura del vuelo y las condiciones climáticas existentes al


momento de la toma de la imagen, aunque también es posible obtenerlas a partir
de las condiciones atmosféricas estándar establecidas por la Organización
Internacional de Aviación Civil (ICAO) y tomas verticales. Mientras que f es la
distancia focal de la cámara.

 Esfericidad terrestre: En imágenes a pequeña escala existe una corrección que


realizar para eliminar la curvatura terrestre, la cual influye bastante en vuelos que
dan escalas superiores a 1/5000. Para solucionar esto se puede utilizar la ecuación
(25).

𝐻′𝑟 3
∆𝑟 = (25)
2𝑅′𝑓 2
donde H’ es la altura sin contemplar la esfericidad terrestre, mientras que R’ es la
distancia que existe entre el objeto y el centro de proyección de la cámara, la

57
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

explicación de cómo se obtienen estas ecuaciones se encuentra en Pérez Álvarez


(2001).

Todas estas correcciones se pueden omitir en la reconstrucción del modelo, ya que todo
queda a petición del cliente que solicite el proyecto fotogramétrico. Para este trabajo
expuesto no se tomará estas correcciones dado que:

 Las distorsiones por curvatura terrestre y refracción atmosférica se omiten dado


que las imágenes de prueba son menores a la escala sugerida para comenzar a
aplicarlas (1/5000).

 El factor 𝐾 no se puede obtener para todos los proyectos destinados, ya que se


contempla utilizar solo fotografías aéreas, que puede ser que no tengan más
información que la que se puede ver en ellas.

3.2.2.3 Orientaciones

Al realizar el proceso de orientación de las imágenes, lo que realmente se hace es la


búsqueda de factores, mediante el uso de las trasformaciones indicadas anteriormente.
Dentro de las orientaciones se encuentran la interna, relativa y absoluta, las cuales son
explicadas a continuación.

I. Orientación interna

En el proceso de orientación interna se debe determinar las coordenadas del punto


principal (𝑥0 , 𝑦0 ), la distancia focal 𝑓 y la función de distorsión de los lentes, todos estos

58
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

elementos se obtienen desde los certificados de calibración de la cámara o de resultados


en una máquina de laboratorio.

II. Orientación relativa

Su fin es generar un par fotogramétrico y la posición relativa de ambas imágenes al


momento de la toma. Antes, esto era llevado a cabo por medio del uso de cinco puntos,
los cuales deben estar bien distribuidos en la zona de solape de ambas imágenes,
llamados puntos de Von Gruber, aunque también se puede realizar mediante el uso de
condiciones de coplanariedad o colinearidad. Todo esto siempre dará como resultado
tres giros y tres traslaciones para cada imagen (Pérez Álvarez, 2001a; Sánchez Sobrino,
2006).

II. A. Condiciones de coplanariedad

Condiciones de coplanariedad: Son establecidas por medio de dos centros de


proyección, llamados 𝑂1 y 𝑂2, un punto cualquiera en el terreno, conocido como 𝐴, y
sus respectivas representaciones en ambas imágenes, 𝑎1 y 𝑎2 , donde estos últimos deben
estar en el mismo plano, tal como se muestra en Figura 3-8 (Sánchez Sobrino, 2006).

Matemáticamente, esto indica que el producto punto entre la base estereoscópica y los
dos rayos homólogos debe ser 0, lo que se muestra en la ecuación (26).

⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗
𝑂 ⃗⃗⃗⃗⃗⃗⃗⃗⃗ ⃗⃗⃗⃗⃗⃗⃗⃗⃗
1 𝑂2 ∙ (𝑂1 𝑎1 ∙ 𝑂2 𝑎2 ) = 0 (26)

59
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

Figura 3-8: Condición de coplanariedad.

Lo que es similar a que el determinante de la matriz M sea igual a 0, donde la matriz M


está dada por (27).

𝑏𝑥 𝑏𝑦 𝑏𝑧
𝑀 = [𝑥′1 𝑦′1 𝑧′1 ] = 0 (27)
𝑥′2 𝑦′2 𝑧′2

donde 𝑏𝑥 , 𝑏𝑦 , 𝑏𝑧 son los valores de la traslación necesaria para que una de las imágenes
de la Figura 3-8 coincida con la otra en los puntos a1 y a2, los cuales representan el punto
A.

Entonces, como ambas imágenes se encuentran referenciadas a algún sistema de


coordenadas, los cuales fueron tratados en la sección 3.2.2.1, para que se cumpla lo
indicado se debió haber aplicado alguna rotación 𝑅 a cada imagen, lo que da origen a las
formulas (28) y (29).

𝑥 ′1 𝑥1
⃗⃗⃗⃗⃗⃗⃗⃗⃗ 𝑦 ′ 𝑥
𝑂1 𝑎1 = ( 1 ) = 𝑅1 ∙ ( 2 ) (28)
𝑧 ′1 𝑓

60
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

𝑥′2 𝑥2
⃗⃗⃗⃗⃗⃗⃗⃗⃗ 𝑦 ′ 𝑦
𝑂2 𝑎2 = ( 2 ) = 𝑅2 ∙ ( 2 ) (29)
𝑧′2 𝑓

Midiendo las coordenadas en la fotografía se puede escribir una ecuación, por lo cual es
necesario tener al menos cinco puntos para obtener la solución de todos los parámetros
de las ecuaciones. Los puntos en común de ambas fotografías deben estar bien
distribuidos en la zona de recubrimiento, tal como lo plantea Von Grüber. Normalmente
se escoge al menos 20 puntos para realizar este proceso (Sánchez Sobrino, 2006).

II. B. Condiciones de colinearidad

El principio básico de la colinearidad indica que desde el centro de proyección (O), un


punto en la imagen (a) y un punto en el modelo (A) los cuales se encuentran alineados,
se tendrá dos sistemas de coordenadas distintos, uno para el modelo a generar (X, Y, Z) y
otro para la imagen (x, y), lo cual se muestra en la Figura 3-9 (Sánchez Sobrino, 2006).

Figura 3-9: Condición de colinearidad.

61
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

Dado lo anterior, se tiene tres puntos de interés los cuales son:

 A: Perteneciente al modelo; representado por los puntos (𝑋, 𝑌, 𝑍).

 a: Perteneciente a la imagen; representado por los puntos (𝑥, 𝑦, 0)(el valor de la


coordenada z es cero ya que se considera que la imagen es plana).

 O: Externo al modelo y la imagen, pero sus coordenadas en cada uno de los


sistemas de referencia respectivamente será (𝑥0 , 𝑦0 , 𝑓) y (𝑋0 , 𝑌0 , 𝑍0 ).

De esta forma se tiene dos vectores, llamados 𝑢


⃗ y 𝑣, además se debe cumplir que
𝑢
⃗ = 𝜆 ∙ 𝑣, donde 𝜆 es un factor de escala. Los vectores 𝑢
⃗ y 𝑣 están dados por (30) y (31)
respectivamente.

𝑥 − 𝑥𝑜
𝑢 ⃗⃗⃗⃗⃗ = (𝑦 − 𝑦0 )
⃗ = 𝑂𝑎 (30)
−𝑓
𝑋 − 𝑋𝑜
⃗⃗⃗⃗⃗ = ( 𝑌 − 𝑌0 )
𝑣 = 𝑂𝐴 (31)
𝑍 − 𝑍0

Para poder establecer la condición de colinearidad entre ambos sistemas, se hace


necesario aplicar una transformación que permita realizar una rotación entre ambos
modelos con el fin de que queden paralelos entre sí. Esto indica que se debe cumplir la
ecuación (32), con la rotación R dada por (33).

𝑥 − 𝑥0 𝑋 − 𝑋0
[ 𝑦 − 𝑦0 ] = 𝜆 ∙ 𝑅 ∙ [ 𝑌 − 𝑌0 ] (32)
−𝑓 𝑍 − 𝑍0
cos 𝜑 cos 𝜅 − cos 𝜑 sin 𝜅 sin 𝜅
𝑅 = [cos 𝜔 sin 𝜅 + sin 𝜔 sin 𝜑 cos 𝜅 cos 𝜔 cos 𝜅 − sin 𝜔 sin 𝜑 sin 𝜅 − sin 𝜔 cos 𝜑] (33)
sin 𝜔 sin 𝜅 − cos 𝜔 sin 𝜑 cos 𝜅 sin 𝜔 cos 𝜅 + cos 𝜔 sin 𝜑 sin 𝜅 cos 𝜔 cos 𝜑

62
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

III. Orientación absoluta

La orientación absoluta consiste en posicionar el modelo generado en el sistema


absoluto y así obtener su factor de escala. Esto es realizado mediante la realización de
giros y traslaciones, temas que son vistos en la sección 3.2.1.1. Para esto se necesita
conocer siete incógnitas, correspondiente a tres giros, tres traslaciones y el factor de
escala, por lo que se requiere de al menos tres puntos identificables en el modelo y el
terreno. Se puede disminuir la cantidad de puntos necesarios si se sabe la coordenada Z
del terreno (Sánchez Sobrino, 2006). Los puntos que son utilizados para generar la
orientación absoluta de los modelos son llamados puntos de control. La orientación es
obtenida mediante el uso del sistema de ecuaciones señalado en (34).

𝑋1 𝑥𝑚 𝑇𝑥
[ 𝑌1 ] = 𝜆 ∙ 𝑅 ∙ [𝑦𝑚 ] + [𝑇𝑦 ] (34)
𝑍1 𝑧𝑚 𝑇𝑧

3.2.2.4 Puntos de control

Los puntos de control corresponden a puntos identificables dentro del modelo creado y
que son medidos en el terreno de alguna forma que indique su precisión. Hoy en día los
puntos en el terreno son tomados mediante el uso de herramientas GPS. Para poder
obtener control sobre la precisión del modelo es necesario conocer al menos cuatro
puntos de control. Así se puede realizar un ajuste mediante el uso del algoritmo de
mínimos cuadrados (Sánchez Sobrino, 2006). El uso de estos puntos da un costo extra a
la fotogrametría, principalmente porque requiere un trabajo en terreno y además deben
estar bien distribuidos para que su uso sea el correcto.

63
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

Según Pérez Álvarez (2001ª) y Sánchez Sobrino (2006) los puntos de control deben
cumplir con las siguientes características:

 El punto debe ser perfectamente identificable en la imagen, siempre y cuando


aparezca en ella. Esto se debe cumplir para todas las imágenes que lo utilizarán.

 Debe ser un detalle estable, es decir, no puede ser un objeto que estuvo en
movimiento durante el vuelo fotogramétrico.

 Debe estar en una zona que cumpla los criterios de distribución analizados en la
planificación del proyecto fotogramétrico.

 Debe estar en un sitio llano que sea identificable con el eje Z del sistema de
coordenadas del terreno.

 Su tamaño debe ser 𝐸/250 en donde 𝐸 es determinado por el factor de la escala


del proyecto.

Cuando se realiza un proyecto fotogramétrico estos puntos se deben entregar mediante


marcas ingresadas al modelo final realizado.

3.2.3 Corrección de errores o remuestreo

Dentro de los proyectos fotogramétricos la transformación de coordenadas y la


orientación de la imagen se realizan con cada uno de los puntos que se encuentran dentro
de ella, pero esto es imposible de realizar, por lo cual el trabajo es en base a la
información existente en cada uno de los pixeles.

64
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

Por esto, al realizar el trabajo fotogramétrico se producirán errores, dado que los valores
que se tendrán en la imagen corregida serán distintos a los que se tenían originalmente,
como lo representa la Figura 3-10. Luego es necesario realizar una interpolación del
modelo generado.

Figura 3-10: Remuestreo de imágenes.

Para generar la corrección del modelo existen distintos métodos siendo los más
utilizados los siguientes:

 Método del vecino más próximo: En este método el valor del pixel en la
imagen resultado es igual al valor del pixel más próximo que se encuentre en la
imagen original, como se señala en la Figura 3-10, el pixel A, señalado en la
imagen original al centro de un cuadrante, mientras que luego del remuestreo, en
la imagen resultado queda lejano al centro, le dará valor al color que deberá tener
el pixel B, mostrado en la imagen resultado. Esto produce una distorsión en los
rasgos laterales de la imagen, tales como las carreteras, caminos, casas, etc.

 Método de interpolación bilineal: Consiste en promediar el valor de los cuatro


píxeles más próximos en la imagen original, ponderándolos por un factor,

65
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

dependiente de la distancia a la que se encuentren. Esto reduce el efecto de la


distorsión en los rasgos lineales, pero se difuminan los contrastes espaciales de la
imagen original.

 Método de convolución bicúbica: Es un proceso similar a la interpolación


bilineal, solo que éste considera los dieciséis píxeles más próximos.

Dentro de los tres métodos, el del vecino más próximo es el más simple, mientras que la
convolución bicúbica es aquel que posee mayor cantidad de cálculos. Mientras que
geométricamente hablando, el primero es aquel que posee mayor error versus los demás
métodos, 15,7% del vecino más cercano contra 3,7% y 0,3% para la interpolación
bilineal y la convolución bicúbica, respectivamente (Pérez Álvarez, 2001a).

3.3 ALGORITMOS EXISTENTES

3.3.1 Triangulación aérea

3.3.1.1 Descripción del proceso de triangulación aérea

Según lo definen Pérez Álvarez (2001a) y Sánchez Sobrino (2006) la triangulación aérea
es un conjunto de procesos que se llevan a cabo para deducir los puntos de apoyo en el
terreno mediante el uso de procedimientos fotogramétricos, reduciendo de esta forma el
trabajo en el terreno y por ende el costo del proyecto. Además este proceso provee otras
características tales como:

66
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

 Una minimización de costos por condiciones atmosféricas adversas, ya que la


mayor parte de los cálculos se realiza con el uso de una computadora.

 No se necesita acceder mucho al área del proyecto y en casos puede ser que no se
deba acceder, permitiendo de esta forma realizar modelos de lugares inaccesibles
para los humanos.

 Reduce el tiempo de trabajo en áreas difíciles, ya que no se necesita acceder


físicamente y el trabajo lo realiza una computadora.

 El ahorro del trabajo para formar puentes11(Pérez Álvarez, 2001a) se verifica


durante el proceso de triangulación aérea, dando como consecuencia la posibilidad
de controlar valores erróneos, los cuales posteriormente pueden ser minimizados e
incluso eliminados.

El último punto mencionado nace de una idea proveniente del año 1940, cuando se
realizaba mediciones sobre dos fotografías para calcular los puntos de un modelo
(llamado triangulación aérea de un bloque de un único modelo). Posteriormente,
mediante uso de varios modelos consecutivos y sus respectivas coordenadas se
empalmaban, utilizando para esto un conjunto de puntos comunes entre los modelos
contiguos. Utilizando varias fajas lindantes se podría realizar una compensación 12 (temas
que son vistos en la sección 3.2.3). Este método se denominó Aeropoligonación (Pérez
Álvarez, 2001a).

La aeropoligonación posee varios problemas, ya que la compensación necesita muchos


cálculos, razón por la cual se utilizan fotogramas de menor escala en conjunto de
aparatos que produjeran una mayor precisión, tales como el paralelogramo de Zeiss y
mecanismos ópticos de inversión de imágenes, proceso que resulta ser muy costoso
(Pérez Álvarez, 2001a).

11
Unión de los puntos de control ubicados en los extremos de dos fotografías.
12
Corrección de errores mediante algún método

67
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

No fue hasta cercanía de los años sesenta, con el uso de computadoras y el aumento de
la velocidad de cálculo, cuando se desarrollaron otros métodos, destacando
principalmente el proceso de haces de rayos y el de modelos independientes.

Como se menciona en la sección 3.2.2, los puntos que son medidos en el terreno e
identificables en las fotografías se llaman puntos de control; mientras que los puntos que
son determinados mediante el uso triangulación aérea son llamados puntos de enlace y
puntos de paso.

Según Pérez Álvarez (2001a) el proceso de aerotringulación consta de tres fases, las
cuales son descritas a continuación:

I. Fase de preparación

En esta etapa se debe recopilar el material, seleccionar los puntos de enlace y de paso,
además de generar la preparación de un esquema general de los canevás13 de puntos.

El proceso de recopilación de información debe tener en cuenta las fotografías como la


información relacionada a los puntos de control, comprobando que la distribución de
estos últimos es adecuada para el proyecto y para el método de triangulación aérea. Para
esto se establecen necesidades de control planimétrico, tal como una distribución
alrededor del bloque de los puntos de control, los cuales son distribuidos
dependientemente de la precisión que requiera el proyecto fotogramétrico. También se
establecen las necesidades del control altimétrico, en donde los puntos de control son
ubicados a través del bloque y convenientemente situados en las zonas de recubrimiento
transversal entre pasadas. Ambos tipos de controles se pueden observar en la Figura
3-11. Según Pérez Álvarez (2001a), es necesario al menos una cadena de cada uno de
estos puntos cada cuatro modelos.

13
En cartografía, red formada en un mapa por líneas que delimitan cuadriláteros.

68
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

Figura 3-11: Puntos de control planimétrico (izquierda) y altimétrico (derecha).

En cuanto a la elección de los puntos de enlace y de paso, deben escoger puntos que
permitan unir todas las fotografías; si estos puntos no se conocen, se determinan
mediante los procesos de triangulación aérea, los cuales son vistos en la sección 3.3.1.2.
Estos puntos son utilizados para generar la orientación absoluta. Además se usan para
enlazar los modelos.

Los puntos de paso son aquellos que sirven para formar las pasadas como también para
generar la corrección ortogonal del modelo, para esto los puntos deben estar visibles en
al menos tres fotografías. Los puntos de enlace cumplen el objetivo de conectar cada una
de las pasadas adyacentes del modelo (Pérez Álvarez, 2001a).

La preparación del esquema general de canevás predispone el cómo serán unidas las
fotografías y qué modelos se tendrá. Además se ha de indicar cuáles serán los puntos de
control de forma general.

II. Fase de medición

Esta fase variará según el método de triangulación aérea que se vaya a utilizar. Pero en
el fondo consiste en tomar los datos necesarios para realizar un procesamiento de datos a

69
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

partir de la medición de los pares estereoscópicos. Este proceso se puede realizar el


proceso mediante el uso de la aeropoligonación (Pérez Álvarez, 2001a), utilizando algún
instrumento fotogramétrico o, se puede generar la medición de las coordenadas en las
fotografías utilizando un computador.

III. Fase de procesamiento de datos

En esta fase se realiza un ajuste del bloque mediante el uso de las mediciones obtenidas
en la fase anterior, fase de medición, en conjunto con las coordenadas de los puntos de
control, resultando de esta forma una relación de las coordenadas ajustadas y las
diferencias entre las coordenadas de estos puntos y los puntos de enlace y de paso.

Esta etapa se depende completamente del método de triangulación aérea que se utilice,
por lo que se puede generar distintos casos, en donde las etapas se pueden apreciar en la

Tabla 3-1 (Pérez Álvarez, 2001b). Al final de cada uno de ellos se deberá realizar una
comprobación.

70
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

Tabla 3-1: Pasos a seguir en la fase de procesamiento de datos según el método


aerofotogramétrico utilizado.

71
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

3.3.1.2 Métodos de triangulación aérea

I. Por pasadas

Este método posee sus orígenes en la triangulación aérea cuando aún no eran utilizados
elementos digitales, y principalmente se usaban aquellos del tipo analógico, aquellos que
permitían obtener la orientación relativa, lo que era realizado mientras se introducía una
fotografía nueva al instrumento de proyección, como el estereocomparador de Pulfrich,
dejando siempre la fotografía anterior inmóvil y realizando movimientos de rotación a la
imagen que se estaba introduciendo. La formación de cada una de las pasadas se
realizaba en el instrumento, independiente de si el método es analítico o analógico, este
procedimiento posee una serie de fases, las cuales son:

 Orientación relativa de cada modelo

 Conexión de los modelos adyacentes, para así formar una pasada

 Ajuste y compensación de la pasada por medio de los puntos de control

Gran parte de los pasos necesarios en este método consiste en el planteamiento de


ecuaciones, las cuales mezclan los elementos de la orientación relativa en conjunto con
las constantes de la cámara y coordenadas de las imágenes, obteniendo de esta forma los
parámetros necesarios para generar un sistema de coordenadas relativo al modelo,
destacando principalmente las fases que se describen a continuación.

72
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

I. A. Preparación y medida de coordenadas

En esta etapa se toma el material consistente en la totalidad de las fotografías y el


conjunto de los puntos de control junto a sus coordenadas. Además se debe medir e
indicar cuales son los lugares, de forma aproximada, en donde se encuentran los puntos
de control en las fotografías.

I. B. Transformación del sistema comparador al sistema de coordenadas fiduciales

En esta etapa se debe realizar las correcciones necesarias con respecto a las coordenadas
fiduciales que posee cada una de las fotografías. Este tema es analizado en la sección
3.2.2.

I. C. Correcciones a las coordenadas

En esta etapa se determina y corrige las distorsiones que pudiesen tener las fotografías
debido a efectos externos. Principalmente se corrige la distorsión del lente de la cámara,
la refracción atmosférica y la esfericidad terrestre. Las ecuaciones de corrección y
condiciones son tratadas en la sección 3.2.2.2.

I. D. Determinación de los elementos de la orientación relativa

Como se menciona en la sección 2.2.2.2, la orientación relativa de las fotografías está


dada al momento en que los rayos conjugados, de al menos cinco puntos, se intersectan,
aplicando la condición de coplanariedad, la cual se analiza en la sección 3.2.2.3. En caso
de no poder obtener esta condición, se puede tomar que las coordenadas del centro de
proyección de una de las fotografías a utilizar posee un conjunto de valores
determinados, como por ejemplo: 𝑂1 (𝑋01 , 𝑌01 , 𝑍01 ) = (0,0,0). Además los giros

73
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

(𝜔1,𝜑1 ,𝜅1 ) son cero, produciendo de esta forma que los parámetros a calcular sean
solamente cinco (𝜔2 ,𝜑2 ,𝜅2 , 𝑏𝑦 , 𝑏𝑧 ). Estos elementos son mostrados en la Figura 3-12
(Pérez Álvarez, 2001a).

Figura 3-12: Sistema con origen en el centro de proyección izquierdo.

I. E. Cálculo de las coordenadas del modelo.

En esta etapa se realiza los cálculos dependientes del proceso anterior, es acá donde se
utiliza las ecuaciones de orientación, señaladas en la sección 3.2.2. Este proceso se debe
realizar para cada uno de los modelos que se estima obtener, según Pérez Álvarez
(2001a) esto se genera con dos fotografías consecutivas sin repetir ninguna en el

74
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

proceso, es decir, con las fotografías 1 y 2, luego con las 2 y 3, después 3 y 4 y así
sucesivamente hasta completar todas las fotografías correspondientes a una pasada.

Una vez que se tiene los parámetros de la orientación relativa se puede obtener de forma
más simple las coordenadas en terreno de los puntos que intervienen en la triangulación
aérea.

I. F. Formación de la pasada.

Luego de haber realizado el cálculo de las coordenadas, orientación relativa de cada


modelo, se genera distintos modelos que son independientes entre sí, como se muestra
en la Figura 3-13 (Pérez Álvarez, 2001a), se debe realizar una definición de un sistema
de coordenadas correspondiente a toda la pasada, mostrada en la Figura 3-14 (Pérez
Álvarez, 2001a).

Figura 3-13: Representación de cada modelo independiente.

La conexión de los modelos para formar la pasada se realiza mediante una


transformación tridimensional o por medio de un procedimiento operacional basado en
los datos de cada modelo correspondiente de la pasada, utilizando principalmente los

75
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

parámetros calculados en la orientación relativa de cada uno de ellos (Pérez Álvarez,


2001).

Figura 3-14: Formación de la pasada.

Para el primer método, es decir la transformación tridimensional, para el enlace de cada


uno de los modelos se hace necesaria una rotación (𝑅), un factor de escala (𝜆) y tres
traslaciones (𝑇𝑥 , 𝑇𝑦 , 𝑇𝑧 ), quedando expresada la transformación de acuerdo al sistema de
ecuaciones señalado en (35).

𝑋 𝑎11 𝑎12 𝑎13 𝑥 𝑇𝑥


𝑎
[𝑌 ] = 𝜆 [ 21 𝑎22 𝑎23 ] [𝑦] + [𝑇𝑦 ] (35)
𝑍 𝑎31 𝑎32 𝑎33 𝑧 𝑇𝑧

Donde 𝑎𝑖𝑗 son coeficientes dados en función de senos y cosenos de los ángulos de
rotación (Ω,Φ,Κ).

La pasada se forma mediante el uso de los puntos de paso comunes entre modelos
adyacentes. En este proceso se miden las coordenadas de los centros de proyección de

76
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

cada modelo, los cuales se utilizan en las transformaciones como puntos en común entre
ellos, generando de esta forma una geometría sólida para el modelo final.

En el segundo método se lleva a cabo tres pasos, los cuales corresponden a la rotación,
cambio de escala y desplazamientos.

Asumiendo que se ha realizado la orientación relativa analítica, determinado las


coordenadas de cada uno de los modelos con origen en el centro de proyección izquierdo
y además la matriz de rotación correspondiente al haz izquierdo es la matriz unidad, se
tiene lo indicado en la Figura 3-15 (Pérez Álvarez, 2001a).

Figura 3-15: Modelos que cumplen condiciones de haz izquierdo fijo.

Si se asume que el origen del sistema coincide con el origen de las coordenadas del
primer modelo, se tendrá que pertenecerá a la misma posición relativa, por lo cual la
rotación del primer modelo corresponderá a la matriz identidad.

Entonces si se gira el segundo modelo de tal forma que 𝑂2 tenga la misma rotación que
en el modelo 1, y esto se realiza para todos los modelos consecutivos se tiene que el
proceso se puede describir mediante el seguimiento de la ecuación (36).

𝑟1 = 𝑅1 = 𝐼
(36)
𝑟2 = 𝑅1 𝑅2 = 𝑟1 𝑅2

77
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

𝑟3 = 𝑅1 𝑅2 𝑅3 = 𝑟2 𝑅3
𝑟𝑛 = 𝑅1 𝑅2 𝑅3 ⋯ 𝑅𝑛 = 𝑟𝑛−1 𝑅𝑛

Donde 𝑟𝑖 corresponde a la rotación del modelo y 𝑅𝑖 representa la rotación de haz. Según


Pérez Álvarez (2001a) puede ser que 𝑟1 tome otro valor, como por ejemplo el valor
obtenido a partir de la orientación absoluta del primer modelo con los puntos de control.

Una vez determinadas las coordenadas de interés de los modelos, es decir, se ha


calculado los puntos de control, centros de proyección, puntos de paso y de enlace, se
procede al ajuste de escala entre dos modelos consecutivos, como se muestra en la
Figura 3-16.

Figura 3-16: Ajuste de escala de dos modelos consecutivos.

En la Figura 3-16 se observa que se puede obtener el factor de escala referente al punto
𝑃, el cual aparece en ambos modelos. Es por esto que mediante ecuaciones de
equivalencia la escala del modelo está dada por (37) y (38).

78
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

̅̅̅̅̅̅̅̅̅̅
𝑂𝑛+1 𝑝𝑛 𝐷𝑛
𝜆𝑛 = = (37)
̅̅̅̅̅̅̅̅̅
𝑂 𝑛+1 𝑃𝑛 𝑑
̅̅̅̅̅̅̅̅̅̅̅̅
𝑂𝑛+1 𝑝𝑛+1 𝐷𝑛+1
𝜆𝑛+1 = = (38)
̅̅̅̅̅̅̅̅̅̅̅̅
𝑂𝑛+1 𝑃𝑛+1 𝑑

Entonces, cuando el factor de escala (𝜆) en ambos modelos es igual, significa que existe
una correspondencia entre las escalas del modelo, por lo tanto existe a la vez un factor
de escala propio para modelos consecutivos, lo cual es mostrado en las ecuaciones (39) y
(40).

𝐷𝑛 = Δ𝜆𝑛𝑛+1 𝐷𝑛+1 (39)


𝐷𝑛⁄
𝑑
𝐷𝑛 𝜆𝑛
Δ𝜆𝑛𝑛+1 = = = (40)
𝐷𝑛+1 𝐷𝑛+1⁄ 𝜆𝑛+1
𝑑

Para finalizar la utilización de este método, es necesario realizar el desplazamiento


correspondiente para lograr unir los modelos. Este desplazamiento siempre utiliza como
referencia el lugar de origen del modelo anterior.

Dado lo anterior, en el caso del primer modelo el desplazamiento será nulo, es decir 0 en
las coordenadas 𝑥,𝑦,𝑧, en donde por medio de ecuaciones se determina que el
desplazamiento para el modelo n viene dado por la ecuación (41).

𝑇𝑥𝑛 𝑇𝑥𝑛−1 𝑏𝑥𝑛−1


[𝑇𝑦𝑛 ] = [𝑇𝑦𝑛−1 ] + 𝜆𝑛−1 [𝑏𝑦𝑛−1 ] (41)
𝑇𝑧𝑛 𝑇𝑧𝑛−1 𝑏𝑧𝑛−1

donde 𝜆𝑛−1 corresponde a un factor de traslado correspondiente al modelo anterior;


𝑇𝑥𝑛−1 , 𝑇𝑦𝑛−1 , 𝑇𝑧𝑛−1 corresponden a las traslaciones acumuladas desde el modelo
inicial al modelo n en las coordenadas 𝑥,𝑦,𝑧 respectivamente; y 𝑏𝑥𝑛−1 , 𝑏𝑦𝑛−1 , 𝑏𝑧𝑛−1

79
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

corresponden a las traslaciones del modelo n con respecto al modelo n-1 en las
coordenadas 𝑥,𝑦,𝑧.

Sin importar si se utiliza una transformación tridimensional o un procedimiento


operacional basado en los datos de cada uno de los modelos, se debe ajustar a las
coordenadas de terreno mediante el uso de la mayor cantidad de puntos de control
posible, para aumentar la robustez del modelo a generar. A modo de ejemplo se utiliza
una pasada corta, compuesta por pocos modelos a unir, específicamente cuatro. En este
caso se requiere de un mínimo de dos puntos de apoyo horizontales y tres verticales,
aunque para dar mayor estabilidad a la solución se debe utilizar una mayor cantidad de
puntos de apoyo vertical y horizontal.

La generación de pasadas por uso de los modelos independientes produce que los errores
se vayan acumulando, provocando grandes deformaciones en las pasadas, pero mediante
estudios mostrados por Pérez Álvarez (2001a) se aprecia que existe una función
polinómica que elimina estos errores con una gran precisión. Existen otras soluciones,
pero la mayor parte corresponden a variaciones de las ecuaciones de este polinomio,
donde, para el ejemplo señalado, de cuatro modelos se tendrá las ecuaciones (42), (43) y
(44).

𝑋 = 𝑎0 + 𝑎1 𝑥 + 𝑎2 𝑦 + 𝑎3 𝑥 2 + 𝑎4 𝑥𝑦 + 𝑎5 𝑦 2 + 𝑎6 𝑥 3 + 𝑎7 𝑥 2 𝑦 + 𝑎8 𝑥𝑦 2 + 𝑎9 𝑦 4 (42)
𝑌 = 𝑏0 + 𝑏1 𝑥 + 𝑏2 𝑦 + 𝑏3 𝑥 2 + 𝑏4 𝑥𝑦 + 𝑏5 𝑦 2 + 𝑏6 𝑥 3 + 𝑏7 𝑥 2 𝑦 + 𝑏8 𝑥𝑦 2 + 𝑏9 𝑦 4 (43)
𝑋 = 𝑐0 + 𝑐1 𝑥 + 𝑐2 𝑦 + 𝑐3 𝑥 2 + 𝑐4 𝑥𝑦 + 𝑐5 𝑦 2 + 𝑐6 𝑥 3 + 𝑐7 𝑥 2 𝑦 + 𝑐8 𝑥𝑦 2 + 𝑐9 𝑦 4 (44)

Donde 𝑋, 𝑌, 𝑍 corresponden a las coordenadas trasformadas del terreno, 𝑥 e 𝑦


corresponden a las coordenadas del modelo en la pasada y 𝑎𝑖 , 𝑏𝑖 , 𝑐𝑖 corresponden a
coeficientes que definen la forma de la curva de error del polinomio.

80
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

I. G. Compensación de la pasada.

Las pasadas poseen deformaciones dada la acumulación de errores, lo cual se puede


observar en la Figura 3-17, en donde la elección del polinomio de rectificación es
escogido de acuerdo a la cantidad de puntos de control. De forma similar se selecciona
el número de parámetros y coeficientes a utilizar.

Figura 3-17: Deformación del modelo de una pasada debido a errores.

Para terrenos llanos se utiliza las fórmulas indicadas en las ecuaciones (45), (46) y (47).

∆𝑋 = 𝑎0 + 𝑎1 𝑥 − 𝑏1 𝑦 + 𝑎2 𝑥 2 − 2𝑏2 𝑥𝑦 (45)
∆𝑌 = 𝑏0 + 𝑏1 𝑥 − 𝑎1 𝑦 + 𝑏2 𝑥 2 − 2𝑎2 𝑥𝑦 (46)
∆𝑍 = 𝑐0 + 𝑐1 𝑥 − 𝑐2 𝑦 + 𝑐3 𝑥 2 − 2𝑐4 𝑥𝑦 (47)

donde ∆𝑋 y ∆𝑌 están directamente relacionados entre ellas mientras que ∆𝑍 es


independiente. Éstas corresponden a las diferencias entre las coordenadas entre las
pasadas y las de los puntos de control. Las variables 𝑥, 𝑦, 𝑧 son las coordenadas de la
pasada. Para corregir la deformación del terreno también es posible encontrar otros
polinomios como lo son los polinomios de Vermier y Shut.

81
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

I. H. Formación y ajuste del bloque al terreno.

Los bloques son creados al unir todas las pasadas mediante el uso de los puntos en
común. De forma muy similar a la formación de las pasadas, se utiliza polinomios para
realizar su unión, en donde es común ver el uso de polinomios de ajuste planimétrico,
correspondientes a la corrección de los ejes x e y, los cuales son dependientes entre
ellos, mientras que la deformación altimétrica, es decir la altura, es independiente de x e
y.

Para el ajuste altimétrico se utiliza el siguiente polinomio mostrado en (48), el cual es


utilizado para representar la propagación de errores a lo largo de pasada.

∆𝑍𝑖𝑗 = 𝑐0 + 𝑐1 𝑥𝑖𝑗 + 𝑐2 𝑦𝑖𝑗 + 𝑐3 𝑥 2 + 𝑐4 𝑥𝑖𝑗 𝑦𝑖𝑗 (∆𝑍𝑖𝑗 = 𝑍𝑖𝑗 − 𝑍𝑖 ) (48)

donde 𝑖, 𝑗 representan el punto 𝑖 en la pasada 𝑗. El polinomio es lineal en cuanto a sus


coeficientes 𝑐𝑘 mientras que las coordenadas pueden estar referenciadas al terreno o a la
pasada.

Como la zona de recubrimiento lateral es menor a la horizontal, estas no se pueden unir


de forma satisfactoria sin la utilización de puntos de control correctamente distribuidos.
Por lo cual, para formar el bloque, es necesario encontrar los valores más próximos para
que las incógnitas que representan los valores de las pasadas utilizadas sean parecidos a
los valores de los puntos de control de forma altimétrica. De esta forma se tendrá
ecuaciones como (49).

[1 𝑥𝑃𝐶 𝑦𝑃𝐶 2
𝑥𝑃𝐶 𝑥𝑃𝐶 𝑌𝑃𝐶 ]𝑃 [𝑐0 𝑐1 𝑐2 𝑐3 𝑐4 ]𝑇𝑃 = ∆𝑍𝑃𝐶,𝑃 = 𝑍𝑃𝐶,𝑃 − 𝑍𝑃𝐶 (49)

donde PC significa punto de control y p es la pasada.

82
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

Por cada una de las pasadas se debe determinar cinco parámetros, correspondientes a los
𝑐𝑖 , además de uno adicional por cada punto de enlace, dado por el valor de la altitud en
el punto, por lo cual la cantidad de puntos viene determinada por la ecuación (50).

(5 × 𝐶𝑎𝑛𝑡𝑖𝑑𝑎𝑑 𝑑𝑒 𝑃𝑎𝑠𝑎𝑑𝑎𝑠) + (𝐶𝑎𝑛𝑡𝑖𝑑𝑎𝑑 𝑑𝑒 𝑃𝑢𝑛𝑡𝑜𝑠 𝑑𝑒 𝐸𝑛𝑙𝑎𝑐𝑒) (50)

La forma del polinomio y su grado depende principalmente de la experiencia del


usuario, aunque se debe tener en cuenta lo siguiente:

 Entre más larga la pasada, se tendrá más términos, lo cual trae consigo un
polinomio de mayor grado.

 Entre más términos posea el polinomio, se necesita a su vez más puntos de


control, aumentando el coste del proyecto fotogramétrico en el terreno.

 En cuanto a ajustes planimétricos ecuaciones de primer grado suelen ser


suficientes si se trata de pasadas cortas.

 En cuanto a ajustes altimétricos polinomios de segundo grado suelen ser


suficientes, siempre y cuando la curva de error no posea puntos de inflexión.

 Teóricamente los polinomios de tercer grado son los mejores, pero estos no son
rentables en la práctica.

 No existe referencia en la literatura al uso de polinomios de grado cuatro o


superior, e inclusive se encuentra raro su uso, ya que a pesar de tener un mejor
ajuste a los puntos de apoyo, el ajuste fuera de la zona de estos puntos es muy
pobre.

En cuanto al ajuste planimétrico, la propagación de errores suele ser menos complicada


que para los ajustes altimétricos; los errores son de menor magnitud y su propagación es
uniforme en las diferentes direcciones inclusive se puede realizar un ajuste planimétrico
sin la necesidad de usar puntos de control.

83
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

Utilizando un polinomio similar al mostrado en el ajuste altimétrico, se tendrá que el


número de ecuaciones viene dado por la ecuación (51).

𝐶𝑎𝑛𝑡𝑖𝑑𝑎𝑑 𝑑𝑒 𝑒𝑐𝑢𝑎𝑐𝑖𝑜𝑛𝑒𝑠 = 𝐶𝑃 × (2 × (𝑃𝐶 + 𝑃𝐸𝐶𝑜𝑛 𝑍 )) (51)

donde CP son la cantidad de pasadas; PC son la cantidad de puntos de control; PE


corresponde a la cantidad puntos de enlace de los cuales su altura es conocida.
Considerando que las pasadas entre si poseen la misma distribución de puntos. Además
la cantidad de incógnitas está dada por la ecuación (52).

𝐶𝑎𝑛𝑡𝑖𝑑𝑎𝑑 𝑑𝑒 𝐼𝑛𝑐ó𝑔𝑛𝑖𝑡𝑎𝑠 = (𝐶𝑃 + 𝑃𝐶) + (𝐶𝑃 + 𝑃𝐸𝑆𝑖𝑛𝑍 ) + (𝐶𝑃 + 𝑃𝐸𝐶𝑜𝑛𝑍 ) (52)

II. Modelos independientes

Fue Thompson, junto a otras personas, en las cercanías de los años ’60 a quien se le
ocurrió reunir dentro de un mismo proceso todos los modos que existían hasta entonces
para realizar triangulación aérea, específicamente unió el método que utilizaba aparatos
de primer orden con aquel que usaba estereocomparadores. El proceso de Thompson
utiliza como base la realización de un modelo a partir de una pasada, el cual es generado
de forma instrumental y otro mediante modelo creado por medio de un instrumento de
restitución, de esta forma el computador realiza la conexión de los modelos. Este método
también es conocido como triangulación aérea semianalítica.

Este tipo de aerofotogrametría permite el uso de modelos que provengan desde


fotografías que tengan distintas alturas14, de diferentes bloques o desde pasadas
superpuestas, sin importar el porcentaje de recubrimiento que se posea, aunque siempre
debe existir un sector razonable necesario para realizar el proceso de triangulación aérea.

14
Se refiere principalmente a la altura desde donde son tomadas las fotografías después del vuelo
fotogramétrico.

84
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

Este método es uno de los más utilizados, según lo menciona Pérez Álvarez (2001a), ya
que es capaz de adaptarse a cualquier tipo de instrumento de restitución, siempre y
cuando sus medidas posean una precisión adecuada.

La triangulación aérea posee dos fases para su desarrollo las cuales corresponden a una
instrumental y otra correspondiente a la construcción del bloque. La primera consiste en
la obtención de la orientación relativa de cada uno de los modelos, en conjunto con la
medición de los puntos de interés, los cuales son los puntos de control, de paso y de
enlace; comúnmente para este tipo de modelos se utiliza un sistema de referencias de
coordenadas distinto, referidos al centro de proyección de la fotografía izquierda. Para la
segunda fase, la unión de los modelos se realiza mediante el uso de transformaciones
tridimensionales sucesivas, razón por la cual el ajuste o compensación del bloque sea
realizado en esta etapa.

En este proceso los centros de proyección se utilizan como puntos adicionales de paso
para la conexión de los modelos. También son utilizados para calcular el grado de
inclinación (Φ), dado que el uso de solo dos puntos da paso a un error. El significado del
ángulo Φ es señalado en la Figura 3-18.

Figura 3-18: Ángulo de inclinación entre modelos.

85
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

Referente a los cálculos necesarios para la utilización de este método, se puede encontrar
dos formas para poder llevarlo a cabo. La primera consiste en la realización de cálculos
con el uso de siete parámetros correspondientes a la transformación tridimensional de
los modelos consecutivos, para esto se requiere a la vez de los puntos de control y de
enlace. La segunda opción es realizada en dos pasos, siendo el primero utilizado para
calcular cuatro parámetros (𝜆,Κ,𝑇𝑥 ,𝑇𝑦 ), proceso que es llamado ajuste planimétrico,
mientras que el segundo paso, llamado ajuste altimétrico, se utiliza para calcular los
parámetros restantes (Φ,Ω,𝑇𝑧 ).

Para determinar los centros de proyección de las fotografías es necesario saber si se


utilizará medios analíticos o analógicos, siendo los primeros los que se revisará en este
documento, dejando de lado los procedimientos analógicos.

Los puntos de los centros de proyección son obtenidos mediante el cálculo de la


condición de coplanariedad y colinearidad, utilizada una vez que se termina la fase de
orientación en dos pasos. La condición de coplanariedad está dada por la ecuación (53).

1 𝛽𝑦 𝛽𝑧
𝑀é𝑡𝑜𝑑𝑜 𝑑𝑒 𝑢𝑛 𝑝𝑟𝑜𝑦𝑒𝑐𝑡𝑜𝑟 ⇒ 𝑏𝑥, 𝑏𝑦, 𝑏𝑧, 𝜔2 , 𝜑2 , 𝜅2
Δ = [̅̅̅
𝑥1 𝑦1
̅̅̅ 𝑧̅1 ] = 0} (53)
𝑀é𝑡𝑜𝑑𝑜 𝑑𝑒 𝑙𝑜𝑠 𝑔𝑖𝑟𝑜𝑠 ⇒ 𝑏𝑥, 𝜑1 , 𝜅1 , 𝜔2 , 𝜑2 , 𝜅2
𝑥2
̅̅̅ 𝑦2
̅̅̅ 𝑧̅2

La condición de colinearidad es señalada en la ecuación (54).

𝑚11 (𝑋 − 𝑋0 ) + 𝑚12 (𝑌 − 𝑌0 ) + 𝑚13 (𝑍 − 𝑍0 )


𝑥 = −𝑐
𝑚31 (𝑋 − 𝑋0 ) + 𝑚32 (𝑌 − 𝑌0 ) + 𝑚33 (𝑍 − 𝑍0 )
⇒ 𝑋0 , 𝑌0 , 𝑍0 (54)
𝑚21 (𝑋 − 𝑋0 ) + 𝑚22 (𝑌 − 𝑌0 ) + 𝑚23 (𝑍 − 𝑍0 )
𝑦 = −𝑐
𝑚31 (𝑋 − 𝑋0 ) + 𝑚32 (𝑌 − 𝑌0 ) + 𝑚33 (𝑍 − 𝑍0 )}

Luego de la formación del bloque, su ajuste se realiza mediante la utilización de


secciones, estas últimas consisten en juntar un pequeño grupo de modelos, dos o cuatro
comúnmente. Esto es realizado ya que con el uso de pocos modelos el error es

86
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

considerado insignificante, lo que permite el ajuste a un solo sistema de coordenadas sin


mayores problemas, cambiando la escala, posición y orientación.

Posteriormente, el modelo quedará definido mediante el uso de cuatro puntos, los cuales
están ubicados en las esquinas del modelo y son utilizados para el ajuste planimétrico;
mientras que para el ajuste espacial son utilizados seis puntos, los cuales consisten en los
cuatro puntos mencionados anteriormente y los dos centros de proyección, los cuales son
usados para el ajuste espacial. También se puede considerar otros puntos para aumentar
la consistencia del modelo. En este proceso se desarrolla el ajuste planimétrico de forma
separada al altimétrico o, como otra opción, también se podría ajustar las tres
coordenadas al mismo tiempo con el uso de modelos tridimensionales. Para ambos casos
las secciones o modelos deben poseer coordenadas homogéneas, además los puntos a
utilizar idealmente deben poseer una diferencia muy pequeña entre sus valores de
coordenadas y también es necesario que estos puntos presenten una distribución lo más
aleatoria posible.

La formación de la corrección planimétrica es posible realizarla sin la ayuda de puntos


de control. Para esto es necesario realizar el cálculo de la escala, orientación y
desplazamiento, lo cual es posible con el conocimiento de al menos dos puntos en ambos
sistemas.

Para la corrección tridimensional es necesaria una cantidad de puntos de control


ubicados en el bloque, los cuales aseguran una distribución correcta del control
altimétrico, con el fin para asegurar la ausencia de grandes errores. La variación de la
cantidad de puntos a utilizar está directamente relacionada con el terreno. Aunque en un
caso extremo, los errores se pueden identificar fácilmente mediante el uso de los puntos
de enlace. Para eliminar el error generado se utiliza generalmente el método de mínimos
cuadrados.

Si se considera como un ejemplo una sección compuesta por cuatro modelos y además
se tiene que la diferencia de las coordenadas de los puntos de enlace comunes entre los

87
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

modelos es pequeña, es necesario realizar un juego de coordenadas homogéneas a la


sección, lo cual debe generar un cálculo lo más exacto posible. Para conseguir el juego
es necesario realizar una transformación en cada modelo. Como se ha mencionado con
anterioridad dentro del presente trabajo, no es necesario utilizar puntos de control; pero
en el caso de realizar una planimetría a escala y un conjunto de orientaciones correctas,
se hace necesaria la utilización de al menos dos puntos.

En la Figura 3-19 se realiza una comparación entre lo que se tiene antes del proceso
mencionado anteriormente y cuál será su objetivo. En esta figura se observa al lado
izquierdo los modelos independientes, mientras que la de la derecha es la sección a
conseguir.

Figura 3-19: Ajuste planimétrico en triangulación aérea por modelos independientes.

Las transformaciones de cada uno de los modelos están dadas por las trasformaciones
bidimensionales representadas por (55).

𝑋 cos Κ − sin Κ 𝑥 𝑇𝑥 𝑎 −𝑏 𝑥 𝑇𝑥
[ ] = 𝜆[ ] [ 𝑦 ] + [𝑇 ] = [ ] [𝑦] + [𝑇 ] (55)
𝑌 sin Κ cos Κ 𝑦 𝑏 𝑎 𝑦

88
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

donde 𝑎, 𝑏 dependen del factor de escala 𝜆 y del ángulo de rotación Κ. 𝑋 e 𝑌


corresponden a las coordenas de la sección con referencia local 𝑥 e 𝑦.

En caso de tener el punto de control i en el j-ésimo modelo, se tendrá lo indicado en


(56).

𝑎
𝑥𝑖𝑗 −𝑦𝑖𝑗 1 0 𝑏 𝑋
[𝑦 𝑥𝑖𝑗 ] [𝑇 ] = [ 𝑖 ] (56)
𝑖𝑗 0 1 𝑋 𝑌𝑖
𝑇𝑌 𝑗
Mientras que para el punto de enlace o de paso k en el modelo l-ésimo se tendrá el
sistema de ecuaciones (57).

𝑎
𝑏
𝑥𝑘𝑙 −𝑦𝑘𝑙 1 0 −1 0 𝑇𝑋 0
[𝑦 𝑥𝑘𝑙 ] 𝑇 =[ ] (57)
𝑘𝑙 0 1 0 −1 𝑌 0
𝑋𝐾
[ 𝑌𝐾 ]𝑙

Estos sistemas de ecuaciones genera en total cuatro incógnitas por cada modelo, además
de dos incógnitas que corresponden a cada punto de paso o enlace a utilizar, los cuales
generan dos ecuaciones cada vez que aparezcan en un modelo, de la misma manera lo
hacen los puntos de control. Estas ecuaciones se pueden resolver mediante el uso de
mínimos cuadrados u otro método matemático, aunque suele ser muy común el uso del
método de partición, dado que se forman conjuntos de forma regular. El uso de este
método se encuentra en mayor detalle en (J. A. B. García, Concepción, & Piquero, 2006;
Marín, 2000; Pérez Álvarez, 2001a).

El método de partición es muy útil para aquellos ajustes de bloques con gran número de
puntos de paso o enlace y pocos modelos. Este método también suele llamarse Método
de Anblock.

89
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

Para el ajuste altimétrico se determina los parámetros Φ, Ω, 𝑇𝑧 para cada uno de los
modelos, comenzando con la transformación de todas las coordenadas de todos los
puntos que se encuentren en los modelos, incluyendo en este proceso a los centros de
proyección de las fotografías y a los parámetros obtenidos en la compensación
planimétrica, para lo cual se utilizan las ecuaciones (58), (59) y (60).

′ ′
𝑥𝑖𝑗 = 𝑎𝑗 𝑥𝑖𝑗 − 𝑏𝑗 𝑦𝑖𝑗 + 𝑇𝑥 (58)
′ ′
𝑦𝑖𝑗 = 𝑏𝑗 𝑥𝑖𝑗 + 𝑎𝑗 𝑦𝑖𝑗 + 𝑇𝑦 (59)

𝑧𝑖𝑗 = 𝜆𝑗 𝑧𝑖𝑗 + 𝑇𝑧 = 𝑧𝑖𝑗 √(𝑏𝑗2 + 𝑎𝑗2 ) + 𝑇𝑧 (60)

Este conjunto de ecuaciones se puede reducir mediante el uso de las coordenadas del
modelo, indicando el centro de proyección de cada uno de ellos, eliminando de esta
forma las traslaciones T. Para realizar esto se debe partir de una trasformación
tridimensional, en donde Pérez Álvarez (2001a) propone una transformación mediante la
expresión de los ángulos pequeños de rotación, por lo cual se tiene el sistema de
ecuaciones señalado en (61).

𝑋 1 −ΔΚ ΔΦ 𝑥 𝑇𝑥
[𝑌 ] = 𝜆 [ ΔΚ 1 −ΔΩ] [𝑦] + [𝑇𝑦 ] (61)
𝑍 −ΔΦ ΔΩ 1 𝑧 𝑇𝑧

Al realizar el ajuste planimétrico se obtiene algunas variables, lo cual reduce la


expresión (61) quedando de esta forma (62).

𝑋 1 0 ΔΦ 𝑥 0
[𝑌 ] = [ 0 1 −ΔΩ] [𝑦] + [ 0 ] (62)
𝑍 −ΔΦ ΔΩ 1 𝑧 𝑇𝑧

Por lo cual un punto de control i ubicado en el modelo j se puede representar por (63).

90
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

ΔΩ
[𝑦𝑖𝑗 −𝑥𝑖𝑗 1] [ΔΦ] = 𝑍𝑖 − 𝑧𝑖 (63)
𝑇𝑧 𝑗

El mismo caso, pero ahora para un punto de enlace o de paso será descrito por la
ecuación (64).

ΔΩ
[𝑦𝑖𝑗 −𝑥𝑖𝑗 ΔΦ
1 −1] [ 𝑇 ] = −𝑧𝑖 (64)
𝑧
𝑍 𝑗

Con respecto a los centros de proyección que no fueron calculados en el ajuste


planimétrico, el sistema de ecuaciones está dado por (65).

ΔΩ
0 𝑧𝑖𝑗 0 ΔΦ
−1 0 0 𝑥
𝑇𝑍
[−𝑧𝑖𝑗 0 0 0 −1 0 ] = − [𝑦] (65)
𝑋 𝑧 𝑖
𝑦𝑖𝑗 −𝑥𝑖𝑗 1 0 0 −1
𝑌
[ 𝑍 ]𝑗

Otra alternativa para generar los bloques es mediante el uso un ajuste espacial, en donde
cada modelo o sección se define mediante las coordenadas de las cuatro esquinas en
conjunto de los dos centros de proyección de cada imagen. Con el fin de tener un mejor
conjunto con coordenadas para el bloque se utiliza una transformación tridimensional
con siete parámetros, con lo cual para representar el punto i en el modelo j se utiliza
(66).

𝑋 𝑥𝑖 𝑇𝑋
𝑦
[𝑌 ] = 𝜆𝑗 [𝑅]𝑗 [ 𝑖 ] + [𝑇𝑌 ] (66)
𝑍 𝑖 𝑧𝑖 𝑇𝑍 𝑗

91
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

Lo que permite la definición de una función F, la cual es determinada por (67).

𝐹𝑥 𝑥𝑖 𝑇𝑋 𝑋
𝑦
[𝐹𝑦] = 𝜆𝑗 [𝑅]𝑗 [ 𝑖 ] + [𝑇𝑌 ] − [𝑌 ] (67)
𝐹𝑧 𝑧𝑖 𝑇𝑍 𝑗 𝑍 𝑖

𝐹𝑥, 𝐹𝑦, 𝐹𝑧 deben ser linealizadas, quedando de esta forma las ecuaciones (68), (69) y
(70) respectivamente.

𝜕𝐹𝑥 𝜕𝐹𝑥 𝜕𝐹𝑥 𝜕𝐹𝑥 𝜕𝐹𝑥


𝐹𝑥 = 0 = (𝐹𝑥)0 − ( ) 𝑑𝑋 + ( ) 𝑑𝜆 + ( ) 𝑑Ω + ( ) 𝑑Φ + ( ) 𝑑Κ
𝜕𝑋 0 𝜕𝜆 0 𝜕Ω 0 𝜕Φ 0 𝜕Κ 0
(68)
𝜕𝐹𝑥 𝜕𝐹𝑥 𝜕𝐹𝑥 𝜕𝐹𝑥
+( ) 𝑑𝑇𝑋 + ( ) 𝑑𝑇𝑌 + ( ) 𝑑𝑇𝑍 − ( ) 𝑑𝑋
𝜕𝑇𝑋 0 𝜕𝑇𝑌 0 𝜕𝑇𝑍 0 𝜕𝑋 0
𝜕𝐹𝑦 𝜕𝐹𝑦 𝜕𝐹𝑦 𝜕𝐹𝑦 𝜕𝐹𝑦
𝐹𝑦 = 0 = (𝐹𝑦)0 − ( ) 𝑑𝑋 + ( ) 𝑑𝜆 + ( ) 𝑑𝛺 + ( ) 𝑑𝛷 + ( ) 𝑑𝛫
𝜕𝑋 0 𝜕𝜆 0 𝜕𝛺 0 𝜕𝛷 0 𝜕𝛫 0
(69)
𝜕𝐹𝑦 𝜕𝐹𝑦 𝜕𝐹𝑦 𝜕𝐹𝑦
+( ) 𝑑𝑇𝑋 + ( ) 𝑑𝑇𝑌 + ( ) 𝑑𝑇𝑍 − ( ) 𝑑𝑌
𝜕𝑇𝑋 0 𝜕𝑇𝑌 0 𝜕𝑇𝑍 0 𝜕𝑌 0
𝜕𝐹𝑧 𝜕𝐹𝑧 𝜕𝐹𝑧 𝜕𝐹𝑧 𝜕𝐹𝑧
𝐹𝑧 = 0 = (𝐹𝑧)0 − ( ) 𝑑𝑋 + ( ) 𝑑𝜆 + ( ) 𝑑Ω + ( ) 𝑑Φ + ( ) 𝑑Κ
𝜕𝑋 0 𝜕𝜆 0 𝜕Ω 0 𝜕Φ 0 𝜕Κ 0
(70)
𝜕𝐹𝑧 𝜕𝐹𝑧 𝜕𝐹𝑧 𝜕𝐹𝑧
+( ) 𝑑𝑇𝑋 + ( ) 𝑑𝑇𝑌 + ( ) 𝑑𝑇𝑍 − ( ) 𝑑𝑍
𝜕𝑇𝑋 0 𝜕𝑇𝑌 0 𝜕𝑇𝑍 0 𝜕𝑍 0

Si se llama rij a las derivadas parciales de las funciones con respecto a las incógnitas, se
define (71), (72) y (73).

𝐹𝑥 = 𝑟11 𝑑𝜆 + 𝑟12 𝑑Ω + 𝑟13 𝑑Φ + 𝑟14 𝑑Κ + 𝑟15 𝑑𝑇𝑋 + 𝑟16 𝑑𝑇𝑌 + 𝑟17 𝑑𝑇𝑧 − 𝑑𝑋 + (𝐹𝑥)0 = 0 (71)
𝐹𝑦 = 𝑟21 𝑑𝜆 + 𝑟22 𝑑Ω + 𝑟23 𝑑Φ + 𝑟24 𝑑Κ + 𝑟25 𝑑𝑇𝑋 + 𝑟26 𝑑𝑇𝑌 + 𝑟27 𝑑𝑇𝑧 − 𝑑𝑌 + (𝐹𝑦)0 = 0 (72)
𝐹𝑧 = 𝑟31 𝑑𝜆 + 𝑟12 𝑑Ω + 𝑟13 𝑑Φ + 𝑟14 𝑑Κ + 𝑟15 𝑑𝑇𝑋 + 𝑟16 𝑑𝑇𝑌 + 𝑟17 𝑑𝑇𝑧 − 𝑑𝑍 + (𝐹𝑧)0 = 0 (73)

Cada una de estas ecuaciones genera tres funciones por separado, las cuales describen
ecuaciones de observación definidas por (74), formada por los vectores Fx, Fy y Fz.

92
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

𝐴𝑋 − 𝐿 = 𝑉 (74)

Inicialmente se puede asumir que las tres rotaciones poseen un valor cero en cada uno de
los casos, esto es dado que se toma el supuesto que la fotografía está completamente
vertical, por lo cual el vuelo fue casi perfecto. Además se puede asumir que el factor de
escala es uno, debido a que los modelos a utilizar son aproximadamente homogéneos, lo
cual permite a la vez asumir que las traslaciones también toman el valor cero.

Para el caso de los puntos de enlace y de paso que posean coordenadas desconocidas, los
valores Xa, Ya, Za son obtenidos a partir de un gráfico del vuelo por ejemplo. Aunque
según Pérez Álvarez (2001a) lo recomendable es realizar un ajuste polinómico con estos
valores, lo cual está dado a partir del sistema de ecuaciones representado en (75).

(𝐹𝑥)0 (𝑋)0𝑖𝑗 − 𝑋𝑎𝑗


[(𝐹𝑦)0 ] = [ (𝑌)0𝑖𝑗 − 𝑌𝑗 ] (75)
(𝐹𝑧)0 (𝑍)0𝑖𝑗 − 𝑍𝑎𝑗

Con lo anterior, realizando algunos cambios se obtiene que los puntos de control están
representados de acuerdo al sistema de ecuaciones (76).

𝑑𝜆
𝑑Ω
𝑟11 𝑟12 𝑟13 𝑟14 𝑟15 𝑟16 𝑟17 𝑑Φ −(𝐹𝑥)0
𝑟
[ 21 𝑟22 𝑟23 𝑟24 𝑟25 𝑟26 𝑟27 ] 𝑑Κ = [−(𝐹𝑦)0 ] (76)
𝑟31 𝑟32 𝑟33 𝑟34 𝑟35 𝑟36 𝑟37 𝑑𝑇𝑋 −(𝐹𝑧)0
𝑑𝑇𝑌
[𝑑𝑇𝑍 ]

Para obtener la solución se debe realizar una normalización del sistema de ecuaciones,
resolviendo de esta forma cada uno de los parámetros por un lado mientras que por otro
se obtienen las coordenadas adicionales de los puntos. Esta solución genera nuevas
estimaciones a las incógnitas las cuales son las mostradas en (77).

93
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

𝜆 = 𝜆𝑎 + 𝑑𝜆 T = T + 𝑑T
𝑥 𝑥𝑎 𝑥 X = X𝑎 + 𝑑X
Ω = Ω𝑎 + 𝑑Ω T = T + 𝑑T
𝑦 𝑦𝑎 𝑦 Y = Y𝑎 + 𝑑Y (77)
Φ = Φ𝑎 + 𝑑Φ
Z = Z𝑎 + 𝑑Z
Κ = Κ 𝑎 + 𝑑Κ T𝑧 = T𝑧 𝑎 + 𝑑T𝑧

De esta forma se cambian los valores que inicialmente se tenían los cuales eran: 𝜆=0;
Ω = Φ = Κ = 0; 𝑋0 = 𝑌0 = 𝑍0 = 0; 𝑋 = 𝑋0 ; 𝑌 = 𝑌0.

Una vez se haya calculado los nuevos valores de los parámetros se debe repetir el
proceso de forma iterativa hasta que la variación de los parámetros este dentro de los
criterios establecidos antes del ajuste del modelo.

Otra forma de expresar las derivadas parciales es mediante el uso de una matriz de
rotación (Pérez Álvarez, 2001a).

En la formación de las ecuaciones y su solución, se hace necesario el ingreso de pesos


para cada uno de los distintos tipos de observaciones, lo cual puede también puede ser
utilizado para los puntos de control.

Para proyectos de gran escala, es decir, vuelos altos, se puede considerar que los puntos
de control poseen poca precisión, por esto los métodos fotogramétricos a utilizar pueden
ser comparables a los utilizados en el cálculo de los puntos de apoyo. En estos casos se
introduce ecuaciones de observaciones adicionales para los puntos de control,
representadas en (78).

𝑋 𝑋𝑐 𝑑𝑋
[𝑌 ] = [ 𝑌𝑐 ] + [𝑑𝑌 ] (78)
𝑍 𝑍𝑐 𝑑𝑍

donde:

 𝑋𝑐 , 𝑌𝑐 , 𝑍𝑐 corresponden a las coordenadas originales de los puntos de control.

94
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

 X, Y, K corresponden a las coordenadas correctas de los puntos de control.

 𝑑𝑋𝑐 , 𝑑𝑌𝑐 , 𝑑𝑍𝑐 son las correcciones a realizar en las coordenadas de los puntos de
control.

Puede que en ocasiones los pesos utilizados para las correcciones, sean muy grandes15,
lo que indica que el control se está ajustando rigurosamente al modelo. Si se da este caso
se debe generar tres nuevas ecuaciones, lo cual añade tres nuevas incógnitas por cada
punto de control que se posea, lo que genera que el nuevo sistema de ecuaciones sea el
indicado en (79).

𝑑𝜆
𝑑Ω
𝑑Φ
𝑥𝑖𝑗 𝑧𝑖𝑗 𝑑Κ
0 −𝑦𝑖𝑗 1 0 0 −1 0 0 𝑑𝑇 −(𝐹𝑥)0
𝑋
[𝑦𝑖𝑗 −𝑧𝑖𝑗 0 𝑥𝑖𝑗 0 1 0 0 −1 0 ] 𝑑𝑇 = [−(𝐹𝑦)0 ] (79)
𝑧𝑖𝑗 𝑌
𝑦𝑖𝑗 −𝑥𝑖𝑗 0 0 0 1 0 0 −1 𝑑𝑇 −(𝐹𝑧)0
𝑍
𝑑𝑋𝑐
𝑑𝑌𝑐
[ 𝑑𝑍 ]𝑗

De acuerdo a lo anterior el sistema de ecuaciones para el ajuste está dado por (80).

𝑑𝜆
𝑑Ω
𝑑Φ
𝑑Κ
0 0 0 0 0 0 0 −1 0 0 𝑑𝑇 0
𝑋
[0 0 0 0 0 0 0 0 −1 0 ] 𝑑𝑇 = [0] (80)
𝑌
0 0 0 0 0 0 0 0 0 −1 𝑑𝑇 0
𝑍
𝑑𝑋𝑐
𝑑𝑌𝑐
[ 𝑑𝑍 ]𝑗

15
Se habla de pesos muy grandes cuando son del orden de 108

95
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

Otra forma de solucionar la fotogrametría aérea utilizando el método de modelos


independientes es generar el ajuste de forma separada a la planeación altimétrica, siendo
esta última muy útil cuando no se encuentran los puntos de control distribuidos
adecuadamente. Esto se utiliza principalmente cuando el método iterativo no converge
de forma adecuada. Para esto se parte de la ecuación (81).

𝑑𝜆
𝑑Ω
𝑑Φ
𝑥𝑖𝑗 𝑧𝑖𝑗 𝑑Κ
0 −𝑦𝑖𝑗 1 0 0 𝑑𝑇 −(𝐹𝑥)0
𝑋
[𝑦𝑖𝑗 −𝑧𝑖𝑗 0 𝑥𝑖𝑗 0 1 0] 𝑑𝑇 = [−(𝐹𝑦)0 ] (81)
𝑧𝑖𝑗 𝑌
𝑦𝑖𝑗 −𝑥𝑖𝑗 0 0 0 1 𝑑𝑇 −(𝐹𝑧)0
𝑍
𝑑𝑋𝑐
𝑑𝑌𝑐
[ 𝑑𝑍 ]𝑗

El sistema de ecuaciones anterior se puede dividir en dos partes, los cuales están
representados en los sistemas (82) y (83).

𝑑𝜆
𝑥𝑖𝑗 −𝑦𝑖𝑗 1 0 𝑑Κ 𝑥𝑖𝑗 −𝑋𝑖 0 −𝑧𝑖𝑗 𝑑Ω
[𝑦 𝑥𝑖𝑗 ] [𝑑𝑇 ] = − [ ]+[ ][ ] (82)
𝑖𝑗 0 1 𝑥 𝑦𝑖𝑗 −𝑌𝑖 𝑧𝑖𝑗 0 𝑑Φ
𝑑𝑇𝑦
𝑑Ω
[𝑦𝑖𝑗 −𝑥𝑖𝑗 1] [ 𝑑Φ ] = −(𝑧𝑖𝑗 − 𝑍𝑖𝑗 ) − 𝑧𝑖𝑗 𝑑𝜆𝑗 (83)
𝑑𝑇𝑧 𝑗

Si se sustituye el vector de incógnitas [𝑑𝜆 𝑑Κ 𝑑𝑇𝑥 𝑑𝑇𝑦 ]𝑇 del primer sistema de


ecuaciones por otros puntos (a, b, c, d) y a la vez se asigna a los elementos de la

96
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

izquierda en ambas funciones los nombres C1 y C2, se tiene ecuaciones similares a las
vistas en el método de Anblock16.

Para resolver este nuevo sistema de ecuaciones se debe asumir que C1 es cero,
obteniendo de esta forma los valores de las variables [𝑑𝜆 𝑑Κ 𝑑𝑇𝑥 𝑑𝑇𝑦 ]𝑇 . Además
se puede calcular C2 en función de 𝑑𝜆, aunque hay que notar que el segundo sistema no
es lineal, por lo cual se debe utilizar un método iterativo para calcular el valor de las
variables (𝑑Ω, 𝑑Φ, 𝑑𝑇𝑧 ) mediante el uso de C1.17

Durante el proceso del ajuste altimétrico se refuerzan las uniones de los modelos
mediante el uso de los centros de proyección, especialmente Ω, donde las ecuaciones
vienen dadas por el sistema (84)

0 𝑧𝑖𝑗 0 𝑑Ω 𝑥𝑖𝑗 𝑋𝑖
[−𝑧𝑖𝑗 0 0] [ 𝑑Φ ] = [𝑦𝑖𝑗 ] − [ 𝑌𝑖 ] (84)
𝑦𝑖𝑗 −𝑥𝑖𝑗 1 𝑑𝑇𝑧 𝑗 𝑧𝑖𝑗 𝑍𝑖

Dentro del sistema presentado en (84) se utiliza la matriz de rotación Ortogonal de


Rodrigues. También son usadas las ecuaciones de los puntos de control, enlace y de
paso, las cuales se escriben de la misma forma, consiguiendo asignar de esta forma hasta
diez posibles pesos para el ajuste del modelo. Otros valores posibles de incorporar son
los datos del APR18 (Analytical Profile Reorder) y del estereoscopio, así como
formaciones de superficies del mismo nivel (lagos o líneas costeras).

16
Este método no se analiza en este documento pero en la sección 3.3.1.2, antes de exponer sobre el ajuste
altimétrico, se encuentran las reseñas de dónde encontrar este método explicado a cabalidad.
17
Una variación de este método es desarrollado en la Universidad de Stuttgart por el profesor Akermann
llamado PAT-M-43, siendo uno de los más versátiles y efectivos. (Pérez Álvarez, 2001)
18
Es una combinación de un estatoscopio y un radar altimétrico el cual permite obtener precisiones
absolutas de alturas.

97
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

La matriz de rotación Ortogonal de Rodrigues, mencionada anteriormente es la señalada


en (85); las ecuaciones de los puntos planimétricos están dadas por el sistema de
ecuaciones (87).

(𝑎2 − 𝑏 2 − 𝑐 2 ) 𝑎𝑏 𝑎𝑐
1+ 𝑐+ −𝑏 +
4 2 2
1 𝑎𝑏 (𝑏 2 − 𝑎2 − 𝑐 2 ) 𝑏𝑐
𝑅𝑅 = −𝑐 + 1+ 𝑎+ (85)
Δ 2 4 2
𝑎𝑐 𝑏𝑐 (𝑐 2 − 𝑎2 − 𝑏 2 )
[ 𝑏+ −𝑎 + 1+ ]
2 2 4
(𝑎2 + 𝑏 2 + 𝑐 2 )
Δ= 1+ (86)
4

𝑑
𝑋 𝑥𝑖𝑗 −𝑦𝑖𝑗 1 0 𝑒 𝑉
[ 𝑖 ] − [𝑦 𝑥𝑖𝑗 ] [𝑇 ] = [ 𝑋 ] (87)
𝑌𝑖 𝑖𝑗 0 1 𝑋 𝑉𝑌 𝑖𝑗
𝑇𝑌 𝑗

donde d y e están dadas por las ecuaciones (88) y (89) respectivamente.

1
1 − 4 𝑐2
𝑑=𝜆 1 (88)
1 + 4 𝑐2
𝜆𝑐
𝑒= 1 (89)
1 − 4 𝑐2

Los puntos de control planimétricos son representados por el conjunto de ecuaciones


(90).

𝑋 𝑋 𝑐 𝑉 𝑐
[ 𝑖] − [ 𝑖] = [ 𝑋] (90)
𝑌𝑖 𝑌𝑖 𝑉𝑌

98
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

En cuanto a los puntos de control altimétricos, se tiene su representación por medio del
sistema de ecuaciones (91).

Δ𝑎
(𝑧𝑖𝑗 − 𝑍𝑖 ) + [𝑦𝑖𝑗 −𝑥𝑖𝑗 1] [ Δb ] = (𝑉𝑍 )𝑖 (91)
ΔT𝑍 𝑗

Para los puntos de apoyo altimétricos que incluyen APR y superficie de nivel se utiliza
la ecuación (92).

𝑧𝑖𝑗 − 𝑍𝑖𝐶 = (𝑉𝑍 )𝐶𝑖 (92)

Los centros de proyección son representados por el sistema de ecuaciones (93).

𝑋𝑖 𝑃𝐶 𝑥𝑖𝑗 0 −𝑧𝑖𝑗 0 ∆𝑎 𝑉𝑋
𝑦
[ 𝑌𝑖 ] − [ 𝑖𝑗 ] − [ 𝑧𝑖𝑗 0 0] [ ∆𝑏 ] = [𝑉𝑌 ] (93)
𝑍𝑖 𝑧𝑖𝑗 −𝑦𝑖𝑗 𝑥𝑖𝑗 1 ∆𝑇𝑧 𝑗 𝑉𝑍

Al utilizar el programa PATM-43 la secuencia de cálculo es la siguiente:

1. Resolver las ecuaciones planimétricas para (d, e, X0, Y0), para después
calcular (𝜆 y c).
2. Para obtener las coordenadas de los puntos de enlace y de los centros de
proyección se utiliza los valores de las variables 𝜆, c, X0, Y0.
3. Las ecuaciones no lineales de los puntos de enlace y de los centros de
proyección son resueltas mediante el uso de métodos iterativos, de esta forma se
obtienen las tres incógnitas restantes (a, b, Z0).
4. Las coordenadas de los Centros de Proyección y de los Puntos de Enlace
se trasforman nuevamente, pero esta vez con los valores de a, b, Z0 en la matriz de
Rodrigues.

99
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

Las iteraciones de este proceso permiten la obtención de un conjunto aceptable para los
puntos de un bloque.

III. Método de los haces

Dentro de la fotogrametría existe un área que se centra principalmente en la ubicación y


levantamiento de objetos cercanos, la cual es llamada Non-Topographic
Photogrammetry. Ésta realiza la formación y los ajustes de bloque mediante los haces de
rayos que son producidos en las fotografías, donde es posible una convergencia debido a
las múltiples posiciones de la cámara.

Cuando se realiza trabajos topográficos, la cámara es paralela a la dirección del vuelo


para casi todas las fotografías lo cual permite utilizar una técnica la que es más flexible
que las demás (Pérez Álvarez, 2001a) y sus resultados son mejores; pero esto posee un
costo, el cual consiste en el tiempo de cálculo, el cual aumenta de forma considerable.

Para este método la fotografía es lo más importante, la cual es útil siempre y cuando las
zonas de recubrimiento longitudinal sean 60% o mayor y la transversal sea 20%, esto es
debido a que el uso de coordenadas de modelo y de paso intermedio no son necesarias.

Dentro de la Figura 3-20 (Pérez Álvarez, 2001a) se observa como las coordenadas de la
imagen y el centro de proyección de una fotografía definen un haz espacial de rayos. En
el método de los haces, los elementos de la orientación externa son calculados de forma
simultanea para todos los haces, por lo cual es necesario el conocimiento de las
coordenadas de los puntos de enlace en las fotografías, sabiendo al mismo tiempo las
coordenadas de los puntos de control.

La base de este método es que los haces de los rayos se desplazan y giran, por lo cual se
ha de suponer que existe una intersección de los haces en los punto de control o lo más
cercano a ellos.

100
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

Figura 3-20: Representación gráfica de la triangulación aérea por haces.

Para realizar este ajuste es necesario el conocimiento de:

 Parámetros de orientación interna de la fotografía (c, x0, y0, xF, yF).

 Los parámetros de orientación externa de la fotografía (X0, Y0, Z0, 𝜛, 𝜙, 𝜅).

 Las coordenadas de los puntos de control en las fotografías (x’, y’).

 Las coordenadas en terreno de los puntos de control (X, Y, Z), como también de
aquellos puntos que estén en más de una fotografía y se desee calcular sus
coordenadas compensadas simultáneamente en el ajuste y compensación de
bloque.

Tomando como referencia una fotografía ideal, en la cual se tiene que su sistema de
̅ ) es paralelo al del terreno (X, Y, Z). Para esto es necesario definir
coordenadas (𝑥̅′ , 𝑦̅′ , 𝑧′
la condición de colineación, la cual obliga a que en la misma recta se encuentren el
̅ ) y el punto en el
centro de proyección O(XO, YO, ZO), el punto de la imagen p(𝑥̅′ , 𝑦̅′ , 𝑧′
terreno proyectado P(X, Y, Z), lo cual se observa en la Figura 3-21, la cual muestra
gráficamente la condición de colineación.

101
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

Figura 3-21: Condición de colineación.

Esta condición se expresa matemáticamente mediante el sistema de ecuaciones señalado


en (94).

𝑋 − 𝑋𝑂 ̅
𝑥′
̅]
[ 𝑌 − 𝑌𝑂 ] = 𝜆 [𝑦′ (94)
𝑍 − 𝑍𝑂 ̅
𝑧′

Pero las fotografías pocas veces son ideales, por lo cual su sistema de coordenadas, es
decir x’, y’, c, no serán paralelas al sistema de terreno, porque es necesario realizar giros
̅ ).
en sus tres ejes (𝜛, 𝜙, 𝜅) y así llegar a un sistema ideal (𝑥̅′ , 𝑦̅′ , 𝑧′

Dado lo mencionado anteriormente, se puede deducir el sistema de ecuaciones (95).

𝑥 𝑎11 𝑎12 𝑎31 𝑥′ 𝑥′


[𝑦] = [𝑎21 𝑎22 𝑎32 ] [𝑦′] = 𝑅 [𝑦′] (95)
𝑧 𝑎31 𝑎32 𝑎33 𝑐 𝑐

102
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

Los coeficientes aij están dados por las ecuaciones señaladas en (96), (97) y (98).

𝑎11 = cos 𝜑 cos 𝜅


𝑎12 = − cos 𝜑 sin 𝜅 (96)
𝑎13 = sin 𝜑

𝑎21 = cos 𝜔 sin 𝜅 + sin 𝜔 sin 𝜑 cos 𝜅


𝑎22 = cos 𝜔 cos 𝜅 (97)
𝑎23 = − sin 𝜔 cos 𝜑

𝑎31 = sin 𝜔 sin 𝜅 − cos 𝜔 sin 𝜑 cos 𝜅


𝑎31 = sin 𝜔 cos 𝜅 + cos 𝜔 sin 𝜑 sin 𝜅 (98)
𝑎33 = cos 𝜔 cos 𝜑

Mediante la sustitución de la expresión (95) en la condición de colinealidad (94) se tiene


como resultado (96).

𝑋 − 𝑋𝑂 ̅
𝑥′ 𝑥′
̅
[ 𝑌 − 𝑌𝑂 ] = 𝜆 [𝑦′] = 𝜆𝑅 [𝑦′] (96)
𝑍 − 𝑍𝑂 ̅
𝑧′ 𝑐

Despejando de (96) las coordenadas de la fotografía, se llega al sistema de ecuaciones


(97).

𝑥′ 𝑋 − 𝑋𝑂
1 −1
[𝑦′] = 𝑅 [ 𝑌 − 𝑌𝑂 ] (97)
𝜆 𝑍 − 𝑍𝑂
𝑐

Dado que R es ortogonal, su inversa será igual a su traspuesta, de esta forma llamando a
R-1=M, se obtiene el sistema de ecuaciones representado en (98).

103
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

𝑥′ 𝑋 − 𝑋𝑂 𝑚 𝑚12 𝑚31 𝑋 − 𝑋𝑂
1 1 11
[𝑦′] = 𝑀 [ 𝑌 − 𝑌𝑂 ] = [𝑚21 𝑚22 𝑚32 ] [ 𝑌 − 𝑌𝑂 ] (98)
𝜆 𝑍 − 𝑍𝑂 𝜆 𝑚 𝑚32 𝑚33 𝑍 − 𝑍𝑂
𝑐 31

Al despejar y resolver las ecuaciones para la distancia principal de la cámara, se


obtienen las ecuaciones de colineación utilizadas para el ajuste por haces, representadas
en (99) y (100).

𝑚11 (𝑋 − 𝑋𝑂 ) + 𝑚12 (𝑌 − 𝑌𝑂 ) + 𝑚13 (𝑍 − 𝑍𝑂 )


𝑥 ′ = −𝑐 (99)
𝑚31 (𝑋 − 𝑋𝑂 ) + 𝑚32 (𝑌 − 𝑌𝑂 ) + 𝑚33 (𝑍 − 𝑍𝑂 )
𝑚21 (𝑋 − 𝑋𝑂 ) + 𝑚22 (𝑌 − 𝑌𝑂 ) + 𝑚23 (𝑍 − 𝑍𝑂 )
𝑦 ′ = −𝑐 (100)
𝑚31 (𝑋 − 𝑋𝑂 ) + 𝑚32 (𝑌 − 𝑌𝑂 ) + 𝑚33 (𝑍 − 𝑍𝑂 )

Dado que éstas no son ecuaciones lineales, es necesario realizar un proceso de


linealización. Cabe destacar que también se tendrá problemas de exactitud con respecto
a las observaciones (x’, y’).

Para realizar la linealización de las ecuaciones (99) y (100), se tiene las ecuaciones (101)
y (102) respectivamente.

𝐹𝑥 = 𝑞𝑥 ′ + 𝑐𝑟 = 0 (101)
𝐹𝑦 = 𝑞𝑦 ′ + 𝑐𝑠 = 0 (102)

donde:

𝑞 = 𝑚31 (𝑋 − 𝑋𝑂 ) + 𝑚32 (𝑌 − 𝑌𝑂 ) + 𝑚33 (𝑍 − 𝑍𝑂 ) (103)


𝑟 = 𝑚11 (𝑋 − 𝑋𝑂 ) + 𝑚12 (𝑌 − 𝑌𝑂 ) + 𝑚13 (𝑍 − 𝑍𝑂 ) (104)
𝑠 = 𝑚21 (𝑋 − 𝑋𝑂 ) + 𝑚22 (𝑌 − 𝑌𝑂 ) + 𝑚23 (𝑍 − 𝑍𝑂 ) (105)

104
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

Posteriormente, mediante el uso de series de Taylor y linealizaciones, tema que se puede


observar con más detalle en Pérez Álvarez (2001a). El proceso da como resultado
ecuaciones con derivadas parciales, las cuales se pueden escribir sustituyendo éstas por
Aij: De esta forma se tiene como resultado las ecuaciones (106) y (107).

𝑉𝑥 = 𝐴11 𝑑𝑋 + 𝐴12 𝑑𝑌 + 𝐴13 𝑑𝑍 − 𝐴11 𝑑𝑋0 − 𝐴12 𝑑𝑌0 − 𝐴13 𝑑𝑍0 + 𝐴14 𝑑𝜔
(106)
+ 𝐴15 𝑑𝜑 + 𝐴16 𝑑𝜅 + (𝐹𝑥)0
𝑉𝑦 = 𝐴21 𝑑𝑋 + 𝐴22 𝑑𝑌 + 𝐴23 𝑑𝑍 − 𝐴21 𝑑𝑋0 − 𝐴22 𝑑𝑌0 − 𝐴23 𝑑𝑍0 + 𝐴24 𝑑𝜔
(107)
+ 𝐴25 𝑑𝜑 + 𝐴26 𝑑𝜅 + (𝐹𝑦)0

Mediante estas ecuaciones se tiene como incógnitas a los seis parámetros de la


orientación externa de cada fotografía además de las tres correcciones de las
coordenadas de terreno en cada punto considerado fijo, los cuales comúnmente
corresponden a los puntos de enlace o de paso.

Mediante esto al pasar los haces por un punto de control, las correcciones de
coordenadas desaparecerán, por lo cual se tiene que para un punto de enlace o de Paso i
en la fotografía j las ecuaciones de observación están dadas por el sistema de ecuaciones
(108).

𝑑𝜔
𝑑𝜑
𝑑𝜅
𝑑𝑋𝑂 −(𝐹𝑥𝑖𝑗 )0 𝑉𝑋 𝑖𝑗
𝐴 𝐴15 𝐴16 −𝐴11 −𝐴12 −𝐴13 𝐴11 𝐴12 𝐴13
[ 14 ] 𝑑𝑌𝑂 − [ ]=[ ] (108)
𝐴24 𝐴25 𝐴26 −𝐴21 −𝐴22 −𝐴23 𝐴21 𝐴22 𝐴23 −(𝐹𝑦𝑖𝑗 )0 𝑉𝑌 𝑖𝑗
𝑑𝑍𝑂
𝑑𝑋
𝑑𝑌
[ 𝑑𝑍 ]

Las ecuaciones de observación para un punto de control están dadas por el sistema de ecuaciones
(109).

105
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

𝑑𝜔
𝑑𝜑
𝐴14 𝐴15 𝐴16 −𝐴11 −𝐴12 −𝐴13 𝑑𝜅 −(𝐹𝑥𝑖𝑗 )0 𝑉𝑋 𝑖𝑗
[ ] 𝑑𝑋 − [ ]=[ ] (109)
𝐴24 𝐴25 𝐴26 −𝐴21 −𝐴22 −𝐴23 𝑂 −(𝐹𝑦𝑖𝑗 )0 𝑉𝑌 𝑖𝑗
𝑑𝑌𝑂
[𝑑𝑍𝑂 ]

Mediante esto, de la misma forma que en el método de modelos independientes las


ecuaciones de los puntos de control se tornan similares a los puntos de enlace y de paso,
añadiendo de esta forma nuevas ecuaciones al ajuste con una ponderación para los
puntos antes mencionados, las cuales están dadas por el sistema de ecuaciones (110).

𝑋 𝑋𝐶 𝑉𝑋
[𝑌 ] − [ 𝑌𝐶 ] = [𝑉𝑌 ] (110)
𝑍 𝑗 𝑍𝐶 𝑗 𝑉𝑍

en donde XC, YC, ZC corresponden a los puntos de apoyo originales, mientras que X, Y, Z
son las coordenadas de los puntos de apoyo.

Las ecuaciones de observación de los puntos de la fotografía son representadas de la


forma mostrada en (111).

𝐴̇𝑋̇ + 𝐴̈𝑋̈ − 𝐿 = 𝑉 (111)

Dado lo anterior, se define lo siguiente:

 𝑋̇ corresponde al vector incógnita, constituir por los elementos de la orientación


externa de la fotografía j. La representación matemática está dada por (112).

𝑋̇ = [𝑑𝜔𝑗 𝑑𝜙𝑗 𝑑𝜅𝑗 𝑑𝑋𝑂 𝑗 𝑑𝑍𝑂 𝑗 𝑑𝑍𝑂 𝑗 ]𝑇 (112)

106
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

 𝑋̈ corresponde al vector incógnita constituido por las correcciones a las


coordenadas espaciales del punto i. La ecuación de esta incógnita está dada por
(113).

𝑋̈ = [𝑑𝑋𝑖 , 𝑑𝑌𝑖 , 𝑑𝑍𝑖 ]𝑇 (113)

 𝐴̇, 𝐴̈ son submatrices de diseño, las cuales corresponden a las incógnitas de


orientación externa y espacial, respectivamente.

 𝐿 es el vector de observación, representado por (114).

𝐿 = [(𝐹𝑥𝑖𝑗 )0 , (𝐹𝑦𝑖𝑗 )0 ] (114)

La solución del sistema está dada mediante la técnica de partición de incógnitas, la cual
consiste en calcular las correcciones en las coordenadas de cada punto que intervenga en
el ajuste. La primera solución del sistema proporciona un juego de valores aproximados
de las incógnitas, las cuales están representadas como ecuaciones normales. Con lo
anterior y mediante el uso de iteraciones se calcula los nuevos valores de la matriz 𝐴̇ y
uno de los términos independientes que posee L. El método itera hasta que los cambios
sean insignificantes bajo los parámetros del proyecto fotogramétrico.

El sistema de ecuaciones normales viene dado por (115).

𝑁11 𝑁12 𝑥1 𝑛1
[ 𝑇 ] [𝑥 ] = [𝑛 ] (115)
𝑁12 𝑁22 2 2

donde se define las ecuaciones mostradas en (116).

𝑁11 = 𝐴̇𝑇 𝑊𝐴̇ 𝑁12 = 𝐴̇𝑇 𝑊𝐴̈ 𝑁21 = 𝐴̈𝑇 𝑊𝐴̇


(116)
𝑁22 = 𝐴̈𝑇 𝑊𝐴̈ 𝑛1 = 𝐴̇𝑇 𝑊𝐿 𝑛2 = 𝐴̈𝑇 𝑊𝐿

107
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

De esta forma faltaría resolver las incógnitas correspondientes al ajuste por haces, para
esto se debe obtener por separado las coordenadas correspondientes a la orientación
externa (xi) y las correcciones de las coordenadas de los puntos de enlace, paso y centros
de proyección (x2).

En cuanto a la precisión de este método, es necesario el cumplimiento de algunas reglas,


sobre todo si se quiere utilizar parámetros adicionales. Los requerimientos a cumplir son
que el recubrimiento longitudinal sea de al menos 60% y el transversal debe ser igual o
superior a 20%. Con estos porcentajes, se obtienen errores cercanos a los 3 𝜇m en la
fotografía planimétrica, mientras que en la altimetría el error va desde 0,03% a 0,04%.

Las desventajas que posee el método de los haces son las siguientes:

 El problema no es lineal, por lo que las aproximaciones se obtienen luego de


varias iteraciones.

 El cálculo es intensivo.

 No se puede utilizar instrumentos analógicos en la medición.

 No es posible realizar la altimetría y la planimetría por separado, dado que es un


problema espacial.

Mientras que las ventajas que éste posee son:

 Es el método más preciso de la triangulación aérea.

 Posee la posibilidad de ampliar la técnica de compensar los errores sistemáticos.

 Se tiene la virtud de introducir información externa en el ajuste.

 Permite el uso de cámaras convencionales.

108
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

 Se puede transformar los elementos de la orientación externa para introducirlos


en instrumentos analógicos y digitales, dejando innecesarias las medidas de los
puntos de control.

Además cabe destacar que este método puede utilizar haces adicionales para modelar los
errores producidos por la orientación interna de la cámara.

3.3.2 Punto de Fuga

El punto de fuga es un elemento muy utilizado para la realización de dibujos en


perspectiva, principalmente usado por pintores y arquitectos. El principio del trazado o
dibujo a partir de un punto de fuga consiste en que a la altura de la línea del horizonte se
ubica un punto al cual convergen todos los vértices de las figuras que se encuentran
dentro del bosquejo. En la Figura 3-22 se ven dos figuras, un cuadrilátero y un triángulo,
los cuales poseen un punto de fuga entre ellos.

Figura 3-22: Principio del punto de fuga.

109
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

El ejemplo mostrado posee un punto de fuga en el dibujo, pero también existen casos en
donde existen más puntos de fuga dentro de un mismo dibujo, llegando de esta forma
hasta tres puntos, esto permite tener otro tipo de perspectiva.

El punto de fuga es un elemento que no siempre se encuentra ubicado dentro de las


imágenes, ya que existen ocasiones que la línea del horizonte utilizada para su ubicación
se encuentra fuera de los límites de la imagen.

En las imágenes aéreas utilizadas en la fotogrametría, cuando se observa la perspectiva


de los edificios es posible encontrar más de una, pero dado que lo buscado en estas
imágenes es la forma de ortogonizarlas, por lo cual dentro de este documento se verá
solamente la información referente a la perspectiva aérea de las estructuras.

Para realizar la corrección de las imágenes es necesaria la ubicación de la estructura o el


elemento a trabajar y la ubicación del punto de fuga que éste posee.

Como mencionan Irles et al. (2005) en el programa AutoCAD es posible calibrar un


tablero mediante el uso de 2, 3 y 4 puntos, llamándolos euclídea, afín, proyectiva, donde
la trasformación proyectiva lleva a conseguir resultados similares a lo mostrado en la
sección 3.3.1.

El método a utilizar para la corrección ortogonal de las imágenes consiste en la


ubicación de elementos que posean un volumen y su respectivo punto de fuga. En un
inicio se utiliza la búsqueda de construcciones humanas, obviando los elementos
naturales. Según lo mostrado por Loch-Dehbi & Plümer (2011), las estructuras humanas,
vistas desde el aire poseen una gran cantidad de elementos ortogonales, como se muestra
en la Figura 3-23 (Loch-Dehbi & Plümer, 2011). Esto es utilizado dentro del presente
trabajo para la ubicación de estructuras, se tiene el siguiente supuesto:

Supuesto N°1. “Las estructuras humanas poseerán siempre ángulos rectos dentro de
su vista aérea, provocando lo que se muestra en la Figura 3-23”

110
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

Figura 3-23: Imágenes y su distribución de líneas en la parte superior de


construcciones.

Para encontrar los puntos de fuga de los edificios, se deben seguir ciertos pasos, los
cuales son:

 En primer lugar es necesaria la ubicación de los bordes de estas estructuras, los


cuales consisten en las murallas que van desde una esquina del edificio al suelo.

 Posteriormente se debe calcular dos ecuaciones correspondientes a cada borde en


el edificio, es necesario el uso de solo dos de estos pues todos los bordes de la
misma ubicación se intersectan en su punto de fuga.

 Finalmente, mediante la intersección de las ecuaciones mencionadas


anteriormente se encuentra el punto de fuga. Gráficamente esto es presentado en la
Figura 3-24.

Para saber si un objeto está rectificado, su punto de fuga se encuentra en el centro de


éste, y a la vez la edificación no posee bordes visibles en la imagen que lleguen al suelo.
En caso que el punto de fuga no se encuentre en el centro de la figura, se realiza una
traslación de la superficie del objeto en dirección al punto de fuga. Este movimiento
posee una restricción, la cual consiste en que un objeto o estructura no se puede

111
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

desplazar más allá de sus límites, lo cual da la declaración de un segundo supuesto, el


cual es:

Supuesto N°2. “Los objetos (edificaciones) se moverán dejando punto de fuga en el


centro de los mismos”

Figura 3-24: Indicación del punto de fuga de una imagen.

Otro supuesto necesario de declarar consiste en que al desplazarse los objetos a través de
la imagen para generar la corrección ortogonal, las variaciones que se encuentran son los
costados de la estructura, pero la superficie que se observa desde el aire no variará, lo
cual permite la definición del siguiente supuesto:

Supuesto N°3. “Al variar el origen del punto de fuga en el caso estudiado, la parte
superior de las edificaciones no variará”

112
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

3.3.2.1 Búsqueda de los objetos

Como se explicó anteriormente, el primer paso para la realización de corrección


ortogonal mediante el uso del punto de fuga consiste en la ubicación de las
edificaciones, o mejor dicho sus superficies, que para el tipo de imágenes tomadas
(fotografías aéreas) corresponde al techo de las construcciones.

Según lo indicado en el supuesto N°1, esta etapa corresponde a la búsqueda de fronteras


de los objetos. Además cabe destacar que la mayoría de las veces el color de los techos y
las murallas es distinto dentro de las estructuras.

Para ubicar las superficies de las edificaciones se debe realizar una búsqueda de lugares
que posean ortogonalidad, como se menciona en el supuesto N°2. Con el fin de
conseguir este objetivo, Peraza (2009) indica que el algoritmo más empleado para la
detección de esquinas dentro de una imagen es el llamado detector de esquinas de
Harris y Stephens (Harris & Stephens, 1988), el cual permite que los puntos encontrados
como esquinas sean invariantes ante cambios de la escala, rotación, iluminación y ruido
de la imagen.

El algoritmo del detector se inicia mediante la definición de la matriz C(x,y), que es


calculada sobre una subsección de la imagen, de tamaño n x m. Esta es calculada para
cada uno de los puntos de interés en la posición (x,y). C está definida de la forma
señalada en (117).

∑ 𝐼𝑥2 ∑ 𝐼𝑥 𝐼𝑦
𝐶(𝑥, 𝑦) = [ ] (117)
∑ 𝐼𝑥 𝐼𝑦 ∑ 𝐼𝑦2

113
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

donde Ix e Iy son los gradientes verticales y horizontales de la imagen respectivamente.


Al definir los valores propios 𝜆1 y 𝜆2 de la matriz C, se define una función de
autocorrección R (118).

𝑅 = 𝜆1 𝜆2 − 𝐾(𝜆1 + 𝜆2 ) (118)

donde K es un parámetro experimental.

Dentro de la función R se distinguen tres casos distintos, correspondientes a:

 La función posee un máximo si ambos vectores propios son altos, es decir, que
un desplazamiento en cualquier dirección va a producir un incremento importante.
Con esto es posible concluir que se está en presencia de una esquina.

 La función es casi nula si ambos vectores propios son bajos, es decir, que un
desplazamiento en cualquier dirección va a producir cambios pequeños, por lo
tanto la región pertenece a una ventana19 de tamaño n x m y su intensidad es
constante, lo que permite concluir que se trata del mismo objeto.

 Su un valor propio es alto, pero el otro es bajo, los desplazamientos en una


dirección cualquiera producirá un cambio pequeño en C(x,y) pero a la vez esto
genera una variación significativa en la dirección perpendicular al movimiento.
Esto permite concluir que se encuentra en la presencia de un borde.

El uso de este algoritmo permite la ubicación de cualquier esquina, lo cual no significa


que se esté en la presencia del techo de una edificación, puesto que en el caso en que la
imagen no es ideal (no es paralela al vuelo y perpendicular al suelo), es muy probable
que se esté en la existencia de una esquina de una muralla, la cual puede ser en su
intersección con el mismo techo o con el suelo.

19
Las ventanas se definen como sectores en las imágenes que poseen la intensidad del pixel, y que las
variaciones de color en ella son mínimas. Comúnmente estas ventanas pertenecen a un mismo sector.

114
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

Es por lo anterior que para enmarcar el techo de la edificación se utiliza el supuesto N°1.
De esta forma todas las esquinas estarán formadas a partir de la intersección de los
bordes de la construcción que formen un ángulo aproximadamente recto.

Las otras esquinas no deben ser descartadas, ya que el conocimiento de éstas permite la
generación de las ecuaciones de recta necesarias para la corrección ortogonal.

Existe también otra opción para la búsqueda de esquinas dentro de una imagen, la cual
es llamada transformada de Hough para rectas (Macedo, 2005), formulada por Paul
Hough en el año 1962 y posteriormente fue patentada por IBM (International Business
Machines). Este método comienza de la definición de una recta en el plano, la cual se ve
en la ecuación (119).

{(𝑥, 𝑦)|𝑦 = 𝑎𝑥 + 𝑏, 𝑎, 𝑏 ∈ ℝ} (119)

El principio básico de la transformada de Hough consiste en la búsqueda de dos


segmentos rectos dentro de la imagen, los cuales son representados por a y b. Para esto
es necesario realizar una variación a la ecuación de la recta, lo cual genera la ecuación
(120).

𝑏 = 𝑎𝑥 − 𝑦 (120)

Posteriormente se debe realizar el cálculo de b a partir de un pixel que pertenezca a un


borde de un objeto que haya sido ubicado en la imagen. A continuación se realiza el
cálculo de todos los valores de b’ para un punto p’ con coordenadas (x’, y’) con el uso de
todos los posibles valores de a’, los cuales pertenecen al intervalo de los valores de a,
calculados con anterioridad. Al momento de repetir este proceso para una cantidad n de
puntos correspondientes al borde del objeto, se obtiene una correlación entre los valores
de 𝑎𝑖′ y 𝑏𝑖′ , para el punto i.

115
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

Cuando se realiza el proceso antes descrito la cantidad de rectas generadas corresponden


a la representación de todas20 las rectas que pueden pasar por el punto de forma
independiente. Al momento de considerar un par de puntos, existe un par único de
valores para 𝑎𝑖′ , 𝑏𝑖′ en el cual todos los puntos que pertenecen al borde cumplirán,
teniendo de esta forma la ecuación de la recta que lo define.

Si se realiza el proceso con dos conjuntos distintos de puntos posibles, se obtiene dos
ecuaciones correspondientes a dos rectas distintas, con las cuales se procede a la
búsqueda de su intersección, de donde se concluye lo siguiente:

 Si existe un punto de intersección de las rectas, se asume que se encuentra en


presencia de alguna estructura.

 Si no existe punto de intersección significa que las rectas son paralelas, por otro
lado, también es posible, dado a errores de cálculo del computador, estas rectas se
intersecten en un lugar lejano, fuera de la imagen, lo cual es considerado como si
ambas rectas fueran paralelas.

3.3.2.2 Movimiento del punto de fuga

Al realizar el movimiento del punto de fuga es necesario tener en consideración la altura


del vuelo, ya que con esta es posible calcular la escala de la imagen a trabajar. En los
casos que este dato no esté disponible se debe realizar la búsqueda de las coordenadas
que indiquen donde la estructura está tocando el suelo.

20
Se refiere a todas las rectas de esta forma ya que matemáticamente por un punto pasan infinitas rectas,
pero para un tema de cálculo y de representación numérica en computadores esto se hace imposible.

116
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

Si se basa en el supuesto N°3, independiente del método de traslación utilizado,


cualquier movimiento de la superficie de la construcción es realizado en dirección al
punto de fuga, teniendo como límite el inicio de la construcción, considerando éste
desde el suelo.

Cuando se realiza la traslación de la superficie de la construcción se encontrará espacios


sin información en los lados opuestos a la dirección del movimiento. Para representar
esto dentro de la imagen se tienen las siguientes opciones:

 Dejar esos sectores con color transparente dentro de la imagen.

 Rellenar el sector mediante el uso de algún algoritmo de eliminación de ruido,


como los mencionados en (Estrada Chavéz, 2012. Mayor información de estos
algoritmos se presenta en la sección 3.4.

Al realizar el proceso de corrección ortogonal de las imágenes mediante el uso del


algoritmo de punto de fuga, se deja fuera la generación de modelos tanto
bidimensionales como tridimensionales, por lo cual es necesario realizar el proceso de
pares estereoscópicos, analizado en la sección 3.3.1.

117
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

3.4 ALGORITMOS DE APOYO

3.4.1 Búsqueda de puntos en común

La búsqueda de puntos en común o sectores similares entre imágenes es uno de los pasos
fundamentales para la generación de modelos bidimensionales y tridimensionales,
objetivo fundamental de este proyecto. Esto es debido a que estas zonas son las
utilizadas para la ubicación de los puntos de apoyo entre imágenes consecutivas de
forma automática.

Este proceso se basa en la definición de punto en común u homólogo, el cual está


ubicado en dos imágenes sin importar el sentido o dirección, lo que impide que se pueda
realizar su búsqueda en forma lineal, ya que las condiciones del vuelo lo impiden, ya sea
por la desviación o por que el solape entre imágenes no sea el suficiente.

Además se ha de tener en cuenta que cuando se realiza la búsqueda de puntos


homólogos es que muy pocas veces los puntos son visualmente iguales en dos imágenes,
debido a que la intensidad de la luz debido al ángulo de toma de la imagen o por
condiciones ambientales. Esto produce una diferencia de tonalidades en los pixeles de la
fotografía.

La

Figura 3-25: Matriz patrón.


muestra la representación que tendrá una imagen tanto visualmente cómo será su
representación numérica en cada uno de sus pixeles. Mediante el uso de variados
algoritmos de correlación de imágenes, mostrados por Sánchez Sobrino (2006), dentro
de los cuales se encuentran los métodos de covarianza, coeficiente de correlación,

118
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

valores absolutos de la tonalidad de los pixeles y el método de cuadrado de las


diferencias de tonalidades de los pixeles.

15 15 45 35 35
15 15 45 35 35
25 25 45 35 35
25 25 52 52 30
25 25 30 42 30
Selección de la imagen Representación numérica
buscada dela imagen

Figura 3-25: Matriz patrón.

Aparte de los métodos a mencionar dentro de esta sección, existen otros utilizados con el
mismo objetivo, siendo más rápidos en cuanto a cálculos a realizar, pero el trabajo
previo necesario para su uso provoca que la suma total de tiempos empleados sea igual o
superior a los tratados en este documento.

3.4.1.1 Método de la covarianza

Este método consiste en recorrer un área de búsqueda y al mismo tiempo, calcular la


covarianza entre el sector recorrido y el buscado, considerando finalmente como lugar
homólogo a aquel que posea mayor valor.

119
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

Si se considera que xi es el valor21 que posee el pixel i de la matriz patrón y que yi es el


valor del pixel en la matriz de búsqueda, la covarianza se define mediante la fórmula
(121).

𝑛
1
𝜎𝑥𝑦 = ∑(𝑥𝑖 − 𝑥̅ )(𝑦𝑖 − 𝑦̅) (121)
𝑛
𝑖=1

donde 𝑥̅ es el promedio de los valores de los pixeles de la matriz patrón e 𝑦̅ es el


promedio correspondiente a los pixeles de la matriz de búsqueda.

3.4.1.2 Método del coeficiente de correlación

Al utilizar la covarianza de las dos matrices es posible formular otro método de


búsqueda de puntos homólogos, el cual consiste en el uso del coeficiente de correlación
entre dos grupos de datos, representado en la ecuación (122).

𝜎𝑥𝑦
𝑐= (122)
√𝜎𝑥𝑥 𝜎𝑦𝑦

El resultado de este método se encuentra entre [1, -1], donde:

 Si c=1, la correlación es total, por lo cual se está hablando que el sector de


búsqueda es exactamente igual a la matriz patrón.

21
Se refiere al valor del color, comúnmente representado como un valor para la banda roja, verde y azul,
representada como RGB.

120
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

 Si c=0; No existe ninguna correlación entre el sector de búsqueda y la matriz


patrón.

 Si c=-1; Existe una correlación inversa, por lo cual el sector de búsqueda es el


inverso o negativo de la matriz patrón.

Los valores 1 son casi imposibles de encontrar, sucede solamente cuando la matriz
patrón es la misma matriz de búsqueda. Es por esto que se considera como punto
homólogo aceptable a aquel que posea un coeficiente de correlación superior a 0,7.

3.4.1.3 Método de los valores absolutos de la tonalidad del pixel

Este método consiste en obtener la diferencia existente entre los valores de los pixeles de
la matriz patrón y la matriz de búsqueda, se calcula el valor absoluto de la diferencia por
cada uno de los puntos. La fórmula utilizada en este método es la mostrada en (123).

𝑑 = ∑|(𝑥𝑖 − 𝑥̅ ) − (𝑦𝑖 − 𝑦̅)| (123)


𝑖=1

El resultado depende del valor que obtenga d, el cuanto mayor sea, mayor es la
correlación entre las matrices.

Este método es el más sencillo y rápido, en cuanto a cálculos, en comparación con los
demás algoritmos que buscan matrices homólogas, además los recursos de memoria
utilizados son pocos.

121
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

3.4.1.4 Método del cuadrado de las diferencias de los valores de tonalidad de los
pixeles

Este método es idéntico al mencionado en la sección 3.4.1.3, con la diferencia que toma
el cuadrado de la diferencia de los valores absolutos, como se muestra en (124).

𝑑 = ∑|(𝑥𝑖 − 𝑥̅ ) − (𝑦𝑖 − 𝑦̅)|2 (124)


𝑖=1

3.4.2 Disminución de ruido de la imagen

Como se muestra en la Figura 1-4, cuando se realiza el proceso de matching entre dos
imágenes se puede ver visualmente el sector existente de solape entre ambas, lo cual es
una característica que disminuye la calidad cualitativa del modelo obtenido, por lo cual,
para dar mayor calidad al trabajo a realizar es necesario eliminarlo.

En la Figura 3-26 se realiza la representación de dos imágenes que poseen solape entre
ellas, las cuales han sido unidas mediante alguno de los métodos descritos en la sección
3.3. Como se puede ver en esta figura, la región en común la cual debe ser representada
por un color distinto a ambas imágenes, ya que no se sabe si se debe utilizar la
representación de la imagen de la izquierda o de la derecha.

Este problema es tratado como si existiera ruido en la imagen, como lo explica Estrada
Chavéz (2012), quien muestra heurísticas para su eliminación y posteriormente pueden
ser complementadas con filtros para la completa eliminación del ruido. El filtro tratado
consiste en obtener el valor de los cuatro vecinos más cercanos, los cuales están
representados en la Figura 3-27.

122
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

Figura 3-26: Representación de la unión de dos imágenes.

Figura 3-27: Cuatro vecinos de un pixel.

Los cuatro vecinos de un pixel corresponden a los pixeles ubicados en las posiciones de
arriba, abajo, izquierda y derecha. Cada uno de estos pixeles posee un tono, representado
por el conjunto de valores en cada una de las bandas de color utilizadas, representado
comúnmente mediante el uso del RGB, explicado en la sección 3.1.

La representación de cada uno de los pixeles está dada por la ecuación (125).

123
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

𝑃𝑟𝑜𝑚𝑒𝑑𝑖𝑜 (𝑇𝑅(𝑥 − 1, 𝑦) + 𝑇𝑅(𝑥, 𝑦 − 1) + 𝑇𝑅(𝑥, 𝑦 + 1) + 𝑇𝑅(𝑥 + 1, 𝑦));


𝑉𝐶(𝑥, 𝑦) = { 𝑃𝑟𝑜𝑚𝑒𝑑𝑖𝑜(𝑇𝐺(𝑥 − 1, 𝑦) + 𝑇𝐺(𝑥, 𝑦 − 1) + 𝑇𝐺(𝑥, 𝑦 + 1) + 𝑇𝐺(𝑥 + 1, 𝑦));} (125)
𝑃𝑟𝑜𝑚𝑒𝑑𝑖𝑜(𝑇𝐵(𝑥 − 1, 𝑦) + 𝑇𝐵(𝑥, 𝑦 − 1) + 𝑇𝐵(𝑥, 𝑦 + 1) + 𝑇𝐵(𝑥 + 1, 𝑦))

donde VC (valor del color del pixel) corresponde al conjunto de valores en las bandas
roja, verde y azul.

Los valores del color del pixel (x, y) es calculado mediante el promedio de cada una de
las intensidades para cada una de las bandas.

La eliminación del ruido está dada por la repetición del proceso mencionado
anteriormente, tomando de esta forma nuevos valores para cada uno de los pixeles. Tal
como lo muestra Estrada Chavéz (2012), el trabajo se debe repetir alrededor de setenta
iteraciones con el fin de eliminar el ruido de la imagen.

Otro de los métodos utilizados para eliminar el ruido de las imágenes es el de ocho
vecinos, los cuales se muestran en la Figura 3-28. Éste mejora la eliminación del ruido
en comparación al de los cuatro vecinos, pero el tiempo computacional necesario para la
realización de este método es demasiado alto, lo cual le da una gran desventaja; debido a
esto el método más utilizado es el de los cuatro vecinos.

Figura 3-28: Ocho vecinos.

124
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

3.4.3 Corrección del solape de dos imágenes

En la sección 3.4.2 se menciona como realizar la eliminación del ruido en imágenes, lo


cual sirve de ayuda para la eliminación de las marcas producidas en el proceso de solape
de fotografías, utilizando el método de los cuatro vecinos.

Para realizar la corrección del solape de dos imágenes se realiza modificaciones al


algoritmo de los cuatro vecinos, donde se tiene en cuenta lo siguiente:

 No se debe realizar el proceso en una imagen completa, sino que se hace en la


zona de solape existente entre dos o más imágenes.

 No es una imagen la que está interviniendo; en el caso de estudio intervienen dos


o más, lo cual depende directamente del método que se utilice para realizar la
comparación estereoscópica.

 Los bordes del sector de solape deben asemejarse lo más posible a la imagen más
cercana que posea.

Mediante lo mencionado se formula que existe un factor de relevancia para cada pixel,
dado por una función de cercanía al centro de la imagen, por lo cual, entre más cercano
al centro el valor más se acercará a uno, y en caso contrario, es decir, entre más lejano se
encuentre su valor será cercano a cero.

Tomando como ejemplo dos imágenes unidas mediante algún proceso, tal como se
muestra en la Figura 3-29, los puntos pertenecientes al solape entre las dos imágenes son
los que poseerán un valor de este factor. De esta forma todos estos puntos poseen dos
valores de este factor, uno correspondiente a la imagen 1, llamado 𝛼1 , y otro para la
imagen 2, 𝛼2 .

125
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

Mediante lo explicado se asume que aquel punto más cercano al centro de la imagen 1,
con respecto a la imagen 2, posee un valor de factores 𝛼1 > 𝛼2 . De esta forma se define
el valor del pixel en la zona de solape está dado por la fórmula (126).

Figura 3-29: Solape de dos imágenes.

𝑝(𝑥, 𝑦) = 𝑉𝐶1 (𝑥, 𝑦) ∗ 𝛼1 + 𝑉𝐶2 (𝑥, 𝑦) ∗ 𝛼2 (126)

Si se toma como referencia la dirección del vuelo, presentada en la Figura 3-29, se


presenta la siguiente relación: Entre más cercano sea el pixel a la imagen 1, de forma
paralela a la dirección del vuelo, el factor 𝛼1 es muy cercano a uno, mientras que 𝛼2 lo
es con respecto a cero. A medida que se avance, en dirección al vuelo, el valor para los
pixeles de 𝛼1 irá disminuyendo, mientras que 𝛼2 irá aumentando.

Si la zona de solape está compuesta por más de dos imágenes, entonces se utiliza la
misma idea, pero con más factores, los cuales son directamente proporcionales a la
cantidad de imágenes involucradas, siendo un factor por cada una de las imágenes.

126
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

3.5 MODELOS OBTENIDOS

Cuando se realiza un trabajo fotogramétrico los elementos que se obtienen como


resultado son:

 Imágenes rectificadas: Llamadas también ortofotos. Consisten en elementos


individuales correspondientes a las fotografías utilizadas para el proyecto
fotogramétrico, las cuales ya han pasado por el proceso de corrección ortogonal.
Cada proyecto genera al menos una imagen rectificada por cada fotografía
utilizada en él.

 Modelos 2D: También es un elemento individual, pero al contrario de la imagen


rectificada cada proyecto genera solo un modelo 2D, que consiste en la unión de
imágenes mediante algún proceso de triangulación aérea con el uso pares
estereoscópicos para generarlos.

 Modelos 3D: Al igual que los modelos 2D, cada proyecto fotogramétrico obtiene
solo uno de éstos al momento de llevarse a cabo. Estos modelos muestran todos
los puntos correspondientes a la zona del proyecto fotogramétrico expresados en
las coordenadas (x,y,z).

Los elementos más utilizados en la fotogrametría son los modelos 2D y 3D, los cuales
son explicados a continuación.

127
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

3.5.1 Modelo 2D

Estos modelos son generados mediante el uso de técnicas de triangulación aérea, las
cuales son tratadas en la sección 3.3. Los datos que utilizan principalmente estos
modelos son planimétricos, como también son utilizadas las imágenes rectificadas. Si se
quisiese dar una descripción de estos modelos se puede decir que corresponden a una
gran imagen, con resolución igual a las fotografías utilizadas, pero que permite ver todo
el sector sobrevolado, el cual corresponde al área del proyecto. Un ejemplo de éstos es
mostrado en la Figura 3-30, la cual fue facilitada por un proyecto realizado por Sisar
Ltda.

Figura 3-30: Modelo 2D.

128
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

El uso de estos modelos viene dado gracias a la exactitud que poseen, dentro de los que
se destacan la generación de mapas de las zonas sobrevoladas, y el estudio de sectores
agrícolas, llamado análisis de vigor, principalmente producido por un estudio de la
intensidad de colores en el área de estudio. También es posible realizar estudios
ganaderos con el mismo método. Otros estudios que se realizan con el uso de estos
modelos sobre la evolución con el paso del tiempo en ciertas zonas, donde se puede ver
como la influencia de la naturaleza o de la mano del hombre genera cambios dentro de
ésta.

3.5.2 Modelo 3D

Cuando se habla de modelos tridimensionales o 3D se está refiriendo a una


representación en tres dimensiones (alto, ancho y largo) de un sector sobrevolado, los
cuales son generados mediante el uso de datos planimétricos y altimétricos.

Estos modelos son utilizados principalmente para generar representaciones de áreas de


estudio, para posteriormente realizar cambios virtuales en ella. Como ejemplo se
encuentra el movimiento de áridos de un lugar a otro, sistema muy utilizado en las
mineras. Otro ejemplo es la generación de vías de escape en caso de tsunamis en
ciudades costeras.

Dentro de los modelos tridimensionales más utilizados se encuentran dos tipos. En


primer lugar están los Digital Terrain Models, correspondientes a aquellos que poseen
información del terreno sobrevolado, ignorando dentro de estos datos aquellos que
posean relación con construcciones humanas. En segundo lugar están los Digital Surface
Models que, a diferencia de los anteriores sí contemplan la información de aquellas
estructuras fabricadas por los humanos.

129
CAPÍTULO 3. FOTOGRAMETRÍA AÉREA CON IMÁGENES DIGITALES

Estos modelos son generados a partir de los datos obtenidos de la triangulación aérea, en
la cual se realiza la generación de una nube de puntos del sector, con los cuales se forma
una especie de malla mediante algún proceso de unión. Esta malla es la representación
de una superficie. Dentro de las posibles mallas generadas para estos modelos se
encuentran cuatro tipos, mostradas en la Figura 3-31, las cuales son rectangulares,
cuadradas, triangulares o hexagonales, siendo las dos últimas las más utilizadas.

Figura 3-31: Mallas regulares para la generación de modelos 3D.

Como estas mallas corresponden solo a información de la ubicación de cada uno de los
puntos del modelo tridimensional, la representación final es complementada con el
modelo 2D, el cual es sobrepuesto en esta malla, generando de esta forma una
representación visual en tres dimensiones del sector deseado.

130
CAPÍTULO 4. IMPLEMENTACIÓN

Antes de explicar la implementación de cada uno de los algoritmos a utilizar, se debe


indicar que existen factores que son variantes en cada uno de los proyectos
fotogramétricos e inclusive, en muchas ocasiones es imposible obtener información
necesaria para algunos algoritmos mencionados en la sección 3.3, principalmente
aquellos que poseen relación directa con la cámara fotográfica y traen consecuencia en
los resultados de los modelos generados. Es por esto que los valores correspondientes a
la distancia focal, la distancia entre el centro fiducial y el principal y la disposición,
temas tratados en la sección 3.3.1, son tomados como variables, pero se les da un valor
arbitrario a cada uno.

4.1 SELECCIÓN DE ALGORITMOS

En el presente proyecto no se encuentran implementadas todas las técnicas mostradas en


la sección 3.3, es por esta razón que se lleva a cabo una selección de los algoritmos
mencionados, exceptuando el algoritmo de punto de fuga, ya que será este algoritmo el
utilizado en la comparación con los métodos tradicionales ya descritos.

Mediante lo mencionado anteriormente, se realiza la búsqueda de ciertas características


de cada uno de los algoritmos tratados dentro del documento, las cuales son:

 Uso de puntos de control: Se refiere a si la presencia de puntos de control en


terreno es necesaria para la realización de un modelo bidimensional y, en qué
punto y para qué se utilizan.
CAPÍTULO 4. IMPLEMENTACIÓN

 Cantidad de fotografías por modelo: Indica cuantas imágenes se necesita para


generar modelos intermedios, en caso de ser necesarios, en el proceso de
triangulación aérea.

 Ajuste al terreno: Indica si el modelo se ajusta al terreno y, qué grado de ajuste


posee.

 Robustez ecuaciones: Indica qué grado de robustez poseen las ecuaciones; entre
más robustas sean, indican que el tiempo de cálculo para la generación del modelo
es mayor.

 Uso de instrumentos externos: Indica si el algoritmo necesita el uso de


instrumentos externos al trabajo fotogramétrico que le entreguen información
necesaria e indispensable para el proceso.

 Recubrimiento vertical: Porcentaje de recubrimiento vertical necesario para la


realización del método.

 Recubrimiento horizontal: Porcentaje de recubrimiento horizontal necesario


para la realización del método.

 Comentarios: Información extra tomada en cuenta en la decisión.

En la Tabla 4-1 se aprecia cada una de las características mencionadas con anterioridad
para cada uno de los algoritmos tratados en el documento.

Al realizar una comparación de estas características y las necesidades del proyecto,


obtenidas a partir del estudio con el cliente, se observa que el sistema debe funcionar
para cualquier conjunto de imágenes, de las cuales no necesariamente se tendrá
información extra, sino solo la que se observa dentro de ella. Además la cantidad de
imágenes a utilizar es independiente del proyecto. Todo esto se puede ver con
profundidad en el Anexo A. Requisitos del sistema.

132
CAPÍTULO 4. IMPLEMENTACIÓN

Tabla 4-1: Características de los distintos algoritmos de triangulación aérea

Algoritmo
Características Modelos
Por Pasadas Por haces
independientes
Necesita para el No necesarios, se pasa de
Uso de Puntos Sumamente
ajuste de los la imagen a coordenadas
de Control necesario
modelos del terreno.
Cantidad de
fotografías
2 4 o más 4 o más
utilizadas por
modelo
Sí, ya que utiliza
Sí, aunque posee
Ajuste al los puntos de Sí, es el método que más
ciertos errores al
terreno control como base ajuste al terreno posee
realizarlo
en los cálculos
Más robusta que el
modelo por
Robustez de las Método más robusto de los
Robustas pasadas pero
ecuaciones tres
menor a la de
modelos por haces
No necesariamente, pero
Uso de
su uso mejora
instrumentos No necesariamente Si
considerablemente los
externos
resultados
Recubrimiento
Sin definir Sin definir 60% aproximadamente
Vertical
Recubrimiento
Sin definir Sin definir 40% aproximadamente
Horizontal
Realiza bloques de
El trabajo se varias fotografías Más rápido que el método
realiza por por lo que es de modelos
pasadas, luego se necesario un independientes, pero la
Comentarios
procede a una trabajo previo para cantidad de cálculo
nueva unión entre la realización de la aumenta
pasadas cantidad de considerablemente
bloques

Dados los alcances del proyecto, indicados en la sección 1.5.3, el trabajo no contempla
la discriminación de imágenes, por lo cual es el usuario quién realiza la selección, y se

133
CAPÍTULO 4. IMPLEMENTACIÓN

asume que son correctas, es decir, pertenecen al proyecto y están ordenadas con respecto
al momento de captura, formando de esta forma cierto conjunto de pasadas.

Como un punto importante para la selección del algoritmo a implementar está el tiempo
de ejecución.

Dado este conjunto de restricciones y características es que para la rectificación de


imágenes el algoritmo de punto de fuga es comparado con el método de triangulación
aérea por pasadas.

4.2 SELECCIÓN DEL LENGUAJE DE PROGRAMACIÓN

Para implementar el software se ha decidido el uso de un lenguaje de programación que


sea similar a los utilizados en las aplicaciones estudiadas, para lo cual se ha tomado en
cuenta lo siguiente:

 La documentación existente.

 Privacidad del lenguaje y de sus plataformas de desarrollo.

 Uso dentro del mercado informático.

 Facilidad en el uso de interfaces con el usuario.

Teniendo en cuenta las siguientes acotaciones con respecto a los lenguajes a utilizar:

 Software como PhotoScan están desarrollados en lenguaje Python, pero el


conocimiento de este lenguaje y el poco manejo de él, por parte del desarrollador,
contempla un factor en contra en cuanto al tiempo de desarrollo. A pesar que este

134
CAPÍTULO 4. IMPLEMENTACIÓN

lenguaje permite un uso rápido y, lo que es considerado como punto a favor y en


contra a la vez, facilita a los programadores el manejo de memoria interna.

 El lenguaje C++ es un lenguaje que cumple con gran parte de lo mencionado,


pero su debilidad es la portabilidad de máquina, ya que el software desarrollado
busca la independencia en este sentido.

 Matlab es un lenguaje muy útil en cuanto al trabajo de imágenes dada su


estructura de cálculo, donde todo es tratado como una matriz y las imágenes lo son
también. Pero el programar en este lenguaje produce un costo extra, dado que su
plataforma de desarrollo no es gratuita, lo que también genera un problema de
portabilidad aún mayor que C++.

Descartando las opciones anteriores y, tratando solo lenguajes popularmente conocidos


para el desarrollo de aplicaciones se decide utilizar el lenguaje de programación Java.

A pesar que Java soporta la implementación de muchos paradigmas de programación se


ha decidido utilizar el de Orientación a Objetos (POO), para lo cual se ha diseñado el
diagrama de clases correspondiente a la aplicación, el cual es mostrado en la Figura 4-1.

En cuanto a la arquitectura de software a utilizar para el proyecto se ha inclinado la


decisión por el uso de MVC++ (Modelo – Vista – Controlador), destacando la principal
diferencia en comparación con MVC es que la vista no realiza interacción directa con la
capa de modelo. El desarrollar la aplicación con este esquema permite los cambios
directos de código para añadir más funcionalidades y a la vez implementar herramientas
que faciliten su uso directamente en aquellos elementos que interactúen con el usuario.

En cuanto al uso de algún repositorio de datos, específicamente una base de datos, se ha


descartado directamente su uso, ya que el principal elemento a tratar dentro del proyecto
son las fotografías aéreas, las cuales al almacenarlas en una base de datos producirán un
uso adicional de almacenamiento interno de la aplicación.

135
CAPÍTULO 4. IMPLEMENTACIÓN

0..* 1..*
Son utilizados Pasada Hace uso
- idPasada : int

0..*
0..1 Mejora
1..*
Ayudan a generar
Utiliza
1..1 0..* Puntos de apoyo
Modelo Previo Está presente Contiene - idPunto : int
- idModelo : int - coordenadaX : int
- coordenadaY : int 0..*
Son generados
0..*
Genera 0..* 0..1
Apoyan Se utilizan

0..1
Son utilizados
0..*
Puntos de Control Es mejorada
0..*
0..* - idPunto : int Son usadas
Es apoyado - coordenadaX : int 0..*
- coordenadaY : int Ajusta Modelo Final
0..* - nombre : String
1..*
Es generado Es ajustado - ubicación : String
0..* - fechaCreación : java.util.Date
Fotografía Utiliza
- ubicación : String
1..*
- alto : int
Genera
- ancho : int
1..*
Es utilizado
0..* Proyecto
Es usada 1..1
- nombre : String Es generado en
- ubicación : String
1..* - desviaciónCámara : int
Hace uso

Figura 4-1: Diagrama de clases del proyecto

En cuanto al ambiente de desarrollo del proyecto con Java se ha evaluado los principales
IDE (Integrated Development Enviroment) que trabajan con este lenguaje, los cuales son
Eclipse, JDeveloper, NetBeans y BlueJ. Con respecto al análisis realizado se ha elegido
NetBeans por sobre otro IDE, esto es debido a motivos como la familiaridad que se
posee en el trabajo con esta herramienta, la facilidad de uso y sobre todo el respaldo y
soporte proporcionado por Oracle, empresa que es dueña del lenguaje Java.

136
CAPÍTULO 4. IMPLEMENTACIÓN

4.3 EXPLICACIÓN DE LA SOLUCIÓN

4.3.1 Algoritmo de triangulación aérea

Como se menciona en la sección 4.1, las imágenes a tratar dentro del proyecto están
ordenadas de acuerdo al vuelo fotogramétrico, tal como hace referencia la Figura 4-2.

Figura 4-2: Simulación de vuelo fotogramétrico

Como se explica en el algoritmo de triangulación aérea por pasadas, señalado en la


sección 3.3.1.2, se hace uso de pares de fotografías para el proyecto. En este caso se
toma la primera imagen con la segunda, generando con ellas un modelo independiente,
para que posteriormente se genere otro a partir de la segunda y tercera imagen. El mismo
proceso se realiza con la tercera y cuarta, cuarta y quinta; así sucesivamente hasta
utilizar todas las imágenes correspondientes a la pasada. Para determinar si una

137
CAPÍTULO 4. IMPLEMENTACIÓN

fotografía corresponde a la pasada, se debe calcular la posición que posee el solape de


ésta con respecto a la anterior imagen. En caso de que el solape entre las imágenes no
sea perpendicular a la dirección de la pasada significa que la imagen no corresponde a la
pasada.

Para obtener si una imagen pertenece a la pasada correspondiente, se calcula el ángulo


que se forma por la dirección del vuelo de la primera imagen de la pasada y el borde de
+
la imagen a evaluar. Para esto se contempla un error aceptable para el cálculo de 10

grados aceptables para considerar pertenecía a la pasada. Gráficamente una pasada es
mostrada en la Figura 4-3.

Figura 4-3: Ejemplo de pertenencia a la pasada de imágenes.

138
CAPÍTULO 4. IMPLEMENTACIÓN

En la Figura 4-3 se muestra como tres imágenes (imagen 1, 2 y 3 respectivamente) se


unen para la pasada. Las imágenes originales se muestran en la Figura 4-8, Figura 4-9 y
Figura 4-10 respectivamente.

Figura 4-4: Imagen 1 del ejemplo de pertenencia a una pasada.

Figura 4-5: Imagen 2 del ejemplo de pertenencia a una pasada.

139
CAPÍTULO 4. IMPLEMENTACIÓN

Figura 4-6: Imagen 3 del ejemplo de pertenencia a una pasada.

Las imágenes han sido otorgadas por Sisar Ltda. y utilizadas por esta empresa para un
trabajo fotogramétrico en la Universidad de Santiago de Chile.

Para cada pasada, la primera imagen a utilizar será la referencia que indica la dirección
del vuelo correspondiente a la pasada. Como los ángulos formados entre la línea de
vuelo y los bodes de las imágenes 2 y 3 están entre 100 y 80° significa que estas
imágenes pertenecen a la misma pasada.

Otro elemento a considerar si una imagen pertenece a la pasada o no es la rotación que


sé le realiza en la dirección de vuelo al momento de incorporarla o verificar su presencia
en la pasada. En caso de que esta rotación sea mayor que 45° grados significa que la
imagen pertenece a otra pasada. Por ejemplo si se quisiera agregar la imagen 4, mostrada
en la Figura 4-7 se observa que esta debe poseer un giro cercano a los 180° en la
dirección del vuelo para poder compararla con la pasada que se está formando, por lo
cual queda directamente descartada.

140
CAPÍTULO 4. IMPLEMENTACIÓN

Figura 4-7: Imagen 4 a evaluar en la pasada de pertenencia a una pasada.

Dada la forma de captura secuencial de las imágenes, además de que el guardado de


estas es según el momento o tiempo en que fueron capturadas, se asume que las
imágenes restantes tampoco pertenecerán a la pasada evaluada.

Dado lo anterior el algoritmo queda explicado mediante un pseudocódigo descrito en el


Algoritmo 4-1.

Algoritmo 4-1: Algoritmo de triangulación aérea mediante el método por pasadas.


i =1 (primera imagen)
n = cantidad total de imágenes de la pasada
zona válida para la pasada = verdadero
Mientras i < n-1 o zona válida para la pasada:
Se define un arreglo que almacene los puntos en común
puntos de apoyo = puntos en común entre las imágenes i e i+1
Si tamaño de puntos de apoyo >= 5, entonces:
Calcular rotación y escala de imagen i+1 con respecto a imagen i
Calcular recta correspondiente al solape
Si la recta no corta la dirección del vuelo entre 80 y 100°,
entonces:
Zona válida para la pasada = falso
unir y guardar el modelo obtenido
i aumenta en una unidad

141
CAPÍTULO 4. IMPLEMENTACIÓN

Para el proceso de unión de imágenes se utiliza la búsqueda de puntos en común entre


imágenes, para lo cual se utiliza el método de la covarianza para ubicar estos sectores,
los cuales, mediante rotación, escalamiento y traslación para unir las imágenes.

Por ejemplo si se consideran las imágenes mostradas en la Figura 4-8, Figura 4-9 y
Figura 4-10, las cuales corresponden a un mismo sector y fueron facilitadas por Sisar
Ltda. estas se unen mediante los puntos solicitados generando las imágenes mostradas en
la Figura 4-11 para el proceso con la imagen 1 e imagen 2 del ejemplo de unión y la
Figura 4-12 contempla la unión de la imagen 2 e imagen 3. Cabe mencionar que las
imágenes seleccionadas no necesariamente pertenecen a una misma pasada, dada la
rotación necesaria para unirlas.

Figura 4-8: Imagen 1 de ejemplo de unión de imágenes.

142
CAPÍTULO 4. IMPLEMENTACIÓN

Figura 4-9: Imagen 2 de ejemplo de unión de imágenes.

Figura 4-10: Imagen 3 de ejemplo de unión de imágenes.

143
CAPÍTULO 4. IMPLEMENTACIÓN

Figura 4-11: Unión de las imágenes de ejemplo 1 y 2.

144
CAPÍTULO 4. IMPLEMENTACIÓN

Figura 4-12: Unión de las imágenes de ejemplo 2 y 3.

En cuanto al trabajo realizado para la búsqueda de puntos en común entre dos


fotografías se ha tomado en cuenta el valor que posee cada uno de los pixeles solamente
en la banda roja, esto es debido principalmente a que cuando se trabajan con las tres
bandas (rojo, verde y azul), la cantidad de cómputo necesario aumenta
significativamente. Además la posibilidad de encontrar un lugar homólogo disminuye,
dado que un pequeño cambio en una de las bandas afecta de gran manera el valor que
tendrá el pixel.

La razón para utilizar solo la banda roja es que por indicaciones del cliente, existen
proyectos en donde se utilizan imágenes obtenidas mediante infrarrojos, principalmente

145
CAPÍTULO 4. IMPLEMENTACIÓN

para realizar análisis de vigor sobre zonas agrícolas. Este trabajo es realizado sobre la
banda roja principalmente.

Cuando se obtiene cada uno de los modelos pertenecientes a la pasada, es momento de


realizar el modelo correspondiente a la pasada en sí. Al seguir los pasos indicados en la
explicación del método, para este proceso es necesario realizar las rotaciones necesarias
a cada uno de los modelos. Para esto se realiza un cálculo que depende directamente del
grado de rotación que tuvo la imagen anteriormente. De esta forma se analiza cada uno
de los minimodelos, dejando la imagen de la izquierda fija, mientras que los cálculos son
realizados con la de la derecha.

Posterior a la obtención de cada rotación entre los modelos, es necesario obtener el


cálculo del factor de escala que tendrá uno con respecto al otro, tal como se menciona en
la sección 3.3.1.2.

El ajuste de la pasada, es decir, la transformación de coordenadas del modelo de la


pasada a coordenadas de terreno, es opcional, y es realizado siempre y cuando el usuario
haya definido puntos de control en el proyecto en cuestión. En caso que estos no se
hayan definido, este ajuste no se realiza.

Si se realiza un ajuste de la pasada, se toma los puntos de control y se define las


ecuaciones necesarias a resolver mediante el uso del método de mínimos cuadrados.

Cuando se termina el análisis de cada una de las pasadas, se procede a unir cada una de
las pasadas con el fin de formar el modelo final. Este proceso es idéntico al realizado
para formar cada minimodelo o pasada, pero con la salvedad de que se trabaja con zonas
de solape horizontales y no verticales como se realizó anteriormente.

146
CAPÍTULO 4. IMPLEMENTACIÓN

4.3.2 Algoritmo de punto de fuga

Para el algoritmo de punto de fuga, el principal proceso a realizar es la búsqueda de


estructuras humanas, para posteriormente buscar la proyección de éstas. Si se realiza el
trabajo mediante el uso de la imagen tal cual como fue capturada, se tendrá problemas al
tratar de ubicar las construcciones necesarias, tal como se menciona en la sección 3.4. Es
por este motivo que se debe homogeneizar la imagen, para lo cual se utiliza un algoritmo
para la eliminación del ruido. De la misma forma que lo plantea Estrada Chavéz (2012)
es necesario realizar una gran cantidad de iteraciones, cercanas a 100, para que el ruido
desaparezca y solo queden en la imagen aquellos sectores donde hay un cambio de
tonalidad.

Posterior a la eliminación del ruido se procede a la identificación de elementos dentro de


la imagen. Un ejemplo de estos dos procesos es mostrado en la Figura 4-13. Tal como se
ha planteado en la sección 3.3.2.1, las construcciones humanas son aquellas figuras que
poseen ángulos rectos, o valores cercanos. Estos serán los elementos a tener en cuenta
para el presente algoritmo de corrección ortogonal.

Ya identificada cada una de las construcciones, es necesaria la búsqueda de los costados


de ésta. En el caso de que uno de estos elementos no posea un costado identificable
dentro de la fotografía, se asume que el elemento está perpendicular al vuelo, lo cual
indica que está correcto y no se debe realizar cambios en él.

Con el fin de trabajar con cada una de las estructuras encontradas, el algoritmo utiliza el
almacenamiento interno de cada una de las construcciones mediante un sistema interno
de coordenadas para cada una de las imágenes a trabajar. Se recuerda que el algoritmo
de punto de fuga permite la corrección ortogonal de cada una de las imágenes de forma
independiente, razón por la cual es necesario el almacenamiento de la forma explicada.

147
CAPÍTULO 4. IMPLEMENTACIÓN

Figura 4-13: Identificación de los objetos de una imagen

Para realizar la unión entre dos fotografías es necesaria la búsqueda de puntos


homólogos en ambas imágenes, con el fin de encontrar una estructura similar en ambas.
Cuando se encuentra este elemento, se procede a la generación de los cálculos
necesarios para la orientación y traslación de una de las imágenes para que pueda ser
complementada con la otra. De esta forma, el modelo final es generado mediante la
unión de una a una de las fotografías del proyecto.

Como se trata en la sección 3.3.2, cuando se realiza este proceso, el objeto a rectificar es
trasladado dentro de la imagen, dejando de esta forma un espacio vacío en ella. Para
trabajar este tema se realiza lo siguiente:

Independiente de si el sector en cuestión es tratado posteriormente con otra


imagen, esté será mostrado con un color representativo, en este proyecto será el
negro, el cual posteriormente mediante el uso de la clase Image, perteneciente a
Java, es tratado como color transparente para utilizar el color de la otra imagen
involucrada en el solape de esta área.

148
CAPÍTULO 4. IMPLEMENTACIÓN

Este algoritmo posee la identificación de las edificaciones, pero la generación de un


modelo tridimensional de esta forma se ve dificultada, por lo cual se opta que para la
generación de modelos de terreno o de superficie se deberá realizar el uso de métodos de
triangulación aérea o el apoyo de puntos de control en terreno.

149
CAPÍTULO 5. PRUEBAS Y RESULTADOS

5.1 PRUEBAS

5.1.1 Descripción de las pruebas a realizar

Las pruebas realizadas en el presente trabajo consisten en la utilización de dos grupos de


imágenes, una correspondiente a un sector no urbanizado, mientras que el otro grupo
corresponde a un sector de la ciudad de Santiago, el cual posee grandes sectores
urbanizados.

Dentro de las pruebas se contempla el uso de cada uno de los algoritmos utilizados para
la rectificación de imágenes tratados en la sección 4.1, tomando como medidas a tener
en cuenta los siguientes aspectos:

 El tiempo de ejecución de los algoritmos seleccionados en cada una de las cuatro


pruebas a realizar. Esto es un elemento cuantitativo a evaluar.

 Uso de memoria de procesamiento de cada algoritmo al momento de realizar las


pruebas. Al igual que el tiempo de ejecución, es un elemento cuantitativo a tener
en cuenta.

 La calidad visual de los modelos obtenidos por cada uno de los algoritmos en
cada prueba. Éste es un valor cualitativo necesario en el proyecto.
CAPÍTULO 5. PRUEBAS Y RESULTADOS

Además del uso de los algoritmos de triangulación aérea y punto de fuga, se realiza una
comparación con la ejecución de las cuatro pruebas en un software comercial facilitado
por SISAR Ltda.

5.1.2 Datos utilizados en las pruebas

Para la realización de las pruebas se utiliza cuatro conjuntos de fotografías


correspondientes a dos proyectos distintos, facilitadas por SISAR Ltda. Los datos de las
pruebas están descritos en la Tabla 5-1.

Tabla 5-1: Datos de prueba

Cantidad
N° Dato Tipo de Dimensiones Peso de
Lugar de
de Prueba Fotografía de imagen la prueba
imágenes
USACH,
1 Urbana Estación 70 4320 X 3240 385 MB
Central.
Desierto,
2 Rural 207 4321 X 3240 1,10 GB
Iquique
USACH,
3 Urbana Estación 35 4322 X 3240 195 MB
Central.
Desierto,
4 Rural 35 4323 X 3240 195 MB
Iquique

Cada una de las pruebas es llevada a cabo de acuerdo a los elementos a tener en cuenta,
descritos en la sección 5.1.1, teniendo como fin de cada una de ellas la construcción
final del modelo bidimensional. En cuanto al software privativo a utilizar para la

152
CAPÍTULO 5. PRUEBAS Y RESULTADOS

realización de las comparaciones pertinentes de los algoritmos generados, se utiliza


Agisoft PhotoScan, el cual provee una gran variedad formas de conseguir estos modelos,
razón por la cual se utilizan dos configuraciones distintas de este producto.

En la Tabla 5-2 se muestra las pruebas realizadas para el desarrollo de este trabajo.

Tabla 5-2: Pruebas realizadas

Dato de
N° de
prueba Software Algoritmo/Configuración
Prueba
utilizado
Agisoft
1 1 Complejidad baja
PhotoScan
Agisoft
2 1 Complejidad alta
PhotoScan
Agisoft
3 2 Complejidad baja
PhotoScan
Agisoft
4 2 Complejidad alta
PhotoScan
Agisoft
5 3 Complejidad baja
PhotoScan
Agisoft
6 3 Complejidad alta
PhotoScan
Agisoft
7 4 Complejidad baja
PhotoScan
Agisoft
8 4 Complejidad alta
PhotoScan
Software
9 1 Triangulación Aérea
creado
Software
10 2 Triangulación Aérea
creado
Software
11 3 Triangulación Aérea
creado
Software
12 4 Triangulación Aérea
creado

153
CAPÍTULO 5. PRUEBAS Y RESULTADOS

Tabla 5.2: Pruebas realizadas (continuación)

Software
13 1 Punto de Fuga
creado
Software
14 2 Punto de Fuga
creado
Software
15 3 Punto de Fuga
creado
Software
16 4 Punto de Fuga
creado

Cabe mencionar que las pruebas han sido realizadas en la misma máquina, teniendo
como características lo siguiente:

 Tipo: Notebook
 Marca: Toshiba.
 Modelo: Satellite C-645
 Procesador: Intel Core i3-2310M 2.10GHz
 Memoria RAM: 3 GB
 Sistema Operativo: Windows 7 Professional, 64 bits. Sevice pack 1

5.2 RESULTADOS

5.2.1 Resultados obtenidos por cada prueba

En el registro de cada una de las pruebas se han tomado en cuenta los elementos
mencionados en la sección 5.1.1. En cuanto al parámetro de tiempo de ejecución, para

154
CAPÍTULO 5. PRUEBAS Y RESULTADOS

los algoritmos creados se ha incorporado la generación de un log de pruebas, que va


marcando el tiempo de la máquina, con fecha y hora (hasta segundos) de cada uno de los
procesos22, mientras que para el trabajo realizado por PhotoScan es proporcionado al
momento de generar el modelo con la configuración dada.

Para evaluar el consumo de memoria interna se ha trabajado directamente con el monitor


de tareas que provee Windows, siendo un ejemplo el señalado en la Figura 5-1.

Figura 5-1: Uso de memoria en la ejecución de la prueba 2 en software Photo Scan

En cuanto a los resultados cualitativos de cada uno de los proyectos generados, es


mediante una comparación directa con el software privativo y los algoritmos
implementados.

22
Se sabe que esto puede aumentar considerablemente el tiempo de ejecución de la aplicación, por lo cual
solo es realizado al inicio y fin de cada uno de los procesos.

155
CAPÍTULO 5. PRUEBAS Y RESULTADOS

A pesar que el proceso culmina al momento de generar el modelo 2D, se toma en cuenta
la capacidad de generar un modelo 3D posterior al proceso realizado.

Otro elemento a tener en cuenta es la existencia de imágenes rectificadas en conjunto al


modelo final.

Los resultados han sido registrados en la Tabla 5-3: Resultados de las pruebasTabla
5-323.

Tabla 5-3: Resultados de las pruebas

N° de Prueba 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16

Cantidad de
70 70 207 207 35 35 35 35 70 207 35 35 70 207 35 35
imágenes

Tiempo (min) 90 200 250 400 70 150 80 150 400 650 200 200 500 700 350 350

Uso CPU (%) 100 100 100 100 100 100 100 100 80 80 80 80 80 80 80 80

Memoria (GB) 2.8 2.8 2.8 2.8 2.8 2.8 2.8 2.8 2.7 2.8 2.7 2.8 2.8 2.9 2.7 2.8

Corrección
Ok Ok Ok Ok Ok Ok Ok Ok Ok Ok Ok Ok Ok No Ok No
ortogonal

Modelo 2D Ok Ok Ok Ok Ok Ok Ok Ok Ok Ok Ok Ok Ok No Ok No

Modelo 3D Si Si Si Si Si Si Si Si Si Si Si Si No No No No

23
Los resultados colocados en esta tabla han sido aproximados para algunas ocasiones. La aproximación
siempre fue hacia arriba.

156
CAPÍTULO 5. PRUEBAS Y RESULTADOS

5.2.2 Análisis de los resultados

En cuanto a las pruebas generadas y sus resultados se aprecia en la Figura 5-2 que el
software de la empresa Agisoft (pruebas de 1 a 8) en promedio es más rápido que los
algoritmos creados (pruebas de 9 a 12 para el método por pasadas y de la 13 a 16 para el
punto de fuga). Además el algoritmo de punto de fuga se demora más entre los tres
elementos a comparar. El software creado tarda cerca de once horas de cómputo para
conseguir el resultado, mientras que el software Agisoft lo consigue en tiempos
máximos cercanos a las seis horas y treinta minutos, para las pruebas con mayor
cantidad de imágenes.

Figura 5-2: Resultados de las pruebas en cuanto al tiempo utilizado.

Al tener en cuenta el parámetro del uso de la memoria interna, como se observa en la


Figura 5-3, el software privativo hace uso de todos los recursos disponibles en la CPU
mientras que el software creado no, esto se debe principalmente a variables externas a la

157
CAPÍTULO 5. PRUEBAS Y RESULTADOS

aplicación creada lo que impide el completo uso de la CPU, produciendo errores en


algunas ocasiones durante el desarrollo del proyecto.

Figura 5-3: Resultados de las pruebas con respecto al uso de la CPU

En cuanto a la memora principal, el IDE también impide el uso de ésta, pero los
resultados son similares dado que esta opción ha sido eliminada para este proyecto,
razón por la cual se puede llegar a utilizar toda la memoria, o casi toda como se muestra
en la prueba 14, pero el no realizar esta opción producía que el software no pudiera
realizar la lectura de las imágenes, sobre todo cuando se formaba una pasada. Estos
resultados están graficados en la Figura 5-4.

Al ver los resultados con respecto a la rectificación de imágenes, las cuales


principalmente fueron vistas en el modelo generado se aprecia que todos los algoritmos
lograron realizar esta rectificación, fallando en la prueba 14 y 16, principalmente porque
las pruebas son obtenidas desde un sector rural, donde no existen construcciones
humanas y se utiliza el algoritmo de punto de fuga. Este resultado es esperado, dado que

158
CAPÍTULO 5. PRUEBAS Y RESULTADOS

el método mencionado realiza la búsqueda de edificaciones, que al no existir deja las


imágenes tal cual. En cuanto a la comparación de los resultados entre el algoritmo de
triangulación aérea por pasadas en comparación con el privativo se muestran diferencias
en construcciones pequeñas o elementos como torres donde el software generado no
logro la rectificación correcta.

Figura 5-4: Resultados de las pruebas con respecto al uso de la memoria principal
(Valor máximo disponible 3GB)

Con respecto a la generación final de un modelo bidimensional hay que decir que
nuevamente el software privativo posee mejores resultados que el generado, ya que en
éste último existen ocasiones en donde se puede ver la zona de solape entre dos
imágenes, sin tomar en cuenta lo mencionado en los resultados de la rectificación,
aunque en general los resultados son bastantes satisfactorios.

La preparación de un modelo 3D ha sido uno de los puntos débiles de la aplicación dado


que a pesar que el algoritmo de triangulación aérea por pasadas deja esta información

159
CAPÍTULO 5. PRUEBAS Y RESULTADOS

disponible no se realizó la generación de los mismos, impidiendo ver la eficacia que


poseían, y en cuanto al método del punto de fuga, se había mencionado que para la
realización del proceso del modelo 3D es necesario el uso de algún método relacionado
por la triangulación aérea para poder generar esta información, por lo que nunca deja
preparado elementos útiles para la generación de resultados tridimensionales.

En general el software realizado no logra superar al software privativo, razones para esto
hay bastantes, y son vistas en el capítulo 6, correspondiente a las conclusiones del
trabajo.

160
CAPÍTULO 6. CONCLUSIONES

El presente trabajo consta de un objetivo principal, el cual está directamente relacionado


con la pregunta planteada en la sección 1.3. Junto con él se ha planteado un conjunto de
objetivos específicos mencionados en la sección 1.5.2. Cabe destacar que los cinco
objetivos mencionados allí han sido cumplidos a cabalidad, pues en el caso de que no se
hubiese cumplido alguno no se tendrían resultados para este trabajo. Especialmente, el
último objetivo específico es el analizado con mayor profundidad en esta sección.

La realización del trabajo está directamente relacionada con la pregunta de trabajo


planteada en la sección 0, la cual es:

“¿Será el algoritmo de punto de fuga quien generará mejores resultados para la


reconstrucción de mapas aéreos de zonas urbanas, en comparación con el algoritmo de
triangulación aérea?”.

Además de lo mencionado en ella, se añade la comparación de ambos algoritmos


implementados con un software comercial, el cual posee respaldos en cuanto a su uso y
resultados por parte de empresas que poseen experiencia en el mercado de proyectos
fotogramétricos.

Dado los resultados expuestos en la sección 5.2.1 y su posterior análisis en la 5.2.2, se


aprecia que el algoritmo de triangulación aérea por pasadas genera mapas
fotogramétricos correctos para zonas urbanas, en comparación al algoritmo de punto de
fuga, el cual a pesar de realizar un trabajo similar, posee a su vez más problemas.
Principalmente los inconvenientes de este último método son con respecto al sector a
evaluar, principalmente se puede destacar lo siguiente:

 No siempre ubica todas las construcciones humanas, ya que su búsqueda se basa


en la detección de esquinas, lo cual es analizado en la sección 3.3.2, donde se
CAPÍTULO 6. CONCLUSIONES

explica este algoritmo. Principalmente es dado que las edificaciones son en su


mayoría compuestas por esquinas, o ángulos casi rectos, sin descartar la
posibilidad de que existen casos en que no poseen estos elementos. Por este
motivo es que siempre existirán elementos humanos los cuales el algoritmo no
podrá ubicar.

 Otro problema es la generación futura de modelos 3D, los cuales son hoy en día
muy utilizados y, en ocasiones preferibles a los 2D. El algoritmo de punto de fuga
no deja información referente a las construcciones, aparte de su ubicación y
contorno. Esto significa que si no se hace uso de un sistema estereocomparador no
es posible obtener información como la altura de las construcciones o elementos
corregidos ortogonalmente por este método. Al añadir este elemento directamente
al método de punto de fuga, el resultado será un nuevo algoritmo de triangulación
aérea que necesitará el uso de más de una imagen para su correcto funcionamiento,
lo cual va en contra de lo planteado, que es producir corrección ortogonal con una
sola fotografía.

Si se generaliza estos dos puntos, se llega a la conclusión que la pregunta planteada no


se cumple dentro del desarrollo de este proyecto. Si se considera solamente la
generación de modelos 2D, se puede llevar a que la pregunta sea respondida de forma
afirmativa, siempre y cuando se buscaran todas las construcciones humanas y estructuras
con relieve pertenecientes a la naturaleza. Esto es actualmente imposible de lograr a
menos que se utilice un algoritmo que pueda ser entrenado para la ubicación de estos
elementos, que poseen distinta forma y características. Otra forma de trabajar con esto es
mediante la proyección de sombras de los objetos, tema que no ha sido estudiado para el
presente trabajo.

En cuanto a la investigación y comparación de la aplicación creada con un software


comercial, basándose en los resultados obtenidos se aprecia que la respuesta del

162
CAPÍTULO 6. CONCLUSIONES

proyecto creado es menor a la generada por Agisoft PhotoScan, siendo el principal


problema el tiempo de ejecución de la aplicación. Algunos de los elementos que
influyen directamente en lo mencionado, es que:

 El software Agisoft utiliza en gran medida la central de cómputo de la máquina


(CPU), lo cual indica que sus algoritmos de ejecución se encuentran paralelizados
en comparación a la aplicación desarrollada, la cual no posee esta característica.

 El software desarrollado corresponde a la primera iteración de lo que se espera


sea un producto comercializable, lo cual es una desventaja en comparación a las
reiteradas que posee PhotoScan. Esto da que Agisoft haya podio mejorar las
falencias que PhotoScan posee, ya que la gran mayoría de los proyectos debe iterar
para ir mejorando.

En cuanto a las consecuencias que este trabajo posee, es en primer lugar la información
recopilada con respecto a los procesos de triangulación aérea que existen, ya que la
mayoría de ella se encuentra dispersa en distintos documentos. Además se plantean
algoritmos y aplicaciones de libre consulta con respecto al proceso de corrección
ortográfica útiles para la época actual, ya que la mayoría de estos procesos son
explicados en la bibliografía mediante estereocomparadores analógicos.

Para nuevas investigaciones que se puede desarrollar a partir de este trabajo, se procede
a un análisis con respecto a la etapa del proyecto fotogramétrico que se encuentre. Es
por esto que se tiene:

 En caso de analizar la etapa de planificación del proyecto fotogramétrico, se


plantea que es posible realizar:
o Un sistema de planificación automática de vuelo fotogramétrico, que sea
capaz de indicar la mejor ubicación de los puntos de control.
o Dado que los UAV poseen poca durabilidad en el vuelo debido a la
energía que deben utilizar, reduciendo de esta forma el área de estudio, se

163
CAPÍTULO 6. CONCLUSIONES

debe analizar como poder enviar una tropa (o un conjunto) de UAV para
sobrevolar la zona, los cuales deben tener un vuelo planificado.
 En caso de analizar la etapa de triangulación aérea, se plantea que es posible
realizar:
o Optimizar la solución propuesta mediante la paralización del algoritmo
propuesto, analizando la disminución del tiempo en cuanto a la carga de
imágenes y la cantidad de procesadores disponibles. Esto es posible dado
que los puntos de concurrencia con respecto a la información a utilizar
son muy pocos y se espera que no se tengan mayores problemas en estos.
o Implementar otro método de triangulación aérea, como puede ser el de
modelos independientes o el de haces, comparando los resultados con el
método por pasadas.
 En caso de analizar la etapa de generación del modelo, se plantea que es posible
realizar:
o Generar los modelos 3D para los resultados obtenidos y así poder realizar
una comparación más exhaustiva de los productos generados.
o Generar un algoritmo que permita al método de punto de fuga generar sus
propios modelos 3D.

164
BIBLIOGRAFÍA

Barla, A., Odone, F., & Verri, A. (2003). Histogram intersection kernel for image

classification. Image Processing ICIP 2003. International Conference IEEE.

Génova, España: Universidad de Génova.

Benjamin, W. (1994). Pequena historia da fotografía. Berlín, Alemania: Obras

Escolhidas.

Caimel Benítez, J. (2002). Ortoretificación de fotografías aéreas utilizando el software

ERDAS Imagine. Santiago, Chile: Cartografía.

Chueca Pazos, M. (1982). Topografía II, Fotogrametría Aérea y Terrestre (Vol. II).

Madrid, España: Dossat.

Cobos, C., Salinas, J. M., & Domínguez, A. R. (2001). Geometría para ingenieros.

Madrid, España: Tebar.

De Macedo, M. G. (2005). Uso da transformada de Hough na Veterizaciao de moldes e

outras aplcacioes. Niterói, Brasil: Univeridad Federal Fluminense.

Eisenbeiss, H. (2009). UAV Photogrammetry. Zurich, Suiza: University of Technology

Dresden.

165
CAPÍTULO 6. CONCLUSIONES

Estrada Chavéz, C. D., Rivera Meraz, M. J., & Van Horebeek, J. J. (2012). Un filtro

para la eliminación de ruido mediante correlación espacil en imágenes.

Guanajuato, México: Centro de Investigación en Matemáticas.

Galaz Villasante, J. S., Edelweiss, G. E., & Rivas-Vaciamadrid, G. E. (2002).

Fotogrametría aérea aplicada a la situación de cavidades. Grupo Espeleológico

Edlweiss.

García, J., Concepción, C. G., & Piquero, J. C. (2006). Álgebra matricial para economía

y empresa. Madrid, España: Delta Publicaciones.

Gehrke, S., Morin, K., Downey, M., Boehrer, N., & Fuchs, T. (2012). Semi-global

Matching an Alternative to LiDAR for DSM Generation. 7th International

Conference on 3D Geoinformation. Québec, Cánada: ISPRS.

Gülch, E. (2011). Photogrammetric Evaluation of Multi-Temporal Fixed Wing UAV

Imagery. Conference on Unmanned Aerial Vehicle in Geomatics. Zurich, Suiza:

International Archives of the Photogrammetry, Remote Sensing and Spatial

Information Sciences.

Haala, N., Cramer, M., Weimer, F., & Trittler, M. (2011). Performance Teste on UAV-

Based Photogrammetric Data Collection. Conference on Unmanned Aerial

Vehicle in Geomatics. Zurich, Suiza: International Archives of the

Photogrammetry, Remote Sensing and Spatial Information Sciences.

166
Harris, C., & Stephens, M. (1988). A Combined Corner and Edge Detector. Alvery

Vision Conference. Manchester, Inglaterra.

Irles, F., Jiménez, L. M., Oliva, M. A., & Velasco, E. (2005). HOMOGRAF, un

programa para la resolución de homografías 2D en AutoCad v.2002. Revista

Iberoamericana de Ingeniería Mecánica, 3-12.

Juliá, J. (2002). Las transisiones en la Fotogrametría. Conferencia impartida en la

Escuela de Ingeniería Técnica Topográfica de la Universidad Politécnica de

Madrid. Madrid, España.

Lerma García, J. L. (2002). Fotogrametría moderna: análitica y digital. Valencia,

España: Universidad Politécnica de Valencia.

Loch-Dehbi, S., & Plümer, L. (2011). Automatic Reasoning for Geometric Constraints

in 3D City Models with Uncertain Observations. Zurich, Suiza: ISPRS Journal of

Photogrametry and Remote Sensing.

Marín Mateos-Aparicio, J., Bru García, R., & Ginestar Pieró, D. (2000). Métodos

numéricos para la resolución de la ecuación de la difusión neutrónica

dependiente del tiempo. Valencia, España: Universidad Politécnica de Valencia.

Niethammer, U., Rothmund, S., Schwaderer, U., Zeman, J., & Joswig, M. (2011). Open

SourceImage-Processing Tools for Low-Cost UAV-Based Landslide

Investigations. Conference on Unmanned Aerial Vehicle in Geomatics. Zurich,

167
CAPÍTULO 6. CONCLUSIONES

Suiza: International Archives of the Photogrammetry, Remote Sensing and

Spatial Information Sciences,.

Peraza Domínguez, J. M., & Moreno Lorente, L. (2009). Estimación de la distancia

recorrida por un robot móvil mediante la utilización de descriptores SURF.

Madrid, España: Universidad Carlos III de Madrid.

Pérez Álvarez, J. A. (2001). Apuntes de fotogrametría II. Mérida, España: Universidad

de Extremadura.

Pérez Álvarez, J. A. (2001). Apuntes de Fotogrametría III. Mérida, España: Universidad

de Extremadura.

Pérez Benedito, J. L., Belber Arroyo, M., & Carretero Díaz, A. (2005). Generación

asistida de modelos geométricos 3D de infraestructuras varias urbanas. Congreso

Internacional Conjunto XVII INGEGRAF - XV. Sevilla, España: Universidad de

Sevilla.

Qingyuan, L., Wenyang, L., Zou, L., Jinling, W., & You, L. (2011). A New Aproach to

Fast Mosaic UAV Images. International Archives of the Photogrammetry,

Remote Sensing and Spatial Information Sciences, Vol ?? Zurich, Suiza:

International Archives of the Photogrammetry.

Sánchez Sobrino, J. A. (2006-2007). Introducción a la fotogrametría. Madrid, España:

E.T.S.I. Caminos, Canales y Puertos.

168
Schenk, T. (1999). Digital Photogrammetry. Barcelona, España: TerraScience.

Zhang, Y. (2008). Photogrammetric Processing of Low Altitude Image Sequences by

Unmanned Airship. Zurich, Suiza: The International Archives of the

Photogrametry, Remote Sensing an Spatial Information Sciences.

169
GLOSARIO DE TÉRMINOS

Aerofotogrametría Sinónimo utilizado para referirse a la fotogrametría


aérea, la cual consiste en la ciencia de generan mapas
a partir de fotografías

AUP Metodología de desarrollo de software. Sus siglas


provienen de Agile Unified Process. Es la versión
simplificada de RUP.

Cámara clara Aparato óptico en el que, por medio de prismas o


espejos, se proyecta la imagen virtual de un objeto
exterior en una superficie plana sobre la cual puede
dibujarse el contorno y las líneas de dicha imagen.
(Definición de la RAE)

Cámara oscura Aparato óptico consistente en una caja cerrada y


opaca con un orificio en su parte anterior por donde
entra la luz, la cual reproduce dentro de la caja una
imagen invertida de la escena situada ante ella.
(Definición de la RAE)

Casos de uso Secuencia de acciones entre el sistema y el usuario,


donde se tiene prioridad por mostrar el flujo de las
acciones de éste último.

Curvatura terrestre Efecto producido al obtener una imagen aérea de la


tierra, producido por la esfericidad de ésta.

DFD Diagrama de Flujo de Datos.


Distancia focal Es la distancia entre el centro óptico de la lente o
plano nodal posterior y el foco (o punto focal) cuando
enfocamos al infinito..

Distorsión de la cámara Distorsión que posee la cámara debido al lente


utilizado.

Estéreocomparador Instrumento utilizado para realizar fotogrametría.

Estéreocomparador de Instrumento utilizado para realizar fotogrametría.


Pulfrich Presenta una mejora al Estéreo comparador

Estereoautrográfo de von Instrumento utilizado para realizar fotogrametría


Orel

fotogrametría Proceso que une múltiples fotografías para generar la


vista completa del sector deseado

Fototeodolito Cámara fotográfica en un soporte con escalas


angulares en altura y acimut, que se utiliza en
fotogrametría terrestre: los ángulos que identifican la
posición del objeto quedan registrados en la fotografía
del fototeodolito.

GSM Sistema global para las comunicaciones. Su nombre


proviene de las siglas de Global System for Mobile.

ISPRS Sociedad internacional de fotogrametría y sensores


remotos, su nombre proviene de las siglas
International Society for Photogrammetry and
Remote Sensing.

172
LiDAR Light Detection and Ranging. Sistema utilizado para
realizar fotogrametría, utilizando principalmente un
láser.

Mapa Representación geográfica de una parte de la


superficie terrestre, en la que se da información
relativa a una ciencia determinada.

Matching Proceso en el cual se unen dos o más imágenes


mediante el uso de una zona en común.

Modelo 2D Representación bidimensional del área del proyecto


fotogramétrico.

Modelo 3D Representación tridimensional del área del proyecto


fotogramétrico.

Mosaico fotogramétrico Paso previo del modelo 2D, con la diferencia que no
representa el sector del proyecto final, faltando pasos
por refinar.

Plano Representación esquemática de un terreno, en dos


dimensiones a determinada escala.

Pseudo código Representación algorítmica de un método sin un


lenguaje especifico.

Puntos de juntura Puntos en común entre dos imágenes que son


utilizados para realizar el matching entre éstas.

Rectificación de imágenes Proceso que tiene como objetivo la corrección


ortogonal de la imagen o conjunto de imágenes
necesarias en un proyecto fotogramétrico.

173
Refracción Cambio de dirección que experimenta una onda al
pasar de un medio material a otro. Solo se produce si
la onda incide oblicuamente sobre la superficie de
separación de los dos medios y si estos tienen índices
de refracción distintos.

Ruido de la imagen Efectos que están presentes en las imágenes que


afectan su nitidez.

Triangulación aérea Proceso en el cual se obtienen los datos necesarios


para la rectificación de las imágenes, matching y
generación de modelos 2D y 3D.

UAV Vehículo aéreo no tripulado, su nombre proviene de


las siglas de Unmanned Aerial Vehicle.

Zona de solape Zona en común entre al menos dos imágenes,


utilizada para realizar el proceso de matching.

174
ANEXO A. REQUISITOS DEL SISTEMA

El presente documento contiene la lista de requerimientos capturados para el desarrollo


del software de fotogrametría, perteneciente a la Tesis de Felipe Fuentes Bravo con
profesor guía Arturo Álvarez:

“Evaluación de algoritmos para corrección ortogonal de imágenes, obtenidas mediante


UAV usadas para generar mosaicos y modelos 3d”

Para realizar la captura de requerimientos del software se realizaron distintos trabajos,


donde en primera instancia se hizo una investigación en la literatura con respecto a la
fotogrametría, en donde se pudo obtener una idea general de lo que se debía desarrollar,
obteniendo de esta forma el objetivo final del proyecto. Luego se acotó este mismo con
el fin de utilizar solo imágenes obtenidas desde UAV de forma vertical. Posteriormente,
se investigó sobre la existencia y funcionamiento de otras aplicaciones que realizarán
algo similar al objetivo del proyecto. Como siguiente etapa se generó los procesos a
realizar y se diseñó el DFD respectivos.

Los diagramas de flujo de datos (DFD) indican los procesos y recursos existentes dentro
de la aplicación. En esta sección se presenta los DFD relacionados con la aplicación,
comenzando por el diagrama general de procesos y posteriormente cada uno de los
procesos explicados independientemente. Para la realización de estos diagramas se
utilizó el software PowerDesigner el cual generó archivos de extensión .bpm.

Dentro de los diagramas se presentan cuatro elementos, los cuales se muestran en la


siguiente tabla:

175
Tabla A-1: Elementos de los DFD

Representación Descripción de los


Nombre Descripción
Gráfica elementos
7: Es el identificador del Representa un recurso
Recurso recurso. generado o utilizado
7 Nombre Recurso
interno Nombre Recurso: Indica por algún proceso.
el nombre del recurso.
7: Es el identificador del Representa el proceso a
7 proceso. realizar por la
Proceso Proceso
Proceso: Es el nombre del aplicación.
proceso.
User: Nombre del usuario Usuario final de la
Usuario aplicación.

User

Recursos Recurso externo: Nombre


Recurso externo
externos del recurso externo.

Nombre: Nombre del Informe generado por la


informe aplicación, que será
Informe
Nombre generado en formato
PDF.

A.1 DIAGRAMA GENERAL DE PROCESOS

En la Figura A-1 se muestra el DFD general de la aplicación, donde se muestra al


usuario, quien hace entrega de las imágenes y la información de la calibración de la
cámara para que sean cargadas al sistema, obteniendo como resultado imágenes con

176
información referenciada de acuerdo a alguna coordenada, las cuales serán llamadas
fotogramas que serán utilizados por el proceso P01-Ortocorrección, con el fin de tener
imágenes ortocorregidas o nube de puntos, dependiendo del subproceso que se haya
utilizado. Luego estos fotogramas son utilizados para buscar puntos de junturas entre los
fotogramas consecutivos, para que mediante estos puntos y los fotogramas
ortocorregidos sean utilizados para generar el modelo 2D mediante el P04-Matching de
éstos. La nube de puntos que será utilizada para generar el modelo 3D es generada
mediante el uso del modelo 2D y los puntos de juntura en el proceso P05-Generación de
puntos de juntura. Finalmente, el P06-Generacion del modelo 3D puede entregar el
DTM o DSM correspondientes al sector sobrevolado. Éstos pueden ser generados con
textura, siendo ésta la utilización del modelo 2D.

La explicación de cada uno de estos elementos se puede observar desde la Tabla A-2.

Tabla A-2: Procesos del DFD General.

Id Nombre Descripción Entrada Salida


P01 Carga de Se toma las imágenes y la información entregada RE01 RI01
imágenes por el usuario y se carga al sistema. RE02
Para más información ver el DFD P01-Carga de
imágenes.
P02 Ortocorrección Mediante algún proceso, indicado por el usuario, RI01 RI02
de fotogramas se ortocorrigen los fotogramas. RI05
Para más información ver DFD P02- RP01
Ortocorrección de fotogramas.
P03 Generación de Proceso en donde se busca objetos representativos RI02 RI03
puntos de presentes en dos imágenes consecutivas para que RP02
juntura luego ser utilizados para el matching.
Para más detalle ver DFD P03-Generación de
Puntos de Juntura

177
Tabla A-2: Procesos del DFD General (Continuación).

Id Nombre Descripción Entrada Salida


P04 Matching Proceso donde se realiza el matching de los RI02 RI04
fotogramas. RI03 RP03
Para más información ver DFD P04-Matching
P05 Generación de Mediante el uso del mosaico 2D y de los puntos RI03 RI05
nube de puntos de juntura se genera la nube de puntos a utilizar RI04 RP04
para la realización del modelo3D.
Para más información ver DFD P05-Generación
de nube de puntos.
P06 Generación del Se genera el modelo 3D. RI05 RI06
modelo 3D Para mayor información ver DFD P06- RP05
Generación del modelo 3D. RP06

Tabla A-3: Recursos internos y reportes del DFD General.


Tipo Id Nombre Descripción Generado Utilizado
por por
Recurso RI01 Fotogramas Conjunto de imágenes que
interno posee información relacionada
a la cámara con la cual fueron
capturadas como también la
información del vuelo al
momento de ser obtenidas cada
una de ellas.
RI02 Fotogramas Conjunto de fotogramas que se
ortocorregidos encuentran corregidos
ortogonalmente.

178
Tabla A-3: Recursos internos y reportes del DFD General. (Continuación 1)
Tipo Id Nombre Descripción Generado Utilizado
por por
Recurso RI03 Puntos de Puntos de juntura entre las
interno juntura fotogramas.
Poseen la siguiente
información:
 Id del punto
 Fotogramas a los que
corresponde (Fn y
Fn+1).
o Coordenadas del
Fotograma Fn
o Coordenadas del
Fotograma Fn+1

RI04 Mosaico 2D Mosaico realizado con los


fotogramas ortocorregidos.
Dependiendo de lo que se
quiera realizar se puede utilizar
este modelo, ya que posee un
error medio aproximado por
calcular.

RI05 Nube de puntos Nube de puntos utilizada para


generar el modelo 3D.
Posee información de cada
punto expresado en
coordenadas (x, y, z).
RI06 Modelo 3D Modelo en 3D, que puede ser:
 DTM
 DSM con o sin textura.

179
Tabla A-3: Recursos internos y reportes del DFD General. (Continuación 2)
Tipo Id Nombre Descripción Generado Utilizado
por por
Reporte RP01 de Corrección
ortogonal
RP02 de Puntos de
juntura
RP03 de matching
RP04 de Puntos de
juntura
RP05 del modelo 3D
RP06 Final del
proceso

Tabla A-4: Recursos externos.

Recurso RE0 Imágenes


Externo 1
RE0 Calibración de
2 la cámara

180
Usuario

Imágenes Calibración de la cámara

1
1 Fotogramas
Carga de imágenes

2
2 Fotogramas ortocorregidos Ortocorrección de fotogramas

Reporte de Ortocorrección
3
3 Puntos de Juntura
Generación de Puntos de Juntura

Reporte de puntos de juntura

Matching 4 Mosaico 2D

Informe de Matching

5
5 Nube de puntos
Generación de nube de puntos

Informe de nube de puntos

6
6 Modelo 3D
Generación del modelo 3D

Informe Final del proceso

Informe del modelo 3D

Figura A-1: DFD General

181

También podría gustarte