Documentos de Académico
Documentos de Profesional
Documentos de Cultura
CONSERVACIÓN
D ET
INNOVACIÓN
INSTITUTO POLITÉCNICO NACIONAL
EC
CI
Centro de Innovación y Desarrollo Tecnológico en Cómputo
Tesis
presenta:
Directores:
México, D.F.
Julio de 2015
2
4
6
Resumen
I
II
Abstract
In this research, different techniques for LiDAR point-clouds processing are presented, for the
classification of this kind of data in two types: terrain and non-terrain. The information of these
points is processed in two stages: the first one correspond to the rasterization of LiDAR data and
their interpolation by the nearest-neighbor technique, in order obtain the Digital Surface Model.
In the second step, a morphology algorithm is implemented to separate the points into terrain
and non-terrain using the opening operation; this task is the base for this research project. As a
result of this operation the Digital Terrain Model is obtained; the difference between this Model
and the Digital Surface Model is applied to generate the normalized Digital Surface Model, with
the elimination of outliers in the same operation. The database used for this research was obtained
from the International Society for Photogrammetry and Remote Sensing. The evaluation of results
was carried out using the Kappa coefficient and the error coefficients estimated from the confusion
matrix. The results generated with the proposed technique were compared to the ones corresponding
to previous research in this area; from their analysis it can be seen that the totality of these results
stand under both the maximum Total Error and the average Total Error, and three of the products
surpassed the best performance previously obtained by any method.
III
IV
Agradecimientos
A Dios, cuya Presencia siempre me acompaña por medio de las circunstancias que me han
llevado hasta este punto.
A mi familia: mi madre Martha por ser una mujer fuerte y llena de fé que me ha apoyado en
cada etapa de mi vida; a mis abuelos Martín (q.e.p.d.) y Josefina por sus oraciones; a mis tíos:
José Luis por su presencia y responsabilidad a toda prueba, Francisco porque desde pequeña
me ha enseñado el valor de enfrentar retos, Ma. del Refugio por estar siempre, Mary por sus
sabios consejos, Carmela por ser el apoyo de la hermana mayor, Martín por su ejemplo en
perseverar en las metas, Enrique por compartirnos su sonrisa y buen ánimo; a mis primos por
el ánimo que me han dado. En suma, a todos por su presencia que ha sido de valioso apoyo
en este proyecto.
A mis directores de tesis: Dra. Hind Taud y Dr. Juan Carlos Herrera Lozada por compartir
sus consejos y conocimientos en esta investigación.
A mi jurado de tesis: Dra. Magdalena Marciano Melchor por el apoyo con su valioso tiempo
y apoyo en mejorar este documento con sus sugerencias; Dr. Rolando Flores Carapia, M.
Viridiana Hernández Herrera, M. Jesús Antonio Álvarez Cedillo por sus comentarios en este
trabajo de tesis.
A mis maestros: M. Miguel Hernández Bolaños, M. Juan Carlos González Robles, Dr. Víc-
tor Manuel Silva García, Dr. Gabriel Sepúlveda Cervantes por su apoyo y por compartir su
experiencia de vida profesional en este tiempo de aprendizaje.
A los administrativos de CIDETEC: Lic. Sandra, Lic. Silvia, Lic. Shary, Lic. Elvia por re-
afirmar con su apoyo la calidad humana y profesional en las gestiones de este Centro de
Investigación.
V
VI
A mis colegas y amigos por tener siempre una palabra de ánimo, una sonrisa a lo largo del
trayecto de la maestría.
Al CONACyT, por el apoyo académico y económico por el cual fue posible la culminación de
este trabajo.
A todas y cada una de las personas que he tenido el gusto de conocer que han enriquecido mi
vida. Gracias!
Índice general
Resumen I
Abstract III
Agradecimientos V
1. Introducción 1
1.1. Antecedentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2. Tecnología LiDAR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.1. Tipos de LiDAR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.2. Formato de Datos LiDAR . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.3. Ventajas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3. Modelos Digitales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.4. Metodologías existentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.5. Objetivos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.5.1. Objetivo General . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.5.2. Objetivos Específicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.6. Justificación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.7. Estructura de la Tesis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
VII
VIII ÍNDICE GENERAL
3. Marco Teórico 17
3.1. Histograma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.2. Rasterización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.3. Interpolación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.3.1. Vecino más cercano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.4. Filtrado de Ruido . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.5. Morfología Matemática . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.5.1. Elemento estructural . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.5.2. Dilatación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.5.3. Erosión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.5.4. Apertura . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.5.5. Cierre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.5.6. Transformación Top-Hat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
4. Metodología Propuesta 25
4.1. Algoritmo de procesamiento general . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4.2. Morfología Matemática: Operación de Apertura . . . . . . . . . . . . . . . . . . . . 26
4.3. Matriz de Confusión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
5. Experimentos y resultados 37
5.1. Descripción de los datos de referencia . . . . . . . . . . . . . . . . . . . . . . . . . . 37
5.2. Recursos empleados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
5.3. Obtención de los Modelos Digitales . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
5.4. Resultados por muestra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
5.5. Comparación del Error Total del Algoritmo propuesto . . . . . . . . . . . . . . . . . 73
5.6. Comparación por tipo de escenario . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
ÍNDICE GENERAL IX
Referencias 81
X ÍNDICE GENERAL
Índice de Tablas
XI
XII ÍNDICE DE TABLAS
Índice de figuras
3.3. Elemento estructural con píxeles con valor de cero, diferente a elemento con píxeles
sin datos valor[4]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.6. Izquierda: imagen original. Derecha: imagen después de la operación de apertura [6]. 23
3.7. Izquierda: imagen original. Derecha: imagen después de la operación de cierre [6]. . . 24
3.8. Transformación Top-Hat para incrementar los detalles de una imagen. De izquierda
a derecha: Imagen original, imagen después de aplicar la transformación Top-Hat
(elemento estructural circular de diámetro aproximadamente igual al de los granos),
imagen después de realce de contraste [7]. . . . . . . . . . . . . . . . . . . . . . . . . 24
4.1. Diagrama de flujo del algoritmo de procesamiento general para la obtención del MDT,
MDS y MDSn. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
5.1. Sitios. Fila superior de izquierda a derecha: Sitio 1, Sitio 2, Sitio 3, Sitio 4. Fila
inferior de izquierda a derecha: Sitio 5, Sitio 6, Sitio 7 [8]. . . . . . . . . . . . . . . . 39
XIII
XIV ÍNDICE DE FIGURAS
5.2. De izquierda a derecha: archivo de referencia en formato .txt, tabla obtenida por
SAGA-GIS con valores x, y y clasificación, raster con valores de 0 para terreno y 1
para no terreno u objeto [8]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
5.7. Muestra 11. Fila superior de izquierda a derecha: imagen de satélite, MDS en color,
MDS en escala de gris. Fila inferior de izquierda a derecha: imagen de referencia,
imagen clasificada, MDT. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
5.10. Muestra 12. Fila superior de izquierda a derecha: imagen de satélite, MDS en color,
MDS en escala de gris. Fila inferior de izquierda a derecha: imagen de referencia,
imagen clasificada, MDT. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
5.13. Muestra 21. Fila superior de izquierda a derecha: imagen de satélite, MDS en color,
MDS en escala de gris. Fila inferior de izquierda a derecha: imagen de referencia,
imagen clasificada, MDT. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
5.16. Muestra 22. Fila superior de izquierda a derecha: imagen de satélite, MDS en color,
MDS en escala de gris. Fila inferior de izquierda a derecha: imagen de referencia,
imagen clasificada, MDT. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
5.19. Muestra 23. Fila superior de izquierda a derecha: imagen de satélite, MDS en color,
MDS en escala de gris. Fila inferior de izquierda a derecha: imagen de referencia,
imagen clasificada, MDT. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
5.22. Muestra 24. Fila superior de izquierda a derecha: imagen de satélite, MDS en color,
MDS en escala de gris. Fila inferior de izquierda a derecha: imagen de referencia,
imagen clasificada, MDT. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
5.25. Muestra 31. Fila superior de izquierda a derecha: imagen de satélite, MDS en color,
MDS en escala de gris. Fila inferior de izquierda a derecha: imagen de referencia,
imagen clasificada, MDT. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
5.28. Muestra 41. Fila superior de izquierda a derecha: imagen de satélite, MDS en color,
MDS en escala de gris. Fila inferior de izquierda a derecha: imagen de referencia,
imagen clasificada, MDT. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.31. Muestra 42. Fila superior de izquierda a derecha: imagen de satélite, MDS en color,
MDS en escala de gris. Fila inferior de izquierda a derecha: imagen de referencia,
imagen clasificada, MDT. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
5.34. Muestra 51. Fila superior de izquierda a derecha: imagen de satélite, MDS en color,
MDS en escala de gris. Fila inferior de izquierda a derecha: imagen de referencia,
imagen clasificada, MDT. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
5.37. Muestra 52. Fila superior de izquierda a derecha: imagen de satélite, MDS en color,
MDS en escala de gris. Fila inferior de izquierda a derecha: imagen de referencia,
imagen clasificada, MDT. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
5.38. De izquierda a derecha: imagen sombreada, MDSn, imagen de error. . . . . . . . . . 64
5.39. Histograma del MDS. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
5.40. Muestra 53. De izquierda a derecha, superior: imagen de satélite, MDS en color, MDS
en escala de gris; inferior: imagen de referencia de la muestra 53, imagen clasificada,
MDT. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
5.41. De izquierda a derecha: imagen sombreada, MDSn, imagen de error. . . . . . . . . . 66
5.42. Histograma del MDS. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
5.43. Muestra 54. Fila superior de izquierda a derecha: imagen de satélite, MDS en color,
MDS en escala de gris. Fila inferior de izquierda a derecha: imagen de referencia,
imagen clasificada, MDT. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
5.44. De izquierda a derecha: imagen sombreada, MDSn, imagen de error. . . . . . . . . . 68
5.45. Histograma del MDS. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
5.46. Muestra 61. Fila superior de izquierda a derecha: imagen de satélite, MDS en color,
MDS en escala de gris. Fila inferior de izquierda a derecha: imagen de referencia,
imagen clasificada, MDT. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
5.47. De izquierda a derecha: imagen sombreada, MDSn, imagen de error. . . . . . . . . . 70
5.48. Histograma del MDS. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
5.49. Muestra 71. Fila superior de izquierda a derecha: imagen de satélite, MDS en color,
MDS en escala de gris. Fila inferior de izquierda a derecha: imagen de referencia,
imagen clasificada, MDT. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
5.50. De izquierda a derecha: imagen sombreada, MDSn, imagen de error. . . . . . . . . . 72
Lista de algoritmos
XVII
Capítulo 1
Introducción
1.1. Antecedentes
En los años 50s se establecen los primeros principios del uso de los modelos digitales para el
tratamiento de problemas tecnológicos, científicos y militares por medio de técnicas de adquisición
de Modelos Digitales de Terreno como fotogrametría, radargrametría, digitalización cartográfica y
el uso de GPS para adquisición directa de datos [9].
El funcionamiento del láser fue desarrollado a principios de la década de 1970 en donde los
primeros sensores activos comenzaron a ser transportados por plataformas aéreas o satelitales e
investigadores comienzan a hacer uso del láser [10].
En los años 90s el LiDAR toma relevancia al ser utilizado como complemento de las imágenes
obtenidas por satélite en combinación con el muestreo de campo debido a que por sí solas tienen
limitaciones por las dificultades de la obtención de imágenes libres de nubes [11].
En la actualidad, los sistemas LiDAR abren nuevas posibilidades para el estudio de las áreas
1
2 CAPÍTULO 1. INTRODUCCIÓN
y objetos de cierta dificultad como pueden ser zonas de tipo forestal, urbano, desértico o mixto,
grandes cuerpos de agua, áreas con líneas de energía eléctrica, ruinas arqueológicas en tierra e
incluso sumergidas en el mar.
Tan pronto como el láser con altas tasas de repetición de pulsos estuvo disponible en el mercado,
los sistemas de escaneo láser (o radar láser) se implementaron para la obtención de imágenes;
en referencia a éste término, se utilizan tres acrónimos: ALS (Airborne Scanning Laser), LAser
Detection and Ranging (LADAR) y Light Detection and Ranging (LiDAR); sin embargo, LiDAR
es el acrónimo comúnmente utilizado en la literatura.
El LiDAR Aerotransportado es un sistema compuesto por un sistema de posicionamiento global
GPS con el que se obtienen los datos de georeferencia (coordenadas x, y), una unidad de medición
inercial (IMU, por sus siglas en inglés) que junto con la medición del ángulo de exploración es posible
calcular la altitud (z), y el sensor láser posicionado en la base de una aeronave, mide la topografía
de la superficie de la tierra al sobrevolar un área haciendo un barrido o escaneo por medio de la
emisión de un haz de luz a los objetos en la superficie del terreno (impulsos láser); cuando el haz
de luz láser incide en el terreno o en los objetos ubicados sobre éste, la señal retorna capturando el
tiempo de retardo entre la emisión y recepción del haz de luz láser el cual se registra permitiendo
el cálculo de la distancia inclinada respecto a la superficie del terreno (Fig. 1.1).
En una superficie sólida (edificios, casas, suelo, vehículos) el haz de luz se refleja de manera
inmediata al sensor (un solo retorno), en zonas de vegetación existen varios retornos: el haz de luz
incide en la capa superior de los árboles y una parte del mismo retorna al sensor (primer retorno),
otras partes pueden pasar entre los huecos del follaje hasta chocar con algún objeto (como ramas
de árboles) y regresar (segundo retorno) y otras partes del láser siguen atravesando por lo que se
refleja en la superficie del suelo cuando la vegetación no es muy densa (tercer o cuarto retorno).
En superficies no sólidas como el agua y el vidrio, el haz de luz presenta reflexión especular,
efecto provoca que el pulso de luz láser no retorne al sensor. En algunas zonas volcánicas, en áreas
con vegetación carbonizada o asfalto de reciente colocación, el haz de luz es absorbido por lo que
no se pueden obtener datos sobre este tipo de superficies [12].
1.2. TECNOLOGÍA LIDAR 3
Fig. 1.1. Tecnología LiDAR: GPS, IMU, satélite y estación terrestre [3].
2. Terrestre.- El sensor se instala en una superficie fija (suelo) o móvil (el techo de un vehículo
automotor). Se puede obtener una alta densidad de puntos de hasta un millón por segundo con
una alta precisión de milímetros en poco tiempo. Sus aplicaciones comprenden la ingeniería
civil en estructuras como túneles, puentes y edificios.
4 CAPÍTULO 1. INTRODUCCIÓN
Existen dos tipos de formato: binario y txt. LAS es un archivo binario que según la especificación
del formato estándar de la ASPRS (American Society for Photogrammetry and Remote Sensing),
versión 1.4 [14] contiene información específica de los datos LiDAR: coordenadas x, y, z, intensidad,
número de retornos, retorno, dirección del escáner, borde de la línea de vuelo y clasificación.
1.2.3. Ventajas
LiDAR es un sistema activo capaz de obtener datos denominados nube de puntos densas
(1 punto/m2 o más) y relativamente precisos del terreno (0.15 - 0.25 m en elevación y 0.3 - 1
m en planimetría para alturas de vuelo por debajo de 2 Km) en un tiempo relativamente corto [15].
LiDAR tiene ventajas como:
2. LiDAR obtiene información acerca de los objetos y la superficie del suelo [17].
Según los autores mencionados en la Tabla 1.1, los modelos se pueden definir tal como se describe
a continuación:
MDT: es la información de la elevación que corresponde al terreno sin las estructuras u objetos
sobre el mismo (por ejemplo vegetación, árboles, edificios).
MDS: es la información de la elevación del terreno y objetos que se encuentran sobre el mismo.
MDSn: es el modelo resultante de la diferencia entre el MDS y el MDT. Los objetos del MDSn
están situados sobre una altura de base igual a cero.
Escaneo Direccional. La mayoría de los filtros de tierra definen el vecindario como un espacio
de dos dimensiones, pero pocos métodos calculan la pendiente y la diferencia de elevación
a lo largo de una línea de escaneo unidimensional. Shan et. al. desarrollan un algoritmo
bidireccional para eliminar puntos que no corresponden a tierra basados en la diferencia de
pendiente y elevación calculada a lo largo de la línea de escaneo [30].
6 CAPÍTULO 1. INTRODUCCIÓN
Contorno. Basado en la relación topológica y las características de las curvas de nivel son
agrupadas de forma con varios atributos: el valor de la altura de la curva de nivel, área de la
línea del contorno cerrado y la circularidad [31].
1.5. Objetivos
1.6. Justificación
La extracción y análisis de datos LiDAR es la primera etapa para diversos campos de investiga-
ción, tales como elaboración de Atlas de Riesgos y Peligros, cambios climáticos, fenómenos meteo-
rológicos, desastres naturales, sismología, elaboración de catastro, estudios hidráulicos, generación
de mapas con alta precisión para diversos usos civiles y de seguridad, entre otros.
1. Introducción. Se define el objetivo general y objetivos particulares del presente tema de tesis,
antecedentes y conceptos base relacionados con la temática del proyecto.
2. Estado del Arte. Se hace mención de trabajos anteriores y sus aportes a la problemática en
la que se basa el presente proyecto.
3. Marco Teórico. Se explican las herramientas utilizadas como técnicas de rasterización, inter-
polación y algoritmos.
Segmentación/Agrupación. Investigaciones [41, 42, 43, 44, 45, 46, 47, 48, 49, 50, 51, 33,
52, 1] desarrollan enfoques basados en segmentación en donde clasifican un conjunto de puntos
vecinos con propiedades similares. El objetivo es atenuar el problema de los puntos indivi-
duales que se filtran erróneamente y al mismo tiempo la clasificación correcta de los puntos
vecinos que pertenecen al mismo elemento de superficie (por ejemplo, en el caso de grieta de
superficie). Trabajos como el de Sithole et. al. [15, 53] filtra la nube de puntos dividiéndola en
segmentos lisos que pueden presentar grietas de altura que son clasificados en terreno u objetos
superficiales basado en las relaciones geométricas con los segmentos de sus alrededores; Tovari
et. al. [33] se basan en crecimiento de regiones; Jacobsen [52] y Filin et. al. [54] clasifican en
grupos los datos; Jochem et. al. [48] dividen todo el conjunto de datos en varias subáreas
9
10 CAPÍTULO 2. ESTADO DEL ARTE
e identifican y fusionan las áreas potenciales que contienen edificios; Awrangjeb et. al. [44]
separan los puntos utilizando una técnica de extracción de bordes. Similar a la segmentación,
la agrupación subdivide los datos en regiones definidas por el conjunto de puntos de similares
características incluidos dentro de cada segmento [54, 43, 55, 56, 29] formando bordes defi-
nidos que construyen una frontera cerrada cuyos puntos dentro de dichas fronteras son parte
de un objeto; Brovelli [21, 57] diseña un filtro en el cual permite detectar los bordes de los
objetos de la superficie, asumiendo que un borde es un límite entre dos regiones diferentes.
Morfología. Un filtro morfológico tiene la capacidad de eliminar los objetos que no perte-
necen a tierra (edificios, automóviles, árboles, señalización) [58, 59, 60, 61, 62, 37, 38, 63,
64, 2, 65, 24, 39, 35, 66, 36, 67, 68] y filtrar valores atípicos muy grandes [58]. Este filtro
utiliza operadores básicos: dilatación, erosión, apertura y cierre [35, 36] cuya aplicación fue
desarrollada por Linderberger [69] a las mediciones del escáner láser. Weidner et. al. [67] uti-
lizan operación de apertura para obtener una aproximación del MDT y lo resta del MDS para
obtener un MDSn. Lohmann et. al. [35] trabajan sobre un filtro de rango dual [68], es decir,
la dilatación y la erosión morfológicas para definir un candidato a no terreno u objeto para
su eliminación. Sin embargo, dicha eliminación de objetos de distintas dimensiones es una
problemática común en estas investigaciones debido a que el uso de una ventana de tamaño
fijo y la selección de su tamaño es crítica [70, 39]. Arefi et. al. [24] desarrollan dilatación
geodésica y el cambio de tamaño de las ventanas para la eliminación de los puntos de no
terreno u objetos y reconstruir la superficie del terreno; Zhang et. al. [39] propone un filtro
morfológico progresivo aumentando gradualmente el tamaño de las ventanas y comparan el
algoritmo con otro filtro basado en pendiente y en la elevación con una ventana en expansión
[70] mostrando que el filtro morfológico progresivo produjo el error mínimo entre las técnicas
en las que se comparó con una mejor capacidad de preservar el límite de los objetos que son
más grandes que el tamaño de la ventana; Chen et. al. [2] emplean la operación de apertura
con un aumento gradual del tamaño de la ventana.
Escaneo Direccional. La mayoría de los filtros de tierra definen el vecindario como un espacio
de dos dimensiones [39, 70, 71, 72], pero pocos métodos calculan la pendiente y la diferencia
de elevación a lo largo de una línea de escaneo unidimensional. Shan et. al. [30] desarrollan
un algoritmo bidireccional para eliminar puntos que no corresponden a tierra basados en la
2.1. CLASIFICACIÓN DE TÉCNICAS DE FILTRAJE 11
Contorno. El modelo de forma activa es uno de los métodos utilizados en cartografía para el
mapeo de contorno [75, 76]. Basado en la relación topológica y las características de las curvas
de nivel, Song et. al. [31] agrupan las curvas de nivel de los edificios de forma automática con
varios atributos: el valor de la altura de la curva de nivel, área de la línea del contorno cerrado
y la circularidad. Ma [77] desarrolla un algoritmo para la regularización de contornos; Zhang
et. al. [78] proponen un método para simplificar la detección y extracción de los edificios, en
los que se adoptaron en su totalidad las relaciones topológicas de los contornos de los edificios.
El método desarrollado por Elmqvist et. al. [79, 80] representa un contorno tridimensional que
funciona como una red que elimina gradualmente los puntos de no tierra u objetos basados
en medidas de fuerza tales como la gravedad y la atracción.
Redes de Triángulos Irregulares (TIN, por sus siglas en inglés). La fuerza principal
de este algoritmo radica en su capacidad para manejar superficies irregulares, característica
de áreas urbanas [81]. Haugerud [71] elimina los puntos de no tierra u objetos basado en el
suavizado del terreno utilizando dos umbrales: uno que elimina los puntos por encima del
terreno que tienen un valor alto de curvatura y otro que remueve los errores negativos. En
base a estos umbrales, el filtro etiqueta los puntos de no terreno u objetos para eliminarlos
y construye una nueva red de triángulos basado en los puntos de tierra filtrados y repite el
12 CAPÍTULO 2. ESTADO DEL ARTE
proceso de etiquetado hasta que no se eliminen más puntos; tiene errores en la eliminación de
algunos edificios más grandes que el tamaño de ventana y de baja altura. Axelsson [32, 82]
hace un estudio comparativo sobre la base de ocho algoritmos de filtrado del suelo [83] y utiliza
una superficie de red de triángulos irregulares para estimar de forma iterativa la superficie
del suelo. El algoritmo elimina gradualmente los puntos de no terreno u objetos basados en la
diferencia de elevación y el ángulo del triángulo más cercano y genera umbrales adaptativos
basados en los puntos de tierra actualizados para cada proceso iterativo en lugar de uno global.
Los estudios han arrojado limitaciones en superficies con terreno áspero y pendientes irregu-
lares, por esto, Liu [36] y Lee et. al. [90] desarrollan una versión mejorada para un conjunto
de zonas escarpadas. Otro método opcional de interpolación es el modelo de ranura de placa
delgada (TPS, por sus siglas en inglés) [40, 91, 92] como un proceso de filtrado multiescala
iterativo cambiando el tamaño de píxel de la interpolación y mejorar la eliminación de la
vegetación baja. Otros métodos de interpolación incluyen el modelo faceta [93] y procesos
estadísticos como el método de valores mínimos [70].
Son simples y eficientes en áreas urbanas con pequeñas diferencias de elevación [2, 94].
Separan los puntos de tierra y no tierra u objeto manteniendo las características del terreno
[81, 95, 58, 61].
2.2. MÉTODOS BASADOS EN MORFOLOGÍA MATEMÁTICA 13
Remueven objetos de distintos tamaños (desde árboles individuales hasta grandes edificios)
[81, 95, 2, 36, 96, 97].
Por lo anterior, para clasificar los puntos en terreno y no terreno se buscará una metodología en-
focada en morfología matemática. Un estado del arte de métodos basados en morfología matemática
se presenta en la siguiente sección.
Los filtros basados en Morfología Matemática han sido empleados en distintos trabajos [12, 60,
61, 62, 37, 38, 64, 2, 24, 65, 39, 66, 72, 81, 89, 96, 97, 58, 95, 98, 99, 100, 101] en donde se utiliza
un elemento estructural para una operación de cierre o apertura, o ambas, y comparan un umbral
determinado con las diferencias de elevación entre los puntos vecinos, los cuales si están por encima
de un umbral no se consideran parte de la superficie del terreno.
Vosselman [72] emplea principalmente la operación básica de erosión de morfología matemática
en imágenes en escala de grises y utiliza las diferencias de altura entre los puntos de tierra para
determinar la función de filtro óptimo; sin embargo, tiene la limitación de aplicabilidad debido al
uso de ventanas fijas, requiere pendiente constante para un uso de filtro progresivo y la dificultad de
determinar el tamaño de la ventana para varios edificios. El trabajo de Vosselman [72] es retomado
y modificado por Sithole et. al. [100] y Roggero et. al. [29]; Sithole et. al. [100] conociendo la
limitación de aplicarse dicho método únicamente a pendientes suaves, implementa una mejora para
que el umbral pueda variar con respecto a la pendiente en donde los puntos de tierra en terreno
escarpado o irregular no se filtran, dando como resultado la reducción de errores, mientras que
Roggero et. al. [29] excluyen los puntos elevados, calculando la altura mínima y así utiliza un
umbral para clasificar los puntos en terreno y no terreno.
Un filtro morfológico progresivo propuesto por Killian et. al. [101] se basa en una serie de
operaciones de apertura morfológica en modo raster, en donde se mueve una ventana del filtro de
un tamaño determinado por todo el conjunto de datos y se identifica el punto más bajo dentro
de esa misma ventana. Se utiliza un umbral corresponde a la precisión de medida del sensor láser
utilizado (normalmente entre 20 y 30 cm). Cada punto dentro de este umbral que está por encima
de este punto más bajo se define como un punto de tierra aproximado.
14 CAPÍTULO 2. ESTADO DEL ARTE
Basado en Kilian et. al. [101], Zang et. al. [39] desarrollan un algoritmo en donde obtienen
una superficie mínima por medio de una operación matemática en donde en cada nodo de la red
se selecciona el valor mínimo más cercano. Si la diferencia de altura entre la imagen original y la
imagen de apertura está por encima de un umbral determinado, se marca como no tierra u objeto.
Este proceso aumenta gradualmente el tamaño de la ventana hasta alcanzar el tamaño del objeto
más grande a ser eliminado (por ejemplo, un edificio), y por esto los vehículos, la vegetación y los
edificios se filtran, mientras que los datos de tierra se conservan. En pruebas en áreas urbanas, tanto
montañosas como planas, este filtro obtuvo un buen desempeño ya que muestra que el filtro puede
eliminar la mayor parte de los puntos de no tierra u objetos eficazmente, coincidiendo en resultados
con [72] y [100].
Diversos investigadores trabajaron sobre el conjunto de datos de la Sociedad Internacional de
Fotogrametría y Percepción Remota (ISPRS, por sus siglas en inglés) entre los años 2002 al 2004
[8] con el objetivo de determinar el rendimiento comparativo de los filtros existentes, esto es, qué
estrategia de filtraje se trabaja y bajo qué circunstancias, determinar la sensibilidad de los algoritmos
de filtrado algoritmos bajo varias densidades de puntos y determinar problemas en el filtrado de
nubes de puntos. Se concluye que los filtros trabajan bien en terreno suave con vegetación y edificios
pero todos ellos tienen problemas con el terreno áspero y paisajes complejos urbanos, incluso más
que los problemas debido a la baja densidad de puntos.
El mayor desafío para estos métodos de filtrado basado en morfología matemática es cómo
mantener las características del terreno sin cambios durante el uso de grandes tamaños de ventana
para la apertura morfológica, como describen Chen et. al. [2] pero sin las restricciones de la pendiente
constante como Zhang et. al. [39]. Además, Chen et. al. [2] proponen métodos para rellenar los datos
faltantes como la operación morfológica de cierre y la eliminación de valores atípicos por medio de
la operación de apertura. Los resultados de las pruebas experimentales basados en el conjunto de
datos de la ISPRS [8] muestran que este método funciona bien para la mayoría de los sitios.
Una implementación de Filtro Morfológico Simple (SMRF, por sus siglas en inglés) desarrollado
por Pingel et. al. [37] es similar a Chen et. al. [2] y Zhang et. al. [39] en el uso de un elemento
estructural o ventana creciente y el umbral de pendiente.
Respecto al tamaño de ventana Pingel et. al. [37] emplean un incremento lineal hasta un tamaño
máximo especificado, y el umbral de elevación está en función de la pendiente, el tamaño máximo
de ventana y la longitud de píxel; a su vez, Zhang et. al. [39] usa cinco parámetros para controlar el
2.2. MÉTODOS BASADOS EN MORFOLOGÍA MATEMÁTICA 15
crecimiento del tamaño de la ventana y el umbral de elevación: tamaño inicial de la ventana, umbral
inicial de la diferencia de elevación, pendiente, tamaño de píxel y el umbral máximo de la diferencia
de elevación, asumiendo que la pendiente es constante. Similar a Zhang et. al., Chen et. al. utilizan
varios parámetros, en función de la eliminación de los árboles o edificios, con la diferencia respecto
a Zhang et. al. en que la pendiente no es constante.
En cuanto a la creación del MDE, como etapa previa a la interpolación, Pingel et. al. [37]
hace uso de “inpainting”, un método de reconstrucción derivado de procesamiento de imágenes
para restaurar únicamente los valores perdidos y conservar los puntos de la superficie mínima no
excluida por el filtro, mientras que Chen et. al. [2] y Zhang et. al. [39] utilizan la técnica de vecino
más cercano; Chen et. al. agregan una función para detectar y llenar áreas llamada “large wather
bodies”, esto es, basado en el hecho de que el agua por lo general tiene la elevación más baja entre
las áreas adyacentes, esta técnica consiste en encontrar las áreas de datos faltantes y llenar cada
área con la elevación más baja alrededor de ella [2].
Serna et. al. [42] propone un método de detección, segmentación y clasificación de objetos urba-
nos a partir de nubes de puntos. El procesamiento se lleva a cabo sobre las imágenes de elevación
y el resultado se reproyecta en la nube de puntos en tres pasos: 1) La tierra está segmentada y los
objetos se detectan como grietas, laderas o zanjas de la misma, 2) se procede a la segmentación de
objetos y 3) se lleva a cabo la clasificación de los objetos.
Por lo anterior, se puede deducir que estos trabajos basados en morfología matemática tienen
parámetros similares como la operación de apertura iterativa, tamaño de ventana y umbral variables,
así como la especificación de un tamaño máximo de ventana. Sin embargo, contemplan una serie de
operaciones y uso de variables, lo que hace compleja la comprensión de su metodología. Por esta
razón en este trabajo de Tesis se propone un método que toma en cuenta pocos parámetros y es
sencillo de utilizar.
16 CAPÍTULO 2. ESTADO DEL ARTE
Capítulo 3
Marco Teórico
Esta sección se centra en la descripción de los conceptos utilizados en el presente tema de Tesis
que permiten la obtención de los Modelos Digitales, la clasificación de los puntos de terreno y no
terreno u objetos.
3.1. Histograma
Los histogramas son distribuciones de frecuencia en el que se realiza la sumatoria de los píxeles
con el mismo valor para la construcción de una gráfica que representa los resultados de dicha
distribución [4, 34]. Un ejemplo de una imagen con su respectivo histograma se puede apreciar en
la Fig. 3.1 donde cada punto corresponde a la elevación del terreno. Los valores de elevación como
se muestra en el histograma van de 251.45 m a 275.03 m representados por una gama de colores
que va de azul a rojo. El azul en la imagen representa los valores de elevación más bajos y el rojo
representa los valores de elevación más altos.
17
18 CAPÍTULO 3. MARCO TEÓRICO
3.2. Rasterización
Se refiere al paso de espacio vectorial a espacio en dos dimensiones que corresponde al formato
raster o matriz. Sin embargo, algunos de los datos se pierden por lo que dichos valores de los puntos
deben ser definidos por técnicas de interpolación.
3.3. Interpolación
Es el uso de métodos para la asignación de los valores desconocidos de los píxeles en el raster
partir de valores de otros puntos de muestra dentro del mismo formato raster.
3.4. FILTRADO DE RUIDO 19
Se basa en su forma más simple, en que un píxel de valor desconocido se etiqueta mediante el
examen de los píxeles disponibles más cercanos asignando el valor del píxel más cercano al punto a
interpolar. Existen tres técnicas principales [34]:
Interpolación del vecino más cercano: Asigna el nivel de gris del píxel más cercano calculado
con una métrica tal como la distancia euclidiana al punto a interpolar.
Interpolación cúbica: Aplica una función bicúbica para promediar el valor de salida a partir de
los 16 (4x4) píxeles más próximos. Equivale a aplicar, en primer lugar, cuatro interpolaciones
unidimensionales horizontales entre cuatro píxeles (dos a un lado y dos a otro) y posteriormen-
te otra interpolación unidimensional, en este caso vertical, entre los cuatro valores obtenidos
anteriormente.
De las técnicas descritas anteriormente, el método usado en este trabajo es la de vecino más
cercano.
donde
H: elemento estructural
(i, j): tamaño del elemento estructural
R: conjunto de números reales
Z2 : conjunto de números enteros
Los valores de cero influyen en el resultado y por eso los elementos estructurales distinguen entre
los píxeles que contienen 0 y los que están vacíos o que no tienen datos, como se observa en la Fig.
3.3:
Fig. 3.3. Elemento estructural con píxeles con valor de cero, diferente a elemento con píxeles sin
datos valor[4].
3.5. MORFOLOGÍA MATEMÁTICA 21
3.5.2. Dilatación
max (3.2)
(I ⊕ H)(u, v) = (i,j)∈H {I(u + i, v + j) + H(i, j)}
donde
I: imagen original
H: elemento estructural
(i, j): tamaño del elemento estructural
(u, v): posición en la imagen
Por lo tanto, dilatación consiste en hacer un filtro de máximo con la máscara dada por la ec. 3.3
Fig. 3.4. Izquierda: imagen original. Derecha: imagen después de dilatación [4].
22 CAPÍTULO 3. MARCO TEÓRICO
3.5.3. Erosión
min (3.4)
(I H)(u, v) = (i,j)∈H {I(u + i, v + j) − H(i, j)}
donde
I: imagen original
H: elemento estructural
(i, j): tamaño del elemento estructural
(u, v): posición en la imagen
Por lo tanto, erosión consiste en hacer un filtro de mínimo con la máscara dada por la ec. 3.5
Fig. 3.5. Izquierda: imagen original. Derecha: imagen después de erosión [5].
3.5.4. Apertura
La apertura es una operación de erosión seguida de una operación de dilatación por el mismo
elemento estructural y se define mediante la ec. 3.6 [4]:
3.5. MORFOLOGÍA MATEMÁTICA 23
(I ◦ H) = (I H) ⊕ H (3.6)
Todos los elementos que son más pequeños que el tamaño del elemento estructural se filtran,
pero el resto de la imagen permanece sin cambios. También se utiliza para borrar detalles claros
que sean pequeños en comparación con el elemento estructural, manteniendo el resto de la imagen
prácticamente igual; la erosión también elimina detalles claros pero oscurece la imagen 3.6 [7].
Fig. 3.6. Izquierda: imagen original. Derecha: imagen después de la operación de apertura [6].
3.5.5. Cierre
(I • H) = (I ⊕ H) H (3.7)
La operación de cierre elimina (o cierra) agujeros y fisuras en las estructuras de primer plano que
son más pequeños que el elemento estructural H [4]. El cierre elimina detalles oscuros de la imagen,
dejando el resto prácticamente igual. La dilatación también elimina detalles oscuros, pero aclara la
imagen en general (Fig. 3.7) [7].
h = I − I ◦ H (3.8)
24 CAPÍTULO 3. MARCO TEÓRICO
Fig. 3.7. Izquierda: imagen original. Derecha: imagen después de la operación de cierre [6].
La operación de apertura elimina los pequeños detalles de luz en la imagen y deja las regiones más
oscuras sin modificar [7].
Si se requiere resaltar objetos oscuros sobre un fondo blanco, la definición para la transformación
Top-Hat (o en este caso, Bottom-Hat) se puede ver en la ec. 3.9 [7]:
h = I • H −I (3.9)
La diferencia entre la imagen original y la imagen de apertura resalta los detalles de la imagen
independientemente de la variación de intensidad ec. 3.8. Por lo anterior, la transformación Top-Hat
es útil para descubrir los detalles que se vuelven invisibles por iluminación o variación de sombras
(Fig. 3.8) [7].
Fig. 3.8. Transformación Top-Hat para incrementar los detalles de una imagen. De izquierda a de-
recha: Imagen original, imagen después de aplicar la transformación Top-Hat (elemento estructural
circular de diámetro aproximadamente igual al de los granos), imagen después de realce de contraste
[7].
Capítulo 4
Metodología Propuesta
En esta sección se consideran las técnicas para el procesamiento de la nube de puntos LiDAR
definido en dos etapas: la primera se trata acerca del paso del espacio vectorial a formato raster
y su interpolación para la obtención del MDS; la segunda etapa es el procesamiento central donde
se obtiene el MDT por medio de la clasificación de los puntos de tierra y no tierra u objeto, la
extracción del MDSn como resultado de la diferencia entre el MDS y el MDT, para finalizar con las
herramientas de medición de los resultados para su comparación con otros trabajos de investigación.
25
26 CAPÍTULO 4. METODOLOGÍA PROPUESTA
Fig. 4.1. Diagrama de flujo del algoritmo de procesamiento general para la obtención del MDT,
MDS y MDSn.
Tabla 4.1. Matriz de confusión y fórmulas para el cálculo de los valores [1].
Filtrado
h = a + c/e i = b + d/e
Proporción = b/c
32 CAPÍTULO 4. METODOLOGÍA PROPUESTA
donde
a es el total de los puntos de tierra que han sido correctamente identificados como tierra. Se
les denomina verdaderos positivos.
b es el total de los puntos de tierra que han sido incorrectamente identificados como objeto.
Se les denomina falsos positivos.
c es el total de los puntos de objeto que han sido incorrectamente identificados como tierra.
Se les denomina falsos negativos.
d es el total de los puntos de objeto que han sido correctamente identificados como objeto. Se
les denomina verdaderos negativos.
e = a+ b + c + d (4.3)
Recuerdo se refiere al número de objetos de una clase que fueron reconocidos como tales, y se
divide en recuerdo positivo (ec. 4.4) y recuerdo negativo (ec. 4.5):
a
recuerdo positivo = (4.4)
a + b
d
recuerdo negativo = (4.5)
d + c
a + b, c + d son el número total de puntos de tierra y objeto en los datos de referencia,
respectivamente.
f es el valor obtenido de la división de los puntos de tierra en los datos de referencia entre los
datos filtrados (ec. 4.6):
a+ b
f = (4.6)
e
34 CAPÍTULO 4. METODOLOGÍA PROPUESTA
g es la proporción de los puntos de objeto en los datos de referencia en relación a los datos
probados (ec. 4.7):
c + d
g = (4.7)
e
h es la proporción de los puntos de tierra en los datos filtrados en relación a los datos probados
(ec. 4.8):
a + c
h = (4.8)
e
i es la proporción de los puntos de objeto en los datos filtrados en relación a los datos probados
(ec. 4.9):
b + d
i = (4.9)
e
Proporción es la proporción del número de errores de Tipo I y Tipo II. Este valor muestra el
sesgo hacia los errores de Tipo I y Tipo II (ec. 4.10):
b
P roporcion = (4.10)
c
El Error Tipo I es cuando se clasifican los puntos correspondientes a tierra como puntos de
objetos (ec. 4.11):
b
Error T ipo I = (4.11)
a + b
El Error Tipo II sucede cuando se clasifican los puntos de objetos como puntos de tierra (ec.
4.12):
c
Error T ipo II = (4.12)
c + d
El Error Total es la suma del Error Tipo I y el Error Tipo II (ec. 4.13):
b + c
Error T otal = (4.13)
e
4.3. MATRIZ DE CONFUSIÓN 35
De la matriz de confusión se obtiene la imagen de error, como se observa en la Fig. 4.3 que
representa en un color determinado cada uno de los píxeles que corresponden a tierra (blanco),
objetos (gris), Error Tipo I (azul) y Error Tipo II (rojo).
De los valores obtenidos de la tabla matriz de confusión se obtiene el cálculo del coeficiente
Kappa descrito a continuación.
Coeficiente Kappa
El coeficiente Kappa (κ) se utiliza como una medida de concordancia entre las predicciones del
modelo y la realidad [105]; se calcula con la ec. 4.14:,
e × (a + d) − ((a + b) × (a + c) + (c + d) × (b + d))
κ= (4.14)
e2 − ((a + b) × (a + c) + (c + d) × (b + d))
Landis et. al. [106] propusieron unos límites para el grado de concordancia estimado con el
resultado del cálculo de κ donde:
< 0: Pobre
0.0 − 0.2: Leve
0.2 − 0.4: Aceptable
0.4 − 0.6: Moderada
0.6 − 0.8: Considerable
0.8 − 1.0: Muy buena
36 CAPÍTULO 4. METODOLOGÍA PROPUESTA
Del archivo de datos LiDAR los cuales son descritos en el Capítulo 5 correspondiente a Experi-
mentos y resultados de este trabajo de tesis, se obtiene el valor de la densidad como se explica en
la parte siguiente.
Densidad
La Densidad se obtiene mediante la división de los puntos totales entre el área de los datos:
P
Densidad = (4.15)
S
donde
S: área en m2
Capítulo 5
Experimentos y resultados
37
38 CAPÍTULO 5. EXPERIMENTOS Y RESULTADOS
Muestra 24 Rampa
Sitio 3 Muestra 31 Zona de terreno cerrada por edificios, puntos bajos, influencia de puntos bajos
La información de los datos LiDAR está separada en siete sitios de tipo urbano y rural (Fig.
5.1) divididos en 15 muestras en formato txt (Fig. 5.3) con datos de coordenadas geográficas UTM
(cuadrícula Universal Transversa de Mercator, el cual es un sistema de coordenadas en metros que
describe la posición en un mapa), elevación y clasificación de cada punto LiDAR en tierra y no
tierra u objetos, con un espacio entre puntos de 1 a 1.5 m en los datos urbanos y entre 2 y 3.5 m
en las áreas rurales [8].
5.1. DESCRIPCIÓN DE LOS DATOS DE REFERENCIA 39
Fig. 5.1. Sitios. Fila superior de izquierda a derecha: Sitio 1, Sitio 2, Sitio 3, Sitio 4. Fila inferior de
izquierda a derecha: Sitio 5, Sitio 6, Sitio 7 [8].
Fig. 5.2. De izquierda a derecha: archivo de referencia en formato .txt, tabla obtenida por SAGA-
GIS con valores x, y y clasificación, raster con valores de 0 para terreno y 1 para no terreno u objeto
[8].
Dev-C/C++: entorno de desarrollo integrado (IDE, por sus siglas en inglés) para programar
en lenguaje C, empleado para la implementación del algoritmo propuesto [107].
FugroViewer: programa diseñado para el uso de datos geoespaciales basados en raster y vec-
tores [108].
SAGA-GIS (por sus siglas en inglés): sistema de información geográfica libre y de código
abierto para la edición de datos espaciales que contiene un conjunto de métodos geocientíficos
[109].
Google Earth: programa informático para visualizar cartografía con base en la fotografía
satelital, fotografías aéreas e información geográfica [110].
Global Mapper 12: sistema de información geográfica (GIS, por sus siglas en inglés) que maneja
datos de tipo vector, raster y elevación [111].
ENVI: programa para el análisis de imágenes geoespaciales, satélite y fotografías aéreas [112].
Fig. 5.3. De izquierda a derecha: formato raster con tamaño de píxel de 1 m × 1 m, imagen de
puntos por píxel, interpolación por método de vecino más cercano.
Derivado del algoritmo propuesto se obtiene el MDT (Fig. 5.4) así como la clasificación de los
puntos correspondientes a terreno (Fig. 5.4) y no terreno u objeto.
En cuanto a MDSn, se obtiene de la diferencia del MDS que contiene la información de los
valores de elevación de todos los puntos, y el MDT que contiene únicamente los valores de elevación
del terreno como se puede ver en la Fig. 5.5.
42 CAPÍTULO 5. EXPERIMENTOS Y RESULTADOS
Los resultados de la matriz de confusión se reflejan en la imagen de error donde los errores de
Tipo I en color azul representan los falsos positivos, los errores de Tipo II representan los falsos
negativos en color rojo, los puntos en blanco corresponden a los verdaderos positivos que es el
terreno y los puntos en gris son los verdaderos negativos que es no terreno u objeto. Se realizó una
comparación con los resultados de otros trabajos de la literatura [2].
Se presentan a continuación los experimentos y resultados para cada una de las muestras de la
base de datos.
44 CAPÍTULO 5. EXPERIMENTOS Y RESULTADOS
Tamaño de píxel: 1 m × 1 m.
Tamaño de imagen: 130 × 282 píxeles.
Radio máximo de ventana: 8 píxeles.
Umbral: 3 m.
Densidad: 0.94 puntos/m2 .
Fig. 5.7. Muestra 11. Fila superior de izquierda a derecha: imagen de satélite, MDS en color, MDS
en escala de gris. Fila inferior de izquierda a derecha: imagen de referencia, imagen clasificada,
MDT.
46 CAPÍTULO 5. EXPERIMENTOS Y RESULTADOS
muestra 11 Filtrado
Tierra Objeto
Tierra 20139 1211 21350 56.24 % Tipo I 5.67 %
Referencia
Objeto 6748 9862 16610 43.76 % Tipo II 40.63 %
26887 11073 37960 Total 20.97 %
70.83 % 29.17 %
κ = 0.56 Proporción = 0.18
5.4. RESULTADOS POR MUESTRA 47
Tamaño de píxel: 1 m × 1 m.
Tamaño de imagen: 200 × 259 píxeles.
Radio máximo de ventana: 11 píxeles.
Umbral: 3 m.
Densidad: 0.97 puntos/m2 .
Fig. 5.10. Muestra 12. Fila superior de izquierda a derecha: imagen de satélite, MDS en color, MDS
en escala de gris. Fila inferior de izquierda a derecha: imagen de referencia, imagen clasificada,
MDT.
muestra 12 Filtrado
Tierra Objeto
Tierra 25569 1643 27212 52.53 % Tipo I 6.03 %
Referencia
Objeto 6165 18423 24588 47.47 % Tipo II 25.07 %
31734 20066 51800 Total 15.07 %
61.26 % 38.74 %
κ = 0.70 Proporción = 0.27
5.4. RESULTADOS POR MUESTRA 49
Tamaño de píxel: 1 m × 1 m.
Tamaño de imagen: 117 × 109 píxeles.
Radio máximo de ventana: 40 píxeles.
Umbral: 3 m.
Densidad: 0.91 puntos/m2 .
Fig. 5.13. Muestra 21. Fila superior de izquierda a derecha: imagen de satélite, MDS en color, MDS
en escala de gris. Fila inferior de izquierda a derecha: imagen de referencia, imagen clasificada,
MDT.
muestra 21 Filtrado
Tierra Objeto
Tierra 9284 0 9824 77.03 % Tipo I 0.00 %
Referencia
Objeto 982 1947 2929 22.97 % Tipo II 33.53 %
10806 1947 12753 Total 7.70 %
84.73 % 15.27 %
κ = 0.75 Proporción = 0.00
5.4. RESULTADOS POR MUESTRA 51
Tamaño de píxel: 1 m × 1 m.
Tamaño de imagen: 185 × 179 píxeles.
Radio máximo de ventana: 14 píxeles.
Umbral: 3 m.
Densidad: 0.96 puntos/m2 .
Fig. 5.16. Muestra 22. Fila superior de izquierda a derecha: imagen de satélite, MDS en color, MDS
en escala de gris. Fila inferior de izquierda a derecha: imagen de referencia, imagen clasificada,
MDT.
muestra 23: Edificios complejos, edificios grandes, zona de terreno cerrada por edificios
Esta muestra forma parte de las escenas complejas del conjunto de datos debido a la complejidad
de los edificios con desniveles y accesos, la rampa y la variedad en el tamaño de los edificios. Se
observa en la Fig. 5.20 que existe un error de Tipo I (parte media en color azul de la imagen de
error en la Fig. 5.16) en la rampa.
Tamaño de píxel: 1 m × 1 m.
Tamaño de imagen: 147 × 207 píxeles.
Radio máximo de ventana: 10 píxeles.
Umbral: 3 m.
Densidad: 0.83 puntos/m2 .
Fig. 5.19. Muestra 23. Fila superior de izquierda a derecha: imagen de satélite, MDS en color, MDS
en escala de gris. Fila inferior de izquierda a derecha: imagen de referencia, imagen clasificada,
MDT.
muestra 23 Filtrado
Tierra Objeto
Tierra 16329 714 17043 56.01 % Tipo I 4.19 %
Referencia
Objeto 2288 11098 13386 43.99 % Tipo II 17.09 %
18617 11812 30429 Total 9.87 %
61.18 % 38.82 %
κ = 0.80 Proporción = 0.31
5.4. RESULTADOS POR MUESTRA 55
Tamaño de píxel: 1 m × 1 m.
Tamaño de imagen: 123 × 73 píxeles.
Radio máximo de ventana: 8 píxeles.
Umbral: 3 m.
Densidad: 0.80 puntos/m2 .
Fig. 5.22. Muestra 24. Fila superior de izquierda a derecha: imagen de satélite, MDS en color, MDS
en escala de gris. Fila inferior de izquierda a derecha: imagen de referencia, imagen clasificada,
MDT.
56 CAPÍTULO 5. EXPERIMENTOS Y RESULTADOS
muestra 24 Filtrado
Tierra Objeto
Tierra 6319 67 6386 71.12 % Tipo I 1.05 %
Referencia
Objeto 932 1661 2593 28.88 % Tipo II 35.94 %
7251 1728 8979 Total 11.13 %
80.76 % 19.24 %
κ = 0.70 Proporción = 0.07
muestra 31: Zona de terreno cerrada por edificios, puntos bajos, influencia de puntos bajos.
En esta muestra se cuenta con algunos puntos bajos sobre todo en el centro. La dificultad en este
escenario está en la variabilidad del tamaño y altura de los edificios circundantes, el puente y los
árboles del centro del conjunto.
Tamaño de píxel: 1 m × 1 m.
Tamaño de imagen: 175 × 163 píxeles.
Radio máximo de ventana: 25 píxeles.
Umbral: 3 m.
Densidad: 1.02 puntos/m2 .
5.4. RESULTADOS POR MUESTRA 57
Fig. 5.25. Muestra 31. Fila superior de izquierda a derecha: imagen de satélite, MDS en color, MDS
en escala de gris. Fila inferior de izquierda a derecha: imagen de referencia, imagen clasificada,
MDT.
muestra 31 Filtrado
Tierra Objeto
Tierra 16381 467 16848 59.06 % Tipo I 2.77 %
Referencia
Objeto 1757 9920 11677 40.94 % Tipo II 15.05 %
18138 10387 28525 Total 7.80 %
63.59 % 36.41 %
κ = 0.84 Proporción = 0.27
Tamaño de píxel: 1 m × 1 m.
Tamaño de imagen: 168 × 106 píxeles.
Radio máximo de ventana: 13 píxeles.
Umbral: 3 m.
Densidad: 0.64 puntos/m2 .
Fig. 5.28. Muestra 41. Fila superior de izquierda a derecha: imagen de satélite, MDS en color, MDS
en escala de gris. Fila inferior de izquierda a derecha: imagen de referencia, imagen clasificada,
MDT.
muestra 41 Filtrado
Tierra Objeto
Tierra 9306 499 9805 55.07 % Tipo I 5.09 %
Referencia
Objeto 812 7189 8001 44.93 % Tipo II 10.15 %
10118 7688 17806 Total 7.36 %
56.82 % 43.18 %
κ = 0.85 Proporción = 0.61
Muestra 42: Objetos alargados, baja (objetos) y alta variación en el paisaje. En la muestra
42 se observa una estación de ferrocarril con pocos puntos de terreno. La mayoría de los filtros
se desempeñan bien en la detección de los puntos de terreno aún con la poca cantidad de dichos
puntos. La poca variación en la pendiente del terreno permite un buen rendimiento.
Tamaño de píxel: 1 m × 1 m.
Tamaño de imagen: 228 × 204 píxeles.
Radio máximo de ventana: 25 píxeles.
60 CAPÍTULO 5. EXPERIMENTOS Y RESULTADOS
Umbral: 2.5 m.
Densidad: 0.92 puntos/m2 .
Fig. 5.31. Muestra 42. Fila superior de izquierda a derecha: imagen de satélite, MDS en color, MDS
en escala de gris. Fila inferior de izquierda a derecha: imagen de referencia, imagen clasificada,
MDT.
muestra 42 Filtrado
Tierra Objeto
Tierra 15403 1 15404 33.12 % Tipo I 0.01 %
Referencia
Objeto 1397 29711 31108 66.88 % Tipo II 4.49 %
16800 29712 46512 Total 3.01 %
36.12 % 63.88 %
κ = 0.93 Proporción = 0.07
Tamaño de píxel: 1 m × 1 m.
Tamaño de imagen: 233 × 531 píxeles.
Radio máximo de ventana: 30 píxeles.
Umbral: 2 m.
Densidad: 0.18 puntos/m2 .
Fig. 5.34. Muestra 51. Fila superior de izquierda a derecha: imagen de satélite, MDS en color, MDS
en escala de gris. Fila inferior de izquierda a derecha: imagen de referencia, imagen clasificada,
MDT.
muestra 51 Filtrado
Tierra Objeto
Tierra 75205 2299 77504 77.18 % Tipo I 2.97 %
Referencia
Objeto 5399 17520 22919 22.82 % Tipo II 23.56 %
80604 19819 100423 Total 7.67 %
80.26 % 19.74 %
κ = 0.77 Proporción = 0.43
5.4. RESULTADOS POR MUESTRA 63
Tamaño de píxel: 1 m × 1 m.
Tamaño de imagen: 451 × 302 píxeles.
Radio máximo de ventana: 8 píxeles.
Umbral: 2 m.
Densidad: 0.17 puntos/m2 .
Fig. 5.37. Muestra 52. Fila superior de izquierda a derecha: imagen de satélite, MDS en color, MDS
en escala de gris. Fila inferior de izquierda a derecha: imagen de referencia, imagen clasificada,
MDT.
muestra 52 Filtrado
Tierra Objeto
Tierra 115855 3463 119318 87.60 % Tipo I 2.90 %
Referencia
Objeto 5102 11782 16884 12.40 % Tipo II 30.22 %
120957 15245 136202 Total 6.29 %
88.81 % 11.19 %
κ = 0.70 Proporción = 0.68
5.4. RESULTADOS POR MUESTRA 65
Tamaño de píxel: 1 m × 1 m.
Tamaño de imagen: 451 × 474 píxeles.
Radio máximo de ventana: 2 píxeles.
Umbral: 1 m.
Densidad: 0.17 puntos/m2 .
Fig. 5.40. Muestra 53. De izquierda a derecha, superior: imagen de satélite, MDS en color, MDS en
escala de gris; inferior: imagen de referencia de la muestra 53, imagen clasificada, MDT.
muestra 53 Filtrado
Tierra Objeto
Tierra 194105 1901 196006 95.94 % Tipo I 0.97 %
Referencia
Objeto 4736 3552 8288 4.06 % Tipo II 57.14 %
198841 5453 204294 Total 3.25 %
97.33 % 2.67 %
κ = 0.50 Proporción = 0.40
5.4. RESULTADOS POR MUESTRA 67
Tamaño de píxel: 1 m × 1 m.
Tamaño de imagen: 187 × 268 píxeles.
Radio máximo de ventana: 2 píxeles.
Umbral: 1 m.
Densidad: 0.17 puntos/m2 .
Fig. 5.43. Muestra 54. Fila superior de izquierda a derecha: imagen de satélite, MDS en color, MDS
en escala de gris. Fila inferior de izquierda a derecha: imagen de referencia, imagen clasificada,
MDT.
muestra 54 Filtrado
Tierra Objeto
Tierra 23180 260 23440 46.77 % Tipo I 1.11 %
Referencia
Objeto 1663 25013 26676 53.23 % Tipo II 6.23 %
24843 25273 50116 Total 3.83 %
49.57 % 50.43 %
κ = 0.92 Proporción = 0.16
Tamaño de píxel: 1 m × 1 m.
Tamaño de imagen: 505 × 445 píxeles.
Radio máximo de ventana: 3 píxeles.
Umbral: 1 m.
Densidad: 0.16 puntos/m2 .
Fig. 5.46. Muestra 61. Fila superior de izquierda a derecha: imagen de satélite, MDS en color, MDS
en escala de gris. Fila inferior de izquierda a derecha: imagen de referencia, imagen clasificada,
MDT.
muestra 61 Filtrado
Tierra Objeto
Tierra 217279 623 217902 96.96 % Tipo I 0.29 %
Referencia
Objeto 1663 5160 6823 3.04 % Tipo II 24.37 %
218942 5783 224725 Total 1.01 %
97.43 % 2.57 %
κ = 0.81 Proporción = 0.37
5.4. RESULTADOS POR MUESTRA 71
Tamaño de píxel: 1 m × 1 m.
Tamaño de imagen: 396 × 222 píxeles.
Radio máximo de ventana: 9 píxeles.
Umbral: 1 m.
Densidad: 0.18 puntos/m2 .
Fig. 5.49. Muestra 71. Fila superior de izquierda a derecha: imagen de satélite, MDS en color, MDS
en escala de gris. Fila inferior de izquierda a derecha: imagen de referencia, imagen clasificada,
MDT.
72 CAPÍTULO 5. EXPERIMENTOS Y RESULTADOS
muestra 71 Filtrado
Tierra Objeto
Tierra 75646 2453 78099 88.84 % Tipo I 3.14 %
Referencia
Objeto 946 8867 9813 11.16 % Tipo II 9.64 %
76592 11320 87912 Total 3.87 %
87.12 % 12.88 %
κ = 0.82 Proporción = 2.59
5.5. COMPARACIÓN DEL ERROR TOTAL DEL ALGORITMO PROPUESTO 73
Tabla 5.17. Comparación del Error Total del algoritmo con resultados de ISPRS Test [2]
Elmqvist Sohn Axelsson Pfeiffer Brovelli Roggero Wack Sithole AP
muestra
% % % % % % % % %
1 (muestra 11) 22.40 20.49 10.76 17.35 36.96 20.80 24.02 23.25 20.97
2 (muestra 12) 8.18 8.39 3.25 4.50 16.28 6.61 6.61 10.21 15.07
3 (muestra 21) 8.53 8.80 4.25 2.57 9.30 9.84 4.55 7.76 7.70
4 (muestra 22) 8.93 7.54 3.63 6.71 22.28 23.78 7.51 20.86 8.70
5 (muestra 23) 12.28 9.84 4.00 8.22 27.80 23.20 10.97 22.71 9.87
6 (muestra 24) 13.83 13.33 4.42 8.64 36.06 23.25 11.53 25.28 11.12
7 (muestra 31) 5.34 6.39 4.78 1.80 12.92 2.14 2.21 3.15 7.8
8 (muestra 41) 8.76 11.27 13.91 10.75 17.03 12.21 9.01 23.67 7.36
9 (muestra 42) 3.68 1.78 1.62 2.64 6.38 4.30 3.54 3.85 3.01
10 (muestra 51) 23.31 9.31 2.72 3.71 22.81 3.01 11.45 7.02 7.67
11 (muestra 52) 57.95 12.04 3.07 19.64 45.56 9.78 23.83 27.53 6.29
12 (muestra 53) 48.45 20.19 8.91 12.60 52.81 17.29 27.24 37.07 3.25
13 (muestra 54) 21.26 5.68 3.23 5.47 23.89 4.96 7.63 6.33 3.83
14 (muestra 61) 35.87 2.99 2.08 6.91 21.68 18.99 13.47 21.63 1.01
15 (muestra 71) 34.22 2.20 1.63 8.85 34.98 5.11 16.97 21.83 3.86
74 CAPÍTULO 5. EXPERIMENTOS Y RESULTADOS
En la Tabla 5.18 se muestra el promedio del Error Total, el Error Total mínimo y Error Total
máximo obtenido de los resultados de los investigadores en cada una de las muestras de la Tabla
5.17 comparado con los resultados del algoritmo propuesto. Se observa lo siguiente:
a
Valores en azul son inferiores al Error Total promedio.
b
Valores en rojo corresponden al mejor desempeño.
5.6. COMPARACIÓN POR TIPO DE ESCENARIO 75
Escenas complejas (muestra 11, muestra 12, muestra 22, muestra 23, muestra 54)
Ladera, zanjas, grietas (muestra 22, muestra 23 y muestra 53)
Puentes (muestra 21, muestra 23, muestra 24 y muestra 71)
Pendientes pronunciadas (muestra 11, muestra 51, muestra 52, muestra 61)
Valores atípicos (muestra 31 y muestra 41)
Vegetación en pendientes (muestra 51 y muestra 52)
Terreno (muestra 42 y muestra 51)
La Tabla 5.19 muestra los resultados del algoritmo del presente trabajo correspondientes al Error
Total promedio y κ promedio por tipo de escenario, en donde se marca en color rojo las muestras
con κ mayor a 0.8, correspondientes a grado de concordancia estimado como Muy bueno [106].
Escenas complejas
En este tipo de escenas, en la muestra 23 es donde se presenta el reto más difícil [1] debido
a que se observa una plaza rodeada en tres lados por un bloque de edificios. Desde la plaza se
puede caminar por la carretera hacia el este y también descender por una escalera a la carretera
por debajo en dirección oeste. Como dato adicional, existe una diferencia de elevación importante
debido a una galería hundida en el centro de la plaza. Definir lo que es terreno y no terreno en
el escenario mencionado es complicado según Vosselman[1]. Los dos filtros basados en pendiente
(Sithole y Roggero), además de Brovelli cuyo método basado en placa delgada, arrojan errores
totales de más del 20 %. Esto es comprensible debido a la alta cantidad de grandes edificios, ladera,
zanjas, en el terreno, en la mayoría de los algoritmos, la rampa fue tratada como objeto y no como
parte del terreno en sí debido a su desnivel.
Ladera, cresta aguda, zanjas
Se presentan características como ladera, cresta aguda, zanjas, en muestra 22, muestra 23 y
muestra 53 y se observa que en general los dos filtros basados pendiente (Sithole y Roggero) tienen
más dificultades con estas características en el terreno debido al Error Total de más del 20 % aún
cuando la diferencia de altura en las crestas agudas y zanjas aumenta, el rendimiento de los filtros
basados en la pendiente sigue siendo el mismo, en contraposición con algunos de los otros filtros,
donde una cresta aguda o zanja también puede afectar de manera importante el filtraje en la
vecindad. Cabe destacar que en las crestas agudas y zanjas es donde se producen los errores de
Tipo I, es decir, clasificar el terreno como no terreno u objeto, sobre todo en los filtros basados en
superficie.
Puentes
Un problema con los filtros es que se consideran ciegos debido a que tienen problemas al no hacer
distinción entre objetos que se interponen entre el terreno y los que están unidos a ella (por ejemplo,
puentes, rampas, etc.) como en la muestra compleja 23. En los resultados de los investigadores [1]
se puede observar la completa o parcial eliminación de puentes. Todos los algoritmos excepto el de
Axelsson eliminan puentes completamente debido a los parámetros de su algoritmo. Este problema
puede ser visto en la muestra 21 y muestra 71. Al igual que los puentes son rampas como se observa
en la muestra 24, y las rampas aunque son similares a los puentes se diferencian en que no permiten
el paso por debajo de ellas, y de acuerdo con las definiciones de Sithole et. al. [1] son por lo tanto,
puntos de terreno.
5.6. COMPARACIÓN POR TIPO DE ESCENARIO 77
Pendientes pronunciadas
En las muestras de este tipo de escena hay un número menor de puntos de objetos que los de
terreno, es por eso que la proporción de los errores de Tipo I y Tipo II es menor. En las laderas
más bajas de la muestra 11 hay diversos edificios y terrazas o edificios bajos en el terreno, es por
eso que un alto porcentaje de Error Tipo I.
Valores Atípicos
El número de valores atípicos (altos y bajos) es menor en las muestras y por lo tanto su con-
tribución es mínima al Tipo I y los errores de Tipo II. Sin embargo, puede tener influencia en el
filtrado en sus vecindarios. Esto se puede ver en la muestra 31 y muestra 41. En la muestra 31 se
hace notar que se pueden producir errores de Tipo I debido a un valor atípico bajo en el centro del
círculo.
Vegetación en pendientes
Un ejemplo de la vegetación en laderas escarpadas se observa en la muestra 51 y muestra 52. Cabe
destacar que la mayoría de los filtros tienen un buen desempeño en la identificación de vegetación
(bosque). Sin embargo, algunos filtros lo hacen a costa de un aumento del Error de Tipo I, y en el
caso de Elmqvist y Brovelli, como muestran sus errores totales. En la muestra 52 la vegetación es
encuentra mucho más cerca de la pendiente a menos de 1 m lo que causa un aumento significativo
en el Error Total.
Terreno
Para que un filtro detecte el terreno, es esencial que haya puntos suficientes de este tipo. La
muestra 42 es una estación de ferrocarril y tiene casi el doble de puntos de objeto que de terreno;
la muestra 51 tiene 4.3 veces más puntos de no terreno que puntos de terreno u objetos. Los
autores expresan que en este aspecto aún se requieren más pruebas para medir el rendimiento de
los algoritmos.
78 CAPÍTULO 5. EXPERIMENTOS Y RESULTADOS
Tabla 5.20. Comparativa de los resultados con filtro y sin filtro para la remoción de valores atípicos
Con filtro Sin filtro
Error Total Error Total
Muestra κ κ
% %
1 (muestra 11) 39.28 0.01 20.97 0.70
2 (muestra 12) 15.03 0.01 15.07 0.75
3 (muestra 21) 12.97 0.55 7.70 0.77
4 (muestra 22) 28.30 0.82 8.70 0.73
5 (muestra 23) 12.03 0.75 9.87 0.80
6 (muestra 24) 11.12 0.83 11.12 0.70
7 (muestra 31) 11.51 0.75 7.78 0.84
8 (muestra 41) 8.15 0.83 7.36 0.85
9 (muestra 42) 6.39 0.86 3.00 0.93
10 (muestra 51) 11.50 0.84 7.67 0.77
11 (muestra 52) 7.32 0.63 6.29 0.70
12 (muestra 53) 3.46 0.32 3.25 0.50
13 (muestra 54) 8.30 0.83 3.83 0.92
14 (muestra 61) 1.74 0.62 1.01 0.81
15 (muestra 71) 4.94 0.75 3.87 0.82
Capítulo 6
6.1. Conclusiones
En base a la comparación con trabajos previos de investigación, se observa que la totalidad de los
resultados del algoritmo propuesto se mantienen por debajo del error máximo, el 80 % son menores
al promedio del Error Total y en 3 de los productos se obtuvo el mejor desempeño.
79
80 CAPÍTULO 6. CONCLUSIÓN Y TRABAJO A FUTURO
Modelado de función. El análisis de una función de crecimiento para el tamaño de ventana para
adaptarla de acuerdo a las características del terreno a estudiar, y realizar una comparativa
con la metodología presentada en este trabajo de tesis.
Redes neuronales. El uso de redes neuronales en el que dadas las características de la imagen
de LiDAR tales como elevación mínima, elevación máxima, pendiente, y las que se puedan
requerir en la metodología para que el programa obtenga su clasificación en tierra y no tierra.
[1] G. Sithole and G. Vosselman, “ISPRS comparison of filters,” tech. rep. Department of Geo-
desy, Faculty of Civil Engineering and Geosciences, Agosto 2003. http://www.itc.nl/
isprswgiii-3/filtertest/Report05082003.pdf.
[2] Q. Chen, P. Gong, D. Baldocchi, and G. Xie, “Filtering airborne laser scanning data
with morphological methods,” Photogrammetric Engineering and Remote Sensing, vol. 73,
pp. 175–185, Febrero 2007. http://www.asprs.org/a/publications/pers/2007journal/
february/2007_feb_175-185.pdf.
[3] http://www.tayyareci.com/forsale/pilatus/camera/020607_LEICA_ALS40_brochure.pdf
(Consultado el 7 de mayo de 2015). http://www.tayyareci.com/forsale/pilatus/
camera/020607_LEICA_ALS40_brochure.pdf.
[4] W. Burger and M. J. Burge, Digital Image Processing an Algorithmic Introduction using
JAVA. Springer, 2008. http://www.springer.com/us/book/9781846283796.
[5] J. R. Parker, Algorithms for Image Processing and Computer Vision, vol. 2.
2009. http://csce.uark.edu/~jgauch/5703/other/books/Algorithms_for_Image_
Processing_and_Computer_Vision.pdf.
[7] C. Solomon and T. Breckon, Fundamentals of Digital Image Processing. A Practical Approach
with Examples in Matlab. John Wiley and sons, Ltd, 2011. http://cvrs.whu.edu.cn/
81
82 REFERENCIAS
downloads/ebooks/Fundamentals%20of%20Digital%20Image%20Processing%20-%20A%
20Practical%20Approach%20with%20Examples%20in%20Matlab.pdf.
[8] “ISPRS test on extracting DEMs from point clouds,” 2003. [En línea]. Dispo-
nible en: http://www.itc.nl/isprswgIII-3/filtertest/Reference.zip. http://www.itc.nl/
isprswgIII-3/filtertest/Reference.zip.
[9] C. L. Miller and R. A. Laflamme, The Digital Terrain Model: Theory and Application. MIT
Photogrammetry Laboratory, 1958.
[11] E. Naesset, “Determination of mean tree height of forest stands using airborne laser scanne
data,” ISPRS Journal of Photogrammetry and Remote Sensing, vol. 52, pp. 49–56, Abril 1997.
http://www.sciencedirect.com/science/article/pii/S0924271697830006.
[12] D. Mongus and B. Žalik, “Parameter-free ground filtering of LiDAR data for automatic DTM
generation,” ISPRS Journal of Photogrammetry and Remote Sensing, vol. 67, pp. 1–12, Enero
2012. http://www.sciencedirect.com/science/article/pii/S0924271611001122.
[13] W. Wang, W. Zhao, L. Huang, V. Vimarlund, and Z. Wang, “Applications of terrestrial laser
scanning for tunnels: a review,” Journal of Traffic and Transportation Engineering (English
Edition), vol. 1, pp. 325–337, Octubre 2014. http://www.sciencedirect.com/science/
article/pii/S2095756415302798.
[14] T. A. S. for Photogrammetry and R. Sensing, “LAS specification version 1.4 R13,” tech. rep.,
ASPRS, 2013. http://www.asprs.org/a/society/committees/standards/LAS_1_4_r13.
pdf.
[15] G. Sithole, “Segmentation and classification of airborne laser scanner data,” TU Delft,
Delft University of Technology, Septiembre 2005. http://citeseerx.ist.psu.edu/viewdoc/
download?doi=10.1.1.105.6206&rep=rep1&type=pdf.
REFERENCIAS 83
[17] J. Shen, J. Liu, X. Lin, and R. Zhao, “Object-based classification of airborne light detection
and ranging point clouds in human settlements,” Sensor Letters, vol. 10, pp. 221–229, Enero
2012. http://dx.doi.org/10.1166/sl.2012.1826.
[18] W. Y. Yan, A. Shaker, and N. El-Ashmawy, “Urban land cover classification using airborne
LiDAR data: A review,” Remote Sensing of Environment, vol. 158, pp. 295–310, Marzo 2015.
http://www.sciencedirect.com/science/article/pii/S0034425714004374.
[19] Z. Li, Q. Zhu, and C. Gold, Digital terrain modeling: principles and methodology. CRC Press,
2004.
[20] S. Dupuy, G. Lainé, J. Tassin, and J.-M. Sarrailh, “Characterization of the horizon-
tal structure of the tropical forest canopy using object-based LiDAR and multispectral
image analysis,” International Journal of Applied Earth Observation and Geoinformation,
vol. 25, pp. 76–86, Diciembre 2013. http://www.sciencedirect.com/science/article/
pii/S0303243413000445.
[21] M. Brovelli, M. Cannata, and U. Longoni, “Managing and processing LIDAR data within
GRASS,” in Proceedings of the GRASS Users Conference, vol. 29, Septiembre 2002. http://
citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.19.8294&rep=rep1&type=pdf.
[22] F. Rottensteiner and C. Briese, “Automatic generation of building models from LiDAR data
and the integration of aerial images,” International Society for Photogrametry and Remote
Sensing, vol. XXXIV, Octubre 2003. http://www.isprs.org/proceedings/XXXIV/3-W13/
papers/Rottensteiner_ALSDD2003.pdf.
[23] G. Vozikis, “Automated generation and updating of digital city models using high-resolution
line scanning systems,” The International Archives of the Photogrammetry, Remote Sensing
and Spatial Information Sciences, Vol. 34, Part XXX, Octubre 2004. http://www.isprs.
org/proceedings/XXXV/congress/comm7/papers/198.pdf.
84 REFERENCIAS
[24] H. Arefi and M. Hahn, “A morphological reconstruction algorithm for separating off-terrain
points from terrain points in laser scanning data,” International Archives of Photogrammetry,
Remote Sensing and Spatial Information Sciences, vol. 36, Septiembre 2005. http://www.
isprs.org/proceedings/xxxvi/3-w19/papers/120.pdf.
[25] R. Wack and H. Stelzl, “Laser DTM generation for south-tyrol and 3d-visualization,” Interna-
tional Archives of Photogrammetry, Remote Sensing and Spatial Information Science, vol. 36,
pp. 3–W19, 2005. http://www.isprs.org/proceedings/XXXVI/3-W19/papers/048.pdf.
[26] Z. Chen, B. Devereux, B. Gao, and G. Amable, “Upward-fusion urban DTM generating met-
hod using airborne LiDAR data,” ISPRS Journal of Photogrammetry and Remote Sensing,
vol. 72, pp. 121–130, Agosto 2012. http://www.sciencedirect.com/science/article/pii/
S0924271612001244.
[27] W. Zhou, “An object-based approach for urban land cover classification: integrating Li-
DAR height and intensity data,” Geoscience and Remote Sensing Letters, IEEE, vol. 10,
no. 4, pp. 928–931, 2013. http://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=
6497495.
[28] X. Meng, N. Currit, and K. Zhao, “Ground filtering algorithms for airborne LiDAR data: A
review of critical issues,” Remote Sensing, vol. 2, pp. 833–860, Marzo 2010. http://www.
mdpi.com/2072-4292/2/3/833.
[29] M. Roggero, “Airborne laser scanning: clustering in RAW data,” International Archives of
Photogrammetry and Remote Sensing, vol. XXXIV, Octubre 2001. http://www.isprs.org/
proceedings/XXXIV/3-W4/pdf/Roggero.pdf.
[30] J. Shan and A. Sampath, “Urban DEM generation from RAW LiDAR data: a labe-
ling algorithm and its performance,” Photogrammetric Engineering and Remote Sensing,
vol. 71, pp. 217–226, Febrero 2005. http://www.scopus.com/record/display.url?
eid=2-s2.0-13444302489&origin=inward&txGid=1D76220963AA2FAD4FFCF2AA8BD48B59.
I0QkgbIjGqqLQ4Nw7dqZ4A%3a1#.
[31] J. Song, J. Wu, and Y. Jiang, “Extraction and reconstruction of curved surface buildings
by contour clustering using airborne LiDAR data,” Optik-International Journal for Light
REFERENCIAS 85
and Electron Optics, vol. 126, pp. 513–521, Marzo 2015. http://www.sciencedirect.com/
science/article/pii/S0030402615000121.
[32] P. Axelsson, “Processing of laser scanner data-algorithms and applications,” ISPRS Journal
of Photogrammetry and Remote Sensing, vol. 54, pp. 138–147, Julio 1999. http://www.
sciencedirect.com/science/article/pii/S0924271699000088.
[33] D. Tóvári and N. Pfeifer, “Segmentation based robust interpolation-a new approach to laser
data filtering,” International Society for Photogrametry and Remote Sensing, vol. 36, p. W19,
Septiembre 2005. http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.221.
9939&rep=rep1&type=pdf.
[34] J. A. Richards, Remote Sensing Digital Image Analysis. Springer, 5 ed., 2013. http://link.
springer.com/book/10.1007%2F978-3-642-30062-2.
[35] P. Lohmann, A. Koch, and M. Schaeffer, “Approaches to the filtering of laser scanner data,”
International Archives of Photogrammetry and Remote Sensing, vol. 33, pp. 540–547, Octubre
2000. http://www.isprs.org/proceedings/XXXIII/congress/part3/540_XXXIII-part3.
pdf.
[36] X. Liu, “Airborne LiDAR for DEM generation: some critical issues,” Progress in Physical
Geography, vol. 32, pp. 31–49, Febrero 2008. http://core.ac.uk/download/pdf/11037346.
pdf.
[37] T. J. Pingel, K. C. Clarke, and W. A. McBride, “An improved simple morphological filter
for the terrain classification of airborne LiDAR data,” ISPRS Journal of Photogrammetry
and Remote Sensing, Marzo 2013. http://www.sciencedirect.com/science/article/pii/
S0924271613000026.
[38] L. Cheng, W. Zhao, P. Han, W. Zhang, J. Shan, Y. Liu, and M. Li, “Building region de-
rivation from LiDAR data using a reversed iterative mathematic morphological algorithm,”
Optics Communications, pp. 244–250, Septiembre 2013. https://engineering.purdue.edu/
~jshan/publications/2013/Optics%20Communications_Morphology.pdf.
[39] K. Zhang, S.-C. Chen, D. Whitman, M.-L. Shyu, J. Yan, and C. Zhang, “A progressive
morphological filter for removing nonground measurements from airborne LiDAR data,” IEEE
86 REFERENCIAS
Transactions on Geoscience and Remote Sensing, vol. 41, pp. 5–24, Abril 2003. http://
ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=1202973.
[40] J. S. Evans and A. T. Hudak, “A multiscale curvature algorithm for classifying discrete return
LiDAR in forested environments,” Geoscience and Remote Sensing, IEEE Transactions on,
vol. 45, pp. 1029–1038, Abril 2007. http://ieeexplore.ieee.org/stamp/stamp.jsp?tp=
&arnumber=4137852.
[41] B. Yang, Z. Dong, G. Zhao, and W. Dai, “Hierarchical extraction of urban objects from
mobile laser scanning data,” ISPRS Journal of Photogrammetry and Remote Sensing,
vol. 99, pp. 45–57, Enero 2015. http://www.sciencedirect.com/science/article/pii/
S092427161400255X.
[42] A. Serna and B. Marcotegui, “Detection, segmentation and classification of 3d urban objects
using mathematical morphology and supervised learning,” ISPRS Journal of Photogrammetry
and Remote Sensing, vol. 93, pp. 243–255, Julio 2014. http://dx.doi.org/10.1016/j.
isprsjprs.2014.03.015.
[43] W. Zhuang and G. Mountrakis, “An accurate and computationally efficient algorithm for
ground peak identification in large footprint waveform LiDAR data,” ISPRS Journal of
Photogrammetry and Remote Sensing, vol. 95, pp. 81–92, Septiembre 2014. http://www.
sciencedirect.com/science/article/pii/S092427161400152X.
[44] M. Awrangjeb, C. Zhang, and C. S. Fraser, “Automatic extraction of building roofs using
LIDAR data and multispectral imagery,” ISPRS Journal of Photogrammetry and Remote
Sensing, vol. 83, pp. 1–18, Septiembre 2013. http://www.sciencedirect.com/science/
article/pii/S0924271613001342.
[45] S. Barnea and S. Filin, “Segmentation of terrestrial laser scanning data using geo-
metry and image information,” ISPRS Journal of Photogrammetry and Remote Sensing,
vol. 76, pp. 33–48, Febrero 2013. http://www.sciencedirect.com/science/article/pii/
S0924271612000809.
REFERENCIAS 87
[47] Z. Lari and A. Habib, “New approaches for estimating the local point density and its
impact on LiDAR data segmentation,” Photogrammetric Engineering and Remote Sen-
sing, vol. 79, pp. 195–207, Febrero 2013. http://d27vj430nutdmd.cloudfront.net/7922/
143562/58391a7a1043d4d79a0793927c7b2bc8f443f781.pdf.
[48] A. Jochem, B. Höfle, V. Wichmann, M. Rutzinger, and A. Zipf, “Area-wide roof plane seg-
mentation in airborne LiDAR point clouds,” Computers, Environment and Urban Systems,
vol. 36, pp. 54–64, Enero 2012. http://www.sciencedirect.com/science/article/pii/
S0198971511000391.
[49] J. Hernández and B. Marcotegui, “Filtering of artifacts and pavement segmentation from
mobile LiDAR data,” Septiembre 2009. http://cmm.ensmp.fr/~marcoteg/cv/publi_pdf/
jorge/PointCloudSegmentation/Hernandez_Marcotegui_Laserscanning09.pdf.
[50] M. Awrangjeb and G. Lu, “Robust image corner detection based on the chord-to-point distance
accumulation technique,” Multimedia, IEEE Transactions on, vol. 10, pp. 1059–1072, Octubre
2008. http://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=4657455.
[51] T. Rabbani, F. van den Heuvel, and G. Vosselmann, “Segmentation of point clouds using
smoothness constraint,” International Archives of Photogrammetry, Remote Sensing and Spa-
tial Information Sciences, vol. 36, pp. 248–253, Septiembre 2006. http://www.isprs.org/
proceedings/XXXVI/part5/paper/RABB_639.pdf.
[52] K. Jacobsen and P. Lohmann, “Segmented filtering of laser scanner DSMs,” International
Archives of Photogrammetry and Remote Sensing, vol. 34, Julio 2003. http://www.isprs.
org/proceedings/XXXIV/3-W13/papers/Jacobsen_ALSDD2003.pdf.
[53] G. Sithole and G. Vosselman, “Filtering of airborne laser scanner data based on segmented
point clouds,” International Archives of Photogrammetry, Remote Sensing and Spatial Infor-
mation Sciences, vol. 36, WG III/3, III/4, V/3, Septiembre 2005. http://www.isprs.org/
proceedings/XXXVI/3-W19/papers/066.pdf.
88 REFERENCIAS
[54] S. Filin, “Surface clustering from airborne laser scanning data,” International Archives of
Photogrammetry Remote Sensing and Spatial Information Sciences, vol. 34, pp. 119–124, Sep-
tiembre 2002. http://www.isprs.org/proceedings/XXXIV/part3/papers/paper120.pdf.
[55] J. M. Biosca and J. L. Lerma, “Unsupervised robust planar segmentation of terrestrial la-
ser scanner point clouds based on fuzzy clustering methods,” ISPRS Journal of Photogram-
metry and Remote Sensing, vol. 63, pp. 84–98, Enero 2008. http://www.sciencedirect.
com/science/article/pii/S0924271607000809.
[56] S. Filin and N. Pfeifer, “Segmentation of airborne laser scanning data using a slope adaptive
neighborhood,” ISPRS journal of Photogrammetry and Remote Sensing, vol. 60, pp. 71–80,
Abril 2006. http://www.sciencedirect.com/science/article/pii/S0924271605000638.
[57] M. A. Brovelli, M. Cannata, and U. M. Longoni, “LiDAR data filtering and DTM inter-
polation within GRASS,” Transactions in GIS, vol. 8, pp. 155–174, Febrero 2004. http:
//onlinelibrary.wiley.com/doi/10.1111/j.1467-9671.2004.00173.x/pdf.
[58] L. Li and J. Zhang, “Building detection with LiDAR point clouds based on regional multi-
return density analyzing,” in Earth Observation and Remote Sensing Applications, 2014 3rd
International Workshop on, pp. 116–120, IEEE, Diciembre 2014. http://ieeexplore.ieee.
org/stamp/stamp.jsp?tp=&arnumber=6927861.
[59] Y. Li, B. Yong, H. Wu, R. An, and H. Xu, “An improved top-hat filter with sloped brim
for extracting ground points from airborne LiDAR point clouds,” Remote Sensing, vol. 6,
pp. 12885–12908, Diciembre 2014. http://www.mdpi.com/2072-4292/6/12/12885/htm.
[60] D. Mongus, N. Lukač, and B. Žalik, “Ground and building extraction from LiDAR da-
ta based on differential morphological profiles and locally fitted surfaces,” ISPRS Jour-
nal of Photogrammetry and Remote Sensing, vol. 93, pp. 145–156, Julio 2014. http:
//www.sciencedirect.com/science/article/pii/S0924271613002840.
[61] Y. Li, H. Wu, R. An, H. Xu, Q. He, and J. Xu, “An improved building boundary extrac-
tion algorithm based on fusion of optical imagery and LiDAR data,” Optik-International
Journal for Light and Electron Optics, vol. 124, pp. 5357–5362, Noviembre 2013. http:
//www.sciencedirect.com/science/article/pii/S003040261300346X.
REFERENCIAS 89
[62] Y. Li, H. Wu, H. Xu, R. An, J. Xu, and Q. He, “A gradient-constrained morphological filtering
algorithm for airborne LiDAR,” Optics and Laser Technology, vol. 54, pp. 288–296, Diciembre
2013. http://www.sciencedirect.com/science/article/pii/S0030399213002235.
[63] X. Meng, L. Wang, and N. Currit, “Morphology-based building detection from airborne Li-
DAR data,” Photogrammetric Engineering and Remote Sensing, vol. 75, pp. 437–442, Abril
2009. http://www.acsu.buffalo.edu/~lewang/pdf/lewang_sample28.pdf.
[65] J. L. Silvan and L. Wang, “A multi-resolution approach for filtering LiDAR altimetry,” ISPRS
Journal of Photogrammetry and Remote Sensing, vol. 61, pp. 11–22, Octubre 2006. http:
//www.sciencedirect.com/science/article/pii/S0924271606000633.
[66] B. Petzold, P. Reiss, and W. Stössel, “Laser scanning surveying and map-
ping agencies are using a new technique for the derivation of digital te-
rrain models,” ISPRS Journal of Photogrammetry and Remote Sensing, vol. 54,
pp. 95–104, Julio 1999. http://ac.els-cdn.com/S0924271699000052/1-s2.
0-S0924271699000052-main.pdf?_tid=8190d144-fe8e-11e4-a522-00000aacb362&
acdnat=1432085054_8ab1c4f9e4784c7ec50c5ee1126cf6f3.
[67] U. Weidner and W. Förstner, “Towards automatic building extraction from high-
resolution digital elevation models,” ISPRS Journal of Photogrammetry and Remote
Sensing, vol. 50, pp. 38–49, Agosto 1995. http://ac.els-cdn.com/092427169598236S/
1-s2.0-092427169598236S-main.pdf?_tid=0ce87996-29d1-11e5-9cc0-00000aacb360&
acdnat=1436841534_c60a741fdcd624c771b52c99d11fca23.
[68] W. Eckstein and O. Muenkelt, “Extracting objects from digital terrain models,” in SPIE’s
1995 International Symposium on Optical Science, Engineering, and Instrumentation, pp. 43–
51, International Society for Optics and Photonics, Agosto 1995. http://citeseerx.ist.
psu.edu/viewdoc/download?doi=10.1.1.27.765&rep=rep1&type=pdf.
90 REFERENCIAS
[70] K. Zhang and D. Whitman, “Comparison of three algorithms for filtering airborne Li-
DAR data,” Photogrammetric Engineering and Remote Sensing, vol. 71, pp. 313–324, Febre-
ro 2005. http://www.researchgate.net/publication/242705839_Comparison_of_Three_
Algorithms_for_Filtering_Airborne_Lidar_Data.
[71] R. A. Haugerud and D. J. Harding, “Some algorithms for virtual deforestation (vdf) of LiDAR
topographic survey data,” International Archives of Photogrammetry Remote Sensing and
Spatial Information Sciences, vol. 34, pp. 211–218, Octubre 2001. http://www.isprs.org/
proceedings/XXXIV/3-W4/pdf/Haugerud.pdf.
[72] G. Vosselman, “Slope based filtering of laser altimetry data,” International Ar-
chives of Photogrammetry and Remote Sensing, vol. XXXIII, Mayo 2000. http:
//www.lr.tudelft.nl/fileadmin/Faculteit/LR/Organisatie/Afdelingen_en_
Leerstoelen/Afdeling_RS/Optical_and_Laser_Remote_Sensing/Research/Research_
Fields/Airborne_laser_scanning/doc/vosselmanfiltering.pdf.
[74] X. Meng, L. Wang, J. L. Silvan, and N. Currit, “A multi-directional ground filtering al-
gorithm for airborne LiDAR,” ISPRS Journal of Photogrammetry and Remote Sensing,
vol. 1, pp. 117–124, Octubre 2009. http://www.sciencedirect.com/science/article/pii/
S0924271608000956.
[75] M. Kass, A. Witkin, and D. Terzopoulos, “Snakes: active contour models,” International
Journal of Computer Vision, vol. 1, pp. 321–331, Enero 1988. http://link.springer.com/
content/pdf/10.1007%2FBF00133570.pdf.
REFERENCIAS 91
[76] L. D. Cohen and I. Cohen, “Finite-element methods for active contour models and balloons
for 2-d and 3-d images,” Pattern Analysis and Machine Intelligence, IEEE Transactions on,
vol. 15, pp. 1131–1147, Noviembre 1993. http://ieeexplore.ieee.org/stamp/stamp.jsp?
tp=&arnumber=244675.
[77] R. Ma, “DEM generation and building detection from LiDAR data,” Photogrammetric En-
gineering and Remote Sensing, vol. 71, pp. 847–854, Julio 2005. http://info.asprs.org/
publications/pers/2005journal/july/2005_july_847-854.pdf.
[78] J. Zhang, L. Li, Q. Lu, and W. Jiang, “Contour clustering analysis for building reconstruc-
tion from LiDAR data,” in Proceedings of The XXI Congress the International Society for
Photogrammetry and Remote Sensing, pp. 355–360, Marzo 2008.
[79] M. Elmqvist, “Ground surface estimation from airborne laser scanner data using active shape
models,” International Archives of Photogrammetry Remote Sensing and Spatial Informa-
tion Sciences, vol. 34, pp. 114–118, Marzo 2002. http://citeseerx.ist.psu.edu/viewdoc/
download?doi=10.1.1.222.4566&rep=rep1&type=pdf.
[81] N. Polat and M. Uysal, “Investigating performance of airborne LiDAR data filtering al-
gorithms for DTM generation,” Measurement, vol. 63, pp. 61–68, Marzo 2015. http:
//www.sciencedirect.com/science/article/pii/S0263224114006149.
[82] P. Axelsson, “DEM generation from laser scanner data using adaptive TIN models,” Inter-
national Archives of Photogrammetry and Remote Sensing, vol. 33, pp. 111–118, Enero 2000.
http://www.isprs.org/proceedings/XXXIII/congress/part4/111_XXXIII-part4.pdf.
http://www.sciencedirect.com/science/article/pii/S0924271604000140/pdfft?
md5=da5871ec0daaf33dda53358337286b1c&pid=1-s2.0-S0924271604000140-main.pdf.
[84] K. Kraus and N. Pfeifer, “Advanced DTM generation from LiDAR data,” International Archi-
ves Of Photogrammetry Remote Sensing And Spatial Information Sciences, vol. 34, pp. 23–30,
Octubre 2001. http://www.isprs.org/proceedings/XXXIV/3-W4/pdf/Kraus.pdf.
[85] C. Briese and N. Pfeifer, “Airborne laser scanning and derivation of digital terrain mo-
dels,” in Fifth Conference on Optical, vol. 3, 2001. http://www.lidar.com.br/arquivos/
airbornels_dem.pdf.
[86] W. Schickler and A. Thorpe, “Surface estimation based on LiDAR,” in Proceedings of the
ASPRS Annual Conference, pp. 23–27, 2001. http://www.researchgate.net/publication/
242072743_SURFACE_ESTIMATION_BASED_ON_LIDAR.
[87] K. Kraus and W. Rieger, “Processing of laser scanning data for wooded areas,” in Photo-
grammetric Week, vol. 99, pp. 221–231, Citeseer, 1999. http://www.ifp.uni-stuttgart.
de/publications/phowo99/kraus.pdf.
[88] K. Kraus and N. Pfeifer, “Determination of terrain models in wooded areas with airborne laser
scanner data,” ISPRS Journal of Photogrammetry and Remote Sensing, vol. 53, no. 4, pp. 193–
203, 1998. http://www.sciencedirect.com/science/article/pii/S0924271698000094.
[89] N. Pfeifer, A. Kostli, and K. Kraus, “Interpolation and filtering of laser scanner data - imple-
mentation and first results,” In: International Archives of Photogrammetry and Remote Sen-
sing, vol. XXXII, no. Part 3/1, pp. 153–159, 1998. http://www.isprs.org/proceedings/
XXXIV/3-W4/pdf/Kraus.pdf.
[90] H. S. Lee and N. H. Younan, “DTM extraction of LiDAR returns via adaptive processing,”
Geoscience and Remote Sensing, IEEE Transactions on, vol. 41, pp. 2063–2069, Septiembre
2003. http://ieeexplore.ieee.org/stamp/stamp.jsp?arnumber=1232220.
[91] I. C. Briggs, “Machine contouring using minimum curvature,” Geophysics, vol. 39, pp. 39–
48, Febrero 1974. http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.460.
1070&rep=rep1&type=pdf.
REFERENCIAS 93
[92] R. Jain, R. Kasturi, and B. G. Schunck, Machine Vision, vol. 5. McGraw-Hill, New York,
1995.
[93] S. Zheng, W. Shi, J. Liu, and G. Zhu, “Facet-based airborne light detection and ranging
data filtering method,” Optical Engineering, vol. 46, pp. 066202–066202, Junio 2007. http:
//opticalengineering.spiedigitallibrary.org/article.aspx?articleid=1088319.
[94] K. Zakšek, N. Pfeifer, and Z. S. IAPŠ, “An improved morphological filter for selecting relief
points from a LiDAR point cloud in steep areas with dense vegetation,” Luubljana, Slovenia
and Innsbruck, Austria: Institute of Anthropological and Spatial Studies, Scientific Research
Centre of the Slovenian Academy of Sciences and Arts, and Institute of Geography, Inns-
bruck University, Junio 2006. http://iaps.zrc-sazu.si/sites/default/files/Zaksek_
Pfeifer_ImprMF.pdf.
[95] D. Mongus and B. Zalik, “Computationally efficient method for the generation of a digital
terrain model from airborne LiDAR data using connected operators,” IEEE Journal of Selected
Topics in Applied Earth Observations and Remote Sensing, vol. 7, pp. 340–351, Enero 2014.
http://ieeexplore.ieee.org/stamp/stamp.jsp?arnumber=6521401.
[96] M. Bartels and H. Wei, “Threshold-free object and ground point separation in
LIDAR data,” Pattern Recognition Letters, vol. 31, pp. 1089–1099, Marzo 2010.
http://ac.els-cdn.com/S0167865510000887/1-s2.0-S0167865510000887-main.
pdf?_tid=2f2cf066-ff58-11e4-938a-00000aab0f02&acdnat=1432171674_
3af59864d46570f2027bdc0d59514be3.
[97] Q. Wang, L. Wu, Z. Xu, H. Tang, R. Wang, and F. Li, “A progressive morphological filter
for point cloud extracted from UAV images,” in Geoscience and Remote Sensing Symposium
(IGARSS), pp. 2023–2026, IEEE, Julio 2014.
[98] T. T. Vu, F. Yamazaki, and M. Matsuoka, “Multi-scale solution for building extraction from
LiDAR and image data,” International Journal of Applied Earth Observation and Geoin-
formation, vol. 11, pp. 281–289, Agosto 2009. http://www.sciencedirect.com/science/
article/pii/S0303243409000257.
94 REFERENCIAS
[99] Y. Wang, H. Weinacker, and B. Koch, “A LiDAR point cloud based procedure for vertical
canopy structure analysis and 3d single tree modeling in forest,” Sensors, vol. 8, pp. 3938–
3951, 2008. http://www.mdpi.com/1424-8220/8/6/3938/htm.
[100] G. Sithole, “Filtering of laser altimetry data using a slope adaptive filter,” International
Archives of Photogrammetry and Remote Sensing, vol. XXXIV, Octubre 2001. http://www.
isprs.org/proceedings/XXXIV/3-W4/pdf/Sithole.pdf.
[101] J. Kilian, N. Haala, and M. Englich, “Capture and evaluation of airborne laser scanner data,”
in: International Archives of Photogrametry and Remote Sensing, vol. XXXI, pp. 540–547,
1996. http://www.isprs.org/proceedings/XXXI/congress/part3/383_XXXI-part3.pdf.
[104] T. Fawcett, “An introduction to roc analysis,” Pattern Recognition Letters, vol. 27,
pp. 861–874, Junio 2006. http://www.sciencedirect.com/science/article/pii/
S016786550500303X.
[106] J. R. Landis and G. G. Koch, “The measurement of observer agreement for categorical data,”
Biometrics, vol. 33, pp. 159–174, Marzo 1977. http://www.jstor.org/stable/2529310?
seq=1#page_scan_tab_contents.
[108] “Fugro geospatial: Fugro viewer,” 2015. [En línea]. Disponible en:
http://www.fugroviewer.com/. http://www.fugroviewer.com/.
[109] “SAGA: System for automated geoscientific analyses,” 2015. [En línea]. Disponible en:
http://www.saga-gis.org/. http://www.saga-gis.org/.
REFERENCIAS 95
[110] “Google Earth,” 2015. [En línea]. Disponible en: https://www.google.com.mx/maps. https:
//www.google.com.mx/maps.
[111] “Blue marbel geographics: Global Mapper,” 2015. [En línea]. Disponible en:
http://www.bluemarblegeo.com/products/global-mapper.php 2015. http://www.
bluemarblegeo.com/products/global-mapper.php.
[112] “Exelis: ENVI,” 2015. [En línea]. Disponible en: http://www.exelisvis.com/. http://www.
exelisvis.com/ProductsServices/ENVIProducts/ENVI.aspx.
[113] G. Vosselman, “ISPRS test on extracting DEMs from point clouds: A comparison of existing
automatic filters,” International Society for Photogrametry and Remote Sensing, vol. XXXIII,
Octubre 2003. http://www.itc.nl/isprswgIII-3/filtertest/Report05082003.pdf.
96 REFERENCIAS