Está en la página 1de 119

EDUCACIÓN

CONSERVACIÓN
D ET

INNOVACIÓN
INSTITUTO POLITÉCNICO NACIONAL

EC
CI
Centro de Innovación y Desarrollo Tecnológico en Cómputo

Tesis

Extracción de los Modelos Digitales y Reconocimiento de Formas en


Datos LiDAR

que para obtener el grado de

Maestría en Tecnología de Cómputo

presenta:

Ing. Isis Tatiana Galván García

Directores:

Dra. Hind Taud


Dr. Juan Carlos Herrera Lozada

México, D.F.
Julio de 2015
2
4
6
Resumen

En este trabajo de investigación se presentan técnicas de procesamiento de nube de puntos


LiDAR para su clasificación en dos tipos: terreno y no terreno.
La información de los puntos es procesada en dos etapas: la primera se refiere a la rasterización
de los datos LiDAR y su interpolación por la técnica de vecino más cercano para la obtención
del Modelo Digital de Superficie; la segunda etapa es el núcleo de esta investigación en donde se
implementa un algoritmo de morfología con la operación de apertura para separar los puntos en
terreno y no terreno. Como resultado de esta operación se obtiene el Modelo Digital del Terreno;
la diferencia entre este modelo y el Modelo Digital de Superficie nos permite determinar el Modelo
Digital de Superficie normalizado, y al mismo tiempo, la eliminación de valores atípicos de elevación
muy altos o muy bajos.
La base de datos utilizada se obtuvo de la Sociedad Internacional de Fotogrametría y Percepción
Remota. La evaluación de los resultados se realizó a partir del coeficiente Kappa y los coeficientes
de errores estimados a partir de la matriz de confusión.
En base a la comparación con trabajos previos de investigación, se observa que la totalidad de
los resultados del algoritmo propuesto se mantienen por debajo del Error Total máximo, menores
al promedio del Error Total y en 3 de los productos se obtuvo el mejor desempeño.

I
II
Abstract

In this research, different techniques for LiDAR point-clouds processing are presented, for the
classification of this kind of data in two types: terrain and non-terrain. The information of these
points is processed in two stages: the first one correspond to the rasterization of LiDAR data and
their interpolation by the nearest-neighbor technique, in order obtain the Digital Surface Model.
In the second step, a morphology algorithm is implemented to separate the points into terrain
and non-terrain using the opening operation; this task is the base for this research project. As a
result of this operation the Digital Terrain Model is obtained; the difference between this Model
and the Digital Surface Model is applied to generate the normalized Digital Surface Model, with
the elimination of outliers in the same operation. The database used for this research was obtained
from the International Society for Photogrammetry and Remote Sensing. The evaluation of results
was carried out using the Kappa coefficient and the error coefficients estimated from the confusion
matrix. The results generated with the proposed technique were compared to the ones corresponding
to previous research in this area; from their analysis it can be seen that the totality of these results
stand under both the maximum Total Error and the average Total Error, and three of the products
surpassed the best performance previously obtained by any method.

III
IV
Agradecimientos

A Dios, cuya Presencia siempre me acompaña por medio de las circunstancias que me han
llevado hasta este punto.

A mi familia: mi madre Martha por ser una mujer fuerte y llena de fé que me ha apoyado en
cada etapa de mi vida; a mis abuelos Martín (q.e.p.d.) y Josefina por sus oraciones; a mis tíos:
José Luis por su presencia y responsabilidad a toda prueba, Francisco porque desde pequeña
me ha enseñado el valor de enfrentar retos, Ma. del Refugio por estar siempre, Mary por sus
sabios consejos, Carmela por ser el apoyo de la hermana mayor, Martín por su ejemplo en
perseverar en las metas, Enrique por compartirnos su sonrisa y buen ánimo; a mis primos por
el ánimo que me han dado. En suma, a todos por su presencia que ha sido de valioso apoyo
en este proyecto.

A mis directores de tesis: Dra. Hind Taud y Dr. Juan Carlos Herrera Lozada por compartir
sus consejos y conocimientos en esta investigación.

A mi jurado de tesis: Dra. Magdalena Marciano Melchor por el apoyo con su valioso tiempo
y apoyo en mejorar este documento con sus sugerencias; Dr. Rolando Flores Carapia, M.
Viridiana Hernández Herrera, M. Jesús Antonio Álvarez Cedillo por sus comentarios en este
trabajo de tesis.

A mis maestros: M. Miguel Hernández Bolaños, M. Juan Carlos González Robles, Dr. Víc-
tor Manuel Silva García, Dr. Gabriel Sepúlveda Cervantes por su apoyo y por compartir su
experiencia de vida profesional en este tiempo de aprendizaje.

A los administrativos de CIDETEC: Lic. Sandra, Lic. Silvia, Lic. Shary, Lic. Elvia por re-
afirmar con su apoyo la calidad humana y profesional en las gestiones de este Centro de
Investigación.

V
VI

Al Politécnico, a la Secretaría de Investigación y Posgrado, por su programa de becas BEIFI


y al CIDETEC en una de las mejores etapas de mi vida académica.

A mis colegas y amigos por tener siempre una palabra de ánimo, una sonrisa a lo largo del
trayecto de la maestría.

Al CONACyT, por el apoyo académico y económico por el cual fue posible la culminación de
este trabajo.

A todas y cada una de las personas que he tenido el gusto de conocer que han enriquecido mi
vida. Gracias!
Índice general

Resumen I

Abstract III

Agradecimientos V

Indice de tablas XII

Indice de figuras XVI

Indice de algoritmos XVII

1. Introducción 1
1.1. Antecedentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2. Tecnología LiDAR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.1. Tipos de LiDAR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.2. Formato de Datos LiDAR . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.3. Ventajas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3. Modelos Digitales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.4. Metodologías existentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.5. Objetivos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.5.1. Objetivo General . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.5.2. Objetivos Específicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.6. Justificación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.7. Estructura de la Tesis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

VII
VIII ÍNDICE GENERAL

2. Estado del Arte 9


2.1. Clasificación de técnicas de filtraje . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2. Métodos basados en Morfología Matemática . . . . . . . . . . . . . . . . . . . . . . 13

3. Marco Teórico 17
3.1. Histograma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.2. Rasterización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.3. Interpolación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.3.1. Vecino más cercano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.4. Filtrado de Ruido . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.5. Morfología Matemática . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.5.1. Elemento estructural . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.5.2. Dilatación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.5.3. Erosión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.5.4. Apertura . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.5.5. Cierre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.5.6. Transformación Top-Hat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

4. Metodología Propuesta 25
4.1. Algoritmo de procesamiento general . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4.2. Morfología Matemática: Operación de Apertura . . . . . . . . . . . . . . . . . . . . 26
4.3. Matriz de Confusión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

5. Experimentos y resultados 37
5.1. Descripción de los datos de referencia . . . . . . . . . . . . . . . . . . . . . . . . . . 37
5.2. Recursos empleados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
5.3. Obtención de los Modelos Digitales . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
5.4. Resultados por muestra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
5.5. Comparación del Error Total del Algoritmo propuesto . . . . . . . . . . . . . . . . . 73
5.6. Comparación por tipo de escenario . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
ÍNDICE GENERAL IX

6. Conclusión y Trabajo a Futuro 79


6.1. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
6.2. Trabajo a futuro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80

Referencias 81
X ÍNDICE GENERAL
Índice de Tablas

1.1. Modelos Digitales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

4.1. Matriz de confusión y fórmulas para el cálculo de los valores [1]. . . . . . . . . . . . 31

5.1. Características de interés de las 12 muestras [1]. . . . . . . . . . . . . . . . . . . . . 38


5.2. Matriz de Confusión muestra 11 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
5.3. Matriz de Confusión muestra 12 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
5.4. Matriz de Confusión muestra 21 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
5.5. Matriz de Confusión muestra 22 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
5.6. Matriz de Confusión muestra 23 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
5.7. Matriz de Confusión muestra 24 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
5.8. Matriz de Confusión muestra 31 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
5.9. Matriz de Confusión muestra 41 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.10. Matriz de Confusión muestra 42 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
5.11. Matriz de Confusión muestra 51 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
5.12. Matriz de Confusión muestra 52 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
5.13. Matriz de Confusión muestra 53 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
5.14. Matriz de Confusión muestra 54 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
5.15. Matriz de Confusión muestra 61 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
5.16. Matriz de Confusión muestra 71 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
5.17. Comparación del Error Total del algoritmo con resultados de ISPRS Test [2] . . . . 73
5.18. Comparación del Error Total del algoritmo propuesto . . . . . . . . . . . . . . . . . 74
5.19. Comparación por tipo de escenario . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
5.20. Comparativa de los resultados con filtro y sin filtro para la remoción de valores atípicos 78

XI
XII ÍNDICE DE TABLAS
Índice de figuras

1.1. Tecnología LiDAR: GPS, IMU, satélite y estación terrestre [3]. . . . . . . . . . . . . 3

3.1. Derecha: imagen en color. Izquierda: histograma de la imagen. . . . . . . . . . . . . 18

3.2. Paso del espacio vectorial a raster. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

3.3. Elemento estructural con píxeles con valor de cero, diferente a elemento con píxeles
sin datos valor[4]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

3.4. Izquierda: imagen original. Derecha: imagen después de dilatación [4]. . . . . . . . . 21

3.5. Izquierda: imagen original. Derecha: imagen después de erosión [5]. . . . . . . . . . . 22

3.6. Izquierda: imagen original. Derecha: imagen después de la operación de apertura [6]. 23

3.7. Izquierda: imagen original. Derecha: imagen después de la operación de cierre [6]. . . 24

3.8. Transformación Top-Hat para incrementar los detalles de una imagen. De izquierda
a derecha: Imagen original, imagen después de aplicar la transformación Top-Hat
(elemento estructural circular de diámetro aproximadamente igual al de los granos),
imagen después de realce de contraste [7]. . . . . . . . . . . . . . . . . . . . . . . . . 24

4.1. Diagrama de flujo del algoritmo de procesamiento general para la obtención del MDT,
MDS y MDSn. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

4.2. Diagrama de flujo de la metodología propuesta. . . . . . . . . . . . . . . . . . . . . 30

4.3. Imagen de error. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

5.1. Sitios. Fila superior de izquierda a derecha: Sitio 1, Sitio 2, Sitio 3, Sitio 4. Fila
inferior de izquierda a derecha: Sitio 5, Sitio 6, Sitio 7 [8]. . . . . . . . . . . . . . . . 39

XIII
XIV ÍNDICE DE FIGURAS

5.2. De izquierda a derecha: archivo de referencia en formato .txt, tabla obtenida por
SAGA-GIS con valores x, y y clasificación, raster con valores de 0 para terreno y 1
para no terreno u objeto [8]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

5.3. De izquierda a derecha: formato raster con tamaño de píxel de 1 m × 1 m, imagen


de puntos por píxel, interpolación por método de vecino más cercano. . . . . . . . . 41

5.4. Izquierda: MDT. Derecha: imagen clasificada. . . . . . . . . . . . . . . . . . . . . . 41

5.5. De izquierda a derecha: MDS, MDT, MDSn. . . . . . . . . . . . . . . . . . . . . . . 42

5.6. Histograma del MDS. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

5.7. Muestra 11. Fila superior de izquierda a derecha: imagen de satélite, MDS en color,
MDS en escala de gris. Fila inferior de izquierda a derecha: imagen de referencia,
imagen clasificada, MDT. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

5.8. De izquierda a derecha: imagen sombreada, MDSn, imagen de error. . . . . . . . . . 46

5.9. Histograma del MDS. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47

5.10. Muestra 12. Fila superior de izquierda a derecha: imagen de satélite, MDS en color,
MDS en escala de gris. Fila inferior de izquierda a derecha: imagen de referencia,
imagen clasificada, MDT. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48

5.11. De izquierda a derecha: imagen sombreada, MDSn, imagen de error. . . . . . . . . . 48

5.12. Histograma del MDS. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

5.13. Muestra 21. Fila superior de izquierda a derecha: imagen de satélite, MDS en color,
MDS en escala de gris. Fila inferior de izquierda a derecha: imagen de referencia,
imagen clasificada, MDT. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

5.14. De izquierda a derecha: imagen sombreada, MDSn, imagen de error. . . . . . . . . . 50

5.15. Histograma del MDS. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51

5.16. Muestra 22. Fila superior de izquierda a derecha: imagen de satélite, MDS en color,
MDS en escala de gris. Fila inferior de izquierda a derecha: imagen de referencia,
imagen clasificada, MDT. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52

5.17. De izquierda a derecha: imagen sombreada, MDSn, imagen de error . . . . . . . . . 52

5.18. Histograma del MDS. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

5.20. De izquierda a derecha: imagen sombreada, MDSn, imagen de error. . . . . . . . . . 53


ÍNDICE DE FIGURAS XV

5.19. Muestra 23. Fila superior de izquierda a derecha: imagen de satélite, MDS en color,
MDS en escala de gris. Fila inferior de izquierda a derecha: imagen de referencia,
imagen clasificada, MDT. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54

5.21. Histograma del MDS. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55

5.22. Muestra 24. Fila superior de izquierda a derecha: imagen de satélite, MDS en color,
MDS en escala de gris. Fila inferior de izquierda a derecha: imagen de referencia,
imagen clasificada, MDT. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55

5.23. De izquierda a derecha: imagen sombreada, MDSn, imagen de error . . . . . . . . . 56

5.24. Histograma del MDS. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57

5.25. Muestra 31. Fila superior de izquierda a derecha: imagen de satélite, MDS en color,
MDS en escala de gris. Fila inferior de izquierda a derecha: imagen de referencia,
imagen clasificada, MDT. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57

5.26. De izquierda a derecha: imagen sombreada, MDSn, imagen de error. . . . . . . . . . 57

5.27. Histograma del MDS. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58

5.28. Muestra 41. Fila superior de izquierda a derecha: imagen de satélite, MDS en color,
MDS en escala de gris. Fila inferior de izquierda a derecha: imagen de referencia,
imagen clasificada, MDT. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59

5.29. De izquierda a derecha: imagen sombreada, MDSn, imagen de error. . . . . . . . . . 59

5.30. Histograma del MDS. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60

5.31. Muestra 42. Fila superior de izquierda a derecha: imagen de satélite, MDS en color,
MDS en escala de gris. Fila inferior de izquierda a derecha: imagen de referencia,
imagen clasificada, MDT. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60

5.32. De izquierda a derecha: imagen sombreada, MDSn, imagen de error. . . . . . . . . . 60

5.33. Histograma del MDS. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61

5.34. Muestra 51. Fila superior de izquierda a derecha: imagen de satélite, MDS en color,
MDS en escala de gris. Fila inferior de izquierda a derecha: imagen de referencia,
imagen clasificada, MDT. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62

5.35. De izquierda a derecha: imagen sombreada, MDSn, imagen de error. . . . . . . . . . 62

5.36. Histograma del MDS. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63


XVI ÍNDICE DE FIGURAS

5.37. Muestra 52. Fila superior de izquierda a derecha: imagen de satélite, MDS en color,
MDS en escala de gris. Fila inferior de izquierda a derecha: imagen de referencia,
imagen clasificada, MDT. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
5.38. De izquierda a derecha: imagen sombreada, MDSn, imagen de error. . . . . . . . . . 64
5.39. Histograma del MDS. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
5.40. Muestra 53. De izquierda a derecha, superior: imagen de satélite, MDS en color, MDS
en escala de gris; inferior: imagen de referencia de la muestra 53, imagen clasificada,
MDT. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
5.41. De izquierda a derecha: imagen sombreada, MDSn, imagen de error. . . . . . . . . . 66
5.42. Histograma del MDS. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
5.43. Muestra 54. Fila superior de izquierda a derecha: imagen de satélite, MDS en color,
MDS en escala de gris. Fila inferior de izquierda a derecha: imagen de referencia,
imagen clasificada, MDT. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
5.44. De izquierda a derecha: imagen sombreada, MDSn, imagen de error. . . . . . . . . . 68
5.45. Histograma del MDS. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
5.46. Muestra 61. Fila superior de izquierda a derecha: imagen de satélite, MDS en color,
MDS en escala de gris. Fila inferior de izquierda a derecha: imagen de referencia,
imagen clasificada, MDT. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
5.47. De izquierda a derecha: imagen sombreada, MDSn, imagen de error. . . . . . . . . . 70
5.48. Histograma del MDS. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
5.49. Muestra 71. Fila superior de izquierda a derecha: imagen de satélite, MDS en color,
MDS en escala de gris. Fila inferior de izquierda a derecha: imagen de referencia,
imagen clasificada, MDT. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
5.50. De izquierda a derecha: imagen sombreada, MDSn, imagen de error. . . . . . . . . . 72
Lista de algoritmos

1. Morfología Matemática: Apertura . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27


2. Función de Erosión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3. Función de Dilatación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
4. Obtención del Modelo Digital de Superficie normalizado . . . . . . . . . . . . . . . . 29
5. Matriz de Confusión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

XVII
Capítulo 1

Introducción

El desarrollo de los sensores láser y su posterior aplicación en la obtención de información de


puntos geoespaciales ha tenido un avance importante en las últimas décadas. Un sensor LiDAR-
LiDAR (Light Detection and Ranging, Detección y medición a través de la luz) es un dispositivo
láser que opera debajo de la altura de las nubes y obtiene datos de coordenadas geográficas y alti-
tud (nube de puntos) del terreno y los objetos, tales como estructuras urbanas, vegetación u otros
elementos para la obtención de los modelos digitales.

1.1. Antecedentes

En los años 50s se establecen los primeros principios del uso de los modelos digitales para el
tratamiento de problemas tecnológicos, científicos y militares por medio de técnicas de adquisición
de Modelos Digitales de Terreno como fotogrametría, radargrametría, digitalización cartográfica y
el uso de GPS para adquisición directa de datos [9].
El funcionamiento del láser fue desarrollado a principios de la década de 1970 en donde los
primeros sensores activos comenzaron a ser transportados por plataformas aéreas o satelitales e
investigadores comienzan a hacer uso del láser [10].
En los años 90s el LiDAR toma relevancia al ser utilizado como complemento de las imágenes
obtenidas por satélite en combinación con el muestreo de campo debido a que por sí solas tienen
limitaciones por las dificultades de la obtención de imágenes libres de nubes [11].
En la actualidad, los sistemas LiDAR abren nuevas posibilidades para el estudio de las áreas

1
2 CAPÍTULO 1. INTRODUCCIÓN

y objetos de cierta dificultad como pueden ser zonas de tipo forestal, urbano, desértico o mixto,
grandes cuerpos de agua, áreas con líneas de energía eléctrica, ruinas arqueológicas en tierra e
incluso sumergidas en el mar.

1.2. Tecnología LiDAR

Tan pronto como el láser con altas tasas de repetición de pulsos estuvo disponible en el mercado,
los sistemas de escaneo láser (o radar láser) se implementaron para la obtención de imágenes;
en referencia a éste término, se utilizan tres acrónimos: ALS (Airborne Scanning Laser), LAser
Detection and Ranging (LADAR) y Light Detection and Ranging (LiDAR); sin embargo, LiDAR
es el acrónimo comúnmente utilizado en la literatura.
El LiDAR Aerotransportado es un sistema compuesto por un sistema de posicionamiento global
GPS con el que se obtienen los datos de georeferencia (coordenadas x, y), una unidad de medición
inercial (IMU, por sus siglas en inglés) que junto con la medición del ángulo de exploración es posible
calcular la altitud (z), y el sensor láser posicionado en la base de una aeronave, mide la topografía
de la superficie de la tierra al sobrevolar un área haciendo un barrido o escaneo por medio de la
emisión de un haz de luz a los objetos en la superficie del terreno (impulsos láser); cuando el haz
de luz láser incide en el terreno o en los objetos ubicados sobre éste, la señal retorna capturando el
tiempo de retardo entre la emisión y recepción del haz de luz láser el cual se registra permitiendo
el cálculo de la distancia inclinada respecto a la superficie del terreno (Fig. 1.1).
En una superficie sólida (edificios, casas, suelo, vehículos) el haz de luz se refleja de manera
inmediata al sensor (un solo retorno), en zonas de vegetación existen varios retornos: el haz de luz
incide en la capa superior de los árboles y una parte del mismo retorna al sensor (primer retorno),
otras partes pueden pasar entre los huecos del follaje hasta chocar con algún objeto (como ramas
de árboles) y regresar (segundo retorno) y otras partes del láser siguen atravesando por lo que se
refleja en la superficie del suelo cuando la vegetación no es muy densa (tercer o cuarto retorno).
En superficies no sólidas como el agua y el vidrio, el haz de luz presenta reflexión especular,
efecto provoca que el pulso de luz láser no retorne al sensor. En algunas zonas volcánicas, en áreas
con vegetación carbonizada o asfalto de reciente colocación, el haz de luz es absorbido por lo que
no se pueden obtener datos sobre este tipo de superficies [12].
1.2. TECNOLOGÍA LIDAR 3

Fig. 1.1. Tecnología LiDAR: GPS, IMU, satélite y estación terrestre [3].

1.2.1. Tipos de LiDAR

Según la medición de los datos de altitud, se dividen en dos [13]:

1. Aerotransportado.- El sensor LiDAR se coloca en la base de una aeronave que sobrevuela un


área y escanea los objetos en tierra para medir la topografía.

Modo Batimétrico.- La batimetría se refiere a la medición de la profundidad de grandes


cuerpos de agua tales como los mares, ríos y lagos, para describir la topografía del relieve
submarino.

Modo Altimétrico.- Sensor que colecta datos de coordenadas y altitud en el terreno.

2. Terrestre.- El sensor se instala en una superficie fija (suelo) o móvil (el techo de un vehículo
automotor). Se puede obtener una alta densidad de puntos de hasta un millón por segundo con
una alta precisión de milímetros en poco tiempo. Sus aplicaciones comprenden la ingeniería
civil en estructuras como túneles, puentes y edificios.
4 CAPÍTULO 1. INTRODUCCIÓN

1.2.2. Formato de Datos LiDAR

Existen dos tipos de formato: binario y txt. LAS es un archivo binario que según la especificación
del formato estándar de la ASPRS (American Society for Photogrammetry and Remote Sensing),
versión 1.4 [14] contiene información específica de los datos LiDAR: coordenadas x, y, z, intensidad,
número de retornos, retorno, dirección del escáner, borde de la línea de vuelo y clasificación.

1.2.3. Ventajas

LiDAR es un sistema activo capaz de obtener datos denominados nube de puntos densas
(1 punto/m2 o más) y relativamente precisos del terreno (0.15 - 0.25 m en elevación y 0.3 - 1
m en planimetría para alturas de vuelo por debajo de 2 Km) en un tiempo relativamente corto [15].
LiDAR tiene ventajas como:

1. En comparación con técnicas tradicionales LiDAR es más preciso en la medición de la super-


ficie, la automatización y el tiempo de entrega rápida [16].

2. LiDAR obtiene información acerca de los objetos y la superficie del suelo [17].

3. Describe el perfil topográfico en 3D de la superficie de la Tierra debido a la penetración a


través de la copa de los árboles y la insensibilidad a las condiciones de iluminación [18].

4. La integración y actualización de información adicional es realizada con menor trabajo y


tiempo y la representación multiescalar y en diferentes resoluciones se realiza fácilmente [19].

1.3. Modelos Digitales


De los datos LiDAR se obtienen dos modelos: el Modelo Digital de Superficie (MDS) y el
Modelo Digital de Terreno (MDT) [20]. En algunos trabajos el Modelo Digital de Elevación (MDE)
corresponde al MDT o al MDS.
Según la literatura especializada, se elaboró en este trabajo de Tesis una Tabla 1.1 que contiene
las diferentes definiciones de MDS, MDT y MDSn.
1.4. METODOLOGÍAS EXISTENTES 5

Tabla 1.1. Modelos Digitales.


Brovelli Rottensteiner Vozikis Arefi Wack Chen Zhou
2002 [21] 2003 [22] 2004 [23] 2005 [24] 2005 [25] 2012 [26] 2013 [27]

- - MDSn MDSn - MDSn

MDT MDT - MDT - MDT

MDS MDT - MDS MDT MDS MDS

Según los autores mencionados en la Tabla 1.1, los modelos se pueden definir tal como se describe
a continuación:

MDE: es una representación de la elevación como una función de la ubicación geográfica.

MDT: es la información de la elevación que corresponde al terreno sin las estructuras u objetos
sobre el mismo (por ejemplo vegetación, árboles, edificios).

MDS: es la información de la elevación del terreno y objetos que se encuentran sobre el mismo.

MDSn: es el modelo resultante de la diferencia entre el MDS y el MDT. Los objetos del MDSn
están situados sobre una altura de base igual a cero.

1.4. Metodologías existentes


En esta sección se describen las técnicas existentes de filtrado divididas en 6 grupos [28]:

Segmentación/Agrupación. La segmentación clasifica un conjunto de puntos vecinos con


propiedades similares. La agrupación subdivide los datos en regiones por el conjunto de puntos
de similares características incluidos dentro de cada segmento formando bordes definidos que
forman una frontera cerrada [29].

Escaneo Direccional. La mayoría de los filtros de tierra definen el vecindario como un espacio
de dos dimensiones, pero pocos métodos calculan la pendiente y la diferencia de elevación
a lo largo de una línea de escaneo unidimensional. Shan et. al. desarrollan un algoritmo
bidireccional para eliminar puntos que no corresponden a tierra basados en la diferencia de
pendiente y elevación calculada a lo largo de la línea de escaneo [30].
6 CAPÍTULO 1. INTRODUCCIÓN

Contorno. Basado en la relación topológica y las características de las curvas de nivel son
agrupadas de forma con varios atributos: el valor de la altura de la curva de nivel, área de la
línea del contorno cerrado y la circularidad [31].

Redes de Triángulos Irregulares (Triangulated Irregular Network, TIN, por sus


siglas en inglés). El algoritmo elimina gradualmente los puntos de no terreno u objetos
basados en la diferencia de elevación y el ángulo del triángulo más cercano y genera umbrales
adaptativos basados en los puntos de tierra actualizados para cada proceso iterativo en lugar
de uno global [32].

Interpolación. Se emplea para encontrar el valor desconocido de un punto en base a la


comparación de la elevación de sus puntos más cercanos [33]; existen tres técnicas principales:
vecino más cercano, interpolación bilineal y convolución cúbica [34].

Morfología Matemática. Por medio de operaciones básicas de dilatación, erosión, apertura


y cierre [35, 36] elimina objetos que no pertenecen a tierra (edificios, automóviles, árboles,
señalización), mantiene las características del terreno [37, 38, 39] y filtra valores atípicos.

El presente trabajo de investigación está enfocado en morfología matemática por su capacidad


de preservar la superficie del terreno mientras separa los puntos de tierra y no tierra u objetos y la
remoción de valores atípicos.

1.5. Objetivos

1.5.1. Objetivo General

Aplicación de técnicas de procesamiento de imágenes para reconocimiento de formas en datos


LiDAR para la diferenciación de terreno y no terreno u objetos.

1.5.2. Objetivos Específicos

1. Procesar la nube de puntos.

2. Proyectar los puntos del espacio vectorial al espacio raster.

3. Procesar los datos raster.


1.6. JUSTIFICACIÓN 7

4. Interpolación de la imagen raster.

5. Obtener el Modelo Digital de Terreno.

6. Obtener el Modelo Digital de Superficie.

7. Obtener el Modelo Digital de Superficie normalizado.

1.6. Justificación
La extracción y análisis de datos LiDAR es la primera etapa para diversos campos de investiga-
ción, tales como elaboración de Atlas de Riesgos y Peligros, cambios climáticos, fenómenos meteo-
rológicos, desastres naturales, sismología, elaboración de catastro, estudios hidráulicos, generación
de mapas con alta precisión para diversos usos civiles y de seguridad, entre otros.

1.7. Estructura de la Tesis


El proyecto de Tesis comprende seis capítulos:

1. Introducción. Se define el objetivo general y objetivos particulares del presente tema de tesis,
antecedentes y conceptos base relacionados con la temática del proyecto.

2. Estado del Arte. Se hace mención de trabajos anteriores y sus aportes a la problemática en
la que se basa el presente proyecto.

3. Marco Teórico. Se explican las herramientas utilizadas como técnicas de rasterización, inter-
polación y algoritmos.

4. Metodología Propuesta. Se describen métodos para clasificar terreno y no terreno u objetos.

5. Resultados. Se muestran los productos obtenidos así como el rendimiento de la metodología


propuesta.

6. Conclusiones y trabajo a futuro.


8 CAPÍTULO 1. INTRODUCCIÓN
Capítulo 2

Estado del Arte

En trabajos de investigación, el término filtraje puede referirse a dos tareas distintas: 1) el


proceso de eliminar el ruido (valores atípicos) ó 2) la extracción de los puntos de no terreno u
objetos.

2.1. Clasificación de técnicas de filtraje


Para obtener el MDS a partir de LiDAR se requiere la diferenciación del terreno del no terreno u
objetos por medio del filtrado de las alturas de los objetos (árboles, edificios, entre otras estructuras)
[40].
Meng et. al. [28] divide las técnicas de filtraje en 6 grupos:

Segmentación/Agrupación. Investigaciones [41, 42, 43, 44, 45, 46, 47, 48, 49, 50, 51, 33,
52, 1] desarrollan enfoques basados en segmentación en donde clasifican un conjunto de puntos
vecinos con propiedades similares. El objetivo es atenuar el problema de los puntos indivi-
duales que se filtran erróneamente y al mismo tiempo la clasificación correcta de los puntos
vecinos que pertenecen al mismo elemento de superficie (por ejemplo, en el caso de grieta de
superficie). Trabajos como el de Sithole et. al. [15, 53] filtra la nube de puntos dividiéndola en
segmentos lisos que pueden presentar grietas de altura que son clasificados en terreno u objetos
superficiales basado en las relaciones geométricas con los segmentos de sus alrededores; Tovari
et. al. [33] se basan en crecimiento de regiones; Jacobsen [52] y Filin et. al. [54] clasifican en
grupos los datos; Jochem et. al. [48] dividen todo el conjunto de datos en varias subáreas

9
10 CAPÍTULO 2. ESTADO DEL ARTE

e identifican y fusionan las áreas potenciales que contienen edificios; Awrangjeb et. al. [44]
separan los puntos utilizando una técnica de extracción de bordes. Similar a la segmentación,
la agrupación subdivide los datos en regiones definidas por el conjunto de puntos de similares
características incluidos dentro de cada segmento [54, 43, 55, 56, 29] formando bordes defi-
nidos que construyen una frontera cerrada cuyos puntos dentro de dichas fronteras son parte
de un objeto; Brovelli [21, 57] diseña un filtro en el cual permite detectar los bordes de los
objetos de la superficie, asumiendo que un borde es un límite entre dos regiones diferentes.

Morfología. Un filtro morfológico tiene la capacidad de eliminar los objetos que no perte-
necen a tierra (edificios, automóviles, árboles, señalización) [58, 59, 60, 61, 62, 37, 38, 63,
64, 2, 65, 24, 39, 35, 66, 36, 67, 68] y filtrar valores atípicos muy grandes [58]. Este filtro
utiliza operadores básicos: dilatación, erosión, apertura y cierre [35, 36] cuya aplicación fue
desarrollada por Linderberger [69] a las mediciones del escáner láser. Weidner et. al. [67] uti-
lizan operación de apertura para obtener una aproximación del MDT y lo resta del MDS para
obtener un MDSn. Lohmann et. al. [35] trabajan sobre un filtro de rango dual [68], es decir,
la dilatación y la erosión morfológicas para definir un candidato a no terreno u objeto para
su eliminación. Sin embargo, dicha eliminación de objetos de distintas dimensiones es una
problemática común en estas investigaciones debido a que el uso de una ventana de tamaño
fijo y la selección de su tamaño es crítica [70, 39]. Arefi et. al. [24] desarrollan dilatación
geodésica y el cambio de tamaño de las ventanas para la eliminación de los puntos de no
terreno u objetos y reconstruir la superficie del terreno; Zhang et. al. [39] propone un filtro
morfológico progresivo aumentando gradualmente el tamaño de las ventanas y comparan el
algoritmo con otro filtro basado en pendiente y en la elevación con una ventana en expansión
[70] mostrando que el filtro morfológico progresivo produjo el error mínimo entre las técnicas
en las que se comparó con una mejor capacidad de preservar el límite de los objetos que son
más grandes que el tamaño de la ventana; Chen et. al. [2] emplean la operación de apertura
con un aumento gradual del tamaño de la ventana.

Escaneo Direccional. La mayoría de los filtros de tierra definen el vecindario como un espacio
de dos dimensiones [39, 70, 71, 72], pero pocos métodos calculan la pendiente y la diferencia
de elevación a lo largo de una línea de escaneo unidimensional. Shan et. al. [30] desarrollan
un algoritmo bidireccional para eliminar puntos que no corresponden a tierra basados en la
2.1. CLASIFICACIÓN DE TÉCNICAS DE FILTRAJE 11

diferencia de pendiente y elevación calculada a lo largo de la línea de escaneo, con referencia


al punto de tierra más cercano etiquetado como tierra y la etiqueta del punto anterior a
lo largo de la línea de escaneo por lo que ha demostrado ser sensible en la eliminación de
baja vegetación [73]. Sin embargo, los métodos direccionales son en ocasiones sensibles a los
cambios repentinos de superficie de tierra y crean líneas artificiales a través de las superficies
de tierra [73, 74]. Para superar este problema, Meng et. al. [73, 74] desarrollan un algoritmo
multidireccional mediante la combinación del barrido direccional con búsquedas vecinales
bidimensionales después de la transformación de las nubes de puntos en datos raster por lo
que es un método derivado de la combinación de escaneo direccional y el enfoque basado en el
núcleo de dos dimensiones que preserva la forma de los objetos, es sensible a la baja vegetación
y robusto a la selección de umbral, mejorando el problema de los métodos que se basan en la
estimación de dos dimensiones y requieren cambio de tamaños de ventana para eliminar los
objetos con diferentes tamaños [73, 74].

Contorno. El modelo de forma activa es uno de los métodos utilizados en cartografía para el
mapeo de contorno [75, 76]. Basado en la relación topológica y las características de las curvas
de nivel, Song et. al. [31] agrupan las curvas de nivel de los edificios de forma automática con
varios atributos: el valor de la altura de la curva de nivel, área de la línea del contorno cerrado
y la circularidad. Ma [77] desarrolla un algoritmo para la regularización de contornos; Zhang
et. al. [78] proponen un método para simplificar la detección y extracción de los edificios, en
los que se adoptaron en su totalidad las relaciones topológicas de los contornos de los edificios.
El método desarrollado por Elmqvist et. al. [79, 80] representa un contorno tridimensional que
funciona como una red que elimina gradualmente los puntos de no tierra u objetos basados
en medidas de fuerza tales como la gravedad y la atracción.

Redes de Triángulos Irregulares (TIN, por sus siglas en inglés). La fuerza principal
de este algoritmo radica en su capacidad para manejar superficies irregulares, característica
de áreas urbanas [81]. Haugerud [71] elimina los puntos de no tierra u objetos basado en el
suavizado del terreno utilizando dos umbrales: uno que elimina los puntos por encima del
terreno que tienen un valor alto de curvatura y otro que remueve los errores negativos. En
base a estos umbrales, el filtro etiqueta los puntos de no terreno u objetos para eliminarlos
y construye una nueva red de triángulos basado en los puntos de tierra filtrados y repite el
12 CAPÍTULO 2. ESTADO DEL ARTE

proceso de etiquetado hasta que no se eliminen más puntos; tiene errores en la eliminación de
algunos edificios más grandes que el tamaño de ventana y de baja altura. Axelsson [32, 82]
hace un estudio comparativo sobre la base de ocho algoritmos de filtrado del suelo [83] y utiliza
una superficie de red de triángulos irregulares para estimar de forma iterativa la superficie
del suelo. El algoritmo elimina gradualmente los puntos de no terreno u objetos basados en la
diferencia de elevación y el ángulo del triángulo más cercano y genera umbrales adaptativos
basados en los puntos de tierra actualizados para cada proceso iterativo en lugar de uno global.

Interpolación. El principio fundamental de los enfoques basados en interpolación es encon-


trar el valor desconocido de un punto con la comparación de la elevación de sus puntos vecinos.
Los investigadores que adoptan métodos de interpolación lineal a menudo tienen que aplicar
una estrategia de procesamiento iterativo para minimizar la influencia de puntos de no tierra
locales [35]. Trabajos como [33, 84, 85, 86, 87, 88, 89] presentan un enfoque iterativo basado en
interpolación lineal de mínimos cuadrados con un conjunto de funciones de peso adaptativo.

Los estudios han arrojado limitaciones en superficies con terreno áspero y pendientes irregu-
lares, por esto, Liu [36] y Lee et. al. [90] desarrollan una versión mejorada para un conjunto
de zonas escarpadas. Otro método opcional de interpolación es el modelo de ranura de placa
delgada (TPS, por sus siglas en inglés) [40, 91, 92] como un proceso de filtrado multiescala
iterativo cambiando el tamaño de píxel de la interpolación y mejorar la eliminación de la
vegetación baja. Otros métodos de interpolación incluyen el modelo faceta [93] y procesos
estadísticos como el método de valores mínimos [70].

De las técnicas mencionadas se describen a continuación las características de algoritmos basados


en Morfología Matemática:

Son simples y eficientes en áreas urbanas con pequeñas diferencias de elevación [2, 94].

Generan el Modelo Digital de Terreno [61].

Presentan pocos errores en la clasificación [72].

Eliminan valores atípicos (ruido) [12, 2].

Separan los puntos de tierra y no tierra u objeto manteniendo las características del terreno
[81, 95, 58, 61].
2.2. MÉTODOS BASADOS EN MORFOLOGÍA MATEMÁTICA 13

Remueven objetos de distintos tamaños (desde árboles individuales hasta grandes edificios)
[81, 95, 2, 36, 96, 97].

Por lo anterior, para clasificar los puntos en terreno y no terreno se buscará una metodología en-
focada en morfología matemática. Un estado del arte de métodos basados en morfología matemática
se presenta en la siguiente sección.

2.2. Métodos basados en Morfología Matemática

Los filtros basados en Morfología Matemática han sido empleados en distintos trabajos [12, 60,
61, 62, 37, 38, 64, 2, 24, 65, 39, 66, 72, 81, 89, 96, 97, 58, 95, 98, 99, 100, 101] en donde se utiliza
un elemento estructural para una operación de cierre o apertura, o ambas, y comparan un umbral
determinado con las diferencias de elevación entre los puntos vecinos, los cuales si están por encima
de un umbral no se consideran parte de la superficie del terreno.
Vosselman [72] emplea principalmente la operación básica de erosión de morfología matemática
en imágenes en escala de grises y utiliza las diferencias de altura entre los puntos de tierra para
determinar la función de filtro óptimo; sin embargo, tiene la limitación de aplicabilidad debido al
uso de ventanas fijas, requiere pendiente constante para un uso de filtro progresivo y la dificultad de
determinar el tamaño de la ventana para varios edificios. El trabajo de Vosselman [72] es retomado
y modificado por Sithole et. al. [100] y Roggero et. al. [29]; Sithole et. al. [100] conociendo la
limitación de aplicarse dicho método únicamente a pendientes suaves, implementa una mejora para
que el umbral pueda variar con respecto a la pendiente en donde los puntos de tierra en terreno
escarpado o irregular no se filtran, dando como resultado la reducción de errores, mientras que
Roggero et. al. [29] excluyen los puntos elevados, calculando la altura mínima y así utiliza un
umbral para clasificar los puntos en terreno y no terreno.
Un filtro morfológico progresivo propuesto por Killian et. al. [101] se basa en una serie de
operaciones de apertura morfológica en modo raster, en donde se mueve una ventana del filtro de
un tamaño determinado por todo el conjunto de datos y se identifica el punto más bajo dentro
de esa misma ventana. Se utiliza un umbral corresponde a la precisión de medida del sensor láser
utilizado (normalmente entre 20 y 30 cm). Cada punto dentro de este umbral que está por encima
de este punto más bajo se define como un punto de tierra aproximado.
14 CAPÍTULO 2. ESTADO DEL ARTE

Basado en Kilian et. al. [101], Zang et. al. [39] desarrollan un algoritmo en donde obtienen
una superficie mínima por medio de una operación matemática en donde en cada nodo de la red
se selecciona el valor mínimo más cercano. Si la diferencia de altura entre la imagen original y la
imagen de apertura está por encima de un umbral determinado, se marca como no tierra u objeto.
Este proceso aumenta gradualmente el tamaño de la ventana hasta alcanzar el tamaño del objeto
más grande a ser eliminado (por ejemplo, un edificio), y por esto los vehículos, la vegetación y los
edificios se filtran, mientras que los datos de tierra se conservan. En pruebas en áreas urbanas, tanto
montañosas como planas, este filtro obtuvo un buen desempeño ya que muestra que el filtro puede
eliminar la mayor parte de los puntos de no tierra u objetos eficazmente, coincidiendo en resultados
con [72] y [100].
Diversos investigadores trabajaron sobre el conjunto de datos de la Sociedad Internacional de
Fotogrametría y Percepción Remota (ISPRS, por sus siglas en inglés) entre los años 2002 al 2004
[8] con el objetivo de determinar el rendimiento comparativo de los filtros existentes, esto es, qué
estrategia de filtraje se trabaja y bajo qué circunstancias, determinar la sensibilidad de los algoritmos
de filtrado algoritmos bajo varias densidades de puntos y determinar problemas en el filtrado de
nubes de puntos. Se concluye que los filtros trabajan bien en terreno suave con vegetación y edificios
pero todos ellos tienen problemas con el terreno áspero y paisajes complejos urbanos, incluso más
que los problemas debido a la baja densidad de puntos.
El mayor desafío para estos métodos de filtrado basado en morfología matemática es cómo
mantener las características del terreno sin cambios durante el uso de grandes tamaños de ventana
para la apertura morfológica, como describen Chen et. al. [2] pero sin las restricciones de la pendiente
constante como Zhang et. al. [39]. Además, Chen et. al. [2] proponen métodos para rellenar los datos
faltantes como la operación morfológica de cierre y la eliminación de valores atípicos por medio de
la operación de apertura. Los resultados de las pruebas experimentales basados en el conjunto de
datos de la ISPRS [8] muestran que este método funciona bien para la mayoría de los sitios.
Una implementación de Filtro Morfológico Simple (SMRF, por sus siglas en inglés) desarrollado
por Pingel et. al. [37] es similar a Chen et. al. [2] y Zhang et. al. [39] en el uso de un elemento
estructural o ventana creciente y el umbral de pendiente.
Respecto al tamaño de ventana Pingel et. al. [37] emplean un incremento lineal hasta un tamaño
máximo especificado, y el umbral de elevación está en función de la pendiente, el tamaño máximo
de ventana y la longitud de píxel; a su vez, Zhang et. al. [39] usa cinco parámetros para controlar el
2.2. MÉTODOS BASADOS EN MORFOLOGÍA MATEMÁTICA 15

crecimiento del tamaño de la ventana y el umbral de elevación: tamaño inicial de la ventana, umbral
inicial de la diferencia de elevación, pendiente, tamaño de píxel y el umbral máximo de la diferencia
de elevación, asumiendo que la pendiente es constante. Similar a Zhang et. al., Chen et. al. utilizan
varios parámetros, en función de la eliminación de los árboles o edificios, con la diferencia respecto
a Zhang et. al. en que la pendiente no es constante.
En cuanto a la creación del MDE, como etapa previa a la interpolación, Pingel et. al. [37]
hace uso de “inpainting”, un método de reconstrucción derivado de procesamiento de imágenes
para restaurar únicamente los valores perdidos y conservar los puntos de la superficie mínima no
excluida por el filtro, mientras que Chen et. al. [2] y Zhang et. al. [39] utilizan la técnica de vecino
más cercano; Chen et. al. agregan una función para detectar y llenar áreas llamada “large wather
bodies”, esto es, basado en el hecho de que el agua por lo general tiene la elevación más baja entre
las áreas adyacentes, esta técnica consiste en encontrar las áreas de datos faltantes y llenar cada
área con la elevación más baja alrededor de ella [2].
Serna et. al. [42] propone un método de detección, segmentación y clasificación de objetos urba-
nos a partir de nubes de puntos. El procesamiento se lleva a cabo sobre las imágenes de elevación
y el resultado se reproyecta en la nube de puntos en tres pasos: 1) La tierra está segmentada y los
objetos se detectan como grietas, laderas o zanjas de la misma, 2) se procede a la segmentación de
objetos y 3) se lleva a cabo la clasificación de los objetos.
Por lo anterior, se puede deducir que estos trabajos basados en morfología matemática tienen
parámetros similares como la operación de apertura iterativa, tamaño de ventana y umbral variables,
así como la especificación de un tamaño máximo de ventana. Sin embargo, contemplan una serie de
operaciones y uso de variables, lo que hace compleja la comprensión de su metodología. Por esta
razón en este trabajo de Tesis se propone un método que toma en cuenta pocos parámetros y es
sencillo de utilizar.
16 CAPÍTULO 2. ESTADO DEL ARTE
Capítulo 3

Marco Teórico

Esta sección se centra en la descripción de los conceptos utilizados en el presente tema de Tesis
que permiten la obtención de los Modelos Digitales, la clasificación de los puntos de terreno y no
terreno u objetos.

3.1. Histograma
Los histogramas son distribuciones de frecuencia en el que se realiza la sumatoria de los píxeles
con el mismo valor para la construcción de una gráfica que representa los resultados de dicha
distribución [4, 34]. Un ejemplo de una imagen con su respectivo histograma se puede apreciar en
la Fig. 3.1 donde cada punto corresponde a la elevación del terreno. Los valores de elevación como
se muestra en el histograma van de 251.45 m a 275.03 m representados por una gama de colores
que va de azul a rojo. El azul en la imagen representa los valores de elevación más bajos y el rojo
representa los valores de elevación más altos.

17
18 CAPÍTULO 3. MARCO TEÓRICO

Fig. 3.1. Derecha: imagen en color. Izquierda: histograma de la imagen.

3.2. Rasterización

Se refiere al paso de espacio vectorial a espacio en dos dimensiones que corresponde al formato
raster o matriz. Sin embargo, algunos de los datos se pierden por lo que dichos valores de los puntos
deben ser definidos por técnicas de interpolación.

Fig. 3.2. Paso del espacio vectorial a raster.

3.3. Interpolación

Es el uso de métodos para la asignación de los valores desconocidos de los píxeles en el raster
partir de valores de otros puntos de muestra dentro del mismo formato raster.
3.4. FILTRADO DE RUIDO 19

3.3.1. Vecino más cercano

Se basa en su forma más simple, en que un píxel de valor desconocido se etiqueta mediante el
examen de los píxeles disponibles más cercanos asignando el valor del píxel más cercano al punto a
interpolar. Existen tres técnicas principales [34]:

Interpolación del vecino más cercano: Asigna el nivel de gris del píxel más cercano calculado
con una métrica tal como la distancia euclidiana al punto a interpolar.

Interpolación bilineal: Asigna al píxel interpolado un valor ponderado calculado a partir de


los cuatro píxeles más cercanos, de forma que la ponderación es mayor cuanto más cerca esté
del píxel interpolado.

Interpolación cúbica: Aplica una función bicúbica para promediar el valor de salida a partir de
los 16 (4x4) píxeles más próximos. Equivale a aplicar, en primer lugar, cuatro interpolaciones
unidimensionales horizontales entre cuatro píxeles (dos a un lado y dos a otro) y posteriormen-
te otra interpolación unidimensional, en este caso vertical, entre los cuatro valores obtenidos
anteriormente.

De las técnicas descritas anteriormente, el método usado en este trabajo es la de vecino más
cercano.

3.4. Filtrado de Ruido


Existen filtros dependiendo del tipo de ruido: para valores atípicos el filtro de la mediana re-
emplaza el píxel central por la mediana de los píxeles contenidos en la vecindad de la ventana del
filtro.
La operación de apertura de morfología matemática es un filtro utilizado para la remoción de
los puntos con valores atípicos así como para separar los puntos de terreno y no terreno.

3.5. Morfología Matemática


La morfología matemática fue desarrollada por George Matheron y Jean Serra [102] [103] y se
puede aplicar en imágenes binarias, color y en escala de grises, ésta última es el objeto de estudio
20 CAPÍTULO 3. MARCO TEÓRICO

de este trabajo de tesis. La morfología de escala de grises es una generalización de la morfología


binaria, con los operadores binarios OR y AN D sustituidos por los operadores aritméticos max y
min, como se explica a detalle en las siguientes secciones. Es un método para el análisis de imágenes,
cuyas operaciones morfológicas preservan las formas de los objetos y pueden emplearse también para
eliminar ruido, proporciona un enfoque para el procesamiento de imágenes digitales que se basa en
formas geométricas.

3.5.1. Elemento estructural

Los elementos estructurales de la morfología en escala de grises se definen como funciones 2D


con números reales (ec. 3.1) [4]:

H(i, j) ∈ R, para (i, j) ∈ Z2 (3.1)

donde

H: elemento estructural
(i, j): tamaño del elemento estructural
R: conjunto de números reales
Z2 : conjunto de números enteros

Los valores de cero influyen en el resultado y por eso los elementos estructurales distinguen entre
los píxeles que contienen 0 y los que están vacíos o que no tienen datos, como se observa en la Fig.
3.3:

Fig. 3.3. Elemento estructural con píxeles con valor de cero, diferente a elemento con píxeles sin
datos valor[4].
3.5. MORFOLOGÍA MATEMÁTICA 21

3.5.2. Dilatación

La dilatación en escala de gris I ⊕ H es definida como el máximo de los valores en H sumado


a los valores de la subimagen actual de I (ec. (3.2)) [4]:

max (3.2)
(I ⊕ H)(u, v) = (i,j)∈H {I(u + i, v + j) + H(i, j)}

donde

I: imagen original
H: elemento estructural
(i, j): tamaño del elemento estructural
(u, v): posición en la imagen

Por lo tanto, dilatación consiste en hacer un filtro de máximo con la máscara dada por la ec. 3.3

H(x, y) = H(−x, −y) (3.3)

suponiendo que el elemento estructural es simétrico respecto al origen.


En la Fig. 3.4 se puede observar una imagen es escala de gris sobre la que se aplica la operación
de dilatación con un elemento estructural de valores positivos donde la imagen resultante tiene más
brillo que la imagen original y sus detalles oscuros se reducen

Fig. 3.4. Izquierda: imagen original. Derecha: imagen después de dilatación [4].
22 CAPÍTULO 3. MARCO TEÓRICO

3.5.3. Erosión

La erosión de nivel de gris se define en la ec. 3.4 [4]:

min (3.4)
(I H)(u, v) = (i,j)∈H {I(u + i, v + j) − H(i, j)}

donde

I: imagen original
H: elemento estructural
(i, j): tamaño del elemento estructural
(u, v): posición en la imagen

Por lo tanto, erosión consiste en hacer un filtro de mínimo con la máscara dada por la ec. 3.5

H(x, y) = H(−x, −y) (3.5)

suponiendo que el elemento estructural es simétrico respecto al origen.


En la Fig. 3.5 se observa una imagen original a la que se le aplica la operación de erosión con
un elemento estructural de valores positivos, la imagen resultante es más oscura que la original y
los detalles brillantes se reducen o eliminan.

Fig. 3.5. Izquierda: imagen original. Derecha: imagen después de erosión [5].

3.5.4. Apertura

La apertura es una operación de erosión seguida de una operación de dilatación por el mismo
elemento estructural y se define mediante la ec. 3.6 [4]:
3.5. MORFOLOGÍA MATEMÁTICA 23

(I ◦ H) = (I H) ⊕ H (3.6)

Todos los elementos que son más pequeños que el tamaño del elemento estructural se filtran,
pero el resto de la imagen permanece sin cambios. También se utiliza para borrar detalles claros
que sean pequeños en comparación con el elemento estructural, manteniendo el resto de la imagen
prácticamente igual; la erosión también elimina detalles claros pero oscurece la imagen 3.6 [7].

Fig. 3.6. Izquierda: imagen original. Derecha: imagen después de la operación de apertura [6].

3.5.5. Cierre

Es la operación de dilatación seguida de erosión por un mismo elemento estructural [6, 7] y se


denota por la ec. 3.7 [4]:

(I • H) = (I ⊕ H) H (3.7)

La operación de cierre elimina (o cierra) agujeros y fisuras en las estructuras de primer plano que
son más pequeños que el elemento estructural H [4]. El cierre elimina detalles oscuros de la imagen,
dejando el resto prácticamente igual. La dilatación también elimina detalles oscuros, pero aclara la
imagen en general (Fig. 3.7) [7].

3.5.6. Transformación Top-Hat

La transformación Top-Hat se define como la diferencia entre la imagen original y la imagen


después de la operación de apertura con el elemento estructural H (ec. 3.8) [7]:

h = I − I ◦ H (3.8)
24 CAPÍTULO 3. MARCO TEÓRICO

Fig. 3.7. Izquierda: imagen original. Derecha: imagen después de la operación de cierre [6].

La operación de apertura elimina los pequeños detalles de luz en la imagen y deja las regiones más
oscuras sin modificar [7].
Si se requiere resaltar objetos oscuros sobre un fondo blanco, la definición para la transformación
Top-Hat (o en este caso, Bottom-Hat) se puede ver en la ec. 3.9 [7]:

h = I • H −I (3.9)

La diferencia entre la imagen original y la imagen de apertura resalta los detalles de la imagen
independientemente de la variación de intensidad ec. 3.8. Por lo anterior, la transformación Top-Hat
es útil para descubrir los detalles que se vuelven invisibles por iluminación o variación de sombras
(Fig. 3.8) [7].

Fig. 3.8. Transformación Top-Hat para incrementar los detalles de una imagen. De izquierda a de-
recha: Imagen original, imagen después de aplicar la transformación Top-Hat (elemento estructural
circular de diámetro aproximadamente igual al de los granos), imagen después de realce de contraste
[7].
Capítulo 4

Metodología Propuesta

En esta sección se consideran las técnicas para el procesamiento de la nube de puntos LiDAR
definido en dos etapas: la primera se trata acerca del paso del espacio vectorial a formato raster
y su interpolación para la obtención del MDS; la segunda etapa es el procesamiento central donde
se obtiene el MDT por medio de la clasificación de los puntos de tierra y no tierra u objeto, la
extracción del MDSn como resultado de la diferencia entre el MDS y el MDT, para finalizar con las
herramientas de medición de los resultados para su comparación con otros trabajos de investigación.

4.1. Algoritmo de procesamiento general


El diagrama de flujo de la estructura propuesta se muestra en la Fig. 4.1 en el que a partir de
un archivo de nube de puntos LiDAR se pasa a formato raster con un tamaño de píxel 1m × 1m,
seguido de una técnica de interpolación por medio del método de nodos vecinos lo que conlleva
a la obtención del MDS donde se aplica la operación de apertura de morfología matemática para
obtener dos productos: el MDT y la imagen clasificada, de manera que el MDSn se extrae de la
diferencia entre el MDS y el MDT.

25
26 CAPÍTULO 4. METODOLOGÍA PROPUESTA

Fig. 4.1. Diagrama de flujo del algoritmo de procesamiento general para la obtención del MDT,
MDS y MDSn.

4.2. Morfología Matemática: Operación de Apertura


En el algoritmo 1 se observa el pseudocódigo de la operación de apertura sobre una imagen de es-
cala de gris (ImagenOriginal), la definición de las iteraciones dada por k = 40, las llamadas funciones
de Erosión y Dilatación así como las imágenes resultantes ImagenAbierta e ImagenClasificada.
4.2. MORFOLOGÍA MATEMÁTICA: OPERACIÓN DE APERTURA 27

Algoritmo 1 Morfología Matemática: Apertura


Entrada: Archivo binario de imagen de nube de puntos (ImagenOriginal tabprueba_float)
Salida: Archivo de imagen filtrada con puntos de tierra de tipo raw (ImagenAbierta tab_erosion,
ImagenClasificada).
1: para k = 1 hasta 40 hacer
2: para i = k hasta lig − k hacer
3: para j = k hasta col − k hacer
4: Erosion
5: fin para
6: fin para
7: para i = k hasta lig − k hacer
8: para j = k hasta col − k hacer
9: Dilatacion
10: fin para
11: fin para
12: para i = 0 hasta lig hacer
13: para j = 0 hasta col hacer
14: ImagenOriginal[i, j] ← tab_salida[i, j]
15: fin para
16: fin para
17: para i = 0 hasta lig hacer
18: para j = 0 hasta col hacer
19: val ← tab_prueba[i, j] − tab_salida[i, j]
20: si val > umbral entonces
21: ImagenClasif icada[i, j] ← 1,0
22: fin si
23: fin para
24: fin para
25: fin para
28 CAPÍTULO 4. METODOLOGÍA PROPUESTA

Algoritmo 2 Función de Erosión


Entrada: ImagenOriginal
Salida: ImagenErosion
1: función Erosion(ImagenOriginal)
2: min ← 1000
3: para ii = i − k hasta i + k hacer
4: para jj = j − k hasta j + k hacer
5: si ImagenOriginal[ii, jj] < min entonces
6: min ← ImagenOriginal[ii, jj]
7: fin si
8: ImagenErosion[i, j] ← min
9: fin para
10: fin para

Algoritmo 3 Función de Dilatación


Entrada: ImagenErosion
Salida: ImagenApertura
1: función Dilatacion(ImagenErosion)
2: max ← −1000
3: para ii = i − k hasta i + k hacer
4: para jj = j − k hasta j + k hacer
5: si ImagenErosion[ii, jj] > max entonces
6: max ← ImagenErosion[ii, jj]
7: fin si
8: fin para
9: fin para
10: ImagenApertura[i, j] ← max
4.2. MORFOLOGÍA MATEMÁTICA: OPERACIÓN DE APERTURA 29

Algoritmo 4 Obtención del Modelo Digital de Superficie normalizado


Entrada: ImagenOriginal, ImagenApertura
Salida: ImagenSuperficien
1: para cada píxel (i,j) de la matriz ImagenOriginal e ImagenApertura hacer
2: ImagenSuperf icien[i, j] ← ImagenOriginal[i, j] − ImagenApertura[i, j]
3: fin para

El algoritmo basado en la apertura, propuesto en esta tesis, fue desarrollado en lenguaje C y


su diagrama de flujo está descrito en la Fig. 4.2. El algoritmo tiene como archivo de entrada la
ImagenOriginal obtenida de la nube de puntos LiDAR, convertida a raster con tamaño de píxel
definido de 1 m usando interpolación de vecino más cercano.
La variable k se define como el radio máximo de la ventana; debido a que se toma como referencia el
tamaño del objeto más grande a eliminar [39] en este caso, se fija en un radio de tamaño 40 que define
las iteraciones de la operación de apertura para comenzar el escaneo de la ventana creciente por
todo el conjunto de datos, con el fin de eliminar gradualmente los objetos de diferentes dimensiones
que están sobre el terreno, comenzando por radio de tamaño 1 hasta llegar al radio máximo de la
ventana que en el algoritmo 1 está representado por n.
30 CAPÍTULO 4. METODOLOGÍA PROPUESTA

Fig. 4.2. Diagrama de flujo de la metodología propuesta.


4.3. MATRIZ DE CONFUSIÓN 31

4.3. Matriz de Confusión


Dado un archivo de referencia y el archivo obtenido del algoritmo propuesto con los puntos
clasificados en tierra y no tierra, hay cuatro posibles resultados que dan lugar a una matriz de
confusión de dos por dos (también llamada una tabla de contingencia o matriz de error). Si el dato
de referencia es positivo y se clasifica como positivo, se cuenta como un verdadero positivo; si dicho
dato de referencia se clasifica como negativo, se cuenta como un falso negativo; en cambio, si el dato
de referencia es negativo y se clasifica como negativo, se cuenta como un verdadero negativo; si se
clasifica como positivo, se cuenta como un falso positivo [104].
Para obtener la matriz de confusión, el Algoritmo 5 Matriz de Confusión requiere 2 archivos de
entrada: el archivo binario de salida ImagenClasificada del Algoritmo 1 de la operación apertura y
el archivo binario Referencia con los datos correctos de clasificación de terreno y no terreno u objeto
[8], los cuales se comparan para obtener los valores a, b, c, d (Tabla 4.1) para el cálculo de la matriz
de confusión.

Tabla 4.1. Matriz de confusión y fórmulas para el cálculo de los valores [1].
Filtrado

Tierra Objeto Total

Tierra a b a+b f = a + b/e


Referencia
Objeto c d c+d g = c + d/e

Total a+c b+d e=a+b+c+d

h = a + c/e i = b + d/e

Proporción = b/c
32 CAPÍTULO 4. METODOLOGÍA PROPUESTA

Algoritmo 5 Matriz de Confusión


Entrada: ImagenClasificada, de Algoritmo 1 Apertura
Referencia, de datos de referencia ISPRS Test [8]
Salida: MatrizConfusion
ImagendeError
1: a←0
2: d←0
3: b←0
4: c←0
5: para cada píxel (i,j) de la matriz Referencia e ImagenClasificada hacer
6: vref ← valor del píxel en la posición (i, j) de la matriz Referencia
7: vclas ← valor del píxel en la posición (i, j) de la matriz ImagenClasificada
8: si vref = 0 y vclas = 0 entonces
9: a←a+1
10: ImagendeError[i, j] ← 1
11: si no, si vref = 0 y vclas = 1 entonces
12: b←b+1
13: ImagendeError[i, j] ← 2
14: si no, si vref = 1 y vclas = 0 entonces
15: c←c+1
16: ImagendeError[i, j] ← 3
17: si no, si vref = 1 y vclas = 1 entonces
18: d←d+1
19: ImagendeError[i, j] ← 4
20: fin si
21: fin para
22: Calculo_Valores
23: k ← (e ∗ (a + d)) − ((a + b) ∗ (a + c) + (c + d) ∗ (b + d))/(e ∗ e − ((a + b) ∗ (a + c) + (c + d) ∗ (b + d)))
4.3. MATRIZ DE CONFUSIÓN 33

donde

a es el total de los puntos de tierra que han sido correctamente identificados como tierra. Se
les denomina verdaderos positivos.

b es el total de los puntos de tierra que han sido incorrectamente identificados como objeto.
Se les denomina falsos positivos.

c es el total de los puntos de objeto que han sido incorrectamente identificados como tierra.
Se les denomina falsos negativos.

d es el total de los puntos de objeto que han sido correctamente identificados como objeto. Se
les denomina verdaderos negativos.

Precisión se refiere al número de objetos que fueron correctamente filtrados (clasificados) en


determinada clase y puede dividirse en precisión positiva (ec. 4.1) y precisión negativa (ec.
4.2).
a
precision positiva = (4.1)
a + c
d
precision negativa = (4.2)
d + b
e es el total de puntos probados (ec. 4.3):

e = a+ b + c + d (4.3)

Recuerdo se refiere al número de objetos de una clase que fueron reconocidos como tales, y se
divide en recuerdo positivo (ec. 4.4) y recuerdo negativo (ec. 4.5):
a
recuerdo positivo = (4.4)
a + b
d
recuerdo negativo = (4.5)
d + c
a + b, c + d son el número total de puntos de tierra y objeto en los datos de referencia,
respectivamente.

f es el valor obtenido de la división de los puntos de tierra en los datos de referencia entre los
datos filtrados (ec. 4.6):
a+ b
f = (4.6)
e
34 CAPÍTULO 4. METODOLOGÍA PROPUESTA

g es la proporción de los puntos de objeto en los datos de referencia en relación a los datos
probados (ec. 4.7):

c + d
g = (4.7)
e

h es la proporción de los puntos de tierra en los datos filtrados en relación a los datos probados
(ec. 4.8):

a + c
h = (4.8)
e

i es la proporción de los puntos de objeto en los datos filtrados en relación a los datos probados
(ec. 4.9):

b + d
i = (4.9)
e

La comparación de f, g, h e i muestra el cambio en la composición de los datos por los errores


de Tipo I y Tipo II.

Proporción es la proporción del número de errores de Tipo I y Tipo II. Este valor muestra el
sesgo hacia los errores de Tipo I y Tipo II (ec. 4.10):

b
P roporcion = (4.10)
c

El Error Tipo I es cuando se clasifican los puntos correspondientes a tierra como puntos de
objetos (ec. 4.11):

b
Error T ipo I = (4.11)
a + b

El Error Tipo II sucede cuando se clasifican los puntos de objetos como puntos de tierra (ec.
4.12):

c
Error T ipo II = (4.12)
c + d

El Error Total es la suma del Error Tipo I y el Error Tipo II (ec. 4.13):

b + c
Error T otal = (4.13)
e
4.3. MATRIZ DE CONFUSIÓN 35

De la matriz de confusión se obtiene la imagen de error, como se observa en la Fig. 4.3 que
representa en un color determinado cada uno de los píxeles que corresponden a tierra (blanco),
objetos (gris), Error Tipo I (azul) y Error Tipo II (rojo).

Fig. 4.3. Imagen de error.

De los valores obtenidos de la tabla matriz de confusión se obtiene el cálculo del coeficiente
Kappa descrito a continuación.
Coeficiente Kappa
El coeficiente Kappa (κ) se utiliza como una medida de concordancia entre las predicciones del
modelo y la realidad [105]; se calcula con la ec. 4.14:,

e × (a + d) − ((a + b) × (a + c) + (c + d) × (b + d))
κ= (4.14)
e2 − ((a + b) × (a + c) + (c + d) × (b + d))

Landis et. al. [106] propusieron unos límites para el grado de concordancia estimado con el
resultado del cálculo de κ donde:

< 0: Pobre
0.0 − 0.2: Leve
0.2 − 0.4: Aceptable
0.4 − 0.6: Moderada
0.6 − 0.8: Considerable
0.8 − 1.0: Muy buena
36 CAPÍTULO 4. METODOLOGÍA PROPUESTA

Del archivo de datos LiDAR los cuales son descritos en el Capítulo 5 correspondiente a Experi-
mentos y resultados de este trabajo de tesis, se obtiene el valor de la densidad como se explica en
la parte siguiente.
Densidad
La Densidad se obtiene mediante la división de los puntos totales entre el área de los datos:

P
Densidad = (4.15)
S

donde

P : cantidad de puntos LiDAR

S: área en m2
Capítulo 5

Experimentos y resultados

En el presente capítulo se describen las técnicas aplicadas a la base de datos de referencia


utilizada, la medición del rendimiento por medio de la matriz de confusión y el cálculo del coeficiente
κ, su comparativa con otros trabajos de la literatura especializada y el análisis general y específico
por cada muestra.

5.1. Descripción de los datos de referencia


La base de datos utilizada, Test on Extracting DEMs from point clouds, fue obtenida por
parte de la ISPRS [8] del centro de la ciudad de Stuttgart en Alemania. Esta ciudad fue elegida
por investigadores [1] debido a su diversidad de características (campos abiertos, vegetación como
arbustos de menos de un metro de altura, edificios con diferente tamaño y forma, caminos, paredes
cortas a lo largo de las calzadas, bordes de corte de la colina, ferrocarriles, ríos, puentes, áreas
combinadas con terrenos bajos y altos, líneas eléctricas, superficies de agua). En la Tabla 5.1 se
pueden observar la enumeración de características correspondientes a cada muestra de la base de
datos asignada a un sitio.

37
38 CAPÍTULO 5. EXPERIMENTOS Y RESULTADOS

Tabla 5.1. Características de interés de las 12 muestras [1].

Sitio Muestra Características de interés

Muestra 11 Vegetación y edificios con pendientes pronunciadas


Sitio 1
Muestra 12 Objetos pequeños (automóviles)

Muestra 21 Puente estrecho

Muestra 22 Puente (suroeste) / pasillo (noreste)


Sitio 2
Muestra 23 Edificios complejos, edificios grandes, zona de terreno cerrada por edificios

Muestra 24 Rampa

Sitio 3 Muestra 31 Zona de terreno cerrada por edificios, puntos bajos, influencia de puntos bajos

Muestra 41 Grupo de puntos bajos


Sitio 4
Muestra 42 Objetos alargados, baja (objetos) y alta variación en el paisaje

Muestra 51 Vegetación en pendiente

Muestra 52 Baja vegetación, ladera, cresta aguda, zanjas


Sitio 5
Muestra 53 Preservación de ladera, cresta aguda, zanjas

Muestra 54 Edificios de baja resolución

Sitio 6 Muestra 61 Grieta

Sitio 7 Muestra 71 Preservación de ladera, cresta aguda, zanjas (edificio)

La información de los datos LiDAR está separada en siete sitios de tipo urbano y rural (Fig.
5.1) divididos en 15 muestras en formato txt (Fig. 5.3) con datos de coordenadas geográficas UTM
(cuadrícula Universal Transversa de Mercator, el cual es un sistema de coordenadas en metros que
describe la posición en un mapa), elevación y clasificación de cada punto LiDAR en tierra y no
tierra u objetos, con un espacio entre puntos de 1 a 1.5 m en los datos urbanos y entre 2 y 3.5 m
en las áreas rurales [8].
5.1. DESCRIPCIÓN DE LOS DATOS DE REFERENCIA 39

Fig. 5.1. Sitios. Fila superior de izquierda a derecha: Sitio 1, Sitio 2, Sitio 3, Sitio 4. Fila inferior de
izquierda a derecha: Sitio 5, Sitio 6, Sitio 7 [8].

Fig. 5.2. De izquierda a derecha: archivo de referencia en formato .txt, tabla obtenida por SAGA-
GIS con valores x, y y clasificación, raster con valores de 0 para terreno y 1 para no terreno u objeto
[8].

Para realizar un comparativo de rendimiento del algoritmo propuesto se realizó la rasterización de


los datos de referencia (x, y y clasificación) con el uso del software SAGA-GIS para su comparación
punto a punto con el archivo de clasificación obtenido del algoritmo de apertura.
40 CAPÍTULO 5. EXPERIMENTOS Y RESULTADOS

5.2. Recursos empleados


En esta sección se describen las herramientas de software empleadas para la visualización, pro-
cesamiento de los datos LiDAR y la implementación del algoritmo propuesto.

Dev-C/C++: entorno de desarrollo integrado (IDE, por sus siglas en inglés) para programar
en lenguaje C, empleado para la implementación del algoritmo propuesto [107].

FugroViewer: programa diseñado para el uso de datos geoespaciales basados en raster y vec-
tores [108].

SAGA-GIS (por sus siglas en inglés): sistema de información geográfica libre y de código
abierto para la edición de datos espaciales que contiene un conjunto de métodos geocientíficos
[109].

Google Earth: programa informático para visualizar cartografía con base en la fotografía
satelital, fotografías aéreas e información geográfica [110].

Global Mapper 12: sistema de información geográfica (GIS, por sus siglas en inglés) que maneja
datos de tipo vector, raster y elevación [111].

ENVI: programa para el análisis de imágenes geoespaciales, satélite y fotografías aéreas [112].

5.3. Obtención de los Modelos Digitales


Para la obtención del MDS se muestra en la Fig. 5.3 el proceso del paso del formato vectorial a
raster para obtener la matriz de elevación y el resultado de la interpolación por método de vecino
más cercano. Cabe destacar que en la matriz de elevación si dos o más valores se encuentran en un
mismo píxel se toma el valor de la elevación más baja.
5.3. OBTENCIÓN DE LOS MODELOS DIGITALES 41

Fig. 5.3. De izquierda a derecha: formato raster con tamaño de píxel de 1 m × 1 m, imagen de
puntos por píxel, interpolación por método de vecino más cercano.

Derivado del algoritmo propuesto se obtiene el MDT (Fig. 5.4) así como la clasificación de los
puntos correspondientes a terreno (Fig. 5.4) y no terreno u objeto.

Fig. 5.4. Izquierda: MDT. Derecha: imagen clasificada.

En cuanto a MDSn, se obtiene de la diferencia del MDS que contiene la información de los
valores de elevación de todos los puntos, y el MDT que contiene únicamente los valores de elevación
del terreno como se puede ver en la Fig. 5.5.
42 CAPÍTULO 5. EXPERIMENTOS Y RESULTADOS

Fig. 5.5. De izquierda a derecha: MDS, MDT, MDSn.

5.4. Resultados por muestra


Para cada muestra se define el tamaño de píxel, el tamaño de la imagen, el umbral determinado,
radio máximo de la ventana, densidad y se muestran los resultados del filtro morfológico por medio
de la matriz de confusión y κ, así como el histograma del MDS, imagen de satélite, MDS en color,
MDS en escala de gris, imagen de referencia, imagen clasificada y MDT:

muestra 11 (Fig. 5.6, Fig. 5.7, Fig. 5.8, Tabla 5.2).


muestra 12 (Fig. 5.9, Fig. 5.10, Fig. 5.11, Tabla 5.3).
muestra 21 (Fig. 5.12, Fig. 5.13, Fig. 5.14, Tabla 5.4).
muestra 22 (Fig. 5.15, Fig. 5.16, Fig. 5.17, Tabla 5.5).
muestra 23 (Fig. 5.18, Fig. 5.19, Fig. 5.20, Tabla 5.6).
muestra 24 (Fig. 5.21, Fig. 5.22, Fig. 5.23, Tabla 5.7).
muestra 31 (Fig. 5.24, Fig. 5.25, Fig. 5.26, Tabla 5.8).
muestra 41 (Fig. 5.27, Fig. 5.28, Fig. 5.29, Tabla 5.9).
muestra 42 (Fig. 5.30, Fig. 5.31, Fig. 5.32, Tabla 5.10).
muestra 51 (Fig. 5.33, Fig. 5.34, Fig. 5.35, Tabla 5.11).
muestra 52 (Fig. 5.36, Fig. 5.37, Fig. 5.38, Tabla 5.12).
muestra 53 (Fig. 5.39, Fig. 5.40, Fig. 5.41, Tabla 5.13).
muestra 54 (Fig. 5.42, Fig. 5.43, Fig. 5.44, Tabla 5.14).
5.4. RESULTADOS POR MUESTRA 43

muestra 61 (Fig. 5.45, Fig. 5.46, Fig. 5.47, Tabla 5.15).


muestra 71 (Fig. 5.48, Fig. 5.49, Fig. 5.50, Tabla 5.16).

Los resultados de la matriz de confusión se reflejan en la imagen de error donde los errores de
Tipo I en color azul representan los falsos positivos, los errores de Tipo II representan los falsos
negativos en color rojo, los puntos en blanco corresponden a los verdaderos positivos que es el
terreno y los puntos en gris son los verdaderos negativos que es no terreno u objeto. Se realizó una
comparación con los resultados de otros trabajos de la literatura [2].

Se presentan a continuación los experimentos y resultados para cada una de las muestras de la
base de datos.
44 CAPÍTULO 5. EXPERIMENTOS Y RESULTADOS

muestra 11: Vegetación y edificios en pendientes pronunciadas.


Las principales características de esta muestra son sus pendientes irregulares combinadas con edifi-
cios bajos (terrazas) además de la vegetación compuesta por árboles grandes y arbustos pequeños
que obstruyen parcialmente los puntos de no terreno u objetos de los edificios de altura baja lo que
hace compleja la clasificación.

Tamaño de píxel: 1 m × 1 m.
Tamaño de imagen: 130 × 282 píxeles.
Radio máximo de ventana: 8 píxeles.
Umbral: 3 m.
Densidad: 0.94 puntos/m2 .

Fig. 5.6. Histograma del MDS.


5.4. RESULTADOS POR MUESTRA 45

Fig. 5.7. Muestra 11. Fila superior de izquierda a derecha: imagen de satélite, MDS en color, MDS
en escala de gris. Fila inferior de izquierda a derecha: imagen de referencia, imagen clasificada,
MDT.
46 CAPÍTULO 5. EXPERIMENTOS Y RESULTADOS

Fig. 5.8. De izquierda a derecha: imagen sombreada, MDSn, imagen de error.

Tabla 5.2. Matriz de Confusión muestra 11

muestra 11 Filtrado
Tierra Objeto
Tierra 20139 1211 21350 56.24 % Tipo I 5.67 %
Referencia
Objeto 6748 9862 16610 43.76 % Tipo II 40.63 %
26887 11073 37960 Total 20.97 %
70.83 % 29.17 %
κ = 0.56 Proporción = 0.18
5.4. RESULTADOS POR MUESTRA 47

muestra 12: Objetos pequeños (automóviles).


La característica principal de esta muestra son los objetos de tamaño pequeño comparado con los
edificios. El algoritmo propuesto hace una clasificación respecto a los edificios, pero elimina los
objetos con tamaño menor a 22 píxeles (automóviles).

Tamaño de píxel: 1 m × 1 m.
Tamaño de imagen: 200 × 259 píxeles.
Radio máximo de ventana: 11 píxeles.
Umbral: 3 m.
Densidad: 0.97 puntos/m2 .

Fig. 5.9. Histograma del MDS.


48 CAPÍTULO 5. EXPERIMENTOS Y RESULTADOS

Fig. 5.10. Muestra 12. Fila superior de izquierda a derecha: imagen de satélite, MDS en color, MDS
en escala de gris. Fila inferior de izquierda a derecha: imagen de referencia, imagen clasificada,
MDT.

Fig. 5.11. De izquierda a derecha: imagen sombreada, MDSn, imagen de error.

Tabla 5.3. Matriz de Confusión muestra 12

muestra 12 Filtrado
Tierra Objeto
Tierra 25569 1643 27212 52.53 % Tipo I 6.03 %
Referencia
Objeto 6165 18423 24588 47.47 % Tipo II 25.07 %
31734 20066 51800 Total 15.07 %
61.26 % 38.74 %
κ = 0.70 Proporción = 0.27
5.4. RESULTADOS POR MUESTRA 49

muestra 21: Puente angosto.


En esta muestra, la característica a estudiar es dónde comienza y termina un puente. Este problema
es detectado por el Error de Tipo II al comienzo y al final de los puentes, que fueron tratados y
clasificados como objetos, es decir, Error de Tipo II como se observa en color rojo en la Fig. 5.14.
En esta muestra se presenta un error de Tipo I de 0.0 % debido a la correcta clasificación de los
puntos de terreno (Tabla 5.4).

Tamaño de píxel: 1 m × 1 m.
Tamaño de imagen: 117 × 109 píxeles.
Radio máximo de ventana: 40 píxeles.
Umbral: 3 m.
Densidad: 0.91 puntos/m2 .

Fig. 5.12. Histograma del MDS.


50 CAPÍTULO 5. EXPERIMENTOS Y RESULTADOS

Fig. 5.13. Muestra 21. Fila superior de izquierda a derecha: imagen de satélite, MDS en color, MDS
en escala de gris. Fila inferior de izquierda a derecha: imagen de referencia, imagen clasificada,
MDT.

Fig. 5.14. De izquierda a derecha: imagen sombreada, MDSn, imagen de error.

Tabla 5.4. Matriz de Confusión muestra 21

muestra 21 Filtrado
Tierra Objeto
Tierra 9284 0 9824 77.03 % Tipo I 0.00 %
Referencia
Objeto 982 1947 2929 22.97 % Tipo II 33.53 %
10806 1947 12753 Total 7.70 %
84.73 % 15.27 %
κ = 0.75 Proporción = 0.00
5.4. RESULTADOS POR MUESTRA 51

muestra 22: Puente (noroeste) / Rampa (sureste)


Similar a la escena anteriormente mencionada de la Fig. 5.13 en esta muestra existe un puente (parte
izquierda superior de la imagen de satélite en la Fig. 5.16) y una rampa (parte derecha inferior de la
imagen de satélite en la Fig. 5.16), en donde el puente se clasifica de manera correcta como objeto
según los datos de referencia.

Tamaño de píxel: 1 m × 1 m.
Tamaño de imagen: 185 × 179 píxeles.
Radio máximo de ventana: 14 píxeles.
Umbral: 3 m.
Densidad: 0.96 puntos/m2 .

Fig. 5.15. Histograma del MDS.


52 CAPÍTULO 5. EXPERIMENTOS Y RESULTADOS

Fig. 5.16. Muestra 22. Fila superior de izquierda a derecha: imagen de satélite, MDS en color, MDS
en escala de gris. Fila inferior de izquierda a derecha: imagen de referencia, imagen clasificada,
MDT.

Fig. 5.17. De izquierda a derecha: imagen sombreada, MDSn, imagen de error

Tabla 5.5. Matriz de Confusión muestra 22


muestra 22 Filtrado
Tierra Objeto
Tierra 23379 362 23741 71.69 % Tipo I 1.52 %
Referencia
Objeto 2520 6854 9374 28.31 % Tipo II 26.88 %
25899 7216 33115 Total 8.70 %
78.21 % 21.79 %
κ= 0.77 Proporción = 0.14
5.4. RESULTADOS POR MUESTRA 53

muestra 23: Edificios complejos, edificios grandes, zona de terreno cerrada por edificios
Esta muestra forma parte de las escenas complejas del conjunto de datos debido a la complejidad
de los edificios con desniveles y accesos, la rampa y la variedad en el tamaño de los edificios. Se
observa en la Fig. 5.20 que existe un error de Tipo I (parte media en color azul de la imagen de
error en la Fig. 5.16) en la rampa.

Tamaño de píxel: 1 m × 1 m.
Tamaño de imagen: 147 × 207 píxeles.
Radio máximo de ventana: 10 píxeles.
Umbral: 3 m.
Densidad: 0.83 puntos/m2 .

Fig. 5.18. Histograma del MDS.

Fig. 5.20. De izquierda a derecha: imagen sombreada, MDSn, imagen de error.


54 CAPÍTULO 5. EXPERIMENTOS Y RESULTADOS

Fig. 5.19. Muestra 23. Fila superior de izquierda a derecha: imagen de satélite, MDS en color, MDS
en escala de gris. Fila inferior de izquierda a derecha: imagen de referencia, imagen clasificada,
MDT.

Tabla 5.6. Matriz de Confusión muestra 23

muestra 23 Filtrado
Tierra Objeto
Tierra 16329 714 17043 56.01 % Tipo I 4.19 %
Referencia
Objeto 2288 11098 13386 43.99 % Tipo II 17.09 %
18617 11812 30429 Total 9.87 %
61.18 % 38.82 %
κ = 0.80 Proporción = 0.31
5.4. RESULTADOS POR MUESTRA 55

muestra 24: Desnivel.


En este escenario además de desnivel, incluye rampas las cuales fueron tratadas como terreno en los
datos de referencia. Todos los algoritmos (incluido el propuesto) filtraron la rampa de la muestra
24 como terreno. Los resultados arrojaron un porcentaje importante de error Tipo II en contraste
con el error Tipo I debido a la irregularidad en el desnivel de la parte media de esta muestra.

Tamaño de píxel: 1 m × 1 m.
Tamaño de imagen: 123 × 73 píxeles.
Radio máximo de ventana: 8 píxeles.
Umbral: 3 m.
Densidad: 0.80 puntos/m2 .

Fig. 5.21. Histograma del MDS.

Fig. 5.22. Muestra 24. Fila superior de izquierda a derecha: imagen de satélite, MDS en color, MDS
en escala de gris. Fila inferior de izquierda a derecha: imagen de referencia, imagen clasificada,
MDT.
56 CAPÍTULO 5. EXPERIMENTOS Y RESULTADOS

Fig. 5.23. De izquierda a derecha: imagen sombreada, MDSn, imagen de error

Tabla 5.7. Matriz de Confusión muestra 24

muestra 24 Filtrado
Tierra Objeto
Tierra 6319 67 6386 71.12 % Tipo I 1.05 %
Referencia
Objeto 932 1661 2593 28.88 % Tipo II 35.94 %
7251 1728 8979 Total 11.13 %
80.76 % 19.24 %
κ = 0.70 Proporción = 0.07

muestra 31: Zona de terreno cerrada por edificios, puntos bajos, influencia de puntos bajos.
En esta muestra se cuenta con algunos puntos bajos sobre todo en el centro. La dificultad en este
escenario está en la variabilidad del tamaño y altura de los edificios circundantes, el puente y los
árboles del centro del conjunto.

Tamaño de píxel: 1 m × 1 m.
Tamaño de imagen: 175 × 163 píxeles.
Radio máximo de ventana: 25 píxeles.
Umbral: 3 m.
Densidad: 1.02 puntos/m2 .
5.4. RESULTADOS POR MUESTRA 57

Fig. 5.24. Histograma del MDS.

Fig. 5.25. Muestra 31. Fila superior de izquierda a derecha: imagen de satélite, MDS en color, MDS
en escala de gris. Fila inferior de izquierda a derecha: imagen de referencia, imagen clasificada,
MDT.

Fig. 5.26. De izquierda a derecha: imagen sombreada, MDSn, imagen de error.


58 CAPÍTULO 5. EXPERIMENTOS Y RESULTADOS

Tabla 5.8. Matriz de Confusión muestra 31

muestra 31 Filtrado
Tierra Objeto
Tierra 16381 467 16848 59.06 % Tipo I 2.77 %
Referencia
Objeto 1757 9920 11677 40.94 % Tipo II 15.05 %
18138 10387 28525 Total 7.80 %
63.59 % 36.41 %
κ = 0.84 Proporción = 0.27

muestra 41: Grupo de puntos bajos.


En la muestra 41 existe un número considerable de valores atípicos bajos, aparentemente causada
por una ventana en uno de los techos y otros puntos en algunos de los edificios.

Tamaño de píxel: 1 m × 1 m.
Tamaño de imagen: 168 × 106 píxeles.
Radio máximo de ventana: 13 píxeles.
Umbral: 3 m.
Densidad: 0.64 puntos/m2 .

Fig. 5.27. Histograma del MDS.


5.4. RESULTADOS POR MUESTRA 59

Fig. 5.28. Muestra 41. Fila superior de izquierda a derecha: imagen de satélite, MDS en color, MDS
en escala de gris. Fila inferior de izquierda a derecha: imagen de referencia, imagen clasificada,
MDT.

Fig. 5.29. De izquierda a derecha: imagen sombreada, MDSn, imagen de error.

Tabla 5.9. Matriz de Confusión muestra 41

muestra 41 Filtrado
Tierra Objeto
Tierra 9306 499 9805 55.07 % Tipo I 5.09 %
Referencia
Objeto 812 7189 8001 44.93 % Tipo II 10.15 %
10118 7688 17806 Total 7.36 %
56.82 % 43.18 %
κ = 0.85 Proporción = 0.61

Muestra 42: Objetos alargados, baja (objetos) y alta variación en el paisaje. En la muestra
42 se observa una estación de ferrocarril con pocos puntos de terreno. La mayoría de los filtros
se desempeñan bien en la detección de los puntos de terreno aún con la poca cantidad de dichos
puntos. La poca variación en la pendiente del terreno permite un buen rendimiento.

Tamaño de píxel: 1 m × 1 m.
Tamaño de imagen: 228 × 204 píxeles.
Radio máximo de ventana: 25 píxeles.
60 CAPÍTULO 5. EXPERIMENTOS Y RESULTADOS

Umbral: 2.5 m.
Densidad: 0.92 puntos/m2 .

Fig. 5.30. Histograma del MDS.

Fig. 5.31. Muestra 42. Fila superior de izquierda a derecha: imagen de satélite, MDS en color, MDS
en escala de gris. Fila inferior de izquierda a derecha: imagen de referencia, imagen clasificada,
MDT.

Fig. 5.32. De izquierda a derecha: imagen sombreada, MDSn, imagen de error.


5.4. RESULTADOS POR MUESTRA 61

Tabla 5.10. Matriz de Confusión muestra 42

muestra 42 Filtrado
Tierra Objeto
Tierra 15403 1 15404 33.12 % Tipo I 0.01 %
Referencia
Objeto 1397 29711 31108 66.88 % Tipo II 4.49 %
16800 29712 46512 Total 3.01 %
36.12 % 63.88 %
κ = 0.93 Proporción = 0.07

muestra 51: Vegetación en pendiente.


En esta muestra se aprecia un terreno forestal con una gran cantidad de puntos de no terreno u
objeto. El algoritmo tuvo un buen desempeño respecto a los trabajos de los investigadores. En esta
muestra algoritmos basados en pendiente arrojan una cifra de Error Total superior al 20 %.

Tamaño de píxel: 1 m × 1 m.
Tamaño de imagen: 233 × 531 píxeles.
Radio máximo de ventana: 30 píxeles.
Umbral: 2 m.
Densidad: 0.18 puntos/m2 .

Fig. 5.33. Histograma del MDS.


62 CAPÍTULO 5. EXPERIMENTOS Y RESULTADOS

Fig. 5.34. Muestra 51. Fila superior de izquierda a derecha: imagen de satélite, MDS en color, MDS
en escala de gris. Fila inferior de izquierda a derecha: imagen de referencia, imagen clasificada,
MDT.

Fig. 5.35. De izquierda a derecha: imagen sombreada, MDSn, imagen de error.

Tabla 5.11. Matriz de Confusión muestra 51

muestra 51 Filtrado
Tierra Objeto
Tierra 75205 2299 77504 77.18 % Tipo I 2.97 %
Referencia
Objeto 5399 17520 22919 22.82 % Tipo II 23.56 %
80604 19819 100423 Total 7.67 %
80.26 % 19.74 %
κ = 0.77 Proporción = 0.43
5.4. RESULTADOS POR MUESTRA 63

muestra 52: Baja vegetación, cresta aguda.


En este tipo de muestra de zona rural cresta aguda y cambios abruptos de elevación el algoritmo
propuesto tuvo un porcentaje de Error Total bajo comparado con otros trabajos obteniendo el
segundo mejor resultado aún cuando como se observa en la imagen espacial de la Fig. 5.38 dichas
diferencias abruptas de elevación se clasificaron como errores de Tipo I, es decir, puntos de terreno
clasificados como no terreno u objetos (color azul).

Tamaño de píxel: 1 m × 1 m.
Tamaño de imagen: 451 × 302 píxeles.
Radio máximo de ventana: 8 píxeles.
Umbral: 2 m.
Densidad: 0.17 puntos/m2 .

Fig. 5.36. Histograma del MDS.


64 CAPÍTULO 5. EXPERIMENTOS Y RESULTADOS

Fig. 5.37. Muestra 52. Fila superior de izquierda a derecha: imagen de satélite, MDS en color, MDS
en escala de gris. Fila inferior de izquierda a derecha: imagen de referencia, imagen clasificada,
MDT.

Fig. 5.38. De izquierda a derecha: imagen sombreada, MDSn, imagen de error.

Tabla 5.12. Matriz de Confusión muestra 52

muestra 52 Filtrado
Tierra Objeto
Tierra 115855 3463 119318 87.60 % Tipo I 2.90 %
Referencia
Objeto 5102 11782 16884 12.40 % Tipo II 30.22 %
120957 15245 136202 Total 6.29 %
88.81 % 11.19 %
κ = 0.70 Proporción = 0.68
5.4. RESULTADOS POR MUESTRA 65

muestra 53: Preservación de cresta aguda, zanjas.


En esta muestra correspondiente a paisaje rural se observa un mayor porcentaje de puntos de terreno
en comparación con puntos de no terreno u objeto, aun con la presencia de diferencias importantes
en la elevación de algunas zonas. Cabe destacar que los errores de Tipo II fueron mayores debido
a los puntos de objeto equivalentes al 2.67 % de la muestra y su distribución en la zona lo que
deriva en que dichos puntos el algoritmo los clasifique como parte del terreno en sí. A pesar de
dichas características el algoritmo propuesto obtuvo el menor Error Total comparado con los otros
algoritmos probados en esta muestra.

Tamaño de píxel: 1 m × 1 m.
Tamaño de imagen: 451 × 474 píxeles.
Radio máximo de ventana: 2 píxeles.
Umbral: 1 m.
Densidad: 0.17 puntos/m2 .

Fig. 5.39. Histograma del MDS.


66 CAPÍTULO 5. EXPERIMENTOS Y RESULTADOS

Fig. 5.40. Muestra 53. De izquierda a derecha, superior: imagen de satélite, MDS en color, MDS en
escala de gris; inferior: imagen de referencia de la muestra 53, imagen clasificada, MDT.

Fig. 5.41. De izquierda a derecha: imagen sombreada, MDSn, imagen de error.

Tabla 5.13. Matriz de Confusión muestra 53

muestra 53 Filtrado
Tierra Objeto
Tierra 194105 1901 196006 95.94 % Tipo I 0.97 %
Referencia
Objeto 4736 3552 8288 4.06 % Tipo II 57.14 %
198841 5453 204294 Total 3.25 %
97.33 % 2.67 %
κ = 0.50 Proporción = 0.40
5.4. RESULTADOS POR MUESTRA 67

muestra 54: Edificios de baja resolución.


Para la muestra 54 referente a zona rural pero con presencia de edificios de baja altura combinada
con árboles de distintos tamaños, se utilizaron parámetros con valores bajos, como el radio de 2
píxeles y el umbral de 1 debido a los pocos cambios en la elevación. La principal característica
que influye en obtener un resultado satisfactorio es la baja altura de los edificios lo que puede
provocar que se clasifiquen como parte del terreno. Sin embargo, el algoritmo propuesto tuvo un
buen desempeño por su Error Total a sólo 0.06 % del mejor resultado para esta muestra.

Tamaño de píxel: 1 m × 1 m.
Tamaño de imagen: 187 × 268 píxeles.
Radio máximo de ventana: 2 píxeles.
Umbral: 1 m.
Densidad: 0.17 puntos/m2 .

Fig. 5.42. Histograma del MDS.


68 CAPÍTULO 5. EXPERIMENTOS Y RESULTADOS

Fig. 5.43. Muestra 54. Fila superior de izquierda a derecha: imagen de satélite, MDS en color, MDS
en escala de gris. Fila inferior de izquierda a derecha: imagen de referencia, imagen clasificada,
MDT.

Fig. 5.44. De izquierda a derecha: imagen sombreada, MDSn, imagen de error.


5.4. RESULTADOS POR MUESTRA 69

Tabla 5.14. Matriz de Confusión muestra 54

muestra 54 Filtrado
Tierra Objeto
Tierra 23180 260 23440 46.77 % Tipo I 1.11 %
Referencia
Objeto 1663 25013 26676 53.23 % Tipo II 6.23 %
24843 25273 50116 Total 3.83 %
49.57 % 50.43 %
κ = 0.92 Proporción = 0.16

muestra 61: Grieta.


En esta muestra se observa un terreno con una grieta. Sin embargo, en este caso el algoritmo del
presente trabajo de investigación obtuvo el menor Error Total comparado con otros trabajos de la
literatura especializada.

Tamaño de píxel: 1 m × 1 m.
Tamaño de imagen: 505 × 445 píxeles.
Radio máximo de ventana: 3 píxeles.
Umbral: 1 m.
Densidad: 0.16 puntos/m2 .

Fig. 5.45. Histograma del MDS.


70 CAPÍTULO 5. EXPERIMENTOS Y RESULTADOS

Fig. 5.46. Muestra 61. Fila superior de izquierda a derecha: imagen de satélite, MDS en color, MDS
en escala de gris. Fila inferior de izquierda a derecha: imagen de referencia, imagen clasificada,
MDT.

Fig. 5.47. De izquierda a derecha: imagen sombreada, MDSn, imagen de error.

Tabla 5.15. Matriz de Confusión muestra 61

muestra 61 Filtrado
Tierra Objeto
Tierra 217279 623 217902 96.96 % Tipo I 0.29 %
Referencia
Objeto 1663 5160 6823 3.04 % Tipo II 24.37 %
218942 5783 224725 Total 1.01 %
97.43 % 2.57 %
κ = 0.81 Proporción = 0.37
5.4. RESULTADOS POR MUESTRA 71

muestra 71: Preservación de ladera, cresta aguda, zanjas - edificio.


El edificio observado en este escenario corresponde a un puente con 2 rampas de acceso. El tramo
correspondiente a puente fue correctamente filtrado como objeto y una de las rampas como parte
del terreno.

Tamaño de píxel: 1 m × 1 m.
Tamaño de imagen: 396 × 222 píxeles.
Radio máximo de ventana: 9 píxeles.
Umbral: 1 m.
Densidad: 0.18 puntos/m2 .

Fig. 5.48. Histograma del MDS.

Fig. 5.49. Muestra 71. Fila superior de izquierda a derecha: imagen de satélite, MDS en color, MDS
en escala de gris. Fila inferior de izquierda a derecha: imagen de referencia, imagen clasificada,
MDT.
72 CAPÍTULO 5. EXPERIMENTOS Y RESULTADOS

Fig. 5.50. De izquierda a derecha: imagen sombreada, MDSn, imagen de error.

Tabla 5.16. Matriz de Confusión muestra 71

muestra 71 Filtrado
Tierra Objeto
Tierra 75646 2453 78099 88.84 % Tipo I 3.14 %
Referencia
Objeto 946 8867 9813 11.16 % Tipo II 9.64 %
76592 11320 87912 Total 3.87 %
87.12 % 12.88 %
κ = 0.82 Proporción = 2.59
5.5. COMPARACIÓN DEL ERROR TOTAL DEL ALGORITMO PROPUESTO 73

5.5. Comparación del Error Total del Algoritmo propuesto


En Tabla 5.17 (columna AP) se observa el valor del Error Total obtenido de la matriz de confu-
sión del presente trabajo de tesis y su comparativa con otros trabajos de la literatura especializada
(columnas Elmqvist, Sohn, Axelson, Pfeifer, Brovelli, Roggero, Wack y Sithole) [113], donde los
valores en color rojo representan el Error Total mínimo. En la muestra 11, muestra 12, muestra
22, muestra 23 y muestra 24 se presenta una mayor incidencia de errores por el filtrado de obje-
tos pequeños, desniveles, combinado con edificios complejos de distintos tamaños; en las muestras
restantes el resultado del Error Total de la metodología propuesta no supera el 8 %.

Tabla 5.17. Comparación del Error Total del algoritmo con resultados de ISPRS Test [2]
Elmqvist Sohn Axelsson Pfeiffer Brovelli Roggero Wack Sithole AP
muestra
% % % % % % % % %
1 (muestra 11) 22.40 20.49 10.76 17.35 36.96 20.80 24.02 23.25 20.97
2 (muestra 12) 8.18 8.39 3.25 4.50 16.28 6.61 6.61 10.21 15.07
3 (muestra 21) 8.53 8.80 4.25 2.57 9.30 9.84 4.55 7.76 7.70
4 (muestra 22) 8.93 7.54 3.63 6.71 22.28 23.78 7.51 20.86 8.70
5 (muestra 23) 12.28 9.84 4.00 8.22 27.80 23.20 10.97 22.71 9.87
6 (muestra 24) 13.83 13.33 4.42 8.64 36.06 23.25 11.53 25.28 11.12
7 (muestra 31) 5.34 6.39 4.78 1.80 12.92 2.14 2.21 3.15 7.8
8 (muestra 41) 8.76 11.27 13.91 10.75 17.03 12.21 9.01 23.67 7.36
9 (muestra 42) 3.68 1.78 1.62 2.64 6.38 4.30 3.54 3.85 3.01
10 (muestra 51) 23.31 9.31 2.72 3.71 22.81 3.01 11.45 7.02 7.67
11 (muestra 52) 57.95 12.04 3.07 19.64 45.56 9.78 23.83 27.53 6.29
12 (muestra 53) 48.45 20.19 8.91 12.60 52.81 17.29 27.24 37.07 3.25
13 (muestra 54) 21.26 5.68 3.23 5.47 23.89 4.96 7.63 6.33 3.83
14 (muestra 61) 35.87 2.99 2.08 6.91 21.68 18.99 13.47 21.63 1.01
15 (muestra 71) 34.22 2.20 1.63 8.85 34.98 5.11 16.97 21.83 3.86
74 CAPÍTULO 5. EXPERIMENTOS Y RESULTADOS

En la Tabla 5.18 se muestra el promedio del Error Total, el Error Total mínimo y Error Total
máximo obtenido de los resultados de los investigadores en cada una de las muestras de la Tabla
5.17 comparado con los resultados del algoritmo propuesto. Se observa lo siguiente:

En 3 de las pruebas el algoritmo propuesto es el que obtiene el mejor desempeño en la muestra


41, muestra 53 y muestra 61, 7.36 %, 3.25 % y 1.01 % respectivamente (columna minET).
El 100 % de los resultados del algoritmo propuesto se mantienen por debajo del Error Total
máximo de cada muestra (columna maxET).
El 80 % de los resultados de las muestras están por debajo del promedio de los errores totales
(columna Prom).

Tabla 5.18. Comparación del Error Total del algoritmo propuesto


a b
Prom minET maxET AP
Muestra
% % % %
1 (muestra 11) 22.00 10.76 36.96 20.97
2 (muestra 12) 8.00 3.25 16.28 15.07
3 (muestra 21) 6.95 2.57 9.84 7.70
4 (muestra 22) 12.65 3.63 23.78 8.70
5 (muestra 23) 14.87 4.00 27.80 9.87
6 (muestra 24) 17.04 4.42 39.06 11.12
7 (muestra 31) 4.84 1.80 12.92 7.78
8 (muestra 41) 13.32 8.76 23.67 7.36
9 (muestra 42) 3.47 1.62 6.38 3.01
10 (muestra 51) 10.41 3.01 23.31 7.67
11 (muestra 52) 24.92 3.07 57.95 6.29
12 (muestra 53) 28.07 8.91 48.45 3.25
13 (muestra 54) 9.80 3.23 23.89 3.83
14 (muestra 61) 15.45 2.08 35.87 1.01
15 (muestra 71) 15.72 1.63 34.98 3.87

a
Valores en azul son inferiores al Error Total promedio.
b
Valores en rojo corresponden al mejor desempeño.
5.6. COMPARACIÓN POR TIPO DE ESCENARIO 75

5.6. Comparación por tipo de escenario


Por sus características y complejidad, las muestras pueden dividirse en varios tipos [1]:

Escenas complejas (muestra 11, muestra 12, muestra 22, muestra 23, muestra 54)
Ladera, zanjas, grietas (muestra 22, muestra 23 y muestra 53)
Puentes (muestra 21, muestra 23, muestra 24 y muestra 71)
Pendientes pronunciadas (muestra 11, muestra 51, muestra 52, muestra 61)
Valores atípicos (muestra 31 y muestra 41)
Vegetación en pendientes (muestra 51 y muestra 52)
Terreno (muestra 42 y muestra 51)

La Tabla 5.19 muestra los resultados del algoritmo del presente trabajo correspondientes al Error
Total promedio y κ promedio por tipo de escenario, en donde se marca en color rojo las muestras
con κ mayor a 0.8, correspondientes a grado de concordancia estimado como Muy bueno [106].

Tabla 5.19. Comparación por tipo de escenario


Error Total κ
Tipo de muestra
promedio promedio
Escenas complejas 11.69 % 0.75
Ladera, zanjas, grietas 7.27 % 0.69
Puentes 8.14 % 0.77
Pendientes pronunciadas 8.99 % 0.71
Valores atípicos 7.57 % 0.85
Vegetación en pendientes 6.98 % 0.74
Terreno 5.34 % 0.85
76 CAPÍTULO 5. EXPERIMENTOS Y RESULTADOS

Escenas complejas
En este tipo de escenas, en la muestra 23 es donde se presenta el reto más difícil [1] debido
a que se observa una plaza rodeada en tres lados por un bloque de edificios. Desde la plaza se
puede caminar por la carretera hacia el este y también descender por una escalera a la carretera
por debajo en dirección oeste. Como dato adicional, existe una diferencia de elevación importante
debido a una galería hundida en el centro de la plaza. Definir lo que es terreno y no terreno en
el escenario mencionado es complicado según Vosselman[1]. Los dos filtros basados en pendiente
(Sithole y Roggero), además de Brovelli cuyo método basado en placa delgada, arrojan errores
totales de más del 20 %. Esto es comprensible debido a la alta cantidad de grandes edificios, ladera,
zanjas, en el terreno, en la mayoría de los algoritmos, la rampa fue tratada como objeto y no como
parte del terreno en sí debido a su desnivel.
Ladera, cresta aguda, zanjas
Se presentan características como ladera, cresta aguda, zanjas, en muestra 22, muestra 23 y
muestra 53 y se observa que en general los dos filtros basados pendiente (Sithole y Roggero) tienen
más dificultades con estas características en el terreno debido al Error Total de más del 20 % aún
cuando la diferencia de altura en las crestas agudas y zanjas aumenta, el rendimiento de los filtros
basados en la pendiente sigue siendo el mismo, en contraposición con algunos de los otros filtros,
donde una cresta aguda o zanja también puede afectar de manera importante el filtraje en la
vecindad. Cabe destacar que en las crestas agudas y zanjas es donde se producen los errores de
Tipo I, es decir, clasificar el terreno como no terreno u objeto, sobre todo en los filtros basados en
superficie.
Puentes
Un problema con los filtros es que se consideran ciegos debido a que tienen problemas al no hacer
distinción entre objetos que se interponen entre el terreno y los que están unidos a ella (por ejemplo,
puentes, rampas, etc.) como en la muestra compleja 23. En los resultados de los investigadores [1]
se puede observar la completa o parcial eliminación de puentes. Todos los algoritmos excepto el de
Axelsson eliminan puentes completamente debido a los parámetros de su algoritmo. Este problema
puede ser visto en la muestra 21 y muestra 71. Al igual que los puentes son rampas como se observa
en la muestra 24, y las rampas aunque son similares a los puentes se diferencian en que no permiten
el paso por debajo de ellas, y de acuerdo con las definiciones de Sithole et. al. [1] son por lo tanto,
puntos de terreno.
5.6. COMPARACIÓN POR TIPO DE ESCENARIO 77

Pendientes pronunciadas
En las muestras de este tipo de escena hay un número menor de puntos de objetos que los de
terreno, es por eso que la proporción de los errores de Tipo I y Tipo II es menor. En las laderas
más bajas de la muestra 11 hay diversos edificios y terrazas o edificios bajos en el terreno, es por
eso que un alto porcentaje de Error Tipo I.
Valores Atípicos
El número de valores atípicos (altos y bajos) es menor en las muestras y por lo tanto su con-
tribución es mínima al Tipo I y los errores de Tipo II. Sin embargo, puede tener influencia en el
filtrado en sus vecindarios. Esto se puede ver en la muestra 31 y muestra 41. En la muestra 31 se
hace notar que se pueden producir errores de Tipo I debido a un valor atípico bajo en el centro del
círculo.
Vegetación en pendientes
Un ejemplo de la vegetación en laderas escarpadas se observa en la muestra 51 y muestra 52. Cabe
destacar que la mayoría de los filtros tienen un buen desempeño en la identificación de vegetación
(bosque). Sin embargo, algunos filtros lo hacen a costa de un aumento del Error de Tipo I, y en el
caso de Elmqvist y Brovelli, como muestran sus errores totales. En la muestra 52 la vegetación es
encuentra mucho más cerca de la pendiente a menos de 1 m lo que causa un aumento significativo
en el Error Total.
Terreno
Para que un filtro detecte el terreno, es esencial que haya puntos suficientes de este tipo. La
muestra 42 es una estación de ferrocarril y tiene casi el doble de puntos de objeto que de terreno;
la muestra 51 tiene 4.3 veces más puntos de no terreno que puntos de terreno u objetos. Los
autores expresan que en este aspecto aún se requieren más pruebas para medir el rendimiento de
los algoritmos.
78 CAPÍTULO 5. EXPERIMENTOS Y RESULTADOS

Efecto del filtrado


Como se menciona en los capítulos 2 y 3 es importante la elección de una técnica de filtraje para
los valores atípicos presentes en los datos de prueba.
Con este fin el filtro de mediana fue aplicado en las muestras obteniendo un aumento en el Error
Total en escenas complejas así como una disminución de κ, por lo que el rendimiento se ve afectado
en dichas escenas. Para muestras de tipo rural con pocos puntos de no terreno u objeto, el aumento
de errores y la disminución de κ fue más bajo comparado con las muestras de tipo urbano como se
puede ver en la Tabla 5.20.

Tabla 5.20. Comparativa de los resultados con filtro y sin filtro para la remoción de valores atípicos
Con filtro Sin filtro
Error Total Error Total
Muestra κ κ
% %
1 (muestra 11) 39.28 0.01 20.97 0.70
2 (muestra 12) 15.03 0.01 15.07 0.75
3 (muestra 21) 12.97 0.55 7.70 0.77
4 (muestra 22) 28.30 0.82 8.70 0.73
5 (muestra 23) 12.03 0.75 9.87 0.80
6 (muestra 24) 11.12 0.83 11.12 0.70
7 (muestra 31) 11.51 0.75 7.78 0.84
8 (muestra 41) 8.15 0.83 7.36 0.85
9 (muestra 42) 6.39 0.86 3.00 0.93
10 (muestra 51) 11.50 0.84 7.67 0.77
11 (muestra 52) 7.32 0.63 6.29 0.70
12 (muestra 53) 3.46 0.32 3.25 0.50
13 (muestra 54) 8.30 0.83 3.83 0.92
14 (muestra 61) 1.74 0.62 1.01 0.81
15 (muestra 71) 4.94 0.75 3.87 0.82
Capítulo 6

Conclusión y Trabajo a Futuro

6.1. Conclusiones

En este trabajo de investigación se presentaron técnicas de procesamiento de nube de puntos


LiDAR para clasificarla en dos tipos: terreno y no terreno.

La información de los puntos se procesó en dos etapas: la primera, con la rasterización de


los datos LiDAR y su interpolación por la técnica de vecino más cercano para la obtención del
Modelo Digital de Superficie; en la segunda etapa, el núcleo de esta investigación, se implementó un
algoritmo iterativo de morfología matemática con la operación de apertura para separar los puntos
en tierra y no tierra. Con esta clasificación se cumplió el objetivo general del presente trabajo.

La base de datos utilizada se obtuvo de la Sociedad Internacional de Fotogrametría y Percepción


Remota. La evaluación de los resultados se realizó a partir del coeficiente Kappa y los coeficientes
de errores estimados a partir de la matriz de confusión.

En base a la comparación con trabajos previos de investigación, se observa que la totalidad de los
resultados del algoritmo propuesto se mantienen por debajo del error máximo, el 80 % son menores
al promedio del Error Total y en 3 de los productos se obtuvo el mejor desempeño.

Con la rasterización, interpolación y como resultado de la operación de apertura iterativa se


obtuvo el Modelo Digital del Terreno y la diferencia entre este modelo y el Modelo Digital de Su-
perficie nos permite determinar el Modelo de Superficie normalizado. Por lo anterior, se cumplieron
los objetivos específicos de este trabajo.

79
80 CAPÍTULO 6. CONCLUSIÓN Y TRABAJO A FUTURO

6.2. Trabajo a futuro


Se exponen los siguientes puntos:

Modelado de función. El análisis de una función de crecimiento para el tamaño de ventana para
adaptarla de acuerdo a las características del terreno a estudiar, y realizar una comparativa
con la metodología presentada en este trabajo de tesis.

Técnicas de filtrado, clasificación y métodos de interpolación. Investigar otras técnicas con


el fin de realizar una comparación o implementar una metodología para mejorar u obtener
distintos resultados en la metodología propuesta.

Redes neuronales. El uso de redes neuronales en el que dadas las características de la imagen
de LiDAR tales como elevación mínima, elevación máxima, pendiente, y las que se puedan
requerir en la metodología para que el programa obtenga su clasificación en tierra y no tierra.

Procesamiento paralelo. Se puede implementar para lograr de manera rápida el procesamiento


del algoritmo con la división de los datos de una nube de puntos de tamaño considerable en
zonas de gran extensión.

Modelado gráfico. Modelado de edificios con fines urbanísticos.


Referencias

[1] G. Sithole and G. Vosselman, “ISPRS comparison of filters,” tech. rep. Department of Geo-
desy, Faculty of Civil Engineering and Geosciences, Agosto 2003. http://www.itc.nl/
isprswgiii-3/filtertest/Report05082003.pdf.

[2] Q. Chen, P. Gong, D. Baldocchi, and G. Xie, “Filtering airborne laser scanning data
with morphological methods,” Photogrammetric Engineering and Remote Sensing, vol. 73,
pp. 175–185, Febrero 2007. http://www.asprs.org/a/publications/pers/2007journal/
february/2007_feb_175-185.pdf.

[3] http://www.tayyareci.com/forsale/pilatus/camera/020607_LEICA_ALS40_brochure.pdf
(Consultado el 7 de mayo de 2015). http://www.tayyareci.com/forsale/pilatus/
camera/020607_LEICA_ALS40_brochure.pdf.

[4] W. Burger and M. J. Burge, Digital Image Processing an Algorithmic Introduction using
JAVA. Springer, 2008. http://www.springer.com/us/book/9781846283796.

[5] J. R. Parker, Algorithms for Image Processing and Computer Vision, vol. 2.
2009. http://csce.uark.edu/~jgauch/5703/other/books/Algorithms_for_Image_
Processing_and_Computer_Vision.pdf.

[6] W. K. Pratt, Digital Image Processing: PIKS Inside. Wiley-Interscience, 3 ed.,


2001. http://www.cpp.edu/~kding/materials/Digital%20Image%20Processing%20-%
20Third%20Edition%20-%20William%20K.Pratt.pdf.

[7] C. Solomon and T. Breckon, Fundamentals of Digital Image Processing. A Practical Approach
with Examples in Matlab. John Wiley and sons, Ltd, 2011. http://cvrs.whu.edu.cn/

81
82 REFERENCIAS

downloads/ebooks/Fundamentals%20of%20Digital%20Image%20Processing%20-%20A%
20Practical%20Approach%20with%20Examples%20in%20Matlab.pdf.

[8] “ISPRS test on extracting DEMs from point clouds,” 2003. [En línea]. Dispo-
nible en: http://www.itc.nl/isprswgIII-3/filtertest/Reference.zip. http://www.itc.nl/
isprswgIII-3/filtertest/Reference.zip.

[9] C. L. Miller and R. A. Laflamme, The Digital Terrain Model: Theory and Application. MIT
Photogrammetry Laboratory, 1958.

[10] C. Mallet and F. Bretar, “Full-waveform topographic LiDAR : State-of-the-art,” ISPRS


Journal of photogrammetry and remote sensing, vol. 64, pp. 1–16, Enero 2009. http:
//www.sciencedirect.com/science/article/pii/S0924271608000993.

[11] E. Naesset, “Determination of mean tree height of forest stands using airborne laser scanne
data,” ISPRS Journal of Photogrammetry and Remote Sensing, vol. 52, pp. 49–56, Abril 1997.
http://www.sciencedirect.com/science/article/pii/S0924271697830006.

[12] D. Mongus and B. Žalik, “Parameter-free ground filtering of LiDAR data for automatic DTM
generation,” ISPRS Journal of Photogrammetry and Remote Sensing, vol. 67, pp. 1–12, Enero
2012. http://www.sciencedirect.com/science/article/pii/S0924271611001122.

[13] W. Wang, W. Zhao, L. Huang, V. Vimarlund, and Z. Wang, “Applications of terrestrial laser
scanning for tunnels: a review,” Journal of Traffic and Transportation Engineering (English
Edition), vol. 1, pp. 325–337, Octubre 2014. http://www.sciencedirect.com/science/
article/pii/S2095756415302798.

[14] T. A. S. for Photogrammetry and R. Sensing, “LAS specification version 1.4 R13,” tech. rep.,
ASPRS, 2013. http://www.asprs.org/a/society/committees/standards/LAS_1_4_r13.
pdf.

[15] G. Sithole, “Segmentation and classification of airborne laser scanner data,” TU Delft,
Delft University of Technology, Septiembre 2005. http://citeseerx.ist.psu.edu/viewdoc/
download?doi=10.1.1.105.6206&rep=rep1&type=pdf.
REFERENCIAS 83

[16] E. P. Baltsavias, “A comparison between photogrammetry and laser scanning,” ISPRS


Journal of Photogrammetry and Remote Sensing, vol. 54, pp. 83–94, Julio 1999. http:
//www.sciencedirect.com/science/article/pii/S0924271699000143.

[17] J. Shen, J. Liu, X. Lin, and R. Zhao, “Object-based classification of airborne light detection
and ranging point clouds in human settlements,” Sensor Letters, vol. 10, pp. 221–229, Enero
2012. http://dx.doi.org/10.1166/sl.2012.1826.

[18] W. Y. Yan, A. Shaker, and N. El-Ashmawy, “Urban land cover classification using airborne
LiDAR data: A review,” Remote Sensing of Environment, vol. 158, pp. 295–310, Marzo 2015.
http://www.sciencedirect.com/science/article/pii/S0034425714004374.

[19] Z. Li, Q. Zhu, and C. Gold, Digital terrain modeling: principles and methodology. CRC Press,
2004.

[20] S. Dupuy, G. Lainé, J. Tassin, and J.-M. Sarrailh, “Characterization of the horizon-
tal structure of the tropical forest canopy using object-based LiDAR and multispectral
image analysis,” International Journal of Applied Earth Observation and Geoinformation,
vol. 25, pp. 76–86, Diciembre 2013. http://www.sciencedirect.com/science/article/
pii/S0303243413000445.

[21] M. Brovelli, M. Cannata, and U. Longoni, “Managing and processing LIDAR data within
GRASS,” in Proceedings of the GRASS Users Conference, vol. 29, Septiembre 2002. http://
citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.19.8294&rep=rep1&type=pdf.

[22] F. Rottensteiner and C. Briese, “Automatic generation of building models from LiDAR data
and the integration of aerial images,” International Society for Photogrametry and Remote
Sensing, vol. XXXIV, Octubre 2003. http://www.isprs.org/proceedings/XXXIV/3-W13/
papers/Rottensteiner_ALSDD2003.pdf.

[23] G. Vozikis, “Automated generation and updating of digital city models using high-resolution
line scanning systems,” The International Archives of the Photogrammetry, Remote Sensing
and Spatial Information Sciences, Vol. 34, Part XXX, Octubre 2004. http://www.isprs.
org/proceedings/XXXV/congress/comm7/papers/198.pdf.
84 REFERENCIAS

[24] H. Arefi and M. Hahn, “A morphological reconstruction algorithm for separating off-terrain
points from terrain points in laser scanning data,” International Archives of Photogrammetry,
Remote Sensing and Spatial Information Sciences, vol. 36, Septiembre 2005. http://www.
isprs.org/proceedings/xxxvi/3-w19/papers/120.pdf.

[25] R. Wack and H. Stelzl, “Laser DTM generation for south-tyrol and 3d-visualization,” Interna-
tional Archives of Photogrammetry, Remote Sensing and Spatial Information Science, vol. 36,
pp. 3–W19, 2005. http://www.isprs.org/proceedings/XXXVI/3-W19/papers/048.pdf.

[26] Z. Chen, B. Devereux, B. Gao, and G. Amable, “Upward-fusion urban DTM generating met-
hod using airborne LiDAR data,” ISPRS Journal of Photogrammetry and Remote Sensing,
vol. 72, pp. 121–130, Agosto 2012. http://www.sciencedirect.com/science/article/pii/
S0924271612001244.

[27] W. Zhou, “An object-based approach for urban land cover classification: integrating Li-
DAR height and intensity data,” Geoscience and Remote Sensing Letters, IEEE, vol. 10,
no. 4, pp. 928–931, 2013. http://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=
6497495.

[28] X. Meng, N. Currit, and K. Zhao, “Ground filtering algorithms for airborne LiDAR data: A
review of critical issues,” Remote Sensing, vol. 2, pp. 833–860, Marzo 2010. http://www.
mdpi.com/2072-4292/2/3/833.

[29] M. Roggero, “Airborne laser scanning: clustering in RAW data,” International Archives of
Photogrammetry and Remote Sensing, vol. XXXIV, Octubre 2001. http://www.isprs.org/
proceedings/XXXIV/3-W4/pdf/Roggero.pdf.

[30] J. Shan and A. Sampath, “Urban DEM generation from RAW LiDAR data: a labe-
ling algorithm and its performance,” Photogrammetric Engineering and Remote Sensing,
vol. 71, pp. 217–226, Febrero 2005. http://www.scopus.com/record/display.url?
eid=2-s2.0-13444302489&origin=inward&txGid=1D76220963AA2FAD4FFCF2AA8BD48B59.
I0QkgbIjGqqLQ4Nw7dqZ4A%3a1#.

[31] J. Song, J. Wu, and Y. Jiang, “Extraction and reconstruction of curved surface buildings
by contour clustering using airborne LiDAR data,” Optik-International Journal for Light
REFERENCIAS 85

and Electron Optics, vol. 126, pp. 513–521, Marzo 2015. http://www.sciencedirect.com/
science/article/pii/S0030402615000121.

[32] P. Axelsson, “Processing of laser scanner data-algorithms and applications,” ISPRS Journal
of Photogrammetry and Remote Sensing, vol. 54, pp. 138–147, Julio 1999. http://www.
sciencedirect.com/science/article/pii/S0924271699000088.

[33] D. Tóvári and N. Pfeifer, “Segmentation based robust interpolation-a new approach to laser
data filtering,” International Society for Photogrametry and Remote Sensing, vol. 36, p. W19,
Septiembre 2005. http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.221.
9939&rep=rep1&type=pdf.

[34] J. A. Richards, Remote Sensing Digital Image Analysis. Springer, 5 ed., 2013. http://link.
springer.com/book/10.1007%2F978-3-642-30062-2.

[35] P. Lohmann, A. Koch, and M. Schaeffer, “Approaches to the filtering of laser scanner data,”
International Archives of Photogrammetry and Remote Sensing, vol. 33, pp. 540–547, Octubre
2000. http://www.isprs.org/proceedings/XXXIII/congress/part3/540_XXXIII-part3.
pdf.

[36] X. Liu, “Airborne LiDAR for DEM generation: some critical issues,” Progress in Physical
Geography, vol. 32, pp. 31–49, Febrero 2008. http://core.ac.uk/download/pdf/11037346.
pdf.

[37] T. J. Pingel, K. C. Clarke, and W. A. McBride, “An improved simple morphological filter
for the terrain classification of airborne LiDAR data,” ISPRS Journal of Photogrammetry
and Remote Sensing, Marzo 2013. http://www.sciencedirect.com/science/article/pii/
S0924271613000026.

[38] L. Cheng, W. Zhao, P. Han, W. Zhang, J. Shan, Y. Liu, and M. Li, “Building region de-
rivation from LiDAR data using a reversed iterative mathematic morphological algorithm,”
Optics Communications, pp. 244–250, Septiembre 2013. https://engineering.purdue.edu/
~jshan/publications/2013/Optics%20Communications_Morphology.pdf.

[39] K. Zhang, S.-C. Chen, D. Whitman, M.-L. Shyu, J. Yan, and C. Zhang, “A progressive
morphological filter for removing nonground measurements from airborne LiDAR data,” IEEE
86 REFERENCIAS

Transactions on Geoscience and Remote Sensing, vol. 41, pp. 5–24, Abril 2003. http://
ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=1202973.

[40] J. S. Evans and A. T. Hudak, “A multiscale curvature algorithm for classifying discrete return
LiDAR in forested environments,” Geoscience and Remote Sensing, IEEE Transactions on,
vol. 45, pp. 1029–1038, Abril 2007. http://ieeexplore.ieee.org/stamp/stamp.jsp?tp=
&arnumber=4137852.

[41] B. Yang, Z. Dong, G. Zhao, and W. Dai, “Hierarchical extraction of urban objects from
mobile laser scanning data,” ISPRS Journal of Photogrammetry and Remote Sensing,
vol. 99, pp. 45–57, Enero 2015. http://www.sciencedirect.com/science/article/pii/
S092427161400255X.

[42] A. Serna and B. Marcotegui, “Detection, segmentation and classification of 3d urban objects
using mathematical morphology and supervised learning,” ISPRS Journal of Photogrammetry
and Remote Sensing, vol. 93, pp. 243–255, Julio 2014. http://dx.doi.org/10.1016/j.
isprsjprs.2014.03.015.

[43] W. Zhuang and G. Mountrakis, “An accurate and computationally efficient algorithm for
ground peak identification in large footprint waveform LiDAR data,” ISPRS Journal of
Photogrammetry and Remote Sensing, vol. 95, pp. 81–92, Septiembre 2014. http://www.
sciencedirect.com/science/article/pii/S092427161400152X.

[44] M. Awrangjeb, C. Zhang, and C. S. Fraser, “Automatic extraction of building roofs using
LIDAR data and multispectral imagery,” ISPRS Journal of Photogrammetry and Remote
Sensing, vol. 83, pp. 1–18, Septiembre 2013. http://www.sciencedirect.com/science/
article/pii/S0924271613001342.

[45] S. Barnea and S. Filin, “Segmentation of terrestrial laser scanning data using geo-
metry and image information,” ISPRS Journal of Photogrammetry and Remote Sensing,
vol. 76, pp. 33–48, Febrero 2013. http://www.sciencedirect.com/science/article/pii/
S0924271612000809.
REFERENCIAS 87

[46] A. K. Aijazi, P. Checchin, and L. Trassoudaine, “Segmentation based classification of 3d


urban point clouds: A super-voxel based approach with evaluation,” Remote Sensing, vol. 5,
pp. 1624–1650, Marzo 2013. http://www.mdpi.com/2072-4292/5/4/1624/pdf.

[47] Z. Lari and A. Habib, “New approaches for estimating the local point density and its
impact on LiDAR data segmentation,” Photogrammetric Engineering and Remote Sen-
sing, vol. 79, pp. 195–207, Febrero 2013. http://d27vj430nutdmd.cloudfront.net/7922/
143562/58391a7a1043d4d79a0793927c7b2bc8f443f781.pdf.

[48] A. Jochem, B. Höfle, V. Wichmann, M. Rutzinger, and A. Zipf, “Area-wide roof plane seg-
mentation in airborne LiDAR point clouds,” Computers, Environment and Urban Systems,
vol. 36, pp. 54–64, Enero 2012. http://www.sciencedirect.com/science/article/pii/
S0198971511000391.

[49] J. Hernández and B. Marcotegui, “Filtering of artifacts and pavement segmentation from
mobile LiDAR data,” Septiembre 2009. http://cmm.ensmp.fr/~marcoteg/cv/publi_pdf/
jorge/PointCloudSegmentation/Hernandez_Marcotegui_Laserscanning09.pdf.

[50] M. Awrangjeb and G. Lu, “Robust image corner detection based on the chord-to-point distance
accumulation technique,” Multimedia, IEEE Transactions on, vol. 10, pp. 1059–1072, Octubre
2008. http://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=4657455.

[51] T. Rabbani, F. van den Heuvel, and G. Vosselmann, “Segmentation of point clouds using
smoothness constraint,” International Archives of Photogrammetry, Remote Sensing and Spa-
tial Information Sciences, vol. 36, pp. 248–253, Septiembre 2006. http://www.isprs.org/
proceedings/XXXVI/part5/paper/RABB_639.pdf.

[52] K. Jacobsen and P. Lohmann, “Segmented filtering of laser scanner DSMs,” International
Archives of Photogrammetry and Remote Sensing, vol. 34, Julio 2003. http://www.isprs.
org/proceedings/XXXIV/3-W13/papers/Jacobsen_ALSDD2003.pdf.

[53] G. Sithole and G. Vosselman, “Filtering of airborne laser scanner data based on segmented
point clouds,” International Archives of Photogrammetry, Remote Sensing and Spatial Infor-
mation Sciences, vol. 36, WG III/3, III/4, V/3, Septiembre 2005. http://www.isprs.org/
proceedings/XXXVI/3-W19/papers/066.pdf.
88 REFERENCIAS

[54] S. Filin, “Surface clustering from airborne laser scanning data,” International Archives of
Photogrammetry Remote Sensing and Spatial Information Sciences, vol. 34, pp. 119–124, Sep-
tiembre 2002. http://www.isprs.org/proceedings/XXXIV/part3/papers/paper120.pdf.

[55] J. M. Biosca and J. L. Lerma, “Unsupervised robust planar segmentation of terrestrial la-
ser scanner point clouds based on fuzzy clustering methods,” ISPRS Journal of Photogram-
metry and Remote Sensing, vol. 63, pp. 84–98, Enero 2008. http://www.sciencedirect.
com/science/article/pii/S0924271607000809.

[56] S. Filin and N. Pfeifer, “Segmentation of airborne laser scanning data using a slope adaptive
neighborhood,” ISPRS journal of Photogrammetry and Remote Sensing, vol. 60, pp. 71–80,
Abril 2006. http://www.sciencedirect.com/science/article/pii/S0924271605000638.

[57] M. A. Brovelli, M. Cannata, and U. M. Longoni, “LiDAR data filtering and DTM inter-
polation within GRASS,” Transactions in GIS, vol. 8, pp. 155–174, Febrero 2004. http:
//onlinelibrary.wiley.com/doi/10.1111/j.1467-9671.2004.00173.x/pdf.

[58] L. Li and J. Zhang, “Building detection with LiDAR point clouds based on regional multi-
return density analyzing,” in Earth Observation and Remote Sensing Applications, 2014 3rd
International Workshop on, pp. 116–120, IEEE, Diciembre 2014. http://ieeexplore.ieee.
org/stamp/stamp.jsp?tp=&arnumber=6927861.

[59] Y. Li, B. Yong, H. Wu, R. An, and H. Xu, “An improved top-hat filter with sloped brim
for extracting ground points from airborne LiDAR point clouds,” Remote Sensing, vol. 6,
pp. 12885–12908, Diciembre 2014. http://www.mdpi.com/2072-4292/6/12/12885/htm.

[60] D. Mongus, N. Lukač, and B. Žalik, “Ground and building extraction from LiDAR da-
ta based on differential morphological profiles and locally fitted surfaces,” ISPRS Jour-
nal of Photogrammetry and Remote Sensing, vol. 93, pp. 145–156, Julio 2014. http:
//www.sciencedirect.com/science/article/pii/S0924271613002840.

[61] Y. Li, H. Wu, R. An, H. Xu, Q. He, and J. Xu, “An improved building boundary extrac-
tion algorithm based on fusion of optical imagery and LiDAR data,” Optik-International
Journal for Light and Electron Optics, vol. 124, pp. 5357–5362, Noviembre 2013. http:
//www.sciencedirect.com/science/article/pii/S003040261300346X.
REFERENCIAS 89

[62] Y. Li, H. Wu, H. Xu, R. An, J. Xu, and Q. He, “A gradient-constrained morphological filtering
algorithm for airborne LiDAR,” Optics and Laser Technology, vol. 54, pp. 288–296, Diciembre
2013. http://www.sciencedirect.com/science/article/pii/S0030399213002235.

[63] X. Meng, L. Wang, and N. Currit, “Morphology-based building detection from airborne Li-
DAR data,” Photogrammetric Engineering and Remote Sensing, vol. 75, pp. 437–442, Abril
2009. http://www.acsu.buffalo.edu/~lewang/pdf/lewang_sample28.pdf.

[64] A. Kobler, N. Pfeifer, P. Ogrinc, L. Todorovski, K. Oštir, and S. Džeroski, “Repetiti-


ve interpolation: A robust algorithm for DTM generation from aerial laser scanner da-
ta in forested terrain,” Remote Sensing of Environment, vol. 108, pp. 9–23, Mayo 2007.
http://www.sciencedirect.com/science/article/pii/S003442570600424X.

[65] J. L. Silvan and L. Wang, “A multi-resolution approach for filtering LiDAR altimetry,” ISPRS
Journal of Photogrammetry and Remote Sensing, vol. 61, pp. 11–22, Octubre 2006. http:
//www.sciencedirect.com/science/article/pii/S0924271606000633.

[66] B. Petzold, P. Reiss, and W. Stössel, “Laser scanning surveying and map-
ping agencies are using a new technique for the derivation of digital te-
rrain models,” ISPRS Journal of Photogrammetry and Remote Sensing, vol. 54,
pp. 95–104, Julio 1999. http://ac.els-cdn.com/S0924271699000052/1-s2.
0-S0924271699000052-main.pdf?_tid=8190d144-fe8e-11e4-a522-00000aacb362&
acdnat=1432085054_8ab1c4f9e4784c7ec50c5ee1126cf6f3.

[67] U. Weidner and W. Förstner, “Towards automatic building extraction from high-
resolution digital elevation models,” ISPRS Journal of Photogrammetry and Remote
Sensing, vol. 50, pp. 38–49, Agosto 1995. http://ac.els-cdn.com/092427169598236S/
1-s2.0-092427169598236S-main.pdf?_tid=0ce87996-29d1-11e5-9cc0-00000aacb360&
acdnat=1436841534_c60a741fdcd624c771b52c99d11fca23.

[68] W. Eckstein and O. Muenkelt, “Extracting objects from digital terrain models,” in SPIE’s
1995 International Symposium on Optical Science, Engineering, and Instrumentation, pp. 43–
51, International Society for Optics and Photonics, Agosto 1995. http://citeseerx.ist.
psu.edu/viewdoc/download?doi=10.1.1.27.765&rep=rep1&type=pdf.
90 REFERENCIAS

[69] J. Lindenberger, “Laser-profilmessungen zur topographischen geländeaufnahme,” Bayerischen


Akademie der Wissenschaften, 1993. http://elib.uni-stuttgart.de/opus/volltexte/
2006/2712/pdf/lindenberger_diss.pdf.

[70] K. Zhang and D. Whitman, “Comparison of three algorithms for filtering airborne Li-
DAR data,” Photogrammetric Engineering and Remote Sensing, vol. 71, pp. 313–324, Febre-
ro 2005. http://www.researchgate.net/publication/242705839_Comparison_of_Three_
Algorithms_for_Filtering_Airborne_Lidar_Data.

[71] R. A. Haugerud and D. J. Harding, “Some algorithms for virtual deforestation (vdf) of LiDAR
topographic survey data,” International Archives of Photogrammetry Remote Sensing and
Spatial Information Sciences, vol. 34, pp. 211–218, Octubre 2001. http://www.isprs.org/
proceedings/XXXIV/3-W4/pdf/Haugerud.pdf.

[72] G. Vosselman, “Slope based filtering of laser altimetry data,” International Ar-
chives of Photogrammetry and Remote Sensing, vol. XXXIII, Mayo 2000. http:
//www.lr.tudelft.nl/fileadmin/Faculteit/LR/Organisatie/Afdelingen_en_
Leerstoelen/Afdeling_RS/Optical_and_Laser_Remote_Sensing/Research/Research_
Fields/Airborne_laser_scanning/doc/vosselmanfiltering.pdf.

[73] X. Meng, “A slope-and elevation-based filter to remove non-ground measurements


from airborne LiDAR data,” UCGIS Summer Assembly, vol. 28, 2005. http:
//www.researchgate.net/publication/229021950_A_slope-and_elevation-based_
filter_to_remove_non-ground_measurements_from_airborne_LIDAR_data.

[74] X. Meng, L. Wang, J. L. Silvan, and N. Currit, “A multi-directional ground filtering al-
gorithm for airborne LiDAR,” ISPRS Journal of Photogrammetry and Remote Sensing,
vol. 1, pp. 117–124, Octubre 2009. http://www.sciencedirect.com/science/article/pii/
S0924271608000956.

[75] M. Kass, A. Witkin, and D. Terzopoulos, “Snakes: active contour models,” International
Journal of Computer Vision, vol. 1, pp. 321–331, Enero 1988. http://link.springer.com/
content/pdf/10.1007%2FBF00133570.pdf.
REFERENCIAS 91

[76] L. D. Cohen and I. Cohen, “Finite-element methods for active contour models and balloons
for 2-d and 3-d images,” Pattern Analysis and Machine Intelligence, IEEE Transactions on,
vol. 15, pp. 1131–1147, Noviembre 1993. http://ieeexplore.ieee.org/stamp/stamp.jsp?
tp=&arnumber=244675.

[77] R. Ma, “DEM generation and building detection from LiDAR data,” Photogrammetric En-
gineering and Remote Sensing, vol. 71, pp. 847–854, Julio 2005. http://info.asprs.org/
publications/pers/2005journal/july/2005_july_847-854.pdf.

[78] J. Zhang, L. Li, Q. Lu, and W. Jiang, “Contour clustering analysis for building reconstruc-
tion from LiDAR data,” in Proceedings of The XXI Congress the International Society for
Photogrammetry and Remote Sensing, pp. 355–360, Marzo 2008.

[79] M. Elmqvist, “Ground surface estimation from airborne laser scanner data using active shape
models,” International Archives of Photogrammetry Remote Sensing and Spatial Informa-
tion Sciences, vol. 34, pp. 114–118, Marzo 2002. http://citeseerx.ist.psu.edu/viewdoc/
download?doi=10.1.1.222.4566&rep=rep1&type=pdf.

[80] M. Elmqvist, E. Jungert, F. Lantz, A. Persson, and U. Soderman, “Terrain modelling


and analysis using laser scanner data,” International Archives of Photogrammetry Re-
mote Sensing and Spatial Information Sciences, vol. 34, Volume XXIV-3/W4, pp.219–
226, Octubre 2001. http://citeseerx.ist.psu.edu/viewdoc/download;jsessionid=
7AD3B8364B1FC33168FC6104A5F1A0D9?doi=10.1.1.150.5538&rep=rep1&type=pdf.

[81] N. Polat and M. Uysal, “Investigating performance of airborne LiDAR data filtering al-
gorithms for DTM generation,” Measurement, vol. 63, pp. 61–68, Marzo 2015. http:
//www.sciencedirect.com/science/article/pii/S0263224114006149.

[82] P. Axelsson, “DEM generation from laser scanner data using adaptive TIN models,” Inter-
national Archives of Photogrammetry and Remote Sensing, vol. 33, pp. 111–118, Enero 2000.
http://www.isprs.org/proceedings/XXXIII/congress/part4/111_XXXIII-part4.pdf.

[83] G. Sithole and G. Vosselman, “Experimental comparison of filter algorithms for


bare earth extraction from airborne laser scanning point cloud,” ISPRS Jour-
nal of Photogrammetry and Remote Sensing, vol. 1–2, pp. 85–101, Mayo 2004.
92 REFERENCIAS

http://www.sciencedirect.com/science/article/pii/S0924271604000140/pdfft?
md5=da5871ec0daaf33dda53358337286b1c&pid=1-s2.0-S0924271604000140-main.pdf.

[84] K. Kraus and N. Pfeifer, “Advanced DTM generation from LiDAR data,” International Archi-
ves Of Photogrammetry Remote Sensing And Spatial Information Sciences, vol. 34, pp. 23–30,
Octubre 2001. http://www.isprs.org/proceedings/XXXIV/3-W4/pdf/Kraus.pdf.

[85] C. Briese and N. Pfeifer, “Airborne laser scanning and derivation of digital terrain mo-
dels,” in Fifth Conference on Optical, vol. 3, 2001. http://www.lidar.com.br/arquivos/
airbornels_dem.pdf.

[86] W. Schickler and A. Thorpe, “Surface estimation based on LiDAR,” in Proceedings of the
ASPRS Annual Conference, pp. 23–27, 2001. http://www.researchgate.net/publication/
242072743_SURFACE_ESTIMATION_BASED_ON_LIDAR.

[87] K. Kraus and W. Rieger, “Processing of laser scanning data for wooded areas,” in Photo-
grammetric Week, vol. 99, pp. 221–231, Citeseer, 1999. http://www.ifp.uni-stuttgart.
de/publications/phowo99/kraus.pdf.

[88] K. Kraus and N. Pfeifer, “Determination of terrain models in wooded areas with airborne laser
scanner data,” ISPRS Journal of Photogrammetry and Remote Sensing, vol. 53, no. 4, pp. 193–
203, 1998. http://www.sciencedirect.com/science/article/pii/S0924271698000094.

[89] N. Pfeifer, A. Kostli, and K. Kraus, “Interpolation and filtering of laser scanner data - imple-
mentation and first results,” In: International Archives of Photogrammetry and Remote Sen-
sing, vol. XXXII, no. Part 3/1, pp. 153–159, 1998. http://www.isprs.org/proceedings/
XXXIV/3-W4/pdf/Kraus.pdf.

[90] H. S. Lee and N. H. Younan, “DTM extraction of LiDAR returns via adaptive processing,”
Geoscience and Remote Sensing, IEEE Transactions on, vol. 41, pp. 2063–2069, Septiembre
2003. http://ieeexplore.ieee.org/stamp/stamp.jsp?arnumber=1232220.

[91] I. C. Briggs, “Machine contouring using minimum curvature,” Geophysics, vol. 39, pp. 39–
48, Febrero 1974. http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.460.
1070&rep=rep1&type=pdf.
REFERENCIAS 93

[92] R. Jain, R. Kasturi, and B. G. Schunck, Machine Vision, vol. 5. McGraw-Hill, New York,
1995.

[93] S. Zheng, W. Shi, J. Liu, and G. Zhu, “Facet-based airborne light detection and ranging
data filtering method,” Optical Engineering, vol. 46, pp. 066202–066202, Junio 2007. http:
//opticalengineering.spiedigitallibrary.org/article.aspx?articleid=1088319.

[94] K. Zakšek, N. Pfeifer, and Z. S. IAPŠ, “An improved morphological filter for selecting relief
points from a LiDAR point cloud in steep areas with dense vegetation,” Luubljana, Slovenia
and Innsbruck, Austria: Institute of Anthropological and Spatial Studies, Scientific Research
Centre of the Slovenian Academy of Sciences and Arts, and Institute of Geography, Inns-
bruck University, Junio 2006. http://iaps.zrc-sazu.si/sites/default/files/Zaksek_
Pfeifer_ImprMF.pdf.

[95] D. Mongus and B. Zalik, “Computationally efficient method for the generation of a digital
terrain model from airborne LiDAR data using connected operators,” IEEE Journal of Selected
Topics in Applied Earth Observations and Remote Sensing, vol. 7, pp. 340–351, Enero 2014.
http://ieeexplore.ieee.org/stamp/stamp.jsp?arnumber=6521401.

[96] M. Bartels and H. Wei, “Threshold-free object and ground point separation in
LIDAR data,” Pattern Recognition Letters, vol. 31, pp. 1089–1099, Marzo 2010.
http://ac.els-cdn.com/S0167865510000887/1-s2.0-S0167865510000887-main.
pdf?_tid=2f2cf066-ff58-11e4-938a-00000aab0f02&acdnat=1432171674_
3af59864d46570f2027bdc0d59514be3.

[97] Q. Wang, L. Wu, Z. Xu, H. Tang, R. Wang, and F. Li, “A progressive morphological filter
for point cloud extracted from UAV images,” in Geoscience and Remote Sensing Symposium
(IGARSS), pp. 2023–2026, IEEE, Julio 2014.

[98] T. T. Vu, F. Yamazaki, and M. Matsuoka, “Multi-scale solution for building extraction from
LiDAR and image data,” International Journal of Applied Earth Observation and Geoin-
formation, vol. 11, pp. 281–289, Agosto 2009. http://www.sciencedirect.com/science/
article/pii/S0303243409000257.
94 REFERENCIAS

[99] Y. Wang, H. Weinacker, and B. Koch, “A LiDAR point cloud based procedure for vertical
canopy structure analysis and 3d single tree modeling in forest,” Sensors, vol. 8, pp. 3938–
3951, 2008. http://www.mdpi.com/1424-8220/8/6/3938/htm.

[100] G. Sithole, “Filtering of laser altimetry data using a slope adaptive filter,” International
Archives of Photogrammetry and Remote Sensing, vol. XXXIV, Octubre 2001. http://www.
isprs.org/proceedings/XXXIV/3-W4/pdf/Sithole.pdf.

[101] J. Kilian, N. Haala, and M. Englich, “Capture and evaluation of airborne laser scanner data,”
in: International Archives of Photogrametry and Remote Sensing, vol. XXXI, pp. 540–547,
1996. http://www.isprs.org/proceedings/XXXI/congress/part3/383_XXXI-part3.pdf.

[102] G. Matheron, Random Sets and Integral Geometry. 1975.

[103] J. Serra, Image Analysis and Mathematical Morphology, vol. 1. 1982.

[104] T. Fawcett, “An introduction to roc analysis,” Pattern Recognition Letters, vol. 27,
pp. 861–874, Junio 2006. http://www.sciencedirect.com/science/article/pii/
S016786550500303X.

[105] R. G. Congalton, “A review of assessing the accuracy of classifications of remotely sensed


data,” Remote sensing of environment, vol. 37, no. 1, pp. 35–46, 1991. http://citeseerx.
ist.psu.edu/viewdoc/download?doi=10.1.1.200.7822&rep=rep1&type=pdf.

[106] J. R. Landis and G. G. Koch, “The measurement of observer agreement for categorical data,”
Biometrics, vol. 33, pp. 159–174, Marzo 1977. http://www.jstor.org/stable/2529310?
seq=1#page_scan_tab_contents.

[107] “Bloodshed software: DevC++,” 2015. [En línea]. Disponible en:


http://www.bloodshed.net/devcpp.html. http://www.bloodshed.net/devcpp.html.

[108] “Fugro geospatial: Fugro viewer,” 2015. [En línea]. Disponible en:
http://www.fugroviewer.com/. http://www.fugroviewer.com/.

[109] “SAGA: System for automated geoscientific analyses,” 2015. [En línea]. Disponible en:
http://www.saga-gis.org/. http://www.saga-gis.org/.
REFERENCIAS 95

[110] “Google Earth,” 2015. [En línea]. Disponible en: https://www.google.com.mx/maps. https:
//www.google.com.mx/maps.

[111] “Blue marbel geographics: Global Mapper,” 2015. [En línea]. Disponible en:
http://www.bluemarblegeo.com/products/global-mapper.php 2015. http://www.
bluemarblegeo.com/products/global-mapper.php.

[112] “Exelis: ENVI,” 2015. [En línea]. Disponible en: http://www.exelisvis.com/. http://www.
exelisvis.com/ProductsServices/ENVIProducts/ENVI.aspx.

[113] G. Vosselman, “ISPRS test on extracting DEMs from point clouds: A comparison of existing
automatic filters,” International Society for Photogrametry and Remote Sensing, vol. XXXIII,
Octubre 2003. http://www.itc.nl/isprswgIII-3/filtertest/Report05082003.pdf.
96 REFERENCIAS

También podría gustarte