Está en la página 1de 98

Modelo Para Clasificación de Imágenes Multiespectrales a Partir de los Complejos de

Células Abstractas (CCA)

Presentado por: Cristian David Dallos Bustos


Código: 20132295006

Director: José Antonio Valero Medina


Msc. Teleinformática Universidad Distrital

Co-Director: Iván Lizarazo


PhD in Geography of London University

Universidad Distrital Francisco José de Caldas


Facultad de Ingeniería
Maestría en Ciencia de la Información y las Comunicaciones
Énfasis en Sistemas de Información
Bogotá, febrero de 2017

1
AGRADECIMIENTOS

Al creador de todas las cosas, Dios, a quien siempre he confiado mi


vida y no ha permitido que desfallezca. Quien me brindó sabiduría
e inspiración para lograr superar todos los retos planteados por el
presente trabajo de investigación

A mi estimado Tutor y Asesor de tesis, José Antonio Valero, por todo


el empeño en el desarrollo de la investigación, quien siempre estuvo
dispuesto a resolver mis dudas, compartiendo su conocimiento,
orientado cada respuesta en pro del cumplimiento de los objetivos.
Quien sin importar la hora o día atendió mis inquietudes.

A mi cotutor Ivan Lizarazo, por disponer de su tiempo y


conocimiento, brindando observaciones sabias y que promovieron los
resultados obtenidos.

A mi amada madre y padre Ligia y Carlos, quienes siempre me


apoyaron y creyeron en mí, brindándome palabras llenas de
sabiduría, para con ello tomar las mejores decisiones.

A mis hermanas Liliana y Elizabeth, a mis sobrinos Nicolás, Isabella


y Luciana, por llenar de alegría los momentos difíciles.

A mi amada Stefanía, por su sacrificio, apoyo y compresión, quien


acepto el tiempo limitado dado mi responsabilidad con la maestría.

A mis amigos y compañeros presentes, quienes con sus palabras de


apoyo me motivaron a continuar siempre con el proceso.

Y a todos mis seres queridos, quienes siempre estuvieron en mi


camino, y que, de una u otra forma, me ayudaron a llegar a la meta.

2
CONTENIDO
1. OBJETIVOS DEL ESTUDIO ........................................................................................ 8
1.1. Introducción ............................................................................................................. 8
1.2. Planteamiento Del Problema De Investigación ....................................................... 9
1.3. Objetivos .................................................................................................................. 9
1.3.1. Objetivo General............................................................................................... 9
1.3.2. Objetivos Específicos ....................................................................................... 9
1.4. Pregunta De Investigación E Hipótesis ................................................................. 10
1.4.1. Pregunta .......................................................................................................... 10
1.4.2. Hipótesis ......................................................................................................... 10
1.5. Delimitación Del Alcance ...................................................................................... 10
1.6. Justificación ........................................................................................................... 10
2. MARCO DE REFERENCIA ....................................................................................... 11
2.1. Marco Teórico ........................................................................................................ 11
2.1.1. Clasificación De Imagen Multiespectral ........................................................ 11
2.1.2. Complejos De Células Abstractas .................................................................. 17
2.1.3. Segmentos De Recta Digital (DSS) ................................................................ 21
2.1.4. Transformada De Cuenca ............................................................................... 23
2.1.5. Evaluación De Clasificación .......................................................................... 27
2.2. Estado Del Arte ...................................................................................................... 28
3. DATOS Y MÉTODOS ................................................................................................. 32
3.1. Datos ...................................................................................................................... 32
3.2. Método ................................................................................................................... 33
3.2.1. Desarrollo Del Modelo ................................................................................... 34
3.2.1.1. Espacio Complejo Cartesiano ................................................................. 35
3.2.1.2. Espacio De Niveles De Gris .................................................................... 42
3.2.1.3. Espacio Filtrado....................................................................................... 43
3.2.1.4. Espacio De Textura ................................................................................. 45
3.2.1.5. Espacio De Cuencas ................................................................................ 48
3.2.1.6. Espacio De Clasificación Complejo Cartesiano...................................... 50
3.2.2. Marco Computacional .................................................................................... 52
3.2.2.1. Paquete Cartesian Complex Core............................................................ 54
3.2.2.2. Paquete Monochromatic .......................................................................... 56
3.2.2.3. Paquete Directionalfilter ......................................................................... 57

3
3.2.2.4. Paquete Clustering................................................................................... 59
3.2.2.5. Paquete Watershed .................................................................................. 62
3.2.2.6. Paquete Clasificador ................................................................................ 66
3.2.3. Evaluación Del Modelo De Clasificación ...................................................... 67
3.2.3.1. Construcción Capas De Textura Y Cuencas Para Espacio De
Representación Convencional (Píxel) ...................................................................... 68
3.2.3.2. Clasificación De Superpíxeles Con Rasgos Radiométricos .................... 71
3.2.3.3. Clasificación Superpíxeles Con Rasgos De Textura ............................... 72
3.2.3.4. Clasificación De Superpíxeles Con Rasgos Radiométricos Mas Rasgos
De Textura ................................................................................................................ 73
4. PRESENTACIÓN DE RESULTADOS ....................................................................... 74
4.1. Resultados De Clasificación Escenario De Superpíxeles Con Rasgos
Radiométricos ................................................................................................................ 74
4.2. Resultados De Clasificación Escenario De Su perpíxeles Con Rasgo
De Textura ...................................................................................................................... 76
4.3. Resultados De Clasificación Escenario De Superpíxeles Con Rasgos
Radiométricos Más Los Rasgos De Textura ........................................................... 77
5. DISCUSIÓN DE RESULTADOS................................................................................ 80
5.1. Resultados De Los Experimentos .......................................................................... 80
5.2. Resultados Del Trabajo De Investigación.............................................................. 81
6. CONCLUSIONES ........................................................................................................ 84
6.1. Conclusiones De Los Experimentos ...................................................................... 84
6.2. Conclusiones Del Trabajo De Investigación.......................................................... 84
7. TRABAJO FUTURO ................................................................................................... 86
BIBLIOGRAFÍA .................................................................................................................. 87
ANEXOS .............................................................................................................................. 91
Diagramas De Clase ......................................................................................................... 91
 Cartesian Complex Cor ...................................................................................... 91
 Cartesian Complex Structure ............................................................................. 91
 Monochromatic .................................................................................................. 91
 Directionalfilter .................................................................................................. 91
 Clustering ........................................................................................................... 91
 Watershed ........................................................................................................... 91
Galería De Imágenes ........................................................................................................ 98

4
Índice de Figuras

FIGURA 1. PROCEDIMIENTOS, MÉTODOS Y LÓGICA DEL PROCESO DE CLASIFICACIÓN DE IMAGEN. ........................................... 12


FIGURA 2. UBICACIÓN DE HIPERPLANO CON MÁXIMO MARGEN DE SEPARACIÓN ................................................................ 14
FIGURA 3. SEPARACIÓN OPTIMA DE HIPERPLANO: 𝑤𝑇𝑥 + 𝑏 = 0 ................................................................................. 14
FIGURA 4. MAPEO DE MUESTRAS A UN ESPACIO DE DIMENSIÓN SUPERIOR PARA LOGRAR LA MAYOR SEPARABILIDAD ENTRE LAS
CLASES ....................................................................................................................................................... 16
FIGURA 5. RELACIÓN DE LÍMITE O CARA..................................................................................................................... 17
FIGURA 6. REPRESENTACIÓN GRÁFICA DE UN ACC CONECTADO UNIDIMENSIONAL.............................................................. 19
FIGURA 7. COMPLEJO CARTESIANO BIDIMENSIONAL. ................................................................................................... 20
FIGURA 8. ASIGNACIÓN ETIQUETA DE MAYOR VALOR. ................................................................................................... 20
FIGURA 9. ESCENARIO “EQU”. ................................................................................................................................. 21
FIGURA 10. EXTENSIÓN VECINDARIO ABIERTO MÁS PEQUEÑO REQUERIDO EN LA SOLUCIÓN DE LA IDENTIFICACIÓN DE CAMINO
ESTRECHO................................................................................................................................................... 21
FIGURA 11. EJEMPLO SEMIPLANO Y DSS EN COORDENADAS TOPOLÓGICA. ....................................................................... 22
FIGURA 12. ORIENTACIÓN Y DIRECCIÓN DSS SEGÚN LADO POSITIVO O NEGATIVO ASIGNADO EN EL SEMIPLANO DIGITAL. ........... 22
FIGURA 13. MÍNIMOS LOCALES, CUENCAS DE CAPTACIÓN Y LÍNEA DE CUENCA. .................................................................. 23
FIGURA 14. VARIACIÓN TRANSFORMADA DE CUENCA SEGÚN VECINDARIO. ....................................................................... 26
FIGURA 15. COMPORTAMIENTO DE LA TRANSFORMADA DE CUENCA DE ACUERDO A LA MODIFICACIÓN DE CHRISTOPHER MEI..... 26
FIGURA 16. COMPORTAMIENTO DE LA TRANSFORMADA DE CUENCA................................................................................ 27
FIGURA 17. FRAMEWORK DE CLASIFICACIÓN DE IMAGEN .............................................................................................. 28
FIGURA 18. FASES DE UN MODELO DE CLASIFICACIÓN DE IMAGEN. .................................................................................. 30
FIGURA 19. VECINDARIO 4 – CONECTADO DE UN PIXEL. ................................................................................................ 31
FIGURA 20. VECINDARIO 8 – CONECTADO DE UN PIXEL. ................................................................................................ 31
FIGURA 21. ESCENAS EN COMPOSICIÓN DE FALSO COLOR USADAS PARA EVALUACIÓN DEL MODELO DE CLASIFICACIÓN BASADO EN
COMPLEJOS CARTESIANOS. ............................................................................................................................. 33
FIGURA 22. FLUJO DE PROCESOS DEL PROCESO DE CLASIFICACIÓN BASADO EN COMPLEJOS DE CÉLULAS ABSTRACTOS. ................ 34
FIGURA 23.COORDENADAS CARTESIANAS ELEMENTOS N-DIMENSIONAL........................................................................... 36
FIGURA 24. AMPLIACIÓN DEL VECINDARIO 0-ELEMENTO. .............................................................................................. 36
FIGURA 25. DETECCIÓN DE ARCOS EN CADA SEMIPLANO. .............................................................................................. 37
FIGURA 26. FLECHAS EN TONO NEGRO REPRESENTAN LAS DIRECCIONES DE CONECTITUD...................................................... 38
FIGURA 27. CUADRANTES QUE PERMITEN INTERSECTAR LOS DOS SEMIPLANOS CELULARES. .................................................. 38
FIGURA 28. REGIONES POSIBLES PARA CADA PAREJA COMBINATORIAL.............................................................................. 39
FIGURA 29. ADYACENCIA ENTRE CUADRANTES. ........................................................................................................... 40
FIGURA 30. ASIGNACIÓN DE ETIQUETA MAYOR VALOR. ................................................................................................. 41
FIGURA 31. SEMIPLANO DIGITAL CON 1-CÉLULA. ......................................................................................................... 44
FIGURA 32. DIVISIÓN DEL SEMIPLANO PLANO DIGITAL. ................................................................................................. 44
FIGURA 33.DEFINICIÓN DE NÚCLEOS DE FILTRAJE BALANCEADO. ..................................................................................... 45
FIGURA 34. UBICACIÓN DE VALORES MÁXIMOS Y MÍNIMOS. .......................................................................................... 46
FIGURA 35. PROYECCIÓN DE CENTROS DE CLASE INICIAL A PARTIR DEL VECTOR VALORES MÁXIMO Y MÍNIMO. .......................... 47
FIGURA 36. MÁSCARA PARA LA IMPLEMENTACIÓN DEL FILTRO SOBEL SOBRE 1-CÉLULAS SEGÚN SU ORIENTACIÓN..................... 48
FIGURA 37. DEFINICIÓN DEL CRACK-VECINDARIO. ........................................................................................................ 49
FIGURA 38. MESETA O PLANICIE DE CUENCA. ............................................................................................................. 49
FIGURA 39. ADELGAZAMIENTO DE PLANICIE. .............................................................................................................. 50
FIGURA 40. MAPEO DE POLÍGONOS DEFINIDOS POR EL ESPACIO DE CUENCAS A SUPERPÍXELES EN EL ESPACIO DE REPRESENTACIÓN
CONVENCIONAL. .......................................................................................................................................... 51
FIGURA 41. VARIABLES DE EVALUACIÓN PARA VALORACIÓN DE RESULTADOS DE KERNELS DE CLASIFICACIÓN ............................ 51
FIGURA 42. DIAGRAMA DE PAQUETES MARCO COMPUTACIONAL. ................................................................................... 53
FIGURA 43. MODELO LÓGICO MARCO COMPUTACIONAL. .............................................................................................. 53
FIGURA 44. FLUJOGRAMA DE LA CREACIÓN DE UN ESPACIO COMPLEJO CARTESIANO. .......................................................... 54
FIGURA 45. MAPEO FÍSICO POR CADA ELEMENTO CELULAR DEL ESPACIO COMPLEJO CARTESIANO. ......................................... 55
FIGURA 46. CLASES QUE COMPONEN EL PAQUETE "RULES". .......................................................................................... 55

5
FIGURA 47. FLUJOGRAMA IMPLEMENTADO EN EL PAQUETE MONOCHROMATIC PARA CONSTRUCCIÓN DE UN ESPACIO COMPLEJO
CARTESIANO DE NIVELES DE GRISES. ................................................................................................................. 56
FIGURA 48. PARALELIZACIÓN DEL PROCESO DE CONVERSIÓN DE ESPACIO MULTIESPECTRAL A ESPACIO MONOCROMÁTICO. ......... 57
FIGURA 49. ESPACIO DE NIVELES DE GRIS. .................................................................................................................. 57
FIGURA 50. CONSTRUCCIÓN ESPACIO COMPLEJO CARTESIANO FILTRADO. ......................................................................... 58
FIGURA 51. ESPACIO COMPLEJO CARTESIANO DE NIVELES DE GRISES CON SUPRESIÓN DE RUIDO. ........................................... 58
FIGURA 52. CAPAS RESULTANTES DEL ESPACIO FILTRADO............................................................................................... 59
FIGURA 53. FLUJOGRAMA CONSTRUCCIÓN ESPACIO DE TEXTURA. ................................................................................... 60
FIGURA 54. DISTRIBUCIÓN DE CÉLULAS ALGORITMO DEL ENCARGADO DE OBTENER EL VECTOR DE VALORES MÁXIMOS Y EL VECTOR
DE VALORES MÍNIMOS. .................................................................................................................................. 60
FIGURA 55. DISTRIBUCIÓN DE CÉLULAS Y FASES DE EJECUCIÓN PARA UNA ITERACIÓN DEL ALGORITMO DE K-MEDIAS IMPLEMENTADO
EN EL PAQUETE CLUSTERING. .......................................................................................................................... 61
FIGURA 56. ESPACIO DE TEXTURA. ........................................................................................................................... 61
FIGURA 57. FLUJOGRAMA PAQUETE “WATERSHED” QUE IMPLEMENTA LA CONSTRUCCIÓN DE UN ESPACIO DE CUENCAS. ........... 62
FIGURA 58. EJECUCIÓN MÁSCARA DE SOBEL SOBRE EL ESPACIO COMPLEJO CARTESIANO DE NIVELES DE GRISES CON SUPRESIÓN DE
RUIDO. ....................................................................................................................................................... 62
FIGURA 59. RESULTADO ESPACIO DE CUENCAS, FASE FILTRO DE SOBEL Y GRADIENTE DE SOBEL............................................. 63
FIGURA 60. RESULTADO DE LA EJECUCIÓN DEL MARCO DE EVALUACIÓN DE FIABILIDAD DE LÍMITE. ......................................... 64
FIGURA 61. FASES DEL ALGORITMO DE CONSTRUCCIÓN DE CUENCAS. .............................................................................. 64
FIGURA 62. TRANSFORMACIÓN DE ESPACIO BIDIMENSIONAL A ESPACIO UNIDIMENSIONAL. .................................................. 65
FIGURA 63. ESPACIO DE CUENCAS CON 16618 CUENCAS TRAZADAS................................................................................ 65
FIGURA 64. FASES QUE COMPONEN EL PAQUETE DE CLASIFICACIÓN IMPLEMENTADO EN LA HERRAMIENTA COMPUTACIONAL
MATLAB®................................................................................................................................................... 66
FIGURA 65. TRANSFORMACIÓN DE ESPACIO BIDIMENSIONAL A ESPACIO UNIDIMENSIONAL PARA LA EJECUCIÓN DE LA FASE DE
CLASIFICACIÓN. ............................................................................................................................................ 66
FIGURA 66. TRANSFORMACIÓN ESPACIO UNIDIMENSIONAL CLASIFICADO A ESPACIO BIDIMENSIONAL ORIGINAL. ....................... 67
FIGURA 67. MÁSCARAS DE FILTRAJE DIRECCIONAL APLICADA AL ESPACIO DE REPRESENTACIÓN CONVENCIONAL PARA OBTENER EL
ESPACIO FILTRADO REQUERIDO EN LA CONSTRUCCIÓN DE LA CAPA DE TEXTURA. ........................................................ 69
FIGURA 68. RESULTADO CONSTRUCCIÓN CAPAS DE TEXTURA Y CUENCA PARA EL ESPACIO CONVENCIONAL............................... 70
FIGURA 69. EJEMPLO DE ASIGNACIÓN DE ETIQUETA A LOS PÍXELES PERTENECIENTES AL LÍMITE DE CUENCA. ............................. 70
FIGURA 70. FLUJO DE PROCESOS DE CLASIFICACIÓN DE IMAGEN BASADO EN LOS SUPERPÍXELES ASOCIADOS A LOS RASGOS
RADIOMÉTRICOS, USANDO COMO CLASIFICADOR MÁQUINAS DE SOPORTE VECTORIAL (SVM). ..................................... 71
FIGURA 71. FLUJO DE PROCESOS DE CLASIFICACIÓN DE IMAGEN BASADO EN LOS SUPERPÍXELES ASOCIADOS A LOS RASGOS DE
TEXTURA USANDO COMO CLASIFICADOR MÁQUINAS DE SOPORTE VECTORIAL (SVM). ................................................ 72
FIGURA 72. ESCENARIO DE CLASIFICACIÓN COMPLETO; SUPERPÍXELES CON RASGOS RADIOMÉTRICOS MÁS RASGOS DE TEXTURA. . 73
FIGURA 73. RESULTADOS DE CLASIFICACIÓN PARA EL ESCENARIO DE SUPERPÍXELES ASOCIADOS A LOS RASGOS RADIOMÉTRICOS. .. 74
FIGURA 74. RESULTADOS DE CLASIFICACIÓN PARA EL ESCENARIO DE SUPERPÍXELES ASOCIADOS A LOS RASGOS DE TEXTURA. ........ 76
FIGURA 75. RESULTADOS DE CLASIFICACIÓN PARA SUPERPÍXELES CON RASGOS RADIOMÉTRICOS MÁS RASGOS DE TEXTURA ........ 78
FIGURA 76. DIAGRAMA DE CLASES PAQUETE CARTESIANCOMPLEXCORE. .......................................................................... 92
FIGURA 77. DIAGRAMA DE CLASES PAQUETE STRUCTURE............................................................................................... 93
FIGURA 78, DIAGRAMA DE CLASES PAQUETE MONOCHROMATIC. .................................................................................... 94
FIGURA 79. DIAGRAMA DE CLASES PAQUETE DIRECTIONALFILTER. ................................................................................... 95
FIGURA 80. DIAGRAMA DE CLASES PAQUETE CLUSTERING.............................................................................................. 96
FIGURA 81. DIAGRAMA DE CLASES PAQUETE WATERSHED. ............................................................................................ 97
FIGURA 82. ESPACIO CONVENCIONAL FILTRADO. EN LA IMAGEN SE PUEDE OBSERVAR COMO LOS BORDES DE LOS OBJETOS EN LA
ESCENA SE RESALTAN. ................................................................................................................................... 98
FIGURA 83. RESULTADO GRADIENTE DE IMAGEN PARA EL ESPACIO DE REPRESENTACIÓN CONVENCIONAL. ............................... 98

Índice de Tablas

6
TABLA 1. TÉCNICAS DE EXTRACCIÓN DE VECTORES CARACTERÍSTICOS EN FUNCIÓN DEL COLOR Y LA TEXTURA DE LA IMAGEN ........ 29
TABLA 2. CLASES Y COLOR ASIGNADO EN LA CAPA DE VERDAD DE TERRENO. ...................................................................... 32
TABLA 3.TABLA LÓGICA COMBINATORIAL DE ARCOS POR CUADRANTE. ............................................................................. 39
TABLA 4. TABLA LÓGICA COMBINATORIAL REGIONES.................................................................................................... 40
TABLA 5. CÉLULA GANADORA POR CUADRANTE ADYACENTE. .......................................................................................... 41
TABLA 6. RESULTADOS DE VALIDACIÓN CRUZADA DE DIFERENTES MODELOS SVM KERNEL ..................................................... 52
TABLA 7. PONDERACIÓN PARA SELECCIÓN DE KERNEL. .................................................................................................. 52
TABLA 8. MATRIZ DE CONFUSIÓN RESULTANTE DE LA CLASIFICACIÓN DE LOS SUPERPÍXELES OBTENIDOS A PARTIR DEL ESPACIO DE
REPRESENTACIÓN CONVENCIONAL ASOCIADOS A LOS RASGOS DE RADIOMÉTRICOS. .................................................... 75
TABLA 9. MATRIZ DE CONFUSIÓN RESULTANTE DE LA CLASIFICACIÓN DE LOS SUPERPÍXELES OBTENIDOS A PARTIR DEL ESPACIO
COMPLEJO CARTESIANO ASOCIADOS A LOS RASGOS DE RADIOMÉTRICOS. ................................................................. 75
TABLA 10. EXACTITUD RESULTANTE DEL PROCESO DE CLASIFICACIÓN, CALCULADA A PARTIR DE LA MATRIZ DE CONFUSIÓN DE CADA
UNO DE LOS ESPACIOS (SC Y SCCC). ................................................................................................................ 75
TABLA 11. INTERVALOS DE CONFIANZA PRODUCTO DE LA CLASIFICACIÓN DEL ESCENARIO DE SUPERPÍXELES ASOCIADOS A LOS
RASGOS RADIOMÉTRICOS. .............................................................................................................................. 75
TABLA 12. MATRIZ DE CONFUSIÓN RESULTANTE DE LA CLASIFICACIÓN DE LOS SUPERPÍXELES OBTENIDOS A PARTIR DEL ESPACIO DE
REPRESENTACIÓN CONVENCIONAL ASOCIADOS A LOS RASGOS DE TEXTURA. .............................................................. 76
TABLA 13. MATRIZ DE CONFUSIÓN RESULTANTE DE LA CLASIFICACIÓN DE LOS SUPERPÍXELES OBTENIDOS A PARTIR DEL ESPACIO
COMPLEJO CARTESIANO ASOCIADOS A LOS RASGOS DE TEXTURA............................................................................. 77
TABLA 14. EXACTITUD RESULTANTE DEL PROCESO DE CLASIFICACIÓN, CALCULADA A PARTIR DE LA MATRIZ DE CONFUSIÓN DE CADA
UNO DE LOS ESPACIOS. .................................................................................................................................. 77
TABLA 15. INTERVALOS DE CONFIANZA PRODUCTO DE LA CLASIFICACIÓN DEL ESCENARIO DE SUPERPÍXELES ASOCIADO A LOS RASGOS
DE TEXTURA. ............................................................................................................................................... 77
TABLA 16. MATRIZ DE CONFUSIÓN RESULTANTE DE LA CLASIFICACIÓN DE LOS SUPERPÍXELES A PARTIR DEL ESPACIO DE
REPRESENTACIÓN CONVENCIONAL SUPERPÍXELES ASOCIADOS A LOS RASGOS RADIOMÉTRICOS MÁS LOS RASGOS DE TEXTURA.
................................................................................................................................................................ 78
TABLA 17. MATRIZ DE CONFUSIÓN RESULTANTE DE LA CLASIFICACIÓN DE LOS SUPERPÍXELES OBTENIDOS A PARTIR DEL ESPACIO
COMPLEJO CARTESIANO SUPERPÍXELES ASOCIADOS A LOS RASGOS RADIOMÉTRICOS MÁS LOS RASGOS DE TEXTURA. .......... 78
TABLA 18. EXACTITUD RESULTANTE DEL PROCESO DE CLASIFICACIÓN CALCULADA A PARTIR DE LA MATRIZ DE CONFUSIÓN DE CADA
UNO DE LOS ESPACIOS. .................................................................................................................................. 79
TABLA 19. INTERVALOS DE CONFIANZA PRODUCTO DE LA CLASIFICACIÓN DEL ESCENARIO DE SUPERPÍXELES ASOCIADOS A LOS
RASGOS RADIOMÉTRICOS MÁS LOS RASGOS DE TEXTURA. ..................................................................................... 79

7
1. OBJETIVOS DEL ESTUDIO

El primer contenido que se presenta a continuación, corresponde a una breve introducción


sobre el trabajo desarrollado, incluyes los conceptos elementales para el entendimiento del
problema de investigación e hipótesis del trabajo. Seguido, se muestran los objetivos, alcance
y justificación del trabajo de investigación.

1.1. Introducción

La definición de un espacio topológico finito que cumpla con los axiomas propuestos por la
topología ha sido de especial interés desde finales de la década de los 80 para los científicos
de las ciencias de la computación. Dicho espacio busca poder definir y detallar las
características propias del terreno real, entre ellas las más relevantes, los límites de un objeto,
sus curvas características y la conectividad entre ellos. Estas características son de vital
importancia a la hora de definir donde comienza y donde termina un objeto (esto en un
posible procesamiento y análisis de la imagen). Varios autores han tratado de resolver los
problemas planteados por la topología discreta, entre ellos Kiselman [1] quien realiza una
demostración de la propuesta realizada por Khalimsky [2] en la cual se propone un espacio
conectado ordenado topológico, (COTS por su siglas en inglés “Connected Ordered
Topological Space”), este espacio representado en un complejo cartesiano es similar al
propuesto por Kovalevsky, pero marcado por la ausencia de dimensión en la representación
de cada uno de los elementos del conjunto y su relación directa de este concepto en la
definición de adyacencia [3]. La ausencia de dimensión en la representación de los elementos
que componen el espacio localmente finito no permite la definición de vecindarios entre
elementos de diferentes dimensiones [3].

Otros autores han planteado una posible solución al problema de conectividad entre los
Píxeles que componen la imagen desde la teoría de los grafos. Un ejemplo de ello es la
propuesta de Rosenfeld [4] el cual, sin embargo, no resuelve el problema a partir de la
definición de vecindarios y sus posibles 4 - conectado y 8 - conectado, debido a las paradojas
que conlleva la definición de vecindarios a partir de ellos, lo cual no permite definir de
manera consistente un espacio en el cual exista una topología finita.

Autores posteriores encontraron que la solución propuesta por la teoría de grafos con base en
los vecindarios 4 - y 8 - conectados no permitían la definición de espacios conectados y no
conectados de manera precisa (como sí ocurre en la topología de los espacios continuos) [5]
entre ellos Vladimir Kovalevsky [3][6][7], quien es sus escritos muestra cómo los grafos de
vecindad en su solución se ven inmersos en un problema de conectividad entre sus elementos
llamado paradojas de conectividad [8][9]. Para dar solución a ello [6] propone el desarrollo
de un espacio topológico finito compuesto por complejos de células abstractas [10]. El
término de complejo de células abstractas es aplicado al campo de la topología para describir
la estructura de las imágenes y permitir en su definición el uso de la geometría computacional
[9].

8
Mediante la investigación realizada, como parte del proyecto de investigación doctoral
titulado “Development of an alternative method for multispectral image segmentation based
on cartesian complexes and their associated oriented matroids” desarrollado por el profesor
José Antonio Valero Medina, se logra desarrollar un modelo de clasificación de imagen con
base en su representación como un complejo de células abstractas el cual permite definir las
nociones de adyacencia, conectividad y frontera, y tener como resultado un espacio
topológico finito, libre de paradojas y consistente con la definición de un espacio topológico
con la propiedad de separación 𝑇0 [11].

1.2. Planteamiento Del Problema De Investigación

Los procesos actuales de clasificación de imagen se desarrollan bajo procedimientos


matemáticos en los cuales las características descritas por la topología, tales como
adyacencia, conectividad y frontera entre los objetos, no son cumplidas. Este problema se
debe a que el modelo tradicional de cómputo, el cual está basado en la matriz bidimensional
de píxeles utilizado para la representación de una imagen, presenta dificultades a la hora de
definir las nociones topológicas. Para resolver este problema, científicos de la computación
han planteado soluciones alternativas para la representación de la imagen, una de ella son los
grafos de vecindad, propuestos por Rosenfeld [12] el cual plantea para el estudio de las
propiedades topológicas de la imagen la representación como un grafo no dirigido en el cual
un píxel es mapeado a un vértice, y la relación entre cada uno de estos elementos se determina
por las vecindades 4 - y 8 - conectado. De acuerdo con la topología clásica [13] una curva
cerrada separa en dos componentes conectados el espacio Euclidiano, esta definición se ve
resuelta de manera inconsistente en el plano digital debido a las paradojas de vecindad [6].

1.3. Objetivos

1.3.1. Objetivo General

Diseñar un modelo de clasificación de Imágenes multiespectrales que incluya el componente


topológico proporcionado por los complejos de células abstractas.

1.3.2. Objetivos Específicos

 Implementar un marco computacional para clasificación de imágenes multiespectral


usando complejos de células abstractas.

 Comparar el desempeño del modelo propuesto con los métodos tradicionales de


clasificación de imagen.

9
1.4. Pregunta De Investigación E Hipótesis

1.4.1. Pregunta

¿De qué manera las nociones definidas por la topología (adyacencia, vecindad y frontera)
para cada uno de los elementos que componen la muestra espacial sensada pueden ser
incluidas para mejorar el proceso de clasificación de imagen?

1.4.2. Hipótesis

El proceso de clasificación de una imagen multiespectral se mejora al representarla con base


en complejos de células abstractas ya que estos últimos cumplen con los axiomas de un
espacio topológico 𝑇0 libre de ambigüedades en la definición de las propiedades topológicas
de frontera y conexión.

1.5. Delimitación Del Alcance

El presente trabajo se encuentra limitado a la construcción de un modelo de clasificación de


imagen multiespectral basado en las máquinas de soporte vectorial (SVM por su sigla en
inglés) el cual incluye como etapa de pre procesamiento una versión simplificada del marco
procedimental presentado por [14] pero reformulado en términos de una representación del
espacio basada en los complejos de células abstractos.

1.6. Justificación

La topología general moderna considera que el conjunto de elementos o puntos que


componen un espacio tienen la propiedad de que cada uno de sus puntos que lo componen se
encuentra rodeado por infinitos puntos vecinos [10]. En el proceso de clasificación de una
imagen raster, cada uno de los puntos de la matriz resultante del sensado de la escena es
procesado de manera individual, olvidando que este punto se encuentra asociado a una
muestra espacial en donde cada uno de sus puntos vecinos puede tener incidencia. La
propuesta de la presente investigación es desarrollar un modelo de clasificación de imagen
en el cual los puntos sean procesados teniendo en cuenta su vecindario, para lo cual se hará
necesario definir en el espacio del dominio espectral las nociones de adyacencia,
conectividad y frontera; para ello, nos apoyaremos en la teoría desarrollada por Vladimir
Kovalevsky, “los complejos de células abstractas” la cual permite definir para la celda
abstracta propuesta estas nociones requeridas. Lo anterior permitirá obtener un espacio
topológicamente finito, consistente con la definición de espacio de la topología moderna.

10
2. MARCO DE REFERENCIA

En esta sección se abordan los elementos conceptuales que componen el sustento teórico del
modelo de clasificación desarrollado en el presente documento (sección 3.2.1), al igual que
los estudios que se usaron como referente en diseño y construcción del modelo.

2.1. Marco Teórico

En la literatura del procesamiento digital de imagen, los procedimientos de clasificación de


se han desarrollado en dos vertientes principales: clasificación supervisada y no supervisada;
a continuación, se presentan los conceptos y técnicas más representativas para cada una de
las vertientes, seguido se presentan las nociones teóricas de los complejos de células
abstractas, que son incluidos en la presente investigación como sustento teórico que define
de manera consistente, para un espacio localmente finito, las nociones topológicas entre ellas
vecindario y frontera de un elemento. Esta teoría propone la definición de un espacio
topológico digital basado en el axioma de separabilidad 𝑇0 el cual se incluye en el desarrollo
del modelo propuesto.

2.1.1. Clasificación De Imagen Multiespectral

El procesamiento digital de imágenes es el conjunto de técnicas que se aplican a las imágenes


digitales con el objetivo de mejorar la calidad o facilitar la búsqueda de información. Una
imagen puede ser definida como una función 𝑓(𝑥, 𝑦) donde 𝑥 y 𝑦 son valores o coordenadas
espaciales (plano), y la amplitud de 𝑓 representa la intensidad o nivel de gris en el punto. Un
conjunto de valores finitos x, y, y su respectivo nivel de intensidad f, recibe el nombre de
imagen digital [15]. El procesamiento de imágenes digitales se realiza desde dos enfoques,
uno desde el punto de vista del procesamiento de señales donde se considera el dominio de
las frecuencias y un segundo enfoque en el dominio espacial donde se considera la imagen
como una matriz [16].

Una de las técnicas disponibles para digitalización de imágenes es la teledetección. La


teledetección puede ser definida como “la ciencia y arte de obtener información acerca de la
superficie de la tierra sin entrar en contacto con ella” [17] , o como otros autores indican,
“una técnica aplicada, a través del tiempo y el espacio, que permite obtener información de
los objetos que se hallan en la superficie de la tierra” [18]. Para que esta observación sea
posible es necesario que, aunque sin contacto material, exista algún tipo de interacción entre
los objetos y el sensor. Para el caso particular, la interacción estará definida por el flujo de la
radiación reflejada por los cuerpos [19]. Lo anterior define el conjunto de valores resultantes
como el resultado de reflexión en cada una de las bandas. El resultado es una representación
numérica de la respuesta espectral de la zona o región espacial capturada por el sensor.

11
Finalizada la fase de digitalización, inicia el procesamiento digital de la información, dentro
de la cual la técnica de clasificación de imagen es muy común. La clasificación de imagen
hace referencia al proceso de estereotipar la información de una imagen que se encuentra en
el dominio espectral en grupos llamados clases, esto es, etiquetar cada uno de los píxeles en
función de su respuesta espectral en una clase de información [20]. El proceso de
clasificación es el encargado de analizar las propiedades numéricas de los datos y los
organiza cada uno de ellos en categorías [21]. Para la ejecución de la clasificación espectral,
se parte del supuesto que diferentes objetos tienen diferente respuesta espectral, y lo que se
define como clase, es el patrón característico de respuesta espectral; este patrón característico
recibe el nombre de firma espectral. La suposición anterior permite generar una segmentación
de la imagen donde cada región representa una clase espectral formada por objetos de
propiedades espectrales similares. La clasificación espectral puede ser realizada de manera
puntual, es decir, clasificar un píxel en función únicamente de su respuesta espectral; o bien
de manera contextual, donde un píxel se clasifica de acuerdo con el contexto espectral en el
que se encuentra. También es posible realizar la clasificación bajo un esquema booleano en
donde un píxel se representa por una clase, o aplicando el concepto de lógica difusa, con
funciones de membresía que determinan la probabilidad de pertenencia a una o varias clases.
Un clasificador es entonces, el procedimiento bajo el cual un píxel es asignado a una clase
dentro de un conjunto de clases predefinidas. La Figura 1 muestra los procedimientos,
métodos y lógicas definidos en el proceso de clasificación [22]:

Figura 1. Procedimientos, métodos y lógica del proceso de clasificación de Imagen.


[22].

La clasificación no supervisada es una operación de segmentación de la imagen, basada en


algoritmos de agrupamiento o clustering, cuya finalidad es agrupar los elementos en función
de alguna similitud o similaridad entre ellos [23]. En este proceso, cada uno de los píxeles
recibe un valor asociado a su respuesta espectral. Esta técnica de clasificación recibe el
nombre de no supervisada en relación a que los algoritmos no requieren información
espectral acerca de las clases en las que se desea segmentar la imagen. El objetivo principal
de esta técnica es encontrar grupos formados por píxeles espectrales similares entre sí. Ya
que las técnicas no supervisadas se desarrollan con algoritmos estadísticos, uno de los
parámetros para la solución es la cantidad de grupos a identificar (en la mayoría de los casos
es un valor aleatorio) lo que repercute de manera directa en el resultado de la imagen
clasificada. El conocimiento previo de la escena real y un análisis estadístico de la imagen
permite estimar un valor adecuado para el número de grupos que pueden ser producidos en
la segmentación de la imagen en las clases buscadas [22].

K-Medias es uno de los algoritmos de aprendizaje no supervisado más simple para resolver
el problema de agrupamiento. Este algoritmo está destinado a situaciones en las cuales todas
las variables son de tipos cuantitativos [24]. Este algoritmo requiere para su solución, la

12
especificación del número de clases a obtener y el mínimo de puntos iniciales para la creación
de cada una de ellas [25].

El algoritmo ISODATA (iterative self-organizing data analysis techniques) es una variante


del algoritmo K-Medias. A diferencia de su precursor, se incluyen dos parámetros adicionales
en la ejecución del algoritmo: la posibilidad de especificar un clúster inicial que represente
una dispersión demasiado grande, y la opción de unir o eliminar clúster demasiado pequeños
[22].

La clasificación supervisada se basa en la existencia de áreas de entrenamiento en donde se


parte de un conjunto de clases pre establecidas con un píxel representativo a cada una de
ellas. Estas áreas servirán para generar una firma espectral característica de cada una de las
clases predefinidas [19].

En la clasificación supervisada, cada uno de los píxeles resultantes de la imagen


multiespectral es asignado a una de las clases espectrales predefinidas al inicio del proceso,
para ello se realizan las siguientes etapas [22]:

 Especificar las clases en las cuales se propone segmentar la imagen.


 Escoger de forma interactiva los píxeles prototipo a cada una de las clases
predefinidas.
 Utilizar los datos prototipos para estimar los datos del clasificador.
 Emplear el clasificador calibrado para etiquetar cada uno de los píxeles de la imagen
en una de las clases definidas.
 Generar un mapa temático.

Los métodos de clasificación supervisados, al igual que los no supervisados, requieren de


algoritmos de entrenamiento, que resuelven el proceso de selección de clase. Uno de esto
métodos es el de Máquinas de Soporte Vectorial. Una máquina de soporte vectorial (SVM
por su sigla en inglés) representa un algoritmo de aprendizaje. La teoría de SVM está basada
en la idea de minimización de riesgo estructural. A diferencia de los métodos convencionales
de clasificación probabilísticos, reduce al mínimo el nivel de error en un sentido empírico,
que está directamente determinado por la distribución de la muestra de entrenamiento. El
concepto de minimización del riesgo estructural adoptado por SVM está asociado a la
reducción de la probabilidad de error de clasificación de un punto de datos extraído de manera
aleatoria a partir de una distribución de probabilidad fija [26]. Las SVM originalmente se
concibieron como clasificadores binarios lineales, asignando etiquetas de +1 y −1. El
funcionamiento básico de una SVM se basa en la construcción de un hiperplano de
separación (límite de decisión) sobre las propiedades de las muestras del conjunto de
entrenamiento, ubicando estas propiedades sobre el espacio de características. La ubicación
del hiperplano estará sujeta al margen máximo de separación entre la clase +1 y la clase −1.
En la Figura 2 se puede observar un ejemplo de un hiperplano con máximo margen de
separación entre la clase A y la clase B [26].

13
Figura 2. Ubicación de Hiperplano con máximo margen de separación
[26].

Las SVM se presentan en dos casos, un escenario en donde las clases son linealmente
separables y otro, el caso contrario [26]. Supóngase que existen dos clases linealmente
separables, el conjunto de datos está representado por los pares {𝑥𝑖 , 𝑦𝑖 }, 𝑖 = 1, … , 𝑛, 𝑦𝑖 ∈
{1, −1}, 𝑥𝑖 ∈ 𝑅 𝑑 , donde 𝑥𝑖 son las observaciones multiespectrales, 𝑦𝑖 la etiqueta de la clase
para el 𝑖 caso. La etiqueta puede ser −1 o 1 que representa la clase 1y la clase 2. El objetivo
principal del clasificador de vectores de soporte es la construcción de un hiperplano óptimo
que separa las dos clases de tal manera que la distancia (margen) desde el hiperplano a los
datos de entrenamiento más cercano, sea lo más grande posible. El hiperplano puede ser
representado por la función de decisión [26] presentado en la ecuación 1:

𝑤𝑇𝑥 + 𝑏 = 0 ( 1 )

Donde 𝑥 es el punto situado en el hiperplano, 𝑤 es la normal al hiperplano, 𝑇 denota la


trasposición de la matriz, y 𝑏 representa el sesgo. La distancia perpendicular desde el
hiperplano al origen es |𝑏|/∥ 𝑤 ∥, donde ∥ 𝑤 ∥ es la norma Euclidiana de 𝑤 (ver Figura 3)
[26].

Figura 3. Separación optima de hiperplano: 𝑤 𝑇 𝑥 + 𝑏 = 0


[26].

De acuerdo a lo mostrado en la Figura 3, se define de manera implícita una escala (𝑤 × 𝑏) y


con ello generar dos hiperplanos canónicos (𝑃1 y 𝑃2), es decir, 𝑤 𝑇 × 𝑥𝑖 + 𝑏 = 1 para los
puntos de entrenamiento más cercanos en un lado del hiperplano, con la normal 𝑤 y distancia
perpendicular al origen |1 − 𝑏|/∥ 𝑤 ∥, el segundo, 𝑤 𝑇 × 𝑥𝑖 + 𝑏 = −1, para los otros puntos
más cercanos en el otro lado, con distancia perpendicular al origen |−1 − 𝑏|/∥ 𝑤 ∥ [26].

14
Cada conjunto de puntos de entrenamiento más cercanos al origen, son referidos como los
vectores de soporte [26].

Resolviendo para 𝑦𝑖 (𝑤 𝑇 × 𝑥𝑖 + 𝑏) ≥ 0 aplicando los multiplicadores Lagrangianos [26], se


obtienen las ecuaciones 2 y 3 con las cuales se define 𝑤 y 𝑏 respectivamente.
𝑛𝑠𝑣
( 2 )
𝑤 = ∑ 𝛼𝑖 𝑦𝑖 𝑥𝑖
𝑖=1

1 ( 3 )
𝑏= − 𝑤 × (𝑥𝑟 + 𝑥𝑠 )
2

Donde 𝑛𝑠𝑣 es el número de vectores de soporte, 𝑥𝑟 es el vector de soporte perteneciente a la


clase 𝑦𝑟 = 1, y 𝑦𝑠 = −1 para 𝑥𝑠 . Es importante tener presente que el sesgo (𝑏) se calcula
utilizando todos los vectores de soporte al momento de evaluar el margen de estabilidad [26].
En consecuencia, para los escenarios de clasificación de dos clases la regla de decisión
presentada en la ecuación 4, se puede reescribir como:

𝑛𝑠𝑣
( 4 )
𝑓(𝑥) = 𝑠𝑖𝑔𝑛 (∑ 𝛼𝑖 𝑦𝑖 (𝑥 × 𝑥𝑖 ) + 𝑏)
𝑖=1

Para el escenario cuyo hiperplano de separación no se logra definir de manera lineal, la SVM
mapea los datos a un espacio multidimensional con el fin de mejorar la separabilidad entre
las clases [26], para lo cual implementa la estrategia presentada por [27], aplicando el
principio para superficies no lineales [28], obteniendo el vector de características 𝑥𝑖 ∈ 𝑅 𝑑
que mapea los elementos a un espacio euclidiano de dimensión superior, o espacio de Hilbert
[29].

Cada una de las muestras es proyecta al espacio 𝐻 aplicando la función Φ: 𝑅 𝑑 → 𝐻,


permitiendo reescribir la regla de asignación como se muestra en la ecuación 5 [26]:
𝑛𝑠𝑣
( 5 )
𝑓(𝑥) = 𝑠𝑖𝑔𝑛 (∑ 𝛼𝑖 𝑦𝑖 Φ(𝑥) ∙ Φ(𝑥𝑖 ) + 𝑏)
𝑖=1

El coste computacional de (Φ(𝑥) × Φ(𝑥𝑖 )) puede llegar a ser bastante alto para un espacio
bidimensional, razón por la cual Vapnik [30] definiendo una función de núcleo (kernel)
denotada como 𝐾(𝑥, 𝑦), tal que 𝐾(𝑥, 𝑦) = Φ(𝑥) × Φ(𝑦), donde 𝑥 = (𝑥1 , 𝑥2 ) y 𝑦 = (𝑦1 , 𝑦2 ).
Acorde a lo anterior, se tiene que [26]:

𝐾(𝑥, 𝑦) = (𝑥1 𝑦1 + 𝑥2 𝑦2 )2
= 𝑥1 2 𝑦1 2 + 2𝑥1 𝑦1 𝑥2 𝑦2 + 𝑥2 2 𝑦2 2 ( 6 )
= (𝑥1 2 , 𝑥2 2 √2𝑥1 𝑥2 ) × (𝑦1 2 , 𝑦2 2 √2𝑦1 𝑦2 )
= Φ(𝑥) × Φ(𝑦)
15
Figura 4. Mapeo de muestras a un espacio de dimensión superior para lograr la mayor separabilidad entre las clases
[26].

En la Figura 4 se muestra el concepto de separación de clase en un espacio de dimensión


superior.

Con la función de kernel definida en la ecuación 6, a continuación, se exponen los 5 kernels


más comunes usados como función de núcleo:

 Polinómico homogéneo

𝐾(𝑥𝑖 , 𝑥𝑗 ) = γ(𝑥𝑖 × 𝑥𝑗 )𝑑 ( 7 )

 Polinómico no homogéneo

𝐾(𝑥𝑖 , 𝑥𝑗 ) = γ(𝑥𝑖 × 𝑥𝑗 + δ)𝑑 , γ > 0, δ > 0 ( 8 )

 Función de base radial

𝐾(𝑥𝑖 , 𝑥𝑗 ) = exp(−γ ∥ 𝑥𝑖 − 𝑥𝑗 ∥2 ), γ > 0 ( 9 )

 Función de base radial Gaussiana

−∥ 𝑥𝑖 − 𝑥𝑗 ∥2⁄
𝐾(𝑥𝑖 , 𝑥𝑗 ) = exp ( 2𝜎 2 )
( 10 )

 Sigmoid

𝐾(𝑥𝑖 , 𝑥𝑗 ) = tanh(γ(𝑥𝑖 × 𝑥𝑗 ) − δ) , γ > 0, δ > 0


( 11 )

El rendimiento y la precisión de la máquina SVM estará estrechamente relacionado al kernel


seleccionado [26], sin embargo y aunque en los resultados expuestos en [26] se evidencie
que un kernel es mejor que otro, la mejor elección de un núcleo para un problema dado
todavía es materia de investigación. De igual forma, la selección de los parámetros (γ y δ
como es el caso en 8, 9, 11) y el nivel de error 𝐶 son criterios de ejecución que deberán ser

16
seleccionados a juicio del implementador tratando de asegurar el mejor resultado de
clasificación.

2.1.2. Complejos De Células Abstractas

Los complejos de células abstractas permiten definir estructuras computacionales para la


representación de nociones o rasgos topológicos en imágenes digitales. Vladimir Kovalevsky
[6] muestra que su propuesta de topología definida con base en los complejos cartesianos es
la única topología que puede ser definida para los espacios localmente finitos. Este espacio
topológico permite contar con nociones de conexión y frontera libres de paradojas o
contradicciones. El presente trabajo presenta la definición formal para los complejos de
células abstractas y los diferentes algoritmos que permiten procesar una imagen en este
espacio.

Un complejo de células abstractas es un conjunto 𝐸 de elementos abstractos provistos de una


relación binaria antisimétrica, irreflexiva y transitiva llamada relación de límite o cara (ver
ecuación 12).

C = (E, B, dim), B⊂E ×E ( 12 )

Donde 𝐶 es un complejo de células abstractas, 𝐸 el conjunto de elementos (células abstractas)


que componen el espacio y 𝐵 la relación de cara o límite. Para la definición precisa, el espacio
celular cuenta con una función de dimensionalidad entre sus elementos 𝑑𝑖𝑚 la cual define
para cada elemento del conjunto 𝐸 un subconjunto 𝐼 de enteros no negativos tal que
𝑑𝑖𝑚(𝑒 ′ ) < 𝑑𝑖𝑚(𝑒 ′′ ) para cada par ordenado (𝑒 ′ , 𝑒 ′′ ) ∈ 𝐵 [6]. La relación de límite 𝐵 de
orden parcial en 𝐸 indica el orden de los pares ordenados (𝑒 ′ , 𝑒 ′′ ) en donde se dice que 𝑒 ′
es parte del límite de 𝑒 ′′ o que 𝑒 ′ es cara de 𝑒 ′′ tal que es denotada como 𝑒 ′ < 𝑒 ′′ . La Figura
5 muestra a manera ilustrativa la relación de cara o límite.

Figura 5. Relación de Límite o Cara.


[6].

La función 𝑑𝑖𝑚(∗) permite definir la dimensión para cada elemento del complejo. Un
elemento 𝑒 ′ con 𝑑𝑖𝑚(𝑒 ′ ) = 𝑑 recibe el nombre de elemento celular 𝑑-dimensional o 𝑑-
célula. Un complejo es llamado 𝑘 – dimensional si la dimensión de cada uno de sus elementos

17
es igual o menor a 𝑘. Los elementos 2 – dimensionales serán entonces elementos de área.
Para el caso del procesamiento de imagen, estarán asociados a la noción de píxel [6]. Un
sub complejo celular 𝐶 ′ es definido como el sub conjunto de elementos del complejo 𝐶 donde
cada uno de los elementos 𝐸 ′ son un sub conjunto de elementos de 𝐸 y la relación de límite
𝐵 ′ es la intersección de la relación de límite 𝐵 con los pares ordenados 𝐸 ′ × 𝐸 ′ . En la
ecuación 13 se muestra la definición para un subconjunto complejo celular 𝐶 ′ .

C′ = (E ′ , B′ , dim′ ) ( 13 )

La dimensión para cada uno de los elementos 𝐸 ′ no resulta afectada, acorde a lo expuesto en
la ecuación 14.

𝑑𝑖𝑚′ (𝑒) = 𝑑𝑖𝑚(𝑒) ( 14 )

A continuación, se introducen varios conceptos relevantes de los complejos de células


abstractas, usados en la definición de las nociones topológicas para los espacios finitos.

I. Abierto (𝑂𝑃 − 𝑂𝑃𝐸𝑁): un subconjunto 𝑂𝑆 de células de un sub complejo 𝐶 ′ de


un complejo 𝐶 es abierto en 𝐶 ′ si este contiene todas las células de 𝐶 ′ delimitadas
por las células de 𝑂𝑆 [31].
II. Vecindario más pequeño (𝑆𝑁 − 𝑆𝑚𝑎𝑙𝑙𝑒𝑠𝑡 𝑁𝑒𝑖𝑔ℎ𝑏𝑜𝑟ℎ𝑜𝑜𝑑): es un espacio
localmente finito, producto de la intersección de todos los vecindarios de 𝑒 [31].
III. Vecindario abierto más pequeño (𝑆𝑂𝑁 − 𝑆𝑚𝑎𝑙𝑙𝑒𝑠𝑡 𝑂𝑝𝑒𝑛 𝑁𝑒𝑖𝑔ℎ𝑏𝑜𝑟ℎ𝑜𝑜𝑑): es el
subcomplejo 𝑆 que contiene una célula 𝑐 y es abierta en 𝑆, se denotará por
𝑆𝑂𝑁(𝑐, 𝑆) [31].
IV. Conectado (𝐶𝑁 − 𝐶𝑜𝑛𝑒𝑐𝑡𝑒𝑑): El sub conjunto 𝑆 es conectado si para cada
elemento 𝑒 ′ 𝑦 𝑒 ′′ de 𝑆, existe un camino en 𝑆 de 𝑒 ′ 𝑎 𝑒 ′′ . Esta definición
corresponde con la noción de “Arco Conectado” en la topología general [31].
V. Frontera (𝐹𝑅 − 𝐹𝑟𝑜𝑛𝑡𝑖𝑒𝑟): Se entiende como frontera o límite topológico al
subconjunto no vacío 𝑇 del espacio 𝑆, compuesto por los 𝑒 − 𝑒𝑙𝑒𝑚𝑒𝑛𝑡𝑜𝑠 de 𝑆
cuyo vecindario contenga elemento de 𝑇 y el complemento 𝑆 − 𝑇. La frontera se
denotará como 𝐹𝑟(𝑇, 𝑆) [31].
VI. Relación de Vecindad (𝑁𝑅 − 𝑁𝑒𝑖𝑔ℎ𝑏𝑜𝑟ℎ𝑜𝑜𝑑 𝑅𝑒𝑙𝑎𝑡𝑖𝑜𝑛): La relación de
vecindad 𝑁𝑅 es una relación binaria que tiene cada uno de los 𝑒 − 𝑒𝑙𝑒𝑚𝑒𝑛𝑡𝑜𝑠
del espacio 𝑆, en donde si (𝑎, 𝑏) tiene una 𝑁𝑅, si y solo si 𝑎 ∈ 𝑆𝑁(𝑏). Esta
relación también puede ser denotada como 𝑎𝑁𝑏 para (𝑎, 𝑏) 𝑒𝑛 𝑁 [32].
VII. Opuestos (𝑂𝑇 − 𝑂𝑝𝑝𝑜𝑛𝑒𝑛𝑡𝑠): un par de elementos (𝑎, 𝑏) de la frontera 𝐹𝑟(𝑇, 𝑆)
del subconjunto 𝑇 ⊂ 𝑆 son opuestos entre sí, si 𝑎 pertenece al 𝑆𝑁(𝑏), 𝑏 pertenece
a 𝑆𝑁(𝑎), y uno de ellos pertenece a 𝑇 y el otro a 𝑆 − 𝑇 [31].
VIII. Clausura (𝐶𝑙 − 𝐶𝑙𝑎𝑢𝑠𝑢𝑟𝑒): Es el subconjunto más pequeño del conjunto 𝑆 que
contiene una célula 𝑐 de 𝑆 y es cerrado en 𝑆. Se denota como 𝐶𝑙(𝑐, 𝑆) [32].
IX. Incidencia (𝐼 − 𝐼𝑛𝑐𝑖𝑑𝑒𝑛𝑡): si 𝑏 ∈ 𝑆𝑁(𝑎) 𝑜 𝑎 ∈ 𝑆𝑁(𝑏), entonces se dice que
𝑎 𝑦 𝑏 son incidentes entre sí [32].
X. Ruta de Incidencia (𝐼𝑃 − 𝐼𝑛𝑐𝑖𝑑𝑒𝑛𝑡 𝑃𝑎𝑡ℎ): sea 𝑇 un subconjunto del espacio 𝑆,
consideremos la secuencia (𝑎1 , 𝑎2 , 𝑎3 , … , 𝑎𝑘 ), donde 𝑎𝑖 ∈ 𝑇 𝑒 𝑖 = 1, 2, 3, … 𝐾; si

18
cada dos elementos posteriores son incidentes entre sí, se asignará el nombre de
ruta incidente de 𝑎𝑖 ℎ𝑎𝑠𝑡𝑎 𝑎𝑘 [31].

Un espacio topológico es un par (𝐸, 𝑆𝑌) compuesto de elementos abstractos 𝐸 y un sistema


𝑆𝑌 = {𝑆1, 𝑆2, 𝑆3, … , 𝑆𝑖, … }. El sub conjunto 𝑆𝑖 de 𝐸 es llamado sub conjunto abierto del
espacio que satisface los siguientes axiomas [3]:

A1. Un subconjunto vacío ∅ y el conjunto 𝐸 pertenecen a 𝑆𝑌.


A2. Para cada familia 𝐹 de subconjuntos 𝑆𝑖 que pertenecen a 𝑆𝑌, la unión de todos
los subconjuntos pertenece también a 𝑆𝑌.
A3. Para cualquier par de sub conjuntos 𝑆1 𝑦 𝑆2 que pertenecen a 𝑆𝑌, la intersección
de ambos subconjuntos también pertenece a 𝑆𝑌.
A4. Para cualquier par de elementos 𝑒1, 𝑒2 ∈ 𝐸 existe en 𝑆𝑌 un subconjunto 𝑆 ′
donde exactamente uno de los elementos está en 𝑆 ′ .

El axioma A4 es realmente importante al momento de tratar de definir la existencia de dos


elementos cualquiera 𝑒1, 𝑒2 ∈ 𝐸 tal que la subdivisión de todo el espacio en dos partes
complementarias 𝑆 ′ 𝑦 𝐸 \ 𝑆 ′ va a contener uno de los elementos, y uno será parte del conjunto
abierto. Recibe el nombre de espacio topológico localmente finito al espacio cuyo conjunto
de elementos 𝐸 son de cantidad finita. Los axiomas A2 y A3 son formulados en dos
direcciones dado que a pesar de que para el axioma A2 aplica tanto para espacios topológicos
finitos como infinitos, el axioma A3 solo es válido en un conjunto de elementos finitos 𝑆𝑖.
Lo anterior permite decir que un espacio que satisface el axioma A4 cumple con la propiedad
de separación, que es bien conocida en la literatura como el espacio 𝑇0 o espacio de
Kolmogórov [3].

El complejo de células abstractas 𝐶 = (𝐸, 𝐵) compuesto por el conjunto de elementos E=


{𝑒0 , 𝑒1 , 𝑒2 , … , 𝑒2𝑚 } con 𝑚 ≥ 1, en el cual la relación de límite 𝐵 es tal que cada elemento 𝑒𝑖
con índice 𝑖 par limita a (es cara de) los elementos 𝑒𝑖−1 y 𝑒𝑖+1 es un complejo de células
abstractas ACC (por su sigla en inglés) 1 – dimensional conectado. En este espacio cada 1-
célula es abierta y cada 0 - Célula es cerrada. El índice asociado a cada célula será llamado
coordenada combinatorial en el espacio unidimensional. La Figura 6 muestra a manera
ilustrativa un espacio ACC unidimensional en donde los puntos en color rojo representan a
los elementos 0 - células, y de manera intuitiva podemos identificar que los segmentos de
línea representan a los elementos 1 - célula. Es importante tener claro que, aunque la
representación de la Figura 6 es correcta, el segmento de línea puede sugerir una continuidad
inexistente, esto debido a que estamos tratando de espacios topológicos finitos, por tal razón
es importante no olvidar que dicha representación es conceptual y no obedece a una sucesión
infinita de elementos [33].

Figura 6. Representación gráfica de un ACC conectado unidimensional.


los elementos 0-células se representa a modo ilustrativo con punto en color rojo y los elementos 1-células con segmentos
de línea en color azul [33].

19
Un complejo cartesiano es el resultado del producto cartesiano de dos o más ACC
unidimensionales. El conjunto de células de un ACC cartesiano 𝑛 – dimensional 𝐶 𝑛 es el
producto de 𝑛 conjuntos de células de los complejos ACC unidimensional. Cada uno de los
complejos unidimensionales puede ser representado por los ejes coordenados de 𝐶 𝑛 los
cuales constituirán el espacio 𝑛 – dimensional. Dados los ACC unidimensionales 𝐴1 =
{𝑒0 , 𝑒1 , 𝑒2 , … , 𝑒𝑛 } y 𝐴2 = {𝑒0 , 𝑒1 , 𝑒2 , … , 𝑒𝑚 }, el complejo cartesiano bidimensional es igual a
[34]:

(𝑒0 , 𝑒0 ) (𝑒0 , 𝑒1 ) (𝑒0 , 𝑒2 ) … (𝑒0 , 𝑒𝑛 )


(𝑒1 , 𝑒0 ) (𝑒1 , 𝑒1 ) (𝑒1 , 𝑒2 ) … (𝑒1 , 𝑒𝑛 )
2
𝐶 = 𝐴1 × 𝐴2 = (𝑒2 , 𝑒0 ) (𝑒2 , 𝑒1 ) (𝑒2 , 𝑒2 ) … (𝑒2 , 𝑒𝑛 ) ( 15 )
⋮ ⋮ ⋮ ⋮ ⋮
{(𝑒𝑚 , 𝑒0 ) (𝑒𝑚 , 𝑒1 ) (𝑒𝑚 , 𝑒2 ) … (𝑒𝑚 , 𝑒𝑛 )}

La Figura 7 muestra a manera ilustrativa una posible representación para un complejo


cartesiano bidimensional. En él se puede apreciar en color rojo las 0 - Células, en color azul
1 - Células y en color gris las 2 - Células.

Figura 7. Complejo Cartesiano Bidimensional.


[33].

La regla de membresía (pertenencia) para los elementos interpixel se rige por la regla
EquNaLi propuesta por Kovalevsky [10]. En esta regla cada 1 - célula 𝑐 1 recibirá como valor
de etiqueta el mayor valor (el valor radiométrico de la 2 - célula) de su vecindario abierto
más pequeño 𝑆𝑂𝑁(𝑐 1 ). La Figura 8 esquematiza el proceso de asignación de etiqueta para
cada una 1 - célula.

Figura 8. Asignación etiqueta de mayor valor.


(a) 𝑆𝑂𝑁(𝑐1 ) para 1-célula vertical y horizontal. Las 1-Elementos sin en color verde son asignación de etiqueta; (b)
resultado de asignación de etiqueta 1-Células.
Fuente: el autor.

20
Para determinar el valor de etiqueta de una 0 - célula, es necesario evaluar tres escenarios
definidos por [6] como “Equ”, “Na”, “Li”. Si el SON(𝐶 0 ) contiene exactamente un par
diagonal, se dice que existe un “Equ” por lo cual el valor de etiqueta asignado a la 0 - célula
será el de las 2 - células que componen dicha diagonal. La Figura 9b muestra el caso en el
cual existe un escenario “Equ” y su respectivo resultado al evaluarlo.

Figura 9. Escenario “Equ”.


En tono verde 0-célula. (a) 𝑆𝑂𝑁(𝑐 0 ). (b)Asignación etiqueta de acuerdo al par diagonal identificado.
Fuente: el autor.

Si se tienen dos pares diagonales se dice que existe un escenario “Na” (ver Figura 10a). Para
cada par se evalúa la existencia de camino estrecho (Narrow Stripe)[3], extendiendo el
vecindario abierto más pequeño de la 0 – célula, a un vecindario formado por una región de
4 × 4 2 – células, teniendo como elemento central a la 0 – célula pendiente de asignar
etiqueta [3] (ver Figura 10b).

(a) (b) (c)

Figura 10. Extensión vecindario abierto más pequeño requerido en la solución de la identificación de camino estrecho.
(a) dos pares diagonales. (b) Extensión vecindario. (c) asignación de etiqueta a la 0 – célula que sigue el camino
estrecho demarcado con la flecha en tono naranja y que corresponde a las 2 – células en tono negro.
Fuente: el autor.

El valor de etiqueta asignado a la 0-célula será la del par diagonal que siga el camino estrecho,
que de acuerdo a lo presentado en la Figura 10c corresponde a las 2 – células en tono negro.

2.1.3. Segmentos De Recta Digital (DSS)

Para hablar de segmentos de recta digital en el espacio de los complejos cartesianos es


necesario entender el concepto de un semi espacio digital. Un semi espacio digital es una
región que contiene todas las células de un espacio cuyas coordenadas satisfacen una
desigualdad lineal. Un semiplano es entonces un semi espacio de un espacio en dos
dimensiones [31]. Una región es un sub conjunto abierto del espacio. Una región de un
espacio 𝑛 - dimensional ACC 𝐶 𝑛 es llamado sólido si para cada célula 𝑐 ∈ 𝐶 𝑛 que no está
en 𝑅 es incidente con una 𝑛 – célula del complemento 𝐶 𝑛 − 𝑅 [7]. Un segmento de línea

21
recta digital (DSS por sus siglas en inglés) será entonces cualquier subconjunto de la frontera
de un semiplano digital [31]. Un ejemplo de un semiplano es el definido por la desigualdad
6𝑥 − 4𝑦 ≥ 0. En la Figura 11 los elementos 2 – células están representados por cuadrados,
los elementos 1 – células por rectángulos verticales y horizontales, y las 0 – células por
puntos. En el semiplano se pueden definir dos tipos de curvas digitales: las primeras como
curvas visuales en donde estas se representan como una secuencia de píxeles o como curvas
de contorno representadas como una secuencia de 0 – células y 1 – células.

(a) (b)

Figura 11. Ejemplo Semiplano y DSS en coordenadas topológica.


(a) Separación de Semiplano Digital por la desigualdad 6x-4y≥0. (b) Trazo de curva de contorno o DSS para el
semiplano.
Fuente: el autor.

Una de las propiedades más importantes de las curvas de contorno es la posibilidad de asignar
orientación y como subsecuente a las 1 - células que la componen. Si consideramos una curva
de contorno 𝐾 y para cada 1 – célula 𝐶 incidente a dos píxeles, uno de ellos se encontrará
en el lado positivo y el otro en el lado negativo del par ordenado de los puntos finales de 𝐶.
En la Figura 12 se puede observar como producto de la asignación positiva o negativa de un
lado del semiplano digital se puede asignar una dirección al DSS.

Figura 12. Orientación y dirección DSS según lado positivo o negativo asignado en el semiplano digital.
Fuente: el autor.

El concepto de DSS es de gran importancia para la presente investigación, ya que será el


subyacente sobre el cual se realizará la definición del Espacio Filtrado expuesto en la sección
3.2.1.3.

22
2.1.4. Transformada De Cuenca

La transformada de cuenca puede interpretarse como un método de segmentación de región.


La idea del método proviene de un fenómeno geográfico: un paisaje o relieve topográfico
inundado por agua; esta inundación se propaga hasta que un punto inundado se estrelle con
otro, convirtiendo a la línea divisoria entre cada una de las inundaciones en cuenca [35].

Existen muchas formas de definir la transformada de cuenca [36] [37] [38]. De manera
intuitiva, la cuenca de una función (que se ve como una superficie topográfica) se compone
de las ubicaciones desde las cuales una gota de agua puede fluir hacia los mínimos. El marco
de grafos con ejes con pesos permite la formalización de este principio [39].

Uno de los enfoques implementados en el presente trabajo de investigación se ha


fundamentado en el principio de la gota de agua [39] y el paradigma de las inundaciones
(idea intuitiva que subyace en la geografía). Dado que una imagen a escala de grises puede
ser vista como una superficie topográfica, la intensidad de un píxel puede ser considerada
como la altitud de un punto. Ahora se procederá a sumergir la superficie por gotas de agua
que fluyen desde los puntos máximos a estos mínimos locales. La Figura 13 muestra a modo
ilustrativo los conceptos involucrados en la transformada de cuenca por inundación.

(a)
(b)

Figura 13. Mínimos locales, cuencas de captación y línea de cuenca.


(a) Imagen a niveles de grises, el tono verde de la línea de cuenca es únicamente para resaltar. (b) Proyección geográfica
de los mínimos locales, cuencas de captación y líneas de cuenca.
Fuente: el autor.

Sea 𝐴 ⊆ ℇ, con ℇ = ℝ𝑑 o ℇ = ℤ𝑑 , y 𝑎, 𝑏 dos puntos en 𝐴, la distancia geodésica 𝑑𝑎 (𝑎, 𝑏)


entre 𝑎 y 𝑏, es la distancia mínima para todos los caminos de en 𝐴 de 𝑎 a 𝑏. Si 𝐵 es un
subconjunto de 𝐴, 𝑑𝑎 (𝑎, 𝐵) = 𝑀𝐼𝑁𝑏𝜖𝐵 (𝑑𝑎 (𝑎, 𝐵)). Sea 𝐵 ⊆ 𝐴 particionado en 𝑘 elementos
conectados 𝐵𝑖 , 𝑖 = 1, … , 𝑘. La zona de influencia geodésica para el conjunto 𝐵𝑖 en 𝐴 se define
de acuerdo a la ecuación 16:

𝑖𝑧𝐴 (𝐵𝑖 ) = {𝑝 ∈ 𝐴|∀𝑗 ∈ [1. . 𝑘]{𝑖}: 𝑑𝐴 (𝑝, 𝐵𝑖 ) < 𝑑𝐴 (𝑝, 𝐵𝑗 )}


( 16 )

23
Sea 𝐵 ⊆ 𝐴. El conjunto 𝐼𝑍𝐴 (𝐵) es la unión de todas las zonas de influencia geodésica de los
componentes conectados de 𝐵 (ver ecuación 17)
𝑘
( 17 )
𝐼𝑍𝐴 (𝐵) = ⋃ 𝑖𝑧𝐴 (𝐵𝑖 )
𝑖=1

El algoritmo de cuenca simulado por inundación de Vincent y Soille [37] define para 𝑓: 𝐷 →
ℕ una imagen digital de valores de grises, con ℎ𝑚𝑖𝑛 y ℎ𝑚𝑎𝑥 el mínimo y el máximo valor de
𝑓, una recursión con el valor de gris ℎ incrementado de ℎ𝑚𝑖𝑛 a ℎ𝑚𝑎𝑥 en donde las cuencas
asociadas a los mínimos de 𝑓 se amplían sucesivamente. Sea 𝑋ℎ la unión del conjunto de
cuencas calculado al nivel ℎ, un componente conectado del conjunto umbralizado 𝑇ℎ+1 al
nivel ℎ + 1 puede ser bien un nuevo mínimo o la extensión de una cuenca en 𝑋ℎ (esta
extensión definida por la zona de influencia geodésica de 𝑋ℎ con 𝑇ℎ+1 [36]) lo que resulta en
la actualización de 𝑋ℎ+1 . Sea 𝑀𝐼𝑁ℎ la unión de todos los mínimos regionales a la altura ℎ.
En la ecuación 18 se presenta la función recursiva que define la función de inundación.

𝑋ℎ𝑚𝑖𝑛 = {𝑝 ∈ 𝐷 | 𝑓(𝑝) = ℎ𝑚𝑖𝑛 } = 𝑇ℎ𝑚𝑖𝑛


{ ( 18 )
𝑋ℎ+1 = 𝑀𝐼𝑁ℎ+1 ∪ 𝐼𝑍𝑇ℎ+1 (𝑋ℎ ), ℎ ∈ [ ℎ𝑚𝑖𝑛 , ℎ𝑚𝑎𝑥 )

La transformada de cuenca 𝑊𝑠ℎ𝑒𝑑(𝑓) de 𝑓 es el complemento de 𝑋ℎ𝑚𝑎𝑥 en 𝐷 (ver ecuación


19).

𝑊𝑠ℎ𝑒𝑑(𝑓) = 𝐷\𝑋ℎ𝑚𝑎𝑥 ( 19 )

La implementación de la transformada de cuenca formalizada por la ecuación 18 fue


realizada por Vincent y Soille [37]; dada su relevancia en el desarrollo e implementación del
presente proyecto, se mostrará a continuación el seudocódigo del algoritmo.

1: 𝑝𝑟𝑜𝑐𝑒𝑑𝑢𝑟𝑒 𝑊𝑎𝑡𝑒𝑟𝑠ℎ𝑒𝑑 − 𝑏𝑦 − 𝐼𝑚𝑚𝑒𝑟𝑠𝑖𝑜𝑛


2: Input: 𝑑𝑖𝑔𝑖𝑡𝑎𝑙 𝑔𝑟𝑒𝑦 𝑠𝑐𝑎𝑙𝑒 𝑖𝑚𝑎𝑔𝑒 𝐺 = (𝐷, 𝐸, 𝑖𝑚).
3: Output: 𝑙𝑎𝑏𝑒𝑙𝑙𝑒𝑑 𝑤𝑎𝑡𝑒𝑟𝑠ℎ𝑒𝑑 𝑖𝑚𝑎𝑔𝑒 𝑙𝑎𝑏 𝑜𝑛 𝐷.
4: #define INIT − 1 (∗ 𝑖𝑛𝑖𝑡𝑖𝑎𝑙 𝑣𝑎𝑙𝑢𝑒 𝑜𝑓 𝑙𝑎𝑏 𝑖𝑚𝑎𝑔𝑒 ∗)
5: #define MASK − 2 (∗ 𝑖𝑛𝑖𝑡𝑖𝑎𝑙 𝑣𝑎𝑙𝑢𝑒 𝑡𝑜 𝑒𝑎𝑐ℎ 𝑙𝑒𝑣𝑒𝑙 ∗)
6: #define WSHED 0 (∗ 𝑙𝑎𝑏𝑒𝑙 𝑜𝑓 𝑡ℎ𝑒 𝑤𝑎𝑡𝑒𝑟𝑠ℎ𝑒𝑑 𝑝𝑖𝑥𝑒𝑙𝑠 ∗)
7: #define FICTITIOUS (−1, −1) (∗ 𝑓𝑖𝑐𝑡𝑖𝑡𝑖𝑜𝑢𝑠 𝑝𝑖𝑥𝑒𝑙 ∉ 𝐷 ∗)
8: 𝑐𝑢𝑟𝑙𝑎𝑏 ← 0 (∗ 𝑐𝑢𝑟𝑙𝑎𝑏 𝑖𝑠 𝑡ℎ𝑒 𝑐𝑢𝑟𝑟𝑒𝑛𝑡 𝑙𝑎𝑏𝑒𝑙 ∗)
9: 𝑓𝑖𝑓𝑜_𝑖𝑛𝑖𝑡(𝑞𝑢𝑒𝑢𝑒)
10: 𝐟𝐨𝐫 𝐚𝐥𝐥 𝑝 ∈ 𝐷 𝐝𝐨
11: 𝑙𝑎𝑏[𝑝] ← 𝐼𝑁𝐼𝑇; 𝑑𝑖𝑠𝑡[𝑝] ← 0 (∗ 𝑑𝑖𝑠𝑡 𝑖𝑠 𝑎 𝑤𝑜𝑟𝑘 𝑖𝑚𝑎𝑔𝑒 𝑜𝑓 𝑑𝑖𝑠𝑡𝑎𝑛𝑐𝑒 ∗)
12: 𝐞𝐧𝐝 𝐟𝐨𝐫
13: SORT pixels in increasing order of gray values (minimum ℎ𝑚𝑖𝑛 , maximum ℎ𝑚𝑎𝑥 )
14:
15: (∗ Start Flooding ∗)
16: 𝐟𝐨𝐫 ℎ = ℎ𝑚𝑖𝑛 𝑡𝑜 ℎ𝑚𝑎𝑥 𝐝𝐨 (∗ Geodesic SKIZ of level ℎ − 1 inside level ℎ ∗)
17: 𝐟𝐨𝐫 𝐚𝐥𝐥 𝑝 ∈ 𝐷 𝐰𝐢𝐭𝐡 𝑖𝑚[𝑝] = ℎ 𝐝𝐨 (∗ mask all pixels at level ℎ ∗)
18: (∗ 𝑡ℎ𝑒𝑠𝑒 𝑎𝑟𝑒 𝑑𝑖𝑟𝑒𝑐𝑡𝑙𝑦 𝑎𝑐𝑐𝑒𝑠𝑖𝑏𝑙𝑒 𝑏𝑒𝑐𝑎𝑢𝑠𝑒 𝑜𝑓 𝑡ℎ𝑒 𝑠𝑜𝑟𝑡𝑖𝑛𝑔 𝑠𝑡𝑒𝑝 ∗)
19: 𝑙𝑎𝑏[𝑝] ← MASK
20: 𝐢𝐟 𝑝 has neighbour 𝑞 𝐰𝐢𝐭𝐡 (𝑙𝑎𝑏[𝑞] > 0 𝐨𝐫 𝑙𝑎𝑏[𝑞] = WSHED) 𝐭𝐡𝐞𝐧

24
21: (∗ Initilize queue with neighbours at level ℎ of current basins or watersheds ∗)
22: 𝑑𝑖𝑠𝑡[𝑝] ← 1; 𝑓𝑖𝑓𝑜_𝑎𝑑𝑑(𝑝, 𝑞𝑢𝑒𝑢𝑒)
23: 𝐞𝐧𝐝 𝐢𝐟
24: 𝐞𝐧𝐝 𝐟𝐨𝐫
25: 𝑐𝑢𝑟𝑑𝑖𝑠𝑡 ← 1; 𝑓𝑖𝑓𝑜_𝑎𝑑𝑑(FICTITIOUS, 𝑞𝑢𝑒𝑢𝑒)
26: 𝐥𝐨𝐨𝐩 (∗ extend basins ∗)
27: 𝑝 ← 𝑓𝑖𝑓𝑜_𝑟𝑒𝑚𝑜𝑣𝑒(𝑞𝑢𝑒𝑢𝑒)
28: 𝐢𝐟 𝑝 = FICTITIOUS 𝐭𝐡𝐞𝐧
29: 𝐢𝐟 𝑓𝑖𝑓𝑜_𝑒𝑚𝑝𝑡𝑦(𝑞𝑢𝑒𝑢𝑒) 𝐭𝐡𝐞𝐧
30: BREAK
31: 𝐞𝐥𝐬𝐞
32: 𝑓𝑖𝑓𝑜_𝑎𝑑𝑑(FICTITIOUS, 𝑞𝑢𝑒𝑢𝑒); 𝑐𝑢𝑟𝑑𝑖𝑠𝑡 ← 𝑐𝑢𝑟𝑑𝑖𝑠𝑡 + 1;
33: 𝑝 ← 𝑓𝑖𝑓𝑜_𝑟𝑒𝑚𝑜𝑣𝑒(𝑞𝑢𝑒𝑢𝑒)
34: 𝐞𝐧𝐝 𝐢𝐟
35: 𝐞𝐧𝐝 𝐢𝐟
36: 𝐟𝐨𝐫 𝐚𝐥𝐥 𝑞 ∈ 𝑁𝐺 (𝑝) 𝐝𝐨 (∗ labelling 𝑝 by inspecting neighbours ∗)
37: 𝐢𝐟 𝑑𝑖𝑠𝑡[𝑞] < 𝑐𝑢𝑟𝑑𝑖𝑠𝑡 𝐚𝐧𝐝 (𝑙𝑎𝑏[𝑞] > 0 𝐨𝐫 𝑙𝑎𝑏[𝑞] = WSHED) 𝐭𝐡𝐞𝐧
38: (∗ 𝑞 belongs to an existing basin or to watersheds ∗)
39: 𝐢𝐟 𝑙𝑎𝑏[𝑞] > 0 𝐭𝐡𝐞𝐧
40: 𝐢𝐟 𝑙𝑎𝑏[𝑝] = MASK 𝐨𝐫 𝑙𝑎𝑏[𝑝] = WSHED 𝐭𝐡𝐞𝐧
41: 𝑙𝑎𝑏[𝑝] ← 𝑙𝑎𝑏[𝑞]
42: 𝐞𝐥𝐬𝐞 𝐢𝐟 𝑙𝑎𝑏[𝑝] ≠ 𝑙𝑎𝑏[𝑞] 𝐭𝐡𝐞𝐧
43: 𝑙𝑎𝑏[𝑝] ← WSHED
44: 𝐞𝐧𝐝 𝐢𝐟
45: 𝐞𝐥𝐬𝐞 𝐢𝐟 𝑙𝑎𝑏[𝑝] = MASK 𝐭𝐡𝐞𝐧
46: 𝑙𝑎𝑝[𝑝] ← WSHED
47: 𝐞𝐧𝐝 𝐢𝐟
48: 𝐞𝐥𝐬𝐞 𝐢𝐟 𝑙𝑎𝑏[𝑞] = MASK 𝐚𝐧𝐝 𝑑𝑖𝑠𝑡[𝑞] = 0 𝐭𝐡𝐞𝐧 (∗ 𝑞 is a plateau píxel ∗)
49: 𝑑𝑖𝑠𝑡[𝑞] ← 𝑐𝑢𝑟𝑑𝑖𝑠𝑡 + 1; 𝑓𝑖𝑓𝑜_𝑎𝑑𝑑(𝑞, 𝑞𝑢𝑒𝑢𝑒)
50: 𝐞𝐧𝐝 𝐢𝐟
51: 𝐞𝐧𝐝 𝐟𝐨𝐫
52: 𝐞𝐧𝐝 𝐥𝐨𝐨𝐩
53: (∗ detect and process new minima at level ℎ ∗)
54: 𝐟𝐨𝐫 𝐚𝐥𝐥 𝑝 ∈ 𝐷 𝐰𝐢𝐭𝐡 𝑖𝑚[𝑝] = ℎ 𝐝𝐨
55: 𝑑𝑖𝑠𝑡[𝑝] ← 0 (∗ reset distance to zero ∗)
56: 𝐢𝐟 𝑙𝑎𝑏[𝑝] = MASK 𝐭𝐡𝐞𝐧 (∗ 𝑝 is inside a new minimum ∗)
57: 𝑐𝑢𝑟𝑙𝑎𝑏 ← 𝑐𝑢𝑟𝑙𝑎𝑏 + 1; (∗ create a new label ∗)
58: 𝑓𝑖𝑓𝑜_𝑎𝑑𝑑(𝑝, 𝑞𝑢𝑒𝑢𝑒); 𝑙𝑎𝑝[𝑝] ← 𝑐𝑢𝑟𝑙𝑎𝑏;
59: 𝐰𝐡𝐢𝐥𝐞 𝐧𝐨𝐭 𝑓𝑖𝑓𝑜_𝑒𝑚𝑝𝑡𝑦(𝑞𝑢𝑒𝑢𝑒) 𝐝𝐨
60: 𝑞 ← 𝑓𝑖𝑓𝑜_𝑟𝑒𝑚𝑜𝑣𝑒(𝑞𝑢𝑒𝑢𝑒)
61: 𝐟𝐨𝐫 𝐚𝐥𝐥 𝑟 ∈ 𝑁𝐺 (𝑞) 𝐝𝐨 (∗ inspect neighbours of q ∗)
62: 𝐢𝐟 𝑙𝑎𝑏[𝑟] = MASK 𝐭𝐡𝐞𝐧
63: 𝑓𝑖𝑓𝑜_𝑎𝑑𝑑(𝑟, 𝑞𝑢𝑒𝑢𝑒); 𝑙𝑎𝑏[𝑟] ← 𝑐𝑢𝑟𝑙𝑎𝑏;
64: 𝐞𝐧𝐝 𝐢𝐟
65: 𝐞𝐧𝐝 𝐟𝐨𝐫
66: 𝐞𝐧𝐝 𝐰𝐡𝐢𝐥𝐞
67: 𝐞𝐧𝐝 𝐢𝐟
68: 𝐞𝐧𝐝 𝐟𝐨𝐫
69: 𝐞𝐧𝐝 𝐟𝐨𝐫
70: (∗ End Flooding ∗)
Algoritmo 1. Transformada de cuenca Vincent-Soille.

El resultado del algoritmo de transformada de cuenca desarrollado por Vinsent y Soille [37]
varía de acuerdo al tipo de vecindario definido para el píxel 𝑝. De acuerdo a la geometría
tradicional de procesamiento de imagen, puede ser, 4 conectado u 8 conectado; en la Figura
14 se observa la imagen sintética 𝐷, en donde en tono gris y letra azul se resaltan los mínimos
locales; para el resultado de la transformada con 4 – conectado se resaltan los píxeles
marcados como cuenca con etiqueta 𝑊; en el resultado de la transformada con 8 – conectado

25
se evidencia que no dio lugar a ninguna cuenca, lo cual resalta las paradojas de conectitud
expuestas en la sección 1.2.

Figura 14. Variación transformada de cuenca según vecindario.


(a) Imagen D a procesar. (b) Resultado de transformación con 4-Conectado. (c) Resultado transformación con 8-
Conectado.
Fuente: el autor.

Christopher Mei en su implementación publicada del algoritmo de transformada de cuenca


[40] encuentra que para la sección (línea 37 del Algoritmo 1) en la cual se verifica la
existencia de cuenca o una cuenca de captación, la verificación de la distancia de uno de los
𝑞 vecinos del píxel 𝑝 versus la distancia actual debe ser modificada a una comparación lógica
de 𝑑𝑖𝑠𝑡[𝑞] < 𝑐𝑢𝑟𝑑𝑖𝑠𝑡 a 𝑑𝑖𝑠𝑡[𝑞] ≤ 𝑐𝑢𝑟𝑑𝑖𝑠𝑡 ; este cambio se debe a que un 𝑞 vecino puede
ser compartido por diferentes 𝑝 píxeles, y debido al aumento del parámetro 𝑐𝑢𝑟𝑑𝑖𝑠𝑡 en la
línea 32 Algoritmo 1 (causado por el ingreso del píxel 𝑞 a la cola en la línea 49), impediría
que el píxel 𝑝 actual sea evaluado como cuenca o cuenca de captación, causando que sea
marcado en una fase posterior del algoritmo como un nuevo mínimo local. La Figura 15
muestra a modo de ilustración lo explicado anteriormente.

Figura 15. Comportamiento de la transformada de cuenca de acuerdo a la modificación de Christopher Mei.


Se incluye la distancia actual del q vecino en la evaluación de p píxel actual.
Fuente: el autor.

La segunda modificación hecha por Christopher Mei se orienta a la preservación de la cuenca.


En la línea 40 al evaluar 𝑙𝑎𝑏[𝑝] = MASK 𝐨𝐫 𝑙𝑎𝑏[𝑝] = WSHED la operación lógica O causa
que el elemento que de manera previa hubiese sido marcado como cuenca, sea re etiquetado
como perteneciente a una cuenca de captación; es por esta razón que se excluye de la línea

26
40 del Algoritmo 1 todo píxel 𝑝 marcado como cuenca en una iteración anterior. En la Figura
16 se evidencia el resultado de la inclusión y exclusión del 𝑝 píxel al momento de ser
evaluado.

Figura 16. Comportamiento de la transformada de cuenca.


(a) Rompimiento de cuenca dada la inclusión del p Píxel en la línea 40 del algoritmo original. (b) Preservación de la
cuenca gracias a la exclusión del p Píxel en la línea 40 del algoritmo original.
Fuente: el autor.

2.1.5. Evaluación De Clasificación

Los procedimientos de clasificación de imagen requieren mecanismos de evaluación para


medir el nivel de exactitud. Este nivel de exactitud puede ser interpretado como el nivel de
concordancia entre las clases asignadas por el clasificador y sus correspondientes ubicaciones
en terreno. El mecanismo más usual para realizar esta actividad se conoce como matriz de
confusión [26]; la matriz de confusión contiene la información obtenida por el algoritmo de
clasificación versus la clase a la que las muestras de la escena realmente pertenecen. El
resultado final de la matriz de confusión es un índice P determinado por la proporción total
de predicciones correctas respecto al total tabulado en la matriz.

Otra herramienta matemática que permite valorar el nivel de precisión de un proceso de


clasificación es el índice Kappa [26], con lo cual se mide el porcentaje de acierto entre los
píxeles clasificados y el total de píxeles de la clase de muestra. El cálculo del índice Kappa
se presenta en la ecuación 20:

𝑁 ∑𝑟𝑖=1 𝑥𝑖𝑖 − ∑𝑟𝑖(𝑥𝑖+ × 𝑥+𝑖 )


𝑘̂ = ( 20 )
𝑁 2 − ∑𝑟𝑖(𝑥𝑖+ × 𝑥+𝑖 )

Donde 𝑘̂ es el índice Kappa, 𝑟 es el número de columnas en la matriz de confusión (y filas),


𝑥𝑖𝑖 es la entrada (𝑖, 𝑖) de la matriz de confusión, 𝑥𝑖+ y 𝑥+𝑖 son los totales marginales de la
fila 𝑖 y la columna 𝑗respectivamente, y 𝑁 es el número total de observaciones.

Como herramienta de comparación de resultados obtenidos en diferentes escenarios de


clasificación, se dispone de los intervalos de confianza, que como se expone en el trabajo de
Foody [41] permiten determinar si un resultado es concluyente con base en la precisión

27
obtenida con el índice Kappa. La ecuación 21 muestra cómo calcular el intervalo de confianza
[42].

2𝑁(𝑘̂)𝑍 2 ± 𝑍√𝑍 2 + 4𝑁(𝑘̂) − 4𝑁(𝑘̂)2 ( 21 )


𝐼𝐶 =
2𝑁𝑍 2

Donde 𝑁 es el número de observaciones, 𝑘̂ es el índice Kappa obtenido con la ecuación 20 y


𝑍 corresponde a 1.96 para un nivel de confidencialidad de 95%.

2.2. Estado Del Arte

Hanan, Hongbo y Sellahewa [43] desarrollan en su trabajo de investigación la comparación,


con base en métodos de clasificación no supervisados, de tres algoritmos utilizados en la
segmentación de imagen en el proceso de clasificación con el objetivo de evaluar cuál de
estos algoritmos provee mayor nivel de confianza y desempeño. Los algoritmos evaluados
son de tres enfoques: basado en partición, basado en modelos y basado en la densidad, el
resultado obtenido de manera experimental muestra que el algoritmo CLUST basado en
modelos de maximización del valor esperado y mezcla de gaussianas (EM/GMM por sus
siglas en inglés), en el cual a través de un proceso iterativo y refinamiento de la matriz de
distribución Gaussiana calcula el número óptimo de grupos. Lo anterior permite a los
investigadores concluir que el algoritmo CLUST es más eficaz en la segmentación de imagen
que el algoritmo K-Means y el algoritmo de desviación estándar. La segmentación de imagen
basada en sus características tuvo un avance importante en su proceso al separar los atributos
relacionados a la textura y a los del color de la imagen, unos de los autores exponen una
técnica de separación de estas características son Hossein y Saeid [44], en este trabajo se
presenta una técnica nueva y eficaz de indexación de imagen que extraer las características
directamente del dominio del color y la textura aplicando la DCT (Transformada Discreta
del Coseno) para cada uno de los canales YCbCr [45] en bloques de 8*8 píxeles. Este proceso
tiene como resultado un vector con los coeficientes de transformación aplicada a cada uno
de los bloques. Para finalizar, el algoritmo utiliza el vector de coeficientes como criterio de
agrupamiento en el proceso de segmentación de imagen. Este trabajo expone la relevancia
de la información de textura asociada a los elementos de la imagen y el aporte positivo en
fases posteriores de clasificación, sin embargo, la información de textura que se pretende
caracterizar en el presente trabajo se orienta a los elementos interpixel, los complejos
cartesianos. En la Figura 17 se puede ver el ciclo implementado por el framework para la
clasificación de imagen.

Feature
RGB into YCbCr
Extraction Segmentation Classification
Conversion
(DCT)

Figura 17. Framework de Clasificación de Imagen


[43].

28
Otra técnica se basa en el contenido de la imagen explorando sus características de textura y
color. El contenido de la imagen basado en la combinación de rasgos [46] hace referencia a
técnicas de extracción de componentes vectoriales en función del color de la imagen y su
textura, la Tabla 1 muestra cada una de estas técnicas y los vectores resultantes.

Características Visuales Componentes


del Vector
en función de Momentos del Media y
características Color Varianza del
del Color Color
en función de Transformada Medida de
características Wavelet Entropía y
de Textura Energía
Matriz de Co- Contraste,
Ocurrencias Energía y
Correlación
en la imagen
Características Media y
Gabor desviación de
los
coeficientes
de la imagen

Tabla 1. Técnicas de Extracción de vectores característicos en función del Color y la Textura de la imagen
[46].

Como se ha evidenciado hasta esta parte del documento, el proceso de clasificación de


imagen está compuesto por cuatro fases generales: identificación de características de la
imagen, análisis y comparación, segmentación y clasificación; cada una de estas fases han
sido abordadas desde diferentes técnicas por cada uno de los autores, pero todas conservan
un concepto en común para las características de la imagen: agrupamiento en función de sus
atributos (desde el dominio del color o textura).

Con base en lo expuesto hasta este punto, se puede definir de manera general que un proceso
de clasificación de imagen debería constar de una fase inicial en la cual se resalte la
información de textura caracterizada por la información radiométrica almacenada en su
unidad mínima de representación; y una siguiente fase en la cual estos elementos sean
agrupados mediante criterios de homogeneidad de textura. En la Figura 18 se muestra de
manera general, las fases producto de la revisión bibliográfica.

29
Procesamiento para resaltar Caracterización de Rasgos de
Agrupamiento de elementos
contornos o límites de los objetos Textura

Lectura Entrenamiento Técnica de


imagen multiespectral Clasificación

Clasificación de Imagen
Multiespectral

Figura 18. Fases de un modelo de clasificación de imagen.


Fuente: el autor.

En [14] se define un modelo de segmentación de imagen basado en la detección de contornos.


En él se introduce una fase para la segmentación de los elementos basada en la transformada
de cuenca [47]; El resultado de aplicar la transformada de cuenca sobre la imagen es la
agrupación de los píxeles en función de su valor radiométrico, según se expone en [47]; Para
efectos del presente trabajo de investigación, las regiones que se obtienen con la transformada
equivalen a superpíxeles. En el modelo de segmentación se incluye una rama sobre la cual
se construye una capa orientada a la textura de la imagen. Esa capa de textura se construye a
partir de un banco de filtros [48] gaussianos derivativos orientados en el cual se definen
escalas para la detección de bordes de diferente grosor. Finalmente, el modelo de
segmentación define la función 𝑃𝑏(𝑥, 𝑦, 𝜃) que predice la probabilidad de un límite con
orientación 𝜃 para cada píxel de la escena mediante la medición de la diferencia de brillo
teniendo como criterio el color y el canal de textura.

El modelo presentado en la Figura 18 se completa con las fases sugeridas por el trabajo [14],
incluyendo la transformada de cuenca como mecanismo para construcción de superpíxeles
pero usando una versión simplificada basada en filtros direccionales para la construcción de
la capa de textura.

En los trabajos anteriores, en los pre procesos aplicados a la imagen antes de la fase de
clasificación subyacen vecindarios de conexión que no se encuentran alineados con las
nociones topológicas. A continuación, se abordan estos conceptos y la propuesta para lograr
una representación computacional que respete de manera consistente las nociones
topológicas definidas para los espacios localmente finitos.

La topología digital es el estudio de las propiedades topológicas de los objetos discretos que
se incorporan al digitalizar los objetos continuos [49]. Esta topología proporciona una base
matemática sólida para las operaciones de procesamiento de imagen, detección de límite,
compresión de datos y adelgazamiento [50]. Para poder determinar estas propiedades, se debe
entender que una imagen puede ser definida como una función 𝑓(𝑥, 𝑦) donde 𝑥 y 𝑦 son
valores o coordenadas espaciales (plano), y la amplitud 𝑓 representa la intensidad o nivel de
gris en el punto[51].

30
En la Figura 19 se puede apreciar como un vecindario 4 - conectado contradice lo expuesto
por el teorema de Jordan, pues los puntos negros están totalmente desconectados, pero, aun
así, separan el conjunto de puntos blancos en dos componentes (el píxel blanco del resto de
píxeles blancos).

(a) (b)

Figura 19. Vecindario 4 – conectado de un pixel.


(a) Píxel y su vecindario 4 – Conectado. (b) Paradoja 4 – Conectado.
Fuente: el autor.

Esto mismo ocurre con la 8 - conectividad, pues los puntos negros forman un camino análogo
a la curva de Jordan, sin embargo, el píxel blanco no queda aislado del resto de píxeles
blancos del conjunto. La Figura 20 muestra un ejemplo de la paradoja 8 - conectado.

(a) (b)

Figura 20. Vecindario 8 – conectado de un pixel.


(a) Píxel y su vecindario 8 – Conectado. (b) Ejemplo de paradoja 8 – Conectado.
Fuente: el autor.

Al ser identificadas estas paradojas, una representación alternativa fue propuesta por
Pavlidis, en donde propone la noción de frontera extendida [52]. En esta nueva definición de
frontera se sugiere considerar una vecindad mixta 4/8 - conectado. Esto es, considerar
conectividades diferentes para los objetos y su complemento. Sin embargo, esta definición
va en contravía con el concepto de simetría expuesto por la topología. Todos estos intentos
resultaron ser soluciones imperfectas en la definición de una teoría consistente con la
topología [6]. A pesar de que existen diferentes algoritmos basados en la información
topológica de la imagen [53] [54] el uso de vecindarios basados en los vecindarios 4 -
conectado u 8 - conectado, causa perdida de coherencia al procesar el primer plano como el
fondo de la imagen [55]. Una teoría diferente desarrollada desde la topología discreta ha
buscado resolver estos problemas en la representación de la imagen, para ello ha basado su
teoría en la definición de un espacio geométrico Euclidiano, el cual permite especificar las
relaciones de adyacencia entre los píxeles. Estas relaciones buscan determinar características
como (como lo es en la teoría de la Topología) curvas de los objetos [56], y conectividad de
los objetos en el espacio discreto [57]. Esta teoría es la propuesta por Vladimir Kovalevsky
[6], en la cual propone un espacio abstracto compuesto por elementos que él define como
complejos de células. En este espacio abstracto se definen relaciones entre las células que
permiten determinar las relaciones de adyacencia entre cada uno de los elementos, las cuales
son necesarias para definir las características de límite y conectividad propios de los espacios
continuos. Este modelo propuesto permite representar de manera explícita los espacios
topológicos y cada uno de sus restricciones en un espacio topológico finito [3][6][32][3][33].

31
3. DATOS Y MÉTODOS

En esta sección se presenta el conjunto de datos seleccionados para la evaluación del modelo
de clasificación propuesto por la presente investigación, luego, en la subsección de métodos,
se expone el desarrollo del modelo, el cual contiene los elementos conceptuales que soportan
el modelo de clasificación. Con el modelo definido, se presenta el marco computacional, el
cual implementa cada uno de los elementos conceptual de la sección 3.2.1. Para finalizar, y
como último tópico de este capítulo, en la sección 3.2.3 se muestran los diferentes escenarios
de evaluación del modelo.

3.1. Datos

Para la evaluación de los algoritmos aplicados a los complejos cartesianos orientados a la


detección de borde expuesto en el numeral 3.2.2.5, se hace uso del marco de evaluación de
fiabilidad de límite “Berkeley Segmentation Dataset” (BSD500) [14]. El conjunto de datos
seleccionados para la evaluación corresponde al banco de imágenes disponible para las fases
de entrenamiento compuesto por 200 imágenes RGB.

Con el propósito de tener un escenario experimental equivalente al usado en el trabajo [58],


y que la variabilidad de los resultados se deba al cambio de técnica (SVM en lugar de bosques
aleatorios) y al modelo de clasificación desarrollado en la presente investigación, se hizo uso
de las escenas dispuestas por la Sociedad Internacional de Fotogrametría y Teledetección
(ISPRS) para el congreso GEOBIA2016 correspondiente a un pequeño pueblo de Alemania.

De la imagen que es obtenida por un sensor aerotransportado [59], se seleccionan las bandas
infrarojo cercano, rojo y verde. Las imágenes cubren escenas urbanas que han sido
clasificadas manualmente en cinco clases: construcción, vegetación baja, árbol, carros y
superficies impermeables. La escena seleccionada corresponde a la losa 11 del conjunto de
datos de Vaihingen con tamaño de 1000 x 1000; de ella se seleccionan dos escenas no
sobrepuestas correspondientes a las coordenadas sobre archivo (893, 1400) a (1983, 2400)
para clasificación y evaluación del modelo y en (400, 400) a (1400, 1400) usada en la fase
de entrenamiento (ver Figura 21). En la Tabla 2 se expone la codificación de color usada por
cada clase en la capa de verdad de terreno.

Realidad de Terreno Clase


Edificio Azul
Superficie impermeable Blanco
Árbol Verde
Vegetación Baja Azul Claro
Carro Amarillo

Tabla 2. Clases y color asignado en la capa de verdad de terreno.

32
(a) (b)

(c) (d)

Figura 21. Escenas en composición de falso color usadas para evaluación del modelo de clasificación basado en
complejos cartesianos.
(a) Escena usada en la fase de clasificación. (b) Escena usada para la fase de entrenamiento. (c) y (d) la verdad de
terreno para la escena de clasificación y entrenamiento respectivamente.

3.2. Método

El objetivo de esta sección es mostrar los diferentes métodos usados en la construcción del
modelo de clasificación de imagen multiespectral basado en los complejos cartesianos. Cada
uno de los métodos desarrollados se resuelven en el espacio de los complejos cartesianos [32]
y se enmarca en el trabajo investigación desarrollado por José Antonio Valero en su
investigación doctoral [60] [34] en la cual se toma como marco procedimental el flujo de
procesos propuesto en [14] para la segmentación de imagen pero basado en los complejos
cartesianos.

33
En la sección 3.2.1 se presenta las fases que constituyen el modelo conceptual y cada uno de
los elementos teóricos requeridos para la correspondiente implementación computacional,
que posteriormente se presenta en la sección 3.2.2. En la sección 3.2.3 se presenta el método
de evaluación diseñado para valorar los resultados obtenidos con el modelo de clasificación
desarrollado en el presente trabajo de investigación.

3.2.1. Desarrollo Del Modelo

Para obtener un modelo de clasificación a partir de complejos cartesianos, la presente


investigación tomó como línea base el trabajo expuesto por [14] pero desarrollando un flujo
de procesos simplificado omitiendo algunas fases que se encontraban fueran del alcance del
presente proyecto. En la Figura 22 se puede observar el flujo de procesos propuesto para
obtener el modelo de clasificación basado en los complejos cartesianos.

Constructor Espacio Constructor Espacio


Complejo Cartesiano Niveles de Grises

Imagen
Multiespectral

Cálculo de Gradiente Constructor Espacio


Sobel Filtrado

Constructor Espacio
Constructor Espacio
de Cuencas
de Textura
(Superpixeles))

Clasificador

Evaluación De Clasificación

Figura 22. Flujo de procesos del proceso de clasificación basado en complejos de células abstractos.
Fuente: el autor.

Como entrada al modelo se puede observar en la Figura 22 una imagen multiespectral; esta
imagen pasa por el primer bloque y corazón del modelo el constructor espacio complejo
cartesiano que es el encargado de llevar la imagen de entrada al espacio de la representación
de los complejos cartesianos.

34
El segundo bloque que se puede observar en el flujo de procesos está orientado a la
transformación del espacio a uno cuyos rasgos radiométricos sean representados por un único
valor, orientado a obtener un espacio de niveles de grises. El principal propósito del bloque
es diseñar un procedimiento que involucre todas las bandas multiespectrales del espacio
original al momento de obtener el valor único radiométrico que es empleado en la fase
siguiente de filtrado direccional.

Al llegar a este punto el modelo se bifurca en dos líneas. La primera, cuyo resultado final es
el espacio de cuencas, tiene como propósito resaltar los bordes de los elementos inmersos en
la imagen procesada y a partir de ellos obtener los bordes de cuenca; para lograr este objetivo,
en el modelo se plantea un bloque de procesamiento sobre el espacio complejo cartesiano de
niveles de grises basado en el gradiente de Sobel [61]. Posteriormente, se procede a calcular
el espacio de cuencas, cuyo objetivo final es la obtención de los polígonos que definirán a
los superpíxeles de la imagen. Implementar la transformada de cuenca en el espacio de los
complejos cartesianos, tiene como objetivo construir un espacio de cuencas a partir de 1 –
células que expandan en un vecindario libre de paradojas de conectitud (sección 1.2) y cuyo
resultado final, traza límites de cuenca no ambiguos, (sección 2.1.3), lo cual cumple con lo
establecido en 𝑇0 para los espacios localmente finitos.

La segunda línea, cuyo resultado final es el espacio de textura busca obtener como resultado
un espacio complejo cartesiano cuyas células unidimensionales contengan información
asociada a la textura del objeto que representa en la imagen; para lo cual se propone una serie
de filtros orientados sobre los elementos 1-células propios del espacio complejo cartesiano.
Lo anterior se basa en lo expuesto por el trabajo [14] pero sobre elementos interpixel
unidimensionales como se propone en [60]. El propósito final de esta información es permitir
que la máquina clasificadora incluya en sus criterios de clasificación no solo la respuesta
espectral del espacio original, sino, además la posible pertenencia de ese elemento a una
misma cobertura.

Definir como primer paso la transformación de la imagen al espacio de los complejos


cartesiano tuvo como propósito desarrollar cada una de las fases siguientes sobre las
estructuras de datos propias del espacio.

A continuación, se procederá a especificar cada uno de los aportes dado por la presente
investigación sobre el espacio complejo cartesiano para construcción de cada bloque.

3.2.1.1. Espacio Complejo Cartesiano

De acuerdo a los conceptos desarrollados por los complejos de células abstractas, una imagen
puede ser representada por células compuestas por los e-elementos, de forma que un 0-
elemento representa a un punto, un 1 - elemento a una línea y un 2 - elemento a un píxel [6].
Para realizar el proceso de codificación de imagen a continuación se van a definir los
algoritmos necesarios, cada uno basados en las definiciones dadas en el apartado 2.1.2. De
manera conveniente a cada 1-célula vertical, a manera de notación, se identificará como 1𝑣 –
célula y cada 1 – célula horizontal como 1ℎ – célula. Partiendo de la noción de igualdad para
35
el espacio bidimensional cartesiano entre píxeles y 2 - células, se puede asumir que los rasgos
radiométricos se copiaran del elemento original píxel y se asignaran a las 2 – células. Para
los elementos 0 – células y 1 – células [6] propone tres estructuras adicionales relacionadas
de manera intrínseca con los 2 – elementos a partir de las coordenadas cartesianas. Revisando
la Figura 23 se puede ver como los elementos 0 - dimensionales y 1 - dimensionales
comparten la coordenada 𝑥, 𝑦 de la 2 – célula del espacio original, lo cual permite establecer
una función de mapeo desde las coordenadas del espacio complejo cartesiano al espacio de
representación convencional (píxel).

Figura 23.Coordenadas Cartesianas Elementos n-dimensional.


Fuente: el autor.

Para poder identificar los rasgos topológicos definidos en los complejos cartesianos es
necesario calcular a cada 0 - célula y 1 - célula el valor de etiqueta, para lo cual se aplica la
regla del mayor valor (para las 1 - células) y la regla EquNaLi (para las 0 - células) [6].

Para la regla EquNaLi, como parte del desarrollo del presente trabajo, se presenta una
propuesta de formalización para la regla de camino estrecho.

El primer paso requerido para establecer el camino estrecho, será extender el vecindario de
la 0-célula, pasando de 𝐶 0 (𝑗+ ,𝑖+ ) a 𝐶 0 (𝑗+ ,𝑖+ ) , tal muestra y como se muestra en la
−1 −1 −3 −3
Figura 24, en donde se puede observar la inclusión de los nuevos 2-elementos en el
vecindario resultante.

Figura 24. Ampliación del vecindario 0-elemento.


Fuente: el autor.

Debido a que el problema enfrentado está dado por la conexión de los elementos, se definen
las direcciones de conexión con el fin de evaluar si los elementos en el vecindario están bajo
arcos de conexión o bajo una región de elementos. Un arco está definido por aquella 2 - célula
que presente conexión con la 2 - célula principal de cada uno de los semiplanos. Para evaluar
la existencia de arcos, el vecindario será dividido en 2 semiplanos digitales, uno con

36
pendiente positiva y el otro con pendiente negativa; la asignación de la pendiente será
contraria a la orientación del Na (Narrow Stripe [3]) que se desea identificar. Formalmente
un arco 𝑎𝑟𝑖 y 𝑎𝑙𝑖 estará evaluado por la función 𝑎𝑟𝑐(𝑎𝑟𝑖 ) y 𝑎𝑟𝑐(𝑎𝑙𝑖 ), que afirmará o negará
la existencia del arco. En la Figura 25 se puede observar la división del vecindario en cada
uno de los semiplanos definidos y los respectivos arcos encontrados tras ser evaluados con
la función 𝑎𝑟𝑐.

Una región de elementos estará determinada por 2 arcos contiguos no conectados, de tal
manera que al aplicar la operación lógica 𝑋𝑂𝑅 se obtiene la cancelación de un par de arcos
conectados contiguos. La ecuación 22 presenta la definición de región.
𝑅𝑒𝑔(𝑟𝑟𝑖 ) = 𝐴𝑟𝑐(𝑎𝑟𝑖 ) ⊕ 𝐴𝑟𝑐(𝑎𝑟𝑖+1 ), 𝑅𝑒𝑔(𝑟𝑙𝑖 ) = 𝐴𝑟𝑐(𝑎𝑙𝑖 ) ⊕ 𝐴𝑟𝑐(𝑎𝑙𝑖+1 ) ( 22 )

La Figura 26 muestra cada una de las regiones en cada uno de los semiplanos y el resultado
de evaluar la función 𝑅𝑒𝑔.

Con las funciones 𝐴𝑟𝑐 y 𝑅𝑒𝑔 definidas, es necesario definir ahora un plano en el cual ambos
semiplanos se crucen y permitan determinar cuál de los de las 2 - célula sigue el camino
estrecho.

Figura 25. Detección de Arcos en cada semiplano.


(a) y (c) División semiplano con pendiente negativa y positiva respectivamente, con direcciones de conectitud. (c) y (d)
resultado evaluación función Arc. “t” es igual a “true” y f a “false”.
Fuente: el autor.

37
Figura 26. Flechas en tono negro representan las direcciones de conectitud.
(a) y (c) Identificación regiones en el semiplano con pendiente negativa y positiva respectivamente; (b) y (d) resultado de
la evaluación de la función Reg para cada una de las regiones definidas.
Fuente: el autor.

Figura 27. Cuadrantes que permiten intersectar los dos semiplanos celulares.
Los cuadros enmarcados en tono verde indican los elementos 2-celulares que definen el cuadrante. Las 2-células
enmarcadas en tono naranja y morado son las asociadas al “Narrow Stripe” y en las flechas en tono naranja y morado,
los arcos permitidos para cada 2-célula en ese cuadrante.
Fuente: el autor.

Tomando como base la lógica de cuadrante y la función 𝐴𝑟𝑐 se define la Tabla 3; allí se
especifica a partir de lógica combinatorial entre los posibles arcos de cada 2 – célula, la célula
ganadora. Indicar que una célula es ganadora es equivalente a decir que es la célula que sigue
el camino estrecho.

38
Número Arcos Cuadrante
Célula Ganadora

1 3

1 2

1 1 Validar Función Reg

1 0
2 2 Validar Función Reg

2 1
2 0 Validar Función Reg

3 1

3 0

Tabla 3.Tabla lógica combinatorial de arcos por cuadrante.

Aunque con la Tabla 3 se pretende resolver la asignación de Narrow Stripe, nos es posible
encontrar una solución no ambigua para todos los posibles escenarios, es así como para las
combinaciones (1,1), (2,2) y (2,0) no sería claro. Es por ello que para estas combinaciones se
debe hacer uso de la función 𝑅𝑒𝑔 y calcular para opción combinatorial de regiones el máximo
y mínimo posible. La Figura 28 muestra las regiones posibles para las combinaciones (1,1),
(2,2) y (2,0).

(a) (b) (c)

Figura 28. Regiones posibles para cada pareja combinatorial.


(a) Regiones posibles para la combinación (2,2). (b) Regiones posibles para la combinación (1,1). (c) Regiones posibles
para la combinación (2,0) o (0,2).
Fuente: el autor.

39
En la Tabla 4 se muestra las posibles combinaciones para cada una de las parejas de arcos
versus su correspondiente número regiones en el cuadrante, desafortunadamente, solo para
el caso de (1,1) con 𝑅𝑒𝑔 = (1,2) y (2,0) con 𝑅𝑒𝑔 = (2,2) se tiene la definición de la célula
ganadora. Para las combinaciones (2,2) con 𝑅𝑒𝑔 = {(1,1), (2,2)} , (1,1) con 𝑅𝑒𝑔 = {(1,1)}
y (2,0) con 𝑅𝑒𝑔 = {(1,0)} aplicaremos el concepto de adyacencia de región.

Parejas de
Arcos Célula Ganadora
Numero Regiones
,
1 1 Sin Determinar
(2,2) 2 2 Sin Determinar
1 1 Sin Determinar
(1,1) 1 2

2 2 Sin Determinar
1 0 Sin Determinar
(2,0) 2 0

Tabla 4. Tabla lógica Combinatorial Regiones.

Dos cuadrantes serán adyacentes si tienen un arco en común y este a su vez es adyacente a al
menos un arco en alguno de los cuadrantes explorados; La adyacencia de cuadrantes indicará
la existencia de bloque de arcos. La existencia de bloque dejará por fuera a la célula que
compite por el camino estrecho en el cuadrante explorado. La Figura 29 ilustra para cada una
de las combinaciones el resultado de la existencia de un bloque; en 𝑎 y 𝑏 las 2 - células
enmarcadas en tono morado muestran un arco común y adyacente a al menos otro arco en
alguno de los dos cuadrantes. El mismo escenario es observable para 𝑐 y 𝑑

Figura 29. Adyacencia entre cuadrantes.


Fuente: el autor.

Para 𝑒 no es posible la existencia de bloque de arcos, por lo cual se determina que, para el
cuadrante explorado, ambas 2 – células con equiprobablemente camino estrecho al igual que

40
para los casos en que ambas 2 – células presenten bloque de arcos. En la Tabla 5 se puede
observar el resultado de cada célula ganadora en el cuadrante explorado.

Parejas de
Arcos Célula Ganadora
¿Cuadrante?
,
(a,1) - X

(a,2) - X

(b,1) X -

(b,2) X -

Tabla 5. Célula ganadora por cuadrante adyacente.

Finalmente, la 2 - célula que sigue el camino estrecho será la que mayor peso obtenga en el
total de los 4 cuadrantes, en donde por cada cuadrante ganado, la 2 - célula obtendrá un peso
de 0.25, para los casos igualmente posible un valor de 0.125, y 0 para los escenarios de no
existencia de cuadrante. La ecuación 23 muestra la asignación final de camino estrecho para
la 0 - célula evaluada.
4 4

𝑣𝑎𝑙𝑢𝑒(𝑐 2 𝑎 ) 𝑠𝑖 ∑ 𝑝𝑖 (𝑐 2 𝑎 ) > ∑ 𝑝𝑖 (𝑐 2 𝑏 ) ( 23 )
𝑁𝑆 = {
𝑖=0 𝑖=0
𝑣𝑎𝑙𝑢𝑒(𝑐 2 𝑏 ) 𝑒𝑛 𝑐𝑢𝑎𝑙𝑞𝑢𝑖𝑒𝑟 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜

Donde 𝑝𝑖 es el peso obtenido de la 2 - célula en el 𝑖 − 𝑐𝑢𝑎𝑑𝑟𝑎𝑛𝑡𝑒.

Si la 𝑐 0 no aplica en la regla “Equ” ni en la regla “Na”, el valor de etiqueta asignado será el


valor de etiqueta más alto del 𝑆𝑂𝑁(𝐶 0 ).

Figura 30. Asignación de etiqueta mayor valor.


Fuente: el autor.

Con los criterios de asignación definidos, se dispone de los elementos conceptuales


necesarios para definir cualquier operación sobre el espacio de los complejos celulares. De
manera formal se puede establecer, que cada píxel de una imagen regular, mapeará a una 2-
célula, y cada uno de los elementos interpixel requeridos para el espacio serán determinados
aplicando las reglas definidas anteriormente. Cada una de las células del nuevo complejo
cartesiano estará compuesta por un vector de valores 𝜓 que contendrá los valores de

41
intensidad de cada una de las bandas de la imagen multiespectral original o el valor de
intensidad calculado según sea el caso (ver ecuación 24).

𝑐 = (𝜓, 𝑥, 𝑦), 𝑑𝑜𝑛𝑑𝑒 𝜓 = (𝐼1 , 𝐼2 , … , 𝐼𝜅 ) ( 24 )

La ecuación 24 presenta la definición de célula para una imagen multiespectral, donde 𝜓 es


el vector de valores asociado a una célula, 𝐼 representa el valor de intensidad en cada una de
las bandas de la imagen multiespectral 𝜅 el número total de bandas, y 𝑥 y 𝑦 la coordenada
combinatorial en el espacio complejo cartesiano.

A partir de la coordenada combinatorial se establece la dimensión de la célula procesada, de


acuerdo a lo establecido en [6]:

 Coordenada con 𝑥 y 𝑦 par, corresponde a una 0 – Célula.


 Coordenada con 𝑥 y 𝑦 impar, corresponde a una 2 – Célula.
 Coordenada con 𝑥 impar y 𝑦 par o 𝑥 par y 𝑦 impar, corresponde a una 1 – Célula.

3.2.1.2. Espacio De Niveles De Gris

Para cuantificar el nivel de información aportado por cada una de las bandas se pueden aplicar
dos criterios: en función de su riqueza radiométrica o en función de su riqueza geométrica.

El objetivo principal del espacio de niveles de grises es obtener un elemento celular


caracterizado radiométricamente por un único valor, el cual sea el resultado del aporte de
cada una de las bandas de la imagen multiespectral.

Como parte del presente trabajo, se propone como solución al problema de ponderación de
las bandas, la matriz de varianza y covarianza; para esto, lo primero que se requiere calcular
será el Vector de Medias del espacio, dado por la ecuación 25 [62]:

∑𝑚 𝑛
𝑖=1 ∑𝑗=1 𝜓𝛽 𝑖,𝑗 ( 25 )
𝜇 = (𝜇1 , 𝜇2 , … , 𝜇𝜅 ) 𝑑𝑜𝑛𝑑𝑒 𝜇𝛽 = 𝑝𝑎𝑟𝑎 𝑡𝑜𝑑𝑜 𝛽 = 1, … , 𝜅
𝑚𝑛

Donde 𝜓 es el vector de valores asociado a la célula con coordenada (𝑖, 𝑗) en el espacio


complejo cartesiano, 𝜅 el número de bandas de la imagen multiespectral y 𝛽 el índice en el
vector de valores.

El segundo vector requerido para la construcción de la matriz de varianza - covarianza es el


vector 𝑁𝐷, que de acuerdo a [62], está definido por la ecuación 26.

𝑁𝐷𝑖,𝑗 = [𝜓𝛽 ] 𝑡𝑎𝑙 𝑞𝑢𝑒 𝛽 = 1, … , 𝜅 ( 26 )


𝑖,𝑗

42
Se puede deducir de la ecuación 26, que un vector 𝑁𝐷𝑖,𝑗 es igual al vector de valores 𝜓𝛽 de
la célula con coordenada combinatorial (𝑖, 𝑗).

Con los vectores 𝑁𝐷 y el vector de valores medios definidos, se procede a formular la matriz
de varianza - covarianza determinada por la ecuación 27 [62]:

𝑚 𝑛
1 ( 27 )
𝑉 = [𝐶𝑞,𝑙 ] = [ ∑ ∑(𝑁𝐷𝑖,𝑗 − 𝜇)(𝑁𝐷𝑖,𝑗 − 𝜇)𝑡 ]
(𝑚𝑛) − 1
𝑖=1 𝑗=1

Donde 𝐶𝑞,𝑙 es cada uno de los elementos en la matriz de varianza - covarianza.

Con base en la matriz 𝑉 resultante, el aporte de cada banda se determina por medio de la
ecuación 28:

∑𝜅𝑞=1 𝐶𝑞,𝑙
𝑊𝑙 = 𝑝𝑎𝑟𝑎 𝑡𝑜𝑑𝑜 𝑙 = 1, … , 𝜅 ( 28 )
∑𝜅𝑞=1 ∑𝜅𝑙=1 𝐶𝑞,𝑙

A partir del vector de pesos 𝑊𝑙 se procede a recalcular el vector de valores de cada célula
del espacio complejo cartesiano, para lo cual se aplica la ecuación 29:

𝜅
∗ ( 29 )
𝜓 𝑖,𝑗
= [∑ (𝜓𝛽 ∙ 𝑊𝛽 )] 𝑑𝑜𝑛𝑑𝑒 𝛽 = 𝑙
𝑖,𝑗
𝛽=1

3.2.1.3. Espacio Filtrado

Continuando con el flujo de procesos expuesto en la Figura 22, en esta sección abordaremos
el bloque que corresponde a la creación del espacio filtrado, que de acuerdo al diagrama
corresponde al prerrequisito de la obtención del espacio de textura; el objetivo principal de
esta sección es resaltar sobre el espacio de niveles de grises contornos de los objetos inmersos
en la imagen que sigan una dirección específica. Con base en [14], se define un banco de
filtros en el que solo se tiene como criterio el concepto de filtro derivativo direccional pero
se proponen máscaras sobre la estructura local de los complejos cartesianos, específicamente
sobre las 1 - células. Para compensar el flujo de procesos simplificado en la construcción de
la capa de textura, se aplica al espacio de niveles de grises una máscara de supresión de ruido,
con el propósito de eliminar los pequeños elementos que puedan dar lugar a falsas texturas
(ver ecuación 30).

𝜓 ∗∗ 𝑖,𝑗 = [𝑓𝑖𝑙𝑡𝑒𝑟𝐺𝑎𝑢𝑠𝑠𝑖𝑎𝑛 (𝜓 ∗ 𝑖,𝑗 )] ( 30 )

En la representación de imagen convencional, los filtros son aplicados a los píxeles,


elementos que representan áreas de los objetos contenidos en la imagen y que al ser aplicados

43
deforman en su proceso la figura descrita por el objeto en la imagen; es por esto, que parte
de este proyecto consistió en definir máscara de filtraje sobre los elementos interpixel (1 -
células), en la cual el filtrado de dirección se centra sobre las estructuras lineales no
disponibles en un contexto de análisis de imagen convencional, pero si en el espacio de los
complejos cartesianos. Las 1 - células permiten definir estructuras lineales similares a
fronteras entre los elementos de la imagen, razón por la cual se utilizan como bloque de
construcción de las matrices de filtrado.

De acuerdo con la definición de DSS expuesta en la sección 2.1.3 y a lo propuesto por [60],
se definen 7 orientaciones, cada una con dos direcciones sobre un semiplano digital, con lo
cual se obtienen 14 máscaras de filtraje. Dado que la curva de contorno está definida sobre
las 1 – células, el elemento central de nuestro semiplano digital será una 1 – célula. La Figura
31 muestra las 14 orientaciones que se buscan resolver por medio de DSSs en el semiplano
digital.

Figura 31. Semiplano digital con 1-célula.


Como elemento central del plano y orientaciones requeridas a resolver por DSSs para las máscaras de filtraje.
Fuente: el autor.

Para obtener cada una de las orientaciones requeridas, el semiplano digital es dividido en dos
partes simétricas a la 1 - célula central para cada una de las orientaciones en el sentido horario
para las direcciones positivas y en sentido anti horario para las direcciones negativas (ver
Figura 32).

(a) (b)

Figura 32. División del semiplano plano digital.


(a) Orientaciones positivas definidas en la dirección horaria. (b) Orientaciones positivas definidas en la dirección anti
horaria.
Fuente: el autor.

44
Figura 33.Definición de núcleos de filtraje balanceado.
Los núcleos de la letra (𝑓1 ) a la (𝑓7 ) corresponden a las DSSs definidas para las direcciones positivas. Los núcleos que de
la letra (𝑓8 ) a la (𝑓14 ) corresponden a las DSSs definidas para las direcciones negativas.
Fuente: el autor.

La información radiométrica se encuentra en cada 2 – célula del espacio complejo cartesiano,


razón por la cual, la matriz de filtraje estará compuesta por cada 2 – célula del vecindario
más pequeño de la 1 – célula sobre la cual se define las DSSs. Cada DSSs estará orientada
en dos direcciones contrarias, esto gracias al intercambio entre los coeficientes positivos y
negativos asociados a las 2 – células. La Figura 32 muestra la asignación de los coeficientes
de un núcleo balanceado en una matriz de filtraje direccional.

Una vez se definen las máscaras de filtraje, se procede a construir el espacio filtrado, formado
por el conjunto de 1 - células cuyo vector de valores corresponderá al resultado de la máscara
de filtraje aplicada al espacio de niveles de grises (ver ecuación 31).

( 31 )
𝜓 ∗∗∗ 𝑖,𝑗 = [𝑓𝑖𝑙𝑡𝑒𝑟𝐷𝑆𝑆𝜙 (𝜓∗∗ 𝑖,𝑗 )] 𝑑𝑜𝑛𝑑𝑒 𝜙 = (𝑓1 , 𝑓2 , … , 𝑓14 )

Donde 𝑓𝑖𝑙𝑡𝑒𝑟𝐷𝑆𝑆𝜙 corresponde a la función de filtrado direccional en la dirección 𝜙.

3.2.1.4. Espacio De Textura

Aplicando la estrategia propuesta en [48], la cual consiste en detectar, localizar y agrupar


elementos repetidos de una imagen, se aplica al espacio filtrado la técnica de agrupamiento
𝑘 − 𝑚𝑒𝑑𝑖𝑎𝑠 [63], cuyo algoritmo destinado a situaciones en las cuales todas las variables
son de tipos cuantitativos [24] se basa en el cálculo de la distancia cuadrática Euclidiana entre
cada una de las muestras del conjunto. El resultado final serán los vectores de valores más
característicos del espacio filtrado y que como presenta [48] cada vector característico

45
representa una posible textura en la imagen, lo cual da lugar a un nuevo espacio que tiene
por nombre espacio de textura.

Para la implementación del algoritmo de 𝑘 − 𝑚𝑒𝑑𝑖𝑎𝑠 es necesario definir los centroides o


centros de clase inicial, para ello se procedió a calcular una distribución a lo largo de los
valores máximos y mínimos de cada vector de valores asociado a los elementos celulares.
Los vectores de valores máximo y mínimo están definidos por las ecuaciones 32 y 33
respectivamente.

𝑉𝑚𝑎𝑥 = (𝑣1 , 𝑣2 , … , 𝑣𝜙 )
( 32 )
∗∗
𝑑𝑜𝑛𝑑𝑒 𝑣𝜙 = 𝑚á𝑥 {𝜓 𝜙 𝑖,𝑗
| 𝑖 = 1, … , 𝑚; 𝑗 = 1, … , 𝑛} 𝑝𝑎𝑟𝑎 𝜙 = 1, 2, … , 14

𝑉𝑚𝑖𝑛 = (𝑣1 , 𝑣2 , … , 𝑣𝜙 )
( 33 )
𝑑𝑜𝑛𝑑𝑒 𝑣𝜙 = 𝑚𝑖𝑛 {𝜓 ∗∗ 𝜙 | 𝑖 = 1, … , 𝑚; 𝑗 = 1, … , 𝑛} 𝑝𝑎𝑟𝑎 𝜙 = 1, 2, … , 14
𝑖,𝑗

Entre los dos vectores 𝑉𝑚𝑎𝑥 y 𝑉𝑚𝑖𝑛 se trazan los centroides iniciales distribuidos de forma
equidistante, y serán tantos como 𝜉 grupos se definan. En la Figura 34 se puede observar la
ubicación de los puntos máximos y mínimos para un espacio con tres vectores 3-
dimensionales y en la Figura 35 los centros de clase inicial para un escenario de 𝜉 = 6.

Figura 34. Ubicación de valores máximos y mínimos.


En la figura, un escenario con tres vectores: V1, V2, V3. En tono verde los valores máximos y en tono rojo los valores
mínimos.
Fuente: el autor.

46
Figura 35. Proyección de centros de clase inicial a partir del vector valores máximo y mínimo.
Fuente: el autor.

El propósito de distribuir los centroides iniciales a lo largo de un vector entre los valores más
distantes, es propiciar una mayor convergencia a lo largo de las iteraciones del algoritmo de
𝑘 − 𝑚𝑒𝑑𝑖𝑎𝑠. Con el conjunto de centroides iniciales 𝜍 = (𝜍1 , … , 𝜍𝜉 ) definido, se procede a
iniciar el proceso iterativo de cálculo de distancias. Para calcular la matriz de distancia
Euclidiana [64] entre cada vector del conjunto 𝜓 y los centroides del conjunto 𝜍 se aplica la
ecuación 34:

𝐷 = [𝑑(𝑖,𝑗) 𝑠 ] 𝑑𝑜𝑛𝑑𝑒
1⁄
14 2
2 ( 34 )
𝑑(𝑖,𝑗) = ‖𝜓 ∗∗∗ 𝑖,𝑗 − 𝜍𝑠 ‖ = [∑ (𝜓 ∗∗∗ 𝜙 − 𝜍𝜙 𝑠 ) ] 𝑐𝑜𝑛 𝑠 = (1, 2, … , 𝜉)
𝑠 𝑖,𝑗
𝜙=1

Donde 𝜍𝑠 es un centro de clase del conjunto de centros de clase 𝜍.

Determinar la matriz de agrupamiento es producto de la evaluación de cada uno de los


elementos de la matriz de distancias 𝐷 de acuerdo a lo formulado en la ecuación 35:

𝐺 0 = [𝑔(𝑖,𝑗) 𝑠 ] 𝑑𝑜𝑛𝑑𝑒
1 𝑠𝑖 𝑑(𝑖,𝑗) 𝑠 𝑒𝑠 𝑙𝑎 𝑚í𝑛𝑖𝑚𝑎 ( 35 )
𝑔(𝑖,𝑗) ={
𝑠 0 𝑠𝑖 𝑛𝑜 𝑙𝑜 𝑒𝑠

Con la matriz 𝐺 se identifica el centro de clase más cercano al vector de valores 𝜓 ∗∗∗ 𝑖,𝑗 . El
nuevo conjunto de centroides 𝜍 se forma con los vectores de valores medios de las células
pertenecientes a un mismo grupo.

Al finalizar la ejecución del algoritmo de 𝑘 − 𝑚𝑒𝑑𝑖𝑎𝑠 cada célula del espacio tiene como
vector de valores el valor del índice del último centro de clases asignado en la matriz 𝐺.

47
𝜓 ∗∗∗∗ 𝑖,𝑗 = [𝑠] 𝑠𝑖 𝑦 𝑠𝑜𝑙𝑜 𝑠𝑖 𝑔(𝑖,𝑗) == 1 ( 36 )
𝑠

3.2.1.5. Espacio De Cuencas

De acuerdo al flujo de procesos expuesto en la Figura 22 existe una línea paralela a la


obtención del espacio de texturas; esta línea contempla la creación de un espacio de cuencas,
y que tiene por objetivo principal la obtención de los superpíxeles.

En el numeral 2.1.4 del presente documento se hace la introducción formal a la transformada


y una explicación del algoritmo propuesto por Vincent y Soille [37] para la implementación
por inmersión.

El objetivo de aplicar la transformada de cuenca al espacio complejo cartesiano es la


obtención de polígonos que describan las formas de los objetos presentes en la imagen, es
por ello, que se hace necesario un pre procesamiento al espacio cartesiano en donde se
resalten lo bordes de cada una de los objetos. Para cumplir con este requerimiento se aplicó
al espacio de niveles de grises la técnica de detección de bordes gradiente de Sobel [65] [66]
[67], en donde a cada 1-célula se le aplica la función de filtro 𝑓𝑖𝑙𝑡𝑒𝑟𝑆𝑜𝑏𝑒𝑙 sobre el vector su
valores 𝜓 correspondiente, 𝜓 = 𝑓𝑖𝑙𝑡𝑒𝑟𝑆𝑜𝑏𝑒𝑙 (𝜓). Los valores radiométricos asociados a cada
uno de los coeficientes obtenidos de manera similar a lo expuesto en la sección 3.2.1.3. En
la Figura 36 se puede observar la respectiva máscara de filtraje según la orientación de la 1-
célula definido en el trabajo [58].

Figura 36. Máscara para la implementación del filtro Sobel sobre 1-células según su orientación
[58].

El siguiente paso en la preparación del espacio antes de proceder con la construcción de


cuencas es el cálculo del gradiente de la imagen [67]. Para este escenario, el gradiente es
calculado con el operador de Sobel expuesto en la ecuación 37 [58] sobre cada una de las 1
– células disponibles en el espacio y el resultado es aplicado a la 2 - célula asociada de
acuerdo a la relación de dependencia expuesta en el numeral 2.1.2 y 3.2.1.1.

𝐺 = √𝐺𝑥 2 + 𝐺𝑦 2 ( 37 )

La ejecución del algoritmo de cuenca por inundación geográfica tiene un elemento clave
conocido como la relación de vecindario. Para las 1 – células que conforman el espacio de
los complejos cartesianos se define un nuevo vecindario, que llamaremos crack-vecindario”.
Este vecindario conectará al crack central con sus 6 crack vecinos a través de las 0 - células
que lo limitan, tal y como se muestra en la Figura 37:

48
Figura 37. Definición del crack-vecindario.
En tono verde el crack central, en tono blanco los crack vecinos y en tono azul las 0-células que permiten conectar al
crack con sus células vecinas. (a) Elementos del vecindario para un crack o 1-célula horizontal. (b) Elementos del
vecindario para un crack o 1-célula vertical.
Fuente: el autor.

Debido que la transformada de cuenca se basa sobre el fenómeno geológico de inundación,


existe una dificultad a la hora de definir los polígonos para la construcción de los
superpíxeles; esta dificultad recibe el nombre de meseta o planicie de la imagen.

(a) (b)
Figura 38. Meseta o Planicie de Cuenca.
(a) Representación en sistema digital de una meseta de cuenca. (b) Representación en relieve de una meseta de cuenca.
Fuente: el autor.

El problema de las mesetas es tratado por [68], planteando una solución que recibe el nombre
de aristas ascendentes de la meseta; inspirados en la técnica original, se desarrolla un método
simplificado, aplicando el adelgazamiento en función la distancia más corta del centro del
borde hacia la cuenca más cercana (ver Figura 39).

49
(a) (b)
Figura 39. Adelgazamiento de planicie.
(a) 𝑑1 y 𝑑2 representan la distancia desde el centro de cuenca a la cuenca a y b respectivamente. (b) la representación en
relieve del resultado del adelgazamiento del borde de cuenca.
Fuente: el autor.

3.2.1.6. Espacio De Clasificación Complejo Cartesiano

De acuerdo a lo presentado en las secciones 1.2 y 2.1.2 el objetivo principal del presente
trabajo de investigación es desarrollar un modelo de clasificación que incluya las nociones
topológicas para espacios 𝑇0 disponibles en los complejos de células abstractos. Para lograr
este objetivo se define el espacio de cuencas basado en 1 – células; este espacio se construye
bajo la definición de un vecindario celular sin paradojas de conectitud, y gracias a que la
expansión de cuenca se resuelve sobre las 1 – células, los límites trazados, cumplen con la
definición de 2.1.3, lo cual representa límites libres de ambigüedad, según se expone en [6].

El segundo espacio que permite aprovechar las nociones topológicas que subyacen al espacio
de los complejos cartesianos corresponde al espacio de textura. El espacio de textura basado
en 1 – células, almacena la información de textura de los objetos contenidos en la imagen de
acuerdo al procedimiento expuesto en la sección 3.2.1.3, el cual se basa en máscaras de
filtraje direccional aplicadas a las 1 – células disponibles en el espacio complejo cartesiano
sin dar lugar a deformación de los objetos causado por la ambigüedad de límite [6] (esto
debido a que la 2 – célula asociada a la 1 – célula no se ve afectada).

De acuerdo a lo expuesto en el numeral 3.2.1.5, el espacio de cuencas define entre sus


elementos un espacio formado por elementos celulares que han sido asignados a un mismo
conjunto (cuenca); cada uno de estos conjuntos mapeará al espacio convencional a un
superpíxel definido por los límites virtuales trazados entre cada una de las cuencas del
espacio cartesiano (ver Figura 40). Para el cálculo del descriptor de superpíxel (valor
radiométrico asignado al superpíxel) se procede a calcular el vector de valores medios, para
el grupo de píxeles delimitados por el espacio de cuencas.

50
Figura 40. Mapeo de polígonos definidos por el espacio de cuencas a superpíxeles en el espacio de representación
convencional.
En la imagen se hace la asignación de superpíxeles para una imagen multiespectral compuesta por tres bandas (RGB) y
para la capa obtenida con el espacio de textura.
Fuente: el autor.

En la Figura 40 se expone como los superpíxeles trazados por el espacio de cuencas son
mapeados tanto para las capas multiespectrales que componen la imagen como para la copa
de textura resultante de los complejos cartesianos.

Con las capas de superpíxeles de rasgos radiométricos y rasgos de textura, se concluye la


construcción de las capas requeridas para ser inyectadas al algoritmo clasificador.

Como técnica dispuesta en la literatura para la clasificación de imagen, se hace uso de la


herramienta de clasificación supervisada máquinas de soporte vectorial (SVM) [26] con la
cual se realizarán las pruebas de las capas resultantes del modelo de clasificación
desarrollado. El kernel seleccionado para la ejecución de la SVM en Matlab se basa en el
trabajo [69] el cual presenta un estudio comparativo de los kernels expuestos en la sección
2.1.1. El estudio presentado por [69] basa su valoración en las medidas de evaluación
descritas en [70] (ver Figura 41). En la Tabla 6 se resume el resultado obtenido por [69].

Figura 41. Variables de evaluación para valoración de resultados de kernels de clasificación


[69].

Debido a que los kernels sigmoid, laplacian y annova RBF no están incluidos en los núcleos
por defecto de la función fitcsvm (función de la herramienta Matlab®, sección 3.2.2.6) usada
en la fase de entrenamiento de los scripts de clasificación, se descartan de la selección. De
los kernels que quedan disponibles para selección (Gaussian, Polynomial y Linear), se
realiza una ponderación entre cada variable, asignando 1 unidad de peso de 1 unidad para el
kernel que tenga mejor resultado, 0.5 para el resultado medio y 0 para el menor resultado.
La Tabla 6 se presentan los resultados de la ponderación.

51
Kernel Tasa de éxito (recall) Especificidad Precisión Puntuación F Exactitud
Gaussian 71.60% 96.19% 84.57% 77.54% 90.64%
Polynomial 74.67% 91.61% 72.19% 73.38% 87.79%
Linear 79.73% 94.49% 80.83% 80.27% 91.16%
Sigmoid 47.69% 85.47% 48.87% 48.25% 76.95%
Laplacian 75.17% 95.80% 83.95% 79.31% 91.15%
Anova RBF 76.75% 95.50% 83.26% 79.87% 91.27%

Tabla 6. Resultados de validación cruzada de diferentes modelos svm kernel


[69].

Gaussian Polynomial Linear


Tasa de éxito 0 0,5 1
Especificidad 1 0 0,5
Precisión 1 0 0,5
Puntuación F 0,5 0 1
Exactitud 0,5 0 1
Total 3 0,5 4

Tabla 7. Ponderación para selección de kernel.

De acuerdo a lo presentado por la Tabla 6, y acorde a lo presentado por [69] el kernel


seleccionado para realizar la fase de clasificación corresponde al Gaussian.

3.2.2. Marco Computacional

Tomando como base el flujo de procesos propuesto en la Figura 22, cada bloque de las fases
del modelo corresponde a paquetes o módulos de software. El primer paso en la construcción
consistió en la definición del diagrama de clases asociado a cada uno de los espacios
propuestos en el modelo conceptual; este trabajo, el cual fue realizado como parte del trabajo
de investigación doctoral titulado “Development of an Alternative Method for Multispectral
Image Segmentation Based on Cartesian Complexes and Its Associated Oriented Matroids”
desarrollado por el ingeniero José Antonio Valero [27] [46] [34] [68] en sesiones de diseño
iterativas, entrega como resultado el diagrama de clases principal que a su vez permite la
definición del diagrama de paquetes teniendo como criterio de agrupamiento el mayor grado
de cohesión y menor nivel de acoplamiento entre los elementos. En la Figura 42 se puede
observar el diagrama de paquetes obtenido.

52
Figura 42. Diagrama de paquetes marco computacional.
Fuente: el autor.

Los componentes expuestos en la Figura 42 del marco computacional se construyeron bajo


el lenguaje de programación JAVA usando como entorno de desarrollo Eclipse Mars 1. Para
el manejo de lectura y escrita de los formatos de imágenes satelitales se hizo uso del GDAL
disponible para JAVA. En la Figura 43 se puede observar el modelo lógico asociado a lo
anteriormente descrito. La parte del modelo que corresponde a la fase de clasificación de
imagen se realizó bajo la herramienta computacional Matlab®.

Los algoritmos implementados en el marco computacional siguen una arquitectura de


procesamiento en paralelo, para lo cual se hizo uso del API core de java Fork/Join. El
recorrido o procesamiento de cada algoritmo sigue un patrón de distribución regido por la
cantidad de procesadores disponibles en la herramienta de cómputo sobre la cual se ejecuta
el proceso; cada hilo de proceso tendrá a cargo un número de células determinado por el
cociente de la división del número total de procesadores entre el número de células del
espacio.

Marco Computacional

JAVA

Geospatial Data Repositorio o Espacio en


Abstraction Library Disco

Cartesian Complex
GDAL

Paquete de Clasificación
Matlab®

Figura 43. Modelo lógico marco computacional.


Fuente: el autor.

53
El propósito de la paralelización está dado por el gran volumen de información (células) que
puede llegar a contener una imagen multiespectral; es por ello que se hace necesario definir
algoritmos que realicen su procesamiento en forma paralela, y optímense al máximo los
recursos físicos provistos por el servidor sobre el cual se ejecuta el proceso.

A continuación, vamos a realizar un zoom sobre cada uno de los bloques lógicos que
componen la solución del marco computacional, y sobre los escenarios que aplica,
visualizaremos las imágenes de las capas intermedias resultantes.

3.2.2.1. Paquete Cartesian Complex Core

De acuerdo a lo expuesto en la Figura 42, la construcción de un espacio complejo cartesiano


se encuentra resulta por el paquete cartesian complex core; En este paquete se define la clase
principal contenedora de cada uno de los elementos del espacio, las reglas de construcción y
las estructuras de cada una de sus células. Este paquete fue implementado como parte del
trabajo [60]. Dada la naturaleza del espacio complejo cartesiano, cada píxel del espacio
original mapeará a una 2 - célula, sin embargo, los elementos interpixel (1 - células y 2 -
células) serán creados en la medida que el modelo de clasificación lo requiera (ver Figura
44).

Lectura Imagen
Satelital

Creación Estructura Asignación Respuesta


Compleja Cartesiana Espectral a elementos
Espacio Complejo
2-celulares Cartesiano
Imagen
Multiespectral

Figura 44. Flujograma de la creación de un espacio complejo cartesiano.


Fuente: el autor.

En la capa física, un espacio complejo cartesiano es guardado en disco usando los métodos
dispuesto por GDAL, usando el formato img y que permite ser cargado por cualquier software
orientado al manejo de formatos de imagen satelital. Una capa o banda de la imagen satelital
de entrada mapeará a un valor del vector de valores del elemento celular; por cada banda del
complejo cartesiano, será guardada en disco cuatro bandas, una por cada tipo de elemento
celular, y solo en el caso de las 1-células, una capa por cada orientación del crack, tal y como
se muestra en la Figura 45.

54
Figura 45. Mapeo físico por cada elemento celular del espacio complejo cartesiano.
En la figura los elementos en tono verde representan las 1 – células o cracks, en tono azul las 0 - células y en tono gris,
las 2 - células. Los colores tienen únicamente propósito didáctico para mostrar la separación al momento de guardar en
disco.
Fuente: el autor.

De acuerdo a lo expuesto en el numeral 3.2.1.1, para transformar un espacio convencional a


un espacio de complejos cartesianos, se requiere de reglas de asignación de valor y
pertenencia; dado que este tema se encuentra a un desarrollo, parte de la presente
investigación es la propuesta a la extensión de la regla EquNaLi de Kovalevsky [6] con la
función 𝐴𝑟𝑐 y 𝑅𝑒𝑔; sin embargo, la solución a las nuevas funciones no tienen en
implementación computacional en el presente marco computacional expuesto. Para permitir
la extensión a futuro de la regla propuesta en la sección 2.1.2, se realiza una abstracción del
método EquNaLi, llevándolo a una representación por clase, haciendo uso del patrón de
diseño command y el patrón de diseño factory [71] (ver Figura 46).

Figura 46. Clases que componen el paquete "Rules".


Se observa en la imagen la interfaz "Rule", su realización la clase "EquNaLiRule" y el patrón de fábrica accesible a
través de la clase "Factory Rule".
Fuente: el autor.

De acuerdo al diagrama expuesto en la Figura 46 la creación de un espacio complejo


cartesiano tendrá la flexibilidad de solicitar a Rule la regla de transformación que a su juicio
requiera, ya sea la EquNaLi o las que a trabajo futuro se implementen, como lo es el caso de
la función 𝐴𝑟𝑐 y 𝑅𝑒𝑔.

55
3.2.2.2. Paquete Monochromatic

Con el espacio cartesiano disponible en memoria, la siguiente fase del modelo consiste en
crear el espacio de niveles de grises; para este espacio el paquete del framework delegado a
la construcción recibe el nombre de monochromatic. Un espacio complejo cartesiano de
niveles de grises se construye realizando los pasos mostrados en el flujograma de la Figura
47, en donde se puede observar como el primer paso es correspondiente a lo mostrado en el
modelo conceptual de la sección 3.2.1.2, el cálculo del vector de valores medios. Lo siguiente
es la construcción de los vectores ND para luego seguir con la matriz de varianza-covarianza
y finalizar con el cálculo de pesos para cada banda de entrada. El espacio final resultante se
puede observar en la Figura 49 junto a los respectivos pesos calculados para cada banda del
espacio de entrada.

Cálculo Vector de
Medias

Cálculo Vectores ND

Espacio Complejo Cálculo matriz de Cálculo pesos de la Espacio de Niveles de


Cartesiano Grises
varianza-covarianza imagen

Figura 47. Flujograma implementado en el paquete monochromatic para construcción de un espacio complejo cartesiano
de niveles de grises.
Fuente: el autor.

Los algoritmos que resuelven cada fase del paquete mochromatic se implementan siguiendo
la distribución de elementos mostrada en la Figura 48; esta distribución que se encuentra
condicionada por número de procesadores del sistema de cómputo, tiene como propósito
realizar el procesamiento en paralelo de cada bloque de células delegadas. Es importante
resaltar sobre lo expuesto en la Figura 48 los puntos de sincronización, representados por los
hexágonos en tono azul. Los puntos de sincronización están encargados de unificar el
resultado obtenido por cada hilo de proceso.

56
Figura 48. Paralelización del proceso de conversión de espacio multiespectral a espacio monocromático.
Fuente: el autor.

Como producto resultante de esta primera fase, se expone en la Figura 49, en donde se pueden
observar el espacio de niveles de grises.

Figura 49. Espacio de niveles de gris.


Pesos por bandas: infrarrojo cercano: 50,62%, verde: 23,59%, azul:25,80%.
Fuente: el autor.

3.2.2.3. Paquete Directionalfilter

La construcción de un espacio filtrado está delegada al paquete directionalfilter. Un espacio


filtrado está representado por la clase TexonCartesianComplex que es construido al momento
de invocar el constructor de clase. Este paquete expone una enumeración sobre la cual se
especifican cada una de las máscaras de filtraje definidas en la sección 3.2.1.3, asignando un
nombre lógico para cada dirección.

El algoritmo encargado de aplicar cada una de las máscaras direccionales tiene un patrón de
distribución en paralelo que se expone en la Figura 50; en ella, se puede observar como de
acuerdo al número de procesadores disponibles en el sistema de cómputo se delegan un

57
número de células y posterior a ello, de manera secuencial se aplicada sobre cada una las n
máscaras dispuestas al momento de invocar el método applyFilter.

Cada 1 - célula del nuevo espacio recibirá como vector de valores el resultado de la ejecución
de las máscaras direccionales. El vector de valores tendrá una longitud equivalente al número
de máscaras que hayan sido configuradas al momento de invocar el constructor de clase.

Figura 50. Construcción espacio complejo cartesiano filtrado.


Fuente: el autor.

Desde el punto de vista de la capa física, cada máscara de filtraje aplicada cobre las 1 –
células, corresponderá a una capa o banda almacenada en disco. De acuerdo con lo expuesto
en la sección 3.2.1.3 se incluye una propiedad utilitaria de supresión de ruido que tiene por
nombre noisefilter; con el propósito es suprimir la alteración de los valores producto de la
digitalización de la escena [72]. Aunque existen diferentes técnicas para la supresión de
ruido, para el desarrollo del flujo de procesos del modelo se selecciona la técnica de un
suavizado de imagen basado en una máscara Gaussiana [73]. Antes construir el espacio
filtrado, se procede a aplicar al espacio de niveles de grises el paquete utilitario noisefilter
sobre cada una de las 2 – células que componen al espacio. El resultado de aplicar esta
máscara se puede observar en la Figura 51.

Figura 51. Espacio complejo cartesiano de niveles de grises con supresión de ruido.

58
En la Figura 52 se puede observar algunas de las capas resultantes de la construcción del
espacio filtrado. El total de las imágenes pueden ser consultadas en la parte de anexos del
presente trabajo.

(a) (b)

Figura 52. Capas resultantes del espacio filtrado.


(a) y (b) corresponden al resultado de aplicar la máscara expuestas en la. Figura 33𝑓1 y Figura 33𝑓8 que representan
una misma DSSs pero en diferente dirección. (a) corresponde 1-Células de tipo "VerticalCrack". (b) 1-Células de tipo
"HorizontalCrack".

De la Figura 52 se puede observar como los filtros resaltan los bordes entre las texturas en la
escena.

3.2.2.4. Paquete Clustering

El paquete cluetring es el encargado de resolver la construcción del espacio de textura. Un


espacio de textura será representado por la ejemplificación de la clase
TextureCartesianComplex mediante la invocación del constructor de clase.

La construcción de un “Espacio de Textura” se encuentra gobernada por la ejecución


secuencial de las fases expuestas en la Figura 53.

59
Cálculo Vector de
Cálculo centros de
Valores Máximos y
clase inicial
Mínimos

Asignación Centros de
Ejecución K-Medias Clase a Espacio de Imagen de Textura
Espacio Filtrado Textura ACC

Figura 53. Flujograma construcción espacio de Textura.


Fuente: el autor.

El algoritmo encargado de resolver el cálculo del vector de valores máximos y el vector de


valores mínimos se encuentra implementado siguiendo el patrón expuesto en la Figura 54,
realizando el procesamiento en paralelo del paquete de células delegas. De acuerdo a lo
expuesto, cada hilo de proceso realiza el cómputo de un Vector de valores máximos y un
vector de valores mínimos, obligando a la implementación, tener un punto de sincronización
y con ello entregar al proceso, un único resultado.

Figura 54. Distribución de células algoritmo del encargado de obtener el vector de valores máximos y el vector de
valores mínimos.
Fuente: el autor.

Para el cálculo de los centros de clase inicial no se hace uso de computación en paralelo tal
y como se muestra en la Figura 54 ya que el esfuerzo computacional realizado por el método
es bastante simple (Consultar Javadoc en la sección de anexos del trabajo).

La siguiente fase en la construcción del espacio de textura corresponde a la ejecución del


algoritmo de 𝑘 − 𝑚𝑒𝑑𝑖𝑎𝑠; Este algoritmo se implementa en tres fases lógicas: asignación de
centros de clase, evaluación matriz de distancias y cálculo de los nuevos centros de clase, tal
y como se expone en la Figura 55.

Para la asignación de los centros de clase el espacio es dividido en paquetes de células según
el número de procesadores disponibles en el sistema de cómputo, luego, el centro de clase es
asignado según lo expuesto en el numeral 3.2.1.4, calculando la distancia Euclidiana desde
el vector de valores de la célula procesada a cada uno de los centros de clase; al finalizar, la
célula tendrá como nuevo vector de valores, el centro de clase más cercano.

El paso a seguir por el algoritmo, es evaluar si es necesario realizar una nueva iteración,
realizando una comparación entre una matriz de distancia 𝐷 correspondiente a la iteración

60
actual y una matriz de distancia 𝐷−1 correspondiente una iteración anterior. El algoritmo 𝑘 −
𝑚𝑒𝑑𝑖𝑎𝑠 tendrá fin, en cuanto 𝐷 sea igual a 𝐷−1 .

Para los escenarios en que se requiera una nueva iteración, es necesario calcular los nuevos
centros de clase; continuando con el patrón de procesamiento en paralelo, se distribuyen los
paquetes de células en función del número de procesadores disponibles en el sistema de
cómputo. Cada hilo de proceso determina centros de clase local al hilo, requiriendo que el
sistema sea sincronizado para obtener un único centro por cada clase solicitada. En la Figura
55 se puede observar los rasgos generales de los pasos realizados en una iteración del
algoritmo implementado en la fase de 𝑘 − 𝑚𝑒𝑑𝑖𝑎𝑠.

Figura 55. Distribución de células y fases de ejecución para una iteración del algoritmo de k-medias implementado en el
paquete clustering.
Fuente: el autor.

Figura 56. Espacio de Textura.


(a) 1-Células de tipo "VerticalCrack". (b) 1-Células de tipo "HorizontalCrack".

En el espacio de textura resultante que se expone en la Figura 56, cada 1-celula contendrá el
id del centro de clase al cual pertenece, permitiendo así, identificar y relacionar las células
que pertenezcan a una misma textura.

61
3.2.2.5. Paquete Watershed

Para construir un espacio de cuencas es necesario realizar una ejemplificación de la clase


watershedCartesianComplex, contenida en el paquete computacional watershed. Con base
en el modelo conceptual especificado en el numeral 3.2.1.5, se implementa el flujograma
expuesto en la Figura 57.

Cálculo Filtro de Sobel

Espacio de Niveles
de Grises con
supresión de Ejecución Algoritmo
ruido Cálculo Gradiente
Transformada de
Operador Sobel
Cuenca

Espacio de
Cuencas

Figura 57. Flujograma Paquete “watershed” que implementa la construcción de un espacio de cuencas.
Fuente: el autor.

De acuerdo a lo expuesto en la Figura 57, la primera fase que se ejecuta corresponde al


cálculo filtro de sobel; esta fase aplica sobre el espacio complejo cartesiano de niveles de
grises la máscara Sobel definida en la sección 3.2.1.5 para los complejos cartesianos; El
procesamiento del espacio procesado se realiza siguiendo el patrón de procesamiento en
paralelo expuesto en los numerales 3.2.2.3. Sobre cada célula procesada se aplica la máscara
Sobel, asignando el valor resultante del filtro, como el vector de valores del espacio
ejemplificado (ver Figura 58).

Figura 58. Ejecución máscara de Sobel sobre el espacio complejo cartesiano de niveles de grises con supresión de ruido.
Fuente: el autor.

El espacio complejo cartesiano con máscara de Sobel contendrá sobre los elementos 1 –
célula el valor resultante de la máscara.

62
(a) (b)

Figura 59. Resultado Espacio de Cuencas, fase filtro de Sobel y gradiente de Sobel.
(a) y (b) respectivamente.

El aplicar el filtro de Sobel sobre el espacio de niveles de grises se centra en lograr resaltar
los bordes de los objetos contenidos en la escena, sin embargo, esto no es suficiente para
trazar las cuencas de la imagen, ya que como se muestra en la Figura 59a, los objetos que
quedan delimitados por los bordes resaltados, presentan texturas que pueden dar lugar a falsas
cuencas y como resultado final, detrimento en la calidad de los superpíxeles deseados. Es por
ello, que se procede a implementar el concepto de gradiente de Sobel [61], que de acuerdo a
la literatura del procesamiento de imagen, permite obtener un alisado de la escena procesada
(ver Figura 59.b).

Antes de proceder con la implementación de la fase de gradiente de Sobel, el presente trabajo


hizo uso del marco de evaluación de fiabilidad de límite Berkeley Segmentation [14],
aplicando al conjunto de datos de entrenamiento del BSD500 la fase de Sobel y la fase de
gradiente de Sobel, con el propósito de evaluar si el aporte realizado con la suavización de
la textura dada por el gradiente, deterioraba los contornos resaltados con la fase de Sobel. El
resultado de la ejecución del marco de evaluación se expone en la Figura 60.

En la Figura 60a la curva en tono rojo muestra el resultado de la evaluación de fiabilidad de


límite para las imágenes procesadas hasta la fase de Sobel y en azul las procesadas con la
fase siguiente de gradiente, sobre la cual se observa un fenómeno no esperado para los
elementos menor cobertura del límite evaluado, ya que de acuerdo a lo expuesto por el autor
[14], son los que deben tener la mayor probabilidad de ser límite, sin embargo y caso
contrario para el ejercicio expuesto, la curva presenta punto de inflexión negativo al llegar a
una cobertura del 30%. Con la caída en la curva se indica que los puntos finales que quedan
sobre el espacio y que indican pertenencia al límite, no lo son realmente.

63
(a) (b)

Figura 60. Resultado de la ejecución del marco de evaluación de fiabilidad de límite.


En tono rojo el resultado para las imágenes procesadas hasta la fase de "Sobel", en azul, las imágenes procesadas hasta
la fase de gradiente.

Comparando los resultados obtenidos en el trabajo [33], se identifica que la causa en el


detrimento de los límites obtenidos sobre el espacio se asocia a la fase de supresión de ruido
aplicada al espacio complejo cartesiano de niveles de grises con máscara gaussiana, razón
por la cual se repite el experimento sin la fase de suavización, obteniendo los resultados
presentados en la Figura 60b en la cual la curva en tono rojo muestra el resultado para las
imágenes procedas hasta la fase de Sobel y tono azul, incluida la fase de gradiente. De
acuerdo a las curvas expuestas, y a lo presentado en [33], se observa que los elementos finales
tienen la mayor probabilidad de ser límite, adicionalmente, se puede concluir, que realizar la
fase de gradiente sobre el espacio complejo cartesiano no causa detrimento o deformación de
los límites en la imagen pero sí logra suavizar las texturas de los objetos delimitados por los
bordes resaltados (ver Figura 59).

La siguiente fase del flujograma, corresponde a la ejecución del algoritmo de transformada


de cuenca. El algoritmo de Vincent y Soille [37] implementado para los complejos
cartesianos se ejecuta de manera secuencial, procesando una a una las células del espacio,
quedando como trabajo futuro la paralelización del algoritmo.

El algoritmo de construcción de cuencas se realiza ejecutando las fases que se muestran en


la Figura 61.

Ordenamiento del
Asignación de Etiqueta Expansión de Cuenca
Espacio

Figura 61. Fases del algoritmo de construcción de cuencas.


Fuente: el autor.

Para la implementación de las fases del algoritmo de cuenca se hace una transformación del
espacio bidimensional complejo cartesiano a uno unidimensional, enlazando el último
elemento de cada fila con el primero de la fila siguiente (ver Figura 62).

64
Figura 62. Transformación de espacio bidimensional a espacio unidimensional.
Fuente: el autor.

Con el espacio unidimensional construido, el siguiente paso requerido es el ordenamiento de


los elementos; para ello, la estructura unidimensional (que contiene la referencia a las células
en su espacio original) se ordena de menor a mayor, colocando como primer elemento la
referencia a la célula con menor altura (valor guardado en el vector de valores de la célula,
que para el caso corresponde al resultado del gradiente de sobel) , luego como segundo
criterio la ubicación en el espacio bidimensional complejo cartesiano, siendo menor la
coordenada más cercana al origen del espacio (de izquierda a derecha, y de arriba abajo). La
fase de asignación de etiqueta para cada uno de los elementos del espacio se realiza iterando
sobre los valores únicos de altura, teniendo así, tantas iteraciones como valores distintos de
ℎ existan en el espacio. Al finalizar la asignación de etiqueta, cada elemento celular del
espacio contendrá en su vector de valores el valor del id de la etiqueta a la cuenca
perteneciente. En la Figura 63 se puede observar el resultado de la construcción de un espacio
de cuencas en pseudocolor para facilitar su visualización.

Figura 63. Espacio de cuencas con 16618 cuencas trazadas.


Los colores son asignados con fin didáctico de visualización.

El resultado final de la implementación del espacio de cuencas es asignado a las 2 – células


del espacio complejo cartesiano, con el objetivo de preparar el espacio para la fase final de
clasificación.

65
3.2.2.6. Paquete Clasificador

Dando correspondencia a lo propuesto en el numeral 3.2.1.6, se construye el paquete de


clasificación que permitirá ejecutar la fase clasificación de imagen multiespectral. Este
paquete se encuentra fuera del alcance de construcción del marco computacional desarrollado
para los complejos cartesianos, no obstante, se desarrolla sobre la herramienta computacional
Matlab® un paquete de scripts necesarios para cumplir con el objetivo propuesto de
clasificación. De manera general, el script de clasificación construido en Matlab realiza las
fases expuestas en la Figura 64.

Muestreo Aleatorio
Entrenamiento (SVM)
Estratificado

Construcción de Clasificación
Superpíxeles (SVM)

Figura 64. Fases que componen el paquete de clasificación implementado en la herramienta computacional Matlab®.
Fuente: el autor.

La preparación del espacio para la fase de clasificación se realiza transformando el espacio


bidimensional a un espacio unidimensional; en la Figura 65 se muestra a modo ilustrativo el
proceso de transformación para una escena compuesta por tres bandas multiespectrales más
su correspondiente capa de textura; en donde cada uno de los píxeles limitados por una
cuenca han sido caracterizados por un único píxel descriptor acorde a lo expuesto en la
sección 3.2.1.6.

Figura 65. Transformación de espacio bidimensional a espacio unidimensional para la ejecución de la fase de
clasificación.

66
Fuente: el autor.

El muestreo estratificado se realiza sobre el total de las muestras de la imagen original debido
a que los superpíxeles obtenidos con el espacio complejo cartesiano difieren de los obtenidos
por el espacio de representación convencional (sección 3.2.3.1).

El espacio unidimensional expuesto en a Figura 65 se convierte en la entrada a la máquina


clasificadora (SVM). Una vez finaliza la clasificación, se realiza el proceso contrario,
recuperando a partir del espacio unidimensional clasificado el espacio bidimensional
original, permitiendo observar sobre la escena real el resultado de la clasificación. De manera
ilustrativa, la Figura 66 expone el proceso de transformación de espacio unidimensional a
espacio bidimensional, para una escena clasificada en tres clases: amarilla, verde y azul.

En la parte de anexos del presente trabajo, se encuentra en detalle cada uno se los scripts
implementados en el paquete de clasificación.

Figura 66. Transformación espacio unidimensional clasificado a espacio bidimensional original.


Fuente: el autor.

3.2.3. Evaluación Del Modelo De Clasificación

Para la fase de evaluación de resultados obtenidos con el modelo de clasificación se hace uso
de las matrices de confusión. De la matriz resultante se obtiene el índice kappa [26] que
permite determinar los intervalos de confianza [74]. Cada uno de estos elementos permite
concluir la precisión obtenida con el modelo propuesto. Para la evaluación del modelo de
clasificación se hace uso de las escenas presentadas en la sección 3.1.

Sobre cada una de las escenas seleccionadas se aplicó un redimensionamiento al 50% del
tamaño original (500 x 500). Este cambio de tamaño se debió a limitantes computacionales
con el hardware de cómputo sobre el cual se ejecuta.

En los escenarios que a continuación se desarrollan no se consideró enfrentar un modelo de


clasificación de imagen multiespectral con representación convencional (píxeles) contra los
superpíxeles obtenidos en el mólelo propuesto de clasificación basado en complejos
cartesiano, ya que en el trabajo [58] se reporta que los resultados de clasificación entre ambos

67
procedimientos son bastantes similares, sin embargo el número de elementos a clasificar en
el escenario de los superpíxeles obtenidos a partir de los complejos cartesianos versus el
número total de píxeles de la escena es considerablemente inferior, el nivel de exactitud se
mantuvo, lo que da lugar a una ganancia en rendimiento al tener que clasificar menos
elementos.

Para efectos de repetitividad y verificación de los resultados, el muestreo aleatorio


estratificado implementado en el paquete clasificador tiene como origen de la aleatoriedad
una semilla, que para los resultados que a continuación se exponen, corresponde a 456.

Para obtener un resultado comparable de evaluación de resultados del modelo de


clasificación basado en complejos de células abstractos, cada uno de los escenarios se
ejecutan en las mismas condiciones para la representación convencional de imagen (píxeles),
aplicando procedimientos equivalentes disponibles en el procesamiento de imagen.

Los escenarios de evaluación se construyen con el propósito de evaluar el efecto en la


clasificación de imagen multiespectral realizada a partir de superpíxeles trazados en el
espacio complejo cartesiano que incluye en su proceso de construcción las nociones
topológicas para los espacios 𝑇0 , versus los superpíxeles trazados a partir del espacio de
representación convencional que no incluye las nociones topológicas 𝑇0 . El segundo
escenario tiene como propósito evaluar la calidad entre las capas de texturas obtenidas en el
espacio de los complejos cartesianos y el espacio de representación convencional basados en
el nivel de exactitud obtenido en la clasificación. El tercer escenario está orientado a evaluar
el aporte que entrega la capa de textura como nuevo rasgo descriptor al ser incluido como
canal adicional de la escena clasificación.

Antes de abordar en detalle cada escenario de clasificación, se presenta en la sección 3.2.3.1


el procedimiento con el cual se construyen las capas equivalentes de textura y de cuencas
para el espacio de representación convencional, seguido de las secciones 3.2.3.2, 3.2.3.3 y
3.2.3.4 con el detalle de cada escenario.

3.2.3.1. Construcción Capas De Textura Y Cuencas Para Espacio De


Representación Convencional ( Píxel)

Para la construcción de la capa de textura y la capa de cuencas sobre el espacio de


representación convencional de imagen (píxel) se implementa el flujo de procesos expuesto
en la Figura 22 orientando cada fase al procesamiento de píxeles sobre la herramienta
computacional Matlab®. De acuerdo a lo expuesto en la sección 3.2.1.4 para la construcción
de un espacio de textura es necesario obtener un espacio filtrado. Para obtener un espacio
filtrado sobre la representación convencional de imagen se realiza el diseño de las máscaras
de filtraje, cada una con una dimensión de 5 × 5, con lo cual se busca definir un número de
direcciones cercano a las definidas para espacio de los complejos cartesianos. Cada máscara
se diseña aplicando el principio de filtro direccional derivativo disponible por la literatura de
procesamiento de imagen [15], lo cual da como resultado las máscara que se presentan en la

68
Figura 67. Los resultados de la ejecución de las máscaras de filtraje sobre el espacio
convencional se exponen en el apartado de anexos del presente trabajo.

Figura 67. Máscaras de filtraje direccional aplicada al espacio de representación convencional para obtener el espacio
filtrado requerido en la construcción de la capa de textura.
Fuente: el autor.

Con el espacio filtrado para el espacio de representación convencional, la construcción de la


capa de textura se realiza de manera equivalente a lo expuesto por la sección 3.2.1.4.

La construcción del espacio de cuencas equivalente para la representación del espacio


convencional se realiza ejecutando el procedimiento expuesto en [58], en donde de manera
equivalente a los complejos cartesianos, se aplica sobre la escena procesada la máscara de
Sobel seguido del cálculo del gradiente de Sobel, finalizando con la ejecución de la
transformada de cuenca haciendo uso de las funciones disponible por la herramienta
Matlab®.

69
(a) (b)

Figura 68. Resultado construcción capas de textura y cuenca para el espacio convencional.
(a) Espacio de textura. (b) Espacio de cuencas con 20134 cuencas trazadas.

En la Figura 68 (a) se presenta el resultado de la capa de textura para espacio de


representación convencional; la Figura 68 (b) presenta el resultado para el espacio de
cuencas, que para fines de visualización se asigna una tabla de pseudocolor sobre las cuencas.

La construcción de los superpíxeles para el espacio de representación convencional se realiza


de manera similar a lo expuesto en el numeral 3.2.1.6 para los complejos cartesianos, sin
embargo, en el espacio convencional, los límites de cuencas se trazan sobre los elementos
del conjunto, razón por la cual en la escena quedan píxeles sin valor de etiqueta de cuenca.
Para resolver la asignación de los píxeles pertenecientes al límite se obtiene la moda sobre
una máscara de 3 × 3 tomando como elemento central el píxel al cual se le requiere asignar
etiqueta (ver Figura 69).

Figura 69. Ejemplo de asignación de etiqueta a los píxeles pertenecientes al límite de cuenca.
Fuente: el autor.

Con la capa de textura y los superpíxeles definidos para espacio de representación


convencional, se procede con la ejecución de los tres escenarios propuestos para la
evaluación del modelo de clasificación basado en complejos cartesianos.

70
3.2.3.2. Clasificación De Superpíxeles Con Rasgos Radiométricos

En el primer escenario se realiza el proceso de clasificación para los superpíxeles trazados a


partir de los complejos cartesianos (sección 3.2.2.6) y los superpíxeles trazados a partir del
espacio de representación convencional (sección 3.2.3.1), asociados a los rasgos
radiométricos.

El resultado obtenido con el primer escenario permite evaluar el efecto de construir un


espacio de superpíxeles a partir de un proceso basado en un espacio que incluye las nociones
topológicas para los espacios 𝑇0 (complejos cartesianos) y uno que no las incluye
(representación convencional). En la Figura 70 se expone el flujo de procesos a ejecutar para
el primer escenario de clasificación.

Superpíxeles
Convencionales

Clasificador SVM

Evaluación de
Muestreo Aleatorio Muestra de Clasificación
Entrenamiento SVM
Estratificado Entrenamiento

Imagen de
entrenamiento Clasificador SVM

Realidad de
Terreno

Superpíxeles ACC

Figura 70. Flujo de procesos de clasificación de imagen basado en los superpíxeles asociados a los rasgos radiométricos,
usando como clasificador máquinas de soporte vectorial (SVM).
Fuente: el autor.

71
3.2.3.3. Clasificación Superpíxeles Con Rasgos De Textura

En el segundo escenario se realiza el proceso de clasificación para los superpíxeles trazados


a partir de los complejos cartesianos (sección 3.2.2.6) y los superpíxeles trazados a partir del
espacio de representación convencional (sección 3.2.3.1), asociados a los rasgos de textura.
El propósito de este escenario es evaluar comparar las capas de textura obtenidas para cada
espacio, haciendo uso del nivel de exactitud obtenido por la clasificación de cada espacio. La
Figura 71 muestra el flujo de procesos correspondiente para este escenario de clasificación.

Superpíxeles de
Textura
Convencional

Clasificador SVM

Evaluación de
Muestreo Aleatorio Muestra de Clasificación
Entrenamiento SVM
Estratificado Entrenamiento

Imagen de
entrenamiento Clasificador SVM

Realidad de
Terreno

Superpíxeles de
Textura ACC

Figura 71. Flujo de procesos de clasificación de imagen basado en los superpíxeles asociados a los rasgos de textura
usando como clasificador máquinas de soporte vectorial (SVM).
Fuente: el autor.

72
3.2.3.4. Clasificación De Superpíxeles Con Rasgos Radiométricos Mas Rasgos
De Textura

El tercer escenario implementado para la evaluación del modelo se puede observar en la


Figura 72; El propósito de tercer escenario de clasificación es evaluar el aporte que entrega
la capa de textura como nuevo rasgo descriptor al ser incluido como canal adicional de la
escena clasificación.

Superpíxeles + Capa de
Textura Convencional

Clasificador SVM

Evaluación de
Muestreo Aleatorio Muestra de Clasificación
Entrenamiento SVM
Estratificado Entrenamiento

Imagen de
entrenamiento Clasificador SVM

Realidad de
Terreno

Superpíxeles + Capa de
Textura ACC

Figura 72. Escenario de clasificación completo; Superpíxeles con rasgos radiométricos más rasgos de textura.
Fuente: el autor.

73
4. PRESENTACIÓN DE RESULTADOS

A continuación, se presentan el resultado de clasificación entregado por cada escenario


propuesto en la sección 3.2.3. La convención de colores usada en cada una de las capas
corresponde a la presentada en la Tabla 2. Los resultados en las Tabla 8, Tabla 9, Tabla 12,
Tabla 13, Tabla 16, Tabla 17 que corresponden a las matrices de confusión, se presentan en
porcentaje y no en número de elementos. El análisis de los resultados obtenidos se aborda en
la sección 5 del presente documento.

4.1. Resultados De Clasificación Escenario De Superpíxeles Con Rasgos


Radiométricos

En la Figura 73.a se muestra el resultado de la clasificación para los superpíxeles obtenidos


con el procedimiento para espacio de representación convencional asociado a los rasgos
radiométricos (sección 3.2.3.1). La Tabla 8 muestra la respectiva matriz de confusión
correspondiente al resultado de la clasificación.

(a) (b)

Figura 73. Resultados de clasificación para el escenario de superpíxeles asociados a los rasgos radiométricos.

74
impermeable

Vegetación
Superficie
Clase

Edificio

Carro
Árbol

Baja
Edificio 68,07 26,96 0,38 4,48 0,11
Superficie impermeable 9,58 81,84 1,44 6,64 0,51
Árbol 2,74 0,89 75,19 21,17 0,01
Vegetación Baja 18,21 15,26 21,13 45,2 0,21
Carro 31,82 50,01 1,08 6,18 10,91

Tabla 8. Matriz de confusión resultante de la clasificación de los superpíxeles obtenidos a partir del espacio de
representación convencional asociados a los rasgos de radiométricos.

La parte b de la Figura 73 corresponde al resultado de la clasificación obtenida a partir de la


capa de superpíxeles trazados por los complejos celulares cartesianos asociados a los rasgos
radiométricos; en la Tabla 9 expone la respectiva matriz de confusión.

impermeable

Vegetación
Superficie
Clase
Edificio

Carro
Árbol

Baja
Edificio 67,06 26,78 0,46 5,52 0,19
Superficie impermeable 7,8 84,86 1,44 5,53 0,37
Árbol 2,73 1,42 73,92 21,94 0
Vegetación Baja 19,14 13,06 20,96 46,59 0,25
Carro 33,47 48,65 0,96 6,11 10,82

Tabla 9. Matriz de confusión resultante de la clasificación de los superpíxeles obtenidos a partir del espacio complejo
cartesiano asociados a los rasgos de radiométricos.

A partir de la matriz de confusión se procede al calcular la exactitud obtenida para cada


clasificación y sus respectivos intervalos de confianza (ver Tabla 10 y Tabla 11).

Exactitud
Superpíxel Rasgos Radiométricos Convencional 71,41%
Superpíxel Rasgos Radiométricos Complejos Celulares Cartesianos 72,17%

Tabla 10. Exactitud resultante del proceso de clasificación, calculada a partir de la matriz de confusión de cada uno de
los espacios (SC y SCCC).

Mínimo Máximo
Superpíxel Rasgos Radiométricos - Convencional 29,76% 80,27%
Superpíxel Rasgos Radiométricos - Complejos Celulares Cartesianos 30,26% 80,67%
Tabla 11. Intervalos de confianza producto de la clasificación del escenario de superpíxeles asociados a los rasgos
radiométricos.

75
4.2. Resultados De Clasificación Escenario De Superpíxeles Con Rasgo De
Textura

En la Figura 74 .a se muestra el resultado de la clasificación para los superpíxeles obtenidos


con el procedimiento para espacio de representación convencional asociados a los rasgos de
textura. La Tabla 12 muestra la respectiva matriz de confusión correspondiente al resultado
de la clasificación.

(a) (b)

Figura 74. Resultados de clasificación para el escenario de superpíxeles asociados a los rasgos de textura.
impermeable

Vegetación
Superficie

Clase
Edificio

Carro
Árbol

Baja

Edificio 12,17 37,57 48,18 0,58 1,51


Superficie impermeable 10,69 41,77 45,09 1,06 1,39
Árbol 25,23 61,37 10,01 0,83 2,57
Vegetación Baja 20,87 56,8 18,63 1,2 2,5
Carro 32,82 38,6 20,7 4,74 3,14

Tabla 12. Matriz de confusión resultante de la clasificación de los superpíxeles obtenidos a partir del espacio de
representación convencional asociados a los rasgos de textura.

La parte b de la Figura 74 corresponde al resultado de la clasificación obtenida a partir de la


capa de superpíxeles trazados por los complejos celulares cartesianos asociados a los rasgos
de textura; en la Tabla 13 expone la respectiva matriz de confusión.

76
impermeable

Vegetación
Superficie
Clase

Edificio

Carro
Árbol

Baja
Edificio 66,62 4,71 7,97 15 5,71
Superficie impermeable 70,88 3,79 7,87 10,94 6,52
Árbol 32,36 8,27 25,39 29,48 4,5
Vegetación Baja 41,69 8,11 17,38 25,28 7,54
Carro 32,07 20,63 23,55 20,27 3,48

Tabla 13. Matriz de confusión resultante de la clasificación de los superpíxeles obtenidos a partir del espacio complejo
cartesiano asociados a los rasgos de textura.

A partir de la matriz de confusión se procede al calcular la exactitud obtenida para cada


clasificación y sus respectivos intervalos de confianza (ver Tabla 14 y Tabla 15).

Exactitud
Superpíxel Rasgos Textura Convencional 21,67%
Superpíxel Rasgos Textura Celulares Cartesianos 23,33%

Tabla 14. Exactitud resultante del proceso de clasificación, calculada a partir de la matriz de confusión de cada uno de
los espacios.

Mínimo Máximo
Superpíxel Rasgos de Textura - Convencional 1,07% 21,48%
Superpíxel Rasgos de Textura - Celulares Cartesianos 4,84% 40,78%

Tabla 15. Intervalos de confianza producto de la clasificación del escenario de superpíxeles asociado a los rasgos de
textura.

4.3. Resultados De Clasificación Escenario De Superpíxeles Con Rasgos


Radiométricos Más Los Rasgos De Textura

En la Figura 75.a se muestra el resultado de la clasificación para los superpíxeles asociados


a los rasgos radiométricos y los rasgos de textura obtenidos con el procedimiento para espacio
de representación convencional. La Tabla 16 muestra la respectiva matriz de confusión
correspondiente al resultado de la clasificación.

77
(a) (b)

Figura 75. Resultados de clasificación para superpíxeles con rasgos radiométricos más rasgos de textura

impermeable

Vegetación
Superficie
Clase
Edificio

Carro
Árbol

Baja
Edificio 68,9 27,89 0,72 2,45 0,04
Superficie impermeable 9,37 83,44 2,12 4,73 0,35
Árbol 2,74 1,08 80,44 15,72 0,02
Vegetación Baja 18,15 17,17 28,32 35,86 0,5
Carro 26,56 55,05 2,42 2,87 13,1

Tabla 16. Matriz de confusión resultante de la clasificación de los superpíxeles a partir del espacio de representación
convencional superpíxeles asociados a los rasgos radiométricos más los rasgos de textura.

La parte b de la Figura 75 corresponde al resultado de la clasificación obtenida a partir de los


superpíxeles trazados por los complejos cartesianos asociados a los rasgos radiométricos más
los rasgos de textura; en la Tabla 17 expone la respectiva matriz de confusión.
impermeable

Vegetación
Superficie

Clase
Edificio

Carro
Árbol

Baja

Edificio 65,62 27,99 0,71 5,57 0,12


Superficie impermeable 7,26 86,91 2,27 3,44 0,12
Árbol 2,64 2,14 83,06 12,16 0
Vegetación Baja 19,52 18,88 33,01 28,17 0,43
Carro 25,78 60,07 2,02 2,3 9,84

Tabla 17. Matriz de confusión resultante de la clasificación de los superpíxeles obtenidos a partir del espacio complejo
cartesiano superpíxeles asociados a los rasgos radiométricos más los rasgos de textura.

78
A partir de la matriz de confusión se procede al calcular la exactitud obtenida para cada
clasificación y sus respectivos intervalos de confianza (ver Tabla 18 Tabla 19).

Exactitud
Superpíxel Rasgos Radiométricos más Rasgos de Textura - Convencional 72,88%
Superpíxel Rasgos Radiométricos más Rasgos de Textura - Complejos Cartesianos 73,58%

Tabla 18. Exactitud resultante del proceso de clasificación calculada a partir de la matriz de confusión de cada uno de
los espacios.

Mínimo Máximo
Superpíxel Rasgos Radiométricos más Rasgos de Textura - Convencional 29,77% 80,28%
Superpíxel Rasgos Radiométricos más Rasgos de Textura - Complejos Cartesianos 27,94% 78,73%

Tabla 19. Intervalos de confianza producto de la clasificación del escenario de superpíxeles asociados a los rasgos
radiométricos más los rasgos de textura.

79
5. DISCUSIÓN DE RESULTADOS

Esta sección presenta el análisis y discusión de resultados obtenidos con el presente. La


primera subsección tiene como propósito analizar los resultados obtenidos a partir del
experimento desarrollado en las secciones 3.2.3.2, 3.2.3.3, 3.2.3.4. En la segunda subsección,
se discuten los resultados obtenidos a la luz de los objetivos e hipótesis del proyecto.

5.1. Resultados De Los Experimentos

Al comparar los límites trazados por los superpíxeles obtenidos con el flujo de procesos de
los complejos celulares cartesianos versus los trazados con el flujo de procesos para el
espacio convencional, es posible notar que los trazados a partir de los complejos celulares
cartesianos no tiene un trazo fino definido sobre la escena procesada (efecto también
evidenciable en el borde de la imagen); este trazo brusco de límites se debe a la
implementación para la transformada de cuenca, en espacial al método implementado para
la supresión de borde grueso o meseta descrito en la sección 3.2.1.5. Sin embargo, es
interesante ver como a pesar del detrimento en la deformación de los bordes trazados en el
espacio de cuencas por el espacio de los complejos cartesianos, se mantiene el nivel de
precisión al momento de ser clasificada la escena tal y como se expone en las Tabla 10, Tabla
14 y Tabla 18.

Basados en la Figura 63a y Figura 68b y en los resultados expuestos en la Tabla 10, se puede
deducir que la cobertura entregada por los superpíxeles trazados con el procedimiento de los
complejos cartesianos es un poco más amplia que la calculada con el procedimiento para
espacios convencionales; esta mayor capacidad de cobertura sobre los objetos de la imagen
permite obtener un mejor resultado al momento de realizar la clasificación (ver Figura 73),
permitiendo que elementos no clasificados con el procedimiento del espacio convencional,
reciban clase en el procedimiento de los complejos celulares cartesianos, lo cual repercute en
un leve aumento de la precisión general de la escena clasificada.

Otro fenómeno observable en los resultados obtenidos en la construcción de la capa de


cuencas es el número de cuencas trazadas, en cuyo caso, para el espacio complejo celular
cartesiano tuvo un número total de 16618 y para el espacio de representación convencional
de 20134. De acuerdo a lo expuesto en la sección 3.2.1.6 el número total de cuencas es
equivalente al número de superpíxeles trazados, lo cual de manera directa reduce el tiempo
al momento de ejecutar el algoritmo clasificación, que, para los escenarios expuestos,
corresponde a SVM (para el escenario 3.2.3.2 se reporta 93.69 segundos para los superpíxeles
basados en el espacio convencional y 82,82 para los superpíxeles basados en el espacio
complejo cartesiano).

De acuerdo a los resultados de precisión obtenidos para los escenarios de clasificación del
numeral 3.2.3.2 y 3.2.3.4, el aumento de la precisión con la inclusión de la capa de textura
para cada escenario no es significativo desde el punto de vista porcentual, sin embargo, es

80
interesante como la inclusión de un nuevo rasgo de caracterización no deteriora la
clasificación de la escena, sino, que por el contrario la mejora levemente.

Los resultados obtenidos con el escenario de clasificación expuesto en el numeral 3.2.3.3 en


el cual solo se contempla la capa de textura, permite visualizar como la caracterización no
radiométrica de la escena permite a la máquina clasificadora tener un criterio para ejecutar el
proceso de asignación de clase, lo cual es consistente con el hecho que no se tiene una verdad
del terreno asociada a la textura de la escena, sin embargo, valorando el resultado de precisión
obtenido, se observa como el resultado para la capa creada a partir de los complejos
cartesianos es mayor a la obtenida por la capa creada a partir del espacio convencional.

Según lo expuesto por las matrices de confusión en cada uno de los escenarios de
clasificación (Tabla 8, Tabla 9, Tabla 12, Tabla 13, Tabla 16, Tabla 17) el resultado de
predicción para la clase “carro” fue menor para todos los casos de los superpíxeles trazados
con los complejos celulares cartesianos. Acorde a lo expuesto en el primer párrafo del
presente numeral, el detrimento de los límites de cuencas trazados por la implementación
realizada en el espacio de los complejos celulares cartesianos, afecta los elementos de la
escena con poca cobertura; sin embargo, para los elementos con mayor cobertura (como es
el caso de las superficies impermeables) los resultados son más prometedores, ya que el
número de elementos logran una mayor clasificación.

Referente a los resultados obtenidos al medir los intervalos de confianza para cada escenario
de clasificación (Tabla 11, Tabla 15, Tabla 19) se observa como cada intervalo se solapa con
su contraparte, lo cual impide concluir cuál de los procedimientos de clasificación es mejor.

5.2. Resultados Del Trabajo De Investigación

De acuerdo a lo establecido por el objetivo general del presente proyecto de investigación, el


cual establece la creación de un modelo de clasificación de imágenes multiespectrales que
incluya el componente topológico proporcionado por los complejos de células abstractas, el
modelo conceptual definido en la sección 3.2.1, da cumplimiento a través de los espacios
construidos sobre el espacio complejo cartesiano; nociones como el trazo de limites sin
problemas de ambigüedad son verificables en el espacio de cuencas que entrega como
producto final los superpíxeles requeridos para la fase de clasificación. Adicionalmente, se
evidencia cómo las paradojas de conexión que presenta la representación de imagen
convencional, el 4 – conectado y 8 – conectado, son superadas de acuerdo a lo propuesto por
Kovalevsky y cómo bajo el principio de vecindario que él define en su trabajo [6] se pueden
plantear vecindarios a procesos específicos, como el presentado en la sección 3.2.1.5, usado
en la extensión de cuenca.

Respecto a el objetivo específico: implementar un marco computacional para clasificación


de imagen multiespectral usando complejos de células abstractas, el componente de software
presentado en la sección 3.2.2 evidencia que se le dio alcance mediante el uso del paquete
cartesian complex core y la implementación de los paquetes de software monochromatic,
directionalFilter, clustering y watershed en los cuales se materializa cada uno de los espacios

81
definidos en el modelo conceptual y que constituyen el modelo de clasificación basado en
los complejos de células abstractas.

En cuanto al segundo objetivo específico en el cual se propone la comparación del


desempeño del modelo propuesto con los métodos tradicionales de clasificación de imagen,
la sección 3.2.3 evidencia el cumplimiento a través de los escenarios de clasificación
diseñados para un proceso de clasificación a partir de un espacio de representación
convencional de imagen, versus el proceso de clasificación basado en los complejos de
células abstractas, cada escenario compite en condiciones equivalentes, dando lugar como
única diferencia al espacio que subyace cada clasificación.

Con base en el modelo de clasificación presentado en la sección 3.2, la respuesta a la pregunta


de investigación es que las nociones topológicas se logran incluir para los elementos que
componen la muestra espacial sensada (espacio localmente finito) a través de la creación del
espacio de cuencas y el espacio de textura, en el cual subyacen las propiedades definidas para
los espacios 𝑇0 , obteniendo con el primero un espacio de superpíxeles con límites libres de
ambigüedad y con el segundo, ya que los rasgos lineales que se pretenden encontrar con el
proceso de filtrado previo se definen a partir del concepto de DSS descrito en la sección 2.1.3,
el resultado final queda asociado a las 1 – células disponible en el espacio complejo
cartesiano subyacente a diferencia de las máscaras aplicadas al espacio convencional, donde
el resultado es asignado al píxel pues en ellos no se dispone de elementos interpixel.

Respecto a la hipótesis: el proceso de clasificación de una imagen multiespectral se mejora


al representarla con base en complejos de células abstractas ya que estos últimos cumplen
con los axiomas de un espacio topológico 𝑇0 libre de ambigüedades en la definición de las
propiedades topológicas de frontera y conexión, tomando como base los resultados
presentados en la sección 4, se puede decir que:

 En cuanto al nivel de exactitud general obtenido en cada escenario de clasificación,


el resultado siempre fue superior para las clasificaciones realizadas a partir del
espacio de células abstractas, sin embargo, en niveles porcentuales, tal mejoría no
fue superior al 2%. Este resultado apoya la hipótesis.

 Al validar la hipótesis contra los resultados obtenidos al calcular los intervalos de


confianza presentados en las tablas Tabla 11, Tabla 15 y Tabla 19, el solapamiento
que presentan entre la clasificación realizada a partir de un espacio de representación
convencional y la clasificación realizada a partir del espacio de los complejos de
células abstractos impide rechazar o apoyar la hipótesis.

Los beneficios en el procesamiento y la garantía del modelo topológico expresados en los


párrafos anteriores y aunque los resultados de los experimentos demuestran que los
beneficios de la inclusión de un espacio basado en el complejo cartesiano de momento son
muy pequeñas, son evidencias de que vale la pena continuar con la investigación. Dado que
este estudio no demostró mejoría de la precisión temática cuando se utiliza el espacio
alternativo propuesto para la clasificación cobertura de la tierra, en un futuro próximo se
investigará si una implementación de un marco computacional basado en los complejos
cartesianos es capaz de lograr tal desafío.
82
Como parte del desarrollo del presente trabajo de investigación, se obtiene los siguientes
resultados adicionales:

 Propuesta de formalización para la asignación de etiqueta en la regla “EquNaLi” para


el caso de camino estrecho expuesto en la sección 3.2.1.1.

 Asignación de pesos para la construcción de una imagen a niveles de grises a partir


de una imagen multiespectral, basados en la matriz de varianza-covarianza expuesto
en la sección 3.2.1.2.

 Abstracción de la regla “EquNaLi”, aplicando patrones de diseño de software para


transformarla de método a clase.

 Implementación del algoritmo de transformada de cuenca [37] sobre el espacio de los


complejos cartesianos, con definición de vecindario sin de paradojas de conexión, y
libre de ambigüedad de límite.

83
6. CONCLUSIONES

Las conclusiones que se presentan en esta sección, se orientan desde dos perspectivas, la
primera, desde los resultados del experimento, y la segunda, desde el desarrollo y
construcción de la propuesta de investigación. A continuación del detalle de cada perspectiva.

6.1. Conclusiones De Los Experimentos

Incluir la capa de textura como un canal adicional al momento de realizar la clasificación de


la escena, repercute en una leve mejora del resultado de la precisión obtenida, tal y como se
expone en los resultados obtenidos en la sección 3.2.3.4.

El aumento de la precisión obtenida con la clasificación realizada a partir de los superpíxeles


trazados a partir de los complejos celulares cartesianos versus los superpíxeles obtenidos para
el espacio de representación convencional se encuentra asociado al tamaño de las cuencas
obtenidas en el primer espacio, cuya cobertura sobre los elementos de la escena es mayor que
la trazada por las cuencas obtenidas en el espacio de representación convencional. Sin
embargo, acorde a lo expuesto en cada escenario de clasificación, la ganancia obtenida en las
regiones de mayor cobertura, castiga a las regiones de poca cobertura, como es el escenario
de la clase “carro” en la imagen clasificada. Este efecto de baja precisión sobre los pequeños
elementos de la imagen se asocia a la baja precisión del método implementado para reducir
los bordes gruesos o planicies al momento de trazar los límites de cuenca acorde a lo expuesto
en la sección 3.2.1.5.

Para evaluar el aporte real de la capa de textura en la fase de clasificación de imagen, se hace
necesario tener una capa de verdad del terreno orientada a las texturas de los objetos
clasificados, con ello aumentar la precisión en la fase de entrenamientos del algoritmo y
clasificación

6.2. Conclusiones Del Trabajo De Investigación

Los procedimientos de procesamiento de imagen basados convencional basados en máscaras


de convolución asigna el resultado a los elementos bidimensionales, lo cual no es congruente
ya que el patrón encontrado obedece a una forma lineal, mientras que por el contrario el
desarrollar las máscaras sobre los elementos 1 – celulares permite que el resultado sea
asignado a un elemento 1 – dimensional.

Desarrollar procedimientos de detección de borde sobre elementos lineales (1 - células)


disponibles por los complejos cartesiano permite preservar las formas originales de los
objetos. Sin embargo, la precisión de los resultados estará ligada al óptimo desempeño de las
máscaras de filtraje aplicadas, ya que como se evidencia en los resultados obtenidos en la

84
sección 3.2.1.3, los filtros derivativos no contemplan variables como el espesor o ancho de
los bordes, causando detrimento en la precisión de los bordes trazados.

Las propiedades topológicas dispuestas para los espacios finitos por los complejos
cartesianos, pueden beneficiar a otras técnicas de procesamiento de imagen que se encuentre
definidas a partir de vecindarios de conexión que no presentan ambigüedades.

Debido a que el volumen de información para realizar el procesamiento de imagen en el


espacio de los complejos cartesianos es el doble del volumen original, diseñar algoritmos
eficientes con el manejo de la memoria virtual del sistema de cómputo, se vuelve
indispensable, ya que, de no tener este atributo de diseño en cuenta, se puede dar lugar a
volcados de memoria.

Diseñar algoritmos de procesamiento en paralelo permite optimizar el uso de los recursos


computacionales a los cuales se limita cualquier componente de software, reduciendo el
tiempo requerido en el procesamiento, que, para el caso particular, el orientado al
procesamiento de imagen, puede llegar a requerir de grandes capacidades debido al volumen
de información disponible en las imágenes satelitales. De otro lado, la construcción del marco
computacional descrito en la sección 3.2.2 al estar orientado a una arquitectura de
componentes, con módulos de procesamiento especializados para cada uno de los espacios
descritos en las secciones 3.2.1.1, 3.2.1.2, 3.2.1.3, 3.2.1.4 y 3.2.1.5, logra evitar el
acoplamiento entre los elementos, facilitando la construcción de cada módulo.

De manera general y de acuerdo a los resultados presentados en la sección 4, se puede decir


que realizar la clasificación de una imagen multiespectral a partir de un espacio localmente
finito definido de manera consistente con los espacios 𝑇0 permite mejorar el resultado gracias
a la inclusión de la información geométrica hecha al momento de crear el espacio de cuencas;
adicionalmente, incluir el espacio de textura como canal de clasificación, permite al
algoritmo clasificador tener un nuevo criterio de discernimiento, mejorando el resultado final
de clasificación.

Sin embargo, y aunque los resultados obtenidos son levemente mejores comparado contra
una clasificación basado en un espacio de representación convencional, el resultado de las
pruebas de confianza presentadas en la sección 4, no permiten concluir que sea mejor. Esto
se debe a que el resultado final puede estar siendo afectado a causa de la imprecisión al
momento de realizar el adelgazamiento de borde grueso en la construcción del espacio de
cuencas. Lograr construir un espacio de cuencas libre de bordes gruesos permitirá obtener
superpíxeles más exactos y fieles al límite del objeto que encierran, lo que repercutirá en un
aumento de la exactitud global de la clasificación.

85
7. TRABAJO FUTURO

Aunque los escenarios de clasificación expuestos en las secciones 3.2.3.2, 3.2.3.3 y 3.2.3.4
evidencia resultados más precisos para los superpíxeles obtenidos a partir de los complejos
cartesianos, dicha mejora no es altamente significativa (no más del 2%); sin embargo, dicho
resultado puede ser mejorado con correcciones sobre la actual implementación de
transformada de cuenca para los complejos cartesianos, buscando desarrollar un método que
permita la reducción de límite grueso o planicie sin causar mal formación de los nuevos
límites trazados. Una posible mejora se orienta a aplicar la reducción de borde grueso de
acuerdo a lo propuesto por [68].

Otro punto de mejora para reducir la sobre segmentación obtenida con la transformada de
cuenca se orienta a la implementación de una fase adicional, en la cual los límites de cuenca
se les asocie un valor de probabilidad de ser límite; esta fase que se encuentra implementada
en [75] determina para cada una de las bandas hiperespectrales un mapa de gradientes usando
la técnica de “Degradado Morfológico Robusto de Color” [75]; este algoritmo de
segmentación evalúa si hay o no evidencia de una frontera entre dos componentes midiendo
la disimilitud entre los elementos mediante una función de umbral para controlar el grado de
diferencia entre cada uno de los componentes a partir del gradiente de la imagen logrando así
resaltar los contornos de los objetos inmersos en la escena multiespectral

La calidad de precisión obtenida al incluir la capa de superpíxeles de textura puede ser


mejorada aplicando el flujo de procesos completo de creación de capa de textura expuesto en
[14], en donde se incluye un banco de filtros orientado con diferentes escalas, que en efectos
prácticos sobre la imagen, permite resaltar los contornos de las texturas a diferentes niveles
de espesor.

Se recomienda que, para estudios futuros, el modelo de clasificación desarrollado por el


presente trabajo, sea sometido a imágenes de diferente naturaleza (landsat, worldview, etc) y
con diferentes niveles de resolución, manteniendo como variable fija, la herramienta de
clasificación SVM, y con ello tener un experimento controlado que permita valorar
desempeño y precisión del modelo.

86
BIBLIOGRAFÍA
[1] Christer O. Kiselman, “Digital Jordan Curve Theorem,” 2000, pp. 46–56.
[2] E. Khalimsky, R. Kopperman, and P. R. Meyer, “Computer graphics and connected
topologies on finite ordered sets,” Topol. Its Appl., vol. 36, no. 1, pp. 1–17, Jul. 1990.
[3] V. Kovalevsky, “Axiomatic Digital Topology,” 2006.
[4] A. Rosenfeld, “Connectivity in Digital Pictures,” J. ACM, vol. 17, no. 1, pp. 146–160,
Jan. 1970.
[5] Ralph Kopperman and John L. Pfaltz, “Jordan Surfaces in Discrete Antimatroid
Topologies,” 2004, pp. 34–350.
[6] V. Kovalevsky, “Finite Topology As Applied To Image Analysis,” 1988.
[7] V. Kovalevsky, “Digital Geometry Based on the Topology of Abstract Cell
Complexes,” Proceedings of the Colloquium “Discrete Geometry for Computer
Imagery,” 1993.
[8] Robert Fisher, “CVonline: The Evolving, Distributed, Non-Proprietary, On-Line
Compendium of Computer Vision.” [Online]. Available:
http://homepages.inf.ed.ac.uk/rbf/CVonline/LOCAL_COPIES/MORSE/connectivity.p
df.
[9] Ullrich Kothe, “Generic Programming Techniques that Make Planar Cell Complex
Easy to Use,” 2001, pp. 17–37.
[10] Vladimir Kovalevsky, “Finite Topology As Applied To Image Analysis,” 7 de
Septiembre 1988.
[11] J. R. Munkres, Elements of Algebraic Topology. Perseus Books, 1984.
[12] A. Rosenfeld, “Connectivity in Digital Pictures,” J. ACM, vol. 17, no. 1, pp. 146–160,
Jan. 1970.
[13] F. García Arenas, “El Teorema de la Curva de Jordan,” Divulg. Matemáticas, vol. 6,
no. 1, pp. 43–60, 1998.
[14] Pablo Arbelaéz, Michael Maire, Charless Fowlkes, and Jitendra Malik, “Contour
Detection and Hierarchical Image Segmentation,” IEEE Trans. PATTERN Anal. Mach.
Intell., vol. 33, no. 5, p. 19.
[15] R. E. W. Rafael C. Gonzales, Digital Image Processing, Third Edition. Pearson
International Edition.
[16] Nelson Hernández, “Fundamentos de Procesamiento Digital de Imágenes,” Revista
Tecnología, vol. 3, no. 2, pp. 99–103.
[17] T. M. Lillesand, R. W. Kiefer, and J. W. Chipman, “Remote sensing and image
interpretation.,” no. Ed.5, p. xiv + 763 pp., 2004.
[18] J. R. J. Dale A. Quattrochi, “Remote Sensing in Geography in the New Millennium:
Prospects, Challenges, and Opportunities,” 1999.
[19] “Fundamentos físicos de la teledetección,” Fotointerpretación y Teledetección.
[Online]. Available: http://www.um.es/geograf/sig/teledet/.
[20] W. Long and S. Srihar, “Land cover classification of SSC image: unsupervised and
supervised classification using ERDAS imagine,” 2004, vol. 4, pp. 2707–2712.
[21] Gayatril Vijay Patil, Pranali Vivekanand More, Nanddinee Datatrey PAwar, “SVM
approach for color image classification using shape and texture,” 4, vol. 3, pp. 139–146.
[22] J. L. Chávez, Tratamiento Digital de Imágenes Multiespectrales. Lulu.com.

87
[23] Eliseo Martínez H, “Cluster: K-medias.” [Online]. Available:
http://www.uantof.cl/facultades/csbasicas/Matematicas/academicos/emartinez/magiste
r/cluster1.pdf.
[24] Yanina Gimenez, “Clasificación No Supervisada: El método de K-Medias.” [Online].
Available:
http://cms.dm.uba.ar/academico/carreras/licenciatura/tesis/2010/Gimenez_Yanina.pdf.
[25] Campo Elías Pardoa and , Pedro César Del Campob, “Combinación de métodos
factoriales y de análisis de conglomerados en R: el paquete FactoClass,” vol. 30, pp.
231–245.
[26] Brand Tso and Paul M. Mather, Classification Methods For Remotely Sensed Data,
Second. CRC Press, 2009.
[27] M. A. Aizerman, E. A. Braverman, and L. Rozonoer, “Theoretical foundations of the
potential function method in pattern recognition learning.,” in Automation and Remote
Control, 1964, pp. 821–837.
[28] B. E. Boser, I. M. Guyon, and V. N. Vapnik, “A Training Algorithm for Optimal Margin
Classifiers,” in Proceedings of the Fifth Annual Workshop on Computational Learning
Theory, New York, NY, USA, 1992, pp. 144–152.
[29] P. R. Halmos, A Hilbert Space Problem Book. Springer Science & Business Media,
1982.
[30] V. N. Vapnik, The Nature of Statistical Learning Theory. New York, NY: Springer New
York, 2000.
[31] V. Kovalevsky, “Algorithms in Digital Geometry Based on Cellular Topology,”
Springer-Verl. Berl. Heidelb., pp. 366–393, 2004.
[32] V. Kovalevsky, “Algorithms and Data Structures for Computer Topology,” Digit.
Image Geom., pp. 38–58, 2001.
[33] J. Valero, I. Lizarazo, and P. Elsner, “Topological challenges in multispectral image
segmentation,” Tecnura, vol. 18, 2014.
[34] J. Valero, “Development of an Alternative Method for Multispectral Image
Segmentation Based on Cartesian Complexes and Its Associated Oriented Matroids,”
Institucionalización del proyecto de Investigación, Universidad Distrital Francisco José
de Caldas, 2014.
[35] Serra, J., Image Analysis and Mathematical Morphology. New York: Academic Press,
1982.
[36] Jos B.T.M. Roerdink and Arnold Meijster, “The Watershed Transform: Denitions,
Algorithms and Parallelization Strategies,” Fundam. Informaticae, vol. 41, 2001.
[37] L. Vincent and P. Soille, “Watersheds in digital spaces: an efficient algorithm based on
immersion simulations,” IEEE Trans. Pattern Anal. Mach. Intell., vol. 13, no. 6, pp.
583–598, Jun. 1991.
[38] S. Peng and L. Gu, “A Novel Implementation of Watershed Transform Using Multi-
Degree Immersion Simulation,” in 2005 IEEE Engineering in Medicine and Biology
27th Annual Conference, 2005, pp. 1754–1757.
[39] Olivier Lézoray and Leo Grady, Image Processing And Analysis With Graphs. Taylor
& Francis Group.
[40] Christopher Mei, “Watershed Algorithm - Christopher Mei.” [Online]. Available:
http://rsb.info.nih.gov/ij/plugins/watershed.html. [Accessed: 15-May-2016].

88
[41] G. M. Foody, “Classification accuracy comparison: Hypothesis tests and the use of
confidence intervals in evaluations of difference, equivalence and non-inferiority,”
Remote Sens. Environ., vol. 113, no. 8, pp. 1658–1663, Aug. 2009.
[42] P.-N. Tan, M. Steinbach, and V. Kumar, Introduction to Data Mining, 1 edition. Boston:
Pearson, 2005.
[43] H. Al-Jubouri, H. Du, and H. Sellahewa, “Adaptive clustering based segmentation for
image classification,” 2013, pp. 128–133.
[44] Hossein Nezamabadi-pour and Saeid Saryazdi, “Object-Based Image Indexing and
Retrieval in DCT Domain using Clustering Techniques,” vol. 1, pp. 768–771.
[45] D. Chai and A. Bouzerdoum, “A Bayesian approach to skin color classification in
YCbCr color space,” 2000, vol. 2, pp. 421–424.
[46] L. Zhao and J. Tang, “Content-based image retrieval using optimal feature combination
and relevance feedback,” 2010, pp. V4-436-V4-442.
[47] J. Cousty, G. Bertrand, L. Najman, and M. Couprie, “Watershed Cuts: Minimum
Spanning Forests and the Drop of Water Principle,” IEEE Trans. Pattern Anal. Mach.
Intell., vol. 31, no. 8, pp. 1362–1374, Aug. 2009.
[48] T. Leung and J. Malik, “Detecting, localizing and grouping repeated scene elements
from an image,” in Computer Vision — ECCV ’96, B. Buxton and R. Cipolla, Eds.
Springer Berlin Heidelberg, 1996, pp. 546–555.
[49] E. Dominguez, A. R. Frances, and A. Marquez, “A framework for digital topology,”
1993, pp. 65–70.
[50] G. Sai Sundara Krishnan and N. Vijaya, “Algorithm on tracing the boundary of medical
images using abstract cellular complex,” 2012, pp. 141–144.
[51] R. E. W. Rafael C. Gonzales, Digital Image Processing, Third Edition. Pearson
International Edition.
[52] T. Pavlidis, “Structural Pattern Recognition: Primitives and Juxtaposition Relations,”
in Frontiers of Pattern Recognition, S. Watanabe, Ed. Academic Press, 1972, pp. 421–
451.
[53] C. Escribano, A. Giraldo, M. A. Sastre, and M. Trotta, “Digital topology java applet,”
2008, p. 329.
[54] U. Eckhardt and L. J. Latecki, “Topologies for the digital spaces Z2 and Z3,” Comput.
Vis. Image Underst., vol. 90, no. 3, pp. 295–312, Jun. 2003.
[55] J. Lamy, “Integrating digital topology in image-processing libraries,” Comput. Methods
Programs Biomed., vol. 85, no. 1, pp. 51–58, Jan. 2007.
[56] R. K. Valentin E. Brimkov, “Curves, Hypersurfaces, and Good Pairs of Adjacency
Relations,” in Combinatorial Image Analysis, pp. 276–290.
[57] A. D. M. J.C. Ciria E.Domınguez, A. R.Frances, and A.Quintero, “A Maximum Set of
(26, 6)-Connected Digital Surfaces,” in Combinatorial Image Analysis, pp. 291–306.
[58] J. Valero, I. Lizarazo, and P. Arbelaez, “Multispectral Image Segmentation Based On
Cartesian Complexes And Their Associated Oriented Matroids,” 2016.
[59] International Society for Photogrammetry and, “2D Semantic Labeling Contest,” 2017.
.
[60] J. Valero, “Development of an Alternative Method for Multispectral Image
Segmentation Based on Cartesian Complexes and Its Associated Oriented Matroids,”
Documento candidatura a doctor, Universidad Distrital Francisco José de Caldas, 2015.
[61] R. Szeliski, Computer Vision. London: Springer London, 2011.

89
[62] Orlando Riaño Melo, Álgebra lineal en el procesamiento digital de imágenes.
Universidad Distrital Francisco José de Caldas, 2010.
[63] Jorge Lira Chávez, Tratamiento Digital de Imágenes Multiespectrales, Segunda, 2010.
.
[64] P.-E. Danielsson, “Euclidean distance mapping,” Comput. Graph. Image Process., vol.
14, no. 3, pp. 227–248, Nov. 1980.
[65] T. Naqash and I. Shafi, “Edge sharpening in grayscale images using modified Sobel
technique,” in Multitopic Conference (INMIC), 2011 IEEE 14th International, 2011,
pp. 132–136.
[66] Y. Dou, K. Hao, and Y. Ding, “A short step affine transformation Sobel algorithm based
image edge detection in low illumination,” in Chinese Automation Congress (CAC),
2015, 2015, pp. 594–597.
[67] C. Deng, W. Ma, and Y. Yin, “An edge detection approach of image fusion based on
improved Sobel operator,” in 2011 4th International Congress on Image and Signal
Processing (CISP), 2011, vol. 3, pp. 1189–1193.
[68] J. Nikodem, “Plateau problem in the watershed transform,” Comput. Inform., vol. 28,
no. 2, pp. 195–207, 2012.
[69] M. M. Hossain and M. S. Miah, “Evaluation of different SVM kernels for predicting
customer churn,” in 2015 18th International Conference on Computer and Information
Technology (ICCIT), 2015, pp. 1–4.
[70] T. Fawcett, “An Introduction to ROC Analysis,” Pattern Recogn Lett, vol. 27, no. 8, pp.
861–874, Jun. 2006.
[71] E. Gamma, R. Helm, R. Johnson, and J. Vlissides, Design Patterns: Elements of
Reusable Object-Oriented Software (Adobe Reader). Pearson Education, 1994.
[72] C. Mythili and V. Kavitha, “Efficient technique for color image noise reduction,” Res.
Bull. Jordan ACM, vol. 1, no. 11, pp. 41–44, 2011.
[73] J. E. R. C. Jaime Alberto Echeverri Arias, “Eliminación de ruido impulsivo en imágenes
a color, utilizando interpolación con funciones de base radial,” Ingeniería, vol. 16, pp.
27–35.
[74] P.-N. Tan, M. Steinbach, and V. Kumar, Introduction to Data Mining. Addison-Wesley,
2013.
[75] A. N. Evans and X. U. Liu, “A morphological gradient approach to color edge
detection,” IEEE Trans. Image Process., vol. 15, no. 6, pp. 1454–1463, Jun. 2006.

90
ANEXOS

Diagramas De Clase

A continuación, se presentan los diagramas de clases que soportan el marco computacional


del presente proyecto, sin embargo, el detalle y explicación de cada una de las clases y
métodos, se encuentran en el JavaDoc, que se adjunta en los recursos digitales del presente
tomo.

 Cartesian Complex Cor

Es el paquete principal que soporta cada uno de los módulos del marco computacional.
Contiene la clase principal y corazón del proyecto CartesianComplex, que representa el
espacio finito de un complejo cartesiano bidimensional, en donde cada elemento del espacio
es una célula (ver Figura 76).

 Cartesian Complex Structure

Es el paquete que contiene las clases que definen las estructuras celulares que componen un
espacio complejo cartesiano (ver Figura 77).

 Monochromatic

Es el paquete que contiene la clase que representa a un espacio complejo cartesiano de niveles
de gris, MonochromaticCartesianComplex, así como las clases auxiliares requeridas en la
ejemplificación de un espacio de niveles de gris (ver Figura 78).

 Directionalfilter

Es el paquete que contiene la clase que representa a un espacio complejo cartesiano filtrado,
TexonsCartesianComplex, así como las clases auxiliares requeridas en la ejemplificación de
un espacio filtrado (ver Figura 79).

 Clustering

Es el paquete que contiene la clase que representa a un espacio complejo cartesiano de


textura, TextureCartesianComplex, así como las clases auxiliares requeridas en la
ejemplificación de un espacio de textura (ver Figura 80).

 Watershed

Es el paquete que contiene la clase que representa a un espacio complejo cartesiano de


cuencas, WatershedCartesianComplex, así como las clases auxiliares requeridas en la
ejemplificación de un espacio de cuencas (ver Figura 81).

91
Figura 76. Diagrama de clases paquete cartesianComplexCore.

92
Figura 77. Diagrama de clases paquete structure.

93
Figura 78, Diagrama de clases paquete monochromatic.

94
Figura 79. Diagrama de clases paquete directionalFilter.

95
Figura 80. Diagrama de clases paquete clustering.

96
Figura 81. Diagrama de clases paquete watershed.

97
Galería De Imágenes

A continuación, se presentan algunas de las imágenes obtenidas el proceso de generación de


las capas de textura y cuencas para un espacio de representación convencional, requerido en
los escenarios de evaluación del modelo.

Figura 82. Espacio convencional filtrado. En la imagen se puede observar como los bordes de los objetos en la escena se
resaltan.

Figura 83. Resultado gradiente de imagen para el espacio de representación convencional.

98

También podría gustarte