Documentos de Académico
Documentos de Profesional
Documentos de Cultura
1
AGRADECIMIENTOS
2
CONTENIDO
1. OBJETIVOS DEL ESTUDIO ........................................................................................ 8
1.1. Introducción ............................................................................................................. 8
1.2. Planteamiento Del Problema De Investigación ....................................................... 9
1.3. Objetivos .................................................................................................................. 9
1.3.1. Objetivo General............................................................................................... 9
1.3.2. Objetivos Específicos ....................................................................................... 9
1.4. Pregunta De Investigación E Hipótesis ................................................................. 10
1.4.1. Pregunta .......................................................................................................... 10
1.4.2. Hipótesis ......................................................................................................... 10
1.5. Delimitación Del Alcance ...................................................................................... 10
1.6. Justificación ........................................................................................................... 10
2. MARCO DE REFERENCIA ....................................................................................... 11
2.1. Marco Teórico ........................................................................................................ 11
2.1.1. Clasificación De Imagen Multiespectral ........................................................ 11
2.1.2. Complejos De Células Abstractas .................................................................. 17
2.1.3. Segmentos De Recta Digital (DSS) ................................................................ 21
2.1.4. Transformada De Cuenca ............................................................................... 23
2.1.5. Evaluación De Clasificación .......................................................................... 27
2.2. Estado Del Arte ...................................................................................................... 28
3. DATOS Y MÉTODOS ................................................................................................. 32
3.1. Datos ...................................................................................................................... 32
3.2. Método ................................................................................................................... 33
3.2.1. Desarrollo Del Modelo ................................................................................... 34
3.2.1.1. Espacio Complejo Cartesiano ................................................................. 35
3.2.1.2. Espacio De Niveles De Gris .................................................................... 42
3.2.1.3. Espacio Filtrado....................................................................................... 43
3.2.1.4. Espacio De Textura ................................................................................. 45
3.2.1.5. Espacio De Cuencas ................................................................................ 48
3.2.1.6. Espacio De Clasificación Complejo Cartesiano...................................... 50
3.2.2. Marco Computacional .................................................................................... 52
3.2.2.1. Paquete Cartesian Complex Core............................................................ 54
3.2.2.2. Paquete Monochromatic .......................................................................... 56
3.2.2.3. Paquete Directionalfilter ......................................................................... 57
3
3.2.2.4. Paquete Clustering................................................................................... 59
3.2.2.5. Paquete Watershed .................................................................................. 62
3.2.2.6. Paquete Clasificador ................................................................................ 66
3.2.3. Evaluación Del Modelo De Clasificación ...................................................... 67
3.2.3.1. Construcción Capas De Textura Y Cuencas Para Espacio De
Representación Convencional (Píxel) ...................................................................... 68
3.2.3.2. Clasificación De Superpíxeles Con Rasgos Radiométricos .................... 71
3.2.3.3. Clasificación Superpíxeles Con Rasgos De Textura ............................... 72
3.2.3.4. Clasificación De Superpíxeles Con Rasgos Radiométricos Mas Rasgos
De Textura ................................................................................................................ 73
4. PRESENTACIÓN DE RESULTADOS ....................................................................... 74
4.1. Resultados De Clasificación Escenario De Superpíxeles Con Rasgos
Radiométricos ................................................................................................................ 74
4.2. Resultados De Clasificación Escenario De Su perpíxeles Con Rasgo
De Textura ...................................................................................................................... 76
4.3. Resultados De Clasificación Escenario De Superpíxeles Con Rasgos
Radiométricos Más Los Rasgos De Textura ........................................................... 77
5. DISCUSIÓN DE RESULTADOS................................................................................ 80
5.1. Resultados De Los Experimentos .......................................................................... 80
5.2. Resultados Del Trabajo De Investigación.............................................................. 81
6. CONCLUSIONES ........................................................................................................ 84
6.1. Conclusiones De Los Experimentos ...................................................................... 84
6.2. Conclusiones Del Trabajo De Investigación.......................................................... 84
7. TRABAJO FUTURO ................................................................................................... 86
BIBLIOGRAFÍA .................................................................................................................. 87
ANEXOS .............................................................................................................................. 91
Diagramas De Clase ......................................................................................................... 91
Cartesian Complex Cor ...................................................................................... 91
Cartesian Complex Structure ............................................................................. 91
Monochromatic .................................................................................................. 91
Directionalfilter .................................................................................................. 91
Clustering ........................................................................................................... 91
Watershed ........................................................................................................... 91
Galería De Imágenes ........................................................................................................ 98
4
Índice de Figuras
5
FIGURA 47. FLUJOGRAMA IMPLEMENTADO EN EL PAQUETE MONOCHROMATIC PARA CONSTRUCCIÓN DE UN ESPACIO COMPLEJO
CARTESIANO DE NIVELES DE GRISES. ................................................................................................................. 56
FIGURA 48. PARALELIZACIÓN DEL PROCESO DE CONVERSIÓN DE ESPACIO MULTIESPECTRAL A ESPACIO MONOCROMÁTICO. ......... 57
FIGURA 49. ESPACIO DE NIVELES DE GRIS. .................................................................................................................. 57
FIGURA 50. CONSTRUCCIÓN ESPACIO COMPLEJO CARTESIANO FILTRADO. ......................................................................... 58
FIGURA 51. ESPACIO COMPLEJO CARTESIANO DE NIVELES DE GRISES CON SUPRESIÓN DE RUIDO. ........................................... 58
FIGURA 52. CAPAS RESULTANTES DEL ESPACIO FILTRADO............................................................................................... 59
FIGURA 53. FLUJOGRAMA CONSTRUCCIÓN ESPACIO DE TEXTURA. ................................................................................... 60
FIGURA 54. DISTRIBUCIÓN DE CÉLULAS ALGORITMO DEL ENCARGADO DE OBTENER EL VECTOR DE VALORES MÁXIMOS Y EL VECTOR
DE VALORES MÍNIMOS. .................................................................................................................................. 60
FIGURA 55. DISTRIBUCIÓN DE CÉLULAS Y FASES DE EJECUCIÓN PARA UNA ITERACIÓN DEL ALGORITMO DE K-MEDIAS IMPLEMENTADO
EN EL PAQUETE CLUSTERING. .......................................................................................................................... 61
FIGURA 56. ESPACIO DE TEXTURA. ........................................................................................................................... 61
FIGURA 57. FLUJOGRAMA PAQUETE “WATERSHED” QUE IMPLEMENTA LA CONSTRUCCIÓN DE UN ESPACIO DE CUENCAS. ........... 62
FIGURA 58. EJECUCIÓN MÁSCARA DE SOBEL SOBRE EL ESPACIO COMPLEJO CARTESIANO DE NIVELES DE GRISES CON SUPRESIÓN DE
RUIDO. ....................................................................................................................................................... 62
FIGURA 59. RESULTADO ESPACIO DE CUENCAS, FASE FILTRO DE SOBEL Y GRADIENTE DE SOBEL............................................. 63
FIGURA 60. RESULTADO DE LA EJECUCIÓN DEL MARCO DE EVALUACIÓN DE FIABILIDAD DE LÍMITE. ......................................... 64
FIGURA 61. FASES DEL ALGORITMO DE CONSTRUCCIÓN DE CUENCAS. .............................................................................. 64
FIGURA 62. TRANSFORMACIÓN DE ESPACIO BIDIMENSIONAL A ESPACIO UNIDIMENSIONAL. .................................................. 65
FIGURA 63. ESPACIO DE CUENCAS CON 16618 CUENCAS TRAZADAS................................................................................ 65
FIGURA 64. FASES QUE COMPONEN EL PAQUETE DE CLASIFICACIÓN IMPLEMENTADO EN LA HERRAMIENTA COMPUTACIONAL
MATLAB®................................................................................................................................................... 66
FIGURA 65. TRANSFORMACIÓN DE ESPACIO BIDIMENSIONAL A ESPACIO UNIDIMENSIONAL PARA LA EJECUCIÓN DE LA FASE DE
CLASIFICACIÓN. ............................................................................................................................................ 66
FIGURA 66. TRANSFORMACIÓN ESPACIO UNIDIMENSIONAL CLASIFICADO A ESPACIO BIDIMENSIONAL ORIGINAL. ....................... 67
FIGURA 67. MÁSCARAS DE FILTRAJE DIRECCIONAL APLICADA AL ESPACIO DE REPRESENTACIÓN CONVENCIONAL PARA OBTENER EL
ESPACIO FILTRADO REQUERIDO EN LA CONSTRUCCIÓN DE LA CAPA DE TEXTURA. ........................................................ 69
FIGURA 68. RESULTADO CONSTRUCCIÓN CAPAS DE TEXTURA Y CUENCA PARA EL ESPACIO CONVENCIONAL............................... 70
FIGURA 69. EJEMPLO DE ASIGNACIÓN DE ETIQUETA A LOS PÍXELES PERTENECIENTES AL LÍMITE DE CUENCA. ............................. 70
FIGURA 70. FLUJO DE PROCESOS DE CLASIFICACIÓN DE IMAGEN BASADO EN LOS SUPERPÍXELES ASOCIADOS A LOS RASGOS
RADIOMÉTRICOS, USANDO COMO CLASIFICADOR MÁQUINAS DE SOPORTE VECTORIAL (SVM). ..................................... 71
FIGURA 71. FLUJO DE PROCESOS DE CLASIFICACIÓN DE IMAGEN BASADO EN LOS SUPERPÍXELES ASOCIADOS A LOS RASGOS DE
TEXTURA USANDO COMO CLASIFICADOR MÁQUINAS DE SOPORTE VECTORIAL (SVM). ................................................ 72
FIGURA 72. ESCENARIO DE CLASIFICACIÓN COMPLETO; SUPERPÍXELES CON RASGOS RADIOMÉTRICOS MÁS RASGOS DE TEXTURA. . 73
FIGURA 73. RESULTADOS DE CLASIFICACIÓN PARA EL ESCENARIO DE SUPERPÍXELES ASOCIADOS A LOS RASGOS RADIOMÉTRICOS. .. 74
FIGURA 74. RESULTADOS DE CLASIFICACIÓN PARA EL ESCENARIO DE SUPERPÍXELES ASOCIADOS A LOS RASGOS DE TEXTURA. ........ 76
FIGURA 75. RESULTADOS DE CLASIFICACIÓN PARA SUPERPÍXELES CON RASGOS RADIOMÉTRICOS MÁS RASGOS DE TEXTURA ........ 78
FIGURA 76. DIAGRAMA DE CLASES PAQUETE CARTESIANCOMPLEXCORE. .......................................................................... 92
FIGURA 77. DIAGRAMA DE CLASES PAQUETE STRUCTURE............................................................................................... 93
FIGURA 78, DIAGRAMA DE CLASES PAQUETE MONOCHROMATIC. .................................................................................... 94
FIGURA 79. DIAGRAMA DE CLASES PAQUETE DIRECTIONALFILTER. ................................................................................... 95
FIGURA 80. DIAGRAMA DE CLASES PAQUETE CLUSTERING.............................................................................................. 96
FIGURA 81. DIAGRAMA DE CLASES PAQUETE WATERSHED. ............................................................................................ 97
FIGURA 82. ESPACIO CONVENCIONAL FILTRADO. EN LA IMAGEN SE PUEDE OBSERVAR COMO LOS BORDES DE LOS OBJETOS EN LA
ESCENA SE RESALTAN. ................................................................................................................................... 98
FIGURA 83. RESULTADO GRADIENTE DE IMAGEN PARA EL ESPACIO DE REPRESENTACIÓN CONVENCIONAL. ............................... 98
Índice de Tablas
6
TABLA 1. TÉCNICAS DE EXTRACCIÓN DE VECTORES CARACTERÍSTICOS EN FUNCIÓN DEL COLOR Y LA TEXTURA DE LA IMAGEN ........ 29
TABLA 2. CLASES Y COLOR ASIGNADO EN LA CAPA DE VERDAD DE TERRENO. ...................................................................... 32
TABLA 3.TABLA LÓGICA COMBINATORIAL DE ARCOS POR CUADRANTE. ............................................................................. 39
TABLA 4. TABLA LÓGICA COMBINATORIAL REGIONES.................................................................................................... 40
TABLA 5. CÉLULA GANADORA POR CUADRANTE ADYACENTE. .......................................................................................... 41
TABLA 6. RESULTADOS DE VALIDACIÓN CRUZADA DE DIFERENTES MODELOS SVM KERNEL ..................................................... 52
TABLA 7. PONDERACIÓN PARA SELECCIÓN DE KERNEL. .................................................................................................. 52
TABLA 8. MATRIZ DE CONFUSIÓN RESULTANTE DE LA CLASIFICACIÓN DE LOS SUPERPÍXELES OBTENIDOS A PARTIR DEL ESPACIO DE
REPRESENTACIÓN CONVENCIONAL ASOCIADOS A LOS RASGOS DE RADIOMÉTRICOS. .................................................... 75
TABLA 9. MATRIZ DE CONFUSIÓN RESULTANTE DE LA CLASIFICACIÓN DE LOS SUPERPÍXELES OBTENIDOS A PARTIR DEL ESPACIO
COMPLEJO CARTESIANO ASOCIADOS A LOS RASGOS DE RADIOMÉTRICOS. ................................................................. 75
TABLA 10. EXACTITUD RESULTANTE DEL PROCESO DE CLASIFICACIÓN, CALCULADA A PARTIR DE LA MATRIZ DE CONFUSIÓN DE CADA
UNO DE LOS ESPACIOS (SC Y SCCC). ................................................................................................................ 75
TABLA 11. INTERVALOS DE CONFIANZA PRODUCTO DE LA CLASIFICACIÓN DEL ESCENARIO DE SUPERPÍXELES ASOCIADOS A LOS
RASGOS RADIOMÉTRICOS. .............................................................................................................................. 75
TABLA 12. MATRIZ DE CONFUSIÓN RESULTANTE DE LA CLASIFICACIÓN DE LOS SUPERPÍXELES OBTENIDOS A PARTIR DEL ESPACIO DE
REPRESENTACIÓN CONVENCIONAL ASOCIADOS A LOS RASGOS DE TEXTURA. .............................................................. 76
TABLA 13. MATRIZ DE CONFUSIÓN RESULTANTE DE LA CLASIFICACIÓN DE LOS SUPERPÍXELES OBTENIDOS A PARTIR DEL ESPACIO
COMPLEJO CARTESIANO ASOCIADOS A LOS RASGOS DE TEXTURA............................................................................. 77
TABLA 14. EXACTITUD RESULTANTE DEL PROCESO DE CLASIFICACIÓN, CALCULADA A PARTIR DE LA MATRIZ DE CONFUSIÓN DE CADA
UNO DE LOS ESPACIOS. .................................................................................................................................. 77
TABLA 15. INTERVALOS DE CONFIANZA PRODUCTO DE LA CLASIFICACIÓN DEL ESCENARIO DE SUPERPÍXELES ASOCIADO A LOS RASGOS
DE TEXTURA. ............................................................................................................................................... 77
TABLA 16. MATRIZ DE CONFUSIÓN RESULTANTE DE LA CLASIFICACIÓN DE LOS SUPERPÍXELES A PARTIR DEL ESPACIO DE
REPRESENTACIÓN CONVENCIONAL SUPERPÍXELES ASOCIADOS A LOS RASGOS RADIOMÉTRICOS MÁS LOS RASGOS DE TEXTURA.
................................................................................................................................................................ 78
TABLA 17. MATRIZ DE CONFUSIÓN RESULTANTE DE LA CLASIFICACIÓN DE LOS SUPERPÍXELES OBTENIDOS A PARTIR DEL ESPACIO
COMPLEJO CARTESIANO SUPERPÍXELES ASOCIADOS A LOS RASGOS RADIOMÉTRICOS MÁS LOS RASGOS DE TEXTURA. .......... 78
TABLA 18. EXACTITUD RESULTANTE DEL PROCESO DE CLASIFICACIÓN CALCULADA A PARTIR DE LA MATRIZ DE CONFUSIÓN DE CADA
UNO DE LOS ESPACIOS. .................................................................................................................................. 79
TABLA 19. INTERVALOS DE CONFIANZA PRODUCTO DE LA CLASIFICACIÓN DEL ESCENARIO DE SUPERPÍXELES ASOCIADOS A LOS
RASGOS RADIOMÉTRICOS MÁS LOS RASGOS DE TEXTURA. ..................................................................................... 79
7
1. OBJETIVOS DEL ESTUDIO
1.1. Introducción
La definición de un espacio topológico finito que cumpla con los axiomas propuestos por la
topología ha sido de especial interés desde finales de la década de los 80 para los científicos
de las ciencias de la computación. Dicho espacio busca poder definir y detallar las
características propias del terreno real, entre ellas las más relevantes, los límites de un objeto,
sus curvas características y la conectividad entre ellos. Estas características son de vital
importancia a la hora de definir donde comienza y donde termina un objeto (esto en un
posible procesamiento y análisis de la imagen). Varios autores han tratado de resolver los
problemas planteados por la topología discreta, entre ellos Kiselman [1] quien realiza una
demostración de la propuesta realizada por Khalimsky [2] en la cual se propone un espacio
conectado ordenado topológico, (COTS por su siglas en inglés “Connected Ordered
Topological Space”), este espacio representado en un complejo cartesiano es similar al
propuesto por Kovalevsky, pero marcado por la ausencia de dimensión en la representación
de cada uno de los elementos del conjunto y su relación directa de este concepto en la
definición de adyacencia [3]. La ausencia de dimensión en la representación de los elementos
que componen el espacio localmente finito no permite la definición de vecindarios entre
elementos de diferentes dimensiones [3].
Otros autores han planteado una posible solución al problema de conectividad entre los
Píxeles que componen la imagen desde la teoría de los grafos. Un ejemplo de ello es la
propuesta de Rosenfeld [4] el cual, sin embargo, no resuelve el problema a partir de la
definición de vecindarios y sus posibles 4 - conectado y 8 - conectado, debido a las paradojas
que conlleva la definición de vecindarios a partir de ellos, lo cual no permite definir de
manera consistente un espacio en el cual exista una topología finita.
Autores posteriores encontraron que la solución propuesta por la teoría de grafos con base en
los vecindarios 4 - y 8 - conectados no permitían la definición de espacios conectados y no
conectados de manera precisa (como sí ocurre en la topología de los espacios continuos) [5]
entre ellos Vladimir Kovalevsky [3][6][7], quien es sus escritos muestra cómo los grafos de
vecindad en su solución se ven inmersos en un problema de conectividad entre sus elementos
llamado paradojas de conectividad [8][9]. Para dar solución a ello [6] propone el desarrollo
de un espacio topológico finito compuesto por complejos de células abstractas [10]. El
término de complejo de células abstractas es aplicado al campo de la topología para describir
la estructura de las imágenes y permitir en su definición el uso de la geometría computacional
[9].
8
Mediante la investigación realizada, como parte del proyecto de investigación doctoral
titulado “Development of an alternative method for multispectral image segmentation based
on cartesian complexes and their associated oriented matroids” desarrollado por el profesor
José Antonio Valero Medina, se logra desarrollar un modelo de clasificación de imagen con
base en su representación como un complejo de células abstractas el cual permite definir las
nociones de adyacencia, conectividad y frontera, y tener como resultado un espacio
topológico finito, libre de paradojas y consistente con la definición de un espacio topológico
con la propiedad de separación 𝑇0 [11].
1.3. Objetivos
9
1.4. Pregunta De Investigación E Hipótesis
1.4.1. Pregunta
¿De qué manera las nociones definidas por la topología (adyacencia, vecindad y frontera)
para cada uno de los elementos que componen la muestra espacial sensada pueden ser
incluidas para mejorar el proceso de clasificación de imagen?
1.4.2. Hipótesis
1.6. Justificación
10
2. MARCO DE REFERENCIA
En esta sección se abordan los elementos conceptuales que componen el sustento teórico del
modelo de clasificación desarrollado en el presente documento (sección 3.2.1), al igual que
los estudios que se usaron como referente en diseño y construcción del modelo.
11
Finalizada la fase de digitalización, inicia el procesamiento digital de la información, dentro
de la cual la técnica de clasificación de imagen es muy común. La clasificación de imagen
hace referencia al proceso de estereotipar la información de una imagen que se encuentra en
el dominio espectral en grupos llamados clases, esto es, etiquetar cada uno de los píxeles en
función de su respuesta espectral en una clase de información [20]. El proceso de
clasificación es el encargado de analizar las propiedades numéricas de los datos y los
organiza cada uno de ellos en categorías [21]. Para la ejecución de la clasificación espectral,
se parte del supuesto que diferentes objetos tienen diferente respuesta espectral, y lo que se
define como clase, es el patrón característico de respuesta espectral; este patrón característico
recibe el nombre de firma espectral. La suposición anterior permite generar una segmentación
de la imagen donde cada región representa una clase espectral formada por objetos de
propiedades espectrales similares. La clasificación espectral puede ser realizada de manera
puntual, es decir, clasificar un píxel en función únicamente de su respuesta espectral; o bien
de manera contextual, donde un píxel se clasifica de acuerdo con el contexto espectral en el
que se encuentra. También es posible realizar la clasificación bajo un esquema booleano en
donde un píxel se representa por una clase, o aplicando el concepto de lógica difusa, con
funciones de membresía que determinan la probabilidad de pertenencia a una o varias clases.
Un clasificador es entonces, el procedimiento bajo el cual un píxel es asignado a una clase
dentro de un conjunto de clases predefinidas. La Figura 1 muestra los procedimientos,
métodos y lógicas definidos en el proceso de clasificación [22]:
K-Medias es uno de los algoritmos de aprendizaje no supervisado más simple para resolver
el problema de agrupamiento. Este algoritmo está destinado a situaciones en las cuales todas
las variables son de tipos cuantitativos [24]. Este algoritmo requiere para su solución, la
12
especificación del número de clases a obtener y el mínimo de puntos iniciales para la creación
de cada una de ellas [25].
13
Figura 2. Ubicación de Hiperplano con máximo margen de separación
[26].
Las SVM se presentan en dos casos, un escenario en donde las clases son linealmente
separables y otro, el caso contrario [26]. Supóngase que existen dos clases linealmente
separables, el conjunto de datos está representado por los pares {𝑥𝑖 , 𝑦𝑖 }, 𝑖 = 1, … , 𝑛, 𝑦𝑖 ∈
{1, −1}, 𝑥𝑖 ∈ 𝑅 𝑑 , donde 𝑥𝑖 son las observaciones multiespectrales, 𝑦𝑖 la etiqueta de la clase
para el 𝑖 caso. La etiqueta puede ser −1 o 1 que representa la clase 1y la clase 2. El objetivo
principal del clasificador de vectores de soporte es la construcción de un hiperplano óptimo
que separa las dos clases de tal manera que la distancia (margen) desde el hiperplano a los
datos de entrenamiento más cercano, sea lo más grande posible. El hiperplano puede ser
representado por la función de decisión [26] presentado en la ecuación 1:
𝑤𝑇𝑥 + 𝑏 = 0 ( 1 )
14
Cada conjunto de puntos de entrenamiento más cercanos al origen, son referidos como los
vectores de soporte [26].
1 ( 3 )
𝑏= − 𝑤 × (𝑥𝑟 + 𝑥𝑠 )
2
𝑛𝑠𝑣
( 4 )
𝑓(𝑥) = 𝑠𝑖𝑔𝑛 (∑ 𝛼𝑖 𝑦𝑖 (𝑥 × 𝑥𝑖 ) + 𝑏)
𝑖=1
Para el escenario cuyo hiperplano de separación no se logra definir de manera lineal, la SVM
mapea los datos a un espacio multidimensional con el fin de mejorar la separabilidad entre
las clases [26], para lo cual implementa la estrategia presentada por [27], aplicando el
principio para superficies no lineales [28], obteniendo el vector de características 𝑥𝑖 ∈ 𝑅 𝑑
que mapea los elementos a un espacio euclidiano de dimensión superior, o espacio de Hilbert
[29].
El coste computacional de (Φ(𝑥) × Φ(𝑥𝑖 )) puede llegar a ser bastante alto para un espacio
bidimensional, razón por la cual Vapnik [30] definiendo una función de núcleo (kernel)
denotada como 𝐾(𝑥, 𝑦), tal que 𝐾(𝑥, 𝑦) = Φ(𝑥) × Φ(𝑦), donde 𝑥 = (𝑥1 , 𝑥2 ) y 𝑦 = (𝑦1 , 𝑦2 ).
Acorde a lo anterior, se tiene que [26]:
𝐾(𝑥, 𝑦) = (𝑥1 𝑦1 + 𝑥2 𝑦2 )2
= 𝑥1 2 𝑦1 2 + 2𝑥1 𝑦1 𝑥2 𝑦2 + 𝑥2 2 𝑦2 2 ( 6 )
= (𝑥1 2 , 𝑥2 2 √2𝑥1 𝑥2 ) × (𝑦1 2 , 𝑦2 2 √2𝑦1 𝑦2 )
= Φ(𝑥) × Φ(𝑦)
15
Figura 4. Mapeo de muestras a un espacio de dimensión superior para lograr la mayor separabilidad entre las clases
[26].
Polinómico homogéneo
𝐾(𝑥𝑖 , 𝑥𝑗 ) = γ(𝑥𝑖 × 𝑥𝑗 )𝑑 ( 7 )
Polinómico no homogéneo
−∥ 𝑥𝑖 − 𝑥𝑗 ∥2⁄
𝐾(𝑥𝑖 , 𝑥𝑗 ) = exp ( 2𝜎 2 )
( 10 )
Sigmoid
16
seleccionados a juicio del implementador tratando de asegurar el mejor resultado de
clasificación.
La función 𝑑𝑖𝑚(∗) permite definir la dimensión para cada elemento del complejo. Un
elemento 𝑒 ′ con 𝑑𝑖𝑚(𝑒 ′ ) = 𝑑 recibe el nombre de elemento celular 𝑑-dimensional o 𝑑-
célula. Un complejo es llamado 𝑘 – dimensional si la dimensión de cada uno de sus elementos
17
es igual o menor a 𝑘. Los elementos 2 – dimensionales serán entonces elementos de área.
Para el caso del procesamiento de imagen, estarán asociados a la noción de píxel [6]. Un
sub complejo celular 𝐶 ′ es definido como el sub conjunto de elementos del complejo 𝐶 donde
cada uno de los elementos 𝐸 ′ son un sub conjunto de elementos de 𝐸 y la relación de límite
𝐵 ′ es la intersección de la relación de límite 𝐵 con los pares ordenados 𝐸 ′ × 𝐸 ′ . En la
ecuación 13 se muestra la definición para un subconjunto complejo celular 𝐶 ′ .
C′ = (E ′ , B′ , dim′ ) ( 13 )
La dimensión para cada uno de los elementos 𝐸 ′ no resulta afectada, acorde a lo expuesto en
la ecuación 14.
18
cada dos elementos posteriores son incidentes entre sí, se asignará el nombre de
ruta incidente de 𝑎𝑖 ℎ𝑎𝑠𝑡𝑎 𝑎𝑘 [31].
19
Un complejo cartesiano es el resultado del producto cartesiano de dos o más ACC
unidimensionales. El conjunto de células de un ACC cartesiano 𝑛 – dimensional 𝐶 𝑛 es el
producto de 𝑛 conjuntos de células de los complejos ACC unidimensional. Cada uno de los
complejos unidimensionales puede ser representado por los ejes coordenados de 𝐶 𝑛 los
cuales constituirán el espacio 𝑛 – dimensional. Dados los ACC unidimensionales 𝐴1 =
{𝑒0 , 𝑒1 , 𝑒2 , … , 𝑒𝑛 } y 𝐴2 = {𝑒0 , 𝑒1 , 𝑒2 , … , 𝑒𝑚 }, el complejo cartesiano bidimensional es igual a
[34]:
La regla de membresía (pertenencia) para los elementos interpixel se rige por la regla
EquNaLi propuesta por Kovalevsky [10]. En esta regla cada 1 - célula 𝑐 1 recibirá como valor
de etiqueta el mayor valor (el valor radiométrico de la 2 - célula) de su vecindario abierto
más pequeño 𝑆𝑂𝑁(𝑐 1 ). La Figura 8 esquematiza el proceso de asignación de etiqueta para
cada una 1 - célula.
20
Para determinar el valor de etiqueta de una 0 - célula, es necesario evaluar tres escenarios
definidos por [6] como “Equ”, “Na”, “Li”. Si el SON(𝐶 0 ) contiene exactamente un par
diagonal, se dice que existe un “Equ” por lo cual el valor de etiqueta asignado a la 0 - célula
será el de las 2 - células que componen dicha diagonal. La Figura 9b muestra el caso en el
cual existe un escenario “Equ” y su respectivo resultado al evaluarlo.
Si se tienen dos pares diagonales se dice que existe un escenario “Na” (ver Figura 10a). Para
cada par se evalúa la existencia de camino estrecho (Narrow Stripe)[3], extendiendo el
vecindario abierto más pequeño de la 0 – célula, a un vecindario formado por una región de
4 × 4 2 – células, teniendo como elemento central a la 0 – célula pendiente de asignar
etiqueta [3] (ver Figura 10b).
Figura 10. Extensión vecindario abierto más pequeño requerido en la solución de la identificación de camino estrecho.
(a) dos pares diagonales. (b) Extensión vecindario. (c) asignación de etiqueta a la 0 – célula que sigue el camino
estrecho demarcado con la flecha en tono naranja y que corresponde a las 2 – células en tono negro.
Fuente: el autor.
El valor de etiqueta asignado a la 0-célula será la del par diagonal que siga el camino estrecho,
que de acuerdo a lo presentado en la Figura 10c corresponde a las 2 – células en tono negro.
21
recta digital (DSS por sus siglas en inglés) será entonces cualquier subconjunto de la frontera
de un semiplano digital [31]. Un ejemplo de un semiplano es el definido por la desigualdad
6𝑥 − 4𝑦 ≥ 0. En la Figura 11 los elementos 2 – células están representados por cuadrados,
los elementos 1 – células por rectángulos verticales y horizontales, y las 0 – células por
puntos. En el semiplano se pueden definir dos tipos de curvas digitales: las primeras como
curvas visuales en donde estas se representan como una secuencia de píxeles o como curvas
de contorno representadas como una secuencia de 0 – células y 1 – células.
(a) (b)
Una de las propiedades más importantes de las curvas de contorno es la posibilidad de asignar
orientación y como subsecuente a las 1 - células que la componen. Si consideramos una curva
de contorno 𝐾 y para cada 1 – célula 𝐶 incidente a dos píxeles, uno de ellos se encontrará
en el lado positivo y el otro en el lado negativo del par ordenado de los puntos finales de 𝐶.
En la Figura 12 se puede observar como producto de la asignación positiva o negativa de un
lado del semiplano digital se puede asignar una dirección al DSS.
Figura 12. Orientación y dirección DSS según lado positivo o negativo asignado en el semiplano digital.
Fuente: el autor.
22
2.1.4. Transformada De Cuenca
Existen muchas formas de definir la transformada de cuenca [36] [37] [38]. De manera
intuitiva, la cuenca de una función (que se ve como una superficie topográfica) se compone
de las ubicaciones desde las cuales una gota de agua puede fluir hacia los mínimos. El marco
de grafos con ejes con pesos permite la formalización de este principio [39].
(a)
(b)
23
Sea 𝐵 ⊆ 𝐴. El conjunto 𝐼𝑍𝐴 (𝐵) es la unión de todas las zonas de influencia geodésica de los
componentes conectados de 𝐵 (ver ecuación 17)
𝑘
( 17 )
𝐼𝑍𝐴 (𝐵) = ⋃ 𝑖𝑧𝐴 (𝐵𝑖 )
𝑖=1
El algoritmo de cuenca simulado por inundación de Vincent y Soille [37] define para 𝑓: 𝐷 →
ℕ una imagen digital de valores de grises, con ℎ𝑚𝑖𝑛 y ℎ𝑚𝑎𝑥 el mínimo y el máximo valor de
𝑓, una recursión con el valor de gris ℎ incrementado de ℎ𝑚𝑖𝑛 a ℎ𝑚𝑎𝑥 en donde las cuencas
asociadas a los mínimos de 𝑓 se amplían sucesivamente. Sea 𝑋ℎ la unión del conjunto de
cuencas calculado al nivel ℎ, un componente conectado del conjunto umbralizado 𝑇ℎ+1 al
nivel ℎ + 1 puede ser bien un nuevo mínimo o la extensión de una cuenca en 𝑋ℎ (esta
extensión definida por la zona de influencia geodésica de 𝑋ℎ con 𝑇ℎ+1 [36]) lo que resulta en
la actualización de 𝑋ℎ+1 . Sea 𝑀𝐼𝑁ℎ la unión de todos los mínimos regionales a la altura ℎ.
En la ecuación 18 se presenta la función recursiva que define la función de inundación.
𝑊𝑠ℎ𝑒𝑑(𝑓) = 𝐷\𝑋ℎ𝑚𝑎𝑥 ( 19 )
24
21: (∗ Initilize queue with neighbours at level ℎ of current basins or watersheds ∗)
22: 𝑑𝑖𝑠𝑡[𝑝] ← 1; 𝑓𝑖𝑓𝑜_𝑎𝑑𝑑(𝑝, 𝑞𝑢𝑒𝑢𝑒)
23: 𝐞𝐧𝐝 𝐢𝐟
24: 𝐞𝐧𝐝 𝐟𝐨𝐫
25: 𝑐𝑢𝑟𝑑𝑖𝑠𝑡 ← 1; 𝑓𝑖𝑓𝑜_𝑎𝑑𝑑(FICTITIOUS, 𝑞𝑢𝑒𝑢𝑒)
26: 𝐥𝐨𝐨𝐩 (∗ extend basins ∗)
27: 𝑝 ← 𝑓𝑖𝑓𝑜_𝑟𝑒𝑚𝑜𝑣𝑒(𝑞𝑢𝑒𝑢𝑒)
28: 𝐢𝐟 𝑝 = FICTITIOUS 𝐭𝐡𝐞𝐧
29: 𝐢𝐟 𝑓𝑖𝑓𝑜_𝑒𝑚𝑝𝑡𝑦(𝑞𝑢𝑒𝑢𝑒) 𝐭𝐡𝐞𝐧
30: BREAK
31: 𝐞𝐥𝐬𝐞
32: 𝑓𝑖𝑓𝑜_𝑎𝑑𝑑(FICTITIOUS, 𝑞𝑢𝑒𝑢𝑒); 𝑐𝑢𝑟𝑑𝑖𝑠𝑡 ← 𝑐𝑢𝑟𝑑𝑖𝑠𝑡 + 1;
33: 𝑝 ← 𝑓𝑖𝑓𝑜_𝑟𝑒𝑚𝑜𝑣𝑒(𝑞𝑢𝑒𝑢𝑒)
34: 𝐞𝐧𝐝 𝐢𝐟
35: 𝐞𝐧𝐝 𝐢𝐟
36: 𝐟𝐨𝐫 𝐚𝐥𝐥 𝑞 ∈ 𝑁𝐺 (𝑝) 𝐝𝐨 (∗ labelling 𝑝 by inspecting neighbours ∗)
37: 𝐢𝐟 𝑑𝑖𝑠𝑡[𝑞] < 𝑐𝑢𝑟𝑑𝑖𝑠𝑡 𝐚𝐧𝐝 (𝑙𝑎𝑏[𝑞] > 0 𝐨𝐫 𝑙𝑎𝑏[𝑞] = WSHED) 𝐭𝐡𝐞𝐧
38: (∗ 𝑞 belongs to an existing basin or to watersheds ∗)
39: 𝐢𝐟 𝑙𝑎𝑏[𝑞] > 0 𝐭𝐡𝐞𝐧
40: 𝐢𝐟 𝑙𝑎𝑏[𝑝] = MASK 𝐨𝐫 𝑙𝑎𝑏[𝑝] = WSHED 𝐭𝐡𝐞𝐧
41: 𝑙𝑎𝑏[𝑝] ← 𝑙𝑎𝑏[𝑞]
42: 𝐞𝐥𝐬𝐞 𝐢𝐟 𝑙𝑎𝑏[𝑝] ≠ 𝑙𝑎𝑏[𝑞] 𝐭𝐡𝐞𝐧
43: 𝑙𝑎𝑏[𝑝] ← WSHED
44: 𝐞𝐧𝐝 𝐢𝐟
45: 𝐞𝐥𝐬𝐞 𝐢𝐟 𝑙𝑎𝑏[𝑝] = MASK 𝐭𝐡𝐞𝐧
46: 𝑙𝑎𝑝[𝑝] ← WSHED
47: 𝐞𝐧𝐝 𝐢𝐟
48: 𝐞𝐥𝐬𝐞 𝐢𝐟 𝑙𝑎𝑏[𝑞] = MASK 𝐚𝐧𝐝 𝑑𝑖𝑠𝑡[𝑞] = 0 𝐭𝐡𝐞𝐧 (∗ 𝑞 is a plateau píxel ∗)
49: 𝑑𝑖𝑠𝑡[𝑞] ← 𝑐𝑢𝑟𝑑𝑖𝑠𝑡 + 1; 𝑓𝑖𝑓𝑜_𝑎𝑑𝑑(𝑞, 𝑞𝑢𝑒𝑢𝑒)
50: 𝐞𝐧𝐝 𝐢𝐟
51: 𝐞𝐧𝐝 𝐟𝐨𝐫
52: 𝐞𝐧𝐝 𝐥𝐨𝐨𝐩
53: (∗ detect and process new minima at level ℎ ∗)
54: 𝐟𝐨𝐫 𝐚𝐥𝐥 𝑝 ∈ 𝐷 𝐰𝐢𝐭𝐡 𝑖𝑚[𝑝] = ℎ 𝐝𝐨
55: 𝑑𝑖𝑠𝑡[𝑝] ← 0 (∗ reset distance to zero ∗)
56: 𝐢𝐟 𝑙𝑎𝑏[𝑝] = MASK 𝐭𝐡𝐞𝐧 (∗ 𝑝 is inside a new minimum ∗)
57: 𝑐𝑢𝑟𝑙𝑎𝑏 ← 𝑐𝑢𝑟𝑙𝑎𝑏 + 1; (∗ create a new label ∗)
58: 𝑓𝑖𝑓𝑜_𝑎𝑑𝑑(𝑝, 𝑞𝑢𝑒𝑢𝑒); 𝑙𝑎𝑝[𝑝] ← 𝑐𝑢𝑟𝑙𝑎𝑏;
59: 𝐰𝐡𝐢𝐥𝐞 𝐧𝐨𝐭 𝑓𝑖𝑓𝑜_𝑒𝑚𝑝𝑡𝑦(𝑞𝑢𝑒𝑢𝑒) 𝐝𝐨
60: 𝑞 ← 𝑓𝑖𝑓𝑜_𝑟𝑒𝑚𝑜𝑣𝑒(𝑞𝑢𝑒𝑢𝑒)
61: 𝐟𝐨𝐫 𝐚𝐥𝐥 𝑟 ∈ 𝑁𝐺 (𝑞) 𝐝𝐨 (∗ inspect neighbours of q ∗)
62: 𝐢𝐟 𝑙𝑎𝑏[𝑟] = MASK 𝐭𝐡𝐞𝐧
63: 𝑓𝑖𝑓𝑜_𝑎𝑑𝑑(𝑟, 𝑞𝑢𝑒𝑢𝑒); 𝑙𝑎𝑏[𝑟] ← 𝑐𝑢𝑟𝑙𝑎𝑏;
64: 𝐞𝐧𝐝 𝐢𝐟
65: 𝐞𝐧𝐝 𝐟𝐨𝐫
66: 𝐞𝐧𝐝 𝐰𝐡𝐢𝐥𝐞
67: 𝐞𝐧𝐝 𝐢𝐟
68: 𝐞𝐧𝐝 𝐟𝐨𝐫
69: 𝐞𝐧𝐝 𝐟𝐨𝐫
70: (∗ End Flooding ∗)
Algoritmo 1. Transformada de cuenca Vincent-Soille.
El resultado del algoritmo de transformada de cuenca desarrollado por Vinsent y Soille [37]
varía de acuerdo al tipo de vecindario definido para el píxel 𝑝. De acuerdo a la geometría
tradicional de procesamiento de imagen, puede ser, 4 conectado u 8 conectado; en la Figura
14 se observa la imagen sintética 𝐷, en donde en tono gris y letra azul se resaltan los mínimos
locales; para el resultado de la transformada con 4 – conectado se resaltan los píxeles
marcados como cuenca con etiqueta 𝑊; en el resultado de la transformada con 8 – conectado
25
se evidencia que no dio lugar a ninguna cuenca, lo cual resalta las paradojas de conectitud
expuestas en la sección 1.2.
26
40 del Algoritmo 1 todo píxel 𝑝 marcado como cuenca en una iteración anterior. En la Figura
16 se evidencia el resultado de la inclusión y exclusión del 𝑝 píxel al momento de ser
evaluado.
27
obtenida con el índice Kappa. La ecuación 21 muestra cómo calcular el intervalo de confianza
[42].
Feature
RGB into YCbCr
Extraction Segmentation Classification
Conversion
(DCT)
28
Otra técnica se basa en el contenido de la imagen explorando sus características de textura y
color. El contenido de la imagen basado en la combinación de rasgos [46] hace referencia a
técnicas de extracción de componentes vectoriales en función del color de la imagen y su
textura, la Tabla 1 muestra cada una de estas técnicas y los vectores resultantes.
Tabla 1. Técnicas de Extracción de vectores característicos en función del Color y la Textura de la imagen
[46].
Con base en lo expuesto hasta este punto, se puede definir de manera general que un proceso
de clasificación de imagen debería constar de una fase inicial en la cual se resalte la
información de textura caracterizada por la información radiométrica almacenada en su
unidad mínima de representación; y una siguiente fase en la cual estos elementos sean
agrupados mediante criterios de homogeneidad de textura. En la Figura 18 se muestra de
manera general, las fases producto de la revisión bibliográfica.
29
Procesamiento para resaltar Caracterización de Rasgos de
Agrupamiento de elementos
contornos o límites de los objetos Textura
Clasificación de Imagen
Multiespectral
El modelo presentado en la Figura 18 se completa con las fases sugeridas por el trabajo [14],
incluyendo la transformada de cuenca como mecanismo para construcción de superpíxeles
pero usando una versión simplificada basada en filtros direccionales para la construcción de
la capa de textura.
En los trabajos anteriores, en los pre procesos aplicados a la imagen antes de la fase de
clasificación subyacen vecindarios de conexión que no se encuentran alineados con las
nociones topológicas. A continuación, se abordan estos conceptos y la propuesta para lograr
una representación computacional que respete de manera consistente las nociones
topológicas definidas para los espacios localmente finitos.
La topología digital es el estudio de las propiedades topológicas de los objetos discretos que
se incorporan al digitalizar los objetos continuos [49]. Esta topología proporciona una base
matemática sólida para las operaciones de procesamiento de imagen, detección de límite,
compresión de datos y adelgazamiento [50]. Para poder determinar estas propiedades, se debe
entender que una imagen puede ser definida como una función 𝑓(𝑥, 𝑦) donde 𝑥 y 𝑦 son
valores o coordenadas espaciales (plano), y la amplitud 𝑓 representa la intensidad o nivel de
gris en el punto[51].
30
En la Figura 19 se puede apreciar como un vecindario 4 - conectado contradice lo expuesto
por el teorema de Jordan, pues los puntos negros están totalmente desconectados, pero, aun
así, separan el conjunto de puntos blancos en dos componentes (el píxel blanco del resto de
píxeles blancos).
(a) (b)
Esto mismo ocurre con la 8 - conectividad, pues los puntos negros forman un camino análogo
a la curva de Jordan, sin embargo, el píxel blanco no queda aislado del resto de píxeles
blancos del conjunto. La Figura 20 muestra un ejemplo de la paradoja 8 - conectado.
(a) (b)
Al ser identificadas estas paradojas, una representación alternativa fue propuesta por
Pavlidis, en donde propone la noción de frontera extendida [52]. En esta nueva definición de
frontera se sugiere considerar una vecindad mixta 4/8 - conectado. Esto es, considerar
conectividades diferentes para los objetos y su complemento. Sin embargo, esta definición
va en contravía con el concepto de simetría expuesto por la topología. Todos estos intentos
resultaron ser soluciones imperfectas en la definición de una teoría consistente con la
topología [6]. A pesar de que existen diferentes algoritmos basados en la información
topológica de la imagen [53] [54] el uso de vecindarios basados en los vecindarios 4 -
conectado u 8 - conectado, causa perdida de coherencia al procesar el primer plano como el
fondo de la imagen [55]. Una teoría diferente desarrollada desde la topología discreta ha
buscado resolver estos problemas en la representación de la imagen, para ello ha basado su
teoría en la definición de un espacio geométrico Euclidiano, el cual permite especificar las
relaciones de adyacencia entre los píxeles. Estas relaciones buscan determinar características
como (como lo es en la teoría de la Topología) curvas de los objetos [56], y conectividad de
los objetos en el espacio discreto [57]. Esta teoría es la propuesta por Vladimir Kovalevsky
[6], en la cual propone un espacio abstracto compuesto por elementos que él define como
complejos de células. En este espacio abstracto se definen relaciones entre las células que
permiten determinar las relaciones de adyacencia entre cada uno de los elementos, las cuales
son necesarias para definir las características de límite y conectividad propios de los espacios
continuos. Este modelo propuesto permite representar de manera explícita los espacios
topológicos y cada uno de sus restricciones en un espacio topológico finito [3][6][32][3][33].
31
3. DATOS Y MÉTODOS
En esta sección se presenta el conjunto de datos seleccionados para la evaluación del modelo
de clasificación propuesto por la presente investigación, luego, en la subsección de métodos,
se expone el desarrollo del modelo, el cual contiene los elementos conceptuales que soportan
el modelo de clasificación. Con el modelo definido, se presenta el marco computacional, el
cual implementa cada uno de los elementos conceptual de la sección 3.2.1. Para finalizar, y
como último tópico de este capítulo, en la sección 3.2.3 se muestran los diferentes escenarios
de evaluación del modelo.
3.1. Datos
De la imagen que es obtenida por un sensor aerotransportado [59], se seleccionan las bandas
infrarojo cercano, rojo y verde. Las imágenes cubren escenas urbanas que han sido
clasificadas manualmente en cinco clases: construcción, vegetación baja, árbol, carros y
superficies impermeables. La escena seleccionada corresponde a la losa 11 del conjunto de
datos de Vaihingen con tamaño de 1000 x 1000; de ella se seleccionan dos escenas no
sobrepuestas correspondientes a las coordenadas sobre archivo (893, 1400) a (1983, 2400)
para clasificación y evaluación del modelo y en (400, 400) a (1400, 1400) usada en la fase
de entrenamiento (ver Figura 21). En la Tabla 2 se expone la codificación de color usada por
cada clase en la capa de verdad de terreno.
32
(a) (b)
(c) (d)
Figura 21. Escenas en composición de falso color usadas para evaluación del modelo de clasificación basado en
complejos cartesianos.
(a) Escena usada en la fase de clasificación. (b) Escena usada para la fase de entrenamiento. (c) y (d) la verdad de
terreno para la escena de clasificación y entrenamiento respectivamente.
3.2. Método
El objetivo de esta sección es mostrar los diferentes métodos usados en la construcción del
modelo de clasificación de imagen multiespectral basado en los complejos cartesianos. Cada
uno de los métodos desarrollados se resuelven en el espacio de los complejos cartesianos [32]
y se enmarca en el trabajo investigación desarrollado por José Antonio Valero en su
investigación doctoral [60] [34] en la cual se toma como marco procedimental el flujo de
procesos propuesto en [14] para la segmentación de imagen pero basado en los complejos
cartesianos.
33
En la sección 3.2.1 se presenta las fases que constituyen el modelo conceptual y cada uno de
los elementos teóricos requeridos para la correspondiente implementación computacional,
que posteriormente se presenta en la sección 3.2.2. En la sección 3.2.3 se presenta el método
de evaluación diseñado para valorar los resultados obtenidos con el modelo de clasificación
desarrollado en el presente trabajo de investigación.
Imagen
Multiespectral
Constructor Espacio
Constructor Espacio
de Cuencas
de Textura
(Superpixeles))
Clasificador
Evaluación De Clasificación
Figura 22. Flujo de procesos del proceso de clasificación basado en complejos de células abstractos.
Fuente: el autor.
Como entrada al modelo se puede observar en la Figura 22 una imagen multiespectral; esta
imagen pasa por el primer bloque y corazón del modelo el constructor espacio complejo
cartesiano que es el encargado de llevar la imagen de entrada al espacio de la representación
de los complejos cartesianos.
34
El segundo bloque que se puede observar en el flujo de procesos está orientado a la
transformación del espacio a uno cuyos rasgos radiométricos sean representados por un único
valor, orientado a obtener un espacio de niveles de grises. El principal propósito del bloque
es diseñar un procedimiento que involucre todas las bandas multiespectrales del espacio
original al momento de obtener el valor único radiométrico que es empleado en la fase
siguiente de filtrado direccional.
Al llegar a este punto el modelo se bifurca en dos líneas. La primera, cuyo resultado final es
el espacio de cuencas, tiene como propósito resaltar los bordes de los elementos inmersos en
la imagen procesada y a partir de ellos obtener los bordes de cuenca; para lograr este objetivo,
en el modelo se plantea un bloque de procesamiento sobre el espacio complejo cartesiano de
niveles de grises basado en el gradiente de Sobel [61]. Posteriormente, se procede a calcular
el espacio de cuencas, cuyo objetivo final es la obtención de los polígonos que definirán a
los superpíxeles de la imagen. Implementar la transformada de cuenca en el espacio de los
complejos cartesianos, tiene como objetivo construir un espacio de cuencas a partir de 1 –
células que expandan en un vecindario libre de paradojas de conectitud (sección 1.2) y cuyo
resultado final, traza límites de cuenca no ambiguos, (sección 2.1.3), lo cual cumple con lo
establecido en 𝑇0 para los espacios localmente finitos.
La segunda línea, cuyo resultado final es el espacio de textura busca obtener como resultado
un espacio complejo cartesiano cuyas células unidimensionales contengan información
asociada a la textura del objeto que representa en la imagen; para lo cual se propone una serie
de filtros orientados sobre los elementos 1-células propios del espacio complejo cartesiano.
Lo anterior se basa en lo expuesto por el trabajo [14] pero sobre elementos interpixel
unidimensionales como se propone en [60]. El propósito final de esta información es permitir
que la máquina clasificadora incluya en sus criterios de clasificación no solo la respuesta
espectral del espacio original, sino, además la posible pertenencia de ese elemento a una
misma cobertura.
A continuación, se procederá a especificar cada uno de los aportes dado por la presente
investigación sobre el espacio complejo cartesiano para construcción de cada bloque.
De acuerdo a los conceptos desarrollados por los complejos de células abstractas, una imagen
puede ser representada por células compuestas por los e-elementos, de forma que un 0-
elemento representa a un punto, un 1 - elemento a una línea y un 2 - elemento a un píxel [6].
Para realizar el proceso de codificación de imagen a continuación se van a definir los
algoritmos necesarios, cada uno basados en las definiciones dadas en el apartado 2.1.2. De
manera conveniente a cada 1-célula vertical, a manera de notación, se identificará como 1𝑣 –
célula y cada 1 – célula horizontal como 1ℎ – célula. Partiendo de la noción de igualdad para
35
el espacio bidimensional cartesiano entre píxeles y 2 - células, se puede asumir que los rasgos
radiométricos se copiaran del elemento original píxel y se asignaran a las 2 – células. Para
los elementos 0 – células y 1 – células [6] propone tres estructuras adicionales relacionadas
de manera intrínseca con los 2 – elementos a partir de las coordenadas cartesianas. Revisando
la Figura 23 se puede ver como los elementos 0 - dimensionales y 1 - dimensionales
comparten la coordenada 𝑥, 𝑦 de la 2 – célula del espacio original, lo cual permite establecer
una función de mapeo desde las coordenadas del espacio complejo cartesiano al espacio de
representación convencional (píxel).
Para poder identificar los rasgos topológicos definidos en los complejos cartesianos es
necesario calcular a cada 0 - célula y 1 - célula el valor de etiqueta, para lo cual se aplica la
regla del mayor valor (para las 1 - células) y la regla EquNaLi (para las 0 - células) [6].
Para la regla EquNaLi, como parte del desarrollo del presente trabajo, se presenta una
propuesta de formalización para la regla de camino estrecho.
El primer paso requerido para establecer el camino estrecho, será extender el vecindario de
la 0-célula, pasando de 𝐶 0 (𝑗+ ,𝑖+ ) a 𝐶 0 (𝑗+ ,𝑖+ ) , tal muestra y como se muestra en la
−1 −1 −3 −3
Figura 24, en donde se puede observar la inclusión de los nuevos 2-elementos en el
vecindario resultante.
Debido a que el problema enfrentado está dado por la conexión de los elementos, se definen
las direcciones de conexión con el fin de evaluar si los elementos en el vecindario están bajo
arcos de conexión o bajo una región de elementos. Un arco está definido por aquella 2 - célula
que presente conexión con la 2 - célula principal de cada uno de los semiplanos. Para evaluar
la existencia de arcos, el vecindario será dividido en 2 semiplanos digitales, uno con
36
pendiente positiva y el otro con pendiente negativa; la asignación de la pendiente será
contraria a la orientación del Na (Narrow Stripe [3]) que se desea identificar. Formalmente
un arco 𝑎𝑟𝑖 y 𝑎𝑙𝑖 estará evaluado por la función 𝑎𝑟𝑐(𝑎𝑟𝑖 ) y 𝑎𝑟𝑐(𝑎𝑙𝑖 ), que afirmará o negará
la existencia del arco. En la Figura 25 se puede observar la división del vecindario en cada
uno de los semiplanos definidos y los respectivos arcos encontrados tras ser evaluados con
la función 𝑎𝑟𝑐.
Una región de elementos estará determinada por 2 arcos contiguos no conectados, de tal
manera que al aplicar la operación lógica 𝑋𝑂𝑅 se obtiene la cancelación de un par de arcos
conectados contiguos. La ecuación 22 presenta la definición de región.
𝑅𝑒𝑔(𝑟𝑟𝑖 ) = 𝐴𝑟𝑐(𝑎𝑟𝑖 ) ⊕ 𝐴𝑟𝑐(𝑎𝑟𝑖+1 ), 𝑅𝑒𝑔(𝑟𝑙𝑖 ) = 𝐴𝑟𝑐(𝑎𝑙𝑖 ) ⊕ 𝐴𝑟𝑐(𝑎𝑙𝑖+1 ) ( 22 )
La Figura 26 muestra cada una de las regiones en cada uno de los semiplanos y el resultado
de evaluar la función 𝑅𝑒𝑔.
Con las funciones 𝐴𝑟𝑐 y 𝑅𝑒𝑔 definidas, es necesario definir ahora un plano en el cual ambos
semiplanos se crucen y permitan determinar cuál de los de las 2 - célula sigue el camino
estrecho.
37
Figura 26. Flechas en tono negro representan las direcciones de conectitud.
(a) y (c) Identificación regiones en el semiplano con pendiente negativa y positiva respectivamente; (b) y (d) resultado de
la evaluación de la función Reg para cada una de las regiones definidas.
Fuente: el autor.
Figura 27. Cuadrantes que permiten intersectar los dos semiplanos celulares.
Los cuadros enmarcados en tono verde indican los elementos 2-celulares que definen el cuadrante. Las 2-células
enmarcadas en tono naranja y morado son las asociadas al “Narrow Stripe” y en las flechas en tono naranja y morado,
los arcos permitidos para cada 2-célula en ese cuadrante.
Fuente: el autor.
Tomando como base la lógica de cuadrante y la función 𝐴𝑟𝑐 se define la Tabla 3; allí se
especifica a partir de lógica combinatorial entre los posibles arcos de cada 2 – célula, la célula
ganadora. Indicar que una célula es ganadora es equivalente a decir que es la célula que sigue
el camino estrecho.
38
Número Arcos Cuadrante
Célula Ganadora
1 3
1 2
1 0
2 2 Validar Función Reg
2 1
2 0 Validar Función Reg
3 1
3 0
Aunque con la Tabla 3 se pretende resolver la asignación de Narrow Stripe, nos es posible
encontrar una solución no ambigua para todos los posibles escenarios, es así como para las
combinaciones (1,1), (2,2) y (2,0) no sería claro. Es por ello que para estas combinaciones se
debe hacer uso de la función 𝑅𝑒𝑔 y calcular para opción combinatorial de regiones el máximo
y mínimo posible. La Figura 28 muestra las regiones posibles para las combinaciones (1,1),
(2,2) y (2,0).
39
En la Tabla 4 se muestra las posibles combinaciones para cada una de las parejas de arcos
versus su correspondiente número regiones en el cuadrante, desafortunadamente, solo para
el caso de (1,1) con 𝑅𝑒𝑔 = (1,2) y (2,0) con 𝑅𝑒𝑔 = (2,2) se tiene la definición de la célula
ganadora. Para las combinaciones (2,2) con 𝑅𝑒𝑔 = {(1,1), (2,2)} , (1,1) con 𝑅𝑒𝑔 = {(1,1)}
y (2,0) con 𝑅𝑒𝑔 = {(1,0)} aplicaremos el concepto de adyacencia de región.
Parejas de
Arcos Célula Ganadora
Numero Regiones
,
1 1 Sin Determinar
(2,2) 2 2 Sin Determinar
1 1 Sin Determinar
(1,1) 1 2
2 2 Sin Determinar
1 0 Sin Determinar
(2,0) 2 0
Dos cuadrantes serán adyacentes si tienen un arco en común y este a su vez es adyacente a al
menos un arco en alguno de los cuadrantes explorados; La adyacencia de cuadrantes indicará
la existencia de bloque de arcos. La existencia de bloque dejará por fuera a la célula que
compite por el camino estrecho en el cuadrante explorado. La Figura 29 ilustra para cada una
de las combinaciones el resultado de la existencia de un bloque; en 𝑎 y 𝑏 las 2 - células
enmarcadas en tono morado muestran un arco común y adyacente a al menos otro arco en
alguno de los dos cuadrantes. El mismo escenario es observable para 𝑐 y 𝑑
Para 𝑒 no es posible la existencia de bloque de arcos, por lo cual se determina que, para el
cuadrante explorado, ambas 2 – células con equiprobablemente camino estrecho al igual que
40
para los casos en que ambas 2 – células presenten bloque de arcos. En la Tabla 5 se puede
observar el resultado de cada célula ganadora en el cuadrante explorado.
Parejas de
Arcos Célula Ganadora
¿Cuadrante?
,
(a,1) - X
(a,2) - X
(b,1) X -
(b,2) X -
Finalmente, la 2 - célula que sigue el camino estrecho será la que mayor peso obtenga en el
total de los 4 cuadrantes, en donde por cada cuadrante ganado, la 2 - célula obtendrá un peso
de 0.25, para los casos igualmente posible un valor de 0.125, y 0 para los escenarios de no
existencia de cuadrante. La ecuación 23 muestra la asignación final de camino estrecho para
la 0 - célula evaluada.
4 4
𝑣𝑎𝑙𝑢𝑒(𝑐 2 𝑎 ) 𝑠𝑖 ∑ 𝑝𝑖 (𝑐 2 𝑎 ) > ∑ 𝑝𝑖 (𝑐 2 𝑏 ) ( 23 )
𝑁𝑆 = {
𝑖=0 𝑖=0
𝑣𝑎𝑙𝑢𝑒(𝑐 2 𝑏 ) 𝑒𝑛 𝑐𝑢𝑎𝑙𝑞𝑢𝑖𝑒𝑟 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜
41
intensidad de cada una de las bandas de la imagen multiespectral original o el valor de
intensidad calculado según sea el caso (ver ecuación 24).
Para cuantificar el nivel de información aportado por cada una de las bandas se pueden aplicar
dos criterios: en función de su riqueza radiométrica o en función de su riqueza geométrica.
Como parte del presente trabajo, se propone como solución al problema de ponderación de
las bandas, la matriz de varianza y covarianza; para esto, lo primero que se requiere calcular
será el Vector de Medias del espacio, dado por la ecuación 25 [62]:
∑𝑚 𝑛
𝑖=1 ∑𝑗=1 𝜓𝛽 𝑖,𝑗 ( 25 )
𝜇 = (𝜇1 , 𝜇2 , … , 𝜇𝜅 ) 𝑑𝑜𝑛𝑑𝑒 𝜇𝛽 = 𝑝𝑎𝑟𝑎 𝑡𝑜𝑑𝑜 𝛽 = 1, … , 𝜅
𝑚𝑛
42
Se puede deducir de la ecuación 26, que un vector 𝑁𝐷𝑖,𝑗 es igual al vector de valores 𝜓𝛽 de
la célula con coordenada combinatorial (𝑖, 𝑗).
Con los vectores 𝑁𝐷 y el vector de valores medios definidos, se procede a formular la matriz
de varianza - covarianza determinada por la ecuación 27 [62]:
𝑚 𝑛
1 ( 27 )
𝑉 = [𝐶𝑞,𝑙 ] = [ ∑ ∑(𝑁𝐷𝑖,𝑗 − 𝜇)(𝑁𝐷𝑖,𝑗 − 𝜇)𝑡 ]
(𝑚𝑛) − 1
𝑖=1 𝑗=1
Con base en la matriz 𝑉 resultante, el aporte de cada banda se determina por medio de la
ecuación 28:
∑𝜅𝑞=1 𝐶𝑞,𝑙
𝑊𝑙 = 𝑝𝑎𝑟𝑎 𝑡𝑜𝑑𝑜 𝑙 = 1, … , 𝜅 ( 28 )
∑𝜅𝑞=1 ∑𝜅𝑙=1 𝐶𝑞,𝑙
A partir del vector de pesos 𝑊𝑙 se procede a recalcular el vector de valores de cada célula
del espacio complejo cartesiano, para lo cual se aplica la ecuación 29:
𝜅
∗ ( 29 )
𝜓 𝑖,𝑗
= [∑ (𝜓𝛽 ∙ 𝑊𝛽 )] 𝑑𝑜𝑛𝑑𝑒 𝛽 = 𝑙
𝑖,𝑗
𝛽=1
Continuando con el flujo de procesos expuesto en la Figura 22, en esta sección abordaremos
el bloque que corresponde a la creación del espacio filtrado, que de acuerdo al diagrama
corresponde al prerrequisito de la obtención del espacio de textura; el objetivo principal de
esta sección es resaltar sobre el espacio de niveles de grises contornos de los objetos inmersos
en la imagen que sigan una dirección específica. Con base en [14], se define un banco de
filtros en el que solo se tiene como criterio el concepto de filtro derivativo direccional pero
se proponen máscaras sobre la estructura local de los complejos cartesianos, específicamente
sobre las 1 - células. Para compensar el flujo de procesos simplificado en la construcción de
la capa de textura, se aplica al espacio de niveles de grises una máscara de supresión de ruido,
con el propósito de eliminar los pequeños elementos que puedan dar lugar a falsas texturas
(ver ecuación 30).
43
deforman en su proceso la figura descrita por el objeto en la imagen; es por esto, que parte
de este proyecto consistió en definir máscara de filtraje sobre los elementos interpixel (1 -
células), en la cual el filtrado de dirección se centra sobre las estructuras lineales no
disponibles en un contexto de análisis de imagen convencional, pero si en el espacio de los
complejos cartesianos. Las 1 - células permiten definir estructuras lineales similares a
fronteras entre los elementos de la imagen, razón por la cual se utilizan como bloque de
construcción de las matrices de filtrado.
De acuerdo con la definición de DSS expuesta en la sección 2.1.3 y a lo propuesto por [60],
se definen 7 orientaciones, cada una con dos direcciones sobre un semiplano digital, con lo
cual se obtienen 14 máscaras de filtraje. Dado que la curva de contorno está definida sobre
las 1 – células, el elemento central de nuestro semiplano digital será una 1 – célula. La Figura
31 muestra las 14 orientaciones que se buscan resolver por medio de DSSs en el semiplano
digital.
Para obtener cada una de las orientaciones requeridas, el semiplano digital es dividido en dos
partes simétricas a la 1 - célula central para cada una de las orientaciones en el sentido horario
para las direcciones positivas y en sentido anti horario para las direcciones negativas (ver
Figura 32).
(a) (b)
44
Figura 33.Definición de núcleos de filtraje balanceado.
Los núcleos de la letra (𝑓1 ) a la (𝑓7 ) corresponden a las DSSs definidas para las direcciones positivas. Los núcleos que de
la letra (𝑓8 ) a la (𝑓14 ) corresponden a las DSSs definidas para las direcciones negativas.
Fuente: el autor.
Una vez se definen las máscaras de filtraje, se procede a construir el espacio filtrado, formado
por el conjunto de 1 - células cuyo vector de valores corresponderá al resultado de la máscara
de filtraje aplicada al espacio de niveles de grises (ver ecuación 31).
( 31 )
𝜓 ∗∗∗ 𝑖,𝑗 = [𝑓𝑖𝑙𝑡𝑒𝑟𝐷𝑆𝑆𝜙 (𝜓∗∗ 𝑖,𝑗 )] 𝑑𝑜𝑛𝑑𝑒 𝜙 = (𝑓1 , 𝑓2 , … , 𝑓14 )
45
representa una posible textura en la imagen, lo cual da lugar a un nuevo espacio que tiene
por nombre espacio de textura.
𝑉𝑚𝑎𝑥 = (𝑣1 , 𝑣2 , … , 𝑣𝜙 )
( 32 )
∗∗
𝑑𝑜𝑛𝑑𝑒 𝑣𝜙 = 𝑚á𝑥 {𝜓 𝜙 𝑖,𝑗
| 𝑖 = 1, … , 𝑚; 𝑗 = 1, … , 𝑛} 𝑝𝑎𝑟𝑎 𝜙 = 1, 2, … , 14
𝑉𝑚𝑖𝑛 = (𝑣1 , 𝑣2 , … , 𝑣𝜙 )
( 33 )
𝑑𝑜𝑛𝑑𝑒 𝑣𝜙 = 𝑚𝑖𝑛 {𝜓 ∗∗ 𝜙 | 𝑖 = 1, … , 𝑚; 𝑗 = 1, … , 𝑛} 𝑝𝑎𝑟𝑎 𝜙 = 1, 2, … , 14
𝑖,𝑗
Entre los dos vectores 𝑉𝑚𝑎𝑥 y 𝑉𝑚𝑖𝑛 se trazan los centroides iniciales distribuidos de forma
equidistante, y serán tantos como 𝜉 grupos se definan. En la Figura 34 se puede observar la
ubicación de los puntos máximos y mínimos para un espacio con tres vectores 3-
dimensionales y en la Figura 35 los centros de clase inicial para un escenario de 𝜉 = 6.
46
Figura 35. Proyección de centros de clase inicial a partir del vector valores máximo y mínimo.
Fuente: el autor.
El propósito de distribuir los centroides iniciales a lo largo de un vector entre los valores más
distantes, es propiciar una mayor convergencia a lo largo de las iteraciones del algoritmo de
𝑘 − 𝑚𝑒𝑑𝑖𝑎𝑠. Con el conjunto de centroides iniciales 𝜍 = (𝜍1 , … , 𝜍𝜉 ) definido, se procede a
iniciar el proceso iterativo de cálculo de distancias. Para calcular la matriz de distancia
Euclidiana [64] entre cada vector del conjunto 𝜓 y los centroides del conjunto 𝜍 se aplica la
ecuación 34:
𝐷 = [𝑑(𝑖,𝑗) 𝑠 ] 𝑑𝑜𝑛𝑑𝑒
1⁄
14 2
2 ( 34 )
𝑑(𝑖,𝑗) = ‖𝜓 ∗∗∗ 𝑖,𝑗 − 𝜍𝑠 ‖ = [∑ (𝜓 ∗∗∗ 𝜙 − 𝜍𝜙 𝑠 ) ] 𝑐𝑜𝑛 𝑠 = (1, 2, … , 𝜉)
𝑠 𝑖,𝑗
𝜙=1
𝐺 0 = [𝑔(𝑖,𝑗) 𝑠 ] 𝑑𝑜𝑛𝑑𝑒
1 𝑠𝑖 𝑑(𝑖,𝑗) 𝑠 𝑒𝑠 𝑙𝑎 𝑚í𝑛𝑖𝑚𝑎 ( 35 )
𝑔(𝑖,𝑗) ={
𝑠 0 𝑠𝑖 𝑛𝑜 𝑙𝑜 𝑒𝑠
Con la matriz 𝐺 se identifica el centro de clase más cercano al vector de valores 𝜓 ∗∗∗ 𝑖,𝑗 . El
nuevo conjunto de centroides 𝜍 se forma con los vectores de valores medios de las células
pertenecientes a un mismo grupo.
Al finalizar la ejecución del algoritmo de 𝑘 − 𝑚𝑒𝑑𝑖𝑎𝑠 cada célula del espacio tiene como
vector de valores el valor del índice del último centro de clases asignado en la matriz 𝐺.
47
𝜓 ∗∗∗∗ 𝑖,𝑗 = [𝑠] 𝑠𝑖 𝑦 𝑠𝑜𝑙𝑜 𝑠𝑖 𝑔(𝑖,𝑗) == 1 ( 36 )
𝑠
Figura 36. Máscara para la implementación del filtro Sobel sobre 1-células según su orientación
[58].
𝐺 = √𝐺𝑥 2 + 𝐺𝑦 2 ( 37 )
La ejecución del algoritmo de cuenca por inundación geográfica tiene un elemento clave
conocido como la relación de vecindario. Para las 1 – células que conforman el espacio de
los complejos cartesianos se define un nuevo vecindario, que llamaremos crack-vecindario”.
Este vecindario conectará al crack central con sus 6 crack vecinos a través de las 0 - células
que lo limitan, tal y como se muestra en la Figura 37:
48
Figura 37. Definición del crack-vecindario.
En tono verde el crack central, en tono blanco los crack vecinos y en tono azul las 0-células que permiten conectar al
crack con sus células vecinas. (a) Elementos del vecindario para un crack o 1-célula horizontal. (b) Elementos del
vecindario para un crack o 1-célula vertical.
Fuente: el autor.
(a) (b)
Figura 38. Meseta o Planicie de Cuenca.
(a) Representación en sistema digital de una meseta de cuenca. (b) Representación en relieve de una meseta de cuenca.
Fuente: el autor.
El problema de las mesetas es tratado por [68], planteando una solución que recibe el nombre
de aristas ascendentes de la meseta; inspirados en la técnica original, se desarrolla un método
simplificado, aplicando el adelgazamiento en función la distancia más corta del centro del
borde hacia la cuenca más cercana (ver Figura 39).
49
(a) (b)
Figura 39. Adelgazamiento de planicie.
(a) 𝑑1 y 𝑑2 representan la distancia desde el centro de cuenca a la cuenca a y b respectivamente. (b) la representación en
relieve del resultado del adelgazamiento del borde de cuenca.
Fuente: el autor.
De acuerdo a lo presentado en las secciones 1.2 y 2.1.2 el objetivo principal del presente
trabajo de investigación es desarrollar un modelo de clasificación que incluya las nociones
topológicas para espacios 𝑇0 disponibles en los complejos de células abstractos. Para lograr
este objetivo se define el espacio de cuencas basado en 1 – células; este espacio se construye
bajo la definición de un vecindario celular sin paradojas de conectitud, y gracias a que la
expansión de cuenca se resuelve sobre las 1 – células, los límites trazados, cumplen con la
definición de 2.1.3, lo cual representa límites libres de ambigüedad, según se expone en [6].
El segundo espacio que permite aprovechar las nociones topológicas que subyacen al espacio
de los complejos cartesianos corresponde al espacio de textura. El espacio de textura basado
en 1 – células, almacena la información de textura de los objetos contenidos en la imagen de
acuerdo al procedimiento expuesto en la sección 3.2.1.3, el cual se basa en máscaras de
filtraje direccional aplicadas a las 1 – células disponibles en el espacio complejo cartesiano
sin dar lugar a deformación de los objetos causado por la ambigüedad de límite [6] (esto
debido a que la 2 – célula asociada a la 1 – célula no se ve afectada).
50
Figura 40. Mapeo de polígonos definidos por el espacio de cuencas a superpíxeles en el espacio de representación
convencional.
En la imagen se hace la asignación de superpíxeles para una imagen multiespectral compuesta por tres bandas (RGB) y
para la capa obtenida con el espacio de textura.
Fuente: el autor.
En la Figura 40 se expone como los superpíxeles trazados por el espacio de cuencas son
mapeados tanto para las capas multiespectrales que componen la imagen como para la copa
de textura resultante de los complejos cartesianos.
Debido a que los kernels sigmoid, laplacian y annova RBF no están incluidos en los núcleos
por defecto de la función fitcsvm (función de la herramienta Matlab®, sección 3.2.2.6) usada
en la fase de entrenamiento de los scripts de clasificación, se descartan de la selección. De
los kernels que quedan disponibles para selección (Gaussian, Polynomial y Linear), se
realiza una ponderación entre cada variable, asignando 1 unidad de peso de 1 unidad para el
kernel que tenga mejor resultado, 0.5 para el resultado medio y 0 para el menor resultado.
La Tabla 6 se presentan los resultados de la ponderación.
51
Kernel Tasa de éxito (recall) Especificidad Precisión Puntuación F Exactitud
Gaussian 71.60% 96.19% 84.57% 77.54% 90.64%
Polynomial 74.67% 91.61% 72.19% 73.38% 87.79%
Linear 79.73% 94.49% 80.83% 80.27% 91.16%
Sigmoid 47.69% 85.47% 48.87% 48.25% 76.95%
Laplacian 75.17% 95.80% 83.95% 79.31% 91.15%
Anova RBF 76.75% 95.50% 83.26% 79.87% 91.27%
Tomando como base el flujo de procesos propuesto en la Figura 22, cada bloque de las fases
del modelo corresponde a paquetes o módulos de software. El primer paso en la construcción
consistió en la definición del diagrama de clases asociado a cada uno de los espacios
propuestos en el modelo conceptual; este trabajo, el cual fue realizado como parte del trabajo
de investigación doctoral titulado “Development of an Alternative Method for Multispectral
Image Segmentation Based on Cartesian Complexes and Its Associated Oriented Matroids”
desarrollado por el ingeniero José Antonio Valero [27] [46] [34] [68] en sesiones de diseño
iterativas, entrega como resultado el diagrama de clases principal que a su vez permite la
definición del diagrama de paquetes teniendo como criterio de agrupamiento el mayor grado
de cohesión y menor nivel de acoplamiento entre los elementos. En la Figura 42 se puede
observar el diagrama de paquetes obtenido.
52
Figura 42. Diagrama de paquetes marco computacional.
Fuente: el autor.
Marco Computacional
JAVA
Cartesian Complex
GDAL
Paquete de Clasificación
Matlab®
53
El propósito de la paralelización está dado por el gran volumen de información (células) que
puede llegar a contener una imagen multiespectral; es por ello que se hace necesario definir
algoritmos que realicen su procesamiento en forma paralela, y optímense al máximo los
recursos físicos provistos por el servidor sobre el cual se ejecuta el proceso.
A continuación, vamos a realizar un zoom sobre cada uno de los bloques lógicos que
componen la solución del marco computacional, y sobre los escenarios que aplica,
visualizaremos las imágenes de las capas intermedias resultantes.
Lectura Imagen
Satelital
En la capa física, un espacio complejo cartesiano es guardado en disco usando los métodos
dispuesto por GDAL, usando el formato img y que permite ser cargado por cualquier software
orientado al manejo de formatos de imagen satelital. Una capa o banda de la imagen satelital
de entrada mapeará a un valor del vector de valores del elemento celular; por cada banda del
complejo cartesiano, será guardada en disco cuatro bandas, una por cada tipo de elemento
celular, y solo en el caso de las 1-células, una capa por cada orientación del crack, tal y como
se muestra en la Figura 45.
54
Figura 45. Mapeo físico por cada elemento celular del espacio complejo cartesiano.
En la figura los elementos en tono verde representan las 1 – células o cracks, en tono azul las 0 - células y en tono gris,
las 2 - células. Los colores tienen únicamente propósito didáctico para mostrar la separación al momento de guardar en
disco.
Fuente: el autor.
55
3.2.2.2. Paquete Monochromatic
Con el espacio cartesiano disponible en memoria, la siguiente fase del modelo consiste en
crear el espacio de niveles de grises; para este espacio el paquete del framework delegado a
la construcción recibe el nombre de monochromatic. Un espacio complejo cartesiano de
niveles de grises se construye realizando los pasos mostrados en el flujograma de la Figura
47, en donde se puede observar como el primer paso es correspondiente a lo mostrado en el
modelo conceptual de la sección 3.2.1.2, el cálculo del vector de valores medios. Lo siguiente
es la construcción de los vectores ND para luego seguir con la matriz de varianza-covarianza
y finalizar con el cálculo de pesos para cada banda de entrada. El espacio final resultante se
puede observar en la Figura 49 junto a los respectivos pesos calculados para cada banda del
espacio de entrada.
Cálculo Vector de
Medias
Cálculo Vectores ND
Figura 47. Flujograma implementado en el paquete monochromatic para construcción de un espacio complejo cartesiano
de niveles de grises.
Fuente: el autor.
Los algoritmos que resuelven cada fase del paquete mochromatic se implementan siguiendo
la distribución de elementos mostrada en la Figura 48; esta distribución que se encuentra
condicionada por número de procesadores del sistema de cómputo, tiene como propósito
realizar el procesamiento en paralelo de cada bloque de células delegadas. Es importante
resaltar sobre lo expuesto en la Figura 48 los puntos de sincronización, representados por los
hexágonos en tono azul. Los puntos de sincronización están encargados de unificar el
resultado obtenido por cada hilo de proceso.
56
Figura 48. Paralelización del proceso de conversión de espacio multiespectral a espacio monocromático.
Fuente: el autor.
Como producto resultante de esta primera fase, se expone en la Figura 49, en donde se pueden
observar el espacio de niveles de grises.
El algoritmo encargado de aplicar cada una de las máscaras direccionales tiene un patrón de
distribución en paralelo que se expone en la Figura 50; en ella, se puede observar como de
acuerdo al número de procesadores disponibles en el sistema de cómputo se delegan un
57
número de células y posterior a ello, de manera secuencial se aplicada sobre cada una las n
máscaras dispuestas al momento de invocar el método applyFilter.
Cada 1 - célula del nuevo espacio recibirá como vector de valores el resultado de la ejecución
de las máscaras direccionales. El vector de valores tendrá una longitud equivalente al número
de máscaras que hayan sido configuradas al momento de invocar el constructor de clase.
Desde el punto de vista de la capa física, cada máscara de filtraje aplicada cobre las 1 –
células, corresponderá a una capa o banda almacenada en disco. De acuerdo con lo expuesto
en la sección 3.2.1.3 se incluye una propiedad utilitaria de supresión de ruido que tiene por
nombre noisefilter; con el propósito es suprimir la alteración de los valores producto de la
digitalización de la escena [72]. Aunque existen diferentes técnicas para la supresión de
ruido, para el desarrollo del flujo de procesos del modelo se selecciona la técnica de un
suavizado de imagen basado en una máscara Gaussiana [73]. Antes construir el espacio
filtrado, se procede a aplicar al espacio de niveles de grises el paquete utilitario noisefilter
sobre cada una de las 2 – células que componen al espacio. El resultado de aplicar esta
máscara se puede observar en la Figura 51.
Figura 51. Espacio complejo cartesiano de niveles de grises con supresión de ruido.
58
En la Figura 52 se puede observar algunas de las capas resultantes de la construcción del
espacio filtrado. El total de las imágenes pueden ser consultadas en la parte de anexos del
presente trabajo.
(a) (b)
De la Figura 52 se puede observar como los filtros resaltan los bordes entre las texturas en la
escena.
59
Cálculo Vector de
Cálculo centros de
Valores Máximos y
clase inicial
Mínimos
Asignación Centros de
Ejecución K-Medias Clase a Espacio de Imagen de Textura
Espacio Filtrado Textura ACC
Figura 54. Distribución de células algoritmo del encargado de obtener el vector de valores máximos y el vector de
valores mínimos.
Fuente: el autor.
Para el cálculo de los centros de clase inicial no se hace uso de computación en paralelo tal
y como se muestra en la Figura 54 ya que el esfuerzo computacional realizado por el método
es bastante simple (Consultar Javadoc en la sección de anexos del trabajo).
Para la asignación de los centros de clase el espacio es dividido en paquetes de células según
el número de procesadores disponibles en el sistema de cómputo, luego, el centro de clase es
asignado según lo expuesto en el numeral 3.2.1.4, calculando la distancia Euclidiana desde
el vector de valores de la célula procesada a cada uno de los centros de clase; al finalizar, la
célula tendrá como nuevo vector de valores, el centro de clase más cercano.
El paso a seguir por el algoritmo, es evaluar si es necesario realizar una nueva iteración,
realizando una comparación entre una matriz de distancia 𝐷 correspondiente a la iteración
60
actual y una matriz de distancia 𝐷−1 correspondiente una iteración anterior. El algoritmo 𝑘 −
𝑚𝑒𝑑𝑖𝑎𝑠 tendrá fin, en cuanto 𝐷 sea igual a 𝐷−1 .
Para los escenarios en que se requiera una nueva iteración, es necesario calcular los nuevos
centros de clase; continuando con el patrón de procesamiento en paralelo, se distribuyen los
paquetes de células en función del número de procesadores disponibles en el sistema de
cómputo. Cada hilo de proceso determina centros de clase local al hilo, requiriendo que el
sistema sea sincronizado para obtener un único centro por cada clase solicitada. En la Figura
55 se puede observar los rasgos generales de los pasos realizados en una iteración del
algoritmo implementado en la fase de 𝑘 − 𝑚𝑒𝑑𝑖𝑎𝑠.
Figura 55. Distribución de células y fases de ejecución para una iteración del algoritmo de k-medias implementado en el
paquete clustering.
Fuente: el autor.
En el espacio de textura resultante que se expone en la Figura 56, cada 1-celula contendrá el
id del centro de clase al cual pertenece, permitiendo así, identificar y relacionar las células
que pertenezcan a una misma textura.
61
3.2.2.5. Paquete Watershed
Espacio de Niveles
de Grises con
supresión de Ejecución Algoritmo
ruido Cálculo Gradiente
Transformada de
Operador Sobel
Cuenca
Espacio de
Cuencas
Figura 57. Flujograma Paquete “watershed” que implementa la construcción de un espacio de cuencas.
Fuente: el autor.
Figura 58. Ejecución máscara de Sobel sobre el espacio complejo cartesiano de niveles de grises con supresión de ruido.
Fuente: el autor.
El espacio complejo cartesiano con máscara de Sobel contendrá sobre los elementos 1 –
célula el valor resultante de la máscara.
62
(a) (b)
Figura 59. Resultado Espacio de Cuencas, fase filtro de Sobel y gradiente de Sobel.
(a) y (b) respectivamente.
El aplicar el filtro de Sobel sobre el espacio de niveles de grises se centra en lograr resaltar
los bordes de los objetos contenidos en la escena, sin embargo, esto no es suficiente para
trazar las cuencas de la imagen, ya que como se muestra en la Figura 59a, los objetos que
quedan delimitados por los bordes resaltados, presentan texturas que pueden dar lugar a falsas
cuencas y como resultado final, detrimento en la calidad de los superpíxeles deseados. Es por
ello, que se procede a implementar el concepto de gradiente de Sobel [61], que de acuerdo a
la literatura del procesamiento de imagen, permite obtener un alisado de la escena procesada
(ver Figura 59.b).
63
(a) (b)
Ordenamiento del
Asignación de Etiqueta Expansión de Cuenca
Espacio
Para la implementación de las fases del algoritmo de cuenca se hace una transformación del
espacio bidimensional complejo cartesiano a uno unidimensional, enlazando el último
elemento de cada fila con el primero de la fila siguiente (ver Figura 62).
64
Figura 62. Transformación de espacio bidimensional a espacio unidimensional.
Fuente: el autor.
65
3.2.2.6. Paquete Clasificador
Muestreo Aleatorio
Entrenamiento (SVM)
Estratificado
Construcción de Clasificación
Superpíxeles (SVM)
Figura 64. Fases que componen el paquete de clasificación implementado en la herramienta computacional Matlab®.
Fuente: el autor.
Figura 65. Transformación de espacio bidimensional a espacio unidimensional para la ejecución de la fase de
clasificación.
66
Fuente: el autor.
El muestreo estratificado se realiza sobre el total de las muestras de la imagen original debido
a que los superpíxeles obtenidos con el espacio complejo cartesiano difieren de los obtenidos
por el espacio de representación convencional (sección 3.2.3.1).
En la parte de anexos del presente trabajo, se encuentra en detalle cada uno se los scripts
implementados en el paquete de clasificación.
Para la fase de evaluación de resultados obtenidos con el modelo de clasificación se hace uso
de las matrices de confusión. De la matriz resultante se obtiene el índice kappa [26] que
permite determinar los intervalos de confianza [74]. Cada uno de estos elementos permite
concluir la precisión obtenida con el modelo propuesto. Para la evaluación del modelo de
clasificación se hace uso de las escenas presentadas en la sección 3.1.
Sobre cada una de las escenas seleccionadas se aplicó un redimensionamiento al 50% del
tamaño original (500 x 500). Este cambio de tamaño se debió a limitantes computacionales
con el hardware de cómputo sobre el cual se ejecuta.
67
procedimientos son bastantes similares, sin embargo el número de elementos a clasificar en
el escenario de los superpíxeles obtenidos a partir de los complejos cartesianos versus el
número total de píxeles de la escena es considerablemente inferior, el nivel de exactitud se
mantuvo, lo que da lugar a una ganancia en rendimiento al tener que clasificar menos
elementos.
68
Figura 67. Los resultados de la ejecución de las máscaras de filtraje sobre el espacio
convencional se exponen en el apartado de anexos del presente trabajo.
Figura 67. Máscaras de filtraje direccional aplicada al espacio de representación convencional para obtener el espacio
filtrado requerido en la construcción de la capa de textura.
Fuente: el autor.
69
(a) (b)
Figura 68. Resultado construcción capas de textura y cuenca para el espacio convencional.
(a) Espacio de textura. (b) Espacio de cuencas con 20134 cuencas trazadas.
Figura 69. Ejemplo de asignación de etiqueta a los píxeles pertenecientes al límite de cuenca.
Fuente: el autor.
70
3.2.3.2. Clasificación De Superpíxeles Con Rasgos Radiométricos
Superpíxeles
Convencionales
Clasificador SVM
Evaluación de
Muestreo Aleatorio Muestra de Clasificación
Entrenamiento SVM
Estratificado Entrenamiento
Imagen de
entrenamiento Clasificador SVM
Realidad de
Terreno
Superpíxeles ACC
Figura 70. Flujo de procesos de clasificación de imagen basado en los superpíxeles asociados a los rasgos radiométricos,
usando como clasificador máquinas de soporte vectorial (SVM).
Fuente: el autor.
71
3.2.3.3. Clasificación Superpíxeles Con Rasgos De Textura
Superpíxeles de
Textura
Convencional
Clasificador SVM
Evaluación de
Muestreo Aleatorio Muestra de Clasificación
Entrenamiento SVM
Estratificado Entrenamiento
Imagen de
entrenamiento Clasificador SVM
Realidad de
Terreno
Superpíxeles de
Textura ACC
Figura 71. Flujo de procesos de clasificación de imagen basado en los superpíxeles asociados a los rasgos de textura
usando como clasificador máquinas de soporte vectorial (SVM).
Fuente: el autor.
72
3.2.3.4. Clasificación De Superpíxeles Con Rasgos Radiométricos Mas Rasgos
De Textura
Superpíxeles + Capa de
Textura Convencional
Clasificador SVM
Evaluación de
Muestreo Aleatorio Muestra de Clasificación
Entrenamiento SVM
Estratificado Entrenamiento
Imagen de
entrenamiento Clasificador SVM
Realidad de
Terreno
Superpíxeles + Capa de
Textura ACC
Figura 72. Escenario de clasificación completo; Superpíxeles con rasgos radiométricos más rasgos de textura.
Fuente: el autor.
73
4. PRESENTACIÓN DE RESULTADOS
(a) (b)
Figura 73. Resultados de clasificación para el escenario de superpíxeles asociados a los rasgos radiométricos.
74
impermeable
Vegetación
Superficie
Clase
Edificio
Carro
Árbol
Baja
Edificio 68,07 26,96 0,38 4,48 0,11
Superficie impermeable 9,58 81,84 1,44 6,64 0,51
Árbol 2,74 0,89 75,19 21,17 0,01
Vegetación Baja 18,21 15,26 21,13 45,2 0,21
Carro 31,82 50,01 1,08 6,18 10,91
Tabla 8. Matriz de confusión resultante de la clasificación de los superpíxeles obtenidos a partir del espacio de
representación convencional asociados a los rasgos de radiométricos.
impermeable
Vegetación
Superficie
Clase
Edificio
Carro
Árbol
Baja
Edificio 67,06 26,78 0,46 5,52 0,19
Superficie impermeable 7,8 84,86 1,44 5,53 0,37
Árbol 2,73 1,42 73,92 21,94 0
Vegetación Baja 19,14 13,06 20,96 46,59 0,25
Carro 33,47 48,65 0,96 6,11 10,82
Tabla 9. Matriz de confusión resultante de la clasificación de los superpíxeles obtenidos a partir del espacio complejo
cartesiano asociados a los rasgos de radiométricos.
Exactitud
Superpíxel Rasgos Radiométricos Convencional 71,41%
Superpíxel Rasgos Radiométricos Complejos Celulares Cartesianos 72,17%
Tabla 10. Exactitud resultante del proceso de clasificación, calculada a partir de la matriz de confusión de cada uno de
los espacios (SC y SCCC).
Mínimo Máximo
Superpíxel Rasgos Radiométricos - Convencional 29,76% 80,27%
Superpíxel Rasgos Radiométricos - Complejos Celulares Cartesianos 30,26% 80,67%
Tabla 11. Intervalos de confianza producto de la clasificación del escenario de superpíxeles asociados a los rasgos
radiométricos.
75
4.2. Resultados De Clasificación Escenario De Superpíxeles Con Rasgo De
Textura
(a) (b)
Figura 74. Resultados de clasificación para el escenario de superpíxeles asociados a los rasgos de textura.
impermeable
Vegetación
Superficie
Clase
Edificio
Carro
Árbol
Baja
Tabla 12. Matriz de confusión resultante de la clasificación de los superpíxeles obtenidos a partir del espacio de
representación convencional asociados a los rasgos de textura.
76
impermeable
Vegetación
Superficie
Clase
Edificio
Carro
Árbol
Baja
Edificio 66,62 4,71 7,97 15 5,71
Superficie impermeable 70,88 3,79 7,87 10,94 6,52
Árbol 32,36 8,27 25,39 29,48 4,5
Vegetación Baja 41,69 8,11 17,38 25,28 7,54
Carro 32,07 20,63 23,55 20,27 3,48
Tabla 13. Matriz de confusión resultante de la clasificación de los superpíxeles obtenidos a partir del espacio complejo
cartesiano asociados a los rasgos de textura.
Exactitud
Superpíxel Rasgos Textura Convencional 21,67%
Superpíxel Rasgos Textura Celulares Cartesianos 23,33%
Tabla 14. Exactitud resultante del proceso de clasificación, calculada a partir de la matriz de confusión de cada uno de
los espacios.
Mínimo Máximo
Superpíxel Rasgos de Textura - Convencional 1,07% 21,48%
Superpíxel Rasgos de Textura - Celulares Cartesianos 4,84% 40,78%
Tabla 15. Intervalos de confianza producto de la clasificación del escenario de superpíxeles asociado a los rasgos de
textura.
77
(a) (b)
Figura 75. Resultados de clasificación para superpíxeles con rasgos radiométricos más rasgos de textura
impermeable
Vegetación
Superficie
Clase
Edificio
Carro
Árbol
Baja
Edificio 68,9 27,89 0,72 2,45 0,04
Superficie impermeable 9,37 83,44 2,12 4,73 0,35
Árbol 2,74 1,08 80,44 15,72 0,02
Vegetación Baja 18,15 17,17 28,32 35,86 0,5
Carro 26,56 55,05 2,42 2,87 13,1
Tabla 16. Matriz de confusión resultante de la clasificación de los superpíxeles a partir del espacio de representación
convencional superpíxeles asociados a los rasgos radiométricos más los rasgos de textura.
Vegetación
Superficie
Clase
Edificio
Carro
Árbol
Baja
Tabla 17. Matriz de confusión resultante de la clasificación de los superpíxeles obtenidos a partir del espacio complejo
cartesiano superpíxeles asociados a los rasgos radiométricos más los rasgos de textura.
78
A partir de la matriz de confusión se procede al calcular la exactitud obtenida para cada
clasificación y sus respectivos intervalos de confianza (ver Tabla 18 Tabla 19).
Exactitud
Superpíxel Rasgos Radiométricos más Rasgos de Textura - Convencional 72,88%
Superpíxel Rasgos Radiométricos más Rasgos de Textura - Complejos Cartesianos 73,58%
Tabla 18. Exactitud resultante del proceso de clasificación calculada a partir de la matriz de confusión de cada uno de
los espacios.
Mínimo Máximo
Superpíxel Rasgos Radiométricos más Rasgos de Textura - Convencional 29,77% 80,28%
Superpíxel Rasgos Radiométricos más Rasgos de Textura - Complejos Cartesianos 27,94% 78,73%
Tabla 19. Intervalos de confianza producto de la clasificación del escenario de superpíxeles asociados a los rasgos
radiométricos más los rasgos de textura.
79
5. DISCUSIÓN DE RESULTADOS
Al comparar los límites trazados por los superpíxeles obtenidos con el flujo de procesos de
los complejos celulares cartesianos versus los trazados con el flujo de procesos para el
espacio convencional, es posible notar que los trazados a partir de los complejos celulares
cartesianos no tiene un trazo fino definido sobre la escena procesada (efecto también
evidenciable en el borde de la imagen); este trazo brusco de límites se debe a la
implementación para la transformada de cuenca, en espacial al método implementado para
la supresión de borde grueso o meseta descrito en la sección 3.2.1.5. Sin embargo, es
interesante ver como a pesar del detrimento en la deformación de los bordes trazados en el
espacio de cuencas por el espacio de los complejos cartesianos, se mantiene el nivel de
precisión al momento de ser clasificada la escena tal y como se expone en las Tabla 10, Tabla
14 y Tabla 18.
Basados en la Figura 63a y Figura 68b y en los resultados expuestos en la Tabla 10, se puede
deducir que la cobertura entregada por los superpíxeles trazados con el procedimiento de los
complejos cartesianos es un poco más amplia que la calculada con el procedimiento para
espacios convencionales; esta mayor capacidad de cobertura sobre los objetos de la imagen
permite obtener un mejor resultado al momento de realizar la clasificación (ver Figura 73),
permitiendo que elementos no clasificados con el procedimiento del espacio convencional,
reciban clase en el procedimiento de los complejos celulares cartesianos, lo cual repercute en
un leve aumento de la precisión general de la escena clasificada.
De acuerdo a los resultados de precisión obtenidos para los escenarios de clasificación del
numeral 3.2.3.2 y 3.2.3.4, el aumento de la precisión con la inclusión de la capa de textura
para cada escenario no es significativo desde el punto de vista porcentual, sin embargo, es
80
interesante como la inclusión de un nuevo rasgo de caracterización no deteriora la
clasificación de la escena, sino, que por el contrario la mejora levemente.
Según lo expuesto por las matrices de confusión en cada uno de los escenarios de
clasificación (Tabla 8, Tabla 9, Tabla 12, Tabla 13, Tabla 16, Tabla 17) el resultado de
predicción para la clase “carro” fue menor para todos los casos de los superpíxeles trazados
con los complejos celulares cartesianos. Acorde a lo expuesto en el primer párrafo del
presente numeral, el detrimento de los límites de cuencas trazados por la implementación
realizada en el espacio de los complejos celulares cartesianos, afecta los elementos de la
escena con poca cobertura; sin embargo, para los elementos con mayor cobertura (como es
el caso de las superficies impermeables) los resultados son más prometedores, ya que el
número de elementos logran una mayor clasificación.
Referente a los resultados obtenidos al medir los intervalos de confianza para cada escenario
de clasificación (Tabla 11, Tabla 15, Tabla 19) se observa como cada intervalo se solapa con
su contraparte, lo cual impide concluir cuál de los procedimientos de clasificación es mejor.
81
definidos en el modelo conceptual y que constituyen el modelo de clasificación basado en
los complejos de células abstractas.
83
6. CONCLUSIONES
Las conclusiones que se presentan en esta sección, se orientan desde dos perspectivas, la
primera, desde los resultados del experimento, y la segunda, desde el desarrollo y
construcción de la propuesta de investigación. A continuación del detalle de cada perspectiva.
Para evaluar el aporte real de la capa de textura en la fase de clasificación de imagen, se hace
necesario tener una capa de verdad del terreno orientada a las texturas de los objetos
clasificados, con ello aumentar la precisión en la fase de entrenamientos del algoritmo y
clasificación
84
sección 3.2.1.3, los filtros derivativos no contemplan variables como el espesor o ancho de
los bordes, causando detrimento en la precisión de los bordes trazados.
Las propiedades topológicas dispuestas para los espacios finitos por los complejos
cartesianos, pueden beneficiar a otras técnicas de procesamiento de imagen que se encuentre
definidas a partir de vecindarios de conexión que no presentan ambigüedades.
Sin embargo, y aunque los resultados obtenidos son levemente mejores comparado contra
una clasificación basado en un espacio de representación convencional, el resultado de las
pruebas de confianza presentadas en la sección 4, no permiten concluir que sea mejor. Esto
se debe a que el resultado final puede estar siendo afectado a causa de la imprecisión al
momento de realizar el adelgazamiento de borde grueso en la construcción del espacio de
cuencas. Lograr construir un espacio de cuencas libre de bordes gruesos permitirá obtener
superpíxeles más exactos y fieles al límite del objeto que encierran, lo que repercutirá en un
aumento de la exactitud global de la clasificación.
85
7. TRABAJO FUTURO
Aunque los escenarios de clasificación expuestos en las secciones 3.2.3.2, 3.2.3.3 y 3.2.3.4
evidencia resultados más precisos para los superpíxeles obtenidos a partir de los complejos
cartesianos, dicha mejora no es altamente significativa (no más del 2%); sin embargo, dicho
resultado puede ser mejorado con correcciones sobre la actual implementación de
transformada de cuenca para los complejos cartesianos, buscando desarrollar un método que
permita la reducción de límite grueso o planicie sin causar mal formación de los nuevos
límites trazados. Una posible mejora se orienta a aplicar la reducción de borde grueso de
acuerdo a lo propuesto por [68].
Otro punto de mejora para reducir la sobre segmentación obtenida con la transformada de
cuenca se orienta a la implementación de una fase adicional, en la cual los límites de cuenca
se les asocie un valor de probabilidad de ser límite; esta fase que se encuentra implementada
en [75] determina para cada una de las bandas hiperespectrales un mapa de gradientes usando
la técnica de “Degradado Morfológico Robusto de Color” [75]; este algoritmo de
segmentación evalúa si hay o no evidencia de una frontera entre dos componentes midiendo
la disimilitud entre los elementos mediante una función de umbral para controlar el grado de
diferencia entre cada uno de los componentes a partir del gradiente de la imagen logrando así
resaltar los contornos de los objetos inmersos en la escena multiespectral
86
BIBLIOGRAFÍA
[1] Christer O. Kiselman, “Digital Jordan Curve Theorem,” 2000, pp. 46–56.
[2] E. Khalimsky, R. Kopperman, and P. R. Meyer, “Computer graphics and connected
topologies on finite ordered sets,” Topol. Its Appl., vol. 36, no. 1, pp. 1–17, Jul. 1990.
[3] V. Kovalevsky, “Axiomatic Digital Topology,” 2006.
[4] A. Rosenfeld, “Connectivity in Digital Pictures,” J. ACM, vol. 17, no. 1, pp. 146–160,
Jan. 1970.
[5] Ralph Kopperman and John L. Pfaltz, “Jordan Surfaces in Discrete Antimatroid
Topologies,” 2004, pp. 34–350.
[6] V. Kovalevsky, “Finite Topology As Applied To Image Analysis,” 1988.
[7] V. Kovalevsky, “Digital Geometry Based on the Topology of Abstract Cell
Complexes,” Proceedings of the Colloquium “Discrete Geometry for Computer
Imagery,” 1993.
[8] Robert Fisher, “CVonline: The Evolving, Distributed, Non-Proprietary, On-Line
Compendium of Computer Vision.” [Online]. Available:
http://homepages.inf.ed.ac.uk/rbf/CVonline/LOCAL_COPIES/MORSE/connectivity.p
df.
[9] Ullrich Kothe, “Generic Programming Techniques that Make Planar Cell Complex
Easy to Use,” 2001, pp. 17–37.
[10] Vladimir Kovalevsky, “Finite Topology As Applied To Image Analysis,” 7 de
Septiembre 1988.
[11] J. R. Munkres, Elements of Algebraic Topology. Perseus Books, 1984.
[12] A. Rosenfeld, “Connectivity in Digital Pictures,” J. ACM, vol. 17, no. 1, pp. 146–160,
Jan. 1970.
[13] F. García Arenas, “El Teorema de la Curva de Jordan,” Divulg. Matemáticas, vol. 6,
no. 1, pp. 43–60, 1998.
[14] Pablo Arbelaéz, Michael Maire, Charless Fowlkes, and Jitendra Malik, “Contour
Detection and Hierarchical Image Segmentation,” IEEE Trans. PATTERN Anal. Mach.
Intell., vol. 33, no. 5, p. 19.
[15] R. E. W. Rafael C. Gonzales, Digital Image Processing, Third Edition. Pearson
International Edition.
[16] Nelson Hernández, “Fundamentos de Procesamiento Digital de Imágenes,” Revista
Tecnología, vol. 3, no. 2, pp. 99–103.
[17] T. M. Lillesand, R. W. Kiefer, and J. W. Chipman, “Remote sensing and image
interpretation.,” no. Ed.5, p. xiv + 763 pp., 2004.
[18] J. R. J. Dale A. Quattrochi, “Remote Sensing in Geography in the New Millennium:
Prospects, Challenges, and Opportunities,” 1999.
[19] “Fundamentos físicos de la teledetección,” Fotointerpretación y Teledetección.
[Online]. Available: http://www.um.es/geograf/sig/teledet/.
[20] W. Long and S. Srihar, “Land cover classification of SSC image: unsupervised and
supervised classification using ERDAS imagine,” 2004, vol. 4, pp. 2707–2712.
[21] Gayatril Vijay Patil, Pranali Vivekanand More, Nanddinee Datatrey PAwar, “SVM
approach for color image classification using shape and texture,” 4, vol. 3, pp. 139–146.
[22] J. L. Chávez, Tratamiento Digital de Imágenes Multiespectrales. Lulu.com.
87
[23] Eliseo Martínez H, “Cluster: K-medias.” [Online]. Available:
http://www.uantof.cl/facultades/csbasicas/Matematicas/academicos/emartinez/magiste
r/cluster1.pdf.
[24] Yanina Gimenez, “Clasificación No Supervisada: El método de K-Medias.” [Online].
Available:
http://cms.dm.uba.ar/academico/carreras/licenciatura/tesis/2010/Gimenez_Yanina.pdf.
[25] Campo Elías Pardoa and , Pedro César Del Campob, “Combinación de métodos
factoriales y de análisis de conglomerados en R: el paquete FactoClass,” vol. 30, pp.
231–245.
[26] Brand Tso and Paul M. Mather, Classification Methods For Remotely Sensed Data,
Second. CRC Press, 2009.
[27] M. A. Aizerman, E. A. Braverman, and L. Rozonoer, “Theoretical foundations of the
potential function method in pattern recognition learning.,” in Automation and Remote
Control, 1964, pp. 821–837.
[28] B. E. Boser, I. M. Guyon, and V. N. Vapnik, “A Training Algorithm for Optimal Margin
Classifiers,” in Proceedings of the Fifth Annual Workshop on Computational Learning
Theory, New York, NY, USA, 1992, pp. 144–152.
[29] P. R. Halmos, A Hilbert Space Problem Book. Springer Science & Business Media,
1982.
[30] V. N. Vapnik, The Nature of Statistical Learning Theory. New York, NY: Springer New
York, 2000.
[31] V. Kovalevsky, “Algorithms in Digital Geometry Based on Cellular Topology,”
Springer-Verl. Berl. Heidelb., pp. 366–393, 2004.
[32] V. Kovalevsky, “Algorithms and Data Structures for Computer Topology,” Digit.
Image Geom., pp. 38–58, 2001.
[33] J. Valero, I. Lizarazo, and P. Elsner, “Topological challenges in multispectral image
segmentation,” Tecnura, vol. 18, 2014.
[34] J. Valero, “Development of an Alternative Method for Multispectral Image
Segmentation Based on Cartesian Complexes and Its Associated Oriented Matroids,”
Institucionalización del proyecto de Investigación, Universidad Distrital Francisco José
de Caldas, 2014.
[35] Serra, J., Image Analysis and Mathematical Morphology. New York: Academic Press,
1982.
[36] Jos B.T.M. Roerdink and Arnold Meijster, “The Watershed Transform: Denitions,
Algorithms and Parallelization Strategies,” Fundam. Informaticae, vol. 41, 2001.
[37] L. Vincent and P. Soille, “Watersheds in digital spaces: an efficient algorithm based on
immersion simulations,” IEEE Trans. Pattern Anal. Mach. Intell., vol. 13, no. 6, pp.
583–598, Jun. 1991.
[38] S. Peng and L. Gu, “A Novel Implementation of Watershed Transform Using Multi-
Degree Immersion Simulation,” in 2005 IEEE Engineering in Medicine and Biology
27th Annual Conference, 2005, pp. 1754–1757.
[39] Olivier Lézoray and Leo Grady, Image Processing And Analysis With Graphs. Taylor
& Francis Group.
[40] Christopher Mei, “Watershed Algorithm - Christopher Mei.” [Online]. Available:
http://rsb.info.nih.gov/ij/plugins/watershed.html. [Accessed: 15-May-2016].
88
[41] G. M. Foody, “Classification accuracy comparison: Hypothesis tests and the use of
confidence intervals in evaluations of difference, equivalence and non-inferiority,”
Remote Sens. Environ., vol. 113, no. 8, pp. 1658–1663, Aug. 2009.
[42] P.-N. Tan, M. Steinbach, and V. Kumar, Introduction to Data Mining, 1 edition. Boston:
Pearson, 2005.
[43] H. Al-Jubouri, H. Du, and H. Sellahewa, “Adaptive clustering based segmentation for
image classification,” 2013, pp. 128–133.
[44] Hossein Nezamabadi-pour and Saeid Saryazdi, “Object-Based Image Indexing and
Retrieval in DCT Domain using Clustering Techniques,” vol. 1, pp. 768–771.
[45] D. Chai and A. Bouzerdoum, “A Bayesian approach to skin color classification in
YCbCr color space,” 2000, vol. 2, pp. 421–424.
[46] L. Zhao and J. Tang, “Content-based image retrieval using optimal feature combination
and relevance feedback,” 2010, pp. V4-436-V4-442.
[47] J. Cousty, G. Bertrand, L. Najman, and M. Couprie, “Watershed Cuts: Minimum
Spanning Forests and the Drop of Water Principle,” IEEE Trans. Pattern Anal. Mach.
Intell., vol. 31, no. 8, pp. 1362–1374, Aug. 2009.
[48] T. Leung and J. Malik, “Detecting, localizing and grouping repeated scene elements
from an image,” in Computer Vision — ECCV ’96, B. Buxton and R. Cipolla, Eds.
Springer Berlin Heidelberg, 1996, pp. 546–555.
[49] E. Dominguez, A. R. Frances, and A. Marquez, “A framework for digital topology,”
1993, pp. 65–70.
[50] G. Sai Sundara Krishnan and N. Vijaya, “Algorithm on tracing the boundary of medical
images using abstract cellular complex,” 2012, pp. 141–144.
[51] R. E. W. Rafael C. Gonzales, Digital Image Processing, Third Edition. Pearson
International Edition.
[52] T. Pavlidis, “Structural Pattern Recognition: Primitives and Juxtaposition Relations,”
in Frontiers of Pattern Recognition, S. Watanabe, Ed. Academic Press, 1972, pp. 421–
451.
[53] C. Escribano, A. Giraldo, M. A. Sastre, and M. Trotta, “Digital topology java applet,”
2008, p. 329.
[54] U. Eckhardt and L. J. Latecki, “Topologies for the digital spaces Z2 and Z3,” Comput.
Vis. Image Underst., vol. 90, no. 3, pp. 295–312, Jun. 2003.
[55] J. Lamy, “Integrating digital topology in image-processing libraries,” Comput. Methods
Programs Biomed., vol. 85, no. 1, pp. 51–58, Jan. 2007.
[56] R. K. Valentin E. Brimkov, “Curves, Hypersurfaces, and Good Pairs of Adjacency
Relations,” in Combinatorial Image Analysis, pp. 276–290.
[57] A. D. M. J.C. Ciria E.Domınguez, A. R.Frances, and A.Quintero, “A Maximum Set of
(26, 6)-Connected Digital Surfaces,” in Combinatorial Image Analysis, pp. 291–306.
[58] J. Valero, I. Lizarazo, and P. Arbelaez, “Multispectral Image Segmentation Based On
Cartesian Complexes And Their Associated Oriented Matroids,” 2016.
[59] International Society for Photogrammetry and, “2D Semantic Labeling Contest,” 2017.
.
[60] J. Valero, “Development of an Alternative Method for Multispectral Image
Segmentation Based on Cartesian Complexes and Its Associated Oriented Matroids,”
Documento candidatura a doctor, Universidad Distrital Francisco José de Caldas, 2015.
[61] R. Szeliski, Computer Vision. London: Springer London, 2011.
89
[62] Orlando Riaño Melo, Álgebra lineal en el procesamiento digital de imágenes.
Universidad Distrital Francisco José de Caldas, 2010.
[63] Jorge Lira Chávez, Tratamiento Digital de Imágenes Multiespectrales, Segunda, 2010.
.
[64] P.-E. Danielsson, “Euclidean distance mapping,” Comput. Graph. Image Process., vol.
14, no. 3, pp. 227–248, Nov. 1980.
[65] T. Naqash and I. Shafi, “Edge sharpening in grayscale images using modified Sobel
technique,” in Multitopic Conference (INMIC), 2011 IEEE 14th International, 2011,
pp. 132–136.
[66] Y. Dou, K. Hao, and Y. Ding, “A short step affine transformation Sobel algorithm based
image edge detection in low illumination,” in Chinese Automation Congress (CAC),
2015, 2015, pp. 594–597.
[67] C. Deng, W. Ma, and Y. Yin, “An edge detection approach of image fusion based on
improved Sobel operator,” in 2011 4th International Congress on Image and Signal
Processing (CISP), 2011, vol. 3, pp. 1189–1193.
[68] J. Nikodem, “Plateau problem in the watershed transform,” Comput. Inform., vol. 28,
no. 2, pp. 195–207, 2012.
[69] M. M. Hossain and M. S. Miah, “Evaluation of different SVM kernels for predicting
customer churn,” in 2015 18th International Conference on Computer and Information
Technology (ICCIT), 2015, pp. 1–4.
[70] T. Fawcett, “An Introduction to ROC Analysis,” Pattern Recogn Lett, vol. 27, no. 8, pp.
861–874, Jun. 2006.
[71] E. Gamma, R. Helm, R. Johnson, and J. Vlissides, Design Patterns: Elements of
Reusable Object-Oriented Software (Adobe Reader). Pearson Education, 1994.
[72] C. Mythili and V. Kavitha, “Efficient technique for color image noise reduction,” Res.
Bull. Jordan ACM, vol. 1, no. 11, pp. 41–44, 2011.
[73] J. E. R. C. Jaime Alberto Echeverri Arias, “Eliminación de ruido impulsivo en imágenes
a color, utilizando interpolación con funciones de base radial,” Ingeniería, vol. 16, pp.
27–35.
[74] P.-N. Tan, M. Steinbach, and V. Kumar, Introduction to Data Mining. Addison-Wesley,
2013.
[75] A. N. Evans and X. U. Liu, “A morphological gradient approach to color edge
detection,” IEEE Trans. Image Process., vol. 15, no. 6, pp. 1454–1463, Jun. 2006.
90
ANEXOS
Diagramas De Clase
Es el paquete principal que soporta cada uno de los módulos del marco computacional.
Contiene la clase principal y corazón del proyecto CartesianComplex, que representa el
espacio finito de un complejo cartesiano bidimensional, en donde cada elemento del espacio
es una célula (ver Figura 76).
Es el paquete que contiene las clases que definen las estructuras celulares que componen un
espacio complejo cartesiano (ver Figura 77).
Monochromatic
Es el paquete que contiene la clase que representa a un espacio complejo cartesiano de niveles
de gris, MonochromaticCartesianComplex, así como las clases auxiliares requeridas en la
ejemplificación de un espacio de niveles de gris (ver Figura 78).
Directionalfilter
Es el paquete que contiene la clase que representa a un espacio complejo cartesiano filtrado,
TexonsCartesianComplex, así como las clases auxiliares requeridas en la ejemplificación de
un espacio filtrado (ver Figura 79).
Clustering
Watershed
91
Figura 76. Diagrama de clases paquete cartesianComplexCore.
92
Figura 77. Diagrama de clases paquete structure.
93
Figura 78, Diagrama de clases paquete monochromatic.
94
Figura 79. Diagrama de clases paquete directionalFilter.
95
Figura 80. Diagrama de clases paquete clustering.
96
Figura 81. Diagrama de clases paquete watershed.
97
Galería De Imágenes
Figura 82. Espacio convencional filtrado. En la imagen se puede observar como los bordes de los objetos en la escena se
resaltan.
98