Está en la página 1de 15

Implementación y evaluación de la fusión de

imágenes usando Google Earth Engine y Matlab


con imágenes Landsat 8

Edwin Hurtado1, Javier Medina2

ehhurtadoc@correo.udistrital.edu.co , rmedina@udistrital.edu.co

1-2 ProyectoCurricular Maestría en Ciencias de la información, Facultad de ingeniería, Universidad


Distrital Francisco José de Caldas (UDFJC). Carrera 7 No. 40B - 53. 110231, Bogotá D. C., Colombia.

Resumen: En este artículo se desarrolla el algoritmo matemático de la


Transformada RGB-HSV para la fusión de imágenes de satélite. Tres temáticas
importantes son abordadas; la primera corresponde a una introducción
matemática para implementar la fusión de imágenes usando la transformada
RGB-HSV. La segunda corresponde a la implementación del desarrollo
algorítmico de la Transformada en Google Earth Engine y Matlab, usando una
imagen satelital Landsat 8 OLI TIRS. La tercera se dedica a la evaluación con el
fin de determinar la eficiencia de la Transformada RGB-HSV. Las dos imágenes
fusionadas resultantes fueron evaluadas tanto en calidad espacial como
espectral a través de cuatro índices: el coeficiente de correlación, y los índices
RASE, ERGAS y de calidad universal Q. Los mejores resultados de la evaluación
fueron obtenidos con la imagen fusionada con el algoritmo RGB-HSV
implementada en Matlab la cual preserva la riqueza espectral y mejora su
calidad espacial.
Palabras-clave: Fusión; RGB-HSV; GEE; Imágenes satelitales.

Implementation and assessement of image fusion using Google


Earth Engine and Matlab with Landsat 8 images
Abstract: This article develops the mathematical algorithm of the RGB-HSV
Transform for merging satellite images. Three important topics are addressed;
the first topic corresponds to a mathematical introduction to implement image
fusion using the RGB-HSV transform. The second theme corresponds to the
implementation of the algorithmic development of the transform using Google
Earth Engine and Matlab, using a Landsat 8 OLI TIRS satellite image. The third
topic is dedicated to the evaluation in order to determine the efficiency of the
RGB-HSV Transform. The two resulting merged images were evaluated for both
spatial and spectral quality through four indices, namely: the correlation
coefficient, the RASE index, the ERGAS index, and the universal quality index
Q. The best results of the evaluation were obtained with the image fused with
the RGB-HSV algorithm, implemented in Matlab, which preserves the spectral
richness and improves its spatial quality.
Keywords: Fusion; RGB-HSV; GEE; Satellite images

1. Introducción
En procesamiento de imágenes, una imagen pancromática, es aquella que
generalmente contiene un par de cientos de nanómetros de ancho de banda, el cual
permite mantener un alto ruido de señal, lo que hace que los datos pancromáticos
estén disponibles con una alta resolución espacial. Estas imágenes se pueden
recopilar con una resolución más alta, ya que el rango espectral permite que los
detectores más pequeños se utilicen mientras se mantiene la alta relación señal-
ruido (https://eos.com/panchromatic/). A diferencia de la imagen pancromática,
una imagen multiespectral se compone de varias bandas generalmente
correlacionadas de diferentes longitudes de onda, pero con una calidad espacial
menor que la pancromática. Así, en una imagen pancromática de alta resolución
espacial (PAN), las características geométricas generales pueden identificarse sin
esfuerzo, mientras que las imágenes multiespectrales (MS) incorporan información
espectral más próspera. Las capacidades de las imágenes pueden mejorarse si los
beneficios de una alta resolución espacial y espectral juntas se pueden combinar en
una sola imagen (Shi, 2011) (Jagadeesh, 2018). Por lo tanto, las estructuras
integrales de una imagen tan cohesiva pueden reconocerse básicamente y ayudarán
a numerosas aplicaciones, por ejemplo, estudios urbanísticos y ambientales. Es por
esto, que diversos métodos de fusión se han desarrollado, tales como la
transformación RGB a IHS, Brovey, Multiplicación, Componentes principales, A
Trous, entre otros.

Por otra parte, Google Earth Engine (GEE) es una herramienta que provee un
entorno web y un API (Interfaz de programación de aplicaciones) en JavaScript y
Python para el procesamiento de imágenes satelitales en diferentes bandas,
coordenadas e instantes de tiempo, que son proveídas por la NASA y la UGSG a partir
de los sensores de varios de sus satélites, entre ellos Landsat 8. Así entonces, este
trabajo se centra en tres aspectos principales. El primero es una introducción
matemática de la transformada RGB-HSV. El segundo se encarga de la
implementación de la metodología para la fusión de imágenes satelitales usando
Transformada RGB-HSV, con las herramientas GEE y Matlab. El tercero hace
referencia a la comprobación del rendimiento de las implementaciones y su
evaluación cualitativa, que se realiza con cuatro índices, específicamente, el
coeficiente de correlación, el índice RASE, el índice ERGAS, y el índice de calidad
universal Q.
2. Google Earth Engine
Google Earth Engine (GEE) es una plataforma en desarrollo basada en la nube que
brinda acceso a petabytes de datos de imágenes satelitales para el análisis a escala
planetaria. La combinación de esta enorme base de datos con el poder de cómputo
paralelo de la infraestructura de Google facilita el análisis rápido y sencillo de
imágenes de satélite a cualquier escala, lo que abre nuevas vías para la investigación
en varios campos (Liss et al., 2017). Además, provee una biblioteca de interfaces de
programación de aplicaciones (API) con entornos de desarrollo que admiten
lenguajes de codificación como JavaScript y Python. Estas características permiten
a los usuarios descubrir, analizar y visualizar Big Data geoespacial de formas
poderosas sin necesidad de acceso a supercomputadoras o experiencia en
codificación especializada (Tamiminia et al., 2020). Además, GEE brinda
herramientas analíticas (similares a otros softwares de geoprocesamiento como
ArcGIS) para investigar y manipular imágenes satelitales, y los usuarios también
tienen la libertad de crear scripts personalizados específicos para preguntas de
investigación específicas. GEE y su catálogo de datos son accesibles para los usuarios
aprobados a través de dos plataformas basadas en la web y sus API. Las herramientas
web son GEE Explorer (el cual permite al usuario ver y analizar imágenes de satélite
con un conjunto limitado de herramientas incluidas) y Code Editor que permite a los
usuarios personalizar completamente el análisis deseado mediante la programación
en código JavaScript. Sus API son proporcionadas en JavaScript o Python mediante
bibliotecas de código abierto. GEE proporciona cientos de operaciones matemáticas
y espaciales que se pueden realizar en imágenes usando el Code Editor o las API,
entre ellos, la posibilidad de seleccionar un conjunto de imágenes del satélite
Landsat y filtrarlos por un rango de fechas, seleccionar la imagen con menor
nubosidad, seleccionar diferentes bandas, hacer correlaciones, entre otros. Así, las
dos estructuras de datos geográficos más fundamentales en GEE son Image
(Imagen) y Feature (Característica) correspondientes a tipos de datos ráster y
vectoriales, respectivamente. Las imágenes están compuestas por bandas y un
diccionario de propiedades, mientras que las características se componen de una
geometría y un diccionario de propiedades. Una pila de imágenes (por ejemplo, una
serie temporal de imágenes) es manejada por ImageCollection mientras que una
colección de características es manejada por FeatureCollection. Otras estructuras de
datos fundamentales en GEE incluyen Diccionario, Lista, Matriz, Fecha, Número y
Cadena (https://developers.google.com/earth-engine/guides/getstarted). Además,
es posible a algunos objetos (como Image) aplicar métodos y algoritmos, como
agregar y concatenar bandas, seleccionar una imagen de una colección o actualizar
una máscara. En las siguientes secciones se describirá sucintamente la herramienta
y algunos objetos y métodos usados.
2.1 Code Editor
El editor de código es una herramienta web que ofrece la posibilidad de explorar las
imágenes de forma visual, así como de hacer consultas y transformaciones mediante
código que puede ser desarrollado por el usuario o ejemplos proporcionados por la
misma interfaz.

Figura 1 – Interfaz de Google Earth Engine


En la parte izquierda se encuentra un explorador de scripts, donde pueden verse los
archivos de los usuarios (owner para los archivos del dueño del repositorio, writer
para los que no son del dueño pero que puede escribir y reader para los archivos que
solo se pueden leer), así como algunos ejemplos. En esta sección también se
encuentra la pestaña de Documentación en la que puede verse los comandos,
algoritmos y funciones aplicables a las imágenes, y Recursos, que son archivos que
pueden ser usados por el usuario (como imágenes). En la parte central, se encuentra
el editor de código, que permite editar y ejecutar código en JavaScript (en los
siguientes apartados se describirán algunos de los métodos y funciones usados). En
la parte derecha se encuentran 3 pestañas, la primera permite visualizar las
propiedades de las capas, en la segunda se visualizan los mensajes del código, tanto
los que son especificados por el usuario (mediante el método print), como los
errores, y en la última pestaña se encuentran las tareas, las cuales son operaciones
computacionales que requieren gran poder de cómputo. En la parte inferior se
encuentra el mapa, el cual es una vista interactiva que permite seleccionar zonas,
acercarlas y alejarlas, y manejar diferentes capas, entre ellas la vista de satélite.

2.2 Image y ImageCollection


Como se mencionó anteriormente, una imagen representa datos ráster, está
compuesta por bandas y un diccionario de propiedades. Cada banda tiene su propio
nombre, tipo de datos, escala, máscara y proyección. Una imagen se puede cargar
con un identificador (el cual se puede encontrar el identificador de imagen en el
catálogo de datos, con la herramienta de búsqueda de GEE o usando un recurso
(asset) personal) de GEE en el constructor ee.Image. Un ImageCollection es una pila
o secuencia de imágenes. Como con Image, es posible cargar un ImageCollection
con un identificador de recurso de GEE. Por ejemplo, uno de los identificadores de
los satélites Sentinel es 'COPERNICUS/S2_SR' mientras que para Landsat es
'LANDSAT/LC08/C01/T1_TOA'.

2.3 Geometry
GEE maneja datos vectoriales con el tipo Geometry. La especificación GeoJSON
describe en detalle el tipo de geometrías admitidas por GEE, incluyendo Point (una
lista de coordenadas en alguna proyección), LineString (una lista de puntos),
LinearRing (una LineString cerrada) y Polygon (una lista de LinearRings donde el
primero es una concha y los anillos subsiguientes son agujeros). GEE también es
compatible con MultiPoint, MultiLineString y MultiPolygon. GeoJSON
GeometryCollection también es compatible, aunque tiene el nombre MultiGeometry
dentro de GEE. Es posible crear una geometría mediante las herramientas de
geometría del Code Editor o pasando las coordenadas como argumento.

2.4 Filtrado y orden


GEE proporciona una variedad de métodos prácticos para filtrar colecciones de
imágenes. Específicamente, imageCollection.filterDate() (que filtra por un rango de
fechas) e imageCollection.filterBounds() (que crea un filtro que pasa si la geometría
del objeto se cruza con la geometría dada) manejan muchos casos de uso comunes.
Para el filtrado de propósito general, es posible usar el método
imageCollection.filter() con un ee.Filter como argumento. Además, es posible crear
filtros que permitan evaluar operadores unarios creando expresiones donde su
resultado depende de si es mayor, menor o igual a la condición dada. Por otra parte,
con GEE es posible ordenar colecciones mediante algunas propiedades clave como
CLOUD_COVER.

2.5 Capas
Para visualizar los datos geográficos, GEE proporciona el objeto método addLayer
sobre el objeto Map, el cual, al ser agregado sin ningún parámetro especial, asigna
las 3 primeras bandas a rojo, verde y azul respectivamente. El estiramiento
predeterminado se basa en el tipo de datos de la banda (por ejemplo, los flotantes se
extienden en [0,1], los datos de 16 bits se extienden al rango completo de valores
posibles), lo que puede ser adecuado o no. Para lograr efectos de visualización
deseables, puede proporcionar parámetros de visualización a Map.addLayer().

2.6 Exportar imágenes


Una de las características más importantes es capacidad de exportar datos como
imágenes, mapas, tablas, video y baldosas, a una cuenta de Google Drive, a una
cuenta de Google Cloud Storage o dejarlas como un recurso. Para almacenarlas en
Google Cloud Storage, es necesario activar el servicio de billing, dado que es un
servicio de pago. Es posible exportar imágenes en los formatos GeoTIFF o TFRecord
Los métodos usados se aplican al objeto Export.image son: toDrive(),
toCloudStorage() y toAsset(), para exportarlos a Drive, Storage o como recurso,
respectivamente. Los parámetros de configuración para exportar imágenes incluyen:
image (la imagen a exportar), description (la descripción aportada por el usuario)
scale (la escala de resolución de la imagen), region (la geometría que se seleccionó
para el análisis), fileFormat (el tipo de archivo que se va a exportar), maxPixels (que
previene que grandes exportaciones sean creadas), formatOptions (algunas
opciones de optimización del formato), fileNamePrefix (el prefijo de la imagen)
Luego de ejecutar el método toDrive(), se creará una tarea en el área tasks, que debe
ser ejecutada por el usuario, especificando el directorio donde va a ser guardada la
imagen.
3. Transformación RGB-HSV
Un modelo o espacio de color indica la manera en que un color está definido.
Generalmente, un espacio de color está determinado por una base de n vectores,
cuyas combinaciones lineales generan todos los elementos del espacio. Entre mayor
sea el número de vectores, el espacio comprenderá una mayor cantidad de colores
reales. Por mencionar algunos ejemplos (González & Woods, 2008; Foley & Van
Dam, 1982): un espacio de una dimensión corresponde a la escala de grises; un
espacio de dos dimensiones representa los planos RG, GB y BR que son variedades
del amarillo, cian y magenta respectivamente; un espacio tridimensional es el
espacio RGB (Red, Green, Blue), HSV (Hue, Saturation, Value), HSI (Hue,
Saturation, Intensity) o YIQ (luminance, in-phase, quadrature); un espacio de cuatro
dimensiones corresponde al CMYK (Cyan, Magenta, Yellow & Key/Black)
ampliamente utilizado en la impresión a color.
Para el procesamiento digital de imágenes, y en especial para la fusión de imágenes
de satélite se utiliza la conversión de espacios de color con el fin de inyectar la riqueza
espacial de la imagen pancromática, según el modelo, a las componentes de color
Intensidad, Luminancia o Value.
HSV tienen la definición de tono (h), pero los otros componentes son valores de
saturación (s) yvalue (v) de color HSV se definen como sigue:
Tono

0 0 si max = min

600  g − b + 00 , si max = r y g  b
 max − min
 g −b
h = 60 
0 0
+ 360 , si max = r y g  b (1)
 max − min
 0 b−r
60  max − min + 120 , si max = g
0


600  r − g + 2400 , si max = b
 max − min
El valor de h generalmente se normaliza para estar entre 0 y 360 °. Y h = 0 se usa
cuando max = min (definido como gris) en lugar de dejar h indefinido.

0 0 si max = 0

s =  max − min min (2)
 max = 1 − max , otros casos

v = max (3)

3.1 Fusion de imágenes


La fusión de imágenes de teledetección de muy alta resolución o pan-sharpening
consiste en añadir o inyectar la información espacial que contiene la imagen
pancromática a las bandas espectrales de la imagen Multiespectral, preservando las
características espectrales de ésta. Sin embargo, en este proceso se introducen
distorsiones, además de las inherentes al registro de los datos Multiespectral y
Pancromática. En este contexto, para intentar evitar este inconveniente, a lo largo de
la última década se han desarrollado multitud de algoritmos de pansharpening
(Vivone, Alparone et al. 2015). Sin embargo, no existe en la actualidad ninguno que
se postule como la solución óptima para la fusión de imágenes.

4. Materiales y Métodos
La fusión se realiza con una imagen Landsat 8 OLI – TIRS, verdadero color
(composición RGB) y una imagen pancromática del mismo sensor. La imagen
pancromática sirve como referencia de la resolución espacial de mayor detalle. La
implementación se realiza tanto usando GEE y Matlab.
Matlab (MATrix LABoratory) es un sistema de cómputo numérico que ofrece un
entorno de desarrollo integrado con un lenguaje de programación propio. El paquete
Matlab dispone de dos herramientas adicionales que expanden sus prestaciones, a
saber, Simulink (plataforma de simulación multidominio) y GUIDE (editor de
interfaces de usuario - GUI).
Por otra parte, GEE provee dos API para el procesamiento de sus imágenes, una en
Python (la cual es usada para un trabajo local, es un poco más limitada en cuanto a
sus funciones proporcionadas por GEE pero que puede ser muy poderosa combinada
con las bibliotecas en el entorno local), y la otra en JavaScript (la cual posee tanto
una biblioteca alojada en GitHub como su IDE basado en la Web y es mucho más
poderoso porque usa el poder de cómputo de Google). Esta última es la que será
usada dado que la idea es hacer la fusión con las herramientas que provee
directamente Google

4.1 Zona de Estudio


El área de estudio se localiza en Texas (Estados Unidos), específicamente en el sector
con las coordenadas [[[-114.75572869999999, 34.8163929], [-114.5557287,
34.8163929], [-114.5557287, 35.0163929], [-114.75572869999999, 35.0163929], [-
114.75572869999999, 34.8163929]]], de una sub imagen Landsat 8 OLI-TIRS tanto
pancromática (PAN) como multiespectral (MULTI). La sub imagen PAN tiene una
resolución espacial de quince (15) metros y es el promedio de un rango de fechas, su
sistema de referencia corresponde a Geographic (lat/lon) WGS 84. La sub imagen
MULTI cuenta con once canales, pero solo tres canales son usados en esta
investigación (R-rojo, G-verde y B-azul) y tiene una resolución espacial de treinta
(30) metros; fue adquirida la misma fecha que la PAN y tiene el mismo sistema de
referencia. Las dos imágenes fueron recortadas con un ancho de 2790 y de alto 2791
pixeles (figura 2).

a) b)
Figura 2 – a) Sub imagen MULTI y b) sub imagen PAN de tamaño 4096x4096.

4.2 Implementación de la Transformada RGB-HSV para la fusión de


imágenes Landsat 8 usando Google Earth Engine y Matlab
Sucintamente y como resultado de esta investigación se proponen cinco pasos para
la implementación de la transformada RGB-HSV para la fusión de imágenes
satelitales Landsat 8. Este proceso se realiza de la misma manera tanto en Google
Earth Engine y el software Matlab; además puede aplicarse a cualquier tipo de
imagen a fusionar.
Paso 1. Registrar una composición a color RGB (verdadero color) de la imagen
MULTI con la imagen PAN, usando el mismo tamaño de píxel de esta última (15
metros). Transformar la imagen RGB en componentes HSV (Tono y Saturación y
Value). Se iguala el histograma de la imagen PAN al del componente V para
obtener Pan-V=N-V.
Paso 2. Generar una nueva composición HSV (N-IHS), uniendo la N-V junto con
las componentes originales H y S (obtenidas en el paso 1). Realizar la
transformación IHS a RGB, usando la nueva composición N-HSV. De esta
manera se obtiene la nueva imagen multiespectral (Rfus, Gfus, Bfus) que
corresponde a la nueva imagen fusionada N-RGB, que degrada en menor
valor la resolución espectral ganando así la resolución espacial.

4.3 Evaluación de la efectividad de la implementación de la


Transformada RGB-HSV para la fusión de imágenes usando Google
Earth Engine
Para la evaluación y análisis de los resultados de las imágenes fusionadas usando la
RGB-HSV implementadas tanto en Matlab como en Python, se utilizaron los
siguientes índices: coeficiente de correlación (corr), índice RASE, índice ERGAS
índice de calidad universal Q, los cuales se describen a continuación.

1. Coeficiente de correlación (corr)


La correlación entre las diferentes bandas corr ( A / B) de las imágenes fusionadas y
las bandas de la imagen original se pueden calcular con la siguiente ecuación:
npix  − −
 
  A j − A  BJ − B 
j =1    (1)
corr ( A / B ) =
npix  − npix −
 
  A j − A   B j − B 


j =1  
j =1 
Donde A y B son los valores de la media de las imágenes correspondientes,
corr ( A / B) varía entre –1 y +1 y es una cantidad adimensional (ver tabla 1), es decir
no depende de las unidades empleadas. El valor ideal de la correlación, tanto
espectral como espacial, es 1 (Murray,1999).
2. Índice ERGAS
La evaluación de la calidad de las imágenes fusionadas se ha llevado a cabo mediante
los índices ERGAS espectral y espacial (ver tabla 2). La definición de ERGAS
espectral (Wald, 2002) viene dada por la ecuación 2:

h 1
 ( RMSE
N Bandas ( Banda )) 
i 2
  
Espectral
ERGAS Espectral = 100 (2)
l N Bandas i =1  ( MULTI )
i 2

 
Donde h y l representan la resolución espacial de las imágenes PAN y MULTI ;
i
NBandas es el número de bandas de la imagen fusionada; MULTI es el valor de la
radiancia de la banda i − ésima de imagen MULTI (Wald, 2000) y RMSE será
definida como sigue (3):

i 1 NP i i 2
RMSEEspectral ( Banda ) =  ( MULTI ( j ) − FUS ( j )) (3)
NP i =1
i
Siendo NP el número de píxeles de la imagen FUS ( x, y ) . Adicionalmente, Lillo y
su equipo (2005) proponen otro índice, denominado ERGAS Espacial que está
inspirado en el índice ERGAS espectral (Lillo-Saavedra, Gonzalo, Arquero, &
Martinez, 2005). El objetivo del índice ERGAS Espacial es evaluar la calidad espacial
de las imágenes fusionadas, por lo que se define como (4):

h 1
 ( RMSE
N Bandas ( Banda )) 
i 2
  
Espacial
ERGAS Espacial = 100 (4)
l N Bandas i =1  ( PAN )
i 2

 
Donde RMSEEspacial es definido como sigue en la ecuación 5:

i 1 NP i i 2
RMSE Espacial ( Banda ) =  ( PAN ( j ) − FUS ( j )) (5)
NP i =1
Los mejores resultados de éstos índices (ERGAS espacial y espectral) se obtienen
cuando es más cercano a cero.

3. Índice RASE
El índice RASE se expresa como un porcentaje (ecuación 6):
1 n  ( RMSE ( Bi )) 
2
h
RASE = 100   2  (6)
l N i =1  
 Mi

Donde h es la resolución de la imagen de alta resolución especial (PAN) y l es la


resolución de la imagen de baja resolución espacial (MULTI) (Wald, 2000). Los
mejores resultados se obtienen cuanto el porcentaje está más cerca a cero.

4. Índice de calidad universal Q


Este modelo de índice de calidad identifica cualquier distorsión como una
combinación de tres factores: pérdida de correlación, distorsión de luminancia y
contraste de distorsión (Wang & Bovink, 2002). El índice se obtiene con ecuación 7.
 xy 2x y 2 
Q=  2  2 x y2 (7)
 x y ( x ) + ( y )  x +  x
2

Los mejores valores de este índice se obtienen cuando el valor es más cercano a uno.

5. Resultados y análisis de resultados


Los resultados se presentan en un primer tiempo desde el punto de vista cualitativo,
y posteriormente se presentan cuantitativamente.

5.1 Resultados cualitativos de la implementación RGB-HSV para la


fusión de imágenes Landsat 8 en GEE y Matlab

La figura 4 muestra el resultado obtenido con la fusión de imágenes, usando tanto


GEE como Matlab, se muestra la imagen de referencia, a saber, tanto la imagen PAN
como la imagen MULTI. En cuanto a la figura 5, muestra un detalle de las sub-
escenas de las imágenes originales MULTI (figura 5a) y PAN (figura 5b), y su
respectiva imagen fusionada en GEE y Matlab. La imagen MULTI original no
permite una correcta identificación de cultivos, ni de los cuerpos de agua; de la
misma manera tampoco permite una clara identificación las diferentes estructuras
que no contiene tanto detalle, y que se visualizan claramente en la imagen PAN. De
manera contraría la imagen PAN no permite visualizar los colores que se presentan
en la zona con vegetación, ni las diferencias de tonalidad en las diferentes estructuras
hechas por el hombre que si son visibles en la imagen MULTI.

(a) (b)
(c) (d)
Figura 4 – a) Detalle de la sub-Imagen MULTI, b) Detalle de la sub-Imagen PAN, c) sub-
imagen fusiona con RGB-HSV implementada en GEE, d) sub-imagen fusiona con RGB-HSV
implementada en Matlab.

a) b)

c) d)

Figura 5 – a) Detalle de la sub-Imagen MULTI, b) Detalle de la sub-Imagen PAN, c) Detalle


de la sub-imagen fusiona con RGB-HSV usando GEE, d) Detalle de la sub-imagen fusiona
con RGB-HSV implementada en Matlab

Analizando las imágenes fusionadas mediante la transformada RGB-HSV


implementada en GEE (figura 5c) y Matlab (figura y 5d) se puede discriminar de
manera más clara la estructura urbana, los cuerpos de agua en las imágenes
fusionadas con respecto a la imagen multiespectral (figura 5a)

5.2 Resultados cuantitativos de la implementación de la RGB-HSV para


la fusión de imágenes Landsat-8
La evaluación de la efectividad de la implementación RGB-HSV en GEE y Matlab
para la fusión de imágenes Landsat 8, se presenta en las tablas del 1 al 3. La tabla 1
muestra los resultados de la correlación espacial y espectral de las imágenes
fusionadas en GEE y en Matlab.
Tabla 1 – Evaluación de la calidad cuantitativa de la imagen fusionada Landsat 8 a través de
la correlación espacial y espectral.

Fusión de corr Espacial corr Espectral


Imágenes por
R G B R G B
0.96
RGB-HSV Matlab 0.974 0.971 0.947 0.975 0.951
8
RGB-HSV GEE 0.963 0.951 0.924 0.963 0.951 0.924

Analizando los resultados de correlación tanto espacial como espectral se evidencia


que los máximos valores se obtienen en cada una de las tres bandas (RGB) para la
imagen fusionada implementada en Matlab. Además, se observa una diferencia
importante entre estos valores y los presentados por la imagen fusionada usando
GEE, esto pasa tanto en la corr Espacial (R= 0.974 vs 0.963, G= 0.971 vs 0.951, y B=

0.947 vs 0.924) como en la corr Espectral (R= 0.975 vs 0.963, G= 0.968 vs 0.951, y
B= 0.951 vs 0.924), las diferencias de los valores obtenidas varían como máximo en
0.011, tanto espacial como espectralmente.
En la tabla 2 se muestran los resultados obtenidos usando los índices RASE; ERGAS
espectral; y el índice de calidad universal Q.
Tabla 2 – Evaluación de la calidad de la imagen fusionada Landsat-8 a través de los índices
ERGAS Espectral, ERGAS Espectral, RASE, y de Calidad Universal Q espectral.

Fusión de ERGAS RASE


Imágenes por Espectral Q

RGB-HSV Matlab 5.682 11.364 0.940

RGB-HSV GEE 6.588 13.176 0.938

En cuanto a la tabla 3 esta se ocupa de la evaluación de la calidad espacial de los


mismos índices.
Tabla 3 – Evaluación de la calidad de la imagen fusionada Landsat-8 a través de los índices

ERGAS Espacial, ERGAS Espacial, RASE, y de Calidad Universal Q, espacial.

Fusión de ERGAS RASE


Imágenes por Espacial Q
RGB-HSV Matlab 7.084 14.168 0.933

RGB-HSV GEE 6.761. 13.522 0.933


En cuanto a los valores obtenidos en la evaluación espectral, el valor de ERGAS más
cercano a 0, es el obtenidos con la fusión realizada a través de RGB-HSV usando
Matlab. El porcentaje más cercano a cero del índice RASE, se obtiene igualmente con
la misma implementación. Finalmente, para el valor del índice Q el valor más
cercano a 1 es el obtenido igualmente con RGB-HSV usando Matlab.

El comportamiento de los valores obtenidos en la evaluación espacial los mejores


resultados se obtienen con la fusión de la implementación RGB-HSV usando GEE
tanto para ERGAS y RASE espacial, sin embargo, con respecto al índice Q el
resultado es igual 0.933, siendo en ambas implementaciones muy cercano a 1. Los
resultados evidencian un mejor desempeño de la implementación realizada en
Matlab, esta herramienta es de uso privativo, pero esto no limita su escalabilidad en
caso de querer implementar un servicio Web que permita la fusión en línea, como el
realizado por Medina, Joyanes & Pinilla (2013). Igualmente, es posible crear un
ejecutable de las rutinas implementadas para ejecutarse en cualquier otro equipo
inclusive si este no cuenta con el Software licenciado, como el que se puede
implementar usando GEE que permite obtener imágenes fusionadas de buena
calidad espacial degradando en menor valor la riqueza espectral

6. Conclusiones
Las investigaciones realizadas anteriormente han demostrado que los métodos de
fusión de imágenes basados en la Transformada RGB-HSV son adecuados para la
fusión de imágenes dentro de los métodos convencionales. La implementación
propuesta del desarrollo matemático de la RGB-HSV permitió la fusión de imágenes
satelitales Landsat 8 OLI. Los resultados obtenidos del análisis cualitativo y
cuantitativo demuestran que los mejores resultados de la imagen fusionada de
imágenes usando la RGB-HSV se obtiene con la implementación en Matlab que
visualmente ofrece mejores resultados que la implementación en Google Earth
Engine, cuantitativamente los valores de los índices corr, ERGAS, RASE y Q son altos
y similares tanto espacial como espectralmente.
La metodología propuesta permite obtener imágenes fusionadas que ofrecen a los
usuarios información detallada sobre los entornos urbanos y rurales, lo cual es útil
para aplicaciones como la planificación y la gestión urbana. Su utilidad se extiende
al desarrollo de proyectos en diversos campos como agricultura, hidrología,
medioambiente y gestión de emergencias producidas por catástrofes naturales
(inundaciones, incendios forestales), entre otros.
Referencias
Lillo-Saavedra, M. Gonzalo, C. Arquero, A. and Martinez, E. (2005). Fusion of
multispectral and panchromatic satellite sensor imagery based on tailored
filtering in the Fourier domain. International Journal of Remote Sensing. Vol.
26, pp. 1263-1268.
Liss, B., Howland, M. D., & Levy, T. E. (2017). Testing Google Earth Engine for the
automatic identification and vectorization of archaeological features: A case
study from Faynan, Jordan. Journal of Archaeological Science: Reports, 15, 299-
304. doi:10.1016/j.jasrep.2017.08.013
Jagadeesh, P. S., Huan, T. L. Li, X. Yuan, Y. (2018, Panchromatic and Multispectral
Remote Sensing Image Fusion Using Machine Learning for Classifying Bucolic
and Farming Region). Int. J. of Computational Science and Engineering, Vol. 15,
No. 5/6,
Medina, J. Pinilla, C. Joyanes, L. (2013). Aplicativo Web para la Fusión de Imágenes
Satelitales, RISTI - Revista Ibérica de Sistemas e Tecnologias de Informação,
N.º 11, 06
Shi, A. (2011). Multispectral and panchromatic image fusion based on improved
bilateral filter. Journal of Applied Remote Sensing, 5(1), 053542.
doi:10.1117/1.3616010
Tamiminia, H., Salehi, B., Mahdianpari, M., Quackenbush, L., Adeli, S., & Brisco, B.
(2020). Google Earth Engine for geo-big data applications: A meta-analysis and
systematic review. ISPRS Journal of Photogrammetry and Remote Sensing, 164,
152-170. doi:10.1016/j.isprsjprs.2020.04.001
Vivone, G., Alparone, L., Chanussot, J., Dalla Mura, M., Garzelli, A., Licciardi, G.A.,
Restaino, R. and Wald, L., (2015). A critical comparison among pansharpening
algorithms. Geoscience and Remote Sensing, IEEE Transactions on, 53(5), pp.
2565-2586.
Wald, L. (2000). Quality of high resolution synthesized images: is there a simple
criterion?, Proceedings of the third conference “Fusion of Earth data: merging
point measurements, raster maps and remotely sensed image”, pp. 26-28.
Wald, L. (2002). Data Fusion, Definition and Architectures: “Fusion of Image of
Different Spatial Resolution,” Paris: Le Presses de l’École des Mines. 198p.
Wang, Z. Bovink, A. C. (2002). A Universal Image Quality Index. IEEE Signal
Processing Letters, vol. XX, no Y.

También podría gustarte