Está en la página 1de 92

Análisis de cambios en

cuerpos de agua
mediante el tratamiento
de imágenes
multiespectrales
Grado en Ingeniería del Software
Curso académico: 2020/2021

Trabajo Fin de Grado


Autor:
Ángel Acevedo Sánchez
Tutor/es:
Montserrat Hernández Viñas
Elvira Martínez de Icaya Gómez

Madrid, Julio 2021


Análisis de cambios en cuerpos de agua
mediante el tratamiento de imágenes
multiespectrales

Autor
Ángel Acevedo Sánchez

Tutor/es
Montserrat Hernández Viñas
Departamento de Sistemas Informáticos
Elvira Martínez de Icaya Gómez
Departamento de Sistemas Informáticos

Grado en Ingeniería del Software


Curso académico: 2020/2021

Madrid, Julio 2021


Abstract

Change detection of water bodies is directly applicable in the study of land and aquatic
ecosystems. It helps provide answers to the adverse events favoured by global warming or the
misuse of freshwater reserves.
In this project, we take technology as a key tool for the development of an analysis to
detect changes in reservoirs. During a specific time, we combine unsupervised classification
techniques, such as Principal Analysis Component, with multispectral image processing. Li-
kewise, some improvements, proposed by the author, are applied to the methods employed
and will be assessed using the suited metrics for the context of the project.
To finish with the research, and as a result of the assessment, we initiate a discussion
about the effectiveness of the methods and lead to obtain a final conclusion.
Resumen

La detección de cambios en cuerpos de agua tiene una aplicación directa en el estudio de


ecosistemas terrestres y acuáticos. Ayuda a dar respuesta a los fenómenos adversos propiciados
por el cambio climático o al mal uso de las reservas de agua dulce.
En este trabajo, se toma la tecnología como herramienta clave para el desarrollo de un
análisis de cambios en embalses, en un período determinado, combinando técnicas de clasifi-
cación no supervisada, como el Análisis de Componentes Principales, con el tratamiento de
imágenes multiespectrales. De la misma forma, se aplican mejoras propuestas por el autor a
los métodos utilizados; y se realiza una evaluación de los mismos haciendo uso de métricas
apropiadas al contexto del proyecto.
Para finalizar con el estudio, y fruto de la evaluación de resultados, se inicia una discusión
acerca de la efectividad de los métodos y se da paso a la obtención de una conclusión final.
Agradecimientos

A mi padre. Sustentador de la familia, él mejor que nadie sabe lo que es el esfuerzo y el


trabajo. Siempre nos decía: “Hijos, estudiad para que no tengáis que pasar calor el resto de
vuestra vida”. Él sabe lo que decía porque entre andamios, hormigón y ladrillo, bajo 40ºC
al sol, se gana el pan de cada día para que no les falte de nada a su familia; para que sus
dos hijos hayan podido elegir su camino y estudiar aquello que quisieron desde el primer
momento.
A mi madre. Todocaminos, pilar moral de la familia y trabajadora insaciable. Madre no
hay más que una y, como la mía, ninguna. Gracias por el apoyo incondicional a tus hijos, por
bajarnos los pies a la tierra y aportar esa serenidad y templanza en los momentos necesarios.
A mi hermano, pero sobre todo, amigo. Crecer junto a un hermano que cree en ti más que
nadie y deposita su confianza a ciegas con la certeza de que no se equivocará, es algo que no
tendré suficientes vidas para agradecérselo.
Este es el culmen de todo vuestro apoyo. Juntos, lo hemos conseguido.
Índice general

1. Introducción 1
1.1. Motivación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2. Objetivos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3. Estructura de la obra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2

2. Marco Teórico 3
2.1. Sistemas de captura de información a distancia . . . . . . . . . . . . . . . . . 3
2.2. Principios físicos de la radiación electromagnética . . . . . . . . . . . . . . . . 3
2.2.1. Modelo de onda . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.2.2. Modelo de partícula . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.2.3. Radiación del cuerpo negro . . . . . . . . . . . . . . . . . . . . . . . . 7
2.2.4. Otras leyes de la radiación . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.2.5. Espectro electromágnetico . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.2.6. Términos radiométricos . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.3. Firma espectral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.4. Teledetección . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.4.1. Sistemas de Teledetección . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.4.2. Influencia de los fenómenos naturales . . . . . . . . . . . . . . . . . . . 12
2.4.3. Tratamiento digital de imágenes multiespectrales . . . . . . . . . . . . 13
2.4.3.1. Presentación de imágenes en Teledetección . . . . . . . . . . 13
2.4.3.2. Corrección . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.4.3.3. Realce . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.4.4. Índices derivados de la Teledetección . . . . . . . . . . . . . . . . . . . 18
2.5. Algoritmos de Segmentación de imágenes . . . . . . . . . . . . . . . . . . . . 19
2.6. Análisis de Componentes Principales . . . . . . . . . . . . . . . . . . . . . . . 20
2.6.1. Cálculo de las Componentes Principales . . . . . . . . . . . . . . . . . 20
2.6.2. Aplicaciones en Teledetección . . . . . . . . . . . . . . . . . . . . . . . 23

3. Estado del Arte 24


3.1. Herramientas de medición del agua embalsada in situ. . . . . . . . . . . . . . 24
3.2. Misión SWOT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.3. Programa Landsat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

4. Desarrollo 30
4.1. Contexto geográfico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
4.2. Ecosistema tecnológico empleado . . . . . . . . . . . . . . . . . . . . . . . . . 32
4.3. Entregables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

vii
viii Índice general

4.4. Metodología . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
4.4.1. Obtención de imágenes . . . . . . . . . . . . . . . . . . . . . . . . . . 34
4.4.1.1. WRS PATH ROW . . . . . . . . . . . . . . . . . . . . . . . . 36
4.4.1.2. Minimun bounding rectangle (MBR) . . . . . . . . . . . . . . 36
4.4.1.3. Colecciones Landsat . . . . . . . . . . . . . . . . . . . . . . . 37
4.4.1.4. Script desarrollado . . . . . . . . . . . . . . . . . . . . . . . . 38
4.4.2. Procesamiento de imágenes . . . . . . . . . . . . . . . . . . . . . . . . 41
4.4.2.1. Obtención del área de interés (ROI ) . . . . . . . . . . . . . . 41
4.4.2.1.1. Procedimiento 1: paralelogramo con rotación . . . . 41
4.4.2.1.2. Procedimiento 2: bounding box . . . . . . . . . . . . 44
4.4.3. Análisis de nubosidad . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.4.4. Obtención del ground truth . . . . . . . . . . . . . . . . . . . . . . . . 46
4.4.5. Aplicación de métodos . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.4.5.1. Método 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.4.5.2. Método 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

5. Resultados 59
5.1. Análisis de cambios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.1.1. Período 2014 - 2020 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.1.2. Período 2014 - 2017 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.1.3. Período 2014 - 2015 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.2. Evaluación de métodos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
5.2.1. Selección de puntos de control . . . . . . . . . . . . . . . . . . . . . . 63
5.2.2. Matrices de confusión y métricas empleadas . . . . . . . . . . . . . . . 63
5.2.3. Discusión sobre los resultados obtenidos . . . . . . . . . . . . . . . . . 65
5.3. Crítica y comparación de métodos . . . . . . . . . . . . . . . . . . . . . . . . 66

6. Impactos sociales y ambientales. Responsabilidad ética y profesional 71

7. Conclusiones y propuesta de trabajo futuro 73

Bibliografía 76

A. Anexo I: Datos hidrológicos SAIH Guadiana 81


Índice de figuras

2.1. Disposición de los campos magnéticos y eléctrico en forma de onda. . . . . . . 6


2.2. Espectro de radiación de un cuerpo negro . . . . . . . . . . . . . . . . . . . . 8
2.3. Curvas de las firmas espectrales . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.4. Imagen multiespectral compuesta por k dimensiones o bandas . . . . . . . . . 14
2.5. Histograma bimodal con umbral T detectado y con t0 y t1 como posibles niveles
de gris diferentes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

4.1. Mapa comarcal de España. En rojo, la comarca de “La Siberia” (Badajoz) . . 31


4.2. Imagen en color real de la comarca “La Siberia” con la localización de sus 5
embalses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
4.3. Esquema de la metodología propuesta . . . . . . . . . . . . . . . . . . . . . . 35
4.4. Selección de path y row mediante EarthExplorer . . . . . . . . . . . . . . . . 37
4.5. Salida por consola del script desarrollado tras la finalización de la descarga de
imágenes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.6. Aplicación de máscara de corte para obtención de ROI . . . . . . . . . . . . . 42
4.7. Aplicación de una máscara para la eliminación de valores no-data . . . . . . . 43
4.8. Comparación y análisis de nubosidad entre capturas del mismo año . . . . . . 45
4.9. Proceso de segmentación de MNDWI . . . . . . . . . . . . . . . . . . . . . . . 48
4.10. Ground truth obtenido de la imagen diferencia MNDWI de los años 2014 - 2020 49
4.11. Aplicación de la técnica matching o especificación de histograma . . . . . . . 52
4.12. Método 2. PCA aplicado a la diferencia de bandas multitemporales . . . . . . 54
4.13. Distribución de la componente principal 3 de IdP CA en la zona norte durante
el período de 6 años (2014-2020) . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.14. Imagen segmentada en tres clases: cambio (azul), no cambio (blanco) e inde-
terminado (rojo) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58

5.1. Cambios correspondientes al período 2014 - 2020 . . . . . . . . . . . . . . . . 60


5.2. Cambios correspondientes al período 2014 - 2017 . . . . . . . . . . . . . . . . 61
5.3. Cambios correspondientes al período 2014 - 2015 . . . . . . . . . . . . . . . . 62
5.4. Proyección de puntos de control sobre ground truth . . . . . . . . . . . . . . . 64
5.5. Ejemplo de matriz de confusión con los términos TP, TN, FP y FN . . . . . . 64
5.6. Comparación entre imágenes PC de distinto índice f . . . . . . . . . . . . . . 68
5.7. Procedimiento de suma de imágenes PC para aumentar la detección de cambios 68

6.1. Objetivos de Desarrollo Sostenible de la Agenda 2030 . . . . . . . . . . . . . . 72

ix
Índice de tablas

2.1. Comparativa entre Fotogrametría y Teledetección . . . . . . . . . . . . . . . . 4

3.1. Comparación de bandas espectrales entre ETM+ y OLI/TIRS . . . . . . . . 28

4.1. Módulos de Python utilizados y sus versiones . . . . . . . . . . . . . . . . . . 32


4.2. Colecciones de imágenes iniciales previas al procesamiento . . . . . . . . . . . 41

5.1. Métricas de evaluación de los métodos empleados para la detección de cambios 69


5.2. Distancias medias entre coeficientes de cada vector propio y PCs de cambios
seleccionadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70

A.1. Datos hidrológicos correspondientes al día 9 de junio de 2014 . . . . . . . . . 81


A.2. Datos hidrológicos correspondientes al día 28 de junio de 2015 . . . . . . . . . 82
A.3. Datos hidrológicos correspondientes al día 17 de junio de 2017 . . . . . . . . . 82
A.4. Datos hidrológicos correspondientes al día 25 de junio de 2020 . . . . . . . . . 82

x
Índice de Códigos

4.1. Configuración JSON del filtro de búsqueda . . . . . . . . . . . . . . . . . . . 39


4.2. Método Python para la obtención del MNDWI . . . . . . . . . . . . . . . . . 46
4.3. Método Python para la obtención de imágenes PC . . . . . . . . . . . . . . . 51

xi
1. Introducción

Desde un punto de vista biológico, el agua es la molécula más abundante en los seres vivos
y es, además, el principal elemento sustentador de la vida. Este es un recurso finito y por
tanto, merece una gestión adecuada que garantice su disponibilidad en cualquier situación.

En diciembre de 2020, el agua comenzó a cotizar en el mercado de futuros de Wall of Street


al igual que otros recursos como el petróleo, el oro o el trigo. Hay quien defiende que con ello
mejorará la gestión de tan preciado recurso, ya que de esta manera se podría añadir un tipo
de protección al agua como bien escaso; sin embargo, el riesgo de especulación se encuentra
también presente.

Este acontecimiento ha devuelto a la actualidad la escasez de agua, y es que las sequías,


el cambio climático y la cantidad de agua utilizada por actividades del sector primario como
la agricultura ponen de manifiesto la escasez de este recurso.

En España contamos con 1225 presas según datos publicados por el que fuera Ministerio de
Agricultura y Pesca, Alimentación y Medio Ambiente (MAPAMA) en el inventario “Evolución
del Número de Presas” (s.f.), lo cual nos sitúa como el país con el mayor número de pantanos
en la Unión Europea. Sin embargo, la cantidad de agua en nuestros embalses va disminuyendo
y en 2020 ya se tiene un nivel total nacional por debajo del promedio de los últimos 10 años
si atendemos a los resultados publicados por La Moncloa en la nota de prensa “La reserva
hídrica española se encuentra al 47 por ciento de su capacidad” (2020).

Dada la situación, se pone de manifiesto la necesidad de realizar una adecuada gestión de


los recursos hídricos, aplicando la tecnología como herramienta clave en este ámbito. En este
sentido, el trabajo que aquí presentamos utiliza técnicas de procesamiento de imágenes, así
como algoritmos de aprendizaje no supervisado dentro del campo del Machine Learning. En
definitiva, procedimientos que son aplicados a imágenes de Teledetección o multiespectrales
adquiridas por satélites con la finalidad de detectar cambios en cuerpos de agua.

1.1. Motivación
Son varios los motivos que han llevado al autor a realizar su Trabajo Fin de Grado sobre
la temática definida en el título de la obra.

El cambio climático que sufre el planeta Tierra debe ser analizado en todas sus vertientes.
Es por eso que este trabajo nace del desafío planteado por dicho fenómeno, y pretende dar
cuenta de su acción en las reservas de agua dulce que tan valiosas son para la subsistencia
del ser humano.

1
2 Introducción

Por otro lado, el hecho de aunar un campo científico-tecnológico como la Teledetección


con la aplicación de técnicas y algoritmos matemáticos como es el Análisis de Componentes
Principales, se presenta como un reto a superar por el autor y, al mismo tiempo, como una
obligación de dar cuenta del abanico tan amplio existente en técnicas de Machine Learning
que van más allá de los métodos de clasificación más conocidos.

1.2. Objetivos
Este Trabajo Fin de Grado pretende, en primera instancia, desarrollar un procedimiento
de análisis de cambios en cuerpos de agua, aplicándolo de manera específica a los embalses
de la comarca de “La Siberia” (Badajoz).
Este análisis será el resultado de un estudio realizado tomando imágenes del satélite
Landsat-8 correspondientes al mes de junio de los períodos 2014-2015, 2014-2017, 2014-2020.
De esta manera, se podrá obtener una referencia general sobre la evolución del agua embal-
sada a lo largo de los años para dar cuenta de fenómenos producidos por el cambio climático
como son la escasez de lluvias o la sequía, que presentan un impacto ambiental importante.
Además, se realizará un procesamiento exhaustivo de las imágenes obtenidas para dar paso
a la aplicación de dos métodos de detección de cambios con algunas variaciones propuestas
por el autor. En este sentido, se pretende también realizar una evaluación final que dicte
la bondad de cada uno de los métodos empleados y así, sentar las bases para discutir las
ventajas o desventajas que pueda ofrecer cada uno de ellos.

1.3. Estructura de la obra


El documento que aquí se expone está estructurado en siete capítulos divididos en distintas
secciones. El capítulo 1 introduce el documento exponiendo los objetivos y la motivación del
trabajo. El capítulo 2 desarrolla todo un marco teórico de los temas abordados a lo largo del
documento; temas relacionados con la Teledetección y sus principios físicos, el procesamiento
de imágenes o el Análisis de Componentes Principales. El capítulo 3 es el resultado de una
investigación acerca del estado actual de la tecnología existente en relación directa con este
trabajo, su evolución y perspectivas de futuro. El capítulo 4 expone todo el desarrollo del
Trabajo Fin de Grado, es decir, toda aquella parte experimental que se ha llevado a cabo
para satisfacer los objetivos mencionados en la sección anterior. El capítulo 5 concluye con
los resultados obtenidos y la evaluación de los métodos empleados. El capítulo 6 analiza
y recoge los impactos ambientales y sociales que se derivan de este proyecto, así como la
responsabilidad ética y profesional. Por último, el capítulo 7 finaliza el documento sintetizando
las conclusiones extraídas de la realización de este estudio y expone las líneas futuras de
trabajo que, bajo consideración del autor, podrían contribuir a enriquecer lo abordado en
este proyecto.
2. Marco Teórico

2.1. Sistemas de captura de información a distancia


Autores como Villar et al. (2016) definen los sistemas de captura de la información a
distancia como “...aquellos en los que el objeto del cual se quiere obtener información [...] no
se encuentra en contacto directo con el propio sistema de captura” (pp.37-38).
Los mismos autores proponen como ejemplos de estos sistemas la Fotogrametría y la
Teledetección.
De acuerdo con la Asociación Americana de Fotogrametría y Teledetección (ASPR, s.f.),
la Fotogrametría es la ciencia encargada de obtener información precisa sobre objetos físicos y
el entorno mediante la recopilación de medidas y la interpretación de imágenes o patrones del
espectro electromagnético y otros fenómenos. Generalmente, las imágenes obtenidas provienen
de vuelos fotogramétricos realizados por un avión y necesitan un procesamiento analítico o
digital para que la información del terreno pueda ser extraída (Villar et al., 2016).
En el mismo sentido, la misma asociación define la Teledetección como un conjunto de
técnicas utilizadas para recopilar y procesar información de objetos situados sobre la su-
perficie de la Tierra, sin la existencia de contacto físico. La Teledetección es una materia
multidisciplinar, en la que ciencia y tecnología se aúnan para adquirir información a distan-
cia. Entidades como la Oficina Nacional de Administración Oceánica y Atmosférica (NOAA,
2021) o la Asociación Japonesa de Teledetección (JARS, 1993) apoyan este hecho. Y es que el
desarrollo de la Teledetección ha ido siempre acompañado de los avances tecnológicos en te-
lecomunicaciones y computación, que han permitido mejorar a lo largo de los años la captura
de información a distancia y el procesado de la información.

2.2. Principios físicos de la radiación electromagnética


Dada la importancia que la radiación electromagnética tiene como transmisor de la in-
formación en Teledetección, se hace necesario realizar una breve descripción de la misma y
exponer sus propiedades.
La radiación electromagnética supone una transmisión de energía sin contacto material
directo entre el emisor y el receptor. Su naturaleza puede ser explicada a través de dos
modelos aparentemente contradictorios, pero que se complementan: el modelo de onda y el de
partícula. La dualidad onda-partícula es un fenómeno cuántico que ha podido ser demostrado
empíricamente, y en el cual muchas partículas pueden exhibir comportamientos típicos de
ondas en unos experimentos mientras aparecen como partículas compactas y localizadas en
otros. La radiación electromagnética constituye uno de estos casos.

3
4 Marco Teórico

Tabla 2.1: Comparativa entre Fotogrametría y Teledetección

FOTOGRAMETRÍA TELEDETECCIÓN

Plataforma Avión Satélite

Sensor Cámara métrica analógica Barredores multiespectrales


(fotográfica) (radiómetros)

Registro de la información Película fotográfica + Proce- Transformación y conversión


sos químicos de revelado y fi- de la información analógica
jado (Qi) en digital + Transmi-
sión a estaciones terrestres
Tomada de “Diferencias fundamentales entre los sistemas de captura en fotogrametría y telede-
tección” por Villar et al., 2016, Sistemas de Captura de la Información, p. 38.

2.2.1. Modelo de onda


El modelo ondulatorio de la luz fue desarrollado, entre otros, por Huygens y Maxwell.
En dicho modelo, la radiación electromagnética es producida por oscilaciones de los campos
eléctrico y magnético en las inmediaciones de los objetos. Con la publicación en 1865 de “A
Dynamical Theory of the Electromagnetic Field”, Maxwell unificó las leyes de la electricidad y
el magnetismo en cuatro ecuaciones, que constituyen las bases del electromagnetismo clásico:

∇ · E = 0, (2.1)
∇ · B = 0, (2.2)
−∂B
∇×E = , (2.3)
∂t
∂E
∇ × B = ε0 µ 0 , (2.4)
∂t

Donde: Ecuación (2.1) → Es la Ley de Gauss para el Campo Eléctrico.


Ecuación (2.2) → Es la Ley de Gauss para el Campo Magnético.
Ecuación (2.3) → Es la Ley de Faraday para la inducción.
Ecuación (2.4) → Es la Ley de Ampère-Maxwell.
E → Representa el Campo Eléctrico, medido en la unidad
Newton/Coulomb (N /C).
B → Representa el Campo Magnético, medido en la unidad Tesla (T ).
t → Representa la variable tiempo, en función de la cual se realizan
las derivadas parciales.
ε0 , µ 0 → Son la constante de permitividad eléctrica y permitividad
magnética en el vacío, respectivamente.
2.2. Principios físicos de la radiación electromagnética 5

Estas expresiones, en su forma diferencial, han sido adaptadas para la propagación en el


vacío donde se puede suponer que no existen fuentes de carga. Las ecuaciones de Maxwell
en el vacío, implican la existencia de campos eléctricos y magnéticos que viajan a través del
espacio en forma de ondas que se desplazan a la velocidad de la luz (ondas electromagnéticas).

Si consideramos ondas planas que se propagan en la dirección del eje X, se definen las
ecuaciones de onda para el campo magnético y el campo eléctrico:


− →
− →
− →

∂2 E 1 ∂2 E ∂2 B 1 ∂2 B
= = (2.5)
∂2x c2 ∂ 2 t ∂2x c2 ∂ 2 t

De las expresiones anteriores se extraen las siguientes soluciones:

Ey (x, t) = E0 sen(kx − wt) Bz (x, t) = B0 sen(kx − wt) (2.6)


Donde: k = → Número de onda (m−1 ).
λ
λ → Longitud de onda (m), representa la distancia entre dos
máximos de onda sucesivos.

w = 2πf = → Frecuencia angular expresada en radianes/s.
T
f → Frecuencia (Hz), representa el número de ondas por segundo
que pasa por un punto fijo.
T → Período, expresado en segundos.

Si además c es la velocidad de la luz en el vacío (3 × 108 m/s), frecuencia y longitud de


onda se pueden relacionar entre sí mediante la expresión:

c
λ= (2.7)
f

Las ondas electromagnéticas están, pues, caracterizadas por las variables anteriores y se
componen de dos ondas que oscilan perpendicularmente la una a la otra y, siendo ondas
planas, perpendicularmente también a la dirección de propagación:
6 Marco Teórico

Figura 2.1: Disposición de los campos magnéticos y eléctrico en forma de onda.

Traducida y adaptada de “Electromagnetic Waves” por Nave (2017).

2.2.2. Modelo de partícula


El modelo corpuscular de la radiación electromagnética fue desarrollado por Planck y Eins-
tein (Einstein, 1905) a principios del siglo XX. En este modelo, la energía electromagnética
está cuantizada y viaja como flujo de partículas llamadas fotones. Cada fotón corresponde a
un cuanto de energía de valor:

E =h·f (2.8)
Donde: h → Representa la constante de Planck cuyo valor es aproximadamente
6′ 6 × 10−34 J · s.
f → Es la frecuencia de la radiación.

En el año 1900, Max Planck fue el primero en proponer esta idea que sentaría las bases de
la Mecánica Cuántica y ayudó a resolver el fenómeno de la radiación del cuerpo negro. Más
adelante, en 1905, Albert Einstein tomó el trabajo de Planck para confirmar su teoría de la
discontinuidad de la luz en Einstein (1905), especificando el término “cuantos” como “cuantos
de luz”. Después, dicho término fue sustituido por el de fotón, una vez fuera introducido por
autores como Gilbert en Lewis (1926). Con todo ello, Einstein utilizó los descubrimientos
para explicar el efecto fotoeléctrico.
Tanto Planck como Einstein recibirían el Premio Nobel por su trabajo. Planck fue galar-
donado en 1918 por su contribución al desarrollo de la teoría cuántica; mientras que Einstein
lo recibiría en 1921 gracias al efecto fotoeléctrico.
2.2. Principios físicos de la radiación electromagnética 7

2.2.3. Radiación del cuerpo negro


Introducido por primera vez por Gustav Kirchhoff en 1859, un cuerpo negro es un objeto
teórico ideal que absorbe toda la energía radiante que incide sobre él. No hay reflexión ni
transmisión de energía a través de él. Sin embargo, emite radiación electromagnética en
función de su temperatura (radiación térmica) y sirve para modelar la radiación térmica
emitida por otros objetos.

Previo al descubrimiento de Planck, y en el contexto de estudio de la radiación emitida por


un cuerpo negro, se enunció la Ley de Wein (1893) y, de forma coetánea, la Ley de Rayleigh-
Jeans. La primera, Ley de Wein, modelaba la distribución de la emisión de energía que se
ajustaba correctamente para la ondas de alta frecuencia, no así para las de baja frecuencia.
La segunda describía el comportamiento de la radiación para todas las longitudes de onda;
sin embargo, esta ley tenía un fallo consistente en que a medida que la radiación se acercaba
a la región ultravioleta del espectro (altas frecuencias), la energía radiada por el objeto tendía
a hacerse infinita. Este fenómeno propiciado por la Ley de Rayleigh-Jeans se conoció como
“catástrofe ultravioleta”.

Entonces, hasta 1900 se tenían dos leyes que describían la relación entre la frecuencia/lon-
gitud de una onda y su energía. Sin embargo, dichas leyes no podían ser aplicadas de manera
conjunta. En ese mismo año, Planck introdujo que la energía se radia en forma discreta, es
decir, a través de pequeñas unidades separadas entre sí denominadas cuantos y alcanza su
valor máximo a una determinada temperatura. Esta afirmación puso en tela de juicio la na-
turaleza ondulatoria de la luz propuesta por Maxwell ya que se infería que la luz en realidad
podría comportarse como una partícula y no como una onda.

Planck consiguió modelar la curva de emisión de energía para un cuerpo negro como una
función que depende de la longitud de onda y de la temperatura del cuerpo negro. Esta curva
era modelada por una distribución que sí se ajustaba a los datos experimentales y, por tanto,
se adaptaba a la Ley de Wein para longitudes de onda corta, y a la Ley de Rayleigh-Jeans
para longitudes de onda largas, apareciendo en todos los casos un máximo de emisión que
depende de la temperatura:

2πhc2 1
E(λ, T ) = (2.9)
hc
λ5 e λKT −1
Donde: h → Es la constante de Planck.
K → Es la constante de Boltzmann cuyo valor es 1′ 38 · 10−23 ws2 k −1 .
T → Temperatura absoluta en grados Kelvin.

De la expresión anterior, 2.9, se observa que la radiación que emite un cuerpo no depende
en absoluto de su composición, sino de su temperatura. De hecho, se puede obtener incluso
aquella longitud de onda donde la potencia de emisión es máxima por medio de la la Ley del
Desplazamiento de Wein.
8 Marco Teórico

Figura 2.2: Espectro de radiación de un cuerpo negro

Tomada de “La radiación del cuerpo negro. Hipótesis de Planck” por Fernández (2015).

2.2.4. Otras leyes de la radiación


La Ley del Desplazamiento de Wein, (ecuación 2.10), nos permite obtener aquella longitud
de onda donde la potencia de emisión es máxima:

2898µm · K
λmax = (2.10)
T

Con esta ley se concluye que cuanto mayor sea la temperatura de un cuerpo negro, menor
es la longitud de onda en la que emite y, por tanto, mayor su frecuencia.
No solo es posible conocer el hecho anterior, sino que a través de la Ley de Stefan-
Boltzmann (ecuación 2.11) se puede medir el flujo total de energía radiante en todo el es-
pectro, dada una temperatura absoluta T . Con esta ley se ratifica la relación directamente
proporcional entre la energía emitida y la temperatura de un cuerpo.

E = σ · Te4 (2.11)

W
Donde: σ → Es la constante de Stefan-Boltzmann cuyo valor es 5′ 67 × 10−8 .
m2 K 4

2.2.5. Espectro electromágnetico


Una vez sentadas las bases físicas de la radiación electromagnética y habiendo quedado
explícita la faceta ondulatoria de la luz, se define el espectro electromagnético como la sucesión
continua de valores de longitud de onda, λ, ordenados en base a este valor (Villar et al., 2016).
Esta secuencia de longitudes de onda queda dividida en intervalos a los que se les suele
otorgar un nombre determinado. Aunque no hay un acuerdo claro sobre como dividir y
nombrar las porciones del espectro, en Teledetección es común realizar cuatro divisiones:
2.2. Principios físicos de la radiación electromagnética 9

• Ultravioleta o UV, 1-380 nm: esta región condensa la radiación con menor longitud de
onda que puede ser considerada para la Teledetección (la de mayor energía).
• Espectro visible, 380-750 nm: el espectro visible representa la radiación que es percepti-
ble por el ojo humano a través de los colores. En particular, es divisible en los siguientes
colores:
– Violeta, 380-450 nm.
– Azul, 450-495 nm.
– Verde, 495-570 nm.
– Amarillo, 570-590 nm.
– Naranja, 590-620 nm.
– Rojo, 620-750 nm.
• Infrarrojo, 0’75-100 µm: esta región del espectro electromagnético es muy usada en
Teledetección como se verá a lo largo de este proyecto. Es divisible en tres subregiones:
– Infrarrojo próximo (NIR), 0’7-1’3 µm.
– Infrarrojo corto (SWIR), 1’3-3 µm.
– Infrarrojo térmico (TIR), 3-100 µm.
• Región de microondas, 0’001-1 m: La región de microondas es útil en Teledetección
ya que la radiación que emite en este rango no se ve afectada ni por las condiciones
meteorológicas ni por las propiedades de opacidad de la atmósfera. Es la tecnología
Radar la que opera en este rango de frecuencia.
Como se decía, el concepto de espectro electromagnético es muy importante de cara a la
Teledetección. Normalmente, las imágenes de Teledetección son organizadas en “bandas” que
se identifican con rangos de longitud de onda del espectro electromagnético. El concepto de
banda será tratado con más detalle en la siguiente sección.

2.2.6. Términos radiométricos


Antes de proseguir, es importante recoger los términos radiométricos utilizados en Tele-
detección. Son los siguientes:
• Energía radiante (J) Q: es la energía transportada por una onda electromagnética.
• Flujo radiante (W ): energía radiada por unidad de tiempo:

∂Q
ϕ= (2.12)
∂t

• Densidad de flujo radiante (W /m2 ): flujo radiante interceptado por la unidad de


área de una superficie plana:
10 Marco Teórico

– Emitancia si el flujo es saliente.


∂ϕ
M= (2.13)
∂A

– Irradiancia si el flujo es incidente sobre la superficie.


∂ϕ
E= (2.14)
∂A

• Radiancia (W /sr): es el flujo radiante que sale de una superficie en una dirección de-
terminada siguiendo un ángulo sólido (la unidad de ángulo sólido es el estereorradián,
que en el Sistema Internacional se escribe sr). La radiancia es fundamental en Telede-
tección ya que es la magnitud que detecta el sensor satelital. En los casos en los que la
radiancia se define en relación a una región concreta del espectro electromagnético, se
denomina radiancia espectral.

• Absorbancia: relación entre el flujo absorbido por una superficie y el flujo incidente
sobre ella.

• Reflectividad o reflectancia (ALBEDO): relación entre el flujo reflejado por la


superficie y el flujo incidente sobre ella.

• Transmitancia: relación entre el flujo transmitido a través de la superficie y el flujo


incidente sobre ella.

2.3. Firma espectral

Cada tipo de material (suelo, vegetación, agua, etc.) refleja la radiación incidente de forma
diferente, lo que permite distinguirlo de otras superficies. A partir de medidas de laboratorio,
se han obtenido las curvas de reflectividad para las distintas cubiertas terrestres en función de
la longitud de onda, lo que se conoce como albedo o firma espectral. Esta firma espectral
constituye una marca de identidad de los objetos y muestra el tanto por ciento de la radiación
incidente que es reflejada para cada longitud de onda.
2.3. Firma espectral 11

Figura 2.3: Curvas de las firmas espectrales

Tomada de “Firmas espectrales típicas para vegetación, suelo y agua en el rango visible e infrarrojo
reflejado del EE” en Hernández y Montaner (2009)

Son diversos los factores que influyen en la curva de reflectividad de los cuerpos. Con algo
más de detalle se describen a continuación:

• Vegetación: tal y como recogen varios estudios (Gates et al., 1965; Knipling, 1970;
Colwell, 1974; Curran, 1980; Jensen, 1983) sintetizados en Chuvieco (1995), el compor-
tamiento de la curva de reflectividad de la vegetación se ve reducida en la zona visible
del espectro, aunque muestra un pico sutil en la banda verde. Sin embargo, la misma
curva presenta una tendencia en alza en zonas del infrarrojo cercano hasta que esta
se ve reducida al llegar al infrarrojo medio. Todo este comportamiento es debido a la
presencia de pigmentos foto-sintéticos (clorofila, xantofilas y carotenos) y al contenido
en agua que presenta la vegetación (Chuvieco, 1995).

• Suelo: aquí conviene hacer una división entre suelos desnudos y cubiertos por vegetación.
En los suelos cubiertos por vegetación el comportamiento espectral de esta cubierta será
el que describa la propia vegetación (Villar et al., 2016). En los suelos sin vegetación, la
firma espectral presenta una tendencia constante incrementándose a medida que crece
la longitud de onda tal y como se puede ver en la figura 2.3.

• Agua: de acuerdo con Chuvieco (1995); Villar et al. (2016), el comportamiento notable
de la curva espectral del agua se aprecia en el espectro visible. Y es que en la firma
espectral del agua aparece un máximo en el la banda verde (visible) que va reducién-
dose hasta el infrarrojo. Esta falta de reflectividad en el infrarrojo va a ser clave para
distinguir entre áreas cubiertas de tierra y agua tanto en costas como en lagos, ríos o
embalses. Por su parte, los factores que afectan al comportamiento de esta curva son
la profundidad de la masa de agua y la clorofila presente debido a vegetación de la
superficie. Cuanto mayor sea la profundidad, menor es la radiación emitida mientras
que si el agua presenta poca profundidad, la emisión de radiación será mayor.
12 Marco Teórico

2.4. Teledetección
El objeto de este proyecto recae en la aplicación de la Teledetección al seguimiento de
cuerpos de agua y, concretamente, a embalses. Es por ello que la Teledetección merece una
mención especial en este marco teórico; además, conviene profundizar en este campo para
conocer los cimientos en los que esta se basa. Las siguientes secciones intentarán ayudar al
lector a comprender la base científico-técnica de la Teledetección.

2.4.1. Sistemas de Teledetección


La Teledetección se basa en la recolección de información de la superficie terrestre desde
un sensor embarcado en un satélite que orbita alrededor de la Tierra. Ya sabemos que di-
cha información está contenida en la radiación electromagnética emitida o reflejada por los
cuerpos terrestres pero, ¿cómo llega esta al sensor?

En este punto, es posible dividir los sistemas de Teledetección en activos y pasivos. De


acuerdo con Rees (2012), los sistemas pasivos son aquellos que detectan de forma natural
la radiación electromagnética que emiten los objetos terrestres; mientras que los sistemas
activos emiten radiación electromagnética y analizan la respuesta emitida por los cuerpos
que reciben esa radiación. Por tanto, la información que recogen los sensores satelitales no es
otra que radiación electromagnética.

A su vez, el mismo autor anterior especifica que puede existir una categorización entre
los sistemas pasivos de Teledetección si distinguimos en función del origen de la radiación
emitida. Es decir, existen dos tipos de sistemas pasivos: aquellos que recogen la radiación
solar reflejada por los objetos (ultravioleta, luz visible e infrarrojo reflejado) y aquellos que
recogen la radiación térmica emitida por los propios objetos (infrarrojo térmico).

2.4.2. Influencia de los fenómenos naturales


Todos los distintos sistemas de Teledetección descritos están limitados a la acción de
fenómenos naturales como el grado de opacidad de la atmósfera y los efectos derivados de la
dispersión y la absorción.

En cuanto a la transparencia atmosférica de la Tierra, Rees describe la existencia de tres


“ventanas” donde la radiación electromagnética puede penetrar a través de la atmósfera. Estas
ventanas están asociadas a una longitud de onda determinada del espectro electromagnético:

• Primera ventana: entre 0.3 µm y 3 µm con zonas opacas en este rango.

• Segunda ventana: entre 8 µm y 15 µm.

• Tercera venta: entre 1 mm y unos pocos metros. Esta ventana se corresponde con la
región de las microondas.

Cualquier sistema de Teledetección que quiera penetrar en la atmósfera terrestre deberá


estar preparado para trabajar en alguna de estas tres ventanas.
2.4. Teledetección 13

Por otro lado, los fenómenos de dispersión y absorción suponen un factor determinante en
el proceso de Teledetección. La dispersión ocurre cuando las partículas o grandes moléculas
de gas que están presentes en la atmósfera interaccionan con la radiación de manera que esta
se ve desviada en su trayectoria original. La absorción es el fenómeno que ocurre cuando la
radiación electromagnética interactúa con las moléculas de la atmósfera y estas absorben la
energía en varios niveles de longitud de onda (“Interactions with the Atmosphere”, 2016).
Las moléculas o partículas mencionadas en el párrafo anterior pueden ser de distinta
naturaleza: polvo en suspensión, polen, vapor de agua, gas ozono o dióxido de carbono (“In-
teractions with the Atmosphere”, 2016).
En definitiva, ambos fenómenos, absorción y dispersión, provocan una disminución de la
energía en su dirección de incidencia.

2.4.3. Tratamiento digital de imágenes multiespectrales


El proceso de Teledetección no termina con la recepción de la radiación electromagnética
en el sensor satelital. Esta información es pre-procesada y enviada en forma electrónica hacia
estaciones terrestres para su posterior procesamiento y análisis de cara a obtener el resultado
final: imágenes digitales.

2.4.3.1. Presentación de imágenes en Teledetección


En general, una imagen digital puede ser concebida como resultado de aplicar un muestreo
de una función continua donde se hace una transformación de variables continuas (niveles de
gris) a variables discretas (rango discreto de niveles de gris).
La representación habitual de las imágenes digitales es en forma matricial, donde cada uno
de los niveles de gris se organizan en las coordenadas (i, j) de la matriz. En Teledetección, se
toma como base este concepto para modelar las imágenes, añadiendo un concepto más como
es el de “canal” o “banda” que conforman las imágenes multiespectrales. Es decir, ahora en
Teledetección se tiene un conjunto de matrices, una por canal, en la que se representan los
niveles de gris.
Para que una imagen digital sea visible a través de una pantalla ha de tener a lo sumo
tres canales. Estos canales son llamados RGB y se corresponden con las regiones del espectro
visible rojo, verde y azul. Cada una de las bandas de una imagen multiespectral puede com-
binarse de distintas formas sobre esos tres canales RGB para dar lugar a una sola imagen
con tres canales digitales (3 dimensiones). Fruto de estas posibles combinaciones se pueden
obtener, entre otras posibilidades, imágenes en color real, falso color u otras opciones.
El resultado final en el proceso de obtención de imágenes de Teledetección son un conjunto
de imágenes asociadas a bandas del espectro electromagnético, tal y como se introdujo en
la sección 2.2.5. Estas imágenes suelen ser denominadas ráster, y conforman una estructura
matricial de i filas, j columnas y k dimensiones. Cada celda (i, j, k), es un píxel de valor ND
en la imagen k que se traduce a nivel de gris en una pantalla, y puede contener información
relativa al color, elevación, temperatura o radiación.
14 Marco Teórico

Figura 2.4: Imagen multiespectral compuesta por k dimensiones o bandas

Normalmente, cada uno de los píxeles de un ráster contiene dos tipos de información:
intensidad y posición. La intensidad, se refiere al nivel de gris. En cuanto a la posición, ahora
se va un paso más hacia adelante, es decir, no solo se tiene una posición relativa dentro de
la imagen (i, j); sino que cada uno de estos píxeles está georeferenciado a coordenadas del
mundo real de tal forma que la localización de cada punto en una imagen de Teledetección
se hace de forma unívoca y universal.
Ahora que se ha introducido cómo es una imagen digital y, en concreto, una imagen de
Teledetección, se describen los procesos de tratamiento existentes para imágenes de Tele-
detección. La guía publicada en Eastman (2001), Guide to GIS 1 and Image Processing,
describe la correción y el realce, términos muy utilizados en inglés como Image Restora-
tion y Image Enhancement, como las técnicas de procesamiento principales para imágenes de
Teledetección.

2.4.3.2. Corrección
En la misma línea que lo expuesto en “Interactions with the Atmosphere” (2016), Eastman
(2001) reconoce la dificultad existente para la llegada de la radiación electromagnética al
sensor debido al grado de opacidad en la atmósfera y a la distancia entre el objeto y el sensor.
Esta suma resulta en una posible distorsión en cuanto a la energía que se recibe desde el
satélite.
Si a esto además se une el hecho de que el satélite está orbitando en una ruta sujeta
a variaciones debidas al movimiento planetario o a vibraciones de la propia plataforma, se
1
Geographic Information System. Sistema de Información Geográfica
2.4. Teledetección 15

requiere un proceso de restauración para reducir el efecto de estos problemas a la formación


de una imagen final.

Corrección radiométrica

Para hablar de corrección radiométrica es preciso conocer el concepto de resolución ra-


diométrica. La resolución radiométrica se materializa en el número de bits que un sensor de
Teledetección puede almacenar. Al fin y al cabo, la energía recibida por el sensor tiene que
ser transformada a un valor denominado Nivel Digital (ND) que oscilará entre el valor 0 y el
valor 2n , siendo n el número de bits soportados por el sensor.
La restauración radiométrica se refiere a la eliminación o disminución de las distorsiones
en el grado de energía electromagnética recibida por el sensor (Eastman, 2001).
Estas distorsiones están asociadas, por norma general, a problemas mecánicos en el sen-
sor satelital, lo que lleva a una ausencia de píxeles/líneas de píxeles en la imagen final o
alteraciones en el valor real de cada píxel.
Parece que la forma lógica de estimar los ND de los píxeles o líneas de píxeles perdidas
recae en fijarse en los píxeles vecinos. Chuvieco (1995) propone varios enfoques para afrontar
esta estimación. La más sencilla se basa en sustituir el ND de cada línea o píxel ausente por
el valor de los precedentes:

N Dij = N Di−1j (2.15)

Corrección atmosférica

Si bien la corrección radiométrica se aplica con el objetivo de corregir aquellos píxeles con
valores erróneos, la corrección atmosférica evalúa los efectos producidos por los fenómenos
ya descritos de dispersión y absorción que terminan por modificar los valores de radiancia
que llegan al sensor satelital desde la superficie terrestre.
Este proceso de corrección atmosférica es algo más complejo. Consiste en transformar los
ND a valores reales de radiancia para lo cual se utilizan distintas fórmulas como la propuesta
por Chander et al. (2009) para el satélite Landsat-7:

Lλ = Grescale × Qcal + Brescale (2.16)


Donde: Grescale → Factor de ganancia de cambio de escala específico de banda, medido en
W
2
/N D.
m srµm
Qcal → Valor de píxel calibrado y cuantizado, expresado en N D.
Brescale → Factor de sesgo para el cambio de escala específico de banda, medido
W
en la unidad 2 .
m srµm
16 Marco Teórico

Normalmente, estos valores son conocidos y publicados por las entidades responsables de
los satélites; de tal forma que el cálculo se simplifica y se resume a aplicar expresiones como
la 2.16 conociendo los factores de sesgo y ganancia de cada banda.

Corrección geométrica

Las imágenes de Teledetección están georeferenciadas, es decir, cada píxel de la imagen


tiene un posición definida en un sistema espacial de referencia.
En ocasiones no es posible obtener imágenes georeferenciadas de manera correcta. Esto es
debido a la influencia de la posición del sensor, las vibraciones de la plataforma satelital o la
influencia del relieve.
Para asegurar que las imágenes están bien georeferenciadas, estas deben someterse a un
proceso de ortorectificación. En este proceso se utilizan modelos digitales de elevación del
terreno (DEM), información del sensor y se emplea un conjunto de puntos de control de los
cuales se conoce su posición en el sistema de referencia utilizado (Garcia et al., 2013). La
georeferenciación de estos puntos de control puede tomarse in situ mediante GPS en zonas
como intersecciones de caminos, picos montañosos, etc.
Finalmente, tras el proceso de corrección geométrica se obtienen imágenes con una geore-
ferenciación correcta de tal forma que es posible unir imágenes capturadas en el mismo lugar
pero en diferentes fechas, lo cual permite realizar estudios como el que se propone en este
trabajo.

2.4.3.3. Realce
Los métodos de realce de imágenes de Teledetección tienen por objetivo la obtención de
imágenes con una mejora en la apariencia visual. Este objetivo se logra por medio de la
aplicación de técnicas para mejorar el contraste de la imagen, realizar correcciones entre dos
imágenes u obtener máscaras finales (Ruiz Fernández, 2018).

Modelización de histogramas

Existen distintos métodos que actúan sobre el histograma de una imagen para modificar
su contraste. Entre otros, destacan el método de la Ecualización del histograma, método
de Normalización (Contrast stretching, en inglés) y método de Especificación (matching, en
inglés).
El método de la Ecualización del histograma pretende obtener un histograma con una
distribución lo más uniforme posible. Las imágenes obtenidas por el sensor de Teledetección
suelen tener en un rango muy reducido de valores la mayor parte de los píxeles, lo que dificulta
la correcta visualización de las imágenes (Eastman, 2001). Para conseguir un histograma bien
2.4. Teledetección 17

distribuido, se le debe hacer una transformación de tal forma que la frecuencia de los diferentes
valores de los píxeles sea lo más parecida posible.
El segundo método, Normalización, busca obtener un histograma final “estirando” el
histograma original de tal forma que se consigue tener los valores de los píxeles normalizados
entre un rango determinado. Esta técnica es bastante útil para obtener imágenes de satélites
en color real, las cuales suelen presentar inicialmente un contraste muy bajo.
Por último, el método de la Especificación del histograma se aplica a una imagen
tomando como referencia otra del mismo lugar pero tomada en otras condiciones: distinta
fecha, distinto sensor... (Ruiz Fernández, 2018). De este modo, se transforma el histograma
de la imagen original para que tenga la misma forma del histograma de referencia, de modo
que las dos imágenes tengan tonos y contrastes similares y sean comparables.

Fusión

También llamada realce espacial y conocida como pansharpening en inglés, la técnica de


fusión consiste en combinar una imagen multiespectral o multibanda con una banda pancro-
mática para obtener imágenes finales con una resolución espacial mayor (Gordo y Robles,
2010).
En el contexto de Teledetección, una banda pancromática es una banda con una alta
resolución que se obtiene cuando el sensor satelital es sensible a un rango lo suficientemente
amplio como para abarcar las longitudes de onda correspondientes con el rango visible del
espectro electromagnético (Kumar et al., 2018).
De acuerdo con Amolins et al. (2007), la banda pancromática aporta al proceso de fusión
la resolución espacial, mientras que la imagen multiespectral hace lo propio con la resolución
espectral.
Por otro lado, existen diversos métodos de fusión que pueden ser clasificados en métodos
estándar, métodos basados en wavelet y métodos híbridos (Amolins et al., 2007):
• Métodos estándar:
– IHS: Intensidad-Saturación-Brillo. Este método convierte una imagen RGB, es
decir, expresada en función de 3 componentes (rojo, verde, azul) que recogen la
coloración, a una imagen IHS expresada en función de otras 3 componentes como
son la intensidad, la saturación y el brillo.
– PCA: Análisis de Componentes Principales. Parte de la premisa de la existencia
de información redundante en bandas continuas del espectro de tal manera que
tras aplicar el algoritmo PCA se obtienen bandas no correlacionadas entre sí.
– Brovey: se basa fundamentalmente en operaciones aritméticas que dan como re-
sultado imágenes con una buena resolución espacial. El resultado final se obtiene
multiplicando los píxeles de cada una de las imágenes multiespectrales por una
relación entre la banda pancromática y la suma de los píxeles de las bandas mul-
tiespectrales (Esparragón, 2015). Una de las ventajas de este método es que es
18 Marco Teórico

aplicable a cualquier tipo de banda, lo que será de utilidad a futuro en este pro-
yecto. Para cualquier conjunto de bandas B = b0 , b1 , ..., bn , el método Brovey
puede ser implementado por medio de la siguiente expresión:
Bi
Bi,f us = · P AN (2.17)

n
bi
i=0

• Métodos basados en wavelet: basados en la transformada de wavelet proponen descom-


poner una imagen en dos partes, haciendo corresponder a la primera con aquella parte
bruta de la imagen y a la segunda con los detalles geométricos más singulares de la
imagen (Gordo y Robles, 2010).
• Métodos híbridos: combinan los mejores aspectos de los métodos estándar y basados en
wavelet.

2.4.4. Índices derivados de la Teledetección


En base al estudio de las firmas espectrales introducido en la sección 2.3, se desarrollan los
llamados índices de Teledetección que utilizan operaciones aritméticas con determinadas
bandas para extraer información de cubiertas terrestres. La elección de las bandas se hace
teniendo el cuenta el comportamiento de la curva espectral de los cuerpos terrestres en función
de la cobertura que se quiera analizar. En base a esto, se definen algunos de los índices más
conocidos:
• NDVI: Normalized Difference Vegetation Index. Propuesto por primera vez por Kriegler
et al. (1969), es utilizado para resaltar las zonas de vegetación en las imágenes de
Teledetección. Se calcula como:
N IR − RED
N DV I = (2.18)
N IR + RED

• NDWI: Normalized Difference Water Index (McFeeters, 1996). Utilizado para extraer
la cubierta de agua. Se calcula como:
GREEN − N IR
N DW I = (2.19)
GREEN + N IR

• MNDWI: Modified Normalized Difference Water Index. Propuesto por Xu (2006), será
utilizado más adelante en este trabajo. Pretende mejorar el resultado obtenido con el
índice NDWI para la extracción de cuerpos de agua. Se calcula como:
GREEN − SW IR
M N DW I = (2.20)
GREEN + SW IR

• NDBI: Normalized Difference Built-up Index. Este índice es utilizado para resaltar las
2.5. Algoritmos de Segmentación de imágenes 19

zonas urbanas con presencia de edificios y construcciones humanas. Se calcula como:


SW IR − N IR
N DBI = (2.21)
SW IR + N IR

2.5. Algoritmos de Segmentación de imágenes


Las técnicas utilizadas para destacar objetos en una imagen respecto de otros son llamadas
técnicas de segmentación (Iddamsetty, 2003). En concreto, estas técnicas buscan realizar
particiones de la imagen en distintos segmentos con características similares como pueden
ser: color, intensidad o textura (Kaur, 2015).
De acuerdo con Kaur, existen distintos tipos de técnicas de segmentación: basadas en um-
bral (thresholding, en inglés), crecimiento de regiones, basadas en algoritmos de clasificación
y basadas en redes neuronales.
En este proyecto se va a profundizar en las técnicas basadas en umbral y que son conocidas
por el nombre de umbralización. La umbralización consiste en separar los píxeles de una
imagen en escala de grises en dos clases, en base a un umbral t que representa un valor
determinado de intensidad (Triana et al., 2016).
En ocasiones lo que se pretende es obtener una imagen binarizada, es decir, con valores de
píxel 0 y 1. Esta binarización es de bastante utilidad en Teledetección a la hora de obtener
cambios en imágenes tomadas en dos momentos diferentes. Normalmente, los píxeles con valor
0 representan zonas de no-cambio, mientras que los píxeles de valor 1 serán zonas de cambio.
De acuerdo con Molina et al. (2012), los algoritmos de umbralización pueden clasificarse
en tres grupos:
• Iterativos: Dentro de este grupo se encuentra el algoritmo de Ridler y Calvard
(Ridler y Calvard, 1978), el cual se inicializa con un valor umbral t que es estimado a
partir del valor medio del histograma de la imagen, es decir, la intensidad media. Tras
n iteraciones el algoritmo converge en un punto donde no se haya sobrepasado el valor
de tolerancia establecido.
• Clustering: En este grupo de algoritmos encontramos al algoritmo de Otsu (Otsu,
1979). Es uno de los algoritmos más conocidos y será el empleado a lo largo de este
trabajo. Se utiliza fundamentalmente para realizar una binarización segmentando la
imagen en 2 clústeres. El algoritmo de Otsu asume que los píxeles de la imagen siguen
dos distribuciones Gaussianas, una correspondiente a píxeles de fondo y otra a píxeles
de primer plano. El objetivo de este algoritmo es la búsqueda exhaustiva del umbral t
que minimice la suma de varianza ponderada dentro de las clases, lo que derivará en
hacer máxima la varianza entre las dos clases que representarán zonas de “cambio” y
“no-cambio” en el contexto de este proyecto. Por tanto, la función a minimizar en este
algoritmo es:
2
σw (t) = q1 (t)σ12 (t) + q2 (t)σ22 (t) (2.22)

• Basados en entropía: Son algoritmos que escogen el umbral t mediante la elección del
20 Marco Teórico

Figura 2.5: Histograma bimodal con umbral T detectado y con t0 y t1 como posibles niveles de gris
diferentes.

Tomada de “Técnicas de umbralización para el procesamiento digital de imágenes de GEM-Foils” por


Triana et al. (2016).

valor de intensidad que refleje la mayor entropía. Dentro de las medidas más comunes
para calcular la entropía se encuentra la entropía de Shannon. Algunos de los algoritmos
basados en esta métrica son el método Kapur (Kapur et al., 1985) o el algoritmo
de Li (Li y Lee, 1993).

2.6. Análisis de Componentes Principales


El método de Análisis de Componentes Principales ACP, o PCA, por sus siglas en inglés, es
una técnica de aprendizaje no supervisado dado que el conjunto de datos no está etiquetado.
El objetivo es transformar ese conjunto original de datos que está formado por variables, en
otro conjunto de variables o componentes que sean obtenidas mediante combinación lineal
de las componentes anteriores. De esta forma, las primeras nuevas componentes generadas
explican el máximo de la varianza o variabilidad total, y el resto van explicando una varianza
que tiende a ser cada vez más reducida (Ruiz Fernández, 2013).

2.6.1. Cálculo de las Componentes Principales


Para el cálculo de las Componentes Principales se parte de un conjunto de datos X en
forma matricial con n filas y p columnas. De esta forma se tiene una matriz donde cada
columna es un vector de tamaño n que representa el valor de los n píxeles de cada una de
las bandas. Esta representación se asemeja a una imagen multibanda de Teledetección donde
2.6. Análisis de Componentes Principales 21

cada elemento de la matriz, Xij , indica la intensidad de luz que emite el píxel i en la banda
j.

 
x11 · · · x1j · · · x1p
··· ··· ··· ··· ···
 
X = (x1 , ..., xj , ..., xp ) = 
 xi1 · · · xij · · · xip 
 (2.23)
··· ··· ··· ··· ···
xn1 · · · xnj · · · xnp

Por tanto, para obtener los ND de la i-ésima banda se extrae Xi = [x1i , x2i , · · · , xnp ] .
También es necesario definir la matriz de varianzas y covarianzas de X. Se trata de una
matriz con p dimensiones, es decir, coincide con el número de variables o bandas de la imagen
multiespectral.

 
2
σ11 · · · σ1p
2

ΣX = · · · · · · · · · (2.24)
2
σp1 · · · σpp
2

Como las nuevas componentes principales se obtienen como combinación lineal de las
originales, se puede definir Y como la nueva variable a obtener de la combinación lineal de
X:

Y1 = at1 X = a11 X1 + a21 X2 + · · · + ap1 Xp


Y2 = at2 X = a12 X1 + a22 X2 + · · · + ap2 Xp
..
.
Yp = atp X = a1p X1 + a2p X2 + · · · + app Xp

Si Yi es combinación lineal de Xi , entonces:

V ar(Yi ) = ati Σx ai
Cov(Yi , Yk ) = ati Σx ak

Las combinación lineal debe ser única y para ello ha de satisfacer tres condiciones:
1. Las nuevas variables Yi han de maximizar la varianza.
2. Las nuevas variables Yi han de ser ortogonales para que no exista correlación entre
componentes.
3. Se debe utilizar vector unitario de coeficientes que satisfaga ati · ai = 1 (longitud 1).
El procedimiento general para el cálculo de las componentes principales es el siguiente:
22 Marco Teórico

1. La primera componente principal es la combinación lineal ati X que maximiza V ar(at1 X).
2. La segunda componente principal es la combinación lineal at2 X que maximiza V ar(at2 X)
y con Cov(at1 X, at2 X) = 0 de tal manera que no esté correlacionada con la primera
componente principal.
3. La i-ésima componente principal es la combinación lineal ati X que maximiza V ar(ati X)
y con Cov(ati X, atk X) = 0 para k < i de tal manera que no esté correlacionada con la
anterior componente principal.
En Johnson y Wichern (1982) se muestra que el i-ésimo componente principal puede ser
calculado de la siguiente forma:

Yi = eti X = e1i X1 + e2i X2 + · · · + epi Xp (2.25)

Donde: ei → son los autovectores de ΣX

Antes de continuar, definamos que es un autovalor y un autovector:


Definición 2.1 (Autovalor). Sea A ∈ Rn×n , λ ∈ R es autovalor de A ⇔ existe un vector
v ∈ Rn×1 no nulo tal que:

A · v = λ · v, v ̸= 0v

Donde: v → es el autovector asociado a λ.

Por tanto, si Σx es la matriz de varianza-covarianza, esta se compone de autovalores λi


con λ1 ≥ λ2 ≥ · · · ≥ λp ≥ 0 y autovectores ei .
Volviendo a la nueva variable Yi , su varianza y covarianza son definidas como:

V ar(Yi ) = V ar(eti X) = eti Σx ei = λi


Cov(Yi , Yk ) = eti Σx ek = 0, i ̸= k

De esta forma queda definida la matriz de varianza-covarianza de Y, Σy , como la matriz


cuya diagonal principal contiene los autovalores de los ND en el nuevo sistema de coordenadas
transformado:

 
λ1 · · · · · · 0
 0 λ2 · · · 0 
 
Σy =  . .. .. ..  (2.26)
. . . . .
0 · · · · · · λp
2.6. Análisis de Componentes Principales 23

En esta matriz Σy , los autovalores van decreciendo en la diagonal por lo que la máxima
varianza es expresada por la primera componente principal hasta que se va reduciendo en
las siguientes componentes. Es útil conocer como un autovalor representa la cantidad de
información que contiene la componente principal asociado al autovalor. Por otro lado, el
autovector puede ser concebido como una sucesión de pesos para cada una de las bandas que
permite obtener la componente principal tras aplicar la combinación lineal.

2.6.2. Aplicaciones en Teledetección


Ruiz Fernández (2013) propone algunas aplicaciones para el método de PCA de las cuales
se muestran las más relevantes para el objeto de este proyecto:
1. Reducción del volumen de datos: al aplicar PCA se realiza una reducción de dimen-
sionalidad del conjunto inicial de datos. Esto es debido a que se presupone que existe
información redundante en la medida en que existe correlación entre bandas. Cuando
se cuenta con un volumen muy grande de datos aplicar PCA para reducir la dimen-
sionalidad puede ser un paso importante para poder hacer un procesamiento menos
costoso.
2. Reducción del ruido: al mismo tiempo que reducimos la dimensionalidad de los datos,
también se elimina el ruido existente en las imágenes multiespectrales. De acuerdo con
Ruiz Fernández, son las últimas componentes principales las que suelen contener la
mínima información y, por tanto, reflejan el ruido existente en las imágenes.
3. Detección de cambios: es la aplicación en la que se basa fundamentalmente el presente
proyecto. Para utilizar PCA en la detección de cambios se debe contar con una combi-
nación de bandas correspondientes al mismo lugar pero adquiridas en fechas distintas.
A partir de esta combinación se aplica PCA obteniendo como máximo tantas compo-
nentes principales como bandas utilizadas en la combinación. En principio, las primeras
componentes principales contienen información de las zonas invariantes al ser menos
importantes en la medida que ocupan menos espacio; en cambio, las sucesivas com-
ponentes principales pueden mostrar información relativa a los cambios (información
presente solo en las bandas de uno de los períodos) (Ruiz Fernández, 2013). En otras
palabras, suponiendo que las zonas de cambio sean cuantitativamente menos importan-
tes, las primeras componentes principales contendrán información relativa a las zonas
invariantes (las más abundantes), mientras que las últimas componentes registrarán los
cambios o evoluciones en el tiempo.
3. Estado del Arte

El “Estado del Arte” de este proyecto se propone como una sección donde se realice un
doble análisis. Por un lado, revisar el estado actual de la tecnología relativa al análisis de
cambios en masas de agua; y por otro, de forma implícita, tomar conciencia de la evolución
de los distintos métodos existentes para evaluar estos cambios, no solo con mecanismos de
Teledetección, sino también con técnicas menos vanguardistas pero igual de utilizadas como
las herramientas de medición sobre el terreno.

3.1. Herramientas de medición del agua embalsada in situ.


De acuerdo con de la Aleja (2006), ha habido una evolución notable en cuanto a los sistemas
de medida del nivel del agua embalsada en los pantanos. Tener sistemas de medidas fiables
permite conocer las reservas disponibles en un embalse, así como optimizar la explotación del
embalse o controlar situaciones críticas.
Los sistemas más modernos que se recogen en la ponencia presentada en el Congreso Na-
cional del Medioambiente de 2006 por de la Aleja siguen aún vigentes, como se puede observar
en el Pliego de Bases recogido en López (2014) por el cual se contratan los servicios de man-
tenimiento, conservación y explotación del Sistema Automático de Información Hidrológica
(SAIH) en la cuenca del río Guadiana.
Los sistemas de medida actuales, basados en el contenido de la ponencia de de la Aleja se
pueden clasificar en distintos grupos: medida directa, medida de presión y medida por tiempo
de paso.
• Medida directa: se utiliza un artefacto denominado limnímetro de flotador que se
conforma de un flotador, una cadena y un contrapeso. El flotador es la parte que se
encuentra en contacto con la masa de agua y en función de si el nivel sube o baja el
flotador hará lo mismo. Sin embargo, es un sistema que está prácticamente sustituido
por otro tipo de tecnologías con un funcionamiento más moderno.
• Medida por presión: estos sistemas son los más utilizados actualmente. Existen dos
tipos:
– Captación hidrostática: se cuenta con un sensor situado por debajo del nivel del
agua y que se encuentra situado dentro de una columna de retención. Este sensor
mide la presión que ejerce el agua sobre la columna.
– Captación neumática: en este caso no se cuenta con un sensor instalado en la
columna de retención sino que se trata de una sonda que transporta un caudal de

24
3.2. Misión SWOT 25

aire hacia la masa de agua y, gracias a un sensor situado sobre la cota máxima de
agua, se mide la presión de aire que se origina en la sonda.
• Medida por tiempo de paso: este tipo de sistemas calculan el tiempo que emplean
impulsos de ultrasonido o de radar en recorrer la distancia entre el dispositivo generador
y el nivel de agua.
– Ultrasonidos: el impulso es generado por una sonda ultrasónica. En este caso, la
velocidad de los ultrasonidos se ve influida directamente por la temperatura del
aire, por lo que se necesita contar con un sensor de temperatura para compensar
las medidas.
– Radar: el impulso es generado por una antena que emite ondas electromagnéticas
a la velocidad de la luz. Este sistema no se ve afectado ni por la temperatura ni
por otros fenómenos meteorológicos.

3.2. Misión SWOT


Las mediciones in situ son la base fundamental en lo que se refiere a cuantificación de las
distintas variables de las aguas superficiales en todo el mundo. Han ayudado a cuantificar
el movimiento del agua en los canales de los ríos, pero si comparamos, proporcionan poca
información sobre la variación espacial de la extensión del agua superficial en algunos casos,
como sucede con los flujos de los humedales o de las vegas. Los métodos in situ proporcionan
tan solo una vista puntual de una dimensión espacial de las superficies del agua que es
apropiada en situaciones en las que existen límites que regulan el flujo del agua, pero no en
situaciones más complejas (Alsdorf et al., 2007).
Es por esto que se deben buscar otras alternativas que garanticen la cuantificación de los
niveles de agua en todas las superficies fluviales, como la aplicación de la Teledetección. Las
imágenes de satélite nos proporcionan respuestas para el cambio climático, seguimiento de zo-
nas afectadas por incendios forestales, cambios de masas de agua y muchas otras aplicaciones.
Además, durante los últimos años es posible descargar de forma rápida y gratuita imágenes
Landsat, Sentinel o MODIS, por lo que su utilización para el seguimiento medioambiental se
ha ido extendiendo notablemente.
El estado del arte de la Teledetección y el monitoreo global de los cuerpos de agua pasa
actualmente por la misión SWOT (Surface Water and Ocean Topography). Es una misión
llevada a cabo de manera conjunta por la NASA y el Centro Nacional de Estudios Espaciales
francés (CNES) en la que también se encuentran inmersos la Agencia Canadiense del Espacio
(CSA) y la Agencia del Espacio del Reino Unido.
El objetivo de la misión SWOT es el de mejorar el campo de estudio de la hidrología
con el lanzamiento de un satélite que cubrirá hasta el 90% de la superficie cubierta por
agua del planeta Tierra. Los resultados que se prevén obtener para el estudio van desde la
caracterización de las coberturas terrestres, pasando por la obtención de mapas de elevación
acuática, hasta llegar a medir como los embalses, océanos o lagos han cambiado a lo largo de
los años (Canadian Space Agency, 2020).
26 Estado del Arte

La tecnología empleada por la plataforma satelital será la interferometría de radar de


apertura sintética o InSAR, por sus siglas en inglés Interferometric Synthetic Aperture Radar,
y operará en la banda Ka del espectro electromagnético con longitudes de onda 1’15 - 0’78
cm, es decir, en la región de las microondas.
Los sensores con tecnología SAR son catalogados como sensores activos (ver subsección
2.4.1) por lo que primero irradian radiación electromagnética y reciben la radiación reflejada
por los cuerpos. Como la misión SWOT cuenta además con tecnología de interferometría, que
permite el estudio del desfase de ondas, es posible obtener mapas de elevación del terreno.
Entrando en más detalle, el satélite SWOT contará con dos antenas SAR. Emitirá la
radiación artificial por una de ellas y recogerá la radiación reflejada en ambas antenas, lo que
supondrá tener dos ondas con un desfase. Es aquí donde entra en juego la interferometría
para obtener la altitud de la masa de agua conociendo la diferencia de fase entre las dos
ondas, la distancia entre las dos antenas y la longitud de onda de radar (banda Ka) (NASA,
s.f.-b).
Aunque la misión SWOT no será lanzada hasta febrero de 2022 en el cohete SpaceX Falcon
9, actualmente hay una misión derivada de la original para probar la tecnología a utilizar. Se
trata de AirSWOT.
AirSWOT es un radar aerotransportado con la misma tecnología con la que contará
SWOT, SAR, y que opera en la banda Ka del espectro electromagnético. Su uso funda-
mentalmente está destinado a calibrar y validar los datos recogidos cuando el satélite SWOT
pueda operar. Sin embargo, toda la información recogida por AirSWOT también es de utili-
dad y está siendo usada actualmente para analizar las masas de agua (NASA, s.f.-a).

3.3. Programa Landsat


El programa Landsat, desarrollado por la NASA y la agencia United States Geological
Survey (USGS), comenzó en 1972 con la puesta en órbita de su primer satélite “Landsat 1”,
el cual fue la primera plataforma lanzada al espacio para la monitorización de la cubierta
terrestre y los recursos naturales.
A lo largo de los años, desde el primer lanzamiento, ha habido hasta 8 satélites del programa
Landsat. Cada uno de estos satélites ha tenido una vida útil determinada hasta que fuera
reemplazado por su sucesor en un nuevo lanzamiento. Sin embargo, el satélite “Landsat 6”
no logró situarse en órbita debido a un fallo en un colector de hidracina (Piwowar, 2011).
Actualmente, coexisten dos satélites operativos en el programa: Landsat-7 y Landsat-8.

Landsat-7

Landsat-7 fue lanzado y puesto en órbita el 15 de abril de 1999 con el Enhanced Thematic
Mapper Plus (ETM+) como sensor de Teledetección abordo.
El sensor ETM+ cuenta, entre otras, con las siguientes características:
3.3. Programa Landsat 27

• Resolución radiométrica de 8 bits.

• Posibilidad de obtención de imagen pancromática con 15 metros de resolución espacial.

• Calibración embarcada radiométrica absoluta del 5%.

• Canal térmico IR con 60 metros de resolución.

• Scan Line Corrector (SCL): mecanismo que corrige el patrón de zigzag que puede
haber en algunas imágenes. Sin embargo, el 31 de mayo de 2003 este mecanismo dejó
de funcionar por lo que Landsat-7 continua adquiriendo imágenes con un patrón de
zigzag que tiene que ser corregido con técnicas de post-procesamiento.

Las bandas espectrales que el sensor puede detectar son 8, y se pueden ver en la tabla 3.1
en comparación con las que se obtienen con Landsat-8.

Las imágenes obtenidas con Landsat-7 a partir de las bandas obtenidas con el sensor
ETM+ están georeferenciadas con el sistema WRS1 -2 y abarcan una superfice de 185km ×
170km. Además, es capaz de obtener unas 450 escenas diarias realizando un ciclo completo
cada 16 días (Ihlen, 2019).

Landsat-8

Actualmente, “Landsat-8” es el satélite más reciente del programa. Fue lanzado y puesto
en órbita con éxito el 11 de febrero de 2013 para continuar con el programa y mejorar la
calidad de las imágenes capturadas con el todavía operativo “Landsat-7”.

La misión de Landsat-8 fue también llamada, antes de su lanzamiento, Landsat Data


Continuity Mission (LDCM). Su objetivo principal es el de proporcionar imágenes de alta
calidad en el espectro visible e infrarrojo que cubran toda la masa de tierra y las áreas
cercanas a las costas.

En cuanto a tecnología, esta plataforma incorpora dos nuevos sensores: Operational Land
Imager (OLI) y Thermal Infrared Sensor (TIRS).

• OLI: Las características más reseñables de este sensor son:

– Resolución radiométrica de 12 bits.

– Resolución espacial de 15 metros para banda pancromática y 30 metros para mul-


tiespectrales.

– Redefinición del rango espectral de bandas para evitar los fenómenos de la atmós-
fera y el vapor de agua.

– Mejora de la banda pancromática en cuanto a contraste entre zonas de vegetación


y sin vegetación.
1
World Reference System
28 Estado del Arte

• TIRS: Este sensor térmico recoge imágenes para dos bandas (TIR-1 y TIR-2) con una
resolución espacial de 100 metros redimensionados a 30 metros. Por su parte, la resolu-
ción radiométrica sigue siendo de 12 bits. Además, el sensor TIRS tiene una sensibilidad
mucho mayor que el sensor ETM+, ya que es capaz de detectar temperaturas entre 260K
y 330K en comparación con el rango de sensibilidad térmica 272-285K de ETM+.

Tabla 3.1: Comparación de bandas espectrales entre ETM+ y OLI/TIRS


Landsat-7 ETM+ Landsat-8 OLI/TIRS

Banda Longitud de onda (µm) Resolución (m) Banda Longitud de onda (µm) Resolución (m)

1 (Coastal/Aerosol) 0’435 - 0’451 30


1 (Azul) 0’441 - 0’514 30 2 (Azul) 0’452 - 0’512 30
2 (Verde) 0’519 - 0’601 30 3 (Verde) 0’533 - 0’590 30
3 (Rojo) 0’631 - 0’692 30 4( Rojo) 0’636 - 0’673 30
4 (NIR) 0’772 - 0’898 30 5 (NIR) 0’851 - 0’879 30
5 (SWIR-1) 1’547 - 1’749 30 6 (SWIR-1) 1’566 - 1’651 30
6 (TIR) 10’31 - 12’36 60 10 (TIR-1) 10’60 - 11’19 100
7 (SWIR-2) 2’064 - 2’345 30 11 (TIR-2) 11’50 - 12’51 100
8 (PAN) 0’515 - 0’896 15 7 (SWIR-2) 2’107 - 2’294 30
8 (PAN) 0’503 - 0’676 15
9 (Cirrus) 1’363 - 1’384 30

Adapatada de “OLI and TIRS Spectral Bands Compared to ETM+ Spectral Bands” por Ihlen
V., 2019, Landsat 8. Data Users Handbok, p. 10.

Como se observa en la tabla 3.1, en comparación con Landsat-7, Landsat-8 proporciona


2 nuevas bandas: Coastal/Aerosol y Cirrus. La primera está destinada a la observación del
color de los océanos y la segunda para la detección de pequeñas nubosidades.

Al igual que su predecesor, Landsat-8 completa un ciclo completo en 16 días y, además,


mantiene un desplazamiento orbital de 8 días con respecto a Landsat-7, por lo que cada
8 días es posible obtener una imagen del mismo lugar con el programa Landsat. Además,
el número de escenas tomadas aumenta a 700 aproximadamente utilizando el sistema de
georeferenciación WRS-2.

Landsat-9

Aunque las misiones operativas del programa Landsat son actualmente Landsat-7 y Landsat-
8, el Estado del Arte de este programa, en cuanto a contexto temporal y tecnología, pasa por
la misión Landsat-9 que será lanzada en septiembre de 2021.

El objetivo de Landsat-9 sigue siendo el mismo: continuar con la captura de imágenes que
ayuden a mejorar el conocimiento científico de la cubierta terrestre. Concretamente, en el
artículo “Landsat 9 Overview” (s.f.) se recogen algunos objetivos más específicos para esta
misión que pasan por el apoyo en la toma de decisiones relativas a distintos fenómenos:

• Deforestación tropical.

• Expansión urbana.

• Uso del agua.


3.3. Programa Landsat 29

• Degradación del arrecife de coral.


• Deshielo de los glaciares.
• Desastres naturales y ocasionados por el hombre.
• Cambio climático.
Como se aprecia, el análisis de las aguas, tanto de su uso como de la monitorización de
los cambios, sigue cobrando vital importancia en esta nueva misión.
La tecnología a bordo del satélite Landsat-9 será muy similar a la ya conocida de Landsat-
8. Esta nueva plataforma contará con dos sensores: OLI-2 y TIRS-2. En primer lugar, no se
preveen cambios para el sensor OLI-2, el cual será una copia exacta del sensor OLI con la
única diferencia de que obtendrá imágenes con una resolución radiométrica de 14 bits. En
cambio según figura en Markham et al. (2014), para el sensor TIRS-2 sí que habrá algunos
cambios como la actualización a una implementación de riesgo de clase B (mayor fiabilidad).
Además, TIRS-2 corregirá el problema detectado en el sensor TIR llamado stray light, el
cual afecta a las imágenes capturadas por este sensor desde el lanzamiento de Landsat-8
(Markham et al., 2014).
Por otro lado, y dado que no hay mejoras en cuanto al sensor OLI, las bandas espectrales
recogidas por Landsat-9 serán las mismas que ya recoge su predecesor. Así, el desfase orbital
sigue siendo de 8 días con respecto a Landsat-8 y tanto la cantidad de escenas tomadas por
día como el tiempo en completar un ciclo completo seguirán siendo iguales.
4. Desarrollo

4.1. Contexto geográfico

Para el desarrollo de este proyecto se ha elegido como zona geográfica de estudio la comarca
“La Siberia” (39°9′ 0′′ N, 5°6′ 0′′ W), situada en el margen nororiental de la provincia de
Badajoz, en la comunidad autónoma de Extremadura.

La comarca extremeña, que cuenta con 5 embalses, es la mayor costa interior de agua
dulce de España. Cada uno de estos 5 embalses han sido estudiados a lo largo de este trabajo
y son los siguientes:

• Embalse de Cíjara (39°20′ 2′′ N, 4°53′ 7′′ W): en la cuenca del río Guadiana. Cuenta con
una capacidad total de 1532 hm3 .

• Embalse de García de Sola (39°9′ 23.77′′ N, 5°11′ 26.57′′ W): en la cuenca del río Gua-
diana. Recibe el agua arrojada por los aliviaderos del embalse de Cíjara y alimenta al
embalse de Orellana. Cuenta con una capacidad total de 554 hm3 .

• Embalse de Orellana (38°59′ 9′′ N, 5°32′ 16′′ W): en la cuenca del río Guadiana. Cuenta
con una capacidad total de 808 hm3 de agua embalsada.

• Embalse del Zújar (38°55′ 47.38′′ N, 5°26′ 41.74′′ W): en la cuenca del río Zújar. Actual-
mente, este pantano sirve como contraembalse del embalse de La Serena. Cuenta con
una capacidad total de 302 hm3 .

• Embalse de La Serena (38°54′ 45.65′′ N, 5°24′ 48.89′′ W): en la cuenca del río Zújar. Es
considerado como la segunda mayor bolsa de agua dulce de la península ibérica y una
de las más grandes de Europa. El embalse de La Serena tiene capacidad para embalsar
3219 hm3 de agua.

30
4.1. Contexto geográfico 31

Figura 4.1: Mapa comarcal de España. En rojo, la comarca de “La Siberia” (Badajoz)

Tomada de “Mapa comarcal de España” publicado por Barajas (2020).

Figura 4.2: Imagen en color real de la comarca “La Siberia” con la localización de sus 5 embalses

Elaborada por el autor mediante la combinación de bandas RGB del satélite Landsat-8 tras aplicar el
método de Normalización del histograma (ver subsección 2.4.3.3). Fecha de adquisición: 28 de junio
de 2015.
32 Desarrollo

4.2. Ecosistema tecnológico empleado


El desarrollo de la fase técnica y experimental de este proyecto ha sido llevado a cabo
dentro de un ecosistema tecnológico conformado por distintos elementos software y hardware.
A continuación, se entra en el detalle de cada uno de estos elementos con la finalidad de fijar
un punto de partida previo a la explicación de la metodología propuesta.

Python

Python es un lenguaje de programación interpretado, multiparadigma y de tipado dinámico


creado a finales de los 80s. Sus aplicaciones son muy variadas, pueden ir desde el tratamiento
de imágenes hasta la comunicación con APIs de terceros.

Para este trabajo se ha empleado este lenguaje tanto para la obtención de imágenes de
Teledetección como para realizar todo el procesamiento de imágenes obtenidas y aplicar
los métodos de detección de cambios. Sin embargo, para el procesamiento y la aplicación
de métodos se ha utilizado el entorno de desarrollo “Jupyter”, que será introducido en el
siguiente punto.

En general, una buena parte de la programación con Python pasa por la utilización de
distintas librerías desarrolladas por terceros. Estas librerías son de reconocido prestigio y
están testadas en cuanto a rendimiento y finalidad. En este sentido, y con la intención de que
este proyecto pueda ser replicado en el futuro en las mismas condiciones en las que ha sido
desarrollado por el autor, se detalla el entorno utilizado en cuanto al lenguaje y sus librerías:

La versión de Python empleada ha sido la 3.7.8 de 64 bits. En la tabla 4.1 se detallan las
versiones de las librerías utilizadas.

Tabla 4.1: Módulos de Python utilizados y sus versiones


Módulo Versión Descripción
descartes 1.1.0 Proporciona objetos geométricos
matplotlib 3.3.2 Librería de visualiación de figuras y gráficas
numpy 1.20.0 Permite utilizar arrays y brinda todo un entorno
para realizar cómputos con ellos
pandas 1.1.3 Proporciona estructuras de datos para el análisis
de datos
rasterio 1.1.8 Utilizada para leer y escribir datos en forma de
rásteres geoespaciales
scikit-image 0.17.2 Librería de procesamiento de imágenes
scikit-learn 0.24.1 Librería para machine learning
seaborn 0.11.0 Ofrece visualizaciones en forma de gráficas
tifffile 2020.11.18 Útil para leer y escribir archivos TIFF
4.3. Entregables 33

Jupyter

Jupyter es un proyecto open source que sirve de entorno de programación para lenguajes
como Python y está enfocado hacia la ciencia de datos y la computación científica.
Este entorno ofrece una gran versatilidad, sobre todo a la hora de trabajar con imágenes,
ya que la visualización de estas se realiza dentro de la misma herramienta sin necesidad
de recurrir a otros programas externos. Por tanto, puesto que tanto el tratamiento como la
visualización de imágenes es vital para este trabajo, se ha decidido emplear esta tecnología.
El entorno de Jupyter ofrece su interfaz de usuario mediante una aplicación web que se
ejecuta en el puerto 8888 del localhost del sistema. Esta interfaz se basa en una serie de celdas
de entrada, que pueden contener texto o código, y de salida, que contienen el resultado de la
ejecución de la celda de entrada previa. Fruto de esta sucesión de celdas, y siempre que se
utilice Python como lenguaje de programación, se tiene finalmente un fichero de extensión
ipynb que conforma un cuaderno o notebook.

Hardware

Todo el software mencionado ha sido ejecutado bajo un equipo Windows 10 con las si-
guientes características hardware:
• Memoria RAM de 16 GB compuesta por 2 módulos con tecnología DDR3 de 8 GB cada
uno, trabajando en modo dual channel.
• Procesador Intel Core i5-4210U con frecuencia base de 1.7 GHz y frecuencia máxima de
2.7 GHz con turbo activado. 2 procesadores principales (cores) y 4 procesadores lógicos.
• Disco duro interno con tecnología HDD de 1TB de capacidad destinado al almacena-
miento de las imágenes de Teledetección.
• Disco duro externo con tecnología HDD de 1TB de capacidad destinado al respaldo
diario del contenido de todo el proyecto.
• Disco duro interno con tecnología SSD de 256 GB de capacidad destinado a la ejecución
de tareas de procesamiento de imágenes.

4.3. Entregables
Para alcanzar cada uno de los objetivos descritos en la sección 1.2, se han elaborado una
serie de ficheros que serán adjuntos a modo de entregables y que sirven de complemento al
presente documento.
• Fichero get_data.py. Se trata un script desarrollado por el autor para la comunicación
con la API M2M de EROS USGS y que ha sido empleado para la selección y descarga
de las colecciones de imágenes de Landsat-8. En la subsección 4.4.1 se profundiza sobre
este ítem.
34 Desarrollo

• Fichero Analisis y preprocesamiento.ipynb. Es el primero de los notebook de Jupyter


realizados. Tras un análisis exploratorio de los datos se comienza con la metodología de
preprocesamiento propuesta.
• Fichero Diferencia de indice MNDWI.ipynb. Notebook de Juypter en el que se ha apli-
cado el procedimiento para obtener el ground truth de cada período y zona de estudio.
• Fichero Metodo 1.ipynb. Notebook de Jupyter utilizado para desarrollar el método 1 de
detección de cambios con Análisis de Compontentes Principales.
• Fichero Metodo 2.ipynb. Notebook de Jupyter utilizado para desarrollar el método 2 de
obtención de cambios con Análisis de Compontentes Principales aplicado a la diferencia
de bandas multitemporales.
• Fichero Evaluacion de metodos.ipynb. Último de los entregables elaborados en formato
de notebook, en el que se ha aplicado una metodología de evaluación de los métodos
utilizados en este trabajo para la detección de cambios en cuerpos de agua.
La estructura de los notebook de Jupyter que se adjuntan es muy similar. En primer lugar,
se llama a las librerías utilizadas y se definen variables globales cuyo uso será recurrente a
lo largo de los ficheros. Seguidamente, se incluyen apartados donde se sintetizan los métodos
desarrollados en lenguaje Python y que son de utilidad para el proyecto. En este sentido, se ha
hecho un uso de distintos paradigmas de programación gracias a la versatilidad multiparadig-
ma que ofrece Python. Los paradigmas utilizados han sido: programación orientada objetos,
programación imperativa procedimental y programación declarativa funcional. Además, es-
tos documentos ofrecen información en texto complementaria que apoyan los procedimientos
implementados en código fuente, por lo que se recomienda al lector su visualización.
Por otro lado, todos estos entregables se ponen a disposición del lector en OneDrive. En
esta carpeta compartida se podrá tener acceso tanto a las imágenes preprocesadas como a
los ficheros anteriores.

4.4. Metodología
La metodología empleada a lo largo de este Trabajo Fin de Grado se conforma de distintas
etapas secuenciales, que van desde la obtención de imágenes de la zona de estudio, hasta la
evaluación de los resultados obtenidos tras la aplicación de distintos métodos de detección de
cambios.

4.4.1. Obtención de imágenes


La primera de las etapas es la obtención de imágenes del área de interés: comarca de “La
Siberia”. Para ello se ha elegido el satélite “Landsat-8” (ver subsección 3.3) como fuente de
imágenes a utilizar.
En este punto, conviene recordar que cada captura de los sensores OLI y TIRS de Landsat-
8 contiene 11 imágenes (una por cada banda) y cada una de estas imágenes puede llegar a
4.4. Metodología 35

Figura 4.3: Esquema de la metodología propuesta

Descarga de
imágenes

Análisis de
nubosidad

Obtención del
ROI

Normalización a
8 bits

Cálculo del Aplicación de Aplicación de


ground truth método 1 método 2

Estándar Fusión Matching Estándar Fusión Matching


36 Desarrollo

tener un tamaño aproximado de 400 MB si consideramos la banda pancromática. Esto supone


barajar una cantidad ingente de imágenes tanto en número como en tamaño.
Por el motivo anterior, optar por la búsqueda de un método escalable, rápido y capaz de
obtener imágenes de forma masiva puede ser la mejor opción. En este sentido, la elección
más apropiada, bajo el criterio del autor, es utilizar la API Machine-to-Machine (M2M) de
la USGS. Se trata de una API RESTful JSON que está destinada a acceder al inventario de
datos del Earth Resources Observation and Science, en adelante EROS, de la agencia USGS.
Dentro de este inventario se encuentran las imágenes del programa Landsat y, en concreto,
de Landsat-8.
Para la obtención de imágenes se ha desarrollado un programa o script en lenguaje Python
para interactuar con la API M2M. Es necesario recalcar, que para contar con la funcionalidad
completa de la API se requiere un requisito inicial: la creación de una cuenta en el sistema
USGS EROS. La creación de esta cuenta está sujeta a las condiciones de la USGS y para ello
es necesario rellenar un formulario en el que se deben contestar preguntas sobre el uso de las
imágenes, cantidad de imágenes que se prevé descargar, información de contacto, etc.

4.4.1.1. WRS PATH ROW


En la sección 3.3 ya se introdujo que el sistema de referencia utilizado por Landsat-8 es
WRS-2. Conocer este hecho es fundamental para la obtención de las imágenes del área de
estudio; al igual que lo es conocer el path y el row de la ruta orbital de Landsat-8 que identifica
de forma unívoca una escena Landsat.
Con el sistema de referencia WRS-2, el mapa del planeta Tierra es dividido en porciones
de un tamaño fijo aproximado de 182 km x 185 km. Cada una de estas porciones se identifica
con dos valores: la ruta (path) y la fila (row). La ruta o path es el recorrido que hace el
satélite cuando realiza su órbita “casi polar”, es decir, en sentido norte-sur con una ligera
inclinación. Cada una estas rutas es dividida en una serie de filas o rows que identifican el
centro latitudinal de una escena.
Desde el portal EarthExplorer se puede buscar la zona de estudio y obtener el path y row
aproximados. Los valores para la comarca de “La Siberia” son justamente P AT H = 202 y
ROW = 33, por lo que tan solo con una escena de 182 km x 185 km se cubre toda la zona
de interés sin necesidad de recurrir a escenas contiguas.

4.4.1.2. Minimun bounding rectangle (MBR)


Para buscar escenas únicas mediante la API M2M no basta con indicar el path y el row,
sino que se debe obtener el punto medio del cuadrante de la escena definido por los dos
valores y calcular el MBR que contenga a este punto. Si no se hace de esta forma, la API
devolverá tanto las escenas requeridas como aquellas otras fronterizas que contengan puntos
que pertenezcan a ambas escenas.
El MBR es el objeto geométrico de tamaño mínimo que puede contener otros objetos en
4.4. Metodología 37

Figura 4.4: Selección de path y row mediante EarthExplorer

su interior. Es decir, lo que se busca es un polígono rectangular que contenga al punto medio
del cuadrante del área de estudio y que ese polígono sea mínimo, de tal forma que no incluya
cuadrantes aledaños.
En la figura 4.4 se observa como existen dos cuadrantes que contienen partes de la zona de
estudio con una ligera superposición en el extremo oriental. Sin embargo, solo el cuadrante
amarillo (202-33) es el que cubre toda la zona de interés. Esta imagen también es útil para
comprender la importancia de seleccionar el punto medio del cuadrante para calcular el MBR
y poder así obtener tan solo la escena buscada; de forma contraria, obtendríamos también la
escena correspondiente al cuadrante de color rojo (201-33).

4.4.1.3. Colecciones Landsat


Dentro del inventario de EROS para el programa Landsat se ofrecen diferentes colecciones
a las que se puede acceder mediante la API. Cada una de ellas agrupan dos niveles internos
que varían en función del tipo de procesamiento realizado a las imágenes.
• Colección 2: es la colección más reciente de Landsat. Contiene dos niveles:
– Nivel 1: dentro de esta gama se encuentran las imágenes del sensor OLI/TIRS que
han sido sometidas a procesos de corrección geométrica y radiométrica.
– Nivel 2: este nivel condensa las imágenes generadas a partir del anterior nivel
tras aplicar algoritmos de post-procesamiento para obtener la reflectancia y la
temperatura de la superficie terrestre.
• Colección 1: es la colección inicial del programa Landsat y, de hecho, ya no será sopor-
tada por la nueva misión de Landsat-9. Contiene también dos niveles:
38 Desarrollo

– Nivel 1: al igual que con el nivel 1 de la colección 2, son imágenes con una calidad
superior fruto de la aplicación de técnicas de corrección.

– Nivel 2: dentro de este nivel se encuentran las imágenes que, tras aplicar el proce-
samiento, no cumplen con los requerimientos del nivel 1 y por tanto, son agrupadas
en este nivel secundario.

Para realizar un estudio temporal de detección de cambios, las imágenes deberían seguir un
mismo patrón de procesamiento y contar con la mejor calidad posible. Es por esto que para el
desarrollo de este trabajo se ha elegido la colección 2 nivel 1 del inventario proporcionado
por USGS EROS.

4.4.1.4. Script desarrollado

El script desarrollado para la obtención de imágenes cuenta principalmente con 2 funcio-


nalidades: conexión con la API mediante petición POST y descarga de productos. Cada una
de estas funcionalidades han sido exportadas a dos métodos dentro del script:

• send_post_request(API_url, endpoint, data, key): en la primera llamada al método se


realiza una petición POST sobre el endpoint “login” de la API con las credenciales
de usuario y contraseña creadas para el acceso. La respuesta a la petición es la clave
(parámetro key) para continuar con la conexión durante la ejecución del programa
sin necesidad de volver a autenticarse. Por tanto, después de la llamada inicial y la
autenticación, este método se utiliza siempre que se quiera hacer una petición POST a
alguno de los endpoints de la API.

• download_product(products, path): una vez identificado el producto a descargar se obtie-


ne su URL y se llama al método download_product que realiza una petición GET sobre
la URL del producto y guarda a disco los ficheros en la ruta path una vez terminado el
proceso de descarga.

Aunque la funcionalidad principal queda recogida en los puntos anteriores, el flujo de eje-
cución del script pasa por distintas etapas donde, en algunos casos, se requiere la intervención
del usuario.

1. Búsqueda de colecciones disponibles de Landsat-8: tras realizar una consulta sobre el


endpoint “dataset-search” de la API, se muestran las cuatro colecciones de producto
descritas en el punto anterior y se da la opción al usuario de elegir una.

2. Obtención de las coordenadas del punto medio del cuadrante: tras solicitar los datos
de path y row se realiza una consulta sobre el endpoint “grid2ll” para obtener las coor-
denadas del punto medio en formato decimal.

3. Búsquedas de escenas: para este punto se requiere un archivo JSON que actúa co-
mo filtro de búsqueda. La búsqueda de las imágenes adecuadas radica en la correcta
configuración de este fichero:
4.4. Metodología 39

Código 4.1: Configuración JSON del filtro de búsqueda


{
”datasetName”: dataset,
”sceneFilter”: {
”spatialFilter”: {
”filterType”: ”mbr”,
”lowerLeft”: {
”latitude”: coordinates[0][”latitude”],
”longitude”: coordinates[0][”longitude”]
},
”upperRight”: {
”latitude”: coordinates[0][”latitude”],
”longitude”: coordinates[0][”longitude”]
}
},
”seasonalFilter” : [5, 6]
”acquisitionFilter” : {
”start”: ”2013−1−1”,
”end”: ”2020−12−31”
},
”cloudCoverFilter”: {
”max”: 5,
”min”: 0,
”includeUnknown”: True
},
”startingNumber” : 1
}
}

Entrando algo más en el detalle, la descripción de los filtros utilizados es la siguiente:

• Filtro espacial: Se indican las coordenadas del MBR del cuadrante seleccionado.
Ya se había dicho que el MBR es calculado indicando tan solo el punto medio del
cuadrante, por lo que se indica la longitud y latitud del mismo en formato decimal
para los extremos “lowerLeft” y “upperRight”.

• Filtro estacional: El intervalo [5, 6] indica que para este estudio se han seleccionado
los meses de mayo y junio.

• Filtro de adquisición: Indicado para establecer el intervalo de fechas en el que se


desea buscar las imágenes. Dentro de este proyecto se ha realizado la búsqueda
de imágenes desde el año 2013 hasta el 2020, teniendo en cuenta la restricción del
filtro estacional.

• Filtro de nubosidad: Con la intención de descartar imágenes que presenten una alta
concentración de nubes, se indica que se obtengan imágenes con un 5% máximo
de nubosidad.

4. Descarga de productos: Si bien es cierto que en el apartado 4.4.1.3 se hablaba de co-


lecciones y niveles, cada una de estas colecciones contienen una gama de productos
determinado. Esta agrupación en forma de producto consiste en tener distintas opcio-
nes de descarga que varían desde el formato de imágenes (TIFF, JPG, ...) hasta la
cantidad de imágenes. En concreto para la colección 2 nivel 1 se tienen los siguientes:

• Full-Resolution Browse (Thermal) JPEG.


40 Desarrollo

• Full-Resolution Browse (Quality) GeoTIFF.


• Full-Resolution Browse (Natural Color) JPEG.
• Full-Resolution Browse (Quality) JPEG.
• Landsat Collection 2 Level-1 Product Bundle: es el producto elegido pa-
ra este proyecto debido a que contiene las 11 bandas espectrales de Landsat-8
en formato ráster georeferenciado y con el tamaño original. Además proporciona
archivos de metadatos con información de las imágenes y el sensor.
• Full-Resolution Browse (Natural Color) GeoTIFF
• Full-Resolution Browse (Thermal) GeoTIFF
También se realiza un filtro final (un filtro de capa) para obtener solo aquellos productos
que pertenecen a la capa T1 que es la que presenta las imágenes de mayor calidad dentro
del producto. Finalmente, se realiza una petición POST sobre el endpoint “download-
request” con la lista de todos los productos requeridos teniendo en cuenta todos los
filtros anteriores.

Figura 4.5: Salida por consola del script desarrollado tras la finalización de la descarga de imágenes

En la figura 4.5 se puede comprobar el resultado de la ejecución del script. Tras la aplicación
del filtro anterior, se detectan 15 conjuntos de imágenes correspondientes a los meses de mayo
y junio entre los años 2013 y 2020. Además, la imagen es útil para dar cuenta del tiempo
empleado en la descarga de los productos identificados, hecho que fundamenta la elección de
automatizar la obtención de imágenes a través de un script que interactúe con la API M2M.
4.4. Metodología 41

4.4.2. Procesamiento de imágenes


Tras la descarga de imágenes y la creación de una estructura de directorio que permitan
la correcta identificación de las imágenes, es el turno de procesar las imágenes para obtener
objetos finales que permitan aplicar las técnicas de detección de cambios.
Como resultado de aplicar los filtros establecidos se tiene el siguiente conjunto de colec-
ciones organizadas por año:

Tabla 4.2: Colecciones de imágenes iniciales previas al procesamiento


Año Día/mes
2013 [05/05, 22/06]
2014 [09/06]
2015 [11/05, 27/05, 28/06]
2016 [14/06, 30/06]
2017 [01/06, 17/06]
2018 [20/06]
2019 [07/06, 23/06]
2020 [24/05, 25/06]

4.4.2.1. Obtención del área de interés (ROI)


Dentro de toda la superficie cubierta por el cuadrante elegido, solo interesa aquella que
concierne a “La Siberia”. Es por eso que se necesita precisar aún mas el ROI a considerar
para hacer el análisis.
Con la intención de contar con un proceso lo más automatizado posible y dentro del
mismo entorno de trabajo, se ha optado por no utilizar ayuda de ningún software externo de
procesado de imágenes. Por tanto, para conseguir realizar esta fase del procesamiento, se han
utilizado distintos módulos de la librería de Python “rasterio”. “Rasterio” ofrece la capacidad
de realizar múltiples acciones de procesamiento con imágenes ráster y es, además, una de las
librerías de referencia para Teledetección en lenguaje Python.
A lo largo del presente trabajo se han desarrollado 2 métodos para la obtención de un
ROI dada una imagen ráster; aunque finalmente se ha optado por elegir un único método
para continuar con el procesamiento. De esta manera se garantiza la consistencia en cuanto
tamaño y forma de todas las imágenes resultantes.

4.4.2.1.1. Procedimiento 1: paralelogramo con rotación

Existe una rotación evidente en las imágenes de la colección 2 nivel 1 de Landsat-8. Dicha
rotación es debido a la georeferenciación y a la ruta orbital del satélite. Si se recuerda,
Landsat-8 contaba con una órbita “casi polar” en el sentido norte-sur, lo que obliga a girar
42 Desarrollo

Figura 4.6: Aplicación de máscara de corte para obtención de ROI

las imágenes para conseguir un ráster georefenciado donde se mantenga la situación de los
puntos cardinales.
Tomando la anterior premisa, si se quiere contar con un recorte que abarque la mayor
cantidad de terreno dentro de la zona de estudio, es preciso realizar un corte sobre la imagen
que presente su mismo ángulo de rotación; sobretodo cuando se trata de zonas situadas en
los extremos del ráster como es el caso.
El primer paso para conseguir este recorte es trazar un polígono rectangular con sus lados
paralelos dos a dos con los lados del ráster original. Para ello se propone utilizar un visor
GeoJson1 para trazar el polígono sobre la zona de interés y obtener las coordenadas de cada
uno de sus vértices.
Las coordenadas obtenidas de un visor GeoJson son de tipo decimal en el formato EPSG:4326;
sin embargo, el sistema de coordenadas CRS (Coordenates Reference System) de un ráster
Landsat es el EPSG:32630, tal y como se puede consultar en los metadatos del propio ráster.
Por tanto, es necesario hacer una conversión de CRS para poder realizar un corte al ráster
original con el polígono trazado. Para ello, el autor ha utilizado el módulo “warp” de la libre-
ría “rasterio” que proporciona el método “transform_geom” para realizar transformaciones
de CRS de un objeto JSON.
Una vez que tanto el polígono de corte como el ráster tengan el mismo CRS se puede
obtener la imagen final aplicando una máscara de recorte por medio del módulo “mask” de
“rasterio”.

1
Ejemplo de visor GeoJson disponible en https://www.keene.edu/campus/maps/tool/
4.4. Metodología 43

Eliminación de valores no-data

Una de las consecuencias de optar por este primer procedimiento es que se tienen imágenes
con un característico fondo negro. Este fondo negro representa a los píxeles no-data cuyo valor
viene recogido en los metadatos de la imagen. En concreto, para los ráster de Landsat-8 este
valor de píxel es 0.
Para deshacerse de estos valores y obtener una imagen con un fondo transparente se crea
una máscara que distinga los píxeles que contienen información de los que no (fondo negro).
Para ello se sigue la siguiente secuencia de pasos:
Paso 1 Crear un ráster auxiliar con los mismos metadatos de un ráster origi-
nal de Landsat-8. Este ráster auxiliar debe tener las dimensiones de
la imagen ROI.
Paso 2 Obtener la máscara predeterminada del ráster auxiliar, que no es otra
que una de las mismas características de un ráster original, es decir,
una máscara binaria con un objeto con una ligera inclinación hacia la
derecha en el frente y otro objeto que actúa como fondo de la imagen.
Para obtener esta máscara se puede recurrir al método “read_masks”
de “rasterio”.
Paso 3 Aplicar la máscara anterior a la imagen ROI original para obte-
ner el resultado final. En este punto se puede utilizar el método
“ma.masked_array” de la librería “numpy”.
De ahora en adelante cada una de las imágenes se conforma de dos partes: la propia
imagen con fondo transparente y la máscara booleana. Esto, entre otras cosas, dificulta el
procesamiento posterior y añade peso a las imágenes. Además, se deja de tener un ráster
georeferenciado para pasar a imágenes digitales sin georeferenciación.

Figura 4.7: Aplicación de una máscara para la eliminación de valores no-data


44 Desarrollo

4.4.2.1.2. Procedimiento 2: bounding box

El segundo procedimiento no considera la inclinación del ráster en tanto que su finalidad


es obtener un recorte rectangular paralelo al eje horizontal. Este recorte se concibe como un
bounding box o bounding rectangle, términos ya definidos en la subsección 4.4.1.2.
De esta manera, el primer paso es definir una “ventana” de corte sobre las dimensiones
del ráster, esta vez en términos de índice de fila y columna. Este proceso ha de hacerse de
manera experimental sobre la imagen original seleccionando en el eje horizontal los valores
x0 y x1 , y los valores y0 e y1 en el eje vertical.
Aunque el primer paso no considera la georeferenciación, sí lo hace el siguiente. Y es que
se deben proyectar los valores obtenidos, en términos de índice, hacia coordenadas en el CRS
del ráster original (EPSG:32630). Esta proyección se realiza teniendo en cuenta una trans-
formación afín que viene definida en cada uno de los ráster Landsat, en los metadatos de la
imagen. Al consultar estos metadatos, se obtiene un objeto afín con los valores (a, b, c, d, e, f )
con los que se define la relación que transforma coordenadas en el sistema fila-columna, (x, y),
′ ′
hacia coordenadas en un sistema georeferenciado, (x , y ).

 ′   
x a b c x
 y ′  = d e f   y 
1 0 0 1 1

Para realizar esta transformación afín de manera rápida y automatizada se opta por uti-
lizar el método “bounds” del módulo “windows” de “rasterio” que toma como parámetros
los valores x0 , x1 , y0 , y1 y el objeto afín del ráster original. El resultado es un conjunto de
′ ′ ′ ′
coordenadas x0 , x1 , y0 , y1 en el CRS EPSG:32630.
Sin embargo, de lo anterior se obtiene un único valor de coordenada por cada vértice y el
resultado debería ser un bounding box definido por cuatro vértices con dos valores decima-
les como coordenadas. Tras aplicar la expresión inferior, se obtiene el polígono rectangular
correctamente georeferenciado:

bbox = ((min(X), min(Y )), (min(X), max(Y )), (max(X), max(Y )),
(max(X), min(Y ), (min(X), min(Y ))

De la misma manera que con el procedimiento 1, se toma el bounding box obtenido como
un objeto geoJSON para utilizarlo como máscara de corte sobre el ráster original.
Para el desarrollo de este trabajo, se ha decido finalmente tomar este segundo procedi-
miento para realizar la obtención del ROI. El motivo reside en el hecho de evitar contar con
valores “no-data” ni tener máscaras adheridas a las imágenes que han demostrado acarrear
ciertos problemas a la hora de aplicar los métodos de detección de cambios.
Finalmente, el ROI obtenido se ha dividido en dos zonas: norte y sur. La zona norte cuenta
4.4. Metodología 45

con los embalses de Cíjara y García Sola; mientras que la zona sur contiene los embalses de
Orellana, Zújar y La Serena. Así, se pretende mejorar la visualización de las imágenes además
de aliviar el peso de las mismas, lo que supone una reducción de los tiempos de cómputo en
el procesamiento y en la aplicación de los métodos finales.

4.4.3. Análisis de nubosidad


Pese a que en el fichero JSON que recogía los filtros de búsqueda se señaló la necesidad
de contar con imágenes con menos de un 5% de nubosidad, es cierto que esto no garantiza
que el ROI esté libre de nubes. Es decir, se puede tener un 5% de nubosidad concentrado en
la zona de estudio mientras que en el resto del terreno se tenga un 0%.

Es por lo anterior que se ha propuesto realizar un análisis de nubosidad entre las capturas
disponibles de cada año recogidas en la tabla 4.2, de tal manera de que la finalidad sea el
escoger únicamente la captura del día/mes que presente menor concentración nubosa en la
zona de estudio. Este análisis debe ser realizado de forma visual comparando las imágenes.

Por otro lado, con el fin de no demorar demasiado este paso, se ha seleccionado una
única banda en lugar de optar por analizar las imágenes en color real que necesitaría de
una combinación de bandas RGB. Aunque la banda 9 (Cirrus) de Landsat-8 proporciona
información acerca de las posibles nubes que pueda haber en una imagen, estas nubes son
muy específicas y no afectan demasiado a las bandas de menor longitud de onda. Por esto,
se elige la banda 6 (SWIR-1) que ofrece un equilibrio entre la visualización del terreno y la
visualización de nubosidad.

Figura 4.8: Comparación y análisis de nubosidad entre capturas del mismo año

Finalmente y como resultado de este proceso, se seleccionan las capturas adquiridas en las
fechas resaltadas en negrita de la tabla 4.2.
46 Desarrollo

4.4.4. Obtención del ground truth


El ground truth o “realidad sobre el terreno”, en castellano, es aquella información que se
conoce como cierta y que es utilizada para validar los resultados de un proceso de clasificación.
Sin embargo, es habitual que en importantes artículos académicos sobre Teledetección no
se especifique la fuente del ground truth o el proceso que se sigue hasta obtenerlo. Ejemplo de
ello es el artículo recogido en Wu et al. (2015). Este trabajo fin de grado quiere desligarse de
esta tendencia y es por eso que se ha propuesto un método para la obtención de esa “verdad
sobre el terreno”.
El método propuesto se basa en considerar como información cierta aquella que proviene
del índice MNDWI (ver subsección 2.4.4) de la zona de estudio, obtenido a partir de la
observación remota, es decir, proveniente de imágenes de satélite. Para ello, y para conseguir
uniformidad en todo el proceso posterior, se utilizan las capturas de Landsat-8.
La decisión de tomar este índice ha pasado por una verificación previa tomando como
referencia capturas con mayor resolución espacial realizadas por otros satélites. En concreto,
de forma visual se han comparado la evolución de cambios del ROI que ofrece la herramienta
Google Earth con el ground truth obtenido. Fruto de esta comparación se ha concluido que
tomar el MNDWI como referencia para comparar los métodos de detección de cambios es
una enfoque válido en tanto que modela los cambios reales acontecidos a lo largo del tiempo
en la zona de estudio. La implementación que se ha realizado para calcular el índice MNDWI
se adjunta en el código inferior, donde se tiene en cuenta la posibilidad de la existencia de
denominadores negativos y se realiza una conversión de tipos para obtener un valor entero
en cada uno de los píxeles del resultado final.

Código 4.2: Método Python para la obtención del MNDWI


def get_MNDWI(Green, SWIR, SHAPE):
MNDWI = np.zeros((1, SHAPE[0], SHAPE[1]))

MNDWI[0] = np.divide((Green − SWIR),


(Green + SWIR),
out=np.zeros_like(Green),
where=(Green + SWIR) != 0,
casting=’unsafe’)
return MNDWI

En este punto, pudiera surgir un debate entre qué índice de Teledetección tomar para
establecer esta referencia de validación. De una manera u otra, el objetivo es conseguir una
referencia que modele los cambios en los cuerpos de agua existentes. Para esto las opciones
más acertadas debieran ser el índice MNDWI o NDWI. McFeeters (1996) describe que el
índice NDWI maximiza la reflectancia del agua tomando la banda Green; minimiza la baja
reflectancia del agua en la banda NIR y considera la alta reflectancia de la vegetación y el
suelo en la misma banda NIR.
Por otro lado, Xu (2006) recoge en su artículo que el índice NDWI puede obtener resultados
erróneos a la hora de identificar cubiertas terrestres formadas por suelos o vegetación frente
a cuerpos de agua. Por esta razón, propone un nuevo índice MNDWI en el que se sustituye
4.4. Metodología 47

la banda NIR por la banda SWIR1 (infrarrojo medio), donde el agua no refleja en absoluto,
mientras que suelos y vegetación reflejan aún más. De este modo, el contraste entre las
cubiertas terrestres y el agua aumenta y es posible extraer las cubiertas de agua en los
valores positivos del índice.

Así, como nuestro el objetivo es detectar cambios, no basta sólo con calcular el MNDWI
para cada año concreto, sino que se debe calcular la diferencia entre años distintos para
obtener el ground truth final. Sin embargo, antes de poder obtener este resultado final, se
debe hacer una segmentación del MNDWI obtenido. Con esta segmentación se estudian los
valores de píxel obtenidos con el MNDWI y se obtienen múltiples imágenes que tratan de
asociarse con una cubierta terrestre determinada. El objetivo final es considerar solo el valor
de píxel que representa mayormente el cuerpo de agua y formar una imagen solo con este
valor. Finalmente, el proceso general se resume de la siguiente manera:

Paso 1 Obtener el MNDWI de la captura del período t0 .

Paso 2 Segmentar el MNDWI considerando los valores de píxel únicos. Fruto


de esta segmentación se obtienen distintas imágenes que modelan
cubiertas terrestres distintas. El objetivo es extraer esa cubierta que
represente el cuerpo de agua.

Paso 3 Repetir los pasos 1 y 2 para la captura del índice t1 .

Paso 4 Obtener la imagen diferencia de índice como M N DW Iwater(t0) −


M N DW Iwater(t1) .

Paso 5 Binarizar la imagen obtenida con una máscara booleana donde el


valor F alse (0) representa los píxeles de no cambio y el valor T rue
(1) los de cambio.
48 Desarrollo

Figura 4.9: Proceso de segmentación de MNDWI

Imágenes correspondientes al segmento sur del ROI, adquiridas el 9 de junio de 2014.


4.4. Metodología 49

Figura 4.10: Ground truth obtenido de la imagen diferencia MNDWI de los años 2014 - 2020

De la figura 4.9 se tiene que para ese caso en concreto el valor de píxel 0 es aquel que
representa el cuerpo de agua. Por tanto, se toma la imagen 4.9a como M N DW Iwater(2014) .
Mientras tanto, si se hace lo propio con una captura de otro instante temporal y se aplica
el procedimiento descrito, el resultado final obtenido es el que se muestra en la figura 4.10
donde los píxeles de color blanco representan los cambios respecto del instante t1 (año 2020).

4.4.5. Aplicación de métodos


A la hora de detectar cambios en imágenes de Teledetección es posible aplicar distintos
métodos basados en clasificación o en diferencia de imágenes. En este caso, se va a considerar
un enfoque mixto que tenga en cuenta tanto la diferencia de imágenes como el Análisis de
Componentes Principales, de ahora en adelante PCA por sus siglas en inglés.
En este sentido, se definen dos métodos a aplicar:
• Método 1: Análisis de Componentes Principales aplicado a conjunto de bandas multi-
temporales.
• Método 2: Análisis de Componentes Principales aplicado a la diferencia de bandas
multitemporales.

4.4.5.1. Método 1
Este primer método puede ser considerado como el método estándar de aplicación de
PCA para la detección de cambios. Aplicado a la Teledetección en trabajos como Martínez-
Izquierdo et al. (2019), pretende ser un método que ayude a simplificar el problema de de-
tección de cambios en tanto reduce las dimensiones del conjunto inicial de datos. En este
sentido, las imágenes de Teledetección, como ya se había dicho a lo largo de líneas anteriores,
50 Desarrollo

son imágenes pesadas en cuanto a tamaño, por lo que conviene considerar métodos donde el
coste computacional se vea reducido.

La idea de este enfoque reside en aplicar PCA a un conjunto de bandas multitemporales, es


decir, de dos instantes diferentes. El número de bandas puede variar en función del cambio que
se quiera evidenciar. Para este proyecto concreto se han seleccionado 4 bandas por instante
temporal: Azul, Verde, Roja y NIR. Por tanto, el algoritmo PCA será aplicado sobre un
conjunto total de 8 bandas donde las 4 primeras se corresponden con el instante t0 y las 4
siguientes con el instante t1 .

Paso 1 Seleccionar n bandas del instante t0 .

Paso 2 Seleccionar n bandas del instante t1 .

Paso 3 Crear una imagen multitemporal con 2n canales y añadir las bandas
de los pasos anteriores.

Paso 4 Aplicar PCA sobre la imagen multitemporal. Obtener los coeficientes


de los vectores propios y valores propios de la transformación.

Paso 5 Transformación lineal de los datos originales a partir de los vectores


propios para obtener una imagen PC. Esta imagen PC está compuesta
por 2n canales que se corresponden a la transformación lineal de cada
componente principal de la imagen original (matriz de tamaño i × j)
siguiendo la siguiente expresión:

cp1ij = a1 xij1 + a2 xij2 + · · · + ak xijk


cp2ij = b1 xij1 + b2 xij2 + · · · + bk xijk
..
.
cpNij = z1 xij1 + z2 xij2 + · · · + zk xijk

Donde: cp1ij → es el valor del píxel (i, j) de la imagen PC1.


cp2ij → es el valor del píxel (i, j) de la imagen PC2.
cpNij → es el valor del píxel (i, j) de la imagen PCN.
a1 , a2 , ..., ak → son los coeficientes del vector propio de las k bandas asociado a la
componente principal 1.
b1 , b2 , ..., bk → son los coeficientes del vector propio de las k bandas asociado a la
componente principal 2.
z1 , z2 , ..., zk → son los coeficientes del vector propio de las k bandas asociado a la
componente principal n.

El método en lenguaje Python que implementa el algoritmo anterior, se muestra en el


código siguiente:
4.4. Metodología 51

Código 4.3: Método Python para la obtención de imágenes PC


def get_pca_image(original_img, eigen_vector):

out_image = np.zeros((1, original_img.shape[1],


original_img.shape[2]),
dtype=np.uint8)

for i in range(len(original_img[0])):
for j in range(len(original_img[0][0])):
cp_ij = 0
for k in range(len(eigen_vector)):
cp_ij += eigen_vector[k] ∗ original_img[k][i][j]
out_image[0][i][j] = cp_ij

print(f”PCA image has been made with shape{out_image.shape}”)

return out_image

Por tanto, tras aplicar la secuencia de pasos se tiene un conjunto de n imágenes PC menor
o igual a las n componentes principales consideradas. Dichas imágenes son el resultado de
realizar la suma aritmética entre el producto de los vectores propios y el ND de cada banda
original.
Una vez que se tienen las imágenes PC, el objetivo es seleccionar aquella componente
principal que evidencia los cambios de forma más notoria para después crear un mapa binario
de esos cambios. Para ello, una opción es la selección por visualización; aunque se trata de
técnica poco escalable. Martínez-Izquierdo et al. proponen seleccionar la componente principal
2 para evaluar los cambios apoyándose en un criterio de signos de los coeficientes de los
vectores propios. Este último enfoque será discutido más adelante.
Por otro lado, de cara a evaluar nuevas alternativas para la detección de cambios, en
este proyecto se proponen dos posibles mejoras a aplicar sobre las imágenes multiespectrales
previas a la aplicación de PCA:
• Método de la Especificación del histograma o matching.
• Técnica de fusión o pansharpening para obtener imágenes con una resolución espacial
mayor.
La aplicación del primer método anterior nace al preguntarse si debiera influir la distribu-
ción del histograma de dos imágenes tomadas en el mismo lugar pero en distinto momento. Es
decir, el objetivo futuro será evaluar cómo de importante es tener histogramas de intensidad
similares para la detección de cambios en tanto que, inicialmente, los ND de las zonas de no
cambio deberían tener una intensidad parecida; mientras que los valores ND de las zonas de
cambio deberían ser notablemente diferentes.
Aunque en la figura 4.11 se pone como ejemplo de aplicación la banda número 5, esta téc-
nica es aplicada sobre todas y cada una de las bandas que conforman la imagen multiespectral
a la que se le aplica el proceso de detección de cambios.
El segundo método, por su parte, surge de forma paralela cuando el autor se cuestiona si
la resolución espacial de las imágenes multiespectrales puede ser significativa para mejorar
52 Desarrollo

Figura 4.11: Aplicación de la técnica matching o especificación de histograma


4.4. Metodología 53

los resultados obtenidos con la aplicación del algoritmo PCA. Es por esto que en este trabajo
se aplica la técnica de fusión para obtener imágenes Landsat-8 con el doble de resolución, es
decir, 15 metros frente a los 30 metros iniciales.

Ya en el capítulo 2.4.3.3 se indicaba que sería el algoritmo de Brovey el utilizado en este


proyecto debido a que ofrece la posibilidad de ser aplicado a cualquier tipo de banda.

Sea cual sea el método aplicado, el objetivo continua siendo obtener un mapa de cambios
binarizado. Es por esto que tras aplicar cada uno de los métodos propuestos, se debe aplicar
un algoritmo de segmentación, en concreto Otsu, para obtener ese mapa binario donde las
zonas de no cambio se representen con un 0 y las zonas de cambio con un 1.

4.4.5.2. Método 2
Si el anterior método presentaba la desventaja de tener que seleccionar de forma manual,
tras la visualización, la componente principal o imagen PC que evidenciara los cambios, el
segundo método se postula como candidato para poder seleccionar esa componente principal
sin necesidad de recurrir al prueba y error.

Propuesto por Wu et al. (2015), se trata de un método que, como el primero, se basa en
la aplicación del algoritmo PCA. Sin embargo, en este caso, el algoritmo es aplicado a la
diferencia de las bandas correspondientes a los instantes t0 y t1 . De forma detalla, la primera
etapa del método se ha desarrollado en este trabajo de la siguiente manera:

Paso 1 Creación de una colección de bandas (Azul, Verde, Roja y NIR) para
cada instante temporal t0 y t1 .

Paso 2 Cálculo de la imagen diferencia entre la colección t0 y t1 con el si-


guiente procedimiento:

Sea I0 la colección del instante t0 formada por B bandas con N píxeles


totales y →

xi un vector que representa el píxel i de esa misma colección.
Para un caso genérico donde B = 3, ese vector está compuesto por 3
valores y es expresado de forma matemática como:


xi = {xbi , 1 ≤ b ≤ B, 1 ≤ i ≤ N }


→ = {x , x , x }
x 1 11 21 31


x = {x , x , x }
2 12 22 32
..
.
−→
x = {x
N 1N , x2N , x3N }

Si se tienen dos instantes t se tendrán dos colecciones I0 e I1 a partir


de las cuales se obtiene la imagen diferencia Id de la siguiente manera:
54 Desarrollo

−→ −→
Id = {xIi 1 − xIi 0 , 1 ≤ i ≤ N }

Paso 3 Aplicación del algoritmo PCA a la imagen diferencia Id :

IdP CA = {|P CA(Id )|, 1 ≤ i ≤ N }

Figura 4.12: Método 2. PCA aplicado a la diferencia de bandas multitemporales

Lo descrito hasta ahora conforma la primera etapa del método, que es la aplicación del
algoritmo PCA. La segunda etapa representa la novedad en este campo. Wu et al. proponen
una evolución del método que consiste en decidir aquella imagen PC o componente principal
que modela los cambios de forma automatizada. Para ello, analizan el histograma de cada
una de las imágenes PC para dar cuenta de la dificultad en identificar los píxeles de cambio
y no cambio mediante un umbral o threshold.
Por lo anterior, se propone considerar tres clases de clasificación distintas: cambio, no
cambio e indeterminado. Todos y cada uno de los píxeles de una imagen deben pertenecer a
una de estas clases. Además, como ya se introdujo en la subsección 2.6.2, se toma la premisa
de que los píxeles de las componentes principales más altas serán fácilmente clasificables
como píxeles de cambio, mientras que los píxeles de las componentes principales más bajas
se podrán clasificar mayoritariamente como píxeles de no cambio.
Para identificar las tres clases, Wu et al. proponen utilizar un modelo de Mezclas Gaussia-
4.4. Metodología 55

nas formado por la combinación lineal ponderada de tres distribuciones Gaussianas, N (µ, σ 2 ),
que agrupan a los píxeles de cambio, no cambio y a los indeterminados.

2 2 2
h(cb ) = wcb N (µcb , σcb ) + wub N (µub , σub ) + wib N (µib , σib )

Donde: µcb , µub , µib → Son las medias de las distribuciones Gaussianas de los píxeles de
cambio, no cambio e indeterminados, respectivamente.
σcb , σub , σib → Son las varianzas de las distribuciones Guassianas de los píxeles de
cambio, no cambio e indeterminados, respectivamente.
wcb , wub , wib → Son los pesos de las distribuciones Guassianas de los píxeles de
cambio, no cambio e indeterminados, respectivamente.

Figura 4.13: Distribución de la componente principal 3 de IdP CA en la zona norte durante el período
de 6 años (2014-2020)

Como a priori se desconoce a qué distribución pertenece cada uno de los píxeles, se debe
realizar la estimación de los parámetros desconocidos en la Mezcla Gaussiana. Para ello se
utiliza el algoritmo de esperanza-maximización (EM) para buscar estimadores de máxima
56 Desarrollo

verosimilitud. Este algoritmo realiza un proceso iterativo que comienza suponiendo compo-
nentes aleatorias centradas en torno a un punto y calcula cuál es la probabilidad para cada
punto de haber sido generado por cada una de las distribuciones. Después, ajusta los pará-
metros para maximizar la probabilidad de las asignaciones generadas y repite todo el proceso
hasta que el algoritmo converge en un máximo local.
Una vez aplicado el algoritmo EM se tienen modeladas las tres distribuciones, pero aún se
desconoce cuál se corresponde con las clases de cambio, no cambio y píxeles indeterminados.
Para ello, Wu et al. proponen una serie de restricciones que han de cumplir los parámetros
de la Mezcla Gaussiana:

0 ≤ wcb , wub , wib ≤ 1 (4.1)


wcb + wub + wib = 1 (4.2)
µub < µib < µcb (4.3)

De esta forma, con la restricción 4.3 se pretende que la distribución correspondiente a los
píxeles de cambio esté lo más alejada posible de la distribución de los píxeles de no cambio.
Además, para que la distancia entre los píxeles de cambio y no cambio sea aún mayor,
así como en cuanto a la distancia entre píxeles de cambio e indeterminados, se aplica la
distancia de Mahalanobis para definir un índice F que cuantifique el cambio en las imágenes
PC resultantes de aplicar el paso 3 del procedimiento anterior. Dicho índice se calcula como
sigue:

( )/ ( )
(µcb − µub )2 (µcb − µib )2 (µib − µub )2
Fb = 2 + 2 2 (4.4)
σub σib σub

Finalmente, conviene normalizar el índice en un intervalo [0, 1] para conocer mejor la


cuantificación de cambios por cada una de las componentes principales. La normalización
produce el índice F normalizado, de ahora en adelante f y se calcula:


B
f b = Fb / Fj (4.5)
j=1

Wu et al. establecen dos condiciones a tener en cuenta para refinar la selección de aquellas
componentes principales que evidencian los cambios de forma más notoria:
Condición 1 Si max{fb , b ∈ B} > t, entonces seleccionar la componente principal
que tenga el índice f máximo.
Condición 2 Si max{fb , b ∈ B} ≤ t, entonces descartar la componente principal
con el índice f mínimo y aplicar de nuevo las condiciones hasta que
la suma de índices f de las componentes principales restantes no
sobrepasen al umbral t.
4.4. Metodología 57

En las condiciones anteriores se mencionaba un umbral t. Este umbral es un valor que


endurece o relaja la selección del número de componentes principales para la detección de
cambios. Con un t elevado, el número de componentes principales seleccionadas será mayor;
mientras que con un umbral más bajo el número de componentes principales se reduce ya que
es más fácil satisfacer la condición 2 anterior. Dicho umbral t se calcula en base a la siguiente
relación:

B−1
<t<1 (4.6)
B

Todo este proceso que describe al método se ha aplicado meticulosamente en este trabajo
por lo que, más adelante, se comentará el grado de efectividad del mismo para la zona de
estudio y las condiciones que aplican a este proyecto.

Por otro lado, también serán de aplicación las técnicas de matching y pansharpening ya
descritas. Se pretende buscar una posible mejora al método estudiando la importancia de la
resolución espacial de las imágenes y la variabilidad de intensidades en los ND.

En cuanto a la segmentación de imágenes, si para el método 1 se había propuesto el


algoritmo Otsu para obtener el mapa binario final, para este caso concreto del método 2
se irá un paso más hacia adelante. Y es que si tras aplicar la Mezcla Gaussiana se obtiene
a qué distribución o clase (cambio, no cambio e indeterminado) pertenecen todos y cada
uno de los píxeles, esto puede ser aplicado para realizar un filtro que extraiga todos los
píxeles pertenecientes una de las clases para obtener un mapa binarizado, por lo que no será
necesario umbralizar. Además, dado que se tiene una clase intermedia correspondiente a los
píxeles indeterminados, puede haber casos en los que estos píxeles pertenezcan a una de las
dos clases de interés, por lo que tras aplicar un análisis visual se podrán clasificar de forma
más precisa para obtener el mapa final.

Esta forma de segmentar se muestra en la figura 4.14, donde se pueden observar las tres
clases identificadas por la Mezcla Gaussiana. Para obtener una imagen de estas características
se convierte la imagen a 3 canales (RGB) o dimensiones, de tal forma que cada uno de los
canales contiene información relativa a una o varias clases. Así, como se tienen imágenes de
8 bits, para visualizar la clase de “no cambio” se utilizan los tres canales con el valor ND 255
(28 ); para visualizar la clase de cambio se utiliza el canal B con el valor 255 (azul); y para la
clase de píxeles indeterminados se emplea el valor 255 en el primer canal, R (rojo).
58 Desarrollo

Figura 4.14: Imagen segmentada en tres clases: cambio (azul), no cambio (blanco) e indeterminado
(rojo)

Zona sur, 2014 - 2020. Componente principal 1 sin binarizar con aplicación previa de técnica de fusión
(pansharpening).
5. Resultados

5.1. Análisis de cambios


Si el objetivo principal de este estudio pasa por analizar y evidenciar la aparición de
cambios en cuerpos de agua a lo largo del tiempo, parece razonable comenzar este capítulo
por mostrar los resultados visuales que dan cuenta de esos cambios tras la aplicación de
los distintos métodos. En este sentido, se tomará como referencia la variable “volumen de
embalse” de los datos recogidos en el Anexo I para poder cuantificar de manera objetiva los
cambios existentes durante el período de estudio.

5.1.1. Período 2014 - 2020


Los cambios acontecidos entre los meses de junio de los años 2014 y 2020 son los más
notorios con diferencia. Tan solo el embalse de La Serena, en la zona sur, presenta una
disminución de un 73% en el volumen de agua embalsada en el año 2020 respecto de 2014;
mientras que el resto de embalses presentan reducciones en rangos del 50% al 30%, excepto
el embalse del Zújar con un 10% en promedio en el mismo período.
La figura 5.1 evidencia los cambios durante el período de 6 años. En este punto, conviene
recordar que las imágenes finales se muestran en forma de mapa binario, donde los píxeles
de valor 0 (color negro) representan las zonas de no cambio, y los píxeles de valor 1 (color
blanco) representan las zonas de cambio.

5.1.2. Período 2014 - 2017


En esta ocasión, con un intervalo temporal de 3 años, la reducción en el volumen de agua
embalsada sigue presente; aunque en menor medida. El embalse de La Serena, por su parte,
mantiene la acusada disminución que lo caracterizaba en el período anterior y reduce su
volumen en un 47%. Le sigue de cerca, en el norte, el embalse del Cíjara con una reducción
aproximada del 50%.
En la imagen 5.2 se pueden observar los cambios presentes durante este período.

5.1.3. Período 2014 - 2015


Último intervalo temporal en ser estudiado, conserva la tendencia a la disminución de agua
embalsada con el paso del tiempo. En este caso, tan solo hay una diferencia de un año respecto
al 2014 por lo que los porcentajes son más comedidos. Destacan Cíjara con disminución
porcentual máxima del 30% y García Sola en torno al 20%. Por su parte, Orellana presenta

59
60 Resultados

una disminución marginal del 0’5% mientas que Zújar y La Serena permanecen en rangos
también reducidos con un 5% y 8%, respectivamente.

El hecho de que los cambios en la zona sur sean menores afecta a la visualización en
la figura 5.3 en tanto que se hace difícil percibir los cambios a simple vista en la imagen
binarizada.

Figura 5.1: Cambios correspondientes al período 2014 - 2020


5.1. Análisis de cambios 61

Figura 5.2: Cambios correspondientes al período 2014 - 2017


62 Resultados

Figura 5.3: Cambios correspondientes al período 2014 - 2015

5.2. Evaluación de métodos

Evaluar los métodos empleados es un paso imprescindible para obtener una medida ob-
jetiva que permita concluir cómo de precisa ha sido la detección de cambios. Esta forma de
validar se basa en comparar las imágenes obtenidas tras la aplicación de los métodos, con la
verdad sobre el terreno o ground truth. Para ello, la última fase experimental de este trabajo
ha consistido en definir y aplicar una metodología de validación que ha pasado por distintas
etapas, como la selección de puntos de control y el cálculo de las métricas de validación.
5.2. Evaluación de métodos 63

5.2.1. Selección de puntos de control

Cuando se trata de evaluar métodos de clasificación en imágenes de Teledetección, es


común recurrir a puntos de control. Los puntos de control son una selección de puntos elegidos
en base a algún criterio específico, de forma aleatoria o pseudo-aleatoria, que sirven para
evaluar el valor de clase en la imagen resultado con el valor de clase en la imagen ground
truth, sin necesidad de recurrir a una comparación del total de píxeles de la imagen.

Si bien es cierto que gran parte de los artículos de Teledetección no suelen aclarar a este
paso inicial, aquí se propone una metodología de selección y cálculo de puntos de control para
el problema de clasificación de detección de cambios.

Esta serie de puntos de control se ha elegido de forma aleatoria, pero con un criterio previo:
mantener las clases de “cambio” y “no cambio” balanceadas con un porcentaje prefijado. En
este sentido, era de esperar que algunos de los métodos empleados aportaran ruido en las
zonas no cubiertas por agua. Esto, sumado al hecho de que la superficie del cuerpo de agua es
mucho menor que la superficie externa (suelo, vegetación, etc.), conlleva a tener una cantidad
mayor de posibles fallos de detección de cambios en esta última.

Por todo lo anterior, como el objetivo es detectar cambios en el cuerpo de agua y evaluar
los métodos principalmente en base a esto, se ha decidido tomar una relación 60% - 40%
donde el 40% de los puntos de control formen parte de la clase “no cambio” y el 60% de la
clase “cambio”. Esta selección se ha llevado a cabo tomando el ground truth del período más
largo para obtener así un conjunto de puntos repartidos en zonas más amplias. Tener además
un balanceo apropiado entre clases ayuda a obtener métricas de evaluación más precisas,
como se verá más adelante.

Con esta selección (40%-60%) se da más importancia a las zonas reales de cambio para
evaluar el método, pero también se le da un peso importante a las zonas de no cambio, que
se corresponden en mayor medida con la superficie externa al cuerpo de agua. Esto también
permite evaluar los métodos en base a un criterio añadido: la presencia de ruido.

Un ejemplo de proyección de los puntos de control sobre las imágenes a evaluar se muestra
en la figura 5.4.

5.2.2. Matrices de confusión y métricas empleadas

Si se eligiera al método más sencillo para evaluar clasificadores, este probablemente sería
la matriz de confusión. Proporciona una buena imagen visual de los resultados, reconocible
a simple vista en términos de predicciones: “verdadero positivo” (TP), “verdadero negativo”
(TN), “falso positivo” (FP) y “falso negativo” (FN).
64 Resultados

Figura 5.4: Proyección de puntos de control sobre ground truth

Figura 5.5: Ejemplo de matriz de confusión con los términos TP, TN, FP y FN

Por otro lado, las métricas proporcionan un valor numérico que indica cómo de bueno es
el método o clasificador. De hecho, la mayoría de métricas se calculan a partir de la matriz
de confusión.
Para analizar los resultados de este proyecto se han elegido una serie de métricas, las que,
a juicio del autor, son más convenientes para la evaluación y extracción de conclusiones:
• Overall Accuracy (OA): evalúa cuántos aciertos ha habido del total de predicciones.

TP + TN
OA = (5.1)
TP + FP + TN + FN

• Kappa: mide cómo de bueno es un clasificador comparándolo con un clasificador alea-


5.2. Evaluación de métodos 65

torio basado en la frecuencia de las clases. Lleva intrínseco el hecho de acertar por
casualidad. Será empleado como métrica para evaluar la bondad de los modelos en
general.
OA − randomAccuracy
kappa = (5.2)
1 − randomAccuracy
Donde:
(T N + F P )(T N + F N ) + (F N + T P )(F P + T P )
randomAccuracy =
T otal2

siendo:
T otal = T P + F P + T N + F N

• Recall: también llamada tasa de verdadero positivo, es una métrica que evalúa cuantas
observaciones del total de positivos (TP y FN) se han clasificado como positivas (TP).
Para este caso, recall penaliza aquellas situaciones en las que se tienen muchos falsos
negativos (clases que deberían ser de “cambio” y son predichas como “no cambio”); por
tanto, al tener un recall cercano a 1 se tendrá un método que es bueno identificando la
mayoría de las clases de “cambio”.
TP
recall = (5.3)
TP + FN

• Precision: se centra tan solo en las predicciones positivas para proporcionar una métrica
que indica cuántas observaciones predichas como positivas son en verdad positivas. Si
existen pocos falsos positivos, se tendrá una precision muy alta. Esto significa que la
imagen cuenta con poco ruido en la superficie externa al cuerpo de agua y la mayoría
de clases de “no cambio” son realmente clases de “no cambio”. El hecho de contar con
poco ruido es determinante para aislar y visualizar los cambios en el cuerpo de agua,
es por esto que esta métrica será tomada en consideración.
TP
precision = (5.4)
TP + FP

• f1 score: muy utilizada en problemas de clasificación, combina recall y precision en una


sola métrica. Se trata pues de una métrica robusta para la evaluación de métodos y
será utilizada junto con kappa para ver la calidad general de la imagen clasificada.
precicion · recall
f 1score = 2 · (5.5)
precision + recall

5.2.3. Discusión sobre los resultados obtenidos


Tras la aplicación de los distintos métodos de detección de cambios y las variaciones pro-
puestas de aplicación de técnicas como matching o pansharpening, se detallan los resultados
obtenidos en la tabla 5.1.
66 Resultados

De forma general, los resultados indican que el método 1, PCA aplicado a conjunto de
bandas multitemporales, es más eficaz para la detección de cambios bajo el contexto y condi-
ciones de este trabajo. En este sentido, se concluye que aplicar la diferencia de bandas previo
a PCA (método 2) no es tan efectivo como cabría esperar.
Tomando como apoyo las métricas de la tabla 5.1, todo apunta a que mejorar la resolución
espacial aplicando técnicas de pansharpening con anterioridad a PCA, ayuda a obtener imá-
genes con menor ruido (precision más alto) lo que facilita la visualización de los cambios en
cuerpos de agua. Además, no solo se obtienen imágenes con menos ruido, sino que también la
calidad general de la imagen aumenta y se obtienen métricas globales (kappa y f1) superiores
en la mayoría de los casos estudiados. Este hecho ha sido más evidente en la zona norte del
ROI, precisamente donde los cambios no eran tan notorios y se concentraban en el contorno
del cuerpo de agua, contorno que es justamente resaltado tras aumentar la resolución espacial
de la imagen. Es decir, al hacer fusión se multiplican los puntos en el contorno de la imagen
y los cambios son detectados con mayor facilidad.
Por otro lado, contar con imágenes con histogramas similares tras la aplicación de técnicas
de matching parece ayudar a la detección de cambios, especialmente en el método 2. Si se
atiende a la métrica recall, esta experimenta un aumento en su valor en ambos métodos en
gran parte de los períodos de estudio. Además, en términos generales, las métricas kappa o
f1 también reaccionan de manera notable a la aplicación de esta técnica, lo que hace indicar
que se cuenta con una mejora general en la detección de cambios y en la disminución de ruido
en las imágenes finales.
También es observable que, aunque el método 1 se ve beneficiado a la hora de aplicar
las mejoras propuestas (sobre todo con la técnica de pansharpening), también se obtienen
resultados bastante aceptables aplicando el método sin realizar operaciones de realce. En
cambio, el método 2, que parte de una situación menos ventajosa, sí mejora sus resultados
generales (kappa y f1) en 5 de las 6 situaciones analizadas si se aplica al menos una de las
técnicas de realce empleadas.

5.3. Crítica y comparación de métodos


Ya se había mencionado que el principal problema de aplicar Análisis de Componentes
Principales a la detección de cambios es la dificultad de automatizar la selección de aquella
componente principal que señala los cambios. Martínez-Izquierdo et al. (2019) mencionan
utilizar la PC2 para la detección de cambios si se utiliza el método 1 de este trabajo; mientras
que Wu et al. (2015), proponen un criterio en base a un índice f para seleccionar la imagen
o componente principal que modela los cambios con el método 2.
En relación al primero de los métodos, Martínez-Izquierdo et al. señalan que la idea detrás
de seleccionar la PC2 para la detección de cambios es reducir el coste computacional de
procesado de la imagen, ya que no es necesario calcular el resto de componentes principales.
Además, justifican que sea la componente principal segunda la elegida, y no otra, porque es
la que presenta mayor diferencia entre las imágenes de las dos fechas.
Entrando en el detalle, la diferencia mencionada en el párrafo anterior es la diferencia
5.3. Crítica y comparación de métodos 67

entre los coeficientes de los vectores propios asociados a cada componente principal. Esta
diferencia cuantifica cómo de diferentes son las bandas de cada uno de los períodos, lo que es
vital para la detección de cambios. En el caso anterior, es justamente la PC2 la que presenta
coeficientes negativos en las bandas correspondientes al período t0 , y coeficientes positivos
en las bandas correspondientes al período t1 . Este hecho contribuye a obtener una diferencia
máxima entre los coeficientes de la mismas bandas en períodos distintos.
Los resultados de este proyecto indican que todas y cada una de las transformaciones
realizadas, correspondientes con la PC2, satisfacen la relación de signos contrapuestos que
señalan Martínez-Izquierdo et al.. Sin embargo, se ha podido comprobar que la componente
principal 2 no es la que lleva asociada la diferencia máxima entre coeficientes en todos los
casos, ni tampoco la que muestra los cambios más notorios. En este sentido, se ha realizado un
análisis por parte del autor sobre cómo influye la magnitud de los coeficientes de los vectores
propios en la detección de cambios.
En la tabla 5.2 se muestra la distancia o diferencia absoluta entre los coeficientes del vector
propio de cada componente principal i. Se recuerda que cada vector propio está formado por
n coeficientes, uno por cada banda, que expresan el grado de contribución de la banda i a
la transformación lineal que da como resultado una componente principal. La información
contenida en la tabla demuestra que no siempre es la PC2 la que maximiza esa distancia. A
modo de resumen, para el caso de estudio de este proyecto se tiene:
• En el 33% de los casos se maximiza la distancia con PC2.
• En el 11% de los casos se maximiza la distancia con PC3.
• En el 56% de los casos se maximiza la distancia con PC7.
Es evidente que la componente principal 7 presenta, en promedio, una mayor distancia
entre los coeficientes de su vector propio. Además, es elegida el 33% de las veces como com-
ponente principal de cambios. Por su parte, aunque la PC3 haga máxima la distancia el 11%
de las veces, es elegida como PC de cambios el 67% de los casos de estudio; mientras que
la PC2, ni si quiera representa el 1%. En este sentido, y tal y como se puede observar en la
tabla 5.2, el hecho de tener una componente que maximice la distancia, no conlleva a que
sea elegida como componente principal de cambios en el cuerpo de agua. El motivo de esta
situación puede relacionarse con que una componente principal puede modelar cambios que
sean más significativos y que, a su vez, estos se correspondan con otro tipo de características
de la imagen relacionadas con otras cubiertas terrestres (vegetación, suelo, etc.).
Si bien es cierto que la componente principal elegida como cuantificadora de cambios en
cuerpos de agua no sea la que presente una mayor distancia en los coeficientes, sí que se
encuentra entre las que mayor diferencia presentan: PC2, PC3 o PC7.
Una vez analizado el primer método de PCA, es el turno del enfoque propuesto por Wu
et al. (método 2). Los resultados obtenidos indican que la aplicación rigurosa de este método
no se adapta demasiado bien a las circunstancias de este proyecto, en la medida que se hace
complejo elegir un umbral t para la selección de componentes que sea útil para todos los casos
de estudio.
En ocasiones, la imagen con el mayor índice f no se corresponde con la componente
68 Resultados

Figura 5.6: Comparación entre imágenes PC de distinto índice f

Figura 5.7: Procedimiento de suma de imágenes PC para aumentar la detección de cambios

(a) Imagen PC2 (b) Imagen PC4 (c) Resultado PC2 + PC4

principal que cuantifica más cambios. Esta situación particular es observable en la figura 5.6
donde la imagen PC1 tiene un índice de valor 0′ 0061 y la imagen PC3 de 0′ 979; finalmente, es
descartada la imagen PC3 por considerar que no evidencia suficientes cambios. De este tipo
de casos se pueden extraer varias conclusiones. Por un lado, las características de la imagen
correspondiente con los cambios del cuerpo de agua presentan un peso menor en comparación
con el resto de características de cambios; por otro, no todos los cambios están reflejados en
una única PC, es decir, pueden existir varias componentes que evidencien distintos tipos de
cambios y en zonas diferentes de la imagen.

Relacionado con lo anterior, se propone realizar suma de imágenes, siempre y cuando


esto no sea contraproducente en términos de generación de ruido o eliminación de cambios
identificados. En la figura 5.7 se da el siguiente caso: si se eligiera un umbral t inferior a 0′ 9
solo se tendría en cuenta la componente principal 4; en cambio, la imagen PC2 evidencia
cambios adicionales a PC4, y tiene un índice f de 0′ 007 (el tercer índice mayor). El resultado
final de realizar la suma de ambas imágenes se puede apreciar en la figura 5.7c.

Por otro lado, la aplicación de este segundo método supone un aumento en el coste total de
computación. Pese a que, de nuevo, se realiza el Análisis de Componentes Principales sobre
un conjunto de bandas, antes hay que hacer la diferencia multibanda, lo que añade tiempo
de cómputo. Además, la aplicación del algoritmo EM (Esperanza-Maximización) para la
asociación de cada un de los píxeles a alguna de las tres distribuciones, añade complejidad
a todo el proceso y termina siendo costoso en tiempo en comparación con el método 1. Y,
sin embargo, los resultados no mejoran respecto al primer método, e incluso empeoran. Por
5.3. Crítica y comparación de métodos 69

esta razón, se concluye que el método de componentes principales aplicado a un conjunto de


bandas correspondientes a dos instantes temporales distintos (método 1), es más eficaz para
detectar cambios.

Tabla 5.1: Métricas de evaluación de los métodos empleados para la detección de cambios
Zona Período Método OA Kappa Recall Precision f1 score
1 0,872000 0,737705 0,860000 0,921429 0,889655
1 + matching 0,750000 0,508261 0,673333 0,882096 0,763705
1 + pansharpening 0,954000 0,904564 0,953333 0,969492 0,961345
Norte 2014 - 2020 2 0,490000 0,074074 0,280000 0,682927 0,397163
2 + matching 0,772000 0,541063 0,740000 0,860465 0,795699
2 + pansharpening 0,662222 0,360555 0,560000 0,831683 0,669323
1 0,872000 0,741686 0,809322 0,909524 0,809322
1 + matching 0,852000 0,702266 0,817797 0,861607 0,839130
1 + pansharpening 0,926000 0,851615 0,904564 0,939655 0,921776
Norte 2014 - 2017 2 0,576000 0,119660 0,639535 0,233051 0,233051
2 + matching 0,770000 0,537826 0,741525 0,764192 0,752688
2 + pansharpening 0,546000 0,081953 0,390041 0,540230 0,453012
1 0,892000 0,751331 0,984733 0,712707 0,826923
1 + matching 0,832000 0,552344 0,633588 0,697479 0,664000
1 + pansharpening 0,906000 0,747399 0,712230 0,933962 0,808163
Norte 2014 - 2015 2 0,826000 0,620180 0,954198 0,606796 0,741840
2 + matching 0,636000 -0,032800 0,167939 0,231579 0,194690
2 + pansharpening 0,828000 0,628984 0,942446 0,626794 0,752874
1 0,900000 0,793388 0,900000 0,931034 0,915254
1 + matching 0,841818 0,672686 0,854545 0,878505 0,866359
1 + pansharpening 0,954545 0,906367 0,939394 0,984127 0,961240
Sur 2014 - 2020 2 0,583636 0,238190 0,375758 0,843537 0,519916
2 + matching 0,814545 0,608896 0,869697 0,829480 0,849112
2 + pansharpening 0,641818 0,328562 0,478788 0,863388 0,615984
1 0,925455 0,837196 0,945652 0,848780 0,894602
1 + matching 0,841818 0,672686 0,854545 0,878505 0,866359
1 + pansharpening 0,905455 0,796760 0,907216 0,838095 0,871287
Sur 2014 - 2017 2 0,594545 -0,022543 0,173913 0,310680 0,222997
2 + matching 0,814545 0,608896 0,869697 0,829480 0,849112
2 + pansharpening 0,743636 0,417382 0,556701 0,662577 0,605042
1 0,954545 0,764482 0,824561 0,758065 0,789916
1 + matching 0,894545 0,023210 0,017544 0,333333 0,033333
1 + pansharpening 0,947273 0,705295 0,645161 0,851064 0,733945
Sur 2014 - 2015 2 0,860000 0,466019 0,789474 0,409091 0,538922
2 + matching 0,743636 0,092069 0,350877 0,161290 0,220994
2 + pansharpening 0,809091 0,198073 0,370968 0,258427 0,304636
70
Tabla 5.2: Distancias medias entre coeficientes de cada vector propio y PCs de cambios seleccionadas
Zona Período Método Distancia a1 Distancia a2 Distancia a3 Distancia a4 Distancia a5 Distancia a6 Distancia a7 Distancia a8 PC seleccionada
1 0,004564 0,6532165 0,65576925 0,33686 0,0289565 0,55762625 0,6563385 0,2604975 7
Norte 2014 - 2020 1 + matching 0,00492275 0,65362875 0,65610225 0,335524 0,03077125 0,558282 0,6567415 0,2604 7
1 + pansharpening 0,00442275 0,6491005 0,63965125 0,27486275 0,21823425 0,57127425 0,502679 0,38759425 3
1 0,00504825 0,652965 0,65567675 0,33728375 0,0284675 0,557967 0,6562425 0,25948375 7
Norte 2014 - 2017 1 + matching 0,00507725 0,6533155 0,65584075 0,33642325 0,0294865 0,5584185 0,65644025 0,2592915 3
1 + pansharpening 0,004685 0,64890725 0,6391215 0,27337475 0,22530675 0,56934 0,49207725 0,3973505 3
1 0,0056855 0,65297175 0,655836 0,33570675 0,03007275 0,5590215 0,65645 0,259089 3
Norte 2014 - 2015 1 + matching 0,0052805 0,65323125 0,655983 0,3349125 0,03139975 0,5600105 0,65661225 0,2576715 7
1 + pansharpening 0,00529425 0,64999475 0,64183725 0,2816855 0,1970595 0,577655 0,51683225 0,37638575 3
1 0,00466725 0,651536 0,65552975 0,33799575 0,03104025 0,55772075 0,6560645 0,25938425 7
Sur 2014 - 2020 1 + matching 0,0053495 0,651937 0,65604325 0,334565 0,03436025 0,5595425 0,65661225 0,2576715 3
1 + pansharpening 0,00528050 0,65323125 0,655983 0,3349125 0,03139975 0,5600105 0,6208185 0,29642975 3
1 0,0046805 0,65141925 0,65541675 0,34107475 0,0286285 0,55615725 0,65593925 0,2594195 3
Sur 2014 - 2017 1 + matching 0,0049265 0,6519885 0,65547775 0,34045475 0,032217 0,55654675 0,655732 0,25800725 2
1 + pansharpening 0,003452 0,63243975 0,59096025 0,416808 0,11768625 0,44449525 0,61861675 0,29896775 3
1 0,00517525 0,65132425 0,65541825 0,3409605 0,02794775 0,5551545 0,6555015 0,26086675 3
Sur 2014 - 2015 1 + matching 0,0048845 0,65185625 0,65519475 0,34189 0,033367 0,55477775 0,65510075 0,2592585 7
1 + pansharpening 0,0039315 0,63754125 0,606894 0,39809875 0,11344325 0,45314975 0,62009325 0,294735 3

Resultados
6. Impactos sociales y ambientales.
Responsabilidad ética y profesional

En 2015, la Organización de Naciones Unidas (ONU) sacó a la luz la denominada Agenda


2030. Dentro de este programa se incluyen 17 objetivos de Desarrollo Sostenible (ver imagen
6.1) que tienen relación con distintos objetivos sobre los que la ONU pone el foco de atención
para combatir aspectos tan importantes como la pobreza o el cambio climático.
Dentro del contexto de impactos ambientales, la relación de este trabajo con los Objetivos
de Desarrollo Sostenible (ODS) es clara. Por un lado, este es un proyecto que lleva como
objetivo la detección de cambios en cuerpos de agua y donde se realiza un análisis de la
variación en la superficie de agua embalsada. Estos embalses conforman todo un ecosistema
de agua dulce en el que coexiste una diversidad biológica considerable compuesta por especies
animales acuáticas, terrestres y especies vegetales. Por otro lado, este análisis se realiza a
través del empleo de la tecnología y, en especial, de la Teledetección. Esto pone de manifiesto
la importancia y la contribución de las TIC a los ODS de la Agenda 2030.
En este punto, al autor le gustaría realizar una reflexión sobre algunas preguntas: ¿es
importante la monitorización por satélite de los cuerpos de agua?, ¿cómo afectan los cam-
bios en el agua embalsada al ecosistema biológico? Bien, la tecnología sigue demostrando su
capacidad para dar solución a problemas de distinta índole, y no iba a ser distinto con los
problemas ambientales. Realizar un monitoreo por satélite de los embalses permite evaluar
los efectos ocasionados por el cambio climático (aumento de temperatura, escasez de lluvias,
etc.). Y es más, se debe tener en cuenta que no solo se ven afectados las especies animales
o vegetales, sino que de forma directa también lo hacen los seres humanos; puesto que los
embalses son una reserva de agua utilizada para el regadío de cosechas y, por supuesto, para
el consumo humano.
En zonas como la comarca de “La Siberia”, los embalses tienen multitud de funciones. En
primer lugar, la mayoría tiene como objetivo principal actuar como reserva para regadíos.
Sin embargo, el ocio también está presente de forma notoria. La pesca es una actividad
fundamental con un gran impacto social; son diversas las competiciones organizadas en los
embalses de la comarca a lo largo de año que contribuyen al desarrollo económico de la zona.
Además, el ocio de baño también se presenta como una actividad social importante en una
región que cuenta con diversas playas interiores y con la primera bandera azul interior que
fue reconocida en España en una de las playas del embalse de Orellana (situada esta en la
comarca contigua de “Vegas Altas”). En el mismo sentido, la playa de Peloche, situada en el
embalse de García de Sola, mantiene desde 2017 un proyecto para optar a convertirse en la
primera bandera azul de la comarca, por lo que la calidad del agua y el nivel del mismo es
determinante para conseguir este objetivo que contribuirá a la creación de puestos de trabajo

71
72 Impactos sociales y ambientales. Responsabilidad ética y profesional

Figura 6.1: Objetivos de Desarrollo Sostenible de la Agenda 2030

Tomada de “La Unesco y los Objetivos de Desarrollo Sostenible” disponible en https://


es.unesco.org/sdgs.

y a la riqueza local.
También, del desarrollo de este trabajo se desprenden matices sobre la responsabilidad éti-
ca y profesional; aunque para ello se requiera realizar un análisis más profundo. El ingeniero
o profesional experto en Teledetección que llevara a cabo un proyecto similar al propuesto
debería regirse por criterios estrictamente profesionales sin acceder a presiones provenientes
del entorno social o administrativo, cuando el proyecto es encargado por un particular o una
administración. Esto guarda relación con lo que se introdujo en el capítulo inicial de este
trabajo, en la medida que el agua es un bien escaso y su utilización es diversa pueden sur-
gir conflictos de intereses entre comunidades, ayuntamientos, diputaciones o confederaciones
hidrográficas. Las conclusiones a obtener tras el análisis de cambios en embalses deben es-
tar libres de opiniones que puedan ir en detrimento del ecosistema. Para comprender esta
situación, se propone el siguiente ejemplo: si el experto en Teledetección identifica una zona
potencialmente acosada por la sequía durante un período de tiempo significativo, debe señalar
este hecho en su investigación aunque conozca que esto vaya en detrimento de los intereses
de una organización o de la entidad por la que fue contratado.
La mención del párrafo anterior no es casualidad, es conocido que existen conflictos de
intereses en cuanto al uso y aprovechamiento de los pantanos. Como ya se ha dicho, regadíos,
consumo humano u ocio, conviven como formas de utilización. En definitiva, debiera existir
un equilibrio entre todos los usos de tal forma que se garanticen los ODS de la Agenda 2030,
que son prioritarios a juicio del autor, y que ello no suponga un efecto negativo a ningún
colectivo de la sociedad en particular.
7. Conclusiones y propuesta de trabajo futuro

En este trabajo se ha combinado el campo científico-tecnológico de la Teledetección con


otros campos que bien pudieran ser incluidos dentro de la ciencia de datos o el Machine
Learning.

Ha sido necesario, por tanto, un estudio en profundidad de todos aquellos conceptos re-
lacionados con la captura de información a distancia; conceptos todos ellos nuevos para el
autor. Es necesario decir, que se dedicó un tiempo importante a seleccionar la mejor opción
para obtener la materia prima con la que se ha elaborado el estudio presentado. Esta materia
prima, es decir, las imágenes multiespectrales, provienen del inventario público de la USGS y
han sido capturadas por el satélite Landsat-8. En esta línea, aprovechando los conocimientos
que el grado en Ingeniería del Software le ha proporcionado al autor, y con el objetivo de
aportar valor en el campo de la Teledetección, se desarrolla un script que automatiza todo el
proceso de obtención de imágenes por medio de la comunicación con la reciente API M2M de
la USGS. La decisión de automatizar este proceso vía script se fundamenta en evitar utilizar
herramientas de terceros o repositorios de escenas Landsat que difieran del proveedor oficial
de dichas escenas. Este script se pone a disposición de todo aquel que quiera comenzar a in-
vestigar acerca de cómo es la captura de información a distancia y qué aplicaciones tiene, de
tal manera que el paso previo de obtención de imágenes sea lo más sencillo posible. Además,
al mismo tiempo que se ha automatizado la descarga de imágenes, también se automatiza
la selección y obtención del ROI mediante código fuente con un procedimiento que tiene en
cuenta el área de estudio delimitada por un polígono georeferenciado en formato JSON. Sin
embargo, si bien se ha utilizado un único método para la obtención del área final de estudio,
se ha propuesto otro método alternativo que obtiene una imagen final sin valores “no data”
y con la misma orientación que el ráster original. Dicho método favorece la obtención de un
ROI en zonas limítrofes de la escena Landsat, aunque dificulta el procesamiento posterior. En
este mismo sentido, se ha desarrollado todo un conjunto de notebooks de Jupyter en los que
se recoge el trabajo experimental desarrollado, desde el análisis inicial y el preprocesamiento,
hasta la aplicación de los métodos de detección de cambios y la evaluación de los mismos.

Una vez que contamos con las imágenes de partida, resulta evidente que el tratamiento y
procesamiento de las imágenes multiespectrales ha tenido un peso importante en este Trabajo
Fin de Grado. Este es un paso costoso, pero necesario en cualquier problema que conlleve
un análisis posterior y la aplicación de técnicas de clasificación. Es decir, se debe contar
con un conjunto de datos de calidad para obtener resultados fiables y objetivos. En este
sentido, ha sido necesario el desarrollo de métodos específicos para realizar todo el proceso.
Estos métodos han sido desarrollados siguiendo distintos paradigmas de programación como
la programación orientada objetos, programación imperativa procedimental y programación
declarativa funcional. En la medida de lo posible, se ha intentado reducir el uso de librerías

73
74 Conclusiones y propuesta de trabajo futuro

de terceros y se ha optado por implementar métodos propios para tareas relacionadas con la
evaluación y obtención de métricas para los métodos de detección de cambios, la aplicación
de fusión o pansharpening utilizando el método Brovey, la obtención de las imágenes PC a
partir de los vectores propios, la obtención del ground truth, etc.
En cuanto a las evaluación de los métodos, la cual es una de las partes más importantes
de este trabajo, se ha realizado un análisis profundo de las métricas a emplear. Desde un
inicio, el autor ha querido que los resultados obtenidos fueran comparados de forma objetiva,
utilizando métricas que sienten una base común para la discusión final. Es por esto, que se
ha querido dar un paso más allá y no limitar la evaluación a utilizar matrices de confusión,
sino que se han propuesto dos métricas robustas como kappa y f1 score para la evaluación
general de las imágenes. Kappa, es utilizada de manera notoria en Teledetección, y f1 es cada
vez más utilizada para problemas de clasificación binaria, como es el caso de este trabajo.
Además, también se han incluido Precision y Recall, tratando en cada caso de encontrar un
interpretación adaptada al estudio que nos ocupa. En este sentido, Precision puede ayudar
a evaluar la presencia de ruido en las imágenes, mientras que Recall da cuenta de la bondad
del método a la hora de identificar zonas de cambio.
Por otro lado, el hecho de realizar un estudio de detección de cambios en cuerpos de agua
en el intervalo de tiempo escogido tenía doble finalidad. Por una parte, dar cuenta de los
efectos derivados del cambio climático, como puede ser la sequía o la escasez de lluvias; y
por otra, comparar y evaluar métodos basados en Análisis de Componentes Principales ante
imágenes con la presencia tanto de cambios mínimos (período 2014-2015) como de cambios
más notorios (período 2014-2020). De esta manera, se podrían analizar los resultados de las
técnicas empleadas en base a más criterios, y valorar si determinadas mejoras contribuyen al
aumento de la detección de cambios.
Además, si en un comienzo se pudo llegar a pensar que la detección de cambios aplicando
PCA en imágenes multiespectrales sería una tarea libre de impedimentos; nada de esto sería
cierto. Probablemente, el lector más experimentado en este campo ya conozca que son dema-
siados los factores que pueden afectar a los resultados de un proyecto de estas características:
resolución espacial de las imágenes, número de cubiertas terrestres distintas presentes en el
ROI, profundidad en los cuerpos de agua, existencia de vegetación acuática, turbidez, etc.
Teniendo en cuenta los factores anteriores, parece que, de los métodos aplicados, el método
1 combinado con técnica de pansharpening, por medio del método Brovey, ha conseguido
mejores resultados en promedio. De aquí se extrae que la resolución espacial es un parámetro
bastante relevante de cara a realizar un estudio para la detección de cambios con imágenes
multiespectrales. Además, este primer método goza de mayor sencillez frente al segundo
método, que es computacionalmente más costoso y conceptualmente más complejo, ya que
utiliza distribuciones Gaussianas Mixtas para la clasificación de los píxeles de las imágenes.
De cara a proponer trabajos futuros que partan de la línea aquí expuesta, se podrían tener
en cuenta distintas temáticas. Una primera relacionada con la mejora de la resolución espacial
de las imágenes de partida. Si bien en este trabajo hemos utilizado imágenes de Landsat-8 que
son de libre distribución, y con las que podemos llegar a tener una resolución espacial de 15
m (fusionando con la pancromática) existen productos bajo licencia comercial que presentan
una resolución de hasta 1’5 metros, como es el caso del satélite francés SPOT-7. En este
75

sentido, comparar los resultados obtenidos en este trabajo con los que se puedan obtener
con un satélite de tales características formaría parte de la primera línea de actuación de
trabajos futuros. Además, probar diferentes tipos de algoritmos y métodos de pansharpening
también es una opción que, aunque ha quedado fuera del alcance de este TFG, se propone
como trabajo futuro. En segundo lugar, continuar con el seguimiento del programa Landsat
con su siguiente misión Landsat-9, también merece una mención en este apartado en tanto
que el disponer de imágenes de satélite de tal calidad y a libre disposición de manera gratuita,
debe ser valorado por la comunidad científica y por todo aquel que comience su andadura en
Teledetección.
Continuando con las líneas de trabajo futuro, seguir investigando acerca del Análisis de
Componentes Principales se debe percibir como una obligación. Aún quedan por resolver
algunas incógnitas en cuanto a la selección de determinadas componentes principales para
dar cuenta de los cambios en una imagen multitemporal. En este sentido, se ha resaltado la
importancia de la distancia entre coeficientes de los vectores propios para extraer las com-
ponentes más importantes o, que en principio, pudieran ser las que más cambios identifican
y la que nos lleven a sistematizar y simplificar el proceso. También se ha observado como la
aplicación previa de técnicas de fusión o matching pueden contribuir a incrementar la calidad
de los resultados.
Para terminar, destacar que en este trabajo, el autor ha expuesto y analizado los resultados
en base a su conocimiento y a las evidencias existentes en la literatura, intentando en todo
momento ligar explicaciones objetivas y meditadas a los resultados obtenidos.
Bibliografía

Alsdorf, D. E., Rodríguez, E., y Lettenmaier, D. P. (2007). Measuring surface wa-


ter from space. Reviews of Geophysics, 45(2). Descargado 17/02/2021, de https://
agupubs.onlinelibrary.wiley.com/doi/abs/10.1029/2006RG000197 doi: https://doi
.org/10.1029/2006RG000197

Amolins, K., Zhang, Y., y Dare, P. (2007, 07). Wavelet based image fu-
sion techniques - An introduction, review and comparison. International So-
ciety for Photogrammetry and Remote Sensing. Descargado 26/04/2021, de
https://www.researchgate.net/publication/342318193_Wavelet_based_image
_fusion_techniques_-An_introduction_review_and_comparison

ASPR. (s.f.). What is ASPRS? American Society for Photogrammetry and Remote
Sensing. Descargado 27/02/2021, de https://www.asprs.org/organization/what-is
-asprs.html

Barajas, I. L. (2020). Mapa comarcal de españa. Descargado 01/06/2021, de http://


publicarendigital.hl725.dinaserver.com/comarcas/index.html

Canadian Space Agency. (2020). The Surface Water and Ocean Topography (SWOT) mission.
Descargado 10/05/2021, de https://www.asc-csa.gc.ca/eng/satellites/swot.asp

Chander, G., Markham, B. L., y Helder, D. L. (2009). Summary of current radiometric


calibration coefficients for landsat mss, tm, etm+, and eo-1 ali sensors. Remote Sensing
of Environment. Descargado 03/06/2021, de https://ntrs.nasa.gov/api/citations/
20090027884/downloads/20090027884.pdf

Chuvieco, E. (1995). Fundamentos de teledetección espacial. Ediciones RIALP, S.A.

Colwell, J. E. (1974). Vegetation canopy reflectance. Remote Sensing of Environment,


3(3), 175-183. Descargado 16/04/2021, de https://www.sciencedirect.com/science/
article/pii/0034425774900030 doi: https://doi.org/10.1016/0034-4257(74)90003-0

Curran, P. (1980). Multispectral remote sensing of vegetation amount. Progress in Physical


Geography: Earth and Environment, 4(3), 315-341. Descargado 16/04/2021, de https://
doi.org/10.1177/030913338000400301 doi: 10.1177/030913338000400301

de la Aleja, S. M. G. (2006). Medida de nivel en embalses. Evolución, posibilidades y


tratamiento actual. Congreso Nacional del Medioambiente. Descargado 01/02/2021, de
http://www.hidrosanco.com/pdf/Medida%20de%20niveles%20en%20embalses.pdf

76
Bibliografía 77

Eastman, J. R. (2001). Guide to gis and image processing. Clark Labs. Descar-
gado 20/03/2021, de http://planet.botany.uwc.ac.za/nisl/GIS/IDRISI/Idrisi32%
20Tutorial/Documents/Idrisi_Guide1.pdf
Einstein, A. (1905). Über einen die erzeugung und verwandlung des lichtes betreffenden
heuristischen gesichtspunkt. Annalen der Physik. Descargado 27/03/2021, de https://
www.zbp.univie.ac.at/dokumente/einstein1.pdf
Esparragón, D. R. (2015). Evaluación y desarrollo de métricas de calidad espacial y
espectral para aplicaciones de fusión de imágenes multiespectrales de teledetección de alta
resolución. Universidad de Las Palmas de Gran Canaria, 23. Descargado 21/04/2021,
de https://www.google.com/url?sa=t&rct=j&q=&esrc=s&source=web&cd=&ved=
2ahUKEwi3kMn_kcDxAhWKCmMBHXGiCDMQFnoECAMQAA&url=https%3A%2F%2Faccedacris
.ulpgc.es%2Fbitstream%2F10553%2F18132%2F4%2F0726210_00000_0000.pdf&usg=
AOvVaw0-nzRF3S2KYamyZ6-I7_Mq
Evolución del Número de Presas. (s.f.). Ministerio de Agricultura y Pesca, Alimenta-
ción y Medio Ambiente. Descargado 06/02/2021, de https://sig.mapama.gob.es/
WebServices/clientews/snczi/default.aspx?origen=8&nombre=PRESA_ESTADISTICA
_4&claves=&valores=
Fernández, G. (2015). La radiación del cuerpo negro. hipótesis de planck. Descargado
03/06/2021, de http://www.quimicafisica.com/radiacion-cuerpo-negro-hipotesis
-planck.html
Garcia, W., Marchand, G., Llactayo, W., Salcedo, K., y Victoria, A., E. andZambrano.
(2013). Ortorectificación de imágenes satelitales landsat. Ministerio del Ambiente.
Descargado 05/04/2021, de https://cdn.www.gob.pe/uploads/document/file/11896/
Protocolo-ortorectificacion-imagenes-Landsat.pdf
Gates, D. M., Keegan, H. J., Schleter, J. C., y Weidner, V. R. (1965, Jan). Spectral Properties
of Plants. Appl. Opt., 4(1), 11–20. Descargado 15/04/2021, de http://ao.osa.org/
abstract.cfm?URI=ao-4-1-11 doi: 10.1364/AO.4.000011
Gordo, J. F. R., y Robles, C. L. (2010). La fusión de imágenes de teledetección: una ayu-
da para la interpretación de entornos urbanos. EGA Expresión Gráfica Arquitectónica,
15(15), 182–189. Descargado 19/04/2021, de https://polipapers.upv.es/index.php/
EGA/article/view/1006 doi: 10.4995/ega.2010.1006
Hernández, J., y Montaner, D. (2009). Patrones de respuesta espectral. Universidad de
Chile, 5. Descargado 15/04/2021, de http://www.gep.uchile.cl/Publicaciones/Hern%
C3%A1ndez%20&%20Montaner%202009%20SAF.pdf
Iddamsetty, H. K. (2003). Segmentation of range images for modeling of large outdoor
scenes. The University of Tennessee, Knoxville, 6. Descargado 10/04/2021, de http://
citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.106.5385
Ihlen, V. (2019). Landsat 7 (L7). Data Users Handbook. U.S. Geological Survey. Descargado
12/05/2021, de https://prd-wret.s3.us-west-2.amazonaws.com/assets/palladium/
production/atoms/files/LSDS-1927_L7_Data_Users_Handbook-v2.pdf
78 Bibliografía

Interactions with the atmosphere. (2016). Department of Natural Resources Canada.


Descargado 15/03/2021, de https://www.nrcan.gc.ca/maps-tools-publications/
satellite-imagery-air-photos/remote-sensing-tutorials/introduction/
interactions-atmosphere/14635
JARS. (1993). Remote Sensing Note. Japan Association on Remote Sensing. Descargado
27/02/2021, de https://books.google.es/books?id=rar2GgAACAAJ
Jensen, J. R. (1983). Biophysical remote sensing. Annals of the Association of American
Geographers, 73(1), 111-132. Descargado 16/04/2021, de https://onlinelibrary.wiley
.com/doi/abs/10.1111/j.1467-8306.1983.tb01399.x doi: https://doi.org/10.1111/j
.1467-8306.1983.tb01399.x
Johnson, R. A., y Wichern, D. W. (1982). Applied multivariate statistical analysis. Prenti-
ce Hall. Descargado 03/05/2021, de http://docshare04.docshare.tips/files/12598/
125983744.pdf
Kapur, J., Sahoo, P., y Wong, A. (1985). A new method for gray-level picture thresholding
using the entropy of the histogram. Computer Vision, Graphics, and Image Processing,
29(3), 273-285. Descargado 28/04/2021, de https://www.sciencedirect.com/science/
article/pii/0734189X85901252 doi: https://doi.org/10.1016/0734-189X(85)90125-2
Kaur, H. (2015). Review of remote sensing image segmentation techniques. International
Journal of Advanced Research in Computer Engineering & Technology (IJARCET), 1.
Descargado 10/04/2021, de https://citeseerx.ist.psu.edu/viewdoc/download?doi=
10.1.1.1046.6267&rep=rep1&type=pdf
Knipling, E. B. (1970). Physical and physiological basis for the reflectance of visible
and near-infrared radiation from vegetation. Remote Sensing of Environment, 1(3), 155-
159. Descargado 15/04/2021, de https://www.sciencedirect.com/science/article/
pii/S0034425770800219 doi: https://doi.org/10.1016/S0034-4257(70)80021-9
Kriegler, F. J., Malila, W. A., Nalepka, R. F., y Richardson, W. (1969, enero). Preprocessing
Transformations and Their Effects on Multispectral Recognition. En Remote sensing of
environment, vi (p. 97).
Kumar, P., Huan, T., Li, X., y Yuan, Y. (2018, 01). Panchromatic and Multispectral
Remote Sensing Image Fusion Using Machine Learning for Classifying Bucolic and
Farming Region. International Journal of Computational Science and Engineering,
15, 342. Descargado 21/04/2021, de https://www.researchgate.net/publication/
322339077_Panchromatic_and_Multispectral_Remote_Sensing_Image_Fusion_Using
_Machine_Learning_for_Classifying_Bucolic_and_Farming_Region
Landsat 9 overview. (s.f.). Landsat Science. Descargado 13/05/2021, de https://landsat
.gsfc.nasa.gov/landsat-9/landsat-9-overview
La reserva hídrica española se encuentra al 47 por ciento de su capacidad. (2020,
Nov). La Moncloa. Descargado 01/02/2021, de https://www.lamoncloa.gob.es/
serviciosdeprensa/notasprensa/transicion-ecologica/Paginas/2020/011220
-reserva.aspx
Bibliografía 79

Lewis, G. N. (1926). The Conservation of Photons. Nature. Descargado 01/04/2021, de


https://doi.org/10.1038/118874a0
Li, C., y Lee, C. (1993). Minimum cross entropy thresholding. Pattern Recognition, 26(4), 617-
625. Descargado 28/04/2021, de https://www.sciencedirect.com/science/article/
pii/003132039390115D doi: https://doi.org/10.1016/0031-3203(93)90115-D
López, F. B. (2014). Contratación de servicios para el mantenimiento, conservación y
explotación Red SAIH del Guadiana. Pliego de Bases. Descargado 15/02/2021, de
https://contrataciondelestado.es/
Markham, B. L., Jenstrom, D., Masek, J. G., Dabney, P., Pedelty, J. A., Barsi, J. A., y
Montanaro, M. (2014). Landsat 9: Status and Plans. NASA. Descargado 13/05/2021, de
https://ntrs.nasa.gov/citations/20160013623
Martínez-Izquierdo, M., Molina-Sánchez, I., y Morillo-Balsera, M. (2019). Efficient dimen-
sionality reduction using principal component analysis for image change detection. IEEE
Latin America Transactions. Descargado 01/03/2021, de https://ieeexplore.ieee.org/
document/8891877
McFeeters, S. K. (1996). The use of the normalized difference water index (ndwi) in the
delineation of open water features. International Journal of Remote Sensing, 17 (7), 1425-
1432. Descargado 01/05/2021, de https://doi.org/10.1080/01431169608948714 doi:
10.1080/01431169608948714
Molina, I., Martinez, E., Arquero, A., Pajares, G., y Sánchez-Lladó, J. (2012, 12).
Evaluation of a Change Detection Methodology by Means of Binary Thresholding
Algorithms and Informational Fusion Processes. Sensors (Basel, Switzerland), 12, 3528-
61. Descargado 28/04/2021, de https://www.researchgate.net/publication/
228071833_Evaluation_of_a_Change_Detection_Methodology_by_Means_of
_Binary_Thresholding_Algorithms_and_Informational_Fusion_Processes doi:
10.3390/s120303528
NASA. (s.f.-a). AirSWOT. Descargado 10/05/2021, de https://swot.jpl.nasa.gov/
mission/airswot/
NASA. (s.f.-b). How SWOT Will Work. Descargado 10/05/2021, de https://spark.adobe
.com/page/pX485lhUb4Pml/
Nave, R. (2017). Electromagnetic waves. HyperPhysics. Descargado 15/03/2021, de http://
hyperphysics.phy-astr.gsu.edu/hbase/hframe.html
NOAA. (2021). What is remote sensing? National Oceanic and Atmospheric Ad-
ministration. Descargado 27/02/2021, de https://oceanservice.noaa.gov/facts/
remotesensing.html
Otsu, N. (1979). A threshold selection method from gray-level histograms. IEEE Transac-
tions on Systems, Man, and Cybernetics, 9(1), 62-66. Descargado 26/04/2021, de https://
engineering.purdue.edu/kak/computervision/ECE661.08/OTSU_paper.pdf doi: 10
.1109/TSMC.1979.4310076
80 Bibliografía

Piwowar, J. M. (2011). The satellite morgue. University of Regina. Descargado 12/05/2021,


de http://uregina.ca/piwowarj/Satellites/Morgue.html
Rees, W. G. (2012). Physical principles of remote sensing. En (p. 6-8). Cambridge Univer-
sity Press. Descargado 15/03/2021, de https://waterhouse.ir/sites/default/files/
Physical%20Principles%20of%20Remote%20Sensing%20-%20Third%20Edition_0.pdf
Ridler, T. W., y Calvard, S. (1978). Picture thresholding using an iterative selection
method. IEEE Transactions on Systems, Man, and Cybernetics. Descargado 28/04/2021,
de https://ieeexplore.ieee.org/stamp/stamp.jsp?arnumber=4310039
Ruiz Fernández, L. A. (2013). Análisis de Componentes Principales. Aplicaciones en Telede-
tección. ETSI. Geodésica, Cartográfica y Topográfica. UPV . Descargado 03/05/2021, de
https://riunet.upv.es/handle/10251/30616?tl=a
Ruiz Fernández, L. A. (2018). Realce de imágenes en teledetección: (i) ope-
radores puntuales. ETSI. Geodésica, Cartográfica y Topográfica. Descarga-
do 05/04/2021, de https://riunet.upv.es/bitstream/handle/10251/103649/
Ruiz%20-%20Realce%20de%20im%C3%A1genes%20en%20teledetecci%C3%B3n%3A%20%
28I%29%20Operadores%20puntuales.pdf?sequence=1
Triana, N., Jaramillo, A. E., Gutiérrez, R. M., y Rodríguez, C. A. (2016). Técnicas de
umbralización para el procesamiento digital de imágenes de GEM-Foils. Scientia et Technic.
Descargado 15/04/2021, de https://core.ac.uk/download/pdf/299841739.pdf
Villar, A. A., Pastor, I. O., y Canalejo, A. E. (2016). Sistemas de captura de la informaciÓn.
Dextra Editorial. Descargado 01/02/2021, de https://www.ingebook.com/ib/NPcd/IB
_Escritorio_Visualizar?cod_primaria=1000193&libro=9398
Wu, L., Wang, Y., Long, J., y Liu, Z. (2015). An unsupervised change detection approach for
remote sensing image using principal component analysis and genetic algorithm. Image and
Graphics. Descargado 11/04/2021, de https://link.springer.com/chapter/10.1007/
978-3-319-21978-3_52
Xu, H. (2006). Modification of normalised difference water index (ndwi) to enhance open wa-
ter features in remotely sensed imagery. International Journal of Remote Sensing, 27 (14),
3025-3033. Descargado 01/05/2021, de https://doi.org/10.1080/01431160600589179
doi: 10.1080/01431160600589179
A. Anexo I: Datos hidrológicos SAIH
Guadiana

A continuación, se adjuntan las tablas donde figuran los datos hidrológicos de los embalses
de la comarca “La Siberia” en el período de tiempo estudiado en este trabajo. Dichos datos
han sido obtenidos directamente del sistema de descarga para usuarios externos que pone
a disposición la Confederación Hidrográfica del Guadiana mediante una aplicación web que
permite consultar y descargar los datos hidrológicos automáticos de la red SAIH (Sistema
Automático de Información Hidrológica).
Para tener acceso a la aplicación web y, por consiguiente, a los datos, es necesario solicitar
un usuario de acceso vía email a la dirección soporte@saihguadiana.com.

Tabla A.1: Datos hidrológicos correspondientes al día 9 de junio de 2014


Estación Tipo Variable Unidad Medida Promedio Mínimo Máximo
Embalse Cíjara Nivel Embalse msnm 425,177 425,144 425,199
Embalse Cíjara Volumen Embalse hm³ 1.358,362 1.356,356 1.359,451
Embalse García de Sola Nivel Embalse msnm 359,808 359,790 359,839
Embalse García de Sola Volumen Embalse hm³ 457,533 456,916 458,335
Embalse Orellana Nivel Embalse msnm 316,174 316,160 316,190
Embalse Orellana Volumen Embalse hm³ 717,078 716,366 717,824
Embalse La Serena Nivel Embalse msnm 349,865 349,845 349,885
Embalse La Serena Volumen Embalse hm³ 2.930,273 2.927,697 2.932,899
Embalse Zújar Nivel Embalse msnm 315,652 315,606 315,719
Embalse Zújar Volumen Embalse hm³ 268,902 268,258 269,761

81
82 Anexo I: Datos hidrológicos SAIH Guadiana

Tabla A.2: Datos hidrológicos correspondientes al día 28 de junio de 2015


Estación Tipo Variable Unidad Medida Promedio Mínimo Máximo
Embalse Cíjara Nivel Embalse msnm 418,293 418,285 418,295
Embalse Cíjara Volumen Embalse hm³ 977,361 976,945 977,444
Embalse García de Sola Nivel Embalse msnm 356,387 356,359 356,410
Embalse García de Sola Volumen Embalse hm³ 355,928 355,181 356,545
Embalse Orellana Nivel Embalse msnm 314,205 314,160 314,260
Embalse Orellana Volumen Embalse hm³ 626,686 624,670 628,763
Embalse La Serena Nivel Embalse msnm 347,963 347,964 347,975
Embalse La Serena Volumen Embalse hm³ 2.687,710 2.687,491 2.688,718
Embalse Zújar Nivel Embalse msnm 314,791 314,724 314,874
Embalse Zújar Volumen Embalse hm³ 257,132 256,187 258,187

Tabla A.3: Datos hidrológicos correspondientes al día 17 de junio de 2017


Estación Tipo Variable Unidad Medida Promedio Mínimo Máximo
Embalse Cíjara Nivel Embalse msnm 412,446 412,446 412,446
Embalse Cíjara Volumen Embalse hm³ 715,834 715,834 715,834
Embalse García de Sola Nivel Embalse msnm 355,401 355,360 355,430
Embalse García de Sola Volumen Embalse hm³ 329,854 328,891 330,598
Embalse Orellana Nivel Embalse msnm 313,998 313,979 314,029
Embalse Orellana Volumen Embalse hm³ 617,509 616,470 618,884
Embalse La Serena Nivel Embalse msnm 337,083 337,079 337,089
Embalse La Serena Volumen Embalse hm³ 1.556,110 1.554,286 1.558,828
Embalse Zújar Nivel Embalse msnm 315,966 315,790 316,118
Embalse Zújar Volumen Embalse hm³ 273,119 270,718 275,268

Tabla A.4: Datos hidrológicos correspondientes al día 25 de junio de 2020


Estación Tipo Variable Unidad Medida Promedio Mínimo Máximo
Embalse Cíjara Nivel Embalse msnm 410,162 410,130 410,199
Embalse Cíjara Volumen Embalse hm³ 628,290 627,091 629,687
Embalse García de Sola Nivel Embalse msnm 353,137 353,010 353,239
Embalse García de Sola Volumen Embalse hm³ 275,009 272,272 277,368
Embalse Orellana Nivel Embalse msnm 312,045 312,019 312,079
Embalse Orellana Volumen Embalse hm³ 536,299 535,261 537,695
Embalse La Serena Nivel Embalse msnm 325,247 325,222 325,293
Embalse La Serena Volumen Embalse hm³ 770,279 769,064 772,645
Embalse Zújar Nivel Embalse msnm 313,578 313,489 313,639
Embalse Zújar Volumen Embalse hm³ 241,107 239,954 241,906

También podría gustarte