Está en la página 1de 435

Cuestiones de

Teledetección
Daniel Rodríguez Pérez
Noela Sánchez Carnero
José Antonio Domínguez Gómez
Cristina Santa Marta Pastrana
Cuestiones
de Teledetección

DANIEL RODRÍGUEZ PÉREZ


NOELA SÁNCHEZ CARNERO
JOSÉ ANTONIO DOMÍNGUEZ GÓMEZ
CRISTINA SANTA MARTA PASTRANA

UNIVERSIDAD NACIONAL DE EDUCACIÓN A DISTANCIA


CUESTIONES DE TELEDETECCIÓN

Quedan rigurosamente prohibidas, sin la


autorización escrita de los titulares del
Copyright, bajo las sanciones establecidas
en las leyes, la reproducción total o
parcial de esta obra por cualquier medio
o procedimiento, comprendidos la reprografía
y el tratamiento informático, y la distribución
de ejemplares de ella mediante alquiler
o préstamos públicos.

© Universidad Nacional de Educación a Distancia


Madrid 2015

www.uned.es/publicaciones

Los autores agradecen a la ESA, NASA y EUMETSAT sus políticas de cesión de imágenes
con fines educativos: sin ellas no sería posible un libro como éste. También agradecen a los
profesores James y Susan Aber, a Group 8 Technology y a los fondos de la Biblioteca Tomás
Navarro Tomás la cesión de imágenes para ilustrar alguna de las «cuestiones».

ISBN electrónico: 978-84-362-7067-9

Edición digital: septiembre de 2015


Índice general

P REFACIO

Tema 0. H ISTORIA DE LA TELEDETECCIÓN

0.1. Introducción

0.2. Cuestiones

0.3. Respuestas a las cuestiones

1. Orígenes bélicos de la teledetección

2. Primeras técnicas de adquisición de imágenes

3. Primeras plataformas elevadas para adquirir imágenes

4. Orígenes de la transmisión digital de imágenes

5. Primera imagen de la Tierra desde el espacio

6. La vieja fotografía analógica en teledetección

7. Las agencias de teledetección

8. La teledetección en España

9. Los primeros estudios planetarios por Teledetección

10. El primer satélite científico español

0.4. Conceptos importantes

0.5. Bibliografía

7
C UESTIONES DE TELEDETECCIÓN

Tema 1. P UNTOS DE VISTA . P LATAFORMAS


1.1. Introducción
1.2. Cuestiones
1.3. Respuestas a las cuestiones
1. Imagen proyectiva
2. Panoramas: Google Street View
3. Estereoscopía
4. Ortoforrectificación y ortofotografías
5. Vehículos aéreos no tripulados

6. Órbitas de satélites: ecuatoriales y heliosíncronas

7. Órbitas de satélites: polares


8. Estereoscopía desde satélite
9. Misiones espaciales y su continuidad
10. Satélites meteorológicos
1.4. Conceptos importantes
1.5. Bibliografía

Tema 2. M ÉTODOS DE MEDIDA


2.1. Introducción
2.2. Cuestiones
2.3. Respuestas a las cuestiones
1. Medidas y sus errores
2. Niveles digitales
3. Calibración
4. Error de la formación de la imagen
5. Georreferenciación

8
ÍNDICE GENERAL

6. Resoluciones de un sensor

7. Resolución espacial

8. Resolución espectral

9. Bandas de un sensor

10. Medida por radar

2.4. Conceptos importantes

2.5. Bibliografía

Tema 3. F ÍSICA DE LA VISIÓN HUMANA

3.1. Introducción

3.2. Cuestiones

3.3. Respuestas

1. Estructura del ojo humano

2. El sistema óptico del ojo

3. La percepción del color

4. La percepción de la luminosidad

5. La adaptación a la luz

6. El punto ciego

7. Descripción cuantitativa de la luz

8. Descripción cuantitativa de la percepción luminosa

9. Modelos de color

10. Otros modelos de color

3.4. Conceptos importantes

3.5. Bibliografía

9
C UESTIONES DE TELEDETECCIÓN

Tema 4. S ENSORES DE EJEMPLO


4.1. Introducción
4.2. Cuestiones
4.3. Respuestas a las cuestiones
1. Espectrorradiometría de campo
2. Bibliotecas de espectros
3. Bandas más usadas en sensores multiespectrales
4. Acceso a los datos de los sensores
5. Los sensores del programa Landsat
6. Los sensores de color oceánico
7. Los sensores meteorológicos
8. Los sensores de vigilancia ambiental
9. Los sensores radar
10. Los sensores aerotransportados
4.4. Conceptos importantes
4.5. Bibliografía

Tema 5. I MAGEN DIGITAL


5.1. Introducción
5.2. Cuestiones
5.3. Respuestas a las cuestiones
1. Canales de una imagen digital
2. Adquisición de una imagen digital
3. Escala de una imagen
4. Almacenamiento de una imagen
5. Formatos de imagen fotográfica

10
ÍNDICE GENERAL

6. Formatos de imagen de teledetección

7. Composición de bandas RGB

8. Máscaras binarias

9. Digitalización de una imagen

10. Productos meteorológicos en color

5.4. Conceptos importantes

5.5. Bibliografía

Tema 6. T RANSFORMACIONES DE LAS IMÁGENES

6.1. Introducción

6.2. Cuestiones

6.3. Respuestas a las cuestiones

1. Transformaciones globales

2. Transformaciones globales lineales

3. Aritmética de bandas

4. Aritmética de bandas: ejemplos

5. Índices espectroscópicos

6. Máscaras lógicas/binarias

7. Filtrado de una imagen

8. Interpolación

9. Detección de bordes

10. Realce local

6.4. Conceptos importantes

6.5. Bibliografía

11
C UESTIONES DE TELEDETECCIÓN

Tema 7. E STADÍSTICA DE LAS IMÁGENES


7.1. Introducción
7.2. Cuestiones
7.3. Respuestas a las cuestiones
1. Transformación del histograma
2. Interpretación del histograma
3. Correlación entre bandas
4. Decorrelación de bandas
5. Componentes principales
6. Clasificación supervisada
7. Distancias entre bandas de píxeles
8. Clasificación no supervisada
9. Validación de una clasificación
10. Análisis de mezclas espectrales
7.4. Conceptos importantes
7.5. Bibliografía

Tema 8. L A INFORMACIÓN MULTIESPECTRAL VISTA A TRAVÉS DE LA


ATMÓSFERA

8.1. Introducción
8.2. Cuestiones
8.3. Respuestas a las cuestiones
1. Fotones y detectores
2. Magnitudes radiométricas
3. Radiancia y su significado
4. Reflectividad

12
ÍNDICE GENERAL

5. Radiancia espectral
6. Absorción atmosférica
7. Dispersión atmosférica
8. Corrección atmosférica
9. Corrección por objeto oscuro
10. Corrección atmosférica 6S
11. Corrección atmosférica por radiometría de campo
8.4. Conceptos importantes
8.5. Bibliografía

Tema 9. M EDIDA REMOTA DE LA TEMPERATURA


9.1. Introducción
9.2. Cuestiones
9.3. Respuestas a las cuestiones
1. La temperatura
2. L e y d e W i e n
3. Ley de Planck
4. Sensor infrarrojo vs. radiómetro de microondas
5. Medidas térmicas de la atmósfera
6. Emisión térmica terrestre
7. Coeficiente de emisividad
8. Algoritmos multibanda de temperatura
9. Inercia térmica
10. Islas de calor
9.4. Conceptos importantes
9.5. Bibliografía

13
C UESTIONES DE TELEDETECCIÓN

Tema 10. E L “ COLOR ” DE LAS CUBIERTAS TERRESTRES


10.1. Introducción
10.2. Cuestiones
10.3. Respuestas a las cuestiones
1. Absorción y reflexión
2. Dispersión y reflexión
3. Espectro de las nubes
4. Espectro del hielo y de la nieve
5. Espectro del suelo
6. Espectros de minerales
7. Espectro de la vegetación
8. Espectros de algas
9. Transformación tasseled-cap

10. Índices de vegetación


10.4. Conceptos importantes
10.5. Bibliografía

Tema 11. L A INFORMACIÓN DE LAS ONDAS : EL RADAR

11.1. Introducción
11.2. Cuestiones
11.3. Respuestas a las cuestiones
1. Longitud de onda de radar
2. Resolución espacial
3. S A R
4. Formación de una imagen radar
5. Polarizaciones

14
ÍNDICE GENERAL

6. Escala decibélica
7. L a S R T M
8. Altimetría radar
9. Interferometría radar
10. Medida del viento por dispersión
11.4. Conceptos importantes
11.5. Bibliografía

Apéndice A. E L PROGRAMA BEAM


A.1. La interfaz gráfica: VISAT
A.2. Apertura de archivos
A.3. Visualización de bandas
A.4. Georreferenciación de una imagen
A.5. Co-localización de dos productos
A.6. Creación de nuevos productos de trabajo
A.7. Ejemplos prácticos
1. Apertura de imágenes y reproyección
2. Georreferenciación de una imagen
3. Módulos de Beam y algoritmos estándar
4. La calculadora de bandas

15
Prefacio

Cualquier titulado en una disciplina científica que trata de estudiar el medio ambiente
debe estar familiarizado con las metodologías y técnicas que permiten adquirir informa-
ción de éste. En los últimos 40 años, entre esas técnicas, la que más información nos ha
proporcionado sobre nuestro planeta ha sido la teledetección. La teledetección, tal como
se entiende en la actualidad, es una combinación de ciencia, tecnología e informática
puesta al servicio de un objetivo: conocer los componentes de una área geográfica visi-
bles desde la distancia. Esa área geográfica puede ser desde un accidente concreto hasta
el planeta entero. Y el concepto de visibilidad ha variado dramáticamente desde las pri-
meras imágenes obtenidas con cámaras de fotografía o televisión a las últimas imágenes
sintéticas del campo gravitatorio de la Tierra a partir de medidas indirectas hechas desde
el espacio. Todo ello, gracias al desarrollo científico y tecnológico de estos 40 años.
A pesar del gran avance de la tecnología de adquisición de imágenes, con senso-
res que ven cada vez más detalles y «colores» más allá de lo que el ojo humano puede
ver, el principal avance ha sido, sin duda, nuestra capacidad para gestionar, visualizar e
interpretar toda esa información. Es decir, ha sido la informática. En particular, la tele-
detección ha trabajado con imágenes o con otras señales que se pueden representar así.
Esto permite, por una parte, trabajar con conceptos intuitivos: ¿qué hay más intuitivo
que una imagen? También pone a disposición del investigador toda la potencia del pro-
cesamiento digital de imágenes, y así, la posibilidad de extraer información relevante de
esas imágenes.

PLAN DEL LIBRO

El objetivo de este libro es presentar a cualquier estudiante universitario de ciencias


una recopilación de los fundamentos de ciencia, tecnología y tratamiento de la informa-
ción que le permitirán entender la teledetección actual. Se cuenta con que este estudiante
ya poseerá unos conocimientos básicos en su disciplina, por lo que se ha optado por cen-
trar el estudio sólo en la aplicación de esos conocimientos a la teledetección. Por eso
las «cuestiones de teledetección», ya que se intenta responder a más de un centenar de
preguntas que puede plantearse el estudiante cuando se encuentra con la teledetección.

17
C UESTIONES DE TELEDETECCIÓN

En particular, como texto didáctico editado por la UNED, se ha tratado de propor-


cionar al futuro graduado en Ciencias Ambientales no sólo la perspectiva ya comentada,
sino una herramienta para enfrentarse a un mundo en constante desarrollo como es el de
la teledetección. Por eso, en cada tema se le proporciona no sólo una bibliografía reco-
mendada para ampliar el contenido del tema, sino también enlaces a páginas web que
(a día de hoy, en mayo de 2015) contienen la información técnica más reciente de los
instrumentos, aplicaciones y resultados de la teledetección contemporánea.
«Cuestiones de teledetección» ha sido escrito, como ya se ha dicho, pensando en
los estudiantes del grado en Ciencias Ambientales de la UNED, y en particular, en los
que están a punto de graduarse. Es el material que hemos elaborado en colaboración con
ellos a lo largo de los últimos cursos y basándonos en nuestra experiencia de los últimos
10 años enseñando teledetección. De hecho, la participación activa de algunos de estos
estudiantes se hace constar cuando parte de su contribución ha pasado a formar parte
sustancial del contenido de este libro: no sólo reconocemos su participación activa, sino
que agradecemos su colaboración al ayudar a explicar la teledetección.
Dado que la teledetección nace para responder preguntas usando una perspectiva
multidisciplinar (científica, tecnológica, informática y, cada vez más, de gestión), plan-
tea también muchas preguntas a los expertos de cada una de estas áreas. A los científicos,
qué se puede llegar a ver; a los tecnólogos, cómo se puede llegar a ver; a los informáti-
cos, qué significado tiene la información que se puede llegar a extraer, y a los gestores,
qué información útil en su gestión les pueden proporcionar todos los demás. A estas
preguntas se intenta responder en cada tema. Por otra parte, este temario teórico se de-
be complementar con trabajos prácticos, que planteen problemas reales de teledetección
(simplificados al nivel de esta obra), algo que permite el programa profesional de li-
bre distribución, BEAM, creado y mantenido por Brockmann Consult para la Agencia
Europea del Espacio (ESA), que se describe en el apéndice. Este software está así al al-
cance de todos los estudiantes, y es una herramienta muy potente y flexible, en continua
actualización.

Los autores

Los autores del libro tienen perfiles diversos que reflejan la teledetección que se
describe en él.
Daniel Rodríguez Pérez y Cristina Santa Marta Pastrana somos profesores de Física
en la UNED, doctores en Ciencias con especialización, antes de llegar a la Teledetección,
en computación científica, el primero, y en imagen médica, la segunda; con perspectivas,
por lo tanto, teórica y práctica, cada uno.

18
P REFACIO

José Antonio Domínguez es licenciado en Ciencias Físicas y doctor en Ciencias Am-


bientales. Lleva a cabo investigación en diversos temas de teledetección, área en la que
cuenta también con una larga trayectoria docente. Es colaborador honorífico de la UNED
y también colabora con diferentes grupos de investigación en universidades españolas y
europeas. Ha trabajado para el Centro de Estudios Hidrográficos (CEH/CEDEX) y en la
actualidad es investigador contratado en el Department of Applied Geoinformatics and
Spatial Planning de la Faculty of Environmental Sciences de la Czech University of Life
Sciences (CZU) de Praga, en la República Checa.
Noela Sánchez Carnero es licenciada en Ciencias del Mar y doctora en Ciencias.
Ha trabajado en el Centro Nacional Patagónico (CENPAT) donde ha desarrollado su
investigación en el ámbito de la teledetección acústica (sónar) y óptica, siempre con
una orientación hacia la gestión de los recursos naturales. En la actualidad es contratada
postdoctoral en el Grupo de Oceanografía Física de la Facultad de Ciencias del Mar de
la Universidad de Vigo.
El temario teórico, fue planteado por Daniel Rodríguez y Cristina Santa Marta, y
desarrollado a lo largo de los cursos 2013-2014 y 2014-2015, en colaboración con Noela
Sánchez y los primeros estudiantes de la asignatura (especialmente, Juan Ojeda Cáceres
y Sergio Gómez Pascual). José Antonio Domínguez sugirió la inclusión del tema sobre
la visión humana y propuso, junto con Noela Sánchez, muchas de las cuestiones de apli-
cación. Los autores han intentado plasmar en este libro la combinación de sus visiones
académicas y prácticas, esperamos que para beneficio de los estudiantes.

ORGANIZACIÓN DEL TEXTO

El texto se divide en 12 capítulos: uno inicial histórico (tema 0), dos sobre sensores
y plataformas (temas 1 y 4), otro sobre física de la teledetección (tema 2), tres sobre
imagen digital (temas 5 y 6) y otros tres sobre interpretación de imágenes (temas 7, 8
y 9), que formarían un temario clásico de teledetección; a estos se les suman un tema
sobre la visión humana (tema 3) y otro sobre el uso del radar en teledetección (tema 11).
Cada tema comienza planteando al lector el motivo de su inclusión en este libro: qué
buscamos que el estudiante aprenda en él y por qué. Luego se le plantean las preguntas
sobre cada tema a las que se debe enfrentar. Se ha procurado que sean preguntas de ac-
tualidad que motiven una investigación personal antes de que los autores respondamos
y demos los detalles: son preguntas con respuestas múltiples para interpelar al lector al
tiempo que le ayudan a entender lo que se le pregunta. Posteriormente, se responden las
preguntas de forma detallada. La explicación se ha enriquecido cuando ha sido posible

19
C UESTIONES DE TELEDETECCIÓN

con imágenes de teledetección, con esquemas elaborados por el equipo docente para ex-
plicar los conceptos tratados en el texto y con enlaces a material multimedia accesible
en Internet. Al final, se propone bibliografía y «webgrafía» para ampliarlos o para con-
tinuar la investigación, y se resumen los conceptos más importantes que deben quedar
claros tras el trabajo del tema. En un repaso de lo estudiado, se refiere al estudiante a los
diagramas conceptuales al inicio de cada tema.

CÓMO UTILIZAR EL LIBRO

Detrás de la estructura del libro hay un planteamiento didáctico muy marcado: el


estudiante de una disciplina científica debe ser un investigador; debe hacerse preguntas
y buscar los medios para responderlas. Por razones obvias, en una obra docente, y más
en una obra para la enseñanza a distancia, se deben dar las respuestas; también se debe
enseñar a llegar a ellas. Eso hemos intentado.
La lectura del libro puede realizarse de una forma tradicional: historia, plataformas,
sensores, imagen digital, información espectral, interpretación de imágenes. También se
puede plantear una lectura alternativa: información espectral, sensores, imagen digital,
...
También es posible leer el libro en otro orden: está escrito de forma autocontenida,
de manera que en cada tema (y en cada respuesta a las cuestiones planteadas) se explica
casi todo lo necesario para su comprensión. Así, la lectura de un tema no requiere la
lectura previa de otro, lo que permite al estudiante leer el libro en un orden definido por
sus intereses. En todo caso, para el estudio inicial, es muy recomendable seguir un orden
expositivo definido, que permita ir viendo las relaciones entre los sucesivos conceptos
introducidos.
Para después del estudio, cada tema contiene dos herramientas muy útiles para el
repaso: los mapas conceptuales, que destacan los conceptos más importantes del tema y
las relaciones entre ellos, y los glosarios, que explican brevemente las palabras clave.
Por último, para el estudiante que quiera saber más, se proporciona una bibliografía
que va desde referencias a obras didácticas, a referencias a artículos especializados de
revisión o de investigación sobre los temas tratados en cada capítulo, muchos de ellos
consultados por los autores a la hora de desarrollar éstos. También se proporcionan nu-
merosos enlaces a páginas web en las que se ilustran los conceptos tratados o en las que
se puede encontrar más información técnica o ilustraciones gráficas complementarias.

20
Tema 0

Historia de la teledetección

GUION-ESQUEMA

La antigua teledetección

La teledetección analógica

La teledetección de la carrera espacial

La teledetección de las agencias civiles


22
Sat. meteorológicos
10000000 m geostacionarios

Sat. meteorológicos
C UESTIONES DE TELEDETECCIÓN

1000000 m polares

Sat.
ambientales
100000 m

Aviones
Zeppelin
10000 m

ALTITUD
1000 m Palomas

Globos Cometas
100 m

Cometas
10 m humanas

Descripción escrita Imagen analógica Imagen digital.


s. III a.C. s. XIX 1900 1920 1940 1960 1980 2000
H ISTORIA DE LA TELEDETECCIÓN

0.1. INTRODUCCIÓN

Este tema introductorio revisa el desarrollo de la teledetección desde el punto de vis-


ta del progreso en las técnicas de observación, registro de la información, procesamiento
y transmisión de ésta. Las técnicas de observación evolucionaron con la adquisición de
altura, para aumentar el área de visión, y con la mejora de la óptica. El registro de la in-
formación evolucionó desde la simple observación visual, hasta la fotografía analógica
y, posteriormente, los detectores electrónicos. La transmisión de la información evolu-
cionó desde las señales acústicas, luminosas o los mensajes escritos, hasta la transmisión
de datos analógicos por radio y su posterior transmisión digital. El procesamiento de la
información evolucionó desde la interpretación visual in situ, a la mejora e interpreta-
ción de fotografías, al procesamiento digital y la aplicación de métodos de inteligencia
artificial.

0.2. CUESTIONES

1. La observación del enemigo desde una posición elevada ya era recomendada por
Sun Tzu en su “Arte de la guerra” (s. IV a.d.C.), pero ¿quién fue el primero en
elevar a un observador artificialmente para vigilar los movimientos del enemigo
en el campo de batalla?

a) Kung Shu P’an (asedio a la ciudad de Sung)


b) Jean Baptiste Jourdan (batalla de Fleurus)
c) Thaddeus Lowe (batalla de Bull Run)
d) Ferdinand von Zeppelin (I Guerra Mundial)

2. ¿Cuál fue la primera técnica que se empleó para tomar una imagen a distancia?

a) la heliografía
b) el daguerrotipo
c) la fotografía en cristal
d) la fotografía en película

23
C UESTIONES DE TELEDETECCIÓN

3. En la primera teledetección se emplearon como lugares de observación diversas


“plataformas” elevadas para tomar imágenes (fotografías). ¿Cuál de éstas se utili-
zó primero?

a) los aviones
b) las palomas fotógrafas
c) los globos aerostáticos
d) los satélites artificiales

4. La transmisión digital de imágenes data de los años:

a) 1860
b) 1920
c) 1960
d) 1972

5. ¿Quién realizó la primera fotografía de la Tierra desde el espacio?

a) El cohete V-2
b) El satélite Sputnik
c) Yuri Gagarin
d) Gherman Titov
e) El satélite Landsat

6. Las últimas imágenes de la época analógica de la teledetección:

a) se registraban en película fotográfica y se descargaban al aterrizar (o caer a


tierra) la plataforma que transportaba la cámara
b) requerían observadores humanos en las plataformas elevadas (aviones, glo-
bos) para anotar las observaciones
c) se transmitían por radio a la estación receptora que las imprimía en película
fotográfica
d) se transmitían por radio a la estación receptora y se registraban magnética-
mente

24
H ISTORIA DE LA TELEDETECCIÓN

7. Si a usted le dicen que una agencia vende en la actualidad imágenes de satélite en


color en las que se pueden distinguir objetos de un tamaño de 1 m, ¿en qué clase
de agencia pensaría?

a) una agencia pública


b) una empresa privada
c) una agencia militar
d) un grupo de investigación universitario

8. ¿En qué año se obtuvo por primera vez una cobertura completa del territorio es-
pañol por imágenes desde el aire?

a) 1901
b) 1946
c) 1956
d) 1977

9. ¿Cuál fue el primer planeta estudiado por los científicos desde una sonda en órbita
a su alrededor?

a) Mercurio
b) Venus
c) la Tierra
d) Marte

10. ¿En qué año y con que objetivos se lanzó el primer satélite español?

a) 1974, estudiar la ionosfera y la radiación espacial


b) 1977, tomar imágenes de España desde el cielo
c) 1992, dar servicios de telecomunicaciones
d) 2009, obtener imágenes síncronas de la península de alta resolución

25
C UESTIONES DE TELEDETECCIÓN

Figura 1. Vista de Thaddeus Lowe ascendiendo en un globo (el “Intrepid”) para observar la batalla de
Seven Pines o Fair Oaks (fotografía de Mathew Brady, 1822-1896). Fuente: Wikimedia Commons.

0.3. RESPUESTAS A LAS CUESTIONES

1. Laobservacióndelenemigodesdeunaposiciónelevadayaerarecomendada
porSunTzuensu“Artedelaguerra”(s.IVa.d.C.),pero¿quiénfueel
primeroenelevaraunobservadorartificialmenteparavigilarlosmovimientos
delenemigoenelcampodebatalla?

Respuesta: (a) La primera noticia histórica de seres humanos que se elevan por encima
del suelo empleando una tecnología de vuelo con el objetivo de ver a distancia y
transmitir información de lo observado, data del s. IV a.C. en China, una solución
dada por el filósofo/inventor Kung Shu P’an, en la época de los estados guerreros
chinos.

Como con tantas otras tecnologías, el primer uso de la teledetección fue bélico. Si
por teledetección entendemos el conjunto de técnicas necesarias para poder realizar ob-
servaciones de objetos lejanos, la primera aproximación, dada la curvatura y el relieve
de la Tierra, es elevarse por encima de su superficie para alcanzar a ver esos objetos.

26
H ISTORIA DE LA TELEDETECCIÓN

Figura 2. Fotografías de la Escuela Práctica de Aerostación Militar de Guadalajara en 1900. Globos Marte
y Venus llenos de gas hidrógeno poco antes de su ascensión libre. Fotografía de la ciudad de Guadalajara
tomada desde los globos (La ilustración Española y Americana, Nº XLIV. pág. 310). Fuente: CSIC,
CCHS, Biblioteca Tomás Navarro Tomás.

Al parecer, fueron los chinos los primeros en poner esto en práctica, mediante el uso
de grandes cometas, a las que iba asido una persona. Según el historiador chino Lu Tien
las empleó el filósofo/inventor Kun Shu P’an en el s. IV a.C. durante el asedio que sufrió
la ciudad de Sung, para elevar hombres y que viesen por encima de las murallas.
No obstante, la primera forma efectiva de elevarse sobre la superficie terrestre, en
unas condiciones más o menos controlables, fueron los globos aerostáticos basados en
calentar el aire para que el empuje de Arquímedes lo haga ascender, junto con el reci-
piente que lo alberga (el globo). Aunque el primer uso de los globos aerostáticos fue
puramente lúdico (los hermanos Mongolfier), pronto se emplearon como puestos de ob-
servación de las posiciones del enemigo (batalla de Fleurus, 1794).
Bastante tiempo después, el científico Thaddeus Lowe (EE.UU.) los empleó para
estudios meteorológicos, pero al iniciarse la guerra de secesión americana, fue nombrado
director del cuerpo de globos aerostáticos que servían de apoyo de inteligencia a las
tropas de la unión; se formaron así los Cuerpos de Globos del Ejército de la Unión
(en 1861). Los globos, anclados a tierra, transmitían a través de un cable telegráfico
las observaciones a tierra. Como se ve, cada vez se buscaba aumentar la cantidad de
información enviada desde el punto elevado de observación a la “estación receptora” en
tierra, una tendencia que ha seguido hasta la actualidad.
Como en otros países, también en España se creó (en 1884) el Servicio de Aero-
estación Militar, especializado en el uso de los globos aerostáticos para la observación
de territorios en conflicto. Su primera campaña importante fue en 1909, cuando hizo
un vuelo de reconocimiento de Marruecos antes de la Guerra (1911-1927). Posterior-

27
C UESTIONES DE TELEDETECCIÓN

mente, se realizó un importante número de vuelos fotográficos hasta generar un mapa


topográfico del Protectorado español de Marruecos a una escala de 1:50000.
Los globos aerostáticos fueron los predecesores de los conocidos Zeppelin. Los Zep-
pelin utilizaban gas hidrógeno en lugar de aire caliente para elevarse por flotación, eran
impulsados por un motor que hacía girar una hélice, y dirigidos con un timón, de forma
similar a los primeros aeroplanos. Estos dirigibles se emplearon primero como medios
de transporte (el conde Ferdinand Von Zeppelin los diseñó para el transporte aéreo de
mercancías, porque lograban elevar hasta 9 toneladas, y de pasajeros, para lo que fue-
ron empleados desde 1900 hasta la década de los 1930) y más tarde para proporcionar
inteligencia a la marina alemana durante la I Guerra Mundial (también consta entre sus
servicios el bombardeo de Londres, famoso, sobre todo, por el efecto psicológico de ser
el primer bombardeo desde el aire a esa escala, más que por lo efectivo del mismo). En
cualquier caso, Von Zeppelin no tuvo responsabilidad ninguna en este cuerpo de Zeppe-
lins de la marina alemana.

2. ¿Cuál fue la primera técnica que se empleó para tomar una imagen a
distancia?

Respuesta: (a) La heliografía fue inventada por Niepce en 1826, mientras experimenta-
ba con técnicas de litografía, es decir, de copia de imágenes. Todavía se conserva
la primera imagen, impresa sobre una placa de cobre, que captó desde la ventana
de su casa de campo.

El registro de imágenes en soportes materiales es tan antiguo como la humanidad. Las


pinturas, las esculturas, no buscan más que eso: recoger los detalles de una escena de
forma tal que los puedan apreciar aquellos que no se hallan presentes cuando esta suce-
de. Es decir, objetivizar la escena, en cierto sentido, haciéndola accesible a todos los que
la quieran observar. Sin embargo, hasta que se pudo fijar la escena por un medio inde-
pendiente del primer observador (o de otro al que éste se la contase), no se pudo hablar
de transmisión objetiva de la información: siempre había un intérprete de la misma.
El primer registro de una escena se debe al inventor francés Niepce. Durante años se
habían ido descubriendo materiales que cambiaban su aspecto al ser expuestos a la luz.
Niepce empleó el betún de Judea sobre una placa de cobre pulida y la idea, conocida des-
de antiguo, de la cámara oscura (literalmente, una cámara o habitación oscura en la que
entraba luz por un pequeño agujero); el betún expuesto a la luz se limpiaba fácilmente
de la placa, y así plasmó en esa superficie lo que se veía por la ventana de su estudio.

28
H ISTORIA DE LA TELEDETECCIÓN

Figura 3. La primera fotografía que se conserva de una escena natural, tomada por Joseph Nicéphore
(Niépce). La imagen, tomada en 1826 o 1827 muestra la vista de la finca de Niépce, en región francesa de
la Burgundia, vista desde la ventana de su laboratorio. Fuente: Wikimedia Commons.

Esta fue la primera fotografía. Al ser la fuente de luz el sol, Niepce la bautizó como
heliografía. El proceso fue mejorado posteriormente por Niepce y Daguerre, empleando
una emulsión de yoduro de plata en aceite de oliva sobre una placa de cobre, en lugar del
betún de Judea (el revelado no era tan simple como lavar esta emulsión, e involucraba
el uso del peligroso vapor de mercurio); el proceso, utilizando ya una cámara dotada de
una lente convergente (en lugar del pequeño agujero), se denominó Daguerrotipo. No
obstante, tomar una imagen requería todavía tiempos muy prolongados (5 a 40 minu-
tos). Por ello, muchas de las primeras imágenes que se obtuvieron fueron de paisajes. Es
de notar que estos procesos producían fotografías positivas, es decir, que los materiales
empleados se aclaraban allí donde daba la luz y permanecían oscuros donde no daba.
A partir de 1840, con la invención del calotipo, aparece el “negativo”: la virtud de
este negativo es que permitía reproducir la fotografía por el mismo medio. Las placas
fotográficas, durante mucho tiempo consistieron en una placa de vidrio recubierta por
la emulsión fotosensible en la que se formaba el negativo. Estas placas de cristal se si-
guieron empleando durante mucho tiempo (¡hasta los años 1980!) en ámbitos científicos,
porque permitían más resolución, eran más sensibles a la luz y eran más fidedignas para
conservar las distancias entre objetos fotografiados que las otras tecnologías (película
fotográfica, imagen digital).
No sería hasta el s. XX, que se llegó a la fotografía que conocíamos hace unos años
(antes del “boom” digital): la fotografía de película. La primera película fotográfica,
introducida por Eastman (en 1885) era una tira de papel cubierta con una emulsión de

29
C UESTIONES DE TELEDETECCIÓN

Figura 4. San Francisco fue devastado por un gran terremoto al que siguieron una serie de incendios, en
1906. Unas seis semanas tras el desastre George R. Lawrence tomó esta fotografía desde una cámara
elevada por una cometa unos 300 m sobre la bahía. Fuente: colección de impresiones y fotografías de la
librería del Congreso de los Estados Unidos.

sales de plata. Las sales de plata se reducen al ser expuestas a la luz, lo que las hace
opacas; este estado se puede fijar posteriormente durante el revelado. Este principio se
sigue utilizando hoy en día, aunque cada vez menos con la irrupción de los sistemas de
fotografía digital.
La fotografía ha sido la herramienta fundamental en teledetección (de hecho se sigue
hablando de fotogrametría, literalmente “medida sobre el fotograma”) hasta finales de
los años 1950, en los que se empezó a utilizar cámaras electrónicas. Se debe tener en
cuenta que la revolución electrónica no comienza hasta 1948, año de la invención del
transistor.

3. En la primera teledetección se emplearon como lugares de observación diversas


“plataformas” elevadas para tomar imágenes (fotografías). ¿Cuál de éstas se
utilizó primero?

Respuesta: (c) Como ya se comentó más arriba, las primeras plataformas elevadas de
observación, más o menos controlables, fueron los globos aerostáticos (de aire
caliente). No es de extrañar que algunas de las primeras fotografías de paisajes
desde el aire se tomasen desde ellos.

En particular, la primera fotografía fue tomada en París por el francés Gaspard Felix
Tournachon, conocido como Nadar, en 1858 (aunque esta fotografía no se conserva). No

30
H ISTORIA DE LA TELEDETECCIÓN

Figura 5. Palomas fotógrafas del Cuerpo Bávaro de palomas del ejército Alemán. Fuente: colección de
impresiones y fotografías de la librería del Congreso de los Estados Unidos.

obstante, estas fotografías no tenían como objetivo más que mostrar lo que se veía, o
dejar constancia de que se había visto.
Para obtener estas primeras imágenes aéreas, y como en el caso de la observación
directa, también se emplearon cometas. Es particularmente famosa la fotografía de San
Francisco 6 semanas después del terremoto de 1906, tomada desde una cometa anclada
sobre la bahía, en la que se pueden ver los destrozos del seísmo de magnitud 8 y el
incendio que lo siguió. De nuevo, esta fotografía fue hecha con interés periodístico, y no
científico o para la gestión del desastre.
Pero tanto globos como cometas requerían condiciones de observación ideales. In-
cluso, en un principio, el tamaño de las cámaras y el tiempo de exposición requerido para
tomar fotografías eran un problema: las fotografías salían movidas. Según se mejoró la
sensibilidad de la placa y se mejoró la mecánica de la cámara fotográfica, se pudieron
utilizar otras plataformas más móviles. Quizás las más originales fuesen las palomas
mensajeras del Cuerpo Bávaro de palomas del ejército Alemán (las palomas mensaje-
ras se emplearon hasta la II Guerra Mundial para la transmisión de mensajes cifrados).
Con pequeñas cámaras colocadas sobre el peto de los animales, que se disparaban au-
tomáticamente a intervalos de 30 minutos durante el vuelo, se obtenían fotografías que
posteriormente eran interpretadas, conociendo la ruta que éstas seguían. Aunque origi-
nariamente un invento con orientación militar, acabaron siendo objeto de exposición en

31
C UESTIONES DE TELEDETECCIÓN

la exposición internacional de fotografía de Dresde de 1909. De un año antes, 1908, es


la primera fotografía hecha desde un aeroplano: pilotado por Wilbur Wright (uno de los
hermanos inventores), y tomada por su acompañante, el francés Bonvillain (una vez más,
un francés realizó la primera fotografía desde un nuevo ingenio volador).
Los satélites artificiales llegaron mucho después. El primero en ser lanzado fue el
Sputnik, por la Unión Soviética, en 1957.

4. La transmisión digital de imágenes data de los años:

Respuesta: (b) La primera transmisión que podríamos considerar digital de una ima-
gen (esto es, con puntos y niveles de brillo discretos), se llevó a cabo en 1920.

La transmisión instantánea (o casi) de información a distancia es algo que no se logra


hasta la introducción de las líneas telegráficas. La primera de ellas fue tendida entre
Washington y Boston en 1843, utilizando un diseño de Samuel Morse (profesor de la
Universidad de Nueva York). Una línea telegráfica tiene que superar multitud de limita-
ciones, aunque no lo parezca; entre ellas la generación de la señal de suficiente intensi-
dad (lo que se logró gracias al electroimán, inventado por el inglés Sturgeon en 1825), la
transmisión de la señal (usando cables de cobre de buena calidad tendidos sobre largas
distancias), la amplificación de la señal eléctrica recibida, etc. La primera línea telegráfi-
ca trasatlántica no se establecería hasta 1958. Para superar estas limitaciones, se escogió
para la transmisión de información un código “digital”: el código Morse. Aunque “di-
gital” aquí no significa lo mismo que entendemos en la actualidad, comparte con el
que usamos varias características. La primordial, un número reducido de símbolos (dos,
puntos y rayas, como los 0 y 1 de la tecnología moderna) con los que construir mensa-
jes arbitrariamente largos y complejos. Se escoge un número reducido de símbolos, que
permite minimizar los “ruidos” de transmisión debidos al medio físico. Además, igual
que los protocolos modernos de transmisión, el Morse poseía “códigos de control” que
permitían informar de errores en la transmisión (aparte del propio diseño de los símbolos
del código).
Por otro lado, la transmisión de imágenes a distancia también se intentó de varios
modos; en este caso, como sigue sucediendo, el mayor problema de las imágenes es la
gran cantidad de información que requieren transmitir. El pantelégrafo, introducido por
Giovanni Caselli en los años 1860, es una de las primeras máquinas usadas para trans-
mitir imágenes por una línea telegráfica. En este caso, la transmisión era analógica (es
decir, la señal transmitida no codificaba símbolos, sino que su intensidad era proporcio-

32
H ISTORIA DE LA TELEDETECCIÓN

Figura 6. La primera imagen almacenada digitalmente fue esta fotografía escaneada del hijo de Walden
Kirsch, director del grupo de imagen del NIST en 1957, quienes también desarrollaron el primer escáner.
Fuente: National Institute of Standards and Technology.

nal al brillo en la hoja a escanear), pero aún así, muy lenta: se requería del orden de
una hora para “escanear” una cuartilla de papel. Estas máquinas son las antecesoras de
los Facsímiles (o Faxes) que se utilizaban hasta no hace mucho (si bien, éstos ya eran
verdaderamente digitales).
Pero, la primera transmisión de una imagen “digital”, que combinaba las dos tec-
nologías –telegráfica y digital– fue en 1920 y fue ideada por Harry G. Bartholomew y
Maynard D. McFarlane, por lo que se llamó sistema Bartlane. Sus inventores trabajaban
para el periódico londinense Daily Mirror y el principal uso fue la transmisión trasatlán-
tica de imágenes por línea telegráfica entre Reino Unido y Estados Unidos. El sistema
Bartlane “cuantizaba” el brillo de cada “punto” de la imagen en 5 posibles valores, que
se transmitían telegráficamente; en el otro extremo, una “impresora” convertía los va-
lores transmitidos en “caracteres” de tamaños distintos, que reproducían el brillo de la
imagen transmitida. Todo el proceso llevaba menos de 10 minutos por imagen.
No obstante, la primera imagen realmente digital (es decir, manipulable como infor-
mación por un ordenador) fue la escaneada, almacenada y reproducida por Russell A.
Kirsch en 1957 usando el ordenador SEAC (Standards Eastern Automatic Computer)
del NIST (National Institute for Standards and Technology), el primer ordenador que
realizaba las operaciones íntegramente con componentes electrónicos. Esta imagen, es-

33
C UESTIONES DE TELEDETECCIÓN

caneada de una fotografía de su hijo pequeño de 3 meses, contenía 176 × 176 elementos
(píxels, picture elements). Este tamaño hoy puede parecer pequeño y extraño, pero esta-
mos hablando de una época en la que los ordenadores tenían memorias de 512 valores
o “palabras” (es decir, cada línea de la imagen consumía más de la cuarta parte de la
memoria), cada una de 45 bits (las habituales hoy en día son de 32 o 64 bits). La tecno-
logía desarrollada por Kirsch y su grupo marcó el inicio de la tecnología de imágenes
que emplearía la NASA en la década de los 1960. Esas imágenes sí serían utilizadas para
teledetección.

5. ¿Quién realizó la primera fotografía de la Tierra desde el espacio?

Respuesta: (a) La primera imagen de la Tierra desde el espacio (esto es, desde fuera
de la atmósfera), en la que se puede observar la curvatura de ésta y algunos
detalles de su superficie, fue tomada por una cámara automática desde un cohete
experimental V-2, en los inicios de la carrera espacial.

El programa espacial estadounidense comenzó en los años 1920 con el físico Robert
Goddard, pionero en el diseño de cohetes, inventor de los cohetes multifase (como los
empleados décadas más tarde en la carrera espacial) y científico ingenuo que, poco antes
del comienzo de la II Guerra Mundial, todavía respondía a las consultas que le enviaban
los ingenieros alemanes. Cuando comenzó la contienda, advirtió de lo peligroso que
sería el uso de estos cohetes por los alemanes; así sucedió, fueron las eficientes bombas
V-2. Al finalizar la II Guerra mundial, los diseños fueron llevados desde Alemania por
científicos disidentes como Wernher Von Braun, “acogidos” por Estados Unidos. Varios
grupos dependientes del ejército estadounidense, como el Jet Propulsion Laboratory,
inicialmente en el California Institute for Technology (Cal Tech), bajo la dirección de
Theodore Von Karman, continuaron con la carrera espacial basándose en los cohetes
V-2. Uno de esos grupos, del laboratorio de física aplicada de la Universidad Johns
Hopkins, trabajando en el centro de pruebas de misiles de White Sands, colocó una
pequeña cámara de cine en uno de los misiles V-2 que probaban. El misil ascendió hasta
unos 800 km y cayó. La cámara se pudo recuperar (aunque destrozada) y con ella algunos
fotogramas de la película que se “pegaron” para obtener el primer panorama de la Tierra
vista desde el espacio.
El satélite Sputnik fue lanzado por la Unión Soviética en 1957. Sin restar importancia
al logro de enviar un cohete fuera de la atmósfera terrestre y de colocar el satélite en
órbita, lo único que éste hacía era emitir una señal radiofónica que podía ser detectada
desde tierra. El equivalente estadounidense sería el Explorer I, lanzado a principios de

34
H ISTORIA DE LA TELEDETECCIÓN

Figura 7. Panorama de la Tierra vista desde la cámara a bordo del cohete V-2, donde se puede ver la silueta
de la Tierra sobre el negro del espacio. El ingeniero Clyde Holliday, que construyó la cámara y pegó los
fotogramas en este panorama, escribió en la revista National Geographic (en 1950) “[así sería] como
verían nuestra Tierra los visitantes que viniesen desde otro planeta en una nave espacial” (National
Geographic, vol. XCVIII, no. 4, págs. 524-525). Fuente: Arxiv.org

1958, aunque con una órbita defectuosa que hizo que durase poco. El primer satélite
artificial en tomar una imagen de la Tierra sería un sucesor de éste, el Explorer VI de la
NASA, en 1959, y el primero en hacerlo de forma periódica fue el satélite meteorológico
TIROS-I, lanzado en 1960. Las imágenes se tomaban en estos satélites mediante sensores
vidicon, básicamente, cámaras de televisión modificadas, y se transmitían a tierra como
señales de TV. Obsérvese que la primera transmisión de televisión comercial vía satélite
data de 1962, gracias al satélite Telstar de AT&T.
En 1961, la Unión Soviética lanzó en la cápsula Vostok 1 al primer cosmonauta:
Yury Gagarin. La cápsula de Gagarin, minúscula, orbitó la Tierra una vez (llegando a
unos 310 km de altura) y cayó a tierra 108 minutos después de su lanzamiento. Gagarin
vio y describió la Tierra a la estación de Baikonur por radio, pero no tomó fotografías.
Ese mismo año, Gherman Titov se convirtió en el segundo astronauta; a bordo de la
cápsula Vostok 2, orbitó la Tierra 17 veces a 220 km de altitud, permaneciendo 25 horas
en el espacio. Curiosamente, Titov es poco conocido, a pesar de que él sí tomó imágenes
con una cámara de cine, siendo el primer “fotógrafo espacial”.

35
C UESTIONES DE TELEDETECCIÓN

Los satélites Landsat son muy posteriores: de la década de 1970 y siguientes (el pro-
grama continúa hasta nuestros días). Fueron los primeros satélites de uso civil, diseñados
para tomar imágenes periódicas de la Tierra con objetivos puramente científicos.

6. Las últimas imágenes de la época analógica de la teledetección:

Respuesta: (a) La época analógica de la teledetección es la de la teledetección aérea


con fotografía en placas o películas fotográficas.

La época en la que se necesitaban observadores humanos que describían las observacio-


nes terminó, prácticamente, con la llegada de la fotografía. En ese momento aparecieron
los fotointérpretes, necesarios para identificar en las fotografías los más mínimos deta-
lles. Estas fotografías eran, inicialmente, de poca calidad por las malas condiciones de
adquisición: movimiento de la plataforma (globo, avión), bajo tiempo de exposición (que
está relacionado con tener que usar una película de grano más grueso), amplio campo de
visión (que hace que haya que ampliar mucho la fotografía para ver detalles, los cuales,
a veces, se acaban perdiendo en el grano de la imagen).
En las primeras imágenes de televisión transmitidas por satélites meteorológicos a
comienzos de los años 1960, existirían esos mismos problemas de mala calidad en la
imagen: ahora el problema era la mala recepción. Esto se solucionó con la introducción
de las transmisiones digitales a mediados de esa década de 1960: las señales digitales
son más robustas al ruido electromagnético y es más fácil saber si se han recibido ínte-
gramente o no (y, en caso contrario, solicitar la información de nuevo). Ya los primeros
satélites meteorológicos se encontraron con un problema: ¿qué hacer con la imagen que
adquirían cuando la estación de recepción no es visible? La solución era grabarla en
magnetoscopios y retransmitirla cuando la estación volvía a ser visible. La grabación de
datos e imágenes de satélite, tanto analógicas como, posteriormente, digitales, se llevó
a cabo en cintas magnéticas hasta no hace demasiado tiempo. Hace tan sólo 20 años,
cuando se compraba un producto de satélite, lo habitual era recibirlo en forma de una
gran cinta magnética (eso sí, con datos digitales).
No obstante, resulta curioso que el sistema de captación de imágenes fotográficas y
su envío a tierra, perviviese hasta los años 1970 en los satélites espía estadounidenses
(probablemente también en los soviéticos, aunque esta información no se ha desclasi-
ficado): los satélites KH (de key-hole) del programa CORONA, que se extendió desde
1950 a 1972, tomaban imágenes de alta resolución y, tras un tiempo de operación, lanza-
ban los rollos de película en pequeños paracaídas que eran recogidos (o, a veces, no) por

36
H ISTORIA DE LA TELEDETECCIÓN

Figura 8. Modelo de un grabador de cinta magnética semejante al del satélite TIROS (Television Infrared
Observation Satellite) I, el primer satélite meteorológico, lanzado en 1960. El instrumento estaba diseñado
para grabar las imágenes de televisión captadas por el sensor y luego, al pasar sobre una estación receptora
de Tierra, reproducirlas y transmitirlas. Fuente: Smithsonian National Air and Space Museum.

aviones. Llama la atención que en las imágenes de esos satélites, ya en 1972, se pudie-
sen distinguir objetos de 1.6 m y con visión estereoscópica. . . aunque tanto las imágenes
como las técnicas de visualización fuesen todavía analógicas.

7. Si a usted le dicen que una agencia vende en la actualidad imágenes de satélite


en color en las que se pueden distinguir objetos de un tamaño de 1 m, ¿en qué
clase de agencia pensaría?

Respuesta: (b) Los productos de alta resolución (del orden de un metro o inferior) sue-
len ser distribuidos por empresas privadas que poseen satélites en órbitas bajas
dedicados a la adquisición de dichas imágenes.

A pesar de que la adquisición de imágenes de satélite de alta resolución espacial nació


dentro de las agencias militares, con la apertura del espacio a las empresas privadas, son
cada vez más los productos de alta resolución disponibles, casi siempre, orientados a
la obtención de imágenes detalladas. Algunos de los satélites comerciales más conoci-
dos de este tipo son Spot (resolución 2,5 − 10 m), Ikonos (1 − 4 m), OrbView (1 − 4 m),
QuickBird (0,6 − 2,4 m) y WorldView (0,5 − 1,8 m), o el español Deimos-2 (0,75 m).
Los precios de las imágenes son variables; un ejemplo de imagen barata puede estar
en los 0.1 C por km cuadrado (en general se venden en función del “peso” de los datos

37
C UESTIONES DE TELEDETECCIÓN

incluidos y del procesamiento que éstos han requerido). Por supuesto, los satélites mi-
litares es de esperar que proporcionen imágenes de mucha mayor resolución: en 1972
ya proporcionaban detalles del orden de 1 m. Obviamente, estas imágenes no están en
venta.
Por otra parte, las agencias públicas tienden, cada vez más, a cubrir los objetivos
de investigación orientados al medio ambiente local o incluso global. Así, los satélites
meteorológicos (con resoluciones de kilómetros), oceanográficos (con resoluciones de
centenares de metros) o de recursos de la tierra (con resoluciones de decenas de metros)
son de agencias públicas nacionales (como la NASA) o internacionales (como la ESA).
Existen, por supuesto, excepciones como los satélites PROBA de la ESA, unos satélites
experimentales con el sensor CHRIS, capaz de captar imágenes con 17 m de resolución.
Los grupos de investigación universitarios, suelen participar dentro de los programas
de estas agencias (nacionales), aunque también cooperan con las empresas privadas; un
caso aquí en España es el laboratorio de Teledetección de la Universidad de Valladolid
que colabora con Deimos Imaging.

8. ¿En qué año se obtuvo por primera vez una cobertura completa del territorio
español por imágenes desde el aire?

Respuesta: (b) El primer vuelo fotogramétrico con cobertura completa del territorio
español, fue el vuelo del Army Map Service de los EE.UU. que se llevó a cabo
durante los años 1945-1946.

Aunque el Servicio de Aeroestación Militar (fundado el 15 de diciembre de 1884) co-


menzó a obtener fotografías del territorio español desde globos aerostáticos a partir de
1889, con este sistema nunca se realizó una cobertura total del territorio. La mayoría de
las imágenes obtenidas correspondía a la parte central de la Península, por estar situada
en Guadalajara el área desde donde se iniciaban la mayor parte de los vuelos. Desafor-
tunadamente, se conserva muy poco material gráfico de este periodo.
Durante la I Guerra Mundial la fotografía desde aeroplanos se usó extensamente so-
bre Europa. Finalizada la guerra, se le dieron usos civiles a las nuevas técnicas, como
levantamiento de cartografías: por ejemplo, el Reino Unido fue fotografiado práctica-
mente en su totalidad antes del final de los años 1920; Alemania tenía un programa de
fotografías periódicas de su territorio en los años 1930; en Estados Unidos se fundó la
Sociedad de Fotogrametría en 1934. Compárese con las campañas fotográficas locales
en España, como la de 1929-1930 de Ruiz de Alda para una planimetría encargada por
la Confederación hidrográfica del Segura.

38
H ISTORIA DE LA TELEDETECCIÓN

Entre febrero de 1945 y septiembre de 1946, el Army Map Service (AMS) de los Es-
tados Unidos (organismo encargado de la producción y suministro de cartografía militar
al Departamento de Defensa de EE.UU.) motivado por el papel estratégico de España en
una Europa en conflicto y después de 5 años trabajando en la generación y corrección
de cartografía española, realizó el primer vuelo en aeroplano de cobertura nacional. Las
imágenes fueron tomadas a una altitud entre los 5700 y 8800m, obteniéndose un valor
medio de escala de 1:44000. Este vuelo fue conocido como “Serie A”.

En ese momento el AMS era ya el principal centro de producción cartográfica espa-


ñola. A cambio del “permiso” para sobrevolar el territorio, el gobierno de Franco obtuvo
el compromiso de que Roosvelt no intervendría en España. Algo que convierte a este
vuelo en un protagonista importante de la historia de nuestro país.

Diez años más tarde, en 1953, se establecieron acuerdos militares entre España y
USA, que dieron lugar al asentamiento de bases militares americanas en España y per-
mitieron la realización de un segundo vuelo de cobertura nacional entre marzo de 1956
y septiembre de 1957, en colaboración con el Servicio Geográfico del Ejército (SGE)
y el Instituto Geográfico Nacional (IGN). Este vuelo fue conocido como “Serie B” o
“Vuelo americano de 1956”. Las imágenes fueron tomadas a unos 5000 km de altitud,
obteniéndose cerca de 60000 fotograma en blanco y negro de unos 42 km2 , produciendo
imágenes a una escala de 1:33000.

Este vuelo, de nuevo, tenía un interés puramente militar. Europa estaba inmersa en
la Guerra Fría y había temor a una invasión europea por parte de la antigua URSS, lo
que colocaba a la Península Ibérica en una posición estratégica fundamental: en caso de
conflicto militar, el conocimiento del terreno y la ubicación de las bases era primordial.

A pesar de su motivación, toda esta información ha mostrado tener numerosas apli-


caciones civiles. Por ejemplo, La Ley del Suelo española aprobada en 1956 se ayudó
de estas imágenes, de forma que toda construcción que no apareciese en estos mapas
tuviese que cumplir la normativa correspondiente.

Un tercer vuelo que dio lugar a la una “Serie C” fue realizado entre 1967 y 1968 por
el Centro Cartográfico y Fotográfico del Ejército del Aire (CECAF), aunque no cubrió
todo el territorio nacional.

Posteriormente la producción cartográfica se ha ido ampliando con otros vuelos de


cobertura nacional como el conocido como “vuelo IRYDA” (Instituto de Reforma y
Desarrollo Agrario) realizado entre los años 1977 y 1983, o el vuelo realizado por el
Instituto Geográfico Nacional (IGN) en colaboración con el Servicio Geográfico del

39
C UESTIONES DE TELEDETECCIÓN

Figura 9. Izquierda: Escena del vuelo de Ruiz de Alda sobre el puerto de Torrevieja (1930); Derecha:
Pequeño fragmento de escena del “vuelo americano” (Serie A) (1946) colocada sobre el mismo marco que
la anterior. Obsérvese la aparición del dique de levante, que se finalizaría definitivamente en 1948. Fuente:
Instituto Geográfico Nacional.

Ejército (SGE) entre 1984 y 1985. A estos se han unido vuelos con coberturas parciales
y objetivos concretos como el realizado por la Dirección General de Costas entre 1989
y 1990, que cubre el litoral nacional. En la actualidad, muchas comunidades autónomas
realizan vuelos para la obtención de fotografías detalladas de su territorio.
Muy recientemente, en septiembre de 2011, los vuelos americanos pasaron a depen-
der del Instituto Geográfico Nacional con el fin de convertirse en información pública,
siguiendo la tendencia actual de las administraciones de liberar toda esta información
cartográfica para maximizar su aprovechamiento.

9. ¿Cuál fue el primer planeta estudiado por los científicos desde una sonda en
órbita a su alrededor?

Respuesta: (b) El primer planeta sobre el que se situó un satélite en órbita para su
estudio fue Marte: el Mariner 9 de la NASA, en 1971.

La carrera espacial que emprendieron EE.UU. y la URSS a partir de 1957, cuando se


puso en órbita el primer satélite artificial alrededor de la Tierra (el Sputnik 1), embarcó a
estas dos naciones en un intenso desarrollo tecnológico por mantener satélites en órbitas
alrededor de la Tierra, hacerlos más útiles y capaces de enviar información, enviar a seres
vivos (el primero, la perra Laika) al espacio, llegar a la Luna, etc. En este contexto en

40
H ISTORIA DE LA TELEDETECCIÓN

Figura 10. El Mariner 9. Fuente: NASA.

1959 comenzó el “Programa Luna” soviético que logró sobrevolar la Luna en enero de
1959 (sonda Lunik 1) y alunizar por primera vez en 1966. El hombre llegaría a la Luna
tres años después, el 21 de julio de 1969.
Paralelamente a los esfuerzos por llegar a la Luna, ambas potencias miraban también
hacia el planeta más cercano a la Tierra: Venus (~42M km). La antigua URSS lanzó sus
primeras sondas interplanetarias en 1961: Sputnik 7 y Venera 1, pero no tuvieron éxito
en su viaje hacia Venus (aunque Venera 1 consiguió acercarse hasta unos 100K km del
planeta). EE.UU. lanzó su primera sonda con destino Venus (el Mariner 1) el 22 de
julio de 1962, pero no estuvo en el aire mucho más de 5 minutos. Un mes después, el
27 de agosto de 1962 se lanzó la Mariner 2 que se acercó a 34K km de Venus (algo
menos que la distancia Tierra-Luna), desde donde envió información sobre la atmósfera
y la superficie del planeta durante unas horas. Esta sonda mostró la presencia de nubes
frías sobre la superficie caliente del planeta. A éste le siguieron muchos intentos rusos
(Sputnik 20, Sputnik 21, Cosmos 21, Cosmos 27, etc.) que no tuvieron éxito.
Dentro del Programa Mariner se siguieron enviando sondas (10 sondas entre el año
1962 y el 1973) tanto al planeta Venus como al planeta Marte. La primera sonda del
programa que consiguió llegar a acercarse a Marte (Mariner 4) fue lanzada en 28 de
noviembre de 1964, aunque dos años antes ya lo había hecho la sonda soviética Mars 1.
El Mariner 4 envió las primeras fotografías de Marte. A pesar de que numerosas sondas
llegaron a ambos planetas años antes, no se puede hablar de que una sonda orbitase otro
planeta hasta que en noviembre de 1971 la nave Mariner 9 orbitó por primera vez el
planeta Marte.

41
C UESTIONES DE TELEDETECCIÓN

Figura 11. Primera imagen transmitida desde el módulo de aterrizaje de la misión Venera-9 soviética.
Fuente: NASA.

En junio de 1975, las naves soviéticas Venera 9 y 10 llegaron a Venus y se situaron


en órbita alrededor del planeta. Además, enviaron dos módulos a su superficie con los
que realizaron medidas del espectro solar para analizar la composición de la atmósfera,
y también analizaron el suelo.
El Mariner 10 fue la primera sonda en visitar Mercurio, algo que hizo en tres oca-
siones entre 1974 y 1975, cartografiando algo más del 40 % del planeta (aunque solo del
lado iluminado por el Sol). Antes de esta sonda se conocía muy poco de la superficie
de Mercurio. Casi todo extraído de los pulsos de radar enviados hacia ese planeta en
1965. El Mariner 10 también pasó cerca de Venus, empleando la gravedad de éste para
modificar su trayectoria.
Paradójicamente, el programa más popular de observación periódica de la Tierra
con fines científicos análogos a los de estas sondas interplanetarias, podríamos decir
que fue el Landsat, que comenzó en 1972 con el primer satélite ERTS (Earth Resources
Technology Satellite), que posteriormente sería rebautizado como Land(study)Sat(ellite),
es decir, satélite para el estudio del terreno. No obstante, si consideramos el estudio de la
atmósfera, podemos remontarnos al Explorer-1 o al TIROS-I, puesto en órbita en 1960,
apenas 2 años antes de que el Mariner 2 nos mostrase, entre otras cosas, la dinámica de
la atmósfera de Venus.

10. ¿En qué año y con que objetivos se lanzó el primer satélite español?

Respuesta: (a) El primer satélite español fue el INTASAT, un microsatélite con propó-
sitos científicos y de demostración, lanzado en 1974.

42
H ISTORIA DE LA TELEDETECCIÓN

A principios de los años 1970, la industria aeroespacial estaba dominada por EE.UU. y
la URSS, los dos países que antes habían puesto satélites en órbita; el tercero, había sido
Canadá, con su Alouette-1. No obstante, sólo EE.UU. y la URSS habían llevado hombres
al espacio y competían entre ellos en la carrera espacial. Los países de Europa comen-
zaron entonces a ser conscientes de los beneficios de la carrera espacial y, como primer
paso, fundaron la ESRO (European Space Research Organisation), antecesora de la ac-
tual ESA (European Space Agency), para aunar esfuerzos y recursos en la fabricación de
satélites; simultáneamente, los diferentes países planificaban programas nacionales para
desarrollar tecnologías espaciales propias.
En España, la Comisión Nacional de Investigación en el Espacio (CONIE) desa-
rrolló un programa quinquenal en el que se incluía la construcción de un satélite, el
INTASAT. Este pequeño satélite (24,5 kg) fue desarrollado por el INTA (Instituto Na-
cional de Tecnologías Aerospaciales) en colaboración con Construcciones Aeronáuticas
(CASA), Estándar Eléctrica (actualmente Alcatel), la compañía inglesa Hawker Siddely
Dynamics (HSD) y la NASA. El INTASAT fue puesto en órbita el 15 de noviembre de
1974 (casi 17 años después del lanzamiento del Sputnik) por un cohete DELTA de la
NASA, con una vida útil de 2 años. Su misión científica era estudiar los electrones en
la ionosfera mediante el efecto Faraday (que sufren las ondas de radio al pasar por es-
ta capa conductora de la atmósfera). Además llevaba un experimento tecnológico que
consistía en medir los efectos de la radiación cósmica en componentes electrónicos de
tecnología C-MOS. A este primer microsatélite le siguieron los UPM-Sat (1995), Mini-
sat (1997), Nanosat (2004) y Xatcobeo (2012), satélites también de carácter científico y
experimental.
En 1992, se puso en órbita el satélite Hispasat, el primer satélite español de teleco-
municaciones (30 años después del Telstar de AT&T, el primero usado en transmisión
de señal de televisión vía satélite), para dar servicios a España e Iberoamérica. En 2009
se lanzó el primer satélite español de carácter privado, Deimos-1, orientado a un am-
plio espectro de aplicaciones ambientales: agricultura, monitorización y control de fue-
gos, vertidos, etc. Ha sido seguido por Deimos-2, lanzado en junio de 2014, que busca
continuar la misión de Deimos-1; en el momento de su puesta en funcionamiento, era
el satélite europeo de observación remota (en el sector privado) que proporcionaba las
imágenes de más detalle. Actualmente España participa con fondos públicos en el desa-
rrollo de nuevos satélites artificiales de observación de la Tierra que formarán parte de la
iniciativa europea GMES (Global Monitoring for Environment and Security, Vigilancia
Global para el Medio ambiente y la Seguridad): SEOSat/Ingenio y SEOSar/Paz.

43
C UESTIONES DE TELEDETECCIÓN

0.4. CONCEPTOS IMPORTANTES

ESA (European Space Agency, Agencia europea del espacio) Organización internacio-
nal de investigación espacial a la que pertenecen todos los estados de la Unión Eu-
ropea y algunos otros que participan mediante acuerdos de cooperación. Su sede
central se encuentra en París, aunque tiene centros dedicados a tareas específi-
cas en otros países miembros de la organización y oficinas de enlaces en Rusia y
EE.UU.
fotografía analógica Técnica (y producto de ésta) que consiste en modificar el esta-
do químico de una placa mediante la luz (a través de reacciones de oxidación-
reducción inducidas por la energía de ésta) para hacer permanente sobre dicha
placa la imagen proyectada por esa iluminación. Es analógica porque el grado de
cambio en cada punto de la placa, que depende de la cantidad de luz incidente (es
decir, de la intensidad de ésta y del tiempo de exposición a ella) varía de forma
continua, y no discretamente.
fotografía digital Técnica (y producto de ésta) que consiste en registrar mediante de-
tectores electrónicos la energía de la luz incidente en ellos y almacenar o transmitir
en forma de números enteros (codificados en formato binario) valores proporcio-
nales a esta energía. Es digital por usar una representación entera (en dígitos) de
una magnitud no entera, la energía luminosa.
globo aerostático Globo relleno de un gas más ligero que el aire atmosférico (en sus
inicios, aire caliente, después hidrógeno y, en la actualidad, helio) que se mantiene
elevado por flotación. En teledetección proporciona un punto de vista elevado y
estacionario (su movimiento es lento en ausencia de corrientes rápidas de aire).

imagen digital Conjunto de datos numéricos (digitales) organizados en forma de matriz


que se pueden interpretar como una representación espacial y mostrar como una
imagen en un dispositivo de visualización (o imprimir en papel). Cada celda de la
matriz se denomina píxel y es el elemento más pequeño que se puede identificar
en la imagen; por eso la imagen es discreta.
INTA (Instituto Nacional de Técnica Aeroespacial) Organismo público español de in-
vestigación dedicado a la ciencia y la tecnología aeroespacial. Aunque tiene ca-
rácter autónomo, está adscrito a la Secretaría de Estado de Defensa, desarrollando
labores de formación, asesoría y certificación para las Fuerzas Armadas españolas.
NASA (National Aeronautics and Space Administration) Agencia del gobierno de Es-
tados Unidos dedicada a los proyectos civiles de investigación aeroespacial y te-
mas relacionados.

44
H ISTORIA DE LA TELEDETECCIÓN

teledetección Conjunto de técnicas desarrolladas desde diferentes disciplinas y ciencias


para obtener información de áreas extensas y a distancia de la Tierra. Para obtener
esta información se basa en la propagación de ondas (casi siempre electromag-
néticas, pero también acústicas) que interactúan con los objetos que se quieren
estudiar: la teledetección consiste en medir la energía transportada por esas ondas
e interpretar los cambios que han sufrido tras su interacción con el objeto, para así
conocer el estado de éste (al menos, en cuanto a su interacción con esas ondas se
refiere).

0.5. BIBLIOGRAFÍA

G. Canales Martínez, F. Crespo Rodríguez (1997). “El puerto de Torrevieja: ges-


tación y desarrollo de un largo proyecto para la comercialización de la sal”. Inves-
tigaciones geográficas, 17: 69-88.

G. Casal, J. Freire (2012). “Síntesis de la evolución histórica de la teledetección


en España (1889-2012)”. Revista de Teledetección, 38: 109-120.

F. Davara Rodríguez, D. Ramírez Morán (2014). “Evolución del sector espacial en


España. El entorno industrial y científico”. Cuadernos de estrategia, 170: 21-52.

J.M. Dorado, M. Bautista, P. Sanz-Aránguez (2002). “Spain in Space – A short


history of Spanish activity in the space sector”. HSR-26, Editor R.A. Harris, ESA
Publications Division.

Y. Feng. A History of Chinese Philosophy. Trans. Derk Bodde. Princeton: Prince-


ton University Press, 1952-53.

C.T. Holliday (1950). “Seeing the Earth from 80 miles up”. The National Geo-
graphic Magazine, vol. XCVIII, no. 4, págs. 511-528.

J. Marvá y Mayer (1901). “Prácticas de aeroestación militar”. La ilustración Es-


pañola y Americana, Nº XLIV. pág. 307-311. Disponible en Cervantes Virtual:
http://descargas.cervantesvirtual.com/servlet/SirveObras/79161687214805507754
491/207263_0004.pdf

L. Urteaga González, F. Nadal i Piqué, J.I. Muro Morales (2009). “Los mapas de
España del Army Map Service, 1941-1953”. Ería, 51: 31-43.

45
C UESTIONES DE TELEDETECCIÓN

Webgrafía (accesible el 1/5/2015)

INTASAT: Historia del primer satélite español puesto en órbita


URL: http://www.agenciasinc.es/Reportajes/INTASAT-Historia-del-primer-satelite-
espanol-puesto-en-orbita
Artículo sobre la gestación, construcción y puesta en órbita del INTASAT publi-
cado por la agencia SINC (Servicio de Información y Noticias Científicas)

The first photographer in space


URL: http://blogs.airspacemag.com/daily-planet/2011/08/the-first-photographer -
in-space/
Artículo sobre el cosmonauta ruso Gherman Titov publicado por Air & Space
revista del Instituto Smithsonian.

First photo from space


URL: http://www.airspacemag.com/space-exploration/FEATURE-FirstPhoto.html
Artículo sobre la primera imagen de la Tierra desde un cohete V-2 publicado por
Air & Space revista del Instituto Smithsonian.

1962: Satellite transmision


URL: http://www.corp.att.com/attlabs/reputation/timeline/62trans.html
Página corporativa de los laboratorios AT&T que recoge la historia de los avances
en la tecnología de telecomunicaciones (especialmente, las contribuciones de la
empresa AT&T).

Acerca de Elecnor-Deimos — Historia


URL: http://www.deimos-space.com/elecnordeimos/historia.php
Página corporativa de Elecnor-Deimos que recoge la historia de esta empresa ae-
roespacial.

Yuri Gagarin’s first orbit


URL: http://www.firstorbit.org/
Película gratuita rodada por Christopher Riley para conmemorar los 50 años del
primer viaje humano al espacio.

46
H ISTORIA DE LA TELEDETECCIÓN

Fototeca digital — Instituto Geográfico Nacional (IGN)


URL: http://www.fototeca.cnig.es/
Visor de mapas e imágenes de teledetección aérea del territorio español proceden-
tes de colecciones del IGN desde 1929 hasta la actualidad.

Alouette I and II — Canadian Space Agency


URL: http://www.asc-csa.gc.ca/eng/satellites/alouette.asp
Página de la agencia espacial canadiense sobre las históricas sondas que introdu-
jeron en 1962 a Canadá en la era espacial.

HISDESAT Observación de la Tierra


URL: http://www.hisdesat.es/esp/satelites_observacion.html
Página web de la empresa española hisdeSat, dedicada a los satélites de observa-
ción de la Tierra PAZ e INGENIO.

First Pictures of the Surface of Venus — MentalLandscape.com


URL: http://mentallandscape.com/V_Lavochkin2.htm
Página sobre las primeras misiones de la URSS a Venus. Contiene muchas e in-
teresantes fotografías históricas.

5th anniversary: Mariner 2, The Venus Mission — NASA


URL: http://www.jpl.nasa.gov/mariner2/
Página conmemorativa de la NASA con la historia de su primera misión a Venus.

NIST Tech Beat, May 24, 2007


URL: http://www.nist.gov/public_affairs/techbeat/tb2007_0524.htm
Número de la revista digital TechBeat del NIST con la noticia del 50 aniversario
de la primera imagen digitalizada.

History of Remote Sensing, Satellite imaging


URL: http://www.oneonta.edu/faculty/baumanpr/geosat2/RS History II/RS-History-
Part-2.html
Página sobre historia de la teledetección del Prof. Paul R. Baumann de la State
University of New York. Contiene muchas e interesantes fotografías históricas.

47
C UESTIONES DE TELEDETECCIÓN

El vuelo Ruiz de Alda — Región de Murcia Digital


URL: http://www.regmurcia.com/servlet/s.Sl?sit=a,0,c,365,m,2705&r=ReP-13487
-DETALLE_REPORTAJESPADRE
Artículo sobre la historia del vuelo fotogramétrico de Ruiz de Alda sobre la cuenca
del Segura en la década de 1920.

The first photograph — Harry Ransom Center (The University of Texas at Austin)
URL: http://www.hrc.utexas.edu/exhibitions/permanent/firstphotograph/
Exposición de la placa metálica que contiene la reproducción fotográfica más anti-
gua conservada, obtenida por Joseph Nicéphore alrededor de 1826-1827. Se puede
ver una explicación de los elementos débilmente visibles en la página:
http://www.hrc.utexas.edu/exhibitions/permanent/firstphotograph/look/elements/

48
Tema 1

Puntos de vista. Plataformas

GUION-ESQUEMA

Teledetección a ras de suelo

Teledetección aerotransportada

Teledetección satelital

Los programas de satélites de teledetección

Otra teledetección
50
GPS
Órbita polar S. meteorológicos
Heliosíncrona
C UESTIONES DE TELEDETECCIÓN

S. ambientales

Plataforma

Órbita ecuatorial
Geoestacionaria

S. telecomunicaciones
S. meteorológicos Sensor

Enfoque
Analizador
P UNTOS DE VISTA . P LATAFORMAS

1.1. INTRODUCCIÓN

Este tema trata de los soportes desde los que se lleva a cabo la teledetección. Como se
mencionó en el tema sobre la historia de la teledetección, las plataformas de observación
han evolucionado históricamente llegando cada vez más alto: desde puntos accesibles
a pie sobre el terreno, hasta las órbitas geostacionarias de los satélites meteorológicos
(por no mencionar los satélites de exploración planetaria, que también llevan a cabo
teledetección). En este tema se tratan estos diferentes puntos de vista.
El punto de vista más próximo es nuestra propia mano o un trípode sosteniendo una
cámara de fotografía. Esta sencilla plataforma permite examinar dos de los problemas
comunes a todas las plataformas: su orientación y su distancia respecto al objeto remoto
que se quiere estudiar. El siguiente paso en altura son las plataformas aerotransportadas.
Los aviones ligeros son los más utilizados para adquirir datos de alto detalle (por su
poca altura) en fechas programadas y bajo condiciones, hasta cierto punto, controladas.
Los aviones presentan el problema de la altura de vuelo y el movimiento (de cabeceo,
alabeo y guiñada), que se vuelve a traducir en un problema de distancias y ángulos. Un
paso más allá es la teledetección satelital (la más habitual en la actualidad). Los satélites
artificiales se mantienen en órbitas alrededor de la Tierra, caracterizadas por su altura
e inclinación, que determinan el tiempo de visita. En la actualidad existen diferentes
programas espaciales de observación de la Tierra, entre los que se encuentran los de
la ESA y la NASA, pero también los de otras agencias nacionales y privadas. Cada
programa tiene unos objetivos y unas políticas de distribución de datos, que conviene
conocer para escoger los más adecuados para nuestras necesidades.

1.2. CUESTIONES

1. Cuando se hace una fotografía de una escena, la relación entre las distancias entre
tres objetos sobre la imagen tomada depende de:

a) la orientación de la cámara respecto a los objetos


b) los aumentos de la cámara
c) el anclaje de la cámara sobre un trípode
d) no depende de nada: es una razón geométrica que no varía.

51
C UESTIONES DE TELEDETECCIÓN

2. Si quisiéramos emular con nuestra cámara fotográfica en mano, por la calle, a


Google Street View, ¿qué NO necesitaríamos saber de cada fotografía hecha?

a) las coordenadas GPS del punto donde fue tomada


b) las coordenadas GPS de un punto en la fotografía
c) la “focal” de la cámara (que depende del objetivo y del zoom)
d) los ángulos de disparo de la cámara: vertical (inclinación) y horizontal (res-
pecto al norte).

3. En la la página web de Flickr de la Geophotopedia, se pueden encontrar múltiples


fotografías temáticas con una información interesante para hacer “teledetección
a ras de suelo”: la fecha y las coordenadas geográficas del lugar desde donde se
tomaron y las características de la cámara que las tomó. ¿Bastaría esto para hacer
un estudio automático de cambios en una escena entre dos (o más) fotografías?
¿Qué otra información sería necesaria?

a) sí, bastaría. No se necesita nada más.


b) haría falta identificar manualmente, al menos el mismo punto en las dos imá-
genes
c) haría falta identificar manualmente, al menos dos puntos visibles en ambas
imágenes
d) hará falta, no sólo identificar manualmente esos dos puntos, sino conocer sus
coordenadas geográficas

4. Cuando la distancia de un avión o helicóptero al suelo es del mismo orden (¡o


incluso menor!) que las alturas en la orografía del terreno, las distancias estima-
das por fotografía y las distancias reales son diferentes. Por ejemplo, si un avión
sobrevuela un valle, las distancias entre dos puntos:

a) se verán mayores si se hallan a lo largo del valle que si se hallasen en sus


laderas
b) se verán menores si se hallan a lo largo del valle que si se hallasen en sus
laderas
c) se verán mayores que lo esperado, independientemente de su ubicación en el
valle
d) se verán menores que lo esperado, independientemente de su ubicación en el
valle

52
P UNTOS DE VISTA . P LATAFORMAS

5. La última tendencia en teledección es el uso de vehículos aéreos no tripulados


(UAV) que sobrevuelan las zonas a estudiar a pocos metros da altura. Teniendo
en cuenta el detalle que pueden llegar a dar estos ingenios, ¿cómo cree que se
orientan?

a) con GPS diferenciales


b) con IMU electrónicas (como las de los móviles)
c) por su orientación relativa a balizas en tierra
d) no se orientan: las imágenes se colocan posteriormente por puntos fiducia-
rios.

6. Muchos satélites meteorológicos son satélites geostacionarios, que permanecen


siempre sobre el mismo lugar de la Tierra. Por su parte, la mayoría de los satélites
de teledetección ambiental son satélites que se desplazan en órbitas polares (o
casi polares), lo que hace que no proporcionen vistas continuas de sus objetos de
interés. ¿A qué se debe esta elección de órbitas?

a) a la distancia requerida a la superficie de la Tierra


b) a las variaciones de iluminación solar a lo largo del día
c) a que las órbitas ecuatoriales están muy llenas de satélites
d) a que es más fácil colocar satélites en órbitas polares que en ecuatoriales
e) a todas las anteriores

7. Cuando se adquiere una imagen de satélite, entre la información que se nos ofrece
está si el satélite se halla en su “paso ascendente” o en su “paso descendente”.
¿Qué quiere decir esto? ¿Y para qué sirve?

a) que el satélite se está acercando o alejando a una estación de telemetría, por


lo que la precisión de su ubicación varía
b) que el satélite, en su órbita hacia el punto observado, asciende (hacia el nor-
te) o desciende (hacia el sur) respecto al ecuador, por lo que las líneas su-
periores de la imagen han sido tomadas en un instante posterior o anterior
(respectivamente) al de las inferiores
c) que el satélite ha adquirido la imagen mientras “subía” o “bajaba” datos a la
estación de recepción en tierra, por lo que informa del tiempo de transmisión

53
C UESTIONES DE TELEDETECCIÓN

8. Algunos satélites permiten aprovechar el conocimiento preciso de su órbita y la


capacidad de sus sensores para tomar imágenes en varias direcciones (hacia de-
lante y hacia atrás de la órbita) para, por estereoscopía, generar modelos digitales
de elevación (DEM). Un ejemplo es el sensor japonés ASTER, a bordo del saté-
lite Terra de la NASA, que sigue una órbita polar heliosíncrona a una altitud de
unos H = 650 km; con él se ha confeccionado el GDEM, con una resolución es-
pacial (horizontal) de 15 m. El ASTER proporciona imágenes con una diferencia
(o resolución) angular de 20◦ . ¿Cuál será la mejor resolución vertical del modelo
digital de elevaciones obtenido?

a) del orden de decímetros

b) del orden de metros

c) del orden de decenas de metros

d) del orden de metros en el ecuador y decenas de metros sobre los polos

e) No hay datos suficientes para estimar la resolución en altura

9. El satélite ENVISAT de la ESA albergaba en su interior muchos instrumentos, que


compartían así una infraestructura de lanzamiento, alimentación, telecomunica-
ciones, etc. El propósito de ENVISAT era proporcionar una descripción compren-
siva de la superficie terrestre, continuando con misiones pasadas como los ERS
(Earth Resources Satellite). Ahora que se ha perdido el ENVISAT, y que la crisis
actual ha retrasado el lanzamiento de los Sentinel (los sucesores del ENVISAT),
¿cómo garantiza la ESA la continuidad de los datos que éste proporcionaba?

a) no la garantiza, es necesario recurrir a otras agencias

b) la garantiza a través de otros sensores de otras agencias (tanto de países


europeos miembros de la ESA, como de la NASA)

c) la ESA disponía de otros satélites de misiones similares a la del ENVISAT


que suplen su falta.

d) la garantiza suscribiendo acuerdos con agencias privadas.

54
P UNTOS DE VISTA . P LATAFORMAS

10. El programa de la agencia europea Eumetsat, dedicado a satélites meteorológicos,


contempla dos clases de satélites: los Meteosat (7, 8, 9 y 10) y los Metop (A y B).
Si el objetivo de estos satélites es la monitorización del tiempo atmosférico, ¿por
qué las dos series de satélites?

a) los satélites de las dos series llevan sensores distintos que proporcionan in-
formación complementaria
b) los satélites de las dos series se hallan a diferentes distancias, de modo que
proporcionan resoluciones espaciales y temporales complementarias
c) la serie Meteosat es continuación de la serie histórica de satélites meteoroló-
gicos de la ESA, mientras que los Metop buscan colaborar con los satélites
de órbita polar de la NOAA de EE.UU.
d) todas las anteriores

1.3. RESPUESTAS A LAS CUESTIONES

1. Cuando se hace una fotografía de una escena, la relación entre las distancias
entre tres objetos sobre la imagen tomada depende de:

Respuesta: (a) Las relaciones entre las distancias entre objetos en una fotografía de-
penden del ángulo que forme el plano que los contiene con la dirección de ob-
servación de la cámara: si ese plano gira, alguno o algunos de los ángulos del
triángulo que definen los tres objetos se abrirá, aparentemente, mientras que otro
u otros se cerrarán. Esto cambia las proporciones de las distancias entre objetos.

Una fotografía nos muestra la proyección de los rayos de luz que llegan al objetivo sobre
el plano de enfoque, es decir, lo que se plasma en la película fotográfica o en el chip
CCD (esto es, en el elemento sensible de la cámara) es una imagen proyectiva de la
escena real formada por el sistema óptico de ésta. Luego esa imagen la vemos ampliada
en papel fotográfico o en la pantalla de un ordenador. En cualquier caso, pasamos de una
escena tridimensional a una versión en dos dimensiones, por lo que cierta información
se pierde: la profundidad.
Podemos ver, de manera simplificada, la formación de una imagen como en la si-
guiente figura (figura 1.1), una analogía de las primeras “cámaras oscuras” (habitaciones
en las que la luz exterior entraba sólo por un pequeño orificio). Los rayos procedentes
de los distintos puntos del objeto fotografiado pasan por el centro óptico del objetivo

55
C UESTIONES DE TELEDETECCIÓN

Objetos
Plano de Aumentos
la imagen

x1,5

Figura 1.1. Modelo de formación de la imagen en una cámara.

(normalmente una lente, pero puede ser un espejo cóncavo, o un espejo oscilante, u otro
dispositivo que direccione los rayos de luz) y llegan a una pantalla. En ella forman la
imagen, normalmente invertida. En esta imagen sólo se ven aquellos objetos (o se pue-
den medir aquellas distancias) contenidas en planos paralelos a la pantalla; una hoja de
papel colocada perpendicularmente al plano de la imagen (paralela al eje óptico de la
cámara) no se vería apenas en la imagen. Por lo tanto, las distancias sobre ese papel
parecerían cero sobre la imagen. Inclinando un poco la hoja de papel, veríamos cada vez
distancias mayores, hasta que el papel estuviese paralelo a la pantalla (perpendicular al
eje óptico de la cámara). En esa orientación, sí podríamos determinar las proporciones
de un dibujo en el papel a partir de las proporciones de su proyección en la pantalla.
El tamaño de la imagen proyectada depende de la distancia del centro óptico a la
pantalla. La ampliación (el zoom) puede aumentar más o menos su tamaño; en este mo-
delo geométrico, hacer zoom consistiría en alejar la pantalla más o menos del objetivo.
En una cámara de fotografía, esta distancia es la focal del objetivo: el zoom lo que hace
es variarla. Por supuesto, esto tiene el efecto de que por los bordes se “pierdan” partes de
la imagen: el campo o ángulo de visión de una cámara viene dado por la relación entre el
tamaño de la pantalla (el elemento sensible) y la distancia focal. Lo que no varían son los

56
P UNTOS DE VISTA . P LATAFORMAS

ángulos de la imagen proyectada y, por lo tanto, las longitudes medidas sobre la imagen
no tienen por qué ser proporcionales a las distancias entre objetos reales (dado que no
conocemos la profundidad).
La imagen proyectada en la pantalla depende mucho de la distancia de la cámara a
los objetos en la escena. Cuando nos acercamos a unos, reduciendo nuestra distancia a
ellos a la mitad, a otros nos podemos estar acercando reduciendo nuestra distancia a ellos
a la cuarta parte. Esto cambia mucho las proporciones en las distancias medidas sobre
la pantalla. No son equivalentes cambiar la distancia del objetivo a la escena y cambiar
la distancia de la pantalla al objetivo (la focal, o hacer zoom). Avanzar el trípode que
sostiene la cámara hacia la escena sí que puede variar las relaciones de distancias entre
objetos (incluso las proporciones o la razón de aspecto de éstos).

2. Si quisiéramos emular con nuestra cámara fotográfica en mano, por la calle, a


Google Street View, ¿qué NO necesitaríamos saber de cada fotografía hecha?

Respuesta: (b) Para poder ubicar bien una fotografía y orientarla espacialmente, ne-
cesitamos saber nuestro punto de observación (las coordenadas GPS de nuestra
cámara), la relación entre las distancias en la imagen y los ángulos de visión des-
de ésta (dada por la focal de la cámara y el zoom), y la orientación de la cámara
(hacia dónde está orientado su centro de visión: respecto al norte y respecto a la
vertical).

Google Stret View es el sistema ideado por Google para mostrar las calles y los edificios
en ellas, simulando nuestro movimiento por ellas. Básicamente, en cada punto se toman
una serie de fotografías alrededor, se pegan unas a otras y se crea un panorama. El
sistema está diseñado para que se sepa con mucha precisión el lugar desde donde se ha
hecho la fotografía, que las cámaras estén siempre a la misma altura, que entre todas
las cámaras se pueda tomar en un solo instante una instantánea que cubra todas las
direcciones, etc. Además, para mostrar luego las imágenes más adecuadas, un sistema
LiDAR (Light Detection And Ranging, detección y medida de distancias por luz) calcula
las distancias a los objetos en las imágenes; así se puede luego escoger la más próxima
cuando nos la muestran. El LiDAR envía muchos rayos láser (infrarrojos, que no se
ven a simple vista, o rojos o verdes, como los usados para hacer batimetrías) y mide la
distancia a los objetos en función del tiempo que tarda la luz en ir y volver reflejada
desde ellos; es similar a los medidores de distancias láser que se usan en albañilería (que
suelen usar luz láser roja). Es decir, que todo el sistema está diseñado para que todos los
factores que influyen en la formación de las imágenes estén totalmente controlados.

57
C UESTIONES DE TELEDETECCIÓN

Si quisiéramos emular a Google Street View con nuestra cámara en mano, necesita-
ríamos saber desde dónde tomamos la fotografía. Aunque sólo para ubicarla en el mapa;
la precisión de un GPS de mano (o del incrustado en la cámara digital) será suficiente.
Las coordenadas de un punto visto en la fotografía nos daría la dirección en la que mi-
ramos, pero no es suficiente para orientar la cámara en el espacio: podemos determinar
la línea de visión entre nuestra cámara y ese punto, pero no cómo está rotada nuestra cá-
mara respecto a ese punto. Por ello, un único punto no sería la solución. Se necesitarían,
al menos, dos: por cada fotografía que tomásemos alrededor. Si son puntos cercanos (a
menos de 50 m), saber sus coordenadas determinadas con un GPS será inútil: los errores
de estos aparatos son del orden de los 5 m (tanto en nuestra posición como en la de los
puntos de referencia, lo que suma 10 m); la precisión de la orientación será cuestionable.
No obstante, la orientación de una cámara digital puede que ya la mida ella. Algu-
nas cámaras (y algunos teléfonos móviles) disponen de brújulas y niveles electrónicos
incrustados en un único chip, el sensor de orientación. Sabiendo la dirección (respecto
al norte) y la inclinación (respecto a la vertical), se puede determinar la dirección del eje
óptico de la cámara.
Ya sólo es necesario conocer el campo de visión instantáneo. El ángulo de visión
depende del tamaño del elemento sensor (del chip CCD en una cámara digital) y de la
distancia focal. El tamaño del área sensible, es conocida: 36 mm en película fotográfica
de 35 mm y unos 5,37 milímetros para los chips CCD más habituales, aunque depende
del modelo de la cámara. La distancia focal es variable, ya que cambia con el zoom
que estemos empleando (si no con el objetivo intercambiable): debemos tomar nota de
este valor también. Luego, las sucesivas fotografías habrá que hacerlas girando sólo lo
suficiente para que se superpongan en sus bordes las imágenes correspondientes y se
puedan “coser” hasta cubrir la visión de 360◦ (como hace el software libre Hugin).
Por supuesto, si dispusiésemos de un trípode, podríamos evitar algunas de estas li-
mitaciones. Y, no digamos, si dispusiésemos de un Google Street View car.

Nota: Toda esta información que hemos mencionado (coordenadas GPS, orientación,
focal) y mucha otra la guardan las cámaras digitales, junto con la imagen, en lo que
se llaman metadatos EXIF del archivo de fotografía. Veremos que en teledetección
este tipo de metadatos sobre orientación y forma de adquisición de las imágenes
siempre acompañan también a las imágenes.

58
P UNTOS DE VISTA . P LATAFORMAS

3. En la página web de Flickr de la Geophotopedia, se pueden encontrar


múltiples fotografías temáticas con una información interesante para hacer
“teledetección a ras de suelo”: la fecha y las coordenadas geográficas del lugar
desde donde se tomaron y las características de la cámara que las tomó.
¿Bastaría esto para hacer un estudio automático de cambios en una escena
entre dos (o más) fotografías? ¿Qué otra información sería necesaria?

Respuesta: (d) Para hacer un estudio automático de los cambios en una escena, se
necesita identificar la orientación de dicha escena respecto a la cámara. Para
ello, es necesario conocer la posición de la cámara, de algún objeto en la escena
de modo que se defina un eje conocido, y la rotación de la imagen respecto a ese
eje. El disponer de estos elementos para dos imágenes, permite formar con ellas
un par estereoscópico, es decir, ubicar espacialmente los objetos de la escena.
Este sería un paso previo para poder hacer comparaciones.

La GeoPhotopedia es una biblioteca de imágenes con temática geográfica y biogeográ-


fica (es decir, con paisajes naturales, urbanos o rurales) e información acerca de los
elementos que aparecen en ella que ha sido compilada inicialmente por el Departamento
de Geografía Física de la Universidad de Sevilla, pero ahora está abierta a la colabo-
ración de todos los internautas. Cada una de las fotos está georreferenciada sobre un
mapa y se ha etiquetado siguiendo criterios geográficos. Si escogemos una etiqueta, por
ejemplo, “protección ambiental”, seleccionaremos un subconjunto de fotografías que los
editores consideran que ilustran este concepto. Luego, podemos ver una de estas foto-
grafías a mayor tamaño y, haciendo click en los puntos suspensivos en la parte inferior,
ver la información EXIF asociada a ella. Entre esta información EXIF, pueden estar las
coordenadas geográficas de la cámara en el momento del disparo; suelen estar también
el modelo de la cámara y la focal de ésta (que nos dan el tamaño del CCD y la geometría
de formación de la imagen y nos permiten calcular los ángulos entre puntos).
No obstante, esta información no es suficiente para superponer dos imágenes del
mismo objeto automáticamente. Es necesario conocer los ángulos de orientación (attitu-
de) de la cámara. Esta orientación se puede considerar respecto al norte y respecto a la
vertical (algunos sensores de orientación de las cámaras incluirán estos datos entre la in-
formación EXIF). Estos dos ángulos son suficientes para orientar la cámara, igual que lo
son la latitud y la longitud para ubicar un punto en la esfera terrestre. Aunque igualmente
se puede escoger otra dirección de referencia: por ejemplo dirección de observación de
la cámara en la primera fotografía (figura 1.2). Después, para definir esa dirección en
la segunda fotografía, es necesario conocer las coordenadas de ese punto de referencia,
además de las coordenadas de los dos puntos de observación. Después, es posible de-

59
C UESTIONES DE TELEDETECCIÓN

Figura 1.2. Par estereoscópico del Teide visto desde dos puntos diferentes, según la GeoPhotopedia. En la
parte inferior, sobre una imagen Landsat, el símil de la visión estereoscópica.

finir una nueva “horizontal” como el plano que contiene los dos puntos de observación
y este punto de referencia. Pero, para saber cómo está cada cámara inclinada respecto
a esa “horizontal” es necesario un segundo punto común: este indicará cómo rotar cada
imagen respecto al eje óptico de la cámara (el centro de la imagen) para “encajar” las
dos vistas del mismo objeto.
Estas operaciones geométricas son las que llevan a cabo nuestros ojos cuando per-
cibimos la profundidad de una escena. Las dos imágenes del mismo objeto que vemos
con cada ojo decimos que forman un par estereoscópico. La necesidad de conocer la
posición de un punto de referencia es tan sólo para poder definir las direcciones de ob-
servación de una cámara respecto a la otra: evitar el “estrabismo”. Con dos imágenes de
la GeoPhotopedia, ambas del Teide, pero tomadas desde distintas localizaciones (que se
pueden leer de sus datos EXIF), podemos formar un par estereoscópico, de forma que
un software de visión estereoscópica pueda comparar ambas (incluso generar un modelo
3D del cono volcánico). Para ello, sin entrar en demostraciones matemáticas, basta ver
en la figura que la situación sería análoga a que alguien estuviese mirando la escena con
un ojo en cada punto (figura 1.2).

60
P UNTOS DE VISTA . P LATAFORMAS

Avión

Re
lie
ve

Ortocorrección
? Nadir ?

Figura 1.3. Efectos del relieve sobre la estimación de los puntos en una fotografía aérea.

4. Cuando la distancia de un avión o helicóptero al suelo es del mismo orden (¡o


incluso menor!) que las alturas en la orografía del terreno, las distancias
estimadas por fotografía y las distancias reales son diferentes. Por ejemplo, si
un avión sobrevuela un valle, las distancias entre dos puntos:

Respuesta: (b) Como la cámara fotográfica a bordo de la plataforma aerotransportada


representará sobre un plano puntos que no están en el mismo plano, se conserva-
rán las distancias entre puntos a lo largo del valle, que estarán aproximadamente
a la misma altura. Sin embargo, para los puntos sobre las laderas, comparados
con los anteriores, se sobreestimarán las distancias, porque se verán como si es-
tuviesen a la misma altura que los que se hallan en el fondo del valle y, por tanto,
más separados.

La toma de imágenes desde plataformas aerotransportadas presenta dos problemas


relacionados con la plataforma: el movimiento de ésta y la trayectoria relativamente baja
de la misma. El movimiento de la plataforma se puede corregir midiéndolo; la plataforma
cabeceará (se inclinará hacia delante o hacia atrás), se alabeará (se inclinará hacia los
lados) y guiñará (girará a derecha e izquierda respecto a la vertical). Esto afecta al punto
sobre el terreno hacia el que apunta el sensor (piénsese en una cámara fotográfica). No
obstante, conociendo los respectivos ángulos en el momento de adquirir la imagen, se
puede saber cómo revertir estos efectos (transformando la imagen). La trayectoria de la
plataforma, también se puede medir y usar para localizar geográficamente un punto de la
imagen: el que se halla mirando al nadir (es decir, hacia abajo en vertical). Sin embargo,

61
C UESTIONES DE TELEDETECCIÓN

los puntos fuera de la vertical, requieren conocer su distancia a la plataforma para saber
sus coordenadas geográficas (véase la figura 1.3).
Debemos tener en cuenta que la representación estándar de una imagen de teledetec-
ción es, casi siempre, un mapa. Un mapa representa los puntos geográficos en un plano;
sin embargo, ni la Tierra ni su relieve son planos. En el caso de la curvatura de la Tierra,
existen muchos tipos de proyecciones, adecuadas para evitar determinadas distorsiones
causadas por su curvatura.
En el caso del relieve, existen dos opciones. O bien se evita éste, observando desde
un punto tan elevado que el terreno parezca plano; esto es lo que sucede con los sensores
a bordos de satélites, que se hallarán a una distancias cientos de veces mayor que la ma-
yor diferencia de alturas en un terreno. O bien se conoce este relieve a priori (mediante
un modelo digital de terreno, MDT) y se aprovecha ese conocimiento para calcular las
coordenadas correctas de los puntos en la imagen; esta operación se denomina ortorrec-
tificación y las fotografías corregidas, ortofotografías (como las del Plan Nacional de
Observación Aérea, PNOA).

5. La última tendencia en teledetección es el uso de vehículos aéreos no tripulados


(UAV) que sobrevuelan las zonas a estudiar a pocos metros da altura. Teniendo
en cuenta el detalle que pueden llegar a dar estos ingenios, ¿cómo cree que se
orientan?

Respuesta: (a) Es difícil dar una respuesta particular a esta pregunta, porque es un
tema de investigación en la actualidad. La precisión de los sistemas de posicio-
namiento inercial (GPS) y de las unidades de medida inercial (IMU) combinadas
puede llegar a ser muy alta (decimétrica), pero no suficiente para la altísima re-
solución espacial de las imágenes obtenidas desde un UAV. Por lo tanto, quizás
el futuro de la georreferenciación de imágenes de UAV sea una combinación de
estas dos medidas con apoyo de técnicas de visión artificial.

Todos hemos visto recientemente en los centro comerciales pequeños helicópteros tele-
dirigidos que van, desde modelos sencillos (emulando el aspecto de un helicóptero real)
con un mando para dirigirlo similar al de los coches teledirigidos, hasta modelos que
cuentan con 4 hélices (lo que les aporta una mayor estabilidad) y que pueden ser dirigi-
dos desde nuestro smartphone, al que también transmiten imágenes de lo que ven. Estos
“juguetes” forman parte del grupo de los conocidos como vehículos aéreos no tripulados
(UAV, Unmanned Aerial Vehicle). Son, por decirlo de algún modo, los “hermanos pe-

62
P UNTOS DE VISTA . P LATAFORMAS

Figura 1.4. Vehículo aéreo no tripulado modelo Microdrones md4-200. El UAV va dotado de una cámara
multiespectral con la que adquiere imágenes desde una altura de 100 m, aproximadamente (imágenes
tomadas durante una campaña de campo de la empresa Zumain Ingenieros SL).

queños” de la familia. Los UAV, como casi toda la tecnología de teledetección, nacieron
como una herramienta militar, para reconocer áreas de forma remota. En sus aplicacio-
nes militares actuales están tanto el reconocimiento como el ataque, y algunos modelos
pueden realizar vuelos autónomos (siguiendo un plan de vuelo programado previamente)
sin necesidad de control remoto. Además, desde hace unos años este tipo de vehículos
se han utilizado también para aplicaciones civiles: extinción de incendios, vigilancia,
búsqueda de personas desaparecidas, toma de medidas de contaminación del aire, etc.
Los UAV usados en teledetección transportan cámaras para la obtención de imáge-
nes (figura 1.4); como estos vehículos se mueven a poca altitud, las imágenes son de
muy alta resolución espacial. Para asignar correctamente coordenadas geográficas a es-
tas imágenes (esto es, para georreferenciarlas) el sensor a bordo debe registrar, junto
con la imagen, información de localización del vehículo así como del movimiento del
mismo. Estas informaciones las proporcionan los dispositivos GPS (Global Positioning
System) e IMU (Inertial Measurement Unit, unidad de medición inercial) con los que
cuentan estos vehículos. Los GPS registran periódicamente la latitud y longitud de un
objeto situado en la Tierra, mediante triangulación de las señales recibidas de una serie
de satélites de localización bien conocida (la constelación GPS); la precisión que da esta
triangulación es de unos 5 − 10 m (2,5 m con los algoritmos de corrección más avanza-
dos). Para mejorar la precisión, se pueden comparar las sucesivas medidas del GPS en
movimiento con las que proporciona uno estático en una estación de tierra; esto convierte

63
C UESTIONES DE TELEDETECCIÓN

al GPS en diferencial y, entonces, se puede llegar a precisiones decimétricas en la deter-


minación de la posición del UAV. Por su parte la IMU permite medir en cada momento
las variaciones en la velocidad (con acelerómetros) y los movimientos de cabeceo, ala-
beo y giñada utilizando giróscopos. En un vuelo tradicional, ambas informaciones serían
independientes: una daría la posición del avión y la otra su orientación. En el caso de
un UAV se usan complementariamente: la IMU registra las variaciones de posición y
orientación que describirían el movimiento del UAV más rápido que el GPS determina
su posición; sin embargo, después de mucho tiempo, los errores acumulados de la IMU
aumentan mucho, mientras que el error del GPS es siempre el mismo. Combinando am-
bas informaciones, se consigue una precisión alta en la posición y orientación a tiempos
cortos. No obstante, los errores son considerables: decímetros en la posición del UAV,
cuando la resolución de las imágenes que se obtienen es centimétrica o milimétrica; del
orden de un grado en la orientación respecto a la vertical (las IMU tienen que ser relati-
vamente pequeñas y no demasiado precisas), cuando los píxeles de las imágenes pueden
abarcar incluso milésimas de grado.
Las técnicas de visión artificial han proporcionado, no obstante, métodos alternati-
vos para determinar la orientación y la posición de un UAV. Las sucesivas imágenes de
vídeo que se adquieren, permiten seguir los puntos característicos que se detectan en
una imagen del terreno. De este modo, se puede conocer la orientación del UAV y su
avance sobre un terreno con suficientes “irregularidades” para que esos puntos sean vi-
sibles en las “texturas” de las sucesivas imágenes. Posiblemente este sea el futuro de la
georreferenciación de los UAV, junto con informaciones más precisas de GPS e IMU.

6. Muchos de los satélites meteorológicos son satélites geoestacionarios, que


permanecen siempre sobre el mismo lugar de la Tierra. Por su parte, la
mayoría de los satélites de teledetección ambiental son satélites que se
desplazan en órbitas polares (o casi polares), lo que hace que no proporcionen
vistas continuas de sus objetos de interés. ¿A qué se debe esta elección de
órbitas?

Respuesta: (e) Todas las razones indicadas son a favor de una órbita polar: a menor
distancia a la Tierra, menos potencia se necesita en el cohete que la pone en ór-
bita; además, en órbitas más bajas, se alcanzan mayores resoluciones espaciales
en las imágenes. Las órbitas polares permiten barrer toda la Tierra en pocos días
y hacerlo de tal forma que un mismo punto se vea siempre en las mismas con-
diciones de iluminación solar: éstas son las órbitas heliosíncronas. Por último,
sólo existe una órbita ecuatorial y, en ella, cada vez más satélites; esto acumula

64
P UNTOS DE VISTA . P LATAFORMAS

basura espacial en dicha órbita, algo que también sucede en la zona de órbitas
bajas que ocupan muchos satélites de órbita polar.

Los satélites que orbitan alrededor de la Tierra lo hacen normalmente siguiendo órbitas
contenidas en el plano del ecuador terrestre o perpendiculares a él. Cada una de ellas
cuenta con unas características diferentes que condicionan los productos (imágenes) que
los satélites pueden obtener.
Las órbitas ecuatoriales se suelen emplear para obtener órbitas geoestacionarias. Las
órbitas geoestacionarias garantizan que un satélite se halla siempre sobre el mismo pun-
to; dado que la Tierra gira alrededor del eje polar, estas órbitas sólo pueden hallarse en
el ecuador. Los satélites en estas órbitas tienen el mismo periodo orbital que la rotación
sideral de la Tierra; por eso se dice que son órbitas geosíncronas. Se puede decir que
sólo existe una órbita geoestacionaria: alrededor del ecuador, a una altitud de 35800 km
por encima del nivel del mar; a esta altura, la gravedad terrestre ejerce exactamente la
fuerza centrípeta para mantener al satélite en una órbita circular alrededor del planeta.
Como anécdota, la idea de usar esta órbita para colocar satélites en ella fue lanzada por
primera vez en 1945 por el escritor de ciencia ficción Arthur C. Clarke (en su artículo
Extra-terrestrial relays: Can Rocket Stations Give World-wide Radio coverage?); en su
honor, la zona en que se halla esta órbita se denomina también “cinturón de Clarke”. No
obstante, la capacidad para “mirar” de forma continua el mismo punto de la Tierra hace
que esta órbita sea adecuada para satélites de telecomunicaciones, tal como ya observó
Herman Potočnik en 1928. Desde el punto de vista de la teledetección, se usa, sobre
todo, para los satélites meteorológicos de las diferentes agencias, que monitorizan desde
esa posición la dinámica atmosférica de un hemisferio terrestre prácticamente completo.
Aunque en condiciones ideales un satélite se mantendría en su órbita geoestacionaria
indefinidamente, las perturbaciones orbitales debidas a la Luna y al Sol, las presiones de
radiación solar, incluso el rozamiento con las leves capas exteriores de la atmósfera, cau-
san una lenta deriva. Los satélites corrigen estos efectos mediante maniobras periódicas
de corrección de la órbita (station-keeping), para lo que utilizan pequeños propulsores; el
agotamiento del combustible limita, por ello, su vida útil. El último combustible se suele
utilizar para “desorbitar” el satélite y, o bien colocarlo en una órbita inútil (por ejemplo,
en los cinturones de radiación de Van Allen, donde el campo magnético de la Tierra
concentra las partículas radiactivas procedentes del Sol, protegiendo así la superficie), o
bien hacer que caiga a tierra y se destruya en la atmósfera.
Las órbitas polares, al contrario que las anteriores, se describen en dirección norte-
sur (en realidad con cierto ángulo con el eje que une los polos). No siempre buscan
acompañar a la Tierra en su giro, sino que habitualmente acompañan al sol: pasan sobre

65
C UESTIONES DE TELEDETECCIÓN

Figura 1.5. “Caminos” (paths) seguidos por los satélites Landsat, usados para identificar las imágenes
adquiridas de manera única. Fuente: USGS.

un mismo punto a la misma hora, de forma que la iluminación que recibe éste es, apro-
ximadamente la misma en cada pasada; estas son las órbitas heliosíncronas. Este tipo de
órbitas se utilizan en todos los satélites que quieren realizar una cobertura completa del
planeta, como los mediambientales, aunque con una periodicidad que dependerá de su
altitud y de sus “caminos” (paths, véase figura 1.5). El período orbital, que consiste en
dar una vuelta a la Tierra, suele estar en torno a los 100 minutos. No se debe confundir
con el período de revisita, que es el tiempo que tarda un satélite en pasar (aproximada-
mente) sobre un mismo punto (a la misma hora) y adquirir una imagen en la que ese
punto sea visible. Este período varía: entre los 1 a 3 días de algunos satélites o constela-
ciones como el QuickBird, el RapidEye, los SPOT del CNES frances, los Terra y Aqua
de la NASA o el antiguo ENVISAT de la ESA, a los 16 días de Landsat. Todos estos sa-
télites, aunque pasan por áreas no iluminadas de la Tierra, normalmente solo adquieren
imágenes en las áreas iluminadas por el sol.
Las anteriores son las órbitas más habituales, sin embargo también existen satélites
que describen órbitas inclinadas o altamente excéntricas. Los satélites de la constela-
ción GPS (igual que los proyectados del sistema Galileo), siguen órbitas inclinadas y no
son ni geo- ni heliosíncronos: dan dos vueltas a la Tierra cada día. Entre los de órbitas
excéntricas, elípticas y muy alargadas, el mejor ejemplo es el de los satélites rusos de
comunicaciones Molniya que cubrían todo el territorio de la antigua URSS describiendo
una órbita con una inclinación de unos 65◦ y con un período de 12 h.
Casi todos los satélites que se han puesto en órbita desde finales de la década de los

66
P UNTOS DE VISTA . P LATAFORMAS

50 han tenido una vida útil de entre 2 y 15 años (aunque pueden llegar a los 28 años, co-
mo en el caso del Landsat 5, el más longevo). Una vez que esta “vida útil” se extingue,
cuando los sistemas energéticos dejan de funcionar y desde Tierra no se puede dirigir
su movimiento, quedan flotando inicialmente en la órbita que describían, pero que van
modificando por perturbaciones orbitales. Toda esta “basura espacial” rodea nuestro pla-
neta produciendo en algunas ocasiones colisiones (como la producida el 10 de febrero
de 2009 entre los satélites Iridium 33 y Cosmos 2251). En 1978 el consultor de la NASA
Donald J. Kessler planteó el problema de la basura espacial orbitante describiendo un
escenario futuro donde las colisiones se sucederían y estas a su vez generarían más ba-
sura espacial aumentando las probabilidades de nuevas colisiones, llegando a un efecto
dominó conocido como Síndrome de Kessler. Existen programas específicos para hacer
un seguimiento de esta basura espacial como el “Orbital Debris” de la NASA.

7. Cuando se adquiere una imagen de satélite, entre la información que se nos


ofrece está si el satélite se halla en su “paso ascendente” o en su “paso
descendente”. ¿Qué quiere decir esto? ¿Y para qué sirve?

Respuesta: (b) Esta expresión indica la forma de avance del satélite sobre la escena,
en dirección norte o en dirección sur, esto es, ascendente o descendente respecto
al plano del ecuador.

Los satélites artificiales son seguidos desde varias estaciones de telemetría en tierra (con
antenas de seguimiento), a partir de las que se calcula su posición exacta en la órbita;
incluso cuando dejan de comunicarse con tierra, son seguidos mediante radar o teles-
copios o usando otros satélites. La órbita de un satélite se puede calcular con mucha
aproximación, pero va cambiando con el tiempo (por la atracción del Sol y la Luna,
el leve rozamiento o empuje causado por el viento solar, las capas más altas de la at-
mósfera, etc.) y muchas veces requiere corrección; para ello los satélites incluyen unos
pequeños propulsores que permiten modificar su posición sobre la órbita o la inclinación
de dicha órbita. Por ejemplo, el satélite ENVISAT incluía en su diseño un segmento de
tierra (ground segment), es decir, el conjunto de operaciones que se deben llevar a cabo
en tierra para el correcto mantenimiento del satélite: entre ellas su órbita. Durante las co-
rrecciones de la órbita, todas las operaciones del satélite se suspendían, porque se trataba
de una operación delicada. En abril de 2012, se perdió la comunicación con el satélite.
En la actualidad se está estudiando su “desorbitación” (es decir, caída a tierra) desde los
768 km de altitud en que se halla, para minimizar los riesgos que presenta al no poderse
controlar su órbita.

67
C UESTIONES DE TELEDETECCIÓN

Figura 1.6. “Camino” de un satélite de órbita polar sobre la superficie de la Tierra. Área observada por el
instrumento SCIMACHY del satélite ENVISAT. Fuente: ESA.

Otras variaciones de la órbita se deben a las variaciones en el campo gravitatorio


terrestre, que no es el de una esfera o esferoide perfectos, sino que varía sobre las pla-
cas continentales o las fosas oceánicas, lo que se llaman anomalías gravitatorias. Estas
variaciones en las órbitas de los satélites permitieron hacerse una idea de cómo es el
campo gravitatorio de la Tierra, incluso antes de las misiones específicas como GRACE
o GOCE. Por supuesto, estas variaciones no las sufren los satélites geoestacionarios, que
se mueven siempre en el plano del ecuador (y a una mayor distancia).
Cuando la órbita que sigue el satélite es polar, su trayectoria se puede dividir, a
efectos prácticos, en dos partes: la que asciende por un lado de la Tierra desde pasar
sobre el polo sur hasta pasar sobre el polo norte (aproximadamente, muy pocas órbitas
son exactamente polares) y la trayectoria “por el otro lado”, yendo desde el polo norte
hasta el polo sur (véase figura 1.6). Aunque desde el punto de vista de la mecánica ambas
trayectorias son semejantes, no lo son desde el punto de vista de la formación de las
imágenes captadas por el satélite . Los satélites en esta clase de órbitas suelen aprovechar
su movimiento para formar la imagen: cada poco que avanzan, añaden una franja de la
superficie de la Tierra; esta franja (a veces una línea) se llama el swath (surface path,
camino sobre la superficie; también se dice a veces sweep path, camino de barrido)
del satélite (mejor dicho, del sensor a bordo del satélite). Dado que las condiciones de
observación varían, saber en qué momento ha sido añadida una línea a la imagen puede
ser interesante: junto con la imagen se suele indicar cuándo se comenzó a adquirir y
cuándo se terminó de adquirir, así que sabiendo si la dirección del satélite era ascendente
o descendente, es inmediato saber exactamente el instante de adquisición de cada punto
de la imagen.

68
P UNTOS DE VISTA . P LATAFORMAS

Los satélites geoestacionarios envían datos a las estaciones de Tierra cada poco tiem-
po (prácticamente, cada vez que adquieren una imagen). Sin embargo, los satélites en
órbitas no geoestacionarias, las almacenan y las envían a las estaciones cuando éstas
vuelven a ser visibles; entonces se establece un enlace de descarga (down-link), al tiem-
po que se programan operaciones en el satélite (up-link). Por ejemplo, los satélites Terra
y Aqua de la NASA, cuando pasan sobre una estación de la NASA, descargan toda las
imágenes que han adquirido desde el paso anterior, lo que les lleva un par de horas (du-
rante las que continúan adquiriendo nuevos datos); estos satélites tienen la particularidad
de que, el resto del tiempo, retransmiten en directo para quien pueda escuchar las imáge-
nes que están adquiriendo en ese momento. Es de resaltar que gran parte de los esfuerzos
tecnológicos en las últimas décadas se han enfocado a optimizar estos enlaces de datos,
para cada vez descargar mayores imágenes en menos tiempo.

8. Algunos satélites permiten aprovechar el conocimiento preciso de su órbita y la


capacidad de sus sensores para tomar imágenes en varias direcciones (hacia
delante y hacia atrás de la órbita) para, por estereoscopía, generar modelos
digitales de elevación (DEM). Un ejemplo es el sensor japonés ASTER, a bordo
del satélite Terra de la NASA, que sigue una órbita polar heliosíncrona a una
altitud de unos H = 650 km; con él se ha confeccionado el GDEM, con una
resolución espacial (horizontal) de 15 m. El ASTER proporciona imágenes con
una diferencia (o resolución) angular 20◦ . ¿Cuál será la mejor resolución
vertical del modelo digital de elevaciones obtenido?

Respuesta: (c) La resolución vertical obtenida por estereoscopía es siempre del mismo
orden de magnitud que la resolución horizontal de las imágenes a partir de las
que se calcula. En el caso del ASTER, si no se puede distinguir un punto de otro a
menos de 15 m, no podría determinar alturas con menor precisión de unos 30 m
(mirando con un ángulo de 20◦ ). Sin embargo, dado que se usa no un punto, sino
un entorno de él, se puede rebajar este error hasta unos 10 m.

La técnica de estereoscopía, usada en teledetección, es muy antigua. Data de la época


de la fotointerpretación de fotografías, aprovechando las capacidades de nuestra visión
estereoscópica para combinar las imágenes que vemos con los dos ojos, para combinar
la información de ambas y ver más que en cada una por separado. Algo que se ve más
teniendo un par de imágenes de una misma escena, tomadas desde ángulos diferentes, es
el relieve: es decir, la estereoscopía permite recuperar en cierta medida la información
de profundidad que se pierde al fotografiar una escena.

69
C UESTIONES DE TELEDETECCIÓN

ο
θ=20

δh

δl = 15 m
Figura 1.7. Error en la altura estimada por el sensor ASTER.

El sensor ASTER a bordo del satélite Terra, el HRS del SPOT, el CHRIS del PRO-
BA, o el Ikonos, son capaces de adquirir imágenes mirando hacia el nadir (es decir, hacia
abajo) y mirando hacia alguna otra dirección, hacia delante o hacia atrás (o ambas), so-
bre su órbita. Dada la velocidad a la que avanzan los satélites, las dos o más imágenes
adquiridas son prácticamente simultáneas (por ejemplo, en cuanto al movimiento de las
nubes; pero no de un vehículo por una autopista). En el ejemplo dado del ASTER, la
imagen estereoscópica se procesó mediante técnicas de visión artificial (que buscan so-
bre las dos imágenes coincidencias en el entorno de los puntos, tal como harían nuestros
ojos) para estimar la distancia de cada punto al satélite; así se generó un modelo digital
del terreno (DTM, digital terrain model) o modelo digital de elevaciones (DEM, digi-
tal elevation model). La precisión obtenida en la determinación de la altura siempre es
del mismo orden que la precisión con la que se ubican horizontalmente los puntos en la
imagen. Por ejemplo, en este GDEM (global DEM) el error medio en altura es de unos
10 m, aproximadamente igual que la precisión horizontal.

70
P UNTOS DE VISTA . P LATAFORMAS

Para estimar este error de una forma aproximada, se puede considerar un punto que
haya sido visto por el ASTER desde el cenit y desde 20◦ de separación de éste. Ya
que el sensor ve no este punto, sino un cuadrado de 15 × 15 metros alrededor de él
(porque esa es su resolución horizontal), en el peor de los casos, confundirá un lado de
ese cuadrado a una altura dada con el lado opuesto del cuadrado a una altura δh (véase
la figura 1.7). Este es, justo, el error en la determinación de la altura. Como el ángulo
que forma el ángulo de visión con la vertical es de 20◦ , esta diferencia de alturas vendrá
dada por 15/ tan 20◦ ≃ 40 m. Nos hemos puesto en el peor de los casos. En promedio,
considerando todos los posibles ángulos, el error será prácticamente la mitad. Cuando
se calculó el GDEM, además, no se buscó en las dos imágenes sólo un punto, sino
un entorno del mismo: esto equivale a aumentar la precisión con la que se localiza el
“centro” de ese entorno del punto, por lo que se puede entender que el error medio final
fuese de sólo 10 m.
En otros modelos digitales, como el SRTM (Shuttle Radar Topography Mission,
misión topográfica llevada desde la lanzadera espacial), el error vertical está en torno a
los 5 m (esto es, la altura de un punto en el SRTM puede estar entre 5 m por encima y 5 m
por debajo del valor real). En estos modelos, obtenidos por radar, la resolución espacial
es de 1′′ (un segundo de arco, aproximadamente 30 m en latitudes medias); hasta octubre
de 2014 se distribuía gratuitamente al resto del mundo con resolución de sólo 3′′ (90 m),
pero actualmente se distribuye a su resolución completa. Otro modelo digital del terreno,
muy conocido, y también distribuido gratuitamente es el GETASSE30 (Global Earth
Topography And Sea Surface Elevation at 30′′ resolution) derivado del SRTM, pero con
mucha menos resolución.
Obsérvese que todos estos DEM son para la zona emergida de nuestro planeta. Los
océanos (el 80 % de la superficie de la Tierra) no se incluyen en ellos, mucho menos el
fondo marino. Para calcular la altura de los océanos, que además cambia con el tiempo
por las mareas y otros fenómenos (algunas corrientes, cálidas o frías, dilatan o contraen
el volumen del océano e influyen en su topografía), se recurre a altímetros como el
famoso Topex Poseidon o el ERS. Para determinar la elevación del fondo de los océanos,
lo más habitual es recurrir a las técnicas acústicas: al sónar. En este caso, el conocimiento
que tenemos del fondo marino lo debemos a la combinación de registros de múltiples
“misiones” y de los datos suministrados por los barcos transoceánicos que ceden los
registros sónar de sus rutas.

Nota: Más información sobre construcción de DEM desde satélite, en las respuestas 7
y 8 del tema 11.

71
C UESTIONES DE TELEDETECCIÓN

9. El satélite ENVISAT de la ESA albergaba en su interior muchos instrumentos,


que compartían así una infraestructura de lanzamiento, alimentación,
telecomunicaciones, etc. El propósito de ENVISAT era proporcionar una
descripción comprensiva de la superficie terrestre, continuando con misiones
pasadas como los ERS (Earth Resources Satellite). Ahora que se ha perdido el
ENVISAT, y que la crisis actual ha retrasado el lanzamiento de los Sentinel (los
sucesores del ENVISAT), ¿cómo garantiza la ESA la continuidad de los datos
que éste proporcionaba?

Respuesta: (b) La ESA garantiza a través de otros sensores de otras agencias (de ám-
bito europeo, de naciones miembro, o con la NASA) la continuidad de los datos
de la misión ENVISAT. Es decir, proporciona acceso (a los investigadores que lo
soliciten) a imágenes adquiridas con satélites que tienen las mismas o mejores
prestaciones que los instrumentos del ENVISAT, de manera que se puedan conti-
nuar las investigaciones puestas en marcha con datos de los instrumentos a bordo
de ese satélite.

El satélite ENVISAT fue lanzado en marzo de 2002 y puesto en una órbita polar que
le permitía cubrir toda la Tierra pasando por el mismo punto cada 35 días. Este satélite
fue concebido por la ESA como una herramienta global de estudio de la atmósfera y de
la superficie terrestre, dando continuidad a los satélites ERS 1 y ERS 2, pero aumen-
tando sus capacidades. Contaba con 10 instrumentos a bordo: ASAR, MERIS, AATSR,
RA-2, MWR, GOMOS, MIPAS, SCIAMACHY, DORIS, LRR que le permitían medir
variables como la temperatura y contenido de clorofila de las aguas oceánicas, el nivel
de contaminación en la atmósfera o la altitud de la superficie terrestre y de los océanos,
entre otras muchas.
El fallo prematuro del ENVISAT (el 8 de abril de 2012), que llevó a su pérdida, y el
retraso del lanzamiento de los Sentinel, debido a la crisis económica (satélites pensados
para dar continuidad a la serie de datos), ha provocado un parón en la adquisición (y pro-
ducción) de imágenes con los instrumentos instalados a bordo del ENVISAT, frenando
numerosas investigaciones en curso. Para evitar una pérdida importante de las inversio-
nes (en término de tiempo y dinero) que representan estas investigaciones, es necesario
disponer de imágenes de similares características a las que adquirían los instrumentos
del ENVISAT, obteniéndolos de otras misiones operativas, ya sean de la propia agencia
europea, o de otras (NASA, EUMETSAT, NOAA, etc).
Actualmente la ESA tiene en marcha el programa “third party missions” que po-
ne a disposición de investigadores europeos (previa solicitud) imágenes obtenidas por

72
P UNTOS DE VISTA . P LATAFORMAS

sensores instalados en satélites de otra agencias. Así, por ejemplo, muchos datos obte-
nidos por el sensor oceanográfico MERIS del ENVISAT pueden ser reemplazados por
algunos del sensor MODIS, de los satélites Terra y Aqua de la NASA; la NASA pro-
porciona actualmente también estos datos en abierto. El sensor AATSR, que permitía
medir la temperatura superficial marina (SST, sea surface temperature), por ejemplo,
puede ser sustituido por datos del AVHRR de la NOAA (la agencia meteorológica de
EE.UU.) o del MetOp de EUMETSAT (la agencia meteorológica europea). De este mo-
do, la ESA sigue proporcionando productos similares a muchos de los obtenidos con los
instrumentos del ENVISAT. Sin embargo para disponer de otros productos con calidad
similar, como los de color oceánico proporcionados por MERIS, será necesario esperar a
la puesta en órbita y funcionamiento de los Sentinel: primero, del Sentinel-2 y su sensor
óptico multiespectral (en el verano de 2015) y, posteriormente, del Sentinel-3, que será
la continuación natural del ENVISAT, con todos sus sensores ambientales.
La continuidad de las series de datos la buscan todas las agencias espaciales. Por
ejemplo, el pasado 30 de mayo de 2013, comenzó a operar la misión Landsat 8 de la
NASA (inicialmente llamada LDCM, Landsat Data Continuity Mission). Este satélite
lleva el sensor OLI (Operational Land Imager), que incorpora las características del
ETM+ (Enhanced Thematic Mapper) del Landsat 7 y algunas mejoras; el ETM+ era a su
vez continuación de los TM (Thematic Mapper) de los Landsat 4-5, que trataban de ser
similares aunque con algunas mejoras, a los MSS de los Landsat 1-3. De este modo, las
sucesivas misiones Landsat proporcionan datos cada vez mejores, pero suficientemente
parecidos a los sensores anteriores como para hacer estudios con datos homogéneos de la
Tierra desde 1972 hasta la actualidad; esta es la misión más longeva hasta la actualidad.

10. El programa de la agencia europea Eumetsat, dedicado a satélites


meteorológicos, contempla dos clases de satélites: los Meteosat (7, 8, 9 y 10) y
los MetOp (A y B). Si el objetivo de estos satélites es la monitorización del
tiempo atmosférico, ¿por qué las dos series de satélites?

Respuesta: (d) Los Meteosat son satélites geoestacionarios que envían continuamente
imágenes de la Tierra, mientras que los MetOP toman otro tipo de información
desde una órbita polar mucho más próxima a la superficie de la Tierra (860 km),
una información que no se puede obtener desde 36000 km (distancia de la órbita
geoestacionaria). Además, los MetOP forman parte del Sistema Polar Conjunto
gestionado entre la NOAA y EUMETSAT (cada agencia recibe los datos cuando
los satélites pasan por su cara del planeta).

73
C UESTIONES DE TELEDETECCIÓN

Figura 1.8. Primeros datos obtenidos por el satélite MetOP-B. Fuente: EUMETSAT.

EUMETSAT es la agencia meteorológica europea. Esta agencia gestiona los satélites


geoestacionarios Meteosat (desde el Meteosat-1, lanzado en 1977, hasta los actuales
Meteosat Second Generation, o MSG) y los satélites MetOP (dos satélites en órbitas
polares, lanzados en 2006 y 2012, a la espera de un tercero que será puesto en órbita en
2017).
Los satélites Meteosat, al ser geoestacionarios, proporcionan información continua
de lo que sucede en cada instante (en realidad, cada 15 minutos, o cada 5 en modo
rápido) en la atmósfera del hemisferio que es visible desde la ubicación de cada satélite.
Esta información permite hacer predicciones de la evolución meteorológica a corto y
medio plazo utilizando los modelos numéricos de predicción. Debido a su distancia a la
superficie de la Tierra (36000 km), la resolución espacial de los sensores del Meteosat
es baja: 3 km.

74
P UNTOS DE VISTA . P LATAFORMAS

Los satélites MetOP transportan instrumentos parecidos a los de los Meteosat (por
continuidad de la misión), pero también otros sensores compatibles con los de los saté-
lites NOAA de la agencia meteorológica de EE.UU. y otros de nuevo diseño. De hecho,
estos satélites forman parte del Acuerdo Inicial para un Sistema Polar Conjunto (Initial
Joint Polar System Agreement, IJPS) entre EUMETSAT y la NOAA. Por su diseño, los
MetOP permiten obtener imágenes de mayor resolución espacial (en torno a 1 km) y,
además, transportan instrumentos que no podrían funcionar desde una órbita geostacio-
naria. En particular, el ASCAT, que permite medir el viento sobre la superficie del mar.
Otros instrumentos importantes son los IASI y AMSUA, que proporcionan información
precisa sobre la distribución y temperatura de los gases de efecto invernadero en la at-
mósfera: metano, dióxido de carbono y agua. Un estudio reciente ha demostrado que
los datos procedentes de los instrumentos IASI y AMSUA de los MetOP son los que
más han contribuido a reducir los errores de los modelos de predicción numérica en los
últimos tiempos.
Hoy en día, sin embargo, los satélites meteorológicos no se ocupan sólo del tiem-
po atmosférico, sino también de lo que se llama el tiempo del espacio. Es importante
tener información a tiempo sobre los fenómenos solares, en particular sobre el vien-
to solar, porque éste pude afectar a las comunicaciones de larga distancia, o dañar los
satélites, tanto sus paneles solares como cambiar las fuerzas magnéticas y de arrastre so-
bre ellos (requiriéndose respuestas rápidas desde el segmento de tierra para corregir su
orientación). Tanto los satélites geoestacionarios GOES de la NOAA como los MetOP
de EUMETSAT poseen sensores para monitorizar este ambiente del espacio exterior:
ambos miden los flujos de electrones, protones y campo magnético; los GOES, además,
miden los rayos X solares.

75
C UESTIONES DE TELEDETECCIÓN

1.4. CONCEPTOS IMPORTANTES

ángulo de visión Ángulo formado por los dos puntos visibles simultáneamente por un
observador y que se hallan, respecto a éste, en direcciones más diferentes.
basura espacial Residuos (satélites no operativos, restos de colisiones, elementos des-
prendidos, etc.) dejados por las naves espaciales enviadas por el hombre alrededor
de la Tierra y que se mantienen en órbitas que impiden que se alejen indefinida-
mente de ésta o que hagan su reentrada en la atmósfera terrestre.
CCD (charge coupled device) Dispositivo electrónico semiconductor empleado para de-
tectar eficientemente fotones. El dispositivo se construye como un chip formado
por una matriz de pequeños “pozos”. En cada uno de estos pozos se aprovecha la
capacidad que da el semiconductor para controlar la concentración de electrones,
creando una zona libre de electrones (sometida a un potencial eléctrico), tal que si
un electrón es arrancado el choque de un fotón con un átomo, se registra una señal
eléctrica.
continuidad de datos Plan de una agencia o empresa espacial para mantener la serie
histórica de datos obtenidos con los sensores a bordo de sus satélites con carac-
terísticas similares. Normalmente estas características se refieren a que los nue-
vos sensores tienen bandas espectrales coincidentes con los anteriores (además de
otras bandas nuevas) y resoluciones espaciales iguales o mayores que las de sus
predecesores, de modo que los productos de unos y otros son comparables a pesar
del tiempo y los cambios en la tecnología.
DEM (digital elevation model) Modelo numérico que relaciona las coordenadas geo-
gráficas con la elevación del terreno (respecto a una referencia, usualmente un
elipsoide de referencia).
distancia focal Distancia desde el centro óptico de una lente o un espejo a la que conver-
gen (o parecen converger) los rayos de luz paralelos, por ejemplo, los que llegan
de un objeto muy distante. A esta distancia se puede formar sobre una placa una
imagen nítida de una escena lejana.
estereoscopía Técnica de visualización y de medida que emplea dos imágenes (cali-
bradas angularmente) adquiridas desde dos puntos de coordenadas conocidas para
estimar por trigonometría las distancias a los objetos. En teledetección es uno de
los métodos que se utilizan para construir modelos digitales de elevación.
EXIF (exchangeable image file format) Formato estándar para incrustar en un archi-
vo de imagen, obtenida con cámaras de fotografía digitales convencionales, datos

76
P UNTOS DE VISTA . P LATAFORMAS

acerca de las condiciones de adquisición y otros metadatos. Estos metadatos in-


cluyen la fecha y hora, el modelo y los ajustes de la cámara (sensibilidad, tiempo
de exposición), y pueden incluir información sobre el autor, una descripción de la
escena, las coordenadas GPS y orientación de la cámara, etc.

GPS (global positioning system) Sistema de orientación desarrollado inicialmente por


el ejército de EE.UU. para calcular las coordenadas geográficas de un observador
en cualquier punto de la Tierra. Este cálculo se realiza mediante una triangulación
respecto a las posiciones conocidas de una constelación de satélites en órbitas
polares sobre la Tierra: se necesitan, al menos, cuatro satélites para determinar
una posición. Los satélites emiten continuamente información sobre su tiempo
propio (medido con un reloj atómico a bordo) y su posición respecto al centro del
elipsoide terrestre, información que el receptor utiliza para llevar a cabo el cálculo
de sus coordenadas.

IMU (inertial measurement unit) Dispositivo electrónico que mide las variaciones en
el movimiento y orientación de un vehículo en el que se halla. En teledetección se
emplea en las plataformas aerotransportadas para conocer con precisión su orien-
tación y compensar así los movimientos de guiñada, alabeo y cabeceo que puede
sufrir. También se utiliza para mejorar la precisión de la medida de la posición de
estas plataformas dada por el sistema GPS.

LiDAR (light detection and ranging) Método de medida remota de distancias basado
en el “tiempo de vuelo” de un rayo de luz emitido y reflejado en una superficie.
En teledetección se emplea para construir modelos de elevación. Se suele emplear
desde plataformas aerotransportadas, desde las que se envían rayos de luz láser
(roja o infrarroja cercana, para elevación del terreno, o también verde, para ba-
timetrías) en direcciones precisas (compensando los movimientos del avión). La
distancia al terreno a lo largo de cada rayo se calcula a partir del tiempo que se
tarda en detectar la luz reflejada.

metadatos Conjunto de información que acompaña a una imagen (o cualquier producto


informático) y que aporta una descripción de ésta: del modo, fecha o lugar en que
fue adquirida, de lo que representa, etc.

meteorológico (sensor) Dedicado al estudio de la composición y dinámica de la atmós-


fera. Los sensores meteorológicos se hallan a bordo de satélites, casi siempre, para
misiones específicas de meteorología (razón por la que se suelen nombrar sus da-
tos por la misión, en vez de por el tipo de sensor: por ejemplo, imágenes Meteosat,
en vez de imágenes del sensor SEVIRI). Dado que la atmósfera es muy transpa-

77
C UESTIONES DE TELEDETECCIÓN

rente a las longitudes de onda visibles, la mayoría de las bandas de interés de estos
satélites se encuentran en el infrarrojo de onda corta y en el térmico.

órbita ecuatorial Órbita contenida en el mismo plano que el ecuador. Un caso particu-
lar de estas órbitas son las geoestacionarias.

órbita geoestacionaria Órbita ecuatorial en la que un satélite se observa, relativo a un


punto fijo de la superficie terrestre, siempre en la misma posición. Es decir, es
una órbita ecuatorial, prácticamente circular, cuyo período orbital coincide con
el período de rotación de la Tierra. La distancia a la que se hallan las órbitas
geoestacionarias respecto al centro de la Tierra es de 42164 km (esto es, 35786
km sobre la superficie en el ecuador).

órbita polar Órbita contenida en un plano perpendicular (o aproximadamente perpen-


dicular) al del ecuador terrestre. Un satélite que describe una órbita polar corta el
plano del ecuador dos veces por órbita: una ascendiendo (desde el hemisferio sur
hacia el norte) y otra descendiendo (desde el hemisferio norte hacia el sur): estos
se llaman pasos (o nodos) ascendente y descendente de la órbita, respectivamente.

plataforma Vehículo que transporta un sensor y que determina el punto de vista (su
distancia a los objetos de estudio) y el tiempo de visita de éste.

proyección Representación sobre un plano de una realidad tridimensional. En carto-


grafía se refiere al procedimiento geométrico para representar sobre un plano (el
mapa) las coordenadas de los puntos de la superficie terrestre (que es curva). Da-
do que es imposible una representación exacta de una superficie curva sobre una
plana, las proyecciones cartográficas buscan conservar distancias, ángulo o áreas,
pero no pueden conservar las tres simultáneamente.

ortofotografía Fotografía corregida geométricamente para eliminar las distorsiones geo-


métricas introducidas por la orografía del terreno. Para realizar esta corrección es
necesario disponer de un modelo digital del terreno.

segmento de tierra (de una misión espacial) Conjunto de instalaciones y protocolos


para controlar el o los satélites de una misión espacial, en particular, determinar la
posición del satélite (telemetría), enviar instrucciones (control) y recibir la infor-
mación registrada por los diferentes sensores a bordo de él.

UAV (unmanned aerial vehicle) Vehículo aéreo pequeño, habitualmente teledirigido (es
decir, no transporta al piloto), capaz de transportar un sensor que adquiera imáge-
nes de un campo de estudio reducido. Se emplean cada vez más para estudios que

78
P UNTOS DE VISTA . P LATAFORMAS

resultarían costosos desde aviones y que requieren más resolución de la que pue-
de proporcionar un sensor satelital. Coloquialmente se llaman “drones”, por su
propulsión por hélices.

1.5. BIBLIOGRAFÍA

D. Anguelov, C. Dulong, D. Filip, C. Frueh, S. Lafon, R. Lyon, A. Ogale, L.


Vincent, J. Weaver (2010). “Google Street View: Capturing the World at Street
Level”. Computer, 43(6): 32-38.

I. Colomina, P. Molina (2014). “Unmanned aerial systems for photogrammetry


and remote sensing: A review”. ISPRS Journal of Photogrammetry and Remote
Sensing, 92: 79–97.

A. C. Clarke (1945). “Extra-Terrestrial Relays — Can Rocket Stations Give World-


wide Radio coverage?”. Wireless World, 51(10): 305-308.

D. Graham-Rowe (2011). “A New Direction for Digital Compasses”. MIT Tech-


nology Review.
URL: http://www.technologyreview.com/news/424678/a-new-direction-for-digital
-compasses/4

IGN & UPM-LatinGEO (2014). “Conceptos cartográficos”. Instituto Geográfico


Nacional.
URL: http://www.ign.es/ign/resources/cartografiaEnsenanza/conceptosCarto/ des-
cargas/Conceptos_Cartograficos_def.pdf

S. Joo, J. Eyre, R. Marriott (2012). “The impact of Metop and other satellite da-
ta within the Met Office global NWP system using an adjoint-based sensitivity
method”. MetOffice, Technical Report no. 562.

K Deilami, M. Hashim (2011). “Very high resolution optical satellites for DEM
generation: a review”. European Journal of Scientific Research, 49(4), pp. 542-
554.

T. Malik (2012). “Mysteriously Silent Satellite Spotted in Orbit”. Space.com.


URL: http://www.space.com/15369-mysteriously-silent-envisat-satellite-space-ph
otos.html

79
C UESTIONES DE TELEDETECCIÓN

M. Sun, N. Dong, H. Zheng, C. Jiang, X. Ren (2013). “A method of 3D-GIS ap-


plication aided with stereo panorama technology”. ISPRS - International Archives
of the Photogrammetry, Remote Sensing and Spatial Information Sciences, XL-
4/W3: 123-130.

Webgrafía (accesible el 1/05/2015)

The original DSLR camera simulator.


URL: http://camerasim.com/camera-simulator/
Simulador del funcionamiento de una cámara fotográfica que aclara conceptos
como distancia focal, sensibilidad y exposición, entre otros.

Space in images 2012-09 — MetOp-B first data.


URL: http://www.esa.int/Our_Activities/Observing_the_Earth/Metop-B_delivers_
first_data_from_polar_orbit
Noticia sobre la puesta en órbita y la recepción de los primeros datos desde el
MetOp-B en 2012.

ESA Space Debris Office.


URL: http://www.esa.int/Our_Activities/Operations/Ground_Systems_Engineering/
ESA_Space_Debris_Office
Oficina de la ESA dedicada al control de la basura espacial.

ESA EO Missions — Earth Online — ESA.


URL: http://earth.esa.int/web/guest/missions/esa-operational-eo-missions
Lista de las misiones de la ESA para observación de la Tierra, pasadas y actuales.

ESA Future Missions — Earth Online — ESA.


URL: http://earth.esa.int/web/guest/missions/esa-future-missions
Lista de las futuras misiones de la ESA para observación de la Tierra que se hallan
todavía en planificación o diseño.

ESA 3rd Party Missions Overview — Earth Online — ESA.


URL: http://earth.esa.int/web/guest/missions/3rd-party-missions/overview
Lista de las misiones de organismos públicos o empresas privadas a lo largo del
mundo con los que la ESA ha establecido acuerdos para compartir datos.

80
P UNTOS DE VISTA . P LATAFORMAS

Meteosat — EUMETSAT.
URL: http://www.eumetsat.int/website/home/Satellites/CurrentSatellites/Meteosat/
Página dedicada a los satélites meteorológicos Meteosat, tanto de la primera como
de la segunda generación, y a algunas de sus aplicaciones (detección de tormentas,
de nubes volcánicas, de formación de nieblas, etc.).
MetOp — EUMETSAT.
URL: http://www.eumetsat.int/website/home/Satellites/CurrentSatellites/Metop/
Página dedicada a los satélites MetOp y a los sensores que portan para el estudio de
la composición y propiedades de la atmósfera (IASI, ASCAT, GOME-2 y GRAS).
Satellite Orbits — EUMETSAT.
URL: http://www.eumetsat.int/website/home/Satellites/LaunchesandOrbits/Satellite
Orbits/index.html
Explicación gráfica de los tipos de órbitas (geoestacionarias y polares bajas) em-
pleadas por los satélites meteorológicos actuales.
EUMETSAT IPPS animation — Meteosat 0 degree.
URL: http://oiswww.eumetsat.org/IPPS/html/MSG/
Visor de imágenes del sensor SEVIRI a bordo de los satélites Meteosat (canales
VIS0.6, IR3.9, IR10.8 y WV6.2) en tiempo casi real.
EUMETSAT IPPS animation — Metop.
URL: http://oiswww.eumetsat.org/IPPS/html/METOP/IMAGERY/
Visor de imágenes de MetOp (canales VIS0.6 e IR10.8) en tiempo casi real.
Geophotopedia de la Biblioteca de Geografía de la US.
URL: http://www.flickr.com/groups/geophotopedia/
Grupo de Flickr puesto en marcha por investigadores del departamento de Geo-
grafía Física y Análisis Geográfico Regional de la Universidad de Sevilla para
compartir fotografías etiquetadas geográficamente.
Fototeca Digital — Instituto Geográfico Nacional.
URL: http://www.fototeca.cnig.es/
Visor de mapas del Centro Nacional de Información Geográfica del IGN que per-
mite explorar la información de varios vuelos fotogramétricos sobre el territorio
español, desde 1924 hasta la actualidad.

81
C UESTIONES DE TELEDETECCIÓN

Plan Nacional de Ortofotografía Aérea — IGN.


URL: http://pnoa.ign.es/
Descripción del PNOA y acceso a sus datos (para un visor, véase la Fototeca
Digital)
NASA Orbital Debris Program Office.
URL: http://orbitaldebris.jsc.nasa.gov/
Página del programa de la NASA para el seguimiento de la basura espacial.
MGDS: GMRT Data Portal.
URL: http://www.marine-geo.org/portals/gmrt/
Portal que recoge datos de topografía submarina aportados por diferentes institu-
ciones de investigación a lo largo del mundo.
MODIS Website — NASA.
URL: http://modis.gsfc.nasa.gov/
Información sobre los instrumentos MODIS (a bordo de los satélites Terra y Aqua)
de la NASA y los datos que adquieren y los productos que se calculan a partir de
ellos.
NASA — Direct Readout Laboratory.
URL: http://directreadout.sci.gsfc.nasa.gov/
Portal de la NASA que permite el acceso a los datos MODIS en tiempo casi real.
También proporciona una serie de herramientas para procesar estos datos.
Shuttle Radar Topography Mission.
URL: http://www2.jpl.nasa.gov/srtm/
Página del Jet Propulsion Laboratory de la NASA sobre la misión SRTM llevada a
cabo en el año 2000 y cuyos datos han sido procesados y mejorados para generar
el modelo digital del terreno más preciso de la Tierra. Desde el portal, también se
puede acceder a los datos en diferentes formatos.
ASTER Global Digital Elevation Map — NASA.
URL: http://asterweb.jpl.nasa.gov/gdem.asp
Página del Jet Propulsion Laboratory de la NASA sobre el modelo digital de ele-
vación GDEM obtenido a partir de imágenes ASTER a partir de medidas este-
reoscópicas utilizando la capacidad multiangular de este sensor. Desde el portal,
también se indica cómo acceder a los datos en diferentes formatos.

82
P UNTOS DE VISTA . P LATAFORMAS

Bathymetric Data Viewer — NOAA.


URL: http://maps.ngdc.noaa.gov/viewers/bathymetry/
Visor de la NOAA que muestra datos de topografía submarina aportados por dife-
rentes instituciones de investigación a lo largo del mundo.

Space Weather Prediction Center — NOAA.


URL: http://www.swpc.noaa.gov/
Centro de predicción del “tiempo espacial” de la NOAA, dedicado al seguimien-
to de la actividad solar, responsable de fenómenos como las auroras boreales, y
que puede tener impacto en los sitemas de comunicaciones, o de transporte de la
energía eléctrica, o en el clima global.

HUGIN — Panorama Photo Stitcher.


URL: http://hugin.sourceforge.net/
Programa de código abierto que permite construir panoramas “cosiendo” múlti-
ples imágenes tomadas desde una misma posición.

GRACE: Gravity Recovery and Climate Experiment.


URL: http://www.csr.utexas.edu/grace/
Página de la misión GRACE de la NASA y la agencia espacial alemana (DLR)
para la medida precisa del campo gravitatorio terrestre.

Satélite de órbita polar — Youtube.


URL: http://www.youtube.com/watch?v=XY5wHSTqIyU
Vídeo del World Geographic Channel que ilustra cómo barre la superficie terrestre
el swath bajo un satélite que describe una órbita polar.

83
Tema 2

Métodos de medida

GUION-ESQUEMA

El proceso de medida

Medidas geométricas

Medidas radiométricas: ópticas

Otras medidas: térmicas, radar


M ÉTODOS DE MEDIDA

2.1. INTRODUCCIÓN

Este tema trata de las formas de medir remotamente, tanto de los conceptos físicos
involucrados como de los instrumentos empleados. Comienza con un repaso a qué es
un proceso de medida y de qué forma se asigna un valor numérico a una magnitud; en
particular se trata el importante tema de la calibración de una medida y del origen y
tratamiento de los errores asociados a ella.
Las medidas más sencillas son las geométricas (distancias y ángulos); estas medi-
das geométricas permiten, por ejemplo, la generación de modelos digitales de terreno a
partir de pares estereoscópicos de imágenes ópticas. Las medidas de radiometría ópti-
ca, por ejemplo, permiten determinar la composición de una cubierta basándose en los
pigmentos de la misma que absorben la luz solar. En un sensor se divide la luz en sus
componentes (en “colores”) mediante un analizador y posteriormente se cuantifica la
cantidad de luz en cada uno. Los instrumentos para registrar estas medidas han evolu-
cionado desde las primitivas películas fotográficas a los últimos sensores CCD y CMOS.
Otros tipos de sensores emplean otros rangos del espectro electromagnético (diferentes
del rango óptico) para realizar otras medidas: temperatura, distancia, etc.

2.2. CUESTIONES

1. La diferencia entre el valor proporcionado por una medida y el valor verdadero de


lo que se quiere medir se llama error. Por lo general, no se puede determinar: si no,
podríamos conocer ese valor real. Lo que sí se puede estimar es la incertidumbre:
el intervalo de valores alrededor del resultado de nuestra medida en el que estamos
muy seguros de que se halla el valor real. Cuando se mide el tamaño de un objeto
en una fotografía, ¿de qué NO depende esta incertidumbre?

a) de la distancia al objeto
b) del tamaño de la imagen
c) de la focal de la cámara
d) del tamaño del objeto

87
C UESTIONES DE TELEDETECCIÓN

2. Toda medida con un sistema digital (desde una cámara fotográfica moderna, hasta
un sensor en un satélite) consiste en una serie de valores o niveles digitales (DN,
digital number) que el sensor asigna a cada punto de la imagen; los puntos de la
imagen también son discretos, se llaman píxeles (picture element). ¿Qué guardan,
realmente los valores asignados a estos píxeles?

a) números decimales con el valor de la energía captada por un sensor que ve


la escena dentro de cada píxel (en unidades del S.I.)
b) números enteros que equivalen al nivel de excitación de un componente elec-
trónico
c) series de ceros y unos que un programa informático interpreta como valores
energéticos
d) números enteros que cuentan la cantidad de fotones que llegan a cada detec-
tor del sensor

3. En teledetección muchos productos derivados (mapas temáticos, concentración de


pigmentos en aguas o de aerosoles en la atmósfera, temperatura superficial, etc.)
se obtienen aplicando ciertos algoritmos matemáticos a los niveles digitales de las
imágenes proporcionadas por un sensor. Se habla muchas veces de “calibrar un
algoritmo” para obtener valores precisos de esos productos. ¿A qué se refiere esta
expresión?

a) a la calibración radiométrica de las bandas del sensor que se necesitan para


aplicar ese algoritmo
b) a la calibración de determinados coeficientes que entran en la expresión del
algoritmo y que dependen del diseño de cada sensor
c) a la calibración de los resultados proporcionados por el algoritmo con los
valores reales medidos sobre el terreno
d) a la calibración de los resultados proporcionados por el algoritmo para que
muestren las propiedades cualitativas determinadas por los expertos

4. A diferencia de una cámara fotográfica, que adquiere toda la escena fotografiada


simultáneamente (integrando la luz que llega al chip CCD mientras está el obtu-
rador abierto), los sensores en los satélites adquieren las imágenes línea a línea o,
incluso, píxel a píxel, según se van desplazando sobre la superficie terrestre. En
2003, el sensor ETM+ del Landsat 7 sufrió un fallo en el mecanismo de control del
espejo oscilante que barría la escena bajo él, enfocando la luz sobre los detectores.
¿Cómo afectó esto a las imágenes que adquirió el Landsat 7 desde entonces?

88
M ÉTODOS DE MEDIDA

a) se perdían líneas
b) se perdían píxeles
c) las líneas se veían curvadas
d) las líneas se veían separadas en los bordes de la imagen

5. Las imágenes tomadas desde un sensor a bordo de un satélite se adquieren en


condiciones muy controladas: la posición y orientación del sensor se conocen con
mucha precisión. Esto permite georreferenciar las imágenes de manera automática
(lo que se llama nivel de procesamiento L1). ¿Es suficiente esta georreferenciación
para llevar a cabo medidas geométricas sobre la imagen?

a) sí, porque es una georreferenciación exacta respecto al elipsoide de referen-


cia
b) sí, porque esa georreferenciación manual se hace para añadir información
del relieve (es una ortorrectificación)
c) no, si se quieren medir distancias o áreas con precisión inferior al píxel
d) no, si se quiere comparar la imagen con otras de distinta fecha o sensor

6. Las medidas de un sensor multiespectral vienen limitadas por su diseño que deter-
mina sus resoluciones espacial, radiométrica y espectral. Pero estas resoluciones
no son totalmente independientes. Lograr una mayor resolución espectral, ¿cómo
suele afectar a las otras dos resoluciones?

a) requiere aumentar la radiométrica y disminuir la espacial


b) requiere disminuir la radiométrica y aumentar la espacial
c) requiere aumentar ambas
d) requiere disminuir ambas

7. El sensor HRV de los SPOT proporciona imágenes pancromáticas con tamaño de


píxel de 2.5 metros y 10 bits de profundidad, mientras que en sus tres bandas de
color, proporciona imágenes de 10 metros y 10 bits de profundidad. ¿Qué nos dice
esto sobre lo que se puede diferenciar en una imagen SPOT?

a) que se distinguirán bien dos objetos siempre que tengan un tamaño mayor a
2.5 metros
b) que se distinguirán bien dos objetos siempre que tengan un tamaño mayor a
10 metros

89
C UESTIONES DE TELEDETECCIÓN

c) que una imagen de la banda pancromática proporciona la misma cantidad de


información que las bandas de color
d) no indica nada sobre lo que se puede diferenciar en la imagen, porque ello
depende de las condiciones de iluminación

8. Un sensor multiespectral o hiperespectral contiene un elemento, el analizador, que


separa unas longitudes de onda de otras. Un analizador funciona como un prisma
que separa las longitudes de onda desviándolas en direcciones diferentes hacia los
diferentes detectores. En un sensor hiperespectral, que analiza muchas (más de 20)
longitudes de onda simultáneamente, ¿en qué dirección, respecto a la de avance
del sensor, debe dispersar la luz el analizador?

a) paralelamente
b) perpendicularmente, paralelamente a la dirección de barrido
c) perpendicularmente, perpendicularmente también a la superficie de la Tierra
d) es indistinto, porque al utilizarse un espejo para barrer la escena, la dirección
puede ser arbitraria

9. La vegetación (especialmente las hojas verdes), debido a su contenido en clorofila


y otros pigmentos, absorbe radiación solar en el rojo y en el azul y, debido a su
estructura celular, refleja en el infrarrojo cercano. Para estudiar el estado de la
vegetación, un sensor debe tener como mínimo:

a) una banda en el azul, una en el rojo y una en el infrarrojo


b) una banda en el verde, una en el rojo y una en el infrarrojo
c) una banda en el verde y una en el infrarrojo
d) basta una banda en el verde.

10. Los sensores activos, como el radar, emplean una técnica semejante a la que usan
los murciélagos para orientarse en la oscuridad: emiten señales y escuchan sus
ecos. Pero, ¿qué tipo de señales usa un radar?

a) pulsos de ondas de ultrasonidos


b) pulsos de microondas
c) pulsos de luz láser
d) ondas como las de la radio

90
M ÉTODOS DE MEDIDA

2.3. RESPUESTAS A LAS CUESTIONES

1. La diferencia entre el valor proporcionado por una medida y el valor


verdadero de lo que se quiere medir se llama error. Por lo general, no se puede
determinar: si no, podríamos conocer ese valor real. Lo que sí se puede estimar
es la incertidumbre: el intervalo de valores alrededor del resultado de nuestra
medida en el que estamos muy seguros de que se halla el valor real. Cuando se
mide el tamaño de un objeto en una fotografía, ¿de qué NO depende esta
incertidumbre?

Respuesta: (d) El error de una medida está, por lo general, asociado al instrumento y
al proceso de medida. En el caso de una fotografía, en el proceso de formación
de la imagen intervienen (en orden de recorrido del haz de luz) la distancia al
objeto, la focal de la cámara y el tamaño del elemento sensible de la cámara, que
determina el tamaño físico de la imagen. Pero, también, influye el otro tamaño de
la imagen: medido en número de detectores (celdas del CCD, por ejemplo). Lo que
no influye en esta incertidumbre es el tamaño del objeto medido: la incertidumbre
se refiere a la medida de cualquier longitud a la distancia a la que se halla el
objeto (visto desde la cámara que lo fotografía) por lo que las características del
objeto en sí no son relevantes.

Medir es asignar un valor numérico a una magnitud característica de un objeto observa-


do. Esta medida se puede hacer de varias formas: por comparación directa con un patrón,
por interacción con el objeto, o de manera indirecta midiendo otras magnitudes que están
asociadas a la que queremos medir.
El primer caso de comparación directa es, evidentemente, la medida que realizamos
con una regla: comparamos la longitud conocida de la escala de ésta, con la longitud
del objeto que queremos medir gracias a poder colocar muy próximamente una de otra.
En teledetección o en fotografía esta comparación directa la haríamos comparando una
distancia conocida sobre la imagen con otra distancia visible en la misma imagen; por
supuesto, suponiendo que no hay distorsiones geométricas apreciables. Lo mismo sucede
cuando medimos con una regla: asumimos que está colocada paralelamente a la línea
cuya longitud queremos medir y que no estamos cometiendo errores de paralaje (por
no estar la regla y el objeto exactamente en el mismo plano). La incertidumbre que
tenemos en una medida de este tipo es igual a la fracción más pequeña que podemos
determinar de longitud. En el caso de la regla, el milímetro, que es la menor subdivisión
de nuestra escala; en el caso de una imagen digital, el píxel. No se puede determinar
una distancia con absoluta seguridad que dos puntos se hallan a una distancia inferior

91
C UESTIONES DE TELEDETECCIÓN

a un milímetro, en el primer caso, o a un píxel, en el segundo. Este límite se llama la


precisión de la medida y es la estimación más simple de la incertidumbre que describe
el error instrumental de medida.
En el caso de interactuar con el objeto, la medida depende de que conozcamos la
ley de interacción, y de lo constante que ésta permanezca con el tiempo. Pensemos en
la medida de un peso con un dinamómetro (un muelle, de cuya elongación estimamos
el peso): la precisión de la medida volverá a depender de la escala graduada (esta vez
en milésimas de Newton, por ejemplo). Pero a la incertidumbre se le sumará nuestro
desconocimiento de los otros dos factores en juego: la aceleración de la gravedad (que
no es exactamente la misma en todos los puntos del planeta) y la rigidez del muelle (que
depende, a su vez, de la temperatura, del envejecimiento del material, etc.). Errores de
un 1 % en los valores de esos factores, repercutirán en errores del 1 % en los valores de
la fuerza determinada; por lo tanto, se suman a la incertidumbre. Para reducir esta incer-
tidumbre, se calibra el instrumento: se toman pesas patrón y se comprueba la elongación
que produce cada una de ellas en el muelle; así se puede adaptar la escala a las condi-
ciones particulares de medida. La calibración corrige una componente sistemática del
error, reduciendo la incertidumbre. En teledetección, situaciones análogas suceden con
las imágenes: la intensidad de luz (u otra radiación electromagnética) procedente de un
punto observado, se mide por comparación con la carga o el voltaje acumulados en un
detector iluminado por el sistema óptico. Esta carga o voltaje se debe convertir en inten-
sidad radiante mediante una calibración. Igual que en el caso del muelle, esta calibración
se debe realizar cada cierto tiempo porque, como en el muelle, el material semiconductor
de los detectores también envejece, variando sus constantes de calibración.
Las medidas indirectas son las más habituales en teledetección. Están relacionadas
con las anteriores, pero con muchas más interacciones y muchas más incógnitas. En la
vida cotidiana no solemos hacer este tipo de medidas de forma consciente, pero sí in-
consciente: a partir de una serie de indicios, basándonos en nuestra experiencia, podemos
estimar la sensación térmica de bañarnos en el mar a partir del color del agua: un azul
oscuro, suele indicar más frío (debido a que soplará viento); un azul más claro, indicará
una temperatura agradable; un gris claro, en un día nublado o casi nublado, puede indicar
una temperatura agradable (por comparación con la del ambiente), pero si es gris oscu-
ro, no (posiblemente el viento disminuya esta sensación térmica). En teledetección se
relacionan cambios en las imágenes con nuestro conocimiento acerca de los objetos en
ellas; por ejemplo, sabemos que el color del agua del mar cerca de la costa en una esce-
na de satélite dependerá de la profundidad. Existen modelos matemáticos que relacionan
ambas magnitudes, pero son muy complejos e involucran muchos factores desconocidos
(que no siempre se pueden medir simultáneamente a la imagen). Por ello se procede de

92
M ÉTODOS DE MEDIDA

ΔL

Altura maxima estimada

Δa
Δ H : incertidumbre Δf
Altura minima estimada

Figura 2.1. Modelo geométrico de la determinación de longitudes a distancia partir de imágenes y su


incertidumbre. La incertidumbre en la focal, Δ f , o en la distancia estimada al objeto, ΔL, o en el tamaño
del píxel sobre el CCD, Δa, contribuyen a la incertidumbre resultante en el tamaño estimado del objeto ΔH.

una manera indirecta: se mide la profundidad en un número de puntos, se relaciona es-


tadísticamente con el color en la imagen del satélite y se infieren, a partir de esos pares
de puntos, los valores del modelo teórico, o un modelo ad hoc que describa la relación
entre ambas magnitudes. En este caso, la estimación de la profundidad a partir del color
del agua será una medida indirecta: estará afectada no sólo de los errores sistemáticos
que hayamos podido cometer (por ejemplo, al medir la profundidad sin tener en cuenta
la marea), o de los errores de precisión de las medidas directas (los errores radiométricos
a la hora de determinar el color del agua), sino también de los errores aleatorios debidos
a todas las circunstancias naturales que no hemos podido controlar (cambios en el color
del fondo, corrientes de agua, efecto del viento sobre la superficie, etc.).
Así pues, para volver sobre la pregunta, la incertidumbre en la medida del tamaño
de un objeto depende del tamaño del píxel en la imagen digital sobre la que se va a rea-
lizar la medida. Esta será, seguramente la principal contribución: el error instrumental.
Y este tamaño de píxel depende de la distancia al objeto, de la focal de la cámara, del
número de píxeles del detector y del tamaño del detector. Al menos, según la teoría y el
modelo geométrico más simple de formación de una imagen. Pero, en la realidad, nues-
tra incertidumbre será mayor: no conoceremos bien la distancia del objeto a la cámara
(la podremos haber estimado, a lo mejor, hasta los centímetros con un telémetro láser;

93
C UESTIONES DE TELEDETECCIÓN

o los metros, si usamos un GPS), tampoco conoceremos la focal de nuestra cámara con
exactitud (aunque las cabeceras EXIF la suelen guardar hasta las décimas de milímetro).
Por tanto, no sabremos exactamente a qué distancia equivale un píxel, nuestra unidad de
medida: éste es nuestro error sistemático. Por otra parte, si el tamaño de nuestro objeto
depende de otras condiciones que nos pueden hacer verlo más grande o más pequeño
(pensemos en ráfagas de viento que doblan un árbol), tendremos una incertidumbre de-
bida a nuestro error aleatorio.

2. Toda medida con un sistema digital (desde una cámara fotográfica moderna,
hasta un sensor en un satélite) consiste en una serie de valores o niveles
digitales (DN, digital number) que el sensor asigna a cada punto de la imagen;
los puntos de la imagen también son discretos, se llaman píxeles (picture
element). ¿Qué guardan, realmente los valores asignados a estos píxeles?

Respuesta: (b) Los niveles digitales son números enteros que registra el sensor cuanti-
ficando el nivel de excitación de cada uno de sus detectores. Están relacionados
con este nivel de excitación y, por lo tanto, con la señal que excitó el detector. No
obstante, la forma concreta de esta relación puede variar en el tiempo.

Un detector de un sensor almacena la energía que recibe durante un tiempo dado. Esta
energía suele ser energía electromagnética, y excita los electrones en un material despla-
zándolos o aumentando su energía. Estos cambios electrónicos se producen durante el
tiempo que la onda electromagnética está incidiendo sobre el detector o el tiempo que
se prefije: el tiempo de integración. Por ejemplo, en el CCD de una cámara fotográfica
(o en el CCD de un sensor remoto como el HRG del SPOT) la luz hace que se acumulen
en cada “pozo” del CCD (un píxel en la imagen) electrones; más cuanta más energía
electromagnética incida en él. Después del tiempo de obturación de la cámara (o el lla-
mado tiempo de “readout” del HRG) se descarga esta carga eléctrica, para poder volver
a cargar la siguiente fotografía o línea. Al descargarla, según se vacían los electrones,
se usan para incrementar un contador, que da un número proporcional a la carga que
había y, por lo tanto, a la cantidad de energía electromagnética recibida en el píxel. Este
contador se pone a cero antes de comenzar a leer un píxel y su valor se guarda en una
memoria electrónica al terminar de leerlo.
La carga eléctrica que se acumula en un pozo del CCD depende de varios factores.
El principal es el material de que está hecho: distintos materiales son más o menos
sensibles a la luz de diferentes longitudes de onda (de diferentes colores). Por ejemplo,
los CCD más usados en las cámaras fotográficas son de silicio, que es sensible a la luz

94
M ÉTODOS DE MEDIDA

ultravioleta y a la visible, pero menos a la luz infrarroja. Para tener detectores sensibles
al infrarrojo, se utilizan semiconductores de arseniuro de galio, que es más sensible a
esas longitudes de onda: produce más electrones por cada fotón recibido. Los valores
numéricos que dan los contadores, por lo tanto, dependerán de esta eficiencia de los
materiales del CCD. Además, los dispositivos electrónicos envejecen, sobre todo, debido
a las variaciones de la temperatura, ; esto hace que varíen ligeramente las propiedades del
material semiconductor. Por lo tanto, la relación entre energía recibida y carga eléctrica
acumulada no se mantendrá constante a lo largo de la vida del sensor.
La consecuencia más importante de que en los píxeles de una imagen se guarden
valores digitales (números enteros) relacionados con aquello que se quiere medir (la
cantidad de energía de la luz que llega al detector) es que introduce un error instrumental
en la medida. Lo más habitual en los sensores ópticos (los que captan luz visible o
infrarroja) es que la relación entre la energía captada y el DN sea de la forma

L = a DN + b

Aquí L es la radiancia, la energía recogida en el detector dividida por su área y por el


ángulo de visión que le corresponde; pero, en cualquier caso, una energía. Los valores
de las constantes a y b los proporcionan los fabricantes de los sensores y los actualizan
periódicamente. Que el valor de DN sólo pueda aumentar de unidad en unidad, quiere
decir que el valor de L estará determinado hasta una cantidad ±a. Esta cantidad se llama
resolución radiométrica del detector, la menor cantidad de energía radiante que puede
diferenciar. Para que esta incertidumbre sea más pequeña, se deben utilizar contadores
que se incrementen en pasos menores. Esto es, que en lugar de poder contar hasta un
cierto valor, puedan contar hasta un valor mucho mayor: esto lo determina el número
de bits del contador. Un contador de B bits, puede albergar 2B valores posibles. Por
ejemplo, el sensor ETM+ del Landsat 7 tenía 8 bits, es decir, que podía codificar 28 = 256
niveles digitales. El HRG del SPOT-5, tiene 10 bits, es decir, puede codificar 210 =
1024 valores distintos de radiancia: para el mismo rango de energías, proporciona una
precisión de medida 4 veces mayor que el ETM+. El nuevo OLI del Landsat 8, 12 bits,
es decir, 8 veces más DN que el ETM+. Como todas las cosas, la precisión no se puede
aumentar indefinidamente, ni sin pagar costes: mayor número de bits suele significar
mayor sensibilidad al ruido electrónico (excepto mejora en la tecnología, como sucede
con el OLI), eso sin contar el mayor tamaño de las imágenes que hay que descargar.

95
C UESTIONES DE TELEDETECCIÓN

3. En teledetección muchos productos derivados (mapas temáticos, concentración


de pigmentos en aguas o de aerosoles en la atmósfera, temperatura superficial,
etc.) se obtienen aplicando ciertos algoritmos matemáticos a los niveles
digitales de las imágenes proporcionadas por un sensor. Se habla muchas veces
de “calibrar un algoritmo” para obtener valores precisos de esos productos. ¿A
qué se refiere esta expresión?

Respuesta: (c) Los algoritmos usados para derivar productos en teledetección suelen
usar medidas indirectas de las propiedades que caracterizan, basadas en cómo la
luz (la radiación electromagnética) interactúa con la materia. Estas interacciones
son muy complejas, por lo que los algoritmos se calibran con medidas in situ: este
proceso permite estimar coeficientes del algoritmo que son muy variables o que
no se pueden medir directamente.

Cuando se diseña un sensor, se hace con un propósito dado. Este diseño conlleva la elec-
ción de las bandas espectrales, de su resolución radiométrica, de su resolución espacial,
de la órbita de su satélite y su tiempo de revisita, etc. Por ejemplo, las bandas espectra-
les, esto es, los colores que distinguirá el sensor (entendiendo por colores no sólo los que
percibimos como tales sino, en general, intervalos del espectro electromagnético, como
el infrarrojo), dependen de la clase de cubiertas naturales que se quieran estudiar con él.
Un sensor oceanográfico, por ejemplo, estará interesado en bandas del espectro visible
en las que reflejen la luz los pigmentos de las algas microscópicas del fitoplancton: estas
bandas son mucho más estrechas (en torno a las decenas de nanómetros) que las tres que
nosotros percibimos con nuestros ojos (de casi un centenar de nanómetros cada una).
Los sensores meteorológicos, por otro lado, se diseñan para determinar la temperatura
y composición de la atmósfera a diferentes alturas; por ello se deben escoger bandas en
las que emitan o absorban los gases de la atmósfera, como el dióxido de carbono o el
agua, y que estén relacionadas con sus temperaturas: por ello trabajan, la mayor parte,
en el infrarrojo (medio y térmico). En todos los casos, los detectores de estas bandas
proporcionan unos valores digitales que permiten calcular la radiancia que llega a ellos
utilizando unos coeficientes que se obtienen por calibración del instrumento de medida
(como se explicó en la cuestión anterior). Pero esta calibración de los valores digitales
a radiancia es sólo uno de los primeros pasos para aplicar los algoritmos que llevan al
producto de teledetección.
Una vez se conoce la radiancia que llega al sensor (es decir, la radiancia fuera de la
atmósfera o TOA, top of the atmosphere), es necesario corregir ésta para conocer cómo
los cuerpos afectan a la radiación que reciben (las características de la radiación reci-
bida o de la reflejada no suelen ser de interés en sí mismas, pero deben conocerse para

96
M ÉTODOS DE MEDIDA

inferir las propiedades de los cuerpos con los que interactúan). Se hacen ciertas hipó-
tesis acerca de cuál es la radiación solar que llega al planeta en cada longitud de onda
(algunas misiones como la SORCE de la NASA se han dedicado a medir su variación a
lo largo del tiempo) y sobre cómo es ésta absorbida o dispersada en la atmósfera (tanto
al bajar hacia la superficie observada, downwelling, como al ascender de nuevo hacia
el sensor, upwelling). El proceso mediante el que corregimos la radiancia recibida en
el sensor para intentar “eliminar” el efecto de la atmósfera se llama corrección atmos-
férica. Una vez realizada, lo que queda es determinar cómo ha modificado la materia
esa luz: absorbiendo una parte, reflejando otra, emitiendo otra (por emisión térmica, útil
para determinar la temperatura del cuerpo, o por fluorescencia, útil para determinar la
presencia del compuesto fluorescente, por ejemplo, la clorofila-a).
Para determinar indirectamente, a partir de la luz reflejada o emitida por un cuerpo,
otras propiedades (la temperatura, la composición, la intensidad y dirección del viento,
la altura, la gravedad, la actividad fotosintética, etc.), es necesario establecer modelos
que relacionen ambas. Estos modelos físicos describen todos los procesos que hay que
tener en cuenta. Por ejemplo, para determinar la relación entre la radiancia emitida por
un cuerpo en el infrarrojo térmico y su temperatura, existen los modelos (o leyes) de
Kirchoff y de Planck; estos modelos contienen parámetros que pueden ser constantes
de la naturaleza o propiedades que dependen del tipo de material. Es necesario cono-
cer ambos. Otro ejemplo sería la medida de la concentración de clorofila: se conocen
los modelos (leyes) de Lambert-Beer que relacionan absorción, profundidad y concen-
tración; sin embargo existen parámetros de estas leyes que se deben medir in situ para
optimizar y validar el cálculo. A estas medidas que permiten ajustar los parámetros de
los modelos para que los resultados de los algoritmos coincidan con los valores reales,
se llama calibración de los algoritmos. La ESA, por ejemplo, publica para cada producto
derivado de un sensor su documento de bases científico-técnicas del algoritmo (ATBD,
Algorithm technical basis document) donde se describen los métodos y los coeficientes
resultantes de la calibración.

97
C UESTIONES DE TELEDETECCIÓN

4. A diferencia de una cámara fotográfica, que adquiere toda la escena


fotografiada simultáneamente (integrando la luz que llega al chip CCD
mientras está el obturador abierto), los sensores en los satélites adquieren las
imágenes línea a línea o, incluso, píxel a píxel, según se van desplazando sobre
la superficie terrestre. En 2003, el sensor ETM+ del Landsat 7 sufrió un fallo en
el mecanismo de control del espejo oscilante que barría la escena bajo él,
enfocando la luz sobre los detectores. ¿Cómo afectó esto a las imágenes que
adquirió el Landsat 7 desde entonces?

Respuesta: (d) Las imágenes del Landsat 7, desde que falló el corrector de línea de
escaneo (SLC, scan line corrector) a finales de mayo de 2003, están formadas por
líneas de escaneo que se cruzan en el centro de la escena, pero que dejan huecos
(gaps) en los bordes de ésta.

Una imagen se construye gracias a un sistema óptico que enfoca la luz sobre los detecto-
res. En el caso de una cámara fotográfica, este sistema óptico son las lentes de la cámara
(que enfocan la luz sobre la película o el CCD) y su diafragma (el obturador) que blo-
quea o permite el paso de la luz. En el caso de un sensor remoto (óptico), la luz suele ser
enfocada por un telescopio (normalmente, un espejo cóncavo), separada en sus colores
fundamentales por un analizador (que funciona como un prisma que abre los rayos de luz
en un arco iris) y dirigida a los detectores con un espejo. Cualquier fallo en uno de estos
elementos o en el detector, dará lugar a una distorsión radiométrica, es decir, a un error
en la medida de la cantidad de luz recibida en un píxel de la imagen. Estas desviaciones
se muestran como pérdidas o bandeado en las líneas o errores en píxeles aleatorios.
La pérdida de píxeles es un defecto común en las cámaras fotográficas: al cabo de
un tiempo (años) de uso, algunos píxeles de la imagen se “queman”, es decir, el pozo
del CCD en donde se almacena la información de este píxel deja de funcionar correc-
tamente; el resultado es que, desde ese píxel, no se proporciona el color de la escena
fotografiada. Algunos sensores de los satélites muestran píxeles o líneas perdidas, debi-
do no a píxeles quemados, sino a errores en la sincronización del sistema de escaneo y el
de almacenamiento. Este problema se da, por ejemplo, en el sensor experimental CHRIS
a bordo del satélite (también experimental) PROBA de la ESA.
Los sensores a bordo de satélites han variado a lo largo de la historia. Las primeras
cámaras tomaban tres imágenes completas de cada escena a través de filtros de color;
de este tipo era el sensor vidicom (RBV) de los Landsat 1 al 3. En la actualidad, los
sensores a bordo de satélites de observación de la Tierra (que se mueven en órbitas
polares) aprovechan el desplazamiento de éstos para adquirir las imágenes línea a línea.

98
M ÉTODOS DE MEDIDA

s
ro
filt D
CC

Objeto

NIR
Rojo
Verde
Azul

Analizador

Detector
Enfoque

Figura 2.2. Partes de un sensor óptico: sistema de enfoque (lente, en una cámara; espejo, en un sensor de
espejo oscilante), analizador (filtros RGB en una cámara; prisma, rejilla de difracción o también filtros, en
un sensor multiespectral) y detector (matriz CCD, en una cámara; detectores CCD o CMOS en un sensor
multiespectral).

Esto tiene la ventaja de reducir el número de detectores, y por lo tanto, las diferencias de
calibración entre ellos, o dicho de otro modo, reduce las distorsiones radiométricas.
La primera forma de adquirir imágenes por líneas fue dirigir la luz de cada banda
espectral con un espejo oscilante (o rotatorio) hacia un único detector. Este escaneo o
barrido de la imagen da nombre a los sensores: sensores de barrido (whiskbroom scanner,
figura 2.3 izquierda). Éste es el tipo de sensores más frecuentes en la actualidad. Sin
embargo, el elemento mecánico que realiza el barrido plantea un problema: requiere un
control muy fino y una sincronización exacta con el sistema electrónico de adquisición
de datos, algo que, con el tiempo (la puesta en órbita, los cambios de temperatura, etc.),
se puede perder.
En el caso del ETM+ del Landsat 7, el error de sincronía con el mecanismo del
espejo del SLC producía que las líneas de escaneo se recorriesen en zig-zag “sobre el
terreno”: lo que sucedía es que no corregía el avance del Landsat sobre la superficie
de la Tierra, y ésta se movía bajo él mientras el escáner barría de un lado a otro en la
dirección perpendicular al “path”; la imagen salía “movida”. Por eso, el centro de las

99
C UESTIONES DE TELEDETECCIÓN

Escáner de barrido Escáner de empuje


e e
000000000
111111111
d d ción d d ón
Re111111111
000000000 Re acci
d111111111
000000000
c

Bandas del sensor


ifr a r s
111111111
000000000 dif ore
111111111
000000000 ect
t
nte res De
c ula 000000000
111111111
000000000
111111111 tecto or
bas 000000000
111111111 De ens

jo
ejo 000000000
111111111 el s

pe
Esp 000000000
111111111 sd

Es
a
000000000
111111111 Band
000000000
111111111
000000000
111111111
000000000
111111111

pejo
pejo

000000000
111111111

es
es

por el
por el

ada
ado

Escena Escena

enfoc
enfoc

avance avance

línea
píxel

del del
sensor sensor

Figura 2.3. Mecanismos de escaneo por barrido y por empuje.

imágenes se ve bien, pero no se ven bien los bordes de éstas (véase la figura 2.4). Es
decir, no se perdían totalmente las líneas, sino que hacía se produjesen huecos (gaps) en
los bordes de la imagen (allí donde el espejo da la vuelta para adquirir la siguiente línea
recorriéndola en sentido opuesto).
El espejo oscilante se elimina en los sensores de barrido por empuje (pushbroom
scanner, figura 2.3 derecha). En este caso, cada línea de la imagen es adquirida por
una línea de detectores según avanza el sensor por su órbita; la línea de detectores está
colocada perpendicularmente a la dirección de avance.
El tener diferentes detectores es la causa del bandeado de líneas, que es otra distor-
sión radiométrica común. Un sensor de barrido, como los TM o ETM+ del Landsat, usa
un mismo detector para adquirir muchos puntos de una imagen; en este caso particular,
cada una de sus bandas es escaneada por 16 detectores simultáneamente, es decir, cada
vez que el escáner barre de un lado a otro, el TM adquiere 16 líneas paralelas adya-
centes a la vez (32, en el caso de la banda pancromática del ETM+). Aunque durante
el proceso de fabricación y durante la calibración posterior se intenta que cada uno de
estos sensores sea idéntico a los otros 15, lo cierto es que son independientes y miden
independientemente. Ese patrón de diferencia es visible cada 16 líneas de las imágenes
Landsat, sobre todo, sobre zonas homogéneas como el agua del mar. En los sensores de
barrido por empuje, como el CHRIS, las diferencias de funcionamiento entre detectores
vecinos de la línea de detectores se manifiestan en un bandeo sobre las columnas de la
imagen. Este bandeo es fácil de ver y fácil de corregir, ya que no se mezclan los píxeles
de unos detectores con los de otros, como en el caso del Landsat.

100
M ÉTODOS DE MEDIDA

Figura 2.4. Efecto del mal funcionamiento del SLC del Landsat 7 en el borde de una escena.

Figura 2.5. Ejemplos de defectos en imágenes de TM (un sensor de barrido por espejo que adquiere varias
líneas simultáneamente, en este caso, sobre una escena acuática) y CHRIS/PROBA (un sensor de empuje
que adquiere cada línea simultáneamente, en este caso, sobre una escena con nubes).

5. Las imágenes tomadas desde un sensor a bordo de un satélite se adquieren en


condiciones muy controladas: la posición y orientación del sensor se conocen
con mucha precisión. Esto permite georreferenciar las imágenes de manera
automática (lo que se llama nivel de procesamiento L1). ¿Es suficiente esta
georreferenciación para llevar a cabo medidas geométricas sobre la imagen?

Respuesta: (d) La georreferenciación automática proporciona valores aproximados de


las posiciones correspondientes a los datos adquiridos por el sensor, basadas en el
conocimiento (aproximado) de su posición respecto a la Tierra. Cuando se quie-
ren hacer comparaciones entre dos imágenes, de forma que los píxeles de una
correspondan exactamente a los píxeles de la otra, es necesaria una corrección
ad hoc, normalmente, manual.

101
C UESTIONES DE TELEDETECCIÓN

La georreferenciación de las imágenes proyecta sobre un sistema de coordenadas aso-


ciado a la superficie terrestre los valores adquiridos por el sensor. Se basa en un cono-
cimiento bastante preciso de la posición del satélite en el momento de adquirir la ima-
gen. Este proceso de gorreferenciación de las imágenes, junto con otros tratamientos,
se denomina preprocesamiento de las imágenes de satélite. Para cada sensor existen un
conjunto de tratamientos a los que se someten sus datos “crudos” y que corrigen no sólo
las distorsiones geométricas de la imagen, sino también las radiométricas (desviaciones
de los valores de brillo respecto a los que deberían obtenerse), cromáticas (desviaciones
relacionadas con el color o los valores de las bandas espectrales) y eliminan el “ruido”.
Las distorsiones geométricas provocan deformaciones y traslaciones relativas en los
objetos que se observan en la imagen. Son las primeras que se corrigen porque son las
más sencillas, ya que basta con invertir estas transformaciones también geométricas. En
función de sus causas se pueden agrupar en tres grupos:

1. las provocadas por la oscilación de la plataforma donde está instalado el sensor:


cabeceo (pitch), alabeo (roll), giro lateral (yaw)

2. las provocadas por la trayectoria, altura y velocidad de la plataforma y su relación


con el movimiento terrestre: mientras el sensor mide desde su órbita, la Tierra
continúa su movimiento de rotación

3. las que provocan los efectos del relieve y de la esfericidad terrestre

Igual que se corrigen estas distorsiones geométricas, también se corrige el efecto de la


atmósfera sobre la luz que llega al sensor. La atmósfera terrestre absorbe la luz, de ma-
nera diferente en función de su longitud de onda. También la dispersa, reflejándola en
todas las direcciones tanto las moléculas como los aerosoles en suspensión; y la intensi-
dad de esta dispersión (scattering) depende también de la longitud de onda. Para realizar
las correcciones atmosféricas existen un elevado número de modelos físicos del compor-
tamiento de las radiaciones, modelos muy precisos pero que suelen exigir información
meteorológica detallada relativa a las condiciones en que se registró la escena. Esta infor-
mación es muy difícil de obtener, pero se puede aproximar bajo algunas circunstancias;
por ejemplo, conociendo la radiación reflejada en determinadas bandas espectrales “at-
mosféricas”, que son incorporadas a los sensores para facilitar esta corrección.
Las sucesivas correcciones que se aplican a las imágenes de un sensor para elimi-
nar estas distorsiones (o disminuirlas al mínimo posible) requieren sucesivos niveles de
procesamiento de las imágenes. Aunque para cada sensor las diferentes correcciones re-
ciben nombres distintos, las correcciones implementadas sueles ser comunes: todas ellas

102
M ÉTODOS DE MEDIDA

se denotan por una “L” seguida de un número (0, 1, 2, . . . ) y, posiblemente, de una le-
tra. Como ejemplo, vamos a describir los niveles de corrección usados por los sensores
Landsat y MERIS: L0, L1, L2, L3 y L4.
El nivel L0 corresponde a la imagen “en bruto”, tal y como la recibe el receptor en
Tierra cuando el sensor la envía. Cuando esta imagen original se somete a correcciones
radiométricas (pasando los niveles digitales originales a radiancia o reflectividad en el
sensor, es decir, fuera de la atmósfera) y geométricas (utilizando datos orbitales, puntos
de control o un modelo de elevación del terreno) la imagen obtenida tendrá un nivel de
corrección L1, y en ella los valores radiométricos y geométricos serán fiables. Este nivel
no implica una georreferenciación detallada (los usuarios deben comparar y ajustar la
georreferenciación en su área de estudio), ni evita errores puntuales en áreas concretas
de la imagen (deben siempre comprobarse los valores radiométricos de las cubiertas ba-
jo estudio). Cuando a las imágenes de nivel L1 se les aplican algoritmos para convertir
la radiación en valores de variables geofísicas de las cubiertas, como su temperatura, la
reflectividad de las cubiertas, etc. obtenemos imágenes de nivel L2. La interpretación
de estas variables geofísicas, es decir, la producción de un mapa temático derivado de
la imagen L2, se dice que es un producto L3: concentración de clorofila, contenido de
agua de la vegetación, etc. En estos productos, la resolución espacial no tiene por qué
ser la original de la imagen. Además, pueden combinarse informaciones de varios pro-
ductos L2: por ejemplo, para un producto de riesgo de incendios, se pueden combinar
la temperatura y el contenido de agua, y hacerlo combinando varios píxeles del nivel L2
(normalmente, por criterios estadísticos). Cuando a los productos L2 o L3 se les une otra
información procedente de otras fuentes que no son del sensor o que no se han obtenido
por teledetección (por ejemplo, calculadas mediante modelos numéricos, o basadas en
información geográfica, etc.), o se combinan en forma de series temporales, se habla de
productos L4.

6. Las medidas de un sensor multiespectral vienen limitadas por su diseño que


determina sus resoluciones espacial, radiométrica y espectral. Pero estas
resoluciones no son totalmente independientes. Lograr una mayor resolución
espectral, ¿cómo suele afectar a las otras dos resoluciones?

Respuesta: (d) Obtener más resolución espectral (con una misma tecnología del sen-
sor) requiere disminuir la radiométrica y la espacial. Lograr mayor resolución
espectral requiere recibir la luz sólo dentro de una banda espectral más estre-
cha, es decir, recibir una fracción muy seleccionada de la radiación que llega al
sensor. Por lo tanto, se debe lograr un compromiso entre la cantidad de energía

103
C UESTIONES DE TELEDETECCIÓN

captada en el detector de esa banda (la resolución radiométrica) y el tamaño del


área terrestre desde la que procede esa energía (cuanto más grande, más, pero
también menor resolución espacial).

Para saber si las imágenes obtenidas por un satélite (por su sensor) son adecuadas para
los objetivos que perseguimos necesitamos conocer la localización de sus bandas (dentro
del espectro electromagnético) y sus cuatro resoluciones: espacial, temporal, espectral y
radiométrica.
La resolución espacial de la imagen obtenida por un sensor define el tamaño de
la unidad espacial mínima de muestreo. En algunos casos se emplea el IFOV (campo
instantáneo de visión) que se define como la sección angular (en radianes) observada
en un momento determinado. El IFOV determina el tamaño de píxel (L) de la imagen
siguiendo la relación L = 2H tan(IFOV), siendo H la distancia del sensor a la superficie
terrestre. En este sentido el tamaño de píxel depende en primer término de la distancia del
satélite a la Tierra; las órbitas geoestacionarias se describen a distancias mucho mayores
de la Tierra que las órbitas polares: 36000 km frente a unos 1000 km. Además, cuanto
mayor sea la distancia focal del telescopio que el sensor utiliza para la captación de la
luz, igual que sucede con los teleobjetivos en fotografía, menores IFOV alcanzamos,
“más lejos” podemos llegar, mayor resolución espacial obtenemos. Sin embargo, esto
quiere decir que menos energía será recibida dentro del IFOV.
La órbita define también el “tiempo de revisita” o resolución temporal, que es tiempo
que transcurre desde que un sensor toma datos de un punto de la cubierta terrestre hasta
que vuelve a tomar datos del mismo punto (no necesariamente repitiendo exactamente
FOV, field of view, de la imagen previa). Este valor es del orden de días en los satélites
de teledetección en órbita polar, pero muy variables: 16 días (Landsat 7), 7 días (CHRI-
S/PROBA), 3 días (Deimos), 26 días (SPOT), etc. En los satélites geoestacionarios, la
resolución temporal es de entre 15’ y 30’, el tiempo que tardan en integrar la radiación
electromagnética que les llega dentro de sus bandas hasta formar una imagen. En este
caso, cuenta sobre todo la poca energía que llega desde el Sol en el infrarrojo medio,
donde se hallan muchas de las bandas de interés para estudiar el agua en la atmósfera;
por ello se necesitan tiempos tan largos para captar suficiente señal.
La resolución radiométrica del sensor es la capacidad que tienen sus detectores para
discriminar diferentes intensidades de radiación (de luz). Queda definida por el número
de bits que se utilizan para guardar el valor de intensidad en cada píxel (para una banda
concreta), que definen el número de niveles digitales (DN) que puede discriminar el
sensor. Si el sensor tiene una resolución radiométrica de 8 bits podrá caracterizar cada
píxel con 28 DN (los 256 niveles de una escala de grises). Si el sensor tiene 14 bits

104
M ÉTODOS DE MEDIDA

podrá captar hasta 214 DN (16384 intensidades de color para una determinada banda).
Un sensor que vaya a adquirir mucha señal, ya sea porque sus bandas son anchas, porque
la adquiere en un IFOV grande o porque sus detectores son muy sensibles, requerirá un
número grande de bits para diferenciar entre todo el rango de valores de radiancia que
medirá. Por el contrario, si la señal que se adquiere es muy poca, no se pueden diferenciar
muchos niveles de radiancia, y la resolución radiométrica necesaria será menor.
Por último, la resolución espectral hace referencia al número y “anchura” de cada
una de las bandas en las que el sensor recoge información. La resolución espectral de un
sensor, atendiendo al número de bandas, lo clasifica en pancromático (1 banda, habitual-
mente abarcando todo el rango visible), multiespectral (habitualmente de 3 a 7 bandas
en el rango visible e infrarrojo) e hiperespectral (llegando hasta 100 bandas). Además de
con el número de bandas, la resolución espectral aumenta inversamente con el ancho de
las mismas. Si las bandas son muy anchas recogerán valores promediados e impedirán
la observación de elementos de diferenciación en el espectro de las cubiertas terrestres.
Así resulta más informativo contar con 3 bandas en el visible (rojo, verde y azul) que
con una sola banda pancromática (fotografía en blanco y negro). Los sensores hiperes-
pectrales se caracterizan por tener bandas estrechas, lo que les permite situar un número
elevado de bandas contiguas en el rango visible e IR, especialmente interesante para el
estudio de la vegetación. Que las bandas sean estrechas y próximas permite reconstruir
fielmente los espectros de reflexión de las cubiertas, que es la principal ventaja de estos
sensores.
Aunque lo ideal sea disponer de sensores con elevadas resoluciones en todos los
aspectos, el aumento de cualquiera de ellas afecta a las demás. También implica un
aumento importante del número de datos, es decir, necesidades de memoria (en este
sentido el más costoso es el aumento de resolución espacial). Por esta razón cuando
se diseñan los sensores se hacen con objetivos concretos y se busca la combinación
de resoluciones que mejor responda a esas necesidades. El sensor CHRIS/PROBA, por
ejemplo, cuenta con 62 bandas entre los 400 y 1000 nm, con un ancho de 6-20 nm. Su
resolución espacial es de unos 10 m, es decir, bastante alta. Para aumentar la señal que
recibe, utiliza en lugar de un detector CCD, un detector CMOS, que es más sensible. Por
otro lado, el OLI del Landsat 8 usa un detector CCD para adquirir bandas de entre 60 nm
(en el azul) y 200 nm (en el infrarrojo medio) que cubren parcialmente el rango visible
e infrarrojo. Su resolución espacial es de 30 m.

105
C UESTIONES DE TELEDETECCIÓN

7. El sensor HRV de los SPOT proporciona imágenes pancromáticas con tamaño


de píxel de 2.5 metros y 10 bits de profundidad, mientras que en sus tres
bandas de color, proporciona imágenes de 10 metros y 10 bits de profundidad.
¿Qué nos dice esto sobre lo que se puede diferenciar en una imagen SPOT?

Respuesta: (a) Por lo general, los objetos que se diferencian en color, se diferencian
también (aunque peor) en la banda pancromática. Existen técnicas para combinar
la información de ambos tipos de bandas: la alta resolución espacial de la banda
pancromática y la alta resolución espectral de las bandas multiespectrales.

El sensor de alta resolución en el visible (HRV, high resolution visible) de los primeros
satélites SPOT (SPOT-1,2,3) proporcionaba imágenes de alta resolución espacial, 10 m,
en su banda pancromática, y de 20 − 30 m en las otras bandas espectrales del visible:
rojo, verde y azul. Con el SPOT-4 se introdujo el HRVIR, con una mejora: bandas en
el infrarrojo (en el cercano y en el medio), con 20 m de resolución espacial. Los SPOT-
5, que es a los que se refiere este enunciado, proporcionan un producto HRV(IR) con
bandas espectrales adquiridas con resolución de 10 m, y una pancromática sintética de
2,5 m; el nuevo sensor se denomina HRG (high resolution geometrical).
Es habitual que los sensores dedicados a obtener imágenes de la Tierra (en particular
de la zona continental) dispongan de bandas pancromáticas de alta resolución espacial.
Por ejemplo, los sensores Landsat disponen de esta banda pancromática en el ETM+ del
Landsat-7 y el OLI (Operational Land Imager) del Landsat 8, que proporciona una reso-
lución espacial de 15 m, el doble que sus bandas espectrales, que tienen píxeles de 30 m
(lo tradicional en los productos Landsat). Otros satélites orientados a obtener productos
de alta resolución espacial para la elaboración y actualización de cartografías, empleadas
en sistemas de información geográfica (GIS), también contienen bandas pancromáticas:
Ikonos (pancromática de 1 m, multiespectrales de 4 m), QuickBird (pancromática de
0,7 m, multiespectrales de 2,8 m), WorldView-2 (pancromática de 0,5 m, multiespectra-
les de 2 m), WorldView-3 (pancromática de 0,3 m, multiespectrales de 1,24 m).
Las bandas espectrales del HRG son bandas como las adquiridas por otros sensores
de barrido por empuje: con una línea de detectores (un array CCD) de 6000 píxeles en
cada banda. La banda pancromática, se adquiere simultáneamente en dos detectores, ca-
da uno con dos arrays de 12000 píxeles. Así, se puede construir una banda pancromática
en la que a cada píxel de las bandas espectrales se le asignan 4 (2 × 2) de los detectores
de alta resolución espacial.
Por lo tanto, en las bandas multiespectrales del HRG de SPOT, se pueden diferenciar
objetos separados 10 m entre ellos, es decir, la distancia entre muestras sobre el terreno

106
M ÉTODOS DE MEDIDA

(GSD, ground sample distance). En la banda pancromática, se pueden diferenciar objetos


separados 2,5 m, teóricamente. No obstante, dado que se trata de un producto calculado a
partir de imágenes de 5 m de resolución espacial, el resultado es sólo aproximado. Se ha
valorado mediante estudios sobre el terreno que la resolución real (es decir, la distancia a
la que realmente se pueden distinguir objetos sobre la imagen pancromática) es de unos
3,5 m.
El tamaño de los objetos que pueden ser discriminados, en un caso y en otro, tiene
que ser mayor que los 10 o 2,5 m, respectivamente. No obstante, el tamaño puede ser
menor en alguna de sus direcciones. Por ejemplo, un camino o una carretera puede ser
más estrecha de 10 m y verse todavía su trazado en las imágenes: espectralmente, los
píxeles que se ven, mezclan la luz del firme de la carretera con la del terreno de alrededor,
en lo que se llama un píxel de mezcla. Se verá la carretera, aunque en la imagen tendrá
un ancho no inferior a 10 m.

8. Un sensor multiespectral o hiperespectral contiene un elemento, el analizador,


que separa unas longitudes de onda de otras. Un analizador funciona como un
prisma que separa las longitudes de onda desviándolas en direcciones
diferentes hacia los diferentes detectores. En un sensor hiperespectral, que
analiza muchas (más de 20) longitudes de onda simultáneamente, ¿en qué
dirección, respecto a la de avance del sensor, debe dispersar la luz el
analizador?

Respuesta: (c) Los detectores que captan la luz procedente del analizador de un sensor
multiespectral o hiperespectral (de barrido o de empuje) suelen hallarse coloca-
dos en una línea perpendicular a la dirección de barrido del escáner, que podemos
imaginar como paralela a la trayectoria del sensor. Aunque con una combinación
de espejos se podría dirigir el haz de luz a cualquier sitio, siempre se trata de
reducir al mínimo el número de reflexiones, para evitar al máximo las pérdidas de
luz.

Un sensor de barrido o de empuje escanea cada línea de la imagen perpendicularmente


a su trayectoria sobre la superficie de la Tierra (figura 2.3). La luz es enfocada sobre
el analizador mediante un sistema óptico: un telescopio. El analizador dispersa la luz
perpendicularmente a su dirección de incidencia y en función de su longitud de onda.
Esta luz dispersada, llega a los detectores: elementos individuales, en el caso de los
sensores de barrido, o líneas de detectores (normalmente CCD), en el caso de los de
empuje.

107
C UESTIONES DE TELEDETECCIÓN

El sistema óptico más empleado es un telescopio reflector, un espejo cóncavo que


forma una imagen del campo visible del sensor (el FOV, field of view) sobre el plano
focal donde se encuentran los detectores. En los sensores de barrido, antes del espejo
cóncavo, se sitúa otro espejo que oscila, “moviendo la Tierra” delante del telescopio ;
así, el centro del campo de visión de éste, se desplaza sobre la superficie, llevando a cabo
el escaneo. Este método es más factible mecánicamente que el de hacer oscilar todo el
sensor, como haríamos nosotros para desplazar el punto al que está enfocado un teles-
copio. Cuanto mayor sea la distancia focal del telescopio, más aumentos proporcionará,
es decir, más resolución espacial tendrá el sensor y menor será su FOV. Por otro lado,
cuanto mayor sea el espejo cóncavo más luz recoge y más resolución radiométrica podrá
tener el sensor.
Los satélites multiespectrales, sobre todo los más antiguos (toda la serie Landsat,
hasta el Landsat 7), de barrido (con espejo oscilante), usan filtros que dejan pasar sola-
mente la luz en una banda espectral seleccionada (un color). Este es el mismo sistema
empleado por otros multiespectrales con pocas bandas, orientados principalmente a ob-
tener imágenes de alta resolución espacial, en lugar de productos comerciales de alta
resolución espectral: DEIMOS, WorldView, QuickBird. En los sensores hiperespectra-
les, y en los multiespectrales más avanzados, el analizador es una rejilla de difracción,
esto es, una serie de líneas grabadas en una superficie reflectora, a distancias muy pe-
queñas entre ellas, que desvían las ondas electromagnéticas en diferentes direcciones en
función de su longitud de onda. La anchura de cada detector hace que capte luz de dife-
rentes longitudes de onda y, por tanto, limite la resolución espectral del sensor. De hecho,
las bandas de estos sensores multi- o hiperespectrales están, literalmente, dibujadas en
sus sensores CCD.
Como se ha visto, los detectores, es decir, los elementos sensibles que captan la ra-
diación electromagnética de cada píxel de cada banda, se hallan habitualmente colocados
perpendicularmente a la imagen en el plano focal de la línea que escanea el sensor. Y
este plano focal es paralelo, a su vez, a la dirección de avance del sensor, de modo que
la imagen de la línea de escaneo es perpendicular a la trayectoria.

108
M ÉTODOS DE MEDIDA

9. La vegetación (especialmente las hojas verdes), debido a su contenido en


clorofila y otros pigmentos, absorbe radiación solar en el rojo y en el azul y,
debido a su estructura celular, refleja en el infrarrojo cercano. Para estudiar el
estado de la vegetación, un sensor debe tener como mínimo:

Respuesta: (b) Para estudiar el estado de la vegetación (su cantidad de clorofila y


su vigor, dado por la cantidad de agua en sus hojas), un sensor debe adquirir
información en una banda en el verde, una en el rojo y una en el infrarrojo. La del
rojo, porque en ella absorbe la clorofila más que en las otras dos: por lo tanto,
debe presentar un máximo de absorción (mínimo de reflexión); la banda verde
verificará la existencia de este máximo de absorción. La del infrarrojo, porque en
ella es donde más refleja la luz una hoja, a causa de las reflexiones internas en sus
espacios vacíos, que son mayores en número (menores en volumen) cuanto más
vigor tenga la hoja.

Cada elemento de la cubierta terrestre tiene, en base a sus características (físicas, bioquí-
micas y de estructura interna), un comportamiento único ante la incidencia de la energía
del espectro electromagnético (la luz), tanto si ésta proviene del sol (teledetección pasi-
va) como si es emitida por una antena (teledetección activa).
La presencia de pigmentos o de determinados componentes químicos provoca la ab-
sorción de longitudes de onda concretas. Por ejemplo, la clorofila tiene dos picos de ab-
sorción, uno en el azul y otro en rojo, por lo que todos aquellos elementos que contengan
clorofila mostrarán esta característica espectral: la vegetación, el agua cuando contiene
algas fotosintéticas, etc.; otro tipo de pigmento presente en vegetales y animales, los ca-
rotenos, tienen también dos picos de absorción, esta vez en el azul y en el verde, lo que
les aporta a nuestra vista un color anaranjado, como el de la zanahoria (pero también el
de algunos langostinos).
La estructura interna de las hojas, con múltiples espacios huecos en el parénquima,
presenta muchas oportunidades para que la luz se refleje: una por cada interfase aire-
pared celular. Por esta razón, en ausencia de los pigmentos, las hojas reflejarían gran
parte de la luz que les llega. De hecho, en el infrarrojo cercano, ya sin influencia de las
clorofilas, carotenos y xantófilos (responsables de los colores verdes o amarillos de las
hojas, y también de los diversos colores de las flores), las hojas reflejan hasta un 80 %
de la luz que les llega. Por eso aparecen muy brillantes en las imágenes de cámaras
de “visión nocturna”, que usan luz infrarroja invisible al ojo humano, o en las bandas
NIR de los sensores de teledetección. Luego, en longitudes de onda más largas, vuelve
a aparecer un “pigmento” que absorbe la luz: el agua.

109
C UESTIONES DE TELEDETECCIÓN

Los diferentes comportamientos, según reflejen o dispersen la luz de un color más


que la de otro, permiten diferenciar los objetos según su signatura o firma espectral. Un
sensor que quiera estudiarlos debe emplear aquellas partes del espectro en las que más se
diferencian unos de otros, o que sirven para caracterizar su composición o su estado. En
el caso de la vegetación, como hemos dicho, las bandas espectrales más características
son aquellas en las que se produce la absorción por pigmentos, en particular, el rojo, y
aquellas en las que se produce menos, el infrarrojo cercano (donde se refleja en ausen-
cia de pigmentos). Por ello, un sensor que quiera caracterizar el estado de la vegetación
deberá tener, al menos, una banda en el rojo y otra en el infrarrojo cercano. Para com-
probar que en el rojo se produce efectivamente absorción (es decir, que la cantidad de
luz reflejada es menor que en las longitudes de onda aledañas), será conveniente tener
otra banda en una longitud de onda más corta, en el verde, para verificar que en ella se
refleja más luz.

10. Los sensores activos, como el radar, emplean una técnica semejante a la que
usan los murciélagos para orientarse en la oscuridad: emiten señales y
escuchan sus ecos. Pero, ¿qué tipo de señales usa un radar?

Respuesta: (b) Los sensores radar envían hacia la superficie pulsos electromagnéticos
que, por su longitud de onda (entre 1 mm y 1 m), pertenecen al rango de las mi-
croondas. Estas ondas son mucho más cortas que las utilizadas para transmitir
señales radiofónicas, que tienen longitudes de onda entre 10 m y 1 km, aunque
sólo un poco más cortas que las usadas generalmente en televisión, que se hallan
entre 0,1 m y 10 m.

Un radar es un sensor activo. Es decir, en lugar de utilizar la radiación electromagnética


emitida por el sol y reflejada sobre la superficie del planeta para observar los objetos en
ella (como hacen los sensores pasivos), emite activamente una onda electromagnética
enfocada en el punto de observación cuyo reflejo detecta: conociendo las características
de la onda enviada, de la onda recibida y del espacio entre el objeto y el sensor, pueden
inferirse características del objeto observado. Las longitudes de onda de las microon-
das que se usan en teledetección tienen la propiedad de atravesar la atmósfera sin ser
absorbidas prácticamente: la atmósfera es transparente al radar, incluso las nubes lo son.
El radar envía pulsos de microondas utilizando una antena. Las microondas son on-
das electromagnéticas con longitudes de onda del orden entre los milímetros y el metro;
esto quiere decir que el campo electromagnético en ella oscila con una frecuencia del
orden de los Giga-Hertzios. Estas frecuencias son suficientemente lentas como para ser

110
M ÉTODOS DE MEDIDA

muestreadas por circuitos electrónicos, es decir, como para grabarlas, por lo que es posi-
ble extraer después toda la información reemitida por la superficie. No sólo la intensidad
de la onda en cada banda (como en el caso de los sensores ópticos) si no también la
información de fase de oscilación de la onda. El radar emite con su antena esta radiación
con una fase conocida, por lo tanto, puede compararla con la fase que llega: esto da in-
formación, por ejemplo, sobre la rugosidad de la superficie, el comportamiento eléctrico
de ella, la velocidad a la que se está acercando o alejando de ella, etc.
La antena de un radar de teledetección emite ondas esféricas, pero con su energía
concentrada alrededor de una dirección: más concentrada en la dirección de avance del
satélite (el path) y menos concentrada en la dirección transversal a ésta. De ese modo,
barre una franja de terreno. Los puntos a los que antes llega la onda, reflejan antes su
energía: por lo tanto son recibidos antes por la antena del radar. La sucesión de señales
procedentes de los distintos puntos de la superficie que barre la onda del radar, se llama
eco. Cuando se representa la amplitud del eco en función del tiempo, se tiene una idea de
cómo es la reflexión a lo largo del área iluminada por la señal emitida por la antena. Este
modo de funcionamiento del radar se denomina de apertura real (RAR, real aperture
radar) y visión lateral. Era el funcionamiento de los primeros sensores radar y el de los
radares que se usan desde muchas plataformas aerotransportadas (aviones). Cuanto más
ancha es la antena en una dirección, más puede concentrar la energía en ella, por eso la
resolución espacial de estos radares está limitada por el tamaño de su antena.
Los radares actuales son radares de apertura sintética o SAR (synthetic aperture
radar). Proporcionan la misma información que los antiguos, pero con mayor resolución
espacial. Esto es porque, gracias a algoritmos de procesamiento de los sucesivos ecos,
son capaces de “simular” cómo se vería la escena con una antena de mucho mayor
tamaño: tan grande como la distancia avanzada por el satélite mientras desde él se ve
un punto dentro del área iluminada por su antena.

Nota: Más información sobre los sensores radar se puede encontrar en el tema 11, “La
información de las ondas: el radar”.

111
C UESTIONES DE TELEDETECCIÓN

2.4. CONCEPTOS IMPORTANTES

analizador Dispositivo óptico que separa la radiación electromagnética en sus frecuen-


cias/longitudes de onda constituyentes. En los sensores de teledetección multies-
pectrales, los analizadores más habituales son los filtros, que dejan pasar sólo las
longitudes de onda en un intervalo dado. En los sensores hiperespectrales se utili-
zan rejillas de difracción que desvían los rayos de luz en función de su longitud de
onda en dirección a diferentes detectores que captan, de ese modo, sólo una banda
espectral definida.

banda espectral Intervalo de longitudes de onda del espectro electromagnético. Por


ejemplo la banda roja, la banda verde o la azul (dentro de la banda visible)(a falta
de una especificación más precisa en nanómetros). Por extensión, se llama banda
a la información adquirida por los detectores en una banda espectral y se habla de
“bandas de una imagen” de teledetección.

calibración de una medida/algoritmo Relación matemática entre el valor numérico de


la medida de una magnitud y el valor numérico de otra magnitud que se quiere de-
terminar a partir de ella. Por ejemplo, a partir del valor numérico de los niveles
digitales de un sensor (números enteros), se calibra su radiancia espectral en uni-
dades de energía por unidad de área, ángulo sólido y longitud de onda. En el caso
de algoritmos de medida indirecta, se llama calibración al establecimiento de una
relación entre una medida óptica (por ejemplo, la reflectividad espectral) y otra
magnitud relacionada (por ejemplo, la concentración de clorofila en el agua del
mar).

corrección atmosférica Algoritmo matemático que permite estimar la radiancia refle-


jada por una cubierta en la superficie terrestre a partir de la radiancia que llega a
un sensor alejado de ella. Este algoritmo hace una serie de suposiciones sobre la
transmisión de la energía radiante en la atmósfera que separa el objeto y el sensor
y, a partir de ellas, elimina el efecto de la atmósfera a lo largo del camino óptico.

datos crudos (raw data) Datos numéricos transmitidos por un sensor al adquirir una
imagen sin ningún procesamiento posterior.

detector Dispositivo electrónico capaz de convertir una señal energética en una señal
eléctrica relacionada con la energía transmitida por esa señal. Por ejemplo, un
CCD es un detector que convierte una señal luminosa en una corriente eléctrica
cuya intensidad es proporcional a la energía radiante incidente en él.

112
M ÉTODOS DE MEDIDA

error Diferencia entre una medida de una magnitud física y el valor real de dicha mag-
nitud.

georreferenciación Procedimiento geométrico para relacionar las coordenadas de los


píxeles en una imagen con las coordenadas geográficas de los objetos a los que
corresponden en la imagen.

GSD (ground sampling distance) Longitud característica, medida sobre el terreno, del
área de la que procede la energía radiante correspondiente a un píxel de una ima-
gen.

hiperespectral (sensor) Sensor capaz de medir la radiancia recibida en muchas bandas


estrechas (de decenas de nanómetros o inferiores) y contiguas (por lo general más
de 20), de modo que sea posible reconstruir el espectro de emisión o reflexión del
objeto medido.

incertidumbre Longitud del intervalo de valores alrededor del valor de una medida en
el que se puede afirmar (con alta probabilidad) que se halla el valor verdadero
de una magnitud. Toda medida está afectada de error; la incertidumbre indica la
magnitud esperable de ese error.

IFOV (instantaneous field of view) Campo de visión instantáneo de un sensor, es decir,


el área sobre el terreno desde la que llega simultáneamente la energía radiante
al sensor. En los sensores de barrido por espejo, suele ser un píxel (o varios, si
dispone de más de un detector por banda espectral). En los sensores de empuje, es
una (o varias) líneas de píxeles/detectores.

medida directa Medida realizada por interacción directa entre el instrumento de medi-
da (el sensor, en teledetección) y el objeto medido (por ejemplo, la radiancia de la
onda luminosa).

medida indirecta Medida estimada a partir de la medida de otra magnitud. La mayoría


de las medidas en teledetección son medidas indirectas de magnitudes que afectan
a los cuerpos y a su interacción con la energía radiante que emiten o reflejan.

multiespectral Sensor capaz de medir la radiancia recibida en varias bandas en las que
se dan características de absorción o de reflexión de determinadas cubiertas de
interés (p.ej. la banda del rojo y la del NIR para caracterizar la vegetación, o ban-
das de absorción de los hidróxidos en el SWIR para caracterizar estos minerales).
Las bandas no son tan estrechas como las de un sensor espectroscópico (como
los de color oceánico) ni tan contiguas como las de un sensor hiperespectral. La

113
C UESTIONES DE TELEDETECCIÓN

mayoría de los sensores de teledetección son multiespectrales y las bandas en las


que detectan la energía radiante son seleccionadas en función del propósito de la
misión.

NIR (near infra-red) Banda espectral que comprende longitudes de onda entre 800 nm
y 1,3 μm, es decir, entre la banda visible y el infrarrojo de onda corta (SWIR). Es
una banda característica de la vegetación, por su alta reflectividad en ella.

nivel de procesamiento Grado de manipulación informática de una imagen de telede-


tección. A partir de los datos crudos transmitidos por el sensor, las imágenes se
modifican para calibrarlas y georreferenciarlas, primero, y para transformarlas en
variables físicas, después. Los niveles de procesamiento se indican por una L se-
guida de un número, siendo L0 el nivel más bajo (datos crudos).

banda pancromática Banda espectral ancha que abarca todo o la mayor parte del rango
visible de un sensor. Al adquirir gran cantidad de energía radiante (por su amplitud
espectral y porque la Tierra refleja la mayor parte de la luz en el visible) esta
banda permite usar detectores y tiempos de adquisición pequeños, dando una alta
resolución espacial, muy útil para el análisis visual de las imágenes.

path (camino) Línea o extensión geográfica de la que adquiere imágenes un sensor se-
gún se desplaza su plataforma (aerotransportada o satelital).

píxel Elemento más pequeño en una imagen. Por extensión, detector (o detectores que
adquieren la señal simultáneamente en varias bandas) de un sensor que adquiere
la señal que se almacena en él (en el producto original sin procesar). A veces,
abusando del lenguaje, se refiere al área correspondiente sobre el terreno, de la
que procede la energía radiante detectada en cada uno de estos elementos.

precisión Mínima diferencia significativa entre dos medidas llevadas a cabo con un
instrumento.

radar Sensor activo que emite ondas de radio y recibe los ecos de su reflexión, por
ejemplo, en la superficie de la Tierra. Originalmente era el acrónimo de Radio
Detection and Ranging, es decir, detección y medida de distancias mediante ondas
de radio.

resolución espacial Distancia mínima sobre el terreno entre dos objetos que pueden ser
distinguidos en una imagen adquirida por un sensor. Esto es, la precisión con que
un sensor remoto puede determinar la posición de un objeto sobre el terreno. Es
igual o superior al tamaño del píxel.

114
M ÉTODOS DE MEDIDA

resolución espectral Diferencia entre dos longitudes de onda cuya energía radiante
puede distinguir un sensor. Corresponde a la anchura de una banda espectral en un
sensor multiespectral, o a la distancia entre los centros de dos bandas contiguas,
en un sensor hiperespectral.

resolución radiométrica Diferencia entre dos cantidades de energía radiante que un


detector puede distinguir. Al codificar un sensor la radiancia captada como nú-
meros enteros (niveles digitales), su resolución radiométrica sería la cantidad de
aumento de radiancia que aumentaría el nivel digital en una unidad.

sensor activo Sensor que emite una señal radiante que, tras reflejarse en el objeto a es-
tudiar, vuelve a ser captada por el propio sensor. Ejemplos son el radar, el LiDAR
y el sónar.

sensor de barrido (whiskbroom) Sensor que dirige la energía radiante procedente de


las cubiertas a sus detectores mediante un sistema óptico móvil. Normalmente, se
llaman de espejo móvil, porque un espejo giratorio o basculante dirige los rayos de
luz procedentes de distintos puntos en la superficie hacia el detector, construyendo
así una línea de escaneo; apilando las líneas de escaneo se adquiere la imagen.

sensor de empuje (pushbroom) Sensor que dispone de una línea de detectores hacia
los que se dirige la energía radiante procedente de una cubierta simultáneamente,
sin necesidad de elementos ópticos móviles. El desplazamiento del sensor sobre
el terreno hace que se adquieran las líneas de barrido una tras otra que, apiladas,
forman la imagen.

sensor pasivo Sensor que recibe energía radiante sin haberla emitido previamente. Usual-
mente los sensores ópticos captan la energía solar reflejada por las cubiertas y los
sensores térmicos la energía radiante emitida espontáneamente por los cuerpos en
función de su temperatura.

SWIR (short wave infrared) Banda espectral del infrarrojo de onda corta, correspon-
diente a longitudes de onda entre los 1,3 μm y los 2,5 μm, aproximadamente. Es
una banda característica de los minerales, que presentan muchas bandas de absor-
ción que permiten diferenciar grupos químicos como carbonatos o hidróxidos.

telescopio (sistema de enfoque) Sistema óptico formado por lentes y/o espejos que con-
centra la energía radiante procedente de la superficie terrestre en un punto desde
el que se dirige al analizador y al detector.

115
C UESTIONES DE TELEDETECCIÓN

VIS (visible) Banda espectral del espectro visible, entre los 400 nm y los 800 nm (apro-
ximadamente), dentro de la cual es sensible el ojo humano a la radiación electro-
magnética. Además de en la fotointerpretación, en teledetección esta es la banda
de los pigmentos, de la clorofila en la vegetación y las microalgas (especialmente
en las bandas del azul y el rojo), y de los óxidos de minerales (como los ferrosos).

2.5. BIBLIOGRAFÍA

M. Barnsley (1999). “Digital remote sensing data and their characteristics”. En:
Geographical Information Systems: Principles, Techniques, Applications and Ma-
nagement, Editado por M. G. P. Longley, pp 451–466. John Wiley, New York,
1999.

L. Di, B. Kobler (2000). “NASA Standards for Earth Remote Sensing Data”. In-
ternational Archives of Photogrametry and Remote Sensing, 33(B2) PART 2: 147-
155.

J.R. Jensen (2005). “Remote Sensing Data Acquisition Alternatives”. En: Intro-
ductory Digital Image Processing: A Remote Sensing Perspective, capítulo 2. Pren-
tice Hall, New Jersey, 2005.

C. Pinilla Ruiz (1995). “Sistemas de adquisición”. En: Elementos de Teledetec-


ción, Capítulo 2. Ra-Ma, 1995.

Webgrafía (accesible el 1/05/2015)

CHRIS Proba — Theoretical Details.


URL: http://www.brockmann-consult.de/beam/chris-box/theory-details.html
Página del proyecto CHRIS/Proba Toolbox for BEAM para procesar imágenes de
CHRIS/Proba con el programa BEAM de la ESA en la que, además, se describen
las correcciones que requieren estas imágenes.

Programme SPOT 5 — CNES.


URL: http://spot5.cnes.fr/gb/programme/programme.htm
Sitio web de la agencia francesa del espacio (CNES, Centre National d’Etudes
Spatiales) dedicado al programa SPOT 5.

116
M ÉTODOS DE MEDIDA

SORCE – SOlar Radiance & Climate Experiment.


URL: http://lasp.colorado.edu/home/sorce/
Proyecto de la NASA y del Laboratorio de Física Atmosférica y del Espacio de
la Universidad de Boulder en Colorado con en que se mide continuamente la ra-
diancia espectral que llega del Sol al exterior de la atmósfera terrestre en múltiples
longitudes de onda.
Earth from space: Plentiful plankton — ESA.
URL: http://www.esa.int/Our_Activities/Observing_the_Earth/Earth_from_Space
_Plentiful_plankton
Noticia de la adquisición por el sensor MERIS del satélite ENVISAT de la ESA
de un “bloom” de microalgas en el mar de Barents en agosto de 1999. El sensor
de color oceánico MERIS está captando, en este caso, la luz verde procedente de
la estrecha banda de fluorescencia de la clorofila-a, el pigmento fotosintético que
poseen estas las microalgas.
MERIS Product Handbook — ESA.
URL: http://earth.esa.int/handbooks/meris/toc.html
Manual con la descripción de los diferentes productos derivados de los datos del
sensor MERIS a bordo del satélite ENVISAT.
CHRIS — Earth online — ESA.
URL: https://earth.esa.int/web/guest/missions/esa-operational-eo-missions/proba
Páginas de la ESA dedicadas a la plataforma experimental PROBA-1 y a su sensor
hiperespectral CHRIS.
Operational Land Imager (OLI) — NASA.
URL: http://landsat.gsfc.nasa.gov/?p=5447
Sitio web dedicado al sensor OLI del Landsat 8.
Landsat — USGS.
URL: http://landsat.usgs.gov/
El programa Landsat de la NASA y el USGS.
SLC-off Products: Background — USGS.
URL: http://landsat.usgs.gov/products_slcoffbackground.php
Página explicativa sobre los productos Landsat 7 con errores del SLC.

117
C UESTIONES DE TELEDETECCIÓN

Landsat Enhanced Thematic Mapper Plus (ETM+) — USGS.


URL: https://lta.cr.usgs.gov/LETMP
Página sobre el ETM+, los productos derivados de sus datos y el acceso a éstos.

118
Tema 3

Física de la visión humana

GUION-ESQUEMA

Anatomía del ojo humano

Fisiología de la visión humana: defectos de la visión

El ojo humano como sensor multiespectral

La cuantificación de la percepción humana de la luz y el color


120
Intensidad
luminosa

V. escotópica V. fotópica
C UESTIONES DE TELEDETECCIÓN

Aberración cromática I
lum
i
na

cia
inan
nc

Lum
ia

Cono Bastón
PUPILA

CORNEA

CRISTALINO

RETINA

Aberraciones geométricas
Miopía
Hipermetropía
F ÍSICA DE LA VISIÓN HUMANA

3.1. INTRODUCCIÓN

El ojo humano actúa como un sensor multiespectral por lo que conocer su funciona-
miento permite entender mejor cómo adquieren la información los sensores multiespec-
trales; en particular, algunos defectos en la adquisición. También es interesante conocer
cómo cuantifica nuestro ojo la cantidad de luz que recibe: en esto se basa la representa-
ción de las imágenes que hacemos, esto es, los modelos de color.

3.2. CUESTIONES

1. Para enfocar la luz sobre el detector del ojo, el ojo humano posee varios elementos
transparentes. ¿Cuál de éstos no lo es?

a) córnea
b) iris
c) cristalino
d) humor vítreo

2. Como los sensores remotos de barrido, el ojo humano puede tener defectos en su
enfoque de la luz sobre el detector; ¿cómo se manifiestan éstos?

a) como puntos negros en el campo de visión


b) como pérdida de la capacidad para ver detalles
c) como pérdida de la capacidad para distinguir colores
d) como pérdida de capacidad de visión en la oscuridad

3. ¿Cuál es la principal diferencia entre los receptores de luz de la retina y los de un


sensor multiespectral?

a) su resolución radiométrica
b) su resolución espacial
c) su resolución espectral
d) su resolución temporal

121
C UESTIONES DE TELEDETECCIÓN

4. La “banda pancromática” del ojo humano (o visión escotópica) tiene en común


con las bandas pancromáticas de los sensores multiespectrales que, respecto a las
bandas multiespectrales (visión fotópica), . . .

a) tiene mayor ganancia


b) tiene mayor resolución espectral
c) tiene mayor resolución espacial
d) todas las anteriores

5. Igual que muchos sensores remotos, el ojo humano puede funcionar en diferentes
“modos de ganancia”, mediante adaptación a las condiciones de luz ambiente. . .

a) agrandando la pupila
b) aumentando la cantidad de pigmentos fotosensibles
c) aprovechando el ruido para mejorar la señal
d) todas las anteriores

6. Debido a su diseño, el ojo humano posee “píxeles insensibles” en la zona de co-


nexión del nervio óptico. ¿Cómo se nota esta zona insensible en nuestra visión?

a) no se nota, porque el cerebro compensa la pérdida de sensibilidad


b) no se nota, porque vemos con los dos ojos
c) no se nota, porque el cerebro rellena los huecos
d) no se nota, porque no es cierto que haya una zona insensible en la retina

7. La sensación de la luz captada por el ojo humano se describe por la. . .

a) radiancia
b) luminancia
c) intensidad radiante
d) irradiancia

122
F ÍSICA DE LA VISIÓN HUMANA

8. La unidad empleada para describir la cantidad de luz percibida visualmente en una


escena es. . .

a) el lux
b) la candela
c) el lumen
d) el nit

9. En el modelo de color XYZ, la componente X corresponde a. . .

a) la luminancia total
b) la luminancia en el color rojo
c) la luminancia en el verde
d) ninguna de las anteriores

10. De los siguientes modelos de color, ¿cuál es el empleado para transmitir vídeo?

a) sRGB
b) CMYK
c) YUV
d) HSV

123
C UESTIONES DE TELEDETECCIÓN

Figura 3.1. Anatomía del ojo humano: (1) esclerótica, (2) úvea o coroides, (3) canal de Schlemm (drenaje
del humor acuoso), (4) base del iris, (5) córnea, (6) iris, (7) pupila, (8) y (9) cámaras anterior y posterior
con el humor acuoso, (10) cuerpo ciliar, (11) cristalino, (12) cámara vítrea con el humor vítreo, (13) retina,
(14) nervio óptico, (15) zónula o ligamento suspensorio. Fuente: Wikimedia Commons, por Joël Gubler,
CC-BY-SA.

3.3. RESPUESTAS

1. Para enfocar la luz sobre el detector del ojo, el ojo humano posee varios
elementos transparentes. ¿Cuál de éstos no lo es?

Respuesta: (b) Como sistema óptico, el ojo humano posee una lente, el cristalino, que
proyecta la luz sobre una pantalla que actúa también como elemento sensible, la
retina. Entre la retina y el cristalino no hay aire, sino un líquido transparente, el
humor vítreo. La luz que llega al cristalino es seleccionada con el iris (un ele-
mento opaco), que determina el tamaño de la pupila de entrada. Todo el sistema
óptico está encapsulado dentro de la esclerótica (también opaca), con una venta-
na recubierta por la córnea, que es transparente, y a través de la que entra la luz
en el sistema (ver figura 3.1).

El ojo que poseen la mayoría de los vertebrados (entre ellos los seres humanos) es un
órgano complejo resultado de miles de millones de años de evolución. El ojo más simple
que podemos encontrar en la naturaleza, representando las primeras instancias en la
evolución de este órgano, consiste sencillamente en un pequeño punto ocular (orgánulo)

124
F ÍSICA DE LA VISIÓN HUMANA

que es solamente sensible a la luminosidad, siendo capaz de determinar si hay luz o


no, pero que no puede formar imágenes. Habiendo evolucionado a partir de un órgano
similar a este, actualmente se encuentran en la naturaleza gran variedad de ojos, muchos
de ellos más capaces de percibir detalles que el ojo humano .
El ojo humano es un órgano aproximadamente esférico de unos 2,5 cm de diámetro.
En su parte frontal se encuentra el cristalino, un cuerpo transparente que funciona como
lente. Esta lente se encuentra suspendida detrás del iris, que es el tejido pigmentoso (que
da color a nuestros ojos) que se dilata y contrae cambiando el tamaño de la pupila. La
pupila funciona como un diafragma en una cámara, variando su tamaño para controlar
la cantidad de luz que llega a la lente, el cristalino. Por delante del iris se encuentra una
capa transparente denominada córnea que protege el ojo. El espacio entre la córnea y el
iris está relleno por un líquido gelatinoso y transparente denominado humor acuoso.
La parte posterior del globo ocular esta rellena por el humor vítreo, algo más denso
que el humor acuoso. Rodeando este espacio se encuentra la retina, un tejido donde se
encuentran las células nerviosas sensible a la luz (fotorreceptoras) y las fibras que se
unen para formar el nervio óptico.
Para que el ojo humano construya una imagen y la envíe al cerebro es necesario que
la luz atraviese la córnea y el humor acuoso, pase por la pupila, atraviese el cristalino
y sea proyectada sobre la retina, donde será transformada en impulsos nerviosos que
trasladarán la imagen al cerebro.

2. Como los sensores remotos de barrido, el ojo humano puede tener defectos en
su enfoque de la luz sobre el detector; ¿cómo se manifiestan éstos?

Respuesta: (b) El enfoque de la luz por los distintos elementos transparentes del ojo
hace que se pierda capacidad para distinguir puntos vecinos, ya que éstos apare-
cen deformados o mal enfocados: se ven como discos o elipses, en lugar de como
puntos.

El problema de la formación en la retina de una imagen con bordes bien definidos es


equivalente al problema del enfocar una luz puntual situada sobre el objeto observado:
basta considerar que la imagen es formada por una multitud de fuentes puntuales de
luz distribuidas sobre la superficie del objeto que vemos. La geometría de la formación
de la imagen se puede observar en la figura 3.2. Nuestro sistema óptico tiene un eje
de simetría: el eje óptico; y en él existe un punto, el centro óptico. Los rayos de luz
procedentes de un punto del objeto que pasan por el centro óptico no son desviados por
las lentes (córnea y cristalino combinados). Por otro lado, los rayos de luz que llegan

125
C UESTIONES DE TELEDETECCIÓN

f
C

Figura 3.2. Geometría de la formación de una imagen por el cristalino sobre la retina.

paralelos al eje óptico, son desviados hacia el foco del sistema óptico. De este modo, es
fácil calcular en dónde se formará la imagen: allí donde converjan ambos rayos.
Los defectos de la visión debidos al mal enfoque se pueden clasificar, entonces,
según como el ojo forma la imagen de un punto. Básicamente, la imagen de un punto
por el sistema de visión, puede ser deformada (véase la figura 3.3). Un punto se ve como
un disco cuando no es correctamente enfocado en el plano de formación de la imagen,
sino antes (en este caso, hablamos de hipermetropía) o después (caso de la miopía).
En ambos casos, el mal enfoque se produce por una incapacidad de los músculos que
tiran del cristalino (los músculos ciliares) para deformarlo. Con el paso de los años, este
problema acaba apareciendo y es lo que se llama vista cansada o presbicia, la dificultad
para enfocar los objetos a poca o mucha distancia. Cuando los músculos ciliares ejercen
sobre el cristalino una tracción mayor en una dirección que en otra, el punto aparecerá
desenfocado en una de ellas, dando la impresión de “alargar” el punto; en esto consiste
el astigmatismo. Todos estos defectos (y otros posibles) en la forma de enfocar un punto
se denominan aberraciones del sistema óptico.
El plano en el que se forma la imagen depende de la distancia del objeto a nosotros
y de la longitud focal de la lente de nuestro ojo. A su vez, la longitud focal de la lente de
nuestro ojo depende de las curvaturas de los elementos que lo forman. Principalmente,
de la córnea y del cristalino. De ellos, sólo podemos hacer variar la forma del crista-
lino; cuando no somos capaces de hacerlo para enfocar los puntos a todas las distancias,
necesitamos lentes de corrección (“gafas”) con curvaturas positivas, si el cristalino es-
tá demasiado plano como para enfocar objetos cercanos, o curvaturas negativas, si los
músculos ciliares no son capaces de aplanar el cristalino para enfocar objetos lejanos.
En el caso del astigmatismo es válido lo mismo, teniendo en cuenta que la curvatura va-
riará en función del eje de deformación de la imagen. En la actualidad, también existen
técnicas que modifican la curvatura de la córnea (mediante lentillas, durante el sueño)
para corregir estos defectos.

126
F ÍSICA DE LA VISIÓN HUMANA

f
C

f
C

f’
C f’’

Figura 3.3. Defectos de la visión: enfoque detrás de la retina o miopía (arriba), enfoque delante de la retina
o hipermetropía (centro) y enfoque antes o después dependiendo de la dirección del rayo de luz, que causa
astigmatismo (abajo).

Las aberraciones afectan a la capacidad para ver objetos puntuales en la oscuridad


(por ejemplo, las estrellas muy débiles): al extenderse sus imágenes sobre un área mayor,
producen menor “densidad de estímulos” en la retina. Esto se agrava más en cuanto que
el tamaño de los discos o elipses que se forman depende, en parte, de la pupila de entrada:
cuanto más nos alejamos del eje del sistema óptico, mayores son las aberraciones. Por
ello, con poca luz y la pupila dilatada, se agravan las dificultades para enfocar los objetos.
Las aberraciones también dependen del color de los objetos: dado que la luz se re-
fracta en grado diferente a diferentes longitudes de onda (es en lo que se basan los
prismas para descomponer la luz), podemos ver enfocados puntos de un color, y des-
enfocados puntos vecinos con otro color diferente. Esta aberración se llama cromática
y es propia de los sistemas ópticos basados en lentes (telescopios refractores, o nuestro
propio ojo); por ello, en teledetección los sistemas ópticos de enfoque (situados antes
del analizador) se basan en espejos, que no presentan este defecto.

127
C UESTIONES DE TELEDETECCIÓN

3. ¿Cuál es la principal diferencia entre los receptores de luz de la retina y los de


un sensor multiespectral?

Respuesta: (c) La principal diferencia entre los receptores de luz en la retina (las cé-
lulas con pigmentos fotosensibles llamadas conos y bastones) y los de un sensor
multiespectral es su resolución espectral: mientras que las bandas de un sensor
multiespectral no suelen superponerse, las “bandas” de sensibilidad del ojo hu-
mano normal están altamente superpuestas. Además, se limitan al rango del es-
pectro electromagnético que llamamos (por esa razón) visible. No obstante, tam-
bién presentan diferencias la resolución espacial (casi siempre mayor en un sen-
sor remoto; además, en el ojo humano es mayor en el centro del campo de visión
que en la periferia), la resolución radiométrica (mucho mayor en un sensor mul-
tiespectral, en términos absolutos, aunque el rango de valores admitidos por el
ojo sea mucho mayor), y la resolución temporal (mayor en el ojo humano, que es
capaz, de detectar cambios en todo el campo visual en tiempos del orden de la
décima de segundo, en condiciones normales).

El ojo humano es un sistema con un sensor analógico (la retina) unido a un potente
procesador de imágenes en tiempo real (la propia retina y la región occipital de córtex
cerebral). Es difícil, por lo tanto, precisar qué es su resolución radiométrica, espacial, es-
pectral o temporal. Por ejemplo, el ojo humano normal (es decir, sin defectos de visión)
es capaz de diferenciar unos 16 niveles de gris, por lo que tendría una resolución radio-
métrica de sólo 4 bits; sin embargo, es capaz de diferenciar un número de colores muy
grande, que además depende del contexto cultural del individuo (los propios colores,
proceden de una evolución para percibir mejor el entorno que nos rodea ). El ejemplo
típico es el del esquimal que percibe decenas de blancos en la nieve (relacionados con
el estado de ésta), allí donde nosotros percibiríamos sólo “blanco”, o del indígena de
la Amazonia, capaz de distinguir multitud de verdes en la vegetación, donde nosotros
sólo percibiríamos “verde” (básicamente, porque poseen experiencia y expresiones para
ellos). Por otro lado, esos niveles de gris se refieren a una iluminación fijada, pero el ojo
humano es capaz de funcionar en un rango muy amplio y adaptable de iluminaciones:
entre la luminosidad del objeto más brillante en un día soleado y el objeto más tenue que
podemos distinguir en una noche sin luna, hay una relación de 1012 ; eso representaría
unos 40 bits de resolución radiométrica para un sensor multiespectral. Por último, el ojo
humano (normal y sin defectos de visión) es capaz de diferenciar dos objetos puntuales
situados a 1′ de arco; si estuviésemos en un satélite a 900 km sobre la superficie, ello
representaría 262 m (compárese con la resolución de MERIS o MODIS, en torno a los
300 m, y con la de los sensores Landsat, de 30 m, o SPOT, de 2,5 m).

128
F ÍSICA DE LA VISIÓN HUMANA

Sensibilidad

Longitud de onda ( μ m )

Figura 3.4. Sensibilidad de las bandas del sensor Landsat ETM+. Fuente: NASA, USGS.
Sensibilidad

Longitud de onda ( n m )

Figura 3.5. Curvas de sensibilidad de los tres tipos de conos perceptores del color en la retina humana: L
(rojo), M (verde) y S (azul).

129
C UESTIONES DE TELEDETECCIÓN

0.3

sensibilidad espectral
0.2

0.1

0.0

−0.1
400 500 600 700
λ (nm)

Figura 3.6. Bandas de sensibilidad espectral de la visión cromática humana (medida psicométrica). Nótese
la sensibilidad negativa de nuestra “banda roja” en longitudes de onda entre el verde y el azul.

No obstante, la principal diferencia entre el ojo humano y un sensor multiespectral


son sus curvas de sensibilidad. La curva de sensibilidad de un sensor se define como su
capacidad para detectar un fotón que llegue a su detector en una longitud de onda dada;
se suele considerar que vale la unidad (o el 100 %) en el máximo de la banda. En la figura
3.4 se muestran las bandas del sensor OLI del Landsat-8. Excepto la banda pancromática,
todas las demás están bien localizadas y, muy importante, no se superponen unas a otras.
Sin embargo, la curva de sensibilidad de las “bandas” de color del “detector” humano
(en el azul, el verde y el rojo), tiene el aspecto de la figura 3.5. Cada una de las curvas
con forma de gaussianas corresponde a un tipo de cono (las células responsables de la
percepción del color): los conos tipo L detectan el rojo, los de tipo M prioritariamente
el verde y los de tipo S, el azul. Sin embargo, estas curvas no son las que realmente
percibimos. En la figura 3.6, que se ha calculado mediante técnicas psicométricas, es
decir, está basada en la percepción del color por sujetos de estudio (una vez éste ha sido
percibido por el cerebro); muestra cómo percibimos el color. Como se puede observar,
el sistema visual humano no sólo posee bandas muy superpuestas, sino que incluye en
nuestra percepción las diferencias entre ellas: por eso, en la zona “azul” del espectro,
nuestra sensibilidad negativa al “rojo”.

130
F ÍSICA DE LA VISIÓN HUMANA

Densidad de celulas

−80 −60 −40 −20 0 20 40 60 80


Distancia (en grados) desde la fovea

Figura 3.7. Distribución angular aproximada de conos y bastones alrededor de la fóvea.

4. La “banda pancromática” del ojo humano (o visión escotópica) tiene en común


con las bandas pancromáticas de los sensores multiespectrales que, respecto a
las bandas multiespectrales (visión fotópica), . . .

Respuesta: (a) La visión escotópica, es decir, la de la luz de poca intensidad, la llevan


a cabo los bastones, que son células más sensibles a la luz en torno a los 507 nm,
longitud de onda en la que nuestra sensibilidad es mayor en dichas condiciones.
Los bastones son de un único tipo y no diferencian el color (como una banda pan-
cromática). La mayor sensibilidad de percepción del color se sitúa en los 555 nm,
más inclinada hacia el rojo, y es unas 2,5 veces menor.

La distribución de células fotosensibles en la retina es desigual. En la fóvea, la región


de la retina que corta al eje óptico, se concentran los conos: en el centro de la fóvea son
mayoría los conos de tipo L (sensibles al rojo) y M (al verde); los conos de tipo S (al
azul) se distribuyen en la periferia de la fóvea. Las proporciones son también diferentes:
65 % L, 30 % M y sólo 5 % S (por ello nuestra sensibilidad al azul es mucho menor que
a los verdes o rojos). Los bastones son 20 veces más abundantes; están prácticamente
ausentes en la fóvea, concentrándose a unos 30◦ del eje óptico.
La percepción de la luminosidad depende de esta distribución de conos y basto-
nes, pero también de los pigmentos que éstos poseen y de su grado de adaptación a la
oscuridad. Los bastones son mucho más rápidos adaptándose a las condiciones de luz
(acumulando mayor cantidad de pigmentos). Para caracterizar la sensibilidad a la lu-
minosidad, se realiza el siguiente experimento: se compara una luz monocromática (es
decir, que abarca una banda de longitudes de onda muy estrecha) de referencia, situada

131
C UESTIONES DE TELEDETECCIÓN

en el máximo de sensibilidad (en 555 nm o en 507 nm); de esta luz monocromática se


conoce su intensidad radiante, que se mantiene fija. Luego se compara con otra luz mo-
nocromática en otra longitud de onda, variando la intensidad radiante de ésta hasta que
parezca que brilla igual que la de referencia. De este modo se obtienen las funciones de
ganancia fotópica (con intensidades altas, para excitar los conos) y escotópica (con bajas
intensidades, para que entren en funcionamiento los bastones). Estas curvas de ganancia
muestran que los bastones, aunque no distinguen los colores y presentan mayor ganancia
que los conos, no constituyen una banda pancromática en sentido estricto: simplemente
proporcionan visión en “blanco y negro” (sin color), pero, de hecho, su ancho de banda
es ligeramente menor que el equivalente a la percepción combinada de la luminosidad
por los conos.
La distribución de los bastones también condiciona la resolución espacial (o angu-
lar) de nuestra visión: al hallarse fuera de la fóvea (es decir, del eje óptico, que es donde
podemos centrar nuestra atención), la resolución que puedan proporcionar está muy limi-
tada. Justo al contrario de los sensores multiespectrales, que aprovechan el mayor ancho
de banda de la banda pancromática, y por lo tanto, la mayor cantidad de energía captada
en ésta, para reducir el tamaño del píxel y proporcionar mayor resolución espacial.

5. Igual que muchos sensores remotos, el ojo humano puede funcionar en


diferentes “modos de ganancia”, mediante adaptación a las condiciones de luz
ambiente. . .

Respuesta: (d) El ojo humano es capaz de variar la cantidad de luz que entra en él
contrayendo el iris (es decir, reduciendo el tamaño de la pupila). Su capacidad
para detectar la luz varía también en función de la concentración de pigmentos
fotosensibles: a menor intensidad luminosa, mayor es esta concentración. Ade-
más, se ha propuesto que el cerebro utiliza el “ruido” en las propias células de la
retina (es decir, su comportamiento aleatorio) para detectar señales muy débiles.

La ganancia del ojo humano varía en función de las condiciones de iluminación. Por un
lado, el iris se acomoda a la cantidad de luz, protegiendo la retina de deslumbramientos.
El diámetro de la pupila puede variar en un factor 5 o más (es decir, que el área por la
que entra la luz, puede variar hasta en un factor 30). La respuesta del iris es rápida, del
orden del segundo.
La concentración de los pigmentos fotosensibles también varía en función de la ilu-
minación a la que esté sometido el ojo. El pigmento más variable es la rodopsina, el

132
F ÍSICA DE LA VISIÓN HUMANA

pigmento fotosensible de los bastones. En condiciones de mucha luz, la molécula de


rodopsina se rompe (que es como se produce la señal que se transmite a las neuronas
de la retina) con mucha mayor velocidad de la que se vuelven a unir sus constituyen-
tes. En condiciones de poca luz, la rodopsina se acumula, captando más eficazmente los
pocos fotones que llegan. Este mecanismo constituyen la respuesta lenta de adaptación
a la oscuridad. La primera fase la llevan a cabo los conos, aumentando su sensibilidad
por acumulación de los pigmentos en ellos; este aumento puede mantenerse hasta un
cierto tiempo (del orden de 10 minuntos). A partir de ahí, los bastones, que también
han ido acumulando pigmentos, sobrepasan la sensibilidad de los conos; su aumento de
sensibilidad se puede prolongar más tiempo, hasta media hora.
El proceso de adaptación a condiciones de más luz es más rápido. Primero, por
supuesto, actúa la pupila, contrayéndose. Pero luego, se reduce la concentración de pig-
mentos rápidamente: en unos 5 minutos pueden volver a sus niveles normales de visión
fotópica.
Además de estos procesos, se ha puesto de manifiesto que la percepción humana , en
general, y la visual, en particular, aprovecha un fenómeno conocido como “resonancia
estocástica” para incrementar su capacidad de percibir señales muy débiles. Las células
fotosensibles, como las neuronas, funcionan como dispositivos de disparo: cuando llega
de una señal, luminosa en el caso de conos y bastones, se genera un impulso eléctrico
sólo si la excitación que produce la señal sobrepasa un umbral; sumar cierto “ruido”, de
baja intensidad, aumenta el número de “disparos”, porque ayuda a la señal a alcanzar
ese umbral: se dice que las señales que logran alcanzar ese umbral y, por tanto, iniciar
un estímulo sensible, “resuenan” con ese ruido.
Todos estos mecanismos de respuesta que aprovecha el ojo humano para optimizar
la detección de la luz, son mecanismos biológicos que no se pueden implementar en los
sensores remotos. En éstos, más incluso que detectar la luz, se busca cuantificar cuánta
energía (radiancia) llega emitida o reflejada desde la superficie de la Tierra; para ello
es muy importante que la ganancia sea bien conocida: o bien siempre la misma, o bien
ajustable a modos preestablecidos. No obstante, en algunos mecanismos de cambio de
la ganancia pueden verse paralelismos con el ojo humano.
Los sensores remotos, suelen digitalizar la radiancia recibida en cada píxel con un
número fijo de bits; por lo tanto, tienen que amplificar más o menos la señal de su
detector, “perdiendo bits”: usualmente, los correspondientes a los valores más altos que,
de todos modos, no se iban a utilizar. Así funcionaba el ETM+ del Landsat-7: la ganancia
en cada banda podía ser aumentada en un 50 %, en función de las cubiertas presentes en
la escena (en una escena muy reflectante, esto podría saturar los píxeles más brillantes);

133
C UESTIONES DE TELEDETECCIÓN

luego, al procesar las imágenes, se normalizaban las ganancias para que fuesen siempre
las mismas nominalmente. La banda 6, por otra parte, siempre se digitalizaba en los dos
niveles de ganancia: por eso se sirven dos bandas 6, una con ganancia nominal 1 y otra
con ganancia aumentada 1.5. La ganancia, en este caso, se lograba variando el voltaje
de alimentación del conversor analógico-digital que lee los valores de los detectores.
Cuando esta ganancia era demasiado alta para los píxeles brillantes en una escena, esos
píxeles aparecían saturados. Esto sería análogo a que, con la vista acostumbrada a un
ambiente de oscuridad (y, con la concentración de rodopsina muy alta), se nos expusiera
a la luz del mediodía: nuestros píxeles se saturarían, seríamos deslumbrados.
Otros sensores, como en CHRIS/PROBA, emplean otra estrategia: para aumentar la
ganancia, unen bandas. Este sensor hiperespectral puede adquirir más de 100 bandas;
sin embargo suele adquirir datos en el modo 1 (hiperespectral), en el que combina estas
bandas en 64 bandas, 2 (de aguas), 3 (de tierra) y 4 (de clorofila), en los que las combina
en 18 bandas sintéticas, o en modo 5 (de tierra, a medio barrido) con 37 bandas; cada
combinación es adecuada para un objetivo. Esto es parecido a como nuestro ojo aprove-
cha la luz captada por los bastones para “reforzar” la visión proporcionada por los conos,
cuando disminuye la cantidad de luz.

6. Debido a su diseño, el ojo humano posee “píxeles insensibles” en la zona de


conexión del nervio óptico. ¿Cómo se nota esta zona insensible en nuestra
visión?

Respuesta: (c) Esta zona con “píxeles insensibles” es la denominada mácula lútea o
punto ciego. En ella no se percibe imagen y, por lo tanto, no llega información
al cerebro. No obstante, como está alejada de la fóvea, donde se centra nuestra
atención, y como vemos con los dos ojos, la información en esa zona es rellena-
da por el cerebro, o bien a partir de la imagen captada por el otro ojo, o bien
“completando” la imagen.

El sistema visual humano no nos proporciona la información adquirida en la retina,


sino que la procesa previamente, antes de que lleguemos a ser conscientes de ella. Este
procesamiento está relacionado con el color, con las formas y con nuestro conocimiento
previo de ambos.
En la retina existen varias capas de neuronas; estas neuronas están conectadas a sus
vecinas de la misma capa (y a otras más alejadas) y a las de capas aledañas. Si una de las
neuronas recibe una señal, es capaz o bien de estimular señales en otras neuronas a las

134
F ÍSICA DE LA VISIÓN HUMANA

que está conectada, o bien, inhibir éstas para que no sean estimuladas: esto es equivalente
a aplicar un filtro de suavizado o de detección de bordes, respectivamente. Es decir, las
neuronas en la retina actúan como un procesador de imágenes (en el propio detector).
La propia retina hace sumas y restas de imágenes, detecta bordes, estima valores de
“píxeles” a partir de sus vecinos y lleva a cabo otras transformaciones no lineales (filtros
de máximo o mínimo, o de mayoría), etc. Toda esta información es transmitida por el
nervio óptico al cerebro, que la une e interpreta.
Por ejemplo, la información que no le llega del “punto ciego” se suple con un valor
estimado a partir de la imagen que lo rodea. Esto se puede comprobar fácilmente con el
clásico experimento de situarse a la distancia en la que, mirando (con un solo ojo) a un
punto, otro punto “desaparece” dentro de esta zona de ceguera: en realidad, lo “vemos”
relleno del color que lo rodea, del fondo de la imagen.
La consecuencia de que al cerebro le llegue esta información, y no sólo los píxeles
adquiridos por conos y bastones, la podemos encontrar en varios efectos visuales. Tam-
bién están en el origen de cómo interpretamos una imagen según las leyes de la Gestalt:
completando y prolongando líneas, uniendo objetos próximos, etc.

7. La sensación de la luz captada por el ojo humano se describe por la. . .

Respuesta: (b) Las magnitudes físicas que describen cómo es percibida la luz por el
ojo humano son las unidades fotométricas. Cada una de estas magnitudes per-
mite caracterizar un tipo de cuerpo emisor de luz o una forma de percibirla. En
particular, la sensación captada por el ojo procedente de un punto de un objeto
se describe mejor por la luminancia.

La luz visible emitida por un foco puntual se caracteriza por su intensidad luminosa.
Esta cantidad se define de manera que caracteriza lo iluminada que se ve la pared de
un espacio vista por quien lleva ese foco puntual, es decir, de forma que no depende
de la distancia a dicha pared, sino de la potencia de la fuente y de lo concentrado del
haz luminoso. La unidad de intensidad luminosa es la candela (cd), históricamente, la
intensidad luminosa dada por la llama de una vela. La cantidad de luz visible que emite
totalmente el foco, es decir, su potencia luminosa, se mide en lumens (lm), y resulta
de integrar la intensidad luminosa a lo largo de los 4π estereorradianes sobre los que la
candela emite su luz.
Desde el punto de vista de una superficie iluminada, la cantidad de luz que llega a
ella (a toda ella, es decir, medida en lumens) no es suficiente para conocer el aspecto que

135
C UESTIONES DE TELEDETECCIÓN

Fotométrica Radiométrica Modelo


Potencia luminosa lm Potencia radiante W Fuente luminosa completa
Intensidad luminosa cd = lm/sr Intensidad radiante W/sr Iluminación lejana vista
desde la fuente luminosa
Iluminancia lx = lm/m2 Irradiancia W/m2 Iluminación de una
superficie vista desde ella
Luminancia nit = cd/m2 Radiancia W/m2 /sr Iluminación de una
superficie lejana
Tabla 3.1. Resumen de magnitudes fotométricas y radiométricas, con sus unidades en el Sistema Internacional.

presenta su iluminación cuando la vemos desde cerca. Pensemos en la lectura de una


hoja de papel: un papel muy grande recibirá muchos más lumens que uno pequeño, pero
eso no nos ayudará con su lectura. El aspecto que presenta un objeto iluminado cuando
lo vemos depende de la cantidad de luz que llega a él por unidad de superficie. Para
eso se introduce la iluminancia, medida en lux (lx), el número de lumens que llegan por
metro cuadrado de superficie.
En el caso más general, el observador no estará ni cerca del foco de luz (situación
en la que la iluminación se caracterizaba por la intensidad luminosa) ni cerca de la su-
perficie iluminada (situación caracterizada por la iluminancia) sino que observará desde
lejos una superficie iluminada. En este caso, se introduce una magnitud fotométrica, la
luminancia, que describe cómo percibimos la luz que procede del objeto iluminado que
vemos dentro de un ángulo sólido: el ángulo sólido es más pequeño cuanto más lejos
esté el objeto de nosotros, es proporcional al tamaño del objeto en la imagen que ven
nuestros ojos. La luminancia se mide en nits que es la luminancia de un cuerpo que
recibe una iluminancia de un lux cuando en nuestro cuerpo de visión abarca un este-
reorradián. Podemos decir que la luminancia, al referirse a una extensión angular, com-
pensa la disminución de la cantidad de luz que nos llega por alejarnos, con una mayor
área que vemos conforme nos alejamos. De este modo, la luminancia es independiente
de la distancia a la que vemos el objeto, y describe correctamente cómo percibimos la
iluminación de una superficie grande cuando nos alejamos de ella: permanece igual de
“brillante”; es cuando dejamos de verla como una superficie extendida, y la vemos como
un punto lejano, cuando percibimos su atenuación con la distancia.
Las unidades lumen (lm), candela (cd), luz (lx) y nit pertenecen al Sistema Inter-
nacional de Unidades (SI), del mismo modo que el metro para medir longitudes, o el
kilogramo para pesos, o el segundo para tiempos.

136
F ÍSICA DE LA VISIÓN HUMANA

Las otras magnitudes mencionadas en el enunciado, la intensidad radiante, la irra-


diancia y la radiancia son magnitudes radiométricas (véase tema 8): se refieren a la
energía de la luz (o de cualquier otra radiación electromagnética). Las magnitudes fo-
tométricas se refieren a cómo nuestros ojos perciben esa luz. En el fondo, nuestros ojos
detectan energía: la candela corresponde a 1/683 Watt de luz monocromática de longi-
tud de onda 555 nm repartido sobre un estereorradián. La razón de esta definición es que
a 555 nm es a la longitud de onda que mejor percibimos la luz en el régimen fotópico
(al que corresponde esta intensidad luminosa). Y la razón por la que no utilizamos las
magnitudes radiométricas es porque nuestra manera de percibir la luz depende de la can-
tidad de ésta (del régimen fotópico o escotópico) y de su distribución espectral, o sea, de
su color. En los sensores electrónicos, no existe esta dependencia, a priori, y por eso se
emplean en ellos las magnitudes radiométricas (o sus versiones espectrales, referidas a
rangos de longitudes de onda).

8. La unidad empleada para describir la cantidad de luz percibida visualmente en


una escena es. . .

Respuesta: (a) La unidad de iluminancia, es decir, el flujo luminoso que llega por uni-
dad de área a los objetos de una escena, es el lux. Dado que nuestra visión percibe
la escena en su totalidad, esta iluminancia es la que definirá cómo de luminosa u
oscura la veremos.

Cuando hablamos de la luminosidad de un objeto podemos hacer referencia a la intensi-


dad luminosa que emite en cada dirección (la cantidad de luz dentro de un ángulo sólido),
a la cantidad total o flujo de luz emitida o a la luminancia que percibimos visualmente
procedente de él. Cada uno de estos conceptos tiene una unidad de referencia (véase la
cuestión anterior).
El flujo luminoso que llega por unidad de área a un objeto, la iluminancia, se mide en
lux (lx): 1 lx equivale a 1 lm/m2 . Ésta es la unidad que se utiliza para medir la cantidad
de luz que baña la totalidad de una escena. La luminancia tiene en cuenta cómo ve el
ojo esta iluminancia desde la distancia: para que no dependa de cuánto ocupe el objeto
iluminado en nuestro campo de visión, se calcula dentro de un ángulo sólido. La unidad
de luminancia es el nit y describe, por tanto, cómo se ve un objeto bañado con una
iluminancia de 1 lux y que ocupa en nuestro campo visual una extensión de 1 sr.
¿Por qué se utiliza, el lux para describir la cantidad de luz percibida en una escena,
en lugar de los nit? Porque nuestra percepción de la luz en una escena integra toda la

137
C UESTIONES DE TELEDETECCIÓN

luminancia procedente de ésta, así que se integra la luminancia sobre los algo más de
2π estereorradianes que vemos con nuestros dos ojos. Dado que este ángulo sólido es
constante, lo que queda después de tener en cuenta los nits de todos los objetos visibles
dentro de él, son los lux que bañan a cada uno de estos objetos. Existe también un motivo
práctico para caracterizar la cantidad de luz en la escena por su iluminancia en lux: se
puede llevar un fotómetro a la escena y medir la cantidad de luz por unidad de superficie
(la de la ventana de entrada de luz en él) que llega a los objetos.

9. En el modelo de color XYZ, la componente X corresponde a. . .

Respuesta: (d) El modelo de color XYZ o CIE-1931 es un modelo geométrico para


definir el color de los cuerpos basado en medidas fotométricas y de percepción
de la luminancia. En el modelo, sólo la coordenada Y tienen significado físico: la
luminancia.

Para referirnos a los colores y poder identificarlos de forma inequívoca necesitamos


definir modelos de color. Dado que el color es una percepción humana, la comisión in-
ternacional de la iluminación (CIE, commission internationale de l’éclairage) define los
estándares de las medidas fotométricas, basándose en la percepción humana. A dife-
rencia de las medidas radiométricas que hacen los sensores, que se miden en unidades
basadas en la energía que llega a sus detectores, las medidas fotométricas se basan en
cómo un ser humano percibe la luz; en lugar de comparar cantidades de energía, tiene en
cuenta cuándo un ser humano considera que dos señales luminosas son iguales: y esto
no quiere decir que ambas transporten la misma energía. En particular, el modelo XYZ,
establecido por el CIE en 1931, está basado en las medidas psicométricas de W. David
Wright y John Guild, y en la teoría lineal de la percepción visual (Ley de Grassmann)
de la psicología.
En el modelo de color XYZ, la Y es la luminancia (es decir la cantidad de luz que
percibimos en un objeto, o un valor proporcional a ella) y las otras dos coordenadas
se definen dando como condición que sean positivas para todos los colores que el ojo
humano puede percibir, que el color blanco (o los grises) esté representado por el mismo
valor en las tres coordenadas y que la coordenada Z se anule prácticamente para colores
con longitudes de onda por encima de 650 nm. Estas definiciones matemáticas cubren
el rango de todos los colores posibles (la gama de colores visibles, la región coloreada
dentro del diagrama) y aun de más colores que, en realidad, el ojo humano no puede
percibir (el resto del triángulo no coloreado en la figura 3.8).

138
F ÍSICA DE LA VISIÓN HUMANA

Figura 3.8. El modelo de color XYZ (normalizado a Y = 1): en color se muestra la equivalencia con los
colores del modelo RGB dentro del “gamut” o gama de colores posibles. Los números indican la longitud
de onda del color totalmente saturado. Fuente: Wikimedia Commons.

La ley de Grassmann dice que nuestra percepción de la luz y el color es aditiva.


Es decir, si percibimos una luminancia producida por luz de un color y otra luminancia
producida por luz de otro, cuando iluminamos con ambas luces percibimos una luminan-
cia que es suma de ambas. Esta ley se cumple aproximadamente para unas condiciones
de iluminación dadas. Por eso es posible pasar del espacio fisiológico de sensibilidades
(correspondientes a cada tipo de cono) a un espacio psicométrico de percepción de los
colores rojo, verde y azul (que se definen en base a luces de tres longitudes de onda, o
primarios, bien definidas: 700 nm, 546 nm y 436 nm, respectivamente) o a un espacio
abstracto definido en función de una combinación lineal de ellas (el espacio XYZ). Cada
uno de estos “sistemas de coordenadas” representa un espacio de color: LMS, RGB o
XYZ.
Otros modelos de color tienen en cuenta otras propiedades de nuestra visión. Por
ejemplo, el modelo sRGB (RGB estándar) tiene en cuenta que percibimos más contrastes
entre las luminancias menores que entre las mayores; esto se llama el factor gamma de
nuestra visión. Por ello, en este modelo se toman las coordenadas RGB “lineales” y
se elevan a una potencia 1/2,4. De este modo, los valores más altos se toman menos
contrastados, es decir, sus coordenadas admiten menos valores distintos de luminancias
equiespaciadas de los que admitirían si esas luminancias fuesen menores. El modelo
sRGB ya no es lineal, pero tiene la ventaja de representar mejor cómo percibimos los

139
C UESTIONES DE TELEDETECCIÓN

Tono

H = 20

n
racio
Satu
7 %
5
S=

Figura 3.9. Coordenadas cromáticas del modelo HSV: la distancia al centro, es la saturación; el ángulo,
indica el tono.

contrastes entre colores.


Una descripción más cualitativa del color es el modelo HSL o HSV (figura 3.9)
separa la luminancia Y (o el luma, Y’, definido como la suma de las componentes sRGB
después de aplicar el gamma, o la luminosidad L) de las coordenadas de tono (H) y
saturación (S): el tono es una coordenada angular, que apunta al color (rojo, 0◦ ; verde,
120◦ ; azul, 240◦ ); la saturación indica lo puro que es este color, esto es, la cantidad de
luz blanca (mezcla de todos los colores) que contiene; de este modo, el blanco es el color
menos saturado (S = 0); un rojo, verde, o azul puros, están totalmente saturados (S = 1).
Este modelo HSL se dice que es un modelo perceptual, porque el tono y la saturación
del color se relacionan con cómo percibimos/denominamos los colores.

10. De los siguientes modelos de color, ¿cuál es el empleado para transmitir vídeo?

Respuesta: (c) La transmisión de vídeo requiere una representación del color que cap-
ture muy eficientemente la información que nuestro sistema visual considera im-
portante. La razón es que es necesario reducir la cantidad de datos que se deben
transmitir por un canal de vídeo, sin perder información apreciablemente (trans-
mitiendo la suficiente para que no se observen pérdidas significativas en la ima-
gen).

140
F ÍSICA DE LA VISIÓN HUMANA

Un modelo de color es una forma de cuantificar los colores y, por lo tanto, una
forma de representarlos numéricamente. El modelo de color sRGB o RGB estándar, ha
sido definido como estándar internacional para la representación del color en imágenes
transmitidas por Internet (participaron en su definición empresas como Hewlett-Packard,
Microsoft, Intel o Corel, y organizaciones internacionales como el W3C).
El modelo HSV o HSL (hue, saturation, value/lightness; tono, saturación y valor o
luminosidad) es un modelo que representa el color por su luminancia, un ángulo que
señala el tono del color (rojo, amarillo, verde, cyan, azul o magenta) y un valor entre
0 y 1 que indica la pureza de ese color, entendida como la cantidad de otros colores
mezclados con él, que se observan como una adición de blanco. Este es un modelo
perceptual: representa características que nosotros observamos en los colores de una
imagen. En Teledetección se emplea muchas veces este modelo de color para representar
imágenes que destacan visualmente características de la imagen; en este caso, una banda
(por ejemplo, la pancromática) se interpreta como la coordenada de luminosidad, otra
(por ejemplo, la temperatura) se interpreta como el tono (variando entre, por ejemplo,
los 240◦ del azul y los 0◦ del rojo), y otra banda (por ejemplo, el NIR) la saturación.
El modelo de color YUV es el escogido para representar el color en la transmisión
de vídeo (por ejemplo, en el formato MPEG o los formatos de transmisión PAL y NTSC
usados originalmente en la televisión analógica), pero también en la compresión de la
información de color en formatos de imagen para escenas naturales (como el JPEG).
Como el HSV, separa la información de luminancia (la componente Y) de la informa-
ción cromática (el “croma”). La coordenada Y se normaliza al intervalo 0 (negro) - 1
(blanco), correspondiente a los valores mínimo y máximo del canal del dispositivo de
visualización (la pantalla de ordenador o de televisión). Las coordenadas UV represen-
tan la diferencia entre el rojo y el azul respecto a Y: estas diferencias se normalizan al
intervalo [−0,5; 0,5]. Por decirlo de alguna manera, no es necesario guardar muchos de-
cimales de estas coordenadas para tener una idea del color representado; ahí es donde se
logra la compresión en esta representación aproximada del color.
Por último, el modelo CMYK (acrónimo de Cyan, Magenta, Yellow y blacK) es un
modelo de color “sustractivo” que se utiliza para describir los colores en los dispositivos
de impresión, como las impresoras. Igual que el modelo RGB se basa en caracterizar có-
mo se generaría un color con luces de tres colores (los primarios), de forma que nuestro
ojo no distinguiese entre el color del objeto original y el sintetizado con esas luces, el
modelo CMYK busca cómo mezclar cuatro pigmentos de forma que la absorción de la
luz logre el mismo efecto: hacernos ver un color igual que el del objeto natural. Esto se
logra porque el color que presenta un objeto corresponde a la parte de la luz que incide
sobre éste y que no es absorbida, sino reflejada. Los colores cyan, magenta, amarillo y

141
C UESTIONES DE TELEDETECCIÓN

negro son, respectivamente, los complementarios de los colores rojo, verde, azul y blan-
co; por eso con ellos se puede sintetizar cualquier color que se pueda sintetizar con los
RGB.
(Respuesta con colaboración de Juan Ojeda Cáceres).

142
F ÍSICA DE LA VISIÓN HUMANA

3.4. CONCEPTOS IMPORTANTES

aberración Defecto de un sistema óptico que hace que la imagen de un objeto formada
por sus lentes (o espejos) no sea semejante a dicho objeto. La aberración geomé-
trica consiste en que puntos que en el objeto se hallan en un plano en la imagen
formada se enfocan en planos diferentes, o que puntos que desde el centro óptico
del sistema se ven en una dirección, no forman su imagen a lo largo de esa misma
dirección. Cuando este comportamiento depende, además, del color, se habla de
aberración cromática.

astigmatismo Defecto de un sistema óptico que consiste en que éste forma las imágenes
a diferentes distancias dependiendo del ángulo polar en que los rayos llegan a él.
Esto tiene el efecto de generar imágenes anisótropas de objetos isótropos, por
ejemplo, imágenes alargadas de objetos puntuales.

bastones Células fotosensibles de la retina que responden a la luz débil, especialmente


en la banda alrededor del verde, y de las que no percibimos color.
conos Células fotosensibles de la retina, concentradas alrededor de la fóvea, que poseen
diferentes pigmentos sensibles a diferentes longitudes de onda. Existen tres tipos
de conos: L, sensibles principalmente al rojo, M, al verde y S, al azul. Los estímu-
los de cada tipo de cono se combinan en la retina para construir la sensación de
color.
cristalino Estructura biconvexa de fibras en la parte anterior del ojo que actúa como
lente enfocando la luz en función de la distancia. El enfoque se logra variando la
forma de la lente al tirar de ella los músculos ciliares que la sostienen.
Grassmann, ley de Ley de la percepción que dice que la sensación de luminosidad se
puede estudiar a partir de la combinación lineal de luces de diferentes colores.
hipermetropía Defecto de la visión que consiste en que el cristalino forma la imagen
detrás de la retina, por lo que no se ven bien enfocados los objetos cercanos.
HSV (hue, saturation, value) Modelo de color que describe éste en función de pará-
metros perceptuales como la intensidad, relacionado con la luminosidad, el tono,
relacionado con la banda (roja, verde o azul) de mayor luminosidad, y la satura-
ción o pureza del color, relacionado con la contribución a la luminosidad en las
bandas distintas a la del tono.
iluminancia Magnitud fotométrica que representa el flujo luminoso que llega por uni-
dad de área a una superficie. Su unidad es el lux.

143
C UESTIONES DE TELEDETECCIÓN

intensidad luminosa Magnitud fotométrica que representa la cantidad de luz emitida


en cada dirección por una fuente luminosa. Su unidad es la candela (cd).

luminancia Magnitud fotométrica que caracteriza la cantidad de luz emitida en cada


dirección por una unidad de área de una superficie. Su unidad es el nit.

magnitud fotométrica Magnitud física que cuantifica la percepción visual de una señal
radiante.

magnitud radiométrica Magnitud física que cuantifica la energía de una señal radiante.

miopía Defecto de la visión que consiste en que el cristalino forma la imagen antes de
la retina, por lo que no se ven bien enfocados los objetos lejanos.

modelo de color Modelo matemático para describir y codificar numéricamente la per-


cepción visual de la luz.

potencia luminosa Magnitud fotométrica que representa la cantidad de luz total emitida
por una fuente luminosa. Su unidad es el lumen (lm).

pupila Abertura del ojo por la que penetra la luz en él. Su tamaño está controlado por el
iris, que cierra esta abertura para evitar deslumbramiento en condiciones de mucha
luminosidad.

retina Capa de tejido que recubre el fondo del ojo y que contiene células fotosensibles
(conos y bastones) y neuronas que captan, procesan y transmiten las sensacio-
nes visuales, haciéndolas converger en el nervio óptico que parte de ella hacia el
cerebro.

RGB (red, green, blue) Sistema para definir un color mediante sus coordenadas tricro-
máticas, es decir, mediante las intensidades con que ese color estimularía la per-
cepción visual del rojo, el verde y el azul separadamente. Como norma general,
todo sistema para definir un color (y su brillo) debe usar tres coordenadas que se
transforman (de manera biunívoca) en las coordenadas RGB.

sensibilidad Relación entre un estímulo y la sensación percibida de él. La sensibilidad


en un dispositivo electrónico siempre es positiva: a mayor señal/estímulo, mayor
es la respuesta eléctrica (o el valor digital medido). En los seres vivos la sen-
sibilidad puede ser negativa, debido a las respuestas inhibitorias a determinados
estímulos.

144
F ÍSICA DE LA VISIÓN HUMANA

visión escotópica Visión en condiciones de poca luminosidad debida, principalmente,


a los bastones. Esta visión proporciona menor agudeza visual, muy poca discrimi-
nación de los colores y requiere mayores tiempos de respuesta.

visión fotópica Visión en condiciones normales o de alta luminosidad debida, princi-


palmente, a los conos. Esta visión proporciona mayor agudeza visual y percepción
del color, ya que los conos se concentran en la fóvea.

XYZ Modelo de color que describe éste en un espacio matemático abstracto en el que
la coordenada Y representa la luminosidad y las otras dos componentes recogen
la cromaticidad, con la particularidad de que las curvas de sensibilidad del ojo
humano en estas nuevas coordenadas son siempre positivas. Es el modelo estándar
del CIE.

3.5. BIBLIOGRAFÍA

G. Chander, B.L. Markham, D.L. Helder (2009). “Summary of current radiometric


calibration coefficients for Landsat MSS, TM, ETM+, and EO-1 ALI sensors”.
Remote Sensing of Environment, 113:893-903.

P. Kaiser (2013). The joy of visual perception — A web book. York University,
2013
URL: http://www.yorku.ca/eye/thejoy.htm

A. Patel, B. Kosko (2005). “Stochastic resonance in noisy spiking retinal and sen-
sory neuron models”. Neural Networks, 18(5-6):467-78.

D. Purves, G.J. Augustine, D. Fitzpatrick, et al., editors. (2001). “Vision: the eye”.
En: Neuroscience, 2ª edición, Capítulo 10. Sinauer Associates, 2001.

W.S. Stiles, J.M. Burch (1959). N.P.L. “Colour-matching Investigation: Final Re-
port (1958)”. Optica Acta, 6(1):1-26.

M.A. Webster, J.D. Mollon (1997). “Adaptation and the color statistics of natural
images”. Vision Research, 37(23): 3283-3298.

E.F. Zalewski (1995). “Radiometry and Photometry”. En: Handbook of Optics,


Vol. II., Capítulo 24. McGraw-Hill (1995)

145
C UESTIONES DE TELEDETECCIÓN

Webgrafía (accesible el 1/05/2015)

CMOS vision system on a chip — AnaFocus.


URL: http://www.anafocus.com/technology/cmos-vision-systems-on-chip-vsoc
Ejemplo de un sensor de imágenes, diseñado por la empresa sevillana AnaFocus,
que implementa parte del procesamiento visual en el chip, de manera similar a
nuestra retina.

MPEG: the Moving Picture Experts Group.


URL: http://mpeg.chiariglione.org/
Sitio web del grupo de expertos internacionales sobre imagen en movimiento que
desarrolla muchas de las especificaciones para almacenamiento y transmisión de
datos de vídeo.

CIE: International commission on illumination.


URL: http://cie.co.at/index.php
Sitio web de la CIE en el que se hallan disponibles varias especificaciones (en
forma de “Technical reports/notes”) y tablas colorimétricas.

Vision Concepts — Hyperphysics.


URL: http://hyperphysics.phy-astr.gsu.edu/hbase/vision/visioncon.html
Mapa de conceptos que sirve de entrada a las páginas sobre física de la visión
humana en la web de Hyperphysics de C.R. Nave en la Universidad Estatal de
Georgia.

JPEG — Joint Photographic Experts Group.


URL: http://www.jpeg.org/
Sitio web del grupo de expertos internacionales en fotografía que desarrolla espe-
cificaciones para el almacenamiento y transmisión de imágenes.

Radiometric Characteristics — The Landsat Handbook.


URL: http://landsathandbook.gsfc.nasa.gov/data_properties/prog_sect6_4.html
Explicación de los dos modos de ganancia del sensor Landsat ETM+.

Introduction to color theory — New Mexico Tech Computer Center.


URL: http://infohost.nmt.edu/tcc/help/pubs/colortheory/web/index.html

146
F ÍSICA DE LA VISIÓN HUMANA

Breve curso por John W. Shipman del Instituto Tecnológico de Nuevo Mexico
sobre la teoría del color (con un cierto sesgo hacia la informática).

Fenómenos ópticos cotidianos.


URL: http://pendientedemigracion.ucm.es/info/gioq/fenopt/
Página del proyecto Imágenes de Fenómenos Ópticos Cotidianos como Apoyo
de la Docencia en Óptica liderado por D. Alfredo Luis Aina de la Universidad
Complutense de Madrid. Trata, entre muchos otros, los temas de la formación de
las imágenes, las aberraciones o el punto ciego.

Visual Illusions Gallery.


URL: http://dragon.uml.edu/psych/illusion.html
Colección de ilusiones visuales de David T. Landrigan de la Universidad de Mas-
sachusetts en Lowell.

Colour Science.
URL: http://www.itp.uni-hannover.de/∼zawischa/ITP/effects.html
Sitio web mantenido por Dietrich Zawischa de la Universidad de Hannover con
mucha información sobre la medida, descripción y representación de los colores
explicada a diferentes niveles (alguno muy matemático).

A Standard Default Color Space for the Internet — sRGB.


URL: http://www.w3.org/Graphics/Color/sRGB.html
Página web del consorcio internacional para la Web en la que se proponía (en
1996) el actual estándar sRGB de representación del color.

147
Tema 4

Sensores de ejemplo

GUION-ESQUEMA

Tipos de sensores

El espectrorradiómetro de campo

Sensores ópticos de observación ambiental de la NASA y de la ESA

Sensores meteorológicos de la ESA

Sensores radar de observación ambiental de la NASA y de la ESA

Sensores aerotransportados
C UESTIONES DE TELEDETECCIÓN

150
S ENSORES DE EJEMPLO

4.1. INTRODUCCIÓN

Los sensores usados en teledetección se pueden clasificar de varias maneras. En fun-


ción del rango del espectro electromagnético que usen, existen sensores ópticos, sensores
térmicos, sensores de microondas y radar. En función del origen de la energía electro-
magnética, existen sensores pasivos que recogen la luz reflejada del sol (prácticamente
todos los sensores ópticos), o la energía emitida por los objetos debido a su temperatura,
y sensores activos, como el radar, que recibe ecos de los pulsos de radiofrecuencia emi-
tidos por el propio sensor. En función del análisis que realizan de la luz que les llega,
pueden ser multiespectrales (analizan unas pocas bandas o colores del espectro electro-
magnético) o hiperespectrales (que miden a casi todas las longitudes de onda dentro del
rango analizado).
En la actualidad existen numerosos sensores satelitales y aerotransportados. Los de
mayor interés son los dedicados por las agencias NASA y ESA a la observación am-
biental y los satélites meteorológicos. Las características de estos sensores (sus bandas,
su resolución espacial, el tamaño de las imágenes que adquieren, etc.) están diseñadas
en función de sus objetivos, y con criterios que tienen en cuenta el equilibrio entre la
cantidad y la calidad de la información obtenida con las tecnologías disponibles en el
momento de su puesta en funcionamiento. Muchas imágenes de estos sensores son pro-
porcionadas gratuitamente por las agencias que las han adquirido, con fines educativos,
de investigación, o simplemente de promoción.
El sensor de referencia con el que se comparan las observaciones de todos los demás
es el espectrorradiómetro de campo, con el que se mide directamente (en el campo) la
luz que reflejan los cuerpos que se quieren estudiar. El realizar una medida detallada in
situ sirve para calibrar las medidas remotas, para disponer de bibliotecas de espectros
conocidos y para verificar sobre el terreno las medidas de un sensor. Además, a partir
de las medidas detalladas de un radiómetro de campo es posible simular las medidas
realizadas por un sensor óptico a bordo de un avión o un satélite. Por ello es importante
familiarizarse con el uso de este dispositivo, tanto en campo, como en laboratorio.

4.2. CUESTIONES

Cuando se quiere realizar un estudio a pequeña escala sobre, por ejemplo, la dis-
1. tribución de determinados tipos de vegetación o suelos en una zona, se suele com-
parar la información espectral medida desde el satélite con información espectral
medida in situ con un espectrorradiómetro de campo. ¿En qué condiciones se lle-
van a cabo estas medidas?

151
C UESTIONES DE TELEDETECCIÓN

a) A la hora exacta del paso del satélite por la zona de estudio, midiendo las
cubiertas presentes en un único punto
b) En las mejores condiciones de iluminación: al mediodía, un día despejado
de verano, midiendo todas las cubiertas presentes en la zona de estudio
c) Entre una hora antes y una hora después del paso del satélite, midiendo varias
cubiertas de interés en la zona de estudio
d) A la hora exacta del paso del satélite, midiendo la radiación solar que incide
sobre el suelo

2. Para elaborar una biblioteca de espectros de cubiertas terrestres (vegetación, sue-


los, minerales, aguas) se usa un espectrorradiómetro. ¿Cómo se debe proceder?

a) Se deben medir los espectros in situ, con la cubierta reflejando la luz del sol,
con éste elevado sobre el horizonte entre 20◦ y 70◦
b) Se deben tomar muestras y hacer las medidas iluminándolas solamente con
una lámpara calibrada (cuyo espectro conocemos) en el laboratorio
c) Se deben medir los espectros in situ, pero usando una lámpara calibrada,
para evitar la degradación de las muestras.

d) Cualquiera de los métodos anteriores es válido.

3. La ESA ha puesto en órbita un par de satélites de la constelación Sentinel, los


Sentinel-1, con sensores radar. A estos los seguirán los Sentinel-2, un par de saté-
lites dedicados a la teledetección óptica, usando el sensor multiespectral, el MSI.
Este sensor poseerá bandas que proporcionarán continuidad a los datos de senso-
res de otras misiones, ¿de cuáles?

a) MERIS y SPOT
b) MODIS y Landsat 5-7
c) ALI y Landsat 7
d) todos los anteriores

4. El satélite DEIMOS 1 (o Spain-DMC 1), lanzado el 29 de julio del 2009, es el


primer satélite artificial español de financiación privada (Deimos Imaging). Ante-
riormente otras empresas habían visto en la adquisición de imágenes desde saté-
lite un campo de negocio: (SPOT), DigitalGlobe (satélites IKONOS, QuickBird y

152
S ENSORES DE EJEMPLO

WorldView), RapidEye. Pero los costos de diseño, construcción y puesta en órbita


de estos satélites son muy elevados, por lo que lo son también los de los produc-
tos que obtienen. A pesar de eso actualmente es posible conseguir imágenes de
algunos de estos sensores de forma gratuita ¿de cuáles?

a) DEIMOS
b) Ikonos, QuickBird y WorldView
c) RapidEye
d) SPOT

5. El satélite Landsat 8 fue lanzado el 11 de febrero del 2013. Este satélite cuenta
con dos sensores a bordo: el OLI (con 9 bandas) y el TIRS (con 2 bandas en el
infrarrojo térmico). Teniendo en cuenta que la resolución espacial (de 15 m en
la pancromática, 30 m en las bandas multiespectrales y 100 m en el IR térmico)
es mucho más baja que la de otros sensores con aplicaciones medioambientales y
bandas similares como el SPOT, IKONOS o QuickBird. ¿Por qué es tan importante
el lanzamiento de este satélite?

a) Porque las imágenes serán de acceso gratuito


b) Porque dará continuidad a la familia de satélites Landsat, continuando la
serie temporal más larga de imágenes de satélite.
c) Porque incluye bandas que permiten hacer estudios ambientales que no tie-
nen los otros satélites.
d) Por todas las anteriores

6. En el sitio http://oceancolor.gsfc.nasa.gov/, se proporciona acceso abierto a una


serie histórica de productos sobre observación oceánica a partir de medidas reali-
zadas por la serie de satélites oceanográficos de la NASA. ¿Qué misiones/sensores
forman esta serie?

a) CZCS, SeaWiFS, Aquarius


b) CZCS, SeaWiFS, MODIS
c) SeaWiFS, MERIS, Landsat
d) CZCS, OCTS, MERIS

153
C UESTIONES DE TELEDETECCIÓN

7. Los satélites Meteosat de segunda generación (MSG) mantienen entre sus bandas,
las clásicas de los Meteosat: visible, infrarrojo medio (3,9 μm), vapor de agua
(6,2 μm) e infrarrojo térmico (10 μm). Cuando en la información del tiempo, en
televisión, muestran unas imágenes de satélite en las que se observa el avance de
frentes, o la evolución de la nubosidad a lo largo del día, ¿qué se muestra?

a) las imágenes visibles tomadas cada 15 minutos por el satélite Meteosat


b) las imágenes de infrarrojo medio
c) las imágenes de infrarrojo térmico
d) las imágenes de vapor de agua

8. En el sitio http://earthdata.nasa.gov/labs/worldview/, se muestran las imágenes ob-


tenidas por los sensores MODIS de la NASA. Uno de los productos ofertados es
el de fuegos que se detecta el MODIS por medio de su banda de infrarrojo de
onda corta (SWIR, short wave infrared). ¿Qué características de estos sensores
permiten obtener este producto diariamente?

a) la órbita baja del satélite


b) el uso de varios satélites
c) la baja resolución del sensor
d) todas las anteriores

9. Las imágenes de satélite que solemos ver en los medios referidas a desastres,
naturales o artificiales (terremotos, vertidos de hidrocarburos,...) o las que nos
muestran los efectos del cambio climático en el Ártico o la Antártida (movimiento
de los glaciares, pérdida de espesor de hielo), suelen proceder de sensores activos
como el ASAR de la ESA. ¿Qué características hacían a este sensor tan mediático?

a) la distribución en abierto de sus datos por parte de la ESA


b) sus capacidades polarimétricas e interferométricas
c) su tiempo de revisita de 35 días
d) que sea capaz de adquirir imágenes aún en presencia de nubes

154
S ENSORES DE EJEMPLO

10. En España existen instituciones públicas que cuentan con sensores hiperespectra-
les aerotransportados que pueden ser utilizados por investigadores y empresas. A
pesar del carácter público de estas instituciones los costes de los vuelos son muy
altos y deben ser cubiertos por el solicitante. Por esta razón es importante diseñar
la campaña correctamente para minimizar el riesgo de errores. Si queremos tomar
datos de un área costera, ¿qué debemos tener en cuenta?

a) la dirección de las pasadas del avión a cada hora


b) la hora de la marea alta
c) el tipo de costa: rocosa, con playas, urbanizada, . . .
d) el precio del “kilómetro cuadrado” de imagen

155
C UESTIONES DE TELEDETECCIÓN

4.3. RESPUESTAS A LAS CUESTIONES

1. Cuando se quiere realizar un estudio sobre una zona geográfica pequeña para
caracterizar, por ejemplo, la distribución de determinados tipos de vegetación o
suelos en una zona, se suele comparar la información espectral medida desde el
satélite con información espectral medida in situ con un espectrorradiómetro
de campo. ¿En qué condiciones se llevan a cabo estas medidas?

Respuesta: (c) Un espectrorradiómetro de campo es un sensor hiperespectral muy bueno


(las bandas que adquiere son muchas más y más estrechas que las de cualquier
sensor a bordo de un satélite) con un único píxel. Se utiliza o bien para elaborar
bibliotecas de espectros, o bien para tomar medidas in situ que no están afecta-
das por la atmósfera terrestre y poder así corregir las medidas obtenidas desde el
satélite, que sí lo están.

Un espectrorradiómetro de campo es un pequeño sensor “humano-transportado”. La luz


procedente de la reflexión de la luz solar en los objetos del área de estudio es dirigida,
por medio de una fibra óptica (una “guía de ondas”) a un analizador, que la dispersa en
función de su longitud de onda sobre muchos detectores, cada uno de los cuales mide la
energía que le llega en esa longitud de onda específica. Como la luz se distribuye entre
muchos sensores, cada uno correspondiente a una estrecha banda del espectro, el tiempo
de medida para un único punto suele requerir varios segundos.
Dependiendo del uso para el que se haya diseñado el espectrorradiómetro éste puede
abarcar el espectro visible o una parte del ultravioleta o del infrarrojo. Cuando abarca
sólo el espectro visible (y, posiblemente, parte del ultravioleta), se suele llamar espectro-
fotómetro, y se habla de colorimetría, en lugar de espectrorradiometría; suelen emplearse
más para hacer análisis químicos, midiendo la absorción, en lugar de la reflexión. Los
espectrorradiómetros más comunes son los que abarcan el visible y el infrarrojo cer-
cano; se emplean para el estudio de aguas y de vegetación. Los espectrorradiómetros de
más alta gama (y, por lo tanto, más caros) abarcan el visible, el infrarrojo cercano y el
infrarrojo medio; son instrumentos de propósito general, usados sobre todo para investi-
gación, y que permiten caracterizar cubiertas de agua, vegetación, minerales, suelos, etc.
[Debido a sus usos y a los requisitos técnicos, los precios de estos instrumentos son muy
diferentes: cada uno cuesta entre 12 y 15 veces más que el anterior].
Estos instrumentos son usados en el campo para identificar posteriormente las cu-
biertas examinadas (aguas, hojas de plantas, suelos, minerales, nieve o hielo) en las imá-
genes del satélite. Esto es útil porque los sensores en satélites, o incluso en aviones, ven

156
S ENSORES DE EJEMPLO

Pantalla de
visualización

Miniordenador

Espectrorradiómetro
(analizador)

Fibra óptica

Captador
(coseno−receptor)

Figura 4.1. Espectrorradiómetro de campo.

los objetos en la superficie terrestre a través de la atmósfera. La atmósfera absorbe la


radiación en ciertas longitudes de onda, y la dispersa en otras. Por lo tanto, lo que se ob-
serva desde un sensor remoto está afectado por la presencia y el estado de la atmósfera.
Un sensor a pie de suelo no tiene este problema. De hecho, comparando lo observado
por él con lo que observa el sensor remoto es posible “eliminar la atmósfera”; es lo que
se llama corrección atmosférica por medidas de campo.
Para que esta comparación sea lo más precisa posible, el estado de lo observado y
la iluminación en el lugar de observación deben ser las mismas en las dos medidas. Por
ello, se suelen programar las salidas al campo el mismo día del paso del satélite por el
lugar de estudio. Es imposible hacer la medida de un objeto en el preciso momento en
que se adquiere el píxel que lo contiene. Normalmente, además, en un píxel se hallarán
muchos objetos. Por ello, lo que se hace es adquirir espectros de muchos materiales en
la zona de estudio. Los de las cubiertas más extensas (aguas, suelos, hojas de árboles de
un bosque), se identificarán en los píxeles de la imagen del satélite. Las posibles mezclas
con las cubiertas minoritarias (rocas o minerales, vegetación arbustiva, etc.) se podrán
comparar con la medida remota, para intentar estimar su presencia; no para hacer la
corrección atmosférica de la imagen.
Por lo general, se acota el tiempo de medida de campo alrededor de la hora del paso
del satélite. La iluminación es prácticamente la misma entre una y dos horas antes y des-

157
C UESTIONES DE TELEDETECCIÓN

pués del paso, que suele darse a media mañana o mediodía (en la latitud de España). No
es conveniente que el sol esté demasiado bajo ni demasiado alto: entre 30◦ y 60◦ de ele-
vación. Si está demasiado bajo, la absorción de la radiación de “bajada” (downwelling)
será muy diferente de la absorción que sufre durante la “subida” al sensor (upwelling);
es conveniente que ambas sean parecidas para reducir el error en la corrección. Los ex-
pertos tampoco suelen realizar medidas con el sol demasiado cercano al cenit.

2. Para elaborar una biblioteca de espectros de cubiertas terrestres (vegetación,


suelos, minerales, aguas) se usa un espectrorradiómetro. ¿Cómo se debe
proceder?

Respuesta: (c) o (d) El mejor método para construir una biblioteca de espectros de
reflectividad es hacer medidas in situ con una lámpara calibrada, ya que ésta
abarcará la totalidad del espectro, sin zonas “oscuras” en las bandas de absor-
ción de la atmósfera. No obstante, los otros métodos pueden ser razonables para
determinados estudios, como aquéllos en los que no se puede transportar la lám-
para o no se pueden mover las muestras de su lugar.

Una biblioteca de espectros contiene los espectros de reflectividad de una serie de mate-
riales (“cubiertas terrestres”) de interés para estudiar una región, obtenidos con medidas
en el campo con un espectrorradiómetro o en el laboratorio. Por ejemplo, una biblioteca
de espectros será la de los minerales en una zona, para determinar con teledetección su
distribución. Otra biblioteca de espectros será la de las hojas de los árboles en una región
o de los vegetales cultivados en otra, para determinar la distribución espacial o la evo-
lución estacional (del estado fenológico) de unos u otros. Existen bibliotecas estándar
construidas promediando muchas medidas, como la base de datos de firmas espectra-
les ASTER. Es muy empleada también la biblioteca de firmas espectrales del software
(comercial) de referencia el teledetección hiperespectral, ENVI.
Para construir una biblioteca de espectros de reflectividad, es necesario medir ésta.
La reflectividad es el cociente entre la radiancia espectral (la cantidad de luz de una
longitud de onda) reflejada por un material y la que reflejaría si no absorbiese ninguna
de esa energía. Para calcularla, se emplea un “blanco de referencia”, es decir, un material
blanco, puro, que refleja la totalidad (o la casi totalidad) de la luz que llega a él: esto da
el espectro de radiancia espectral incidente (es decir, de energía medida sin absorción
del material). Luego, se mide la radiancia espectral reflejada por el material y se divide
por la del blanco de referencia, longitud de onda, a longitud de onda. El cociente, es la
reflectividad espectral.

158
S ENSORES DE EJEMPLO

1 1

0.8 0.8

Reflectividad
Reflectividad

0.6 0.6

0.4 0.4

0.2 0.2

0 0
500 1000 1500 2000 2500 500 1000 1500 2000 2500
Longitud de onda (nm) Longitud de onda (nm)

Figura 4.2. Izquierda: Espectro de reflectividad de vegetación con ruido en las bandas de absorción
atmosféricas. Derecha: Espectro de reflectividad de vegetación de laboratorio.

Cuando observamos el espectro de radiancia espectral que nos llega del Sol, vemos
rápidamente por qué no siempre se pueden realizar estas medidas: la energía que procede
del Sol, en determinadas bandas de longitudes de onda, se hace prácticamente cero, y
no se puede dividir por cero o valores muy próximos a cero. En esos casos se obtienen
espectros de reflectividad como el de la figura , en el que los valores de la fracción de
energía reflejada por una hoja aparecen, a veces, superiores a la unidad: esto es, por
supuesto, un error; estas bandas deben ser descartadas.
Para evitar los efectos de la absorción atmosférica, las medidas de los espectros
de reflectividad se llevan a cabo usualmente con lámparas calibradas con las que se
iluminan tanto el blanco de referencia como la muestra a caracterizar. La luz de estas
lámparas, al estar muy próxima a las muestras, no sufre ninguna clase de absorción, por
lo que el espectro que se obtiene está completo. En cuanto a las aguas (continentales
o marinas) o las cubiertas biológicas (hojas de vegetación, algas marinas) las medidas
espectrales se realizan lo más cerca posible del lugar de muestreo: habitualmente, en el
mismo lugar (desde barcas, para el agua, o a pie de playa, por ejemplo, para las algas).
De este modo, las firmas espectrales medidas corresponderán a su estado natural, sin
que se hayan degradado por el transporte, y podrán compararse luego con las medidas
hechas por teledetección.

159
C UESTIONES DE TELEDETECCIÓN

Figura 4.3. Bandas del MSI del Sentinel-2. Fuente: ESA.

3. La ESA ha puesto en órbita un par de satélites de la constelación Sentinel, los


Sentinel-1, con sensores radar. A estos los siguen los Sentinel-2, un par de
satélites dedicados a la teledetección óptica, usando el sensor multiespectral, el
MSI. Este sensor poseerá bandas que proporcionarán continuidad a los datos
de sensores de otras misiones, ¿de cuáles?

Respuesta: (d) El MSI de los Sentinel-2 será un sensor óptico que heredará bandas
de los principales sensores de observación de la Tierra diseñados hasta ahora:
MODIS (de los satélites Aqua y Terra de la NASA), ALI (de los Earth Observer de
la NASA), OLI (del Landsat-8), TM/ETM+ (de los Landsat 4-5 y 7) y HVR (de los
Spot-4 y 5).

Los sensores MSI (multi spectral instrument) del Sentinel-2 que la ESA pondrá en órbita
próximamente, proporcionarán imágenes de la Tierra con una alta resolución espacial de
10 m en el visible (aunque en otras bandas proporcionará resoluciones de 20 m o 60 m).
Estos sensores irán a bordo de dos satélites gemelos que permitirán un tiempo de revisita
de 5 días (10 días cada satélite).
El MSI poseerá 13 bandas. Seis de esas bandas serán para dar continuidad a las
imágenes Landsat (aunque también SPOT): una en el azul, otra en el verde y otra en el
rojo, para cubrir el rango visible (bandas 2, 3 y 4); una en el infrarrojo cercano (banda
8), una en el infrarrojo medio (banda 11) y otra en el infrarrojo de onda corta (banda 12).
Además, como el ALI del Landsat-8 (y el MODIS), tendrá una banda más estrecha en el

160
S ENSORES DE EJEMPLO

azul (la banda 1): ésta servirá para medir la luz dispersada por la atmósfera, y corregir así
mejor el efecto de los aerosoles. Otras dos bandas, también orientadas a corregir el efecto
de la atmósfera son la banda 10 en el infrarrojo medio (también presente en MODIS y
Landsat-8) que sirve para identificar los cirros más finos, las nubes altas que también
afectan a la transparencia de la atmósfera, y la banda 9 en el infrarrojo cercano (presente
en MODIS y MERIS), situada en el límite de una banda de absorción del vapor de agua,
uno de los principales absorbentes de la luz infrarroja.
Por último, tendrá 3 bandas estrechas (las 5, 6 y 7), situadas en el rojo (donde absor-
ben las clorofilas) heredadas del MERIS: permitirán identificar pigmentos fotosintéticos
tanto en aguas como en tierra, para determinar el estado de la vegetación e, incluso,
clasificarla.
Con todas estas características, los Sentinel-2 serán los satélites ópticos de observa-
ción de la Tierra más completos, al menos en el momento de su lanzamiento, y posi-
blemente durante los 7 años de vida que se prevé que dure el combustible usado para
corregir su órbita.

4. El satélite DEIMOS 1 (o Spain-DMC 1), lanzado el 29 de julio del 2009, es el


primer satélite artificial español de financiación privada (Deimos Imaging).
Anteriormente otras empresas habían visto en la adquisición de imágenes
desde satélite un campo de negocio: Astrium (SPOT), DigitalGlobe (satélites
IKONOS, QuickBird y WorldView), RapidEye. Pero los costos de diseño,
construcción y puesta en órbita de estos satélites son muy elevados, por lo que
lo son también los de los productos que obtienen. A pesar de eso actualmente es
posible conseguir imágenes de algunos de estos sensores de forma gratuita. ¿De
cuáles?

Respuesta: (d) La serie SPOT es la serie de satélites “misiones de terceros” que más
tiempo lleva incorporada a la ESA. No obstante, en la actualidad, la agencia
proporciona acceso a algunas imágenes archivadas de las misiones DEIMOS y
RapidEye, más jóvenes que SPOT, por lo que (a) y (c) también serían respues-
tas válidas. Ikonos, uno de los satélites de DigitalGlobe, también se ha incluido
tradicionalmente entre estas misiones, aunque sus imágenes están restringidas a
proyectos muy concretos, que hayan sido previamente aprobados por los expertos
de la ESA.

Las imágenes de alta resolución espacial, entre 0,60 y 5 m de tamaño de píxel, son adqui-
ridas casi exclusivamente por sensores de satélites de entidades privadas (por lo menos

161
C UESTIONES DE TELEDETECCIÓN

aquéllas a las que la población civil tiene acceso). Para hacer rentable la inversión que
construir y poner un satélite en órbita representa, estas entidades venden sus imágenes
a precios muy elevados (de hasta 100 e/km2 ), lo que las deja fuera del alcance de la
mayor parte de pequeñas empresas y grupos de investigación.
La Agencia Espacial Europea (ESA) además de contar con satélites propios (Cryo-
Sat, SMOS, GOCE, Envisat, ERS, Proba-1) establece acuerdos con otras entidades pú-
blicas, como la NASA, y privadas, como Deimos Space o RapidEye, que le dan acceso
a imágenes adquiridas con sus sensores bajo condiciones específicas (por ejemplo, li-
mitados al continente europeo, limitados a unos meses, etc.). Estos acuerdos bilaterales
benefician a ambas partes ya que permiten sacar un mayor rendimiento de los satélites
(construir un satélite y ponerlo en órbita tiene un coste muy elevado, pero la posterior
captura de imágenes apenas tiene costes asociados) y les da acceso a un mayor número
de imágenes/productos. La ESA engloba todos estos acuerdos en las llamadas “3rd Party
Missions” y permite a cualquier investigador europeo solicitar estas imágenes mediante
la presentación de un proyecto donde se expongan los objetivos del trabajo a realizar,
junto con un compromiso de informar de los resultados obtenidos.
Esta iniciativa permite a muchos investigadores tener acceso a imágenes que, de otro
modo, nunca podrían adquirir y, además, tiene un efecto positivo para los propietarios de
los satélites ya que al aumentar el número de investigaciones que utilizan sus imágenes
se descubren nuevas utilidades para las mismas, lo que las revaloriza y aumenta su es-
pectro de clientes potenciales. Este aspecto es bien conocido por estas empresas que, en
ocasiones, abren sus propias convocatorias (independientes de acuerdos con la ESA) pa-
ra que los investigadores presenten proyectos en los que los objetivos sean aplicaciones
de sus imágenes y, si son bien valorados, las ceden gratuitamente.

5. El satélite Landsat 8 fue lanzado el 11 de febrero del 2013. Este satélite cuenta
con dos sensores a bordo: el OLI (con 9 bandas en el espectro óptico) y el TIRS
(con 2 bandas en el infrarrojo térmico). Teniendo en cuenta que la resolución
espacial (de 15 m en la pancromática, 30 m en las bandas multiespectrales y
100 m en el IR térmico) es mucho más baja que la de otros sensores con
aplicaciones mediambientales y bandas similares como el SPOT, IKONOS o
QuickBird. ¿Por qué es tan importante el lanzamiento de este satélite?

Respuesta: (d) El nuevo satélite de la serie Landsat (Landsat-8, hasta poco después de
su lanzamiento, LDCM, Landsat Data Continuity Mission) seguirá siendo gestio-
nado por la NASA y el USGS, con el compromiso de proporcionar sus imágenes

162
S ENSORES DE EJEMPLO

Figura 4.4. Serie histórica de satélites Landsat. Fuente: NASA.

gratuitamente con objetivos de investigación o educativos. Esto es muy importan-


te porque proporciona acceso a unos datos muy familiares para los investigadores
(¡desde hace 40 años!) y que han ido añadiendo nuevas características a lo largo
del tiempo para dar respuesta a nuevas necesidades.

El primer satélite Landsat (el Landsat 1) fue puesto en órbita el 23 de julio de 1972. Tras
éste fueron lanzados el Landsat 2 (1975), Landsat 3 (1978), Landsat 4 (1982), Landsat
5 (1985), Landsat 6 (1993, aunque no llegó a ponerse en órbita debido a un accidente
durante el lanzamiento), Landsat 7 (1999) y, en febrero de este año 2013, el Landsat 8.
Estos satélites han tomado imágenes de la superficie de la Tierra de forma ininterrumpida
y homogénea (todos los satélites contaron con sensores que tuviesen, como mínimo, las
mismas bandas del anterior y, en algunos casos, alguna nueva), lo que los convierte en
la familia de satélites civiles con una serie temporal más larga (más de 40 años).
Durante muchos años la NASA, a través de empresas intermediarias, vendía las imá-
genes adquiridas por los sensores de los satélites Landsat. Aunque estas imágenes tenían
precios (en e/km2 ) mucho más asequibles que otras disponibles con bandas similares,
como las SPOT (de mayor resolución espacial, por otro lado), sus costes seguían siendo
elevados dejándolas fuera del alcance de muchos interesados. Sin embargo, en abril de
2009, el Servicio Geológico de EE.UU. (USGS) anunció que gran parte de las imágenes
Landsat (adquiridas en fechas previas así como futuras adquisiciones) serían puestas a
disposición de cualquier usuario de forma gratuita (a través de una aplicación en línea).
Desde entonces cualquier investigador registrado puede bajarse de forma gratuita imá-
genes Landsat, georreferenciadas y con un nivel de procesamiento básico, y trabajar con
ellas libremente.

163
C UESTIONES DE TELEDETECCIÓN

El acceso gratuito a estas imágenes fue un hecho muy relevante, tanto para la co-
munidad científica como para administraciones públicas y empresas, que contribuyó a
la popularización de la teledetección. Esto representó aún más para países en desarrollo
donde, hasta entonces, los costes de adquisición de imágenes de satélite de estas carac-
terísticas las hacían inaccesibles. La longitud de su serie temporal, su homogeneidad y
su carácter gratuito hacen de estas imágenes la herramienta escogida actualmente para
numerosas aplicaciones (científicas, de gestión territorial, etc.). Un ejemplo es la apli-
cación Earth Engine desarrollada por Google utilizando la serie histótica de imágenes
Landsat.
Además de estas características, los Landsat, y en particular el Landsat-8, cuenta con
una ventaja más frente a las imágenes de otros sensores, como el QuickBird o el SPOT:
añaden bandas en el visible (azul) y en el IR (medio, de onda corta y térmico) que les
permiten abordar estudios sobre vegetación, suelos, o zonas urbanas que no son viables
con los anteriores.

6. En el sitio http://oceancolor.gsfc.nasa.gov/, se proporciona acceso abierto a una


serie histórica de productos sobre observación oceánica a partir de medidas
realizadas por la serie de satélites oceanográficos de la NASA. ¿Qué
misiones/sensores forman esta serie?

Respuesta: (b) Los satélites CZCS, SeaWiFS y el par Terra y Aqua, con sensores MO-
DIS, son la serie histórica de sensores de “color oceánico” de la NASA; en la
OceanColor Web, se puede acceder a sus datos, que comienzan en 1978. Los otros
sensores que se mencionan también son sensores espectroscópicos que se han em-
pleado para estudiar los pigmentos en la superficie del océano, pero pertenecen a
las agencias espaciales japonesa (OCTS) y europea (MERIS).

Se denominan satélites oceánicos a aquellos satélites que tienen como objetivo principal
la caracterización de variables en la capa superficial de los océanos (la atenuación de la
onda electromagnética restringe el estudio a esta capa) como la temperatura superficial
(Sea Surface Temperature, SST), la concentración de clorofila, la turbidez causada por
materia en suspensión, la salinidad, el nivel del mar, etc.
Todos estos satélites se caracterizan por tener un tiempo de revisita corto (pocos días)
y una resolución espacial baja (entre 250 m y los 4 km). Por esta razón generalmente las
imágenes adquiridas por sus sensores se han utilizado para el estudio de fenómenos glo-
bales, como la subida del nivel del mar, las corrientes oceánicas, fenómenos meteoroló-

164
S ENSORES DE EJEMPLO

gicos a gran escala (“El Niño”, por ejemplo) o el calentamiento global (subida de la SST
del océano). Sin embargo, su amplia serie temporal disponible (y también la distribución
gratuita de sus datos) hace que cada vez se utilicen para mayor número de estudios oceá-
nicos, climáticos y costeros, asumiendo en éstos la pérdida del área del “pixel mixto” (es
decir, que en algún píxel se mezclan una cubierta acuática y una terrestre).
De entre los satélites oceánicos hay un grupo de ellos cuyo objetivo principal es ca-
racterizar los “pigmentos” del agua (normalmente la concentración de clorofila-a), me-
diante la inclusión de varias bandas espectrales estrechas en el rango visible del espectro.
De estos sensores se dice que estudian “el color” del agua (“ocean color”) aunque, en
realidad, integran la luz que penetra en el primer espesor óptico (hasta donde llega un
37 % de la luz solar incidente). La NASA, al igual que sucede con las imágenes Landsat,
ha intentado tener de forma continua esta variable caracterizada, poniendo en funcio-
namiento una serie de satélites: CZCS (1978-1986), SeaWiFS (1997-2010) y MODIS
(desde 1999). [A pesar de ello, existe un periodo de 11 años sin datos (entre 1986 y
1997)].
Pero este interés no fue exclusivo de la NASA. La ESA incluyó en el Envisat el
sensor MERIS, con bandas específicas para este propósito, y que será remplazado por el
sensor MSI del próximo Sentinel-2 y, en un futuro, por los sensores de estudio del océano
del Sentinel-3, que proporcionarán continuidad a la serie de datos. También la NASDA
(Agencia Nacional de Desarrollo Espacial de Japón, actualmente JAXA) quiso obtener
imágenes de estas características y puso en órbita a finales de 1996 el sensor OCTS a
bordo del satélite MIDORI; desafortunadamente sólo adquirió imágenes durante apenas
siete meses.
Los datos de variables oceanográficas calculados a partir de las imágenes obtenidas
con estos tres sensores pueden descargarse georreferenciados de la página de la NASA
dedicada al estudio del “color del océano”. Por otro lado, en España, el CREPAD (Cen-
tro de REcepción, Proceso, Archivo y Distribución de Imágenes de Observación de la
Tierra) reprocesa los productos L1 de esos satélites, calculando esas variables, así como
medias semanales y mensuales de las mismas (también otras, como los valores de tem-
peratura superficial del mar, SST, a partir de imágenes del satélite AVHRR) y las cede
gratuitamente a los investigadores previa solicitud. Al igual que con los datos de los sa-
télites meteorológicos, que se emplean para alimentar modelos numéricos de predicción,
estos datos de satélites oceanográficos “alimentan” modelos numéricos de predicción de
corrientes marinas, con los que también se pueden llevar a cabo predicciones.

165
C UESTIONES DE TELEDETECCIÓN

7. Los satélites Meteosat de segunda generación (MSG) mantienen entre sus


bandas, las clásicas de los Meteosat: visible, vapor de agua (6,2 μm) e infrarrojo
térmico (10 μm). Cuando en la información del tiempo, en televisión, muestran
unas imágenes de satélite en las que se observa el avance de frentes, o la
evolución de la nubosidad a lo largo del día, ¿qué se muestra?

Respuesta: (c) Aunque para la predicción meteorológica se emplean las bandas del
satélite Meteosat (particularmente, las 3 originales), a la hora de mostrar la nu-
bosidad, con continuidad a lo largo de todo el día, se suele emplear la banda 7
del SEVIRI, que corresponde al infrarrojo térmico (centrada en 10 μm).

La serie de satélites Meteosat (ahora llamados de primera generación) proporcionaron


información sobre la atmósfera terrestre desde el 1977. Desde su órbita geostacionaria
(en longitud 0) adquirían imágenes cada 30 minutos con el sensor MVIRI (Meteosat
Visible Infra-Red Imager) en tres bandas del espectro centradas en 0,70 μm, 6,40 μm y
11,5 μm. El primero de estos canales proporciona, prácticamente, a una imagen en blan-
co y negro (visible) de la Tierra, con un píxel de 2,5 km de tamaño. Las otras dos se
encuentran en el infrarrojo térmico: la IR6.40, muestra la distribución del vapor de agua
en la atmósfera, aprovechando la principal banda de absorción (y dispersión) del va-
por de agua como gas de efecto invernadero, mientras que la IR11.5, informa sobre la
temperatura de las nubes (y de la superficie terrestre). Este último canal es el mostra-
do tradicionalmente en las imágenes de la información meteorológica. Es tradicional,
además, asignar en las imágenes térmicas el brillo como el negativo de la temperatura
medida: así las nubes, frías, aparecen en colores blancos, mientras que la tierra, más
caliente, aparece en color negro. La banda de “vapor de agua” (IR6.40) no se suele mos-
trar: hay mucho vapor de agua en la atmósfera y no muestra tan claramente los frentes
de nubes respecto a las zonas despejadas.
La serie Meteosat Second Generation (MSG) utiliza el sensor SEVIRI (Spinning
EnhancedVisibleInfra-RedImager).Estesensorposee12bandas:3enelVIS-NIR,2
enelSWIR,yotras6enelinfrarrojotérmico.ElSEVIRIescapazdeadquiririmágenes
de todo el disco terrestre cada 15 minutos, aunque también se pueden configurar para
adquiririmágenesdezonasreducidascadamenostiempo:laexistenciadevariossatélites
enórbitageostacionaria(sobrelaslongitudes0◦ ,elMeteosat-10,3,5◦ E,elMeteosat-8,
y9,5◦ E,elMeteosat-9),permitededicaralgunodeellosaestasadquisicionesdemayor
resolucióntemporal.Labandapancromática,lallamadabandavisibledealtaresolución,
proporcionaimágenesde“altaresolución”,conpíxelde1km.Lasbandasdelinfrarrojo
térmico que más se emplean son las 5 (centrada en 6,2 μm) y 7 (centrada en 8,7 μm),
equivalentesalasfamiliaresdelMVIRI.

166
S ENSORES DE EJEMPLO

Figura 4.5. Imagen del producto MSG de cenizas en la que se puede observar, sobre el Atlántico, la nube
de cenizas volcánicas de la erupción del Eyjafjallajokull en 2010. Fuente: EUMETSAT.

Recientemente, en los programas de información meteorológica, se han ido incorpo-


rando otras imágenes, diferentes de las infrarrojas de temperatura de nubes (banda IR6.4
del MVIRI o IR6.2 del SEVIRI). Así, es frecuente observar imágenes en visible (color
natural), o incluso combinaciones RGB que destacan algunas características, como la
nube de cenizas volcánicas en el caso de la erupción del volcán islandés Eyjafjallajökull
en 2010.

8. En el sitio http://earthdata.nasa.gov/labs/worldview/, se muestran las imágenes


obtenidas por los sensores MODIS de la NASA. Uno de los productos ofertados
es el de fuegos que detecta el MODIS por medio de su banda de infrarrojo de
onda corta (SWIR, short wave infrared). ¿Qué características de estos sensores
permiten obtener este producto diariamente?

Respuesta: (d) La frecuencia de revisita de estos satélites depende de la altura de su


órbita, pero también del amplio “swath” (que conlleva una baja resolución espa-
cial). Ello permite que cada satélite cubra la superficie terrestre cada dos días, y
que entre los dos, barran toda la superficie del planeta cada día.

167
C UESTIONES DE TELEDETECCIÓN

El tiempo de revisita que permite a los satélites Terra y Aqua (ambos con sensor MODIS)
adquirir una imagen completa de la Tierra cada día, viene determinado por la altura de
su órbita: es una órbita baja, a 700 km de altitud, y las imágenes que obtienen barren
un “swath” de 2300 km; es decir, el MODIS adquiere datos hasta a casi 60◦ a cada lado
del nadir. Tener un swath tan amplio está relacionado con su baja resolución: sus píxeles
serán más grandes (de 200 m, 500 m o 1000 m, dependiendo de la banda concreta).
Los productos de “fuegos” son un ejemplo de imágenes que requieren alta resolución
temporal y moderada resolución espacial. La ESA proporcionaba el World Fire Atlas,
obtenido con el sensor ATSR (un radiómetro infrarrojo térmico, inicialmente pensado
para medir la temperatura superficial del mar, la SST) a bordo del satélite Envisat. Es-
tos productos permiten visualizar dónde se producen fuegos (aunque también detectan
“falsos positivos”), pero no medir con precisión el área que está ardiendo: los datos ob-
tenidos en la banda SWIR detectan sólo la presencia de fuego en un píxel en el instante
de paso del sensor. Esto era crítico en el caso del ATSR, ya que sólo permitía detectar
los fuegos durante la noche, y debido a su swath más pequeño que el del MODIS, su
tiempo de revisita era de 5 días.

9. Las imágenes de satélite que solemos ver en los medios referidas a desastres,
naturales o artificiales (terremotos, vertidos de hidrocarburos,. . . ), o las que
nos muestran los efectos del cambio climático en el ártico o la antártida
(movimiento de los glaciares, pérdida de espesor de hielo), suelen proceder de
sensores activos como el ASAR de la ESA. ¿Qué características hacían a este
sensor tan mediático?

Respuesta: (d) De todas las imágenes obtenidas por los sensores a bordo de satélites,
sólo las de radar como el ASAR, muestran siempre los objetos en el área barrida
por el sensor. Los demás, los ópticos, muestran muchas veces nubes que ocultan
la superficie terrestre; los radar pueden ver siempre a través de ellas.

Los satélites activos radar trabajan en la zona del espectro electromagnético de longi-
tudes de onda muy largas (superiores al centímetro) en la que la atmósfera terrestre
es totalmente transparente. Esto quiere decir que el barrido que hacen de la superficie
terrestre es continuo, sin interrupciones debidas a la meteorología como sufren otros
sensores (compruébese en http://miravi.eo.esa.int/en/, por ejemplo, lo complicado que
es encontrar escenas sin nubes de un sensor como el MERIS). Por esta razón es muy
probable que cuando sucede algún fenómeno visible desde el espacio, un sensor radar
esté ahí para verlo.

168
S ENSORES DE EJEMPLO

Figura 4.6. Imagen ASAR en “single-view” (izquierda) y promediada en “multi-view” (derecha). Fuente:
ESA.

No obstante, los sensores radar tienen limitaciones. La principal procede de la pro-


pia interpretación de una imagen radar, que es tan diferente a la de una imagen de un
sensor óptico. Las imágenes radar se ven “ruidosas” cuando se inspeccionan de cerca:
el aspecto “puntillista” nos informa, de cierta manera, sobre la “textura” de la superficie
que refleja la onda de radar. El ASAR, mediante la técnica de visión múltiple (“multi-
view”), permitía obtener varias imágenes sucesivas de la misma zona y, promediándolas,
eliminar en parte este problema.
Otra limitación, es la resolución espacial de las imágenes de radar, que viene limitada
por la longitud de onda que se emplea: cuanto mayor sea, menor poder tendrá el sensor
para resolver o diferenciar dos objetos que se hallen cerca (la resolución espacial de los
sensores ópticos está limitada por otros motivos, que tienen que ver más con la cantidad
de energía que deben captar en cada uno de sus píxeles). Para compensar esto, se emplean
antenas más grandes: cuanto más grande sea una antena, más poder de resolución tendrá
el sensor, porque más información de la onda que rebota en los objetos adquirirá. El
sensor ASAR es un radar de apertura sintética (un SAR, synthetic aperture radar): en
lugar de tener una antena grande, aprovecha el movimiento del satélite sobre su órbita
para simular una antena mayor. De este modo, se mejora la resolución espacial, hasta
producir productos con píxeles de 30 m.
Pero, por otro lado, los sensores radar, pueden proporcionar otra información que
es imposible de obtener con los pasivos. La más inmediata es el cálculo de la altitud:
midiendo el tiempo que tarda la onda electromagnética emitida por la antena del sensor
en volver a él reflejada, se puede calcular la distancia del satélite a la superficie con una
gran precisión (limitada, en realidad, por la longitud del pulso emitido); del orden de la
decena de metros. No obstante, precisamente la gran longitud de la onda electromag-
nética permite comparar las ondas recibidas y medir, no distancias a la superficie, sino
diferencias en distancias del orden de la longitud de onda, es decir, centimétricas. De este
modo, se construyen los interferogramas que describen cómo se desplaza el terreno, por

169
C UESTIONES DE TELEDETECCIÓN

Figura 4.7. Interferograma sísmico del terremoto de L’Aquila del 6 de abril de 2009, obtenido estudiando
la diferencia entre dos imágenes ASAR (de abril de 2008 y de abril de 2009, tras el terremoto). La línea
roja indica la zona de ruptura identificada en la imagen. Fuente: Papanikolau et al. (2010). Nat. Hazards
Earth Syst. Sci., 10, 73–87. CC-BY-SA.

ejemplo, durante un terremoto. Quizás el caso más conocido, haya sido el del terremoto
de L’Aquila, en Italia.
Otra información que pueden proporcionar, es la relacionada con la conducción eléc-
trica del suelo o del agua; en el primer caso, se relaciona con la humedad, y en el se-
gundo, con la salinidad. El campo eléctrico de la onda de radar induce corrientes en los
objetos que ilumina: precisamente, la onda es reflejada por la resistencia de estos objetos
a que se establezcan en ellos dichas corrientes. En función de la cantidad de energía que
se pierda en ese proceso, es posible determinar la conductividad eléctrica del objeto (su-
puesto éste suficientemente grande) y, a partir de ella, sus propiedades. El satélite SMOS
de la ESA utiliza estas capacidades del radar para estudiar sistemáticamente la humedad
del suelo y la salinidad del océano.

Nota: Más sobre sensores radar en el tema 11.

170
S ENSORES DE EJEMPLO

10. En España existen instituciones públicas que cuentan con sensores


hiperespectrales aerotransportados que pueden ser utilizados por
investigadores y empresas. A pesar del carácter público de estas instituciones
los costes de los vuelos son muy altos y deben ser cubiertos por el solicitante.
Por esta razón es importante diseñar la campaña correctamente para
minimizar el riesgo de errores. Si queremos tomar datos de un área costera,
¿qué debemos tener en cuenta?

Respuesta: (b) Ya que hablamos de un estudio costero, lo más importante será dentro
de lo imprevisible, la climatología en el área de estudio el día del vuelo, y dentro
de lo previsible, la hora de la marea alta o de la marea baja, si nuestro estudio se
centra en la zona intermareal. No obstante, es también importante planificar las
pasadas del avión para evitar reflejos del sol que producen sunglint en el agua.
Otros factores pueden ser también importantes, en función de nuestro interés en
características de la costa, y de nuestro presupuesto.

La adquisición de una imagen con un sensor aerotransportado es un proceso con costes


muy elevados debido al alquiler de la avioneta (cuando es necesario), el combustible
consumido (tanto para el vuelo de adquisición como para el traslado del equipo al área
de estudio), el pago a la tripulación y a los operadores del sensor, etc. En este sentido lo
más caro es “poner el avión en marcha en el lugar de interés” y no hay una diferencia
significativa entre realizar un vuelo de 1 o de 2 horas. Por supuesto, el tiempo atmosférico
es fundamental: no se debe planificar una campaña aérea en una época del año en que
la probabilidad de un cielo nublado sea alta, ya que eso haría que el vuelo no se pudiera
realizar. Por lo tanto el precio del km2 , si bien es importante, no será siempre el mismo,
y dependerá de si el área puede abordarse en un único vuelo o si deben realizarse varios
para cubrirla.
Actualmente, en España, hay dos instituciones públicas que ofertan vuelos con sen-
sores de teledetección: el Instituto Nacional de Tecnología Aeroespacial (INTA) y el
Institut Cartografic de Catalunya (ICC). Esto da una idea de lo poco demandados que
son estos servicios, principalmente, por su precio.
Los vuelos suelen planificarse para cubrir áreas rectangulares: comenzando en uno
de los lados (el lado este, por ejemplo) y realizando pasadas sucesivas de norte a sur y de
sur a norte, desplazándose hacia el oeste (en este caso). El tiempo transcurrido entre una
pasada y la siguiente no suele ser elevado, por lo que la posición del sol varía muy poco
entre ellas; no obstante, sí puede haber cambios apreciables entre la primera pasada y la
última.

171
C UESTIONES DE TELEDETECCIÓN

Figura 4.8. Imagen adquirida desde una cometa con efecto de sunglint debido a la reflexión especular de la
luz del sol en el agua. En la imagen se puede ver el principal canal navegable hacia el Río Grande en la
punta sur de Isla Padre, en Texas, EE.UU. Fuente: Geospectra.net (copyright James S. and Susan W. Aber,
2006).

Al trabajar en una zona con agua, como la zona costera, la dirección de la pasada
relativa al azimut del sol y a su altura puede generar problemas en la imagen. En parti-
cular, cuando el ángulo entre los rayos del sol y las olas causa la reflexión de la luz del
sol directamente al sensor, se produce el fenómeno conocido como sunglint: entonces
los píxeles de la imagen aparecen saturados (blancos), algo similar a cuando se “que-
ma” una foto. Por esta razón es importante evitar la luz del mediodía y, si se cuenta con
suficiente flexibilidad (normalmente los vuelos están programados para un día y hora
determinados y cualquier cambio conlleva un coste importante) realizar la adquisición
con un estado del mar óptimo (en calma y sin viento).
Por último, cuando se trabaja en la zona costera, es importante no olvidar que ésta es
dinámica y cambia a lo largo del día, especialmente por el efecto de la marea y especial-
mente en costas oceánicas (donde el rango mareal puede ser más de 3 m). Si queremos
estudiar el área emergida o la franja intermareal, debemos planear el vuelo para las ho-
ras alrededor de la marea baja, para maximizar la zona no cubierta por agua. Igualmente,
para estudiar fondos marinos, debido a los procesos de atenuación de la luz en el agua,
también conviene planificar el vuelo cuando la capa de agua que los cubra sea menor (es
decir, con marea baja).
En resumen, la lista de comprobaciones para planificar el vuelo será: primero, el
tiempo meteorológico, para seleccionar la época y el día del vuelo; después, la altura y
azimut del sol y la hora de la marea, para seleccionar la hora y dirección del vuelo.

172
S ENSORES DE EJEMPLO

4.4. CONCEPTOS IMPORTANTES

banda espectral Intervalo de longitudes de onda en el que capta la radiación un detec-


tor de un sensor (p.ej. banda verde, banda NIR). También se puede referir a un
intervalo de longitudes de onda del espectro electromagnético, especialmente, un
intervalo para el que la radiación electromagnética tiene las propiedades comunes
en cuanto a su interacción con la materia en general (p.ej. banda óptica, banda
térmica) o con una cubierta, en particular (p.ej. banda NIR).

color oceánico (sensor de) Sensor con bandas estrechas (de unos 10-20 nm) localiza-
das en las longitudes de onda de absorción o fluorescencia de los pigmentos que
contiene el fitoplancton (clorofila-a, ficocianinas) y la materia en suspensión típi-
ca en las aguas marinas. En particular, los sensores de color oceánico suelen tener
bandas centradas en 410 nm (sustancia amarilla), 442 nm (máximo de absorción
de la clorofila-a), 510 nm (sedimentos en suspensión), 625 nm (ficocianina) y 681
nm (fluorescencia de la clorofila-a).

corrección atmosférica Operación matemática aplicada a los datos de radiancia medi-


dos por un sensor separado de su objeto de estudio por un cierto espesor atmosfé-
rico (en particular, sensores situados fuera de la atmósfera) para estimar el efecto
que esta masa de aire tiene sobre la radiación emitida o reflejada por el objeto y
revertirlo. Los algoritmos de corrección atmosférica siempre son aproximados y
pueden emplear, además de los datos obtenidos por el sensor otros procedentes de
medidas sobre el terreno (p.ej. radiometría de campo) o de modelos del compor-
tamiento atmosférico.

espectro Distribución de la energía electromagnética en función de la longitud de on-


da (espectro electromagnético). Cuando se refiere a una medida radiométrica (ya
sea de radiancia o de reflectividad) describe la distribución de energía radiante
emitida (espectro de emisión) o reflejada (espectro de reflexión) por un cuerpo.
El espectro de emisión suele depender de la temperatura de un cuerpo (espectro
térmico) y de su emisividad, que es característica de su composición. El espectro
de reflexión depende de los pigmentos presentes en el cuerpo y de su estructura
microscópica, que determina cómo son dispersadas las ondas electromagnéticas
en su interior. Por eso, cada elemento tiene un espectro de reflexión característico
que actúa como su firma (firma espectral).

espectrorradiómetro Sensor, normalmente portátil (espectrorradiómetro de campo) al


que es posible dirigir la luz con un sistema óptico (normalmente una fibra óptica)
y con el que se mide el espectro de la radiación recibida. El espectrorradiómetro

173
C UESTIONES DE TELEDETECCIÓN

suele tener uno o más analizadores (habitualmente rejillas de difracción) que se-
paran las diferentes longitudes de onda dirigiéndolas a múltiples detectores, uno
por cada banda del espectrorradiómetro. Las bandas suelen ser muy estrechas, del
orden de 1 nm o menos. Se utilizan para medir la firma spectral de cubiertas o
elementos concretos.

hiperespectral (sensor) Sensor capaz de medir la radiancia recibida en muchas bandas


estrechas (de decenas de nanómetros o inferiores) y contiguas (por lo general más
de 20), de modo que sea posible reconstruir el espectro de emisión o reflexión del
objeto medido.

multiespectral (sensor) Sensor capaz de medir la radiancia recibida en varias bandas en


las que se dan características de absorción o de reflexión de determinadas cubier-
tas de interés (p.ej. la banda del rojo y la del NIR para caracterizar la vegetación,
o bandas de absorción de los hidróxidos en el SWIR para caracterizar estos mi-
nerales). Las bandas no son tan estrechas como las de un sensor espectroscópico
(como los de color oceánico) ni tan contiguas como las de un sensor hiperespec-
tral.La mayoría de los sensores de teledetección son multiespectrales y las bandas
en las que detectan la energía radiante son seleccionadas en función del propósito
de la misión.

óptico (sensor) Sensor cuyos detectores captan la radiación electromagnética dentro del
rango óptico, es decir, dentro de las bandas UV, visibles, NIR o SWIR. En estas
bandas, la radiación detectada procedente de los objetos en la superficie de la tierra
es debida a la reflexión en ellos de la radiación solar. Se emplea este término por
contraposición con los sensores térmicos o radar.

radar (sensor) Sensor cuyo detector es una antena que emite ondas de radiación elec-
tromagnética en el rango de las microondas (ondas de radio) y capta la radiación
electromagnética que se refleja sobre la superficie de la tierra. Es, por eso, un sen-
sor activo, ya que genera su propia radiación incidente. Originalmente, RADAR
era un acrónimo de radio detection and ranging, detección y medida de distancia
por radio.

sensor Dispositivo que es capaz de captar la radiación electromagnética (frecuentemen-


te con un sistema óptico de lentes o espejos), dirigirla a un analizador que la separa
en función de las longitudes de onda, y medir la energía de esta radiación en cada
una de las bandas de longitudes de onda separadas. Se considera a menudo parte
del sensor el sistema de conversión, codificación y transmisión de esa información.

174
S ENSORES DE EJEMPLO

4.5. BIBLIOGRAFÍA

E. Chuvieco Salinero (2008). “Sensores y satélites de teledetección”. En: Telede-


tección ambiental, Capítulo 3. Ariel Ciencia, 2008.

A. M. Baldridge, S. J. Hook, C. I. Grove, & G. Rivera (2009). “The ASTER spec-


tral library version 2.0”. Remote Sensing of Environment, 113(4): 711-715.

M. Drusch, U. Del Bello, S. Carlier, O. Colin, V. Fernandez, F. Gascon, B. Hoersch


et al. (2012). “Sentinel-2: ESA’s optical high-resolution mission for GMES ope-
rational services”. Remote Sensing of Environment, 120: 25-36.

T.R. Loveland, and J.L. Dwyer (2012). “Landsat: Building a strong future”. Re-
mote Sensing of Environment, 122: 22-29.

J-F. Mas, 2011. “Aplicaciones del sensor MODIS para el monitoreo del territorio”.
Secretaría de Medio Ambiente y Recursos Naturales, Mexico, D.F., Mexico.

E.J. Milton, M.E. Schaepman, K. Anderson, M. Kneubühler, N. Fox (2009). “Pro-


gress in field spectroscopy”. Remote Sensing of Environment, 113, S92-S109.

I.D. Papanikolau, M. Foumelis, I. Parcharidis, E.L. Lekkas, I.G. Fountoulis (2010).


“Deformation pattern of the 6 and 7 April 2009, MW=6.3 and MW=5.6 earthqua-
kes in L’Aquila (Central Italy) revealed by ground and space based observations”.
Nat. Hazards Earth Syst. Sci., 10: 73–87.

C. Pinilla Ruiz (1995). “Sistemas de adquisición”. En: Elementos de Teledetec-


ción, Capítulo 2. Ra-Ma, 1995.

M. Rast, J. L. Bezy & S. Bruzzi (1999). “The ESA Medium Resolution Imaging
Spectrometer MERIS a review of the instrument and its mission”. International
Journal of Remote Sensing, 20(9):1681-1702.

J. Schmetz, et al. (2002). “An introduction to Meteosat second generation (MSG)”.


Bulletin of the American Meteorological Society, 83(7): 977-992.

Webgrafía (accesible el 1/05/2015)

Sentinel-2 / Copernicus / Observing the Earth / Our Activities / ESA.


URL: http://www.esa.int/Our_Activities/Observing_the_Earth/Copernicus/Sentin
el-2

175
C UESTIONES DE TELEDETECCIÓN

Página web de la ESA en la que se describe el par de satélites Sentinel-2 y su


función dentro del sistema Copernicus.

Envisat’s ASAR reveals extent of massive oil spill off Spanish coast / Observing
the Earth / Our Activities / ESA.
URL: http://www.esa.int/Our_Activities/Observing_the_Earth/Envisat_s_ASAR_
reveals_extent_of_massive_oil_spill_off_Spanish_coast
Página web de la ESA que contiene la noticia de la imagen del vertido del Prestige
en 2002 frente a las costas de Galicia, y las imágenes que adquirió de él el ASAR
a bordo del satélite Envisat.

Mapping moisture / SMOS / Observing the Earth / Our Activities / ESA.


URL: http://www.esa.int/Our_Activities/Observing_the_Earth/SMOS/Mapping_s
oil_moisture_and_ocean_salinity
Página web de la ESA donde se presentan los resultados del SMOS sobre medida
de la humedad de los suelos de todo el mundo.

Image Gallery.
URL: http://earth.esa.int/handbooks/asar/CNTR1-4.htm
Galería de imágenes de la ESA que contiene ejemplos ilustrativos de las capaci-
dades de los sensores radar ASAR y ERS.

Products systematically generated and available via fast registration.


URL: https://earth.esa.int/pi/esa?type=file&table=aotarget&cmd=image&id=520
Lista de productos de la ESA y de las misiones de terceros que la agencia pone a
disposición de los investigadores gratuitamente o a coste nominal.

ESA 3rd Party Missions Overview - Earth Online - ESA.


URL: https://earth.esa.int/web/guest/missions/3rd-party-missions/overview
Página de la ESA que recoge las misiones de terceros que comparten sus datos
con los investigadores de la ESA.

ATSR - Earth Online - ESA.


URL: http://earth.esa.int/web/guest/missions/esa-operational-eo-missions/ers/instr
uments/atsr
Página de la ESA dedicada al sensor ATSR a bordo del ERS-1.

176
S ENSORES DE EJEMPLO

MERIS - Earth Online - ESA.


URL: http://earth.esa.int/web/guest/missions/esa-operational-eo-missions/envisat/
instruments/meris/design
Página de la ESA dedicada al sensor MERIS a bordo del Envisat.
Results - Earth Online - ESA.
URL: http://earth.esa.int/web/guest/pi-community/results
Página de la ESA que recoge los últimos resultados producidos por los científicos
colaboradores usando los datos que la agencia cede gratuitamente.
MIRAVI (MIRAVI Image Rapid VIsualization).
URL: http://miravi.eo.esa.int/en/
Herramienta web de la ESA que permite acceder al catálogo de imágenes Envisat
y visualizar versiones JPEG de alta resolución.
ESA - Data User Element (WFA: World Fire Atlas).
URL: http://due.esrin.esa.int/wfa/
Herramienta web de la ESA que permite acceder al mapa de incendios mundial
obtenido con los datos del ATSR a bordo del Envisat durante el período operacio-
nal de éste.
MTG satellites crucial for future volcanic ash observations - EUMETSAT.
URL: http://www.eumetsat.int/website/home/News/DAT_2044878.html?lang=EN
&pState=1
Noticia de EUMETSAT sobre la detección de la nube de cenizas del volcál islan-
dés Eyjafjälla en 2010.
Meteosat.
http://www.eumetsat.int/website/home/Satellites/CurrentSatellites/
index.html
Página web de EUMETSAT sobre los dos programas Meteosat en funcionamiento:
los MFG (Meteosat First Generation) y MSG (Meteosat Second Generation).
ENVI - Image analysis - Spectra analysis - ENVI Products — Exelis VIS
URL: http://www.exelisvis.com/ProductsServices/ENVIProducts/ENVI.aspx
Página web de ENVI, quizás el programa profesional (y comercial) de teledetec-
ción más potente en la actualidad. Entre otras cosas, permite hacer análisis de

177
C UESTIONES DE TELEDETECCIÓN

espectros (imágenes multi e hiperespectrales) utilizando su propia biblioteca de


espectros.
Google Earth Engine.
URL: https://earthengine.google.org/
Herramienta de Google desarrollada para la visualización y análisis de datos am-
bientales usando, entre otros, datos históricos de la serie Landsat de sensores am-
bientales. Ver vídeo en Youtube:
http://www.youtube.com/watch?v=Ezn1ne2Fj6Y
Institut Cartogràfic i Geològic de Catalunya.
URL: http://www.icc.cat/cat/Home-ICC/Projectes-a-mida/Captacio-de-dades/Rec
ursos-tecnics
Página de recursos de plataformas y sensores aerotransportados del ICGC.
Visor de datos IEO.
URL: http://www.indicedeafloramiento.ieo.es/index1_es.php
Herramienta web del Instituto Español de Oceanografía que permite visualizar
(desde enero de 2011, hasta enero de 2014) diversas variables oceanográficas cal-
culadas con medidas in situ, modelos y datos de satélite.
Instituto Nacional de Técnica Aeroespacial.
URL: http://www.inta.es/grandesInstalaciones.aspx?Id=2&SubId=9
Página de Aviones instrumentados que posee el INTA para teledetección aérea.
Ocean Color and Temperature Scanner (OCTS).
URL: http://www.eorc.jaxa.jp/ADEOS/Project/Octs.html
Página web de la JAXA sobre el sensor OCTS.
EOSDIS Worldview.
URL: http://earthdata.nasa.gov/labs/worldview/
Herramienta web de la NASA para la visualización de imágenes MODIS captadas
por los satélites Terra y Aqua con periodicidad diaria (o menor).
NASA Earth Observing System.
URL: http://eospso.gsfc.nasa.gov/
Página web que recoge todas las misiones de la NASA dedicadas a la observación
de la Tierra.

178
S ENSORES DE EJEMPLO

OC Home Page | Ocean Color Web.


URL: http://oceancolor.gsfc.nasa.gov/
Sitio web de la NASA desde el que acceder a información y datos de los satélites
de color oceánico.

Shuttle Radar Topography Mission.


URL: http://www2.jpl.nasa.gov/srtm/
Sitio web de la NASA dedicado a la misión SRTM desde el que también se puede
acceder a los datos de topografía generados por esta misión.

ASTER Spectral Library - Version 2.0 - Spectral Library.


URL: http://speclib.jpl.nasa.gov/
Sitio web de la NASA dede el que acceder a información y datos de la biblioteca
de espectros ASTER.

CREPAD: Centro de REcepción, Proceso, Archivo y Distribución.


URL: http://www.crepad.rcanaria.es/es/index.html
Sitio web del CREPAD con información sobre los datos que este centro de proce-
sado distribuye entre los investigadores (españoles).

EarthExplorer — USGS.
URL: http://earthexplorer.usgs.gov/
Herramienta web del USGS para buscar y descargar imágenes de teledetección de
varios sensores de la NASA.

LandsatLook Viewer — USGS.


URL: http://landsatlook.usgs.gov/
Herramienta web del USGS para buscar y descargar imágenes de teledetección
específicamente de los sensores Landsat.

179
Tema 5

Imagen digital

GUION-ESQUEMA

Imagen de una cámara fotográfica digital

La digitalización de la información

La manipulación de la información digital

La geometría de la imagen digital


Máscara

182
Vegetación
Metadatos Índices
Nubosidad
Bandas
Temperatura
C UESTIONES DE TELEDETECCIÓN

Contraste
Brillo
...

Color natural

PRODUCTOS
Píxeles
R
G
B
Pseudocolor
JPEG
Visualización TIFF
R IF
G BMP
GeoTIFF B PNG
ENVI(HDR) ...
HDF Gris
NetCDF
...
I MAGEN DIGITAL

5.1. INTRODUCCIÓN

El concepto de imagen es un concepto intuitivo, tanto como el de una fotografía,


con el que estamos familiarizados. Por eso, para comprender qué es una imagen digital,
cómo se forma, cómo se adquiere, cómo se almacena, cómo se manipula y cómo se
interpreta, el camino más directo es empezar con un sensor multiespectral casero: una
cámara fotográfica digital.
Cuando se adquiere una imagen con una cámara digital, se han ajustado en ésta
múltiples parámetros de funcionamiento: la óptica (la distancia focal del objetivo), la
velocidad (la sensibilidad y el tiempo de exposición), la fuente de luz (ambiente o con
flash), el campo de visión (a través del zoom), la resolución (a través de la calidad de
imagen o del “tamaño” de ésta), etc. Es fácil ver la relación entre estos parámetros y
algunas propiedades de un sensor a bordo de un satélite. Igual que las imágenes de saté-
lite, las imágenes de una cámara digital se guardan en ficheros informáticos codificados
que optimizan la relación entre calidad de los datos y almacenamiento (en el caso de una
cámara de aficionado, a menudo se optimiza el espacio y la velocidad de almacenamien-
to en detrimento de la calidad). E igual que las imágenes de satélite, las imágenes de la
cámara fotográfica se guardan con información sobre cómo fueron adquiridas, en forma
de metadatos. Por último, los programas de retoque fotográfico permiten visualizar y
destacar cualidades de la imagen fotográfica que nos ayudan a interpretarla: lo mismo se
hará con las imágenes de teledetección.

5.2. CUESTIONES

1. Una imagen digital es una matriz de píxeles que se visualiza en colores (los grises
son colores también) en una pantalla, ¿cómo se asignan estos colores?

a) con su brillo proporcional al valor numérico contenido en la matriz de píxeles


b) con un color que se asigna a cada valor diferente presente en la matriz de
píxeles, con propósitos, habitualmente, estéticos
c) combinando en los canales rojo, verde y azul del dispositivo de visualización
señales con intensidades proporcionales a los valores que contiene cada píxel
de la matriz
d) cualquiera de las anteriores

183
C UESTIONES DE TELEDETECCIÓN

2. ¿Cómo cree que se ha formado la imagen digital en color de la figura 5.1 (adqui-
rida por un satélite de Google), en la que se ve un avión en vuelo como “un arco
iris”?

Figura 5.1. Imagen de un avión tomada, posiblemente, por la cámara del satélite GeoEye-1. Fuente:
Google Earth (2013).

a) asignando una paleta de color errónea


b) combinando en los canales de color de la imagen tres bandas del sensor
adquiridas en instantes diferentes
c) combinando en los canales de la imagen cuatro bandas del sensor adquiridas
en instantes diferentes
d) ninguna de las anteriores

3. Un mapa a escala 1:50000 se digitaliza (se escanea) a una resolución de 600 ppp.
¿Cuál será la escala del mapa digitalizado?

a) 1:50000
b) 1:6250
c) 1:400000
d) ninguno de los anteriores

184
I MAGEN DIGITAL

4. Una cámara fotográfica de 8 Megapíxeles guarda sus imágenes en formato crudo


(“raw”), sin compresión. ¿De qué tamaño aproximado es cada archivo digital?

a) 8 Megapíxeles
b) 24 Megapíxeles
c) depende del zoom
d) depende del brillo de la imagen

5. Las imágenes de escenas naturales, como las que se supone que hará una cámara
fotográfica no profesional, o las ortofotografías que se emplean como base para
trabajos topográficos, se suelen guardar comprimidas en formato:

a) TIFF
b) JPEG
c) PNG
d) RAW

6. Un formato muy habitual en teledetección, que permite guardar imágenes de tama-


ños muy grandes manteniendo toda la resolución espacial y radiométrica original
de cualquier sensor remoto, es el:

a) TIFF
b) HDF
c) NetCDF
d) cualquiera de los anteriores

7. Una imagen de teledetección, no siempre se visualiza en “color natural”, sino que


se combinan sus bandas espectrales para generar imágenes más fáciles de inter-
pretar. Esto se indica diciendo que la imagen se visualiza en una composición 321,
432, 624, etc. según el orden y número de las bandas usadas. Si se tratase de una
imagen Landsat-8, ¿cuál de las anteriores composiciones daría “color natural”?

a) 321
b) 432
c) 642
d) ninguna de las anteriores

185
C UESTIONES DE TELEDETECCIÓN

8. En el software empleado en teledetección (al igual que en los GIS) se manejan


una serie de términos referidos a datos asociados a un producto de teledetección
(que contiene no sólo imágenes de las bandas, sino cualquier otro tipo de informa-
ción espacial, además de metadatos): bandas, canales, capas, máscaras, . . . ¿Cuál
de éstas se relaciona con decisiones sobre qué zonas de la imagen mostrar o no
mostrar en la imagen?

a) banda
b) canal
c) capa
d) máscara

9. Cuando se quiere utilizar una imagen de satélite o una fotografía aérea para foto-
interpretar (reconocer y digitalizar sobre la imagen) algún elemento del terreno,
la línea de costa por ejemplo, ¿cuál será la escala a la que debemos realizar el
trabajo?

a) la de mayor detalle que permita la imagen y el software utilizado


b) la de mayor detalle posible sin que llegue a verse pixelada la imagen
c) la de menor detalle posible, para que los puntos que se marcan no tengan
precisiones ficticias (subpíxel)
d) ninguna de las anteriores, depende del tipo de elemento y de la persona que
digitalice

10. Para una temperatura dada, las gotitas de la niebla son menos brillantes en la banda
térmica de 12 μm que en la de 10,8 μm, y más en ésta que en la de 8,7 μm; por eso
se construyen imágenes RGB del sensor SEVIRI con R:IR12-IR10.8, G:IR10.8-
IR8.7, B:IR10.8. En estas imágenes, las nieblas se ven de un color blanco azulado.
Por otro lado, las gotitas y cristales de hielo en los topes de las nubes, son prácti-
camente igual de emisivas en el IR10.8 y el IR8.7, y más fríos. ¿Con qué color se
verán?

a) azul
b) verde
c) rojo
d) magenta

186
I MAGEN DIGITAL

5.3. RESPUESTAS A LAS CUESTIONES

1. Una imagen digital es una matriz de píxeles que se visualiza en colores (los
grises son colores también) en una pantalla, ¿cómo se asignan estos colores?

Respuesta: (d) La asignación de los colores a cada píxel de una imagen se hace en fun-
ción de los valores de las diferentes bandas en dicho píxel. Normalmente se busca
que tengan relación con los valores que representa la magnitud física: radiancia
espectral, reflectividad, u otras magnitudes derivadas, como la temperatura, el vi-
gor vegetal, la altura o profundidad, etc. Y, lo más importante, es que el resultado
destaque, visto por el ojo humano, aquello que haya de interés en la imagen. Por
lo demás, la relación entre valores de las bandas y colores es arbitraria.

Las imágenes se suelen visualizar en dispositivos electrónicos que forman la imagen


asignando mayor o menor señal a los canales rojo, verde y azul en cada punto. Por
ejemplo, un proyector, emite luces de esos tres colores y varía la intensidad de luz de cada
color de manera que se forma la imagen con los colores que puede percibir nuestro ojo:
porque esa es la forma en que ve el ojo humano, a partir de la sensación que causan las
longitudes de onda en tres bandas del espectro visible, que llamamos rojo, verde y azul.
Todos los demás colores que podemos ver se construyen a partir de esta combinación
triestímulo.
La manera más simple e intuitiva de asignar colores a una imagen de una banda de
un sensor es mostrando más brillantes las zonas con valores altos de radiancia espectral y
menos brillantes aquéllas con valores bajos de la misma. Así presentaremos una imagen
de la banda pancromática de un sensor: una imagen “en blanco y negro” (en realidad,
en gama de grises). Por lo general, un dispositivo podrá variar la intensidad de su señal
entre la oscuridad absoluta (ninguna señal) y un valor máximo de la señal. Por motivos
de economía (porque el ojo humano tampoco sería capaz de percibir más tonalidades)
este rango se suele dividir en 256 intervalos. Así, una imagen con una única banda se se
suele representar usando una escala de 256 grises: desde el negro, hasta el blanco (del
dispositivo). Cuando la resolución radiométrica del sensor es de 8 bits, la conversión
es inmediata (por ejemplo, las bandas del sensor Landsat). Cuando no es la misma (lo
habitual es que la resolución radiométrica del sensor sea mayor), o cuando se quiere
aumentar el contraste con que se visualiza cierta información de la banda, se seleccionan
entre los valores de la banda una “ventana” y un “nivel” que se convierten al intervalo
0. . . 255 del dispositivo. El “nivel” se fija en el valor de la banda alrededor del cual se
hallan los ND que se quieren visualizar con más contraste; la “ventana” es el intervalo
a ambos lados de éste ND en el que se encuentran los valores de interés (véase la figura

187
C UESTIONES DE TELEDETECCIÓN

Figura 5.2. Imagen ASTER (banda 1) de la ciudad de Madrid vista con dos ventanas y niveles distintos:
izquierda, rango completo de valores; derecha, ventana alrededor del ND 114.

5.2). En muchas ocasiones se habla también de ajustar el “brillo” (subir o bajar el nivel)
y el “contraste” (aumentar o reducir el tamaño del intervalo).
No obstante, algunas veces lo intuitivo es justamente lo contrario: asignar brillo a las
zonas con valores más bajos de radiancia espectral. Esto sucede, por ejemplo, con las
imágenes del infrarrojo térmico de los satélites meteorológicos. En ellas, las nubes (que
intuitivamente mostramos como blancas) son, en realidad, la zona más fría de la escena
y, por ello, la que menor energía radiante emite. En este caso, por tanto, la relación entre
el ND y el brillo en la visualización es inversa: mayor ND, menor intensidad. Pero, a
cambio, se ven “nubes blancas” y no “frentes oscuros” . Es decir, la estética es importante
y nos proporciona una información sobre lo que estamos viendo, relacionándolo con
cómo percibimos las cosas en nuestra vida diaria.
Otro caso en que la estética también es importante es en imágenes de termografía:
más claramente que con una imagen en la que las zonas más calientes se ven brillantes y
las más frías, oscuras, puede resultar más intuitivo visualizar las primeras con “colores
cálidos” (rojas) y las segundas con colores “fríos” (azules). Esto tiene además la ventaja
de que nuestro ojo puede distinguir más colores que niveles de brillo y, por lo tanto, que
se podrán distinguir una mayor variedad de valores (es decir, percibir más información).
Esta asignación de una colección de colores, por otra parte arbitrarios, a los valores de
una banda de un sensor se llama “paleta” de color. Por uso y convención existen ciertas
paletas de color conocidas. Por ejemplo, el vigor vegetal (que se calcula a partir de las
bandas roja e infrarroja cercana de un sensor, es decir, las relacionadas con la clorofila
y el agua que posea) se representa con una paleta que va desde tonalidades marrones o
amarillas (que nos evocan un suelo desnudo o falto de vegetación) a tonalidades verdes

188
I MAGEN DIGITAL

Figura 5.3. Índice de vegetación normalizado, calculado a partir de las bandas 1 (860 nm) y 2 (670 nm) del
sensor MODIS. Fuente: NASA.

(que nos evocan vegetación sana, véase la figura 5.3). Por supuesto, no son los colores
reales de la vegetación, pero nos ayudan a interpretar el significado de imagen.
Los sensores multiespectrales permiten asignar colores de una manera natural a una
imagen: dirigiendo los valores de las bandas en el azul, el verde y el rojo a los cana-
les azul (B, blue), verde (G, green) y rojo (R, red) del dispositivo (o, si el sensor no
proporciona imágenes de 8 bits, “estirando” o “comprimiendo” su rango de valores al
intervalo 0. . . 255 en cada canal). Esta asignación se llama color natural. No obstante,
rara vez proporciona colores que identifiquemos como naturales (véase figura 5.4). Esto
se debe a tres razones: que hay una atmósfera entre el objeto y el sensor, que la ganan-
cia de nuestro sensor (el ojo humano) en cada canal es distinta de la del sensor a bordo
del satélite, y que nuestra percepción de la intensidad de la luz no es lineal, sino que
nuestro ojo se adapta a la iluminación del entorno. La primera de ellas suele causar una
presencia excesiva de azules (en la imagen, en comparación con lo que nosotros vemos
“al natural”), y la segunda y la tercera un exceso de brillo (y falta de contraste) en la
imagen. Un ejemplo: las imágenes de color natural del Landsat se visualizan en RGB
como una combinación 321 (la banda Landsat-3 está en el rojo, la L2, en el verde y la
L1, en el azul).
No obstante, un sensor multiespectral adquiere otras bandas que nuestro ojo no per-
cibe. Del mismo modo que se asignan a los canales visibles las bandas del espectro visi-
ble, también se puede asignar las bandas “invisibles”. Por ejemplo, es común visualizar
imágenes del sensor HRV de SPOT-5 como una combinación 321: la banda asignada al

189
C UESTIONES DE TELEDETECCIÓN

Figura 5.4. Imagen Landsat 5 de la isla de Tenerife: izquierda, composición RGB con los ND de las
bandas 321 (color natural); derecha, transformación gamma y contraste aplicados a las bandas.

rojo es la banda NIR (la 3) del HRV (entre 0,79 μm y 0,89 μm). Dado que en esta banda
refleja mucho la vegetación, son típicas las imágenes de “vegetación roja”. En este caso,
más que la intuición, prima la tradición. Una combinación más “natural” sería, quizás,
la 231.

2. ¿Cómo cree que se ha formado esta imagen digital en color (adquirida por un
satélite de Google), en la que se ve un avión en vuelo como “un arco iris”?

Respuesta: (c) Esta imagen se ha formado combinando tres bandas multiespectrales


(en el rojo, verde y azul del espectro visible) con una banda pancromática, em-
pleada para mejorar la resolución espacial. El problema es que las cuatro imá-
genes se adquirieron en instantes sucesivos, de modo que al corregirlas para que
coincidiesen espacialmente, los elementos en movimiento no coincidían.

El gigante de Internet, Google, proporciona imágenes de todo el planeta a través de


su aplicación web Google Maps. Inicialmente, Google se abasteció de imágenes que ya
existían y de imágenes adquiridas a distribuidores, pero posteriormente contrató satélites
para mantener actualizado este servicio. Uno de estos satélites (del cual es copropietario)
es el Geoeye-1, que posiblemente adquirió esta imagen.
Las imágenes que se emplean en estudios en los que prima la resolución espacial son
las que se distribuyen como “PAN sharpened”, es decir, imágenes en las que la banda
pancromática, que es habitualmente de mayor resolución espacial, se utiliza para propor-
cionar la “textura” (a través de las variaciones en el brillo) y las bandas multiespectrales

190
I MAGEN DIGITAL

para proporcionar el color. Esto se observa perfectamente en la imagen del avión, donde
su parte anterior se dibuja con el color de la vegetación, mientras que en las “alas azules”
se observa la forma de los surcos del terreno cultivado.
La idea del producto “PAN sharpened”, es la siguiente: si la cantidad total de radian-
cia reflejada en el visible es la que contiene la banda pancromática, de alta resolución,
entonces conociendo en qué proporciones se distribuye la radiancia espectral en la otras
bandas de color del visible, se puede hacer un reparto proporcional de la señal del PAN
en los canales correspondientes a ellas. De este modo, la intensidad de la imagen (la
suma de las señales en los tres canales de color) viene dada por el PAN, y sus proporcio-
nes (la cromaticidad: el tono y la saturación), por las proporciones que tenían las bandas
de color originales. Esta operación entre las bandas, se llama también transformada de
Brovey. La diferencia en la resolución espacial de los dos tipos de bandas vuelve a estar
relacionada con la cantidad de información que nos proporcionan los colores. No obs-
tante, en cuanto al detalle espacial, nos guiamos más por la intensidad de la imagen: por
eso funciona tan bien esta transformación.
Los productos “PAN sharpened” permiten soslayar una normativa internacional (in-
troducida por la legislación de EE.UU.) que restringe la distribución de imágenes de
sensores de alta resolución espacial. No se pueden distribuir (ni pública, ni comercial-
mente) imágenes de satélite con menos de 0.5 m de píxel en la banda pancromática, ni
con menos de 2 m de píxel en las bandas multiespectrales. De hecho existen satélites, co-
mo los propios Geoeye, que adquieren imágenes con 0.4 m de píxel en la pancromática
y 1.6 m en las multiespectrales, pero que luego remuestrean para ser distribuidas.

3. Un mapa a escala 1:50000 se digitaliza (se escanea) a una resolución de 600


ppp. ¿Cuál será la escala del mapa digitalizado?

Respuesta: (a) La escala de un mapa se refiere a la relación entre los tamaños medi-
dos sobre él y los tamaños reales. Cuando se da en la forma de quebrado, como
1:50000, se asume que el mapa se ha impreso y, por lo tanto, las líneas sobre él
tienen un tamaño fijo, dado por la resolución de impresión. No obstante, dado que
sólo se habla de digitalizar, y no de imprimir, también podría haber sido buena la
(d), ninguno de los anteriores.

Tradicionalmente los mapas impresos se han caracterizado por la proporción entre el ta-
maño de los detalles que mostraban y el tamaño real de esos detalles en la naturaleza. Al
tratarse ambas magnitudes de longitudes, la escala bastaba darla como un quebrado: <ta-

191
C UESTIONES DE TELEDETECCIÓN

maño en el mapa>:<tamaño en la realidad>, sin dimensiones, ya que ambas longitudes


se determinan en las mismas unidades y con métodos análogos (midiendo distancias). La
misma situación se ha dado con todas las técnicas de imagen: la microscopía hablaba de
los aumentos como el número de veces que un área de la muestra se ve más grande a tra-
vés del ocular del microscopio; la astronomía hablaba de los aumentos de un telescopio
como el número de veces que aumentaba un ángulo medido en el cielo al ser visto por
el ocular. De ambas, fue esta última la primera en abandonar el concepto de aumentos al
introducir la fotografía, por razones obvias: sobre el papel o la placa fotográfica ya no se
miden ángulos (y no es práctico comparar las dimensiones de los cuerpos celestes con
los que muestran sus imágenes).
Cuando un mapa se digitaliza, o aun cuando se trata de una imagen remota de satéli-
te, lo que interesa es la resolución espacial: la capacidad para diferenciar sobre la versión
digital del mapa los dos puntos de interés más próximos en el terreno. Obviamente esta
definición tiene dos componentes: la técnica, que tiene que ver con el tamaño del pí-
xel sobre el terreno, y la práctica, que se relaciona con la cantidad de información que
proporciona la imagen para distinguir efectivamente dos objetos. Al tamaño del píxel se
le llama en teledetección distancia de muestreo sobre el terreno o GSD (ground sample
distance). Un ejemplo “de libro” son las imágenes del sensor HRG del SPOT-5. Por la
forma de funcionamiento de este sensor, las imágenes pancromáticas se proporcionan
con píxeles de 2,5 m. Sin embargo, esos píxeles son obtenidos por cálculos (técnica de
superresolución) remuestreando dos imágenes con píxeles de 5 m. En la práctica, se ha
determinado que el sensor es capaz de resolver distancias de entre 3 y 3,5 m.
Cuando una imagen impresa se digitaliza, se debe hacer con la suficiente calidad
como para, de nuevo, reproducir la imagen original sin pérdidas apreciables por el ojo
humano: no hay que olvidar que, cuando algo se imprime, es el ojo humano quien lo va
a ver; pero también dependerá del sistema de impresión con el que se vaya a reproducir.
Esta calidad, en cuanto a la cantidad de detalle, la determinan los puntos/píxeles por
pulgada que se leen y se imprimen. Por ejemplo, para una impresión fotográfica, hacen
falta unos 1200 ppp, porque con el detalle de la impresión, el ojo humano detectaría
anomalías en la impresión; por el contrario, para una impresión de un libro se suelen
utilizar 300 ppp, porque el proceso de impresión no permite trazar detalles más finos.
Cuando se trata con la imagen digital, existe también una medida de calidad: los
píxeles por pulgada del monitor; determinan la calidad con la que se ve una imagen en
la pantalla, el equivalente al “grano” en la antigua fotografía. No obstante, rara vez vi-
sualizaremos una imagen en la pantalla mostrando un píxel de la imagen en un píxel
del monitor; no, al menos, en teledetección. Por lo tanto, el concepto de escala, cuando
trabajamos con imágenes digitales (no digitalizadas desde un mapa previo), dada de la

192
I MAGEN DIGITAL

forma tradicional como un quebrado, no tiene significado. Cuando más, GSD e, ideal-
mente, la resolución espacial en la práctica de la imagen sobre el terreno barrido por el
sensor.

4. Una cámara fotográfica de 8 Megapíxeles guarda sus imágenes en formato


crudo (“raw”), sin compresión. ¿De qué tamaño aproximado es cada archivo
digital?

Respuesta: (b) Dado que la imagen se guarda sin compresión, y que por cada píxel se
guardan 3 canales (uno correspondiente a cada color), los datos contenidos en la
imagen son 24 Mb (asumiendo 8 bits por cada canal de color). En formato RAW
se guardan todos estos datos, por lo que ese será el tamaño del archivo (salvo por
otra información relativa a la adquisición, que no irá más allá de unos kilobytes).

El formato RAW guarda todos los datos adquiridos por el CCD de la cámara fotográfica.
Podríamos decir que es el “negativo digital” de la fotografía.
En el enunciado hemos especificado sin compresión, porque la compresión se refiere
a la relación entre esos datos y la información en la imagen; esos datos son una forma de
representar la información, pero esta forma no es única. Se puede representar con más o
menos datos, y esto es lo que aprovechan los métodos de compresión. Por ejemplo, una
imagen de un único color se puede comprimir con dos datos: el que indica el número de
píxeles que tiene la imagen y el del color que tienen. Si es de un color hasta una fila y de
otro, a partir de ahí, bastarían cuatro datos. Con métodos de compresión más sofisticados
se puede aprovechar la redundancia de los datos para expresar la información esencial
reproduciéndola en pocos datos, sin perder ninguna.
Así, cuando decimos que una imagen se guarda en un archivo RAW de 24 MB,
queremos decir que puede guardar hasta 24 Mega bytes (millones de bytes, MB) de
información: el byte (1 B) son 8 bits (8 b), y el bit es la unidad de información. En te-
ledetección, casi todas las imágenes se distribuyen comprimidas. Las imágenes Landsat
de ETM+ se distribuyen en formato TIFF y son posteriormente comprimidas. Descom-
primidas, cada banda de una escena ocupa unos 60 MB (15 MB las bandas térmicas, por
su menor resolución espacial), pero luego, comprimidas pueden pasar a ocupar entre 20
y 30 MB (5 a 6 MB, las térmicas).
Una forma intuitiva de ver la información es como el “grado de sorpresa” al recorrer
los bits de una imagen: si son datos monótonos, de forma que visto el valor de un píxel
podemos predecir con cierto grado de acierto cuál será el valor del que le sigue, la imagen

193
C UESTIONES DE TELEDETECCIÓN

bits
7
0 x2
6
1 x2

entero de 8 bits
1 x25
4
1 x2
0 x23
2
0 x2
1 x21
0
1 x2

115
Figura 5.5. Los valores de los bits que codifican un entero de 8 bits.

tendrá poca información. Pensemos en una sola banda Landsat, con 8 bits por cada píxel
(véase la figura 5.5). Si tenemos una banda azul de una escena, dado que las cubiertas
terrestres suelen reflejar poca luz en estas longitudes de onda, esa banda será “oscura”.
Eso quiere decir que los valores de los píxeles serán pequeños y que casi todos los bits
que indican valores altos (los de la parte superior en la figura 5.5) van a ser cero: no
causan ninguna “sorpresa”. Sin embargo, en una banda pancromática, de una escena
con muchas variaciones, como un área urbana o con mucha orografía, y sobre todo, con
muchos contrastes y gradientes de luz, es mucho más difícil predecir cual será el valor
del píxel que sigue a otro (y de sus bits). Esta imagen contiene mucha más información
y se comprimirá mucho menos.
Por esto se suele decir que en el archivo RAW, hay mucha más información (utilizada
esta expresión en su sentido estricto) en las luces que en las sombras. Y por eso es que
a la hora de hacer una fotografía se tiende a “derechear en el histograma”, es decir, a
sobreexponer la fotografía, aunque sin llegar a saturar el blanco: entonces lo monótono
sería que a un “píxel quemado” le siguiese otro “píxel quemado”. De este modo se
almacena más información que luego podremos recuperar postprocesando la imagen,
aplicando, por ejemplo, curvas de ganancia no lineales que “estiren el histograma” en
las zonas de interés.
(Respuesta con colaboración de Sergio Gómez Pascual).

194
I MAGEN DIGITAL

5. Las imágenes de escenas naturales, como las que se supone que hará una
cámara fotográfica no profesional, o las ortofotografías que se emplean como
base para trabajos topográficos, se suelen guardar comprimidas en formato. . .

Respuesta: (b) El formato más adecuado para guardar imágenes que van a ser visua-
lizadas por seres humanos es el JPEG, ya que aprovecha las peculiaridades de la
visión humana para comprimir la información, produciendo archivos de pequeño
tamaño pero que cubren escenas muy amplias.

Los diferentes formatos empleados para guardar imágenes en archivos informáticos han
nacido por diferentes necesidades y, por eso, son adecuados para distintos usos. De los
tres que se mencionan, TIFF, JPEG y PNG (el RAW no es un formato propiamente dicho
y fue tratado en una cuestión anterior), el JPEG es el único desarrollado para almacenar
fotografías, especialmente de escenas naturales.
El nombre JPEG responde a Grupo Unido de Expertos en Fotografía (Joint Photo-
graph Expert Group). La idea del formato es separar la información en color e intensi-
dad, algo que como ya vimos al hablar de la transformada de Brovey (en los productos
“PAN sharpened”), permite reducir mucho la información de color, siempre que se man-
tenga la de intensidad; el sistema visual humano detecta mejor el detalle espacial por las
variaciones de brillos, aunque es capaz de percibir más matices en los colores. Por otra
parte, la intensidad se puede descomponer en patrones de diferente importancia, en di-
ferentes escalas. El JPEG tradicional hace esta descomposición dividiendo la imagen en
losetas (habitualmente de 8 × 8 píxeles) y separando las diferentes “frecuencias espacia-
les”, es decir, los patrones periódicos que se repiten en ellas. Luego desprecia aquellos
patrones menos importantes y deja los más; de este modo logra comprimir la imagen,
aunque con pérdidas. Pero pérdidas que el ojo humano no percibe.
Las ortofotografías, como las que acompañan a muchos productos GIS (por ejem-
plo, modelos digitales de terreno obtenidos por LiDAR), se suelen distribuir en formato
JPEG: no están pensadas para ser procesadas por algoritmos de teledetección, sino pro-
porcionar un apoyo visual a la información que acompañan.
El formato JPEG se emplea, sobre todo, por dos razones: es rápido de leer o de
escribir, y es un estándar abierto. La primera, permite diseñar circuitos que realicen la
compresión en una cámara sencilla y también que lo descompriman para mostrar la
imagen en una pantalla. La segunda permite que cualquiera lo utilice y que, además, sea
independiente de la procedencia de la imagen, es decir, del fabricante de la cámara. Por
lo mismo, no es necesario un software especial para poder ver las imágenes JPEG en
cualquier ordenador.

195
C UESTIONES DE TELEDETECCIÓN

El formato TIFF fue desarrollado inicialmente con fines comerciales por la empresa
Aldous, absorbida posteriormente por Adobe. Su nombre se refiere a la manera en que
guarda la información: Formato de Archivo de Imagen Etiquetado (Tagged Image File
Format). Es decir, en el archivo existen una serie de etiquetas seguidas de datos acerca
de la imagen; cada etiqueta indica el tipo de dato y la información que sigue. Un ejemplo
de “clase de información”, son las propias bandas de la imagen. Gracias a esta estruc-
tura los archivos TIFF son muy flexibles: pueden guardar, además de imágenes, todo
tipo de información acerca de ellas. En particular, información geográfica: esto se logra
aumentando el número de etiquetas disponibles, dando origen al formato GeoTIFF.
El formato TIFF, a pesar de no ser exactamente un formato libre de derechos (Adobe
sigue manteniendo cierto control sobre él, de cara a estandarizar las etiquetas), se ha con-
vertido en un formato estándar para guardar imágenes tanto artísticas (por su capacidad
para guardar perfiles de color, manejar transparencias y capas, . . . ), como de fotografía
(admite imágenes de tamaños enormes, con diferentes valores de bits por píxel, . . . ),
como de teledetección (en GeoTIFF), etc.
El formato GeoTIFF es el formato abierto estándar en teledetección, con una especi-
ficación que mantiene la Open Source Geospatial Foundation (OSGeo); su objetivo es,
principalmente, facilitar el intercambio de imágenes de teledetección georreferenciadas
entre los diferentes softwares.
El formato PNG es un formato de imagen nacido para Internet. Su nombre signi-
fica formato de Gráficos Portables para la Red (Portable Network Graphics) y ha sido
desarrollado por el Consorcio para la WWW (W3C) para proporcionar un formato de
imágenes estándar para utilizar en las páginas web. Tiene muchas de las ventajas del
TIFF (como diferentes valores de bits por píxel, transparencias, y compresión sin pér-
didas), pero no tiene su flexibilidad para guardar información sobre la imagen (fuera de
algunos comentarios en texto). Su principal ventaja: se puede visualizar en cualquier na-
vegador moderno. Se emplea, por ejemplo, en los servidores WMS que sirven imágenes
de teledetección u ortofotografías aéreas a través de la Red.
En la última década se ha venido definiendo una mejora en el formato JPEG, el
JPEG2000. Este formato introduce potentes algoritmos de compresión sin pérdidas que
aprovechan las características de multirresolución de las imágenes. El JPEG2000 no se
emplea todavía en la electrónica de consumo. Sin embargo sí se ha empezado a utilizar
en ámbitos como la medicina y la teledetección. Productos como las imágenes de SPOT-
6 ya se distribuyen en JPEG2000, logrando tamaños muy inferiores a los del GeoTIFF,
incluso comprimido. Un ejemplo con una imagen SPOT-6 (pancromática): 380 MB en
GeoTIFF, 183 MB después de la compresión habitual, y sólo 70 MB en JPEG2000.

196
I MAGEN DIGITAL

6. Un formato muy habitual en teledetección, que permite guardar imágenes de


tamaños muy grandes manteniendo toda la resolución espacial y radiométrica
original de cualquier sensor remoto, es el. . .

Respuesta: (a) El formato TIFF, en su versión GeoTIFF (que incluye metadatos geo-
gráficos para georreferenciar las imágenes), es el formato estándar (abierto) de
intercambio de imágenes de teledetección en la actualidad. Los otros dos forma-
tos, también abiertos, son utilizados en ciertos ámbitos y por ciertos programas
dentro de la teledetección.
El formato GeoTIFF es un formato específico para guardar datos de imágenes de te-
ledetección. El TIFF original contemplaba tener varias imágenes en un único fichero
o, como se suelen llamar, varias capas. Además, la manera de almacenar las imágenes
ya era altamente flexible. Por ejemplo, era posible guardarlas por rectángulos (“tiles” o
baldosas), de modo que se pudiese cargar cada una de ellas por separado, y visualizar
imágenes muy grandes sin exceder la memoria del ordenador. También era posible guar-
dar los valores de los píxeles de dos formas: por ternas, RGB (o cuaternas RGBA con
transparencia, o CMYK, si se trata de colores de impresión: cyan, magenta, amarillo y
negro), o un color de cada vez (primero todos los rojos, luego todos los verdes y, por
último, todos los azules; o primero todos los cyan, luego los magenta, amarillo y negro).
Esta última habilidad se explota en el GeoTIFF para guardar las bandas de los sensores,
una tras otra, mientras que los compuestos RGB, se guardan en el formato más habitual
de ternas RGB sucesivas.
El almacenamiento de los datos de una imagen ha sido históricamente una cues-
tión de cómo se transmitía esa información. Existen tres formas de almacenar los datos
de las bandas de un sensor. La más simple, usada por las cámaras fotográficas, es se-
cuencialmente por píxeles, cada uno de ellos definido por su terna de valores RGB; esta
estructura se llama BIP (band interleaved by pixel, bandas por píxeles intercalados). Es
como guardan los valores los formatos de imagen usados habitualmente: PNG, BMP,
TIFF. La siguiente más simple consiste en guardar los datos como los envía el sensor
multiespectral: línea a línea adquirida en cada banda espectral, es decir, como una se-
cuencia de líneas, una por banda; esta estructura se llama BIL (band interleaved by line,
bandas por líneas intercaladas). Este formato es poco empleado en las imágenes, incluso
en teledetección, aunque se mantiene en algunos productos L0 de algunos sensores. Por
último, la estructura más usada en teledetección es la BSQ o secuencia de bandas (band
sequential): los valores de los píxeles en cada banda se almacenan uno a continuación
de otro y, muchas veces, cada banda en un archivo separado. Así, por ejemplo, se dis-
tribuyen las imágenes Landsat: como una serie de archivos GeoTIFF, cada uno de ellos
conteniendo una única banda. Véase la figura 5.6.

197
C UESTIONES DE TELEDETECCIÓN

Columnas
Imagen BIL Imagen BSQ
Filas

en archivos separados
Imagen BIP

Imagen BSQ
Figura 5.6. Estructuras BIL, BIP y BSQ.

Los otros dos formatos, el HDF (Hierarchical Data Format, formato de datos jerár-
quico) y NetCDF (Network Common Data Format, formato de datos de ordenador para
la red), son formatos de almacenamiento de datos científicos de propósito general.
El HDF fue desarrollado por el NCSA (National Center for Supercomputing Appli-
cations, centro nacional de aplicaciones de la supercomputación, de EE.UU.) aunque
ahora es mantenido por el HDF Group. En su primera versión distribuida, el HDF4 o
simplemente HDF, permitía guardar tipos de datos numéricos incluyendo atributos de
estos datos: por ejemplo, el nombre de la magnitud, sus unidades físicas, instrumento
que la adquirió, precisión de la medida, etc. Es el formato adoptado por el programa
de observación de la Tierra de la NASA (EOS), en que se distribuyen los datos de los
satélites oceanográficos a través de la plataforma OceanColor; también es el formato en
que distribuye la ESA los productos de CHRIS/PROBA, y es utilizado en otros ámbitos
científicos fuera de la teledetección (como en imagen médica). La nueva versión HDF5
es aún más flexible que el HDF4, pero incompatible con él. El principal problema del
HDF es que, al ser un formato tan general, requiere una aplicación específica para inter-
pretar los datos en función del origen de éstos (figura 5.7). Por ejemplo, una aplicación
que abra archivos de un sensor como CHRIS/PROBA, seguramente no será capaz de
abrir archivos del programa EOS distribuidos a través de OceanColor (aunque todos es-
tos productos EOS han sido estandarizados para que no dependan del tipo de sensor).

198
I MAGEN DIGITAL

Paleta de color
Imagen raster Datos científicos multidimensionales
111111111111111
000000000000000
111111111111111
000000000000000
111111111111111
000000000000000
111111111111111
000000000000000
000000000000000
111111111111111
000000000000000
111111111111111
000000000000000
111111111111111
111111111111111
000000000000000
111111111111111
000000000000000
000000000000000
111111111111111
Tablas Anotaciones
Id SST Chl−a El contenido de este archivo HDF
0001 ha sido obtenido dentro del proyecto
13.2 1.34 de la Agencia Europea del Espacio
0002 13.8 1.78 ...
0003 14.0 2.52
0004 13.9 1.80
0005 15.0 1.76

VGroup
(grupo de estructuras de datos HDF)
0000000000000
1111111111111
0000000000000
1111111111111
0000000000000
1111111111111
0000000000000
1111111111111
0000000000000
1111111111111
0000000000000
1111111111111
0000000000000
1111111111111
0000000000000
1111111111111
0000000000000
1111111111111
Id SST Chl−a
0001 13.2 1.34
0002 13.8 1.78
El contenido de este archivo HDF 0003 14.0 2.52
ha sido obtenido dentro del proyecto 0004
de la Agencia Europea del Espacio 13.9 1.80
0005 15.0 1.76
...

Figura 5.7. Estructura jerárquica del HDF.

Por último, el formato NetCDF fue creado por UNIDATA, una asociación científica
estadounidense, como formato estándar para uso en ciencias de la Tierra. Su orientación
es semejante a la del HDF: contiene la suficiente información para poder saber qué clase
de dato se encuentra en el archivo (tipo de variable, unidades, dimensiones, institución
que la creo, etc.). Es, por ejemplo, el formato estándar en que se distribuyen los productos
de meteorología.
(Respuesta con colaboración de Juan Ojeda Cáceres).

199
C UESTIONES DE TELEDETECCIÓN

7. Una imagen de teledetección, no siempre se visualiza en “color natural”, sino


que se combinan sus bandas espectrales para generar imágenes más fáciles de
interpretar. Esto se indica diciendo que la imagen se visualiza en una
composición 321, 432, 624, etc. según el orden y número de las bandas usadas.
Si se tratase de una imagen Landsat-8, ¿cuál de las anteriores composiciones
daría “color natural”?

Respuesta: (b) Las composiciones RGB se indican por los números de las bandas que
se asignan a cada canal. Las bandas de los sensores se suelen numerar en se-
cuencia de longitud de onda creciente. Las “bandas Landsat-8” comienzan con
una primera banda estrecha en el azul y luego la siguen las tradicionales, más
anchas, en el azul, verde, rojo, etc.: para obtener una imagen en color natural, se
emplearía una combinación 432.

Para conseguir una imagen con una composición que se corresponda al color natural
se han de combinar las bandas rojo, verde y azul (RGB de sus iniciales en Inglés). Es-
tos colores se corresponden, respectivamente, a las bandas que adquieren las longitudes
de onda del espectro visible comprendidas entre 0,6-0,7 μm (R), 0,5-0,6 μm (G) y 0,4-
0,5 μm (B).
En los sensores Thematic Mapper (TM) de los satélites Landsat 4 y 5, y ETM+
del Landsat 7 estos colores se corresponden con las bandas del visible 3 (VIS-R: 0,63 −
0,69 μm), 2 (VIS-G:0,52 − 0,60 μm) y 1 (VIS-B: 0,45 − 0,52 μm). Las bandas 4 a 7 de es-
tos sensores recogen bandas dentro del rango infrarrojo próximo (NIR: 0,76 − 0,90 μm),
de onda corta (SWIR: 1,55 − 1,75 μm), térmico (TIR: 10,40 − 12,50 μm) y otra más de
onda corta (SWIR: 2,09 − 2,35 μm), respectivamente. En el ETM+, una octava banda, la
pancromática, recoge toda la luz dentro de toda la banda visible (PAN: 0,52 − 0,90 μm).
Sin embargo, el sensor OLI del Landsat-8 incorpora una primera banda en el azul
muy estrecha, de sólo 20 nm de anchura (0,43 − 0,45 μm). Esta banda, llamada de aero-
soles y costa, se empleará para hacer la corrección atmosférica, especialmente en esta
zona terrestre-marina tan cambiante y para observar el fondo marino costero, ya que se
halla en una zona de máxima transparencia del agua del mar. El resto de las bandas de
este sensor son las tradicionales de los TM: tres visibles (VIS-R, VIS-G y VIS-B), la
banda NIR (un poco más estrechada, para evitar la absorción del vapor de agua), dos
bandas SWIR (1,57 − 1,65 μm y 2,11 − 2,29 μm, ahora ordenadas) y una PAN más res-
tringida (0,50 − 0,68 μm). También se ha añadido una banda “de cirros”, para mejorar
la corrección atmosférica (en el SWIR 1,36 − 1,38 μm). La banda térmica del Thermal
InfraRed Sensor (TIRS) se ha dividido en dos, una entre 10,60 − 11,19 μm y otra entre

200
I MAGEN DIGITAL

11,50 − 12,51 μm. Por lo tanto, el “color natural” de los productos OLI lo proporcionará
la combinación 432.
Aparte de la combinación 432 de color natural, algunas otras combinaciones de ban-
das Landsat ayudan a destacar cubiertas de interés (ver figura 5.8):

TM-432 u OLI-543: destaca la vegetación, que refleja mucho en el NIR, en color


rojo. Como la intensidad del rojo dependerá de la “densidad” de hojas, se podrán
distinguir, por ejemplo, los bosques de coníferas de los bosques caducifolios. Las
zonas de agua aparecen oscuras, en comparación, con colores azulados. Se ven
claramente también las vías de comunicación (interesante para georreferenciar).
TM-742 u OLI-753: como presenta una banda en el VIS, otra en el NIR y otra más
en el SWIR, la vegetación aparece verde (reflexión en el NIR) y las tonalidades
alrededor de este verde predominante indican el estado: hacia el amarillo, senes-
cencia; hacia el cyan, estrés o mortalidad. El agua se ve, prácticamente negra,
cuando más, con tonos verdosos. Las vías de comunicación apenas se aprecian:
son líneas azules oscuras que percibimos muy mal.
TM-342 u OLI-453: como la TM-234/OLI-345, destaca la vegetación pero con
ésta en verde. Debido a nuestra forma de percibir los colores, esto destaca menos
los contrastes entre diferentes tipos de bosques.
TM-754 u OLI-765: esta combinación entre el NIR y el SWIR muestra la vege-
tación en azul, y en los suelos, permite diferenciar las arenas de las arcillas o las
tierras de cultivo.

(Respuesta con colaboración de Juan Ojeda Cáceres).

8. En el software empleado en teledetección (al igual que en los GIS) se manejan


una serie de términos referidos a datos asociados a un producto de
teledetección (que contiene no sólo imágenes de las bandas, sino cualquier otro
tipo de información espacial, además de metadatos): bandas, canales, capas,
máscaras, . . . ¿Cuál de éstas se relaciona con decisiones sobre qué zonas de la
imagen mostrar o no mostrar en la imagen?

Respuesta: (d) Las máscaras en un producto de teledetección indican los píxeles que
poseen una propiedad. Contienen valores binarios: verdadero (posee la propie-
dad) o falso (no la posee). Habitualmente indican anomalías: errores de adquisi-
ción, presencia de nubes, de reflejos en el agua (sunglint), etc.

201
C UESTIONES DE TELEDETECCIÓN

432 543

765 453

753

Figura 5.8. Varias combinaciones de bandas de una imagen Landsat-8.

202
I MAGEN DIGITAL

Figura 5.9. Máscara de píxeles perdidos en la banda 1 del sensor CHRIS/PROBA y su superposición en la
imagen de la banda 1 (en la que esos píxeles aparecían en negro, sin señal).

La bandas de un producto de teledetección pueden contener datos en diferentes formatos,


correspondientes a la energía captada por el sensor en cada banda del espectro (de hecho,
las “bandas” del producto, que son imágenes, se llaman así por corresponderse en los
productos originales con bandas del espectro). Cada una de estas bandas puede contener
un tipo u otro de datos: pueden ser valores enteros, los ND adquiridos por el sensor;
pueden ser valores reales (números en coma flotante), si se han calibrado a radiancia
o se ha calculado la reflectividad correspondiente. Similares a las bandas, un producto
puede contener “imágenes binarias” en cuyos píxeles sólo puede haber valores 0 (falso)
o 1 (verdadero). Los píxeles seleccionados (con valor 1) poseen una propiedad: aquélla
para indicar la cual se ha creado la banda. Por ejemplo, los productos CHRIS/PROBA
se distribuyen en formato L1 con máscaras que indican los píxeles perdidos, es decir,
aquellos en los que no ha podido adquirir datos el sensor. Crear estas máscaras requiere
un procesamiento previo en el centro de recepción.
Durante el procesamiento de una imagen de teledetección, muchas veces se defi-
nen máscaras para centrar nuestro análisis en zonas específicas. Por ejemplo, si estamos
interesados en la lámina de agua, en un estudio de un embalse, definiremos una condi-
ción matemática que distinga esa área de interés del resto de la imagen: calculando esta
condición matemática, crearemos una máscara lógica que define el área que queremos
procesar. Una condición habitual, puede ser que la banda NIR tenga valores por debajo
de un umbral: el agua absorbe mucho la radiación en el infrarrojo, a diferencia de los
suelos o la vegetación que la reflejan. Esta máscara lógica se puede interpretar que toma

203
C UESTIONES DE TELEDETECCIÓN

Figura 5.10. Selección de un embalse mediante una máscara lógica en una imagen Landsat-8. La
condición para seleccionar los píxeles en esta banda 5 (NIR) en ND fue: (band_5 < 6000).

en sus píxeles el valor 1 (verdadero) o 0 (falso) cuando la condición matemática sea ver-
dadera o falsa, respectivamente. Una vez definida la máscara, ésta nos permitirá medir
la clorofila, por ejemplo, sólo en el embalse y no en el resto de la imagen ya “enmasca-
rada”. El uso de máscaras tiene la ventaja, entre otras, de hacer mucho más rápidos los
análisis de las imágenes, limitando el área donde se aplican.

9. Cuando se quiere utilizar una imagen de satélite o una fotografía aérea para
fotointerpretar (reconocer y digitalizar sobre la imagen) algún elemento del
terreno, la línea de costa por ejemplo, ¿cuál será la escala a la que debemos
realizar el trabajo?

Respuesta: (d) El proceso de digitalización es, hasta cierto punto, subjetivo. Consiste
en marcar las posiciones de elementos geográficos en una imagen. En el caso
propuesto, estas posiciones definirán líneas que representan límites entre zonas
que no tienen por que diferenciarse claramente en la imagen (por ejemplo, agua
y arena). Depende, por tanto, de la interpretación de unos criterios por parte del
digitalizador, que debe emplear siempre la escala de mayor detalle que le permita
diferenciar los elementos a identificar, dentro del contexto en que éstos se hallan.

204
I MAGEN DIGITAL

Figura 5.11. Playas de Bora-Bora vistas por el GeoEye-1. Ampliación de la costa (límite agua-arena) hasta
observar los píxeles.

La digitalización de una imagen es el proceso de convertirla de información ráster (con-


tenida en los píxeles) a información vectorial, descrita por las coordenadas de los vértices
de puntos, líneas y polígonos. La precisión con que se pueden definir estos vértices, es
en apariencia ilimitada: bastaría hacer zoom en la imagen para desplazar el vértice una
cantidad arbitrariamente pequeña. No obstante, esta arbitrariedad no es tal: debe corres-
ponderse con los elementos visibles en la imagen que se quieren delimitar.
En el ejemplo del enunciado, la línea de costa, se debe comenzar por definir ésta.
No basta con decir que es la separación entre tierra y agua: es suficiente ver una imagen
remota de una playa para detectar el problema. Por un lado, esta separación no es clara
en una imagen de satélite y, por otro lado, depende de las variaciones de la marea, por lo
que se trataría de una línea válida sólo para la imagen en cuestión. En trabajos científicos
y geográficos, es habitual definir como línea de costa, la línea de marea alta, que se
puede identificar como una frontera de oscurecimiento de la arena fina. Esta frontera,
por supuesto, es difícil de identificar en una imagen de satélite: en particular, en la banda
pancromática, que es la que aporta más información espacial. Como ya se ha comentado,
un píxel de un tamaño dado (los 2.5 m del HRG del SPOT, o los 0.5 m del GeoEye-1)
no implican que dos objetos a esa distancia se puedan distinguir en la imagen. Mucho
menos, la línea que separa dos zonas ligeramente diferentes (ver figura 5.11).
Por lo tanto, la escala a la que se debe digitalizar una línea en una imagen depende
de (al menos) tres factores: la resolución de la imagen (espacial, pero también radiomé-
trica), el tamaño del entorno necesario para que se haga evidente la línea que se quiere
delinear y el uso que se va a dar a la cartografía resultante. La primera impone un límite a
la información espacial de la que se dispone; en particular, al error en la georreferencia-
ción de sus píxeles: es difícil que una escena esté georreferenciada con un error esperado
muy inferior al tamaño del píxel (habitualmente se impone el criterio estadístico de que

205
C UESTIONES DE TELEDETECCIÓN

este error esperado sea del orden de 0.2 píxeles). También a qué se puede observar en
la imagen: en una imagen en color natural, a lo mejor no es fácil ver diferencias entre
dos tipos de vegetación, que quedarían patentes si se utilizase una imagen con una banda
en el NIR. La segunda, el tamaño del entorno de observación, impone una limitación a
la longitud de los segmentos que se trazarán en la digitalización: la diferencia entre dos
zonas no será visible al nivel del píxel, sino que se hará aparente cuando se considere un
conjunto de píxeles tal que a un lado de la línea unos sean principalmente de un tipo y,
al otro lado, de otro. La última limitación, el posterior uso de la cartografía digitalizada,
indica cuándo una imagen no es apta: no tendría sentido emplear imágenes Landsat para
una cartografía catastral, en la que se necesita delimitar las parcelas y polígonos con pre-
cisión inferior al metro, mientras que, a lo mejor sí lo serían para una cartografía forestal
que, a fin de cuentas, es una instantánea de una distribución biológica que cambia con el
tiempo.

10. Para una temperatura dada, las gotitas de la niebla son menos brillantes en la
banda térmica de 12 μm que en la de 10,8 μm, y más en ésta que en la de
8,7 μm; por eso se construyen imágenes RGB del sensor SEVIRI con
R:IR12-IR10.8, G:IR10.8-IR8.7, B:IR10.8. En estas imágenes, las nieblas se
ven de un color blanco azulado. Por otro lado, las gotitas y cristales de hielo en
los topes de las nubes, son prácticamente igual de emisivas en el IR10.8 y el
IR8.7, y más fríos. ¿Con qué color se verán?

Respuesta: (c) En esta imagen meteorológica en falso color, se están comparando com-
portamientos diferenciales en las cubiertas de nubes. Si sabemos que las nieblas
se ven de un color prácticamente blanco (con tonalidades azuladas), los topes de
las nubes en las que la práctica igualdad en el IR10.8 y el IR8.7 hará oscurecer-
se al canal verde y la menor emisión en el IR10.8 (porque están más frías) hará
oscurecer el canal azul, serán principalmente rojas.

A diferencia de las asignaciones de paletas de color a una banda o cálculo entre bandas,
siguiendo una asignación arbitraria, las composiciones RGB no asignan colores específi-
cos a elementos o características particulares que se observan en la imagen. Al contrario,
los colores que se producen en estas composiciones están directamente relacionados con
propiedades físicas de los objetos en la escena, que pueden ser o no las que queremos
distinguir, o que tendremos que manipular de la manera adecuada para resaltar sus cam-
bios o diferencias sutiles.
En el caso del enunciado, estas diferencias sutiles se ponen de manifiesto calculando
diferencias entre bandas en el infrarrojo térmico que, visualizadas por separado, mostra-

206
I MAGEN DIGITAL

Canal R Canal G Canal B


255 255 255

0 0 0
−4 0 +2 0 5 10 15 260 270 280 290
(K) (K) (K)
Valor: IR12−IR10.8 Valor: IR10.8−IR8.7 Valor: IR10.8

Figura 5.12. Asignación de intensidades de canal a partir de los valores de bandas.

rían patrones de temperatura radiométrica semejantes, ya que la emisividad térmica de


las nubes no varía bruscamente entre una banda espectral y otra. No obstante, lograr que
estas diferencias aparezcan ante el ojo del observador no es directo, sino fruto, muchas
veces, de la experiencia de los analistas.
El color percibido depende de cómo se transforman los valores calculados a partir de
las bandas en intensidad en los canales RGB (véase figura 5.12). Por ejemplo, la ventana
y el nivel que se tomen para asignar los valores a un canal: si la ventana se toma muy
amplia o el nivel muy elevado respecto al conjunto de los valores calculados, el canal no
aportará señal; en el RGB resultante se verá principalmente del color complementario
aportado por los otros dos canales; al contrario, el canal puede aparecer saturado y tam-
poco aportar información cromática. La ventana y el nivel deben estar ajustados al rango
de variaciones que caracterizan las diferencias que se quieren destacar en la imagen. Así
pues, la elección de los rangos de valores que se quieren mostrar en cada canal es muy
importante. Otra modificación es la curva de ganancia o gamma del canal, es decir, có-
mo percibiremos el contraste en función de la intensidad de la señal. Un gamma alto,
dará más contraste a las intensidades altas, quedando las intensidades bajas “aplanadas”,
difíciles de distinguir entre ellas; un gamma bajo, hará lo contrario: nos permitirá ver los
contrastes entre valores de intensidad pequeños, y ver los valores altos poco contrasta-
dos. El valor del gamma se ajusta en función de los colores que se quieran destacar más
o menos.
En la combinación de colores del enunciado, por ejemplo, con las bandas ya calibra-
das a temperaturas, las ventanas más efectivas de los canales para visualizar la imagen
correctamente, serían los siguientes:

207
C UESTIONES DE TELEDETECCIÓN

Figura 5.13. Imagen RGB con la combinación de bandas del enunciado. Fuente: EUMETSAT.

R:IR12-IR10.8, ventana de diferencias de temperaturas de −4 K a +2 K.

G:IR10.8-IR8.7, ventana de diferencias de temperaturas de 0 K a +15 K; a este


canal se le aplica un gamma de 2,5, para destacar más las mayores diferencias.

B:IR10.8, ventana de temperatura absoluta de 261 K a 289 K (es decir, de −12◦ C


a +16◦ C).

Si las bandas no estuviesen calibradas a temperatura radiométrica, habría que calcular


las ventanas adecuadas a los ND o radiancia espectral de esas bandas (ver figura 5.13).
Dado que, la temperatura radiométrica crece con la radiancia o con los ND, en las pre-
sentaciones cualitativas como esta se pueden utilizar indistintamente unos u otros.
Por lo tanto, a pesar de que los colores que asignan las composiciones RGB no son de
nuestra libre elección (lo que los puede hacer menos intuitivos que otras combinaciones
de color), ofrecen muchas posibilidades en cuanto a la interpretación física de la escena
que dependen de las bandas (o combinaciones de bandas) escogidas, de la elección de
sus rangos de interés y de su asignación a los distintos canales.

208
I MAGEN DIGITAL

Es necesario, sin embargo, tener cuidado con la interpretación de estas visualizacio-


nes: la percepción de las tonalidades (o la propia interpretación de su expresión verbal)
cambian mucho de una persona a otra. Pequeñas deficiencias visuales o diferencias cul-
turales pueden conducir a interpretaciones muy distintas del color en la imagen.

209
C UESTIONES DE TELEDETECCIÓN

5.4. CONCEPTOS IMPORTANTES

brillo Valor que caracteriza la intensidad de luz emitida en un píxel al visualizar una
imagen. Se suele definir como la media de los valores en los tres canales rojo,
verde y azul (en las imágenes RGB). En otros contextos se define como una suma
ponderada con la sensibilidad del ojo humano a cada uno de estos colores.

canal Cada una de las entradas o salidas independientes de datos (ya sean físicas o
lógicas) entre dispositivos. En el caso de los dispositivo de visualización, los datos
de color rojo, verde y azul en cada píxel se envían independientemente, de ahí que
se hable de canales de color. Por extensión, se llama canal (o banda) de una imagen
a cada una de las señales que un sensor adquiere independientemente, esto es, con
distinto detector.

color natural Combinación de bandas correspondientes aproximadamente a los rangos


espectrales del rojo, verde y azul, representadas en los respectivos canales. Una
combinación de bandas de color natural trata de mostrar la imagen como la vería
un observador humano desde la posición del sensor.

compresión Reducción del tamaño de los datos que representan una información. Los
algoritmos de compresión aprovechan la redundancia (repeticiones) en los datos
para sustituirlos por “cadenas” más cortas que los remplazan, reduciendo así el ta-
maño de los archivos. Cuando los datos originales se pueden obtener exactamente
a partir de los comprimidos, el proceso de compresión se dice que es sin pérdidas
(por ejemplo, el algoritmo pkZIP); cuando a partir de los datos comprimidos só-
lo se puede recuperar una copia aproximada de los originales, se dice que es con
pérdidas (por ejemplo, el algoritmo JPEG).

contraste Rango en el que los brillos en una imagen. La operación más sencilla para
maximizar el contraste en una imagen es realizar una transformación lineal que
convierta en negro (ausencia de brillo) el valor más bajo y en blanco (máximo
brillo) el valor más alto: esto es la normalización o estiramiento de la distribución
de brillos o histograma de la imagen.

falso color Combinación de bandas espectrales dirigidas a los canales rojo, verde y azul
con el propósito de destacar algunos aspectos que se observan mejor en estas ban-
das, pero que no buscan mostrar la imagen tal como la vería un ojo humano.

formato de imagen Estructura de los datos en uno o varios archivos informáticos que
almacenan la información de los píxeles y canales/bandas de una imagen y otra

210
I MAGEN DIGITAL

información asociada a ella (como los metadatos). El formato se suele asociar a


una extensión de archivo, como en el caso del TIFF (extensión «.tif»).
gamma Transformación no lineal que aumenta o disminuye el contraste de los colores
en función de su brillo. Un gamma mayor que la unidad aumenta el contraste de
los brillos más altos; uno menor, aumenta el contraste de los brillos más bajos.
imagen digital Representación de una imagen (la proyección de una escena real o simu-
lada) en forma de una matriz, en la que cada celda o píxel representa los atributos
espaciales y el valor de estos atributos se codifica numéricamente. A diferencia de
una imagen analógica, una imagen digital es infinitamente reproducible con idén-
tica exactitud; por la contra, la información de una imagen digital siempre tiene
precisión finita, ya sea espacialmente (no se puede diferenciar nada por debajo del
tamaño del píxel) o numéricamente (los valores numéricos que puede tomar un
píxel son necesariamente acotados y finitos).
JPEG (joint photograph expert group) Grupo de estudio internacional dedicado a la
adquisición, codificación, almacenamiento y transmisión de imágenes (en la ac-
tualidad, ya no sólo fotográficas). También se denomina así al formato de imagen
definido por este grupo (con extensión «.jpg»).
metadatos Información a cerca de una imagen que no forma parte de ella (de sus pí-
xeles) pero que en muchas ocasiones puede estar incluida dentro del formato de
archivo la propia imagen. Por ejemplo, el sensor o modelo de cámara con la que
se adquirió, las condiciones de iluminación o el programa de adquisición, la ubi-
cación u orientación del sensor, etc.
nivel digital Valor numérico (entero o representable en forma de entero) que representa
el contenido de un píxel de una imagen.
paleta de color Tabla de ternas RGB o procedimiento para calcularlas que indica los
colores con los que se representará una imagen cuyos píxeles sólo contienen un
valor digital. El valor digital en la imagen proporciona el número de color en la
paleta. Los colores de la tabla se escogen de manera que faciliten la percepción de
la información en la imagen y sugieran su significado.
píxel Elemento de una imagen digital definido por la fila y columna de la matriz en
las que se halla. Un píxel puede contener uno o varios valores numéricos, cada
uno atribuible a una banda o canal. Estos valores serán los que se utilicen para
representarlo en la imagen, ya sea dirigiendo tres de esos valores a los canales
RGB de un dispositivo de visualización, ya sea asignando un color tomado de una
paleta predefinida.

211
C UESTIONES DE TELEDETECCIÓN

poder de separación Capacidad de un sensor para diferenciar en sus imágenes dos ob-
jetos próximos. Sinónimo de resolución espacial, aunque también se usa para me-
didas angulares.

profundidad de color Número de colores diferentes que se pueden codificar en una


imagen. Se indica por el número de bits con que se representa cada valor digital en
uno de sus píxeles. Por ejemplo, una profundidad de color de 8 bits permite definir
256 colores; habitualmente, tabulados en una paleta de color. Una profundidad de
color de 24 bits, permite definir 16 millones de colores; habitualmente se dirigen
los enteros formados por los 3 grupos de 8 bits a los tres canales RGB para formar
la imagen.

RGB (red, green, blue) Sistema para definir un color mediante sus coordenadas tricro-
máticas, es decir, mediante las intensidades con que ese color estimularía la per-
cepción visual del rojo, el verde y el azul separadamente. Como norma general,
todo sistema para definir un color (y su brillo) debe usar tres coordenadas que se
transforman (de manera biunívoca) en las coordenadas RGB.

5.5. BIBLIOGRAFÍA

E. Chuvieco Salinero (2008). “Análisis digital de imágenes: correcciones y real-


ces”. En: Teledetección ambiental, Capítulo 6. Ariel Ciencia, 2008.

P.M. Mather (2004). “Hardware and software of Digital Image Processing”. En:
Computer Processing of Remotely-Sensed Images: An Introduction, Capítulo 3.
John Wiley & Sons, 2004

J.R. Jensen (2005). “Image Processing System Considerations”. En: Introductory


Digital Image Processing: A Remote Sensing Perspective, Capítulo 3. Prentice
Hall, 2005.

J.R. Jensen (2005). “Initial Display Alternatives and Scientific Visualization”. En:
Introductory Digital Image Processing: A Remote Sensing Perspective, Capítulo
5. Prentice Hall, 2005.

C. Pinilla Ruiz (1995). “Tratamiento digital”. En: Elementos de Teledetección,


Capítulo 5. Ra-Ma, 1995.

K.I. Strabala, S.A. Ackerman, P. Menzelw (1994). “Cloud properties inferred from
8 − 12 μm data”. Journal of Applied Meteorology, 33(2): 212-229

212
I MAGEN DIGITAL

Webgrafía (accesible el 1/05/2015)

Developer resources — TIFF.


URL: http://partners.adobe.com/public/developer/tiff/
Página de la empresa Adobe Inc. dedicada al formato de imagen TIFF y a sus
implementaciones y extensiones.

Pléiades and SPOT 6/7 Format Delivery — Airbus Defence and Space.
URL: http://www.astrium-geo.com/en/3030-pleiades-and-spot-6-7-format-delivery
Página que describe el formato DIMAP 2 de imágenes de teledetección emplea-
do en los nuevos SPOT en el que se usa el formato de imagen GeoTIFF o el
JPEG2000 para almacenar los datos de la imagen y un documento XML (texto)
para los metadatos de la imagen.

Google to buy GeoEye satellite imagery — CNET.


URL: http://www.cnet.com/news/google-to-buy-geoeye-satellite-imagery/
Noticia de la compra por Google de las imágenes del GeoEye-1, por Stephen
Shankland de la revista digital CNET.

Open Standards Benefit Earth Imaging Community — Earth Imaging Journal.


URL: http://eijournal.com/print/column/industry-insights/open-standards-benefit-
earth-imaging-community
Artículo del presidente del Open Geospatial Consortium (OGC, consorcio para
datos geoespaciales abiertos), Peter Baumann, en el que explica cómo los formatos
y protocolos abiertos benefician el avance de la comunidad científica dedicada el
estudio de la Tierra.

EUMETSAT - Product generation description.


URL: http://oiswww.eumetsat.int/∼idds/html/product_description.html
Descripción de los productos de imagen meteorológica generados a partir de datos
de EUMETSAT mediante la composición RGB de bandas de los satélites Meteo-
sat.

Google Maps.
URL: http://maps.google.com
Visor de mapas de Google.

213
C UESTIONES DE TELEDETECCIÓN

The HDF Group — Information, support and software.


URL: http://www.hdfgroup.org/
Sitio web del grupo de desarrollo del formato de datos científicos HDF (hierarchi-
cal data format, formato de datos jerárquicos) adecuado para almacenar y acceder
rápidamente a conjuntos grandes de información científica, como las imágenes y
otros productos de teledetección.

JPEG.
URL: http://www.jpeg.org/jpeg/index.html
Página web dedicada al formato de imagen fotográfica JPEG (joint photograph
expert group, grupo de expertos en fotografía) clásico, con compresión con pérdi-
das.

JPEG 2000.
URL: http://www.jpeg.org/jpeg2000/
Página web dedicada al nuevo formato de imagen fotográfica JPEG2000 (joint
photograph expert group, grupo de expertos en fotografía) con mayor capacidad
de compresión que el JPEG clásico y con posibilidad de comprimir imágenes sin
pérdidas.

OSGeo.org — Your Open Source Compass.


URL: http://www.osgeo.org
Sitio web de la Open Source Geospatial Foundation (Fundación para las Fuentes
Abiertas Geoespaciales) dedicada a divulgar el software de teledeteccion y GIS
que usa estándares abiertos.

GeoTIFF — OSGeo.
URL: http://trac.osgeo.org/geotiff/
Página de la OSGeo (Open Source Geospatial Foundation) sobre el formato Geo-
TIFF, la extensión del formato TIFF acordado entre diferentes organizaciones y
empresas que permite almacenar imágenes (datos espaciales rasterizados) georre-
ferenciadas.

Unidata — NetCDF.
URL: http://www.unidata.ucar.edu/software/netcdf/
Página web dedicada al formato de datos científicos NetCDF (Network Common
Data Format, Formato de Datos Común para la Red) y sus usos más frecuentes,

214
I MAGEN DIGITAL

especialmente para almacenamiento de datos meteorológicos (NOAA y EUMET-


SAT).

Google’s Super Satellite Captures First Image — Wired.com.


URL: http://www.wired.com/2008/10/geoeye-1-super/
Artículo de B.X. Chen sobre la noticia de la primera imagen captada por el GeoEye-
1 en cuyo lanzamiento participó Google y con el que esta empresa de información
de Internet obtuvo imágenes para su servicio de Google Maps.

215
Tema 6

Transformaciones de las imágenes

GUION-ESQUEMA

Aritmética de imágenes

Transformaciones globales

Transformaciones locales

Correcciones de defectos de las imágenes


218
Operaciones Aplicaciones
Logicas/Máscara

Selección de elementos
C UESTIONES DE TELEDETECCIÓN

Brillo/Contraste
Ecualización Visualización
Bandas Imagen total Transf. Gamma
Análisis visual
Compos. RGB
Transformación global ...
Aritmética de bandas
Promedio/Diff. Calc. magnitudes físicas
Trans. Brovey Reducción de ruidos
Índices Detección de cambios
... Clasificación

Estadisticos de suavizado
Media
Píxeles Transformación local Reducción de ruido
Mediana
Max., min., ...

Derivadas
Detección de estructuras
Anal. vecinos Realces

Gradientes (detec. bordes)


T RANSFORMACIONES DE LAS IMÁGENES

6.1. INTRODUCCIÓN

En el tema anterior se vio cómo la imagen intuitiva se convertía en una matriz de


píxeles con unos atributos dados (brillo o color) que se podían manipular. La forma
concreta de hacer esto es tratando las imágenes como conjuntos de datos numéricos.
Las operaciones más sencillas son las operaciones aritméticas aplicadas a los valores
de los píxeles de la imagen: suma (o resta) de un valor y multiplicación por otro valor
resultan ser las operaciones de cambio de brillo y de contraste de la imagen. Un paso
más allá es llevar a cabo estas operaciones de suma y producto entre los propios píxeles
de dos imágenes con las mismas dimensiones (dos bandas de una imagen multiespec-
tral). E igual que se pueden llevar a cabo estas operaciones, es posible aplicar funciones
especiales que destaquen algunas características de las imágenes; por ejemplo, calcular
el cuadrado o el logaritmo de los valores de los píxeles. Estas transformaciones que se
reducen a aplicar la misma operación a cada píxel se denominan transformaciones glo-
bales. Algunas transformaciones globales importantes son aquellas que se determinan
a partir de los valores de los propios píxeles de la imagen, como la ecualización del
histograma (una transformación no lineal de una banda, basada en la distribución esta-
dística de los valores de sus píxeles) o la transformación de componentes principales
(una combinación lineal de bandas, determinada en función de la correlación estadística
entre ellas).
Las operaciones locales tienen en cuenta, a la hora de calcular, los valores de un
grupo de píxeles próximos. Estas operaciones son útiles para incorporar o extraer infor-
mación espacial. Las más simples son el suavizado (que elimina cambios bruscos en la
imagen, como algunos ruidos) y el realce (que destaca los bordes). También se pueden
aprovechar los cambios de nivel en píxeles vecinos para detectar los bordes (costas, lí-
mites entre parcelas, vías de comunicación, etc.) en una imagen. En teledetección son
habituales también otros tipos de transformaciones locales, un poco más complicadas o
más ad hoc, orientadas a corregir las imágenes de partida de defectos o limitaciones en
su adquisición.

219
C UESTIONES DE TELEDETECCIÓN

6.2. CUESTIONES

1. Una transformación global de la imagen es una regla que se aplica a los píxeles
de la imagen teniendo en cuenta sólo el valor de cada píxel en ésta, pero sin tener
en cuenta los de los demás píxeles vecinos a éste. Dada esta imagen SPOT-6 de la
ciudad de Barcelona,

¿cuál de estas otras ha sido obtenida mediante transformación global de ella?

a) b)

c) d)
2. Una imagen remota suele representar la cantidad de luz reflejada por una cubierta
(relacionada con la radiancia recibida de ella). Esta magnitud puede estar rela-
cionada de forma complicada con otras propiedades del objeto representado: para
representar estas propiedades, se aplican estas transformaciones complicadas, casi
siempre no lineales. Por el contrario, ¿cuál de estas transformaciones globales es
lineal?

a) transformación a batimetría de una zona con agua


b) transformación a reflectividad de una cubierta
c) transformación a temperatura de una cubierta
d) corrección gamma de una imagen

220
T RANSFORMACIONES DE LAS IMÁGENES

3. Algunos productos de teledetección atmosférica muestran cómo varía la radiancia


de las nubes en función de la longitud de onda en el infrarrojo térmico, ya que esto
informa sobre su temperatura y, por tanto, sobre su altura en la atmósfera. ¿Qué
clase de operación se lleva a cabo con las bandas de la imagen para visualizar
esto?

a) modificación del contraste de una banda


b) transformación no lineal del histograma
c) diferencia de los valores de las bandas
d) cociente de los valores de las bandas

4. La aritmética de bandas es el cálculo de nuevos valores de los píxeles a partir de


los que tienen en diferentes bandas de un sensor (o de imágenes co-localizadas de
varios sensores). ¿Cuál de estos productos se calcularía con aritmética de bandas,
procedentes del mismo o diferentes sensores?

a) una imagen multiespectral SPOT mejorada con pancromático (pan-enhanced)


b) una imagen mejorada “multiview” del ASAR
c) una imagen de nieblas del METEOSAT
d) todas las anteriores

5. Una de las formas de caracterizar una cubierta terrestre es mediante “índices” que
describen la forma de su espectro de reflectividad, definidas de modo que sean lo
más independientes posible de factores ambientales: la “densidad” de aquello que
miden (por ejemplo, la densidad foliar de un dosel), errores en la corrección at-
mosférica (por ejemplo, en la irradiancia solar o en la absorción atmosférica), etc.
¿Cuáles de estas operaciones entre bandas proporcionarían este tipo de índices?

a) un promedio de bandas
b) una diferencia de bandas
c) un cociente entre una diferencia de bandas y el valor de otra
d) un producto de una suma de bandas y la diferencia de otras

221
C UESTIONES DE TELEDETECCIÓN

6. Una transformación especial de una o varias bandas de una imagen es la creación


de una máscara lógica: en lugar de llevar a cabo un cálculo aritmético, se lleva a
cabo un cálculo con predicados lógicos (comparaciones: >, <, =; negaciones, NO;
conjunciones: Y; disyunciones, O; etc.). ¿Cuál de estos cálculos se puede llevar a
cabo mediante este proceso a partir de las bandas de una imagen Landsat?

a) máscara de tierra-agua
b) “buffer” de 100 m alrededor de la línea de costa
c) máscara de píxeles afectados de “sunglint”
d) todas las anteriores

7. Los valores de los píxeles en el entorno de un píxel dado pueden proporcionar


información que ayude a la interpretación de éste. El caso más claro es el de la
presencia de ruido en una imagen: los valores alrededor de un píxel pueden indicar
si éste es fruto de ese ruido o no. ¿Qué clase de transformación local sustituiría
este píxel por una estimación de su valor sin ruido?

a) un filtro de media
b) un filtro de mediana
c) un filtro gaussiano
d) todos los anteriores

8. Para poder realizar operaciones entre las bandas de dos imágenes de sensores di-
ferentes, o que tienen tamaños de píxeles diferentes, es necesario. . .

a) “interpolar” los píxeles de una en las posiciones de los de la otra


b) cambiar el tamaño y/o forma de los píxeles de una para ajustarlo la otra
c) representar los píxeles de ambas en las celdas de la pantalla de visualización
d) ninguna de las anteriores.

9. Para detectar las calles en una imagen de una ciudad, se emplearía. . .

a) un filtro pasa-bajos
b) un filtro pasa-altos
c) dos filtros pasa-altos
d) un filtro pasa-bajos y uno pasa-altos

222
T RANSFORMACIONES DE LAS IMÁGENES

10. Para exagerar el relieve en una imagen pancromática, se aumentan los contrastes
de sombras que se ven en la imagen en las laderas de las montañas. Para eso se
usa. . .

a) un filtro pasa-bajos
b) un filtro pasa-altos
c) una función no lineal
d) aritmética de bandas

223
C UESTIONES DE TELEDETECCIÓN

6.3. RESPUESTAS A LAS CUESTIONES

1. Una transformación global de la imagen es una regla que se aplica a los píxeles
de la imagen teniendo en cuenta sólo el valor de cada píxel en ésta, pero sin
tener en cuenta los de los demás píxeles vecinos a éste. Dada esta imagen
SPOT-6 de la ciudad de Barcelona, ...

Respuesta: (b) La transformación de la imagen que mantiene los píxeles en su sitio y


sólo modifica los valores de sus niveles sin atender a sus vecinos (es decir, sin
modificar la “forma” que vemos de la imagen); en este caso, se ha modificado
el contraste y se ha calculado el negativo de la imagen (multiplicado por -2.5 los
valores de los píxeles en la original).

Las transformaciones globales o locales de las imágenes se refieren no a la extensión de


la imagen a la que afecta dicha transformación (se supone que siempre se aplica la trans-
formación a la totalidad de la imagen) sino a cómo cambia la regla de la transformación
de un píxel a otro de la imagen. Cuando esta regla es la misma independientemente de
la posición del píxel, es decir, cuando podríamos “extraer” el píxel de la imagen (con
todos los valores que toma en las diferentes bandas) y, sólo fijándonos en él, aplicarle
la transformación, diremos que la transformación es global. Cuando necesitamos tener
en cuenta la posición del píxel en la imagen para llevar a cabo dicha transformación,
diremos que la transformación es local.
En las opciones de esta cuestión se muestran cuatro posibles transformaciones de
una imagen SPOT-6 de la costa de la ciudad de Barcelona.
En la primera de ellas, las líneas se observan difuminadas, mientras que en la tercera,
se muestran realzadas. En ambas, la intensidad de los píxeles en la imagen resultante ha
sido recalculada en función de cómo se parece su entorno a un borde. Por lo tanto, son
transformaciones locales por entornos o vecindarios de unos pocos píxeles.
En la última de ellas, la imagen se muestra rotada. En apariencia, no hay cambios en
la intensidad con las que se observa un mismo punto geográfico. Sin embargo, desde el
punto de vista de la imagen, ese punto geográfico se ha desplazado a otro píxel: el cambio
en el valor de éste ha dependido del valor de un píxel distante en la imagen original. Es,
por lo tanto, una transformación local, aunque sobre un vecindario que comprende más
que unos pocos píxeles.
Por último, la segunda imagen es un negativo de la original, y un poco más contras-
tado. Se ha obtenido aplicando en cada píxel una misma regla: multiplicar su ND por

224
T RANSFORMACIONES DE LAS IMÁGENES

Figura 6.1. Paneles de calibración de imágenes multiespectrales de la marca Group 8 Technology


extendidos sobre el terreno. Cada pedazo del panel tiene una reflectividad conocida, entre el 3 y el 82 %.
Fuente: Group 8 Technology, Inc., Provo, Utah - EE.UU.

-2.5, esto es, invirtiendo su color (intercambiando intensidades máximas y mínimas) y


aumentando su contraste. En ocasiones, para obtener la regla de transformación se lle-
va a cabo un cálculo que involucra todos los píxeles de toda la imagen o de una parte
seleccionada de la misma: a pesar de ello, la transformación se sigue considerando glo-
bal, porque una vez establecida, se aplica a todos los píxeles independientemente de su
posición. Un ejemplo puede ser la normalización de valores de una banda respecto a los
píxeles de una área seleccionada manualmente, de manera que el valor medio de la banda
en dicha región sea 0 y su desviación típica 1: esa transformación en esa área define una
transformación lineal que se puede aplicar a los píxeles de toda la imagen, globalmente,
sin tener en cuenta sus posiciones. Este podría ser un procedimiento para la corrección
atmosférica de una escena, usando como referencia una región de la que se conoce bien
el comportamiento radiométrico en las distintas bandas (método de la “línea empírica”).

En imágenes codificadas en valores enteros, como las imágenes originales (L0 y


L1) de los sensores, que contienen en cada píxel valores enteros (los verdaderos Niveles
Digitales), es habitual llevar a cabo las transformaciones globales (sobre todo a efectos

225
C UESTIONES DE TELEDETECCIÓN

de visualización) aplicando tablas de conversión: de este modo sólo se lleva a cabo el


cálculo de la regla 256 veces, una por cada valor posible del ND (si éste tiene más de 8
bits, por ejemplo 14 bits, un número mayor de veces, por ejemplo 4096); luego se aplica
la tabla a los ND de la imagen; esto es análogo al uso de paletas de color y mucho más
económico que realizar el cálculo (y el cambio) de los valores de todos los píxeles, o
que crear una nueva imagen en memoria (las imágenes de teledetección suelen ocupar
mucha). Otra alternativa, mucho más general (porque no requiere que los valores de los
píxeles sean enteros que puedan indicar una entrada de la tabla), es almacenar la regla de
transformación (como, una expresión matemática) y aplicarla cada vez que se requiere
un valor de un píxel de la imagen transformada (este es el mecanismo usado por el
software Beam a la hora de definir bandas virtuales, véase apéndice A).

2. Una imagen remota suele representar la cantidad de luz recibida en el sensor


desde una cubierta (relacionada con la radiancia recibida de ella). Esta
magnitud puede estar relacionada de forma complicada con otras propiedades
del objeto representado: para representar estas propiedades, se aplican estas
transformaciones complicadas, casi siempre no lineales. Por el contrario, ¿cuál
de estas transformaciones globales es lineal?

Respuesta: (b) La radiancia reflejada desde una cubierta es proporcional a su reflec-


tividad, aunque con contribuciones debidas a la radiación difusa de la atmósfera
(la dispersión atmosférica), por lo tanto, para convertir la información de una
banda de radiancia a reflectividad es necesario dividir por el coeficiente de pro-
porcionalidad adecuado y restarle la contribución debida a la dispersión, es decir,
hacer una transformación lineal.

Existen relaciones matemáticas que relacionan la radiancia espectral que llega a un sen-
sor a bordo de un satélite en órbita (radiancia TOA, top of the atmosphere) en las distintas
bandas con las propiedades físicas del material que refleja esa radiancia. Ésta es la base
de la teledetección, y por ello se pueden identificar esos materiales y aun deducir las
propiedades de los objetos que están compuestos por ellos.
Las relaciones matemáticas más sencillas son las lineales. Consisten sólo en multi-
plicar una magnitud, como la radiancia TOA en una banda espectral, por un coeficiente
y sumarle o restarle un valor constante. La corrección atmosférica se lleva a cabo me-
diante ecuaciones de este tipo: el coeficiente multiplicador es el producto de la luz que
llega del sol (que varía a lo largo del año y es función de la latitud y la hora de adquisi-
ción de la escena) y de la absorción atmosférica (que depende del estado de ésta y de la

226
T RANSFORMACIONES DE LAS IMÁGENES

−2

Profundidad (m)
−4
−6
−8
−10
−12
40 45 50 55 60 65
ND (banda 3 SPOT)

Figura 6.2. Imagen de la banda verde de un producto SPOT-5 en la desembocadura del Guadiana y
batimetría derivada de ella. A la derecha, relación no lineal entre el valor de la banda y la profundidad
estimada.

altitud de la escena); el valor constante que, en este caso, se resta depende de la cantidad
de aerosoles (partículas micrométricas en suspensión) o nieblas que dispersan la luz del
sol sobre la escena. Por supuesto, estos dos coeficientes son distintos para cada banda
espectral, y existen algoritmos complicados que los calculan en función de datos que les
proporciona el usuario.
Sin embargo, existen otras relaciones no lineales que se emplean para calcular otras
propiedades o, simplemente, para modificar la forma en que se ve una escena. Una de
estas últimas consiste en elevar los ND de las bandas a una potencia (es decir, sustituir
ND por NDγ , donde γ es un número positivo); esta transformación se llama corrección
“gamma” (el nombre de la letra griega γ) y está relacionada con cómo nuestro ojo percibe

227
C UESTIONES DE TELEDETECCIÓN

la luz y el contraste entre colores. Un valor de γ mayor que 1, aumenta el contraste que
percibimos en los niveles de gris más altos y, por tanto, “apaga” los niveles de gris más
bajos, haciéndolos prácticamente cero (por comparación con lo que aumenta el valor de
los más altos). Un valor de γ menor que 1, por el contrario, permite diferenciar mejor
los ND más bajos, mientras que “satura” los altos. Existen otras funciones que logran
efectos similares: la exponencial (es decir, sustituir un ND por eND ≡ exp(ND)) y el
logaritmo (es decir, ND → log(ND). La primera tiene el efecto de destacar mucho los
contrastes entre los valores altos; la segunda, entre los bajos.
Las funciones logarítmicas aparecen muchas veces en teledetección porque permiten
deducir propiedades de los objetos, más allá de permitir visualizar la imagen de una
manera u otra; no obstante, una imagen de “propiedades físicas” se suele interpretar
mejor que una imagen de radiancia TOA, por lo que en muchos casos se logrará también
mejorar la visualización. Una de estas propiedades es la profundidad del agua: como
la luz que se transmite a través de un espesor de agua se atenúa exponencialmente, el
espesor de la lámina de agua se puede calcular aplicando un logaritmo a la radiancia
recibida desde el fondo (y calibrando luego el resultado con valores de la batimetría
medidos en el campo).
Otra propiedad, es la temperatura: la radiación en el infrarrojo térmico (TIR) que
emite un cuerpo (en este caso no la refleja del sol, sino que se origina en él) depende
a través de una exponencial del inverso de su temperatura; por lo tanto, para calcular
la temperatura, se aplica un logaritmo a la radiancia que emite en el TIR y se calcula
el inverso del resultado (utilizando unos coeficientes de calibración que dependen del
sensor y del material cuya temperatura se está calculando).

3. Algunos productos de teledetección atmosférica muestran cómo varía la


radiancia de las nubes en función de la longitud de onda en el infrarrojo
térmico, ya que esto informa sobre su temperatura y, por tanto, sobre su altura
en la atmósfera. ¿Qué clase de operación se lleva a cabo con las bandas de la
imagen para visualizar esto?

Respuesta: (c) Para visualizar la temperatura radiométrica, bastaría con calcular una
expresión no lineal (logarítmica) de una banda, sin embargo, en el caso de las
nubes (cuya densidad es variable), se estudia cómo varía la emisión térmica en
función de la longitud de onda y, para ello, se calcula la diferencia de los valores
entre dos bandas próximas.

228
T RANSFORMACIONES DE LAS IMÁGENES

Los diferentes comportamientos radiométricos en las distintas bandas espectrales se ob-


servan como cambios en la radiancia o la reflectividad representadas en los píxeles de
las distintas bandas de una imagen. Por eso, aunque las transformaciones de las bandas
por separado puedan ayudar a distinguir unas cubiertas de otras, en la mayoría de los
casos lo que se calculan son relaciones entre las bandas que indican cambios en el com-
portamiento radiométrico de su espectro, ya sea de emisión (como el caso de las nubes
en el infrarrojo térmico, TIR) o de reflexión (como el caso de la vegetación en el visible
e infrarrojo cercano, VIS-NIR).
En el caso de la temperatura de las nubes, ésta está relacionada con la radiancia que
emiten en el TIR. Pero también depende de las propiedades de emisividad de las goti-
tas o cristalitos de hielo que la forman; para determinar esta emisividad, se calculan las
diferencias en la temperatura calculada según dos bandas diferentes. Esta emisividad in-
forma sobre el tipo de nube. La temperatura radiométrica, sobre su altura en la atmósfera
(suponiendo un perfil de temperaturas conocido).
El cociente entre valores de las bandas, es también otra manera de caracterizar la
forma del espectro de emisión o de reflexión. De hecho, cuando un pigmento absorbe en
una banda y no en otra banda próxima (siendo, por lo demás, el resto de las propiedades
radiométricas iguales en ambas bandas), el cociente entre bandas con y sin pigmento,
proporciona una idea sobre la concentración relativa de éste.

4. La aritmética de bandas es el cálculo de nuevos valores de los píxeles a partir


de los que tienen en diferentes bandas de un sensor (o de imágenes
co-localizadas de varios sensores). ¿Cuál de estos productos se calcularía con
aritmética de bandas, procedentes del mismo o diferentes sensores?

Respuesta: (d) Todas estas imágenes se obtienen por aritmética de bandas, a veces
bandas espectrales de un mismo sensor y de la misma imagen, o a veces de di-
ferentes imágenes, y también de distintos sensores (casi siempre, por motivos de
sincronía, transportados sobre el mismo sensor).

La aritmética de bandas es una herramienta muy potente. Trata cada píxel como un ele-
mento independiente y opera entre los valores que las diferentes bandas del producto
toman en él. Esto incluso se puede hacer entre bandas de distintos productos si previa-
mente se colocalizan unas respecto a otras.
Un ejemplo realizado con aritmética de bandas son las imágenes multiespectrales
SPOT mejoradas con pancromático. Éstas son un producto muy utilizado para fotointer-

229
C UESTIONES DE TELEDETECCIÓN

pretación. Para trabajos de teledetección, presenta el inconveniente de haber perdido la


información original de radiancia en las bandas espectrales, ya que se ha fusionado con
la banda pancromática. Para ello se ha llevado a cabo el siguiente cálculo:
Banda 1: HRV1*PAN/(HRV1+HRV2+HRV3)
Banda 2: HRV2*PAN/(HRV1+HRV2+HRV3)
Banda 3: HRV3*PAN/(HRV1+HRV2+HRV3)
La relación en cada píxel entre estas tres bandas calculadas es la misma que entre las
HRV1, HRV2 y HRV3 originales, pero ya no se pueden convertir en radiancia espectral,
dado que el “brillo del píxel” viene ahora dado por la banda PAN, que no cubre el mismo
intervalo espectral que las otras tres.
Las imágenes de radar son siempre muy ruidosas. El ruido de punteado se origina
porque la propia onda interfiere consigo misma al incidir sobre la superficie de la Tie-
rra; algo parecido se puede ver cuando se ilumina una superficie con un puntero láser:
aparecen destellos que cambian de posición cuando nos movemos nosotros o el láser. Se
suele llamar a este ruido “speckle” de la imagen. El ruido es aleatorio: se puede dar en un
píxel o no, con mayor o menor intensidad, por lo tanto cambia de una imagen de la es-
cena a otra, mientras que la intensidad reflejada por los objetos de la imagen, no cambia.
El speckle en una imagen será distinto del speckle en otra y, por lo tanto, haciendo un
promedio entre las dos, el speckle en la imagen promedio se reducirá a la mitad porque
no coincidirán dos punteados en el mismo sitio en ambas imágenes (o la probabilidad
de que eso suceda será muy pequeña). Repitiendo esto con muchas imágenes de la mis-
ma escena (es decir, en las que cada píxel corresponda a la misma zona del terreno), el
speckle acabará desapareciendo. Esto es lo que hacía el sistema multiview del ASAR. En
este caso, la banda promediada se calcularía, por ejemplo, usando la misma banda SAR
(con la misma polarización) en cuatro imágenes distintas, como:
Banda promedio: (SAR1_1+SAR1_2+SAR1_3+SAR1_4)/4
Las composiciones en color usadas en meteorología, también se calculan píxel a
píxel. Primero, los niveles digitales de las bandas del sensor en el infrarrojo térmico (por
ejemplo, las bandas 7 a 11 del SEVIRI), se convierten a radiancia que llega al sensor y
ésta a temperatura radiométrica de la nube o la superficie terrestre. En cada banda del
infrarrojo térmico, se estima un valor de la temperatura; sin embargo, diferentes bandas
proporcionarán valores ligeramente distintos. Las diferencias son, precisamente, las que
muestran información interesante: lo que las causa es la emisividad de las nubes, que
depende del tamaño de las gotas que las forman. Así el producto de nieblas, por ejemplo,
se calcula con la expresión:

230
T RANSFORMACIONES DE LAS IMÁGENES

Banda R: Ch10-Ch09
Banda G: Ch09-Ch04
Banda B: Ch09

5. Una de las formas de caracterizar una cubierta terrestre es mediante “índices”


que describen la forma de su espectro de reflectividad, definidas de modo que
sean lo más independientes posible de factores ambientales: la “densidad” de
aquello que miden (por ejemplo, la densidad foliar de un dosel), errores en la
corrección atmosférica (por ejemplo, en la irradiancia solar o en la absorción
atmosférica), etc. ¿Cuáles de estas operaciones entre bandas proporcionarían
este tipo de índices?

Respuesta: (c) Un índice con las propiedades indicadas debe calcularse como un co-
ciente de valores obtenidos de las bandas. Un simple cociente (band ratio), o un
cociente entre diferencias (difference ratio), o un cociente entre diferencias y su-
mas (normalized difference), cumple estas condiciones.

Cuando una imagen tiene en los píxeles de sus bandas reflectividades, ya podemos con-
siderar que es una imagen en variables físicas: la reflectividad es la propiedad óptica
del objeto o cubierta que define su interacción con la luz. Por lo tanto, la imagen ca-
racteriza el material que se observa en la imagen. Sin embargo, esto es cierto sólo en
condiciones ideales, en las que se posee toda la información para calcular la reflecti-
vidad correctamente. En muchos casos, sin embargo, la corrección atmosférica no es
perfecta, el terreno no es horizontal, la cubierta es rugosa, o hay más de una cubierta
presente en un mismo píxel. Esto hace que el valor medido de la reflectividad no sea el
propio del material puro. Por eso se emplean índices, que buscan atenuar la influencia
de estos efectos.
El índice más sencillo consiste en dividir las bandas por una banda de referencia; por
ello se llama cociente de bandas (band ratio). De este modo, las variaciones debidas a
la pendiente del terreno o a la rugosidad de la superficie, que afectan del mismo modo
a todas las bandas, se cancelan en el numerador y en el denominador. Si un producto
posee N bandas convertidas en reflectividades espectrales, para identificar las cubiertas
o su estado, se comparan los valores de los N − 1 cocientes formados de este modo.
Por ejemplo, para identificar minerales se calculan cocientes entre las banda de absor-
ción de algunos grupos químicos característicos (AlOH, Fe, MgOH, H2 O) en el rango
2,10 − 2,45 μm, que corresponden a la ventana atmosférica de mayores longitudes de on-

231
C UESTIONES DE TELEDETECCIÓN

da en el SWIR (llamada SWIR-2 en terminología del sensor OLI de Landsat). Así, para
identificar minerales con AlOH, se ha empleado el cociente de bandas 7 y 6 del sensor
ASTER sobre escenas de suelos desnudos (en 2,20 μm y 2,25 μm, respectivamente) o de
sus bandas 4 (en 1,65 μm) y 6. Cuando dos cocientes de bandas sirven para caracterizar
el mismo compuesto, a veces se multiplican para potenciar la detección: así se define el
índice de hidróxidos de ASTER:
AST ER7 AST ER4
OHI = ×
AST ER6 AST ER6

El cociente de bandas sirve para caracterizar cubiertas distinguiéndolas unas de otras,


pero no para caracterizar las propiedades de una cubierta que cambia. Para ello, se es-
tudia la diferencia de reflectividad entre una banda que cambia cuando cambia el estado
de la cubierta respecto de otra que no lo hace, o que varía en sentido opuesto, aumen-
tando la magnitud de la diferencia. De nuevo, para evitar los efectos de la pendiente o
la rugosidad, se divide esta diferencia por el valor de una banda o, más frecuentemente,
por la suma de las dos bandas que se restan. De esta operación reciben estos índices su
nombre de diferencias normalizadas (normalized difference index). El más conocido de
estos índices es el NDVI, el índice de diferencia normalizada para vegetación, entre dos
bandas en el infrarrojo cercano (NIR) y en el rojo (R) que se define por
NIR − R
NDV I =
NIR + R
Cuando aumenta el vigor de la vegetación, el valor de reflectividad en el NIR aumenta
debido al contenido de agua en el interior de sus hojas; además, la reflectividad en el
rojo disminuye, porque tendrán más clorofila que absorba en esa banda.
Otros índices de vegetación se han definido para reducir el efecto de una corrección
atmosférica defectuosa o de la presencia de otra cubierta. Para compensar la corrección
atmosférica, se tiene en cuenta una tercera banda. Por ejemplo, para corregir el NDVI,
se tiene en cuenta la banda azul: en ella también absorbe la clorofila, por lo que una
fracción de la diferencia entre el azul (B) y el rojo (R) puede compensar el NDVI, que
ahora se llama ARVI (atmospherically resistant vegetation index, índice de vegetación
resistente a la atmósfera):
NIR − [R − κ(B − R)]
ARV I =
NIR + [R − κ(B − R)]
Del mismo modo, para evitar el efecto de la porción del suelo que se ve a través de la ve-
getación, se tiene en cuenta que la reflectividad de los suelos en el rojo está linealmente
relacionada con la del NIR. Esto quiere decir que, para un suelo desnudo se cumpliría

232
T RANSFORMACIONES DE LAS IMÁGENES

NIR = sR + a; los coeficientes s y a se deben determinar empíricamente. Así, se cons-


truye el índice TSAVI (transformed soil adjusted vegetation index, índice de vegetación
transformado por el ajuste del suelo)

NIR − (sR + a)
T SAV I = 1 2
s [a NIR + R − s a + 0,08 · (1 + s )]

En el numerador aparece la diferencia entre el valor de la banda NIR y el valor que


tendría la banda NIR si toda la luz en el rojo procediese del suelo. El denominador se
define de tal forma que −1 < T SAV I < +1 (y se corrijan otros efectos debidos a la visión
del suelo entre la vegetación).
Además del vigor vegetal del NDV I, la vegetación se puede caracterizar por su con-
tenido en agua. Para ello se define el índice NDW I (normalized difference water index,
índice de diferencias normalizadas de agua) que aprovecha la reflectividad de la vegeta-
ción en el NIR y la absorción por el agua en los límites entre las bandas NIR y el SWIR
(originalmente, en la ventana atmosférica correspondiente a longitudes de onda meno-
res, o SWIR-1, pero dependiendo del sensor, a veces se toma en la SWIR-2, de mayores
longitudes de onda). Este índice se define como:

NIR − SW IR
NDW I =
NIR + SW IR

y, cuanto mayor es, más contenido de humedad contiene la vegetación. Este índice es
muy utilizado para desarrollar mapas de peligro de incendios.
Todavía, a partir de los índices NDV I y NDW I, se ha construido un metaíndice uti-
lizando el procedimiento de diferencias normalizadas. Se trata del NDDI (normalized
difference drought index, índice normalizado de sequía), que se calcula como:

NDV I − NDW I
NDDI =
NDV I + NDW I

El índice NDDI destaca el diferente comportamiento entre el NDV I, que está más re-
lacionado con el vigor de la vegetación, es decir, con la estructura joven de la hoja y
su contenido en clorofila, y el NDW I, más relacionado con el contenido de agua en esa
hoja. Un valor alto del NDDI corresponde a una mayor incidencia de la sequía que no
puede captar por separado cada uno de los índices: en la época de estiaje, el NDV I puede
ser bajo, y simultáneamente disminuirá el NDW I; es una tendencia diferente entre estos
dos índices (mucho menor contenido en agua del que corresponde al vigor vegetal) lo
que indicará situación de sequía.

233
C UESTIONES DE TELEDETECCIÓN

6. Una transformación especial de una o varias bandas de una imagen es la


creación de una máscara lógica: en lugar de llevar a cabo un cálculo aritmético,
se lleva a cabo un cálculo con predicados lógicos (comparaciones: >, <, =;
negaciones, NO; conjunciones: Y; disyunciones, O; etc.). ¿Cuál de estos
cálculos se puede llevar a cabo mediante este proceso a partir de las bandas de
una imagen Landsat?

Respuesta: (a) La diferencia entre tierra y agua se puede ver claramente en al ban-
da NIR de una imagen Landsat, porque en ella el agua aparece “negra”, ya que
absorbe la mayor parte de la luz en este rango del espectro. Por lo tanto, com-
parando el ND de la imagen con cierto valor umbral, se pueden determinar “los
píxeles” de tierra (en los que el ND es superior a ese umbral) y los píxeles “de
agua” (en los que el ND es inferior a ese umbral).

Cuando se trabaja con imágenes de satélite siempre es aconsejable reducir la imagen


a la zona de interés por dos razones: disminuir el tamaño de la imagen y, por tanto, el
tiempo de procesado de la misma y disminuir el número de valores o niveles digitales
(ND) para cada banda dentro de la imagen y, de este modo, maximizar las diferencias
entre cubiertas estirando el histograma.
Además del “recorte” del área de estudio, otro proceso habitualmente utilizado es
la aplicación de máscaras que enmascaren zonas que no son de interés. Este tipo de
máscaras se pueden utilizar para seleccionar cualquier elemento de la escena, u omitir-
lo, porque tenga un comportamiento claramente diferente del resto de las cubiertas; en
alguna de las bandas de la imagen o teniendo en cuenta la combinación de varias de
ellas.
Un ejemplo de la utilidad de las máscaras es cuando nuestro objetivo de trabajo
es el área cubierta por agua (sea un lago, el mar, un embalse, etc.). La capa de agua
atenúa rápidamente la señal electromagnética, especialmente en el infrarrojo (IR), por
lo que los ND de los píxeles cubiertos por una película de agua son “muy parecidos”
entre ellos (en las imágenes se ven siempre “muy oscuros”), si los comparamos con la
variabilidad observada en la zona terrestre. Si nuestro trabajo se centra en el estudio
de un embalse, por ejemplo, el enmascaramiento del resto de la escena (la tierra que
le rodea) nos permitirá mantener únicamente los ND que en cada banda presentan los
píxeles de agua, estirarlos y observar de un modo más evidente (para reconocimiento
visual o mediante análisis estadísticos) la diferencia entre ellos.
Otros ejemplos de la utilidad de estas transformaciones son las máscaras de nubes
que se realizan en las imágenes para eliminar aquellas áreas afectadas por nubosidad,

234
T RANSFORMACIONES DE LAS IMÁGENES

Figura 6.3. Efectos sunglint que se pueden corregir, en una imagen VIIRS (satélite Suomi NPP de la
NASA) sobre el océano Atlántico (izquierda), y que no, en una imagen MODIS sobre el golfo de México
(derecha, reflexión especular sobre una gran mancha de petróleo). Fuente: NASA.

o las máscaras que intentan eliminar las zonas afectadas por sunglint (esto es, la refle-
xión especular del sol en una lámina de agua). Ambos efectos impiden hacer un estudio
de la superficie terrestre (cubierta de nubes, en el primer caso, o “deslumbrada”, en el
segundo). Las máscaras de nubes (flags, en la terminología de productos como los CHRI-
S/PROBA) aprovechan la elevada dispersión de las nubes en la longitud de banda azul y
su baja temperatura (observable si se dispone de bandas en el IR térmico), para calcular
expresiones que permiten identificar con detalle las nubes y marcarlas para omitir esas
áreas de los cálculos sobre la escena. En el caso del sunglint, en las imágenes de satélite
es casi siempre recuperable: no toda la superficie acuática en un píxel refleja directamen-
te la luz del sol hacia el sensor; sólo una fracción, debido al oleaje. Cuando esta fracción
es muy grande, el sunglint no se puede corregir y, entonces, esos píxeles se enmascaran
(véase la figura 6.3).

7. Los valores de los píxeles en el entorno de un píxel dado pueden proporcionar


información que ayude a la interpretación de éste. El caso más claro es el de la
presencia de ruido en una imagen: los valores alrededor de un píxel pueden
indicar si éste es fruto de ese ruido o no. ¿Qué clase de transformación local
sustituiría este píxel por una estimación de su valor sin ruido?

Respuesta: (d) Todos estos filtros (de media, de mediana, de suavizado gaussiano, . . . )
llevan a cabo estimaciones estadísticas sobre el entorno del píxel, es decir, opera-
ciones que toman los valores de los píxeles del entorno y, mediante sumas ponde-
radas (media y gaussiano) u ordenación de esos valores (mediana) calculan una
medida de centralidad.

235
C UESTIONES DE TELEDETECCIÓN

Las operaciones locales utilizan la información del vecindario de un píxel para completar
la información de éste. En este caso, hablamos de una información estadística. Los filtros
de media y gaussiano, calculan en un píxel el resultado de hacer una suma ponderada de
los valores en un vecindario del píxel y del propio píxel. Estos filtros se suelen aplicar
banda a banda y se definen por el tamaño del vecindario y por la distribución de los
coeficientes de ponderación: en el de media, son todos ellos iguales, de forma que sumen
la unidad entre todos; en el gaussiano, tienen mayor valor los del centro del vecindario,
que corresponde al valor en el píxel que se está calculando.

0.019 0.019 0.038 0.019 0.019


0.11 0.11 0.11 0.019 0.038 0.078 0.038 0.019
Media 3x3: 0.11 0.12 0.11 Gaussiano 5x5: 0.038 0.078 0.156 0.078 0.038
0.11 0.11 0.11 0.019 0.038 0.078 0.038 0.019
0.019 0.019 0.038 0.019 0.019

El modo de hacer el cálculo es el siguiente: sobre un píxel de la imagen se coloca el


centro de la matriz del filtro (la celda en negrilla en los ejemplos anteriores), de modo que
cada celda de la matriz se corresponda con un píxel en el entorno del primero; los valores
de todos los píxeles se multiplican por los valores de la matriz sobre ellos y luego se
suman estos productos. El valor resultante se coloca en el píxel de la imagen resultante.
Así se calculan, a partir de cada píxel de la imagen original el píxel correspondiente en
la imagen filtrada (resultante).
Estos filtros de media y gaussiano, tienen sobre la imagen el efecto de difuminar los
bordes. Se llaman filtros pasa-bajos, refiriéndose a que las regiones con gradientes bajos
en la imagen apenas cambian al aplicar estos filtros, mientras aquéllas con gradientes
altos, correspondientes a bordes muy marcados, se difuminan, al sustituir los valores
destacados de los píxeles del borde por las medias de sus respectivos vecinos.
Por su parte, el filtro de mediana es otro filtro con significado estadístico: escoge
para el píxel en el centro del vecindario el valor que tiene tantos valores por encima
como por debajo en ese vecindario. Es decir, para cada píxel, el filtro consiste en coger
todos los valores de su entorno (él incluido), ordenarlos y escoger el que queda en medio
de la lista ordenada. Este filtro es más complicado que los anteriores, ya que involucra
muchas más operaciones (no aritméticas sino de comparación y lógicas); su aplicación
requiere mucho más tiempo de cálculo en un ordenador.
El filtro de mediana tiene una propiedad muy interesante para algunas aplicaciones
de teledetección: mantiene los valores originales de las bandas, en lugar de calcular nue-
vos como sumas ponderadas de los anteriores. Es decir que, si los valores de las bandas

236
T RANSFORMACIONES DE LAS IMÁGENES

eran inicialmente enteros (los ND originales), tras aplicar el filtro de mediana lo segui-
rán siendo; un filtro de media, por ejemplo, dará valores fraccionarios. Otra propiedad
interesante del filtro de mediana es que, en caso de que la imagen contenga un moteado
o un bandeado por ruido en el sensor, el cálculo de la mediana simplemente descartará
estos valores que se alejan mucho de la media, sin que “tiren” del resto de valores en los
píxeles de su entorno.

8. Para poder realizar operaciones entre las bandas de dos imágenes de sensores
diferentes, o que tienen tamaños de píxeles diferentes, es necesario. . .

Respuesta: (a) Lo que hace falta es, en píxeles correspondientes a los mismos lugares
geográficos y con la misma extensión sobre el terreno, tener valores de las dos
imágenes. Para ello, se interpolan los valores de una de las imágenes, conservan-
do los de la otra.

El “desplazamiento” de los píxeles de una escena es un proceso habitual cuando se traba-


ja con imágenes de satélite. No sólo se utiliza cuando, como en el ejemplo de la pregunta,
queremos colocalizar varias escenas para realizar operaciones entre ellas (píxel a píxel).
El proceso de georreferenciación de una escena, por ejemplo, conlleva también una in-
terpolación de los valores de los píxeles originales a unos nuevos correspondientes a la
imagen georreferenciada.
Los servidores de imágenes cuentan con diferentes niveles de procesamiento de la
imagen. Cuando utilizamos una imagen de nivel L1 quiere decir que ha sido georreferen-
ciada utilizando puntos de control. En este proceso partimos de una imagen georreferen-
ciada (de un modo aproximado) en la que identificamos una serie de elementos (lugares
reconocibles en la imagen y de los que sabemos las coordenadas exactas, como un cruce
de carreteras, por ejemplo); una vez identificados los suficientes elementos (o puntos de
control) la imagen se mueve, estira y comprime para intentar que cada elemento coincida
con las coordenadas reales del mismo. Del mismo modo, cuando se cambia la proyec-
ción de una imagen, digamos, desde una proyección de Lambert azimutal (la natural,
por ejemplo, para un producto de radar meteorológico) a una proyección de Mercator
(UTM), las coordenadas de los píxeles en una y en otra cambiarán.
En las nuevas coordenadas, difícilmente los píxeles de la imagen original coincidirán
con píxeles de la nueva imagen georreferenciada. Los píxeles anteriores estarán girados,
estirados, deformados, etc. respecto a los nuevos. Dado que por definición todos los
píxeles de una imagen son iguales y tienen la misma orientación, los valores de la imagen

237
C UESTIONES DE TELEDETECCIÓN

georreferenciada deben ser calculados para que en cada uno de sus píxeles haya un valor
adecuado correspondiente a su localización. Este cálculo del valor de un píxel de la
nueva imagen georreferenciada o reproyectada a partir de los valores de los píxeles de la
original, se llama interpolación.
Existen diferentes métodos matemáticos para hallar el valor de cada píxel en la nue-
va imagen, conocidos los valores de los píxeles de la original. Muchos de ellos se basan
en expresiones polinómicas cuyo orden determina la flexibilidad del ajuste y de la trans-
formación. Normalmente se utilizan funciones de tipo lineal (polinomio de grado 1),
cuadrático (polinomio de grado 2) o cúbico (polinomio de grado 3) que ajustan cómo
varía el valor de los píxeles originales en cada una de las direcciones de la imagen: por
ello se llaman interpolaciones bilineal, bicuadrática y bicúbica; cada una de ellas produ-
ce una imagen más suave que la anterior, porque utiliza más valores de píxeles alrededor
de uno dado para calcular su valor interpolado: de 4 para la bilineal, a 16 para la bicúbica.
Pero también es posible otro tipo de “interpolación” más sencilla: coger el valor del
vecino más próximo. Este método adjudica a cada píxel de la imagen transformada el
valor del píxel geográficamente más cercano en la imagen original. La ventaja de este
método es que no “inventa” nuevos valores en los píxeles de la nueva imagen, sino que
utiliza los mismos valores que existían en la original. Por eso es el escogido para trabajos
que requieran cálculos con los valores originales de las bandas del sensor.

9. Para detectar las calles en una imagen de una ciudad, se emplearía. . .

Respuesta: (c) Los filtros pasa-bajos y pasa-altos son filtros lineales, es decir, basados
en calcular sumas (o diferencias) ponderadas de los valores en los píxeles en un
entorno. Para detectar cambios en ese entorno, se utilizan los filtros pasa-altos,
que calculan diferencias entre píxeles en diferentes direcciones; para detectar lí-
neas en una imagen, como los bordes de las calles, es necesario combinar los
resultados de buscar esos bordes en, al menos, dos direcciones: horizontal y ver-
tical.

Los filtros (lineales) que se emplean en teledetección para destacar características en las
imágenes son de dos tipos: pasa-bajos y pasa-altos. Los primeros difuminan los detalles
en el entorno de cada píxel, y dejan sólo las variaciones que se manifiestan fuera de
ese entorno (que depende del tamaño del filtro). Los segundos destacan, precisamente,
los detalles en el entorno de cada píxel; por eso son adecuados para detectar bordes en
diferentes direcciones. Estos filtros pasa-altos se llaman también filtros de realce, o filtros

238
T RANSFORMACIONES DE LAS IMÁGENES

Gx : Gy :

|Gx |: |Gy |: G:

Figura 6.4. Ejemplo de bordes horizontales (Gy ), verticales (Gx ) y globales (G) en una escena de un núcleo
urbano (imagen SPOT-6 de un polígono industrial de Martorell, Barcelona).

de derivada, porque aproximan la “derivada” de la intensidad en cada banda respecto a


la distancia a lo largo de una dirección.
Los filtros de derivadas suelen utilizarse para calcular los bordes horizontales y ver-
ticales de las imágenes. Calculan en un píxel el resultado de hacer una diferencia de los
valores en un vecindario del píxel: los que se hallan sobre el píxel menos los que se ha-
llan bajo él, para detectar bordes horizontales; los que se hallan a la izquierda del píxel
menos los que se hallan a su derecha, para detectar bordes verticales. De una manera más
general, se pueden describir como matrices con pesos (positivos y negativos) por los que
se multiplican los píxeles del entorno antes de sumarlos para obtener el resultado.

1 2 1 -1 0 1
Filtros de Sobel 3 × 3: horizontal 0 0 0 y vertical -2 0 2
-1 -2 -1 -1 0 1

El resultado de estas operaciones son imágenes con valores positivos (cuando el


nivel de las bandas crece hacia arriba, en el detector de bordes horizontales, o hacia la
derecha, en el de bordes verticales) y negativos (en caso contrario). Para visualizar como
brillantes tanto los bordes verticales (Gx ) como los horizontales (Gy ), se debe tomar el
valor absoluto del resultado que proporciona el correspondiente filtro. Por otro lado, para
visualizar en una misma imagen todos los bordes, independientemente de su dirección,
se suelen combinar los resultados del filtro de bordes horizontales y verticales usando la
“fórmula de Pitágoras”

G = G2x + G2y

239
C UESTIONES DE TELEDETECCIÓN

Figura 6.5. Imagen Landsat 5 (banda TM2) del Teide: original (izquierda) y con el relieve exagerado
(derecha).

10. Para exagerar el relieve en una imagen pancromática, se aumentan los


contrastes de sombras que se ven en la imagen en las laderas de las montañas.
Para eso se usa. . .

Respuesta: (a) Exagerar el relieve consiste en amplificar los gradientes de sombras


en las zonas que se encuentran a lo largo de las laderas de las montañas. Para
ello se pueden calcular esos gradientes, usando un filtro pasa-altos, y sumarle el
resultado a la imagen original. Para que el efecto sea realista, se debe calcular el
gradiente en la dirección del azimut del sol en la imagen original.

Percibimos el relieve en una imagen por los cambios graduales de brillo en sus pí-
xeles. Gradientes de brillo siempre en la misma dirección, nos hacen percibir una ilumi-
nación de la escena desde una misma dirección. Que éstos gradientes sean más o menos
intensos, nos sugieren que la pendiente en ese punto es más grande o más pequeña. Por
eso, cuando se tiene un modelo digital del terreno, una manera de representarlo es toman-
do una dirección de iluminación (de sur a norte, por ejemplo) y calcular las derivadas de
las alturas según esa dirección, esto es, pasar un filtro pasa-altos. Allí donde la pendien-
te sea creciente hacia el norte (la dirección opuesta a la del “sol”), los valores de estas
derivadas serán positivos y grandes, dando idea de una iluminación directa del sol, que
los hace más brillantes. Allí donde sea decreciente, los valores serán negativos, lo que
al representarlos los mostrará oscuros, como si quedasen ensombrecidos. A las zonas
llanas se les asignará una pendiente cero, que se verá como un tono de gris intermedio.
Dado que esto es lo que se hace para simular la iluminación solar, para exagerar las
pendientes en una escena natural se pueden aplicar también filtros pasa-altos, sumándole
a la imagen sus gradiantes (figura 6.5).

240
T RANSFORMACIONES DE LAS IMÁGENES

6.4. CONCEPTOS IMPORTANTES

aritmética de bandas Proceso que construye una nueva imagen (una “nueva banda”) en
la que el nivel digital de cada píxel se calcula como una operación aritmética entre
los niveles de los píxeles de iguales coordenadas en otras imágenes (o “bandas”
de imágenes): la operación requiere que tanto las imágenes de partida como la
imagen resultante tengan el mismo número de filas y de columnas.

cociente de bandas (band ratio) Operación aritmética que genera una nueva “banda”
calculando el cociente, píxel a píxel, entre otras dos bandas (de una imagen de
un sensor). El resultado es un índice que caracteriza la “forma” del espectro entre
esas bandas, y no depende de la señal total que llega en ellas.

filtro Operación que, a partir de una imagen, genera una nueva en la que cada píxel
tiene un valor calculado a partir de los que la imagen original tenía en los píxeles
de su alrededor. Cuando el cálculo se reduce a una suma ponderada de los valores
de los píxeles del vecindario (con coeficientes positivos o negativos), el filtro se
llama lineal.

filtro de media Filtro lineal que asigna como valor de cada píxel en la imagen filtrada
el resultado de promediar los valores de los píxeles vecinos en la imagen original.
El tamaño del vecindario que se toma para calcular este promedio se llama tamaño
o radio del filtro.

filtro de mediana Filtro no lineal que asigna como valor de cada píxel en la imagen
filtrada la mediana de los valores de los píxeles en su vecindario en la imagen ori-
ginal. Este filtro estadístico es útil para eliminar el ruido puntual (como el speckle),
porque sustituye los valores muy alejados por valores de sus vecinos.

filtro de derivada/gradiente Filtro lineal que asigna al píxel de la imagen filtrada la


diferencia ponderada entre los píxeles vecinos a lados opuestos del píxel en la
imagen original; la orientación de la línea que une estos dos se llama orientación
del filtro. Las diferencias pueden ser positivas o negativas, y su valor absoluto es
máximo cuando el cambio de brillo se produce en la dirección de la orientación
del filtro.

filtro detector de bordes Filtro no lineal que detecta los cambios de brillos alrededor
de un píxel dado sin tener en cuenta la dirección en que esto se produce. Una
forma de construir un detector de bordes es sumando valores absolutos de filtros
de gradientes.

241
C UESTIONES DE TELEDETECCIÓN

filtro gaussiano Filtro lineal que asigna al píxel de la imagen filtrada la suma ponderada
los valores de sus vecinos con pesos gaussianos (positivos y mayores cuanto más
cerca del centro del vecindario).
índice espectrométrico Expresión matemática (sumas, diferencias, cocientes, etc.) en-
tre los valores (habitualmente se trabaja con reflectividades) de dos o más bandas
del espectro electromagnético que proporciona una característica distintiva de éste
relacionada, por ejemplo, con la presencia de una banda de absorción debida a un
pigmento.
interpolación Operación que permite calcular los valores de una variable conocida en
cierto número de puntos en los puntos intermedios a ellos. En el procesamiento de
imágenes la interpolación se refiere a los métodos para hacer este cálculo cuando
se desplaza, rota o deforma geométricamente la malla en la que se encuentran los
píxeles y los valores en éstos deben calcularse en una nueva malla rectangular de
la imagen interpolada.
interpolación lineal Método de interpolación que estima el valor en un punto supo-
niendo que se halla en una recta o un plano que pasa por los puntos conocidos más
próximos. Este método es bueno siempre que la densidad de puntos conocidos
sea grande; cuando no es así, son necesarios otros métodos que requieren asumir
hipótesis más complejas.
interpolación por vecino más próximo Método de interpolación que estima el valor
en un punto como igual al valor en el punto conocido más próximo. Este método
tiene la ventaja de no introducir valores nuevos, ya que toma uno de los ya exis-
tentes. En teledetección este método es el preferido para no mezclar los valores
de las bandas en píxeles próximos, de manera que en la imagen interpolada los
valores en ellas sigan siendo los medidos realmente por el sensor.
máscara binaria Imagen cuyos píxeles toman valores binarios (0 o 1, falso o verdade-
ro) calculados a partir de condiciones lógicas establecidas sobre los valores de los
píxeles de otras imágenes. Se emplean para seleccionar regiones en función de sus
valores, habitualmente, son el resultado de un proceso de clasificación.
NDVI (normalized diference vegetation index) Índice espectrométrico que caracteriza
el salto del infrarrojo cercano en el espectro de la vegetación. Se calcula como la
diferencia entre la reflectividad máxima en en NIR y la reflectividad mínima en el
rojo, dividida por la suma de ambas.
NDWI (normalized difference water index) Índice espectrométrico que caracteriza la
absorción debida al agua contenida en las hojas de la vegetación. Se calcula como

242
T RANSFORMACIONES DE LAS IMÁGENES

la diferencia entre la reflectividad máxima en el NIR y la absorción en el SWIR,


dividida por la suma de ambas.

NDDI (normalized difference drought index) Índice de evaluación del grado sequía que
relaciona la diferencia relativa entre el vigor vegetal (caracterizado por el NDV I)
y el contenido de agua (caracterizado por el NDW I).

speckle Ruido en forma de moteado característico de las imágenes radar. El speckle se


forma por la interferencia de las ondas electromagnéticas retrodispersadas desde
puntos cercanos al terreno a su llegada al sensor radar.

sunglint Reflejo especular de la luz del sol en la superficie del agua. Su contribución
a la reflectividad del agua observada depende de la posición relativa del sol y del
sensor (vistos desde la superficie del agua) y del oleaje que, a su vez, depende del
viento.

transformación global Transformación de los valores en una imagen que aplica la mis-
ma operación matemática a todos píxeles.

transformación local Transformación de los valores en una imagen que aplica una ope-
ración matemática a cada píxel dependiente de su entorno.

transformación gamma Transformación aritmética global que consiste en elevar el va-


lor de los píxeles de una imagen a una potencia (el exponente gamma). Usualmente
se normaliza el resultado multiplicándolo por un coeficiente constante.

6.5. BIBLIOGRAFÍA

B. Aldalur, M. Santamaría (2002). “Realce de imágenes: filtrado espacial”. Revista


de Teledetección, 17: 31-42.

A. Bannari, D. Morin, F. Bonn (1995). “A Review of Vegetation Indices”. Remote


Sensing Reviews, 13: 95-120.

B.C. Gao (1996). “NDWI—A normalized difference water index for remote sen-
sing of vegetation liquid water from space”. Remote Sensing of Environment,
58(3): 257-266.

J. Gao (2009). “Bathymetric mapping by means of remote sensing: methods, ac-


curacy and limitations”. Progress in Physical Geography, 33(1): 103-116.

243
C UESTIONES DE TELEDETECCIÓN

A.A. Gitelson, Y.J. Kaufman, R. Stark, D. Rundquist (2002). “Novel algorithms


for remote estimation of vegetation fraction”. Remote Sensing of Environment, 80:
76-87.

R. Gonzalez, R. Woods (1996). Tratamiento Digital de Imágenes. Ed. Addison-


Weasley, 1996

Y. Gu, J.F. Brown, J.P. Verdin, B. Wardlow (2007). “A five-year analysis of MO-
DIS NDVI and NDWI for grassland drought assessment over the central Great
Plains of the United States”. Geophysics Research Letters, 34(6): L06407.

J.R. Jensen (2005). “Image Enhancement”. En: Introductory Digital Image Pro-
cessing: A Remote Sensing Perspective, Capítulo 7. Prentice Hall, 2005.

A. Kalinowski, S. Oliver (2004). “ASTER Mineral Index Processing Manual”.


Remote Sensing Applications Geoscience Australia, 2004.

S. Kay, J.D. Hedley, S. Lavender (2009). “Sun Glint Correction of High and Low
Spatial Resolution Images of Aquatic Scenes: a Review of Methods for Visible
and Near-Infrared Wavelengths”. Remote Sensing, 1:697-730.

Webgrafía (accesible el 1/05/2015)

Image Gallery - Multi-look SAR Image — ESA


URL: http://earth.esa.int/handbooks/asar/CNTR1-4.htm
Recopilación de imágenes obtenidas a partir de datos des sensor ASAR a bordo del
ENVISAT que muestran los diferentes productos que se pueden obtener a partir
del procesamiento digital de imágnes radar.

Introduction to MSG channels


URL: http://oiswww.eumetsat.org/WEBOPS/msg_interpretation/msg_channels.php
Documentos de EUMETSAT que describen los diferentes canales (bandas) de los
Meteosat de Segunda Generación y sus aplicaciones: detección de hielos, fuegos y
humo, nubes y sus tipos, etc. También los diferentes tipos de combinaciones RGB
que destacan estas características.

Giovanni visualizations generated by the user community — GES DISC


URL: http://disc.sci.gsfc.nasa.gov/giovanni/giovanni_user_images

244
T RANSFORMACIONES DE LAS IMÁGENES

Colección de imágenes producidas por la comunidad de usuarios del sistema GIO-


VANNI de distribución de datos de teledetección de la NASA.

A World Of Images — SEOS Project


URL: http://lms.seos-project.eu/learning_modules/world-of-images/world-of-ima
ges-c00-p00.html
Tutorial del proyecto SEOS (Science Education through Earth Observation for
High Schools) que recopila muchas imágenes de teledetección indicando los mé-
todos utilizados para generarlas a partir de los datos originales: combinaciones de
bandas RGB, cálculo de índices, etc.

245
Tema 7

Estadística de las imágenes

GUION-ESQUEMA

Estadística de una banda

Estadística de dos bandas

Estadística de múltiples bandas

Clasificación automática
C UESTIONES DE TELEDETECCIÓN

1 banda
n bandas

Histograma

30000
Y
25000

X
20000

15000

10000
X
5000 Diagrama PC1 PC2

30 40 50 60 de dispersión PCA
Modos Clases
Terreno Clase1 Clase2 Clase3 Clase4

Agua 4 10 0 3

Vegetación 17 237 4 18

Suelo desnudo 1 9 2 4

Suelo urbano 4 4 137 0

Cluster VALIDACIÓN Verdad terreno


(groundtruthing)

Clasificación
binaria
Clasificación
supervisada
CLASES
MAPAS TEMÁTICOS

Observaciones
sobre el terreno

Clasificación
no supervisada

248
E STADÍSTICA DE LAS IMÁGENES

7.1. INTRODUCCIÓN

Los píxeles de una imagen de teledetección corresponden a diferentes tipos de cu-


bierta. Sus valores son muestras de medidas del estado de dichas cubiertas. La descrip-
ción estadística de esos valores de los píxeles de la imagen permite interpretar cuáles
son los tipos de cubierta presentes en ella a partir de las características correspondientes
a cada una de ellas. Cuando esto se hace con una única variable, el nivel digital de una
banda, cada máximo del histograma que describe la estadística de esa banda se puede
corresponder con un tipo de cubierta. Cuando se generaliza esto a dos o más bandas, es
decir, se hace uso de estadística multivariante, se puede dividir el espacio de variables en
regiones con datos agrupados correspondientes a cubiertas distintas. De este modo, es
posible crear mapas temáticos, agrupando los píxeles en clases, en función del grupo al
que se hallan más cerca. La clasificación se dirá que es supervisada cuando se conocen,
a priori, a qué clase pertenecen algunos de los píxeles de la imagen; entonces los píxeles
más parecidos a los clasificados como una de esas clases, serán de esa clase también.
Una clasificación no supervisada tratará de encontrar los píxeles más parecidos entre sí,
agrupándolos en cierto número de clases; a qué tipo de cubierta pertenece cada clase
hallada será algo que habrá que interpretar a posteriori.

7.2. CUESTIONES

1. El histograma de la banda azul de un sensor se halla muy agrupado a la izquier-


da, es decir, comprende mayoritariamente valores de ND bajos. Para mejorar la
visualización de esa banda, se ecualiza su histograma: ¿qué se consigue con esto?

a) desplazar el histograma hacia la derecha, es decir, transformar los ND a va-


lores mayores
b) estirar el histograma para que abarque valores sobre todo el rango disponible
de ND
c) transformarlo de modo que entre dos ND dados exista un número de píxeles
proporcional a su diferencia
d) asignar una paleta de colores que facilite la visualización destacando los ND
más pequeños

249
C UESTIONES DE TELEDETECCIÓN

2. El histograma de una banda NIR de un sensor, en una escena de una costa ur-
banizada, muestra tres “montículos” (acumulaciones de píxeles entre dos valores
de ND). Por otro lado, la banda verde muestra dos “montículos”. ¿Cuántos tipos
diferentes de cubiertas mayoritarias sugiere esto que se hay en la escena?

a) 2
b) 3
c) 4
d) 6

3. Se sabe que dos bandas de radiancia de un sensor hiperespectral están muy corre-
lacionadas porque. . .

a) sus histogramas son iguales


b) el histograma de una tiene la forma del de la otra pero localizado sobre un
intervalo distinto de valores de radiancia
c) el diagrama de dispersión de una respecto a la otra se parece a una recta
d) el diagrama de dispersión de una respecto a la otra no se observa alargado en
ninguna dirección particular

4. En una escena, las bandas NIR y SWIR de radiancia se ven muy correlacionadas.
¿Qué se podría hacer para visualizar sólo las diferencias entre ambas?

a) restarlas
b) restarle al logaritmo de una el logaritmo de la otra
c) restarle a una su regresión lineal respecto a la otra
d) restarle al histograma de una el histograma de la otra

5. La información espacial de las bandas de un sensor multiespectral se suele repre-


sentar mediante sus componentes principales. ¿Cuántas componentes principales
se pueden obtener de un sensor de 4 bandas multiespectrales, como el SPOT?

a) 2
b) 3
c) 4
d) 5

250
E STADÍSTICA DE LAS IMÁGENES

6. Para generar un mapa temático de usos del suelo (como el CORINE, COoRdina-
tion of INformation on the Environment) se puede llevar a cabo una clasificación
supervisada de una imagen multiespectral (como Landsat o SPOT). Esta clasifica-
ción sigue estos pasos:

a) identificar suelos de diferentes tipos observados, calcular características de


los píxeles en ellos, asignar al resto de los píxeles de la imagen el tipo con
características más próximas
b) calcular características de los píxeles en la imagen, formar grupos por seme-
janza de esas características, asignar a cada grupo espacialmente coherente
el tipo observado
c) identificar regiones de diferentes tipos de suelos observados, añadir los píxe-
les vecinos mientras tengan características parecidas hasta clasificar toda la
escena
d) representar determinadas características de los píxeles en la imagen, digita-
lizar manualmente polígonos que agrupen píxeles con características pare-
cidas, etiquetar esos polígonos en función de la interpretación visual de las
imágenes

7. En la clasificación de imágenes remotas multi- e hiperespectrales se definen dis-


tancias entre las bandas de los píxeles. ¿Cuál de estos no es un nombre de distancia
habitual entre bandas de dos píxeles distintos?

a) Canberra
b) Hamming
c) Mahalanobis
d) Manhattan

8. Aun cuando no tengamos conocimiento previo de un área de estudio, y no conoz-


camos a priori localizaciones con tipos de cubiertas concretas, es posible llevar a
cabo una clasificación de cubiertas a partir de una imagen de satélite. Para ello se
emplean procedimientos estadísticos que agrupan los píxeles de una imagen por
proximidad entre sí. . .

a) calculando los valores medios de cada banda en toda el área de estudio


b) definiendo regiones en el área de estudio, y calculando los valores medios de
sus bandas

251
C UESTIONES DE TELEDETECCIÓN

c) definiendo volúmenes en un espacio N-dimensional formado con las N ban-


das, y calculando los valores medios en esos volúmenes
d) calculando representantes de clase (endmembers) por cualquiera de los pro-
cedimientos anteriores

9. Para comprobar la relación que existe entre la clasificación automática (supervi-


sada o no) de una imagen y la realidad, se lleva a cabo un proceso de validación.
Para ello, usualmente, se construye una matriz de confusión. ¿Qué propiedades
tiene esta matriz de confusión?

a) es una matriz simétrica


b) bastan sus elementos diagonales para dar la precisión de la clasificación
c) sólo permite calcular el error de comisión (tipo I) y no el de omisión (tipo II)
d) no informa sobre los aciertos casuales en la clasificación

10. El análisis de mezclas espectrales (o spectral unmixing), se emplea para calcular


la “abundancia” de cada una de las cubiertas presentes en una escena teniendo
en cuenta que éstas pueden estar mezcladas en un píxel. Este análisis se basa en
calcular:

a) el número de píxeles con espectros de cada tipo de cubierta presentes en la


escena
b) la distancia de las bandas del píxel a los valores de espectros prototipo de
cada una de las cubiertas
c) la combinación lineal de espectros de una biblioteca que mejor reproduce las
bandas observadas en cada píxel
d) los espectros medios de los píxeles en varias regiones preestablecidas de la
escena y calcular las distancias de los demás píxeles a ellos

252
E STADÍSTICA DE LAS IMÁGENES

7.3. RESPUESTAS A LAS CUESTIONES

1. El histograma de la banda azul de un sensor se halla muy agrupado a la


izquierda, es decir, comprende mayoritariamente valores de ND bajos. Para
mejorar la visualización de esa banda, se ecualiza su histograma: ¿qué se
consigue con esto?

Respuesta: (c) Ecualizar el histograma de una banda consiste en modificar la distribu-


ción de los valores de los niveles digitales de esta banda para que su histograma
sea lo más plano posible, es decir, que el número de píxeles entre dos valores de
ND sea proporcional a la diferencia entre éstos.

El histograma de una banda es su descripción estadística más completa atendiendo sólo


a los valores de sus píxeles. Consiste en contar cuántos píxeles toman sus valores en cada
intervalo en que se divide la banda. La representación gráfica es un diagrama de bloques
en el que la base de éstos representa la extensión de los intervalos, y su área, el número
de píxeles con valores comprendidos en dicho intervalo. Cuando los valores son enteros,
como en los ND originales del sensor, simplemente se cuentan cuántos píxeles tienen un
ND dado y se representa una barra (o una única línea) en ese ND.
Cuando se aplica una transformación matemática a los valores de una banda, se mo-
difica su histograma. Por ejemplo, cuando se le suma a una banda un valor constante, su
histograma se desplaza (hacia la derecha), sin modificar su forma. Cuando se multiplica
la banda por un factor constante mayor que la unidad, su histograma se ensancha. La po-
sición del histograma dentro del rango dinámico de una imagen (el conjunto de valores
posibles de sus ND) informa sobre lo brillante (más píxeles acumulados a la derecha del
histograma) y lo contrastada (más repartidos los píxeles sobre el rango completo) de la
imagen. De alguna manera, indica lo bien aprovechado que está el rango disponible para
guardar la información de la imagen. Cuando a la banda se le suma o resta una cantidad
(se le resta su valor mínimo) y se multiplica por otra cantidad (el cociente entre el rango
dinámico disponible de la banda y la longitud del intervalo de valores, más pequeño, en
que se encuentran todos sus ND), de modo que su histograma abarque todo el rango de
valores disponible, se dice que se ha estirado su histograma.
Ecualizar el histograma de una banda consiste en buscar una transformación de los
ND de la banda que optimice el contraste de la misma para todos los ND, es decir,
que estire localmente el histograma tanto como sea posible para cada grupo de píxe-
les de intensidad parecida. Optimizar el contraste de toda la imagen se logra haciendo
que intervalos iguales de ND tengan los mismos píxeles. Tomando todos los píxeles,

253
C UESTIONES DE TELEDETECCIÓN

ordenándolos por su ND y reasignándoles ND entre el mínimo y el máximo según esa


ordenación, se logra esto. Para ver cómo funciona, imaginemos una imagen con 8 pí-
xeles con valores 5, 10, 15, 40, 90, 95, 110, 240 (ya ordenados en orden ascendente);
esta imagen tiene poco contrastados y muy oscuros los tres primeros ND, tampoco se
diferencian mucho entre sí los valores entre 90 y 110, y el último es muy brillante.
El contraste será óptimo si, simplemente, hacemos la transformación 5 → 1, 10 → 37,
15 → 73, 40 → 109, 90 → 145, 95 → 181, 110 → 217, 240 → 253; de este modo, hemos
repartido óptimamente los niveles digitales en el rango disponible (que suponemos que
es de 0 a 255).

2. El histograma de una banda NIR de un sensor, en una escena de una costa


urbanizada, muestra tres “montículos” (acumulaciones de píxeles entre dos
valores de ND). Por otro lado, la banda verde muestra dos “montículos”.
¿Cuántos tipos diferentes de cubiertas mayoritarias sugiere esto que se hay en
la escena?

Respuesta: (b) Por las características de estas bandas, y cómo suele ser la reflectividad
de las cubiertas más comunes en ellas, posiblemente haya 3: una de ellas corres-
pondiente a los ND más bajos en el NIR (agua) y otras dos correspondientes a dos
tipos de cubierta (vegetación y suelo urbano o desnudo, por ejemplo) en la zona
de tierra.

El histograma informa sobre la “población” o las “poblaciones” de píxeles en (una


banda de) una imagen. Como sólo atiende al valor de la banda, se dice que es una des-
cripción estadística univariante. La variabilidad en la naturaleza hace que los valores de
los píxeles de una misma cubierta no sean todos iguales, sino que se distribuyan alrede-
dor de un valor “típico”, aunque puedan tomar valores a ambos lados de él.
En una banda, por ejemplo, en la que se distingan dos cubiertas bien diferenciadas, su
histograma mostrará dos “montículos” que representan los valores típicos de los píxeles
en cada una de esas cubiertas y que incluyen también los valores alrededor de dichos
valores típicos. Para distinguir esas dos cubiertas, bastará tomar los píxeles con valores
por encima y por debajo del mínimo del histograma entre esos “montículos”. En ese
punto se cumple que, a su izquierda quedan los píxeles pertenecientes a la cubierta menos
brillante en esa banda, y a su derecha, los píxeles de la cubierta más brillante. Cuando
se hace esta separación de los píxeles entre los dos tipos de cubiertas, se dice que se han
clasificado. En este caso, se habla de una clasificación binaria: un píxel pertenecerá sólo
a una de las dos clases (la “brillante” y la “oscura” de esa banda).

254
E STADÍSTICA DE LAS IMÁGENES

20000

Histograma estirado

15000

10000
20000

Histograma original

5000
15000
#pixeles

0
10000 50 100 150 200 250

20000

Histograma ecualizado
5000

15000

0
50 100 150 200 250
10000
ND

5000

0
50 100 150 200 250

ND

Figura 7.1. Histograma de una banda térmica de Landsat-7: original, estirado y ecualizado.

En muchos casos, en una banda dada se distinguirá claramente una cubierta por-
que los valores de sus píxeles estarán concentrados en un rango del histograma, aunque
no se observe una acumulación apreciable de los píxeles en éste (piénsese en cubiertas
minoritarias, que quedan “ocultas” por los píxeles más heterogéneos de las cubiertas
mayoritarias). En ese caso, la determinación del intervalo se puede llevar a cabo “por
tanteo”, es decir, seleccionando el mejor intervalo de valores de la banda que permita
identificar los píxeles de la cubierta que se quiere seleccionar. Otra forma es definir una
máscara sobre la imagen, dentro de la cual esta cubierta no sea minoritaria, y determinar
en el histograma de los píxeles seleccionados por esa máscara la extensión del “mon-
tículo” que define la cubierta. Seleccionar una cubierta por intervalos en el histograma
de una banda, es otra forma de clasificación binaria: cada píxel pertenecerá a la clase de
esa cubierta o a su complementaria (la clase de todas las demás cubiertas).
En un producto multiespectral, debido al diseño de las bandas del sensor, cada ban-
da suele poder distinguir una serie de cubiertas particulares, que o bien reflejan, o bien
absorben la radiación electromagnética (la “luz”) en un cierto rango de longitudes de
onda. El procedimiento de clasificación binaria anterior se puede repetir en varias ban-
das, incluso identificando una misma cubierta en varias de ellas. Los resultados de estas

255
C UESTIONES DE TELEDETECCIÓN

8000
Histograma OLI−4
7000 Agua
6000

5000
Vegetación
4000

3000

2000 Suelo desnudo


/ urbano
1000

0
6000 7000 8000 9000 10000 11000

ND

Figura 7.2. Escena adquirida con el sensor OLI del Landsat 8 y el histograma de su banda 4 clasificado en
tres clases: agua (el máximo con niveles digitales más bajos), vegetación (el máximo siguiente) y suelo (la
cola de niveles digitales más altos). Sobre la escena los píxeles se han representado en colores diferentes,
de acuerdo con la clase a la que pertenecen.

clasificaciones de los píxeles se pueden combinar lógicamente, formando un “árbol bi-


nario”. Por ejemplo, en una escena alrededor de un embalse, una cubierta será agua si
en el NIR es menos brillante que cierto umbral y, además, en el verde es más brillante
que otro umbral diferente (si no, podría ser una sombra). Igual, algo que está en una
zona de tierra y tiene una “banda” de NDVI (calculado) mayor que cierto umbral, será
vegetación; si no, suelo desnudo. De este modo, se puede ir confeccionando un mapa
temático de una escena (figura 7.2).
En el ejemplo del enunciado, la banda NIR distinguirá el agua de la tierra, y en la
tierra, el suelo desnudo (o urbano) de la vegetación. La banda verde diferenciará, bá-
sicamente, estos tres tipos de cubiertas, aunque la vegetación y el suelo no estarán tan
claramente separados. Por lo tanto, con esas dos bandas sólo se podrá hacer, en primer
término, una clasificación en tres cubiertas, atendiendo a los máximos de su histograma.
Sin embargo, estudiando los valores de la banda verde con más detenimiento, podrían
llegar a distinguirse diferencias en cada una de estas cubiertas (por ejemplo, aguas so-
meras y profundas; o vegetación arbórea y monte bajo, etc.).
La separación entre valores de los píxeles de las cubiertas es, a menudo, más compli-
cada que esto: a veces la dispersión de los valores en los píxeles de una de las cubiertas
es tan grande que se superpone a los valores de los píxeles en otra cubierta. En otros
casos, no se dispondrá de conocimiento del terreno para identificar las cubiertas y poder

256
E STADÍSTICA DE LAS IMÁGENES

determinar sus intervalos de valores típicos en cada banda. En todos estos casos, no se
podrá llevar a cabo una clasificación supervisada como la del árbol binario.

3. Se sabe que dos bandas de radiancia de un sensor hiperespectral están muy


correlacionadas porque. . .

Respuesta: (c) Cuando se habla de correlación entre bandas, se está hablando de cómo
varían los valores de una banda cuando varían los de la otra al pasar de un píxel a
otro de la imagen. Para estudiarlo, se representan en un diagrama XY los valores
de una banda (en el eje X) y de la otra (en el eje Y) para cada píxel; así se
confecciona un diagrama de dispersión (scatter plot) que indica si los cambios
en una banda son dependientes (están correlacionadas y, por lo tanto, se observa
una “direccionalidad” en la nube de puntos) o independientes de los de la otra
en la escena (y, entonces, la nube de puntos no tiene una dirección preferente de
agrupamiento).

Que los histogramas de dos bandas sean iguales o parecidos (por ejemplo, uno despla-
zado o estirado respecto al de la otra) no siempre significa que exista una relación entre
ellas; aunque al revés sí sucede: si dos bandas están correlacionadas, sus histogramas
serán parecidos. Esto se puede observar en las imágenes de bandas próximas en un pro-
ducto de un sensor hiperespectral: el histograma apenas varía de una a su vecina.
La correlación entre dos bandas se caracteriza por el coeficiente de correlación r2
(de Pearson). La idea tras este coeficiente es que, si las dos bandas fuesen idénticas
o los valores de una de ellas fuesen proporcionales a los de la otra (es decir, que el
sensor estuviese midiendo en la misma banda, o una muy próxima, pero con diferente
ganancia), el valor del coeficiente sería 1; la correlación sería perfecta. Por otro lado,
si una banda está mostrando una información totalmente diferente de la de la otra, ese
coeficiente valdría cero. Con carácter general, el coeficiente r2 se halla entre estos dos
límites ideales. Nunca dos bandas muy correlacionadas van a tener una r2 = 1 (salvo
que sean la misma banda), ni dos bandas independientes van a dar un r2 = 0: esto es
debido a que, regiones parecidas de una imagen (por ejemplo, por su orografía) van a
tener valores parecidos en una banda, y lo mismo va a suceder con la otra banda en
las mismas regiones, por lo que siempre habrá “indicios” de una relación entre ambas
bandas.
Matemáticamente, r2 mide la variabilidad que explica la hipótesis de dependencia
entre dos bandas B1 y B2 , relativa a la variabilidad observada en ellas (cuando la explica

257
C UESTIONES DE TELEDETECCIÓN

Figura 7.3. Diagramas de dispersión entre bandas de una imagen SPOT en falso color: HRV-1 (R), HRV-2
(G) y HRV-3 (B).

toda, r2 = 1; si no explica ninguna, porque no hay ninguna relación entre bandas, r2 = 0).
La variabilidad observada de la banda B2 se caracteriza numéricamente por la varianza
de sus valores en todos los píxeles de la imagen, V [B2 ]. La variabilidad NO explicada,
se mide por la varianza de la diferencia entre la banda B2 y el valor que se esperaría de
ella si se pudiese expresar a partir de la otra banda B1 ; este valor se supone de la forma
B̂2 = aB1 + b (los valores de a y b se calculan por mínimos cuadrados). Por lo tanto,
r2 = 1 −V [B2 − B̂2 ]/V [B2 ] = 1 −V [B1 − B̂1 ]/V [B1 ].

4. En una escena, las bandas NIR y SWIR de radiancia se ven muy


correlacionadas. ¿Qué se podría hacer para visualizar sólo las diferencias entre
ambas?

Respuesta: (c) Aunque restar las dos bandas (o funciones de éstas) es una opción ten-
tadora, por lo sencilla, la mejor opción es calcular la mejor relación lineal entre
las dos bandas y restar los valores de cualquiera de estas bandas a su estimación
por la otra.

258
E STADÍSTICA DE LAS IMÁGENES

La substracción de bandas se emplea mucho en teledetección para calcular diferencias


entre imágenes obtenidas en diferentes instantes, bajo diferentes ángulos, en diferentes
longitudes de onda, etc. La diferencia entre bandas muestra, directamente los cambios.
En el caso de tener imágenes captadas desde diferentes ángulos (como en el caso del
CHRIS/PROBA), las diferencias entre las bandas proporcionan información sobre cómo
se refleja la luz en diferentes ángulos de observación. Este comportamiento de la reflec-
tividad, en función del ángulo, se describe por su función distribución de reflectividad
bidireccional o BRDF (bidirectional reflectance distribution function) y permite distin-
guir cubiertas que espectralmente pueden ser muy parecidas. En el caso de calcular la
diferencia de reflectividad entre dos bandas próximas, lo que se está calculando es la
“derivada espectral”, que es un índice muy usado para caracterizar las bandas de absor-
ción asociadas a los pigmentos: cuanto mayor sea (en valor absoluto) esa derivada, más
profunda será la banda de absorción y, por tanto, más pigmento.
Calcular la diferencia entre una banda y una estimación de ella (a partir de otra u
otras bandas) permite distinguir las desviaciones de esta banda respecto del comporta-
miento esperado en ella. Por ejemplo, cuando se define el índice de vegetación TSAVI
(transformed soil adjusted vegetation index, índice de vegetación transformado por el
ajuste del suelo), se le resta a la banda NIR su valor estimado bajo la hipótesis de que
corresponde a un suelo; de este modo, lo que no es suelo, es decir, la vegetación, queda
caracterizada por el índice. Así se eliminan, a la hora de caracterizar esa vegetación,
tanto el efecto de la mezcla en el píxel (pixel mixture) como la contribución de la luz
que atraviesa la vegetación tras reflejarse en el suelo. En las bandas NIR y roja, parte de
la luz reflejada en el suelo llega al sensor: sobre todo, en el NIR, porque en el rojo es
absorbida por la clorofila de las hojas; todo el rojo que llegue, procederá del suelo, así
que restando su parte proporcional en el NIR, se corrige éste.
Para estimar la relación entre NIR y rojo en el suelo, se puede hacer una estimación
de la recta que acota por debajo al diagrama de dispersión NIR vs. rojo de la escena de
vegetación. Esta sería la línea de suelo desnudo; en ella, cuanto mayor es la reflectividad
en el rojo, mayor es en el NIR, debido, por ejemplo, a las diferencias en la pendiente
del terreno, o a la diferente atenuación a través del dosel vegetal. En una imagen en la
que sólo se viese vegetación y ésta fuese tan espesa como para que no llegase luz al
suelo, la reflectividad dependería sólo del tipo de vegetación: es decir, todos los puntos
del diagrama de dispersión coincidirían en el correspondiente a una única reflectividad
(la de esa vegetación particular). Por lo tanto, entre la línea de suelo y ese único punto,
se hallarán los valores observados: la posición específica, dependerá, sobre todo, del
espesor de la cubierta, es decir, de la cantidad de hojas de vegetación presentes por
unidad de área, lo que se conoce como índice de área foliar (LAI, leaf area index).

259
C UESTIONES DE TELEDETECCIÓN

elos
de su
Línea

Figura 7.4. Diagrama de dispersión de las bandas 4 y 5 del OLI del Landsat-8 en una zona de vegetación.
Se indica la línea de suelo estimada.

Otro caso en el que se emplea este método es cuando en una imagen de agua aparece
sunglint, es decir destellos del sol en la superficie de las ondas del agua (que se observan
en función del ángulo relativo entre el sol y el sensor, y también en función de la inten-
sidad del viento que causa la mayor o menor amplitid de esas ondas). El reflejo del sol
es prácticamente independiente de la longitud de onda; desde luego, mucho menos que
la respuesta de la columna de agua o del fondo a través de ésta (que varía entre la gran
transparencia del agua en el azul hasta la práctica absorción del NIR). Entonces, dado
que la mayor correlación entre las bandas se dará debida a este efecto, se les resta a las
bandas del visible la recta de regresión obtenida comparándolas con la banda NIR. En
caso de que la señal restante en las bandas de interés después de esta corrección sea re-
presentativa (a veces, en casos de sunglint muy fuerte, o de señales procedentes del agua
muy débiles), este procedimiento permitirá eliminar el efecto del sunglint. Las bandas
del visible, sobre todo las del azul y el verde, son las de mayor interés para el estudio
del agua, porque en ellas tiene mayor transparencia; la banda NIR, en la que la mayor
parte de la luz reflejada procederá sólo del sunglint, no suele presentar ese interés: el
agua absorbe prácticamente toda la radiación que le llega en esa banda (es una banda de
“agua negra”), excepto en casos de muchos sólidos en suspensión.

260
E STADÍSTICA DE LAS IMÁGENES

5. La información espacial de las bandas de un sensor multiespectral se suele


representar mediante sus componentes principales. ¿Cuántas componentes
principales se pueden obtener de un sensor de 4 bandas multiespectrales, como
el SPOT?

Respuesta: (c) Las componentes principales que se obtienen son siempre en el mismo
número que las bandas de partida: en este caso, 4. Esto es así porque sólo son otra
forma de organizar la misma información que poseen las bandas de la imagen de
partida. La primera componente corresponde a la distribución de niveles de gris
que varía simultáneamente en los píxeles de todas las bandas, algo que destaca las
formas que son comunes a todas las bandas. La segunda componente corresponde
a los niveles de gris que, variando simultáneamente en la mayoría de las bandas,
lo hacen independientemente de los de la primera componente, es decir, las formas
comunes entre bandas pero no tan extensas. Así, sucesivamente para todas las
componentes principales. La última de ella, normalmente, sólo contiene el ruido
que varía de forma independiente de cualquier otra forma de la imagen.

Para analizar una imagen multi- o hiperespectral, una técnica estadística muy utilizada
es el análisis de componentes principales (principal component analysis, PCA). Si su-
ponemos que cada píxel de la imagen tiene en un espacio imaginario (o abstracto) unas
coordenadas dadas por los valores que tiene de radiancia en cada una de las bandas de
la imagen, buscar las componentes principales consiste en buscar los ejes de ese espacio
a lo largo de los cuales están alineados los datos. La primera componente será el eje a
lo largo del cual se halla la mayor dispersión de los datos, es decir, la dirección de ese
espacio, a lo largo de la cual se observarían mayores contrastes: para calcularla, se rotan
los datos en ese espacio hasta colocar esta dirección paralela al primer eje de coordena-
das. La segunda componente será el siguiente eje a lo largo del cual se observe el mayor
contraste de valores, que será perpendicular al primer eje: para calcularlo, se rotan los
datos manteniendo fija la dirección del primer eje, hasta que la nueva dirección de má-
ximo contraste esté alineada con el segundo eje de coordenadas. Así se procede con las
demás direcciones de mayor contraste, cada una perpendicular a todas las anteriores. De
ahí que, al final, se hayan alineado los datos respecto a tantos ejes como bandas había
inicialmente: tantos como dimensiones tiene el espacio abstracto de las bandas.
En la práctica, este análisis encuentra los patrones (espaciales) comunes al mayor
número de las bandas, ordenados de mayor a menor importancia: la importancia se mide
por la variabilidad que presentan en la escena y por el grado de coincidencia ente las
bandas. El patrón más común se obtiene haciendo una suma ponderada de todas las
bandas de forma que la varianza de esa suma sea máxima relativa a las varianzas de las

261
C UESTIONES DE TELEDETECCIÓN

Figura 7.5. Imagen RGB (izquierda) de una escena Landsat 7 del cono del volcán Etna (durante la
erupción del 29 de julio de 2001) y las tres primeras componentes principales obtenidas a partir de las
bandas 1, 2, 3 y 4 del ETM+ por separado (centro) y combinadas en un RGB 213.

bandas; ello resalta los mayores contrastes visibles en todas las bandas (o en la mayoría
de ellas). La primera componente principal contendrá esa información. Las siguientes
componentes, mostrarán detalles de las bandas que se apartan del comportamiento global
mostrado en las anteriores: se dan en zonas en las que la primera componente principal
toma valores altos, por lo que destacan detalles no tan comunes a la totalidad de las
bandas, si bien todavía muestran contrastes importantes (menos, cuanto mayor sea el
orden de la componente principal).
El análisis de componentes principales generaliza, en cierto modo, al método de
restar a una banda su valor esperado si fuese función de otra banda. La primera com-
ponente (PC1) jugaría el papel de esa banda que mejor explica a todas las demás. La
segunda componente principal (PC2) sería aquello con mayor variabilidad en la escena
que no explica la PC1. Así, sucesivamente hasta completar toda la variabilidad de las
bandas de la imagen original.

6. Para generar un mapa temático de usos del suelo (como el CORINE,


COoRdination of INformation on the Environment) se puede llevar a cabo una
clasificación supervisada de una imagen multiespectral (como Landsat o
SPOT). Esta clasificación sigue estos pasos:

Respuesta: (a) Una clasificación supervisada se basa en identificar unas caracterís-


ticas que se pueden definir estadísticamente sobre los píxeles de la imagen. La
distribución de estas características se determina en varias regiones en las que

262
E STADÍSTICA DE LAS IMÁGENES

se conoce el tipo de cubierta que hay, estudiando los valores de los píxeles de la
imagen en esas regiones. Esta determinación de las características estadísticas en
las diferentes regiones se llama entrenamiento del clasificador. Conocidas estas
distribuciones estadísticas, se asignan en el resto de los píxeles en la imagen a las
diferentes clases, cada píxel a aquélla a la que es más probable que pertenezca.

Un mapa temático es una parcelación de una región geográfica en zonas con diferentes
características, normalmente representadas en diferentes colores. Un ejemplo muy vi-
sual son los mapas de usos del suelo (también los catastrales) o los mapas geológicos
obtenidos tradicionalmente mediante observaciones o prospecciones sobre el terreno y,
posteriormente, estableciendo límites entre zonas con diferencias observadas. La telede-
tección proporciona una forma rápida de obtener estos límites a partir de las propiedades
de la imagen remota. Sin embargo, para ello, hay que establecer antes una relación entre
los valores de la imagen y esas propiedades.
Las relaciones entre la información en un píxel de una imagen y el tipo de cubierta
que se observa en él, pueden basarse en la respuesta radiométrica de esa cubierta (por
ejemplo, el NDVI para identificar la vegetación, o los índices de composición mineral,
basados en las bandas de absorción de ciertos compuestos), en conocimiento sobre el
terreno (por ejemplo, cuando se sabe que cierto píxel pertenece a una cubierta vegetal
en un cultivo de regadío, y otro, en un cultivo de vid), o simplemente en las diferentes
respuestas espectrales observadas en los distintos píxeles de una escena. Cada tipo de
relación puede ser útil en un momento. Por ejemplo, la relación basada en modelos
físicos puede servir para cuantificar una magnitud (la humedad, el estado fenológico o
la cantidad de clorofila, en el caso del NDVI) una vez se conoce el tipo de cubierta de
un píxel o grupo de píxeles. Sin embargo, un reconocimiento de ese tipo requiere un
tratamiento estadístico, debido a la variabilidad que siempre existe en escenas naturales.
Para ello, si se conocen ciertas zonas con un tipo de cubierta, se pueden tomar como
muestras cuyo comportamiento luego se generaliza a la totalidad de la “población de
píxeles” en la escena. En esto consiste la clasificación supervisada: en seleccionar zonas
conocidas, caracterizarlas estadísticamente y buscar a cuál de ellas se parece más cada
píxel de la imagen. Cuando esto se hace sin ese conocimiento previo (es decir, el propio
procedimiento estadístico identifica los grupos diferentes en la imagen), se habla de
clasificación no supervisada.
Una clasificación supervisada requiere tres pasos fundamentales. Primero, la defini-
ción de las clases de interés; éstas pueden decidirse para el estudio particular, o bien, ser
tomadas de entre las clasificaciones habituales en estudios de un área dada (por ejemplo,
de tipos de suelos, de tipos de vegetación, de tipos de aguas, etc.). Después, se deben

263
C UESTIONES DE TELEDETECCIÓN

seleccionar los datos de campo (u otro conocimiento previo) y las imágenes de telede-
tección más adecuadas; unos y otros vendrán determinados por el problema a resolver.
Con esto, se seleccionan las zonas de interés (ROI, region of interest) o áreas de entrena-
miento (training sites). Por último, se debe seleccionar el modelo estadístico que mejor
caracterice los datos en las zonas conocidas de la imagen.
Con esta información, se entrena un algoritmo de clasificación, es decir, se determi-
nan las distribuciones que mejor caracterizan la cubierta presente en cada ROI, y que
mejor diferencian ésta del resto. Luego, se asigna a cada píxel de la imagen, su clase:
aquélla a la que es más probable que pertenezca, dadas sus características espectrales.
El algoritmo de clasificación más simple quizás sea el de mínima distancia. Se asu-
me que la distribución de los valores en cada una de las ROI es la distribución empírica
de ésta, es decir, que todos los valores posibles de las bandas en esa clase son los en-
contrados en esas regiones de entrenamiento. Los píxeles de la imagen se clasifican
buscando que los valores en sus bandas coincidan con los de algún píxel de una región
de entrenamiento; entonces, se les asigna la clase de éste. Si no coinciden con ninguno,
simplemente se busca la clase de aquella ROI que contenga el píxel cuyas bandas estén
más próximas a las del píxel a clasificar.
Otro algoritmo de clasificación muy utilizado es el de máxima verosimilitud. Este
algoritmo determina la distribución gaussiana de los valores de las bandas en las ROI
de cada cubierta: estas distribuciones gaussianas se definen dando los valores medios
de cada banda y las varianzas y covarianzas entre estas bandas; las varianzas indican los
rangos de variación en cada banda, y las covarianzas cómo de correlacionadas están unas
con otras. Luego se calcula la probabilidad que darían estas distribuciones gaussianas
para cada píxel (teniendo en cuenta los valores de sus bandas): aquella que dé mayor
probabilidad, será la que se asigne al píxel. En cierto modo, las distribuciones gaussianas
definen una distancia del píxel a los píxeles de cada ROI, una distancia que se determina
y depende del entrenamiento del clasificador.

7. En la clasificación de imágenes remotas multi- e hiperespectrales se definen


distancias entre las bandas de los píxeles. ¿Cuál de éstos no es un nombre de
distancia habitual entre bandas de dos píxeles distintos?

Respuesta: (b) Para identificar si dos píxeles se parecen espectralmente, es decir, para
decidir si pueden corresponder a la misma cubierta o no, se definen distancias
entre ellos. La más conocida es la euclídea, pero existen otras como la de máxima

264
E STADÍSTICA DE LAS IMÁGENES

diferencia entre bandas (conocida como Manhattan), la distancia estadística o de


covarianzas (o de Mahalanobis), o la distancia media relativa (o Canberra).

Tanto para la clasificación supervisada como para la no supervisada, se suelen definir


distancias espectrales entre pares de píxeles. La idea intuitiva de esto es que los píxeles
se pueden representar como puntos de un espacio usando como coordenadas los valores
de sus bandas (de reflectividad).
La distancia habitual entre puntos en un espacio es la distancia euclídea: la raíz
cuadrada de la suma de cuadrados de las diferencias entre bandas (una aplicación del
teorema de Pitágoras). Esta distancia se usa a veces en teledetección, cuando no hay otra
información que nos indique que las bandas puedan tener diferente importancia a la hora
de calcular la diferencia entre dos píxeles. Una primera modificación de esta distancia es
tener en cuenta las variaciones relativas entre esas bandas: no es lo mismo una diferencia
de un 1 % entre dos bandas que, para un tipo dado de cubierta, oscilan entre el 10 % y
el 30 % de reflectividad, que una diferencia de un 1 % entre dos bandas que varían entre
el 5 % y el 7 %; por eso se suelen normalizar las diferencias entre bandas con sus rangos
de variación (o sus desviaciones típicas) antes de calcular la distancia euclídea. En esta
idea se basa la distancia de Mahalanobis, que busca antes las mejores direcciones en
las que calcular estas distancias: aquéllas de máxima varianza, los ejes del análisis de
componentes principales (PCA).
Además, la distancia Euclídea presenta un problema con los puntos discrepantes
(aquéllos que se desvían mucho del comportamiento normal, los “outlayers”): es muy
sensible a ellos, por usar el cálculo de cuadrados en su fórmula matemática. Por ello
se utilizan otras distancias que no elevan las diferencias al cuadrado. Una de ellas es
la distancia Manhattan, que calcula la distancia entre dos puntos como la suma de los
valores absolutos de las diferencias entre sus coordenadas; el nombre procede de la dis-
tribución regular de las calles de este barrio neoyorkino: la distancia Manhattan sería la
mínima distancia que recorrería un taxi para ir desde un punto hasta otro siguiendo el
trazado regular de esas calles. Igual que con la distancia Euclídea se podían normalizar
las distancias para tener en cuenta variaciones relativas (distancia de Mahalanobis), Wi-
lliams y Lance, dos estadísticos australianos, introdujeron la distancia Canberra (que era
su ciudad): cada diferencia entre valores de las bandas, se divide por el valor medio de
ambos valores; de este modo, la distancia Canberra entre dos píxeles es igual a la suma
de los valores absolutos de sus diferencias relativas en las diferentes bandas. La distancia
Canberra es la adecuada cuando los valores de las bandas no son de los mismos rangos,
ya que los pesos asignados a las diferencias los reducen a escalas equivalentes.

265
C UESTIONES DE TELEDETECCIÓN

A menudo se estudia cuál de las distancias es la más adecuada para un problema.


Cada autor, basándose en su experiencia, y en argumentos estadísticos, escoge una como
la más apropiada para su problema. Como regla general, se deben utilizar las distancias
que usan diferencias normalizadas: lo que cuenta son las variaciones relativas entre las
bandas. Otra regla general es que, cuando la distribución de los puntos en el espacio
sigue una “dirección” (es decir, están alineados siguiendo una línea), lo mejor es medir
las distancias sobre esa línea. Por último, la regla que se aprende al revisar la bibliografía,
es que se debe escoger aquella distancia que más próximos muestra entre sí píxeles que,
en la realidad, sabemos que corresponden a cubiertas parecidas.

8. Aun cuando no tengamos conocimiento previo de un área de estudio, y no


conozcamos a priori localizaciones con tipos de cubiertas concretas, es posible
llevar a cabo una clasificación de cubiertas a partir de una imagen de satélite.
Para ello se emplean procedimientos estadísticos que agrupan los píxeles de
una imagen por proximidad entre sí. . .

Respuesta: (c) Un método de clasificación no supervisado (es decir, que no usa regio-
nes de entrenamiento ni otro conocimiento a priori sobre las cubiertas de una
escena que se quieren clasificar) se basa en dividir las respuestas espectrales de
los píxeles de la imagen en grupos separados dentro del espacio N-dimensional
en el que se representan los valores de las N bandas de una imagen. Esta división
se lleva a cabo utilizando criterios estadísticos que separan las regiones donde se
acumulan los puntos que representan a los píxeles en función de la propiedades
espectrales, es decir, de los valores que toman las diferentes bandas en el mismo
píxel.

Los píxeles de una imagen se pueden representar también como puntos de un espacio
de múltiples dimensiones, usando como coordenadas los valores de reflectividad en las
bandas en cada píxel. El caso más simple es el de una única banda: los píxeles de la
imagen se transforman en puntos sobre una línea (sobre la que se mide el valor de la
banda), que se hallarán más o menos densamente ubicados sobre ella; allí donde estén
más densos, será donde su histograma muestre los montículos que indican la mayor
acumulación de valores de la banda. El siguiente caso, es el diagrama de dispersión
entre dos bandas: cada banda es una coordenada (X e Y) y, allí donde se acumulan los
píxeles, nos indican un tipo de cubierta para la que los valores típicos de esas dos bandas
se hallan alrededor del punto de acumulación. Esto se puede generalizar a tres bandas
o, de un modo abstracto, a un espacio N-dimensional, con los valores de las N bandas
espectrales como coordenadas de cada píxel.

266
E STADÍSTICA DE LAS IMÁGENES

1.0
0.8
0.6
G
0.35
0.30

Clase 6
0.25

0.4
Clase 1

Clase 2
0.20

Clase 5

Clase 4
0.15

Clase 3
0.10

0.2
0.05

0.2 0.4 0.6 0.8 1.0


0.00

Figura 7.6. Clasificación por un método aglomerativo de una imagen en visible. El método agrupa los
píxeles por proximidad construyendo un dendrograma (izquierda). Luego se escogen los k = 6 grupos que
se ve que clasifican la imagen con coherencia espacial (que el método, por sí, no tiene en cuenta). Cada
grupo se puede caracterizar por uno de sus representantes (). La paleta de color se ha escogido para que
su interpretación visual sea más sencilla en la imagen clasificada.

Los métodos de clasificación no supervisada buscan, precisamente, estos montículos


del histograma o concentraciones. Las clasificaciones se suelen llevar a cabo o bien
agrupando los píxeles que se hallan próximos en ese espacio N-dimensional hasta unirlos
en un número de clases buscadas, o bien dividiendo ese espacio de píxeles en el número
de grupos buscados y luego moviendo los límites de éstas para separar regiones con
acumulación de puntos, siguiendo algún criterio estadístico.
En el caso de agrupar los píxeles cada vez en grupos mayores (proceso de “cluste-
ring”), hasta formar un número de grupos preestablecido, se habla de crear una clasi-
ficación jerárquica. Se parte de un número de clases igual al de píxeles en la imagen:
cada uno constituye un grupo. A continuación se buscan los dos píxeles más próximos
y se agregan en un grupo. Se repite el proceso calculando las distancias entre grupos y
uniendo los más próximos entre sí. Este algoritmo para crear los “clusters” (o aglomera-
dos) se llama AGNES (agglomerative nesting, aglomeración anidada). Para calcular las
distancias entre grupos, a veces se calcula un punto que represente a cada grupo (otras
veces se utiliza otro valor para caracterizar al grupo, como el valor medio de todos los
puntos, depende del método escogido). Este punto se llama el representante del grupo o
el “endmember” de la clase que representa ese grupo.
En el caso del proceso de subdivisión del espacio N-dimensional, se procede de ma-
nera inversa. Primero se identifican los puntos de ese espacio más alejados entre ellos,

267
C UESTIONES DE TELEDETECCIÓN

1.0
0.8
0.6
G

0.4
0.2

0.2 0.4 0.6 0.8 1.0

Figura 7.7. Clasificación por un método k-Means de una imagen en visible. El método forma “clusters” de
píxeles alrededor de los k = 6 representantes (). La asignación de clases es arbitraria (el método es no
supervisado): se han ordenado los colores para que su interpretación visual en la imagen “temática” sea
más sencilla.

tantos como clases se quieran determinar. Estos puntos son los representantes de esas
clases. Luego se forman grupos formados por los píxeles más próximos a cada uno de
esos puntos representantes. A partir de estos grupos, se vuelven a calcular representan-
tes: por ejemplo, escogiendo dentro de cada grupo aquél píxel que se halla más próximo
a todos los demás; o calculando un punto que sea el valor medio de todos los demás
puntos (el centroide del grupo). Hecho esto, se repite el proceso: se asignan los píxe-
les al grupo cuyo representante esté más próximo. Estos representantes, al final de la
clasificación, se llaman representantes de la clase o “endmembers” de la clasificación;
son píxeles prototipo (que puede que no existan en la imagen) característicos de la cu-
bierta delimitada sin supervisión. El método de clasificación descrito se llama k-means,
haciendo referencia a la forma de calcular los centroides de los k aglomerados como la
media de los puntos pertenecientes a ellos (figura 7.7).

¿Qué método es más utilizado en Teledetección?

El método de k-means es quizás el más usado porque es el más rápido de calcular


y requiere menos memoria. Sin embargo, cada vez se publican más trabajos que usan
métodos aglomerativos. Los más recientes son los métodos de clasificación orientada
a objetos, que construyen los aglomerados teniendo en cuenta las posiciones relativas
entre los píxeles, creciendo regiones espacialmente conexas, uniendo grupos de píxeles

268
E STADÍSTICA DE LAS IMÁGENES

espacial y espectralmente próximos. Esto soluciona uno de los problemas de las clasi-
ficaciones basadas solamente en los valores de las bandas de los píxeles: la coherencia
espacial. En muchos casos, algunos píxeles son clasificados en una clase, mientras que
se encuentran rodeados por píxeles de otra (esto es una falta de coherencia espacial que,
en la mayoría de los casos, no se corresponde con la realidad).

9. Para comprobar la relación que existe entre la clasificación automática


(supervisada o no) de una imagen y la realidad, se lleva a cabo un proceso de
validación. Para ello, usualmente, se construye una matriz de confusión. ¿Qué
propiedades tiene esta matriz de confusión?

Respuesta: (b) La matriz de confusión es una tabla en la que se contabilizan los píxe-
les de cada clase (reconocida en la imagen) que han sido clasificados dentro de
su propia clase o en otra diferente. La matriz tiene tantas filas y columnas como
clases se hayan definido en la escena y las celdas de esa matriz contienen el nú-
mero de píxeles que, siendo de una clase, dada por la fila (según el conocimiento
a priori del la zona de estudio o según comprobaciones hechas a posteriori), han
sido clasificados como otra clase, dada por la columna. La clasificación perfecta
sería una matriz en la que el 100 % de los píxeles clasificados estuviesen contabi-
lizados en las celdas de la diagonal de esa matriz; en ese caso, todos los píxeles
estarían correctamente clasificados.

Como con toda medida indirecta, es necesario estudiar el error cometido en una clasifi-
cación. Este error, referido a una clase, se suele dividir en dos: errores tipo I (o errores
por omisión) y errores tipo II (o errores por comisión). Los errores tipo I a la hora de
clasificar una cubierta son aquellos en los que, siendo la cubierta de una clase, la asig-
namos a otra. Por ejemplo, si un suelo urbano en una clasificación de tipos de suelo, es
asignado a una clase de suelo forestal (por ejemplo, porque contiene árboles, como un
parque). Los errores tipo II son aquellos en los que se asigna esa clase a algo que no
lo es. Por ejemplo, si se clasifica como suelo urbano una mina a cielo abierto (porque
espectralmente su suelo desnudo se parece al hormigón de una ciudad). Evidentemente,
los errores de un tipo para una cubierta son errores del otro para alguna otra cubierta.

Terreno/Clasificación Clase 1 Clase 2 Clase 3


Cubierta 1 4 4 0
Cubierta 2 17 237 4
Cubierta 3 4 31 157

269
C UESTIONES DE TELEDETECCIÓN

En la matriz de confusión se halla toda la información para calcular estos porcentajes


de error. Si se representan en las filas las cubiertas verificadas sobre el terreno (la “verdad
terreno” o groundtruth) y en las columnas los resultados de la clasificación (asignándoles
los mismos números), basta ver qué porcentaje de los píxeles clasificados se encuentran
fuera de la diagonal en cada fila (para los errores tipo I) o columna (para los errores tipo
II).
Minimizar los errores quiere decir maximizar la precisión. En teledetección se dife-
rencia entre la precisión por parte del productor o clasificador y la precisión por parte
del consumidor o usuario. La precisión del productor es el porcentaje de píxeles de una
cubierta que el algoritmo clasificador ha clasificado correctamente: el cociente entre ca-
da valor de la diagonal y la suma de las celdas en la fila correspondiente. La precisión
del usuario es el porcentaje de veces que el usuario, guiándose por la clasificación pro-
porcionada, encontrará sobre el terreno la cubierta indicada: el cociente entre cada valor
de la diagonal y la suma de valores en su columna correspondiente.
La bondad de toda la clasificación (los errores o precisiones anteriores se referían a
cada cubierta) se suele indicar por su precisión global: el porcentaje del total de píxeles
verificados sobre el terreno que se halla en la diagonal (los bien clasificados).
Sin embargo, cuando una cubierta tiene una extensión mucho mayor o mucho menor
que las demás, la probabilidad de acertar o errar en su clasificación por puro azar no
queda reflejada en esta precisión. Para ello, el estadístico Cohen (en 1960) introdujo el
valor “kappa”: este valor kappa de Cohen le resta a la precisión la probabilidad de haber
clasificado bien los píxeles de la imagen por azar (estimada a partir de la proporción de
éstos en la imagen tanto sobre el terreno verificado como sobre la escena clasificada). Por
lo tanto, si en una imagen hay un 33 % de píxeles de cada una de tres cubiertas presentes,
y todas las celdas de la matriz de coocurrencia contienen un 11 % de los píxeles, entonces
no es que la precisión de la clasificación sea de un 33 %, sino que ese 33 % ha sido
logrado por casualidad, como indica el valor de “kappa” igual a cero. En la matriz del
ejemplo, la precisión es de un 86.9 %, pero el valor de kappa es 74.6 %, ligeramente
inferior.

¿Cuándo es una clasificación buena?

En primer lugar hay que decir que una clasificación con un valor de “kappa” menor
del 50 % puede parecer mala, pero es mejor que ninguna clasificación. Algunos autores
han propuesto que una buena clasificación requiere no sólo una precisión total superior
al 85 %, sino una precisión en cada clase (tanto desde el punto de vista del productor,

270
E STADÍSTICA DE LAS IMÁGENES

como del usuario) no inferior a un 70 %. Según esto, la matriz de coocurrencia anterior


no sería la de una buena clasificación. Con este criterio para las precisiones, el valor de
“kappa” mínimo requerido estaría en torno al 70 %. En la práctica, dependiendo de la
técnica de adquisición, un valor de “kappa” superior al 65 % se considera aceptable en
algunos casos.

10. El análisis de mezclas espectrales (o spectral unmixing), se emplea para


calcular la “abundancia” de cada una de las cubiertas presentes en una escena
teniendo en cuenta que éstas pueden estar mezcladas en un píxel. Este análisis
se basa en calcular:

Respuesta: (c) Cuando en un mismo píxel de una imagen coinciden distintos tipos de
cubiertas (por ejemplo, suelo y vegetación de diferentes clases) la luz reflejada
procederá en un porcentaje de cada una; por ello, el espectro de reflectividad de-
terminado por medio de las distintas bandas del píxel será una media ponderada
de los espectros de cada una de las “cubiertas puras” que hay en él. El spectral
unmixing lo que busca es determinar estos coeficientes de ponderación o porcen-
tajes de abundancia de cada una de las “cubiertas puras” que mejor explican el
espectro en el píxel.

La reflectividad determinada en un píxel es el porcentaje de la luz solar que reflejan las


cubiertas en él relativo a la que idealmente podría llegar a reflejarse hacia el sensor. El
espectro de reflectividad, esto es, la reflectividad en todas las longitudes de onda, es fun-
ción de las reflectividades de las cubiertas presentes en el píxel y del porcentaje visible
de cada una. Sin embargo, no depende de la distribución espacial de esas cubiertas den-
tro del píxel, ya que toda la luz que llega al sensor se integra en un único valor. Por lo
tanto, la reflectividad recibida se puede suponer que es una suma ponderada de reflectivi-
dades. Si para una escena se conocen los espectros de las cubiertas presentes (obtenidos,
por ejemplo, a partir de una biblioteca estándar o de una biblioteca confeccionada me-
diante radiometría de campo en el área de estudio) y la imagen tiene como mínimo un
número de bandas igual a ese número de espectros menos uno, se puede resolver un sis-
tema de ecuaciones que proporcione esos coeficientes de ponderación en cada píxel. Los
coeficientes de ponderación se suelen llamar “abundancias”, ya que cada peso es igual
a la fracción de la superficie del píxel que comprende la correspondiente cubierta (es
decir, en total suman el 100 %). En esto consiste el algoritmo más sencillo de “spectral
unmixing”.

271
C UESTIONES DE TELEDETECCIÓN

0.6

G 0.4

0.2

0.2 0.4 0.6


R

Figura 7.8. Método de spectral unmixing: los tres vértices del triángulo representan los “espectros puros”;
casi todos los demás espectros (caracterizados por dos bandas, en este caso) se encuentran dentro del
triángulo definido por esos tres.

En el caso en que no se disponga de una biblioteca de espectros o no se sepa, a


priori, cuáles son las cubiertas presentes en la escena, también es posible llevar a cabo el
análisis de mezclas. En este caso, los píxeles se representan en un espacio N-dimensional
usando como coordenadas los valores de las N bandas del sensor en cada píxel y se
busca un número de N + 1 píxeles (reales o calculados, dependiendo del algoritmo),
identificados como espectros “puros”; con ellos se pueden expresar las bandas de todos
los demás como sumas ponderadas, de forma que los pesos sumen la unidad: es decir,
que las abundancias estimadas de esos espectros “puros” siempre expliquen el 100 % de
las cubiertas presentes en todos los píxeles de la imagen (figura 7.8). Los espectros puros
determinados de esta forma juegan el papel de “representantes” de clase, o endmembers
de las clasificaciones no supervisadas.

272
E STADÍSTICA DE LAS IMÁGENES

7.4. CONCEPTOS IMPORTANTES

análisis de componentes principales (PCA) Búsqueda de los ejes ortogonales de má-


xima varianza de la distribución multivariante (múltiples bandas) de valores de los
píxeles de una imagen. Los ejes de máxima varianza definen combinaciones li-
neales de bandas que varían simultáneamente (máxima varianza) en los píxeles de
la imagen; la variación simultánea se identifica como característica de un tipo de
cubierta. Al ser los ejes ortogonales, cada combinación lineal de bandas será esta-
dísticamente independiente de las otras; la independencia estadística se relaciona
con diferentes tipos de cubiertas.

análisis de mezclas espectrales Búsqueda de los “espectros puros” (los valores que
esos espectros tienen en las bandas observadas) tales que los demás espectros
presentes en los píxeles de la imagen se pueden considerar medias ponderadas de
ellos. Los pesos de ponderación en cada píxel se denominan abundancias de los
espectros puros; se entiende que en un píxel existen las cubiertas correspondientes
a los espectros puros mezcladas con las abundancias dadas.

clasificación en árbol binario Método de clasificación asistido que se basa en aplicar


condiciones que, sucesivamente, clasifican los píxeles en dos tipos: los que cum-
plen una condición y los que no. El método más simple se basa en los histogramas
de las sucesivas bandas, buscando niveles digitales que separan un tipo de cubierta
del resto de la escena en una banda; después, aplicando condiciones similares a
los píxeles no seleccionados usando otra banda, etc.

clasificación supervisada Método de clasificación que agrupa en clases los píxeles de


una imagen de acuerdo a su parecido con conjuntos de píxeles que se sabe que
corresponden a varios tipos de cubiertas conocidas. La fase de caracterización de
los datos conocidos se denomina entrenamiento del clasificador supervisado.

clasificación no supervisada Método de clasificación que agrupa en clases los píxeles


de una imagen de acuerdo a su parecido entre ellos, según cierta función de simili-
tud o distancia. Las clases obtenidas no corresponden a tipos de cubiertas, aunque
se suelen poder atribuir por inspección de la clasificación.

cluster jerárquico Organización de los píxeles en conglomerados en función de su se-


mejanza, y de estos conglomerados en superconglomerados en función de su se-
mejanza. El esquema jerárquico se puede llevar hasta un único cluster que agrupa
la totalidad de la imagen. El cluster jerárquico se puede construir de abajo a arriba
(partiendo de los píxeles, agrupándolos en pares, uniendo los pares más próximos,

273
C UESTIONES DE TELEDETECCIÓN

etc. como en el método AGNES) o de arriba a abajo (partiendo los píxeles en


dos clases, separando estas en grupos de píxeles diferentes, etc.). El resultado del
cluster jerárquico se representa como un dendrograma..

correlación lineal Medida estadística del parecido entre el comportamiento de dos va-
riables aleatorias. En una imagen multiespectral dos bandas están correlacionadas
cuando sus valores, representados en un diagrama de dispersión, se alinean según
una recta. Esto indica que cabe esperar que, dado un valor de una de las bandas
en un píxel, se pueden hacer una buena predicción de cuál será en valor de la otra
banda en él.

derivada espectral Derivada de la reflectividad como función de la longitud de onda.


En la práctica se calcula la diferencia de valores en dos bandas cercanas y se divide
por la diferencia entre sus longitudes de onda centrales.

diagrama de dispersión Representación gráfica bidimensional en forma de nube de


puntos cuyas coordenadas (X,Y ) vienen dadas por los valores de cada una de las
bandas en un píxel de la imagen; es decir, la representación muestra tantos puntos
como píxeles contiene la imagen. El concepto se puede generalizar a más de dos
bandas; la forma de la “nube de puntos” es la base del análisis de componentes
principales.

distancia euclídea Distancia entre dos píxeles calculada como la distancia geométrica
habitual entre dos puntos del espacio cuyas coordenadas vengan dadas por los
valores en las bandas de la imagen en cada píxel.

histograma Representación de la frecuencia (eje Y) con que se da cada valor o intervalo


de valores (eje X) de una banda en los píxeles de una imagen. Cuando en una
imagen hay una población apreciable de píxeles que tienen valores próximos en
una banda, el histograma forma “montículos” o “modos” que sugieren la presencia
de esa población homogénea; se interpreta que los píxeles correspondientes a ese
“montículo” forman parte de una misma clase.

k-means Método de clasificación que busca los píxeles más representativos de una ima-
gen, agrupando los demás por su proximidad a ellos. Los píxeles representantes o
endmembers se interpretan como los prototipos de una clase espectral de la ima-
gen.

kappa de Cohen Estadístico que mide la precisión de una clasificación automática por
comparación de su resultado con observaciones sobre el terreno (groundtruthing),
descontando los efectos del azar al coincidir la clasificación automática y la clase

274
E STADÍSTICA DE LAS IMÁGENES

real (por ejemplo, en caso de que exista una clase muy mayoritaria: por azar siem-
pre se encontraría, aunque la clasificación de clases minoritarias mostrase muchas
discrepancias). La precisión es simplemente la fracción de coincidencias, y siem-
pre es mayor de la kappa.

mapa temático Representación espacial, en forma de mapa, del resultado interpretado


de una clasificación.

matriz de confusión Matriz de doble entrada construida para la validación de una clasi-
ficación automática con observaciones sobre el terreno (groundtruthing). En cada
celda de la matriz se contabilizan las coincidencias observadas entre la clasifica-
ción sobre el terreno (indicada por las filas) y la clasificación automática (indicada
por las columnas).

máxima verosimilitud Método de clasificación supervisada que consiste en estimar la


distribución de valores en los píxeles de regiones de interés que se saben pertene-
cientes a diferentes tipos de cubiertas (entrenamiento) y, posteriormente, asignar
cada píxel a aquella clase a la que sería más probable que perteneciese según la
distribución calculada para ella.

píxel de mezcla Píxel que, sobre el terreno, contiene dos tipos de cubierta. La mezcla
de cubiertas produce la mezcla de los espectros, se supone que en la misma pro-
porción; ésta es la base de los métodos de análisis de muestras espectrales.

representante de clase (endmember) Tras una clasificación, el elementos miembro de


una clase que reúne las características prototipo de la clase obtenida. El represen-
tante es el elemento más próximo a todos los elementos de la clase; su elección
depende del método de clasificación y de la definición de esta distancia.

7.5. BIBLIOGRAFÍA

E. Chuvieco Salinero (2008). “Análisis digital de imágenes: extracción de infor-


mación temática”. En: Teledetección ambiental, Capítulo 7. Ariel Ciencia, 2008.

E. Chuvieco Salinero (2008). “Verificación de resultados”. En: Teledetección am-


biental, Capítulo 8. Ariel Ciencia, 2008.

R.G. Congalton (1991). “A Review of Assessing the Accuracy of Classifications


of Remotely Sensed Data”. Remote Sensing of the Environment, 37:35-46.

275
C UESTIONES DE TELEDETECCIÓN

S.B. Ferrero, M.G. Palacio, O.R. Campanella. “Análisis de componentes princi-


pales en teledetección. Consideraciones estadísticas para optimizar su interpreta-
ción”. Revista de Teledetección, 17: 43-54.

G.M. Foody (2002). “Status of land cover classification accuracy assessment”.


Remote Sensing of Environment, 80: 185-201.

M.A. Gilabert, J. González-Piqueras, F.J. García-Haro, J. Meliá (2002). “A gene-


ralized soil-adjusted vegetation index”. Remote Sensing of Environment, 82: 303-
310.

J.R. Jensen (2005). “Thematic information extraction: Pattern recognition”. En:


Introductory Digital Image Processing: A Remote Sensing Perspective, Capítulo
9. Prentice Hall, 2005.

G.N. Lance, W.T. Williams (1967). “Mixed-Data Classificatory Programs I —


Agglomerative Systems”. Australian Computer Journal, 1(1): 15-20.

M. Li, S. Zang, B. Zhang, S. Li, C. Wu (2014). “A Review of Remote Sensing


Image Classification Techniques: the Role of Spatio-contextual Information”. Eu-
ropean Journal of Remote Sensing, 47:389-411.

C. Pinilla Ruiz (1995). “Clasificación digital”. En: Elementos de Teledetección,


Capítulo 9. Ra-Ma, 1995.

Webgrafía (accesible el 1/05/2015)

ArcGIS Help 10.1 — What is image classification?


URL: http://resources.arcgis.com/en/help/main/10.1/index.html#//00nv00000002
000000
Página del manual de ArcGIS (un sistema de información geográfica comercial
muy utilizado) sobre clasificación de imágenes.

CORINE Land Cover — European Environmental Agency


URL: http://www.eea.europa.eu/publications/COR0-landcover
Página del programa CORINE sobre usos del terreno en Europa. Los datos de este
proyecto se pueden descargar desde
http://www.eea.europa.eu/data-and-maps/data/corine-land-cover-2006-raster-3

276
E STADÍSTICA DE LAS IMÁGENES

Classification tutorial (using ENVI) — Exelis VIS Docs Center


URL: http://www.exelisvis.com/docs/classificationtutorial.html
Tutorial de clasificación de imágenes de teledetección con ENVI (un software
comercial de procesamiento de imágenes de teledetección).

Image classification techniques in remote sensing — GISGeography


URL: http://gisgeography.com/image-classification-techniques-remote-sensing/
Tutorial sobre los métodos de clasificación de imágenes más utilizados en telede-
tección.

ASTER Spectral library – Jet Propulsion Laboratory, NASA


URL: http://speclib.jpl.nasa.gov/
Biblioteca espectral ASTER que compila más de 2400 espectros de materiales
naturales y fabricados por el hombre. Estos espectros se pueden emplear para
clasificar (por análisis de mezclas espectrales) imágenes de teledetección.

Land Cover Institute (LCI) — USGS


URL: http://landcover.usgs.gov/usgslandcover.php
Sitio web del LCI en el que se ofrecen mapas de cubiertas de los EE.UU. genera-
das, principalmente, a partir de datos de teledetección.

277
Tema 8

La información multiespectral vista a través de la atmósfera

GUION-ESQUEMA

El espectro electromagnético

Las magnitudes radiométricas

Reflexión, transmisión y absorción

La absorción atmosférica

Correcciones atmosféricas
280
Radiancia
en el sensor

Radiancia
C UESTIONES DE TELEDETECCIÓN

difusa
Correc. atmosférica

Modelo

Nubes

Reflectividad
TOA Aerosoles
Nubes
Mie
Nitrógeno
Rayleigh

Aerosoles
Radiancia Radiancia
Nitrógeno
superficial lambertiana
Reflector
perfecto

Irradiancia
solar

Atmósfera
L A INFORMACIÓN MULTIESPECTRAL VISTA A TRAVÉS DE LA ATMÓSFERA

8.1. INTRODUCCIÓN

La mayoría de las imágenes ópticas usadas en teledetección ambiental son imágenes


multiespectrales, esto es, imágenes en las que se refleja la cantidad de energía electro-
magnética que un sensor recibe dentro de ciertos intervalos o bandas de longitudes de
onda. Esta radiación procede de las cubiertas que hay sobre de diferentes puntos de la
superficie terrestre. Para comprender lo que esto significa, es necesario revisar qué es el
espectro electromagnético (una parte del cual la forma la luz visible) y cómo se cuantifi-
ca la energía transmitida por la radiación de la forma más adecuada. Aunque la cantidad
de energía que se mide realmente es la recibida en cada elemento del sensor (en cada
píxel), lo que interesa saber son las propiedades del cuerpo que la reflejó o emitió. Para
ello hace falta reconstruir todo el camino que sigue la radiación a través de la atmósfera
hasta llegar al sensor, y “deshacerlo”: en esto consiste la corrección atmosférica, uno de
los puntos clave en la teledetección física.

8.2. CUESTIONES

1. ¿Qué determina que los fotones de una radiación electromagnética (en particular,
la luz) pueda ser detectados por un detector?

a) su longitud de onda
b) la intensidad del emisor
c) el tiempo durante el que iluminan el detector
d) todos ellos

2. ¿Cuál es la magnitud adecuada para caracterizar la cantidad de luz emitida por el


Sol? (es decir, la que emite al espacio)

a) intensidad radiante
b) irradiancia
c) radiancia
d) emitancia

281
C UESTIONES DE TELEDETECCIÓN

3. ¿Por qué se calibra la señal que capta un sensor remoto en términos de radiancia,
cuando lo que se mide es energía?

a) porque la radiancia no depende de la distancia al sensor


b) porque la radiancia no depende de la extensión del cuerpo que la emite
c) porque la radiancia no depende del tamaño del píxel
d) porque la radiancia no depende de la orientación del sensor respecto a la
superficie del cuerpo

4. La reflectividad de una cubierta es la fracción de la radiancia máxima con que se


podría observar (si fuese perfectamente blanca). ¿Cómo se determina esta radian-
cia máxima?

a) conociendo la intensidad radiante del sol


b) conociendo el flujo radiante solar (la constante solar)
c) conociendo la irradiancia solar sobre la cubierta
d) cualquiera de las anteriores

5. El valor numérico de la radiancia espectral en una banda, depende de. . .

a) el ancho de la banda
b) la resolución radiométrica
c) las unidades de la longitud de onda
d) todas las anteriores

6. La absorción de la radiación electromagnética por la atmósfera terrestre. . .

a) es mayor a menores longitudes de onda


b) es selectiva en determinadas bandas
c) depende de la magnitud de la irradiancia solar
d) depende de la concentración de aerosoles

282
L A INFORMACIÓN MULTIESPECTRAL VISTA A TRAVÉS DE LA ATMÓSFERA

7. La radiación electromagnética dispersada en la atmósfera terrestre no. . .

a) es mayor a menores longitudes de onda


b) es selectiva en determinadas bandas
c) depende de la magnitud de la irradiancia solar
d) depende de la concentración de aerosoles

8. La absorción atmosférica se corrige. . .

a) sumando a la radiancia TOA la transmisividad de la atmósfera en cada lon-


gitud de onda
b) restando a la radiancia TOA la transmisividad de la atmósfera en cada longi-
tud de onda
c) multiplicando la radiancia TOA por la transmisividad de la atmósfera en cada
longitud de onda
d) dividiendo la radiancia TOA por la transmisividad de la atmósfera en cada
longitud de onda

9. El método de corrección atmosférica por objeto oscuro consiste en estimar, a partir


sólo de la imagen, . . .

a) la radiancia dispersada por la atmósfera


b) la transmisividad de la atmósfera
c) la distribución de aerosoles sobre la escena
d) todas las anteriores

10. El método de corrección atmosférica 6S consiste en estimar, a partir de datos geo-


gráficos y de visibilidad en la zona de estudio, . . .

a) la radiancia dispersada por la atmósfera


b) la transmisividad de la atmósfera
c) la distribución de aerosoles sobre la escena
d) todas las anteriores

283
C UESTIONES DE TELEDETECCIÓN

Anexo: Otra pregunta sobre medidas multiespectrales

11. Cómo se realiza el proceso de comparación del espectro de un material medido


con un espectrorradiómetro con el espectro medido remotamente por el sensor de
un satélite, es decir, el proceso de corrección atmosférica por medidas de campo.
Concretamente, ¿cómo se compara la reflectividad medida por ambos métodos?,
¿cómo se corrigen las medidas obtenidas por el satélite?

a) al ser la reflectividad una magnitud relativa, ambas reflectividades son igua-


les
b) el coeficiente de proporcionalidad entre ambas reflectividades se obtiene di-
vidiendo el espectro de una cubierta medido remotamente y en el campo
c) ambas reflectividades están relacionadas linealmente, por lo que hacen falta
al menos dos espectros remotos y sus correspondientes sobre el terreno
d) ninguna de las anteriores

284
L A INFORMACIÓN MULTIESPECTRAL VISTA A TRAVÉS DE LA ATMÓSFERA

8.3. RESPUESTAS A LAS CUESTIONES

1. ¿Qué determina que los fotones de una radiación electromagnética (en


particular, la luz) pueda ser detectados por un detector determinado?

Respuesta: (d) Para que los fotones de una radiación electromagnética puedan ser de-
tectados por un detector, deben tener suficiente energía para producir transiciones
energéticas en ese detector; si no la tienen, el detector no los podrá detectar. La
energía de los fotones depende de la longitud de onda de la radiación electromag-
nética que transportan. Luego, tienen que llegar el suficiente número de fotones
para que el detector los pueda contar: el número de fotones viene dado por el flujo
radiante que llega al detector y por el tiempo.

Un detector mide la cantidad de energía que llega a él durante un tiempo dado, el tiempo
de integración. Lo que llega al detector es una onda electromagnética. Una onda electro-
magnética se forma por la excitación de un campo eléctrico que, al variar en el tiempo,
produce un campo magnético que, al variar en el tiempo, genera un campo eléctrico, etc.
De este modo, una perturbación inicial de uno de los campos se puede propagar a través
del vacío, y lo hace a la velocidad de la luz, c = 3 × 108 m/s. Por ejemplo, la antena de
un sensor radar genera esta clase de perturbación: la corriente eléctrica en ella genera un
campo magnético oscilante, que origina una onda electromagnética, el pulso emitido.
La frecuencia de las oscilaciones que generan los campos, indican la frecuencia de
la onda electromagnética, f . Esta frecuencia puede ser de Gigahertzs (109 ciclos por se-
gundo), en el caso de las ondas de radio o las microondas; de Terahertzs (1012 ciclos por
segundo) en el caso del infrarrojo térmico, etc. El espacio que recorre la onda electro-
magnética en cada ciclo es su longitud de onda, λ. La longitud de onda se relaciona con
la frecuencia mediante la relación λ f = c.
Cuando un sistema físico oscila naturalmente a la frecuencia con la que oscila la
onda electromagnética, absorbe su energía. La antena de un radar está sintonizada para
oscilar a la misma frecuencia con la que emite el pulso electromagnético: de ese modo
absorbe la energía del eco de vuelta y adquiere la información de la onda reflejada desde
la superficie. En el caso del espectro visible o térmico, los elementos que resuenan con
la frecuencia de la onda son los electrones que se encuentran en los átomos y moléculas
del material. En el detector del sensor, este material es un semiconductor que está sin-
tonizado (como la antena) para captar la energía de las ondas en sus bandas espectrales
de funcionamiento. Al producirse el intercambio de energía a un nivel microscópico, la
energía se transmite en paquetes llamados fotones o cuantos de luz.

285
C UESTIONES DE TELEDETECCIÓN

velocidad de la luz

tiempo

T 700
λ 700

espacio

Figura 8.1. Relación entre frecuencia, longitud de onda y velocidad de la luz para radiaciones del azul,
verde y rojo.

La energía de un fotón es proporcional a su frecuencia, E = h f . El valor h se llama


constante de Planck (en honor al físico que propuso su existencia en 1900) y es muy
muy pequeña: en unidades del Sistema Internacional, h = 6,62 × 10−34 J/s. La relación
E = h f indica que cuanto mayor sea la frecuencia, mayor la energía de los fotones; es
decir, cuanto menor sea la longitud de onda, mayor será la energía. Si los fotones no
tienen la energía suficiente para excitar una oscilación en los electrones que los haga
cambiar de nivel de energía, no se transferirá ninguna energía a ellos y la radiación
no será detectada. Del mismo modo, si los fotones son demasiado energéticos para un
cambio de energía dado en un electrón, tampoco podrán ser absorbidos: no está permitida
la absorción de una fracción de fotón.
Por lo tanto, una longitud de onda adecuada es un primer ingrediente para detectar
una radiación electromagnética. La otra condición es un número suficiente de fotones:
cada fotón es absorbido con una probabilidad dependiente de su frecuencia. Cuando ésta
es muy próxima a la correspondiente a la energía de transición entre dos niveles de ener-
gía del electrón en el material que forma el detector, la probabilidad es más alta; cuando
se aleja, la probabilidad es menor. Esta probabilidad, unida a la densidad de electrones
en el material que pueden llevar a cabo esa transición, proporciona el rendimiento cuán-
tico del detector a la correspondiente longitud de onda. Es decir, existirán materiales más
adecuados para fabricar un detector que detecte un rango de longitudes de onda dado.

286
L A INFORMACIÓN MULTIESPECTRAL VISTA A TRAVÉS DE LA ATMÓSFERA

Energía

λ= 400 nm
3 eV

λ= 500 nm
2.5 eV

λ= 600 nm
2 eV

e− e− e−

Figura 8.2. Relación entre la longitud de onda y la energía de los fotones.

Después, para que el detector detecte, necesita recibir un cierto número fotones, ya que
de ellos sólo detectará unos pocos. Este número de fotones que llegan al detector puede
alcanzarse, o bien, porque la fuente de la que proceden emita un gran número (la inten-
sidad radiante de la fuente) o bien porque los recibe durante mucho tiempo (tiempo de
integración del detector).

2. ¿Cuál es la magnitud adecuada para caracterizar la cantidad de luz emitida


por el Sol? (es decir, la que emite al espacio)

Respuesta: (a) Para caracterizar la energía radiante emitida por una fuente al espacio
se utiliza su intensidad radiante, la energía que emite dentro de un elemento de
ángulo sólido. Esta es una magnitud independiente de la distancia a la fuente.

Una fuente luminosa como el Sol o una bombilla emite, cada segundo, una cierta can-
tidad de energía electromagnética distribuida a lo largo del espectro electromagnético:
desde luz ultravioleta y visible, a radiación infrarroja térmica, también microondas y
ondas de radio, etc. Decimos que ese emisor emite una potencia radiante dada, W , la
energía por unidad de tiempo, y que ésta se distribuye en las diferentes bandas espectra-
les.

287
C UESTIONES DE TELEDETECCIÓN

Ángulo sólido

Ω Radiancia
Intensidad radiante Ω’

Flujo radiante
Irradiancia

Figura 8.3. Magnitudes radiométricas más utilizadas en teledetección.

Según las ondas electromagnéticas se alejan del emisor, la superficie del frente de la
onda aumenta, y esta potencia radiante se reparte sobre él: en cada metro cuadrado de
frente de onda viaja cada vez menor energía. Esta energía que se propaga por unidad de
superficie es la densidad de flujo radiante, J.
Para dar una magnitud que sea independiente de la distancia al emisor, basta consi-
derar cómo se reparte la energía dentro de un sector de una esfera que rodea a la fuente.
Dado que la onda se propagará manteniendo su frente paralelo a esta superficie, la ener-
gía se propagará dentro de un sector, sin salir de él. El tamaño de estos sectores se llama
ángulo sólido, y se mide en estereorradianes (sr). La totalidad de la esfera ocupa 4π es-
tereorradianes. La potencia que se transmite dentro de un sector de un estereorradián se
llama intensidad radiante, I. Un emisor como el Sol, que emite su potencia W igualmente
repartida en todas las direcciones, tendrá una intensidad radiante I = W /(4π).
Cuando la onda llega a una superficie, es decir, cuando esa superficie es iluminada
por la onda, la energía que llega a esa superficie por unidad de tiempo y unidad de área
se llama irradiancia, E. La irradiancia es igual a la densidad de flujo radiante J cuando
la superficie es paralela al frente de onda, pero si está inclinada respecto a él, el flujo de
energía radiante de la onda se reparte sobre más superficie. Es fácil ver que E = J cos θ,
donde θ es el ángulo que forma la superficie del frente de la onda con la superficie
iluminada. Dicho de otro modo, el ángulo que forman los rayos procedentes de la fuente
luminosa (pensemos en el Sol) con la perpendicular a la superficie. Por ello, cuando el
Sol está alto en verano, y sus rayos descienden casi perpendiculares, calientan más el
suelo (cos θ ≃ 1); sin embargo, cuando es invierno y descienden más oblicuamente, la
irradiancia es mucho menor (cos θ  1) y calientan menos.

288
L A INFORMACIÓN MULTIESPECTRAL VISTA A TRAVÉS DE LA ATMÓSFERA

3. ¿Por qué se calibra la señal que capta un sensor remoto en términos de


radiancia, cuando lo que se mide es energía?

Respuesta: (a) Aunque cada detector de un sensor mida la energía que es enfocada
sobre él por el sistema óptico, y dentro de la banda seleccionada por el analizador
(una rejilla de difracción o un filtro de color), esta energía se puede traducir
en radiancia espectral. La radiancia es la cantidad de energía electromagnética
emitida o reflejada por cada metro cuadrado de una cubierta dentro del ángulo
sólido del píxel en el que se recibe su luz. Al tratarse ambas de medidas relativas
(tanto por unidad de área como por unidad de ángulo sólido), la radiancia no
depende de la distancia del sensor a la cubierta.

Igual que la intensidad radiante I se usa para caracterizar cómo emite su potencia radian-
te W un emisor, independientemente de la distancia a él, o que la irradiancia E se use
para caracterizar cómo se reparte esa intensidad radiante sobre una superficie iluminada,
la radiancia L busca combinar ambas cuando la fuente de la luz no se puede tratar como
un punto, sino que es una superficie (figura 8.3).
La radiancia se define como la potencia radiante procedente de una unidad de super-
ficie que se observa procedente de una dirección dentro de una unidad de ángulo sólido
alrededor de dicha dirección. En un sensor, la potencia radiante emitida o reflejada por
unidad de superficie de una cubierta (que se llama la exitancia), es captada en cierta
dirección (la de propagación hacia el sensor) y dentro de un ángulo sólido equivalente
a un píxel. Esto describe la radiancia siguiendo el camino de la propagación de la luz:
desde la unidad de área de la superficie, en un ángulo sólido alrededor de una dirección;
no es necesario tener en cuenta siquiera la presencia del sensor, sólo lo que emite (la
superficie) y las direcciones en las que emite (el ángulo sólido).
Pero también se puede ver desde el sensor, yendo en la dirección inversa: dentro del
ángulo sólido correspondiente a un píxel, está llegando la potencia radiante emitida en
esa dirección desde el área a la que ese píxel corresponde en el terreno: ese área será
mayor, cuanto mayor sea el ángulo sólido del píxel, o cuanto más cerca esté el sensor
de la superficie. Y también será mayor cuanta más potencia radiante esté abandonando
cada metro cuadrado de la cubierta. Esta cantidad de energía radiante, es la que se mide
en un píxel.
En la figura 8.4 se puede ver geométricamente que ambas cantidades son la mis-
ma. Es decir, en cada píxel del sensor se está midiendo la radiancia emitida desde una
cubierta. Esta medida es, de este modo, independiente de la distancia sensor-cubierta.

289
C UESTIONES DE TELEDETECCIÓN

Ángulo sólido
Detector Ω
Igual cantidad
de energía radiante
viajando a lo largo
de ambos volúmenes

"upwelling"
Radiancia
Ángulo sólido

Píxel Radiancia

Figura 8.4. Equivalencia entre la radiancia captada por un sensor y la reflejada por una cubierta.

4. La reflectividad de una cubierta es la fracción de la radiancia máxima con que


se podría observar (si fuese perfectamente blanca). ¿Cómo se determina esta
radiancia máxima?

Respuesta: (c) La radiancia máxima que emitiría una cubierta perfectamente blanca
(es decir, que reflejase toda la luz que llega a ella en todas las bandas del es-
pectro) se puede relacionar con la irradiancia solar, es decir, con la cantidad de
energía radiante que llega a la superficie por unidad de tiempo y unidad de área.
Para poder relacionar ambas magnitudes, hay que suponer que la superficie di-
funde perfectamente la energía radiante que llega a ella, es decir, que la refleja
uniformemente distribuida en todas las direcciones; este tipo de modelo se llama
difusor Lambertiano y representa bastante bien las cubiertas más comunes.

La reflectividad de una cubierta es el porcentaje de energía radiante que refleja. Este


porcentaje se determina midiendo la energía que, efectivamente, refleja y comparándolo
con la que reflejaría una superficie perfectamente reflectante que recibiese la misma irra-
diancia solar. Esto no es sólo la forma teórica de realizar la medida de la reflectividad,
sino que es como se determina en el campo con un espectrorradiómetro. En este caso, se
dispone de una superficie perfectamente reflectante (corrientemente llamada “spectra-
lón”, por una marca comercial) sobre la que se mide la radiancia reflejada, colocándola
horizontalmente; a continuación, se mide la radiancia reflejada por una cubierta, desde
suficiente distancia como para captar un área significativa de la misma. El cociente entre
ambas radiancias, es la reflectividad de la cubierta.

290
L A INFORMACIÓN MULTIESPECTRAL VISTA A TRAVÉS DE LA ATMÓSFERA

En el caso de una imagen de un sensor remoto, calibrada a radiancia, no es posible


medir un “spectralón” (aunque existen blancos de referencia para la calibración del sen-
sor) para calcular la radiancia. Pero sí se puede calcular la radiancia que emitiría. Esta
radiancia se supone que, como sucede con la mayoría de las cubiertas terrestres, se diri-
ge con igual intensidad en todas las direcciones: las superficies no pulidas suelen tener
un comportamiento próximo a éste; se llaman reflectores lambertianos, porque siguen la
Ley de Lambert de la reflexión. Numéricamente, para obtener la radiancia lambertiana
(los Watios por estereorradián reflejados desde un metro cuadrado de superficie) a partir
de la irradiancia (los Watios incidentes sobre un metro cuadrado de superficie), basta
dividir ésta por π estereorradianes.
Las superficies pulidas como el vidrio o la superficie del agua, son reflectores espe-
culares: reflejan la luz en la dirección opuesta a aquella desde la que la reciben; los rayos
reflejados forman con la perpendicular a la superficie el mismo ángulo que los rayos
incidentes, por eso, sólo se reflejan hacia el emisor cuando están enfrentadas perpendi-
cularmente a él.
En realidad, las cubiertas terrestres se comportan de una manera intermedia entre
ambos modelos: aunque reparten aproximadamente igual su radiancia en todas direccio-
nes, pueden emitir más o menos en la dirección del sensor dependiendo del ángulo de
incidencia solar. Esto sirve, por ejemplo, para diferenciar tipos de vegetación: la mane-
ra de orientarse las hojas de éstas, hace que predomine la componente especular o la
lambertiana, y esta orientación puede ayudar a distinguir diferentes especies arbóreas en
imágenes de sensores que adquieren sus imágenes desde varios ángulos de visión (co-
mo CHRIS/PROBA, ASTER o SPOT). La función que caracteriza cuánto de cada tipo
de reflectividad manifiesta una cubierta (que puede ser diferente en diferentes longitu-
des de onda) se llama BRDF (bidirectional reflectance distribution function, función de
distribución de la reflectividad bidireccional). Conociendo la forma de esta función, es
posible calcular productos de reflectividad que representen la observada cuando el sol
y el sensor están ambos sobre el cenit del lugar observado; esto es lo que contienen los
productos corregidos de BRDF de MODIS, por ejemplo.
En todo lo anterior, no hemos mencionado un factor importante a la hora de calcular
la reflectividad a partir de una imagen de satélite calibrada en radiancia: la absorción y
dispersión de la energía radiante por la atmósfera terrestre. Estos efectos hay que des-
contarlos de la radiancia medida por el sensor en el tope de la atmósfera (TOA, top of
the atmosphere), si no se estaría calculando una “reflectividad conjunta” de la atmósfera
y el objeto de interés (la llamada reflectividad TOA, que a veces se incluye en los pro-
ductos de teledetección). Este cálculo que “elimina” la atmósfera, se llama corrección
atmosférica.

291
C UESTIONES DE TELEDETECCIÓN

5. El valor numérico de la radiancia espectral en una banda, depende de. . .

Respuesta: (c) La radiancia es la cantidad de energía radiante emitida/reflejada por


unidad de superficie y por unidad de ángulo sólido; si no se indica más, esta
energía radiante se refiere a todo el espectro. Cuando se refiere a una banda, para
que no dependa de la configuración de ésta (es decir, del sensor), se divide por
la anchura de la banda: la diferencia entre la mayor y la menor longitud de onda
detectada por el detector correspondiente. De este modo, la radiancia espectral no
depende de la anchura de la banda del sensor, aunque su valor numérico depende
de las unidades en que se mida.

Las magnitudes radiométricas (intensidad radiante, irradiancia, radiancia) se dan en tér-


minos de potencias emitidas, reflejadas o medidas; es decir, en términos de energía. Sin
embargo, estas energías casi siempre se detectan sólo dentro de una banda espectral. De
hecho, se mide así para caracterizar un emisor o una cubierta y conocer cómo se distri-
buye la energía que emite, que refleja o que absorbe (la que no refleja) en función de
la longitud de onda: esto se llama su espectro, de emisión, de reflexión o de absorción.
Para que esta distribución no dependa del instrumento de medida, nos podemos imaginar
que en espectro está dividido en intervalos de longitud de onda de un ancho de banda
unidad y dar el valor de la unidad radiométrica a partir de la energía recibida en cada
una de esas bandas ideales. Esto define las intensidades radiante, irradiancia, radiancia,
etc. (magnitudes radiométricas, en general) espectrales.
El valor numérico de estas magnitudes espectrales depende, por supuesto, de la uni-
dad que hayamos tomado para las bandas de anchura unidad. Habitualmente, se toma
como unidad el micrómetro (μm) y a veces el nanómetro (nm). La magnitud espectral
por micrómetro será entonces 1000 veces mayor que la magnitud espectral por nanó-
metro. Qué unidad se debe emplear depende, principalmente, del rango espectral en el
que nos movamos. En los sensores ópticos, la energía procede del Sol; la irradiancia
espectral solar sobre la superficie terrestre es máxima alrededor de los 500 nm, donde
vale entre 1,3 y 1,6 Wm−2 nm−1 ; desde ahí decae rápidamente según aumenta la lon-
gitud de onda: en la ventana atmosférica existente en torno a los 2200 nm (en ella, la
atmósfera apenas absorbe nada de la energía radiante del Sol), esta irradiancia espectral
se reduce a apenas 0,05 Wm−2 nm−1 . Está claro que se puede trabajar con números de
radiancia reflejada más cómodos (que serán fracciones de este valor de la irradiancia) si
se dan en Wm−2 nm−1 en el visible y el NIR, y si se dan en Wm−2 μm−1 en el SWIR:
por ejemplo, una radiancia espectral de un suelo en este rango sería del orden de los
0,007 Wm−2 nm−1 = 7 Wm−2 μm−1 .

292
L A INFORMACIÓN MULTIESPECTRAL VISTA A TRAVÉS DE LA ATMÓSFERA

  









 
() )

# $*


+

!,



&  -&


+


. 

!

 ! "  #




 $%

!
! &!

!' !

 !


         

  

Figura 8.5. Irradiancia espectral solar de referencia. Fuente: Wikimedia Commons, adaptada de Anthony
Beck y otros (CC-BY-SA).

Cuando se trata con magnitudes radiométricas relativas, este problema de las unida-
des no aparece. Por ejemplo, la reflectividad espectral es la fracción de energía radiante
que una cubierta refleja dentro de una banda unidad alrededor de una longitud de onda;
que la banda sea más ancha o más estrecha, no influye en el resultado (desde el punto
de vista de las unidades; otra cosa sería desde el punto del ancho de banda real de un
sensor). Análogamente, la absortividad espectral es la fracción de energía radiante que
absorben los pigmentos presentes en una cubierta; de nuevo, al ser una fracción, no le
afecta la unidad en que indiquemos las longitudes de onda. Lo que sí se suele cambiar en
estas magnitudes es respecto a qué se indica la fracción de energía: respecto a la unidad,
o respecto al 100 %. La elección depende de los valores típicos con que nos encontre-
mos. En el caso de la vegetación o de suelos, es frecuente encontrar reflectividades en
“tanto por uno”: la reflectividad de la vegetación en el verde está en torno a 0.1 y la de
un suelo arenoso, en torno a 0.2. Sin embargo, la reflectividad (no especular) del agua
clara (sin materia en suspensión) en el verde se suele dar como 5 %, en lugar de como
0.05 (“por uno”).

6. La absorción de la radiación electromagnética por la atmósfera terrestre. . .

Respuesta: (b) La atmósfera, que parece muy transparente a nuestros ojos, contiene
gases que absorben determinadas longitudes de onda. Uno de los principales ab-
sorbentes es el agua, cuyas moléculas absorben los fotones en varias bandas del

293
C UESTIONES DE TELEDETECCIÓN

0.6 Visible NIR Infrarrojo medio


1 2 3 4 Vegetación 5 7
0.5

Suelo
Reflectividad

0.4

0.3

0.2

0.1

Agua
0.0
500 1500 2500
Longitud de onda (nm)

Figura 8.6. Esquema de los espectros de reflexión típicos del agua, la vegetación y el suelo desnudo. Se
muestran, superpuestas, las bandas del ETM+ de Landsat.

infrarrojo cercano, de onda corta y térmico. En otras bandas, la energía de los


fotones no es la adecuada para causar transiciones energéticas en las moléculas
de agua y, por tanto, la atmósfera es transparente entre ellas.

La absorción de la radiación electromagnética se produce porque la energía de sus fo-


tones se transfiere a los electrones de las moléculas y átomos, de forma que éstos (las
moléculas y átomos) pueden “saltar” a estados energéticos diferentes de aquellos en los
que se encuentran. La disponibilidad de estados de energía a un “salto” igual al de la
energía del fotón hace que un material sea absorbente (opaco) o transparente.
Por ejemplo, el vidrio es transparente a la luz visible, porque no hay apenas procesos
en los que los electrones puedan ser excitados por los fotones entre 400 y 700 nm. Sin
embargo, si se añaden impurezas de hierro (Fe2+ ) en las que los electrones libres de
estos átomos (llamados “centros de color”) absorben los fotones con longitudes de onda
mayores de 500 nm y menores de 350 nm, el vidrio se volverá verde azulado (el intervalo
entre ambas longitudes de onda); si en lugar de hierro, se añaden impurezas de cobre,
el vidrio será azul; si manganeso, color ámbar. De este modo, se fabrican los vidrios de
distintos colores.
En la atmósfera terrestre sucede algo parecido: los pigmentos que le dan “color”,
en este caso, son las moléculas de los distintos gases que la forman. El nitrógeno es

294
L A INFORMACIÓN MULTIESPECTRAL VISTA A TRAVÉS DE LA ATMÓSFERA

prácticamente transparente en todo el espectro óptico, pero el oxígeno, y en particular


su variante (alótropo) el ozono, absorbe los fotones de longitudes de onda inferiores a
los 400 nm (en el ultravioleta); el oxígeno también absorbe en una banda muy estre-
cha alrededor de los 760 nm. El siguiente “pigmento” atmosférico, es el vapor de agua:
presenta múltiples bandas debidas a que sus moléculas vibran y absorben fotones que
excitan esas vibraciones o combinaciones de ellas. La característica de las moléculas de
agua (H2 O) es que, a diferencia de otras en la atmósfera, el tamaño de sus átomos es
muy grande, por lo que los electrones en ellas están “tensados” como muelles ligando el
átomo de oxígeno y los de hidrógeno; por eso las moléculas vibran, y pueden absorber
fotones con diferentes energías. Las bandas de absorción del vapor de agua se repiten
a lo largo de todo infrarrojo cercano, medio, onda corta, hasta en el térmico; entre las
bandas de absorción, existen ventanas atmosféricas, en las que la atmósfera es trans-
parente. En el rango de las microondas, la atmósfera vuelve a ser transparente por el
vapor de agua. El otro gas que absorbe radiación electromagnética en la atmósfera es el
dióxido de carbono, en particular, en bandas en torno a 2,7 μm (que coincide con una
banda de absorción del H2 O) y 4,3 μm (que coincide con una de las ventanas del H2 O).
Otras bandas de absorción menos intensas, se encuentran en el NIR (por ejemplo, entre
1558 − 1594 nm, en otra banda de absorción del H2 O). La medida de la concentración
del CO2 se lleva a cabo, precisamente, midiendo la absorción en estas bandas; ejemplos
de sensores son el Schiamachi del ENVISAT y el futuro CarbonSAT de la ESA.

7. La radiación electromagnética dispersada en la atmósfera terrestre no. . .

Respuesta: (b) La radiación electromagnética puede ser absorbida por la atmósfera,


puede ser transmitida o puede ser dispersada. En la dispersión, los fotones co-
lisionan con moléculas (principalmente de nitrógeno) o partículas más grandes
(como los aerosoles) y continúan su camino, sólo que en otra dirección distinta de
la inicial. Al tratarse de colisiones, no existen “bandas” delimitadas dentro de las
que este efecto sea mayor, sino que depende sólo de la relación entre la longitud
de onda de la radiación y el tamaño de las partículas.

La dispersión atmosférica es un fenómeno al que estamos habituados: es la razón, por


ejemplo, por la que el cielo es azul; o por la que las nubes son blancas, o por la que los
atardeceres son púrpura (sobre todo, en las grandes ciudades).
El nitrógeno es el gas más abundante en la atmósfera terrestre y sus moléculas dis-
persan la radiación electromagnética que atraviesa la atmósfera. La interacción entre los
fotones y las moléculas de nitrógeno es mayor cuanto más pequeña es la longitud de

295
C UESTIONES DE TELEDETECCIÓN

Figura 8.7. Bandas de absorción de los principales compuestos atmosféricos. Fuente: Wikimedia
Commons. Imagen creada por Robert A. Rohde / Global Warming Art, CC-BY-SA.

onda; de hecho, si el tamaño de la molécula de nitrógeno es a (= 0,3 nm) y la longitud


de onda de los fotones es λ, la probabilidad de que se dé esta colisión, es proporcional
a (a/λ)4 . Tras la colisión, los fotones pueden salir despedidos en cualquier dirección.
Esta misma interacción se da con otras moléculas que se encuentran en la atmósfera en
menor cantidad y el resultado es el mismo: los fotones con menor longitud de onda son
más dispersados que los fotones con mayor longitud de onda; por eso vemos el cielo
azul (la longitud de onda más corta de las que somos capaces de percibir). Este tipo de
dispersión se llama de Rayleigh, en honor al físico británico Lord Rayleigh; lo carac-
terístico de ella es que la longitud de onda de los fotones es grande comparada con el
tamaño de las moléculas.
Debido a la dispersión Rayleigh, en las imágenes de los sensores remotos corres-
pondientes a bandas en el azul siempre hay una parte de la señal que procede de esta
dispersión. La fórmula de Rayleigh permite estimar su intensidad: si la banda azul co-
rresponde a 0,4 μm y el rojo a 0,7 μm, la señal dispersada en el azul será 10 veces mayor
que en el rojo. No obstante, en la atmósfera se dan otras dispersiones más importantes
que la de Rayleigh, y ésta no se suele corregir.

296
L A INFORMACIÓN MULTIESPECTRAL VISTA A TRAVÉS DE LA ATMÓSFERA

Figura 8.8. Dispersión atmosférica cerca del horizonte. Puesta de sol sobre el Océano Pacífico vista desde
“Campus Point”, cerca de la Universidad de California en Santa Barbara. Fuente: Wikimedia Commons,
imagen de Dhilung Kirat, CC-BY.

Cuando las partículas son muy grandes comparadas con la longitud de onda, como
sucede con las gotas de agua o los cristales de hielo en las nubes, los fotones simplemen-
te se reflejan en ellas; debido a su forma esférica, pueden ser reflejados en cualesquiera
direcciones (o, también, atravesar las gotas). Esto es también dispersión, pero indepen-
diente de la longitud de onda de los fotones, que es mucho más pequeña que el tamaño
de las gotas, entre 10 − 20 μm. Por esta razón (y porque el espectro visible se encuentra
lejos de las bandas de absorción del agua líquida, que empiezan en el infrarrojo cercano),
vemos las nubes sin ningún color particular: blancas o grises.
Entre estos dos límites de tamaños de dispersores, muy pequeños o muy grandes,
comparados con la longitud de onda de la onda electromagnética, se encuentran los
aerosoles: partículas sólidas en suspensión de tamaño inferior a 1 μm. Los aerosoles dis-
persan la radiación electromagnética con una intensidad intermedia entre los dos casos
anteriores: en lugar de depender con la longitud de onda como (a/λ)4 (límite de Ray-
leigh) o como (a/λ)0 (es decir, independiente de la longitud de onda), lo hacen de una
forma aproximadamente dada por (a/λ)k , donde k varía entre 0 y 4 (y depende del tipo
de aerosoles). Este comportamiento intermedio se llama régimen de Mie, en honor al
físico alemán Gustav Mie que lo describió, y la fórmula, fórmula de Angstrom, en honor
al físico sueco padre de la espectroscopía.

297
C UESTIONES DE TELEDETECCIÓN

En teledetección, para estimar qué parte de la señal recibida en una banda procede
de la dispersión por los aerosoles atmosféricos, se suelen emplear relaciones de este
estilo. El tipo de aerosol, marítimo, costero, continental, etc., determinará el exponente
k. Sabiendo que en una banda el efecto es menor que en otras, y sabiendo cuál es la
proporción entre esos efectos, es posible eliminar los aerosoles de la ecuación o, también,
medirlos.

8. La absorción atmosférica se corrige. . .

Respuesta: (d) La absorción atmosférica hace que, en lugar de llegar al sensor una
cantidad de energía, llegue una cantidad menor; a lo largo del camino óptico que
sigue la luz reflejada por la cubierta terrestre, parte de los fotones son absorbidos
por los gases de la atmósfera o dispersados por dichos gases o las partículas en
suspensión (gotas de agua, aerosoles). El factor que relaciona la radiancia que
parte desde la superficie con la radiancia que llega al sensor (situado encima de
la atmósfera, TOA) en cada longitud de onda, es la transmisividad atmosférica;
por lo tanto, para obtener la radiancia en superficie, hay que dividir la medida
por el sensor por la transmisividad atmosférica correspondiente a cada una de
sus bandas.

La radiación electromagnética emitida por el Sol llega a la Tierra y atraviesa su atmós-


fera. Podemos visualizarla como un conjunto de rayos, por cada uno de los cuales se
transmite un flujo de energía Φ0 . En su camino por la atmósfera, al cruzarse con los
gases que la forman, el rayo pierde energía debido a que ésta es absorbida o dispersa-
da por las moléculas; en cada punto, proporcionalmente a la densidad del gas presente
en él. Esto hace que el flujo de energía en cada rayo disminuya exponencialmente, des-
de su valor inicial en la parte superior de la atmósfera hasta un valor Φs = Φ0 e−τ . El
valor τ se llama espesor óptico de ese gas, y el valor T = e−τ la transmisividad de la
atmósfera que contiene ese gas. Como la atmósfera contiene varios gases (nitrógeno,
oxígeno, vapor de agua, CO2 , etc.) cada uno de estos gases contribuye con su propio
espesor óptico; el espesor óptico total, τ = τN2 + τO2 + τH2 O + τCO2 + . . ., es el que nos
indica la transmisividad total de la atmósfera. Por supuesto, cada uno de estos espesores
ópticos depende de la longitud de onda de la radiación electromagnética y su interacción
con el gas. Por las propiedades de la potenciación, la transmisividad se podrá escribir
como un producto de transmisividades (para cada longitud de onda): una debida a cada
componente atmosférico, T = TN2 · TO2 · TH2 O · TCO2 · · ·.

298
L A INFORMACIÓN MULTIESPECTRAL VISTA A TRAVÉS DE LA ATMÓSFERA

Un gas como el nitrógeno o el oxígeno, dispersará los fotones en varias direcciones,


apartándolos del rayo original; no obstante, esos fotones pueden llegar al suelo en lo que
se llama radiación difusa. Un gas como el vapor de agua, absorberá la energía de fotones
con energías adecuadas (dentro de sus bandas de absorción) y la invertirá en “ponerse
en movimiento”: vibrará, rotará, etc.; esta energía la cederá luego en forma de calor a la
atmósfera que lo rodea. Los aerosoles también entrarán en esta ecuación: también elimi-
narán fotones de su trayectoria recta a lo largo del rayo; los dispersarán, los reflejarán
hacia el sensor (como hacen las nubes), o hacia otras partes de la superficie terrestre.
Debido a la dispersión, la propia atmósfera se convierte en una fuente de radiación elec-
tromagnética que llega al suelo desde múltiples direcciones, aportando un flujo radiante
Φd , debido a la radiación dispersa.
Por lo tanto, al suelo llegará un flujo total (el que consigue llegar “dentro” del rayo y
el que procede de la luz dispersada) Φ0 e−τ + Φd . Cuando este flujo llega a la superficie
aporta a ésta una energía por unidad de tiempo y unidad de área o irradiancia que, de
igual forma, podemos escribir: E = E0 e−τ + Ed . Aquí E0 sería la irradiancia que habría
llegado si no hubiese atmósfera y Ed es la causada por la radiación difusa (en el visible,
ésta se manifiesta en color azul del cielo).
La irradiancia que llega a la superficie es reflejada difusamente, de forma que sube
(“upwelling”) desde ella una radiancia reflejada dada por Lr = π1 RE: el valor R es la
reflectividad de la cubierta, y el coeficiente 1/π procede de cómo se reparte la energía en
todas las direcciones; ésta es la descripción del modelo lambertiano de reflexión difusa.
Si seguimos, ahora, el camino de esta radiancia desde la superficie hacia el sensor,
de nuevo vuelven a aparecer una radiancia transmitida (afectada por otro coeficiente

T ′ = e−τ , análogo al anterior, pero correspondiente a otra trayectoria de los rayos a
través de la atmósfera) y una radiancia dispersada Ld , que procede tanto de la primera
dispersión de la energía procedente del Sol (la mayor parte), como de esta radiancia que
sube desde la superficie (mucho menor). En conclusión, al sensor llega una radiancia

1 ′
Ls = R(E0 e−τ + Ed )e−τ + Ld
π

Los algoritmos de corrección atmosférica intentan corregir los efectos variables de


la atmósfera, de modo que, a partir de la radiancia que llega al sensor Ls , se pueda
estimar la radiancia que, efectivamente, parte de la superficie, Lr . Esto requiere estimar

las transmisividades atmosféricas, T = e−τ y T ′ = e−τ , y las irradiancia (Ed ) y radiancia
(Ld ) dispersadas.

299
C UESTIONES DE TELEDETECCIÓN

Sol
Sensor

Flujo radiante Dispersión


solar atmosférica

Radiación
difusa
Radiancia
reflejada

Figura 8.9. Contribuciones de la energía radiante reflejada en la Tierra y la radiación difusa dispersada por
la atmósfera a la señal captada por un sensor.

Cuando se conoce todo esto, se puede calcular la reflectividad de la cubierta:


Ls − Ld
R=π
T T E 0 + T ′ Ed

Esta expresión, o la anterior, se suelen llamar fórmulas de corrección atmosférica. Lo


interesante sobre ellas es que permiten conocer el valor R, que es característico de la cu-
bierta en la superficie terrestre e independiente de las perturbaciones y errores de medida
que introduce la atmósfera en las medidas remotas, de ahí su nombre.

9. El método de corrección atmosférica por objeto oscuro consiste en estimar, a


partir sólo de la imagen, . . .

Respuesta: (a) La corrección de objeto oscuro es el nombre genérico que se les da a


varios métodos de corrección atmosférica que utilizan información de la propia
imagen para determinar algunos de los coeficientes de la ecuación de corrección
atmosférica. En particular, si suponemos que en determinada longitud de onda
(por ejemplo, el NIR) hay cubiertas que absorben toda la energía radiante proce-
dente del Sol (por ejemplo, el agua), podemos deducir que toda la radiancia que
llega aparentemente al sensor de esa cubierta procede de la dispersión atmosféri-
ca. De este modo, el método del objeto oscuro permite determinar la contribución
de la dispersión atmosférica a la señal del sensor en esa banda y, mediante mo-
delos aproximados, en las bandas próximas a ella.

300
L A INFORMACIÓN MULTIESPECTRAL VISTA A TRAVÉS DE LA ATMÓSFERA

(Seguiremos la exposición de Chavez 1996 para introducir paso a paso las métodos apro-
ximados de corrección atmosférica).
La forma más simple de corrección atmosférica consiste en calcular directamente
la reflectividad aparente desde el tope de la atmósfera, la llamada reflectividad TOA.
Esta reflectividad es sólo el cociente entre la radiancia recibida en el sensor Ls y la que
llegaría en ausencia de atmósfera desde la superficie si ésta fuera perfectamente blanca
(un reflector lambertiano perfecto):
Ls
RT OA = π
E0
Aquí E0 es la irradiancia solar que llega a la superficie, y depende de la distancia angular
del Sol al cenit (del ángulo cenital solar, θ): E0 = Jr cos θ. Jr es la densidad de flujo
radiante procedente del Sol, que se puede suponer constante (aunque varía ligeramente
con el ciclo solar y con la distancia de la Tierra al Sol). Este método tan simple no
sirve, sin embargo, para la mayoría de los estudios. ¿Por qué? Porque la reflectividad
que calcula caracteriza la cubierta vista a través de la atmósfera en ese momento, y la
atmósfera de la Tierra es altamente cambiante.
Una mejor estimación de la reflectividad de una cubierta consiste en descontar la
parte de la radiancia que llega al sensor dispersada “hacia atrás” por la atmósfera: la ra-
diación solar que llega a la atmósfera rebota en los aerosoles y las finas nubes de ésta, y
llega al sensor. Esta radiancia en exceso se puede determinar si hay una parte de la ima-
gen que debería ser “negra”, porque no refleje apenas energía en cierta banda del sensor.
Este “píxel negro” suele ser el agua en el infrarrojo cercano, donde su reflectividad se
sabe que es menor de un 1 %. Así se estima la reflectividad como
Ls − Ld
RDO = π
E0
donde Ld es esa radiancia recibida del “píxel negro”. Sin embargo, en las demás bandas
ese píxel no será negro, por lo general. Entonces, se asume que, si se conoce la radiancia
Ldλ dispersada en una longitud de onda λ, se puede aplicar la ley de Angstrom para hallar
la radiancia dispersada Ldλ′ en otra longitud de onda cercana, λ′ : Ldλ′ = Ldλ (λ′ /λ)b . El
exponente b se llama exponente de Angstrom, y se debe determinar para cada intervalo
de longitudes de onda y para cada composición de los aerosoles de la atmósfera (que son
los principales responsables de la radiación difusa recibida en el píxel “negro”). Otro
elemento que no tiene en cuenta esta corrección es que la atmósfera no es perfectamen-
te transparente, de manera que tanto la irradiancia que llega a la superficie (E0 ) como
la radiancia que llega al sensor (Ls ) han sido previamente atenuadas por la absorción
atmosférica.

301
C UESTIONES DE TELEDETECCIÓN

Para tener en cuenta la atmósfera, se puede suponer que ésta es la misma en toda la
escena. Si esto es así, se puede conocer la transmisividad de esa atmósfera en cada una
de las bandas del sensor conociendo su espesor óptico y teniendo en cuenta el camino
óptico que recorren los rayos que “bajan” a la superficie desde el Sol (“downwelling”) y
los que “suben” desde la superficie hacia el sensor (“upwelling”): este camino óptico de-
pende del ángulo que Sol y satélite forman con el cenit vistos desde el punto observado.
El espesor óptico que atravesará un rayo será menor cuanto más vertical sea, y se hará
mucho mayor si atraviesa la atmósfera oblicuamente. Así, si el espesor óptico mínimo
de esa atmósfera estándar es τ0 , el de un rayo procedente del Sol, será τ = τ0 / cos θ.
Análogamente, si desde el punto de la superficie el sensor se observa a una distancia
angular del cenit θ′ , el espesor óptico que recorrerán los rayos reflejados por esa super-
ficie hasta el sensor será τ′ = τ0 / cos θ. La transmisividad de la atmósfera será, en cada

caso: T = e−τ0 / cos θ (“downwelling”) y T ′ = e−τ0 / cos θ (“upwelling”). La reflectividad
estimada es, entonces:
Ls − Ld
Re = π
E0 T T ′

Los valores de τ0 en las diferentes bandas del sensor se pueden medir por radiometría
de campo en el momento del paso del satélite sobre un punto de la escena. No obstante,
lo habitual es calcularlos suponiendo que la atmósfera en ese instante es una atmósfera
estándar: con una composición gaseosa media (la correspondiente a la latitud, e incluso
a la época del año, en los modelos más avanzados), con una presencia de aerosoles con
unas propiedades específicas (dependientes de la ubicación de la escena en el mar, cerca
del mar, o en el interior del continente, o teniendo en cuenta medidas de visibilidad en
el momento de la observación, en los modelos más complejos).

10. El método de corrección atmosférica 6S consiste en estimar, a partir de datos


geográficos y de visibilidad en la zona de estudio, . . .

Respuesta: (d) El modelo 6S es un modelo físico que trata de calcular la señal que
recibiría un sensor al reflejarse la luz del espectro solar sobre una cubierta en
la superficie terrestre. El modelo realiza los cálculos en dos partes: la primera
consiste en calcular las propiedades de la atmósfera (transmisividad y radiación
difusa causada por los aerosoles) a partir de datos conocidos u observados en el
momento de la medida del sensor; la segunda consiste en calcular cómo afecta la
presencia de esa atmósfera a la señal recibida por el sensor y, basándose en eso,
calcular la reflectividad de las cubiertas a partir de la señal realmente medida
por el sensor.

302
L A INFORMACIÓN MULTIESPECTRAL VISTA A TRAVÉS DE LA ATMÓSFERA

El modelo S6 recibe su nombre de su descripción Second Simulation of a Satellite Signal


in the Solar Spectrum (segunda versión de la simulación de la señal recibida por un
satélite en el espectro solar). Se trata de un modelo de transferencia radiativa, es decir,
de un modelo matemático que pretende calcular la energía que es absorbida, dispersada,
reflejada, etc. por la atmósfera y la superficie terrestre desde que llega del Sol, hasta que
la recibe el sensor. El modelo fue desarrollado para su uso en la corrección atmosférica
del sensor MODIS por el Laboratorio de Óptica Atmosférica de la Universidad de Lille,
en Francia; esa primera versión del modelo era la S5. Sin embargo, es un modelo general
que se puede aplicar a múltiples sensores, conociendo sólo datos sobre ellos como las
posiciones y anchuras de sus bandas.
La mejor manera de explicar lo que requiere (los datos de entrada), lo que calcula y
lo que proporciona (la información de salida) el modelo es mediante la interfaz web que
se proporciona aquí: http://6s.ltdri.org/cgi-bin/run6s.cgi (esta interfaz es poco amigable,
pero está orientada a aprender los fundamentos del método de corrección, más que a
aplicarlo; los softwares de teledetección proporcionan diálogos supuestamente más sen-
cillos).
Lo primero que se necesita saber es la fecha, el lugar de la observación y el saté-
lite desde el que se adquirió la imagen: esto informa sobre la geometría del problema,
es decir, sobre los caminos ópticos que siguieron los rayos solares hasta la superficie
observada, y desde ésta hasta el sensor.
Lo segundo que pregunta la aplicación es qué modelo de atmósfera es el más ade-
cuado para la escena. Aunque la composición de la atmósfera es bastante constante, ésta
varía ligeramente en función de la latitud y también a lo largo del año (entre el verano y
el invierno), sobre todo en las capas más cercanas a la superficie; también varía la pre-
sión atmosférica, que se relaciona con el espesor óptico “vertical” (por ejemplo, con la
cantidad de vapor de agua que se encuentra en la vertical de un lugar). Otro parámetro
importante es el modelo de aerosol que corresponde a la escena. Dependiendo del en-
torno geográfico, los tamaños y composición de los aerosoles serán unos u otros, y esto
afecta al modo en que interactúan con la luz. No dispersa la radiación solar igual un ae-
rosol marino (compuesto de sales y con tamaños uniformes y pequeños), que un aerosol
continental (compuesto de granos de silicio y con tamaños más variables y grandes), que
un aerosol costero (mezcla, en cierto modo de los dos anteriores), que un aerosol urbano,
etc. Para conocer la densidad de partículas suspendidas en cada uno de estos modelos, el
6S pide la visibilidad (en km) en el momento de medida.
Para estimar la cantidad de atmósfera que se debe tener en cuenta sobre el objetivo
de estudio, el modelo 6S necesita saber la altitud (en metros sobre el nivel del mar), tanto

303
C UESTIONES DE TELEDETECCIÓN

del sensor (normalmente estará a bordo de un satélite, fuera de la atmósfera) como de la


localización de la imagen. Cuanto más elevada esté esa localización, menos atmósfera
habrá sobre ella y menores serán los efectos sobre la imagen; cuanto más cercana al nivel
del mar, mayores serán los efectos de la absorción.
Lo siguiente que se necesita saber para calcular la corrección atmosférica es la lon-
gitud de onda de la luz. El efecto de la atmósfera dependerá de la banda espectral, tanto
de su posición como de su anchura, porque de eso dependerá la absorción atmosférica
(que puede hacer que la atmósfera sea prácticamente opaca a determinadas longitudes
de onda) y también la dispersión atmosférica (que tenderá a dispersar más las longitudes
de onda menores).
Por último, el modelo que simula la señal que recibiría un sensor al reflejarse la luz
del espectro solar sobre una cubierta en la superficie terrestre, necesita conocer la forma
en que esta superficie (la cubierta en ella) refleja la luz. Habitualmente se supone que la
reflexión es “lambertiana”, esto es, que la luz que llega a la superficie se distribuye en
todas las direcciones; se dice que la superficie es ópticamente muy rugosa. Sin embargo,
algunas cubiertas como la vegetación o el hielo o el agua con sólidos en suspensión no
distribuyen tan homogéneamente la luz que les llega: no son reflectores perfectos.
Con todos estos parámetros, el modelo puede, conocido el espectro solar fuera de
la atmósfera (que es uno de los datos estándar que posee el modelo) y el espectro de
reflectividad de una cubierta, calcular cuál sería el espectro o la señal en determinadas
bandas espectrales que se recibiría de ésta en el sensor multi- o hiperespectral. Para
calcular el valor de la reflectividad, el modelo se ejecuta a la inversa: se parte del espectro
medido por el sensor y, teniendo en cuenta la transferencia radiativa de la atmósfera que
se ha ajustado, se busca el espectro de reflectividad que mejor corresponde a esa medida.

304
L A INFORMACIÓN MULTIESPECTRAL VISTA A TRAVÉS DE LA ATMÓSFERA

ANEXO

11. Cómo se realiza el proceso de comparación del espectro de un material


medido con un espectrorradiómetro con el espectro medido remotamente por
el sensor de un satélite, es decir, el proceso de corrección atmosférica por
medidas de campo. Concretamente, ¿cómo se compara la reflectividad medida
por ambos métodos?, ¿cómo se corrigen las medidas obtenidas por el satélite?

Respuesta: (c) Las dos reflectividades están linealmente relacionadas en el caso de ser
el sensor hiperespectral. No obstante, cuando es multiespectral, es decir, cuando
sus bandas son anchas (de decenas de nanómetros), esa relación lineal es sólo una
(muy) buena aproximación, que se debe usar con cuidado si buscamos correccio-
nes muy precisas. Por lo general, para determinar los coeficientes de una relación
lineal (y poder, entonces, hacer la corrección atmosférica) se deben medir al me-
nos dos espectros de campo que correspondan a espectros de píxeles en la imagen
remota; en la práctica se tienen en cuenta más pares de espectros remotos y de
campo, para mitigar los efectos del error de medida.

La radiancia espectral recibida en un sensor remoto L′′ (λ) procedente de una cubierta se
puede relacionar con la radiancia que se mediría en la superficie terrestre L′ (λ) por una
ecuación de la forma
L′′ (λ) = τ(λ)L′ (λ) + La (λ)
En esta ecuación, la contribución La (λ) representa la radiancia que se origina a lo largo
de la columna atmosférica por la dispersión de la luz solar en ella (tiene varias compo-
nentes: la de Rayleigh, la de aerosoles, etc.). El factor τ(λ) es la transmisividad atmos-
férica, es decir, la fracción de la radiancia que a pesar de los procesos de dispersión y de
absorción atmosférica, llega al sensor (por eso multiplica a la radiancia “en origen”, L′ ).
La ecuación anterior es lineal, de la forma
y = ax + b
es decir, es la ecuación de una recta; y, se pueden despejar los coeficientes a y b cono-
ciendo dos puntos de esa recta. Despejar estos dos coeficientes sería, en teledetección,
calcular los coeficientes desconocidos τ(λ) y La (λ) que permiten hacer la corrección
atmosférica como
L′′ (λ) − La (λ)
L′ (λ) =
τ(λ)
Para conocer dos puntos de la “línea empírica” (así es como se llama este método de
corrección atmosférica, ELM, Empirical Line Method) correspondiente a una escena

305
C UESTIONES DE TELEDETECCIÓN

de teledetección, las “y” se obtendrían del sensor (la L′′ ) y las “x” de la radiometría
de campo (la L′ ). Hacen falta, pues, al menos dos medidas de radiometría de campo y
dos desde el satélite, ambas de las mismas cubiertas sobre el terreno, para hacer esta
corrección. En la realidad se suelen hacer más de dos medidas y, entonces, el ajuste se
hace por mínimos cuadrados (lo que permite, de paso, estimar el error de la corrección).
La corrección realizada de este modo, determinando unos valores únicos de τ(λ) y
La (λ), es válida en la zona en la que se concentran los puntos de campo y, si las condi-
ciones atmosféricas son homogéneas sobre el área cubierta por la imagen de satélite, se
puede extrapolar a la totalidad de ésta. Esto no sucede, por ejemplo, en áreas costeras, en
las que las condiciones del aerosol atmosférico (responsable de buena parte del término
La (λ)) varían de un aerosol marino a un aerosol continental en poco espacio, de modo
que para una escena extensa la atmósfera varía de un lado a otro de la imagen.

¿Qué pasa si lo que se ha medido con el espectrorradiómetro no es la radiancia, sino


la reflectividad espectral de las cubiertas, R(λ)?

Lo dicho hasta aquí, presupone que el espectrorradiómetro mide la radiancia L′′ . Pero
en la práctica se suele medir la reflectividad, R, es decir, el cociente entre la radiancia
que refleja esa cubierta y la que reflejaría una superficie completamente blanca. Se pasa
de una a otra, simplemente, dividiendo por Ls′ (λ), radiancia espectral solar a esa longitud
de onda medida sobre la superficie de la Tierra.
La radiancia solar es diferente en el sensor (que está situado fuera de la atmósfera)
que en la superficie terrestre; despreciando la radiación difusa (el cielo azul) que también
ilumina la superficie terrestre, porque es mucho menor que la luz directa del sol, se puede
ver que la radiancia solar en la superficie Ls′ (λ) está relacionada con la radiancia solar
TOA (en el tope de la atmósfera) Ls′′ (λ) por el mismo coeficiente de transmisividad
atmosférica τ(λ): se transmite la misma fracción de energía independientemente de si la
luz “sube” o “baja” por la columna atmosférica. Y la radiancia solar TOA es conocida
(es igual al flujo de energía solar, que está tabulado, dividido por π). Así que la ecuación
lineal de corrección atmosférica se obtiene sustituyendo

L′ (λ) = R(λ)Ls′ (λ) = R(λ)τ(λ)Ls′′ (λ)

es decir
L′′ (λ) = τ2 (λ)Ls′′ (λ) R(λ) + La (λ)
     
a b
Tanto si se escribe así, como si se escribe en función de la reflectividad TOA, definida

306
L A INFORMACIÓN MULTIESPECTRAL VISTA A TRAVÉS DE LA ATMÓSFERA

como RT OA (λ) = L′′ (λ)/Ls′′ (λ),


RT OA (λ) = τ2 (λ) R(λ) + La (λ)/Ls′′ (λ)
     
a b
la ecuación sigue siendo la de una recta, por lo que para hacer la corrección atmosférica
basta calcular los “a” y “b” que relacionan las magnitudes medidas fuera de la atmósfera
con las medidas sobre la superficie terrestre.

¿Y cómo se aplica esto cuando el sensor fuera de la atmósfera es un sensor


multiespectral con bandas mucho más anchas que las del espectrorradiómetro?

Un espectrorradiómetro hace una medida casi continua del espectro, es decir, mide
L′ (λ) o R(λ) cada pocos nanómetros de longitud de onda, o a veces cada menos de
un nanómetro. Sin embargo, las bandas de un sensor multiespectral como el OLI del
Landsat 8, o el HVR del Spot, o el ASTER del Terra, son de decenas de nanómetros de
ancho. En este caso, lo que mide el sensor es un valor medio de la radiancia espectral
L̄′′ pero no localizado en una longitud de onda precisa, sino a lo largo de cada banda
correspondiente.
Para poder hacer uso de todo lo explicado anteriormente, hay que “simular” que
el espectrorradiómetro tiene bandas distribuidas como las del sensor remoto de manera
que calculamos, a partir del espectro L′ (λ), valores medios de radiancia reflejada por la
cubierta dentro de la banda del sensor.
Cada banda “n” de un sensor se caracteriza por una “curva de sensibilidad”, es decir,
una serie de pesos dependientes de la banda y de la longitud de onda wn (λ) que indican
cómo de eficiente es el sensor integrando en esa banda radiación electromagnética que
llega con longitud de onda λ. De este modo, la radiancia media se calcula como una
suma ponderada (o integral) de la radiancia “continua” multiplicada por los pesos o
sensibilidades. Y eso es lo que hay que calcular para cada banda del sensor a partir del
espectro de campo
wn (λ)L′ (λ) dλ
´

L̄n = ´
wn (λ) dλ

A veces esto mismo se hace para el espectro de reflectividad R(λ), pero no es to-
talmente correcto: el valor de la radiancia solar no es constante, también depende de la
longitud de onda. No obstante, a falta de otra información, y dado que el espectro solar
varía de forma suave dentro de las ventanas atmosféricas (en las que se localizan las
bandas de los sensores remotos), esa puede ser una aproximación razonable.

307
C UESTIONES DE TELEDETECCIÓN

8.4. CONCEPTOS IMPORTANTES

bandas atmosféricas (de absorción) Bandas del espectro electromagnético en las que
absorben preferentemente energía los gases que componen la atmósfera. Muestran
bandas especialmente absorbentes en el infrarrojo el agua y el CO2 ; en el ultra-
violeta el ozono. Las zonas del espectro electromagnético en las que no existen
bandas de absorción se denominan ventanas atmosféricas.

corrección atmosférica Operación matemática aplicada a los datos de radiancia medi-


dos por un sensor separado de su objeto de estudio por un cierto espesor atmosfé-
rico (en particular, sensores situados fuera de la atmósfera) para estimar el efecto
que esta masa de aire tiene sobre la radiación emitida o reflejada por el objeto y
revertirlo. Los algoritmos de corrección atmosférica siempre son aproximados y
pueden emplear, además de los datos obtenidos por el sensor otros procedentes de
medidas sobre el terreno (p.ej. radiometría de campo) o de modelos del compor-
tamiento atmosférico.

dispersión Rayleigh Dispersión causada por partículas muy pequeñas en comparación


con la longitud de onda de la onda dispersada. La intensidad de la radiación dis-
persada crece rápidamente al considerar longitudes de onda más pequeñas (aunque
todavía mayores que el tamaño de partícula); esto hace que se disperse más energía
radiante en las longitudes de onda más pequeñas.

fotón Cuanto de energía electromagnética. La energía radiante se emite y se absorbe


cuánticamente, en “paquetes” cuya energía depende de la frecuencia (o de la lon-
gitud de onda).

intensidad radiante Potencia emitida por una fuente radiante en cada dirección. Se
mide en Watts por estereorradián.

irradiancia Potencia radiante recibida por unidad de superficie; a suficiente distancia


de un emisor (una distancia mucho mayor que sus dimensiones) se atenúa con el
inverso del cuadrado de la distancia a él. Se mide en Watts por metro cuadrado.

objeto oscuro (corrección atmosférica) Método de corrección atmosférica que consi-


dera solamente la distribución de valores de reflectividad TOA en las bandas de la
imagen en la que se asume que existe un material muy absorbente, que juega el
papel del “objeto oscuro”; toda la radiancia que parezca llegar de él será debida a
la dispersión atmosférica en esa banda. La corrección de la radiancia difusa en las
otras bandas y de la atenuación por la absorción atmosférica requieren otros mo-

308
L A INFORMACIÓN MULTIESPECTRAL VISTA A TRAVÉS DE LA ATMÓSFERA

delos (modelo de aerosol atmosférico, modelo de atmósfera estándar) o medidas


de campo simultáneas.

potencia radiante Potencia total emitida por una fuente radiante. Se mide en Watts o
Julios por segundo.

radiancia Potencia emitida por una unidad de superficie en cada dirección. Equivalen-
temente, potencia recibida por unidad de superficie desde cada dirección. Se mide
en Watts por metro cuadrado y por estereorradián.

reflector lambertiano Modelo de superficie que, al recibir una irradiancia, la refleja


con una radiancia independiente de la dirección. Este modelo es adecuado para la
mayoría de las cubiertas terrestres. Las desviaciones respecto a él se caracterizan
por la función de distribución bidireccional de la reflectividad (BRDF, bidirectio-
nal reflectance distribution function) de una cubierta.

TOA (radiancia/reflectividad) Magnitud radiante (radiancia o reflectividad) medida


fuera de la atmósfera (Top Of the Atmosphere), es decir, la radiancia que llega
al sensor reflejada de la superficie terrestre tras atravesar la atmósfera, o la reflec-
tividad calculada como el cociente entre esa radiancia y la irradiancia solar en el
sensor.

transmisividad atmosférica Coeficiente que representa la fracción de la energía ra-


diante que llega a la superficie terrestre en una longitud de onda, relativa a la que
llega desde el Sol al tope de la atmósfera. La determinación de esta transmisividad
atmosférica es un punto clave en toda corrección atmosférica.

8.5. BIBLIOGRAFÍA

P.S. Chavez (1996). “Image-Based Atmospheric Corrections — Revisited and Im-


proved”. Photogrametric Engineering & Remote Sensing, 62(9): 1025-1036.

C. Pinilla Ruiz (1995). “Fundamentos físicos”. En: Elementos de Teledetección,


Capítulo 1. Ra-Ma, 1995.

E.J. Milton (1987). “Principles of field spectroscopy”. International Journal of


Remote Sensing, 8(12): 1807-1827.

M.S. Moran, R. Bryant, K. Thome, W. Ni, Y. Nouvellon, M.P. González-Dugo, J.


Qi, T.R. Clarke (2001). “A refined empirical line approach for reflectance factor

309
C UESTIONES DE TELEDETECCIÓN

retrieval from Landsat-5 TM and Landsat-7 ETM+”. Remote Sensing of Environ-


ment, 78: 71-82.

E. Karpouzli, T. Malthus (2003). “The empirical line method for the atmospheric
correction of IKONOS imagery”. International Journal of Remote Sensing, 24(5):
1143-1150.

G. Schaepman-Strub, M.E. Schaepman, T.H. Painter, S. Dangel, J.V. Martonchik


(2006). “Reflectance quantities in optical remote sensing — definitions and case
studies”. Remote Sensing of Environment, 103: 27-42.

Webgrafía (accesible el 1/05/2015)

6SV - Home
URL: http://6s.ltdri.org/
Sitio web del método de corrección atmosférica 6S. Se puede acceder a una apli-
cación on-line que calcula la corrección desde la página
http://6s.ltdri.org/pages/run6SV.html

ESA GHG CCI website


URL: http://www.esa-ghg-cci.org/
Sitio web de la ESA Climate Change Initiative que estudia, mediante teledetec-
ción, la concentración de gases antropogénicos de efecto invernadero.

Water Absorption Spectrum — Martin Chaplin


URL: http://www1.lsbu.ac.uk/water/water_vibrational_spectrum.html
Página web del profesor Martin Chaplin de la London South Bank University en la
que muestra el origen molecular de las bandas de absorción del agua en el espectro
electromagnético, especialmente en el visible y en el térmico.

Aerosol Optical Thickness — NASA


URL: http://neo.sci.gsfc.nasa.gov/view.php?datasetId=MODAL2_M_AER_OD
Serie temporal de productos de aerosol atmosférico (polvo en suspensión, sales
marinas, cenizas volcánicas, humo de incendios, etc.) obtenida por el sensor MO-
DIS de la NASA.

310
L A INFORMACIÓN MULTIESPECTRAL VISTA A TRAVÉS DE LA ATMÓSFERA

Solar Spectral Irradiance: Air Mass 1.5 — American Society for Testing and Ma-
terials (ASTM)
URL: http://rredc.nrel.gov/solar/spectra/am1.5/
Espectro de irradiancia solar a nivel del mar de la ASTM empleado para evaluar
la eficiencia de las células fotovoltaicas.

Atmospheric Correction: Empirical Line Fits — Ocean Optics Web Book


URL: http://www.oceanopticsbook.info/view/remote_sensing/level_2/atmospheric
_correction_empirical_line_fits
Página del web-book de los fabricantes de radiómetros de campo Ocean Optics
sobre el uso del método del ajuste de la línea empírica (ELF, empirical line fit) en
medidas sobre cubiertas acuáticas.

SCIAMACHY Carbon Gases (CO2, CH4, CO) — University of Bremen, IUP/IFE


URL: http://www.iup.physik.uni-bremen.de/sciamachy/NIR_NADIR_WFM_DO
AS/index.html
Página del Instituto de Física Ambiental (IUP/IFE) de la Universidad de Bremen
que recoge animaciones con los primeros resultados del sensor SCIAMACHY
( SCanning Imaging Absorption spectroMeter for Atmospheric CHartographY)
a bordo del ENVISAT (operativo desde 2002 hasta 2012). Información general
sobre SCIAMACHY se puede encontrar en su sitio web
http://www.sciamachy.org

Bottle/Glass Colors
URL: http://www.sha.org/bottle/colors.htm
Página sobre botellas de colores en la que se explica el origen del color que toma
el vidrio en función de los aditivos que se le añadan.

Carbon Monitoring Satellite - CarbonSat


URL: http://www.iup.uni-bremen.de/carbonsat/
Página web del satélite CarbonSat diseñado por el Instituto de Física Ambiental
(IUP) de la Universida de Bremen y seleccionado por la ESA para su programa
de exploradores de la Tierra (Earth Explorer 8). El CarbonSat está diseñado para
realizar mapas de concentración atmosférica de gases de efecto invernadero.

Scattering of Light — Dietrich Zawischa, ITP


URL: http://www.itp.uni-hannover.de/∼zawischa/ITP/scattering.html

311
C UESTIONES DE TELEDETECCIÓN

Página del Prof. Zawischa del Instituto de Física Teórica (ITP) de la Universidad
de Hannover sobre dispersión atmosférica de la luz, con muchas fotografías y
explicación de modelos.

USGS Spectroscopy Lab — Calibration Tutorial


URL: http://speclab.cr.usgs.gov/PAPERS.calibration.tutorial/
Tutorial ilustrado del Laboratorio de Espectroscopía del USGS sobre cómo ha-
cer una calibración de reflectividad de las imágenes del sensor AVIRIS mediante
medidas in situ de espectros de campo de cubiertas minerales.

Using the USGS Landsat 8 Product — USGS


URL: https://landsat.usgs.gov/Landsat8_Using_Product.php
Página del USGS sobre cómo usar los productos Landsat 8: métodos de conversión
a reflectividad o radiancia TOA (sensor OLI) y a temperatura de brillo (sensor
TIR).

312
Tema 9

Medida remota de la temperatura

GUION-ESQUEMA

La ley de Planck

La calibración de la temperatura radiométrica

Efectos atmosféricos
C UESTIONES DE TELEDETECCIÓN

Cuerpo
negro

Temperatura Radiancia
termométrica Ley de Planck espectral
Cuerpo
gris
(real) Emisividad

Suelo desnudo
TM6
Landsat
Suelo urbano
Temperatura
Isla de calor
de brillo

IR3.9 WV6.2
IR8.7 WV7.3
Nubes IR10.8 IR9.3
Atmósfera IR11 IR13.4 Meteosat
IR12

Océano
AMSR−E
(SST)
Aqua

314
M EDIDA REMOTA DE LA TEMPERATURA

9.1. INTRODUCCIÓN

Los cuerpos emiten radiación electromagnética en función de su temperatura, por-


que la materia establece un equilibrio térmico con el campo electromagnético. Esto es
lo que describe la ley de Planck, que relaciona la temperatura de la radiación con su es-
pectro de emisión y con un coeficiente de emisividad, propio del material. Los sensores
térmicos miden la radiancia espectral en una banda adecuada y permiten determinar la
temperatura de brillo del cuerpo emisor; la banda más adecuada viene dada por la ley de
Wien: la longitud de onda de máxima emisividad térmica es inversamente proporcional
a la temperatura. Para la temperatura media del planeta Tierra, esta longitud de onda se
halla, precisamente, en lo que se llama rango térmico.

9.2. CUESTIONES

1. La radiancia emitida por un cuerpo depende de. . .

a) su temperatura medida en grados Celsius (la temperatura sobre los 0◦ C, la


temperatura del hielo)
b) su temperatura medida en grados Fahrenheit (que asigna el valor de 100◦ F a
la temperatura del cuerpo humano)
c) su temperatura medida en Kelvin
d) la diferencia entre su temperatura y la del ambiente que lo rodea

2. La radiancia espectral emitida por un cuerpo debido a su temperatura es máxima


en una longitud de onda que es. . .

a) directamente proporcional a su temperatura en Kelvin


b) inversamente proporcional a su temperatura en Kelvin
c) dependiente de su altura en la atmósfera
d) prácticamente constante en todas las longitudes de onda del infrarrojo térmi-
co

315
C UESTIONES DE TELEDETECCIÓN

3. La relación matemática entre la radiancia medida por un sensor infrarrojo en las


diferentes longitudes de onda y la temperatura del cuerpo que la emite viene dada
por. . .

a) la ley de Wien
b) la ley de Planck
c) la ley de Stefan-Boltzmann
d) la ley de Kirchoff

4. Un mapa de temperatura superficial marina (SST), obtenido con un radiómetro


de microondas (MW) como el AMSR a bordo del satélite Aqua, se diferencia del
obtenido con un sensor infrarrojo térmico (TIR) como el AVHRR a bordo de los
MetOp, en que . . .

a) el radiómetro MW mide temperaturas más bajas


b) el radiómetro MW proporciona mayor resolución espacial y radiométrica
c) el sensor TIR no ve a través de las nubes
d) el sensor TIR es muy sensible al oleaje marino

5. La temperatura de los gases atmosféricos (por ejemplo, CO2 , vapor de agua) se


mide en bandas del infrarrojo térmico escogidas por ser. . .

a) en las que emiten radiación térmica estos gases


b) en las que absorben radiación térmica estos gases
c) cualquiera de las anteriores
d) ninguna de las anteriores: estos gases deben ser transparentes en esas longi-
tudes de onda

6. La longitud de onda de 3,9 μm es especialmente interesante en teledetección tér-


mica porque en ella. . .

a) las emisividades de la tierra y el agua son iguales


b) la radiancia térmica emitida por la Tierra se hace igual a la emitida por el Sol
c) es máxima la radiancia térmica procedente de la superficie terrestre
d) no son visibles las nubes

316
M EDIDA REMOTA DE LA TEMPERATURA

7. La radiancia emitida por dos cuerpos a la misma temperatura es. . .

a) dependiente del color de éstos


b) siempre la misma
c) igual, si ambos son del mismo material
d) diferente, si uno está en un ambiente cálido y otro en un ambiente frío

8. Algunos algoritmos para obtener la temperatura utilizan dos o más bandas térmi-
cas. Esto permite. . .

a) corregir el efecto de la atmósfera sobre las medidas de temperatura superfi-


cial
b) medir simultáneamente la emisividad de las cubiertas
c) medir la temperatura de una cubierta semitransparente (como las nubes) a
diferentes profundidades
d) todas las anteriores

9. En el estudio de suelos, se emplean sensores remotos térmicos para estimar el


contenido de agua. Esto se logra estudiando. . .

a) la temperatura del suelo, en función de la radiancia solar recibida en el ins-


tante de adquirir la imagen
b) la temperatura del suelo, en función del tipo de suelo (determinada por mé-
todos in situ u ópticos)
c) las variaciones de temperatura del suelo, a lo largo del año
d) las variaciones de la temperatura del suelo, entre el día y la noche

10. En las áreas urbanas se produce un aumento de la temperatura conocido como isla
de calor. ¿Cuál de estos sensores con varias bandas en el infrarrojo térmico es más
adecuado para caracterizar este efecto?

a) SEVIRI en el satélite Meteosat


b) AVHRR en el satélite MetOp
c) ASTER en el satélite Terra
d) TIRS en el satélite Landsat-8

317
C UESTIONES DE TELEDETECCIÓN

9.3. RESPUESTAS A LAS CUESTIONES

1. La radiancia emitida por un cuerpo depende de. . .

Respuesta: (c) La radiancia emitida por un cuerpo depende de su temperatura y, en


particular, de su valor medido en Kelvin, la unidad de temperatura del Sistema
Internacional (SI).

Para medir la temperatura existen diferentes escalas con diferentes orígenes históricos
(figura 9.1). Por ejemplo, la más utilizada en Europa en la actualidad es la escala centí-
grada de Celsius (en honor al astrónomo sueco que la introdujo en el siglo XVIII). Esta
escala se basa en dos temperaturas de referencia: la de congelación del agua, a los 0◦ C,
y la de su ebullición, a 100◦ C (ambas medidas a nivel del mar). Por definir una separa-
ción entre estos dos puntos de 100 unidades, se llama también escala centígrada. Otra
escala, más empleada en países anglófonos, es la escala Fahrenheit (en honor al físico
alemán que la introdujo también en el siglo XVIII). Esta escala sitúa su cero en la míni-
ma temperatura alcanzada en Gdansk (Polonia) en el siglo XVIII, temperatura a la que
se congelaba la salmuera (solución saturada de sal marina en agua). El 100◦ F se sitúa en
la temperatura media del cuerpo humano. Por lo tanto, es también una escala centígrada,
pero con puntos de referencia diferentes (y menos precisos en su origen).
En Física, la escala de temperaturas que se ha encontrado más útil es la escala ter-
modinámica o Kelvin. Se basa en la escala de Celsius, pero lleva su cero, restándole un
valor constante, a los −273,15◦ C: ése es el cero Kelvin. A esta temperatura, el volumen
de un gas ideal se reduce a cero: no es concebible una temperatura Kelvin negativa. A esa
temperatura, la energía cinética de las moléculas y átomos también se reduce a cero. Es
decir, la temperatura en Kelvin resulta ser proporcional a la energía media de sus molécu-
las, mediante la fórmula Ē = kB T . El factor de proporcionalidad kB = 1,38 × 10−23 J/K
se llama constante de Boltzmann.
Un cuerpo que esté caliente, es decir, sobre el cero Kelvin, emitirá radiación electro-
magnética. La temperatura no es más que la agitación térmica de sus átomos y moléculas
y ello hace que los electrones se muevan respecto a los núcleos atómicos: como todo mo-
vimiento electrónico (piénsese en una antena de radio), esto causa campos eléctricos y
magnéticos variables que originan ondas electromagnéticas. Las energías de los fotones
que forman esta energía electromagnética son parecidas a las de los movimientos que
les dan lugar y se distribuyen del mismo modo; cuanto más caliente esté el cuerpo, más
energía tendrán los fotones que emite.

318
M EDIDA REMOTA DE LA TEMPERATURA

Celsius Fahrenheit Kelvin


100ºC 212ºF 373 K

38ºC 100ºF 311 K


21ºC 70ºF 294 K

0ºC 32ºF 273 K


−18ºC 0ºF 255 K

−273ºC −460ºF 0K

Figura 9.1. Comparación de las escalas termométricas Celsius, Farenheit y Kelvin.

A mayor energía de un fotón, mayor frecuencia de oscilación del campo electro-


magnético y, por lo tanto, menor longitud de onda. Es decir, cuanto más caliente esté
un cuerpo, más radiación emitirá en las longitudes de onda más cortas. E igual que un
cuerpo emite radiación electromagnética debido a que está caliente, también, al recibir
radiación electromagnética adquiere temperatura; parte de la energía de las ondas elec-
tromagnéticas se invierte en poner en movimiento los átomos y moléculas. Este cambio
no es inmediato, depende de la inercia térmica del cuerpo y de la radiación que éste emi-
ta, a su vez. La temperatura finalmente alcanzada no es tampoco la del cuerpo que haya
emitido esa energía electromagnética: la Tierra nunca se pondrá a la temperatura del Sol,
aunque recibe su energía de él; dependerá de la cantidad total de energía que llegue (que
es inversamente proporcional al cuadrado de la distancia Sol-Tierra).
Hay que aclarar que sólo se manifiesta como temperatura la energía radiante inverti-
da cambiar el movimiento de átomos y moléculas, es decir, la que se convierte en energía
cinética. Por eso, la temperatura de los fotones en la radiación electromagnética que emi-
ten los cuerpos debido a su temperatura, se llama también a veces temperatura cinética,
para recalcar este hecho (aunque puede llevar a equívoco).

319
C UESTIONES DE TELEDETECCIÓN

¿Cómo llamar, entonces, a temperatura medida a través de la radiación


electromagnética emitida por un cuerpo?

La temperatura que se mide remotamente midiendo la energía de los fotones emi-


tidos desde un cuerpo es la temperatura de brillo: literalmente, la temperatura de los
fotones. Pero esa no es la temperatura (termodinámica) del cuerpo; ni siquiera la de su
superficie, que es desde donde son emitidos los fotones, aunque está relacionada con
ella. Los fotones estarían en equilibrio térmico con el cuerpo si éste absorbiese y emi-
tiese todos esos fotones con total facilidad: esto se llama un cuerpo totalmente negro
(porque absorbe todo tipo de fotones). Pero las superficies de los cuerpos no absorben
todos los fotones con igual facilidad, ni tampoco los emiten; por lo tanto, este equilibrio
no es perfecto: la temperatura de la radiación no es exactamente igual a la temperatura
termodinámica de la superficie del cuerpo. Tampoco la temperatura de la superficie es
igual a la temperatura del interior. Las superficies de los cuerpos en la superficie terres-
tre intercambian calor con la atmósfera. Especialmente debido al viento, los cuerpos que
contienen humedad o las propias aguas, están más fríos en su superficie que en su inte-
rior. Lo que se mide, entonces, es la energía de la radiación que está en casi equilibrio
térmico con la superficie de la “piel” del cuerpo (skin temperature) que puede ser varios
grados más fría que la del interior. Estas dos aproximaciones se debe tener en cuenta
cuando se hacen medidas remotas de la temperatura.

2. La radiancia espectral emitida por un cuerpo debido a su temperatura es


máxima en una longitud de onda que es. . .

Respuesta: (b) La radiancia espectral emitida por un cuerpo depende de la longitud de


onda. Es máxima en aquella longitud de onda en la cual la energía de los fotones
es igual a la energía de las moléculas del cuerpo, por lo tanto, a una longitud de
onda inversamente proporcional a la temperatura.

Como la energía de los fotones emitidos es semejante a la de las moléculas del cuerpo, y
el valor medio de esta energía Ē es proporcional a la temperatura en Kelvin, Ē = kB T , la
energía media de los fotones emitidos es también proporcional a esa temperatura. Según
la relación de Einstein, E = h f , la energía E de un fotón es proporcional a su frecuencia,
f , y a una constante, la constante de Planck, h = 6,63 × 10−34 J · s. La frecuencia, a su
vez, es inversamente proporcional a la longitud de onda, f = c/λ. Combinando todas
estas relaciones (y teniendo en cuenta alguna otra propiedad del “gas de fotones”), se
obtiene que la longitud de onda de los fotones emitidos es inversamente proporcional a

320
M EDIDA REMOTA DE LA TEMPERATURA

la temperatura del cuerpo:

ch 2,9 × 10−3 [m · K]
λ≃ =
5kB T T
Esta ley se llama ley de Wien y permite determinar la longitud de onda en la que serán
emitidos más fotones. Por ejemplo, para el Sol, cuya temperatura superficial son unos
6000 K, la longitud de onda en la que más radiancia nos llega se halla cerca de los
500 nm, es decir, se halla en el verde del rango visible del espectro (eso no quiere decir
que el Sol sea verde: en el verde emite más intensidad, pero la emite también en otras
longitudes de onda, lo que hace que, netamente, su luz se califique como amarilla). Por
su parte, la superficie terrestre que tiene una temperatura en torno a los 300 K, tiene
su máximo de emisión térmica en 9,7 μm, es decir, en el infrarrojo térmico; de hecho,
esta parte del espectro recibe ese nombre porque es donde más energía radiante emiten
los cuerpos debido a su temperatura habitual en la Tierra. Alrededor de estos máximos,
la intensidad radiante que emiten decae rápidamente (siguiendo la ley de Planck, ver
cuestión siguiente) hacia longitudes de onda menores y más lentamente hacia longitudes
de onda mayores.

3. La relación matemática entre la radiancia medida por un sensor infrarrojo en


las diferentes longitudes de onda y la temperatura del cuerpo que la emite
viene dada por. . .

Respuesta: (b) La ley que describe la distribución de energía radiante emitida por un
cuerpo en función de su temperatura es la ley de Planck. De ella se deducen todas
las leyes que describen el máximo de emisión (ley de Wien) o la cantidad total de
energía radiante emitida (ley de Stefan-Boltzmann).

La radiancia espectral emitida por un cuerpo es función de su temperatura medida en


Kelvin. La ley de Planck describe cómo se distribuye esa energía radiante procedente
del cuerpo a lo largo del espectro electromagnético, es decir, en función de la longitud
de onda (figura 9.2). La fórmula matemática de la ley de Planck es la siguiente:

2hc2 ε(λ)
L(λ) =
λ5 e kBhcT λ − 1

En esta expresión entran la constante de Planck (h = 6,62 × 10−34 J · s), la velocidad de


la luz (c = 2,998 × 108 m/s), la constante de Boltzmann (kB ), la longitud de onda (λ),

321
C UESTIONES DE TELEDETECCIÓN

M (W m−2)
1e+06
T=6000 K
100000
T=5000 K
10000
1000
100

L max
10

(λ)
1
0.1
0.01
0.001
6000
5000 Tλ T=300 K
4000 =c
te.
)
T (K

3000
2000 10000
1000 1000
)
100
λ (nm

Figura 9.2. Curvas de Planck para la emisión de un cuerpo negro entre temperaturas de 300 K y 6000 K.
Se muestran los máximos de emisión, correspondientes a la ley de Wien, y la proyección de ésta en el
plano (λ, T ).

la temperatura (T ), y una propiedad del cuerpo llamada su emisividad (ε), que depende
de la longitud de onda. Esta emisividad es igual que la absortividad (α), la fracción de
radiación electromagnética que el cuerpo absorbe a una longitud de onda dada, ya que
en el equilibrio térmico con la radiación el cuerpo emite tanta como absorbe.
La ecuación de Planck permite conocer la temperatura de una cubierta, sabiendo su
radiancia espectral en una banda térmica estrecha (como las de Landsat, por ejemplo).
Para ello se despeja la temperatura y se escribe en la forma:
hc/(kB λ) K2
T=  =  
(2hc2 /λ5 )ε(λ) K1 ε(λ)
log 1 + L(λ) log L(λ) +1

Aquí los valores de K1 = 2hc2 /λ5 y K2 = hc/(kB λ) dependen de la longitud de onda.


Para tener esto en cuenta (y el hecho de que las bandas no son infinitamente estrechas)
los valores de K1 y K2 se calibran para cada sensor, manteniendo la forma de la ecuación
anterior. Por su parte, la emisividad ε(λ) depende de la longitud de onda y del tipo de

322
M EDIDA REMOTA DE LA TEMPERATURA

material de la cubierta, aunque siempre con un valor cercano a 1. Para los TM y ETM+
de Landsat, por ejemplo, se toma 0,95, el valor medio de la emisividad de las cubiertas
terrestres; pero si la escena es sólo de agua, se puede tomar el valor de 0,99. Si tomamos
ε(λ) igual a 1, estaremos midiendo la temperatura de brillo del cuerpo, sin hacer ninguna
hipótesis sobre su composición.
La ley de Planck, que da la radiancia espectral en cada longitud de onda, puede
ser demasiado detallada en algunos casos. A veces puede interesar conocer la radiancia
total emitida en un rango amplio de longitudes de onda, o en todo el espectro. Para ello
se calcula el área debajo de la gráfica de la ley de Planck y se obtiene la ley de Stefan-
Boltzmann, que dice

M(λ) = σT T 4

Aquí M(t) es la emitancia, la cantidad de energía emitida por unidad de tiempo y de área,
y σT = 5,67 × 10−8 Wm−2 K−4 es la constante de Stefan. Esta ley dice que la emitancia
y la radiancia aumentan tanto más rápidamente cuanto mayor es la temperatura. La ley
se puede usar con bandas muy anchas alrededor del valor máximo de emisión, que da la
ley de Wien, ya que alrededor de este valor la emitancia y radiancia espectrales decaen
rápidamente.
Cuando la temperatura se mide a través de la radiancia en longitudes de onda mucho
más largas que la que corresponde al máximo, la relación entre la temperatura (de brillo)
T y la radiancia L(λ) se puede aproximar como

λ4
T= L(λ)
2kB c

que es la llamada ley de Rayleigh-Jeans (kB es la constante de Boltzmann y c es la


velocidad de la luz). En estas longitudes de onda la radiancia y la temperatura son pro-
porcionales, a diferencia de lo que ocurre cerca del máximo de emisión térmica, donde
las temperaturas más altas se ven exageradas. Cuando se aplica la ley de Rayleigh-Jeans
la señal es mucho menor pero se reparte igualmente en todos los rangos de temperatura,
por eso es el método preferido para medir rangos muy amplios de temperaturas. Es la
relación que emplean los radiómetros de microondas, que captan la emisión térmica de
la superficie terrestre mediante antenas semejantes a las de radar, trabajando a longitudes
de onda del orden del centímetro, en lugar de la decena de micras del infrarrojo térmico
(ver cuestión siguiente).

323
C UESTIONES DE TELEDETECCIÓN

4. Un mapa de temperatura superficial marina (SST), obtenido con un


radiómetro de microondas (MW) como el AMSR a bordo del satélite Aqua, se
diferencia del obtenido con un sensor infrarrojo térmico (TIR) como el
AVHRR a bordo de los MetOp, en que . . .

Respuesta: (c) Un radiómetro de microondas (MWR, microwave radiometer) mide en


una región del espectro (con longitudes de onda centimétricas) en la que las nubes
son transparentes; por otro lado, orientado hacia tierra o hacia la superficie del
océano, es capaz de captar las longitudes de onda más largas emitidas por estas
cubiertas debido a su temperatura. La desventaja es que, a estas longitudes de
onda, la radiancia emitida es muy pequeña. La ventaja, que las nubes son trans-
parentes a estas longitudes de onda, por lo que se pueden obtener temperaturas
superficiales (oceánicas o continentales) incluso en presencia de nubes.

Los sensores en el infrarrojo térmico (TIR, thermal imaging radiometer) trabajan en el


rango de longitudes de onda micrométrico, entre los 3 μm y los 20 μm. En este rango
se capta la radiancia procedente de la superficie terrestre, tanto la emitida térmicamente
como la porción reflejada de la emitida por el Sol, pero también la originada en la at-
mósfera terrestre. De hecho, es el rango empleado por los sensores meteorológicos para
sondear la temperatura atmosférica. Esto quiere decir que son sensibles a la presencia
de nubes, que son opacas a ellos. Sin embargo, en ausencia de nubes, este rango del in-
frarrojo proporciona buena información sobre la temperatura de la superficie (oceánica
o continental), ya que en él se halla el máximo de emisión térmico de la Tierra: en los
10 μm. Debido a la absorción de la radiación TIR en el agua marina, estos radiómetros
proporcionan una temperatura medida dentros de los 10 μm más superficiales, lo que se
llama la “piel” del agua (se habla de “skin SST”).
Los MWR utilizan antenas radar para recibir la emisión térmica de onda larga pro-
cedente de la superficie. Son sensores pasivos (como los TIR), pero “escuchan” en lon-
gitudes de onda del orden de los centímetros (o, como se suele indicar para los sensores
radar, en frecuencias del orden de los Gigahertz). Es decir, no reciben la radiancia en el
máximo de emisión térmica, como se busca con los TIR, sino en una región en que esta
radiancia emitida es mucho menor; no obstante, es posible determinar la temperatura
correspondiente usando la ley de Planck, o su versión simplificada, la ley de Rayleigh-
Jeans.
Los radiómetros de microondas (MWR) permiten hacer medidas precisas de la tem-
peratura del océano sobre áreas muy grandes, particularmente en regiones cubiertas por
nubosidad, como aquéllas en las que se están originando grandes perturbaciones como

324
M EDIDA REMOTA DE LA TEMPERATURA

Figura 9.3. Imágenes de temperatura superficial del mar obtenidas con el AMSR-E a bordo del satélite
Aqua de la NASA (la superficie continental corresponde a imágenes del sensor MODIS a bordo del mismo
satélite). Izquierda: mes de junio de 2008; Derecha: mes de agosto de 2008 Estas imágenes de obtención
casi diaria aydan a predecir la formación de huracanes causados por el rápido calentamiento del mar en
verano. Fuente: NASA’s Goddard Space Flight Center Scientific Visualization Studio.

huracanes, que se “alimentan” de la temperatura del océano para su desarrollo. Estas zo-
nas no se pueden medir con sensores TIR, porque las nubes son opacas en este rango de
longitudes de onda; sin embargo, son transparentes a las microondas procedentes de la
emisión térmica (igual que lo son a las señales de los radares activos, también de micro-
ondas). Los MWR miden la temperatura del agua en los primeros pocos milímetros, es
decir, a una profundidad un poco mayor que los TIR, por lo que puede haber diferencias
entre ambas temperaturas (debidas, por ejemplo, al viento, que enfría por evaporación
las capas más superficiales).
Un ejemplo de MWR es el AMSR (Advanced Microwave Scanning Radiometer),
a bordo del satélite Aqua de la NASA. Este sensor utiliza la frecuencia de 6,9 GHz
(4,3 cm de longitud de onda) para medir la temperatura del océano. En esa banda, la
radiancia espectral procedente del agua del mar es muy pequeña: prácticamente 10−16
de la radiancia emitida a 10 μm. Para obtener una precisión semejante a la de un TIR
(0,3 K), el AMSR debe integrar energía radiante procedente de una área de 74 × 43 km2 ,
en lugar de los 4 × 4 km2 del AVHRR (a bordo de los satélites de la NOAA o de los
MetOp de EUMETSAT), es decir, unas 200 veces mayor (y adquirida durante 20 veces
más tiempo, y en una banda 2000 veces más ancha y por una antena centenares de veces
más grande que el sensor AVHRR).

325
C UESTIONES DE TELEDETECCIÓN

f=36 GHz
24 km λ = 8.2 mm f=6.9 GHz
λ = 4.3 cm
f=18 Ghz
λ = 1.6 cm 12 km
f=23 GHz
21 km λ = 1.3 cm 56 km
6 km

f=89 GHz
λ = 3.3 mm

AMSR-E

Figura 9.4. Área de visión (IFOV) del sensor AMSR a las diferentes frecuencias de operación. Se observa
que a longitudes de onda mayores, el área sobre la que se debe integrar la radiancia térmica tiene que ser
mayor porque, entre otras cosas, esta radiancia se hace muy pequeña cuanto mayor es la longitud de onda.

5. La temperatura de los gases atmosféricos (por ejemplo, CO2 , vapor de agua) se


mide en bandas del infrarrojo térmico escogidas por ser. . .

Respuesta: (c) Los gases atmosféricos emiten energía radiante en la región infrarroja
debido a su energía térmica, pero algunas moléculas absorben y emiten más en al-
gunas bandas que coinciden con sus energías de vibración o de rotación. Así, por
ejemplo, para determinar la temperatura y la concentración de vapor de agua y
de CO2 en la atmósfera, se utilizan las bandas de 6 − 7 μm, para el vapor de agua,
y 15 μm, para el CO2 , en las que estos gases absorben y emiten más radiación
térmica.

Cuando la radiación electromagnética atraviesa un gas, parte de ella es absorbida por este
gas, e invertida en agitar las oscilaciones o rotaciones de sus moléculas. Cuando estas
moléculas chocan entre sí, intercambian parte de su energía y, cuando esto se repite
muchas veces, llegan a tener una distribución de energías acorde con la temperatura del
gas. Además de esto, en las colisiones una parte de la energía se puede convertir en
energía radiante y ser emitida como fotones de longitudes de onda semejantes a aquellos
que excitaron las moléculas en primer lugar. Dicho de otro modo, un buen absorbente de
la radiación a una longitud de onda también será un buen emisor a esa misma longitud
de onda. Ésta es la ley de Kirchoff.
La radiación térmica que es emitida desde la superficie terrestre es absorbida en
determinadas longitudes de onda por las moléculas de algunos gases atmosféricos. Son
los llamados gases de efecto invernadero, que tienen bandas de absorción alrededor de
los 10 μm en los que alcanza su máximo la radiancia espectral de la Tierra; el efecto
invernadero se produce, precisamente, porque parte de la radiación térmica que absorben

326
M EDIDA REMOTA DE LA TEMPERATURA

1
CO 2

H2 O

Absorbancia (relativa)
0.8

0.6

0.4

0.2

0
4 6 8 10 12 14 16 18 20 22

Longitud de onda ( μ m)

Figura 9.5. Bandas de absorción del CO2 y del vapor de agua. Fuente: NIST.

estos gases es devuelta hacia la superficie cuando éstos la vuelven a emitir. Del mismo
modo que la vuelven a emitir hacia la superficie, la vuelven a emitir hacia el sensor que
se halla sobre la atmósfera.
Si el gas es muy absorbente en algunas bandas (como el vapor de agua y el CO2 ;
véase la figura 9.5), al sensor sólo llegará radiación térmica procedente de la atmósfera,
porque la energía de la radiancia espectral en esa banda de absorción directamente pro-
cedente de la superficie de la Tierra habrá sido absorbida por el gas y emitida de nuevo
en forma de un espectro térmico, acorde con la temperatura de éste.
Conforme la radiancia asciende por la atmósfera, los gases la absorben y la emiten.
Absorben la emitida en las capas atmosféricas inferiores y aportan esa radiancia emitida
en las capas inferiores a la temperatura de las capas superiores. Al disminuir con la
altura la concentración de los gases, existe una altura en la que se alcanza el máximo de
radiación emitida que llega al sensor: por debajo de ella, la radiación ha sido absorbida, y
por encima, la baja concentración de los gases hace que no se absorba ni se emita nueva
radiancia. El porcentaje de la radiación térmica que llega en una longitud de onda desde
cada altura de la atmósfera, se llama “función de peso” de esa altura atmosférica (figura
9.6).
Se puede decir que la radiancia que llega a una longitud de onda corresponde a la
temperatura de esa capa atmosférica de la que procede en su mayor parte. La altura de
la capa atmosférica dependerá, en particular, del coeficiente de absorción del gas a la
longitud de onda dada. Si se dispone de medidas de la radiancia en varias longitudes
de onda para las que el gas absorbente tenga diferentes absorciones (en el máximo de

327
C UESTIONES DE TELEDETECCIÓN

1.0
0.9 3.9 μm
6.2 μm
0.8 7.3 μm
8.7 μm
0.7 9.7 μm
10.8 μm
0.6 12.0 μm
w(p)
13.4 μm
0.5
0.4
0.3
0.2
0.1

0 100 200 300 400 500 600 700 800 900 1000
Presión (hPa)

Figura 9.6. Curvas de ponderación de radiancia infrarroja en función de la altura (medida en


hecto-Pascales): para cada longitud de onda, la gráfica de w(p) muestra el peso relativo que aporta a la
radiancia térmica la capa atmosférica que se halla a la presión p indicada en el eje de abscisas. Gráfica
construida a partir de los datos calculados en http://cimss.ssec.wisc.edu/goes/wf/ABI/ para el sensor ABI
(Advanced Baseline Imager) de los satélites GOES de la NOAA.

absorción y en sus alrededores, donde esa absorción disminuye), se puede obtener el


perfil de temperatura del gas absorbente a diferentes alturas en la atmósfera.

6. La longitud de onda de 3,9 μm es especialmente interesante en teledetección


térmica porque en ella. . .

Respuesta: (b) En los 3,9 μm se hacen iguales las radiancias térmicas de un cuerpo
(negro) a 6000 K (es decir, el Sol) y de uno a 300 K (es decir, la Tierra). De este
modo, desde un sensor no se podrá distinguir qué parte de la radiancia procede
de la reflexión de la radiación térmica solar o de la emisión térmica terrestre.

La banda de 3,9 μm se usa en teledetección térmica porque tiene muchas propiedades


que la hacen peculiar. No es extraño que sea una banda presente en los sensores SEVIRI
(de los MSG y GOES), AVHRR (de los MetOp y POES), ATSR (de los ERS) y MODIS
(de Terra y Aqua).
Es, por un lado, una banda que aúna propiedades de las bandas ópticas (en las que la
radiación recibida procede de la reflexión de la radiación solar) y de las bandas térmicas

328
M EDIDA REMOTA DE LA TEMPERATURA



 
  


     
 








   
  




Figura 9.7. Curvas de irradiancia solar (suponiendo que la superficie del Sol está a T = 5800 K) y de
emitancia térmica terrestre (suponiendo que se halla a unos T = 280 K). Se puede ver que ambas se cruzan
alrededor de los 5,1 μm.

(en las que la radiación recibida procede de la emitida por los cuerpos en función de
su temperatura). Efectivamente, si se representa la curva de la ley de Planck para la
temperatura de la superficie terrestre, unos 300 K, y la curva de la radiancia espectral
solar que llegaría a esa misma superficie, correspondiente a una temperatura de unos
6000 K en la superficie del Sol (que se halla a unos 150 millones de kilómetros de la
Tierra), se observa que se cruzan en torno a los 5 μm (figura 9.7); en los 3,9 μm se halla la
ventana atmosférica más próxima. Por ello en esta banda, las imágenes correspondientes
al día y las correspondientes a la noche se ven (y se analizan) de forma diferente.
Por otro lado, esta banda se encuentra cerca de la banda de absorción del CO2 (pre-
cisamente la que oculta la banda de 4 − 5 μm). Esta banda próxima puede ensancharse
en función de la temperatura y la presión de este gas, haciendo que absorba parte de
la radiancia en la banda de 3,9 μm. Cerca de superficies cálidas, o a presiones mayo-
res (o cuando los rayos de luz llegan al sensor oblicuamente, de forma que atraviesan
mayor espesor atmosférico), la radiación absorbida por el CO2 hace que la temperatura
calculada en esta banda sea inferior a la determinada por otras bandas.
Pero, además de esto, es en la banda de 3,9 μm donde la emisividad de las diferentes
cubiertas terrestres (cuya radiación térmica se observa de noche) es más diferente: 0,98
para el agua y la vegetación, 0,9 para los suelos arcillosos, 0,8 para los arenosos. Durante
el día esta diferencia de comportamientos se da en la reflexión de la luz del Sol en las
nubes: las nubes “de agua” son más reflectantes que las “de hielo”; además, esta banda
es muy sensible al tamaño de las gotas de agua o los cristales de hielo que las forman,

329
C UESTIONES DE TELEDETECCIÓN

Figura 9.8. Imágenes SEVIRI en la banda TIR de 3,9 μm: noche (izquierda) y día (derecha). Como es
habitual en imágenes meteorológicas, las zonas más oscuras son las de temperatura radiométrica más alta;
el océano se ve con la misma temperatura en ambas imágenes, porque no refleja difusamente la radiación
infrarroja solar, como sucede con la tierra. Fuente: EUMETSAT.

más reflectantes, cuanto más pequeñas.


Por si fuera poco, esta banda de 3,9 μm es muy sensible a la presencia de pequeños
focos calientes dentro de un píxel. Un foco caliente sumará su radiancia a la procedente
del resto del terreno en el píxel; esto hará que se detecte una mayor temperatura, pero
este aumento de la temperatura estimada es mucho mayor en las bandas de longitud de
onda corta (como la de 3,9 μm) que en las bandas de longitud de onda mayor (próximas
a los 10 μm); por ejemplo, si un 5 % del área correspondiente a un píxel se halla a 230◦ C,
la temperatura media estimada en la banda de 3,9 μm sería de 90◦ C, mientras que en
una banda a 10 μm, sólo se medirían unos 40◦ C. Por esta razón, se usa esta banda para
obtener productos de “fuegos forestales activos” (ver figura 9.9).
Por la misma razón, se puede usar esta banda para estudiar los efectos de “isla de
calor” que se manifiestan en una mayor temperatura alrededor de los núcleos urbanos
(figura 9.10).

7. La radiancia emitida por dos cuerpos a la misma temperatura es. . .

Respuesta: (c) La radiancia emitida por un cuerpo negro depende solamente de su tem-
peratura, pero la emitida por un cuerpo real, depende además de su emisividad, es
decir, de su capacidad para convertir la energía térmica de sus átomos y molécu-

330
M EDIDA REMOTA DE LA TEMPERATURA

Figura 9.9. Imagen del 7 de julio de 2003 en la frontera entre España (Galicia) y el norte de Portugal.
Izquierda: Banda IR3.9 (imagen meteorológica: zonas más oscuras corresponden a temperaturas más
altas). Derecha: Diferencia entre las bandas IR3.9-IR10.8 (zonas más brillantes corresponden a diferencias
positivas mayores) en la que destacan los focos más calientes. Fuente: EUMETRAIN/EUMETSAT.

las en radiación electromagnética. Por lo tanto, la radiancia emitida por cuerpos


a la misma temperatura pero con emisividades diferentes puede diferenciarse en
porcentajes apreciables: próximos al 20 %, en el caso de cubiertas naturales, o al
70 %, en el caso de cubiertas artificiales.

La radiancia espectral emitida por un cuerpo debido a su temperatura es función de ésta


(ley de Planck) y de su emisividad. Cuando la emisividad es igual a 1 en todo el espectro,
se dice que es un cuerpo negro (este cuerpo no existe, es sólo un modelo teórico). Las
moléculas y los átomos de cuerpo negro están en equilibrio con la radiación: la energía
cinética de esas partículas se transmite a los fotones de la radiación electromagnética
que emite y estos fotones cuando son absorbidos por el cuerpo negro le transmiten toda
su energía; por eso es negro, porque absorbe toda la energía. Los cuerpos reales, tienen
emisividad siempre menor que la unidad: se dice que son cuerpos “grises” (por supuesto,
no tiene nada que ver con su color visual). Sus moléculas y átomos no sólo se mueven o
vibran, sino que contienen energías diferentes de la cinética (eléctrica, química, etc.): es
la distribución de estas energías la que hace que el equilibrio radiativo esté desplazado
hacia la energía del cuerpo y que haya que introducir un coeficiente de proporcionalidad,
la emisividad ε(λ), para indicar que emiten menos radiación de la que emitiría un cuerpo
negro ideal. En el equilibrio térmico, es decir, el estado que alcanzan los cuerpos tras un
tiempo largo emitiendo o recibiendo radiación, la emisividad ε(λ) es igual a la absortivi-

331
C UESTIONES DE TELEDETECCIÓN

Figura 9.10. Imagen del centro de Francia tomada por el MSG-1 el 14 de julio de 2003 a las 2:00 UTC en
la banda de 3,9 μm. Se puede ver París con una temperatura radiométrica de 287 K, mayor que la de sus
alrededores (a unos 281 K). Fuente: EUMETSAT.

dad α(λ), la fracción de energía radiante que el cuerpo absorbe; es decir, un buen emisor
es también un buen absorbente: ésta es la ley de Kirchoff.
La emisividad varía a lo largo del espectro. En las bandas del infrarrojo térmico
entre 10 − 12 μm, las emisividades de muchas de las cubiertas terrestres de interés (agua,
suelos, vegetación) se encuentran muy próximas a uno: 0,99 para el agua, entre 0,96 y
0,99 para los suelos (más alto, cuanto más contenido orgánico tengan), de 0,96 a 0,99
para la vegetación (ver figura 9.11). El valor promedio que se puede utilizar para ε(λ) es
de 0,97; un error de un 5 % en el valor usado de emisividad, sólo repercute en un 1,25 %
en el error relativo de la temperatura, que para temperaturas en torno a los 300 K son
unos 4◦ C de error. Para reducir el error en la estimación de la temperatura, es necesario
conocer el tipo de cubierta, y utilizar un valor más preciso de su emisividad en la longitud
de onda empleada.
En otras zonas del espectro, la emisividad es más variable entre tipos de cubiertas. En
la banda alrededor de los 4 μm, la emisividad del suelo desnudo es baja, alrededor de 0,8,
mientras que la vegetación y el agua tienen emisividades en torno a 0,98. En situaciones
en las que se mezclan ambos tipos de cubierta, como en praderas o sabanas, la emisividad
resultante será intermedia. En este caso, es posible diferenciar unas cubiertas de otras por
la diferente temperatura aparente que muestran en bandas con diferente emisividad.

332
M EDIDA REMOTA DE LA TEMPERATURA

Figura 9.11. Emisividad superficial de varios tipos de cubiertas. Fuente: EUMETSAT

Por ejemplo, para distinguir el tipo de cubiertas y estimar a partir de la imagen el


valor de la emisividad, se ha propuesto usar el índice de vegetación normalizado (NDVI).
La idea es que, dado que el suelo desnudo y seco posee el valor más bajo de emisividad
y la vegetación vigorosa el más alto, y que esto se correlaciona con el NDVI, es posible
estimar la emisividad en torno a los 10 μm a partir del NDVI:

si el 0 < NDV I < 0,2, se trata de suelo desnudo; su emisividad media se puede
tomar como 0,97

si el 0,5 < NDV I, se trata de suelo cubierto de vegetación; su emisividad media se


puede tomar como 0,99

si el NDV I se halla entre ambos valores, se trata de una mezcla de ambos; la


fracción de la superficie cubierta de vegetación se estima como

NDV I − 0,2
F=
0,5 − 0,2

y la emisividad es la media ponderada de ambas cubiertas: ε = 0,97 × (1 − F) +


0,99 × F.

333
C UESTIONES DE TELEDETECCIÓN

8. Algunos algoritmos para obtener la temperatura utilizan dos o más bandas


térmicas. Esto permite. . .

Respuesta: (d) A pesar de que en el rango del infrarrojo térmico o de las microondas
la radiación electromagnética apenas se ve afectada por los gases atmosféricos,
lo cierto es que siempre existe alguna absorción o emisión en estas bandas del
espectro por el vapor de agua u otros gases de “efecto invernadero”. Como este
efecto no es igual en todas las longitudes de onda, la medida de la radiancia en
varias bandas permite caracterizar este proceso y corregir atmosféricamente la
medida o determinar cómo se distribuyen esos gases y cuál es su temperatura en
la columna de aire.

La temperatura que se determina directamente midiendo la radiancia en el sensor es


la temperatura de la radiación electromagnética que llega a él. Ésta es la temperatura
radiométrica. Si esta radiación es emitida por una cubierta a una cierta temperatura, se
puede suponer que la temperatura de ésta estará relacionada con la temperatura de la
radiación emitida por ella, transmitida a través de la atmósfera y medida, finalmente por
el sensor.
La relación entre la radiancia emitida por un cuerpo y la correspondiente a un cuerpo
negro a la misma temperatura (dada por la ley de Planck) es su emisividad. Si se sabe
que en una banda la emisividad de todas las cubiertas es aproximadamente la misma,
midiendo la radiancia simultáneamente en otras bandas se puede estimar la emisividad
en ellas por comparación. Del mismo modo, si se puede suponer que todas las cubiertas
en un área geográfica de una escena se encuentran a la misma temperatura, entonces
la medida de la radiancia puede permitir distinguir unas de otras, en función de sus
diferentes emisividades.
Cuando se hacen medidas de la radiancia en varias longitudes de onda, en cada una
de ellas la absorción-emisión de los gases atmosféricos introduce un factor de correc-
ción y un desplazamiento de la temperatura de la radiación emitida desde la superficie.
El método más empleado para revertir este efecto (es decir, corregir atmosféricamen-
te la temperatura) se llama de “ventana partida” (split window) y consiste en medir la
radiancia en dos bandas del infrarrojo térmico, λ1 y λ2 , en las que se conoce que la per-
turbación atmosférica debida a la presencia, por ejemplo, de vapor de agua es pequeña
pero diferente. La temperatura radiométrica en la superficie se calcula como
TS = T1 + a(T2 − T1 ) + b
donde los coeficientes a y b dependen de las bandas espectrales y de la emisividad del
vapor de agua atmosférico en ellas, y se suelen determinar empíricamente. Este método

334
M EDIDA REMOTA DE LA TEMPERATURA

se puede generalizar a sensores con más bandas térmicas.


Cuando en las bandas en las que se mide la radiancia hay algún componente de
la atmósfera que es muy absorbente, se puede considerar que toda la radiación térmica
procede de la atmósfera. Entonces, en función del coeficiente de absorción, procederá de
una altura u otra: cuanto mayor sea el coeficiente de absorción atmosférica en una banda,
de más arriba procederá la radiancia porque la de capas inferiores habrá sido absorbi-
da; además, como el gas también será más emisivo (si es muy absorbente, es también
muy emisivo), llegará más radiancia desde las capas superiores que hará despreciable la
que llegue de capas más profundas de la atmósfera. De este modo, es posible medir la
temperatura radiométrica en distintas alturas de la atmósfera o, mejor dicho, a distintos
niveles de presión de la atmósfera, ya que son estos los que se relacionan con la cantidad
de gas absorbente.

9. En el estudio de suelos, se emplean sensores remotos térmicos para estimar el


contenido de agua. Esto se logra estudiando. . .

Respuesta: (d) Existen distintos métodos para estimar la humedad de los suelos. Uno
de ellos está basado en medir su temperatura radiométrica, que está relaciona-
da con la cantidad de agua en su superficie; para ello se usan sensores pasivos
(radiómetros) de microondas. Otros se basan en medir las variaciones de la tem-
peratura superficial entre el día y la noche, que da una idea de la inercia térmica
del terreno, que también está relacionada con su contenido en agua; para éstos,
se suelen usar sensores remotos con bandas en el infrarrojo térmico.

La relación entre el contenido de agua en un suelo y la radiancia térmica emitida procede


de dos fenómenos: el puramente térmico y el electromagnético.
El agua posee un calor específico grande, es decir, es necesaria mucha energía para
elevar su temperatura; por lo mismo, es necesario que el suelo radie mucha energía para
que el agua en él se enfríe. Esta tendencia a mantener su temperatura se llama inercia
térmica; en concreto, la inercia térmica es el cociente entre el flujo de energía incidente
y la variación de temperatura en la superficie. La inercia térmica se caracteriza a partir
de imágenes de teledetección mediante la inercia térmica aparente (AT I): el cociente
entre la fracción de energía radiante procedente del Sol que es absorbida por el suelo
(igual a 1 − A, siendo A la fracción de la energía solar reflejada, que se llama albedo) y
la variación de temperatura entre la noche y el día (ΔT = Tdia − Tnoche )
1−A
AT I =
ΔT

335
C UESTIONES DE TELEDETECCIÓN

Como, por la ley de Stefan-Boltzmann (M = ε̄σT T 4 ), sabemos la energía que emite


un suelo en función de su temperatura, midiendo la variación de la temperatura con el
tiempo podemos saber el calor específico del suelo y, de ahí, estimar qué parte se debe
al agua en él.
El agua, por otro lado, con sales minerales disueltas, es un buen conductor de la
electricidad. Ello quiere decir que el campo eléctrico de las ondas electromagnéticas que
recibe o que emite en bajas frecuencias (en longitudes de onda grandes) arrastrará los
iones disueltos hacia un lado y otro perdiendo así parte de su energía. Por lo tanto, un
suelo con humedad será más absorbente y, por ello, más emisivo. Esto es particularmente
cierto en el rango de las microondas, donde se han establecido relaciones que ligan
contenido de humedad con emisividad ε(λ).
Esto es lo que hace el radiómetro MIRAS (Microwave Imaging Radiometer with
Aperture Synthesis) de la misión SMOS de la ESA. Este sensor mide la radiancia emi-
tida en la banda de los 21 cm (que corresponde a la frecuencia 1,4 GHz de un sensor
radar) donde el cambio en la emisividad debida al contenido de humedad es mayor. Los
resultados del SMOS se espera que proporcionen datos sobre el ciclo del agua, uno de
los elementos decisivos en los modelos climáticos globales debido, precisamente, a su
gran calor específico y su capacidad para almacenar calor, y también a su acción como
agente de efecto invernadero, una vez se evapora del suelo.
Del mismo modo que el contenido de agua en un suelo pone en movimiento más
iones y aumenta la emisividad de éste, en el océano es el aumento de la salinidad el que
hace que haya más iones disponibles. De este modo SMOS puede determinar también
la concentración de sales en el océano. De nuevo, esta información es relevante para los
modelos de circulación global, ya que informa sobre las corrientes marinas y sobre los
procesos de emergencia de aguas profundas (con menos sales).

10. En las áreas urbanas se produce un aumento de la temperatura conocido


como isla de calor. ¿Cuál de estos sensores con varias bandas en el infrarrojo
térmico es más adecuado para caracterizar este efecto?

Respuesta: (c) El estudio de las islas de calor se suele enfocar hacia describir cómo se
distribuye la temperatura a lo largo de un núcleo urbano o cómo varía a lo largo
del día. Por esta razón, para la primera aproximación, el sensor más adecuado es
el ASTER: puede tomar imágenes de una misma ciudad cada 16 días, con varias
bandas térmicas y con una alta resolución espacial de 90 m. Sin embargo, para
la segunda, el SEVIRI o el AVHRR (no es necesaria una observación constante

336
M EDIDA REMOTA DE LA TEMPERATURA

Figura 9.12. Distribución de temperatura nocturna en París (septiembre de 2011). Fuente: ESA.

pero sí a diferentes horas del día) serían adecuados en el caso de ciudades muy
extensas..

En las grandes ciudades, la radiación procedente del Sol es absorbida por las construccio-
nes humanas y pavimentos de vías de comunicación, sólidas y con gran inercia térmica
(y poca emisividad). Además, las propias fuentes de calor y gases calientes emitidos por
la actividad humana contribuyen al aumento de la temperatura atmosférica en el centro
de las ciudades. Este efecto se llama isla de calor (figura 9.12).
Se suelen distinguir tres islas de calor: la isla de calor superficial, que se refiere a la
temperatura de la superficie de calles y edificios; la del “dosel urbano”, que se refiere a la
temperatura del aire sobre la ciudad, hasta la altura de sus edificios, y la de “capa límite”
atmosférica, que se refiere a aumento de la temperatura de la atmósfera sobre la ciudad,
hasta 1 km de altura, aproximadamente. La temperatura que se puede medir directamente
por teledetección es temperatura de la superficie (el aire es prácticamente transparente
a la radiación del infrarrojo térmico, por eso no se puede medir su temperatura), pero
es posible estimar también la temperatura del “dosel urbano”, que es la que tiene más
interés ambiental, correlacionándola con las medidas de estaciones en tierra.
Las islas de calor han sido estudiadas mediante teledetección utilizando los radió-
metros empleados en estudios meteorológicos y climatológicos. Estos están limitados a
resoluciones de 3 km (SEVIRI) a 1,1 km (AVHRR) o 1 km (MODIS). También se han
estudiado con las bandas térmicas del Landsat-5 (120 m) o del ASTER (90 m) o del

337
C UESTIONES DE TELEDETECCIÓN

Landsat-7 (60 m) y se podrán estudiar con las del Landsat-8 (100 m); estas imágenes
permiten observar la distribución espacial de los focos que más contribuyen a la forma-
ción de la isla de calor. En el caso de las imágenes con mayor resolución temporal, es
posible estimar la inercia térmica de las cubiertas urbanas y cómo influyen en la distribu-
ción de temperatura las condiciones atmosféricas (viento, humedad, etc.). En el caso de
imágenes con mayor resolución espacial es importante una buena corrección para deter-
minar la temperatura a partir de la radiancia recibida en el sensor: tanto atmosférica (que
es posible usando las varias bandas térmicas del ASTER) como de emisividad (estimán-
dola, por ejemplo, a partir del índice de vegetación normalizado del visible-infrarrojo
cercano).
Conocer la distribución del calor en la ciudad también permite diseñar estrategias
para mitigarlo. Se ha observado que el uso de materiales menos absorbentes de la ra-
diación solar (con mayor albedo), reduce la formación de la isla de calor. También se
reduce la isla de calor aumentando la cubierta vegetal, que tiene muy poca inercia tér-
mica y gracias a la evapo-transpiración reduce la temperatura ambiente: cuando la hoja
cede vapor de agua al ambiente, es necesario invertir energía térmica en evaporar el agua
líquida de su interior, lográndose así un enfriamiento neto.

338
M EDIDA REMOTA DE LA TEMPERATURA

9.4. CONCEPTOS IMPORTANTES

algoritmo de ventana partida (split window) Algoritmo para el cálculo de la tempera-


tura superficial que emplea dos o más bandas térmicas en la estimación. Este tipo
de algoritmos se suelen calibrar experimentalmente y mejoran la precisión de la
medida al tener en cuenta los efectos de absorción en la atmósfera.

cuerpo negro Modelo físico ideal de cuerpo que absorbe toda la radiación electromag-
nética que llega a él y que la reemite en equilibrio térmico con sus moléculas. El
espectro de emisión sólo depende de la temperatura a la que se halle el cuerpo y
viene dada por la ley de Planck.

emisividad Coeficiente que relaciona la radiancia térmica emitida por un material con
la que emitiría un cuerpo negro a la misma temperatura. La emisividad depende
de las propiedades eléctricas del material

escala de temperatura Convenio para asignar un valor numérico a la temperatura ba-


sado, históricamente, en los efectos de ésta sobre los cuerpos. La temperatura
equivale a la energía media de agitación de las moléculas de un cuerpo, que es
del orden de la constante de Boltzmann. La escala Kelvin se define de este modo,
como la energía de agitación molecular medida en unidades de la constante de
Boltzmann.

gas de efecto invernadero Gas atmosférico que tiene bandas de absorción en el infra-
rrojo térmico, lo que hace que absorba parte de la energía radiante emitida por la
superficie terrestre y la vuelva a emitir debido a su propia temperatura. El efec-
to neto es que se reduce la energía radiante emitida al espacio, aumentando la
temperatura del planeta.

inercia térmica Parámetro que caracteriza la variación de temperatura al iluminar una


superficie. Depende de la absortividad de ésta (el complementario de su reflectivi-
dad o albedo térmico), de su conductividad térmica y de su calor específico.

isla de calor Aumento de la temperatura atmosférica sobre una ciudad debido al ca-
lentamiento del aire por los materiales de construcción de ésta, con gran inercia
térmica y que no se enfrían por la noche.

Kelvin Escala física de temperatura definida a partir de la energía media de agitación


molecular. La escala Kelvin contempla sólo valores positivos de temperatura. El
cero Kelvin, también llamado cero absoluto, es la menor temperatura alcanzable
por un cuerpo.

339
C UESTIONES DE TELEDETECCIÓN

ley de Wien Relación entre la temperatura de un cuerpo negro y la longitud de onda


del máximo de su espectro de emisión. La ley dice que esa longitud de onda y la
temperatura Kelvin son inversamente proporcionales.

ley de Stefan-Boltzmann Relación entre la temperatura de un cuerpo negro y la radian-


cia total que emite.

ley de Planck Relación entre la temperatura de un cuerpo negro y su radiancia espec-


tral. Esta ley permite derivar las leyes de Wien y de Stefan-Boltzmann. Invirtién-
dola permite calcular la temperatura que corresponde a una radiancia espectral
observada en una banda térmica.

ley de Rayleigh-Jeans Aproximación de la ley de Planck para longitudes de onda lar-


gas. A estas longitudes de onda, en el rango de las microondas, radiancia y tem-
peratura son proporcionales.

radiómetro de microondas Sensor pasivo que capta con su antena la radiancia emitida
por la superficie terrestre en el rango de las microondas y, a partir de la potencia
recibida, determina la temperatura superficial. En el rango de las microondas, la
atmósfera es transparente, por lo que se utilizan estos sensores para obtener la
temperatura superficial del mar aun en presencia de nubes. Debido al tamaño de
la antena del sensor y a la poca radiancia emitida a longitudes de onda largas el
IFOV () de estos sensores es muy grande, de decenas o centenares de kilómetros.

temperatura Magnitud física que caracteriza la energía cinética de las moléculas de


una sustancia. Su unidad en el sistema internacional de unidades (SI) es el Kelvin.

temperatura de brillo Temperatura estimada a partir del espectro de emisión de un


cuerpo en el infrarrojo térmico asumiendo que éste sigue la ley de Planck. Como
los cuerpos reales no son emisores ideales, temperaturas de brillo para un mismo
objeto calculadas a partir de la radiancia espectral emitida a diferentes longitudes
de onda, pueden ser diferentes.

9.5. BIBLIOGRAFÍA

Y. Julien et al. (2011). “Temporal analysis of normalized difference vegetation


index (NDVI) and land surface temperature (LST) parameters to detect changes in
the Iberian land cover between 1981 and 2001”. International Journal of Remote
Sensing, 32(7): 2057-2068.

340
M EDIDA REMOTA DE LA TEMPERATURA

C. Justice, L. Giglio, L. Boschetti, D. Roy, I. Csiszar, J. Morisette, Y. Kaufman


(2006). “MODIS Fire Products — Algorithm Technical Background Document”.
MODIS ATBD series., MODIS Science Team, EOS ID# 2741.

J.A. Sobrino et al. (2009). “Thermal remote sensing from Airborne Hyperspec-
tral Scanner data in the framework of the SPARC and SEN2FLEX projects: an
overview”. Hydrology and Earth System Science, 13, 2031-2037.

Varios (2015). Special Issue “Recent Advances in Thermal Infrared Remote Sen-
sing”. Remote Sensing, 7(4).

Q. Weng (2009). “Thermal infrared remote sensing for urban climate and environ-
mental studies: Methods, applications, and trends”. ISPRS Journal of Photogram-
metry and Remote Sensing, 64: 335-344.

D. Zhang, R. Tang, W. Zhao, B. Tang, H. Wu, K. Shao, Z-L. Li (2014). “Surface


Soil Water Content Estimation from Thermal Remote Sensing based on the Tem-
poral Variation of Land Surface Temperature”. Remote Sensing, 6: 3170-3187.

Expert Support Laboratories (2010). “Algorithm Theoretical Basis Document


(ATBD) for the SMOS Level 2 Soil Moisture Processor Development Continua-
tion Project”. ESA No. SO-TN-ARR-L2PP-0037.

Webgrafía (accesible el 1/05/2015)

Satellite observations help lessen the effects of heat waves in urban areas — ESA
URL: http://www.esa.int/Our_Activities/Observing_the_Earth/Satellite_observati
ons_help_lessen_the_effects_of_heat_waves_in_urban_areas
Noticia sobre el proyecto DESIREX de la ESA dedicado a estudiar las islas de
calor y llevado a cabo en 2008 por universidades y agencias de investigación es-
pañolas en varias ciudades.

Satellites predict city hot spots — ESA


URL: http://www.esa.int/Our_Activities/Observing_the_Earth/Satellites_predict_
city_hot_spots
Resultados del equipo de estudio de Islas Urbanas de Calor y Termografía Urbana
de la ESA tras analizar 10 ciudades europeas en 2010.

341
C UESTIONES DE TELEDETECCIÓN

Mapping moisture: SMOS — ESA


URL: http://www.esa.int/Our_Activities/Observing_the_Earth/SMOS/Mapping_soil
_moisture_and_ocean_salinity
Resumen de la importancia y aplicaciones de las medidas de humedad del terreno
llevadas a cabo por el SMOS de la ESA.

Novel technology: SMOS — ESA


URL: http://www.esa.int/Our_Activities/Observing_the_Earth/SMOS/Novel_tech
nology
Resumen de la tecnología del radiómetro MIRAS a bordo del SMOS de la ESA.

Scanning Mechanism - AVHRR Description — ESA


URL: http://www.esa.int/Our_Activities/Observing_the_Earth/The_Living_Planet
_Programme/Meteorological_missions/MetOp/Scanning_mechanism
Descripción del instrumento AVHRR a bordo de los MetOp.

Physical Principles of Passive Microwave Radiometry — ESA Earth Observation


Summer School on Earth System Monitoring & Modeling
URL: https://earth.esa.int/documents/973910/1002056/EL1.pdf
Tutorial sobre principios físicos de la radiometría de microondas presentado por
E. López Baeza en la escuela de verano de la ESA en 2012.

Forest Fires — EUMETRAIN


URL: http://www.eumetrain.org/data/3/30/navmenu.php?tab=5&page=1.0.0
Tutorial sobre el producto MPEF de EUMETSAT para detección de fuegos (pun-
tos calientes o hot spots) mediante imágenes Meteosat.

Infrared and microwave remote sensing of sea surface temperature (SST)


URL: http://www2.hawaii.edu/∼jmaurer/sst/
Página del profesor J. Maurer de la Universidad de Hawaii en Manoa (EE.UU.)
sobre determinación de la temperatura superficial del océano (SST) mediante téc-
nicas de teledetección.

Current Sea Surface Temperatures Rising in the Gulf of Mexico — Scientific Vi-
sualization Studio, NASA

1. URL: http://svs.gsfc.nasa.gov/cgi-bin/details.cgi?aid=3532

342
M EDIDA REMOTA DE LA TEMPERATURA

2. Visualización por Trent L. Schindler (NASA) de la variación diaria de la


temperatura del agua del mar en el Golfo de México a lo largo del año 2008
usando datos de los instrumentos a bordo del satélite Aqua.

Atmospheric Correction Parameter Calculator — NASA


URL: http://atmcorr.gsfc.nasa.gov/
Aplicación web para el cálculo de la corrección atmosférica de las bandas térmicas
de los satélites Landsat

NIST Standard Reference Database — Chemistry WebBook


URL: http://webbook.nist.gov/chemistry/
Base de datos físico-químicos del NIST en la que se pueden obtener, por ejemplo,
los espectros infrarrojos de absorción de gases atmosféricos como el

• Agua: http://webbook.nist.gov/cgi/cbook.cgi?ID=C7732185&Units=SI&Ty
pe=IR-SPEC&Index=0#IR-SPEC
• CO2 : http://webbook.nist.gov/cgi/cbook.cgi?ID=C124389&Units=SI&Type
=IR-SPEC&Index=0#IR-SPEC

What Color is the Sun? — Stanford Solar Center


URL: http://solar-center.stanford.edu/SID/activities/GreenSun.html
Discusión (científica) en Centro Solar de la Universidad de Stanford (EE.UU.)
acerca de cuál es el color (visual) del Sol.

MODIS UCSB Emissivity Library — University of California, Santa Barbara


URL: http://www.icess.ucsb.edu/modis/EMIS/html/em.html
Biblioteca de espectros de emisividad ε(λ) de materiales naturales y artificiales
compilada por el Instituto de Computación en Ciencias de la Tierra (Institute for
Computational Earth System Science) de la UCSB. La biblioteca permite apli-
car algoritmos de “ventana partida” (split window) para la determinación de la
temperatura termométrica de diferentes cubiertas terrestres a partir de datos de
temperatura de brillo obtenidas desde un satélite como MODIS.

Urban Heat Islands (UHIs)


URL: http://www.urbanheatislands.com/home
Sitio web mantenido por los profesores C. Pérez Arrau y M.A. Peña sobre islas de
calor urbanas.

343
Tema 10

El “color” de las cubiertas terrestres

GUION-ESQUEMA

La atmósfera: nubes y aerosoles

La hidrosfera: cubiertas acuáticas

La criosfera: agua helada (nieve y hielo)

La litosfera: suelos

La biosfera: cubiertas vegetales


346
Altura
Temperatura
C UESTIONES DE TELEDETECCIÓN

1.00
nieve
Compactación
0.75

nubes
0.50
vegetación
Granulometría

reflectividad
Humedad
0.25
suelo
Vegetación
LAI/NDVI 0.00
500 1000 1500 2000 2500

Microalgas

Sólidos en
suspensión
E L “ COLOR ” DE LAS CUBIERTAS TERRESTRES

10.1. INTRODUCCIÓN

En este tema se explica por qué cada cubierta terrestre se ve como se ve a través
de un sensor multiespectral. Las cubiertas de nubes, hielo, agua, vegetación y suelos,
son las más habituales en una imagen de satélite. Las múltiples reflexiones (llamadas,
en algunos casos, como en la atmósfera o en el agua, dispersiones), los “acoplamientos”
ópticos y la absorción por pigmentos son los fenómenos que determinan cómo se ve
cada una de ellas. Diferentes factores como la humedad o la compactación afectarán a
la reflectividad, y por lo tanto, se podrá conocer el estado de una cubierta basándose
en ello. Otros factores que afectan a la reflectividad son los pigmentos que absorben la
luz en determinadas bandas. Por ejemplo, las hojas vigorosas son más verdes, es decir,
menos azules y menos rojas, ya que la clorofila absorbe estos colores.

10.2. CUESTIONES

1. ¿Cómo se relaciona el espectro de reflexión de una cubierta con los espectros de


absorción de los pigmentos que contiene?

a) el espectro de reflexión es igual a la unidad (100 % de reflectividad) menos


la suma ponderada con las concentraciones de los espectros de absorción
b) el espectro de reflexión es igual a la unidad (100 % de reflectividad) menos
el producto de los espectros de absorción
c) el espectro de reflexión es igual al espectro de reflexión de la estructura del
material menos una suma ponderada de espectros de absorción
d) ninguna de las anteriores

2. El espectro de reflexión del agua pura decrece gradualmente a lo largo del espectro
visible, hasta valores casi inapreciables en el infrarrojo cercano. ¿Qué le sucede a
ese espectro cuando el agua no es pura, sino que contiene sólidos en suspensión?

a) se reduce uniformemente debido a que que hay más elementos absorbentes


en ella
b) se reduce en el azul debido a que los sólidos en suspensión absorben a lon-
gitudes de onda cortas
c) aumenta en todas las bandas visibles e infrarrojas debido a que los sólidos
dispersan la luz

347
C UESTIONES DE TELEDETECCIÓN

d) aumenta en las bandas visibles debido a la dispersión por los sólidos de la


luz no absorbida en el agua

3. El agua líquida es muy absorbente en el infrarrojo, tanto cercano (NIR) como en el


de onda corta (SWIR). Sin embargo, el espectro de reflexión de las nubes es muy
constante a lo largo de todo el rango óptico (visible, NIR y SWIR, quitando las
bandas de absorción del vapor de agua atmosférico). ¿A qué se debe esta aparente
paradoja?

a) las moléculas de agua, cuando ésta se halla en forma de gotas microscópicas,


no absorben la radiación infrarroja
b) la luz (visible e infrarroja) se refleja en la superficie de las gotitas de las
nubes, sin llegar a ser absorbida en su interior
c) la dispersión de la luz por las microgotas de agua, que es mayor en las lon-
gitudes de onda más largas, compensa la absorción en ellas
d) no es cierto que el espectro de reflexión de las nubes sea muy constante en
este rango

4. El color (visible) de la nieve que se halla en estado natural en una montaña puede
ser . . .

a) blanco
b) azul
c) rosa
d) cualquiera de los anteriores

5. ¿Qué cambio en un suelo puede hacer que sea más reflectante en el visible e in-
frarrojo?

a) aumento de su permeabilidad
b) aumento de su humedad
c) aumento de su contenido en óxidos de hierro
d) aumento de su contenido en materia orgánica

348
E L “ COLOR ” DE LAS CUBIERTAS TERRESTRES

6. Para identificar los tipos de minerales en un suelo rocoso (es decir, sin vegetación
ni suelo vegetal) se debe estudiar el comportamiento de su espectro. . .

a) a lo largo del SWIR


b) en determinadas bandas en el visible y el SWIR
c) en el NIR, cerca de las bandas de absorción del agua
d) en ninguno de los anteriores

7. El espectro típico de la vegetación es muy reflectante en el NIR porque en él. . .

a) no hay bandas de absorción de los pigmentos fotosintéticos


b) el agua presente en las hojas transmite la luz infrarroja en lugar de absorberla
c) la cutícula que recubre el haz (la parte brillante) de las hojas refleja esa banda
de la luz incidente
d) la radiación es dispersada por las estructuras microscópicas de las células

8. Las algas marinas (macrófitas) se clasifican en rojas, pardas y verdes. ¿A qué se


deben estos colores?

a) al color de sus frutos


b) a su color aparente a las profundidades a las que se hallan
c) a que poseen diferentes pigmentos fotosintéticos
d) a una tradición de los botánicos

9. El estado fenológico de la vegetación, que indica cómo evolucionan sus funcio-


nes biológicas, se manifiesta en su respuesta espectral. Para caracterizarlo se ha
definido una transformación llamada tasseled cap, que convierte los valores de re-
flectividad en las bandas Landsat TM (muy comunes, por otra parte) a un espacio
de características. ¿Cuáles son estas características?

a) vigorosidad, densidad y productividad


b) verdor, macilencia y humedad
c) macilencia, senescencia y sequedad
d) brillo, humedad y verdor

349
C UESTIONES DE TELEDETECCIÓN

10. Para caracterizar la cantidad de biomasa en un bosque se emplea el índice de masa


foliar (LAI, leaf area index), que son los metros cuadrados de hojas que forman
los doseles arbóreos sobre un metro cuadrado de terreno. ¿Cómo se manifiesta un
LAI mayor en el espectro de reflexión de una cubierta vegetal?

a) el NDVI crece proporcionalmente al LAI


b) el NDVI disminuye proporcionalmente al LAI
c) el NDVI crece con LAI bajos, pero no varía para valores altos del LAI
d) el NDVI apenas varía con LAI bajos, y crece más para valores altos del LAI

350
E L “ COLOR ” DE LAS CUBIERTAS TERRESTRES

10.3. RESPUESTAS A LAS CUESTIONES

1. ¿Cómo se relaciona el espectro de reflexión de una cubierta con los espectros de


absorción de los pigmentos que contiene?

Respuesta: (d) El espectro de reflexión de una cubierta está relacionado con los pig-
mentos que ésta contiene, pero también con su estructura interna que determina
los caminos que siguen los rayos de luz en ella y que, por lo tanto, determinan
las oportunidades que tienen los pigmentos para absorber la luz en sus bandas
de absorción. Por lo tanto, no existe una relación sencilla entre el espectro de ab-
sorción de los pigmentos y el espectro de absorción de la cubierta que los posee
(y por lo tanto, tampoco en el de reflexión), más allá de que en los máximos de
absorción de los pigmentos cabe esperar mínimos de reflexión de la cubierta.

El espectro de reflexión o reflectividad espectral de una cubierta muestra qué fracción de


la energía radiante incidente es devuelta por ésta. Por lo general, esta energía radiante se
mide desde la misma posición o una posición cercana al origen de la luz que ilumina la
superficie, y se supone que este resultado es independiente de dicha posición, es decir,
se supone que la superficie refleja la luz difusamente. Una superficie pulida no refleja
la luz difusamente, sino especularmente (como un espejo): los rayos de luz “rebotan”
elásticamente en su superficie, sin entrar en ella. Así sucede, por ejemplo, con el agua:
si se ilumina perpendicularmente su superficie en reposo y se observa desde esa misma
dirección, se verá que su superficie refleja especularmente un 2 % de la luz incidente.
Si la incidencia o la observación no son perpendiculares, este porcentaje de reflexión
será mayor cuanto mayor sea el ángulo de separación de la vertical. Este efecto tiene
carácter general, y un material con una superficie muy rugosa reflejará más luz desde
sus múltiples facetas: debido a que la superficie es rugosa, esta luz será reflejada en
muchas direcciones, produciendo el efecto de reflexión difusa.
La fracción de la energía radiante reflejada especularmente en una superficie viene
dada por la diferencia entre la velocidad de propagación de las ondas electromagnéticas
en los medios que separa: cuanto más cambie esa velocidad, mayor fracción de la energía
rebotará hacia el medio de incidencia. El cociente entre la velocidad de las ondas de luz
en el vacío (que es la misma, c = 2,998 × 108 m/s, independientemente de su longitud
de onda) y la velocidad de las ondas de luz en un medio material se llama índice de
refracción de ese material, n. La velocidad de las ondas electromagnéticas en un medio
es siempre menor que en el vacío y depende de las “dificultades” que presente este medio
a la oscilación del campo eléctrico: cuando los electrones en las moléculas del material
presentan resistencia a oscilar a determinadas frecuencias o absorben la energía en esas

351
C UESTIONES DE TELEDETECCIÓN

Figura 10.1. Descomposición de la luz blanca según longitudes de onda (colores del “arco iris”) por un
analizador (un prisma de cristal). Fuente: fotografía de D-Kuru (distribuida bajo licencia CC BY-SA 3.0).

frecuencias las ondas electromagnéticas se propagan más lentamente; cuando oscilan


libremente a la frecuencia impuesta por el campo eléctrico de las ondas, el índice de
refracción se aproxima a la unidad. Por lo general, los electrones (y otras cargas, como
los iones en disolución) oscilan con más facilidad a frecuencias bajas (longitudes de
onda largas), por lo que es a frecuencias altas (longitudes de onda cortas) a las que más
se refracta la luz; basta recordar que el azul es el color más desviado del haz refractado
por un prisma, más que el rojo.
Cuando la luz atraviesa la superficie de una cubierta y entra en ella, su estructura
compleja dispersa los rayos de luz en múltiples direcciones: algunas, en la dirección del
observador (el sensor), otras, hacia el interior de la cubierta.
Por ejemplo, en la arena, cada grano refleja la luz en su superficie, pero también
transmite hacia su interior y vuelve a refractar hacia los espacios de la matriz del terreno
parte de esa luz, que entra en granos situados más profundamente. La cantidad de luz

352
E L “ COLOR ” DE LAS CUBIERTAS TERRESTRES

reflejada o transmitida en cada refracción depende del cociente entre índices de refrac-
ción entre los granos de arena y la matriz en la que se encuentran. Cuando esta matriz
es aire, la cantidad reflejada es máxima: menos luz entra dentro de cada grano de arena,
menos luz es refractada desde su interior hacia los granos situados debajo. Por eso la
arena seca tiene una reflectividad alta. Cuando la matriz es agua, porque la arena está
húmeda, la diferencia entre los índices de refracción de la arena (narena = 1,55) y del
agua (nagua = 1,33) es más próxima a la unidad: en cada refracción se reflejará menos
luz, por lo que mayor cantidad de energía radiante penetrará en mayor número de granos.
Dentro de ellos, los pigmentos presentes podrán absorber mayor cantidad de energía: la
arena húmeda es más absorbente. Esta absorción será mayor en las bandas de absorción
de esos pigmentos, pero la condición fundamental es que la energía radiante llegue a
ellos para ser absorbida; en caso contrario, el material aparecerá gris.
Así pues, el espectro de reflectividad de una cubierta dependerá: de la rugosidad de
su superficie, del tipo de material y de matriz que la forme (de sus índices de refracción),
del tamaño y densidad de los “granos” o “capas”, y de los pigmentos en el interior
de éstos que absorben la radiación electromagnética. Pero no dependerá de una forma
sencilla de ninguna de ellas, sino de todas ellas combinadas al tiempo.

2. El espectro de reflexión del agua pura decrece gradualmente a lo largo del


espectro visible, hasta valores casi inapreciables en el infrarrojo cercano. ¿Qué
le sucede a ese espectro cuando el agua no es pura, sino que contiene sólidos en
suspensión?

Respuesta: (c) El agua es muy absorbente en el infrarrojo cercano, tanto que 10 cm de


agua absorben el 98 % de la energía radiante de longitud de onda de 1 μm que la
atraviesa. Debido a la atenuación exponencial de la luz en el medio, lo anterior
equivale a decir que cualquier radiancia infrarroja reflejada desde la columna
de agua procederá de reflexiones en partículas suspendidas, en promedio, a lo
largo de los 4 mm de agua por debajo de la superficie (la luz infrarroja apenas
penetra más abajo). Sólo los pigmentos disueltos reducirán aún más la radiancia
procedente del agua.

El agua pura es transparente en el rango visible en pequeñas cantidades, aunque a gran-


des profundidades adquiere un color azul verdoso. Esto se debe a que, en torno a los
480 nm, presenta un mínimo de absorción, de forma que es en esa longitud en la que a
más profundidad penetra la luz. Sin embargo, a partir de longitudes de onda en torno a
1 μm, se hace mucho más absorbente de la radiación electromagnética siendo práctica-
mente“negra”enlasimágenesremotasadquiridasenestaslongitudesdeonda.

353
C UESTIONES DE TELEDETECCIÓN

La absorción de la radiación electromagnética se produce en el agua siguiendo la


ley de Lambert-Beer. Esta ley dice que la irradiancia espectral solar Eλ− (d) que llega a
una profundidad dada d está relacionada con la que penetra en el agua Eλ− (d = 0) por la
relación:
Eλ− (d) = Eλ− (d = 0) × e−α(λ)d/ cos θ

El signo “-” en la irradiancia se refiere a que se trata de energía que baja dentro de la
columna de agua (downwelling); en particular Eλ− (d = 0) es la irradiancia que se mediría
justo por debajo de la superficie (es decir, dentro) del agua. En esta relación aparece el
valor α(λ), el coeficiente de atenuación, y el coseno del ángulo θ de transmisión de la
luz en el agua ya que, para llegar a una profundidad dada, un rayo de luz oblicuo debe
recorrer una mayor distancia. Por su carácter exponencial, nos indica que la variación
de esa irradiancia será muy sensible al coeficiente de absorción y a la profundidad; de
hecho, el 63 % de la energía se habrá absorbido en una longitud igual a 1/α(λ). Esta
longitud se llama primer espesor óptico del agua.
Además de la absorción de la radiación electromagnética por el agua pura, en el
agua puede haber disueltos pigmentos que absorben la energía radiante, como la clorofi-
la de las algas microscópicas del fitoplancton, en el agua oceánica, o la materia orgánica
disuelta coloreada (CDOM, coloured dissolved organic matter), que da su color amari-
llento a la aguas de ríos y lagos (típicamente en el norte de Europa). Estos compuestos
contribuyen a aumentar el coeficiente de absorción del “agua coloreada” proporcional-
mente a su concentración:

α(λ) = αagua (λ) + βChla (λ) × [Chla] + βCDOM × [CDOM]

Sin embargo, cuando en el agua hay suspendidas partículas sólidas (SS, sólidos en sus-
pensión), la diferencia de índices de refracción entre el agua y estas partículas, hace que
la luz se disperse en ellas y sea, una parte, devuelta hacia el exterior del agua. La ra-
diancia que ascenderá dispersada por los SS será proporcional a su concentración [SS]
y procederá del primer espesor óptico que es hasta donde llega (y desde donde puede
volver a emerger) la mayor cantidad de energía radiante que entra en el agua:

1 σSS (λ) × [SS] −


Lλ+ (d = 0) = Eλ (d = 0)
2π α(λ)

El coeficiente σSS (λ) se llama sección eficaz de dispersión de los sólidos y será propor-
cional al área de las partículas dispersas. Como antes, esta radiancia espectral Lλ+ (d = 0)
es medida dentro del agua, ascendiendo (signo “+”) hacia la superficie; hacia fuera del

354
E L “ COLOR ” DE LAS CUBIERTAS TERRESTRES

0.07

0.06

0.05
Reflectividad 800 mg/l

400 mg/l
0.04

200 mg/l
0.03
100 mg/l

0.02 50 mg/l

0.01

0.00
400 500 600 700 800 900
Longitud de onda (nm)

Figura 10.2. Espectro de reflectividad del agua con partículas minerales en suspensión. Adaptado de Hand
& Rundquist (1994).

agua saldrá una radiancia inferior, ya que una parte de la energía (de nuevo, en torno al
2 − 3 %) será reflejada hacia el interior.
Debido a la presencia de las partículas de SS, el agua se verá turbia; esta turbidez
se suele medir como la fracción de irradiancia reflejada a los 490 nm desde aguas pro-
fundas; esa fracción de energía reflejada (correspondiente a la fracción de la ecuación
anterior) se llama K490 . Esta banda de 490 nm es muy frecuente en los sensores de “color
oceánico”, como los CZCS, SeaWiFS, MODIS, MERIS, Sentinel-2, etc.
En todo lo anterior, se ha hablado de absorción por el agua y los pigmentos (y tam-
bién de dispersión por SS). Pero, entonces, ¿cómo se ven los pigmentos o el agua en
teledetección? Aunque los pigmentos y el agua absorben principalmente la luz, en el
interior del agua siempre existen dispersores que reflejan la luz en todas direcciones. En
el caso de la clorofila, el principal dispersor serán las propias paredes de las microalgas
que la contienen. En el caso del CDOM, los sólidos en suspensión que los suelen acom-
pañar. También dispersan fuertemente la luz las burbujas de aire que contiene el agua.
En el caso del agua totalmente pura y sin burbujas, los “defectos” que se producen por el
movimiento de sus moléculas serían los que actuarían como dispersores; también el agua
pura reflejaría una ínfima cantidad de luz, que se vería azul-verdosa, ya que es la longitud
de onda que más profundamente llegaría (sería menos absorbida) y más oportunidades

355
C UESTIONES DE TELEDETECCIÓN

0.014
3
[Chl−a] = 3 mg/m
0.012

0.010
reflectividad
3
[Chl−a] = 30 mg/m
0.008

0.006

0.004

0.002 [Chl−a] = 300 mg/m


3

0.000
400 500 600 700 800
Longitud de onda (nm)

Figura 10.3. Reflectividad del agua marina en función de la concentración de clorofila-a en ella;
sombreadas, las bandas de MERIS. Adaptado de Gower & King (2004).

tendría de ser dispersada.


Pero, además de la dispersión, en el caso de la clorofila existe otro fenómeno que
nos permite verla desde un sensor en el espacio: la fluorescencia. La energía que ab-
sorbe la clorofila se emplea en la fotosíntesis para elevar el nivel energético de algunas
moléculas; cuando estas moléculas ceden parte de su energía, todavía sus electrones se
hallan en niveles excitados de energía y devuelven ésta en forma de luz. En particular, la
clorofila tiene un máximo de fluorescencia en los 705 nm (figura 10.3), es decir, en esta
longitud de onda el agua con mucha clorofila emitirá más luz de la que recibe, mientras
que reflejará muy poca en otras longitudes de onda (porque la absorberá). De nuevo, la
longitud de onda de 705 nm es muy usada en los sensores de color oceánico.

3. El agua líquida es muy absorbente en el infrarrojo, tanto cercano (NIR) como


en el de onda corta (SWIR). Sin embargo, el espectro de reflexión de las nubes
es muy constante a lo largo de todo el rango óptico (visible, NIR y SWIR,
quitando las bandas de absorción del vapor de agua atmosférico). ¿A qué se
debe esta aparente paradoja?

Respuesta: (b) Las gotas de agua (o cristales de hielo) en las nubes forman un medio
muy disperso, en el que prima la reflexión en la superficie de las partículas sobre

356
E L “ COLOR ” DE LAS CUBIERTAS TERRESTRES

8 km Solo hielo
(−40 ºC)

6 km Hielo / Liquida
(−20 ºC)

Agua liquida
1 km

Figura 10.4. Estratificación de la temperatura y las fases del agua en una nube en función de la altura.

la absorción que se produce en su interior. Esa reflexión, aunque sea de sólo un


2 % en cada cruce de la luz por una superficie de una gota, contribuye mucho más
a la fracción de energía radiante que abandona la nube que la fracción absorbida
al cruzar sus diámetros, del orden de sólo 10 μm, en promedio.

Las nubes están formadas por gotas minúsculas de agua, que se encuentran en equilibrio
con vapor de agua y suspendidas en el aire (por corrientes ascendentes). El tamaño de las
gotas es más pequeño en los niveles más bajos (menos de 10 μm de diámetro), en los que
comienza la condensación del agua alrededor de partículas de aerosoles (que se llaman
núcleos de condensación), y aumenta gradualmente según se asciende en la nube (más
de 10 μm de radio): aquí se forman las gotas de lluvia. Según se asciende (figura 10.4),
también desciende la temperatura y pueden aparecer gotas de hielo (“granizo”) o gotas
de agua sobreenfriada (por debajo de −20◦ C, pero todavía líquidas); el tamaño de estas
partículas será menor cuanto más rápido haya evolucionado la nube. A partir de cierta
altura, lo que se encuentran son cristales de hielo (a temperaturas inferiores a −40◦ C),
que llegan a adquirir un tamaño mayor que las gotas (hasta casi 1 mm).
Observadas desde los sensores sobre ellas, las nubes se ven muy reflectantes, y con la
misma reflectividad en un amplio rango del espectro que incluye desde el visible, hasta
buena parte del infrarrojo de onda corta (desde los 300 nm hasta los 2 μm); esa reflecti-
vidad, para nubes ópticamente espesas, es del orden del 60 %. Esto se debe a que, al ser

357
C UESTIONES DE TELEDETECCIÓN

Figura 10.5. Albedo esférico (fracción de la radiación electromagnética reflejada cuando la radiación
incide igual desde todas direcciones) de una gota en función de su tamaño; equivale a la reflectividad de
una nube de gotas. Sombreadas, las bandas de MODIS. Fuente: NASA (MoDIS ATBD).

las gotas tan pequeñas, ofrecen una superficie muy grande sobre la que se refleja la ra-
diación solar y un volumen pequeño, en comparación, en el que la energía radiante sería
absorbida. Además, el índice de refracción del agua permanece prácticamente constante
en todo este rango (en torno a 1,3) por lo que la fracción reflejada es la misma en todas
las longitudes de onda.
La fracción de energía reflejada hacia el sensor depende, no obstante, del tamaño de
las gotas (o de los cristales de hielo) y, por ello, de la altura de la nube; esto permite
diferenciar unas nubes de otras. La luz es reflejada desde la superficie de las gotas y, por
lo tanto, la reflectividad por unidad de volumen depende de la concentración de las gotas
y de su superficie (el cuadrado de su radio efectivo, Nre2 ). De reflexión en reflexión,
la luz se difunde en el interior de la nube pero, por otro lado, es absorbida conforme
penetra por el volumen de las gotas, que es proporcional a la concentración de éstas y
al cubo de su radio efectivo, Nre3 . Esta absorción determina la profundidad hasta la que
la luz penetra, es decir, el espesor óptico de la nube, y es inversamente proporcional
al coeficiente de absorción. Desde ese espesor óptico es desde donde puede llegar la
radiancia reflejada hasta el sensor, por lo que la reflectividad de la nube será, al final,
inversamente proporcional al radio de las gotas. Al ser las gotas tan pequeñas, próximas
a la longitud de onda de la luz (radios efectivos entre 5 y 10 μm, frente a longitudes
de onda entre 0,4 y 2 μm), conviene medir su radio efectivo en “número de longitudes

358
E L “ COLOR ” DE LAS CUBIERTAS TERRESTRES

1.00
nieve

0.75
reflectividad cirros

0.50 estratos
bosque

0.25
suelo

0.00
500 1000 1500 2000 2500
longitud de onda (nm)

Figura 10.6. Espectros de reflectividad típicos para la nieve, el suelo desnudo, la vegetación forestal, y las
nubes de cirros y estratos. Adaptada de: Jedlovec (2009).

de onda” equivalentes, ya que ésta es la longitud patrón con la que comparar el resto
de las longitudes microscópicas. De ese modo, cuando se dice que la reflectividad es
inversamente proporcional al radio efectivo, en realidad se dice que
λ
R(λ) ∼
re

Es decir, para longitudes de onda mayores, la reflectividad espectral es mayor, como


también lo es su variación con el radio de las gotas. Así que las nubes en las partes más
bajas de la atmósfera serán más reflectantes (porque tendrán gotas más pequeñas) que las
nubes más altas (con gotas grandes o cristales de hielo aún mayores). Y esta reflectividad
se observará mejor en las longitudes de onda más largas (en el NIR y en el SWIR) que
en las más cortas (el visible). No obstante, en la realidad, la presencia de vapor de agua
en las nubes hace que exista una absorción independiente del radio de las gotas en las
bandas de absorción de este gas (en el SWIR).

4. El color (visible) de la nieve que se halla en estado natural en una montaña


puede ser . . .

Respuesta: (d) Cuando hablamos de color, nos referimos a la reflectividad en el es-


pectro visible. En este rango espectral, el color de la nieve pura va del blanco al
blanco azulado en función de su grado de compactación: la nieve polvo es blanca,
el hielo de un glaciar, azul. No obstante, en algunos casos colonias de algas que

359
C UESTIONES DE TELEDETECCIÓN

1.0

0.9

0.8

Reflectividad 0.7
t=0 h
t=48 h
0.6

0.5 t=60 h
t=72 h
0.4
t=84 h
0.3
400 500 600 700 800 900 1000 1100 1200

Longitud de onda (nm)

Figura 10.7. Variación del espectro de reflectividad de la nieve conforme pasa el tiempo: nieve fresca,
nieve seca, nieve compactada, nieve húmeda y nieve saturada. Adaptado de Qunzhu et al. (1983).

proliferan en la nieve pueden producir alguna sustancia pigmentada que le da a


la nieve un tono rosáceo.

La nieve consiste en la acumulación de cristales de hielo, formados en las nubes y pre-


cipitados a tierra. Cuando la luz llega a estos cristales, una parte es reflejada hacia el
exterior y otra penetra en los cristales. Sólo una fracción muy pequeña de la que pene-
tra es absorbida en el interior de cada cristal, ya que éstos son muy pequeños. El resto
emerge y se dirige a otros cristales desde los que es reflejada de nuevo (un proceso si-
milar al descrito en la cuestión anterior para las nubes), o se transmite sin reflejarse si
estos cristales se hallan en contacto con aquél en el que había penetrado. Debido a estas
reflexiones, la reflectividad del conjunto de cristales que forma la nieve es muy alta en
el visible y en el infrarrojo cercano; sin embargo, cae abruptamente en las bandas de
absorción que presenta el agua en el infrarrojo medio, por encima de los 1,6 μm, per-
maneciendo casi nula para longitudes de onda mayores. Esta última característica es su
signo distintivo, que permite diferenciarla en las imágenes de teledetección de las nubes,
que permanecen todavía reflectantes en las longitudes de onda por encima de los 1,6 μm
(figura 10.6).
Los cristales de hielo pueden hallarse menos (nieve virgen) o más compactados (nie-
ve compacta). La proximidad o contacto entre los cristales de hielo, favorece la pene-
tración de la luz en su interior, aumentando de forma importante la absorción de ésta (y

360
E L “ COLOR ” DE LAS CUBIERTAS TERRESTRES

Figura 10.8. El color azul del hielo de un glaciar se debe a la dispersión de la luz por la estructura
cristalina del hielo junto con las minúsculas burbujas de aire atrapadas en él. La luz azul es la menos
absorbida por el hielo, y por tanto la única que llega al interior del glaciar y emerge de él.

Figura 10.9. Hielo “teñido” de rosa por las algas Chlamydomonas nivalis que crecen sobre ella. Fuente:
Wikimedia Commons, fotografía por Ökologix, CC-BY-SA.

361
C UESTIONES DE TELEDETECCIÓN

disminuyendo su reflectividad).Aunque la nieve es blanca, es decir, igualmente reflec-


tante en todo el espectro visible (y parte del NIR), en ocasiones puede verse de color. La
nieve muy compactada o que llega a transformarse en hielo, como la de los glaciares,
puede adquirir tonos azulados: esto se debe a que la luz penetra a través de sus cristales
fundidos y llega a ser absorbida en las longitudes de onda más largas en cantidad aprecia-
ble, de forma que la que es dispersada en las interfases entre cristales o en las burbujas
de aire que quedan entre ellos, y llega a nosotros es de color azul. En otros casos, en
la nieve pueden existir pigmentos que le dan otras tonalidades. Es el caso de las algas
extremófilas Chlamydomonas nivalis que viven en la superficie de la nieve y producen
carotenos para protegerse de la luz ultravioleta durante su desarrollo. Los carotenoides
poseen bandas de absorción en el azul y en el verde, de ahí que el efecto que producen
estas algas verdes sea dar color rosa a la nieve en la que proliferan (figura 10.9).

5. ¿Qué cambio en un suelo puede hacer que sea más reflectante en el visible e
infrarrojo?

Respuesta: (a) El espectro de reflectividad del suelo refleja su composición: la hume-


dad, el contenido de moléculas orgánicas y la presencia de óxidos de hierro, por
ejemplo. Todos estos componentes de un suelo son absorbentes en el rango ópti-
co (visible e infrarrojo). Además, el espectro se verá afectado por la distribución
de tamaños de las partículas, su compactación, etc. Estas dos propiedades están
relacionadas con su permeabilidad; por lo general, cuanto mayor sea la permea-
bilidad (partículas más grandes y poco compactadas), más reflectante será un
mismo suelo. El espectro de reflectividad en el rango óptico informa acerca de la
superficie de la cubierta, no de su interior; se suele estimar que la profundidad
de esta capa superficial equivale a menos de una decena de los granos que lo
forman. Para estudiar el interior de un suelo, es necesario emplear longitudes de
onda más grandes (del orden de la profundidad a la que se quiera llegar) como
las empleadas en radar.

El factor que más fácilmente varía la reflectividad de un suelo en el rango óptico es


la humedad superficial: al aumentar, disminuye la reflectividad (figura 10.10). Esto se
debe a la presencia de agua uniendo los granos de la superficie del suelo: la luz que atra-
viesa los granos más superficiales, en lugar de propagarse por el aire hasta los siguientes
granos, lo hace por el agua. Ello reduce la cantidad de luz reflejada en las superficies
de contacto, ya que la diferencia entre el índice de refracción de la arena (1,5) con el
agua (1,3) es menor que la su diferencia con el aire (1,0). El aumento de humedad tam-

362
E L “ COLOR ” DE LAS CUBIERTAS TERRESTRES

0.7

0.6

Reflectividad 0.5
1%
0.4
5%
0.3
10%

0.2 15%

20%
0.1

0.0
400 600 800 1000 12001400 1600 1800 2000 2200 2400
Longitud de onda (nm)

Figura 10.10. Espectros de reflectividad de suelos con distinta humedad. Adaptado de Stoner &
Baumgardner (1981).

bién causa bandas de baja reflectividad allí donde el agua absorbe más: alrededor de los
1,45 μm, los 1,9 μm y los 2,7 μm.
La permeabilidad de un suelo, esto es, su capacidad para que el agua que cae sobre
él lo atraviese sin acumularse, se puede inferir de su reflectividad: suelos con mayor
permeabilidad, esto es, con grano más grueso y/o que retienen peor el agua entre ellos,
reflejarán más luz (para el mismo grado de humedad); cada superficie de contacto grano-
aire será una oportunidad para que la luz sea reflejada de nuevo hacia el exterior. Si el
agua atraviesa fácilmente un terreno será porque existirán más canales por los que pueda
fluir, esto es, más superficies de contacto arena-aire: los granos no estarán bien adheridos
unos a otros y esto aumentará también la reflectividad. Los suelos con menor permea-
bilidad, estarán formados por granos más finos que retienen mejor el agua entre ellos;
entonces también reflejarán menos luz, porque existirán más contactos entre granos, la
luz podrá llegar a través de ellos a mayor profundidad y será absorbida.
La dependencia de la reflectividad con el tamaño de grano (que determina la per-
meabilidad) se observa mejor en la región del visible y el infrarrojo cercano, ya que en
ella no se produce absorción por el agua. De nuevo, esta dependencia sólo caracteriza
el comportamiento en la superficie del terreno. Por ejemplo, en aquellos suelos en los
que el agua ha formado una costra superficial (por la acción mecánica de la lluvia, que
rompe los terrones de tierra, y por la cementación de los granos por sales depositadas
por el agua), la reflectividad será menor cuanto más desarrollada se halle dicha costra,

363
C UESTIONES DE TELEDETECCIÓN

0.4

Reflectividad
0.3 Mineral

Mineral ferroso
0.2
Orgánico (fíbrico)

0.1
Altamente ferroso

Orgánico (sáprico)
0
400 800 1200 1600 2000 2400

Longitud de onda (nm)

Figura 10.11. Espectros de reflectividad de distintos tipos de suelos. Adaptado de Stoner & Baumgardner
(1981).

que es compacta y con pocos huecos entre los granos que la forman. Bajo ella, el suelo
puede ser más poroso, pero es la costra lo que se observa desde el exterior.
La composición de los suelos determina también su espectro de reflectividad, debido
a las bandas de absorción de algunos compuestos, llamados cromóforos. En los suelos
minerales (los que tienen menos de un 20 % de materia orgánica), los principales cro-
móforos son el óxido de hierro, los carbonatos y los hidróxidos, que tienen bandas de
absorción en el visible y el infrarrojo. La concentración de estos cromóforos se suele
cuantificar mediante la diferencia de reflectividad entre dos longitudes de onda: una en
una de sus bandas de absorción y otra alejada de ellas. En los suelos orgánicos, el prin-
cipal cromóforo es la materia orgánica que contienen, principalmente de origen vegetal.
Según el grado de descomposición de la materia orgánica que contienen en sus capas
más superficiales, se clasifican en fíbricos (con materia orgánica apenas descompuesta,
por lo que el suelo tiene un color rojizo), hémicos y sápricos (la materia orgánica está
totalmente descompuesta, por lo que el color del suelo en el visible es negro). La dife-
rencia de coloración, perceptible en el visible, se hace más patente en el infrarrojo, tanto
en el cercano como en el medio, donde los suelos con mayor índice de saprofitación son
menos reflectantes. Para cuantificar la cantidad de materia orgánica de un suelo (SOM,
soil organic matter) se suele medir en el visible la curvatura del espectro de reflectividad
en torno a los 600 nm:

1
C = (R550 nm + R650 nm ) − R600 nm
2

364
E L “ COLOR ” DE LAS CUBIERTAS TERRESTRES

Este índice de curvatura se comporta igual que el logaritmo de la concentración de ma-


teria orgánica en el suelo: cuanto más se curva “hacia abajo” el espectro, mayor SOM;
cuanto menos, más mineral será el suelo (de hecho, se curvará “hacia arriba” en caso
de que el suelo sea ferroso). Además, al tratarse de una “curvatura”, es poco sensible a
variables como la humedad, que “inclinan” pero no “curvan” el espectro de reflectividad
en esta zona: lo hacen más horizontal cuanto más humedad contenga el suelo (figura
10.11).

6. Para identificar los tipos de minerales en un suelo rocoso (es decir, sin
vegetación ni suelo vegetal) se debe estudiar el comportamiento de su
espectro. . .

Respuesta: (b) Excepto algunos minerales, como los óxidos de hierro que tienen ban-
das de absorción que abarcan parte del espectro visible y del infrarrojo cercano,
la mayoría de los minerales (óxidos, hidróxidos y carbonatos) tienen bandas de
absorción en el SWIR, que se estudian en la ventana atmosférica entre las 2,1 y
2,5 μm (llamado el SWIR-2, en terminología del sensor OLI del Landsat 8).

Los minerales se pueden ver en la superficie de la Tierra en zonas rocosas o arenosas,


en las que no hay vegetación ni suelos orgánicos que los oculten. Espectralmente, los
minerales presentan bandas de absorción debidas a los grupos químicos que los forman,
especialmente, cuando se trata de sales, a los aniones de éstas; la posición de las bandas
de absorción se puede desplazar en función de los cationes y otros ligandos (lo que se
llama el “entorno químico”).
Los óxidos de hierro, absorben la luz más energética capaz de producir transiciones
electrónicas en los iones metálicos y los oxígenos; por ello suelen absorber en el visible o
el ultravioleta, y también en el infrarrojo cercano (el Fe2 O3 tiene una banda de absorción
en los 860 nm).
Los hidróxidos, como los yesos, absorben la radiación infrarroja en torno a los
1,9 μm y los 2,20 μm, porque los fotones de estas longitudes de onda excitan las osci-
laciones del enlace OH.
Los carbonatos absorben la radiación en torno a los 2,25 μm y a los 2,35 μm en
el SWIR, aunque también presentan una débil banda de absorción en 1,75 − 1,80 μm,
que sirve para diferenciarlos en caso de que otros minerales (como algunos hidróxidos)
absorban a esas longitudes de onda. Todas estas bandas se deben a modos de oscilación
del ión carbonato.

365
C UESTIONES DE TELEDETECCIÓN

VNIR SWIR TIR


Transmisividad atmosférica

10−12
1 2 3 4 5−9 13−14
ASTER
1 2 3 4 5 7 6
Landsat ETM+
0
0.5 1.0 2.0 5.0 10.0
Longitud de onda ( μ m)

Figura10.12.ComparacióndelasbandasdeASTERydeLandsatETM+ysuubicaciónrespectoalas
bandasatmosféricas(lacurvarojarepresentalatransmisividadmediadelaatmósferaterrestre).
Fuente:NASA/JPL.

Los minerales hidratados, que contienen agua adsorbida, tienen también bandas de
absorción correspondientes a las moléculas de agua, si bien ligeramente desplazadas
respecto a las bandas del vapor de agua (lo que permite observarlas a través de la atmós-
fera). Este desplazamiento es análogo al que se observa en el agua líquida o el hielo: se
debe a las otras moléculas que rodean al agua y que modifican la anchura y el mínimo
de sus bandas de absorción (porque parte de la energía del agua puede ser transferida a
ellas, o viceversa).
Las bandas de absorción de los minerales apenas modifican la forma del espectro
más que como “abollamientos” en él: por ello requieren medidas en bandas estrechas
alrededor del máximo de absorción y con gran resolución radiométrica. Esta absorción
se debe a los grupos químicos que hay presentes (iones Fe2+ /Fe3+ , hidróxidos, carbona-
tos), y no a la composición exacta de los minerales: para diferenciar éstos se requerirían
medidas hiperespectrales con bandas muy estrechas, algo que actualmente sólo se puede
lograr en el laboratorio. Así se pueden diferenciar los minerales ferrosos, los carbonatos
y minerales “máficos” (que contienen elmentos pesados, como magnesio y hierro, de los
que deriva su nombre) o los silicatos y minerales “félsicos” (feldespatos).
El sensor multiespectral más utilizado para el estudio de los minerales es el japonés
ASTER (Advanced Spaceborne Thermal Emission and Reflectance Radiometer) a bordo
del satélite Terra de la NASA. De sus 14 bandas, 6 se hallan en el SWIR, y otras 5
en el infrarrojo térmico (éstas se usan para caracterizar minerales por sus diferentes
emisividades espectrales en este rango); ver figura 10.12. Por ejemplo, para detectar los
carbonatos (particularmente cálcicos) por su banda de absorción en 2,35 μm, se calcula
elcocientedereflectividadesespectrales

366
E L “ COLOR ” DE LAS CUBIERTAS TERRESTRES

Figura 10.13. Mapa temático de los tipos de minerales presentes en una escena ASTER de Mountain Pass,
en California (EE.UU.). A la izquierda, los valores más altos de los RBD centrados en las bandas 5, 6, 7 y
Z8. A la derecha, mapa temático derivado: rojo (RBD8>1.08) calcitas, azul (RBD7>0.95) dolomitas,
amarillo(RBD6>1.03)silicatos,magenta(RBD5>1.1)hidroxi-silicatos.Calculadosiguiendo
aRowan&Mars(2003).

R7 + R9
RBD =
2R8

La banda 8 se halla centrada en esa banda de absorción: cualquier desviación respecto


al valor medio de las 7 y 9 contiguas a ella será exagerada por este índice. Este tipo de
cocientes se llaman de profundidad relativa de la banda de absorción (RBD, relative-
absorption band depth index).
Lo mismo sucederá con la absorción en la banda de 2,25 μm (banda 7 del ASTER),
en la que absorben especialmente los carbonatos de magnesio (dolomitas). Los silicatos,
como la mica, tienen bandas de absorción en los 2,20 μm, correspondiente a la banda 6 de
ASTER. Cuando esos silicatos contienen grupos hidróxido, como en el caolín, absorben
también en los 1,9 μm; la banda ASTER más próxima para detectarlo es la 5 (el índice
se construye con la banda 6, contigua, y la alejada banda 4).

7. El espectro típico de la vegetación es muy reflectante en el NIR porque en él. . .

Respuesta: (a) Las cubiertas vegetales presentan la respuesta espectral de su compo-


nente más extenso: las hojas. Éstas contienen tejido en cuyas células hay clorofilas
y otros pigmentos que absorben la luz, principalmente, en el espectro visible. En
el NIR, no absorben la luz, y ésta es reflejada; tanto más intensamente, cuanto
más superficies internas tenga la hoja que separen el tejido del aire exterior y el
contenido en ellas.

367
C UESTIONES DE TELEDETECCIÓN

(a)
Cutícula
Epidermis

Parénquima en empalizada

Parénquima esponjoso
Epidermis
Hoja de judía Hoja de pino

(b) (c)

Figura10.14.Estructuramicroscópicadeunahoja:
(a)esquemadepartesdelahoja,
(b)y(c)imágenesSEMdehojasdecaducifoliaydeconífera.

Las hojas de la vegetación tienen una capa externa, la epidermis, recubierta de una ce-
ra (la cutícula). En ella se produce la primera reflexión de la luz. Bajo la epidermis se
hallan las células guardianas que se expanden y contraen para cerrar los poros abiertos
al exterior o estomas, con los que se regula el intercambio de vapor de agua (la trans-
piración) y la entrada de dióxido de carbono. Los tejidos internos (figura 10.14) están
formados por el mesófilo, constituido por las células fotosintéticas de la planta. Estas
células poseen muchos cloroplastos en su citoplasma, en los que se produce la función
clorofílica gracias a moléculas de pigmentos que absorben la energía de los fotones de
la luz solar y la transfieren a reacciones bioquímicas.

Los principales pigmentos de las hojas son las clorofilas y los carotenoides. Las clo-
rofilas a y b absorben en el rojo y el azul del espectro visible, y causan el color verde
habitual de las hojas. Los carotenoides amplían el espectro de energías (y de longitudes
de onda) en el que las plantas pueden aprovechar la luz: los β-carotenos absorben en el
azul, dando un color amarillento a algunas hojas; los xantófilos, otro tipo de carotenoi-
des, absorben luz en el la región verde-azulada (entre los 400 − 500 nm), proporcionan
un color amarillo o naranja a las hojas (figura 10.15). Además de los pigmentos foto-
sintéticos, frutos, hojas o pétalos (hojas especializadas de las flores) pueden presentar
antocianinas, que absorben luz en la banda de de 530 nm, dándoles colores rojizos.

En el infrarrojo cercano (NIR), la vegetación no presenta ninguna banda de absor-


ción por pigmentos. La única absorción se produce por los elementos estructurales: las
paredes celulares de celulosa y lignina. Estos elementos están presentes tanto en hojas

368
E L “ COLOR ” DE LAS CUBIERTAS TERRESTRES

100

Clorofila B
80

Absortividad
60
Clorofila A
40 Carotenoides

20

400 500 600 700


Longitud de onda (nm)

Figura 10.15. Espectros de absorción de los principales pigmentos fotosintéticos.

verdes como en hojas secas. La respuesta espectral, en esta parte del espectro, estará
determinada por la cantidad de luz que refleje la cutícula de la hoja y el número de re-
flexiones internas que la luz sufra en el interior de la hoja debido a cambios de medio:
cuantas más reflexiones internas, más oportunidades tendrá de ser reflejada.
Según la hoja envejece suceden dos cosas: su actividad fotosintética disminuye y
se agrandan las cavidades con aire de su interior, reduciéndose por tanto su número.
La disminución de la actividad fotosintética se debe a que disminuye la producción de
clorofilas; desaparecen las bandas de absorción en el azul, y las hojas adquieren tonos
amarillentos debidos a los xantófilos. La reducción del contenido de clorofila se puede
deber a cambios estacionales; el mejor ejemplo de esto son las hojas de arce, que ad-
quieren color rojo en invierno, al disminuir la clorofila y ser sustituida por antocianinas.
Con la senescencia de las hojas también se reduce su contenido en agua, los tejidos son
menos vigorosos y se abren dentro de ellos conexiones entre las cavidades que contenían
el aire en el interior de la hoja. En las paredes de esas cavidades se reflejaba una y otra
vez la luz, haciendo que atravesase más eficientemente el espacio interno de las células
donde podía ser aprovechada, es decir, absorbida. Al agrandarse las cavidades y dismi-
nuir esas reflexiones, la luz no se refleja tanto y se transmite; disminuye su reflectividad,
en general, pero sobre todo en el NIR. En el NIR, dado que no se produce absorción, se
observa una alta reflectividad; de hecho, esta característica diferencia la vegetación del
resto de las cubiertas.

369
C UESTIONES DE TELEDETECCIÓN

0.7
Caducifolia
0.6 Hierba seca
Hierba
0.5 Conífera
Reflectividad

0.4

0.3

0.2

0.1

0.0
500 1000 1500 2000 2500
Longitud de onda (nm)

Figura10.16.Espectrodereflectividad(delaboratorio)dedistintascubiertasvegetales.
DatostomadosdelaASTERSpectralLibrary.

En el infrarrojo de onda corta (SWIR), el espectro de reflectividad viene marcado por


las bandas de absorción del agua: en los 1450 nm, 1920 nm y 2700 nm. La presencia de
agua que da vigor a los tejidos de las hojas, hará que las hojas sean más absorbentes
en estas longitudes de onda, comportamiento que afectará a todo el espectro infrarrojo.
Las bandas de absorción en el SWIR son también bandas de absorción del vapor de
agua atmosférico, que impide la llegada de las longitudes de onda mencionadas hasta o
desde las hojas; sin embargo, es posible observar parte de la absorción por el agua en
las hojas porque sus bandas de absorción están “desplazadas” y ensanchadas por todo
lo que rodea a las moléculas de agua en ellas: desde las propias moléculas de agua, al
resto de sales y moléculas orgánicas. Por ello se puede evaluar el contenido hídrico de
las hojas midiendo la reflectividad en los bordes de las “ventanas atmosféricas”.

8. Las algas marinas (macrófitas) se clasifican en rojas, pardas y verdes. ¿A qué


se deben estos colores?

Respuesta: (c) Como sucede en las plantas terrestres, las algas marinas disponen de
diferentes pigmentos fotosintéticos. Todas ellas tienen clorofila-a, que absorbe en
el azul y en el rojo y por eso todas tienen color verdoso. Pero además, poseen otros

370
E L “ COLOR ” DE LAS CUBIERTAS TERRESTRES

pigmentos fotosintéticos que les permiten aprovechar todo el rango del espectro
solar que penetra en el agua: ficobilinas y carotenoides (que les dan un color
rojizo), clorofila-b (que les da un color verde vivo), o clorofila-c y xantófilas (que
les da un color marrón o pardo).

Existen tres grupos de algas marinas macrófitas, y se suelen clasificar por su color, que
se relaciona con los pigmentos que poseen, y éstos, con las rutas bioquímicas que utili-
zan para convertir la energía de la luz solar. Estos tres grupos son las algas rojas (rho-
dophyta), algas pardas (phaeophyta) y algas verdes (chlorophyta). También existen algas
unicelulares, llamadas cianofíceas (cyanophyta), un grupo dentro de las cianobacterias
(tamaños entre 1 − 10 μm), que antes se llamaban algas verdeazuladas, y que forman
parte del fitoplancton.
La coloración de las algas rojas se debe a las ficobilinas: ficoeritrina (rojiza), fi-
cocianina (azulada). También a los carotenoides, que enmascaran el color verde de la
clorofila-a. No obstante, algunas especies pueden mostrar irisaciones azuladas bajo el
agua. Estas algas se pueden encontrar desde zonas costeras a otras más profundas, don-
de son más frecuentes.
Las algas pardas poseen clorofilas a y c (pero no b), pero estos pigmentos suelen
estar enmascarados por xantofilas (de color amarillento y pardusco). Algunas de estas
algas pardas poseen grandes talos que sostienen con ayuda de bolsas de aire, llegando a
formar grandes bosques marinos como los de sargazos y de laminariales (kelp).
Las algas verdes poseen clorofilas a y b, que les da su color vivo particular. Entre las
macrófitas son menos abundantes que las pardas y las rojas.
Las teledetección se emplea, principalmente, para cartografiar la distribución de las
algas y cuantificar la biomasa que contienen sus bosques. Para identificar su ubicación y
extensión, en muchos casos basta calcular el NDVI: como vegetales, si se hallan suficien-
temente cerca de la superficie del mar, reflejan fuertemente la radiación en el infrarrojo
cercano. El NDVI se ha relacionado con la biomasa de los bosques de kelp, que tienen
no sólo interés por formar hábitats de muchas especies de peces, sino porque son una
barrera natural que frena la erosión de la costa por las olas.
También se ha utilizado la teledetección para diferenciar especies de algas en función
de su reflectividad en diferentes bandas, es decir, de su color. El equilibrio entre unas
especies y otras se suele ver afectado por cambios en la calidad del agua: su temperatura,
salinidad, riqueza en oxígeno, presencia de contaminantes, etc. En este sentido, las algas
actúan como bioindicadores: determinar periódicamente el balance de especies permite
monitorizar la calidad del ecosistema marino.

371
C UESTIONES DE TELEDETECCIÓN

9. El estado fenológico de la vegetación, que indica cómo evolucionan sus


funciones biológicas, se manifiesta en su respuesta espectral. Para
caracterizarlo se ha definido una transformación llamada tasseled cap, que
convierte los valores de reflectividad en las bandas Landsat TM (muy comunes,
por otra parte) a un espacio de características. ¿Cuáles son estas
características?

Respuesta: (d) Los índices de la transformación tasseled-cap indican características


de color que destacan al estudiar una cubierta vegetal. Históricamente se basan
en las bandas de la serie Landsat para definir características relacionadas con el
brillo (procedente del suelo), el verdor (procedente de la vegetación) y la humedad
(que varía el brillo procedente del suelo).

(Esta explicación de la tasseled-cap sigue la dada por Crist & Kauth, 1987)
La transformación tasseled-cap fue introducida para las bandas del sensor MSS de
los primeros Landsat en 1976 y extendida para los sensores TM en 1984. Esta transfor-
mación convierte las “coordenadas” de un píxel en el espacio de las bandas Landsat
(cada coordenada es su valor de reflectividad espectral en una de esas bandas) en un
número menor de coordenadas, habitualmente 3, a lo largo de las que se describen mejor
las características espectrales de una cubierta; en este caso, del estado de los cultivos.
Cuando se representan los píxeles de diferentes cultivos usando como coordenadas
los valores de reflectividad en las tres bandas del visible y en el NIR, se observa que se
agrupan formando una especie de cono inclinado y deformado (figura 10.17). La base
del cono, que se observa inclinada, corresponde a los suelos desnudos. La parte más alta
del cono, corresponde a la vegetación más vigorosa; como descolgándose, se encuentran
puntos correspondientes a vegetación senescente (amarilla).
Kauth & Thomas interpretaron gráficamente esta distribución como una capucha
(cap) con borla (tassel), lo que dio nombre a la transformación. La idea de la transforma-
ción es describir la posición de un píxel dentro de esta capucha. La línea de suelos indi-
ca el brillo de éstos: ésta es la primera coordenada que se define, midiendo la posición
proyectada del píxel sobre esa línea. Perpendicularmente a ésta, se encuentra la altura
sobre la capucha, que indica el verdor del cultivo: ésta es la segunda coordenada. Con
estas dos coordenadas se puede describir el 95% de las variaciones en el “color” de la
cubierta; esto es debido a que las tres bandas visibles están muy correlacionadas entre sí.
Estas nuevas coordenadas se obtenían con la siguiente transformación lineal:
Brillo = 0,433 × MSS1 + 0,632 × MSS2 + 0,586 × MSS3 + 0,264 × MSS4
Verdor = −0,290 × MSS1 − 0,562 × MSS2 + 0,600 × MSS3 + 0,491 × MSS4

372
E L “ COLOR ” DE LAS CUBIERTAS TERRESTRES

0.4
s
bosques sverde
ez de lo ama
rillos
dobl
0.3
Band 4 (NIR)

0.2
los
ue
loss
o de
0.1 plan

0.0
s
ua
ag
0.0 0.1 0.2 0.3
Band 3 (red)

Figura 10.17. El “gorro con borla” de la vegetación en las bandas 3 y 4 de Landsat.

Crist & Cicone extendieron esta transformación en 1984 para usar las nuevas bandas
del Thematic Mapper, que incluían bandas en el infrarrojo de onda corta (SWIR). Aun-
que en este caso es más difícil visualizar la “capucha” (en un espacio de 6 dimensiones),
sigue existiendo una dirección que indica el brillo, y otra que indica el verdor. Las ban-
das del SWIR aportan nueva información y aparece variabilidad en una nueva dirección;
esta dirección se identifica con la humedad del suelo. La transformación es:
Brillo = 0,3037 × T M1 + 0,2793 × T M2 + 0,4343 × T M3
+0,5585 × T M4 + 0,5082 × T M5 + 0,1863 × T M7
Verdor = −0,2848 × T M1 − 0,2435 × T M2 − 0,5436 × T M3
+0,7243 × T M4 + 0,0840 × T M5 − 0,1800 × T M7
Humedad = 0,1509 × T M1 + 0,1793 × T M2 + 0,3299 × T M3
+0,3406 × T M4 − 0,7112 × T M5 − 0,4572 × T M7
De nuevo, el número de coordenadas se ha reducido a la mitad y se les ha dotado de un
significado biofísico.
¿En qué se parece la transformada tasseled-cap al análisis de componentes prin-
cipales (PCA)? Como en la PCA, la transformada tasseled-cap reduce el número de
dimensiones de los datos: de las 6 bandas Landsat, la tasseled-cap extrae el 95 % de la

373
C UESTIONES DE TELEDETECCIÓN

variabilidad con sólo 3 componentes; en el caso de hacer una PCA de una imagen, pode-
mos encontrar que ese 95 % de la variabilidad (en este caso, la varianza) se describe con
2 o 3 componentes. Sin embargo, existe una diferencia importante entre ambas aproxi-
maciones: la tasseled-cap está basada en un estudio estadístico de la correlación entre
bandas sobre muchos cultivos y a lo largo de todo su ciclo fenológico (desde la siembra,
hasta la recolección). Ese estudio ha definido unas direcciones de variación mediante
unos coeficientes que son siempre los mismos; estas direcciones poseen un significado
biofísico, y permiten interpretar cualquier escena de vegetación. En PCA, esos coefi-
cientes se calculan para cada escena, de forma que las componentes obtenidas no tienen
un significado biofísico inmediato: se deben interpretar para cada caso.

10. Para caracterizar la cantidad de biomasa en un bosque se emplea el índice de


masa foliar (LAI, leaf area index), que son los metros cuadrados de hojas que
forman los doseles arbóreos sobre un metro cuadrado de terreno. ¿Cómo se
manifiesta un LAI mayor en el espectro de reflexión de una cubierta vegetal?

Respuesta: (c) El NDVI mide la relación entre la luz absorbida en el rojo por la clo-
rofila y la reflejada en el infrarrojo cercano (NIR) por la estructura de las hojas.
Cuando la vegetación forma un dosel, la radiación NIR es capaz de penetrar y
reflejarse desde un cierto número de capas de hojas, por lo que informa del LAI
correspondiente a esas primeras capas; cuando el dosel es más espeso, el NDVI
no informa acerca de las más profundas.

La cantidad de materia vegetal sobre un punto de la superficie se puede caracterizar por


el índice de área foliar o LAI (leaf area index). Este índice mide el área suma de todas
las hojas que se encuentran en la vertical de un área unidad de suelo dada; caracteriza la
cantidad de biomasa vegetal con capacidad fotosintética.
Para medir el LAI por teledetección, se tiene en cuenta la contribución de las su-
cesivas capas de hojas a la reflectividad. Cuanto más profunda está una capa de hojas,
menor es su contribución a la reflectividad; la mayoría de la luz reflejada, igual que de la
transmitida, se halla en el NIR: en el visible, los pigmentos la absorben mucho más. La
influencia del LAI en la reflectividad deja de ser medible a partir de entre la sexta y la dé-
cima capa; esto es, un LAI de 10 unidades (es decir, 10 capas de hojas) es indistinguible
de uno de 20 con teledetección.
Un método estándar para inferir el LAI a partir de una medida de reflectividad es-
pectral es calcular el índice de diferencias normalizado NDVI (normalized diference ve-

374
E L “ COLOR ” DE LAS CUBIERTAS TERRESTRES

0.65

NDVI

0.60

0.55
0.5 1.5 2.5 3.5 4.5 5.5 6.5
LAI

Figura 10.18. Relación aproximada NDVI - LAI para hojas de Bonetero del Japón (Euonymus japonicus).
Adaptado de Lee et al. (2004).

getation index). Este índice caracteriza el ascenso de la reflectividad desde el rojo hasta
el infrarrojo cercano, dado por
RNIR − RR
NDV I =
RNIR + RR
Dado que las hojas absorben en el rojo, la reflectividad en el rojo depende prácticamente
sólo de la primera capa de hojas: apenas pasa luz roja a la siguiente, y mucho menos, es
transmitida a través de la primera para llegar al observador. Por el contrario, la transmi-
sión del NIR hacia las siguientes capas, que lo vuelven a reflejar, es considerable, como
lo es la fracción de esa radiación reflejada por dichas capas. El NDVI crece, por lo tanto,
con el número de capas de hojas y, por lo tanto, con el LAI (10.18). El valor exacto que
toma la relación entre ambos depende, no obstante, de la especie vegetal.
En el caso de un LAI bajo, la reflexión de la luz sobre el suelo puede afectar al
NDVI: ya no sólo caracterizará el dosel, sino el suelo que hay bajo él. Para tener en
cuenta este efecto, se corrige el NDV I para tener en cuenta las componentes en la banda
roja procedentes del sustrato. Este índice modificado se denomina SAV I (soil adjusted
vegetation index) y se define como
(1 + L)(RNIR − RR )
SAV I =
RNIR − RR + L
En esta expresión, L juega el papel de factor de corrección de la reflectividad debida
al suelo, y caracteriza la diferente transmisión a través de las hojas de las longitudes
de onda del rojo y el infrarrojo cercano. No existe un método para determinar el valor
adecuado para L, aunque en la bibliografía se suele recomendar tomar L = 0,5.

375
C UESTIONES DE TELEDETECCIÓN

10.4. CONCEPTOS IMPORTANTES

albedo Fracción de la irradiancia reflejada por una superficie en todas direcciones. En el


caso de una superficie lambertiana, cuya radiancia reflejada es la misma en todas
direcciones, el albedo coincide con la reflectividad.

carotenoides Pigmentos fotosintéticos presentes en los vegetales que absorben la luz


visible en el azul y en el verde, presentando colores rojizos.

clorofila Pigmento fotosintético presente en todos los vegetales, algas microscópicas y


bacterias fotosintetizadoras. Existen varios tipos de clorofila, siendo la más fre-
cuente la clorofila-a; los demás tipos permiten diferenciar unos organismos de
otros. Las clorofilas absorben la luz azul y la roja, diferenciándose unas de otras
por la situación particular de estas bandas de absorción.

dispersión (cromática) Variación del índice de refracción de un material con la lon-


gitud de onda. Esto hace que los rayos de diferentes colores sean refractados en
direcciones diferentes, algo que se usa en los prismas para analizar el espectro de
la luz.

dispersión (scattering) Propagación de nuevas ondas de luz tras interactuar una onda
con las partículas microscópicas en un medio. Las nuevas ondas se forman co-
mo ondas esféricas alrededor de cada partícula, por lo que se propagan en todas
direcciones, dando lugar a radiación difusa que procede del medio.

espectro de reflectividad Fracción de radiancia devuelta al medio desde la superficie


de un cuerpo como función de la longitud de onda de la radiación.

fluorescencia Emisión radiante por una sustancia en una longitud de onda tras haber
absorbido energía radiante en otra. La energía absorbida en primer lugar excita
estados electrónicos en las moléculas de la sustancia que decaen a otros estados
intermedios dando lugar a una emisión de radiación menos energética que la de
partida.

índice de refracción Cociente entre la velocidad de la luz en el vacío y la velocidad


de la luz en un medio. El índice de refracción depende de la longitud de onda y
describe el comportamiento de la propagación de las ondas de luz en el medio, así
como su reflexión al entrar o salir de él.

376
E L “ COLOR ” DE LAS CUBIERTAS TERRESTRES

índice área foliar (LAI) Cociente entre la superficie de las hojas sobre un área de te-
rreno relativa a ésta. El índice de área foliar se puede interpretar como el número
de capas de hojas que forman un dosel.

materia orgánica del suelo (SOM) Partículas de materia orgánica que forman parte de
un suelo. Su origen son los residuos orgánicos de plantas y animales y se suelen
hallar en estado de descomposición.

materia orgánica disuelta (CDOM) Sustancias orgánicas disueltas en el agua resulta-


do de la descomposición de la materia vegetal que libera taninos. Estos pigmentos
absorben las longitudes de onda más cortas (ultravioleta y azul), dándole al agua
un color amarillo.

pigmento Compuesto químico cuyas moléculas absorben fotones en una banda de ener-
gías; estos fotones producen cambios en el estado energético de molécula. La mo-
lécula puede, posteriormente, sufrir un cambio químico, o devolver esa energía de
excitación en forma de nuevos fotones, o puede convertirla en energía térmica que
cede al medio.

profundidad relativa de banda de absorción (RBD) Índice espectrométrico que con-


siste en dividir por el valor de la reflectividad en una banda en la que determinado
compuesto causa la absorción de la radiación, el valor promedio en dos bandas
vecinas. El RBD es positivo y de mayor valor cuanta mayor absorción se produce
en esa banda.

reflexión especular Reflexión de una onda electromagnética en una superficie pulimen-


tada, de forma que se produce una nueva onda cuya dirección de propagación en
la dirección perpendicular a la superficie es opuesta a la de la onda incidente.

reflexión difusa Reflexión de una onda electromagnética que penetra en una superficie
rugosa o en un medio con partículas dispersoras en su interior. Las ondas produci-
das en las dispersiones con las irregularidades de a superficie o con las partículas
se propagan en todas direcciones. La distribución de la radiancia tras una reflexión
difusa perfecta sigue la ley de Lambert.

sólidos en suspensión (SS) Partículas sólidas, orgánicas o inorgánicas, que se hallan


suspendidas en una masa de agua. Estas partículas son muy dispersoras de la luz
y producen la turbidez del agua.

377
C UESTIONES DE TELEDETECCIÓN

10.5. BIBLIOGRAFÍA

R.N. Clark (1999). “Spectroscopy of Rocks and Minerals, and Principles of Spec-
troscopy”. En: Manual of Remote Sensing, Vol. 3: Remote Sensing for the Earth
Sciences, pp. 3-58. Editor A.N. Rencz. John Wiley and Sons, 1999.

E.P. Crist, R.C. Cicone (1984). “A Physically-Based Transformation of Thema-


tic Mapper Data-The TM Tasseled Cap”. IEEE Transactions on Geoscience and
Remote Sensing, GE-22(3): 256-263.

E.P. Crist, R.J. Kauth (1996). “The Tasseled Cap De-Mystified”. Photogrametric
Engineering and Remote Sensing, 52(1): 81-86.

J.A. Domínguez (2002). Estudio de la calidad del agua de lagunas de graveras


mediante teledetección. Tesis doctoral, Universidad de Alcalá, 2002.

J.A. Domínguez, C. Marcos Martín, Y. Chao Rodríguez, G. Delgado Rojas, D.


Rodríguez Pérez (2011). “Limnología mediante teledetección”. En: Estudio de
aguas continentales mediante teledetección, Capítulo 2. UNED Ciencia, 2011.

J. Gower, S. King (2004). “Satellite fluorescence as a measure of ocean surface


chlorophyll”. Gayana, 68(2): 252-258.

L. Han, D.C. Rundquist (1994). “The response of both surface reflectance and
the underwater light field to various levels of suspended sediments: preliminary
results”. Photogrammetric Engineering & Remote Sensing, 60:1463-1471.

G. Jedlovec (2009). “Automated Detection of Clouds in Satellite Imagery”. En:


Advances in Geoscience and Remote Sensing, capítulo 14. Intech Open, 2009.

A. Kalinowski, S. Oliver (2004). “ASTER Mineral Index Processing Manual”.


Remote Sensing Applications, Geoscience Australia, 2004.

R.J. Kauth, G.S. Thomas (1976). “The Tasselled Cap – A Graphic Description
of the Spectral-Temporal Development of Agricultural Crops as Seen by LAND-
SAT”. LARS Symposia, paper no. 159.

M.D. King, S-C. Tsay, S.E. Platnick, M. Wang, K-N. Liou (1997). “Cloud Re-
trieval Algorithms for MODIS: Optical Thickness, Effective Particle Radius, and
Thermodynamic Phase. MOD06—Cloud product”. MODIS Algorithm Theoreti-
cal Basis Document, No. ATBD-MOD-05, NASA.

378
E L “ COLOR ” DE LAS CUBIERTAS TERRESTRES

K.S. Lee, Y.I. Park, S.H. Kim, J.H. Park, C.S. Woo, K.C. Jang (2004). “Remote
sensing estimation of forest LAI in close canopy situation”. En: Proceedings of
ISPRS conference, Istanbul, Turkey, 2004.

Z. Qunzhu, C. Meisheng, F. Xuezhi, L. Fengxian, C. Xianzhang, S. Wenkun (1983).


“A study of spectral reflection characteristics of snow, ice and water in the north
of China”. En: Hydrological Applications of Remote Sensing and Remote Data
Transmission. Proceedings of the Hamburg Symposium. IAHS Publ., no. 145.

L.C. Rowan, J.C. Mars (2003). “Lithologic mapping in the Mountain Pass, Cali-
fornia area using Advanced Spaceborne Thermal Emission and Reflection Radio-
meter (ASTER) data”. Remote Sensing of Environment, 84: 350-366.

E.R. Stoner, M.F. Baumgardner (1981). “Characteristic variations in reflectance


of surface soils”. Soil Science Society of America Journal, 45:1161-1165.

F.D. van der Meer et al. (2012). “Multi- and hyperspectral geologic remote sen-
sing: A review”. International Journal of Applied Earth Observation and Geoin-
formation, 2012:112-128.

M.R. Slaton, E.R. Hunt, W.K. Smith (2001). “Estimating near-infrared leaf re-
flectance from leaf structural characteristics”. American Journal of Botany, 88(2):
278-284.

Webgrafía (accesible el 1/05/2015)

Detecting the formation of precipitation types in clouds — EUMETSAT


URL: http://www.eumetsat.int/website/home/Data/Training/TrainingLibrary/DAT_
2077614.html
Página web de EUMETSAT con documentos sobre la detección de tipos de nubes
(composición, dinámica y precipitación) con los satélites de la Meteosat Second
Generation.

MODIS Atmosphere
URL: http://modis-atmos.gsfc.nasa.gov/index.html
Sitio web de los productos atmosféricos derivados de las imágenes MODIS.

ASTER Application examples — NASA JPL


URL: http://asterweb.jpl.nasa.gov/applications_examples.asp

379
C UESTIONES DE TELEDETECCIÓN

Página con las posibles aplicaciones de las imágenes del sensor ASTER. Las ban-
das del sensor usadas en esas aplicaciones se pueden ver en esta página del mismo
sitio
http://asterweb.jpl.nasa.gov/characteristics.asp

AVHRR channel 3a — The ultimate source for snow information — NOHRSC,


NOAA
URL: http://www.nohrsc.noaa.gov/technology/avhrr3a/avhrr3a.html
Página del Centro de Teledetección Hidrológica de la NOAA sobre la detección
y seguimiento de la cubierta de nieve con los datos de los sensores AVHRR y
GOES, especialmente en la banda de 1,6 μm.

RefractiveIndex.INFO — Refractive index database


URL: http://refractiveindex.info/
Sitio web con una base de datos extensa con espectros de índices de refracción de
diferentes materiales, naturales y artificiales. Por ejemplo, el del agua
http://refractiveindex.info/?group=LIQUIDS&material=Water
o el de la sílice (principal componente de la arena)
http://refractiveindex.info/?group=CRYSTALS&material=SiO2

Wonderful Things: Don’t Eat the Pink Snow — Scientific American


URL: http://blogs.scientificamerican.com/artful-amoeba/2013/07/09/wonderful-things-
dont-eat-the-pink-snow/
Blog de Jennifer Frazer en Scientific American sobre la nieve teñida por Chlamy-
domonas nivalis.

The Seaweed Site: information on marine algae


URL: http://www.seaweed.ie
Sitio web dedicado a las algas, sus usos, sus tipos y los pigmentos que les dan
color y que clasifican las algas en

• Algas marrones: http://www.seaweed.ie/algae/phaeophyta.php


• Algas verdes: http://www.seaweed.ie/algae/chlorophyta.php
• Algas rojas: http://www.seaweed.ie/algae/rhodophyta.php

380
E L “ COLOR ” DE LAS CUBIERTAS TERRESTRES

PhycoKey — Marine, Estuarine and Freshwater, Dept. of Biological Sciences —


University of New Hampshire
URL: http://cfb.unh.edu/phycokey/phycokey.htm
Página de A.L. Baker con una clave basada en imágenes para identificar algas (PS
Protista), cianobacterias y otros objetos acuáticos.

Newton’s Prism Experiment — YouTube


URL: http://www.youtube.com/watch?v=uucYGK_Ymp0
Vídeo del MIT que explica los principios físicos del color de la luz y de su re-
flexión y refracción, reproduciendo algunos de los experimentos originales de Sir
Isaac Newton.

381
Tema 11

La información de las ondas: el radar

GUION-ESQUEMA

La naturaleza de las ondas electromagnéticas

La reflexión de las ondas electromagnéticas

El radar altimétrico

El radar de apertura sintética

Interferometría
C UESTIONES DE TELEDETECCIÓN

Gravimetría

SRTM

ía
metr
ero
erf
Int
SWATH

o
Ec s
n da
oo
cr
Mi

384
L A INFORMACIÓN DE LAS ONDAS : EL RADAR

11.1. INTRODUCCIÓN

El radar es un sensor activo, ya que emite ondas electromagnéticas y las recibe refle-
jadas por las cubiertas en la superficie terrestre. El tiempo de vuelo de la onda electro-
magnética a y desde el objetivo alcanzado (el “target”) permite determinar la distancia a
éste. Como la potencia que transporta la onda de radiofrecuencia emitida por el radar es
conocida y la atmósfera es prácticamente transparente a esta radiación, es posible ade-
más calcular qué fracción de la energía de la onda es retrodispersada desde la superficie
de la tierra; esto permite obtener imágenes de ecos que proporcionan una representación
de la rugosidad de ésta. Pero el radar permite todavía llevar a cabo otras medidas más
importantes, desde el punto de vista de la teledetección. Al ser las ondas de radiofre-
cuencia ondas de frecuencia baja, pueden ser registradas como oscilaciones del campo
electromagnético, esto es, guardar la información de su fase. Las propiedades ondulato-
rias permiten, entonces, determinar distancias pequeñas con mucha precisión, lo que es
de utilidad para calcular desplazamientos o deformaciones del terreno.

11.2. CUESTIONES

1. Una antena de radar produce una onda electromagnética de longitud de onda dada
por:

a) la frecuencia de oscilación de la corriente eléctrica en su antena


b) el número de elementos que forman su antena
c) la longitud de su antena
d) su velocidad orbital

2. ¿Qué es necesario disminuir para aumentar la resolución espacial de las imágenes


de un sensor radar?

a) el tamaño de su antena
b) la frecuencia de su emisión
c) la longitud de onda de su emisión
d) la inclinación del lóbulo principal respecto al nadir

385
C UESTIONES DE TELEDETECCIÓN

3. El SEASAT de la NOAA fue el primer radar de apertura sintética (SAR, synthetic


aperture radar) de uso civil. Un SAR permite obtener imágenes de la superficie
terrestre mejorando la resolución espacial que proporcionaría un radar de apertura
real. ¿En qué dirección reducirá el tamaño del píxel la técnica SAR?

a) en la dirección de emisión del pulso radar


b) en la dirección de avance del satélite
c) en la dirección del nadir (mejora la resolución de la altura)
d) en todas ellas

4. ¿De qué no depende el brillo en un píxel de una imagen de radar?

a) de la distancia del sensor al terreno


b) de la pendiente del terreno
c) de la rugosidad del terreno
d) del material que forma el terreno en ese píxel

5. Los sensores radar son capaces de enviar y recibir ondas electromagnéticas polari-
zadas, es decir, cuyos campos eléctricos oscilan sólo en una dirección: horizontal
(H) o vertical (V) respecto al terreno. La retrodispersión en este terreno puede
cambiar la polarización, de modo que tras emitir una onda V se pueden recibir
ondas polarizadas verticalmente (V) u horizontalmente (H). Esto permite obtener
imágenes HH, HV, VH, VV. ¿Qué hace que estas imágenes sean distintas?, es
decir, ¿qué se puede ver en estas imágenes?

a) distintos tipos de materiales, con diferentes respuestas dieléctricas


b) variaciones en la rugosidad, que hacen que el campo eléctrico se refleje más
o menos
c) variaciones en la humedad, gracias a que el campo eléctrico produce corrien-
tes eléctricas
d) todas las anteriores

6. Cuando se habla de imágenes radar es frecuente que las reflectividades y otras


magnitudes radiométricas se den en decibelios, es decir, en una escala logarítmica.
Esta práctica se debe a. . .

a) la tradición del radar en el campo de las telecomunicaciones

386
L A INFORMACIÓN DE LAS ONDAS : EL RADAR

b) la distribución estadística de Rayleigh en el ruido de las imágenes SAR


c) a la atenuación que sufren las ondas al penetrar en las cubiertas
d) la sensibilidad del sensor radar no es lineal y hay que comprimirla

7. Durante la misión del transbordador espacial de la NASA en febrero de 2000 se


recogieron 24 terabytes de información altimétrica de la superficie de Tierra, en lo
que se llamó la misión SRTM (Shuttle Radar Topography Mission). Para esto se
empleó una técnica radar. ¿En qué consistía esta técnica?

a) en una antena que emitía y recibía lateralmente ondas electromagnéticas y


barriendo una franja de terreno
b) en una antena que barría una franja de terreno varias veces desde diferentes
posiciones de la órbita
c) en un par interferométrico de antenas que permitían triangular las alturas
sobre la superficie
d) en una antena de haz muy fino que barría el terreno bajo el transbordador

8. En octubre de 2014 la revista Science publicó un gran avance en el estudio del


fondo del mar mediante teledetección por satélite: se había obtenido una cartogra-
fía del fondo oceánico que revelaba detalles no conocidos hasta entonces. ¿Con
qué técnica se logró esto?

a) se usaron ondas de sonido (sónar) que se propagan por el agua del mar y
rebotan en el fondo de éste
b) usando ondas de radar de varios kilómetros de longitud de onda, que son
capaces de penetrar hasta el fondo marino
c) midiendo con precisión la altura de la superficie del mar
d) midiendo el “empujón gravitatorio” que causaban las elevaciones del fondo
del mar sobre el satélite en su órbita

9. En los últimos años es frecuente mostrar imágenes coloreadas que muestran la


deformación del terreno después de un terremoto, o una erupción volcánica, o
incluso debido al deshielo de los glaciares. ¿Qué técnica se emplea para obtener
estas imágenes y qué muestran, en concreto?

a) interferometría radar diferencial, que muestra el desplazamiento de la super-


ficie entre dos pasadas del satélite

387
C UESTIONES DE TELEDETECCIÓN

b) radar Doppler, que muestra la velocidad con que se está moviendo la super-
ficie cuando pasa el satélite
c) SAR, que muestra las fluctuaciones del speckle debidas a la corrugación
(contracción o encogimiento) de la superficie
d) termografía pasiva de microondas, que muestra las variaciones de la tempe-
ratura o emisividad que induce la deformación del terreno

10. ¿Cómo puede un radar a bordo de un satélite medir la velocidad del viento sobre
el océano, si el aire (y la atmósfera en general) es transparente a las microondas
que usan los radar?

a) midiendo el efecto Doppler en el aire, que no es transparente a la radiación


b) midiendo la energía devuelta de las ondas que produce el viento en el mar
c) midiendo el speckle sobre la superficie del mar
d) midiendo el perfil de alturas de las olas marinas

388
L A INFORMACIÓN DE LAS ONDAS : EL RADAR

11.3. RESPUESTAS A LAS CUESTIONES

1. Una antena de radar produce una onda electromagnética de longitud de onda


dada por:

Respuesta: (a) La longitud de onda de la onda electromagnética emitida por un radar


depende de la frecuencia de oscilación de la corriente eléctrica en su antena. La
onda electromagnética se propaga desde el sensor activo a la velocidad de la luz,
c = 2,998 × 108 m/s, y la frecuencia f de las oscilaciones que le dan origen da
lugar a una longitud de onda λ = c/ f .

El radar se basa en la emisión de una onda electromagnética en el rango de longitudes


de onda entre el centímetro y los centenares de metros. Esta onda se origina en la antena
del sensor radar, viaja hasta la superficie de la tierra e interactúa con las cubiertas en
ella. Como resultado de estas interacciones (de naturaleza eléctrica) nacen en la cubierta
nuevas ondas electromagnéticas: la onda se dispersa en múltiples “onditas”. Parte de
estas “onditas” (también viajando a la velocidad de la luz) llegarán a la antena de radar
que recoge su energía en forma de “ecos electromagnéticos” un tiempo después de la
emisión de la onda original. La antena del sensor está sintonizada para emitir y recibir
una determinada longitud de onda, igual que sucede con una radio.
Una antena de radar es un circuito eléctrico en el que la corriente eléctrica oscila a
una frecuencia dada f . Una corriente eléctrica oscilante produce a su alrededor un campo
magnético oscilante que, a su vez, crea en el espacio un campo eléctrico oscilante, que a
su vez, crea a su alrededor un campo magnético oscilante, etc. De este modo la corriente
eléctrica oscilante genera una onda electromagnética emitida por la antena. La onda
electromagnética conserva la frecuencia original del circuito y se propaga a la velocidad
de la luz, c. Estas oscilaciones hacen que, cada cierta distancia a la antena, el campo
electromagnético repita su oscilación: esta distancia λ es la longitud de onda de la onda
electromagnética. La relación entre la frecuencia de oscilación, la longitud de onda y la
velocidad de la luz se escribe matemáticamente como

λ· f = c

La frecuencia de oscilación de una antena se selecciona de tal modo que emita en


el rango de longitudes de onda de interés: en el caso de las antenas radar, ésta va del
centímetro a los centenares de metros; en frecuencias, corresponderían al rango de los
3 MHz a los 30 GHz (igual que en radio, al hablar de radar es muy frecuente citar la
frecuencia, en lugar de la longitud de onda). El rango del espectro electromagnético al

389
C UESTIONES DE TELEDETECCIÓN

λ
λ
λ’= λ − c v

v=c/5

Emisor Receptor

λ
c+v
f ’=
λ

v=c/5
c
f=
λ

Figura 11.1. Producción del efecto Doppler. Arriba: cuando el emisor se acerca al receptor. Abajo: cuando
el receptor se acerca al emisor.

que corresponden estas frecuencias se divide en bandas, de manera similar a como se


hace en el óptico. Las más usadas en teledetección son las llamadas K (0,75 − 2,5 cm),
X (2,5 − 3,75 cm), C (3,75 − 7,5 cm) y L (15 cm − 30 cm). Cuanto más pequeña sea la
longitud de onda, interactuará con objetos más pequeños; una onda electromagnética de
longitud de onda grande, “rodeará” los objetos más pequeños que ella (sin “verlos”). De
este modo, si se estudia con teledetección radar la vegetación arbórea, una banda K o
X será capaz de distinguir las hojas y ramas del dosel; una banda L “rodeará” las hojas
más pequeñas (como las de un pino) y sólo interactuará fuertemente con las ramas de
los árboles; una longitud de onda mayor, sólo respondería a los troncos de los árboles,
rodeando todo lo demás.
El movimiento del sensor radar respecto a la superficie de la Tierra hace que la
longitud de onda λ′ que llega a ella sea ligeramente distinta a la emitida λ: esto se llama
efecto Doppler. Cuando el sensor se aproxima λ′ < λ (la observada es más corta que la
original), y cuando se aleja, λ′ > λ. La relación se escribe matemáticamente como

λ′ = λ 1 −
c

390
L A INFORMACIÓN DE LAS ONDAS : EL RADAR

donde v es la velocidad de acercamiento del sensor, que emite la onda, respecto a una
cubierta: positiva cuando se acerca, negativa cuando se aleja. En el camino de vuelta
tras su reflexión, sucede lo mismo: en este caso es el terreno que dispersa la onda elec-
tromagnética el que se ve acercándose o alejándose del sensor desde éste, que recibe el
eco. En este caso, la longitud de onda que recibe el sensor, emitida en este caso por la
cubierta, será v

λ′′ = λ′ / 1 +
c
El cambio final en la longitud de onda será:

′′ 1 − v/c v
Δλ = λ − λ = 1 − ≃2 λ
1 + v/c c
Este cambio es pequeño, dada la magnitud de la velocidad de la luz (de centenares de mi-
les de kilómetros por segundo) comparada con las velocidades orbitales (de kilómetros
por segundo), pero aun así detectable (y útil).

2. ¿Qué es necesario disminuir para aumentar la resolución espacial de las


imágenes de un sensor radar?

Respuesta: (c) La resolución espacial de un radar depende, con carácter general, de


la longitud de onda de su emisión y de la anchura efectiva del pulso que emite.
Cuanto menor sea la longitud de onda (o sea, mayor sea la frecuencia), mejor
será la resolución espacial porque será más “directivo” el haz de emisión: será
más estrecho al incidir sobre el terreno. Cuanto más corto sea el pulso que se
emite y el tiempo de muestreo de la respuesta a él, menor será la distancia a la
que se podrán distinguir dos puntos que reflejan el mismo frente de onda.

Un sensor radar observa, casi siempre, la superficie de la tierra en una orientación oblicua
(es decir es un “side-looking”). Ésta es una diferencia importante por comparación con
los sensores ópticos que suelen mirar verticalmente hacia la superficie terrestre (“down-
looking”). Al igual que la mayoría de éstos, también aprovecha su desplazamiento en
la órbita para obtener imágenes de líneas sobre el terreno, que apiladas una tras otra,
forman la imagen radar del swath: son sensores de barrido. Más que en los sensores
ópticos, estas dos direcciones de sensado (a lo largo de la trayectoria y a lo largo de las
líneas, es decir, perpendicularmente a la trayectoria) hacen que los sensores radar tengan
dos resoluciones espaciales muy diferentes: la resolución en la dirección de avance del
sensor (along-track) y la resolución en rango, es decir, a lo largo de la dirección de cada
línea de barrido.

391
C UESTIONES DE TELEDETECCIÓN

Pulso electromagnético Eco radar

Emisión Recepción

Figura 11.2. Observación de la Tierra por un sensor radar “side-looking”. La onda es emitida por la antena
como un pulso, con su potencia dirigida dentro del haz de irradiación; se refleja en el suelo, y es recibida
como un eco por la misma antena. En la figura se representa la emisión en la mitad izquierda y la
recepción en la mitad derecha usando la simetría, pero el sensor es, en realidad, único.

Cuando el haz de radar incide sobre el terreno, el frente de onda toca a éste en
un punto y, debido a su orientación oblicua, avanza tocando ese terreno a lo largo de
toda una franja. De cada uno de los puntos de esa franja se dispersa en dirección al
sensor una señal electromagnética: la señal procedente de toda la franja se denomina
eco del radar. Cuando el eco llega al sensor, es captado por la antena, amplificado y
analizado electrónicamente. La amplificación es importante porque la potencia emitida
por el sensor radar es pequeña, del orden de unos 50 W (como una bombilla), pero la
potencia del eco es del orden de 10−17 W, una magnitud tan pequeña que es difícil de
imaginar. Tras la amplificación, la señal se “demodula”, es decir, se elimina la frecuencia
de la onda emitida por el sensor, llamada frecuencia portadora, de manera que sólo queda
la parte de la señal que se ha originado en el terreno; ésta se caracteriza por una amplitud
(o envolvente) y una fase (o retraso respecto a la portadora). La señal de amplitud es con
la que se genera una imagen radar, pero para determinarla, es necesario “escuchar” una
parte del eco durante un tiempo mínimo ts o tiempo de muestreo. Es decir, la amplitud
que se mide corresponde a una cierta distancia sobre el terreno rg (la que recorre el frente
de onda durante ese tiempo de “escucha”) dada por

1 cts
rg =
2 sin θ

392
L A INFORMACIÓN DE LAS ONDAS : EL RADAR

Blanco A

Blanco B
Recepción
Tiempo
resolución en rango

treo
mues
po de
Tiem
Emisión

Distancia o rango

Figura 11.3. Resolución en rango de un radar: los objetos A y B son indistinguibles, porque sus señales
(procedente del pulso de la onda emitida o de su correspondiente al tiempo de muestreo) llegan
simultáneamente al sensor.

donde el ángulo θ es el ángulo de observación, el que forma la dirección de visión del


radar con la vertical (es decir, cuanto más oblicuo el ángulo, mayor θ, y menor el valor de
rg ). En esta expresión no hay ningún factor dependiente de la frecuencia (o la longitud de
onda), aparentemente. La limitación viene dada por el tiempo de muestreo ts , del orden
de los 50 ns; esto hace que, para un sensor radar como el ASAR del ENVISAT, cuyo
ángulo de observación típico era de unos 67o , la resolución espacial fuese de unos 20 m.

Por otro lado, en la otra dirección, la dirigida en paralelo al movimiento del sensor, la
anchura del haz radar impone un límite a la resolución espacial. La onda electromagnéti-
ca que emite la antena del radar no se propaga con igual potencia en todas direcciones; se
propaga hacia la superficie de la Tierra y concentrada en un haz centrado en un “disco”
que parte de la antena y es perpendicular a ésta. La resolución espacial rb de un radar, en
esa dirección en que barre la superficie terrestre, aumenta cuanto mayor sea la relación
entre la longitud de la antena L y la longitud de la onda electromagnética λ (y también
varía, claro, en función de su distancia a la superficie de la Tierra, R). Se puede decir
que, aproximadamente, la resolución de un radar (de apertura real) viene dada por:

λ
rb ≃ R
L
Así, el SLAR (side-looking airborne radar), un radar (de apertura real) aerotransportado
utilizado hasta finales de los años 1980, utilizaba una antena de 15,25 m a una frecuencia
de 10 GHz (longitud de onda de 3 cm) y, volando a una altura de 8230 m podía obtener

393
C UESTIONES DE TELEDETECCIÓN

ath
sw
rb

Figura 11.4. Resolución espacial de un radar de apertura simple.

imágenes con una resolución de unos 10 − 15 m. Esta distancia sobre el terreno se puede
reducir o bien con antenas de mayor tamaño (aumentando L) o bien reduciendo λ (pero
esto tiene otras implicaciones en cuanto a lo que puede “ver” o no el sensor).

3. El SeaSAT de la NOAA fue el primer radar de apertura sintética (SAR,


synthetic aperture radar) de uso civil. Un SAR permite obtener imágenes de la
superficie terrestre mejorando la resolución espacial que proporcionaría un
radar de apertura real. ¿En qué dirección reducirá el tamaño del píxel la
técnica SAR?

Respuesta: (b) Un SAR se aprovecha de las diferencias en la señal recibida desde posi-
ciones sucesivas en la órbita del satélite, por lo tanto, la mejora de la resolución
se producirá en esta dirección, la de avance del satélite. En la dirección perpen-
dicular, la resolución espacial seguirá dependiendo de la duración del pulso y del
tiempo de muestreo, así como de la inclinación del haz respecto al terreno.

Debido a la altura a la que se mueven los satélites artificiales, una resolución adecua-
da para estudios ambientales de un sensor radar requeriría una antena kilométrica, que
es difícil de transportar y de desplegar en el espacio. Para mejorar esta resolución de-
terminada por el tamaño de la antena, se “sintetiza” una antena más grande (de varios
kilómetros) tratando matemáticamente sucesivas medidas a lo largo de la trayectoria del

394
L A INFORMACIÓN DE LAS ONDAS : EL RADAR

L equivalente
L

rb = L / 2

Figura 11.5. Resolución espacial mejorada de un SAR.

satélite. Esta técnica se denomina SAR (synthetic aperture radar, o radar de apertura
sintética).
La base de la técnica SAR es la recepción por el sensor, dentro de su haz radar,
de la señal dispersada por un mismo punto en sucesivas adquisiciones según el sensor
se mueve; de un mismo punto y el conjunto de puntos adyacentes dentro del haz (la
recepción de la señal se hace de todos ellos simultáneamente). Esta presencia de la señal
de un punto en varias adquisiciones se aprovecha para calcular la imagen que se habría
obtenido de él desde una antena tan grande como la distancia recorrida por el sensor
mientras su haz ilumina ese punto. Y esto lleva a un resultado paradójico: el tamaño
mínimo del objeto resuelto por un SAR es semejante al tamaño de su antena (la mitad,
en el caso ideal); cuanto más pequeña sea la antena, más ancho será su haz radar y,
por ello, en más adquisiciones sucesivas será visible el mismo punto sobre el terreno, y
entonces mayor será el tamaño de la antena equivalente.
El SEASAT de la NOAA fue el primer radar de apertura sintética a bordo de un
satélite para uso civil. Fue lanzado en 1978 y estuvo en funcionamiento 110 días en

395
C UESTIONES DE TELEDETECCIÓN

una órbita casi polar (aunque no heliosíncrona) a 800 km de altitud. Su antena era de
10 m y su portadora de 1,2 GHz (longitud de onda de 23 cm), por lo que su anchura
de haz sobre el terreno sería de rb ≃ 18 km. Gracias a la técnica SAR, esta resolución
se redujo hasta los 25 m, similar a la resolución rg sobre cada línea del terreno, aunque
mayor a la teóricamente alcanzable de 5 m. Similar al SEASAT era el sensor ASAR en
la órbita del ENVISAT, también a unos 800 km de altura: su antena de 10 m de longitud
operando a 5,331 GHz (longitud de onda de 5,6 cm) proporcionaría una resolución de
4,5 km. Evidentemente, esta resolución no es la que proporcionó este instrumento. La
antena sintetizada del ASAR era de casi 4 km, de ahí que su resolución espacial fuese
rb = 10 m (en el modo de onda). Los nuevos SAR a bordo de los Sentinel-1, poseen
características similares, y ya prometen llegar a la resolución teórica máxima de 5 m en
los modos de “Wave mode” y “Strip map”.
Si cuanto más pequeña es la antena de un SAR, mejor es su resolución espacial, ¿por
qué no se construyen antenas más pequeñas? La razón es la potencia de la onda recibida:
cuanto mayor sea la antena, más potencia recibe. Por otro lado, el tiempo de muestreo
no se puede reducir indefinidamente, y también ello reduce la cantidad de señal recibida,
haciendo peligrar su calidad respecto al ruido térmico de la antena; así que al final la
resolución espacial estaría limitada por rg .

4. ¿De qué no depende el brillo en un píxel de una imagen de radar?

Respuesta: (a) Las imágenes de radar se calculan aplicando una corrección a la pérdi-
da de potencia por la propagación de la onda, de manera que la distancia sensor-
terreno no aparece en la imagen. Sí que influyen en cada píxel (y de hecho, es
sobre lo que informa la imagen radar) la pendiente del terreno en ese punto, par-
ticularmente respecto a la dirección de observación desde el satélite, la rugosidad
del terreno, que condiciona la forma en que es dispersada la onda incidente, y el
material que forma el terreno, especialmente, sus propiedades eléctricas (ya que
la onda es una onda electromagnética).

El pulso de radiación electromagnética que envía un radar varía su potencia en cada


punto de recepción disminuyendo de forma inversamente proporcional al cuadrado de
la distancia al origen de la radiación, R; y lo mismo sucede con la radiación dispersada
desde un punto del terreno. Además, la potencia que llega a un punto depende del factor
de ganancia G(θ), que describe la intensidad radiada por el radar en función de la direc-
ción: cuando este factor de ganancia es grande, se dice que la radiación en esa dirección
está dentro del haz del radar; cuando es pequeña, se considera que ya se halla fuera del

396
L A INFORMACIÓN DE LAS ONDAS : EL RADAR

Potencia emitida
Potencia recibida
Sensor Sensor

n
p ció
ce
re
de
z
Ha

Ha
zd
ee
1
mi
x 1
sió
R2 x
n
R2
Potencia incidente

Potencia dispersada

Blanco en la superficie

Figura 11.6. Ecuación del radar. La potencia recibida es función de la potencia emitida por el sensor, de la
ganancia de los haces de emisión y recepción, de la distancia que hace que las ondas emitida y recibida se
expandan, y de la reflectividad y tamaño del blanco (es decir, de su sección eficaz equivalente).

haz. Este factor, no obstante, varía de forma suave, y el criterio de dentro-fuera del haz
es un criterio arbitrario. Este factor de ganancia dependiente de la dirección es el mismo
para la recepción de la señal dispersada desde el terreno: allí donde más energía llega,
es también donde más sensible será el sensor a la señal dispersada, es decir, la recibirá
más amplificada que otra de igual potencia pero dispersada desde otro punto al que llegó
menos energía del sensor. Además, la potencia recibida depende de la longitud de onda:
es mucho más fácil detectar las longitudes de onda más largas que las más cortas. La
relación matemática que describe esto se llama la ecuación del radar:

G(θ) G(θ) λ2
Pr = Pe σT
4πR2 4πR2 4π
El coeficiente σT es el único que no se describe por las propiedades de la antena o por
la geometría de la emisión y la recepción: es la fracción de la potencia que incide en el
terreno que es dispersada en la dirección del sensor. Por eso se llama la sección eficaz de
radar, es decir, de cada metro cuadrado de terreno, la fracción que estaría efectivamente
reflejando la totalidad de la radiación que le llega. Juega el papel de la reflectividad en
los sensores ópticos. Las imágenes de radar ya se distribuyen en su nivel L0, corregidas
de todos los factores conocidos en la ecuación del radar, excepto del que es de interés:
la sección eficaz.

397
C UESTIONES DE TELEDETECCIÓN

ening o
t
)
(fore tamien

nto
amie
short
Acor
Distancia sobre

Alarg
la imagen

Zona
de so
mbra

Figura 11.7. Geometría de las distorsiones geométricas producidas por

Como en el caso de la luz, en el caso de las microondas (el rango en que se encuen-
tran las longitudes de onda empleadas en radar), esta fracción dependerá de la inclinación
del terreno respecto de la dirección de irradiación y de la composición del terreno. Dado
que las irregularidades del terreno serán de centímetros, es decir, del orden de magnitud
de las longitudes de onda empleadas, la rugosidad del terreno también influirá en el re-
sultado: ya no se podrá hacer la suposición de que todas las superficies son lambertianas
y dispersan la luz igual en todas las direcciones, la rugosidad hará que las microondas
incidentes sean reflejadas especularmente (y, entonces, alejadas de la dirección de obser-
vación del sensor; un píxel en el que el terreno presente irregularidades mucho menores
que la longitud de la onda aparecerá negro) o sean muy retrodispersadas (esto es, prefe-
rentemente en la dirección desde la que llegaron; un píxel así aparecerá más brillante).
Además de estos factores del terreno que proporcionan información sobre él, el brillo
de un píxel en la imagen radar estará afectado de dos efectos incontrolados: las sombras
e inversiones (“layovers”), y el “speckle”. El haz radar se propaga en línea recta, por lo
que las zonas de terreno pueden ser ocultadas por obstáculos más altos que ellas, que
impiden que sean iluminadas por la onda emitida; la radiación dispersada llegará desde
el obstáculo, pero de toda la zona en su sombra no llegará señal: se verá en negro en
la línea de la imagen (figura 11.7). En algunos casos, la onda llegará antes a la cima de
un cuerpo (una montaña) que a su base; esto producirá el curioso efecto de la inversión:
en la imagen aparecerá antes la cima que la base de la montaña, y la mezcla de señales
procedentes de una y otra hará que aparezca una línea destacada que exagera la orografía
o incluso la deforma (figura 11.8).
El “speckle” es el ruido típico de las imágenes de radar. Es un ruido inevitable que
se forma debido a la interferencia de la onda electromagnética dispersada consigo mis-

398
L A INFORMACIÓN DE LAS ONDAS : EL RADAR

Figura 11.8. Izquierda: imagen radar (ASAR) de una escena alrededor del lago Compotosto (Italia).
Derecha: imagen Landsat TM de la misma zona (banda 5) fusionada con el modelo de elevación SRTM
(tonos de altura creciente , del azul al verde). Se puede observar como las tres cuencas orientales aparecen
deformadas en la imagen ASAR. Nota: el SAR observa desde la izquierda de la imagen; el sol ilumina
desde la parte inferior.

ma. La luz no presenta este problema en los sensores ópticos, porque la luz natural (la
procedente del Sol) está formada por muchas ondas mezcladas, cada una con su fase de
oscilación independiente de las demás; sin embargo, en una onda de radar todo el frente
de la onda vibra con una misma frecuencia y fase, la que se originó en la antena. Cuando
la onda incide sobre el terreno, dentro de un píxel, los distintos puntos en ese píxel (de
decenas de metros por decenas de metros) se hallarán a diferentes alturas, muy diferentes
comparadas con la longitud de la onda de radar; si a dos puntos llega la onda incidente
con una una diferencia de fases tal que en uno de ellos esté en “cresta” y en otro en “va-
lle”, la suma de las ondas dispersadas por ambos puntos llegará al sensor con intensidad
nula; sin embargo, si uno de los dos puntos hubiese estado media longitud de onda más
cerca del sensor, la onda resultante hubiese sido más intensa que la emitida por cada
punto por separado. Esta variación tan aleatoria, debida a diferencias pequeñas de altura
dentro de un mismo píxel es lo que origina el speckle. Además, como las variaciones de
altura se suelen producir de manera continua a lo largo del terreno, el speckle no aparece
como un ruido aleatorio (que se puede filtrar con uno de los filtros habituales), sino que
forma patrones espaciales “correlacionados” (algo que aprovechan algunos métodos de
análisis para extraer información sobre las cubiertas analizando la “textura” del speckle).

399
C UESTIONES DE TELEDETECCIÓN

5. Los sensores radar son capaces de enviar y recibir ondas electromagnéticas


polarizadas, es decir, cuyos campos eléctricos oscilan sólo en una dirección:
horizontal (H) o vertical (V) respecto al terreno. La retrodispersión en este
terreno puede cambiar la polarización, de modo que tras emitir una onda V se
pueden recibir ondas polarizadas verticalmente (V) u horizontalmente (H).
Esto permite obtener imágenes HH, HV, VH, VV. ¿Qué hace que estas
imágenes sean distintas?, es decir, ¿qué se puede ver en estas imágenes?

Respuesta: (d) En una imagen radar de polarización se pueden distinguir distintos ti-
pos de materiales, rugosidades o contenido en agua. Distintos materiales presen-
tan diferentes respuestas dieléctricas. Las variaciones en la rugosidad, hacen que
el campo eléctrico se refleje más o menos, porque varía la inclinación del campo
eléctrico de la onda respecto a la superficie de la cubierta. Los diferentes con-
tenidos de humedad en el terreno también se pueden distinguir, porque el campo
eléctrico produce corrientes eléctricas que fluyen de manera diferente dependien-
do del contenido en agua; estas corrientes inducidas en el terreno absorben en
mayor o menor cantidad la energía de la onda incidente.

En toda onda electromagnética los campos eléctrico y magnético oscilan perpendicular-


mente el uno al otro: de este modo se propaga la onda, en una tercera dirección perpen-
dicular a los dos campos. Cuando la dirección de oscilación no varía en el tiempo (o con
el avance de la onda), se dice que la onda electromagnética está polarizada. Las antenas
de los sensores radar usados en teledetección permiten emitir ondas electromagnéticas
en las que el campo eléctrico oscila en una dirección paralela al eje principal de la antena
o en una perpendicular a él. Se dice que la primera (paralela) está polarizada horizontal-
mente (polarización H), porque así será el campo eléctrico cuando llegue al terreno; la
segunda (perpendicular al eje de la antena) estará polarizada verticalmente (polarización
V). Igual que pueden emitir estas ondas polarizadas, las antenas de los SAR pueden re-
conocer la dirección de oscilación del campo eléctrico de la onda recibida; aunque, en
general, la onda recibida será una suma de una onda polarizada horizontalmente y otra
verticalmente.
Cuando el sensor emite una onda polarizada H y recibe la polarización H de la onda
recibida, se dice que proporciona una imagen HH; así funciona el RADARSAT. Cuando
la onda emitida está polarizada V y se recibe la polarización V de la onda procedente
del terreno, se dice que la imagen es VV; así funcionaban los ERS de la ESA. Los
SAR más avanzados, como el ASAR a bordo del ENVISAT o los SAR a bordo de los
Sentinel-1 permiten intercambiar entre polarizaciones de emisión y de recepción. Es
decir, pueden obtener tanto imágenes HH como VV, y también imágenes HV y VH (es

400
L A INFORMACIÓN DE LAS ONDAS : EL RADAR

Antena
Campo
Antena eléctrico
Campo de la
eléctrico onda
de la
onda

V
Suelo

Figura 11.9. Ondas polarizadas vertical (V) y horizontalmente (H).

decir, emitidas con una polarización y detectadas con otra). Con cada una de estas cuatro
señales, estos sensores son capaces de construir cuatro imágenes de una misma escena,
y estas imágenes se ven diferentes.
¿A qué se deben las diferencias entre imágenes adquiridas en distintos modos de
polarización? La respuesta es la “depolarización” (figura 11.10). Una onda electromag-
nética polarizada en una dirección vertical u horizontal permanece así polarizada cuando
se propaga o cuando es reflejada por una superficie lisa (es decir, con irregularidades pe-
queñas comparadas con la longitud de onda) perpendicular a sus campos. Sin embargo,
cuando la superficie está inclinada respecto a la dirección de polarización, la onda re-
flejada lo es con una dirección de polarización distinta: tras la reflexión se conserva el
campo paralelo a la superficie, pero no el perpendicular a ella, que es atenuado.
Ante una superficie rugosa, por lo tanto, aparecen nuevas onditas dispersadas que
están polarizadas en direcciones distintas de la original; una onda incidente V será retro-
dispersada desde una superficie ligeramente rugosa con polarización principalmente V,
y un poco de polarización H; cuanto más aumenta la rugosidad, más reflexiones sufre la
onda inicial en las facetas de la superficie, y más proporción de la polarización original
V se pierde en favor de la polarización H originada en ellas. Lo dicho para las múlti-
ples reflexiones en una superficie rugosa es también cierto para las múltiples reflexiones
en un volumen irregular, como el ocupado por un dosel arbóreo o por las matas de un
terreno cultivado. Las polarizaciones “cruzadas” HV o VH, comparadas con las polari-
zaciones “iguales” HH o VV (respectivamente), proporcionan por lo tanto una medida
de la rugosidad del terreno; y la rugosidad más característica en las imágenes natura-
les es la vegetación. Sin embargo, las polarizaciones “cruzadas” tienen el inconveniente
de generar señales muy débiles, porque la fracción de la señal “depolarizada” suele ser
pequeña.

401
C UESTIONES DE TELEDETECCIÓN

antena emisora
antena receptora

E polarización V
E polarización H

Figura 11.10. “Depolarización” de una onda por una superficie rugosa.

El hecho de que los campos eléctricos (los que más interactúan con la materia) estén
alineados en una dirección, es importante en el caso de estructuras también alineadas en
una dirección, como pueden ser las plantas de cereal: todas paralelas y orientadas ver-
ticalmente. Cuando una onda polarizada paralelamente se encuentra con una plantación
de cereal, el campo eléctrico se atenúa mucho; un campo polarizado horizontalmente,
se atenúa menos. Por lo tanto, el cociente entre la señal HH y la señal VV informará de
la biomasa de cereal: si VV es menor que HH será porque su energía ha sido absorbida
por los tallos del cereal. En el caso del arroz, este método da resultados muy buenos:
en su caso, al crecer sobre una lámina de agua (que es como un espejo para la onda de
radar) sólo llegará al radar la retrodispersión procedente de las plantas de arroz; el agua
no retrodispersará señal ninguna.
Las ondas polarizadas paralelamente a una superficie son las más atenuadas al pene-
trar en ella (por ejemplo, en los tallos del ejemplo anterior). Por esta razón las imágenes
HH son las que se usan para estimar la humedad del terreno: cuanto más humedad, más
se atenúa la onda polarizada horizontalmente al penetrar en él. Por otro lado, las VV no
serán tan sensibles a las pérdidas por penetrar la onda en el material, así que informarán
sólo de la rugosidad de la superficie, no de las propiedades del interior.
Las combinaciones de imágenes HH, VV, HV y VH se pueden combinar en compo-
siciones RGB. Los diferentes colores representarán diferentes propiedades de rugosidad

402
L A INFORMACIÓN DE LAS ONDAS : EL RADAR

Figura 11.11. Combinación RGB de imágenes radar (rojo: banda X-HH, verde: banda X-HV, azul: banda
L-HH) con diferentes polarizaciones. Fuente: Eckardt et al. (2013), open access.

y de absorción de las ondas de radar en las diferentes cubiertas del terreno. De este mo-
do, gracias a los SAR con múltiples polarizaciones se puede hacer interpretación visual
de las imágenes de forma similar a como se hace con las imágenes ópticas en falso color.

6. Cuando se habla de imágenes radar es frecuente que las reflectividades y otras


magnitudes radiométricas se den en decibelios, es decir, en una escala
logarítmica. Esta práctica se debe a. . .

Respuesta: (c) La capacidad de penetración de la radiación de microondas en las cu-


biertas es mucho mayor que la de la luz (la radiación electromagnética en el rango
óptico), por lo que el proceso de absorción en ellas es mucho más importante. Da-
do que la absorción es una función exponencial de la longitud de penetración, en
cubiertas con coeficientes de absorción similares, diferencias de espesor o altu-
ra harán que la energía absorbida (y por lo tanto la reflejada hacia el sensor)
sea apreciablemente distinta. Por eso, las variaciones en la señal radar reflejada
por el terreno son muy grandes y es conveniente, para adecuarlas a un rango de
valores fácil de visualizar, expresarlas en una escala logarítmica.

403
C UESTIONES DE TELEDETECCIÓN

1 0

0.9 −5
0.8

Fracción transmitida
−10

Transmisión en dB
0.7
−15
0.6
−20
0.5
−25
0.4
−30
0.3

0.2 −35

0.1 −40

0 −45
0 2 4 6 8 10

distancia / longitud de atenuación

Figura 11.12. Atenuación: escalas lineal y logarítmica.

La escala decibélica de una magnitud x se obtiene mediante la transformación logarítmi-


ca
10 log10 x

Debido a las propiedades de los logaritmos, una diferencia de X decibelios entre dos
valores de esa magnitud está relacionada no con sus valores absolutos, sino con su co-
ciente. Por ello la escala decibélica es muy adecuada para caracterizar magnitudes que
sufren procesos que multiplican o dividen sucesivamente sus valores. Un ejemplo de ello
es la interacción de una onda con un medio: su energía se va dividiendo conforme avanza
más y más metros a través de un medio.
Cuando una onda electromagnética de longitud de onda λ atraviesa un medio con-
ductor, la energía (radiancia) que llega a una profundidad x en su interior es proporcional
a e−κx , donde κ se llama coeficiente de atenuación y está relacionado con la conducti-
vidad del medio y con la frecuencia de la onda electromagnética: por lo general, cuanto
mayores son la frecuencia y la conductividad, mayor es κ.
La interacción onda-materia (especialmente la absorción de la energía de la onda)
es mayor cuando la frecuencia de la onda ( f = c/λ ) es del orden de la frecuencia de
oscilación de uno de los componentes de la materia (electrón atómico, molécula, . . . ). En
el caso de las ondas de onda larga como las utilizadas en el radar, su frecuencia es muy
pequeña comparada con las de los electrones atómicos o las moléculas individuales por
lo que no interactúa con ellos. Toda la absorción que sufren las microondas de un radar
se debe a su interacción con los electrones de conducción y otras cargas libres móviles
presentes en los conductores o las disoluciones de sales. Por lo tanto, la absorción de las
microondas se describe por la disipación de su energía al intentar desplazar estas cargas
en medios conductores (pero que presentan, resistencia eléctrica a las corrientes en que
se traduce ese movimiento de cargas).

404
L A INFORMACIÓN DE LAS ONDAS : EL RADAR

Un suelo puede estar cubierto de vegetación, que ocupa una fracción del volumen
sobre el suelo: el resto es aire, entre los tallos o ramas de esa vegetación. La vegetación
es rica en agua y sales minerales, por lo que absorbe la radiación electromagnética al
intentar el campo eléctrico oscilante de ésta desplazar los iones disueltos en su savia;
también la onda es dispersada (difractada) por la simple presencia de obstáculos más
pequeños que su longitud de onda, que rodea. Cuando la onda electromagnética llega
al suelo, tras recorrer un espesor x de vegetación, ha sido atenuada en un factor e−κx ;
después se refleja hacia el sensor y vuelve a atenuarse otro factor e−κx . El logaritmo de la
atenuación, que vale entonces −2κx, describe la cantidad de biomasa (altura y densidad
de los tallos) y el vigor de ésta (contenido en agua) sobre el suelo. En la imagen XX,
las variaciones de los decibelios recibidos en el sensor caracterizan las variaciones de
la biomasa sobre suelos semejantes. Es decir, una imagen radar de una zona cultivada
convertida a decibelios, muestra la distribución del vigor de biomasa.

7. Durante la misión del transbordador espacial de la NASA en febrero de 2000 se


recogieron 24 terabytes de información altimétrica de la superficie de Tierra,
en lo que se llamó la misión SRTM (Shuttle Radar Topography Mission). Para
esto se empleó una técnica radar. ¿En qué consistía esta técnica?

Respuesta: (c) La técnica radar que se empleó fue la interferometría. Esta técnica con-
siste en comparar la fase de la onda reflejada sobre el terreno desde dos puntos
separados, de modo que, sabiendo la distancia entre ellos, se puede conocer con
precisión la posición del punto que refleja la onda en la superficie. A estas dos
antenas receptoras separadas, una a bordo del transbordador espacial, y otra en
un mástil extendido de 60 metros, se le llama par interferométrico de antenas.

Una de las informaciones más útiles sobre nuestro planeta es la forma de su superfi-
cie. Para determinarla es necesario conocer la altura de cada punto de ella respecto a
una superficie de referencia (un elipsoide de referencia). A lo largo de la historia se lle-
varon a cabo muchas topografías, empleando métodos diferentes (desde la medida por
triangulación hasta los pares de imágenes estereoscópicas tomadas desde aviones); sin
embargo, cada uno de estos métodos se aplicó sobre áreas particulares del planeta, sin
lograrse con ello una visión global homogénea: para ello se necesitaba un método de
cálculo de la topografía uniforme sobre toda la superficie terrestre. Este fue el objetivo
planteado por la NASA en la misión SRTM, usando como plataforma el transbordador
espacial Endeavour. El uso del transbordador espacial permitía adquirir los datos desde
una órbita baja, a sólo 230 km sobre la superficie.

405
C UESTIONES DE TELEDETECCIÓN

Figura 11.13. Transbordador espacial Endeavour con el brazo del par interferométrico (el otro par se
hallaba en el cuerpo del transbordador) usado para la misión SRTM. Fuente: NASA.

La NASA había experimentado anteriormente con la adquisición de imágenes ra-


dar de la Tierra desde el transbordador espacial, en particular con los SAR SIR-C (ra-
dar polarimétrico, capaz de emitir y recibir imágenes HH y VV), X-SAR (radar VV,
desarrollado por las agencias espaciales alemana e italiana), y con el ScanSAR (radar
polarimétrico con la capacidad de deformar el haz para abarcar un swath mayor).
En esta ocasión, la misión SRTM empleó dos pares de antenas radar para adquirir
imágenes SAR de la superficie terrestre: una semejante al SIR-C (5,6 cm) y con las capa-
cidades de barrido extenso del ScanSAR (225 km de swath), y otra en banda X (3,1 cm)
como el X-SAR. Al tener ambas bandas longitudes de onda diferentes, la resolución de
las imágenes obtenidas sería diferente (mejor la de la banda X), de modo que se podría
valorar la calidad de una medida de la topografía respecto a la otra. Uno de los elementos
de cada par se hallaba en el transbordador espacial, y el otro alejado de él 60 m, al final
de un mástil desplegado fuera de él (una distancia medida con suma precisión; figura
11.13). A esta disposición se le llama par interferométrico (figura 11.14). Cada una de
las imágenes adquiridas por cada elemento del par contiene información de amplitud dis-
persada por el terreno y también de la fase de la onda recibida: esta fase está relacionada
con la distancia recorrida por la onda desde que es emitida hasta que es recogido su eco
por la antena. Las fases son ligeramente diferentes en una imagen y en otra del par: dife-
rencias de fase se corresponden con diferencias de distancia del suelo al transbordador.

Estas diferencias de fase se pueden calcular sólo mientras sean menores a una oscila-
ción completa del campo (una longitud de onda): más allá de ésta, la diferencia calculada
vuelve a empezar en cero, porque las oscilaciones se vuelven a repetir; este problema se

406
L A INFORMACIÓN DE LAS ONDAS : EL RADAR

Diferencia Diferencia
de fase de fase

Figura 11.14. Par de antenas interferométricas y cambio detectado en la diferencia de fase entre ambas al
variar la altura del terreno.

llama ambigüedad de la fase. La ambigüedad de fase se traduce en una ambigüedad de


la altura calculada: 10 m o 100 m entre dos píxeles contiguos, en función de su posición
angular dentro del haz (más alejados o menos de la órbita del satélite).
Los datos de “diferencias de alturas” se procesaron posteriormente para deshacer
la ambigüedad de altura y obtener el modelo de elevación de la Tierra; este proceso se
llama “desdoblado” de fase (phase unwarping) ya que las diferencias de fase se repiten
cada oscilación (o longitud de onda, cuando se trata de distancias) y esto se ve como un
doblado o plegamiento de altura. Este proceso de desdoblado es común a todas las técni-
cas interferométricas, desde el momento en que las distancias o diferencias de distancias
que se quieren calcular son mayores que la longitud de onda de la radiación empleada.
Los datos adquiridos por estas dos antenas fueron ingentes (para la época): se ad-
quirieron imágenes de la Tierra durante 10 días tras un total de 149 órbitas. Los pares
interferométricos generaron 180 MB por segundo en el par de banda C y 90 MB por
segundo en el par de banda X (que tenía menor swath), acumulándose al final 12.3 Te-
rabytes de información. La información se generaba tan rápidamente que no podía ser
transmitida a tierra, sino que fue grabada en “cintas magnéticas ultrarrápidas” a bordo
del propio transbordador.
El modelo digital de elevaciones (DEM, digital elevation model) obtenido con la
banda C (SIR-C) es el más detallado hasta la fecha con cobertura casi global (entre la-
titudes 60o N y 60o S): las alturas se determinaron con una precisión de 8 m al 90 % (es
decir, el 90 % de los puntos tiene errores inferiores a 8 m respecto al elipsoide de refe-

407
C UESTIONES DE TELEDETECCIÓN

Figura 11.15. DEM SRTM de Madrid. Fuente: NASA, JPL.

rencia WGS84) localizadas en una malla con un punto cada 1′′ de arco tanto en latitud
como en longitud (es decir, cada 30 m sobre el meridiano). El DEM SRTM ha sido re-
procesado hasta cuatro veces y en septiembre de 2014 se ha hecho público a su máxima
resolución (hasta esa fecha, fuera de los EE.UU. se distribuía a una resolución de 3′′ de
arco): sobre el terreno, esto equivale a tener unos 30 m × 30 m en zonas ecuatoriales,
30 m × 20 m en latitudes intermedias y 30 × 15 m en las latitudes más altas mapeadas
de 60o . Los datos obtenidos con el par en la banda X más precisos, pero no cubren la
totalidad de la superficie terrestre, sino algunas franjas; fueron procesados y son distri-
buidos por la DLR (Deutsch Luft- und Raumfahrt, la agencia alemana de aeronáutica e
investigación espacial).

408
L A INFORMACIÓN DE LAS ONDAS : EL RADAR

8. En octubre de 2014 la revista Science publicó un gran avance en el estudio del


fondo del mar mediante teledetección por satélite: se había obtenido una
cartografía del fondo oceánico que revelaba detalles no conocidos hasta
entonces. ¿Con qué técnica se logró esto?

Respuesta: (c) El método utilizado para cartografiar el fondo marino se basa en la


idea de que las montañas submarinas, por ser más densas y masivas que un vo-
lumen equivalente de agua, causan un aumento del campo gravitatorio terrestre.
Este aumento hace que la superficie del mar se deforme, para ajustar su altura
a una superficie equipotencial. Conociendo con precisión suficiente la superficie
equipotencial, gracias a una medida radar de altimetría, se puede calcular la
distribución de masa que hace que se deforme respecto al geoide (la superficie
equipotencial media de la Tierra). De este modo lo que se obtuvo no es una ba-
timetría del océano, como se obtiene con los sonares que llevan los barcos, sino
una localización de elementos masivos en el fondo oceánico que coinciden con
las elevaciones conocidas (y algunas nuevas que fueron, posteriormente, medidas
con sonar por primera vez).

El estudio del interior del océano es uno de los retos de la teledetección actual. En él no
penetran las radiaciones electromagnéticas usuales, por lo que la teledetección óptica,
térmica o radar sólo alcanza a caracterizar su superficie: los pigmentos que le dan color
al agua, la temperatura de ésta, la rugosidad de su superficie (y, así, los vientos que la
mueven), y últimamente, su altura. Lo que hay bajo la superficie se conoce, o bien, por
medida directas con instrumentos sumergidos conectados a la superficie mediante ca-
bles (conocidos comúnmente como sondas), o bien, por medidas de sónar, que mediante
la emisión, propagación y rebote de ondas acústicas, obtiene información sobre la pro-
fundidad y el tipo de fondo marino (de forma análoga a como el radar lo hace para la
superficie terrestre). No obstante, es muy costoso hacer un estudio global con sonares
a bordo de barcos; las batimetrías que se conocen del océano se han hecho compilando
los registros de profundidades de los sonares de centenares de barcos mercantes: pero
aquellas zonas lejos de las rutas comerciales están todavía sin cartografiar. Los mapas
de profundidades como el que muestra Google Maps están interpolados entre esas rutas;
y la interpolación causa, a veces, patrones peculiares como el de la “ciudad submarina”
frente a las costas de Canarias y Azores.
Para determinar la forma de la Tierra, se han usado gravímetros: sistemas de péndu-
los o muelles que miden la gravedad terrestre a partir de la variación en sus períodos de
oscilación. La gravedad media en la superficie terrestre es de alrededor de 9,81 m/s2 ; un
aumento o una disminución de ésta, se asocia con una variación de la distancia al centro

409
C UESTIONES DE TELEDETECCIÓN

Figura 11.16. Efectos de la interpolación en la batimetría del fondo atlántico: surcos indicados por las
flechas, especialmente, la rejilla a la izquierda de la imagen, debidos, a los transectos de una campaña de
sónar. Fuente: Google Maps/NASA.

de la Tierra. Así descubrió Jean Richer en 1627 que la Tierra tiene forma de elipsoide de
revolución, al comparar la gravedad en París con la gravedad en el ecuador (y descontar
la fuerza centrífuga en éste): la gravedad menor en el ecuador se debía a que éste está
más alejado del centro. La superficie que “une” los puntos con gravedad igual a la media
(unos situados sobre la superficie física de la Tierra y otros bajo ella) se denomina geoi-
de; se ve “hundido” allí donde la anomalía gravitatoria es positiva (más gravedad que
la media) y con “protuberancias” en aquellos puntos donde es negativa (figura 11.17).
Una anomalía gravitatoria puede producirse, por ejemplo, en una zona asentada sobre
un batolito granítico: sobre él, la anomalía gravitatoria será negativa, porque es menos
denso que el manto sobre el que flota (por lo que “atrae menos”). Esta situación se da en
el noroeste de la Península Ibérica, donde la gravedad es menor que en su parte oriental.

Con el tiempo se ha perfeccionado la medida de la gravedad hasta obtener precisio-


nes de hasta 10−9 m/s2 en la zona terrestre. Esto ha permitido, por ejemplo, determinar
la localización de fallas geológicas que separan placas o subplacas, detectando una dis-
minución de la gravedad debido al diferente espesor de la corteza terrestre en ellas.
Para determinar la forma de la Tierra bajo el océano, se utiliza una aproximación
similar: se determina el campo de gravedad sobre el océano; y esto se hace aprovechando
el hecho de que la superficie marina es, en promedio, una superficie equipotencial, es
decir que el agua del océano se desplaza y asciende y desciende de forma que la gravedad
en su superficie se mantenga constante. Así, un lugar en el que la superficie marina esté

410
L A INFORMACIÓN DE LAS ONDAS : EL RADAR

Figura 11.17. Superficie del modelo de geoide EGM2008: exagerada la diferencia en altura respecto al
elipsoide de referencia.

hundida respecto a su alrededor, será porque está más cerca de algo que la está atrayendo:
una montaña submarina produciría ese efecto. Ya no se trata de estar más cerca o más
lejos del centro de la Tierra, sino de estar más cerca o más lejos de una masa de tierra.
Para determinar la altura de la superficie marina se han utilizado altímetros, que
son radares a bordo de satélites que emiten sus haces de microondas verticalmente: el
tiempo que tarda en llegar el rebote de un pulso enviado a la superficie informa de la
distancia de ésta a la órbita del satélite, que se debe conocer con mucha precisión. Los
altímetros a bordo del ERS-1 (de la ESA) y del Geosat (de la NASA) fueron los primeros
en completar un mapa de alturas de la superficie de los océanos.
Los altímetros más modernos que continuaron la adquisición de datos de los ERS-1
y Geosat fueron los CryoSat-2 (ESA), Jason-1 (NASA): con sus datos se ha obtenido el
mapa más preciso de la superficie marina hasta la fecha . Los altímetros pueden calcu-
lar variaciones en la altura del mar del orden de 5 cm ; estas variaciones se tienen que
promediar a lo largo de mucho tiempo para eliminar los efectos de las mareas, los efec-
tos atmosféricos, las variaciones de temperatura del agua del mar, etc. (la misión ERS,
continuadas por el RA-2 del ENVISAT, han tenido una duración de 15 años).
Por poner un ejemplo: un volcán submarino, de 2 km de altura, producirá un hun-
dimiento de la superficie marina de unos 2 m a lo largo de una distancia de 20 km; por
lo tanto, con resoluciones espaciales de 8 km (la distancia entre órbitas del ERS-1) y
precisiones verticales de 5 cm, se podrá determinar la existencia de formaciones subma-
rinas mucho más pequeñas que ésta. No obstante, se observó que son las variaciones de
la altura de la superficie marina (y, por lo tanto, de la gravedad terrestre) a lo largo de
distancias entre los 15 y los 200 km las que están correlacionadas con la batimetría del

411
C UESTIONES DE TELEDETECCIÓN

Figura 11.18. Altura de la superficie marina durante el fenómeno de “El Niño” de 1997. Fuente: NASA.

océano. Es decir, se deben tener variaciones de gravedad a lo largo distancias de este or-
den de magnitud para poder decir que son debidas a la orografía del fondo oceánico; esto
limita la resolución espacial del método. En la práctica no serán distinguibles montañas
o valles a menos de unos 100 km de distancia.
Los altímetros no sólo han sido utilizados para generar topografías del fondo oceá-
nico. Es particularmente famosa la misión Topex/Poseidon (NASA y CNES, la agencia
espacial francesa), dedicada a estudiar las corrientes oceánicas y capaz de medir varia-
ciones en la altura de tan sólo 2 cm. La diferente densidad del agua más cálida o más fría
hace que la superficie marina se deforme también, en virtud del principio de Arquíme-
des: el agua de una corriente cálida (menos densa) se manifiesta como una elevación de
la superficie del océano, porque “flota” sobre el agua más fría bajo ella y a su alrededor.
En particular, esta misión Topex/Poseidon observó casi en tiempo real el desarrollo del
fenómeno de El Niño en 1997: la oscilación en las corrientes del océano Pacífico que
afecta al clima global cuando una corriente cálida aparece cruzando el océano (figura
11.18). También estudió las mareas en los océanos, que se propagan como oscilaciones
de la superficie del mar de unos 30 cm de altura, excepto en zonas en las que la batime-
tría oceánica hace variar la velocidad de la onda de marea: entonces ésta puede aumentar
su amplitud, tal como sucede en las costas continentales, donde las mareas alcanzan am-
plitudes de varios metros. El conocimiento preciso de las mareas proporciona no sólo
información para eliminar su influencia en los datos de altimetría, sino para estudiar

412
L A INFORMACIÓN DE LAS ONDAS : EL RADAR

cómo las mareas alargan el período de rotación de la Tierra.

9. En los últimos años es frecuente mostrar imágenes coloreadas que muestran la


deformación del terreno después de un terremoto, o una erupción volcánica, o
incluso debido al deshielo de los glaciares. ¿Qué técnica se emplea para obtener
estas imágenes y qué muestran, en concreto?

Respuesta: (a) La técnica más empleada para medir diferencias de distancias pequeñas
es la interferometría; en Teledetección es la interferometría radar la que permite
determinar diferencias de distancias del orden de la longitud de onda de la ra-
diación radar empleada (es decir, del orden de centímetros). La interferometría
muestra bandas (habitualmente coloreadas) en las que el desplazamiento es el
mismo: esto destaca zonas que se han movido al unísono, como sucede en terre-
motos o erupciones volcánicas, en los que grandes zonas terreno se desplazan.
Esta representación se llama un interferograma. Para generar un interferograma
se comparan matemáticamente las señales de fase de dos imágenes SAR adquiri-
das desde la misma posición en la órbita del satélite: la fase varía de una a otra
por la diferente distancia a la que se encuentra la superficie que refleja la onda;
así se sabe cuánto se ha alejado la superficie de la posición del sensor entre una
adquisición y otra.

Un interferograma se forma, habitualmente, por la interferencia de la luz consigo misma.


La luz es una onda, y si se solapan dos ondas de luz, de tal manera que las “crestas” (o
máximos del campo eléctrico) de una coincidan con los “valles” (mínimos del campo
eléctrico) de la otra, se puede producir oscuridad; por el contrario, cuando coinciden
“crestas” de ambas (y, por lo tanto, valles de ambas) se producirá más luz de la que
esperaríamos sumando, simplemente, las intensidades de ambas ondas de luz. El inter-
ferograma al que estamos más habituados es al de una fina capa de aceite flotando sobre
el agua: las franjas iridisadas se producen cuando las ondas de luz procedentes de las
sucesivas reflexiones en las interfases aire-aceite y aceite-agua interfieren constructiva
(para dar más luz) o destructivamente (para dar oscuridad) entre ellas; al producirse este
fenómeno a diferentes longitudes de onda, vemos franjas de todos los colores del arco
iris. A lo largo de cada una de estas franjas, sabemos que el espesor de la capa de aceite
es el mismo. También veremos que las franjas de un mismo color se repiten: pero en ese
caso no es porque se repita el espesor de la capa de aceite, sino porque las diferencias
de fase de las ondas reflejadas vuelven a ser los mismos: el espesor habrá aumentado o
disminuido un número entero de veces la longitud de la onda de luz.

413
C UESTIONES DE TELEDETECCIÓN

El interferograma requiere para su formación que la fase de la onda esté bien de-
finida: de esta radiación se dice que es coherente. El campo eléctrico de una radiación
coherente, oscila al unísono: no es la superposición de ondas, oscilando cada una de
ellas con una fase diferente (piénsese en la diferencia entre el sonido de un violín y en
del grupo de violines de una gran orquesta: suenan diferente, aunque estén dando la mis-
ma nota). La luz natural, procedente del sol, no es coherente en ese sentido, pero en la
fina película de aceite, la fase de las ondas se conserva de una superficie a la otra por-
que la película es muy fina y varía poco su espesor a lo largo del espacio: se produce
coherencia espacial, aunque no temporal, y por eso se forma el interferograma. El radar
usa una señal electromagnética temporal y espacialmente coherente, y por eso se puede
emplear en aplicaciones interferométricas.
En teledetección las mejores imágenes radar se obtienen por la técnica SAR: con
esta técnica se sintetiza (matemáticamente) una antena de gran tamaño (kilómetros) de
manera que se calcula la onda que se reflejaría por retrodispersión desde el terreno: su
amplitud y su fase. La amplitud se relaciona con la cantidad de energía que rebota en
las irregularidades del terreno y que no es absorbida por éste. La fase se relaciona con el
retraso que sufre la onda debido a estos rebotes: si dentro de un píxel la mayor parte de
los “dispersores” se hallan cerca del sensor, y en otro píxel vecino esos “dispersores” se
hallan más alejados del sensor, entra ambos se observará una diferencia de fases, porque
llegarán a la antena más tarde las oscilaciones del campo eléctrico rebotado desde el
segundo píxel que desde el primero. Lo mismo sucede si la altitud del terreno en un píxel
es mayor que la altitud en otro vecino: la fase del primero se verá adelantada respecto a la
del segundo, más alejado. En la realidad, debido al tamaño de los píxeles de una imagen
SAR y a la multitud de dispersores (la rugosidad del terreno), estas diferencias de fase
entre píxeles próximos no se pueden usar para determinar diferencias de distancias o
alturas entre ellos. Sin embargo, sí se pueden usar para establecer diferencias de distancia
o altura de un píxel respecto a él mismo, si se observa exactamente desde la misma
posición. De este modo se calculan los interferogramas SAR.
Las primeras imágenes de interferometría SAR fueron proporcionadas por los SIR-C
y X-SAR a bordo del transbordador espacial, en 1994 (más tarde, estas técnicas interfe-
rométricas, serían usadas para desarrollar el modelo digital de elevación global SRTM).
Sin embargo, los primeros satélites capaces de obtener estas imágenes de manera perió-
dica y durante mucho tiempo, fueron los ERS-1 (lanzado en ) y ERS-2 (lanzado en ) de
la ESA. Esto se logró gracias a a lo bien caracterizadas que se tenían sus órbitas y a la
estabilidad de las mismas a lo largo del tiempo. Uno de los primeros ejemplos de este
tipo de estudios fue el terremoto de Landers (Virginia, EE.UU.) del 28 de junio de 1992,
cuyo campo de deformación del terreno (de hasta 6 m a lo largo de una falla de 85 km)

414
L A INFORMACIÓN DE LAS ONDAS : EL RADAR

Figura 11.19. Interferograma formado por imágenes SAR antes y después del terremoto de Landers de
1992. Fuente: NASA, JPL.

fue calculado a partir de dos imágenes del ERS-1: una del 24 de abril de 1992 y otra del
7 de agosto de 1992.
Con los dos satélites ERS-1 y ERS-2 en “tándem”, es decir, describiendo la misma
órbita sólo que con 24 horas de diferencia (algo que duró desde 1995 hasta el fallo del
ERS-1 en 2000), se pudieron hacer estudios de coherencia interferométrica, es decir, es-
timaciones estadísticas de correlación entre la fase de la señal reflejada por una cubierta
un día y el siguiente (a lo largo que varios píxeles). Cuando esta correlación es perfecta,
quiere decir que la cubierta no ha variado: es de esperar en un suelo rocoso, o con ve-
getación baja (herbácea), o en un suelo urbano. Cuando esta correlación no es perfecta,
quiere decir que se han producido cambios de un día a otro: en una superficie de agua,
o en un bosque, puede causar esto un cambio del viento; en otros casos puede ser la
precipitación o la inundación del terreno lo que rompa la coherencia entre una imagen
y otra (aunque esta aplicación no está todavía muy estudiada/optimizada). Por lo tan-
to, esta medida de la variación de una cubierta puede proporcionar una clasificación de
cubiertas por su comportamiento, o por los fenómenos meteorológicos que las afecten
(y, hay que recordarlo, independientemente de la presencia de nubes sobre la zona de
estudio).

415
C UESTIONES DE TELEDETECCIÓN

En la actualidad, el satélite Sentinel-1A continúa con la tarea de adquisición de datos


interferométricos inaugurada por los ERS y continuada después por el ASAR del satélite
ENVISAT. Apenas 5 meses después de su puesta en órbita en abril de 2014, sus imágenes
se utilizaron para estudiar el terremoto del valle de Napa (en California, EE.UU.) que
tuvo lugar el día 24 de agosto de 2014. El satélite Sentinel-1B (de próximo lanzamiento)
permitirá recuperar la capacidad de “tándem” de los ERS-1/2, y así poder evaluar los
efectos de los terremotos en pocos días; actualmente, el Sentinel-1A tiene un tiempo de
revisita de 12 días, por lo que hace falta esperar ese tiempo como mínimo para obtener
un par interferométrico.
Otra aplicación de la interferometría radar, ha sido el estudio de los glaciares. En
estas zonas el uso del radar es imprescindible ya que la accesibilidad y la nubosidad
impide otro tipo de medidas directas o por teledetección. La variación en la distancia de
la superficie de hielo al sensor a lo largo del tiempo, ha demostrado que la idea tradicio-
nal de que el movimiento del hielo en éstos duraba milenios no es cierta; su velocidad
de avance varía en el tiempo (se producen “explosiones” en forma de oscilaciones que
aceleran la velocidad de avance hasta 100 veces) y en el espacio (es de tres a ocho veces
más rápida en las zonas próximas a la desembocadura del glaciar). También se han estu-
diado por interferometría las variaciones del volumen en varias cuencas glaciares de alta
montaña, lo que da una idea del efecto que tiene en ellos el aumento de la temperatura
global, o las oscilaciones (elevaciones y hundimientos) estacionales de las capas de hielo
en las desembocaduras de los glaciares antárticos, debidas a las corrientes de agua que
circulan bajo ellas. Especialmente interesantes son las medidas llevadas a cabo por el
Cryosat-2, entre 2011 y 2014, sobre la variación de la cubierta de nieve en Groenlandia
y en la Antártida, lo que permite estimar la velocidad de fusión del hielo en estas dos
grandes reservas de agua del planeta, algo que afecta a la subida del nivel del mar por
efecto del cambio climático.

10. ¿Cómo puede un radar a bordo de un satélite medir la velocidad del viento
sobre el océano, si el aire (y la atmósfera en general) es transparente a las
microondas que usan los radar?

Respuesta: (b) La medida de los vientos oceánicos en superficie se lleva a cabo me-
diante “dispersómetros” de vientos (wind scatterometers). Estos sensores radar
envían una onda de longitud de onda centimétrica dentro de un haz ancho (con
una huella sobre el terreno de decenas de kilómetros) y miden la poca fracción
de la energía enviada que es retrodispersada por las onditas centimétricas que
induce el viento en la superficie del mar. La altura de estas onditas, relacionada

416
L A INFORMACIÓN DE LAS ONDAS : EL RADAR

Figura 11.20. Velocidad con la que aumenta (signo +, azul) o disminuye (signo -, rojo) la cubierta de hielo
de la Antártida. Fuente: ESA.

con la intensidad del viento, determina la cantidad de energía reflejada hacia el


sensor.

La medida de los vientos es una de las principales preocupaciones en una predicción


meteorológica. Especialmente, de los vientos en superficie. En tierra, se dispone de una
red extensa de estaciones meteorológicas, capaces de medir no sólo la temperatura y
la precipitación, sino la velocidad (magnitud y dirección) del viento con anemómetros.
Pero sobre los océanos, que ocupan la mayor parte de la superficie del planeta, no es
posible obtener estas medidas de forma homogénea.
El aire es transparente, por lo que no se pueden hacer medidas de teledetección de
él. Se puede observar lo que transporta (nubes o gotas de lluvia) y los efectos que tiene
(movimiento de la superficie del mar). El viento en capas altas se puede determinar a
partir del desplazamiento de las nubes, que sí son visibles: comparando dos imágenes
sucesivas adquiridas por un sensor meteorológico, es posible calcular el la distancia que
se han desplazado y, conociendo el tiempo entre ambas, la velocidad a la que se han
desplazado. No obstante, la velocidad del viento en superficie es muy diferente de la
que mueve las nubes. Desde muy pronto se observó que una manera indirecta de medir
la velocidad del viento es medir las ondas que genera en el mar. Este efecto, en los
sensores ópticos, se observa como “sunglint”: el reflejo del sol en las ondas, que varía
con la velocidad del viento. Sin embargo, los sensores más usados para estas medidas
son radar, que no están limitados por la presencia de nubes.

417
C UESTIONES DE TELEDETECCIÓN

ERS
dispersómetro
de vientos
56º
18º
+45º

km
−45º 50
500 k
m

Figura 11.21. Haces de barrido del dispersómetro a bordo del ERS-1. Cada haz era emitido en la banda C
(5,3 GHz) por una antena orientada a ±45◦ o 90◦ respecto a la dirección de vuelo del ERS-1.

Los dispersómetros de vientos (wind scatterometers), se basan en medir la radiación


retrodispersada por las ondulaciones de mar para calcular a partir de ella (de la sección
eficaz que representan) la intensidad y dirección del viento. El viento produce sobre la
superficie del mar pequeñas ondas, en torno a los milímetros o centímetros de longitud
de onda, llamadas ondas capilares, que se producen por la resistencia de la superficie
del agua a ser estirada por el viento (propiedad llamada tensión superficial). Cuando las
ondas capilares tienen una longitud de onda próxima a la de la onda electromagnética del
radar y están alineadas con ella, la retrodispersión es máxima; es mínima cuando ambas
son de longitud de onda muy distinta y/o avanzan perpendicularmente. Haciendo varias
medidas de energía retrodispersada desde distintas direcciones, es posible estimar la
dirección de máximo alineamiento (que es, también, la dirección del viento) y la máxima
intensidad de retrodipersión, que informa sobre lo parecidas que son ambas longitudes
de onda y, de ahí, cuál es la velocidad del viento que produce las ondas capilares.
Como la señal retrodispersada por la superficie del mar es pequeña, se realizan me-
didas sobre extensiones grandes (promediando así la señal de mucha superficie): la re-
solución espacial es mucho menor que la de un SAR; con un haz sencillo (no sintético)
que incide en el terreno barriendo un swath de 500 km o más, con una anchura de alre-
dedor de 20 km, se seleccionan “celdas” de 20 km × 20 km dentro de las que se obtiene
la sección eficaz media de la superficie marina. Esta sección eficaz media se relacio-
na con la intensidad de los vientos mediante relaciones geofísicas basadas en modelos
matemáticos de formación de las olas, aunque más a menudo estas relaciones se esta-
blecen con medidas de calibración sobre el terreno. Las relaciones geofísicas relacionan

418
L A INFORMACIÓN DE LAS ONDAS : EL RADAR

la intensidad y dirección del viento con la señal retrodispersada en una dirección. Por
ello, para determinar la dirección del viento se necesitan medidas desde varias direccio-
nes diferentes, es decir, el dispersómetro de vientos debe emitir su haz de microondas
hacia varias direcciones. Por ejemplo el SeaSat, el primer dispersómetro de vientos a
bordo de un satélite (lanzado en 1978), enviaba cuatro haces de microondas orientados
en la dirección de avance del satélite (haz inclinado 22◦ hacia delante y atrás respecto
a la vertical) y en direcciones a 45◦ de su órbita (inclinadas 55◦ respecto a la vertical).
Otros dispersómetros posteriores, como los que llevaban los ERS, siguieron utilizanto
esta disposición. Los dispersómetros más modernos emplean una antena giratoria, que
selecciona consecutivamente las diferentes orientaciones del haz.
La precisión con la que se puede medir el viento en la actualidad usando estos méto-
dos es de 0,5 m/s en módulo y unos 6o en dirección: prácticamente, la misma precisión
con la que se puede medir con un anemómetro (debido a las variaciones locales y a las
rachas).

419
C UESTIONES DE TELEDETECCIÓN

11.4. CONCEPTOS IMPORTANTES

antena Circuito eléctrico capaz de mantener una corriente alterna de determinada fre-
cuencia con pérdidas menores de energía en él. Cuando una onda electromagnética
con la frecuencia especificada llega al circuito, se establece en él esa corriente que
puede ser medida: la antena actúa como receptor. Cuando la corriente es estable-
cida en el circuito por un oscilador eléctrico, la antena genera a su vez una onda
electromagnética de la misma frecuencia: la antena actúa como emisor.

anomalía gravitatoria Diferencia entre la gravedad en un punto de la superficie terres-


tre y la gravedad esperada según un modelo de geoide. Una anomalía representa
una variación local del campo gravitatorio en la superficie, causada por una es-
tructura geológica profunda.

batimetría Profundidad del suelo marino o de otra masa de agua respecto a la superficie
de dicho cuerpo de agua. Por extensión, mapa de elevación del suelo marino.

campo electromagnético Campo de energía radiante transportado por los fotones que
se observa como una sucesión alternada, en forma de onda, de oscilaciones del
campo eléctrico y magnético. El campo magnético se propaga a la velocidad de la
luz e interactúa con las cargas en la materia, ya sean libres (como los electrones
en los metales) o ligadas (como los electrones en las moléculas), transmitiéndoles
parte de su energía.

difracción Efecto producido en la propagación de una onda cerca de los bordes de un


objeto sólido pequeño, que hace que la onda se propague alrededor del objeto y
que aparezcan nuevas ondas originadas en él que interfieren entre ellas y con la
onda original. La interferencia de las ondas difractadas entre ellas puede producir
que la energía se propague preferentemente a lo largo de determinadas direcciones
y no de otras.

dispersómetro de vientos Sensor activo que mide la radiación dispersada por la super-
ficie marina en varias direcciones, relacionándola con la altura de las ondulaciones
inducidas por el viento y con su dirección, y permitiendo así estimar la velocidad
y dirección de los vientos. Las ondulaciones causadas por el viento en la superfi-
cie del agua son centimétricas, del orden de las longitudes de onda empleadas en
estos sensores radar.

ecuación del radar Relación matemática entre la potencia emitida por una antena de
radar, la distancia a un objeto sobre el que incide el haz radar, y la potencia recibida
de vuelta en la antena. Esta relación permite corregir la atenuación sufrida por la

420
L A INFORMACIÓN DE LAS ONDAS : EL RADAR

onda y calcular la reflectividad (llamada, en radar, sección eficaz) del objeto, que
es independiente de la posición del sensor respecto a él.

efecto Doppler Acortamiento o alargamiento aparente de la longitud de onda al ser


recibida por un observador en movimiento acercándose o alejándose de la fuente,
respectivamente. El cambio en la longitud de onda permite calcular esta velocidad
relativa de fuente y observador.

fase En una oscilación periódica, valor numérico que varía entre 0◦ y 360◦ (o entre 0 y
2π radianes) que caracteriza el cambio en el tiempo de la oscilación, repitiéndose
en cada período de ésta. Una oscilación periódica se puede representar por un
punto moviéndose en una circunferencia: la fase es el ángulo sobre el contorno de
esta circunferencia, mientras que la amplitud de la oscilación será cualquiera de
las coordenadas cartesianas de éste.

frecuencia/longitud de onda Número de veces por unidad de tiempo que invierte y


recupera su dirección el campo eléctrico (o magnético) de una onda electromag-
nética. En el tiempo que tarda el campo en invertirse y recuperarse, el frente de la
onda avanza una distancia igual a la longitud de onda.

geoide Superficie ideal a lo largo de la cual la aceleración gravitatoria efectiva (resul-


tante de la gravedad terrestre y de la fuerza centrífuga causada por la rotación de la
Tierra) es de magnitud constante. Además, esa superficie es perpendicular al vec-
tor de la gravedad efectiva en todos sos puntos. El geoide es la forma que adquiriría
la superficie de un océano que cubriese la totalidad de la Tierra, en ausencia de
vientos y de Luna (que produce las mareas).

interferograma Representación gráfica de la diferencia de fases entre dos ondas. En


teledetección, el interferograma se puede obtener comparando las fases de dos
ondas emitidas simultáneamente, o comparando la fase de la señal recibida en el
mismo sensor en dos pasos diferentes. En el primer caso, se obtiene una estimación
de las distancias entre puntos del terreno, que permite construir un DEM (como el
SRTM). En el segundo caso, se obtienen los cambios de altura relativos de unos
puntos del terreno respecto a otros, es decir, la deformación del terreno entre los
dos pasos del sensor (como en el caso de terremotos).

par interferométrico Par de antenas situadas a una distancia conocida que emiten o
reciben señales (ondas electromagnéticas) de igual longitud de onda hacia o des-
de los mismos puntos del terreno. El cálculo del desfase entre la señal recibida
en una y otra antenas, y el cambio de ese desfase entre puntos próximos del te-
rreno, permiten calcular la diferencia de altura entre puntos con gran precisión y,

421
C UESTIONES DE TELEDETECCIÓN

extendiendo esto a todos los puntos de una imagen, permite calcular un modelo de
elevación de ella.
polarización Dirección de oscilación del vector de campo eléctrico en una onda electro-
magnética. La onda se dice que está linealmente polarizada cuando esta dirección
se mantiene en el tiempo; cuando varía aleatoriamente en el tiempo, se dice que la
onda no está polarizada.
portadora Frecuencia de la onda electromagnética emitida en el pulso de la antena de
un radar. Tras interactuar con el terreno, la onda retrodispersada o eco deja de
tener un comportamiento periódico, debido a la falta de periodicidad del relieve;
la señal recibida en el sensor es el producto de la onda portadora por la “onda del
terreno”, de modo que se puede eliminar la primera, la portadora, quedando sólo
la información de la superficie.
radar Sensor activo que emite una onda electromagnética y recoge su reflejo en el ob-
jeto de estudio. El radar dispone de una antena que enfoca el haz de ondas elec-
tromagnéticas en la dirección del objeto que se quiere detectar; esta antena emite
y recibe radiación electromagnética a una frecuencia característica, en el entorno
de los Gigahertzs (es decir, con longitudes de onda de centímetros).
radar de apertura real (RAR) Radar que construye una imagen a partir de la señal
recibida en su antena desde el terreno. La resolución espacial de este radar está
limitada por la anchura del haz enviado por la antena que es menor cuanto mayor
sea la antena y menor la longitud de onda. Esta limitación hace que el radar de
apertura real no se pueda utilizar para obtener imágenes detalladas desde satélite,
aunque sí se puede utilizar desde plataformas aerotransportadas (aviones).
radar de apertura sintética (SAR) Radar que construye una imagen combinando las
señales recibidas de varios pulsos sucesivos a lo largo de su movimiento. La reso-
lución espacial de este radar aumenta mucho al sintetizar una antena equivalente
al desplazamiento del sensor a lo largo de su órbita y combinar en ella la infor-
mación procedente de los sucesivos pulsos recibidos. La mayoría de los radares a
bordo de satélites emplean este método de síntesis de antena.
speckle Ruido impulsivo típico de las imágenes de radar originado por la interferencia
coherente de la onda retrodispersada por las estructuras presentes en el terreno.
SRTM (shuttle radar topography mission) Misión del transbordador espacial de la NA-
SA que en 2000 obtuvo datos interferométricos para calcular un modelo de ele-
vación del terreno global de la Tierra. Por extensión, el DEM obtenido a partir de
esos datos.

422
L A INFORMACIÓN DE LAS ONDAS : EL RADAR

swath Línea del terreno barrida por el haz de un radar en dirección perpendicular a
su avance sobre la órbita. Los radares empleados en teledetección son de barrido
lateral, es decir, emiten un haz de microondas alargado perpendicularmente a su
órbita. Este haz barre la superficie, recibiendo un eco de cada línea del swath con
las que se construye la imagen. La palabra swath procede de unir sweep (barrer) y
path (camino).

11.5. BIBLIOGRAFÍA

R. Bamler (1999). “The SRTM mission: A world-wide 30 m resolution DEM from


SAR interferometry in 11 days”. En: Photogrammetric Week ’99, editado por R.
Fritsch y R. Spiller, pp. 145-154. Wichmann Verlag, 1999.

T.G. Farr et al. (2007). “The Shuttle Radar Topography Mission”. Reviews of
Geophysics, 45(2):1-33.

A. Ferretti, A. Monti-Guarnieri, C. Prati, F. Rocca, D. Massonnet (2007). “In-


SAR Principles: Guidelines for SAR Interferometry Processing and Interpreta-
tion” (TM-19, February 2007). Editado por K. Fletcher. ESA Publications ESTEC,
2007.

H. Hersbach, A. Stoffelen, S. de Haan (2007). “An improved C-band scatterometer


ocean geophysical model function: CMOD5”. Journal of Geophysical Research,
112(C3): 1-8.

J. Highcock (1966). “A Sideways Glance — at Position Fixing: The Use of Sideways-


looking Radar”. FLIGHT International, febrero 1966: 423-426.

I. Joughin, B.E. Smith, W. Abdalati (2010). “Glaciological advances made with


interferometric synthetic aperture radar”. Journal of glaciology, 56(200): 1026-
1042.

W.T. Liu (2002). “Progress in Scatterometer Application”. Journal of Oceano-


graphy, 58: 121-136.

D. Massonet et al. (1993). “The displacement field of the Landers earthquake map-
ped by radar interferometry”. Nature, 364: 138-142.

J. Moreira et al. (1995). “X-SAR interferometry: first results”. IEEE Transactions


on Geoscience and Remote Sensing, 33(4): 950-956.

423
C UESTIONES DE TELEDETECCIÓN

V. Rosmorduc, J. Benveniste, E. Bronner, S. Dinardo, O. Lauret, C. Maheu, M.


Milagro, N. Picot (2011). Radar Altimetry Tutorial. Editado por J. Benveniste y
N. Picot, ESA/CNES, 2011.
URL: http://www.altimetry.info.

C. Wu, J.E. Graf, M.W. Spencer, C. Winn (1997). “SeaWinds scatterometer instru-
ment using a pulse compression radar”. Proceedings of the SPIE, 3221: 340-345.

Webgrafía (accesible el 1/05/2015)

More random aviation photos — Space Shuttle Endeavour STS-99


URL: http://www.aviationspectator.com/more-aviation-photos?page=378
Página con fotografías de la misión STS-99 del transbordador Endeavour, durante
la que se adquireron los datos del SRTM.

GGMplus 200m-resolution maps of Earth’s gravity field Gallery


URL: http://geodesy.curtin.edu.au/research/models/GGMplus/gallery.cfm
Galería de imágenes del campo gravitatorio en la superficie terrestre, según el
modelo GGMplus del grupo de Geodesia de la Universidad de Western Australia.

Space in videos — Pine Island retreat — ESA


URL: http://www.esa.int/spaceinvideos/Videos/2014/03/Pine_Island_retreat
Vídeo de la ESA que muestra cómo ha adelgazado la capa de hielo del glaciar
Pine Island (uno de los mayores de la Antártida) entre 1992 y 2011. El vídeo ha
sido generado por el proyecto STSE-GreenSAR de la ESA usando datos del ERS.

ASAR Frequently Asked Questions — ESA


URL: https://earth.esa.int/handbooks/asar/CNTR4.html
Capítulo 4 del manual sobre ASAR (sensor SAR a bordo del ENVISAT) con pre-
guntas básicas sobre radar y SAR.

GPlates Web Portal — EarthByte Group, Sydney University


URL: http://portal.gplates.org/
Portal de visualización 3D de datos gravimétricos y derivados, como el gradiente
gravitatorio y la reconstrucción de placas tectónicas.

424
L A INFORMACIÓN DE LAS ONDAS : EL RADAR

Tutorial: Radar Polarimetry — Natural Resources Canada


URL: http://www.nrcan.gc.ca/earth-sciences/geomatics/satellite-imagery-air-photos/
satellite-imagery-products/educational-resources/9579
Tutorial sobre polarimetría radar. Incluye los fundamentos físicos y también mu-
chas aplicaciones.

U.S. Releases Enhanced Shuttle Land Elevation Data — JPL News


URL: http://www.jpl.nasa.gov/news/news.php?release=2014-321
Noticia sobre la publicación de la versión mejorada de los datos de la SRTM en
septiembre de 2014.

Shuttle Radar Topography Mission — NASA, JPL, CalTech


URL: http://www2.jpl.nasa.gov/srtm/
Página del Jet Propulsion Laboratory de la NASA y del Instituto Tecnológico de
California (CalTech) dedicada a la misión SRTM, su obtención y sus sucesivos re-
procesados y mejoras. También indica cómo acceder a los datos del modelo global
de elevación y proporciona ejemplos de imágenes generadas con ellos, como ésta
de Madrid:
http://www2.jpl.nasa.gov/srtm/spain_radar_images.html

TOPEX/Poseidon — Ocean Surface Topography from Space — NASA JPL, Cal-


Tech
URL: http://sealevel.jpl.nasa.gov/missions/topex/
Página web dedicada al proyecto TOPEX/Poseidon lanzado conjuntamente por la
NASA y el CNES (el centro de estudios espaciales francés).

The Landers earthquake of June 28, 1992 Coseismic Study — NASA JPL
URL: http://www-radar.jpl.nasa.gov/sect323/InSar4crust/LandersCo.html
Página web sobre el estudio por interferometría radar del terremoto de Landers de
1992.

AVISO+ Satellite altimetry data — CNES


URL: http://www.aviso.oceanobs.com/es/casero.html
Sitio web dedicado a la altimetría, especialmente de las cubiertas líquidas de la
Tierra: océanos y casquetes polares.

425
C UESTIONES DE TELEDETECCIÓN

ISG — International Service for the Geoid


URL: http://www.isgeoid.polimi.it/
Sitio web de Asociación Internacional de Geodesia (IAG) dedicado, entre otras
cosas, a mantener una recopilación de los geoides determinados globalmente o en
diferentes partes del mundo.

Marine Gravity from Satellite Altimetry — Exploring Ocean Tectonics from Spa-
ce
URL: http://topex.ucsd.edu/grav_outreach/index.html
Página del grupo de Geodesia Satelital de la Scirps Institution of Oceanography de
la Universidad de California en San Diego con múltiples imágenes de anomalías
gravitatorias debidas al fondo marino, que informan sobre fallas en él.

SLAR image and description — USGS Terrestrial and Seafloor Imagery


URL: http://pubs.usgs.gov/of/2000/of00-006/htm/slar.htm
Mosaico de imágenes de radar de escaneo lateral de la isla de Puerto Rico, obte-
nidas por el USGS desde un avión a 8200 m de altura en 1980.

Shuttle Radar Topography Mission — USGS


URL: http://srtm.usgs.gov
Sitio web del USGS sobre la SRTM con información sobre la adquisición y el
procesado de los datos e imágenes de ejemplo reconstruidas usando el modelo de
elevación del SRTM combinado con imágenes Landsat.

Google Maps — Satellite view


URL: http://www.google.com/maps/@31.330979,-24.3291066,422090m/data=!3
m1!1e3
Vista de Google Maps del fondo del océano Atlántico construida a partir de datos
de la NASA en donde se observa una retícula (“calles en el fondo del mar”) debida
al uso de datos de transectos un sondeo por sónar (figura 11.16).

426
A PÉNDICE A
EL PROGRAMA BEAM
E L PROGRAMA BEAM

Figura A.1. Visat: la interfaz gráfica de Beam.

La herramienta informática Beam/Visat es desarrollada y distribuida por la empre-


sa Brockmann Consulting a través de un contrato con la Agencia Europea del Espacio
(ESA). Inicialmente, Beam tenía en mente procesar imágenes de algunos de los senso-
res de la ESA (el nombre BEAM significa Basic toolbox for ENVISAT (A)ATSR and
MERIS), pero en la actualidad es un programa genérico de teledetección para procesar
imágenes procedentes de muchos más sensores.
Para instalar la aplicación Beam es necesario descargarla desde la página web:
http://www.brockmann-consult.de/cms/web/beam/releases
La última versión (la 5.0, en el momento de escribir este apéndice) se proporciona
en versiones para los diferentes sistemas operativos (Windows, Linux, Mac OS X); se
debe escoger la adecuada para la máquina en la que se vaya a instalar (no sólo el sistema
operativo, sino también la arquitectura apropiada: 32 bits o 64 bits).

A.1. LA INTERFAZ GRÁFICA: VISAT

Lo primero que notamos con la interfaz gráfica de Beam es que está en Inglés: con-
viene acostumbrarnos a la terminología en este idioma, porque la encontraremos fre-
cuentemente en la bibliografía y en otros programas de teledetección. Lo segundo es
que los menús de File (Archivo), Edit (Editar), View (Ver), Window (Ventana) y Help
(Ayuda) nos son familiares de otras aplicaciones.

429
C UESTIONES DE TELEDETECCIÓN

Figura A.2. Menú mostrando todos los formatos que permite importar Beam.

430
E L PROGRAMA BEAM

Figura A.3. Árbol de datos de un producto.

La interfaz gráfica de Beam es Visat (figura A.1). Visat permite mantener abiertas
diferentes imágenes (o productos) cuyas bandas y metadatos organiza en un árbol (que
se muestra a la izquierda). Estos elementos se pueden visualizar (como imágenes, las
bandas, o como tablas, los metadatos) en ventanas que se abren en el espacio principal.
Con las distintas barras de herramientas se puede navegar por la imagen con ayuda del
ratón (desplazándola y haciendo zoom), añadir elementos (como marcadores, puntos de
control, regiones de interés) a las imágenes, cambiar sus colores (definiendo paletas de
color), etc. Desde los menús de Visat se puede acceder a las funciones de Beam, que
cubren operaciones genéricas, útiles para todos los sensores (menús View, Analysis y
la mayoría de Tools), y también a los Plugins (normalmente bajo el menú Tools) que
permiten hacer operaciones específicas sobre imágenes de ciertos sensores.

A.2. APERTURA DE ARCHIVOS

Desde el menú File, podemos abrir archivos (Open), importarlos (Import) y, final-
mente, guardarlos (Save). Para estas operaciones podemos escoger entre varios tipos de
formatos de archivo, que muchas veces se corresponden con diferentes tipos de sensores:
cada sensor suele guardar la información en un formato diferente que proporciona mejor
soporte a la información que recoge el sensor o al procesamiento que recibe (figura A.2).
Por otro lado, también hay formatos genéricos. Y, además, Beam tiene el suyo propio:
el Beam Dimap (heredero del formato Dimap en que se distribuyen las imágenes del
satélite SPOT y del formato IMG del software ENVI).
Una vez importamos un producto, se muestra un resumen de éste en el panel de
“Products View” (figura A.3). Desplegando cada carpeta, podemos inspeccionar los di-

431
C UESTIONES DE TELEDETECCIÓN

Figura A.4. Directorio de metadatos de un archivo GeoTIFF.

Figura A.5. Pins y sus coordenadas y los valores de las bandas mostrados en el “Pin Manager”. En la parte
inferior derecha se puede ver un rectángulo definido sobre la imagen: otro elemento geométrico.

ferentes tipos de información: metadatos, datos vectoriales y bandas.


Los metadatos contienen información sobre la georreferenciación de la escena (el
tipo de proyección, particularmente), sobre la historia de su procesamiento, sobre la
forma de su adquisición (por ejemplo, la configuración de bandas del sensor), etc. Véase
un ejemplo en la figura A.4.
Los datos vectoriales son elementos geométricos: puntos de control sobre el terreno
(GCP, ground control points); marcadores o “chinchetas” (pins) para ubicar posiciones
en la imagen y visualizar sus valores en diferentes bandas; líneas, polígonos, etc. Un
ejemplo de “chinchetas” se muestra en la figura A.5.
Las bandas son cada una de las imágenes adquiridas con los valores de radiancia (ca-
librada o sin calibrar) en cada banda espectral. En Beam hay un tipo especial de banda:
la banda virtual; ésta es una banda calculada a partir de las bandas “reales”, mediante

432
E L PROGRAMA BEAM

Figura A.6. Vistas de las bandas de un producto: arriba, una única banda; derecha, composición en color
“natural” (aunque las diferentes ganancias de los canales no lo aparenten); abajo, composición en “falso
color” (con la banda NIR en el canal rojo, destacando la vegetación en este color).

una expresión algebraica (“aritmética de bandas”) que es lo único que se guarda en me-
moria, no los valores calculados de los píxeles. Estas bandas son muy convenientes, por
razones de ahorro de memoria. En el Árbol del producto, su icono es una “V”.

A.3. VISUALIZACIÓN DE BANDAS

Haciendo doble click sobre una banda del producto se abre una vista de ella (figura
A.6). Es posible abrir vistas RGB (menú View > Open RGB Image) en las que tres
bandas se dirigen a los tres canales, rojo, verde y azul, para mostrar imágenes en color
natural (si a los canales se asignan bandas espectrales verdaderamente en el rojo, verde
y azul) o en falso color (cuando las bandas espectrales no corresponden a esos colores
visibles).
Para visualizar mejor una banda, se puede modificar su tabla de color. La manera más
sencilla de hacerlo es asignar la ventana (la amplitud de la horquilla de niveles digitales
que se quiere dirigir al rango 0..255 de niveles de gris del monitor) y el nivel (el centro
de ese intervalo) guiados por su histograma. El histograma (la estadística de los ND en
función de su valor) suele mostrar distintos “montículos” por cada uno de los tipos de
cubierta diferentes presentes: serán visibles cuando éstas sean radiométricamente muy

433
C UESTIONES DE TELEDETECCIÓN

Figura A.7. Asignación de la ventana y el nivel para visualizar la materia en suspensión en una imagen
NIR del agua.

Figura A.8. Asignación de una tabla de color a una banda de la imagen.

Figura A.9. Información geográfica sobre una imagen: extensión y proyección.

434
E L PROGRAMA BEAM

Figura A.10. Definición de una geocodificación por medio de puntos de control (GCP).

diferentes, como sucede en el caso de agua y tierra. Esto se puede ver en la ventana de
la izquierda de la figura A.7.
Para facilitarnos la visualización, también se puede asignar una paleta de color en
función de los niveles digitales (figura A.8): nuestro ojo puede diferenciar muchos más
colores (de una paleta bien elegida) que niveles de gris.

A.4. GEORREFERENCIACIÓN DE UNA IMAGEN

La asignación de las coordenadas geográficas a cada píxel, viene habitualmente in-


cluida en cada producto. Esta información se puede inspeccionar desde el menú Analysis
> Geocoding, que mostrará en una ventana la extensión geográfica de la escena, el tipo
de proyección y los parámetros de ésta (figura A.9).
Sin embargo, en algunos casos alguna imagen no tendrá esta información o la infor-
mación geográfica que contenga no será fiable, por alguna razón. Entonces, es necesario
georreferenciarla. Esto se puede hacer respecto a otra imagen (por ejemplo, otra que se
haya incluido en el estudio) o respecto a un mapa, buscando puntos fácilmente iden-
tificables en la imagen y poniendo en ellos GCP (puntos de control). Después, se les
asignan las coordenadas que tenían según la otra imagen o según el mapa, usando el
GCP Manager de Beam (figura A.10).

435
C UESTIONES DE TELEDETECCIÓN

Figura A.11. Herramienta de reproyección de una imagen. Se ha seleccionado el datum ED50 y la


proyección transversal de Mercator.

Una vez se “adjudica” (Attach) la geocodificación a la nueva imagen, ya se podrán


determinar las coordenadas geográficas de un punto. Este proceso de cálculo de la geo-
rreferenciación también calcula los errores estadísticos esperados de la misma en los
campos Delta Lon y Delta Lat de cada GCP.
Tras definir la geocodificación, es conveniente reproyectar la imagen a una represen-
tación adecuada: algunas operaciones de Beam no se pueden llevar a cabo con productos
geolocalizados pero no proyectados.
Las representaciones geodésica (latitud según las filas de la imagen y latitud se-
gún las columnas) o la proyección transversal de Mercator (UTM), son las más usadas;
también hay que definir el datum, es decir, el elipsoide terrestre y su orientación en el
espacio. Todo esto se lleva a cabo con la herramienta “Reprojection” (figura A.11), con
la que se puede guardar el resultado como un nuevo producto en formato DIMAP de
Beam.

436
E L PROGRAMA BEAM

Figura A.12. Colocalización de un producto “esclavo” a la referencia espacial de un producto “maestro”.

A.5. CO-LOCALIZACIÓN DE DOS PRODUCTOS

Dos productos pueden estar georreferenciados y cubrir una misma área geográfica,
aunque no ceñirse exactamente a la misma zona. Piénsese, por ejemplo, en dos imágenes
de una misma área geográfica adquiridas por dos sensores: las escenas no se correspon-
derán entre sí más que en una región de intersección (preferiblemente en aquella zona en
la que estemos interesados para nuestro estudio). También es común tener dos productos
de un mismo satélite adquiridos en dos días distintos o con dos sensores distintos. Para
llevar a cabo cualquier proceso que involucre ambas imágenes, se deben co-localizar,
esto es, calcular los valores de valores píxeles de una imagen en las posiciones de la
matriz en la que se definen los de la otra imagen, que se toma como referencia. Para ello,
se seleccionan el producto de referencia o “máster” y el producto que se va a proyectar
sobre él, o “esclavo”, y se emplea la herramienta “Collocation” de Beam (figura A.12).
El resultado será un nuevo producto con bandas procedentes de los dos productos
originales, cuyos píxeles coinciden con los del producto maestro. Los valores del pro-
ducto esclavo se habrán interpolado en esas posiciones, por alguno de los métodos que
proporciona la herramienta (desplegable en la parte inferior de la figura A.12). Este nue-
vo producto se puede guardar en formato DIMAP de Beam.

437
C UESTIONES DE TELEDETECCIÓN

Figura A.13. Creación de un producto de menor tamaño en área geográfica y bandas de trabajo.

Figura A.14. Vista de una banda de la imagen AVHRR/MetOp.

438
E L PROGRAMA BEAM

A.6. CREACIÓN DE NUEVOS PRODUCTOS DE TRABAJO

Por lo general, las escenas que se distribuyen de un sensor son muy grandes, y nues-
tros estudios sólo requerirán pequeñas regiones dentro de ellas. Hay que tener en cuenta
que una imagen ocupa mucha memoria de nuestro ordenador, y también que cualquier
proceso se aplica píxel a píxel de la misma. Por lo tanto, por economía de memoria y
de tiempo de proceso, conviene trabajar sobre escenas flotantes o “subsets” (subconjun-
tos) de la escena original. Estos productos de trabajo se crean con “File > Export raster
> Beam DIMAP” escogiendo la opción “Subset” (figura A.13). Como subconjunto no
sólo se puede definir un área geográfica particular, sino que también se puede reducir el
número de bandas exportadas o, incluso, decidir qué metadatos se quieren eliminar (por
ejemplo, los relacionados con la historia de procesamiento).

A.7. EJEMPLOS PRÁCTICOS

1. Apertura de imágenes y reproyección

Descargue desde http://www.brockmann-consult.de/cms/web/beam/sample-data una


imagen de muestra del AVHRR de los satélites MetOP.

• Ábrala con Beam. Observe la distorsión geométrica que muestra (figura


A.14).
• Calcule el tamaño de un píxel en el centro de la imagen y el de uno en un
borde de la misma utilizando la herramienta de “zoom” y la herramienta de
“regla” para medir la distancia de un píxel a otro (figura A.15).

• Reproyecte la imagen a una proyección UTM usando la herramienta “Tools


> Reprojection”, conservando la resolución espacial (A.16).

• Identifique dos lugares en ella y mida las distancias en píxeles y en km entre


ellas, usando la herramienta “regla” (seleccionando la opción de detalles).
¿Qué diferencia de resolución espacial existe ahora entre el centro y la peri-
feria de la imagen?

439
C UESTIONES DE TELEDETECCIÓN

Figura A.15. Tamaño de píxel en la imagen original: zona del Cabo de San Vicente (97 km / 50 píxeles =
1.94 km/píxel), Golfo de Gabés (Túnez; 129 km / 50 píxels = 2.58 km/píxel) e Isla de Menorca (38 km /
50 píxeles = 0.768 km/píxel).

Figura A.16. Imagen AVHRR reproyectada en UTM.

440
E L PROGRAMA BEAM

Figura A.17. Vista de un área de la imagen de World View-2 (banda verde).

2. Georreferenciación de una imagen

Busque en el catálogo online de Digital Globe (http://browse.digitalglobe.com)


una imagen de previsualización del sensor World View 2, con la máxima reso-
lución espacial posible. Para ello marque un rectángulo sobre el mapa hasta res-
tringir a unos pocas decenas de kilómetros su área de interés; luego, acceda a
“Modify filter” para restringir su búsqueda a productos multiespectrales (RAW
imagery, Pan+MS1+MS2) del sensor World View-2 (WV02); para visualizar las
imágenes disponibles en el catálogo, pulse “Search”.

• Guarde la imagen como un archivo con extensión PNG e impórtela en Beam


(no olvide seleccionar “Image resize: max available resolution”). Visualice
alguna de sus bandas (figura A.17).

• Identifique elementos puntuales de la imagen (accidentes geográficos, cruces


de vías de comunicación, edificios, etc.) distribuidos a lo largo de toda la
imagen y coloque en ellos “puntos de control” (GCP). Basta con unos 10
puntos (figura A.18).

• Busque las coordenadas geográficas (latitud y longitud) de esos puntos. Utili-


ce, por ejemplo, Google Maps (http://maps.google.com) ampliando el zoom
al máximo; si la zona escogida está en España, puede utilizar también el vi-
sor SigPac (http://sigpac.mapa.es/fega/visor/; recomendamos la versión para
HTML5).
• Utilizando el GCP Manager, asigne las coordenadas geográficas a cada GCP
y vincúlelas a la imagen (“Attach”) para que Beam calcule la georreferencia-
ción (figura A.19).

441
C UESTIONES DE TELEDETECCIÓN

Figura A.18. Puntos de control en el terreno marcados sobre la imagen World View-2.

Figura A.19. Correspondencias entre posiciones en la imagen y coordenadas geográficas de los GCP.
Obsérvese el mensaje de que ya se han introducido suficientes puntos para calcular la interpolación).

• Midiendo las distancias en píxeles y en km entre dos puntos de la imagen,


determine cuál es la resolución espacial de la imagen que proporciona Digital
Globe (figura A.20).

442
E L PROGRAMA BEAM

Figura A.20. El tamaño del píxel es de 0.046 km / 4 píxeles = 11.5 m.

Figura A.21. Vista RGB del producto CHRIS/PROBA.

3. Módulos de Beam y algoritmos estándar

Descargue desde http://www.brockmann-consult.de/cms/web/beam/sample-data


una imagen L1 de muestra del sensor CHRIS/PROBA. El producto se distribuye
como un archivo comprimido en ZIP, deberá extraer los archivos que contiene para
poder abrirlo con Beam y visualizarlo (figura A.21).

• Compruebe en qué modo está operando el sensor CHRIS/PROBA de acuerdo


a la Tabla 3 (Overview of CHRIS operating modes) en la página
https://directory.eoportal.org/web/eoportal/satellite-missions/p/proba-1.

Operating mode No of bands GSD (m) Swath width Application


1 62 34 Full Aerosols
2 18 10 Full Water
3 18 18 Full Land
4 18 18 Full Chlorophyll
5 37 18 Half Land

443
C UESTIONES DE TELEDETECCIÓN

Figura A.22. Mascara para la banda 17 e imagen de la banda 17

Figura A.23. Module Manager que permite añadir funcionalidad a Beam.

• Abra las imágenes agrupadas dentro de la carpeta “mask” y compruebe qué


información contienen. ¿Qué bandas contienen máscaras con píxeles marca-
dos? (figura A.22).
• Instale los plugins de Beam para procesar imágenes CHRIS/PROBA. Des-
de el menú “Help”, abra el “Module Manager” (figura A.23). En la pesta-
ña “Available Modules”, seleccione todos los módulos que comiencen por
“CHRIS/Proba. . . ” y pulse “+” para instalarlos (pulse “Ok” cuando haya
terminado).
• Desde “Tools > CHRIS/Proba Tools” ejecute la herramienta “Noise Reduc-
tion” (figura A.24). Compruebe los cambios en las bandas del nuevo produc-
to generado.

444
E L PROGRAMA BEAM

Figura A.24. Arriba: Herramienta “Noise Reduction” para productos CHRIS/PROBA. Abajo: Banda 3
original (izquierda) y obtenida de la herramienta noise reduction (derecha).

445
C UESTIONES DE TELEDETECCIÓN

Figura A.25. Vista de la banda térmica de un producto Landsat TM-5.

4. La calculadora de bandas

Descargue una image GeoTIFF del canal térmico del sensor TM de Landsat-
5 usando la interfaz ESDI (http://glcfapp.glcf.umd.edu:8080/esdi) proporcionada
por la Universidad de Maryland (EE.UU.). El producto se distribuye como un con-
junto de archivos en formato GeoTIFF comprimidos, cada uno correspondiente a
una banda del sensor. Debe descomprimir el archivo de la banda 6 antes de abrirlo
con Beam: utilice una herramienta como 7-zip (http://www.7-zip.org/), WinRAR
(http://www.winrar.es) o la herramienta gunzip.

• Ábrala en Beam (figura A.25) y calibre los DN del GeoTIFF en variables


físicas de temperatura de brillo (figura A.26). Para ello use la herramienta
“Tools > Create Band by Band Maths” y, como ecuación, la siguiente (toma-
da del Landsat Handbook):
1260,56
T=

607,76
log 0,055158×DN+1,2378 +1

• Compruebe con la herramienta “Pixel Info” (figura A.27) si los valores que
muestra la nueva “banda” son razonables en función de la latitud de su esce-
na, de la época del año en que fue adquirida la imagen y el tipo de cubierta
sobre la que la haya calculado (agua, nieve, tierra, vegetación).

446
E L PROGRAMA BEAM

Figura A.26. Herramienta “Band Maths” de aritmética de bandas.

Figura A.27. La temperatura se proporciona en Kelvin: 296,6 K = 23,45◦ C

447
Juan del Rosal, 14
28040 MADRID
Tel. Dirección Editorial: 913 987 521

También podría gustarte